如何突破DRAM对SSD容量提升的限制?
如何突破DRAM对SSD容量提升的限制?
近日,Pure Storage公司的研发高级副总裁肖恩·罗斯马林(Shawn Rosemarin)提出一个观点:“由于DRAM的局限性,固态硬盘(SSD)的容量难以突破30TB”。这个观点虽然不完全准确(Solidigm已经发布了最大容量61.44TB QLC SSD),但其背后的逻辑确实反映了业内在提升SSD容量时不可避免遇到的问题。
随着SSD容量的增长,存储映射表所需的DRAM成本也随之增加。假设采用1:1的L2P映射以及4KB的逻辑块大小,对于一个256GB的SSD,至少需要256MB的RAM来存放映射表。当SSD容量达到64TB级别时,按照这种比例计算,所需的RAM容量将会高达64GB,这对设备的成本控制等构成挑战。因此,需要采用新的技术手段来控制映射表所需的DRAM。
在SSD内部降低DRAM需求
一种方法就是增大映射比率或间接寻址单元(IU),不再采用1:1映射,而是采用n:1 L2P映射,其中n大于1。RAM占用量与n成反比,即多个逻辑块可以共享一个物理映射。
例如,若IU设置为16KB,则意味着每16KB的逻辑空间仅需要一个映射条目指向一个物理块。这样可以显著减少DRAM消耗,尤其是在大容量SSD上,避免因存储映射信息所需的DRAM资源过多而增加成本。
然而,增大间接寻址单元IU虽然有助于降低DRAM需求,但也可能带来性能和耐久性方面的挑战。当主机发出的IO大小小于IU时,会发生读取-修改-写回(Read-Modify-Write, RMW)操作。这意味着即使只是更新一小部分数据,SSD也必须先读取整个物理块的内容,合并新的数据,然后将整个块重新写入闪存。这种情况下,原本只需要一次的小规模写入操作被放大成了整块物理区块的写入,这就是所谓的“写入放大效应”。
具体来说,假设SSD设置了一个16KB的IU,这意味着一个物理闪存块可以对应多个连续的4KB LBA。如果主机发出一个仅写入4KB的数据请求,且该请求起始位置不在IU的边界上,则SSD需要首先读取包含目标4KB区域的整个16KB物理块,将新的4KB数据合并到已读取的数据中,然后将整个更新后的16KB物理块重新写入NAND闪存。这个过程实际上执行了原本只需写入4KB数据量的四倍,即产生了4x的写入放大因子。
对于耐久性敏感的QLC NAND而言,这种写入放大的影响尤为严重,因为QLC NAND的每个单元可编程次数相对较少。每一次额外的写入都会加速NAND单元的老化,缩短整个SSD的使用寿命。
然而,随着IO尺寸增加至接近或大于16KB,这种情况会有所改变。一旦IO大小等于或大于IU大小,那么这种IO就可以直接且完整地写入对应的物理块,无需进行额外的读取和合并操作。因此,在这种情况下,大尺寸IO对WAF的贡献就会明显降低,几乎不会产生额外的写入放大效应。
从Host软件层面接管SSD内部的FTL功能
另一种思路是从Host软件层面接管SSD内部的FTL功能,比如Open-channel、ZNS SSD等。在ZNS的场景下,不同应用按照Zone配置信息,相应存放业务数据。主要集中在顺序读写的workload场景。由于是Host管理数据的摆放和存取位置,会最大程度减少GC垃圾回收。
通过减少SSD的DRAM空间和去掉OP冗余空间,可以提升用户可用的容量。
两种方案的优劣对比
- 在SSD内部降低DRAM需求:优点是可以在不改变现有系统架构的情况下优化DRAM使用,缺点是可能带来性能和耐久性问题。
- 从Host软件层面接管SSD内部的FTL功能:优点是可以通过Host管理优化数据布局,减少GC操作,缺点是需要系统层面的支持,可能增加Host的负担。
这两种方案各有优劣,实际应用中可能需要根据具体场景和需求进行选择。