找回密码
 注册
关于网站域名变更的通知
查看: 454|回复: 1
打印 上一主题 下一主题

 转——SSD去重:建模和量化分析

[复制链接]
  • TA的每日心情
    开心
    2019-11-19 15:19
  • 签到天数: 1 天

    [LV.1]初来乍到

    跳转到指定楼层
    1#
    发表于 2019-3-27 08:00 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

    EDA365欢迎您登录!

    您需要 登录 才可以下载或查看,没有帐号?注册

    x
    转——SSD去重:建模和量化分析
    数据去重技术可以有效减少写负载,节约存储空间,进而减少垃圾回收的次数,增加垃圾回收和损耗均衡算法的效率,对SSD的寿命有很好的改进。这篇来自MSST’2012的文章站在了CAFTLCA-SSD的肩膀上,进一步探讨了数据去重对SSD性能的影响,也就是探讨数据去重是否可以改进SSD的写延迟。6 I! U4 d9 [! R" ^) k
    ! R% `% w. u; B, d
    数据去重为SSD带来了很多的好处,但是存在两大挑战:1.数据去重的开销问题,通常SSD的资源有限,只有ARM7ARM9等低端CPU和少量内存,这和备份归档环境有很大不同;2.SSD的典型负载是否有足够的重复数据?
    ( |& _; M8 z# D7 [6 {
    ( Q. G! q  F, c# l" f6 a3 k为了回答这些问题,作者为SSD设计了一个数据去重框架,由指纹生成器、指纹管理、映射管理组成。和CAFTLCA-SSD一样,分别针对映射表(CAFTLCA-SSD)、指纹索引(LRU)、哈希计算瓶颈(硬件逻辑和取样法)进行讨论,并提出了解决方案。
    : ^6 G" u, @# Q8 y8 B! R4 d  w% g& l7 r; ?
    针对9个负载的实验表明,平均可以达到17%的重删率,SHA-1硬件逻辑的延迟是80us,平均可以改善延迟15%;当SSD装配了较高端CPU,比如ARM9时,软件实现的取样哈希法也可以获得很好的效果;数据去重平均可以提高2.4倍寿命。
    1.概述

    / b# U6 G9 ~% j+ S, v ' H9 O/ y1 Q( l) D, D
    ; O. @% b8 ]2 ]* U$ d: F$ |
    1展示了SSD的基本结构,以及本文设计的数据去重框架。数据去重的功能组件(指纹生成器、指纹管理和映射管理)都位于FTL。指纹生成器的设计对性能的影响很大,本文分别提出了硬件和软件的实现方案;指纹管理的问题在于应该维护多大的索引,传统的备份和归档应用会维护完整的索引,但SSD的内存有限,因此本文采用一种类似CA-SSDLRU索引;FTL的映射表很容易将多个逻辑地址映射到同一个物理地址来实现数据去重,但存在的问题是当垃圾回收时,如何快速地更新映射表,本文采用了CA-SSD的反向映射法。
    2.建模
    7 t  c9 `% r2 y1 P# H5 R) N* t, W
    本文对数据去重开销进行建模,寻找去重开销、去重率和写延迟的关系。给定去重开销,要想改进写延迟,必须满足多少去重率。. Q+ }, Z: O' W/ F" Q# l

    , J0 ~. w6 N& l7 H# d0 U1 {7 G/ i无去重SSD的写延迟如下,FMprogram是写入数据的延迟,MAPmanage是更新映射表的延迟。
    + T9 n  I& Q% W5 ~  e4 E- g$ m; H! F* Z2 U

    : T1 h3 h' Z  B# M, f; d/ Y% z2 Q, e$ w+ _# m1 A7 k
    而装备去重的SSD,其写延迟如下。
    5 G$ }- s' }! s( T
    # X5 G3 r- p* ]9 Z- j ( Q8 `' v% F: L2 r% ^
    / Z9 o3 ~. i. h7 F
    FPgenerator是计算指纹的时间,FPmanage是查询指纹的时间,DUPrate是去重率。比较两个公式,去重SSD要想改善写延迟,必须满足:
    & T; B' k4 l5 ]6 W+ e& m+ W8 z2 M. p; i/ c! j# X7 b  x

    * T$ r8 o/ K* R1 ?; d- m% c* G( F+ O! m# m
    这个等式表示,当去重率高于这个水平时,就可以改善SSD的写延迟。实际上,SSD的写延迟还必须考虑垃圾回收的时间,而数据去重可以减少垃圾回收的次数和时间,因此去重率实际上可以更低。当写数据的时间越长,所需要的去重率就越低。例如,当写数据的时间为1300us,去重的开销是256us,去重率最低需要16%才能获得性能提升。现在最主要的问题是如何减少去重的开销。
    3.指纹计算
    9 S; }1 A  c9 P1 Y8 i+ b7 o+ s% y
    作者测试了三种CPU计算SHA-1的延迟,以及SHA-1硬件逻辑的延迟,如图4。可见SHA-1的开销还是很大的,结合公式3,可知使用MicroBlazeARM7SSD无论如何不可能因为去重而获得性能提升。  @: s. r2 u1 H3 O
    & `, @9 l+ {8 `

    , U1 S) y+ B) V" k) w  G. y
    + H) _% K6 {) s作者在Xilinx Virtex6 XC6VLX240T FPGA之上实现了SHA-1硬件逻辑,其计算延迟只有80us。它由五部分组成:主控制单元,负责管理总体逻辑;IO控制单元,负责与CPU交互;双端口BRAM,存储4KB临时数据;SHA-1核心,实现标准SHA-1算法;哈希比较器,检查两指纹是否相同。使用Verilog HDL 2001进行RTL编码(对FPGAVerilog HDLRTL编码完全不懂啊,所以全部抄下来了)。采用硬件逻辑,只需要5%的去重率就可以提升性能。# d* }9 d" a2 I. \: t# ^

      c( s% \4 u3 @5 A + E6 q5 @0 \  M. v, `# }

    6 X# h$ S6 R4 Y; R" I使用硬件逻辑增加了产品的价格,对于装备了ARM9或者更高端CPUSSD,采用软件方法也是有机会获得性能提升的。通过实验,发现重复数据具有类似TVLCA-SSD)的时间局部性,即大多数重复数据的到达时间非常接近,基于此提出了抽样哈希法(和CAFTL的抽样有些不一样)。图7是取样法的图示,它利用了SSD的写缓冲区,大概32MB,最多可以缓冲8000page。当SSD接收到一个写请求,首先从page内偏移q的位置取样p>=20)字节,使用这p字节作为哈希索引插入page到某个bucket中,因此相同p字节被插入同一个bucket。当缓冲区满时,只需要对长度大于1bucket进行哈希计算,预期可以减少大量不必要的计算开销。缓冲区的大小会对去重率产生影响。! g$ G" \; @/ D; _# j% H# P

    * L8 V# p: Z7 i+ k5 X3 k4 [
    4.指纹索引

    % v" z( A! w; e3 X使用的是和CA-SSD几乎一样的LRU索引,按照指纹的产生时间组织队列。图8是实验结果,当LRU索引的规模超过2048时,能够很好挖掘所有负载的重复数据。0 }" O3 d+ c2 V  k. |
    * J2 |9 z& h9 I
    5.映射表

      E3 \6 Y# l2 B3 c; Z; l9 z3 X去重将逻辑地址到物理地址的映射关系变为n-to-1,这里最大的挑战是如何优化垃圾回收:移动一个合法page,需要更新n个逻辑地址的映射关系。而优化垃圾回收问题又可以分为两个问题,定位逻辑地址和更新映射关系。
    ; r' Q1 h- U8 l+ X8 M: t) g$ W2 T! f) `- W, V2 q, W6 J" d( b
    本文并没有提出新的映射表设计,而是比较了CAFTLCA-SSD,二者做出了不同的权衡。CAFTLCA-SSD的比较一文已经将二者进行了对比。CAFTL的读操作需要额外访问二级映射表;同时,CAFTL移动一个合法page只需要更新一个位置,而CA-SSD需要更新所有对应的逻辑page的映射关系。CA-SSD垃圾回收的效率取决于iLPT表中链表的平均长度,通过实验发现,大多数page的重复次数不超过3,因此作者选择了CA-SSD
    6.实验
    & D+ N3 [; i* i7 J. _1 O, V. Q
    实验所用9个负载的重复数据特性如图10所示,去重率从4%51%,平均17%
    % X- g" D+ S; U6 s: ~0 a0 v6 f- h

    , B4 A1 |+ `4 p( S
    7 N" }9 O1 \( {. L. O实验的重点是检查去重对写延迟的影响,图12比较了装备SHA-1硬件逻辑的数据去重和无去重SSD,以及引起垃圾回收时的结果。可以看出对于9个负载,数据去重SSD的写延迟都降低了;有垃圾回收时,数据去重对写延迟的改进更加明显,可见数据去重可以加速垃圾回收。
    + F8 z& k) A5 T) l# t) m$ u8 B
    % `: e- C, n$ W; ~ / F. J7 F$ c+ U" _  l; F1 p7 ?

    7 X- @( g/ U; N- @6 U# T14是软件实现取样哈希的效果。14(a)显示了取样法损失的去重率,大概能获得完全哈希64%的重删率。14(b)比较了无去重、取样哈希、完全哈希的写延迟,这里使用的CPUARM9,取样哈希比完全哈希的写延迟更小,和无去重差不多。
      N/ J, Y, Z  C  |: A2 M! h  \! d, l; W7 g
    & o3 u$ v. d4 @4 B" Z/ p2 J
    您需要登录后才可以回帖 登录 | 注册

    本版积分规则

    关闭

    推荐内容上一条 /1 下一条

    EDA365公众号

    关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

    GMT+8, 2025-10-8 20:43 , Processed in 0.187500 second(s), 26 queries , Gzip On.

    深圳市墨知创新科技有限公司

    地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

    快速回复 返回顶部 返回列表