leveldb源码分析14
# leveldb源码分析14
本系列《leveldb源码分析》共有22篇文章,这是第十四篇
9 LevelDB框架之1
到此为止,基本上Leveldb
的主要功能组件都已经分析完了,下面就是把它们组合在一起,形成一个高性能的k/v存储系统。这就是leveldb::DB
类。
这里先看一下LevelDB的导出接口和涉及的类,后面将依次以接口分析的方式展开。
而实际上leveldb::DB只是一个接口类,真正的实现和框架类是DBImpl这个类,正是它集合了上面的各种组件。
此外,还有Leveldb对版本的控制,执行版本控制的是Version
和VersionSet
类。
在leveldb的源码中,DBImpl和VersionSet是两个庞然大物,体量基本算是最大的。对于这两个类的分析,也会分散在打开、销毁和快照等等这些功能中,很难在一个地方集中分析。
作者在文档impl.html中描述了leveldb的实现,其中包括文件组织、compaction和recovery等等。下面的9.1和9.2基本都是翻译子impl.html文档。
在进入框架代码之前,先来了解下leveldb的文件组织和管理。
# 9.1 DB文件管理
9.1.1 文件类型
对于一个数据库Level包含如下的6种文件:
1/[0-9]+.log:db操作日志
这就是前面分析过的操作日志,log文件包含了最新的db更新,每个更新都以append
的方式追加到文件结尾。当log文件达到预定大小时(缺省大约4MB),leveldb
就把它转换为一个有序表(如下-2),并创建一个新的log文件。
当前的log文件在内存中的存在形式就是memtable
,每次read操作都会访问memtable,以保证read读取到的是最新的数据。
2/[0-9]+.sst:db的sstable文件
这两个就是前面分析过的静态sstable文件,sstable存储了以key排序的元素。每个元素或者是key对应的value,或者是key的删除标记(删除标记可以掩盖更老sstable文件中过期的value)。
Leveldb
把sstable
文件通过level的方式组织起来,从log文件中生成的sstable被放在level 0。当level 0的sstable文件个数超过设置(当前为4个)时,leveldb就把所有的level 0文件,以及有重合的level 1文件merge起来,组织成一个新的level 1文件(每个level 1文件大小为2MB)。
Level 0的SSTable文件(后缀为.sst)和Level>1的文件相比有特殊性:这个层级内的.sst文件,两个文件可能存在key重叠。对于Level>0,同层sstable文件的key不会重叠。考虑level>0,level中的文件的总大小超过10^level MB时(如level=1是10MB,level=2是100MB),那么level中的一个文件,以及所有level+1中和它有重叠的文件,会被merge到level+1层的一系列新文件。Merge操作的作用是将更新从低一级level迁移到最高级,只使用批量读写(最小化seek操作,提高效率)。
3/MANIFEST-[0-9]+:DB元信息文件 它记录的是leveldb的元信息,比如DB使用的Comparator名,以及各SSTable文件的管理信息:如Level层数、文件名、最小key和最大key等等。
4/CURRENT:记录当前正在使用的Manifest文件
它的内容就是当前的manifest
文件名;因为在LevleDb的运行过程中,随着Compaction
的进行,新的SSTable
文件被产生,老的文件被废弃。并生成新的Manifest文件来记载sstable
的变动,而CURRENT
则用来记录我们关心的Manifest文件。
当db被重新打开时,leveldb总是生产一个新的manifest文件。Manifest文件使用log的格式,对服务状态的改变(新加或删除的文件)都会追加到该log中。
上面的log文件、sst文件、清单文件,末尾都带着序列号,其序号都是单调递增的(随着next_file_number
从1开始递增),以保证不和之前的文件名重复。
5/log:系统的运行日志,记录系统的运行信息或者错误日志。 6/dbtmp:临时数据库文件,repair时临时生成的。 这里就涉及到几个关键的number计数器,log文件编号,下一个文件(sstable、log和manifest)编号,sequence。 所有正在使用的文件编号,包括log、sstable和manifest都应该小于下一个文件编号计数器。 9.1.2 Level 0
当操作log超过一定大小时(缺省是1MB),执行如下操作:
S1 创建新的memtable和log文件,并重导向新的更新到新memtable和log中; S2 在后台: S2.1 将前一个memtable的内容dump到sstable文件; S2.2 丢弃前一个memtable; S2.3 删除旧的log文件和memtable S2.4 把创建的sstable文件放到level 0
# 9.2 Compaction
当level L
的总文件大小查过限制时,我们就在后台执行compaction操作。Compaction操作从level L中选择一个文件f,以及选择中所有和f有重叠的文件。如果某个level (L+1)的文件ff只是和f部分重合,compaction依然选择ff的完整内容作为输入,在compaction后f和ff都会被丢弃。
另外:因为level 0
有些特殊(同层文件可能有重合),从level 0到level 1的compaction
就需要特殊对待:level 0的compaction可能会选择多个level 0文件,如果它们之间有重叠。
Compaction将选择的文件内容merge
起来,并生成到一系列的level (L+1)文件中,如果输出文件超过设置(2MB),就切换到新的。当输出文件的key范围太大以至于和超过10个level (L+2)文件有重合时,也会切换。后一个规则确保了level (L+1)的文件不会和过多的level (L+2)文件有重合,其后的level (L+1) compaction不会选择过多的level (L+2)文件。
老的文件会被丢弃,新创建的文件将加入到server状态中。
Compaction操作在key空间中循环执行,详细讲一点就是,对于每个level,我们记录上次compaction的ending key
。Level的下一次compaction将选择ending key之后的第一个文件(如果这样的文件不存在,将会跳到key空间的开始)。
Compaction会忽略被写覆盖的值,如果更高一层的level没有文件的范围包含了这个key,key的删除标记也会被忽略。
9.2.1 时间
Level 0的compaction最多从level 0读取4个1MB的文件,以及所有的level 1文件(10MB),也就是我们将读取14MB,并写入14BM。 Level > 0的compaction,从level L选择一个2MB的文件,最坏情况下,将会和levelL+1的12个文件有重合(10:level L+1的总文件大小是level L的10倍;边界的2:level L的文件范围通常不会和level L+1的文件对齐)。因此Compaction将会读26MB,写26MB。对于100MB/s的磁盘IO来讲,compaction将最坏需要0.5秒。 如果磁盘IO更低,比如10MB/s,那么compaction就需要更长的时间5秒。如果user以10MB/s的速度写入,我们可能生成很多level 0文件(50个来装载5*10MB的数据)。这将会严重影响读取效率,因为需要merge更多的文件。
解决方法1:为了降低该问题,我们可能想增加log切换的阈值,缺点就是,log文件越大,对应的memtable文件就越大,这需要更多的内存。 解决方法2:当level 0文件太多时,人工降低写入速度。 解决方法3:降低merge的开销,如把level 0文件都无压缩的存放在cache中。
9.2.2 文件数
对于更高的level
我们可以创建更大的文件,而不是2MB,代价就是更多突发性的compaction
。或者,我们可以考虑分区,把文件放存放多目录中。
在2011年2月4号,作者做了一个实验,在ext3文件系统中打开100KB的文件,结果表明可以不需要分区。
文件数 文件打开ms 1000 9 10000 10 100000 16
# 9.3 Recovery & GC
9.3.1 Recovery
Db恢复的步骤:
S1 首先从CURRENT读取最后提交的MANIFEST S2 读取MANIFEST内容 S3 清除过期文件 S4 这里可以打开所有的sstable文件,但是更好的方案是lazy open S5 把log转换为新的level 0sstable S6 将新写操作导向到新的log文件,从恢复的序号开始 9.3.2 GC
垃圾回收,每次compaction和recovery之后都会有文件被废弃,成为垃圾文件。GC
就是删除这些文件的,它在每次compaction和recovery完成之后被调用。