前面我们已经知道了,数据写入过程中,需要先写memstore,然后memstore满了以后,flush写入磁盘,形成新的HFile文件。
当HFile文件数量不断累积,Region server就会触发compaction机制,把小文件合并为大的HFIle。
当每次flush完成 或者 compaction完成后,regionSplitPolicy就会判断是否需要进行split。
split触发时机简单来说,就是看一个region里面的最大store是否超过阈值。
当然,hbase支持多种策略来设置这个阈值到底怎么计算,这就是触发策略。
- 0.94版本前默认的策略是ConstantSizeRegionSplitPolicy,这个阈值时一个固定值。
- 0.94-2.0版本的默认策略是IncreasingToUpperBoundRegionSplitPolicy。
- 2.0版本的默认策略是SteppingSplitPolicy。这两种策略设置的阈值不是一个固定值,而是会和region所属表在当前regionserver上的region个数有关。只是在计算公式上稍有差异。
另外,还有比如DisableSplitPolicy、KeyPrefixRegionSplitPolicy,DelimitedKeyPrefixRegionSplitPolicy等策略,就不一一介绍了。
一旦开始region split,那么就会创建两个daughter region。
这时候不会立刻将所有数据写到新的region里面去,而是创建引用文件,叫做Reference files,指向parent region。
reference文件作为一个数据规则文件,在split期间,新的查询会根据这个文件去父region的HStore上查询数据。当经过一次major compaction后,数据迁移到新的region中,reference文件会被删除,表示spilit真正完成。
具体过程如下:
1)regionserver在zookeeper中创建一个新的znode在/hbase/region-in-transition/region-name目录下,状态为SPLITTING
2)master通过watch zk上的region-in-transition目录,得知这个region处于split状态
3)region server在HDFS的parent region目录下创建一个子目录叫做“.splits”
4)region server关闭parent region,强制flush这个region下的cache数据,并且标记这个region为下线状态。这个时候,如果有客户端请求落在这个region上,就会抛出NotServingRegionException。
5)Region server创建新的region在.spllits目录下,我们标记为daughter region A和daughter region B,同时创建必要的数据结构。然后就会创建两个Reference文件,指向parent region的那些存储文件。
6)Region Server在HDFS中创建实际的region目录,并将daughterA和daughter B移动到HBase根目录下,形成两个新的region。
7)Region server会发送put请求给.mete. table,然后把parent region设置为offline的状态,并且给新的region添加信息。
8)region server 打开新的region接受读写请求
9)region server将region A和B的信息添加到.meta.表,可以真正对外提供服务了。
扫尾工作:
1)客户端请求.meta.表,发现新的region信息,就会把本地缓存重新设置
2)region server更新zk上/hbase/region-in-transition/region-name目录下的znode状态,改为SPLIT,然后master通过watch得知这个信息。如果有必要,负载均衡器可以选择将新的region分布到新的region server上。
3)完成split工作后,meta和HDFS还是会保留reference文件到parent region。等到下次compaction时,会完成数据到新region的迁移,然后才会删除reference文件。
当一张表被首次创建时,只会分配一个region给这个表。因此,在刚刚开始时,所有读写请求都会落在这个region所在的region server上,而不管你整个集群有多少个region server。不能充分地利用集群的分布式特性。
主要原因跟split的机制有关,一开始的时候,系统无法判断你到底需要用哪个rowkey进行split。
因此,hbase提供了工具让你能自己解决这个问题,叫做pre-splitting。
你可以在创建表的时候,指定哪些split point将region分成几份。如果切分的好,那么自然就可以一开始就充分利用分布式的特性。但是需要注意,如果切分的不好,存在热点region,那么反而会影响读写性能。
这里也没有一个特别好的原则来说到底pre split多少个region最合适,不过最好的方式,还是以region server数量的倍数(较小的倍数)来创建pre split的region数量,然后让集群本身去做自动的spliting。
2.0版本后,HBase会使用HLog存储单机事务(DDLSplitMove等)的中间状态,保证了即使事务过程中出现异常,也能安全地回滚或继续提交。
看到这里了,原创不易,点个关注、点个赞吧,你最好看了~
知识碎片重新梳理,构建Java知识图谱:https://github.com/saigu/JavaKnowledgeGraph(历史文章查阅非常方便)
扫码关注我的公众号“阿丸笔记”,第一时间获取最新更新。同时可以免费获取海量Java技术栈电子书、各个大厂面试题。