因官方Book Performance Tuning部分章节没有按配置项进行索引,不能达到快速查阅的效果。所以我以配置项驱动,重新整理了原文,并补充一些自己的理解,如有错误,欢迎指正。

  配置优化

  zookeeper.session.timeout

  默认值:3分钟(180000ms)

  说明:RegionServer与Zookeeper间的连接超时时间。当超时时间到后,ReigonServer会被Zookeeper从RS集群清单中移除,HMaster收到移除通知后,会对这台server负责的regions重新balance,让其他存活的RegionServer接管.

  调优:

  这个timeout决定了RegionServer是否能够及时的failover。设置成1分钟或更低,可以减少因等待超时而被延长的failover时间。

  不过需要注意的是,对于一些Online应用,RegionServer的宕机到恢复时间本身很短的(网络闪断,crash等故障,运维可快速介入),如果调低timeout时间,会得不偿失。因为当ReigonServer被正式从RS集群中移除时,HMaster开始做balance了,当故障的RS快速恢复后,这个balance动作是毫无意义的,反而会使负载不均匀,给RS带来更多负担。

  hbase.regionserver.handler.count

  默认值:10

  说明:RegionServer的请求处理IO线程数。

  调优:

  这个参数的调优与内存息息相关。

  较少的IO线程,适用于处理单次请求内存消耗较高的Big PUT场景(大容量单次PUT或设置了较大cache的scan,均属于Big PUT)或ReigonServer的内存比较紧张的场景。

  较多的IO线程,适用于单次请求内存消耗低,TPS要求非常高的场景。

  这里需要注意的是如果server的region数量很少,大量的请求都落在一个region上,因快速充满memstore触发flush导致的读写锁会影响全局TPS,不是IO线程数越高越好。

  压测时,开启Enabling RPC-level logging,可以同时监控每次请求的内存消耗和GC的状况,后通过多次压测结果来合理调节IO线程数。

  这里是一个案例 Hadoop and HBase Optimization for Read Intensive Search Applications,作者在SSD的机器上设置IO线程数为100,仅供参考。

  hbase.hregion.max.filesize

  默认值:256M

  说明:在当前ReigonServer上单个Reigon的大小,单个Region超过指定值时,这个Region会被自动split成更小的region。

  调优:

  小region对split和compaction友好,因为拆分region或compact小region里的storefile速度很快,内存占用低。缺点是split和compaction会很频繁。

  特别是数量较多的小region不停地split, compaction,会使响应时间波动很大,region数量太多不仅给管理上带来麻烦,甚至引发一些Hbase的bug。

  一般512以下的都算小region。

  大region,则不太适合经常split和compaction,因为做一次compact和split会产生较长时间的停顿,对应用的读写性能冲击非常大。此外,大region意味着较大的storefile,compaction时对内存也是一个挑战。

  当然,大region还是有其用武之地,你只要在某个访问量低峰的时间点统一做compact和split,大region可以发挥优势了,毕竟它能保证绝大多数时间平稳的读写性能。

  既然split和compaction如此影响性能,有没有办法去掉?

  compaction是无法避免的,split倒是可以从自动调整为手动。

  只要通过将这个参数值调大到某个很难达到的值,比如100G,可以间接禁用自动split(RegionServer不会对未到达100G的region做split)。

  再配合RegionSplitter这个工具,在需要split时,手动split。

  手动split在灵活性和稳定性上比起自动split要高很多,相反,管理成本增加不多,比较推荐online实时系统使用。

  内存方面,小region在设置memstore的大小值上比较灵活,大region则过大过小都不行,过大会导致flush时app的IO wait增高,过小则因store file过多读性能降低。

  hbase.regionserver.global.memstore.upperLimit/lowerLimit

  默认值:0.4/0.35

  upperlimit说明:hbase.hregion.memstore.flush.size 这个参数的作用是 当单个memstore达到指定值时,flush该memstore。但是,一台ReigonServer可能有成百上千个memstore,每个memstore也许未达到flush.size,jvm的heap不够用了。该参数是为了限制memstores占用的总内存。

  当ReigonServer内所有的memstore所占用的内存综合达到heap的40%时,HBase会强制block所有的更新并flush这些memstore以释放所有memstore占用的内存。

  lowerLimit说明: 同upperLimit,只不过当全局memstore的内存达到35%时,它不会flush所有的memstore,它会找一些内存占用较大的memstore,个别flush,当然更新还是会被block。lowerLimit算是一个在全局flush前的补救措施。可以想象一下,如果memstore需要在一段时间内全部flush,且这段时间内无法接受写请求,对HBase集群的性能影响是很大的。

  调优:这是一个Heap内存保护参数,默认值已经能适用大多数场景。它的调整一般是为了配合某些专属优化,比如读密集型应用,将读缓存开大,降低该值,腾出更多内存给其他模块使用。