因官方book performance tuning部分章节 没有按配置项进行索引,不能达到快速查阅的效果。所以我以配置项驱动,重新整理了原文,并补充一些自己的理解,如有错误,欢迎指正。
配置优化zookeeper.session.timeout
默认值:3分钟(180000ms)
说明:regionserver与zookeeper间的连接超时时间。当超时时间到后,reigonserver会被zookeeper从rs集群清单中移除,hmaster收到移除通知后,会对这台server负责的regions重新balance,让其他存活的regionserver接管.
调优:
这个timeout决定了regionserver是否能够及时的failover。设置成1分钟或更低,可以减少因等待超时而被延长的failover时间。
不过需要注意的是,对于一些online应用,regionserver从宕机到恢复时间本身就很短的(网络闪断,crash等故障,运维可快速介入),,如果调低timeout时间,反而会得不偿失。因为当reigonserver被正式从rs集群中移除时,hmaster就开始做balance了 (让其他rs根据故障机器记录的wal日志进行恢复)。当故障的rs在人工介入恢复后,这个balance动作是毫无意义的,反而会使负载不均匀,给rs 带来更多负担。特别是那些固定分配regions的场景。
hbase.regionserver.handler.count
默认值:10
说明:regionserver的请求处理io线程数。
调优:
这个参数的调优与内存息息相关。
较少的io线程,适用于处理单次请求内存消耗较高的big put场景(大容量单次put或设置了较大cache的scan,均属于big put)或reigonserver的内存比较紧张的场景。 【linux公社 】
较多的io线程,适用于单次请求内存消耗低,tps要求非常高的场景。设置该值的时候,以监控内存为主要参考。
这里需要注意的是如果server的region数量很少,大量的请求都落在一个region上,因快速充满memstore触发flush导致的读写锁会影响全局tps,不是io线程数越高越好。
压测时,开启enabling rpc-level logging ,可以同时监控每次请求的内存消耗和gc的状况,最后通过多次压测结果来合理调节io线程数。
这里是一个案例 hadoop and hbase optimization for read intensive search applications ,作者在ssd的机器上设置io线程数为100,仅供参考。
hbase.hregion.max.filesize
默认值:256m
说明:在当前reigonserver上单个reigon的最大存储空间,单个region超过该值时,这个region会被自动split成更小的region。
调优:
小region对split和compaction友好,因为拆分region或compact小region里的storefile速度很快,内存占用低。缺点是split和compaction会很频繁。
特别是数量较多的小region不停地split, compaction,会导致集群响应时间波动很大,region数量太多不仅给管理上带来麻烦,甚至会引发一些hbase的bug。
一般512以下的都算小region。
大region,则不太适合经常split和compaction,因为做一次compact和split会产生较长时间的停顿,对应用的读写性能冲击非常大。此外,大region意味着较大的storefile,compaction时对内存也是一个挑战。
当然,大region也有其用武之地。如果你的应用场景中,某个时间点的访问量较低,那么在此时做compact和split,既能顺利完成split和compaction,又能保证绝大多数时间平稳的读写性能。
既然split和compaction如此影响性能,有没有办法去掉?
compaction是无法避免的,split倒是可以从自动调整为手动。
只要通过将这个参数值调大到某个很难达到的值,比如100g,就可以间接禁用自动split(regionserver不会对未到达100g的region做split)。
再配合regionsplitter这个工具,在需要split时,手动split。
手动split在灵活性和稳定性上比起自动split要高很多,相反,管理成本增加不多,比较推荐online实时系统使用。
内存方面,小region在设置memstore的大小值上比较灵活,大region则过大过小都不行,过大会导致flush时app的io wait增高,过小则因store file过多影响读性能。
