于是针对上述问题,进行了如下尝试:
- 提高blance的速度,将默认的balance速度从1MB/s增大到50MB/s
- 调整balance的平衡比例:
将原来的%5 提高到20%,调整原则就是尽量先让balance影响到最需要平衡数据的节点。
简单说明一下:原有集群的hdfs占用率为80%,新增加3个节点后,集群hdfs的整体占用量为70%, 如果比例是%5的话,那么原有节点都在这个调整范围内,所以各个节点都要被balance,而接受balance的节点只有三个,所以轮到迫切需要balance的节点的概率就比较小;
如果调整到20%,那么原来使用量小于90%的节点都不会被balance,那几台占用量90%以上的节点才会被最先balance,这样只有3个节点符合这个条件,balance的精确性就高了很多。
综合以上两点,balance的效果好多了,解决了最紧迫的节点的磁盘占满的问题,balance的速度终于快于新增数据,20%时需要balance的数据为6TB左右,待这次balance结束后,再运行一次%5的balance,还有2TB的数据要balance,这样经过两次的balance的操作,集群基本平衡了。
一、概述
hdfs 需要存写大量文件,有时磁盘会成为整个集群的性能瓶颈,所以需要优化 hdfs 存取速度,将数据目录配置多磁盘,既可以提高并发存取的速度,还可以解决一块磁盘空间不够的问题。
二、Hadoop DataNode多目录磁盘配置
1)配置hdfs-site.xml
在配置文件中$HADOOP_HOME/etc/hadoop/hdfs-site.xml
添加如下配置: