文章目录

  • ​​1.解压HBase安装包​​
  • ​​2.修改配置文件​​
  • ​​1.hbase-env.sh​​
  • ​​2.hbase-site.sh​​
  • ​​3.regionservers​​
  • ​​3.将需要的HDFS文件链接到HBase目录下​​


【HBase】(1)-HBase的安装_hdfs

 
简 介:HBase是谷歌BigData论文的一个代码实现,在大数据处理领域应用广泛。本文意在记录自己近期学习过程中的所学所得,如有错误,欢迎大家指正。
 
关键词:大数据组件、HBase、NoSQL

1.解压HBase安装包

tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt

2.修改配置文件

【HBase】(1)-HBase的安装_hadoop_02

1.hbase-env.sh

# 配置jdk
export JAVA_HOME=/opt/module/jdk1.8.0_144
# 将HBase内置的zk置为false,不使用hbase内置的zk,否则会出现问题,使用自己的zk可以很方便的查询相关数据
export HBASE_MANAGES_ZK=false

2.hbase-site.sh

<configuration>
<property>
<!--将HBase存储到HDFS的哪个目录下-->
<name>hbase.rootdir</name>
<value>hdfs://hadoop102:9000/HBase</value>
</property>
<property>
<!--配置是否配置分布式集群,如果为false就是单机模式-->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 0.98 后的新变动,之前版本没有.port,默认端口为 60000 -->
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<!--配置HBase的集群-->
<name>hbase.zookeeper.quorum</name>
<value>hadoop102,hadoop103,hadoop104</value>
</property>
<property>
<!--配置HBase对应的zookeeper目录-->
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.10/zkData</value>
</property>
</configuration>

3.regionservers

# 配置对应的集群,分配regionservers
node1
node2
node3

3.将需要的HDFS文件链接到HBase目录下

ln -s /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml
ln -s /opt/module/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml

【HBase】(1)-HBase的安装_hdfs_03