1学员答疑

1,自己部署不起来
基本原因是 vi/vim使用不熟悉

2,可以有两种方式解决

1 下载module.tar

​=============学生操作==============​

2:上传module.tar到/opt/software/

3:解压

sudo chown -R /opt/
tar -xvf /opt/software/module.tar -C /opt/module/

4:环境变量修改

vim /etc/profile

添加

JAVA_HOME=/opt/module/jdk1.8.0_212
PATH=$PATH:$JAVA_HOME/bin
export PATH JAVA_HOME

HADOOP_HOME=/opt/module/hadoop-3.1.3
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export PATH

source /etc/profile 

5:将虚拟机改成hadoop101
按 《Hadoop虚拟机准备.txt》 注意ip,网段与主机名
重启

sudo reboot

6:清除原有ssh

ssh-keygen -R "你的远程服务器ip地址"

再重新生成ssh

​=============老师操作==============​

1:将moudle目录进行压缩

cd  /opt/module
tar -cvf /opt/software/module.tar ./

下载发给学生

​太大了​

2 使用git

先安装git

sudo  yum install git

然后一路输入y回车

cd到配置文件目录

cd /opt/module/hadoop-3.1.3/etc

给hadoop重命名

mv hadoop hadoop_bak

同步我的配置内容

git clone https://codehub.devcloud.cn-north-4.huaweicloud.com/hadooppzxxgl00001/hadoop.git

可以使用 ​​start-all.sh​​启动

​=============老师操作==============​

git init
git add .
git commit -m "import"
git remote add origin git@codehub.devcloud.cn-north-4.huaweicloud.com:hadooppzxxgl00001/hadoop.git

第3天

第1节 HBase简介

1.1 HBase定义

HBase是一种分布式、可扩展、支持海量数据存储的NoSQL数据库。

1.2 HBase数据模型

逻辑上,HBase的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从HBase的底层物理存储结构(K-V)来看,HBase更像是一个multi-dimensional map

1.2.1 HBase逻辑结构

Hadoop HBase Hive day3.md_hbase

1.2.2 HBase物理存储结构

Hadoop HBase Hive day3.md_hive_02

1.2.3 数据模型

(1)Name Space
命名空间,类似于关系型数据库的DatabBase概念,每个命名空间下有多个表。HBase有两个自带的命名空间,分别是hbase和default,hbase中存放的是HBase内置的表,default表是用户默认使用的命名空间。
(2)Region
类似于关系型数据库的表概念。不同的是,HBase定义表时只需要声明列族即可,不需要声明具体的列。这意味着,往HBase写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase能够轻松应对字段变更的场景。
(3)Row
HBase表中的每行数据都由一个RowKey和多个Column(列)组成,数据是按照RowKey的字典顺序存储的,并且查询数据时只能根据RowKey进行检索,所以RowKey的设计十分重要。
(4)Column
HBase中的每个列都由Column Family(列族)和Column Qualifier(列限定符)进行限定,例如info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。
(5)Time Stamp
用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入HBase的时间。
(6)Cell
由{rowkey, column Family:column Qualifier, time Stamp} 唯一确定的单元。cell中的数据是没有类型的,全部是字节码形式存贮

1.3 HBase基本架构:

Hadoop HBase Hive day3.md_hbase_03


(1)Region Server

Region Server为 Region的管理者,其实现类为HRegionServer,主要作用如下:

对于数据的操作:get, put, delete;

对于Region的操作:splitRegion、compactRegion。

(2)Master

Master是所有Region Server的管理者,其实现类为HMaster,主要作用如下:

对于表的操作:create, delete, alter

对于RegionServer的操作:分配regions到每个RegionServer,监控每个RegionServer的状态,负载均衡和故障转移。

(3)Zookeeper

HBase通过Zookeeper来做Master的高可用、RegionServer的监控、元数据的入口以及集群配置的维护等工作。

(4)HDFS

HDFS为HBase提供最终的底层数据存储服务,同时为HBase提供高可用的支持。

Hadoop HBase Hive day3.md_hive_04

第2节 HBase安装部署(单机版)

2.1 HBase的解压

解压Hbase到指定目录:

[dev1@hadoop101 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module

2.2 配置环境变量

打开文件

sudo vim  /etc/profile

添加

HBASE_HOME=/opt/module/hbase-1.3.1
PATH=$PATH:$HBASE_HOME/bin
export PATH HBASE_HOME

重新加载

source /etc/profile

2.3 HBase的配置文件

修改HBase对应的配置文件。
(1)hbase-env.sh修改内容:

export JAVA_HOME=/opt/module/jdk1.8.0_212

注意:下面还有一栏被注释掉的​​export HBASE_MANAGES_ZK=true​​这一行是告诉hbase是否使用自己的ZK进行管理,我们不用管他,注释着就行。

(2)hbase-site.xml 修改内容:

  <property>
<name>hbase.rootdir</name>
<value>file:opt/module/hbase-1.3.1/HBaseData</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/hbase-1.3.1/zkData</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>

注意执行

mkdir -p /opt/module/hbase-1.3.1/HBaseData
mkdir -p /opt/module/hbase-1.3.1/zkData

这里是告诉hbase,使用我们电脑的文件系统,作为数据存储。
​​​hbase.unsafe.stream.capability.enforce​​这个参数的描述中我们可以看到

// 如果你打算在本地文件系统中跑hbase,请禁掉此项
Disable this if you intend to run on LocalFileSystem

所以,我们设为false

2.4 HBase服务的启动

1.启动方式1

 [dev1@hadoop101 hbase]$ bin/hbase-daemon.sh start master
[dev1@hadoop101 hbase]$ bin/hbase-daemon.sh start regionserver

2.启动方式2

[dev1@hadoop101 hbase]$ bin/start-hbase.sh
对应的停止服务:
[dev1@hadoop101 hbase]$ bin/stop-hbase.sh
报错:SLF4J: Class path contains multiple SLF4J bindings.
将 hbase目录下的删除

查看jps

2.5进入shell

hbase shell

第2节 HBase集群安装部署(集群,了解)

2.1 Zookeeper正常部署

首先保证Zookeeper集群的正常部署,并启动之:

[dev1@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start
[dev1@hadoop103 zookeeper-3.4.10]$ bin/zkServer.sh start
[dev1@hadoop104 zookeeper-3.4.10]$ bin/zkServer.sh start

2.2 Hadoop正常部署

Hadoop集群的正常部署并启动:

[dev1@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
[dev1@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh

2.3 HBase的解压

解压Hbase到指定目录:

[dev1@hadoop102 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module

2.4 HBase的配置文件
修改HBase对应的配置文件。
1)hbase-env.sh修改内容:

export JAVA_HOME=/opt/module/jdk1.6.0_144
export HBASE_MANAGES_ZK=false

2)hbase-site.xml修改内容:

<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop102:9000/HBase</value>
</property>

<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

<!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>

<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop102,hadoop103,hadoop104</value>
</property>

<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.10/zkData</value>
</property>
</configuration>

3)regionservers:

hadoop102
hadoop103
hadoop104

4)软连接hadoop配置文件到HBase:

[dev1@hadoop102 module]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml /opt/module/hbase-1.3.1/conf/core-site.xml
[dev1@hadoop102 module]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /opt/module/hbase-1.3.1/conf/hdfs-site.xml

2.5 HBase远程发送到其他集群

[dev1@hadoop102 module]$ xsync hbase/

2.6 HBase服务的启动

1.启动方式

 [dev1@hadoop102 hbase]$ bin/hbase-daemon.sh start master
[dev1@hadoop102 hbase]$ bin/hbase-daemon.sh start regionserver

提示:如果集群之间的节点时间不同步,会导致regionserver无法启动,抛出ClockOutOfSyncException异常。
修复提示:
a、同步时间服务

b、属性:hbase.master.maxclockskew设置更大的值

<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
<description>Time difference of regionserver from master</description>
</property>

2.启动方式2

[dev1@hadoop102 hbase]$ bin/start-hbase.sh
对应的停止服务:
[dev1@hadoop102 hbase]$ bin/stop-hbase.sh

2.7 查看HBase页面

启动成功后,可以通过“host:port”的方式来访问HBase管理页面,例如:

http://hadoop101:16010

第3节 HBase Shell操作

3.1 基本操作

1.进入HBase客户端命令行

[dev1@hadoop102 hbase]$ bin/hbase shell

2.查看帮助命令

hbase(main):001:0> help

3.查看当前数据库中有哪些表

hbase(main):002:0> list

3.2 表的操作

1.创建表

hbase(main):002:0> create 'student','info'

2.插入数据到表

hbase(main):003:0> put 'student','1001','info:sex','male'
hbase(main):004:0> put 'student','1001','info:age','18'
hbase(main):005:0> put 'student','1002','info:name','Janna'
hbase(main):006:0> put 'student','1002','info:sex','female'
hbase(main):007:0> put 'student','1002','info:age','20'

3.扫描查看表数据

hbase(main):008:0> scan 'student'
hbase(main):009:0> scan 'student',{STARTROW => '1001', STOPROW => '1001'}
hbase(main):010:0> scan 'student',{STARTROW => '1001'}

4.查看表结构

hbase(main):011:0> describe 'student'

5.更新指定字段的数据

hbase(main):012:0> put 'student','1001','info:name','Nick'
hbase(main):013:0> put 'student','1001','info:age','100'

6.查看“指定行”或“指定列族:列”的数据

hbase(main):014:0> get 'student','1001'
hbase(main):015:0> get 'student','1001','info:name'

7.统计表数据行数

hbase(main):021:0> count 'student'

8.删除数据
删除某rowkey的全部数据:

hbase(main):016:0> deleteall 'student','1001'

删除某rowkey的某一列数据:

hbase(main):017:0> delete 'student','1002','info:sex'

9.清空表数据

hbase(main):018:0> truncate 'student'

提示:清空表的操作顺序为先disable,然后再truncate。
10.删除表
首先需要先让该表为disable状态:

hbase(main):019:0> disable 'student'

然后才能drop这个表:

hbase(main):020:0> drop 'student'

提示:如果直接drop表,会报错:ERROR: Table student is enabled. Disable it first.
11.变更表信息
将info列族中的数据存放3个版本:

hbase(main):022:0> alter 'student',{NAME=>'info',VERSIONS=>3}
hbase(main):022:0> get 'student','1001',{COLUMN=>'info:name',VERSIONS=>3}

第4节《HBase实操练习题》

第一题:namespace的shell操作

1、列出所有的命名空间:
答案:

list_namespace

2、创建命名空间ns01:
答案:

create_namespace 'ns01'

3、为命名空间ns01添加一个属性company为ctc
答案:

alter_namespace 'ns01', {METHOD => 'set', 'company' => 'ctc'}

4、列出hbase命名空间下的所有的表
答案:

list_namespace_tables 'hbase'

5、查看ns01命名空间的属性信息
答案:

describe_namespace 'ns01'

6、删除命名空间ns01
答案:

drop_namespace 'ns01'

第二题:table的DDL操作

1、新建一个以命名空间ns01的表mytable01,列族为cf1。
答案:

create_namespace 'ns01'
create 'ns01:mytable01', 'cf1'

2、查看命名空间ns01中mytable01表的列族的信息
答案:

describe 'ns01:mytable01'

3、为表命名空间ns01中mytable01追加两个列族 f1,f2
答案:

alter 'ns01:mytable01', 'f1', 'f2'

4、为表命名空间ns01中mytable01删除列族f1和f2
答案:

alter 'ns01:mytable01',{NAME=>'f1',METHOD=>'delete'},{NAME=>'f2',METHOD=>'delete'}

或者一个一个删除

alter 'ns01:mytable01','delete'=>'f1'
alter 'ns01:mytable01','delete'=>'f2'

5、清空命名空间ns01中mytable01表
答案:

truncate 'ns01:mytable01'

6、删除命名空间ns01中mytable01表
答案:

disable 'ns01:mytable01'
drop 'ns01:mytable01'

第三题:table的CRUD操作

1、写一个建表语句,命名空间ns01,表名student, 列族base_info的版本数为3个, 列族score的版本数为5个,列族address版本数为5个
答案:

create 'ns01:student', {NAME => 'base_info', VERSIONS => 3}, {NAME => 'score', VERSIONS => 5}, {NAME => 'address', VERSIONS => 5}

2、将以下数据添加到student表(请放到相应的列族中)

Hadoop HBase Hive day3.md_数据_05

答案:

put 'ns01:student','202201010001','base_info:name','zhaoyun'
put 'ns01:student','202201010001','base_info:age',23
put 'ns01:student','202201010001','base_info:gender','m'
put 'ns01:student','202201010001','score:math',90
put 'ns01:student','202201010001','score:chinese',89
put 'ns01:student','202201010001','score:english',100
put 'ns01:student','202201010001','address:provinces','hlj'
put 'ns01:student','202201010001','address:city','habin'
put 'ns01:student','202201010001','address:street','pudonglu'

put 'ns01:student','202201010002','base_info:name','zhangfei'
put 'ns01:student','202201010002','base_info:age',24
put 'ns01:student','202201010002','base_info:gender','f'
put 'ns01:student','202201010002','score:math',80
put 'ns01:student','202201010002','score:chinese',78
put 'ns01:student','202201010002','score:english',90
put 'ns01:student','202201010002','address:provinces','hebei'
put 'ns01:student','202201010002','address:city','shijiazhuang'
put 'ns01:student','202201010002','address:street','tianyulu'

put 'ns01:student','202201010003','base_info:name','guanyu'
put 'ns01:student','202201010003','address:provinces','jilin'

3、查询student表中的所有数据
答案:

scan 'ns01:student'

4、查询每个人的姓名和所有成绩
答案:

scan 'ns01:student', {COLUMNS => ['base_info:name', 'score']}

5、查询202201010002的地址信息
答案:

get 'ns01:student', '202201010002', 'address'

6、修改202201010002的name为zhangfei1,再次修改name为zhangfei2
答案:

put 'ns01:student', '202201010002', 'base_info:name', 'zhangfei1'
put 'ns01:student', '202201010002', 'base_info:name', 'zhangfei2'

7、删除202201010002的name的最旧的两个版本

 get 'ns01:student', {COLUMN => 'base_info:name',VERSIONS => 3}

答案:

delete 'ns01:student', '202201010002', 'base_info:name', 1655940738745

删除倒数第二个旧的

delete 'ns01:student', '202201010002', 'base_info:name', 1655940826078

8、删除第三行记录

答案:deleteall 'ns01:student', '201901010003'

9、如何删除命名空间ns01中student表中的所有记录

答案:`truncate 'ns01:student'`

第5节 HBase进阶

3.1 架构原理

Hadoop HBase Hive day3.md_数据_06

1)StoreFile
保存实际数据的物理文件,StoreFile以HFile的形式存储在HDFS上。每个Store会有一个或多个StoreFile(HFile),数据在每个StoreFile中都是有序的。
2)MemStore
写缓存,由于HFile中的数据要求是有序的,所以数据是先存储在MemStore中,排好序后,等到达刷写时机才会刷写到HFile,每次刷写都会形成一个新的HFile。
3)WAL
由于数据要经MemStore排序后才能刷写到HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做Write-Ahead logfile的文件中,然后再写入MemStore中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

3.2写流程

Hadoop HBase Hive day3.md_hbase_07

写流程:
(1)Client先访问zookeeper,获取hbase:meta表位于哪个Region Server。
(2)访问对应的Region Server,获取hbase:meta表,根据读请求的namespace:table/rowkey,查询出目标数据位于哪个Region Server中的哪个Region中。并将该table的region信息以及meta表的位置信息缓存在客户端的meta cache,方便下次访问。
(3)与目标Region Server进行通讯;
(4)将数据顺序写入(追加)到WAL;
(5)将数据写入对应的MemStore,数据会在MemStore进行排序;
(6)向客户端发送ack;
(7)等达到MemStore的刷写时机后,将数据刷写到HFile。

3.3 MemStore Flush

Hadoop HBase Hive day3.md_hadoop_08

MemStore刷写时机:

1.当某个memstroe的大小达到了hbase.hregion.memstore.flush.size(默认值128M),其所在region的所有memstore都会刷写。
当memstore的大小达到了
hbase.hregion.memstore.flush.size(默认值128M)
* hbase.hregion.memstore.block.multiplier(默认值4)
时,会阻止继续往该memstore写数据。

2.当region server中memstore的总大小达到
java_heapsize
*hbase.regionserver.global.memstore.size(默认值0.4
*hbase.regionserver.global.memstore.size.lower.limit(默认值0.95),
region会按照其所有memstore的大小顺序(由大到小)依次进行刷写。直到region server中所有memstore的总大小减小到上述值以下。
当region server中memstore的总大小达到
java_heapsize*hbase.regionserver.global.memstore.size(默认值0.4
时,会阻止继续往所有的memstore写数据。

3. 到达自动刷写的时间,也会触发memstore flush。自动刷新的时间间隔由该属性进行配置hbase.regionserver.optionalcacheflushinterval(默认1小时)。

4.当WAL文件的数量超过hbase.regionserver.max.logs,region会按照时间顺序依次进行刷写,直到WAL文件数量减小到hbase.regionserver.max.log以下(该属性名已经废弃,现无需手动设置,最大值为32)。

3.4 读流程

Hadoop HBase Hive day3.md_hive_09

读流程
(1)Client先访问zookeeper,获取hbase:meta表位于哪个Region Server。
(2)访问对应的Region Server,获取hbase:meta表,根据读请求的namespace:table/rowkey,查询出目标数据位于哪个Region Server中的哪个Region中。并将该table的region信息以及meta表的位置信息缓存在客户端的meta cache,方便下次访问。

(3)与目标Region Server进行通讯;
(4)分别在Block Cache(读缓存),MemStore和Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。
(5) 将从文件中查询到的数据块(Block,HFile数据存储单元,默认大小为64KB)缓存到Block Cache。
(6)将合并后的最终结果返回给客户端。