hbase
大家如果想快速有效的学习,思想核心是“以建立知识体系为核心”,具体方法是“守破离”。确保老师课堂上做的操作,反复练习直到熟练。
学习主题: hbase的架构原理和API
学习目标:
- HBase简介
- Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库
- 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务
- 主要用来存储非结构化和半结构化的松散数据(列存 NoSQL 数据库)
- HBase 数据模型
- 上表张中hbase表中的数据表示一条数据
- ROW KEY
- 决定一行数据
- 按照字典顺序排序的。
- Row key只能存储64k的字节数据
- Column Family列族 & qualifier列
- HBase表中的每个列都归属于某个列族,列族必须作为表模式(schema)定义的一部分预先给出。如 create ‘test’, ‘course’;
- 列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如course:math, course:english, 新的列族成员(列)可以随后按需、动态加入;
- 权限控制、存储以及调优都是在列族层面进行的;
- HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。
- Timestamp时间戳
- 在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。
- 时间戳的类型是 64位整型。
- 时间戳的类型是 64位整型。
- 时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。
- Cell单元格
- 由行和列的坐标交叉决定;
- 单元格是有版本的;
- 单元格的内容是未解析的字节数组; 由{row key, column( = +), version} 唯一确定的单元。 cell中的数据是没有类型的,全部是字节码形式存贮。
- HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。
- HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue。
- 掌握hbase的架构原理
- Client
- 包含访问HBase的接口并维护cache来加快对HBase的访问
- Zookeeper
- 保证任何时候,集群中只有一个master 存贮所有Region的寻址入口。 实时监控Region server的上线和下线信息。并实时通知Master 存储HBase的schema和table元数据
- Master
- 为Region server分配region 负责Region server的负载均衡 发现失效的Region server并重新分配其上的region 管理用户对table的增删改操作
- RegionServer
- Region server维护region,处理对这些region的IO请求 Region server负责切分在运行过程中变得过大的region
- Region
- HBase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据
- 每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阀值的时候,region就会等分会两个新的region(裂变)
- 当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上。
- 一个region由多个store组成,一个store对应一个CF(列族)
- store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile
- 当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major compaction),在合并过程中会进行版本合并和删除工作(majar),形成更大的storefile(minor:一种合并方式,自动触发的,是将三个storefile文件合并成一个,不会影响读写性能,)(major compaction:另一种合并方式,合并是会删除被标记的旧的数据(失效标记),老版本的数据)
- 当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡(随机分配裂变的region)
- 客户端检索数据,先在memstore找,找不到再找storefile
- 掌握hbase的分布式集群部署
- | | mster | regionserver | | ------- | ----- | ------------ | | deng001 | * | | | deng002 | * | * | | deng003 | | * | | deng004 | | * |
- yum install -y ntp (安装)
- ntpdate http://ntp1.aliyun.com (连接时间服务器)
- ssh-keygen
- ssh-copy-id -i /root/.sh/id_rsa.pub node2
- (node2到本台机免秘钥)
- tar zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz -C /opt/sxt/
- 配置环境变
- export HBASE_HOME=/opt/sxt/hbase-0.98.12.1-hadoop2 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin
- 修改conf/hbase.env.sh
- xport JAVA_HOME=/usr/java/jdk1.7.0_79
- export HBASE_MANAGES_ZK=false
- 修改conf/hbase.site.xml
- hbase.rootdir hdfs:/mycluster:8020/hbase hbase.cluster.distributed true hbase.zookeeper.quorum deng002,deng003,deng004
- 修改vim regionservers
- deng002 deng003 deng004
- 修改vim backup-masters
- deng001
- cp /opt/sxt/hadoop-2.6.5/etc/hadoop/hdfs-site.xml ./
- 启动 start-hbase.sh
- 掌握hbase的shell命令
- hbase shell(进入shell命令输入)
- create ‘test1’ ‘cf’ (创建一个表,一个列族)
- 掌握hbase的java API(http://hbase.apache.org/2.0/apidocs/index.html:官方文档)
对应作业:
- 构建分布式的hbase环境
- 问答题:hbase的查询分为哪几种?