hbase

大家如果想快速有效的学习,思想核心是“以建立知识体系为核心”,具体方法是“守破离”。确保老师课堂上做的操作,反复练习直到熟练。

学习主题: hbase的架构原理和API

学习目标:

  1. HBase简介




hbase api删除列 hbase删除某一列数据_数据


  1. Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库
  2. 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务
  3. 主要用来存储非结构化和半结构化的松散数据(列存 NoSQL 数据库)
  4. HBase 数据模型


hbase api删除列 hbase删除某一列数据_Hadoop_02


  1. 上表张中hbase表中的数据表示一条数据
  2. ROW KEY
  1. 决定一行数据
  2. 按照字典顺序排序的。
  3. Row key只能存储64k的字节数据
  1. Column Family列族 & qualifier列
  1. HBase表中的每个列都归属于某个列族,列族必须作为表模式(schema)定义的一部分预先给出。如 create ‘test’, ‘course’;
  2. 列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如course:math, course:english, 新的列族成员(列)可以随后按需、动态加入;
  3. 权限控制、存储以及调优都是在列族层面进行的;
  4. HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。
  1. Timestamp时间戳
  1. 在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。
  2. 时间戳的类型是 64位整型。
  3. 时间戳的类型是 64位整型。
  4. 时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。
  1. Cell单元格
  1. 由行和列的坐标交叉决定;
  2. 单元格是有版本的;
  3. 单元格的内容是未解析的字节数组; 由{row key, column( = +), version} 唯一确定的单元。 cell中的数据是没有类型的,全部是字节码形式存贮。
  4. HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。
  5. HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue。
  1. 掌握hbase的架构原理


hbase api删除列 hbase删除某一列数据_hbase api删除列_03


  1. Client
  1. 包含访问HBase的接口并维护cache来加快对HBase的访问
  1. Zookeeper
  1. 保证任何时候,集群中只有一个master 存贮所有Region的寻址入口。 实时监控Region server的上线和下线信息。并实时通知Master 存储HBase的schema和table元数据
  1. Master
  1. 为Region server分配region 负责Region server的负载均衡 发现失效的Region server并重新分配其上的region 管理用户对table的增删改操作
  1. RegionServer
  1. Region server维护region,处理对这些region的IO请求 Region server负责切分在运行过程中变得过大的region
  1. Region
  1. HBase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据
  2. 每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阀值的时候,region就会等分会两个新的region(裂变)
  3. 当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上。
  4. 一个region由多个store组成,一个store对应一个CF(列族)
  5. store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile
  6. 当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major compaction),在合并过程中会进行版本合并和删除工作(majar),形成更大的storefile(minor:一种合并方式,自动触发的,是将三个storefile文件合并成一个,不会影响读写性能,)(major compaction:另一种合并方式,合并是会删除被标记的旧的数据(失效标记),老版本的数据)
  7. 当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡(随机分配裂变的region)
  8. 客户端检索数据,先在memstore找,找不到再找storefile
  1. 掌握hbase的分布式集群部署
  2. | | mster | regionserver | | ------- | ----- | ------------ | | deng001 | * | | | deng002 | * | * | | deng003 | | * | | deng004 | | * |
  1. yum install -y ntp (安装)
  2. ntpdate http://ntp1.aliyun.com (连接时间服务器)
  3. ssh-keygen
  4. ssh-copy-id -i /root/.sh/id_rsa.pub node2
  5. (node2到本台机免秘钥)
  6. tar zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz -C /opt/sxt/
  7. 配置环境变
  1. export HBASE_HOME=/opt/sxt/hbase-0.98.12.1-hadoop2 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin
  1. 修改conf/hbase.env.sh
  1. xport JAVA_HOME=/usr/java/jdk1.7.0_79
  2. export HBASE_MANAGES_ZK=false
  3. 修改conf/hbase.site.xml
  1. hbase.rootdir hdfs:/mycluster:8020/hbase hbase.cluster.distributed true hbase.zookeeper.quorum deng002,deng003,deng004
  1. 修改vim regionservers
  1. deng002 deng003 deng004
  2. 修改vim backup-masters
  1. deng001
  1. cp /opt/sxt/hadoop-2.6.5/etc/hadoop/hdfs-site.xml ./
  1. 启动 start-hbase.sh
  2. 掌握hbase的shell命令
  3. hbase shell(进入shell命令输入)
  4. create ‘test1’ ‘cf’ (创建一个表,一个列族)
  5. 掌握hbase的java API(http://hbase.apache.org/2.0/apidocs/index.html:官方文档)

对应作业:

  1. 构建分布式的hbase环境
  2. 问答题:hbase的查询分为哪几种?