目录

  • 什么是hIVE
  • 为什么用Hive
  • Hive和其他数据库对比
  • Hive架构
  • 运行机制
  • Hive的file formats


什么是hIVE

基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能

作用:用于解决海量结构化日志的数据统计

本质:将HQL转化成MapReduce程序

  1. Hive处理的数据存储在HDFS
  2. Hive分析数据底层的实现是MapReduce
  3. 执行程序运行在Yarn上

为什么用Hive

优点:

  1. 操作接口采用类SQL语法,提供快速开发的能力(简单、容易上手)。
  2. 避免了去写MapReduce,减少开发人员的学习成本。
  3. Hive的执行延迟比较高,因此Hive常用于数据分析,对实时性要求不高的场合。
  4. Hive优势在于处理大数据,对于处理小数据没有优势,因为Hive的执行延迟比较高。
  5. Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。

缺点

  1. Hive的HQL表达能力有限
    (1)迭代式算法无法表达
    (2)数据挖掘方面不擅长,由于MapReduce数据处理流程的限制,效率更高的算法却无法实现。
  2. Hive的效率比较低
    (1)Hive自动生成的MapReduce作业,通常情况下不够智能化
    (2)Hive调优比较困难,粒度较粗

Hive和其他数据库对比

  1. 查询语言
    Hive 采用了类似SQL 的查询语言 HQL(Hive Query Language)
  2. 数据存储
    所有 Hive 的数据都是存储在 HDFS 中的
    而数据库则可以将数据保存在块设备或者本地文件系统中
  3. 数据更新
    Hive是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。因此,Hive中不建议对数据的改写,所有的数据都是在加载的时候确定好的
    而数据库中的数据通常是需要经常进行修改
  4. 执行
    Hive中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的
    而数据库通常有自己的执行引擎
  5. 执行延迟
    Hive 在查询数据的时候,由于没有索引,需要扫描整个表,因此延迟较高,另外MapReduce 本身具有较高的延迟
    数据库的执行延迟较低
  6. 可扩展性
    Hive是建立在Hadoop之上的,因此Hive的可扩展性是和Hadoop的可扩展性是一致的
  7. 数据规模
    Hive主要用来处理海量数据
  8. Hive使用读时模式,写操作不检测数据,读数据有问题时,使用NULL代替

hive跟hbase的区别

  • hive支持sql查询,hbase不支持
  • hive不支持record级(一行记录)的更新,删除操作
  • hive定义为数据仓库,hbase定义为nosql数据库.

Hive架构

hive 存储路径 数据库 hive 存储结构_Hive

  1. 用户接口:Client
    CLI(command-line interface)、JDBC/ODBC(jdbc访问hive)、WEBUI(浏览器访问hive)
  2. 元数据:Metastore
    元数据包括:表名、表所属的数据库(默认是default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等;
    默认存储在自带的derby数据库中,推荐使用MySQL存储Metastore
  3. Hadoop
    使用HDFS进行存储,使用MapReduce进行计算。
  4. 驱动器:Driver
    (1)解析器(SQL Parser):将SQL字符串转换成抽象语法树AST,这一步一般都用第三方工具库完成,比如antlr;对AST进行语法分析,比如表是否存在、字段是否存在、SQL语义是否有误。
    (2)编译器(Physical Plan):将AST编译生成逻辑执行计划。
    (3)优化器(Query Optimizer):对逻辑执行计划进行优化。
    (4)执行器(Execution):把逻辑执行计划转换成可以运行的物理计划。对于Hive来说,就是MR/Spark。

运行机制

hive 存储路径 数据库 hive 存储结构_Hive_02


Hive通过给用户提供的一系列交互接口,接收到用户的指令(SQL),使用自己的Driver,结合元数据(MetaStore),将这些指令翻译成MapReduce,提交到Hadoop中执行,最后,将执行返回的结果输出到用户交互接口。

Hive的file formats

  • Text File format:默认格式. 数据不做压缩,磁盘开销大,数据解析开销大。
  • Sequence File format:
  • SequenceFile是Hadoop API提供的一种二进制文件支持,其具有使用方便、可分割、可压缩的特点。
  • SequenceFile支持三种压缩选择:NONE, RECORD, BLOCK。 Record压缩率低,一般建议使用BLOCK压缩。
  • RC file format: RCFILE是一种行列存储相结合的存储方式。
    首先,其将数据按行分块,保证同一个record在一个块上,避免读一个记录需要读取多个block。其次,块数据列式存储,有利于数据压缩和快速的列存取。RCFile目前没有性能优势, 只有存储上能省10%的空间.
  • Parquet:列式数据存储.
  • AVRO:avro Schema数据序列化.
  • ORC: 对RCFile做了一些优化, 支持各种复杂的数据类型.(最优)
  • ORC将行的集合存储在一个文件中,并且集合内的行数据将以列式存储。 采用列式格式,压缩非常容易,从而降低了大量的存储成本。
  • 当查询时,会查询特定列而不是查询整行,因为记录是以列式存储的
  • ORC会基于列创建索引,当查询的时候会很快.