目录
一.安装准备
二.安装配置
三.验证安装
介绍:
hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的MapReduce应用程序。hive十分适合对数据仓库进行统计分析。
一.安装准备
1.安装好MySQL和Hadoop
2.下载安装包
点击连接下载
3.版本选择
我安装的是apache-hive-3.1.2-bin版本!
二.安装配置
1.上传安装包
用MobaXterm_Protable上传,MobaXterm_Protable是Windows和Linux之间的连接工具。
2.解压安装
tar -zvxf apache-hive-3.1.2-bin.tar.gz -C /training/
/training/是我放软件的文件夹!
3.配置环境变量
vi ~/.bash_profile
#hive
export HIVE_HOME=/training/apache-hive-3.1.2-bin
export PATH=$PATH:$HIVE_HOME/bin
4.环境变量生效
source ~/.bash_profile
5.创建数据库
在MySQL下执行
#1.登录MySQL
mysql -u root -p
#2.输入密码
#3.创建数据库
create database metastore;
#4.退出mysql
exit;
6.创建hive-site.xml文件(在hive目录下的conf中)
vi hive-site.xml
在hive-site.xml中添加如下内容
(配置参数改成自己的,比如:
hadoop01:主机名;
offdb:mysql用户名;
metastore:mysql数据库名;
Zj_123456:mysql密码;
/user/hive/warehouse:路径)
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop01:3306/metastore?useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>offdb</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>Zj_123456</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>hadoop01</value>
</property>
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
</configuration>
7.上传MySQL的驱动包到hive的lib目录下
cp mysql-connector-java-5.1.44-bin.jar /training/apache-hive-3.1.2-bin/lib/
MySQL的驱动包要是5.1.34以上版本的!
8.解决Jar包冲突,进入hive的/lib目录
#日志jar包
mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak
#查看Hadoop的guava-*.jar和hive的guava-*.jar
#(目录:hadoop-3.1.3/share/hadoop/common/lib)
#(目录:apache-hive-3.1.2-bin/lib)
#如果两个jar包不同,把低版本的jar包替换成高版本的jar包
#我的Hadoop的要高于hive的,所以执行替换
cp /training/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jre.jar /training/apache-hive-3.1.2-bin/lib/
#把hive原来的guava-19.0.jar删除了
rm -rf guava-19.0.jar
9.初始化
schematool -dbType mysql -initSchema -verbose
三.验证安装
1.开启Hadoop
start-all.sh
2.输入hive
查看数据库
hive (default)> show databases;
显示:
OK
database_name
default
安装成功!!!!!