安装之前需要配置安装hadoop需要得环境。
相关版本号
hadoop-2.9.2
jdk1.8.0_191
百度网盘链接:https://pan.baidu.com/s/1HoSo7I_VpQcN0CNvl-FaCQ
提取码:q4qa
1.安装最小版的centos7系统
2.安装config
如果有的话跳过此步骤
用户登陆后我们使用ifconfig无效,证明我们初始版的系统内没有安装ifconfig,
现在来安装,使用yum serach ifconfig这个命令来查找
直接安装 这个包 yum install net-tools.x86_64,安装过程中会让输入,直接输入y回车就好,再 次输入ifconfig,已经可以正常使用了。
3.配置网络
配置网络之前查看是否可以ping通主机和百度,如果可以(如不可以先解决好后在继续下面得操 作),在进行配置静态网络
vi /etc/sysconfig/network-scripts/ifcfg-ens33
照着上面配置就可以了。重启网卡即可。
注意:GATEWAY不要跟虚拟机Vm8网络得IP相同,否则会出现不能ping通外部主机得问题
现在将三台虚拟机都修改好ip。
4.配置ssh服务
1>修改主机名 (三台都做)
hostname h1(其余两台分别为h2,h3)
2>修改好后,修改hosts文件(三台都做)
vi /etc/hosts 添加以下内容,IP填写自己得IP即可
3>检查三台机器是否可以ping通
ping h2 分别多ping几次
4>生成密钥(三台都做)
ssh-keygen -t rsa -P ''
中间敲两次回车即可
ls /root/.ssh 查看到目录内有两个文件
touch /root/.ssh/authorized_keys 在下面创建这个文件,来存放三台机器得公钥
将三台机器得id_rsa.pub 文件内容复制到authorized_keys文件内,然后再将 authorized_keys文件放在其他两台机器上
5>测试是否可以无密码登陆
ssh h2 第一次使用会需要输入一次“yes”。
5安装JDK
注意版本改成1.8的
6.安装Hadoop
1>官网下载地址
https://archive.apache.org/dist/hadoop/common/
2>解压
tar zxvf hadoop-2.9.2.tar.gz -C /usr/local/
3>配置core-site.xml
vi /usr/local/hadoop-2.9.2/etc/hadoop/ core-site.xml
添加<property>
<name>fs.default.name</name>
<value>hdfs://h1:9000</value>
</property>
4>修改hadoop-env.sh
:set nu 显示行号
将25行的
export JAVA_HOME=${JAVA_HOME}
改为
export JAVA_HOME=/usr/jdk1.8.0_191/
5>修改hdfs-site.xml
vi /usr/local/hadoop-2.9.2/etc/hadoop/hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
6>将mapred-site.xml.template复制并更名为mapred-site.xml
cp /usr/local/hadoop-2.9.2/etc/hadoop/mapred-site.xml.template /usr/local/hadoop-2.9.2/etc/hadoop/mapred-site.xml
个人习惯进入到这个目录下进行操作。能少打点命令。
添加
<property>
<name>mapred.job.tracker</name>
<value>h1:9001</value>
</property>
7>配置从节点
修改 slaves文件 vi slaves
删除所有内容 将从节点的hostname填写进去
8>将文件拷贝到从节点
cd /usr/local/
scp -r ./hadoop-2.9.2/ h2:/usr/local/
scp -r ./hadoop-2.9.2/ h3:/usr/local/
9>创建hadoop用户
useradd hadoop 创建hadoop用户
passwd hadoop 为用户创建密码
在所有节点上执行以下操作,把/usr/local/hadoop-0.20.2-cdh3u5的所有者,所有者组改为hadoop并su成该用户
[root@h1 ~]# chown hadoop.hadoop /usr/local/hadoop-2.9.2/ -R
[root@h2 ~]# chown hadoop.hadoop /usr/local/hadoop-2.9.2/ -R
[root@h3 ~]# chown hadoop.hadoop /usr/local/hadoop-2.9.2/ -R
[root@h1 ~]# su - hadoop
[root@h2 ~]# su - hadoop
[root@h3 ~]# su - hadoop
并为hadoop用户创建密匙
[hadoop@h1 ~]$ ssh-keygen -t rsa
[hadoop@h2 ~]$ ssh-keygen -t rsa
[hadoop@h3 ~]$ ssh-keygen -t rsa
[hadoop@h1 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h1
[hadoop@h1 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h2
[hadoop@h1 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h3
[hadoop@h2 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub 1
[hadoop@h2 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h2
[hadoop@h2 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h3
[hadoop@h3 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h1
[hadoop@h3 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h2
[hadoop@h3 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h3
测试是否成功,成功后进行下一步操作
10>格式化(主节点)
如果用的是VMware的话,建议在此处拍个快照,以免报错从头再来!
cd /usr/local/hadoop-2.9.2/bin/
./hadoop namenode -format 格式化 只做一次即可,如出现报错,请检查之前的文件配置有没有输入错误
11>配置hadoop环境变量
在/etc/profile最后面添加上
export HADOOP_HOME=/usr/local/hadoop-2.9.2
export HADOOP_CONF_HOME=$HADOOP_HOME/etc/hadoop/
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
然后source /etc/profile 即可
12>启动hadoop集群
在hadoop用户下直接输入 start-all.sh 启动集群
jps查看进程
主节点
从节点
这时候你就卖出大数据之旅的第一步了!
如内容有误,欢迎纠正~