Hadoop2.7.3完全分布式搭建
1.软件准备:
下载虚拟机软件VMware 。
下载Linux 镜像文件。
下载客户端连接工具XShell与XFtp
下载jdk
下载hadoop
2.软件安装
2.1节点:
192.168.179.100 master
192.168.179.101 slave1
192.168.179.102 slave2
192.168.179.103 slave3
2.2准备Linux环境
2.2.1为了便于操作修改主机和IP的映射关系
vim /etc/hosts
192.168.179.100 master
192.168.179.101 slave1
192.168.179.102 slave2
192.168.179.103 slave3
2.2.2设置虚拟机中的网络设置
vi /etc/sysconfig/network
NETWORKING=yes
GATEWAY=192.168.179.12.2.3修改IP地址
vi /etc/sysconfig/network-scripts/ifcfg-eno16777736
TYPE=Ethernet
IPADDR=192.168.179.100
NETMASK=255.255.255.0
2.2.4修改主机名测试网络是否正常
hostnamectl set-hostname master
重启网络service network restart
互相ping,看是否测试成功,若不成功,注意防火墙的影响。
关闭windows或虚拟机的防火墙。
2.2.5关闭防火墙
#查看防火墙状态
service iptables status
#关闭防火墙
service iptables stop
#查看防火墙开机启动状态
chkconfig iptables --list
#关闭防火墙开机启动
chkconfig iptables off
2.3安装jdk,并配置环境变量
安装JDK
上传jdk-7u79-linux-x64.tar.gz到linux
解压jdk
创建文件夹
mkdir /usr/java
解压
tar zxvf jdk-7u79-linux-x64.tar.gz -C /usr/java/
将java添加到环境变量中
vim /etc/profile
在文件最后添加
export JAVA_HOME=/usr/java/jdk1.7.0_79/
export PATH=$PATH:$JAVA_HOME/bin
刷新配置
source /etc/profile
2.4安装配置hadoop2.7.3
先上传hadoop的安装包到服务器
配置hadoop
第一个:hadoop-env.sh
vim hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_79/
第二个:core-site.xml
指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop1/temp</value>
</property>
第三个:hdfs-site.xml hdfs-default.xml (3)
指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
将hadoop添加到环境变量
vim /etc/proflie
export JAVA_HOME=/usr/java/jdk1.7.0_79
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
测试hadoop命令是否可以直接执行,任意目录下敲hadoop
关闭虚拟机,复制3份
分别修改虚拟机的ip和hostname,确认互相能够ping通,用ssh登陆,同时修改 所 有虚拟机的/etc/hosts,确认使用名字可以ping通
修改master上/etc/hadoop/slaves文件,每一个slave占一行
slave1
slave2
slave3
2.5.配置ssh免登陆
生成ssh免登陆密钥
进入到我的home目录
cd ~/.ssh
(四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免登陆的机器上
ssh-copy-id localhost
2.6启动集群
格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
启动hadoop
sbin/start-dfs.sh
验证是否启动成功
使用jps命令验证
在master出现
23960 SecondaryNameNode
23652 NameNode
在slave1、slave2、slave1
出现
19282 DataNode
19448 DataNode
19110 DataNode
(HDFS管理界面)