VMware Workstation 9下基于Ubuntu 12.10服务器版本的Hadoop集群的配置
(主要参照http://os.51cto.com/art/201211/363116.htm)
一、概述
其实,网上关于Hadoop集群的配置的资料不可谓不少,但是,细细找来,多半是在有图形桌面的环境下搭建的。而我们知道,真正要运行Hadoop集群,我们想要更多的资源用来集中数据的处理与稳定,最理想的莫过于用类UNIX系统的服务器版本,更好面对要核心——要解决的问题,而不用浪费资源去做可视化,去显示什么。但是真正要用服务器版类UNIX的OS,面对无图形界面的操作系统,要想像平时用OS那么自然,可也绝非易事,好在网上资源不少,东找西凑,也算是最终完成了任务。
好了,言归正转,还是就核心要解决的问题来讲述吧(这几天的失落也算明白了——面对工程、工作,要百分之百地记住自己的项目任务,先集中精力把自己要解决的问题解决,查找最直接解决自己问题的资料,哪怕自己过程中遇到多少自己不懂、很想去了解的,也先不要去查,解决了手头上的问题,业余再去查查;还有,参照一篇文章的步骤,就一定只按其完整走一遍,不然,这里是用这篇的内容和步骤,那里又用别的内容和步骤,出现的错误就会莫名其妙——个人经验和教训O(∩_∩)O哈哈~)
搭建Hadoop集群的大致步骤都一样;
1、 选择好虚拟机,下载并安装好,然后在用中熟悉下,虚拟机有很多:VirtualBox,KVM、VMare公司的一系列的,什么ESXi(自己还想去弄清楚的,目前还不清楚)、Workstation、vSphere(自己还想去弄清楚的,目前还不清楚)等等;在这里,我选择了VMware Workstation9.0,是出于与前辈的虚拟镜像兼容,个人也推祟VirtualBox,一是其开源,二是因为其体积比VMware Workstation小得多,对于硬件资源紧张的人来说,尤其如此。
2、 下载好客户机要用的OS,并用虚拟机装入和新建虚拟机。这里,我先选择的是最新的Ubuntu12.10服务器版(64位),因为个人PC上内存还算较大,主机OS也是64位版的。
3、 在装好的虚拟机的客户机OS中下载和安装好JDK和Hadoop的相应版本,安装JDK是因为Hadoop是用JAVA写的,运行肯定需要JAVA支持,至于JDK,用的最广的是Sun公司的JDK,但是据《Hadoop:The definitive guide》的附录A(page:656)所说,其它版本的JDK也行,所以,这里就直接用Ubuntu资源库里所提供的OpenJDK。(这里还有一个经验和教训,就是;尽量将部署Hadoop到其它各机器的工作延迟到最后,这样可以节省大量劳力,也避免名种配置的失误,当然,另一方面,也会出现一个配错,导致各机上都配置错误,但此时,一亘错误定位了,其它机子上改也不是太麻烦)
4、 配置好SSH、JAVA_HOME(指向JDK的路径)和Hadoop的几个核心文件的配置——在hadoop-env.sh中指出JDK的路径、配置好Hadoop的conf目录下的core-site.xml 和Hadoop的HDFS的配置(conf目录下的hdfs-site.xml)和Hadoop的MapReduce 的配置(conf目录下的mapred-site.xml)
5、 确认好这台客户机的所有环境配置好后,再将其复制(克隆)到其它客户机中,然后各机IP、/etc/hosts和/etc/hostname作相应的改动
6、 测试Hadoop集群是否运行正常(这里的一个经验是:检验Hadoop 集群的固定步骤是——先运行hadoop version命名,看是否出现Hadoop的版本信息,如果未出现,一般是JDK没装好或者是指向JDK的路径错误,路径指向没错误码的话,就看是不是你对应所属的用户和组有没有相应权限;再运行hadoop namenode –format命令,这个如果不能运行,尤其是出现找不到mainclass类的话,最直接的办法就是换一个版本的Hadoop试试,因为有可能你的Hadoop源来自不太完备的版本;最后运行start-dfs.sh命令和start-mapred.sh命令,如果出现相应的问题,建议首先不要忙着去Google、百度,即使要去,也先要将问题定位清楚,即看看DataNode的 logs目录中的日志,再去找解决办法,比如我就碰到一种情况是:各namenode、datanode和tasktracker、jobtracker运行正常,但hadoop dfsadmin –report却报告没有datanode活着,最后看了日志后去找相应问题的解决办法
http://serverfault.com/questions/392733/hadoop-slave-nodes-not-connecting,原来,这种情况理多的是出自ip设置的问题(而不是Hadoop的配置问题),最后我将/etc/network/interfaces中相应的127.0.1.1 master注释掉即解决了,这些问题解决了基本就没问题了;最后就是运行下wordcount而已)
二、详细步骤
1、搭建环境前的准备、计划:
VM中虚拟了4台机子,分别起名为:
master (ubuntu 12.10 64bit,内存:2G,硬盘:80G),
son-1 (ubuntu 12.10 64bit,内存:1G,硬盘:80G),
son-2 (ubuntu 12.10 64bit,内存:1G,硬盘:80G),
son-3 (ubuntu 12.10 64bit,内存:1G,硬盘:80G)。
修改本机的host文件,
sudo gedit /etc/hosts |
在后面添加内容为:
|
当然,本机的hostname,即在/etc/hostname文件中,应是
master |
2、选择虚拟机,下载并安装好。
这个一般是傻瓜式的,如果能汉化,就汉化吧,这样对于我们的工作也轻松多了,这里,我选择的是VMware Workstation9.0;
3、下载好客户机要用的OS,并用虚拟机装入。
这里,我先选择的是最新的Ubuntu12.10服务器版(64位)。这里,VMware对其设置网卡为采用NAT或Bridged,反正只要是为了使客户机OS能够连接外网,这样,我们的客户机的服务器OS就可以直接下载SSH、OpenJDK和Hadoop等相关资源;
4、为本机(master)和子节点(son..)分别创建hadoop用户和用户组,
其实ubuntu和centos下创建用户还多少还是有点区别的。
ubuntu下创建:
先创建hadoop用户组:
sudo addgroup hadoop |
然后创建hadoop用户:
sudo adduser -ingroup hadoop hadoop |
centos和 redhat 下创建:
sudo adduser hadoop |
注:在centos
给hadoop用户添加权限,打开/etc/sudoers文件;
sudo gedit /etc/sudoers |
按回车键后就会打开/etc/sudoers文件了,给hadoop用户赋予root用户同样的权限。
在root ALL=(ALL:ALL) ALL下添加hadoop ALL=(ALL:ALL) ALL,
hadoop ALL=(ALL:ALL) ALL |
5、客户机OS中下载和安装好JDK、SSH和Hadoop的相应版本
(1)为本机(master)和子节点(son..)安装JDK环境。
ubuntu下一条命令即可:
sudo apt-get install openjdk-7-jre |
centos和redhat建议下载源码安装。
详见:http://www.db89.org/post/2012-07-02/centosjava
(2) 修改 本机(master)和子节点(son..)机器名
打开/etc/hostname文件;
sudo gedit /etc/(相应的hostname) |
分别修改为:master son-1 son-2 son-3 son-4。这样有利于管理和记忆!
(3) 本机(master)和子节点(son..)安装ssh服务
主要为ubuntu安装,cents和redhat系统自带。
ubuntu下:
sudo apt-get install ssh openssh-server |
这时假设您已经安装好了ssh,您就可以进行第六步了哦~
(4)先为建立ssh无密码登录环境
做这一步之前首先建议所有的机子全部转换为hadoop用户,以防出现权限问题的干扰。
切换的命令为:
su - hadoop |
ssh生成密钥有rsa和dsa两种生成方式,默认情况下采用rsa方式。
(4.1) 创建ssh-key,,这里我们采用rsa方式;
ssh-keygen -t rsa -P "" |
(注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的)
(4.2) 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的;
|
(5) 为本机mater安装hadoop
我们采用的hadoop版本是来自较稳定的、旧的achive库中(可以用ubuntu命令直接下载的):hadoop-0.22.0(http://archive.apache.org/dist/hadoop/core/hadoop-0.22.0/ ),因为该版本比较稳定。
(5-1) 在/home/hadoop目录下,此时由上已说,我们是用hadoop用户身份的
sudo wget -c http://archive.apache.org/dist/hadoop/core/hadoop-0.22.0/ hadoop-0.22.0.tar.gz |
(5-2) 解压hadoop-0.20.203.tar.gz;
sudo tar -zxf hadoop-0.22.0.tar.gz |
(5-3)将解压出的文件夹改名为hadoop;
sudo mv hadoop-0.22.0.tar.gz hadoop |
(5-4) 将该hadoop文件夹的属主用户设为hadoop,
sudo chown -R hadoop:hadoop hadoop |
(5-6) 打开hadoop/conf/hadoop-env.sh文件;
sudo gedit hadoop/conf/hadoop-env.sh |
(5-7) 配置conf/hadoop-env.sh(找到#exportJAVA_HOME=...,去掉#,然后加上本机jdk的路径);
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk(一般都是在/usr/lib/jvm/目录下) |
(5-8)打开conf/core-site.xml文件;
sudo gedit hadoop/conf/core-site.xml |
编辑如下:
1. <?xml version="1.0"?>
2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
3. <!-- Put site-specific property overrides in this file. -->
4. <configuration>
5. <property>
6. <name>fs.default.name</name>
7. <value>hdfs://master:9000</value>
8. </property>
9. </configuration>
(5-9) 打开conf/mapred-site.xm
l文件;
sudo gedit hadoop/conf/mapred-site.xml |
编辑如下:
1. <?xml version="1.0"?>
2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
3. <!-- Put site-specific property overrides in this file. -->
4. <configuration>
5. <property>
6. <name>mapred.job.tracker</name>
7. <value>master:9001</value>
8. </property>
9. </configuration>
(5-10) 打开conf/hdfs-site.xml文件;
sudo gedit hadoop/conf/hdfs-site.xml |
编辑如下:
1. <configuration>
2. <property>
3. <name>dfs.name.dir</name>
4. <value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>
5. </property>
6. <property>
7. <name>dfs.data.dir</name>
8. <value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>
9. </property>
10. <property>
11. <name>dfs.replication</name>
12. <value>2</value>
13. </property>
14. </configuration>
(5-11)打开conf/masters文件,添加作为secondarynamenode的主机名,这里需填写 master 就Ok了。
sudo gedit hadoop/conf/masters |
里面,这里填上master
(5-12)打开conf/slaves文件,添加作为slave的主机名,一行一个。
sudo gedit hadoop/conf/slaves |
这里填成下列的内容 :
1. son-1
2. son-2
3. son-3
6、客户机的所有环境配置好后,再将其复制(克隆)到其它客户机
先将这个客户OS——master克隆出son-1、son-2、son-3
要将master机器上的文件一一复制到datanode机器上(son-1,son-2,son-3都要复制):(这里以son-1为例子)
1. 公钥的复制
scp ~/.ssh/id_rsa.pub hadoop@son-1:~/.ssh/id_rsa.pub.master |
2. hostname文件的修改
打开/etc/hostname,这时去掉原来的内容,填入:son-1 |
3. hadoop文件夹的复制,其中的配置也就一起复制过来了!
scp -r /home/hadoop/hadoop hadoop@son-1:~ |
并且要将所有节点的hadoop的目录的权限进行如下的修改:
sudo chown -R hadoop:hadoop hadoop |
这些东西都复制完了之后,datanode机器还要将复制过来的公钥追加到收信任列表:
在每个子节点的自己种都要操作。
cat ~/.ssh/id_rsa.pub.master >> ~/.ssh/authorized_keys |
这样环境已经基本搭建好了,现在开始测试一下。
7、 测试Hadoop集群是否运行正常
检验Hadoop 集群的固定步骤是——
(1) 先运行hadoop version命名,看是否出现Hadoop的版本信息,如果未出现,一般是JDK没装好或者是指向JDK的路径错误,路径指向没错误的话,就看是不是你对应所属的用户和组有没有相应权限;
(2) 再运行hadoop namenode –format命令,这个如果不能运行,尤其是出现找不到mainclass类的话,最直接的办法就是换一个版本的Hadoop试试,因为有可能你的Hadoop源来自不太完备的版本;最后运行start-dfs.sh命令和start-mapred.sh命令,如果出现相应的问题,建议首先不要忙着去Google、百度,即使要去,也先要将问题定位清楚,即看看DataNode的 logs目录中的日志,再去找解决办法,比如我就碰到一种情况是:各namenode、datanode和tasktracker、jobtracker运行正常,但hadoop dfsadmin –report却报告没有datanode活着,最后看了日志后去找相应问题的解决办法
http://serverfault.com/questions/392733/hadoop-slave-nodes-not-connecting,原来,这种情况理多的是出自ip设置的问题(而不是Hadoop的配置问题),最后我将/etc/network/interfaces中相应的127.0.1.1 master注释掉即解决了,这些问题解决了基本就没问题了;
(3) 最后就是运行下wordcount而已
效果如图(命令也可参照)