简介:

  • 单节点即默认模式。所谓默认模式,就是安装完jdk及hadoop,配置好相应的环境,即本地模式配置完成。 所有程序都在单个JVM上执行。
  • 使用本地文件系统,而不是分布式文件系统。
  • 无需运行任何守护进程(daemon),hadoop不会启动NameNode、DataNode等守护进程,Map()和Reduce()任务作为同一个进程的不同部分来执行的。

注意:命令前边有$符号则说明需要用普通用户,有#说明需要用root用户。

准备工作:

1、首先安装Linux操作系统。

2、新建一个普通用户(后序步骤可以使用普通用户完成的不要使用root用户。)

3、要准备Hadoop以及Jdk的安装包。

下载地址分别为(请点击超链接):Hadoop     Jdk

-------------------------------------------为了方便我下载了远程连接工具。Mobaxterm。

4、我在/home/betty下创建了soft文件夹,用来存放一些软件,以及软件的安装包。

$ mkdir soft

一、安装Java

1、首先要查看系统是否有自带java,如果有,请先卸载。

查看是否有其他版本Java: $ rpm -qa | grep java

卸载其他版本(需要使用root用户删除):# rpm -e --nodeps javaxxxxxxx

2、将压缩包解压到当前目录下。注意一定要使用普通用户!

$ tar -zxvf /home/betty/soft/jdk-8u162-linux-x64.tar.gz

3、创建软连接。目的是为了方便以后更换jdk版本时,不需要修改环境变量。

$ ln -s /home/betty/soft/jdk1.8.0_162 /home/betty/soft/jdk

4、删除安装包。

$ rm /home/betty/soft/jdk-8u162-linux-x64.tar.gz

5、配置环境变量。

配置环境变量有三种文件可修改(/etc/profile(需要使用root用户)   ~/.bash_profile   ~/.bashrc),在这里,我选择了~/.bashrc。

$ vi ~/.bashrc

【JAVA_HOME=/home/betty/soft/jdk
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH】

6、使配置文件生效。

重启机器

# reboot

或者也可以使用命令

$ source ~/.bashrc(如果更改的是/etc/profile文件,则需要使用root用户来执行source /etc/profile)

7、测试

$ java -version 回车

$ javac 回车

出现信息翻滚,即配置成功。

二、安装Hadoop

1、上传压缩包并进行解压(一定要使用普通用户)

$ tar -zxvf hadoop-2.7.3.tar.gz

2、创建软连接

$ ln -s /home/betty/soft/hadoop-2.7.3 /home/betty/soft/hadoop

3、删除安装包

$ rm /home/betty/soft/hadoop-2.7.3.tar.gz
4、配置环境变量

$ vim ~/.bashrc

【JAVA_HOME=/home/betty/soft/jdk
HADOOP_HOME=/home/betty/soft/hadoop
PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_HOME PATH

加上之前配置的JAVA环境变量,就变成了这样。

5、使配置文件生效。

重启机器

# reboot

或者也可以使用命令

$ source ~/.bashrc(如果更改的是/etc/profile文件,则需要使用root用户来执行source ~/.bashrc)

6、测试

$ hdfs -version

7、测试mr圆周率

hadoop jar /home/betty/soft/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar pi 10 100000

如果失败则需要配置:/etc/hosts

# /etc/hosts

添加内容【192.168.85.141 dog1】

8、单节点模式配置成功。