一、解压hadoop-3.1.3.tar.gz

hadoop解压文件 hadoop解压失败_hadoop

 如果遇到解压错误,可能需要管理员解压,我这边使用的是bandzip,在开始菜单找到解压软件Bandzip应用。用其他解压软件也可以。

hadoop解压文件 hadoop解压失败_hadoop解压文件_02

重新解压即可

 

二、配置环境变量

hadoop解压文件 hadoop解压失败_hadoop解压文件_03

 

以上图片为配置java的环境变量,hadoop的环境变量和java环境变量配置过程相同,路径换成你上一步解压之后的hadoop路径即可,因为hadoop是需要java环境的所以机器上要提前安装好java(java的路径最好不要有空格,如果有空格的话,需要在hadoop_env.cmd文件中将java的路径有双引号括起来)

hadoop解压文件 hadoop解压失败_java_04

 

hadoop解压文件 hadoop解压失败_java_05

hadoop解压文件 hadoop解压失败_hadoop_06

 

三、修改配置文件

文件路径在hadoop的etc\hadoop里

3.1 core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>    
</configuration>

3.2 hdfs-site.xml

<configuration>
 <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>    
        <name>dfs.namenode.name.dir</name>    
        <value>file:/hadoop/data/dfs/namenode</value>    
    </property>    
    <property>    
        <name>dfs.datanode.data.dir</name>    
        <value>file:/hadoop/data/dfs/datanode</value>  
    </property>
</configuration>

3.3 mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

3.4 yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
 <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>

3.5 hadoop-env.cmd

修改JAVA_HOME(设置自己java所安装的位置,因为Program Files有空格,配置时用PROGRA~1表示Program Files)

set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_144

四、下载winutils

由于hadoop不能直接直接在windows环境下启动,需要依赖hadoop的winutils

hadoop解压文件 hadoop解压失败_hadoop_07

这里给出两个下载路径首先是githttps://github.com/cdarlint/winutils

如果大家在git上下载不下来,或者下载慢,这里提供一个百度网盘的下载路径https://pan.baidu.com/s/1a5et7e6oLir2dgABPJkgqg?pwd=yyds

下载好之后,挑选和你hadoop相同的版本,将bin中的内容直接拷贝到你安装的hadoopbin目录下,有重复的替换即可。

hadoop解压文件 hadoop解压失败_java_08

 (将winutils的bin下的内容  复制到 hadoop的bin下。替换所有)

 五、启动hadoop

第一次启动需要初始化名字节点,初始化名字节点之前请确保 在上面配置的hdfs-site.xml文件中的namenode目录为空,切换到hadoop的bin目录下,输入一下内容

hadoop namenode -format

hadoop解压文件 hadoop解压失败_hadoop解压文件_09

看到successfully证明成功初始化。

之后切换到hadoop安装目录下的sbin目录,输入以下内容:

start-all.cmd

 会依次弹出四个命令框,分别为namenode、datanode、resourcemanager、nodemanager

hadoop解压文件 hadoop解压失败_java_10

这时打开浏览器输入:

localhost:9870

 会出现以下内容:

hadoop解压文件 hadoop解压失败_linux_11

六、上传文件

切换到hadoop下的bin目录,输入

hdfs dfs -mkdir /tset

hadoop解压文件 hadoop解压失败_linux_12

 随意上传一个文件

hdfs dfs -put "你的文件路径" /test

我这里是上传了一个jar包

hadoop解压文件 hadoop解压失败_linux_13

 

我这里是参考了其他文章,对我遇到的一些问题做出了一些修改。