vim hadoop-env.sh

export JAVA_HOME=/app/jdk1.8.0_171

vim yarn-env.sh

export JAVA_HOME=/app/jdk1.8.0_171

> 
> **又一大波vim飘过~~~**
> 
> 
> **插入的内容放在两个<configuration>中。如下图:**
> 
> 
> 


![]()

vim core-site.xml

fs.default.name hdfs://localhost:9000 HDFS的URI,文件系统://namenode标识:端口号 hadoop.tmp.dir /usr/hadoop/tmp namenode上本地的hadoop临时文件夹

vim hdfs-site.xml
 dfs.name.dir /usr/hadoop/hdfs/name namenode上存储hdfs名字空间元数据 dfs.data.dir /usr/hadoop/hdfs/data datanode上数据块的物理存储位置 dfs.replication 1


vim mapred-site.xml
 mapreduce.framework.name yarn


vim yarn-site.xml
 yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.webapp.address 192.168.2.10:8099 这个地址是mr管理界面的


> 
> **最后一波了,挺住!!!**
> 
> 
> 


将Hadoop添加到环境变量中并设置`root`用户可以启动`hadoop`
mkdir /usr/hadoop
 mkdir /usr/hadoop/tmp
 mkdir /usr/hadoop/hdfs
 mkdir /usr/hadoop/hdfs/data
 mkdir /usr/hadoop/hdfs/name

vim /etc/profile

在文件末尾插入下面代码:

#set Hadoop Environment
 export HADOOP_HOME=/app/hadoop3.1
 export PATH=HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

hadoop namenode -format
cd /app/hadoop3.1/sbin

> 
> 下面的vim均在文件头部插入。如图:
> 
> 
> 


![]()
vim start-dfs.sh
HDFS_DATANODE_USER=root
 HADOOP_SECURE_DN_USER=hdfs
 HDFS_NAMENODE_USER=root
 HDFS_SECONDARYNAMENODE_USER=root
vim stop-dfs.sh
HDFS_DATANODE_USER=root
 HADOOP_SECURE_DN_USER=hdfs
 HDFS_NAMENODE_USER=root
 HDFS_SECONDARYNAMENODE_USER=root
vim start-yarn.sh
YARN_RESOURCEMANAGER_USER=root
 HADOOP_SECURE_DN_USER=yarn
 YARN_NODEMANAGER_USER=root
vim stop-yarn.sh
YARN_RESOURCEMANAGER_USER=root
 HADOOP_SECURE_DN_USER=yarn
 YARN_NODEMANAGER_USER=root
原神启动,不对Hadoop启动:

start-dfs.sh
jps

**评测!**


**第3关:HDFS系统初体验:**
start-dfs.sh
 hadoop fs -mkdir /task
 hadoop fs -ls /
 touch task.txt> 
> **最后一个vim了 ,加油!**
> 
> 
>
> 
> **最后一个vim了 ,加油!**
> 
> 
>
vim task.txt
hello educoder
hello educoder输入完后,退出vim文本编辑器后再输入下面的内容
hadoop fs -put task.txt /task
 hadoop fs -cat /task/task.txt