vim hadoop-env.sh
export JAVA_HOME=/app/jdk1.8.0_171
vim yarn-env.sh
export JAVA_HOME=/app/jdk1.8.0_171
>
> **又一大波vim飘过~~~**
>
>
> **插入的内容放在两个<configuration>中。如下图:**
>
>
>
![]()
vim core-site.xml
fs.default.name hdfs://localhost:9000 HDFS的URI,文件系统://namenode标识:端口号 hadoop.tmp.dir /usr/hadoop/tmp namenode上本地的hadoop临时文件夹
vim hdfs-site.xml
dfs.name.dir /usr/hadoop/hdfs/name namenode上存储hdfs名字空间元数据 dfs.data.dir /usr/hadoop/hdfs/data datanode上数据块的物理存储位置 dfs.replication 1
vim mapred-site.xml
mapreduce.framework.name yarn
vim yarn-site.xml
yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.webapp.address 192.168.2.10:8099 这个地址是mr管理界面的
>
> **最后一波了,挺住!!!**
>
>
>
将Hadoop添加到环境变量中并设置`root`用户可以启动`hadoop`
mkdir /usr/hadoop
mkdir /usr/hadoop/tmp
mkdir /usr/hadoop/hdfs
mkdir /usr/hadoop/hdfs/data
mkdir /usr/hadoop/hdfs/name
vim /etc/profile
在文件末尾插入下面代码:
#set Hadoop Environment
export HADOOP_HOME=/app/hadoop3.1
export PATH=HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
hadoop namenode -format
cd /app/hadoop3.1/sbin
>
> 下面的vim均在文件头部插入。如图:
>
>
>
![]()
vim start-dfs.sh
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
vim stop-dfs.sh
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
vim start-yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
vim stop-yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
原神启动,不对Hadoop启动:
start-dfs.sh
jps
**评测!**
**第3关:HDFS系统初体验:**
start-dfs.sh
hadoop fs -mkdir /task
hadoop fs -ls /
touch task.txt>
> **最后一个vim了 ,加油!**
>
>
>
>
> **最后一个vim了 ,加油!**
>
>
>
vim task.txt
hello educoder
hello educoder输入完后,退出vim文本编辑器后再输入下面的内容
hadoop fs -put task.txt /task
hadoop fs -cat /task/task.txt