进入Hadoop 主目录下

创建  mkdir opt 创建一个opt 目录

xftp上传文件

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash

上传完成 ll 查看文件

tar:压缩、解压缩  tar -xzf 文件名(输文件名时可以输入前面几个字母后按Tab键) -C 目录

解压完成, 配置环境变量


修改环境配置的文件

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_hadoop_02

保存退出

更新环境变量 


source ~/.bashrc

输入Java查看成功

Hadoop环境变量配置

切换到Hadoop下:

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_03



解压缩

配置环境变量

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_hadoop_04

    echo export HADOOP_HOME="pwd" >> ~/.bashrc

查看文件 cat bashrc 

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_05


配置HADOOP_CONF_DIR

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_hadoop_06


(1)配置PATH vi ~/.bashrc (删除上面的PATH,重新写入一个新的)

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_07

更新配置文件:source ~/.bashrc

输入Hadoop 测试环境变量

配置静态文件:

切换到root 用户

查看网段:ifconfig


 路径:vi /etc/sysconfig/network-scripts/ifcfg-ens33

修改BOOTPROTO=static onroot = yes

添加

IPADDR=192.168.33.110 (33设置成你的网段,最后随便设置,请牢记这个ip)
NETMASK=255.255.255.0
GATEWAY=192.168.33.2(这里的33也请改成你的网段)
DNS1=202.106.0.20

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_08

  重启network systemctl restart network

重新登陆 切换root用户


修改主机名

    修改主机映射

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_09

保存退出,

重启 reboot

修改win下的映射

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_10

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_11

修改完成 重新连接linux

进入配置目录:

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_12


(1)配置

在configuration添加以下内容 然后保存退出

<property>
<name>fs.defaultFS</name>
<value>hdfs://python2:9000</value>
</property>


(1)配置hdfs-site.xml

在configuration添加以下内容 然后保存退出

<property>
<name>dfs.replication</name>
<value>1</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop/opt/tmp/dfs/name</value>
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop/opt/tmp/dfs/data</value>
</property>

<property>
<name>dfs.namenode.http-address</name>
<value>python2:50070</value>
</property>


(1)配置mapred-site.xmll

ll查看当前目录会发现没有mapred-site.xml文件,只有一个mapred-site.xml.template的文件,我们复制一份命名为mapred-site.xml: cp mapred-site.xml.template mapred-site.xml

在configuration添加以下内容 然后保存退出

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

(1)配置yarn-site.xml

在configuration添加以下内容 然后保存退出

<property>
<name>yarn.resourcemanager.hostname</name>
<value>python2</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

(1)修改

slaves

配置datanode的主机名称

python 05

切换到root 用户下:

关闭防火墙

临时关闭:systemctl stop firewalld

永久关闭:systemctl disable firewalld

查看状态:systemctl status firewalld

关闭selinux

临时关闭:setenforce 0

永久关闭:vi /etc/selinux/config

修改

getenforce:查看状态


重启机器

重新连接,登录hadoop


执行hdfs文件系统格式化:hdfs namenode -format


1.配置ssh无密码登录


输入ssh-keygen -t rsa  一直回车


ssh-copy-id 你想登录到的计算机名 输入hadoop的密码

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_13


启动服务 start-dfs.sh


        start-yarn.sh

启动所有服务:start-all.sh

  jps:查看启动的服务

浏览器访问,输入python2:50070


1.创建一个目录

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_14

新建一个文件 :touch data.txt 并写一点内容

上传文件:

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_hadoop_15

 查看:点击user 进入查看


一.Anaconda的安装

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_xml_16


1.安装前需要安装bzip2  yum -y install bzip2

(1)需要root用户,切换用户


1.开始安装Anaconda  bash Anaconda3-5.0.1-Linux-x86_64.sh

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_hadoop_17

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_18

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_hadoop_19

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_20

更新环境变量

source ~/.bashrc


查看jupter地址 jupyter-notebook --ip python2

查看的时候有时候报错权限不够

切换到root用户下:

sudo chmod 777 /run/user/0/

切换到Hadoop下: su hadoop

再执行:jupyter-notebook --ip python02

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_21


1.进浏览器,输入你复制的地址


一.spark的安装

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_22


1.解压缩到 opt目录 tar -xzf spark-2.2.1-bin-hadoop2.7.tgz -C opt

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_23


1.更新环境变量

测试:

hadoop环境变量 HADOOP_USER_NAME hadoop环境变量搭建_bash_24