1. 独立启动/停止Hadoop进程

在一台主机上执行

hadoop-daemon.sh start datanode
hadoop-daemon.sh stop datanode
或者
hdfs datanode
Ctrl + z
bg 或者 bg %1 # 转后台运行

2. 新增DataNode主机

# 清除存在的tmp和logs目录

# 启动datanode进程
hadoop-daemon.sh start datanode

# 启动yarn进程
yarn-daemon.sh start nodemanager

# 在NameNode节点上刷新节点
hdfs dfsadmin -refreshNodes

# 查看Web UI
node01:50070
node01:8088

# 做均衡处理将数据分担到新增节点上
hdfs balancer

# 上传文件到HDFS

3. API

HDFS的客户端有命令行(CLI)界面和编程界面(API)。
注意:使用API修改的配置参数(内存中),不影响HDFS服务器端已有的存储,只影响改变参数后上传的文件的存储。有些HDFS的参数是要在服务器端进行修改的。
NameNode的元数据是保存在内容中的。

4. hadoop与软/硬连接

hdfs的体系结构中没有提供对软或者硬链接的支持。