文章目录
- 前言
- 一、Hadoop
- 1.打开和关闭Hadoop命令
- 二、HBase
- 1.打开和关闭HBase命令
- 三、Spark
- 1.启动Spark-Shell
- 2.退出Spark-Shell
- 总结
前言
最近在学习大数据技术,在这里总结一些Hadoop、HBase、Spark常用的技术指令
一、Hadoop
1.打开和关闭Hadoop命令
代码如下(示例):
#首先,进入hadoop目录下
cd /usr/local/hadoop
./sbin/ #打开hadoop
./sbin/ #关闭hadoop
jps #查看hadoop当前状态
./bin/hdfs dfs -ls #操作hdfs查看hdfs下的文件和文件夹
二、HBase
1.打开和关闭HBase命令
伪分布式下HBase的打开顺序为打开Hadoop -> 打开Hbase -> 关闭 Hbase -> 关闭 Hadoop
代码如下(示例):
#首先,进入HBase目录下
cd /usr/local/hbase
bin/ #打开hbase
bin/hbase shell #打开hbase shell 用命令行操作hbase
bin/ #关闭Hbase:
三、Spark
1.启动Spark-Shell
代码如下(示例):
cd /usr/local/spark
bin/spark-shell
2.退出Spark-Shell
代码如下(示例):
:quit
总结
暂时记录这些,后续将接着更新。