文章目录

  • 前言
  • 一、Hadoop
  • 1.打开和关闭Hadoop命令
  • 二、HBase
  • 1.打开和关闭HBase命令
  • 三、Spark
  • 1.启动Spark-Shell
  • 2.退出Spark-Shell
  • 总结



前言

最近在学习大数据技术,在这里总结一些Hadoop、HBase、Spark常用的技术指令


一、Hadoop

1.打开和关闭Hadoop命令

代码如下(示例):

#首先,进入hadoop目录下
cd /usr/local/hadoop
./sbin/      #打开hadoop
./sbin/     	 #关闭hadoop
jps                      #查看hadoop当前状态
./bin/hdfs dfs -ls       #操作hdfs查看hdfs下的文件和文件夹

二、HBase

1.打开和关闭HBase命令

伪分布式下HBase的打开顺序为打开Hadoop -> 打开Hbase -> 关闭 Hbase -> 关闭 Hadoop

代码如下(示例):

#首先,进入HBase目录下
cd /usr/local/hbase
bin/      #打开hbase
bin/hbase shell         #打开hbase shell 用命令行操作hbase
bin/       #关闭Hbase:

三、Spark

1.启动Spark-Shell

代码如下(示例):

cd /usr/local/spark
bin/spark-shell

2.退出Spark-Shell

代码如下(示例):

:quit

总结

暂时记录这些,后续将接着更新。