from hdfs.client import Client
client = Client("http://localhost:50070")
print client.list('/')
hdfs_dir = '/data/hive/warehouse'
with client.read(hdfs_dir) as f:
print f.read()
python hdfs 安装 python hdfs操作
转载本文章为转载内容,我们尊重原作者对文章享有的著作权。如有内容错误或侵权问题,欢迎原作者联系我们进行内容更正或删除文章。
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
HDFS的shell操作
HDFS的Shell操作
HDFS hadoop 绝对路径 -
使用python操作hdfs
文章目录简介相关链接安装介绍常用使用配置文件应用追加写入数据到hdfs中简介使用py
hadoop python hdfs 配置文件 -
hdfs python 文件操作 pyspark读取hdfs文件列表
1.读取本地文件首先需要在目录“/usr/local/spark/mycode/wordcount”下,建好一个word.txt:
hdfs python 文件操作 hadoop HDFS spark