时间:2021-05-22
pip install hdfs
python 读取hdfs目录或文件
import hdfs client =hdfs.Client("http://10.10.1.4:50070")fileDir="/user/hive/warehouse/house.db/dm_house/dt=201800909"try: status=client.status(fileDir,False) if status: print (status) rst=client.download(fileDir,"/home/dev/gewei") print (rst)exception Exception as e: print (e)补充知识:用python访问hdfs出现webhdfs找不到的情况
有可能是webhdfs服务没有开启
向hdfs-site.xml文件中添加属性:
<property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property>可以使用如下命令检测,
获得目录的列表:
curl -i "http://Hadoop:50070/webhdfs/v1/?user.name=hadoop&op=LISTSTATUS"
以上这篇python访问hdfs的操作就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
hdfs文件操作操作示例,包括上传文件到HDFS上、从HDFS上下载文件和删除HDFS上的文件,大家参考使用吧复制代码代码如下:importorg.apache
在使用python做大数据和机器学习处理过程中,首先需要读取hdfs数据,对于常用格式数据一般比较容易读取,parquet略微特殊。从hdfs上使用python
之前一直使用hdfs的命令进行hdfs操作,比如:hdfsdfs-ls/user/spark/hdfsdfs-get/user/spark/a.txt/home
详解HDFS多文件Join操作的实例最近在做HDFS文件处理之时,遇到了多文件Join操作,其中包括:AllJoin以及常用的LeftJoin操作,下面是个简单
当我们使用python的hdfs包进行上传和下载文件的时候,总会出现如下问题requests.packages.urllib3.exceptions.NewCo