从客户端上传文件到HDFS集群

HDFS集群的任意一台的hadoop压缩包拷贝到客户端,通过ftp拷贝到客户端

需要本地新建一个文件,之后运用hadoop fs  -put 文件名 /要存储的位置    例:hadoop fs -put /srv/ftp/hadoop.tar /

查看HDFS的内容:

 

 客户端的ip地址与主机名的映射

 

三台datnode的数据块存放的位置:

 

在HDFS中创建hadoop目录命令:hadoop fs -mkdir /hadoop

上传文件到hadoop目录下:hadoop fs -put 文件名(可以同时上传多个文件) /hadoop

想要递归查看HDFS中的所有文件命令:hadoop fs -ls -R /

查看HDFS中的文件夹的大小:hadoop fs -dus / 或者 hadoop fs -du -s /

从HDFS复制到本地:hadoop fs -get HDFS的文件的位置 要复制到的位置

从HDFS下载多个文件到本地合并成一个文件:hadoop fs -getmerge 文件的位置及名字 文件的位置及名字 本地的文件名

全部评论

相关推荐

Southyeung:我说一下我的看法(有冒犯实属抱歉):(1)简历不太美观,给我一种看都不想看的感觉,感觉字体还是排版问题;(2)numpy就一个基础包,机器学习算法是什么鬼?我感觉你把svm那些写上去都要好一点。(2)课程不要写,没人看,换成获奖经历;(3)项目太少了,至少2-3个,是在不行把网上学习的也写上去。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务