从客户端上传文件到HDFS集群

HDFS集群的任意一台的hadoop压缩包拷贝到客户端,通过ftp拷贝到客户端

需要本地新建一个文件,之后运用hadoop fs  -put 文件名 /要存储的位置    例:hadoop fs -put /srv/ftp/hadoop.tar /

查看HDFS的内容:

 

 客户端的ip地址与主机名的映射

 

三台datnode的数据块存放的位置:

 

在HDFS中创建hadoop目录命令:hadoop fs -mkdir /hadoop

上传文件到hadoop目录下:hadoop fs -put 文件名(可以同时上传多个文件) /hadoop

想要递归查看HDFS中的所有文件命令:hadoop fs -ls -R /

查看HDFS中的文件夹的大小:hadoop fs -dus / 或者 hadoop fs -du -s /

从HDFS复制到本地:hadoop fs -get HDFS的文件的位置 要复制到的位置

从HDFS下载多个文件到本地合并成一个文件:hadoop fs -getmerge 文件的位置及名字 文件的位置及名字 本地的文件名

全部评论

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务