大数据入门(三) - HDFS 伪分布式环境搭建

源码

1 HDFS概述及设计目标

1.1 什么是HDFS:

  • Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS
  • 源自于Google的GFS论文
  • 论文发表于2003年,HDFS是GFS的克隆版

1.2 HDFS的设计目标:

  • 非常巨大的分布式文件系统
  • 运行在普通廉价的硬件上
  • 易扩展、为用户提供性能不错的文件存储服务

HDFS官方文档地址

2 HDFS架构

HDFS是主/从式的架构。一个HDFS集群会有一个NameNode(简称NN),也就是命名节点,该节点作为主服务器存在(master server).

  • NameNode用于管理文件系统的命名空间以及调节客户访问文件
  • 此外,还会有多个DataNode(简称DN),也就是数据节点,数据节点作为从节点存在(slave server)
  • 通常每一个集群中的DataNode,都会被NameNode所管理,DataNode用于存储数据。

HDFS公开了文件系统名称空间,允许用户将数据存储在文件中,就好比我们平时使用操作系统中的文件系统一样,用户无需关心底层是如何存储数据的
而在底层,一个文件会被分成一个或多个数据块,这些数据库块会被存储在一组数据节点中。在CDH中数据块的默认大小是128M,这个大小我们可以通过配置文件进行调节
在NameNode上我们可以执行文件系统的命名空间操作,如打开,关闭,重命名文件等。这也决定了数据块到数据节点的映射。

我们可以来看看HDFS的架构图

HDFS被设计为可以运行在普通的廉价机器上,而这些机器通常运行着一个Linux操作系统。HDFS是使用Java语言编写的,任何支持Java的机器都可以运行HDFS
使用高度可移植的Java语言编写的HDFS,意味着可以部署在广泛的机器上
一个典型的HDFS集群部署会有一个专门的机器只能运行NameNode,而其他集群中的机器各自运行一个DataNode实例。虽然一台机器上也可以运行多个节点,但是并不建议这么做,除非是学习环境。

总结

  • HDFS是主/从式的架构,一个HDFS集群会有一个NameNode以及多个DataNode
  • 一个文件会被拆分为多个数据块进行存储,默认数据块大小是128M
  • 即便一个数据块大小为130M,也会被拆分为2个Block,一个大小为128M,一个大小为2M
  • HDFS是使用Java编写的,使得其可以运行在安装了JDK的操作系统之上

NN

  • 负责客户端请求的响应
  • 负责元数据(文件的名称、副本系数、Block存放的DN)的管理

DN

  • 存储用户的文件对应的数据块(Block)
  • 会定期向NN发送心跳信息,汇报本身及其所有的block信息和健康状况

3 HDFS副本机制

在HDFS中,一个文件会被拆分为一个或多个数据块
默认情况下,每个数据块都会有三个副本
每个副本都会被存放在不同的机器上,而且每一个副本都有自己唯一的编号

  • 如下图

4 HDFS 副本存放策略

NameNode节点选择一个DataNode节点去存储block副本得过程就叫做副本存放,这个过程的策略其实就是在可靠性和读写带宽间得权衡。

《Hadoop权威指南》中的默认方式:

  • 第一个副本会随机选择,但是不会选择存储过满的节点。
  • 第二个副本放在和第一个副本不同且随机选择的机架上。
  • 第三个和第二个放在同一个机架上的不同节点上。
  • 剩余的副本就完全随机节点了

可以看出这个方案比较合理

  • 可靠性:block存储在两个机架上
  • 写带宽:写操作仅仅穿过一个网络交换机
  • 读操作:选择其中得一个机架去读
  • block分布在整个集群上

5 HDFS伪分布式环境搭建

5.1 官方安装文档地址

5.2 环境参数

  • Mac OS 10.14.4
  • JDK1.8
  • Hadoop 2.6.0-cdh5.7.0
  • ssh
  • rsync

5.3 安装配置

下载Hadoop 2.6.0-cdh5.7.0的tar.gz包并解压:
CentOS 环境安装步骤
MacOS安装环境
安装jdk
jdk安装路径

设置 JAVA_HOME

  • 添加java_home到.bash_profile文件中
export JAVA_HOME=$(/usr/libexec/java_home)
export PATH=$JAVA_HOME/bin:$PATH
export CLASS_PATH=$JAVA_HOME/lib 

 Mac OS X ssh设置

  • 输入命令ssh localhost,可能遇到如下问题

  • 原因是没打开远程登录,进入系统设置->共享->远程登录打开就好

这时你再ssh localhost一下

5.3 下载 Hadoop

下载

tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz
  • 解压到doc目录,解压完后,进入到解压后的目录下,可以看到hadoop的目录结构如下image
  • bin目录存放可执行文件
  • etc目录存放配置文件
  • sbin目录下存放服务的启动命令
  • share目录下存放jar包与文档

以上就算是把hadoop给安装好了,接下来就是编辑配置文件,把JAVA_HOME配置一下

cd etc/
cd hadoop
vim hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8/  # 根据你的环境变量进行修改

image

官方指南

  • 编辑 hadoop-env.sh 文件
export JAVA_HOME=${/usr/libexec/java_home}

image
image
由于我们要进行的是单节点伪分布式环境的搭建,所以还需要配置两个配置文件,分别是core-site.xml以及hdfs-site.xml

Hadoop也可以在伪分布模式下的单节点上运行,其中每个Hadoop守护进程都在单独的Java进程中运行

  • 配置

  • 路径

  • 具体配置

  • 配置 datanode 节点数

5.4 启动 hdfs

$ bin/hdfs namenode -format

只有第一次启动才需要格式化

  • 使用服务启动脚本启动服务
$ sbin/start-dfs.sh

  • 检查是否有以下几个进程,如果少了一个都是不成功的

访问http://localhost:50070/

表示HDFS已经安装成功

  • 然后将Hadoop的安装目录配置到环境变量中,方便之后使用它的命令

  • 关闭

6 HDFS Shell 操作


官网指南

先启动 HDFS

配置 hadoop 环境变量
成功
指令集
dfs fs 无差异
上传一个 txt 文件


创建文件夹

多层次文件夹

遍历所有文件夹




删除文件/文件夹


所上传的文件

Java 操作 HDFS 开发环境搭建






pom 文件

JavaAPI 操作 HDFS文件系统


测试通过

  • 测试创建文件方法

  • 查看 HDFS 文件的内容

  • 上传文件到 HDFS
  • 上传文件到 HDFS(带进度条)

    测试通过
  • 下载文件到本地

    测试通过
  • 查看某个目录下的所有文件

    测试通过
  • 删除文件/文件夹


#google##360公司##读书笔记##MySQL#
全部评论

相关推荐

不愿透露姓名的神秘牛友
06-19 14:46
和女友两个人马上毕业,现在我在鹅实习995,周六日偶尔也去北京;她在北京金融007,经常忙到后半夜,周末也没啥休息机会两个人现在都不咋聊天了,一句话隔半小时甚至半天才回。 她是个很优秀的妹子,工作也很努力,是值得学习一辈子的人。我在努力工作求转正,即便不行至少赚到了一段不错的实习经历。已经异地了半年,接下来可能还会持续是这个状态。我们都算是对方重要的人,只是感觉看上去不是很有未来的样子。希望牛友们给点的鼓励
梦旅奇缘:很难。异地首先就已经很难了,加上妹子是金融行业,忙碌高压,对情感需求很高,而且见惯纸醉金迷,你的很多优势在她那里可能就不算什么了。这种情况下,在她们那里遇到一个能及时照顾她的人,即使那人可能很多条件不如你,你也有可能被分手。 说白了,两个卷王就不太适合在一起。因为卷王最大的优势,在另一个卷王那里就不算优势了。
点赞 评论 收藏
分享
强大的马里奥:我初中同学,没上高中,搞直播,现在提奔驰S450了
点赞 评论 收藏
分享
点赞 评论 收藏
分享
05-30 18:54
武汉商学院 Java
湫湫湫不会java:先投着吧,大概率找不到实习,没实习的时候再加个项目,然后把个人评价和荣誉奖项删了,赶紧成为八股战神吧,没实习没学历,秋招机会估计不多,把握机会。或者说秋招时间去冲实习,春招冲offer,但是压力会比较大
点赞 评论 收藏
分享
评论
点赞
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务