1. HDFS概述

1.1 HDFS产生背景及定义

1.1.1 HDFS产生背景

随着数据量越来越大,在一个操作系统存不下所有的数据,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统。HDFS只是分布式文件管理系统中的一种。

1.1.2 HDFS定义

HDFS(Hadoop Distributed File System),它是一个文件系统,用于存储文件,通过目录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。

HDFS的使用场景:适合一次写入,多次读出的场景。 一个文件经过创建、写入和关闭之后就不需要改变。

HDFS 主要适合去做批量数据出来,相对于数据请求时的反应时间,HDFS 更倾向于保障吞吐量。

1.1.3 HDFS发展史

  1. Doug Cutting 在做 Lucene 的时候, 需要编写一个爬虫服务,这个爬虫写的并不顺利,遇到了一些问题, 诸如:如何存储大规模的数据,如何保证集群的可伸缩性,如何动态容错等。
  2. 2013 年,Google 发布了三篇论文,被称作为三驾马车,其中有一篇叫做 GFS。
  3. GFS 是描述了 Google 内部的一个叫做 GFS 的分布式大规模文件系统,具有强大的可伸缩性和容错性。
  4. Doug Cutting 后来根据 GFS 的论文,创造了一个新的文件系统,叫做 HDFS。

1.2 HDFS优缺点

1.2.1 优点

高容错性:数据自动保存多个副本。它通过增加副本的形式,提高容错性。某一个副本丢失后,它可以自动恢复。

适合处理大数据:

  • 数据规模:能够处理数据规模达到GB、TB甚至PB级别的数据。
  • 文件规模:能够处理百万规模以上的文件数量,数量相当之大。

可构建在廉价机器上:通过多副本机制,提高可靠性。

1.2.2 缺点

  • 不适合处理低延时数据访问:比如毫秒级的存储数据,是做不到的。
  • 无法高效的对大量小文件进行存储:存储大量小文件的话,它会占用 NameNode 大量的内存来存储文件目录和块信息。这样是不可取的,因为 NameNode 的内存总是有限的。小文件存储的寻址时间会超过读取时间,它违反了 HDFS 的设计目标。
  • 不支持并发写入、文件随机修改:一个文件只能有一个写,不允许多个线程同时写。仅支持数据 append,不支持文件的随机修改。

2. HDFS组成架构

2.1 NameNode

Master,它是一个主管、管理者。

  • 管理 HDFS 的名称空间;
  • 配置副本策略;
  • 管理数据块(Block)映射信息;
  • 处理客户端读取请求;

2.2 DataNode

Slave,NameNode赋值下达命令,DataNode执行实际的操作。

  • 存储实际的数据块;
  • 执行数据块的读/写操作;

2.3 Client

客户端。

  • 文件切分。文件上传 HDFS 的时候,Client 将文件切分成一个一个的Block,然后进行上传;
  • 与 NameNode 交互,获取文件的位置信息;
  • 与 DataNode 交互,读取或者写入数据;
  • Client 提供一些命令来管理 HDFS,比如对 NameNode 格式化;
  • Client 可以通过一些命令来访问 HDFS,比如对 HDFS 增删改查操作;

2.4 SecondaryNameNode

并非 NameNode 的热备,当 NameNode 挂掉的时候,它并不能马上替换 NameNode 并提供服务。

  • 辅助 NameNode,分担其工作量,比如定期合并 Fsimage 和 Edits,并推送给 NameNode;
  • 在紧急情况下,可辅助恢复 NameNode;

3. HDFS的重要特性

3.1 主从架构

HDFS 采用 master/slave 架构。一般一个 HDFS 集群是有一个 Namenode 和一定数目的 Datanode 组成。Namenode是HDFS主节点,Datanode是HDFS从节点,两种角色各司其职,共同协调完成分布式的文件存储服务。

hdfs集群运行python脚本 hdfs list_hadoop

(1)NameNode存储:保存文件的元数据(目录树、路径也算)
   ①基于内存存储:不会和磁盘发生交换
     NameNode的数据只会在内存中
     持久化(Namenode基于内存存储,内存是掉电易失的,所以会将内存中的数据持久化到磁盘)
   ②主要功能:
     NameNode是保存文件元数据信息的
     NameNode用来和客户端交互,接收客户端的读写服务
     收集DataNode汇报上来的block块列表信息
   ③保存的metadata信息
     不保存位置信息,是因为需要保证数据一致性(提供百分之百准确的消息)

(2)DataNode:存储块文件,保存文件block数据,向NameNode汇报block块的列表
   ①存储:
     本地磁盘目录存储block块的数据,以文件形式
     存储block块的元数据信息
   ②功能:
     向Namenode汇报block块的信息
     和Namenode通过心跳(3秒一次)保持联系,如果Namenode10分钟没有接收到DataNode的心跳,则认为该DataNode已经lost,Namenode会将该DataNode上的block块复制到其他DataNode上
     
 (3)关系(HDFSClient、DataNode、NameNode):
   三者的关系:
     DataNode与NameNode保持心跳,DataNode向NameNode提交block列表;
     HDFSClient和Namenode交互文件元数据;
     HDFSClient和DataNode交互文件block数据

3.2 存储模型

存储模型:字节(一个文件就是一个字节数组)
 ①block块产生:文件线性切割成block块,偏移量(offset)(byte)
 ②block块存储:block分散存储在集群节点中
 ③block块大小要求:单一文件block大小一致,文件和文件可以不一致
 ④block块副本:block 可以设置副本,副本分散在集群的不同节点上,副本数量不能超过集群节点数量
 ⑤关于文件上传:
   文件上传可以设置block大小和副本数
   已经上传的文件Block副本数可以调整,大小不变
   仅支持一次写入多次读取,同一时刻只能有一个写入者
   可以append追加数据

3.3 分块机制

HDFS 中的文件在物理上是分块存储(block)的,块的大小可以通过配置参数来规定,参数位于 hdfs-default.xml 中:dfs.blocksize。默认大小在 Hadoop2.x/3.x 是128M(134217728),1.x 版本中是 64M。 

hdfs集群运行python脚本 hdfs list_hdfs集群运行python脚本_02

3.3.1  HDFS文件块大小设置

  • HDFS 的块设置太小,会增加寻址时间,程序一直在找块的开始位置;
  • 如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间,导致程序在处理这块数据时,会非常慢。

总结:HDFS块的大小设置主要取决于磁盘传输速率。

3.4 副本机制

为了容错,文件的所有 block 都会有副本。每个文件的 block 大小(dfs.blocksize)和副本系数(dfs.replication)都是可配置的。应用程序可以指定某个文件的副本数目。副本系数可以在文件创建的时候指定,也可以在之后通过命令改变。

默认dfs.replication的值是3,也就是会额外再复制 2 份,连同本身总共 3 份副本。

hdfs集群运行python脚本 hdfs list_HDFS_03

3.5 Namespace

HDFS 支持传统的层次型文件组织结构。用户可以创建目录,然后将文件保存在这些目录里。文件系统名字空间的层次结构和大多数现有的文件系统类似:用户可以创建、删除、移动或重命名文件。

Namenode 负责维护文件系统的 namespace 名称空间,任何对文件系统名称空间或属性的修改都将被 Namenode 记录下来。

HDFS 会给客户端提供一个统一的抽象目录树,客户端通过路径来访问文件,形如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data。

3.6 元数据管理

在 HDFS 中,NameNode 管理的元数据具有两种类:

  • 文件自身属性信息:文件名称、权限,修改时间,文件大小,复制因子,数据块大小。
  • 文件块位置映射信息:记录文件块和 DataNode 之间的映射信息,即哪个块位于哪个节点上。

3.7 数据块存储

文件的各个 block 的具体存储管理由 DataNode 节点承担。每一个 block 都可以在多个 DataNode 上存储。

hdfs集群运行python脚本 hdfs list_hdfs_04