189 8069 5689

HDFS是怎么做文件管理和容错的

这篇文章主要讲解了“HDFS是怎么做文件管理和容错的”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“HDFS是怎么做文件管理和容错的”吧!

瀍河ssl适用于网站、小程序/APP、API接口等需要进行数据传输应用场景,ssl证书未来市场广阔!成为创新互联的ssl证书销售渠道,可以享受市场价格4-6折优惠!如果有意向欢迎电话联系或者加微信:13518219792(备注:SSL证书合作)期待与您的合作!


HDFS 文件管理

1、HDFS 的块分布

        HDFS 会将数据文件切分成一个个小的数据块进行存储,同时会将这些数据块的副本保存多份,分别保存到不同的 DataNode 上。HDFS 中数据块的副本数由 hdfs-site.xml文件中的dfs.replication属性决定,配置属性如下:

 dfs.replication 3

        Hadoop 默认的副本数为3,并且在机架的存放上也有一定的策略。Hadoop 的默认布局策略,即默认的副本存放策略如下:

        (1)第 1 个副本存放在 HDFS 客户端所在的节点上。

        (2)第 2 个副本存放在与第1个副本不同的机架上,并且是随机选择的节点。

        (3)第 3 个副本存放在与第2个副本相同的机架上,并且是不同的节点。

2、数据读取

        HDFS 的数据读取过程需要客户端先访问 NameNode,获取元数据信息,然后到具体的 DataNode 上读取数据,如下图所示:

HDFS是怎么做文件管理和容错的
        (1)客户端向NameNode发起请求,读取元数据信息NameNode上存储着整个HDFS集群的元数据信息,这些元数据信息包括文件名,所有者,所在组,权限,数据块和 DataNode列表

        这个过程中还要对客户端的身份信息进行验证,同时检测是否存在要读取的文件,并且需要验证客户端的身份是否具有访问权限

        (2)NameNode 将相关的元数据信息返回给客户端

        (3)客户端到指定的 DataNode 上读取相应的数据块

        (4)DataNode 返回相应的数据块信息

        第(3)和(4)步会持续进行,一直到文件的所有数据块都读取完毕或者 HDFS 客户端主动关闭了文件流为止。

3、数据写入

        HDFS 中的数据写入过程同样需要客户端先访问 NameNode,获取元数据信息,然后到具体的 DataNode 上写入数据,如图所示

HDFS是怎么做文件管理和容错的

        以下是具体步骤:

        (1)客户端请求 NameNode 获取元数据信息。这个过程中,NameNode 要对客户端的省份信息进行验证,同时需要验证客户端的身份是否具有写权限

        (2)NameNode 返回相应的元数据信息给客户端

        (3)客户端向第一个 DataNode 写数据

        (4)第 1 个 DataNode 向第 2 个 DataNode 写数据

        (5)第 2 个 DataNode 向第 3 个 DataNode 写数据

        (6)第 3 个 DataNode 向第 2 个 DataNode 返回确认结果信息

        (7)第 2 个 DataNode 向第 1 个 DataNode 返回确认结果信息

        (8)第 1 个 DataNode 向客户端返回确认结果信息

        其中,第(4)步和第(5)步是异步执行的,当 HDFS 中的多个 DataNode 发生故障或者发生错误时,只要正确写入了满足最少数目要求的数据副本数,HDFS客户端就可以从数据块的副本中恢复数据。

        最少数目要求的数据副本数由hdfs-site.xml文件中的dfs.namenode.replication.min属性决定,配置属性如下:

 dfs.namenode.replication.min 1

        最少数目要求的数据副本数默认为1,即只要正确写入了数据的一个副本,客户端就可以从数据副本中恢复数据

4、数据完整性

        通常,在校验数据是否损坏时可以用如下方式。

        (1)当数据第一次引入时,计算校验和

        (2)当数据经过一系列的传输或者复制时,再次计算校验和

        (3)对比第(1)和第(2)步的校验和是否一致,如果两次数据的校验和不一致,则证明数据已经被破坏。

注意:这种使用校验和来验证数据的技术只能检测数据是否被损坏,并不能修复数据。

        HDFS中校验数据是否损坏使用的也是校验和技术,无论是进行数据的写入还是进行数据的读取,都会验证数据的校验和。校验和的字节数由core-site.xml文件中的io.bytes.per.checksum属性指定,默认的字节长度为 512 B,具体配置如下:

 io.bytes.per.checksum 512

        当 HDFS 写数据时,HDFS 客户端会将要写入的数据及对应数据的校验和发送到 DataNode 组成的复制管道中,其中最后一个 DataNode 负责验证数据的校验和是否一致。如果检测到校验和与 HDFS 客户端发送的校验和不一致,则 HDFS 客户端 会收到校验和异常的信息,可以在程序中捕获到这个异常,进行相应的处理,如重新写入数据或者用其他方式处理

        HDFS 读数据时也会验证校验和,此时会将它们与 DataNode 中存储的校验和进行比较。如果其与 DataNode 中存储的校验和不一致,则说明数据已经损坏,需要重新从其他 DataNode 读取数据。其中,每个 DataNode 都会保存一个校验和日志,客户端成功验证一个数据块之后,DataNode会更新该校验和日志

        除此之外,每个 DataNode 也会在后台运行一个扫描器(DataBlockScanner),定期验证存储在这个 DataNode 上的所有数据块

        由于 HDFS提供的数据块副本机制当一个数据块损坏时,HDFS 能够自动复制其他完好的数据块来修复损坏的数据块,得到一个新的,完好的数据块,以达到系统设置的副本数要求,因此在某些数据块出现损坏时,保证了数据的完整性。

5、 HDFS 容错

        HDFS 的容错机制大体上可以分为两个方面:文件系统的容错和 Hadoop 自身的容错。

5.1 文件系统的容错

        文件系统的容错可以通过 NameNode 高可用、SecondaryNameNode 机制、数据块副本机制和心跳机制来实现。

注意:当以本地模式或者伪集群模式部署 Hadoop 时,会存在 SeconddayNameNode;当以集群模式部署 Hadoop 时,如果配置了 NameNode 的 HA 机制,则不会存在 SecondaryNameNode,此时会存在备 NameNode

        在这里重点说下集群模式下 HDFS 的容错,有关 SecondaryNameNode 机制可参见上一篇文章《前方高能 | HDFS 的架构,你吃透了吗?》的说明:

        HDFS 的容错机制如图所示:

HDFS是怎么做文件管理和容错的
        具体的流程如下:

        (1)备 NameNode 实时备份主 NameNode 上的元数据信息,一旦主 NameNode 发生故障不可用,则备 NameNode 迅速接管主 NameNode 的工作。

        (2)客户端向 NameNode 读取元数据信息。

        (3)NameNode 向客户端返回元数据信息。

        (4)客户端向 DataNode 读取/写入 数据,此时会分为读取数据和写入数据两种情况。

        ① 读取数据:HDFS 会检测文件块的完整性,确认文件块的检验和是否一致,如果不一致,则从其他的 DataNode 上获取相应的副本。

        ② 写入数据:HDFS 会检测文件块的完整性,同时记录新创建的文件的所有文件块的校验和

        (5) DataNode 会定期向 NameNode 发送心跳信息,将自身节点的状态告知 NameNodeNameNode 会将 DataNode 需要执行的命令放入心跳信息的返回结果中,返回给 DataNode 执行。

        当 DataNode 发生故障没有正常发送心跳信息时,NameNode 会检测文件块的副本数是否小于 系统设置值,如果小于设置值,则自动复制新的副本并分发到其他的 DataNode 上

        (6)集群中有数据关联的 DataNode 之间复制数据副本。

        当集群中的 DataNode 发生故障而失效,或者在集群中添加新的 DataNode 时,可能会导致数据分布不均匀当某个 DataNode 上的空闲空间资源大于系统设置的临界值时,HDFS 就会从 其他的 DataNode 上将数据迁移过来。相对地,如果某个 DataNode 上的资源出现超负荷运载,HDFS 就会根据一定的规则寻找有空闲资源的 DataNode,将数据迁移过去

        还有一种从侧面说明 HDFS 支持容错的机制,即当从 HDFS 中删除数据时,数据并不是马上就会从 HDFS 中被删除,而是会将这些数据放到“回收站”目录中,随时可以恢复,直到超过了一定的时间才会真正删除这些数据

5.2 Hadoop自身的容错

        Hadoop 自身的容错理解起来比较简单,当升级 Hadoop 系统时,如果出现 Hadoop 版本不兼容的问题,可以通过回滚 Hadoop 版本的方式来实现自身的容错。      

感谢各位的阅读,以上就是“HDFS是怎么做文件管理和容错的”的内容了,经过本文的学习后,相信大家对HDFS是怎么做文件管理和容错的这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


网站题目:HDFS是怎么做文件管理和容错的
本文网址:http://cdxtjz.cn/article/pigcgc.html

其他资讯