`
coderplay
  • 浏览: 571288 次
  • 性别: Icon_minigender_1
  • 来自: 广州杭州
社区版块
存档分类
最新评论
阅读更多
这篇文章去年4月左右写的, 一直留在我的草稿箱, 一直没有写完

在分析HDFS的一致性之前, 我们先得解决HDFS客户端行为的几个问题。

1. 为什么HDFS不支持多个writer同时写一个文件,即不支持并发写?
首先谈一谈HDFS产生的历史。HDFS是根据Google的GFS论文所实现的, 初期时它的主要设计目标是为了存储MapReduce所操作的大型数据集。我们知道在Hadoop中, 每道Mapreduce作业的写操作一般发生在reduce阶段(如果是只含map的作业,则在map阶段)。一般情况下, 各个reducer的结果将分别写入一个HDFS文件当中。此处可能会产生一个疑问: 为什么不是所有reducer的结果写入同一个HDFS文件呢? 显然, 多个reducer对同一文件执行写操作,即多个writer同时向HDFS的同一文件执行写操作, 这需要昂贵的同步机制不说, 最重要的是这种做法将各reducer的写操作顺序化, 不利于各reduce任务的并行。 因此, HDFS没有必要支持多个writer, 单个writer就可以满足Hadoop的需要。

2. 为什么HDFS在后期加上了对文件追加(append)操作的支持?
我们知道HDFS在0.19.0版以前是不支持文件追加操作的。HDFS设计文档上写着: HDFS的应用程序需要对文件实行一次性写,多次读的访问模式。文件一旦建立,然后写入,关闭, 不需要再更改。这样的假定简化了数据一致性问题并使高数据吞吐量成为可能。MapReduce程序或者网络爬虫程序就很适合使用这样的模型。当然未来计划支持增量写。
https://issues.apache.org/jira/browse/HADOOP-1700
http://lucene.472066.n3.nabble.com/HDFS-appending-writes-status-td648274.html#a648274

3. 为什么追加操作也只能是单个writer?
社区有人希望HDFS能实现原子追加操作, 因为GFS实现了原子追加。但Owen O'malley认为原子追加对于文件系统的设计和文件系统的用户接口来说,都不是件好事。而且, 他们(指Google)在MapReduce之前就已经给GFS加上了原子追加操作。编写MapReduce可以比使用原子追加更好地服务于大多数应用程序。Owen O'malley原文:"My personal inclination is that atomic append does very bad things to both the design of the file system and the user interface to the file system. Clearly they added atomic append to GFS before they had MapReduce. It seems like most applications would be better served by implementing in MapReduce rather than using atomic append anyways..."

以下是对Google工程师关于GFS2.0设计的一段采访问内容
http://queue.acm.org/detail.cfm?id=1594206
QUINLAN At the time, [RecordAppend] must have seemed like a good idea, but in retrospect I think the consensus is that it proved to be more painful than it  was worth. It just doesn't meet the expectations people have of a file system, so they end up getting surprised. Then they had to figure out work-arounds.
那时候,记录追加看上去像是一个不错的主意, 但是回顾以往,我们达成这样的一致: 事实证明它带来的痛苦比带来的好处多。它不符合文件系统用户的期望,所以


MCKUSICK In retrospect, how would you handle this differently?

QUINLAN I think it makes more sense to have a single writer per file.

MCKUSICK All right, but what happens when you have multiple people wanting to append to a log?
好的,  那多个用户需要追加一个日志怎么办?

QUINLAN You serialize the writes through a single process that can ensure the replicas are consistent.
你序列化写操作至单个进程,此进程可以确保副本是保持一致的。

4. 像HDFS这种应用,在一致性上要保证的是什么?
HDFS作为一个文件系统,应当保证文件内容的顺序性.



HDFS加上追加操作会给一致性带来哪些挑战?
在特定时间里,文件最末块的各副本可能会有不同的字节数。HDFS要提供什么样的读一致,以及怎么保证一致性,即使碰到故障。

HDFS的一致性基础

当客户端读取某DataNode上的副本时,此DataNode并不会让其所有接收到的字节对客户端可见。
每个RBW副本维持两个计数器:
1. BA: 下游DataNode已经应答的字节数。即DataNode使其对任何reader可见的那些字节。以下,我们可以用副本的可见长度代指它。
2. BR: 为此块接收到的字节数,包括已经写入至块文件的字节以及缓存在DataNode的字节。
假设初始时管线内所有DataNode有(BA, BR) = (a, a)。则客户端向管线推入一个b字节的包并且在客户端没收到此包的应答之前不向管线推入其它包,有:
1. 完成1.a后, DataNode将其(BA, BR)变为(a, a+b)
2. 完成3.a后, DataNode将其(BA, BR)变为(a+b, a+b).
3. 当代表操作成功的应答发回客户端时,管线上的所有DataNode都有(BA, BR) = (a+b, a+b).
一条具有N个DataNode管线,DN0, …, DNi, …,DNN-1。其中DN0代表管线上的第一个DataNode,即最接近writer的那个DataNode,它在任意指定时间t都有如下属性:



HDFS提供怎么样的写一致性?


HDFS提供怎么样的读一致性?

分享到:
评论
1 楼 langyu 2011-08-25  
我觉着HDFS的这些业务特征还是由GFS的两条设计需求来决定的:1.大文件。2. 写一次读多次。最终目标目的还是为了大文件的高吞吐量。

而HDFS是开源实现,规避了GFS由DN主导的lease机制,我觉着可能是实现起来太复杂了吧。

相关推荐

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    3.1.5 元数据一致性机制 3.2 使用说明 第4章 Hadoop的Backup Node方案 4.1 Backup Node概述 4.1.1 系统架构 4.1.2 使用原则 4.1.3 优缺点 4.2 运行机制分析 4.2.1 启动流程 4.2.2 元数据操作情景分析 4.2.3 日志池...

    基于HDFS的电力设备监测数据存储设计研究

    提出了一致性哈希存储算法,该算法优化了HDFS的数据分布策略;分析了HDFS数据块的尺寸优化,得出了负载均衡和数据块的关系;进行了HDFS性能基准测试,分析出监测数据规模与文件大小对集群I/O性能的影响,研究为实现高效、...

    大数据导论:大数据技术单元测试与答案.docx

    一致性检查 B.精确度校验 C.无效值和缺失值的处理 D.成对删除 正确答案:B 3、以下哪项不属于传统的数据存储和管理技术: A.NoSQL数据库 B.文件系统 C.数据仓库 D.关系数据库 正确答案:A 4、以下关于分布式文件系统...

    基于大数据的数据分析系统架构.doc

    多数采用增量式计算,保障了数据处理分 析的实时性,离线数据分析就以全量运算的数据批处理为主,保证了数据的一致性。在 Lambda架构的最外层是一个实时和离线的数据分析合并层,这个合并层是Lambda架构的 关键,既...

    大数据开发面试题合集.pdf

    请说明HDFS的数据一致性和容错机制。 - 8. 请解释一下什么是数据仓库(Data Warehouse),以及数据仓库在大数据处理中的重要性。 - 9. 你在大数据开发中常用的编程语言是什么?请说明你的选择理由。 - 10. 请简要...

    大数据分析技术基础教学课件3-大数据处理平台Hadoop.pptx

    Hadoop是一个能够对大量数据进行分布式处理的软件框架,并且是以一种可靠、高效、可扩展的方式进行处理的,它具有以下几个方面的特性: 支持超大文件 快速应对硬件故障 流式数据访问 高容错性 简化的一致性模型 ...

    大数据分析与应用期末考试.docx

    [单选题] * A、缺失值处理 B、噪声数据清除 C、一致性检查 D、重复数据记录处理(正确答案) 6、智能健康手环的应用开发,体现了()的数据采集技术的应用。 [单选题] * A、统计报表 B、网络爬虫 C、API接口 D、...

    大数据中枢平台解决方案.pptx

    数据采集与整合:支持从各种数据源实时采集数据,包括结构化、半结构化和非结构化数据,并进行清洗、整合,确保数据的准确性和一致性。 数据存储与管理:采用分布式存储技术,确保数据的安全性和可扩展性。同时,...

    Hadoop权威指南(中文版)2015上传.rar

    导入和一致性 直接模式导入 使用导入的数据 导入的数据与Hive 导入大对象 执行导出 深入了解导出 导出与事务 导出和SequenceFile 第16章 实例分析 Hadoop 在Last.fm的应用 Last.fm:社会音乐史上的革命 Hadoop a ...

    测试工具—Distcp工具深入分析

    DistCp使用方法如下表所示:这里-p、-m、-overwrite都是常用参数,大多数情况下我们期望拷贝后数据权限保持一致,通过-p参数来完成权限一致性,拷贝并行度则由-m参数来调节。至于-overwrite往往和-delete合用,用来...

    Hadoop权威指南 第二版(中文版)

     导入和一致性  直接模式导入  使用导入的数据  导入的数据与Hive  导入大对象  执行导出  深入了解导出  导出与事务  导出和SequenceFile 第16章 实例分析  Hadoop 在Last.fm的应用  Last.fm:社会音乐...

    王者荣耀java源码-TechnicalArticles:技术文章

    解决缓存一致性3种方案 缓存 饿了么hotkey解决方案 IO 流程图及代码理解多路IO复用 IO 多路IO复用基础知识 IO 安全 多线程 父子任务使用同一线程池造成死锁 JVM 讨论垃圾回收器ZGC 架构 数据库业务设计 大数据 小米...

    第七章-《大数据导论》大数据处理平台.pdf

    传统单机计算: 计算资源有限,难以处理海量数据 传统分布式系统开发: 任务依赖关系复杂,容易出现死锁 数据交换时需要同步 系统的局部故障难以处理 传统分布式数据存储与访问: 数据"一致性"难以保证 数据在需要时...

    JAVA相关技术实现,文件流操作,常用的设计模式,数据结构实现

    JAVA相关技术实现,文件流操作,常用的设计模式,数据结构实现,算法应用和案例,JAVA8一些新特性新功能(Lambda用法,Steam API用法),一致性hash算法代码实现,ELK集成,Hadoop HDFS实现等

    Apache Druid:高性能实时分析数据库-开源

    Druid 专为快速临时分析、即时数据可见性或支持高并发性很重要的工作流而设计。 因此,Druid 通常用于为需要交互式、一致用户体验的 UI 提供动力。 Druid 从 Kafka 和 Amazon Kinesis 等消息总线流式传输数据,并从 ...

    大数据的存储管理技术.doc

    NoSQL数据库没有固定的表结构,一般也不会存在连接操作,也没有严 格遵守事务的原子性、一致性、隔离性和持久性。因此与传统关系数据库相比,NoSQL具 有灵活的可扩展性、灵活的数据模型、与云计算紧密融合和支持海量...

    数据中台解决方案.pptx

    同时,需要建立数据治理体系,对数据进行标准化、规范化管理,确保数据的质量和一致性。 五、数据服务 数据服务是将处理后的数据提供给业务应用的过程。需要选择合适的数据服务方式,如RESTful API、GraphQL等,以...

    数据中台技术架构设计方案.pptx

    同时,需要建立数据治理体系,对数据进行标准化、规范化管理,确保数据的质量和一致性。 五、数据服务 数据服务是将处理后的数据提供给业务应用的过程。需要选择合适的数据服务方式,如RESTful API、GraphQL等,以...

    数据中台技术架构设计方案 .docx

    同时,需要建立数据治理体系,对数据进行标准化、规范化管理,确保数据的质量和一致性。 五、数据服务 数据服务是将处理后的数据提供给业务应用的过程。需要选择合适的数据服务方式,如RESTful API、GraphQL等,以...

Global site tag (gtag.js) - Google Analytics