`
yuanlanxiaup
  • 浏览: 860124 次
文章分类
社区版块
存档分类
最新评论

Hadoop-Block的相关分析

 
阅读更多

1.1 Block

BlockHDFS中的最基本单位是对数据块的抽象,它通过一个final long(blkid)来进行标识。一个Block拥有三个longs,它们分别是block-id block lengthgeneration stampBlock名的格式是”blk”+blkid。通过setget等方法能够得到关于Blockidnamelen等信息。

static final long GRANDFATHER_GENERATION_STAMP = 0; 产生一个块的标记来预先说明要产生的STAMP

GenerationStamp也是HDFS的一个基本元素,也是通过一个long来进行标识的。GenerationStamp作用的猜想:当两个块进行比较的时候,当它们的hashcode相同时,便用GenerationStamp进行比较。当然blkid是不可变的,而当Block的数据增长或者减少的时候,其GenerationStamp就会发生变化(1??)

一个Block对应着两个文件,其中一个存数据,一个存放元数据信息。它的元数据信息文件的格式如下:”blk_”+blkid+”_”+version.meta

和Block相关的类如下所示:

Block的相关类图

1.2 BlockCommand

此类定义了一个对DataNode下的Block操作的一个指令集,它的主要作用是告诉DataNode所指定的一系列块是不可用的或者把这这些块复制到别的DataNode上去。

1.3 BlockListAsLongs

这个类提供了一个接口用来通过long[]来访问块的列表。

1.4 BlockMetadataHeader

此类用来管理DataNode数据块的元数据。一个Block的元数据的最主要部分就是它的CRC数据效验它占了5个字节。而它的版本号占了两个字节。

1.5 BlockMetaDataInfo

这个类是Block的一个子类,保存了一个块的元数据信息。

1.6 BlocksMap

这个类保存了从一个块到它的元数据的映射,一个块的元数据通常包括它的INode和保存这个块的DataNode

BlockInfoBlocksMap中的一个内部类,它继承了Block,所以完全就可以把BlockInfo看作成一个BlockBlockInfo类中有一个triplets数组,其中triplets[3*i]指向了它的DatanodeDescriptor,而triplets[3*i+1]triplets[3*i+2]分别是前一个和后一个块的引用。

this.triplets = new Object[3*replication]; //其中的replication一般由INode中的getReplication()方法得到,replication是这个Block的复制因子。

从源代码private int ensureCapacity(int num)可以看出triplets的大小是可以改变的,同时从这段方法的注释中可以看到,triplets的空间的增加仅仅发生在用户手动的调整复制因子时发生。

对于triplets中的引用指向问题如添加、删除等等,基本上和双向链表的操作方法是相同的。当然添加和删除操作的tripletsDatanodeDescriptor都是一个同一个Datanode

BlockMap的另外一个内部类是NodeIterator,它实现了Blockinfo的一个遍历器。不支持remove

问题1:这些Block为什么要使用一种链式结构,它有什么意义呢??

问题的解答,当NameNodeDatanode发出一个report时,它会产生一个分隔符,把有效的块和无效的块标记起来

一个DataNode上的Block链式结构如下所示:

Block的链式结构

1.7 BlocksWithLocations

这个类主要实现了一个BlockLocations的数组,它提供了有效的定制化的序列化和反序列化的方法,代替了由RPC提供的数组序列化方式。其中的getDatanodes()方法的返回值为datanodeIDs,这就能表明这个Block所在的Datanode的位置。

分享到:
评论

相关推荐

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    1.3 HDFS HA原因分析及应对措施 1.3.1 可靠性 1.3.2 可维护性 1.4 现有HDFS HA解决方案 1.4.1 Hadoop的元数据备份方案 1.4.2 Hadoop的SecondaryNameNode方案 1.4.3 Hadoop的Checkpoint ode方案 1.4.4 Hadoop的...

    Hadoop入门实战手册

    5 ..................................................................................................................22 架构分析 5.1 .......................................................................

    hadoop大数据实战手册

    3.4.3 Hadoop 纠删码概述…·…········· ·· ·· ····· ·· ····· · ··· · ······· ·· ….... . .. .…..... .. ....................... 147 3.4.4 纠删码技术在Hadoop 中的...

    2017最新大数据架构师精英课程

    82_hdfs-block大小-副本数设定9 o$ I! k4 |+ ]9 q2 h8 ]# x6 B, S* Y$ W 83_hdfs-网络拓扑-写入剖析2 g4 Z0 j& K; Z, K 84_hdfs-写入剖析2-packet-chunk 85_hdfs-压缩编解码器, u" o: K/ V5 B 86_hdfs-MR原理 87_...

    大数据面试题,唬住50k.pdf

    Client 端上传⽂件的时候下列哪项正确 a)数据经过 NameNode 传递给 DataNode b)Client 端将⽂件切分为 Block,依次上传 c)Client 只上传数据到⼀台 DataNode,然后由 NameNode 负责 Block 复制⼯作 答案 B 分析:...

    hadoop client与datanode的通信协议分析

    本文主要分析了hadoop客户端read和write block的流程. 以及client和datanode通信的协议, 数据流格式等

    大数据平台常见面试题.pdf

    a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker 注:haoop1.X 分析: hadoop 的集群是基于 master/slave 模式,namenode 和 jobtracker 属于 master,datanode 和 tasktracker属于 slave,master 只 ...

    4399大数据笔试题.pdf

    4399⼤数据笔试题 今天晚上参加了厦门 今天晚上参加了厦门4399公司的⼤数据笔试,⾃⼰没有...4)使⽤SQL语句查询充值⾦额集合(⽤collect_set()) 7.HDFS block的默认值是多少?机架感知配置下分别存放在什么位置? 8

    基于MapReduce的HITS算法的实现 (2013年)

    同时,在实验中分析了不同blocksize和集群规模对算法执行效率的影响.实验表明:当blocksize过大时,由于没有充分利用集群的并行特性,算法效率逐渐降低,而适当扩大集群规模,算法运行效率会逐渐提高.

    11HDFS的读写流程&NameNode、DataNode工作机制——好程序

     分而治之:将大文件、大批量文件,分布式存放在大量服务器上,以便于采取分而治之的方式对海量数据进行运算分析; 在大数据系统中作用: 为各类分布式运算框架(如:mapreduce,spark,tez,……)提供数据存储...

Global site tag (gtag.js) - Google Analytics