Hadoop 源码阅读之DFS(一):一些基本的类

计划花一个月左右的时间,通读一遍Hadoop 0.1.0的源码,尽量少写一些废话,多记录一些思考。

Random一下,就从分布式文件系统(DFS)开始吧。
DFS即分布式文件系统,集合多台机器存储在预定义位置上的一组文件作为存储构件,在此基础上实现一些分布式操作,从而对外抽象出一套基本文件读写API。

作者:木鸟杂记 https://www.qtmuniao.com, 转载请注明出处

Block


blkid和len

Block是HDFS的文件存储的基本单位,有两个关键属性blkidlen,前者用来标识一个操作系统上的文件,并且通过"blk_" + String.valueOf(blkid)拼接出文件名;后者是该文件以字节为单位的长度。
它抽象出了存储的两个基本维度,起始和大小。变量,数组,文件等等莫不如此。

注册工厂方法

另一个有意思的地方是所有实现Writable接口的类,都注册了一个工厂方法,具体有什么用,以后来补。

1
2
3
4
5
6
7
static {                                      // register a ctor
WritableFactories.setFactory
(Block.class,
new WritableFactory() {
public Writable newInstance() { return new Block(); }
});
}

序列化

实现Writable利用Java的序列化接口(DataOutput),实现Block基本字段的序列化和反序列化。
每个待序列化类单独实现自己一对序列化和反序列化函数,是一个常用的基本设计,我在实习写桌面程序的时候,想将一些控件信息存储为xml,用的想法和这个是相同的,但是做的不好的事没有定义出这个Writable接口作为对这个行为的抽象。

实现了Comparable(大概是为了被索引时可比较)和Writable接口

BlockCommand


一个命令(instruction)参数的封装,该命令作用于某个DataNode下的一系列Blocks;有两种操作,移动这组Blocks到另外一个DataNode,或者标记改组Blocks为失效状态。

实现

1
2
3
4
boolean transferBlocks = false;
boolean invalidateBlocks = false;
Block blocks[];
DatanodeInfo targets[][];

用两个标志变量来指明是哪种操作;
用两个数组来存储操作对象。

然后通过构造函数重载,给出了三个构造函数,无参,移动命令或者失效命令。并且提供了各个字段的读权限。

实现了Writable接口

总结

对一个简单的命令基本信息的封装,用构造函数接受参数,确定操作类型和操作对象;用标志变量+数组对象来进行实现。
将一组数据按照某种语义捆绑在一起,在函数间传递时也方便,复用性也更好。

LocatedBlock


一个数据对,包含一个Block和其几个replicate所在的DataNode的信息。

1
2
Block b;
DatanodeInfo locs[];

相当于维持某个逻辑Block到其存储位置的指针,用于定位Block物理位置。

实现了Writable接口

DataNodeInfo


包含了一个DataNode的状态信息(总大小,剩余大小,上次更新时间),用名字(自定义的UTF8存储的host:port)作为ID,并且维持了其上所有Block的引用,以查找树(TreeSet应该是红黑树,以Block的blkid进行排序)的形式组织。

关键函数

更新状态信息(一次心跳。名字起得好啊——好像DataNode在说,“我还活着,我的基本体征如下,balabala”,传神好记。

1
2
3
4
5
public void updateHeartbeat(long capacity, long remaining) {
this.capacityBytes = capacity;
this.remainingBytes = remaining;
this.lastUpdate = System.currentTimeMillis();
}

实现了ComparableWritable(比较有意思的是,blocks没有被序列化)接口

DataNodeReport


一个POJO,哈哈,想起这个名字的由来就想笑,马大叔真是有才的别具猥琐。看它的字段就知道,这是心跳来源+心跳信息的一个简单封装,每个字段都具有包级访问权限,还提供了几个public的读方法。

1
2
3
4
5
String name;
String host;
long capacity;
long remaining;
long lastUpdate;

DataNodeInfo的ID加心跳信息。
最后有一个toString函数,毕竟是搞报告工作的。


我是青藤木鸟,一个喜欢摄影、专注大规模数据系统的程序员,欢迎关注我的公众号:“木鸟杂记”,有更多的分布式系统、存储和数据库相关的文章,欢迎关注。 关注公众号后,回复“资料”可以获取我总结一份分布式数据库学习资料。 回复“优惠券”可以获取我的大规模数据系统付费专栏《系统日知录》的八折优惠券。

我们还有相关的分布式系统和数据库的群,可以添加我的微信号:qtmuniao,我拉你入群。加我时记得备注:“分布式系统群”。 另外,如果你不想加群,还有一个分布式系统和数据库的论坛(点这里),欢迎来玩耍。

wx-distributed-system-s.jpg