生成式AI领域的最新成果都在这里!抢 QCon 展区门票 了解详情
写点什么

Hadoop 之 HDFS 简介

  • 2019-11-14
  • 本文字数:2925 字

    阅读完需:约 10 分钟

Hadoop之HDFS简介

HDFS 作为运行在通用硬件上的分布式文件系统,和现有的分布式文件系统既有很多的共同点,也存在很多的差异。本文从 HDFS 是什么开始介绍,包括了 HDFS 架构、HDFS 的读写、各个组件的作用、具体操作以及优缺点。给出了 HDFS 在分布式存储上的具体方案,可以使读者快速、清晰的理解 HDFS 系统。

1 主要内容

1.HDFS 是什么?是干什么用的?


2.HDFS 的架构是怎么样的?


3.HDFS 的怎样进行读写?副本怎样放置?


4.HDFS 各个组件的作用?


5.HDFS 的文件操作命令有哪些?


6.HDFS 的优缺点是什么?

2 引言

有这样一个需求:


由于公司某业务 mysql 服务器过保,为防止数据丢失,需要备份 mysql 数据库,这些库目前已经只读,每个库约 1.5T,大概有 130 个库,共需要 200T 左右的空间,并且希望数据不易丢失,恢复数据速度快。


部分解决方案:


1)单机存储



有如下问题:


1.磁盘损坏或机器 down 机则无法下载;


2.单块磁盘的读写 io 会很高;


3.单块磁盘不能完整存储 3 个完整的库(存储大文件),只能存储 2 个,空间部分浪费;


4.平时如果不用做数据恢复,机器 cpu、内存等利用率低。


2)分布式存储


可选用分布式存储,如 HDFS、CEPH、S3 等等。

3 HDFS 是什么?是干什么用的?

HDFS(Hadoop Distributed File System)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS 是一个高度容错性的系统,适合部署在廉价的机器上。HDFS 能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS 放宽了一部分 POSIX 约束,来实现流式读取文件系统数据的目的。HDFS 在最开始是作为 Apache Nutch 搜索引擎项目的基础架构而开发的。HDFS 是 Apache Hadoop Core 项目的一部分。


首先来看看 Hadoop 架构,HDFS 为 Hadoop 其他组件提供存储支持。



直观对比 Linux 文件系统和 HDFS 文件系统(执行 ls 命令)。


Linux:


#ls -l-rw-r--r-- 1 root root          20 Jul 29 14:31 ms-server-download-zzzc_88888.idx-rw-r--r-- 1 root root          8   Jul 29 14:31 ms-server-download-zzzc_88888.dat
复制代码


HDFS:


#hadoop fs -ls /tmp/-rw-r--r--   2 xitong supergroup   181335139 2019-07-17 23:00 /tmp/java.tar.gz-rw-r--r--   2 xitong supergroup   181335139 2019-07-17 23:00 /tmp/jdk.tar.gz
复制代码


可以看出 HDFS 和 Linux 文件系统很类似,都是有权限、文件所属用户、用户所在的组、文件名称等,但是也有不同:HDFS 中的第 2 列表示副本数。

4 HDFS 的架构是怎么样的?

HDFS 架构如下:



1.Client:客户端。


2.NameNode:master,它是一个主管、管理者,存储元数据,存储元数据格式会在后面介绍。


3.DataNode:slave,NameNode 下达命令,DataNode 执行操作并存储实际数据。


4.SecondaryNameNode:和 NameNode 不是主备关系。当 NameNode 挂掉的时候,它并不能马上替换 NameNode 提供服务。主要作用会在后面介绍。

5 HDFS 怎样进行读写

写文件


1.客户端调用 create 方法,创建一个新的文件;NameNode 会做各种校验,比如文件是否已经存在,客户端是否有权限等。


2.如果校验通过,客户端开始写数据到 DN(DataNode),文件会按照 block 大小进行切块,默认 128M(可配置),DataNode 构成 pipeline 管道,client 端向输出流对象中写数据,传输的时候是以比 block 更小的 packet 为单位进行传输,packet 又可拆分为多个 chunk,每个 chunk 都携带校验信息。


3.每个 DataNode 写完一个块后,才会返回确认信息,并不是每个 packet 写成功就返回一次确认。


4.写完数据,关闭文件。

读文件


1.客户端调用 open 方法,打开一个文件。


2.获取 block 的 location,即 block 所在的 DN,NN(NameNode)会根据拓扑结构返回距离客户端最近的 DN。


3.客户端直接访问 DN 读取 block 数据并计算校验和,整个数据流不经过 NN。


4.读取完一个 block 会读取下一个 block。


5.所有 block 读取完成,关闭文件。

副本放置


以经典的 3 副本为例(黄色方框表示客户端,绿色表示要写的 block),Hadoop 早期版本采用左边的放置策略,后期版本采用右边的放置策略放置副本。


图左:


  • 副本 1:同机架的不同节点。

  • 副本 2:同机架的另一个节点。

  • 副本 3:不同机架的另一个节点。

  • 如果还有其他副本:随机。


图右:


  • 副本 1:同 Client 的节点。

  • 副本 2:不同机架的节点。

  • 副本 3:同第 2 副本相同机架的不同节点。

  • 如果还有其他副本:随机。


两种策略的故障域都为机架,新版相对于旧版本,当本客户端再次读取新写的数据时,直接从本地读取,这样延迟最小,读取速度最快。

6 HDFS 各个组件的作用?

先大致看下启动流程:



1.启动 NameNode,读取 FsImage 元数据镜像文件,加载到内存中;读取 EditLog 日志文件,加载到内存中,使当前内存中元数据信息与上次关闭系统时保持一致。


2.启动 DataNode,向 NameNode 注册,并向 NameNode 发送 BlockReport。


3.退出安全模式后,Client 可以对 HDFS 进行目录创建、文件上传等操作,改动的目录结构会记录在 EditLog 中,NameNode 的内存中的目录结构也会改变。

NameNode

1.管理 HDFS 的命名空间。


2.管理数据块(Block)映射信息。


3.配置副本策略。


4.处理客户端读写请求。


Fsimage 是一个二进制文件,格式如下:



FsImage 文件第 1 行为 image head,里面包含 image 的版本、文件和目录的个数等;第 2 行为一个目录格式(如果是目录,就是这种格式),包含了目录的路径、副本数、权限等,目录的 blocksize 都为 0;第 3 行为一个文件格式(如果是文件,则在 FsImage 存储的格式),文件和目录格式包含的字段差不多,多了 block 信息;通过加载此文件和 EditLog 日志文件来构建整个文件系统的目录结构。


通过观察 FsImage 文件,里面并没有 block 和 DN 的对应关系,它是如何查到块所对应的 DN 的呢?


block 和 DN 的对应关系并没有实际持久化,而是通过 DN 向 NN(NameNode)汇报,此过程为 BlockReport。通过 blockReport 构建 BlocksMap 的结构如下:



在 blockInfo 中保存了 block 所在的 DN 信息。

SecondaryNameNode

和 NameNode 并非主备关系,而是辅助 NN 进行合并 FsImage 和 EditLog 并起到备份作用。


7 HDFS 文件操作命令有哪些?

和 Linux 操作文件类似,只列出常见几个,和 Linux 命令的功能也是类似的,如:cp 即拷贝,rm 即删除等等。


#hadoop fs [cat|chgrp|chmod|chown|count|cp|df|get|ls|put|mv|rm|mkdir|tail]
复制代码


在 HDFS 中,提供了 fsck 命令,用于检查 HDFS 上文件和目录的健康状态、获取文件的 block 块信息和位置信息等。


#hdfs fsck [move|delete|files|blocks|locations|racks|blockId]
复制代码

8 HDFS 的优缺点是什么?

最后根据以上内容总结 HDFS 优缺点如下:


优点:


  • 支持海量数据的存储。

  • 检测和快速应对硬件故障。

  • 流式数据访问。

  • 简化的一致性模型。

  • 高容错性。

  • 商用硬件。


缺点:


  • 不能做到低延迟数据访问。

  • 不适合大量的小文件存储。

  • 不支持修改文件(HDFS2.x 开始支持给文件追加内容)。

  • 不支持用户的并行写。


hadoop2.x 新特性 引入了 NameNode Federation,解决了横向内存扩展;引入了 Namenode HA,解决了 namenode 单点故障。


本文转载自公众号 360 云计算(ID:hulktalk)。


原文链接:


https://mp.weixin.qq.com/s/s-kOquVbIuJAMSQqkfmaAA


2019-11-14 17:284470

评论

发布
暂无评论
发现更多内容

测试用例设计方法六脉神剑——第四剑:石破天惊,功能图法攻阵| 京东物流技术团队

京东科技开发者

Amazon CodeWhisperer:AI 编程助手

亚马逊云科技 (Amazon Web Services)

人工智能 Amazon Lambda 云上探索实验室 Amazon CodeWhisperer Amazon Cloud9

DataSpell for Mac:数据分析的得力助手

iMac小白

Dynamic Wallpaper for Mac:让你的桌面更加生动有趣

iMac小白

探索 Coinbase 二层链 Base 的潜力与风险

Footprint Analytics

以太坊 Base Coinbase

AutoCAD 2024 for Mac:引领设计新潮流

iMac小白

改进了编排控制并增强了推理的可视性,Agents for Amazon Bedrock 现已上市

亚马逊云科技 (Amazon Web Services)

API re:Invent Amazon Bedrock

TFTP服务器 Transfer免激活最新版

胖墩儿不胖y

Mac 软件 ftp传输

如何通过京东工业商品API接口获取商品详情

Noah

引迈信息-JNPF平台怎么样?值得入手吗?

互联网工科生

低代码 开发平台 JNPF

有意思!40小时工作制来了,996再见

伤感汤姆布利柏

语音数据集:AI语音技术的灵魂

来自四九城儿

为什么说代码注释是程序员必备的技能?

小魏写代码

小红书基于零信任 SASE 办公安全解决方案,斩获 “IDC 中国 20 大杰出安全项目”

小红书技术REDtech

大数据 网络安全 安全

数字化转型对中小企业来说值得吗?

天津汇柏科技有限公司

数字化转型

网心科技出席2023(第二十一届)中国企业领袖年会,共话长期主义

网心科技

网心科技

一文读懂低代码平台

这我可不懂

软件开发 低代码 JNPF

语音数据集在人工智能中的应用与挑战

来自四九城儿

软件测试/人工智能丨为什么人工智能=大数据+机器学习

测试人

人工智能 软件测试

玩转 K8s 权限控制:RBAC + kubeconfig 搞定 kubectl 权限管理那些事

EquatorCoco

云原生 rbac kurbernetes

年底换机的实力派选择:华为畅享70性能出色,体验超便捷

Geek_2d6073

5分钟搞懂Kubernetes:轻松理解所有组件

快乐非自愿限量之名

云原生 项目开发 kubernetes 运维

语音数据集在智能语音助手中的应用与挑战

来自四九城儿

基于 Flink 构建实时数据湖的实践

字节跳动云原生计算

大数据 数据湖 云原生 flink 实战

百度搜索展现服务重构:进步与优化

百度Geek说

重构 企业号12月PK榜 百度搜索展现

速卖通商品API接口的使用指南与示例

Noah

微店商品详情数据接口(micro.item_get)|微店API接口

tbapi

微店商品详情数据接口 微店商品API接口 微店API接口

mac电脑版spss专业统计分析推荐:IBM SPSS Statistics 激活中文

mac大玩家j

Mac软件 统计分析软件 统计分析

关于C#反射概念,附带案例!

不在线第一只蜗牛

C# 后端 项目开发

JDBC ResulSet资源释放和Statement并发调用源码分析

FunTester

特权账号管理误区

尚思卓越

网络安全 运维安全 特权账号管理

Hadoop之HDFS简介_文化 & 方法_于桐_InfoQ精选文章