iis服务器助手广告广告
返回顶部
首页 > 资讯 > 数据库 >Hadoop入门之hdfs
  • 214
分享到

Hadoop入门之hdfs

Hadoop入门之hdfs 2019-12-07 18:12:53 214人浏览 无得
摘要

                                                    大数据技术开篇之Hadoop入门【hdfs】     学习都是从了解到熟悉的过程,而学习一项新的技术的时候都是从这个技术是什么

Hadoop入门之hdfs

                                                    大数据技术开篇之Hadoop入门【hdfs】

    学习都是从了解到熟悉的过程,而学习一项新的技术的时候都是从这个技术是什么?可以干什么?怎么用?如何优化?这几点开始。今天这篇文章分为两个部分。一、hadoop概述  二、hadoop核心技术之一的hdfs的讲解。

【hadoop概述】

一、hadoop是什么?

          Hadoop是一个由Apache基金会所开发分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和mapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。

  简单概况就是hadoop是一个分布式系统的基础架构,通过分布式来进行高速运算和存储。

二、用来干什么?

  主要用来解决海量数据存储和海量数据运算的问题

三、当前版本

   Apach 版本:主要用于自己学习研究方面,免费开源版本

   Cloudera:收费版本,企业版本。目前公司商用化最多的版本。

     Hortonworks:商业版本,这个版本的优势在于参考文档相对详尽,学习起来比较方便

四、hadoop组成

    commons:辅助工具
    hdfs:一个分布式高吞吐量,高可靠的分布式文件系统
    mapreduce 一个分布式离线计算框架
    yarn:作业调度和资源管理的框架。

五、集群模式

单节点模式,伪集群,完整集群。三个模式

                        HDFS 学习

一、hdfs是什么?

    hdfs一个分布式高吞吐量,高可靠的分布式文件系统。

二、hdfs优缺点:

 优点:
    【1】高容错性,数据自动保存多个副本,一个副本丢失后可以自动恢复
    【2】适合大数据的处理
    数据可以达到gb,Tb,pb级别,文件处理可以达到百万以上的规模
    【3】可以构建在廉价的机器上面,通过多副本来实现可靠性

  缺点:
    【1】不适合低延时数据访问,比如毫秒级别做不到
    【2】无法高效对大量小文件进行存储
    【3】不支持文件的随机修改,仅支持文件的追加

三、hdfs的组成:

  Client:客户端
       【1】文件切分。文件上传时将文件切成一个个block块
    【2】与Namenode交互,获取文件的位置信息
    【3】与DataNode交互,读取或写入数据
    【4】client提供一些命令来管理Hdfs,比如启动或者关闭
    【5】client可以通过命令来访问Hdfs
  NameNode就是Master,它是一个主管、管理者
    【1】管理数据块的原信息
    【2】配置副本策略
    【3】处理客户端请求
  DateNode
    【1】存储实际的数据块
    【2】执行数据块的读写操作
  econdaryNameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务
    【1】辅助NameNode,分担其工作量
    【2】定期合并Fsimage和Edits,并推送给NameNode;
    【3】在紧急情况下,可辅助恢复NameNode。

四、hdfs文件写入流程

                                                        

 

    

    (1) 客户端通过Distributed FileSystem模块NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。

    (2) NameNode返回是否可以上传。

    (3) 客户端请求第一个 block上传到哪几个datanode服务器上。

    (4) NameNode返回3datanode节点,分别为dn1、dn2、dn3。

    (5) 客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。

    (6) dn1、dn2、dn3逐级应答客户端。

    (7) 客户端开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3; 

    (8) 当一个block传输完成之后,客户端再次请求NameNode上传第二个block的服务器。(重复执行3-7步)。

五、hdfs 读文件流程

             

 

 

 

    (1) 客户端通过Distributed FileSystemNameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。

 

    (2) 挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据

 

    (3) DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以packet为单位来做校验)。

 

    (4) 客户端以packet为单位接收,先在本地缓存,然后写入目标文件。

六、NN与2NN的工作机制

 

        

 

 

    

    (1) 第一阶段:NameNode启动

 

      a) 第一次启动NameNode格式化后创建fsimage和edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。

 

      b) 客户端对元数据进行增删改的请求

 

      c) NameNode记录操作日志,更新滚动日志

 

      d) NameNode在内存中对数据进行增删改查

 

    (2) 第二阶段:Secondary NameNode工作

 

      a) Secondary NameNode询问NameNode是否需要checkpoint直接带回NameNode是否检查结果。

 

      b) Secondary NameNode请求执行checkpoint。

 

      c) NameNode滚动正在写的edits日志

 

      d) 将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。

 

      e) Secondary NameNode加载编辑日志和镜像文件到内存,并合并。

 

      f) 生成新的镜像文件fsimage.chkpoint。

 

      g) 拷贝fsimage.chkpointNameNode

 

      h) NameNodefsimage.chkpoint重新命名成fsimage。

 

NN2NN工作机制详解:

fsimagenamenode内存中元数据序列化后形成的文件。

edits:记录客户端更新元数据信息的每一步操作(可通过Edits运算出元数据)。

namenode启动时,先滚动edits并生成一个空的edits.inprogress,然后加载edits(归档后的)和fsimage(最新的)到内存中,此时namenode内存就持有最新的元数据信息。client开始对namenode发送元数据的增删改查的请求,这些请求的操作首先会被记录在edits.inprogress中(查询元数据的操作不会被记录在edits中,因为查询操作不会更改元数据信息),如果此时namenode挂掉,重启后会从edits中读取元数据的信息。然后,namenode会在内存中执行元数据的增删改查的操作。

由于edits中记录的操作会越来越多,edits文件会越来越大,导致namenode在启动加载edits时会很慢,所以需要对editsfsimage进行合并(所谓合并,就是将editsfsimage加载到内存中,照着edits中的操作一步步执行,最终形成新的fsimage)。Secondarynamenode:帮助namenode进行editsfsimage的合并工作。

secondarynamenode首先会询问namenode是否需要checkpoint(触发checkpoint需要满足两个条件中的任意一个,定时时间到和edits中数据写满了)直接带回namenode是否检查结果。secondarynamenode执行checkpoint操作,首先会让namenode滚动edits并生成一个空的edits.inprogress,滚动edits的目的是给edits打个标记,以后所有新的操作都写入edits.inprogress,其他未合并的editsfsimage会拷贝到secondarynamenode的本地,然后将拷贝的editsfsimage加载到内存中进行合并,生成fsimage.chkpoint,然后将fsimage.chkpoint拷贝给namenode,重命名为fsimage后替换掉原来的fsimagenamenode在启动时就只需要加载之前未合并的editsfsimage即可,因为合并过的edits中的元数据信息已经被记录在fsimage中。

 

 

六、DataName工作机制

            

 

 

 

    (1) 一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据校验和,以及时间戳

    (2) DataNode启动后向NameNode注册,通过后,周期性(1小时NameNode上报所有的块信息。

    (3) 心跳是每3一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。

 

 

今天的hdfs的分享就到这里了,下次会分享MapReduce和Yarn的知识。每天进步一点点,大家一起加油。

 

 

 

 

 

 

 

 

 

 

 

您可能感兴趣的文档:

--结束END--

本文标题: Hadoop入门之hdfs

本文链接: https://www.lsjlt.com/news/5368.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • hadoop和hdfs之间有什么关系
    Hadoop是一个开源的分布式计算框架,用于处理大规模数据的存储和处理。而HDFS(Hadoop Distributed File ...
    99+
    2024-04-02
  • Hadoop体系结构之HDFS的示例分析
    这篇文章将为大家详细讲解有关Hadoop体系结构之HDFS的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。    HDFS采用主从(Master/Slave)结构模型,一个HD...
    99+
    2023-06-03
  • hadoop如何查看hdfs报告
    要查看HDFS报告,可以使用Hadoop命令行工具或者Hadoop Web界面来实现。 使用Hadoop命令行工具: 可以使用以下...
    99+
    2024-04-02
  • HADOOP HDFS有哪些优点
    本篇内容介绍了“HADOOP HDFS有哪些优点”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!以HADOOP 2.x为背景。一、库房(存储银...
    99+
    2023-06-02
  • 关于Hadoop的HDFS集群
    目录每台计算机中的配置具体步骤配置原型部署集群HDFS 集群是建立在 Hadoop 集群之上的,由于 HDFS 是 Hadoop 最主要的守护进程,所以 HDFS 集群的配置过程是 ...
    99+
    2023-05-19
    Hadoop 集群 HDFS 集群
  • hadoop中hdfs优缺点是什么
    这篇文章将为大家详细讲解有关hadoop中hdfs优缺点是什么,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。// 下载FileSystem fs = FileSys...
    99+
    2023-06-02
  • hadoop怎么查看hdfs目录
    要查看Hadoop分布式文件系统(HDFS)中的目录,可以使用以下命令:1. 使用hdfs dfs -ls命令查看HDFS中的目录和...
    99+
    2023-10-23
    hadoop
  • hadoop hdfs和MapReduce怎么创建
    本篇内容主要讲解“hadoop hdfs和MapReduce怎么创建”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“hadoop hdfs和MapReduce怎么创建”吧!大致步骤如下:新建一个文...
    99+
    2023-06-02
  • HDFS-Hadoop NameNode高可用机制
    目录1 - 为什么要高可用 2 - NameNode 的高可用发展史 3 - HDFS 的高可用架构 3.1 Standby 和 Active 的命名空间保持一致 3.2 同一时刻只...
    99+
    2024-04-02
  • hadoop如何看hdfs里的文件
    要查看Hadoop分布式文件系统(HDFS)中的文件,您可以使用以下命令行工具:1. 使用`hdfs dfs -ls`命令列出HDF...
    99+
    2023-10-11
    hadoop
  • hadoop和hdfs的区别是什么
    Hadoop是一个开源的分布式计算框架,可以实现对大规模数据的存储和处理,而HDFS(Hadoop Distributed File...
    99+
    2024-03-14
    hadoop hdfs
  • hadoop中的hdfs有什么作用
    HDFS(Hadoop Distributed File System)是Hadoop中的分布式文件系统,其主要作用是存储和管理大规...
    99+
    2024-03-13
    hadoop
  • Hadoop怎么设置HDFS的块大小
    这篇文章主要介绍Hadoop怎么设置HDFS的块大小,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!  HDFS是设计来存储和管理大数据的,因此典型的HDFS块大小明显比平时我们看到的传统文件系统块大得多,块...
    99+
    2023-06-03
  • hadoop的HDFS查看gz压缩文件
    要查看Hadoop的HDFS上的gz压缩文件,首先需要使用Hadoop命令行工具或Hadoop API将gz文件上传到HDFS上。假...
    99+
    2023-10-11
    hadoop
  • python 之 scrapy 入门 (
    在网上浏览了众多scrapy入门教程 作为小白的我总结一下: 最重要的一点就是安装Scrapy 前提是安装好了Anaconda Navigator过后 简直是如履平地啊! 可以借鉴https://blog.csdn.net...
    99+
    2023-01-31
    入门 python scrapy
  • Hadoop中HDFS适用于什么场景
    这篇文章给大家分享的是有关Hadoop中HDFS适用于什么场景的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Hadoop生态系统一直是大数据领域的热点,其中包括今天要聊的HDFS,和计划以后想聊的yarn, ma...
    99+
    2023-06-03
  • Kubernetes 入门之 DaemonSet
    DaemonSet 是 Kubernetes 中一种特殊的控制器,用于在集群中的每个节点上运行一个副本。与其他控制器(如 Deplo...
    99+
    2023-09-21
    Kubernetes
  • HDFS如何构建Hadoop监控共同体
    这篇文章主要介绍了HDFS如何构建Hadoop监控共同体,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。HDFS监控挑战HDFS是Hadoop生态的一部分,监控方案不仅需适用H...
    99+
    2023-06-02
  • PHP之基础入门
    Php Php全称为:Hypertext Preprocessor(中文名:超文本预处理器); 简称:personal Home page; 开始php之前,要先设置它的文件编码信息 header(‘Content-type:te...
    99+
    2023-09-10
    php 服务器 开发语言
  • Hadoop分布式文件系统HDFS架构分析
    本文小编为大家详细介绍“Hadoop分布式文件系统HDFS架构分析”,内容详细,步骤清晰,细节处理妥当,希望这篇“Hadoop分布式文件系统HDFS架构分析”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。Hadoo...
    99+
    2023-06-27
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作