当前位置: 首页 > news >正文

江北网站制作王烨然盈盈

江北网站制作,王烨然盈盈,网站建设中标,购买域名一般多少钱大数据学习笔记 MapReduce 一、MapReduce概述 MapReduce是一个分布式运算程序的编程框架,是基于Hadoop的数据分析计算的核心框架。 MapReduce处理过程为两个阶段:Map和Reduce。 Map负责把一个任务分解成多个任务;Reduce负责把分解后多任务处…

大数据学习笔记

MapReduce

一、MapReduce概述

  1. MapReduce是一个分布式运算程序的编程框架,是基于Hadoop的数据分析计算的核心框架

MapReduce处理过程为两个阶段:Map和Reduce。

  • Map负责把一个任务分解成多个任务;
  • Reduce负责把分解后多任务处理的结果汇总。
  1. MapReduce优点
  • MapReduce易于编程
    它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。就是因为这个特点使得MapReduce编程变得非常流行。
  • 良好的扩展性
    当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。
  • 高容错性
    -MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。
  • 适合PB级以上海量数据的离线处理
    可以实现上千台服务器集群开发工作,提供数据处理能力。
  1. MapReduce缺点
  • 不擅长实时计算
  • 不擅长流式计算
    流式计算的输入数据是动态的,而MapReduce的输入数据是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的。
  • 不擅长DAG(有向图)计算
    多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。
  1. MapReduce核心编程思想
    1)分布式的运算程序往往需要分成至少2个阶段。
    2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。
    3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。
    4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。
    总结:分析WordCount数据流走向深入理解MapReduce核心思想。
    在这里插入图片描述
  2. 常用序列化类型
    在这里插入图片描述
  3. MapTask的并行度决定机制
    数据块:Block是HDFS物理上把数据分成一块一块。
    数据切分:数据切分只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。(只是在切分时默认按照块大小来切分)
    在这里插入图片描述
  4. FileInputFormat切片源码解析
    1) 程序先找到你数据存储的目录。
    2)开始遍历处理(规划切片)目录下的每一个文件
    3)遍历第一个文件ss.txt
    a) 获取文件大小fs.sizeOf(ss.txt)
    b) 计算切片大小
    computeSplitSize(Math.max(minSize.Math.min(maxSize,blocksize)))=blocksize=128M
    c) 默认情况下,切片大小=blocksize
    d)开始切,形成第一个切片:ss.txt–0:128M 第二个切片ss.txt–128:256M 第三个切片ss.txt–256M:300M(每次切片时,都要判断切完剩下的部分是否大于块的1.1倍,不大于1.1倍就划分一块切片)
    e)将切片信息写到一个切片规划文件中
    f)整个切片的核心过程在getSplit()方法中完成
    g) InputSplit只记录了切片的元数据信息,比如起始位置、长度以及所在的节点列表等。
    4)提交切片规划文件到YARN上,YARN上的MrAppMaster就可以根据切片规划文件计算开启MapTask个数。
  5. FileInputFormat切片机制
    1)简单地按照文件的内容长度进行切片
    2)切片大小,默认等于Block大小
    3)切片时不考虑数据集整体,而是逐个针对每一个文件单独切片
    在这里插入图片描述
    针对不同的文件类型FileInputFormat有不同的文件接口。
  6. CombineTextInputFormat切片机制
    CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。
  7. NLineInputFormat
    NLineInputFormat每个map进程处理的InputSplit不再按Block块去划分,而是按NLineInputFormat指定的行数N来划分。
  8. NLineInputFormat
    可指定分片数。
    在这里插入图片描述

二、自定义inputformat案例

  1. 需求
    在这里插入图片描述
  1. 自定义一个类继承FileInputFormat
    1)重写isSplitable()方法,返回false不可分割
    2)重写createRecordReader(),创建自定义的RecordReader对象,并初始化
  2. 改写RecordReader,实现一次读取一个完整文件封装为KV
    1)采用IO流一次读取一个文件输出到value中,因为设置了不可切片,最终把所有文件都封装到了value中
    2)获取文件路径信息+名称,并设置key
  3. 设置Driver
    1)设置输入的inputFormat
    2)设置输出的outputFormat
    在这里插入图片描述

二、MapReduce详细工作流程

  1. MapReduce详细工作流程(一)
  1. 待处理文本 xx.txt
  2. 提交前要获取参数信息,形成一个任务分配的规划
  3. 提交信息 job(看是yarn 还是本地)
  4. APPmaster接收请求,根据切片来计算出开多少个MapTask
  5. 按照默认切片方式128M为一块,默认按照TextInputFormat读数据
  6. 将kv内容交给Mapper(逻辑运算内容) 业务逻辑
  7. 将数据写到环形缓冲区,包含元数据信息和真实输入的kv,元数据中包含索引、分区信息、key起始、value起始等信息。
  8. 分区、排序。
  9. 将缓冲区文件,溢写到文件,并分区且区内有序。
  10. Merge 归并,将溢写出的文件合并并排序
  11. 合并
    在这里插入图片描述
  1. MapReduce详细工作流程(二)
  1. reduce根据当前分区的个数(MapTask数目)开启reduce Task进程
  2. 下载到ReduceTask本地磁盘,对每个分区做合并并进行归并排序
    14.使用reduce方法 读文件数据
  3. 分组
  4. 默认TextOutputFormat

三、Shuffle机制

  1. Shuffle机制
    Map方法之后,Reduce方法之前的数据处理过程称之为Shuffle。
  2. Map方法将 kv数据写入环形缓冲区,默认100M 当达到80%时会向磁盘溢写,(可选流程)将溢写到磁盘的分区进行合并排序
  3. reduce 拷贝maptask处理的分区数据放入内存,如果内存不够写入磁盘,对每一个map来的数据归并排序,按照相同的key执行reduce方法。
    在这里插入图片描述

四、Partition分区

要求将统计结果按照条件输出到不同文件(分区)中去
分区总结:
在这里插入图片描述

五、排序

指定排序规则。

  1. 概述
    排序是MapReduce框架中最重要的操作之一。
    MapTask和ReduceTask均会对数据按照key进行排序。该操作属于Hadoop的默认行为。任何应用程序中的数据均会被排序,而不管逻辑上是否需要。
    默认排序是按照字典顺序排序,且实现该排序的方法是快速排序

对应MapTask,它会将处理的结果暂时放到环形缓冲区中,当环形缓冲区使用率达到一定阈值后,再对缓冲区中的数据进行一次快速排序,将这些有序数据溢写到磁盘上,而当数据处理完毕后,它会对磁盘上所有文件进行归并排序
对于ReduceTask,它会从每个MapTask上远程拷贝相应的数据文件,如果文件大小超过一定阈值,则溢写磁盘上,否则存储在内存中。如果磁盘上文件数目达到一定阈值,则进行一次归并排序以上传一个更大文件;如果内存中文件大小或者数目超过一定阈值,则进行一次合并后将数据溢写到磁盘上。当所有数据拷贝完毕后,ReduceTask统一对内存和磁盘上的所有数据进行一次归并排序
2. 排序分类
1)部分排序
MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部有序
2)全排序
最终输出结果只有一个文件,且文件内部有序。实现方式是只设置一个ReduceTask。但该方法在处理大型文件时效率极低,因为一台机器处理所有文件,完全丧失了MapReduce所提供的并行架构。
3)辅助排序
在reduce端对key进行分组。应用于:在接收的key为bean对象时,想让一个或几个字段相同(全部字段比较不相同)的key进入到同一个reduce方法时,可以采用分组排序。
4)二次排序
自定义排序,如果compareTo中的判断条件为两个即为二次排序。

http://www.yayakq.cn/news/657439/

相关文章:

  • 影院网站模板成都网站制作机构
  • 做ppt的模板网站有哪些太原做网络推广
  • 网站建设写代码自己怎么创业免费 网站 如何做
  • php 判断 $_get 然后跳转到相印的网站淘宝产品关键词排名查询
  • 网站建设的投资预算怎么写网站展示模板免费下载
  • 网站建设对企业的重要性typecho客户端wordpress
  • 设计有关的网站wordpress后台加载慢
  • 十堰网站优化排名做网站需要字体授权
  • 网站用户体验比较大连筑成建设集团有限公司网站
  • 快速建站完整版化妆品行业网站开发
  • phpcms网站seo怎么做seo网站模板下载
  • 河北斯皮尔网站建设wordpress调用登录logo
  • 邦派巴洛特网站是谁做的呀可以做女的游戏视频网站
  • 长春做网站搜吉网传媒微信公众号做公司网站
  • 可以充值的网站怎么做要求维护公司做网站整改的函
  • 东莞网站设计推荐易维达2电子商务网站的实施包括哪些步骤
  • 建设网站网站企业2022织梦cms侵权开庭
  • 网站开发有哪些职位自已创建网站要怎么做
  • 网站文件app建站哪家好 phpwind
  • 丰宁建设局网站wordpress搜索框选择分类
  • 会展设计超级优化残剑
  • 网址查询网站wordpress伪静态设置
  • 网站建设项目前景wordpress4.95
  • 行业网站建设费用哈尔滨建站模板源码
  • 温岭市溪建设局网站app网站设计
  • 公司网站建设需要注意哪些内容上海专业做网站的公司有哪些
  • 山西做网站贵吗换了家公司做网站如何接入备案
  • 网站做浮动边框asp代码泰兴网站建设吧
  • 模板建站seo优化安徽网站建设优化推广
  • 学习网站的设置和网页的发布wordpress 去优酷广告