MapReduce原理

Mapreduce是一个分布式运算程序的编程框架,核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上;

  • 为什么要MapReduce
    (1)海量数据在单机上处理因为硬件资源限制,无法胜任
    (2)而一旦将单机版程序扩展到集群来分布式运行,将极大增加程序的复杂度和开发难度
    (3)引入mapreduce框架后,开发人员可以将绝大部分工作集中在业务逻辑的开发上,而将分布式计算中的复杂性交由框架来处理

redis map大小上限 redis mapreduce_hadoop

执行过程

  1. 加载文件并进行切分处理,形成KV对
  2. Map阶段:
  • KV传入map()方法进行逻辑处理
  1. Shuffle阶段:
  • maptask合并Map结果,按照KEY进行分区排序, 写入磁盘
  • reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据,然后合并K,V-list
  1. Reduce阶段:
  • 合并后的结果传入reduce()方法进行逻辑处理, 生成最终结果KV
  1. 调用OutputFormat将结果数据输出到外部存储

结构

一个完整的mapreduce程序在分布式运行时有三类实例进程:

  1. MRAppMaster:负责整个程序的过程调度及状态协调
  2. MapTask:负责map阶段的整个数据处理流程
  3. ReduceTask:负责reduce阶段的整个数据处理流程

运行流程

redis map大小上限 redis mapreduce_大数据_02

  1. 一个mr程序启动的时候,最先启动的是MRAppMaster,MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程
  2. maptask进程启动之后,根据给定的数据切片范围进行数据处理,主体流程为:
  • 利用客户指定的inputformat来获取RecordReader读取数据,形成输入KV对
  • 将输入KV对传递给客户定义的map()方法,做逻辑运算,并将map()方法输出的KV对收集到缓存
  • 将缓存中的KV对按照K分区排序后不断溢写到磁盘文件
  1. MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据范围(数据分区)
  2. shuffle: Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同key的KV为一个组,调用客户定义的reduce()方法进行逻辑运算,并收集运算输出的结果KV,然后调用客户指定的outputformat将结果数据输出到外部存储

Shuffle机制

mapreduce中,map阶段处理的数据如何传递给reduce阶段,是mapreduce框架中最关键的一个流程,这个流程就叫shuffle

redis map大小上限 redis mapreduce_redis map大小上限_03

shuffle详细流程

  1. maptask收集我们的map()方法输出的kv对,放到内存缓冲区中
  2. 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件 (默认100M)
  3. 多个溢出文件会被合并成大的溢出文件。在溢出过程中,及合并的过程中,都要调用partitoner进行分组和针对key进行排序
  4. reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据
  5. reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)
  6. 合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)