解析Hadoop新一代MapReduce框架Yarn

更快、更强——解析Hadoop新一代MapReduce框架Yarn

摘要:本文介绍了Hadoop 自0.23.0版本后新的MapReduce框架(Yarn)原理、优点、运做机制和配置方法等;着重介绍新的Yarn框架相对于原框架的差别及改进。

编者按:对于业界的大数据存储及分布式处理系统来讲,Hadoop 是耳熟能详的卓越开源分布式文件存储及处理框架,对于 Hadoop 框架的介绍在此再也不累述,随着需求的发展,Yarn 框架浮出水面,@依然光荣复兴的 博客给咱们作了很详细的介绍,读者经过本文中新旧 Hadoop MapReduce 框架的对比,更能深入理解新的 yarn 框架的技术原理和设计思想。 html

 

背景

 

Yarn是一个分布式的资源管理系统,用以提升分布式的集群环境下的资源利用率,这些资源包括内存、IO、网络、磁盘等。其产生的缘由是为了解决原MapReduce框架的不足。最初MapReduce的committer们还能够周期性的在已有的代码上进行修改,但是随着代码的增长以及原MapReduce框架设计的不足,在原MapReduce框架上进行修改变得愈来愈困难,因此MapReduce的committer们决定从架构上从新设计MapReduce,使下一代的MapReduce(MRv2/Yarn)框架具备更好的扩展性、可用性、可靠性、向后兼容性和更高的资源利用率以及能支持除了MapReduce计算框架外的更多的计算框架。node

 

原MapReduce框架的不足

 

 

 

  • JobTracker是集群事务的集中处理点,存在单点故障
  • JobTracker须要完成的任务太多,既要维护job的状态又要维护job的task的状态,形成过多的资源消耗
  • 在taskTracker端,用map/reduce task做为资源的表示过于简单,没有考虑到CPU、内存等资源状况,当把两个须要消耗大内存的task调度到一块儿,很容易出现OOM
  • 把资源强制划分为map/reduce slot,当只有map task时,reduce slot不能用;当只有reduce task时,map slot不能用,容易形成资源利用不足。

 

Yarn架构

Yarn/MRv2最基本的想法是将原JobTracker主要的资源管理和job调度/监视功能分开做为两个单独的守护进程。有一个全局的ResourceManager(RM)和每一个Application有一个ApplicationMaster(AM),Application至关于map-reduce job或者DAG jobs。ResourceManager和NodeManager(NM)组成了基本的数据计算框架。ResourceManager协调集群的资源利用,任何client或者运行着的applicatitonMaster想要运行job或者task都得向RM申请必定的资源。ApplicatonMaster是一个框架特殊的库,对于MapReduce框架而言有它本身的AM实现,用户也能够实现本身的AM,在运行的时候,AM会与NM一块儿来启动和监视tasks。 apache

ResourceManager

ResourceManager做为资源的协调者有两个主要的组件:Scheduler和ApplicationsManager(AsM)。网络

Scheduler负责分配最少但知足application运行所需的资源量给Application。Scheduler只是基于资源的使用状况进行调度,并不负责监视/跟踪application的状态,固然也不会处理失败的task。RM使用resource container概念来管理集群的资源,resource container是资源的抽象,每一个container包括必定的内存、IO、网络等资源,不过目前的实现只包括内存一种资源。架构

ApplicationsManager负责处理client提交的job以及协商第一个container以供applicationMaster运行,而且在applicationMaster失败的时候会从新启动applicationMaster。下面阐述RM具体完成的一些功能。app

 

  1. 资源调度:Scheduler从全部运行着的application收到资源请求后构建一个全局的资源分配计划,而后根据application特殊的限制以及全局的一些限制条件分配资源。
  2. 资源监视:Scheduler会周期性的接收来自NM的资源使用率的监控信息,另外applicationMaster能够从Scheduler获得属于它的已完成的container的状态信息。
  3. Application提交:
  • client向AsM得到一个applicationIDclient将application定义以及须要的jar包
  • client将application定义以及须要的jar包文件等上传到hdfs的指定目录,由yarn-site.xml的yarn.app.mapreduce.am.staging-dir指定
  • client构造资源请求的对象以及application的提交上下文发送给AsM
  • AsM接收application的提交上下文
  • AsM根据application的信息向Scheduler协商一个Container供applicationMaster运行,而后启动applicationMaster
  • 向该container所属的NM发送launchContainer信息启动该container,也即启动applicationMaster、AsM向client提供运行着的AM的状态信息。
AM的生命周期:AsM负责系统中全部AM的生命周期的管理。AsM负责AM的启动,当AM启动后,AM会周期性的向AsM发送heartbeat,默认是1s,AsM据此了解AM的存活状况,而且在AM失败时负责重启AM,如果必定时间事后(默认10分钟)没有收到AM的heartbeat,AsM就认为该AM失败了。

 

关于ResourceManager的可用性目前尚未很好的实现,不过Cloudera公司的CDH4.4之后的版本实现了一个简单的高可用性,使用了Hadoop-common项目中HA部分的代码,采用了相似hdfs namenode高可用性的设计,给RM引入了active和standby状态,不过没有与journalnode相对应的角色,只是由zookeeper来负责维护RM的状态,这样的设计只是一个最简单的方案,避免了手动重启RM,离真正的生产可用还有一段距离。框架

NodeManager

NM主要负责启动RM分配给AM的container以及表明AM的container,而且会监视container的运行状况。在启动container的时候,NM会设置一些必要的环境变量以及将container运行所需的jar包、文件等从hdfs下载到本地,也就是所谓的资源本地化;当全部准备工做作好后,才会启动表明该container的脚本将程序启动起来。启动起来后,NM会周期性的监视该container运行占用的资源状况,如果超过了该container所声明的资源量,则会kill掉该container所表明的进程。分布式

另外,NM还提供了一个简单的服务以管理它所在机器的本地目录。Applications能够继续访问本地目录即便那台机器上已经没有了属于它的container在运行。例如,Map-Reduce应用程序使用这个服务存储map output而且shuffle它们给相应的reduce task。oop

在NM上还能够扩展本身的服务,yarn提供了一个yarn.nodemanager.aux-services的配置项,经过该配置,用户能够自定义一些服务,例如Map-Reduce的shuffle功能就是采用这种方式实现的。大数据

NM在本地为每一个运行着的application生成以下的目录结构:

 

Container目录下的目录结构以下: 

 

 

在启动一个container的时候,NM就执行该container的default_container_executor.sh,该脚本内部会执行launch_container.sh。launch_container.sh会先设置一些环境变量,最后启动执行程序的命令。对于MapReduce而言,启动AM就执行org.apache.hadoop.mapreduce.v2.app.MRAppMaster;启动map/reduce task就执行org.apache.hadoop.mapred.YarnChild。 

 

ApplicationMaster

ApplicationMaster是一个框架特殊的库,对于Map-Reduce计算模型而言有它本身的ApplicationMaster实现,对于其余的想要运行在yarn上的计算模型而言,必须得实现针对该计算模型的ApplicationMaster用以向RM申请资源运行task,好比运行在yarn上的spark框架也有对应的ApplicationMaster实现,归根结底,yarn是一个资源管理的框架,并非一个计算框架,要想在yarn上运行应用程序,还得有特定的计算框架的实现。因为yarn是伴随着MRv2一块儿出现的,因此下面简要概述MRv2在yarn上的运行流程。

MRv2运行流程:

 

  1. MR JobClient向resourceManager(AsM)提交一个job
  2. AsM向Scheduler请求一个供MR AM运行的container,而后启动它
  3. MR AM启动起来后向AsM注册
  4. MR JobClient向AsM获取到MR AM相关的信息,而后直接与MR AM进行通讯
  5. MR AM计算splits并为全部的map构造资源请求
  6. MR AM作一些必要的MR OutputCommitter的准备工做
  7. MR AM向RM(Scheduler)发起资源请求,获得一组供map/reduce task运行的container,而后与NM一块儿对每个container执行一些必要的任务,包括资源本地化等
  8. MR AM 监视运行着的task 直到完成,当task失败时,申请新的container运行失败的task
  9. 当每一个map/reduce task完成后,MR AM运行MR OutputCommitter的cleanup 代码,也就是进行一些收尾工做
  10. 当全部的map/reduce完成后,MR AM运行OutputCommitter的必要的job commit或者abort APIs
  11. MR AM退出。

 

在Yarn上写应用程序

在yarn上写应用程序并不一样于咱们熟知的MapReduce应用程序,必须牢记yarn只是一个资源管理的框架,并非一个计算框架,计算框架能够运行在yarn上。咱们所能作的就是向RM申请container,而后配合NM一块儿来启动container。就像MRv2同样,jobclient请求用于MR AM运行的container,设置环境变量和启动命令,而后交由NM去启动MR AM,随后map/reduce task就由MR AM全权负责,固然task的启动也是由MR AM向RM申请container,而后配合NM一块儿来启动的。因此要想在yarn上运行非特定计算框架的程序,咱们就得实现本身的client和applicationMaster。另外咱们自定义的AM须要放在各个NM的classpath下,由于AM可能运行在任何NM所在的机器上。

原文连接:Yarn详解(责编:Arron)