第 1 节 Yarn架构

image.png

  • ResourceManager(rm):处理客户端请求、启动/监控ApplicationMaster、监控NodeManager、资源分配与调度;
  • NodeManager(nm):单个节点上的资源管理、处理来自ResourceManager的命令、处理来⾃ApplicationMaster的命令;
  • ApplicationMaster(am):数据切分、为应⽤程序申请资源,并分配给内部任务、任务监控与容错。
  • Container:对任务运行环境的抽象,封装了CPU、内存等多维资源以及环境变量、启动命令等任务运行相关的信息。

    第 2 节 Yarn任务提交(工作机制)

    image.png
    作业提交过程之YARN

  • 作业提交

    • 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。
    • 第2步:Client向RM申请一个作业id。
    • 第3步:RM给Client返回该job资源的提交路径和作业id。
    • 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。
    • 第5步: Client提交完资源后,向RM申请运行MrAppMaster。
  • 作业初始化
    • 第6步:当RM收到Client的请求后,将该job添加到容量调度器中。
    • 第7步:某⼀个空闲的NM领取到该Job。
    • 第8步:该NM创建Container,并产生MRAppmaster。
    • 第9步: 下载Client提交的资源到本地。
  • 任务分配
    • 第10步:MrAppMaster向RM申请运行多个MapTask任务资源。
    • 第11步:RM将运行MapTask任务分配给另外两个NodeManager,另两个NodeManager分别领取任务并创建容器。
  • 任务运行
    • 第12步:MR向两个接收到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
    • 第13步:MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运⾏ReduceTask。
    • 第14步:ReduceTask向 MapTask获取相应分区的数据。
    • 第15步:程序运行完毕后,MR会向RM申请注销⾃己。 进度和状态更新YARN中的任务将其进度和状态返回给应⽤管理器, 客户端每秒(通过 mapreduce.client.progressmonitor.pollinterval设置)向应⽤管理器请求进度更新, 展示给⽤户。
  • 作业完成

    • 除了向应用管理器请求作业进度外, 客户端每5秒都会通过调用 waitForCompletion()来检查作业是否完成。时间间隔可以通过 mapreduce.client.completion.pollinterval来设置。作业完成之后, 应⽤管理器和Container会清理理⼯作状态。作业的信息会被作业历史服务器存储以备之后用户核查。

      第 3 节 Yarn调度策略

      Hadoop作业调度器主要有三种:FIFO、Capacity Scheduler和Fair Scheduler。Hadoop2.9.2默认的资源调度器是Capacity Scheduler。
      可以查看yarn-default.xml
      image.png
      1. FIFO(先进先出调度器)
      image.png
      2. 容量调度器(Capacity Scheduler 默认的调度器)
      Apache Hadoop默认使用的调度策略。Capacity调度器允许多个组织共享整个集群,每个组织可以获得集群的一部分计算能力。通过为每个组织分配专⻔的队列,然后再为每个队列分配⼀定的集群资源,这样整个集群就可以通过设置多个队列的⽅式给多个组织提供服务了。除此之外,队列内部又可以垂直划分,这样⼀个组织内部的多个成员就可以共享这个队列资源了,在⼀个队列内部,资源的调度是采⽤的是先进先出(FIFO)策略。
      image.png
      3. Fair Scheduler(公平调度器,CDH版本的hadoop默认使用的调度器)
      Fair调度器的设计⽬标是为所有的应⽤分配公平的资源(对公平的定义可以通过参数来设置)。公平调度器也可以在多个队列间⼯作。举个例子,假设有两个⽤户A和B,他们分别拥有⼀个队列。 当A启动一个job⽽B没有任务时,A会获得全部集群资源;当B启动⼀个job后,A的job会继续运行,不过一会⼉之后两个任务会各⾃获得⼀半的集群资源。如果此时B再启动第二个job并且其它job还在运行,则它将会和B的第⼀个job共享B这个队列的资源,也就是B的两个job会⽤于四分之一的集群资源,⽽A的job仍然⽤于集群一半的资源,结果就是资源最终在两个用户之间平等的共享。

      第 4 节 Yarn多租户资源隔离配置

      Yarn集群资源设置为A,B两个队列,
  • A队列设置占⽤资源70%主要用来运行常规的定时任务,

  • B队列设置占用资源30%主要运行临时任务
  • 两个队列间可相互资源共享,假如A队列资源占满,B队列资源⽐较充裕,A队列可以使用B队列的资源,使总体做到资源利用最大化.
  • 选择使用Fair Scheduler调度策略!!

具体配置
1. yarn-site.xml

  1. <!-- 指定我们的任务调度使⽤fairScheduler的调度方式 -->
  2. <property>
  3. <name>yarn.resourcemanager.scheduler.class</name>
  4. <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
  5. <description>In case you do not want to use the default scheduler</description>
  6. </property>
  1. 创建fair-scheduler.xml⽂件
    在Hadoop安装⽬录/etc/hadoop创建该文件 ```xml

<?xml version=”1.0” encoding=”UTF-8” standalone=”yes”?>

fair 9216 mb,4 vcores 100 1024 mb,1vcores 1000 fair 7 4096 mb,4vcores 5 1024 mb, 1vcores 1000 fair 3 ``` 界⾯验证
image.png