思考:

Yarn 是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而 MapReduce 等运算程序则相当于运行与操作系统之上的应用程序。
YARN 主要由 ResourceManager、NodeManager、ApplicationMaster 和 Container 等组件构成。

ResourceManager(RM)主要作用如下
NodeManager(NM)主要作用如下
ApplicationMaster(AM)作用如下
Container
Container 是 YARN 中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等。




作业提交全过程详解
(1)作业提交
第1步:Clinet 调用 job.waitForCompletion 方法,向整个集群提交 MapReduce 作业。
第2步:Client 向 RM 申请一个作业 id。
第3步:RM 给 Client 返回该 job 资源的提交路径和作业 id。
第4步:Client 提交 jar 包、切片信息和配置文件到指定的资源提交路径。
第5步:Client 提交玩资源后,向 RM 申请运行 MrAppMaster。
(2)作业初始化
第6步:当 RM 收到 Client 的请求后,将该 job 添加到容量调度器中。
第7步:某一个空闲的 NM 领取到该 Job。
第8步:该 NN 创建 Container,并产生 MRAppmaster。
第9步:下载 Client 提交的资源到本地。
(3)任务分配
第10步:MrAppMaster 向 RM 申请运行多个 MapTask 任务资源。
第11步:RM 将运行 MapTask 任务分配给另外两个 NodeManager,另两个 NodeManager 分别领取任务并创建容器。
(4)任务运行
第12步:MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个 NodeManager 分别启动 MapTask,MapTask 对数据进行分区排序。
第13步:MrAppMaster 等待所有 MapTask 运行完毕后,向 RM 申请容器,运行 ReduceTask。
第14步:ReduceTask 向 MapTask 获取相应分区的数据。
第15步:程序运行完毕后,MR 会向 RM 申请注销自己。
(5)进度和状态更新
YARN 中的任务将其进度和状态(包括 counter)返回给应用管理器,客户端每秒(通过 mapreduce.client。progressmonitor。pollinterval 设置)向应用管理器请求进度更新,展示给用户。
(6)作业完成
除了向应用管理器请求作业进度外,客户端每5秒都会通过 waitForCompletion() 来检查作业是否完成。时间间隔可以通过 mapreduce.client.completion.pollinterval 来设置。作业完成之后,应用管理器和 Container 会清理工作状态。作业的信息会被作业历史服务器存储以备之后的用核查。
目前,Hadoop 作业调度器主要有三种:FIFO、容量(Capacity Scheduler)和公平(Fair Scheduler)。Apache Hadoop3.1.3 默认的资源调度器是 Capacity Scheduler。
CDH 框架默认调度器是 FairScheduler。
具体设置详见:yarn-default.xml 文件
<property>
<description>The class to use as the resource scheduler.description>
<name>yarn.resourcemanager.scheduler.classname>
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacitySchedulervalue>
property>
FIFO 调度器(First In First Out):单队列,根据提交作业的先后顺序,先来先服务。

优点:简单易懂
缺点:不支持多队列,生产环境很少使用
CapacityScheduler 是 Yahaoo 开发的多以用户调度器。


1. 队列资源分配
从 root 开始,使用深度优先算法,优先选择资源占用率最低的队列分配资源。
2. 作业资源分配
默认按照提交作业的优先级和提交时间顺序分配资源。
3. 容器资源分配
按照容器的优先级分配资源;
如果优先相同,按照数据本地行原则;
Fair Scheduler 是 Facebook 开发的多用户调度器。

1. 与容量调度器相同点
2. 与容量调度器不同点
核心调度策略不同
容量调度器:优先选择资源利用率低的队列
公平调度器:优先选择对资源的缺额比例大的
每个队列可以单独设置资源分配方式
容量调度器:FIFP、DRP
公平调度器:FIFO、FAIR、DRF


1. FIFO策略
公平调度每个队列资源分配策略如果选择 FIFO 的话,此时公平调度器相当于上面讲过的容量调度器。
2. Fair策略
Fair 策略(默认)是一种基于最大最小公平算法实现的资源多路复用方式,默认情况下,每个队列内部采用该方式分配资源。这意味着,如果一个队列中有两个应用程序同时运行,则每个应用程序可得到 1/2 的资源;如果三个应用程序同时运行,则每个应用程序可得到 1/3 的资源。
具体资源分配流程和容量调度器一致:
实际最小资源份额:mindshare = Min(资源需求量,配置的最小资源)
是否饥饿:isNeedy = 资源使用量 < mindshare(实际最小资源份额)
资源分配比:minShareRatio = 资源使用量 / Max(mindshare,1)
资源使用权重比:useToWeightRatio = 资源使用量 / 权重



Yarn 状态的查询,除了可以在 hadoop103:8088 页面查看外,还可以通过命令操作。
常见的命令操作如下所示:
[fickler@hadoop102 ~]$ myhadoop.sh start
[fickler@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output1
[fickler@hadoop102 hadoop-3.1.3]$ yarn application -list
2022-09-24 12:12:22,062 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.10.103:8032
Total number of applications (application-types: [], states: [SUBMITTED, ACCEPTED, RUNNING] and tags: []):0
Application-Id Application-Name Application-Type User Queue State Final-State Progress Tracking-URL
[fickler@hadoop102 hadoop-3.1.3]$ yarn application -list -appStates FINISHED
2022-09-24 12:17:33,122 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.10.103:8032
Total number of applications (application-types: [], states: [FINISHED] and tags: []):1
Application-Id Application-Name Application-Type User Queue State Final-State Progress Tracking-URL
application_1663992336635_0001 word count MAPREDUCE fickler default FINISHED SUCCEEDED 100% http://hadoop102:19888/jobhistory/job/job_1663992336635_0001
[fickler@hadoop102 hadoop-3.1.3]$ yarn application -kill application_1663992336635_0001
2022-09-24 12:18:43,814 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.10.103:8032
Application application_1663992336635_0001 has already finished
yarn logs -applicationId[fickler@hadoop102 hadoop-3.1.3]$ yarn logs -applicationId application_1663992336635_0001
yarn logs -applicationId -contaiinerId [fickler@hadoop102 hadoop-3.1.3]$ yarn logs -applicationId application_1612577921195_0001 -containerId container_1612577921195_0001_01_000001
yarn applicationattempt -list 
yarn applicationattempt -status 
yarn container -list 
yarn container -status 
注意:只有在任务跑的途中才能看到 container 的状态
列出所有结点:yarn node -list -all
[fickler@hadoop102 hadoop-3.1.3]$ yarn node -list -all
2022-09-24 14:31:04,999 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.10.103:8032
Total Nodes:3
Node-Id Node-State Node-Http-Address Number-of-Running-Containers
hadoop104:41760 RUNNING hadoop104:8042 0
hadoop102:40653 RUNNING hadoop102:8042 0
hadoop103:38332 RUNNING hadoop103:8042 0
加载队列配置:yarn rmadmin -refreshQueues
[fickler@hadoop102 hadoop-3.1.3]$ yarn rmadmin -refreshQueues
2022-09-24 14:32:08,579 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.10.103:8033
打印队列信息:yarn queue -status
[fickler@hadoop102 hadoop-3.1.3]$ yarn queue -status default
2022-09-24 14:33:22,970 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.10.103:8032
Queue Information :
Queue Name : default
State : RUNNING
Capacity : 100.0%
Current Capacity : .0%
Maximum Capacity : 100.0%
Default Node Label expression :
Accessible Node Labels : *
Preemption : disabled
Intra-queue Preemption : disabled
