配置完Spark队列没生效
来源:5-16 【重要!必掌握】调度器之CapacityScheduler队列配置及测试

慕妹8003063
2024-02-21
我的队列里原来就有default和hadoop两个,我安装老师教的方法配置后capacity-scheduler.xml,且执行yarn rmadmin -refreshQueues也生效了,但是刷新web,队列里还是只有default和hadoop,没有spark。还有一个问题,capacity-scheduler.xml里并没有配置hadoop啊,这是在哪里配置的啊?
我指定spark队列执行案例pi 可以成功,这时UI里显示出了队列spark,却不显示执行的作业 pi,这又是何故呢?
我指定队列default执行pi,队列hadoop显示有资源使用比率,default没有,也不显示该作业。
写回答
1回答
-
Michael_PK
2024-02-25
我看了下我的capacity-scheduler.xml的文件中:
<property>
<name>yarn.scheduler.capacity.root.queues</name>
<value>default,spark</value>
<description>
The queues at the this level (root is the root queue).
</description>
</property>
这里面我设置的是default,spark, 你的这里面没有hadoop,应该是不可能有hadoop的呢。
你确认一个问题,你的到底是
capacity和fair生效了
022024-03-10
相似问题