如何在pycharm中,实现pyspark程序的远程提交呢

来源:3-8 -pyspark

会飞的光影

2023-09-09

在网上看了下,
self.conf=SparkConf().setMaster(“spark://192.168.9.110:7077”).setAppName(“word-count”)
在修改了sparkconf里面的master 设置,但是会报错,Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
ERROR:root:Exception while sending command.

我修改了 conf = SparkConf().set(“spark.executor.memory”, ‘512m’)
.set(“spark.driver.memory”, ‘512m’)
.set(“spark.executor.cores”,‘1’)
.set(“spark.driver.cores”,“1”)

还是不行,我怀疑是cores 或者用户有问题,换用户为root怎么操作呢,修改cores 怎么操作呢图片描述

写回答

1回答

Michael_PK

2023-09-11

1)Initial job has not accepted any resources; 这个的意思是没有多余的资源给你的这个作业使用了

2)你的图上有个running application 显示有1个作业正在运行, 你点击开看下,这是一个什么作业,是不是该作业把集群中的资源用完了?

3)跟用户应该没有什么关系。你的completed application中有HP也有root,这个你是使用不同用户提交的吗,这个没啥关系的

0
1
会飞的光影
非常感谢!
2023-09-24
共1条回复

Python3实战Spark大数据分析及调度

使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度

1046 学习 · 434 问题

查看课程