./pyspark --master spark://hadoop000:7077

来源:5-3 -standalone模式环境搭建及pyspark运行

weixin_慕斯卡3185348

2022-08-11

如果光打开Master和Worker,会报错;

需要先打开NameNode、DataNode和SecondaryNameNode,再打开Master和Worker,才会正常。

写回答

1回答

Michael_PK

2022-08-11

报错贴出来看看

如果你的spark中配置了有关hadoop的参数了,那必须要先启动hadoop的

0
0

Python3实战Spark大数据分析及调度

使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度

1046 学习 · 434 问题

查看课程