./pyspark --master spark://hadoop000:7077
来源:5-3 -standalone模式环境搭建及pyspark运行
weixin_慕斯卡3185348
2022-08-11
如果光打开Master和Worker,会报错;
需要先打开NameNode、DataNode和SecondaryNameNode,再打开Master和Worker,才会正常。
写回答
1回答
-
Michael_PK
2022-08-11
报错贴出来看看
如果你的spark中配置了有关hadoop的参数了,那必须要先启动hadoop的
00
相似问题