以standalone模式运行spark,报了图中的错误。网上说是PYSPARK_PYTHON没有配置到环境变量里,我的已经配置了为什么还不行?
来源:5-4 -standalone模式spark-submit运行
baby猫
2018-09-15
写回答
2回答
-
Michael_PK
2018-09-15
这个地方好像是整合有点问题,你是否有下载ootb环境,如果有可以参考下我那个环境的bash-profile的写法
00 -
baby猫
提问者
2018-09-15
错误信息:
java.io.IOException: Cannot run program "python3.6": error=2, 没有那个文件或目录
00
相似问题