pycharm无法运行spark程序
来源:3-11 -使用IDE开发pyspark应用程序
qq_慕妹4371975
2021-05-03
老师还需要您帮忙看一下这个,我之前spark2.3.0在本机上没有成功编译,显示没配置java_home,因为我这个新电脑没有安装任何java相关的东西。然后我把虚拟机里的编译好的包直接复制到本机上了 ,按照您要求配置好了pythonpath和sparkhome,也把您说的那两个包导进去了,但是运行程序还是报错,我不知道这个问题出在哪了?
写回答
1回答
-
Michael_PK
2021-05-03
你这么滴操作,你直接下载这个https://www.apache.org/dyn/closer.lua/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz 解压到本地试试。
有可以参考这个帖子:https://coding.imooc.com/learn/questiondetail/y0K5g68BN54Ye2QN.html
032022-12-07
相似问题