pycharm无法运行spark程序

来源:3-11 -使用IDE开发pyspark应用程序

qq_慕妹4371975

2021-05-03

http://img.mukewang.com/szimg/608fc11509147ffa24961402.jpg老师还需要您帮忙看一下这个,我之前spark2.3.0在本机上没有成功编译,显示没配置java_home,因为我这个新电脑没有安装任何java相关的东西。然后我把虚拟机里的编译好的包直接复制到本机上了 ,按照您要求配置好了pythonpath和sparkhome,也把您说的那两个包导进去了,但是运行程序还是报错,我不知道这个问题出在哪了?

写回答

1回答

Michael_PK

2021-05-03

你这么滴操作,你直接下载这个https://www.apache.org/dyn/closer.lua/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz   解压到本地试试。


有可以参考这个帖子:https://coding.imooc.com/learn/questiondetail/y0K5g68BN54Ye2QN.html

0
3
慕雪3119260
回复
qq_慕妹4371975
这个问题解决了吗?
2022-12-07
共3条回复

Python3实战Spark大数据分析及调度

使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度

1046 学习 · 434 问题

查看课程