本地需要安装spark环境么?

来源:5-2 -A SQLContext的使用

qq_因为乌鸦像写字台_0

2018-08-02

在本地用IDEA开发时,是只要安装一个IDEA,然后写pom.xml文件,他会自动下载需要的东西,然后本地就不需要装spark,scala,hadoop之类的环境了?

写回答

1回答

Michael_PK

2018-08-02

不需要,不需要,本地只要一个idea,用spark的local模式就行了

0
6
Michael_PK
回复
大能人powerman
是。或者是代码里设置local2
2019-03-28
共6条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程