spark-sql_2.11-2.1.0.jar里面没有sparkContext sparkConf的类

来源:5-2 -A SQLContext的使用

马赟

2017-11-17

spark-sql_2.11-2.1.0.jar里面没有sparkContext sparkConf的类


是我下的有问题 还是别的 http://img.mukewang.com/szimg/5a0eb26300014f4214480900.jpg

写回答

2回答

十里桃花舞丶

2017-11-18

同样的问题,我的解决方案,可以参考

按住CTRL键+鼠标点击SQLContext()进去看源码,找到里面的SparkContext(),同样CTRL+鼠标点击进去看源码。在源码里找到SparkConf(),同理CTRL+点击找源码

要是找不到源码,即调不到源码界面

把pom.xml 中 scala.version改成2.1.1

0
0

Michael_PK

2017-11-17

你先把你的pom贴出来,确定所有的dependency是否到加载进来了。

你代码里面的new的类  第一个字母小写的是啥

0
3
马赟
感谢十里桃花舞丶的帮助 。SparkContext()源码没有找到,但将sparksql的版本更换一下,重新更新一下好了!!
2017-11-20
共3条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程