启动spark 这样看比较明显吧
来源:3-4 Spark Local模式环境搭建
进击的大黄鸭
2017-06-22
问题补充(选填):请详细描述你的问题,贴出相关代码或截图,并告知你的操作步骤
写回答
5回答
-
进击的大黄鸭
提问者
2017-06-23
已解决 按照老师说的 把mysql驱动拷贝到spark中的jar文件夹中就好了 遇到这个问题的同学可以试一试 谢谢大家的回答了
20 -
进击的大黄鸭
提问者
2017-06-23
http://pan.baidu.com/s/1pKSxhSv
启动的脚本在这里 太多了传不上来 多谢大家帮助!
00 -
大虾丶米
2017-06-22
确实会有点问题,启动第一个作业时没问题,启动第二个就有问题了,脚本:spark-shell --master spark://hadoop001:7077,但是即使有异常也会启动成功。
012017-06-23 -
Michael_PK
2017-06-22
把启动的脚本也一起补充下
00 -
杀殿的爆碎牙
2017-06-22
整个都截下吧 这样看不出
012017-06-22
相似问题