spark-shell 命令指定mysql驱动位置
来源:5-5 spark-shell&spark-sql的使用
慕斯卡4516047
2017-08-11
老师,您好:
在5-5节使用spark-shell时我跟课程输入指令“./spark-shell --master local[2]”时报mysql驱动找不到,后来在网上查找解决方法时,有人提示指定mysql驱动的位置的话可以解决,逐使用指令“./spark-shell --master local[2] --jars /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar”解决。不太明白的是我已经在 /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/下放了mysql驱动jar包,为什么还要指定位置,是需要在什么地方配置mysql驱动jar包位置么?
写回答
1回答
-
慕斯卡4516047
提问者
2017-08-11
看了后面的视频,知道了原因。。。。
112018-04-08
相似问题
启动spark-shell遇到两个报错
回答 3
本地需要安装spark环境么?
回答 1