spark-shell 命令指定mysql驱动位置

来源:5-5 spark-shell&spark-sql的使用

慕斯卡4516047

2017-08-11

老师,您好:

        在5-5节使用spark-shell时我跟课程输入指令“./spark-shell --master local[2]”时报mysql驱动找不到,后来在网上查找解决方法时,有人提示指定mysql驱动的位置的话可以解决,逐使用指令“./spark-shell --master local[2] --jars /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar”解决。不太明白的是我已经在 /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/下放了mysql驱动jar包,为什么还要指定位置,是需要在什么地方配置mysql驱动jar包位置么?

写回答

1回答

慕斯卡4516047

提问者

2017-08-11

看了后面的视频,知道了原因。。。。

1
1
吴小楠
你好,请问一下,怎么样才能不加jars /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar 运行spark-shell命令这个问题是在哪一节视频讲的呢?
2018-04-08
共1条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程