mysql驱动能放在spark的lib目录下吗?

来源:5-3 -B HiveContext的使用

那条时光流过的小巷

2017-10-16

每次启动都要--jars mysql驱动地址,请问老师能有别的配置,比如把mysql驱动包放在spark目录下,而跳过这一步骤吗?

写回答

2回答

Michael_PK

2017-10-16

放到spark-default.conf

0
1
那条时光流过的小巷
非常感谢!
2017-10-16
共1条回复

zghgchao4098206

2017-10-21

直接把mysql驱动包放到 /home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0/jars也可以

0
0

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程