mysql驱动能放在spark的lib目录下吗?
来源:5-3 -B HiveContext的使用
那条时光流过的小巷
2017-10-16
每次启动都要--jars mysql驱动地址,请问老师能有别的配置,比如把mysql驱动包放在spark目录下,而跳过这一步骤吗?
写回答
2回答
-
放到spark-default.conf
012017-10-16 -
zghgchao4098206
2017-10-21
直接把mysql驱动包放到 /home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0/jars也可以
00
相似问题