pyspark可以访问hive但spark-submit访问不了hive
来源:7-8 -Hive和MySQL综合使用
慕瓜155437
2017-08-29
在pyspark中,可以正常连接并访问hive的数据
但是使用spark-submit时,代码如下:
会报错:Table or view 'emp' not found in database 'default
按照网上搜索到的,使用了spark = SparkSession.builder.master("local[2]").appName("my app").enableHiveSupport().getOrCreate()之后,依然有如上报错。请问该如何解决?
(网上也有使用HiveContext的方法,但是HiveContext已经不被提倡了,并且我也使用这种方法尝试,还是不能正常连接。)
3回答
-
skyblueice3676069
2017-09-02
遇到同样情况,spark shell里面可以访问到hive table,但是在idea里面使用spark.sql等命令却总是显示default这个db中一个表没有。不少人也有相同的问题:http://coding.imooc.com/learn/questiondetail/17480.html
同样的代码。shell上有hive表,idea上则没有。conf/里面有hive-site.xml
032017-09-03 -
慕瓜155437
提问者
2017-08-30
最新情况,发现不只是pyspark和spark-submit访问hive存在问题,从hive的shell里访问到的default库的tables和从spark-shell里访问的不一样,会是什么造成的呢?
00 -
Michael_PK
2017-08-29
py我不熟,在群里问问其他小伙伴吧,我们所有开发spark的都是Scala语言
052017-08-30
相似问题