spark-shell中执行sparkSQL报错:需要Hive支持
来源:3-8 spark-shell使用详解
璀璨年华_
2020-10-09
spark-shell启动正常
spark-shell执行spark.sql(“show tables”).show正常
执行spark.sql(“create table t(key string, value string)”)报错
说是需要hive支持,我将hive-site.xml放入$SPARK_HOME/conf下依然不管用,我也启动了元数据共享nohup hive --service metastore &依然不行
写回答
1回答
-
你是在服务器执行的是吧。两个事情,一是hivesite要在conf目录下,而是你如果使用了metastore服务,这个服务要正常启动起来,jps可以确认下是否启动成功。这两个的前提都是hivesite要在sparkconf下
022020-10-09
相似问题
spark访问hive出错
回答 1
运行spark-shell的时候报错
回答 1
无法使用Spark来访问Hive
回答 2
Spark连接Hive数据源连接问题
回答 2
视频中创建的表是创建到哪里
回答 1