scala建表,hive查询为空

来源:7-6 -操作Hive表数据

侧耳倾听17

2020-06-18

老师您好,我用scala命令spark.sql(“select pday,count(*) num from xtbl group by pday order by pday”).write.saveAsTable(“test1”)新建了一张test1表。之后用scala命令spark.table(“test1”).show()和sparksql都可以查到插入的数据内容。但是在hive里select查询出结果为空。

写回答

3回答

侧耳倾听17

提问者

2020-06-18

老师您好,我用spark-shell --master local[2] --jars /home/hadoop/software/mysql-connector-java-5.1.27-bin.jar启动scala,然后输入spark.sql("select pday,count(*) num from xtbl group by pday order by pday").write.saveAsTable("test1")

//img1.sycdn.imooc.com/szimg/5eead5f0099f1e0910140364.jpg

输入spark.table("test1").show()可以看到查询结果

//img.mukewang.com/szimg/5eead65b09e32af906040451.jpg

用spark-sql --master local[2] --jars /home/hadoop/software/mysql-connector-java-5.1.27-bin.jar启动sparksql输入select * from test1可以看到查询结果

//img1.sycdn.imooc.com/szimg/5eead6dc091407e706160402.jpg

启动hive,desc test1可以看到表结构

//img1.sycdn.imooc.com/szimg/5eead71e095a5c2a10390197.jpg

在hive中输入select * from test1查询结果为空

//img.mukewang.com/szimg/5eead76309de7a6410390245.jpg

HDFS中文件格式是.snappy.parquet

//img1.sycdn.imooc.com/szimg/5eead79e09ee2d1e10040420.jpg

0
0

侧耳倾听17

提问者

2020-06-18

老师您好,之前安装spark时从hive拷贝了hive-site.xml文件,之前在hive里建表用scala和sparksql可查询出结果。scala里面没有做任何配置,是否要包mysql的jar包考入scala的lib文件夹。

0
1
Michael_PK
重新描述下,什么叫Scala命令执行?你把你操作的所有流程全部截图描述下,我详细看下
2020-06-18
共1条回复

Michael_PK

2020-06-18

你的spark和hive使用的是同一套元数据吗?问题肯定出在这里

0
2
侧耳倾听17
Warning: fs.defaultFS is not set when running "chgrp" command. Warning: fs.defaultFS is not set when running "chmod" command. scala写入时出现这两条Warning
2020-06-18
共2条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程