为什么拷贝hive-site进spark,加上- -jars启动之后,还是空的?

来源:5-5 spark-shell&spark-sql的使用

asdhjhg

2017-09-18

为什么我把hive-xml文件拷贝到spark的conf下面启动spark-shell加上mysql的驱动,然后没有显示那几张表,还是空的

http://szimg.mukewang.com/59bf800e0001c39805000282.jpg

如果不加上jars启动spark并没有像老师一样报错,而至正常运行spark,怎么回事呢?我没有用老师的虚拟环境,那个两张表我自己创建的

spark_home我在环境变量里配置过了

http://szimg.mukewang.com/59bf802b0001469513360120.jpg

老师我的hite-site.xml

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<configuration>
 
    <property>
      <name>hive.cli.print.header</name>
      <value>true</value>
      <description>Whether to print the names of the columns in query output.</description>
    </property>
 
    <property>
      <name>hive.cli.print.current.db</name>
      <value>true</value>
      <description>Whether to include the current database in the Hive prompt.</description>
    </property>
 
    <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://localhost:3306/sparksql?createDatabaseIfNotExist=true</value>
      <description>JDBC connect string for a JDBC metastore</description>
    </property>
 
    <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
      <description>Driver class name for a JDBC metastore</description>
    </property>
 
    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
      <description>username to use against metastore database</description>
    </property>
 
    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>root</value>
      <description>password to use against metastore database</description>
    </property>
 
</configuration>

然后emp和dept都有。

http://szimg.mukewang.com/59bf805d00012fad13660768.jpg

写回答

3回答

asdhjhg

提问者

2017-09-18

这个大坑终于过了……源码编译hive失败的原因......

0
0

Michael_PK

2017-09-18

或者群里问下谁遇到过

0
2
asdhjhg
关键神恶魔错误都没报,就是连接不上hive里面的两张表,找错误都没头绪。。。google半天也没辙。。。
2017-09-18
共2条回复

Michael_PK

2017-09-18

你先到问答区找下,我记得有哥们遇到过这问题

0
0

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程