关于编译的问题

来源:3-2 -Spark源码编译

weixin_慕田峪8372375

2019-07-18

老师您好,我使用spark-2.4.3,然后对应的hadoop是3.1.2,编译的时候添加了phive参数,编译完成之后我启动spark-shell的时候,hive.shims报错,无法分辨的hadoop版本3.1.2,这是不是因为我没有使用默认的Phadoop-3.1指定的hadoop3.1.0版本?还是因为Phive默认的hive版本太低了?如果我要使用hadoop3.1.2,又不想报错,可以指定hive编译的版本吗?请问该怎么搞?

写回答

2回答

Michael_PK

2019-07-18

具体是否支持的看pom里面的hadoop的profile是否有

0
0

Michael_PK

2019-07-18

spark好像还不支持这么高的hadoop版本

0
6
weixin_慕田峪8372375
回复
Michael_PK
OK谢谢老师!
2019-07-19
共6条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程