关于编译的问题
来源:3-2 -Spark源码编译

weixin_慕田峪8372375
2019-07-18
老师您好,我使用spark-2.4.3,然后对应的hadoop是3.1.2,编译的时候添加了phive参数,编译完成之后我启动spark-shell的时候,hive.shims报错,无法分辨的hadoop版本3.1.2,这是不是因为我没有使用默认的Phadoop-3.1指定的hadoop3.1.0版本?还是因为Phive默认的hive版本太低了?如果我要使用hadoop3.1.2,又不想报错,可以指定hive编译的版本吗?请问该怎么搞?
写回答
2回答
-
Michael_PK
2019-07-18
具体是否支持的看pom里面的hadoop的profile是否有
00 -
Michael_PK
2019-07-18
spark好像还不支持这么高的hadoop版本
062019-07-19
相似问题