请问老师,linux下spark的安装配置,如何整合进hadoop中啥没讲啊?
来源:4-10 开发环境依赖使用说明

慕函数0552834
2019-07-24
请问老师,linux下spark的安装配置,如何整合进hadoop中啥没讲啊?
写回答
1回答
-
Michael_PK
2019-07-24
Linux上部署Spark,因为我们是on yarn,只需要找个能访问yarn的机器部署一个spark就行了,不需要spark集群,整合hadoop,那就是能访问通hdfs和yarn就行了,这些都是spark的基础知识,是在sparksql课程里面详细讲解的。因为本课程是纯实战课程,所以是以实战为主,对于基础的东西建议参考下sparksql等类似的课程
00
相似问题