请问老师,linux下spark的安装配置,如何整合进hadoop中啥没讲啊?

来源:4-10 开发环境依赖使用说明

慕函数0552834

2019-07-24

请问老师,linux下spark的安装配置,如何整合进hadoop中啥没讲啊?

写回答

1回答

Michael_PK

2019-07-24

Linux上部署Spark,因为我们是on yarn,只需要找个能访问yarn的机器部署一个spark就行了,不需要spark集群,整合hadoop,那就是能访问通hdfs和yarn就行了,这些都是spark的基础知识,是在sparksql课程里面详细讲解的。因为本课程是纯实战课程,所以是以实战为主,对于基础的东西建议参考下sparksql等类似的课程

0
0

Spark进阶 大数据离线与实时项目实战

大数据生态圈实用框架(Spark/Hbase/Redis/Hadoop)整合应用及调优

700 学习 · 190 问题

查看课程