Spark streaming同时消费2个kafka主题数据的分区情况及如何进行计算优化的咨询问题
来源:1-5 -大数据概述
慕神816625
2018-06-02
Spark streaming同时消费2个kafka主题数据,其分区数量分别为4分区和8分区,先后进行了map,join,reduceByKey操作,在此过程中,Dstream/RDD的分区变化的各种可能情况,以及如何进行计算优化?
写回答
1回答
-
Michael_PK
2018-06-02
这个取决于你的streaming和kafka的对接方式,direct时kafka可以通过提高分区数来达到提高处理的分区数。这个详细的官网是有非常详细的描述
032018-06-02
相似问题