这里是三个层级增量数据的投递实现检索服务中增量索引的维护,那这方式跟把数据投递到kafka是怎么样的关系?kafka是做辅助吗?kafka的数据还会被消费掉吗

来源:10-5 【这里有内涵】将增量数据投递到Kafka

weixin_慕UI3397523

2020-10-06

写回答

1回答

张勤一

2020-10-09

同学你好:

    将增量的索引数据投递到 Kafka 并不是维护,而是对之前方法的重构和优化,原因是为了优化 MySQL 的使用,不让每一个实例都作为 MySQL Slave 去监听 Binlog。

    投递到 Kafka 的数据当然是会被其他的实例所消费,因为这里面存储的就是 Binlog 的增量数据。可以再看看之前的方式,以为我的视频中讲解的为什么会使用 Kafka。


     欢迎来 QQ 群随时交流、讨论,也非常感谢同学的支持!

1
0

Spring Cloud微服务架构 设计实现广告系统

广告营销系统,未来大中型企业的标配

2136 学习 · 927 问题

查看课程