这里是三个层级增量数据的投递实现检索服务中增量索引的维护,那这方式跟把数据投递到kafka是怎么样的关系?kafka是做辅助吗?kafka的数据还会被消费掉吗
来源:10-5 【这里有内涵】将增量数据投递到Kafka

weixin_慕UI3397523
2020-10-06
写回答
1回答
-
张勤一
2020-10-09
同学你好:
将增量的索引数据投递到 Kafka 并不是维护,而是对之前方法的重构和优化,原因是为了优化 MySQL 的使用,不让每一个实例都作为 MySQL Slave 去监听 Binlog。
投递到 Kafka 的数据当然是会被其他的实例所消费,因为这里面存储的就是 Binlog 的增量数据。可以再看看之前的方式,以为我的视频中讲解的为什么会使用 Kafka。
欢迎来 QQ 群随时交流、讨论,也非常感谢同学的支持!
10
相似问题
广告系统需要考虑
回答 2