Kafka 生产者抽象组件详细指南
plus 版本专属
此章节是黑马点评 Plus 版本中专有的内容,而在整套文档中将普通版本和 Plus 版本都融合在了一起,让大家更方便的学习。
此组件是为了对 MQ 消息队列的封装设计,使用了大量的设计模式,以及考虑各种消息发送和消费中的各种问题:
- 消息发送处理
- 消息发送失败
- 消息发送成功
- 消息消费超时
- 消息消费前置
- 消息消费处理
- 消息消费失败
对于这些问题提供了非常方便的扩展,亮点很多,建议小伙伴认真学习
使用常规 Kafka 发送时出现的问题
1)重复样板代码
每个 Producer 手写 KafkaTemplate.send(...)、构造 ProducerRecord、填充 headers 与 key、编排回调与日志,重复冗长且容易不一致。
2)异常处理分散且不完整
仅处理异步完成阶段异常,遗漏 send(...) 提交阶段抛出的同步异常;导致失败场景未统一回滚或上报。
3)成功/失败后处理缺乏统一入口
日志、指标、告警、DLQ 分散在各个 Producer,维护成本高,无法复用。
4)发送方式不统一
阻塞发送、批量发送、带 key/headers 发送各自实现;使用者为简单场景付出不必要的复杂度。
5)消息载荷没有统一包装
无 uuid 与 producerTime 等追踪信息,跨系统排错难;元数据(headers)未统一归口。
使用发送组件带来的收益
1)统一消息包装与元数据
使用统一承载消息,便于追踪与扩展
2)简化发送入口
提供发送、发送记录、批量发送、等待发送、发送死信队列等方法,覆盖绝大多数使用场景。
3)成功/失败钩子标准化
自动在完成阶段回调发送成功和发送失败,并处理提交阶段同步异常;将业务扩展点清晰外露。
4)统一日志与可观测性
默认日志包含主题与元数据;失败日志统一 JSON 序列化消息内容,方便检索与关联。
5)降低样板与认知成本
调用方只关注“发什么”,扩展统一在“成功/失败钩子”;提升一致性与可维护性。