消息队列(mq)是什么? - Lowry的回答 - 知乎 https://www.zhihu.com/question/54152397/answer/1802083263
对于MQ来说,其实不管是RocketMQ、Kafka还是其他消息队列,他们的本质都是:一发一存一消费。
1从MQ 的本质说起
将MQ 掰开了揉碎了来看,都是【一发一存一消费】,再直白点就是一个【转发器】。
生产者先将消息投递一个叫做【队列】的容器中,然后再从这个容器中取出消息,最后再转发给消费者,仅此而已。
上面这个图便是消息队列最原始的模型,他包含了两个关键字:消息和队列。
消息
就是要传输的数据,可以是最简单的文本字符串,也可以是自定义的复杂格式(只要能按预定格式解析出来即可)。
队列
先进先出的数据结构。他是存放消息的容器,消息从队尾入队,从队头出队,入队即发消息的过程,出队即收消息的过程。
2 原始模型的进化
再看今天我们最常用的消息队列产品(RocketMQ、Kafka等等),你会发现:他们都是在最原始的消息模型上做了扩展,同时提出了一些新名词,比如:主题(topic)、分区(partition)、队列(queue)等等。
要彻底理解这些五花八门的新概念,我们化繁为简,先从消息模型的演进说起(道理好比:架构从来不是设计出来的,而是演进而来的)
2.1队列模型
最初的消息队列就是上一节讲的原始模型,他是一个严格意义上的队列(Queue)。消息按照什么顺序写进去,就按照什么顺序读出来。不过,队列没有“读”这个操作,读就是出队,从队头中“删除”这个消息。
这便是队列模型:他允许多个生产者往同一个队列发送消息。但是,如果有多个消费者,实际上是竞争的关系,也就是一条消息只能被其中一个消费者接收到,读完即被删除。
2.2发布-订阅模型
如果需要将一份消息数据分发给多个消费者,并且每个消费者都要求收到全量的消息。很显然,队列模型无法满足这个需求。
一个可行的方案是:为每个消费者创建一个单独的队列,让生产者发送多份。这种做法比较笨,而且同一份数据会被复制多份,也很浪费空间。
为了解决这个问题,就演化出了另一种消息模型:发布-订阅模型。
在发布-订阅模型中,存放消息的容器变成了“主题”,订阅者在接收消息之前需要先“订阅主题”。最终,每个订阅者都可以收到同一个主题的全量消息。
仔细对比下他和“队列模式”的异同:生产者就是发布者,队列就是主题,消费者就是订阅者,无本质区别。唯一的不同点在于:一份消息数据是否可以被多次消费。
2.3小结
最后做个总结,上面两种模型说白了就是:单播和广播的区别。而且,当发布-订阅模型中只有1个订阅者时,他和队列模型就一样了,因此在功能上时完全兼容队列模型的。
这也解释了为什么现在主流的RocketMQ、Kafka都是直接基于发布-订阅模型实现的。此外,RabbitMQ中之所以有一个Exchange模块,其实也是为了解决消息的投递问题,可以变相实现发布-订阅模型。
包括大家接触到的“消费组”、“集群消息”、“广播消费”这些概念,都和上面这两种模型相关,以及在应用层面大家最常见的情形:组间广播、组内单播,也属于此范畴。
所以,先掌握一些共性的理论,对于大家再去学习各个消息中间件的具体实现原理时,其实能更好地抓住本质,分清概念。
3.透过模型看MQ 的应用场景
目前,MQ的应用场景非常多,大家能倒背如流的是:系统解耦、异步通信和流量削峰。除此之外,还有延迟通知、最终一致性保证、顺序消息、流式处理等等。
那到底是先有消息模型,还是先有应用场景呢?答案肯定是:现有应用场景(也就是现有问题),再有消息模型,因为消息模型只是解决方案的抽象而已。
MQ经过30 多年的发展,能从最原始的队列模型发展到今天百花齐放的各种消息中间件(平台级的解决方案),我觉得万变不离其宗,还是得益于:消息模型的适配性很广。
我们试着重新理解下消息队列的模型。他其实解决的是:生产者和消费者的通信问题。那他对比RPC有上面联系和区别呢?
通过对比,能很明显的看出两点差异:
- 引入MQ后,由之前的一次RPC 变成了现在的两次 RPC,而且生产者只跟队列耦合,他根本无需知道消费组的存在。
- 多了一个中间节点【队列】进行消息转储,相当于将同步变成了异步。
再反过来思考MQ 的所有应用场景,就不难理解 MQ 为什么适用了,因为这些应用场景无外乎都利用了上面两个特性。
举一个实际例子,比如电商业务中最常见的【订单支付】场景:在订单支付成功后,需要更新订单状态、更新用户积分、通知商家有新订单、更新推荐系统中的用户画像等等。
s
引入MQ 后,订单支付现在只需要关注他最重要的流程:更新订单状态即可。其他不重要的事情全部交给MQ来通知。这便是MQ解决的最核心的问题:系统解耦。
改造前订单系统依赖3个外部系统,改造后仅仅依赖MQ,而且后续业务再扩展(比如:营销系统打算针对支付用户奖励优惠券),也不涉及订单系统的修改,从而保证了核心流程的稳定性,降低了维护成本。
这个改造还带来了另一个好处:因为MQ 的引入,更新用户积分、通知商家、更新用户画像这些步骤全部变成了异步执行,能减少订单支付的整体耗时,提升订单系统的吞吐量。这便是MQ 的另一个典型应用场景:异步通信。
除此以外,由于队列能转储消息,对于超出系统承载能力的场景,可以用MQ作为“漏斗”进行限流保护,即所谓的流量削峰。
我们还可以利用队列本身的顺序性,来满足消息必须按顺序投递的场景;利用队列+定时任务来实现消息的延时消费……
MQ其他应用场景基本类似,都能回归到消息模型的特点上,找到他适用的原因,这里就不一一分析了。
总之,就是建议大家多从复杂多变的实践场景再回归到理论层面进行思考和抽象,这样能吃的更透。
4.如何设计一个MQ
了解了上面这些理论知识以及应用场景后,下面我们再一起看下:到底如何设计一个MQ?
4.1MQ的雏形
我们还是先从简单版的MQ 入手,如果只是实现一个很粗糙的MQ,完全不考虑生产环境的要求,该如何设计呢?
文章开头说过,任何 MQ 无外乎:一发一存一消费,这是MQ 最核心的功能需求。另外,从技术维度来看MQ 的通信模型,可以理解成:两次RPC + 消息转储。
有了这些理解,我相信只要有一定的编程基础,不用1个小时就能写出一个MQ 雏形:
- 直接利用成熟的RPC 框架(Dubbo 或者 Thift),实现两个接口,发消息和读消息。
- 消息放在本地内存中即可,数据结构可以用 JDK 自带的 ArrayBlockingQueue。
4.2写一个适用于生产环境的 MQ
当然,我们的目标绝不止一个MQ 雏形,而是希望实现一个可用于生产环境的消息中间件,那难度肯定就不是一个量级了,具体我们该如何下手呢?
1、先把握这个问题的关键点
假如我们还是只考虑最基础的功能:发消息、存消息、消息消费(支持发布-订阅模式)。
那在生产环境中,这些基础功能将面临那些挑战呢?我们很快想到下面这些:
- 高并非场景下,如何保证收发消息的性能
- 如何保证消息服务的高可用和高可靠
- 如何保证消息服务是可以水平任意扩展的
- 如何保证消息存储也是水平可扩展的
- 各种元数据(比如集群中的各个节点、主题、消费关系等)如何管理,需不需要考虑数据的一致性
可见,高并发场景下的三高问题在你设计一个MQ 时都会遇到,【如何满足高性能、高可靠等非功能性需求】才是这问题的关键所在。
2、整体设计思路
先来看下整体架构,会涉及三类角色:
另外,将【一发一存一消费】这个核心流程进一步细化后,比较完整的数据流如下:
基于上面两个图,我们可以很快明确出3类角色的作用,分别如下:
- Broker(服务端):MQ中最核心的部分,是MQ 的服务端,核心逻辑几乎全在这里,他为生产者和消费者提供RPC 接口,负责消息的存储,备份和删除,以及消息关系的维护等。
- Producer(生产者):MQ 的客户端之一,调用Broker 提供的RPC 接口发送消息
- Consumer(消费者):MQ 的另一个客户端,调用Broker 提供的RPC 接口接收消息,同时完成消费确认。
3、详细设计
下面,再展开讨论下一些具体的技术难点和可行的解决方案。
难点1:RPC 通信
解决的是 Broker 和 Producer 以及 Consumer 之间的通信问题。如果不重复造轮子,直接利用成熟的RPC 框架Dubbo 或者 Thrift 实现即可,这样不需要考虑服务注册与发现、负载均衡、通信协议、序列化方式等一系列问题了。
当然,你也可以基于Netty 来做底层通信,用 Zookeeper、Euraka 等来做注册中心,然后自定义一套新的通信协议(类似Kafka),也可以基于AMQP这种标准化的MQ 协议来实现(类似RabbitMQ)。对比直接用RPC 框架,这种方案的定制化能力和优化空间更大。
难点2:高可用设计
高可用主要涉及两方面:Broker服务的高可用、存储方案的高可用。可以拆开讨论。
Broker服务的高可用,只需要保证Broker 可水平扩展进行集群部署即可,进一步通过服务自动注册与发现、负载均衡、超时重试机制、发送和消费消息时的ack 机制来保证。
存储方案的高可用有两个思路:
- 参考Kafka 的分区+ 多副本模式,到那时需要考虑分布式场景下数据复制和一致性方案(类似Zab、Raft等协议),并实现自动故障转移;
- 还可以用主流的DB、分布式文件系统、带持久化能力的 KV 系统,他们都有自己的高可用方案。
难点3:存储设计
消息的存储方案时 MQ 的核心部分,可靠性保证已经再高可用设计中谈过了,可靠性要求不高的话,直接用内存或者分布式缓存也可以。这里重点说一下存储的高新能如何保证?这个问题的决定因素在于存储结构的设计。
目前主流的方案时:追加写日志文件(数据部分)+ 索引文件的方式(很多主流的开源MQ 都是这种方式),索引设计上可以考虑稠密索引或者稀疏索引,查找消息可以利用跳转表。二分查找等,还可以通过操作系统的页缓存、零拷贝等技术来提升磁盘文件的读写性能。
如果不追求很高的性能,也可以考虑线程的分布式文件系统、KV 存储或者数据库方案。
难点4:消费关系管理
为了支持发布-订阅的广播模式,Broker需要知道每个主题都有哪些Consumer订阅了,基于这个关系进行消息投递。
由于Broker 是集群部署的,所以消费关系通常维护在公共存储上,可以基于Zookeeper、Apollp等配置中心来管理以及进行变更通知。
难点5:高新能设计
存储的高性能前面已经谈过了,当然还可以从其他方面进一步优化性能。
比如Reactor 网络 IO 模型、业务线程池的设计、生产端的批量发送、Broker 端的异步刷盘、消费端的批量拉取等等。
4.3小结
在总结下,如何设计一个MQ?
- 需要从功能性需求(收发消息)和非功能性需求(高性能、高可用、高扩展等)两方面入手。
- 功能性需求不是重点,能覆盖MQ 最基础的功能即可,至于延时消息。事务消息、重试队列等高级特性只是锦上添花的东西。
- 最核心的是:能结合功能性需求,理清楚整体的数据流,然后顺着这个思路去考虑非功能性的诉求如恶化满足,这才是技术难点所在。
5.写在最后
上面这些内容从 MQ 一发一存一消费 这个本质出发,讲解了消息模型的演进过程,这是MQ 最核心的理论基础。基于此,大家也能更容易理解MQ的各种新名词以及应用场景。
