Rabbitmq学习笔记 (尚硅谷)
尚硅谷 rabbitmq 教程
1.MQ 的概念
1.1 什么是 MQ?
存放消息的队列,互联网架构中常见的一种服务与服务之间通信的方式。
1.2 为什么要用 MQ?
三大好处,削峰,解耦,异步。
削峰
比如秒杀,或者高铁抢票,请求在某些时间点实在是太多了,服务器处理不过来,可以把请求放到 MQ 里面缓冲一下,把一秒内收到的 1 万个请求放到队列里面,花 10 分钟去消费队列里的请求。
解耦
比如有一个服务 A 每天都采集数据并计算各种数据,服务 B 需要调用服务 A 的接口获取数据,就在 A 开一个接口获取。那如果出现新的服务 C,D,E 它们都需要服务 A 的数据呢,又要改代码调用 A 的接口去获取数据。这样几个服务就耦合了。如果 A 把数据放到 MQ 里,B,C,D,E 服务它们谁要数据就自己去 MQ 里面拿,这样就把系统给解耦了。
异步
服务 A 需要调用服务 B 的接口,并需要知道服务 B 的处理结果。一般要么就 A 那边同步等待接口的响应,要么就是 A 那边过一会再调用 B 的一个接口查询,要么就是 B 完成之后调用 A 的一个接口通知。 这样要异步的话,至少要写两个接口,如果使用 MQ,自动就带有回调功能。很好的满足了异步的需求。
1.3 MQ 的分类
ActiveMQ
- 优点:单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性高,低概率丢失数据
- 缺点:官方社区现在对 ActiveMQ 5.X 维护越来越少,高吞吐量场景较少使用。
Kafka
- 大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件,以其百万级 TPS 的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber,Twitter,Netflix 等大公司所采纳。
- 优点:性能卓越,单机写入 TPS 约在百万条/秒,最大的优点,就是吞吐量高。时效性 ms 级可用性非常高,kafka 是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用,消费者采用 pull 方式获取消息,消息有序,通过控制能够保证所有的消息被消费且仅被消费一次;有优秀的第三方 kafka web 管理界面 kafka-manager;在日志领域比较成熟,被多家公司和多个开源项目所使用;功能支持:功能较为简单,主要支持简单的 MQ 功能,在大数据领域的实时计算以及日志采集被大规模使用
- 缺点:kafka 单机超过 64 个队列/分区,Load 会发生明显的飙高现象,队列越多,load 越高,发送消息的响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序,但是一台代理宕机后,会产生消息乱序,社区更新较慢。
RocketMQ
- RocketMQ 出自阿里巴巴的开源产品,用 java 语言实现,在设计时参考了 kafka,并做出了自己的一些改进。被阿里巴巴应用在订单交易, 充值, 流计算, 消息推送, 日志流式处理, binglog 分发等场景。
- 优点:单机吞吐量十万级,可用性非常高,分布式架构,消息可以做到 0 丢失,MQ 功能较为完善,还是分布式的,扩展性好,支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,源码是 java 我们可以自己阅读源码,定制自己公司的 MQ。
- 缺点:支持的客户端语言不多,目前是 java 及 c++,其中 c++ 不成熟;社区活跃度一般,没有在 MQ 核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码。
RabbitMQ
- 是一个在 AMQP (高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
- 优点:由于 erlang 语言的高并发特性,性能较好;吞吐量到万级,MQ 功能比较完善,健壮、稳定、易用、跨平台、支持多种语言。如:python、ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP 等,支持 AJAX。文档齐全,开源提供管理界面棒,好用,社区活跃高;更新频率相当高。
- 缺点:商业版需要收费,学习成本较高。
1.4 MQ 的选择
Kafka
Kafka 主要特定是基于 pull 的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能,肯定是首选 Kafka 了。
RocketMQ
天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务消峰,在大量交易涌入时,后端可能无法计时处理的情况。RocketMQ 在稳定性上可能更值得信赖。这些业务场景在阿里双 11 已经经历了多次考验,如果你的业务有上述并发场景,建议可以使用 RocketMQ。
RabbitMQ
结合 erlang 语言本身的并发优势,性能好时效性微秒级、社区活跃度也较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的 RabbitMQ。
1.5 RabbitMQ 的基础概念
生产者
产生数据发送消息的程序是生产者
交换机
交换机是 RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须确切的知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推送到多个队列,亦或者是把消息丢弃,这个得由交换机类型决定。
队列
队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序,但它们只能存储在队列中。队列仅受主机的内存和磁盘限制约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式。
消费者
消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在一个机器上。同一个应用程序既可以是生产者又可以是消费者。
1.6 RabbitMQ 核心部分
1.7 RabbitMQ 名词介绍
Broker:接收和分发新消息的应用,RabbitMQ Server 就是 Message Broker
Virtual host:出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似与网络中的 namespace 概念。当多个不同的用户使用同一个 RabbitMQ Server 提供的服务时,可以划分出多个 vhost,多个用户在自己的 vhost 创建 exchange / queue 等。
Connection:Producer 和 Channel 与 broker 之间的连接。
Channel:如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立 TCP Connection 的开销将是巨大的,效率也较低。Channel 是在 Connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 Thread 建立单独的 Channel 进行通讯。AMQP 包含了 channel id 帮助客户端和 Message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的 Connection 极大减少了操作系统建立 TCP Connection 的开销。
Exchange:Message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发到 queue 中去。常用的类型有:direct(point-to-point), topic (publish-subscribe) and fanout (multicast)
Queue:消息最终被放到这里等待被 comsumer 取走。
Binding:exchange 和 queue 之间的虚拟连接,binding 中可以包含有 routing key,binding 信息被保存到 exchange 中的查询表中,用于 message 的分发依据。
1.8 RabbitMQ 的安装
rabbitmq安装
2.Hello World
2.1 依赖
<dependencies><!--rabbitmq 依赖客户端--><dependency><groupId>com.rabbitmq</groupId><artifactId>amqp-client</artifactId><version>5.8.0</version></dependency><!--操作文件流的一个依赖--><dependency><groupId>commons-io</groupId><artifactId>commons-io</artifactId><version>2.6</version></dependency>
</dependencies>
2.2 消息生产者
package com.kwin.rabbitmq.one;import com.rabbitmq.client.Channel;
import com.rabbitmq.client.Connection;
import com.rabbitmq.client.ConnectionFactory;import java.io.IOException;
import java.util.concurrent.TimeoutException;/*** @Author: huowenhao* @Date: 2022/1/18* @Description: com.kwin.rabbitmq.one* @version: 1.0*/
public class Producer {//队列名称private static final String QUEUE_NAME = "hello";//发消息public static void main(String[] args) throws IOException, TimeoutException {//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工厂ip 连接RabbitMQ的队列factory.setHost("119.91.219.72");//用户名factory.setUsername("admin");//密码factory.setPassword("a123456");//创建连接Connection connection = factory.newConnection();//获取信道Channel channel = connection.createChannel();/*** 生成一个队列* 1.队列名称* 2.队列里面的消息是否持久化(磁盘) 默认情况下存储在内存中* 3.该队列是否只供一个消费者进行消费,是否可以消息共享,true可以多个消费者消费, false只能一个消费者消费* 4.是否自动删除 最后一个消费者断开连接之后,该队列是否自动删除 true自动删除 false不自动删除* 5.其他参数*/channel.queueDeclare(QUEUE_NAME, false, false, false, null);//发消息/*** 发送一个消息* 1.发送到那个交换机* 2.路由的key值是那一个 本次是队列名称* 3.其他参数信息* 4.发送消息的消息体*/String message = "hello world";channel.basicPublish("", QUEUE_NAME, null, message.getBytes());System.out.println("消息发送完毕");}
}
2.3 消息消费者
package com.kwin.rabbitmq.one;import com.rabbitmq.client.*;import java.io.IOException;
import java.util.concurrent.TimeoutException;/*** @Author: huowenhao* @Date: 2022/1/18* @Description: com.kwin.rabbitmq.one* @version: 1.0*/
public class Consumer {//队列名称private static final String QUEUE_NAME = "hello";//接收消息public static void main(String[] args) throws IOException, TimeoutException {//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工厂ip 连接RabbitMQ的队列factory.setHost("119.91.219.72");//用户名factory.setUsername("admin");//密码factory.setPassword("a123456");//创建连接Connection connection = factory.newConnection();//获取信道Channel channel = connection.createChannel();//声明DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println(new String(message.getBody()));};CancelCallback cancelCallback = consumerTag -> {System.out.println("消息消费被中断");};/*** 消费者消费消息* 1.消费哪个队列* 2.消费成功之后是否要自动应答,true代表自动应答,false代表手动应答* 3.消费者未成功消费的回调* 4.消费者取消消费的回调*/channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);}
}
3.Work Queues
工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。
3.1 轮询分发消息
该 demo 中一个线程发消息,两个工作线程处理消息
抽取获取连接的工具类
package com.kwin.rabbitmq.utils;import com.rabbitmq.client.Channel;
import com.rabbitmq.client.Connection;
import com.rabbitmq.client.ConnectionFactory;/*** @Author: huowenhao* @Date: 2022/1/23* @Description: RabbitMq工具类* @version: 1.0*/
public class RabbitMqUtils {//得到一个连接的 channelpublic static Channel getChannel() throws Exception {//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();factory.setHost("119.91.219.72");factory.setUsername("admin");factory.setPassword("a123456");Connection connection = factory.newConnection();Channel channel = connection.createChannel();return channel;}
}
启动两个工作线程
package com.kwin.rabbitmq.two;import com.kwin.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.CancelCallback;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
import com.rabbitmq.client.Delivery;import java.sql.DriverManager;/*** @Author: huowenhao* @Date: 2022/1/23* @Description: 工作线程* @version: 1.0*/
public class Worker01 {//队列名称private static final String QUEUE_NAME = "hello1";//消息消费的方法private static void consumeMessage(String threadName) throws Exception {Channel channel = RabbitMqUtils.getChannel();DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println(threadName + ",接收到消息:" + new String(message.getBody()));};CancelCallback cancelCallback = consumerTag -> {System.out.println(threadName + ",消息消费被中断");};System.out.println(threadName + "启动,等待消费......");channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);}public static void main(String[] args) {for (int i = 1; i <= 2; i++) {new Thread(()->{try {consumeMessage(Thread.currentThread().getName());} catch (Exception e) {e.printStackTrace();}}, "工作线程" + i).start();}}
}
启动一个发送线程
package com.kwin.rabbitmq.two;import com.kwin.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;import java.util.Scanner;/*** @Author: huowenhao* @Date: 2022/1/23* @Description: 生产者* @version: 1.0*/
public class Task01 {//队列名称private static final String QUEUE_NAME = "hello1";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();/*** 生成一个队列* 1.队列名称* 2.队列里面的消息是否持久化(磁盘) 默认情况下存储在内存中* 3.该队列是否只供一个消费者进行消费,是否可以消息共享,true可以多个消费者消费, false只能一个消费者消费* 4.是否自动删除 最后一个消费者断开连接之后,该队列是否自动删除 true自动删除 false不自动删除* 5.其他参数*/channel.queueDeclare(QUEUE_NAME, false, false, false, null);Scanner scanner = new Scanner(System.in);while (scanner.hasNext()) {String message = scanner.next();channel.basicPublish("", QUEUE_NAME, null, message.getBytes());System.out.println("消息发送完成:" + message);}}
}
测试
先启动两个工作线程
启动消息发送的线程,控制台输入AA、BB、CC…
查看工作线程日志
3.2 消息应答
概念
消费者处理一个任务可能需要一段比较长的时间,如果其中一个消费者处理一个长的任务并只完成了部分就挂掉了,会发生什么情况。RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记删除,在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息,以及后续发送给该消费者的消息,因为它无法接收到。
为了保证消息在发送过程中不丢失,RabbitMQ 引入了消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,它告诉 RabbitMQ 它已经处理了,RabbitMQ 可以把消息删除了。
自动应答
自动应答就是消息发送之后立即被认为已经传输成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果在消息接收到之前,消费者那边出现连接或者 channel 关闭,那么消息就丢失了。当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递消息的数量进行限制,当然这样可能导致消费者这边由于接收太多来不及处理的消息,导致这些消息积压,最终导致内存耗尽,最终这些消费者线程被操作系统杀死。所以这种模式仅适用在消费者可以高效并以某种速率可以处理这些消息的情况下使用。
消息应答的方法
Channel.basicAck(用于肯定确认)
- 消息者已经拿到该消息并且已经成功的处理了消息,mq 队列中可以将其丢弃了。
Channel.basicNack(用于否定确认)
Channel.basicReject(用于否定确认)
- 与 basicNack 相比少了一个参数,不处理消息了,直接拒绝,可以将其丢弃了。
Multiple 的解释
手动应答的好处是可以批量应答并且减少网络拥堵
multiple 的 true 和 false 代表的不同含义:
- true 代表批量应答 channel 上未应答的消息。比如 channel 上传输有 tag 的消息 5,6,7,8。当前 tag 是 8 那么此时 5-8 的这些还未应答的消息都会被确认收到消息应答
- false 同上面相比。只会应答 tag = 8 的消息,5,6,7 这三个消息依然不会被确认收到消息应答。
消息自动重新入队
如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。
消息手动应答代码
public class Task02 {//队列名称private static final String QUEUE_NAME = "ack_queue";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();channel.queueDeclare(QUEUE_NAME, false, false, false, null);Scanner scanner = new Scanner(System.in);while (scanner.hasNext()) {String message = scanner.next();channel.basicPublish("", QUEUE_NAME, null, message.getBytes());System.out.println("消息发送完成:" + message);}}
}
public class Worker02 {//队列名称private static final String QUEUE_NAME = "ack_queue";//消息消费的方法private static void consumeMessage(String threadName) throws Exception {Channel channel = RabbitMqUtils.getChannel();DeliverCallback deliverCallback = (consumerTag, message) -> {sleep(1);System.out.println(threadName + ",接收到消息:" + new String(message.getBody()));/*** 1.消息标记tag* 2.false代表值应答接收到的那个传递的消息 true为应答所有消息包括传递过来的消息*/channel.basicAck(message.getEnvelope().getDeliveryTag(), false);};CancelCallback cancelCallback = consumerTag -> {System.out.println(threadName + ",消息消费被中断");};System.out.println(threadName + "启动,等待消费......");//手动应答channel.basicConsume(QUEUE_NAME, false, deliverCallback, cancelCallback);}private static void sleep(int seconds) {try {TimeUnit.SECONDS.sleep(seconds);} catch (InterruptedException e) {e.printStackTrace();}}public static void main(String[] args) throws Exception {System.out.println("Worker02处理消息的时间较短");consumeMessage("Worker02");}
}
public class Worker03 {//队列名称private static final String QUEUE_NAME = "ack_queue";//消息消费的方法private static void consumeMessage(String threadName) throws Exception {Channel channel = RabbitMqUtils.getChannel();DeliverCallback deliverCallback = (consumerTag, message) -> {sleep(10);System.out.println(threadName + ",接收到消息:" + new String(message.getBody()));/*** 1.消息标记tag* 2.false代表值应答接收到的那个传递的消息 true为应答所有消息包括传递过来的消息*/channel.basicAck(message.getEnvelope().getDeliveryTag(), false);};CancelCallback cancelCallback = consumerTag -> {System.out.println(threadName + ",消息消费被中断");};System.out.println(threadName + "启动,等待消费......");//手动应答channel.basicConsume(QUEUE_NAME, false, deliverCallback, cancelCallback);}private static void sleep(int seconds) {try {TimeUnit.SECONDS.sleep(seconds);} catch (InterruptedException e) {e.printStackTrace();}}public static void main(String[] args) throws Exception {System.out.println("Worker03处理消息的时间较长");consumeMessage("Worker03");}
}
先启动 Task02 创建队列,之后启动 Worker02 和 Worker03,输入 AA,BB, CC…可以发现由于 Worker03 处理消息较慢,导致消息重新入队,消息被 Worker02 消费。
3.3 消息持久化
概念
如何保障 RabbitMQ 服务停掉之后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或者由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。
实现队列持久化
我们之前创建的消息都是非持久化的,rabbitmq 如果重启的话,该队列就会被删除掉,如果队列实现持久化。需要在声明队列的时候把 durable 参数设置为持久化。
如果之前队列不是持久化的,现在设置为持久化,需要把原先队列先删除掉,或者重新创建一个持久化的队列,不然就会出现错误。
设置为持久化后
这时即使重启 RabbitMQ 队列也依旧存在
实现消息持久化
要想让消息持久化需要在消息生产者修改代码,MessageProperties.PERSISTENT_TEXT_PLAIN 添加这个属性
将消息标记为持久化并不能保证完全不丢失消息。尽管告诉 RabbitMQ 将消息保存到磁盘,但是依然存在当消息刚刚准备存到磁盘的时候但是还没存储完时 MQ 崩了的情况。
实现不公平分发
前面的 RabbitMQ 使用的轮询分发,在某种场景下这种策略并不是很好,比方说两个消费者在处理任务,其中有一个消费者1处理任务的速度非常快,而另外一个消费者2处理的速度却很慢,这个时候如果我们还是采用轮询分发的话就会导致处理速度快的这个消费者很大一部分时间处于空闲状态,而处理速度慢的那个消费者一直在干活。
为了避免这种情况,可以设置参数 channel.basicQos(1);
意思就是如果这个任务还没有处理完或者我还没有应答你,你先别分配给我,我目前只能处理一个任务,然后rabbitmq 就会把给任务分配给没有那么忙的那个空闲消费者。
预期值
本身消息的发送就是异步发送的,所以在任何时候,channel 上肯定不止只有一个消息。另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。这个时候就可以通过使用 basicQos 方法设置“预取计数”值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ 将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认。例如,假设通道上有未确认的消息 5、6、7、8,并且通道的预取计数设置为 4,此时 RabbitMQ 将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被 ack。比方说 tag = 6 这个消息刚刚被确认 ACK,RabbitMQ 将会感知这个情况并再发送一条消息。消息应答和 QoS 预期值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度。虽然自动应答传输消息的速率是最佳的,但是,在这种情况下已传递但尚未处理的消息数量也会增加,从而增加了消费者的 RAM 消耗。应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程。不同的负载该值取值也会不同。100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。
4.发布确认
4.1 发布确认原理
生产者将 channel 设置成 confirm 模式,一旦 channel 进入 confirm 模式,所有在该 channel 上面发布的消息都将会被指派一个唯一的 ID(从 1 开始)。一旦消息被投到所有匹配的队列后,broker 就会发送一个确认给生产者(包含消息的唯一 ID),这就使得生产者知道消息已经正确到达目的队列了。如果消息和队列是可持久化的,那么确认消息将会在消息写入磁盘后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号,此外 broker 也可以设置成 basic.ack 的 multiple,表示得到这个序列号之前的所有消息都已经得到了处理。
confirm 模式最大的好处在于它是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认后,生产者应用便可以通过回调方法来处理该确认消息。如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack 消息。
4.2 发布确认策略
开启发布确认的方法
发布确认默认是没有开启的,如果开启需要调用方法 confirmSelect,每当你要想使用发布确认,都需要在 channel 上调用该方法。
channel.confirmSelect()
单个确认发布
这是一种简单的确认方式,它是一种同步确认发布的方式。也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布,waitForConfirmsOrDie(long) 这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认它将抛出异常。
这种确认方式有一个最大的缺点就是:发布速度特别慢,因为如果没有确认发布的消息就会阻塞后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然如果对于某些应用程序来说已经足够了。
//单个确认
public static void publicMessageIndividually() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, true, false, false, null );//开启发布确认channel.confirmSelect();long begin = System.currentTimeMillis();for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("", queueName, null, message.getBytes());//服务端返回false或者超时时间内未返回,生产者可以消息重发boolean flag = channel.waitForConfirms();if (flag) {System.out.println("消息发送成功");}}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个单独确认消息,耗时" + (end - begin) + "ms");
}
发布1000个单独确认消息,耗时8150ms
批量确认发布
单个确认发布非常慢,与单个确认发布相比,先发布一批消息然后一起确认可以极大的提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了。我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。
//批量确认
public static void publicMessageBatch() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, true, false, false, null );//开启发布确认channel.confirmSelect();//批量确认消息大小int batchSize = 100;//未确认消息个数int outstandingMessageCount = 0;long begin = System.currentTimeMillis();for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("", queueName, null, message.getBytes());outstandingMessageCount++;if (outstandingMessageCount == batchSize) {channel.waitForConfirms();outstandingMessageCount = 0;}}//为了确保没有未确认的消息if (outstandingMessageCount > 0) {channel.waitForConfirms();}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个批量确认消息,耗时" + (end - begin) + "ms");
}
异步确认发布
异步确认虽然逻辑上比上面两个要复杂,但是性价比最高,无论是可靠性还是效率都没的说,它是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功。
public static void publishMessageAsync() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, true, false, false, null);//开启发布确认channel.confirmSelect();/*** 确认消息的一个回调* 1.消息序列号* 2.true 可以确认小于等于当前序列号的消息* false 确认当前序号的消息*/ConfirmCallback ackCallback = (deliveryTag, multiple) -> {System.out.println(deliveryTag + "消息被确认");};/*** 确认消息失败的一个回调* 1.消息序列号* 2.true 可以确认小于等于当前序列号的消息* false 确认当前序号的消息*/ConfirmCallback nackCallback = (deliveryTag, multiple) -> {System.out.println(deliveryTag + "消息未被确认");};/*** 添加一个异步确认的监听器* 1.确认收到消息的回调* 2.未收到消息的回调*/channel.addConfirmListener(ackCallback, nackCallback);long begin = System.currentTimeMillis();for (int i = 0; i < MESSAGE_COUNT; i++) {String message = "消息" + i;channel.basicPublish("", queueName, null, message.getBytes());}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个批量确认消息,耗时" + (end - begin) + "ms");
}
如何处理异步未确认消息
最好的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue 这个队列在 confirm callbacks 与发布线程之间进行消息的传递。
public static void publishMessageAsync1() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, true, false, false, null);//开启发布确认channel.confirmSelect();/*** 线程安全有序的一个哈希表,适用于高并发的情况* 1.轻松的将序号与消息进行关联* 2.轻松批量删除条目 只要给到序列号* 3.支持并发访问*/ConcurrentSkipListMap<Long, String> outStandingConfirms = new ConcurrentSkipListMap<>();/*** 确认消息的一个回调* 1.消息序列号* 2.true 可以确认小于等于当前序列号的消息* false 确认当前序号的消息*/ConfirmCallback ackCallback = (deliveryTag, multiple) -> {//删除掉已经确认的消息 剩下的就是未确认的消息if (multiple) {ConcurrentNavigableMap<Long, String> confirmed = outStandingConfirms.headMap(deliveryTag);confirmed.clear();} else {outStandingConfirms.remove(deliveryTag);}System.out.println(deliveryTag + "消息被确认");};/*** 确认消息失败的一个回调* 1.消息序列号* 2.true 可以确认小于等于当前序列号的消息* false 确认当前序号的消息*/ConfirmCallback nackCallback = (deliveryTag, multiple) -> {System.out.println(deliveryTag + "消息未被确认");};/*** 添加一个异步确认的监听器* 1.确认收到消息的回调* 2.未收到消息的回调*/channel.addConfirmListener(ackCallback, nackCallback);long begin = System.currentTimeMillis();for (int i = 0; i < MESSAGE_COUNT; i++) {String message = "消息" + i;channel.basicPublish("", queueName, null, message.getBytes());//此处记录下所有要发送的消息 消息总和outStandingConfirms.put(channel.getNextPublishSeqNo(), message);}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个批量确认消息,耗时" + (end - begin) + "ms");
}
以上 3 种发布确认速度对比
单独发布确认消息
- 同步等待确认,简单,但吞吐量十分有限
批量发布消息
- 批量同步等待确认,简单,合理的吞吐量,一旦出现问题就很难找出是哪条消息出现了问题
异步处理
- 最佳性能和资源使用,在出现错误的情况下可以很好的控制,但是实现起来稍微有点难
5.交换机
5.1 Exchanges
Exchanges 概念
上一节我们创建了一个工作队列,我们假设的是工作队列背后,每个任务都恰好交付给一个消费者(工作进程)。本节我们会将消息传达给多个消费者,这种模式称为“发布订阅”。
为了说明这种模式,我们将构建一个简单的日志系统。它由两个程序组成:第一个程序将发出日志消息,第二个程序是消费者。其中我们会启动两个消费者,其中一个消费者接收到消息后把日志存储在磁盘,另外一个消费者接收到消息之后把消息打印在屏幕上,事实上第一个程序发出的日志消息将广播给所有消费者。
Exchanges 类型
总共有以下类型:
- 直接(direct)
- 主题(topic)
- 标题(headers)
- 扇出(fanout)
无名 Exchange
前面写代码时不知道交换机是什么,但是仍然能将消息发送到队列。能够这样的原因是使用的是默认交换机,通过空字符串 “” 标识。
第一个参数是交换机的名称。空字符串表示默认或者无名交换机:消息能路由发送到队列中其实是由 routingKey (bindingKey) 绑定 key 指定的,如果它存在的话。
5.2 临时队列
之前我们使用的是具有特定名称的队列,队列的名称特别重要,需要指定我们的消费者去消费哪个队列的消息。
每当我们连接到 RabbitMq 时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者能让服务器为我们选择一个随机队列名称就更好了。其次一旦我们断开了消费者的连接,队列将被自动删除。
创建临时队列的方式为:channel.queueDeclare().getQueue();
创建出来之后长这样:
5.3 绑定
绑定概念
binding 是 exchange 和 queue 之间的桥梁,它告诉我们 exchange 和哪个队列进行了绑定关系。比如说下面这张图告诉我们的就是 X 和 Q1、Q2进行了绑定。
图形化界面中的绑定操作
先新建一个 queue
再新建一个 Exchange
点进去新建的 Exchange
5.4 Fanout 交换机
Fanout 介绍
Fanout 这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播到它知道的所有队列中。
Fanout 实战
public class ReceiveLogs01 {private static final String EXCHANGE_NAME = "logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明一个交换机channel.exchangeDeclare(EXCHANGE_NAME, "fanout");/*** 生成一个临时队列,队列的名称是随机的* 当消费者断开与队列的连接的时候,队列就自动删除*/String queueName = channel.queueDeclare().getQueue();channel.queueBind(queueName, EXCHANGE_NAME, "");System.out.println("等待接收消息,把接收到的消息打印在屏幕上......");//接收消息DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("控制台01打印接收到的消息:" + new String(message.getBody()));};//消费者取消消息时回调接口channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}
}
public class ReceiveLogs02 {private static final String EXCHANGE_NAME = "logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明一个交换机channel.exchangeDeclare(EXCHANGE_NAME, "fanout");/*** 生成一个临时队列,队列的名称是随机的* 当消费者断开与队列的连接的时候,队列就自动删除*/String queueName = channel.queueDeclare().getQueue();channel.queueBind(queueName, EXCHANGE_NAME, "");System.out.println("等待接收消息,把接收到的消息打印在屏幕上......");//接收消息DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("控制台02打印接收到的消息:" + new String(message.getBody()));};//消费者取消消息时回调接口channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}
}
public class EmitLog {private static final String EXCHANGE_NAME = "logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();channel.exchangeDeclare(EXCHANGE_NAME, "fanout");Scanner scanner = new Scanner(System.in);while (scanner.hasNext()) {String message = scanner.next();channel.basicPublish(EXCHANGE_NAME, "", null, message.getBytes());System.out.println("生产者发出消息:" + message);}}
}
5.5 Direct 交换机
绑定是交换机和队列之间的桥梁关系,可以这么理解:队列只对它绑定的交换机的消息感兴趣。绑定用参数 routingKey 来表示也可称该参数 binding key,创建绑定我们用代码 channel.queueBind(queueName, EXCHANGE_NAME, “routingKey”)。绑定之后的意义由其交换类型决定。
Direct Exchange 介绍
如果我们希望日志消息写入磁盘的程序仅接收 error 日志,而不存储 warning 日志和 info 日志,避免浪费磁盘空间。Fanout 这种交换类型并不能带来很大的灵活性,它只能进行无意识的广播,在这里我们将使用 direct 这种类型来进行替换。这种类型的工作方式是,消息只去到它绑定的 routingkey 队列中去。
上图中交换机绑定了两个队列,绑定类型是 direct。队列 Q1 的 routingkey 有两个,info 和 warning。队列 Q2的 routingkey 有一个,error。在这种绑定关系下,生产者发布消息到交换机,routingkey 为 info 或者 warning的消息会被发送到 Q1,routingkey 为 error 的消息会被发送到 Q2。
多重绑定
当然如果 exchange 的绑定类型是 direct,但是它绑定的多个队列的 routingkey 都相同,这种情况下虽然绑定类型是 direct 但是它表现的就和 fanout 有点类似了,就跟广播差不多,如下图所示:
Direct exchange 实战
public class ReceiveLogDirect01 {private static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明一个交换机channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);//声明一个队列channel.queueDeclare("console", false, false, false, null);channel.queueBind("console", EXCHANGE_NAME, "info");channel.queueBind("console", EXCHANGE_NAME, "warning");//接收消息DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogDirect01打印接收到的消息:" + new String(message.getBody()));};//消费者取消消息时回调接口channel.basicConsume("console", true, deliverCallback, consumerTag -> {});}
}
public class ReceiveLogDirect02 {private static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明一个交换机channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);//声明一个队列channel.queueDeclare("disk", false, false, false, null);channel.queueBind("disk", EXCHANGE_NAME, "error");//接收消息DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogDirect02打印接收到的消息:" + new String(message.getBody()));};//消费者取消消息时回调接口channel.basicConsume("disk", true, deliverCallback, consumerTag -> {});}
}
public class DirectLog {private static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();channel.exchangeDeclare(EXCHANGE_NAME, "direct");Scanner scanner = new Scanner(System.in);while (scanner.hasNext()) {String message = scanner.next();channel.basicPublish(EXCHANGE_NAME, "warning", null, message.getBytes());System.out.println("生产者发出消息:" + message);}}
}
5.6 Topics 交换机
前面使用 fanout 交换机实现了消息广播,使用 direct 交换机实现了有选择性的接收日志。但是仍然有局限性,比方说我们想接收的消息类型有 info.base 和 info.advantage,某个队列只想接收 info.base 消息,那 direct 就办不到了。这个时候就使用 topic 交换机。
Topics 交换机要求
发送类型是 topic 交换机的消息的 routingkey 不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号隔开。这些单词可以是任意单词,比如说:stock.usd.me。当然这个单词列表不能超过 255 个字节。
在这个规则列表中,其中有两个替换符是需要注意的:
(1) * 号可以代替一个单词
(2) # 号可以代替 0 个或多个单词
Topics 匹配案例
Q1 绑定的是中间带 orange 的带 3 个单词的字符串(.orange.)
Q2 绑定的是
-
最后一个单词是 rabbit 的 3 个单词的字符串(..rabbit)
-
第一个单词是 lazy 的多个单词(lazy.#)
上图是一个队列绑定的关系图,数据接收的情况如下:
quick.orange.rabbit 被队列 Q1Q2 接收到
lazy.orange.elephant 被队列 Q1Q2 接收到
quick.orange.fox 被队列 Q1 接收到
lazy.brown.fox 被队列 Q2 接收到
lazy.pink.rabbit 虽然满足两个绑定但只被队列 Q2 接收一次
quick.brown.fox 不匹配任何绑定不会被任何队列接收到会被丢弃
quick.orange.male.rabbit 是四个单词不匹配任何绑定会被丢弃
lazy.orange.male.rabbit 是四个单词但匹配 Q2
当队列绑定关系是下列这两种情况时需要注意:
- 当一个队列绑定键是 #,那么这个队列将接收所有数据,有点像 fanout
- 如果队列绑定键中没有 # 和 .,那么该队列绑定类型就是 direct 了
Topics 实战
public class ReceiveLogsTopic01 {//交换机的名称public static final String EXCHANGE_NAME = "topic_logs";//接收消息public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明交换机channel.exchangeDeclare(EXCHANGE_NAME, "topic");//声明队列String queueName = "Q1";channel.queueDeclare(queueName, false, false, false, null);channel.queueBind(queueName, EXCHANGE_NAME, "*.orange.*");System.out.println("等待接收消息......");//接收消息DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogsTopic01打印接收到的消息:" + new String(message.getBody()));System.out.println("接收队列" + queueName + ",绑定键" + message.getEnvelope().getRoutingKey());};//消费者取消消息时回调接口channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}
}
public class ReceiveLogsTopic02 {//交换机的名称public static final String EXCHANGE_NAME = "topic_logs";//接收消息public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明交换机channel.exchangeDeclare(EXCHANGE_NAME, "topic");//声明队列String queueName = "Q2";channel.queueDeclare(queueName, false, false, false, null);channel.queueBind(queueName, EXCHANGE_NAME, "*.*.rabbit");channel.queueBind(queueName, EXCHANGE_NAME, "lazy.#");System.out.println("等待接收消息......");//接收消息DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogsTopic02打印接收到的消息:" + new String(message.getBody()));System.out.println("接收队列" + queueName + ",绑定键" + message.getEnvelope().getRoutingKey());};//消费者取消消息时回调接口channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}
}
public class EmitLogTopic {private static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();channel.exchangeDeclare(EXCHANGE_NAME, "topic");Map<String, String> bindingKeyMap = new HashMap<>();bindingKeyMap.put("quick.orange.rabbit", "被队列 Q1Q2 接收到");bindingKeyMap.put("lazy.orange.elephant", "被队列 Q1Q2 接收到");bindingKeyMap.put("quick.orange.fox", "被队列 Q1 接收到");bindingKeyMap.put("lazy.brown.fox", "被队列 Q2 接收到");bindingKeyMap.put("lazy.pink.rabbit", "虽然满足两个绑定但只被队列 Q2 接收一次");bindingKeyMap.put("quick.brown.fox", "不匹配任何绑定不会被任何队列接收到会被丢弃");bindingKeyMap.put("quick.orange.male.rabbit", "是四个单词不匹配任何绑定会被丢弃");bindingKeyMap.put("lazy.orange.male.rabbit", "是四个单词但匹配 Q2");for (Map.Entry<String, String> bindingKeyEntry : bindingKeyMap.entrySet()) {String routingKey = bindingKeyEntry.getKey();String message = bindingKeyEntry.getValue();channel.basicPublish(EXCHANGE_NAME, routingKey, null, message.getBytes());System.out.println("生产者发出消息:" + message);}}
}
6.死信队列
6.1 死信的概念
先从概念解析上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer 将消息投递到 broker 或者直接到 queue 里了,consumer 从 queue 取出消息进行消费,但某些时候由于特定的原因导致 queue 中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
6.2 死信的来源
- 消息TTL
- 队列达到最大长度(队列满了,无法再添加数据到 mq 中)
- 消息被拒绝(basic.reject 或 basic.nack)并且 requeue=false
6.3 死信实战
代码架构图
消息 TTL 过期
消费者 C1 代码(启动之后关闭该消费者,模拟器接收不到消息)
public class Consumer01 {//普通交换机名称private static final String NORMAL_EXCHANGE = "normal_exchange";//死信交换机名称private static final String DEAD_EXCHANGE = "dead_exchange";//普通队列private static final String NORMAL_QUEUE = "normal_queue";//死信队列private static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明死信和普通交换机 类型为 directchannel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);//声明普通队列Map<String, Object> arguments = new HashMap<>();//过期时间 10s = 10000msarguments.put("x-message-ttl", 10000);//正常队列设置死信交换机arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);//设置死信routingKeyarguments.put("x-dead-letter-routing-key", "lisi");channel.queueDeclare(NORMAL_QUEUE, false, false, false, arguments);//声明死信队列channel.queueDeclare(DEAD_QUEUE, false, false, false, null);//绑定普通的交换机与普通的队列channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");//绑定死信的交换机与死信的队列channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("Consumer01接收的内容是:" + new String(message.getBody(), "UTF-8"));};channel.basicConsume(NORMAL_QUEUE, true, deliverCallback, consumerTag -> {});}
}
生产者代码
public class Producer {private static final String NORMAL_EXCHANGE = "normal_exchange";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//死信消息 设置TTL时间 单位是ms 10s = 10000msAMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();for (int i = 1; i < 11; i++) {String message = "info" + i;channel.basicPublish(NORMAL_EXCHANGE, "zhangsan", properties, message.getBytes());}}
}
消费者 C2 代码
public class Consumer02 {//死信队列的名称private static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("Consumer02接收的内容是:" + new String(message.getBody(), "UTF-8"));};channel.basicConsume(DEAD_QUEUE, true, deliverCallback, consumerTag -> {});}
}
消息达到最大长度
C1 消费者修改代码(启动之后关闭该消费者,模拟器接收不到消息),注意要先把原先的队列删除,因为参数改变了
生产者代码去掉 TTL 属性
C2 消费者代码不变,启动
消息被拒
消息生产者代码不变
C2 消费者代码不变
C1 消费者修改代码,注意要先把原先的队列删除,因为参数改变了
public class Consumer01 {//普通交换机名称private static final String NORMAL_EXCHANGE = "normal_exchange";//死信交换机名称private static final String DEAD_EXCHANGE = "dead_exchange";//普通队列private static final String NORMAL_QUEUE = "normal_queue";//死信队列private static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明死信和普通交换机 类型为 directchannel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);//声明普通队列Map<String, Object> arguments = new HashMap<>();//过期时间 10s = 10000ms
// arguments.put("x-message-ttl", 10000);//正常队列设置死信交换机arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);//设置死信routingKeyarguments.put("x-dead-letter-routing-key", "lisi");//设置正常队列的长度的限制
// arguments.put("x-max-length", 6);channel.queueDeclare(NORMAL_QUEUE, false, false, false, arguments);//声明死信队列channel.queueDeclare(DEAD_QUEUE, false, false, false, null);//绑定普通的交换机与普通的队列channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");//绑定死信的交换机与死信的队列channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {String msg = new String(message.getBody(), "UTF-8");if (msg.equals("info5")) {System.out.println("Consumer01接收的内容是:" + msg + ":此消息是被C1拒绝的");channel.basicReject(message.getEnvelope().getDeliveryTag(), false);}else{System.out.println("Consumer01接收的内容是:" + msg);channel.basicAck(message.getEnvelope().getDeliveryTag(), false);}};//开启手动应答channel.basicConsume(NORMAL_QUEUE, false, deliverCallback, consumerTag -> {});}
}
还可以查看死信队列里面的消息
7.延迟队列
7.1 延迟队列概念
延迟队列,队列内部都是有序的,最重要的特性就体现在它的延时性上,延时队列中的元素是希望在指定时间到了以后或之前出现取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。
7.2 延迟队列使用场景
1.订单 10 分钟内未支付则自动取消
2.新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
3.用户注册成功后,如果三天内没有登陆则进行短信提醒。
4.用户发起退款,如果三天内没有得到处理则通知相关运营人员。
5.预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议
这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭。看起来似乎使用定时任务,一直轮询数据,一秒钟查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则自动进行结算”这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭”,短期内未支付的订单数据可能较多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍使用轮询方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大的压力,无法满足业务要求且性能低下。
7.3 RabbitMQ 中的 TTL
TTL 是 RabbitMQ 中一个消息或者队列的属性,表明一条消息或者队列中的所有消息的最大存活时间,单位是毫秒。换句话说,如果一条消息设置了 TTL 属性或者进入了设置 TTL 属性的队列,那么这条消息如果在 TTL 时间内没有被消费,则会成为“死信”。如果同时设置了队列的 TTL 和消息的 TTL,那么较小的那个值将会被使用,有两种方式设置 TTL。
消息设置 TTL
或
队列设置 TTL
两者的区别
如果设置了队列的 TTL 属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中)。而消息设置 TTL,消息即使过期,也不一定会被马上丢弃,因为消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重消息积压情况,则已过期的消息也许还能存活较长时间;另外,还需要注意的一点是,如果不设置 TTL,表示消息永不过期,如果将 TTL 设置为 0,则表示除非此时可以直接投递该消息到消费者,否则该消息将会被丢弃。
延时队列,不就是想要消息延迟多久被处理吗,TTL 则刚好能让消息在延迟多久之后成为死信,另一方面,成为死信的消息都会被投递到死信队列里,这样只需消费者一直消费死信队列里的消息就完事了,因为里面的消息都是希望被立即处理的消息。
7.4 整合 SpringBoot
pom.xml
<dependencies><!--RabbitMQ 依赖--><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.47</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency><!--swagger--><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger2</artifactId><version>2.9.2</version></dependency><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger-ui</artifactId><version>2.9.2</version></dependency><!--RabbitMQ 测试依赖--><dependency><groupId>org.springframework.amqp</groupId><artifactId>spring-rabbit-test</artifactId><scope>test</scope></dependency>
</dependencies>
application.properties
spring.rabbitmq.host=119.91.219.72
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=a123456
添加 swagger 配置类
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import springfox.documentation.builders.ApiInfoBuilder;
import springfox.documentation.service.ApiInfo;
import springfox.documentation.service.Contact;
import springfox.documentation.spi.DocumentationType;
import springfox.documentation.spring.web.plugins.Docket;
import springfox.documentation.swagger2.annotations.EnableSwagger2;@Configuration
@EnableSwagger2
public class SwaggerConfig {@Beanpublic Docket webApiConfig() {return new Docket(DocumentationType.SWAGGER_2).groupName("webApi").apiInfo(webApiInfo()).select().build();}private ApiInfo webApiInfo() {return new ApiInfoBuilder().title("rabbitmq 接口文档").description("本文档描述了 rabbitmq 微服务接口定义").version("1.0").contact(new Contact("enjoy6288", "http://atguigu.com","1551388580@qq.com")).build();}
}
7.5 队列 TTL
代码架构图
创建两个队列 QA 和 QB,两者队列 TTL 分别设置为 10s 和 40s,然后再创建一个交换机 X 和死信队列交换机 Y,它们的类型都是 direct,创建一个死信队列 QD,它们的绑定关系如下:
配置类文件代码
@Configuration
public class TtlQueueConfig {//普通交换机名称private static final String X_EXCHANGE = "X";//死信交换机名称private static final String Y_DEAD_LETTER_EXCHANGE = "Y";//普通队列名称private static final String QUEUE_A = "QA";private static final String QUEUE_B = "QB";//死信队列名称Bprivate static final String DEAD_LETTER_QUEUE = "QD";//声明xExchange@Bean("xExchange")public DirectExchange xExchange() {return new DirectExchange(X_EXCHANGE);}//声明yExchange@Bean("yExchange")public DirectExchange yExchange() {return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);}//声明队列A@Bean("queueA")public Queue queueA() {Map<String, Object> arguments = new HashMap<>(3);//设置死信交换机arguments.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key", "YD");//设置TTL 10s=10000msarguments.put("x-message-ttl", 10000);return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();}//声明队列B@Bean("queueB")public Queue queueB() {Map<String, Object> arguments = new HashMap<>(3);//设置死信交换机arguments.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key", "YD");//设置TTL 40s=40000msarguments.put("x-message-ttl", 40000);return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();}@Bean("queueD")public Queue queueD() {return QueueBuilder.durable(DEAD_LETTER_QUEUE).build();}//绑定队列queueA和xExchange@Beanpublic Binding queueABindingX(@Qualifier("queueA") Queue queueA,@Qualifier("xExchange") DirectExchange xExchange) {return BindingBuilder.bind(queueA).to(xExchange).with("XA");}//绑定队列queueB和xExchange@Beanpublic Binding queueBBindingX(@Qualifier("queueB") Queue queueB,@Qualifier("xExchange") DirectExchange xExchange) {return BindingBuilder.bind(queueB).to(xExchange).with("XB");}//绑定队列queueD和yExchange@Beanpublic Binding queueDBindingY(@Qualifier("queueD") Queue queueD,@Qualifier("yExchange") DirectExchange yExchange) {return BindingBuilder.bind(queueD).to(yExchange).with("YD");}
}
消息生产者代码
@Slf4j
@RestController
@RequestMapping("/ttl")
public class SendMsgController {@Autowiredprivate RabbitTemplate rabbitTemplate;//开始发消息@GetMapping("/sendMsg/{message}")public void sendMsg(@PathVariable String message) {log.info("当前时间:{},发送一条信息给两个TTL队列:{}", new Date().toString(), message);rabbitTemplate.convertAndSend("X","XA", "消息来自ttl为10s的队列:" + message);rabbitTemplate.convertAndSend("X","XB", "消息来自ttl为40s的队列:" + message);}
}
消息消费者代码
@Slf4j
@Component
public class DeadLetterQueueConsumer {//接收消息@RabbitListener(queues = "QD")public void receiveD(Message message, Channel channel) throws Exception {String msg = new String(message.getBody());log.info("当前时间:{},收到死信队列的消息:{}", new Date().toString(), msg);}
}
第一条消息在 10s 后变成了死信消息,然后被消费者消费掉,第二条消息在 40s 之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要增加一个队列,这里只有 10s 和 40s 两个时间选项,如果需要一个小时后处理,那么就要增加 TTL 为 1 小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?
7.6 延时队列优化
代码架构图
在这里新增了一个队列 QC,绑定关系如下,该队列不设置 TTL 时间
配置文件类代码
修改 TtlQueueConfig
//普通队列的名称
private static final String QUEUE_C = "QC";//声明QC
@Bean("queueC")
public Queue queuC() {Map<String, Object> arguments = new HashMap<>(3);//设置死信交换机arguments.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key", "YD");return QueueBuilder.durable(QUEUE_C).withArguments(arguments).build();
}//绑定队列queueC和xExchange
@Bean
public Binding queueCBindingX(@Qualifier("queueC") Queue queueC,@Qualifier("xExchange") DirectExchange xExchange) {return BindingBuilder.bind(queueC).to(xExchange).with("XC");
}
消息生产者代码
修改 SendMsgController
//开始发消息 消息 TTL
@GetMapping("/sendExpirationMsg/{message}/{ttlTime}")
public void sendMsg(@PathVariable String message, @PathVariable String ttlTime) {log.info("当前时间:{},发送一条时长{}毫秒TTL信息给队列QC:{}",new Date().toString(), ttlTime, message);rabbitTemplate.convertAndSend("X", "XC", message, msg -> {//发送消息的时候延迟时长msg.getMessageProperties().setExpiration(ttlTime);return msg;});
}
发起请求
http://localhost:8080/ttl/sendExpirationMsg/你好 1/20000
http://localhost:8080/ttl/sendExpirationMsg/你好 2/2000
看起来似乎没有什么问题,但是在最开始的时候,就介绍过如果使用在消息属性上设置 TTL 的方式,消息可能并不会按时“死亡”,因为 RabbitMQ 只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。
7.7 RabbitMQ 插件实现延迟队列
上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的 TTL,并使其在设置的 TTL 时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,接下来我们就去解决该问题。
安装延时队列插件
下载插件
放到 /usr/local/software/rabbitmq_software/rabbitmq_server-3.7.16/plugins 下
安装插件
[root@VM-20-14-centos plugins]# rabbitmq-plugins enable rabbitmq_delayed_message_exchange
重启 rabbitmq
cd /usr/local/software/rabbitmq_software/rabbitmq_server-3.7.16/sbin[root@VM-20-14-centos sbin]# rabbitmqctl stop
Stopping and halting node rabbit@VM-20-14-centos ...
[root@VM-20-14-centos sbin]# ./rabbitmq-server -detached
Warning: PID file not written; -detached was passed.
代码架构图
在这里新增了一个队列 delayed.queue,一个自定义交换机 delayed.exchange,绑定关系如下:
配置文件类代码
在我们自定义的交换机中,这是一种新的交换类型,该类型消息支持延迟投递机制。消息传递后并不会立即投递到目标队列中,而是存储在 mnesia(一个分布式数据系统)表中,当到达投递时间时,才投递到目标队列中
@Configuration
public class DelayedQueueConfig {//队列private static final String DELAYED_QUEUE_NAME = "delayed.queue";//交换机private static final String DELAY_EXCHANGE_NAME = "delayed.exchange";//routingKeyprivate static final String DELAY_ROUTING_KEY = "delayed.routingkey";//声明交换机 基于插件的交换机@Beanpublic CustomExchange delayedExchange() {Map<String, Object> arguments = new HashMap<>();arguments.put("x-delayed-type", "direct");/*** 1.交换机的名称* 2.交换机的类型* 3.是否需要持久化* 4.是否需要自动删除* 5.其他的参数*/return new CustomExchange(DELAY_EXCHANGE_NAME, "x-delayed-message", true, false, arguments);}@Beanpublic Queue delayedQueue() {return new Queue(DELAYED_QUEUE_NAME);}//绑定@Beanpublic Binding delayedQueueBindingDelayedExchange(@Qualifier("delayedQueue") Queue delayedQueue,@Qualifier("delayedExchange") CustomExchange delayedExchange) {return BindingBuilder.bind(delayedQueue).to(delayedExchange).with(DELAY_ROUTING_KEY).noargs();}
}
消息生产者代码
SendMsgController
//交换机
private static final String DELAY_EXCHANGE_NAME = "delayed.exchange";
//routingKey
private static final String DELAY_ROUTING_KEY = "delayed.routingkey";//开始发消息 基于插件 消息 及 延迟的时间
@GetMapping("/sendDelayMsg/{message}/{delayTime}")
public void sendMsg(@PathVariable String message, @PathVariable Integer delayTime) {log.info("当前时间:{},发送一条时长{}毫秒信息给延迟队列delayed.queue:{}", new Date().toString(), delayTime, message);rabbitTemplate.convertAndSend(DELAY_EXCHANGE_NAME, DELAY_ROUTING_KEY, message, msg -> {//发送消息的时候 延迟时长 单位:msmsg.getMessageProperties().setDelay(delayTime);return msg;});
}
消息消费者代码
@Slf4j
@Component
public class DelayQueueConsumer {//队列private static final String DELAYED_QUEUE_NAME = "delayed.queue";//监听消息@RabbitListener(queues = DELAYED_QUEUE_NAME)public void receiveDelayQueue(Message message) {String msg = new String(message.getBody());log.info("当前时间:{},收到延迟队列的消息:{}", new Date().toString(), msg);}
}
发起请求:
http://localhost:8080/ttl/sendDelayMsg/come%20on%20baby1/20000
http://localhost:8080/ttl/sendDelayMsg/come%20on%20baby2/2000
第二个消息被先消费掉了,符合预期
7.8 总结
延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用 RabbitMQ 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。
当然,延时队列还有很多其他选择,比如利用 java 的 DelayQueue,利用 Redis 的 zset,利用 Quartz 或者利用 kafka 的时间轮,这些方式各有特点,看需要使用的场景。
8.发布确认高级
在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 rabbitmq 重启期间生产者投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 rabbitmq 的消息可靠投递呢?特别是在这样比较极端的情况,rabbitmq 集群不可用的时候,无法投递的消息该如何处理呢?
8.1 发布确认 SpringBoot 版本
8.1.1 发布确认机制
8.1.2 代码架构图
8.1.3 配置文件
在 application.xml 中需要添加
spring.rabbitmq.publisher-confirm-type=correlated
-
NONE
- 禁用发布确认模式,是默认值
-
CORRELATED
- 发布消息成功到交换机后会触发回调方法
-
SIMPLE
- 经测试有两种效果,其一效果和 CORRELATED 值一样会触发回调方法
- 其二在发布消息成功后使用 rabbitTemplate 调用 waitForConfirms 或 waitForConfirmsOrDie 方法等待 broker 节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是 waitForConfirmsOrDie 方法如果返回 false 则会关闭 channel,则接下来无法发送消息到 broker
8.1.4 添加配置类
@Configuration
public class ConfirmConfig {//队列private static final String CONFIRM_QUEUE_NAME = "confirm.queue";//交换机private static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";//routingKeyprivate static final String CONFIRM_ROUTING_KEY = "key1";@Beanpublic DirectExchange confirmExchange() {return new DirectExchange(CONFIRM_EXCHANGE_NAME);}@Beanpublic Queue confirmQueue() {return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();}@Beanpublic Binding queueBindingExchange(@Qualifier("confirmQueue") Queue confirmQueue, @Qualifier("confirmExchange") DirectExchange confirmExchange) {return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_ROUTING_KEY);}
}
8.1.5 消息生产者
@Slf4j
@RestController
@RequestMapping("/confirm")
public class ProducerController {//队列private static final String CONFIRM_QUEUE_NAME = "confirm.queue";//交换机private static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";//routingKeyprivate static final String CONFIRM_ROUTING_KEY = "key1";@Autowiredprivate RabbitTemplate rabbitTemplate;//发消息@GetMapping("/sendMessage/{message}")public void sendMessage(@PathVariable String message) {CorrelationData correlationData1 = new CorrelationData("1");rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE_NAME, CONFIRM_ROUTING_KEY, message + "key1", correlationData1);log.info("发送消息内容:{}", message + "key1");CorrelationData correlationData2 = new CorrelationData("2");rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE_NAME, CONFIRM_ROUTING_KEY + "2", message + "key12", correlationData2);log.info("发送消息内容:{}", message + "key12");}}
8.1.6 回调接口
@Slf4j
@Component
public class MyCallBack implements RabbitTemplate.ConfirmCallback {@Autowiredprivate RabbitTemplate rabbitTemplate;@PostConstructpublic void init() {//注入rabbitTemplate.setConfirmCallback(this);}/*** 交换机确认回调方法* 1.发消息 交换机接收到了 回调* 1.1 correlationData 保存回调消息的ID及相关信息* 1.2 交换机收到消息 ack=true* 1.3 cause null* 2.发消息 交换机接收失败了 回调* 2.1 correlationData 保存回调消息的ID及相关信息* 2.2 交换机收到消息 ack=false* 2.3 cause 失败的原因*/@Overridepublic void confirm(CorrelationData correlationData, boolean ack, String cause) {String id = correlationData != null ? correlationData.getId() : "";if (ack) {log.info("交换机已经收到了id为{}的消息", id);} else {log.info("交换机还未收到id为{}的消息,由于原因{}", id, cause);}}
}
8.1.7 消息消费者
@Slf4j
@Component
public class ConfirmConsumer {//队列private static final String CONFIRM_QUEUE_NAME = "confirm.queue";//交换机private static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";//routingKeyprivate static final String CONFIRM_ROUTING_KEY = "key1";@RabbitListener(queues = CONFIRM_QUEUE_NAME)public void receiveConfirmMessage(Message message) {String msg = new String(message.getBody());log.info("接收到的队列confirm.queue消息:{}", msg);}
}
8.1.8 结果分析
http://localhost:8080/confirm/sendMessage/测试
可以看到,发送了两条消息,第一条消息的 routingkey 为 key1,第二条消息的 routingkey 为 key2,两条消息都成功被交换机接收,也收到了交换机的确认回调,但消费者只接收到了一条消息,因为第二条消息的 routingkey 与队列的 routingkey 不一致,也没有其他队列能接收这个消息,所以第二条消息直接丢弃了。
8.2 回退消息
8.2.1 Mandatory 参数
在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由,那么消息会被直接丢弃,此时生产者是不知道消息被丢弃这个事件的。 那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置 mandatory 参数可以在当消息传递过程中不可达目的地时将消息返回给生产者。
8.2.2 配置文件
spring.rabbitmq.publisher-confirm-type=correlated
spring.rabbitmq.publisher-returns=true
8.2.3 回调接口代码
@Slf4j
@Component
public class MyCallBack implements RabbitTemplate.ConfirmCallback, RabbitTemplate.ReturnCallback {@Autowiredprivate RabbitTemplate rabbitTemplate;@PostConstructpublic void init() {//注入rabbitTemplate.setConfirmCallback(this);rabbitTemplate.setReturnCallback(this);}/*** 交换机确认回调方法* 1.发消息 交换机接收到了 回调* 1.1 correlationData 保存回调消息的ID及相关信息* 1.2 交换机收到消息 ack=true* 1.3 cause null* 2.发消息 交换机接收失败了 回调* 2.1 correlationData 保存回调消息的ID及相关信息* 2.2 交换机收到消息 ack=false* 2.3 cause 失败的原因*/@Overridepublic void confirm(CorrelationData correlationData, boolean ack, String cause) {String id = correlationData != null ? correlationData.getId() : "";if (ack) {log.info("交换机已经收到了id为{}的消息", id);} else {log.info("交换机还未收到id为{}的消息,由于原因{}", id, cause);}}/*** 可以在当消息传递的过长中不可达目的地时将消息返回给生产者* 只有不可待目的地的时候 才进行回退* @param message* @param replyCode* @param replyText* @param exchange* @param routingKey*/@Overridepublic void returnedMessage(Message message, int replyCode, String replyText, String exchange, String routingKey) {log.info("消息{},被交换机{}退回,退回原因:{},路由key:{}", message, exchange, replyText, routingKey);}
}
8.2.4 结果分析
http://localhost:8080/confirm/sendMessage/测试
8.3 备份交换机
有了 mondatory 参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会桁架麻烦且容易出错。而且设置 mandatory 参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?前面在设置死信队列的过程中,可以为队列设置死信交换机来存储那列处理失败的消息,可是这些不可路由消息根本没有机会进入到队列,因此无法使用死信交换机来保存消息。
在 RabbitMQ 中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为 RabbitMQ 中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时,就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为 fanout,这样就能把所有的消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者进行监测与报警。
8.3.1 代码流程图
8.3.2 修改配置类
@Configuration
public class ConfirmConfig {//队列private static final String CONFIRM_QUEUE_NAME = "confirm.queue";//交换机private static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";//routingKeyprivate static final String CONFIRM_ROUTING_KEY = "key1";//备份交换机private static final String BACKUP_EXCHANGE_NAME = "backup_exchange";//备份队列private static final String BACKUP_QUEUE_NAME = "backup_queue";private static final String WARNING_QUEUE_NAME = "warning_queue";@Beanpublic DirectExchange confirmExchange() {return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true).withArgument("alternate-exchange", BACKUP_EXCHANGE_NAME).build();}@Beanpublic Queue confirmQueue() {return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();}@Beanpublic Binding queueBindingExchange(@Qualifier("confirmQueue") Queue confirmQueue, @Qualifier("confirmExchange") DirectExchange confirmExchange) {return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_ROUTING_KEY);}//备份交换机@Beanpublic FanoutExchange backupExchange() {return new FanoutExchange(BACKUP_EXCHANGE_NAME);}@Beanpublic Queue backupQueue() {return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();}@Beanpublic Queue warningQueue() {return QueueBuilder.durable(WARNING_QUEUE_NAME).build();}@Beanpublic Binding backupQueueBindingBackupExchange(@Qualifier("backupQueue") Queue backupQueue,@Qualifier("backupExchange") FanoutExchange backupExchange) {return BindingBuilder.bind(backupQueue).to(backupExchange);}@Beanpublic Binding warningQueueBindingBackupExchange(@Qualifier("warningQueue") Queue warningQueue,@Qualifier("backupExchange") FanoutExchange backupExchange) {return BindingBuilder.bind(warningQueue).to(backupExchange);}
}
8.3.3 报警消费者
@Slf4j
@Component
public class WarningConsumer {private static final String WARNING_QUEUE_NAME = "warning_queue";//接收报警消息@RabbitListener(queues = WARNING_QUEUE_NAME)public void receiveWarningMsg(Message message) {String msg = new String(message.getBody());log.error("报警发现不可路由消息:{}" , msg);}
}
8.3.4 结果分析
启动项目的时候要把原来的 confirm.exchange 删除,因为我们修改了其绑定属性
mandatory 参数与备份交换机可以一起使用,如果两者同时使用,经上面结果显示是备份交换机优先级更高。
9.RabbitMQ 其他知识点
9.1 幂等性
9.1.1 概念
用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次付款,返回结果成功,用户查询余额发现多扣了,流水记录也变成了两条。在以前的但应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候呀也有可能出现网络中断或者异常等等。
9.1.2 消息重复消费
消费者在消费 MQ 中的消息时,MQ 已经把消息发送给消费者,消费者在给 MQ 返回 ack 时网络中断,故 MQ 未收到确认消息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该消息,造成消费者消费了重复的消息。
9.1.3 解决思路
MQ 消费者的幂等性的解决一般使用全局ID或者写个唯一标识比如时间戳或者 UUID 或者订单消费者消费 MQ 中的消息也可以利用 MQ 的该 id 来判断,或者可按自己的规则生成一个全局唯一的 id,每次消费消息时用该 id 先判断该消息是否已消费过。
9.1.4 消费端的幂等性保障
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业务主流的幂等性有两种操作:
- 唯一ID+指纹码机制,利用数据库主键去重
- 利用 redis 的原子性去实现
9.1.5 唯一ID + 指纹码机制
指纹码
- 我们的一些规则或者时间戳家别的服务给到的唯一信息吗,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个 id 是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈,当然也可以使用分库分表提高性能,但是不是最推荐的放肆
9.1.6 Redis 原子性
利用 redis 执行 setnx 命令,天然具有幂等性。从而实现不重复消费
9.2 优先级队列
9.2.1 使用场景
在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款就会给用户推送一条短信提醒,很简单的一个功能把,但是,tmall 商家对我们来说,肯定是要分大客户和小客户的,比如像苹果,小米这样的商家一年起码能给我们创造很大的利润,所以理所当然,他们的订单必须得到优先处理,而曾经我们的后端系统是使用 redis 来存放的定时轮询,redis 只能用 list 做一个简简单单的消息队列,并不能实现一个优先级场景。所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对较高的优先级,否则就是默认优先级。
9.2.2 如何添加
控制台页面添加
队列中代码添加优先级
Map<String, Object> arguments = new HashMap<>();
//官方允许是0-255之间 此处设置10 允许优化级范围为0-10 不要设置过大 浪费CPU与内存
arguments.put("x-max-priority", 10);
channel.queueDeclare(QUEUE_NAME, true, false, false, arguments);
消息中代码添加优先级
AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
channel.basicPublish("", QUEUE_NAME, properties, message.getBytes());
**注意事项——**要让队列实现优先级需要做的事情如下
- 队列需要设置为优先级队列
- 消息需要设置消息的优先级
- 消费者需要等待消息已经发送到队列中去才消费,因为这样才有机会对消费进行排序
9.2.3 实战
消息生产者
public class Producer {//队列名称private static final String QUEUE_NAME = "hello";//发消息public static void main(String[] args) throws IOException, TimeoutException {//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工厂ip 连接RabbitMQ的队列factory.setHost("119.91.219.72");//用户名factory.setUsername("admin");//密码factory.setPassword("a123456");//创建连接Connection connection = factory.newConnection();//获取信道Channel channel = connection.createChannel();/*** 生成一个队列* 1.队列名称* 2.队列里面的消息是否持久化(磁盘) 默认情况下存储在内存中* 3.该队列是否只供一个消费者进行消费,是否可以消息共享,true可以多个消费者消费, false只能一个消费者消费* 4.是否自动删除 最后一个消费者断开连接之后,该队列是否自动删除 true自动删除 false不自动删除* 5.其他参数*/Map<String, Object> arguments = new HashMap<>();arguments.put("x-max-priority", 10);//官方允许是0-255之间 此处设置10 允许优化级范围为0-10 不要设置过大 浪费CPU与内存channel.queueDeclare(QUEUE_NAME, true, false, false, arguments);for (int i = 1; i < 11; i++) {String message = "info" + i;if (i == 5) {AMQP.BasicProperties properties =new AMQP.BasicProperties().builder().priority(5).build();channel.basicPublish("", QUEUE_NAME, properties, message.getBytes());}else {channel.basicPublish("", QUEUE_NAME, null, message.getBytes());}}System.out.println("消息发送完毕");}
}
消息消费者
public class Consumer {//队列名称private static final String QUEUE_NAME = "hello";//接收消息public static void main(String[] args) throws IOException, TimeoutException {//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工厂ip 连接RabbitMQ的队列factory.setHost("119.91.219.72");//用户名factory.setUsername("admin");//密码factory.setPassword("a123456");//创建连接Connection connection = factory.newConnection();//获取信道Channel channel = connection.createChannel();//声明DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println(new String(message.getBody()));};CancelCallback cancelCallback = consumerTag -> {System.out.println("消息消费被中断");};/*** 消费者消费消息* 1.消费哪个队列* 2.消费成功之后是否要自动应答,true代表自动应答,false代表手动应答* 3.消费者未成功消费的回调* 4.消费者取消消费的回调*/channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);}
}
9.3 惰性队列
9.3.1 使用场景
RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或是由于维护而关闭等)而导致长时间内不能消费消息造成堆积是,惰性队列就很有必要了。
默认请款搞下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费比较长时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量大的时候。
9.3.2 两种模式
队列具备两种模式:default 和 lazy。默认的为 default 模式,在 3.6.0 之前的版本无需做任何变更。lazy 模式即为惰性队列的模式,可以通过使用 channel.queueDeclare 方法的时候在参数中设置,也可以通过 Policy 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policy 的方式具备更高的优先级。如果要通过声明的方式改变已有的队列的模式的话,那么只能先删除队列,然后重新声明一个新的。
在队列声明的时候通过 x-queue-mode 参数来设置队列的模式,取值为 default 和 lazy。
Map<String, Object> args = new HashMap<>();
args.put("x-queue-mode", "lazy");
channel.queueDeclare("queue1", false, false, false, args);
9.3.3 内存开销对比
发送一百万条消息,每条消息大概占 1kb 的情况下,铍铜队列占用内存是 1.2GB,而惰性队列仅仅占用 1.5MB。
10.RabbitMQ 集群
10.1. clustering
10.1.1. 使用集群的原因
最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键.
10.1.2. 搭建步骤
1.修改 3 台机器的主机名称
vim /etc/hostname
重启 reboot
2.配置各个节点的 hosts 文件,让各个节点都能互相识别对方
vim /etc/hosts
-
192.168.181.130 node1
-
192.168.181.129 node2
-
192.168.181.128 node3
3.以确保各个节点的 cookie 文件使用的是同一个值
在 node1 上执行远程操作命令
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
注意:可能输入密码后可能提示
root@node2's password:
Permission denied, please try again.1.查看密码是否正确
2.修改/etc/ssh/sshd_config文件,
把PermitRootLogin without-password将 without-password改为yes;
4.启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务(在三台节点上分别执行以 下命令)
rabbitmq-server -detached
5.在节点 2 执行
rabbitmqctl stop_app
(rabbitmqctl stop 会将 Erlang 虚拟机关闭,rabbitmqctl stop_app 只关闭 RabbitMQ 服务)
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node1
rabbitmqctl start_app
(只启动应用服务)
可能出现如下问题
rabbit@node2:* connected to epmd (port 4369) on node2* epmd reports node 'rabbit' uses port 25672 for inter-node and CLI tool traffic* ---TCP connection succeeded but Erlang distribution failed---* suggestion: check if the Erlang cookie identical for all server nodes and CLI tools* suggestion: check if all server nodes and CLI tools use consistent hostnames when addressing each other* suggestion: check if inter-node connections may be configured to use TLS. If so, all nodes and CLI tools must do that* suggestion: see the CLI, clustering and networking guides on https://rabbitmq.com/documentation.html to learn more解决方式:
sudo cp /var/lib/rabbitmq/.erlang.cookie ~/.erlang.cookie
重启即可原因:
RabbitMQ的erlang.cookie和用户的cookie冲突了,需要用rabbitmq的cookie去覆盖用户的cookie。
可能出现如下问题
attempted to contact: [rabbit@node1]rabbit@node1:* connected to epmd (port 4369) on node1* epmd reports node 'rabbit' uses port 25672 for inter-node and CLI tool traffic* can't establish TCP connection to the target node, reason: timeout (timed out)* suggestion: check if host 'node1' resolves, is reachable and ports 25672, 4369 are not blocked by firewall解决方式:
打开相关端口
sudo ufw allow 25672
sudo ufw allow 4369
6.在节点 3 执行
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node2
rabbitmqctl start_app
7.集群状态
rabbitmqctl cluster_status
8.需要重新设置用户
创建账号 rabbitmqctl add_user admin 123
设置用户角色 rabbitmqctl set_user_tags admin administrator
设置用户权限 rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
9.解除集群节点(node2 和 node3 机器分别执行)
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
rabbitmqctl cluster_status
rabbitmqctl forget_cluster_node rabbit@node2
(node1 机器上执行)
10.2. 镜像队列
10.2.1. 使用镜像的原因
如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable属性也设置为true, 但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘并执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘, 尽管如此,一般不希望遇到因单点故障导致的服务不可用。
引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中 的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。
10.2.2. 搭建步骤
1.启动三台集群节点
2.随便找一个节点添加 policy
3.在 node1 上创建一个队列发送一条消息,队列存在镜像队列
4.停掉 node1 之后发现 node2 成为镜像队列
5.就算整个集群只剩下一台机器了 依然能消费队列里面的消息
说明队列里面的消息被镜像队列传递到相应机器里面了
10.3. Haproxy+Keepalive 实现高可用负载均衡
10.3.1. 整体架构图
10.3.2. Haproxy 实现负载均衡
HAProxy 提供高可用性、负载均衡及基于 TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并 且可靠的一种解决方案,包括 Twitter,Reddit,StackOverflow,GitHub 在内的多家知名互联网公司在使用。 HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。
扩展 nginx,lvs,haproxy 之间的区别: http://www.ha97.com/5646.html
10.3.3. 搭建步骤
1.下载 haproxy(在 node1 和 node2)
yum -y install haproxy
2.修改 node1 和 node2 的 haproxy.cfg
vim /etc/haproxy/haproxy.cfg
需要修改红色 IP 为当前机器 IP
3.在两台节点启动
haproxy haproxy -f /etc/haproxy/haproxy.cfg
ps -ef | grep haproxy
4.访问地址
http://10.211.55.71:8888/stats
10.3.4. Keepalived 实现双机(主备)热备
试想如果前面配置的 HAProxy 主机突然宕机或者网卡失效,那么虽然 RbbitMQ 集群没有任何故障但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的为了确保负载均衡服务的可靠性同样显得 十分重要,这里就要引入 Keepalived它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现故障转移.
1.下载
keepalived yum -y install keepalived
2.节点 node1 配置文件
vim /etc/keepalived/keepalived.conf
把资料里面的 keepalived.conf 修改之后替换
3.节点 node2 配置文件
需要修改 global_defs 的 router_id,如:nodeB
其次要修改 vrrp_instance_VI 中 state 为"BACKUP";
最后要将 priority 设置为小于 100 的值
4.添加 haproxy_chk.sh
(为了防止 HAProxy 服务挂掉之后 Keepalived 还在正常工作而没有切换到 Backup 上,所以这里需要编写一个脚本来检测 HAProxy 务的状态,当 HAProxy 服务挂掉之后该脚本会自动重启 HAProxy 的服务,如果不成功则关闭 Keepalived 服务,这样便可以切换到 Backup 继续工作)
vim /etc/keepalived/haproxy_chk.sh
(可以直接上传文件)
修改权限 chmod 777 /etc/keepalived/haproxy_chk.sh
5.启动 keepalive 命令(node1 和 node2 启动)
systemctl start keepalived
6.观察 Keepalived 的日志
tail -f /var/log/messages -n 200
7.观察最新添加的 vip
ip add show
8.node1 模拟 keepalived 关闭状态
systemctl stop keepalived
9.使用 vip 地址来访问 rabbitmq 集群
10.4. Federation Exchange
10.4.1. 使用它的原因
(broker 北京),(broker 深圳)彼此之间相距甚远,网络延迟是一个不得不面对的问题。有一个在北京 的业务(Client 北京) 需要连接(broker 北京),向其中的交换器 exchangeA 发送消息,此时的网络延迟很小, (Client 北京)可以迅速将消息发送至 exchangeA 中,就算在开启了 publisherconfirm 机制或者事务机制的情况下,也可以迅速收到确认信息。此时又有个在深圳的业务(Client 深圳)需要向 exchangeA 发送消息, 那么(Client 深圳) (broker 北京)之间有很大的网络延迟,(Client 深圳) 将发送消息至 exchangeA 会经历一 定的延迟,尤其是在开启了 publisherconfirm 机制或者事务机制的情况下,(Client 深圳) 会等待很长的延迟时间来接收(broker 北京)的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的 阻塞。
将业务(Client 深圳)部署到北京的机房可以解决这个问题,但是如果(Client 深圳)调用的另些服务都部署在深圳,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,那么容灾又何以实现? 这里使用 Federation 插件就可以很好地解决这个问题.
10.4.2. 搭建步骤
1.需要保证每台节点单独运行
2.在每台机器上开启 federation 相关插件
rabbitmq-plugins enable rabbitmq_federation
rabbitmq-plugins enable rabbitmq_federation_management
3.原理图(先运行 consumer 在 node2 创建 fed_exchange)
4.在 downstream(node2)配置 upstream(node1)
5.添加 policy
6.成功的前提
10.5. Federation Queue
10.5.1. 使用它的原因
联邦队列可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以 连接一个或者多个上游队列(upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息 的需求。
10.5.2. 搭建步骤
1.原理图
2.添加 upstream(同上)
3.添加 policy
10.6. Shovel
10.6.1. 使用它的原因
Federation 具备的数据转发功能类似,Shovel 够可靠、持续地从一个 Broker 中的队列(作为源端,即 source)拉取数据并转发至另一个 Broker 中的交换器(作为目的端,即 destination)。作为源端的队列和作 为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为"铲子", 是一种比较形象的比喻,这个"铲子"可以将消息从一方"铲子"另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。
10.6.2. 搭建步骤
1.开启插件(需要的机器都开启)
rabbitmq-plugins enable rabbitmq_shovel
rabbitmq-plugins enable rabbitmq_shovel_management
2.原理图(在源头发送的消息直接回进入到目的地队列)
3.添加 shovel 源和目的地
参考视频:尚硅谷RabbitMQ教程丨快速掌握MQ消息中间件