# 1. MQ

# 1.1 MQ 的相关概念

什么是 MQ

MQ (message queue),从字面意思上看,本质是个队列,FIFO 先入先出,只不过队列中存放的内容是 message 而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ 是一种非常常见的上下游 “逻辑解耦 + 物理解耦” 的消息通信服务。使用了 MQ 之后,消息发送上游只需要依赖 MQ,不用依赖其他服务。

为什么要用 MQ

  1. 流量消峰

    举个例子,如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。

  2. 应用解耦

    以电商应用为例,应用中有订单系统、库存系统、支付系统。用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可 ,中单用户感受不到物流系统的故障,提升系统的可用性。

  3. 异步处理

    有些服务间调用是异步的,例如 A 调用 B,B 需要花费很长时间执行,但是 A 需要知道 B 什么时候可以执行完,以前一般有两种方式,A 过一段时间去调用 B 的查询 api 查询。或者 A 提供一个 callback api,B 执行完之后调用 api 通知 A 服务。这两种方式都不是很优雅,使用消息总线,可以很方便解决这个问题,A 调用 B 服务后,只需要监听 B 处理完成的消息,当 B 处理完成后,会发送一条消息给 MQ,MQ 会将此消息转发给 A 服务。这样 A 服务既不用循环调用 B 的查询 api,也不用提供 callback api。同样 B 服务也不用做这些操作。A 服务还能及时的得到异步处理成功的消息。

# 1.2 MQ 分类

  1. ActiveMQ

    • 优点:单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性较低的概率丢失数据
    • 缺点:维护越来越少,高吞吐量场景较少使用
  2. Kafka :大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件,以其百万级 TPS 的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber,Twitter,Netflix 等大公司所采纳。

    • 优点:

      性能卓越,单机写入 TPS 约在百万条 / 秒,最大的优点,就是吞吐量高。时效性 ms 级可用性非常高,kafka 是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用,消费者采用 Pull 方式获取消息,消息有序,通过控制能够保证所有消息被消费且仅被消费一次;有优秀的第三方 Kafka Web 管理界面 Kafka-Manager; 在日志领域比较成熟,被多家公司和多个开源项目使用;功能支持:功能较为简单,主要支持简单的 MQ 功能,在大数据领域的实时计算以及日志采集被大规模使用

    • 缺点:

      Kafka 单机超过 64 个队列 / 分区,Load 会发生明显的飙高现象,队列越多,load 越高,发送消息响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序,但是一台代理宕机后,就会产生消息乱序,社区更新较慢;

  3. RocketMQ :出自阿里巴巴的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理 binglog 分发等场
    景。

    • 优点:

      单机吞吐量十万级,可用性非常高,分布式架构,消息可以做到 0 丢失,MQ 功能较为完善,还是分布式的,扩展性好,支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,源码是 java 我们可以自己阅读源码,定制自己公司的 MQ

    • 缺点:

      支持的客户端语言不多,目前是 java 及 c++,其中 c++ 不成熟;社区活跃度一般,没有在 MQ 核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码

  4. RabbitMQ :2007 年发布,是一个在 AMQP (高级消息队列协议) 基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。

    • 优点:

      由于 erlang 语言的高并发特性,性能较好;吞吐量到万级,MQ 功能比较完备,健壮、稳定、易用、跨平台、支持多种语言如: Python、Ruby、.NET、 Java、JMS、C、PHP、ActionScript、XMPP、STOMP 等,支持 AJAX 文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;
      更新频率相当高

    • 缺点:

      商业版需要收费,学习成本较高

# 1.3 MQ 的选择

MQ 介绍
Kafka Kafka 主要特点是基于 Pull 的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生 大量数据 的互联网服务的数据收集业务。 大型公司 建议可以选用,如果有 日志采集 功能,肯定是首选 kafka 了。
RocketMQ 天生为 金融互联网 领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RoketMQ 在稳定性上可能更值得信赖,这些业务场景在阿里双 11 已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择 RocketMQ。
RabbitMQ 结合 erlang 语言本身的并发优势, 性能好时效性微秒级社区活跃度也比较高 ,管理界面用起来十分方便,如果你的 数据量没有那么大 ,中小型公司优先选择功能比较完备的 RabbitMO

# 2 RabbitMQ

概念

RabbitMQ 是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会把你的快递送到收件人那里,按照这种逻辑 RabbitMQ 是一个快递站,一个快递员帮你传递快件。RabbitMQ. 与快递站的主要区别在于,它不处理快件而是接收,存储和转发消息数据。

四大核心概念

概念 介绍
生产者 产生数据发送消息的程序是生产者
交换机 交换机是 RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推关到多个队列,亦或者是把消息丢弃,这个得有交换机类型决定
队列 队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式
消费者 消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者。

# 2.1 核心部分

部分 功能
Borker 接受和分发消息的应用,RabbitMQ Server 就是 Message Broker
Virtual host 出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的 namespace. 概念。当多个不同的用户使用同一个 RabbitMQ server 提供的服务时,可以划分出多个 vhost,每个用户在自己的 vhost 创建 exchange /queue 等
Connection publisher /consumer 和 broker 之间的 TCP 连接
Channel 如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立 TCPConnection 的开销将是巨大的,效率也较低。Channel 是在 connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 thread 创建单独的 channel 进行通讯,AMQP method 包含了 channel id 帮助客户端和 message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的 Connection 极大减少了操作系统建立 TCP connection 的开销
Exchange message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发消息到 queue 中去。常用的类型有: direct (point-to-point), topic (publish-subscribe) and fanout
(multicast)
Queue 消息最终被送到这里等到 consumer 取走
Binding exchange 和 queue 之间的虚拟连接,binding 中可以包含 routing key,Binding 消息被保存到 exchange 中的查询表中,用于 message 的分发依据

# 2.2 安装

  1. 安装 Erlang:

    https://github.com/rabbitmq/erlang-rpm/releases/download/v23.2.6/erlang-23.2.6-1.el7.x86_64.rpm

    rpm -ivh erlang-23.2.6-1.el7.x86_64.rpm
    
    # 测试
    erl -version
    
  2. 安装 RabbitMQ

    https://github.com/rabbitmq/rabbitmq-server/releases/download/v3.8.12/rabbitmq-server-3.8.12-1.el7.noarch.rpm

    rpm -ivh rabbitmq-server-3.8.12-1.el7.noarch.rpm
    
  3. 命令:

    # 添加开机启动RabbitMQ服务
    chkconfig rabbitmq-server on
    
    # 启动服务
    /sbin/service rabbitmq-server start
    
    # 查看服务状态
    /sbin/service rabbitmq-server status
    
    #停止服务
    /sbin/service rabbitmq-server stop
    
    #安装可视化管理 插件
    rabbitmq-plugins enable rabbitmq_management
    

  4. 重启 rabbitmq 服务,然后在 windows 客户端进入 192.168.163.128 (Linux 的 ip 地址):15672,需要开启端口号,顺利进入!

    # 开启防火墙
    firewall-cmd --permanent --add-port=15672/tcp
    
    # 重启生效
    firewall-cmd --reload
    

添加用户并且设置权限

# 创建账号
rabbitmqctl add_user admin 123

# 设置用户角色
rabitmqctl set_user_tags admin adminstrator

# 设置用户权限
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"

# 查看用户列表
rabbitmqctl list_users

# 3. HelloWorld

# 3.1 创建开发环境

创建一个 Maven 项目:rabbitmq-hello,POM 如下:

<build>
    <plugins>
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <configuration>
                <source>8</source>
                <target>8</target>
            </configuration>
        </plugin>
    </plugins>
</build>

<dependencies>
    <dependency>
        <groupId>com.rabbitmq</groupId>
        <artifactId>amqp-client</artifactId>
        <version>5.8.0</version>
    </dependency>

    <dependency>
        <groupId>commons-io</groupId>
        <artifactId>commons-io</artifactId>
        <version>2.6</version>
    </dependency>
</dependencies>

# 3.2 生产者代码

public class Producer {
   // 队列名称
   public static  final String QUEUE_NAME="hello";

   // 发消息
   public static void main(String[] args) throws IOException, TimeoutException {
       // 创建一个连接工厂
       ConnectionFactory factory = new ConnectionFactory();

       // 工厂IP连接RabbitMQ的队列
       factory.setHost("192.168.163.128");
       // 用户名
       factory.setUsername("admin");
       // 密码
       factory.setPassword("123");

       factory.setPort(5672);

       // 创建连接
       Connection connection = factory.newConnection();
       // 获取信道
       Channel channel = connection.createChannel();
       /*
           * 生成一个队列
           * 参数1:队列名称
           * 参数2:队列里面的消息是否持久化,默认情况下,消息存储在内存中
           * 参数3:该队列是否只供一个消费者进行消费,是否进行消费共享,true可以多个消费者消费,
           *        false只能一个消费者消费(这个可能说反了,我也不确定)
           * 参数4:是否自动删除:最后一个消费者断开连接之后,该队列是否自动删除,true则自动删除,
           *        false不自动删除
           * 参数5:其他参数
       * */
       channel.queueDeclare(QUEUE_NAME,false,false,false,null);
       // 发消息
       String message = "hello world";
       /*
       * 发送一个消息
       * 参数1:发送到哪个交换机
       * 参数2:路由的key值是那个,本次是队列的名称
       * 参数3:其他参数信息
       * 参数4:发送消息的消息体
       * */
       channel.basicPublish("",QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));
       System.out.println("消息发送完毕!");

   }
}

注意:如果报 connection error,考虑是端口号没有开放的问题。连接服务,请求的端口号是 5672 ,而可视化工具服务,请求的是 15672因此需要开启5672跟15672两个端口 ,测试连接成功!

MQ 有被动创建队列的功能,只要有消费者监听某个队列后,如果这个队列不存在,MQ 就会自动的创建这个队列,交换机也是同理

# 3.3 消费者代码

public class Consumer {
    // 队列名称
    public static final String QUEUE_NAME = "hello";

    // 接受消息
    public static void main(String[] args) throws IOException, TimeoutException {
        // 创建连接工厂
        ConnectionFactory factory = new ConnectionFactory();

        factory.setHost("192.168.163.128");
        factory.setUsername("admin");
        factory.setPassword("123");
        Connection connection = factory.newConnection();
        Channel channel = connection.createChannel();

        // 声明 接受消息
        DeliverCallback deliverCallback = (consumerTag,message) -> {
            System.out.println(new String(message.getBody()));
        };

        // 声明 取消消息
        CancelCallback cancelCallback = consumer -> {
            System.out.println("消息消费被中断");
        };

        /*
        * 消费者接收消息
        * 参数1:表示消费哪个队列
        * 参数2:消费成功之后,是否需要自动应答,true表示自动应答,false表示手动应答
        * 参数3:消费者成功消费的回调
        * 参数4:消费者取消消费的回调
         */
        channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
    }
}

# 4. 工作队列

简介

工作队列 (又称任务队列) 的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。

# 4.1 实现工作队列

抽取连接工厂攻击类

/*
* 此类为连接工厂创建信道的工具类
* */
public class RabbitMqUtils {
     // 得到一个连接的channel
    public static Channel getChannel() throws IOException, TimeoutException {
        // 创建一个连接工厂
        ConnectionFactory factory = new ConnectionFactory();
        factory.setHost("192.168.163.128");
        factory.setUsername("admin");
        factory.setPassword("123");
        Connection connection = factory.newConnection();
        com.rabbitmq.client.Channel channel = connection.createChannel();
        return channel;
    }
}

工作线程代码

public class Worker01 {

    // 队列名称
    public static final String QUEUE_NAME = "hello";

    // 接受消息
    public static void main(String[] args) throws IOException, TimeoutException {
        Channel channel = RabbitMqUtils.getChannel();

        // 接受消息参数
        DeliverCallback deliverCallback = (consumerTag,message) -> {
            System.out.println("接受到的消息:"+message.getBody());
        };

        // 取消消费参数
        CancelCallback cancelCallback = consumerTag -> {
            System.out.println(consumerTag+"消费者取消消费借口回调逻辑");
        };

        // 消息的接受
        channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
    }
}

同时开启 2 个工作线程:

然后启动工作线程 1:

修改输出信息,作为工作线程 2:

生产者代码

public class Task01 {
    // 队列名称
    public static final String QUEUE_NAME = "hello";

    // 发送大量消息
    public static void main(String[] args) throws Exception {
        Channel channel = RabbitMqUtils.getChannel();

        // 队列的声明
        channel.queueDeclare(QUEUE_NAME,false,false,false,null);

        // 从控制台中输入消息
        Scanner scanner = new Scanner(System.in);
        while (scanner.hasNext()){
            String message = scanner.next();
            channel.basicPublish("",QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));
            System.out.println("发送消息完成:"+ message);

        }
    }
}

测试

# 4.2 消息应答

概念

  1. 消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费这的消息,国为它无法接收到。
  2. 为了保证消息在发送过程中不丢失,RabbitMQ 引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉 RabbitMQ 它已经处理了,RabbitMQ 可以把该消息删除了。

自动应答

消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者 channel 关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制,当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。

也就是在我们工作线程 (消费者) 接收到消息就会跟我们的 rabbitmq 发送消息应答,这时候要是那个工作线程在处理那个消息时突然崩了,那个消息还是会丢的,因为 rabbitmq 之前已经接收到了消息所以那个消息还是会被删除.

消息应答的方法

  1. Channel.basicAck (用于肯定确认)

    RabbitMQ 已知道该消息并且成功处理,可以将其丢弃

  2. Channel.basicNack (用于否定确认)

  3. Channel.basicReject (用于否定确认),与 Channel.basicNack 相比少了一个参数,不处理该消息了,直接拒绝,可以将其丢弃了。

Multiple 的解释

手动应答的好处是 可以批量应答并且减少网络拥堵

multiple 的 true 和 false 是不同的意思:

  1. true 表示批量应答 channel 上未应答的消息,比如 channel 上有传送 tag 的消息 5,6,7,8,,当前 tag 是 8,那么此时 5-8 的这些还未应答的消息就会被确认收到消息应答
  2. false 同上面相比只会应答 tag=8 的消息,5,6,7 这三个消息依然不会被确认收到消息应答

消息自动重新入队

如果消费者由于某些原因失去连接 (其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。

消息手动应答

  1. 生产者:

       /*
    * 消息在手动应答时是不丢失、放回队列中重新消费
    * */
    public class Task2 {
    
        // 队列名称
        public static final String TASK_QUEUE_NAME = "ack_queue";
    
        public static void main(String[] args) throws IOException, TimeoutException {
            Channel channel = RabbitMqUtils.getChannel();
    
            // 声明队列
            channel.queueDeclare(TASK_QUEUE_NAME,false,false,false,null);
    
            Scanner scanner = new Scanner(System.in);
            while (scanner.hasNext()){
                String message = scanner.next();
                channel.basicPublish("",TASK_QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));
                System.out.println("生产者发出消息:"+message);
            }
    
        }
    }
    	
  2. 消费者

     /*
     * 消费者
     * */
     public class Worker03 {
         // 队列名称
         public static final String TASK_QUEUE_NAME = "ack_queue";
     
         public static void main(String[] args) throws IOException, TimeoutException {
             Channel channel = RabbitMqUtils.getChannel();
             System.out.println("C1等待接受消息处理时间较短");
    
         DeliverCallback deliverCallback = (consumerTag,message) -> {
             // 沉睡一秒
             SleepUtils.sleep(1);
             System.out.println("接受到的消息是:"+new String(message.getBody()));
    
             //进行手动应答
             /*
             * 参数1:消息的标记  tag
             * 参数2:是否批量应答,false:不批量应答 true:批量
             * */
             channel.basicAck(message.getEnvelope().getDeliveryTag(),false);
         };
    
         // 采用手动应答
         boolean autoAck = false;
         channel.basicConsume(TASK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag) -> {
             System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
         });
     }
    }
    /*
    * 消费者
    * */
    public class Worker03 {
        // 队列名称
        public static final String TASK_QUEUE_NAME = "ack_queue";
    
        public static void main(String[] args) throws IOException, TimeoutException {
            Channel channel = RabbitMqUtils.getChannel();
            System.out.println("C2等待接受消息处理时间较短");
    
            DeliverCallback deliverCallback = (consumerTag,message) -> {
                // 沉睡一秒
                SleepUtils.sleep(30);
                System.out.println("接受到的消息是:"+new String(message.getBody()));
    
                //进行手动应答
                /*
                * 参数1:消息的标记  tag
                * 参数2:是否批量应答,false:不批量应答 true:批量
                * */
                channel.basicAck(message.getEnvelope().getDeliveryTag(),false);
            };
    
    
            // 采用手动应答
            boolean autoAck = false;
            channel.basicConsume(TASK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag) -> {
                System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
            });
        }
    }
  3. 测试

    Worker04 由于处理时间太长,我们挂掉他,这个时候信息会重回队列分给 Worker03 进行处理。

也就是我们把消息应答改为手动 (在消费者里面的 basicConsume 里面传的那个布尔参数), 这样就不会是自动的,也就是就算数据 (消息) 从队列发到我们的消费者,消费者不会直接发消息应答给我们的 rabbitmq, 而是在我们调用 channel.basicAck(消息的标记,是否批量应答) 的时候才会发消息应答给我们的 rabbitmq, 所以我们需要在我们接收到所有数据然后再对其做完所有处理之后才需要调用这个方法.

这个方法的参数:

​ 消息的标记就是给当前的消息,要是队列有一堆消息然后其中一部分分配给我们的当前这个消费者 (工作线程), 那么我们这里传当前消息的标记也就是说我们只对我们的当前接收到然后处理完的那个消息进行消息应答给我们的 rabbitmq, 其他的就算在队列或者已经收到,只要没有到这个运行这个方法的都不会消息应答给我们的 rabbitmq

​ 是否批量应答就是表示批量应答 channel 上未应答的消息 (上面说到过), 不建议开启,一般是 false

这个样子就算我们这个当前工作线程接收到消息然后处理的时候挂掉了,只要不到 channel.basicAck 这个方法的时候就会给 rabbitmq 发送消息应答,那么这个消息就不会被丢失,而是会被 rabbitmq 安排给其他的 (同一服务的) 工作线程来接受然后处理,直到我们 rabbitmq 接收到了那个消息应答才会删除那个消息.

# 4.3 持久化

概念

刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。

队列持久化

  1. 之前我们创建的队列都是非持久化的,rabbitmq 如果重启的化,该队列就会被删除掉,如果要队列实现持久化需要在声明队列的时候把 durable 参数设置为持久化

    // 声明队列
    // 持久化 需要让Queue持久化
    boolean durable = true;
    channel.queueDeclare(TASK_QUEUE_NAME,durable,false,false,null);

    只要声明这个队列的时候传参数让这个队列持久化,那么之后就算 rabbitmq 本身挂掉了,它里面队列还存在着,队列还存在里面消息也会存在

    当然这个前提是消息也是持久化,跟上面说的那个消息应答不是很一样,rabbitmq 接收到消息应答会把对应的消息 (批量,哪个消息的 tag? 等等) 标记为删除,而这里的持久化就是存到硬盘里面

    我们声明的时候让队列持久化,然后在我们要用 channel 给这个队列 publish 消息的时候也需要给那个消息设置为持久化,这样才行

  2. 需要注意的就是如果之前声明的队列不是持久化的,需要把原先队列先删除或者重新创建一个持久化的队列,不然就会出现错误

  3. 重新运行代码后,队列持久化成功

消息持久化

  1. 要想让消息实现持久化需要在消息生产者修改代码,MessageProperties,PERSISTENT_TEXT_PLAIN 添加这个属性。

  2. 将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉 RabbitMQ 将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,参考后边课件发布确认章节。

    //设置生产者发送消息为持久化消息(要求保存到磁盘上)
    channel.basicPublish("",TASK_QUEUE_NAME, MessageProperties.PERSISTENT_TEXT_PLAIN
                         ,message.getBytes(StandardCharsets.UTF_8));
    System.out.println("生产者发出消息:"+message);
    	

不公平分发

  1. 在最开始的时候我们学习到 RabbitMQ. 分发消息采用的轮训分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者 1 处理任务的速度非常快,而另外一个消费者 2 处理速度却很慢,这个时候我们还是采用轮训分发的化就会到这处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是 RabbitMQ 并不知道这种情况,它依然很公平的进行分发。

  2. 为了避免这种情况,我们可以设置参数 channel.basicQos(1)

    // 设置不公平分发
    int prefetchCount = 1;
    channel.basicQos(prefetchCount);

此时要是工作线程 1 号特别慢,工作线程 2 特别快,各种线程 2 会处理好几个消息,而线程 1 才会处理一点点

# 4.4 预取值

本身消息的发送就是异步发送的,所以在任何时候,channel 上肯定不止只有一个消息另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。这个时候就可以通过使用 basic.gos. 方法设置 “预取计数” 值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ 将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,例如,假设在通道上有未确认的消息 5、6、7,8,并且通道的预取计数设置为 4,此时 RabbitMQ. 将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被 ack。比方说 tag=6 这个消息刚刚被确认 ACK,RabbitMQ 将会感知这个情况到并再发送一条消息。消息应答和 QoS 预取值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度。虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的 RAM 消耗 (随机存取存储器) 应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同 100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。

其实就相当于是每一个工作线程都有一个 channel 然后这个 channel 会按照你设置的 basicQos 方法的 prefetch 数量来决定大小,比如说你传 7 个消息,工作线程 1prefetch 是 2, 工作线程 2prefetch 是 5

那么只要你手速够块 (在工作线程 1 和 2 没有处理完任何一个消息之前) 把请求都发送过去,那么会有两个分配给工作线程 1, 五个分配给工作线程 2

之后要是还是有请求,会看哪个工作线程有空的,如果都有空那么应该是 (我的猜测) 会随机挑一个工作线程的 channel 进去排

# 5. 发布确认

注意以下都是针对 channel 信道开启发布确认模式,这样子从生产者__通过 channel__发给 broker 的消息 (交换机,队列), 然后 broker 应该持久化接收到这个信息的队列和信息本身到自身的服务器上,一旦持久化完成就会给我们生产者发送信息告诉生产者确认消息等等等,这个样子我们就可以确保 rabbitmq 服务端本身要是崩了,传给他的信息到底有没有持久化到部署这个 rabbitmq 的服务器上面.

持久化的数据在部署 rabbitmq 的服务器上,rabbitmq 也有集群,一个服务器坏了还有多个,基本不会丢失.

当然如果没设置持久化,那么发送到了 rabbitmq 队列那一刻就会发布确认.

发布确认原理

  1. 生产者将信道设置成 confirm 模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都将会被指派一个唯一的 ID (从 1 开始),一旦消息被投递到所有匹配的队列之后,broker 就会发送一个确认给生产者 (包含消息的唯一 ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号,此外 broker 也可以设置 basic.ack 的 multiple 域,表示到这个序列号之前的所有消息都已经得到了处理。

    • 别忘了给队列 (声明的时候设置) 和消息 (给队列发送消息时设置) 都设置为持久化 (生产者那边用的时候设置)
    • 持久化的数据在部署 rabbitmq 的服务器上,rabbitmq 也有集群,一个服务器坏了还有多个,基本不会丢失
  2. confirm 模式最大的好处在于他是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack. 消息。

发布确认策略

开启发布确认的方法:

发布确认默认是没有开启的,如果要开启需要调用方法 confirmSelect,每当你要想使用发布角认,都需要在 channel 上调用该方法

Channel channel = connection.createChannel();
channel.confirmSelect(); //注意是让信道开启发布确认模式!这个信道就是发布确认模式的,然后这个信道再传交换机,队列等等等

单个发布确认

  1. 这是一种简单的确认方式,它是一种__同步__确认发布的方式__,也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布,waitForConfirmsOrDie (long) 这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常。__

  2. 这种确认方式有一个最大的缺点就是: 发布速度特别的慢 ,因为如果没有确认发布的消息颍会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了。

     /*
     * 发布确认模式,
     * 1、单个确认
     * 2、批量确认
     * 3、异步批量确认
     * */
     public class ComfirmMessage {
     
         // 批量发消息的个数
         public static final int MESSAGE_COUNT = 1000;
     
         public static void main(String[] args) throws Exception {
             // 1、单个确认
             // 发布1000个单独确认消息,耗时567ms
             ComfirmMessage.publishMessageIndividually();
     
         }
     
         public static void publishMessageIndividually() throws Exception {
             Channel channel = RabbitMqUtils.getChannel();
             String queueName = UUID.randomUUID().toString();
             channel.queueDeclare(queueName,false,false,false,null);
    
         // 开启发布确认
         channel.confirmSelect();
         // 开始时间
         long begin = System.currentTimeMillis();
    
         // 批量发消息
         for (int i = 0; i < MESSAGE_COUNT; i++) {
             String message = i + "";
             channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));
             // 单个消息马上进行发布确认
             boolean flag = channel.waitForConfirms();
             if (flag){
                 System.out.println("消息发送成功");
             }
         }
    
         // 结束时间
         long end = System.currentTimeMillis();
         System.out.println("发布"+MESSAGE_COUNT+"个单独确认消息,耗时"+ (end - begin) + "ms");
     }
    }

批量确认发布

上面那种方式非常慢,与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是__同步__的,也一样阻塞消息的发布

/*
* 发布确认模式,
* 1、单个确认
* 2、批量确认
* 3、异步批量确认
* */
public class ComfirmMessage {

    // 批量发消息的个数
    public static final int MESSAGE_COUNT = 1000;

    public static void main(String[] args) throws Exception {
        //2、批量确认
        // 发布1000个批量确认消息,耗时37ms
        ComfirmMessage.publishMessageBatch();
    }

    public static void publishMessageBatch() throws Exception{
        Channel channel = RabbitMqUtils.getChannel();
        String queueName = UUID.randomUUID().toString();
        channel.queueDeclare(queueName,false,false,false,null);

        // 开启发布确认
        channel.confirmSelect();
        // 开始时间
        long begin = System.currentTimeMillis();

        // 批量确认消息大小
        int batchSize = 1000;

        // 批量发送 批量确认
        for (int i = 0; i < MESSAGE_COUNT; i++) {
            String message = i + "";
            channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));

            // 判断达到100条消息的时候,批量确认一次
            if (i%batchSize == 0){
                // 确认发布
                channel.waitForConfirms();
            }
        }

        // 结束时间
        long end = System.currentTimeMillis();
        System.out.println("发布"+MESSAGE_COUNT+"个批量确认消息,耗时"+ (end - begin) + "ms");
    }
}

还是 channel.waitForConfirms(); 这个方法,只不过这次是每一百次调用这个方法一次,而不是每次循环都调用一次

异步发布确认

异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的。

生产者发消息,消息会发到信道中,信道类似于 map 一样有 key 有 value

key 是每一个消息的序号,value 是消息的内容

所以之后要是哪个消息没有被 rabbitmq 接收到或者持久化 (反正没有让 rabbitmq 发送发布确认的) 都会找到他对应的 key 知道到底是哪个消息

  • 所以这个完全可以批量发送消息,然后之后要是某个失败了也知道具体是哪个消息
  • 并且这个还是异步的,不是同步的,生产者不用等 rabbitmq 确认发布也可以照样继续发送请求 (rabbitmq 确认发布通知是异步的)

速度是三种发布确认方式最快的,一般都是用这个.

/*
* 发布确认模式,
* 1、单个确认
* 2、批量确认
* 3、异步批量确认
* */
public class ComfirmMessage {

    // 批量发消息的个数
    public static final int MESSAGE_COUNT = 1000;

    public static void main(String[] args) throws Exception {
        //3、异步批量确认
        // 发布1000个异步确认消息,耗时36ms
        ComfirmMessage.publicMessageAsync();

    }

    public static void publicMessageAsync() throws Exception{
        Channel channel = RabbitMqUtils.getChannel();
        String queueName = UUID.randomUUID().toString();
        channel.queueDeclare(queueName,false,false,false,null);

        // 开启发布确认
        channel.confirmSelect();
        // 开始时间
        long begin = System.currentTimeMillis();

        // 消息确认成功回调函数
        ConfirmCallback ackCallback = (deliveryTag,multiply) -> {
            System.out.println("确认的消息:"+deliveryTag);
        };

        // 消息确认失败回调函数
        /*
        * 参数1:消息的标记
        * 参数2:是否为批量确认
        * */
        ConfirmCallback nackCallback = (deliveryTag,multiply) -> {
            System.out.println("未确认的消息:"+deliveryTag);
        };

        // 准备消息的监听器,监听哪些消息成功,哪些消息失败
        /*
        * 参数1:监听哪些消息成功
        * 参数2:监听哪些消息失败
        * */
        channel.addConfirmListener(ackCallback,nackCallback);

        // 批量发送消息
        for (int i = 0; i < MESSAGE_COUNT; i++) {
            String message = "消息" + i;
            channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));
        }

        // 结束时间
        long end = System.currentTimeMillis();
        System.out.println("发布"+MESSAGE_COUNT+"个异步确认消息,耗时"+ (end - begin) + "ms");
    }
}

这里就不是 channel.waitForConfirms (); 方法了

而是 channel.addConfirmListener (ackCallback,nackCallback); 注册监听器,才是异步

相当于两个线程,也就是我们发送消息的就当前线程一个线程,然后监听的一个线程

如何处理异步未确认信息?

最好的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue 这个队列在 confirm callbacks 与发布线程之间进行消息的传递

public class ComfirmMessage {

    // 批量发消息的个数
    public static final int MESSAGE_COUNT = 1000;

    public static void main(String[] args) throws Exception {
        //3、异步批量确认
        // 发布1000个异步确认消息,耗时36ms
        ComfirmMessage.publicMessageAsync();

    }

    public static void publicMessageAsync() throws Exception{
        Channel channel = RabbitMqUtils.getChannel();
        String queueName = UUID.randomUUID().toString();
        channel.queueDeclare(queueName,false,false,false,null);

        // 开启发布确认
        channel.confirmSelect();

        /*
        * 线程安全有序的一个哈希表 适用于高并发的情况下
        * 1、轻松地将序号与消息进行关联
        * 2、轻松地批量删除,只要给到序号
        * 3、支持高并发
        * */
        ConcurrentSkipListMap<Long,String> outstandingConfirms = new ConcurrentSkipListMap<>();

        // 消息确认成功回调函数
        ConfirmCallback ackCallback = (deliveryTag,multiply) -> {
            // 删除到已经确认的消息,剩下的就是未确认的消息
            if(multiply){
                ConcurrentNavigableMap<Long, String> confiremed = outstandingConfirms.headMap(deliveryTag);
                confiremed.clear();
            }else {
                outstandingConfirms.remove(deliveryTag);
            }

            System.out.println("确认的消息:"+deliveryTag);
        };

        // 消息确认失败回调函数
        /*
        * 参数1:消息的标记
        * 参数2:是否为批量确认
        * */
        ConfirmCallback nackCallback = (deliveryTag,multiply) -> {
            // 打印一下未确认的消息都有哪些
            String message = outstandingConfirms.get(deliveryTag);
            System.out.println("未确认的消息是:" + message +"未确认的消息tag:" + deliveryTag);
        };

        // 准备消息的监听器,监听哪些消息成功,哪些消息失败
        /*
        * 参数1:监听哪些消息成功
        * 参数2:监听哪些消息失败
        * */
        channel.addConfirmListener(ackCallback,nackCallback);

        // 开始时间
        long begin = System.currentTimeMillis();

        // 批量发送消息
        for (int i = 0; i < MESSAGE_COUNT; i++) {
            String message = "消息" + i;
            channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));

            // 此处记录下所有要发送的消息的总和
            outstandingConfirms.put(channel.getNextPublishSeqNo(),message);
        }

        // 结束时间
        long end = System.currentTimeMillis();
        System.out.println("发布"+MESSAGE_COUNT+"个异步确认消息,耗时"+ (end - begin) + "ms");
    }
}

我们上面就是用一个 ConcurrentLinkedQueue 来存所有的消息 (key 是每个消息的序号,value 为每个消息的本身), 这样把所有的接收到 rabbitmq 的发布确认 (异步) 就把对应的消息从 ConcurrentLinkedQueue 删除掉,然后再在接收到 rabbitmq 的消息确定失效 (异步) 就把对应的消息从 ConcurrentLinkedQueue 获取到然后通知生产者 (或者我们可以重发啊啥的等等等)

其实我们没必要在这里把确认发布的消息删除还是什么的,只是这种方式就是最终要是这个 ConcurrentLinkedQueue 里面还有东西就说明那些就是没成功被 rabbitmq 接收到的消息

三种发布确认速度对比

发布方式 特点
单独发布消息 同步等待确认,简单,但吞吐量非常有限
批量发布消息 批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题。
异步处理 最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些

# 6. 交换机

# 6.1 交换机简介

这样同一个消息就可以被多个消费者消费,我们之前的就是一个消息只能消费一次,然后消费者是竞争模式

介绍

  1. RabbitMQ 消息传递模型的核心思想是: 生产者生产的消息从不会直接发送到队列 。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。

  2. 相反,生产者只能将消息发送到交换机 (exchange),交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定。

  3. 总共有以下几个类型:

    直接(direct)、主题(topic)、标题(headers)、扇出(fanout)

  4. 无名交换机:

    在本教程的前面部分我们对 exchange 一无所知,但仍然能够将消息发送到队列。之前能实现的原因是因为我们使用的是默认交换,我们通过空字符串 (“”) 进行标识。

    第一个参数是交换机的名称。空字符串表示默认或无名称交换机:消息能路由发送到队列中其实是由 routingKey (bindingkey) 绑定 key 指定的,如果它存在的话

    channel.basiPublish("","hello",null,message.getBytes())

所以要是写其他交换机,第二个参数就必须是个 routingKey

# 6.2 临时队列

  1. 每当我们连接到 Rabbit 时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者能让服务器为我们选择一个随机队列名称那就更好了。其次一旦我们断开了消费者的连接,队列将被自动删除。

  2. 创建临时队列的方式如下:

    String queueName = channel.queueDeclare().getQueue(); //不要给名称等等等

创建出来的队列长这样:

# 6.3 Bindings

简介

什么是 bingding. 呢,binding 其实是 exchange 和 queue 之间的桥梁,它告诉我们 exchange 和那个队列进行了绑定关系。比如说下面这张图告诉我们的就是 × 与 Q1 和 Q2 进行了绑定

这里这个 routingkey 是我们自己配的,随便配的

一旦我们发送消息给这个交换机,这个交换机就会找到我们给的 routingKey 找到对应的队列然后发送消息

这样我们可能有多个队列都是同一个 routingKey, 所以消息会从这个交换机 pass on 到那所有对应的 routingKey 的队列,这样每个队列可以把消息发给消费者,多个队列说明多个消费者可以收到那个消息

# 6.4 Fanout

这种交换机最大的特点就是只要是跟这个绑定的队列都会收到交给这个交换机发送的消息,不管你 RoutingKey 一不一样 (所以随便设都行), 有点像广播的意思

简介

Fanout 这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播到它知道的所有队列中。系统中默认有些 exchange 类型

实战

  1. 消费者

        /*
     * 消息接收
     * */
     public class ReceiveLogs01 {
     
         //交换机名称
         public static final String EXCHANGE_NAME = "logs";
     
         public static void main(String[] args) throws Exception{
             Channel channel = RabbitMqUtils.getChannel();
    
         //声明一个队列,名称随机,当消费者断开与队列的连接时,队列自动删除
         String queueName = channel.queueDeclare().getQueue();
    
         //绑定交换机与队列
         channel.queueBind(queueName,EXCHANGE_NAME,"");
         System.out.println("等待接受消息,把接受到的消息打印在屏幕上...");
    
    
         DeliverCallback deliverCallback = (consumerTag,message) -> {
             System.out.println("ReceiveLogs01控制台打印接受到的消息:" + new String(message.getBody()));
         };
    
         channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});
     }
    }
    
     /*
     * 消息接收
     * */
     public class ReceiveLogs02 {
     
         //交换机名称
         public static final String EXCHANGE_NAME = "logs";
     
         public static void main(String[] args) throws Exception{
             Channel channel = RabbitMqUtils.getChannel();
    
         //声明一个队列,名称随机,当消费者断开与队列的连接时,队列自动删除
         String queueName = channel.queueDeclare().getQueue();
    
         //绑定交换机与队列
         channel.queueBind(queueName,EXCHANGE_NAME,"");
         System.out.println("等待接受消息,把接受到的消息打印在屏幕上...");
    
    
         DeliverCallback deliverCallback = (consumerTag,message) -> {
             System.out.println("ReceiveLogs02控制台打印接受到的消息:" + new String(message.getBody()));
         };
    
         channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});
     }
    }
    

    是在消费者这里给交换机绑定到一个队列

  2. 生产者

     /*
     *  发消息 交换机
     * */
     public class Emitlog {
         // 交换机的名称
         public  static  final String EXCHANGE_NAME = "logs";
     
         public static void main(String[] args) throws  Exception{
             Channel channel = RabbitMqUtils.getChannel();
             channel.exchangeDeclare(EXCHANGE_NAME,"fauout"); // 声明交换机
    
         Scanner scanner = new Scanner(System.in);
         while (scanner.hasNext()){
             String message = scanner.next();
             channel.basicPublish(EXCHANGE_NAME,"",null,message.getBytes(StandardCharsets.UTF_8));
             System.out.println("生产者发出的消息:"+ message);
         }
     }
    }
    
  3. 效果

# 6.5 Direct

实现原理

实战

一个队列可以有多个 RoutingKey

  1. 生产者

    public class DirectLogs {
     // 交换机的名称
     public  static  final String EXCHANGE_NAME = "direct_logs";
    
     public static void main(String[] args) throws  Exception{
         Channel channel = RabbitMqUtils.getChannel();
         channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
    
         Scanner scanner = new Scanner(System.in);
         while (scanner.hasNext()){
             String message = scanner.next();
             channel.basicPublish(EXCHANGE_NAME,"info",null,message.getBytes(StandardCharsets.UTF_8));
             System.out.println("生产者发出的消息:"+ message);
         }
     }
    }
    
  2. 消费者

    public class ReceiveLogsDirect01 {
     public static final String EXCHANGE_NAME = "direct_logs";
    
     public static void main(String[] args) throws Exception {
         Channel channel = RabbitMqUtils.getChannel();
    
         //声明一个队列
         channel.queueDeclare("console",false,false,false,null);
    
         //绑定交换机与队列
         channel.queueBind("console",EXCHANGE_NAME,"info");
         channel.queueBind("console",EXCHANGE_NAME,"warning");
    
    
         DeliverCallback deliverCallback = (consumerTag, message) -> {
             System.out.println("ReceiveLogsDirect01控制台打印接受到的消息:" + new String(message.getBody()));
         };
    
         channel.basicConsume("console",true,deliverCallback,consumerTag -> {});
     }
    }
    
    public class ReceiveLogsDirect02 {
     public static final String EXCHANGE_NAME = "direct_logs";
    
     public static void main(String[] args) throws Exception {
         Channel channel = RabbitMqUtils.getChannel();
    
         //声明一个队列
         channel.queueDeclare("disk",false,false,false,null);
    
         //绑定交换机与队列
         channel.queueBind("disk",EXCHANGE_NAME,"error");
    
    
         DeliverCallback deliverCallback = (consumerTag, message) -> {
             System.out.println("ReceiveLogsDirect02控制台打印接受到的消息:" + new String(message.getBody()));
         };
    
         channel.basicConsume("disk",true,deliverCallback,consumerTag -> {});
     }
    }
    

    这样在生产者里面发消息如果发给这个交换机 (Direct), 并且 RoutingKey 设置为了 info (上方), 那么就会去找这个 RoutingKey 对应的那个队列传消息

  3. 效果

# 6.6 Topics

这种交换机就是允许我们写多个 RoutingKey, 然后之后这个交换机就会给所有绑定的有着对应的 Routingkey 的队列传消息

因为采用匹配的方式,看下方

介绍

  1. 发送到类型是 topic 交换机的消息的 routing_key 不能随意写,必须满足一定的要求,它 必须是一个单词列表,以点号分隔开 。这些单词可以是任意单词,比如说: “stock.usd.nyse” , “nyse.vmw”,"quick.orange.rabbit" 这种类型的。当然这个单词列表最多不能超过 255 个字节。
  2. 在这个规则列表中,其中有两个替换符:
    • * 可以代替一个单词
    • # 可以代替零个或多个单词

匹配案例

下图绑定关系如下:

Q1 绑定的是:中间带 orange 的三个单词的字符串: *.orange.*

Q2 绑定的是:最后一个单词是 rabbit 的单个单词: *.*.rabbit ,第一个单词是 lazy 的多个单词: lazy.#

数据接收情况如下:

  1. quick.orange.rabbit:被队列 Q1Q2 接收到
  2. quick.orange.fox:被队列 Q1 接收到
  3. lazy.brown.fox:被队列 Q2 接收到
  4. lazy.pink.rabbit:虽然满足队列 Q2 的两个绑定但是只会被接收一次
  5. quick.orange.male.rabbit:四个单词不匹配任何绑定会被丢弃

结论

  1. 当一个队列绑定键是 # , 那么这个队列将接收所有数据,就有点像 fanout 了
  2. 如果队列绑定键当中没有 #和* 出现,那么该队列绑定类型就是 direct 了

实战

  1. 生产者

    public class EmitLogTopic {
     //交换机的名称
     public static final String EXCHANGE_NAME = "topic_logs";
    
     public static void main(String[] args)  throws Exception{
         Channel channel = RabbitMqUtils.getChannel();
    
    
         HashMap<String, String> map = new HashMap<>();
         map.put("quick.orange.rabbit","被队列Q1Q2接收到");
         map.put("quick.orange.fox","被队列Q1接收到");
         map.put("lazy.brown.fox","被队列Q2接收到 ");
         map.put("lazy.pink.rabbit","虽然满足队列Q2的两个绑定但是只会被接收一次");
         map.put("quick.orange.male.rabbit","四个单词不匹配任何绑定会被丢弃");
    
         for (Map.Entry<String, String> bindingKeyEntry : map.entrySet()) {
             String routingKey = bindingKeyEntry.getKey();
             String message = bindingKeyEntry.getValue();
    
             channel.basicPublish(EXCHANGE_NAME,routingKey,null,message.getBytes(StandardCharsets.UTF_8));
             System.out.println("生产者发送消息:"+ message );
    
         }
      }
    }
  2. 消费者

    /*
    * 声明主题交换机及相关队列
    * 消费者C1
    * */
    public class ReceiveLogsTopic01 {
        //交换机名称
        public static final String EXCHANGE_NAME = "topic_logs";
    
        public static void main(String[] args)  throws Exception{
            Channel channel = RabbitMqUtils.getChannel();
    
            //声明交换机
            channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC);
    
            //声明队列
            String queueName = "Q1";
            channel.queueDeclare(queueName,false,false,false,null);
    
            //队列捆绑
            channel.queueBind(queueName,EXCHANGE_NAME,"*.orange.*");
            System.out.println("等待接收消息......");
    
            DeliverCallback deliverCallback = (consumerTag,message) -> {
                System.out.println(new String(message.getBody()));
                System.out.println("接收队列:"+ queueName + "绑定键:" + message.getEnvelope().getRoutingKey());
            };
    
            //接收消息
            channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});
        }
    }
    /*
    * 声明主题交换机及相关队列
    * 消费者C2
    * */
    public class ReceiveLogsTopic02 {
        //交换机名称
        public static final String EXCHANGE_NAME = "topic_logs";
    
        public static void main(String[] args)  throws Exception{
            Channel channel = RabbitMqUtils.getChannel();
    
            //声明交换机
            channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC);
    
            //声明队列
            String queueName = "Q2";
            channel.queueDeclare(queueName,false,false,false,null);
    
            //队列捆绑
            channel.queueBind(queueName,EXCHANGE_NAME,"*.*.rabbit");
            channel.queueBind(queueName,EXCHANGE_NAME,"*lazy.#");
            System.out.println("等待接收消息......");
    
            DeliverCallback deliverCallback = (consumerTag,message) -> {
                System.out.println(new String(message.getBody()));
                System.out.println("接收队列:"+ queueName + "绑定键:" + message.getEnvelope().getRoutingKey());
            };
    
            //接收消息
            channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});
        }
    }
  3. 结果

# 7. 死信队列

概念

  1. 死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer 将消息投递到 broker 或者直接到 queue 里了,consumer 从 queue 取出消息进行消费, 但某些时候由于特定的原因导致queue中的某些消息无法被消费 ,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
  2. 应用场景:为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中。还有比如说:用户在商城下单成功并点击去支付后在指定时间未支付时自动失效

来源

  1. 消息 TTL 过期
  2. 队列达到最大长度(队列满了,无法再添加数据到 mq 中)
  3. 消息被拒绝(basic.reject 或 basic.nack)并且 requeue=false (这个就是拒绝放回队列中)

上面的任意一个都会导致那个消息放到死信队列

死信队列其实是绑定在死信交换机上的普通队列,而死信交换机也只是一个普通的交换机,不过是用来专门处理死信的交换机

代码架构图

因为那三个任意一个原因导致消息被放到死信交换机,然后这个死信交换机也有 Routingkey 绑定 (bind) 一个死信队列,然后这个死信队列把消息交给 C2 消费 (我们自己写自己配置)

消息 TTL 过期

  1. 生产者

       /*
    * 死信队列之生产者代码
    *
    * */
    public class Producer {
    
        //普通交换机的名称
        public static final String NORMAL_EXCHANGE = "normal_exchange";
        public static void main(String[] args) throws Exception{
            Channel channel = RabbitMqUtils.getChannel();
    
            //死信消息,设置TTL时间  单位是ms  10000ms是10s
            AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();
    
            for (int i = 0; i < 10; i++) {
                String message = "info" + i;
                channel.basicPublish(NORMAL_EXCHANGE,"zhangsan",properties,message.getBytes(StandardCharsets.UTF_8));
            }
        }
    }

    注意上方我们发消息时传了个配置,那个配置就会让我们消息超过 ttl 时间成为死亡消息

  2. 消费者

     /*
     * 死信队列实战
     * 消费者01
     * */
     public class Consumer01 {
     
         //普通交换机名称
         public static final String NORMAL_EXCHANGE = "normal_exchange";
     
         //死信交换机名称
         public static final String DEAD_EXCHANGE = "dead_exchange";
     
         //普通队列名称
         public static final String NORMAL_QUEUE = "normal_queue";
     
         //死信队列名称
         public static final String DEAD_QUEUE = "dead_queue";
     
         public static void main(String[] args) throws  Exception{
             Channel channel = RabbitMqUtils.getChannel();
     
             //声明死信和普通的交换机类型为direct
             channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
             channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
     
             //声明普通队列
             HashMap<String, Object> arguments = new HashMap<>();
     
             //过期时间
             arguments.put("x-message-ttl",1000);
             //正常队列设置死信队列
             arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);
             //设置死信RoutingKey
             arguments.put("x-dead-letter-routing-key","lisi");
    
         //声明死信和普通队列
         channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);
         channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
    
         //绑定普通的交换机与普通的队列
         channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan");
         //绑定死信的交换机与死信的队列
         channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
         System.out.println("等待接收消息......");
    
         DeliverCallback deliverCallback = (consumerTag,message) -> {
             System.out.println("Consumer01接收的消息是:" + new String(message.getBody()));
         };
    
         channel.basicConsume(NORMAL_QUEUE,true,deliverCallback,consumerTag->{});
     }
    }

    注意我们上面声明那个正常的队列的时候把 arguments 传给这个队列,那么这个正常队列就知道在发生之前说的那三种导致消息放到死信队列任意一种 (按照我们给的 arguments 参数,比如说超过了我们设置的 ttl 时间) 发生就会把那个消息放到我们 arguments 参数配置的那个交换机 (就是那个普通的交换机被我们叫做死亡交换机) 和那个交换机绑定了的队列 (就是那个普通的队列被我们叫做死亡队列). 然后死亡队列有了那个消息,就跟正常的一个队列一样 (其实就是正常的队列只不过我们叫做死亡队列) 把那个消息传给 C2 因为 C2 里面 channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag->{}); 然后交给 C2 来处理发送来的消息

    由此可见,就是当我们正常的队列传消息的那个消费者因为那三种原因任意一种 (这时候就说明当前这个消费者无法处理这个消息), 我们就可以把这个消息传给死亡队列,然后死亡队列再把消息交给某一个消费者来处理等等等,然后这个消费者可能还配置了当前队列的死亡队列,就是万一当前的消费者因为某种 (那三个) 原因也不无法处理消息,还是会交给别的… 等等等

     /*
     * 死信队列实战
     * 消费者02
     * */
     public class Consumer02 {
     
         //死信队列名称
         public static final String DEAD_QUEUE = "dead_queue";
     
         public static void main(String[] args) throws  Exception{
             Channel channel = RabbitMqUtils.getChannel();
             System.out.println("等待接收消息......");
    
         DeliverCallback deliverCallback = (consumerTag,message) -> {
             System.out.println("Consumer02接收的消息是:" + new String(message.getBody()));
         };
    
         channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag->{});
     }
    }
  3. 效果:启动生产者后,10 条消息被传送到 NORMAL_QUEUE,然后被传送到 DEAD_QUEUE,此时启动消费者 02,消息全被接收。

队列达到最大长度

  1. 生产者

  2. 消费者

    • 消费者 01

    • 消费者 02 无需做修改

  3. 效果:

消息被拒绝

  1. 生产者代码无改变

  2. 消费者:

    • 消费者 01

    basicReject 方法那里传的第二个参数就是拒绝当前消息还要不要把消息放回队列了,我们给的 false 不放回

    还有记得 basicConsume 函数第二个参数传的是 false 开启手动应答,不然压根就不存在什么 basicReject 和 basicAck

    • 消费者 02 代码无改变
  3. 效果

拒绝了然后又不把那个消息放回队列就会把这个消息放到当前队列配置的死信交换机以及绑定的死信队列

# 8. 延迟队列

其实就是死信队列的一种,特别指的就是消息 TTL 过期

概念

延时队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。

延迟队列存的就是延迟消息,至于延迟多久完全取决于我们的生产者设置的

使用场景

  1. 订单在十分钟之内未支付则自动取消

    下了这个订单之后,需要往延迟队列发送一个消息,然后十分钟之后从延迟队列出来了,判断有没有支付订单,如果要是没有支付就取消尚未被支付的订单

  2. 新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。

  3. 用户注册成功后,如果三天内没有登陆则进行短信提醒。

  4. 用户发起退款,如果三天内没有得到处理则通知相关运营人员。

  5. 预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议

这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于 “如果账单一周内未支付则进行自动结算” 这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭 “,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。

# 8.1 整合 Springboot

  1. XML

    <dependencies>
         <dependency>
             <groupId>org.springframework.boot</groupId>
             <artifactId>spring-boot-starter</artifactId>
         </dependency>
    
         <dependency>
             <groupId>org.springframework.boot</groupId>
             <artifactId>spring-boot-starter-test</artifactId>
             <scope>test</scope>
         </dependency>
    
         <dependency>
             <groupId>org.springframework.boot</groupId>
             <artifactId>spring-boot-starter-amqp</artifactId>
         </dependency>
    
         <dependency>
             <groupId>org.springframework.boot</groupId>
             <artifactId>spring-boot-starter-web</artifactId>
         </dependency>
    
         <dependency>
             <groupId>com.alibaba</groupId>
             <artifactId>fastjson</artifactId>
             <version>1.2.73</version>
         </dependency>
    
         <dependency>
             <groupId>org.projectlombok</groupId>
             <artifactId>lombok</artifactId>
         </dependency>
    
         <dependency>
             <groupId>io.springfox</groupId>
             <artifactId>springfox-swagger2</artifactId>
             <version>2.9.2</version>
         </dependency>
    
         <dependency>
             <groupId>io.springfox</groupId>
             <artifactId>springfox-swagger-ui</artifactId>
             <version>2.9.2</version>
         </dependency>
    
         <dependency>
             <groupId>org.springframework.amqp</groupId>
             <artifactId>spring-rabbit-test</artifactId>
             <scope>test</scope>
         </dependency>
     </dependencies>
  2. 配置文件

    spring.rabbitmq.host=192.168.163,128
    spring.rabbitmq.port=5672
    spring.rabbitmq.username=admin
    spring.rabbitmq.password=123
  3. 添加 Swagger 配置类

     @Configuration
     @EnableSwagger2
     public class SwaggerConfig {
         @Bean
         public Docket webApiConfig(){
             return new Docket(DocumentationType.SWAGGER_2)
                     .groupName("webApi")
                     .apiInfo(webApiInfo())
                     .select()
                     .build();
         }
    
     private ApiInfo webApiInfo(){
         return new ApiInfoBuilder()
                 .title("rabbitmq接口文档")
                 .description("本文档描述了rabbitmq微服务接口定义")
                 .version("1.0")
                 .contact(new Contact("enjoy6288","http://atguigu.com","123456@qq.com"))
                 .build();
     }
    }

# 8.2 队列实现

代码架构

创建两个队列 QA 和 QB,两者队列 TTL 分别设置为 10S 和 40S,然后在创建一个交换机 X 和死信交换机 Y,它们的类型都是 direct,创建一个死信队列 QD,它们的绑定关系如下:

代码实现

  1. 配置类代码

    我们所有之前的那些交换机声明啊队列声明啊交换机与队列绑定 (RoutingKey) 等等等等等等都不需要在生产者或者消费者里面写了,用了 SpringBoot 只需要在配置类里面写就行了,我们生产者只需要关心发消息,我们的消费者只需要关心接收消息即可

    @Configuration
    @EnableSwagger2
    public class SwaggerConfig {
        @Bean
        public Docket webApiConfig(){
            return new Docket(DocumentationType.SWAGGER_2)
                    .groupName("webApi")
                    .apiInfo(webApiInfo())
                    .select()
                    .build();
        }
    
        private ApiInfo webApiInfo(){
            return new ApiInfoBuilder()
                    .title("rabbitmq接口文档")
                    .description("本文档描述了rabbitmq微服务接口定义")
                    .version("1.0")
                    .contact(new Contact("enjoy6288","http://atguigu.com","123456@qq.com"))
                    .build();
        }
    }
    /*
    * TTL队列 配置文件类代码
    *
    * */
    @Configuration
    public class TtlQueueConfig {
    
        //普通交换机的名称
        public static final String  X_EXCHANGE = "X";
        //死信交换机的名称
        public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
        //普通队列的名称
        public static final String QUEUE_A = "QA";
        public static final String QUEUE_B = "QB";
        //死信队列的名称
        public static final String DEAD_LATTER_QUEUE = "QD";
    
        //声明xExchange
        @Bean("xExchange")
        public DirectExchange xExchange(){
            return new DirectExchange(X_EXCHANGE);
        }
    
        //声明yExchange
        @Bean("yExchange")
        public DirectExchange yExchange(){
            return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);
        }
    
        //声明队列
        @Bean("queueA")
        public Queue queueA(){
            Map<String, Object> arguments = new HashMap<>(3);
            //设置死信交换机
            arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
            //设置死信Routing-key
            arguments.put("x-dead-letter-routing-key","YD");
            //设置TTL 单位是ms
            arguments.put("x-message-ttl",10000);
            return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();
        }
    
        //声明普通队列 TTL为40s
        @Bean("queueB")
        public Queue queueB(){
            Map<String, Object> arguments = new HashMap<>(3);
            //设置死信交换机
            arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
            //设置死信Routing-key
            arguments.put("x-dead-letter-routing-key","YD");
            //设置TTL 单位是ms
            arguments.put("x-message-ttl",40000);
            return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();
        }
    
        //死信队列
        @Bean("queueD")
        public Queue queueD(){
            return QueueBuilder.durable(DEAD_LATTER_QUEUE).build();
        }
    
        //绑定
        @Bean
        public Binding queueABindingX(@Qualifier("queueA") Queue queueA,
                                      @Qualifier("xExchange") DirectExchange xExchange){
            return BindingBuilder.bind(queueA).to(xExchange).with("XA");
        }
    
        //绑定
        @Bean
        public Binding queueBBindingX(@Qualifier("queueB") Queue queueB,
                                      @Qualifier("xExchange") DirectExchange xExchange){
            return BindingBuilder.bind(queueB).to(xExchange).with("XB");
        }
    
        //绑定
        @Bean
        public Binding queueDBindingX(@Qualifier("queueD") Queue queueD,
                                      @Qualifier("yExchange") DirectExchange yExchange){
            return BindingBuilder.bind(queueD).to(yExchange).with("YD");
        }
    }
  2. 消费者代码

    /*
    * 队列TTL 消费者
    * */
    @Slf4j
    @Component
    public class DeadLetterQueueConsumer {
    
        //接收消息
        @RabbitListener(queues = "QD") //用这个注解我们方法的参数就可以接收Message和Channel类的对象对应这个队列的channel和消息	
        public void receiveD(Message message, Channel channel) throws Exception {
            String msg = new String(message.getBody());
            log.info("当前时间:{},收到死信队列的消息:{}",new Date().toString(),msg);
        }
    }
  3. 生产者代码

    /*
    * 发送延迟消息
    * */
    @Slf4j
    @RestController
    @RequestMapping("/ttl")
    public class SendMsgController {
    
        @Autowired
        private RabbitTemplate rabbitTemplate;
    
        //开始发消息
        @GetMapping("/sendMsg/{message}")
        public void sendMsg(@PathVariable String message){
          log.info("当前时间:{},发送一条信息给两个TTL队列:{}",new Date().toString(),message);
    
          rabbitTemplate.convertAndSend("X","XA","消息来自TTL为10s的队列:" + message);
          rabbitTemplate.convertAndSend("X","XB","消息来自TTL为40s的队列:" + message);
    
        }
    }
  4. 效果

# 8.3 队列优化

问题

第一条消息在 10S 后变成了死信消息,然后被消费者消费掉,第二条消息在 40S 之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有 10S 和 40S 两个时间选项,如果需要一个小时后处理,那么就需要增加 TTL 为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?

代码架构图

由我们生产者发送到底需要延迟多久时间给我们 QC, 那我们 QC 延迟队列就会按照我们传了多久延迟多久,这样适用于所有延迟队列,比 QA 和 QB 好

QC 这个延迟队列会在我们设置的时间过了之后将那个消息传给死信交换机和死信队列 QD

注意我们这个就是之前讲的死信队列得消息 TTL 过期,只不过我们这里这个延迟队列 (中间工具人队列) 没有对应的消费者接收消息,因为这里没必要,我们只需要死信队列那边把消息传给消费者处理消息

实现

  1. 配置文件类

    /*
    * TTL队列 配置文件类代码
    *
    * */
    @Configuration
    public class TtlQueueConfig {
    
    
        //普通交换机的名称
        public static final String  X_EXCHANGE = "X";
        //死信交换机的名称
        public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
        //普通队列的名称
        public static final String QUEUE_A = "QA";
        public static final String QUEUE_B = "QB";
        public static final String QUEUE_C = "QC";
        //死信队列的名称
        public static final String DEAD_LATTER_QUEUE = "QD";
    
        //声明QC队列
        @Bean("queueC")
        public Queue queueC(){
            Map<String, Object> arguments = new HashMap<>();
            //设置死信交换机
            arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
            //设置死信RoutingKey
            arguments.put("x-dead-letter-routing-key","YD");
            return QueueBuilder.durable().withArguments(arguments).build();
        }
    
        @Bean
        public Binding queueCBindingX(@Qualifier("queueC") Queue queueC,@Qualifier("xExchange") DirectExchange xExchange){
            return BindingBuilder.bind(queueC).to(xExchange).with("XC");
        }
    
        //声明xExchange
        @Bean("xExchange")
        public DirectExchange xExchange(){
            return new DirectExchange(X_EXCHANGE);
        }
    
        //声明yExchange
        @Bean("yExchange")
        public DirectExchange yExchange(){
            return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);
        }
    
        //声明队列
        @Bean("queueA")
        public Queue queueA(){
            Map<String, Object> arguments = new HashMap<>(3);
            //设置死信交换机
            arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
            //设置死信Routing-key
            arguments.put("x-dead-letter-routing-key","YD");
            //设置TTL 单位是ms
            arguments.put("x-message-ttl",10000);
            return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();
        }
    
        //声明普通队列 TTL为40s
        @Bean("queueB")
        public Queue queueB(){
            Map<String, Object> arguments = new HashMap<>(3);
            //设置死信交换机
            arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
            //设置死信Routing-key
            arguments.put("x-dead-letter-routing-key","YD");
            //设置TTL 单位是ms
            arguments.put("x-message-ttl",40000);
            return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();
        }
    
        //死信队列
        @Bean("queueD")
        public Queue queueD(){
            return QueueBuilder.durable(DEAD_LATTER_QUEUE).build();
        }
    
        //绑定
        @Bean
        public Binding queueABindingX(@Qualifier("queueA") Queue queueA,
                                      @Qualifier("xExchange") DirectExchange xExchange){
            return BindingBuilder.bind(queueA).to(xExchange).with("XA");
        }
    
        //绑定
        @Bean
        public Binding queueBBindingX(@Qualifier("queueB") Queue queueB,
                                      @Qualifier("xExchange") DirectExchange xExchange){
            return BindingBuilder.bind(queueB).to(xExchange).with("XB");
        }
    
        //绑定
        @Bean
        public Binding queueDBindingX(@Qualifier("queueD") Queue queueD,
                                      @Qualifier("yExchange") DirectExchange yExchange){
            return BindingBuilder.bind(queueD).to(yExchange).with("YD");
        }
    }
  2. 生产者

    /*
    * 发送延迟消息
    * */
    @Slf4j
    @RestController
    @RequestMapping("/ttl")
    public class SendMsgController {
    
        @Autowired
        private RabbitTemplate rabbitTemplate;
    
    
    
        //开始发消息
        @GetMapping("/sendMsg/{message}")
        public void sendMsg(@PathVariable String message){
          log.info("当前时间:{},发送一条信息给两个TTL队列:{}",new Date().toString(),message);
    
          rabbitTemplate.convertAndSend("X","XA","消息来自TTL为10s的队列:" + message);
          rabbitTemplate.convertAndSend("X","XB","消息来自TTL为40s的队列:" + message);
    
        }
        //开始发消息
        @GetMapping("sendExpirationMsg/{message}/{ttlTime}")
        public void sendMsg(@PathVariable String message,@PathVariable String ttlTime){
            log.info("当前时间:{},发送一条时长{}毫秒TTL信息给队列QC:{}",
                    new Date().toString(),ttlTime,message);
            rabbitTemplate.convertAndSend("X","XC",message,msg->{
                //发送消息的时候 延迟时长
                msg.getMessageProperties().setExpiration(ttlTime);
                return msg;
            });
        }
    }
  3. 消费者代码无需改变

  4. 效果及问题:按理来说应该是你好 2 先收到

    因为 RabbitMQ 检查第一个消息是否过期,如果过期则丢到死信队列, 如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行!队列嘛,先进先出,你好 1 这个消息先进入 QC 延迟队列,你好 2 这个消息再进入。期间就算你好 2 这个消息先过期 (因为没有消费者接收所以不会有任何的消费者给我们的 rabbitmq 发送应答什么的应该是) 因为我们设置得 ttl 时间很短,还是不会传给死信交换机,因为当前 QC 延迟队列你好 1 消息排到第一个,需要等他的 TTL 时间到了 (因为没有消费者接收所以不会有任何的消费者给我们的 rabbitmq 发送应答什么的应该是), 才会从当前队列 dequeue 然后到死信交换机,so on…(我们的你好 1 信息一出,我们你好 2 信息也会立马出,因为 TTL 时间早到了,你好 1 消息一 dequeue 这个就是 front of queue 了也会 dequeue 到死信交换机 so on…), 这样不好我们需要插件实现延迟队列弥补这个坏处 (下方)

注意只要配置好 TTL 过期时间,因为我们并没有 QA,QB,QC 队列那里有消费者接收消息,说明那个消息会一直在那个队列中,所以等时间一到 TTL 时间,那么就会被传给死信交换机,然后按照我们配置的他的 RoutingKey 传给死信队列,这个死信队列有消费者从那取消息.

# 8.4 插件实现延迟队列

image-20220219010902943

安装插件后设置延迟的是在交换机而不是队列了

也就是

image-20220219011226594

也不需要死信交换机和死信队列了

  1. 下载延迟插件

    https://github.com/rabbitmq/rabbitmq-delayed-message-exchange/releases/download/3.8.9/rabbitmq_delayed_message_exchange-3.8.9-0199d11c.ez

  2. 将延迟插件放到 RabbitMQ 的插件目录下:

  3. 安装插件并重启服务

    rabbitmq-plugins enable rabbitmq_delayed_message_exchange
    systemctl restart rabbitmq-server
    	

代码架构图

实现

  1. 配置文件类

     @Configuration
     public class DelayedQueueConfig {
    
     //队列
     public static final String DELAYED_QUEUE_NAME = "delayed.queue";
     //交换机
     public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";
     //routingKey
     public static final String DELAYED_ROUTING_KEY = "delayed.routingkey";
    
     //声明队列
     @Bean
     public Queue delayedQueue(){
       return new Queue(DELAYED_QUEUE_NAME);
     };
    
     //声明交换机
     @Bean
     public CustomExchange delayedExchange(){
    
         Map<String, Object> arguments = new HashMap<>();
         arguments.put("x-delayed-type","direct");
    
         return new CustomExchange(DELAYED_EXCHANGE_NAME,"x-delayed-message",
                 true,false,arguments);
     }
     //绑定
     @Bean
     public Binding delayedQueueBindingDelayedExchange(@Qualifier("delayedQueue") Queue delayedQueue,
                                                       @Qualifier("delayedExchange") CustomExchange delayedExchange){
         return BindingBuilder.bind(delayedQueue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();
     }
    }
  2. 消费者

     // 消费者代码 基于插件的延迟消息
     @Slf4j
     @Component
     public class DelayQueueConsumer {
    
     //监听消息
     @RabbitListener(queues = DelayedQueueConfig.DELAYED_QUEUE_NAME)
     public void recieveDelayQueue(Message message){
         String msg = new String(message.getBody());
         log.info("当前时间:{},收到延迟队列的消息:{}",new Date().toString(),msg);
     }
    }
  3. 生产者

    /*
    * 发送延迟消息
    * */
    @Slf4j
    @RestController
    @RequestMapping("/ttl")
    public class SendMsgController {
    
        @Autowired
        private RabbitTemplate rabbitTemplate;
    
        //开始发消息 基于插件的 消息 及 延迟的时间
        @GetMapping("/sendDelayMsg/{message}/{delayTime}")
        public void sendMsg(@PathVariable String message,@PathVariable Integer delayTime){
            log.info("当前时间:{},发送一条时长{}毫秒信息给延迟队列delayed.queue:{}",
                    new Date().toString(),delayTime,message);
            rabbitTemplate.convertAndSend(DelayedQueueConfig.DELAYED_EXCHANGE_NAME
                    ,DelayedQueueConfig.DELAYED_ROUTING_KEY,message,msg -> {
                // 发送消息的时候 延迟时长 单位ms
                msg.getMessageProperties().setDelay(delayTime);
                return msg;
                    });
        }
    }
  4. 效果

    访问:

    http://localhost:8080/ttl/sendDelayMsg/come on baby1/20000,http://localhost:8080/ttl/sendDelayMsg/come on baby1/20000

总结

  1. 延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用
    RabbitMQ. 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。
  2. 当然,延时队列还有很多其它选择,比如利用 Java 的 DelayQueue,利用 Redis. 的 zsset,利用 Quartz 或者利用 kafka 的时间轮,这些方式各有特点,看需要适用的场景

# 9. 发布确认高级

介绍

在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 RabbitMQ 重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢?特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理呢:

其实跟之前说的发布确认一个东西,只不过这是跟 springboot 整合的方式

实现

  1. 配置文件:添加

    spring.rabbitmq.publisher-confirm-type = correlated
  2. 配置类

    // 配置类:发布确认(高级)
    @Configuration
    public class ConfirmConfig {
    
        //交换机
        public static final String CONFIRM_EXCHANGE_NAME = "confirm_exchange";
        //队列
        public static final String CONFIRM_QUEUE_NAME = "confirm_queue";
        //RoutingKey
        public static final String CONFIRM_routing_key = "key1";
    
        //声明交换机
        @Bean
        public DirectExchange confirmExchange(){
            return new DirectExchange(CONFIRM_EXCHANGE_NAME);
        }
    
        @Bean
        public Queue confirmQueue(){
            return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
        }
    
        //绑定
        @Bean
        public Binding queueBindingExchange(@Qualifier("confirmQueue") Queue confirmQueue,
                                            @Qualifier("confirmExchange")DirectExchange confirmExchange){
            return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_routing_key);
        }
    }
  3. 生产者

     // 开始发消息 测试确认
     @RestController
     @Slf4j
     @RequestMapping("/confirm")
     public class ProducerController {
    
     @Autowired
     private RabbitTemplate rabbitTemplate;
    
     //发消息
     @GetMapping("/sendMessage/{message}")
     public void sendMessage(@PathVariable String message){
         rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME
                 ,ConfirmConfig.CONFIRM_routing_key
                 ,message);
         log.info("发送消息内容:{}",message);
     }
    }
  4. 消费者

     // 接收消息
     @Slf4j
     @Component
     public class Consumer {
    
     @RabbitListener(queues = ConfirmConfig.CONFIRM_QUEUE_NAME)
     public void receiveConfirmMessage(Message message){
         String msg = new String(message.getBody());
         log.info("接受到的队列confirm.queue消息:{}",msg);
     }
    }
  5. 回调接口

    @Component
    @Slf4j
    public class MyCallBack implements RabbitTemplate.ConfirmCallback {
    	
    @Autowired
    private RabbitTemplate rabbitTemplate;
    	
    @PostConstruct
    public void init(){
        //注入
        rabbitTemplate.setConfirmCallback(this);
    }
    	
    /*
    * 交换机确认回调方法,发消息后,交换机接收到了就回调
    *   1.1 correlationData:保存回调消息的ID及相关信息
    *   1.2 b:交换机收到消息,为true
    *   1.3 s:失败原因,成功为null
    *
    * 发消息,交换机接受失败,也回调
    *   2.1 correlationData:保存回调消息的ID及相关信息
    *   2.2 b:交换机没收到消息,为false
    *   2.3 s:失败的原因
    *
     * */
    	
    @Override
    public void confirm(CorrelationData correlationData, boolean b, String s) {
        String id = correlationData!=null ? correlationData.getId():"";
        if (b){
            log.info("交换机已经收到ID为:{}的信息",id);
        }else {
            log.info("交换机还未收到ID为:{}的消息,由于原因:{}",id,s);
        }
      }
    }
  6. 配置文件及消息发送方

    • NONE:禁用发布确认模式,是默认值
    • CORRELATED:发布消息成功到交换器后会触发回调方法
    • SIMPLE:经测试有两种效果,其一效果和 CORRELATED 值一样会触发回调方法,其二在发布消息成功后使用 rabbitTemplate 调用 waitForConfirms, 或 waitForConfirmsOrDie 方法等待 broker 节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是 waitForConfirmsOrDiea 方法如果返回 false 则会关闭 channel,则接下来无法发送消息到 broker
    spring.rabbitmq.publisher-confirm-type = correlated
@RestController
@Slf4j
@RequestMapping("/confirm")
public class ProducerController {
	
@Autowired
private RabbitTemplate rabbitTemplate;
	
//发消息
@GetMapping("/sendMessage/{message}")
public void sendMessage(@PathVariable String message){
    CorrelationData correlationData = new CorrelationData("1");
    rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME
            ,ConfirmConfig.CONFIRM_routing_key
            ,message,correlationData);
    log.info("发送消息内容:{}",message);
  }
}
但此时出了问题,如果交换器出现问题可以回调接口,但是如果队列出问题无法会掉借口
  1. Mandatory 参数,见 9.1

# 9.1 回退消息

在仅开启了生产者确认机制的情况下 (并没有设置队列持久化和消息持久化的话),交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由,那么消息会被直接丢弃此时生产者是不知道消息被丢弃这个事件的。那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置 mandatory 参数__可以在当消息传递过程中不可达目的地时将消息返回给生产者。__

  1. 配置文件

    spring.rabbitmq.publisher-returns=true
  2. 回退接口

    @Component
    @Slf4j
    public class MyCallBack implements RabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnsCallback {
    	
    @Autowired
    private RabbitTemplate rabbitTemplate; //就是把我们的实现类作为rabbitTemplate的bean的对应属性,这样调用rabbitTemplate的时候才能成功调用我们的回调函数
    	
    @PostConstruct
    public void init(){
        //注入
        rabbitTemplate.setConfirmCallback(this);
        rabbitTemplate.setReturnsCallback(this);
    }
    	
    /*
    * 交换机确认回调方法,发消息后,交换机接收到了就回调
    *   1.1 correlationData:保存回调消息的ID及相关信息
    *   1.2 b:交换机收到消息,为true
    *   1.3 s:失败原因,成功为null
    *
    * 发消息,交换机接受失败,也回调
    *   2.1 correlationData:保存回调消息的ID及相关信息
    *   2.2 b:交换机没收到消息,为false
    *   2.3 s:失败的原因
    *
     * */
    	
    @Override
    public void confirm(CorrelationData correlationData, boolean b, String s) {
        String id = correlationData!=null ? correlationData.getId():"";
        if (b){
            log.info("交换机已经收到ID为:{}的信息",id);
        }else {
            log.info("交换机还未收到ID为:{}的消息,由于原因:{}",id,s); //这里才是发布确认失败的时候
        }
    }
    	
    //可以在当消息传递过程中不可达目的的时将消息返回给生产者
    //只有不可达目的地的时候才可回退
    @Override
    public void returnedMessage(ReturnedMessage returnedMessage) {
        log.error("消息{},被交换机{}退回,退回的原因:{},路由Key:{}",
                new String(returnedMessage.getMessage().getBody())
                , returnedMessage.getExchange()
                , returnedMessage.getReplyText()
                , returnedMessage.getRoutingKey());
      }
    }

    这里的 returnedMessage 跟我们消息发送给 rabbitmq 然后 rabbitmq 崩了就会发布失败给我们的生产者不一样

    这里就是指的我们消息到了交换机但是交换机找不到对应的 (我们发送消息时给的 RoutingKey 参数) RoutingKey 的队列就会调用我们这里的回调方法,要是找到了或者 rabbitmq 本身崩了都不会调用这个方法.

  3. 发布测试

     // 开始发消息 测试确认
     @RestController
     @Slf4j
     @RequestMapping("/confirm")
     public class ProducerController {
    
     @Autowired
     private RabbitTemplate rabbitTemplate;
    
     //发消息
     @GetMapping("/sendMessage/{message}")
     public void sendMessage(@PathVariable String message){
         CorrelationData correlationData = new CorrelationData("1"); //这个就是我们发消息自己填的,要是不填也没有,之后回调函数可以获得对应的发送的消息时这个对象(因为这个对象作为参数传给了我们这个发送消息给rabbitmq的方法)
         rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME
                 ,ConfirmConfig.CONFIRM_routing_key
                 ,message+"key1",correlationData);
         log.info("发送消息内容:{}",message+"key1");
    
         CorrelationData correlationData2 = new CorrelationData("2");
         rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME
                 ,ConfirmConfig.CONFIRM_routing_key+"2"
                 ,message+"key12",correlationData2);
         log.info("发送消息内容:{}",message+"key12");
     }
    }
  4. 效果:实现回退消息成功!

# 9.2 备份交换机

有了 mandatory 参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会更加麻烦而且容易出错。而且设置 mandatory 参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?前面在设置死信队列的文章中,我们提到,可以为队列设置死信交换机来存储那些处理失败的消息,可是这些不可路由消息根本没有机会进入到队列,因此无法使用死信队列来保存消息。在 RabbitMQ. 中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为 RabbitMQ 中交换机的 “备胎”,当我们为某一个交换机声明一个对应的备份交换机时,就是为它创建一个备胎,当交换机接收到一条不可路由 (就是找不到我们传的 RoutingKey 对应的队列) 消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为 Fanout,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者来进行监测和报警

  1. 配置类

    // 配置类:发布确认(高级)
    @Configuration
    public class ConfirmConfig {
    
        //交换机
        public static final String CONFIRM_EXCHANGE_NAME = "confirm_exchange";
        //队列
        public static final String CONFIRM_QUEUE_NAME = "confirm_queue";
        //RoutingKey
        public static final String CONFIRM_routing_key = "key1";
        //备份交换机
        public static final String BACKUP_EXCHANGE_NAME = "backup_exchange";
        //备份队列
        public static final String BACKUP_QUEUE_NAME = "backup_queue";
        //报警队列
        public static final String WARNING_QUEUE_NAME = "warning_queue";
    
        //声明交换机
        @Bean
        public DirectExchange confirmExchange(){
            return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true)
                    .withArgument("alternate-exchange",BACKUP_EXCHANGE_NAME).build();
        							//注意这里的设置
        }
    
        @Bean
        public Queue confirmQueue(){
            return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
        }
    
        //绑定
        @Bean
        public Binding queueBindingExchange(@Qualifier("confirmQueue") Queue confirmQueue,
                                            @Qualifier("confirmExchange")DirectExchange confirmExchange){
            return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_routing_key);
        }
    
        //备份交换机
        @Bean
        public FanoutExchange backupExchange(){
            return new FanoutExchange(BACKUP_EXCHANGE_NAME);
        }
    
        //备份队列
        @Bean
        public Queue backupQueue(){
            return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();
        }
    
        //报警队列
        @Bean
        public Queue warningQueue(){
            return QueueBuilder.durable(WARNING_QUEUE_NAME).build();
        }
    
        @Bean
        public Binding backupQueueBindingBackupExchange(@Qualifier("backupQueue") Queue backupQueue,
                                                        @Qualifier("backupExchange") FanoutExchange backupExchange){
            return BindingBuilder.bind(backupQueue).to(backupExchange);
        }
    
        @Bean
        public Binding warningQueueBindingBackupExchange(@Qualifier("warningQueue") Queue backupQueue,
                                                        @Qualifier("backupExchange") FanoutExchange backupExchange){
            return BindingBuilder.bind(backupQueue).to(backupExchange);
        }
    }
  2. 消费者

      // 报警消费者
     @Component
     @Slf4j
     public class WarningConsumer {
    
     //接受报警消息
     @RabbitListener(queues = ConfirmConfig.WARNING_QUEUE_NAME)
     public void receiveWarningMsg(Message message){
         String msg = new String(message.getBody());
         log.error("报警发现不可路由消息:{}",msg);
     }
    }
  3. 效果

  4. mandatory 参数与备份交换机可以一起使用的时候,如果两者同时开启,消息究竟何去何从?谁优先级高,经过上面结果显示答案是 备份交换机优先级高

# 9.3 幂等性

概念

用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的__单应用系统__中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等

image-20220219032022649

解决思路

  1. MQ 消费者的幂等性的解决一般使用全局 ID 或者写个唯一标识比如时间戳或者 UUID 或者订单消费者消费 MQ 中的消息也可利用 MQ 的该 id 来判断,或者可按自己的规则生成一个全局唯一 id,每次消费消息时用该 id 先判断该消息是否已消费过。

  2. 在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:a. 唯一 ID + 指纹码机制,利用数据库主键去重,b. 利用 redis. 的原子性去实现

    • 唯一ID+指纹码机制

      指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个 id 是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式。

    • Redis原子性

      利用 redis 执行 setnx 命令,天然具有幂等性,从而实现不重复消费

# 9.4 优先级队列

使用场景

在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如
果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,tmall 商家对我们来说,肯定是要分大客户和小客户的对吧,比如像苹果,小米这样大商家一年起码能给我们创造很大的利润,所以理应当然,他们的订单必须得到优先处理,而曾经我们的后端系统是使用 redis., 来存放的定时轮询,大家都知道 redis, 只能用 List 做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级,否则就是默认优先级。

代码实现

要让队列实现优先级需要做的事情有如下事情:_队列需要设置为优先级队列,消息需要设置消息的优先级,消费者需要等待所有消息已经发送到队列中才去消费因为这样才有机会对消息进行排序 (== 而不是消费者看到队列里面有一个消息就消费一个有一个就消费一个,这样那些消息都还没有在那个队列里面按照他们的优先级 (被消费者) 排序就会被消费者一个一个消费掉,就没效果了!!!⭐️==)_

  1. 生产者

    public class Producer {
        // 队列名称
        public static  final String QUEUE_NAME="hello";
    
        // 发消息
        public static void main(String[] args) throws IOException, TimeoutException {
            // 创建一个连接工厂
            ConnectionFactory factory = new ConnectionFactory();
    
            // 工厂IP连接RabbitMQ的队列
            factory.setHost("192.168.163.128");
            // 用户名
            factory.setUsername("admin");
            // 密码
            factory.setPassword("123");
    
            // 创建连接
            Connection connection = factory.newConnection();
            // 获取信道
            Channel channel = connection.createChannel();
            
            Map<String, Object> arguments = new HashMap<>();
            //官方允许是0-255之间,此处设置10,允许优化级范围为0-10,不要设置过大,浪费CPU与内存
            arguments.put("x-max-priority",10);
            channel.queueDeclare(QUEUE_NAME,true,false,false,arguments);
            // 发消息
            for (int i = 0; i < 10; i++) {
                String message = "info" + i;
                if(i == 5){
                    AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
                    channel.basicPublish("",QUEUE_NAME,properties,message.getBytes(StandardCharsets.UTF_8));
                }else {
                    channel.basicPublish("",QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));
    
                }
            }
            System.out.println("消息发送完毕!");
        }
    }
  2. 消费者

    public class Consumer {
        // 队列名称
        public static final String QUEUE_NAME = "hello";
    
        // 接受消息
        public static void main(String[] args) throws IOException, TimeoutException {
            // 创建连接工厂
            ConnectionFactory factory = new ConnectionFactory();
    
            factory.setHost("192.168.163.128");
            factory.setUsername("admin");
            factory.setPassword("123");
            Connection connection = factory.newConnection();
            Channel channel = connection.createChannel();
            // 声明 接受消息
            DeliverCallback deliverCallback = (consumerTag,message) -> {
                System.out.println(new String(message.getBody()));
            };
            // 声明 取消消息
            CancelCallback cancelCallback = consumer -> {
                System.out.println("消息消费被中断");
            };
            System.out.println("C2等待接受消息.......");
            channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
        }
    }
  3. 效果

# 9.5 惰性队列

使用场景

RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因 (比如消费者下线、宕机亦或者是由于维护而关闭等) 而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了

__默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。__虽然 RabbitMQ 的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候。

两种模式

队列具备两种模式: default 和 lazy. 默认的为 default 模式,在 3.6.0 之前的版本无需做任何变更。lazy_模式即为惰性队列的模式,可以通过调用 channel.queueDecare 方法的时候在参数中设置,也可以通过
Policy 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policy 的方式具备更高的优先级。如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的。
在队列声明的时候可以通过 "x-queue-mode" 参数来设置队列的模式,取值为 "default" 和 "lazy”"。下面示例中演示了一个惰性队列的声明细节:

Map<String, Object> args = new HashMap<String, Object>();
args.put("x-queue-mode","lazy");
channel.queueDeclare( "myqueue", false, false, false,args);

内存对比

在发送 1 百万务消息,每条消息大概占 1KB 的情况下,普通队列占用内存是 1.2GB, 而惰性队列仅仅占用 1.5MB

# 10. RabbitMQ 集群

# 10.1 搭建集群

步骤

  1. 克隆三台虚拟机 ,修改三台机器的名称为 node1、node2、node3

    vim /etc/hosts
    node1
    node2
    node3
  2. 修改三台机器的 hosts 文件中的名称,让各个节点都能互相识别对象

    vim /etc/hosts
    192.168.163.128 node1
    192.168.163.132 node2
    193.168.163.131 node3
    
  3. 以确保各个节点的 cookie 文件使用的是同一个值:在 node1 上执行远程操作命令

    scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
    scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
  4. 启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RabbitMQ 应用服务,三台节点下执行:

    rabbitmq-server -detached
  5. 在节点 2 执行

    # rabbitmqctl stop会将Erlang虚拟机关闭  rabbitmqctl stop_app 只关闭rabbitmq服务
    rabbitmqctl stop_app
    rabbitmqctl reset
    rabbitmqctl join_cluster rabbit@node1
    # 只启动rabbitmq服务
    rabbitmqctl start_app
  6. 在节点 3 执行

    rabbitmqctl stop_app
    rabbitmqctl reset
    rabbitmqctl join_cluster rabbit@node2
    rabbitmqctl start_app
    
  7. 查看集群状态

    rabbitmqctl cluster_status
  8. 需要重新设置用户

    # 创建账号
    rabbitmqctl add_user admin 123
    # 设置用户角色
    rabbitmqctl set_user_tags admin administrator
    # 设置用户权限
    rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*" 

    之后在三个集群节点的任意一个可视化界面登录均可

  9. 接触集群节点,node2 和 node3 分别执行

    rabbitmqctl stop_app
    rabbitmqctl reset
    rabbitmqctl start_app
    rabbitmqctl cluster_status
    # 此项命令均在node1上执行
    rabbitmqctl forget_cluster_node rabbit@node2

# 10.2 镜像队列

使用镜像的原因

我们之前设的队列都是对于一个 rabbitmq 节点来说,其他节点是不会有这个队列的,这个就有问题了

如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的 durable 属性也设置为 true, 但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘,尽管如此,一般不希望遇到因单点故障导致的服务不可用。
引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。

搭建步骤

  1. 启动三台集群节点

  2. 随便找一个节点添加 policy

  3. 在 node1 创建一个队列发噢是那个一条信息,队列存在镜像队列

  4. 在 node1 上创建一个队列发送一条消息,队列存在镜像队列

image-20220219034952926

# 10.3 实现高可用负载均衡

HAProxy. 提供高可用性、负载均衡及基于 TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括 Twitter,Reddit,StackOverflow,GitHub. 在内的多家知名互联网公司在使用。HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。
扩展 nginx,lvs,haproxx.p 间的区别: http://www.ha97.com/5646.html

# 10.4 Federation Exchange

使用原因

(broker 北京),(broker 深圳) 彼此之间相距甚远,网络延迟是一个不得不面对的问题。有一个在北京的业务 (Client 北京) 需要连接 (broker 北京), 向其中的交换器 exchangeA. 发送消息,此时的网络延迟很小,(Client 北京) 可以迅速将消息发送至 exchangeA. 中,就算在开启了 publisherconfirm. 机制或者事务机制的情况下,也可以迅速收到确认信息。此时又有个在深圳的业务 (Client 深圳) 需要向 exchangeA 发送消息,那么 (Client 深圳)(broker 北京) 之间有很大的网络延迟,(Client 深圳) 将发送消息至 exchangeA 会经历一定的延迟,尤其是在开启了 publisherconfirm. 机制或者事务机制的情况下,(Client 深圳) 会等待很长的延迟时间来接收 (broker 北京) 的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的阻塞。
将业务 (Client 深圳) 部署到北京的机房可以解决这个问题,但是如果 (Client 深圳) 调用的另些服务都部署在深圳,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,那么容灾又何以实现?这里使用 Federation 插件就可以很好地解决这个问题.

搭建步骤

  1. 需要保证每台节点单独运行

  2. 在每台机器上开启 federation 相关插件

    # 每台节点均需执行以下命令
    rabbitmq-plugins enable rabbitmq_federation
    rabbitmq-plugns enable rabbitmq_federation_management
  3. 原理图

  4. 在下游节点(node2)配置上游节点(node1)

  5. 添加 policy

  6. 成功

# 10.5 Federation Queue

使用原因

联邦队列可以在多个 Broker 节点 (或者集群) 之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列 (upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。

  1. 添加上下游配置(同 10.4)

  2. 添加 policy

# 10.6 Shovel

使用原因

Federation 具备的数据转发功能类似,Shovel 够可靠、持续地从一个 Broker 中的队列 (作为源端,即 source) 拉取数据并转发至另一个 Broker 中的交换器 (作为目的端,即 destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为 "铲子", 是一种比较形象的比喻,这个 "铲子" 可以将消息从一方 "铲子" 另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。

搭建步骤

  1. 开启插件(需要的机器都开启)

    rabbitmq-plugins enable rabbitmq_shovel
    rabbitmq-plugins enable rabbitmq_shovel_management
  2. 添加 shevel 源和目的地