【2021最新版】RabbitMQ面试题总结(32道题含答案解析)

文章目录

最近面试的小伙伴不少,对此我整理了一份Java面试题手册:基础知识、JavaOOP、Java集合/泛型面试题、Java异常面试题、Java中的IO与NIO面试题、Java反射、Java序列化、Java注解、多线程&并发、JVM、Mysql、Redis、Memcached、MongoDB、Spring、SpringBoot、SpringCloud、RabbitMQ、Dubbo、MyBatis、ZooKeeper、数据结构、算法、Elasticsearch、Kafka、微服务、Linux等等。能够分享给你们学习。【持续更新中】node

完整版Java面试题地址:【2021最新版】Java面试真题汇总web

序号 内容 地址连接
1 【2021最新版】JavaOOP面试题总结 http://www.noobyard.com/article/p-rncfmibs-oe.html
2 【2021最新版】Java基础面试题总结 http://www.noobyard.com/article/p-ykqnztan-oe.html
3 【2021最新版】多线程&并发面试题总结 http://www.noobyard.com/article/p-nhidektg-oe.html
4 【2021最新版】JVM面试题总结 http://www.noobyard.com/article/p-anzurdyn-oe.html
5 【2021最新版】Mysql面试题总结 http://www.noobyard.com/article/p-vvarpaer-oe.html
6 【2021最新版】Redis面试题总结 http://www.noobyard.com/article/p-gpqwxdxv-oe.html
7 【2021最新版】Memcached面试题总结 http://www.noobyard.com/article/p-hiwezhqi-oe.html
8 【2021最新版】MongoDB面试题总结 http://www.noobyard.com/article/p-qsqnmsta-oe.html
9 【2021最新版】Spring面试题总结 http://www.noobyard.com/article/p-uxlzrwiw-oe.html
10 【2021最新版】Spring Boot面试题总结 http://www.noobyard.com/article/p-dgtevvzg-oe.html
11 【2021最新版】Spring Cloud面试题总结 http://www.noobyard.com/article/p-cmaeljvq-oe.html
12 【2021最新版】Dubbo面试题总结 未更新
13 【2021最新版】MyBatis面试题总结 未更新
14 【2021最新版】ZooKeeper面试题总结 未更新
15 【2021最新版】数据结构面试题总结 未更新
16 【2021最新版】算法面试题总结 未更新
17 【2021最新版】Elasticsearch面试题总结 未更新
18 【2021最新版】Kafka面试题总结 未更新
19 【2021最新版】微服务面试题总结 未更新
20 【2021最新版】Linux面试题总结 未更新

一、什么是rabbitmq?

答:面试

采用AMQP高级消息队列协议的一种消息队列技术,最大的特色就是消费并不须要确保提供方存在,实现了服务之间的高度解耦。算法

二、为何要使用rabbitmq?

答:
一、在分布式系统下具有异步,削峰,负载均衡等一系列高级功能;sql

二、拥有持久化的机制,进程消息,队列中的信息也能够保存下来。数据库

三、实现消费者和生产者之间的解耦。浏览器

四、对于高并发场景下,利用消息队列可使得同步访问变为串行访问达到必定量的限流,利于数据库的操做。安全

五、可使用消息队列达到异步下单的效果,排队中,后台进行逻辑下单。服务器

三、使用rabbitmq的场景。

答:网络

一、服务间异步通讯

二、顺序消费

三、定时任务

四、请求削峰

四、如何确保消息正确地发送至RabbitMQ?如何确保消息接收方消费了消息?

答:

发送方确认模式

1.将信道设置成confirm模式(发送方确认模式),则全部在信道上发布的消息都会被指派一个惟一的ID。

2.一旦消息被投递到目的队列后,或者消息被写入磁盘后(可持久化的消息),信道会发送一个确认给生产者(包含消息惟一 ID)。

3.若是 RabbitMQ发生内部错误从而致使消息丢失,会发送一条nack(notacknowledged,未确认)消息。发送方确认模式是异步的,生产者应用程序在等待确认的同时,能够继续发送消息。当确认消息到达生产者应用程序,生产者应用程序的回调方法就会被触发来处理确认消息。

接收方确认机制

接收方消息确认机制

消费者接收每一条消息后都必须进行确认(消息接收和消息确认是两个不一样操做)。只有消费者确认了消息,RabbitMQ才能安全地把消息从队列中删除。这里并无用到超时机制,RabbitMQ仅经过Consumer的链接中断来确认是否须要从新发送消息。也就是说,只要链接不中断,RabbitMQ给了Consumer足够长的时间来处理消息。保证数据的最终一致性;

下面罗列几种特殊状况

若是消费者接收到消息,在确认以前断开了链接或取消订阅,RabbitMQ会认为消息没有被分发,而后从新分发给下一个订阅的消费者。

(可能存在消息重复消费的隐患,须要去重)若是消费者接收到消息却没有确认消息,链接也未断开,则RabbitMQ认为该消费者繁忙,将不会给该消费者分发更多的消息。

5.如何避免消息重复投递或重复消费?

答:

在消息生产时,MQ内部针对每条生产者发送的消息生成一个inner-msg-id,做为去重的依据(消息投递失败并重传),避免重复的消息进入队列;

在消息消费时,要求消息体中必需要有一个 bizId(对于同一业务全局惟一,如支付ID、订单ID、帖子ID 等)做为去重的依据,避免同一条消息被重复消费。

六、消息基于什么传输?

答:

因为TCP链接的建立和销毁开销较大,且并发数受系统资源限制,会形成性能瓶颈。RabbitMQ使用信道的方式来传输数据。信道是创建在真实的TCP链接内的虚拟链接,且每条TCP链接上的信道数量没有限制

七、消息如何分发?

答:

若该队列至少有一个消费者订阅,消息将以循环(round-robin)的方式发送给消费者。每条消息只会分发给一个订阅的消费者(前提是消费者可以正常处理消息并进行确认)。

经过路由可实现多消费的功能

八、消息怎么路由?

答:

消息提供方->路由->一至多个队列

消息发布到交换器时,消息将拥有一个路由键(routing key),在消息建立时设定。

经过队列路由键,能够把队列绑定到交换器上。

消息到达交换器后,RabbitMQ 会将消息的路由键与队列的路由键进行匹配(针对不一样的交换器有不一样的路由规则);

经常使用的交换器主要分为一下三种

1.fanout:若是交换器收到消息,将会广播到全部绑定的队列上

2.direct:若是路由键彻底匹配,消息就被投递到相应的队列

3.topic:可使来自不一样源头的消息可以到达同一个队列。 使用topic交换器时,可使用通配符

九、如何确保消息不丢失?

答:

消息持久化,固然前提是队列必须持久化

RabbitMQ确保持久性消息能从服务器重启中恢复的方式是,将它们写入磁盘上的一个持久化日志文件,当发布一条持久性消息到持久交换器上时,Rabbit会在消息提交到日志文件后才发送响应。

一旦消费者从持久队列中消费了一条持久化消息,RabbitMQ会在持久化日志中把这条消息标记为等待垃圾收集。若是持久化消息在被消费以前RabbitMQ重启,那么Rabbit会自动重建交换器和队列(以及绑定),并从新发布持久化日志文件中的消息到合适的队列。

十、使用RabbitMQ有什么好处?

答:

一、服务间高度解耦

二、异步通讯性能高

三、流量削峰

十一、RabbitMQ的集群。

答:

镜像集群模式

你建立的queue,不管元数据仍是queue里的消息都会存在于多个实例上,而后每次你写消息到queue的时候,都会自动把消息到多个实例的queue里进行消息同步。

好处在于,你任何一个机器宕机了,没事儿,别的机器均可以用。坏处在于,第一,这个性能开销也太大了吧,消息同步全部机器,致使网络带宽压力和消耗很重!第二,这么玩儿,就没有扩展性可言了,若是某个queue负载很重,你加机器,新增的机器也包含了这个queue的全部数据,并无办法线性扩展你的queue。

十二、mq的缺点

答:

系统可用性下降

系统引入的外部依赖越多,越容易挂掉,原本你就是A系统调用BCD三个系统的接口就行了,人 ABCD四个系统好好的,没啥问题,你偏加个MQ进来,万一MQ挂了咋整?MQ挂了,整套系统崩溃了,你不就完了么。

系统复杂性提升硬生生加个MQ进来,你怎么保证消息没有重复消费?怎么处理消息丢失的状况?怎么保证消息传递的顺序性?头大头大,问题一大堆,痛苦不已。

一致性问题

A系统处理完了直接返回成功了,人都觉得你这个请求就成功了;可是问题是,要是BCD三个系统那里,BD两个系统写库成功了,结果C系统写库失败了,咋整?你这数据就不一致了。

因此消息队列实际是一种很是复杂的架构,你引入它有不少好处,可是也得针对它带来的坏处作各类额外的技术方案和架构来规避掉,最好以后,你会发现,妈呀,系统复杂度提高了一个数量级,也许是复杂了10倍。可是关键时刻,用,仍是得用的。

1三、什么是MQ ?

答:

MQ就是消息队列。是软件和软件进行通讯的中间件产品。

1四、MQ的优势。

答:

简答

异步处理 - 相比于传统的串行、并行方式,提升了系统吞吐量。

应用解耦 - 系统间经过消息通讯,不用关心其余系统的处理。

流量削锋 - 能够经过消息队列长度控制请求量;能够缓解短期内的高并发请求。

日志处理 - 解决大量日志传输。

消息通信 - 消息队列通常都内置了高效的通讯机制,所以也能够用在纯的消息通信。好比实现点对点消息队列,或者聊天室等。

1五、解耦、异步、削峰是什么?

答:

解耦:A系统发送数据到BCD三个系统,经过接口调用发送。若是E系统也要这个数据呢?那若是C系统如今不须要了呢?A系统负责人几乎崩溃A 系统跟其它各类乱七八糟的系统严重耦合,A系统产生一条比较关键的数据,不少系统都须要A系统将这个数据发送过来。若是使用MQ,A系统产生一条数据,发送到MQ里面去,哪一个系统须要数据本身去MQ里面消费。若是新系统须要数据,直接从MQ里消费便可;若是某个系统不须要这条数据了,就取消对MQ消息的消费便可。这样下来,A系统压根儿不须要去考虑要给谁发送数据,不须要维护这个代码,也不须要考虑人家是否调用成功、失败超时等状况。

就是一个系统或者一个模块,调用了多个系统或者模块,互相之间的调用很复杂,维护起来很麻烦。可是其 实这个调用是不须要直接同步调用接口的,若是用MQ给它异步化解耦。

异步:A系统接收一个请求,须要在本身本地写库,还须要在BCD三个系统写库,本身本地写库要3ms,BCD三个系统分别写库要 300ms、450ms、200ms。最终请求总延时是3+300+450+200=953ms,接近1s,用户感受搞个什么东西,慢死了慢死了。用户经过浏览器发起请求。

若是使用MQ,那么A系统连续发送3条消息到MQ队列中,假如耗时5ms,A系统从接受一个请求到返回响应给用户,总时长是3+5=8ms。

削峰:减小高峰时期对服务器压力。

1六、消息队列有什么缺点?

答:

缺点有如下几个:

  1. 系统可用性下降

原本系统运行好好的,如今你非要加入个消息队列进去,那消息队列挂了,你的系统不是呵呵了。所以,系统可用性会下降;

  1. 系统复杂度提升

加入了消息队列,要多考虑不少方面的问题,好比:一致性问题、如何保证消息不被重复消费、如何保证消息可靠性传输等。所以,须要考虑的东西更多,复杂性增大。

  1. 一致性问题

A系统处理完了直接返回成功了,人都觉得你这个请求就成功了;可是问题是,要是BCD三个系统那里,BD两个系统写库成功了,结果C系统写库失败了,咋整?你这数据就不一致了。

因此消息队列实际是一种很是复杂的架构,你引入它有不少好处,可是也得针对它带来的坏处作各类额外的技术方 案和架构来规避掉,作好以后,你会发现,妈呀,系统复杂度提高了一个数量级,也许是复杂了 10 倍。可是关 键时刻,用,仍是得用的。

1七、大家公司生产环境用的是什么消息中间件?

答:

这个首先你能够说下大家公司选用的是什么消息中间件,好比用的是RabbitMQ,而后能够初步给一些你对不一样MQ中间件技术的选型分析。

举个例子:好比说ActiveMQ是老牌的消息中间件,国内不少公司过去运用的仍是很是普遍的,功能很强大。

可是问题在于无法确认ActiveMQ能够支撑互联网公司的高并发、高负载以及高吞吐的复杂场景,在国内互联网公司落地较少。并且使用较多的是一些传统企业,用ActiveMQ作异步调用和系统解耦。

而后你能够说说RabbitMQ,他的好处在于能够支撑高并发、高吞吐、性能很高,同时有很是完善便捷的后台管理界面可使用。

另外,他还支持集群化、高可用部署架构、消息高可靠支持,功能较为完善。

并且通过调研,国内各大互联网公司落地大规模RabbitMQ集群支撑自身业务的case较多,国内各类中小型互联网公司使用RabbitMQ的实践也比较多。

除此以外,RabbitMQ的开源社区很活跃,较高频率的迭代版本,来修复发现的bug以及进行各类优化,所以综合考虑事后,公司采起了RabbitMQ。

可是RabbitMQ也有一点缺陷,就是他自身是基于erlang语言开发的,因此致使较为难以分析里面的源码,也较难进行深层次的源码定制和改造,毕竟须要较为扎实的erlang语言功底才能够。

而后能够聊聊RocketMQ,是阿里开源的,通过阿里的生产环境的超高并发、高吞吐的考验,性能卓越,同时还支持分布式事务等特殊场景。

并且RocketMQ是基于Java语言开发的,适合深刻阅读源码,有须要能够站在源码层面解决线上生产问题,包括源码的二次开发和改造。

另外就是Kafka。Kafka提供的消息中间件的功能明显较少一些,相对上述几款MQ中间件要少不少。

可是Kafka的优点在于专为超高吞吐量的实时日志采集、实时数据同步、实时数据计算等场景来设计。

所以Kafka在大数据领域中配合实时计算技术(好比Spark Streaming、Storm、Flink)使用的较多。可是在传统的MQ中间件使用场景中较少采用。

1八、Kafka、ActiveMQ、RabbitMQ、RocketMQ 有什么优缺点?

答:


综上,各类对比以后,有以下建议:

通常的业务系统要引入MQ,最先你们都用ActiveMQ,可是如今确实你们用的很少了,没通过大规模吞吐量场景的验证,社区也不是很活跃,因此你们仍是算了吧,我我的不推荐用这个了;

后来你们开始用RabbitMQ,可是确实erlang语言阻止了大量的Java工程师去深刻研究和掌控它,对公司而言,几乎处于不可控的状态,可是确实人家是开源的,比较稳定的支持,活跃度也高;

不过如今确实愈来愈多的公司会去用RocketMQ,确实很不错,毕竟是阿里出品,但社区可能有忽然黄掉的风险(目前 RocketMQ已捐给Apache,但GitHub上的活跃度其实不算高)对本身公司技术实力有绝对自信的,推荐用RocketMQ,不然回去老老实实用RabbitMQ 吧,人家有活跃的开源社区,绝对不会黄。

因此中小型公司,技术实力较为通常,技术挑战不是特别高,用RabbitMQ是不错的选择;大型公司,基础架构研发实力较强,用 RocketMQ是很好的选择。

若是是大数据领域的实时计算、日志采集等场景,用Kafka是业内标准的,绝对没问题,社区活跃度很高,绝对不会黄,况且几乎是全世界这个领域的事实性规范。

1九、MQ有哪些常见问题?如何解决这些问题?

答:

MQ的常见问题有:

消息的顺序问题

消息的重复问题

消息的顺序问题

消息有序指的是能够按照消息的发送顺序来消费。

假如生产者产生了2条消息:M一、M2,假定 M1 发送到S1,M2 发送到S2,若是要保证 M1先于M2被消费,怎么作?

解决方案:

  1. 保证生产者-MQServer-消费者是一对一对一的关系:

    缺陷:

并行度就会成为消息系统的瓶颈(吞吐量不够)

更多的异常处理,好比:只要消费端出现问题,就会致使整个处理流程阻塞,咱们不得不花费更多的精力来解决阻塞的问题。 (2)经过合理的设计或者将问题分解来规避。

不关注乱序的应用实际大量存在

队列无序并不意味着消息无序 因此从业务层面来保证消息的顺序而不只仅是依赖于消息系统,是一种更合理的方式。

消息的重复问题

形成消息重复的根本缘由是:网络不可达。

因此解决这个问题的办法就是绕过这个问题。那么问题就变成了:若是消费端收到两条同样的消息,应该怎样处理?

消费端处理消息的业务逻辑保持幂等性。只要保持幂等性,无论来多少条重复消息,最后处理的结果都同样。保证每条消息都有惟一编号且保证消息处理成功与去重表的日志同时出现。利用一张日志表来记录已经处理成功的消息的ID,若是新到的消息 ID已经在日志表中,那么就再也不处理这条消息。

20、RabbitMQ基本概念。

答:

Broker:简单来讲就是消息队列服务器实体

Exchange:消息交换机,它指定消息按什么规则,路由到哪一个队列

Queue:消息队列载体,每一个消息都会被投入到一个或多个队列

Binding:绑定,它的做用就是把exchange和queue按照路由规则绑定起来

Routing Key: 路由关键字,exchange根据这个关键字进行消息投递

VHost:vhost能够理解为虚拟broker ,即mini-RabbitMQ server。其内部均含有独立的queue、exchange和binding等,但最最重要的是,其拥有独立的权限系统,能够作到vhost范围的用户控制。固然,从RabbitMQ的全局角度,vhost能够做为不一样权限隔离的手段(一个典型的例子就是不一样的应用能够跑在不一样的 vhost 中)。

Producer: 消息生产者,就是投递消息的程序

Consumer:消息消费者,就是接受消息的程序

Channel:消息通道,在客户端的每一个链接里,可创建多个channel,每一个channel表明一个会话任务由Exchange、Queue、RoutingKey三个才能决定一个从Exchange到Queue的惟一的线路。

2一、RabbitMQ的工做模式。

答:

一.simple模式(即最简单的收发模式)

在这里插入图片描述

  1. 消息产生消息,将消息放入队列

  2. 消息的消费者(consumer) 监听 消息队列,若是队列中有消息,就消费掉,消息被拿走后,自动从队列中删除(隐患 消息可能没有被消费者正确处理,已经从队列中消失了,形成消息的丢失,这里能够设置成手动的ack,但若是设置成手动ack,处理完后要及时发送ack消息给队列,不然会形成内存溢出)。

二.work工做模式(资源的竞争)

3.消息产生者将消息放入队列消费者能够有多个,消费者1,消费者2同时监听同一个队列,消息被消费。

4.C1 C2共同争抢当前的消息队列内容,谁先拿到谁负责消费消息(隐患:高并发状况下,默认会产生某一个消息被多个消费者共同使用,能够设置一个开关(syncronize) 保证一条消息只能被一个消费者使用)。

三.publish/subscribe发布订阅(共享资源)


5.每一个消费者监听本身的队列;

6.生产者将消息发给broker,由交换机将消息转发到绑定此交换机的每一个队列,每一个绑定交换机的队列都将接收到消息。

四.routing路由模式
在这里插入图片描述
8. 消息生产者将消息发送给交换机按照路由判断,路由是字符串(info) 当前产生的消息携带路由字符(对象的方法),交换机根据路由的key,只能匹配上路由key对应的消息队列,对应的消费者才能消费消息;

9.根据业务功能定义路由字符串;

10.从系统的代码逻辑中获取对应的功能字符串,将消息任务扔到对应的队列中。

11.业务场景:error通知;EXCEPTION;错误通知的功能;传统意义的错误通知;客户通知;利用key路由,能够将程序中的错误封装成消息传入到消息队列中,开发者能够自定义消费者,实时接收错误; 五.topic 主题模式(路由模式的一种)


12. 星号井号表明通配符

13.星号表明多个单词,井号表明一个单词

14.路由功能添加模糊匹配

15.消息产生者产生消息,把消息交给交换机

16.交换机根据key的规则模糊匹配到对应的队列,由队列的监听消费者接收消息消费(在个人理解看来就是routing查询的一种模糊匹配,就相似sql的模糊查询方式)

2二、如何保证RabbitMQ消息的顺序性?

答:

拆分多个queue(消息队列),每一个queue(消息队列) 一个consumer(消费者),就是多一些queue(消息队列)而已,确实是麻烦点;

或者就一个queue (消息队列)可是对应一个consumer(消费者),而后这个consumer(消费者)内部用内存队列作排队,而后分发给底层不一样的worker来处理。

2三、消息如何分发?

答:

若该队列至少有一个消费者订阅,消息将以循环(round-robin)的方式发送给消费者。每条消息只会分发给一个订阅的消费者(前提是消费者可以正常处理消息并进行确认)。经过路由可实现多消费的功能。

2四、消息怎么路由?

答:

消息提供方->路由->一至多个队列消息发布到交换器时,消息将拥有一个路由键(routing key),在消息建立时设定。经过队列路由键,能够把队列绑定到交换器上。消息到达交换器后,RabbitMQ 会将消息的路由键与队列的路由键进行匹配(针对不一样的交换器有不一样的路由规则);

经常使用的交换器主要分为一下三种:

  1. fanout:若是交换器收到消息,将会广播到全部绑定的队列上

  2. direct:若是路由键彻底匹配,消息就被投递到相应的队列

  3. topic:可使来自不一样源头的消息可以到达同一个队列。 使用 topic 交换器时,可使用通配符

2五、消息基于什么传输?

答:

因为 TCP 链接的建立和销毁开销较大,且并发数受系统资源限制,会形成性能瓶颈。RabbitMQ使用信道的方式来传输数据。信道是创建在真实的 TCP 链接内的虚拟链接,且每条 TCP 链接上的信道数量没有限制。

2六、如何保证消息不被重复消费?或者说,如何保证消息消费时的幂等性?

答:

先说为何会重复消费:正常状况下,消费者在消费消息的时候,消费完毕后,会发送一个确认消息给消息队列,消息队列就知道该消息被消费了,就会将该消息从消息队列中删除;

可是由于网络传输等等故障,确认信息没有传送到消息队列,致使消息队列不知道本身已经消费过该消息了,再次将消息分发给其余的消费者。

针对以上问题,一个解决思路是:保证消息的惟一性,就算是屡次传输,不要让消息的屡次消费带来影响;保证消息等幂性;

好比:在写入消息队列的数据作惟一标示,消费消息时,根据惟一标识判断是否消费过;

假设你有个系统,消费一条消息就往数据库里插入一条数据,要是你一个消息重复两次,你不就插入了两条,这数据不就错了?可是你要是消费到第二次的时候,本身判断一下是否已经消费过了,如果就直接扔了,这样不就保留了一条数据,从而保证了数据的正确性。

2七、如何确保消息正确地发送至 RabbitMQ? 如何确保消息接收方消费了消息?

答:

发送方确认模式

将信道设置成confirm模式(发送方确认模式),则全部在信道上发布的消息都会被指派一个惟一的ID。

一旦消息被投递到目的队列后,或者消息被写入磁盘后(可持久化的消息),信道会发送一个确认给生产者(包含消息惟一 ID)若是RabbitMQ发生内部错误从而致使消息丢失,会发送一条nack(notacknowledged,未确认)消息。

发送方确认模式是异步的,生产者应用程序在等待确认的同时,能够继续发送消息。当确认消息到达生产者应用程序,生产者应用程序的回调方法就会被触发来处理确认消息。

接收方确认机制消费者接收每一条消息后都必须进行确认(消息接收和消息确认是两个不一样操做)。只有消费者确
认了消息,RabbitMQ才能安全地把消息从队列中删除。

这里并无用到超时机制,RabbitMQ仅经过Consumer的链接中断来确认是否须要从新发送消息。也就是说,只要链接不中断,RabbitMQ给了Consumer足够长的时间来处理消息。保证数据的最终一致性;

下面罗列几种特殊状况

若是消费者接收到消息,在确认以前断开了链接或取消订阅,RabbitMQ 会认为消息没有被分发,而后从新分发给下一个订阅的消费者。(可能存在消息重复消费的隐患,须要去重)若是消费者接收到消息却没有确认消息,链接也未断开,则RabbitMQ认为该消费者繁忙,将不会给该消费者分发更多的消息。

2八、如何保证RabbitMQ消息的可靠传输?

答:

消息不可靠的状况多是消息丢失,劫持等缘由;

丢失又分为:生产者丢失消息、消息列表丢失消息、消费者丢失消息;

  1. 生产者丢失消息:从生产者弄丢数据这个角度来看,RabbitMQ提供transaction和confirm模式来确保生产者不丢消息;

transaction机制就是说:发送消息前,开启事务(channel.txSelect()),而后发送消息,若是发送过程当中出现什么异常,事务就会回滚(channel.txRollback()),若是发送成功则提交事务(channel.txCommit())。然而,这种方式有个缺点:吞吐量降低;
confirm模式用的居多:一旦channel进入confirm模式,全部在该信道上发布的消息都将会被指派一个惟一的ID(从1开始),一旦消息被投递到全部匹配的队列以后;

rabbitMQ就会发送一个ACK给生产者(包含消息的惟一ID),这就使得生产者知道消息已经正确到达目的队列了;

若是rabbitMQ没能处理该消息,则会发送一个Nack消息给你,你能够进行重试操做。

  1. 消息队列丢数据:消息持久化。

处理消息队列丢数据的状况,通常是开启持久化磁盘的配置。

这个持久化配置能够和confirm机制配合使用,你能够在消息持久化磁盘后,再给生产者发送一个Ack信号。

这样,若是消息持久化磁盘以前,rabbitMQ阵亡了,那么生产者收不到Ack信号,生产者会自动重发。

那么如何持久化呢?

这里顺便说一下吧,其实也很容易,就下面两步

  1. 将queue的持久化标识durable设置为true,则表明是一个持久的队列

2.发送消息的时候将deliveryMode=2这样设置之后,即便rabbitMQ挂了,重启后也能恢复数据

3.消费者丢失消息:消费者丢数据通常是由于采用了自动确认消息模式,改成手动确认消息便可!

消费者在收到消息以后,处理消息以前,会自动回复RabbitMQ已收到消息;

若是这时处理消息失败,就会丢失该消息;

解决方案:处理消息成功后,手动回复确认消息。

2九、为何不该该对全部的message都使用持久化机制?

答:

首先,必然致使性能的降低,由于写磁盘比写RAM慢的多,message的吞吐量可能有10倍的差距。

其次,message的持久化机制用在RabbitMQ的内置cluster方案时会出现“坑爹”问题。矛盾点在于,若message设置了persistent属性,但queue未设置durable属性,那么当该queue的owner node出现异常后,在未重建该queue前,发往该queue 的message将被 blackholed;若 message 设置了 persistent属性,同时queue也设置了durable属性,那么当queue的owner node异常且没法重启的状况下,则该queue没法在其余node上重建,只能等待其owner node重启后,才能恢复该 queue的使用,而在这段时间内发送给该queue的message将被 blackholed 。

因此,是否要对message进行持久化,须要综合考虑性能须要,以及可能遇到的问题。若想达到100,000 条/秒以上的消息吞吐量(单RabbitMQ服务器),则要么使用其余的方式来确保message的可靠delivery ,要么使用很是快速的存储系统以支持全持久化(例如使用SSD)。

另一种处理原则是:仅对关键消息做持久化处理(根据业务重要程度),且应该保证关键消息的量不会致使性能瓶颈。

30、如何保证高可用的?RabbitMQ的集群?

答:

RabbitMQ是比较有表明性的,由于是基于主从(非分布式)作高可用性的,咱们就以RabbitMQ为例子讲解第一种MQ的高可用性怎么实现。RabbitMQ有三种模式:单机模式、普通集群模式、镜像集群模式。

  1. 单机模式,就是Demo级别的,通常就是你本地启动了玩玩儿的?,没人生产用单机模式

  2. 普通集群模式:

意思就是在多台机器上启动多个RabbitMQ实例,每一个机器启动一个。

你建立的queue,只会放在一个RabbitMQ实例上,可是每一个实例都同步queue的元数据(元数据能够认为是queue的一些配置信息,经过元数据,能够找到queue所在实例)。

你消费的时候,实际上若是链接到了另一个实例,那么那个实例会从queue所在实例上拉取数据过来。这方案主要是提升吞吐量的,就是说让集群中多个节点来服务某个queue的读写操做。

  1. 镜像集群模式:

这种模式,才是所谓的RabbitMQ的高可用模式。跟普通集群模式不同的是,在镜像集群模式下,你建立的queue,不管元数据仍是 queue 里的消息都会存在于多个实例上,就是说,每一个RabbitMQ节点都有这个queue的一个完整镜像,包含queue的所有数据的意思。而后每次你写消息到queue的时候,都会自动把消息同步到多个实例的queue上。

RabbitMQ有很好的管理控制台,就是在后台新增一个策略,这个策略是镜像集群模式的策略,指定的时候是能够要求数据同步到全部节点的,也能够要求同步到指定数量的节点,再次建立queue的时候,应用这个策略,就会自动将数据同步到其余的节点上去了。

这样的好处在于,你任何一个机器宕机了,没事儿,其它机器(节点)还包含了这个queue的完整数据,别的consumer均可以到其它节点上去消费数据。坏处在于,第一,这个性能开销也太大了吧,消息须要同步到全部机器上,致使网络带宽压力和消耗很重!RabbitMQ一个queue的数据都是放在一个节点里的,镜像集群下,也是每一个节点都放这个queue的完整数据。

3一、如何解决消息队列的延时以及过时失效问题?消息队列满了之后该怎么处理?有几百万消息持续积压几小时,怎么办?

答:

消息积压处理办法:临时紧急扩容:

先修复consumer的问题,确保其恢复消费速度,而后将现有cnosumer都停掉。

新建一个topic,partition是原来的10倍,临时创建好原先10倍的queue数量。

而后写一个临时的分发数据的consumer程序,这个程序部署上去消费积压的数据,消费以后不作耗时的处理,直接均匀轮询写入临时创建好的10倍数量的queue。

接着临时征用10倍的机器来部署consumer,每一批consumer消费一个临时queue的数据。这种作法至关因而临时将 queue 资源和consumer资源扩大10倍,以正常的10倍速度来消费数据。

等快速消费完积压数据以后,得恢复原先部署的架构,从新用原先的consumer机器来消费消息。

MQ中消息失效:假设你用的是RabbitMQ,RabbtiMQ是能够设置过时时间的,也就是 TTL。若是消息在queue中积压超过必定的时间就会被RabbitMQ给清理掉,这个数据就没了。那这就是第二个坑了。

这就不是说数据会大量积压在mq里,而是大量的数据会直接搞丢。咱们能够采起一个方案,就是批量重导,这个咱们以前线上也有相似的场景干过。就是大量积压的时候,咱们当时就直接丢弃数据了,而后等过了高峰期之后,好比你们一块儿喝咖啡熬夜到晚上12点之后,用户都睡觉了。这个时候咱们就开始写程序,将丢失的那批数据,写个临时程序,一点一点的查出来,
而后从新灌入mq里面去,把白天丢的数据给他补回来。也只能是这样了。假设1万个订单积压在mq里面,没有处理,其中 1000个订单都丢了,你只能手动写程序把那1000个订单给查出来,手动发到mq里去再补一次。

mq消息队列块满了:若是消息积压在mq里,你很长时间都没有处理掉,此时致使mq都快写满了,咋办?这个还有别的办法吗?没有,谁让你第一个方案执行的太慢了,你临时写程序,接入数据来消费,消费一个丢弃一个,都不要了,快速消费掉全部的消息。而后走第二个方案,到了晚上再补数据吧。

3二、设计MQ思路。

答:

好比说这个消息队列系统,咱们从如下几个角度来考虑一下:

首先这个mq得支持可伸缩性吧,就是须要的时候快速扩容,就能够增长吞吐量和容量,那怎么搞?设计个分布式的系统呗,参照一下kafka的设计理念,broker->topic->partition,每一个partition放一个机器,就存一部分数据。若是如今资源不够了,简单啊,给topic增长partition,而后作数据迁移,增长机器,不就能够存放更多数据,提供更高的吞吐量了?

其次你得考虑一下这个mq的数据要不要落地磁盘吧?那确定要了,落磁盘才能保证别进程挂了数据就丢了。那落磁盘的时候怎么落啊?顺序写,这样就没有磁盘随机读写的寻址开销,磁盘顺序读写的性能是很高的,这就是 kafka 的思路。

其次你考虑一下你的mq的可用性啊?这个事儿,具体参考以前可用性那个环节讲解的kafka的高可用保障机制。多副本 -> leader&follower->broker挂了从新选举 leader 便可对外服务。能不能支持数据0丢失啊?能够呀,有点复杂的。

总结

该面试题答案解析完整文档获取方式:RabbitMQ面试题总结