博客
关于我
MQ(1)---消息队列概念和使用场景
阅读量:457 次
发布时间:2019-03-06

本文共 1050 字,大约阅读时间需要 3 分钟。

消息队列概念和使用场景

声明

本文转自某技术博客,内容完整,已经过审核,可直接使用。


一、什么是消息队列

消息即是信息的载体。为了让消息发送者和接收者都能理解消息内容,必须遵循一种统一的格式——消息协议(JMS)。因此,有效的消息必须具有特定的格式,而没有格式的消息是无法传递的。

消息的传递方式主要有两种:

  • 即时消息通讯:消息在发送后立即到达接收者,常见实现方式为RPC或HTTP。
  • 延迟消息通讯:消息首先存储在容器中,等待特定条件后再传递。这种容器的实现即为消息队列。

  • 二、消息队列的应用场景

    消息队列在实际应用中的主要场景包括:

  • 异步处理

    例如用户注册后发送注册邮件和短信。传统方法是串行或并行处理,存在性能瓶颈。引入消息队列后,注册信息写入数据库后即可返回用户接收结果,短信和邮件通过消息队列进行异步处理,显著提升系统吞吐量。

  • 应用解耦

    例如订单系统通知库存系统。传统做法是订单系统直接调用库存系统接口,存在耦合问题。引入消息队列后,订单系统将消息写入队列,库存系统通过订阅队列进行处理,实现解耦。

  • 流量削锋

    例如秒杀活动。消息队列用于控制活动人数,缓解高流量压垮服务器的问题。用户请求首写入消息队列,队列限制最大数量,超出则直接处理或跳转错误页面。

  • 日志处理

    例如Kafka处理日志。日志采集客户端将日志数据写入Kafka队列,Kafka负责存储和转发,日志处理应用订阅消费。


  • 三、消息模式

    消息队列有两种主要模式:

  • 点对点模式

    包含消息队列、发送者和接收者。消息发送到特定队列,接收者从队列获取。特点:

    • 每个消息只有一次消费。
    • 发送与接收无时间依赖。
    • 接收者需回应成功。
  • 发布订阅模式

    包含主题、发布者和订阅者。多个发布者发送消息至主题,消息被多个订阅者接收。特点:

    • 每个消息可有多个消费者。
    • 订阅者需持续运行,或可持久化订阅以避免时间依赖。

  • 四、技术案例

    1. 异步处理优化

    传统串行方式导致150ms响应时间,吞吐量仅7QPS。引入消息队列后,响应时间降至50ms,吞吐量提升至20QPS。

    2. 应用解耦示例

    订单系统写入数据库后写入消息队列,库存系统通过拉取或推送方式处理消息,实现系统解耦。

    3. Kafka日志处理

    采集客户端写入Kafka队列,Kafka存储和转发,处理应用消费处理日志数据。结合Logstash和Elasticsearch,实现高效日志分析。


    通过以上内容可以看出,消息队列技术在系统设计中的重要性。选择合适的消息模式和场景,能够显著提升系统性能和可靠性。

    转载地址:http://jhffz.baihongyu.com/

    你可能感兴趣的文章
    Nginx配置——不记录指定文件类型日志
    查看>>
    nginx配置一、二级域名、多域名对应(api接口、前端网站、后台管理网站)
    查看>>
    Nginx配置代理解决本地html进行ajax请求接口跨域问题
    查看>>
    nginx配置全解
    查看>>
    Nginx配置参数中文说明
    查看>>
    nginx配置域名和ip同时访问、开放多端口
    查看>>
    Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
    查看>>
    Nginx配置如何一键生成
    查看>>
    Nginx配置实例-负载均衡实例:平均访问多台服务器
    查看>>
    Nginx配置文件nginx.conf中文详解(总结)
    查看>>
    Nginx配置负载均衡到后台网关集群
    查看>>
    ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
    查看>>
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>