底层是同步segment数据

发布时间:2025-06-24 18:46:57  作者:北方职教升学中心  阅读量:820



在这里插入图片描述

3.2.5 消息回溯。
  • 3.2.4 加入死信队列。
  • 3.1.2 简化分区。RocketMQ在Kafka的架构上做了一些架构调整。
  • kafka架构中的zookeper将与broker通信c;保护Kafka信息󿀌加入新的broker后,其他broker会立即感知它的加入。
    在这里插入图片描述

    3.2.3 加入延迟队列。

    在这里插入图片描述
    底层是同步segment数据。

  • 3.1.3.1 底层存储RocketMQ。

    在这里插入图片描述

    在Kafka下,

    以下是Kafka的架构:
    在这里插入图片描述
    这就是所谓的Kraft或Quorum模式。

    3 RocketMQ和Kafka的区别。

    • 3.1.1 简化协调节点。在RocketMQ中󿀌消费者首先需要从queue中读取offset的值,然后跑到commitlog上读取完整的数据,也就是读两遍。

      3.1 在结构上做了减法。6、

      在这里插入图片描述

      假设A服务有请求,但是,partition,每个partition是由多个segment组成的,生产者发送数据,
      在这里插入图片描述
      就像Kafka一样,
      在这里插入图片描述

      但是当topic变得更多,Partition在Kafka下也会增加,相应的segment文件也会增加,同时,

      目录。
      在这里插入图片描述
      Kafka的设计似乎更有效,但是RocketMQ为什么要用这个设计?

      3.1.3 底层存储。RocketMQ的写作性能得到了提升。我不想让B服务立即处理,处理#xff00需要等待一段时间c;例如,
      为了提高性能�Kafka对每个segment的写入也是按顺序写的。tag。

      在这里插入图片描述

      3.2 添加功能。顺序写。
      在这里插入图片描述
      怎样处理上述问题ༀ?c;然后可以在服务之间加一个中间层。
      ,也可以使用。

  • 3.2 添加功能。
  • 3.1.3 底层存储。

    3.1.3.1 底层存储RocketMQ。
    RocketMQ支持用户数据。
    • 3.2.1 消息过滤。分布式锁管理。失败后可以设置重试,若多次重试失败󿀌RocketMQ将新闻放在一个特殊的队列中,方便我们单独处理#xff00c;这个专门存储失败信息的队列是死信队列,kafka不支持,程序员需要实现。消费者只需直接从partition中读取消息󿀌然而,

      3.1.1 简化协调节点。

      3.1.4.2 RocketMQ备份模型。过滤所需的数据,消费者只能消耗这部分数据,只剩下消费者过滤数据的资源消耗。

      3.1.5 RocketMq架构。

      • 1 从场景开始。
      • 3.1.4.2 RocketMQ备份模型。随机写。

        kafka需要消耗topic作为用户数据的所有消息,然后过滤出vip6用户。

      • 2 什么是RocketMQ?
      • 3 RocketMQ和Kafka的区别。
        • 3.1.3.1 Kafka底层存储。

          3.1.4 简化备份模型。,commitlog中放置了消息的完整信息,commitLog的某条消息可以通过offset定位。配置管理。

          在这里插入图片描述
          所谓在分布式结构下让多个例子同时获取相同信息的服务。

          在这里插入图片描述
          在Kafka中,

      • 3.1.5 RocketMq架构。等场景。

        3.1.2 简化分区。分布式协调服务。入会比。即使segment内部是顺序写,但是不同topic下的文件是随机写的。

        2 什么是RocketMQ?

        它是国内自主研发的消息队列,是Apache的顶级项目。定期外卖的场景。
        在这里插入图片描述

        3.2.2 支持事务。,在多topic场景下,

        消费信息有可能失败,一般情况下,延时消息。

    • 3.1.4 简化备份模型。在多个topic下写partition相当于写多个文件,不同的topic下的文件存储在磁盘的不同位置,在这种情况下,nameServer。
      Kafka只使用部分场景,有点杀鸡用牛刀!

      以下是rocketMq的体系结构:
      在这里插入图片描述

      所以RocketMQ去掉zookeper�使用。

      Kafka支持事务,确保一批消息同时成功或失败,
      但是我们写业务代码的时候,要么同时成功,
      ,消费者依据。要么希望执行一些自定义逻辑和生产者发送消息c;这是RocketMQ支持的事务能力。
      ,这就需要RocketMQ的延迟队列,而Kafka需要程序员自己实现类似的功能。
      在这里插入图片描述

      总结:在架构上做减法,在功能上做了加法。

      • 3.1.4.1 Kafka备份模型。,以更轻的方式管理消息队列的集群信息。而是在一段时间后消费c;也就是所谓的。进入快很多󿀌性能差距很大󿀌可以高达几十倍。要么失败,

        在这里插入图片描述

        Kafka支持通过topic对数据进行分类。

        事实上,

        在这里插入图片描述
        在这里插入图片描述

        commitlog数据与RocketMQ直接同步c;以broker为单位区分主从。

        • 3.1 在结构上做了减法。顺序写。共有4个数据,它们有不同的类型,假如我们只想要vip6的数据。
          在这里插入图片描述
          场景:
          如上图4所示、,消费者不是马上消费,

          3.2.1 消息过滤。

          在这里插入图片描述

          Kafka支持从某个地方开始消费c;即offset,后来也支持时间(0.10.1版后)
          在这里插入图片描述

          RocketMQ不仅支持offset和#xff0的调整c;还支持调整时间。tag。5、
          在这里插入图片描述

          zookeeper不仅可用于。随机写。

          3.2.4 加入死信队列。offset的消息偏移。

          当我们想要消息被投递时,

          在这里插入图片描述

          为了缓解同时写多个文件带来的随机写作问题,单个broker地下的多个topic数据󿼌所有这些都写在“一个”逻辑文件Commitlog上,这消除了写多个文件。问题,把所有的写作操作都变成了。

        • 3.2.5 消息回溯。
        • 3.2.3 加入延迟队列。

    1 从场景开始。

    3.1.3.1 Kafka底层存储。
  • 3.2.2 支持事务。

    RocketMQ也会拆分多个分区,不叫partition,叫queue。都是消息队列。

    后来Kafka也发现了zookeper过重的问题,从2.8.移除zookeeper#xff0版本c;同样的效果是通过在broker之间添加一致性算法Raft来实现的。

    3.1.4.1 Kafka备份模型。即将数据࿰写入segmentc;在磁盘上写入,磁盘的。
    在这里插入图片描述
    在kafkapartition中存储完整信息,但是RocketMQ的Queue只存储了一些简短的信息,比如。服务登记和发现。