开发者

SpringBoot集成Kafka2.4.0的全过程

开发者 https://www.devze.com 2025-09-30 09:06 出处:网络 作者: 云暮冬
目录1、前提条件2、启动Kafka2.1 Windows启动2.2 linux启动3、引入pom4、编写配置文件5、编写消息生产者代码6、编写消息消费者相关代码7、启动并发送消息1、前提条件
目录
  • 1、前提条件
  • 2、启动Kafka
    • 2.1 Windows启动
    • 2.2 linux启动
  • 3、引入pom
    • 4、编写配置文件
      • 5、编写消息生产者代码
        • 6、编写消息消费者相关代码
          • 7、启动并发送消息

            1、前提条件

              前提是需要安装Kafka及能正常启动,正常启动后记录下Kafka的ip及端口号,例如我的:127.0.0.1:9092。

              由于用的Kafka还是需要zookeeper的,因此之前也要安装启动好zowww.devze.comokeeper,zookeeper的安装启动见这篇文章:

            zookeeper入门

            2、启动Kafka

            2.1 windows启动

              1、到Kafka安装目录下的bin目录下的windows下:

            SpringBoot集成Kafka2.4.0的全过程

            2、执行命令:kafka-server-start.BAT -daemon D:\Java\kafka_2.11-2.4.0\config\server.properties
            

            2.2 linux启动

            3、引入pom

            这里由于我系统安装的是2.4.0版本的Kafka,因此pom引入最好用相同版本的,避免出现其他问题。还有一点要注意的是,如果最新的spring boot引入这个版本zookeeper可能有问题,因此需要注意。我用的是2.3.7.RELEASE版本的spring boot。

            <dependency>
              <groupId>org.apache.kafka</groupId>
                <artifactId>kafka-clients</artifactId>
                <version>2.4.0</version>
            </dependency>

            4、编写配置文件

            这里一些相应的配置后续可以专门更新一篇文章,目前的目的是先跑起来体验一下。搭建起来。

            spring:
              application:
                name: xuydkafka
              kafka:
                bootstrap-servers: 127.0.0.1:9092 #kafka地址
                producer: # 生产者
                  retries: 3 # 设置大于0的值,则客户端会将发送失败的记录重新发送
                  batch-size: 16384
                  buffer-memory: 33554432
                  acks: 1
                  # 指定消息key和消息体的编解码方式
                  key-serializer: org.apache.kafka.common.serialization.StringSerializer
                  value-serializer: org.apache.kafka.common.serialization.StringSerializer
                consumer:
                  group-id: default-group
                  enable-auto-commit: false
                  auto-offset-reset: earliest # 从消息头开始poll()数据
                  key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
                  value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
                  max-poll-records: 500 # 一次poll最大的消息数量
                listener:
                  # 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
                  # RECORD
                  # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交
                  # BATCH
                  # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上次提交的时间大于time时提交
                  # TIME
                  # 当每一批poll()的数据被消费者监听器(ListenerConsumejavascriptr)处理之后,被处理的record数量大于等于count时提交
                  # COUNT
                  # TIME | COUNT 有⼀个条件满⾜时提交
                  # COUNT_TIME
                  # 当每⼀批pandroidoll()的数据被消费者监听器(ListenerConsumer)处理之后, ⼿动调#⽤Acknowledgment.acknowledge()后提交
                  # MANUAL
                  #  ⼿动调⽤Acknowledgment.acknowledge()后⽴即提交,⼀般使⽤这种
                  # MANUAL_IMMEDIATE
                  ack-mode: MANUAL_IMMEDIATE
              Redis:
                host: 127.0.0.1
            server:
              port: 9000

            5、编写消息生产者代码

            package com.xuyd.kafka.controller;
            import org.springframework.beans.factory.annotation.Autowired;
            import org.springframework.kafka.core.KafkaTemplate;
            import org.springframework.web.bind.annotation.RequestMapping;
            import org.springframework.web.bind.annotation.RestController;
            @R编程客栈estController
            @RequestMapping("/msghttp://www.devze.com")
            public class KafkaController {
                private final static String TOPIC_NAME = "my-replicated-topic";
                @Autowired
                private KafkaTemplate<String, String> kafkaTemplate;
                @RequestMapping("/send")
                public String sendMessage(){
                    kafkaTemplate.send(TOPIC_NAME, 0, "key", "this is a message");
                    return "send success";
                }
            }

            6、编写消息消费者相关代码

            需要注意的是,一般生产者和消费者不会在同一个项目。这里只是体验,所以临时这么处理。

            package com.xuyd.kafka.consumer;
            import org.apache.kafka.clients.consumer.ConsumerRecord;
            import org.springframework.kafka.annotation.KafkaListener;
            import org.springframework.kafka.support.Acknowledgment;
            import org.springframework.stereotype.Component;
            @Component
            public class MyConsumer {
                @KafkaListener(topics = "my-replicated-topic", groupId = "MyGroup1")
                public void listenGroup(ConsumerRecord<String, String> record, Acknowledgment ack) {
                    String value = record.value();
                    System.out.println(value);
                    System.out.println(record);
                    // 由于配置的提交方式是MANUAL_IMMEDIATE 因此这里需要手动提交代码        
                    ack.acknowledge();
                }
            }

            7、启动并发送消息

            这里启动时候可能会遇到各种问题,99%是因为springcloud或者springboot与kafka的版本不匹配造成的,大家先临时委曲求全一下,用我的版本跑起来再去完善吧~~

            消息生产者发生消息。

            SpringBoot集成Kafka2.4.0的全过程

            消费者收到消息打印:

            SpringBoot集成Kafka2.4.0的全过程

            到此这篇关于SpringBoot集成Kafka2.4.0的全过程的文章就介绍到这了,更多相关SpringBoot集成Kafka内容请搜索编程客栈(www.devze.com)以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程客栈(www.devze.com)!

            0

            精彩评论

            暂无评论...
            验证码 换一张
            取 消

            关注公众号