Spring Cloud Stream Kafka

Spring Cloud Stream Kafka 基本使用

RocketMQ对Spring Cloud Stream 的介绍

Spring Cloud Stream 体系及原理介绍

主要概念

  • 应⽤用模型
  • Binder 抽象
  • 持久化 发布/订阅⽀支持
  • 消费分组⽀支持
  • 分区⽀支持

基本概念

Source:Stream 发送源

Sink:Stream 接收器器

Processor:

相关注解

激活:

  • @EnableBinding
  • @Configuration
  • @EnableIntegration

Source:

  • @Output
  • MessageChannel

Sink:

  • @Input
  • SubscribableChannel
  • @ServiceActivator
  • @StreamListener

生产者

配置

spring:
  application:
    name: stream-sink
  cloud:
    stream:
      kafka:
        binder:
          brokers: localhost:9092
      bindings:
        goods-out: # 输出通道
          destination: goods  # 对应的topic
          contentType: application/json
        #也可以bing多个通道
        log-out:
            destination: log  # 对应的topic
          contentType: application/json
      default-binder: kafka  #与consul 使用时需要指定 binder

定义通道

public interface GreetingsStreams {
    String OUTPUT = "goods-out"; // 与配置中一样

    @Output(OUTPUT)
    MessageChannel outboundGreetings();
}

激活

@EnableBinding(GreetingsStreams.class)
public class StreamsConfig {
}

发送消息

@Service
@Slf4j
public class GreetingsService {
    private final GreetingsStreams greetingsStreams;

    public GreetingsService(GreetingsStreams greetingsStreams) {
        this.greetingsStreams = greetingsStreams;
    }

    public void sendGreeting(final Greetings greetings) {
        log.info("Sending greetings {}", greetings);

        MessageChannel messageChannel = greetingsStreams.outboundGreetings();
        messageChannel.send(MessageBuilder
                .withPayload(greetings)
                .setHeader(MessageHeaders.CONTENT_TYPE, MimeTypeUtils.APPLICATION_JSON)
                .build());
    }
}

消费者

配置

spring:
  application:
    name: stream-sink

  cloud:
    stream:
      kafka:
        binder:
          brokers: localhost:9092
      bindings:
        goods-in:
          destination: goods
          contentType: application/json
          group: finance # 指定消费者组
      default-binder: kafka

定义通道

public interface GreetingsStreams {
    String INPUT = "goods-in";
    @Input(INPUT)
    SubscribableChannel inboundGreetings();
}

激活

@EnableBinding(GreetingsStreams.class)
public class StreamsConfig {
}

接收消息

@Component
@Slf4j
public class GreetingsListener {
    /**
     *
     * @param greetings
     * @param partition  从哪个分区获取的数据
     */
    @StreamListener(GreetingsStreams.INPUT)
    public void handleGreetings(@Payload Greetings greetings,@Header(KafkaHeaders.RECEIVED_PARTITION_ID) int partition) {
        log.info("Received message: {},from partition : {}", greetings,partition);
    }
}

消费分区

kafka 的partition 是一个有序队列,指定key可以将相同key的数据发送到同一个partition,可以保证消息有序消费

spring:
  application:
    name: stream-source

  cloud:
    stream:
      kafka:
        binder:
          brokers: localhost:9092
          auto-add-partitions: true
      bindings:
        goods-out:
          destination: goods
          contentType: application/json
          producer:
            partition-key-expression:  headers['partitionKey'] # partition key 表达式
            partition-count: 4  # partition 数量
      default-binder: kafka

发送端

private final static String PARTITION_KEY = "partitionKey";
private final GreetingsStreams greetingsStreams;

public GreetingsService(GreetingsStreams greetingsStreams) {
   this.greetingsStreams = greetingsStreams;
}

public void sendGreeting(final Greetings greetings, String key) {
    log.info("Sending greetings {}", greetings);

    MessageChannel messageChannel = greetingsStreams.outboundGreetings();
    messageChannel.send(MessageBuilder
            .withPayload(greetings)
            .setHeader(MessageHeaders.CONTENT_TYPE, MimeTypeUtils.APPLICATION_JSON)
            .setHeader(PARTITION_KEY, key)
            .build());
}

接收端

@StreamListener( target = GreetingsStreams.INPUT, condition = "headers['partitionKey']=='2'")
可以指定condition,接收指定条件的消息

    @StreamListener( target = GreetingsStreams.INPUT, condition = "headers['partitionKey']=='1'")

    public void handleKey1(@Payload Greetings greetings,@Header(KafkaHeaders.RECEIVED_PARTITION_ID) int partition) {
        log.info("Received message: {},from partition : {}", greetings,partition);
    }

    @StreamListener( target = GreetingsStreams.INPUT, condition = "headers['partitionKey']=='2'")

    public void handleKey2(@Payload Greetings greetings,@Header(KafkaHeaders.RECEIVED_PARTITION_ID) int partition) {
        log.info("Received message: {},from partition : {}", greetings,partition);
    }


    @StreamListener( target = GreetingsStreams.INPUT)

    public void handle(@Payload Greetings greetings,@Header(KafkaHeaders.RECEIVED_PARTITION_ID) int partition) {
        log.info("Received message: {},from partition : {}", greetings,partition);
    }

手动应答

消费者端:

可以设置 spring.cloud.stream.kafka.bindings.input.consumer.autoCommitOffset 为false

@SpringBootApplication
@EnableBinding(Sink.class)
public class ManuallyAcknowdledgingConsumer {

 public static void main(String[] args) {
     SpringApplication.run(ManuallyAcknowdledgingConsumer.class, args);
 }

 @StreamListener(Sink.INPUT)
 public void process(Message<?> message) {
     Acknowledgment acknowledgment = message.getHeaders().get(KafkaHeaders.ACKNOWLEDGMENT, Acknowledgment.class);
     if (acknowledgment != null) {
         System.out.println("Acknowledgment provided");
         acknowledgment.acknowledge();
     }
 }
}

测试不成功,控制台输出的consumerConfig 依然为true,不知道为啥

auto.commit.interval.ms = 5000
    auto.offset.reset = latest
    bootstrap.servers = [localhost:9092]
    check.crcs = true
    client.id = 
    connections.max.idle.ms = 540000
    default.api.timeout.ms = 60000
    enable.auto.commit = true  一直为自动提交

生产端 可以 将应答配置为同步的

spring.cloud.stream.kafka.bindings.output.producer.sync=true

https://cloud.spring.io/spring-cloud-static/spring-cloud-stream-binder-kafka/3.0.0.RELEASE/reference/html/spring-cloud-stream-binder-kafka.html

https://docs.spring.io/spring-cloud-stream/docs/current/reference/htmlsingle/

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,716评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,558评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,431评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,127评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,511评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,692评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,915评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,664评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,412评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,616评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,105评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,424评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,098评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,096评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,869评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,748评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,641评论 2 271

推荐阅读更多精彩内容