我的编程空间,编程开发者的网络收藏夹
学习永远不晚

kafka复习:(24)consume-transform-produce模式

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

kafka复习:(24)consume-transform-produce模式

package com.cisdi.dsp.modules.metaAnalysis.rest.kafka2023;import org.apache.kafka.clients.consumer.*;import org.apache.kafka.clients.producer.KafkaProducer;import org.apache.kafka.clients.producer.ProducerConfig;import org.apache.kafka.clients.producer.ProducerRecord;import org.apache.kafka.common.TopicPartition;import org.apache.kafka.common.errors.ProducerFencedException;import org.apache.kafka.common.serialization.StringDeserializer;import org.apache.kafka.common.serialization.StringSerializer;import java.time.Duration;import java.util.*;public class KafkaTest24 {    public static final String brokerList = "k8s-master:9092";    public static Properties getConsumerProperties() {        Properties props = new Properties();        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());        //必须配置手动提交        props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);        props.put(ConsumerConfig.GROUP_ID_CONFIG, "groupId");        return props;    }    public static Properties getProducerProperties() {        Properties props = new Properties();        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());        props.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, "transactionalId");        return props;    }    //先从source-topic消费,再往sink-topic生产    public static void main(String[] args) {        KafkaConsumer consumer = new KafkaConsumer<>(getConsumerProperties());        consumer.subscribe(Collections.singletonList("source-topic"));        KafkaProducer producer = new KafkaProducer<>(getProducerProperties());        //初始化事务        producer.initTransactions();        while (true) {            ConsumerRecords records = consumer.poll(Duration.ofMillis(1000));            if (!records.isEmpty()) {                Map offsets = new HashMap<>();                //开启事务                producer.beginTransaction();                try {                    for (TopicPartition partition : records.partitions()) {                        List> partitionRecords = records.records(partition);                        for (ConsumerRecord record : partitionRecords) {ProducerRecord producerRecord =        new ProducerRecord<>("sink-topic", record.key(), record.value());producer.send(producerRecord);System.out.println("sent :" + record.value());                        }                        long lastConsumedOffset = partitionRecords.get(partitionRecords.size() - 1).offset();                        offsets.put(partition, new OffsetAndMetadata(lastConsumedOffset + 1));                    }                    // 提交消费位移                    // consume-transform-produce模式,此处的group id 必须要配置成consumer 中配置的group id                    producer.sendOffsetsToTransaction(offsets, "groupId");                    producer.commitTransaction();                } catch (ProducerFencedException e) {                    producer.abortTransaction();                }            }        }    }}

来源地址:https://blog.csdn.net/amadeus_liu2/article/details/132578447

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

kafka复习:(24)consume-transform-produce模式

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

kafka复习:(24)consume-transform-produce模式

package com.cisdi.dsp.modules.metaAnalysis.rest.kafka2023;import org.apache.kafka.clients.consumer.*;import org.apache.k
2023-08-30

编程热搜

目录