我的编程空间,编程开发者的网络收藏夹
学习永远不晚

flink连接消费kafka实例

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

flink连接消费kafka实例

这篇文章主要讲解了“flink连接消费kafka实例”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“flink连接消费kafka实例”吧!

package flink.streamingimport java.util.Propertiesimport org.apache.flink.streaming.api.scala._import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerimport org.apache.flink.api.common.serialization.SimpleStringSchemaimport org.apache.flink.streaming.api.windowing.time.Timeobject StreamingTest {  def main(args: Array[String]): Unit = {    val kafkaProps = new Properties()    //kafka的一些属性    kafkaProps.setProperty("bootstrap.servers", "bigdata01:9092")    //所在的消费组    kafkaProps.setProperty("group.id", "group1")    //获取当前的执行环境    val evn = StreamExecutionEnvironment.getExecutionEnvironment    //kafka的consumer,test1是要消费的topic    val kafkaSource = new FlinkKafkaConsumer[String]("test1",new SimpleStringSchema,kafkaProps)    //设置从最新的offset开始消费    kafkaSource.setStartFromLatest()    //自动提交offset    kafkaSource.setCommitOffsetsOnCheckpoints(true)        //flink的checkpoint的时间间隔    evn.enableCheckpointing(5000)    //添加consumer    val stream = evn.addSource(kafkaSource)    stream.setParallelism(3)    val text = stream.flatMap{ _.toLowerCase().split("\\W+")filter { _.nonEmpty} }          .map{(_,1)}          .keyBy(0)          .timeWindow(Time.seconds(5))          .sum(1)         text.print()     //启动执行        evn.execute("kafkawd")                      }}

//

pom.xml<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">  <modelVersion>4.0.0</modelVersion>  <groupId>hgs</groupId>  <artifactId>flink_lesson</artifactId>  <version>1.0.0</version>  <packaging>jar</packaging>  <name>flink_lesson</name>  <url>http://maven.apache.org</url>  <properties>    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>  </properties>  <dependencies>    <dependency>      <groupId>junit</groupId>      <artifactId>junit</artifactId>      <version>4.1</version>      <scope>test</scope>    </dependency>        <!-- https://mvnrepository.com/artifact/org.apache.flink/flink-core --><dependency>    <groupId>org.apache.flink</groupId>    <artifactId>flink-core</artifactId>    <version>1.7.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.flink/flink-clients --><dependency>    <groupId>org.apache.flink</groupId>    <artifactId>flink-clients_2.12</artifactId>    <version>1.7.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.flink/flink-streaming-scala --><dependency>    <groupId>org.apache.flink</groupId>    <artifactId>flink-streaming-scala_2.12</artifactId>    <version>1.7.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.flink/flink-connector-kafka-0.11 --><dependency>  <groupId>org.apache.flink</groupId>  <artifactId>flink-connector-kafka_2.12</artifactId>  <version>1.7.1</version></dependency><!-- https://mvnrepository.com/artifact/io.netty/netty-all --><dependency>    <groupId>io.netty</groupId>    <artifactId>netty-all</artifactId>    <version>4.1.32.Final</version></dependency>  </dependencies>       <build>        <plugins>            <plugin>                <artifactId>maven-assembly-plugin</artifactId>                <version>2.6</version>                <configuration>                             <archive>                        <manifest>                            <!-- 我运行这个jar所运行的主类 -->                            <mainClass>hgs.flink_lesson.WordCount</mainClass>                        </manifest>                    </archive>                                         <descriptorRefs>                        <descriptorRef>                            <!-- 必须是这样写 -->                            jar-with-dependencies                        </descriptorRef>                    </descriptorRefs>                </configuration>                                <executions>                    <execution>                        <id>make-assembly</id>                        <phase>package</phase>                        <goals>                            <goal>single</goal>                        </goals>                    </execution>                </executions>            </plugin>                          <plugin>                <groupId>org.apache.maven.plugins</groupId>                <artifactId>maven-compiler-plugin</artifactId>                <configuration>                    <source>1.8</source>                    <target>1.8</target>                </configuration>            </plugin>              <plugin><groupId>net.alchim31.maven</groupId><artifactId>scala-maven-plugin</artifactId><version>3.2.0</version><executions><execution><goals><goal>compile</goal><goal>testCompile</goal>    </goals><configuration><args><!-- <arg>-make:transitive</arg> -->                <arg>-dependencyfile</arg>                <arg>${project.build.directory}/.scala_dependencies</arg>              </args></configuration></execution></executions></plugin><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-surefire-plugin</artifactId><version>2.18.1</version><configuration><useFile>false</useFile><disableXmlReport>true</disableXmlReport><!-- If you have classpath issue like NoDefClassError,... --><!-- useManifestOnlyJar>false</useManifestOnlyJar --><includes><include>***Suite.*</include></includes></configuration></plugin>                 </plugins>    </build></project>

感谢各位的阅读,以上就是“flink连接消费kafka实例”的内容了,经过本文的学习后,相信大家对flink连接消费kafka实例这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

flink连接消费kafka实例

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

flink连接消费kafka实例

这篇文章主要讲解了“flink连接消费kafka实例”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“flink连接消费kafka实例”吧!package flink.streamingimpo
2023-06-02

flink 使用sql实现kafka生产者和消费者

1.maven依赖 UTF-8 1.8 1.8 1.11.2 1.1.7 1.7.25 org.a

	flink 使用sql实现kafka生产者和消费者
2015-10-30

Go语言kafka生产消费消息实例搬砖

目录kafka go库注意例子kafka go库 kafka go客户端官方目前没有提供,但在github有2个非常流行的库 星星较多,网上案例也多 https://github.com/Shopify/sarama confluent官网
2022-06-09

go连接kafka的实现示例

本文主要介绍了go连接kafka的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2023-03-19

maven如何实现kafka消息消费

要使用 Maven 实现 Kafka 消息消费,需要按照以下步骤进行操作:1. 在 Maven 项目的 `pom.xml` 文件中添加 Kafka 客户端的依赖:```xmlorg.apache.kafkakafka-clients2.8.
2023-09-14

基于SpringBoot 使用 Flink 收发Kafka消息的示例详解

这篇文章主要介绍了基于SpringBoot 使用 Flink 收发Kafka消息,本文通过示例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
2023-01-07

kafka java 生产消费程序demo示例

kafka是吞吐量巨大的一个消息系统,它是用scala写的,和普通的消息的生产消费还有所不同,写了个demo程序供大家参考。kafka的安装请参考官方文档。首先我们需要新建一个maven项目,然后在pom中引用kafka jar包,引用依赖
2023-06-03

kafka消费者kafka-console-consumer接收不到数据的解决

这篇文章主要介绍了kafka消费者kafka-console-consumer接收不到数据的问题及解决方案,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
2023-03-07

kafka消费者kafka-console-consumer接收不到数据如何解决

这篇“kafka消费者kafka-console-consumer接收不到数据如何解决”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看
2023-07-05

如何解析Kafka 1.0.0 多消费者示例

如何解析Kafka 1.0.0 多消费者示例,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。package kafka.demo;import java.util.HashMap
2023-06-02

golang连接kafka的示例代码

本文主要介绍了golang连接kafka的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2023-05-16

怎样实现Pulsar与Kafka消费模型对比

这期内容当中小编将会给大家带来有关怎样实现Pulsar与Kafka消费模型对比,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。kafkakafka 属于 Stream 的消费模型,为了支持多 partiti
2023-06-19

Java中如何实现Kafka消费积压监控

小编给大家分享一下Java中如何实现Kafka消费积压监控,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!后端代码:Monitor.java代码:package c
2023-06-20

python怎么实现消费kafka数据并写入数据库

要消费Kafka数据并将其写入数据库,可以按照以下步骤进行操作:1. 首先,确保已经安装了kafka-python库,可以使用以下命令安装:```pip install kafka-python```2. 导入所需的模块:```python
2023-09-14

spring kafka怎么实现消费者动态订阅新增的topic

这篇文章主要介绍了spring kafka怎么实现消费者动态订阅新增的topic的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇spring kafka怎么实现消费者动态订阅新增的topic文章都会有所收获,下面
2023-07-04

windows 8连接vpn设置方法(消费者预览版)

其实用过Win7或者Vista的朋友已经习惯于在左下角通过网络图标连接了,Win8的改进貌似让小编的鼠标,移动了更长的距离,是不是有点更麻烦了呢?言归正传: 图文连接方法—— 1、打开控制面板里的网络和共享中心。2、
2022-06-04

具有 sasl.username 和 sasl.password 的融合云的 kafka 消费者的 go 客户端示例

php小编百草为您带来了一个关于具有sasl.username和sasl.password的融合云Kafka消费者的Go客户端示例。在这个示例中,我们将展示如何使用Go编程语言创建一个能够与融合云Kafka进行安全认证的消费者客户端。通过设
具有 sasl.username 和 sasl.password 的融合云的 kafka 消费者的 go 客户端示例
2024-02-10

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录