Apache Flink是一个用于可扩展批处理和流数据处理的开源平台。 Flink在一个系统中支持批量和流分析。分析程序可以用Java和Scala中简洁优雅的API编写。
Flink 流式传输管道,具有 1 个 kafka 分区,具有 5 个并行度,具有带 1 分钟滚动窗口的键控事件窗口。我们使用带有默认周期性生成的升序时间戳水印...
我是 Flink 新手,有一个用例来使用 Topic1 中的数据并在数据库中插入/更新,并将相同的数据推送到将由不同服务使用的 Topic2。我现在拥有的代码有点......
我正在处理需要根据库存数据进行转换的流。本质上,库存数据会很大(没有确切的数字),并且会有大量的读取和很少的写入......
Flink 无法解析 DataStream API 中 Debezium 写入 Kafka 的 Avro schema
似乎没有解决方案可以自动将 Confluence SchemaRegistry 的最新 schema 与 Kafka-topic 中的数据同步。因此,我通过从 Confluence Schema Regi 复制来手动添加架构...
我正在使用 Flink 流从多个资源(包括文件)读取输入。我的目标是触发一些 定期计算(处理时间)并在到达文件末尾时触发...
使用 Flink 从数据库动态获取新记录并发布到 kafka/axon 主题
我是 Flink 新手,有 2 个 Flink 作业的用例,第一个是使用 Topic1 中的数据并在数据库中插入/更新,第二个是获取数据库中插入/更新到由不同服务使用的 Topic2 的任何新数据。 .
我在 Flink 中有一个用户案例,我需要连接到 2 个广播流来执行某个 KeyedProcessFunction 操作。 Flink允许这样做吗?我看不到任何支持多个
假设我们有一个 DataStream,并且可以将 MapState 附加到每个 String 元素,同时将其传递到下游。喜欢: ds.keyBy(s -> s.hashCode() % 10) .process(new KeyedProcessFunci...
我有一个由四个任务管理器(tm)组成的 flink 集群。其他服务在任务管理器上运行。由于带宽、内存或CPU等资源问题,tm偶尔会断开连接...
我基于flink-kubernetes-operator部署我的flink任务。同时,我设置了一个检查点,其中检查点目录是一个挂载的pvc。 StateBackend 使用 RocksDB 并配置为
从保存点恢复 Flink 作业时出现 NoSuchMethodError
我使用的 Apache Flink 版本为 1.16.1。当我使用 fromSavepoint 选项部署作业时,出现以下错误; “java.lang.NoSuchMethodError: org.apache.commons.cli.CommandLine.hasOption(Lorg/ap...
我有一个使用RocksDB StateBackend的flink任务,检查点配置是最小间隔3分钟,超时5分钟。 当我测试检查点恢复机制时...
虽然有一个文件,其中每行都包含以逗号分隔格式的客户数据 客户 ID、电子邮件 同一客户可以有多个电子邮件,因此同一客户会出现多条线路...
我有一个流媒体用例,我想在 Flink 中实现一个自定义窗口函数,其中窗口启动是基于包含特定值的事件发生的。然后,窗口将编程...
我尝试在本地(Win 10 平台)上启动 flink(v1.15.0)作为独立集群,但任务管理器无法启动,导致可用任务槽数为零。 已经关注了...
最近,我升级了现有的 Flink 作业(之前运行 Flink 1.15)以针对官方 Flink Kubernetes Operator(针对 Flink 1.18)运行,并开始看到一些奇怪的行为...
Datastream API 中的 Flink Sink Parquet 压缩
我正在使用流数据API来读取镶木地板数据并丰富写入S3文件系统。在 flink 文档中,它说用于压缩表 API 的结果文件 Parquet 格式也支持
Flink 中 AggregateFunction 的 merge() 方法
我想知道 AggregateFunction 上的 merge() 方法何时被调用。根据我从此处和此处的答案中了解到的情况,它仅适用于会话窗口并且发生在每个...
org.bson.BsonInvalidOperationException:预期为 INT64 类型的值是意外的 OBJECT_ID 类型
我尝试制作简单的 Apache Flink MongoDB 连接器代码来读取和写入 MongoDB 中的 json 数据。首先,下面的代码是 MongoDB Sink 代码。 流执行环境环境 =
我目前正在开发一个使用 flink 的 keyed state 的操作符(sink)。状态后端是基于堆的。状态 ttl 设置为 24 小时。操作员用例是这样的:首先我们捕获请求并存储