我正在使用 Kafka 从 Flink Datastream 读取数据(从多个流读取),然后我使用 flink SQL 将这些流转换为临时视图并执行联接操作。对于连接操作,我也使用 Flink SQL。我面临的问题是,当我在 flink sql 查询中添加新字段,然后尝试迁移保存点时,出现此错误:
Caused by: org.apache.flink.util.StateMigrationException: The new state serializer (org.apache.flink.api.common.typeutils.base.MapSerializer@58eac6c9) must not be incompatible with the old state serializer (org.apache.flink.api.common.typeutils.base.MapSerializer@a56de33a).
注意:当我检查时,当我更改查询而不是数据流的 pojo 时,会出现此错误。
Flink SQL 中不支持查询演化,如文档中强调的那样 https://nightlies.apache.org/flink/flink-docs-master/docs/ops/upgrading/#table-api--sql
SQL 查询中的更改意味着您必须在没有保存点的情况下重新启动。