Apache Flink 1.11.2 发布说明
Apache Flink 是一个强大的分布式处理引擎,支持在无边界和有边界数据流上进行有状态的计算。它能够在各种常见集群环境中运行,并以内存速度实现任意规模的数据计算。
版本概述
Apache Flink 1.11.2 是该系列发布的第二个 Bugfix 版本。相较于 1.11.0,此版本共包含 96 个修复程序和改进项,重点提升了系统的稳定性和兼容性。
主要修复内容
本次更新解决了一系列影响生产环境的关键问题,主要包括:
- RebalancePartitioner 异常:修复了使用该分区器发出数据时抛出
java.lang.ArrayIndexOutOfBoundsException的问题。 - 任务取消机制:确保在取消任务期间正确等待源线程结束。
- 文档修复:修正了'Kerberos 身份验证设置和配置'文档中损坏的链接。
- 查询表 UDF:修复了在查询表上使用 UDF 时初始化查询联接失败的错误。
- Elasticsearch 集成:改进了 v6.3.1 接收器端到端测试的不稳定性。
- TaskExecutor 测试:修复了
TaskExecutorITCase.testJobReExecutionAfterTaskExecutorTermination测试中出现的DuplicateJobSubmissionException失败。 - 迁移测试:更新了 master 分支中的迁移测试,增加了对从版本 1.11 开始迁移的覆盖。
- 类型转换规则:在
CustomizedConvertRule#convertCast中删除了可空性逻辑。 - WordCount 示例:修复了设置相对输出路径时 WordCount 示例失败的问题。
- RowData 分配:解决了当接收器代码生成且物理类型信息为 POJO 类型时,未从输入行数据分配 RowData 的行类型问题。
- 错误消息捕获:修复了 BashJavaUtils 中错误消息被吞没的情况。
建议正在使用 1.11.x 系列的用户评估后尽快升级,以获得更稳定的运行时环境。


