千家信息网

如何用Flink的Max获取一组数据流中最大的值

发表于:2025-02-03 作者:千家信息网编辑
千家信息网最后更新 2025年02月03日,这篇文章主要介绍"如何用Flink的Max获取一组数据流中最大的值",在日常操作中,相信很多人在如何用Flink的Max获取一组数据流中最大的值问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作
千家信息网最后更新 2025年02月03日如何用Flink的Max获取一组数据流中最大的值

这篇文章主要介绍"如何用Flink的Max获取一组数据流中最大的值",在日常操作中,相信很多人在如何用Flink的Max获取一组数据流中最大的值问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答"如何用Flink的Max获取一组数据流中最大的值"的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

max聚合:获取一组数据流中最大的值

示例环境

java.version: 1.8.xflink.version: 1.11.1

示例数据源 (项目码云下载)

Flink 系例 之 搭建开发环境与数据

Max.java

import com.flink.examples.DataSource;import org.apache.flink.api.common.functions.MapFunction;import org.apache.flink.api.common.typeinfo.Types;import org.apache.flink.api.java.functions.KeySelector;import org.apache.flink.api.java.tuple.Tuple2;import org.apache.flink.api.java.tuple.Tuple3;import org.apache.flink.streaming.api.datastream.DataStream;import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;import java.util.List;/** * @Description max聚合:获取一组数据流中最大的值 */public class Max {    /**     * 遍历集合,返回每个性别分区下最大年龄     * @param args     * @throws Exception     */    public static void main(String[] args) throws Exception {        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();        List> tuple3List = DataSource.getTuple3ToList();        DataStream> dataStream = env.fromCollection(tuple3List)                .map(new MapFunction, Tuple2>() {                    @Override                    public Tuple2 map(Tuple3 tuple3) throws Exception {                        return new Tuple2<>(tuple3.f1,tuple3.f2);                    }                })                .returns(Types.TUPLE(Types.STRING,Types.INT))                .keyBy((KeySelector, String>) k ->k.f0)                //按数量窗口滚动,每3个输入数据流,计算一次                .countWindow(3)                .max(1);        dataStream.print();        env.execute("flink Max job");    }}

打印结果

2> (man,30)4> (girl,32)

到此,关于"如何用Flink的Max获取一组数据流中最大的值"的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!

0