万字详述 Flink SQL 4 种时间窗口语义!(收藏)

举报
数据社 发表于 2022/09/25 02:55:45 2022/09/25
【摘要】 DML:窗口聚合 大家好我是老羊,由于窗口涉及到的知识内容比较多,所以博主先为大家说明介绍下面内容时的思路,大家跟着思路走。思路如下: ⭐ 先介绍 Flink SQL 支持的 4 种时间窗口⭐ 分别详细介绍上述的 4 种时间窗口的功能及 SQL 语法⭐ 结合实际案例介绍 4 种时间窗口 首先来看看 Flink SQL 中支持...

DML:窗口聚合

大家好我是老羊,由于窗口涉及到的知识内容比较多,所以博主先为大家说明介绍下面内容时的思路,大家跟着思路走。思路如下:

  1. ⭐ 先介绍 Flink SQL 支持的 4 种时间窗口

  2. ⭐ 分别详细介绍上述的 4 种时间窗口的功能及 SQL 语法

  3. ⭐ 结合实际案例介绍 4 种时间窗口

首先来看看 Flink SQL 中支持的 4 种窗口的运算。

  1. ⭐ 滚动窗口(TUMBLE)

  2. ⭐ 滑动窗口(HOP)

  3. Session 窗口(SESSION)

  4. ⭐ 渐进式窗口(CUMULATE)

1.滚动窗口(TUMBLE)

  1. ⭐ 滚动窗口定义:滚动窗口将每个元素指定给指定窗口大小的窗口。滚动窗口具有固定大小,且不重叠。例如,指定一个大小为 5 分钟的滚动窗口。在这种情况下,Flink 将每隔 5 分钟开启一个新的窗口,其中每一条数都会划分到唯一一个 5 分钟的窗口中,如下图所示。

55b4c7501fb1ca60ea29fde8eb75ac2b.png

tumble window
  1. ⭐ 应用场景:常见的按照一分钟对数据进行聚合,计算一分钟内 PV,UV 数据。

  2. ⭐ 实际案例:简单且常见的分维度分钟级别同时在线用户数、总销售额

那么上面这个案例的 SQL 要咋写呢?

关于滚动窗口,在 1.13 版本之前和 1.13 及之后版本有两种 Flink SQL 实现方式,分别是:

  • ⭐ Group Window Aggregation(1.13 之前只有此类方案,此方案在 1.13 及之后版本已经标记为废弃,不推荐小伙伴萌使用)

  • ⭐ Windowing TVF(1.13 及之后建议使用 Windowing TVF)

博主这里两种方法都会介绍:

  • ⭐ Group Window Aggregation 方案(支持 Batch\Streaming 任务):


   
  1. -- 数据源表
  2. CREATE TABLE source_table (
  3.     -- 维度数据
  4.     dim STRING,
  5.     -- 用户 id
  6.     user_id BIGINT,
  7.     -- 用户
  8.     price BIGINT,
  9.     -- 事件时间戳
  10.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  11.     -- watermark 设置
  12.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  13. ) WITH (
  14.   'connector' = 'datagen',
  15.   'rows-per-second' = '10',
  16.   'fields.dim.length' = '1',
  17.   'fields.user_id.min' = '1',
  18.   'fields.user_id.max' = '100000',
  19.   'fields.price.min' = '1',
  20.   'fields.price.max' = '100000'
  21. )
  22. -- 数据汇表
  23. CREATE TABLE sink_table (
  24.     dim STRING,
  25.     pv BIGINT,
  26.     sum_price BIGINT,
  27.     max_price BIGINT,
  28.     min_price BIGINT,
  29.     uv BIGINT,
  30.     window_start bigint
  31. ) WITH (
  32.   'connector' = 'print'
  33. )
  34. -- 数据处理逻辑
  35. insert into sink_table
  36. select 
  37.     dim,
  38.     count(*) as pv,
  39.     sum(price) as sum_price,
  40.     max(price) as max_price,
  41.     min(price) as min_price,
  42.     -- 计算 uv 数
  43.     count(distinct user_id) as uv,
  44.     UNIX_TIMESTAMP(CAST(tumble_start(row_time, interval '1' minute) AS STRING)) * 1000  as window_start
  45. from source_table
  46. group by
  47.     dim,
  48.     tumble(row_time, interval '1' minute)

可以看到 Group Window Aggregation 滚动窗口的 SQL 语法就是把 tumble window 的声明写在了 group by 子句中,即 tumble(row_time, interval '1' minute),第一个参数为事件时间的时间戳;第二个参数为滚动窗口大小。

  • ⭐ Window TVF 方案(1.13 只支持 Streaming 任务):


   
  1. -- 数据源表
  2. CREATE TABLE source_table (
  3.     -- 维度数据
  4.     dim STRING,
  5.     -- 用户 id
  6.     user_id BIGINT,
  7.     -- 用户
  8.     price BIGINT,
  9.     -- 事件时间戳
  10.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  11.     -- watermark 设置
  12.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  13. ) WITH (
  14.   'connector' = 'datagen',
  15.   'rows-per-second' = '10',
  16.   'fields.dim.length' = '1',
  17.   'fields.user_id.min' = '1',
  18.   'fields.user_id.max' = '100000',
  19.   'fields.price.min' = '1',
  20.   'fields.price.max' = '100000'
  21. )
  22. -- 数据汇表
  23. CREATE TABLE sink_table (
  24.     dim STRING,
  25.     pv BIGINT,
  26.     sum_price BIGINT,
  27.     max_price BIGINT,
  28.     min_price BIGINT,
  29.     uv BIGINT,
  30.     window_start bigint
  31. ) WITH (
  32.   'connector' = 'print'
  33. )
  34. -- 数据处理逻辑
  35. insert into sink_table
  36. SELECT 
  37.     dim,
  38.     UNIX_TIMESTAMP(CAST(window_start AS STRING)) * 1000 as window_start,
  39.     count(*) as pv,
  40.     sum(price) as sum_price,
  41.     max(price) as max_price,
  42.     min(price) as min_price,
  43.     count(distinct user_id) as uv
  44. FROM TABLE(TUMBLE(
  45.         TABLE source_table
  46.         , DESCRIPTOR(row_time)
  47.         , INTERVAL '60' SECOND))
  48. GROUP BY window_start, 
  49.       window_end,
  50.       dim

可以看到 Windowing TVF 滚动窗口的写法就是把 tumble window 的声明写在了数据源的 Table 子句中,即 TABLE(TUMBLE(TABLE source_table, DESCRIPTOR(row_time), INTERVAL '60' SECOND)),包含三部分参数。

第一个参数 TABLE source_table 声明数据源表;第二个参数 DESCRIPTOR(row_time) 声明数据源的时间戳;第三个参数 INTERVAL '60' SECOND 声明滚动窗口大小为 1 min。

可以直接在公众号后台回复1.13.2 最全 flink sql获取源代码。所有的源码都开源到 github 上面了。里面包含了非常多的案例。可以直接拿来在本地运行的!!!肥肠的方便。

  1. ⭐ SQL 语义

由于离线没有相同的时间窗口聚合概念,这里就直接说实时场景 SQL 语义,假设 Orders 为 kafka,target_table 也为 Kafka,这个 SQL 生成的实时任务,在执行时,会生成三个算子:

  • ⭐ 数据源算子(From Order):连接到 Kafka topic,数据源算子一直运行,实时的从 Order Kafka 中一条一条的读取数据,然后一条一条发送给下游的 窗口聚合算子

  • ⭐ 窗口聚合算子(TUMBLE 算子):接收到上游算子发的一条一条的数据,然后将每一条数据按照时间戳划分到对应的窗口中(根据事件时间、处理时间的不同语义进行划分),上述案例为事件时间,事件时间中,滚动窗口算子接收到上游的 Watermark 大于窗口的结束时间时,则说明当前这一分钟的滚动窗口已经结束了,将窗口计算完的结果发往下游算子(一条一条发给下游 数据汇算子

  • ⭐ 数据汇算子(INSERT INTO target_table):接收到上游发的一条一条的数据,写入到 target_table Kafka 中

这个实时任务也是 24 小时一直在运行的,所有的算子在同一时刻都是处于 running 状态的。

注意:

事件时间中滚动窗口的窗口计算触发是由 Watermark 推动的。

2.滑动窗口(HOP)

  1. ⭐ 滑动窗口定义:滑动窗口也是将元素指定给固定长度的窗口。与滚动窗口功能一样,也有窗口大小的概念。不一样的地方在于,滑动窗口有另一个参数控制窗口计算的频率(滑动窗口滑动的步长)。因此,如果滑动的步长小于窗口大小,则滑动窗口之间每个窗口是可以重叠。在这种情况下,一条数据就会分配到多个窗口当中。举例,有 10 分钟大小的窗口,滑动步长为 5 分钟。这样,每 5 分钟会划分一次窗口,这个窗口包含的数据是过去 10 分钟内的数据,如下图所示。

f903a635afc86900d0218269b60c24e3.png

hop window
  1. ⭐ 应用场景:比如计算同时在线的数据,要求结果的输出频率是 1 分钟一次,每次计算的数据是过去 5 分钟的数据(有的场景下用户可能在线,但是可能会 2 分钟不活跃,但是这也要算在同时在线数据中,所以取最近 5 分钟的数据就能计算进去了)

  2. ⭐ 实际案例:简单且常见的分维度分钟级别同时在线用户数,1 分钟输出一次,计算最近 5 分钟的数据

依然是 Group Window Aggregation、Windowing TVF 两种方案:

  • ⭐ Group Window Aggregation 方案(支持 Batch\Streaming 任务):


   
  1. -- 数据源表
  2. CREATE TABLE source_table (
  3.     -- 维度数据
  4.     dim STRING,
  5.     -- 用户 id
  6.     user_id BIGINT,
  7.     -- 用户
  8.     price BIGINT,
  9.     -- 事件时间戳
  10.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  11.     -- watermark 设置
  12.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  13. ) WITH (
  14.   'connector' = 'datagen',
  15.   'rows-per-second' = '10',
  16.   'fields.dim.length' = '1',
  17.   'fields.user_id.min' = '1',
  18.   'fields.user_id.max' = '100000',
  19.   'fields.price.min' = '1',
  20.   'fields.price.max' = '100000'
  21. );
  22. -- 数据汇表
  23. CREATE TABLE sink_table (
  24.     dim STRING,
  25.     uv BIGINT,
  26.     window_start bigint
  27. ) WITH (
  28.   'connector' = 'print'
  29. );
  30. -- 数据处理逻辑
  31. insert into sink_table
  32. SELECT dim,
  33.     UNIX_TIMESTAMP(CAST(hop_start(row_time, interval '1' minute, interval '5' minute) AS STRING)) * 1000 as window_start, 
  34.     count(distinct user_id) as uv
  35. FROM source_table
  36. GROUP BY dim
  37.     , hop(row_time, interval '1' minute, interval '5' minute)

可以看到 Group Window Aggregation 滚动窗口的写法就是把 hop window 的声明写在了 group by 子句中,即 hop(row_time, interval '1' minute, interval '5' minute)。其中:

第一个参数为事件时间的时间戳;第二个参数为滑动窗口的滑动步长;第三个参数为滑动窗口大小。

  • ⭐ Windowing TVF 方案(1.13 只支持 Streaming 任务):


   
  1. -- 数据源表
  2. CREATE TABLE source_table (
  3.     -- 维度数据
  4.     dim STRING,
  5.     -- 用户 id
  6.     user_id BIGINT,
  7.     -- 用户
  8.     price BIGINT,
  9.     -- 事件时间戳
  10.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  11.     -- watermark 设置
  12.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  13. ) WITH (
  14.   'connector' = 'datagen',
  15.   'rows-per-second' = '10',
  16.   'fields.dim.length' = '1',
  17.   'fields.user_id.min' = '1',
  18.   'fields.user_id.max' = '100000',
  19.   'fields.price.min' = '1',
  20.   'fields.price.max' = '100000'
  21. );
  22. -- 数据汇表
  23. CREATE TABLE sink_table (
  24.     dim STRING,
  25.     uv BIGINT,
  26.     window_start bigint
  27. ) WITH (
  28.   'connector' = 'print'
  29. );
  30. -- 数据处理逻辑
  31. insert into sink_table
  32. SELECT 
  33.     dim,
  34.     UNIX_TIMESTAMP(CAST(window_start AS STRING)) * 1000 as window_start, 
  35.     count(distinct user_id) as bucket_uv
  36. FROM TABLE(HOP(
  37.         TABLE source_table
  38.         , DESCRIPTOR(row_time)
  39.         , INTERVAL '1' MINUTES, INTERVAL '5' MINUTES))
  40. GROUP BY window_start, 
  41.       window_end,
  42.       dim

可以看到 Windowing TVF 滚动窗口的写法就是把 hop window 的声明写在了数据源的 Table 子句中,即 TABLE(HOP(TABLE source_table, DESCRIPTOR(row_time), INTERVAL '1' MINUTES, INTERVAL '5' MINUTES)),包含四部分参数:

第一个参数 TABLE source_table 声明数据源表;第二个参数 DESCRIPTOR(row_time) 声明数据源的时间戳;第三个参数 INTERVAL '1' MINUTES 声明滚动窗口滑动步长大小为 1 min。第四个参数 INTERVAL '5' MINUTES 声明滚动窗口大小为 5 min。

  1. ⭐ SQL 语义

滑动窗口语义和滚动窗口类似,这里不再赘述。

c016d5052d51d5fe51851d9ac510614c.png

flink sql 知其所以然(八):flink sql tumble window 的奇妙解析之路


03f564d7de4acbdacc15e73529d82955.png

flink sql 知其所以然(九):window tvf tumble window 的奇思妙解


3.Session 窗口(SESSION)

  1. ⭐ Session 窗口定义:Session 时间窗口和滚动、滑动窗口不一样,其没有固定的持续时间,如果在定义的间隔期(Session Gap)内没有新的数据出现,则 Session 就会窗口关闭。如下图对比所示:

a3806e97a61146ded7aebe08f75397ee.png

session window
  1. ⭐ 实际案例:计算每个用户在活跃期间(一个 Session)总共购买的商品数量,如果用户 5 分钟没有活动则视为 Session 断开

目前 1.13 版本中 Flink SQL 不支持 Session 窗口的 Window TVF,所以这里就只介绍 Group Window Aggregation 方案:

  • ⭐ Group Window Aggregation 方案(支持 Batch\Streaming 任务):


   
  1. -- 数据源表,用户购买行为记录表
  2. CREATE TABLE source_table (
  3.     -- 维度数据
  4.     dim STRING,
  5.     -- 用户 id
  6.     user_id BIGINT,
  7.     -- 用户
  8.     price BIGINT,
  9.     -- 事件时间戳
  10.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  11.     -- watermark 设置
  12.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  13. ) WITH (
  14.   'connector' = 'datagen',
  15.   'rows-per-second' = '10',
  16.   'fields.dim.length' = '1',
  17.   'fields.user_id.min' = '1',
  18.   'fields.user_id.max' = '100000',
  19.   'fields.price.min' = '1',
  20.   'fields.price.max' = '100000'
  21. );
  22. -- 数据汇表
  23. CREATE TABLE sink_table (
  24.     dim STRING,
  25.     pv BIGINT, -- 购买商品数量
  26.     window_start bigint
  27. ) WITH (
  28.   'connector' = 'print'
  29. );
  30. -- 数据处理逻辑
  31. insert into sink_table
  32. SELECT 
  33.     dim,
  34.     UNIX_TIMESTAMP(CAST(session_start(row_time, interval '5' minute) AS STRING)) * 1000 as window_start, 
  35.     count(1) as pv
  36. FROM source_table
  37. GROUP BY dim
  38.       , session(row_time, interval '5' minute)

注意:

上述 SQL 任务是在整个 Session 窗口结束之后才会把数据输出。Session 窗口即支持 处理时间 也支持 事件时间。但是处理时间只支持在 Streaming 任务中运行,Batch 任务不支持。

可以看到 Group Window Aggregation 中 Session 窗口的写法就是把 session window 的声明写在了 group by 子句中,即 session(row_time, interval '5' minute)。其中:

第一个参数为事件时间的时间戳;第二个参数为 Session gap 间隔。

  1. ⭐ SQL 语义

Session 窗口语义和滚动窗口类似,这里不再赘述。

可以直接在公众号后台回复1.13.2 最全 flink sql获取源代码。所有的源码都开源到 github 上面了。里面包含了非常多的案例。可以直接拿来在本地运行的!!!肥肠的方便。

4.渐进式窗口(CUMULATE)

  1. ⭐ 渐进式窗口定义(1.13 只支持 Streaming 任务):渐进式窗口在其实就是 固定窗口间隔内提前触发的的滚动窗口,其实就是 Tumble Window + early-fire 的一个事件时间的版本。例如,从每日零点到当前这一分钟绘制累积 UV,其中 10:00 时的 UV 表示从 00:00 到 10:00 的 UV 总数。渐进式窗口可以认为是首先开一个最大窗口大小的滚动窗口,然后根据用户设置的触发的时间间隔将这个滚动窗口拆分为多个窗口,这些窗口具有相同的窗口起点和不同的窗口终点。如下图所示:

122297661cae40135128ebfbf88a3b63.png

cumulate window
  1. ⭐ 应用场景:周期内累计 PV,UV 指标(如每天累计到当前这一分钟的 PV,UV)。这类指标是一段周期内的累计状态,对分析师来说更具统计分析价值,而且几乎所有的复合指标都是基于此类指标的统计(不然离线为啥都要累计一天的数据,而不要一分钟累计的数据呢)。

  2. ⭐ 实际案例:每天的截止当前分钟的累计 money(sum(money)),去重 id 数(count(distinct id))。每天代表渐进式窗口大小为 1 天,分钟代表渐进式窗口移动步长为分钟级别。举例如下:

明细输入数据:

time id money
2021-11-01 00:01:00 A 3
2021-11-01 00:01:00 B 5
2021-11-01 00:01:00 A 7
2021-11-01 00:02:00 C 3
2021-11-01 00:03:00 C 10

预期经过渐进式窗口计算的输出数据:

time count distinct id sum money
2021-11-01 00:01:00 2 15
2021-11-01 00:02:00 3 18
2021-11-01 00:03:00 3 28

转化为折线图长这样:

5504a0f39e588149fc6994b84721eda1.png

当日累计

可以看到,其特点就在于,每一分钟的输出结果都是当天零点累计到当前的结果。

渐进式窗口目前只有 Windowing TVF 方案支持:

  • ⭐ Windowing TVF 方案(1.13 只支持 Streaming 任务):


   
  1. -- 数据源表
  2. CREATE TABLE source_table (
  3.     -- 用户 id
  4.     user_id BIGINT,
  5.     -- 用户
  6.     money BIGINT,
  7.     -- 事件时间戳
  8.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  9.     -- watermark 设置
  10.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  11. ) WITH (
  12.   'connector' = 'datagen',
  13.   'rows-per-second' = '10',
  14.   'fields.user_id.min' = '1',
  15.   'fields.user_id.max' = '100000',
  16.   'fields.price.min' = '1',
  17.   'fields.price.max' = '100000'
  18. );
  19. -- 数据汇表
  20. CREATE TABLE sink_table (
  21.     window_end bigint,
  22.     window_start bigint,
  23.     sum_money BIGINT,
  24.     count_distinct_id bigint
  25. ) WITH (
  26.   'connector' = 'print'
  27. );
  28. -- 数据处理逻辑
  29. insert into sink_table
  30. SELECT 
  31.     UNIX_TIMESTAMP(CAST(window_end AS STRING)) * 1000 as window_end, 
  32.     window_start, 
  33.     sum(money) as sum_money,
  34.     count(distinct id) as count_distinct_id
  35. FROM TABLE(CUMULATE(
  36.        TABLE source_table
  37.        , DESCRIPTOR(row_time)
  38.        , INTERVAL '60' SECOND
  39.        , INTERVAL '1' DAY))
  40. GROUP BY
  41.     window_start, 
  42.     window_end

可以看到 Windowing TVF 滚动窗口的写法就是把 cumulate window 的声明写在了数据源的 Table 子句中,即 TABLE(CUMULATE(TABLE source_table, DESCRIPTOR(row_time), INTERVAL '60' SECOND, INTERVAL '1' DAY)),其中包含四部分参数:

第一个参数 TABLE source_table 声明数据源表;第二个参数 DESCRIPTOR(row_time) 声明数据源的时间戳;第三个参数 INTERVAL '60' SECOND 声明渐进式窗口触发的渐进步长为 1 min。第四个参数 INTERVAL '1' DAY 声明整个渐进式窗口的大小为 1 天,到了第二天新开一个窗口重新累计。

  1. ⭐ SQL 语义

渐进式窗口语义和滚动窗口类似,这里不再赘述。

5.Window TVF 支持 Grouping Sets、Rollup、Cube

具体应用场景:实际的案例场景中,经常会有多个维度进行组合(cube)计算指标的场景。如果把每个维度组合的代码写一遍,然后 union all 起来,这样写起来非常麻烦,而且会导致一个数据源读取多遍。

这时,有离线 Hive SQL 使用经验的小伙伴萌就会想到,如果有了 Grouping Sets,我们就可以直接用 Grouping Sets 将维度组合写在一条 SQL 中,写起来方便并且执行效率也高。当然,Flink 支持这个功能。

但是目前 Grouping Sets 只在 Window TVF 中支持,不支持 Group Window Aggregation。

来一个实际案例感受一下,计算每日零点累计到当前这一分钟的分汇总、age、sex、age+sex 维度的用户数。


   
  1. -- 用户访问明细表
  2. CREATE TABLE source_table (
  3.     age STRING,
  4.     sex STRING,
  5.     user_id BIGINT,
  6.     row_time AS cast(CURRENT_TIMESTAMP as timestamp(3)),
  7.     WATERMARK FOR row_time AS row_time - INTERVAL '5' SECOND
  8. ) WITH (
  9.   'connector' = 'datagen',
  10.   'rows-per-second' = '1',
  11.   'fields.age.length' = '1',
  12.   'fields.sex.length' = '1',
  13.   'fields.user_id.min' = '1',
  14.   'fields.user_id.max' = '100000'
  15. );
  16. CREATE TABLE sink_table (
  17.     age STRING,
  18.     sex STRING,
  19.     uv BIGINT,
  20.     window_end bigint
  21. ) WITH (
  22.   'connector' = 'print'
  23. );
  24. insert into sink_table
  25. SELECT 
  26.     UNIX_TIMESTAMP(CAST(window_end AS STRING)) * 1000 as window_end, 
  27.     if (age is null, 'ALL', age) as age,
  28.     if (sex is null, 'ALL', sex) as sex,
  29.     count(distinct user_id) as bucket_uv
  30. FROM TABLE(CUMULATE(
  31.        TABLE source_table
  32.        , DESCRIPTOR(row_time)
  33.        , INTERVAL '5' SECOND
  34.        , INTERVAL '1' DAY))
  35. GROUP BY 
  36.     window_start, 
  37.     window_end,
  38.     -- grouping sets 写法
  39.     GROUPING SETS (
  40.         ()
  41.         , (age)
  42.         , (sex)
  43.         , (age, sex)
  44.     )

小伙伴萌这里需要注意下!!!

Flink SQL 中 Grouping Sets 的语法和 Hive SQL 的语法有一些不同,如果我们使用 Hive SQL 实现上述 SQL 的语义,其实现如下:


   
  1. insert into sink_table
  2. SELECT 
  3.     UNIX_TIMESTAMP(CAST(window_end AS STRING)) * 1000 as window_end, 
  4.     if (age is null, 'ALL', age) as age,
  5.     if (sex is null, 'ALL', sex) as sex,
  6.     count(distinct user_id) as bucket_uv
  7. FROM source_table
  8. GROUP BY
  9.     age
  10.     , sex
  11. -- hive sql grouping sets 写法
  12. GROUPING SETS (
  13.     ()
  14.     , (age)
  15.     , (sex)
  16.     , (age, sex)
  17. )

领取手册

说了那么多,相信有些童鞋会有些渴望的心情拿到 Flink SQL 成神之路手册,放心,绝对没有套路,只要你想要,我都会给你。扫描下方二维码,备注 「Flink SQL 手册」找我领取即可!(整理制作不易,希望有心的小伙伴帮忙转发点赞,小编不胜感激

3e226d7c3ec2b39313d9657493cb0dbc.png

34a2672bd95771c4ffd32f61b15efc68.png

往期推荐

(上)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)

(中)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)

(下)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)

flink sql 知其所以然(十九):Table 与 DataStream 的转转转(附源码)

flink sql 知其所以然(十八):在 flink 中还能使用 hive udf?附源码

flink sql 知其所以然(十七):flink sql 开发利器之 Zeppelin

flink sql 知其所以然(十六):flink sql 开发企业级利器之 Dlink

flink sql 知其所以然(十五):改了改源码,实现了个 batch lookup join(附源码)

flink sql 知其所以然(十四):维表 join 的性能优化之路(上)附源码

flink sql 知其所以然(十三):流 join 很难嘛???(下)

flink sql 知其所以然(十二):流 join 很难嘛???(上)

flink sql 知其所以然(十一):去重不仅仅有 count distinct 还有强大的 deduplication

flink sql 知其所以然(十):大家都用 cumulate window 计算累计指标啦

flink sql 知其所以然(九):window tvf tumble window 的奇思妙解

flink sql 知其所以然(八):flink sql tumble window 的奇妙解析之路

flink sql 知其所以然(七):不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧?

flink sql 知其所以然(六)| flink sql 约会 calcite(看这篇就够了)

flink sql 知其所以然(五)| 自定义 protobuf format

flink sql 知其所以然(四)| sql api 类型系统

flink sql 知其所以然(三)| 自定义 redis 数据汇表(附源码)

flink sql 知其所以然(二)| 自定义 redis 数据维表(附源码)

flink sql 知其所以然(一)| source\sink 原理

揭秘字节跳动埋点数据实时动态处理引擎(附源码)

动动小手,让更多需要的人看到~

69acce131d55251f1e37c4869fa11552.gif

文章来源: dataclub.blog.csdn.net,作者:数据社,版权归原作者所有,如需转载,请联系作者。

原文链接:dataclub.blog.csdn.net/article/details/125093370

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。