分享

flink1.12自定义redis sink

问题导读:
1.代码从11升级到了12本文举例废弃了什么方法?
2.如何自定义的 sink类实现 DynamicTableSink 接口?
3.getChangelogMode设置什么?

一.变更简述:
最近代码从11升级到了12,由于此次版本变动,废弃了很多api,导致代码不兼容。如原来的ta b leEnv中注册registerTablesink和registerTableSource方法


a1.png

  1. /**     * Registers an external {@link TableSink} with given field names and types in this
复制代码
说明中要求通过 executeSql(ddl) 的方法注册一个表。
既然要通过ddl创建,那就要自定义一个redis 的connector。
flink自定的connector是借助 TableFactory spi发现注册的。
所以一共需要实现两个重要的类。


a2.png


a3.png

二 .关键类介绍

1.RedisDynamicTableSourceFactory类
自定义的facory类只需要实现 DynamicTableSinkFactory 接口即可。
  1. import com.iqiyi.talos.engine.operators.sink.dynamic.RedisDynamicTableSink;
  2. import org.apache.flink.configuration.ConfigOption;
  3. import org.apache.flink.configuration.ReadableConfig;
  4. import org.apache.flink.table.connector.sink.DynamicTableSink;
  5. import org.apache.flink.table.factories.DynamicTableSinkFactory;
  6. import org.apache.flink.table.factories.FactoryUtil;
  7. import java.util.HashSet;
  8. import java.util.Set;
  9. /**
  10. * @ClassName RedisDynamicTableSourceFactory
  11. * @Description 自定义RedisSinkFactory
  12. * @Author zwc
  13. * @Date 2021-01-11 11:44
  14. * @Version 1.0
  15. **/
  16. public class RedisDynamicTableSourceFactory implements DynamicTableSinkFactory {
  17. //    public static final ConfigOption<String> port = ConfigOptions.key("host").stringType().noDefaultValue();
  18.     @Override
  19.     public DynamicTableSink createDynamicTableSink(Context context) {
  20.         final FactoryUtil.TableFactoryHelper helper = FactoryUtil.createTableFactoryHelper(this, context);
  21.         helper.validate();
  22.         ReadableConfig options = helper.getOptions();
  23.         return new RedisDynamicTableSink(options);
  24.     }
  25.     //connector = "redis" 声明连接器名称
  26.     @Override
  27.     public String factoryIdentifier() {
  28.         return "redis";
  29.     }
  30.     @Override
  31.     public Set<ConfigOption<?>> requiredOptions() {
  32.         Set<ConfigOption<?>> options = new HashSet();
  33.         return options;
  34.     }
  35.     @Override
  36.     public Set<ConfigOption<?>> optionalOptions() {
  37.         Set<ConfigOption<?>> options = new HashSet();
  38. //        options.add(port);
  39.         return options;
  40.     }
  41. }
复制代码
createDynamicTableSink: 校验ddl中 with(...) 附加的选项,并且从CatalogTable 初始化实例,将Options附加选项加载到上下文Context中。
factoryIdentifier: 连接器的名称
requiredOptions:必填参数
optionalOptions:可选参数

2.RedisDynamicTableSink类
自定义的 sink类实现 DynamicTableSink 接口
  1. import com.iqiyi.talos.engine.job.EngineContext;
  2. import com.iqiyi.talos.engine.operators.function.CollectionTableSinkFunction;
  3. import org.apache.flink.configuration.ReadableConfig;
  4. import org.apache.flink.table.connector.ChangelogMode;
  5. import org.apache.flink.table.connector.sink.DynamicTableSink;
  6. import org.apache.flink.table.connector.sink.SinkFunctionProvider;
  7. /**
  8. * @ClassName RedisDynamicTableSink
  9. * @Description TODO
  10. * @Author zwc
  11. * @Date 2021-01-11 15:41
  12. * @Version 1.0
  13. **/
  14. public class RedisDynamicTableSink implements DynamicTableSink {
  15.     private ReadableConfig options;
  16.     private EngineContext ctx;
  17.     public RedisDynamicTableSink(ReadableConfig options) {
  18.         this.options = options;
  19.         ctx = EngineContext.getContext();
  20.     }
  21.     @Override
  22.     public ChangelogMode getChangelogMode(ChangelogMode requestedMode) {
  23.         return ChangelogMode.insertOnly();
  24.     }
  25.     @Override
  26.     public SinkRuntimeProvider getSinkRuntimeProvider(Context context) {
  27.         CollectionTableSinkFunction collectionTableSinkFunction = new CollectionTableSinkFunction(ctx.getDeploySite(), ctx.getSimpifiedName());
  28.         return SinkFunctionProvider.of(collectionTableSinkFunction);
  29.     }
  30.     @Override
  31.     public DynamicTableSink copy() {
  32.         return new RedisDynamicTableSink(this.options);
  33.     }
  34.     @Override
  35.     public String asSummaryString() {
  36.         return "my_redis_sink";
  37.     }
  38. }
复制代码
getChangelogMode: 设置sink 是 insert only模式(目前只支持这种模式)
getSinkRuntimeProvider: 这里就是执行sink的具体逻辑了。这里可以直接使用flink 提供的redis-connector
  1. <dependency>
  2.             <groupId>org.apache.bahir</groupId>
  3.             <artifactId>flink-connector-redis_2.11</artifactId>
  4.             <version>1.0</version>
  5.         </dependency>
复制代码
  1. RedisMapper<RowData> stringRedisMapper = new RedisMapper<RowData>() {
  2.             //返回对应Redis命令
  3.             @Override
  4.             public RedisCommandDescription getCommandDescription() {
  5.                 return new RedisCommandDescription(RedisCommand.SET);
  6.             }
  7.             //从数据中获取对应Key
  8.             @Override
  9.             public String getKeyFromData(RowData rowData) {
  10.                 StringData string = rowData.getString(0);
  11.                 return string;
  12.             }
  13.             //从数据中获取对应Value
  14.             @Override
  15.             public String getValueFromData(RowData rowData) {
  16.                 String s = rowData.toString();
  17.                 return s;
复制代码
由于此处我需要自定义redis数据结构,所以自己实现了RichFunction
  1. @Override
  2.     public SinkRuntimeProvider getSinkRuntimeProvider(Context context) {
  3.         CollectionTableSinkFunction collectionTableSinkFunction = new CollectionTableSinkFunction(ctx.getDeploySite(), ctx.getSimpifiedName());
  4.         return SinkFunctionProvider.of(collectionTableSinkFunction);
  5.     }
复制代码
  1. /**
  2. * @ClassName CollectionTableSinkFunction
  3. * @Description TODO
  4. * @Author zwc
  5. * @Date 2021-01-12 16:51
  6. * @Version 1.0
  7. **/
  8. import com.alibaba.fastjson.JSON;
  9. import com.iqiyi.talos.common.JedisClient;
  10. import com.iqiyi.talos.engine.enums.DeploySite;
  11. import org.apache.flink.configuration.Configuration;
  12. import org.apache.flink.streaming.api.functions.sink.RichSinkFunction;
  13. import org.apache.flink.table.data.RowData;
  14. import org.slf4j.Logger;
  15. import org.slf4j.LoggerFactory;
  16. import java.util.ArrayList;
  17. import java.util.List;
  18. import java.util.Map;
  19. import java.util.concurrent.ConcurrentHashMap;
  20. /**
  21. * 这里定义了当接收到一条数据时,该如何 sink 的具体逻辑
  22. */
  23. public class CollectionTableSinkFunction extends RichSinkFunction<RowData> {
  24.     private static Logger LOG = LoggerFactory.getLogger(CollectionTableSink.CollectionTableSinkFunction.class);
  25.     private static Map<String, List<String>> map = new ConcurrentHashMap<>();
  26.     private DeploySite deploySite;
  27.     private String jobName;
  28.     private static final Object lock = new Object();
  29.     public CollectionTableSinkFunction(DeploySite deploySite, String jobName) {
  30.         this.deploySite = deploySite;
  31.         this.jobName = jobName;
  32.     }
  33.     @Override
  34.     public void open(Configuration parameters) throws Exception {
  35.         super.open(parameters);
  36.         LOG.info("OPEN!");
  37.     }
  38.     @Override
  39.     public void invoke(RowData row, Context context) throws Exception {
  40.         String operatorName = row.getString(0).toString();
  41.         String value = row.getString(1).toString();
  42.         //operatorName source 1
  43.         map.compute(operatorName, (k,v) -> {
  44.             if(v==null) {
  45.                 v = new ArrayList<>();
  46.                 v.add(value);
  47.             } else {
  48.                 v.add(value);
  49.             }
  50.             return v;
  51.         });
  52.         LOG.info("put to collectionMap. [{},{}] ", operatorName, value);
  53.         LOG.info("mapSize:" + map.size());
  54.     }
  55.     public Map<String,List<String>> getContent() {
  56.         return map;
  57.     }
  58.     @Override
  59.     public void close() {
  60.         synchronized (lock) {
  61.             Map<String,List<String>> map = getContent();
  62.             String key = "TalosMockJob_" + jobName;
  63.             String value = JSON.toJSONString(map);
  64.             LOG.info("Send Mock result to redis. key:{}, value:{}", key, value);
  65.             long ttl = 24 * 3600 * 1000;
  66.             try {
  67.                 JedisClient.get(deploySite.name()).setValue(key, value, ttl);
  68.             } catch (Exception e) {
  69.             }
  70.         }
  71.     }
  72. }
复制代码
3.最后一步spi


a4.png

把RedisDynamicTableSourceFactory类包路径填进去即可

4.使用
  1. ctx.getTableEnv().executeSql("create table MockJob_Data_Table (\n" +
  2.                 "    operatorName STRING," +
  3.                 "    data STRING" +
  4.                 ") WITH (\n" +
  5.                 "    'connector' = 'redis'\n" +
  6.                 ")");
复制代码



最新经典文章,欢迎关注公众号



原文链接:
https://www.jianshu.com/p/48206a78425d








没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条