SpringBoot+Nacos+Kafka 简单实现微服务流编排

举报
民工哥 发表于 2022/08/06 23:16:42 2022/08/06
【摘要】 点击下方“Java编程鸭”关注并标星 更多精彩 第一时间直达 文章来源:https://c1n.cn/RWt2e 前言 最近一直在做微服务开发,涉及了一些数据处理模块的开发,每个处理业务都会开发独立的微服务,便于后面拓展和流编排。 学习了 SpringCloud Data Flow...
 
 

点击下方“Java编程鸭”关注并标星

更多精彩 第一时间直达

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
文章来源:https://c1n.cn/RWt2e
  

前言

最近一直在做微服务开发,涉及了一些数据处理模块的开发,每个处理业务都会开发独立的微服务,便于后面拓展和流编排。

学习了 SpringCloud Data Flow 等框架,感觉这个框架对于我们来说太重了,维护起来也比较麻烦,于是根据流编排的思想,基于我们目前的技术栈实现简单的流编排功能。

简单的说,我们希望自己的流编排就是微服务可插拔,微服务数据入口及输出可不停机修改。

准备工作

| Nacos 安装及使用入门

自己学习的话推荐使用 docker 安装,命令如下:


拉取镜像:

docker pull nacos/nacos-server
  


创建服务:

docker run --env MODE=standalone --name nacos -d -p 8848:8848 nacos/nacos-server
  

然后在浏览器输入 ip:8848/nacos,账号 nacos;密码 nacos。

247f4134531dffd35184adcf80f24627.png

docker 能够帮助我们快速安装服务,减少再环境准备花的时间。

| 准备三个 SpringBoot 服务,引入 Nacos 及 Kafka


   
  1. <parent>
  2.    <groupId>org.springframework.boot</groupId>
  3.    <artifactId>spring-boot-starter-parent</artifactId>
  4.    <version>2.1.0.RELEASE</version>
  5. </parent>
  6. <dependency>
  7.    <groupId>org.springframework.kafka</groupId>
  8.    <artifactId>spring-kafka</artifactId>
  9. </dependency>
  10. <dependency>
  11.    <groupId>com.alibaba.boot</groupId>
  12.    <artifactId>nacos-config-spring-boot-starter</artifactId>
  13.    <version>0.2.1</version>
  14. </dependency>

配置文件:


   
  1. spring:
  2.   kafka:
  3.     bootstrap-servers: kafka-server:9092
  4.     producer:
  5.       acks: all
  6.     consumer:
  7.       group-id: node1-group #三个服务分别为node1 node2 node3
  8.       enable-auto-commit: false
  9. # 部署的nacos服务
  10. nacos:
  11.   config:
  12.     server-addr: nacos-server:8848

建议配置本机 host 就可以填写 xxx-server 不用填写服务 ip。

| 业务解读

我们现在需要对三个服务进行编排,保障每个服务可以插拔,也可以调整服务的位置。

468e05a7fc1ec0b93c3efe17f85da5ba.png

示意图如上:

  • node1 服务监听前置服务发送的数据流,输入的 topic 为前置数据服务输出 topic

  • node2 监听 node1 处理后的数据,所以 node2 监听的 topic 为 node1 输出的 topic,node3 同理,最终 node3 处理完成后将数据发送到数据流终点

  • 我们现在要调整流程移除 node2-server,我们只需要把 node1-sink 改变成 node2-sink 即可,这样我们这几个服务就可以灵活的嵌入的不同项目的数据流处理业务中,做到即插即用(当然,数据格式这些业务层面的都是需要约定好的)

  • 动态可调还可以保证服务某一节点出现问题时候,即时改变数据流向,比如发送到数暂存服务,避免 Kafka 中积累太多数据,吞吐不平衡


| Nacos 配置

①创建配置


通常流编排里面每个服务都有一个输入及输出,分别为 input 及 sink,所以每个服务我们需要配置两个 topic,分别是 input-topic output-topic,我们就在 nacos 里面添加输入输出配置。


nacos 配置项需要配置 groupId,dataId,通常我们用服务名称作为 groupId,配置项的名称作为 dataId。


如 node1-server 服务有一个 input 配置项,配置如下:

0263714d7b2534d3aec0f2e4f8a5b3a0.png

完成其中一个服务的配置,其它服务参考下图配置即可:

e8396c45f3456760164b3be2b4c0cc09.png

②读取配置

代码如下:


   
  1. @Configuration
  2. @NacosPropertySource(dataId = "input", groupId = "node1-server", autoRefreshed = true)
  3. // autoRefreshed=true指的是nacos中配置发生改变后会刷新,false代表只会使用服务启动时候读取到的值
  4. @NacosPropertySource(dataId = "sink", groupId = "node1-server", autoRefreshed = true)
  5. public class NacosConfig {
  6.     @NacosValue(value = "${input:}", autoRefreshed = true)
  7.     private String input;
  8.     @NacosValue(value = "${sink:}", autoRefreshed = true)
  9.     private String sink;
  10.     public String getInput() {
  11.         return input;
  12.     }
  13.     public String getSink() {
  14.         return sink;
  15.     }
  16. }

③监听配置改变


服务的输入需要在服务启动时候创建消费者,在 topic 发生改变时候重新创建消费者,移除旧 topic 的消费者,输出是业务驱动的,无需监听改变,在每次发送时候读取到的都是最新配置的 topic。


因为在上面的配置类中 autoRefreshed = true,这个只会刷新 nacosConfig 中的配置值,服务需要知道配置改变去驱动消费的创建业务,需要创建 nacos 配置监听。


   
  1. /**
  2.  * 监听Nacos配置改变,创建消费者,更新消费
  3.  */
  4. @Component
  5. public class ConsumerManager {
  6.     @Value("${spring.kafka.bootstrap-servers}")
  7.     private String servers;
  8.     @Value("${spring.kafka.consumer.enable-auto-commit}")
  9.     private boolean enableAutoCommit;
  10.     @Value("${spring.kafka.consumer.group-id}")
  11.     private boolean groupId;
  12.     @Autowired
  13.     private NacosConfig nacosConfig;
  14.     @Autowired
  15.     private KafkaTemplate kafkaTemplate;
  16.     // 用于存放当前消费者使用的topic
  17.     private String topic;
  18.     // 用于执行消费者线程
  19.     private ExecutorService executorService;
  20.     /**
  21.      * 监听input
  22.      */
  23.     @NacosConfigListener(dataId = "node1-server", groupId = "input")
  24.     public void inputListener(String input) {
  25.         // 这个监听触发的时候 实际NacosConfig中input的值已经是最新的值了 我们只是需要这个监听触发我们更新消费者的业务
  26.         String inputTopic = nacosConfig.getInput();
  27.         // 我使用nacosConfig中读取的原因是因为监听到内容是input=xxxx而不是xxxx,如果使用需要自己截取一下,nacosConfig中的内容框架会处理好,大家看一下第一张图的配置内容就明白了
  28.         // 先检查当前局部变量topic是否有值,有值代表是更新消费者,没有值只需要创建即可
  29.         if(topic != null) {
  30.             // 停止旧的消费者线程
  31.             executorService.shutdownNow();
  32.             executorService == null;
  33.         }
  34.         // 根据为新的topic创建消费者
  35.         topic = inputTopic;
  36.         ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat(topic + "-pool-%d").build();
  37.         executorService = new ThreadPoolExecutor(110L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>(2), threadFactory);
  38.         // 执行消费业务
  39.         executorService.execute(() -> consumer(topic));
  40.     }
  41.     /**
  42.      * 创建消费者
  43.      */
  44.     public void consumer(String topic) {
  45.         Properties properties = new Properties();
  46.         properties.put("bootstrap.servers", servers);
  47.         properties.put("enable.auto.commit", enableAutoCommit);
  48.         properties.put("key.deserializer""org.apache.kafka.common.serialization.StringDeserializer");
  49.         properties.put("value.deserializer""org.apache.kafka.common.serialization.StringDeserializer");
  50.         properties.put("group.id", groupId);
  51.         KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties);
  52.         consumer.subscribe(Arrays.asList(topic));
  53.         try {
  54.             while (!Thread.currentThread().isInterrupted()) {
  55.                 Duration duration = Duration.ofSeconds(1L);
  56.                 ConsumerRecords<String, String> records = consumer.poll(duration);
  57.                 for (ConsumerRecord<String, String> record : records) {
  58.                     String message = record.value();
  59.                     // 执行数据处理业务 省略业务实现
  60.                     String handleMessage =  handle(message);
  61.                     // 处理完成后发送到下一个节点
  62.                     kafkaTemplate.send(nacosConfig.getSink(), handleMessage);
  63.                 }
  64.             }
  65.             consumer.commitAsync();
  66.         }
  67.         } catch (Exception e) {
  68.             LOGGER.error(e.getMessage(), e);
  69.         } finally {
  70.             try {
  71.                 consumer.commitSync();
  72.             } finally {
  73.                 consumer.close();
  74.             }
  75.         }
  76.     }
  77. }

总结


流编排的思路整体来说就是数据流方向可调,我们以此为需求,根据一些主流框架提供的 api 实现自己的动态调整方案,可以帮助自己更好的理解流编码思想及原理。


在实际业务中,还有许多业务问题需要去突破,我们这样处理更多是因为服务可插拔,便于流处理微服务在项目灵活搭配。


因为我现在工作是在传统公司,由于一些原因很难去推动新框架的使用,经常会用一些现有技术栈组合搞一些 sao 操作,供大家参考,希望大家多多指教。

 
 

END


   
  1. 看完本文有收获?请转发分享给更多人
  2. 关注「Java编程鸭」,提升Java技能
  3. 关注Java编程鸭微信公众号,后台回复:码农大礼包 可以获取最新整理的技术资料一份。涵盖Java 框架学习、架构师学习等!
  4. 文章有帮助的话,在看,转发吧。
  5. 谢谢支持哟 (*^__^*)

文章来源: mingongge.blog.csdn.net,作者:民工哥,版权归原作者所有,如需转载,请联系作者。

原文链接:mingongge.blog.csdn.net/article/details/126187853

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

举报
请填写举报理由
0/200