2021年大数据Flink(四):Standalone独立集群模式

举报
Lansonli 发表于 2021/09/29 00:23:12 2021/09/29
【摘要】 目录 Standalone独立集群模式 原理 操作 1.集群规划: 2.修改flink-conf.yaml 3.修改masters 4.修改slaves 5.添加HADOOP_CONF_DIR环境变量 6.分发 7.source ​​​​​​​测试 1.启动集群,在node1上执行如下命令 2.启动历史服务器 ...

目录

Standalone独立集群模式

原理

操作

1.集群规划:

2.修改flink-conf.yaml

3.修改masters

4.修改slaves

5.添加HADOOP_CONF_DIR环境变量

6.分发

7.source

​​​​​​​测试

1.启动集群,在node1上执行如下命令

2.启动历史服务器

3.访问Flink UI界面或使用jps查看

4.执行官方测试案例

5.查看历史日志

6.停止Flink集群


Standalone独立集群模式

原理

 

 

  1. client客户端提交任务给JobManager
  2. JobManager负责申请任务运行所需要的资源并管理任务和资源,
  3. JobManager分发任务给TaskManager执行
  4. TaskManager定期向JobManager汇报状态

 

​​​​​​​操作

1.集群规划:

  • - 服务器: node1(Master + Slave): JobManager + TaskManager
  • - 服务器: node2(Slave): TaskManager
  • - 服务器: node3(Slave): TaskManager

 

2.修改flink-conf.yaml

vim /export/server/flink/conf/flink-conf.yaml
 

  
  1. jobmanager.rpc.address: node1
  2. taskmanager.numberOfTaskSlots: 2
  3. web.submit.enable: true
  4. #历史服务器
  5. jobmanager.archive.fs.dir: hdfs://node1:8020/flink/completed-jobs/
  6. historyserver.web.address: node1
  7. historyserver.web.port: 8082
  8. historyserver.archive.fs.dir: hdfs://node1:8020/flink/completed-jobs/

 

3.修改masters

vim /export/server/flink/conf/masters
 
node1:8081
 

 

4.修改slaves

vim /export/server/flink/conf/workers
 

  
  1. node1
  2. node2
  3. node3

 

5.添加HADOOP_CONF_DIR环境变量

vim /etc/profile
 
export HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop
 

 

6.分发


  
  1. scp -r /export/server/flink node2:/export/server/flink
  2. scp -r /export/server/flink node3:/export/server/flink
  3. scp /etc/profile node2:/etc/profile
  4. scp /etc/profile node3:/etc/profile
 for i in {2..3}; do scp -r flink node$i:$PWD; done
 

7.source

source /etc/profile
 

 

​​​​​​​测试

1.启动集群,在node1上执行如下命令


  
  1. /export/server/flink/bin/start-cluster.sh
  2. /export/server/flink/bin/jobmanager.sh ((start|start-foreground) cluster)|stop|stop-all
  3. /export/server/flink/bin/taskmanager.sh start|start-foreground|stop|stop-all

 

2.启动历史服务器

/export/server/flink/bin/historyserver.sh start
 

 

3.访问Flink UI界面或使用jps查看

http://node1:8081/#/overview

http://node1:8082/#/overview

TaskManager界面:可以查看到当前Flink集群中有多少个TaskManager,每个TaskManager的slots、内存、CPU Core是多少

 

 

4.执行官方测试案例

/export/server/flink/bin/flink run  /export/server/flink/examples/batch/WordCount.jar --input hdfs://node1:8020/wordcount/input/words.txt --output hdfs://node1:8020/wordcount/output/result.txt  --parallelism 2
 

 

5.查看历史日志

http://node1:50070/explorer.html#/flink/completed-jobs

http://node1:8082/#/overview

 

6.停止Flink集群

/export/server/flink/bin/stop-cluster.sh
 

 

文章来源: lansonli.blog.csdn.net,作者:Lansonli,版权归原作者所有,如需转载,请联系作者。

原文链接:lansonli.blog.csdn.net/article/details/116103280

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。