云原生之 Docker Swarm服务编排介绍及使用入门

举报
ShyLock 发表于 2022/05/25 15:13:27 2022/05/25
【摘要】 @TOC 一、Swarm介绍Docker Swarm是管理跨节点容器的编排工具,相较于Docker Compose而言,Compose只能编排单节点上的容器,Swarm将一群Docker节点虚拟化为一个主机,使得用户只要在单一主机上操作就能完成对整个容器集群的管理工作。如果下载的是最新版的Docker,那么Swarm就已经被包含在内了,无需再安装。Docker Swarm架构包含两种角色,m...

@TOC

一、Swarm介绍

Docker Swarm是管理跨节点容器的编排工具,相较于Docker Compose而言,Compose只能编排单节点上的容器,Swarm将一群Docker节点虚拟化为一个主机,使得用户只要在单一主机上操作就能完成对整个容器集群的管理工作。如果下载的是最新版的Docker,那么Swarm就已经被包含在内了,无需再安装。

Docker Swarm架构包含两种角色,manager和node,前者是Swarm Daemon工作的节点,包含了调度器、路由、服务发现等功能,负责接收客户端的集群管理请求,然后调度Node进行具体的容器工作,比如容器的创建、扩容与销毁等。 manager本身也是一个node。

Swarm工作示意图
Swarm工作示意图

通常情况下,为了集群的高可用,manager个数>=3的奇数,node的个数则是不限制。

二、Swarm实例

2.1 准备工作

我们需要准备好三个节点,并在各自节点上安装好Docker Engine,才能进行接下来的实例搭建。

此处,我们选择购买阿里云的三个ECS云服务器,它们都是在一个地域里面,对应的私有地址IP和修改的host name分别是:

172.25.206.125 ————作为node1
172.25.206.126 ————作为node2
172.22.147.207 ————作为manager

我们首先需要重置root的登录密码,然后ssh登录后,确保相互之间可以ping通,然后再继续下面的操作。一般三台机器如果都在同一个区的话,使用私有地址相互之间肯定是联通的。

然后登录各个容器内部的命令行,进行Docker Engine的安装,该步骤可以参考另外一个博主的一篇文章:《Linux中安装docker》,安装完成后可以执行docker --version进行查看,务必确保全部安装成功以后再进入下面的步骤。

2.2 创建集群

在创建集群之前,我们使用docker node ls想查看下集群中节点的信息,反馈目前没有节点信息,并且当前节点并不是manager。

[root@manager ~]# docker node ls
Error response from daemon: This node is not a swarm manager. Use "docker swarm init" or "docker swarm join" to connect this node to swarm and try again.

那么我们首先就在manager这个节点上执行如下操作,表示要将它设置为manager,并且设置自己的通讯IP为172.22.147.207

[root@manager ~]# docker swarm init --advertise-addr 172.22.147.207
Swarm initialized: current node (s0eoali1x32ly22jo85ebeb0w) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join --token SWMTKN-1-57msikozxxt44uxz5r8hihmakp4zh1cr89v7zlxhyc8b5iojkt-5ea8uh68jcuy8m6f9ma7x0zg5 172.22.147.207:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.

如上就完成了manager节点的设置,并且得到提示信息如下:

可以在其它节点上执行docker swarm join --token…来将该节点设置为工作node,并加入到这个swarm集群中;
可以在其它节点上执行docker swarm join-token manager来获取下一步执行指令,执行该指令后,该节点将设置为manager从节点加入到这个swarm集群中;
我们目前演示的是一个manager,两个工作node的模式,所以在另外两台node1和node2上执行第一个命令即可:

[root@node1 ~]# docker swarm join --token SWMTKN-1-57msikozxxt44uxz5r8hihmakp4zh1cr89v7zlxhyc8b5iojkt-5ea8uh68jcuy8m6f9ma7x0zg5 172.22.147.207:2377
This node joined a swarm as a worker.

如此,一个swarm集群就算搭建完成了。

2.3 使用集群

manager是我们管理集群的入口,我们的docker命令都是在manager上执行,node节点上是不能执行dockr命令的,这一点要十分牢记。

查看当前节点信息;

[root@manager ~]# docker node ls
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION
s0eoali1x32ly22jo85ebeb0w *   manager    Ready     Active         Leader           20.10.11
7kuhm78bs3zrfkm2n28ukje25     node1      Ready     Active                          20.10.11
io4qmqb87yzpmmo2mpblj48fp     node2      Ready     Active                          20.10.11

创建一个私有网络,供不同节点上的容器互通使用;网络相关参考另一个博主的一篇文章:Docker网络互联原理及自定义网络的使用

[root@manager ~]# docker network ls
NETWORK ID     NAME              DRIVER    SCOPE
45f6a352dcd2   bridge            bridge    local
2b71198e802e   docker_gwbridge   bridge    local
679154a40c18   host              host      local
1ntnd2ruk0tp   ingress           overlay   swarm
6d6218b5a31f   none              null      local
[root@manager ~]# docker network create -d overlay niginx_network
ldb1i69hxdsdo6un8yhaddhnv
[root@manager ~]# docker network ls
NETWORK ID     NAME              DRIVER    SCOPE
45f6a352dcd2   bridge            bridge    local
2b71198e802e   docker_gwbridge   bridge    local
679154a40c18   host              host      local
1ntnd2ruk0tp   ingress           overlay   swarm
ldb1i69hxdsd   niginx_network    overlay   swarm
6d6218b5a31f   none              null      local

使用指定的网络部署一个服务;

[root@manager ~]# docker service create --replicas 1 --network niginx_network --name my_nginx -p 80:80 nginx:latest
q03ljoy94xkdeicb7d9tx422b
overall progress: 1 out of 1 tasks 
1/1: running   [==================================================>] 
verify: Service converged 

如上使用nginx:latest镜像创建了一个容器,容器名称为my_nginx,对外暴露80端口;

查看运行中的服务列表;

[root@manager ~]# docker service ls
ID             NAME       MODE         REPLICAS   IMAGE          PORTS
q03ljoy94xkd   my_nginx   replicated   1/1        nginx:latest   *:80->80/tcp

查看某个服务在哪个节点上运行;

[root@manager ~]# docker service ps my_nginx
ID             NAME         IMAGE          NODE      DESIRED STATE   CURRENT STATE           ERROR     PORTS
wf5h6u13zel6   my_nginx.1   nginx:latest   manager   Running         Running 2 minutes ago 

除此之外,我们还可以在每一台服务器上使用docker ps来看看运行了哪些容器;

动态扩缩容某个服务的容器个数;

[root@manager ~]# docker service scale my_nginx=4
my_nginx scaled to 4
overall progress: 4 out of 4 tasks 
1/4: running   [==================================================>] 
2/4: running   [==================================================>] 
3/4: running   [==================================================>] 
4/4: running   [==================================================>] 
verify: Service converged 
[root@manager ~]# docker service ls
ID             NAME       MODE         REPLICAS   IMAGE          PORTS
q03ljoy94xkd   my_nginx   replicated   4/4        nginx:latest   *:80->80/tcp
[root@manager ~]# docker service ps my_nginx
ID             NAME         IMAGE          NODE      DESIRED STATE   CURRENT STATE            ERROR     PORTS
wf5h6u13zel6   my_nginx.1   nginx:latest   manager   Running         Running 8 minutes ago              
kke3fl9sxdjm   my_nginx.2   nginx:latest   node1     Running         Running 27 seconds ago             
0ds3p18dmc9r   my_nginx.3   nginx:latest   node1     Running         Running 27 seconds ago             
32kyyibu9j12   my_nginx.4   nginx:latest   node2     Running         Running 25 seconds ago
使用update命令也是等价的:docker service update --replicas 3 my_nginx;

下线一个节点,使之不参与任务分派;

[root@manager ~]# docker node update --availability drain node2
node2
[root@manager ~]# docker node ls
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION
s0eoali1x32ly22jo85ebeb0w *   manager    Ready     Active         Leader           20.10.11
7kuhm78bs3zrfkm2n28ukje25     node1      Ready     Active                          20.10.11
io4qmqb87yzpmmo2mpblj48fp     node2      Ready     Drain                           20.10.11

值得一提的是,如果某个节点被设置下线,或者因为其它故障宕机了,那么它其上的容器会被转移到其它可运行的节点上,如此来保证始终有指定副本数量的容器在运行。

上线一个下线中的节点,使之参与任务分派;

[root@manager ~]# docker node update --availability active node2
node2

移除一个任务,使得集群中所有该任务的容器都删除;

[root@manager ~]# docker service update --replicas 4 my_nginx
my_nginx
overall progress: 4 out of 4 tasks 
1/4: running   [==================================================>] 
2/4: running   [==================================================>] 
3/4: running   [==================================================>] 
4/4: running   [==================================================>] 
verify: Service converged 
[root@manager ~]# docker service ps my_nginx
ID             NAME             IMAGE          NODE      DESIRED STATE   CURRENT STATE            ERROR     PORTS
wf5h6u13zel6   my_nginx.1       nginx:latest   manager   Running         Running 18 minutes ago             
q9soig9jmkik   my_nginx.2       nginx:latest   node2     Running         Running 13 seconds ago             
hqti23fox6ui   my_nginx.3       nginx:latest   node1     Running         Running 13 seconds ago             
wgm2xaqd147p   my_nginx.4       nginx:latest   node2     Running         Running 13 seconds ago             
32kyyibu9j12    \_ my_nginx.4   nginx:latest   node2     Shutdown        Shutdown 7 minutes ago             
[root@manager ~]# docker service rm my_nginx
my_nginx
[root@manager ~]# docker service ps my_nginx
no such service: my_nginx

节点离开集群;

[root@node1 ~]# docker swarm leave
Node left the swarm.
[root@manager ~]# docker node ls
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION
s0eoali1x32ly22jo85ebeb0w *   manager    Ready     Active         Leader           20.10.11
7kuhm78bs3zrfkm2n28ukje25     node1      Down      Active                          20.10.11
io4qmqb87yzpmmo2mpblj48fp     node2      Ready     Active                          20.10.11

删除swarm集群;

[root@manager ~]# docker swarm leave
Error response from daemon: You are attempting to leave the swarm on a node that is participating as a manager. Removing the last manager erases all current state of the swarm. Use `--force` to ignore this message.
[root@manager ~]# docker swarm leave -f
Node left the swarm.

当最后一个manager节点离开,则swarm集群自动删除。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

举报
请填写举报理由
0/200