容器-基于containter构建Kubernetes集群
k8s在1.20版本中提出,将废弃Docker作为runtime,在后续版本也会被删除。在之前的k8s中是使用dockershim的模块适配docker,但出于维护困难的缘由将其弃用。其实k8s在运行底层时,真正的底层并不是docker,而是docker底层的containerd,containerd本身就支持CRI,那么为了支持Docker去维护Dockershim这个垫片的意义也就无可厚非了。因此,我们将基于Container作为容器运行时,管理负责镜像和容器的生命周期,抛开Docker和Podman,使用kubeadm去完成k8s集群的部署。
本次部署实验将全部采用离线rpm包、离线容器镜像、flannel组件
1.基础环境配置
我们利用主机名映射完成网络通信
//修改主机名master,node
[root@localhost ~]# hostnamectl set-hostname master
[root@localhost ~]# bash
//hosts映射
[root@master ~]# cat /etc/hosts
192.168.200.18 master
192.168.200.20 node1
k8s部署需要关闭swap内存交换
//关闭swap,修改fstab文件挂载
[root@master ~]# swapoff -a
[root@master ~]# vim /etc/fstab
#/dev/mapper/rl-swap none swap defaults 0 0
//关闭selinux
[root@master ~]# setenforce 0
[root@master ~]# vim /etc/selinux/config
SELINUX=disabled
//关闭防火墙
[root@master ~]# systemctl stop firewalld&&systemctl disable firewalld
//配置内核模块加载
[root@master ~]#vim /etc/modules-load.d/containerd.conf
overlay
br_netfilter
//配置路由转发
[root@master ~]#vim /etc/sysctl.d/99-kubernetes-cri.conf
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
//应用
[root@master ~]# modprobe overlay
[root@master ~]# modprobe br_netfilter
[root@master ~]# sysctl --system
其他,时钟同步,可以使用ntp服务器、chrony同步服务器
2.container安装
//rpm包安装,在container目录下
[root@master container]# rpm -Uvh --force --nodeps *
//生成初始化配置,修改完的配置可以拷贝到其余节点
[root@master container]# containerd config default > /etc/containerd/config.toml
//修改配置,sandbox_image确保和提供的pause镜像名称版本一致,找到SystemCgroup选项开启
[root@master containerd]# vim config.toml
sandbox_image = "k8s.gcr.io/pause:3.6"
SystemdCgroup = true
//启动服务
[root@master kubernetes]# systemctl enable containerd&&systemctl start containerd
3.安装k8s基础组件
//rpm安装kube组件,此处全部使用离线rpm软件包
[root@master kubernetes]# rpm -Uvh --force --nodeps *
//启动kubelet服务
[root@master ~]# systemctl enable kubelet&&systemctl start kubelet
//导入提供的容器镜像,至少需要以下组件的容器镜像,请按照现场具体给出的版本号及名称载入
ctr -n k8s.io image import busbox.tar
ctr -n k8s.io image import coredns.tar
ctr -n k8s.io image import etcd.tar
ctr -n k8s.io image import flannel.tar
ctr -n k8s.io image import jessie-dnsutils.tar
ctr -n k8s.io image import kube-apiserver.tar
ctr -n k8s.io image import kube-controller-manager.tar
ctr -n k8s.io image import kube-proxy.tar
ctr -n k8s.io image import kube-scheduler.tar
ctr -n k8s.io image import nginx.tar
ctr -n k8s.io image import pause.tar
步骤1-3.所有节点都需要完成
4.初始化主节点
//生成配置文件
[root@master ~]# kubeadm config print init-defaults > kubeinit.yaml
修改以下参数配置
[root@master ~]# vim kubeinit.yaml
advertiseAddress: 192.168.200.18
criSocket: /run/containerd/containerd.sock
imagePullPolicy: Never
name: master
kubernetesVersion: 1.23.5
podSubnet: 10.244.0.0/16
//初始化主节点,注意留存安装完成的回显
[root@master ~]# kubeadm init --config kubeinit.yaml
//执行图上命令
[root@master ~]# mkdir -p $HOME/.kube
[root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@master ~]# export KUBECONFIG=/etc/kubernetes/admin.conf
//安装flannel网络组件
[root@master kubernetes]# kubectl apply -f kube-flannel.yml
5.工作节点配置
//直接执行主节点安装回显时的命令
kubeadm join 192.168.200.18:6443 --token abcdef.0123456789abcdef \
--discovery-token-ca-cert-hash sha256:9abc3e785c57ebb34cec42ef79f79612104a847d45433cdcfcfbd40dba893470
6.验证
[root@master etc]# kubectl get cs
[root@master etc]# kubectl get nodes
- 点赞
- 收藏
- 关注作者
评论(0)