k8s 解决运维神奇的东西
【摘要】 k8s 解决运维神奇的东西 k8s 解决了运维几个方面的问题.1.服务的扩展和伸缩.2.服务的健康检查. 如果服务状态不对就销毁重建好了.3.负载均衡.4.内网统一dns管理系统也就解决在zabbix的监控 问题. 重启问题. 自动化运维问题.让小公司一下有了google这种大批量服务器运维的能力.在许多实际场景中,应用服务常常需因应不同流量而配置不同的资源。好比:原本的应用服务可能每天都只...
k8s 解决运维神奇的东西
k8s 解决了运维几个方面的问题.
1.服务的扩展和伸缩.
2.服务的健康检查. 如果服务状态不对就销毁重建好了.
3.负载均衡.
4.内网统一dns管理系统
也就解决在zabbix的监控 问题. 重启问题. 自动化运维问题.
让小公司一下有了google这种大批量服务器运维的能力.
在许多实际场景中,应用服务常常需因应不同流量而配置不同的资源。好比:原本的应用服务可能每天都只有10人使用,我们只需要架设一台小server即可应付这些流量;当有天应用服务因为某些因素使用人数上升到10万人,可能我们原有的资源不足以回应这些流量,导致使用者无法连上该应用服务。如果这时候,系统能帮我们根據目前的資源使用率,決定是否自動調整資源(像是加開 server)來回應這些流量就太好了
。幸好,这样的功能Kubernetes也帮我们想到了。
探测失败
容器正常运作不等于服务正常运作
所以该怎么让服务正常运作呢?答案是让k8s 知道容器目前正常运作。好像有点绕,但是这是使用k8s 的时候特别重要的观念:容器需要持续回报正常运作(我还活着!)。
k8s提供两种探测方式:Liveness Probe
与Readiness Probe
。基本上,Probe会定期的执行某些动作来确保应用程式在正常运作中。
某些动作可能是执行某个指令或者是传送一个Http Request
如果使用Liveness Probe
,当错误发生时(无回应或回应错误),k8s会尝试重新建立(kill then create)一个新的容器。
如果使用Readiness Probe
,当错误发生时,对应的Service物件就会将该容器标示为不可使用,所以任何的需求都不会导向该容器。
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)