k8s 解决运维神奇的东西

举报
蒋明明哥 发表于 2019/01/23 14:58:31 2019/01/23
【摘要】 k8s 解决运维神奇的东西 k8s 解决了运维几个方面的问题.1.服务的扩展和伸缩.2.服务的健康检查. 如果服务状态不对就销毁重建好了.3.负载均衡.4.内网统一dns管理系统也就解决在zabbix的监控 问题. 重启问题. 自动化运维问题.让小公司一下有了google这种大批量服务器运维的能力.在许多实际场景中,应用服务常常需因应不同流量而配置不同的资源。好比:原本的应用服务可能每天都只...

k8s 解决运维神奇的东西

 k8s 解决了运维几个方面的问题.
1.服务的扩展和伸缩.
2.服务的健康检查. 如果服务状态不对就销毁重建好了.
3.负载均衡.
4.内网统一dns管理系统
也就解决在zabbix的监控 问题. 重启问题. 自动化运维问题.
让小公司一下有了google这种大批量服务器运维的能力.

在许多实际场景中,应用服务常常需因应不同流量而配置不同的资源。好比:原本的应用服务可能每天都只有10人使用,我们只需要架设一台小server即可应付这些流量;当有天应用服务因为某些因素使用人数上升到10万人,可能我们原有的资源不足以回应这些流量,导致使用者无法连上该应用服务。如果这时候,系统能帮我们根據目前的資源使用率,決定是否自動調整資源(像是加開 server)來回應這些流量就太好了幸好,这样的功能Kubernetes也帮我们想到了。
 

探测失败

容器正常运作不等于服务正常运作

所以该怎么让服务正常运作呢?答案是让k8s 知道容器目前正常运作。好像有点绕,但是这是使用k8s 的时候特别重要的观念:容器需要持续回报正常运作(我还活着!)。

k8s提供两种探测方式:Liveness ProbeReadiness Probe基本上,Probe会定期的执行某些动作来确保应用程式在正常运作中。

某些动作可能是执行某个指令或者是传送一个Http Request

如果使用Liveness Probe,当错误发生时(无回应或回应错误),k8s会尝试重新建立(kill then create)一个新的容器。

如果使用Readiness Probe,当错误发生时,对应的Service物件就会将该容器标示为不可使用,所以任何的需求都不会导向该容器。


【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。