华为云 AI 容器:零基础搭建 AI 计算平台,提升计算效率 50%

举报
鲲鹏小玩家 发表于 2020/02/12 10:40:37 2020/02/12
【摘要】 如今,企业的数字化转型和智能升级必谈 AI,AI 在人们日常生活的中的产品和应用也随处可见,如智能音箱、AI 相机、人脸支付等。但是,爆炸式增长的数据量、复杂的训练框架和算法,让很多企业现有的 AI 计算平台变得捉襟见肘:计算效率无法满足业务增加诉求,运营运维成本也居高不下。华为云 AI 容器为客户提供更高性价比的算力,更简化了平台运维,提升 AI 计算效率 50%,加速了 AI 计算在各行...

如今,企业的数字化转型和智能升级必谈 AI,AI 在人们日常生活的中的产品和应用也随处可见,如智能音箱、AI 相机、人脸支付等。

但是,爆炸式增长的数据量、复杂的训练框架和算法,让很多企业现有的 AI 计算平台变得捉襟见肘:计算效率无法满足业务增加诉求,运营运维成本也居高不下。

华为云 AI 容器为客户提供更高性价比的算力,更简化了平台运维,提升 AI 计算效率 50%,加速了 AI 计算在各行业的落地和发展。

计算量 6 年增长 30 万倍 AI 平台扩容成本高

OpenAI 分析报告显示,从 2012 至 2018 年的 6 年时间,AI 训练使用的算力增长了 30 万倍,是同时期摩尔定律增长量的 5 倍。

这意味着,要保持计算速度不变,不能单单依靠芯片能力的升级,还必须增加计算设备投入。而专业 GPU 服务器配以高速网络、高速存储等设备,单台平均成本在 100 万左右,价格高昂,大部分企业难以承担。

image.png

系统日趋复杂 AI 平台运维难度激增

首先,不同的业务需要不同的 AI 训练框架、模型、加速库,如何在统一平台上管理不同的训练框架和模型,如何将线下训练快速部署到生产环境带来巨大挑战。

其次,AI 训练和公司业务使用不同的资源管理工具,使得运维团队需要掌握和使用多种资源管理工具,保障 GPU 利用率,增加运维复杂度。

再者, GPU 在集群内被不同业务团队共享,团队间的资源协调也会耗费不少精力。

image.png

公有云 + 容器化:AI 计算平台建设的必选之路

面对上述问题,各企业开始着手构建基于公有云和容器的 AI 计算平台,基于公有云的容器平台,能给客户带来什么样的好处呢?

更快速的获取算力资

面对 AI 计算需要的超大规模算力,自建 IDC 扩容周期长、一次性投入大,后期维护成本高,采用公有云,可以即申请即用,快速补充企业 IDC 算力的不足,同时具备更低的使用成本、无需关注基础设施维护、避免资源闲置造成浪费等优势,成为了客户扩充算力的最佳选择。

降低日常使用和运维难

用户搭建深度学习训练环境,需要准备带 GPU 的机器、安装 Python、TensorFlow、GPU 驱动等,如果要从开发环境到测试环境,再从测试环境到生成环境,涉及环境迁移过程中需要花很大精力来保证环境的一致性。

容器带来的标准化打包能力可以提供了绝佳的解决方案,将相关软件一并打包到镜像中,一次构建,即可在不同平台上运行,极大降低安装、部署的复杂度;同时各容器间相互隔离,可实现多训练框架并存,而且每一个框架都可以独立进行升级而不会影响其他业务,降低的日常运维的难度,让客户可以将更多的 精力集中在 AI 训练上。

但是,我们在与用户交流过程中发现,用户虽然认可公有云 + 容器的模式,但是在公有云上自建一套容器化的 AI 计算平台,对部分用户仍存在较大的技术门槛,尤其是那些尚未接触过容器的用户。

华为云就此推出了面向 AI 计算场景的容器服务——AI 容器,并于 2018 年在华为全联接大会发布,今年我们对 AI 容器进行了升级,在性能、易用性、可运维等方面都有了很大的提升。

华为云 AI 容器:更易使用和运维 提升 AI 计算效率 50%**

开箱即用 免除基础设施运

AI 容器采用华为云容器实例(CCI)作为基础设施层,得益于 CCI 的 Serverless 架构,用户完全无需关心主机的创建、管理、运维,而只需要在使用时申请所需要的算力资源即可(算力类型、CPU 核数、内存量),省去了基础设施的日常运维工作,用户可以更加专注于 AI 计算本身。

更快速的获取算力资

AI 容器基于全新的 Volcano 平台进行任务调度管理,Volcano 是华为云高性能批量计算平台,具有更高的调度性能,最高可达 1000 容器 / 秒,将算力获取的效率提升近 10 倍。

同时,有了 Volcano 的加持, AI 容器还可以基于拓扑和资源亲和进行任务调度,根据策略将关联任务调度到同一物理节点或二层网络内,极大的提升了 AI 训练过程中任务间通信及数据交互的效率。

秒级计费 资源性价比更高

AI 训练时客户需要快速、多次计算进行迭代,会对资源进行频繁的申请、释放,AI 容器采用按秒计费和套餐包的计费方式,真正做到按使用付费(PAYU),避免客户采用包周期等方式购买资源后,利用率不足而造成的浪费。

开放生态 支持主流训练框

随着 AI 平台容器化的深入,大量训练框架都已发布其容器版本,AI 容器目前已支持 Tensorflow, Caffe, Mxnet, Pytorch, MindSpore 等近十种主流训练框架,用户可以将训练代码平滑的迁移上云。

多样算力 用户选择更加灵活

AI 容器的能提供昇腾、鲲鹏、x86 和 GPU 等类型的算力资源,用户可以实现一套平台运行不同类型的应用,根据应用特点灵活选择算力资源,达到资源的最优配置。

原文: https://www.infoq.cn/article/ug8RNQ1etS96u2amIuN3


【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。