了解昇腾CANN计算架构【玩转华为云】

举报
码乐 发表于 2025/11/01 20:07:43 2025/11/01
【摘要】 1 简介什么是CANN计算CANN(Compute Architecture for Neural Networks)?官方解释昇腾计算产业是基于昇腾系列(HUAWEI Ascend)处理器和基础软件构建的全栈 AI计算基础设施、行业应用及服务,包括昇腾系列处理器、系列硬件、CANN(Compute Architecture for Neural Networks,异构计算架构)、AI计算...

1 简介

什么是CANN计算CANN(Compute Architecture for Neural Networks)?官方解释

昇腾计算产业是基于昇腾系列(HUAWEI Ascend)处理器和基础软件构建的全栈 AI计算基础设施、行业应用及服务,包括昇腾系列处理器、系列硬件、CANN(Compute Architecture for Neural Networks,异构计算架构)、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。

一句话: 为AI处理器提供的软硬件协同计算栈,包含运行时、编译器(ATC/编译链)、算子库与 SDK,可用于将主流框架模型编译/加速到 Ascend 硬件上(并且近期华为在推动 CANN 开源以扩大生态)。

2 对华为 CANN 的总体评价(速览)

CANN是华为为 Ascend 系列 AI 处理器提供的软硬件协同计算栈,包含运行时、编译器(ATC/编译链)、算子库与 SDK,可用于将主流框架模型编译/加速到 Ascend 硬件上(并且近期华为在推动 CANN 开源以扩大生态)。

  • 优点(工程角度):

面向 Ascend 硬件做了深度优化:裁剪/重排权重、内存调度、算子融合等,能在 Ascend 上拿到比通用 GPU 更好的端到端效率(尤其是某些推理/推断场景)。

多层接口(从高层框架适配到低层算子实现)——便于把现有模型迁移(MindSpore/TensorFlow/PyTorch/ONNX 都有适配)。

随着开源策略,生态成长与第三方工具链兼容性在加速(长期利好)。

  • 局限 / 风险:

生态成熟度仍落后于 CUDA + NVIDIA 的长期生态(开发者工具、第三方库、社区样例数量等方面),短期内需要额外投入(适配、调优、验证)。

对于非 Ascend 硬件并不通用(如果团队需要多云/多厂商部署,需评估锁定成本)。

总体建议:如果你的主要部署目标是华为 Ascend(比如在中国境内希望依赖国产 NPU、或需在华为云上做高密度低成本推理),CANN 是合适且高效的选择;如果需要更通用的多供应商部署,需同时评估 ONNX Runtime + 各厂商 Execution Provider 的策略。

3 竞品:阿里云平台产品,它们定位差异在哪里

简要列举并比较(聚焦“硬件 + 针对硬件的 SDK/算子扩展”这一层面):

  • 阿里云(Alibaba Cloud) AI Acceleration

产品形态:阿里云侧重于平台级的 ML 能力(PAI / Machine Learning Platform for AI) 以及 GPU/自研推理芯片(如 Hanguang 800)和云端的 AI Acceleration 方案。

PAI 提供深度学习容器、训练/推理服务、模型部署能力,阿里也有面向云端的推理加速栈与调度层。对外文档以 PAI、AI Acceleration、EAS/Elastic Algorithm Service 为主。阿里更像提供“云上端到端 AI 平台 + 自研推理硬件(主要面向云/推理)”。

  • 算子/自定义算子:

阿里平台通常支持通过容器 / 深度学习容器(DLC)、自定义镜像、或平台插件来运行自定义算子;

但在“面向 NPU 的低层自定义算子开发”上,阿里公开资料不像华为那样突出“ATC/TBE”式的算子开发流程(更多是平台化的训练/部署流水线 + 内部软硬件协同)。

如果你的目标是阿里自研芯片(需要查具体 SDK),建议查看对应芯片的 SDK 文档(Hanguang / Pingtouge 等)。

4 竞品 AWS(Amazon Web Services)AWS Inferentia Neuron

典型对应:AWS 的等效方向更明显:AWS Inferentia / Trainium + Neuron SDK。

Neuron 是 AWS 面向 Inferentia/Trainium 的开发/运行时套件,包含编译器、runtime、profiling/监控等工具。

Neuron 也提供对主流框架的适配和自定义算子(Custom Ops)支持,以便在其专用芯片上优化特定操作。

区别要点:AWS 以“云原生 + 硬件加速实例”方式提供(你在 EC2 上直接用 Neuron 编译、部署),并提供较成熟的自定义算子文档/示例(尤其在 PyTorch/Trainium 上讲过如何写 CustomOps)。

4 小结

华为 CANN 在面向 Ascend 深度整合与低层算子扩展上较为突出;阿里更侧重平台化服务 + 自研推理芯片的云端整合;

AWS 则通过 Neuron SDK、Inferentia/Trainium 提供与 CANN 类似的“为自家加速器定制算子并编译到加速器”能力。相互之间差异主要在生态成熟度 / 框架适配量 / 开发者工具链细节上。

参考:

	onnxruntime.ai
    Amazon Web Services, Inc.
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。