了解昇腾CANN计算架构【玩转华为云】
1 简介
什么是CANN计算CANN(Compute Architecture for Neural Networks)?官方解释
昇腾计算产业是基于昇腾系列(HUAWEI Ascend)处理器和基础软件构建的全栈 AI计算基础设施、行业应用及服务,包括昇腾系列处理器、系列硬件、CANN(Compute Architecture for Neural Networks,异构计算架构)、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。
一句话: 为AI处理器提供的软硬件协同计算栈,包含运行时、编译器(ATC/编译链)、算子库与 SDK,可用于将主流框架模型编译/加速到 Ascend 硬件上(并且近期华为在推动 CANN 开源以扩大生态)。
2 对华为 CANN 的总体评价(速览)
CANN是华为为 Ascend 系列 AI 处理器提供的软硬件协同计算栈,包含运行时、编译器(ATC/编译链)、算子库与 SDK,可用于将主流框架模型编译/加速到 Ascend 硬件上(并且近期华为在推动 CANN 开源以扩大生态)。
- 优点(工程角度):
面向 Ascend 硬件做了深度优化:裁剪/重排权重、内存调度、算子融合等,能在 Ascend 上拿到比通用 GPU 更好的端到端效率(尤其是某些推理/推断场景)。
多层接口(从高层框架适配到低层算子实现)——便于把现有模型迁移(MindSpore/TensorFlow/PyTorch/ONNX 都有适配)。
随着开源策略,生态成长与第三方工具链兼容性在加速(长期利好)。
- 局限 / 风险:
生态成熟度仍落后于 CUDA + NVIDIA 的长期生态(开发者工具、第三方库、社区样例数量等方面),短期内需要额外投入(适配、调优、验证)。
对于非 Ascend 硬件并不通用(如果团队需要多云/多厂商部署,需评估锁定成本)。
总体建议:如果你的主要部署目标是华为 Ascend(比如在中国境内希望依赖国产 NPU、或需在华为云上做高密度低成本推理),CANN 是合适且高效的选择;如果需要更通用的多供应商部署,需同时评估 ONNX Runtime + 各厂商 Execution Provider 的策略。
3 竞品:阿里云平台产品,它们定位差异在哪里
简要列举并比较(聚焦“硬件 + 针对硬件的 SDK/算子扩展”这一层面):
- 阿里云(Alibaba Cloud) AI Acceleration
产品形态:阿里云侧重于平台级的 ML 能力(PAI / Machine Learning Platform for AI) 以及 GPU/自研推理芯片(如 Hanguang 800)和云端的 AI Acceleration 方案。
PAI 提供深度学习容器、训练/推理服务、模型部署能力,阿里也有面向云端的推理加速栈与调度层。对外文档以 PAI、AI Acceleration、EAS/Elastic Algorithm Service 为主。阿里更像提供“云上端到端 AI 平台 + 自研推理硬件(主要面向云/推理)”。
- 算子/自定义算子:
阿里平台通常支持通过容器 / 深度学习容器(DLC)、自定义镜像、或平台插件来运行自定义算子;
但在“面向 NPU 的低层自定义算子开发”上,阿里公开资料不像华为那样突出“ATC/TBE”式的算子开发流程(更多是平台化的训练/部署流水线 + 内部软硬件协同)。
如果你的目标是阿里自研芯片(需要查具体 SDK),建议查看对应芯片的 SDK 文档(Hanguang / Pingtouge 等)。
4 竞品 AWS(Amazon Web Services)AWS Inferentia Neuron
典型对应:AWS 的等效方向更明显:AWS Inferentia / Trainium + Neuron SDK。
Neuron 是 AWS 面向 Inferentia/Trainium 的开发/运行时套件,包含编译器、runtime、profiling/监控等工具。
Neuron 也提供对主流框架的适配和自定义算子(Custom Ops)支持,以便在其专用芯片上优化特定操作。
区别要点:AWS 以“云原生 + 硬件加速实例”方式提供(你在 EC2 上直接用 Neuron 编译、部署),并提供较成熟的自定义算子文档/示例(尤其在 PyTorch/Trainium 上讲过如何写 CustomOps)。
4 小结
华为 CANN 在面向 Ascend 深度整合与低层算子扩展上较为突出;阿里更侧重平台化服务 + 自研推理芯片的云端整合;
AWS 则通过 Neuron SDK、Inferentia/Trainium 提供与 CANN 类似的“为自家加速器定制算子并编译到加速器”能力。相互之间差异主要在生态成熟度 / 框架适配量 / 开发者工具链细节上。
参考:
onnxruntime.ai
Amazon Web Services, Inc.
- 点赞
- 收藏
- 关注作者
评论(0)