边缘计算 — 与 AI
【摘要】 目录
文章目录
目录
边缘计算对 AI 技术的支撑
针对不同设备的模型压缩和优化 基于异构硬件资源的系统优化 数据和隐私安全保护
边缘计算对 AI 技术的支撑
针对不同设备的模型压缩和优化
基于边缘计算的技术特征,云计算的学习模型无法满足其要求。需要大量复杂的算法重新模拟并训练学习模型,但此种模型结构比较庞大,由上...
目录
边缘计算对 AI 技术的支撑
针对不同设备的模型压缩和优化
基于边缘计算的技术特征,云计算的学习模型无法满足其要求。需要大量复杂的算法重新模拟并训练学习模型,但此种模型结构比较庞大,由上百万,甚至上亿参数共同组成。在具体运行中需要消耗大量内存资源。虽然边缘计算设备自身具有强大的计算能力和存储能力,但还是无法和云计算服务器相比。
如何解决深度学习模型运行中的资源受限问题,是目前边缘计算技术发展及应用中存在的主要问题。传统的学习模型在压缩和优化时,比较关注减少模型规模量和降低模型精度。而边缘计算设备具有种类繁多、差异化、处理器和内存相差明显的特点。因此,传统的学习模型,根本无法满足边缘计算技术应用的要求,在学习模型设计时,既要满足边缘计算技术的要求,又要考虑模型规模体量和精度损失,同时也要考虑边缘计算设备运行时的延迟和能耗。
基于异构硬件资源的系统优化
假设有一个学习模型,满足边缘计算技术应用要求,则还要综合考虑如何提升模型的运行效率。需要通过模型推理引擎,最大限度提升边缘计算系统运行性能。既要从软件层面上对边缘计算系统进行优化,也要实
文章来源: is-cloud.blog.csdn.net,作者:范桂飓,版权归原作者所有,如需转载,请联系作者。
原文链接:is-cloud.blog.csdn.net/article/details/111730284
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)