[活动体验] 5月1.2.0版本体验

版本号截图

版本.PNG

硬件平台与操作系统

硬件平台.PNG

体验内容学习笔记

看了MindSpore  1.2.0版本提供了可解释AI的能力,真是一大进步。当前深度学习模型多为黑盒模型,性能表现好但可解释性较差,可解释AI是当前研究的热点,也是一大难题。可解释AI可以为用户提供对模型决策依据的解释,帮助用户更好地理解模型、信任模型,以及当模型出现错误时有针对性地改进模型效果。

查阅Mindspore相关资料了解到MindSporeMindInsight部件中集成了的可解释AI能力:显著图可视化、反事实解释和可解释AI评估体系(度量体系),旨在帮忙开发者更好进行模型调优。但是很遗憾,当前只支持图片分类下的CNN网络模型,比如:LenetResnetAlexnet,并且仅支持PyNative运行模式,这事实上已经是一大进步了,希望该功能越来越完善,定将为众多开发者提供更多的有益之处。此处引用一个示例,有个错误预测标签“person”,根据显著图可视化结果,高亮区域在摩托车的前部,便于针对性的分析误判的可能原因。

示例.jpg

 

MindSpore  1.2.0版本还支持大集群下高效训练千亿至万亿参数模型,采用多维度自动并行,通过数据并行、模型并行、Pipeline并行、异构并行、重复计算、高效内存复用及拓扑感知调度,降低通信开销,实现整体迭代时间最小,这也是一大创新。

除此之外,MindSpore for IoT是另一大亮点,由于IoT设备上系统资源有限,MindSpore Lite的代码自动生成工具Codegen将模型编译为极简的代码,用于推理。

期待MindSpore功能越来越完善,早日成为中国最伟大的AI框架。

个人邮箱号:384247859@qq.com