【云小课】EI第18课 玩转HiLens Studio之一键导入&转换ModelArts模型

举报
Hi,EI 发表于 2021/04/29 16:35:40 2021/04/29
【摘要】 目前,HiLens Kit的AI芯片支持运行“.om”模型。在HiLens Studio开发技能时,支持把模型导入进去,针对TensorFlow或Caffe模型,HiLens Studio平台也支持将模型转换成“.om”模型。如果您是在ModelArts开发的模型,HiLens Studio支持一键导入ModelArts模型,并对非“om”格式的模型进行转换,十分方便快捷。

目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来。在HiLens Studio开发技能时,支持把模型导入进去,针对TensorFlow或Caffe模型,HiLens Studio平台也支持将模型转换成“.om”模型。

如果您是在ModelArts开发的模型,HiLens Studio支持一键导入ModelArts模型,并对非om格式的模型进行转换,十分方便快捷。

1.png

ModelArts开发模型

首先需要在ModelArts在线训练算法模型,详情可参考《ModelArts文档》。

如果要使用ModelArts的预置算法,当前华为HiLens平台仅支持转换如下预置算法:

华为HiLens暂不支持导入ModelArts中自动学习训练的模型。只能导入ModelArts中训练的模型文件,不能导入ModelArts的模型。


导入(转换)模型

  1. 在HiLens Studio界面左侧,单击

    页面左侧将显示您在ModelArts训练好的模型列表。

    16.png

  2. 选择待导入、转换的模型,单击Operation列的Apply

  • 如果是om格式的模型,待模型导入成功后,HiLens Studio右下角会提示Model imported successfully.,文件夹model下会显示新导入的模型文件。
  • 如果是非om格式的模型,会弹出Model Convertion对话框。

          按表 Model Convertion参数说明填写模型转换的信息,单击OK

表1 Model Convertion参数说明

参数

说明

Model Path

待转换的模型文件在技能项目文件中的位置。一般将模型导入至文件夹save_model

Configuration

待转换模型的配置文件在技能项目文件中的位置。例如save_model/aipp_rgb.cfg

Output Path

模型转换后输出位置。

Type

模型转换的类型,包括TF-FrozenGraph-To-Ascend-HiLensCaffe to Ascend

  • TF-FrozenGraph-To-Ascend-HiLens

    支持将Tensorflow frozen graph模型转换成可在ascend芯片上运行的模型。

  • Caffe to Ascend

    支持将Caffe模型转换成可在ascend芯片上运行的模型。

Advanced Options

当模型转换类型为TF-FrozenGraph-To-Ascend-HiLens时,可填写高级选项,包括张量形状、转换输出节点等参数选项,详情请见表 Advanced Options


表1 Advanced Options

参数名称

参数说明

Input Tensor Shape

输入张量形状。若在上文模型来源中,选择需要转换格式的模型(非om格式模型),并且转换类型是Tensorflow frozen graph 转 AscendTensorflow SavedModel 转 Ascend时,需要填写输入张量形状。

张量形状即模型输入数据的shape,输入数据格式为NHWC,如input_name:1,224,224,3,必填项。input_name必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如input_name1:?,h,w,c,该参数必填,其中?为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。

如果存在多个输入,请以分号(;)隔开。

out_nodes

转换输出节点,即指定输出节点,例如node_name1:0;node_name1:1;node_name2:0,其中node_name必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如node_name1:0,表示节点名称为node_name1的第0个输出。

input_format

输入数据格式,默认是NHWC,如果实际是NCHW的话,需要通过此参数指定NCHW

net_format

优选数据格式,即指定网络算子优先选用的数据格式,ND(N=4)5D。仅在网络中算子的输入数据同时支持ND5D两种格式时,指定该参数才生效。ND表示模型中算子按NCHW转换成通用格式,5D表示模型中算子按华为自研的5维转换成华为格式。5D为默认值。

fp16_high_precsion

生成高精度模型,指定是否生成高精度FP16 Davinci模型。

  • 0为默认值,表示生成普通FP16 Davinci模型,推理性能更好。

  • 1表示生成高精度FP16 Davinci模型,推理精度更好。

output_type

网络输出数据类型,FP32为默认值,推荐分类网络、检测网络使用;图像超分辨率网络,推荐使用UINT8,推理性能更好。


更多操作

如果您的模型是在本地开发的,HiLens Studio也能支持导入和转换模型。

详情请参考导入/转换本地开发模型

还等什么,赶快来HiLens Studio大展身手吧!

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。