在ModelArts使用AI推理框架ModelBox开发
ModelBox简介
ModelBox是华为云ModelArts集成的一款易用、高效、高扩展的AI推理开发框架,通过模块拖拽连线的方式将推理应用流程可视化展示,并预置了丰富的流单元供开发人员直接使用,降低了应用开发难度,支持C++、Python、Java等多种开发语言,硬件支持GPU、NPU,可以帮助开发者快速完成AI推理应用的开发和上线工作。
用户可在ModelArts开发环境中一键创建ModelBox实例并通过VsCode远程连接实例,方便地利用云上的GPU/D310资源进行推理应用开发和调试,当前在上海一区域以白名单形式开放。
创建ModelBox实例
进入上海一区域的ModelArts新版开发环境,如果访问不了可以提工单申请白名单。
在新版开发环境中点击创建,选择ModelBox镜像:
规格选择T4,配置SSH远程开发所需的密钥对和白名单IP。远程访问白名单配置为将要访问这个ModelBox实例的本地机器IP,可以在本地的浏览器搜索“本地IP查询”,查出来的就是本地对外的互联网IP。
点击确认后,等待实例创建完成。
连接并配置实例
连接实例
首先本地安装VSCode IDE,建议安装1.57版本或以下,最新版本的VSCode远程连接时有一些问题。
参考帮助文档的准备、Step1、Step2这三个章节,进行实例连接。
开发首个AI应用
开发环境预置了一个AI应用样例:车辆检测,是指通过模型检测行驶的视频流中的车辆,体验这个样例需要如下几个操作:
1)创建样例工程
2)推理流图开发运行
3)查看推理结果
创建AI应用
打开terminal,执行命令:
ma-admin createproject
命令执行完后会在/home/ma-user/work/my_project目录下创建modelbox_demo工程,
使用VSCode的OpenFolder打开该工程目录:
README文档是对工程目录结构的介绍。
工程带的样例在solution/traffic目录下,flowunit是功能单元,graph代表由功能单元组成的图,图即为整个应用的处理流程,在ModelBox中,应用都是用图的形式来表达的。
编译构建运行
使用VSCode快捷键Ctrl + Shift + P:
选择cmake configure执行
选择cmake build target
下一步的选择框输入目录名traffic
编译OK。
或者也可以直接使用命令行进行编译构建:
cd build && cmake .. && make traffic
构建完成后,执行如下命令运行应用:
python tools/run.py --graph solution/traffic/graph/vehicle_detection/vehicle_detection.toml
执行后,日志会输出到terminal控制台上,通过查看日志可以看到流图已经运行起来了。
查看推理结果
在浏览器地址栏输入推理视频结果的查询地址:
rtsp://localhost/test
浏览器弹出如下框点击Open
此时本地的播放器会自动启动并播放推理视频流。如果无法播放,是因为本地的播放器不支持rtsp流,需要安装支持rtsp流的播放器,例如PotPlayer。
如果播放器OK但是仍旧播放不出来,有可能是视频较短已经播放结束了,可以停掉当前运行的脚本后再重新运行一次。
播放效果如图:
- 点赞
- 收藏
- 关注作者
评论(0)