ModelBox开发体验Day04开发案例-隔空作画

举报
孙小北 发表于 2022/08/20 09:39:54 2022/08/20
【摘要】 代码:https://github.com/sunxiaobei/modelbox_gallery代码tag:v1.2 hand_painting,v1.3 hand_painting_camera本案例实现一个简单的隔空作画趣味应用手检测模型:YOLOX关键点检测模型:SCNet 开发准备开发环境安装和部署,前面环境已完成模型训练,ModelArts训练模型模型转换,代码模型已完成转换 应...

开发准备

  • 开发环境安装和部署,前面环境已完成
  • 模型训练,ModelArts训练模型
  • 模型转换,代码模型已完成转换

应用开发

(1)创建工程

  • SDK提供了工程脚本create.py,可以使用./create.py -h查看脚本帮助。
  • ModelBox提供了可视化图编排工具:Editor,可以使用./create.py -t editor开启图编排服务:服务默认ip即为192.168.2.111,如需配置其他ip或端口,可以通过-i ip:port参数进行配置。
./create.py -t editor -i 192.168.3.18:8082

image-20220806183251788.png

  • 点击链接即可进入可视化编辑界面,我们点击编排进入工程开发界面,如果进一步了解ModelBox相关内容,可以点击右上角帮助:

image-20220806183307676.png

  • 进入编排界面,点击右上角新建项目:
    image-20220806183416868.png

  • 项目路径填写workspace,项目名称填写hand_painting, 确认:
    image-20220806183705330.png

  • 不小心点了car
    image-20220806222130396.png

  • 可以看到我们已经拥有了一个带有http收发单元的默认图:

image-20220806183937664.png

image-20220806222219329.png

cd modelbox
git add .
git commit -m 'run editor & create hand_painting'
git push
  • 其中,区域1为SDK预置的高性能通用流单元,区域2为可视化编排界面,区域3为对应的图配置文件内容。同时,VS Code对应目录下也出现了hand_painting项目:

image-20220806214622199.png

image-20220806222519668.png

(2)创建推理功能单元

image-20220806214758753.png

image-20220806215101279.png

  • 对于手检测模型,我们将流单元命名为hand_detection,模型文件名即为转换好的检测模型名:yolox_hand.rknn,此模型输入为image,输出为feature map,所以我们添加int类型的输入端口与float类型的输出端口。关于开发板的推理流单元创建,在处理类型时我们选择cuda,即为npu推理,推理引擎可选任意一款,目前开发板SDK可以自动进行识别转换。最后将功能单元分组修改为inference,点击确认,即可看到,在右侧inference页签下出现了:

image-20220806221605775.png

image-20220806222549922.png

  • 同时,在VS Code工程model目录下可以看到创建好的推理流单元:

image-20220806222608119.png

  • 同样的,我们创建pose_detection推理流单元:

image-20220806223042684.png

image-20220806223104373.png

(3) 创建后处理功能单元

  • 除了推理流单元外,隔空作画demo还需要一些通用功能单元:检测后处理单元、感兴趣区域提取单元、作画单元,我们新建三个python功能单元来满足上述需求。

  • 对于检测后处理单元,我们希望通过原图和hand_detection的输出解码出手检测框,所以该单元应该有两个输入。此外,对于画幅中有手或者没有检测到手两种状态,我们希望该功能单元分情况处理,检测到手时,将检测结果送入感兴趣区域提取单元,没有检测到手时,直接返回,因此功能单元类型选择:IF_ELSE。新建单元如下:

image-20220806223353250.png

image-20220806223436888.png

同样的,根据输入输出与功能单元状态,我们创建extract_roipainting两个功能单元:

image-20220806223603014.png

image-20220806223717028.png

image-20220806223751325.png

image-20220806223813107.png

(4) 流程图编排

  • 需要的功能单元全部创建好后,我们可以着手编排流程图,我们编排一个视频处理的图,暂时不需要http收发单元,可以删除不需要的单元。

  • Generic列表下将虚拟输入单元input和我们刚刚创建的三个功能单元拖入画布:

image-20220806224258183.png

  • Image列表下将模型推理需要用到的预处理单元resize拖入画布,因为我们需要两个resize单元,所以重复拖入:

image-20220806224427794.png

  • 值得注意的是,resize单元需要配置参数,需要点击该单元进行配置:

image-20220806224517680.png

  • Input列表下拖入输入解析单元data_source_parser

image-20220806224608886.png

  • Video列表下拖入视频处理需要的单元video_demuxervideo_decodervideo_out

image-20220806224717773.png

  • 最后,在Inference列表下拖入我们创建的两个推理单元:

image-20220806224805398.png

(5)编排

  • 将功能单元按照处理逻辑进行连接:虚拟输入input连接输入解析data_source_parser,解析后送入视频解包与解码单元:

image-20220806225112153.png

  • 解码输出送入预处理后可直接进行推理:

image-20220806225233484.png

  • 推理后处理需要输入原图与推理结果,没有结果则直接连接视频输入单元,有结果则连接感兴趣区域提取单元:
    image-20220529151943658.png

  • 提取结果送入预处理与推理:
    image-20220529152036826.png

  • 最后,得到的关键点结果与原图送入作画单元,作画结果送入视频输出单元进行保存:

image-20220529152205286.png

  • 最终

image-20220806231947131.png

  • 建议编排优化

image-20220806231817491.png

(6) 代码补全

可视化编排中,创建的推理单元位于项目的model目录下,通用单元位于etc/flowunit目录下,流程图位于graph目录下,可以看到创建的单元与图都已同步过来:

image-20220807001624553.png

推理单元

  • 首先完善推理单元,对于推理功能单元,只需要提供独立的toml配置文件,指定推理功能单元的基本属性即可,目录结构为:
[flowunit-name]
     |---[flowunit-name].toml    #推理功能单元配置
     |---[model].rknn            #模型文件
     |---[infer-plugin].so       #推理自定义插件
  • ModelBox框架在初始化时,会扫描目录中的toml后缀的文件,并读取相关的推理功能单元信息。[infer-plugin].so是推理所需插件,推理功能单元支持加载自定义插件,开发者可以实现自定义算子。

  • 将模型拷入对应文件夹,以hand_detection为例我们看一下推理功能单元配置文件:

image-20220807001803896.png

  • 配置文件中有一些单元类型、模型名称、输入输出的基本配置,可以酌情修改。

通用单元

  • Python通用单元需要提供独立的toml配置文件,指定python功能单元的基本属性。一般情况,目录结构为:
[FlowUnitName]
     |---[FlowUnitName].toml
     |---[FlowUnitName].py
     |---xxx.py
  • 相较于推理单元而言,通用单元不但有配置文件,还需要完善具体的功能代码,以yolox_post为例,首先是功能单元配置文件:
# Copyright (c) Huawei Technologies Co., Ltd. 2022. All rights reserved.

# Basic config
[base]
name = "yolox_post" # The FlowUnit name
device = "cpu" # The flowunit runs on cpu
version = "1.0.0" # The version of the flowunit
type = "python" # Fixed value, do not change
description = "description" # The description of the flowunit
entry = "yolox_post@yolox_postFlowUnit" # Python flowunit entry function
group_type = "generic"  # flowunit group attribution, change as input/output/image ...

# Flowunit Type
stream = false # Whether the flowunit is a stream flowunit
condition = true # Whether the flowunit is a condition flowunit
collapse = false # Whether the flowunit is a collapse flowunit
collapse_all = false # Whether the flowunit will collapse all the data
expand = false #  Whether the flowunit is a expand flowunit

# The default Flowunit config
[config]
item = "value"

# Input ports description
[input]
[input.input1] # Input port number, the format is input.input[N]
name = "in_image" # Input port name
type = "uint8"  # input port data type ,e.g. float or uint8
device = "cpu"  # input buffer type
[input.input2] # Input port number, the format is input.input[N]
name = "in_feat" # Input port name
type = "uint8"  # input port data type ,e.g. float or uint8
device = "cpu"  # input buffer type

# Output ports description
[output]
[output.output1] # Output port number, the format is output.output[N]
name = "has_hand" # Output port name
type = "float"  # output port data type ,e.g. float or uint8
[output.output2] # Output port number, the format is output.output[N]
name = "no_hand" # Output port name
type = "float"  # output port data type ,e.g. float or uint8
  • Basic config是一些单元名等基本配置,Flowunit Type是功能单元类型,yolox_post是一个条件单元,所以可以看到condition为true

  • config为单元需要配置的一些属性,如本单元需要一些特征图size、阈值等信息,所以在配置文件中修改config为:

[config]
net_h = 320
net_w = 320
num_classes = 2
conf_threshold = 0.5
iou_threshold = 0.5
  • 此外,输入输出type根据实际逻辑可能进行一些修改:
# Input ports description
[input]
[input.input1] # Input port number, the format is input.input[N]
name = "in_image" # Input port name
type = "uint8"  # input port data type ,e.g. float or uint8
device = "cpu"  # input buffer type

[input.input2] # Input port number, the format is input.input[N]
name = "in_feat" # Input port name
type = "float"  # input port data type ,e.g. float or uint8
device = "cpu"  # input buffer type

# Output ports description
[output]
[output.output1] # Output port number, the format is output.output[N]
name = "has_hand" # Output port name
type = "uint8"  # output port data type ,e.g. float or uint8

[output.output2] # Output port number, the format is output.output[N]
name = "no_hand" # Output port name
type = "uint8"  # output port data type ,e.g. float or uint8
  • 接下来,我们查看yolox_post.py,可以看到创建单元时已经生成了基本接口:
# Copyright (c) Huawei Technologies Co., Ltd. 2022. All rights reserved.

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import _flowunit as modelbox

class yolox_postFlowUnit(modelbox.FlowUnit):
    # Derived from modelbox.FlowUnit
    def __init__(self):
        super().__init__()

    def open(self, config):
        # Open the flowunit to obtain configuration information
        return modelbox.Status.StatusCode.STATUS_SUCCESS

    def process(self, data_context):
        # Process the data
        in_data = data_context.input("in_1")
        out_data = data_context.output("out_1")

        # yolox_post process code.
        # Remove the following code and add your own code here.
        for buffer in in_data:
            response = "Hello World " + buffer.as_object()
            result = response.encode('utf-8').strip()
            add_buffer = modelbox.Buffer(self.get_bind_device(), result)
            out_data.push_back(add_buffer)

        return modelbox.Status.StatusCode.STATUS_SUCCESS

    def close(self):
        # Close the flowunit
        return modelbox.Status()

    def data_pre(self, data_context):
        # Before streaming data starts
        return modelbox.Status()

    def data_post(self, data_context):
        # After streaming data ends
        return modelbox.Status()

    def data_group_pre(self, data_context):
        # Before all streaming data starts
        return modelbox.Status()

    def data_group_post(self, data_context):
        # After all streaming data ends
        return modelbox.Status()
  • 如果功能单元的工作模式是stream = false时,功能单元会调用openprocessclose接口;如果功能单元的工作模式是stream = true时,功能单元会调用opendata_group_predata_preprocessdata_postdata_group_postclose接口;用户可根据实际需求实现对应接口。

  • 根据单元性质,我们主要需要完善openprocess接口:

import _flowunit as modelbox
import numpy as np 
from yolox_utils import postprocess, expand_bboxes_with_filter, draw_color_palette


class yolox_postFlowUnit(modelbox.FlowUnit):
    # Derived from modelbox.FlowUnit
    def __init__(self):
        super().__init__()

    def open(self, config):
        self.net_h = config.get_int('net_h', 320)
        self.net_w = config.get_int('net_w', 320)
        self.num_classes = config.get_int('num_classes', 2)
        self.num_grids = int((self.net_h / 32) * (self.net_w / 32)) * (1 + 2*2 + 4*4)
        self.conf_thre = config.get_float('conf_threshold', 0.3)
        self.nms_thre = config.get_float('iou_threshold', 0.4)
        return modelbox.Status.StatusCode.STATUS_SUCCESS

    def process(self, data_context):
        modelbox.info("YOLOX POST")
        in_image = data_context.input("in_image")
        in_feat = data_context.input("in_feat")

        has_hand = data_context.output("has_hand")
        no_hand = data_context.output("no_hand")

        for buffer_img, buffer_feat in zip(in_image, in_feat):
            width = buffer_img.get('width')
            height = buffer_img.get('height')
            channel = buffer_img.get('channel')

            img_data = np.array(buffer_img.as_object(), copy=False)
            img_data = img_data.reshape((height, width, channel))

            feat_data = np.array(buffer_feat.as_object(), copy=False)
            feat_data = feat_data.reshape((self.num_grids, self.num_classes + 5))

            ratio = (self.net_h / height, self.net_w / width)
            bboxes = postprocess(feat_data, (self.net_h, self.net_w), self.conf_thre, self.nms_thre, ratio)
            box = expand_bboxes_with_filter(bboxes, width, height)

            if box:
                buffer_img.set("bboxes", box)
                has_hand.push_back(buffer_img)

            else:
                draw_color_palette(img_data)
                img_buffer = modelbox.Buffer(self.get_bind_device(), img_data)
                img_buffer.copy_meta(buffer_img)
                no_hand.push_back(img_buffer)

        return modelbox.Status.StatusCode.STATUS_SUCCESS

    def close(self):
        # Close the flowunit
        return modelbox.Status()
  • 可以看到,在open中我们进行了一些参数获取,process进行逻辑处理,输入输出可以通过data_context来获取,值得注意的是输出时我们返回的是图,在检测到手时为图附加了检测框信息,该信息可以被下一单元获取。

  • 同样的,完善其余通用功能单元,具体可以参考我们提供的代码。

参考代码

unzip hand_painting.zip

应用运行

  • 需要准备一个mp4文件拷贝到data文件夹下,我们提供了测试视频hand.mp4,然后打开工程目录下bin/mock_task.toml文件,修改其中的任务输入和任务输出配置为如下内容:
# 任务输入,mock模拟目前仅支持一路rtsp或者本地url
# rtsp摄像头,type = "rtsp", url里面写入rtsp地址
# 其它用"url",比如可以是本地文件地址, 或者httpserver的地址,(摄像头 url = "0")
[input]
type = "url"
url = "../data/hand_test.mp4"

# 任务输出,目前仅支持"webhook", 和本地输出"local"(输出到屏幕,url="0", 输出到rtsp,填写rtsp地址)
# (local 还可以输出到本地文件,这个时候注意,文件可以是相对路径,是相对这个mock_task.toml文件本身)
[output]
type = "local"
url = "../hilens_data_dir/paint.mp4"
  • 配置好后在工程路径下执行build_project.sh进行工程构建:
cd workspace/hand_painting/
./build_project.sh
# 报错
bash: ./build_project.sh: Permission denied

chmod 777 build_project.sh 
  • 构建完成后运行项目:
./bin/main.sh 

试错总结

  • 报错: ModuleNotFoundError: No module named ‘scipy’
pip install scipy
  • 报错:No such file or directory,核验该路径下是否有此文件
  • 报错:Permission denied
chmod 777 modelbox/* 
  • 报错:运行过程中VS Code 自动断开,或者设备重启. 编译运行建议使用

image-20220807013423809.png

  • 重新运行
./bin/main.sh 
  • 等待稍许即可以在hilens_data_dir文件夹下看到运行结果:

image-20220807013544928.png

image-20220807013529973.png

git add .
git commit -m 'run hand_paintiong'
git push

git tag -a v1.2 -m 'hand_painting'
git push origin --tags

实时在线

  • 代码tag:v1.3 hand_painting_camera

  • 除了mp4外我们也支持很多其他类型的输入输出,ModelBox PC TOOL也提供了推流与拉流功能,选择输入实时视频流,启动:
    image-20220807014904840.png

cp graph/hand_painting.toml graph/hand_painting_camera.toml
  • 修改如下:
graphconf = """digraph hand_painting {
    node [shape=Mrecord]
    queue_size = 1
    batch_size = 1
    input1[type=input]
    extract_roi1 [ type=flowunit flowunit=extract_roi device=cpu deviceid="0"]
    painting2 [ type=flowunit flowunit=painting device=cpu deviceid="0"]
    yolox_post3 [ type=flowunit flowunit=yolox_post device=cpu deviceid="0"]
    resize4 [ type=flowunit flowunit=resize device=rknpu deviceid="0" image_width=320, image_height=320]
    resize5 [ type=flowunit flowunit=resize device=cpu deviceid="0" image_width=256, image_height=256]
    data_source_parser6 [ type=flowunit flowunit=data_source_parser device=cpu deviceid="0"]
    # video_decoder7 [ type=flowunit flowunit=video_decoder device=rknpu, deviceid="0", pix_fmt=bgr]
    # video_demuxer8 [ type=flowunit flowunit=video_demuxer device=cpu deviceid="0"]
    
    local_camera[type=flowunit, flowunit=local_camera, device=rknpu, deviceid=0, pix_fmt=bgr, cam_width=1280, cam_height=720]
    
    video_out9 [ type=flowunit flowunit=video_out device=rknpu deviceid="0"]
    hand_detection11 [ type=flowunit flowunit=hand_detection device=rknpu deviceid="0"]
    pose_detection12 [ type=flowunit flowunit=pose_detection device=rknpu deviceid="0"]
    input1 -> data_source_parser6:"in_data"

    # data_source_parser6:"out_video_url" -> video_demuxer8:"in_video_url"
    # video_demuxer8:"out_video_packet" -> video_decoder7:"in_video_packet"
    # video_decoder7:"out_video_frame" -> resize4:"in_image"

    data_source_parser6:"out_video_url" -> local_camera:in_camera_packet
    local_camera:out_camera_frame -> resize4:"in_image"

    resize4:"out_image" -> hand_detection11:"input"
    hand_detection11:"output" -> yolox_post3:"in_feat"

    # video_decoder7:"out_video_frame" -> yolox_post3:"in_image"

    local_camera:"out_camera_frame" -> yolox_post3:"in_image"
    
    yolox_post3:"no_hand" -> video_out9:"in_video_frame"
    yolox_post3:"has_hand" -> extract_roi1:"in_data"
    extract_roi1:"roi_image" -> resize5:"in_image"
    resize5:"out_image" -> pose_detection12:"input"
    pose_detection12:"output" -> painting2:"in_pose"
    yolox_post3:"has_hand" -> painting2:"in_image"
    painting2:"out_paint" -> video_out9:"in_video_frame"
}"""

修改输入和输出配置

  • 打开工程目录下bin/mock_task.toml文件,修改其中的任务输入和任务输出配置为如下内容:
# 用于本地mock文件读取任务,脚本中已经配置了IVA_SVC_CONFIG环境变量, 添加了此文件路径
########### 请确定使用linux的路径类型,比如在windows上要用  D:/xxx/xxx  不能用D:\xxx\xxx  ###########
# 任务的参数为一个压缩并转义后的json字符串
# 直接写需要转义双引号, 也可以用 content_file 添加一个json文件,如果content和content_file都存在content会被覆盖
# content_file支持绝对路径或者相对路径,不支持解析环境变量(包括${HILENS_APP_ROOT}、${HILENS_DATA_DIR})
[common]
content = "{\"param_str\":\"string param\",\"param_int\":10,\"param_float\":10.5}"

# 任务输入,mock模拟目前仅支持一路rtsp或者本地url
# rtsp摄像头,type = "rtsp", url里面写入rtsp地址
# 其它用"url",比如可以是本地文件地址, 或者httpserver的地址,(摄像头 url = "0")
[input]
type = "url"
# url = "../data/hand_test.mp4"
url ="0"

# 任务输出,目前仅支持"webhook", 和本地输出"local"(输出到屏幕,url="0", 输出到rtsp,填写rtsp地址)
# (local 还可以输出到本地文件,这个时候注意,文件可以是相对路径,是相对这个mock_task.toml文件本身)
[output]
# type = "webhook"
# url = "../hilens_data_dir/paint.mp4"
type ="local"
url = "rtsp://192.168.3.18:8555/outstream"
  • 开启连接

image-20220807021411393.png

  • VS CodeTerminal中执行bin/main.sh camera运行应用:
bin/main.sh camera
  • 卡死 ,换

image-20220807020854144.png

image-20220807021715472.png

  • 运行程序时配置输出地址为推流地址,即可在本机网页中查看到运行结果:

image-20220807021302454.png

git add .
git commit -m 'hand_painting_camera'
git push

git tag -a v1.3 -m 'hand_painting_camera'
git push  origin --tags

如果需要对应用进行性能评估,只需要在流程图配置文件中开启profile:

[profile]
profile=true # 启用profile
trace=true # 启用traceing
dir="/tmp/modelbox/perf" # 设置跟踪文件路径

配置启动后,启动运行流程图,profile会每隔60s记录一次统计信息,trace会在任务执行过程中和结束时,输出统计信息。

运行流程图后,会生成性能相关的json文件,通过将json文件加载到浏览器中即可查看timeline信息。

  1. 打开chrome浏览器。
  2. 浏览器中输入chrome://tracing/
  3. 点击界面中的Load按钮,加载trace的json文件。
  4. 加载成功后,将看到类似下面的timeline视图:

打包部署

打包

调试完成后,同样可以通过create.py脚本将应用打包发布:

./create.py -t rpm -n hand_painting

控制台中输出:

sdk version is modelbox-rk-aarch64-1.0.8.8
call mb-pkg-tool pack [folder] > [rpm file] to building rpm, waiting...
success: create hand_painting.rpm in /home/rock/lxy/examples/workspace/hand_painting

等待稍许,可以看到项目工程下已经生成了rpm文件夹和打包好的应用:

image-20220807022618006.png

小结

  • 本节实践进行了隔空作画的案例,主要包括手检测和关键点检测两部分内容,第一个相对完整的实践。在实践过程中也遇到了不少问题,在试错总结过程中已经汇总记录。相关代码已上传Github。

参考文献:

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。