【CANN训练营笔记】Atlas 200I DK A2体验手写数字识别模型训练&推理

举报
JeffDing 发表于 2024/03/30 10:38:06 2024/03/30
【摘要】 【CANN训练营笔记】Atlas 200I DK A2体验手写数字识别模型训练&推理

环境介绍

开发板:Huawei Atals 200I DK A2
内存:4G
NPU:Ascend 310B4
CANN:7.0

准备环境

下载编译好的torch_npu

wget https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/wanzutao/torch_npu-2.1.0rc1-cp39-cp39-linux_aarch64.whl
pip3 install torch_npu-2.1.0rc1-cp39-cp39-linux_aarch64.whl

安装PyTorch2.1.0、torchvision0.16.0

pip install torch==2.1.0 torchvision==0.16.0

设置环境变量

export DDK_PATH=/usr/local/Ascend/ascend-toolkit/latest
export NPU_HOST_LIB=$DDK_PATH/runtime/lib64/stub

安装ACLLite库

安装ffmpeg
Ubuntu

apt-get install ffmpeg libavcodec-dev libswscale-dev libavdevice-dev

欧拉系统

yum install ffmpeg ffmpeg-devel

将yum安装的opencv头文件软链到系统能默认识别的路径

ln -s /usr/include/ffmpeg/* /usr/include/

源码安装方式:

wget https://ffmpeg.org/releases/ffmpeg-4.2.9.tar.gz
tar -zxvf ffmpeg-4.2.9.tar.gz
cd ffmpeg-4.2.9
./configure --disable-static --enable-shared --disable-doc --enable-ffplay --enable-ffprobe --enable-avdevice --disable-debug --enable-demuxers --enable-parsers --enable-protocols --enable-small --enable-avresample
make -j8
make install

为保证程序能识别动态库,请在/etc/ld.so.conf.d下添加ffmpeg.conf配置

cd /etc/ld.so.conf.d
vim ffmpeg.conf

添加内容

/usr/local/lib

生效配置文件:

ldconfig

设置ffmpeg安装路径环境变量,请替换为ffmpeg的实际安装路径

export FFMPEG_PATH=/usr/local/lib

克隆ACLLite代码仓

git clone https://gitee.com/ascend/ACLLite.git
cd ACLLite

安装

bash build_so.sh

安装依赖

克隆代码仓

git clone https://gitee.com/ascend/EdgeAndRobotics/

进入代码文件夹

cd EdgeAndRobotics/Samples/HandWritingTrainAndInfer

安装依赖

pip3 install -r requirements.txt

模型训练

设置环境变量减小算子编译内存占用

export TE_PARALLEL_COMPILER=1
export MAX_COMPILE_CORE_NUMBER=1

运行训练脚本

python main.py

开始运行
image.png
NPU使用情况
image.png

在线推理

训练生成的mnist.pt转换mnist.onnx模型

python3 export.py

获取测试图片

cd data
wget https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/wanzutao/mnist/8.jpg

测试图片:
image.png

执行在线推理

cd ../onnxInfer/
python3 infer.py

推理结果

[image_path:data/8.jpg] [inferssession_time:1349 pictures/s] [output:8]

离线推理

获取测试图片

cd omInfer/data
wget https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/wanzutao/mnist/8.jpg

获取PyTorch框架的ResNet50模型(.onnx),并转换为昇腾AI处理器能识别的模型(.om)
为了方便下载,在这里直接给出原始模型下载及模型转换命令,可以直接拷贝执行。
将在线推理时导出的mnist.onnx模型拷贝到model目录下

cd ../model
cp ../../mnist.onnx ./

获取AIPP配置文件

wget https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/wanzutao/mnist/ecs/aipp.cfg

模型转换

atc --model=mnist.onnx --framework=5 --insert_op_conf=aipp.cfg --output=mnist --soc_version=Ascend310B4

编译样例源码

cd ../scripts 
bash sample_build.sh

运行样例

bash sample_run.sh

运行结果

[INFO] value[1.000000] output[8]
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。