【转载】基于MindSpore的Deeplabv3—语义分割体验分享

举报
Tianyi_Li 发表于 2020/12/18 16:49:01 2020/12/18
【摘要】 实验介绍本实验主要介绍使用MindSpore深度学习框架在PASCAL VOC2012数据集上训练deeplabv3网络模型。本实验使用了MindSpore开源仓库model_zoo中的deeplabv3模型案例。deeplabv3简要介绍deeplabv1和deeplabv2,即带孔卷积(atrous convolution), 能够明确地调整filters的感受野,并决定DNN计算得到特...

实验介绍

本实验主要介绍使用MindSpore深度学习框架在PASCAL VOC2012数据集上训练deeplabv3网络模型。本实验使用了MindSpore开源仓库model_zoo中的deeplabv3模型案例。

deeplabv3简要介绍

deeplabv1和deeplabv2,即带孔卷积(atrous convolution), 能够明确地调整filters的感受野,并决定DNN计算得到特征的分辨率。 deeplabv3中提出 Atrous Spatial Pyramid Pooling(ASPP)模块, 挖掘不同尺度的卷积特征,以及编码了全局内容信息的图像层特征,提升分割效果。 详细介绍参考论文:http://arxiv.org/abs/1706.05587 。

实验目的

  • 了解如何使用MindSpore加载常用的PASCAL VOC2012数据集。

  • 了解MindSpore的model_zoo模块,以及如何使用model_zoo中的模型。

  • 了解deeplabv3这类语义分割模型的基本结构和编程方法。

预备知识

实验环境

  • MindSpore 1.0.0(MindSpore版本会定期更新,本指导也会定期刷新,与版本配套)。

  • 华为云ModelArts(控制台左上角选择“华北-北京四”):ModelArts是华为云提供的面向开发者的一站式AI开发平台,集成了昇腾AI处理器资源池,用户可以在该平台**验MindSpore。。

实验准备

数据集准备

Pascal VOC2012数据集主要是针对视觉任务中监督学习提供标签数据,它有二十个类别。主要有四个大类别,分别是人、常见动物、交通车辆、室内家具用品。这里只说与图像分割(segmentation)有关的信息,本用例使用已去除分割标注的颜色,仅保留了分割任务的数据集。VOC2012官网地址官方下载地址

本实验指导的数据集可通过如下方式获取:

另外,本实验采用fine-tune的训练方式,为了节省训练时间,我们提前准备好了预训练的checkpoint文件,方便直接获取使用。

脚本准备

课程gitee仓库上下载本实验相关脚本。

上传文件

点击新建的OBS桶名,再打开“对象”标签页,通过“上传对象”、“新建文件夹”等功能,将脚本和数据集上传到OBS桶中,组织为如下形式:

deeplabv3├── src # 包括数据集处理、网络定义等│   └── *.py└── main.ipynb # 执行脚本,包括训练和推理过程

实验步骤

代码梳理

代码文件说明:

  • main.ipynb:代码入口文件;

  • dataset.py:数据处理文件;

  • loss:loss定义文件;

  • deeplab_v3: deeplabv3网络定义文件;

  • learning_rates.py: 学习率定义文件

实验流程:

  1. 修改main.ipynb训练参数并运行,运行训练cell得到模型文件。

  2. 修改main.ipynb测试1(test 1 cell)参数并运行,运行测试1单元得到mean iou结果。

  3. 修改main.ipynb测试2(test 2 cell)参数并运行,运行测试2单元得到可视化结果。

数据处理(dataset.py)

数据处理流程如下所示:

  1. 将语义标签转换为灰度图(dataset.py中SegDataset.get_gray_dataset)

  2. 将图片和标签灰度图转换为mindrecord格式数据集(dataset.py中SegDataset.get_mindrecord_dataset)

  3. 读取mindrecord数据集并预处理。(dataset.py中SegDataset.get_dataset。其中preprocess_为数据预处理。)

具体过程如下所示,见(main.ipynb)

# datasetdataset = data_generator.SegDataset(image_mean=args.image_mean,                                    image_std=args.image_std,                                    data_file=args.data_file,                                    batch_size=args.batch_size,                                    crop_size=args.crop_size,                                    max_scale=args.max_scale,                                    min_scale=args.min_scale,                                    ignore_label=args.ignore_label,                                    num_classes=args.num_classes,                                    num_readers=2,                                    num_parallel_calls=4,                                    shard_id=args.rank,                                    shard_num=args.group_size)dataset.get_gray_dataset()dataset.get_mindrecord_dataset(is_training=True)dataset = dataset.get_dataset(repeat=1)

训练输入文件导入

import moxing as moxdata_path = './VOC2012'if not os.path.exists(data_path):    mox.file.copy_parallel(src_url="s3://share-course/dataset/voc2012_raw/", dst_url=data_path)cfg.data_file = data_pathckpt_path = 'deeplab_s8.ckpt'if not os.path.exists(ckpt_path):    mox.file.copy_parallel(src_url="s3://share-course/checkpoint/deeplabv3/deeplab_v3_s8-800_82.ckpt", dst_url=ckpt_path)cfg.ckpt_file = ckpt_path

训练输入文件导入

import moxing as moxdata_path = './VOC2012'if not os.path.exists(data_path):    mox.file.copy_parallel(src_url="s3://share-course/dataset/voc2012_raw/", dst_url=data_path)cfg.data_file = data_pathfrom src.data import dataset as data_generator# datasetdataset = data_generator.SegDataset(image_mean=cfg.image_mean,                                    image_std=cfg.image_std,                                    data_file=cfg.data_file)dataset.get_gray_dataset()cfg.data_lst = os.path.join(cfg.data_file,'ImageSets/Segmentation/val.txt')cfg.voc_img_dir = os.path.join(cfg.data_file,'JPEGImages')cfg.voc_anno_gray_dir = os.path.join(cfg.data_file,'SegmentationClassGray')ckpt_path = './model'if not os.path.exists(ckpt_path):    mox.file.copy_parallel(src_url="s3://{user_obs}/model", dst_url=ckpt_path)   # if model had saved.cfg.ckpt_file = os.path.join(ckpt_path,'deeplab_v3_s8-3_91.ckpt')  print('loading checkpoing:',cfg.ckpt_file)

训练参数设定:

cfg = edict({    "batch_size": 16,    "crop_size": 513,    "image_mean": [103.53, 116.28, 123.675],    "image_std": [57.375, 57.120, 58.395],    "min_scale": 0.5,    "max_scale": 2.0,    "ignore_label": 255,    "num_classes": 21,    "train_epochs" : 3,    "lr_type": 'cos',    "base_lr": 0.0,    "lr_decay_step": 3*91,    "lr_decay_rate" :0.1,    "loss_scale": 2048,          "model": 'deeplab_v3_s8',    'rank': 0,    'group_size':1,    'keep_checkpoint_max':1,    'train_dir': 'model',    'is_distributed':False,    'freeze_bn':True})

测试参数设定:

cfg = edict({    "batch_size": 1,    "crop_size": 513,    "image_mean": [103.53, 116.28, 123.675],    "image_std": [57.375, 57.120, 58.395],    "scales": [1.0],           # [0.5,0.75,1.0,1.25,1.75]    'flip': True,    'ignore_label': 255,    'num_classes':21,    'model': 'deeplab_v3_s8',    'freeze_bn': True,        'if_png':False,    'num_png':5})

实验结果

训练日志结果

converting voc color png to gray png ...converting donecreating mindrecord dataset...number of samples: 1464number of samples written: 1000number of samples written: 1464Create Mindrecord Doneepoch: 1 step: 91, loss is 0.004917805Epoch time: 183256.301, per step time: 2013.806epoch: 2 step: 91, loss is 0.00791893Epoch time: 47812.316, per step time: 525.410epoch: 3 step: 91, loss is 0.0061199386Epoch time: 47803.087, per step time: 525.309

测试iou结果

the gray file is already exists!loading checkpoing: ./model/deeplab_v3_s8-3_91.ckptprocessed 100 imagesprocessed 200 imagesprocessed 300 imagesprocessed 400 imagesprocessed 500 imagesprocessed 600 imagesprocessed 700 imagesprocessed 800 imagesprocessed 900 imagesprocessed 1000 imagesprocessed 1100 imagesprocessed 1200 imagesprocessed 1300 imagesprocessed 1400 imagesmean IoU 0.7709573541968988

测试图片输出结果

取其中一张图片结果如下所示:

image.png


prediction num: [ 0  2 15]prediction color: ['background', 'bicycle', 'person']prediction class: ['aliceblue', 'red', 'tan']groundtruth num: [ 0  2 15]groundtruth color: ['background', 'bicycle', 'person']groundtruth class: ['aliceblue', 'red', 'tan']

注解: 以上三张图片,第左边为原始图片,中间为预测语义分割图,最右边为真实语义分割标签图。

结论

本实验主要介绍使用MindSpore实现deeplabv3网络,实现语义分割。分析原理和结果可得:

  • deeplabv3网络对语义分割任务有效。

  • deeplabv3网络对语义分割中细节效果较差。但是大概轮廓较好。



原文链接:https://gitee.com/mindspore/course/tree/master/deeplabv3

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

举报
请填写举报理由
0/200