MindNLP-基于Mindspore2.0的GPT2预训练模型迁移教程

举报
Super_WZB 发表于 2023/03/06 17:28:09 2023/03/06
【摘要】 这篇文章主要目的是为了让大家能够清楚如何用MindSpore2.0来进行模型的迁移,因此更加注重整体的开发流程介绍,针对迁移中代码的编写不会详细讲解,但是会给出样例以及供查阅的文档链接。最终希望读者能够了解迁移模型需要做什么,每一步应该怎么做,做完了应该怎么验证。

前言

动机

大家好,我是Super_WZB,最近MindSpore快要上线2.0版本了,由于之前主要是参与MindSpore的开发工作,一直想找机会多用一用。而自春节开始也是参与到了一项基于MindSpore的迁移工作,积攒了一些经验,所以最近蹭蹭ChatGPT的热度,搞了一下GPT2的模型迁移工作。目前初步实现了GPT2Model最基础模型的推理,输出精度能够和hugging face中基于Pytorch的实现完全对标。整个流程我感觉非常的顺利,并且也切实的体会到MindSpore目前已经可以说是从“可用”进化到了“易用”的阶段。出于MindSpore布道师的职责,同时更是自己想要分享MindSpore2.0的使用感受,写下这篇基于MindSpore2.0的模型迁移教程,供大家参考。

目的

这篇文章主要目的是为了让大家能够清楚如何用MindSpore2.0来进行模型的迁移,因此更加注重整体的开发流程介绍,针对迁移中代码的编写不会详细讲解,但是会给出样例以及供查阅的文档链接。最终希望读者能够了解迁移模型需要做什么,每一步应该怎么做,做完了应该怎么验证。话不多说,直接开始:


1、前期准备

本章节介绍开发的前期准备工作,简要介绍环境配置、MindSpore安装和寻找迁移参考代码的途径,每一部分的详细操作大家可以百度搜索一下,相关博客非常多,这里就不赘述。这一章节非常的基础,如果已经是老手可以直接跳过。

1.1 寻找参照样例

既然是迁移工作,那么第一件事肯定是确定自己想要迁移的模型,然后找到该模型的开源代码,提供以下几个途径供大家寻找源码,基本上比较知名的模型通过以下几种方式都是可以找到相应代码的:

  • 模型论文源码:一般知名的模型和机构发布的论文和模型都是有开源的,可以直接在github搜这个模型的名字或者论文的题目,找到对应机构的仓库即可

image-20230306131849019.png

  • Paper With Code:Paper With Code是一个整合论文和相应开源代码的网址,其中可以查到绝大多数论文以及多框架版本的实现,如果觉得官方的看不懂的话,可以找一些高引用的其他框架版本作为参考源码。

image-20230306132400786.png

  • Hugging Face:Hugging face 起初是一家总部位于纽约的聊天机器人初创服务商,他们本来打算创业做聊天机器人,然后在github上开源了一个Transformers库,虽然聊天机器人业务没搞起来,但是他们的这个库在机器学习社区迅速大火起来。目前已经共享了超100,000个预训练模型,10,000个数据集,变成了机器学习界的github。那其实看起来这个网站和PaperWithCode很类似,但是它胜在有模型使用教程,同时有演示窗口,并且调用非常方便。

image-20230306133021647.png


1.2 Git操作

找到了参考代码之后,大家会发现这些源码基本上都是保存在GitHub上的,因此为了更方便的查阅我们需要迁移的代码,以及跳转和搜索可能存在的依赖函数,我建议大家把参考代码Clone到本地,然后进行对照开发:

image-20230306133329419.png

常用的git操作可以参考这篇博客:Git的下载、安装与使用


1.3 环境配置

1.3.1 自有硬件

如果大家自己有硬件资源,比如CPU、GPU、服务器,那么可以在自己的电脑本地配置神经网络的运行环境,主要包括以下步骤:


1.3.2 启智社区

OpenI 启智 新一代人工智能开源开放平台

启智AI协作平台,简称启智社区 ,是一个开源在线Web应用,旨在为人工智能算法、模型开发提供在线协同工作环境,它提供了代码托管、数据集管理与共享、免费云端算力资源支持(GPU/NPU)、共享镜像等功能。

image-20230306112222885.png

启智平台是可以直接在线创建网络运行环境的平台,里面可以白嫖GPU/NPU资源,配置也非常容易,个人感觉非常的好用,如果大家没有自己的硬件资源的话可以创建一个账号,用启智来进行调试:

GPU调试参考:OpenIOSSG/MNIST_PytorchExample_GPU - OpenI - 启智AI开源社区提供普惠算力!

NPU调试参考:OpenIOSSG/MNIST_Example NPU - OpenI - 启智AI开源社区提供普惠算力!


1.4 安装MindSpore

1.4.1 MindSpore简介

安装之前,请允许我先介绍和宣传一下MindSpore:MindSpore官网介绍

昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景覆盖三大目标。

其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。

昇思MindSpore总体架构如下图所示:

MindSpore-arch

  • ModelZoo(模型库):ModelZoo提供可用的深度学习算法网络,也欢迎更多开发者贡献新的网络(ModelZoo地址)。

  • Extend(扩展库):昇思MindSpore的领域扩展库,支持拓展新领域场景,如GNN/深度概率编程/强化学习等,期待更多开发者来一起贡献和构建。

  • Science(科学计算):MindScience是基于昇思MindSpore融合架构打造的科学计算行业套件,包含了业界领先的数据集、基础模型、预置高精度模型和前后处理工具,加速了科学行业应用开发。

  • Expression(全场景统一API):基于Python的前端表达与编程接口,支持两个融合(函数/OOP编程范式融合、AI+数值计算表达融合)以及两个统一(动静表达统一、单机分布式表达统一)。

  • 第三方前端:支持第三方多语言前端表达,未来计划陆续提供C/C++、华为自研编程语言前端-仓颉(目前还处于预研阶段)等第三方前端的对接工作,引入更多的第三方生态。

  • Data(数据处理层):提供高效的数据处理、常用数据集加载等功能和编程接口,支持用户灵活地定义处理注册和pipeline并行优化。

  • Compiler(AI编译器):图层的核心编译器,主要基于端云统一的MindIR实现三大功能,包括硬件无关的优化(类型推导、自动微分、表达式化简等)、硬件相关优化(自动并行、内存优化、图算融合、流水线执行等)、部署推理相关的优化(量化、剪枝等)。

  • Runtime(全场景运行时):昇思MindSpore的运行时系统,包含云侧主机侧运行时系统、端侧以及更小IoT的轻量化运行时系统。

  • Insight(可视化调试调优工具):昇思MindSpore的可视化调试调优工具,能够可视化地查看训练过程、优化模型性能、调试精度问题、解释推理结果(了解更多)。

  • Armour(安全增强库):面向企业级运用时,安全与隐私保护相关增强功能,如对抗鲁棒性、模型安全测试、差分隐私训练、隐私泄露风险评估、数据漂移检测等技术(了解更多)。

    对昇思MindSpore感兴趣的开发者,可以参与昇思MindSpore的社区并一键三连(Watch/Star/Fork)

image-20230306112731196.png


1.4.2 MindSpore安装

MindSpore官网就有非常详细的安装教程,大家可以按照官网的步骤进行安装:

MindSpore安装指南

image-20230306131337592.png


2、网络迁移

神经网络其实可以理解为搭积木,而不同框架就可以理解为不同品牌的积木包,比如有乐高、森宝、启蒙等等,不同品牌的积木包中肯定有非常多的积木是类似可代替的。

比如A品牌推出了一个Super Mario超级马里奥的积木套装,而我们手头有B品牌的零散积木,只要我们有了这个Super Mario的搭建步骤图,我们同样可以用B品牌的积木构造出一个基本相同的Super Mario。

那么我们将品牌A替换为框架A品牌B替换为MindSpore积木替换为需要用到的API接口构建图替换为GPT2的论文。那么:

我们有了基于框架A的GPT2模型,而我们手头有MindSpore中大量的可调用接口,那么我们只需要参照GPT2的网络结构图和原论文,就可以用MindSpore写出一个基本相同的GPT2模型,这个过程就是模型迁移

经过上面的例子,大家应该大致了解网络迁移是在干个什么事情,而实际上网络的迁移工作也非常简单,主要考验开发者对于网络模型构建以及多种深度学习框架的熟悉情况。不过不同的模型网络结构肯定是不相同的,因此本章节只会介绍迁移流程和每一步应该做什么,具体怎么迁移就需要大家读懂源码,然后参照我给出的api映射表具体问题具体分析。

首先介绍一下后续迁移讲解用到的资源情况:


2.1 源码下载

2.1.1 参考源码下载

前往huggingface/transformers仓库下载transformers包

image-20230306134645853.png

之后找到迁移需要用到的configguration_gpt2.py配置文件和modeling_gpt2.py模型文件(没有后缀的一般是pytorch实现,带tf的是tensorflow实现,我个人对于pytorch更熟悉一些所以选择pytorch版本进行迁移)

image-20230306135003368.png

使用pycharm远程连接,可以直接访问文件代码:

image-20230306135311170.png


2.3.1 MindNLP仓库下载

由于迁移之后的源码是需要合入到MindNLP仓库的,因此大家需要去MindNLP官方GitHub仓库进行一键三连(watch+fork+star)

image-20230306142427772.png

目前MindNLP中已经有了Bert模型的迁移代码,因此我们是可以将这个bert.py与hugging face中的bert代码进行对比来学习应该如何迁移的:

image-20230306143015323.png

下载好之后同样用pycharm打开,刚下载的mindnlp打开图示的models界面是没有gpt2这个文件夹的,这个是大家需要根据自己的模型创建的,用于存放之后迁移之后的相关文件。我的是GPT2所以创建为gpt2,其他模型同理。

image-20230306140454507.png

之后在该文件夹下新建init___.py、config_gpt2.py、gpt2.py三个文件,作用分别是:

image-20230306140555235.png

  • 使得当前文件夹可以被识别为一个模块用于import和调用
  • GPT2参数文件
  • GPT2模型文件

2.2 API映射

下载好了参考源码和MindNLP仓库之后我们就可以正式开始网络迁移了,经过上面搭积木的例子,大家其实应该知道我们需要做的其实就是把参考源码中所使用框架(我参考的是pytorch,之后都以它来讲解)的API替换为MindSpore中的API即可。

2.2.1 直接API映射

下面举一个非常简单的例子:

GPT2MLP的迁移:

image-20230306143433319.png

得益于MindSpore中API命令的规范化和统一化,我们可以发现从左边基于pytorch的实现迁移到右边基于mindspore的实现基本上可以直接复制粘贴,图中的Conv1D和ACT2FN是左边hugging face源码自己封装的类别,后面会讲解。而这个GPT2MLP中其他的代码基本上是直接照搬即可,唯一的差异就是这个nn.Dropout()中的参数有些许不同,这个在2.3API差异中会介绍。

通过这一个例子大家会发现其实迁移还是非常简单的,只要把代码逻辑甚至直接把代码搬过来就行了。这得益于目前MindSpore完善的API接口库,大部分神经网络需要用到的接口都是有的,并且对于输入输出等参数的设置也是向大众的一致标准靠齐的,所以会用其他框架就一定能很快的上手MindSpore(打波小广告哈哈哈)。

下面是更多直接API映射的例子:

image-20230306144521598.png

大家会发现,这些直接API映射的例子里面存在一些参数或者名字不对应的情况,这将会在2.3 API差异中为大家讲解。


2.2.2 hugging face自封装类别和函数迁移

还是以GPT2MLP举例,其中的Conv1D类别是hugging face实现GPT2时自己封装好的类别:

image-20230306144924258.png

那我们需要做的其实也很简单,把这个类别也迁移过来就好了。而关于这个类别该迁移到哪个文件,这个可以选择迁移到自己的模型文件(即gpt2.py),也可以参照hugging face中的文件路径在MindNLP中相应路径新建文件来保存。我这里以迁移到gpt2.py为例:

image-20230306145451944.png

迁移之后呢,这个hugging face自定义的Conv1D类别我们也可以直接使用啦:

image-20230306145617943.png


2.3 API差异

接下来讲一下迁移中出现的API名字或者参数存在差异的问题,API差异主要包括API命名差异、API参数差异、API功能差异。

2.3.1 命名差异

命名差异就是说MindSpore某个接口和pytorch等其他框架的功能是一致的,但是API的名字不同,这时候我们就需要查询pytorch等其他框架中某个API在MindSpore的名字叫啥,而这就需要用到MindSpore官方给出的pytorch/tensorflow API映射表:

可以看到其中收纳了绝大多数常用的API接口,我们只需要在网页中搜索原来pytorch/tensorflow的API名就可以找到MindSpore这边对应的API名字,并且MindSpore这边还非常细致的给出了每个API映射之间的关系,是完全一致、还是存在差异,点赞

PyTorch与MindSpore API映射表

TensorFlow与MindSpore API映射表

这两张映射表非常重要,是迁移的基础,一定要收藏、一定要收藏、一定要收藏

image-20230306145956640.png


比如这张图中的差异nn.ModuleList是因为Pytorch中网络都继承了nn.Module类别,而MindSpore网络继承的是nn.Cell类别,因此命名有些不同:

image-20230306150509201.png

这个差异是可以在映射表中查到的,并且没有显示存在差异,所以我们直接给它替换掉就解决啦:

image-20230306150641449.png


2.3.2 参数差异

(1)参数值差异

参数值差异是指pytorch/tensorflow与MindSpore中API的名字相同,但是一些参数的名字或者参数的含义不同,导致API在使用时功能会产生差异,比如最经典的nn.Dropout§差异

image-20230306151319638.png

PyTorch中默认输入nn.Dropout(0.2)时代表有每个参数有20%的概率被丢弃,而如果在MindSpore中不指定参数名直接输入nn.Dropout(0.2)的话代表每个参数有(1 - 0.2)即80%的概率被丢弃。这就是一个非常经典,如果大家有长期使用MindSpore的话肯定知道的差异,当然最新的版本中已经提示这种默认写法将会删除,之后就也可以直接使用nn.Dropout(0.2)啦:

image-20230306151729096.png


(2)参数初始化差异

这一块主要是有一些网络API的参数在初始化时存在不同,不要小看初始化的差异,有时候网络结构都是对的,但是结果就是对标补上,很有可能就是某些网络的参数初始化不一样,导致结果大相径庭。

比如将PyTorch线性层nn.Linear()映射为MindSpore线性层nn.Dense():

从Pytorch的官网来看,他的nn.Linear线性层中的weight和bias应该是用均匀分布初始化的

image-20230306152354217.png

而MindSpore中的nn.Dense线性层中weight使用normal初始化的,而bias使用zeros初始化的

image-20230306152524554.png


2.3.3 功能差异

其实大部分的功能差异都是因为2.3.2中参数没设置好,但是也存在一小部分API确实是功能有差异,这里举一个很简单的例子:

torch中的Tensor.transpose在MindSpore中应该是swapaxes

image-20230306152822649.png

而MindSpore中的Tensor.transpose实际上对应torch.Tensor.permute

image-20230306152928813.png

所以如果不仔细检查,看到mindspore中有transpose API就直接迁移过来的话最后的结果往往是不正确。因此大家在迁移时一定要仔细核对每一步迁移的API是否是正确的映射,多查表、多查表、多查表!!!


2.4 API缺失

极少出的情况会出现pytorch/tensorflow中的API在MindSpore查不到的情况:

  • 如果缺失的API是非常重要并且常用,那么大家可以在mindspore官方gitee仓库中提交issue申请补充该API(但是一般常用的APi都已经有了,很少有这种情况)

  • 如果该API在numpy中有相应实现,我们可以调用numpy的 API生成数据之后再用mindspore.Tensor包装起来:

    比如mindspore中没有这个finfo API

image-20230306153705871.png

我们可以用numpy.finfo得到相同的数据之后包装成mindspore.Tensor

image-20230306153833422.png

  • 如果该API使用频率不高,并且numpy中也没有相应实现,那么我们可以自己用python写一个类来实现该API的功能。即写一个类,实现其初始化函数和运行函数,然后调用即可,具体实现方法这里就不赘述。

2.5 注意事项

  • 如果存在Dropout、BatchNorm等训练和预测阶段行为不一致的,或存在随机性的,需要将模块设置为预测模式:

    Pytorch:module.eval()

    MindSpore: cell.set_train(False)

  • MindSpore和Pytorch的参数命名可能不同,如:

    Pytorch: nn.Embedding.weight, MindSpore: nn.Embedding.embedding_table

    Pytorch: nn.BatchNorm1d.weight, MindSpore: nn.BatchNorm1d.gamma

    Pytorch: nn.BatchNorm1d.bias, MindSpore: nn.BatchNorm1d.beta

  • 由于框架机制不同,Pytorch部分操作无需转换,直接删除即可:

    Tensor.contiguous()

    Tensor.to(device)


3、迁移验证

清楚了网络迁移应该干什么,以及如何查找对应的API之后,我们就可以对自己迁移的网络进行验证了,验证主要包括两个方面:输出shape验证、输出精度验证,验证流程从小到大依次为单模块验证、整网验证、checkpoint验证。

3.1 单模块验证

单模块验证就是对网络中每个单独的模块进行验证,比如对于迁移好的GPT2MLP:

image-20230306154619174.png

我们需要对它进行测试验证,那怎么做呢?实际上网络说复杂了是网络,说简单点就是一堆函数的拼接,我们测试的一个模块就是一个小的函数,只不过它是一个类别的正向运行函数(forward/construct,只是命名差异,pytorch中叫forward,mindspore中叫construct)罢了。所以想要验证迁移结果是否正确,我们只需要实例化迁移前和迁移后的两个类别,然后给他们的正向运行函数输入相同的数值,再对标两个函数的输出结果即可。以下给出简单的实现:

import numpy as np
import modeling_gpt2, gpt2, configuration_gpt2, config_gpt2

if __name__ == "__main__":
    config_pt = configuration_gpt2.GPT2Config()    // 获取pytorch的配置
    config_ms = config_gpt2.GPT2Config()           // 获取mindspore的配置
    
    pt_net = modeling_gpt2.GPT2MLP(config_pt)      // 实例化pytorch的GPT2MLP模块
    ms_net = gpt2.GPT2MLP(config_ms)               // 实例化mindsproe的GPT2MLP模块
    
    input_np = np.random.randint(0, 10, (2, 512))  // 使用numpy随机生成一个shape为(2, 512)的numpy.array
    pt_input = torch.tensor(input_np)              // 将numpy.array转化为pytorch.Tensor
    ms_input = mindspore.Tensor(input_np)          // 将numpy.array转化为mindspore.Tensor

    pt_out = pt_net(pt_input)                      // 调用pytorch正向函数GPT2MLP.forward()计算结果
    ms_out = ms_net(ms_input)                      // 调用mindspore正向函数GPT2MLP.construct()计算结果
    
    assert pt_out.size() == ms_out.shape           // 对比pytorch和mindspore输出的shape,必须相同否则迁移出错
    
    loss = 1e-3                                    // 精度误差一般为1e-5,最大为1e-3,必须小于1e-3否则迁移出错
    assert np.allclose(pt_out.detach().numpy(), ms_out.asnumpy(), loss, loss) // 将结果全部转成array然后对比精度

最终我们的目的就是要给pytorch和mindspore的两个模块输入相同的数据,他们的输出shape完全一致,精度误差在1e-3之内就代表该模块基本迁移成功了。每个模块都这样子验证正确之后,我们就可以尝试把整个网络搭建起来然后进行验证了


3.2 整网验证

整网验证其实和每个模块测试验证没啥区别,网络说白了就是个大函数,所以就把GPT2MLP改成GPT2Model其实就差不多了,无非就是输出可能多几个。

当然我说的仅仅只是测试代码很好写,和模块测试没啥区别,但是整个网络连起来之后可能会出现单模块测试时未出现的bug,这也很正常,如果出现bug一点点debug检查就好了。

import numpy as np
import modeling_gpt2, gpt2, configuration_gpt2, config_gpt2

if __name__ == "__main__":
    config_pt = configuration_gpt2.GPT2Config()    // 获取pytorch的配置
    config_ms = config_gpt2.GPT2Config()           // 获取mindspore的配置
    
    pt_net = modeling_gpt2.GPT2Model(config_pt)      // 实例化pytorch的GPT2MLP模块
    ms_net = gpt2.GPT2Model(config_ms)               // 实例化mindsproe的GPT2MLP模块
    
    input_np = np.random.randint(0, 10, (2, 512))  // 使用numpy随机生成一个shape为(2, 512)的numpy.array
    pt_input = torch.tensor(input_np)              // 将numpy.array转化为pytorch.Tensor
    ms_input = mindspore.Tensor(input_np)          // 将numpy.array转化为mindspore.Tensor

    pt_out = pt_net(pt_input)                      // 调用pytorch正向函数GPT2MLP.forward()计算结果
    ms_out = ms_net(ms_input)                      // 调用mindspore正向函数GPT2MLP.construct()计算结果
    
    assert pt_out.size() == ms_out.shape           // 对比pytorch和mindspore输出的shape,必须相同否则迁移出错
    
    loss = 1e-3                                    // 精度误差一般为1e-5,最大为1e-3,必须小于1e-3否则迁移出错
    assert np.allclose(pt_out.detach().numpy(), ms_out.asnumpy(), loss, loss) // 将结果全部转成array然后对比精度

最终我们需要达到的目的和模块验证一致,向pytorch和mindspore的整个网络输入相同的数据,最终要求网络输出的个数相同、shape一致、精度误差在1e-3以内。满足以上要求我们就可以进行最后的checkpoint验证了。


3.3 checkpoint验证

以上的验证都是在检查网络的流程以及计算是否正确,而其中网络的参数都是随机初始化的,而为了达到迁移的最终目的:”直接调用训练好的预训练模型,可以达到与原论文相同的结果“。我们必须将预训练好的模型参数checkpoint导入进来,然后在”指定参数“的情况下再进行一次整网验证,如果也能够满足网络输出的个数相同、shape一致、精度误差在1e-3以内的要求,那么我们的checkpoint验证也就成果啦,这就说明这个GPT2Model真正迁移成功了。下面我简要介绍一下应该如何进行checkpoint验证


3.3.1 checkpoint下载

一般NLP这边的大模型官方是有预训练的参数的,但是有些官方放出来的网站死活就是打不开,因此我还是推荐大家使用hugging face中来下载checkpoint:

以GPT2为例,我们前往GPT2的hugging face网址gpt2 at main (huggingface.co),点击其中的Files and version,这个界面存放了gpt2不同版本的配置文件以及模型预训练参数,我使用的是pytorch版本,因此我下载pytorch_model.bin以及pytorch和tensorflow通用的config.json配置文件。

image-20230306161140430.png

将pytorch_model.bin和config.json上传到服务器的同一个文件夹内:

image-20230306161425076.png

接下来进行checkpoint的导入和转换


3.3.2 checkpoint导入与转换

由于我们手上的是pytorch的预训练参数,所以我们先参照hugging face中提供的使用样例将这个pytorch_model.bin导入

(1)导入pytorch预训练参数

import torch
from transformers import GPT2Model, GPT2Config

model_name = '/home/xxxxxx/wzb/mindnlp/pt_pretrained'               // pytorch checkpoint存放路径
model_config = GPT2Config.from_pretrained(model_name)               // 导入GPT2配置
pt_net = GPT2Model.from_pretrained(model_name, config=model_config) // 导入GPT2 checkpoint中的参数

(2)创建MindSpore的GPT2Model模型

import mindspore
from mindnlp.models.gpt2 import gpt2, config_gpt2

ms_config = config_gpt2.GPT2Config()                                // 获取mindspore GPT2配置
ms_net = gpt2.GPT2Model(config=ms_config)                           // 创建mindspore GPT2Model

(3)核对参数是否对应

获取pytorch和mindspore的网络参数字典,而由于pytorch和mindspore中有部分网络参数的命名不同,所以我们需要核对一下两边的参数是不是都能对应的上:

pt_dict = pt_net.state_dict()                                       // 获取pytorch整网参数字典
ms_dict = ms_net.parameters_dict()                                  // 获取mindspore整网参数字典

常见参数命名差异对比

pytorch mindspore
weight embedding_table(embedding层)
weight gamma(Dense线性层)
bias beta(Dense线性层)

获取了pt_dict和ms_dict之后我们可以将他们打印出来看看参数是否能够对应

for pt_key in pt_dict:                                               // 打印pytorch所有参数名
    print(pt_key)
print("+++++++++++++++++++++++++++++++++++++++++")                   // 分界线
for ms_key in ms_dict:                                               // 打印mindspore所有参数名
	print(ms_key)

打印出来之后自己人眼核对那可太累了,我推荐大家使用excel来进行比对。由于print()会自动换行,所以我们将pytorch和mindspore的参数复制之后直接粘贴到excel表格中的两列,复制好之后第一件事就是直接看一下两边的参数个数是否相同(查看这两列的行数是否相同):

image-20230306163732734.png

image-20230306164210528.png

粘贴之后,由于我们知道存在一些命名的差异,因此我们点击mindspore这一列然后ctrl+f之后选择替换,将gamma换成weight,将beta换成bias,得到:

image-20230306163804009.png

image-20230306163836476.png

之后我们利用Excel的Exact()函数直接比较pytorch和mindspore每一行的字符串是否相同:

image-20230306164020668.png

可以看到,除了前两行,后面的参数都是一致的,而前两行不一致其实也是正常的,因为只有一个embeeding层,所以我就没有将embedding_table替换为weight,实际上是对的,至此参数全部对应正确后核对结束。

(4)参数导入

参数对应一致后,我们需要将pytorch网络的参数导入mindspore的网络,同时需要注意对名称不一致参数的替换处理:

for key, parameter in ms_net.parameters_and_names():                // 获取ms模型的参数名和数值
    if 'embedding_table' in key:                                    // 参数名中的embedding_table替换为weight
        key = key.replace('embedding_table', 'weight')
    elif 'gamma' in key:
        key = key.replace('gamma', 'weight')                        // 参数名中的gamma替换为weight
    elif 'beta' in key:
        key = key.replace('beta', 'bias')                           // 参数名中的beta替换为bias
    // 依据key获取pytorch中相应参数的数值并赋给mindspore当前参数parameter,上面替换参数名就是为了get(key)的时候不会找不到
    parameter.set_data(mindspore.Tensor(pt_dict.get(key).detach().numpy()))

参数全部正确导入之后我们就可以进入最终的checkpoint整网验证了


3.3.3 checkpoint整网验证

获取了Pytorch和MindSpore导入了参数的网络后,我们就可以和之前的3.2整网验证一样,构造输入然后验证输出是否对标,最终整体代码如下:

import torch
import mindspore
import numpy as np
from transformers import GPT2Model, GPT2Config

from mindnlp.models.gpt2 import gpt2, config_gpt2

if __name__ == "__main__":
    model_name = '/home/xxxxxx/wzb/mindnlp/pt_pretrained'
    model_config = GPT2Config.from_pretrained(model_name)
    pt_net = GPT2Model.from_pretrained(model_name, config=model_config)
    ms_config = config_gpt2.GPT2Config()
    ms_net = gpt2.GPT2Model(config=ms_config)

    pt_dict = pt_net.state_dict()
    ms_dict = ms_net.parameters_dict()
    for key, parameter in ms_net.parameters_and_names():
        if 'embedding_table' in key:
            key = key.replace('embedding_table', 'weight')
        elif 'gamma' in key:
            key = key.replace('gamma', 'weight')
        elif 'beta' in key:
            key = key.replace('beta', 'bias')
        parameter.set_data(mindspore.Tensor(pt_dict.get(key).detach().numpy()))

    input_ids = np.random.randint(0, 10, (2, 512))
    pt_input = torch.tensor(input_ids)
    ms_input = mindspore.Tensor(input_ids)

    pt_out = pt_net(pt_input)
    ms_out = ms_net(ms_input)

    assert pt_out.size() == ms_out.shape
    print("shape对标通过")

    loss = 1e-3
    assert np.allclose(pt_out.detach().numpy(), ms_out.asnumpy(), loss, loss)
    print("精度对标通过,误差:%f", loss)

如果最终输出个数、shape和精度全部通过,那么恭喜你网络GPT2Model迁移成功,之后你只需要重复以上的操作,把其他的GPT2变形全部迁移成功,本次MindNLP的预训练模型迁移工作就做完成了,完结撒花!!!


总结

通过本文的阅读,大家应该是能够了解MindNLP的预训练模型迁移工作需要做什么,怎么做以及怎么验证结果。而如果大家能够独立完成一个Model的迁移工作,就会发现目前的MindSpore2.0.0实际上已经比较好用了,API丰富并且映射表格非常详细,对于差异的描述也非常清晰,报错信息也比之前精准多了(当然还是需要努力)。看来在大家共同的努力下,MindSpore还是取得了非常显著的提升,当然距离最初设想的动静统一目标还是有不小的差距,还是需要不断的查漏补缺。

综合来说,国产深度学习框架的发展道阻且长、任重而道远,很开心自己能够为其贡献自己的一份力。同时作为昇思MindSpore的布道师我想说:从未使用过MindSpore的同学可以基于这篇文章来体验一下MindSpore,曾经使用过但是因为各种原因“退坑”了的同学也不妨试一下MindSpore2.0,真的比以前的体验好了很多!

那么就到这了,下次再见!我是Super_WZB,一个想像超级马里奥一样顶破砖块不断上升的程序员。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。