人工智能,应该如何测试?(四)模型全生命周期流程与测试图

举报
Tester_muller 发表于 2024/04/07 15:48:43 2024/04/07
【摘要】 这些日子讲了很多东西,但比较乱,我这里补充一下完整的业务和测试流程。 生命周期流程图根据数据闭环,我画出了上面的图,并标记了其中测试人员要参与的活动(浅蓝色)。下面我一一分析一下这些测试活动的含义。离线模型测试阶段:在模型的生命周期中,会涉及到 3 种数据。 训练集,验证集和测试集,其中训练集用来训练模型,验证集用来算法自测。 而测试人员需要自行采集/挖掘(要根据用户画像每种类别的数据都要采...

这些日子讲了很多东西,但比较乱,我这里补充一下完整的业务和测试流程。

生命周期流程图

image.png

根据数据闭环,我画出了上面的图,并标记了其中测试人员要参与的活动(浅蓝色)。下面我一一分析一下这些测试活动的含义。

  • 离线模型测试阶段:在模型的生命周期中,会涉及到 3 种数据。 训练集,验证集和测试集,其中训练集用来训练模型,验证集用来算法自测。 而测试人员需要自行采集/挖掘(要根据用户画像每种类别的数据都要采集到)符合场景的测试的数据。 根据测试数据对模型进行完整的评估(AUC,召回,精准等等)
  • 线上线下一致性测试: 模型的离线和在线是采取完全不同的代码进行的特征工程(模型不接受原始数据,数据需要经过特征工程后输入到模型),要保证两边的特征工程完全一致是很难的。 所以要进行一致性的测试。
  • A/B Test: 模型即便在离线进行了充分的测试,但线上的情况瞬息万变,模型上线是一个严谨的过程。 我们希望模型更新的过程更加严谨。 所以往往会让新旧模型共存一段时间。比如我们先把 10% 的流量切给新模型, 90% 的流量依然发送到老模型中。 然后待观察效果没有问题后,再切 20% 的流量到新模型上,以此类推, 直到最后新模型完全替代老模型。
  • 线上模型监控:因为用户行为瞬息万变,可能随便一个社会性时间用户的行为就发生了重大的改变。 所以我们需要实时的监控线上效果。
  • 数据质量测试:新采集的数据要加入到自学习之前,需要验证数据本身的质量。以免犹豫数据本身出现了问题导致模型效果的偏差。
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。