【机器学习】——简述有监督学习、半监督学习、无监督学习、弱监督学习

举报
Lingxw_w 发表于 2023/05/22 13:32:15 2023/05/22
【摘要】 简述有监督学习、半监督学习、无监督学习、弱监督学习


  • 有监督学习
  • 根据输入-输出样本对L={(x1,y1),···,(xl,yl)}学习输入到输出的映射f:X->Y,来预测测试样例的输出值。SL包括分类(Classification)和回归(Regression)两类任务,分类中的样例xi∈Rm(输入空间),类标签yi∈{c1,c2,···,cc},cj∈N;回归中的输入xi∈Rm,输出yi∈R(输出空间)。
  • 有监督学习主要分为两个方面:分类和回归。
  • KNN:Guo G, Wang H, Bell D, et al. KNN model-based approach in classification[C]//OTM Confederated International Conferences" On the Move to Meaningful Internet Systems". Springer, Berlin, Heidelberg, 2003: 986-996.
  • SVM:Cherkassky V, Ma Y. Practical selection of SVM parameters and noise estimation for SVM regression[J]. Neural networks, 2004, 17(1): 113-126.
  • 朴素贝叶斯:Rish I. An empirical study of the naive Bayes classifier[C]//IJCAI 2001 workshop on empirical methods in artificial intelligence. 2001, 3(22): 41-46.

  • 半监督学习
  • 在许多ML的实际应用中,很容易找到海量的无类标签的样例,但需要使用特殊设备或经过昂贵且用时非常长的实验过程进行人工标记才能得到有类标签的样本,由此产生了极少量的有类标签的样本和过剩的无类标签的样例。因此,人们尝试将大量的无类标签的样例加入到有限的有类标签的样本中一起训练来进行学习,期望能对学习性能起到改进的作用,由此产生了SSL,如如图1所示。SSL避免了数据和资源的浪费,同时解决了SL的 模型泛化能力不强和UL的模型不精确等问题。
  • 基于流形的学习方法: Huo X, Ni X S, Smith A K. A survey of manifold-based learning methods[J]. Recent advances in data mining of enterprise data, 2007: 691-745.
  • 基于距离度量的方法:Jianwu Z, Lu Z. Research on distance measurement based on RSSI of ZigBee[C]//2009 ISECS International Colloquium on Computing, Communication, Control, and Management. IEEE, 2009, 3: 210-212.
  • 基于样例相关性的方法:Kim J, Fessler J A. Intensity-based image registration using robust correlation coefficients[J]. IEEE transactions on medical imaging, 2004, 23(11): 1430-1444.

  • 无监督学习
  • 只给计算机训练数据,不给结果(标签),因此计算机无法准确地知道哪些数据具有哪些标签,只能凭借强大的计算能力分析数据的特征,从而得到一定的成果,通常是得到一些集合,集合内的数据在某些特征上相同或相似。利用无类标签的样例U={x1,···,xn}所包含的信息学习其对应的类标签Yu=[y1···yn]T,由学习到的类标签信息把样例划分到不同的簇(Clustering)或找到高维输入数据的低维结构。UL包括聚类(Clistering)和降维(Dimensionality Reduction)两类任务。
  • K-meansKrishna K, Murty M N. Genetic K-means algorithm[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 1999, 29(3): 433-439.
  • 奇异值分解(Singular Value Decomposition)Wall M E, Rechtsteiner A, Rocha L M. Singular value decomposition and principal component analysis[M]//A practical approach to microarray data analysis. Springer, Boston, MA, 2003: 91-109.
  • PCAMartinez A M, Kak A C. Pca versus lda[J]. IEEE transactions on pattern analysis and machine intelligence, 2001, 23(2): 228-233.

  • 弱监督学习
  • 弱监督学习是相对于监督学习而言的。同监督学习不同,弱监督学习中的数据标签允许是不完全的,即训练集中只有一部分数据是有标签的,其余甚至绝大部分数据是没有标签的;或者说数据的监督学习是间接的,也就是机器学习的信号并不是直接指定给模型,而是通过一些引导信息间接传递给机器学习模型。总之,弱监督学习涵盖的范围很广泛,可以说只要标注信息是不完全、不确切或者不精确的标记学习都可以看作是弱监督学习。
  • 弱监督学习分为三种:不完全监督,不确切监督,不精确监督。
  • 不完全监督:Zhang Z Y, Zhao P, Jiang Y, et al. Learning from incomplete and inaccurate supervision[J]. IEEE Transactions on Knowledge and Data Engineering, 2021.
  • 不确切监督:Zhang Z Y, Zhao P, Jiang Y, et al. Learning from incomplete and inaccurate supervision[J]. IEEE Transactions on Knowledge and Data Engineering, 2021.
  • 不精确监督:Locatello F, Tschannen M, Bauer S, et al. Disentangling factors of variation using few labels[J]. arXiv preprint arXiv:1905.01258, 2019.
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。