机器学习初识
第一章 绪论
1.1 机器学习
机器学习是一门多学科交叉专业,涵盖概率论知识,统计学知识,近似理论知识和复杂算法知识,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是一门人工智能的科学,主要研究如何在经验学习中改善具体算法的性能,对能通过经验自动改进的计算机算法的研究。
1.2 研究现状
机器学习可追溯到17世纪,从贝叶斯、拉普拉斯关于最小二乘法的推导到马尔可夫链等等,这些知识奠定了了机器学习的基础。时至今日,机器学习主要向深度学习方向发展,海量的数据和计算机计算能力的大幅度提升助力了深度学习的发展,以深度学习为代表借鉴人脑的多分层结构、神经元的连接交互信息的逐层分析处理机制,自适应、自学习的强大并行信息处理能力,在很多方面收获了突破性进展,其中最有代表性的是图像识别领域。
第二章 机器学习领域著名人物
2.1 吴恩达
初识机器学习,是从吴恩达老师的《Machine Learning》课程开始的,作为机器学习入门课程,吴恩达老师尽量以直观的感受让大家了解机器学习的相关理论,对数学要求较低,很适合刚刚接触的人了解和认识机器学习。
吴恩达老师是斯坦福大学的计算机科学系和电气工程系的副教授,曾担任硅谷百度研究的首席科学家。他的主要研究领域是机器学习(深度学习)。他参与了斯坦福自动控制直升机项目和STAIR(斯坦福人工智能机器人)项目,前者开发了世界上最强大的自主直升机之一,后者产生了ROS,一种广泛使用的开源机器人软件平台。同时,他热心在线教育,与Daphne Koller共同创立的在线教育平台Coursera。
2.2 Geoffrey Hinton
Geoffrey Hinton 与Yoshua Bengio、Yann LeCun共同获得了2018年度图灵奖,表彰他们以概念和工程的突破,让深度神经网络成为计算关键部件。Geoffrey Hinton的贡献有反向传播(Back Propagation)、玻尔兹曼机(Boltzmann Machines)、改进卷积神经网络[1]。
- 反向传播(Back Propagation):1986年,在《Learning Internal Representations by Error Propagation》中,Hinton证明了反向传播能让神经网络发现自己内部的数据表征,这样便可以处理以往无法解决的问题。如今,反向传播已经是神经网络的标准操作[2]。
- 玻尔兹曼机(Boltzmann Machines):1983年,Hinton和同伴一起发明了玻尔兹曼机,那是最早能够学习神经元内部表征的网络之一:那些表征既不来自输入,也不来自输出[3]。
- 改进卷积神经网络:2012年,Hinton和学生们一起,利用线性整流神经元(Rectified Linear Neurons)和dropout 正则化改进了卷积神经网络。在ImageNet比赛上,一举获得冠军,改进后的算法几乎把物体识别的错误率降到了从前的一半,让计算机视觉领域焕然一新。
2.3 Yann LeCun
Yann LeCun,纽约大学终身教授,前Facebook人工智能研究院负责人,IJCV、PAMI和IEEE Trans 的审稿人,与Geoffrey Hinton、Yoshua Bengio并称为成为“深度学习三巨头”。因对卷积神经网络贡献巨大,被称为“CNN之父”[4]。
2.4 Yoshua Bengio
Yoshua Bengio与Geoffrey Hinton和Yann LeCun共同获得了图灵奖,被公认为世界领先的AI专家和深度学习先驱。从1993年起,他一直在蒙特利尔大学教书育人,负责计算机科学与运筹学方向。同时,他也是蒙特利尔学习算法研究所(MILA)创始人和科学主任。MILA是一家独立的非营利组织,世界上最大的深度学习研究小组,拥有来自地球上很多公司和AI创业公司的研究实验室[5]。
2.5 周志华
周志华老师毕业于南京大学计算机科学与技术系(学士、硕士、博士),现为南京大学教授,博士生导师。著作有《机器学习》,是很适合用来做为机器学习课程的中文教材,其中重要的公式推导具体到每一步,十分详尽,每一章节后面有丰富的参考文献,同时,书中将注释留在了侧面,给阅读带来了方便,同时侧面的空白位置适合做笔记或者自己的推导。
第三章 未来展望
人工智能三起三落,很大程度上是因为无法进一步发展,没有实际落地应用,机器学习和人工智能一脉相连,时至今日,无论是数据、算力,还是算法都有很大的提升,人脸识别、以语音识别为基础的智能音箱进入了千家万户,但仍处于弱人工智能时代,机器可以在某一领域成为专家,甚至超过人类,但就通用性而言,还远不如人类。从原始社会到工业革命,机器把人类从沉重的劳动中解放出来,智能化是未来的发展趋势,机器学习也会在其中担任重要的角色,同时,低功耗的边缘计算设备会有很大发展,助力应用落地,应用到实际生产生活中。
参考文献
[1] Lecun Y , Bengio Y , Hinton G . Deep learning[J]. nature, 2015, 521(7553):436.
[2] D. E. Rumelhart, G. E. Hinton, R. J. Williams. Learning internal representations by error propagation[M]// Neurocomputing: foundations of research. MIT Press, 1988.
[3] Hinton G E . Boltzmann machine[J]. encyclopedia of machine learning, 2007.
[4] Kim P . Convolutional Neural Network[M]// MATLAB Deep Learning. Apress, 2017.
[5] Kawaguchi K , Kaelbling L P , Bengio Y . Generalization in Deep Learning[J]. 2017.
- 点赞
- 收藏
- 关注作者
评论(0)