《机器学习:算法视角(原书第2版)》 —1.7 本书的学习路线
1.7 本书的学习路线
本书尽可能地从一般到具体,简单到复杂,同时把关联的概念设计在邻近章节。鉴于我们更加关注算法而且鼓励使用实验而非从基础统计概念切入,本书从一些较老的而且相对简单的监督学习算法开始。
第2章衔接了本章介绍的许多概念,以突出机器学习的一些总体思想和数据需求,并提供了某些读者可能不需要但关乎知识完备性的基本的概率和统计知识。
第3章、第4章和第5章的主要内容遵循使用神经网络进行监督学习的主要历史轨迹,同时介绍了插值等概念。接下来是关于维度约简的章节(第6章),以及如EM算法和最近邻法这样的概率方法(第7章)。第8章介绍了最优决策边界和核方法的思想,重点是支持向量机和相关算法。
优化作为许多上述算法的基本方法之一,在第9章中进行了简要阐释,我们需要回看第4章,从优化的角度考察多层感知器。第9章的后续部分将搜索视为一种离散的优化方法。这样就自然地过渡到进化学习,包括遗传算法(第10章)、强化学习(第11章)和基于树的学习器(第12章),这些都是基于搜索的方法。第13章介绍了将多个学习器(通常是树)的预测组合起来的方法。
第14章考虑了无监督学习的重要课题,重点是自组织特征图;许多无监督学习算法也在第6章中介绍。
其余四章主要描述更现代、基于统计的机器学习方法,虽然不是所有的算法都是全新的。在第15章介绍马尔可夫链蒙特卡罗技术后,讨论了图模型,其中包括比较古老的算法,如隐马尔可夫模型、卡尔曼滤波器以及粒子滤波器和贝叶斯网络。第17章从Hopfield网络的对称网络的历史思想开始,讲解深度置信网络背后的思想。第18章给出了高斯过程的介绍。
最后,附录A介绍了Python和NumPy,使得具有一定编程语言经验的读者能够遵循书中提供的代码描述并使用书籍网站上提供的代码。
第2章到第4章包含足够的介绍性材料,这对于任何希望了解机器学习理论的人来说必不可少。对于一学期的机器学习入门课程,我将紧接着讲第6~8章,然后使用第9章的后半部分来引入第10章和第11章,然后是第14章。
更高级的课程肯定要包括第13章和第15~18章以及第9章中的优化材料。
我试图使所有材料合理地自成一体,相关的数学思想要么包含在书中的适当位置,要么在参考文献的覆盖范围里。这意味着具有一些先验知识的读者可以大胆地略过某些部分而不会有损失。
- 点赞
- 收藏
- 关注作者
评论(0)