《TensorFlow自然语言处理》—1.7 总结
【摘要】 本节书摘来自华章计算机《TensorFlow自然语言处理》一书中的第1章,第1.7节,[澳] 图珊·加内格达拉(Thushan Ganegedara) 著 马恩驰 陆 健 译。
1.7 总结
在本章中,通过广泛探索NLP,我们了解了构建基于NLP的良好系统所涉及的任务类型。首先,我们解释了为什么需要NLP,然后讨论NLP的各种任务,以便大致了解每项任务的目标以及在这些任务中取得成功的难度。接下来,我们研究了解决NLP的经典方法,并使用生成足球比赛的摘要作为例子,了解流程的细节。我们看到传统方法通常涉及烦琐乏味的特征工程。例如,为了检查生成的短语的正确性,我们可能需要为该短语生成一个解析树。接下来,我们讨论了深度学习所带来的范式转变,并看到了深度学习如何使特征工程步骤变得过时。我们回顾了深度学习和人工神经网络的历史,然后介绍了有数百个隐藏层的大规模现代网络。之后,我们通过一个简单的例子来阐明一个深层模型(多层感知器模型)来理解在这样一个模型中的数学原理。
有了传统和现代NLP方法的良好基础后,我们讨论了本书主题的路线图,从学习词嵌入到强大的LSTM,从生成图像的标题到神经机器翻译。最后,我们介绍了如何安装Python、scikit-learn、Jupyter Notebook和TensorFlow来设置我们的环境。
在下一章中,你将学习TensorFlow的基础知识,学习结束时,你应该学会编写一个简单算法,它可以接受输入,并通过定义的函数对输入进行转换,最后输出结果。
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)