【学习笔记】AI全栈成长计划-AI应用篇-第二章 人工智能的诗与远方:NLP案例开发
【摘要】 1、NLP介绍自然语言处理(Natural Language Processing,简称NLP)就是用计算机来处理、理解以及运用人类语言(如中文、英文等),它属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。2、jieba中文分词组件特点:1)支持三种分词模式 *精确模式,试图将句子最精确地切开,适合文本分析; *全模式,把句子中所有的可以成词的词语都...
1、NLP介绍
自然语言处理(Natural Language Processing,简称NLP)就是用计算机来处理、理解以及运用人类语言(如中文、英文等),它属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。
2、jieba中文分词组件特点:
1)支持三种分词模式
*精确模式,试图将句子最精确地切开,适合文本分析;
*全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
*搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
2)支持繁体分词
3)支持自定义分词
4)MIT授权协议
3、华为云对话机器人服务
智能问答机器人服务特点:
1)敏捷构建
2)接口丰富
3)智能的问答管理
4)全面的对话管理
5)高效训练部署
任务型对话机器人(智能话务)
适用于电核、营销、回访、预约等场景
定制对话机器人
1)多机器人智能融合,更全面
2)多轮智能引导,更懂你
3)知识图谱,更聪明
智能质检服务
1)结合坐席辅助系统,提供实时的质检服务
2)为传统呼叫中心坐席,提供离线质检服务
4、BERT模型完成中文命名实体识别
BERT是2018年google 提出来的预训练的语言模型,并且它打破很多NLP领域的任务记录,其提出在nlp的领域具有重要意义。预训练的(pre-train)的语言模型通过无监督的学习掌握了很多自然语言的一些语法或者语义知识,之后在做下游的nlp任务时就会显得比较容易。
首先BERT模型采用的是12层或者24层的双向的Transformer的Encoder作为特征提取器
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)