NLTK-004:加工原料文本
从网络和硬盘访问文本
编号 2554 的文本是《罪与罚》的英文翻译,我们可以用如下方式访问它。
from urllib import request
url = "http://www.gutenberg.org/files/2554/2554.txt"
response = request.urlopen(url)
raw = response.read().decode('utf8')
- 1
- 2
- 3
- 4
(如果是404之类的,得找个代理外网IP,下面访问的都一样… )
所以假设获取到了内容。变量raw是这本书原始的内容,包括很多我们不感兴趣的细节,如空格、换行符和空 行。请注意,文件中行尾的\r 和\n,是 Python 用来显示特殊的回车和换行字符的方式
我们要对其进行分词操作,产生一个词汇和标点符号的链表。
tokens = nltk.word_tokenize(raw)
- 1
我们现在采取进一步的步骤从这个链表创建一个 NLTK 文本
text = nltk.Text(tokens)
- 1
我们可以进行我们在之前看到的所有的其他语言的处理,也包括常规的链表操作,例如切片:
text[1024:1062]
- 1
处理HTML
网络上的文本大部分是 HTML 文件的形式。 HTML 的全部内容包括: meta 元标签、图像标签、map 标
签、JavaScript、表单和表格。
我们可以使用BeautifulSoup或者其他库来从HTML中提取文本,然后我们可以对原始文本进行分词:
from bs4 import BeautifulSoup
raw = BeautifulSoup(html).get_text()
tokens = nltk.word_tokenize(raw)
- 1
- 2
- 3
你可以选择你感兴趣的标识符,按照前面讲的那样初始化一个文本。
tokens = tokens[110:390]
text = nltk.Text(tokens)
text.concordance('gene')
- 1
- 2
- 3
访问单个字符
我们可以计数单个字符。通过将所有字符小写来忽略大小写的区分,并过滤掉非字母字符。
from nltk.corpus import gutenberg
raw = gutenberg.raw('melville-moby_dick.txt')
fdist = nltk.FreqDist(ch.lower() for ch in raw if ch.isalpha())
fdist.most_common(5)
fdist.plot()
- 1
- 2
- 3
- 4
- 5
使用 Unicode 进行文字处理
Unicode支持超过一百万种字符。每个字符分配一个编号,称为 编码点。在 Python 中 ,编码点写作\uXXXX 的形式,其中 XXXX是四位十六进制形式数。
解码:将文本翻译成Unicode;
编码:将Unicode 转化为其它编码的过程;
从文件中提取已编码文本 :
假设我们有一个小的文本文件,我们知道它是如何编码的。例如:polish-lat2.txt 顾名思义是波兰语的文本片段(来源波兰语 Wikipedia;可以在 http://pl.wikipedia.org/wiki/Biblioteka_Pruska中看到)。此文件是 Latin-2 编码的,也称为 ISO-8859-2。nltk.data.find()函数为我们定位文件。
path = nltk.data.find('corpora/unicode_samples/polish-lat2.txt')
- 1
codecs模块:提供了将编码数据读入为Unicode 字符串和将Unicode 字符串以编码形式写出的函数。
codecs.open()函数:encoding 参数来指定被读取或写入的文件的编码。
f = open(path, encoding='latin2')
for line in f:
line = line.strip()
print(line)
- 1
- 2
- 3
- 4
文章来源: blog.csdn.net,作者:考古学家lx,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/weixin_43582101/article/details/90295674
- 点赞
- 收藏
- 关注作者
评论(0)