pytorch 和nltk 结合训练的例子
【摘要】 对于任何一个深度学习的框架,都能够训练文本数据,当然NLTK在自然语言处理也占有一定的名声和权重
任何东西都离不开你我
来源 github
# 导入torch的模块
import torch
import torch.nn as nn
from torch.autograd import Variable
import torch.optim as optim
i...
对于任何一个深度学习的框架,都能够训练文本数据,当然NLTK在自然语言处理也占有一定的名声和权重
任何东西都离不开你我
来源 github
# 导入torch的模块
import torch
import torch.nn as nn
from torch.autograd import Variable
import torch.optim as optim
import torch.nn.functional as F
import nltk
import random
import numpy as np
from collections import Counter
flatten = lambda l: [item for sublist in l for item in sublist]
random.seed(1024)
flatten([[1,2,3]]) # [1, 2, 3]
这个配置GPU的,我觉得CPU 也可以,速度不是很慢
# USE_CUDA = torch.cuda.is_available()
# gpus = [0]
# torch.cuda.set_device(gpus[0])
# FloatTensor = torch.cuda.FloatTensor if USE_CUDA else torch.FloatTensor
# LongTensor = torch.cuda.LongTensor if USE_CUDA else torch.LongTensor
# ByteTensor = torch.cuda.ByteTensor if USE_CUDA else torch.ByteTensor
# 批处理
def getBatch(batch_size, train_data): random.shuffle(train_data) sindex = 0
文章来源: maoli.blog.csdn.net,作者:刘润森!,版权归原作者所有,如需转载,请联系作者。
原文链接:maoli.blog.csdn.net/article/details/90741179
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)