pytorch 和nltk 结合训练的例子

举报
毛利 发表于 2021/07/15 07:06:50 2021/07/15
【摘要】 对于任何一个深度学习的框架,都能够训练文本数据,当然NLTK在自然语言处理也占有一定的名声和权重 任何东西都离不开你我 来源 github # 导入torch的模块 import torch import torch.nn as nn from torch.autograd import Variable import torch.optim as optim i...

对于任何一个深度学习的框架,都能够训练文本数据,当然NLTK在自然语言处理也占有一定的名声和权重

任何东西都离不开你我

来源 github

# 导入torch的模块
import torch
import torch.nn as nn
from torch.autograd import Variable
import torch.optim as optim
import torch.nn.functional as F
import nltk
import random
import numpy as np
from collections import Counter
flatten = lambda l: [item for sublist in l for item in sublist]
random.seed(1024)

  
 
flatten([[1,2,3]]) # [1, 2, 3]

  
 

这个配置GPU的,我觉得CPU 也可以,速度不是很慢

# USE_CUDA = torch.cuda.is_available()
# gpus = [0]
# torch.cuda.set_device(gpus[0])
# FloatTensor = torch.cuda.FloatTensor if USE_CUDA else torch.FloatTensor
# LongTensor = torch.cuda.LongTensor if USE_CUDA else torch.LongTensor
# ByteTensor = torch.cuda.ByteTensor if USE_CUDA else torch.ByteTensor

  
 
# 批处理
def getBatch(batch_size, train_data): random.shuffle(train_data) sindex = 0
 
  
 

文章来源: maoli.blog.csdn.net,作者:刘润森!,版权归原作者所有,如需转载,请联系作者。

原文链接:maoli.blog.csdn.net/article/details/90741179

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。