Pytorch 基于LeNet的手写数字识别

举报
小嗷犬 发表于 2022/11/08 13:44:42 2022/11/08
【摘要】 Pytorch 基于LeNet的手写数字识别

✅作者简介:人工智能专业本科在读,喜欢计算机与编程,写博客记录自己的学习历程。
🍎个人主页:小嗷犬的博客
🍊个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
🥭本文内容:Pytorch 基于LeNet的手写数字识别
更多内容请见👇


@TOC


介绍

使用到的库:

  • Pytorch
  • matplotlib

安装:

pip install matplotlib

Pytorch 环境配置请自行百度。

数据集:
使用 MNIST 数据集(Mixed National Institute of Standards and Technology database)。是美国国家标准与技术研究院收集整理的大型手写数字数据库,包含60,000个示例的训练集以及10,000个示例的测试集。
MNIST

下载地址:
http://yann.lecun.com/exdb/mnist/
本文使用 Pytorch 自动下载。

LeNet 是由 Yann Lecun 提出的一种经典的卷积神经网络,是现代卷积神经网络的起源之一。本文使用的 LeNetLeNet-5。结构图如下:
LeNet-5


1.导入相关库

import torch
from torch import nn
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt

2.定义 LeNet-5 网络结构

# reshape输入为28*28的图像
class Reshape(nn.Module):
    def forward(self, x):
        return x.view(-1, 1, 28, 28)


# 定义网络
net = nn.Sequential(Reshape(), nn.Conv2d(1, 6, kernel_size=5, padding=2), nn.Sigmoid(),
                    nn.AvgPool2d(kernel_size=2, stride=2),
                    nn.Conv2d(6, 16, kernel_size=5), nn.Sigmoid(),
                    nn.AvgPool2d(kernel_size=2, stride=2),
                    nn.Flatten(),
                    nn.Linear(16*5*5, 120), nn.Sigmoid(),
                    nn.Linear(120, 84), nn.Sigmoid(),
                    nn.Linear(84, 10))

3.下载并配置数据集和加载器

# 下载并配置数据集
train_dataset = datasets.MNIST(root='./dataset', train=True,
                               transform=transforms.ToTensor(), download=True)
test_dataset = datasets.MNIST(root='./dataset', train=False,
                              transform=transforms.ToTensor(), download=True)

# 配置数据加载器
batch_size = 64
train_loader = DataLoader(dataset=train_dataset,
                          batch_size=batch_size, shuffle=True)
test_loader = DataLoader(dataset=test_dataset,
                         batch_size=batch_size, shuffle=True)

4.定义损失函数和优化器

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(net.parameters())

5.定义训练函数并训练和保存模型

def train(epochs):
    # 训练模型
    for epoch in range(epochs):
        for i, (images, labels) in enumerate(train_loader):
            outputs = net(images)
            loss = criterion(outputs, labels)
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()

            if i % 50 == 0:
                print(
                    f'Epoch: {epoch + 1}, Step: {i + 1}, Loss: {loss.item():.4f}')

        correct = 0
        total = 0
        for images, labels in test_loader:
            outputs = net(images)
            _, predicted = torch.max(outputs.data, 1)
            total += labels.size(0)
            correct += (predicted == labels).sum().item()

        print(f'Accuracy: {correct / total * 100:.2f}%')

    # 保存模型
    torch.save(net.state_dict(),
               f"./model/LeNet_Epoch{epochs}_Accuracy{correct / total * 100:.2f}%.pth") 


train(epochs=5)

6.可视化展示

def show_predict():
    # 预测结果图像可视化
    loader = DataLoader(dataset=test_dataset, batch_size=1, shuffle=True)
    plt.figure(figsize=(8, 8))
    for i in range(9):
        (images, labels) = next(iter(loader))
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        title = f"Predicted: {predicted[0]}, True: {labels[0]}"
        plt.subplot(3, 3, i + 1)
        plt.imshow(images[0].squeeze(), cmap="gray")
        plt.title(title)
        plt.xticks([])
        plt.yticks([])
    plt.show()

show_predict()

7.预测图

结果来自训练轮数epochs=10,准确率Accuracy=98.42%的模型:
预测图1

包含错误预测的结果:
预测图2


8.加载现有模型(可选)

本文的训练函数会保存每次训练的模型,下一次预测可以不调用训练函数,而是直接加载已经保存的模型来进行预测:

# 加载保存的模型
net.load_state_dict(torch.load("./model/LeNet_Epoch10_Accuracy98.42%.pth"))

请根据自己的情况修改路径。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。