神经网络--基于mnist数据集取得最高的识别准确率
【摘要】 神经网络--基于mnist数据集取得最高的识别准确率
前言:
Hello大家好,我是Dream。 今天来学习一下如何基于mnist数据集取得最高的识别准确率,本文是从零开始的,如有需要可自行跳至所需内容~
@TOC
说明:在此试验下,我们使用的是使用tf2.x版本,在jupyter环境下完成
在本文中,我们将主要完成以下这个任务:
- 基于mnist数据集,尽量取得更好的识别准确率。注意,要使用非训练集内容,通过evaluate方法得出准确率
1.调用库函数
import tensorflow as tf
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.layers import Conv2D,MaxPooling2D,BatchNormalization,Flatten,Dense
指定当前程序使用的 GPU
# 指定当前程序使用的 GPU
gpus = tf.config.experimental.list_physical_devices('GPU')
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
2.调用数据集
# 调用数据集
(train_X, train_y),(test_X, test_y) = tf.keras.datasets.mnist.load_data()
train_X, test_X = train_X / 255.0, test_X / 255.0
train_X = train_X.reshape(-1, 28, 28, 1)
train_y = tf.keras.utils.to_categorical(train_y)
X_train, X_test, y_train, y_test = train_test_split(train_X, train_y, test_size=0.1, random_state=0)
3.选择模型,构建网络
在此我们使用的是CNN网络,以此搭建Conv2D层、MaxPooling2D层网络
# 选择模型,构建网络
model = tf.keras.Sequential()
model.add(Conv2D(64, (3, 3), activation='relu', input_shape=(28, 28, 1))), #添加Conv2D层
model.add(Conv2D(64, (3, 3), activation='relu')), #添加Conv2D层
model.add(MaxPooling2D((2, 2), strides=2)), #添加MaxPooling2D层
model.add(BatchNormalization()),
model.add(Conv2D(128, (3, 3), activation='relu')), #添加Conv2D层
model.add(Conv2D(128, (3, 3), activation='relu')), #添加Conv2D层
model.add(MaxPooling2D((2, 2), strides=2)), #添加MaxPooling2D层
model.add(BatchNormalization()),
model.add(Conv2D(256, (3, 3), activation='relu')), #添加Conv2D层
model.add(MaxPooling2D((2, 2), strides=2)), #添加MaxPooling2D层
model.add(BatchNormalization()),
model.add(Flatten()), #展平
model.add(Dense(512, activation='relu')),
model.add(Dense(10, activation='softmax'))
4.编译
使用交叉熵作为loss函数,指定优化器、损失函数和验证过程中的评估指标
# 编译(使用交叉熵作为loss函数)
model.compile(optimizer='adam', #指定优化器
loss="categorical_crossentropy", #指定损失函数
metrics=['accuracy']) #指定验证过程中的评估指标
# 展示训练的过程
display(model.summary())
这里是输出的结果:
5.数据增强
在这里我们使用数据增强方法,更好的提高准确率
# 数据增强
datagen = ImageDataGenerator(
rotation_range=15,
zoom_range = 0.01,
width_shift_range=0.1,
height_shift_range=0.1)
train_gen = datagen.flow(X_train, y_train, batch_size=128)
test_gen = datagen.flow(X_test, y_test, batch_size=128)
6.训练
首先我们批量输入的样本个数,然后经过我们测试分析,此模型训练到30轮之前变化趋于静止,我们可以只进行30个epoch。
# 批量输入的样本个数
batch_size = 128
train_steps = X_train.shape[0] // batch_size
valid_steps = X_test.shape[0] // batch_size
# 经过我们测试分析,此模型训练到30轮之前变化趋于静止,我们可以只进行30个epoch
es = tf.keras.callbacks.EarlyStopping(
monitor="val_accuracy",
patience=10,
verbose=1,
mode="max",
restore_best_weights=True)
rp = tf.keras.callbacks.ReduceLROnPlateau(
monitor="val_accuracy",
factor=0.2,
patience=5,
verbose=1,
mode="max",
min_lr=0.00001)
# 训练(训练30个epoch)
history = model.fit(train_gen,
epochs = 30,
steps_per_epoch = train_steps,
validation_data = test_gen,
validation_steps = valid_steps,
callbacks=[es, rp])
这里是输出的结果:
7.画出图像
使用plt模块进行数据可视化处理
# 画出图像
fig, ax = plt.subplots(2,1, figsize=(14, 10))
ax[0].plot(history.history['loss'], color='red', label="Loss")
ax[0].legend(loc='best', shadow=False)
ax[1].plot(history.history['accuracy'], color='red', label="Accuracy")
ax[1].legend(loc='best', shadow=False)
plt.show()
这里是输出的结果:
8.输出
最后在测试集上进行模型评估,输出测试集上的预测准确率
score = model.evaluate(X_test, y_test) # 在测试集上进行模型评估
print('测试集预测准确率:', score[1]) # 打印测试集上的预测准确率
这里是输出的结果:
9.结果
最后的结果:mnist数据集最终的准确率是: 0.996833
源码获取
关注此公众号:人生苦短我用Pythons
,回复 神经网络实验
获取源码,快点击我吧
🌲🌲🌲 好啦,这就是今天要分享给大家的全部内容了,我们下期再见!
❤️❤️❤️如果你喜欢的话,就不要吝惜你的一键三连了~
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)