《深度学习与图像识别:原理与实践》—3.3.2 KNN实现Cifar10数据分类
3.3.2 KNN实现Cifar10数据分类
3.3.1节中,我们讲解了什么是MNIST数据集,以及如何使用KNN算法进行图像分类,从分类的准确率来看,KNN算法的效果还是可以的。本节我们将进一步使用稍微复杂一些的Cifar10数据集进行实验。
1. Cifar10数据集
Cifar10是一个由彩***像组成的分类的数据集(MNIST是黑白数据集),其中包含了飞机、汽车、鸟、猫、鹿、狗、青蛙、马、船、卡车10个类别(如图3-8所示),且每个类中包含了1000张图片。整个数据集中包含了60 000张32×32的彩***片。该数据集被分成50 000和10 000两部分,50 000是training set,用来做训练;10 000是test set,用来做验证。
图3-8 Cifar10数据集示例
Cifar10官方数据源提供多种语言的数据集,如果你从官方数据源下载Cifar10的Python版的数据集,那么数据集的结构是这样的:
batches.meta
data_batch_1
data_batch_2
data_batch_3
data_batch_4
data_batch_5
test_batch
readme.html
Cifar10是按字典的方式进行组织的,每一个batch中包含的内容具体如下。
data:图片的信息,组织成10 000×3072的大小,3072是将原来的3×32×32的图片序列化之后的大小,原来32×32的RGB图像按照R、G、B三个通道分别摆放成一个向量,所以恢复的时候会分别恢复出三个通道,在显示图像的时候需要merge一下。
labels:对应于data里面的每一张图片所属的label。
batch_label:当前所使用的batch的编号。
filenames:数据集里面每一张图片所对应的文件名(这个不太重要)。
其中,batches.meta保存的是元数据,是一个字典结构,其所包含的内容具体如下。
num_cases_per_batch:每一个batch的数据的数量是多少,这里是10 000。
label_names:标签的名称,在数据集中标签是按index分类的,相应的index的名字就在这里。
num_vis:数据的维度,这里是3072。
我们依然使用PyTorch来读取Cifar10数据集,完整的代码具体如下:
import torch
from torch.utils.data import DataLoader
import torchvision.datasets as dsets
batch_size = 100
#Cifar10 dataset
train_dataset = dsets.CIFAR10(root = '/ml/pycifar', #选择数据的根目录
train = True, #选择训练集
download = True) #从网络上下载图片
test_dataset = dsets.CIFAR10(root = '/ml/pycifar', #选择数据的根目录
train = False, #选择测试集
download = True) #从网络上下载图片
#加载数据
train_loader = torch.utils.data.DataLoader(dataset = train_dataset,
batch_size = batch_size,
shuffle = True) #将数据打乱
test_loader = torch.utils.data.DataLoader(dataset = test_dataset,
batch_size = batch_size,
shuffle = True)
下面来看下我们需要分类的图片是什么样的,代码如下:
classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
digit = train_loader.dataset.train_data[0]
import matplotlib.pyplot as plt
plt.imshow(digit,cmap=plt.cm.binary)
plt.show()
print(classes[train_loader.dataset.train_labels[0]]) #打印出是frog
classes是我们定义的类别,其对应的是Cifar中的10个类别。使用PyTorch读取的类别是index,所以我们还需要额外定义一个classes来指向具体的类别。最后我们看下图3-9的效果,由于只有32×32个像素,因此图3-9比较模糊。
2. KNN在Cifar10上的效果
之前章节中也已经提到过KNN分类算法,现在我们主要观察下KNN对于Cifar10数据集的分类效果,与之前MNIST数据集不同的是,X_train = train_loader.dataset.train_data,X_train的dtype是uint8而不是torch.uint8,所以不需要使用numpy()这个方法进行转换,示例代码如下:
def getXmean(X_train):
X_train = np.reshape(X_train, (X_train.shape[0], -1))
#将图片从二维展开为一维
mean_image = np.mean(X_train, axis=0)
#求出训练集中所有图片每个像素位置上的平均值
return mean_image
def centralized(X_test,mean_image):
X_test = np.reshape(X_test, (X_test.shape[0], -1)) #将图片从二维展开为一维
X_test = X_test.astype(np.float)
X_test -= mean_image #减去均值图像,实现零均值化
return X_test
X_train = train_loader.dataset.train_data
mean_image = getXmean(X_train)
X_train = centralized(X_train,mean_image)
y_train = train_loader.dataset.train_labels
X_test = test_loader.dataset.test_data[:100]
X_test = centralized(X_test,mean_image)
y_test = test_loader.dataset.test_labels[:100]
num_test = len(y_test)
y_test_pred = kNN_classify(6, 'M', X_train, y_train, X_test)#这里并没有使用封装好的类
num_correct = np.sum(y_test_pred == y_test)
accuracy = float(num_correct) / num_test
print('Got %d / %d correct => accuracy: %f' % (num_correct, num_test, accuracy))
在上述代码中,我们使用了k=6,读者可以自行测试k的其他值或者更换距离度量,进一步观察预测的准确率。
- 点赞
- 收藏
- 关注作者
评论(0)