解决read_data_sets (from tensorflow.contrib.learn.python.learn.dat

举报
皮牙子抓饭 发表于 2023/10/20 09:27:19 2023/10/20
【摘要】 解决read_data_sets (from tensorflow.contrib.learn.python.learn.datasets.mnist) is deprecated and will be removed in a future version的问题最近在使用TensorFlow开发深度学习模型时,遇到了一个警告信息:​​read_data_sets (from tensor...

解决read_data_sets (from tensorflow.contrib.learn.python.learn.datasets.mnist) is deprecated and will be removed in a future version的问题

最近在使用TensorFlow开发深度学习模型时,遇到了一个警告信息:​​read_data_sets (from tensorflow.contrib.learn.python.learn.datasets.mnist) is deprecated and will be removed in a future version​​。经过查阅资料和尝试,我找到了解决这个问题的方法,下面我将分享给大家。

问题描述

当我们使用TensorFlow中的​​read_data_sets​​函数从MNIST数据集中读取数据时,会收到一个警告信息,提示该函数已经被弃用,并将在将来的版本中被移除。 警告信息的具体内容如下:

plaintextCopy code/Users/username/anaconda3/envs/tensorflow/lib/python3.6/site-packages/tensorflow/contrib/learn/python/learn/datasets/mnist.py:260: DeprecationWarning: `read_data_sets` (from tensorflow.contrib.learn.python.learn.datasets.mnist) is deprecated and will be removed in a future version.
Please use alternatives such as official/mnist/dataset.py from tensorflow/models.
Instructions for updating:
Please use `tf.data` to implement this functionality.

这个问题的出现是由于TensorFlow团队正在逐步更新和改善API,推荐使用新的​​tf.data​​模块来处理数据集。

解决方法

要解决这个问题,我们需要使用新的方式来读取MNIST数据集并加载到我们的模型中。下面是一种简单的解决方法:

  1. 导入所需的模块:
pythonCopy codeimport tensorflow as tf
from tensorflow.keras.datasets import mnist
  1. 加载MNIST数据集:
pythonCopy code(x_train, y_train), (x_test, y_test) = mnist.load_data()
  1. 对数据进行预处理:
pythonCopy codex_train = x_train / 255.0
x_test = x_test / 255.0
  1. 构建模型并进行训练和测试:
pythonCopy codemodel = tf.keras.Sequential([
    tf.keras.layers.Flatten(input_shape=(28, 28)),
    tf.keras.layers.Dense(128, activation='relu'),
    tf.keras.layers.Dense(10, activation='softmax')
])
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])
model.fit(x_train, y_train, epochs=5)
model.evaluate(x_test, y_test)

通过以上步骤,我们已经成功解决了​​read_data_sets​​函数被弃用的问题,并且使用了新的方式来读取MNIST数据集。

总结

​read_data_sets​​函数被弃用是由于TensorFlow团队的更新和改善,他们推荐使用新的​​tf.data​​模块来处理数据集。通过使用​​tf.keras.datasets.mnist​​模块中的函数,我们可以轻松地加载MNIST数据集,并将其用于我们的模型训练和测试。 希望这篇文章对解决​​read_data_sets​​被弃用的问题有所帮助,并引导大家使用新的方式来处理数据集。谢谢阅读!

示例代码:如何使用tf.data加载MNIST数据集

在实际应用中,我们通常使用​​tf.data​​模块来处理数据集,包括加载、预处理和批处理等操作。下面是一个示例代码,展示了如何使用​​tf.data​​加载MNIST数据集并进行模型训练。

pythonCopy codeimport tensorflow as tf
from tensorflow.keras.datasets import mnist
# 加载MNIST数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 数据预处理
x_train = x_train / 255.0
x_test = x_test / 255.0
# 创建数据集对象
train_dataset = tf.data.Dataset.from_tensor_slices((x_train, y_train))
test_dataset = tf.data.Dataset.from_tensor_slices((x_test, y_test))
# 打乱数据集并设置批次大小
batch_size = 32
train_dataset = train_dataset.shuffle(10000).batch(batch_size)
test_dataset = test_dataset.batch(batch_size)
# 构建模型
model = tf.keras.Sequential([
    tf.keras.layers.Flatten(input_shape=(28, 28)),
    tf.keras.layers.Dense(128, activation='relu'),
    tf.keras.layers.Dense(10, activation='softmax')
])
# 编译模型
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])
# 训练模型
model.fit(train_dataset, epochs=5)
# 评估模型
model.evaluate(test_dataset)

在上述代码中,我们首先使用​​mnist.load_data()​​函数加载MNIST数据集。然后,将数据进行预处理,将像素值进行归一化处理。接下来,我们通过​​tf.data.Dataset.from_tensor_slices()​​函数,将训练集和测试集分别转换为​​tf.data.Dataset​​对象。 为了增加模型训练的随机性,我们使用​​shuffle()​​函数对训练集进行乱序处理。然后,我们使用​​batch()​​函数设置每个批次的大小。 接下来,我们构建了一个简单的模型,其中包含一个输入层、一个全连接层和一个输出层。然后,使用​​compile()​​函数编译模型,指定优化器、损失函数和评估指标。 最后,我们使用​​fit()​​函数对模型进行训练,并传入​​train_dataset​​作为训练数据集。然后,使用​​evaluate()​​函数对模型进行评估,并传入​​test_dataset​​作为测试数据集。 通过使用​​tf.data​​模块,我们可以更加灵活和高效地处理大规模的数据集,并将其用于深度学习模型的训练和测试。

​read_data_sets​​函数是TensorFlow中的一个函数,用于加载并预处理MNIST数据集。它可以从原始数据集中自动下载数据,并返回包含训练集、验证集和测试集的对象。

函数原型

pythonCopy codetf.keras.datasets.mnist.read_data_sets(
    train_dir,
    test_dir=None,
    one_hot=False,
    dtype=tf.float32,
    reshape=True,
    validation_size=5000,
    seed=None,
)

参数说明

  • ​train_dir​​:字符串,指定训练集目录,如果目录不存在则自动下载。
  • ​test_dir​​:字符串,指定测试集目录,如果目录不存在则自动下载,可选参数。
  • ​one_hot​​:布尔值,决定标签是否以独热编码形式返回,默认为​​False​​。
  • ​dtype​​:指定数据类型,默认为​​tf.float32​​。
  • ​reshape​​:布尔值,决定是否将图像形状从二维调整为四维(样本数, 高, 宽, 通道数),默认为​​True​​。
  • ​validation_size​​:整数,指定验证集大小。
  • ​seed​​:整数,指定随机种子。

返回值

  • ​NamedTuple​​对象,包含以下属性:
  • ​train​​:​​DataSet​​对象,包含训练集的特征和标签。
  • ​validation​​:​​DataSet​​对象,包含验证集的特征和标签。
  • ​test​​:​​DataSet​​对象,包含测试集的特征和标签。

使用示例

pythonCopy codefrom tensorflow.keras.datasets import mnist
mnist_data = mnist.read_data_sets(train_dir='mnist_data', validation_size=10000)
train_data = mnist_data.train.images   # 训练集特征
train_labels = mnist_data.train.labels # 训练集标签
valid_data = mnist_data.validation.images   # 验证集特征
valid_labels = mnist_data.validation.labels # 验证集标签
test_data = mnist_data.test.images    # 测试集特征
test_labels = mnist_data.test.labels  # 测试集标签

在上述示例中,我们首先导入​​mnist.read_data_sets​​函数,并调用该函数来加载MNIST数据集。我们将​​train_dir​​参数设置为​​'mnist_data'​​,表示训练集将被下载或从指定目录加载。 然后,我们可以通过访问返回的​​mnist_data​​对象的属性来获取特征和标签,例如​​train_data​​、​​train_labels​​等。 ​​read_data_sets​​函数简化了MNIST数据集的加载和预处理过程,使我们可以更加方便地使用MNIST数据集进行模型的训练和测试。同时,它还可以自动将数据集下载到本地,并提供灵活的参数选项,以满足不同需求。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。