新零售智能导购助手探索:基于PyTorch的手写体识别【华为开发者空间】
新零售智能导购助手
什么是智能导购助手?
智能导购助手是一种基于人工智能技术的虚拟导购解决方案,它融合了自然语言处理、机器学习、用户画像分析等技术,旨在为用户提供个性化、高效且智能的购物推荐和服务。其核心功能包括:
- 商品推荐:根据用户的购物行为和偏好,提供个性化的商品推荐,提高购物的准确性和效率。
- 虚拟试穿/试用:利用图像识别技术,实现虚拟试穿或试用效果,增强用户的购物体验。
- 智能搜索:精准解析用户的搜索意图,快速提供相关的商品搜索结果。
- 用户服务:提供全天候的客户服务支持,解答疑问,提供购买建议,处理售后服务等。
智能导购助手不仅提升了用户的购物体验,还帮助商家提高了销售转化率,优化了运营效率。
手写体识别技术的应用
手写体识别技术为智能导购助手提供了更加自然、便捷的交互方式,有助于提升用户购物体验,实现更精准的个性化推荐。
手写体识别技术在智能导购助手中的应用,主要体现在以下几个方面:
- 输入方式多样化:用户可通过手写输入购物需求,系统能识别并转化为文字,进行后续处理1。
- 个性化推荐:结合用户手写输入的内容和历史购物数据,构建用户画像,实现更精准的个性化商品推荐。
- 提升交互体验:手写识别使交互更自然、便捷,用户无需依赖键盘或语音,即可快速表达购物意图。
- 优化导购流程:通过多轮手写对话,系统能逐步明确用户需求,优化导购流程,提高购物效率。
手写体识别系统实现摸索
华为云给出了一个十分不错的实现方案:
利用深度学习框架PyTorch,结合MNIST手写体数据集,构建一个高效、准确的手写体识别系统。
华为提供了云主机,可以在华为开发者空间中领取云主机。可以在云主机中安装PyCharm,并且基于PyTorch框架实现手写体识别。
华为开发者空间
一分钟了解华为开发者空间
华为开发者空间,是为全球开发者打造的专属开发者空间,致力于为每个开发者提供一台云主机、一套开发工具和云上存储空间,汇聚昇腾、鸿蒙、鲲鹏、GaussDB、欧拉等各项根技术的开发工具资源,并提供配套案例指导开发者从开发编码到应用调测,基于华为根技术生态高效便捷的知识学习、技术体验、应用创新。
华为开发者空间为广大开发者提供的一站式开发者服务平台,为开发者提供全方位的技术支持和服务,帮助开发者更高效地开发和部署应用。在华为开发者空间,开发者可以享受到丰富的开发者工具、开发者社区、技术文档、培训课程、技术支持等服务,帮助开发者快速构建高质量的应用。同时,华为开发者空间还提供了多种云服务,如云服务器、云数据库、云存储等,为开发者提供一站式的云计算解决方案。
个人电脑开发和开发者空间云主机开发的区别
很久之前,我在接触虚拟机的时候,就发现了类似的问题。尽管个人电脑安装了各种需要的运行环境,可以满足日常的工作需要。
但是,当我需要某个特殊版本的语言时,个人电脑的不足之处便展现出来了。无论是部署还是运行命令都变得复杂无比。
所以,自动化部署的云主机,很好的弥补了个人电脑的不足。
为什么选择华为开发者空间?
为什么不呢?
1、与其花费一整天搞定部署,不如选择开箱即用的华为开发者空间
作为云上开发桌面,开发者云主机预置预装华为优质开发工具和场景化资源池,支持:
- Web连接访问
- 开发桌面主机规格自定义
- 开发桌面操作系统自定义
2、与其忙忙碌碌的下载一系列的工具插件,不如选择内置了开发工具集合的华为开发者空间
以华为云CodeArts IDE为核心的开发工具集合,支持:
- CodeArts IDE开发环境预置
- 开发者使用CodeArts IDE免登(linux版本)
- 多语言开发及代码助手
3、与其花费大量时间逐个学习各类沙箱,不如选择预置场景化沙箱环境的华为开发者空间
华为开发者空间预置华为云、鲲鹏、昇腾、鸿蒙等场景化沙箱环境,支持:
- 分钟级创建及恢复沙盒环境
- 应用一键部署至沙盒环境
- 环境配置模板化管理保存
4、与其担心数据丢失的风险,不如选择支持数据云上保存的华为开发者空间
为开发者提供的云上存储空间,开发者可进行关键资产保存和中转,支持:
- 开发者云主机配置数据留存
- 支持开发者文件保存和内容中转
- 开发者案例知识和学习内容收藏
基于PyTorch的手写体识别
准备工作
1、免费领取云主机
实验前,确定自己是否已经领取了云主机。
如果还没有云主机,可点击链接,根据领取指南进行操作。
开始实验
步骤1:安装PyCharm
1.下载PyCharm
进入云主机,打开左侧Firefox浏览器,搜索https://www.jetbrains.com.cn/en-us/pycharm/download/download-thanks.html?platform=linux 点击下载PyCharm。
下载好后是一个压缩文件,选择将文件压缩到此处。
2.安装PyCharm
(1)双击进入bin目录,双击PyCharm图标打开PyCharm。
(2)在PyCharm的左下角单击图标打开终端。
(3)执行完命令后会自动弹出窗口,选择“开始30天免费试用”。
步骤2:下载PyTorch框架
1.新建目录
(1)打开PyCharm,单击左上角图标在弹出的菜单中选择“新建>目录”。
(2)目录名称输入:demo。
2.新建文件
(1)在PyCharm左侧新建的demo目录单击鼠标右键,在打开的菜单中选择“新建>Python文件”。
(2)输入Python文件的名字,自定义即可。
3.部署Python框架
(1)新建好后,在左侧找到新建好的Python文件双击打开。
(2)单击左下角图标打开终端。
(3)在终端输入命令,部署Python框架。
pip3 install torch torchvision torchaudio --index-url htt ps://download.pytorch.org/whl/cpu
步骤3:数据集介绍
1.创建目录
在同一项目目录下创建文件夹data,在data目录下创建mnist目录。
步骤4:编写代码
1.创建和编写文件
在demo目录下新建一个py文件进行代码编辑。
import torch
import numpy as np
from matplotlib import pyplot as plt
from torch.utils.data import DataLoader
from torchvision import transforms
from torchvision import datasets
import torch.nn.functional as F
"""
卷积运算 使用mnist数据集,和10-4,11类似的,只是这里:1.输出训练轮的acc 2.模型上使用torch.nn.Sequential
"""
batch_size = 64
learning_rate = 0.01
momentum = 0.5
EPOCH = 10
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])
# softmax归一化指数函数,其中0.1307是mean均值和0.3081是std标准差
train_dataset = datasets.MNIST(root='./data/mnist', train=True, transform=transform,download=True) # 本地没有就加上download=True
test_dataset = datasets.MNIST(root='./data/mnist', train=False, transform=transform,download=True) # train=True训练集,=False测试集
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
fig = plt.figure()
for i in range(12):
plt.subplot(3, 4, i+1)
plt.tight_layout()
plt.imshow(train_dataset.train_data[i], cmap='gray', interpolation='none')
plt.title("Labels: {}".format(train_dataset.train_labels[i]))
plt.xticks([])
plt.yticks([])
plt.show()
# 训练集乱序,测试集有序
class Net(torch.nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = torch.nn.Sequential(
torch.nn.Conv2d(1, 10, kernel_size=5),
torch.nn.ReLU(),
torch.nn.MaxPool2d(kernel_size=2),
)
self.conv2 = torch.nn.Sequential(
torch.nn.Conv2d(10, 20, kernel_size=5),
torch.nn.ReLU(),
torch.nn.MaxPool2d(kernel_size=2),
)
self.fc = torch.nn.Sequential(
torch.nn.Linear(320, 50),
torch.nn.Linear(50, 10),
)
def forward(self, x):
batch_size = x.size(0)
x = self.conv1(x) # 一层卷积层,一层池化层,一层激活层(图是先卷积后激活再池化,差别不大)
x = self.conv2(x) # 再来一次
x = x.view(batch_size, -1) # flatten 变成全连接网络需要的输入 (batch, 20,4,4) ==> (batch,320), -1 此处自动算出的是320
x = self.fc(x)
return x # 最后输出的是维度为10的,也就是(对应数学符号的0~9)
model = Net()
# Construct loss and optimizer ------------------------------------------------------------------------------
criterion = torch.nn.CrossEntropyLoss() # 交叉熵损失
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate, momentum=momentum) # lr学习率,momentum冲量
# Train and Test CLASS --------------------------------------------------------------------------------------
# 把单独的一轮一环封装在函数类里
def train(epoch):
running_loss = 0.0 # 这整个epoch的loss清零
running_total = 0
running_correct = 0
for batch_idx, data in enumerate(train_loader, 0):
inputs, target = data
optimizer.zero_grad()
# forward + backward + update
outputs = model(inputs)
loss = criterion(outputs, target)
loss.backward()
optimizer.step()
# 把运行中的loss累加起来,为了下面300次一除
running_loss += loss.item()
# 把运行中的准确率acc算出来
_, predicted = torch.max(outputs.data, dim=1)
running_total += inputs.shape[0]
running_correct += (predicted == target).sum().item()
if batch_idx % 300 == 299: # 不想要每一次都出loss,浪费时间,选择每300次出一个平均损失,和准确率
print('[%d, %5d]: loss: %.3f , acc: %.2f %%'
% (epoch + 1, batch_idx + 1, running_loss / 300, 100 * running_correct / running_total))
running_loss = 0.0 # 这小批300的loss清零
running_total = 0
running_correct = 0 # 这小批300的acc清零
# torch.save(model.state_dict(), './model_Mnist.pth')
# torch.save(optimizer.state_dict(), './optimizer_Mnist.pth')
def test():
correct = 0
total = 0
with torch.no_grad(): # 测试集不用算梯度
for data in test_loader:
images, labels = data
outputs = model(images)
_, predicted = torch.max(outputs.data, dim=1) # dim = 1 列是第0个维度,行是第1个维度,沿着行(第1个维度)去找1.最大值和2.最大值的下标
total += labels.size(0) # 张量之间的比较运算
correct += (predicted == labels).sum().item()
acc = correct / total
print('[%d / %d]: Accuracy on test set: %.1f %% ' % (epoch+1, EPOCH, 100 * acc)) # 求测试的准确率,正确数/总数
return acc
# Start train and Test --------------------------------------------------------------------------------------
if __name__ == '__main__':
acc_list_test = []
for epoch in range(EPOCH):
train(epoch)
# if epoch % 10 == 9: #每训练10轮 测试1次
acc_test = test()
acc_list_test.append(acc_test)
plt.plot(acc_list_test)
plt.xlabel('Epoch')
plt.ylabel('Accuracy On TestSet')
plt.show()
当代码编写完毕后在导包的部分会出现爆红(在包名下面会出现红色波浪线)的情况,直接将鼠标放到爆红(代码下方会出现)部分,会自动弹出下载,然后点击“下载”即可。如果没有弹出下载,请打开终端,在终端输入命令:pip3 install matplotlib 指令下载。
2.代码部分讲解
(1)导入数据包
首先对于导包部分导入,Pytorch、NumPy、Matplotlib等库,用于进行深度学习模型的构建数据可视化。
(2)设置超参数
(3)数据预处理
(4)创建模型和函数
步骤5: 运行结果生成
(1)代码编写完毕后右击鼠标,点击运行。
(2)运行后会出现手写体识别的结果,可以看到在数据集图片上放有Labels字样,后面紧跟着就是手写体识别后识别出来的数字。
至此,实验完毕。
优化建议
1、PyCharm卡顿
在云主机里面下载了PyCharm之后,新建项目的时候页面卡住了,很长时间无法操作。建议优化界面卡顿的情况。
总结
心得体会
华为开发者空间提供的能力十分强大,内置了诸多开发工具,与华为云的生态深度融合,可以便捷是使用华为云的服务。
基于PyTorch的手写体识别的实验相较前面几次实验,内容相对多些,复杂程度更高一些。
我借助这次实验,有了更多关于新零售智能化的灵感。
思维发散
手写体识别技术在新零售领域具有广泛的应用前景和潜力。随着技术的不断发展和完善,通过合理应用手写体识别技术,为商家和顾客带来更加便捷、高效的购物体验。
这里,我根据经验总结了一些手写体识别在新零售中的其他应用到的场景:
1、顾客交互与体验提升
- 个性化推荐:结合手写体识别技术,新零售系统可以分析顾客的手写输入习惯、偏好等信息,为顾客提供更加个性化的商品推荐和服务。
2、运营效率优化
- 手写订单处理:在餐饮、超市等新零售场景中,顾客可以通过手写体识别技术快速下单。系统能够自动识别顾客手写的内容,并将其转换为电子订单,减少人工录入的时间和错误,提高订单处理效率。
- 库存管理:通过手写体识别技术,新零售店铺可以实现对库存商品的快速盘点和记录。员工只需手写输入商品信息,系统即可自动识别并更新库存数据,减少人工盘点的时间和错误率。
3、数据管理与分析
- 顾客信息录入:在会员注册、积分兑换等场景中,顾客可以通过手写体识别技术快速录入个人信息。系统能够自动识别并存储这些信息,为后续的数据分析和营销提供基础。
- 市场趋势分析:通过收集和分析顾客的手写输入数据,新零售企业可以了解顾客的需求和偏好变化,进而调整商品策略、优化营销策略等,以更好地满足市场需求。
4、安全性与合规性
- 手写签名验证:在交易确认、合同签署等场景中,手写体识别技术可以用于验证顾客的手写签名。这有助于确保交易的真实性和合规性,降低欺诈风险。
- 点赞
- 收藏
- 关注作者
评论(0)