【人工智能】python深度学习 视觉实现口罩检测实时语音报警系统

举报
lqj_本人 发表于 2023/03/22 22:42:51 2023/03/22
【摘要】 AI视觉实现口罩检测实时语音报警系统

 前言

本程序主要实现了python的opencv人工智能视觉模块的口罩检测实时语音检测报警。

项目介绍

​PaddlenHub模块

 飞桨预训练模型管理和迁移学习工具,通过PaddleHub开发者可以使用高质量的预训练模型结合Fine-tune API快速完成迁移学习到应用部署的全流程工作。其提供了飞桨生态下的高质量预训练模型,涵盖了图像分类、目标检测、词法分析、语义模型、情感分析、视频分类、图像生成、图像分割、文本审核、关键点检测等主流模型。

使用时可能遇到的bug

AttributeError: partially initialized module ‘cv2‘ has no attribute ‘gapi_wip_gst_GStreamerPipeline‘

bug显示:cv2没有指定的依赖。

解决方法

在我们的pycharm中自带的命令窗口中输入:

pip install opencv-python install "opencv-python-headless<4.3"

​然后,我们再把我们的opencv-python降低版本为与我们安装的opencv-python-headless版本相同即可,我这里用的都是4.2.0.34版本。

 方法解释

因为opencv4.3以上的版本会存在与其他模块依赖的兼容性问题,4.3以上的版本兼容性较差,所以,有时会出现一下bug之类的错误。有时,其实我们写的代码没有问题,只是问题出在了依赖的兼容性问题上!

playsound模块

PlaySound是Windows用于播放音乐的API函数(方法)。在vs2010以上版本需要加入#pragma comment(lib, "winmm.lib")才能使用PlaySound。PlaySound函数原型为 BOOL PlaySound(LPCSTR pszSound, HMODULE hmod,DWORD fdwSound)。PlaySound参数,pszSound是指定了要播放声音的字符串,该参数可以是WAVE文件的名字,或是WAV资源的名字,或是内存中声音数据的指针,或是在系统注册表WIN.INI中定义的系统事件声音。如果该参数为NULL则停止正在播放的声音。

项目思路

1.使用PaddlenHub模块指定算法,根据面部特征的上下左右来判断是否面部有物体遮挡,并判断遮挡区域及位置,若判断条件成功,则绘制绿色矩形及英文提示。若判断条件失败,则绘制红色矩形及英文提示!

2.使用playsound模块指定我们录制好的MP3文件,当判断条件符合时,则按照playsound模块原生函数播放MP3文件,达到语音警告提示效果!

代码详解

首先导入相应模块

import paddlehub
import cv2
from playsound import playsound

​指定paddlehub模块中的算法并赋值

module=paddlehub.Module(name="pyramidbox_lite_mobile_mask")

调用本机摄像头

cap=cv2.VideoCapture(0)

循环判断指定位置及遮挡区域

while(cap.isOpened()):
    frame = cap.read()[1]
    input_dict = {'data':[frame]}
    results = module.face_detection(data=input_dict)
    result = results[0]

​ 设置绑定键盘按压事件

   k = cv2.waitKey(1) & 0xFF  # 判断按键

​判断肯定条件时绿色字体和矩形

 if result['data']!=[]:
        label = result['data'][0]['label']
        left = result['data'][0]['left']
        right = result['data'][0]['right']
        top = result['data'][0]['top']
        bottom = result['data'][0]['bottom']
        color = (0,255,0)
        color2 = (0,255,0)

判断否定条件时红色字体和矩形,并播放语音警告提示

        if label == 'NO MASK':
            color = (0,0,255)
            color2 = (0,0,255)
            playsound('1.mp3')

 cv2最后的绘制及显示交互窗口

        cv2.rectangle(frame,(left,top),(right,bottom),color,3)
        cv2.putText(frame,label,(left,top-10),cv2.FONT_HERSHEY_SIMPLEX,0.8,color2,2)
        cv2.imshow('xianshi',frame)


判断监听键盘按压事件

        if k == ord(' '):#退出
            break


释放摄像头及内存

#释放摄像头
cap.release()
#释放内存
cv2.destroyAllWindows()

完整代码及注释

import paddlehub
import cv2
from playsound import playsound

#指定paddlehub模块的视觉算法
module=paddlehub.Module(name="pyramidbox_lite_mobile_mask")
#调用本机摄像头
cap=cv2.VideoCapture(0)
#循环判断面部区域位置
while(cap.isOpened()):
    frame = cap.read()[1]
    input_dict = {'data':[frame]}
    results = module.face_detection(data=input_dict)
    result = results[0]
#绑定键盘监听事件
    k = cv2.waitKey(1) & 0xFF  # 判断按键
#当判断为肯定时,则绘制绿色矩形及文字
    if result['data']!=[]:
        label = result['data'][0]['label']
        left = result['data'][0]['left']
        right = result['data'][0]['right']
        top = result['data'][0]['top']
        bottom = result['data'][0]['bottom']
        color = (0,255,0)
        color2 = (0,255,0)
        #当判断为否定式绘制红色矩形及文字
        if label == 'NO MASK':
            color = (0,0,255)
            color2 = (0,0,255)
            #打开录制的MP3语音文件
            playsound('1.mp3')
        #cv2最会的绘制及显示
        cv2.rectangle(frame,(left,top),(right,bottom),color,3)
        cv2.putText(frame,label,(left,top-10),cv2.FONT_HERSHEY_SIMPLEX,0.8,color2,2)
        #显示交互窗口
        cv2.imshow('xianshi',frame)
        #监听键盘事件,并判断是否退出
        if k == ord(' '):#退出
            break
#释放摄像头
cap.release()
#释放内存
cv2.destroyAllWindows()

效果展示(不带口罩时会有重复语音警告)

【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。