【2023 · CANN训练营第一季】基于Atlas 200I DK A2的智能小车设计与实现-笔记总结
基于Atlas 200I DK A2的智能小车设计与实现
-笔记总结
小车外观结构图
小车硬件主要包含以下部分组件:
开发者套件:根据摄像头收集的数据进行AI推理,将推理结果发送给主控模块控制小车运行。
主控ESP32开发板:信号接收与发送,执行并调动其他部分完成指令。
直流电机:为小车提供动力,可调节旋转方向和速度。
舵机:装载摄像头并调节拍摄角度,可控角度0~180°。
超声波传感器:可实现2~400cm的非接触距离感测功能,测距精度可以高达3mm。
小车载板及电池:载板提供支架,电池提供电源。
功能与原理介绍:
智能小车通过摄像头感知周围环境自主地进行运动控制,采集环境数据后在开发者套件上进行AI推理,根据推理结果发出指令控制小车的运动状态。小车运动状态的控制需要借助ESP32微控制器,使用Arduino平台可以对其进行嵌入式开发。主控与小车主体间控制指令的发出和数据的返回,需要通过串口协议进行双向通信。
自动驾驶
基于开发者套件的内置的YoloV5和轻量级直线行驶矫正神经网络模型推理结果引导智能小车在规定赛道上的自动循迹行驶。
通过摄像头收集不同场景下的路况信息数据,判断当前位置并识别转弯标识。
使用模型适配工具训练转换的om模型进行推理,计算转向角,最后根据推理结果下发指令控制小车转向。
自动泊车
基于开发者套件的内置YoloV5神经网络模型的推理结果引导智能小车在模拟的复杂交通场景和更贴近实际的道路上行驶。
通过摄像头收集不同场景下的停车标志信息数据。
使用模型适配工具训练转换的om模型进行推理,判断当前标识是否为停车标志,“是”则开始自动泊车,“否”则继续行驶并收集数据。
识别到目标后,判断目标停车标识和智能小车当前位置之间的距离,根据提前设置的阈值(开发者可自定义)判断到达停车距离,并开始横向移动进停车位。
目标跟踪
基于开发者套件的内置YoloV5神经网络模型的推理结果引导智能小车在多车行驶的模拟道路上行驶。
通过摄像头收集不同场景下需要跟随的目标,识别前方目标并跟随目标行驶。
使用模型适配工具训练转换的om模型进行推理,根据识别到物体的大小来推算小车和追踪目标之间的距离,下发指令到控制系统,控制小车的移动和停止,从而达到跟随效果(该功能也可以移植到追踪其他物体的使用场景中,待开发者二次开发)。
组装步骤
依照从下至上的顺序组装小车,组装底盘上的连接件,按照“电池 > TT直流电机 > 麦克纳姆轮 > 广角摄像头模块 >ESP32单片机 > 第一层外壳 > 超声波模块 > 语音麦克风阵列 > Atlas 200I DK A2开发者套件 > 激光雷达连接到后段外壳 > 前中段外壳顺”序组装
- 点赞
- 收藏
- 关注作者
评论(0)