|
智能创新AI教育机器人
(一)人工智能模块
1. 模块功能: Python程序设计、机器学习、深度学习、数字图像处理、计算机视觉、语音识别、智能机械臂、机器人设计、嵌入式系统及应用、物联网等课程的教学与实践;辅助教学,学生可以自主设计智能机器人应用场景,进行学习评估。
2. 大模型:融合大语言模型(LLM)以及光强检测传感器、温湿度传感器、心率血氧传感器和空气质量传感器,重塑智能家居的应用场景,使机器人能够像人一样进行思考与判断;
3. 模块硬件:至少1块计算卡,至少2块STM32主控芯片核心模块,至少12个传感器,至少2个摄像头,至少1个阵列麦克风,至少1台多自由度机械臂,至少1个传送带,至少2个WiFi蓝牙模块,至少2块显示屏,至少1个电源适配器,至少1套无线键鼠 ,至少1套模型道具;
4. 传感器:不少于12个,至少1个光强检测传感器,至少1个红外探障传感器,至少1个激光测距传感器,至少1个温湿度传感器,至少1个心率血氧传感器,至少1个空气质量传感器,至少1个电磁感应传感器,至少1个惯性检测传感器,至少1个滑动电位器,至少1个毫米波传感器,至少1个音量检测传感器,至少1个速度测量传感器;
5. 深度摄像头:至少1个深度相机,深度图分辨率≥640*300@30fps,彩色图分辨率≥1920*1080@30fps,深度范围≥100cm;
6. RGB摄像机:至少1个≥30万像素的RGB摄像机,分辨率≥640*480,MJPG30帧,YUY230帧;
7. 阵列麦克风:至少4个麦克风列阵,场语音捕获范围≥5m,支持USB2.0,具有降噪、去混响、语音活动检测、声源定位、波束成型、回声消除等功能;
8. 多自由度机械臂:不少于5自由度舵机驱动机械臂,支持UART通信;
9. 课程:理论+实践课≥72课时,包括课程大纲、教学手册、实验代码、理论课视频和实践课视频等;可参加全国高校计算机能力挑战赛人工智能专项赛。
(二)服务机器人模块
模块能够实现机器人室内建图、定位导航、路径规划、仿真演示、道路指引、机器人语音交互、机器人大模型、人脸/人物检测、机器人智能安控、机器人巡检与餐饮服务。支持C++/Python语言编程,基于百度飞桨(PaddlePaddle)Al框架和OpenCV图像处理技术,实现在线Al模型训练、道路识别以及机器人控制等功能。在此模块上可对教师进行机器人技术培训,自主构建智能机器人模型用于教学和学生实训。学生可学习机器人运动控制编程,模型算法的调优。
1. 支持室内建图、定位导航、路径规划、仿真演示、道路指引、语音交互、人脸/人物检测、智能安控、垃圾巡检与餐饮服务等功能;
2. 支持通过激光雷达和机器人里程计感知环境状态,自动生成二维或三维的环境地图;
3. 支持根据里程计、激光雷达等传感器和SLAM全局地图等数据,经过定位导航算法融合,计算出安全可靠的机器人运动控制指令;
4. 支持通过算法规划路径,使机器人避免与障碍物发生碰撞的同时找出最优的行进路线;
5. 支持在图形监控环境中通过三维视图观测机器人运动过程;
6. 支持在室内构建地图,语音交互后机器人带领顾客到达指定点;
7. 支持语音交互:基于语音识别、语音合成、自然语言理解等技术,为多种应用场景下,使机器人可以进行人机交互;
8. 支持人脸/人物检测:基于深度学习,准确检测图片和视频中的人脸/人物信息;
9. 支持智能安控:实现生物入侵检测、安全监督等功能;
10. 支持巡检:提取目标物体角度、位置信息,使用机器人完成实时检测场景垃圾数量,并语音播报实现垃圾检测工作;
11. 支持大模型:融合大语言模型(LLM)与多模态大语言模型(MLLM),使机器能够像人一样思考;
12. 不少于1块边缘计算卡,不少于1块驱动控制器,不少于1个摄像头,不少于1个激光雷达,不少于4个超声波传感器,不少于1个陀螺仪,不少于4个编码器,不少于1个电量计,不少于1套机械臂,不少于1套无线键盘鼠标,不少于1个遥控器,不少于1块电池,不少于1个显示屏,不少于1个电源充电器;
13. 服务机器人课程理论+实践不少于48课时,机械臂课程理论+实践不少于36课时,应包含课程大纲、课程讲义、实训手册、课件、教案、实践代码、视频文件以及考核资料包等;
14. 应支持AI教学实训、AI科普、展览展示、科研平台场景、大学生赛事等场景。可参加中国大学生机器人及人工智能大赛智能餐饮服务赛项。
(三)智能无人驾驶模块
智能无人驾驶模块完成人工智能、无人驾驶、图像处理与运控控制等相关课程的学习,理论+实践共48课时。支持C++/Python语言编程,基于百度飞桨(PaddlePaddle)AI框架和OpenCV图像处理技术,实现在线AI模型训练、移动端部署、赛道识别与交通标志检测,车辆控制以及巡线导航等功能。学生在此模块中可以学习机器人,车辆的运动控制编程、模型算法的学习及调优。
1. 模块功能:实现图像识别,图像处理,车辆控制以及自动驾驶等功能;
2. 图像处理:摄像头校正,车道线识别,赛道元素识别、赛道测量;
3. 路径规划:基于贝塞尔(Bezier)曲线的加权轨迹规划;
4. 运动控制:闭环PID速度控制和PD姿态控制;
5. 目标检测:基于Yolo-v3的多目标实时检测(FPS<60ms,Map>90%);
6. 多线程任务:图像采集与赛道识别周期≤30ms;AI目标检测周期≤34ms;
7. 车检助手:车辆自检,车辆配置(舵机),车辆状态监控(电量/速度/姿态等);
8. 课程:课程理论+实践≥48课时,含课程大纲,课程讲义,实训手册,课件,教案,实践代码,视频文件以及考核资料包;
9. 软件:软件含车辆配置软件(Windows版),AI系统镜像(Linux系统Ubuntu18.04,Python3.6),AI算法包(Yolo-v3),底层支持库(OpenCV,Joystick,Serial,Pthread,Paddle等);(含无人自动驾驶套装1套),可参加全国大学生智能汽车竞赛完全模型组赛项。
(四)机器视觉深度学习模块
1. 模块功能:可实现图像采集、尺寸测量、读码、识别、检测等功能和图像分割、实例分割、目标检测、字符识别、图像分类、OCR、读码等深度学习功能;
2. 硬件含内置独立显卡视觉控制器至少1台,视觉光源至少1个,工业相机至少1个,视觉镜头至少1个,键盘鼠标至少1套,电源适配器至少1套,接口板至少1块,24寸显示器至少1个,USB无线网卡至少1个,手动机械臂至少1套,加密狗至少1个;
3. 视觉控制器: Intel? Core? i3-8100,内存≥8GB,硬盘≥128GSSD,英特尔核芯显卡630;
独立显卡:GT 1030独立显卡;
4.视觉光源:≥1个视觉光源,白色光源,照亮角度:≥70°,可调亮度;
5.工业相机:≥1个至少1200万像素网口面阵相机,IMX226,彩色,分辨率≥4024×3036,最大帧频≥9.6fps;
6.视觉镜头:≥1个C接口镜头,焦距≥12mm,光圈范围F2.8-F16,畸变-0.005%;
7.课程包含至少24课时,含课程指南,学习指导书,实训手册,教学课件,示例资料库以及考核资料包;
8.含应用软件(Windows版),深度学习包,示例程序包等。可参加中国大学生计算机设计大赛智能工业视觉赛项。
(五)智能机器人机械臂模块
模块用于智能机器人运动控制及硬件调用编程,包括机械臂底座、控制器、6 自由度关节和连杆结构、机械爪、摄像头等核心部件。
1. 控制器功能:
控制:路径规划、轨迹规划、运动控制、重力补偿、示教;自检:各自由度转向测试;标定:垂直零度角标定后自校正;配置:支持UART接口对关节电机的配置,配置上位机使用。
2. 机器爪(夹具):夹具通过无刷伺服电机驱动,同时兼容摄像头拍摄。
(六)多机器人编程算法模块
多机器人编程算法模块结合智慧物流行业前沿应用,依托软硬件实训平台、模拟仓储场景,讲解多机协同、群体智能等算法的原理与实践应用,通过实训过程带领学生掌握物流系统开发技术。课程提供完善的课程资料,包括课程指南,学习指导书,实训手册,教学课件,示例资料库以及考核资料包,便于授课学习。具有机器人任务分配、调度系统、路径规划、过程监控、环境感知、系统无线通信、场地路径识别、自动避障、货架搬运、状态指示等功能;
1. 待机工作时间:≥8h;
2. 满荷工作时间:≥4h;
3. 温度监测效率:0~135℃(±0.5℃);
4. RFID刷卡效率:范围<4×4cm/距离<5cm;
5. 网络条件:2.4G/5G WiFi局域网络;
6. 红外传感器:≥8个红外传感器,采用高发射功率红外光电二极管和高灵敏度光电晶体管组成,检测距离范围为≥13mm;
7. 手势传感器:≥1个TOF手势传感器,主要用于测距;
8. 惯性传感器:≥1个IMU6轴惯性传感器,三轴加速度计和三轴陀螺仪;
9. 温度传感器:≥1个温度传感器,温度精度为±2 ℃;
10. 课程包含至少14章节理论+10章节实践至少64课时,含课程指南,学习指导书,实训手册,教学课件,示例资料库以及考核资料包;
11. 软件含多机器人编程算法软件(Windows版),驱动包(CH340串口驱动),算法包(广度优先搜索算法、深度优先搜索算法、A*搜素算法、遗传算法、粒子群算法、蚁群算法等),底层支持库(数据库、python)。
|