基于动作捕捉的飞行机械臂定位算法验证研究
无人机近些年发展迅速,可以实现检测、巡逻、航拍等功能,但是仍然不能与目标物进行交互,无法满足无人机作业中完成更复杂任务的需求。搭载多关节机械臂的旋翼飞行机械臂可以实现抓取等交互任务。
飞行机械臂在大多数环境下需要具有一定的独立获取和处理信息的能力,一个很重要的环节就是目标物的识别和定位,因此视觉系统的构建是关键问题。南京航空航天大学的研究人员设计了一种基于YOLOv5深度学习目标检测算法和RGB-D传感器的视觉识别和定位算法,可以实现飞行机械臂抓取时实时检测目标物并进行位姿估计。
由于目前团队的飞行机械臂尚不支持完成完整的飞行抓取控制实验,研究人员在室内可控环境下对目标物位姿估计算法进行测试,通过简化实验验证该算法的有效性。实验中在摄像头和目标物上放置多个反光标识点分别建立刚体,利用NOKOV度量动作捕捉系统进行定位。
NOKOV度量动作捕捉系统可以实时输出二者在世界坐标系下的位姿数据,由于定位精度高达亚毫米级,数据作为实际值,与视觉系统经目标检测、拟合点云中心以及坐标转换的得到的测量值进行对比。通过向各方向移动摄像头模拟飞行机械臂飞行过程中相机的运动,测试算法的整体性能。
参考文献:[1]张睿,王尧尧,段雅琦,陈柏.面向飞行机械臂的实时目标检测与定位算法[J].南京航空航天大学学报,2022,54(01):27-33.DOI:10.16356/j.1005-2615.2022.01.003.
更多阅读:
The End