- 01/27
- 2016
-
QQ扫一扫
-
Vision小助手
(CMVU)
文中给出了基于视觉的无人直升机移动目标识别定位与跟踪方案设计,针对当前计算机视觉跟踪运动物体存在的问题,提出了一种快速捕捉运动目标的图像处理算法,并且给出了具体实现过程,设计了小型无人直升机跟踪移动目标的控制结构,最后进行实际飞行实验。实验结果验证了方案的可行性,表明计算机视觉能够很好地满足无人直升机对移动目标的跟踪。
实现无人直升机对移动目标的跟踪是一个较难的技术,针对这个问题,本文基于计算机视觉对无人直升机移动目标跟踪技术进行了研究。首先,设计了无人直升机跟踪移动目标的总体方案;其次,提出了一种快速识别定位移动目标的图像处理算法,该算法运用了RGB三通道颜色分离和形状匹配原理并且实时性好;最终,将计算机视觉应用到无人直升机对移动目标跟踪上,并通过实验验证了其可行性,结果表明机载视觉技术能够很好地解决于无人直升机对移动目标的跟踪问题。
近年来随着无人直升机控制技术不断发展以及应用场合不断扩大,实现无人直升机在移动目标上的自主降落已成为无人直升机发展的趋势,这将大大提升无人直升机执行多种任务的能力,而实现该技术的关键在于对移动平台的跟踪。在文献和中已经对其进行了研究,但大都停留在仿真验证阶段,还未在工程上实现。因此,本文把实现小型无人直升机移动目标识别与跟踪技术作为研究重点。
实现无人直升机对移动目标的跟踪,其重点在于主动获取目标准确的导航信息。当前用于无人机导航技术主要有惯性导航(INS),全球定位系统导航(GPS)、差分全球定位系统导航(DGPS)以及INS/GPS组合导航等,但是这些技术都不适用于这种场合。因此,本文将计算机视觉应用到无人直升机移动目标识别定位与跟踪技术上。相对于其他引导方式,计算机视觉可以主动地获得视野内目标的相对运动信息,提供准确的位置信息,并且不依靠其它外部信息。
文中给出了基于机器视觉的无人直升机移动目标识别定位与跟踪方案设计,针对当前计算机视觉跟踪运动物体存在的问题,提出了一种快速捕捉运动目标的图像处理算法,并且给出了具体实现过程,设计了小型无人直升机跟踪移动目标的控制结构,最后进行实际飞行实验。实验结果验证了方案的可行性,表明计算机视觉能够很好地满足无人直升机对移动目标的跟踪。
1 方案设计
图1给出了基于计算机视觉的无人直升机跟踪移动目标系统的工作原理框图,该系统主要由两部分任务构成,一是计算机视觉对移动目标的识别定位,二是控制无人直升机跟踪目标。首先,通过图像对摄像头获取的视频信号进行处理,达到识别目标的目的并得到移动目标的运动信息。然后,把目标的运动信息传给无人直升机飞控计算机,经过飞行控制律解算后引导无人直升机跟踪移动目标。
图1:跟踪系统工作原理框图
2 目标识别和定位
目标识别和定位采用计算机视觉的方法,具体是从图像信号中自动识别目标、提取和获得目标位置信息,其实现主要包括图像获取、图像识别、目标定位3个部分。由于目标移动,就需要动态捕捉和跟踪移动目标,大大增加了技术实现的困难。一般跟踪动态目标的算法,如CAMSHIFT算法和基于粒子群优化的跟踪算法等,存在容易丢失目标或者处理时间较长实时性差的问题。文中提出了一种基于颜色和形状特征的快速识别动态目标算法,首先设计了目标特征图案,然后给出了具体的实现过程。
2.1 目标特征图案
本文设计的目标特征图案从颜色和形状两方面考虑,图2给出了移动目标以及特征图案,特征图案是红色的凸型。颜色特征是经常用于目标跟踪且效果较好的视觉特征,选择红色有利于视觉快速的捕捉,把目标从背景中分离出来。凸型形状既可以用作对目标的识别,又可通过处理得到移动目标的运动信息。
图2:移动目标及特征图案
2.2 图像处理算法
计算机视觉的处理过程是先对移动目标进行识别,再获取目标的运动信息。文中的图像处理算法利用丌源的图像处理库函数OPENCV实现,根据提出的算法实现对特定颜色进行快速捕捉,对特征图案进行匹配识别,最终得到移动目标的运动信息,图像处理软件流程图如图3所示。
图3:图像处理算法流程图
图4:RGB颜色立方体模型
快速捕捉目标主要利用特征图案的颜色信息,一般摄像头采集到的图像都是RGB格式的图像,也就是每一个像素都由红(R),绿(G),篮(B)3个成分组成,图像中每一个像素的RGB分量分配一个0~255范围内的强度值,它们按照不同的比例混合呈现16777216(256x256x256)种颜色,颜色立方体模型如图4所示。
快速捕捉目标的图像处理算法首先通过对采集的图像信息按照RGB三通道进行颜色分离,分别得到红色R,绿色G,蓝色B单通道图像。然后用红色R单通道图像值减去绿色G单通道图像值和蓝色B单通道图像值,再把绿色G单通道图像值和蓝色B单通道图像值赋0,最后把R,C,B三个单通道图像组合成一副新的三通道图像,图像中只有原来是红色的区域还是红色,其余都为黑色。图5(a)给出了摄像头采集的原始图片,图5(b)给出了处理后的图片,可以清楚地看到分离出的凸型红色区域。
图5:图像处理过程
对新图经过灰度化,阈值化处理,提取出凸型红色区域的轮廓,如图5(c)所示,最后通过Hu矩匹配,判断是否为目标的特征图案。如果是目标特征图案,通过轮廓上每个点在视野中的坐标计算出轮廓的形心坐标,即目标在视野中的坐标位置,根据图标的几何位置关系,就可以得到凸型标志的
方向,即移动目标的运动方向,如图5(d)所示。
文中提到了轮廓Hu矩匹配的方法,它对包括缩放、旋转和镜像映射在内的变化具有不变性,能够提高匹配的效率,不会因为直升机高度变化或姿态变化影响对目标的识别。
3 无人直升机控制结构
在无人直升机跟踪移动目标过程中,我们希望移动目标始终处在摄像头视野的正中间位置。具体控制过程是,当无人直升机接收到视觉给出的目标在摄像头视野位置坐标后,飞控计算机根据摄像头成像原理,即小孔成像原理,以及摄像头距离目标的实际高度,计算出目标与摄像头中心水平方向XY轴的实际距离,即实际的相对坐标位置,然后转换为机体坐标系下坐标,与期望的相对位置坐标形成反馈,经过控制律解算出舵机输出量,控制无人直升机不断调整以减小位置误差,从而最终实现无人直升机跟踪移动目标。另外,根据目标运动方向可以预估目标的运动趋势,调整无人直升机的飞行方向,图6给出了直升机控制框图。
图6:无人直升机控制结构框图
4 实验结果及分析
针对提出的基于计算机视觉引导无人直升机跟踪移动目标技术,本文进行了实际飞行验证。实验中采用TREX600模型直升机,移动目标如图2所示。
实验时,摄像头安装在一个两轴云台上,始终保持其朝下拍摄,不受无人直升机的姿态影响。摄像头视野坐标系的中心(视野坐标系原点)与机体坐标系原点重合,视野坐标系的XY轴视与机体XY轴重合。视觉传感器采用100度广角的USB摄像头,焦距3.6 mm。视处理器采用2.5寸工业主板,型号为21268HW,CPU:Intel Cedar view—M N26001.6 G,其处理速度快,可以达到视觉处理的要求。以上设备都属于机载设备,所有的视觉导航信息处理都在无人直升机上完成,完全实现无人直升机的自主飞行。
首先验证视觉引导给出的位置信息,对计算得到的相对位置坐标与实际测量的相对位置坐标进行对比,实验结果如表1所示,只包含部分数据。
表1:位置坐标统计表
图7:实际飞行跟踪一帖图像
由表1可知,计算机视觉得到的位置坐标与实际的位置坐标存在误差,但是误差很小,能够满足无人直升机跟踪移动目标,而且每一帧图像处理的速度在0.015~0.020 s,识别成功率高于95%,与其他的运动目标跟踪图像处理算法相比有很大优势。图7给出了实际飞行时无人直升机跟踪移动目标的图像,目标识别定位的效果很好,速度很快,并且能够提供准确的移动目标运动信息,完全达到预期目标,满足了无人直升机跟踪移动目标对位置信息的要求。
实际飞行中,移动目标只有水平方向上的两自由度运动,速度大概为0.4 m/s,并且无人直升机由GPS引导到移动机器人附近,无人直升机飞行速度不超过1 m/s。
图8给出了实际飞行相对误差曲线,即期望的相对位置坐标与视觉获得相对位置坐标的误差,通过图可以清楚地看出,系统的动态响应很快,响应时间大概为5~10 s,稳定后有稳态误差,但不会发散。实验得到的曲线有些波动,但实际跟踪效果非常好,波动可能是因为目标移动,它们之间一直存在距离误差,不能完全消除。实验表明基于机器视觉视觉引导的小型无人直升机跟踪移动目标可以很好的实现,验证了其工程实现的可行性。
图8:相对位置误差曲线
5 结论
文中实现了无人直升机对移动目标的跟踪,从整体方案设计到具体实现给出了较为详细的过程。从实验结果可以看出,基于计算机视觉引导的方法可以很好地应用到小型无人直升机移动目标跟踪,并且充分验证了整个系统的可行性和鲁棒性。文中提出的基于视觉引导方式对小型无人直升机移动目标跟踪的实现提供了一种有效的解决方案,并且为下一步实现无人直升机移动平台降落打下基础。
- 上一条:输煤区域视频监控系统升级改造案例分享
- 下一条:机器视觉在烟草行业的应用