可靠的传感器网络和自主机器人的发展正在产生具有高度功能性和可重构性的先进水下监控系统。现有的系统包括用于跟踪和监测濒危物种的移动传感器网络,或者用于跟踪和检测可能的入侵者。这些应用中大多采用具有有限范围的无线传感器,并且由于可变的海洋环境导致出现频繁的误报警特征,而这些系统主要是协作检测目标的轨道,即得到多个小目标的时间轨迹。通过多种传感器构建网络服务实现轨道检测,简称轨道覆盖,该方面的研究较为成熟。其中有些研究给出了在关注区域的传感器位置布局,而这些研究都是假定传感器位置固定,同时监测固定区域来完成。
对于移动传感器来说,在水下目标跟踪方面的研究还要给出传感器的位置,用于生成传感器的路径或轨迹的方法包括区域覆盖、随机方法、网格方法和最优搜索策略。在以往的应用中,如传感器模型、环境条件和先验测量,最优搜索策略已显示出优于其他方法。然而,它们通常不适用于具有有限范围的传感器,或者不适用于协作的感测目标,例如轨道覆盖。协同控制方法已经被发展来提供点或区域覆盖,或者响应于感测环境协同控制传感器的信息。
网络化移动多目标跟踪系统中,检测概率、杂波率、运动模型参数等参数往往是未知的并且随着时间变化,这样的参数可变性会严重降低多目标跟踪系统的性能。Florian Meyer等人提出一个贝叶斯跟踪框架[246],其中多传感器多目标跟踪问题根据测量源不确定性范例而建立,而未知参数(单个传感器的检测概率)则被建模为马尔可夫链,然后使用置信传播方法来求解所得到的贝叶斯估计。该方法实现了一种能够适应检测概率随时间变化的多传感器多目标跟踪方法。基于该方法,海洋研究和实验中心(NATO Science and Technology Organization Centre for Maritime Research and Experimentation)开发一个混合的多机器人自治网络反潜的水下监视应用系统,其网络结构如图5-32所示。
图5-32 CMRE协同反潜静态网络
Florian Shkurti等人把YOLO目标检测方法和基于时间滤波图像的位置估计相结合,实现水下自主机器人的识别与跟踪,并实现水下护航任务[247]。该解决方案是建立在几个自主系统之上的,并基于实时深度学习的YOLO目标检测框架。该系统从多个角度学习所需目标的视觉特征,通过基于标注的水下视频的数据集,提出了几种有效的神经网络架构。该系统被应用于一种六腿水下机器人上进行试验,两台机器人通过识别系统能够做到互相跟踪并定位,通过控制来协同运动,其结果如图5-33所示,右下角的窗口是识别的效果图。Florian Shkurti等人将水下试验的视频和程序代码以及数据集都在网络上公开,感兴趣的读者可以尝试测试[4]。(www.xing528.com)
基于视觉跟踪的研究方法总体上可以分为有模型的方法和无模型的方法两种,每种方法都有自己的优缺点。在无模型跟踪中,算法没有关于它需要跟踪的对象的实例或类的先验信息,这类算法用任意目标的边界框初始化,并且它们通过半监督学习来适应视点变化,比如TLD跟踪器使用从基于图像的特征轨迹获得的正反馈和负反馈在线训练检测器。一般来说,这种类型的跟踪系统存在跟踪漂移,这种漂移是随时间累积的误差,或者是由于对目标的不可见视图的错误判定,或者是由于关节运动引起的小的累积误差,导致偏离目标对象。在基于模型的跟踪中,通过训练或获得关于目标外观的先验信息,这可以采取详细的CAD模型的形式,可以使用描述几何形状的3D模型,以便改进图像空间中目标的跟踪,通过使用线和角特征将CAD模型与图像配准。
图5-33 水下护航现场试验的样本图像[248]
水下跟踪算法的最终目的是应用于水下机器人上,用机器人系统跟踪静止和运动的目标是一个研究得比较成熟的领域。使用水下机器人实现目标跟踪的研究一般都是基于光学视觉或者声视觉。Lin等人提出了一种自主水下航行器系统[248],该系统能够协同地、自主地跟踪和跟随被声发射机标记的水下目标。AUV装备有立体声水听器,接收由声发射机发射的广播信号,以便能够实时计算方位到标签和距离到标签的测量。这些测量值通过声调制解调器在AUV之间共享,并在每个AUV的粒子滤波器内进行融合,以估计目标的位置。Donghwa Lee等人对基于视觉的水下机器人目标检测与跟踪技术进行了深入的研究[249],为了克服摄像机的局限性,他们充分利用图像数据的优势,进行了多种方法的试验。针对退化的水下图像、水下目标检测和跟踪方法,在水下机器人平台上进行了实验,验证了所提出算法的可行性。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。