现代自动视频分析系统由具有不同输出特性的大型异构传感器网络组成,例如,静态监控摄像机,云台变焦(PTZ)摄像机,红外摄像机,雷达和高光谱传感器[119,167,485,131,519,441]。通过分析和融合传感器的数据来获得站内的情境感知和场景理解,需要将来自多个传感器的观测值映射到同一坐标系中。例如,将多个传感器的观测目标映射到大地坐标系,并显示在基于地图的界面或地理浏览器,例如,谷歌地球(Google Earth),美国航空航天局世界风(NASA WorldWind)。这种映射也实现了关键的操作任务,如网络中多个目标测量值的融合,目标相对或标准体积及其速度的推断,传感器间的目标切换,PTZ摄像机和移动传感器之间的任务分配以及站内推理。因此,许多的多传感器视频分析系统在安装时需要进行地理注册和传感器间校准[119](同样见第9章)。一般认为这时所获取的信息不随时间改变,其实是不正确的。对所有传感器而言,估计和维护地理注册需要一个自动的高效机制。
一家大型研究机构,利用图像特征进行监控和无人监控的传感器注册。最简单的情况下,人工提供图像和基准图像(map)中的四个以上的对应点便可实现平面场景和透视摄像机的注册[229]。然而,在很多情况下,基于特征的技术并不可行(例如,利用摄像机检测水地区或其他不包含许多可区别特征或本地化特征不明显的地形),并且手动注册需要较长的建立时间,专用的工具和复杂的准备。基于特征方法的缺陷以及对传感器几何拓扑结构自动估计和维护的方法的需求已激励了数据驱动的方法,该方法利用随时间变化的传感器观测值(例如,成对的同步目标检测值)来推断传感器的几何拓扑结构和网络拓扑结构[342,310,510,483]。由于这些方法将目标观测作为主要特征,这样不仅可以在无特征区进行传感器注册,而且也不需要知道传感器的输出特性。此外,它们也可自动适应传感器几何拓扑的结构变化。这些方法所面临的主要挑战是自动鲁棒地从带噪观测值中提取内点。不同的数据驱动方法解决这个问题的方法不同。我们提出的方法是利用特定域和特定模型的属性来约束搜索空间,从而实现高效的模型估计和噪声处理。特别地,该方法利用单应变换时点的共线不变性,得到缩小的搜索空间,该空间的外点(在数据中)所占的百分比明显小于原始搜索空间。大多数现有的数据驱动方法都没有考虑镜头畸变对单应性估计的影响。在目前频繁使用的高分辨率传感器中,这种畸变影响尤为突出。本文表明,我们所提方法可实现带噪场景中的单应性估计以及镜头畸变参数估计。分析结果和定量结果表明,当场景严重带噪(含有85%以上的外点)并存在镜头畸变时,我们的方法在应用于高效鲁棒性平面单应性估计时性能最好。我们将其应用到包括大型传感器网络的多个方面。包括:①在定期的系统地理注册中,融合来自目标和带有射频识别(RFID)标签的车辆和人员的数据,其中的目标广播自己的地理位置信息,如专用移动单元(船,人,车)或广播自动识别系统(AIS)信息的目标;②融合来自传感器的信息,这些传感器带有用于自动地理注册和维护的视觉传感器,记录视场内目标的地理位置(例如,雷达);③通过融合传感器的目标观测值对视场重叠的多视觉传感器进行校准。我们在13.4节中正式定义了数据驱动传感器的校准问题,这些应用程序都将作为特例。接下来,我们将这些问题统称为数据驱动多传感器校准。(www.xing528.com)
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。