深度传感器的三种技术
目前人们如果想探测环境深度信息,主要依赖于三种技术,分别是相机阵列, TOF(time of flight)技术,以及基于结构光的深度探测技术。
结构光:
接收器使用激光光源投射目标物,检测反射目标物的变形,以基于几何形状计算深度图。它必须扫描整个平面以获得需要时间的深度图,因此它是非常准确的。但是,此方法对环境亮度敏感,因此通常仅在黑暗或室内区域使用。
飞行时间(ToF):
ToF 主要有两种方法。第一个很简单:激光源发出一个脉冲,传感器检测到该脉冲在目标物体上的反射,以记录其飞行时间。知道了光的恒定速度后,系统可以计算出目标物体的距离。为了确保高精度,脉冲周期必须短,这导致较高的成本。另外,需要高分辨率的时间数字转换器,这会消耗很多功率。这种方法通常可以在高性能 ToF 传感器中找到。
计算时间的另一种方法是发出调制光源并检测反射光的相位变化。相变可以通过混合技术容易地测量。调制激光源比发出短脉冲更容易,并且混合技术比时间数字转换器更易于实现。此外,LED 可用作调制光源来代替激光。因此,基于调制的 ToF 系统适合于低成本 ToF 传感器。
相机阵列:
摄像头阵列方法使用放置在不同位置的多个摄像头来捕获同一目标的多个图像,并根据几何结构计算深度图。在计算机视觉中,这也称为“立体视图”或“立体”。最简单但最受欢迎的相机阵列是双相机,其中两个相机相隔一定距离以模仿人眼。对于空间中的每个点,在两个摄像机图像中的位置均出现可测量的差异。然后,通过基本几何来计算深度。
相机阵列的主要挑战是如何在多个图像中找到匹配点。匹配点搜索涉及复杂的 CV 算法。目前,深度学习可以帮助您找到准确度较高的匹配点,但是其计算成本很高。另外,有很多点很难找到匹配点。例如,在上面的瓦格纳雕像的两个视图中,鼻子是最容易匹配的点,因为它的特征易于提取和比较。但是,对于面部的其他部分(尤其是面部无纹理的表面),很难找到匹配点。当两个相机图像的遮挡不同时,匹配会更加复杂。目前,相机阵列作为深度传感器的鲁棒性仍然是一个具有挑战性的问题。
三种深度感测技术的对比
整体表现
对于深度感测,最重要的指标是深度精度。结构光具有最佳的深度精度性能,而相机阵列往往具有最大的深度误差。
就深度感测范围而言,结构光的范围最短,而 ToF 的范围取决于光源的发射功率。例如,智能设备可能只需要几米的距离,而自动驾驶汽车则需要几百米。同样,摄像机阵列的测量范围取决于两个摄像机之间的空间。对于常规摄像机阵列,最佳性能测量范围通常在 10m 左右,尽管也显示了某些具有极窄空间的特殊摄像机阵列可以在 1m 左右测量深度。
对于深度图分辨率,结构光的性能优于 ToF,因为可以精确控制结构发光图案并精确捕获其反射图案。从理论上讲,摄像机阵列具有良好的分辨率,但这是基于两个图像中的完美点匹配。使用非理想的点匹配(如光滑表面)时,分辨率会降低。
最后,我们需要考虑对环境亮度的限制。结构光需要黑暗的环境,而 ToF 传感器由于快速发展的背景消除技术而可以承受更大范围的环境亮度。对于摄像机阵列,明亮的环境效果最佳。在黑暗的房间中,相机阵列捕获的图像会变得嘈杂,并且对比度变差,因此点匹配变得极为困难,从而导致深度估计不准确。
成本
摄像机阵列的成本通常最低,其开发工作主要在软件方面。双摄像头解决方案已经广泛应用于许多智能设备和移动电话中。ToF 传感器的成本适中,而结构光的成本最高。但是,随着 ToF 的批量生产,预计其成本在不久的将来会大大降低。
可扩展性
通过展望这些技术的潜力,我们可以更好地利用它们来满足未来的需求。
ToF 是半导体技术,并且具有最佳的可伸缩性。它的深度精度可以通过片上时间数字转换器 / 混合电路进行缩放,其深度图分辨率可以通过传感器尺寸进行缩放,其测量范围可以通过光源功率 / 调制方案进行缩放,并且其功耗可以通过用半导体技术扩展规模。
另一方面,结构光具有不错的可伸缩性。光学系统是结构光的关键组成部分,光学系统可以随着封装技术而扩展(尽管不如半导体快)。
最后,缩放摄像机阵列主要依赖于软件:我们将需要更好的算法来缩放其深度感应性能。它更像是一个数学问题,而不是工程问题,而改进硬件并没有太大帮助。即使使用分辨率更高的相机,点匹配问题仍然存在。
建议仅使用结构光来执行生物识别任务,因为它具有最佳的深度精度。游戏应用需要中等深度分辨率和快速响应,因此 ToF 传感器似乎是最合适的。对于其他应用程序(包括定位,识别,测量和增强现实),所有技术都可以做到,但是某些技术比其他技术更适合特定的应用场景。例如,相机阵列可能最适合在需要深度测量范围的开放空间中的 AR 应用,而 ToF 传感器最适合可以控制环境亮度的室内 AR.