光场图像的被动式深度估计算法研究文献综述

 2023-08-04 10:08
  1. 文献综述(或调研报告):

光场三维成像调研报告

1 引言

计算机视觉利用机器,在目标识别、信息处理过程中模拟人类视觉功能,目前被广泛应用于工业制造、自动驾驶、医疗仪器等方面。随着数据量的增大及计算机科学的发展,计算机视觉更加智能化,辅助各行各业实现更多复杂的识别、处理和控制功能。然而,无论是造价昂贵的专业数码相机,或是手机摄像头,都具有以下不足:一是主镜头的光圈与景深相互制约,二是深度信息的丢失。

传统的技术只能提供目标的二维信息,缺少了深度信息,不符合人眼观测的视觉习惯。获取三维场景中物体的深度信息是计算机立体视觉的重要目标之一,它反应了目标到相机表面的距离信息。目前根据测量原理不同,可以分为超声测量、电磁测量、光学测量等方式。

光学测量又可分为以下两类:主动视觉(active vision,AV)和被动视觉(passive vision,PV)[1]。主动视觉通过光源发射的激光或结构光,获取目标距离光源的几何信息,进而直接计算出物体与光源的距离。这种方式虽然能够直接获取目标的几何形状和物理尺寸,但操作复杂,成本较高。与主动视觉相比,被动视觉无须通过光束与目标的直接接触获取位置信息,而是通过若干摄像系统获取的二维图像,利用视差原理,间接确定空间位置,具有简单可靠、速度快等特点,在民用和军用方面有更广泛的应用,是计算机视觉的研究热点。

常见的被动式方法包括双目立体视觉、多目立体视觉、描影法、运动视觉和散焦法。双目立体视觉是最常见的被动式成像法,即使用两台摄像机获取目标的二维图像,通过计算视差重建目标的深度。其优势是精度高,缺点是在两幅图像的特征点匹配时计算量大,需要严格控制系统的鲁棒性。描影法则不存在双目立体视觉中的特征点匹配问题,但它获取目标信息的耗时长。除此之外,运动视觉能够提取出目标的运动信息,散焦法可以克服双目立体视觉中的遮挡问题。

近年来,光场被应用于三维成像。光场成像理论起源已久,但直至近十多年才逐渐被推广使用,成为现代成像技术的重大突破。机器在获取目标的二维图像后,通过自动化地提取景深信息,实现三维成像,与传统的二维图像采集相比具有显著创新,可以实现“先拍摄,后对焦”,同时可以实现全对焦成像、深度估计、三维成像等目标。基于光场技术和深度学习的三维超分辨率成像,相对于传统的双目立体视觉,具有低光环境表现良好、响应时间快、精确度高、材料成本低等优势。通过提升软件和算法的复杂度,实现高精度的实时深度测量。利用光场解析出目标的深度信息,从而实现深度估计。

2 光场三维成像的研究现状

光场成像的起源可追溯至二十世纪初。Michael[3]于1864年首先提出用场的观点描述光线的分布。Ives[19]于1903年通过在主透镜的像面处放置针孔面阵列,使得像面处的光线重新排布。Lippman[20]于1908年用微透镜阵列替代Ives的针孔面阵列,消除了弥散斑。Gershun[4]于1939年进一步提出光场的概念,认为可以通过几何分析而进行积分的方式来计算像面上每点的光辐射量[21],但限制于当时计算机尚未出现,无法进行数量庞大的运算,因而并未进行理论验证。从1991年至1996年,Adelson、James[5]、Levoy[6]等人先后将描述光场的函数由五维发展为四维函数,Adelson[22]于1992年提出全光场理论。当前应用的模型为双平行平面的四维函数L(s,t,x,y),以此描述光场的分部信息。Ng[7]与2006年详细阐述了光场相机的原理、模型、标定、重聚焦等内容,自此,光场相机的应用逐渐推广。随着角度信息的加入,可以模拟人眼看到三维物体各个角度的图像[8]。如今,光场成像获取目标的四维光场信息,即在传统成像的基础上增加光线的角度信息,实现了数字重聚焦、视点变换、景深拓展等目标[2]

由研究空间中所有光线的光辐射函数构成的整体,就是光场。其中,光线携带四维信息,包括二维位置信息和二维方向信息。根据双平行平面理论,光线与两个平行平面相交于两点,通过四维函数L(s,t,x,y)描述光场的分布信息。目前获取光场信息的方式主要包括以下几种[14]:第一,通过微透镜阵列获取光线信息。这是目前适用范围最广泛、实现最简单的方式。通过在主透镜后插入微透镜阵列,实现角度信息的记录;第二,通过相机阵列获取光场信息,通过一系列视角不同的相机抓取图像,重建三维光场数据;第三,通过掩膜获取图像,变换至频率域进行后期处理。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。

已经是最后一篇了