摘要

由于数据通量限制,光场数据采集存在空间-角度分辨率折中,无法达到诸多应用场景对精细三维重建的要求。本文使用双平面参数化光场数据训练神经辐射场,由神经辐射场生成光场视点平面上新的视点图像,进而实现光场角度域超分辨。由于神经辐射场能够对光场场景进行隐式表达,为高分辨率的四维光场拟合出准确的隐式函数,并将输入变量通过位置编码映射到该变量的傅里叶特征。因此该方法可以准确表达具有复杂不利条件的光场场景,并且能够有效地解决场景高频纹理信息较难拟合的问题。本文通过超分辨光场的角度域信息突破空间-角度分辨率折中、带宽积的限制,在实验中将角度分辨率从5×5提升到9×9,并且峰值信噪比(PSNR)平均提升了13.8%,结构相似度(SSIM)平均提升了9.19%。该研究结果可为后续的光场计算成像工作提供参考。