针对全息显示和虚拟现实技术中存在的光场图像质量较低且无法灵活消隐等问题,提出了一种基于EPI(Epipolarplaneimage,极平面图像)融合的光场图像生成与消隐算法。首先,利用视角间的透视相关性减少冗余计算,在EPI坐标系上根据已知相机的RGBD数据对信息进行插值,获得包含密集光场信息的EPI图像。其次,设计了一种斜率亮度融合算法,通过斜率间接对EPI图像中的遮挡物体进行规范,结合亮度信息对EPI图像融合过程中的空洞进行填补。再次,为每一个数据点定义了一个光锥,通过控制光锥内的能量分布,实现光场图像中指定物体的消隐。最后,利用快速行进算法填补因消隐产生的空洞,获得高质量的密集的光场图像。结果表明:该算法在遮挡条件下生成的光场图像质量高于传统融合算法,结构相似度可达99.2%以上,并且实现了光场图像中多物体的消隐。该算法能够利用稀疏的图像数据生成优质且密集的多视角图像,消隐后可以展现更为丰富的多视角图像效果,为动态全息显示和虚拟现实等领域提供了有力的图像数据支持。
其他2025-09-28 | 中国机器视觉网 |
745