摘要

为了提高传统随机并行梯度下降(Stochastic Parallel Gradient Descent, SPGD)算法校正波前畸变的性能,提出了一种基于AdaBelief优化器的新型SPGD优化算法。该算法将深度学习中AdaBelief优化器的一阶动量和二阶动量集成到SPGD算法中以提高算法的收敛速度,并使得算法能够自适应地调整增益系数。此外,对实际增益系数进行自适应动态裁剪以避免因实际增益系数出现极端值而造成的震荡。仿真结果表明:在37单元变形镜(Deformable Mirror, DM)下,新型SPGD优化算法能够对不同湍流强度下的波前畸变实现有效校正,不同波前畸变经过校正后的斯特列尔比(Strehl ratio, SR)分别提升至0.83、0.47和0.31。此外,该算法在不同湍流强度下的SR仅仅需要149、229和230次迭代达到阈值,与传统SPGD算法及其他优化算法相比有更快的收敛速度,且在稳定性和参数调节方面也具有一定的优越性。