摘要

元学习方法近年被引入推荐系统以缓解冷启动问题。现有元学习算法只能提高算法处理一组静态分布的数据集(任务)的能力。当面对多个服从非平稳分布的数据集时,现有模型往往会出现负知识转移以及灾难性遗忘问题,导致算法推荐性能大幅下降。探索了基于变分持续贝叶斯元学习(Variational Continuous Bayesian Meta-Learning, VC-BML)的推荐算法。首先,算法假设元参数服从动态混合高斯模型,使其具有更大的参数空间,提高了模型适应不同任务的能力,缓解了负知识转移问题。然后,VC-BML的任务集群数量由中国餐馆过程(Chinese Restaurant Process, CRP)来灵活确定,使得模型在不同的混合分量中存储不同任务分布的知识,并在类似任务出现时调用这些知识,有助于缓解传统算法中的灾难性遗忘问题。为了估计模型参数的后验概率,算法采用了一种更稳健的结构化变分推理方法来近似后验值,以避免遗忘知识。最后,VC-BML在4个非平稳分布的数据集上的表现均优于基准算法。与基于点估计的基准算法相比,VC-BML提高了模型的稳健型,有助于缓解灾难性遗忘问题。