摘要

学习理论中,许多学习算法可以描述为一个最小化适当损失函数的贪婪过程.贪婪算法不依赖于所估计问题的参数的数目,在处理较弱条件的统计估计问题中具有较大的优势.本文研究基于凸风险最小化方法的多分类贪婪算法,推广二分类的学习问题到多分类的情形.建立了多分类贪婪算法的估计误差,证明了该学习算法的一致性.