摘要

按AdaBoost自适应提升算法构建多个简单ANN然后集成,简化了ANN设计,改善了ANN性能。该理论证明:在单个ANN具有一定的要求较低的性能条件下,即误差小于50%时,该ANN集成对两分类问题的训练误差具有收敛性,对测试集的泛化误差有界。从而从理论上可以解释其对ANN性能的改进。