计算机工程与应用 ›› 2019, Vol. 55 ›› Issue (16): 165-169.DOI: 10.3778/j.issn.1002-8331.1804-0352
易明雨,肖赤心,潘晖,舒文杰
YI Mingyu, XIAO Chixin, PAN Hui, SHU Wenjie
摘要: 针对大数据分类问题应用设计了一种快速隐层优化方法来解决分布式超限学习机(Extreme Learning Machine,ELM)在训练过程中存在的突出问题——需要独立重复运行多次才能优化隐层结点个数或模型泛化性能。在不增加算法时间复杂度的前提下,新算法能同时训练多个ELM隐层网络,全面兼顾模型泛化能力和隐层结点个数的优化,并通过分布式计算避免大量重复计算。同时,在算法求解过程中通过这种方式能更精确、更直观地学习隐含层结点个数变化带来的影响。比较多种类型标准测试函数的实验结果,相对于分布式ELM,新算法在求解精度、泛化能力、稳定性上大大提高。