
[作者-刘力源|编辑-王欣芮|审核-刘心月] 2025年1月22日,我组在人工智能期刊IEEE Transactions on Neural Networks and Learning Systems(TNNLS)发表了题为“Generalization Bounds of Deep Neural Networks with τ-mixing Samples”的论文。
伴随着深度神经网络的广泛应用,其泛化理论也逐步受到人工智能领域的关注。乔治梅森大学统计系A. Safikhani等在2022年人工智能顶会NeurIPS上分析了α混合样本下深度神经网络的泛化性质,并提出未来研究方向是扩展已有结果到更弱采样假设情形。鉴于此,我们探讨了τ混合样本下的深度神经网络泛化性,建立了泛化误差的上界估计,并给出了相应的模拟实验分析。该论文的理论分析框架涉及鞅差序列构造、误差分解以及基于τ混合伯恩斯坦型不等式和鞅差不等式的集中估计等。
博士生刘力源为论文第一作者,陈洪教授为通讯作者,陈耀辉副研究员、李伟夫副教授等参与了该研究工作。该项工作得到了国家自然科学基金等的资助。
