数学交叉科学研究所学术报告(雷云文 博士,香港浸会大学)
来源:系统管理员 发布时间:2023-04-04
报告题目:随机梯度下降的学习理论
报 告 人:雷云文 博士,香港浸会大学
报告时间:2023年4月7日8:30-9:30
报告方式:腾讯会议,会议号338-683-979
报告摘要:随机梯度下降(SGD)是求解机器学习优化问题的主流算法。SGD模型的统计特性取决于优化误差和泛化误差。本次报告通过同时考虑优化误差和抽样误差来分析SGD的泛化行为。 我们引入新的稳定性指标来去掉现有分析中的一些约束条件并显著改善了现有的泛化误差界。 结果建立了优化与泛化之间的新联系,并揭示了如何通过提前停止来实现最佳学习性能。
报告人简介:雷云文,香港浸会大学数学系助理教授。雷云文博士于2014年在武汉大学获得博士学位。他曾担任伯明翰大学计算机学院讲师、德国凯撒斯劳滕工业大学**学者、南方科技大学研究助理教授、香港城市大学博士后研究员。研究兴趣包括统计学习理论和优化。在机器学习的著名会议ICML,NeurIPS、ICLR和应用数学及机器学习领域中有影响力的期刊上发表了一系列学术论文,主要包括IEEE Transactions on Information Theory, IEEE Transactions on Pattern Analysis and Machine Intelligence,Journal of Machine Learning Research, Applied and Computational Harmonic Analysis等。
邀请人:向道红
欢迎数学和计算机专业的教师和研究生参加!