报告人:孙若愚教授
报告时间:2022年6月24日 上午10:00
报告地点:信息科学与工程学院 院楼624
报告摘要:
如何成功训练一个神经网络?哪些训练技巧是关键,它们分别起什么作用?我们回顾神经网络训练的一些关键方法,包括初始化、正则化、增加网络宽度、使用Adam算法等,从机器学习基础理论的角度分析这些方法对于神经网络训练效果所起的作用。本讲座内容主要来自于孙若愚博士最近所撰写的综述"optimization for deep learning: theory and algorithms"以及孙博士最近在这个方向上所做的一些工作。
报告人简介:
孙若愚是伊利诺伊大学香槟分校(UIUC)工业与系统工程系和电子与计算机工程系(兼)助理教授。在加入UIUC之前,他曾任Facebook AI Research的访问科学家,和斯坦福大学博士后学者。他在明尼苏达大学电子工程系取得博士学位,在北京大学数学科学学院取得本科学位。2021年入选海外高层次人才。
孙博士研究兴趣包括机器学习、数学优化、无线通信、信号处理等,尤其是深度学习算法、生成对抗网络、自适应梯度方法、大规模优化算法、通信网络优化等。他曾获得了INFORMS乔治•尼科尔森学生论文竞赛的第二名,并获得了INFORMS优化协会学生论文竞赛荣誉奖。他在机器学习会议以及Mathematical Programming、SIAM Journal on Optimization等顶尖数学优化杂志发表数篇关于深度学习与优化理论紧密结合的文章。目前担任机器学习顶会ICLR, NeurIPS, ICML, AISTATS等的领域主席。
邀请人:曾凡仔
联系人:肖竹