网站地图 | 联系我们 | English | 意见反馈 | 主任信箱
 
首页 中心概况 新闻动态 科研进展 交流合作 人才培养 研究队伍 人才招聘 政策规章 数学交叉科学传播
学术报告
现在位置:首页 > 学术报告

Convergence and Implicit Regularization of Deep Learning Optimizers
【2023.4.11 10:00am, N109】

【打印】【关闭】

   2023-4-4 

  Colloquia & Seminars 

  

  Speaker

陈薇研究员,中国科学院计算技术研究所

  Title

Convergence and Implicit Regularization of Deep Learning Optimizers

  Time

4月11日10:00

  Venue

N109

  Abstract

  In this talk, I will present our recent work on the convergence/generalization analysis for the popular optimizers in deep learning. (1) We establish the convergence for Adam under (L0,L1 ) smoothness condition and argue that Adam can adapt to the local smoothness condition while SGD cannot. (2) We study the implicit regularization of DL optimizers. For adaptive optimizers, we prove that the convergent direction of RMSProp is the same with GD, while that of AdaGrad depends on the conditioner; for momentum acceleration, we prove that gradient descent with momentum converges to the L2 max-margin solution, which is the same as vanilla gradient descent. 

  Affiliation

  陈薇,中国科学院计算技术研究所研究员、博士生导师,中国科学技术大学数学科学学院兼职博士生导师.曾任微软亚洲研究院计算学习理论组负责人、理论中心共同主任。研究领域为机器学习基础理论与方法,研究兴趣包括深度学习理论、因果机器学习、分布式机器学习等。入选中科院人才引进计划、中科院基础研究领域青年团队计划,福布斯中国科技女性榜。在机器学习和人工智能顶级国际会议/期刊发表学术论文60余篇,出版学术专著1本,担任ICML、NeurIPS等机器学习国际会议领域主席。 

  

  

欢迎访问国家数学与交叉科学中心 
地址:北京海淀区中关村东路55号 邮编:100190 电话: 86-10-62613242 Fax: 86-10-62616840 邮箱: ncmis@amss.ac.cn