报告题目:Stochastic Optimization for Nuclear Norm Regularization
报告人 :张利军 副教授
报告时间:12月31日,16:00-17:00
报告地点:学院507会议室
摘要:In this talk, I will exploit stochastic optimization to reduce the space complexity for certain learning problems involving matrices. Specifically, I study convex composite optimization with a nuclear norm regularizer, and develop an algorithm based on stochastic proximal gradient descent (SPGD). During the optimization process, the space complexity is linear in the sum of the dimensions of the matrix instead of their product, thus reducing the space complexity significantly. As a theoretical contribution, the convergence rate of the last iterate of SPGD is established for nuclear norm regularization. Finally, I will discuss how to apply the proposed algorithm to kernel PCA and report its performance.
简介:张利军,博士,副教授。分别于2007年6月和2012年6月在浙江大学获工学学士和工学博士学位;分别于2011年6月至12月、2012年8月至2014年4月,以访问学生、博士后身份在美国密歇根州立大学访问研究;于2014年4月加入南京大学计算机科学与技术系。主要研究方向为大规模机器学习及优化,在国际学术会议和期刊上发表论文40余篇,包括顶级会议和期刊ICML、NIPS、COLT、AAAI、ACM MM、AISTATS、TPAMI、TIT、TIP、TKDE。曾获浙江大学“竺可桢奖学金”、南京大学“登峰人才支持计划”、第26届AAAI人工智能国际会议“最佳论文”等荣誉。