当前位置:首页  校园快讯

我校举办2020年高性能计算与数据分析研讨会

2020-05-28来源:数学与统计学院作者:作者(文):徐玮玮作者(图):葛志昊 发布: 责编:阙华燕访问量:20

5月23日-24日,南京信息工程大学60周年校庆活动暨2020年科技活动月——2020年高性能计算与数据分析研讨会顺利在线召开。会议由中国工业与应用数学学会主办,我校数学与统计学院与中国工业与应用数学学会体育数学专业委员会、江苏省工业与应用数学学会共同承办。我校副校长戴跃伟出席会议并致辞,数学与统计学院院长张建伟致欢迎辞,200多名学者一起在线探讨数学应用,共贺南信大60华诞。会议由数学与统计学院副院长刘文军主持。

本次线上学术研讨会共历时两天,有14位报告人作了精彩报告,带来了国内外最新的研究成果。23日上午,中国科学院刘歆研究员重点讨论了正交约束优化问题,并介绍了最新在Stiefel流形上采用的近端梯度技术;北京大学林宙辰教授在报告中提出了一种新的训练前馈神经网络的优化方法;美国普渡大学杨海钊教授介绍了对基于深度学习的数值分析的几点思考,主要集中在深度神经网络的逼近和优化方面。

23日下午,复旦大学郦旭东教授介绍了在大规模线性规划问题方面的一些工作,提出了一种基于半光滑牛顿法的近似增广拉格朗日方法;复旦大学邵美悦教授介绍了激发态计算中产生的一类带结构的特征值问题;上海纽约大学凌舒扬教授讨论了谱聚类的数学基础中的两个重要进展。

24日上午,中国科学院明平兵研究员提出了一种基于深度神经网络的求解偏微分方程的数值方法;美国杜克大学李颖洲教授介绍了一种低复杂度的CNN——“Butterfly- net”,具有结构化和稀疏的跨通道连接;北京大学董彬教授主要讨论了最近深度学习对计算数学的一些影响,并介绍了用数值微分方程连接深度神经网络的工作;上海交通大学许志钦教授演示了在高维基准数据集(MNIST/CIFAR10)和深度神经网络(VGG16)上一个非常普遍的频率原理(F-Principle)——DNNs通常适合从低频到高频的目标函数。

24日下午,清华大学史作强教授介绍了一些基于偏微分方程的点云插值方法;香港理工大学李步扬教授介绍了在一般的多边形区域中时间依赖的Ginzburg-Landau方程被重新表述成一个新的方程组,提出了一种线性化、解耦的Galerkin有限元法求解新系统;中国科学院于海军研究员在报告中证明了具有整流幂次单元(RePU)的深度网络比深度ReLU网络能更好地逼近光滑函数;华南师范大学叶颀教授报告了在Banach空间上引入了一个基于核的概率测度的概念,通过配点和插值等随机方法来求解确定性问题。

本次会议受到我校和国家自然科学基金的资助,会议促进了高性能计算、数据分析等方向的交叉研究,增进了国内外同行专家的学术交流与合作,开阔了相关领域青年教师和研究生的学术视野。

戴跃伟副校长致辞

200多位代表在线参会

返回原图
/