当前位置:首页  校园快讯

我校两项成果分别被人工智能国际顶级学术会议AAAI和CVPR录用

2020-04-14来源:自动化学院作者:张开华作者(文):作者(图): 发布:唐翠梅 责编:于杰访问量:1896

近日,2020年度国际人工智能大会 (The Thirty-Fourth AAAI Conference on Artificial Intelligence AAAI)和计算机视觉与模式识别大会 CVPR (IEEE Conference on Computer Vision and Pattern Recognition) 接收论文结果揭晓。我校自动化学院刘青山教授团队的两项关于协同目标检测的研究成果分别被大会接收为oral与poster论文。张开华教授及其硕士研究生陈晋、李腾鹏同学分别为一作和二作。

AAAI是人工智能领域最高级别的会议(CCF A 类会议),收录的论文代表了人工智能领域最新的发展方向和水平。今年共收到的有效论文投稿超过 8800 篇,其中 7737 篇论文进入评审环节,最终收录数量为 1591 篇,收录率为 20.6%。

CVPR是计算机视觉领域最高级别的会议(CCF A类会议),收录的论文代表了计算机视觉领域的最新发展方向和最高研究水平。此次会议从6656 篇有效投稿中录取了1470篇论文,录取率仅为 22%。根据最新Google Scholar Citation统计,CVPR位列总榜前10,在计算机学科排名第1。

录用的AAAI论文的题目为《Deep Object Co-segmentation via Spatial-Semantic Network Modulation》,是协同目标分割方面的研究工作,内容旨在分割一组输入图片中共有的物体和区域。现有的工作往往存在检测强语义信息的能力弱,忽略了一组所有图片之间的强关联性,非端到端,计算时间成本高等问题。该工作提出了基于空间-语义调制网络的深度神经网络来实现对协同物体的分割。亮点在于,第一,提出了空间调制器子网络通过无监督学习获取图像特征描述的相关性;第二,提出了语义调制器子网络通过多级的二阶池化模块实现分类特征的转换;第三,充分利用多尺度信息以及子网络间的迁移学习和相互促进。最终结果在该领域的四个公开数据集上均达到了顶尖水准。

录用的CVPR论文的题目为《Adaptive Graph Convolutional Network with Attention Graph Clustering for Co-saliency Detection》,旨在一组相关图片中挖掘相似和显著的前景物体。为解决上述问题,该工作提出了新颖的基于注意力图聚类的自适应图卷积网络(GCAGC),并且总结出三个具有丰富实际价值的贡献。首先设计出一个自适应图卷积网络(AGCN)用来提取特征信息以描述图像内和多张图像间的一致性。然后提出了一种无监督注意力图聚类算法(AGCM)从所有显著前景区域中辨别出相似物体。最后,生成了一个基于编码和解码结构的统一框架以端到端的方式来联合训练优化图卷积网络,注意力图聚类和协同显著性解码模块。该工作在三个协同显著性检测数据集(iCoseg, Cosal2015和COCO-SEG)来评测提出的GCAGC方法。实验证明GCAGC方法的性能在几乎所有协同显著性检测算法中达到最佳。

以上研究成果的录用,标志着自动化学院在人工智能领域的持续创新与突破。

返回原图
/