讲座编号:jz-yjsb-2021-y036
讲座题目:中国计算机学会计算机视觉专委会走进高校系列报告会
主 讲 人:查红彬 教授 北京大学
赵 耀 教授 北京交通大学
纪荣嵘 教授 厦门大学
张 磊 教授 重庆大学
讲座时间:2021年9月27日(星期一)下午14:00
讲座地点:obao欧宝娱乐 阜成路校区西区综合楼一层报告厅
参加对象:视觉领域专业人士、研究生、媒体、其他有兴趣者
主办单位:计算机学院、研究生院
主讲人简介:
查红彬,北京大学信息科学技术学院智能科学系教授,机器感知与智能教育部重点实验室主任。主要从事计算机视觉与智能人机交互的研究,在三维视觉几何计算、三维重建与环境几何建模、三维物体识别等方面取得了一系列成果。出版学术期刊及国际会议论文300多篇,其中包括IEEE T- PAMI,IJCV,IEEE T-VCG,IEEE T-RA,IEEE T-SMC,ACM T-IST,JMLR,PR 等国际期刊以及ICCV,ECCV,CVPR,CHI,ICML,AAAI,ICRA等国际学术会议论文100多篇。
赵耀,长江学者特聘教授、国家杰出青年科学基金获得者、万人计划科技创新领军人才、科技部重点领域创新团队带头人。现任北京交通大学信息科学研究所所长,“现代信息科学与网络技术”北京市重点实验室主任。研究领域为数字媒体信息处理与智能分析,包括图像\视频压缩,数媒体内容安全,媒体内容分析与理解,人工智能等。主持了973计划、863计划等课题30余项。在包括IEEE Trans.等国内外期刊、会议上发表论文200余篇。作为第一完成人获北京市科学技术奖一等奖等省部级奖励4项。指导的博士生7人获北京市和中国计算机学会优秀博士论文奖。受邀担任了 IEEE Transactions on Cybernetics等多个国际杂志编委。他是国务院学科评议组成员,享受国务院政府特殊津贴。
纪荣嵘,厦门大学南强特聘教授,国家杰出青年科学基金获得者。主要研究方向为计算机视觉。近年来发表TPAMI、IJCV、ACM汇刊、IEEE汇刊、CVPR、NeurIPS等会议长⽂过百篇。论文谷歌学术引用万余次。曾获2016年教育部技术发明一等奖、2018年省科技进步一等奖、2019年福建省青年科技奖。曾/现主持国防973项目,国家自然科学基金联合重点基金等项目。任中国计算机学会A类国际会议CVPR和ACM Multimedia领域主席、中国图象图形学学会学术工委副主任、教育部电子信息类教指委人工智能专业建设咨询委员会委员。
张磊,重庆大学教授,博士生导师,重庆市生物感知与智能信息处理重点实验室副主任,LiVE视觉智能与学习团队负责人,重庆市高层次人才计划入选者、重庆市杰出青年基金获得者、IEEE高级会员。主要聚焦于迁移学习、深度学习、开放环境视觉感知、跨媒体分析等领域。共发表论文100余篇,其中IEEE Trans.汇刊以及CCF-A类会议论文50余篇。多篇论文入选ESI高被引论文,出版英文专著1部,发明专利14项。担任多个SCI期刊包括IEEE Trans. Instrumentation and Measurement以及Neural Networks等期刊Associate Editor,The Visual Computer以及Frontiers in Neurorobotics期刊客座编委,以及ACM MM、AAAI、CVPR、ICCV、ICLR等会议的AC、SPC和PC等。以第1完成人先后获得吴文俊人工智能自然科学奖、重庆市科学技术奖、重庆市十佳科技青年奖3项。
主讲内容:
视觉SLAM:在线学习的途径:3D视觉的一个主要任务是利用传感器视点的变化与成像几何的约束来实现三维场景的几何与结构重建。因此,伴随传感器移动的动态视觉与3D视觉的关系愈加密切,SLAM(Simultaneous Localization and Mapping:即时定位与地图构建)技术再度成为3D视觉领域的研究热点。为了提高动态视觉系统在真实复杂场景中的应用能力,我们应充分强化视觉系统的环境自适应性,而在线学习方法是实现这一目标的有效途径。该报告将围绕基于在线学习的SLAM问题,介绍我们近来的一些想法和尝试,主要内容包括:面向自监督视觉里程计的序列对抗学习方法;具有在线自适应能力的自监督SLAM学习。
弱监督与交互式图像分割:图像语义分割,是涉及计算机视觉、模式识别及人工智能的交叉研究方向,是实现自动驾驶、智能监控、虚拟现实、医学图像诊断、机器人等国家重点应用的关键科学问题。目前,深度学习已经在图像语义分割领域取得了巨大突破。然而,大量的像素级标注通常需要消耗大量的时间、金钱和人力。因此,训练数据的不足或缺失已经成为制约图像语义分割进一步发展的关键因素之一。为减少像素级标注的巨大负担,近年来提出了许多弱监督图像语义分割技术,即利用大量容易获取的弱监督信息(如:图像标签)来完成更加复杂的图像语义分割任务。交互式语义分割是通过人机的简单交互,引导计算机实现快速准确的物体分割,是减轻像素级标注成本的重要技术手段。本报告将重点介绍课题组在基于深度学习的图像弱监督语义分割以及交互式分割方面的部分研究成果。
复杂跨媒体数据协同分析与应用:社交媒体包含了海量非合作、异构化、跨模态的数据,既蕴藏了大量的人类知识与高价值信息,也包含了各种自然与人为的噪声,对其分析与处理需要融合类脑计算、计算机视觉、自然语言处理等多个维度的智能技术。本报告主要关注基于深度学习的多模态内容协同分析与表示、跨模态信息融合及智能对抗攻防,介绍课题组在图像描述与视觉问答、语言指导的目标检测与分割、用户隐私保护、社交网络分析引导等方面的一些研究进展。
开放环境视觉感知:在实际应用中,由于数据不确定性、环境不可控性以及算法特异性,机器学习算法的适应性和安全性依然较差,传统的人工智能模型与深度学习算法难以满足开放、动态、复杂环境下的感知与应用。本报告围绕迁移自适应学习方法论以及视觉感知算法偏见问题,介绍我们近期在开放环境下的视觉感知研究进展,包括图像分类和目标检测等去偏方法。