信息动态
通知公告
当前位置: ok138cn太阳集团 >> 通知公告 >> 正文

信息学院、网络重点实验室2021年11月06日学术报告通知

发布日期:2021/11/05  作者:  点击:

CCF-MM走进高校系列学术报告@济南大学

时间:2021116日(星期六)14:00-18:00

地点:12704(限30人,全程佩戴口罩,签到时出示健康码)


报告一  1400-1450

题目:多媒体取证

摘要:多媒体(图像、音频、视频)是社交网络重要内容,并越来越多被采用作为数据证据。然而,有了功能强大的多媒体编辑工具(例如用于图像编辑的PhotoShop, 用于音频编辑的CoolEdit, GoldWave and Adobe Audition,用于视频编辑的Adobe Premiere),普通用户都可以很方便地对多媒体内容进行篡改而不留下听觉/视觉痕迹。AI技术的发展,将多媒体造假水平提升到一个新的阶段。虚假多媒体给国家和社会带来了很大的安全问题。本报告首先从多媒体取证的研究背景开始,然后结合本领域近年的研究进展和本实验室的部分研究工作,介绍多媒体取证主要研究内容,最后谈谈相关技术的应用前景。

专家简介:黄继武,工学博士。深圳大学特聘教授、IEEE Fellow。获得过国家杰出青年科学基金资助。广东省网络与信息安全产学研创新联盟理事长。分别毕业于西安电子科技大学(电子对抗专业,学士)、清华大学(通信与信息系统专业,硕士)、中国科学院自动化所(模式识别与智能系统专业,博士)。研究兴趣为多媒体取证与安全、信息隐藏。发表学术论文300多篇;谷歌学术引用近17000次,个人H-index 69。连续多年入选爱思唯尔中国高被引学者榜单。曾获国家自然科学二等奖(排名第二)、教育部自然科学一等奖(排名第一)、中国计算机学会自然科学一等奖(排名第一)。曾任IEEE Trans. on Information Forensics and Security 副编辑。


报告二 1450-1540

题目:QoE驱动的虚拟现实视频传输关键技术

摘要:网络和视频技术的发展加速了虚拟现实技术的普及,但高码率、有限网络资源和网络延迟阻碍了虚拟现实视频的广泛使用。视点自适应技术的出现,为虚拟现实视频的高质量传输提出一个可行途径。本报告主要介绍QoE 驱动的视点自适应传输框架和挑战,包括QoE 传输模型、视点预测、全景视频映射和分块传输等关键技术。以视频QoE 模型为目标,通过视点区域的局部传输,在带宽受限的网络上实现高质量的虚拟现实视频传输。

专家简介:郭宗明,博士生导师、北京大学二级教授、享受国务院政府特殊津贴专家,中国计算机学会杰出会员,目前担任北京大学王选计算机研究所学术委员会主任兼副所长、电子出版新技术国家工程中心主任、教育部中国文字字体设计与研究中心主任。主要研究方向为智能媒体处理技术。科研成果曾获国家科技进步二等奖(第一完成人)、教育部科技进步一等奖(第一完成人)、中国高等学校十大科技进展(第二完成人)等。教书育人方面获得北京市优秀师德先进个人荣誉,六次获得北京大学优秀博士论文指导教师称号。截至到目前累计发表学术论文200多篇,授权专利100多项。


报告三 1550-1640

题目:人机共友好的视频编码

摘要:随着网络化数字媒体时代的到来,图像视频的传输量已经达到网络信息传播总量的80%以上,对图像视频数据的高效压缩成为必然。经过几十年的发展,混合预测/变换编码方法已经取得良好的性能,许多编码标准已经被开发并广泛应用于各种场景,如 MPEG1/2/4H.261/2/3 H.264/AVCAVS 系列、 H.265/HEVC H.266/VVC等。传统的编码技术主要服务于人类的视觉需求,然而,随着视频监控设备在世界各地(特别是我国)的广泛布设,越来越多的视频数据不仅要面向人类使用,更要面向机器使用。因此,重新定义和设计既能服务于人又有利于机器视觉任务的图像视频编解码技术迫在眉睫!本报告将介绍课题组的最新科研课题《人机共友好的视频编码》的研究目标、研究思路和技术方案。

专家简介:赵耀,长江学者特聘教授、国家杰出青年科学基金获得者、万人计划科技创新领军人才。现任北京交通大学信息科学研究所所长,“现代信息科学与网络技术”北京市重点实验室主任。研究领域为数字媒体信息处理与智能分析,包括图像\视频压缩,数媒体内容安全,媒体内容分析与理解,人工智能等。主持了国家重点研发计划、973计划等课题30余项。在包括IEEE Trans.等国内外期刊、会议上发表论文200余篇。作为第一完成人获北京市科学技术奖一等奖等省部级奖励4项。指导的博士生7人获北京市和中国计算机学会优秀博士论文奖。受邀担任了 IEEE Transactions on CyberneticsIEEE Transactions on Circuits and Systems for Video Technology等多个国际杂志编委。他是国务院学科评议组成员,科技部重点研发计划云计算与大数据专项总体组专家。


报告四 1640-1730

题目:基于深度学习的情感识别

摘要:随着人工智能技术的发展,人们对人机交互提出了更高的要求,希望计算机可以更“拟人化”,可以正确认知用户的情感并做出积极且准确的反馈。表情和语音是人类表达情感最自然,最有效的手段。本报告主要介绍基于视觉语音的情感特征学习和情感识别方法。

专家简介:毛启容,江苏大学计算机科学与通信工程学院教授、博士生导师。国家重点项目主持人,江苏省“青蓝工程”中青年学术带头人(2018年),江苏省第十批六大人才高峰培养对象,国家一流专业负责人,江苏省 大数据泛在感知与智能农业应用工程研究中心主任,江苏省全英文精品课程负责人。

主要研究方向:智能信息处理,包括复杂环境下的图像、声音以及跨媒体融合处理。在情感计算、多媒体信息处理、人机交互方面的研究成果在JCR-1区杂志和中国计算机学会规定多媒体A类会议等权威国际(内)学术会议和期刊上发表论文30余篇,获授权发明专利12项,主持国家自然科学基金4项,其他省部级项目5项。基于视觉语音行为监控与展现的研究成果在重症病人监护、医疗设备智能交互、驾驶员行为分析等领域进行推广应用,获得了很好的经济效益,获省部级及行业科技进步奖4

上一条:信息科学与工程学院、网络重点实验室2022年04月08日学术报告通知

下一条:信息学院、网络重点实验室10月14日学术报告通知

地址:山东省济南市南辛庄西路336号太阳集团tcy8722
邮编:250022
电话:0531-82767500
邮箱:ise_bgs@ujn.edu.cn

微信公众号 | 济大信息青年

XXXYGF

Copyright © 太阳集团tcy8722 All Rights Reserved
Baidu
sogou