报告人简介: 李勇,南京理工大学助理教授,博导。博士毕业于中国科学院大学,博士阶段主要从事人工智能、模式识别与情感计算方面的研究工作。累计发表CCF-A类文章 6 篇,其中第一作者 3 篇(期刊 2 篇,会议 1 篇, 包括 1 篇 IEEE T-PAMI, 1篇 IEEE T-IP, 1 篇 CVPR 2019 口头报告论文)。 此外,他还曾以第一完成人获得 2017 年 ACM Multimedia亲子关系验证国际竞赛冠军。
报告内容简介: 自动化的面部表情分析是未来人机交互的关键步骤,也是情感计算的重要研究内容。在开放场景中,由于受光照、遮挡、头部姿态等因素的影响,自动化的面部表情分析依然是一个很有挑战性的问题。此外,开放场景中很难收集到大量包含丰富表情变化并且标注完整的训练数据,数据不足进一步加剧了开放场景中面部表情分析的难度。本次报告将介绍利用增广的遮挡数据、无标签视频人脸数据、异质标注的面部表情数据进行表情分析模型学习的方法。所提方法发表于TIP 2018/CVPR 2019 /TPAMI 2020,不但提升了开放场景中面部表情的识别精度,同时以无监督的方式学习到与头部姿态无关的表情特征表示,具有良好的实用价值。
|