联系人:
所在地:
本项目提出基于多种视觉信号的社会辅助机器人双向情感交互研究,包括研究听觉信号增强的面部动作单元识别方法;研究基于Allen区间代数的动态面部行为和身体姿态感知和理解;研究用户情感辅助方法;研究机器人自然表情合成方法。本研究对于人-机-环境多模态感知与自然交互具有重要的理论和现实意义:以表情变化和用户说话时,面部肌肉相互作用的时空特性为先验知识,以听觉信号增强面部动作单元识别,提高表情识别方法对成像环境的鲁棒性,促进机器人与成像环境的共融;采用Allen区间代数描述表情和身体姿态丰富的动态过程,提出基于Allen区间代数的动态面部行为和身体姿态感知和理解,为机器人对用户的多模态动态感知提供新方法;采用决策模型选择合适的辅助行动帮助用户调整情感状态,可促进机器人与人的共融;依据表情、面部动作单元和特征点之间概率依存关系控制机器人生成自然表情,为提高机器人合成表情的自然度提供新思路。