联系人: 华南理工大学
所在地: 广东广州市
摘要:本发明提供了基于混合传感器的人机交互方法,包括步骤:(1)实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;(2)使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;(3)根据上述步骤获取的操作员手部位姿驱动机器人。本发明允许操作者通过三维的手部动作来控制机器人。本发明允许操作员使用手部和手臂的动作控制机器人而没有物理装置的限制,只需要把精力集中在手头的任务也不用把任务都分解为那些有限的指令。