聯系人: 華南理工大學
所在地: 廣東廣州市
摘要:本發明提供了基于混合傳感器的人機交互方法,包括步驟:(1)實時獲取并處理操作員通過手部運動進行機器人操作任務過程中的RGB圖像和深度圖像,得到操作員的手部位置;(2)使用慣性測量儀測量操作員的手部姿態,并結合四元數算法(FQA)和卡爾曼濾波(KFs)對姿態數據進行估計,從而得到穩定的操作員的手部姿態;(3)根據上述步驟獲取的操作員手部位姿驅動機器人。本發明允許操作者通過三維的手部動作來控制機器人。本發明允許操作員使用手部和手臂的動作控制機器人而沒有物理裝置的限制,只需要把精力集中在手頭的任務也不用把任務都分解為那些有限的指令。