視覺是人類觀察世界和了解世界最直觀有效的方式,機器人視覺模擬人類視覺的功能,從一幅或者多幅圖像中來感知和認識外界世界。機器人場景識別應用技術就是給出一幅輸入場景圖像,識別出其在注冊過的場景類別信息。利用電子設備得到場景圖像后,由于圖像原始維數較大,且存在冗余信息,我們不能直接對圖像進行識別匹配。因此,我們必須進行對圖像進行特征提取,最后利用一定的分類方法與數據庫進行匹配,得到識別結果。簡單來說,機器人場景識別的整個過程可以分為三個階段:圖像的前處理,圖像的特征提取和圖像的識別。本發明要解決的技術問題在于針對現有技術中的缺陷,提供一種基于尺度不變特征極限學習機的機器人場景識別方法。本發明與基于最近鄰分類器的場景識別方法(NN)不同,實驗通過場景識別率以及分類時間作為算法重建質量標準,NN算法的識別率為0.44,識別時間為0.173秒,而本發明所提出的算法識別率為0.70,識別時間為0.124秒,即本發明所提出的算法時間更短,識別率更高。本發明所提出的算法需要嵌入到機器人中,因此需要配套的機器人本體、攝像頭等硬件設備。 對圖像中的場景進行識別作為機器人視覺領域的重要組成部分,一直都受到許 多研究人員的重點關注。近年來,機器人的場景識別技術已在公安部門刑偵系統, 醫學圖像處理,3D建模,工業檢測,小區安檢等領域得到廣泛應用。本發明投入使 用后預期可以產生約1000萬元的經濟效益。