聯系人:
所在地:
針對現有監控系統依賴人工方式去發現問題和解決問題的被動監控問題,項目從監控系統核心算法的創新研究入手,研制出一種可對海量視頻監控數據進行高精度識別、秒級響應及自動報警的智能監控系統。項目取得了以下原創性成果: 1、項目依據通常情況下行人所著服裝在整個行人圖像中所占比例較大的事實,以及行人服裝特征信息(尤其是服裝的顏色和紋理信息)在目前主流的行人識別與檢索中依然占據較大比重的現實,進一步挖掘服裝特征信息在行人識別與跟蹤中的作用,本項目從服裝關鍵點檢測、服裝部件語義解析著手,進一步精細化識別區分服裝從而有助于識別人物并跟蹤。提出基于結構學習模型的服裝關鍵點檢測方法,提升了服裝關鍵點定位的精度,優于現有最新算法;提出基于三注意力(即顏色注意力、位置注意力、通道注意力)網絡模型,有效融合服裝顏色信息、空間語義依賴和通道語義依賴,實現更精準的服裝語義解析。 2、針對在實際監控條件下,行人易收到背景等客觀因素的影響而導致所提取的行人特征不純,而導致行人外貌表征精確度不高的問題,項目從行人的外貌顏色特征,局部空間信息和位置信息等角度出發,力求獲取行人多角度信息內容。因此,提出了一種基于三元組解析的行人分割模型,從顏色、位置和空間信息三個維度來實現“;純凈”;行人特征的提取,實現了基于服飾屬性的行人重識別性能。 3、針對現有基于深度神經網絡的行人重識別在訓練模型時,需要耗費大量的時間內存來對網絡參數的優化,針對此問題,本文提出了一種基于輕便式三叉戟CNN用于移動的行人重識別,實現了基于移動設備的快捷行人重識別功能。 4、提出一種基于協方差矩陣的壓縮感知跟蹤算法,先利用壓縮感知原理獲取壓縮后的Haar特征,再利用協方差矩陣融合Haar特征區域內的底層多維特征,以此構建目標模型,并通過搜索當前目標區域的鄰域,利用流形空間上的距離度量算法匹配最佳目標,從而提高算法準確性。 5、針對步態識別中衣著和攜帶物品的改變時會降低準確率的問題,在將人體步態同時視為一組無序集合和一組有序序列的方法的基礎上,提出了一種基于步態集合算法的GSTSN(GaitSet Temporal-Spatial Network)的網絡結構,在所提出的網絡結構中,GaitSet模型被用作集合特征提取器,以在步態被視為無序集合時提取外觀輪廓的空間特征。與以往方法不同的是,GSTSN只需要增加較小的計算量,就能提取人體步態更豐富的特征,包括人體外觀輪廓的空間特征和人體關節隨時間運動規律的時間特征。GSTSN不僅提升了步態識別準確率,同時對所穿衣物厚薄和是否攜帶背包等造成外觀改變情況下也有較好的魯棒性。 項目成果在SCIS、ICASSP、Multimed Tools Appl、IJES、《計算機科學》等國內外知名期刊發表論文32篇,獲專利授權1項,軟件著作權9項。目前該項目的技術成果在江蘇網進科技股份有限公司、武漢智凱科技有限公司、江蘇凱成智能科技有限公司、武漢市瑞斯利科技有限公司、北京星奧科技股份有限公司、長沙克洛瑞亞信息科技有限公司等企業進行推廣和應用,近3年為企業創造新增產值約60074萬元,新增利潤約1828.1萬元。技術成果可推廣應用于各類視頻監控、入侵告警、出入口控制、門禁、電子巡更、聯網告警等主要智能監控系統領域,有效解決公安、海關、機場、鐵路等政府安全相關機構對于可疑人員身份確認、實名制認證、人臉電子圍欄、重點人員布控告警等實戰訴求。