信息來源:中國科學院自動化研究所
行人再識別問題是一個重要且具有挑戰性的經典計算機視覺任務。由于存在光照變化、視角變化、遮擋、背景雜亂、行人姿態多樣等復雜因素,目前的研究的測試性能往往不能盡如人意。
為了解決上述問題,自動化所智能感知與計算研究中心引入了以下方法來達到去除背景、提高模型泛化性能、提高圖像利用率的目的。
首先,引進了二值化的行人分割輪廓圖作為額外輸入,并與彩色圖像合成為四通道的新輸入,然后設計了一種基于分割輪廓圖的對比注意模型來學習背景無關的行人特征。在此基礎上,提出一種區域級別的三元組損失函數,分別來約束來自全圖區域、行人身體區域、背景區域的特征,提出的損失函數可以讓來自全圖區域和行人身體區域的特征在特征空間靠近,并遠離背景區域,最終達到去除背景的作用。所提出的方法在三個行人再識別數據集上驗證了有效性,取得了當前最好的性能。
其次,提出了一種特殊的樣本來擴充數據集:對抗式遮擋樣本。整個方法流程如下:(1)按照常用的方法訓練一個ReID模型;(2)通過網絡可視化的方法找出模型在識別訓練樣本時所關注的區域,對這些區域進行(部分)遮擋就可以產生新的樣本,同時保持這些樣本原有的類別標簽;(3)把新的樣本加入到原始數據集中,按照之前的方法訓練一個新的模型。這種樣本不僅模擬了現實中的遮擋情況,而且對于模型來說是困難樣本,可以給模型的訓練提供動量,從而跳出局部極小點,減少模型的過擬合。實驗發現原始的ReID模型識別訓練樣本時只關注一些局部的身體區域,加入新樣本訓練后的模型則可以同時關注到一些之前沒關注的身體區域,從而提高了模型在測試階段的魯棒性。
最后,為了解決只有部分行人圖像可供識別的問題,提出利用全卷積網絡抽取與輸入圖像尺寸相對應的空域特征圖,并提出一種不需要行人對齊的方法(深度空域特征重建)來匹配不同尺寸大小的行人圖像。特別地,借鑒字典學習中重建誤差來計算不同的空域特征圖的相似度。按照這種匹配方式,利用端到端學習方法增大來自于同一個人的圖像對的相似度,反之亦然。 該方法不需要對齊,對輸入圖像尺寸沒有限制,在Partial REID,Partial iLIDS和Market1501上取得較好效果。
上述研究將發表在國際計算機視覺與模式識別大會CVPR2018上。