文獻標識碼:B文章編號:1003-0492(2024)04-074-04中圖分類號:TP29
★王俊鵬,蔡革英,韓梅(紅安卷煙廠,湖北黃岡438400)
關鍵詞:視頻分析;視覺檢測;煙支檢測
1 基于視頻分析的煙支視覺檢測算法概述
目前,針對煙支的視覺檢測主要有兩種方法:第一種是通過對焦距離來實現的;第二種則是利用光學系統中的焦距和光圈等參數來進行識別。在實際應用過程中,由于拍攝角度以及成像質量等因素的影響,會導致所得到的圖像存在一定程度上的失真現象。一般工業相機采集的數據為單張的圖像數據,并不能直接進行視頻的保存。而且因為煙支本身具有特殊性,所以需要采用一些其他技術手段來保證數據信息的準確性。例如,可以使用機器學習或者深度學習等方式來完成對煙支的檢測工作。然而,這些方法都無法滿足煙支檢測系統對實時性要求較高的需求。為此,國內外學者開始將目光轉向了計算機技術領域,希望借助計算機技術來解決這一難題。其中,最為常見的一種手段即為視頻分析法。該方法主要通過攝像頭獲取煙支圖像,然后根據煙支圖像特征選擇合適的閾值對其進行分割,最后再結合相應的數學模型計算出煙支的具體位置[1]。KIM等人針對煙支圖像中的像素點分布不均勻以及煙支圖像邊緣模糊等問題,提出了一種基于灰度共生矩陣(GrayscaleCommunity Matrix)的煙支圖像分割模型[2-3]。首先,他們從原始煙支圖像中隨機選取一定數量的像素點作為初始化的訓練樣本集;接著,在此基礎上,分別使用3個不同尺度的卷積核對每一個樣本進行卷積操作,并且利用最大類間方差、平均值和標準偏差三個指標來衡量這三組參數之間的差異程度,以此來確定最佳的卷積層數;隨后,采用多尺度融合技術對不同尺度的煙支圖像進行處理,最終得到具有較高分辨率的煙支圖像。該方法不僅能夠有效地提高煙支圖像分割精度,而且還可以降低計算成本。還有研究人員將殘煙支鏈與其他圖像處理技術相結合,以便更好地提取殘煙支鏈的邊緣輪廓特征。
目前,國內外學者已經將深度學習應用于煙支圖像分割領域,并取得了不錯的效果。文獻所用的方法主要包括有監督的自適應加權網絡結構、無監督的半監督結構、混合式的卷積神經網絡結構、基于注意力機制的卷積神經網絡結構等。
基于視頻分析的視覺檢測算法通常由特征提取模塊(Feature Extraction)、特征融合模塊(Convolutional Encoding)以及特征通道處理模塊組成。其中,特征提取模塊負責對輸入的原始數據進行預處理,并且利用卷積神經網絡來獲取特征通道,然后再使用特征融合模塊對特征通道進行特征提取,最后將特征通道輸出到分類器當中。特征融合模塊則通過計算每個像素點與其他所有像素點之間的距離來實現,其目的就是為了提高模型的泛化能力。而特征通道處理模塊則是根據不同顏色區域的灰度值來判斷該區域是否屬于同一類別,如果不是就會直接丟棄該類別的數據。目前,基于視頻分析的煙支視覺檢測算法已經被廣泛應用于煙草行業的生產過程中。
2 運動目標二值化分割
2.1 常用的運動目標檢測方法
目前,針對運動目標檢測的主流技術包括圖像處理(如去霧)、特征提取以及目標定位等。其中,對于運動目標檢測而言,最為常見的就是采用深度學習模型來實現。對運動目標進行二值化處理,可以有效地提高檢測精度[4]。此外,還有一些其他的運動目標檢測方法也被應用到了運動目標檢測當中,例如基于卷積神經網絡的運動目標檢測、基于多尺度融合的運動目標檢測、基于注意力機制的運動目標檢測等等。但是這些方法均存在一定的不足之處,主要表現為以下幾點:(1)需要大量的數據作為訓練樣本,這就導致其計算成本過高;(2)無法保證運動目標的準確度;(3)難以實現大規模的推廣應用。
2.2 基于HSV空間的運動目標檢測
由于運動目標的復雜性和多樣性,需要對其進行分類識別。因此,首先將采集到的運動目標數據轉換成HOG顏色空間下的RGB三通道分量圖;然后根據每一個像素點對應的RGB三個通道分量圖計算出該點所在位置的三維空間坐標(x,y);最后通過坐標變換得到該點在整個圖像中所占的比例。
利用上述方法可以實現運動目標的二值化分割,但是這種方法只能針對單一的前景目標進行分割,而無法滿足多個前景目標的情況。因此本文提出了一種基于HSV空間的運動目標二值化分割方法。具體步驟如下:
(1)提取運動目標的特征信息。采用HSV空間模型對運動目標進行二值化分割,以便于后續的前景檢測與定位。
(2)建立HSV空間模型。首先根據運動目標的位置信息確定待測對象的大致范圍,然后使用HSV空間模型計算出該點到所有像素的距離,再用該距離除以該點到物體中心的距離即可得出該點的三維空間坐標。
3 運動目標特征提取與計數—以運動煙支為例
3.1 基于幀差法的運動煙支視頻分析法
在對運動煙支進行識別之前需要先對其進行預處理。通常情況下,可以采用二值化處理或者去噪處理等方式去除噪聲、增強細節信息;然后再根據不同的運動目標采取相應的檢測手段。一般來說,如果兩個像素點的灰度值相差較大且差值越大則表示該像素點所對應的運動目標就越明顯,反之則越不明顯。因此本文將利用幀差法來對運動煙支進行檢測。幀差法是一種常用于圖像分割和定位的技術手段,它能夠有效地提取出圖像中的每一個像素點并且使得這些像素點具有一定的相似性。具體來講就是利用閾值來判斷是否存在運動目標,若存在則認為該像素點屬于運動目標,否則就不是。
在實際的檢測過程中,首先要確定運動目標的位置,然后再對其進行檢測。由于運動目標的形狀比較復雜,所以很難直接用肉眼觀察到,而是需要借助一些工具才能實現。目前,最常見的方法包括:(1)Sobel算子。這個算子是一種經典的量測算法,適用范圍廣,但是精度不高。因此,通常會采用其他方式來代替。例如,可以使用霍夫變換等方法來消除噪聲點、減少計算量以及降低運算難度。(2)K-means聚類分析。這是一種簡單實用的聚類方法,主要原理是根據給定的坐標值計算兩個對象之間的差異程度,從而得到兩對象之間的距離。該方法具有一定的局限性,只能識別出特定范圍內的運動目標,并且無法區分同一區域內的多個對象。(3)Fisher判別器。它能夠將一個二維矩陣分解成若干個互不相交的子集,每個子集中都有一個對應于某個類別的中心點,這些中心點就是被選中的運動目標。
本文利用Fisher判別器來實現運動目標的分類。首先需要確定運動目標的位置信息,然后再用其作為輸入數據,經過處理后輸出相應的RGB三通道彩色圖像。由于運動目標的亮度值會隨著時間不斷發生變化,所以要先對采集到的原始數據進行預處理,包括去色、平滑化等操作;最后通過計算得到各個顏色分量之間的相關系數來判斷運動目標是否存在。
3.2 基于背景減除法的前景提取
由于運動目標的復雜性,對其進行分割時會產生大量噪聲點,因此需要對其進行去噪處理。目前,針對運動目標的去噪主要采用背景減去法(BackgroundDenoising),即通過計算背景像素點之間的距離來去除噪聲點。這種方法簡單易行且效果較好,但是會導致運算量較大;而基于深度神經網絡的檢測方法則是利用卷積層和激活函數將原始輸入數據映射到更高層次上來提高檢測精度。本文選用了一種基于深度神經網絡的檢測方法,該方法首先使用一個濾波器濾掉圖像中的大部分灰度信息,然后再使用另外一個濾波器對這些噪聲點進行進一步的過濾,最后根據閾值判斷是否存在運動目標。
3.3 實驗結果與分析
我們分別采用了兩種不同光照條件下的動視頻作為本文所提出的運動目標檢測算法,即在黑暗環境下采用普通攝像頭拍攝的動視頻;在白天光線充足時采用SONY A7S2攝像機拍攝的動視頻。首先,通過對比兩組數據集上的平均精度來驗證本文算法的可行性。其次,將本文算法與其他幾種常用的運動目標檢測算法進行比較,并且從實驗結果來看,本文算法相較于其他幾種算法具有更好的性能表現。
首先,通過對比不同類型的運動視頻和正常視頻可以發現,當視頻幀數較少時(如2幀或5幀),卷積神經網絡能夠更好地學習到運動目標的細節特征。其次,由于運動目標的遮擋、背景噪聲等因素影響,導致運動目標的識別效果較差,而卷積神經網絡則具有良好的魯棒性,即使存在輕微的噪聲也不會造成嚴重的干擾。最后,卷積神經網絡還可有效降低模型的計算成本,并且隨著訓練次數的增加,模型的泛化性能會不斷增強。因此,相比于傳統的運動目標檢測方法而言,卷積神經網絡不僅能夠顯著提高運動目標檢測的準確率,同時還能夠減少模型的訓練時間,進而達到縮短檢測時間的目的。
4 小結
本文首先針對運動煙支的動態監測、視頻合成、缺陷分析等關鍵問題展開研究,提出了一種基于視頻分析的視覺檢測方法,并結合實際案例驗證了該方法的有效性;其次,本文從算法設計角度出發,總結出該方法存在的不足之處及未來的研究方向。
(1)算法設計方面。首先,在算法實現過程中,應當考慮光照強度以及光源亮度變化情況,若光照強度過大或是光源亮度過小都會影響算法運行效果,進而導致算法無法正常運行。其次,為了提高算法運行速度和準確率,需要合理設置閾值,以便于后續計算結果的對比。再次,由于不同顏色代表著不同程度的灰度差異,因此可以通過RGB三通道分別提取圖像的紅綠藍三個分量信息,然后將這三類色彩相加得到最終的圖像。但是當光強度較大或者是光源亮度較小時,所提算法可能出現過度擬合現象,所以還需根據實際情況調整閾值。最后,在算法運行過程中,要保證每個像素點均有一個最佳閾值,這樣才能使得算法具有良好的魯棒性。
(2)算法性能評價指標。本文采用平均精度RMSE作為衡量算法性能的標準,該值越小說明算法的精確度越高;同時,也可利用MIC值來評估算法的穩定性,即當MIC值越大時,表明算法的穩定性越好。
(3)圖像分割效果。圖像分割效果主要包括兩個方面:一是圖像質量,二是圖像分割結果。對于前者而言,可以從兩幅圖像之間的相似程度來判斷,如果兩張圖像的邊緣特征基本一致且紋理細節相差不大,那么就能夠認為它們屬于同一類別。而對于后者來說,則需通過對比兩幅圖像的灰度級和亮度對比度來確定其是否是同一幅圖像。另外,還要考慮到圖像分割時可能出現的噪聲問題,如背景噪聲、光照變化等因素都會影響圖像分割結果。
綜上所述,本文設計的基于視頻分析的視覺檢測算法不僅實現了對目標對象的識別,而且取得了不錯的應用效果。
作者簡介:
王俊鵬(1976-),男,湖北黃岡人,工程師,現就職于紅安卷煙廠,主要研究方向為機械設計和故障維修。
蔡革英(1974-),男,湖北黃岡人,現就職于紅安卷煙廠,主要研究方向為機械維修。
韓梅(1992-),女,湖北黃岡人,學士,現就職于紅安卷煙廠,主要研究方向為質量管理。
參考文獻:
[1] 李博. 基于視覺分析的物流傳送帶表面缺陷檢測與定位系統研究[D]. 北京: 北京交通大學, 2020.
[2] Wen C Y, Chiu S H, Hsu W S, et al. Defect segmentation of texture images with wavelet transform and a co-occurrence matrix[J]. Textile Research Journal, 2001, 71 (8) : 743 - 749.
[3] CHEN M, DAI S. Analysis on image texture based on gray-level co-occurrence matrix[J]. Communications Technology, 2012(2): 108-111.
[4] 孔偉鑫. 基于全硬件的視頻圖像信號的二值化處理和邊界坐標值存儲[J]. 電子世界, 2014.
摘自《自動化博覽》2024年4月刊