摘要:三維視覺技術是智能機器人的一個熱點研究方向,它是智能機器人進行環境感知和實現復雜任務的基礎。本文圍繞智能制造環境,介紹了機器人三維視覺技術的國內外研究現狀及熱點研究問題,闡述了它目前在智能制造中的應用,最后對機器人三維視覺技術的未來研究方向進行了探討。
關鍵詞:三維視覺;智能制造;智能機器人
Abstract: Three-dimensional (3D) vision technology is one of thehotresearchdirectionof intelligent robot,which isthebasis of intelligent robot to carry out environment perception and complex tasks. This paper focuses on the intelligent manufacturing environments, introduces the current research status and hot issues of robot 3D viion at home and abroad,and expounds its applications in intelligsent manufacturing. Finally,someresearch directions of robot 3D vision technology are discussed.
Key words:3D vision;Intelligent manufacturing;Intelligent robots
1 引言
隨著《中國制造2025》和《新一代人工智能發展規劃》等國家發展戰略的提出與實施,國家大力推進智能制造與機器人技術。機器視覺是智能機器人的一個關鍵技術,可以實現工業現場的環境感知、視覺定位、伺服驅動控制、零件檢測等作業任務。機器人二維視覺技術在多種制造場合已得到了應用,技術上也較成熟,隨著智能制造技術的發展,需要通過三維視覺使得機器人在復雜場景下自主完成作業任務。三維視覺技術能夠有效提高智能機器人對環境的感知和適應能力,其在智能制造的產品質量檢測、視覺驅動控制等領域有廣泛的應用前景。
本文闡述了機器人三維視覺技術的國內外研究現狀,以及語義分割、三維特征提取、三維目標識別與定位及三維環境感知等熱點研究問題。在此基礎上,對機器人三維視覺技術在產品質量檢測、視覺伺服控制等智能制造領域的應用現狀進行重點闡述。最后介紹了作者團隊在機器人三維視覺技術方面的研究成果并對機器人三維視覺技術未來的研究方向進行了展望。
2 機器人三維視覺研究現狀
機器人三維視覺按結構主要有立體視覺法,結構光法和激光掃描法等,本節對這三類三維視覺技術分別闡述其研究現狀。
2.1 立體視覺法
立體視覺法模仿人類視覺系統的距離估計和3D重建過程,利用兩個(或多個)存在一定距離或夾角的攝像機對同一物體或場景采集圖像數據,并根據空間點在各圖像上對應的投影點與攝像機的基本矩陣(Fundamentalmatrix)的線性關系來計算該空間點的3D坐標,以獲取物體或場景的3D信息[1],其原理圖如圖1所示。立體視覺法主要包括圖像獲取、攝像機標定[2]、圖像匹配[3]和3D重建[4]等過程,其中圖像匹配是立體視覺中至關重要的核心問題,它也是立體視覺中最困難的問題。立體視覺法具有精度合適、系統結構簡單和成本低等優點,但由于立體視覺中圖像獲取過程易受陰影和光照條件等因素的影響,無法穩定、可靠地提取圖像中的特征信息,通常圖像匹配過程的計算量較大并且難以獲得準確的圖像匹配結果,因而限制了立體視覺法在復雜場景感知中的應用。
圖1 立體視覺法測量原理圖
2.2 結構光法
結構光法是一種由可控光源和攝像機構成的3D信息測量技術,其基本思想是將具有特定結構模式(Structuredpattern)的光源投射到被測物體表面產生光條紋,根據攝像機捕獲的物體表面光條紋的模式變形來獲取物體表面3D信息[5,6]。結構光法根據光源產生的光條紋的不同,可以分為點結構光法、線結構光法、多光條結構光法和面結構光法等,其中線結構光法將激光掃描線投射到物體表面,并根據攝像機捕獲的物體表面激光輪廓線的變形,直接計算輪廓線上各點的3D坐標,其測量原理示意圖如圖2所示。由于線結構光法的光學和機械結構較簡單,并且其測量的魯棒性較高,因此線結構光法為常用的結構光測量方法。陳云賽等人[7]針對因海底場景噪聲及聲學散射影響導致聲吶方法無法實現高精度的海底探測問題,提出了一種基于線結構光的掃測系統,該系統結合多閾值算法和基于極值法的高斯擬合法實現條紋中心線提取,并利用共線點的快速標定法實現系統參數的標定和高精度的海底快速測掃,從而實現水下目標的掃描定位。
圖2 線結構光法測量原理圖
結構光法具有原理簡單、易于實現和測量精確高等優點,但由于結構光法需要對光照進行嚴格控制,對于反射特性較敏感的場景目標表面,如表面對結構光存在完成吸收、鏡面反射以及透射等情況時,結構光法將難以獲取物體表面精確的3D信息,嚴重時會導致結構光法測量系統無法正常工作,從而難以應用于復雜場景的感知。
2.3 激光掃描法
激光掃描法根據其激光測距原理的不同,可以分為激光三角法(Laser triangulation)、飛行時間法(Time-of-flight)和相位調制法(Phasemodulation)三種類型[8,9],其中前兩種方法的測距原理如圖3所示。根據上述的激光測距原理,通過增加相應的2D或3D掃描裝置,使得激光光束能夠掃描到整個被測物體表面,則可以獲得物體表面的3D點云數據。蔡云飛等人[10]針對非結構化場景的負障礙感知問題,提出了一種基于雙多線激光雷達的感知方法,該方法將雷達點云映射到多尺度柵格,通過統計柵格的點云密度與相對高度等特征,以提取負障礙幾何特征,并將柵格統計特征與負障礙幾何特征進行多特征關聯獲得關鍵特征點對,利用特征點聚類識別負障礙。
圖3 激光掃描法測量原理
激光掃描法具有能直接獲取測量點精確三維坐標,對陰影和光照變化不敏感,測量過程幾乎不受被測表面紋理特征影響,以及掃描測量視場范圍大等優點,但由于激光掃描法從形狀相似或距離較近的目標所獲取的點云數據相似度高,對此情況下的掃描目標難以進行有效識別,實現該類目標的精度感知,從而一定程度上限制了基于激光掃描法的場景感知方法的應用范圍。
3 機器人三維視覺熱點研究問題
本節對機器人三維視覺中語義分割、三維特征提取、三維目標識別與定位、三維環境感知等熱點研究問題進行闡述。
3.1 語義分割
語義分割是根據圖像、深度圖像或三維點云等類型數據中每一個點(像素點或三維點)所表達的語義內容對其進行語義類別分類的技術。其中,以二維圖像為數據源的語義分割稱為圖像語義分割[11,12]。本文主要討論基于三維點云數據的語義分割,包括基于聚類、模型參數擬合或區域生長等傳統的三維點云語義分割方法,以及基于深度學習的三維點云語義分割方法。
(1)傳統的三維點云語義分割
Schnabel等人[13]通過在局部范圍內選取用于平面參數估計的隨機點,來簡化得分函數(Scorefunction)的計算,以提高RANSAC(Randomsampleconsensus)方法的點云平面檢測效率,但是對于大規模三維點云數據,其計算效率仍很低。王帥等人[14]提出了一種基于混合流形譜聚類的自適應點云分割方法,該方法將點云分割的幾何特征在譜空間進行降維嵌入,利用N-cut方法得到描述點云分割特征的多維向量,在此基礎上,結合類間、類內劃分算法實現點云自適應分割。傳統的三維點云語義分割結果需要進行相應的語義標注才能夠得到最終的語義分割結果,從而影響了語義分割的效率。
(2)基于深度學習的三維點云語義分割
Charles等人[15]于2017年提出了PointNet,其直接采用原始點云作為深度神經網絡的輸入,為目標分類、部分分割和場景語義分析提供了一個統一的體系結構,但其未考慮點云局部特征提取,減弱了其識別細粒度模式能力和對復雜場景泛化能力。為此,該團隊隨后提出了一種分層網絡PointNet++[16],通過對點云進行采樣和區域劃分,在各個小區域內利用PointNet網絡進行迭代特征提取,以融合點云的局部和全局特征,通過全連接層預測點云中各點的語義標簽。彭秀平等人[17]提出了一種散亂點云語義分割深度殘差-特征金字塔網絡框架,以提高基于深度學習的散亂點云語義分割的精度和可靠性。
3.2 三維特征提取
機器人三維視覺中三維特征提取是從圖像或點云數據中獲取能夠反映環境本質屬性的特征信息的過程,它是實現三維目標識別與定位、環境感知等任務的基礎。三維特征可以是空間直線、空間平面、二次曲面、自由曲線和自由曲面等。Cao等人[18]提出了一種基于張量投票的點云中尖銳特征提取算法,林洪彬等人[19]提出了一種基于多尺度張量分解的點云結構特征提取算法,用于構建點云結構特征曲線,張靖等人[20]提出了一種基于馬爾科夫隨機場的散亂點云特征提取方法,根據全局能量的變化自適應提取點云中的特征點。現有的特征提取算法通常只能提取某一特定類型的特征,目前還很少有報道適用于多種環境特征類型的通用三維特征提取算法。
3.3 三維目標識別與定位
三維目標識別與定位是一個從場景掃描數據中對三維目標進行識別并獲取其位姿參數的過程,它是環境感知領域的重要研究內容。
(1)基于模型的方法
Johnson等人[21]提出了一種基于旋轉圖像(Spin-image)的三維目標描述和識別方法,該方法通過對支持區域大小控制,抑制雜亂背景和遮擋的影響,由于物體表面三維點由其局部鄰域表面的二維旋轉圖像來描述,因此該方法對三維點云的分辨率很敏感。張凱霖等人[22]提出了一種基于法矢改進點云特征C-SHOT的三維物體識別方法,該方法在精確估計點云法向量的基礎上,根據特征點處法向量與鄰域法向量的夾角余弦構造點云形狀直方圖,統計點云紋理直方圖并與形狀直方圖融合成C-SHOT描述符,再對場景與模板分別提取C-SHOT特征,利用特征匹配方法實現多目標識別,但該方法的特征提取過程計算復雜度較高,難以實現高效實時的多目標識別。
(2)基于外觀(Appearance-based)的方法
Magnusson等人[23]提出了一種基于外觀的位置識別方法,該方法利用正態分布變換(NormalDistributionsTransform,NDT)將掃描表面描述為分段連續函數,根據表面方向和平滑度生成的特征直方圖對位置進行描述,從而通過掃描數據和樣本數據之間的特征直方圖匹配實現位置的識別。莊嚴等人[24]提出了一種將三維點云轉換為二維BearingAngle(BA)圖,并采用AdaBoost變體Gentleboost算法來提高室內三維場景物體識別和認知準確率的方法,該方法利用BA圖中物體碎片及其相對于物體中心的位置作為特征,利用基于Gentleboost算法的監督學習方法,實現室內場景中物體識別和認知。基于外觀的方法通過掃描點云和不同位姿下三維目標樣本數據的匹配實現目標的識別與定位,對于多個目標的精確識別與定位問題,其訓練樣本數通常很大,從而導致在線識別與定位過程的計算量很大。
3.4 三維環境感知
三維環境感知是智能機器人利用其傳感器對所處環境進行環境信息的獲取,并提取環境中有效的特征信息加以處理和理解,最終通過建立所在環境的模型來表達所在三維環境的信息。任何一種智能機器人,要實現在未知三維環境下的自主作業,都必須以有效而可靠的三維環境感知為基礎。
(1)基于單一傳感器的三維環境感知
張輝等人[25]提出了一種基于隨機光場照射的稠密像點區域匹配算法,用于實現雙目立體視覺系統中的物體3D點云測量。Cong等人[26]針對雜波背景下實時3D目標檢測和6自由度姿態估計問題,提出了一種在線3D目標檢測和姿態估計方法來克服無紋理目標的自遮擋問題,以實現各種金屬零件的3D目標識別與定位。由于單一傳感器對場景的觀測角度單一,難以滿足復雜場景精確感知的要求,為此一些研究已經采用多傳感器、多模態來解決復雜場景感知問題。
(2)基于多傳感器的三維環境感知
Cho等人[27]提出了一種基于多傳感器數據實時融合和分析的3D目標重建方法,該方法由3D和2D數據分割方法、應用于每個目標的3D重建方法和投影紋理映射方法所組成。任秉銀等人[28]提出了一種基于Kinect傳感器和目標計算機輔助設計(ComputerAidedDesign,CAD)模型的不同目標自動識別和3D位姿估計方法,以提高非結構場景下目標識別準確率和位姿估計精度。由于智能機器人所處的操作場景非常復雜、并具有動態特性,不同傳感器存在采樣分辨率、采集速度、數據源可靠性等方面的差異,所采集到的多模態數據通常具有復雜的動態特性、數據不一致和缺失等問題,這些問題均增加了基于多種異類傳感器的復雜場景感知方法的難度,從而給機器人多傳感器的融合感知帶來了巨大的挑戰。
4 機器人三維視覺在智能制造中的應用
4.1 制造過程的產品質量檢測
產品質量檢測是整個智能制造過程中的關鍵環節,它是保證產品質量的重要基礎。與傳統的三坐標測量機相比,三維視覺技術能夠實現工業產品無損、高效和實時的測量與檢測,因此其已廣泛應用于制造過程的產品質量檢測領域。Mahmud等人[29]提出了一種基于激光掃描儀的機械零件尺寸和幾何信息的測量方法,該方法能夠根據零件的幾何規格對激光掃描儀的掃描路徑進行規劃,以保證掃描過程的測量精度。喬景慧和李嶺[30]將圖像處理技術應用于自動化裝配生產線,對電視機背板質量進行在線檢測,即使用圖像模板匹配方法確定當前背板的型號和檢測當前背板的品質,如圖4所示。陳允全等人[31]針對傳統模擬量檢測無法滿足飛機大型結構點的外形測量需求,而單獨的數字化測量設備和方法又難以實現大尺寸和復雜結構的測量等問題,構建了如圖5所示的由工業機器人和激光跟蹤儀組成的自動化掃描系統,將大型結構的測量結果與理論數模比較以分析大型結構的誤差信息,從而實現大型結構的檢測。
1-CCD工業相機;2-步進電機;3-機器人末端安裝板;4-第1平移裝置;5-第2平移裝置;6-第3平移裝置;7-工業吸盤;8-距離傳感器。
圖4 電視機背板自動檢測與抓取平臺[30]
(a)機器人掃描系統組成
(b)試驗現場圖
圖5 飛機大型結構點外形測量掃描系統[31]
4.2 機器人視覺伺服控制
隨著智能制造領域作業復雜程度和環境非結構化程度的不斷增加,需要引入視覺伺服控制,將機器人視覺與機器人、精密運動控制系統形成閉環控制,以提高機器人的作業精度和智能程度[32]。視覺伺服控制根據控制策略的不同,可以分為基于位置的視覺伺服控制[33,34],基于圖像的視覺伺服控制和混合視覺伺服控制[35]。王麟琨等人[36]提出了一種協調焊槍運動和視覺跟蹤的視覺伺服控制方法,用于工業機器人自動跟蹤曲線焊縫。孫敬陶等人[37]通過歐幾里得單應性矩陣分解設計出旋翼飛行機械臂系統的混合視覺伺服控制方法,在圖像空間控制平移、笛卡爾空間控制旋轉,減弱了平移與旋轉之間的相互影響實現解耦效果,改善了系統對非結構因素的抗擾性能和全局穩定性。吳迎年和楊棄[38]針對智能制造生產線中的機器人抓取需求,以視覺伺服控制系統為基礎,設計并構建了視覺伺服數字孿生系統以實現數字模型與物理模型的信息同步、互操作以及數字模型對物理模型狀態的預測,其視覺伺服系統結構圖如圖6所示。
圖6 基于信息物理系統的視覺伺服系統結構圖[38]
5 未來研究方向
結合智能制造領域中機器人三維視覺技術自身存在的問題和目前研究的現狀,本文認為未來智能制造領域的機器人三維視覺技術的研究方向主要有:
(1)三維視覺成像技術及傳感器方面。現有的立體視覺法、結構光法和激光掃描法等三維視覺成像技術仍難以滿足復雜的智能制造環境的要求,為此,以智能制造需求為導向,進一步研究與智能制造生產線相匹配的三維視覺成像技術并開發相應的三維視覺傳感器。
(2)三維視覺技術的魯棒性問題。由于智能制造環境中光照、陰影等因素的變化,這些將會對語義分割、三維特征提取、三維目標識別與定位、三維環境感知等的準確率和精度產生影響,為此,以智能制造需求為導向,進一步研究魯棒的三維視覺處理方法。
(3)視覺伺服智能控制問題。由于智能制造設備的多樣性,除了傳統的六自由度關節式機器人,還有并聯機器人、柔性機器人等,為此,需要研究視覺伺服智能控制,以滿足不同智能制造設備的需求,實現高速高精度控制。
(4)三維視覺系統的可移植性和適應性問題。由于智能制造環境的復雜性及機器人裝備的多樣性,目前的三維視覺系統難以應用于多種制造環境,為此,需要進一步研究模塊化、可重構的三維視覺平臺,以提高智能制造裝備對制造環境的可移植性和適應性。
6 研究團隊在三維視覺技術方面取得的成果
本課題組在三維點云數據獲取、平面特征提取和三維目標定位等方面開展了一系列的工作,并將相關算法應用于產品質量檢測、大型構件再制造和智能生產線等智能制造領域。
第一,在三維視覺技術方面:提出了基于偽Huber函數的三維激光掃描儀的魯棒標定算法,以獲取機器人掃描場景的精確三維點云數據;提出了基于多維粒子群優化(Particle Swarm Optimization,PSO)的散亂點云無監督平面分割算法;提出了基于超二次曲面模型的三維目標位姿估計算法。
第二,三維視覺技術在智能制造的應用方面,負責了西安市科技項目“面向智能生產線的工業機器人控制器研制”和蘇州市科技項目“面向大型構件再制造的機器人三維感知與控制技術研究”。主要完成了面向激光再制造的大型構件缺陷識別、零件損傷區域的三維特征提取、機器人修復路徑的自動規劃、機器人高速平穩運動控制工作,研制了面向智能生產線的工業機器人控制器。本課題組研制的機器人控制器結構圖如圖7所示,缺陷識別定位的三維視覺系統如圖8所示。
圖7 機器人控制器結構圖
圖8 缺陷識別定位的三維視覺系統
7 結語
機器人三維視覺技術應用到智能制造設備中,是智能制造裝備實現高適應性和智能化作業的重要基礎。本文討論了機器人三維視覺技術及其熱點研究問題,并闡述了其在產品質量檢測和視覺伺服控制等智能制造領域的應用。對機器人三維視覺技術的魯棒性和通用性等關鍵問題的突破,能夠不斷推動智能制造向高效、智能化發展。
參考文獻:
[1] Mu.oz-Salinas R,Marín-JimenezMJ,Yeguas-Bolivar E,Medina-Carnicer R.Mapping and localization from planar markers[J].Pattern Recognition,2018,73:158-171.
[2] 鄒朋朋,張滋黎,王平,汪啟躍,周維虎.基于共線向量與平面單應性的雙目相機標定方法[J].光學學報,2017,37(11):236–244.
[3] LiY,Chen C,Yang F,Huang J.Hierarchil sparsere presentation for robust image registration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(9):2151-2164.
[4] Sansoni G,Trebeschi M,Docchio F.State-of-the-art and applications of 3D imaging sensors in industry,cultural heritage, medicine, and criminal investigation[J].Sensors,2009,9(1):568-601.
[5] Rianmora S,Koomsap P.Structured light system-based selective data acquisition[J].Robotics and Computer-Integrated Manufacturing,2011,27(4):870-880.
[6] Xu J,Chen R,Liu S,Guan Y.Self-recalibration of a robot-assisted structured-light-based measurement system[J].Applied Optics,2017,56(32):8857-8865.
[7] 陳云賽,楊磊,宮垠,龐永杰,沈鵬,劉坤.基于線結構光的水下目標掃描定位方法[J].機器人,2018,40(6):786–793,802.
[8] Siciliano B,Khatib O.Springer handbook of robotics[M].Berlin:Springer,2008.
[9] 閆利,胡曉斌,謝洪.車載LiDAR海量點云數據管理與可視化研究[J].武漢大學學報.信息科學版,2017,42(8):1131–1136.
[10] 蔡云飛,石庭敏,唐振民.基于雙多線激光雷達的非結構化環境負障礙感知技術[J].自動化學報,2018,44(3):569–576.
[11] Shelhamer E,Long J,Darrell T.Fully convolutional networks for semantic segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651.
[12] 王嫣然,陳清亮,吳俊君.面向復雜環境的圖像語義分割方法綜述[J].計算機科學,2019,46(9):36–46.
[13] Schnabel R,Wahl R,Klein R.Efficient RANSAC for point-cloud shape detection[J].Computer Graphics Forum,2007,26(2):214-226.
[14] 王帥,孫華燕,郭惠超,都琳.激光點云的混合流形譜聚類自適應分割方法[J].光學學報,2017,37(10):125–133.
[15] Qi CR,Su H,Mo K,GuibasL J.PointNet:deep learning on pointsets for 3D classification and segmentation[C].2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),Honolulu,HI,USA:IEEE,2017:77-85.
[16] Qi CR,Yi L,Su H,Guibas LJ.PointNet++:deep hierarchical feature learning on point sets in a metric space.31st Conference on Neural Information Processing Systems (NIPS2017),LongBeach,CA,USA,2017:5100-5109.
[17] 彭秀平,仝其勝,林洪彬,馮超,鄭武.一種面向散亂點云語義分割的深度殘差-特征金字塔網絡框架[J/OL].自動化學報,2019,(12).https://doi.org/10.16383/j.aas.c190063.
[18] Cao J,Wushour S,Yao X,LiN,Liang J,Liang X.Sharp feature extraction in pointclouds[J].IETI mage Processing,2012,6(7):863-869.
[19] 林洪彬,劉彬,玉存.基于多尺度張量分解的點云結構特征提取[J].中國機械工程,2012,23(15):1833–1839.
[20] 張靖,周明全,張雨禾,耿國華.基于馬爾科夫隨機場的散亂點云全局特征提取[J].自動化學報,2016,42(7):1090-1099.
[21] Johnson AE,Hebert M.Using spin images for efficient object recognition in cluttered 3D scenes[J].IEEE Transactions on Pattern Analysis Machine Intelligence,1999,21(5):433-449.
[22] 張凱霖,張良.復雜場景下基于C-SHOT特征的3D物體識別與位姿估計[J].計算機輔助設計與圖形學學報,2017,29(5):846-853.
[23] Magnusson M,Andreasson H,Nuchter A,Lilienthal A.Appearance-based loop detection from 3D laser data using the normal distributions transform[C].Proceedings of the IEEE International Conference on Robotics and Automation,Kobe,Japan,2009:23-28.
[24] 莊嚴,盧希彬,李云輝,王偉.移動機器人基于三維激光測距的室內場景認知[J].自動化學報,2011,37(10):1232-1240.
[25] 張輝,張麗艷.面向三維點云測量的雙目立體匹配算法[J].南京航空航天大學學報,2009,41(5):588–594.
[26] Cong Y,Tian DY,Feng Y,Fan BJ,Yu HB.Speedup 3-D texture-less object recognition against self-occlusion for intelligent manufacturing[J].IEEE Transactions on Cybernetics,2019,49(11):3887-3897.
[27] Cho S,Cho K.Real-time 3D reconstruction method using massive multi-sensor data analysis and fusion[J].Journal of Supercomputing,2019,75(6):3229-3248.
[28] 任秉銀,魏坤,代勇.一種非結構環境下目標識別和3D位姿估計方法[J].哈爾濱工業大學學報,2019,51(1):38–44.
[29] Mahmud M,Joannic D,Roy M,Isheil A,Fontaine JF.3D part in spection path planning of a laser scanner with control on the uncertainty[J].Computer-Aided Design,2011,43(4):345-355.
[30] 喬景慧,李嶺.基于機器視覺的電視機背板檢測及自適應抓取研究[J].工程設計學報,2019,26(4):452-460.
[31] 陳允全,李瀧杲,黃翔,李琦,林晶.基于機器人的飛機大型結構三維自動化檢測方法[J].航空制造技術,2019,62(10):51–57.
[32] 王耀南,陳鐵健,賀振東,吳成中.智能制造裝備視覺檢測控制方法綜述[J].控制理論與應用,2015,32(3):273-286.
[33] Wilson WJ,Williams HC,Bell GS.Relative end-effector control using cartesian position based visual servoing[J].IEEE Transactions on Robotics and Automation,1996,12(5):684-696.
[34] 吳晨審.低紋理表面零件的位姿識別與視覺伺服技術研究[D].杭州:浙江大學,2019.
[35] MalisE,ChaumetteF,BoudetS.21/2D visual servoing[J].IEEET ransactions on Robotics and Automation,1999,15(2):238-250.
[36] 王麟琨,徐德,李原,譚民.曲線焊縫跟蹤的視覺伺服協調控制[J].控制與決策,2006,21(4):405–409.
[37] 孫敬陶,王耀南,譚建豪,鐘杭,李瑞涵.旋翼飛行機械臂系統的混合視覺伺服控制[J].控制理論與應用,2019,36(4):505-515.
[38] 吳迎年,楊棄.視覺伺服抓取系統及其數字孿生系統研究[J].計算機集成制造系統,2019,25(6):1528–1535.
作者簡介:
汪 霖(1983-),男,浙江杭州人,副教授,博士,現就職于西北大學信息科學與技術學院,研究方向為智能機器人環境感知、三維點云處理和群體智能優化。
曹建福(1963-),男,陜西寶雞人,教授,博士生導師,現任西安交通大學自動控制研究所所長、中國自動化學會建筑機器人專業委員會主任委員,研究方向為智能機器人、智能制造與智慧工廠。
摘自《自動化博覽》2020年2月刊