分布式智能感知系統、跨模態智能情報服務、多智能體博弈訓練、自主無人系統、“電科芯云”微系統協同設計平臺……近日,中國電子科技集團公司信息科學研究院(以下簡稱“智能院”)公布了一批國際一流的創新成果,其中,以深度偽造視頻識別技術、仿生機器魚智能探測系統、虛擬智能機器人等為代表的研究應用成果,可廣泛用于政府決策服務、市民衣食住行、城市綜合治理等諸多領域,呈現出人工智能的新圖景。
“我們正在全面轉向人工智能研究,重點突破人工智能關鍵核心技術,構建智能網信體系。”智能院院長萬謙告訴記者,圍繞中國電科“軍工電子主力軍”“網信事業國家隊”“國家戰略科技力量”的三大定位,成立不到10年的智能院全面轉向人工智能研究,將促進人工智能技術與國家治理、社會民生等領域的深度融合、廣泛應用,在促進經濟高質量發展的同時惠及百姓生活、服務社會公眾,支撐引領我國人工智能技術的跨越式發展。
視覺SLAM技術:機器人有了自己的眼睛
有人曾打比方,若是手機離開了WiFi和數據網絡,就像機器人離開了SLAM一樣。
機器人自主執行任務的前提是知道自身的位置,而定位信息是由衛星導航定位系統提供的。如果將機器人投放在城市樓宇間、立交橋下、室內、深山密林這樣的環境中,由于遮擋導致衛星信號微弱或者消失,容易導致機器人不能及時準確獲取自身位置信息,無法執行精確任務。
“機器人主動感知技術能夠讓機器人具有自主定位和感知周圍環境的能力。”智能院認知與智能實驗室副主任張峰告訴記者,利用視覺SLAM(Simultaneous Localization and Mapping,意為“即時定位與地圖構建”)算法不但可以實現機器人的自主定位,還可以實時構建包括環境幾何結構、顏色、紋理等特征信息的三維地圖。有了“眼睛”的機器人,能夠看到周圍環境,擺脫對衛星導航定位系統的依賴,為自主完成既定任務提供了關鍵保障。
危險復雜環境機器人如何探索救援?“機器人的‘眼睛’是能夠在黑暗中能看清環境的。”張峰介紹,通過集成紅外傳感器,機器人可以在地下、洞穴這樣的黑暗環境中執行探測任務,結合自身定位和目標檢測識別信息,對視野范圍內的指定目標進行探測、識別、跟蹤以及目標定位,感知周圍有什么物體以及它們的位置,可用于危險復雜環境下的探索救援等任務。
除了用于探索救援,視覺SLAM技術還可以應用在服務機器人領域。比較簡單的,像命令機器人去拿取某個物品,“機器人知道物體的位置和環境地圖后,通過SLAM技術構建家庭環境地圖,然后規劃出沒有障礙的行進路徑,這樣就可以順利拿到指定物品了。”張峰說。
當今科技發展速度飛快,想讓用戶在AR/VR、無人機、無人駕駛領域體驗加強,離不開視覺SLAM技術的支持。
“AR技術就是將虛擬的信息呈現到真實世界,通過SLAM技術的實時定位,將虛擬的物體實時地疊加在真實的環境進行顯示,隨著顯示介質移動,虛擬的物體也保持跟隨真實環境。”張峰告訴記者,使用AR技術進行室內導覽,可以將虛擬的物體疊加在真實的房間中進行顯示。當觀察者攜帶顯示介質移動時,虛擬的物體看起來保持在真實房間的固定位置。實際上,通過SLAM技術的實時定位,虛擬的物體是隨著觀察者的視角變化實時地更新位置進行顯示的,這樣就使觀察者看到的就像是真實房間里的物體一樣,可以從不同角度去觀看。
“海雀”芯片:AI能力快速賦能無人設備
隨著人工智能技術的不斷發展,數據、算法和算力作為人工智能的三個基本要素,其發展趨勢也在不斷變化。對于整個AI行業而言,海量數據獲取和處理難度在下降,算法也在深度學習模型的基礎上不斷優化,而負責將數據和深度算法統一協調的芯片能否獲得大的飛躍,成為業內關注的焦點。
“我們面向邊緣智能計算多元化、高效化的需求,以打造能用、好用、易用的‘編譯—處理’一體化智能計算生態為目標,開展自主可控邊緣認知處理器與編譯器研究。”張峰告訴記者,在處理器中,智能院構建了研發周期短、資源需求度低、模型適用性強的加速器IP核及硬件工具鏈,性能相較于通用CPU提高20倍以上,功耗降低5倍以上;在編譯器中,智能院實現了神經網絡模型統一表示、壓縮優化及代碼自動生成算法,能夠快速地將神經網絡模型植入硬件,實現AI能力快速賦能無人設備。
具體到智能應用,圖像和語音是兩大重要領域。“我們研制基于AI指令集的可重構、可配置卷積神經網絡加速器,支持大多數常用目標檢測網絡及其變種,可以應用于無人機、無人車等無人設備對實時圖像的低功耗、高精度目標檢測。”張峰表示,相關技術已用于無人機編隊海上搜救、無人車洞穴探索等任務,提升了無人裝備的目標發現能力。
智能語音技術是無人裝備的耳朵。“在語音智能應用領域,我們基于國產自主可控平臺,研制高噪聲語音環境的車輛操控設備,連續語音識別準確率超過93%,具備聲紋識別和語音降噪能力。”該院負責硬件和算法研發的王子瑋博士告訴記者,自主可控邊緣認知處理器與編譯器相關技術的應用,提升了圖像、語音領域智能算法到計算資源及功耗受限多元異構硬件平臺的快速部署能力,提升了高復雜度、高實時性場景下無人系統精確、高效的邊緣感知能力。
多雷達協同探測的智能感知系統:實現“1+1>2”
雷達是探測空中目標的主要傳感器,可以穿云透霧、不受天氣影響、全天24小時穩定工作。但目前雷達探測感知以“單打獨斗”探測為主,面對無人機等低慢小目標時,存在“看不遠、跟不上、識不準”等問題。
智能院智能協同裝備中心主任張德介紹,通過聯合集團內14所、38所等骨干研究所以及清華大學、北京理工大學、西北工業大學等高校,智能院打造了一支敢闖敢拼的創新攻關團隊,聯合開展技術攻關,先后攻克了檢測、跟蹤、定位、資源管控等一系列關鍵技術,成功構建了國內第一套多雷達協同探測的智能感知系統。
“系統采用多個低成本雷達+4G/5G或有線寬帶通信網絡+大數據云平臺的智能感知系統架構,基于不同的探測任務,動態控制前端雷達,并自適應智能重構后端處理算法,按需生成滿足任務需求的產品。”張德介紹,通過使用新技術,能夠有效挖掘原有設備潛力,實現系統整體能力的提升。
系統可以從多個角度同時協同觀測目標,極大的提升系統能力,實現“看得遠、跟得上、識得準”的群體智能感知能力,促進由單裝探測向體系協同探測的跨代發展,“采用大數據、人工智能等技術后,系統的能力可以像人一樣不斷進化。”張德告訴記者,經過針對性學習,該技術也可應用于新一代氣象雷達中,實現全空域無盲區覆蓋、精確預測氣象的運動狀態等新的能力。
技術成果的推廣應用,還可催生一種傳感器陸海空天廣域泛在分布、自由互聯、深度協同、透徹認知的智能感知系統新形態,打造全球感知“一張網”,大幅度提升對全球環境和目標的感知與認知能力,滿足各類應用需求。“這項工作應用前景廣闊,但技術上還存在許多需求攻克的難關,還要加倍努力。”張德說。
分布式智能“大腦”:無人系統也能不斷學習進化
隨著無人技術的發展,無人車、無人機、機器人等無人系統被應用于搜索、跟蹤、救援。但如何實現無人系統的自主協同作業,有效規避風險,提高工作效率還是業內公認的難題。
“我們研制的無人系統分布式智能‘大腦’,可有效解決集中式集群控制的安全性、健壯性問題。”張德介紹,智能“大腦”分為綜合信息處理區、認知決策規劃區、行為協同控制區和學習訓練進化區四個核心區域,“綜合信息處理區”將無人系統“眼睛”“耳朵”等傳感器收集的信息進行綜合處理;“認知決策規劃區”則基于綜合信息處理結果進行判斷,形成決策規劃方案;“行為協同控制區”基于決策規劃結果對無人系統行為動作進行協同控制;“學習訓練進化區”利用數字孿生技術將虛擬模型與物理實體緊密相連,通過線上線下協同學習與訓練,不斷提升無人系統協同認知決策與控制能力,以及對復雜、未知作業環境的適應能力。
目前,智能“大腦”已成功應用于空中無人集群區域索搜、空地協同要地防護、水下資源協同探測等場景。張德告訴記者,智能大腦能夠適配不同形態的無人裝備,天上飛的、地上跑的、水里游的都可以作為無人系統的一部分。
“分布式智能大腦是由智能院研究團隊由2016年開始研制的。從最初在仿真環境下試驗,到半實物測試,一直到如今應用到實際系統,花了近5年的時間。”張德告訴記者,在實際運用中攻克了兩大難點,一是人工智能算法如何向硬件設備的遷移,因為人工智能算法的運算邏輯與傳統算法是完全不同的;二是智能“大腦”在實際裝備應用時,由于無人平臺體積能耗的限制,需要基于微系統等技術使智能“大腦”質量變輕、體積變小、能耗變低。
“這些核心關鍵技術全部由我們自主研發。下一步將繼續研發魯棒性更強、智能性更高的無人集群智能‘大腦’產品,使其能夠應對更多任務、適配更多場景、服務更多行業。”張德說。
來源:《光明日報》