日前,武漢城市人工智能(AI)計算中心建成投用,媒體在報道該中心算力時稱:“中心一期建設(shè)規(guī)模100P FLOPS人工智能算力……其算力相當于5萬臺高性能計算機?!痹搱蟮酪怀?,引發(fā)高性能計算領(lǐng)域?qū)<谊P(guān)注。相關(guān)專家對《中國科學(xué)報》表示,該報道內(nèi)容對“超級計算機”與“智能計算機”認識不清、概念混淆,極易引發(fā)誤導(dǎo)。
中國科學(xué)院計算技術(shù)研究所研究員、中國計算機學(xué)會高性能計算專業(yè)委員會秘書長張云泉告訴《中國科學(xué)報》:“智能計算機不是超級計算機,兩者的概念應(yīng)該區(qū)分清楚,否則可能會引起行業(yè)混亂?!?nbsp;
超級計算機還是智能計算機
目前業(yè)界用于衡量超級計算的Linpack測試,測試的是超級計算機的“雙精度浮點運算能力”,即64位浮點數(shù)字的計算(FP64)。在以二進制所表示的數(shù)字精度中,還有單精度(32位,F(xiàn)P32)、半精度(16位,F(xiàn)P16)以及整數(shù)類型(如INT8、INT4)等。數(shù)字位數(shù)越高,意味著人們可以在更大范圍的數(shù)值內(nèi)體現(xiàn)兩個數(shù)值的變化,從而實現(xiàn)更精確計算。
與許多科學(xué)計算等不同,AI所需的計算力不需要太高精度?!氨热缫恍〢I應(yīng)用需要處理的對象是語音、圖片或視頻,運行低精度計算甚至整型計算即可完成推理或訓(xùn)練?!睆堅迫f,這種專用計算機處理AI算法速度快、能耗低,這是由其特點決定的。
智能計算機是一種專用算力,在推理或訓(xùn)練等智能計算方面的確表現(xiàn)出色,但由于AI推理或訓(xùn)練一般僅用到單精度甚至半精度計算、整型計算,多數(shù)智能計算機并不具備高精度數(shù)值計算能力,這也限制其在AI計算之外的應(yīng)用場景使用。
而超級計算機是一種通用算力,其設(shè)計目標是提供完備、復(fù)雜的計算能力,在高精度計算方面能力更強、應(yīng)用范圍更廣,比如科學(xué)家常使用超級計算機進行行星模擬、新材料開發(fā)、分子藥物設(shè)計、基因分析等科學(xué)計算和大數(shù)據(jù)處理。
中國工程院院士陳左寧曾形象地將使用超級計算機做AI計算比喻成“大馬拉小車”,來說明超級計算雖然“十項全能”,但畢竟不是為AI量身打造。智能計算機由此興起。
此前曾一度熱炒的AI與超算融合,其實正是將改良的計算機“AI專用化”,嚴格意義上來說,它們已經(jīng)不再屬于傳統(tǒng)超算范疇。
“現(xiàn)在不論超級計算中心落成還是智能計算中心,都宣稱算力是多少‘FLOPS’,其實這個單位是‘每秒浮點運算能力’,而一些智能計算機的單位其實是‘OPS’——每秒操作次數(shù)。如果不加區(qū)別地報道,大家很容易誤認為是同一種計算精度、同一種計算能力?!睆堅迫f,這也導(dǎo)致一些地方以為花了小錢建了世界頂級的“大超級計算”,好像占了便宜;等項目上了馬,將項目介紹給超算業(yè)內(nèi)人士時,才恍然大悟。
用新指標引導(dǎo)行業(yè)健康發(fā)展
張云泉告訴記者,除了混淆智能計算機和超級計算機之外,業(yè)內(nèi)還存在另外一種誤導(dǎo)。
“有些廠商還會模糊智能計算機的推理性能和訓(xùn)練性能。”張云泉告訴《中國科學(xué)報》,“與推理相比,訓(xùn)練性能往往需要計算精度高一些,比如32位甚至64位;而大部分性能‘耀眼’的AI芯片,往往指的是其推理性能,而且可能只是理論值?!?nbsp;
對于AI計算而言,訓(xùn)練性能往往更重要——許多智能模型正是依賴于此。張云泉說,訓(xùn)練模型的計算量與參數(shù)量成正比,而且需要反復(fù)迭代,直到達到理想的效果。
如果要畫一張AI所需算力的示意圖,“推理”位于算力矩陣的最下層,因為半精度算力(FP16)或整型算力(如INT8)即可滿足推理需要;排在其上的是“訓(xùn)練”,一般需要使用單精度算力(FP32)或半精度算力(FP16);對算力需求最高的是類腦“模擬”,它需要雙精度算力(FP64)和低精度算力同時支持。
“混淆傳統(tǒng)超級計算與智能計算、混淆智能計算的訓(xùn)練性能和推理性能,這兩種情況都可能會導(dǎo)致用戶或地方政府錯誤決策——他們本意是建設(shè)強大的計算集群,最后卻只建成了一臺只有推理性能的機器?!睆堅迫f。
對此,張云泉認為,需要一個簡單、有效的指標來幫助判斷系統(tǒng)的AI算力和整個高性能AI領(lǐng)域的發(fā)展狀況,從而防止行業(yè)亂象。
2020年11月,張云泉聯(lián)合清華大學(xué)教授陳文光、美國阿貢國家實驗室研究員Pavan Balaji和瑞士蘇黎世聯(lián)邦理工學(xué)院教授Torsten Hoefler,與ACM SIGHPC China委員會共同發(fā)起了基于AIPerf大規(guī)模AI算力基準評測程序的“國際人工智能性能算力500排行榜”。記者注意到,這一榜單的算力單位是OPS。
“超級計算與AI計算,一碼歸一碼,需要一個新的標尺來引導(dǎo)AI計算行業(yè)走上健康發(fā)展的道路?!睆堅迫f。
國產(chǎn)AI芯片正待奮起直追
算力始于芯片。在AI芯片賽道上,我國擁有華為(昇騰)、百度昆侖、燧原等芯片設(shè)計企業(yè),但即便如此,國內(nèi)的智能計算機仍很少能繞過美國GPU巨頭英偉達。
這是一個無奈的現(xiàn)實:國內(nèi)上馬諸多智能計算中心,英偉達是切切實實的受益者。
“專門做智能計算的AI芯片,只要核數(shù)足夠多、主頻足夠高,就可以實現(xiàn)速度更快、在低精度計算中高出幾個量級的性能。但如果某個計算集群既需要高精度計算又需要低精度計算,這對AI芯片的要求就高了?!睆堅迫f,英偉達的GPU各種精度的計算能力都很突出、比較均衡。這也是大部分國產(chǎn)AI芯片難以與英偉達GPU硬碰硬的原因之一。
不過,國產(chǎn)AI芯片并非完全沒有機會。
首先,當下我國的算力基礎(chǔ)設(shè)施,都有強烈的國產(chǎn)化意愿。即便英偉達、英特爾等巨頭虎踞龍盤,但基于綜合成本、生態(tài)等各類因素,國產(chǎn)化的大潮仍不可阻擋。
其次,就AI當前發(fā)展而言,場景、數(shù)據(jù)、模型、算力缺一不可,這也就意味著,中國將是未來全球AI算力富集地。AI芯片作為核心需要,不可能被一種形態(tài)、一種生態(tài)所壟斷,寒武紀、昇騰等國產(chǎn)AI芯片的佼佼者仍坐擁巨大發(fā)展空間。
專家認為,雖然芯片是算力的主要來源和最根本的物質(zhì)基礎(chǔ),但是算力的生產(chǎn)、聚合、調(diào)度和釋放是一個完整過程,需要復(fù)雜系統(tǒng)的軟硬件生態(tài)共同配合,才能實現(xiàn)“有效算力”。因此,不能只關(guān)注芯片的單一性能指標,更要注重上層軟件應(yīng)用生態(tài)。
沒有巨大算力無法發(fā)展AI?
在算力概念被混淆的背后,是AI計算有如脫韁野馬一般瘋長的算力需求。
由多位硅谷“大亨”聯(lián)合建立的人工智能非營利組織OpenAI,在2020年5月推出了其新一代無監(jiān)督的轉(zhuǎn)化語言模型GPT-3,目前已有1750億參數(shù),訓(xùn)練數(shù)據(jù)量達到45TB(約1萬億單詞量)。
GPT-3模型目前已經(jīng)在語義搜索、文本生成、內(nèi)容理解、機器翻譯等方面取得重大突破。其最大價值是證實了機器在無監(jiān)督下的自我學(xué)習(xí)能力,驗證了純粹通過擴大規(guī)模即可實現(xiàn)性能提升。
更壯觀的是,萬億參數(shù)模型已經(jīng)在路上。6月初,北京智源人工智能研究院發(fā)布了“悟道2.0”,宣稱達到1.75萬億參數(shù),超過之前由谷歌發(fā)布的Switch Transformer,成為全球最大的預(yù)訓(xùn)練模型。
迅猛增長的參數(shù)體量,也意味著更高的計算需求——有的可能需要數(shù)千塊GPU來提供必要的算力。張云泉說,類似GPT這樣的巨模型,對算力的需求“不是鬧著玩的”。
難道,沒有巨大算力就無法發(fā)展AI嗎?
張云泉認為,在目前AI的發(fā)展階段(感知智能和認知智能)中,算力仍然是第一位的。
他的理由是,發(fā)展AI可以通過算力提升、算法革命等途徑進行,但在“資本導(dǎo)向”的現(xiàn)階段,相比不確定性的算法模型突破,算力提升是個更容易的選擇。
但必須要指出的是,運用巨大算力并不是人工智能發(fā)展的唯一方向,GPT-3這樣的巨模型同樣存在缺陷,如缺乏常識等;而探索人腦奧妙機理,實現(xiàn)小數(shù)據(jù)學(xué)習(xí)、遷移學(xué)習(xí)也是重要手段。
畢竟,大腦的功耗只有20瓦左右,創(chuàng)建低能耗的智能系統(tǒng)或許是更重要的努力方向。
來源:《中國科學(xué)報》