導(dǎo)語:從機器人和人工智能出現(xiàn),人們對于飯碗的安全性就存在著很大的擔(dān)憂,機器人和人工智能搶工作的話題也長時間占據(jù)熱搜榜,但是,卻最終也沒得出準確的結(jié)論,到底哪些工作會被搶走。不過,從今天
從機器人和人工智能出現(xiàn),人們對于飯碗的安全性就存在著很大的擔(dān)憂,機器人和人工智能搶工作的話題也長時間占據(jù)熱搜榜,但是,卻最終也沒得出準確的結(jié)論,到底哪些工作會被搶走。不過,從今天開始,對于AI會取代哪些人類工作的猜測,也許可以暫時停一停了。
最近,兩位來自MIT和CMU的研究者在一篇論文中提出了一種預(yù)測那些“脆弱“工作的方式。他們認為,機器學(xué)習(xí)并不代表人類工作的終結(jié),但它會對經(jīng)濟和人類工作的方式產(chǎn)生極大影響。
根據(jù)自己對于機器學(xué)習(xí)系統(tǒng)當(dāng)下和未來能力的理解,這兩位研究者列出了8條主要標準,來評估一項任務(wù)是否適合機器學(xué)習(xí)。他們的文章發(fā)表在周四的《科學(xué)》上。
文章的共同作者之一、MIT斯隆管理學(xué)院教授Brynjolfsson在接受CNBC采訪時說,高管們可以用這些標準來對自己機構(gòu)內(nèi)的任何一項工作進行評估,而政策的制定者們同樣可以根據(jù)這些問題來判斷哪些職業(yè)最容易受到自動化影響。CMU計算機科學(xué)教授Tom Mitchell是另一位作者。
“整個工作都適合或不適合機器學(xué)習(xí)的情況非常少見,但在某種工作之中,或許有幾項任務(wù)是適合的。” Brynjolfsson說。論文的主要前提之一就是,我們離所謂“通用人工智能”還差得很遠,機器不能把人類能干的所有事都辦了。
Brynjolfsson還說,老板們將要面臨的挑戰(zhàn)是,如何將那些工作“解綁”,依據(jù)是否能被自動化將它們進行歸類,然后“重新綁定”成全新的工作。
這些問題中列出的條件,包括“不需要復(fù)雜、抽象推理的任務(wù)”、“不需要與人類進行細致、廣泛對話式交互的任務(wù)”、“為了完成任務(wù)不需要長期計劃”等等。使用者根據(jù)這些條件來判斷符合或不符合的程度,最后加在一起算總分。
那么,究竟哪些任務(wù)最適合由機器完成?主要看這些因素:
標記了界定明確的輸入和輸出,能學(xué)習(xí)函數(shù)將其對應(yīng)起來的任務(wù)
這些任務(wù)包括分類(比如標記狗的品種或根據(jù)可能的癌癥種類標記醫(yī)療記錄)和預(yù)測(分析一份貸款申請來預(yù)測未來的違約可能性)。不過機器在這里學(xué)會的只是一種統(tǒng)計學(xué)關(guān)聯(lián),而未必是因果關(guān)系。
存在大型數(shù)據(jù)集,或可以創(chuàng)建包含輸入-輸出對的大型數(shù)據(jù)集的任務(wù)
可獲取的訓(xùn)練樣本越多,學(xué)習(xí)結(jié)果就越精確。DNN有一個值得注意的特性,在很多領(lǐng)域里,它的性能并不會隨著訓(xùn)練樣本數(shù)量的增加而逼近完美。能在訓(xùn)練數(shù)據(jù)中抓出所有相關(guān)的輸入特征尤為重要。雖然原則上任何任意函數(shù)都能用DNN來表示,但電腦應(yīng)付不好兩樣?xùn)|西:一是訓(xùn)練數(shù)據(jù)中模擬的、持續(xù)的多余偏見,二是會忽略包含了機器觀測不到變量的規(guī)律。不過,還有不少創(chuàng)造數(shù)據(jù)的方法,比如監(jiān)測已有過程和交互行為、雇傭人類來對部分數(shù)據(jù)進行明確標注或是創(chuàng)建一個完整的全新數(shù)據(jù)集,或是模擬問題相關(guān)的場景。
有著明確的目標和度量標準、提供清晰反饋的任務(wù)
當(dāng)我們可以明確地描述目標時——即便我們未必能確定達成目標的最佳過程——機器學(xué)習(xí)能做得非常不錯。這與早期達成自動化的途徑形成了鮮明對比。抓取個人輸入-輸出決策的能力(即便模仿這些個人的學(xué)習(xí)過程被允許)可能不會導(dǎo)致最佳的全系統(tǒng)表現(xiàn),因為人類本身就會做出不完美的決策。因而,有明確界定的全系統(tǒng)表現(xiàn)(比如優(yōu)化全城范圍內(nèi)而不是某個交叉路口的交通流量)度量標準就為機器學(xué)習(xí)系統(tǒng)提供了黃金準則。當(dāng)訓(xùn)練數(shù)據(jù)是根據(jù)這種黃金準則來進行標注并以此確定目標時,機器學(xué)習(xí)的威力特別大。
不需要依靠廣泛背景知識或常識的長邏輯鏈或推理過程的任務(wù)
在學(xué)習(xí)數(shù)據(jù)中的經(jīng)驗性聯(lián)系時,機器學(xué)習(xí)系統(tǒng)非常強大;但當(dāng)任務(wù)需要依賴于常識或背景知識的長推理鏈條或復(fù)雜計劃時,它就變得不那么好使。吳恩達的“一秒鐘原則”表明,機器學(xué)習(xí)在需要快速反應(yīng)和提供即時反饋的電子游戲上做得非常好,但在需要依靠對于世界的背景知識、以及對于久遠事件的記憶來做出最優(yōu)選擇的游戲上就做得沒那么好。
此類事件的例外是圍棋和國際象棋,因為這些智力性游戲可以以完美的準確度快速模擬,數(shù)百萬完美自標注的訓(xùn)練樣本可以被自動采集。然而,在真實世界的大多數(shù)領(lǐng)域,完美的模擬太少了。
不需要對于決策過程進行細致解釋的任務(wù)
數(shù)億數(shù)值權(quán)重與它們的人工神經(jīng)元相連,大型神經(jīng)網(wǎng)絡(luò)根據(jù)它們進行細微調(diào)整來學(xué)習(xí)決策。要對人類解釋這種決策的原因會十分困難,因為DNN通常不會像人類一樣使用中間抽象過程。雖然對于可自主解釋AI系統(tǒng)的研究工作正在進行中,但現(xiàn)在這一領(lǐng)域的系統(tǒng)在這方面做得依然比較差。
舉個例子,雖然計算機在診斷癌癥或肺炎種類上可以比人類專家做得更好,與人類醫(yī)生相比,它們解釋得出診斷結(jié)果原因的能力要差得多。而對于很多可感知的任務(wù),人類則并不善于解釋,比如,他們?nèi)绾螐穆牭降穆曇糁凶R別出詞語。
能夠容忍錯誤、不需要可證實的正確度或最優(yōu)解決方案的任務(wù)
幾乎所有的機器學(xué)習(xí)算法都是從統(tǒng)計學(xué)和概率上得出解決方案的。因而,要把它們訓(xùn)練到百分之百的準確度幾乎不可能。即使是最好的語音識別、物體識別和疾病診斷系統(tǒng)也會犯錯誤。對于錯誤的容忍度是一條非常重要的標準。
不會隨時間迅速變化的任務(wù)
一般而言,機器學(xué)習(xí)算法只會在未來的測試樣本分布于訓(xùn)練樣本分布近似時才會干得漂亮。如果這些分布發(fā)生變化,再訓(xùn)練就不可避免,因而,相對于新訓(xùn)練數(shù)據(jù)的獲取率,最終的成功更依賴于變化率(比如,垃圾郵件過濾器在過濾商業(yè)垃圾郵件上做得很好,部分是因為收到新郵件的比率要高于垃圾郵件變化的比率)。
不需要專業(yè)的靈巧、運動技能或機動性的任務(wù)
與人類相比,在非結(jié)構(gòu)化環(huán)境和任務(wù)中處理體力操作上,機器人仍然十分笨拙。這其實大部分不是機器學(xué)習(xí)的問題,而是最新機器人機械化控制器的成果。
在機器學(xué)習(xí)將會如何影響勞動和工資方面,這篇論文同樣考慮了其中經(jīng)濟因素的潛在影響。比如,在一些案例中,計算機將會取代人類。
在一些任務(wù)上,自動化的價格可能會降低,這可能會影響需求、雇傭和總投入。
作者指出機器學(xué)習(xí)的影響可能會超過一些之前已經(jīng)被廣泛應(yīng)用的發(fā)明,比如電力和內(nèi)燃機。這些進步提高了總生產(chǎn)力,解放了互補性創(chuàng)新的浪潮。
“進行了正確互補性投入(如技能、資源和基礎(chǔ)設(shè)施)的個人、商業(yè)和社會最終將會繁榮起來。”作者寫道,“而其他人不只失去了分一杯羹的機會,在某些情況下,他們還會過得越來越糟。”
摘自 機器人網(wǎng)