導語:從機器人和人工智能出現,人們對于飯碗的安全性就存在著很大的擔憂,機器人和人工智能搶工作的話題也長時間占據熱搜榜,但是,卻最終也沒得出準確的結論,到底哪些工作會被搶走。不過,從今天
從機器人和人工智能出現,人們對于飯碗的安全性就存在著很大的擔憂,機器人和人工智能搶工作的話題也長時間占據熱搜榜,但是,卻最終也沒得出準確的結論,到底哪些工作會被搶走。不過,從今天開始,對于AI會取代哪些人類工作的猜測,也許可以暫時停一停了。
最近,兩位來自MIT和CMU的研究者在一篇論文中提出了一種預測那些“脆弱“工作的方式。他們認為,機器學習并不代表人類工作的終結,但它會對經濟和人類工作的方式產生極大影響。
根據自己對于機器學習系統當下和未來能力的理解,這兩位研究者列出了8條主要標準,來評估一項任務是否適合機器學習。他們的文章發表在周四的《科學》上。
文章的共同作者之一、MIT斯隆管理學院教授Brynjolfsson在接受CNBC采訪時說,高管們可以用這些標準來對自己機構內的任何一項工作進行評估,而政策的制定者們同樣可以根據這些問題來判斷哪些職業最容易受到自動化影響。CMU計算機科學教授Tom Mitchell是另一位作者。
“整個工作都適合或不適合機器學習的情況非常少見,但在某種工作之中,或許有幾項任務是適合的。” Brynjolfsson說。論文的主要前提之一就是,我們離所謂“通用人工智能”還差得很遠,機器不能把人類能干的所有事都辦了。
Brynjolfsson還說,老板們將要面臨的挑戰是,如何將那些工作“解綁”,依據是否能被自動化將它們進行歸類,然后“重新綁定”成全新的工作。
這些問題中列出的條件,包括“不需要復雜、抽象推理的任務”、“不需要與人類進行細致、廣泛對話式交互的任務”、“為了完成任務不需要長期計劃”等等。使用者根據這些條件來判斷符合或不符合的程度,最后加在一起算總分。
那么,究竟哪些任務最適合由機器完成?主要看這些因素:
標記了界定明確的輸入和輸出,能學習函數將其對應起來的任務
這些任務包括分類(比如標記狗的品種或根據可能的癌癥種類標記醫療記錄)和預測(分析一份貸款申請來預測未來的違約可能性)。不過機器在這里學會的只是一種統計學關聯,而未必是因果關系。
存在大型數據集,或可以創建包含輸入-輸出對的大型數據集的任務
可獲取的訓練樣本越多,學習結果就越精確。DNN有一個值得注意的特性,在很多領域里,它的性能并不會隨著訓練樣本數量的增加而逼近完美。能在訓練數據中抓出所有相關的輸入特征尤為重要。雖然原則上任何任意函數都能用DNN來表示,但電腦應付不好兩樣東西:一是訓練數據中模擬的、持續的多余偏見,二是會忽略包含了機器觀測不到變量的規律。不過,還有不少創造數據的方法,比如監測已有過程和交互行為、雇傭人類來對部分數據進行明確標注或是創建一個完整的全新數據集,或是模擬問題相關的場景。
有著明確的目標和度量標準、提供清晰反饋的任務
當我們可以明確地描述目標時——即便我們未必能確定達成目標的最佳過程——機器學習能做得非常不錯。這與早期達成自動化的途徑形成了鮮明對比。抓取個人輸入-輸出決策的能力(即便模仿這些個人的學習過程被允許)可能不會導致最佳的全系統表現,因為人類本身就會做出不完美的決策。因而,有明確界定的全系統表現(比如優化全城范圍內而不是某個交叉路口的交通流量)度量標準就為機器學習系統提供了黃金準則。當訓練數據是根據這種黃金準則來進行標注并以此確定目標時,機器學習的威力特別大。
不需要依靠廣泛背景知識或常識的長邏輯鏈或推理過程的任務
在學習數據中的經驗性聯系時,機器學習系統非常強大;但當任務需要依賴于常識或背景知識的長推理鏈條或復雜計劃時,它就變得不那么好使。吳恩達的“一秒鐘原則”表明,機器學習在需要快速反應和提供即時反饋的電子游戲上做得非常好,但在需要依靠對于世界的背景知識、以及對于久遠事件的記憶來做出最優選擇的游戲上就做得沒那么好。
此類事件的例外是圍棋和國際象棋,因為這些智力性游戲可以以完美的準確度快速模擬,數百萬完美自標注的訓練樣本可以被自動采集。然而,在真實世界的大多數領域,完美的模擬太少了。
不需要對于決策過程進行細致解釋的任務
數億數值權重與它們的人工神經元相連,大型神經網絡根據它們進行細微調整來學習決策。要對人類解釋這種決策的原因會十分困難,因為DNN通常不會像人類一樣使用中間抽象過程。雖然對于可自主解釋AI系統的研究工作正在進行中,但現在這一領域的系統在這方面做得依然比較差。
舉個例子,雖然計算機在診斷癌癥或肺炎種類上可以比人類專家做得更好,與人類醫生相比,它們解釋得出診斷結果原因的能力要差得多。而對于很多可感知的任務,人類則并不善于解釋,比如,他們如何從聽到的聲音中識別出詞語。
能夠容忍錯誤、不需要可證實的正確度或最優解決方案的任務
幾乎所有的機器學習算法都是從統計學和概率上得出解決方案的。因而,要把它們訓練到百分之百的準確度幾乎不可能。即使是最好的語音識別、物體識別和疾病診斷系統也會犯錯誤。對于錯誤的容忍度是一條非常重要的標準。
不會隨時間迅速變化的任務
一般而言,機器學習算法只會在未來的測試樣本分布于訓練樣本分布近似時才會干得漂亮。如果這些分布發生變化,再訓練就不可避免,因而,相對于新訓練數據的獲取率,最終的成功更依賴于變化率(比如,垃圾郵件過濾器在過濾商業垃圾郵件上做得很好,部分是因為收到新郵件的比率要高于垃圾郵件變化的比率)。
不需要專業的靈巧、運動技能或機動性的任務
與人類相比,在非結構化環境和任務中處理體力操作上,機器人仍然十分笨拙。這其實大部分不是機器學習的問題,而是最新機器人機械化控制器的成果。
在機器學習將會如何影響勞動和工資方面,這篇論文同樣考慮了其中經濟因素的潛在影響。比如,在一些案例中,計算機將會取代人類。
在一些任務上,自動化的價格可能會降低,這可能會影響需求、雇傭和總投入。
作者指出機器學習的影響可能會超過一些之前已經被廣泛應用的發明,比如電力和內燃機。這些進步提高了總生產力,解放了互補性創新的浪潮。
“進行了正確互補性投入(如技能、資源和基礎設施)的個人、商業和社會最終將會繁榮起來。”作者寫道,“而其他人不只失去了分一杯羹的機會,在某些情況下,他們還會過得越來越糟。”
摘自 機器人網