本年度的O'reilly人工智能大會上,39家機構的66名AI從業者就當下的AI發展狀況進行介紹:從聊天機器人到深度學習、再到自動技術和情感識別,以及自動化工作和AI進步的阻礙,甚至拯救生命和商業機會等話題都有涉及。
如今人工智能發展到底處于何種狀態,面臨哪些難點,未來發展潛力如何?參加了O'reilly人工智能大會的行業專家Gll Press帶來了他的12個觀察。他提取的觀點主要來自Peter Norvig、Yann LeCun等頂級人工智能專家,另外,還有來自微軟、英偉達和艾倫人工智能研究院的主管級專家。12個觀察包括:AI是黑箱;AI具有高技術難度;無人車可能使開車變成人的業余愛好;AI需考慮文化和背景——訓練影響學習;AI不會取代人的所有工作;AI不會使人類滅亡;AI不是魔法,深度學習很有用,但有局限;AI是增強的智能,同時具有人類和機器的強處;AI改變了我們與計算機的交互方式;AI需有更聰明的測試,圖靈測試不夠;丘吉爾對AI的觀點;唯物主義范式下徒勞地追求人類水平的智能可能阻礙AI的發展。
本年度的O'reilly人工智能大會上,39家機構的66名AI從業者就當下的AI發展狀況進行介紹:從聊天機器人到深度學習、再到自動技術和情感識別,以及自動化工作和AI進步的阻礙,甚至拯救生命和商業機會等話題都有涉及。本次會議由Peter Norvig和Tim O’Reilly擔任程序委員會主席。以下是參會者Gll Press的參會觀察。
Gll Press是一家咨詢公司的管理合伙人,福布斯網站作者。他的這篇文章是參加O'reilly人工智能大會之后的總結,提煉了12個對目前AI行業的觀察,比如,黑箱問題、深度學習局限性在哪、人機交互問題、AI的冬天等等。
1.AI是一個黑箱:trust-but-verify的破解方法
Google研究總監Peter Norvig曾說,“與傳統軟件相反,機器學習生產的不是代碼,而更像是一個黑箱——你能稍微窺探到里面,對里面正在發生的事情有一些了解,但看不到全貌。”
Tim O’Reilly最近在他的一篇博客文章中寫道:“由于很多正在重塑我們的社會的算法是黑箱…在深度學習領域中,由于它們甚至對它們的創造者來說都難以理解,因此問題的關鍵是信任。當今世界的重要學科是在不了解算法所遵循的確切的規則的情況下理解怎樣評估算法。”
O’Reilly提出算法值得信任但要驗證(trust-but-verify)的方法,四條規則:預期結果是已知的,外部觀察可驗證結果;如何測量“成功”是明確的;算法的創作者和使用者的目標具有一致性;并且該算法有助于創作者和使用者做出更好的長期決策。
2.AI具有高難度,理想與現實還有差距
我們都想要一個能處理所有家務的機器人(Rosie),但是我們得到的只是一個掃地機(Roomba)。
艾倫人工智能研究院的CEOOrenEtzioni在大會上列舉了讓機器變得更像人這一努力所遇到的困難,即使是一些“智能”的機器。比如,“人呼吸空氣(people breathair)”是一個簡短的陳述,但是卻很難讓機器理解。
Etzioni此前在華盛頓大學獲得終身教職,他現在領導艾倫人工智能研究院,其主要的任務是讓AI至少能展示對詞或者圖像的某種程度的理解,而不僅僅是計算標簽對象的接近性。
作為紐約大學的教授、FacebookAI實驗室的主管,LeCun在把深度學習用于解決現實問題上進行了深入的研究。在Facebook,每天有100至150萬圖片上傳(還不包括Instagram、WahtsAPP和Messenger)。他在演講中提到,每一張圖片一經上傳就會立刻通過兩層的卷積神經網絡,一層用于識別圖像中的物體,另一層則識別人。每一個傳到Facebook上的視頻也會經歷同樣的過程。
他們分享的經驗表明了智能機器現在能做到什么,同時也凸顯了要接近人類水平的智能,還有很大的挑戰需要克服。Lecun說,如果機器要如此智能地行動,需要“對環境和其中的物體功能有一個完整的復制,這樣就能產生一系列的行動,并預測它們會對環境產生的影響”。為了實現這一目標,機器學習理解環境是如何起作用的,學習大量的背景知識,感知任何特定時刻的環境狀態,并且能進行推理和計劃。簡而言之,LeCun的終極目標是希望能實現從“監督式學習”到“無監督學習”的過渡。LeCun說:“難點在于,在確定性中進行預測。”
Peter Norvig解釋了為什么機器學習要比傳統的軟件更難。他說:“缺乏清晰的障礙摘要”——去除Bug更加難,因為把Bug區分出來;“非模塊性”——稍微改動小部分東西,最終會把所有的東西都改變;“非固定性”——需要考慮新的數據;“數據歸屬”——圍繞隱私、安全和公平的議題以及缺乏足夠的工具和處理,既有的許多工具都是為傳統軟件設計的。“機器學習會讓你速度變快”,Norvig總結說,“但是當你變得很快,問題出現的速度也會相對加快”。紐約大學的GaryMarcus對AI發展面臨的巨大挑戰有經典總結:我們都想要一個能處理所有家務的機器人(Rosie),但是我們得到的只是一個掃地機(Roomba)。
3.我們可能是最后一代擁有汽車的人
美國運輸部秘書長Foxx在最近的一次演講中宣稱:“我們可能是最后一代擁有汽車的人。”在這次會議中,NVIDIA副總裁兼總經理Jim McHugh宣稱“第一個AI機器人是汽車”。McHugh承諾自動駕駛汽車會讓駕駛更安全,“具備AI的汽車隨時能思考、能集中精神,隨時觀察周圍的環境,而且永不會疲勞。它會擁有超人的力量,讓我們遠離危險。”
Lux Capital的Shahin Farshchi也表達了類似的觀點,它認為政府推遲對自動駕駛汽車的批準已經危及了許多人的生命,因為人開車的本領實在太糟糕了。他說,“AI的障礙很低,”即使采用“還不完美的自動駕駛汽車”也能挽救許多生命。
然而,正如Tom Davenport所說,“很多人情愿被另一個人殺死,而不想被機器殺死。”自動駕駛汽車的安全記錄中也有“例外”,與人類的大量駕駛事故相比,自動駕駛的這些事故會被忽略嗎?還是發生幾次嚴重事故會讓政府繼續延緩批準自動駕駛?
Peter Norvig以自動駕駛為例闡述了有關AI安全性的兩個問題,其一是“安全勘探”——自動駕駛汽車如何在現實世界(而不是在實驗室中模擬駕駛)中如何做出安全決策。而且考慮到AI的“黑盒”性質,我們如何驗證它們確實是安全的?第二個問題被他稱為“不注意谷”(inattentionvalley),就是說,如果一輛自動駕駛汽車的準確度是50%,人類駕駛員會隨時警惕,隨時準備著接管駕駛;但當準確度達到99%,人就不會隨時準備著,當需要人類接管時可能來不及。
Etzioni說,自動駕駛汽車已經減少了許多事故,而且可以更有作為。他預計25年后,開車會成為一種業余愛好。
4.AI需要考慮文化和語境——“訓練影響學習”
英特爾院士、英特爾互動與體驗研究總監Genevieve Bell表示:“當前的許多算法已經在其內部形成一個國家、一種文化。”由于今天的智能機器(仍然)只來自人類的創造,并由人類使用,文化和語境是算法開發中的重要考慮因素。Rana ElKaliouby(情感感知AI的創業公司Affectiva的CEO)和Aparna Chennapragada(Google產品管理總監)強調了使用多樣化的培訓數據的重要性——如果你想讓智能機器可以在地球上的任何地方工作,就必須適應任何地方的文化習俗。
“訓練影響學習——你放入的訓練數據決定能得出的結果。”Chennapragada說。而且不僅文化會影響,上下文語境也很重要。她用“我愛你”為例解釋,各種各樣的對話都常常以這句話作為結束,但這句話不應該用作AI驅動的企業電子郵件系統的培訓數據。
微軟研究院杰出工程師兼總經理Lili Cheng談到微軟成功的聊天機器人“小冰”(在中國和日本有4000萬用戶)和失敗的聊天機器人Tay(最初在Twitter上發布,但在被Twitter用戶使用煽動性推文訓練后下架)。他認為語境非常重要——公開對話(Tay的情況)對比小范圍對話;以及文化的影響——一種“強調個性,人vs機器”的美國(西方)文化和認為“萬物有靈”的亞洲文化很不一樣。
5.AI不會取代人類的所有工作——“問題取之不盡”
Tim O'Reilly列舉了人類未來仍然不會失業的理由:1.工作職位不會用盡,因為問題取之不盡。2.當某些事物變成商品,其他事物會變得更有價值。隨著AI越來越把我們今天所做的工作變成一種商品,我們應該期待新的事物將變得更有價值。3.經濟轉型需要時間和努力。
奧巴馬總統的觀點:“如果利用適當,AI可以帶來巨大的繁榮和機會。但它也有缺點,就是我們必須找到避免AI消除我們的工作機會的方式。它可能會加大不平等,也可能壓低工資。”
6.AI不會使人類滅亡——“AI會讓人類更強”
Oren Etzioni在“設計符合我們的法律和價值體系的AI系統”一文中提出開發多個AI系統來互相檢查、彼此平衡。在這次會議上,Etzioni引用Andrew Ng說:“努力阻止AI轉向邪惡,就像破壞太空計劃以防止移民火星的人口過多。”Etzioni總結道:“AI不會消滅我們,AI將讓我們更強……應該關心的問題是AI對工作的影響。我們應該討論不是人類滅亡之類的場景。”
然而,You Gov最近代表英國科學協會進行的一項調查發現,36%的英國公眾認為AI的發展對人類的長期存續構成威脅。在被問及“為什么那么多著名的科學家和工程師都對AI的威脅提出警告?”時,Etzioni回答說:“我很難推測像斯蒂芬?霍金(Stephen Hawking)或伊隆?馬斯克(Elon Musk)這些大人物如此擔心AI的動機。我猜測,談論黑洞很快又會變得無聊,因為這個話題發展非常緩慢。”
對付無聊的方式之一是新的開創性的研究中心的建立,如最近成立的Leverhulme未來智能中心(Leverhulme Centre for the Future of Intelligence,LCFI),該中心獲Leverhulme信托1000萬英鎊資金,將專注于探索“這種潛在的劃時代的技術(即AI)發展的機遇和挑戰。”霍金參加了其開幕式。
7.深度學習很有用,但有局限
有一把好的梯子并不一定能讓你登上月球。
“對于數據來說,深度學習是一種更大層級的技術”,Nervana聯合創始人兼CEO Naveen Rao說,“從這個意義上來說,‘智能’就是在數據中尋找結構的能力”。英偉達的Jim McHugh說得更加寬泛:“深度學習就是一種新的計算模型”。
Oren Etzioni曾就Wire上寫AlphaGo的文章發表評論:“人們常常把深度學習描述為一種對人類大腦的模擬。但是,實際上,它只是簡單的數學執行,只不過規模很大罷了”。
Tom Davenport在會上說:“深度學習并不是深刻地學習”。
在演講中,Etzioni建議可以去問AlphaGo以下幾個問題:你能復盤嗎?(不能,除非有人按動開關);你能玩撲克嗎?(不能);你能過馬路嗎?(不能,這只是一個狹義的目標程序);你能跟我們講述一下這場對弈嗎?(不能)
Etzioni說,深度學習是一種“有局限的機器學習技術,在一系列狹義的問題上可以卻得卓越的成績,比如語音識別和下圍棋。在我們擁有大量的標簽數據的情況下,深度學習會特別有用。但是,在一些特定任務上超越人類并不代表在總體上達到了人類水平的表現。今天的機器學習中,有99%的工作需要人來完成。”
在被問及“為什么深度學習會取得如此好的效果?”Marcus說,很多聰明的人都相信深度學習近乎魔術,但是我不是。深度學習缺乏隨機關系的表征方式、在邏輯推理表現上沒有清晰的方式、在加入抽象知識上還有很長的路要走。“雖然目前的投入很大,有數十億美元,但是這些難題依然存在,一把好的梯子并不一定能讓你登上月球”,Marcus說。
8.AI是增強智能——既依賴機器也依賴人類
Tom Davenport在演講中建議人應該與機器一起向前發展,而非相互對抗,他對各大機構也有一個很重要的建議——建立一個新的職位CAO(首席增強管),負責挑選正確的AI技術用于特定的任務,安排好人與機器的協作。
Tim O'Reilly說,如果人和機器是競爭關系,那么二者都會被淘汰。Peter Norvig提到,如何把人類的專業知識和洞見融入AI系統中,是一個巨大的挑戰。
9.AI改變了人機交互的方式——但是需要大量的情感
Tim O'Reilly最近寫到:我們正在接近一個拐點,其中語音用戶交互將會改變整個科技行業的勢力分配。
更具體地說,我們需要“重新思考通過語音實現導航的基礎”,微軟的Lili Cheng說。在我們今天使用的交互系統中“返回”與“Home”鍵設置是非常關鍵的。如果要一種對著設備說“返回,返回,返回”,這真的很奇怪。
Cheng認為對話就像一股浪潮,“一直都在向前”,但是這對使用臺式電腦的用戶來說是很難控制的。為了讓AI更好地模仿人類認識周圍環境的方式,我們可以把對話作為一個很好的測試標準,Cheng說。
要像人一樣理解世界,其中一個關鍵就是感情。為了這一目標,Affectiva已經籌建了世界上最大的情感資料庫,分析了超過470萬人臉和500億情感數據,覆蓋75個國家。
情感是AI領域的一個新芽。但是我更傾向于使用共鳴而非情感一詞,以免讓人對AI如今的發展水平產生不必要的誤解。
10.應該摒棄圖靈測試,嘗試更好的測試方法
Gary Marcus指出,現在的研究都在關注解決短期的發展,而不是“真正的難題”。在一些領域確實獲得了指數級的發展,但是在強大的、通用的人工智能上,幾乎沒有任何進展。他說,AI社區應該追求更多遠大的目標:“傳統的圖靈測試太容易了”。他推薦了另一種測試方法:Domino測試——使用無人機或者無人車往任意地點派送Pizza,正如一個普通的孩子能做到的那樣。
Le Cun提出了另一種測試“智能”或者自然語言理解的方法——Winograd Schema,用于衡量機器對世界的了解。幾個月之前,Nuance Communications贊助了第一屆Winograd Schema挑戰賽,結果顯示,機器在句子中代詞的理解上準確率為58.33%,人類水平為90.9%。
11.丘吉爾對AI的啟示
Peter Norvig:“丘吉爾對民主的解釋也可以借用到機器學習上,除非所有的人都嘗試過,否則它可能是世界上最糟糕的系統”。
Oren Etzioni:“改編下丘吉爾的名言:深度學習并不是終點,它也不終點的開始,它甚至不是開始的終點”。
12.在物質主義范式內徒勞地追求人類水平的智能,對AI的發展可能會是一個持續的阻礙
Gary Marcus對NIPS上發表的論文有諸多不滿,他說,這些論文就像煉金術一樣,每次只在一個神經網絡上增加一層或者兩層,“都是些小修小補”。他建議要有“更豐富的基礎計算指導”,還說,“是時候產生一些天才的創意了”。
當被問及,“我們什么時候能看到人類水平的AI?”,Etzioni回答:“我也不知道”。在他自己所做的對AI專家的調查中,他的答案是25年。他解釋說:我是一個物質主義者,我相信世界是由原子構成的,所以我不站在“絕對造不出”那一陣營。
認為智能由原子構成,并是可以計算的,這一概念是一種主流的范式。馬文?明斯基曾有一句經典名言:“人類的大腦就是一臺計算機,只不過是由肉構成的罷了”。
但是,是不是就是這種范式導致AI進入了“冬天”?是不是可能,我們的大腦并不是計算機,計算機的原理與大腦也不像?如果我們最終能放棄想要在計算機中復制“人類水平的智能”,也許我們能有一些額外的發現,也就是“狹義”的應用,讓計算機能改善并豐富人類的生活。
摘自 機器人網