本年度的O'reilly人工智能大會(huì)上,39家機(jī)構(gòu)的66名AI從業(yè)者就當(dāng)下的AI發(fā)展?fàn)顩r進(jìn)行介紹:從聊天機(jī)器人到深度學(xué)習(xí)、再到自動(dòng)技術(shù)和情感識(shí)別,以及自動(dòng)化工作和AI進(jìn)步的阻礙,甚至拯救生命和商業(yè)機(jī)會(huì)等話題都有涉及。
如今人工智能發(fā)展到底處于何種狀態(tài),面臨哪些難點(diǎn),未來發(fā)展?jié)摿θ绾危繀⒓恿薕'reilly人工智能大會(huì)的行業(yè)專家Gll Press帶來了他的12個(gè)觀察。他提取的觀點(diǎn)主要來自Peter Norvig、Yann LeCun等頂級(jí)人工智能專家,另外,還有來自微軟、英偉達(dá)和艾倫人工智能研究院的主管級(jí)專家。12個(gè)觀察包括:AI是黑箱;AI具有高技術(shù)難度;無人車可能使開車變成人的業(yè)余愛好;AI需考慮文化和背景——訓(xùn)練影響學(xué)習(xí);AI不會(huì)取代人的所有工作;AI不會(huì)使人類滅亡;AI不是魔法,深度學(xué)習(xí)很有用,但有局限;AI是增強(qiáng)的智能,同時(shí)具有人類和機(jī)器的強(qiáng)處;AI改變了我們與計(jì)算機(jī)的交互方式;AI需有更聰明的測試,圖靈測試不夠;丘吉爾對(duì)AI的觀點(diǎn);唯物主義范式下徒勞地追求人類水平的智能可能阻礙AI的發(fā)展。
本年度的O'reilly人工智能大會(huì)上,39家機(jī)構(gòu)的66名AI從業(yè)者就當(dāng)下的AI發(fā)展?fàn)顩r進(jìn)行介紹:從聊天機(jī)器人到深度學(xué)習(xí)、再到自動(dòng)技術(shù)和情感識(shí)別,以及自動(dòng)化工作和AI進(jìn)步的阻礙,甚至拯救生命和商業(yè)機(jī)會(huì)等話題都有涉及。本次會(huì)議由Peter Norvig和Tim O’Reilly擔(dān)任程序委員會(huì)主席。以下是參會(huì)者Gll Press的參會(huì)觀察。
Gll Press是一家咨詢公司的管理合伙人,福布斯網(wǎng)站作者。他的這篇文章是參加O'reilly人工智能大會(huì)之后的總結(jié),提煉了12個(gè)對(duì)目前AI行業(yè)的觀察,比如,黑箱問題、深度學(xué)習(xí)局限性在哪、人機(jī)交互問題、AI的冬天等等。
1.AI是一個(gè)黑箱:trust-but-verify的破解方法
Google研究總監(jiān)Peter Norvig曾說,“與傳統(tǒng)軟件相反,機(jī)器學(xué)習(xí)生產(chǎn)的不是代碼,而更像是一個(gè)黑箱——你能稍微窺探到里面,對(duì)里面正在發(fā)生的事情有一些了解,但看不到全貌。”
Tim O’Reilly最近在他的一篇博客文章中寫道:“由于很多正在重塑我們的社會(huì)的算法是黑箱…在深度學(xué)習(xí)領(lǐng)域中,由于它們甚至對(duì)它們的創(chuàng)造者來說都難以理解,因此問題的關(guān)鍵是信任。當(dāng)今世界的重要學(xué)科是在不了解算法所遵循的確切的規(guī)則的情況下理解怎樣評(píng)估算法。”
O’Reilly提出算法值得信任但要驗(yàn)證(trust-but-verify)的方法,四條規(guī)則:預(yù)期結(jié)果是已知的,外部觀察可驗(yàn)證結(jié)果;如何測量“成功”是明確的;算法的創(chuàng)作者和使用者的目標(biāo)具有一致性;并且該算法有助于創(chuàng)作者和使用者做出更好的長期決策。
2.AI具有高難度,理想與現(xiàn)實(shí)還有差距
我們都想要一個(gè)能處理所有家務(wù)的機(jī)器人(Rosie),但是我們得到的只是一個(gè)掃地機(jī)(Roomba)。
艾倫人工智能研究院的CEOOrenEtzioni在大會(huì)上列舉了讓機(jī)器變得更像人這一努力所遇到的困難,即使是一些“智能”的機(jī)器。比如,“人呼吸空氣(people breathair)”是一個(gè)簡短的陳述,但是卻很難讓機(jī)器理解。
Etzioni此前在華盛頓大學(xué)獲得終身教職,他現(xiàn)在領(lǐng)導(dǎo)艾倫人工智能研究院,其主要的任務(wù)是讓AI至少能展示對(duì)詞或者圖像的某種程度的理解,而不僅僅是計(jì)算標(biāo)簽對(duì)象的接近性。
作為紐約大學(xué)的教授、FacebookAI實(shí)驗(yàn)室的主管,LeCun在把深度學(xué)習(xí)用于解決現(xiàn)實(shí)問題上進(jìn)行了深入的研究。在Facebook,每天有100至150萬圖片上傳(還不包括Instagram、WahtsAPP和Messenger)。他在演講中提到,每一張圖片一經(jīng)上傳就會(huì)立刻通過兩層的卷積神經(jīng)網(wǎng)絡(luò),一層用于識(shí)別圖像中的物體,另一層則識(shí)別人。每一個(gè)傳到Facebook上的視頻也會(huì)經(jīng)歷同樣的過程。
他們分享的經(jīng)驗(yàn)表明了智能機(jī)器現(xiàn)在能做到什么,同時(shí)也凸顯了要接近人類水平的智能,還有很大的挑戰(zhàn)需要克服。Lecun說,如果機(jī)器要如此智能地行動(dòng),需要“對(duì)環(huán)境和其中的物體功能有一個(gè)完整的復(fù)制,這樣就能產(chǎn)生一系列的行動(dòng),并預(yù)測它們會(huì)對(duì)環(huán)境產(chǎn)生的影響”。為了實(shí)現(xiàn)這一目標(biāo),機(jī)器學(xué)習(xí)理解環(huán)境是如何起作用的,學(xué)習(xí)大量的背景知識(shí),感知任何特定時(shí)刻的環(huán)境狀態(tài),并且能進(jìn)行推理和計(jì)劃。簡而言之,LeCun的終極目標(biāo)是希望能實(shí)現(xiàn)從“監(jiān)督式學(xué)習(xí)”到“無監(jiān)督學(xué)習(xí)”的過渡。LeCun說:“難點(diǎn)在于,在確定性中進(jìn)行預(yù)測。”
Peter Norvig解釋了為什么機(jī)器學(xué)習(xí)要比傳統(tǒng)的軟件更難。他說:“缺乏清晰的障礙摘要”——去除Bug更加難,因?yàn)榘袯ug區(qū)分出來;“非模塊性”——稍微改動(dòng)小部分東西,最終會(huì)把所有的東西都改變;“非固定性”——需要考慮新的數(shù)據(jù);“數(shù)據(jù)歸屬”——圍繞隱私、安全和公平的議題以及缺乏足夠的工具和處理,既有的許多工具都是為傳統(tǒng)軟件設(shè)計(jì)的。“機(jī)器學(xué)習(xí)會(huì)讓你速度變快”,Norvig總結(jié)說,“但是當(dāng)你變得很快,問題出現(xiàn)的速度也會(huì)相對(duì)加快”。紐約大學(xué)的GaryMarcus對(duì)AI發(fā)展面臨的巨大挑戰(zhàn)有經(jīng)典總結(jié):我們都想要一個(gè)能處理所有家務(wù)的機(jī)器人(Rosie),但是我們得到的只是一個(gè)掃地機(jī)(Roomba)。
3.我們可能是最后一代擁有汽車的人
美國運(yùn)輸部秘書長Foxx在最近的一次演講中宣稱:“我們可能是最后一代擁有汽車的人。”在這次會(huì)議中,NVIDIA副總裁兼總經(jīng)理Jim McHugh宣稱“第一個(gè)AI機(jī)器人是汽車”。McHugh承諾自動(dòng)駕駛汽車會(huì)讓駕駛更安全,“具備AI的汽車隨時(shí)能思考、能集中精神,隨時(shí)觀察周圍的環(huán)境,而且永不會(huì)疲勞。它會(huì)擁有超人的力量,讓我們遠(yuǎn)離危險(xiǎn)。”
Lux Capital的Shahin Farshchi也表達(dá)了類似的觀點(diǎn),它認(rèn)為政府推遲對(duì)自動(dòng)駕駛汽車的批準(zhǔn)已經(jīng)危及了許多人的生命,因?yàn)槿碎_車的本領(lǐng)實(shí)在太糟糕了。他說,“AI的障礙很低,”即使采用“還不完美的自動(dòng)駕駛汽車”也能挽救許多生命。
然而,正如Tom Davenport所說,“很多人情愿被另一個(gè)人殺死,而不想被機(jī)器殺死。”自動(dòng)駕駛汽車的安全記錄中也有“例外”,與人類的大量駕駛事故相比,自動(dòng)駕駛的這些事故會(huì)被忽略嗎?還是發(fā)生幾次嚴(yán)重事故會(huì)讓政府繼續(xù)延緩批準(zhǔn)自動(dòng)駕駛?
Peter Norvig以自動(dòng)駕駛為例闡述了有關(guān)AI安全性的兩個(gè)問題,其一是“安全勘探”——自動(dòng)駕駛汽車如何在現(xiàn)實(shí)世界(而不是在實(shí)驗(yàn)室中模擬駕駛)中如何做出安全決策。而且考慮到AI的“黑盒”性質(zhì),我們?nèi)绾悟?yàn)證它們確實(shí)是安全的?第二個(gè)問題被他稱為“不注意谷”(inattentionvalley),就是說,如果一輛自動(dòng)駕駛汽車的準(zhǔn)確度是50%,人類駕駛員會(huì)隨時(shí)警惕,隨時(shí)準(zhǔn)備著接管駕駛;但當(dāng)準(zhǔn)確度達(dá)到99%,人就不會(huì)隨時(shí)準(zhǔn)備著,當(dāng)需要人類接管時(shí)可能來不及。
Etzioni說,自動(dòng)駕駛汽車已經(jīng)減少了許多事故,而且可以更有作為。他預(yù)計(jì)25年后,開車會(huì)成為一種業(yè)余愛好。
4.AI需要考慮文化和語境——“訓(xùn)練影響學(xué)習(xí)”
英特爾院士、英特爾互動(dòng)與體驗(yàn)研究總監(jiān)Genevieve Bell表示:“當(dāng)前的許多算法已經(jīng)在其內(nèi)部形成一個(gè)國家、一種文化。”由于今天的智能機(jī)器(仍然)只來自人類的創(chuàng)造,并由人類使用,文化和語境是算法開發(fā)中的重要考慮因素。Rana ElKaliouby(情感感知AI的創(chuàng)業(yè)公司Affectiva的CEO)和Aparna Chennapragada(Google產(chǎn)品管理總監(jiān))強(qiáng)調(diào)了使用多樣化的培訓(xùn)數(shù)據(jù)的重要性——如果你想讓智能機(jī)器可以在地球上的任何地方工作,就必須適應(yīng)任何地方的文化習(xí)俗。
“訓(xùn)練影響學(xué)習(xí)——你放入的訓(xùn)練數(shù)據(jù)決定能得出的結(jié)果。”Chennapragada說。而且不僅文化會(huì)影響,上下文語境也很重要。她用“我愛你”為例解釋,各種各樣的對(duì)話都常常以這句話作為結(jié)束,但這句話不應(yīng)該用作AI驅(qū)動(dòng)的企業(yè)電子郵件系統(tǒng)的培訓(xùn)數(shù)據(jù)。
微軟研究院杰出工程師兼總經(jīng)理Lili Cheng談到微軟成功的聊天機(jī)器人“小冰”(在中國和日本有4000萬用戶)和失敗的聊天機(jī)器人Tay(最初在Twitter上發(fā)布,但在被Twitter用戶使用煽動(dòng)性推文訓(xùn)練后下架)。他認(rèn)為語境非常重要——公開對(duì)話(Tay的情況)對(duì)比小范圍對(duì)話;以及文化的影響——一種“強(qiáng)調(diào)個(gè)性,人vs機(jī)器”的美國(西方)文化和認(rèn)為“萬物有靈”的亞洲文化很不一樣。
5.AI不會(huì)取代人類的所有工作——“問題取之不盡”
Tim O'Reilly列舉了人類未來仍然不會(huì)失業(yè)的理由:1.工作職位不會(huì)用盡,因?yàn)閱栴}取之不盡。2.當(dāng)某些事物變成商品,其他事物會(huì)變得更有價(jià)值。隨著AI越來越把我們今天所做的工作變成一種商品,我們應(yīng)該期待新的事物將變得更有價(jià)值。3.經(jīng)濟(jì)轉(zhuǎn)型需要時(shí)間和努力。
奧巴馬總統(tǒng)的觀點(diǎn):“如果利用適當(dāng),AI可以帶來巨大的繁榮和機(jī)會(huì)。但它也有缺點(diǎn),就是我們必須找到避免AI消除我們的工作機(jī)會(huì)的方式。它可能會(huì)加大不平等,也可能壓低工資。”
6.AI不會(huì)使人類滅亡——“AI會(huì)讓人類更強(qiáng)”
Oren Etzioni在“設(shè)計(jì)符合我們的法律和價(jià)值體系的AI系統(tǒng)”一文中提出開發(fā)多個(gè)AI系統(tǒng)來互相檢查、彼此平衡。在這次會(huì)議上,Etzioni引用Andrew Ng說:“努力阻止AI轉(zhuǎn)向邪惡,就像破壞太空計(jì)劃以防止移民火星的人口過多。”Etzioni總結(jié)道:“AI不會(huì)消滅我們,AI將讓我們更強(qiáng)……應(yīng)該關(guān)心的問題是AI對(duì)工作的影響。我們應(yīng)該討論不是人類滅亡之類的場景。”
然而,You Gov最近代表英國科學(xué)協(xié)會(huì)進(jìn)行的一項(xiàng)調(diào)查發(fā)現(xiàn),36%的英國公眾認(rèn)為AI的發(fā)展對(duì)人類的長期存續(xù)構(gòu)成威脅。在被問及“為什么那么多著名的科學(xué)家和工程師都對(duì)AI的威脅提出警告?”時(shí),Etzioni回答說:“我很難推測像斯蒂芬?霍金(Stephen Hawking)或伊隆?馬斯克(Elon Musk)這些大人物如此擔(dān)心AI的動(dòng)機(jī)。我猜測,談?wù)摵诙春芸煊謺?huì)變得無聊,因?yàn)檫@個(gè)話題發(fā)展非常緩慢。”
對(duì)付無聊的方式之一是新的開創(chuàng)性的研究中心的建立,如最近成立的Leverhulme未來智能中心(Leverhulme Centre for the Future of Intelligence,LCFI),該中心獲Leverhulme信托1000萬英鎊資金,將專注于探索“這種潛在的劃時(shí)代的技術(shù)(即AI)發(fā)展的機(jī)遇和挑戰(zhàn)。”霍金參加了其開幕式。
7.深度學(xué)習(xí)很有用,但有局限
有一把好的梯子并不一定能讓你登上月球。
“對(duì)于數(shù)據(jù)來說,深度學(xué)習(xí)是一種更大層級(jí)的技術(shù)”,Nervana聯(lián)合創(chuàng)始人兼CEO Naveen Rao說,“從這個(gè)意義上來說,‘智能’就是在數(shù)據(jù)中尋找結(jié)構(gòu)的能力”。英偉達(dá)的Jim McHugh說得更加寬泛:“深度學(xué)習(xí)就是一種新的計(jì)算模型”。
Oren Etzioni曾就Wire上寫AlphaGo的文章發(fā)表評(píng)論:“人們常常把深度學(xué)習(xí)描述為一種對(duì)人類大腦的模擬。但是,實(shí)際上,它只是簡單的數(shù)學(xué)執(zhí)行,只不過規(guī)模很大罷了”。
Tom Davenport在會(huì)上說:“深度學(xué)習(xí)并不是深刻地學(xué)習(xí)”。
在演講中,Etzioni建議可以去問AlphaGo以下幾個(gè)問題:你能復(fù)盤嗎?(不能,除非有人按動(dòng)開關(guān));你能玩撲克嗎?(不能);你能過馬路嗎?(不能,這只是一個(gè)狹義的目標(biāo)程序);你能跟我們講述一下這場對(duì)弈嗎?(不能)
Etzioni說,深度學(xué)習(xí)是一種“有局限的機(jī)器學(xué)習(xí)技術(shù),在一系列狹義的問題上可以卻得卓越的成績,比如語音識(shí)別和下圍棋。在我們擁有大量的標(biāo)簽數(shù)據(jù)的情況下,深度學(xué)習(xí)會(huì)特別有用。但是,在一些特定任務(wù)上超越人類并不代表在總體上達(dá)到了人類水平的表現(xiàn)。今天的機(jī)器學(xué)習(xí)中,有99%的工作需要人來完成。”
在被問及“為什么深度學(xué)習(xí)會(huì)取得如此好的效果?”Marcus說,很多聰明的人都相信深度學(xué)習(xí)近乎魔術(shù),但是我不是。深度學(xué)習(xí)缺乏隨機(jī)關(guān)系的表征方式、在邏輯推理表現(xiàn)上沒有清晰的方式、在加入抽象知識(shí)上還有很長的路要走。“雖然目前的投入很大,有數(shù)十億美元,但是這些難題依然存在,一把好的梯子并不一定能讓你登上月球”,Marcus說。
8.AI是增強(qiáng)智能——既依賴機(jī)器也依賴人類
Tom Davenport在演講中建議人應(yīng)該與機(jī)器一起向前發(fā)展,而非相互對(duì)抗,他對(duì)各大機(jī)構(gòu)也有一個(gè)很重要的建議——建立一個(gè)新的職位CAO(首席增強(qiáng)管),負(fù)責(zé)挑選正確的AI技術(shù)用于特定的任務(wù),安排好人與機(jī)器的協(xié)作。
Tim O'Reilly說,如果人和機(jī)器是競爭關(guān)系,那么二者都會(huì)被淘汰。Peter Norvig提到,如何把人類的專業(yè)知識(shí)和洞見融入AI系統(tǒng)中,是一個(gè)巨大的挑戰(zhàn)。
9.AI改變了人機(jī)交互的方式——但是需要大量的情感
Tim O'Reilly最近寫到:我們正在接近一個(gè)拐點(diǎn),其中語音用戶交互將會(huì)改變整個(gè)科技行業(yè)的勢力分配。
更具體地說,我們需要“重新思考通過語音實(shí)現(xiàn)導(dǎo)航的基礎(chǔ)”,微軟的Lili Cheng說。在我們今天使用的交互系統(tǒng)中“返回”與“Home”鍵設(shè)置是非常關(guān)鍵的。如果要一種對(duì)著設(shè)備說“返回,返回,返回”,這真的很奇怪。
Cheng認(rèn)為對(duì)話就像一股浪潮,“一直都在向前”,但是這對(duì)使用臺(tái)式電腦的用戶來說是很難控制的。為了讓AI更好地模仿人類認(rèn)識(shí)周圍環(huán)境的方式,我們可以把對(duì)話作為一個(gè)很好的測試標(biāo)準(zhǔn),Cheng說。
要像人一樣理解世界,其中一個(gè)關(guān)鍵就是感情。為了這一目標(biāo),Affectiva已經(jīng)籌建了世界上最大的情感資料庫,分析了超過470萬人臉和500億情感數(shù)據(jù),覆蓋75個(gè)國家。
情感是AI領(lǐng)域的一個(gè)新芽。但是我更傾向于使用共鳴而非情感一詞,以免讓人對(duì)AI如今的發(fā)展水平產(chǎn)生不必要的誤解。
10.應(yīng)該摒棄圖靈測試,嘗試更好的測試方法
Gary Marcus指出,現(xiàn)在的研究都在關(guān)注解決短期的發(fā)展,而不是“真正的難題”。在一些領(lǐng)域確實(shí)獲得了指數(shù)級(jí)的發(fā)展,但是在強(qiáng)大的、通用的人工智能上,幾乎沒有任何進(jìn)展。他說,AI社區(qū)應(yīng)該追求更多遠(yuǎn)大的目標(biāo):“傳統(tǒng)的圖靈測試太容易了”。他推薦了另一種測試方法:Domino測試——使用無人機(jī)或者無人車往任意地點(diǎn)派送Pizza,正如一個(gè)普通的孩子能做到的那樣。
Le Cun提出了另一種測試“智能”或者自然語言理解的方法——Winograd Schema,用于衡量機(jī)器對(duì)世界的了解。幾個(gè)月之前,Nuance Communications贊助了第一屆Winograd Schema挑戰(zhàn)賽,結(jié)果顯示,機(jī)器在句子中代詞的理解上準(zhǔn)確率為58.33%,人類水平為90.9%。
11.丘吉爾對(duì)AI的啟示
Peter Norvig:“丘吉爾對(duì)民主的解釋也可以借用到機(jī)器學(xué)習(xí)上,除非所有的人都嘗試過,否則它可能是世界上最糟糕的系統(tǒng)”。
Oren Etzioni:“改編下丘吉爾的名言:深度學(xué)習(xí)并不是終點(diǎn),它也不終點(diǎn)的開始,它甚至不是開始的終點(diǎn)”。
12.在物質(zhì)主義范式內(nèi)徒勞地追求人類水平的智能,對(duì)AI的發(fā)展可能會(huì)是一個(gè)持續(xù)的阻礙
Gary Marcus對(duì)NIPS上發(fā)表的論文有諸多不滿,他說,這些論文就像煉金術(shù)一樣,每次只在一個(gè)神經(jīng)網(wǎng)絡(luò)上增加一層或者兩層,“都是些小修小補(bǔ)”。他建議要有“更豐富的基礎(chǔ)計(jì)算指導(dǎo)”,還說,“是時(shí)候產(chǎn)生一些天才的創(chuàng)意了”。
當(dāng)被問及,“我們什么時(shí)候能看到人類水平的AI?”,Etzioni回答:“我也不知道”。在他自己所做的對(duì)AI專家的調(diào)查中,他的答案是25年。他解釋說:我是一個(gè)物質(zhì)主義者,我相信世界是由原子構(gòu)成的,所以我不站在“絕對(duì)造不出”那一陣營。
認(rèn)為智能由原子構(gòu)成,并是可以計(jì)算的,這一概念是一種主流的范式。馬文?明斯基曾有一句經(jīng)典名言:“人類的大腦就是一臺(tái)計(jì)算機(jī),只不過是由肉構(gòu)成的罷了”。
但是,是不是就是這種范式導(dǎo)致AI進(jìn)入了“冬天”?是不是可能,我們的大腦并不是計(jì)算機(jī),計(jì)算機(jī)的原理與大腦也不像?如果我們最終能放棄想要在計(jì)算機(jī)中復(fù)制“人類水平的智能”,也許我們能有一些額外的發(fā)現(xiàn),也就是“狹義”的應(yīng)用,讓計(jì)算機(jī)能改善并豐富人類的生活。
摘自 機(jī)器人網(wǎng)