4月17日下午,湛廬特別邀請圣塔菲研究所客座教授、《AI 3.0》一書作者梅拉妮·米歇爾,中國科學院自動化研究所復雜系統管理與控制國家重點實驗室主任王飛躍,馭勢科技聯合創始人、董事長兼CEO吳甘沙,清華大學計算機系副教授、智源青年科學家劉知遠等國內外知名科學家和創業者,以及特別嘉賓達闥云端機器人小姜,一起探討AI 3.0時代的新商機和新生態。
這次全智能場景發布會第一次采用了演播室和戶外智能場景雙現場形式,在無人駕駛汽車和云端智能機器人的烘托下,全面展示了中國人工智能領域的創新實力和前沿進展。幾位科學家、企業家跨界深度交流,共同探討了人工智能發展現狀,以及透視當下AI發展的關鍵問題,并對產業布局和政策提出了可供參考的建議,助力未來的想象與開創。
以下為梅拉妮·米歇爾教授演講精華內容
圣塔菲研究所客座教授 暢銷書《復雜》作者 梅拉妮·米歇爾(Melanie Mitchell)
廣大讀者朋友們,大家好,我是梅拉妮·米歇爾,是圣達菲研究所的教授,也是這本剛剛被翻譯成中文的《AI 3.0》一書的作者,我寫這本書的原因是為了與非專業人士探討人工智能的現狀。
有些讀者可能讀過我以前出版的一本書的中文版——《復雜》,并且可能會想知道兩本書之間的關系。我對此先做一個簡要的說明:
《復雜》這本書是對復雜系統科學的一個概述,復雜系統科學研究的是復雜行為如何從相對簡單的組成部分之間的相互作用中產生;
而《AI 3.0》則是深度聚焦于復雜系統科學中的一些最難的問題,比如智能的本質是什么?研究者是如何創建智能機器的?我們如何評判這一領域目前所
取得的成就?今天的機器距離真正像人一樣來理解世界還有多遠?
如今,我們都聽說了許多關于人工智能(AI)的應用,以及人工智能(AI)將如何改變我們生活的方方面面。人工智能系統在我們的日常生活中隨處可見,人工智能系統會為我們找出最佳的行駛路線,它還可以識別人臉、轉錄語音、回答人類的問題,把文本翻譯成不同的語言,它們可以在復雜的游戲中打敗人類,甚至可以自主駕駛。
但這些系統到底有多智能呢?要過多久它們才能真正達到人類智能的水平,甚至超越人類?人類智能創造AI程序最大的挑戰是什么?如何解決這些挑戰?我們真的想要創造這樣的東西嗎?以上這些都是我今天想涵蓋的主題。我會以一種非專業人士可以理解的以及從事AI研究的人們同樣也感興趣的方式去講述。
首先我會簡單地談談人工智能的發展歷史,以及我們是如何到達AI 3.0(第三代人工智能)的。
AI 1.0是大約始于20世紀50年代的第一代人工智能,那是人類工程知識的時代。
也就是說人類會結合自己的知識編寫程序,例如對鳥類進行分類。如果一只鳥很大,但不會飛,那它可能是鴕鳥;如果它很大還會飛,而且又硬又禿,那它可能就是一只鷹。
這些所謂的專家系統有許多復雜的案例,但不幸的是這個系統很難整合所有的人類知識。例如,如果有一只翅膀折斷的鳥該怎么分類?這樣的例子不在整個專家庫里,因此該系統就會出錯。
AI 2.0是大約始于20世紀90年代的機器學習時代,在過去的10年左右被稱為深度學習革命。
在這個時代,人工智能系統從數據而非人類專家庫編制的程序中進行學習。在最新一輪的深度學習革命中,這些系統是基于人腦如何學習,以及人腦如何由多層相互反饋的神經元構成來進行建模的。
其中神經元層的數量被稱為網絡的深度,由多層模擬神經元組成的網絡是一個通過深度學習進行學習的深度網絡,深度學習帶來了我之前提到的人工智能領域最近取得的所有重大成就,但它有很多局限性。
一方面,深度神經網絡需要從人類標記的大規模數據集進行學習。例如,ImageNet數據集是一組從互聯網上爬取的超過100萬張圖片的龐大集合,人類已標記出了其中每個圖片里的目標類別,ImageNet使計算機視覺、人臉識別等其他應用產生了巨大的進步,但總的來說,為了使神經網絡不出任何錯誤,要標記出充分訓練一個神經網絡所需的所有圖片是不可能的。
深度神經網絡的另一個問題是其復雜性,還有其決策的不可解釋性。舉個發生在我自己實驗室里的例子,一個學生正在訓練判斷一張圖片是否包含動物的神經網絡,你可以看到,它對像這樣包含動物的圖片,與其他像這樣不包含動物的圖片的分類是正確的。但該網絡無法解釋它做決策的原因,我的學生在做了大量的工作后發現該網絡實際上利用的是這樣的線索——有動物圖像的背景是模糊的,沒有動物的圖像背景是清晰的,這是由于在這里攝影師正聚焦于前景中的這只動物,因此不需要把焦點放在前景上。該神經網絡使用的線索并非我們想讓它成功完成這項任務的線索,這種情況在機器學習中隨處可見。
由于神經網絡從數據中學到的是這些表面的線索,因此它們經常會犯一些不像人類的錯誤。例如,深度神經網絡以非常高的可信度正確地將這張照片分類為消防車,但如果那輛消防車通過Photoshop改為不同的形態,神經網絡會非常自信地認為現在它是一輛校車、一艘消防船或一輛雪橇。所以在某種程度上神經網絡感知到的東西與我們人類在這些圖像中感知到的東西非常不同,而且我們很難理解它為什么會犯這些錯誤。
深度神經網絡也很難將它們學到的知識遷移到新場景中,比如,一個神經網絡學著玩電子游戲《打磚塊》(Breakout),在這個游戲中,需要移動一個球拍來擊球,擊碎這些彩色的部分(即磚塊)。這臺計算機使用深度學習的方法來學習如何比人類玩得更好,但如果當球拍向上移動了幾個像素,游戲就會發生一些微小的變化,盡管人類可以很容易地調整自己的知識來玩這個新游戲,但神經網絡卻無法調整自己的知識來玩好這個新游戲。
最后,深度神經網絡容易受到對抗性攻擊。例如,研究人員能夠開發出一些有趣的眼鏡,他們可以戴它來愚弄深度神經網絡和人臉識別系統,讓它們誤判自己是其他人。比如,神經網絡被這款眼鏡欺騙,認為這個男人是女演員米拉·喬沃維奇(Milla Jovovitch)。這款眼鏡上精心設計的特殊圖案能夠騙過神經網絡,這意味著它們看到的東西或捕捉到的線索,與我們人類在這些圖像中所感知到的信息是非常不同的。
AI 3.0是人工智能的下一個時代。在這個時代里,我們期望人工智能系統更加魯棒,更易于解釋,適應性更強。
我們開發類似系統的方式是,發現如何讓系統像人類一樣以一種主動的無監督的方式學習,類似孩子們學習或掌握常識的方式。比如,如果一個球跑到街上,它可能會被一個孩子尾隨,我們希望自動駕駛汽車理解這種情況。還存在有許許多多這樣類似的情況,但我們很難寫下所有的規則,因此我們希望計算機能發展出人類所擁有的感知能力。我們希望系統能夠通過類比泛化它們的知識,比如,如果系統在一個簡單的情況下學會了識別橋梁,它就能更普遍地識別其他類型的橋梁,而且我們也希望系統能解釋它們的決策。所有這些都是人工智能尚未解決的基本挑戰,但它們構成了該領域取得進展的基本問題。
我們如何才能創造出具有類似人類能力的機器呢?這些是目前人工智能研究中最困難和最具挑戰性的領域,如果你覺得這一切很有趣,我希望你能讀一下我的書《AI 3.0》。
AI 3.0是人工智能歷史上最激動人心、最關鍵的時刻,每個人都應該了解人工智能的發展方向,我的書將幫助你理解這些問題和主張、存在的局限性以及危險,特別是智能機器的未來前景。