當前主流的人工智能,經由深度學習技術所提供的強大運算力,會在某個不太遙遠的時刻逼近通用人工智能的目標。
通用人工智能技術可以通過當前的技術路線達成,然而,該目標的實現會對人類社會構成莫大的威脅。
未來人工智能的主要技術路徑,是大數據技術、5G環境中的物聯網技術。
這三條目前在人工智能領域的主流意見,被復旦大學哲學學院教授徐英瑾在剛剛出版的《人工智能哲學十五講》中,評價為“犯了哲學層面上的錯誤”“錯得離譜”。“不幸的是,全球范圍內關于人工智能的技術與資本布局,都多多少少受到了上述三種觀點,尤其是最后一種觀點的影響。對此,我感到非常憂慮。”
作為國內少有的研究人工智能哲學的年輕學者,徐英瑾在本書中系統性地對主流人工智能技術進行了批判性討論,并另辟蹊徑,為“我們將如何做出更好的人工智能”這一問題提供了截然不同的方案,簡直就是當下人工智能發展的一個“反叛者”。
“我們要有一種容錯心理,要允許不同的學科流派,按照不同的哲學假設、不同的邏輯來工作,誰做的東西好,讓市場來檢驗。”徐英瑾一直在很認真地走“旁門左道”,但他告訴《中國科學報》,目前人工智能發展所碰到的主要困難,不是科學,而是“傳播學”。因為反主流的觀點很難獲得話語權,也因其顛覆性的特質,而難以被深刻理解。
“科技發展有時會陷入路徑依賴,埋頭奔跑,卻忽略了欲速則不達。哲學家出于思辨的習慣,總是走三步退五步。”徐英瑾表示,目前社會上被熱炒的人工智能概念需要一番冷靜的“祛魅”操作,可哲學批判精神并沒有發揮重要作用,使得一些研究規劃沒有在“概念論證”的階段受到足夠認真的檢視,而這種缺憾,又與人文學科在整個科研預算分配游戲中的邊緣化地位密切相關。
《中國科學報》:為什么人工智能研究需要哲學?人工智能哲學究竟要討論什么?
徐英瑾:人工智能和所有的學科都不太一樣,它是一個連基本范式都尚未確定的學科。按照人工智能專家李飛飛女士的話說,類比物理學的發展軌跡,人工智能目前還處于前伽利略時代。
這是因為,在人工智能學界,關于何為智能的基本定義都還沒有定見,由此導致的技術路線分歧更是不一而足。牽涉到“什么是智能”這個大問題的追問,需要高度抽象的能力。澄清基本概念、思考大問題,是哲學家的本分。
除了什么是智能,哲學家還需要討論諸如這些問題:人工智能未來發展的大方向該怎么走;深度學習會不會演變成通用人工智能技術;如果不能變成通用人工智能技術,通用人工智能技術的道路該怎么走;是否要走類腦的技術路線;現有的技術路線是否具有一定的方法論上的錯誤;能否在方法論層面進行糾偏,等等。
但是,現在的人工智能哲學研究是存在偏倚的,它凸顯了自身形而上學的“面相”,而本該有的工程學“面相”卻被壓抑了。也就是說,人工智能哲學應該是聚焦于對人工智能自身的技術前提的追問。問題是,并不是所有哲學家都具有與現實世界交接的能力,擺脫了對于人工智能技術實踐的體會,空談形而上學的內容,非常像“葉公好龍”。
《中國科學報》:深度學習能讓人工智能更“智能”嗎?
徐英瑾:我認為,深度學習并非人工智能研究的康莊大道。
深度學習機制的根底,是對于人類專家某方面的數據歸類能力的膚淺模仿。這類機制正是在這種模仿的基礎上,才能在某類輸入信息與某類目標信息之間建立起特定種類的映射關系。而之所以說這類技術對于人類能力的模仿是“膚淺”的,首先是因為深度學習機制的運作完全是以大量人類專家提供大量優質的樣板數據為邏輯前提的。這就存在算法偏見的風險,而且在人類專家無法提供大量樣板數據的地方,深度學習也很難有用武之地。
其次,這種模仿不以深入理解人腦對于信息的內部加工過程為自身的理論前提,所以天生就帶有“知其然而不知其所以然”之弊。人工智能系統所做的事情,就是在各種可能的輸入與輸出之間的映射關系中隨便選一種進行“胡猜”,然后將結果拋給人類預先給定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。這種低效學習的辦法是非常笨拙的,之所以在計算機那里能夠得到容忍,只是因為計算機可以在很短的物理時間內進行海量次數的“胡猜”,并由此選出一個比較正確的解,而人類在相同時間能夠完成的猜測數量則是非常有限的。
此外,一個深度學習系統一般是以特定任務為指向的,無法同時勝任另一個領域的工作,因為它的一個特點就是對于底層變化的干擾性極度敏感,遷移能力非常受限,而一個智力正常的人常常能在一個不熟悉的領域舉一反三,變通適應。
從深度學習機制的本質特征出發,我們甚至能看到它的大規模運用對于人類文明可能造成的潛在威脅。從哲學角度看,深度學習機制其實是濃縮了一個領域內的人類智慧的平均意見,并以大量個體化的人類常識判斷的存在為其自身存在的邏輯前提。如果我們把這些進行判斷的人類個體以及其所依賴的人文背景都視為廣義的“人文資源”的一部分,那么,深度學習技術就可以被視為寄生在人文資源上的“技術寄生蟲”——它會慢慢揮霍人文資源的紅利,而本身卻不產生新的歷史發展可能性。
《中國科學報》:為什么您認為人工智能不必依賴大數據?
徐英瑾:大數據技術試圖通過回避高級認知架構與思維路徑設計的方式,直接利用“信息高速公路”上涌現的數據,由此完成原本的人工智能程序所試圖完成的某些任務。但是,人們常常忽略,海量數據的計算是極其消耗能量的一件事,而且海量數據本身也不是人類社會的真正常態。人類的自然智能對應的是“小數據”,人們常常是在信息稀缺的環境下去作出合理選擇的,這時人類智能動用的是一種“節儉性算法”。
假設有這樣一張考卷,上面有一列由美國城市名字所構成的對子,比如“斯普林菲爾德—舊金山”“芝加哥—小石城”,等等。學生的任務,是從每個對子里找出那個城市居民比較多的城市。現在我們把考卷分為兩組:德國學生的答卷與美國學生的答卷。你猜哪一組的平均分會更高一點?
很多人都會認為美國的學生考分更高,因為在不少人看來,美國學生總要比德國學生掌握更多美國城市的信息。但其實這個看法是偏頗的。作為一個大國,美國的行政區劃以及相關的人口情況異常復雜,即使是一般的美國人,也僅僅是“聽說過”不少城市的名字而已,而不太清楚所有城市的人口規模。對德國學生來說,思考反而更簡單。他們做題的時候遵循的是一條非常簡單的“捷思法”:凡是自己聽說過的美國城市,一般就都是大城市,而大城市一般人口就多。總之,面對兩個城市的名字“二選一”時,選那個看起來眼熟的地名就是了。試驗證明,這種看似“簡單粗暴”的解題思路,成功率相當了得。
這才是人類智能所展現的快速、高效的推理優勢。節儉性算法的設計是根植于對人類現有心理機制的研究的,而不是對于直接的數據環境的研究的產物。
然而,深度學習是人工智能的主流,主流的深度學習是依賴于大數據的,大數據的處理方法中也往往會調用深度學習的一些方法,這成了一種路徑依賴。它背后的商業邏輯是,利用互聯網用戶所產生的龐大的數據紅利。
如果我們的目標是讓人工智能逼近人類智能的話,就必須另辟蹊徑。麻煩的是,現代科技發展和牛頓時代本質上已然不同,牛頓時代把追求真理作為第一目標,如今的人工智能捆綁了更多商業訴求,很多方向性的探索從一開始就可能被扼殺了。
《中國科學報》:您認為的未來人工智能的發展方向是什么?
徐英瑾:符合大眾對于人工智能未來期待的一定是通用人工智能,它的意思是,能像人類那樣利用有限資源有效、經濟地完成各種任務的人工智能系統。對此,我提出了一種帶有小數據主義色彩的綠色人工智能的概念。
這種人工智能系統的特點是,第一,這種人工智能并非是大數據技術或者深度學習技術的變種,而是能夠根據少量的數據作出決策與推理。它的行為方式類似于人類,人類也能夠在信息相對少的情況下作出決策,盡管決策的質量未必高。但是這樣的決策活動卻能夠在環境提出急需人類應答挑戰的時候,使得人類具有起碼的環境適應性;第二,在人類那里,這樣的決策活動很難擺脫情緒的影響,而是知、情、意協同運作的產物。與之對應,基于小數據的人工智能也必須包含人工情緒與人工意圖的模塊,并在這種意義上具有通用人工智能的特點;第三,正是因為基于小數據的新型人工智能具有人類思維的一些特點,所以它也像人類思維一樣,未必一定要通過接駁到“云”的方式進行決策。本地化的信息處理在原則上也能滿足當下的任務要求。這就使得此類人工智能具有一定的用戶隱私保護特性。換言之,這樣的人工智能在雙重意義上將是“綠色”的:一方面對于小數據的容忍能夠帶來能耗的降低;另一方面對于本地化信息處理能力的支持能夠帶來對于隱私的保護。
《中國科學報》:越智能的機器越危險嗎?
徐英瑾:如果我們把創造性作為體現智能的重要標志,那么它本身就意味著不可預期性。我們必須在“設計非常愚蠢的,卻不可能背叛我們的人工智能”與“設計非常機智的,卻可能會在某些情況下背叛我們的人工智能”之間進行選擇,而不存在第三條路。因為“聰明”本身就意味著“具備對于背叛主人的邏輯可能性的預估力”。
《中國科學報》:人工智能需要怎樣的倫理規范?
徐英瑾:人工智能倫理學依然是一門非常不成熟的學科分支。實際上,目前在世界范圍內,推動“人工智能倫理學”研究的并不是學院內部的力量,而主要是各國官方與企業的力量,他們背后的動機并不是立足于學科發展的內部邏輯的。比如,有軍方背景的人工智能倫理學家主要關心的是“能夠自動開火的機器人”應當遵循的倫理規范問題,而歐洲議會在2016年發布的一份建議性文件甚至討論了將歐盟范圍內普遍承認的民權準則賦予機器人的問題。
我認為,這兩項問題的提出都已經超越了目前人工智能的實際發展水平。因為在認知語義學的相關學術洞見還沒有被人工智能的編程作業所消化的情形下,現有的人工智能系統的語義表征能力實際上不足以編碼任何人類意義上的道德規范。更有甚者,在夸大當前人工智能發展水平的前提下,散布“人工智能威脅論”并在公眾之中制造了一些不必要的恐慌。我認為,這種“憂患意識”好比是在一個核裂變的物理學方程式還未被搞清楚的時代就去擔心核戰的危險,只是現代版的“杞人憂天”罷了。
事實上,倫理編程問題不僅牽涉到軟件的編制,還牽涉到“怎樣的外圍設備才被允許與中央語義系統進行恒久的接駁”這一問題。也就是說,機器倫理學的核心關涉不僅包括“心智”還有人工智能“身體”的設計規范。事實上,太聰明的人工智能并不會對人類構成威脅,而太聰明的人工智能與超強的外圍硬件設備的恒久組合,才會對人類構成威脅。因為,與人類迥異的身體圖式本身就會塑造出一個與人類不同的語義網絡,從而使得人類的傳統道德規范很難附著其上。
舉例來說,研究軍用機器人的相關倫理專家所執著的核心問題是,是否要賦予軍用機器人以自主開火權。我認為,只要投入戰爭的機器人具有全面的語義智能,主要體現在,它能夠理解從友軍作戰平臺上傳送來的所有指令和情報的語義,能夠將從傳感器得到的底層數據轉化為語義信息,并具有在混雜情報環境中靈活決策的能力等,那么在原則上,我們就可以憑借它們的這種語義智能對其進行“道德教化”,并期待它們像真正的人類戰士那樣知道應當在何種情況下開火。因此,我們在軍事倫理的語境中更需要解決的問題其實是,我們是否允許將特定的武器與機器人戰士的身體直接、恒久地接駁,因為這種直接接駁肯定會改變機器人戰士的身體圖式,從而使得人類對于它們的“教化”變得困難。
所以,人工智能倫理學的研究方向應該“由軟轉硬”,從對于軟件編制規范的探討,轉向研究“怎樣的外圍硬件才允許與人工智能的中央處理器進行接駁”這一嶄新的問題。
來源:《中國科學報》