永恒的恐懼
對于人工智能的憂慮,最早可以追溯到200年前。但這不是對一項技術的反思,而是展示了造物者與被造物之間的內在關系。
“亞當”是英國19世紀女作家瑪麗?雪萊筆下作品《弗蘭肯斯坦》中的合成生命體,科學家弗蘭肯斯坦創造了他。亞當天性善良,渴望感情,渴望受到尊重,但世界并沒有像他所期待的那樣接納他,他始終是個異類。
于是,他被迫反抗,作出極端行為,脅迫弗蘭肯斯坦為他造一個“夏娃”。弗蘭肯斯坦擔心“亞當”和“夏娃”會衍生出無數新的怪物,在即將成功時將“夏娃”銷毀?!皝啴敗遍_始了復仇殺戮,弗蘭肯斯坦只能與之決斗。
《弗蘭肯斯坦》在多年以后,依然能夠成為英美文化的熱點。上海交通大學科學史與科學文化研究院院長江曉原認為,這是源于人類與被造物之間天然的永恒恐懼與不安。“歷史證明,即便同是人類,異族之間想要獲得融合,也需付出巨大代價。”這可以解釋為什么人類與人工智能的實現越近,恐懼與不安會更深。
不過,科學家一向反對將人工智能過度擬人化,他們認為目前沒有確切證據證明它們在未來會帶來像作品中的災難性后果。
倫理學家、哲學家則堅持對人工智能的憂慮,至少可以理解為對科學技術的人文關懷。江曉原說:“要打消這個擔憂,就必須論證‘人工智能不會危害人類’或者‘人工智能的危害是可控的’?!?/p>
人造機器會不會超越人
對于人工智能的警惕最初的焦點在于“人造的機器會超越人”。庫茲韋爾在《奇點臨近》中表示,一旦強人工智能實現,它可以很輕易地獲得提高,其能力也會增倍,這是機器能力的根本特質。而這種自我強化的智能最終會超過人類智能水平。
世界通用人工智能學會副主席、《通用人工智能》雜志主編、美國天普大學計算機與信息科學系副教授王培認為,首先需要理清人工智能的概念。他告訴《中國科學報》記者,目前主流認知是,“人工智能”就是要在計算機上再現“全部的”人類智力功能。
雖然人們不斷嘗試設計和構建“思維機器”,但是往往都以失敗而告終。因此,科學家轉而研發只在某個特定問題的解決上可以達到人類水平的計算機系統。
在王培看來,這種研究方向的根本問題是這類系統的能力完全由人設計決定,系統本身基本上沒有適應性、靈活性和創造性。因此,這類系統不是真正的智能。
一種非主流認識是,“智能”代表著某種理性原則,人類的智能從來不是全知全能,但人類總是能在任意環境中找到最優解。因此,真正的智能的定義可以抽象為“在知識和資源相對不足的條件下的適應能力”。
所謂“適應能力”是指,系統面臨的問題是實時發生的,對系統作出反應的時間是有要求的;同時,相對于所要解決的問題來說,系統只有有限的信息加工能力,比如記憶的容量、計算的速度;其次,系統必須是開放的,不對面臨的問題內容加以限制。
如此一來,目前人們所了解的人工智能系統都不滿足這種能力。但王培認為,這才是更接近公眾心目中的人工智能觀念,是靈活的、有創造力的。
這類系統是一個自適應系統,元程序設計會賦予其自主應對問題的能力,但是它所面臨的每一個問題本身并沒有程序可以依靠,而是全憑自己在環境中學習和積累經驗。
“無論計算機技術如何發展,盡管真正的人工智能系統會在很多具體問題的解決能力上超過人類,但由于它沒有生物屬性,沒有和人類完全相同的經驗,所以不會在所有方面超越人類?!蓖跖啾硎?,未來的人工智能系統只是在某些方面和人具有可比性,而非整體超越人類。那么,人與系統之間的關系也不可能等同于人與人之間的互動水平。
人工智能真的可控嗎
人工智能不會全面超過人類不意味著它完全可控。就連庫茲韋爾也表示,失控的人工智能在邏輯上是完全可能的。
王培承認,“智能”往往被當作褒義詞,但事實上,真正的智能在擁有靈活性和創造性的同時,也可能是不穩定、不可靠的。“人工智能目標在一定程度上可以說就是減少人對計算機的控制和干預。因此,智能越高,失控的可能性在理論上就越大,風險也就越大?!边@正好印證了倫理學家的擔憂。我國著名生命倫理學家邱仁宗表示,倫理學認為解決這個問題的核心,是希望人工智能機器成為一個“人工道德行動者”,使它們能考慮他人利益,甚至擁有利他主義傾向。
美國機器智能研究院專門研究人工智能的安全發展,該機構奠基人尤德科夫斯基就曾提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。但這個理論很容易被推翻?!耙粋€明顯的常識是:人類無法避免自己的一部分后代學壞?!苯瓡栽f。
王培的看法是,一個智能系統的行為同時取決于其先天條件以及后天條件。對于系統設計本身,可以在某種程度上將人類普世的道德標準編進程序。但由于它擁有自適應能力,人類無法預見其行為的所有后果。
“人工智能的‘自主決策’仍是被它的經驗所約束的,如果在其‘未成年’期對其輸入信息控制,以達到社會認可的動機、知識、技能結構和水平,并在其成長過程中進行與機器相關的道德、法律等社會約束,通過終生教育和社會化過程,可以實現像對人一樣的管理?!?/p>
他認為,這就是平衡自由和道德的手段,然而,這個平衡并不能事先保證。這也說明人工智能一定能成為“人工道德行動者”的證據是不明確的。
預防還是行動
有一種觀點認為,在科技發展過程中,恐懼新技術的人都會振振有詞地說:到此處為止,不要再進步。
然而,由于“智能”天生就無法控制,在邱仁宗看來,人工智能對人類構成的威脅是一種“存在威脅”,即人類存在本身都成為問題,沒有一項其他科技可以與之對等。
“真正帶有終極性質的問題是:我們究竟為什么需要人工智能?人工智能真的必不可少嗎?”江曉原認為,“沒有人工智能或者限制人工智能并不會影響人類生存,它影響的是資本增值?!?/p>
這也造成在該問題上兩種截然不同的處理原則。預防原則要求,我們不能用試錯法來處理生存危機。如果一個行為的后果未知,但是根據科學家判斷有極小可能會帶來巨大的負面風險,這一行為最好不要進行;行動派則認為,很明顯,這就要求科學家在戰略中要盡可能提高自信以對抗這種風險。阻止新興技術帶來的好處,可能會增加災難性結果的可能性。
盡管兩者無法達成一致,但人工智能研究是人類幾千年來在意識層面上自我認識的努力的最新前沿,它將不會停止發展。
“目前在這個領域的研究成果還沒有成熟到支持應用技術的程度。和所有科學領域一樣,把不成熟的研究成果投入實際應用是危險的,尤其是那些可能產生深遠影響的成果,因此它的倫理問題很重要。”王培坦言,作為人工智能的研究者,隨時想著自己研究工作的社會后果非常必要。“但人工智能技術的具體倫理規范應當隨著科學研究的進展而逐漸建立,而不可能在研究成果尚未成熟的條件下完善。”
江曉原也表示,在必須發展該技術的前提下,我們應該抱著慎之又慎的心態。雖然本質上不存在能對抗強人工智能的絕對保護措施,大力增加在發展防御手段上的投入,包括道德標準、法律標準和防御技術本身都是非常必要的。
此外,在他看來,當這樣一項重大科技應用有可能引發倫理和社會問題時,應對方式應該是科學與人文、科學家與公眾之間展開積極的對話,而非單向的傳播和順從。(記者 胡珉琦)
摘自 中國科學報