人工智能:機遇挑戰和安全風險并存
在科技發展史上,技術的進步和變革都會帶來“雙刃劍”效應。從人工智能概念的提出,到人工智能應用的落地,已經影響到社會發展的諸多方面,而人工智能技術本身的安全問題和與此相關的安全威脅,同樣不容忽視。在各國出臺國家戰略、政策法規、制度措施等助力人工智能發展的同時,人工智能的安全、風險、法律與倫理等問題,值得關注。
新一代人工智能(AI)作為一項具有顛覆性的技術,正成為影響未來社會最重要的技術領域,世界各國紛紛出臺AI國家戰略,助力AI的創新與發展。然而,在AI的發展進程中,安全與風險問題也隨之上升到前所未有的高度。AI的風險與威脅,不僅會導致法律、倫理等方面的風險,同時,會引發社會、經濟、軍事等重大領域的風險與安全。
2017年7月,國務院發布的《新一代人工智能發展規劃》明確要求,在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。2018年10月,習近平總書記在主持中共中央政治局第九次集體學習時強調,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。
一、關注AI致命性自主武器對人類的威脅
2017年11月,七十多個國家的代表出席了在日內瓦舉行的聯合國《特定常規武器公約》(CCW)大會。在大會上,伯克利大學教授、資深AI研究者斯圖爾特·羅素(Stuart Russell)公布了一段十分恐怖的視頻,一群形似“殺人蜂”的小型機器人,沖進課堂,通過人臉識別和精準定位瞬間殺死了一群正在上課的學生。視頻中的這種形體類似殺人蜂的機器人,其內置了各種傳感器、廣角攝像頭、支持面部識別,同時裝載3克炸藥。此外,它還具有反狙擊(anti-sniper)技術,完全基于AI,可輕易躲避人的抓捕。通過面部識別技術,該機器人可快速鎖定獵殺目標,對準額頭一擊致命,這個視頻讓所有參會代表心驚膽戰。
從人類誕生起,一共經歷了兩次武器革命:第一次以火藥為代表,包括槍械和炮彈;第二次以核武器為代表,包括裂變原子彈和聚變氫彈等。每次武器革命,都給人類帶來了數不盡的災難。然而,隨著新一代AI的發展,“致命性自主武器”(lethal autonomous weapons,LAWS)技術越來越成熟。LAWS實際上是一種軍用智能機器人,這種機器人與人臉識別、無人機、精準定位等技術的結合,可以不經過人類干預,自主選擇和攻擊包括人員和裝備在內的軍事目標。AI技術不是武器,但是,能夠成為武器性能提升的助推器,AI+無人機、AI+無人地面車輛、AI+無人潛航設備已經廣泛應用于軍事領域,機器人作戰系統也正在研究和部署。
2018年7月,在瑞典斯德哥爾摩舉辦的國際人工智能聯合會議上,包括SpaceX及特斯拉CEO埃隆·馬斯克(Elon Musk)、谷歌DeepMind的三位創始人在內的超過2000名AI學者共同簽署《禁止致命性自主武器宣言》(Lethal Autonomous Weapons Pledge),宣誓不參與LAWS系統的開發、研制工作。筆者有幸參與簽署了這份宣言。這也是學界針對“殺人機器人”最大規模的一次集體發聲。
《禁止致命性自主武器宣言》呼吁,人的生命絕不能交給機器處置。我們的呼吁充滿了道德與倫理價值取向,如果讓機器人控制人的生死,那將是對社會、對人類最大的負罪,因此,人類在任何時候都不能被機器所掌控。LAWS在沒有人為干預的情況下會自動以人為目標進行攻擊,并致人死亡,這將給每個國家帶來恐慌,給人類帶來傷害。
當前,共有28個聯合國成員國明確,公開支持禁止殺傷性自主武器系統的呼吁。在此,筆者呼吁:應當在聯合國層面,由各主權國家討論“致命性自主武器”給全球性帶來的風險與安全問題,并簽署《聯合國禁止致命性自主武器公約》。
二、數據與算法安全是AI安全的核心
新一代AI的三大基石,即算法、數據和計算能力,其中,數據是新一代AI發展的基礎,計算能力將數據進行計算,算法則是針對不同行業建立的對應的模型,滿足這三者,才能實現從數據到價值的輸出。當前,加速積累的技術能力與海量的數據資源,巨大的應用需求,以及開放的市場環境有機結合,形成了我國人工智能發展的獨特優勢。
事實上,我國人工智能的發展,不缺少數據,而缺少智能數據的支撐,因此,應當強化對數據驅動與知識引導相結合的AI新方法的研究,特別是加強以自然語言理解和圖像圖形為核心的認知計算理論和方法、綜合深度推理與創意AI理論與方法、非完全信息下智能決策基礎理論與框架,以及數據驅動的通用AI數學模型與理論等基礎領域的研究,在此基礎上應當統籌利用大數據基礎設施,強化AI領域的智能數據安全與個人隱私保護。
新一代AI的本質是建立在大數據基礎上的自我學習、判斷和決策的算法,AI系統需要大量的數據訓練學習算法,因此,數據被稱為AI時代的“新石油”。算法的核心是基于網絡的編程技術,但是,這種編程技術絕非中立。目前,AI的算法決策具有典型的“黑箱”特點,大量的違背科研道德和倫理算法給新一代AI的發展蒙上了一層陰影。國務院總理、國家科技領導小組組長李克強在主持國家科技領導小組第一次全體會議時強調,要加強科研誠信建設,避免浮躁,嚴肅查處違背科研道德和倫理的不端行為。
在“技術中性”的背后,一些推送者利用智能推介算法為用戶推介信息,這種行為不但違反了自愿和知情原則,而且,也加速不良信息的傳播,特別是一些不法分子利用人工智能技術制作和傳播虛假信息,實施詐騙等違法犯罪活動。
筆者認為,網絡運營商基于一定算法,向用戶定向推送有關信息、商品或服務的,應當取得用戶的同意,并就其算法進行公開說明,不得以所謂的商業秘密為由拒絕對其算法的公開說明。同時,國家應該在相關立法中明確規定,網絡運營者向用戶定向推送有關信息、商品或服務的,應當取得用戶的同意,并就其算法進行公開說明,對其算法給公民和社會造成危害的,應當承擔相應的法律責任。
2019年5月28日,國家網信辦發布的《數據安全管理辦法(征求意見稿)》明確規定,網絡運營者利用用戶數據和算法推送新聞信息、商業廣告等,應當以明顯方式標明“定推”字樣,為用戶提供停止接收定向推送信息的功能;用戶選擇停止接收定向推送信息時,應當停止推送,并刪除已經收集的設備識別碼等用戶數據和個人信息。
三、高度重視AI倫理風險帶來的安全隱患
人工智能的倫理問題往往會直接轉化為具體的法律挑戰,或是引發復雜的連帶法律問題,而且,每個倫理問題一般都涉及相關法律問題。對此,筆者呼吁,國家應當高度重視人工智能和自主系統(AI/AS)帶來的許多復雜的倫理和法律問題。2016年,標準制定組織國際電氣與電子工程師學會(IEEE)發布了一份題為《利用人工智能和自主系統最大化人類福祉的愿景》(The Vision of Maximizing Human Well-being by Using Artificial Intelligence and Autonomous Systems)的報告。該報告提出發展人工智能的一般性原則,主要涉及AI可靠性以及高層次的倫理問題。報告認為,人工智能發展的一般性原則將適用于所有類型的人工智能和自主系統。在確定一般原則時,主要考慮三大因素:一是體現人權;二是優先考慮最大化對人類和自然環境的好處;三是削弱人工智能的風險和負面影響。
原則之一:人類利益原則。人類利益原則要求,考慮如何確保人工智能和自主系統不侵犯人權。為了實現人工智能和自主系統尊重人權、自由、人類尊嚴及文化多樣性,在使用年限內是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應當構建治理框架,包括標準化機構和監管機構,增進公眾對人工智能和自主系統的信任。
原則之二:責任原則。責任原則涉及如何確保人工智能和自主系統是可以被問責的。為了解決過錯問題,避免公眾困惑,人工智能系統必須在程序層面具有可責性,證明其為什么以特定方式運作。首先,立法機構/法院應當闡明人工智能系統開發和部署過程中的職責、過錯、責任、可追責性等問題,以便于制造商和使用者可以知曉其權利和義務分別是什么;其次,人工智能設計者和開發者在必要時考慮使用群體的文化規范的多樣性;再次,當人工智能及其影響游離于既有規范之外時,利益相關方應當一起制定新的規范;第四,自主系統的生產商/使用者應當創建記錄系統,記錄核心參數。
原則之三:透明性原則。透明性原則意味著,自主系統的運作必須是透明的,人們能夠發現其如何以及為何作出特定決定。人工智能的不透明性,加上人工智能開發的去中心化模式,加重了責任確定和責任分配的難度。透明性對每個利益相關方都意義重大:首先,對于使用者,透明性可以增進信任,讓其知道人工智能系統可以做什么及其這樣做的原因;其次,對人工智能和自主系統批準和認證機構,透明性能確保人工智能系統可以接受審查;再次,如果發生事故,透明性有助于事故調查人員查明事故原因;第四,事故發生之后,參與審判的法官、陪審團、律師、專家證人需要借助透明性提交證據作出決定;第五,對于自動駕駛汽車等顛覆性技術,一定程度的透明性有助于增強公眾對技術的信心。
原則之四:教育和意識原則。教育和意識原則涉及如何擴大人工智能和自主系統技術的好處,最小化其被濫用的風險。在人工智能和自主系統越來越普及的時代,需要推進倫理教育和安全意識教育,讓人們警惕人工智能和自主系統被濫用的潛在風險。2017年,國務院印發的《新一代人工智能發展規劃的通知》對人工智能倫理和法律框架的建立和時間表提出了具體的要求。《通知》提出,要加強人工智能相關法律、倫理和社會問題研究,建立保障人工智能健康發展的法律法規和倫理道德框架;開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等。《通知》要求,到2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。
四、構建全過程的AI監管體系
我國應當建立健全公開透明的AI監管體系,重點在AI的設計問責和應用監督并重的雙層監管結構上做充分的準備,實現對AI算法設計、產品開發和成果應用等的全過程監管。促進AI行業和企業自律,切實加強AI協同一體化的管理體系,加大對AI領域數據濫用、算法陷阱、侵犯個人隱私、違背道德倫理等行為的懲戒力度。
在AI技術研發的同時,要加強人工智能相關法律、倫理和社會問題的同步研究,尤其要關注AI模仿人類傳播錯誤信息或將商業無人機轉化為目標武器攻擊人類,建立和優化保障AI健康發展的法律法規和倫理道德框架。法律研究領域要開展與AI應用相關的民事與刑事責任確認、隱私和產權保護、機器倫理與破壞力評價等倫理與法律問題的交叉研究,建立AI的可追溯和問責制度,明確人工智能的設計者、控制者、使用者等相關法律主體的權利、義務和責任。
關于AI監管的原則,科幻作家艾薩夫·阿西莫夫(Isaac Asimov)于1942年提出的“機器人學三律”仍具有參照價值,值得借鑒。第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
筆者始終認為,AI的本質是服務人類社會(AI as a service,AIaas),而人類社會的核心價值就是“以人為本”。由此,AI健康發展的方向必須以造福于人類為宗旨。筆者建議,國家有關部門或行業組織應當制定AI產品研發設計人員的道德規范和行為守則,加強對AI潛在危害與收益的評估,構建AI復雜場景下突發事件的解決方案。同時,我國應當積極參與AI的全球治理,加強機器人異化和安全監管等AI重大國際共性問題的研究,深化在AI國際標準、國際規則等方面的合作,構建我國AI領域的國際制度性話語權。
來源:戰略前沿技術