人工智能:機(jī)遇挑戰(zhàn)和安全風(fēng)險(xiǎn)并存
在科技發(fā)展史上,技術(shù)的進(jìn)步和變革都會(huì)帶來“雙刃劍”效應(yīng)。從人工智能概念的提出,到人工智能應(yīng)用的落地,已經(jīng)影響到社會(huì)發(fā)展的諸多方面,而人工智能技術(shù)本身的安全問題和與此相關(guān)的安全威脅,同樣不容忽視。在各國出臺國家戰(zhàn)略、政策法規(guī)、制度措施等助力人工智能發(fā)展的同時(shí),人工智能的安全、風(fēng)險(xiǎn)、法律與倫理等問題,值得關(guān)注。
新一代人工智能(AI)作為一項(xiàng)具有顛覆性的技術(shù),正成為影響未來社會(huì)最重要的技術(shù)領(lǐng)域,世界各國紛紛出臺AI國家戰(zhàn)略,助力AI的創(chuàng)新與發(fā)展。然而,在AI的發(fā)展進(jìn)程中,安全與風(fēng)險(xiǎn)問題也隨之上升到前所未有的高度。AI的風(fēng)險(xiǎn)與威脅,不僅會(huì)導(dǎo)致法律、倫理等方面的風(fēng)險(xiǎn),同時(shí),會(huì)引發(fā)社會(huì)、經(jīng)濟(jì)、軍事等重大領(lǐng)域的風(fēng)險(xiǎn)與安全。
2017年7月,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確要求,在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展。2018年10月,習(xí)近平總書記在主持中共中央政治局第九次集體學(xué)習(xí)時(shí)強(qiáng)調(diào),要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。
一、關(guān)注AI致命性自主武器對人類的威脅
2017年11月,七十多個(gè)國家的代表出席了在日內(nèi)瓦舉行的聯(lián)合國《特定常規(guī)武器公約》(CCW)大會(huì)。在大會(huì)上,伯克利大學(xué)教授、資深A(yù)I研究者斯圖爾特·羅素(Stuart Russell)公布了一段十分恐怖的視頻,一群形似“殺人蜂”的小型機(jī)器人,沖進(jìn)課堂,通過人臉識別和精準(zhǔn)定位瞬間殺死了一群正在上課的學(xué)生。視頻中的這種形體類似殺人蜂的機(jī)器人,其內(nèi)置了各種傳感器、廣角攝像頭、支持面部識別,同時(shí)裝載3克炸藥。此外,它還具有反狙擊(anti-sniper)技術(shù),完全基于AI,可輕易躲避人的抓捕。通過面部識別技術(shù),該機(jī)器人可快速鎖定獵殺目標(biāo),對準(zhǔn)額頭一擊致命,這個(gè)視頻讓所有參會(huì)代表心驚膽戰(zhàn)。
從人類誕生起,一共經(jīng)歷了兩次武器革命:第一次以火藥為代表,包括槍械和炮彈;第二次以核武器為代表,包括裂變原子彈和聚變氫彈等。每次武器革命,都給人類帶來了數(shù)不盡的災(zāi)難。然而,隨著新一代AI的發(fā)展,“致命性自主武器”(lethal autonomous weapons,LAWS)技術(shù)越來越成熟。LAWS實(shí)際上是一種軍用智能機(jī)器人,這種機(jī)器人與人臉識別、無人機(jī)、精準(zhǔn)定位等技術(shù)的結(jié)合,可以不經(jīng)過人類干預(yù),自主選擇和攻擊包括人員和裝備在內(nèi)的軍事目標(biāo)。AI技術(shù)不是武器,但是,能夠成為武器性能提升的助推器,AI+無人機(jī)、AI+無人地面車輛、AI+無人潛航設(shè)備已經(jīng)廣泛應(yīng)用于軍事領(lǐng)域,機(jī)器人作戰(zhàn)系統(tǒng)也正在研究和部署。
2018年7月,在瑞典斯德哥爾摩舉辦的國際人工智能聯(lián)合會(huì)議上,包括SpaceX及特斯拉CEO埃隆·馬斯克(Elon Musk)、谷歌DeepMind的三位創(chuàng)始人在內(nèi)的超過2000名AI學(xué)者共同簽署《禁止致命性自主武器宣言》(Lethal Autonomous Weapons Pledge),宣誓不參與LAWS系統(tǒng)的開發(fā)、研制工作。筆者有幸參與簽署了這份宣言。這也是學(xué)界針對“殺人機(jī)器人”最大規(guī)模的一次集體發(fā)聲。
《禁止致命性自主武器宣言》呼吁,人的生命絕不能交給機(jī)器處置。我們的呼吁充滿了道德與倫理價(jià)值取向,如果讓機(jī)器人控制人的生死,那將是對社會(huì)、對人類最大的負(fù)罪,因此,人類在任何時(shí)候都不能被機(jī)器所掌控。LAWS在沒有人為干預(yù)的情況下會(huì)自動(dòng)以人為目標(biāo)進(jìn)行攻擊,并致人死亡,這將給每個(gè)國家?guī)砜只牛o人類帶來傷害。
當(dāng)前,共有28個(gè)聯(lián)合國成員國明確,公開支持禁止殺傷性自主武器系統(tǒng)的呼吁。在此,筆者呼吁:應(yīng)當(dāng)在聯(lián)合國層面,由各主權(quán)國家討論“致命性自主武器”給全球性帶來的風(fēng)險(xiǎn)與安全問題,并簽署《聯(lián)合國禁止致命性自主武器公約》。
二、數(shù)據(jù)與算法安全是AI安全的核心
新一代AI的三大基石,即算法、數(shù)據(jù)和計(jì)算能力,其中,數(shù)據(jù)是新一代AI發(fā)展的基礎(chǔ),計(jì)算能力將數(shù)據(jù)進(jìn)行計(jì)算,算法則是針對不同行業(yè)建立的對應(yīng)的模型,滿足這三者,才能實(shí)現(xiàn)從數(shù)據(jù)到價(jià)值的輸出。當(dāng)前,加速積累的技術(shù)能力與海量的數(shù)據(jù)資源,巨大的應(yīng)用需求,以及開放的市場環(huán)境有機(jī)結(jié)合,形成了我國人工智能發(fā)展的獨(dú)特優(yōu)勢。
事實(shí)上,我國人工智能的發(fā)展,不缺少數(shù)據(jù),而缺少智能數(shù)據(jù)的支撐,因此,應(yīng)當(dāng)強(qiáng)化對數(shù)據(jù)驅(qū)動(dòng)與知識引導(dǎo)相結(jié)合的AI新方法的研究,特別是加強(qiáng)以自然語言理解和圖像圖形為核心的認(rèn)知計(jì)算理論和方法、綜合深度推理與創(chuàng)意AI理論與方法、非完全信息下智能決策基礎(chǔ)理論與框架,以及數(shù)據(jù)驅(qū)動(dòng)的通用AI數(shù)學(xué)模型與理論等基礎(chǔ)領(lǐng)域的研究,在此基礎(chǔ)上應(yīng)當(dāng)統(tǒng)籌利用大數(shù)據(jù)基礎(chǔ)設(shè)施,強(qiáng)化AI領(lǐng)域的智能數(shù)據(jù)安全與個(gè)人隱私保護(hù)。
新一代AI的本質(zhì)是建立在大數(shù)據(jù)基礎(chǔ)上的自我學(xué)習(xí)、判斷和決策的算法,AI系統(tǒng)需要大量的數(shù)據(jù)訓(xùn)練學(xué)習(xí)算法,因此,數(shù)據(jù)被稱為AI時(shí)代的“新石油”。算法的核心是基于網(wǎng)絡(luò)的編程技術(shù),但是,這種編程技術(shù)絕非中立。目前,AI的算法決策具有典型的“黑箱”特點(diǎn),大量的違背科研道德和倫理算法給新一代AI的發(fā)展蒙上了一層陰影。國務(wù)院總理、國家科技領(lǐng)導(dǎo)小組組長李克強(qiáng)在主持國家科技領(lǐng)導(dǎo)小組第一次全體會(huì)議時(shí)強(qiáng)調(diào),要加強(qiáng)科研誠信建設(shè),避免浮躁,嚴(yán)肅查處違背科研道德和倫理的不端行為。
在“技術(shù)中性”的背后,一些推送者利用智能推介算法為用戶推介信息,這種行為不但違反了自愿和知情原則,而且,也加速不良信息的傳播,特別是一些不法分子利用人工智能技術(shù)制作和傳播虛假信息,實(shí)施詐騙等違法犯罪活動(dòng)。
筆者認(rèn)為,網(wǎng)絡(luò)運(yùn)營商基于一定算法,向用戶定向推送有關(guān)信息、商品或服務(wù)的,應(yīng)當(dāng)取得用戶的同意,并就其算法進(jìn)行公開說明,不得以所謂的商業(yè)秘密為由拒絕對其算法的公開說明。同時(shí),國家應(yīng)該在相關(guān)立法中明確規(guī)定,網(wǎng)絡(luò)運(yùn)營者向用戶定向推送有關(guān)信息、商品或服務(wù)的,應(yīng)當(dāng)取得用戶的同意,并就其算法進(jìn)行公開說明,對其算法給公民和社會(huì)造成危害的,應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。
2019年5月28日,國家網(wǎng)信辦發(fā)布的《數(shù)據(jù)安全管理辦法(征求意見稿)》明確規(guī)定,網(wǎng)絡(luò)運(yùn)營者利用用戶數(shù)據(jù)和算法推送新聞信息、商業(yè)廣告等,應(yīng)當(dāng)以明顯方式標(biāo)明“定推”字樣,為用戶提供停止接收定向推送信息的功能;用戶選擇停止接收定向推送信息時(shí),應(yīng)當(dāng)停止推送,并刪除已經(jīng)收集的設(shè)備識別碼等用戶數(shù)據(jù)和個(gè)人信息。
三、高度重視AI倫理風(fēng)險(xiǎn)帶來的安全隱患
人工智能的倫理問題往往會(huì)直接轉(zhuǎn)化為具體的法律挑戰(zhàn),或是引發(fā)復(fù)雜的連帶法律問題,而且,每個(gè)倫理問題一般都涉及相關(guān)法律問題。對此,筆者呼吁,國家應(yīng)當(dāng)高度重視人工智能和自主系統(tǒng)(AI/AS)帶來的許多復(fù)雜的倫理和法律問題。2016年,標(biāo)準(zhǔn)制定組織國際電氣與電子工程師學(xué)會(huì)(IEEE)發(fā)布了一份題為《利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》(The Vision of Maximizing Human Well-being by Using Artificial Intelligence and Autonomous Systems)的報(bào)告。該報(bào)告提出發(fā)展人工智能的一般性原則,主要涉及AI可靠性以及高層次的倫理問題。報(bào)告認(rèn)為,人工智能發(fā)展的一般性原則將適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時(shí),主要考慮三大因素:一是體現(xiàn)人權(quán);二是優(yōu)先考慮最大化對人類和自然環(huán)境的好處;三是削弱人工智能的風(fēng)險(xiǎn)和負(fù)面影響。
原則之一:人類利益原則。人類利益原則要求,考慮如何確保人工智能和自主系統(tǒng)不侵犯人權(quán)。為了實(shí)現(xiàn)人工智能和自主系統(tǒng)尊重人權(quán)、自由、人類尊嚴(yán)及文化多樣性,在使用年限內(nèi)是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應(yīng)當(dāng)構(gòu)建治理框架,包括標(biāo)準(zhǔn)化機(jī)構(gòu)和監(jiān)管機(jī)構(gòu),增進(jìn)公眾對人工智能和自主系統(tǒng)的信任。
原則之二:責(zé)任原則。責(zé)任原則涉及如何確保人工智能和自主系統(tǒng)是可以被問責(zé)的。為了解決過錯(cuò)問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運(yùn)作。首先,立法機(jī)構(gòu)/法院應(yīng)當(dāng)闡明人工智能系統(tǒng)開發(fā)和部署過程中的職責(zé)、過錯(cuò)、責(zé)任、可追責(zé)性等問題,以便于制造商和使用者可以知曉其權(quán)利和義務(wù)分別是什么;其次,人工智能設(shè)計(jì)者和開發(fā)者在必要時(shí)考慮使用群體的文化規(guī)范的多樣性;再次,當(dāng)人工智能及其影響游離于既有規(guī)范之外時(shí),利益相關(guān)方應(yīng)當(dāng)一起制定新的規(guī)范;第四,自主系統(tǒng)的生產(chǎn)商/使用者應(yīng)當(dāng)創(chuàng)建記錄系統(tǒng),記錄核心參數(shù)。
原則之三:透明性原則。透明性原則意味著,自主系統(tǒng)的運(yùn)作必須是透明的,人們能夠發(fā)現(xiàn)其如何以及為何作出特定決定。人工智能的不透明性,加上人工智能開發(fā)的去中心化模式,加重了責(zé)任確定和責(zé)任分配的難度。透明性對每個(gè)利益相關(guān)方都意義重大:首先,對于使用者,透明性可以增進(jìn)信任,讓其知道人工智能系統(tǒng)可以做什么及其這樣做的原因;其次,對人工智能和自主系統(tǒng)批準(zhǔn)和認(rèn)證機(jī)構(gòu),透明性能確保人工智能系統(tǒng)可以接受審查;再次,如果發(fā)生事故,透明性有助于事故調(diào)查人員查明事故原因;第四,事故發(fā)生之后,參與審判的法官、陪審團(tuán)、律師、專家證人需要借助透明性提交證據(jù)作出決定;第五,對于自動(dòng)駕駛汽車等顛覆性技術(shù),一定程度的透明性有助于增強(qiáng)公眾對技術(shù)的信心。
原則之四:教育和意識原則。教育和意識原則涉及如何擴(kuò)大人工智能和自主系統(tǒng)技術(shù)的好處,最小化其被濫用的風(fēng)險(xiǎn)。在人工智能和自主系統(tǒng)越來越普及的時(shí)代,需要推進(jìn)倫理教育和安全意識教育,讓人們警惕人工智能和自主系統(tǒng)被濫用的潛在風(fēng)險(xiǎn)。2017年,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃的通知》對人工智能倫理和法律框架的建立和時(shí)間表提出了具體的要求?!锻ㄖ诽岢?,要加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架;開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。《通知》要求,到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
四、構(gòu)建全過程的AI監(jiān)管體系
我國應(yīng)當(dāng)建立健全公開透明的AI監(jiān)管體系,重點(diǎn)在AI的設(shè)計(jì)問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)上做充分的準(zhǔn)備,實(shí)現(xiàn)對AI算法設(shè)計(jì)、產(chǎn)品開發(fā)和成果應(yīng)用等的全過程監(jiān)管。促進(jìn)AI行業(yè)和企業(yè)自律,切實(shí)加強(qiáng)AI協(xié)同一體化的管理體系,加大對AI領(lǐng)域數(shù)據(jù)濫用、算法陷阱、侵犯個(gè)人隱私、違背道德倫理等行為的懲戒力度。
在AI技術(shù)研發(fā)的同時(shí),要加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題的同步研究,尤其要關(guān)注AI模仿人類傳播錯(cuò)誤信息或?qū)⑸虡I(yè)無人機(jī)轉(zhuǎn)化為目標(biāo)武器攻擊人類,建立和優(yōu)化保障AI健康發(fā)展的法律法規(guī)和倫理道德框架。法律研究領(lǐng)域要開展與AI應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、機(jī)器倫理與破壞力評價(jià)等倫理與法律問題的交叉研究,建立AI的可追溯和問責(zé)制度,明確人工智能的設(shè)計(jì)者、控制者、使用者等相關(guān)法律主體的權(quán)利、義務(wù)和責(zé)任。
關(guān)于AI監(jiān)管的原則,科幻作家艾薩夫·阿西莫夫(Isaac Asimov)于1942年提出的“機(jī)器人學(xué)三律”仍具有參照價(jià)值,值得借鑒。第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。
筆者始終認(rèn)為,AI的本質(zhì)是服務(wù)人類社會(huì)(AI as a service,AIaas),而人類社會(huì)的核心價(jià)值就是“以人為本”。由此,AI健康發(fā)展的方向必須以造福于人類為宗旨。筆者建議,國家有關(guān)部門或行業(yè)組織應(yīng)當(dāng)制定AI產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則,加強(qiáng)對AI潛在危害與收益的評估,構(gòu)建AI復(fù)雜場景下突發(fā)事件的解決方案。同時(shí),我國應(yīng)當(dāng)積極參與AI的全球治理,加強(qiáng)機(jī)器人異化和安全監(jiān)管等AI重大國際共性問題的研究,深化在AI國際標(biāo)準(zhǔn)、國際規(guī)則等方面的合作,構(gòu)建我國AI領(lǐng)域的國際制度性話語權(quán)。