国产欧美日韩精品a在线观看-国产欧美日韩精品一区二区三区-国产欧美日韩精品综合-国产欧美中文字幕-一区二区三区精品国产-一区二区三区精品国产欧美

ACS880-07C
關注中國自動化產業發展的先行者!
CAIAC 2025
2024
工業智能邊緣計算2024年會
2023年工業安全大會
OICT公益講堂
當前位置:首頁 >> 資訊 >> 行業資訊

資訊頻道

人工智能時代的國家安全:風險與治理
  • 點擊數:7492     發布時間:2018-11-10 21:47:00
  • 分享到:
人工智能正在成為影響未來社會最重要的技術領域,世界各國紛紛出臺指導戰略,助力人工智能的創新與發展。然而,人工智能作為一項具有顛覆性的技術,其發展過程本身也蘊含著很大的風險與威脅。人工智能技術發展不僅會導致法律、倫理等方面的問題,也會引發國家安全領域的風險與威脅。
關鍵詞:

人工智能正在成為影響未來社會最重要的技術領域,世界各國紛紛出臺指導戰略,助力人工智能的創新與發展。然而,人工智能作為一項具有顛覆性的技術,其發展過程本身也蘊含著很大的風險與威脅。人工智能技術發展不僅會導致法律、倫理等方面的問題,也會引發國家安全領域的風險與威脅。本文根據人工智能技術和應用的發展趨勢,分析國家在不同領域所面對的安全風險,不僅有助于做好安全防范準備,也有助于處理好安全與發展之間的關系。加強對風險的有效應對,可以更好地保障人工智能技術的發展。在此基礎上,國家可以從提升風險意識、完善治理體系、加強監管能力和探求國際合作等多方面來構建風險分析和應對框架,提升國家安全的韌性。

人工智能時代的來臨

現代意義上的人工智能研究最早可以追溯到 20 世紀 40 年代。1950 年,英國著名科學家圖靈在《計算機器與智能》一文中首次提出了“機器能夠思考嗎 ?”這一具有劃時代意義的理論問題,并同時提出了測試機器是否擁有智能的方法。

1956 年,在達特茅斯夏季學術研討會上,研究者們接受了計算機專家約翰?麥卡錫提出的人工智能 (AI) 概念,并將其作為這門新興學科的正式標簽。然而,在隨后幾十年的時間里,人工智能的發展卻并非一帆風順,雖然在不同時期出現了“專家系統”、“深藍”等多項具有標志性意義的成果,但由于客觀條件的限制,人工智能技術始終無法有效解決人們的現實需求,技術發展無法在產業層面落地,對于現實社會的影響非常有限。

真正的突破出現在 2009-2010 年前后,硬件設備的進步使新一代計算機在運算速度和信息處理能力方面得到大幅提升。互聯網產業的發展改變了人類的生活方式 , 使得網絡成為人們獲取日常生活數據最集中、最便捷的渠道。移動互聯時代的到來,則使來自網絡搜索、電子商務、社會媒體、科學研究等不同領域的海量數據迅速累積,為人工智能的飛躍提供了充足的養分。在已具備強大計算能力與大數據環境的情況下,早在 60 年代就已經被提出的多層神經網絡工具煥發出巨大的生命力,重新成為技術發展的主流路徑。

本輪人工智能發展熱潮以“深度學習”為核心,該算法以建立套嵌式的多層次模式識別系統組成的“神經”架構為基礎,通過組合低層特征形成更加抽象的高層屬性、類別或特征,借以發現數據的分布特點。深度學習的出現帶來了人工智能算法的跨越,改變了傳統符號主義學派以計算機模擬人類認知系統推進人工智能的艱難嘗試,讓人工智能擁有了從海量且復雜的信息源中提取、識別和構建體系的能力,在那些任務目標明確且相關數據豐富的領域,深度學習算法能夠讓機器學習新的技能,制定有效策略,從而在短時間內提出超過人類學習能力的問題解決方案。

隨著深度學習神經網絡成為主流發展方向,人工智能技術很快在現實場景中得以應用。在很短的時間內,人工智能技術就在圖像識別、語音識別、機器翻譯、自動駕駛甚至棋類競賽等復雜的應用場景中獲得了飛速的進步,基本達到了滿足人類日常需求的標準,具備了商業投資的價值,并很快成為資本市場追捧的新熱點。

邁過產業化的門檻意味著人工智能技術真正走出了實驗室,能夠對社會生產和人類生活產生直接影響。更重要的是,本輪人工智能技術的進步證明,機器學習算法能夠在具有很多限定性條件的領域比人類做得更好,并且能夠通過自我學習不斷進步。這一結論事實上打開了人類對于人工智能發展的未來想象空間,人類社會已經能夠清晰地聽到未來社會匆匆而至的腳步聲。

人工智能技術與四大領域的安全風險

誠如馬克思所言,“科學是歷史的有力杠桿,是最高意義上的革命力量”。作為一項具有時代意義的科學思想與技術,人工智能系統能夠通過大數據分析和學習理解人類的內在需求,作為創造性的伙伴直接參與到人類改造世界的活動中。它表現出與人類理性思維方式相匹敵的思考能力,在一定程度上改變了人類與技術工具的關系。然而,一切革命性的技術變革都意味著不確定性和風險,人工智能革命也將對經濟、政治、軍事、社會等領域產生重大沖擊。如何在潛在的動蕩風險尚未發生時做到未雨綢繆,使技術革命不至于反噬人類本身,是社會科學研究者所肩負的重要責任。在此,本報告分析總結了人工智能技術進步對于社會生活中四大領域所帶來的潛在風險,旨在較為全面地展示我們所需面對的挑戰。

人工智能技術對于經濟安全的影響

經濟安全是國家安全的重要組成部分。特別是在冷戰結束之后,隨著國際體系的內在邏輯變遷,經濟安全問題日益被各國政府和研究者所重視,將其視為國家安全的核心組成部分,并逐漸擴展為一個完整的理論體系。其中金融安全、產業安全、經濟信息安全都被視為經濟安全問題的重要組成部分。人工智能技術在發展過程中首先被視為一項具有明確經濟目標的技術創新,其成果對于經濟體系的影響也最為直接。因此,在嘗試討論人工智能技術所帶來的安全風險時,最為基礎的便是其對國家層面經濟安全的影響。

結構性失業風險

從歷史上看,任何圍繞著自動化生產的科技創新都會造成勞動力需求的明顯下降,人工智能技術的進步也同樣意味著普遍的失業風險。

據美國國家科學技術委員會預測,在未來10~20 年的時間內,9%~47% 的現有工作崗位將受到威脅,平均每 3 個月就會有約 6% 的就業崗位消失。與傳統基于生產規模下行所導致的周期性失業不同,由新的技術進步所導致的失業現象從本質上說是一種結構性失業,資本以全新的方式和手段替代了對于勞動力的需要。結構性失業的人們在短期內很難重新獲得工作,因為他們之前所能夠適應的崗位已經徹底消失,而適應新的崗位則需要較長的時間周期。

可以預見的是,主要依賴重復性勞動的勞動密集型產業和依賴于信息不對稱而存在的部分服務行業的工作崗位將首先被人工智能所取代。隨著人工智能技術在各個垂直領域不斷推進,受到威脅的工作崗位將越來越多,實際的失業規模將越來越大,失業的持續時間也將越來越長。這種趨勢的演進,對于社會穩定的影響將是巨大的。

貧富分化與不平等

人工智能技術的進步所帶來的另一大經濟影響是進一步加劇了貧富分化與不平等現象。

一方面,作為資本擠壓勞動力的重要進程,人工智能所帶來的勞動生產率提升很難轉化為工資收入的普遍增長。在就業人口被壓縮的情況下,只有少數勞動人口能夠參與分享自動化生產所創造的經濟收益。新創造的社會財富將會以不成比例的方式向資本一方傾斜。

另一方面,人工智能技術對于不同行業的參與和推進是不平衡的。部分擁有較好數據積累,且生產過程適宜人工智能技術介入的行業可能在相對較短的時間內獲得較大發展。在這種情況下,少數行業會吸納巨額資本注入與大量的人才集聚,迅速改變國內產業結構。行業發展不平衡的鴻溝與部分行業大量超額收益的存在將對國家經濟發展產生復雜影響。

循環增強的壟斷優勢

作為一項有效的創新加速器,不斷發展成熟的人工智能技術可以為技術領先國家帶來經濟競爭中的戰略優勢。人工智能技術的進步需要大量的前期投入,特別是在數據搜集和計算機技術方面的技術積累對于人工智能產業的發展至關重要。但各國在該領域的投入差距很大,不同國家在人工智能技術方面的發展嚴重不平衡。而人工智能技術自身潛在的創造力特性又能使率先使用該技術的國家有更大的機率出現新一輪技術創新。如果這種邏輯確實成立,那么少數大國就會利用人工智能技術實現有效的技術壟斷,不僅能夠使自己獲得大量超額收益,使本已十分嚴重的全球財富分配兩極分化的情況進一步加劇,而且將會隨著時間的推移使差距進一步拉大。在這種狀況下,處于弱勢地位的大部分發展中國家應如何在不利的經濟結構中維持自身的經濟安全就將成為極具挑戰性的課題。

小結

人工智能技術的發展已經深刻地改變著維系國民經濟運行和社會生產經營活動的各項基本生產要素的意義。在人工智能技術的影響下,資本與技術在經濟活動中的地位獲得全面提升,而勞動力要素的價值則受到嚴重削弱。在傳統工業化時代重要的人口紅利很可能在新時代成為新型經濟模式下的“不良資產”。新的經濟體系的重構過程將會引導全球資本和人才進一步流向技術領導國,留給發展中國家走上現代化道路的機遇期將變得更加有限。人工智能技術帶來的全球經濟結構調整,將促使經濟安全問題成為所有發展中國家所面對的共同挑戰。

人工智能技術對于政治安全的影響

人工智能技術對于經濟領域的深度影響會自然傳導到政治領域,而人工智能技術的特性也容易對現有的政治安全環境產生影響。從議題層面來看,人工智能技術及其背后的大數據和算法能夠潛移默化地影響人類行為,直接對國內政治行為產生干擾。從結構層面來看,人工智能所帶來的社會經濟結構調整,會使資本的權力在政治體系中呈現擴張態勢,最終在政治權力分配中獲得相應的反映。除此之外,人工智能技術的介入,還將影響國際競爭的內容與形態。因此,對于身處人工智能時代的國家主體而言,如何在變革的條件下有效維護本國的政治安全與秩序穩定,并且提高參與國際競爭的能力,將是所有國家都不得不面對的重要課題。

數據與算法的壟斷對于政治議程的影響

技術對于各國國內的政治議程所產生的影響軌跡已經變得越來越清晰,在過去兩年中,圍繞著 2016 年美國大選而開展的種種政治運作已經越來越明顯地展現出擁有數據和技術能夠在怎樣的程度上影響政治的結果。

劍橋分析公司事件的出現非常清晰地顯示出,只要擁有足夠豐富的數據和準確的算法,技術企業就能夠為競爭性選舉制造針對性影響。在人工智能技術的協助下,各種數據資源的積累,使每個接受互聯網服務的用戶都會被系統自動畫像與分析,從而獲得定制化的服務。然而,漸趨透明的個人信息本身也就意味著這些信息可以輕易服務于政治活動。正如英國第四頻道針對劍橋分析事件所做的評論,“…一只看不見的手搜集了你的個人信息,挖掘出你的希望和恐懼,以此謀取最大的政治利益。”于是,伴隨著技術的不斷成熟,當某種特定政治結果發生時,你將難以確定這是民眾正常的利益表達,還是被有目的地引導的結果。

在人工智能時代,數據和算法就是權力,這也意味著新的政治風險。這種技術干涉國內政治的風險對于所有國家都普遍存在,但對于那些技術水平相對落后的廣大發展中國家來說,這種挑戰顯然更加嚴酷。由于缺乏相應技術積累,發展中國家并沒有充分有效的方式保護自己的數據安全,也沒有足夠的能力應對算法所帶來的干涉。人工智能技術的進步將進一步凸顯其在政治安全領域的脆弱性特征,傳統的國家政治安全將面臨嚴峻的考驗。

技術進步與資本權力的持續擴張

國家權力的分配方式從根本上說是由社會經濟生產方式的特點所決定的,不同時代的生產力水平決定了特定時段最為合理的政治組織模式。威斯特伐利亞體系中的民族國家體制出現,從根本上說正是目前人類所創造的最適宜工業化大生產經濟模式的權力分配方式。因此,當人工智能技術所推動的社會經濟結構變革逐步深入時,新的社會權力分配結構也會伴隨著技術變革而興起,推動國家治理結構與權力分配模式做出相應的調整。

從當前的各種跡象來看,資本權力依托技術和數據壟斷的地位持續擴張將成為新時代國家治理結構調整的重要特征。人工智能技術的研究工作門檻很高,依賴于巨額且長期的資本投入。當前,人工智能研究中最具實際應用價值的科研成果多出自大型企業所支持的研究平臺。超級互聯網商業巨頭實際上掌握了目前人工智能領域的大部分話語權。人工智能領域研究已經深深地打上了資本的烙印,大型企業對于數據資源以及人工智能技術的控制能力正在形成他們實際上的壟斷地位。這種力量將滲入當前深嵌于網絡的社會生活的方方面面,利用算法的黑箱為大眾提供他們希望看到的內容,潛移默化地改變公共產品的提供方式。在人工智能時代,資本和技術力量的壟斷地位有可能結合在一起,在一定程度上逐漸分享傳統上由民族國家所掌控的金融、信息等重要的權力。資本的權力隨著新技術在各個領域的推進而不斷擴張,這將成為人工智能技術在進步過程中所帶來的權力分配調整的重要特征。

對于民族國家來說,資本權力的擴張本身并非不可接受,大型企業通過長期投資和技術研發,能夠更加經濟、更加有效地在很多領域承擔提供相應公共產品的職能。然而,民族國家能否為資本權力的擴張設定合理的邊界則是關系到傳統治理模式能否繼續存在的重要問題,這種不確定性將成為未來民族國家所面對的普遍性政治安全風險。

技術進步對主權國家參與國際競爭的挑戰

人工智能技術進步所帶來的另一項重要政治安全風險是使得技術落后的國家在國際戰略博弈中長期處于不利地位。

戰略博弈是國際競爭活動中最為普遍的形式,參與者通過判斷博弈對手的能力、意圖、利益和決心,結合特定的外部環境分析,制定出最為有利的博弈策略并加以實施。 ①由于國際關系領域的戰略博弈涉及范圍廣,內容復雜,各項要素相互累加形成的系統效應(System Effects)實際上已經遠遠超出了人類思維所能夠分析和掌控的范疇,傳統意義上國家參與戰略博弈的過程更多依賴政治家的直覺與判斷。這種類似于“不完全信息博弈”的形態給人工智能技術的介入提供了條件。只要技術進步的大趨勢不發生改變,人工智能所提供的戰略決策輔助系統就將對博弈過程產生重大影響。

首先,人工智能系統能夠提供更加精確的風險評估和預警,使戰略決策從一種事實上的主觀判斷轉變為精確化的揀選過程,提升戰略決策的科學性。其次,深度學習算法能夠以更快的速度提供更多不同于人類常規思維方式的戰略選項,并且隨著博弈過程的持續,進一步根據對方策略的基本傾向對本方策略加以完善,提升實現戰略決策的有效性。最后,在戰略博弈進程中,人工智能系統能夠最大限度排除人為因素的干擾,提高戰略決策的可靠性。

以人工智能技術為基礎的決策輔助系統在國際戰略博弈的進程中將發揮重要作用,技術的完善將使得國際行為體之間戰略博弈能力的差距進一步擴大。缺少人工智能技術輔助的行為體將在風險判斷、策略選擇、決策確定、執行效率,以及決策可靠性等多個方面處于絕對劣勢,整個戰略博弈過程將會完全失衡。一旦這種情況出現,主權國家將不得不參與到技術競爭中來。而在資本和技術都處于落后一方的中小國家將在國際競爭中處于不利地位,也將面對嚴重的政治安全風險。

小結

人工智能技術的快速發展所帶來的不確定性將直接影響國家的政治安全。它不僅能夠直接作用于國內政治議程,通過技術手段對內部政治生態產生短時段的直接干擾,而且會通過國內社會經濟結構的調整,在長時段內影響原有政治體系的穩定。在人工智能時代,國內治理格局需要根據經濟基礎的變化進行調整,作為大工業時代產物的科層制管理體系應該如何適應新時代的要求,將成為影響民族國家國內政治穩定的重要因素。另一方面,人工智能技術的介入和參與還會進一步拉大國家間的戰略設計與戰略執行能力的差距,技術的潛力一旦得到完全釋放,將使得國際競爭格局進一步失衡,處于弱勢一方的發展中國家維護自身利益的空間進一步縮減。國際關系行為體之間將呈現出在技術和制度上的系統性差距,發展中國家將面臨更加嚴酷的國際競爭環境。

人工智能技術對于軍事安全的影響

人工智能技術本身并不是軍事武器,但它天然與軍事安全領域的所有問題都存在千絲萬縷的聯系。從人工智能技術誕生之日起,如何將其有效應用于軍事領域就已被納入所有技術先進國家的考慮范圍之內。這是因為國家的軍事行為與公司等經濟組織的商業行為擁有相似的邏輯,都要求建立一個有效的系統,以便在競爭性過程中獲得勝利。整個過程中同樣包含快速獲取信息、快速處理信息、做出決策與執行決策等過程。而隨著人工智能技術的成熟,它將會被越來越廣泛地應用于軍事領域,武器系統、軍事策略、軍事組織,甚至戰爭的意義可能會發生深刻改變,人類社會也有可能在進入人工智能時代之后迎來一個不同的軍事安全環境。

完全自主性武器的廣泛應用將帶來巨大的軍事倫理問題

人工智能技術不是武器,但能夠成為武器性能提升的助推器。一方面,人工智能技術的介入,使大量無人作戰武器參與作戰成為可能。當前,無人機、無人地面車輛、無人潛航設備已經廣泛應用于軍事領域,而各國軍事部門對于機器人作戰系統的興趣也是有增無減。利用深度學習算法,智能化武器可以在虛擬環境中得到武器操控的基本能力,隨后在現實環境中廣泛獲取數據,并根據數據反饋不斷提升戰斗能力,學習執行各種戰斗命令,最終實現有效應用于復雜的戰場態勢。

另一方面,隨著人工智能技術的發展,算法的更新可以賦予智能武器新的角色與行動邏輯。以智能化無人機為例,利用人工智能技術,無人機已不僅是執行定點清除等特殊任務的執行者,更成為情報搜集、目標定位、策略制定和行動發起的協調平臺,擔負起前沿信息節點和策略制定等重要任務。此外,人工智能技術的成果同樣可以應用于對于各種智能化武器的訓練過程中。智能化武器的規模越大,其在戰斗中相互協調的優勢就越容易發揮出來。通過共同的算法進行“訓練”的大批量智能化武器可以協調行動,有助于其最大限度地優化其作戰策略,并且根據戰場形勢和作戰目標進行靈活調整,最大限度地獲得戰場優勢。

然而,武器系統的快速進步也為國家的軍事行為帶來了嚴重的倫理問題。隨著技術的進步,完全自主的致命性武器系統能夠做到主動識別和選擇目標,確定擬對目標施加的武力級別,并在特定的時間和空間范圍內對目標實施規定的武力。但自主武器是否有權力在沒有人為干涉的情況下自主決定對于目標的殺傷,仍然是人類倫理領域的一個尚無答案的問題。人類社會的運行要建立在很多具有共識性的倫理基礎之上,即使是軍事行為也有很多明確的國際法規范。然而,這些法律規范都立足于人類之間的戰爭行為,對于智能化武器的規范尚未形成。特別是處于弱勢一方的軍事組織,在無法通過消滅有生力量的方式制止對方戰爭行為的情況下,是否有權利對于對方城市平民發動襲擊,迫使對方停止侵略行為?如果這種行為能夠被接受,那么軍事行動的合法性界限到底在哪里?在這些問題得到有效解決之前,一旦在現實戰場上出現智能化武器自主決定對于人類的大規模殺傷,人類社會的倫理原則就將面臨重大考驗。

更加有效的作戰體系的出現很可能觸發新一輪的軍備競賽

人工智能技術的進步和智能化武器的發展,可以使人工智能時代的作戰體系逐漸趨向去中心化的動態網絡結構。由于智能化武器本身有承載作戰關鍵節點的功能,且相互之間能夠實現數據和策略共享,因此,在戰爭過程中能夠做到相互取代,從而避免了因為關鍵節點被攻擊而導致整個作戰系統失效的結果。同時,人工智能具有更加全面高效搜集戰場信息的能力,能夠利用智能系統重新構筑戰場形態,實現對戰場真實情況最大限度的模擬。在人工智能技術的推動下,在軍事安全領域能夠出現更加有效的作戰體系。

事實上,人工智能擁有兩個人類無法比擬的優勢,其一,人工智能系統可以快速處理戰場信息,具有人類所不具備的快速反應能力。其二,人工智能系統具有多線程處理能力,可以同時處理軍事行動中同時發生的多項行動,并且提出人類思維模式所無法理解的復雜策略。速度是現代戰爭中的重要優勢,在現代戰爭信息超載的情況下,成熟的人工智能系統的反應速度和策略安排都將遠遠超過人類體能的極限。技術的影響將加劇常規軍事力量對抗的不平衡狀態,缺少人工智能技術輔助的武裝力量將越來越難以通過戰術與策略彌補戰場上的劣勢。常規對抗將不再是合理的戰略選項,不對稱戰爭將成為這兩種力量對抗的主要方式。

人類既有的歷史經驗多次驗證了任何科技革命的出現都會使率先掌握新科技的國家與其他國家之間的力量差距進一步擴大。作為人類科技史上最新的力量放大器,人工智能在軍事領域已經展現出明顯超越人類的能力與持續發展的潛力。一旦技術發展成熟,這種差距已經很難用數量堆砌或策略戰術加以彌補,應用人工智能的國際行為體在軍事行動中很難被尚未使用人工智能技術的對手擊敗,國際主體間的力量鴻溝變得更加難以跨越。面對這樣的技術變革浪潮,所有具有相應技術基礎的大國必然會千方百計地獲取相關技術,一場以人工智能技術為核心的新的軍備競賽恐怕很難避免。

人工智能技術會大大降低戰爭的門檻

在現代國際體系中,戰爭被普遍視為國際政治行為中的極端手段。巨大的經濟成本與傷亡所造成的國內政治壓力實際上給戰爭設置了較高的門檻。然而,隨著人工智能技術的介入,戰爭行動的成本與風險都有明顯下降的趨勢。

一方面,人工智能技術的介入將能夠有效節約軍事行動的成本。智能化武器的使用可以有效節約訓練過程的時間和人力成本。無人作戰武器的訓練多依賴于相對成熟的深度學習算法,在初始訓練結束后,可以快速復制到所有同類型無人作戰武器上,完成作戰武器的快速培訓過程。最大限度地節省了人類武器操控者需要對所有個體重復培訓的人力和物力成本,而且可以從整體上做到所有武器操控的同步進步。從長時段效果來看,這更是一種更加經濟、更加有效的作戰訓練方式。由于算法與數據的可復制性,部分武器的戰損對于整體作戰效能的影響將大大降低。即使在實際戰斗中出現戰損情況,其實際損失也要明顯小于傳統作戰武器。

另一方面,傳統戰爭模式中最為殘酷的一面是戰爭導致的人員傷亡,這也是現代社會戰爭行為最為嚴重的政治風險。而智能化武器的廣泛應用實際上減少人類直接參與戰斗的過程,人與武器實現實質性分離,將戰爭活動在很大程度上轉變為利用無人武器系統的任務。從而有力地規避了大量傷亡所導致的政治風險。在傳統的戰爭形態中,由于人類的深度參與,戰爭的雙方都有較大的可能出現重大傷亡,這是戰爭的不確定性所決定的。在現代政治體系中,戰爭所導致的大量本國人員傷亡會在國內政治領域形成重要的社會壓力,客觀上增加了大國發動戰爭的顧慮,提升了戰爭的門檻。然而,隨著智能化武器的廣泛使用,人員傷亡能夠大大減少,政治風險極大降低。這種情況實質上鼓勵大國減少自我約束,更多采取進攻性的行動來達到相應的目的,也會對國際安全形成新的不穩定因素,客觀上為大國之間的技術軍備競賽提供了額外的動力。

人工智能技術給網絡安全問題帶來的重大風險

網絡安全本身就是具有顛覆性、殺手锏性質的領域,人工智能的應用將會進一步放大網絡安全在進攻和防御方面的作用,從而使得強者愈強。同時,人工智能在網絡攻擊行動和網絡武器開發中的應用也會帶來很大的安全風險。這種風險主要表現在對自主選擇目標的攻擊是否會引起附帶的傷害,是否會超出預設的目標從而導致沖突升級。在現有網絡領域的沖突中,各方在選擇目標和采取的破壞程度時都會非常謹慎,避免產生不必要的傷害以及防止沖突發生。但是人工智能網絡武器的使用是否能夠遵循這一謹慎,能否將更多在網絡安全之外的因素納入到攻擊目標的選擇和攻擊程度的決策上,仍然存在疑問。因此,自主攻擊的網絡武器開發應當被嚴格限制在特定的環境之下,并且精確地開展測試。

另一方面,自主攻擊網絡武器的擴散將會對網絡安全造成更加難以控制的危害。近年發生的網絡武器泄露已經給國際安全造成了嚴重威脅,類似于 WannaCry 和 NotPetya 這樣源自于美國國家安全局武器庫中網絡武器泄露再次開發而成的勒索病毒給國際社會帶來了幾百億美元的經濟損失和重大的公共安全危害。如果更具危害的自主性網絡武器一旦泄露,其給網絡安全帶來的威脅將會更加嚴重。試想如果恐怖主義集團獲得了可以自動對全球各個關鍵基礎設施發動攻擊的網絡武器,那么將會對全球網絡安全造成嚴重危害。因此,自主網絡武器需要有嚴格加密和解密的規定,并且還應當具有在泄露后自我刪除、取消激活等功能。

技術本身的安全問題與技術擴散對于全球安全的威脅

人工智能技術的介入能夠使軍事武器的作戰效能提升,同時推動成本逐步下降,兩方面優勢的同時存在將使得對智能化武器的追求成為各大國的合理選擇,但這并不意味著人工智能技術已經完全解決了可靠性的問題。從目前情況看,人工智能技術本身的安全問題與技術擴散風險仍然不可忽視。

一方面,技術本身仍存在潛在的安全問題。算法與數據是人工智能技術發展最重要的兩項要素,但這兩項要素本身都蘊含著潛在的安全風險。算法是由人編寫的,因此,無法保證程序完全安全、可靠、可控、可信。而從數據角度來看,人工智能依賴大數據,同時數據的質量也會影響算法的判斷。軍事數據的獲取、加工、存儲和使用等環節都存在著一定的數據質量和安全風險問題。軍隊的運作建立在可靠性的基礎之上,而人工智能技術本身存在的不確定性會為全球軍事安全帶來考驗。

另一方面,人工智能技術的擴散給全球安全帶來了威脅。伴隨著人工智能武器的開發,國際社會面臨將面臨嚴峻的反擴散問題的挑戰。恐怖主義組織以及部分不負責任的國家有可能利用各種途徑獲得人工智能武器,并對國際安全和平產生威脅。人工智能從某種意義上而言,也是一種程序和軟件,因此,它面臨的擴散風險要遠遠大于常規武器。經驗表明,類似于美國國家安全局的網絡武器庫被黑客攻擊,并且在暗網進行交易,最后被黑客開發為勒索病毒的案例也有可能在人工智能武器領域重現。如何控制人工智能技術擴散所帶來的風險將成為未來全球軍事安全的重要議題。

小結

人工智能技術在軍事領域的深度介入,是核武器發明以來全球軍事領域所出現的最重要的技術變革之一。以深度學習為標志的人工智能技術可以增強信息化作戰系統的能力,這是改變戰爭形態的基礎。智能化武器的出現在理論上能夠為國家提供低成本和低風險的軍事系統,能夠再次在短時間內放大主體間軍事力量的差距,擁有人工智能技術的國家將具有全面超越傳統軍事力量的能力,使對方原本有效的傷害手段失效。新的不平衡狀態可能會造成重大的倫理問題,而中小國家則不得不面對更加嚴酷的軍事安全形勢。如果這種狀況不能得到有效管控,大國將陷入新一輪軍備競賽,而中小國家則必然會尋找相關軍事技術的擴散或新的不對稱作戰方式,以便維持自己在國際體系中的影響能力。

人工智能技術對于社會安全的影響

作為新一輪產業革命的先聲,人工智能技術所展現出來的顛覆傳統社會生產方式的巨大潛力,以及可能隨之而來的普遍性失業浪潮將持續推動著物質與制度層面的改變,也持續地沖擊著人們的思想觀念。面對劇烈的時代變革與動蕩,世界各國都面臨著法律與秩序深度調整、新的思想理念不斷碰撞等問題。變革時期的社會安全問題也將成為各國不得不面對的重要挑戰,新的思想與行動最終將匯集形成具有時代特征的社會思潮,對國家治理方式產生重要影響。

人工智能技術帶來的法律體系調整

人工智能技術在社會領域的滲透逐漸深入,給當前社會的法律法規和基本的公共管理秩序帶來了新的危機。新的社會現象的廣泛出現,超出了原有的法律法規在設計時的理念邊界,法律和制度產品的供給出現了嚴重的赤字。能否合理調整社會法律制度,對于維護人工智能時代的社會穩定具有重要意義。針對人工智能技術可能產生的社會影響,各國國內法律體系至少要在以下幾個方面進行深入思考:

(1)如何界定人工智能產品的民事主體資格

盡管目前的人工智能產品還具有明顯的工具性特征,顯然無法成為獨立的民事主體,但法律界人士已經開始思考未來更高級的人工智能形式能否具有民事主體的資格。事實上,隨著人工智能技術的完善,傳統民法理論中的主體與客體的界限正在日益模糊,學術界正在逐步形成“工具”和“虛擬人”兩種觀點。所謂“工具”,即把人工智能視為人的創造物和權利客體;所謂“虛擬人”是法律給人工智能設定一部分“人”的屬性,賦予其能夠享有一些權利的法律主體資格。這場爭論迄今為止尚未形成明確結論,但其最終的結論將會對人工智能時代的法律體系產生基礎性的影響。

(2)如何處理人工智能設備自主行動產生損害的法律責任

當人工智能系統能夠與機器工業制品緊密結合之后,往往就具有了根據算法目標形成的自主性行動能力。然而,在其執行任務的過程中,一旦出現對于其他人及其所有物產生損害的情況,應如何認定侵權責任就成了一個非常具有挑戰性的問題。表面上看,這種侵權責任的主體應該是人工智能設備的所有者,但由于技術本身的特殊性,使得侵權責任中的因果關系變得非常復雜。由于人工智能的具體行為受算法控制,發生侵權時,到底是由設備所有者還是軟件研發者擔責,很值得商榷。

(3)如何規范自動駕駛的法律問題

智能駕駛是本輪人工智能技術的重點領域,借助人工智能系統,車輛可以通過導航系統、傳感器系統、智能感知算法、車輛控制系統等智能技術實現無人操控的自動駕駛,從而在根本上改變人與車之間的關系。

無人駕駛的出現意味著交通領域的一個重要的結構變化,即駕駛人的消失。智能系統取代了駕駛人成為交通法規的規制對象。那么一旦出現無人駕駛汽車對他人權益造成損害時,應如何認定責任,機動車所有者、汽車制造商與自動駕駛技術的開發者應如何進行責任分配。只有這些問題得以解決,才能搭建起自動駕駛行為的新型規范。

歸結起來,人工智能技術對于社會活動所帶來的改變正在沖擊著傳統的法律體系。面對這些新問題和新挑戰,研究者必須未雨綢繆,從基礎理論入手,構建新時代的法律規范,從而為司法實踐提供基礎框架。而所有這些都關系到社會的安全與穩定。

思想理念的競爭性發展態勢

隨著人工智能技術的發展和進步,特別是“機器替人”風險的逐漸顯現,人類社會逐漸針對人工智能技術也將逐漸展示出不同的認知與思想理念。不同思想理念之間的差異與競爭反映了社會對于人工智能技術的基本認知分歧。同時,不同思想理念所引申的不同策略與邏輯也將成為未來影響人類社會發展軌跡的重要方向。

(1)第一種可能廣泛出現的思想理念是:保守主義

事實上,在每一次工業革命發生時,人類社會都會出現對于技術的風險不可控問題的擔憂,人工智能技術的進步也概莫能外。在深度學習算法釋放出人工智能技術的發展潛力之后,在很多領域的人工智能應用系統都僅僅需要很短的學習時間,便能夠超越人們多年所積累的知識與技術。人類突然意識到,自己曾經引以為傲的思維能力在純粹的科學力量面前顯得是那樣微不足道。更嚴重的是,深度學習算法的“黑箱”效應,使人類無法理解神經網絡的思維邏輯。人類對未來世界無法預知和自身力量有限而產生的無力感所形成的雙重擔憂,導致對技術的恐懼。這種觀念在各種文藝作品都有充分的表達,而保守主義就是這種社會思想的集中反映。

在他們看來,維持人工智能技術的可控性是技術發展不可逾越的界限。 針對弱人工智能時代即將出現的失業問題,保守主義者建議利用一場可控的“新盧德運動” 延緩失業浪潮,通過政治手段限制人工智能在勞動密集型行業的推進速度,使絕對失業人口始終保持在可控范圍內,為新經濟形態下新型就業崗位的出現贏得時間。這種思路的出發點在于盡可能長地維護原有體系的穩定,以犧牲技術進步的速度為代價,促使體系以微調的方式重構,使整個體系的動蕩強度降低。

然而,在科技快速發展的時代,任何國家選擇放緩對新技術的研發和使用在國際競爭中都是非常危險的行為。人工智能技術的快速發展可以在很短的時間內使得國家間力量差距被不斷放大。信奉保守主義理念的國家將在國際經濟和政治競爭中因為技術落后陷入非常不利的局面,這也是保守主義思想的風險。

(2)第二種可能廣泛出現的思想理念是:進步主義

這種觀點的理論出發點在于相信科技進步會為人類社會帶來積極的影響,主張利用技術紅利所帶來的生產效率提升獲得更多的社會財富。進步主義體現了人類對于人工智能技術的向往,這一思想理念高度評價人工智能所引領的本輪工業革命的重要意義。他們解決問題的邏輯是要通過對于制度和社會基本原則的調整,充分釋放人工智能技術發展的紅利,在新的社會原則基礎上構建一個更加適應技術發展特性的人類社會。

在進步主義者看來,人工智能技術所導致的大規模失業是無法避免的歷史規律,試圖阻止這種狀態的出現是徒勞的。維持弱人工智能時代社會穩定的方式不是人為干預不可逆轉的失業問題,而是改變工業化時代的分配原則。利用技術進步創造的豐富社會財富,為全體公民提供能夠保障其保持體面生活的收入。最終實現在新的分配方式的基礎上重新構建社會文化認知,形成新時代的社會生活模式。

進步主義思想的主要矛盾在于,它的理論基礎建立在人工智能技術能夠快速發展并能夠持續創造足夠豐富的社會財富的基礎上,從而滿足全球福利社會的需求。然而,人工智能技術的發展歷史從來不是一帆風順,從弱人工智能時代到強人工智能時代需要經歷多久,至今難有定論。一旦科技進步的速度無法滿足社會福利的財富需求,進步主義所倡導的新的社會體系的基礎就將出現嚴重的動搖,甚至會出現難以預料的社會劇烈動蕩。

小結

變革必然意味著風險,風險則會帶來社會安全的挑戰。人工智能技術的發展和進步能夠直接作用于經濟、政治等多個領域,也對于社會結構將產生深遠影響。面對技術所帶來的社會安全風險,我們既需要積極調整法律規制體系,努力維持社會穩定,又要在思想層面上對本輪社會變遷進行深層次的思考。雖然面對奔涌而來的人工智能浪潮,不同的思想理念展現的應對路徑具有明顯的分歧,但無論怎樣,我們在思考人類與人工智能技術的關系時,應該始終堅信,人工智能是人類的造物,是人類知識與理性的偉大結晶。人工智能可能給世界帶來的威脅遠遠不及那些人類自己可能創造的惡。我們應該以冷靜而客觀的態度理解和思考人工智能技術對于社會的影響,在處于變革中的并且更趨不平等的世界創造更加穩定、更加合理、更加體現人類文明與尊嚴的體系與制度。

人工智能在國家安全領域的風險應對

目前世界各國政府在人工智能領域的主要關注點是推動發展,對其所蘊含風險則準備不足。如上文所述,在人工智能時代,世界各國在國家安全領域面臨的各項風險是相當嚴峻的。從全球層面來看,各國所具備的應對舉措還存在較大的缺點。結合人工智能技術特點和應用發展趨勢中可能引發的各項潛在風險,我們認為,國家可以從風險意識提升、治理體系建設、加強監管能力和國際合作等多個方面來構建風險分析和應對框架,以提升國家安全的韌性。

提升風險防范意識

提升風險防范意識是應對人工智能時代國家安全風險的重要起點。相對于其他領域的安全風險,人工智能在國家安全領域的風險具有系統性、不確定性、動態性等特點。此外,人工智能是一個新的風險領域,既有的安全治理經驗很少,人們很難從過去的經驗中吸取教訓。因此,無論是風險的識別、預防和化解都是一項全新的挑戰。建立相應的風險感知、識別、預防和化解能力框架是現階段應對人工智能風險的當務之急。

感知風險意識

國家在發展和應用人工智能技術過程中,應當重視提高對技術以及應用的風險意識。由于人工智能技術的復雜性,企業常常處于技術創新和發展的前沿;而國家在某種程度上遠離技術的前沿,對技術的感知存在一定的滯后,并且往往是在事件發生之后才被動地做出反應,這樣就會錯過最佳的干預時期。為了建立主動應對的能力,國家首先需要提高對于行業和領域的風險意識,避免由于風險意識不足導致的危機。

例如,在總體國家安全觀以及其包含的政治安全、國土安全、軍事安全、經濟安全、文化安全、社會安全、科技安全、信息安全、生態安全、資源安全、核安全等在內的 11 個安全領域中高度重視人工智能發展可能帶來的積極和消極影響。特別是在涉及到政治安全、軍事安全、經濟安全、信息安全、核安全等領域,人工智能所包含的風險已經開始顯現,但相應的風險意識并沒有跟上風險的威脅程度。在這些重點領域和行業,應當把提升風險意識作為制度性工作。

提升風險意識需要國家密切關注人工智能技術和應用的發展,通過系統思維對其可能在重要安全領域帶來的風險進行深度思考。提升意識有助于后續的風險識別、預防和化解的過程,增加國家和社會對風險的重視程度,從而加大資源的投入與人才的培養。

識別風險能力

識別潛在的風險是加強危機應對的重要組成部分,但它又是具有挑戰性的工作。人工智能距離廣泛應用還有一段距離,相應的風險還在逐步地顯現,在缺乏足夠的案例的情況下,建立對風險的識別能力是一種具有前瞻性和挑戰性的工作。人工智能是一項通用性的技術,有很多方向和突破點,這加大了風險識別的難度。總體而言,主要遵循著技術突破——應用創新——新的風險這樣一個過程。識別風險的階段越早,對于風險的控制就越容易。已有的案例和技術發展的趨勢表明,人工智能所帶來的風險程度高,往往還是具有一定系統性特征,對國家安全所造成的威脅程度較大。對于國家而言,識別人工智能的風險能力建設是一項長期的工作,需要建立跨學科的知識背景以及相應的跨部門協作機制,在政治安全、經濟安全、軍事安全、社會安全等領域建立相應的風險識別機制,加強相應的能力建設。

風險預防能力

風險預防是指對已經識別的風險和未能識別的風險進行預防。對已經能夠識別的風險領域,應當根據自身的脆弱性,制定相應的預案,并且尋求風險降級的方法。對于未能識別的風險,則需要投入更多的精力,制定相應的規劃,評估處置措施。在國家安全領域建立風險預防能力對于政府部門的動員能力有很高的要求。在很多風險的預防問題上,政府都缺乏足夠的經驗,缺乏成熟的應對機制,但是卻需要政府部門能夠快速地應對,及時的制定相應的風險預防計劃。

風險化解能力

風險化解的能力,最終決定國家在人工智能時代應對國家安全風險的結果。風險意識提高、識別能力加強和建立預防能力都是增加風險化解能力的關鍵。但是,最終如何化解風險還取決于多方面的能力要素構建。人工智能所具有的跨領域特征,要求首先構建相應的跨部門協調機制。 ①人工智能所展現的跨國界特征,則要求建立起相應的國際合作機制。總體而言,如果化解人工智能的風險,就需要持續的關注和不斷的加強能力建設,這對國家提出了更高的要求。

最后,風險化解一項系統性工程,它并非是要減少和限制人工智能的發展,相反,它是建立在對人工智能技術、應用、影響等多個維度的精確理解基礎之上,在發展與安全之間取得平衡的一種能力。風險管控越有效,人工智能發展的空間越大,國家競爭力就越強。因此,提升國家安全領域的人工智能風險意識以及建立相應的管控機制,是保障其未來發展的關鍵。

構建安全治理體系

在提升風險意識和加強風險應對的同時,國家還應當主動加強人工智能安全治理體系的建設,將更多的利益攸關方納入到治理體系當中,從技術、產業、政策、法律等多個方面建立安全保障體系。

人工智能是知識密集型和資本密集型的領域,人工智能技術的開發者,包括算法和數據領域的專家以及應用開發領域的人才大多分布在企業、研究機構當中。因此,構建多方參與的治理體系是推動人工智能治理的主要方式。其中,政府作為監管部門,加強與社群和私營部門之間的互動,一方面可以掌握技術和應用發展的趨勢和方向,另一方面也可以幫助社群和私營部門更好地理解政府的關切,從而避免因為忽視和誤判引起的不必要安全風險。

治理不同于管理,很大程度上治理是一種開放、多方參與的過程。很多情況下,治理是自下而上的,強調技術導向的治理方式。它與傳統的自上而下、只有政府參與的管理模式存在很大的不同。目前,以多利益攸關方為主要治理模式的機制正在人工智能領域出現。例如,在人工智能的安全與管理領域,正在形成新的以社群為中心的治理機制,IEEE《以倫理為基礎的設計》《阿西洛馬倡議》是其中的代表。而國際電信聯盟這樣的政府間組織也在通過多利益攸關方模式發起《向善的人工智能倡議》。

政府應與其他的利益攸關方之間加強交流合作,通過相應的互動機制幫助各方更好地理解國家安全領域的風險,以及共同制定相應的風險管控機制;避免由于知識與政策之間的鴻溝影響技術社群、私營部門與政府之間的溝通障礙,導致風險出現以及相應的風險管控措施無法出臺。

加強監管能力建設

從國家安全角度來看,政府是應對風險最主要的責任人,加強政府的監管能力是降低人工智能風險、保障技術與產業長足發展的關鍵。從政府角度而言,建立人工智能的技術標準體系、應用開發的規范體系以及建立與人工智能時代相適應的法律體系是保障監管能力的關鍵。

技術標準體系

人工智能的技術標準對于技術本身是否存在漏洞、符合相應的安全要求具有重要的作用。技術上的漏洞有可能導致人工智能的系統被黑客或其他不法分子利用,從而危害國家安全。例如很多智能音箱所暴露出來對個人隱私的侵犯,以及無人駕駛汽車由于圖像識別能力不足導致的車禍等,都暴露出了人工智能還存著很多的不完善的地方,有可能會引發新的安全風險。對于這些缺陷,應當不斷提高技術標準予以克服。

技術標準由技術社群主導建立,直接面向工程師和開發人員,對于提高人工智能應用的安全性具有重要作用。例如,作為主要的人工智能技術社群,IEEE 設立了 IEEEP7000 標準工作組,設立了倫理、透明、算法、隱私等 10 大標準工作組,通過國際化的標準了影響整個技術社群。2018 年 1 月,中國國家標準化管理委員會宣布成立國家人工智能標準化總體組、專家咨詢組,負責全面統籌規劃和協調管理我國人工智能標準化工作。標準雖然是面向開發者,但是它作為技術人員所應遵循的基本規范,對于國家安全而言具有重要作用。

程序規范體系

在標準之上,國家還應當在不同的部門制定相應的規范流程,確保對安全風險的控制。以軍事領域為例,無論是半自主和全自主的武器系統,其設計應允許指揮官和作戰人員在使用武力方面作出適當的人為判斷。在決定是否使用人工智能武器時,應當制定明確的規范和流程,避免造成不可預測的后果。同時,還應當加強對人工智能武器的安全性,避免武器泄露或者隨意轉讓相關技術。無論是無意或者有意的擴散都會增加軍備競賽的風險,威脅國際安全體系。

同時對于人工智能軍事領域的使用,也應當有一套嚴格的流程,確保“合法使用”,即負責授權使用、指揮使用或操作自動化和半自主武器系統的人必須遵守戰爭法、其他國際條約、武器系統的安全規則以及適用的交戰規則(ROE)。

法律法規體系

為應對人工智能時代的安全問題,國家應當建立相應的法律、法規體系。國際和國內法律界對此展開了激烈討論。有學者認為,“智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰。它不僅與已有法律秩序形成沖突,凸顯現存法律制度產品供給的缺陷,甚至會顛覆我們業已構成的法律認知。”具體而言,人工智能已經在法律資格的主體、致人傷害的責任認定等多個方面提出了現實的問題。

從國家安全角度來看,人工智能的法律、法規所包含的內容更加豐富。從軍事領域看,在應對人工智能武器攻擊時,如何從國際法角度去認定攻擊的性質和攻擊的溯源,并應采取何種形式的反擊和應對舉措?在經濟領域,如何去規范人工智能造成的金融系統安全問題?如何明確相應的責任,對相關的企業和人員進行處罰?在政治安全領域,對于類似“劍橋分析”的大數據公司和互聯網社交媒體平臺,應當如何制定相應的法律法規,禁止其通過人工智能對政治安全進行干擾和破壞?

提升國際合作水平

人工智能所帶來的問題具有全球屬性,它不是某一國家或者某一領域的治理問題。從技術本身來看,人工智能算法與安全問題是人類共同面臨的挑戰,具有普適性;從應用角度來看,各國在人工智能的發展和應用上對國家安全造成的威脅是跨國界的;從體系角度來看,人工智能對于地緣經濟、地緣安全的顛覆性影響,沖擊甚至重塑著現有的國際政治體系,從而影響體系中每一個行為體的國家安全。因此,加強人工智能領域的國際合作對于應對國家安全風險具有重要作用。

國際法

聯合國高度關注人工智能對于國家安全的影響,經過 2014 年和 2015 年的兩次非正式會議后,在 2016 年 12 月 16 日關于特定常規武器公約的聯合國會議上成立了致命性自主武器系統(LAWS)政府專家組(GGE)。該小組的任務是研究致命性自主武器領域的新興技術,評估其對國際和平與安全的影響,并為制定相應的國際法和國際治理提供建議。 2018 年 9 月在日內瓦召開的聯合國常規武器公約的討論中,各方就制定禁止人工智能驅動的致命性完全自主武器的條約開展討論。全球約有 26 個國家支持全面禁止人工智能武器,而絕大多數國家還在觀望,所以這次會議并未達成共識。但是,在規則缺失和大國戰略競爭的背景下,軍事領域人工智能的發展帶來的風險和威脅在不斷增加,出臺國際法對于減小人工智能安全風險至關重要。

技術強國與弱國之間存在不同的觀點是導致相應的國際法難以出臺的重要原因。技術弱國認為應當完全禁止致命性自主武器的開發使用,技術強國則持相反意見,認為開發致命性自主武器可以降低人員損傷,有利于打擊恐怖主義和維護國家安全,并且很多系統已經在戰場上進入實戰。軍事是推動技術進步的重要因素,互聯網就是由美國軍方所發明,同樣,人工智能的技術發展背后也有軍事因素在強力推動。但是,人工智能的軍備競賽也非技術之福,特別是致命性自主武器的擴散會造成更為嚴重的后果。因此,從聯合國層面制定相應的國際法,并且促成大國之間在發展致命性自主武器上達成一定的軍控條約是當務之急。

當前,在國際法不明確的情況下,各國應克制在軍事領域使用人工智能武器。聯合國政府專家組也應考慮對國際法此前未曾預見的情況追加法律限制,并以道德或倫理為由盡量減少對人和平民的傷害。更進一步的目標包括管理以下風險,如使用武力的門檻降低、意外導致的傷害、預期之外的矛盾升級以及軍備競賽和擴散。

雙邊及多邊合作

從聯合國角度來達成一項談判可能需要十年甚至更長的時間,鑒于越來越多的風險,大國之間應當及早就人工智能在軍事領域應用可能帶來的潛在風險開展對話,及早啟動相應的軍控進程,短期內促成技術強國在謀求戰略優勢和國際安全體系穩定之間的妥協。同時,各國政府在面對人工智能時代的國家安全問題上面臨著共同的威脅和挑戰,加強彼此之間的合作是應對威脅的解決之道。

在軍事領域,大國之間可以就人工智能的發展以及可能觸發的軍備競賽問題開展對話,避免由于過度、過快的開發軍事應用而引起的倫理問題,以及對國際安全體系的穩定造成沖擊。可以預見,人工智能在軍事領域的應用會加速發展,存在的問題也會越來越多。特別是各國之間對于如何看待人工智能武器,如何進行有效互動還存在很大的認知差距。這種差距的存在,導致各國在沖突發生時缺乏有效的應對手段。因此,各國之間應當就人工智能的軍事安全問題開展對話,加強管控,增強政策透明度、建立信任措施,降低相應的軍事沖突的風險,并且在沖突發生時能夠采取有效的危機管控和沖突降級措施。

在政治安全、經濟安全、社會安全領域,許多國家也都在積極開展各種實踐活動,相應的做法之間有很大的相互借鑒之處。各國可以就政策實踐、信息共享、最佳實踐、案例研究等問題開展有效對話。目前看來,主要的大國并未在雙邊層面開展相關的對話,由此帶來的后果是相互之間的猜忌和不信任程度的增加。令人值得警惕的是,很多人把中國與美國在包括人工智能在內的高科技領域的競爭比作另一個“星球大戰”,或者所謂的“科技冷戰”,不僅導致了雙方之間相互將對方視為敵手,甚至導致了對科學研究、供應鏈、產品的人為設限。因此,應通過相應的對話機制,通過有效的溝通來尋求更多的合作點,避免由于相互猜忌導致的惡性競爭。

總體而言,國家安全風險是人工智能發展過程中各國必須直面的挑戰,在面臨共同的威脅時,最優的做法是攜手應對,通過相應的國際合作機制來降低安全威脅,增加合作空間,讓人工智能更好地服務于人類社會的發展,增進人類社會福祉。

作者

封帥, 上海國際問題研究院助理研究員,主要研究方向為人工智能和大國關系。

魯傳穎, 上海國際問題研究院副研究員,主要研究方向為網絡安全與網絡空間治理。

來源:信息安全與通信保密雜志社

熱點新聞

推薦產品

x
  • 在線反饋
1.我有以下需求:



2.詳細的需求:
姓名:
單位:
電話:
郵件:
主站蜘蛛池模板: 日本精品久久久久中文字幕 1 | 在线精品国内外视频 | 亚洲国产精品自在现线让你爽 | 亚洲 欧美 激情 另类 校园 | 99久久免费精品视频 | 99在线在线视频免费视频观看 | www.99在线| 欧美成人性性 | 色播亚洲精品网站 亚洲第一 | 亚洲高清在线观看视频 | 中文字幕一区2区 | 午夜性激福利免费观看 | 国产精品免费视频一区 | 99视频免费在线 | 亚洲欧美日韩国产精品久久 | 欧美一级日本一级韩国一级 | 亚洲日本在线观看网址 | www.日本在线视频 | 免费久久精品 | 亚洲欧美日韩视频一区 | 成人国产网站v片免费观看 成人国产午夜在线视频 | 免费久草视频 | 国产日比视频 | 日韩视频观看 | 亚洲欧美中文字幕在线网站 | 欧美一二三区在线 | 亚欧成人中文字幕一区 | 欧美日韩国产va另类 | 99久久精品国产一区二区小说 | 最新中文字幕乱码在线 | 亚洲精品高清国产一线久久97 | 国产欧美在线一区二区三区 | 女人一级一级毛片 | 久久香蕉国产线看观看亚洲片 | aaaa欧美高清免费 | 国产精品久久久天天影视香蕉 | 欧美一级毛片免费大全 | 香蕉视频一级片 | 99视频在线精品自拍 | 91香蕉国产在线观看免费永久 | 精品一区二区三区免费毛片爱 |