本報訊 近日,歐盟委員會公布了嚴格監(jiān)管人工智能(AI)的計劃。據(jù)《科學》報道,該委員會將起草新的法律,包括禁止人類無法解釋的“黑匣子”AI系統(tǒng),以控制該技術(shù)的高風險應用,比如用于醫(yī)療設備和自動駕駛汽車。
在宣布該計劃的新聞發(fā)布會上,歐盟委員會主席Ursula von der Leyen說,盡管監(jiān)管將比此前任何的歐盟規(guī)定都更廣泛、更嚴格,但其目標是促進信任,而不是恐懼。該計劃還包括更新歐盟2018年AI戰(zhàn)略的措施,以及在未來10年投入數(shù)10億歐元用于研發(fā)。但這并非最終定案,未來12周內(nèi),即在起草具體法律的工作正式啟動前,專家、游說團體和公眾可對該計劃發(fā)表意見。
相比美國,歐洲對待AI的態(tài)度更謹慎,歐盟官員希望通過監(jiān)管贏得消費者信任,推動AI的更廣泛應用。
歐盟委員會AI獨立顧問小組成員、歐洲政策研究中心AI政策研究員Andrea Renda表示:“歐盟試圖在最擅長的領(lǐng)域發(fā)揮領(lǐng)導作用,這是一個非常堅實和全面的監(jiān)管框架。”
該委員會希望針對醫(yī)療、交通或刑事司法等領(lǐng)域的AI“高風險”使用,制定有約束力的規(guī)則。確定風險的標準將包括以下考慮因素:某人是否會受到傷害——被一輛自動駕駛汽車或醫(yī)療設備傷害;或者一個人是否對機器決策的影響幾乎無發(fā)言權(quán)。
歐盟委員會還希望通過人工監(jiān)管來阻止不可預測的AI“黑匣子”。這些規(guī)則還將用于管理訓練AI系統(tǒng)的大型數(shù)據(jù)集,以確保這些數(shù)據(jù)集是合法獲取的、可追溯的,并且足夠廣泛。
法律將確定誰對人工智能系統(tǒng)的行為負責——使用它的公司還是設計它的公司,高風險的應用程序在部署到歐盟之前必須符合這些規(guī)則。
另外,歐盟委員會計劃提供一種“值得信賴的AI”認證,以鼓勵在低風險使用中自愿遵守,而之后被發(fā)現(xiàn)有違規(guī)行為的認證系統(tǒng)可能面臨罰款。
歐盟委員會還將就面部識別系統(tǒng)“在歐洲展開一場廣泛的辯論”。這是一種人工智能形式,可以在人群中未經(jīng)同意而識別個人。盡管德國等歐盟國家已公布了部署該系統(tǒng)的計劃,但官員們表示,這些系統(tǒng)經(jīng)常違反歐盟隱私法。
該委員會還將制訂一項“行動計劃”,將AI整合到交通和醫(yī)療等公共服務中,并更新其2018年AI發(fā)展戰(zhàn)略,該戰(zhàn)略為研究投入了15億歐元。
來源:《中國科學報》