本報訊 近日,歐盟委員會公布了嚴格監管人工智能(AI)的計劃。據《科學》報道,該委員會將起草新的法律,包括禁止人類無法解釋的“黑匣子”AI系統,以控制該技術的高風險應用,比如用于醫療設備和自動駕駛汽車。
在宣布該計劃的新聞發布會上,歐盟委員會主席Ursula von der Leyen說,盡管監管將比此前任何的歐盟規定都更廣泛、更嚴格,但其目標是促進信任,而不是恐懼。該計劃還包括更新歐盟2018年AI戰略的措施,以及在未來10年投入數10億歐元用于研發。但這并非最終定案,未來12周內,即在起草具體法律的工作正式啟動前,專家、游說團體和公眾可對該計劃發表意見。
相比美國,歐洲對待AI的態度更謹慎,歐盟官員希望通過監管贏得消費者信任,推動AI的更廣泛應用。
歐盟委員會AI獨立顧問小組成員、歐洲政策研究中心AI政策研究員Andrea Renda表示:“歐盟試圖在最擅長的領域發揮領導作用,這是一個非常堅實和全面的監管框架。”
該委員會希望針對醫療、交通或刑事司法等領域的AI“高風險”使用,制定有約束力的規則。確定風險的標準將包括以下考慮因素:某人是否會受到傷害——被一輛自動駕駛汽車或醫療設備傷害;或者一個人是否對機器決策的影響幾乎無發言權。
歐盟委員會還希望通過人工監管來阻止不可預測的AI“黑匣子”。這些規則還將用于管理訓練AI系統的大型數據集,以確保這些數據集是合法獲取的、可追溯的,并且足夠廣泛。
法律將確定誰對人工智能系統的行為負責——使用它的公司還是設計它的公司,高風險的應用程序在部署到歐盟之前必須符合這些規則。
另外,歐盟委員會計劃提供一種“值得信賴的AI”認證,以鼓勵在低風險使用中自愿遵守,而之后被發現有違規行為的認證系統可能面臨罰款。
歐盟委員會還將就面部識別系統“在歐洲展開一場廣泛的辯論”。這是一種人工智能形式,可以在人群中未經同意而識別個人。盡管德國等歐盟國家已公布了部署該系統的計劃,但官員們表示,這些系統經常違反歐盟隱私法。
該委員會還將制訂一項“行動計劃”,將AI整合到交通和醫療等公共服務中,并更新其2018年AI發展戰略,該戰略為研究投入了15億歐元。
來源:《中國科學報》