人工智能不僅帶來了產業革命,而且會引發就業危機、算法歧視、倫理風險、隱私濫用、社會失序等問題。這些都需要法治的規制與保障。其中的一個基本原則是,既要“讓子彈飛一會兒”,又要系好法治的“安全帶”。
第一,為人工智能發展創造“創新友好型”法治環境。
一個地方的創新能力往往取決于創新生態。其中,法律、政策、激勵或限制措施是影響創新成功的關鍵因素。
在創新與規制的關系中,傳統上存在一個雙重困境:一是節奏不同步。創新可以隨時隨地發生,而監管者往往會受到法律穩定性和滯后性的限制。二是信息不對稱。新技術可能挑戰現有的監管制度,而監管者對此往往缺乏研判,并在技術知識和潛在影響方面存在明顯的信息不對稱。
在這種情況下,打造一種“創新友好型”的法治環境就顯得至關重要。我們需要認識到,法律不僅承擔調節行為、解決沖突、公共治理等功能,而且負有促進社會發展、引導社會進步的重要使命。對人工智能的良法善治,應當既能充分調動社會主體的創造熱情、促進技術轉化、增進社會財富,而且要能夠充分防范和化解市場與社會風險。
這種“創新友好型”法治環境并不是“先發展,后治理”,而是要在法律規制和創新之間實現平衡,既最大效率地促進創新,又避免規制過度對創新產生“寒蟬效應”,從而讓法律成為人工智能發展河流的堤岸而不是阻礙。
第二,用底線思維創設人工智能發展的法律邊界。
人工智能時代,隱私權該如何保護?是否應該賦予機器人法律人格?機器人違法造成的損失由誰來承擔?無人駕駛汽車出了事故該如何追責?商家利用算法規則誘導消費是否公平?
無論是馬斯克提到的“我越來越傾向于認為,應該在國家和國際層面上進行監管,以確保我們不會做出非常愚蠢的事情”,還是馬云倡議“中國應該制定一部《數字經濟法》”,都說明法治對技術發展的重要引領和保障作用。
在人工智能發展的道路上,我們需要堅持“不設上限設底線”原則,即人工智能發展不容突破的人類安全和道德的剛性要求。這一點需要全社會共同來保障和監督。
第三,多元共治應成為人工智能治理的重要方式。
當今世界,新技術日新月異,人工智能產品飛速迭代。在人工智能的治理上,有必要打造“政府引導、社會協同、行業自律、企業自治”的多元主體共同參與的治理結構。
人工智能的發展規律決定了行業自律、企業自治往往能夠起到從源頭防控風險、保障產品和社會安全的重要作用。同時,人工智能的應用為企業自治提供了高效方便的技術平臺,使監管“他律”到“自律”的轉變成為可能。
霍金曾經說過:“成功創造人工智能是人類有史以來最重大的事情;然而,不幸的是,這也可能是最后一次,除非我們學會如何避免危險。”技術發達的社會,也應該是一個法治完善的社會。我們要充分利用法律的引導、規制和促進功能,將人工智能的發展納入法治軌道,從根本上保證安全性、可靠性與可控性。
摘自《解放日報》