日前,歐盟委員會發布人工智能倫理準則,宣布同時開啟該準則的試行階段,并邀請企業和研究機構對這一準則進行測試。人工智能發展的數十年間,經歷了多次起伏。今天,人們對深度學習、大數據、通用人工智能帶來的成果期許有加。
“但仍然需要有人察覺這些技術中黑暗的一面。”4月20日,在中國社會科學院科學技術和社會研究中心舉辦的人工智能的社會、倫理與未來研究研討會上,美國技術哲學家卡爾·米切姆引用莎士比亞劇作《威尼斯商人》中的一句話——閃光之物,未必是金,以提醒人們發展人工智能技術時可能面對的倫理挑戰。
值得慶幸的是,人工智能研究者已經開始與人文領域深度融合。
“2018年開始,我們就在中國科學院大學面向人工智能和計算機科學的研究生開設了《人工智能哲學與倫理》課程。據我了解,今年北京大學、浙江大學、西安交通大學等高校也逐步開始設置人工智能倫理相關的課程。”中國科學院自動化研究所研究員曾毅在報告時指出。
曾毅還指出,迄今為止,由政府、非政府組織及研究機構和產業界頒布的人工智能倫理準則提案已經超過40個。
但不同的準則涉及的議題視角各不相同。曾毅告訴《中國科學報》,其研究團隊對這些提案進行過梳理,但“沒有任何一個提案可以覆蓋其他提案超過65%的議題”。
曾毅團隊主要從事類腦人工智能研究。他認為,從人工智能研究長遠發展來看,對人工智能風險、安全與倫理的思考急需算法化、模型化落地,從而確保人工智能向有益社會的方向發展。
“技術發展會對倫理準則提出新的要求。由于文化、地域、領域的差異,‘大一統’的準則提案不但很難做到,而且沒有必要。因此,不同國家、組織之間倫理準則如何協同很重要。”曾毅說,“這些準則如何進行技術落地、經受社會檢驗,再不斷迭代完善,是未來要面臨的更有意義的問題。”
在當前對人工智能倫理的討論中,還有一些問題亟待解決。
曾毅在報告中提到,“由于設計缺陷,現階段的很多人工智能模型,更關心如何獲得最大的計算獎勵,但忽略了對環境和社會造成的潛在隱患。”
以強化學習模型為例,模型中會設計一個獎勵函數,以幫助模型在與環境交互過程中通過獲得盡可能多的獎賞進行學習,但如果獎勵函數設置不合理,為了完成任務,很可能會忽略對周圍環境和其他智能體的影響,并產生不可逆的后果。
“目前絕大多數的人工智能沒有自我的核心,不能區分自我和他人。而人類的經驗、對外部事物的揣測,建立在自我經驗的基礎之上。”曾毅告訴記者。對自我的計算建模也是當前人工智能領域一個關鍵問題,“具有一定程度自我感知能力的人工智能模型從本質上更利于自主學習、理解人類的價值觀”。
摘自《中國科學報》