日前,歐盟委員會(huì)發(fā)布人工智能倫理準(zhǔn)則,宣布同時(shí)開啟該準(zhǔn)則的試行階段,并邀請(qǐng)企業(yè)和研究機(jī)構(gòu)對(duì)這一準(zhǔn)則進(jìn)行測(cè)試。人工智能發(fā)展的數(shù)十年間,經(jīng)歷了多次起伏。今天,人們對(duì)深度學(xué)習(xí)、大數(shù)據(jù)、通用人工智能帶來的成果期許有加。
“但仍然需要有人察覺這些技術(shù)中黑暗的一面。”4月20日,在中國社會(huì)科學(xué)院科學(xué)技術(shù)和社會(huì)研究中心舉辦的人工智能的社會(huì)、倫理與未來研究研討會(huì)上,美國技術(shù)哲學(xué)家卡爾·米切姆引用莎士比亞劇作《威尼斯商人》中的一句話——閃光之物,未必是金,以提醒人們發(fā)展人工智能技術(shù)時(shí)可能面對(duì)的倫理挑戰(zhàn)。
值得慶幸的是,人工智能研究者已經(jīng)開始與人文領(lǐng)域深度融合。
“2018年開始,我們就在中國科學(xué)院大學(xué)面向人工智能和計(jì)算機(jī)科學(xué)的研究生開設(shè)了《人工智能哲學(xué)與倫理》課程。據(jù)我了解,今年北京大學(xué)、浙江大學(xué)、西安交通大學(xué)等高校也逐步開始設(shè)置人工智能倫理相關(guān)的課程。”中國科學(xué)院自動(dòng)化研究所研究員曾毅在報(bào)告時(shí)指出。
曾毅還指出,迄今為止,由政府、非政府組織及研究機(jī)構(gòu)和產(chǎn)業(yè)界頒布的人工智能倫理準(zhǔn)則提案已經(jīng)超過40個(gè)。
但不同的準(zhǔn)則涉及的議題視角各不相同。曾毅告訴《中國科學(xué)報(bào)》,其研究團(tuán)隊(duì)對(duì)這些提案進(jìn)行過梳理,但“沒有任何一個(gè)提案可以覆蓋其他提案超過65%的議題”。
曾毅團(tuán)隊(duì)主要從事類腦人工智能研究。他認(rèn)為,從人工智能研究長(zhǎng)遠(yuǎn)發(fā)展來看,對(duì)人工智能風(fēng)險(xiǎn)、安全與倫理的思考急需算法化、模型化落地,從而確保人工智能向有益社會(huì)的方向發(fā)展。
“技術(shù)發(fā)展會(huì)對(duì)倫理準(zhǔn)則提出新的要求。由于文化、地域、領(lǐng)域的差異,‘大一統(tǒng)’的準(zhǔn)則提案不但很難做到,而且沒有必要。因此,不同國家、組織之間倫理準(zhǔn)則如何協(xié)同很重要。”曾毅說,“這些準(zhǔn)則如何進(jìn)行技術(shù)落地、經(jīng)受社會(huì)檢驗(yàn),再不斷迭代完善,是未來要面臨的更有意義的問題。”
在當(dāng)前對(duì)人工智能倫理的討論中,還有一些問題亟待解決。
曾毅在報(bào)告中提到,“由于設(shè)計(jì)缺陷,現(xiàn)階段的很多人工智能模型,更關(guān)心如何獲得最大的計(jì)算獎(jiǎng)勵(lì),但忽略了對(duì)環(huán)境和社會(huì)造成的潛在隱患。”
以強(qiáng)化學(xué)習(xí)模型為例,模型中會(huì)設(shè)計(jì)一個(gè)獎(jiǎng)勵(lì)函數(shù),以幫助模型在與環(huán)境交互過程中通過獲得盡可能多的獎(jiǎng)賞進(jìn)行學(xué)習(xí),但如果獎(jiǎng)勵(lì)函數(shù)設(shè)置不合理,為了完成任務(wù),很可能會(huì)忽略對(duì)周圍環(huán)境和其他智能體的影響,并產(chǎn)生不可逆的后果。
“目前絕大多數(shù)的人工智能沒有自我的核心,不能區(qū)分自我和他人。而人類的經(jīng)驗(yàn)、對(duì)外部事物的揣測(cè),建立在自我經(jīng)驗(yàn)的基礎(chǔ)之上。”曾毅告訴記者。對(duì)自我的計(jì)算建模也是當(dāng)前人工智能領(lǐng)域一個(gè)關(guān)鍵問題,“具有一定程度自我感知能力的人工智能模型從本質(zhì)上更利于自主學(xué)習(xí)、理解人類的價(jià)值觀”。
摘自《中國科學(xué)報(bào)》