“人工智能很單純,復(fù)雜的是人”——在探討人工智能(AI)的公平性時(shí),香港科技大學(xué)講席教授、微眾銀行首席AI官楊強(qiáng)巧妙地化用了一句流行歌詞。他認(rèn)為,AI技術(shù)發(fā)展中出現(xiàn)的諸多公平性問(wèn)題,其實(shí)映射了人類(lèi)社會(huì)中本已存在的歧視和偏見(jiàn)。
在未來(lái)論壇近日發(fā)起的“AI向善的理論與實(shí)踐”論壇上,多位業(yè)內(nèi)專(zhuān)家圍繞“AI公平”這個(gè)話題開(kāi)展了深入討論。
AI跟誰(shuí)學(xué)到了“偏心”?
與人類(lèi)社會(huì)相似,在AI的世界里,偏見(jiàn)與不公隨處可見(jiàn)。
2014年,亞馬遜公司啟動(dòng)了一個(gè)通過(guò)AI技術(shù)開(kāi)展自動(dòng)化招聘的項(xiàng)目。這個(gè)項(xiàng)目完全基于求職者簡(jiǎn)歷提供的信息,通過(guò)AI算法進(jìn)行評(píng)級(jí)。然而,第二年亞馬遜便意識(shí)到這個(gè)機(jī)器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當(dāng)一份簡(jiǎn)歷中出現(xiàn)“women”等字眼時(shí),在打分上就會(huì)吃虧。
亞馬遜分析,這是因?yàn)樗麄兪褂昧诉^(guò)去10年的歷史數(shù)據(jù)來(lái)訓(xùn)練這個(gè)AI模型,而歷史數(shù)據(jù)中包含對(duì)女性的偏見(jiàn)。之后,亞馬遜便不再用這個(gè)算法來(lái)進(jìn)行招聘。
“AI的公平性問(wèn)題,本質(zhì)上并非來(lái)源于技術(shù)本身,而是來(lái)自人心,也就是說(shuō),其本源是社會(huì)的公平性。”中科院計(jì)算技術(shù)研究所研究員、中科視拓(北京)聯(lián)合創(chuàng)始人山世光說(shuō)。
他解釋道,AI技術(shù)從算法和系統(tǒng)的設(shè)計(jì),走向社會(huì)的應(yīng)用實(shí)踐,這個(gè)過(guò)程涉及方方面面的人,在很多環(huán)節(jié),都有可能有意或無(wú)意地引入歧視和偏見(jiàn)。“以大家最熟悉的‘健康碼’為例,這個(gè)產(chǎn)品在為防疫作出重大貢獻(xiàn)的同時(shí),也因?yàn)榻o老年出行帶來(lái)困難等現(xiàn)象,引起了很多爭(zhēng)議。這就是目標(biāo)人群設(shè)定不夠周全,而引入了潛在的歧視風(fēng)險(xiǎn)。”他說(shuō)。
除了不同人群間的公平問(wèn)題,AI公平還涉及到開(kāi)發(fā)者和使用者(通常是企業(yè)和用戶(hù))之間的不平等問(wèn)題。
清華大學(xué)法學(xué)院院長(zhǎng)申衛(wèi)星補(bǔ)充了一個(gè)生活中非常常見(jiàn)的案例。大量App在使用時(shí)會(huì)出現(xiàn)一個(gè)“知情同意”的選項(xiàng),這個(gè)知情同意書(shū)往往少則上千字,多則上萬(wàn)字,大量的信息讓消費(fèi)者無(wú)力長(zhǎng)時(shí)間閱讀,只好選擇同意,否則只能退出。
“過(guò)去我們對(duì)知情同意格式條款的主要要求是‘告知要充分’。但現(xiàn)在更常見(jiàn)的問(wèn)題反而是‘告知過(guò)量’,或者叫信息超載。”申衛(wèi)星說(shuō),“過(guò)度冗余的格式條款,其實(shí)恰恰剝奪了消費(fèi)者的自我決定權(quán)。這是一種非常隱蔽的不公平。”
“雙刃劍”的正確打開(kāi)方式
AI技術(shù)與社會(huì)公平的關(guān)系,比想象中更為復(fù)雜。
搜狗公司CEO王小川指出:“總體來(lái)講,AI技術(shù)的高度發(fā)展對(duì)公平性的提升是有利的。首先在技術(shù)的加持下,教育、醫(yī)療等重大領(lǐng)域在資源供給的數(shù)量和質(zhì)量上都會(huì)有極大提升,供給側(cè)的繁榮有助于緩解社會(huì)資源分配不均;其次,隨著大數(shù)據(jù)的連接,人們有機(jī)會(huì)在全局層面上提煉主要矛盾,探討公平問(wèn)題,進(jìn)而達(dá)成社會(huì)共識(shí)。”
但這也是一柄“雙刃劍”。“互聯(lián)網(wǎng)發(fā)展、信息發(fā)展和AI發(fā)展為公平性提供了更好的抓手,但也會(huì)帶來(lái)更多新的挑戰(zhàn)。”王小川說(shuō),“其中一個(gè)比較敏感的問(wèn)題是,在機(jī)器判斷越來(lái)越準(zhǔn)確之后,公平定義的矛盾將更加突出。比如在金融貸款、商業(yè)保險(xiǎn)等領(lǐng)域,如果對(duì)用戶(hù)進(jìn)行個(gè)人畫(huà)像并作出判斷后,拒絕向該用戶(hù)提供服務(wù),如此是否公平?此外,隨著AI技術(shù)進(jìn)步帶來(lái)的資源極大繁榮,很容易產(chǎn)生‘馬太效應(yīng)’,導(dǎo)致資源集中在金字塔尖上,拉大社會(huì)差距。這是人類(lèi)歷史上不斷出現(xiàn)的問(wèn)題,值得警惕。”
對(duì)此,山世光強(qiáng)調(diào):“作為AI從業(yè)者、開(kāi)發(fā)者、運(yùn)營(yíng)者的我們,一定要意識(shí)到,我們所開(kāi)發(fā)的AI既可能被用來(lái)促進(jìn)社會(huì)公平和消除歧視,也有可能被濫用,甚至助紂為虐。”
那么,人類(lèi)應(yīng)該如何揮舞這柄“雙刃劍”,讓它向善而不作惡呢?山世光說(shuō):“問(wèn)題的最終解決不僅僅依賴(lài)技術(shù)的進(jìn)步,更依賴(lài)于技術(shù)專(zhuān)家和社會(huì)學(xué)家兩個(gè)群體的順暢溝通,深度對(duì)話。”
為了更公平的AI而奮斗
論壇上,專(zhuān)家們介紹了產(chǎn)業(yè)界、學(xué)術(shù)界、法律界等在AI公平性上作出的種種努力。
“人們開(kāi)發(fā)了許多工具,包括分析數(shù)據(jù)集形態(tài)和質(zhì)量的工具,能讓開(kāi)發(fā)者、工程師清楚看到他們用于訓(xùn)練的數(shù)據(jù)的特征分布,比如性別、年齡等,至少要滿(mǎn)足統(tǒng)計(jì)學(xué)意義上的合理分布,從而減少潛在的偏見(jiàn);還有分析算法模型的工具,可以對(duì)模型的公平性進(jìn)行評(píng)估,并作出相應(yīng)糾偏和優(yōu)化;此外還有幫助開(kāi)發(fā)者對(duì)決定模型輸出的關(guān)鍵數(shù)據(jù)特征進(jìn)行探索的工具以及公平性約束條件下的算法訓(xùn)練工具等。”華為公司AI治理首席專(zhuān)家段小琴說(shuō)。
“AI公平性的一個(gè)重要方向是數(shù)據(jù)的可獲得性和可使用性。”楊強(qiáng)說(shuō),他在論壇講座中強(qiáng)調(diào)了“聯(lián)邦學(xué)習(xí)”在抵抗數(shù)據(jù)“馬太效應(yīng)”、促進(jìn)AI公平性方面的作用。“我們研究聯(lián)邦學(xué)習(xí),一個(gè)更大的目標(biāo)是實(shí)現(xiàn)‘?dāng)?shù)據(jù)可用不可見(jiàn)’,其特征是隱私保護(hù)、權(quán)益保障、缺陷保障以及確權(quán),而確權(quán)和權(quán)益保障需要通過(guò)經(jīng)濟(jì)學(xué)來(lái)完成。”
申衛(wèi)星則指出:“在這個(gè)問(wèn)題上,企業(yè)和技術(shù)的自律,要與以法律為代表的‘他律’相結(jié)合,未來(lái)相關(guān)領(lǐng)域的立法應(yīng)該是三駕馬車(chē)——技術(shù)、法律和倫理并駕齊驅(qū),技術(shù)是根本、法律是保障、倫理是社會(huì)基礎(chǔ)。”
他進(jìn)一步補(bǔ)充道:“就AI技術(shù)立法問(wèn)題而言,法律既要解決形式上的公平、機(jī)會(huì)上的公平和程序上的公平,還要實(shí)現(xiàn)形式公平和實(shí)質(zhì)公平的統(tǒng)一。個(gè)人建議,應(yīng)在時(shí)機(jī)成熟的時(shí)候推出綜合立法。在這個(gè)過(guò)程中,既要考慮對(duì)個(gè)人數(shù)據(jù)的保護(hù),也要考慮保護(hù)和創(chuàng)新之間如何形成平衡。”
來(lái)源:《中國(guó)科學(xué)報(bào)》