“人工智能很單純,復雜的是人”——在探討人工智能(AI)的公平性時,香港科技大學講席教授、微眾銀行首席AI官楊強巧妙地化用了一句流行歌詞。他認為,AI技術發(fā)展中出現的諸多公平性問題,其實映射了人類社會中本已存在的歧視和偏見。
在未來論壇近日發(fā)起的“AI向善的理論與實踐”論壇上,多位業(yè)內專家圍繞“AI公平”這個話題開展了深入討論。
AI跟誰學到了“偏心”?
與人類社會相似,在AI的世界里,偏見與不公隨處可見。
2014年,亞馬遜公司啟動了一個通過AI技術開展自動化招聘的項目。這個項目完全基于求職者簡歷提供的信息,通過AI算法進行評級。然而,第二年亞馬遜便意識到這個機器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當一份簡歷中出現“women”等字眼時,在打分上就會吃虧。
亞馬遜分析,這是因為他們使用了過去10年的歷史數據來訓練這個AI模型,而歷史數據中包含對女性的偏見。之后,亞馬遜便不再用這個算法來進行招聘。
“AI的公平性問題,本質上并非來源于技術本身,而是來自人心,也就是說,其本源是社會的公平性?!敝锌圃河嬎慵夹g研究所研究員、中科視拓(北京)聯合創(chuàng)始人山世光說。
他解釋道,AI技術從算法和系統的設計,走向社會的應用實踐,這個過程涉及方方面面的人,在很多環(huán)節(jié),都有可能有意或無意地引入歧視和偏見?!耙源蠹易钍煜さ摹】荡a’為例,這個產品在為防疫作出重大貢獻的同時,也因為給老年出行帶來困難等現象,引起了很多爭議。這就是目標人群設定不夠周全,而引入了潛在的歧視風險?!彼f。
除了不同人群間的公平問題,AI公平還涉及到開發(fā)者和使用者(通常是企業(yè)和用戶)之間的不平等問題。
清華大學法學院院長申衛(wèi)星補充了一個生活中非常常見的案例。大量App在使用時會出現一個“知情同意”的選項,這個知情同意書往往少則上千字,多則上萬字,大量的信息讓消費者無力長時間閱讀,只好選擇同意,否則只能退出。
“過去我們對知情同意格式條款的主要要求是‘告知要充分’。但現在更常見的問題反而是‘告知過量’,或者叫信息超載?!鄙晷l(wèi)星說,“過度冗余的格式條款,其實恰恰剝奪了消費者的自我決定權。這是一種非常隱蔽的不公平。”
“雙刃劍”的正確打開方式
AI技術與社會公平的關系,比想象中更為復雜。
搜狗公司CEO王小川指出:“總體來講,AI技術的高度發(fā)展對公平性的提升是有利的。首先在技術的加持下,教育、醫(yī)療等重大領域在資源供給的數量和質量上都會有極大提升,供給側的繁榮有助于緩解社會資源分配不均;其次,隨著大數據的連接,人們有機會在全局層面上提煉主要矛盾,探討公平問題,進而達成社會共識?!?/p>
但這也是一柄“雙刃劍”?!盎ヂ摼W發(fā)展、信息發(fā)展和AI發(fā)展為公平性提供了更好的抓手,但也會帶來更多新的挑戰(zhàn)?!蓖跣〈ㄕf,“其中一個比較敏感的問題是,在機器判斷越來越準確之后,公平定義的矛盾將更加突出。比如在金融貸款、商業(yè)保險等領域,如果對用戶進行個人畫像并作出判斷后,拒絕向該用戶提供服務,如此是否公平?此外,隨著AI技術進步帶來的資源極大繁榮,很容易產生‘馬太效應’,導致資源集中在金字塔尖上,拉大社會差距。這是人類歷史上不斷出現的問題,值得警惕?!?/p>
對此,山世光強調:“作為AI從業(yè)者、開發(fā)者、運營者的我們,一定要意識到,我們所開發(fā)的AI既可能被用來促進社會公平和消除歧視,也有可能被濫用,甚至助紂為虐。”
那么,人類應該如何揮舞這柄“雙刃劍”,讓它向善而不作惡呢?山世光說:“問題的最終解決不僅僅依賴技術的進步,更依賴于技術專家和社會學家兩個群體的順暢溝通,深度對話。”
為了更公平的AI而奮斗
論壇上,專家們介紹了產業(yè)界、學術界、法律界等在AI公平性上作出的種種努力。
“人們開發(fā)了許多工具,包括分析數據集形態(tài)和質量的工具,能讓開發(fā)者、工程師清楚看到他們用于訓練的數據的特征分布,比如性別、年齡等,至少要滿足統計學意義上的合理分布,從而減少潛在的偏見;還有分析算法模型的工具,可以對模型的公平性進行評估,并作出相應糾偏和優(yōu)化;此外還有幫助開發(fā)者對決定模型輸出的關鍵數據特征進行探索的工具以及公平性約束條件下的算法訓練工具等。”華為公司AI治理首席專家段小琴說。
“AI公平性的一個重要方向是數據的可獲得性和可使用性。”楊強說,他在論壇講座中強調了“聯邦學習”在抵抗數據“馬太效應”、促進AI公平性方面的作用?!拔覀冄芯柯摪顚W習,一個更大的目標是實現‘數據可用不可見’,其特征是隱私保護、權益保障、缺陷保障以及確權,而確權和權益保障需要通過經濟學來完成?!?/p>
申衛(wèi)星則指出:“在這個問題上,企業(yè)和技術的自律,要與以法律為代表的‘他律’相結合,未來相關領域的立法應該是三駕馬車——技術、法律和倫理并駕齊驅,技術是根本、法律是保障、倫理是社會基礎。”
他進一步補充道:“就AI技術立法問題而言,法律既要解決形式上的公平、機會上的公平和程序上的公平,還要實現形式公平和實質公平的統一。個人建議,應在時機成熟的時候推出綜合立法。在這個過程中,既要考慮對個人數據的保護,也要考慮保護和創(chuàng)新之間如何形成平衡。”
來源:《中國科學報》