近日,一封由13位OpenAI和谷歌DeepMind前員工、現(xiàn)員工簽署的公開(kāi)信引起廣泛關(guān)注。這封信對(duì)高級(jí)人工智能的潛在風(fēng)險(xiǎn)以及當(dāng)前缺乏對(duì)人工智能科技公司的監(jiān)管表示擔(dān)憂(yōu)。
此外,在這封公開(kāi)信中提及了AI或許會(huì)加劇現(xiàn)有的不平等現(xiàn)象,操縱和傳播誤導(dǎo)信息,以及可能無(wú)法控制自主人工智能系統(tǒng),最終可能威脅人類(lèi)生存。
為這封公開(kāi)信署名背書(shū)的有被譽(yù)為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton)、因開(kāi)創(chuàng)性AI研究獲得圖靈獎(jiǎng)的約書(shū)亞·本吉奧(Yoshua Bengio)和AI安全領(lǐng)域的學(xué)者斯圖爾特·羅素(Stuart Russell)。
公開(kāi)信表示,人工智能技術(shù)有潛力為人類(lèi)帶來(lái)前所未有的福祉,同時(shí),這些技術(shù)會(huì)帶來(lái)嚴(yán)峻挑戰(zhàn),全球的政府和其他AI專(zhuān)家以及AI公司本身都已經(jīng)意識(shí)到了這些風(fēng)險(xiǎn)。然而,AI 公司出于財(cái)務(wù)利益的考慮,往往避免接受有效監(jiān)管,“我們認(rèn)為特別設(shè)計(jì)的企業(yè)治理模式不足以改變這一現(xiàn)狀”。
公開(kāi)信提到,AI公司掌握著大量的內(nèi)部信息,包括其系統(tǒng)的能力和局限性、保護(hù)措施的充分性,以及不同類(lèi)型傷害的風(fēng)險(xiǎn)水平。然而,目前他們與政府分享這些信息的責(zé)任較為有限,而且沒(méi)有與民間社會(huì)分享的義務(wù)。
上述公司中,現(xiàn)任和前任員工是為數(shù)不多的能夠向公眾負(fù)責(zé)的人,然而,保密條款阻礙了這種憂(yōu)慮的表達(dá)。
公開(kāi)信提到,希望領(lǐng)先的AI 企業(yè)承諾遵循一些原則,包括承諾不會(huì)簽訂或執(zhí)行任何禁止對(duì)公司的風(fēng)險(xiǎn)相關(guān)擔(dān)憂(yōu)進(jìn)行負(fù)面評(píng)價(jià)或批評(píng)的協(xié)議,也不會(huì)因員工進(jìn)行風(fēng)險(xiǎn)相關(guān)的批評(píng)而阻礙其既得經(jīng)濟(jì)利益做出報(bào)復(fù)。
聯(lián)名信希望建立一個(gè)可驗(yàn)證的匿名機(jī)制,供現(xiàn)任和前任員工使用。
OpenAI 前員工丹尼爾·科泰洛 (Daniel Kokotajlo)是此次聯(lián)名信公開(kāi)署名人員中的一位。他在社交平臺(tái)發(fā)文表示,“我們中一些最近從 OpenAI 辭職的人聚集在一起,要求實(shí)驗(yàn)室對(duì)透明度作出更廣泛的承諾。”今年 4 月,丹尼爾從 OpenAI 辭職,其中的一個(gè)原因就是對(duì)該公司在構(gòu)建通用人工智能方面是否會(huì)采取負(fù)責(zé)任的行為失去了信心。
丹尼爾提到,AI系統(tǒng)不是普通的軟件,它們是從大量數(shù)據(jù)中學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)。關(guān)于可解釋性、對(duì)齊和控制的科學(xué)文獻(xiàn)正在迅速增多,但這些領(lǐng)域仍處于起步階段。雖然OpenAI 等實(shí)驗(yàn)室正在構(gòu)建的系統(tǒng)能夠帶來(lái)巨大的好處。但如果不小心,可能會(huì)在短期內(nèi)造成不穩(wěn)定,并在長(zhǎng)期內(nèi)造成災(zāi)難性后果。
丹尼爾表示,從OpenAI離開(kāi)時(shí),曾被要求簽署一份文件,其中包含一項(xiàng)不貶損條款,禁止他發(fā)表任何批評(píng)公司的話(huà)。丹尼爾拒絕簽署,并失去既得股權(quán)。
在丹尼爾加入 OpenAI 時(shí)曾希望隨著AI功能越來(lái)越強(qiáng)大,內(nèi)部在安全研究方面投入更多資金,但 OpenAI 從未做出這一轉(zhuǎn)變。“人們意識(shí)到這一點(diǎn)后開(kāi)始辭職,我不是第一個(gè)也不是最后一個(gè)辭職的人。”丹尼爾說(shuō)。
同一時(shí)間,OpenAI前超級(jí)對(duì)齊部門(mén)成員利奧波德·阿申布倫納(Leopold Aschenbrenner)也在公開(kāi)采訪(fǎng)中透露他被開(kāi)除的真實(shí)原因。他給幾位董事會(huì)成員分享了一份OpenAI安全備忘錄,結(jié)果導(dǎo)致OpenAI管理層不滿(mǎn)。利奧波德在社交平臺(tái)表示,到 2027 年實(shí)現(xiàn) AGI 是極其有可能的,需要更嚴(yán)格的監(jiān)管和更透明的機(jī)制,確保人工智能的安全發(fā)展。
本次公開(kāi)信事件是OpenAI近期面臨的諸多危機(jī)中的一個(gè)。
在OpenAI的GPT-4o模型發(fā)布不久后,OpenAI原首席科學(xué)家伊利亞·蘇茨克維(Ilya Sutskever)正式官宣離職。不久后,OpenAI超級(jí)對(duì)齊團(tuán)隊(duì)聯(lián)合負(fù)責(zé)人楊·萊克(Jan Leike)也在推特上宣布離職。他稱(chēng)OpenAI領(lǐng)導(dǎo)層關(guān)于公司核心優(yōu)先事項(xiàng)的看法一直不合,超級(jí)對(duì)齊團(tuán)隊(duì)過(guò)去幾個(gè)月一直在逆風(fēng)航行,在提升模型安全性的道路上受到公司內(nèi)部的重重阻礙,“(OpenAI)安全文化和安全流程已經(jīng)讓位給閃亮的產(chǎn)品”。
來(lái)源:《第一財(cái)經(jīng)》