10月8日,由科技部、教育部、工業(yè)和信息化部等十部門聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》正式公布。
《辦法》明確, 高等學(xué)校、科研機(jī)構(gòu)、醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等是本單位科技倫理審查管理的責(zé)任主體。從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)。值得注意的是,該《辦法》提及的《需要開(kāi)展倫理審查復(fù)核的科技活動(dòng)清單》中,包括具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)。
相關(guān)數(shù)據(jù)顯示,今年以來(lái),我國(guó)人工智能大模型迎來(lái)井噴期。截至7月底,我國(guó)累計(jì)有130個(gè)人工智能大模型問(wèn)世,其中,僅今年前7個(gè)月就有64個(gè)大模型發(fā)布。不久前,首批通過(guò)《生成式人工智能服務(wù)管理暫行辦法》備案的11個(gè)大模型產(chǎn)品獲批向全社會(huì)開(kāi)放服務(wù)。與此同時(shí),對(duì)于算法模型倫理風(fēng)險(xiǎn)的關(guān)注也提上日程。人工智能算法模型的倫理風(fēng)險(xiǎn)表現(xiàn)在哪些方面?《辦法》的出臺(tái),為國(guó)內(nèi)人工智能大模型的發(fā)展提出了什么樣的要求?
推動(dòng)算法模型
健康穩(wěn)定可控有序發(fā)展
中國(guó)科學(xué)院科技戰(zhàn)略咨詢研究院研究員肖尤丹在接受記者采訪時(shí)表示,科技倫理審查是防范科技風(fēng)險(xiǎn)的重要機(jī)制,更是有力保障特定技術(shù)領(lǐng)域健康發(fā)展的基礎(chǔ)性制度??萍紓惱韺彶榧炔皇怯尚姓C(jī)關(guān)實(shí)施的行政審查或者審批,也不是一般意義上的合法性或合規(guī)性審查,而是以特定責(zé)任單位、科技倫理(審查)委員會(huì)為主體,根據(jù)《科技進(jìn)步法》和《辦法》的規(guī)定開(kāi)展的專業(yè)性、自律性管理活動(dòng)。在一定程度上,科技倫理審查是應(yīng)對(duì)前沿科技活動(dòng)的風(fēng)險(xiǎn)彈性與法律制度、行政管理的剛性約束長(zhǎng)期存在的沖突,彌補(bǔ)現(xiàn)有行政管理和法律規(guī)制局限性的產(chǎn)物。
北京市京師律師事務(wù)所合伙人律師盧鼎亮認(rèn)為,《辦法》主要是要求對(duì)涉及到生命健康、生態(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等科技倫理敏感領(lǐng)域的人工智能算法模型科技活動(dòng)進(jìn)行科學(xué)倫理審查。人工智能算法的發(fā)展也要遵循科學(xué)倫理的要求,對(duì)涉及到科學(xué)倫理底線的相關(guān)科技活動(dòng)需要進(jìn)行客觀評(píng)估和審慎對(duì)待,并且針對(duì)人工智能大模型科技活動(dòng)中的不確定性和科技倫理風(fēng)險(xiǎn)進(jìn)行審查評(píng)估。
“《辦法》的出臺(tái)并非為人工智能算法模型的發(fā)展戴上‘緊箍咒’,相反該《辦法》的出臺(tái)能夠促進(jìn)人工智能算法領(lǐng)域的科技活動(dòng)更加健康穩(wěn)定可控有序的發(fā)展。”盧鼎亮說(shuō)。
“對(duì)于新興技術(shù)和前沿科技領(lǐng)域發(fā)展而言,《辦法》的出臺(tái)更多地是為促進(jìn)創(chuàng)新主體勇于探索未知和前沿提供了邊界更為清晰、預(yù)期更為穩(wěn)定的機(jī)制保障。”肖尤丹表示。
肖尤丹認(rèn)為,《辦法》的出臺(tái)必將有利于在科技倫理框架下加快包括人工智能大模型等前沿新興技術(shù)的健康發(fā)展,也能在相關(guān)程度上促進(jìn)相關(guān)領(lǐng)域開(kāi)展更全面、更深入和更持續(xù)的國(guó)際科技合作,形成更公正、更透明、更負(fù)責(zé)任的前沿技術(shù)創(chuàng)新生態(tài)。
倫理審查從哪些方面進(jìn)行
業(yè)界認(rèn)為,從當(dāng)前社會(huì)輿論的普遍認(rèn)知來(lái)看,人工智能算法模型的倫理風(fēng)險(xiǎn)主要表現(xiàn)在以下幾個(gè)方面:一是數(shù)據(jù)偏見(jiàn)與歧視。如果AI的訓(xùn)練數(shù)據(jù)不平衡或包含偏見(jiàn),那么這種偏見(jiàn)可能會(huì)被模型放大,導(dǎo)致輸出結(jié)果也存在偏見(jiàn)。這可能會(huì)對(duì)某些群體造成不公平的待遇或歧視。二是隱私侵犯。AI模型在數(shù)據(jù)采集、處理和分析過(guò)程中可能會(huì)侵犯到個(gè)人的隱私權(quán)。比如,沒(méi)有得到明確許可的情況下進(jìn)行的數(shù)據(jù)收集,或者使用數(shù)據(jù)進(jìn)行精準(zhǔn)的個(gè)人畫(huà)像等。三是缺乏透明度。復(fù)雜的AI模型(例如深度學(xué)習(xí)模型)往往難以解釋,缺乏透明度,使得外部很難理解它們的決策過(guò)程和邏輯。四是責(zé)任歸屬不明確。當(dāng)AI模型犯錯(cuò)或?qū)е履承p失時(shí),誰(shuí)應(yīng)該為此承擔(dān)責(zé)任可能并不明確。五是安全性問(wèn)題:AI模型可能被惡意攻擊者操縱或欺騙,從而做出不當(dāng)或不安全的決策。此外,在某些應(yīng)用中,例如自動(dòng)化武器或決策系統(tǒng),使用AI可能會(huì)觸及深層的道德和倫理問(wèn)題。過(guò)度依賴或與AI互動(dòng)可能會(huì)影響人們的社交技能、心理健康或日常生活習(xí)慣等。
肖尤丹認(rèn)為,根據(jù)《辦法》的規(guī)定,結(jié)合人工智能算法模型科技活動(dòng)的倫理風(fēng)險(xiǎn),科技倫理審查可能需要重點(diǎn)考慮兩個(gè)方面:一是準(zhǔn)確區(qū)分科技倫理審查與現(xiàn)有安全評(píng)估、算法備案、合規(guī)審查和行業(yè)監(jiān)督機(jī)制的差別。二是根據(jù)所涉科技活動(dòng)的類型和性質(zhì)合理確定倫理審查重點(diǎn)。
科技倫理審查適用范圍
肖尤丹分析,此次出臺(tái)的《辦法》第二條明確了科技倫理審查的適用范圍,應(yīng)當(dāng)不能簡(jiǎn)單地將科技倫理審查等同于安全審查或者安全評(píng)估。另外,《辦法》第五十四條還專門對(duì)科技倫理審查與之前已經(jīng)存在的一些涉及技術(shù)的其他性質(zhì)倫理審查規(guī)范之間的適用進(jìn)行了規(guī)定,強(qiáng)化了科技倫理審查的專門性。
“從倫理風(fēng)險(xiǎn)生成機(jī)制和場(chǎng)景看,科學(xué)技術(shù)研究活動(dòng)與產(chǎn)品服務(wù)開(kāi)發(fā)活動(dòng)、技術(shù)應(yīng)用活動(dòng)的倫理風(fēng)險(xiǎn)和審查關(guān)注點(diǎn)顯然并不相同?!毙び鹊け硎荆谘芯窟^(guò)程中,應(yīng)當(dāng)更加關(guān)注研究人員資質(zhì)、研究基礎(chǔ)及設(shè)施條件是否符合相關(guān)要求,研究活動(dòng)的科學(xué)價(jià)值、社會(huì)價(jià)值和研究目標(biāo)的積極作用,關(guān)注涉及以人為研究參與者時(shí)的個(gè)人信息保護(hù)和知情同意,數(shù)據(jù)的收集、存儲(chǔ)、加工、使用等處理活動(dòng)以及研究開(kāi)發(fā)數(shù)據(jù)新技術(shù)等符合國(guó)家數(shù)據(jù)安全和個(gè)人信息保護(hù)等有關(guān)規(guī)定。在產(chǎn)品服務(wù)開(kāi)發(fā)和技術(shù)應(yīng)用方面,應(yīng)當(dāng)更關(guān)注算法、模型和系統(tǒng)的設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用的公平、公正、透明、可靠、可控,以及數(shù)據(jù)合規(guī)、安全合規(guī)和用戶權(quán)益保護(hù)。
“作為本單位科技倫理審查管理的責(zé)任主體,人工智能企業(yè)應(yīng)該評(píng)估擬開(kāi)展的科技活動(dòng)是否符合《辦法》第三條規(guī)定的科技倫理原則,參與科技活動(dòng)的科技人員資質(zhì)、研究基礎(chǔ)及設(shè)施條件等是否符合相關(guān)要求;倫理風(fēng)險(xiǎn)控制方案及應(yīng)急預(yù)案是否科學(xué)恰當(dāng)、是否具有可操作性?!北R鼎亮認(rèn)為,此外,還應(yīng)該評(píng)估個(gè)人隱私數(shù)據(jù)、生物特征信息等信息處理是否符合個(gè)人信息保護(hù)的有關(guān)規(guī)定;數(shù)據(jù)的收集、存儲(chǔ)、加工、使用等處理活動(dòng)以及研究開(kāi)發(fā)數(shù)據(jù)新技術(shù)等是否符合國(guó)家數(shù)據(jù)安全和個(gè)人信息保護(hù)等有關(guān)規(guī)定,數(shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測(cè)及應(yīng)急處理方案是否得當(dāng);算法、模型和系統(tǒng)的設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等是否遵守公平、公正、透明、可靠、可控等原則。
中關(guān)村物聯(lián)網(wǎng)產(chǎn)業(yè)聯(lián)盟副秘書(shū)長(zhǎng)、專精特新企業(yè)高質(zhì)量發(fā)展促進(jìn)工程執(zhí)行主任袁帥認(rèn)為,與傳統(tǒng)科技活動(dòng)的風(fēng)險(xiǎn)相比,人工智能算法模型的風(fēng)險(xiǎn)具有更高的隱蔽性和難以證明性。由于人工智能算法模型的決策是基于歷史數(shù)據(jù)和模式,而這些數(shù)據(jù)和模式可能存在偏見(jiàn)和歧視等問(wèn)題,因此其帶來(lái)的風(fēng)險(xiǎn)可能會(huì)在長(zhǎng)時(shí)間過(guò)程中逐漸顯現(xiàn)?!耙虼?,需要政府、企業(yè)、學(xué)術(shù)界和社會(huì)公眾等多方協(xié)作,共同應(yīng)對(duì)這一挑戰(zhàn)?!痹瑤浾f(shuō)。
來(lái)源:《中國(guó)高新技術(shù)產(chǎn)業(yè)導(dǎo)報(bào)》