国产欧美日韩精品a在线观看-国产欧美日韩精品一区二区三区-国产欧美日韩精品综合-国产欧美中文字幕-一区二区三区精品国产-一区二区三区精品国产欧美

ACS880-07C
關注中國自動化產業發展的先行者!
CAIAC 2025
2024
工業智能邊緣計算2024年會
2023年工業安全大會
OICT公益講堂
當前位置:首頁 >> 資訊 >> 行業資訊

資訊頻道

推動科技向善 算法模型迎倫理審查
  • 點擊數:685     發布時間:2023-11-21 22:54:39
  • 分享到:
北京市京師律師事務所合伙人律師盧鼎亮認為,《辦法》主要是要求對涉及到生命健康、生態環境、公共秩序、可持續發展等科技倫理敏感領域的人工智能算法模型科技活動進行科學倫理審查。人工智能算法的發展也要遵循科學倫理的要求,對涉及到科學倫理底線的相關科技活動需要進行客觀評估和審慎對待,并且針對人工智能大模型科技活動中的不確定性和科技倫理風險進行審查評估。

10月8日,由科技部、教育部、工業和信息化部等十部門聯合印發的《科技倫理審查辦法(試行)》正式公布。

《辦法》明確, 高等學校、科研機構、醫療衛生機構、企業等是本單位科技倫理審查管理的責任主體。從事生命科學、醫學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。值得注意的是,該《辦法》提及的《需要開展倫理審查復核的科技活動清單》中,包括具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發。

相關數據顯示,今年以來,我國人工智能大模型迎來井噴期。截至7月底,我國累計有130個人工智能大模型問世,其中,僅今年前7個月就有64個大模型發布。不久前,首批通過《生成式人工智能服務管理暫行辦法》備案的11個大模型產品獲批向全社會開放服務。與此同時,對于算法模型倫理風險的關注也提上日程。人工智能算法模型的倫理風險表現在哪些方面?《辦法》的出臺,為國內人工智能大模型的發展提出了什么樣的要求?

推動算法模型

健康穩定可控有序發展

中國科學院科技戰略咨詢研究院研究員肖尤丹在接受記者采訪時表示,科技倫理審查是防范科技風險的重要機制,更是有力保障特定技術領域健康發展的基礎性制度。科技倫理審查既不是由行政機關實施的行政審查或者審批,也不是一般意義上的合法性或合規性審查,而是以特定責任單位、科技倫理(審查)委員會為主體,根據《科技進步法》和《辦法》的規定開展的專業性、自律性管理活動。在一定程度上,科技倫理審查是應對前沿科技活動的風險彈性與法律制度、行政管理的剛性約束長期存在的沖突,彌補現有行政管理和法律規制局限性的產物。

北京市京師律師事務所合伙人律師盧鼎亮認為,《辦法》主要是要求對涉及到生命健康、生態環境、公共秩序、可持續發展等科技倫理敏感領域的人工智能算法模型科技活動進行科學倫理審查。人工智能算法的發展也要遵循科學倫理的要求,對涉及到科學倫理底線的相關科技活動需要進行客觀評估和審慎對待,并且針對人工智能大模型科技活動中的不確定性和科技倫理風險進行審查評估。

“《辦法》的出臺并非為人工智能算法模型的發展戴上‘緊箍咒’,相反該《辦法》的出臺能夠促進人工智能算法領域的科技活動更加健康穩定可控有序的發展。”盧鼎亮說。

“對于新興技術和前沿科技領域發展而言,《辦法》的出臺更多地是為促進創新主體勇于探索未知和前沿提供了邊界更為清晰、預期更為穩定的機制保障。”肖尤丹表示。

肖尤丹認為,《辦法》的出臺必將有利于在科技倫理框架下加快包括人工智能大模型等前沿新興技術的健康發展,也能在相關程度上促進相關領域開展更全面、更深入和更持續的國際科技合作,形成更公正、更透明、更負責任的前沿技術創新生態。

倫理審查從哪些方面進行

業界認為,從當前社會輿論的普遍認知來看,人工智能算法模型的倫理風險主要表現在以下幾個方面:一是數據偏見與歧視。如果AI的訓練數據不平衡或包含偏見,那么這種偏見可能會被模型放大,導致輸出結果也存在偏見。這可能會對某些群體造成不公平的待遇或歧視。二是隱私侵犯。AI模型在數據采集、處理和分析過程中可能會侵犯到個人的隱私權。比如,沒有得到明確許可的情況下進行的數據收集,或者使用數據進行精準的個人畫像等。三是缺乏透明度。復雜的AI模型(例如深度學習模型)往往難以解釋,缺乏透明度,使得外部很難理解它們的決策過程和邏輯。四是責任歸屬不明確。當AI模型犯錯或導致某些損失時,誰應該為此承擔責任可能并不明確。五是安全性問題:AI模型可能被惡意攻擊者操縱或欺騙,從而做出不當或不安全的決策。此外,在某些應用中,例如自動化武器或決策系統,使用AI可能會觸及深層的道德和倫理問題。過度依賴或與AI互動可能會影響人們的社交技能、心理健康或日常生活習慣等。

肖尤丹認為,根據《辦法》的規定,結合人工智能算法模型科技活動的倫理風險,科技倫理審查可能需要重點考慮兩個方面:一是準確區分科技倫理審查與現有安全評估、算法備案、合規審查和行業監督機制的差別。二是根據所涉科技活動的類型和性質合理確定倫理審查重點。

科技倫理審查適用范圍

肖尤丹分析,此次出臺的《辦法》第二條明確了科技倫理審查的適用范圍,應當不能簡單地將科技倫理審查等同于安全審查或者安全評估。另外,《辦法》第五十四條還專門對科技倫理審查與之前已經存在的一些涉及技術的其他性質倫理審查規范之間的適用進行了規定,強化了科技倫理審查的專門性。

“從倫理風險生成機制和場景看,科學技術研究活動與產品服務開發活動、技術應用活動的倫理風險和審查關注點顯然并不相同。”肖尤丹表示,在研究過程中,應當更加關注研究人員資質、研究基礎及設施條件是否符合相關要求,研究活動的科學價值、社會價值和研究目標的積極作用,關注涉及以人為研究參與者時的個人信息保護和知情同意,數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等符合國家數據安全和個人信息保護等有關規定。在產品服務開發和技術應用方面,應當更關注算法、模型和系統的設計、實現、應用的公平、公正、透明、可靠、可控,以及數據合規、安全合規和用戶權益保護。

“作為本單位科技倫理審查管理的責任主體,人工智能企業應該評估擬開展的科技活動是否符合《辦法》第三條規定的科技倫理原則,參與科技活動的科技人員資質、研究基礎及設施條件等是否符合相關要求;倫理風險控制方案及應急預案是否科學恰當、是否具有可操作性。”盧鼎亮認為,此外,還應該評估個人隱私數據、生物特征信息等信息處理是否符合個人信息保護的有關規定;數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等是否符合國家數據安全和個人信息保護等有關規定,數據安全風險監測及應急處理方案是否得當;算法、模型和系統的設計、實現、應用等是否遵守公平、公正、透明、可靠、可控等原則。

中關村物聯網產業聯盟副秘書長、專精特新企業高質量發展促進工程執行主任袁帥認為,與傳統科技活動的風險相比,人工智能算法模型的風險具有更高的隱蔽性和難以證明性。由于人工智能算法模型的決策是基于歷史數據和模式,而這些數據和模式可能存在偏見和歧視等問題,因此其帶來的風險可能會在長時間過程中逐漸顯現。“因此,需要政府、企業、學術界和社會公眾等多方協作,共同應對這一挑戰。”袁帥說。

來源:《中國高新技術產業導報》

熱點新聞

推薦產品

x
  • 在線反饋
1.我有以下需求:



2.詳細的需求:
姓名:
單位:
電話:
郵件:
主站蜘蛛池模板: 中国成人在线视频 | 99精品视频在线免费观看 | 国产17部性孕妇孕交在线 | 免费看a级毛片 | 欧美日韩高清性色生活片 | 在线播放免费一级毛片欧美 | 国产中文字幕在线免费观看 | 一区二区三区影视 | 日韩欧美二区 | 日韩一区精品 | a毛片免费播放全部完整 | 成人高清无遮挡免费视频软件 | 全部aⅴ极品视觉盛宴精品 全部免费a级毛片 | 亚洲午夜精品一级在线 | 国产aⅴ精品一区二区三区久久 | 久久怡红院国产精品 | 欧美另类孕交 | 最新中文字幕一区二区乱码 | 精品在线观看一区 | 国产成人亚洲综合一区 | 一级做a免费视频观看网站 一级做a爰 | 美国美女一级毛片免费全 | 亚洲精品在线免费观看视频 | 亚洲日本在线观看 | 亚洲高清在线视频 | 新版天堂中文资源官网 | 久久国产99 | 亚洲欧美中文在线观看4 | 丁香伊人五月综合激激激 | 日韩一区国产二区欧美三 | 91精品国产高清久久久久久io | 免费观看a黄一级视频 | 国产精品yjizz视频网一二区 | 亚洲国产另类久久久精品小说 | 亚洲人欧洲日韩 | 高清日本无a区 | 国产美女毛片 | a级高清| 日本三级特黄 | 欧美一级二级片 | 国产精品高清久久久久久久 |