據(jù)BBC報道,人工智能(AI)幾乎已經(jīng)無所不在,我們生活的大多數(shù)方面都已經(jīng)被它們滲透,從我們決定看什么書、預(yù)定哪個航班、在網(wǎng)上買什么、工作申請是否成功、是否收到銀行貸款甚至如何治療癌癥等。
所有這些東西,現(xiàn)在都可以利用復(fù)雜的軟件系統(tǒng)自動確定。隨著AI在過去幾年取得的令人震驚的進步,它在許多方面都可能幫助我們的生活變得更美好。
在過去2年中,AI的崛起已不可阻擋。大量資金被投入到AI初創(chuàng)企業(yè)中,許多老牌科技公司(包括亞馬遜、微軟以及Facebook等巨頭)都已經(jīng)開設(shè)新的研究實驗室。可以毫不夸張地說,現(xiàn)在軟件就意味著AI。有些人預(yù)測,AI即將帶來巨變,其影響甚至超過互聯(lián)網(wǎng)。
我們已經(jīng)詢問多名技術(shù)專家,在這個快速變化的世界,充滿無數(shù)輝煌機器會對人類產(chǎn)生什么樣的影響。值得注意的是,幾乎所有人的回答都圍繞著倫理道德為中心進行。對于谷歌研究主管、機器學(xué)習(xí)先驅(qū)彼得?諾維格(Peter Norvig)來說,數(shù)據(jù)驅(qū)動的AI技術(shù)最近取得許多成功,關(guān)鍵問題是找出如何確保這些新系統(tǒng)能夠改善整個社會,而不僅僅是控制它的主體。諾維格表示:“AI已經(jīng)在許多實際任務(wù)中證明自己的價值,從標記圖片、理解語言到幫助診斷疾病等。現(xiàn)在面臨的挑戰(zhàn)是,確保每個人都能從這種技術(shù)中受益。”
最大的問題是,軟件的復(fù)雜性經(jīng)常意味著,想要精確地解釋AI系統(tǒng)為何做出那樣的決定幾乎是不可能的。今天的AI主要基于名為機器學(xué)習(xí)的成功技術(shù),但你無法揭開它的蓋子,透視其內(nèi)部工作場景。為此,我們只能選擇相信它。挑戰(zhàn)也隨之而來,那就是我們需要在許多領(lǐng)域找到新的監(jiān)控和審核方式,特別是AI正發(fā)揮重要作用的領(lǐng)域。
對于哈佛法學(xué)院互聯(lián)網(wǎng)法律教授喬納森?斯特蘭(Jonathan Zittrain)而言,這其中的一大危險就是,日益復(fù)雜的計算機系統(tǒng)可能阻止自己受到必要的審查。他說:“在技術(shù)幫助下,我們的系統(tǒng)變得越來越復(fù)雜,我很擔(dān)心人類的自主性被減少。如果我們設(shè)置了系統(tǒng),然后將其忘諸腦后,系統(tǒng)的自我演變帶來的后果可能讓我們后悔莫及。對此,目前還沒有明確的道德層面上的考慮。”
這也是其他技術(shù)專家擔(dān)憂的地方。美國杜克大學(xué)下屬人類與自主實驗室主任米塞?卡明斯(Missy Cummings)質(zhì)疑道:“我們怎樣才能證明這些系統(tǒng)是安全的?”卡明斯曾是美國海軍首位女戰(zhàn)斗機飛行員,如今是無人機專家。
AI的確需要監(jiān)管,但現(xiàn)在我們還不清楚如何對其進行監(jiān)管。卡明斯說:“目前,我們還沒有被普遍接受的方法,也沒有測試這些系統(tǒng)的行業(yè)標準。對于這些技術(shù)來說,實施廣泛的監(jiān)管非常困難。”在快速變化的世界中,監(jiān)管機構(gòu)常常發(fā)現(xiàn)自己也對此束手無策。在許多關(guān)鍵領(lǐng)域,比如刑事司法系統(tǒng)和醫(yī)療領(lǐng)域,許多公司已經(jīng)使用AI探索做出假釋決定或疾病診斷的嘗試。但是將決定權(quán)交給機器,我們可能會失去控制權(quán),誰能保證機器在每個案例中都能做出正確決定?
微軟研究院首席研究員丹娜?博伊德(Danah Boyd)說,有關(guān)價值觀的許多嚴重問題正被寫入這些AI系統(tǒng)中,最終誰將為此負責(zé)?博伊德稱:“監(jiān)管機構(gòu)、民間社會以及社會理論學(xué)家們?nèi)找婵释吹竭@些技術(shù)能保持公正和道德,但這些概念都很模糊。”
一個充滿道德問題的領(lǐng)域就是職場。AI將幫助機器人從事更復(fù)雜的工作,并導(dǎo)致更多人類工人被取代。舉例來說,中國富士康公司計劃利用機器人取代6萬名工人。福特在德國科隆的工廠也投入機器人,與人類工人協(xié)調(diào)工作。
更重要的是,如果越來越多的自動化已經(jīng)對就業(yè)造成巨大影響,這也會對人們的心理健康產(chǎn)生負面影響。生物倫理學(xué)家、奧巴馬總統(tǒng)前醫(yī)療顧問伊齊基爾?伊曼紐爾(Ezekiel Emanuel)表示:“如果你思考下能讓人們的生活變得有意義的東西,你會發(fā)現(xiàn)三件事:有意義的人際關(guān)系、強烈的興趣以及有意義的工作。其中有意義的工作是定義某人生活的重要因素。在有些地區(qū),當工廠關(guān)門時失去工作,可能導(dǎo)致自殺、藥物濫用以及抑郁癥危險的增加。”
結(jié)果,我們可能需要看到更多的倫理需求。麻省理工學(xué)院專供法律和道德的專家凱特?達靈(Kate Darling)認為:“公司正遵循市場激勵機制,這不是壞事,但我們不能僅僅依賴于倫理道德來控制它。它有助于監(jiān)管到位,我們已經(jīng)在隱私以及新技術(shù)領(lǐng)域看到它的存在,我們需要找出應(yīng)對的方法。”
達靈指出,許多大牌公司(比如谷歌)已經(jīng)成立道德委員會,來監(jiān)督AI的開發(fā)和部署。有人認為,這種機制應(yīng)該被廣泛采用。達靈說:“我們不想扼殺創(chuàng)新,但到達某種程度時,我們可能想要創(chuàng)造某種結(jié)構(gòu)。”
到底誰能入選谷歌道德委員會以及它到底能做什么,這些細節(jié)還所知甚少。但在2016年9月份,F(xiàn)acebook、谷歌以及亞馬遜成立了聯(lián)合組織,目標是尋找應(yīng)對AI帶來的安全與隱私威脅的解決方案。OpenAI也是類似的組織,旨在開發(fā)和推廣能夠讓所有人受益的開源AI。谷歌的諾維格說:“機器學(xué)習(xí)技術(shù)被公開研究,并通過開放出版物和開源代碼傳播非常重要,我們可以分享所有獎勵。”
如果我們能夠制定行業(yè)標準和道德標準,并全面了解AI存在的風(fēng)險,然后建立以倫理學(xué)家、技術(shù)專家以及企業(yè)領(lǐng)導(dǎo)人為核心的監(jiān)管機制非常重要。這是利用AI為人類謀福利的最佳方式。斯特蘭說:“我們的工作是減少人們對科幻電影中機器人接管世界的擔(dān)憂,更多關(guān)注技術(shù)如何能夠被用于幫助人類思考和決策,而非完全取代它。”
摘自 機器人網(wǎng)