美國普林斯頓大學(xué)的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學(xué)的杰弗里·辛頓(Geoffrey E。 Hinton)美國普林斯頓大學(xué)的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學(xué)的杰弗里·辛頓(Geoffrey E。 Hinton)
當?shù)貢r間10月8日,瑞典皇家科學(xué)院宣布,將2024年諾貝爾物理學(xué)獎授予美國普林斯頓大學(xué)的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學(xué)的杰弗里·辛頓(Geoffrey E。 Hinton),以表彰他們“為推動利用人工神經(jīng)網(wǎng)絡(luò)進行機器學(xué)習(xí)作出的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”。獲獎?wù)邔⒐蚕?100萬瑞典克朗(約合745萬元人民幣)獎金。
諾貝爾獎評獎委員會表示:“今年物理學(xué)獎得主取得的突破建立在物理科學(xué)的基礎(chǔ)上。他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來幫助和指導(dǎo)我們,應(yīng)對社會面臨的許多挑戰(zhàn)?!?/p>
從20世紀80年代開始,兩位獲獎?wù)呔驮谌斯ど窠?jīng)網(wǎng)絡(luò)方面開展了重要工作。其中,霍普菲爾德是一名物理學(xué)家,提出了日后被稱為“霍普菲爾德網(wǎng)絡(luò)”的一種新的神經(jīng)網(wǎng)絡(luò)模型,振奮了該領(lǐng)域的研究。
另一邊,辛頓的名聲或許更加響亮一些。他是卷積神經(jīng)網(wǎng)絡(luò)理論的領(lǐng)軍人物,也被視為由ChatGPT掀起的本輪AI技術(shù)躍進背后的奠基性科學(xué)家,被譽為“AI教父”。
辛頓出生于1947年,經(jīng)歷了復(fù)雜的求學(xué)經(jīng)歷,隨后開始潛心研究神經(jīng)網(wǎng)絡(luò)。他與其他兩位作者一同在1986年發(fā)表了一篇題為《通過反向傳播誤差來學(xué)習(xí)》(Learning representations by back-propagating errors)的論文。在這篇奠定了深度學(xué)習(xí)理論核心的論文中,三位科學(xué)家將反向傳播算法應(yīng)用于多層神經(jīng)網(wǎng)絡(luò),并且證明了這種方法對機器學(xué)習(xí)行之有效。
隨后,辛頓在卡內(nèi)基梅隆大學(xué)任教五年,后來成為加拿大高等研究院的研究員,并進入多倫多大學(xué)計算機科學(xué)系任教。辛頓在2013年加入谷歌。因其在深度學(xué)習(xí)方面的貢獻,他與約書亞·本希奧和楊立昆被一同稱為“深度學(xué)習(xí)三巨頭”,三人在2018年被授予了圖靈獎。
2023年5月,辛頓從谷歌離職。自那以后,他持續(xù)公開呼吁謹慎對待AI技術(shù),成為旨在引導(dǎo)AI系統(tǒng)、使其行為符合設(shè)計者利益和預(yù)期目標的“AI對齊派”的代表。目前,辛頓是英國皇家學(xué)會會士,也是美國國家工程學(xué)院和美國藝術(shù)與科學(xué)學(xué)院的外籍會員。
在數(shù)十年的研究生涯中,辛頓可以稱得上是“桃李滿天下”。例如,在去年年末那場受到全球矚目的OpenAI“政變風(fēng)云”中,被猜測發(fā)現(xiàn)“超級智能”突破、試圖解雇公司CEO的OpenAI前首席科學(xué)家伊爾亞·蘇茨克韋(Ilya Sutskever)正是辛頓最得意的弟子之一。
今年5月,蘇茨克韋從OpenAI離職,并在一個月后宣布成立新公司SSI(Safe Superintelligence Inc,安全超級智能),表示新公司將致力于追求安全超級智能。
而在辛頓這邊,自從離開谷歌后,他也在一向旗幟鮮明地宣揚“AI威脅論”。在去年離職后不久,辛頓便在X(原推特)平臺上發(fā)文表示,他離開谷歌就是為了可以“公開地談?wù)揂I的危險”。
隨后,辛頓在一場采訪中直言,他開始對自己一生從事的工作感到有些后悔:“我用平常的借口來安慰自己:就算我沒做,別人也會做的。。。。。。很難想象,你能如何阻止壞人利用它(AI)來做壞事?!?/p>
今年3月,辛頓在接受外媒采訪時又一次詳細闡述了自己的觀點。他表示,自己在2023年4月與作為上司的谷歌首席科學(xué)家杰夫·迪恩(Jeff Dean)展開過討論,稱AI有可能帶來事關(guān)人類生存的危機;迪恩希望能挽留他留在谷歌研究AI的安全對策,但為了不受公司利益限制,辛頓還是選擇了離開。
辛頓認為,AI的危險之處在于,其真的有可能采用對人類有害的手段來實現(xiàn)被設(shè)定的目標,并且AI之間還可能會在未來出現(xiàn)競爭關(guān)系:“面對通過競爭變得更聰明的AI,我們?nèi)祟悓浜蟆:芏嗳酥鲝?,要防止AI失控,只要關(guān)掉電源開關(guān)即可。但超越人類智慧的AI可以用語言操縱我們,或許會試圖說服我們不要關(guān)掉開關(guān)?!?/p>
在采訪中,辛頓還表達了對學(xué)生蘇茨克韋的支持,稱從OpenAI的“政變”大戲中可以看出,比起安全性,組織往往會更重視AI創(chuàng)造的利益。
來源:《澎湃新聞》