国产欧美日韩精品a在线观看-国产欧美日韩精品一区二区三区-国产欧美日韩精品综合-国产欧美中文字幕-一区二区三区精品国产-一区二区三区精品国产欧美

ACS880-07C
關(guān)注中國自動化產(chǎn)業(yè)發(fā)展的先行者!
CAIAC 2025
2024
工業(yè)智能邊緣計算2024年會
2023年工業(yè)安全大會
OICT公益講堂
當(dāng)前位置:首頁 >> 資訊 >> 行業(yè)資訊

資訊頻道

院士談 | 張鈸院士:從大語言模型到通用人工智能
  • 點(diǎn)擊數(shù):935     發(fā)布時間:2024-03-12 15:23:27
  • 分享到:
2024年1月16日,中國科學(xué)院院士、清華大學(xué)人工智能研究院院長、清華大學(xué)計算機(jī)系教授張鈸在“智譜AI”2024年度技術(shù)開放日上,帶來了《從大語言模型到通用人工智能》的主題分享。

如何從大語言模型走向通用人工智能,這條路線可能帶來哪些影響?


2024年1月16日,中國科學(xué)院院士、清華大學(xué)人工智能研究院院長、清華大學(xué)計算機(jī)系教授張鈸在“智譜AI”2024年度技術(shù)開放日上,帶來了《從大語言模型到通用人工智能》的主題分享。


怎么來理解現(xiàn)在爆火的生成式的模型?


張鈸院士表示,必須從生成式大模型具有的四個特征來分析它,這四個特征是“三大一缺點(diǎn)”。


就是強(qiáng)大的生成能力,強(qiáng)大的遷移或者推廣能力以及強(qiáng)大的交互能力,最后一個大缺點(diǎn),幻覺。


具體來說:


1.強(qiáng)大的生成能力:指的是語言模型能夠在開放領(lǐng)域生成多樣化、連貫且類似人類的文本。這種能力超出了人們的預(yù)期,被認(rèn)為是模型達(dá)到一定規(guī)模后出現(xiàn)的“涌現(xiàn)”現(xiàn)象。


2.強(qiáng)大的遷移能力:模型能夠在給定少量樣本的情況下,將知識遷移到不同領(lǐng)域,完成新的任務(wù)。這種能力同樣在模型規(guī)模達(dá)到一定程度后才會出現(xiàn)。


3.強(qiáng)大的交互能力:模型能夠與人類進(jìn)行自然語言對話,這在過去是難以實現(xiàn)的。這種對話不受領(lǐng)域限制,使得人機(jī)交互更加流暢。


4.幻覺:這是模型的一個主要缺點(diǎn),指的是模型可能會生成看似合理但實際上并不真實或有意義的輸出。


張鈸院士解釋了大語言模型如何通過三個關(guān)鍵技術(shù)實現(xiàn)這些能力:


·  巨大的人工神經(jīng)網(wǎng)絡(luò):使用深度和寬度都非常大的網(wǎng)絡(luò)結(jié)構(gòu),如GPT-3和GPT-4 Turbo,這些網(wǎng)絡(luò)能夠處理大量的文本數(shù)據(jù)。


·  巨大的訓(xùn)練文本:使用大量的人類知識文本進(jìn)行訓(xùn)練,這些文本數(shù)據(jù)量達(dá)到了數(shù)十TB。


·  Next token prediction:通過自監(jiān)督學(xué)習(xí)的方法,模型能夠預(yù)測下一個詞,從而生成連貫的文本。


通過這些技術(shù),模型構(gòu)建了一個連續(xù)的語義向量空間,使得輸入的文本序列能夠轉(zhuǎn)換為向量,并在該空間中進(jìn)行處理,最終生成輸出文本。


當(dāng)然,想要實現(xiàn)高質(zhì)量的文本生成和人機(jī)對話,離不開預(yù)訓(xùn)練、推理和對齊。


這是向通用人工智能邁出的第一步,取得了兩個重大突破:


·  能夠生成人類水平的文本,"說人話"。


·  實現(xiàn)了人機(jī)自然語言流暢對話。在ChatGPT中,我們可以用純自然語言與機(jī)器對話,這在過去是難以實現(xiàn)的,而且這種對話不受領(lǐng)域限制。


這兩個突破將推動人工智能技術(shù)獲得進(jìn)一步發(fā)展。


邁向通用人工智能第二步工作,就是在GPT-4的基礎(chǔ)上構(gòu)造一個智能體,使其能夠與數(shù)字世界交互。


為此必須實現(xiàn)兩點(diǎn):一是使其具有多模態(tài)處理能力,把感知能力加入進(jìn)來。通過多模態(tài)生成,可以完成感知能力的補(bǔ)充,完成閉環(huán)。


二是增加其交互能力。過去第一步走的時候,主要用了語言模型跟人類交互的能力,而大模型還可以與環(huán)境尤其是數(shù)字環(huán)境進(jìn)行交互。通過這兩點(diǎn)的組合,可以實現(xiàn)第二步目標(biāo)。也就是說機(jī)器可以與外部工具和環(huán)境結(jié)合,發(fā)揮問題求解能力。


它不僅可以回答問題,還可以幫助解決問題,解釋和執(zhí)行復(fù)雜指令,制定計劃來達(dá)成預(yù)定目標(biāo)。與數(shù)字環(huán)境結(jié)合后,它可以通過反饋學(xué)習(xí),判斷自己的行動正確或錯誤。


第三步發(fā)展非常重要,目前GPT-4最多只能與數(shù)字世界交互,通用人工智能最終必須使其能與物理世界交互。這就缺少了一個關(guān)鍵環(huán)節(jié)——機(jī)器人。要與世界溝通和采取行動,就需要機(jī)器人。因此,“具身智能”(Embodied AI)的提出很關(guān)鍵,它可以構(gòu)建一個完整的智能體,既有感知能力,又有像人類一樣的思考和行動能力。這將形成一個完整的智能體。


如果實現(xiàn)了這一步,就可能構(gòu)建出一個擁有感知、思考和行動能力的通用人工智能體,實現(xiàn)從專用走向通用的突破。


這個大模型發(fā)展下去,對我們產(chǎn)業(yè),對我們職業(yè)會產(chǎn)生什么影響?


張鈸院士認(rèn)為,大語言模型的發(fā)展必將對產(chǎn)業(yè)和職業(yè)產(chǎn)生深遠(yuǎn)影響。


一方面,它將提升效率和質(zhì)量,對多數(shù)行業(yè)起到互補(bǔ)作用;另一方面,也會替代部分工作。但大語言模型本身存在的缺陷決定了它不可能完全取代人類。總體來看,大語言模型與人類還是互補(bǔ)的關(guān)系。而人工智能這樣發(fā)展下去,最主要的一定會推動經(jīng)濟(jì)的發(fā)展。


為把握機(jī)遇,張鈸院士呼吁要緊密結(jié)合科研、技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展,開發(fā)通用的人工智能軟硬件,推動產(chǎn)業(yè)進(jìn)步。盡管道路艱難,但大語言模型已經(jīng)為通用人工智能開辟出一條道路,其影響還會持續(xù)顯現(xiàn)。


以下為張鈸院士演講內(nèi)容(內(nèi)容有調(diào)整)

大家好,這個會議主要圍繞大模型,我想所有的聽眾呢,都是沖著大模型來的,因此我今天就講大模型的內(nèi)容。


講三個問題。


一個我們?nèi)绾螐倪@個大語言模型走向通用人工智能,這條路應(yīng)該怎么走,我們會走到什么地方?


第二個,這個大模型發(fā)展下去,對我們產(chǎn)業(yè),對我們職業(yè)會產(chǎn)生什么影響?


最后,講一點(diǎn)有關(guān)人工智能產(chǎn)業(yè)的一點(diǎn)思考。


大家知道,我們?nèi)斯ど窠?jīng)網(wǎng)絡(luò)是1947年開始的,當(dāng)時主要作為鑒別器(分類)使用,也想把它作為生成器來生成,結(jié)果遇到很大的困難。


這個問題到2014年干出來以后,才得到一定的解決,特別是2017年Transformer轉(zhuǎn)換器提出來以后,就像打開這個閘門,生成式的人工智能迅猛地發(fā)展。


我們?yōu)槭裁匆闵墒降娜斯ぶ悄埽蠹页3R肦ichard Feynman 說的一句話,“如果我們不能創(chuàng)造它,我們就不可能理解它。” (What I cannot create,I do not understanding.)


所以我們通過生成式的人工智能,就是要打開理解這個世界的大門。


我們怎么來理解生成式的模型?我們必須從生成式大模型具有的四個特征來分析它,這四個特征是“三大一缺點(diǎn)”。“三大”什么大呢?


就是強(qiáng)大的生成能力,強(qiáng)大的遷移或者推廣能力以及強(qiáng)大的交互能力,最后一個大缺點(diǎn),幻覺。我想從這個三點(diǎn)出發(fā),我們才能夠真正地認(rèn)識大模型。


所謂的強(qiáng)大的生成能力,我們現(xiàn)在先說語言模型,就是強(qiáng)大的語言生成能力。這個強(qiáng)大主要體現(xiàn)在它能夠在開領(lǐng)域生成多樣性連貫的類似人類的文本。也就是說,它能夠在開放的范圍內(nèi),流暢地產(chǎn)生出多樣化且邏輯自洽的語言表達(dá)。


這一點(diǎn)是大大出乎大家意料之外的,大模型沒有達(dá)到一定的程度,不可能出現(xiàn)這個現(xiàn)象,我們目前還把這個現(xiàn)象說成是涌現(xiàn)。


第二個是遷移能力,就是只要給它少量樣本,它就能將知識遷移到不同的領(lǐng)域,這也大大出乎了人們的意料。為什么只給它幾個樣本,它就能完成新的任務(wù)呢?這種能力也只有在模型達(dá)到一定規(guī)模后才會出現(xiàn)。


我們想一想,利用這兩種能力發(fā)展出來的ChatGPT,它是通過預(yù)訓(xùn)練、推理和對齊這三個步驟實現(xiàn)的。那么它是如何做到這一點(diǎn)的呢?


主要是三個原因。


第一個原因,我們用了一個巨大的人工神經(jīng)網(wǎng)絡(luò)來完成這個任務(wù)。這個巨大的神經(jīng)網(wǎng)絡(luò),我們把它叫做轉(zhuǎn)換器。這個巨大大到什么程度呢?


四個檔。一個非常之深,深度達(dá)到了96層。第二個非常之寬,GPT-3 寬度達(dá)到了2048個tokens。現(xiàn)在GPT-4 Turbo,達(dá)到128000個tokens。換句話講,300多頁的文本可以同時輸入,這是它的寬度。


GPT3.5 的規(guī)模達(dá)到了1750億個參數(shù),它的硬件需要285000個CPU,1萬個GPU來完成,這是我們利用的一個技術(shù),巨大的神經(jīng)網(wǎng)絡(luò)。


第二個技術(shù)就是巨大的訓(xùn)練文本,我這里特別講的用Text不用數(shù)據(jù),美國人最早用的是用巨大的數(shù)據(jù),現(xiàn)在美國人也改口了,把它說成是巨大的文本數(shù)據(jù),Text Data。


請大家注意,我這里講的text肯定不是指這個數(shù)據(jù),因為text大量描述的是人類的知識,那么用得多少呢?這個大家知道了,現(xiàn)在已經(jīng)達(dá)到了45TB,Google已經(jīng)達(dá)到50TB是吧。


第三個使用的是Next token prediction,自監(jiān)督學(xué)習(xí)。


靠這三項技術(shù),我們做到了剛才講的三大能力。怎么做到的?


實際上,它構(gòu)造了一個連續(xù)向量的語義空間,這個連續(xù)向量的語義空間怎么構(gòu)造呢?就是用了LLM加上AI alignment來構(gòu)造,這樣就使得我們用一串的10串的輸入,變成token,最后變成向量,在連續(xù)向量空間進(jìn)行處理,又輸出了一大堆詞串。


正是借助這三項技術(shù),我們實現(xiàn)了前面提到的三大語言生成能力。


具體來說,是通過LLM(大語言模型)結(jié)合AI alignment構(gòu)造了一個連續(xù)的語義向量空間。這樣就使得我們用1串,10串的輸入變成token,最后變成向量,在連續(xù)向量空間進(jìn)行處理,又輸出了一大堆詞串。


如果大家了解LLM(大語言模型),就會知道它通過預(yù)訓(xùn)練生成了K和V,這是它的記憶單元。然后在推理階段,我們將問題Q輸入模型,Q與K、V進(jìn)行計算,輸出對下一個詞的預(yù)測。這就是LLM的整個工作流程。這種過程完全改變了我們處理語言的方式,使機(jī)器能夠像人類一樣進(jìn)行思考。


當(dāng)然,還需要最后一步對齊技術(shù)。經(jīng)過對齊后,可以大幅降低錯誤率。因為LLM本身只能生成類人語言,不能保證正確性。只有通過對齊,才能確保生成內(nèi)容的正確性。


這是我們邁出的第一步,取得了兩個重大突破:


·  能夠生成人類水平的文本,"說人話"。


·  實現(xiàn)了人機(jī)自然語言流暢對話。在ChatGPT中,我們可以用純自然語言與機(jī)器對話,這在過去是難以實現(xiàn)的,而且這種對話不受領(lǐng)域限制。


以前我們一點(diǎn)也做不到這兩點(diǎn),現(xiàn)在不僅可以在開放領(lǐng)域做到,而且對話不受專業(yè)領(lǐng)域限制。這兩個突破非常重大,將推動人工智能技術(shù)獲得進(jìn)一步發(fā)展。


舉一個簡單的例子,讓ChatGPT以一個小學(xué)生的身份寫一篇關(guān)于會飛的房子的文章。


我們可以看到,它表現(xiàn)出了很強(qiáng)的想象力,能想象房子長出翅膀來,飛到云端,降落在各種地方,看到的也都是童話世界,面包長在樹上等等。這完全是人類水準(zhǔn)的文本生成。這一點(diǎn)實際上表明,人工智能向著通用人工智能邁進(jìn)了一步。


以前的人工智能都受限于三個“特定”:特定領(lǐng)域、特定算法、完成特定任務(wù)。人工智能只能在限定的領(lǐng)域內(nèi)工作,受限于特定算法,并完成特定的預(yù)設(shè)任務(wù)。這三個特定都使其受限于某一應(yīng)用領(lǐng)域。


而生成式模型完全改變了這種模式。我們使用通用的轉(zhuǎn)換器(Transformer)模型,在開放領(lǐng)域內(nèi)生成各種任務(wù),完成多種任務(wù),不受領(lǐng)域限制。這表明人工智能正在向第三代人工智能發(fā)展,也證明了行為主義道路是可行的。


我們目前正在進(jìn)行的第二步工作,就是在GPT-4的基礎(chǔ)上構(gòu)造一個智能體,使其能夠與數(shù)字世界交互。


為此我們必須實現(xiàn)兩點(diǎn),一件事就是要使得它能夠接受多模態(tài),就是要把感知這部分加進(jìn)去,這就是我們現(xiàn)在說的這個多模態(tài)生成。通過多模態(tài)的生成,我們可以解決了感知的問題,才能夠把這個環(huán)給閉起來。


我們知道,美國研發(fā)的CLIP模型實現(xiàn)了圖像和文本的對比學(xué)習(xí)。大語言模型解決了文本的語義處理,如果把圖像和文本關(guān)聯(lián)起來,機(jī)器也能處理圖像內(nèi)容。CLIP已經(jīng)展示了非常好的效果,無論是在圖像分割還是識別上,都實現(xiàn)了重大突破。


過去機(jī)器只能對圖像進(jìn)行分類,停留在感覺層面,而很難實現(xiàn)真正的感知。有了大語言模型把圖像和文本關(guān)聯(lián)后,這一問題得到很好的解決,機(jī)器現(xiàn)在可以真正識別物體。


然后我們還要增加交互能力。我們過去第一步走的時候,我們主要用了語言模型跟人類交互的能力,而大模型還可以與環(huán)境尤其是數(shù)字環(huán)境進(jìn)行交互。通過這兩點(diǎn)的組合,我們可以實現(xiàn)第二步目標(biāo)。也就是說機(jī)器可以與外部工具和環(huán)境結(jié)合,發(fā)揮問題求解能力。


它不僅可以回答問題,還可以幫助解決問題,解釋和執(zhí)行復(fù)雜指令,制定計劃來達(dá)成預(yù)定目標(biāo)。與數(shù)字環(huán)境結(jié)合后,它可以通過反饋學(xué)習(xí),判斷自己的行動正確或錯誤。這是ChatGPT等第一代模型無法做到的。我們期望GPT-4可以達(dá)到這個目標(biāo),類似ReAct和CogVLM也在朝這個方向發(fā)展,不僅可以推理,還可以采取行動。


這里舉出了例子,說明僅具備推理能力或僅具備行動能力都無法完全解決問題,必須推理和行動能力的結(jié)合。


比如對于較復(fù)雜的推理問題,GPT-4可以很好地處理。我讓GPT-4計算一個腦筋急轉(zhuǎn)彎的題目:我有10只碗,為開派對向張家借5只、向李家借5只,派對后我把碗還給他們,那么我手里還剩多少碗?GPT-4起初誤解為0只,后來“仔細(xì)想了想”,推理出我還剩10只自己的碗。這類復(fù)雜推理只有GPT-4能完成。針對復(fù)雜問題求解如雞兔同籠題,它也能很好解決。


第三步發(fā)展非常重要,目前GPT-4最多只能與數(shù)字世界交互,我們最終必須使其能與物理世界交互。這就缺少了一個關(guān)鍵環(huán)節(jié)——機(jī)器人。要與世界溝通和采取行動,就需要機(jī)器人。因此,“具身智能”(Embodied AI)的提出很關(guān)鍵,它可以構(gòu)建一個完整的智能體,既有感知能力,又有像人類一樣的思考和行動能力。這將形成一個完整的智能體。如果實現(xiàn)這一步,其結(jié)果將是難以想象的。因此,現(xiàn)在就必須把機(jī)器人技術(shù)配合上來。


那么大家看到了美國人就做人形機(jī)器人,我覺得不一定要做人形,因為很多地方使用的,就是手就可以了,或者腳就可以了。不一定把硬件搞得非常復(fù)雜,所以我的主張就是說,你有一定的硬件作為它的基礎(chǔ),我們進(jìn)行研究,我們要研究什么問題?研究強(qiáng)化學(xué)習(xí),這是今后人工智能的方向,而且這個強(qiáng)化學(xué)習(xí)如果再進(jìn)步,我們過去所有的機(jī)器,做的都是外部驅(qū)動的,我們?nèi)绻軌蜃叩絻?nèi)部驅(qū)動,那就是能夠非常接近人類智能。


接下來是人工智能發(fā)展下去,會產(chǎn)生什么影響?


這個我引用這個高盛的全球投資的一張圖,這張圖告訴我們說,人工智能這樣發(fā)展下去,最主要的一定會推動經(jīng)濟(jì)的發(fā)展。


高盛的分析顯示,人工智能每年可帶來1.3%的全球經(jīng)濟(jì)增長,發(fā)達(dá)國家可能達(dá)到1.5%,中國大約0.9%。這些數(shù)字可能不夠準(zhǔn)確,但人工智能促進(jìn)經(jīng)濟(jì)發(fā)展的趨勢是確定的。因此,中國要發(fā)展經(jīng)濟(jì),就必須推動人工智能技術(shù)發(fā)展。


第二句話,看它究竟對我們產(chǎn)業(yè),各個行業(yè)產(chǎn)生什么影響?


有人擔(dān)心人工智能會代替人類工作,其實這份報告分析了各行各業(yè),得出結(jié)論是人工智能對多數(shù)行業(yè)有利。左側(cè)深色表示不易被自動化替代的體力勞動;相反,右側(cè)淺色表示可被部分替代的腦力勞動,但比例不會超過1/3。大部分工作將是人機(jī)互補(bǔ),提高工作質(zhì)量和效率。


為什么大模型難以完全替代人類?是因為當(dāng)前人工智能模型存在天花板。


就是說大模型所有的工作都是外部提示的,不是它主動做的,而且它是在外部提示下,用概率的預(yù)測的辦法來完成它。人類完全不是這樣,所有工作基本上是在內(nèi)部驅(qū)動下,內(nèi)部意圖的驅(qū)動下,在意圖的控制下,或者意識的控制下來完成的,這就表現(xiàn)了大模型的三個天花板。


第一,質(zhì)量不可控。大模型的質(zhì)量無法人為控制,輸出質(zhì)量不穩(wěn)定。


第二,生成結(jié)果存在正確錯誤,因而不可信。


第三,不魯棒。輸出很依賴輸入提示詞,相同內(nèi)容不同提示詞會產(chǎn)生不同解,給出不同回答。


綜上所述,當(dāng)前大模型存在的三大問題(不可控、不可信、不魯棒)是根本性的缺陷,隨著模型規(guī)模的增加也難以解決。


前幾天我看了圖靈獎得主 Joseph Sifakis 在清華做的報告,他也是這個觀點(diǎn)一樣的,他就畫出來這個智能化三個層次,他認(rèn)為目前來講,機(jī)器大多數(shù)作為輔助,那么第二步走向自動化,自動化的意思是什么,把部分的監(jiān)控任務(wù)交給機(jī)器。


最終它叫做自主化,把所有的控制、監(jiān)控都交給機(jī)器,這個他覺得很難,最主要的原因就剛才我們講到不可信,機(jī)器不可信,所以總體來講我們應(yīng)該看到今后的最主要的內(nèi)容,就是我們把機(jī)器作為我們最好的助手,當(dāng)然相當(dāng)一部分工作會被它代替,但是這個要分領(lǐng)域的,不是所有領(lǐng)域都是這樣。


這個總結(jié)一下,實際上就是我們當(dāng)初提出來的發(fā)展三代人工智能的思想。


第三代人工智能的最主要思想是三個,一個我們必須要建立人工智能的可解釋與魯棒(穩(wěn)健)的AI理論與方法。


因為到現(xiàn)在為止這個理論還沒有建立起來,這就是人工智能所以緩慢和曲折的原因。為什么理論建立不起來?就受到三個特定的限制。因為過去你只能在特定領(lǐng)域,利用特定模型去解決特定的任務(wù),根本你就在特定情況下做的事,怎么可能建立一個通用理論呢?大模型的出現(xiàn)給我們建立這個理論提供了可能性,因為你不走向通用,你不可能建立通用理論,所以現(xiàn)在這個有可能了。


那這種情況下,我們才有可能得到安全、可控、可信、可靠和可擴(kuò)展的人工智能技術(shù)。換句話講如果這個理論沒有建立起來,我們?nèi)斯ぶ悄艿募夹g(shù)永遠(yuǎn)是難以相信。


三是推動AI的創(chuàng)新應(yīng)用與產(chǎn)業(yè)化,這個我們特別強(qiáng)調(diào)知識的作用,這個就必須充分發(fā)揮這四個要素,這個四個要素肯定都要發(fā)揮知識、數(shù)據(jù)、算法、算力,但是我們最主張的,就必須重視知識作用,所以我們把知識放在第一位。


人工智能發(fā)展可以分為三個階段。第一代人工智能試圖通過建立語義符號系統(tǒng)來模擬人類思考,包括推理、決策、診斷、設(shè)計、規(guī)劃和創(chuàng)作等能力。這體現(xiàn)了符號主義和行為主義的主張,即構(gòu)建一個語言和符號的理想空間,在這個空間內(nèi)模擬人類思考。但是這種模型存在一個重大缺陷,即“符號接地”(the symbol grounding problem)問題,無法與物理世界聯(lián)系,系統(tǒng)都是人為定義的,與外部環(huán)境脫節(jié)。


第二代人工智能試圖通過構(gòu)建特征向量的連續(xù)空間來實現(xiàn)感知,可以利用大量數(shù)據(jù)進(jìn)行訓(xùn)練。但是其最大問題是與認(rèn)知層面脫節(jié),僅能對物體進(jìn)行區(qū)分,無法真正理解和認(rèn)知。


為克服第一代和第二代人工智能的局限,我們在第三代人工智能中提出構(gòu)建“準(zhǔn)語義向量連續(xù)空間”,也就是大語言模型構(gòu)建的空間。這打通了三種空間,才可能建立一個真正的智能體,實現(xiàn)思考、感知和行動的統(tǒng)一。大語言模型的出現(xiàn)使這一目標(biāo)看起來可能實現(xiàn)。但是,仍有很多問題有待解決,需要大量工作。


總之,大語言模型為實現(xiàn)真正的人工通用智能提供了可能性,但距離最終目標(biāo)還有一定差距。


最后,我就談兩點(diǎn)思考。


首先,盡管人工智能目前正處于穩(wěn)步發(fā)展階段,甚至可以說是快速發(fā)展,它對各行各業(yè)產(chǎn)生了巨大影響。然而,我們也面臨著許多不確定性,因為人工智能的發(fā)展往往是不可預(yù)測和不可控的。例如,我們目前對某些現(xiàn)象的解釋仍然停留在“涌現(xiàn)”這一概念上,這實際上意味著我們尚未完全理解其背后的機(jī)制。


我認(rèn)為中小型企業(yè)不應(yīng)僅局限于科研,而應(yīng)將科學(xué)研究、技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展緊密結(jié)合。智譜AI在這方面做得相當(dāng)出色,它不僅重視研究工作,還通過組織此類討論會,展示了對科學(xué)研究的重視。這種產(chǎn)學(xué)研結(jié)合的模式,特別是在中國,有助于產(chǎn)業(yè)的健康發(fā)展。


此外,我認(rèn)為現(xiàn)在是抓住機(jī)遇,發(fā)展人工智能產(chǎn)業(yè)的關(guān)鍵時期。過去,人工智能產(chǎn)業(yè)受到特定領(lǐng)域和任務(wù)的限制,難以實現(xiàn)大規(guī)模發(fā)展。但現(xiàn)在,我們有機(jī)會開發(fā)通用的硬件和軟件。


總結(jié)起來來講,通向通用人工智能道路還是很艱難的。但是不管怎么說,大語言模型為人工智能的發(fā)展打開一條通向通用人工智能寬廣的道路。


熱點(diǎn)新聞

推薦產(chǎn)品

x
  • 在線反饋
1.我有以下需求:



2.詳細(xì)的需求:
姓名:
單位:
電話:
郵件:
主站蜘蛛池模板: 国产呦系列| 亚洲国产精品久久人人爱| 欧美人成在线观看| 俺来也欧美亚洲a∨在线| 久久久婷| 国产伦精品一区二区三区四区 | 99热久久国产精品一区| 欧美在线观看不卡| 色综合a怡红院怡红院首页| 国产91区| 精品国产三级a| 久久久精品久久久久三级| 亚洲网站一区| 5x社区直接进入一区二区三区| 韩国毛片免费播放| 日韩午夜在线视频| 香蕉超级碰碰碰97视频蜜芽| 成人国产精品视频频| 亚洲国产天堂久久综合网站| 999久久久精品视频在线观看| 久9精品视频| 一级a美女毛片| 毛片免费观看的视频在线| 欧美aaa大片| 99国产精品视频久久久久| 国产成人欧美视频在线| 国产在线乱子伦一区二区| 日韩中文字幕在线免费观看| 未成人做爰视频www| 国产欧美日韩亚洲精品区2345| 欧美一区二区三区不卡| 欧美老头老太做爰xxxx| 亚洲欧美二区三区久本道| 亚洲国内精品自在线影视| 99久久精品国产一区二区三区 | 国产精品久久久久久久久免费| 美女张开腿给男人桶| 久久99亚洲精品一区二区| 欧美色综合高清视频在线| 亚洲综合国产一区二区三区 | 久久亚洲网|