0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區
會(huì )員中心
創(chuàng )作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內不再提示

ChatGPT的底層邏輯

合宙LuatOS ? 2024-05-03 08:04 ? 次閱讀

“一些未知的東西正在做我們不知道的事情?!?br>

阿瑟·愛(ài)丁頓??

“為何不嘗試制作一個(gè)模擬兒童思維的程序呢?”?

艾倫·圖靈

“只要是人腦能提出的問(wèn)題,它就能夠得到解決?!?

庫爾特·哥德?tīng)?/h4>

開(kāi)始

傳說(shuō)中的掃地僧,在現實(shí)中極其罕見(jiàn)。

有些僧,只是在假裝掃地;而絕大多數“掃地僧”,并非真正的高僧。

電影《心靈捕手》講述了這樣一個(gè)少年天才,清潔工“呆萌”在大學(xué)拖地板時(shí),解出了麻省理工學(xué)院數學(xué)系教授給出的難題,他的天賦震驚了這位菲爾茨獎(數學(xué)界的“諾貝爾獎”)得主。

誰(shuí)是電影中貧苦而不羈的天才主角的原型?

人們也許會(huì )想起沃爾特·皮茨,一位在計算神經(jīng)科學(xué)領(lǐng)域工作的邏輯學(xué)家。

他提出了神經(jīng)活動(dòng)和生成過(guò)程的具有里程碑意義的理論表述,這些表述影響了認知科學(xué)和心理學(xué)、哲學(xué)、神經(jīng)科學(xué)、計算機科學(xué)、人工神經(jīng)網(wǎng)絡(luò )人工智能等不同領(lǐng)域,以及所謂的生成科學(xué)。

某種意義上,正是ChatGPT的源頭所在。

??

上世紀三十年代,皮茨在芝加哥大學(xué)掃地時(shí),大約是15歲。這是他人生當中重要的轉折點(diǎn),也幾乎決定了當今最火熱的神經(jīng)網(wǎng)絡(luò )的起點(diǎn)。

皮茨出身于一個(gè)窮苦家庭,和《心靈捕手》的主角一樣,打架之余靠在公共圖書(shū)館里借書(shū)自學(xué),他喜歡邏輯和數學(xué),還掌握了希臘語(yǔ)、拉丁語(yǔ)等多門(mén)語(yǔ)言。

住在貧民區的他,12歲時(shí)花三天時(shí)間讀了羅素的《數學(xué)原理》,并寫(xiě)信給作者指出其中的錯誤。惜才如命的羅素立即邀請皮茨去劍橋大學(xué)當研究生,未果。

15歲初中畢業(yè)時(shí),父親強行要他退學(xué)上班養家,皮茨離家出走了。

無(wú)處可去的皮茨得知羅素要到芝加哥大學(xué)任教,只身前往,果真撞見(jiàn)了曠世大師。

羅素愛(ài)才之心不減,將他推薦給哲學(xué)家卡爾納普教授。

聽(tīng)聞皮茨是少年天才,卡爾納普把自己的《語(yǔ)言的邏輯句法》一書(shū)給皮茨看。皮茨很快看完,并將寫(xiě)滿(mǎn)筆記的原書(shū)還給作者。

這位著(zhù)名的分析哲學(xué)家深感震撼,為初中畢業(yè)生皮茨安排了一份在芝加哥大學(xué)打掃衛生的工作。

電影里那令觀(guān)眾動(dòng)容的一幕在現實(shí)世界出現了。掃地的工作不僅可以令皮茨不可不用流浪街頭,還讓他能跟隨大師們自由地探索真知。

命運在此刻埋下的最大注腳,是讓這個(gè)可憐而又幸運的孩子,在兩年之后遇見(jiàn)此生對他而言最重要的一個(gè)人。

1940年,17歲的皮茨與42歲的麥卡洛克教授相逢,從此兩人一起改變了世界。

與人生混亂不堪的皮茨截然不同,麥卡洛克先后就讀于哈佛、耶魯和哥倫比亞大學(xué),拿了一串眼花繚亂的學(xué)士、碩士和博士學(xué)位。

麥卡洛克也不像《心理捕手》的那位落寞的心理學(xué)教授,他出生優(yōu)越,家庭幸福,事業(yè)蒸蒸日上,過(guò)著(zhù)主流而正統的生活,學(xué)術(shù)上已經(jīng)受到廣泛贊譽(yù)。

可是,兩個(gè)仿佛來(lái)自不同時(shí)空的人,在思想的最深處走到了一起。

1943年,麥卡洛克和皮茨發(fā)表了題為《A Logical Calculus of the Ideas Immanent in Nervous Activity》的論文,首次提出神經(jīng)元的M-P模型。

該模型借鑒了已知的神經(jīng)細胞生物過(guò)程原理,是第一個(gè)神經(jīng)元數學(xué)模型,是人類(lèi)歷史上第一次對大腦工作原理描述的嘗試。

M-P模型

M-P神經(jīng)元是一個(gè)理想化的簡(jiǎn)單模型,基于生物神經(jīng)元的基礎特性進(jìn)行建模。其工作原理如下:

神經(jīng)元接收一組二進(jìn)制輸入,每個(gè)輸入都與一個(gè)權重相對應;

當加權輸入之和超過(guò)某個(gè)閾值時(shí),神經(jīng)元被激活并輸出1,否則輸出0。

這種機制很好地模擬了生物神經(jīng)元的"全部或無(wú)"的響應模式。

M-P模型的影響力在于它是一個(gè)很好的開(kāi)始,為后來(lái)復雜的神經(jīng)網(wǎng)絡(luò )模型鋪平了道路。

然而,M-P模型也有很大的局限性,比如它無(wú)法學(xué)習和調整自己的權重,以及只能處理二進(jìn)制輸入和輸出。

這個(gè)模型是人工神經(jīng)網(wǎng)絡(luò )和深度學(xué)習發(fā)展的基石。

現代的神經(jīng)網(wǎng)絡(luò )模型比McCulloch-Pitts模型復雜得多,但是它們的基本原理——根據輸入計算輸出,并且有可能調整自身以?xún)?yōu)化這個(gè)過(guò)程——仍然是相同的。

麥卡洛克和皮茨的論文不僅是人工智能歷史上的一個(gè)重要里程碑,為理解大腦工作機制和發(fā)展人工智能打下了基礎,還啟發(fā)了人們:

生物大腦“有可能”是通過(guò)物理的、全機械化的邏輯運算來(lái)完成信息處理的,而無(wú)需太多弗洛伊德式的神秘解釋。

麥卡洛克后來(lái)在一篇哲學(xué)文章里自豪地宣告:

“我們知道了我們是怎么知道的,這是科學(xué)史上的第一次?!?/strong>

麥卡洛克和皮茨發(fā)表那篇里程碑式論文的同一年,艾倫·圖靈正在布萊切利公園破譯德國恩尼格瑪密碼機。

他和團隊用智慧拯救了數十萬(wàn)的生命,對盟軍在二戰中的勝利起到了關(guān)鍵作用。

他們的交集同樣與羅素有關(guān)。

在20世紀初,數學(xué)家和邏輯學(xué)家都在試圖找到一種能夠將所有的數學(xué)真理減少到一套簡(jiǎn)單的公理和邏輯規則的系統。

這就是著(zhù)名的希爾伯特計劃,由德國數學(xué)家大衛·希爾伯特提出。

羅素及其合作者懷特海在《數學(xué)原理》一書(shū)中就做了這樣的嘗試,他們試圖將數學(xué)基礎建立在形式邏輯的基礎之上。

然而,希爾伯特計劃在1931年遭到了挫敗,因為哥德?tīng)栕C明了他的不完備性定理。這個(gè)定理表明:

任何足夠強大的形式系統,都存在一些在該系統內部既不能被證明也不能被反駁的命題。

1936年,圖靈在一篇論文里研究了希爾伯特的“計算性”和“判定性問(wèn)題”。

為了解決這個(gè)問(wèn)題,圖靈首先定義了“計算”這個(gè)概念,并創(chuàng )建了圖靈機,這是一種理論上的計算設備。

然后,他通過(guò)構造了一個(gè)圖靈機無(wú)法解決的問(wèn)題(即停機問(wèn)題)來(lái)證明判定問(wèn)題實(shí)際上是無(wú)法解決的。

這意味著(zhù)沒(méi)有一個(gè)通用的算法能對任何可能的問(wèn)題都給出答案。

一個(gè)意外收獲是,圖靈創(chuàng )立了一個(gè)新的研究領(lǐng)域——計算理論(或可計算性)。

圖靈機給出了一個(gè)對“計算”或“算法”進(jìn)行形式化的方式,這不僅在他的原始問(wèn)題中有用,而且對整個(gè)計算機科學(xué)的發(fā)展產(chǎn)生了深遠影響。

實(shí)際上,現代所有的電子計算機都是基于圖靈機模型的,這使得圖靈機成為了計算理論的核心。

沒(méi)有證據表明麥卡洛克和皮茨看過(guò)圖靈的論文。他們兩個(gè)人的共同興趣是,應用萊布尼茨機械大腦的設想來(lái)建立一個(gè)大腦思維模型。

《數學(xué)原理》中僅使用了與、或、非三種基本邏輯運算,就將一個(gè)個(gè)簡(jiǎn)單命題連接成越來(lái)越復雜的關(guān)系網(wǎng)絡(luò ),進(jìn)而描述清楚了整個(gè)數學(xué)體系。(盡管并不完備)

麥卡洛克則構想:人類(lèi)的思考,是否也是靠神經(jīng)元來(lái)執行這些最基礎的邏輯運算而實(shí)現的?

皮茨在數學(xué)和邏輯上天賦,幫助麥卡洛克完成了這一偉大構想。

麥卡洛克和皮茨在1943年提出的神經(jīng)元模型,構成了今天我們稱(chēng)之為人工神經(jīng)網(wǎng)絡(luò )的基礎。

他們的模型描繪了一種簡(jiǎn)化的神經(jīng)元,當其接受到的輸入超過(guò)一定閾值時(shí),就會(huì )被激活并向其它神經(jīng)元發(fā)送信號。

這個(gè)模型的一個(gè)關(guān)鍵思想就是,即使每個(gè)單獨的神經(jīng)元都很簡(jiǎn)單,但是通過(guò)將它們聯(lián)接在一起,就能形成一個(gè)能處理非常復雜問(wèn)題的網(wǎng)絡(luò )。

雖然單一的麥卡洛克-皮茨神經(jīng)元只能完成簡(jiǎn)單的邏輯任務(wù),但是,當將這些神經(jīng)元組成一個(gè)復雜的網(wǎng)絡(luò )時(shí),神經(jīng)網(wǎng)絡(luò )就能進(jìn)行復雜的計算,從而表現出圖靈完備性。

事實(shí)上,神經(jīng)網(wǎng)絡(luò )是實(shí)現人工智能(AI)的重要方法之一。

通過(guò)設計不同的網(wǎng)絡(luò )結構,并使用大量的數據對網(wǎng)絡(luò )進(jìn)行訓練,人工神經(jīng)網(wǎng)絡(luò )可以學(xué)習到完成各種任務(wù)的能力,包括圖像識別、語(yǔ)音識別、自然語(yǔ)言處理等等。

AI的神經(jīng)網(wǎng)絡(luò ),是對人類(lèi)大腦和基于社會(huì )化網(wǎng)絡(luò )的人類(lèi)群體智慧模仿游戲。

人類(lèi)大腦神經(jīng)元結構和工作原理如下:

圖片來(lái)自《深度學(xué)習的數學(xué)》一書(shū)。

以上原理,用計算模擬和解釋?zhuān)褪牵荷窠?jīng)元在信號之和超過(guò)閾值時(shí)點(diǎn)火,不超過(guò)閾值時(shí)不點(diǎn)火。

20世紀五六十年代,????奧利弗·塞弗里奇創(chuàng )造了名為“鬼域”的概念。這是一個(gè)圖案識別設備,其中進(jìn)行特征檢測的“惡魔”通過(guò)互相競爭,來(lái)爭取代表圖像中對象的權利。

“鬼域”是生動(dòng)的關(guān)于深度學(xué)習的隱喻,如下圖:

上圖是對當前多層次深度學(xué)習網(wǎng)絡(luò )的隱喻:

1、從左到右,是從低到高的惡魔級別。

2、如果每個(gè)級別的惡魔與前一個(gè)級別的輸入相匹配,就會(huì )興奮(點(diǎn)火)。?

3、高級別的惡魔負責從下一級的輸入中提取更復雜的特征和抽象概念,從而做出決定。然后傳遞給自己的上級。

4、最終,由大惡魔做出最終決定。

《深度學(xué)習的數學(xué)》一書(shū)中,依照如上隱喻,用一個(gè)生動(dòng)的例子,講解了神經(jīng)網(wǎng)絡(luò )的工作原理。

問(wèn)題:建立一個(gè)神經(jīng)網(wǎng)絡(luò ),用來(lái)識別通過(guò) 4×3 像素的圖像讀取的手寫(xiě)數字 0 和 1。

第一步:輸入層

12個(gè)格子,相當于每個(gè)格子住一個(gè)人,分別編號為1-12。如下圖。

第二步:隱藏層

這一層,負責特征提取。假設有如下三種主要特征,分為為模式A、B、C。如下圖。

不同的模式對應著(zhù)相應的數字格子的組合。如下圖。模式A對應的是數字4和7,B對應5和8,C對應6和9。

第三步:輸出層

這一層,從隱藏層那里獲得信息。

如上圖,最下面是AI要識別的圖像。

首先,輸入層的2、5、8、11點(diǎn)火;

然后,隱藏層5和8所對應的特征被提取,“模式B”點(diǎn)火;

最后,輸出層的1被對應的“模式B”點(diǎn)火。

所以,“大惡魔”識別出圖像為數字1。

在上面的例子里,AI可以精確地識別出0和1,但它并不懂0和1,它的眼里只有像素。

可這么說(shuō),似乎過(guò)于擬人化了。人類(lèi)又如何懂0和1呢?

人類(lèi)不也是通過(guò)雙眼輸入,通過(guò)迄今仍是宇宙間最大謎團的大腦神經(jīng)元網(wǎng)絡(luò )(更加復雜、強大且節能的隱藏層)提取特征,然后通過(guò)大腦的某個(gè)部位再進(jìn)行自我解釋的嗎?

辛頓曾在采訪(fǎng)中提及,認知科學(xué)領(lǐng)域兩個(gè)學(xué)派關(guān)于“大腦處理視覺(jué)圖像”的不同理念:

一派認為,當大腦處理視覺(jué)圖像時(shí),你擁有的是一組正在移動(dòng)的像素。如同上面的演示;

另一學(xué)派偏向于老派的人工智能,認為是分層、結構性的描述,腦內處理的是符號結構。

辛頓自己則認為以上兩派都不對,“實(shí)際上大腦內部是多個(gè)神經(jīng)活動(dòng)的大向量?!?/strong>而符號只是存在于外部世界。

不管怎樣,神經(jīng)網(wǎng)絡(luò )的模型有用,并且非常有用。

不愿意和外行分享專(zhuān)業(yè)話(huà)題的辛頓,用如下這段話(huà)生動(dòng)介紹了“神經(jīng)網(wǎng)絡(luò )”:

首先是相對簡(jiǎn)單的處理元素,也就是松散的神經(jīng)元模型。然后神經(jīng)元會(huì )連接起來(lái),每一個(gè)連接都有其權值,這種權值通過(guò)學(xué)習可以改變。

神經(jīng)元要做的事就是將連接的活動(dòng)量與權值相乘,然后累加,再決定是否發(fā)送結果。如果得到的數字足夠大,就會(huì )發(fā)送一個(gè)結果。如果數字是負的,就不會(huì )發(fā)送任何信息。

你要做的事就是將無(wú)數的活動(dòng)與無(wú)數的權重聯(lián)系起來(lái),然后搞清如何改變權重,那樣就行了。問(wèn)題的關(guān)鍵就是如何改變權重。

ChatGPT的底層邏輯極其復雜,但如果要簡(jiǎn)化為3個(gè)最核心的元素,ChatGPT-4認為它們可能是:

1、深度學(xué)習:ChatGPT的核心是一個(gè)基于 Transformer 的深度學(xué)習模型。

Transformer模型通過(guò)自注意力(Self-Attention)機制來(lái)捕獲輸入文本中的復雜模式。在訓練過(guò)程中,模型通過(guò)反向傳播和梯度下降等優(yōu)化算法來(lái)學(xué)習這些模式,使得它能夠生成自然、連貫、與輸入相符的文本。

2、大數據:ChatGPT通過(guò)訓練海量的文本數據來(lái)學(xué)習語(yǔ)言模型。

數據集包含了各種語(yǔ)言模式和語(yǔ)境,使模型能夠在各種情況下生成合適的文本。大數據在這里起到了決定性的作用。

3、強大的計算能力:為了處理這些大量的數據和復雜的深度學(xué)習模型,ChatGPT需要強大的計算能力。

這包括強大的硬件(如高性能的GPU),優(yōu)秀的計算框架(如TensorFlow和PyTorch),以及高效的并行和分布式計算技術(shù)。

以上三個(gè)元素構成了ChatGPT的基礎,使得它能夠學(xué)習和生成自然語(yǔ)言。

但是,這只是表面上的邏輯。實(shí)際上,每一個(gè)環(huán)節背后都有深厚的理論基礎,涵蓋了機器學(xué)習、自然語(yǔ)言處理、計算機科學(xué)、數學(xué)等多個(gè)學(xué)科的知識。

深度學(xué)習是一種強大的機器學(xué)習方法,其底層邏輯相當復雜。不過(guò),如果嘗試將深度學(xué)習核心原理簡(jiǎn)化為3個(gè)要素,ChatGPT-4認為可以這樣描述:

1、神經(jīng)網(wǎng)絡(luò )架構:深度學(xué)習的核心是深度神經(jīng)網(wǎng)絡(luò ),這是一種模擬人腦工作原理的計算模型。

神經(jīng)網(wǎng)絡(luò )由多個(gè)相互連接的層組成,每一層都由大量的神經(jīng)元(或稱(chēng)為節點(diǎn))組成。每個(gè)神經(jīng)元都會(huì )接收前一層神經(jīng)元的輸入,并進(jìn)行一定的計算,然后將結果傳遞給下一層的神經(jīng)元。

2、權重優(yōu)化和學(xué)習:神經(jīng)網(wǎng)絡(luò )的每個(gè)連接都有一個(gè)權重,代表這個(gè)連接的重要性。

深度學(xué)習的目標就是通過(guò)訓練數據來(lái)調整這些權重,使得網(wǎng)絡(luò )的輸出盡可能接近于真實(shí)的目標值。這個(gè)過(guò)程通常通過(guò)優(yōu)化算法(如梯度下降)實(shí)現,算法會(huì )根據網(wǎng)絡(luò )輸出與目標值之間的差距(損失)來(lái)調整權重。

3、非線(xiàn)性激活函數:深度學(xué)習的另一個(gè)關(guān)鍵元素是非線(xiàn)性激活函數,如ReLU(Rectified Linear Unit)或Sigmoid等。

這些函數用于增加神經(jīng)網(wǎng)絡(luò )的表達能力,使其可以學(xué)習和表示非線(xiàn)性的復雜模式。

這三個(gè)要素共同構成了深度學(xué)習的底層邏輯。

需要注意的是,這只是一個(gè)粗略的概述,實(shí)際上深度學(xué)習涉及的理論和技術(shù)要遠比這復雜得多。

例如,還有正則化、卷積神經(jīng)網(wǎng)絡(luò )、循環(huán)神經(jīng)網(wǎng)絡(luò )、自注意力機制、批歸一化、優(yōu)化算法、損失函數設計等等多種方法和技術(shù),都是深度學(xué)習不可或缺的一部分。

以下是神經(jīng)網(wǎng)絡(luò )發(fā)展的完整歷史(圖中并不完整),其中數度起伏。

1、McCulloch-Pitts神經(jīng)元模型(1943):Warren McCulloch 和 Walter Pitts 首次提出了神經(jīng)元的McCulloch-Pitts(M-P)模型,借鑒了已知的神經(jīng)細胞生物過(guò)程原理。

2、感知器(1957):由Frank Rosenblatt提出的感知器模型基于生物神經(jīng)元的工作原理,是早期神經(jīng)網(wǎng)絡(luò )的主要形式。

3、Minsky和Papert(1969): Marvin Minsky和Seymour Papert指出了感知器的局限性,即它們無(wú)法解決非線(xiàn)性可分問(wèn)題(例如異或問(wèn)題)。這部分導致了第一次人工智能寒冬。

4、多層感知器(1986):在Rumelhart,Hinton和Williams的研究下,多層感知器(MLP)成為了神經(jīng)網(wǎng)絡(luò )的主要形式。MLP引入了一個(gè)或多個(gè)隱藏層,并使用了反向傳播算法來(lái)訓練網(wǎng)絡(luò )。

5、卷積神經(jīng)網(wǎng)絡(luò )和LeNet-5(1989/1998):Yann LeCun等人提出的卷積神經(jīng)網(wǎng)絡(luò )(CNN)是一種專(zhuān)門(mén)處理網(wǎng)格狀數據(如圖像)的神經(jīng)網(wǎng)絡(luò )。LeCun和他的團隊在1998年開(kāi)發(fā)出了LeNet-5,這是第一個(gè)成功應用到實(shí)際問(wèn)題(數字識別)的卷積神經(jīng)網(wǎng)絡(luò )。

6、長(cháng)短期記憶網(wǎng)絡(luò )(1997):由Hochreiter和Schmidhuber提出的長(cháng)短期記憶網(wǎng)絡(luò )(LSTM)是一種專(zhuān)門(mén)處理序列數據的循環(huán)神經(jīng)網(wǎng)絡(luò )。LSTM通過(guò)引入“門(mén)”結構,可以學(xué)習長(cháng)期依賴(lài)關(guān)系,避免了傳統RNN在處理長(cháng)序列時(shí)的梯度消失問(wèn)題。

7、深度學(xué)習和深度置信網(wǎng)絡(luò )(DBN,2006):Hinton等人提出了深度置信網(wǎng)絡(luò )(DBN)和深度自編碼器(DAE),標志著(zhù)深度學(xué)習時(shí)代的到來(lái)。深度學(xué)習利用多層神經(jīng)網(wǎng)絡(luò ),能夠學(xué)習更復雜的模式和表示。

8、ReLU激活函數(2010):Nair和Hinton提出了修正線(xiàn)性單元(ReLU)作為神經(jīng)元的激活函數,這極大提高了深度神經(jīng)網(wǎng)絡(luò )的訓練速度和性能。

9、AlexNet(2012):Krizhevsky、Sutskever和Hinton的AlexNet模型大大超越了其它基于傳統機器學(xué)習技術(shù)的模型,引發(fā)了深度學(xué)習在計算機視覺(jué)領(lǐng)域的革命。

10、word2vec(2013):Mikolov等人的word2vec是一種利用神經(jīng)網(wǎng)絡(luò )為詞生成密集向量表示的方法。

11、GoogLeNet and VGGNet(2014):Szegedy等人的GoogLeNet和Simonyan和Zisserman的VGGNet進(jìn)一步提高了卷積神經(jīng)網(wǎng)絡(luò )在圖像分類(lèi)上的性能,并推動(dòng)了卷積神經(jīng)網(wǎng)絡(luò )的設計進(jìn)一步向深度發(fā)展。

12、ResNet(2015):He等人的ResNet通過(guò)引入跳躍連接,解決了深度神經(jīng)網(wǎng)絡(luò )的梯度消失問(wèn)題,使得網(wǎng)絡(luò )的深度能夠達到之前無(wú)法想象的程度。

13、自注意力和Transformer(2017):由Vaswani等人提出的Transformer模型引入了自注意力機制,這讓神經(jīng)網(wǎng)絡(luò )可以在更大的范圍內建立依賴(lài)關(guān)系,為處理序列數據提供了新的框架。

顯然,我是用ChatGPT-4完成了這一節的內容。

人類(lèi)的大腦可以自己思考自己,雖然謎團難解;

神經(jīng)網(wǎng)絡(luò )也能回憶自己的歷史,盡管它無(wú)法為那些為此進(jìn)程添磚加瓦的人類(lèi)而感動(dòng)。

Chris McCormick認為,神經(jīng)網(wǎng)絡(luò )是純粹的數學(xué)。

從技術(shù)上講,“機器學(xué)習”模型在很大程度上基于統計數據。它們估計所有選項的概率,即使所有選項的正確概率都極低,它們仍然只會(huì )選擇概率最高的路徑。

神經(jīng)網(wǎng)絡(luò )的靈感來(lái)源于生物學(xué),特別是人腦的工作原理,但其設計和操作基礎確實(shí)是數學(xué),包括線(xiàn)性代數(用于數據和權重的表示和操作)、微積分(用于優(yōu)化算法,如梯度下降)和概率論(用于理解和量化不確定性)。

神經(jīng)網(wǎng)絡(luò )的每個(gè)部分都可以用數學(xué)表達式來(lái)描述,訓練過(guò)程則是通過(guò)優(yōu)化數學(xué)目標函數(損失函數)來(lái)學(xué)習模型參數的過(guò)程。

黃仁勛說(shuō):

“AI既是深度學(xué)習,也是一種解決難以指定的問(wèn)題的算法。這也是一種開(kāi)發(fā)軟件的新方法。想象你有一個(gè)任意維度的通用函數逼近器?!?/span>

在黃仁勛的比喻中,“通用函數逼近器”確實(shí)是對深度神經(jīng)網(wǎng)絡(luò )的一個(gè)精確且富有洞見(jiàn)的描述。這個(gè)比喻突出了深度神經(jīng)網(wǎng)絡(luò )的核心特性:

它們可以學(xué)習并逼近任意復雜的函數映射,只要網(wǎng)絡(luò )足夠深,參數足夠多。

這種“函數逼近”的能力使得深度學(xué)習能夠應對各種各樣的任務(wù),從圖像分類(lèi)和語(yǔ)音識別到自然語(yǔ)言理解和生成,甚至是更復雜的任務(wù),如游戲和決策制定。

只要我們有足夠的數據來(lái)訓練這些模型,神經(jīng)網(wǎng)絡(luò )就能學(xué)習到這些任務(wù)背后的復雜模式。--哪怕這些模式對人類(lèi)而言只是一個(gè)黑盒子。??

尤其在生成式模型(如ChatGPT)中,這種“函數逼近”的能力使得模型能夠生成富有創(chuàng )造性的輸出,如編寫(xiě)文章、創(chuàng )作詩(shī)歌或音樂(lè )等。

這些模型通過(guò)學(xué)習大量的數據,理解語(yǔ)言或音樂(lè )的規則,然后生成符合這些規則的新的創(chuàng )作。

ChatGPT到底在做什么?為什么它能夠成功?

大神Wolfram對此解釋道:

令人驚奇的是,ChatGPT嘗試寫(xiě)一篇文章時(shí),基本上只是一次又一次地詢(xún)問(wèn)“在已有的文本基礎上,下一個(gè)單詞應該是什么?” ,然后每次都添加一個(gè)單詞。(更準確地說(shuō)是一個(gè)token)

那么,是否每次都選取概率最大的那個(gè)單詞呢???????

并非簡(jiǎn)單如此。

Wolfram告訴了我們ChatGPT如何靠概率來(lái)“寫(xiě)”出一篇文章:??

1、每一步,ChatGPT都會(huì )生成一個(gè)帶有概率的單詞列表。

2、但若總是選擇最高“概率”的單詞,通常會(huì )得到一篇非?!捌降钡奈恼?。

3、于是巫術(shù)出現了,有一個(gè)特定的所謂“溫度”參數,它控制了較低排名的單詞會(huì )被使用的頻率。

4、對于文章生成,我們發(fā)現“溫度”為0.8效果最好。

概率和隨機性,再次顯示出神奇的魔力。

在微軟的報告里,研究者用GPT-4模擬了一段對話(huà):

蘇格拉底:我的朋友,我對最近這些所謂自回歸語(yǔ)言模型的興起感到不安。

亞里士多德:你是什么意思,蘇格拉底?

蘇格拉底:我的意思是,這些模型被用來(lái)生成看起來(lái)是人類(lèi)寫(xiě)的文本,但實(shí)際上是由機器產(chǎn)生的。

亞里士多德:那有什么問(wèn)題呢?

蘇格拉底:?jiǎn)?wèn)題是,這些模型被用來(lái)欺騙人們,操縱他們,控制他們。

亞里士多德:但這些模式肯定也有一些積極的應用?

蘇格拉底:可能是這樣,但我仍然對濫用的可能性感到不安。畢竟,一個(gè)能夠生成與人類(lèi)所寫(xiě)的文字無(wú)法區分的模型可以被用來(lái)傳播假新聞,冒充他人,并制造宣傳。

亞里士多德:但這不只是一個(gè)如何使用這些模型的問(wèn)題,而不是模型本身的問(wèn)題嗎?

蘇格拉底:我不同意。我認為這些模型本身就有問(wèn)題。它們是一種偽裝的形式,一種創(chuàng )造幻覺(jué)的方式,是人類(lèi)思想和互動(dòng)的一部分。因此,它們可以被用來(lái)以難以察覺(jué)的方式進(jìn)行欺騙和操縱。

亞里士多德:但這不正是你反對修辭和演說(shuō)的理由嗎?

蘇格拉底:是的,我也堅持這個(gè)觀(guān)點(diǎn)。我相信,任何旨在欺騙或操縱的藝術(shù)或交流形式都是內在的危險。

亞里士多德:我明白了。謝謝你分享你的想法,蘇格拉底。

喬布斯曾經(jīng)設想過(guò)如上的對話(huà),他預測有一天可以用計算機捕捉亞里士多德的底層世界觀(guān),如此一來(lái)人們就可以和他親自對話(huà)了。

反對修辭和演說(shuō)的蘇格拉底認為:感覺(jué)是不可靠的,感性認識是不確定的,只有理性才能夠認識事物本身。??

而在亞里士多德的方法里,他將修辭確定為哲學(xué)的三個(gè)關(guān)鍵要素之一。另外兩個(gè)則是邏輯辯證法。

亞里士多德認為,邏輯關(guān)注的是用推理達到科學(xué)確定性,而辯證法和修辭則關(guān)注概率。后者適用于人類(lèi)事務(wù)。

上面兩段文字我摘自網(wǎng)絡(luò )百科,雖無(wú)法確認其原文與出處(尤其是概率那部分),卻令人叫好。

然而,在隨后的年代里,亞里士多德的邏輯和確定性知識體系更大程度地影響了人類(lèi)。

人們信奉因果論和決定論,在牛頓的推動(dòng)下,世界仿佛是一個(gè)由無(wú)數個(gè)精密齒輪構成的機器,在上帝的首次推動(dòng)下,持續有條不紊地運轉著(zhù)。

而另外一條線(xiàn)索亦在孕育之中。休謨的懷疑論和經(jīng)驗主義徹底改變了人們的思想世界,他認為感性知覺(jué)是認識的唯一對象,人不可能超出知覺(jué)去解決知覺(jué)的來(lái)源問(wèn)題。

在休謨看來(lái),客觀(guān)因果并不存在。????????

隨后康德試圖對理性主義和經(jīng)驗主義進(jìn)行調和,他否認客觀(guān)因果聯(lián)系,但主張用先天的理智范疇對雜亂的經(jīng)驗進(jìn)行整理。??

馬赫則開(kāi)創(chuàng )了經(jīng)驗批判主義,他強調直接討論觀(guān)測數據,科學(xué)定律只是被視為以最經(jīng)濟的方式對數據進(jìn)行描述的手段而已。

《科學(xué)推斷》一書(shū)認為,他開(kāi)啟了現代方法論的主要進(jìn)展。

曾經(jīng)深受馬赫影響的愛(ài)因斯坦,無(wú)法接受這種對科學(xué)信仰的破壞性,以及對法則、公式、定律的輕視,后來(lái)與其分道揚鑣。

愛(ài)因斯坦用探索性的演繹法建構了邏輯嚴謹的原理,他相信宇宙有解,不相信鬼魅之力。

某種意義上,愛(ài)因斯坦是最后的牛頓(除了用斯賓諾莎的“神”替代了上帝),是科學(xué)因果決定論的捍衛者。??

1967年,波普爾對如上交織而漫長(cháng)的哲學(xué)歷程做了一個(gè)了結,他提出了三元世界的觀(guān)點(diǎn),布爾金將其繪制如下:

這似乎是柏拉圖洞穴理論的現代版。

看看,人是多么無(wú)知,又是多么分裂??!

基于這樣的結構,波普爾提出:我們無(wú)法證實(shí)這個(gè)世界,無(wú)法證實(shí)規律和定理,只能去證偽。

也許你還記得上一代的老實(shí)人工智能--深藍。龐大的機器,手工制作無(wú)盡的代碼,多名參與其中的職業(yè)棋手,以及暴力算法,雖然打敗了卡斯帕羅夫,卻如流星般閃過(guò)。

《麻省理工科技評論》將深藍形容為恐龍,而這一代的神經(jīng)網(wǎng)絡(luò )(尤其是深度學(xué)習)則是生存且改變地球的小哺乳動(dòng)物。

上世紀50年代,香農曾經(jīng)樂(lè )觀(guān)地預測AI將很快出現,事實(shí)并非如此。失敗的主要原因是:

人工智能的創(chuàng )造者們試圖用純粹的邏輯來(lái)處理日常生活中的混亂,他們會(huì )耐心地為人工智能需要做的每一個(gè)決定都制定一條規則。但是,由于現實(shí)世界過(guò)于模糊和微妙,無(wú)法以刻板的方式進(jìn)行管理。

我們無(wú)法像是依照牛頓的原理造車(chē)般,用發(fā)條思維和專(zhuān)家系統來(lái)打造智能系統。那一類(lèi)AI不僅狹窄,而且脆弱。

ChatGPT是經(jīng)驗主義進(jìn)化論的“勝利產(chǎn)物”。

經(jīng)驗主義亦稱(chēng)“經(jīng)驗論”。作為一種認識論學(xué)說(shuō),與“理性主義”相對。經(jīng)驗主義認為感性經(jīng)驗是知識的來(lái)源,一切知識都通過(guò)經(jīng)驗而獲得,并在經(jīng)驗中得到驗證。

這正是ChatGPT的思考和學(xué)習路徑。

虛擬進(jìn)化又指數級放大了基于經(jīng)驗的學(xué)習速度。在波普爾看來(lái),科學(xué)發(fā)展本身就是一種進(jìn)化。

ChatGPT不僅從時(shí)間的角度加速模擬了進(jìn)化,還通過(guò)大模型從空間的角度拓展了可能性之廣度,以至于令人們禁不住又驚又喜地探討起涌現。

那么,人工智能是如何思考的?又是如何決策的???

有別于齒輪般的演繹推理,我們需要借助概率在證據和結論之間建立起聯(lián)系。????

AI的任務(wù)是做決策,在不確定性下結合信念與愿望,選擇動(dòng)作。

《人工智能:現代方法》如此描述:

由于部分可觀(guān)測性、非確定性和對抗者的存在,真實(shí)世界中的智能體需要處理不確定性(uncertainty)。智能體可能永遠都無(wú)法確切地知道它現在所處的狀態(tài),也無(wú)法知道一系列動(dòng)作之后結束的位置。

此外,智能體的正確的動(dòng)作——理性決策,既依賴(lài)各種目標的相對重要性,也依賴(lài)它們實(shí)現的可能性和程度。

為了進(jìn)行不確定推理,我們需要引入信念度,例如牙痛患者有80%的概率存在蛀牙。

???概率論提供了一種概括因我們的惰性與無(wú)知而產(chǎn)生的不確定性的方式。

除了概率,智能體在做決策時(shí)還需要一個(gè)概念:效用理論。?

例如,你要去機場(chǎng),假如提前90分鐘出發(fā),趕上飛機的概率是95%;提早120分鐘出發(fā),概率提升至97%。??????

那么,是不是應該越早越高,追求趕上飛機的最大概率呢?如此一來(lái),你可能要提前一天或者更早住在機場(chǎng)了。??????

大多數時(shí)候不必如此,但假如你有一個(gè)無(wú)法錯過(guò)的會(huì )議,或者要趕國際航班,提早一天住到機場(chǎng),可能是最佳決策。萬(wàn)豪酒店最早就是靠洞察到商務(wù)人士的這一需求而崛起的。????

由此,我們得出決策論的通用理論:??

決策論=概率論+效用理論

以上的現代方法,離不開(kāi)兩個(gè)未曾謀面的古代敵手。

在諸多反對休謨的人當中,貝葉斯也許是最重要的一位。

當休謨斬斷了因果之間的必然聯(lián)系時(shí),最?lèi)阑鸬哪^(guò)于教會(huì ),因為上帝一直被視為因果的第一推動(dòng)力。??????

一個(gè)人往往要到了一定歲數,才能夠理解休謨的哲學(xué)。尤其是我們這些從小接受確定性訓練的人。

邏輯推理的基本形式是:如果A,則B。

休謨則說(shuō),如上這類(lèi)推理要么是幻覺(jué),要么是胡說(shuō)八道,要么是自圓其說(shuō)。

據說(shuō)虔誠且又擅長(cháng)數學(xué)的牧師貝葉斯是為了反駁休謨,而研究出了貝葉斯公式。???

一個(gè)神奇的結局出現了:

貝葉斯公式反而成為了休謨哲學(xué)的現實(shí)解藥,將其大刀斬斷的因果,用逆概率的懸橋連接了起來(lái)。?????????

概率,將邏輯推理的形式修正為:如果A,則有x%的可能性導致B。??

而貝葉斯公式,則完成了一個(gè)小小的(卻產(chǎn)生了無(wú)法估量的巨大影響)由果推因的顛倒:

如果觀(guān)察到B,則有x%的可能性是因為A導致。

如此一來(lái),被休謨懷疑的世界,繼續晃晃悠悠地構建出更為龐大繁復的、以概率關(guān)聯(lián)的因果網(wǎng)絡(luò )。??????????????

假如貝葉斯試圖反擊休謨的動(dòng)機是真的,就為“要愛(ài)惜你的對手”添加了有力論據。???

讓我們用一個(gè)簡(jiǎn)單的貝葉斯計算,來(lái)看看智能體如何學(xué)習經(jīng)驗。????

題目:黑盒子里有兩個(gè)骰子,一個(gè)是正常骰子,扔出數字6的概率是1/6;一個(gè)是作弊骰子,扔出數字6的概率是1/2。????????

這時(shí),你從中摸出一個(gè)骰子,扔了一次,得到一個(gè)6。??

請問(wèn):你再扔一次這個(gè)未知的骰子,得到6的概率是多大?

計算的第一步,是計算這個(gè)骰子是正常骰子作弊骰子的概率分別是多大。

請允許我跳過(guò)貝葉斯公式快速計算如下。????????

是正常骰子的概率為:1/6÷(1/6+1/2)=1/4??????

是作弊骰子的概率為:1/2÷(1/6+1/2)=3/4

計算的第二步,更新這個(gè)骰子的信息。原來(lái)的概率是各1/2,但現在分別是1/4和3/4。??

那么,再扔一次,得到6的概率就是:1/4×1/6+3/4×1/2=5/12。?

從本質(zhì)層面理解如上這個(gè)簡(jiǎn)單的計算并不是容易的事情:

兩次扔骰子都是獨立事件,為什么第一次扔骰子得到6的概率和第二次的概率不一樣?

貝葉斯概率的解釋是,第一次扔骰子得到6的這一結果,作為信息,更新了我們對第二次扔骰子得到6的概率的判斷。

疑惑的人會(huì )繼續問(wèn):骰子沒(méi)有記憶,為什么第一次的結果會(huì )“改變”第二次結果呢??

答案是:沒(méi)有改變結果,只是改變了“信念”。

即使扔了兩次骰子,我們依然不知道這個(gè)骰子是正常的還是作弊的,但我們可以帶著(zhù)這種不確定性向前走,為此需要“猜”這個(gè)骰子是正常還是作弊的概率。這個(gè)概率,就是信念。???????

根據信息的變化,快速更新,體現了某種達爾文式的進(jìn)化。????

從這個(gè)角度看,AI推理起初或許弱小含混,卻有主動(dòng)適應性,從經(jīng)驗中不斷學(xué)習,并快速演化。

以本題為例:第二次扔骰子,從第一次骰子的結果中學(xué)習了經(jīng)驗,從而令預測更加精確。

這個(gè)過(guò)程還可以不斷重復,如同發(fā)動(dòng)機般,從而產(chǎn)生了決策和智能的杠桿效應。

如前所述,亞里士多德曾經(jīng)認為,修辭和概率等不確定性元素,應該應用于人類(lèi)社會(huì )。而在自然科學(xué)和數學(xué)領(lǐng)域,則是邏輯推理(尤其是數學(xué)邏輯)的陣地。??

而如今,確定世界已經(jīng)成為不確定世界,絕對真理也被或然真理替代。??

于是,概率不僅成為“真理”的懸梯,甚至成為真理本身。???

《人工智能:現代方法》寫(xiě)道,世界就是這樣,實(shí)際示范有時(shí)比證明更有說(shuō)服力?;诟怕收摰耐茢嘞到y的成功要比哲學(xué)論證更容易改變人的觀(guān)點(diǎn)。

就像兩個(gè)人就不同的觀(guān)點(diǎn)爭論,一種辦法是講道理,講邏輯;還有一種辦法是:?????

我們先下個(gè)注,然后試著(zhù)跑跑看唄。??

OpenAI早期投資人里德·霍夫曼在嘗試將 GPT-4 應用于工作中時(shí),發(fā)現了以下三個(gè)關(guān)鍵原則。

原則1:將GPT-4視為本科生水平的研究助手,而非無(wú)所不知的預言家。

原則2:把自己當作導演,而非木匠。

原則3:勇敢嘗試!

多么有趣的建議啊,我們從中看見(jiàn)了《園丁與木匠》與《自下而上》的智慧:

在大部分工作中,我們習慣于提前計劃,力求避免失誤。這是因為執行計劃在時(shí)間和其他資源上都耗費巨大,“三思而后行”的說(shuō)法指的就是這種情況。

如果實(shí)施計劃比思考它更加省時(shí)省力呢?

霍夫曼認為這正是GPT-4及大語(yǔ)言模型令人費解的悖論所在。

既然如此,正確的做法是:

1、在比討論制訂計劃更短的時(shí)間里,GPT-4能為你生成一個(gè)完整的回應供你審閱。

2、如果你對回應不滿(mǎn)意,可以直接丟棄并嘗試生成另一個(gè)。?

3、或者一次性生成多個(gè)版本,獲得更多選擇。

我們已經(jīng)來(lái)到了一個(gè)“三行而后思”的“強化學(xué)習”時(shí)代。

在《人工通用智能的火花:GPT-4的早期實(shí)驗》的報告里,微軟實(shí)驗室如此表述:??

“我們過(guò)去幾年,人工智能研究中最顯著(zhù)的突破是大型語(yǔ)言模型(LLMs)在自然語(yǔ)言處理方面取得的進(jìn)展。

這些神經(jīng)網(wǎng)絡(luò )模型基于Transformer架構,并在大規模的網(wǎng)絡(luò )文本數據體上進(jìn)行訓練,其核心是使用一個(gè)自我監督的目標來(lái)預測部分句子中的下一個(gè)單詞?!?/strong>

ChatGPT,是位“語(yǔ)言游戲”的高手,用的是神經(jīng)網(wǎng)絡(luò )深度學(xué)習。

這與傳統的語(yǔ)言,以及邏輯語(yǔ)言,都不一樣。

羅素曾經(jīng)試圖構建一套邏輯語(yǔ)言,想從少數的邏輯公理中,推演出數學(xué)。

他提出了自己邏輯原子主義,試圖消除那些形而上語(yǔ)言的混亂,以邏輯語(yǔ)言和我們的現實(shí)世界一一對應。

在與羅素的相互影響下,維特根斯坦認為哲學(xué)的所有問(wèn)題其實(shí)就是語(yǔ)言問(wèn)題,從而推動(dòng)了哲學(xué)的語(yǔ)言轉向。

一種西方哲學(xué)史觀(guān)點(diǎn)認為:古代哲學(xué)關(guān)注本體論,近代哲學(xué)關(guān)注認識論,20世紀哲學(xué)關(guān)注語(yǔ)言學(xué)問(wèn)題。

那么,作為“系統地從語(yǔ)言來(lái)思考世界的第一人”,維特根斯坦與羅素有何不同?

陳嘉映的論斷是:羅素從本體論來(lái)思考語(yǔ)言的本質(zhì),維特根斯坦則一直從語(yǔ)言的本質(zhì)來(lái)構想本體論。

也許我們能從羅素給情人奧托林·莫雷爾夫人一封信里,發(fā)現維特根斯坦哲學(xué)上的某些經(jīng)驗主義線(xiàn)索:

“我們這位德國工程師啊,我認為他是個(gè)傻瓜。他認為沒(méi)有什么經(jīng)驗性的東西是可知的——我讓他承認房間里沒(méi)有一頭犀牛,但他不肯?!?/span>

和每個(gè)天才一樣,維特根斯坦卓絕,但也疑惑。

再說(shuō)回ChatGPT,它懂語(yǔ)言嗎?如同《天才與算法》一書(shū)的設問(wèn):

機器可以在不理解語(yǔ)言或不接觸周?chē)锢硎澜绲那闆r下,生成有意義的句子,甚至是美的句子嗎?

老派的AI,試圖采用羅素的方法。這類(lèi)模型認為:

“理性和智能是深度的、多步驟的推理,由一個(gè)串行過(guò)程指揮,并由一個(gè)或幾個(gè)線(xiàn)程組成,使用少量的信息,由少量的強相關(guān)變量來(lái)表達信息?!?/h4>

對比而言,“現代的機器學(xué)習模式由淺(少步)推理組成,使用大量信息的大規模并行處理,并涉及大量弱相關(guān)變量?!?/span>

一個(gè)有趣的來(lái)描述二者對比的例子是,電影《模仿游戲》里的圖靈,炒掉了自己的密碼破解小組里的語(yǔ)言學(xué)專(zhuān)家。

《人工智能:現代方法》認為,純粹的數據驅動(dòng)的模型,對比基于“文法、句法分析和語(yǔ)義解釋”的手工構建方法,更容易開(kāi)發(fā)和維護,并且在標準的基準測試中得分更高。

該書(shū)作者還提及:

可能是Transformer及其相關(guān)模型學(xué)習到了潛在的表征,這些表征捕捉到與語(yǔ)法和語(yǔ)義信息相同的基本思想,也可能是在這些大規模模型中發(fā)生了完全不同的事情,但我們根本不知道。

未必那么精確的類(lèi)比是:AI如孩子般學(xué)習語(yǔ)言。這正是當年圖靈所所設想的:

有一個(gè)孩子般的大腦,然后去學(xué)習。而非一開(kāi)始就設計一個(gè)成年人的大腦。????

孩子不懂語(yǔ)法構建,也沒(méi)有成熟的邏輯,也遠沒(méi)有成年人那樣有主動(dòng)的刻意練習??墒窍胂肟?,成年人學(xué)習語(yǔ)言的效率,與孩子對比,是不是爛到渣?

我不禁聯(lián)想起一個(gè)對教育的嘲諷:天生就是語(yǔ)言學(xué)習天才的孩子,卻要在一輩子都學(xué)不好一門(mén)語(yǔ)言的成年人的指導下學(xué)習語(yǔ)言。

讓我們來(lái)看看,AI如何像一個(gè)孩子般,天才般地學(xué)習。

神經(jīng)網(wǎng)絡(luò )和深度學(xué)習經(jīng)歷了并不算短暫的黑暗期。

從上世紀80年代開(kāi)始的整整30年間,只有很少一部分相關(guān)研究者義無(wú)反顧地投身其間,他們飽受懷疑,也幾乎拿不到科研經(jīng)費。????????????????

也許是由于這個(gè)原因,深度學(xué)習三巨頭辛頓(Hinton)、本吉奧(Bengio)、楊立昆(LeCun)似乎都和加拿大有些關(guān)系,他們退守在那里研究、教學(xué)、讀書(shū)。這倒是很符合那個(gè)“傻國家”的氣質(zhì)。

一個(gè)讓人“心酸”的細節是,2012年辛頓帶著(zhù)學(xué)生在ImageNet 圖像識別比賽上拿了冠軍,商業(yè)公司蜂擁而至。辛頓教授開(kāi)出的商業(yè)報價(jià),只是區區一百萬(wàn)美元。

(后來(lái)谷歌以4400萬(wàn)美元“中標”。)

“老派”AI,使用明確的一步步指令指引計算機,而深度學(xué)習則使用學(xué)習算法從數據中提取輸入數據與期望輸出的關(guān)聯(lián)模式,正如上一節的演示。

眾所周知,漫漫長(cháng)夜之后,隨著(zhù)人類(lèi)計算機算力和數據的指數級增長(cháng),深度學(xué)習一飛沖天,從阿爾法狗一戰封神,再到ChatGPT征服全球。????

為什么是Open AI,而不是DeepMInd?我對此略有好奇。

OpenAI的聯(lián)合創(chuàng )始人兼首席科學(xué)家伊利亞·薩特斯基弗,是辛頓在多倫多大學(xué)帶的學(xué)生。

他似乎延續了辛頓對深度學(xué)習的信仰,并且勇于全力下注。????

辛頓認為“深度學(xué)習足以復制人類(lèi)所有的智力”,將無(wú)所不能,只要有更多概念上的突破。例如“transformers利用向量來(lái)表示詞義的概念性突破。

此外,還要大幅度增加規模,包括神經(jīng)網(wǎng)絡(luò )規模和數據規模。例如,人腦大約有100萬(wàn)億個(gè)參數,是真正的巨大模型。而GPT-3有1750億個(gè)參數,約比大腦小一千倍。

神經(jīng)網(wǎng)絡(luò )模仿了人類(lèi)的優(yōu)勢:處理有大量參數的少量數據。但人類(lèi)在這方面做得更好,而且節能許多倍。

先行一步的DeepMInd,其發(fā)展方向和速度,除了陷入與谷歌的“商業(yè)VS科研”的兩難糾纏,還不可避免地受到哈薩比斯的AI哲學(xué)觀(guān)的影響。

哈薩比斯認為不管是ChatGPT,還是自家的Gopher,盡管可以幫你寫(xiě)作,為你繪畫(huà),“有一些令人印象深刻的模仿”,但AI“仍然不能真正理解它在說(shuō)什么”。

所以,他說(shuō):“(這些)不是真正的意義上的(智能)?!?/span>

哈薩比斯的老師,MIT的Poggio教授更尖銳地指出:深度學(xué)習有點(diǎn)像這個(gè)時(shí)代的“煉金術(shù)”,但是需要從“煉金術(shù)”轉化為真正的化學(xué)。

楊立昆反對煉金術(shù)的提法,但他也認為要探究智能與學(xué)習的本質(zhì)。人工神經(jīng)元受到腦神經(jīng)元的直接啟發(fā),不能僅僅復制大自然。

他的觀(guān)點(diǎn)大概是,工程學(xué)實(shí)現了的東西,也只有通過(guò)科學(xué)打開(kāi)黑盒子,才能走得更遠。??????????????

“我認為,我們必須探究智能和學(xué)習的基礎原理,不管這些原理是以生物學(xué)的形式還是以電子的形式存在。正如空氣動(dòng)力學(xué)解釋了飛機、鳥(niǎo)類(lèi)、蝙蝠和昆蟲(chóng)的飛行原理,熱力學(xué)解釋了熱機和生化過(guò)程中的能量轉換一樣,智能理論也必須考慮到各種形式的智能?!?/h4>

幾年前,巔峰時(shí)刻的哈薩比斯就表達過(guò),僅靠神經(jīng)網(wǎng)絡(luò )和強化學(xué)習,無(wú)法令人工智能走得更遠。

類(lèi)似的反思,也發(fā)生于貝葉斯網(wǎng)絡(luò )之父 Judea Pearl。

他說(shuō),機器學(xué)習不過(guò)是在擬合數據和概率分布曲線(xiàn)。變量的內在因果關(guān)系不僅沒(méi)有被重視,反而被刻意忽略和簡(jiǎn)化。

簡(jiǎn)單來(lái)說(shuō),就是:重視相關(guān),忽視因果。?????

在Pearl看來(lái),如果要真正解決科學(xué)問(wèn)題,甚至開(kāi)發(fā)具有真正意義智能的機器,因果關(guān)系是必然要邁過(guò)的一道坎。????????

不少科學(xué)家有類(lèi)似的觀(guān)點(diǎn),認為應該給人工智能加上常識,加上因果推理的能力,加上了解世界事實(shí)的能力。所以,解決方案也許是“混合模式”--用神經(jīng)網(wǎng)絡(luò )結合老式的手工編碼邏輯。?????????

辛頓對此頗為不屑,一方面他堅信神經(jīng)網(wǎng)絡(luò )完全可以有推理能力,畢竟大腦就是類(lèi)似的神經(jīng)網(wǎng)絡(luò )。另一方面,他認為加入手工編碼的邏輯很蠢:

它會(huì )遇到所有專(zhuān)家系統的問(wèn)題,那就是你永遠無(wú)法預測你想要給機器的所有常識。

AI真的需要那些人類(lèi)概念嗎?阿爾法狗早已證明,所謂棋理和定式只是多余的夾層解釋而已。????????

關(guān)于A(yíng)I是否真正“理解”,真正“懂得”,真正有“判斷力”,辛頓以“昆蟲(chóng)識別花朵”為例:

“昆蟲(chóng)可以看到紫外線(xiàn),而人類(lèi)不能,所以在人類(lèi)看來(lái)一模一樣的兩朵花,在昆蟲(chóng)眼中卻可能截然不同。那么能不能說(shuō)昆蟲(chóng)判斷錯誤了呢?昆蟲(chóng)通過(guò)不同的紫外線(xiàn)信號識別出這是兩朵不同的花,顯然昆蟲(chóng)沒(méi)有錯,只是人類(lèi)看不到紫外線(xiàn),所以不知道有區別而已?!?/h4>

我們說(shuō)AI“不懂”什么,會(huì )不會(huì )是過(guò)于以人類(lèi)為中心了?

假如我們認為AI沒(méi)有可解釋性,算不上智能,可會(huì )不會(huì )是即使AI解釋了,我們也不懂?就像“人類(lèi)只有借助機器檢測,看到兩朵花的顏色信號在電磁波譜上分屬不同區域,才能確信兩朵花確有不同?!?/span>

從十幾歲開(kāi)始,就相信“模仿大腦神經(jīng)網(wǎng)絡(luò )”的辛頓,仿佛有某種宗教式的堅定。

于是,在某個(gè)路口,哈薩比斯略有遲疑,而伊利亞·薩特斯基弗則和辛頓一路向前,豪賭到底。

辛頓的人生哲學(xué)是“基于信仰的差異化”,他的確也是如此實(shí)踐的。

如今,盡管哈薩比斯認為ChatGPT僅僅是更多的計算能力和數據的蠻力,但他也不得不承認,這是目前獲得最佳結果的有效方式。

對AI路線(xiàn)的分歧,不過(guò)是一百多年來(lái)某類(lèi)科學(xué)暗涌的延續。???????????

相當長(cháng)的歲月里,在大雪紛飛的多倫多,辛頓幾乎是深度學(xué)習唯一的守夜人。

他本科在劍橋大學(xué)讀生理學(xué)和物理學(xué),其間轉向哲學(xué),拿的是心理學(xué)學(xué)士學(xué)位,后來(lái)再讀了人工智能博士學(xué)位。

辛頓等人在統計力學(xué)中得到靈感,于1986 年提出的神經(jīng)網(wǎng)絡(luò )結構玻爾茲曼機,向有隱藏單元的網(wǎng)絡(luò )引入了玻爾茲曼機器學(xué)習算法。

如下圖,所有節點(diǎn)之間的連線(xiàn)都是雙向的。所以玻爾茲曼機具有負反饋機制,節點(diǎn)向相鄰節點(diǎn)輸出的值會(huì )再次反饋到節點(diǎn)本身。

玻爾茲曼機在神經(jīng)元狀態(tài)變化中引入了統計概率,網(wǎng)絡(luò )的平衡狀態(tài)服從玻爾茲曼分布,網(wǎng)絡(luò )運行機制基于模擬退火算法。

玻爾茲曼機。圖片來(lái)自《圖解人工智能》一書(shū)。

從香農,再到辛頓,他們都從玻爾茲曼那里獲得了巨大的靈感。

將“概率”引入物理學(xué),看起來(lái)非常奇怪。??

人類(lèi)直到19世紀之后,才知道“熱”是物體內部大量分子的無(wú)規則運動(dòng)的表現。那么,為什么熱量總從熱的物體傳到冷的物體??????

玻爾茲曼說(shuō),原子(分子)完全是隨機運動(dòng)的。并非是熱量無(wú)法從冷的物體傳到熱的物體,只是因為:?

從統計學(xué)的角度看,一個(gè)快速運動(dòng)的熱物體的原子更有可能撞上一個(gè)冷物體的原子,傳遞給它一部分能量;而相反過(guò)程發(fā)生的概率則很小。在碰撞的過(guò)程中能量是守恒的,但當發(fā)生大量偶然碰撞時(shí),能量?jì)A向于平均分布。

這其中,沒(méi)有物理定律,只有統計概率。這看起來(lái)非?;闹?。??

堅定的科學(xué)主義者費曼,后來(lái)也提出“概率振幅”,用來(lái)描述物理世界的本質(zhì)。

對此,費曼解釋道:這是不是意味著(zhù)物理學(xué)——一門(mén)極精確的學(xué)科——已經(jīng)退化到“只能計算事件的概率,而不能精確地預言究竟將要發(fā)生什么”的地步了呢?是的!這是一個(gè)退卻!但事情本身就是這樣的:

自然界允許我們計算的只是概率,不過(guò)科學(xué)并沒(méi)就此垮臺。

事實(shí)上,羅素也主張因果關(guān)系的概然性,認為一切規律皆有例外,所以他也不贊成嚴格的決定論。?

也許是因為都持有“自下而上”的世界觀(guān),玻爾茲曼喜歡達爾文,他在一次講座中宣稱(chēng):?????????

“如果你問(wèn)我內心深處的信念,我們的世紀將被稱(chēng)為鋼鐵世紀還是蒸汽或電的世紀呢?我會(huì )毫不猶豫地回答:它將被稱(chēng)為機械自然觀(guān)的世紀,達爾文的世紀?!?/h4>

對達爾文的自然選擇理論,玻爾茲曼認識到,生物之間通過(guò)資源競爭展開(kāi)“一種使熵最小化的戰斗”,生命是通過(guò)捕獲盡可能多的可用能量來(lái)使熵降低的斗爭。

和生命系統一樣,人工智能也是能夠自動(dòng)化實(shí)現“熵減”的系統。??

生命以“負熵”為食,人工智能系統則消耗算力和數據。?

楊立昆估算,需要10萬(wàn)個(gè)GPU才能接近大腦的運算能力。一個(gè)GPU的功率約為250瓦,而人類(lèi)大腦的功率大約僅為25瓦。

這意味著(zhù)硅基智能的效率是碳基智能的一百萬(wàn)分之一。

所以,辛頓相信克服人工智能局限性的關(guān)鍵,在于搭建“一個(gè)連接計算機科學(xué)和生物學(xué)的橋梁”。

十一

達·芬奇曾說(shuō)過(guò):“簡(jiǎn)單是終極的復雜?!?/span>

牛頓那一代相信上帝的科學(xué)家,認為神創(chuàng )造這個(gè)世界時(shí),一定運用了規則。

他們只管去發(fā)現規則,而不必在意暫時(shí)的不可理解。例如,萬(wàn)有引力公式為什么長(cháng)成那樣?為什么要和距離的平方成反比?

另一方面,牛頓們信奉奧卡姆剃刀的原則,認為世界的模型基于某些簡(jiǎn)潔的公式。他們至少相信存在某個(gè)這樣的公式,從愛(ài)因斯坦到霍金,莫不如是。

然而在不確定性時(shí)代,概率似乎比決定論派更能解釋這個(gè)世界。牛頓式的確定退縮到了有限的領(lǐng)域。

也許費曼是對的,科學(xué)家是在用一個(gè)篩網(wǎng)檢驗這個(gè)世界,某些時(shí)刻似乎所有的現象都能通過(guò)篩孔,但如今我們知道多么完備的科學(xué)都只是暫時(shí)的解釋?zhuān)皇菚簳r(shí)未被證偽的篩網(wǎng)。但這并不影響我們向前。

還有一種哲學(xué)認為,世界本身就是在為自己建模。試圖用一個(gè)大一統理論解釋世界幾乎是不可能的,更何況宇宙還在繼續膨脹。

從以上有趣但略顯含混的角度看,ChatGPT是用一種反愛(ài)因斯坦的方式為世界建模。它有如下特點(diǎn):

1、是概率的,而非因果的;

2、盡可能地去模擬人類(lèi)世界這一“大模型”,從經(jīng)驗中學(xué)習和進(jìn)化,而非去探尋第一原理;

3、它信奉(至少暫時(shí)如此)“復雜是終極的簡(jiǎn)單”;

4、它驅逐了神。因為它自己越來(lái)越像一個(gè)神。

AI和人類(lèi)別的熱鬧事物一樣,經(jīng)常會(huì )有周期性的熱潮。

上一波是2016年,熱起來(lái),然后又慢慢靜下來(lái)。

七年過(guò)去了,AI再次熱起。Open AI照例沒(méi)有打開(kāi)“黑盒子”,卻帶來(lái)了影響力更為廣泛的浪潮。

這一次,廣泛性似乎戰勝了專(zhuān)業(yè)性。人們似乎更關(guān)注那個(gè)會(huì )畫(huà)畫(huà)的、可能替代自己摸魚(yú)的AI,而不是那個(gè)能戰勝世界冠軍、能研究蛋白質(zhì)折疊解決人類(lèi)頂尖難題的AI。

這其中有多少是工程的突破和技術(shù)的飛躍?有多少是商業(yè)驅動(dòng)下的大力出奇跡?有多少是人類(lèi)社會(huì )慣常的泡沫?

毋庸置疑,人類(lèi)過(guò)往的偉大突破,不少都是在多種理性和非理性力量的交織之下實(shí)現的。

這里面的機會(huì )是:

1、賣(mài)水者。如英偉達,Scale AI等;

2、新平臺的出現。會(huì )有超級應用突破微軟和谷歌等巨頭無(wú)敵的新瓶裝老酒嗎?

3、新平臺既有通過(guò)生產(chǎn)力的提升創(chuàng )造的新價(jià)值空間,如各種全新的產(chǎn)品和服務(wù),也有對舊有價(jià)值空間的掠奪;

4、也許會(huì )有iPhone的顛覆者,以及圍繞其展開(kāi)的各種應用和服務(wù);???

5、AI會(huì )成為基礎設施。

但是,水和電成為基礎設施,互聯(lián)網(wǎng)成為基礎設施,與AI成為基礎設施,絕非簡(jiǎn)單的類(lèi)比或升級。

大概的趨勢也許是,商業(yè)上的壟斷與兩極分化會(huì )更加殘酷。職業(yè)上,或許中間階層會(huì )更加無(wú)望;

6、因為AI極其耗電,能源領(lǐng)域大有可為;????????????

7、“場(chǎng)景”和“應用”會(huì )有機遇。尤其是那些能夠較好地利用AI平臺實(shí)現人機結合的場(chǎng)景與應用。

8、對個(gè)體而言,我們要問(wèn)的是,AI還需要人類(lèi)充當新基礎設施和新系統的類(lèi)似于“操作員、司機、程序員、快遞員”的新時(shí)代角色嗎?

十二

人工智能的變遷,幾乎對應著(zhù)人類(lèi)認知世界的變遷結構。

從確定性到不確定性,從物理定律到統計概率,物理和信息交匯于“”,并以類(lèi)似的達爾文觀(guān)念,進(jìn)化出有生命的熵減系統。

在這個(gè)愈發(fā)茫然的世界里,AI在疫情后時(shí)代獲得了世人額外的關(guān)切;

諸神已被人類(lèi)背棄,算法用強大而未知的相關(guān)性替代了神秘主義因果霸權,仿佛成為新神。

真實(shí)與信念,確定與隨機,意識與虛無(wú),再次于大眾的狂歡之中,對峙在時(shí)代的斷崖邊緣。

從樂(lè )觀(guān)的角度看,牛頓的信徒和達爾文的信徒也許可以攜手,借助于尚不知進(jìn)化邊界何在的人工智能,去突破人類(lèi)的智慧疆界。??????????

哈耶克說(shuō):“一個(gè)秩序之所以可取,不是因為它讓其中的要素各就其位,而是在這個(gè)秩序上能夠生長(cháng)出其他情況下不能生長(cháng)出的新力量?!?/span>

迄今為止,我們尚不能定義什么是智能,什么是意識。??????

然而,卻有一個(gè)黑乎乎的盒子,告訴我們可能會(huì )超越人類(lèi)的智能,甚至涌現出人類(lèi)的意識。

微軟的報告中這樣寫(xiě)道:

我們沒(méi)有解決為什么以及如何實(shí)現如此卓越的智能的基本問(wèn)題。它是如何推理、計劃和創(chuàng )造的?

當它的核心只是簡(jiǎn)單的算法組件--梯度下降和大規模變換器與極其大量的數據的結合時(shí),它為什么會(huì )表現出如此普遍和靈活的智能?

AI研究人員承認,智能是否可以在沒(méi)有任何代理或內在動(dòng)機的情況下實(shí)現,是一個(gè)重要的哲學(xué)問(wèn)題。

在2023年的這個(gè)并不容易的春天,我對ChatGPT的態(tài)度坦然而期待:

我希望見(jiàn)到它所具備的可能性,為這個(gè)混亂的世界帶來(lái)某些“熵減”。??

在所有預測中,我期待Kurzweil的那個(gè)“2030 年技術(shù)將使人類(lèi)享受永生”的預言。

我自己對永生沒(méi)興趣,但不想失去身邊的人們。我對世俗的依賴(lài)大過(guò)對“超人類(lèi)主義”的擔憂(yōu)。

我不太相信意識的上傳,因為一旦上傳,就可以復制,就不是唯一的,就失去了自由意志,又談何“意識”呢??

人類(lèi)會(huì )洞察大腦最深層次的秘密嗎?湯姆·斯托帕警告過(guò):

“當我們發(fā)現了所有的奧秘,并失去了所有的意義時(shí),我們將會(huì )在空蕩蕩的海邊孤身一人?!?/h4>

哥德?tīng)柕摹安煌陚湫远ɡ怼备嬖V我們,不確定性是人類(lèi)認識的形式邏輯思維本身所固有的。

一個(gè)計算機可以修改自身的程序,但不能違背自身的指令——充其量只能通過(guò)服從自身的指令來(lái)改變自身的某些部分。

哥德?tīng)査闶菫锳I,為人類(lèi)劃定了邊界嗎?否則,人類(lèi)制造超級AI,然后拜其為神,何嘗不是自我奴役??

哥德?tīng)栍指嬖V我們,人類(lèi)永遠可以在“實(shí)在主義”中通過(guò)“直觀(guān)和直覺(jué)”引入構成高一級形式系統的新東西,建立新公理系統,如此推進(jìn)以至無(wú)窮。

這就是彭羅斯所持的那種“人心超過(guò)計算機”的觀(guān)念。

最后

上一次,七年前,在阿爾法狗面前,人類(lèi)曾經(jīng)哭泣過(guò);

這一次,無(wú)人哭泣,卻有萬(wàn)眾狂歡。

在兩次AI高潮之間的7年里,我們經(jīng)歷了許多,失去了許多。

人們渴望擁抱某些希望,某些確定性,即使那些確定性來(lái)自一些不確定性的智慧。????

就我自己而言,也遭遇了一些前所未有的艱難時(shí)刻。所謂艱難,并非指一些困難的抉擇,也并非說(shuō)沒(méi)有選項。???????

恰恰相反,依照最優(yōu)決策原理,我很容易通過(guò)期望值計算,得出最佳選項,獲得所謂最大化的收益。

然而,我追溯到內心的源頭,重新定義了自己的期望效用,然后據此做出了有點(diǎn)兒辛頓風(fēng)格的基于信仰的差異化”選擇。??????

對任何一個(gè)人而言,不管是難是易,是聰明是愚蠢,是理性是任性,這種事兒在技術(shù)層面都只算小菜一碟。

可對AI來(lái)說(shuō),自己去定義期望效用,暫時(shí)難于登天。??

所以,研究人員稱(chēng),為“大型語(yǔ)言模型”配備代理權和內在動(dòng)機是未來(lái)工作的一個(gè)迷人的重要方向。

而“代理權”與“內在動(dòng)機”這兩點(diǎn),一個(gè)普通人類(lèi)只需要一秒鐘或者幾個(gè)不眠之夜即可實(shí)現。??

或許關(guān)鍵不在于得失,不在于效用函數,而在于“存在”。

如伊塔洛·卡爾維諾所言:

“隨著(zhù)時(shí)光流逝,我慢慢地明白了,只有存在的東西才會(huì )消失,不管是城市,愛(ài)情,還是父母?!?/h4>

在本文開(kāi)篇寫(xiě)到的傳奇故事里,掃地少年皮茨和教授麥卡洛克兩人之間非凡的友誼直至終生。???

比起電影《心理捕手》里的心理學(xué)教授“威廉姆斯”,麥卡洛克對皮茨的情感更為深厚,充滿(mǎn)了父親般的愛(ài),和學(xué)術(shù)上的“琴瑟和鳴”。

后來(lái),當麥卡洛克與控制論之父維納產(chǎn)生決裂,皮茨毫不猶豫地站在了麥卡洛克一邊,盡管維納是他的博士生導師,幾乎能夠左右他在學(xué)術(shù)界的前程。皮茨甚至為此燒掉了自己的論文。????????

他如街頭少年般熱血而沖動(dòng)。

不久以后,皮茨繼續遭遇了學(xué)術(shù)上的打擊,有個(gè)實(shí)驗表明,似乎邏輯并未如他的理論所預期般決定大腦的思維過(guò)程。

這個(gè)鍋爐工的孩子再次回到命運的枷鎖之中。曾經(jīng)點(diǎn)燃他灰暗歲月的對數學(xué)和邏輯的激情,以及關(guān)于人工智能的天才般的構想,一點(diǎn)點(diǎn)被世俗的煙塵淹沒(méi)了。????????

隕落中的天才用血脈中無(wú)法斬斷的自我毀滅,來(lái)違背自己無(wú)與倫比的邏輯天賦。皮茨開(kāi)始酗酒,最后在寄宿之家孤獨死去,年僅46歲。???

四個(gè)月后,麥卡洛克也在同一年去世了。?

許多年后,當人們追溯神經(jīng)網(wǎng)絡(luò )波瀾起伏的發(fā)展歷程,總會(huì )來(lái)到起點(diǎn):麥卡洛克和皮茨共同構建的豐碑。??????

就像我們來(lái)到大江大河的源頭,發(fā)現不過(guò)是一處小小的溪流。

哥德?tīng)栐谡軐W(xué)手稿中留下一句話(huà):世界的意義就在于事實(shí)與愿望的分離,即事與愿違。

我更愿意用紀伯倫的話(huà)語(yǔ)來(lái)代替哥德?tīng)柕拿糟?,盡管就底層而言也許是同一件事。詩(shī)人說(shuō):

我們活著(zhù)只為了去發(fā)現美,其他一切都是等待的種種形式。

聲明:本文內容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權轉載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習之用,如有內容侵權或者其他違規問(wèn)題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò )

    關(guān)注

    42

    文章

    4593

    瀏覽量

    99387
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    27203

    瀏覽量

    264961
  • 人工智能
    +關(guān)注

    關(guān)注

    1781

    文章

    44785

    瀏覽量

    231981
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1485

    瀏覽量

    5669
收藏 人收藏

    評論

    相關(guān)推薦

    使用espbox lite進(jìn)行chatgpt_demo的燒錄報錯是什么原因?

    我使用espbox lite進(jìn)行chatgpt_demo的燒錄 我的idf是v5.1release版本的,espbox是master版本的 在編譯時(shí)似乎沒(méi)有什么問(wèn)題 在燒錄時(shí)報錯 請問(wèn)這是什么原因
    發(fā)表于 06-11 08:45

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來(lái)了

    當地時(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎上,這種迭代擁有顯著(zhù)的改進(jìn)。在發(fā)布會(huì )的演示中,OpenAI展示該模型的高級
    發(fā)表于 05-27 15:43

    在FPGA設計中是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開(kāi)發(fā)領(lǐng)域都可看到ChatGPT的身影,FPGA設計中,是否也可以用ChatGPT輔助設計呢?
    發(fā)表于 03-28 23:41

    【國產(chǎn)FPGA+OMAPL138開(kāi)發(fā)板體驗】(原創(chuàng ))6.FPGA連接ChatGPT 4

    方面。而且,由于ChatGPT 4是一個(gè)大型的語(yǔ)言模型。通常,FPGA會(huì )用于處理一些底層的數據流或執行特定的硬件加速任務(wù),而ChatGPT 4這樣的模型則會(huì )在云端或高性能服務(wù)器上運行。不過(guò)
    發(fā)表于 02-14 21:58

    ChatGPT原理 ChatGPT模型訓練 chatgpt注冊流程相關(guān)簡(jiǎn)介

    ChatGPT注冊沒(méi)有外國手機號驗證怎么辦? ChatGPT作為近期火爆網(wǎng)絡(luò )的AI項目,受到了前所未有的關(guān)注。我們可以與AI機器人實(shí)時(shí)聊天,獲得問(wèn)題的答案。但受ChatGPT服務(wù)器及相關(guān)政策
    的頭像 發(fā)表于 12-06 16:28 ?507次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b>模型訓練 <b class='flag-5'>chatgpt</b>注冊流程相關(guān)簡(jiǎn)介

    不到1分鐘開(kāi)發(fā)一個(gè)GPT應用!各路大神瘋狂整活,網(wǎng)友:ChatGPT就是新iPhone

    這個(gè)說(shuō)法并不準確。盡管ChatGPT等語(yǔ)言模型已經(jīng)在一定程度上改變了我們獲取信息、學(xué)習知識的方式,但它們并不能替代人類(lèi)進(jìn)行創(chuàng )造性思考和創(chuàng )造性活動(dòng)。 雖然一些人可能會(huì )利用ChatGPT等語(yǔ)言模型快速
    發(fā)表于 11-19 12:06

    AI數字人操作的底層邏輯

    AI數字人的底層邏輯主要基于兩種操作機制。一種是智能驅動(dòng)型數字人,這種類(lèi)型的數字人通過(guò)智能系統自動(dòng)讀取和解析外界輸入信息,然后根據解析結果決策數字人后續的輸出文本,最后驅動(dòng)人物模型生成相應的語(yǔ)音
    的頭像 發(fā)表于 11-14 17:51 ?690次閱讀

    如何使用Rust創(chuàng )建一個(gè)基于ChatGPT的RAG助手

    如今,ChatGPT 已經(jīng)成為家喻戶(hù)曉的名字,每個(gè)開(kāi)發(fā)者都主動(dòng)或被動(dòng)地使用過(guò) ChatGPT 或者是基于 ChatGPT 的產(chǎn)品。ChatGPT 很好,但是應用到實(shí)際工作與生活場(chǎng)景,
    的頭像 發(fā)表于 10-24 17:34 ?693次閱讀
    如何使用Rust創(chuàng  )建一個(gè)基于<b class='flag-5'>ChatGPT</b>的RAG助手

    ChatGPT Plus怎么支付 開(kāi)通ChatGPT plus有什么功能?

    ChatGPT Plus怎么支付?探索AI的未來(lái)——ChatGPT 4.0開(kāi)通付費教程 在人工智能的世界里,OpenAI的ChatGPT 4.0就像一顆璀璨的星星?,以其卓越的自然語(yǔ)言處理能力
    的頭像 發(fā)表于 10-10 16:01 ?3813次閱讀
    <b class='flag-5'>ChatGPT</b> Plus怎么支付 開(kāi)通<b class='flag-5'>ChatGPT</b> plus有什么功能?

    ChatGPT plus多少錢(qián)一個(gè)月 ChatGPT Plus國內代充教程

    ChatGPT plus多少錢(qián)一個(gè)月? OpenAI推出ChatGPT付費訂閱版ChatGPT Plus,每月收費20美元。 ChatGPT Plus付費訂閱模式即使在免費版本滿(mǎn)負荷的
    的頭像 發(fā)表于 08-14 18:24 ?5953次閱讀
    <b class='flag-5'>ChatGPT</b> plus多少錢(qián)一個(gè)月 <b class='flag-5'>ChatGPT</b> Plus國內代充教程

    chatgpt是什么意思 chatgpt有什么用

      本文旨在幫助未使用過(guò) ChatGPT,以及正在使用的朋友一些入 門(mén)和進(jìn)階的指引。作者自 ChatGPT 上線(xiàn)就開(kāi)始使用,已經(jīng)有兩個(gè)多月的使用經(jīng) 驗。*本文不討論 ChatGPT 注冊,B 站上
    發(fā)表于 07-19 14:21 ?3次下載

    chatgpt是什么意思 ChatGPT背后的技術(shù)原理

      今天我們?yōu)榇蠹規?lái)的文章,深入淺出地闡釋了ChatGPT背后的技術(shù)原理,沒(méi)有NLP或算法經(jīng)驗的小伙伴,也可以輕松理解ChatGPT是如何工作的?! ?b class='flag-5'>ChatGPT是一種機器學(xué)習自然語(yǔ)言處理模型
    發(fā)表于 07-18 17:12 ?0次下載

    chatgpt怎么用 ChatGPT的多種使用方法

    進(jìn)行對話(huà)?! ?. 文本生成:ChatGPT可以用于生成各種類(lèi)型的文本,包括文章、新聞、小說(shuō)、詩(shī)歌等等。通過(guò)對大量文本數據的學(xué)習,ChatGPT可以生成具有一定邏輯和語(yǔ)法的文本。
    發(fā)表于 07-18 14:47 ?7次下載

    chatgpt是什么原理

    ChatGPT 是 OpenAI 發(fā)布的最新語(yǔ)言模型,比其前身 GPT-3 有顯著(zhù)提升。與許多大型語(yǔ)言模型類(lèi)似,ChatGPT 能以不同樣式、不同目的生成文本,并且在準確度、敘述細節和上下文連貫性
    發(fā)表于 06-27 13:57 ?246次閱讀

    ChatGPT 是什么

    應用。 ChatGPT基于自然語(yǔ)言處理技術(shù)和神經(jīng)網(wǎng)絡(luò )模型,可以學(xué)習和理解人類(lèi)語(yǔ)言的語(yǔ)法和語(yǔ)義,并能夠生成具有連貫性和邏輯性的自然語(yǔ)言文本,從而模擬人類(lèi)對話(huà)的過(guò)程。 發(fā)展背景 ChatGPT 的發(fā)展背景可以追溯到 2015 年谷歌
    發(fā)表于 06-27 13:55 ?2079次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看