首頁>資訊 >
天天資訊:認(rèn)知 ChatGPT 的過程就是消除偏見的過程 2023-03-30 20:46:25  來源:36氪

近期花了一些時(shí)間繼續(xù)學(xué)習(xí) ChatGPT,體會(huì)到了認(rèn)知 ChatGPT 的整個(gè)過程,就是在消除我自己偏見的過程。其中存在大量信息不對(duì)稱的地方。哪怕關(guān)于 ChatGPT 的討論這么多了,噪音里面有價(jià)值的信息也并不總是好找。


(資料圖片)

接下來就分享一些觀點(diǎn)。

1. 重點(diǎn)并不是「聊天機(jī)器人」

首先,對(duì)于 ChatGPT 來說,它帶來的大家提到的 AI 的革命性進(jìn)展,壓根不是做出了好用的 chatbox,或者說聊天機(jī)器人。

換句話說,它并不意味著,我們的生活和工作里并不會(huì)有太大變化,主要的變化就是多了一個(gè)聊天機(jī)器人。如果按照這個(gè)前提條件去聊,它看起來就不是革命性的。

要真如此的話,憑什么說它是 iPhone 時(shí)刻?

真實(shí)情況是,聊天只是 OpenAI 做的一個(gè)演示,用它來做 demo,讓大家很好的看到了 GPT 這個(gè)模型的威力。在這個(gè)威力之外,大家還是只覺得它是聊天機(jī)器人,這就是一個(gè)啼笑皆非的事了。

當(dāng)然,我們都知道,這個(gè)聊天機(jī)器人是 OpenAI 團(tuán)隊(duì)用來獲取真實(shí)世界對(duì)話的方法,用它來繼續(xù)迭代訓(xùn)練模型,來強(qiáng)化學(xué)習(xí)的 RLHF 的一個(gè)方法。選擇開放給用戶的這條路線,看起來好像常見,或者說之前也見過,但實(shí)際上在科研領(lǐng)域這是一個(gè)非常歪門邪道、一個(gè)非常不主流的方式。

之前不管是企業(yè)還是高校,以前大家做這方面的研究,不管是大模型還是 AI 方面的研究,都是用做題家的思路,就是用各種學(xué)術(shù)界的評(píng)測(cè),如 20 個(gè)專家標(biāo)注的確定性的 QA 問答題來完成。都是命題作文。

但現(xiàn)在 OpenAI 說,我不參加這些考試,我不參加這做題,我也不去跟你比論文數(shù),就是把模型扔到人民群眾的汪洋大海里去。

現(xiàn)實(shí)就是,很會(huì)寫高考作文,和很會(huì)跟人聊天,確實(shí)是兩碼事。所以使用 ChatGPT 的時(shí)候有很多方式就不對(duì),比如我自己作為一個(gè)可能稍微了解 NLP 的,或者了解產(chǎn)品、技術(shù)實(shí)現(xiàn)邏輯的,我就會(huì)去想:這個(gè)是不是難為他了?這個(gè)他肯定不會(huì)吧?我就不問了。

當(dāng)知道他是個(gè)機(jī)器,就容易擔(dān)心給的前提條件不夠。它胡說八道,給一些錯(cuò)誤的答案,我是有奇怪的愧疚感的。所以就潛意識(shí)里特別照顧它,把問題表述得格外完整才問出來。

這樣結(jié)果就是不夠真實(shí)。包括我做 NLP 的一些老同學(xué),他們也會(huì)帶著很多假設(shè)和前提條件去問,他們問的都不是正常人聊天會(huì)問的。而現(xiàn)在用 ChatGPT 的大部分的人不是產(chǎn)品或者技術(shù)背景,并不知道背后的原理,所以問出來的就更真實(shí)。OpenAI 最初也是用格外真實(shí)的語料去做訓(xùn)練,所以能訓(xùn)練出來 ChatGPT 的效果。

2.很多當(dāng)下的問題,都是技術(shù)性問題

認(rèn)知的另一個(gè)偏差是,它就是一個(gè)終態(tài)了。于是會(huì)認(rèn)為它的很多問題,代表它不智能。

比如說 ChatGPT 搜的信息不準(zhǔn)確,以及胡說八道。很多朋友都會(huì)這么覺得,問了幾個(gè)問題,發(fā)現(xiàn)不對(duì),就認(rèn)為 ChatGPT 沒有什么大家說的那么的有價(jià)值。

對(duì)于信息準(zhǔn)確性的問題其實(shí)是好解決的,而且必然會(huì)解決。因?yàn)楝F(xiàn)在使用的模型,并不是在一句一句的學(xué),不是像某些人想象的一樣,在跟每個(gè)人溝通的時(shí)候來現(xiàn)學(xué)現(xiàn)賣(當(dāng)然在聊上下文的時(shí)候,它會(huì)考慮上下文,這個(gè)可以定義為短時(shí)的學(xué)習(xí))。背后所用的大模型,實(shí)際是一個(gè)用 2021 年的語料訓(xùn)練的固定的模型,這個(gè)底層的模型是沒有實(shí)時(shí)進(jìn)化能力的。

那為什么信息準(zhǔn)確這個(gè)問題好解決?這個(gè)后面一起說。

另外一種常見說法是,ChatGPT 既然是一個(gè)生成式的工具,所以應(yīng)該是能幫助甚至替代內(nèi)容創(chuàng)作者的。目前看起來,這方面的水平有限。有可能幫忙寫個(gè)周報(bào),幫忙潤(rùn)色一下文字,幫忙寫個(gè)小紅書筆記等等,哪怕這種簡(jiǎn)單的工作,大家也發(fā)覺了,寫出來的 AI 感非常強(qiáng)、并不是很擅長(zhǎng)用人的語氣表達(dá),能明顯感覺到他整個(gè)表述的方式是有一種奇奇怪怪的感覺,這種感覺就讓人心懷疑慮:這個(gè)所謂的 AI,不也模仿不了人的語氣嗎?你看,人類還是有一些所謂「靈魂」的部分存在的,AI 寫內(nèi)容,就是沒有靈魂。

而很殘酷的是,我也認(rèn)為,內(nèi)容創(chuàng)作的風(fēng)格和語氣也不是大問題,依然是個(gè)技術(shù)性問題,因?yàn)?AI 最擅長(zhǎng)的就是模仿,對(duì)于文本的模仿反而是相對(duì)來說容易的。只不過一方面,因?yàn)?ChatGPT 是基于英文語料主要訓(xùn)練的(中文語料只有 1% 左右),所以在中文的表達(dá)上會(huì)有比較大的問題,翻譯體很明顯。

另外就是ChatGPT本身就被刻意訓(xùn)練了。它目前這樣的語氣和表達(dá)風(fēng)格,是訓(xùn)練出來的,不是 AI 天然就是這樣的。因此說這是個(gè)技術(shù)性的問題。比如說之前 AI 繪圖剛出來的時(shí)候,大家當(dāng)然就習(xí)慣性基于當(dāng)時(shí)的版本去考察,說 AI 能畫成這樣還不錯(cuò),但是 AI 畫的圖還都有 AI 感。這個(gè)所謂的 AI 感大概意思就是光影的問題、細(xì)節(jié)的問題(比如畫手),這個(gè) AI 感在 Midjourney v5 里消除得差不多了。因?yàn)檫@就是個(gè)可訓(xùn)練的技術(shù)性問題。

(這是我用 Midjourney 畫的愛因斯坦和霍金,歷史上不存在這兩張照片)

所以 ChatGPT 信息準(zhǔn)確度的問題,內(nèi)容表達(dá)和語氣的問題,人格的問題,都是技術(shù)問題??赡芫蜁?huì)有朋友問了,那你說都是技術(shù)問題,那 AI 發(fā)展了這么多年了,可不是每個(gè)都是技術(shù)問題嗎?為什么 ChatGPT 就不一樣呢?

3. 重要的是「理解和推理」

ChatGPT 最特殊的地方,是揭示了一種可能性,即 AI 可以呈現(xiàn)理解和推理能力了。這是過去大半個(gè)世紀(jì)的學(xué)者們所一直追求,而不可得的。

這里要簡(jiǎn)單說一下 GPT 背后的邏輯。首先語言模型是很早就有的, 10 年前我讀研的時(shí)候,如果學(xué) NLP,你翻開教材的第一頁可能就能看到語言模型,就跟學(xué)高等數(shù)學(xué)第一課都是先學(xué)函數(shù)一樣,不是什么新鮮的、現(xiàn)在才發(fā)明出來的成果。

為什么作為一個(gè)語言模型,大家這么驚奇?并非由于它可以對(duì)話了、能寫所謂一碗水端平的片兒湯文章了,更不是能獲取什么信息和知識(shí),而是在這個(gè)大語言模型當(dāng)中體現(xiàn)了推理。

體現(xiàn)了推理是一個(gè)事實(shí)論述。說到這里,必然會(huì)有一些朋友,援引很多人包括知名學(xué)者的說法來反駁,說語言模型只是統(tǒng)計(jì)的模型,因此不能稱之為理解和推理。

這里也不妨多說幾句大語言模型的邏輯。最基礎(chǔ)的很簡(jiǎn)單,依據(jù)上文,預(yù)測(cè)下一個(gè)詞。過去能力不足,是根據(jù)一兩個(gè)詞預(yù)測(cè)下一個(gè)詞,后來出現(xiàn)了更多的算法和更好的硬件,于是可以預(yù)測(cè)更多的上下文了。像現(xiàn)在 ChatGPT 就能依據(jù)幾千個(gè)字符去做預(yù)測(cè),這歸功于有如神助的 Transformer 算法。

但是,大語言模型依然還是一個(gè)猜詞游戲,是統(tǒng)計(jì)意義上的一個(gè)算法,它沒有別的復(fù)雜思考,就是從海量的記憶(模型)里,搜尋出最有可能出現(xiàn)的下一個(gè)詞。

所以很自然,聽起來,無論誰都會(huì)覺得,這種統(tǒng)計(jì)邏輯的語言模型,恐怕只能解決記憶問題,不能解決邏輯問題。就像我們讀了很多書籍、文獻(xiàn)、維基百科、百度百科等等各種知識(shí)。那接下來我們能做的是什么?很明確的,可能做一個(gè)好翻譯,或者能寫一篇像模像樣的文章,但是搞別的應(yīng)該是不行的。畢竟是個(gè)復(fù)讀機(jī)嘛,是個(gè)「模糊的印象」(a Blurry JPEG of the Web)嘛(這是科幻作家Ted Chiang 對(duì) ChatGPT 的評(píng)價(jià),已經(jīng)被更多人認(rèn)為是偏見了)。

不管怎么去想象這個(gè)算法邏輯,我們都很難想象只是記憶,就能產(chǎn)生邏輯。這在 2022 年之前都是天方夜譚,而 2022 年底過后,ChatGPT 讓這變成了一個(gè)可能性。

為什么 ChatGPT 在一個(gè)詞兒一個(gè)詞兒蹦的時(shí)候就呈現(xiàn)了邏輯?這依然是個(gè)科學(xué)上的未解之謎,以及都在爭(zhēng)論不休的話題。畢竟我們想象中,一段有邏輯的文字,應(yīng)該是先設(shè)定主題,再想框架和段落,再去落筆的。

這里要特別補(bǔ)充一點(diǎn):表現(xiàn)出了推理和邏輯能力,與本質(zhì)上有沒有推理和邏輯能力,是兩碼事。前者是個(gè)事實(shí)問題,已經(jīng)可以說是公認(rèn)了,從原理上反駁意義不大,用過即知;后者則是個(gè)哲學(xué)問題,還在爭(zhēng)論之中。

什么叫有邏輯能力很早就是學(xué)術(shù)界有爭(zhēng)議的話題,從控制論出現(xiàn)就在討論「看起來的智能是不是智能」的問題了。同時(shí),人腦運(yùn)作的很多原理目前尚不清楚,如何產(chǎn)生的邏輯推理,也不清晰。

很奇妙的是,在目前的模型中,「think step by step」是一個(gè)很好用的咒語,跟人的思考是很像的,機(jī)器只要不是直接給結(jié)果,而是多想幾步,就能呈現(xiàn)非常好的效果。

這些都是題外話了。實(shí)際上對(duì)產(chǎn)學(xué)研而言最驚訝和最興奮的,不是討論本質(zhì)上有沒有推理和邏輯能力,而是表現(xiàn)上有沒有

4. 通往通用人工智能之路

OpenAI在這個(gè)大語言模型上做了什么,把 GPT 以及 ChatGPT 做出來的?其實(shí)沒做太多算法上的、底層規(guī)則上的很復(fù)雜的事情。而是用很工程的手段,甚至堪稱暴力的手段去訓(xùn)練,然后反復(fù)地調(diào)試。

所以一個(gè)非常古老的、已經(jīng)長(zhǎng)滿了青苔的語言模型,居然可以實(shí)現(xiàn)有推理能力的高水準(zhǔn)的 AI,非常叫人意外。追求 AGI 的路,從 1956 年達(dá)特茅斯會(huì)議實(shí)際已經(jīng)啟航了,明斯基、麥卡錫、司馬賀、紐厄爾這些人工智能的創(chuàng)始人,本來預(yù)期是十年二十年就實(shí)現(xiàn)的夢(mèng)想,花了大半個(gè)世紀(jì),依然進(jìn)展不大。

學(xué)者們最開始想的,跟大多數(shù)人想象的 AI 必須先學(xué)的一步是類似的,就是學(xué)習(xí)推理。他們被稱為符號(hào)派,就是把世間萬物的所有的邏輯和知識(shí)抽象出來,把它們變成形式語言,像數(shù)學(xué)題一樣可以計(jì)算與推演,一生萬物,不就是智能嗎?這條路一度是人工智能的主流派系,一直到 20-30 年后,嘗試了各種各樣的方向,發(fā)覺全都被堵死了。

接下來就是統(tǒng)計(jì)學(xué)習(xí)和深度學(xué)習(xí)的時(shí)代,就是讓機(jī)器去自我消化數(shù)據(jù),它就能解決問題。這時(shí)候的學(xué)者們更落地、更實(shí)在了,不關(guān)心 AGI,而是關(guān)心垂直課題了,比如說人臉識(shí)別、自動(dòng)駕駛、下圍棋和玩游戲等等,這些似乎都是做的還不錯(cuò)的。語言模型也在其中,大家認(rèn)為它能解決一些問題(谷歌翻譯和百度翻譯就是語言模型的邏輯),顯然不能解決一切問題。

而 ChatGPT 的啟示,就像說有一個(gè)田徑隊(duì),短跑、長(zhǎng)跑、接力跑、馬拉松等等運(yùn)動(dòng),有不同的教練去用不同的方法訓(xùn)練,畢竟是不同的課題。但是今天,有一個(gè)教練,用了全新的方法訓(xùn)練了一個(gè)隊(duì)員,發(fā)現(xiàn)這隊(duì)員跑啥都行,接力跑、長(zhǎng)跑、短跑都能拿好的名次,甚至跑去試了試扔鉛球也是前幾名,扔標(biāo)槍也是前幾名,跳鞍馬也是前幾名,他不一定都能拿到第一,但這個(gè)效果大家非常驚訝。

還是前文說的,有邏輯、能從信息中發(fā)掘知識(shí),并不是個(gè)值得爭(zhēng)論的問題,它是個(gè)事實(shí)。很多學(xué)者花了很多年研究,怎樣讓機(jī)器識(shí)別詞性(形容詞、動(dòng)詞、名詞等),這是個(gè)專有課題,而詞性標(biāo)注的效果,ChatGPT 也完成得很好。類似的課題,非常大量。用三體的話說,說許多學(xué)者、博士們還在研究的NLP 的中間課題不存在了,一點(diǎn)兒也不為過。哪怕不提這些研究課題,注冊(cè)使用下 GPT-4,你肯定也會(huì)有體感,這種體感是不會(huì)說謊的。

那么 AI 有了邏輯和理解能力,能做什么呢?能做太多了。

前面說的技術(shù)性的問題,反而可以交給一些基于規(guī)則的產(chǎn)品解決。例如,ChatGPT 自己可能信息不全,但它能比很多人更好地查到所要的信息,而不只是把網(wǎng)頁排個(gè)序;ChatGPT 自己可能不會(huì)寫很厲害的文章,但經(jīng)過一個(gè)熟練的寫手訓(xùn)練之后,確實(shí)能理解你想要什么,就能變成一個(gè)有固定文風(fēng)的寫手;原生的 ChatGPT 可能完全不知道怎么使用 Word,但是讓它看大量的人是怎么使用的,很快也就能學(xué)會(huì)了。

這才是 ChatGPT 最不一樣的地方:它比之前所有的 AI 都更像一個(gè) AI。當(dāng) AI 這個(gè)詞在 1956 年出現(xiàn)的時(shí)候,大家想象的是一個(gè)智能的東西,而現(xiàn)在,它真的出現(xiàn)了,至少有了真正智能的可能性。這一點(diǎn)在學(xué)術(shù)圈和科研領(lǐng)域最早引起了轟動(dòng),可能比普通用戶的震驚程度還要大。

之前是大家看不到通往通用人工智能的路的,所以 ChatGPT 的意義不是聊天機(jī)器人本身,而是這個(gè)新的范式,揭示了一種全新的可能性。未必是唯一的可能性,但確實(shí)是一種可能性。過去從來沒有過的可能性。

5. 繼續(xù)推演未來

接下來可能會(huì)發(fā)生什么呢?我觀察和思考到了 7 個(gè)方面,分享一下。

第一:不光 AI 的企業(yè)都得投入大模型,而且很快會(huì)進(jìn)入工程上的軍備競(jìng)賽。

這里跟很多朋友想的不一樣,大模型不是比參數(shù)量。如果去搜參數(shù)量的模型,快手還官方自豪地發(fā)布過一個(gè)有萬億參數(shù)量的模型,當(dāng)然跟 GPT-3 也沒法比。

同時(shí),也不是單純比數(shù)據(jù)多少。數(shù)據(jù)確實(shí)是一個(gè)壁壘,但是還有一個(gè)更加核心的競(jìng)爭(zhēng)力,即調(diào)試工程。比如對(duì)于百度,之前做的文心大模型,底層數(shù)據(jù)量真的不比 OpenAI 的少,或者很有肯跟底層的模型都不一定比 GPT-3 的質(zhì)量差。只是完全沒有采用 ChatGPT 的方法訓(xùn)練(InstructGPT),也就是怎么激發(fā)。激發(fā)也是非常玄學(xué)和魔幻,OpenAI 有一個(gè)人數(shù)不小的工程團(tuán)隊(duì),專門通過語料和代碼,做激發(fā)和調(diào)試,讓它變得更智能。

這可以說是最后畫龍點(diǎn)睛的一步。就像說有一個(gè)天分特好的小孩,需要調(diào)教,而如何調(diào)教是不存在一個(gè)很確定性的方法論的,調(diào)教本身也是個(gè)黑盒,有很多坑每個(gè)團(tuán)隊(duì)都得慢慢趟、反復(fù)試錯(cuò)。

從 GPT-3 這個(gè)底層模型的出現(xiàn),到 ChatGPT ,其實(shí)花了很多的工夫,在這個(gè)過程中,工程比研究要重要得多。學(xué)術(shù)研究它提供的是方法,但是 ChatGPT 背后并沒有新的方法,更重要的還是工程團(tuán)隊(duì)用了一些所謂的比較 tricky 的方法。所以 OpenAI 公開了底層的算法和邏輯,并沒有公開 ChatGPT 的源代碼。對(duì)于百度來說,花了一兩個(gè)月重新開始調(diào)教,效果肯定跟 ChatGPT 是沒法比的。百度和國(guó)內(nèi)其它家面臨的大多也是調(diào)教的問題,想要砸錢訓(xùn)練出來一個(gè)底層的 GPT-3 的模型不是難點(diǎn),InstructGPT 才是。

第二,如何調(diào)教,會(huì)直接影響 AI 成為什么樣的 AI。

并不是說各種不同的團(tuán)隊(duì)去激發(fā)大語言模型,最后激發(fā)出來的效果殊途同歸、一定是一個(gè)東西。很多沒有了解技術(shù)細(xì)節(jié)的朋友總覺得 ChatGPT 很蠢,因?yàn)榭偸且煌胨似健锤袷絹韺懨}作文,這個(gè)是刻意調(diào)教的結(jié)果。為的是獲取最大公約數(shù)的用戶,不要出現(xiàn)任何政治錯(cuò)誤的問題、偏見的問題。

想要真的調(diào)教一個(gè)極端分子、調(diào)教一個(gè)特別溫柔心理咨詢師,甚至調(diào)教一個(gè)詩(shī)人,原則上都是可以的,就看怎么調(diào)。

一種說法是,目前的 OpenAI 用了 6 萬多條語料就調(diào)出來了 ChatGPT。那用別的語料、用更多的語料,會(huì)發(fā)生什么?可以預(yù)見的是,未來各種各樣的人格都會(huì)調(diào)出來,不同團(tuán)隊(duì)做的 AI 風(fēng)格各異,跟人與人的區(qū)別一樣。

因此,ChatGPT 并不是,有一個(gè)團(tuán)隊(duì)花了很多年種出來了一個(gè)品種的蘋果,這個(gè)品種的蘋果叫 ChatGPT,你吃了一口這個(gè)蘋果說太酸了,扔了。就認(rèn)為這件事沒有價(jià)值。

這個(gè)叫 ChatGPT 的蘋果是重要的,但更重要的是,發(fā)現(xiàn)了一片叫大語言模型的土地,可以種各種 AI 的水果,不光有蘋果,還有梨子、菠蘿、葡萄等等,有大量的可能性。這是一定會(huì)發(fā)生的。現(xiàn)在很多團(tuán)隊(duì)去追逐的,并不是要做同一個(gè)品種的、酸甜度一模一樣的叫 ChatGPT 度蘋果出來,而是都看到了這里面做其它水果的價(jià)值。

第三, ChatGPT 的這個(gè)范式是可靠的,那很多技術(shù)性的問題解決就只是時(shí)間問題。

這是在回應(yīng)前面說的問題。只要這個(gè)范式是可靠的,很多技術(shù)性的問題無非就是加算力、加數(shù)據(jù)以及有耐心地調(diào)教。

早在 1956 年塞謬爾就做過一個(gè)跳棋程序,在當(dāng)年已經(jīng)能下贏很多專業(yè)選手了,那時(shí)很多科學(xué)家就意識(shí)到,未來機(jī)器能在棋類游戲中下贏人類,只是個(gè)時(shí)間問題(包括在讀大學(xué)的陸奇,就有這個(gè)洞察了)。到了 1997 年,深藍(lán)下贏了國(guó)際象棋大師, 到了 2016 年 AlphaGo 下贏了圍棋世界冠軍,如今的很多游戲 AI,DOTA2、星級(jí)爭(zhēng)霸 2 的 AI 也都可以下贏很多頂級(jí)的選手。在范式不變且可靠的前提下,學(xué)會(huì)下棋就是個(gè)技術(shù)性問題,也就意味著是個(gè)時(shí)間問題。

對(duì)有邏輯能力的大模型來說,前文說過的信息準(zhǔn)確度的問題,都未必在內(nèi)部解決。ChatGPT 也可以跟訓(xùn)練有素的有數(shù)學(xué)知識(shí)的產(chǎn)品合作。就像一個(gè)聰明小孩,不懂?dāng)?shù)學(xué)但是足夠聰明,那可以配個(gè)小伙伴,這個(gè)小伙伴不是很聰明,但上過奧數(shù)班,倆人一搭配,問題就解決了。這不是假想。

知名的計(jì)算智能引擎產(chǎn)品 Wolframe 就跟 ChatGPT 合作了,可以在補(bǔ)充了更準(zhǔn)確的知識(shí)和規(guī)則的前提下,解決大量的問題,比如化學(xué)、數(shù)學(xué)、物理、地理、幾何、歷史、材料、工程等等。

(來源:ChatGPT Gets Its “Wolfram Superpowers”!)

第四,解決各種問題的速度,或者說滿足各種需求的速度,可能是指數(shù)級(jí)的。

這個(gè)是很感性的判斷,確實(shí)沒有很有說服力的論據(jù)?,F(xiàn)在大家也都不知道多長(zhǎng)時(shí)間會(huì)發(fā)生什么事情。不過大概率它的發(fā)展速度不會(huì)是線性的,因?yàn)槿四X的學(xué)習(xí)是緩慢的,畢竟神經(jīng)元信號(hào)傳遞存在速度限制、神經(jīng)元的數(shù)量和規(guī)模有整體的限制的。但計(jì)算機(jī)不一樣,就像一個(gè)人腦不行,那可以連接 10 個(gè)人腦。10 個(gè)愛因斯坦的腦袋連起來,它是不是乘以 10 不一定,但的進(jìn)化速度肯定比生物進(jìn)化要快得多。

ChatGPT 的成功會(huì)讓已經(jīng)在過去領(lǐng)域里卷到疲倦的大廠,紛紛進(jìn)入軍備競(jìng)賽,這也會(huì)加速這個(gè)進(jìn)程。另外,對(duì)于很多場(chǎng)景來說,讓產(chǎn)品對(duì)接大模型,是不復(fù)雜的,ChatGPT 作為中間層很合適,主要負(fù)責(zé)解釋和推理,并不用每個(gè)場(chǎng)景都再訓(xùn)練一遍(未來難說會(huì)不會(huì)各種場(chǎng)景都有自己的大模型)。從 Office 和 Adobe 這么快的跟進(jìn)也可見一斑。

這里就有一個(gè)很殘酷的現(xiàn)實(shí),就是業(yè)務(wù)融合 AI 模塊之后,每個(gè)打工人在用 AI 的這個(gè)過程,就是在加速淘汰自己的過程。

第五,調(diào)試工程師會(huì)變成很值錢的崗位。

這個(gè)好理解,對(duì)于大模型來說,可解釋性非常差,換句話說,可控性很差。前面也說了,它是非常巨大的黑盒,只能通過調(diào)教、不能通過指揮,不能指哪打哪,說這個(gè)問題回答得不好,下次必須這么這么回答——沒法這么去訓(xùn)練它。所以調(diào)教就顯得特別重要了,調(diào)試工程師就會(huì)變得越來越值錢。

不過調(diào)試工程師到底具備什么樣的能力?了解場(chǎng)景,還是了解代碼?這個(gè)不大清楚。這是個(gè)全新的崗位,大家都在探索。

第六,失業(yè)問題。

可惜的是,值錢的崗位未來不會(huì)特別多,但不值錢的崗位會(huì)變得越來越多。

失業(yè)問題很有意思,之前 OpenAI 自己官方下場(chǎng)寫了一篇報(bào)告,具體內(nèi)容就不展開說了,只說最后的幾個(gè)結(jié)論:

第一,80% 的人受影響,會(huì)有 10% 的工作內(nèi)容受 LLM 影響(受影響的定義是同等質(zhì)量的工作成果,降低 50% 的工作時(shí)間),19%的人「大受影響」,即會(huì)有至少 50% 的工作內(nèi)容受 LLM 影響。

第二,薪資越高的人越容易受影響。受過良好教育的、有豐富工作經(jīng)驗(yàn)的、高薪的職業(yè),被影響的概率是偏大的。

第三,有一個(gè)影響程度排行榜,其實(shí)就是高危列表。里面高頻出現(xiàn)的包括:數(shù)學(xué)家、口譯員和筆譯員、作家和寫手、區(qū)塊鏈工程師等。

第四,部分職業(yè)存在可能性被徹底替代掉。對(duì)于這個(gè)榜單,人工標(biāo)注的結(jié)果里有 15 個(gè)職業(yè);GPT-4 標(biāo)注的結(jié)果里有 86 個(gè)職業(yè)。AI 下手果然還是更狠一些。

(報(bào)告來源:https://arxiv.org/pdf/2303.10130.pdf)

感興趣的朋友可以自己讀一下全文。這個(gè)估計(jì)當(dāng)然不會(huì)特別準(zhǔn)確,但是他們用了盡可能量化的方式,有一定預(yù)見性。未來會(huì)不會(huì)發(fā)生?我認(rèn)為大概率確實(shí)會(huì)發(fā)生的,只是時(shí)間上不好講。有一些相對(duì)容易落地、容易快速被替換掉的,比如說個(gè)體戶可能危險(xiǎn)性更大一些。比如做插畫的畫師、做電商圖片的這些美工、一些公眾號(hào)的小編等等。大公司的組織,整個(gè)工作內(nèi)容或者崗位要做調(diào)整,會(huì)有組織管理上的問題,可能會(huì)慢一些。

那這中間可能也有過渡期,比如 AI 繪圖變成主流之后,畫師們未必就全都失業(yè)。就像 Photoshop 出現(xiàn)之后大家更多是從用紙和筆去繪圖,變成了用另外一個(gè)工具去做。未來 AI 繪圖背后,也要有需求轉(zhuǎn)化的這一步(prompt engineering) 。不過比較悲觀的是,AI 繪圖和 Photoshop 不一樣,還是存在效率差異的。用紙和筆的畫師和用 Photoshop 的畫師,生產(chǎn)力的變化可能沒那么大;但是 AI 的生產(chǎn)力是劇烈的大幅提升,意味著不太需要那么多從業(yè)者了。這就必然有一個(gè)結(jié)構(gòu)性的大的波動(dòng)。那未來會(huì)怎么樣?會(huì)不會(huì)出現(xiàn)大的社會(huì)問題?這個(gè)就不是我能討論的了。

第七,大多數(shù)人機(jī)交互都不存在了。

冰箱發(fā)明之前,很多人研究的是怎么存儲(chǔ)冰塊、制造冰塊,有了冰箱,就不再需要這種冷藏方式了。對(duì)于產(chǎn)品交互也是這樣,用戶過去為什么要點(diǎn)按鈕?要做各種操作?包括用 Photoshop、 Word 里很多反人類的各種各樣的、根本記不住的復(fù)雜的功能。

所以我們看起來更像是處于過渡期,真的技術(shù)能力達(dá)到以后,當(dāng)下的大多數(shù)人機(jī)交互也沒有必要存在了,只需要剩下自然語言交互,這就跟我寫過的那篇猜想對(duì)應(yīng)上了(從 ChatGPT 看 AI 未來的 7 種場(chǎng)景可能性)。

跟寫之前的文章時(shí)不一樣,我這段時(shí)間試用了 GPT-4 基礎(chǔ)上的 ChatGPT,包括跟更多專家聊了一些技術(shù)上的問題?,F(xiàn)在的我覺得這是很有確定性的。就像前面說的,現(xiàn)在的發(fā)展是指數(shù)級(jí)的速度。

寫在最后

如今 ChatGPT 發(fā)布后,整個(gè)產(chǎn)學(xué)研都已經(jīng)到了快車道上了,這個(gè)快車道上是沒有人有能力去踩剎車的。我們作為個(gè)體,也是不可能回避這個(gè) AI 的歷史車輪的。

大家都知道阿里有一個(gè)經(jīng)常被群嘲的價(jià)值觀,叫擁抱變化。這個(gè)詞現(xiàn)在看感覺還挺應(yīng)景的。

所以不如反過來想問題:汽車時(shí)代來的時(shí)候,馬車夫肯定非常焦慮,馴馬師也很焦慮。不過汽車是工具,對(duì)大部分人來說它是非常有幫助的。它的出現(xiàn)并不是說要摧毀誰,摧毀哪些崗位,或者摧毀哪個(gè)行業(yè)。它還是為人類服務(wù)的。

我們可以用汽車做很多有價(jià)值的事。沒有交通工具的效率提升,全球化也不可能發(fā)生。我們可以多想一下,有了 AI 我們能干什么。

最近跟身邊幾個(gè)比較要好的朋友聊 AI,大家達(dá)成的一致,都是先用起來。先用它做點(diǎn)什么,感受下它能做什么、不能做什么。未來有無限的可能性,不妨把目光放長(zhǎng)遠(yuǎn)一點(diǎn);不糾結(jié)當(dāng)下的得失,看看 AI 未來的機(jī)會(huì)。保持這樣的心態(tài)也許更容易接受變化。

就說到這里,希望對(duì)你有啟發(fā)。

題圖由 Midjourney 繪制。

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片