首頁>資訊 >
天天資訊:認知 ChatGPT 的過程就是消除偏見的過程 2023-03-30 20:46:25  來源:36氪

近期花了一些時間繼續(xù)學(xué)習(xí) ChatGPT,體會到了認知 ChatGPT 的整個過程,就是在消除我自己偏見的過程。其中存在大量信息不對稱的地方。哪怕關(guān)于 ChatGPT 的討論這么多了,噪音里面有價值的信息也并不總是好找。


(資料圖片)

接下來就分享一些觀點。

1. 重點并不是「聊天機器人」

首先,對于 ChatGPT 來說,它帶來的大家提到的 AI 的革命性進展,壓根不是做出了好用的 chatbox,或者說聊天機器人。

換句話說,它并不意味著,我們的生活和工作里并不會有太大變化,主要的變化就是多了一個聊天機器人。如果按照這個前提條件去聊,它看起來就不是革命性的。

要真如此的話,憑什么說它是 iPhone 時刻?

真實情況是,聊天只是 OpenAI 做的一個演示,用它來做 demo,讓大家很好的看到了 GPT 這個模型的威力。在這個威力之外,大家還是只覺得它是聊天機器人,這就是一個啼笑皆非的事了。

當(dāng)然,我們都知道,這個聊天機器人是 OpenAI 團隊用來獲取真實世界對話的方法,用它來繼續(xù)迭代訓(xùn)練模型,來強化學(xué)習(xí)的 RLHF 的一個方法。選擇開放給用戶的這條路線,看起來好像常見,或者說之前也見過,但實際上在科研領(lǐng)域這是一個非常歪門邪道、一個非常不主流的方式。

之前不管是企業(yè)還是高校,以前大家做這方面的研究,不管是大模型還是 AI 方面的研究,都是用做題家的思路,就是用各種學(xué)術(shù)界的評測,如 20 個專家標(biāo)注的確定性的 QA 問答題來完成。都是命題作文。

但現(xiàn)在 OpenAI 說,我不參加這些考試,我不參加這做題,我也不去跟你比論文數(shù),就是把模型扔到人民群眾的汪洋大海里去。

現(xiàn)實就是,很會寫高考作文,和很會跟人聊天,確實是兩碼事。所以使用 ChatGPT 的時候有很多方式就不對,比如我自己作為一個可能稍微了解 NLP 的,或者了解產(chǎn)品、技術(shù)實現(xiàn)邏輯的,我就會去想:這個是不是難為他了?這個他肯定不會吧?我就不問了。

當(dāng)知道他是個機器,就容易擔(dān)心給的前提條件不夠。它胡說八道,給一些錯誤的答案,我是有奇怪的愧疚感的。所以就潛意識里特別照顧它,把問題表述得格外完整才問出來。

這樣結(jié)果就是不夠真實。包括我做 NLP 的一些老同學(xué),他們也會帶著很多假設(shè)和前提條件去問,他們問的都不是正常人聊天會問的。而現(xiàn)在用 ChatGPT 的大部分的人不是產(chǎn)品或者技術(shù)背景,并不知道背后的原理,所以問出來的就更真實。OpenAI 最初也是用格外真實的語料去做訓(xùn)練,所以能訓(xùn)練出來 ChatGPT 的效果。

2.很多當(dāng)下的問題,都是技術(shù)性問題

認知的另一個偏差是,它就是一個終態(tài)了。于是會認為它的很多問題,代表它不智能。

比如說 ChatGPT 搜的信息不準(zhǔn)確,以及胡說八道。很多朋友都會這么覺得,問了幾個問題,發(fā)現(xiàn)不對,就認為 ChatGPT 沒有什么大家說的那么的有價值。

對于信息準(zhǔn)確性的問題其實是好解決的,而且必然會解決。因為現(xiàn)在使用的模型,并不是在一句一句的學(xué),不是像某些人想象的一樣,在跟每個人溝通的時候來現(xiàn)學(xué)現(xiàn)賣(當(dāng)然在聊上下文的時候,它會考慮上下文,這個可以定義為短時的學(xué)習(xí))。背后所用的大模型,實際是一個用 2021 年的語料訓(xùn)練的固定的模型,這個底層的模型是沒有實時進化能力的。

那為什么信息準(zhǔn)確這個問題好解決?這個后面一起說。

另外一種常見說法是,ChatGPT 既然是一個生成式的工具,所以應(yīng)該是能幫助甚至替代內(nèi)容創(chuàng)作者的。目前看起來,這方面的水平有限。有可能幫忙寫個周報,幫忙潤色一下文字,幫忙寫個小紅書筆記等等,哪怕這種簡單的工作,大家也發(fā)覺了,寫出來的 AI 感非常強、并不是很擅長用人的語氣表達,能明顯感覺到他整個表述的方式是有一種奇奇怪怪的感覺,這種感覺就讓人心懷疑慮:這個所謂的 AI,不也模仿不了人的語氣嗎?你看,人類還是有一些所謂「靈魂」的部分存在的,AI 寫內(nèi)容,就是沒有靈魂。

而很殘酷的是,我也認為,內(nèi)容創(chuàng)作的風(fēng)格和語氣也不是大問題,依然是個技術(shù)性問題,因為 AI 最擅長的就是模仿,對于文本的模仿反而是相對來說容易的。只不過一方面,因為 ChatGPT 是基于英文語料主要訓(xùn)練的(中文語料只有 1% 左右),所以在中文的表達上會有比較大的問題,翻譯體很明顯。

另外就是ChatGPT本身就被刻意訓(xùn)練了。它目前這樣的語氣和表達風(fēng)格,是訓(xùn)練出來的,不是 AI 天然就是這樣的。因此說這是個技術(shù)性的問題。比如說之前 AI 繪圖剛出來的時候,大家當(dāng)然就習(xí)慣性基于當(dāng)時的版本去考察,說 AI 能畫成這樣還不錯,但是 AI 畫的圖還都有 AI 感。這個所謂的 AI 感大概意思就是光影的問題、細節(jié)的問題(比如畫手),這個 AI 感在 Midjourney v5 里消除得差不多了。因為這就是個可訓(xùn)練的技術(shù)性問題。

(這是我用 Midjourney 畫的愛因斯坦和霍金,歷史上不存在這兩張照片)

所以 ChatGPT 信息準(zhǔn)確度的問題,內(nèi)容表達和語氣的問題,人格的問題,都是技術(shù)問題??赡芫蜁信笥褑柫?,那你說都是技術(shù)問題,那 AI 發(fā)展了這么多年了,可不是每個都是技術(shù)問題嗎?為什么 ChatGPT 就不一樣呢?

3. 重要的是「理解和推理」

ChatGPT 最特殊的地方,是揭示了一種可能性,即 AI 可以呈現(xiàn)理解和推理能力了。這是過去大半個世紀(jì)的學(xué)者們所一直追求,而不可得的。

這里要簡單說一下 GPT 背后的邏輯。首先語言模型是很早就有的, 10 年前我讀研的時候,如果學(xué) NLP,你翻開教材的第一頁可能就能看到語言模型,就跟學(xué)高等數(shù)學(xué)第一課都是先學(xué)函數(shù)一樣,不是什么新鮮的、現(xiàn)在才發(fā)明出來的成果。

為什么作為一個語言模型,大家這么驚奇?并非由于它可以對話了、能寫所謂一碗水端平的片兒湯文章了,更不是能獲取什么信息和知識,而是在這個大語言模型當(dāng)中體現(xiàn)了推理。

體現(xiàn)了推理是一個事實論述。說到這里,必然會有一些朋友,援引很多人包括知名學(xué)者的說法來反駁,說語言模型只是統(tǒng)計的模型,因此不能稱之為理解和推理。

這里也不妨多說幾句大語言模型的邏輯。最基礎(chǔ)的很簡單,依據(jù)上文,預(yù)測下一個詞。過去能力不足,是根據(jù)一兩個詞預(yù)測下一個詞,后來出現(xiàn)了更多的算法和更好的硬件,于是可以預(yù)測更多的上下文了。像現(xiàn)在 ChatGPT 就能依據(jù)幾千個字符去做預(yù)測,這歸功于有如神助的 Transformer 算法。

但是,大語言模型依然還是一個猜詞游戲,是統(tǒng)計意義上的一個算法,它沒有別的復(fù)雜思考,就是從海量的記憶(模型)里,搜尋出最有可能出現(xiàn)的下一個詞。

所以很自然,聽起來,無論誰都會覺得,這種統(tǒng)計邏輯的語言模型,恐怕只能解決記憶問題,不能解決邏輯問題。就像我們讀了很多書籍、文獻、維基百科、百度百科等等各種知識。那接下來我們能做的是什么?很明確的,可能做一個好翻譯,或者能寫一篇像模像樣的文章,但是搞別的應(yīng)該是不行的。畢竟是個復(fù)讀機嘛,是個「模糊的印象」(a Blurry JPEG of the Web)嘛(這是科幻作家Ted Chiang 對 ChatGPT 的評價,已經(jīng)被更多人認為是偏見了)。

不管怎么去想象這個算法邏輯,我們都很難想象只是記憶,就能產(chǎn)生邏輯。這在 2022 年之前都是天方夜譚,而 2022 年底過后,ChatGPT 讓這變成了一個可能性。

為什么 ChatGPT 在一個詞兒一個詞兒蹦的時候就呈現(xiàn)了邏輯?這依然是個科學(xué)上的未解之謎,以及都在爭論不休的話題。畢竟我們想象中,一段有邏輯的文字,應(yīng)該是先設(shè)定主題,再想框架和段落,再去落筆的。

這里要特別補充一點:表現(xiàn)出了推理和邏輯能力,與本質(zhì)上有沒有推理和邏輯能力,是兩碼事。前者是個事實問題,已經(jīng)可以說是公認了,從原理上反駁意義不大,用過即知;后者則是個哲學(xué)問題,還在爭論之中。

什么叫有邏輯能力很早就是學(xué)術(shù)界有爭議的話題,從控制論出現(xiàn)就在討論「看起來的智能是不是智能」的問題了。同時,人腦運作的很多原理目前尚不清楚,如何產(chǎn)生的邏輯推理,也不清晰。

很奇妙的是,在目前的模型中,「think step by step」是一個很好用的咒語,跟人的思考是很像的,機器只要不是直接給結(jié)果,而是多想幾步,就能呈現(xiàn)非常好的效果。

這些都是題外話了。實際上對產(chǎn)學(xué)研而言最驚訝和最興奮的,不是討論本質(zhì)上有沒有推理和邏輯能力,而是表現(xiàn)上有沒有。

4. 通往通用人工智能之路

OpenAI在這個大語言模型上做了什么,把 GPT 以及 ChatGPT 做出來的?其實沒做太多算法上的、底層規(guī)則上的很復(fù)雜的事情。而是用很工程的手段,甚至堪稱暴力的手段去訓(xùn)練,然后反復(fù)地調(diào)試。

所以一個非常古老的、已經(jīng)長滿了青苔的語言模型,居然可以實現(xiàn)有推理能力的高水準(zhǔn)的 AI,非常叫人意外。追求 AGI 的路,從 1956 年達特茅斯會議實際已經(jīng)啟航了,明斯基、麥卡錫、司馬賀、紐厄爾這些人工智能的創(chuàng)始人,本來預(yù)期是十年二十年就實現(xiàn)的夢想,花了大半個世紀(jì),依然進展不大。

學(xué)者們最開始想的,跟大多數(shù)人想象的 AI 必須先學(xué)的一步是類似的,就是學(xué)習(xí)推理。他們被稱為符號派,就是把世間萬物的所有的邏輯和知識抽象出來,把它們變成形式語言,像數(shù)學(xué)題一樣可以計算與推演,一生萬物,不就是智能嗎?這條路一度是人工智能的主流派系,一直到 20-30 年后,嘗試了各種各樣的方向,發(fā)覺全都被堵死了。

接下來就是統(tǒng)計學(xué)習(xí)和深度學(xué)習(xí)的時代,就是讓機器去自我消化數(shù)據(jù),它就能解決問題。這時候的學(xué)者們更落地、更實在了,不關(guān)心 AGI,而是關(guān)心垂直課題了,比如說人臉識別、自動駕駛、下圍棋和玩游戲等等,這些似乎都是做的還不錯的。語言模型也在其中,大家認為它能解決一些問題(谷歌翻譯和百度翻譯就是語言模型的邏輯),顯然不能解決一切問題。

而 ChatGPT 的啟示,就像說有一個田徑隊,短跑、長跑、接力跑、馬拉松等等運動,有不同的教練去用不同的方法訓(xùn)練,畢竟是不同的課題。但是今天,有一個教練,用了全新的方法訓(xùn)練了一個隊員,發(fā)現(xiàn)這隊員跑啥都行,接力跑、長跑、短跑都能拿好的名次,甚至跑去試了試扔鉛球也是前幾名,扔標(biāo)槍也是前幾名,跳鞍馬也是前幾名,他不一定都能拿到第一,但這個效果大家非常驚訝。

還是前文說的,有邏輯、能從信息中發(fā)掘知識,并不是個值得爭論的問題,它是個事實。很多學(xué)者花了很多年研究,怎樣讓機器識別詞性(形容詞、動詞、名詞等),這是個專有課題,而詞性標(biāo)注的效果,ChatGPT 也完成得很好。類似的課題,非常大量。用三體的話說,說許多學(xué)者、博士們還在研究的NLP 的中間課題不存在了,一點兒也不為過。哪怕不提這些研究課題,注冊使用下 GPT-4,你肯定也會有體感,這種體感是不會說謊的。

那么 AI 有了邏輯和理解能力,能做什么呢?能做太多了。

前面說的技術(shù)性的問題,反而可以交給一些基于規(guī)則的產(chǎn)品解決。例如,ChatGPT 自己可能信息不全,但它能比很多人更好地查到所要的信息,而不只是把網(wǎng)頁排個序;ChatGPT 自己可能不會寫很厲害的文章,但經(jīng)過一個熟練的寫手訓(xùn)練之后,確實能理解你想要什么,就能變成一個有固定文風(fēng)的寫手;原生的 ChatGPT 可能完全不知道怎么使用 Word,但是讓它看大量的人是怎么使用的,很快也就能學(xué)會了。

這才是 ChatGPT 最不一樣的地方:它比之前所有的 AI 都更像一個 AI。當(dāng) AI 這個詞在 1956 年出現(xiàn)的時候,大家想象的是一個智能的東西,而現(xiàn)在,它真的出現(xiàn)了,至少有了真正智能的可能性。這一點在學(xué)術(shù)圈和科研領(lǐng)域最早引起了轟動,可能比普通用戶的震驚程度還要大。

之前是大家看不到通往通用人工智能的路的,所以 ChatGPT 的意義不是聊天機器人本身,而是這個新的范式,揭示了一種全新的可能性。未必是唯一的可能性,但確實是一種可能性。過去從來沒有過的可能性。

5. 繼續(xù)推演未來

接下來可能會發(fā)生什么呢?我觀察和思考到了 7 個方面,分享一下。

第一:不光 AI 的企業(yè)都得投入大模型,而且很快會進入工程上的軍備競賽。

這里跟很多朋友想的不一樣,大模型不是比參數(shù)量。如果去搜參數(shù)量的模型,快手還官方自豪地發(fā)布過一個有萬億參數(shù)量的模型,當(dāng)然跟 GPT-3 也沒法比。

同時,也不是單純比數(shù)據(jù)多少。數(shù)據(jù)確實是一個壁壘,但是還有一個更加核心的競爭力,即調(diào)試工程。比如對于百度,之前做的文心大模型,底層數(shù)據(jù)量真的不比 OpenAI 的少,或者很有肯跟底層的模型都不一定比 GPT-3 的質(zhì)量差。只是完全沒有采用 ChatGPT 的方法訓(xùn)練(InstructGPT),也就是怎么激發(fā)。激發(fā)也是非常玄學(xué)和魔幻,OpenAI 有一個人數(shù)不小的工程團隊,專門通過語料和代碼,做激發(fā)和調(diào)試,讓它變得更智能。

這可以說是最后畫龍點睛的一步。就像說有一個天分特好的小孩,需要調(diào)教,而如何調(diào)教是不存在一個很確定性的方法論的,調(diào)教本身也是個黑盒,有很多坑每個團隊都得慢慢趟、反復(fù)試錯。

從 GPT-3 這個底層模型的出現(xiàn),到 ChatGPT ,其實花了很多的工夫,在這個過程中,工程比研究要重要得多。學(xué)術(shù)研究它提供的是方法,但是 ChatGPT 背后并沒有新的方法,更重要的還是工程團隊用了一些所謂的比較 tricky 的方法。所以 OpenAI 公開了底層的算法和邏輯,并沒有公開 ChatGPT 的源代碼。對于百度來說,花了一兩個月重新開始調(diào)教,效果肯定跟 ChatGPT 是沒法比的。百度和國內(nèi)其它家面臨的大多也是調(diào)教的問題,想要砸錢訓(xùn)練出來一個底層的 GPT-3 的模型不是難點,InstructGPT 才是。

第二,如何調(diào)教,會直接影響 AI 成為什么樣的 AI。

并不是說各種不同的團隊去激發(fā)大語言模型,最后激發(fā)出來的效果殊途同歸、一定是一個東西。很多沒有了解技術(shù)細節(jié)的朋友總覺得 ChatGPT 很蠢,因為總是一碗水端平、按格式來寫命題作文,這個是刻意調(diào)教的結(jié)果。為的是獲取最大公約數(shù)的用戶,不要出現(xiàn)任何政治錯誤的問題、偏見的問題。

想要真的調(diào)教一個極端分子、調(diào)教一個特別溫柔心理咨詢師,甚至調(diào)教一個詩人,原則上都是可以的,就看怎么調(diào)。

一種說法是,目前的 OpenAI 用了 6 萬多條語料就調(diào)出來了 ChatGPT。那用別的語料、用更多的語料,會發(fā)生什么?可以預(yù)見的是,未來各種各樣的人格都會調(diào)出來,不同團隊做的 AI 風(fēng)格各異,跟人與人的區(qū)別一樣。

因此,ChatGPT 并不是,有一個團隊花了很多年種出來了一個品種的蘋果,這個品種的蘋果叫 ChatGPT,你吃了一口這個蘋果說太酸了,扔了。就認為這件事沒有價值。

這個叫 ChatGPT 的蘋果是重要的,但更重要的是,發(fā)現(xiàn)了一片叫大語言模型的土地,可以種各種 AI 的水果,不光有蘋果,還有梨子、菠蘿、葡萄等等,有大量的可能性。這是一定會發(fā)生的?,F(xiàn)在很多團隊去追逐的,并不是要做同一個品種的、酸甜度一模一樣的叫 ChatGPT 度蘋果出來,而是都看到了這里面做其它水果的價值。

第三, ChatGPT 的這個范式是可靠的,那很多技術(shù)性的問題解決就只是時間問題。

這是在回應(yīng)前面說的問題。只要這個范式是可靠的,很多技術(shù)性的問題無非就是加算力、加數(shù)據(jù)以及有耐心地調(diào)教。

早在 1956 年塞謬爾就做過一個跳棋程序,在當(dāng)年已經(jīng)能下贏很多專業(yè)選手了,那時很多科學(xué)家就意識到,未來機器能在棋類游戲中下贏人類,只是個時間問題(包括在讀大學(xué)的陸奇,就有這個洞察了)。到了 1997 年,深藍下贏了國際象棋大師, 到了 2016 年 AlphaGo 下贏了圍棋世界冠軍,如今的很多游戲 AI,DOTA2、星級爭霸 2 的 AI 也都可以下贏很多頂級的選手。在范式不變且可靠的前提下,學(xué)會下棋就是個技術(shù)性問題,也就意味著是個時間問題。

對有邏輯能力的大模型來說,前文說過的信息準(zhǔn)確度的問題,都未必在內(nèi)部解決。ChatGPT 也可以跟訓(xùn)練有素的有數(shù)學(xué)知識的產(chǎn)品合作。就像一個聰明小孩,不懂?dāng)?shù)學(xué)但是足夠聰明,那可以配個小伙伴,這個小伙伴不是很聰明,但上過奧數(shù)班,倆人一搭配,問題就解決了。這不是假想。

知名的計算智能引擎產(chǎn)品 Wolframe 就跟 ChatGPT 合作了,可以在補充了更準(zhǔn)確的知識和規(guī)則的前提下,解決大量的問題,比如化學(xué)、數(shù)學(xué)、物理、地理、幾何、歷史、材料、工程等等。

(來源:ChatGPT Gets Its “Wolfram Superpowers”!)

第四,解決各種問題的速度,或者說滿足各種需求的速度,可能是指數(shù)級的。

這個是很感性的判斷,確實沒有很有說服力的論據(jù)?,F(xiàn)在大家也都不知道多長時間會發(fā)生什么事情。不過大概率它的發(fā)展速度不會是線性的,因為人腦的學(xué)習(xí)是緩慢的,畢竟神經(jīng)元信號傳遞存在速度限制、神經(jīng)元的數(shù)量和規(guī)模有整體的限制的。但計算機不一樣,就像一個人腦不行,那可以連接 10 個人腦。10 個愛因斯坦的腦袋連起來,它是不是乘以 10 不一定,但的進化速度肯定比生物進化要快得多。

ChatGPT 的成功會讓已經(jīng)在過去領(lǐng)域里卷到疲倦的大廠,紛紛進入軍備競賽,這也會加速這個進程。另外,對于很多場景來說,讓產(chǎn)品對接大模型,是不復(fù)雜的,ChatGPT 作為中間層很合適,主要負責(zé)解釋和推理,并不用每個場景都再訓(xùn)練一遍(未來難說會不會各種場景都有自己的大模型)。從 Office 和 Adobe 這么快的跟進也可見一斑。

這里就有一個很殘酷的現(xiàn)實,就是業(yè)務(wù)融合 AI 模塊之后,每個打工人在用 AI 的這個過程,就是在加速淘汰自己的過程。

第五,調(diào)試工程師會變成很值錢的崗位。

這個好理解,對于大模型來說,可解釋性非常差,換句話說,可控性很差。前面也說了,它是非常巨大的黑盒,只能通過調(diào)教、不能通過指揮,不能指哪打哪,說這個問題回答得不好,下次必須這么這么回答——沒法這么去訓(xùn)練它。所以調(diào)教就顯得特別重要了,調(diào)試工程師就會變得越來越值錢。

不過調(diào)試工程師到底具備什么樣的能力?了解場景,還是了解代碼?這個不大清楚。這是個全新的崗位,大家都在探索。

第六,失業(yè)問題。

可惜的是,值錢的崗位未來不會特別多,但不值錢的崗位會變得越來越多。

失業(yè)問題很有意思,之前 OpenAI 自己官方下場寫了一篇報告,具體內(nèi)容就不展開說了,只說最后的幾個結(jié)論:

第一,80% 的人受影響,會有 10% 的工作內(nèi)容受 LLM 影響(受影響的定義是同等質(zhì)量的工作成果,降低 50% 的工作時間),19%的人「大受影響」,即會有至少 50% 的工作內(nèi)容受 LLM 影響。

第二,薪資越高的人越容易受影響。受過良好教育的、有豐富工作經(jīng)驗的、高薪的職業(yè),被影響的概率是偏大的。

第三,有一個影響程度排行榜,其實就是高危列表。里面高頻出現(xiàn)的包括:數(shù)學(xué)家、口譯員和筆譯員、作家和寫手、區(qū)塊鏈工程師等。

第四,部分職業(yè)存在可能性被徹底替代掉。對于這個榜單,人工標(biāo)注的結(jié)果里有 15 個職業(yè);GPT-4 標(biāo)注的結(jié)果里有 86 個職業(yè)。AI 下手果然還是更狠一些。

(報告來源:https://arxiv.org/pdf/2303.10130.pdf)

感興趣的朋友可以自己讀一下全文。這個估計當(dāng)然不會特別準(zhǔn)確,但是他們用了盡可能量化的方式,有一定預(yù)見性。未來會不會發(fā)生?我認為大概率確實會發(fā)生的,只是時間上不好講。有一些相對容易落地、容易快速被替換掉的,比如說個體戶可能危險性更大一些。比如做插畫的畫師、做電商圖片的這些美工、一些公眾號的小編等等。大公司的組織,整個工作內(nèi)容或者崗位要做調(diào)整,會有組織管理上的問題,可能會慢一些。

那這中間可能也有過渡期,比如 AI 繪圖變成主流之后,畫師們未必就全都失業(yè)。就像 Photoshop 出現(xiàn)之后大家更多是從用紙和筆去繪圖,變成了用另外一個工具去做。未來 AI 繪圖背后,也要有需求轉(zhuǎn)化的這一步(prompt engineering) 。不過比較悲觀的是,AI 繪圖和 Photoshop 不一樣,還是存在效率差異的。用紙和筆的畫師和用 Photoshop 的畫師,生產(chǎn)力的變化可能沒那么大;但是 AI 的生產(chǎn)力是劇烈的大幅提升,意味著不太需要那么多從業(yè)者了。這就必然有一個結(jié)構(gòu)性的大的波動。那未來會怎么樣?會不會出現(xiàn)大的社會問題?這個就不是我能討論的了。

第七,大多數(shù)人機交互都不存在了。

冰箱發(fā)明之前,很多人研究的是怎么存儲冰塊、制造冰塊,有了冰箱,就不再需要這種冷藏方式了。對于產(chǎn)品交互也是這樣,用戶過去為什么要點按鈕?要做各種操作?包括用 Photoshop、 Word 里很多反人類的各種各樣的、根本記不住的復(fù)雜的功能。

所以我們看起來更像是處于過渡期,真的技術(shù)能力達到以后,當(dāng)下的大多數(shù)人機交互也沒有必要存在了,只需要剩下自然語言交互,這就跟我寫過的那篇猜想對應(yīng)上了(從 ChatGPT 看 AI 未來的 7 種場景可能性)。

跟寫之前的文章時不一樣,我這段時間試用了 GPT-4 基礎(chǔ)上的 ChatGPT,包括跟更多專家聊了一些技術(shù)上的問題?,F(xiàn)在的我覺得這是很有確定性的。就像前面說的,現(xiàn)在的發(fā)展是指數(shù)級的速度。

寫在最后

如今 ChatGPT 發(fā)布后,整個產(chǎn)學(xué)研都已經(jīng)到了快車道上了,這個快車道上是沒有人有能力去踩剎車的。我們作為個體,也是不可能回避這個 AI 的歷史車輪的。

大家都知道阿里有一個經(jīng)常被群嘲的價值觀,叫擁抱變化。這個詞現(xiàn)在看感覺還挺應(yīng)景的。

所以不如反過來想問題:汽車時代來的時候,馬車夫肯定非常焦慮,馴馬師也很焦慮。不過汽車是工具,對大部分人來說它是非常有幫助的。它的出現(xiàn)并不是說要摧毀誰,摧毀哪些崗位,或者摧毀哪個行業(yè)。它還是為人類服務(wù)的。

我們可以用汽車做很多有價值的事。沒有交通工具的效率提升,全球化也不可能發(fā)生。我們可以多想一下,有了 AI 我們能干什么。

最近跟身邊幾個比較要好的朋友聊 AI,大家達成的一致,都是先用起來。先用它做點什么,感受下它能做什么、不能做什么。未來有無限的可能性,不妨把目光放長遠一點;不糾結(jié)當(dāng)下的得失,看看 AI 未來的機會。保持這樣的心態(tài)也許更容易接受變化。

就說到這里,希望對你有啟發(fā)。

題圖由 Midjourney 繪制。

關(guān)鍵詞:

相關(guān)閱讀:
熱點
圖片