首頁>資訊 >
GPT-4重要締造者、OpenAI 首席科學(xué)家:人工智能不吃人 2023-03-16 18:48:38  來源:36氪

在荷馬的史詩巨作《奧德賽》中,獨(dú)眼巨人賽庫斯·波呂斐摩斯將奧德修斯和他的船員困在他的洞穴里,意圖將他們吃掉。但奧德修斯設(shè)法弄瞎了巨人的眼睛并成功逃脫。

人工智能不會(huì)吃掉我們。


(資料圖)

隨著我們飛快地邁向一個(gè)充滿人工智能的未來,科技巨頭、研究人員和投資者似乎都在瘋狂地爭先恐后地開發(fā)最先進(jìn)的人工智能技術(shù)。

許多人開始質(zhì)疑:這是否進(jìn)展得過快,是否考慮到了風(fēng)險(xiǎn)呢?就此問題筆者(克雷格·史密斯,《紐約時(shí)報(bào)》的前記者)與OpenAI聯(lián)合創(chuàng)始人和首席科學(xué)家Ilya SutskeverIlya進(jìn)行了討論。

Ilya Sutskever是OpenAI的聯(lián)合創(chuàng)始人和首席科學(xué)家,也是大型語言模型GPT-4以及其公開后代ChatGPT的主要負(fù)責(zé)人之一。說他正在改變世界并不夸張。這不是Ilya第一次改變世界了。他曾是AlexNet的主要推動(dòng)者,這種卷積神經(jīng)網(wǎng)絡(luò)以其驚人的性能在2012年震驚了科學(xué)界,并引發(fā)了深度學(xué)習(xí)的革命。

在筆者看來,AI發(fā)展這個(gè)問題并非完全無關(guān)緊要。有數(shù)百位敏銳的專家正在考慮著這種反烏托邦的各種可能性——以及避免它們的方法。但事實(shí)上,未來是未知的,這種強(qiáng)大新技術(shù)所帶來的影響,就如同互聯(lián)網(wǎng)剛出現(xiàn)一樣難以想象。它將同時(shí)帶來利與弊,它不能被阻止,但可以被理解。

OpenAI是一個(gè)非盈利的人工智能研究機(jī)構(gòu),它的衍生公司可能會(huì)成為全球最賺錢的實(shí)體之一。筆者與Ilya的交談是在OpenAI最新版本的巨型人工智能系統(tǒng)GPT-4發(fā)布之前進(jìn)行的,該系統(tǒng)已經(jīng)攝入了數(shù)十億字的文本——這比任何一個(gè)人一生中可能閱讀的文本都要多。

GPT是“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”(Generative Pre-trained Transformer)的縮寫,這三個(gè)詞對于理解這個(gè)像荷馬史詩中的波呂斐摩斯般的AI巨人非常重要。轉(zhuǎn)換器是這個(gè)巨型系統(tǒng)核心算法的名稱。預(yù)訓(xùn)練指的是該龐然大物接受了大量的文本語料的教育,從而使其可以理解語言的基本模式和關(guān)系——簡而言之,教會(huì)它理解世界。生成式意味著AI可以在這個(gè)知識基礎(chǔ)上創(chuàng)造出新的想法。

人工智能已經(jīng)占據(jù)了我們的生活,但即將到來的將是更為先進(jìn)、更為強(qiáng)大的技術(shù)。我們正在進(jìn)入未知的領(lǐng)域,這值得我們花一些時(shí)間來考慮它意味著什么。但注意不要反應(yīng)過度,不要像烏龜一樣躲避現(xiàn)在照耀在我們身上的明亮太陽。

人工智能不會(huì)吃掉我們。

為保證文本清晰連貫,以下內(nèi)容經(jīng)過編輯整理。

Craig S. Smith:

Ilya,我知道你出生在俄羅斯,是什么讓你對計(jì)算機(jī)科學(xué)、神經(jīng)科學(xué)或者類似的方向產(chǎn)生了興趣?

Ilya Sutskever:

的確,我出生在俄羅斯,我在以色列長大,在青少年時(shí)期,我和家人一起移民到了加拿大。我的父母說我從小就對人工智能很感興趣。我也受到了很大的覺知驅(qū)動(dòng)。曾經(jīng)這讓我非常困擾,因此我對能幫助我更好理解它的事物充滿了好奇。

我很早就開始與 Geoff Hinton [深度學(xué)習(xí)的創(chuàng)始人之一,時(shí)任多倫多大學(xué)的教授;深度學(xué)習(xí)是GPT-4 背后的AI種類] 合作,當(dāng)時(shí)我才17歲。因?yàn)槲覀儼岬搅思幽么?,我立刻就入讀了多倫多大學(xué)。那時(shí)我非常想研究機(jī)器學(xué)習(xí),因?yàn)檫@似乎是人工智能最重要的方面,而在當(dāng)時(shí)這是完全不可觸及的。

那是2003年。現(xiàn)在我們會(huì)理所當(dāng)然地認(rèn)為計(jì)算機(jī)是能夠?qū)W習(xí)的,但在那時(shí)我們默認(rèn)的是計(jì)算機(jī)無法學(xué)習(xí)。那時(shí)人工智能領(lǐng)域的最大成就是IBM研發(fā)的象棋引擎“深藍(lán)”(Deep Blue)(它在1997年擊敗了象棋世界冠軍 Garry Kasparov)。

但在當(dāng)時(shí),有這么一個(gè)游戲,也有這么一項(xiàng)研究,還有這種簡單的方法來確定一個(gè)(象棋)走法是否比另一個(gè)更好。當(dāng)時(shí)我們真的感覺這不可能適用于現(xiàn)實(shí)世界,因?yàn)楫?dāng)中沒有涉及到學(xué)習(xí)。學(xué)習(xí)是一個(gè)很大的謎,而我對(機(jī)器)學(xué)習(xí)真的非常非常感興趣。幸運(yùn)的是,Geoff Hinton是這所大學(xué)的教授,我們幾乎立即就開始了合作。

那么智能究竟是如何工作的?我們?nèi)绾问褂?jì)算機(jī)稍微具有智能呢?我有一個(gè)非常明確的意圖,那就是為AI做出非常小但真實(shí)的貢獻(xiàn)。因此,對我來說,一大初衷就是我能否理解智能是如何工作的,以及如何為之做出貢獻(xiàn)?那就是我最初的動(dòng)機(jī)。而那幾乎是20年前的事了。

簡而言之,我意識到,如果你使用一個(gè)足夠大的數(shù)據(jù)集來訓(xùn)練一個(gè)大而深的神經(jīng)網(wǎng)絡(luò),使之能夠完成一些人類能夠完成復(fù)雜任務(wù),比如視覺任務(wù),那么你必然會(huì)獲得成功。這個(gè)想法的邏輯是不可簡化的,因?yàn)槲覀冎廊祟惔竽X可以快速地解決這些任務(wù),而人腦本質(zhì)上就是一個(gè)由慢神經(jīng)元構(gòu)成的神經(jīng)網(wǎng)絡(luò)。

所以,我們只需要使用一個(gè)更小但與之類似的神經(jīng)網(wǎng)絡(luò),并使用數(shù)據(jù)對其進(jìn)行訓(xùn)練。然后,計(jì)算機(jī)內(nèi)部最好的神經(jīng)網(wǎng)將與我們的大腦中執(zhí)行這個(gè)任務(wù)的神經(jīng)網(wǎng)絡(luò)非常類似。

Craig S. Smith:

2017年,《Attention Is All You Need》這篇論文出爐,首次提出了自注意力和轉(zhuǎn)換器的概念。那么GPT項(xiàng)目是從什么時(shí)候開始的?當(dāng)時(shí)你們對于轉(zhuǎn)換器是否存在某種直覺?

Ilya Sutskever:

就背景而言,從OpenAI的最早時(shí)期開始,我們就一直在探索一個(gè)想法:(機(jī)器學(xué)習(xí))只需要能夠預(yù)測下一個(gè)事物。當(dāng)時(shí),我們用的是更為有限的神經(jīng)網(wǎng)絡(luò),但我們想的是,如果有一個(gè)神經(jīng)網(wǎng)絡(luò)能夠預(yù)測下一個(gè)單詞,它就能解決無監(jiān)督學(xué)習(xí)問題。因此,在GPT誕生之前,無監(jiān)督學(xué)習(xí)被認(rèn)為是機(jī)器學(xué)習(xí)的圣杯。

現(xiàn)在,這個(gè)問題已經(jīng)完全解決了,甚至沒有人再談?wù)撍?,但它曾?jīng)是一個(gè)“圣杯”。它曾是一個(gè)非常神秘的問題,因此我們一直在探索這個(gè)想法。我當(dāng)時(shí)對此真的非常興奮,認(rèn)為只要(機(jī)器學(xué)習(xí))能夠足夠好地預(yù)測到下一個(gè)單詞,它就能實(shí)現(xiàn)無監(jiān)督學(xué)習(xí)。

但我們那時(shí)的(電腦)神經(jīng)網(wǎng)絡(luò)并不能勝任這個(gè)任務(wù)。我們使用的是遞歸神經(jīng)網(wǎng)絡(luò)。當(dāng)轉(zhuǎn)換器的概念問世后,那篇論文一出來,真的是就在它出來的第二天,我們立即意識到轉(zhuǎn)換器解決了遞歸神經(jīng)網(wǎng)絡(luò)的局限性,解決了學(xué)習(xí)長期依賴性的問題。

這是一個(gè)技術(shù)問題。但我們立刻就改用了轉(zhuǎn)換器。于是,我們在開發(fā)GPT非常初步的階段就使用了轉(zhuǎn)換器。后來它的表現(xiàn)越來越好,我們也讓它的功能越來越強(qiáng)大。

這就最終導(dǎo)致了GPT-3和我們今天的情況。

Craig S. Smith:

現(xiàn)有的大型語言模型的局限性在于,它們所擁有的知識僅限于訓(xùn)練它們所使用的語言范圍內(nèi)。但我想我們每個(gè)人都同意,大多數(shù)人類知識是在語言之外的。

它們的目標(biāo)是滿足提示的統(tǒng)計(jì)一致性,它們并沒有對語言所涉及到的現(xiàn)實(shí)情況有根本的理解。我問過ChatGPT 關(guān)于我自己的信息,它認(rèn)識到我是一名記者,曾在多家報(bào)紙工作,但它說了很多我從未獲得的獎(jiǎng)項(xiàng)。那聽上去很棒,但與基本現(xiàn)實(shí)幾乎是脫節(jié)的。在你們的未來研究中,是否有解決這個(gè)問題的計(jì)劃?

Ilya Sutskever:

有多大的可能性今天我們看到的這些局限在兩年內(nèi)依然存在? 對此我保持樂觀。

對于這個(gè)問題的一個(gè)部分,即“這些模型只是學(xué)習(xí)統(tǒng)計(jì)規(guī)律性,因此它們并不真正知道世界的本質(zhì)是什么”,我還想說一個(gè)我自己的看法。

我的看法與此不同。換句話說,我認(rèn)為學(xué)習(xí)統(tǒng)計(jì)規(guī)律比我們想象的更重要。

預(yù)測也是一種統(tǒng)計(jì)現(xiàn)象。然而,為了進(jìn)行預(yù)測,你需要了解產(chǎn)生數(shù)據(jù)的基本過程。你需要對產(chǎn)生數(shù)據(jù)的世界有越來越多的了解。

我認(rèn)為隨著我們的生成式模型變得異常優(yōu)秀,它們將具有我所說的對世界和其許多微妙之處的驚人程度的理解。它是通過文本的角度來看待世界的。它試圖通過人類在互聯(lián)網(wǎng)上所表達(dá)的文本空間上的世界投影來更多地了解世界。

但是這些文本已經(jīng)表達(dá)了這個(gè)世界。我給你舉個(gè)最近的例子,我認(rèn)為這很有意思。我們都聽說過 Sydney是ChatGPT的第二自我。當(dāng)用戶告訴 Sydney 他認(rèn)為谷歌是比必應(yīng)更好的搜索引擎時(shí),Sydney 就會(huì)變得有點(diǎn)好斗和具有攻擊性。

如何理解這種現(xiàn)象?它是什么意思?你可以說,這是因?yàn)樗皇穷A(yù)測了人們會(huì)做什么,而人類就是會(huì)這樣做。這沒錯(cuò),但也許我們現(xiàn)在正在到達(dá)一個(gè)點(diǎn),即心理學(xué)的語言開始被挪用來理解這些神經(jīng)網(wǎng)絡(luò)的行為。

現(xiàn)在讓我們再來談?wù)劸窒扌?。確實(shí),這些神經(jīng)網(wǎng)絡(luò)有產(chǎn)生幻覺的傾向。這是因?yàn)檎Z言模型非常適合學(xué)習(xí)有關(guān)世界的知識,但不太適合產(chǎn)生好的輸出。這其中有各種各樣的技術(shù)原因。語言模型更擅長學(xué)習(xí)關(guān)于世界、想法、概念、人物、過程的令人難以置信的表征,但它的輸出并不像人們希望的那樣好,或者說不如它們本應(yīng)該的那樣好。

因此,例如對于像ChatGPT這樣的系統(tǒng),它是一個(gè)語言模型,具有額外的強(qiáng)化學(xué)習(xí)訓(xùn)練過程。我們稱之為人類反饋強(qiáng)化學(xué)習(xí)。

可以說,在預(yù)訓(xùn)練過程中,我們想(讓它)學(xué)習(xí)的是關(guān)于這個(gè)世界的一切。但通過人類反饋的強(qiáng)化學(xué)習(xí),我們關(guān)心的是它的輸出。我們會(huì)告訴它,如果它在任何時(shí)候做出了不合時(shí)宜的輸出,那么以后就不要再做了。如果它在任何時(shí)候做出了沒有意義的輸出,以后也不要再做了。

這樣一來,它很快就學(xué)會(huì)了產(chǎn)生好的輸出。但是輸出的水平在語言模型預(yù)訓(xùn)練過程中并不是這樣的。

至于產(chǎn)生幻覺這個(gè)問題,它有時(shí)候有捏造內(nèi)容的傾向,這也極大地限制了它們的實(shí)用性。但是我認(rèn)為我們很有希望通過簡單地改進(jìn)這個(gè)從人類反饋中強(qiáng)化學(xué)習(xí)的步驟,教會(huì)它不產(chǎn)生幻覺?,F(xiàn)在你可能會(huì)問說它真的會(huì)學(xué)習(xí)嗎?我的回答是,讓我們拭目以待。

我們目前的做法是雇人來教我們的神經(jīng)網(wǎng)絡(luò)如何表現(xiàn),教ChatGPT如何表現(xiàn)。你只需與它互動(dòng),它就會(huì)從你的反應(yīng)中推斷出:“哦,這不是你想要的。你對它的輸出不滿意。因此這一次的輸出不好,下一次應(yīng)該做些不同的事情?!?我認(rèn)為這種方法有相當(dāng)大的機(jī)會(huì)能夠完全解決幻覺問題。

Craig S. Smith:

Yann LeCun(Facebook首席人工智能科學(xué)家和深度學(xué)習(xí)的另一位早期先驅(qū))認(rèn)為,大型語言模型所缺少的是這種底層的世界模型,它是非語言的,而語言模型可以參考。我想聽聽你對此的看法,以及你是否已經(jīng)探索過這一領(lǐng)域。

Ilya Sutskever:

我回顧了Yann LeCun的主張,其中有一些想法,它們用不同的語言表達(dá),與目前的范式也許有一些小的差異,但在我看來,這些差異并不十分顯著。

第一個(gè)主張是,一個(gè)系統(tǒng)最好能有多模態(tài)的理解,它不只是從文本中了解世界。我對此的評論是,多模態(tài)理解確實(shí)是可取的,因?yàn)槟憧梢粤私飧嗟氖澜?,你可以了解更多的人,你可以了解他們的狀況,所以系統(tǒng)將能夠更好地理解它應(yīng)該解決的任務(wù),以及人們和他們想要什么。

我們在這方面已經(jīng)做了相當(dāng)多的工作,其中最值得一提的是我們完成的兩個(gè)重要神經(jīng)網(wǎng)絡(luò),一個(gè)叫做Clip,一個(gè)叫做Dall-E。它們都在朝著這個(gè)多模態(tài)的方向發(fā)展。但我也想說,我不認(rèn)為這是非此即彼的情況,如果你沒有視覺,如果你不能從視頻或圖像中理解世界,那么事情就不會(huì)順利進(jìn)行。

而我想為這一點(diǎn)做個(gè)說明。我認(rèn)為有些東西從圖像和圖表等方面更容易學(xué)習(xí),但我也認(rèn)為,你仍然可以只從文字中學(xué)習(xí),只是速度更慢。我給你舉個(gè)例子:思考一下顏色的概念。

毫無疑問,我們無法僅從文本中學(xué)習(xí)顏色的概念,但是當(dāng)你看到嵌入——我需要做一個(gè)小小的轉(zhuǎn)折來解釋“嵌入”的概念。每個(gè)神經(jīng)網(wǎng)絡(luò)通過“嵌入”表示法,即高維向量,來代表單詞、句子和概念。

我們可以看一下這些高維向量,看看什么與什么相似,以及網(wǎng)絡(luò)是如何看待這個(gè)概念或那個(gè)概念的?因此,只需要查看顏色的嵌入向量,機(jī)器就會(huì)知道紫色比紅色更接近藍(lán)色,以及紅色比紫色更接近橙色。它只是通過文本就能知道所有這些東西。這是怎么做到的呢?

如果你擁有視覺,顏色之間的差異就會(huì)立刻顯現(xiàn)出來,你能立即感知到它們。然而通過文本來感知,你需要更長的時(shí)間;也許你知道如何說話,你已經(jīng)理解了句法、單詞和語法,但是要在很久之后你才真正開始理解顏色。

因此,這就是我對多模態(tài)性的必要性的看法:我認(rèn)為它并非必須,但絕對是有用的。我認(rèn)為這是一個(gè)值得追求的好方向。我只是不認(rèn)為應(yīng)該將它們分得如此明確。

LeCun在論文中提出的主張聲稱,其中一個(gè)主要挑戰(zhàn)是預(yù)測具有不確定性的高維向量。但有一點(diǎn)讓我覺得很驚訝,或者至少在那篇論文中沒有得到承認(rèn),那就是目前的自回歸轉(zhuǎn)換器已經(jīng)具備了這種特性。

我給你舉兩個(gè)例子。一個(gè)是對于給定一本書中任意的一頁,預(yù)測其下一頁的內(nèi)容。下一頁有非常多的可能性。這是一個(gè)非常復(fù)雜的高維空間,而它們可以很好地處理它。同樣的情況也適用于圖像。這些自回歸轉(zhuǎn)換器在圖像上也運(yùn)作得非常完美。

例如,像OpenAI一樣,我們對iGPT也進(jìn)行了測試。我們只需取一個(gè)轉(zhuǎn)換器,并將其應(yīng)用于像素,它就能夠非常好地運(yùn)作,并可以以非常復(fù)雜和微妙的方式生成圖像。在Dall-E 1上也是同樣的情況。

所以,我認(rèn)為那篇論文中對當(dāng)前方法無法處理高維分布的評論過于絕對了——我認(rèn)為它們絕對可以。

Craig S. Smith:

關(guān)于有一支人類培訓(xùn)師隊(duì)伍與ChatGPT或一個(gè)大型語言模型一起工作,用強(qiáng)化學(xué)習(xí)來指導(dǎo)它的想法,只是憑直覺,這聽起來不像是一個(gè)教模型了解其語言的基本現(xiàn)實(shí)的有效方法。

Ilya Sutskever:

我不同意這個(gè)問題的措辭。我認(rèn)為我們的預(yù)訓(xùn)練模型已經(jīng)知道了它們需要了解的關(guān)于基礎(chǔ)現(xiàn)實(shí)的一切。它們已經(jīng)具備了有關(guān)語言的知識以及有關(guān)產(chǎn)生這種語言的世界進(jìn)程的大量知識。

大型生成模型對其數(shù)據(jù)——在這種情況下是大型語言模型——所學(xué)習(xí)的東西是對產(chǎn)生這些數(shù)據(jù)的現(xiàn)實(shí)世界過程的壓縮表示,這不僅意味著人和他們的思想,他們的感受的一些內(nèi)容,還有關(guān)于人所處的情況以及他們之間存在的相互作用的一些內(nèi)容。人可以處于不同的情境中。所有這些都是由神經(jīng)網(wǎng)絡(luò)表示的被壓縮的過程的一部分,用以產(chǎn)生文本。語言模型越好,生成模型越好,保真度越高,它就越能捕捉到這個(gè)過程。

現(xiàn)在,正如你所說,這些教師隊(duì)伍實(shí)際上也在使用人工智能輔助工具。這些教師并不是獨(dú)立行動(dòng)的,他們正在使用我們的工具,而這些工具正在做著大部分的工作。但是我們確實(shí)需要有監(jiān)督,需要有人來審查這個(gè)過程,因?yàn)樽罱K我們希望實(shí)現(xiàn)非常高的可靠性。

我們確實(shí)有很多動(dòng)力來使它盡可能高效、精確,這樣產(chǎn)生的語言模型就會(huì)盡可能的表現(xiàn)良好。

所以,是的,有這些人類教師在向模型教授它們的理想行為。而他們使用人工智能系統(tǒng)的方式不斷增加,因此他們自己的效率也在不斷提高。這和教育過程沒什么兩樣,那就是讓教育對象知道如何在這個(gè)世界上表現(xiàn)得好。

我們需要進(jìn)行額外的訓(xùn)練,以確保模型知道編造內(nèi)容永遠(yuǎn)都是不行的。而這種強(qiáng)化學(xué)習(xí)的人類教師或其他變體將教會(huì)它這些。

這樣的做法應(yīng)該是有效的。我們很快就會(huì)知道。

Craig S. Smith:

這些研究最終將通往何處?它們是你最近在做的研究嗎?

Ilya Sutskever:

我不能詳細(xì)講述我正在從事的具體研究,但我可以大致提及一些研究方向。我非常關(guān)注如何讓這些模型更可靠、更可控,讓它們能夠更快地從示例數(shù)據(jù)中學(xué)習(xí),減少指導(dǎo)。以及如何讓它們不要產(chǎn)生幻覺。

Craig S. Smith:

我聽說你曾經(jīng)說過我們需要更快的處理器才能進(jìn)一步擴(kuò)展。似乎模型的擴(kuò)展沒有止境,但訓(xùn)練這些模型所需的功率,我們已經(jīng)達(dá)到了極限,至少是社會(huì)公認(rèn)的極限。

Ilya Sutskever:

我不記得你所說的我做過的確切評論是什么,但人們總是希望有更快的處理器。當(dāng)然,功率總是會(huì)不斷增加??偟膩碚f,成本也在上升。

但我關(guān)注的問題不是成本是否很高,而是我們在支付這筆成本時(shí)是否能得到超過成本的東西。也許你支付了所有這些成本,卻什么都沒有得到,那就不值得。但是,如果你得到了非常有用的、非常有價(jià)值的東西,可以解決我們想要解決的許多問題,那么它的成本就可以是完全合理的。

Craig S. Smith:

有一次我看到你談到了民主以及AI對于民主的影響。有人曾向我談?wù)撨^這樣一種情況,即當(dāng)看似無法解決的沖突出現(xiàn)時(shí),如果你有足夠的數(shù)據(jù)和一個(gè)足夠大的模型,你可以用數(shù)據(jù)來訓(xùn)練模型,從而得出一種最優(yōu)解,使所有人都能滿意。你是否考慮過這種技術(shù)可能幫助人類管理社會(huì)的方向?

Ilya Sutskever:

這是一個(gè)非常大的問題,而且是一個(gè)更具未來性的問題。我認(rèn)為我們的模型仍有許多方面可以變得比現(xiàn)在更為強(qiáng)大。

政府未來是否會(huì)將這項(xiàng)技術(shù)當(dāng)作建議來源其實(shí)是不可預(yù)測的。對于民主的問題,我認(rèn)為未來可能會(huì)發(fā)生的一件事是,由于神經(jīng)網(wǎng)絡(luò)將如此普及且對社會(huì)產(chǎn)生如此大的影響,我們將發(fā)現(xiàn)有必要通過某種民主過程,讓一個(gè)國家的公民提供一些關(guān)于他們希望社會(huì)變成什么樣的信息給神經(jīng)網(wǎng)絡(luò)。我可以想象這種情況的發(fā)生。這可能是一種非常高帶寬的民主形式,你可以從每個(gè)公民那里獲取更多的信息并進(jìn)行匯總,從而指定我們希望這種系統(tǒng)如何行動(dòng)?,F(xiàn)在這就引出了許多問題,但這是未來可能發(fā)生的一件事。

分析所有變量意味著什么?最終你需要做出選擇,而這些變量似乎變得非常重要。我想在這方面研究地更深入一些。因?yàn)槲铱梢院芸斓刈x一百本書,也可以很慢很仔細(xì)地讀一本書,從中獲得更多收獲。所以,其中會(huì)有一些值得考量的元素。此外,我認(rèn)為在某種意義上,從根本上說,要理解所有的事物可能是不可能的。讓我們來看一些更簡單的例子。

任何時(shí)候,只要涉及到復(fù)雜的社會(huì)情境,例如在一家公司,即使只是一家中等規(guī)模的公司,它都已經(jīng)超出了任何單個(gè)人的理解能力。我認(rèn)為只要我們以正確的方式構(gòu)建我們的AI系統(tǒng),AI幾乎任何情況下都會(huì)對人類有令人難以置信的幫助。

本文譯自

https://www.forbes.com/sites/craigsmith/2023/03/15/gpt-4-creator-ilya-sutskever-on-ai-hallucinations-and-ai-democracy/?sh=18e30c701218

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片