首頁>資訊 >
全球觀天下!我為什么與馬斯克一起呼吁暫停人工智能訓練? 2023-04-01 09:46:25  來源:36氪

3月29日,未來生命研究所(Future of Life Institute)發(fā)布了一封公開信,呼吁所有人工智能(AI)實驗室暫停一切大規(guī)模人工智能系統(tǒng)的訓練,至少停止六個月,這些系統(tǒng)比目前最先進的GPT-4更強大。我和其他一些業(yè)內(nèi)知名人士一起簽署了這封“暫停信”,其中包括埃隆·馬斯克(Elon Musk)和史蒂夫·沃茲尼亞克(Steve Wozniak)。我不知道呼吁有沒有用,但我相信前方確實有危險,以下是為什么我這么說的原因。

一段時間以來,我一直都在擔心人工智能對社會的影響,我指的不是超級智能人工智能突然接管世界這種人類面臨的長期存亡風險,而是人工智能被用來操縱社會的短期風險,即通過人工智能有意影響我們接收的信息,并決定這些信息如何在人群中傳播。這種風險在過去12個月里迅速上升,原因是兩種重疊技術的重大性能提升,這兩種技術通常被稱為“生成式AI”和“對話式AI”。下面我來談談自己為什么對這兩種技術感到擔憂。

生成式AI指的是大型語言模型(LLM)根據(jù)人類要求創(chuàng)造原創(chuàng)內(nèi)容的能力?,F(xiàn)在,人工智能生成的內(nèi)容包括圖像、藝術作品、視頻、散文、詩歌、計算機軟件、音樂和科學類文章等。在過去,生成式內(nèi)容讓人嘆為觀止,但沒有人會把它誤認為是人類的創(chuàng)造。這一切在過去12個月里發(fā)生了變化。人工智能系統(tǒng)突然能夠創(chuàng)造出可以輕易欺騙我們的東西,讓我們相信這些東西要么真的是人類創(chuàng)造的,要么是真實的視頻或在現(xiàn)實世界中捕捉到的照片。這種能力目前正在被大規(guī)模部署,給社會帶來了許多重大風險。


(相關資料圖)

就業(yè)市場面臨的風險最顯而易見。由于LLM系統(tǒng)創(chuàng)造的東西讓人嘆為觀止,專業(yè)人士現(xiàn)在將LLM系統(tǒng)稱為“能與人類競爭的智能”,可以取代內(nèi)容創(chuàng)作者。從藝術家和作家到計算機程序員和金融分析師,一大批職業(yè)都會受到影響。事實上,Open AI、OpenResearch和賓夕法尼亞大學的一項新研究通過比較GPT-4能力和工作要求,探索了人工智能對美國勞動力市場的影響。該研究的作者估計,20%的美國勞動力中至少有50%的工作將受到GPT-4的影響,高收入工作將受到更大的影響。

就業(yè)市場面臨的這一近在眼前的威脅令人擔憂,但這不是我簽署“暫停信”的原因。我的擔憂是,人工智能生成的內(nèi)容看起來和感覺起來都是真實的,而且經(jīng)常給人很有權威的印象,但它實際上很容易犯事實性錯誤。如何確保這些將成為勞動力主要組成部分的系統(tǒng)不會從傳播小錯誤變成傳播瘋狂的捏造內(nèi)容,目前沒有確切的標準或管理機構,我們需要時間來制定保護措施,并由監(jiān)管機構來確保保護措施落到實處。

接下來一個顯而易見的風險是,心懷不軌的人可能會故意創(chuàng)作出帶有事實性錯誤的內(nèi)容,被用于有意傳播錯誤信息、虛假信息和徹頭徹尾的謊言。這一風險一直都存在,但生成式人工智能所能觸及的范圍是過去不曾有過的,我們的世界非常容易因此充斥著看起來很權威但完全是捏造的內(nèi)容。這種情況已經(jīng)在Deepfake這類AI換臉工具上得到了體現(xiàn),公眾人物可以在看起來非常逼真的視頻中做任何事或說任何話。隨著人工智能變得越來越嫻熟,公眾將無法區(qū)分真假。我們需要水印系統(tǒng)和其他技術來區(qū)分真實的內(nèi)容和人工智能生成的內(nèi)容。要制定和落實這些保護措施,同樣需要時間。

對話式人工智能系統(tǒng)帶來了一系列獨特的風險。這種形式的生成式人工智能可以通過文本聊天和語音聊天與用戶進行實時對話。這些系統(tǒng)最近已經(jīng)發(fā)展到人工智能可以與人類進行連貫的對話,并隨著時間的推移跟蹤對話過程和上下文。這些技術是我最擔心的,因為它們引入了一種監(jiān)管機構沒有準備好的全新的影響力運動形式——對話影響力。

每個銷售人員都知道,說服別人買東西或相信某個東西的最好方法是與他們交談,這樣你就可以闡述自己的觀點,觀察他們的反應,然后調(diào)整策略來應對他們的抗拒或擔憂。隨著GPT-4的發(fā)布,現(xiàn)在很明顯,人工智能系統(tǒng)將能夠讓用戶參與真實的實時對話,作為一種有針對性的影響形式。我擔心的是,第三方使用API或插件將促銷目標傳遞到看似自然的對話中,毫無提防的用戶將被操縱購買他們不想要的產(chǎn)品,注冊他們不需要的服務,或者相信不真實的信息。

我稱之為“人工智能操縱問題”。在很長一段時間里,這只是一個理論上的風險,但現(xiàn)在的技術可以部署個性化的對話影響力活動,根據(jù)用戶的價值觀、興趣和背景來定位用戶,以推動銷售、宣傳或誤導信息。

事實上,我擔心人工智能驅(qū)動的對話影響力將成為人類有史以來最強大的有針對性的說服形式。我們需要時間來落實保護措施。就我個人而言,我認為可能需要制定法相關規(guī),禁止或嚴格限制使用人工智能介導的對話影響力。

因此,我在“暫停信”上簽了名,因為我清楚地看到了人工智能系統(tǒng)帶來的新風險的蔓延速度非???,從業(yè)內(nèi)研究人員和行業(yè)專業(yè)人士到監(jiān)管機構和政策制定者,都沒有時間去適應。

這封信會管用嗎?我不清楚人工智能行業(yè)是否會同意暫停六個月,但這封信已經(jīng)引起了人們對這個問題的關注。就我個人而言,我認為我們需要盡可能多地敲響警鐘,以喚醒監(jiān)管機構、政策制定者和行業(yè)領導者,他們需要采取行動,這項技術進入市場的速度比我經(jīng)歷過的任何事都要快,這也是為什么我們必須暫停適應一下。我們需要一些時間。

本文作者系Unanimous AICEO、Responsible Metaverse Alliance首席科學家和XR Safety Initiative全球技術顧問。

關鍵詞:

相關閱讀:
熱點
圖片