首頁>資訊 >
每日看點!關于未來的五個預言,如今實現(xiàn)了幾個? 2023-03-22 15:59:34  來源:36氪

寫在前面


(資料圖片僅供參考)

2023年的3月是不同尋常的一個月。GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API、文心一言,一顆顆 AI 大模型領域的重磅炸彈,扎堆在3月引爆。

人工智能,不再是科幻小說,不再是閱讀理解,不再是新聞標題,不再是以太網(wǎng)中躍動的字節(jié)和CPU中孱弱的靈魂,而是實實在在的宿命。我們已身處大時代的革命之中, 在越來越多的領域,人工智能正在快速超越人類。我們怎么才能破局?未來已來,我們還能做什么?

在湛廬大師行第34期的活動中,MIT物理系終身教授、未來生命研究所創(chuàng)始人、《生命3.0》作者邁克斯·泰格馬克教授曾經(jīng)分別于北京、上海兩地,在獵豹、百度等公司,清華、上海交大等知名高校與大家一同探討“生命3.0:與AI相伴的人類未來”。

泰格馬克教授一直在強調,人類不會淪為“無用階層”,并且,關于人類未來,關于人工智能,我們需要抉擇,需要提前做準備,需要從一個非常長遠的角度出發(fā)思考,除此之外,教授還分享了他對于AI武器、新技術的看法。很多預言,在現(xiàn)今都已實現(xiàn)。今天,湛廬君把教授8天活動的演講內(nèi)容整理成文字,希望能讓你積極地面向未來,去擁有具有生活價值的知識和能力。

《生命3.0》書封 作者:

1.

生命3.0,會比你想象的更早到來

我覺得,從人工智能到通用人工智能,再到超級智能和生命3.0,這條路并沒有我們想象中的遙遠。

從定義上看,智能即完成復雜目標的能力。智能分為兩種:生物智能和人工智能。而很多認為超級智能不會到來的人犯下了這種錯誤:他們覺得,我們現(xiàn)在連自己的大腦怎么運作的都沒有搞清楚,又如何打造出比我們更強大的智能?但是同樣的道理也可以說,我們好像永遠都打造不出直升飛機,因為我們連一個機器鳥都造不出來(機器鳥是飛機發(fā)明出來一百年之后才出現(xiàn)的)。

這個例子說明,飛行器的制造比我們想象的簡單,比生物學更加簡單。同樣的道理,通用人工智能打造出來的過程也會比我們想象的更加簡單。畢竟,大腦的誕生受到進化的限制,而這并不能限制到工程師。

泰格馬克教授

幾年前,機器人還不能走路,現(xiàn)在它可以后空翻;以前我們根本就沒有自動駕駛的車,現(xiàn)在我們卻有了無人火箭,它可以自己下降,自己著陸;以前計算機也不能做面部識別,現(xiàn)在AI不僅能夠做面部識別,還能生成一些虛假的面部……在回顧這些了不起的成就的同時,我們也應當加緊步伐,去思考如何應對與“生命3.0”相伴的未來。

2.

人類不會淪為“無用階層”

對于“人工智能取代人類”的擔憂,從來都不是沒有來由的。我現(xiàn)在用人類能力地形圖來說明這個問題。

人類能力地形圖

圖中的海拔高度代表了人工智能將還未完全取代人類的工作,海平面則表示了當下人工智能所能達到的水平。海平面會隨著人工智能的進步上升,所以在這張地形圖上,會發(fā)現(xiàn)類似“全球變暖”的變化。我們顯然要避免那些近海區(qū)的工作,這些工作遲早會被人工智能取代。

然而,水平面最終會上升到什么程度?水平面最終會不會淹沒一切?最終能不能完全勝任所有人類工作?這里需要大家牢記通用人工智能的定義:擁有完成包括學習在內(nèi)幾乎所有目標和認知任務的能力的人工智能。這意味著對于三個疑問的回答都是YES。

當智能爆炸發(fā)生,超級智能和“生命3.0”隨之到來時,人類就會淪為無用階層了嗎?我的回答是,這太尷尬了。我們每個人選擇了自己的工作,我們之所以為人,是因為我們有著一種雄心壯志。所以,我們應該先思考一下有了高科技,我們希望有個什么樣的社會,不僅僅要有物質的富足,人生還需要有別的追求、需要有別的意義。

而且,我們應當保持這種雄心壯志。我們應該不斷的思考和想象未來,并向著這個方向不斷發(fā)展。

3.

“試錯法”將成為歷史

如果我們能在與日益發(fā)展的科技的比賽中獲勝,人類的科技智慧同樣會提高。我們未來如何操控與AI相關的機器,讓它造福人類的發(fā)展?

為了實現(xiàn)這樣一個目的,我和其他的科學家一起成立了未來生命研究所,我們希望未來仍舊有生命存在,能讓我們的生活變得越來越好。而人類又該如何贏得這場不斷上升的科技和我們不斷掌控它們能力之間的競賽呢?

我認為,人類必須改變相關的策略。

過去,我們的策略是從一些錯誤中學習相關的經(jīng)驗教訓。比如我們發(fā)明了火,除了幾次火災之內(nèi)的事故之后,我們發(fā)明了滅火器。我們又發(fā)明了汽車,然后出了幾次車禍事故之后,我們又發(fā)明了氣囊或者是安全帶這樣一些防御措施。

從火和車的例子可以說明,我們可以從錯誤中學習經(jīng)驗,然后讓科技朝著造福于人類社會的方向發(fā)展。

所以我們的策略還是說從錯誤當中學習經(jīng)驗。但是這樣的策略不能適用于長久,尤其對于未來發(fā)展來說也是不適用的。這是因為隨著人類技術的不斷發(fā)展,科技變得逐漸強大,最終會在某一些領域取得相當強大的發(fā)展,比如核能,比如合成生物學等。

所以更好的方法是,對于強大的科技我們可以事先做好準備,來預測它可能會帶來的一些結果。核能方面、生物學方面或者是通用人工智能領域,都可以實現(xiàn)這樣一種策略——我們需要提前做好準備,想到預先的一些后果,然后避免。這并不是在制造恐慌。

比如,在美國航天局部署阿波羅11號任務之前,在中國發(fā)射自己載人衛(wèi)星之前,他們都會仔細地設想所有可能出錯的狀況,畢竟是要把人類放進易燃易爆的太空艙里,再將他們發(fā)射上一個無人能助的境遇。這是在制造恐慌嗎?不,那正是在做安全工程,以確保任務順利進行,這正是處理通用人工智能或其他強有力的科技時應該采取的策略。

4.

嚴格限制AI武器,才能防止將來會產(chǎn)生的軍備競賽

核武器與生化武器有非常清晰的界限。但AI武器怎么界定?飛機的自動瞄準、無人機的自動駕駛、自動攻擊算不算一種AI武器?

我認為,從定義上說,AI武器意味著,它可以自主決定殺誰,而不是由人來決定。因而,我將AI武器定義為致命性自主武器系統(tǒng)。

今天,自動化殺人武器是AI領域的一個熱門話題,其中的界限到底是在哪里呢?在美國,這個話題已經(jīng)有了激烈的討論,包括在與獵豹移動CEO傅盛的對談中,他也問過我,我們現(xiàn)在開始談論禁止自動化殺人武器,以及簽約禁止研發(fā)自動性殺人武器是不是還太早了?

但其實,這一點都不早,我們必須提前防止AI開發(fā)這種自動化殺人武器,才能防止將來會產(chǎn)生的軍備競賽。就像生物化學家在致命性的生化武器研發(fā)之前,就已經(jīng)達成一致,不去研發(fā)這種有害的生化武器,因此,我們也在道德上負有這種責任。

5.

合作,將是科技造福人類的關鍵

如果世界上有一個國家首先先開發(fā)出通用人工智能,那它就有占有優(yōu)勢了。我們知道博弈理論,博弈理論實際就是研究在競爭環(huán)境下怎么協(xié)作,當競爭者能意識到,協(xié)作和合作能夠帶來更好的結果時,他們就會開始協(xié)作和合作。

他們事先達成一個協(xié)議,分享它帶來的好處。假設通用人工智能可以把全球的GDP翻100倍,那么中國就會比今天富100倍,美國會比今天富100倍,這是可以保證的未來,而不是說50%的機會只能夠富裕200倍。如何實現(xiàn)國際間更好的合作,將是科技造福人類的關鍵。

推薦閱讀

書名:《生命3.0》作者:(美)邁克斯·泰格馬克,出版社:湛廬文化/浙江教育出版社

關鍵詞:

相關閱讀:
熱點
圖片 圖片