首頁(yè)>資訊 >
解讀人工智能的2021:回顧那些激動(dòng)人心的重大突破 2021-12-29 18:39:38  來(lái)源:36氪

,

本文是 “2021 InfoQ 年度技術(shù)盤(pán)點(diǎn)與展望” 系列文章之一,由 InfoQ 編輯部制作呈現(xiàn),重點(diǎn)聚焦 AI 領(lǐng)域在 2021 年的重要進(jìn)展、動(dòng)態(tài),希望能幫助你準(zhǔn)確把握 2021 年 AI 領(lǐng)域的核心發(fā)展脈絡(luò),在行業(yè)內(nèi)始終保持足夠的技術(shù)敏銳度。

“InfoQ 年度技術(shù)盤(pán)點(diǎn)與展望”是 InfoQ 全年最重要的內(nèi)容選題之一,將涵蓋架構(gòu)、AI、大數(shù)據(jù)、大前端、云計(jì)算、數(shù)據(jù)庫(kù)、中間件、操作系統(tǒng)、開(kāi)源、編程語(yǔ)言十大領(lǐng)域,后續(xù)將聚合延展成專(zhuān)題、迷你書(shū)、直播周、合集頁(yè)面,在 InfoQ 媒體矩陣陸續(xù)放出,歡迎大家持續(xù)關(guān)注。

特此感謝何苗、侯軍、蔣宏飛、劉知遠(yuǎn)、?澤君、吳韶華、許欣然、曾冠榮、張杰、張凱(按姓名首字母排序)對(duì)本文的貢獻(xiàn),他們的真知灼見(jiàn),是本文能與大家見(jiàn)面的關(guān)鍵。

即將過(guò)去的 2021 年,又是跌宕起伏的一年。

疫情仍沒(méi)有結(jié)束的苗頭,缺芯造成的供應(yīng)鏈中斷此起彼伏,與此同時(shí),數(shù)字化、智能化轉(zhuǎn)型已是大勢(shì)所趨。全球企業(yè)和機(jī)構(gòu)在不斷學(xué)會(huì)適應(yīng)“新常態(tài)”,并從中捕捉新的商業(yè)機(jī)會(huì)。

2021年, 人工智能領(lǐng)域依然熱潮洶涌。

AphaFold2 成功預(yù)測(cè) 98% 蛋白質(zhì)結(jié)構(gòu),預(yù)訓(xùn)練大模型迎來(lái)大爆發(fā),自動(dòng)駕駛邁入商業(yè)化試點(diǎn)探索新階段,元宇宙概念東風(fēng)勁吹,首個(gè)關(guān)于 AI 倫理的全球協(xié)議通過(guò),商湯科技即將摘得“AI 第一股”... 前沿技術(shù)突破令人欣喜,落地應(yīng)用“潤(rùn)物細(xì)無(wú)聲”般深入各行業(yè),業(yè)界也開(kāi)始正視人工智能的問(wèn)題和挑戰(zhàn)。

在歲末年初之際,InfoQ 采訪了眾多行業(yè)專(zhuān)家,回顧了 2021 年人工智能大模型、深度學(xué)習(xí)框架、 NLP、智能語(yǔ)音、自動(dòng)駕駛、知識(shí)圖譜等各項(xiàng) AI 技術(shù)的發(fā)展情況,并展望了未來(lái)一年可能的技術(shù)趨勢(shì)。

2021 年度 AI 技術(shù)突破

人工智能預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)

12 月 15 日,Nature 發(fā)布了《2021 年十大科學(xué)新聞》;12 月 17 日,Science 緊隨其后,公布了《2021 年度十大科學(xué)突破》。Nature 和 Science 都將「人工智能預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)」評(píng)為本年度最重要的發(fā)現(xiàn),Science 更是將其列為“2021 年十大科學(xué)突破進(jìn)展”之首。

長(zhǎng)期以來(lái),蛋白質(zhì)結(jié)構(gòu)的預(yù)測(cè)一直是生物學(xué)領(lǐng)域的研究熱點(diǎn)和難點(diǎn)。傳統(tǒng)的蛋白質(zhì)結(jié)構(gòu)探測(cè)方法主要有三種:X 射線晶體學(xué)、核磁共振和冷凍電鏡。但這些方法成本較高,研究周期漫長(zhǎng),且進(jìn)展有限。

人工智能為這一困擾生物學(xué)界數(shù)十年的難題按下了快進(jìn)鍵。

今年 7 月,蛋白結(jié)構(gòu)兩大 AI 預(yù)測(cè)算法 —— DeepMind 的 AphaFold2 和華盛頓大學(xué)等機(jī)構(gòu)研發(fā)的 RoseTTAFold 相繼開(kāi)源。

AphaFold2“解鎖”98% 人類(lèi)蛋白質(zhì)組

7 月 16 日,DeepMind 在 Nature 發(fā)表 論文,宣布已利用 Alpha Fold2 預(yù)測(cè)了 35 萬(wàn)種蛋白質(zhì)結(jié)構(gòu),涵蓋了 98.5% 的人類(lèi)蛋白質(zhì)組,及其他 20 種生物幾乎完整的蛋白質(zhì)組。研究團(tuán)隊(duì)還公布了 AlphaFold2 的開(kāi)源代碼和技術(shù)細(xì)節(jié)。

RoseTTAFold 可十分鐘內(nèi)計(jì)算出蛋白質(zhì)結(jié)構(gòu)

同日,華盛頓大學(xué)蛋白設(shè)計(jì)研究所 David Baker 教授課題組及其他合作機(jī)構(gòu)在 Science 上發(fā)表 論文 ,公布了其開(kāi)源蛋白質(zhì)預(yù)測(cè)工具 RoseTTAFold 的研究結(jié)果。研究團(tuán)隊(duì)探索了結(jié)合相關(guān)思想的網(wǎng)絡(luò)架構(gòu),并通過(guò)三軌網(wǎng)絡(luò)獲得了最佳性能。三軌網(wǎng)絡(luò)產(chǎn)生的結(jié)構(gòu)預(yù)測(cè)精度接近 CASP14 中的 DeepMind 團(tuán)隊(duì)的 AlphaFold2,且速度更快、所需計(jì)算機(jī)處理能力更低。僅用一臺(tái)游戲計(jì)算機(jī),在短短十分鐘內(nèi)就能可靠地計(jì)算出蛋白質(zhì)結(jié)構(gòu)。

其他研究進(jìn)展

8 月,中國(guó)研究人員使用 Alpha Fold2 繪制了近 200 種與 DNA 結(jié)合的蛋白質(zhì)結(jié)構(gòu)圖。11 月,德國(guó)和美國(guó)的研究人員利用 Alpha Fold2 和冷凍電鏡繪制了核孔復(fù)合物的結(jié)構(gòu)圖。12 月 22 日,深勢(shì)科技推出了蛋白結(jié)構(gòu)預(yù)測(cè)工具 Uni-Fold,在國(guó)內(nèi)首次復(fù)現(xiàn)谷歌 Alphafold2 全規(guī)模訓(xùn)練并開(kāi)源訓(xùn)練、推理代碼。

AI 技術(shù) 2021 年發(fā)展總結(jié)與展望

人工智能邁向“煉大模型”階段

今年是超大規(guī)模預(yù)訓(xùn)練模型的爆發(fā)之年。

去年,GPT-3 橫空出世,這個(gè)具有 1750 億參數(shù)規(guī)模的預(yù)訓(xùn)練模型所表現(xiàn)出來(lái)的零樣本與小樣本學(xué)習(xí)能力刷新了人們的認(rèn)知,也引爆了 2021 年 AI 大模型研究的熱潮。

谷歌、微軟、英偉達(dá)、智源人工智能研究院、阿里、百度、浪潮等國(guó)內(nèi)外科技巨頭和機(jī)構(gòu)紛紛展開(kāi)大模型研究和探索。

超大規(guī)模預(yù)訓(xùn)練模型的“軍備競(jìng)賽”

2021 年 1 月,Google 推出的 Switch Transformer 模型以高達(dá) 1.6 萬(wàn)億的參數(shù)量打破了 GPT-3 作為最大 AI 模型的統(tǒng)治地位,成為史上首個(gè)萬(wàn)億級(jí)語(yǔ)言模型。

國(guó)內(nèi)研究機(jī)構(gòu)也不甘示弱。今年 6 月,北京智源人工智能研究院發(fā)布了超大規(guī)模智能模型“悟道 2.0”,達(dá)到 1.75 萬(wàn)億參數(shù),超過(guò) Switch Transformer 成為全球最大的預(yù)訓(xùn)練模型。

值得一提的是,今年國(guó)產(chǎn)化大模型研發(fā)工作進(jìn)展飛速,華為、浪潮、阿里、百度等都發(fā)布了自研的大模型。

浪潮人工智能研究院首席研究員吳韶華向 InfoQ 表示,現(xiàn)在業(yè)界提高模型參數(shù)量有兩種技術(shù)路線,產(chǎn)生兩種不同的模型結(jié)構(gòu),一種是單體模型,一種是混合模型。如浪潮的源大模型,華為的盤(pán)古大模型、百度的文心大模型、英偉達(dá)聯(lián)合微軟發(fā)布的自然語(yǔ)言生成模型 MT-NLG 等走的都是單體模型路線;而智源的悟道模型、阿里 M6 等走的是混合模型路線。

預(yù)訓(xùn)練模型技術(shù)新進(jìn)展

OPPO 小布智能中心、 NLP 算法工程師曾冠榮認(rèn)為,預(yù)訓(xùn)練模型在今年取得的重要技術(shù)進(jìn)展有:

知識(shí)表示和學(xué)習(xí)機(jī)理進(jìn)一步創(chuàng)新突破

隨著對(duì)預(yù)訓(xùn)練模型的深入理解,預(yù)訓(xùn)練模型的知識(shí)學(xué)習(xí)和表征的機(jī)理逐步明確,人們得以更加順利地往模型里注入需要其學(xué)習(xí)的知識(shí),在這些知識(shí)的加持下,對(duì)復(fù)雜任務(wù)的應(yīng)對(duì)能力得到了大幅提升。

對(duì)比學(xué)習(xí)、自監(jiān)督和知識(shí)增強(qiáng)

以對(duì)比學(xué)習(xí)為中心,多種增強(qiáng)方法為工具的方式能進(jìn)一步提升預(yù)訓(xùn)練模型的語(yǔ)義理解和表征能力,增強(qiáng)方法的深入讓模型自監(jiān)督成為可能,讓對(duì)比學(xué)習(xí)對(duì)樣本,尤其是正樣本的依賴(lài)降低,數(shù)據(jù)依賴(lài)的降低勢(shì)必讓模型對(duì)少樣本甚至無(wú)樣本任務(wù)的適應(yīng)性提升,模型能更好地完成這類(lèi)型的任務(wù),這將讓預(yù)訓(xùn)練模型落地的成本再降低一個(gè)層次。

降低 AI 規(guī)模化落地的門(mén)檻

預(yù)訓(xùn)練大模型降低了 AI 應(yīng)用的門(mén)檻,解決了 AI 應(yīng)用的兩個(gè)難題:數(shù)據(jù)和行業(yè)知識(shí)。它既不需要大量的標(biāo)注數(shù)據(jù),又保障了基礎(chǔ)底座。

在預(yù)訓(xùn)練模型的業(yè)務(wù)定制優(yōu)化和應(yīng)用方面,曾冠榮認(rèn)為,從第一個(gè)預(yù)訓(xùn)練語(yǔ)言模型 BERT 發(fā)布至今,已在多個(gè)熱門(mén)任務(wù)下得到應(yīng)用,逐步從一種“潮流”變成前沿技術(shù)的“基本操作”,如預(yù)訓(xùn)練模型已成為機(jī)器翻譯領(lǐng)域的基礎(chǔ)關(guān)鍵性技術(shù)。此外,預(yù)訓(xùn)練模型也成為大系統(tǒng)中的一部分,發(fā)揮著其語(yǔ)義理解的優(yōu)勢(shì)。

無(wú)論是業(yè)界還是科研,對(duì)預(yù)訓(xùn)練模型的使用方式逐漸靈活,能從預(yù)訓(xùn)練模型中拆解出適合任務(wù)的部分并組裝到自己的實(shí)際任務(wù)模型中。

時(shí)至今日,對(duì)預(yù)訓(xùn)練大模型的性能優(yōu)化仍未終止,在學(xué)界,仍有大量的研究在預(yù)訓(xùn)練模型的落地能力上努力,壓縮、剪枝、蒸餾的工作仍起到重要作用。不止于算法本身,編譯、引擎、硬件等方面的優(yōu)化也在大步邁進(jìn)。

小結(jié)和展望

吳韶華認(rèn)為,整體而言,現(xiàn)在大規(guī)模預(yù)訓(xùn)練模型的研究,包括模型結(jié)構(gòu)的演進(jìn)和落地仍處在探索階段,各家的持續(xù)探索正在不斷擴(kuò)大對(duì)大規(guī)模預(yù)訓(xùn)練模型的認(rèn)知邊界。

“大規(guī)模預(yù)訓(xùn)練模型是人工智能的最新技術(shù)高地,是對(duì)海量數(shù)據(jù)、高性能計(jì)算和學(xué)習(xí)理論原始創(chuàng)新的全方位考驗(yàn)”,清華大學(xué)教授、智源大模型技術(shù)委員會(huì)成員劉知遠(yuǎn)在接受 InfoQ 采訪時(shí)展望了明年大模型的發(fā)展趨勢(shì)。

劉知遠(yuǎn)表示,他明年將重點(diǎn)關(guān)注兩個(gè)層面的問(wèn)題:

一是人工智能技術(shù)正呈現(xiàn)“大一統(tǒng)”趨勢(shì),如預(yù)訓(xùn)練模型在 Prompt Tuning 等技術(shù)的支持下可用于很多不同的任務(wù),再如 Transformer 模型框架正在從自然語(yǔ)言處理擴(kuò)展到計(jì)算機(jī)視覺(jué)模態(tài),接下來(lái)我們也許會(huì)看到更多的從框架、模型和任務(wù)等方面推進(jìn)人工智能技術(shù)趨向統(tǒng)一的工作 ; 另一個(gè)問(wèn)題是,隨著預(yù)訓(xùn)練模型規(guī)模增大,如何更好更高效地實(shí)現(xiàn)任務(wù)適配和推理計(jì)算,將是讓大模型飛入千家萬(wàn)戶的重要技術(shù)。

國(guó)產(chǎn)深度學(xué)習(xí)框架不再是“技術(shù)的跟隨者”

過(guò)去十年涌現(xiàn)了大量的 AI 算法和應(yīng)用,這背后都離不開(kāi)開(kāi)源深度學(xué)習(xí)框架提供的支持。

開(kāi)源深度學(xué)習(xí)框架是 AI 算法研發(fā)和 AI 應(yīng)用落地的“腳手架”,幫助 AI 研究員和開(kāi)發(fā)者大幅降低算法研發(fā)門(mén)檻,提升研發(fā)效率。

IDC 的調(diào)研顯示,中國(guó)人工智能領(lǐng)域 90% 以上的產(chǎn)品都使用了開(kāi)源的框架、庫(kù)或者其他工具包。

新進(jìn)展,新趨勢(shì)

深度學(xué)習(xí)框架的發(fā)展核心是跟隨著深度學(xué)習(xí)領(lǐng)域的發(fā)展而前進(jìn)的。

開(kāi)源深度學(xué)習(xí)框架曠視天元 MegEngine 研發(fā)負(fù)責(zé)人許欣然在接受 InfoQ 采訪時(shí),分享了過(guò)去這一年他所觀察到的深度學(xué)習(xí)的新進(jìn)展:

(1)以 ViT、Swin 為代表的 Transformer 類(lèi)模型開(kāi)始向 NLP 以外的領(lǐng)域進(jìn)軍,在更多場(chǎng)景中展現(xiàn)威力,讓“大”模型的趨勢(shì)愈演愈烈。

相應(yīng)的,深度學(xué)習(xí)框架也在訓(xùn)練大模型方面進(jìn)展頗多(如 DeepSpeed+ZeRO),多種混合并行方案層出不窮。無(wú)論是深度學(xué)習(xí)框架還是硬件廠商,都在思考 Transformer 是否是會(huì)長(zhǎng)期固定的計(jì)算 pattern。

(2)A100 這類(lèi)顯卡的誕生,催生了一股從動(dòng)態(tài)圖回到靜態(tài)圖的趨勢(shì)。本身對(duì)動(dòng)態(tài)圖更友好的框架也紛紛嘗試通過(guò)編譯的方式提升效率,比如 PyTorch 的 LazyTensor、Jax 的 XLA。很多國(guó)產(chǎn)框架也在嘗試通過(guò)動(dòng)靜結(jié)合的方式提升效率,比如曠視天元 MegEngine 推出的 Tensor Interpreter、MindSpore 的 Python 代碼轉(zhuǎn)靜態(tài)圖的方案等。

此外,MLIR 和 TVM 這兩個(gè)深度學(xué)習(xí)編譯器領(lǐng)域的燈塔都在快速增長(zhǎng),如何靠機(jī)器做好編譯也正成為各個(gè)深度學(xué)習(xí)框架研發(fā)的主要方向。同時(shí)隨著深度學(xué)習(xí)方法的持續(xù)發(fā)展,也誕生了更多的新興框架,如圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域的 DGL。

技術(shù)自立之路

近兩年,國(guó)產(chǎn)深度學(xué)習(xí)框架陸續(xù)開(kāi)源且發(fā)展迅速,逐漸在開(kāi)源框架市場(chǎng)占有一席之地。

在技術(shù)研發(fā)方面,國(guó)產(chǎn)框架不再是技術(shù)的“跟隨者”的角色,研發(fā)出了很多領(lǐng)先的創(chuàng)新點(diǎn),比如 MegEngine 的 DTR 技術(shù)、OneFlow 的 SBP 并行方案和 MindSpore 的 AKG 等等。此外,在功能、代碼質(zhì)量和文檔等方面都達(dá)到了很高的水準(zhǔn)。

在開(kāi)源生態(tài)建設(shè)方面,各家也都持續(xù)投入,通過(guò)開(kāi)源社區(qū)扶植、產(chǎn)學(xué)研合作等方式,助力國(guó)產(chǎn)開(kāi)源生態(tài)的發(fā)展和人才培養(yǎng)。

業(yè)界現(xiàn)有的主流深度學(xué)習(xí)框架多來(lái)自國(guó)外大廠,目前,國(guó)內(nèi)企業(yè)自研的深度學(xué)習(xí)框架還沒(méi)有哪一款進(jìn)階成為國(guó)際主流的學(xué)習(xí)框架。

許欣然坦言,國(guó)產(chǎn)深度學(xué)習(xí)框架在生態(tài)建設(shè)上還有很長(zhǎng)的路要走,既需要持續(xù)投入、不斷完善生態(tài)建設(shè),也需要找到差異化的技術(shù)競(jìng)爭(zhēng)點(diǎn),充分結(jié)合我國(guó)國(guó)情和國(guó)產(chǎn)硬件,發(fā)揮好自身的技術(shù)優(yōu)勢(shì)和更好的生態(tài)洞察力。

研發(fā)難點(diǎn)

現(xiàn)階段,在深度學(xué)習(xí)框架方面,業(yè)界普遍面臨的研發(fā)難點(diǎn)主要體現(xiàn)在以下三個(gè)方面:

(1)在訓(xùn)練側(cè),NPU 開(kāi)始入場(chǎng),不少?gòu)S商已經(jīng)做出自己的訓(xùn)練芯片,如何高效對(duì)接訓(xùn)練 NPU 仍待解決;

(2)學(xué)術(shù)研究發(fā)展迅速,框架技術(shù)需要持續(xù)跟進(jìn),這為框架研發(fā)帶來(lái)了一定挑戰(zhàn)。接下來(lái)一段時(shí)間會(huì)持續(xù)一段大 Transformer 的趨勢(shì),那么,下一個(gè)趨勢(shì)是什么?

(3)算力提升速度更多地開(kāi)始依賴(lài) DSA 硬件,只是單純的手寫(xiě) kernel 已難以支撐,框架需要更多的編譯技術(shù)、domain knowledge 才能不斷提升訓(xùn)練效率。隨著 NPU、GPU 等芯片的快速迭代,包括 MLIR、XLA、TVM 在內(nèi)的編譯技術(shù)將受到更多關(guān)注。

將更好地支持大模型訓(xùn)練

隨著大模型的持續(xù)火熱,預(yù)期深度學(xué)習(xí)框架將在并行策略、重計(jì)算等能力上不斷提升,以更好地支持大模型的訓(xùn)練。

同時(shí),目前訓(xùn)練大模型仍需消耗大量資源,如何依靠深度學(xué)習(xí)框架的力量節(jié)省計(jì)算資源,甚至在更小規(guī)模上完成任務(wù),將是一個(gè)值得探索的技術(shù)方向。

智能語(yǔ)音這一年:技術(shù)突破不斷,工業(yè)落地加速

語(yǔ)?領(lǐng)域的?規(guī)模預(yù)訓(xùn)練模型層出不窮

字節(jié)跳動(dòng) AILAB 語(yǔ)?技術(shù)總監(jiān)?澤君向 InfoQ 表示,2021 年度,智能語(yǔ)音技術(shù)的演進(jìn)呈現(xiàn)出三個(gè)層面的趨勢(shì):

(1)基礎(chǔ)建模技術(shù)在打破領(lǐng)域邊界加速融合,如 Transformer 系列模型在?然語(yǔ)?、視覺(jué)和語(yǔ)?領(lǐng)域都展現(xiàn)出?致性的優(yōu)勢(shì),頗有“?統(tǒng)江湖”的意思。

(2) 超?規(guī)模?監(jiān)督學(xué)習(xí)技術(shù)(self-supervised learning)在上述多個(gè)領(lǐng)域展現(xiàn)出很強(qiáng)的通?學(xué)習(xí)能?,即在海量?標(biāo)簽數(shù)據(jù)上訓(xùn)練?規(guī)模通?預(yù)訓(xùn)練模型,然后?少量有標(biāo)簽數(shù)據(jù)做精細(xì)調(diào)整就能取得?常好的效果。

過(guò)去?年里,基于這種兩段訓(xùn)練模式的超?模型不斷刷新各項(xiàng)學(xué)術(shù)算法競(jìng)賽紀(jì)錄,在?業(yè)界也成為?種模型訓(xùn)練和調(diào)優(yōu)范式。

最近?年,F(xiàn)acebook、亞?遜、?歌和微軟等公司的研究學(xué)者陸續(xù)提出語(yǔ)?領(lǐng)域的?規(guī)模預(yù)訓(xùn)練模型, 如 Wav2vec、 HuBERT、 DecoAR、 BigSSL、WavLM 等。

(3)除基礎(chǔ)技術(shù)外,在不同應(yīng)?場(chǎng)合場(chǎng)景下,多個(gè)領(lǐng)域模態(tài)的技術(shù)也在快速相互融合,形成視覺(jué)、語(yǔ)?和語(yǔ)義結(jié)合的多模態(tài)綜合系統(tǒng),如虛擬數(shù)字?。

工業(yè)界落地加速

整體來(lái)說(shuō),智能語(yǔ)?技術(shù)在?業(yè)界的落地不斷加速,來(lái)?業(yè)務(wù)和技術(shù)兩個(gè)?向的合?共同作?牽引和驅(qū)動(dòng)應(yīng)?落地。

從應(yīng)?場(chǎng)景的牽引看,???如短中?視頻業(yè)務(wù),在全球仍保持著較?的增?速度,視頻內(nèi)容創(chuàng)作者和內(nèi)容消費(fèi)者活躍度很?;另???,疫情令居家辦公和遠(yuǎn)程協(xié)作的需求增?,智能語(yǔ)?技術(shù)能在視頻會(huì)議中提供通信增強(qiáng)和語(yǔ)?識(shí)別等關(guān)鍵能?,為參會(huì)者提供更佳的會(huì)議體驗(yàn);以智能汽?和虛擬現(xiàn)實(shí) VR/AR 為代表的新場(chǎng)景不斷出現(xiàn),需要更?便、更低延遲、更沉浸式的語(yǔ)?交互體驗(yàn)。

從核?技術(shù)的驅(qū)動(dòng)看,基礎(chǔ)模型改進(jìn)和?監(jiān)督技術(shù)不斷提升著模型性能上限,同時(shí)多模態(tài)技術(shù)融合使得技術(shù)?案的能?越來(lái)越強(qiáng),可?持更復(fù)雜的場(chǎng)景并帶來(lái)更好的體驗(yàn)。

商業(yè)化難點(diǎn)主要在于商業(yè)模式選擇

馬澤君認(rèn)為,現(xiàn)階段,智能語(yǔ)音商業(yè)化的難點(diǎn)主要是商業(yè)模式探索和路線選擇的問(wèn)題,具體包括如何更好地滿?需求,控制成本以及保證交付質(zhì)量。

???,AI 商業(yè)模式探索需要始終圍繞需求展開(kāi),提升模型效果和在真實(shí)場(chǎng)景中解決用戶或客戶的問(wèn)題不能等同。解決實(shí)際問(wèn)題需要 AI 研發(fā)?員深?業(yè)務(wù)場(chǎng)景,理解需求和條件限制,找到合理的產(chǎn)品技術(shù)?案,并不斷思考和抽象功能和技術(shù),沉淀通?的技術(shù)解決?案,探索驗(yàn)證可規(guī)?;臉?biāo)準(zhǔn)產(chǎn)品,降低定制周期和代價(jià)。

另???,AI 技術(shù)研發(fā)成本?常?,如何通過(guò)優(yōu)化算法低對(duì)領(lǐng)域數(shù)據(jù)依賴(lài),建設(shè)?動(dòng)化平臺(tái)降低??消耗和提升研發(fā)流程效率對(duì)成本控制?常關(guān)鍵。

最后還要重視交付質(zhì)量和售后服務(wù)。只有同時(shí)做好上述三個(gè)環(huán)節(jié),才能完成從需求到交付到服務(wù)的整個(gè)鏈路,從而奠定規(guī)模商業(yè)化的基礎(chǔ)。

端到端和預(yù)訓(xùn)練等技術(shù)仍然值得關(guān)注

端到端序列建模技術(shù)

(1)準(zhǔn)確率和推理速度更上?層樓的端到端技術(shù)值得期待,其中對(duì)?機(jī)制(alignmentmechanism)是端到端序列建模的關(guān)鍵。字節(jié)跳動(dòng) AILAB 正在探索的連續(xù)整合發(fā)放 CIF 模型(Continuous Integrate-and-Fire)是一種創(chuàng)新的序列端到端建模對(duì)齊機(jī)制,具有軟對(duì)齊、計(jì)算代價(jià)低和容易擴(kuò)展的特性。

(2)在端側(cè)設(shè)備上的端到端語(yǔ)?識(shí)別和合成技術(shù)落地值得關(guān)注,特別是輕量級(jí)、低功耗、?準(zhǔn)確度和定制靈活的端到端語(yǔ)?識(shí)別和合成技術(shù)。

(3)端到端語(yǔ)?識(shí)別技術(shù)?向的熱詞定制和領(lǐng)域?適應(yīng)技術(shù)???赡苡兄?進(jìn)展。

?監(jiān)督預(yù)訓(xùn)練技術(shù)

(1)超?數(shù)據(jù)規(guī)模和模型 size 的語(yǔ)??監(jiān)督預(yù)訓(xùn)練技術(shù)值得關(guān)注,語(yǔ)??監(jiān)督預(yù)訓(xùn)練的 BERT 已經(jīng)出現(xiàn) (Wav2vec2.0/Hubert), 語(yǔ)??監(jiān)督預(yù)訓(xùn)練的 GPT-3 很可能在 2022 年到來(lái)。

(2)多模態(tài)語(yǔ)??監(jiān)督預(yù)訓(xùn)練技術(shù)也?常吸引?,該技術(shù)可能會(huì)極?地提升預(yù)訓(xùn)練模型的表征能?,從?帶來(lái)?監(jiān)督預(yù)訓(xùn)練技術(shù)更?范圍的落地應(yīng)?。

(3)無(wú)監(jiān)督預(yù)訓(xùn)練技術(shù)在語(yǔ)?合成、?樂(lè)分類(lèi)、?樂(lè)識(shí)別領(lǐng)域的應(yīng)?同樣值得關(guān)注,借助?監(jiān)督預(yù)訓(xùn)練的聲學(xué)?頻表征,可以有效提升下游任務(wù)的性能。

語(yǔ)?對(duì)抗攻擊與防御技術(shù)

(1)語(yǔ)?領(lǐng)域的對(duì)抗攻擊,從攻擊?段上來(lái)看,將從當(dāng)前的?盒攻擊,進(jìn)?步進(jìn)化成?盒攻擊;從攻擊內(nèi)容來(lái)看,將從當(dāng)前流?的 untarget 攻擊進(jìn)化成 target 攻擊。

群雄逐鹿,誰(shuí)能贏得自動(dòng)駕駛之戰(zhàn)?

2021 年,自動(dòng)駕駛領(lǐng)域格外熱鬧。

造車(chē)熱

今年,互聯(lián)網(wǎng)大廠、新造車(chē)勢(shì)力和傳統(tǒng)企業(yè)紛紛進(jìn)場(chǎng)布局自動(dòng)駕駛,可以說(shuō)能下場(chǎng)的巨頭們基本上都下場(chǎng)造車(chē)了,自動(dòng)駕駛“戰(zhàn)場(chǎng)”群雄逐鹿,不知未來(lái)誰(shuí)執(zhí)牛耳?

在資本市場(chǎng)上,自動(dòng)駕駛也備受追捧。據(jù)零壹智庫(kù)分析,繼 2016-2018 年熱潮之后,2021 年自動(dòng)駕駛領(lǐng)域迎來(lái)第二次投資熱潮。今年 11 月,Momenta 完成超 10 億美元 C 輪系列融資,創(chuàng)下本年度自動(dòng)駕駛領(lǐng)域最大規(guī)模融資記錄。

商業(yè)化前夜

Robotaxi 是自動(dòng)駕駛最有價(jià)值的商業(yè)模式,現(xiàn)階段,很多自動(dòng)駕駛技術(shù)公司都在做 Robotaxi 的嘗試。今年,很多自動(dòng)駕駛車(chē)輛從封閉路測(cè)場(chǎng)地走向真實(shí)道路。百度、小馬智行、文遠(yuǎn)知行、等企業(yè)已實(shí)現(xiàn)面向公眾的示范運(yùn)營(yíng),開(kāi)始探索商業(yè)化。11 月,國(guó)內(nèi)首個(gè)自動(dòng)駕駛出行服務(wù)商業(yè)化試點(diǎn)在北京正式啟動(dòng),百度和小馬智行成為首批獲許開(kāi)展商業(yè)化試點(diǎn)的企業(yè)。業(yè)內(nèi)人士認(rèn)為,這標(biāo)志著國(guó)內(nèi)自動(dòng)駕駛領(lǐng)域從測(cè)試示范邁入商業(yè)化試點(diǎn)探索新階段。

今年,自動(dòng)駕駛卡車(chē)賽道也格外火熱,量產(chǎn)和商業(yè)化均提速,頭部玩家走向上市。近日,毫末智行董事長(zhǎng)張凱在接受 InfoQ 等媒體采訪時(shí)談到了自動(dòng)駕駛卡車(chē)的發(fā)展,他表示,相對(duì)乘用車(chē)輔助自動(dòng)駕駛運(yùn)行場(chǎng)景的復(fù)雜性,RoboTruck 具有一些優(yōu)勢(shì),例如長(zhǎng)時(shí)間運(yùn)行在較暢通的高速公路上,運(yùn)行場(chǎng)景相對(duì)簡(jiǎn)單?,F(xiàn)階段,RoboTruck 走得是類(lèi)似于乘用車(chē)般從輔助駕駛到無(wú)人駕駛漸進(jìn)式的發(fā)展路線。從發(fā)展前景看,Robotruck 具備商業(yè)化閉環(huán)的可行性,但自動(dòng)駕駛系統(tǒng)的量產(chǎn)將會(huì)是一個(gè)坎。

毫末智行 COO 侯軍認(rèn)為,2021 年是自動(dòng)駕駛的爆發(fā)之年。一方面,得益于技術(shù)的持續(xù)進(jìn)步、市場(chǎng)需求、政策加持、資本看好等各方面因素,高級(jí)別自動(dòng)駕駛在落地探索方面,已有了初步的成果;另一方面,智能駕駛商業(yè)化落地也在快速滲透,開(kāi)始走向量產(chǎn)時(shí)代。

2022,這些技術(shù)將是下半場(chǎng)競(jìng)爭(zhēng)勝負(fù)的關(guān)鍵

根據(jù)張凱的預(yù)判,“2022 年將是自動(dòng)駕駛行業(yè)發(fā)展最為關(guān)鍵的一年。乘用車(chē)輔助駕駛領(lǐng)域的競(jìng)爭(zhēng)將會(huì)正式進(jìn)入下半場(chǎng),而下半場(chǎng)競(jìng)爭(zhēng)的場(chǎng)景將會(huì)是城市開(kāi)放場(chǎng)景。其他場(chǎng)景的自動(dòng)駕駛也將正式進(jìn)入商業(yè)化元年”。

張凱認(rèn)為,2022 年,多項(xiàng)自動(dòng)駕駛技術(shù)值得關(guān)注。

(1)數(shù)據(jù)智能將成為自動(dòng)駕駛量產(chǎn)決勝的關(guān)鍵。數(shù)據(jù)智能體系是自動(dòng)駕駛商業(yè)化閉環(huán)的關(guān)鍵所在,搭建高效、低成本的數(shù)據(jù)智能體系有助于推動(dòng)自動(dòng)駕駛系統(tǒng)不斷迭代前行。

(2)Transformer 與 CNN 技術(shù)深度融合,將會(huì)成為自動(dòng)駕駛算法整合的粘合劑。Transformer 技術(shù)幫助自動(dòng)駕駛感知系統(tǒng)理解環(huán)境語(yǔ)義更深刻,與 CNN 技術(shù)深度融合能解決 AI 大模型量產(chǎn)部署的難題,這是自動(dòng)駕駛行業(yè)下半場(chǎng)競(jìng)爭(zhēng)的關(guān)鍵技術(shù)。

(3)大算力計(jì)算平臺(tái)將在 2022 年正式量產(chǎn)落地,Transformer 技術(shù)與 ONESTAGE CNN 技術(shù)都需要大算力計(jì)算平臺(tái)做支撐。

(4)隨著自動(dòng)駕駛系統(tǒng)的量產(chǎn)和規(guī)?;す饫走_(dá)與機(jī)器視覺(jué)組成的 AI 感知技術(shù),將與大算力計(jì)算平臺(tái)深度融合,這將大幅提升自動(dòng)駕駛感知、認(rèn)知模塊的運(yùn)行效率。

NLP,黃金時(shí)代持續(xù)?

這幾年,NLP 處于快速發(fā)展階段。去年,多位 NLP 專(zhuān)家評(píng)判,NLP 迎來(lái)了大爆發(fā)的黃金時(shí)代。那么今年,NLP 的發(fā)展情況如何?

基于提示的微調(diào)技術(shù)迅速流行

作業(yè)幫產(chǎn)研中心蔣宏飛博士告訴 InfoQ,今年基于提示的微調(diào) (prompt-based tuning)的技術(shù)迅速流行起來(lái),這是一種人類(lèi)知識(shí)和大模型較高效的結(jié)合模式。該技術(shù)是今年較值得關(guān)注的新進(jìn)展。

“今年 NLP 在基礎(chǔ)模型方面沒(méi)有大的突破。預(yù)訓(xùn)練模型方面,今年涌現(xiàn)了很多很大的模型,但整體上同質(zhì)化也較嚴(yán)重,對(duì)于工業(yè)界實(shí)踐效果來(lái)講,往往按照‘奧卡姆剃刀’原則,傾向于使用最適當(dāng)?shù)娜?Bert 往往就夠了”蔣宏飛表示。

現(xiàn)階段,NLP 技術(shù)在發(fā)展過(guò)程中還存在不少技術(shù)挑戰(zhàn),其中之一便是很難獲取到大量高質(zhì)量的標(biāo)注數(shù)據(jù)。深度學(xué)習(xí)依賴(lài)大規(guī)模標(biāo)注數(shù)據(jù),對(duì)于語(yǔ)音識(shí)別、圖像處理等感知類(lèi)任務(wù),標(biāo)注數(shù)據(jù)相對(duì)容易,但 NLP 往往是認(rèn)識(shí)類(lèi)任務(wù),人的理解都有主觀性,且任務(wù)和領(lǐng)域眾多,導(dǎo)致大規(guī)模語(yǔ)料標(biāo)注的時(shí)間成本和人力成本都很大。

與 CV、語(yǔ)音識(shí)別相比,NLP 項(xiàng)目在業(yè)務(wù)中落地往往較慢

NLP 落地項(xiàng)目往往和業(yè)務(wù)強(qiáng)相關(guān)。不像圖像識(shí)別、語(yǔ)音識(shí)別,通用能力在具體業(yè)務(wù)也有大量落地場(chǎng)景,業(yè)務(wù)和算法協(xié)作邊界和指標(biāo)相對(duì)好確定。而 NLP 項(xiàng)目在業(yè)務(wù)中落地往往會(huì)比較慢,需要上下游不斷深度磨合對(duì)齊。

NLP 解決的是最難的認(rèn)知智能,而人類(lèi)語(yǔ)言的歧義性、復(fù)雜性、動(dòng)態(tài)性令其挑戰(zhàn)重重。但 NLP 商業(yè)化落地必須面對(duì)這些本質(zhì)的難題,所以不太可能有通用性的“一招吃遍天”的技術(shù)方案。

“盡管現(xiàn)在的預(yù)訓(xùn)練模型一直在往這個(gè)方向努力,但我認(rèn)為起碼目前這種 Transformer 式的,或者更通用地說(shuō),DNN 這種蜂巢智能式的技術(shù)范式不太行。所以,大家能看到也有不少研究學(xué)者在知識(shí)圖譜類(lèi)的各種其他范式上在做努力”蔣宏飛說(shuō)。

通用性的模型既然走不通,那垂類(lèi)單一具體場(chǎng)景任務(wù)為什么也不能快速搭建?這個(gè)問(wèn)題又涉及到數(shù)據(jù)的問(wèn)題。數(shù)據(jù)標(biāo)準(zhǔn)的對(duì)齊、數(shù)據(jù)標(biāo)注一致且高效、數(shù)據(jù)覆蓋度和均衡度、長(zhǎng)尾數(shù)據(jù)的處理、數(shù)據(jù)動(dòng)態(tài)漂移等都是 NLP 從業(yè)者每天面對(duì)的麻煩事。而相關(guān)的方法論和基礎(chǔ)工具還很不系統(tǒng)、不齊備,這是未來(lái)想達(dá)到快速商業(yè)化目的前必須打好的基礎(chǔ)。

明年,NLP 將在哪些場(chǎng)景實(shí)現(xiàn)規(guī)?;涞??

2022 年,NLP 的大規(guī)模化應(yīng)用可能會(huì)出現(xiàn)在以下行業(yè)出現(xiàn)突破:

教育智能化

場(chǎng)景化高標(biāo)準(zhǔn)機(jī)器輔助翻譯,如專(zhuān)業(yè)領(lǐng)域文檔翻譯、會(huì)議實(shí)時(shí)翻譯等。

服務(wù)運(yùn)營(yíng)智能化:培訓(xùn)、銷(xiāo)售、營(yíng)銷(xiāo)、服務(wù)等場(chǎng)景的智能化。

外文學(xué)習(xí) / 寫(xiě)作智能輔助,參考 Grammarly 和 Duolingo 的快速發(fā)展。

醫(yī)療智能化。文本廣泛存在于電子病歷、臨床試驗(yàn)報(bào)告、醫(yī)學(xué)產(chǎn)品說(shuō)明書(shū)、醫(yī)學(xué)文獻(xiàn)中。分析、挖掘和利用這些文本,有大量且能直接使用的場(chǎng)景,可能會(huì)有突破式發(fā)展。

代碼智能分析。代碼 bug 識(shí)別、代碼智能優(yōu)化等。

2022 年,NLP 值得關(guān)注的技術(shù)點(diǎn)

基于提示的微調(diào) (prompt-based tuning) 的技術(shù)。

具有邏輯推理的文本生成技術(shù)、具有良好控制性以及一致性的文本生成技術(shù)。文本生成要在嚴(yán)肅場(chǎng)景用起來(lái)就必須滿足這些,否則只能應(yīng)用在娛樂(lè)場(chǎng)景。

多模態(tài)技術(shù)。如 NLP+CV、 NLP + Image、 NLP+ Speech 等。

主動(dòng)學(xué)習(xí)、數(shù)據(jù)增強(qiáng)等。NLP 大規(guī)??焖俾涞貢r(shí)的很多痛點(diǎn)需要這些技術(shù)來(lái)緩解。

代碼智能。代碼問(wèn)題識(shí)別、代碼翻譯、自動(dòng)代碼優(yōu)化、代碼工作量評(píng)估 (如 Merico 的方案)。

元宇宙概念大火,計(jì)算機(jī)視覺(jué)是基石技術(shù)之一

回首過(guò)去的一年,OPPO AI 技術(shù)產(chǎn)品化專(zhuān)家(語(yǔ)音語(yǔ)義和計(jì)算機(jī)視覺(jué)以及多模態(tài)融合方向)何苗總結(jié)了計(jì)算機(jī)視覺(jué)在工業(yè)界和學(xué)術(shù)界的進(jìn)展。

具身智能,從被動(dòng)式 AI 轉(zhuǎn)向主動(dòng)式人工智能

具身智能(embodied AI),強(qiáng)調(diào)智能體(agent)要與真實(shí)世界進(jìn)行交互,并通過(guò)多模態(tài)的交互 — 不僅僅是讓 AI 學(xué)習(xí)提取視覺(jué)上的高維特征,被“輸入”的認(rèn)知世界,而是通過(guò)“眼耳鼻舌身意”六根來(lái)主動(dòng)獲取物理世界的真實(shí)反饋,通過(guò)反饋進(jìn)一步讓智能體學(xué)習(xí)并使其更“智能”、乃至“進(jìn)化”。

今年 2 月,李飛飛提出了一套新的計(jì)算框架—— DERL(deep evolution reinforcement learning)深度進(jìn)化強(qiáng)化學(xué)習(xí)。她提到了生物進(jìn)化論與智能體進(jìn)化的關(guān)系,并借鑒了進(jìn)化論的理論應(yīng)用于假設(shè)的智能體的進(jìn)化學(xué)習(xí)中。

進(jìn)入元宇宙,需要智能感知和交互這張門(mén)票

今年,元宇宙概念大火,各家紛紛入局。

Facebook 極為推崇元宇宙,為了表示投入元宇宙的決心,今年,F(xiàn)acebook 改名為 meta,并宣布 “all in 元宇宙”。

扎克伯格提出云宇宙需要具備八要素,其中之一是 Presence 開(kāi)發(fā)平臺(tái) / 套件。Presence 是 meta 為 Oculus VR 頭顯開(kāi)發(fā)者提供的元宇宙基礎(chǔ)開(kāi)發(fā)套件,提供的即為基于計(jì)算機(jī)視覺(jué)和智能語(yǔ)音技術(shù)的工具集,分別是 insight sdk、interaction sdk 和 voice sdk。

進(jìn)入元宇宙需要智能感知與交互技術(shù)這張門(mén)票,而這張門(mén)票里的視覺(jué)和語(yǔ)音技術(shù)是最重要的基石。

趨勢(shì)一:面向內(nèi)容生成的 AIGC

元宇宙世界需要孿生大量現(xiàn)實(shí)世界的物體或是對(duì)于現(xiàn)實(shí)世界的人物進(jìn)行重建,而這些海量的重建必然不能按照傳統(tǒng)游戲世界中的方法,由 CG 工程師一個(gè)個(gè)手工制作,這樣效率遠(yuǎn)遠(yuǎn)無(wú)法滿足實(shí)際場(chǎng)景的需求。因此面向內(nèi)容生成的 AIGC(算法層面)是必要的。相關(guān)技術(shù)方向包括:圖像超分、domain 遷移、外推、類(lèi)似 CLIP(對(duì)比式語(yǔ)言圖像預(yù)訓(xùn)練模型,可以從自然語(yǔ)言監(jiān)督中有效學(xué)習(xí)視覺(jué)模型)的隱式神經(jīng)表示 — 通過(guò)文字描述來(lái)生成圖像等多模態(tài)的(CV+NLP)等相關(guān)技術(shù)。

趨勢(shì)二:SCV 合成

虛擬現(xiàn)實(shí)引擎有專(zhuān)門(mén)的生成合成數(shù)據(jù)的組件,這些合成數(shù)據(jù)不僅美觀,而且有助于訓(xùn)練更好的算法。

生成 / 合成的數(shù)據(jù)不僅是元宇宙的必備要素,也是訓(xùn)練模型的重要原料。如果有合適的工具來(lái)構(gòu)建數(shù)據(jù)集,就可省去繁瑣的給數(shù)據(jù)手工打標(biāo)的過(guò)程,更好地對(duì)計(jì)算機(jī)視覺(jué)算法進(jìn)行開(kāi)發(fā)和訓(xùn)練。

知名數(shù)據(jù)分析公司 Gartner 認(rèn)為在未來(lái) 3 年中,合成數(shù)據(jù)將比真實(shí)數(shù)據(jù)更占優(yōu)勢(shì)。在合成計(jì)算機(jī)視覺(jué)(SCV)中,我們使用虛擬現(xiàn)實(shí)引擎訓(xùn)練計(jì)算機(jī)視覺(jué)模型,并將訓(xùn)練好的模型部署到現(xiàn)實(shí)世界。

知識(shí)圖譜商業(yè)化落地,制約因素主要在于標(biāo)準(zhǔn)化

重要技術(shù)進(jìn)展

知識(shí)圖譜技術(shù)在過(guò)去這一年取得的重要技術(shù)進(jìn)展有:

知識(shí)抽取方面,多模態(tài)信息抽取在同時(shí)處理文本和視頻方面取得了進(jìn)展;知識(shí)表示方面,自注意力機(jī)制的知識(shí)表示方法越來(lái)越走向?qū)嵱?;知識(shí)應(yīng)用方面,很多行業(yè)開(kāi)始構(gòu)建行業(yè)知識(shí)庫(kù),用于各類(lèi)下游任務(wù)。

明略科技資深科學(xué)家張杰在接受 InfoQ 采訪時(shí)指出,現(xiàn)階段,在知識(shí)圖譜方面,業(yè)界普遍面臨的研發(fā)難點(diǎn)主要體現(xiàn)在兩個(gè)方面:算法方面,針對(duì)非結(jié)構(gòu)化數(shù)據(jù)的信息抽取和實(shí)體對(duì)齊的準(zhǔn)確度難以保障直接商用,需人工校驗(yàn);工程方面,行業(yè)圖譜構(gòu)建成本高,需要大量的人工標(biāo)注,另外構(gòu)建進(jìn)度也不是一蹴而就,需要業(yè)務(wù)專(zhuān)家不斷運(yùn)維。

張杰預(yù)測(cè),2022 年,領(lǐng)域預(yù)訓(xùn)練語(yǔ)言模型和 Prompt 在知識(shí)圖譜中的應(yīng)用,有望使得信息抽取環(huán)節(jié)得到進(jìn)一步提升。針對(duì)技能性知識(shí)的抽取技術(shù)和多模態(tài)抽取技術(shù),商用前景廣闊。

應(yīng)用落地進(jìn)展

2021 年,知識(shí)圖譜技術(shù)的應(yīng)用落地,在 ToC 場(chǎng)景中仍主要用于搜索、推薦的提升,在 ToB 場(chǎng)景中集中在可視化上。

張杰認(rèn)為,現(xiàn)階段,制約知識(shí)圖譜商業(yè)化落地的主要因素在于標(biāo)準(zhǔn)化,行業(yè)圖譜的 schema 很難在企業(yè)內(nèi)部大范圍內(nèi)達(dá)成認(rèn)知的一致性,影響了后續(xù)的標(biāo)注、抽取、應(yīng)用。

2022 年,知識(shí)圖譜技術(shù)的大規(guī)?;瘧?yīng)用可能會(huì)在制造業(yè)出現(xiàn)突破,制造業(yè)的知識(shí)密度高、重視標(biāo)準(zhǔn)化,頭部企業(yè)重視數(shù)字化建設(shè),積累了大量原始數(shù)據(jù)。

2022 年,值得關(guān)注的重要技術(shù)趨勢(shì)

人工智能工程化

近兩年,人工智能工程化(AI Engineering)格外受關(guān)注。在 Gartner 發(fā)布的 2021 年和 2022 年重要戰(zhàn)略技術(shù)趨勢(shì)中,人工智能工程化都被列入其中。人工智能工程化是一種實(shí)現(xiàn)人工智能模型操作化的綜合方法。

不久前,Gartner 高級(jí)研究總監(jiān)高挺曾在接受 InfoQ 采訪時(shí)表示,AI 工程化本質(zhì)上是 AI 在企業(yè)中大規(guī)模、全流程的落地過(guò)程,盡管目前大家現(xiàn)在對(duì) AI 期待很高,但實(shí)際上 AI 目前的應(yīng)用仍然是被低估的。因?yàn)?,很?AI 項(xiàng)目的價(jià)值只能體現(xiàn)在一些“點(diǎn)對(duì)點(diǎn)”的一次性的方案中。將 AI 大規(guī)模落地的工程化方法(包含 DataOps、ModelOps 和 DevOps)總和起來(lái),便是“AI 的工程化”的一整套體系。

人工智能工程化對(duì)企業(yè)有很多好處,企業(yè)在進(jìn)行人工智能落地的時(shí)候,落地效率、落地廣泛度會(huì)更高。

可以預(yù)見(jiàn),人工智能工程化將會(huì)是未來(lái) 2-3 年需要持續(xù)關(guān)注的方向,人工智能工程化應(yīng)該關(guān)注三大核心要點(diǎn):數(shù)據(jù)運(yùn)維、模型運(yùn)維、開(kāi)發(fā)運(yùn)維。

Gartner 預(yù)測(cè),到 2025 年,10% 建立人工智能工程化最佳實(shí)踐的企業(yè)從其人工智能工作中產(chǎn)生的價(jià)值將至少比 90% 未建立該實(shí)踐的企業(yè)高出三倍。

生成式 AI 漸成趨勢(shì)

生成式人工智能(Generative Artificial Intelligence)也被 Gartner 評(píng)為 2022 年重要戰(zhàn)略技術(shù)趨勢(shì)之一。

該機(jī)器學(xué)習(xí)方法從其數(shù)據(jù)中學(xué)習(xí)內(nèi)容或?qū)ο?,并運(yùn)用數(shù)據(jù)生成全新、完全原創(chuàng)的實(shí)際工件。人們可以用 AI 來(lái)創(chuàng)造出一些新事物,如內(nèi)容創(chuàng)作、創(chuàng)建軟件代碼、輔助藥物研發(fā)等。

近日,機(jī)器學(xué)習(xí)大牛吳恩達(dá)發(fā)文回顧了 AI 在 2021 年的四個(gè)重要進(jìn)展,其中之一便是,AI 生成音頻內(nèi)容呈現(xiàn)出主流化傾向。現(xiàn)在音樂(lè)家和電影制作人們,已經(jīng)習(xí)慣于使用 AI 支持型音頻制作工具。

在國(guó)內(nèi)的優(yōu)酷、愛(ài)奇藝等視頻平臺(tái),AI 也已經(jīng)廣泛用于音、視頻的內(nèi)容生產(chǎn)和創(chuàng)作中,如 AI 輔助視頻制作、智能字幕生成、智能翻譯、特效生成等。

Gartner 認(rèn)為,未來(lái)一段時(shí)間內(nèi),AI 會(huì)逐漸從一個(gè)做判斷的機(jī)器變成一個(gè)做創(chuàng)造的機(jī)器。預(yù)計(jì)到 2025 年,生成式人工智能將占所有生成數(shù)據(jù)的 10%,而目前這一比例還不到 1%。

不過(guò)該技術(shù)還存在一定的爭(zhēng)議,如會(huì)被濫用于詐騙、欺詐、政治造謠、偽造身份等,存在道德和法律風(fēng)險(xiǎn)。

元宇宙,狂熱的新風(fēng)口

2021 年,可能沒(méi)什么技術(shù)名詞比“元宇宙”熱度更高了。全球很多公司都在講元宇宙的概念,認(rèn)為元宇宙是指向互聯(lián)網(wǎng)的“終極形態(tài)”。如今,移動(dòng)互聯(lián)網(wǎng)的紅利已經(jīng)見(jiàn)頂,不知道互聯(lián)網(wǎng)的盡頭是否會(huì)是元宇宙?

所謂元宇宙,是一個(gè)虛擬時(shí)空間的集合, 由一系列的增強(qiáng)現(xiàn)實(shí)(AR), 虛擬現(xiàn)實(shí)(VR) 和互聯(lián)網(wǎng)(Internet)所組成。元宇宙的實(shí)現(xiàn),仰賴(lài)一系列前沿技術(shù)作支撐,包括人工智能、VR/VR、5G、云計(jì)算、大數(shù)據(jù)、區(qū)塊鏈等基礎(chǔ)設(shè)施。

元宇宙中可以重點(diǎn)關(guān)注的細(xì)分賽道有 VR/AR 、游戲、社交、Metahuman 等。文娛基金易凱資本在其元宇宙報(bào)告中也表示,長(zhǎng)期看好基于上述形態(tài)的底層技術(shù)公司。易凱資本預(yù)測(cè),在未來(lái)十年,元宇宙概念將依舊集中于社交、游戲、內(nèi)容等娛樂(lè)領(lǐng)域,到 2030 年會(huì)滲透到提升生產(chǎn)生活效率的領(lǐng)域。

寫(xiě)在最后

2021年,人工智能領(lǐng)域涌現(xiàn)了不少激動(dòng)人心的重大突破,人工智能也正在賦能、改變甚至顛覆許多行業(yè)。當(dāng)然也仍有很多難點(diǎn)需要投入更多時(shí)間攻克。

近日,李彥宏對(duì) AI 的未來(lái)發(fā)表判斷:“人機(jī)共生”時(shí)代,中國(guó)將迎來(lái) AI 黃金十年。而未來(lái)十年,AI 技術(shù)應(yīng)用門(mén)檻將顯著降低,為各行各業(yè)的智能化轉(zhuǎn)型提供技術(shù)“大底座”。

人工智能發(fā)展已漸入深水區(qū),期待明年以及之后的 10 年,人工智能能夠在技術(shù)和落地上取得更多進(jìn)展,為下一個(gè)“黃金十年”而努力。

采訪嘉賓介紹(按姓名首字母排序):

何苗,OPPO AI 技術(shù)產(chǎn)品化專(zhuān)家

侯軍,毫末智行 COO

蔣宏飛 作業(yè)幫NLP資深算法專(zhuān)家

劉知遠(yuǎn),清華大學(xué)教授、智源大模型技術(shù)委員會(huì)成員

?澤君,字節(jié)跳動(dòng) AILAB 語(yǔ)?技術(shù)總監(jiān)

吳韶華,浪潮人工智能研究院首席研究員

許欣然,曠視天元 MegEngine 研發(fā)負(fù)責(zé)人

曾冠榮,OPPO 小布智能中心、 NLP 算法工程師

張杰,明略科技資深科學(xué)家

張凱,毫末智行董事長(zhǎng)

本文來(lái)自微信公眾號(hào) “AI前線”(ID:ai-front),作者:劉燕,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 人工智能 激動(dòng)人心 重大突破

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片