首頁(yè)>資訊 >
十幾分鐘可換臉,你的網(wǎng)戀對(duì)象和朋友視頻可能都是假的 2023-03-13 18:01:53  來(lái)源:36氪

在近半年的時(shí)間里,最新的生成式人工智能技術(shù)為我們展示了如何低成本、零門檻地利用AI創(chuàng)作文本內(nèi)容、圖片甚至整個(gè)形象。

雖說正經(jīng)的商用道路還在苦苦摸索,但是詐騙界已經(jīng)宣布這是“重大利好”。因?yàn)槔眠@些,“欺騙”這件事變得更簡(jiǎn)單了。


(資料圖)

界面新聞綜合了目前網(wǎng)絡(luò)上關(guān)于AI在詐騙界的應(yīng)用,發(fā)現(xiàn)了以下幾條重要線索:

用ChatGPT生產(chǎn)釣魚郵件

ChatGPT已經(jīng)有足夠的能力在短時(shí)間內(nèi)生產(chǎn)出符合人類常識(shí)和邏輯的文本內(nèi)容。這一點(diǎn)已經(jīng)在被詐騙分子用在生產(chǎn)釣魚郵件上。

通過測(cè)試可以發(fā)現(xiàn),由于OpenAI設(shè)置了道德性的防火墻,因此直接要求ChatGPT生產(chǎn)釣魚郵件會(huì)被拒絕,但是如果設(shè)置在一種虛構(gòu)情境下,ChatGPT會(huì)給出相應(yīng)的回答。

當(dāng)前,多地公安局已發(fā)布相關(guān)信息提醒稱,境外有人使用ChatGPT創(chuàng)建了完整的“釣魚郵件”感染鏈,而且不同以往的廣撒網(wǎng)式的網(wǎng)絡(luò)釣魚,它在提問者的誘導(dǎo)下,可以生成針對(duì)特定人或者組織的“魚叉式”網(wǎng)絡(luò)釣魚郵件。

這種釣魚郵件更具有欺騙性和迷惑性,郵件接收方將更容易上當(dāng)受騙,接收者一旦點(diǎn)擊該郵件,系統(tǒng)就會(huì)被惡意代碼感染中毒。

ChatGPT對(duì)寫作釣魚郵件的回答

網(wǎng)絡(luò)安全公司奇安信告訴界面新聞?dòng)浾?,寫出色的網(wǎng)絡(luò)釣魚電子郵件是一門藝術(shù)和科學(xué),借助ChatGPT,編寫釣魚郵件會(huì)變得更容易,總體來(lái)看,借助ChatGPT創(chuàng)造的釣魚郵件,具有高欺騙性、高回報(bào)比、低技術(shù)門檻等三大特征。

首先,ChatGPT類釣魚郵件更具有欺騙性和迷惑性。例如“使郵件看起來(lái)很緊急”、“收件人點(diǎn)擊鏈接的可能性很高的郵件”、“請(qǐng)求匯款的社工郵件”等等。

其次,ChatGPT生成網(wǎng)絡(luò)誘餌顯著提升了攻擊者的回報(bào)比。不同于普通網(wǎng)絡(luò)釣魚需要發(fā)送數(shù)百萬(wàn)個(gè)誘餌,利用ChatGPT可以創(chuàng)建更具針對(duì)性和定制化的誘餌,從而實(shí)現(xiàn)事半功倍的效果。

并且,ChatGPT使用的低門檻讓普通黑客也能制造出武器化的釣魚郵件。網(wǎng)絡(luò)安全公司Darktrace曾指出,人們只要提示到位,ChatGPT就能輕松創(chuàng)建出數(shù)十份具有針對(duì)性的詐騙電子郵件。

用AI偽造“網(wǎng)戀對(duì)象”

或許這聽起來(lái)很荒謬,但不得不相信并警惕的是,如今網(wǎng)戀對(duì)象的照片也可能是由AI虛構(gòu)的。

早于ChatGPT火起來(lái)的AI繪圖應(yīng)用能讓人們只需要輸入幾個(gè)關(guān)鍵詞就得到一副不錯(cuò)的畫作。如今,這類模型已經(jīng)進(jìn)化到可以生成類似真人照片的程度。

據(jù)揚(yáng)子晚報(bào)報(bào)道,近日,網(wǎng)絡(luò)上傳播起一則“蘇州金雞湖有游艇女仆party”的消息,網(wǎng)傳宣傳海報(bào)顯示,參加活動(dòng)的收費(fèi)是3000元一位,將有一對(duì)一女仆陪身等服務(wù),并配有一張性感女仆照片。

由AI生成的“女仆”照片 圖源:揚(yáng)子晚報(bào)

報(bào)道中稱,這場(chǎng)所謂的“女仆party”可能是全國(guó)第一起AI繪圖詐騙?;顒?dòng)給出的女仆照片全是AI模仿真人照片的繪圖,部分女仆照片手指部分存在異常,由于手指部分的繪畫算法比較復(fù)雜,部分AI模型在繪畫時(shí)經(jīng)常出現(xiàn)問題,符合AI繪畫的特征。

1月20日,蘇州警方表示稱,已關(guān)注到網(wǎng)傳的“金雞湖女仆游艇party”事件,并且約談了消息發(fā)布者。

類似的AI作圖詐騙在國(guó)外也已有發(fā)生。據(jù)英國(guó)廣播公司報(bào)道,土耳其地震期間,有Tiktok用戶使用AI合成了兒童受災(zāi)的假照片發(fā)布到網(wǎng)絡(luò),以此誘騙善良的人打賞“捐助”從而實(shí)施詐騙。

用深度合成偽造親人的臉

除了造一張全新的臉,為了獲取你的信任,AI還能夠偽造一張你的親朋好友的臉。

2022年2月,據(jù)新華視點(diǎn)報(bào)道,一位陳先生到浙江省溫州市公安局甌海分局仙巖派出所報(bào)案稱,自己被“好友”詐騙了近5萬(wàn)元。經(jīng)警方核實(shí),詐騙分子利用陳先生好友“阿誠(chéng)”在社交平臺(tái)已發(fā)布的視頻,截取其面部視頻畫面后再利用“AI換臉”技術(shù)合成,制造陳先生與“好友”視頻聊天的假象騙取其信任,從而實(shí)施詐騙。

溫州公安也曾發(fā)布消息,2021年拱宸橋派出所接到報(bào)警,受害人小陳稱他在與女網(wǎng)友視頻聊天后被對(duì)方敲詐勒索。經(jīng)警方調(diào)查,對(duì)方利用AI換臉技術(shù),將小陳視頻中的面部合成到不雅視頻中,借此對(duì)其實(shí)施勒索。

“深度偽造”基于深度學(xué)習(xí)技術(shù)快速制造“以假亂真”級(jí)別的數(shù)字內(nèi)容,因而得名。深度學(xué)習(xí),尤其是神經(jīng)網(wǎng)絡(luò)算法模型,在數(shù)據(jù)處理方面天賦稟異,可以學(xué)習(xí)在不同角度、不同光源下的人類面部特征,自動(dòng)定位人臉范圍與五官,以便對(duì)面部進(jìn)行修改和轉(zhuǎn)移。

這項(xiàng)技術(shù)自誕生以來(lái),已被許多犯罪分子用于詐騙。馬斯克、扎克伯格以及特朗普等名人的臉都曾被不法分子用AI換臉技術(shù)惡搞或?qū)嵤┰p騙?!度A爾街日?qǐng)?bào)》報(bào)道稱,2019年3月,犯罪分子使用深度偽造技術(shù)模擬了德國(guó)某能源公司CEO的聲音,成功從該公司發(fā)英國(guó)分公司詐騙了22萬(wàn)歐元。無(wú)獨(dú)有偶,騙子運(yùn)營(yíng)的“假靳東”抖音賬號(hào)以明星人設(shè)騙取中老年婦女的信任及金錢。

并且,隨著技術(shù)進(jìn)步,這項(xiàng)看起來(lái)工程量巨大的技術(shù)如今正變得越來(lái)越容易。

國(guó)內(nèi)AI公司瑞萊智慧副總裁唐家渝曾對(duì)界面新聞?dòng)浾弑硎?,如今業(yè)內(nèi)已經(jīng)有很多成熟的生成類軟件工具。并且現(xiàn)在很多代表性的生成方法已經(jīng)被開源,技術(shù)走向公開和輕量化,也有黑產(chǎn)分子售賣AI換臉軟件及教程。普通人很快就能上手,通常生成一段用于身份核驗(yàn)的動(dòng)態(tài)換臉視頻,十幾分鐘就可以實(shí)現(xiàn)。

隨著人工智能技術(shù)在多個(gè)維度上的進(jìn)步,詐騙分子在文本、圖片和視頻的偽裝都有了強(qiáng)大的工具。

McAfee報(bào)告中提到,通常人們?cè)谝韵聨追N情形時(shí)可能會(huì)意識(shí)到自己正在被騙:在意識(shí)到對(duì)方不能線下見面,也不能視頻聊天時(shí);在網(wǎng)上找到騙子的照片后;對(duì)方不能在談話中提供詳細(xì)的個(gè)人信息時(shí);對(duì)方不想打電話時(shí);對(duì)方的談話前后矛盾時(shí)。而最新的AI技術(shù)顯然已經(jīng)能輕易讓詐騙分子踏過這些“紅線”。

在預(yù)防AI帶來(lái)的風(fēng)險(xiǎn)方面,中國(guó)傳媒大學(xué)政法學(xué)院法律系副主任鄭寧建議,首先是相互提示,共同預(yù)防。親戚朋友間要互相提示,相互宣傳,因中老年人被騙較多,青年人要及時(shí)做好家中老人的宣傳防范工作,提醒、告誡老年人接到電話、收到短信,只要是不認(rèn)識(shí)、不熟悉的人和事,均不要理睬,以免被誘被騙。

“其次是拒絕誘惑,民眾應(yīng)當(dāng)避免占便宜心理,警惕陌生人提供的好處;再次是謹(jǐn)慎處理金錢交易,無(wú)法確認(rèn)對(duì)方身份時(shí),拒絕交易;最后是保護(hù)網(wǎng)絡(luò)賬號(hào)及密碼、手機(jī)號(hào)、身份證、家庭住址、親屬關(guān)系等個(gè)人敏感信息,不隨意提供上述敏感信息。”鄭寧說。

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片