首頁>資訊 >
十幾分鐘可換臉,你的網戀對象和朋友視頻可能都是假的 2023-03-13 18:01:53  來源:36氪

在近半年的時間里,最新的生成式人工智能技術為我們展示了如何低成本、零門檻地利用AI創(chuàng)作文本內容、圖片甚至整個形象。

雖說正經的商用道路還在苦苦摸索,但是詐騙界已經宣布這是“重大利好”。因為利用這些,“欺騙”這件事變得更簡單了。


(資料圖)

界面新聞綜合了目前網絡上關于AI在詐騙界的應用,發(fā)現了以下幾條重要線索:

用ChatGPT生產釣魚郵件

ChatGPT已經有足夠的能力在短時間內生產出符合人類常識和邏輯的文本內容。這一點已經在被詐騙分子用在生產釣魚郵件上。

通過測試可以發(fā)現,由于OpenAI設置了道德性的防火墻,因此直接要求ChatGPT生產釣魚郵件會被拒絕,但是如果設置在一種虛構情境下,ChatGPT會給出相應的回答。

當前,多地公安局已發(fā)布相關信息提醒稱,境外有人使用ChatGPT創(chuàng)建了完整的“釣魚郵件”感染鏈,而且不同以往的廣撒網式的網絡釣魚,它在提問者的誘導下,可以生成針對特定人或者組織的“魚叉式”網絡釣魚郵件。

這種釣魚郵件更具有欺騙性和迷惑性,郵件接收方將更容易上當受騙,接收者一旦點擊該郵件,系統(tǒng)就會被惡意代碼感染中毒。

ChatGPT對寫作釣魚郵件的回答

網絡安全公司奇安信告訴界面新聞記者,寫出色的網絡釣魚電子郵件是一門藝術和科學,借助ChatGPT,編寫釣魚郵件會變得更容易,總體來看,借助ChatGPT創(chuàng)造的釣魚郵件,具有高欺騙性、高回報比、低技術門檻等三大特征。

首先,ChatGPT類釣魚郵件更具有欺騙性和迷惑性。例如“使郵件看起來很緊急”、“收件人點擊鏈接的可能性很高的郵件”、“請求匯款的社工郵件”等等。

其次,ChatGPT生成網絡誘餌顯著提升了攻擊者的回報比。不同于普通網絡釣魚需要發(fā)送數百萬個誘餌,利用ChatGPT可以創(chuàng)建更具針對性和定制化的誘餌,從而實現事半功倍的效果。

并且,ChatGPT使用的低門檻讓普通黑客也能制造出武器化的釣魚郵件。網絡安全公司Darktrace曾指出,人們只要提示到位,ChatGPT就能輕松創(chuàng)建出數十份具有針對性的詐騙電子郵件。

用AI偽造“網戀對象”

或許這聽起來很荒謬,但不得不相信并警惕的是,如今網戀對象的照片也可能是由AI虛構的。

早于ChatGPT火起來的AI繪圖應用能讓人們只需要輸入幾個關鍵詞就得到一副不錯的畫作。如今,這類模型已經進化到可以生成類似真人照片的程度。

據揚子晚報報道,近日,網絡上傳播起一則“蘇州金雞湖有游艇女仆party”的消息,網傳宣傳海報顯示,參加活動的收費是3000元一位,將有一對一女仆陪身等服務,并配有一張性感女仆照片。

由AI生成的“女仆”照片 圖源:揚子晚報

報道中稱,這場所謂的“女仆party”可能是全國第一起AI繪圖詐騙?;顒咏o出的女仆照片全是AI模仿真人照片的繪圖,部分女仆照片手指部分存在異常,由于手指部分的繪畫算法比較復雜,部分AI模型在繪畫時經常出現問題,符合AI繪畫的特征。

1月20日,蘇州警方表示稱,已關注到網傳的“金雞湖女仆游艇party”事件,并且約談了消息發(fā)布者。

類似的AI作圖詐騙在國外也已有發(fā)生。據英國廣播公司報道,土耳其地震期間,有Tiktok用戶使用AI合成了兒童受災的假照片發(fā)布到網絡,以此誘騙善良的人打賞“捐助”從而實施詐騙。

用深度合成偽造親人的臉

除了造一張全新的臉,為了獲取你的信任,AI還能夠偽造一張你的親朋好友的臉。

2022年2月,據新華視點報道,一位陳先生到浙江省溫州市公安局甌海分局仙巖派出所報案稱,自己被“好友”詐騙了近5萬元。經警方核實,詐騙分子利用陳先生好友“阿誠”在社交平臺已發(fā)布的視頻,截取其面部視頻畫面后再利用“AI換臉”技術合成,制造陳先生與“好友”視頻聊天的假象騙取其信任,從而實施詐騙。

溫州公安也曾發(fā)布消息,2021年拱宸橋派出所接到報警,受害人小陳稱他在與女網友視頻聊天后被對方敲詐勒索。經警方調查,對方利用AI換臉技術,將小陳視頻中的面部合成到不雅視頻中,借此對其實施勒索。

“深度偽造”基于深度學習技術快速制造“以假亂真”級別的數字內容,因而得名。深度學習,尤其是神經網絡算法模型,在數據處理方面天賦稟異,可以學習在不同角度、不同光源下的人類面部特征,自動定位人臉范圍與五官,以便對面部進行修改和轉移。

這項技術自誕生以來,已被許多犯罪分子用于詐騙。馬斯克、扎克伯格以及特朗普等名人的臉都曾被不法分子用AI換臉技術惡搞或實施詐騙。《華爾街日報》報道稱,2019年3月,犯罪分子使用深度偽造技術模擬了德國某能源公司CEO的聲音,成功從該公司發(fā)英國分公司詐騙了22萬歐元。無獨有偶,騙子運營的“假靳東”抖音賬號以明星人設騙取中老年婦女的信任及金錢。

并且,隨著技術進步,這項看起來工程量巨大的技術如今正變得越來越容易。

國內AI公司瑞萊智慧副總裁唐家渝曾對界面新聞記者表示,如今業(yè)內已經有很多成熟的生成類軟件工具。并且現在很多代表性的生成方法已經被開源,技術走向公開和輕量化,也有黑產分子售賣AI換臉軟件及教程。普通人很快就能上手,通常生成一段用于身份核驗的動態(tài)換臉視頻,十幾分鐘就可以實現。

隨著人工智能技術在多個維度上的進步,詐騙分子在文本、圖片和視頻的偽裝都有了強大的工具。

McAfee報告中提到,通常人們在以下幾種情形時可能會意識到自己正在被騙:在意識到對方不能線下見面,也不能視頻聊天時;在網上找到騙子的照片后;對方不能在談話中提供詳細的個人信息時;對方不想打電話時;對方的談話前后矛盾時。而最新的AI技術顯然已經能輕易讓詐騙分子踏過這些“紅線”。

在預防AI帶來的風險方面,中國傳媒大學政法學院法律系副主任鄭寧建議,首先是相互提示,共同預防。親戚朋友間要互相提示,相互宣傳,因中老年人被騙較多,青年人要及時做好家中老人的宣傳防范工作,提醒、告誡老年人接到電話、收到短信,只要是不認識、不熟悉的人和事,均不要理睬,以免被誘被騙。

“其次是拒絕誘惑,民眾應當避免占便宜心理,警惕陌生人提供的好處;再次是謹慎處理金錢交易,無法確認對方身份時,拒絕交易;最后是保護網絡賬號及密碼、手機號、身份證、家庭住址、親屬關系等個人敏感信息,不隨意提供上述敏感信息。”鄭寧說。

關鍵詞:

相關閱讀:
熱點
圖片 圖片