訂閱
糾錯
加入自媒體

愚人節(jié),聊聊坑人的“新型AI”

2023-04-02 13:09
腦極體
關注

幾年前的一個愚人節(jié),我們和大家聊過AI技術被作為詐騙工具的情況。很不幸,當時討論的一些苗頭,現在都成了電詐犯罪中屢見不鮮的手段。

更可氣的是,隨著AI技術與應用本身的發(fā)展,犯罪分子的AI手段不減反增。一些“新型AI”,也在這幫玩意的努力下加入了坑人的隊伍。

愚人節(jié)又到了,感覺咱們有必要來聊聊更新?lián)Q代的“AI for bad”。

提高警惕,避免上當,不做“愚人”。

坑人用的AI,也在更新?lián)Q代

此前我們討論AI作為詐騙工具時,提出應用到的技術主要有兩種:TTS語音合成與NLP自然語言處理。

前者的作用是讓犯罪分子合成假的音頻。在2019年,《華爾街日報》報道了一名詐騙犯用AI語音合成來冒充老板,讓一家分公司的總經理給他打了22萬歐元。這類詐騙現在已經屢見不鮮,而且最初TTS需要大量被模仿者的語料,門檻比較高,現在很多開放的TTS接口,可以只用10句話左右的語料來合成語音線,甚至能模仿方言,已經有點防不勝防的意思。

而NLP技術的應用,主要是智能電話外呼。我們今天接到的很多客服、推銷電話都是AI打的,其實詐騙電話也是。不久前,江蘇警方打掉了一個詐騙團伙,他們是利用AI智能外呼來撥打詐騙電話,數量達到了驚人的1700多萬個。AI打詐騙電話雖然成功率不高,也不會像真騙子一樣循循善誘,威逼恫嚇,但勝在效率高規(guī)模大,可以被犯罪分子用來篩選目標或者作為引流。

可以發(fā)現,這些技術主要以語音方面為主。但在當年討論AI詐騙手段時,我們就說騙子未來一定會向視覺方向發(fā)展,畢竟“眼見為實”,如果能用AI技術來進行圖像甚至視頻的造假,那么犯罪份子的手段將更加多樣,方式更加隱蔽,而且AI技術本身也一定要向機器視覺與多模態(tài)方向發(fā)展。騙子和AI技術,某種程度上是供需能夠匹配的。

現在,它來了!視覺系AI詐騙,帶著各種各樣的惡意走來了!

暫?偨Y一下,AI坑人的第一階段主要是語音,方式主要是:第一,合成親人、同事、老板的假聲音進行詐騙。第二,用AI外呼系統(tǒng)撥打詐騙電話。最后還有個比較小眾的,用AI來模仿筆跡,但因為咱們國家數字化程度比較高,簽支票之類的不多,這種詐騙方式也不顯著。

而AI坑人的第二階段,就開始圍繞視覺做文章,主要方式是AI制作假的圖片與視頻,主要技術是廣受討論的Deepfake和AIGC。

驚掉歪果仁下巴的新型AI騙局

2月初,敘利亞土耳其發(fā)生了強烈地震,引發(fā)全球關注。在震后的救災工作中,AI技術發(fā)揮了非常關鍵的作用,比如大量應用AI+遙感,有效識別了災情,提升了救災效率,可以說用AI點亮了人類的互助之光。

但就有那么一些人,好日子不得好過,非要出來丟人現眼。同樣是在這場地震后,全球社交媒體上各種AI詐捐騙局層出不窮,讓各路歐美媒體感受到了來自AI技術的小小震撼。

比如最著名的是,一個騙子在推特上反復分享呼救信息,并附上了一名消防員拯救孩子的照片,以及自己的加密貨幣錢包鏈接,很多不了解真實情況的歪果群眾,心碎之余馬上打錢,但也有眼尖者發(fā)現,這個圖片怎么一股AIGC的味道?

后來在媒體并不復雜的小調查后,證明這張以及大量其他土敘地震期間的求救、呼吁捐款所使用的現場圖片,都是用AIGC生成的。AIGC產量大,擬真度高,還沒有原圖作為證據,偽裝性更強,配合災難之后人們焦慮急切的心情,很容易成功實現詐騙。

另一種在土敘地震后涌現的詐騙形式,是在TikTok等平臺上發(fā)布小視頻,聲稱自己就在受災區(qū),呼吁打賞和捐款。但這些視頻里的背景、聲音甚至人臉,都有可能是AI合成的。

這件事情由于跟國際熱點息息相關,引發(fā)了廣泛關注和討論,但其實在這場鬧劇之下,用AI+視覺技術作惡已經屢見不鮮。

騙子們已經升級了,真正做到了眼前所見,全是AI。

當然這里要提一下的是,AI技術作為詐騙手段,目前還不是主流,因為這還是有技術門檻的,犯罪分子顯然沒那么高的整體文化素養(yǎng),但它效率更高,隱蔽性更強,超出了以往我們對電詐與其他犯罪的認知,更加值得注意。

AIGC,已經投身殺豬盤

視覺系AI的新型詐騙形式,早已經來到了我們身邊,其中最普遍的一種方式,就是將AIGC圖片和殺豬盤進行結合。

殺豬盤這種臭名昭著的電詐形式,基本思路是電詐分子偽裝出一個人設,再通過網戀等方式獲取被騙人信任。這種模式里一個關鍵,就是如何能夠確保不被拆穿,畢竟雙方在交流過程中,肯定要發(fā)照片、開視頻。

原本殺豬盤的應對辦法,是到處盜取社交媒體里分享的照片,然后一旦要視頻就找理由推脫,但盜取的圖片畢竟有限,而且都是“成片”,很難滿足受騙者實時分享照片的要求。

最近爆火的AIGC,尤其是AI生成圖片,給這幫玩意提供了巨大便利,F在的AI生圖軟件,已經可以生成幾近真人,看不出瑕疵的圖片,加上可以接受指令進行穿搭、動作、場景設計,完全可以滿足殺豬盤對照片的需求。

你以為網戀的女神,第一時間分享給你在瑞士滑雪之后的素顏美照,殊不知那是摳腳大漢在東南亞某個地下室,剛剛讓AI生成的。

更有甚者,一些AIGC軟件可以生成擦邊,甚至明顯越界的圖片,乃至生成不怎么穿衣服的視頻。這就給詐騙分子的裸聊騙局增添了新的籌碼,動用真人進行裸聊騙局,難度大,門檻高,而直接讓AI來則堪稱無本萬利。一旦屏幕這頭被害人被拍下裸聊證據,往往就是萬劫不復的后果。

記得我看過貼吧上有個熱門帖,被害人分享裸聊受騙的全過程。他的描述非常痛苦煎熬,但他至少還是相信與之聊天的,是一個模樣他很中意的女孩子,甚至還隱約覺得她肯定也是迫不得已。但他不知道的是,那很可能是AI換臉甚至AI生成視頻。

被坑了還替AI惋惜,真的是哀其不幸,怒其不爭。

AI換臉/換裝,背后的猥瑣“產業(yè)鏈”

如果說,不法分子用AIGC是生成一個虛構的人來行騙。那么比之更可恨的,就是Deepfake,也就是AI換臉技術的濫用。如今,各大媒體平臺都一致性封殺了AI換臉等有爭議的內容,但這并不妨礙這種技術依舊在暗地里大行其道,甚至肆意泛濫。

不久之前,有個所謂的“網紅”,用AI換臉技術合成了女明星和他演吻戲的視頻,隨后惹怒了粉絲,甚至遭遇了實體宇宙對線。對此我想說,您還真的是有點活該呢。

還有一位女士,在社交媒體上分享的照片,被不法分子用AI軟件進行“一鍵脫衣”并在網上傳播,這一事件也引起了廣泛關注。

這類侵犯他人肖像權、隱私權、名譽權的行為,都是利用Deepfake來完成。這種行為危害極大,同時也極盡道德敗壞之能事,往往會造成《保你平安》中那樣,造謠一張嘴,辟謠跑斷腿的無奈。

同時,AI換臉技術,也開始被應用到了詐騙活動中。比如此前就有人用AI換臉偽裝成明星,然后進行直播騙錢粉絲打賞、刷禮物。最近,我們可以看到很多明星工作室都在對這種行為進行法律追責。

除了AI換臉明星進行詐騙之外,還有騙子利用AI換臉裝成熟人進行詐騙。由于換臉之后直接視頻通話可信度很高,對于不了解AI技術的老年人來說,可謂是防不勝防。

AI換臉與AI脫衣有多可怕,我們隨便想想就能知道。但很多人會覺得,AI換臉應該是挺難的一種技術吧,好像跟影視后期差不多,不是普通人能做到的吧?

其實不然,AI換臉已經有了非常成熟的“產業(yè)鏈”,稍加用心很快就能學會,甚至得到源源不斷的素材支持。一般來說,別有用心之徒想要開始AI換臉,要解決這么幾個問題。

首先是技術從哪來?

在GitHub等開源社區(qū)上,就有開源使用的AI換臉軟件。其中最知名的是Deepfacelive、Deepfacelab兩種。很多相關的技術社區(qū)、論壇、貼吧,有大量教程可以進行傻瓜式學習,甚至還有中文版AI換臉軟件進行分發(fā)。如果還學不會,二手交易平臺上也有大量教程與教學售賣,價格非常低廉。

那么,AI換臉用的圖像和視頻素材從哪來?

這要分成兩個部分。首先是普通人的圖像與視頻素材,最常見的泄露渠道就是社交媒體,會有不法之徒專門收集社交媒體資料,然后進行打包售賣。另一種盜取視頻素材的方式,是以某種名義進行視頻通話,然后錄制,這種往往以公檢法部門、銀行、防疫等理由要求進行視頻通話。由于不涉及錢財往來,被騙者往往不會產生警覺,然后騙子會再用錄制的視頻進行AI換臉,騙取被害者家人、朋友的錢財,或者用來辦理網貸。

還有一種就是明星的素材。上面提到那個惡心人的網紅,可能就是用了所謂的“DFL仙丹”進行女明星的AI換臉。所謂“仙丹”,是指利用明星的視頻、照片素材,進行符合DFL等軟件需求的預訓練,最終得到的模型可以免訓練,免修圖,直接用來換臉替代。一個明星的換臉素材庫,往往只需要幾十元到幾百元不等。

現在如果在二手交易平臺搜索“AI仙丹”、“DLF仙丹”等字樣,會發(fā)現大量正在售賣的數據模型。而購買者想來只有兩種,一種是滿足自己的猥瑣意淫,甚至炮制明星的所謂黑料;另一種就是騙子想要假借明星進行網絡詐騙。

無論如何,未經允許對一個人的肖像權、隱私權進行移花接木,都是無法接受的。

怎么防范新型的坑人AI?

目前階段,新一代的坑人AI,有兩種主流手法:AIGC和AI換臉?梢灶A想到的是,在生成式AI愈發(fā)強大的今天,伴隨著AI生成視頻、生成數字人的能力提升,這種坑人方式還將升級。

不久的未來,可能都不需要換臉+真人。騙子可以直接弄個AI跟你聊,甚至弄個假明星跟你聊天,搭配上聲音合成與強大的對話能力。騙子即將做到全自動、全流程、高度智能化的AI詐騙。

到底怎么才能防范與制止新型的AI坑人,保護大眾的財產權與隱私權呢?可能至少要從三個方面進行入手:

1.技術防范。在今天,反詐AI也已經發(fā)展壯大。各個平臺和有關部門都在部署用AI反詐的技術能力,可謂是用魔法打敗魔法。但反詐AI的主要邏輯是進行問題信號的識別,繼而進行AI智能外呼的主動干預,估計不久之后,我們可能會看到詐騙AI和反詐AI聊上了的奇特新聞。但是面對新型的AI騙局,反詐AI技術還需要進一步升級。比如目前也有轉變識別AIGC內容的軟件,但受害者應該很少想到主動去識別一下,能想到估計也就不上當了。面向視覺系的AI詐騙,反詐技術還有待提升。

2.平臺監(jiān)管。像AI換臉這種技術,往往是需要一個技術鏈條來支持的。如果我們能讓別有用心的人無法獲得軟件、數據上的支持,那么AI換臉自然也就無法泛濫。警惕不法分子用AI搞事情,需要幾種平臺同時下手。首先是AIGC平臺要控制內容質量,不能生成擦邊球或者明顯有不良意圖的圖片與視頻。其次是軟件分發(fā)平臺與論壇、社區(qū),要管控AI換臉、AI脫衣等軟件的流通。二手交易和本地生活平臺,要禁止分享和售賣AI換臉工具、明星數據仙丹等內容。

3.防范意識。讓大家提高反詐意識已經是老生常談了。但還是想要說一下,咱不是說受害者有罪論。但做一些事,真的有必要嗎?很多人出于出于好奇或者其他小心思,想要弄一個明星的換臉視頻,一張熟人的換臉照片,這往往就是惡行的開始,同時也給更大的犯罪提供了土壤。GHS的心理,侮辱他人的心理,盲目追星的心理,如果都淡一點,事情就會好一點。

總之,AI不坑人,但人類會用一切辦法坑人。

行走人間,小心為上。

       原文標題 : 愚人節(jié),聊聊那些正在坑人的“新型AI”

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號