當代騙子分兩種:懂 AI 的和不懂的

生活

11-12 15:33

 

本文來自微信公眾號「CV 智識」(ID:CVAI2019),作者余洋洋,愛范兒經授權發布。

AI 詐騙的成本正變得越來越低,由此帶來的新詐騙方式不但沒有得到很好的治理,反而越發頻繁猖狂。

很多人收到一條語音信息就被騙了。

劉倩突然收到一條來自多年不聯系好友的微信消息,「最近在忙什么?」「要不要見一面?」

從打招呼、互相寒暄到吐槽近況,整個聊天過程自然而然。她感嘆幾年過去了,好友仍是語氣可愛的「軟萌妹子」,甚至記得她們曾在北京隆冬的某一天晚上在街頭分食一份煎餅。

聊天就這樣切換到語音,好友開始找她借錢,數額不大, 2000 塊。她毫不猶豫地轉過去了。緊接著好友第二次、第三次向她借錢,她開始察覺事情有些不對。

事情確實不對,劉倩沒想到,那個聲音、語氣一如既往地熟悉,甚至能清晰記得他們多年前共同經歷的「好友」是個詐騙犯。

騙子在獲取了劉倩好友的聲音素材之后,用 AI 合成的「好友」聲音與之對話;熟悉的語氣和共同的回憶則「歸功于」AI 在網上搜集分析了劉倩微信、微博等個人信息。

大多數受騙者都與劉倩有著類似的經歷。不過是司空見慣的網絡詐騙手法,一旦被 AI 變聲、換臉所營造出來的逼真假象所懵逼,受騙的幾率極大地提高了。

騙子用 AI 將自己合成假王源,在直播平臺上大肆行騙;公司員工被「上司」的一通電話騙走了 22 萬歐元;學校工作人員則在收到一封看起來內容真誠可信的郵件之后,被「合作伙伴」騙走巨額項目合作款。

多名經手過 AI 詐騙案例的民警和律師告訴 CV 智識,隨著技術的進步,網絡詐騙的手段往往也花樣不斷、新招頻出,一次又一次的突破人們的認知和想象。

「前些年行騙者利用惡意郵件、短信或者電話行騙的手段已經逐漸能夠被社會大眾識別和破解,但近年來興起的基于 AI 技術的詐騙手段大家還沒有形成普遍的警覺。」

AI 詐騙,多快好騙

你的聲音正在你看不見的地方被 AI 加工,成為騙子用來誘騙你周圍人在網上向「你」轉賬的得力工具。

2019 年,AI 詐騙事件進入人們視野的比例逐漸上升。從普通人到明星偶像,甚至是辦事章程復雜、流程規范的商業公司、學校機構,無一不曾陷入騙子用人工智能布下的完美陷阱。

「朋友發過來一條語音,讓我微信轉賬給他 2000 塊錢,我一聽是他的聲音,就毫不猶豫轉給他了。」更多的語音信息發過來,劉倩從來沒有懷疑過,她本能地相信,這個正和她在微信上聊著天的人就是她的朋友。

然而讓劉倩沒想到的是,這條與朋友聲音一模一樣的語音,并不出自朋友之口,直到更多的人詢問劉倩轉賬的事情,她才意識到,自己上了騙子的當。

但她還是有些想不明白,這樣和朋友一模一樣的聲音,騙子是怎么做到的?「跟朋友的聲音、語調、語氣一模一樣,真的一模一樣,朋友聽完都脊背發涼。」

更讓劉倩覺得不可思議的是,「騙子連我們幾年前微信聊天用到的詞都能知道,也是神奇了。」一模一樣的聲音,加上熟悉的聊天方式,讓劉倩更加確信了向她借錢的就是朋友本人。

「騙局其實很拙劣,但加上 AI 的手法,真是防不勝防。」劉倩向 CV 智識回想起這次被騙的經歷,現在再也不敢說被騙的人沒文化了,原來不是被騙的沒文化,真的是騙子太高強。

語音詐騙揭開了 AI 詐騙的冰山一角。當人們還在感嘆區區毛騙,何足掛齒的時候,有騙子已經把 AI 這門新技術運用得爐火純青——算法篩選被騙群體、分析你的個人特點和喜好,機器人定時撥打騷擾電話,再加上換臉、變聲等一系列操作,讓人想不相信騙子是你都難。

CV 智識了解到,過去幾個月內,類似操作手法的 AI 詐騙事件開始增多,有網友被「同事」騙走兩萬多,「騙子聲音特別逼真,以公司副總名義騙得,轉賬后跑去領導辦公室核實,結果得知被騙了。」有學生家長被騙,「兒子在讀大學,我們(父母)街道要轉賬的電話,電話里說要轉錢留個保研位,就一口氣轉了好幾萬。」

當代騙子分兩種:懂AI的和不懂的

多位民警也向 CV 智識表示,之前從未遇到過 AI 詐騙案例,但今年以來這樣的案例正在增加。「遇到過語音詐騙,但還沒有遇到過換臉換頭的情況,這種運用技術手段進行的詐騙,雖然目前來說還不普遍,但陸續出現一些了。」

在民警們看來,雖然目前 AI 詐騙案例較少,但因為其強偽裝、高成功率,仍然十分值得警惕。

不止普通人,明星偶像乃至商業公司也曾屢屢陷入 AI 詐騙風波。有騙子用 AI 換臉成王源,然后直播騙錢,引得粉絲紛紛來刷禮物,而在騙術被粉絲識破后,該騙子竟變本加厲、揚言要報復:做一個「王源」在 KTV 抽煙喝酒的視頻,然后賣給自媒體以制造負面新聞。

當代騙子分兩種:懂AI的和不懂的

據《華爾街日報》報道,今年 3 月,一名詐騙犯利用 AI 語音模仿軟件冒充公司大老板,成功地模仿了那位董事長夾雜德國口音的英語,讓一家英國能源公司的總經理相信自己正在與德國母公司的老板通電話,并騙走了 22 萬歐元。

美國南俄勒岡大學曾被誘騙向進行了 190 萬美元的轉賬,他們認為自己的轉賬對象是負責建設學生娛樂中心的安德森建筑公司,實際上卻轉到了騙子的銀行賬戶。

釣魚郵件早已經不是什么新鮮的攻擊手段了,但如果與人工智能相結合,使攻擊者能夠訪問公司網絡并說服員工授權轉賬,那帶來的后果就會非常可怕。

換臉、變聲,AI「過濾」——算法篩選受騙對象,搜集并且分析受騙者信息,則讓受騙者放下了最后一道心理防線。正如劉倩所說,騙子和朋友近乎一樣的說話方式令她感到詫異。

愈發頻繁的 AI 詐騙事件引發了人們對人工智能被用于犯罪的擔憂。

AI 詐騙為何能「瞞天過海」?

語音聊天、視頻通話,一些看似老套低級的騙術,為什么一旦用上了 AI 的技術,就可以如此輕易地騙過人類?

現在的 AI 變臉、變聲技術已經完全可以做到通過算法來生成人的全套語音,甚至連不同語氣都可以做到惟妙惟肖,以假亂真。

因為機器人語音系統還可能存在卡頓、音色機械化、語氣表現力不足、多輪對話「鬼打墻」等問題,但通過 AI 變聲技術, 不僅說話的聲音達到了真人水準,甚至還能模仿真人的情感和語調,自動說出全新的語句。

「用方言說話總能驗證出來對方是不是騙子吧?」沒有受過騙的網友發出僥幸的質疑。

當代騙子分兩種:懂AI的和不懂的

科大訊飛已經推出了四川、廣東等地口音的語音識別,同理,帶有特殊口音或者純方言的語音合成也是可以做到的。

AI 偽裝成「老板」電話,講出帶有德國腔的英文,要求必須在一個小時之內給「匈牙利供應商」轉賬,成功騙走 22 萬歐元,就是一個典型的案例。

而除了能夠利用神經網絡對原始音頻進行建模和模仿之外,AI 還能夠分析本人的社交網絡,很快掌握個性化的說話方式、與周圍人的關系、興趣愛好等等,從而模仿你與身邊的人自然地交流。

一模一樣的聲音,再加上一模一樣的聊天方式,讓人想不相信與你聊天的就是你熟悉的朋友都難,騙子就是這樣成功騙取了劉倩等人的信任。

要生成這樣的語言,僅僅需要被生成者的幾段話。

騙子完全可以通過騷擾電話提取到大家的聲音,然后通過機器學習或者深度學習軟件進行合成,從而在語音層面欺騙我們。

那直接視頻通話進行驗證身份,還能被騙嗎?

當然不是。

GitHub 上曾經有一個開源的項目代碼倉庫——Deepfake,以及前段時間異常火爆的換臉 App「ZAO」,這兩個項目都能做到「移花接木」,將一個人的臉換到另一個人的身體上。

當代騙子分兩種:懂AI的和不懂的

并且 ZAO 的出現讓那些在編程方面沒什么基礎的人,只要搜索到了足夠多的素材,就能完全「換臉」,人人都能夠上手。

當變臉、變聲這兩者被組合起來,我們的聲音和臉都可以被合成,于是就出現了直播平臺上有人冒充王源繪聲繪色地直播,卻依然能騙過廣大粉絲的一幕。

總得來說,目前常見的運用 AI 技術進行詐騙的方式一共有三種:

第一種,聲音合成,也是目前發生頻率最高的 AI 詐騙方式。騙子通過騷擾電話等方式,錄音提取某人的聲音,并對素材進行合成,用偽造的聲音實施詐騙。

第二種:AI 換臉,視頻通話的可信度明顯高于語音和電話,利用 AI 換臉,騙子可以偽裝成任何人。

第三種:通過 AI 技術篩選受騙人群,獲取受騙者的聊天習慣、生活特性等。通過分析公眾發布在網上的各類信息,騙子會根據所要實施的騙術對人群進行篩選,從而選出目標人群。例如實施情感詐騙時,可以篩選出經常發布感情信息的人群;實施金融詐騙時,可以篩選出經常搜集投資信息的人群。

大多數情況下,人們遇到的 AI 詐騙無非是這三種形式的排列組合,相對于傳統的網絡詐騙、電信詐騙,AI 詐騙的形勢不存在什么新奇之處。

但就是電話、微信、視頻這些老套低級的網絡詐騙方式,一旦穿上了 AI 的外衣,一來用算法精準篩選特定受騙目標,分析人們的上網習慣,抓住人們的心理弱點;二來通過變聲、變臉等手段達到以假亂真的效果,突破人們的信任防線,人們就很容易陷入騙子制造的「迷幻陷阱」。

當 AI 被用來詐騙,誰的責任?

距離第一批 AI 詐騙已經過去一段時間了,可隨著越來越多簡單易用的開源變臉變聲軟件出現,AI 詐騙的成本正變得越來越低,由此帶來的新詐騙方式不但沒有得到很好的治理,反而愈發頻繁猖狂。

谷歌的 WaveNet、Lyrebird 語音合成軟件,Adobe 的 Project VoCo,以及百度的 Deep Voice,科大訊飛、騰訊等等都提供語音合成的開源應用。

一位法院干警告訴 CV 智識,目前國內沒有利用人工智能手段進行詐騙的已結案件,常見的是利用 AI 語言模仿軟件冒充上級要求緊急轉款,但在未來,隨著 AI 詐騙的技術門檻不斷降低,這種詐騙方式仍然十分值得警惕。

普通人應該如何應對 AI 詐騙呢?多名警察告訴 CV 智識,普通人可以通過多重驗證,延遲轉賬,銀行匯款,保護個人信息等方法保護個人權益,防止受騙。

「通過語音、電話、視頻等多方式驗證對方身份,詢問一些雙方才知道的信息;將到賬時間設定為 2 小時到賬或 24 小時到賬,以預留處理時間。此外,可以選擇向對方銀行匯款,避免通過微信等社交工具轉賬。這樣做,一方面便于核實對方信息,確認錢款去向;另一方面,對方能通過短信通知得知轉賬信息。」

同時,應謹慎使用各類 AI「換臉」、AI「變聲」軟件,加強個人信息保護意識,盡量少注冊、不注冊需要或者需求不高的網絡賬號,盡量少填寫、不填寫不必要的個人信息,以防個人信息泄露,盡量不給騙子可乘之機。

北京成竺律師事務所高級合伙人、律師王佳月告訴 CV 智識,無論多么高科技的詐騙,最根本的還是迎合民眾「愛占便宜」、喜歡「不勞而獲」、「愛面子」、「慌不擇路」等心理和弱點,給犯罪分子預留了可作為的空間。

「首先還是從根源上杜絕貪婪的心理,并且時刻保持警醒、提高警惕、提高個人防范意識,知道自己才是個人資產安全的第一責任人。」

但面對威力如此高強的 AI 詐騙,僅僅是加強個人安全警示教育顯然不夠。科技公司開始為這些被他們所「創造」出來的技術承擔責任,許多新的技術方法被應用在防范 AI 詐騙上。

比如安全公司賽門鐵克,最近就提出了采用區塊鏈技術和 IP 語音(VoIP)呼叫的方法,就是來辨別來電者的真實性,從而減少哪些模擬來自上級的詐騙電話。

再比如,卡迪夫大學和查爾斯三世大學的科學家通過 NLP 技術來判斷書面謊言,通過一個名為 VeriPol 的工具來識別語句中的各種特征,判斷出報告是否真實。對于一些偽裝真人發出的詐騙郵件或書面文件,更強大的 AI 模型顯然能起到很好的反制的作用。

當然,在不明確技術泛濫后果的前提下,合理地釋放技術成果也成為一些科技企業的選擇。比如 OpenAI 前段時間推出的性能更高的無監督語言模型 GPT-2,就沒有按照行業慣例進行開源,只發布了簡化版,不發布數據集、訓練代碼以及模型權重,目的就是避免 AI 被人惡意利用。

除了技術人員與騙子們斗智斗勇,產業界也開始從規則建設的層面,為濫用 AI 的行為設立了禁區。在美國安全中心發布的《人工智能與國家安全》報告中,明確將人工智能偽造技術列為威脅國家安全的重點技術。

當代騙子分兩種:懂AI的和不懂的

中國也開始通過政策管理和技術限制等途徑進行布局,來應對人工智能的潛在安全風險。

王佳月告訴 CV 智識,面對人工智能對法律、社會、道德、倫理等方面帶來的新挑戰,從 2017 年開始,國家立法就開始關注個人信息保護方面的立法,例如《網絡安全法》從網絡運營者收集、使用、保存個人信息上加以規范;針對「侵犯公民個人信息刑事案件」最高人民法院、最高人民檢察院也出臺了司法解釋予以明確辦案標準。

2019 年則出現了更多好消息,在十三屆全國人大二次會議上,人工智能方面立法項目,如數字安全法、個人信息保護法等,已經被列入立法規劃,同時被列入抓緊研究項目。《民法典人格權編》(審議稿)中也存在著加強人工智能技術法律規制等條文,對肖像權、聲音保護等都將受到更加明確的規范,以應對人工智能的潛在安全風險。

硬幣的反面

AI 出世,一騎絕塵。從技術人員、商業公司、社會管理者再到普羅大眾,所有人都被人工智能的能力驚艷了,于是五花八門的換臉變聲軟件層出不窮。

隨著技術的成熟,應用的門檻也在不斷被降低,直到人工智能被做成一個個簡單易上手的手機 App,普通人也可以輕松使用。

還有一個不容忽視的事實是,越是厲害的高科技,也越是具有殺傷力。人工智能技術使用不當,其副作用已經開始顯現。

騙子向來是普通人里最熱衷于嘗試新方法、新手段的那一群人,當人工智能這把極具殺傷力的武器被騙子利用,普通人的生命財產安全也將受到更大威脅。

在經歷了前幾年的快速發展期后,今年,人工智能開始全面回歸理性。在處理 AI 詐騙案件時,人們也越發意識到,僅靠警察辦案與加強個人安全教育已經不能解決人工智能濫用所造成的一系列社會問題。

AI 詐騙正是人工智能這枚硬幣反面的一個點,除了行騙,人工智能在被用來獲取用戶數據、個人信息,監控學生等方面同樣引發了大量爭議。

攻擊者與防御者手中的武器都在升級迭代,而圍繞 AI 生成的網絡欺騙與安全問題有著太多意想不到的可能性,這場全新的斗法,正在從技術維度,走向常識、倫理、規則等更廣闊的領地。

登錄,參與討論前請先登錄

評論在審核通過后將對所有人可見

正在加載中

愛范兒,讓未來觸手可及。

本篇來自欄目

解鎖訂閱模式,獲得更多專屬優質內容
二肖中特喜羊羊