在我們由 AI 驅動的深度造假和自動生成消息的世界中,您可以信任誰? “Deepfake”是“深度學習和偽造”的縮寫,其中一些項目感覺非常真實,甚至連專家都可能被愚弄。
我們雷達上的一個騙局將“欺騙”一詞提升到了一個新的高度.犯罪分子沒有接到真人電話詐騙者的電話,而是模仿您所愛之人的聲音,要求經濟援助。
繼續閱讀以了解竊賊如何將人工智能 (AI) 融入他們的騙局。
p>
使用人工智能技術的電話詐騙
薩斯喀徹溫省的一對老年夫婦接到了一個令人震驚的電話,電話聽起來很像他們的孫子佈蘭登。 據《華盛頓郵報》報導,電話裡的聲音是拼命要保釋金的。根據電話,布蘭登在監獄裡,需要盡快得到幫助。
兩人爭先恐後地從積蓄中籌集資金,幾乎兌現了諾言。值得慶幸的是,他們當地銀行的一位經理聽說了這個故事。他警告他們,騙子四處遊蕩,誘騙無辜的人匯款。
免費數字生活和技術技巧,讓您更聰明
只向專業人士學習技術技巧和技巧
這些電話不僅僅是對像布蘭登這樣的親人的聰明、一般的模仿。雖然過去基於電話的冒名頂替詐騙確實利用專業配音演員讓受害者相信他們的朋友或家人有麻煩,但這一新的假電話浪潮是使用人工智能創造的。怎麼做到的?
如果您熟悉用於模仿名人的深度換臉技術,您一定會覺得這個故事耳熟能詳。只需幾秒鐘的目標錄音,這些犯罪分子就可以利用機器學習來設計任何話題的對話。共同點是 deepfake 總是要錢。
像這樣的方案具有足夠的挑戰性,足以讓專業分析師檢測到何時涉及視覺元素。沒有視頻,這項任務幾乎不可能完成。
早在 2019 年,該技術就被用於此類詐騙。從那時起,威脅者已經從企業和像您這樣的普通人那裡竊取了數百萬美元。
一旦詐騙者擁有關於您社交圈的足夠信息,他們可以從 AI 聲音目錄中進行選擇,並根據他們引用的錄製音頻進行定制。您可能會驚訝於他們能夠如此接近。通常,匯款後無法彌補您的經濟損失。
如何判斷 AI 生成的電話何時是假的
確信您能夠發現deepfake 如果有人打電話給你?再想一想。如果您突然接到親人要錢的電話,我們建議您在轉接電話之前三思而後行。
首先,仔細核對打給您的電話號碼。在這個故事中,布蘭登聲稱是從警察局打來的,這可能足以蒙蔽一些受害者的眼睛。
接到這樣的瘋狂電話後,請嘗試立即撥打您所愛之人的電話號碼。如果他們不接聽電話,請聯繫警方或來電者提到的聯繫點。
語音電話也不是打入錢包的唯一途徑。點擊或單擊此處了解另一項類似的冒險活動,它可能會騙取您成千上萬的錢。
繼續閱讀
這個令人討厭的 TikTok 騙局針對的是悲傷的家庭
更多偽造的 ChatGPT 惡意軟件在傳播——不要下載這個