注意:本文由 Osmond Chia 並首次出現在 海峽時報 3 月 12 日2023.我們重新發布了該故事的刪節版。
錯誤的語法長期以來一直是信息或工作機會可能是騙局的明顯標誌。但網絡安全專家現在表示,隨著像 ChatGPT 這樣的生成式人工智能 (AI) 聊天機器人幫助詐騙者以近乎完美的語言製作信息,這樣的日子可能已經結束了。網絡安全專家表示,他們觀察到最近幾個月網絡釣魚詐騙中使用的語言有所改進——與 ChatGPT 的興起相吻合——並警告最終用戶需要更加警惕其他詐騙跡象。
與 ChatGPT 相關的風險在
英國網絡安全公司 Darktrace 在 3 月份報告說,自從 ChatGPT 的發布後,電子郵件攻擊包含的消息具有更複雜的語言,這表明網絡犯罪分子可能將注意力轉移到製作更複雜的社會工程騙局上。
ChatGPT 能夠糾正不完善的英語並重寫文本塊特定的受眾——以公司的語氣,或針對兒童。它現在為改進後的 Microsoft Bing(具有移動版本)提供支持,該軟件在 3 月份的活躍用戶突破了 1 億,並將在爭奪搜索引擎蛋糕的過程中挑戰谷歌。
Matt Oostveen 先生,區域數據管理公司 Pure Storage 的副總裁兼首席技術官注意到,隨著他的公司處理的網絡攻擊案件的增加,在過去六個月中,網絡釣魚詐騙中使用的文本變得更好。他無法量化據信由 AI 幫助的病例數量,因為它仍處於早期階段。
他說:“ChatGPT 的寫作方式有禮貌,床邊的方式……它是很明顯,網絡釣魚詐騙中使用的語言發生了變化。”他補充說:“它仍然相當新,但在過去六個月中,我們已經看到更複雜的嘗試開始浮出水面,欺詐者很可能正在使用這些工具。”
禮貌和冷靜Oostveen 先生說,像 ChatGPT 這樣的聊天機器人的語氣給人的印象與公司製作消息的方式相似。 他補充說,這可能會欺騙那些以前發現過以糟糕且通常具有攻擊性的語言為特點的騙局的人。
12 月,Check Point Software Technologies 發現暗網上網絡犯罪分子使用聊天機器人創建 python 腳本的證據一次惡意軟件攻擊。
根據 Proofpoint 調查的受訪者,2022 年,十分之七的新加坡組織報告了一次電子郵件攻擊未遂。 Proofpoint 表示,只有一半以上的本地公司開展了安全意識計劃,對他們的全體員工進行詐騙培訓,而進行網絡釣魚模擬以使員工為潛在攻擊做好準備的公司就更少了。熟悉的徽標和品牌足以讓十分之四的受訪者相信電子郵件是安全的。
但人們仍然可以通過多種方式來防範 AI 生成的詐騙——通過查找可疑的附件、標題、電子郵件中嵌入的發件人和 URL,它添加到單獨的報告中。專家敦促公眾核實發件人的電子郵件是否真實,並鼓勵公司進行勒索軟件演練並與顧問合作以填補他們系統中的漏洞。
繼續閱讀: