FBI 警告 AI Deepfake 勒索詐騙

生成式 AI 創造栩栩如生圖像的能力令人印象深刻,但美國聯邦調查局表示,犯罪分子正在使用 deepfakes 以受害者為目標進行勒索。

“聯邦調查局繼續收到受害者的報告,包括未成年兒童和不同意的成年人,他們的照片或視頻被更改為露骨內容,”該機構週一在 PSA 警報中表示。

美國聯邦調查局表示,執法機構去年收到了 7,000 多份針對未成年人的在線勒索報告,自 XNUMX 月以來,使用深度偽造的所謂“性勒索詐騙”的受害者人數有所增加。

借助 Midjourney 5.1 和 OpenAI 的 DALL-E 2 等生成式 AI 平台,Deepfake 是一種越來越常見的視頻或音頻內容類型,由人工智能創建,描繪了越來越難以辨別為假的虛假事件。

XNUMX 月,特斯拉和 Twitter 首席執行官埃隆·馬斯克 (Elon Musk) 為詐騙加密貨幣投資者而製作的 Deepfake 在網上瘋傳。 社交媒體上分享的視頻包含馬斯克之前接受采訪的鏡頭,經過編輯以適應騙局。

Deepfakes 並不都是惡意的,今年早些時候,教皇方濟各 (Pope Francis) 身穿 Balenciaga 白色夾克的 deepfakes 走紅了,最近,AI 生成的 deepfakes 也被用來讓謀殺受害者起死回生。

FBI 在其建議中警告不要支付任何贖金,因為這樣做並不能保證犯罪分子無論如何都不會發布 deepfake。

FBI 還建議在網上共享個人信息和內容時要謹慎,包括使用隱私功能,例如將帳戶設為私有、監控兒童的在線活動,以及觀察您過去與之互動的人的異常行為。 該機構還建議經常在線搜索個人和家庭成員信息。

發出警報的其他機構包括美國聯邦貿易委員會,該委員會警告說,犯罪分子一直在使用深度偽造來誘騙毫無戒心的受害者匯款,因為他們創建了朋友或家人的音頻深度偽造,聲稱他們已被綁架。

“人工智能不再是科幻電影中的遙不可及的想法。 我們在此時此地忍受著它。 騙子可以使用 AI 來克隆你所愛之人的聲音,”美國聯邦貿易委員會在 XNUMX 月份的一份消費者警報中表示,並補充說,所有犯罪分子都需要一個家庭成員聲音的簡短音頻片段,以使錄音聽起來真實。

FBI暫未回應 解密的 要求發表評論。

隨時了解加密新聞,在您的收件箱中獲取每日更新。

來源:https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams