Telegram內驚現「Nudify」假裸照機械人!

Ai

**調查揭示深偽「裸化」機械人的驚人增長**

最近對通訊應用程式Telegram的調查揭示了一個令人擔憂的現象:大量「裸化」機械人在網上活躍。這些AI軟件可以虛擬地脫去照片中人物的衣物,創造不知情成人甚至未成年人的不雅內容。最早在2020年,深偽專家Henry Ajder報導了這類機械人的存在,當時單一機械人就生成了超過10萬張不雅圖片。隨著時間的推移,情況變得更加嚴重。

本週,《連線》雜誌發現Telegram上至少有50個裸化機械人,這些機械人能生成類似的色情照片和視頻。這些機械人從普通照片中生成女性的假裸照,技術類似於DeepNude應用程式。

**AI版本的馬斯克被警告為「最大的深偽騙局」**

據《連線》報導,兩個機械人的每月用戶數量均超過40萬,另有14個擁有超過10萬訂戶。這次調查進一步確立了Telegram作為深偽色情集中地的聲譽。

Ajder在新文章中表示:「我們正在談論的是,這些工具的使用者數量顯著增加,這對於年輕女孩和女性來說是一個可怕的場景,這些工具正在毀掉她們的生活。」Telegram通常對平台上的性剝削問題不作多大處理,僅在最近向韓國就深偽色情問題道歉。

**這些假圖片對心理健康的影響**

Refuge組織的Emma Pickering補充說:「這類假圖片會對個人健康和福祉造成傷害,引起心理創傷和羞恥、恐懼、尷尬等感受。」一個網絡安全公司曾在2020年發現了10萬名女性的不雅照片,問題如今更為嚴重,因為現有400萬忠實訂戶。

Telegram提供搜尋功能,使用戶能輕易找到相關社區、聊天和機械人,這也使問題更為惡化。

**編者評論**

這篇報導揭示了一個日益嚴峻的社會問題:AI技術的濫用如何造成個人和社會的深遠影響。隨著技術的進步,法律和道德的界限變得模糊,特別是在保護隱私和防止性剝削方面。我們必須考慮如何有效地監管這類技術,保護個人免受不必要的傷害。同時,這也提醒我們在使用社交平台時要更加謹慎,因為我們的數碼足跡可能被用於我們無法預見的用途。這不僅是一個技術問題,更是社會倫理的挑戰。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *