AI應用程式未經同意「脫衣」女性問題嚴重
近年AI「脫衣」工具崛起,令任何人只需一張相片,便能輕易製造出假裸體圖片,甚至是你家人、朋友或同事的假裸照。這種未經同意製作性化圖片的工具,看似是AI影像生成技術發展的必然副產品,但自2022年起已有超過1500萬次下載,利用這些深偽裸照作欺凌、勒索和網絡剝削的情況日益嚴重,已非社會能忽視的問題。
部分國家已立法禁止製造及散播未經同意的親密影像,甚至呼籲全面禁用這類應用,但成效有限。有報告指有四分一的13至19歲青少年曾見過熟人被製成的假色情圖片。
什麼是「脫衣」應用程式?風險何在?
「脫衣」應用透過AI,將日常穿衣照片變成裸體或性化圖片。雖然偶有男性成為目標,但研究顯示99%受害者為女性和女孩。這些假圖多被用作欺凌、脅迫或敲詐。媒體報導亦指出,這種現象正逐步影響女性的生活。假裸照不僅令人羞辱,甚至可能影響職業發展,部分地區女性更可能因此面臨法律追究或暴力威脅。
更令人震驚的是,愈來愈多未成年人的假裸照被製作,部分甚至未必源於真實兒童照片。據網絡監察機構報告,2025年上半年網絡上AI生成的兒童性虐圖片網址數量激增400%。即使未涉及真實兒童,這類內容亦被視為極度危險,因為它可能助長對虐待圖片的需求,並令執法調查更困難。有報導指,犯罪集團因販賣這些假內容獲利甚豐,賺取數百萬美元。
服務提供者及立法者如何回應?
各地正嘗試透過法規應對,但進展不均。美國推行《Take It Down Act》,要求社交平台在接獲要求後下架未經同意的深偽圖片。加州和明尼蘇達州等地更明文禁止散播色情深偽影片。
英國則建議不僅禁止散播,更要禁止製作未經同意的深偽圖片,並全面禁用「脫衣」應用,但如何界定這些工具與合法AI創作軟件仍有爭議。
中國則規定生成式AI必須內建防止非法使用的機制,並要求對AI生成內容加上可追蹤來源的水印。
然而,部分執法機構仍未將AI生成的影像濫用視為與真實照片濫用同等嚴重,認為「因為不是真實」,故未給予足夠重視。澳洲網絡安全專員呼籲學校必須將此類事件視為兒童性罪行並報警。
網絡服務商亦肩負重任。Meta(Facebook母公司)近日起訴開發CrushAI應用的團隊,指其試圖繞過平台限制推廣「脫衣」應用。調查發現這些應用開發者常能逃避平台限制,繼續散播有害內容。
我們能做甚麼?
AI「脫衣」應用的興起提醒我們,變革性技術如AI帶來的社會影響不一定全是正面。雖然「後真相時代」及「隱私終結」有可能成為未來,但並非必然。
未來如何發展,關鍵在於我們現在如何界定可接受與不可接受,並採取行動維護這些界限。
社會層面,教育尤為重要。應著重培養學齡兒童對此類傷害的認知,防止成為受害者或施害者。
企業層面,須體察此技術對女性員工的影響,制定人力資源政策,提供支援系統協助受害者應對勒索或騷擾。
科技層面,則可利用技術偵測、過濾及移除這些有害圖片,例如加水印、社群監管等方式。
若不及早果斷行動,深偽裸照問題將日益嚴重,成為日常生活中難以忽視的惡疾。
—
評論與啟示:
這篇文章揭示了AI技術在帶來便利的同時,也如何被濫用於性別暴力和網絡剝削,尤其是針對女性和未成年人的嚴重問題。技術本無善惡,但其應用反映了社會現存的權力不平等和性別歧視。AI「脫衣」應用的流行,暴露了網絡空間對女性身體自主權的侵犯,這不僅是技術問題,更是深層的社會結構問題。
香港社會作為多元且高度數碼化的城市,亦須嚴肅對待類似問題。政府和相關機構應迅速制定完善法規,結合教育與技術監管,防止此類有害技術被濫用。同時,企業尤其是社交媒體平台必須承擔起更大責任,積極打擊此類內容的製造和傳播。
此外,公眾教育不可忽視。年輕一代應被教導辨識和抵禦數碼性暴力,培養尊重他人身體和隱私的價值觀。只有從根本改變對女性身體的物化態度,才能從源頭減少這類問題。
總括來說,這是一場技術、法律與文化的多重挑戰。面對AI帶來的變革,我們不能只是被動接受,而應主動塑造一個尊重個人尊嚴和隱私的數碼未來。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。