AI技術加劇兒童色情犯罪危機

Ai

**美國執法人員加緊打擊AI生成的兒童性虐待圖片**

美國執法機構正加緊打擊利用人工智能技術製造的兒童性虐待圖片,這些圖片包括經過改造的真實兒童照片和電腦生成的虛擬兒童的露骨畫面。司法部官員表示,他們正積極追捕利用AI工具的罪犯,同時各州也在努力確保能夠根據法律起訴製造“深偽”及其他有害兒童圖像的人。

美國司法部的兒童剝削和淫穢部門負責人Steven Grocki在接受美聯社採訪時表示:“我們必須經常且早期地發出信號,這是一種犯罪行為,當有證據支持時,它將被調查和起訴。如果你認為不是這樣,那你就大錯特錯了,遲早會有人讓你負責。”

司法部表示,現有的聯邦法律明確適用於此類內容,最近還提出了首宗涉及純AI生成圖像的聯邦案件,這意味著所描繪的兒童並不是真實的,而是虛擬的。在另一宗案件中,聯邦當局在八月逮捕了一名駐阿拉斯加的美國軍人,該軍人被指控將他所認識的真實兒童的無辜照片通過AI聊天機器人處理,將其變成露骨圖片。

**趕上技術發展的步伐**

這些起訴案件發生之際,兒童保護倡導者正緊急努力遏制技術濫用,以防止大量令人不安的圖片湧現,官員擔心這些圖片可能會使拯救真正受害者的工作變得更加困難。執法人員擔心調查人員會浪費時間和資源去識別和追查那些實際上並不存在的受虐兒童。

同時,立法者正在通過一系列法案,以確保地方檢察官可以根據州法律對AI生成的“深偽”和其他露骨兒童圖片提出指控。根據全國失蹤和被剝削兒童中心的審查,今年已有十多個州的州長簽署了打擊數字創建或改造的兒童性虐待圖片的法律。

加利福尼亞州Ventura縣地區檢察官Erik Nasarenko表示:“作為執法機構,我們在追趕一項坦率地說,比我們進步得多的技術。”Nasarenko推動了上個月由加州州長Gavin Newsom簽署的立法,該法案明確規定AI生成的兒童性虐待材料在加州是非法的。Nasarenko表示,由於加州法律要求檢察官證明圖像描繪的是一名真實的兒童,他的辦公室無法在去年十二月至今年九月中旬之間起訴八宗涉及AI生成內容的案件。

執法人員表示,AI生成的兒童性虐待圖片可用於誘拐兒童,即使他們沒有受到身體虐待,當他們的形象被改造成露骨圖片時,孩子們也會受到深刻影響。

參與迪士尼頻道節目“Just Roll with It”的17歲Kaylin Hayman表示:“我感覺自己的一部分被奪走了。儘管我沒有受到身體侵犯。”她在成為“深偽”圖像的受害者後,幫助推動了加州的法案。去年,她在聯邦審判中作證,指控一名男子將她和其他兒童演員的面孔數碼合成到進行性行為的身體上。該男子於今年五月被判處超過14年監禁。

據專家稱,開源的AI模型可供用戶下載到電腦上,常被罪犯喜愛,因為他們可以進一步訓練或修改這些工具,以生成兒童的露骨圖像。官員表示,施虐者在暗網社區中交流如何操控AI工具來創建此類內容的技巧。

去年斯坦福互聯網觀察所的一份報告發現,領先的AI圖像生成器如Stable Diffusion的研究數據集包含了兒童色情圖片的鏈接,這使得某些工具能夠輕易產生有害圖像。該數據集已被刪除,研究人員後來表示他們刪除了其中的超過2000個涉嫌兒童性虐待圖片的網頁鏈接。

包括谷歌、OpenAI和Stability AI在內的頂尖技術公司已同意與反對兒童性虐待組織Thorn合作,以打擊兒童性虐待圖片的傳播。

但專家表示,在技術廣泛可用之前,應該做更多的工作來防止濫用。公司目前採取的措施,如今使濫用未來版本的AI工具變得更加困難,但“對於那些在不被檢測的情況下在電腦上運行舊版本模型的罪犯來說,這些措施幾乎無能為力,”司法部的一名檢察官在最近的法庭文件中指出。

斯坦福互聯網觀察所的首席技術專家David Thiel表示:“沒有花時間去確保產品的安全性,而不是效率,這在事後很難做到——如我們所見。”

**AI圖像愈發真實**

去年,全國失蹤和被剝削兒童中心的CyberTipline收到約4700份涉及AI技術的內容報告,這只是3600萬份疑似兒童性剝削報告中的一小部分。到今年十月,該組織每月接到約450份涉及AI的內容報告,該組織的首席法律官Yiota Souras表示。

然而,專家稱,這些數字可能被低估了,因為圖片太過真實,往往難以辨別它們是否由AI生成。

“調查人員花費數小時試圖確定圖像是否確實描繪了一名真實的未成年人,或是AI生成的,”幫助撰寫加州法案的Ventura縣副地區檢察官Rikole Kelly說。“過去有一些非常明顯的指標……但隨著AI技術的進步,情況不再如此。”

司法部官員表示,他們已經擁有聯邦法律下的工具,可以追捕此類圖像的罪犯。

2002年,美國最高法院推翻了一項禁止虛擬兒童性虐待材料的聯邦禁令。但次年簽署的聯邦法律禁止製造被認為“淫穢”的兒童從事露骨性行為的視覺描繪,包括繪畫。司法部表示過去曾使用該法律來起訴卡通兒童性虐待圖像,該法律特別指出不要求“所描繪的未成年人實際存在。”

司法部在五月以此罪名起訴了一名威斯康星州的軟件工程師,該工程師被指控使用AI工具Stable Diffusion創建兒童從事露骨性行為的擬真圖片,並在Instagram上通過直接信息發送給一名15歲男孩。該男子的律師以第一修正案為由推動撤銷指控,並拒絕就電子郵件中的指控進一步置評。

Stability AI的一名發言人表示,該名男子被指控使用的是由另一家公司Runway ML發布的工具的早期版本。自從接手這些模型的專屬開發以來,Stability AI表示已“投資於主動功能,以防止AI被濫用於製造有害內容。”Runway ML的一名發言人未立即回應美聯社的置評請求。

在涉及“深偽”的案件中,當一個真實兒童的照片被數碼化改造成露骨圖片時,司法部正在根據聯邦“兒童色情”法律提出指控。在一宗案件中,一名北卡羅來納州的兒童精神病醫生使用AI應用程序將一張數十年前在Facebook上分享的開學第一天照片中的女孩數碼“脫衣”,去年被判聯邦罪名成立。

Grocki說:“這些法律存在。它們將被使用。我們有這樣的意願。我們有資源。” “這不會是一個因為沒有實際兒童涉入而被忽視的低優先事項。”

**評論**

AI技術的快速發展帶來了前所未有的挑戰,尤其是在如何防止其被濫用方面。這篇報道揭示了AI在生成兒童性虐待內容中的潛在危險,並且凸顯了法律和技術之間的賽跑。值得注意的是,技術公司在開發這些工具時,應該更早地考慮到可能的濫用情況。雖然目前的法律努力和技術措施正在逐步加強,但這場技術與法律的博弈仍在繼續。這也提醒我們,技術的進步必須伴隨著道德和法律框架的完善,否則將可能帶來難以預料的社會問題。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *