以人工智能製造截肢以色列士兵圖片 被用作宣傳及網絡詐騙
近日,網上流傳多張顯示以色列士兵雙腿截肢的圖片,但這些圖片其實都是由人工智能(AI)生成的假圖片。儘管如此,這些圖像仍被支持及反對以色列的不同陣營大量使用,甚至被利用於網絡詐騙活動。
自2025年6月起,這些假圖片在Facebook、Instagram、TikTok及YouTube等社交平台廣泛流傳。部份以色列民眾看到這些圖片後,激起同情或愛國情感;而反對以色列軍隊的人則以嘲諷回應。
支持以色列的意見領袖使用AI圖片助宣傳
2025年8月2日,一個名為Redbrasco的X(前Twitter)賬號發布了一張「以色列國防軍(IDF)英雄」的圖片,畫面中一名穿制服的以色列士兵雙腿截肢,與新娘攜手合照,該貼文瀏覽量超過六百萬次。以色列媒體指出,Redbrasco經常轉發親以色列的「hasbara」(宣傳)內容。
不過,該圖片中有明顯異樣:士兵的制服與以色列陸軍正規制服不符,腰帶竟有兩個扣環,褲袋位置也錯誤,士兵左手還疑似缺少手指。這些細節都是AI製造假圖片的證據。
以色列一個反虛假資訊組織FakeReporter的研究員Tal Hagin表示,這類假圖片其實是建立在真實事件基礎上。由於戰爭期間真有士兵受傷截肢,網民容易將這些AI圖片當成真實影像,忽略其中異樣。這類圖片常用於提升士氣和獲取支持。
反以色列陣營亦利用相同圖片作嘲諷
另一方面,反以色列的社交媒體賬號同樣轉發這些假圖片,表達對以色列軍人受傷的嘲弄。例如,一張顯示一名女性以色列士兵雙腿截肢的圖片,被伊朗新聞網站及其他反以色列用戶轉載,並配以諷刺文字及反猶太主義的拼貼圖,將加沙地帶與納粹集中營相提並論,充滿敵意。
這些圖片的背景也存在不合理之處,如背景中的裝甲車與以色列軍隊裝備不符,醫院房間的電源插座亦非以色列標準,進一步證明圖片由AI生成。
AI製作的影片吸引點擊與互動
YouTube上亦有影片顯示另一名女性IDF士兵截肢後,母親在醫院安慰她。影片標題誘導觀眾點讚和分享,以博取同情。然而影片中出現不合邏輯的細節,例如母親手指上的戒指忽然出現,證明影片同樣是AI生成。
Tal Hagin指出,這些悲傷的圖片和影片引發大量留言和互動,無論是支持還是辱罵,都能增加網絡曝光率,從而為發布者帶來經濟利益。
更複雜的詐騙手法
部分YouTube頻道會分享這些假圖片,並邀請留言者加入所謂「專注於托拉(猶太教經典)」的WhatsApp群組。群組管理員會私下聯繫用戶,聲稱可為其親友提供特別祈禱,實則疑似詐騙,目的是騙取捐款。
這些群組管理員雖用希伯來語發帖,但其電話號碼多來自土耳其或葡萄牙,甚至有中文介紹,令人懷疑其真實身份。Tal Hagin分析,詐騙者藉由祈禱的名義,要求用戶提供病人全名等詳情,進一步騙取信任和金錢。
根據聯合國2025年7月的數據,自2023年10月7日加沙戰爭爆發以來,已有2,821名以色列國防軍士兵受傷。
—
評論與深度分析
這宗事件揭示了人工智能生成內容在現代資訊戰場上的雙刃劍作用。一方面,AI技術能創造逼真影像,迅速吸引公眾情感,無論是激發同情還是仇恨;另一方面,這些虛假內容卻極易被不同陣營利用,擴大社會分裂和誤導輿論。
以色列支持者利用這些圖片提升士氣和凝聚力,反映出在戰爭壓力下,公眾對正面故事的渴求與心理需求。反以色列者則借助相同素材加強對立與仇恨,甚至不惜製造帶有反猶色彩的惡意拼貼,這種手法極具破壞社會和諧的危險。
更令人擔憂的是,這些AI生成的假圖片和影片不僅是政治工具,還被詐騙集團利用,利用人們的同情心進行金錢詐騙。這說明,人工智能技術的濫用不僅限於資訊操控,更延伸至犯罪領域。
對香港及全球網民而言,這提醒我們在網絡資訊時代,要更加謹慎地判斷圖片和影片的真偽,尤其在敏感議題上,更要警惕被情緒操控和誤導。政府及科技公司應加強監管及技術手段,提升公眾媒體素養,防止假資訊擴散。
從更廣義角度看,這件事反映出未來社交媒體和人工智能技術融合後,虛假資訊的危害將更難防範,如何在自由言論與資訊安全間取得平衡,將是全球社會亟需面對的挑戰。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
