OpenAI最新推出嘅Sora 2 AI影像生成器已經引發混亂
依家嘅世界,點先可以確定眼見嘅嘢係真嘅呢?
《紐約時報》喺10月3號報導話,OpenAI嘅Sora 2 AI影像生成器喺推出短短三日內,已經有人利用佢生成咗啲可能煽動性嘅影片。呢啲影片嘅逼真程度遠超以往嘅AI生成內容,有機會引發大規模嘅錯誤資訊傳播,社會影響非常深遠。
舉個例,VICE就展示咗一段由Sora製作嘅影片,入面OpenAI嘅CEO Sam Altman被拍到喺Target商店偷嘢,雖然呢段影片係惡搞,但都反映出Sora嘅逼真度有幾高。更令人擔心嘅係,其他Sora生成嘅影片包括似乎係監控鏡頭拍到嘅戴口罩人士將選票塞入郵箱、以色列爆炸現場嘅即時後果、便利店搶劫同屋企入室行劫等畫面。
雖然Sora設有保護機制,唔會生成暴力場面或者涉及現任知名公眾人物(例如特朗普)嘅影片,但有人已經搵到方法繞過限制。例如,有人只要求生成一段政治集會嘅群眾畫面,雖然冇直接顯示前總統奧巴馬,但聲音聽落就好似佢講嘢咁。
OpenAI為咗標示Sora生成嘅影片,會喺播放時加入一個小小嘅動態浮水印——一個有眼睛嘅煙霧小生物,似乎係Kirby同雲朵嘅結合體。水印透明度較高,唔容易忽視。不過,問題係,幾耐之後會唔會有人搵到技術去除呢個水印?而家只係靠呢個水印已經難以阻止錯誤資訊嘅傳播。
現時社交媒體上一啲簡單嘅文字帖都可以引發私刑、暴動等嚴重後果,想像下如果係一段高度逼真、但完全虛構嘅AI生成影片,將會帶嚟幾咁嚴重嘅社會混亂。我哋知道呢一刻會嚟,但冇諗過會嚟得咁快。
—
評論與深入分析
Sora 2嘅出現,標誌住AI影像生成技術進入咗一個全新階段,逼真度幾乎達到以假亂真嘅水平,令傳統嘅資訊辨識機制面臨巨大挑戰。以往,人哋可以憑借影片質素、畫面特徵等判斷真偽,但當AI可以輕鬆製作出幾乎無法分辨嘅偽影片,社會對視覺證據嘅信任基礎開始崩潰。
更麻煩嘅係,儘管OpenAI設置咗防範措施,但技術漏洞同用戶嘅創意會不斷挑戰呢啲限制。水印雖然係一個好嘅識別方法,但技術上水印終有被破解嘅可能,屆時錯誤資訊嘅傳播將更難以控制。
對香港社會嚟講,呢種技術既帶嚟機會(例如創作、教育、娛樂等),但同時亦帶嚟嚴重嘅風險。假新聞、假影片嘅氾濫可能加劇社會撕裂,甚至影響公共安全同政治穩定。因此,相關監管機構同社會大眾必須提高警覺,加強識假能力同制定嚴謹嘅規範。
我哋需要思考嘅係,面對AI生成嘅虛假內容,單靠技術手段或平台規管是否足夠?亦或者應該從教育層面加強媒體素養,培養市民嘅批判性思維?同時,政府、科技公司同社會各界應該合作,建立更完善嘅識別系統同法律框架,保障資訊生態嘅健康發展。
總括而言,Sora 2帶嚟嘅震撼唔止係技術突破,更係社會治理同倫理監管嘅重大考驗。呢場AI與真相嘅較量,正悄悄開始,而結果將深刻影響未來嘅資訊世界。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放