法官兩次駁回訴訟 疑涉深度偽造影片作證
隨著人工智能技術日益成熟,法庭上出現越來越多由AI生成的證據,令司法審理面臨全新挑戰。尤其是聲音克隆和深度偽造影片(deepfake)技術愈見逼真,法官必須對視聽證據進行更嚴格的審查,這無疑令本已複雜的法律程序更加繁瑣。
加州一宗房屋糾紛案因涉嫌律師提交深度偽造的目擊者影片而引起媒體關注。據NBC新聞報導,法官Victoria Kolakowski在審理中發現該目擊者的聲音單調、面部特徵模糊且表情重複,因而起疑。經進一步鑑定,法官確認該影片具備生成式AI的明顯特徵。該案Mendones訴Cushman & Wakefield被視為少數涉及以深度偽造影片作為真實證詞的案例。Kolakowski法官於9月駁回此案,並於11月初拒絕重新審理申請。法律界人士警告,隨著AI生成證據泛濫,司法系統正面臨前所未有的威脅。
這並非首次法院發現AI生成內容。早在今年2月,一名律師因提交含有假AI生成案件引述的文件,被罰款1.5萬美元。隨著更多律師事務所及企業引入AI工具,缺乏監管導致濫用情況持續增加,法官們正在努力應對這些新挑戰。
路易斯安那州法官Scott Schlegel支持司法系統採用AI,但他警告,原告可能利用AI克隆聲音製作恐嚇錄音,錯誤影響禁制令判決。Erica Yew法官則指出偽造文件可輕易進入官方記錄,動搖公眾對法律文件的信任。儘管問題日益嚴重,司法界仍未建立集中系統追蹤此類事件。
各地法院正在嘗試制定指引應對AI生成內容,但尚無正式程序。美國國家州法院中心與湯森路透研究所將深度偽造列為「未披露的AI證據」,並向法官提供核查來源、存取及修改的清單,但這需額外的司法審查程序。
Adaptive Security創辦人兼CEO Brian Long表示,隨著下一代AI技術愈趨逼真,現有偵測工具難以跟上,律所必須迅速建立新流程。他建議一定要透過第二渠道驗證視聽資料,索取原始檔案,並盡可能與當事人本人確認,及早識破冒充行為,保障客戶安全。
法官們正處於傳統證據標準與生成式AI衝突的新前線。法院剛開始適應這個變革,專家警告若無更嚴謹的規範,未來法庭可能會接納看似真實但完全偽造的材料。部分法官已呼籲建立中央追蹤系統及更明確的指引,但在AI產業缺乏實質監管前,法律界仍如同「西部荒野」般混亂。
—
評論與啟示
這宗案件不僅揭示了AI技術在法律領域的雙刃劍效應,也凸顯出司法制度面對科技變革的脆弱性。深度偽造影片的出現,挑戰了我們對「證據真實性」的基本信任。過去證人證詞和視聽資料被視為客觀且具權威的證據,但如今這些傳統標準被AI技術輕易顛覆。
香港作為國際金融及法律服務中心,亦不能置身事外。隨著AI技術普及,律師事務所及法庭必須盡快建立一套嚴謹的審查機制與技術標準,例如利用區塊鏈確保證據不可竄改,或引入AI偵測工具作為輔助。更重要的是,法官及律師需要接受專門培訓,提升對AI相關風險的認知與應對能力。
此外,這亦是對AI監管政策的警鐘。缺乏監管的AI技術容易被不法分子利用,破壞司法公正。政府與業界應該合作制定明確的法律框架,規範AI在法律文件及證據中的使用,確保透明度和責任追究。
最後,這事件提醒我們,科技進步帶來便利的同時,也必須同步強化倫理及法律防線。只有結合法律、技術與倫理,才能在AI浪潮中守護司法的公平與正義。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放