六合彩AI預測賽後檢討!邊個模型預測最叻? 每次攪珠當晚10:30更新免費睇!

AI入侵法庭:死者「復活」指控兇手?法律界大震盪!

Ai

家屬利用AI「復活」死者 於法庭上呈現受害者影響陳述

亞利桑那州一宗涉及路怒殺人案中,死者Chris Pelkey的家人利用過往影片餵入AI模型,創造出其深度偽造(deepfake)形象,並在法庭上以這個AI「克隆人」發表受害者影響陳述。Pelkey於2021年遭槍殺,四年後,這段由AI生成的影片在法庭上播放,似乎是首次以生成式AI深度偽造技術用於受害者影響陳述。

影片中,Pelkey的AI形象身穿綠色連帽衫和灰色棒球帽,留著鬍鬚,像是一位壯碩的退伍軍人。家屬透過多段Pelkey的影片訓練AI模型,然後加上「老化」濾鏡,模擬他若活著今天的模樣。影片中,AI版本的Pelkey對槍手Gabriel Horcasitas說:「在那天以那種情況遇上你,真是遺憾。若是另一個人生,我們或許會成為朋友。」法官表示,這段AI影像陳述是判處Horcasitas過失殺人罪10年半刑期的部分依據。

AI「Pelkey」還說:「這是我所能表達的,若我有機會活到老的樣子。記住,變老是一種恩賜,不是每個人都有機會,所以要珍惜,不用擔心皺紋。」這段話令人感受到一種穿越生死的溫暖與哀思。

紐約男子用AI深度偽造協助自辯

就在一個月前,紐約一位74歲被告Jerome Dewald在合同糾紛案中,亦使用AI深度偽造影片協助辯護。法庭上播放一段穿著毛衣及藍色襯衫男子直視鏡頭的影片,法官誤以為是Dewald的律師,結果竟然是AI生成的深度偽造。Dewald坦言這是他用AI製作的,不是真人。法官對此不滿,指責他未披露使用AI輔助辯護的事實。Dewald則解釋,他無意誤導法庭,只是想用更有效方式表達辯護意見,原本打算讓深偽像自己,但因技術問題改用另一版本。

AI在法律界的「幻覺」與挑戰

這兩宗案件只是生成式AI逐步滲透法庭的最新例子。自從OpenAI的ChatGPT等聊天機械人流行後,律師們開始利用大型語言模型協助草擬法律文件和搜集資料。然而,也出現過不少尷尬情況,AI「幻覺」出完全虛假的案例名和事實,並誤入正式法律程序。

2023年兩位紐約律師因提交含有六個由ChatGPT捏造的假案例而被法官處罰;前總統特朗普的前律師Michael Cohen也曾因AI生成的假案例文件被揭發而惹上麻煩;科羅拉多州一名律師因類似原因被停牌。甚至有喬治亞州的電台主持人控告OpenAI,指ChatGPT誣陷他涉及一宗他毫無關係的貪污案。

法院如何規範AI證據的使用?

儘管法庭曾對使用AI手段有欺瞞嫌疑的律師和被告作出懲罰,但關於何時可以合理使用AI工具的規範仍然模糊。上星期,一個聯邦司法小組以8比1票數,決定徵求公眾意見,擬定規則以確保AI輔助證據達到與人類專家證人相同的標準。美國最高法院首席大法官John Roberts在2023年度報告中亦提及此事,他指出AI有助於經濟條件有限的人自我辯護,但同時亦可能侵犯隱私,甚至讓法律變得「非人性化」。

目前看來,AI深度偽造在法庭上的應用只會越來越普遍,未來如何在法律制度內妥善管理這些技術,將是司法界不得不面對的重要課題。

評論與啟示

這篇報道揭示了生成式AI技術如何突破傳統界限,將死者「復活」於法庭,甚至成為影響判決的因素,令人既驚嘆又憂慮。AI深度偽造不再只是娛樂或惡搞工具,而是進入了法律這個極需嚴謹與公正的領域。這帶來多重倫理與法律挑戰:死者的形象被技術「重塑」,家屬的情感寄託與社會的法律程序如何平衡?AI生成的證據如何確保真實性和公正性?如果AI可以製造出與真人無異的「證詞」,法庭如何分辨真偽?而且,AI在法律文件中「幻覺」造假案例的問題,暴露出目前AI應用的風險與限制。

這些案例也反映出法庭制度對新科技的適應力還未成熟,規範和監管仍然滯後。美國司法系統正試圖透過公開徵求意見和制定新規則來回應,但這是一條長路。對香港及其他地區而言,這些事件提供了寶貴的參考,提醒我們在引入AI於司法程序時必須謹慎,制定明確的規範,保障法律公正與人權。

總括而言,AI技術已非未來,而是當下的現實,法律界必須積極面對這股浪潮,既要擁抱創新帶來的便利,也要嚴防技術濫用,確保法律的尊嚴和正義不被侵蝕。這篇報導提供了極具啟發性的視角,值得法律界、科技界甚至公眾深入思考。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon