資深律師因提交由人工智能生成的文件向維多利亞法庭致歉
維多利亞州一宗謀殺案中,一名資深律師因提交包含由人工智能(AI)生成且帶有錯誤的法律陳詞,向法官公開道歉。
這些虛假的陳詞中,包括偽造的演講引述及不存在的最高法院案例引用,導致案件審理被延誤了24小時。
擔任辯護律師的Rishi Nathwani,擁有「國王御用大律師」(King’s Counsel)的稱號,於法庭文件中承認全權負責提交錯誤資料。據悉,該案涉及一名青少年被控謀殺。
Nathwani律師於周三代表辯方團隊向法官James Elliott表示:「我們對所發生的事情深感抱歉和尷尬。」
這些由AI生成的錯誤使得法官原本希望於周三結案的審理被迫延後。
最終,法官於周四裁定因被告精神狀況影響,不構成謀殺罪。
Elliott法官嚴正指出:「法院對律師所提交資料的準確性依賴至關重要,這是司法公正運作的基石。」
調查發現,這些虛假陳詞中有些引述是捏造的,部分案例引用根本不存在。法官的助理在未能找到相關案例後,要求辯方律師提供文件,律師們承認這些資料是虛構的。
律師團隊解釋,他們曾核實部分引用的準確性,但錯誤地假設其他引用同樣正確。檢控方律師Daniel Porceddu則未對該等陳詞進行核實。
法官亦提到,最高法院去年已發布指引,規範律師使用人工智能的方式。他強調:「除非能夠獨立且徹底核實AI產出的內容,否則使用人工智能是不被接受的。」
相關法庭文件未透露律師所用的生成式AI系統名稱。
類似事件在美國亦曾發生。2023年,一名聯邦法官對兩名律師及其律師行罰款5000美元,原因是他們使用ChatGPT生成虛假的法律研究資料,涉及一宗航空傷害索償案。
英國高等法院法官Victoria Sharp今年六月亦曾警告,若提交虛假資料冒充真實,可能構成藐視法庭,甚至在最嚴重的情況下,涉嫌妨礙司法公正,最高可判終身監禁。
—
評論與啟示
這宗案件深刻反映了人工智能在法律實務中應用所帶來的倫理與職業風險。律師作為法律專業人士,必須對所提交的資料負上嚴謹的核實責任,任何依賴AI生成內容而未經嚴格審查的行為,都可能嚴重損害司法公正,甚至延誤審判進度。
AI工具固然能提高工作效率,但這起事件提醒我們,技術的便利絕不能取代專業的判斷與嚴謹的事實查證。法律行業作為社會公正的守護者,更應建立明確的規範和培訓機制,確保律師在使用新興科技時能夠保持高度警覺。
此外,這事件亦揭示了法院對AI使用的監管需求。最高法院早前已出手制定指引,凸顯了在法律界推廣AI應用的同時,需同步強化監督與問責機制,防止技術被濫用。
對香港法律界而言,隨著AI技術愈趨普及,如何在確保法律質素與效率間取得平衡,將是未來亟需面對的挑戰。律師及法律機構必須主動更新知識,制定嚴謹的內部審核流程,避免類似事件發生,從而維護法律專業的公信力和司法體系的正義形象。
總括而言,這宗案件不單是對個別律師的警示,更是整個法律界面對AI時代的一次重要反思契機。如何在擁抱技術創新的同時,守護法律的嚴謹與信任,將是未來法律發展不可忽視的課題。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
