
AI影響法律行業的風險
美國最大的傷害法律事務所Morgan & Morgan最近因為一名律師在法庭上引用了AI生成的虛假案例而遭遇了嚴重的信譽危機。該事務所的首席轉型官Yath Ithayakumar在法庭文件中提醒全所超過1,000名律師,引用虛假的AI案例可能導致紀律處分,包括解僱。
虛假案例的影響
這一事件源於一起針對沃爾瑪的訴訟,指控其設計的懸浮滑板玩具導致了一場家庭火災。該案的首席律師Rudwin Ayala引用了八個案例,然而沃爾瑪的律師卻發現這些案例在任何地方都無法查找,除了在ChatGPT中。沃爾瑪的律師因此要求法院考慮對Ayala的制裁。
目前,法院尚未對可能的制裁做出裁決,但Ayala已經被立即撤換,由其直接上司T. Michael Morgan接手。他對Ayala的虛假引用感到“非常尷尬”,並與沃爾瑪的律師達成協議,支付所有與此錯誤文件相關的費用和開支。Morgan表示,這應該成為所有律師事務所的“警示故事”。
法律界的AI依賴問題
近兩年來,因引用AI生成的虛假案例而出現問題的律師已經不少。根據報導,有律師因引用聊天機器人的“胡言亂語”而被罰款5,000美元,另一名德州律師則因引用虛假案例被罰2,000美元並需參加負責任使用生成型AI的課程。儘管如此,前總統特朗普的律師Michael Cohen卻在一起高調事件中逃過制裁。
Morgan在法庭文件中強調,Ayala對沃爾瑪案中的AI引用完全負責,其他人並不知情。他表示,如果他事先知道,會要求Ayala自行核實所有引用的案例。Morgan對法庭表示,AI的隨意使用是“令人作嘔的可怕想法”,並承認當使用不當時,AI可能會帶來“危險”。
改進AI使用培訓
Morgan & Morgan明白必須加強對律師的AI工具培訓,以避免未來再出現類似問題。Ithayakumar在發給全所律師的信中重申,AI不能單獨用於可靠地研究案例或撰寫文件,因為AI可能會生成完全虛假的信息。他強調,律師必須獨立驗證所有通過AI獲得的案例。
法律教授Harry Surden指出,律師一向會犯錯,但隨著法律界對AI工具的依賴增加,律師們需要提高對AI的理解,以了解這些工具的優缺點。根據2024年7月的一項調查,63%的律師已經使用過AI,12%則是定期使用。
在2025年,Morgan & Morgan已經意識到需要在全所加強AI培訓。Morgan告訴法庭,該事務所的技術團隊和風險管理成員已經會面,討論並實施進一步的政策,以防止未來再次發生類似事件。
此外,該事務所還新增了一個選項,要求律師在訪問內部AI平台之前確認AI可能存在的虛假信息。Morgan指出,正在討論進一步的保護措施和培訓,以防止AI被錯誤使用。
結語
這一事件突顯了在法律行業中,盲目依賴AI所帶來的風險。律師們必須認識到,AI雖然是一個強大的工具,但必須謹慎使用。這不僅關乎個人律師的專業道德,也關乎整個法律體系的完整性。隨著AI的快速發展,法律界必須加快步伐,確保所有從業人員都能夠正確地利用這些技術,而不是被其誤導。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。