律師用AI出錯:大律師行跪低,求放過!AI靠唔住,搞到出醜!

Ai

大型律師事務所發出驚慌電郵,因律師使用AI準備法庭文件

據路透社報導,律師事務所摩根與摩根(Morgan & Morgan)在發現兩名律師引用了AI模型虛構的假法院案例後,迅速向全體律師發出了一封嚴厲的電郵。

這封電郵於本月早些時候發送給超過1,000名律師,詳細警告有關技術的幻覺傾向。然而,顯然這項技術的優點仍然超過缺點;摩根與摩根的領導層並沒有禁止使用AI——這是許多組織已經選擇的做法——而是採取了折衷的做法,提醒律師們必須仔細檢查自己的工作,以確保不會出現完全虛構的內容。

電郵中寫道:“正如我們之前指示的,如果你使用AI來識別引用的案例,則每個案例必須獨立驗證。你的法律工作和聲譽的完整性依賴於此。”

上週,懷俄明州的一名聯邦法官對兩名摩根與摩根的律師提出警告,因為他們在一月份提交的法庭文件中引用了至少九個假案例。這些律師因而受到制裁威脅,並將此事件歸咎於“內部AI工具”,懇求法官給予寬恕。

蘇福克大學法學院院長安德魯·珀爾曼(Andrew Perlman)告訴路透社:“當律師被發現使用ChatGPT或任何生成式AI工具創建引用而不進行核查時,這就是無能,純粹就是這樣。”

據路透社報導,法官尚未決定是否會對這些律師處罰。不過,這對這家相對知名的律師事務所來說,無疑是一個巨大的尷尬,尤其是考慮到此案的性質。該訴訟是針對全球最大公司沃爾瑪(Walmart)提起的,指控該零售商銷售的一款懸浮滑板導致了一場火災,燒毀了原告的家。現在,企業律師們可能在某個後台竊笑,因為對手如此驚人地自傷。

任何熟悉大型語言模型固有缺陷的人都能預見到類似的情況會發生。據路透社報導,這項技術在法律環境中的可疑使用已經導致在過去兩年中至少有七起案件的律師受到質疑或處分。

這不僅僅是幻覺的問題——更在於AI模型是多麼有權威地對你撒謊。此外,任何承諾自動化任務的工具往往會使使用者放鬆警惕,這一問題在自駕車或一些新聞機構試圖使用AI總結故事或協助報導時變得相當明顯。因此,組織可以告訴員工必須仔細檢查自己的工作,但事實是,這類錯誤將會不斷發生。

為了解決這個問題,摩根與摩根要求律師們在其AI工具中點擊一個小框,以確認他們了解使用AI的風險,據《註冊報》報導。我們相信這樣的措施會有效。

評論

這一事件再次突顯了AI技術在法律行業中的潛在風險,尤其是在資料準確性和法律倫理方面。律師們的專業素養不僅僅依賴於技術工具,更需要他們自身的判斷和核查能力。AI的使用雖然能提高工作效率,但若缺乏足夠的監督和驗證,最終可能會導致嚴重的後果。法律行業應該更加謹慎地評估AI的應用,並制定相應的規範和培訓,以確保法律工作的完整性和信譽。在這個快速變化的時代,律師們應該學會如何與新技術共存,而不是盲目依賴。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon