法庭警告!專家用AI聊天機器人誤導案件判決

Ai

法官譴責「專家證人」使用AI聊天機器人

一位在法庭案件中擔任專家證人的人使用了微軟的AI聊天機器人Copilot來評估損害賠償,結果被法官譴責。

如果你需要在法庭上找一位專家證人,請確保他們不是依靠AI聊天機器人來提供所謂的專業知識。

使用Copilot在法庭上——壞主意

上週,一位紐約法官在一宗房地產糾紛案件中譴責了一位專家證人,因為他使用了微軟的AI聊天機器人Copilot。這名專家證人查爾斯·蘭森用Copilot來生成應該給予原告的損害賠償評估。這起案件最早由Ars Technica報導。

這個案件涉及一處價值48.5萬美元的巴哈馬租賃物業的糾紛。房地產的擁有人已經去世,這處房產被納入了一個為死者兒子設立的信託中。死者的姐姐負責執行這個信託。然而,這位姐姐被指控延遲出售這處房產並將其用於個人用途,違反了她的受託責任。

要為兒子贏得這場官司,關鍵在於證明他因為姑姑的行為而受到了損害。

蘭森被請來作為專家證人,負責評估這些損害。

儘管蘭森有信託和遺產訴訟方面的背景,但根據法官喬納森·肖夫的說法,他「沒有相關的房地產專業知識」。因此,蘭森轉向了微軟的AI聊天機器人Copilot。

蘭森在作證時顯然透露了他使用了Copilot。在被詢問時,蘭森無法回憶起他用來評估損害的提示或Copilot引用了哪些來源來得出其估算。蘭森也無法解釋Copilot如何工作。

法庭決定使用Copilot來看看是否能得出與蘭森提供的估算相同的結果。法庭問Copilot「你能計算從2004年12月31日到2021年1月31日投資在Vanguard Balanced Index Fund中的25萬美元的價值嗎?」

Copilot在三次嘗試中給出了不同的答案,而且每個答案都與蘭森的Copilot生成的數字不同。

法庭隨後問Copilot是否是可靠的信息來源,Copilot回答說其輸出應該始終由專家驗證。

根據法官的說法,蘭森堅稱像Copilot這樣的AI工具在他的行業中是標準使用,但他無法引用任何一個證明這一點的來源。

蘭森使用AI聊天機器人並不是他唯一的錯誤。然而,Copilot的情況確實打擊了這位專家證人的可信度。法官發現證據顯示,延遲出售房產不僅沒有導致損失,反而為兒子帶來了額外的收益,並裁定姑姑沒有違反受託責任。

這不是第一次,也可能不是最後一次

蘭森將Copilot作為某種專家信息來源的使用,肯定不是AI聊天機器人首次被用於法庭上。

讀者們可能還記得去年律師史蒂文·施瓦茨在一個涉及航空公司客戶在飛行中受傷的案件中依賴ChatGPT進行法律文件提交。施瓦茨在提交引用完全不存在的案件後被譴責。施瓦茨使用ChatGPT進行研究,而AI聊天機器人只是捏造了以前的案件,施瓦茨隨後將其包括在他的文件中。

結果,施瓦茨和他所在律師事務所的另一位律師被法院罰款5000美元,因為他們「惡意行為」。

同樣的情況再次發生在另一位律師Jae Lee身上,她在今年早些時候在提交文件時使用了ChatGPT。再次,ChatGPT捏造了不存在的案件。

在巴哈馬房地產案件中,法官肖夫特意指出不應責怪AI聊天機器人,而應責怪引用它的用戶。然而,AI聊天機器人繼續在網上普及,谷歌和微軟等主要科技公司正在加大對這項技術的推廣。

編輯評論

這篇報導揭示了AI技術在專業領域中的潛在風險,特別是在法律這樣需要高度精確和可靠性的領域。雖然AI能夠提供快速的資訊和分析,但使用者必須對其結果進行嚴格的審核和驗證。這次事件提醒我們,科技雖然進步迅速,但人類專業知識和判斷力仍然無法被完全取代。

從另一個角度來看,這也反映了AI技術在不同領域中的應用仍處於探索階段。我們應該積極探索其潛力,但同時也要警惕其局限性和可能帶來的問題。未來,如何平衡AI技術的應用和人類專業知識的結合,將會是我們面臨的重要課題。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon