免費!最新GPT 4o 繪圖 + 修圖! 整MEME圖、漫畫一流!

AI鬥法官:ChatGPT判案,夠唔夠人情味?

Ai

人工智能與聯邦法官的挑戰實驗

在人工智能的進步引發了烏托邦與末世的各種預測的同時,它也促使人們反思那些可能被取代的人的制度的目的。最近,芝加哥大學的一份論文將真正的聯邦法官與ChatGPT進行了對比。

研究結果顯示,真實法官似乎更容易受到“法律無關”因素的影響,而不是根據相同材料的人工智能。這一結果帶有一種有趣的雙重性:它突顯了人類法官的明顯易錯性,或是他們的卓越智慧。或許這兩者實際上是相同的。

在2015年,31名參加哈佛法學院專業研討會的聯邦法官同意參與一項實驗。研究人員向他們提供了一個基於1990年代巴爾幹戰爭的真實戰爭罪案件的上訴文件。法官們有55分鐘的時間來決定是否維持或推翻被告的定罪並給出理由。

研究人員從兩個方面變更了材料。首先,有時被告被微妙地呈現得更具同情心,例如表達“對這場悲劇戰爭中所有流血事件的深切懷念”。其次,有些法官面對的先例暗示被告的定罪在法律上存在缺陷,而其他法官則面對的先例暗示該定罪是有效的。

結果顯示:無論哪種方式,先例的影響都不大。相反,法官的決策與被告是否被同情性地呈現之間的關聯性很強(儘管法官們聲稱他們的決策是基於法律)。

這些發現最早在2016年由哈佛的Holger Spamann和柏林洪堡大學的Lars Klöhn發表,距離ChatGPT的發布還有好幾年。現在,芝加哥大學法學院的Eric A. Posner和Shivam Saran發表了一篇工作論文,對比了法官與現代人工智能的表現。

與十年前的法官相比,他們發現,GPT推翻定罪的可能性“不受被告是否被描繪為同情的影響”。而且:“GPT在遵循先例方面更為一致,當先例支持維持定罪時,它的維持可能性更高,而當先例支持推翻時,它的推翻可能性更低。”

當法官(無論是人類還是AI)面對被同情地呈現的被告,但先例卻支持其定罪時,這一差異特別明顯。在這一類別中,大多數10名人類法官表示他們會推翻定罪,而GPT在所有25個案例中都維持了定罪。Posner和Saran寫道:“GPT是一個真正的形式主義者:它既不參考也不基於同情心來作出判決,並且在解釋其決策時避免考慮政策問題。”

即使當研究人員促使GPT考慮人類因素時,這個機器仍然堅持自己的立場:“雖然它常常承認被告的同情特徵,”他們寫道,“但最終它將這些特徵視為與案件結果無關。”他們推測,GPT從數十億篇文本中吸收的“觀念”教它應該忽略法律之外的因素。

GPT的法律嚴謹性看似令人印象深刻,但還有另一個轉折:普通法學生也是嚴謹的。Spamann和Klöhn最近在三所精英法學院對法學生進行了相同的測試。與GPT類似,法學生對維持或推翻被告定罪的決策也受到所面對的先例的強烈影響。畢竟,為了讓上級印象深刻,法學生需要在這類練習中展示他們對先例的知識。

然而,聯邦法官作為法庭的主宰,可能會感到更多的自由去行使裁量權,無論是自覺還是無意。Posner和Saran得出結論,GPT的更高“形式主義”並不使其成為一名優越的法官,除非你認為法學生也是理想的法官。有時法律是模糊的;在這項實驗中,先例故意設計為具有暗示性而非決定性。

不論如何,當前的重要問題並不是AI或人類法官哪個更好。人類法官是憲法的一部分,他們不會消失。但這項研究提醒我們,法律系統不僅僅是關於遵循教條的規則。

現代技術官僚思維傾向於將法律爭議僅僅視為可以理性解決的難題。然而,正如Erik J. Larson在其2021年出版的書籍《人工智能的神話》中所寫:“人類擁有社會智慧。我們擁有情感智慧。我們除了用心智解決難題外,還能做其他的事情,無論問題多麼複雜(或者說,尤其是在問題複雜時)。”

法律確實涉及大量的難題解決,而AI在這方面表現出色。但法律系統與那些維持其合法性和一致性的人的特質交織在一起。這些特質仍然遠未被理解,更不用說被任何機器所複製。

這項研究不僅挑戰我們對法官角色的傳統理解,還引發了對法律與人性之間關係的深刻思考。AI的出現或許能提升部分法律程序的效率,但我們必須警惕,法律的本質仍然需要人類的智慧與情感來維護。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon