斯坦福大學誤資訊專家承認使用聊天機器人導致法庭虛假陳述
一位斯坦福大學的誤資訊專家在明尼蘇達州的一宗聯邦法庭案件中被指控提交了包含虛假信息的宣誓聲明,他將此責任推給了一個人工智能聊天機器人。
這位名為傑夫·漢考克(Jeff Hancock)的教授在一份道歉的法庭文件中表示,機器人生成的錯誤數量超過了原告指出的錯誤,他強調自己並無意誤導法庭或任何律師。他寫道:「我對造成的任何混淆表示誠摯的遺憾。」
代表一名YouTuber和明尼蘇達州立法者的律師在上個月的法庭文件中指出,漢考克的專家證人聲明中提到了不存在的研究,作者為黃、張、王。他們認為漢考克在準備這份12頁的文件時使用了聊天機器人,並要求法庭駁回該提交,因為可能還包含其他未被發現的AI虛構內容。
的確如此:在律師指責漢考克後,他在明尼蘇達地區法庭的文件中發現了另外兩個AI「幻覺」。
漢考克是斯坦福社交媒體實驗室的創始主任,明尼蘇達州檢察總長將他引入這宗案件,作為一名專家辯護證人,該案涉及一名立法者和一名諷刺的YouTuber,兩者都在尋求法庭裁定一項將與選舉相關的AI生成的「深度偽造」照片、視頻和音頻定為犯罪的州法律違憲。
漢考克的法律糾紛凸顯了生成性AI的一個常見問題。自2022年11月舊金山的OpenAI推出其ChatGPT機器人以來,這項技術迅速席捲全球。AI聊天機器人和圖像生成器經常會產生被稱為幻覺的錯誤,文本中的錯誤可能涉及虛假信息,而圖像中的錯誤則可能是荒謬的,例如六根手指的手。
在向法庭道歉的文件中,漢考克—研究AI對誤資訊和信任影響的學者—詳細說明了他如何使用OpenAI的ChatGPT生成專家提交時出現的錯誤。
漢考克承認,除了黃、張、王的虛假研究外,他還在聲明中包含了一篇「不存在的2023年文章,作者為德基爾馬克和羅茨」,以及另外四位「不正確」的研究作者。
為了增強自己的專業信譽,漢考克在文件中聲稱自己共同撰寫了「關於AI媒介溝通的基礎性文章」。他寫道:「我在虛假信息方面發表了大量文章,包括虛假信息的心理動力學、其普遍性以及可能的解決方案和干預措施。」
他使用ChatGPT 4.0來幫助尋找和總結文章,但錯誤可能是在他起草文件時出現的。漢考克在文件中寫道,他在提供給聊天機器人的文本中插入了「引用」一詞,以提醒自己在提出觀點時添加學術引用。
漢考克寫道:「因此,GPT-4o的回應是生成一個引用,這就是我認為幻覺引用出現的原因。」他補充說,他相信聊天機器人還編造了四位不正確的作者。
漢考克在宣誓下聲明,他「識別了在專家提交中提到的學術、科學及其他材料」,而YouTuber和立法者則在他們的11月16日文件中質疑漢考克作為專家證人的可靠性。
漢考克在向法庭道歉時堅稱,這三個錯誤「不影響他作為專家的任何科學證據或意見」。
法官已定於12月17日舉行聽證會,以決定漢考克的專家聲明是否應被駁回,以及明尼蘇達檢察總長是否可以提交修正版本。
斯坦福大學的學生若未經教師許可使用聊天機器人「實質完成作業或考試」可能會被停學並要求社區服務,該校尚未立即回應有關漢考克是否會面臨紀律處分的問題。漢考克也未立即回應類似的問題。
漢考克並非第一位提交包含AI生成虛假內容的法庭文件的人。去年,律師史蒂芬·A·施瓦茨和彼得·洛杜卡因提交了一份包含由ChatGPT虛構的過去法庭案例的個人傷害訴訟文件而各被罰款5000美元。「我沒有意識到ChatGPT可能會編造案例,」施瓦茨告訴法官。
這一事件不僅引發了對AI生成內容準確性的擔憂,也促使人們重新思考在法律和學術界中使用AI的界限和責任。隨著AI技術的快速發展,如何確保其產出的可靠性成為一個亟待解決的問題,特別是在涉及法律文件和證據的情況下。這不僅是對專家的挑戰,更是對整個法律系統的考驗。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。