ICE探員使用人工智能助寫報告 法官指或解釋報告不準確原因
近日,一位聯邦法官在一份長達223頁的法院裁決中,於一則兩句話的附註中點名批評移民及海關執法局(ICE)探員利用人工智能(AI)技術來撰寫使用武力報告,擔心此舉可能導致報告內容不準確,進一步削弱公眾對警方處理移民專案的信任。該專案涉及芝加哥地區的移民執法行動及隨後的抗議活動。
美國地方法官Sara Ellis在裁決中提及,部分探員會使用ChatGPT這類AI工具來編寫使用武力報告,她指出這種做法削弱了探員的可信度,「或許能解釋這些報告的不準確性」。法官描述曾在至少一段身體攝像機錄像中見到,一名探員只給AI一個簡短的描述句子和幾張圖片,便請ChatGPT幫忙撰寫敘述內容。
法官同時指出,官方報告中的敘述與身體攝像機所錄影像存在事實出入。專家則認為,利用AI來替代探員本人的視角和經歷撰寫報告,是對該技術最糟糕的應用,嚴重影響準確性及隱私保障。
探員視角不可或缺
全美各地執法機關正努力制定規範,讓探員能在利用日益普及的AI技術時,仍能保持報告的準確性、保障隱私及維持專業性。不過,專家認為本案中所見的做法完全違反這些原則。
南卡羅來納大學犯罪學助理教授Ian Adams,亦是非黨派智庫「刑事司法委員會」AI專案組成員,指出:「如果真如法院所述,探員只用一句話和幾張照片交給AI,那就是最糟糕的情況,完全違背所有建議。這是惡夢般的情形。」
國土安全部未回應相關置評請求,該部門是否有針對探員使用AI的指引仍不明朗。法院提及的身體攝像機錄像尚未公開。
Adams補充,少數執法部門已有規範,禁止在撰寫使用武力等重要報告時使用具預測功能的AI。法院在判斷武力使用是否合理時,通常以「客觀合理性」標準,重視特定情況中該名探員的視角。
他說:「我們需要具體描述該事件的詳細經過和該名探員的具體想法,才能判斷武力使用是否正當。這種用AI代替探員親身經歷來寫報告的做法,是除了明確要求AI捏造事實之外,最糟糕的情況。」
隱私與證據風險
除了對報告準確性的疑慮,使用AI還引發了潛在的隱私問題。
紐約大學法學院「警務專案」幕僚長兼科技政策顧問Katie Kinsey表示,如果涉事探員使用的是公開的ChatGPT版本,他可能沒意識到一旦上傳圖片,便失去了對這些影像的控制權,這些資料即成為公共領域內容,可能被不法份子利用。
Kinsey指出,多數執法部門在面對AI技術時仍屬「邊飛邊造飛機」階段,往往是技術已被使用甚至出錯後,才開始討論相關規範。她建議應該反其道而行之,先了解風險,再制定防範措施。
她建議,即使執法部門尚未研究最佳做法,也可以從透明度著手,例如要求用AI撰寫的警務報告或通訊必須標明,類似猶他州或加州最近採用的政策。
謹慎應用新工具
涉事探員用來生成報告敘述的照片亦引來專家對準確性的疑慮。
知名科技公司Axon已開始在其身體攝像機中加入AI功能,協助撰寫事件報告。這些專為警務設計的AI系統運作於封閉環境,主要依賴音頻資料生成敘述,因為公司認為目前利用視覺資料的AI技術尚不夠成熟。
喬治華盛頓大學法學教授Andrew Guthrie Ferguson指出:「不同AI系統對同一提示的回應可能大相逕庭,尤其涉及顏色、面部表情等視覺元素時,情況更為複雜。」
他補充:「這也涉及專業性問題。我們是否願意讓警察使用這種預測性分析?這是根據模型認為‘應該’發生的情況,而不一定是真實發生的。這種內容不應成為法庭上用來證明行動正當性的依據。」
—
評論與啟示
這宗事件揭示了AI技術在執法領域應用的嚴峻挑戰。AI雖能提高效率,但若缺乏恰當指引和限制,可能成為誤導甚至侵犯隱私的利器。特別是使用武力這類敏感報告,需反映探員當時的真實感受和判斷,AI無法取代人類的主觀體驗和道德責任。
現時多數執法機關仍處於技術應用的摸索階段,缺乏完善的政策和監管,容易造成誤用。此事提醒我們,科技進步必須同步建立透明、負責和嚴謹的規範,否則不但無法提升執法質素,反而可能損害司法公正和公眾信任。
此外,個人隱私及證據安全亦不容忽視。將敏感資料上傳至公開AI平台,可能引發資料外洩及濫用風險,這在執法過程中尤為危險。政府和相關機構應盡快制定明確政策,規範AI在警務中的使用,並加強員工培訓,提高風險意識。
最後,這也是一個反思「人機協作」的契機。AI應該是輔助工具,而非替代人類判斷的黑盒子。只有謹慎、負責地運用AI,才能真正實現科技為公共安全帶來正面價值。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。