**研究人員指出:醫院使用的AI轉錄工具會捏造不存在的內容**
由OpenAI創建的Whisper工具,正廣泛應用於全球各行各業,包括翻譯和轉錄訪談、生成文本及為影片製作字幕。
然而,Whisper存在重大缺陷:它經常編造出不存在的文本或整句對話。超過十二名軟件工程師、開發者及學術研究人員表示,這些虛構的內容(行業內稱為「幻覺」)可能涉及種族評論、暴力言論甚至虛構的醫療治療。
專家指出,這些捏造內容的問題在於Whisper已被廣泛應用於多個行業,尤其是在醫療中心使用該工具轉錄醫生與病人的對話,儘管OpenAI警告不應用於「高風險領域」。
問題的全貌難以掌握,但研究人員和工程師表示,他們經常在工作中遇到Whisper的幻覺。一位密歇根大學的研究人員發現,他檢查的十個音頻轉錄中有八個出現幻覺。
即使是音質良好的短音頻樣本,問題仍然存在。最近一項研究發現,在超過13,000個清晰音頻片段中有187個幻覺。
這種錯誤可能會帶來「非常嚴重的後果」,特別是在醫院環境中。前白宮科學技術政策辦公室主任Alondra Nelson表示:「沒有人希望得到錯誤診斷。」
Whisper亦用於為聾人和聽障人士創建字幕。這群體尤其容易受到錯誤轉錄的影響,因為他們無法識別「隱藏在其他文本中的編造內容」。
**OpenAI被敦促解決問題**
幻覺的普遍存在已促使專家、倡導者和前OpenAI員工呼籲政府考慮對AI進行監管。至少,他們認為OpenAI需要解決這一缺陷。
OpenAI發言人表示,公司不斷研究如何減少幻覺,並感謝研究人員的發現,OpenAI會在模型更新中納入反饋。
**醫療約會的轉錄問題**
儘管有警告,醫院和醫療中心仍使用包括Whisper在內的語音轉文本模型來轉錄醫生訪問內容,以減少醫療人員的筆記時間。
超過30,000名臨床醫生和40個健康系統已開始使用由Nabla開發的基於Whisper的工具。該工具經過調整以轉錄和總結病人的互動。
**隱私顧慮**
由於病人與醫生的會面是保密的,很難知道AI生成的轉錄如何影響他們。加州一位州議員Rebecca Bauer-Kahan表示,她拒絕簽署允許分享會面音頻的表格,因為不希望這些私密的醫療對話被分享給科技公司。
**評論**
這篇文章揭示了AI技術在醫療應用中的潛在風險。Whisper工具的幻覺問題提醒我們,技術的應用不能僅僅依賴其便利性和效率。尤其在醫療等高風險領域,準確性和可靠性至關重要。這也引發了對AI監管的必要性討論,如何在創新和安全之間取得平衡,是科技發展必須面對的挑戰。此外,隱私問題也是一大關注點,病人的數據如何被保護,如何確保不被濫用,都是需要解決的問題。這些都要求相關公司和監管機構更加積極主動地面對和解決。
以上文章由特價GPT API KEY所翻譯