醫生已經在護理中使用人工智能,但我們不知道安全使用的標準應該是什麼
根據最近對約1,000名全科醫生的調查,英國五分之一的醫生正在使用生成式人工智能(GenAI)工具,例如OpenAI的ChatGPT或Google的Gemini,來協助臨床實踐。醫生們表示,他們利用GenAI生成就診後的文檔、幫助做出臨床決策,以及向病人提供可理解的出院摘要和治療計劃等信息。
考慮到人工智能的熱潮以及醫療系統所面臨的挑戰,醫生和政策制定者都認為AI在現代化和轉型我們的醫療服務中至關重要也就不足為奇了。
然而,GenAI是一項新興的創新,根本挑戰了我們對病人安全的認知。在它能夠安全地在日常臨床實踐中使用之前,我們仍需了解很多有關GenAI的知識。
GenAI的問題
傳統上,人工智能應用是為了執行特定的任務而開發的。例如,深度學習神經網絡被用於影像學和診斷中的分類。這類系統在分析乳腺X光檢查以輔助乳腺癌篩查方面表現出色。
但GenAI並不是訓練來執行狹義定義的任務。這些技術基於所謂的基礎模型,具備通用能力。這意味著它們可以生成文本、像素、音頻或這些的組合。
這些能力隨後被微調以適應不同的應用,例如回答用戶查詢、生成代碼或創建圖像。與這類AI的互動可能性似乎僅限於用戶的想像力。
關鍵是,由於該技術並未針對特定的背景或目的進行開發,我們實際上並不知道醫生如何安全地使用它。這只是為什麼GenAI尚不適合在醫療保健中廣泛使用的原因之一。
使用GenAI於醫療保健的另一個問題是“幻覺”現象。幻覺是基於提供的輸入而產生的無意義或不真實的輸出。
在讓GenAI生成文本摘要的背景下,幻覺已經得到了充分研究。一項研究發現,各種GenAI工具生成的輸出在文本中所說的內容之間建立了不正確的聯繫,或摘要中包含了文本中根本未提及的信息。
幻覺的產生是因為GenAI基於可能性原則運作,例如預測在特定上下文中哪個單詞將跟隨,而不是基於人類意義上的“理解”。這意味著GenAI生成的輸出是合理的,而不一定是真實的。
這種合理性是為什麼目前尚不適合在日常醫療實踐中安全使用GenAI的另一個原因。
患者安全
另一個原因是,患者安全依賴於與AI的互動,以確定它在特定背景和環境中的運作效果——考慮該技術如何與人互動,如何適應規則和壓力,以及在更大的醫療系統中的文化和優先事項。這種系統觀點將決定GenAI的使用是否安全。
但由於GenAI並非針對特定用途而設計,這意味著它具有適應性,可以以我們無法完全預測的方式使用。此外,開發者定期更新他們的技術,增加新的通用能力,改變GenAI應用的行為。
此外,即使技術表現得安全且如預期般運作,仍然可能出現傷害——這再次取決於使用的背景。
例如,引入GenAI對話代理進行分流可能會影響不同患者與醫療系統互動的意願。數字素養較低的患者、以英語以外的語言為母語的人以及非語言患者可能會發現使用GenAI困難。因此,儘管該技術在原則上“可行”,但如果技術無法公平地為所有用戶服務,仍可能導致傷害。
這裡的重點是,這類GenAI的風險通過傳統的安全分析方法更難以預測。這些方法關注的是理解技術故障如何在特定背景下造成傷害。醫療保健可以從採用GenAI和其他AI工具中獲益良多。
但在這些技術能夠在醫療保健中更廣泛使用之前,安全保障和監管需要對這些技術的使用發展做出更具響應性的調整。
此外,GenAI工具的開發者和監管機構必須與使用這些技術的社區合作,開發可以在臨床實踐中定期和安全使用的工具。
評論與反思
這篇文章深刻地揭示了在當前醫療環境中,生成式人工智能的應用面臨的挑戰。雖然技術的潛力巨大,但其風險和不確定性也不容忽視。特別是在醫療領域,錯誤的信息可能導致嚴重的後果,因此在導入這些技術之前,確保其安全性和可靠性是至關重要的。
此外,對於開發者來說,如何在設計過程中考慮到多樣化的用戶群體並確保其技術的包容性,將是未來的重要課題。醫療機構和政策制定者需要共同努力,建立一個框架來監管和評估這些技術的影響,以便在不犧牲患者安全的情況下,充分發揮人工智能的潛力。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。