新研究發現特定的學習策略可以提升醫院中人工智能模型的有效性
2025年6月4日 11:51 ET | 來源:約克大學
多倫多,2025年6月4日(GLOBE NEWSWIRE)——如果用來訓練醫療應用的人工智能模型(例如大多倫多地區的醫院)所使用的數據與現實世界的數據存在差異,可能會對患者造成傷害。約克大學今天發表的一項新研究顯示,主動、持續和轉移學習策略對於減輕數據變化及其帶來的潛在危害至關重要。
為了確定數據變化的影響,研究團隊建立並評估了一個早期預警系統,旨在預測住院患者的死亡風險,並改善七家大多倫多地區大型醫院的患者分流。
這項研究利用加拿大最大的醫院數據共享網絡GEMINI,評估數據變化和偏見對臨床診斷、人口統計、性別、年齡、醫院類型、患者轉診來源(例如急性護理機構或護理院)和入院時間的影響。研究涵蓋了143,049次患者接觸,包括實驗室結果、輸血、影像報告和行政特徵。
約克大學健康政策與管理學院的助理教授Elham Dolatabadi表示:“隨著人工智能在醫院中被用來預測從死亡率和住院時間到敗血症和疾病診斷的各種情況,我們需要確保這些技術能如預期運作,並且不會造成傷害。然而,構建可靠和穩健的機器學習模型一直很困難,因為數據隨時間變化,導致系統不可靠。”
她補充道,訓練臨床人工智能模型所需的數據必須準確反映患者、疾病和醫療實踐的變異性。否則,模型可能會產生無關或有害的預測,甚至不準確的診斷。患者子群體、醫護人員、資源的差異,以及政策或行為的不可預見變化、醫院之間的不同醫療實踐或突發的疫情,都可能引起這些潛在的數據變化。
首席作者、University Health Network的人工智能科學家Vallijah Subasri表示:“我們發現,模型訓練與現實應用之間的數據存在顯著變化,包括人口統計、醫院類型、入院來源和關鍵實驗室檢查的變化。我們還發現,當在社區醫院的患者就診數據上訓練的模型轉移到學術醫院時會出現有害的數據變化,但反之則不然。”
為了減輕這些潛在的有害數據變化,研究人員使用了轉移學習策略,使模型能夠存儲從一個領域學習到的知識並應用到另一個相關領域,以及持續學習策略,通過持續的數據流以順序方式更新人工智能模型,以應對數據漂移觸發的警報。
儘管機器學習模型通常在獲得使用批准後保持鎖定,研究人員發現,專門針對醫院類型的模型利用轉移學習的效果優於使用所有可用醫院數據的模型。
利用數據漂移觸發的持續學習有助於防止由於COVID-19疫情引起的有害數據變化,並隨著時間的推移提高了模型的性能。
根據訓練數據的不同,人工智能模型也可能對某些偏見有傾向,導致對某些患者群體的不公平或歧視性結果。
Dolatabadi表示:“我們展示了如何檢測這些數據變化,評估它們是否對人工智能模型性能產生負面影響,並提出減輕其影響的策略。我們展示了從承諾到實踐的實際途徑,彌合人工智能在健康領域的潛力與在現實臨床環境中部署和維護的現實之間的差距。”
這項研究是臨床人工智能模型部署的重要一步,提供了確保這些模型在現實環境中安全和有效的策略和工作流程。
Subasri表示:“這些發現表明,主動的、無標籤的監測管道結合轉移和持續學習可以檢測和減輕多倫多一般內科人群中的有害數據變化,確保臨床人工智能的穩健和公平部署。”
這篇論文《診斷和修正有害數據變化以負責任地部署臨床人工智能模型》今天在《JAMA Network Open》期刊上發表。
—
這項研究不僅強調了人工智能在醫療領域的潛力,也提醒我們在實施這些技術時,必須謹慎考慮數據的質量和適用性。隨著醫療技術的迅速發展,如何確保這些系統不僅能提高效率,還能保護患者的安全,將成為未來醫療改革的重要課題。這也促使我們思考,如何在技術進步的同時,保持對患者的關懷和倫理責任。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。