新研究發現特定學習策略可以提升醫院中AI模型的有效性
2025年6月4日 11:51 ET | 來源:約克大學
多倫多,2025年6月4日(GLOBE NEWSWIRE)—— 如果用於訓練醫療應用的人工智能模型(例如大多倫多地區的醫院)所使用的數據與現實世界數據不一致,可能會導致患者受傷。約克大學今天發表的一項新研究發現,主動、持續和轉移學習策略對於減輕數據變化及其後果至關重要。
為了確定數據變化的影響,研究團隊在大多倫多地區的七家大型醫院建造並評估了一個早期預警系統,以預測住院患者的死亡風險並改善患者的分診。
該研究利用加拿大最大的醫院數據共享網絡GEMINI,評估數據變化和偏見對臨床診斷、人口統計、性別、年齡、醫院類型、患者轉診來源(例如急性護理機構或護理院)以及入院時間的影響。研究涵蓋了143,049次患者接觸,包括實驗室結果、輸血、影像報告和行政特徵。
約克大學健康政策與管理學院的助理教授Elham Dolatabadi表示:“隨著醫院中AI的使用增加,從預測死亡率和住院時間到敗血症和疾病診斷的發生,確保其按預期運作並不造成傷害的需求越來越大。”她補充說,建立可靠和穩健的機器學習模型一直是個挑戰,因為數據隨時間變化,導致系統不可靠。
她指出,用於訓練臨床AI模型的數據必須準確反映患者、疾病和醫療實踐的變異性。否則,模型可能會產生不相關或有害的預測,甚至不準確的診斷。患者子群體、工作人員、資源的差異,以及政策或行為的不可預見變化、醫院之間的不同醫療實踐或突發疫情,都可能導致這些潛在的數據變化。
首席作者、University Health Network的AI科學家Vallijah Subasri表示:“我們發現模型訓練與實際應用之間存在顯著的數據變化,包括人口統計、醫院類型、入院來源和關鍵實驗室檢查的變化。”她指出,當模型在社區醫院的患者訪問上訓練後轉移到學術醫院時,會出現有害的數據變化,但反之則不然。
為了減輕這些潛在的有害數據變化,研究人員使用了轉移學習策略,這使得模型能夠存儲從一個領域學習到的知識並應用到另一個相關領域,以及持續學習策略,通過連續數據流在響應漂移觸發的警報時更新AI模型。
儘管機器學習模型通常在獲得使用批准後保持鎖定,研究人員發現,特定於醫院類型的模型利用轉移學習的表現優於使用所有可用醫院的模型。
使用漂移觸發的持續學習有助於防止由於COVID-19疫情引起的有害數據變化,並隨著時間的推移改善模型性能。
根據訓練數據,AI模型可能還會對某些偏見產生傾向,導致某些患者群體的不公平或歧視性結果。
Dolatabadi表示:“我們展示了如何檢測這些數據變化,評估其是否對AI模型性能產生負面影響,並提出減輕其影響的策略。我們展示了從承諾到實踐的實用途徑,彌合了AI在健康領域的潛力與在現實臨床環境中部署和維護的現實之間的差距。”
這項研究是臨床AI模型部署的一個關鍵步驟,因為它提供了確保這些模型在現實環境中安全和有效的策略和工作流程。
Subasri表示:“這些發現表明,主動的、無標籤的監控管道結合轉移和持續學習可以檢測並減輕多倫多一般內科人群中的有害數據變化,確保臨床AI的穩健和公平部署。”
這篇論文《診斷和修正有害數據變化以負責任地部署臨床AI模型》今天在期刊《JAMA Network Open》上發表。
—
這項研究強調了在醫療領域中,AI技術的應用不僅需要技術上的創新,還需要對數據的深刻理解和持續的監控。隨著醫療數據的複雜性和多樣性增加,醫療機構必須採取更為主動的策略來確保AI系統的可靠性和安全性。這不僅是對患者健康的負責,也是對醫療體系整體運作的負責。未來,醫療機構需要加強與數據科學家的合作,確保AI模型能夠隨著環境的變化而適應,從而真正實現以患者為中心的醫療服務。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放