醫療AI需監管,算法公平不可忽視

Ai

AI在健康領域應受監管,但研究人員強調算法的重要性

在最近的一篇評論中,麻省理工學院(MIT)、Equality AI及波士頓大學的研究團隊指出,健康護理領域中對AI模型及非AI算法的監管存在空白。這篇評論於《新英格蘭醫學雜誌AI》(NEJM AI)十月號發表,恰逢美國健康與人類服務部(HHS)下的民權辦公室(OCR)根據《平價醫療法案》(ACA)發布新規範。

今年五月,OCR發佈了一項最終規則,禁止在“患者護理決策支持工具”中基於種族、膚色、國籍、年齡、殘疾或性別的歧視。這一新術語涵蓋了AI和非自動化的醫療工具。

該規則是對總統喬·拜登在2023年發布的有關安全、可靠和可信的AI發展及使用的行政命令的回應,並基於拜登-哈里斯政府推進健康公平的承諾,重點在於防止歧視。

根據EECS的高級作者及副教授Marzyeh Ghassemi的說法,“這項規則是向前邁出的一個重要步驟。” Ghassemi與MIT Abdul Latif Jameel健康機器學習診所(Jameel Clinic)、計算機科學與人工智能實驗室(CSAIL)及醫學工程與科學研究所(IMES)有關聯,她補充道,“該規則應促使對已在臨床專科中使用的非AI算法和臨床決策支持工具進行以公平為導向的改進。”

自從1995年首個AI設備(PAPNET測試系統,用於宮頸篩查)獲得美國食品藥品監督管理局(FDA)批准以來,AI啟用設備的數量在過去十年中急劇增加。截至十月,FDA已批准近1000個AI啟用設備,許多是為了支持臨床決策。

然而,研究人員指出,儘管大多數美國醫生(65%)每月使用這些工具來決定患者護理的下一步,但目前並沒有任何監管機構監督這些臨床決策支持工具產生的臨床風險評分。

為了解決這一不足,Jameel Clinic計劃於2025年3月舉辦另一場監管會議。去年的會議引發了來自全球的教職員、監管機構和行業專家的討論,專注於健康領域AI的監管。

哈佛醫學院生物醫學信息學系主任及NEJM AI主編Isaac Kohane評論道:“臨床風險評分比‘AI’算法更透明,因為它們通常僅涉及少數與簡單模型相連的變量。”他指出,“不過,即使這些評分的效果也取決於用於‘訓練’它們的數據集,以及專家在特定群體中選擇或研究的變量。如果它們影響臨床決策,就應該受到與其更為複雜的AI相同的標準的約束。”

此外,雖然許多決策支持工具不使用AI,但研究人員強調,這些工具同樣可能在健康護理中延續偏見,並需要監管。

Equality AI首席執行官Maia Hightower表示:“由於臨床決策支持工具嵌入電子病歷並廣泛使用於臨床實踐,監管臨床風險評分面臨重大挑戰。這種監管對於確保透明度和非歧視是必要的。”

然而,Hightower補充道,在即將上任的政府下,對臨床風險評分的監管可能會面臨“特別挑戰,因為其強調放鬆監管和反對《平價醫療法案》及某些非歧視政策。”

在當前的醫療環境中,AI的迅速發展無疑帶來了機會與挑戰。在追求技術創新的同時,我們必須警惕其可能帶來的偏見和不公。這篇文章強調了對AI及非AI工具的監管需求,提醒我們在推動技術進步的同時,不能忽視對公平和透明的追求。未來的監管能否平衡創新與公正,將直接影響我們的健康護理系統及其公信力。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon