研究人員呼籲對健康領域的人工智能進行監管,但別忘了算法
在最近的一篇評論中,麻省理工學院(MIT)、Equality AI和波士頓大學的研究團隊強調了健康護理中AI模型和非AI算法監管的不足之處。
可能有人會認為,醫生的主要職責之一就是不斷評估和重新評估風險:某個醫療程序成功的機率是多少?病人是否有發展嚴重症狀的風險?病人何時應該回來進行進一步檢測?在這些關鍵的考量中,人工智能的興起承諾能降低臨床環境中的風險,並幫助醫生優先照顧高風險病人。
儘管人工智能潛力巨大,MIT電機工程與計算機科學系(EECS)、Equality AI和波士頓大學的研究人員在《新英格蘭醫學雜誌AI》(NEJM AI)十月號中發表的新評論中呼籲,監管機構應加強對人工智能的監督,這是因為美國衛生與公共服務部(HHS)民權辦公室(OCR)在《平價醫療法案》(ACA)下發布了一項新規定。
在五月,OCR發布了ACA的最終規定,禁止基於種族、顏色、國籍、年齡、殘疾或性別的歧視,這一新興的術語涵蓋了在醫學中使用的AI和非自動化工具。
這項規定是對拜登總統2023年頒布的有關安全、可靠和可信的人工智能開發與使用的行政命令的回應,並建立在拜登-哈里斯政府致力於促進健康公平的基礎上,專注於防止歧視。
根據EECS的高級作者及副教授Marzyeh Ghassemi的說法,“這項規定是一個重要的進步。”Ghassemi隸屬於MIT Abdul Latif Jameel健康領域的機器學習診所(Jameel Clinic)、計算機科學與人工智能實驗室(CSAIL)和醫學工程與科學研究所(IMES),他補充道,“該規定應該推動對現有非AI算法和臨床決策支持工具的公平改進。”
自1995年首個AI支持設備(PAPNET測試系統,宮頸篩查工具)獲批准以來,美國食品藥品監督管理局(FDA)批准的AI設備數量在過去十年中大幅上升。截至十月,FDA已批准近1000個AI支持設備,其中許多是為了支持臨床決策而設計的。
然而,研究人員指出,目前並沒有監管機構對臨床決策支持工具所產生的臨床風險評分進行監督,儘管大多數美國醫生(65%)每月使用這些工具來決定病人的護理步驟。
為了解決這一問題,Jameel Clinic將於2025年3月舉辦另一場監管會議。去年的會議促進了全球各地的教職員、監管機構和行業專家之間關於健康領域AI監管的討論與辯論。
哈佛醫學院生物醫學信息學系主任、NEJM AI主編Isaac Kohane評論道:“臨床風險評分比‘AI’算法更不透明,因為它們通常僅涉及少數幾個變量,並且以簡單模型聯繫在一起。”他補充道,“然而,即使這些評分的質量也取決於用於‘訓練’它們的數據集,以及專家選擇在特定群體中選擇或研究的變量。如果它們影響臨床決策,則應該遵循與其更複雜的AI算法相同的標準。”
此外,儘管許多決策支持工具不使用AI,研究人員指出,這些工具在延續醫療保健中的偏見方面同樣有責任,並且需要監管。
Equality AI首席執行官Maia Hightower表示:“監管臨床風險評分面臨重大挑戰,因為臨床決策支持工具嵌入電子病歷中並在臨床實踐中廣泛使用。”她強調,“這樣的監管仍然是必要的,以確保透明度和不歧視。”
然而,Hightower補充道,在新一屆政府的背景下,臨床風險評分的監管可能會變得“特別具有挑戰性,因為它強調放鬆監管,並反對《平價醫療法案》和某些反歧視政策。”
這篇文章不僅引發了對AI在醫療保健中的角色的深入思考,還突顯了在技術與倫理之間的平衡。監管的缺失可能會加劇現有的健康不平等,而這正是當今社會亟需面對的挑戰。面對不斷演進的科技,如何建立有效的監管框架以確保其公平性和透明度,將是未來醫療政策制定者的一大考驗。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。