AI 在醫療界的革命性應用與挑戰

Ai

八位專家談如何在醫療行業中利用人工智能

根據在Healthcare Dive虛擬活動中發言的行業專家,醫療機構必須仔細審查人工智能工具,解決患者的擔憂並關注標準和監管問題。

隨著人工智能工具的普及,醫療機構面臨多重障礙。提供者必須處理患者的擔憂,而保險公司和其他生命科學公司則在如何平衡效率承諾與倫理問題(如偏見)方面苦苦掙扎。

他們的努力都是基於人工智能能自動化重複性任務、減少醫療支出和浪費、讓臨床醫生能有更多時間與患者交流,並徹底改變醫療行業的承諾。

然而,專家表示,自從生成式人工智能通過ChatGPT在公眾中流行以來,醫療行業在如何監管、測試和實施這些工具方面仍然在追趕。

以下是八位醫療專家在實施人工智能時應考慮的建議,以及如何制定標準和規範。

提供者如何審查人工智能工具

提供者在決定是否整合人工智能工具時,首先應評估其將使用的臨床環境。根據梅約診所平台的醫學主任Sonya Makhni所言,並非每個工具都適合診所中的所有任務。

“Makhni表示,‘一個可能非常適合我臨床環境的人工智能算法,對於其他環境可能就不太合適,反之亦然。醫療系統需要了解……應該尋找什麼,並了解他們的患者群體,以便能夠做出明智的決定。’”

雖然提供者必須評估人工智能工具,但由於算法和模型的複雜性,分析它們的過程卻充滿挑戰。

“我們的工作力已經很緊張,”Makhni說。“我們不能期望每個人都去獲得數據科學或人工智能的碩士學位,以便能夠解釋這些解決方案。”

為了解決這個問題,提供者應該尋求公私合營的聯盟,例如非營利組織“健康人工智能聯盟”,以獲取評估人工智能工具的指導原則。

“我們已經學到了許多關於解決方案應遵循的原則,”Makhni說。“安全性、公平性、實用性、透明度、可解釋性、隱私等,這些都是我們在考慮人工智能解決方案時應該用來審視的標準。”

解決患者的擔憂

一旦提供者決定整合人工智能工具,他們將面臨另一個潛在的障礙:患者。

隨著人工智能工具的普及,患者對在醫生辦公室中使用這項技術表示了疑慮。根據Pew Research的調查,去年有60%的美國成年人表示如果他們的醫療提供者依賴人工智能進行醫療護理,他們會感到不安。

為了讓患者感到更安心,健康系統Providence的首席醫療信息官Maulin Shah表示,臨床醫生應強調目前人工智能僅提供輔助角色。

“在很多方面,人工智能只是一種更好的方式來支持和輔助醫生的決策,幫助他們不會忽略重要的事情或提出建議,”Shah說。

雖然人工智能工具剛剛開始受到公眾的關注,但患者可能會更安心地知道,人工智能在醫療領域已經存在了很長時間。

大西洋健康系統的首席醫療信息官Aarti Ravikumar指出,像人工胰腺或閉環混合胰島素泵這樣的變革性工具,已成為依賴胰島素的患者的“遊戲改變者”。

“所有這些工作都是通過人工智能算法來完成的,”Ravikumar說。“所以我們的醫療設備或電子病歷中已經嵌入了人工智能工具,並且已經有很長一段時間了。”

“這些工具並沒有將臨床醫生排除在與患者的互動或醫療決策之外,”Ravikumar說。“如果我們達到一個階段,人工智能將自動做出決策並將臨床醫生排除在決策過程之外,那麼我們肯定需要進一步解釋。”

應對錯誤和偏見

每個組織在整合人工智能模型時都必須解決故障問題。但在醫療行業,偏見和幻覺(即人工智能工具產生虛假或誤導性信息)可能導致患者護理中斷,這使得問題更加嚴重。

提供者並不是唯一面臨偏見的醫療組織。保險公司因使用人工智能工具拒絕醫療護理而面臨反對,科技公司則被指責創造加劇現有醫療不平等的工具。

根據谷歌雲的全球醫療總監Aashima Gupta的說法,對於生成式人工智能公司來說,保持人員參與至關重要,包括來自專家、護士或臨床醫生的反饋。

“對我來說,這種反饋將使生成式人工智能在特定用例中更有效,”Gupta說。

人工智能公司還應徹底測試其模型。在谷歌,專門團隊會通過試圖引導人工智能工具給出錯誤答案來測試其可靠性。 robust的開發和保持人員參與“相輔相成”,能有效控制錯誤,她補充道。

然而,儘管組織在錯誤和偏見方面應保持謹慎,人工智能工具也可能代表著一個機會,以減少醫療中的偏見,麥肯錫顧問公司的合夥人Jess Lamb表示。

“在引入人工智能之前,醫療系統中存在大量偏見,”Lamb說。“我們必須記住,我們並不是從一個完美的地方開始的。實際上,我們可以利用人工智能和一些有意識的監測來改善我們當前在醫療偏見方面的處境,我認為這是一個巨大的機會。”

“我們總是談論使用人工智能時偏見的風險,但我認為還有一個相當大的好處,可以減少我們在系統中看到的現有偏見,”她補充道。

制定醫療人工智能的監管和標準

在醫療機構考慮是否實施人工智能時,聯邦政府和私營聯盟正在努力如何監管這項技術。

儘管聯邦政府在試圖監管這些工具方面已取得漸進的進展,包括通過規則制定,但行業的標準仍處於初期階段。

與兩年前當人工智能變得更主流時相比,人工智能的採用速度非常快,這加大了政府制定監管的壓力,HHS的技術政策助理秘書和代理首席人工智能官Micky Tripathi表示。

未來,政府與私營行業的合作將至關重要,Tripathi表示。

“這是一個成熟的過程,我認為這將是一個公共和私營的合作,”他說。

Tripathi也想知道何時監管將促使私營行業採用自己的標準和認證工具。在行業的另一個領域,政府為電子健康記錄公司提供標準,以便他們申請自願認證。

“例如,什麼將驅使Providence Health等公司感到有必要使用或獲得某種認證,或從提供某些服務的組織獲得某種批准來驗證人工智能模型?”他問道。“目前,這對於開發這些解決方案的開發者或實施這些解決方案的提供者來說,僅僅是一種純成本。”

雖然聯盟可以為人工智能提供高層框架,但組織還需要開放標準來幫助解決臨床人工智能的實際使用案例,Providence的首席策略和數字官Sara Vaezy表示。

“我們需要開放標準,類似於在互操作性方面所取得的所有進展,”Vaezy說。

“當前的挑戰在於,聯盟距離我們的實際工作還很遙遠,我們需要迅速縮短這一差距。我認為創建開放標準是解決這一問題的一種方法,”她補充道。

根據顧問公司Virtue的創始人兼首席執行官Reid Blackman的說法,提供者的培訓需要與標準的制定同步進行,這也能填補與人工智能相關的監管或治理的空白。

“我們可以做很多事情來教育普通醫生、護士等,讓他們了解這些風險,”他補充道。

“培訓是確保事情不會出錯的必要部分,我不想說是護欄,但它確實是確保一切正常運行的基本部分,”Blackman說。

這篇文章不僅提供了醫療行業在實施人工智能時面臨的挑戰和機遇,還強調了跨部門合作的重要性。隨著科技的發展,醫療行業必須不斷調整其策略,以確保患者的安全和利益。未來,對於如何平衡創新與倫理問題的討論將成為關鍵,醫療機構、政府及科技公司必須攜手應對這一挑戰。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *