病人轉向AI解讀化驗報告,成效參差不齊
當病人等待醫生回覆化驗結果時,愈來愈多人會求助AI助手尋找答案,但同時也帶來私隱和準確度的問題。
化驗報告難明?部分病人用AI協助解讀,效果好壞各異
今年七月,朱迪思·米勒(Judith Miller)做了一次例行血液檢查,當天收到手機通知顯示化驗結果已上載網上平台。翌日,她的醫生告知整體檢查無大礙,但米勒看到報告中的「二氧化碳偏高」和「低陰離子間隙」感到疑惑,於是回覆醫生查詢。
等待回覆期間,米勒做了一件越來越多病人會做的事:將化驗報告輸入AI助手Claude,請它幫忙分析。
米勒表示:「Claude幫我清楚了解那些異常數值。」這個生成式AI模型沒提出令人擔心的問題,令她在等候醫生回覆時不會感到焦慮。
隨著聯邦法律規定醫療機構必須即時公開電子健康資料(包括醫生診療筆記和檢查結果),病人透過如MyChart等網上門戶,獲得前所未有的醫療資料存取權。
不少病人會利用大型語言模型(LLM),例如OpenAI的ChatGPT、Anthropic的Claude及Google的Gemini,來解讀這些資料。不過,醫生及病人權益倡導者提醒,AI聊天機械人可能提供錯誤答案,且敏感醫療資訊的私隱未必能獲保障。
AI真懂醫療知識嗎?
大部分成年人對AI在健康方面的應用仍抱謹慎態度。根據2024年KFF調查,56%使用或接觸AI的人不相信AI聊天機械人提供的信息準確。
研究亦顯示,LLM理論上非常強大,可提供優質建議,但若提問方式不當,亦可能給出極差建議。哈佛醫學院生成式AI指導小組主席、麻省貝斯以色列女執事醫療中心內科醫生亞當·羅德曼(Adam Rodman)指出這點。
科羅拉多大學UCHealth神經放射科醫生賈斯汀·洪斯(Justin Honce)表示,非醫療背景的病人很難判斷AI有沒有犯錯。
他說:「總括來說,使用LLM仍需謹慎。雖然最新模型的問題越來越少,但未完全解決。」
過去半年,羅德曼見證病人使用AI的激增。有患者曾將MyChart截圖的醫院化驗報告上傳ChatGPT,預備診症時的提問。羅德曼歡迎病人分享如何用AI,視為促進溝通的契機。
密歇根大學調查顯示,約7分之1的50歲以上成年人會用AI獲取健康資訊,KFF調查則指約4分之1的30歲以下成年人有此行為。
網絡尋醫非新鮮事,AI帶來個人化建議新體驗
病人過往會用WebMD、PubMed或Google搜尋最新醫療研究,亦會在Facebook或Reddit等社交平台交流意見,但AI聊天機械人能在幾秒內生成個人化建議或第二意見,屬新鮮體驗。
須注意AI「幻覺」錯誤及私隱問題
Beth Israel女執事醫療中心學術實驗室OpenNotes通訊及病人計劃主任Liz Salmi曾研究AI解讀能力。她今年發表的概念驗證研究顯示,ChatGPT、Claude及Gemini對病人提問的臨床筆記解讀表現良好,但提問方式影響回答準確度。例如,讓AI扮演醫生角色、一次問一條問題,可提升答覆準確性。
Salmi強調私隱重要,使用AI時必須刪除姓名及身份證號碼等個人資料。羅德曼補充,資料會直接傳送給開發AI的科技公司,且他不知有公司完全符合聯邦私隱法或考慮病人安全。OpenAI行政總裁Sam Altman上月在播客中亦警告,勿隨便將個人資料放入ChatGPT。
「很多初用LLM的人未必知道『幻覺』問題,即AI答覆看似合理但其實錯誤。」Salmi說。舉例來說,OpenAI的Whisper醫療錄音轉錄工具曾在報告中加入不存在的治療方法。
Salmi和癌症倖存者兼病人權益倡導者Dave deBronkart均認為,使用生成式AI需一種新型數碼健康素養,包括如何提問、交叉驗證、與醫療團隊溝通及保護網絡私隱。
醫生使用AI亦需謹慎
不僅病人使用AI解讀報告,斯坦福醫療中心已推出AI助手,協助醫生撰寫臨床測試及化驗報告解讀,然後發給病人。
科羅拉多研究人員分析ChatGPT生成的30份放射報告摘要及4名病人對摘要的滿意度。在118個有效反饋中,108表示ChatGPT摘要有助釐清原報告內容。
不過,ChatGPT有時過度強調或輕描淡寫檢查結果,少數病人看完摘要後反而更困惑。參與該預印本研究的洪斯表示。
米勒經過數星期及數次MyChart訊息後,醫生安排重做血液檢查及米勒建議的額外測試,結果正常。她感到放心,並說因AI查詢而獲得更多資訊。
米勒表示:「這工具非常重要,幫我整理問題、做功課,令溝通更公平。」
—
評論與啟示
這篇報導反映當代醫療資訊透明化與AI技術普及的雙重趨勢,病人尋求自主理解健康狀況的渴望日益強烈。AI作為輔助工具,確實能提升患者的知識掌握與溝通效率,特別是在醫療人員難以即時回應的情況下。然而,報導同時揭示了AI在醫療解讀上的限制與風險,尤其是「幻覺」錯誤和個人敏感資料的私隱保障問題,這些都是目前技術與法規尚未完全解決的痛點。
對香港讀者而言,這提醒我們在推動醫療數碼化及人工智能應用的同時,必須格外強調數碼健康素養的培養,教導市民如何正確提問、評估AI答案的可信度,以及妥善保護個人醫療資料。此外,醫護人員也應積極參與AI工具的開發與應用,確保技術符合臨床安全標準,同時能有效輔助而非取代專業判斷。
未來,監管機構需要制定更嚴格的AI醫療應用規範,保障用戶私隱及資訊真確性。醫療機構亦應設立透明的AI使用政策,並提供病人教育,令AI成為真正有益的健康夥伴,而非潛在風險源。這樣才能在科技進步與病人權益間取得平衡,推動香港醫療體系的智能化升級。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。