AI人工智能揪出肝癌:超聲波、CT、MRI影像分析新突破!

Ai




人工智能技術在肝癌中的應用

摘要
肝細胞癌(HCC)是最常見的原發性肝癌,對全球癌症相關死亡的貢獻顯著。各種醫學影像技術,包括計算機斷層掃描(CT)、磁共振成像(MRI)和超聲波(US),在準確評估HCC和制定有效治療計劃方面發揮著重要作用。人工智能(AI)技術已顯示出能夠通過提供更準確和一致的醫學診斷來支持醫生的潛力。近期的進展導致了基於AI的多模態預測系統的發展,這些系統整合了醫學影像與其他模態(如電子健康記錄報告和臨床參數),以提高生物學特徵和預後的預測準確性。本研究概述了最新的基於AI的醫學影像模型,並探討了與AI技術臨床應用相關的挑戰和潛在未來方向。

1. 介紹
HCC是最常見的原發性肝惡性腫瘤,與高死亡率相關,並且是全球癌症相關死亡的主要原因之一。HCC的準確診斷和分期對於提高患者的生存率和治療效果至關重要。然而,HCC的早期診斷對於慢性肝病患者來說是一項重大挑戰。肝癌的一個顯著特徵是它與肝纖維化的強烈相關性,超過80%的HCC發生在纖維化或肝硬化的肝臟中。這表明肝纖維化在肝臟的前惡性環境中起著重要作用。

醫學影像技術,包括CT、MRI和US,在HCC的診斷和分期方面發揮著重要作用,補充臨床發現、生物標記和血液測試。CT掃描提供肝臟的詳細橫截面圖像,有助於識別和特徵化腫瘤。MRI提供優越的軟組織對比,使其在評估肝癌的範圍方面無價。US則是一種非侵入性且成本效益高的影像模態,通過使用聲波生成肝臟圖像來檢測肝腫瘤。然而,這些影像方法各有其局限性。例如,CT掃描使患者暴露於電離輻射中,可能增加輻射引起的癌症風險。此外,CT掃描在某些醫療環境中可能成本較高且不易獲得。雖然MRI可以生成高質量的圖像,但這可能需要較長時間,並且不適合有幽閉恐懼症或金屬植入物的患者。US在成像質量方面的限制,特別是在肥胖患者或腸氣過多的患者中也很明顯。近期,已引入先進的MRI技術,如MR彈性成像(MRE)和加膦酸增強MRI,這些技術能夠提供高分辨率圖像而不會產生輻射的有害影響。MRE測量肝組織的硬度,有助於區分良性和惡性肝腫瘤。加膦酸增強MRI提供肝臟的動態成像,能增強HCC的檢測和特徵化。

診斷HCC面臨著重大挑戰。這些挑戰源於典型的放射學特徵與其他肝腫瘤或良性病變的相似性。這些影像特徵的相似性可能導致誤診或延遲診斷。因此,具有這些典型特徵的肝病變患者可能需要組織學確認或嚴格監測以確保準確診斷和適當治療。

2. 方法學和材料
本研究探討了AI方法在診斷和預測原發性肝癌(特別是HCC)中的應用,旨在概述該快速發展領域中的最新和最相關的發現。

通過使用PubMed、Scopus、Semantic Scholar、IEEEXplore和Web of Science等數據庫進行了徹底的文獻回顧,直到2024年3月31日。在此過程中,搜索了“人工智能”、“深度學習”、“機器學習”、“肝癌”、“肝細胞癌”、“多模態”、“醫學影像”、“US”、“CT”和“MRI”等幾個關鍵詞。對相關文章中的參考文獻進行了檢查,以識別額外的合格出版物。

對符合條件的文獻進行了專家審查,選擇了最具信息量和相關性的引用進行納入。所選研究是那些將AI技術與醫學影像數據集(包括US、CT和MRI)與電子健康記錄(EHR)和臨床參數相結合的研究。未利用醫學影像技術或專門針對原發性肝癌的AI模型的研究被排除。

搜索僅限於2010年1月至2024年3月發表的英文同行評審文章、會議論文、學位論文和書籍章節。這些出版物由作者檢索、篩選和審查。一位研究人員負責數據提取,專注於每項研究的方法和結果。

如圖1所示,我們的研究選擇過程始於1334條記錄。在刪除885條重複記錄後,我們篩選了450條記錄。標題和摘要篩選導致排除240項研究,留下210項供全文審查。經過全面評估,177篇文章(7, 16–186)被認為適合本研究。我們將模態分為四組:US(n = 34)、CT(n = 95)、MRI(n = 34)和多模態(n=19)。納入研究的特徵詳見表1 – 10。

3. 人工智能技術
AI技術,包括機器學習(ML)和深度學習(DL),在肝癌研究中受到了廣泛的關注和研究。ML利用數據開發算法,識別特定行為模式並建立預測模型。ML的目標是創建一個利用數據集中統計依賴性和相關性的模型,從而消除明確編程的需求。這一過程分為兩個階段:訓練和驗證。在訓練階段,模型接觸到可用數據的一部分(訓練數據集)。在驗證階段,模型的性能在數據集的另一個子集(測試數據集)上進行評估,以評估其將訓練性能推廣到未見數據的能力。眾所周知的ML算法,如支持向量機(SVM)和人工神經網絡(ANN),已被應用於HCC管理。

DL技術作為ML的一個子集,在肝臟圖像分析中顯示出顯著的有效性。這主要歸因於其能夠通過多層人工神經元處理大量數據。這些神經元被設計用來模擬人類大腦及其生物神經網絡的複雜結構。DL算法的一個獨特特徵是這些特徵層不是通過人工專業知識手動構建的,而是通過通用學習過程自動從數據中學習的。這促進了從輸入到輸出的端到端映射,基本上將圖像轉換為分類方法。在ML方法中,成功取決於準確的分割和專家設計的特徵選擇。DL方法可以克服這些限制,因為它們可以通過自我訓練識別與結果最相關的圖像區域。此外,它們可以通過多層識別影響決策的區域特徵。

目前,卷積神經網絡(CNN)是用於HCC診斷和管理的最流行的DL算法。CNN相較於全連接網絡的獨特之處在於其能夠通過卷積和池化層捕捉空間層次結構,因其共享權重的參數效率,以及在處理結構化數據(如圖像和視頻)方面的有效性。CNN的基本原則包括局部連接、共享權重、池化和大量層的使用。這些組件共同提升了整個系統的準確性和效率。標準的CNN模型由輸入層、輸出層和多個隱藏層組成。這些隱藏層包括卷積層、池化層和全連接層。通過反覆應用卷積和池化,隨後利用全連接層進行分類或預測。有各種層組合,許多深度神經網絡(DNN)架構已成功應用於HCC診斷和預測。這些包括全卷積網絡(FCNs)、3D U-Net、遞歸神經網絡(RNNs)、圖卷積網絡(GCNs)、生成對抗網絡(GANs)、AlexNet和VGGNet-19等。這些模型專門設計用來消除全連接層並恢復空間維度,從而增強DL能力,即使在標記數據稀缺的情況下。然而,必須解決領域適應和數據集偏見,以確保轉移學習的成功,因為這些因素可能對模型的性能和可推廣性產生重大影響。

相對於CNN,全卷積網絡(FCNs)旨在保留空間信息,從而增強其在像素級預測方面的有效性。這一特性使得FCNs特別適合用於肝腫瘤分割,因為它們使用卷積層而非全連接層。

U-Net則利用編碼器-解碼器模型,配備跳過連接。這一架構使其能夠合併局部和全局上下文信息,從而增強對象定位的精確性。儘管缺乏訓練數據的限制,3D U-Net在肝病變分類中顯示出卓越的結果。

RNN,包括長短期記憶(LSTM)和門控遞歸單元(GRU),專門設計用來分析序列數據,捕捉時間依賴性。這些模型已成功應用於預測HCC在肝臟移植後的復發。通過解決消失梯度問題並利用時間依賴性,它們顯著提高了預測準確性。

圖卷積網絡(GCNs)提供了多種圖卷積技術,這對臨床預測HCC中的微血管侵犯(MVI)至關重要。這些技術包括基於頻譜的和基於空間的GCN方法,每種都具有獨特的計算含義。DenseGCN是一種新型架構,被引入用於肝癌識別。它整合了先進技術,如相似性網絡融合和去噪自編碼器,顯著提高了檢測準確性。

生成對抗網絡(GANs)在生成合成圖像和增強數據方面顯示出其價值,涵蓋了一系列醫療應用。在肝腫瘤檢測領域,Tripartite GAN提供了一種經濟且無創的替代方案,通過生成對比增強MRI圖像,消除對對比劑注射的需求。另一個有前途的應用是Mask-Attention GAN,它在CT掃描中生成真實的腫瘤圖像,用於訓練和評估目的。

轉移學習(TL)策略已被應用於醫學影像領域,以減輕由於數據稀缺而引起的過擬合問題。在TL框架中,知識可以在不同任務之間共享和轉移。工作流程包括兩個步驟:在大型數據集上進行預訓練,然後在目標數據集上進行微調。實質上,通過微調DL架構,從一個數據集中獲得的知識可以轉移到另一個來自不同中心的數據集上。

4. 基於AI的US技術
US在臨床指導中被推薦用於檢測有肝硬化患者的HCC。然而,其有效性可能受到多種因素的影響,包括操作者經驗、設備質量和患者的形態學。先前的研究表明,使用傳統US檢測HCC的敏感性範圍為59%至78%。為了提高敏感性和特異性,探索了各種US模態。例如,對比增強超聲(CEUS)已被證明能提高HCC檢測的敏感性。這些模型作為預測HCC復發、指導治療決策和改善患者結果的重要工具。本研究調查了最近開發的基於AI的方法,以評估HCC的檢測、預測、治療反應和生存率。表1提供了評估基於AI的US方法診斷HCC的研究結果摘要。

4.1. 焦點肝病變的診斷
本部分概述了最近開發的基於AI的US模型,用於診斷HCC。這些應用包括診斷焦點肝病變(FLLs),區分良性和惡性肝病變,區分HCC與局灶性結節增生(FNH)、肝硬化實質(PAR)和肝內膽管癌(ICC)。在這些研究中,Bharti等(21)提出了一種基於SVM的模型,利用B模式US數據來評估和區分各種肝病的不同階段,達到96.6%的分類準確率。

2020年,Brehar等(24)展示了一種CNN模型,基於兩個不同的US機器數據集(GE9和GE7),在區分HCC和PAR方面超越了傳統的ML模型(SVM、隨機森林(RF)、多層感知器和AdaBoost)。該模型在GE9和GE7數據集中分別達到0.91和0.95的AUC值,準確率分別為84.84%和91%。2023年,Jeon等(35)提出了一種基於CNN的模型,利用173名患者的定量US數據進行肝脂肪變性診斷,達到0.97的AUC,90%的敏感性和91%的特異性。

CEUS通常在診斷FLLs和HCC方面優於B模式US,而AI則增強了其識別潛在惡性病變的能力。多個研究小組對良性和惡性FLLs的區分進行了研究(參見表1)。2020年,Huang等(43)調查了一種基於SVM的模型,用於評估在區分非典型HCC(aHCC)和FNH時的診斷準確性。該SVM模型達到0.944的AUC,94.76%的敏感性和93.62%的特異性。

在2021年,Căleanu等(44)提出了一種DL模型,以使用CEUS數據分類五種FLLs,獲得88%的整體準確性。Hu等(45)調查了一種基於CNN的模型,該模型利用363名患者的四相CEUS視頻數據進行診斷,達到91%的準確性和0.934的AUC,稍微超過了住院放射科醫生並與專家相匹配。

4.2. 焦點肝病變的特徵化
在Virmani等(7)的研究中,提出了一種神經網絡集成(NNE)模型,該模型能夠區分正常肝臟和四種不同的肝病變,達到95%的準確率。包括的肝病變的診斷通過經驗豐富的放射科醫生、臨床隨訪和其他相關發現得以確認。

2017年,Hassan等(20)介紹了一種ANN模型,對良性和惡性FLLs的分類準確率達到97.2%。2019年,Schmauch等(22)開發了一種監督式DL模型,特別是利用法國放射學公共挑戰數據集來診斷FLLs。該模型能夠檢測FLLs並將其歸類為良性(如囊腫、FNH和血管瘤)或惡性(如HCC、轉移性癌症),在訓練數據集中達到0.935和0.916的平均AUC。儘管結果令人鼓舞,但由於訓練所用圖像數量有限,仍需進一步驗證。

2020年,Yang等(23)進行了一項多中心研究,開發了一種深度卷積神經網絡(DCNN),該網絡利用US數據庫以及背景和臨床參數(如HBV、HCV、病變邊緣、形態學)來特徵化FLLs。該模型在外部驗證數據集中區分良性和惡性病變的AUC達到0.924。該模型顯示出比臨床放射科醫生和CECT更高的準確性,雖然略低於對比增強磁共振成像(CE-MRI)(87.9%)。這一方法可能提升放射科醫生的表現並減少對CECT/CEMR和活檢的依賴。

在2021年,Mao等(25)開發了多種基於ML的模型,通過從US圖像中提取放射組學特徵來區分原發性肝癌和轉移性肝癌。該研究中,邏輯回歸(LR)模型表現優於其他ML模型。Ren等(30)應用SVM模型,在B模式US中預測HCC的病理分級,測試集的AUC達到0.874。同一研究小組還開發了另一個SVM模型來區分HCC和肝內膽管癌(ICC),表現良好(31)。在這些研究中,肝病變經過病理確認並用作標準參考。

2017年,Guo等(40)展示了一種基於多核學習的模型,能夠提高CEUS檢測HCC的敏感性、特異性和整體準確性。隨後,Ta等(41)提出了一種使用CEUS數據的ANN模型,用於區分良性和惡性肝病變。該模型顯示出令人鼓舞的結果,以與專家放射科醫生相媲美的準確性將肝病變分類為良性或惡性。Huang等(43)構建了一個SVM模型,用於區分非典型HCC(aHCC)和FNH,使用CEUS數據,平均準確率達到94.4%,與病理報告和臨床隨訪相較。

在2021年,Wang等(46)提出了一種基於SVM的模型,該模型能夠以AUC為0.72的準確度預測HCC的病理分級。更近期,Zhou等(48)調查了CNN-長短期記憶(LSTM)、3D CNN和ML-TIC模型,使用440名患者的CEUS數據來分類良性和惡性肝病變,分別達到0.91、0.88和0.78的AUC值。

4.3. 評估HCC的預後、治療反應和生存率
手術、經導管動脈化療栓塞(TACE)和微波消融被廣泛認可為肝癌的治療方法。每種方法都需要仔細評估候選者,以確保最佳的治療效果(38-40)。Wu等(203)在B模式US中使用ResNet18預測HCC患者在微波消融後的復發。該模型對HCC患者的早期復發、晚期復發和無復發生存的C-index分別達到0.695、0.715、0.721和0.721。

Liu等(42)使用CEUS數據開發了兩個基於DL的模型,以預測接受射頻消融或外科切除的HCC患者的兩年無進展生存率。這些模型對射頻消融和外科切除的C-index分別達到0.726和0.741。當將外科模型應用於最初接受消融治療的患者時,該模型建議大約17.3%的消融患者如果接受手術,可能會經歷更長的兩年無進展生存率。相反,消融預測模型則指出,27.3%的外科患者如果接受消融治療,可能會獲得更長的兩年無進展生存率。這些基於CEUS的模型為HCC患者提供準確的生存評估,並促進最佳治療選擇。此外,同一研究小組還使用DL模型對CEUS視頻進行定量分析(43)。他們開發了三個模型以預測HCC患者在第一次TACE後的個性化反應。CEUS基於模型的AUC值高於其他兩個ML模型(0.93對比0.80和0.81)。

在另一項研究中,Ma等(44)在動態CEUS中應用放射組學模型,以預測直徑小於5厘米的HCC病變在熱消融後的早期和晚期復發。預測模型在早期復發的AUC為0.84,在測試組的晚期復發C-index為0.77。所提出的模型結合了CEUS、US放射組學和臨床因素,能夠很好地預測HCC在消融後的早期復發,並能夠分層高風險的晚期復發。

最後,Liu等(16)在CEUS中引入了DL模型,以預測HCC患者的兩年無進展生存率,展示了在指導治療決策方面的卓越準確性。其他研究者則在DCNN算法中結合了其他模式識別分類器,以改善FLLs的診斷。然而,先前的研究僅涉及小樣本量,因此需要標準化的影像數據或外部驗證來驗證模型在不同人群中的可推廣性。

5. 基於AI的CT技術
眾多研究小組已探討AI在肝癌研究中的應用,特別是利用CT掃描技術。本部分深入探討基於AI的CT方法在HCC診斷和預測中的應用。表2和表3概括了選定的研究,這些研究可以分為三個不同的組別:肝臟和肝腫瘤的分割、FLL的特徵化以及HCC患者的預後、治療反應和生存評估。

表2. 基於AI的CT模型用於肝臟和肝腫瘤的分割

| 參考 | 年份 | AI模型 | 醫學影像方法 | 任務 | 數據集 | 結果 |
| — | — | — | — | — | — | — |
| (49) | 2015 | 基於形狀約束和可變形圖形切割的模型 | CT | 肝臟分割 | 3DIRCADb | VOE=9.15 |
| (53) | 2017 | CNN + MRFs | CT | 肝臟分割 | 醫院數據集 | Dice=0.83 |
| (54) | 2017 | U-Net | CT | 肝臟分割 | 3DIRCADb | Dice=0.923, VOE=14.21 |
| (55) | 2018 | Faster R-CNN | CT | 肝臟分割 | SLIVER07 | VOE = 5.06,VD = 0.09 |

(表格僅為示例,並未包含完整數據)

表3. 基於AI的CT模型用於診斷HCC

| 參考 | 年份 | AI模型 | 任務 | 醫學影像方法 | 數據集 | 結果 |
| — | — | — | — | — | — | — |
| (110) | 2018 | CNN | 特徵化肝病變:分為五類,惡性(HCC和非HCC肝癌)vs 不確定和良性病變(血管瘤和囊腫) | 三相CT | 訓練:460患者,測試:100患者 | Acc =0.84, AUC =0.92 |
| (111) | 2018 | Mics-CNN | 檢測FLLs | 多相CT | 89患者 | F1分數=0.82 |
| (106) | 2019 | ML | 區分HCC和非HCC病變 | CT | 13920影像(178患者) | AUC =0.81 |

(表格僅為示例,並未包含完整數據)

5.1. 肝臟和肝腫瘤的分割
肝臟和肝腫瘤的分割在評估腫瘤負擔、檢測早期復發、提取影像特徵和制定治療計劃方面發揮著關鍵作用。手動分割肝臟和肝病變是一項挑戰,並且由於HCC中廣泛的放射特徵範圍而耗時。基於AI的CT模型已成為自動分割肝臟和肝腫瘤的強大工具。表2提供了最近開發的基於AI的CT模型用於肝臟和肝腫瘤分割的摘要。

2015年,Li等(49)引入了一種DCNN,用於CT掃描中的肝腫瘤分割,達到82.67%的準確率。2017年,Vivanti等(50)檢查了一種基於CNN的分割模型,用於自動檢測隨訪中的復發,對於大於5mm的病變,真陽性率達到86%。隨後,Sun等(51)和Das等(52)對使用基於CNN的架構自動分割肝臟腫瘤進行了全面研究。2017年,Sun等(51)提出了一種FCNs模型,用於肝腫瘤的分割,達到高準確率。

自2017年以來,肝腫瘤分割挑戰(LiTS)鼓勵研究人員創建AI模型以自動分割肝腫瘤。該挑戰利用一個名為LiTS17的多國數據集,該數據集包含130個CT圖像用於訓練和70個CT圖像用於測試。近幾年來,該挑戰已吸引了來自280多個研究團隊的參與,基於全卷積網絡(FCN)或U-Net的模型在肝臟和肝腫瘤的分割中取得了最佳分數。

目前,得分最高的模型MAD-UNet(83)在使用LiTS17數據集進行肝臟分割時,達到0.9727的Dice分數。儘管這些結果令人鼓舞,但肝腫瘤的影像特徵和其輪廓的變異性顯著,這突顯了肝腫瘤分割的普遍和標準化方法的需求。

5.2. 焦點肝病變的特徵化
表3總結了評估基於AI的CT模型用於診斷HCC的研究結果。Mokrane等(106)開發了一種ML模型,使用來自189名患者的13,920個CT影像。該模型能夠區分HCC和非HCC病變,訓練集的AUC值為0.81,外部驗證集的AUC值為0.66。

2019年,Khan等(107)開發了一種SVM模型,將FLLs分類為良性或惡性,準確率達到98.3%。Das等(52)提出了一種基於水淹變換和高斯混合模型(GMM)的CAD系統,能夠準確和自動檢測CT掃描數據中的肝病變。肝臟首先使用水淹變換方法分離,然後使用GMM算法進行肝病變的分割。提取的紋理特徵被輸入到DNN模型中,自動分類三種肝腫瘤,包括血管瘤、HCC和轉移性癌症。該模型達到99.38%的分類準確率和98.18%的Jaccard指數。

在2020年,Li等(108)開發了一種CAD系統,使用ANN、SVM和CNN模型診斷三種類型的HCC病變,包括結節型、擴散型和巨大型。實驗結果顯示,CNN模型在分類結節型和巨大型病變方面優於ANN和SVM模型,但對擴散型病變則不然。

2021年,Mao等(25)開發了一種基於梯度提升的模型,利用臨床參數和CECT數據進行HCC的病理分級。結合模型在測試集中的最佳性能AUC為0.8014。Shi等(109)比較了基於DL的三相CECT模型與四相CT方案在區分HCC和其他FLLs方面的表現。基於DL的三相CECT方案在無對比的情況下達到85.6%的診斷準確率,與四相CT方案的83.3%相似。這些發現表明,省略預對比相位可能不會妨礙準確性,並且可以減少患者的輻射劑量。

多個基於CNN的模型已使用CT數據診斷HCC。2018年,Yasaka等(110)提出了一種使用三相CT的CNN模型,用於區分惡性肝病變與不確定和良性肝病變。該模型在測試集中的中位AUC為0.92。2019年,Todoroki等(111)開發了一種基於多相CT影像的CNN模型,用於檢測和分類五種FLLs。Ben-Cohen等(91)引入了一種FCN架構,通過基於稀疏性的假陽性減少方法來檢測肝腫瘤,超越了傳統模型。通過使用FCN-4s模型和基於稀疏性的微調,他們成功檢測到94.7%的小病變,超過了U-Net模型的表現。

在2021年,Zhou等(112)提出了一種多模態和多尺度CNN模型,自動檢測和分類多相CT中的FLLs。該模型在測試中獲得82.8%的平均精確度、93.4%的召回率和87.8%的F1分數。該模型的分類性能介於初級和高級醫生的評估之間。這一初步研究顯示,該基於CNN的模型能夠準確定位和分類FLLs,並能夠在臨床實踐中幫助經驗不足的醫生達成診斷。同樣,Ponnoprat等(113)構建了一種基於CNN和SVM的兩步模型,用於區分HCC和肝內膽管癌(ICC),該模型的分類準確率達到88%。

在2021年,Krishnan等(114)引入了一種新穎的多級集成架構,用於檢測和分類HCC與其他FLLs。這一創新方法強調了集成技術在提高CT影像中肝癌診斷的特異性和敏感性方面的潛力。

在2023年,Manjunath等(115)開發了一種新型DL模型,利用CT數據檢測和分類肝腫瘤。實驗結果顯示,所提出的模型在準確性、Dice相似度系數和特異性方面相比現有算法有所提高,強調了DL模型在精確肝癌診斷中的持續演變。

5.3. HCC的預後評估
眾多研究小組專注於使用AI模型的CT和CECT影像進行HCC預後評估。表4提供了評估基於AI的CT模型在HCC預後方面的研究結果摘要。在這些研究中,Peng等(131)提出了一種基於傳統機器學習(cML)和DL方法的新型AI模型。該模型利用來自310名患者的CT數據預測HCC患者的TACE反應。實驗結果顯示,所提出的模型在訓練和測試數據集中分別達到0.995和0.994的AUC值。

6. 基於AI的MRI方法
迄今為止,AI模型在MRI中診斷HCC的應用尚未得到廣泛採用。MRI特徵的發展面臨技術挑戰並且成本高昂,導致發表的研究相對稀少且樣本量較小。本部分探討了基於AI的MRI模型在HCC診斷中的進展。

6.1. 肝臟和肝腫瘤的分割
近年來,眾多研究小組專注於利用MRI數據的AI模型在肝臟和肝腫瘤的自動分割方面的應用。表5總結了最近開發的基於AI的MRI模型,用於肝臟和肝腫瘤的分割。在各種研究中,最引人注目的表現來自Hossain等(139),他們開發了一種級聯網絡以解決解剖學模糊性。該模型使用T1加權MRI數據進行肝臟分割,顯示出0.9515的Dice系數,0.921的IoU和99.7%的準確率。

6.2. 焦點肝病變的特徵化
表6總結了基於AI的MRI模型在診斷HCC方面的進展。這些模型在改善FLLs的檢測和分類方面顯示出潛力,包括HCC。2019年,Hamm等(158)提出了一種CNN模型,能夠分類六種FLLs,即腺瘤、囊腫、局灶性結節增生(FNH)、HCC、肝內膽管癌(ICC)和轉移性腫瘤。該模型顯示出92%的總體準確性,敏感性從60%到100%不等,特異性在89%到99%之間。這項研究突顯了DL在準確識別各類FLLs中的潛力。

6.3. HCC的預後評估
少數研究小組已經對AI模型及MRI數據在HCC預後評估中的應用進行了探討。表7總結了評估基於AI的MRI模型的研究結果。

在2021年,Gao等(168)檢查了使用T2加權MRI數據的各種AI模型,旨在預測HCC患者的微血管侵犯(MVI)。H-DARnet模型表現優異,準確率達到82.6%,敏感性79.5%,特異性73.8%,AUC為0.775。

Wei等(187)研究了融合DL模型和基於對比劑的學習模型(CDLM),利用來自225名患者的EOB-MRI數據預測HCC患者的MVI。兩個模型均顯示出穩健的性能,融合DL模型的準確率達到89.4%,敏感性78.1%,特異性95.3%,AUC為0.93。CDLM模型在訓練數據集中達到準確率92.4%,敏感性93.9%,特異性91.6%,AUC為0.962。

在2023年,Chen等(169)探討了使用T2加權MRI數據的四種模型(KNN、SVM、Lasso和DNN),以預測HCC患者的TACE結果。其中,Lasso模型表現最佳。

這些研究強調了AI模型結合MRI數據在預測HCC方面的潛力,在準確性、敏感性、特異性和AUC方面顯示出良好表現。這一領域的進一步研究可能促進HCC的早期檢測和治療。

7. 基於AI的多模態技術
基於AI的多模態技術在醫學影像領域迅速崛起,這歸因於其驚人的能力來提高診斷準確性和預測結果。AI基於多模態模型整合多種模態,如醫學影像數據、電子健康記錄(EHR)和臨床參數,從而大幅提升AI算法的有效性。AI基於多模態模型在預測治療反應、評估生存率和分期多種疾病方面已證明成功。在肝臟影像應用方面,這些技術已在眾多研究中取得了令人鼓舞的結果。持續探索和改進這些技術對於未來醫學影像和患者護理的前景充滿希望。

7.1. 肝臟和肝腫瘤的分割
表8總結了評估基於AI的多模態模型在肝臟和肝腫瘤分割方面的研究結果。在各種研究中,Hille等(173)展示了使用61,440個MRI圖像和189,600個CT圖像的SWTR-Unet模型,用於肝臟和肝病變的分割。所提出的多模態模型在肝臟和肝病變的分割中分別達到0.98和0.81的Dice系數。

7.2. HCC的診斷
AI基於多模態模型提供了全面而穩健的HCC診斷方法,使疾病預測、分類、治療反應預測、生存率確定和疾病分期成為可能。評估AI基於多模態模型的HCC診斷研究結果總結於表9。

2020年,Menegotto等(176)利用DCNN進行HCC診斷,結合CT數據和多種EHR參數。這些參數包括人口統計因素、臨床歷史、實驗室測試結果和其他相關醫療信息。該模型通過考慮20個獨特的EHR參數來準確診斷HCC,突顯了整合多樣臨床數據以增強疾病識別的潛力。隨後,他們(177)開發了一種基於Xception的CNN模型,使用CT數據和EHR參數進行HCC診斷。該方法準確檢測HCC,展示了結合多種模態以改善HCC識別的潛力。

2021年,Gao等(118)利用基於VGG16架構的多模態模型檢測CT影像中的HCC。該研究旨在確定模型在檢測HCC中的準確性,通過結合八個EHR參數,包括年齡、性別、血小板計數、膽紅素水平、腫瘤標記和乙型肝炎病毒狀態。研究結果顯示,基於多模態DL的模型能夠準確識別HCC,強調了ML算法在輔助HCC早期檢測和診斷中的潛力。Li等(179)調查了一種基於多模態的ML模型,使用266名患者的三相CEUS數據和放射科醫生的評分來評估在區分非典型HCC(aHCC)和FNH方面的診斷準確性。所提出的模型在aHCC和FNH區分中達到0.93的最高AUC。

2022年,Liu等(180)提出了一種DL模型,通過結合臨床參數和303名患者的CEUS數據來檢測惡性。該模型在IV和EV組中分別達到0.969和0.957的AUC值和96%及94%的準確性。進一步的研究是必要的,以確定特定醫療任務的最佳模態和變數組合。開發標準化的協議和數據集對於促進多模態AI模型在醫學影像分析中的比較和可重複性至關重要。

7.3. HCC的預後評估
多項研究探討了使用基於AI的多模態模型對HCC的預後評估。這些研究的見解匯總於表10。在這些研究中,Sun等(183)提出了一種結合GhostNet和CNN模型的混合模型。該集成模型利用CT數據和臨床參數來預測HCC患者的TACE治療反應。所提出的方法表現出色,準確率達到98%,AUC為0.98。該模型展示了在預測TACE治療反應方面的潛力,從而幫助醫療提供者制定個性化的治療計劃並做出明智的決策。這一方法在改善患者結果和提高臨床實踐方面顯示了希望。

8. 挑戰和未來方向
在過去十年中,AI模型在醫學影像中用於HCC診斷和預測的應用已成為一個重要的研究領域。儘管已探索了US、CT和MRI等單一醫學影像方法,但缺乏針對單一和多模態方法的AI模型的綜合回顧。本研究旨在填補這一空白,回顧了自2010年1月至2024年3月開發的用於HCC診斷和預測的AI模型。

雖然AI基於的診斷模型並未顯著提高病理學家的整體診斷準確性,但它們在特定子群中顯示出提高的精確性。然而,在將這些模型整合到臨床工作流程之前,必須解決幾個挑戰。AI模型的有效性取決於模型的準確性和所用數據集的質量。偏見、錯誤標記、缺乏標準化和缺失數據等因素可能削弱這些數據集。過擬合和光譜偏見是AI基於醫學影像模型中普遍存在的問題。因此,迫切需要為AI基於數據分析制定標準化的方法和全面的策略,以應對缺失數據。

旨在醫療應用的AI工具可以被歸類為醫療設備,必須遵守相關法規。FDA和歐洲委員會均已啟動計劃來應對這一問題。與上市後修改相關的知識產權問題可能會對安全構成風險。AI模型的性能與訓練數據集密切相關。大型數據集的重要性不言而喻,推動數據共享是必要的,這引發了倫理和隱私考量。AI的臨床表現和對於批准後驗證的需求是重要問題。開發可解釋的AI模型對於獲得臨床醫生對AI基於CAD系統的信任和依賴至關重要。定制的前瞻性臨床試驗對於全面理解AI在HCC管理中的角色至關重要。

展望未來,AI在HCC管理中的整合為醫學科學開辟了令人興奮的前沿。隨著我們繼續完善AI模型並解決挑戰,我們更接近於一個AI在個性化患者護理中發揮關鍵作用的未來。AI分析大量數據並做出精確預測的潛力可促進HCC的早期檢測和更有效的治療策略。這不僅改善患者結果,還為技術和人類專業知識共同作用於改善患者護理鋪平了道路。

未來AI在HCC診斷和預測中的幾項策略至關重要。首先,開發AI基於數據分析的標準化方法和全面的缺失數據處理策略至關重要。其次,通用方法處理缺失數據並改善數據質量對於提高DL基於診斷工具的穩健性和可靠性至關重要。推動數據共享倡議可以促進訓練和驗證DL模型所需的大型多樣數據集的可用性。

除了上述策略,探索轉移學習等先進技術可以進一步增強AI在HCC診斷和預測中的作用。這一技術可以將預訓練的DL模型適應於新的任務,並且標註數據有限。這解決了醫學影像中獲取大量數據集的挑戰,這在醫療行業中是一個普遍的障礙。聯邦學習(FL)正在成為醫療保健中的一個變革性趨勢。它使得在多個機構之間進行ML開發的協作方法成為可能,消除了直接數據共享的需要。這種創新方法僅涉及模型參數的交換,從而確保個別數據集的隱私。在肝癌的背景下,患者數據既敏感又受到嚴格監管,FL提供了獨特的優勢。它允許整合分散的醫療數據源,同時保護隱私。這增強了ML模型的範圍和準確性,使其更有效和可靠。因此,FL有望成為未來肝癌治療研究和臨床實施的重要工具。它有潛力顯著提升患者護理,標誌著肝癌治療領域的新紀元。

開發可解釋的AI模型是獲得臨床醫生對AI基於CAD系統信任的另一個關鍵步驟。研究人員、臨床醫生和政策制定者的協同作用是推動創新和為AI技術在肝癌護理中的應用設定黃金標準的基石。綜合方法對於增強HCC診斷和管理中的AI技術至關重要。這涉及到解決可解釋性、準確性、數據整合、倫理考量和驗證過程等關鍵方面。通過解決這些領域,我們可以充分發揮AI技術的潛力,導致HCC診斷和預測的革命。定制的前瞻性臨床試驗對於全面理解AI在HCC管理中的作用至關重要。FDA和歐洲委員會等監管機構已啟動計劃,旨在解決AI基於診斷工具的監管合規性。這些計劃需要進一步發展和實施。挑戰和未來方向強調了將AI納入HCC診斷和預測的複雜性。然而,隨著持續的研究和開發,AI有望在這一領域帶來範式轉變。

9. 結論
本文對AI驅動的模型進行了全面探索,用於HCC的診斷和預測,利用醫學影像數據和其他臨床信息。AI基於的方法在診斷HCC方面的潛力巨大,但在無縫整合到臨床工作流程以提高患者診斷和治療結果之前,仍需克服幾個障礙。儘管存在數據質量、模型過擬合、監管合規性和可解釋AI模型的需求等挑戰,但潛在的優勢是相當可觀的。AI模型有能力在特定患者子群中提高精確性。此外,開發標準化的數據分析方法可以顯著增強這些工具的穩健性和可靠性。通過解決這些複雜性,顯然需要多管齊下的策略來充分利用AI技術在HCC診斷和治療中的轉型潛力。隨著持續的研究和開發,AI有望在HCC診斷和預測領域帶來範式轉變,最終改善患者結果,開創醫療保健的新紀元。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗

🎨 Nano Banana Pro 圖像生成器|打幾句說話就出圖

想畫人像、產品圖、插畫?SSFuture 圖像生成器支援 Flux Gemini Nano Banana Pro 改圖 / 合成, 打廣東話都得,仲可以沿用上一張圖繼續微調。

🆓 Flux 模型即玩,不用登入
🤖 登入後解鎖 Gemini 改圖
📷 支援上載參考圖再生成
⚡ 每天免費額度任你玩
✨ 即刻玩 AI 畫圖
Create a hyper-realistic 8K close-up body portrait of a female model, using the uploaded photo as the exact facial reference. Maintain 100% accuracy of the facial features — do not alter or modify any aspect of the face. Render the skin texture, lighting, and overall composition with photo-realistic detail, ensuring lifelike color tones and natural depth of field. A man with his original hair is sitting casually on a white cube, smiling warmly at the camera. He is wearing a cream-colored cable-knit sweater, blue jeans, and brown loafers. His legs are crossed, with one hand resting on his knee.
The background reveals a cozy and festive living room. A large, beautifully decorated Christmas tree with numerous warm lights and gold ornaments stands prominently behind him. Several wrapped gift boxes are visible at the base of the tree. To his left, another smaller decorated Christmas tree and a wreath on the wall further enhance the holiday atmosphere. The lighting is soft and inviting, creating a warm and welcoming scene. [Enhanced Artistic Prompt]

A highly detailed portrait of a young Asian woman inspired by the delicate, doll-like beauty of Imada Mio (精緻洋娃娃臉). She has large, round, luminous eyes with a deep, expressive gaze, a petite V-shaped face, full rosy cheeks, and porcelain-soft skin. Her expression is a captivating blend of innocence, youthful energy, and subtle flirtation, capturing an aura of pure allure.

Her hair is long, dark chocolate brown, with natural volume and texture—slightly tousled in an artful, “just woke up” messy style (剛睡醒的凌亂感), with soft strands falling over her face and shoulders. She wears an oversized, semi-translucent white button-down boyfriend shirt (男友風白襯衫), loosely draped and unbuttoned at the top, elegantly revealing her collarbones and creating a “bottomless” fashion look (下衣失蹤風格) with a sense of relaxed intimacy.

The overall aesthetic is reminiscent of a contemporary Japanese Gravure photobook (寫真集風格), evoking both pure charm and subtle sensuality (Pure & Sexy vibe). Use bright, high-key natural lighting to create a soft, ethereal glow, with smooth, radiant skin texture. Emphasize pastel color grading and gentle film grain, referencing the signature look of Fujifilm PRO 400H for a dreamy, cinematic finish. Compose the image artistically, focusing on beauty, mood, and expressive detail, as if captured in a candid, intimate moment.

— full body or mid-length portrait, shallow depth of field, delicate highlights, softly blurred minimalist background, inviting eyes, tasteful and elegant composition. Create a photorealistic image of uploaded photo sitting at a relaxed outdoor restaurant in London on a cool Wednesday morning in March 2026. The sky is clear, the spring air is crisp, and the city feels calm as it wakes up. She is the focal point of the shot—wearing a light scarf, gently stirring her tea while gazing off to the side with a thoughtful expression. Everything behind her, from the waiter moving about to the soft morning traffic, should fall into a smooth blur, giving the picture the effortless, candid atmosphere of a moment casually snapped on a phone.