鄭博文,陳衛(wèi)國,秦耿耿
南方醫(yī)科大學南方醫(yī)院放射科,廣東 廣州 510515
功能與分子影像學的產生與發(fā)展使影像學從單純的診斷過渡到疾病的預防、預測以及發(fā)生機制的探索。功能與分子影像包括CT灌注、MR灌注、PET、SPECT、PET/CT、PET/MR等技術,它們能夠在組織、器官、細胞乃至分子水平上反映器官或組織的血流、代謝與功能的變化、基因的異常表達、細胞信息傳導等信息,在疾病的早期診斷、有效治療、預后預測、探索發(fā)病機制等方面具有重要意義。
人工智能這個概念由由McCarthy于1956年正式提出。機器學習和深度學習作為人工智能的重要分支,在醫(yī)學影像學有著廣泛的應用。機器學習即從數(shù)據(jù)中提取知識,通過復雜的算法來分析大量數(shù)據(jù),識別數(shù)據(jù)中的模式,并作出一個預測。在樣本的數(shù)量不斷增加的同時,可以自我完善學習能力,提高模型性能。2006年,Hinton[1]提出深度學習的概念。深度學習是以人工神經(jīng)網(wǎng)絡為架構,具備至少一個隱層,能夠對數(shù)據(jù)進行表征學習的算法。通過對多個層的堆疊,上一層的輸出作為下一層的輸入,實現(xiàn)對輸入信息進行分級表達,從中學習到數(shù)據(jù)集的本質特征。
人工智能能夠處理大批量、高維度的信息,但是人類觀察、收集、處理信息的能力是有限的。為了得到更廣泛、更高維度的信息,也更加充分地利用得到的信息,影像組學應運而生。2012年,Lambin[2]首次提出影像組學的概念,即高通量地從醫(yī)學圖像中提取特征。影像組學提取的特征能夠更加深入挖掘圖像的生物學本質,在疾病診斷、治療和預后方面都有較大潛力。
本文旨在討論人工智能在功能與分子影像學中圖像處理、圖像解釋及質量控制的應用,總結應用中存在的問題,期望提高使用者對人工智能應用的認識,促進人工智能在醫(yī)學影像學的應用。
PET是一種用于正電子類放射性藥物顯像的影像設備。PET圖像的噪聲除了由設備本身的固有特性造成外,在一定掃描時間內探測到的光子對數(shù)量太少,或者藥物劑量的減低都會造成圖像噪聲的增加。Cui等[3]構建了一種基于深度神經(jīng)網(wǎng)絡(DNNs)的PET圖像降噪算法。他們將PET/CT和PET/MR中的CT/MR圖像作為輸入,有噪聲的PET圖像作為標簽訓練基于U-Net的DNNs網(wǎng)絡。使用肺部PET/CT、肺部PET/MR、肝臟PET/MR數(shù)據(jù)集進行驗證時,DNNs算法取得的對比噪聲比提高率分別是(53.35±21.78)%、(35.91±10.48)%和(43.37±30.85)%。
正電子類放射性核素衰變釋放出的正電子與普通電子相互作用時會發(fā)生湮滅反應,產生兩個方向相反的γ光子對。γ光子對可以與人體相互作用發(fā)生光電吸收或康普頓散射效應,造成γ光子對在LOR上的計數(shù)減少,即衰減效應。因此,需要對PET成像進行衰減矯正。Shiri等[4]構建了僅使用正電子發(fā)射數(shù)據(jù)的PET圖像深度學習衰減校正架構,該架構使用跳躍連接將編碼網(wǎng)絡和解碼網(wǎng)絡連接在一起。未衰減校正的2D PET圖像輸入編碼網(wǎng)絡后,編碼網(wǎng)絡會對每個像素進行重建,輸出衰減校正后的圖像,最終合成衰減校正后的3D PET圖像。經(jīng)過深度學習衰減校正架構衰減校正后的圖像的SUVmean和SUVmax的相對誤差分別是-0.1±2.14和-3.87±2.84。Arabi等[5]則使用基于新型對抗語義結構的深度學習網(wǎng)絡(DLAdvSS)對大腦PET/MR圖像進行MRI引導下的衰減校正。與PET/CT不同,PET/CT中CT圖像反應的是物質的密度信息,通過雙線插值可以建立HU值與PET圖像衰減系數(shù)之間的轉換關系。PET/MR圖像的衰減校正難點在于MRI圖像中組織的信號強度與PET圖像中相應部位的衰減特性之間沒有直接關系。DL-AdvSS包括綜合生成對抗網(wǎng)絡(SynGAN)和分割生成對抗網(wǎng)絡(SegGAN)。SynGAN利用輸入的MRI圖像生成合成CT圖像(sCTs),然后由SegGAN將sCTs圖像根據(jù)HU值的不同分割成氣腔、軟組織、骨、背景等4個類別,賦予不同的衰減系數(shù),最終得到衰減校正后的圖像。以基于CT圖像的衰減校正PET作為標準,DL-AdvSS衰減校正后的頭部PET圖像SUV平均誤差和平均絕對誤差分別是2.6±2.9、3.7±8.5,性能表現(xiàn)與地圖集法相當,均優(yōu)于組織分割法。
左心功能的量化分析在心血管疾病的診斷及預測上至關重要。傳統(tǒng)的左心功能量化分析方法需要全手工或半自動地對多幅圖像進行左心室的探測及分割,不僅費時費力,而且一致性較低。Tao等[6]使用基于U-Net的深度學習網(wǎng)絡,對心臟MR快速成像構建了全自動左心功能量化分析模型。該模型能夠全自動地檢測和分割左心室結構,并對左心室功能進行量化分析。他們分別使用基于單一設備的單中心單病種數(shù)據(jù)集、單一設備的多中心多病種數(shù)據(jù)集、多種設備的多中心多病種數(shù)據(jù)集訓練了3個基于U-Net的卷積神經(jīng)網(wǎng)絡CNN1、CNN2、CNN3。測試結果表明,CNN3全自動分割和人工分割的左心室心尖段、中間段、基底段戴斯相關系數(shù)分別是91±8、96±2、94±5,優(yōu)于CNN1和CNN2,說明經(jīng)高度多樣性數(shù)據(jù)集訓練的模型具有更高的診斷效能。并且和人工分析結果相比,CNN3獲得的左室舒張末期容積、左室收縮末期容積、左室心肌質量、左室射血分數(shù)具有較高相關性和一致性。
2.1.1 CT功能影像中的應用 CT功能成像應用相對狹窄,主要集中在各組織器官灌注成像和心臟動態(tài)功能成像上。血流儲備分數(shù)作為評價冠脈狹窄功能性評價的公認指標,能夠提供冠脈CT造影無法提供的心血管功能性信息。但是傳統(tǒng)的FFR計算方法需要放置心導管,屬于有創(chuàng)檢查。Yu等[7]使用機器學習方法(cFFR, version 3.0; Siemens Healthineers)從CT圖像中計算出患者的冠脈血流儲備分數(shù)(ML-FFRCT),以診斷血流動力學變化顯著的冠脈狹窄疾病。結果表明,ML-FFRCT診斷血流動力學顯著變化的冠脈狹窄疾?。‵FR<0.8)的敏感性、特異性、準確性和AUC值分別是81.2%、83.6%、82.7%和0.873,診斷效能優(yōu)于CCTA。同樣是使用基于機器學習的冠脈CT血流分流儲備算法(cFFR, version 3.0; Siemens Healthineers)檢測血流動力學變化顯著的冠脈狹窄疾病。有研究納入81位患者,比較ML-FFRCT與CT心肌灌注成像(MPI)的診斷效能[8]。結果表明,MPI中的心肌血流參數(shù)(MBF)在以99/100 mL/min作為截值時,取得的AUC值為0.97,超過ML-FFRCT的AUC值0.85。對于每條血管出現(xiàn)狹窄的診斷效能,MBI和ML-FFRCT的診斷敏感性分別是96%和88%(P<0.01),MBI的特異性和準確性分別是93%和94%,超過MLFFRCT的68%和78%。樣本量不足可能是導致MLFFRCT診斷特異性和準確性較低的重要原因,也更加強調了數(shù)據(jù)多樣性及豐富性的重要性。
除了樣本數(shù)據(jù)會對ML-FFRCT的診斷效能產生影響,Tesche等[9]發(fā)現(xiàn)使用ML-FFRCT(cFFR,version 2.1;Siemens Healthineers)鑒別心肌缺血性疾?。‵FR<0.8)時,冠狀動脈鈣化分數(shù)對ML-FFRCT的診斷性能也有顯著影響。在血管水平上,對于Agatston評分分別為0、0~100、100~400、>400的4組血管,ML-FFRCT的AUC值分別為0.83、0.85、0.86、0.71,說明隨著Agatston評分的升高,ML-FFRCT的診斷效能明顯下降。
同樣為了克服冠脈CT造影無法提供功能性信息的缺點,利用機器學習結合深度學習的方法,對CCTA中冠狀動脈中等狹窄(狹窄程度25%~69%)的患者進行進一步分類[10]。CCTA中狹窄程度≤24%的患者被認為非功能受損性狹窄,狹窄程度≥70%的患者被認為存在冠脈功能受損。他們將CCTA圖像輸入CNN網(wǎng)絡,首先進行左心室心肌的自動勾畫,然后利用卷積自動編碼器提取圖像中的特征信息,最后基于這些特征信息構建支持向量機模型鑒別CCTA中冠狀動脈中等狹窄患者的冠脈功能是否受損。
2.1.2 MR功能影像中的應用 fMRI主要包括彌散基礎上的fMRI、灌注基礎上的fMRI和血氧水平上的fMRI等,具有分辨率高、定位準確、方式多樣等優(yōu)點,在組織、器官乃至分子水平的功能評價、血管生成、腫瘤檢出等方面都有較大優(yōu)勢。
MRI腦灌注成像在診斷急性腦梗塞中有重要價值,能夠提高腦梗塞診斷的準確性、預測腦梗塞的進程及輔助再灌注治療方案的選擇。Meier等[11]使用基于CNNs的腦灌注MRI剩余函數(shù)達峰時間(Tmax)灌注圖像來診斷急性腦梗塞。研究者分別使用常規(guī)的oSVD法和CNN獲得Tmax灌注圖像,并由2名資深醫(yī)師對Tmax>4 s、Tmax>6 s、Tmax>8 s的區(qū)域進行勾畫。結果表明基于兩種Tmax灌注圖像勾畫的區(qū)域具有較高一致性,戴斯相關系數(shù)0.70~0.85,說明CNN-Tmax在診斷急性腦梗塞上具有與常規(guī)的oSVD法相當?shù)脑\斷效能。Park等[12]使用MRI圖像中的T1增強圖像、ADC圖、各向異性圖提取影像組學特征并構建多個機器學習模型對腦膜瘤進行分級。結果表明基于隨機森林和支持向量機的機器學習模型取得最佳的分類效能,AUC、準確性、敏感性、特異性分別為0.86、89.7%、75.0%、93.5%。
Zhang等[13]構建了使用心肌MR電影成像的全自動深度學習慢性心肌梗死檢測架構。該架構首先對輸入的心肌MR電影成像進行左心室的定位和分割,然后對系列圖像進行運動特征提取,最后判斷該患者是否存在慢性心肌梗死。該架構的敏感性、特異性、AUC值分別是89.8%、99.1%和0.94,與磁共振延遲釓強化(LGE)圖像的診斷效能相當,并且能夠避免LGE的腎臟損害等副作用。
表觀彌散系數(shù)(ADC)是前列腺MRI圖像中具有診斷意義的參數(shù)。Bonekamp等[14]建立了基于影像組學的前列腺癌機器學習診斷模型(RML),并比較該模型與ADC值的診斷效能。研究者在T2加權圖像、ADC圖像、b=1 500 s/mm2圖像中勾畫出感興趣體積(VOIs)后,對VOIs內的圖像進行影像組學特征提取,使用單變量特征選擇法篩選特征,然后訓練基于隨機森林的前列腺癌預測模型。訓練后的模型診斷性能分別與平均ADC值、影像科醫(yī)生的診斷效能比較。測試集結果表明,在病灶水平上RML和平均ADC的AUC值分別是0.88和0.84,沒有統(tǒng)計學意義(P=0.176)。RML、平均ADC、臨床醫(yī)生的診斷敏感性、特異性分別是97%和58%、90%和62%、88%和50%。在患者水平上,RML、平均ADC、影像科醫(yī)生的診斷敏感性、特異性分別是96%和51%,93%和51%、89%和43%。說明和影像科醫(yī)生相比,RML法和平均ADC均能提高診斷的特異性。同樣為了診斷前列腺癌,Aldoj等[15]使用多參數(shù)MRI圖像建立了基于3DCNN的前列腺癌自動化診斷模型。使用ADC、DWI、K-trans圖像作為輸入時,模型取得最優(yōu)的平均AUC值0.897,與影像科醫(yī)生的診斷效能相當。
研究表明,Gleason 4級的前列腺癌和非Gleason4級前列腺癌在基因和預后方面都有著較大差異[16]。因此,他們構建Gleason 4級前列腺癌機器學習診斷模型。研究者在T2加權圖像、ADC圖像和動態(tài)對比增強圖像(DCE)勾畫出VOIs后,使用MIM symphony軟件獲得VOIs的定量特征,并與臨床信息如PSAd等結合,針對外周帶和移行帶(TZ)分別訓練基于邏輯回歸、樸素貝葉斯、支持向量機、隨機森林、前饋神經(jīng)網(wǎng)絡的Gleason 4級前列腺癌機器學習診斷模型。結果表明使用PSA、ADC和DCE的外周帶邏輯回歸分類器取得最高的AUC值0.83,使用ADC和DCE的TZNB分類器取得最高的AUC值0.75?;谶壿嫽貧w的外周帶分類器在特異性閾值設為50%時取得最高的診斷敏感性93%,優(yōu)于3名影像科醫(yī)生的平均特異性和敏感性(40%、72%)?;跇闼刎惾~斯的移行帶分類器在特異性設置為50%取得的敏感性為88%,優(yōu)于3名放射科醫(yī)生診斷的平均敏感性82%。
有研究使用112位患者的T1WI、T1增強序列圖像構建了基于SVM的零細胞腺瘤與其他亞型非功能性垂體腺瘤鑒別模型。研究者將112名患者的T1WI、T1增強圖像進行手動勾畫ROIs后進行影像組學特征提取,訓練基于SVM的機器學習模型,該模型最終在訓練集中取得了0.80的AUC值[17]。
2.1.3 分子影像中的應用 PET/SPECT圖像能在分子水平上反映人體代謝、生化等功能信息及受體分布情況。通過不同的示蹤劑,PET能夠反映該示蹤劑代表的分子及相應生物活動信息,幫助醫(yī)生判斷疾病的性質、程度、范圍,甚至發(fā)病機制。
帕金森病是一種漸進性的神經(jīng)系統(tǒng)疾病,主要特征是多巴胺神經(jīng)元的變性。123I-FP-CIT SPECT多巴胺轉運體成像能夠檢測帕金森病患者中的多巴胺神經(jīng)元變性,對帕金森病的診斷具有重要作用。為了提高診斷的準確性和一致性,尋找診斷帕金森病最有意義的特征,有研究使用123I-FP-CIT SPECT圖像構建帕金森病機器學習診斷模型[18],該研究從帕金森病進展標志倡議中選取的652例患者的SPECT圖像中提取了特異性結合率(SBR)、尾狀核結合力(CBP)、殼核結合力(PBP)、紋狀體結合力(SBP)、殼核-尾狀核結合力比率(PCR)5個紋狀體攝取率特征和紋狀體攝取區(qū)域體積、長徑2個形態(tài)學特征,分別使用這些特征構建了SVM、kNN近鄰和邏輯回歸3個機器學習預測模型。結果表明單獨使用SBP、PBP、Length特征構建的SVM機器學習模型具有最高的診斷準確性,分別是93.9%、95.4%和96.5%,說明與攝取率特征相比,紋狀體攝取區(qū)域長徑在診斷帕金森病中也具有重要意義。
SBR是評價多巴胺轉運體功能的指標。SBR在診斷帕金森病中的價值有限,或僅僅對于輔助初級醫(yī)師診斷帕金森病有一定意義[19-20]。限制SBR診斷效能的主要因素是不同中心、不同設備及運動偽影導致的圖像多變性[21]。為了克服圖像多變性這個問題,他們使用多中心、多設備的FP-CIT SPECT圖像訓練了基于CNN的深度學習帕金森病診斷模型。他們對從PPMI中獲取的645位患者的SPECT圖像進行平滑處理以模擬低質量圖像,組成3個圖像集:PPMI原始圖(645例);平滑處理后PPMI圖(645例);原始+平滑處理后PPMI圖(1 290例),然后分別評估HV-SBR法、AAL-SBR法、CNN法在3個圖像集中的診斷效能。結果表明,在混合PPMI圖像中,HV-SBR法和AALSBR法的診斷準確性分別是0.951±0.010和0.900±0.029,都較其在原始PPMI圖像和平滑處理后PPMI圖像低,分別是0.966±0.011和0.957±0.015、0.957±0.017和0.952±0.015(P<0.01)。CNN法在3個圖像集中的準確性分別是0.972±0.014、0.955±0.009、0.967±0.018(P=0.188)。該研究證明,和傳統(tǒng)的SBR相比,經(jīng)過多參數(shù)圖像訓練的深度學習模型在診斷帕金森病上具有更高的魯棒性和相近的診斷準確性。Choi等[22]同樣建立了基于CNN的深度學習帕金森病診斷模型PD NET,結果表明PD NET的診斷準確性與資深核醫(yī)學專家診斷準確性相當,并且擁有更高的穩(wěn)定性,能夠克服人工評估的不一致問題。此外,該模型能夠對影像學檢查中無多巴胺缺陷的患者(SWEDD)進行進一步診斷。PD NET分析該研究中的77例SWEDD圖像時,認為其中6位患者存在多巴胺能缺乏。在隨后2年的隨訪復查中,這6位患者有4位確診為帕金森病,1位為阿爾茲海默病,1位未能完成隨訪;PD NET認為多巴胺能正常的患者,在隨后兩年的隨訪中94.6%的患者多巴胺能仍然維持正常,證明部分帕金森病患者可能被誤診為SWEDD,而PD NET對帕金森病的進一步診斷具有一定價值。
有研究建立了使用SPECT心肌灌注圖像的深度學習網(wǎng)絡來診斷缺血性心肌?。ü诿}血管阻塞>70%)的模型,并將模型的診斷效能與SPECT心肌灌注中的總灌注不足的診斷效能相比較[23]。結果表明深度學習模型在患者水平和血管水平診斷效能優(yōu)于總灌注不足。使用68Ga-Pentixafor PET/CT圖像訓練基于CNNs的多發(fā)性骨髓瘤診斷模型,該模型包含由兩個V-Net組成的W-Net,分別負責對全身異常濃聚部位的檢測及診斷,結果表明該模型對多發(fā)骨髓瘤的診斷效能優(yōu)于傳統(tǒng)的機器學習模型[24]。
在探索發(fā)病機制上,Zhang等[25]使用18F-FDG PET/CT圖像構建了非小細胞肺癌表皮生長因子受體(EGFR)變異診斷模型,該研究納入248位接受了18FFDG PET/CT和EGFR檢測的患者,將PET/CT圖像中影像組學特征提取后,結合臨床信息訓練EGFR變異診斷模型。結果表明,該模型在診斷EGFR變異中有較好的診斷效能,AUC值、敏感性、特異性、準確性分別是0.87、91.67%、70.27%、80.82%。該模型能夠無創(chuàng)檢測是否存在EGFR變異,在臨床治療尤其是選擇靶向藥上具有重要意義。
人工智能算法及機器計算力的發(fā)展,使我們能夠更加迅速地處理大批量信息,更加深入地挖掘信息的價值。人工智能的應用使得影像科醫(yī)生能夠將關注點從現(xiàn)在轉移到未來,對患者的生存率、治療效果等進行預測。
肺動脈高壓指靜息狀態(tài)下,右心導管檢測肺動脈平均壓≥25 mmHg的一組疾病,可以導致呼吸困難、運動耐量減低甚至是右心衰等一系列后果。目前已經(jīng)有研究通過血流動力學數(shù)據(jù)、心肌標志物、運動測試等手段預測肺動脈高壓的預后,表示肺動脈高壓患者生存率與右心室功能高度相關[26]。心臟MRI圖像能夠提供右心功能的詳細信息,因此有學者通過建立機器學習預測模型來預測肺動脈高壓患者生存率,該研究納入256位接受了心臟MR快速成像檢查的新診斷為肺動脈高壓的患者,收集包括臨床信息、心血管血流動力學信息、心臟功能信息、MR容量信息、心臟3D運動特征信息等資料[27]。研究者對獲得的信息進行監(jiān)督性主成分分析,獲得對預測生存率最有意義的特征,然后將得到的特征分成3組分別訓練3個考克斯比例風險模型。模型1包括:臨床信息(性別、年齡、肺動脈高壓亞型等)、血流動力學信息(右心房壓力、右心室舒張末期壓力)、心臟功能信息(NYHA分級、6 min步行試驗結果);模型2除了包含模型1中的所有信息及MR容量信息(右室舒張末期容積、右室收縮末期容積、右室射血分數(shù)等);模型3包含模型1、2中的信息及心臟3D運動特征信息。在最高長達5年的隨訪中,一共有93(36%)位患者死亡。將3個模型的預測結果進行比較,模型3具有最高的AUC值和危險比率,分別是0.73和1.99,超過模型1和模型2的結果:0.60和1.66、0.64和1.71。同時監(jiān)督性主成分分析,結果顯示心臟3D運動特征信息的危險比率最高達到2.745,說明該特征與右心衰預后關系最密切。
Betancur等[28]使用131Tm SPECT MPI構建了主要心血管不良事件預測模型,共納入2 689位患者的臨床信息、MPI圖像信息、視覺評估信息、壓力測試特征等信息,使用信息增益率對特征重要性進行排序,將特征分成4組訓練基于LogitBoost的心血管不良事件預測模型:模型1包含所有特征;模型2只包含MPI圖像特征;模型3僅包含視覺評估特征;模型4僅包含壓力測試特征。在隨訪的3.2±0.6年間,共有239位患者出現(xiàn)主要心血管不良事件,其中150位(5.7%)患者死亡,11位(0.4%)出現(xiàn)非致命性心肌梗死、24位(0.9%)出現(xiàn)不穩(wěn)定心絞痛、54位(5.7%)進行晚期血運重建治療。實際結果與模型預測結果相比較,模型1取得最高的AUC值0.81,優(yōu)于其他3個模型。并且模型1的Brier分數(shù)為0.07,表示模型預測結果和實際觀察到的結果有較高一致性。
PET/CT將PET和CT結合,能夠同時提供病灶的功能與代謝等分子信息、結構與定位等解剖信息。對PET/CT融合圖像進行紋理分析,構建食管癌患者的預后預測模型[29],納入403位食管癌患者(訓練集302人,測試集101人),由放射科醫(yī)生對腫瘤代謝區(qū)域進行勾畫后,提取包括一階統(tǒng)計量、灰度共生矩陣、灰度區(qū)域大小矩陣等影像組學特征,結合年齡、治療方法等臨床特征訓練4個Cox回歸模型,其中僅有模型4包含PET/CT圖像紋理信息在內的所有特征。最終,測試集中患者死亡人數(shù)是58(57.4%)。將實際結果與模型預測結果相比,以赤池信息準則(AIC)作為評價標準,擁有PET/CT圖像紋理信息的模型4擁有最低的AIC值464.671。同時Cox回歸分析表明,與預后相關性最強的6個特征中有3個為紋理特征,說明PET/CT圖像的影像組學紋理特征在食管癌預后預測中具有一定的價值。
人工智能在醫(yī)學影像學中已經(jīng)得到較為廣泛的應用,但是目前并沒有太多研究探討對人工智能輸出結果的質量控制。Ruijsink等[30]在構建使用心臟MR的深度學習全自動心功能分析模型之后,構建了基于機器學習的心功能輸出結果質量控制模型。該研究由一位資深醫(yī)師將CNNs輸出的全自動分割的心臟區(qū)域和功能數(shù)據(jù)標記為正?;虍惓?,分別訓練SVMvol和SVMtrain兩個支持向量機模型。SVMvol主要分析深度學習模型中自動勾畫的心臟區(qū)域是否符合要求。比如長軸圖像是否包含了短軸圖像中的二尖瓣和心尖區(qū),所有短軸圖像的層厚是否與長軸圖像的長度相符等。SVMtrain分析輸出的心功能指標,如果左心室和右心室的每搏輸出量差異>10%,或者第一層和最后一層的輸出的心腔容積差異大于10%,該輸出結果就會被模型標記為錯誤,結果顯示有75例(4%)的心肌勾畫結果被標記為錯誤,119例(7%)的功能輸出結果被標記為錯誤,說明質量控制模型在無需人工審核的情況下,控制輸出數(shù)據(jù)的質量,補足了人工智能與影像學結合應用中的最后一環(huán),在大規(guī)模推進人工智能應用的進程中具有重要意義。
人工智能與功能與分子影像學的結合在圖像處理、圖像解釋等方面都取得了一定的成果。從前期的圖像處理,到中期圖像解釋,后期質量控制,形成了一個比較完整的流程。但與人工智能在其他影像學手段中的應用一樣存在一些共性問題。從X線到PET/CT,機器學習到深度學習,病灶分割到功能量化分析,疾病分類到預后預測,人工智能在醫(yī)學影像學的應用有著從宏觀到微觀、全面到具體、現(xiàn)在到未來的趨勢。而這種趨勢歸根究底是由影像檢查技術的革新和人工智能算法的改進推動的。如果以人工智能完全結合在臨床應用中作為目標,我們還遠遠達不到。除了需要上述提到的檢查技術和人工智能算法的革新,更加全面、多樣化的數(shù)據(jù)集,更加廣泛的臨床驗證和應用工作都亟待進行。此外,解開人工智能算法的“黑箱”也相當重要,部分人工智能算法在醫(yī)學影像應用中的不可解釋性,導致臨床醫(yī)生較難去信任這一工具。從多方面改善人工智能在醫(yī)學影像學的應用內,不僅能使患者受益,甚至可能革新影像科醫(yī)生的工作流程,改變影像科醫(yī)生在臨床診療過程中的角色。