郝逸航,黃美暢,李茂,湯亞玲,梁新華
1.口腔疾病研究國(guó)家重點(diǎn)實(shí)驗(yàn)室國(guó)家口腔疾病臨床醫(yī)學(xué)研究中心四川大學(xué)華西口腔醫(yī)院口腔頜面外科,四川成都(610041);2.口腔疾病研究國(guó)家重點(diǎn)實(shí)驗(yàn)室國(guó)家口腔疾病臨床醫(yī)學(xué)研究中心四川大學(xué)華西口腔醫(yī)院病理科,四川 成都(610041)
根尖周囊腫是與牙髓壞死相關(guān)的炎癥性囊腫,是最常見(jiàn)的炎癥性牙源性頜骨囊腫[1],其在頜骨牙源性囊腫中所占比例為59.9%[2]。大多數(shù)根尖周囊腫是由齲病或牙外傷造成的牙髓壞死引起,是頜骨最常見(jiàn)的放射透射病灶[3]。根尖周囊腫是牙髓壞死根尖區(qū)上皮受到炎癥刺激而形成的真性上皮襯里囊腫。上皮通常來(lái)源于Malassez 上皮剩余[4],但也可能是齦溝上皮、鼻竇襯里上皮或竇道襯里上皮。其由纖維結(jié)締組織囊壁、襯里上皮和含有囊液和細(xì)胞碎片的囊腔構(gòu)成[5]。精確評(píng)估根尖周病損對(duì)準(zhǔn)確診斷和制定恰當(dāng)?shù)闹委熡?jì)劃至關(guān)重要。
全視野數(shù)字切片(whole slide image,WSI)是將玻璃切片上的組織整體轉(zhuǎn)化為高分辨率的數(shù)字切片[6],其具有方便存儲(chǔ)、不褪色等優(yōu)點(diǎn)。近年來(lái),數(shù)字切片技術(shù)以及其在各病理亞專(zhuān)業(yè)的應(yīng)用呈指數(shù)級(jí)增長(zhǎng),帶動(dòng)傳統(tǒng)病理向數(shù)字病理轉(zhuǎn)型[7]。人工智能(artificial intelligence,AI)利用WSI 形成的豐富的數(shù)據(jù)提取樣本的特征[8],檢測(cè)數(shù)字切片中的病變區(qū)域并量化各項(xiàng)指標(biāo),使得AI 能夠基于臨床上不斷積累的WSI 數(shù)據(jù)對(duì)病理圖像進(jìn)行分析,能充分發(fā)揮在大數(shù)據(jù)樣本上的優(yōu)勢(shì),推動(dòng)病理定量分析的發(fā)展,輔助病理醫(yī)生完成病理診斷[9]。AI 在醫(yī)學(xué)領(lǐng)域最成功的應(yīng)用是病理學(xué)、影像學(xué)的圖像分析,其準(zhǔn)確度不劣于相關(guān)領(lǐng)域醫(yī)學(xué)專(zhuān)家,而它的分析速度之快則又是臨床醫(yī)學(xué)專(zhuān)家所不及的[10]。但是目前,AI 在口腔病理學(xué)領(lǐng)域的應(yīng)用罕見(jiàn)報(bào)道。本實(shí)驗(yàn)以87 例根尖周囊腫為研究對(duì)象,構(gòu)建U-net型結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)[11],首先用其中72 例進(jìn)行訓(xùn)練,然后對(duì)15例進(jìn)行測(cè)試,評(píng)估該網(wǎng)絡(luò)分割結(jié)果與人工標(biāo)記結(jié)果符合率,將AI 應(yīng)用于根尖周囊腫的病理診斷中,初步探索AI 在口腔病理學(xué)領(lǐng)域中的應(yīng)用。
選取2018 年1 月1 日至2019 年12 月31 日在四川大學(xué)華西口腔醫(yī)院病理科診斷為根尖周囊腫的87 例患者的病理圖像作為AI 閱片的研究對(duì)象。本研究經(jīng)四川大學(xué)華西口腔醫(yī)院倫理委員會(huì)批準(zhǔn)(審批號(hào):WCHSIRB-D-2021-037)。納入標(biāo)準(zhǔn):病理診斷為根尖周囊腫;臨床病理資料完整;患者知情同意。排除標(biāo)準(zhǔn):病理切片上皮極少,無(wú)法標(biāo)記;病理切片褪色或臟污。
采用Olympus 全自動(dòng)數(shù)字切片掃描系統(tǒng)(BX61VS,Olympus,日本)將根尖周囊腫病理切片掃描成WSI(200 倍)。
通過(guò)病理圖像處理軟件Image J 將所產(chǎn)生的.vsi格式的數(shù)字切片轉(zhuǎn)換為標(biāo)記軟件能識(shí)別的.tiff格式。
利用Labelme 圖像標(biāo)簽標(biāo)注軟件(v3.16.2,MIT,美國(guó))對(duì)根尖周囊腫的襯里上皮進(jìn)行標(biāo)記,產(chǎn)生標(biāo)記文件。
因掃描所得的WSI 圖像尺寸過(guò)大,首先對(duì)其預(yù)處理。
按圖像的灰度特性,使用OSTU 閾值分割法將標(biāo)記與背景區(qū)域區(qū)分開(kāi),在后續(xù)過(guò)程中去除這部分無(wú)效的背景區(qū)域圖像。
將WSI 進(jìn)行切分,分割成固定尺寸的圖像塊(256 像素×256 像素),建立神經(jīng)網(wǎng)絡(luò)所需數(shù)據(jù)集。
構(gòu)建U-net 型結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)(圖1),該網(wǎng)絡(luò)由編碼器和解碼器兩部分組成。前者是圖像下采樣過(guò)程,增加感受野,在輸入圖像資料后由神經(jīng)網(wǎng)絡(luò)模型提取抽象的圖像特征;后者是所對(duì)應(yīng)的特征圖的上采樣過(guò)程,對(duì)圖像特征進(jìn)行分析歸類(lèi);二者之間存在著相應(yīng)的跳躍連接,便于神經(jīng)網(wǎng)絡(luò)對(duì)多尺度的圖像特征進(jìn)行融合。同時(shí),為了提高神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)速度,增加深監(jiān)督機(jī)制,以解決深度神經(jīng)網(wǎng)絡(luò)收斂速度過(guò)慢的問(wèn)題。
圖1 U-net 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Figure 1 U-net neural network structure diagram
數(shù)據(jù)集包含87 幅根尖周囊腫的HE 圖像和標(biāo)注圖像。其中72 幅圖作為訓(xùn)練集,15 幅作為測(cè)試集,分別用于訓(xùn)練模型和測(cè)試模型。訓(xùn)練集由學(xué)生做好標(biāo)注,是用來(lái)訓(xùn)練機(jī)器算法的圖像數(shù)據(jù),一般要占用全部數(shù)據(jù)的絕大部分。驗(yàn)證集是指在上述訓(xùn)練模型完成后,對(duì)部分?jǐn)?shù)據(jù)進(jìn)行驗(yàn)證。最后評(píng)估該網(wǎng)絡(luò)分割結(jié)果與人工標(biāo)記結(jié)果符合率。
本實(shí)驗(yàn)用SPSS20.0 進(jìn)行統(tǒng)計(jì)分析,采用兩種評(píng)價(jià)指標(biāo):目標(biāo)級(jí)指標(biāo)和像素級(jí)指標(biāo)。F1 分?jǐn)?shù)[12]是代表性的目標(biāo)級(jí)評(píng)價(jià)指標(biāo),定義如(1),TP是真陽(yáng)性、FP是假陽(yáng)性以及FN是假陰性,它是精確率和召回率的調(diào)和平均數(shù),精度率定義如(2),召回率定義如(3)。代表性像素級(jí)指標(biāo)是Dice 系數(shù)[13],定義如(4),P是分割結(jié)果,T是相應(yīng)的真值。它將像素與像素進(jìn)行比較,可用于評(píng)估分割質(zhì)量。平均Dice 系數(shù)是所有Dice 系數(shù)的平均值。ROC 曲線(xiàn)評(píng)價(jià)U-net 模型在根尖周囊腫上皮識(shí)別中的能力。
采用Labelme 圖像標(biāo)簽標(biāo)注軟件對(duì)根尖周囊腫HE 切片中的襯里上皮進(jìn)行標(biāo)記,使用綠色標(biāo)記線(xiàn),其中典型3 例根尖周囊腫的HE 切片及對(duì)應(yīng)標(biāo)記結(jié)果見(jiàn)圖2。
圖2 3 例根尖周囊腫患者全視野數(shù)字切片上皮標(biāo)記Figure 2 Epithelial labeling was performed on WSIs in three patients with periapical cysts
對(duì)所有原始圖像及標(biāo)記文件進(jìn)行分析,進(jìn)行背景和前景區(qū)分并可視化,前景即為神經(jīng)網(wǎng)絡(luò)模型所需識(shí)別并分割的目標(biāo)(圖3a)。引入學(xué)習(xí)衰減策略learning decay[14],每進(jìn)行50 輪訓(xùn)練進(jìn)行一次衰減,衰減指數(shù)為0.5,讓神經(jīng)網(wǎng)絡(luò)更好的收斂,使得到的神經(jīng)網(wǎng)絡(luò)模型更加穩(wěn)定(圖3b)。
圖3 圖像處理可視化及模型訓(xùn)練優(yōu)化策略Figure 3 Visualization of image processing and optimization strategy of model training
通過(guò)計(jì)算得出15 例根尖周囊腫測(cè)試數(shù)據(jù)Dice系數(shù)值(表1),對(duì)測(cè)試集的15 例根尖周囊腫的所有指標(biāo)評(píng)分分別取平均值,F(xiàn)1 分?jǐn)?shù)為0.75,表明U-net 網(wǎng)絡(luò)模型正確預(yù)測(cè)根尖周囊腫上皮的概率為75%。平均Dice 系數(shù)0.685,表明U-net 網(wǎng)絡(luò)模型分割結(jié)果與人工標(biāo)記結(jié)果符合率為68.5%(表2)。其中6 例根尖周囊腫病理圖像及相應(yīng)的分割結(jié)果圖像見(jiàn)圖4。
圖4 根尖周囊腫全視野數(shù)字切片與分割結(jié)果可視化Figure 4 Visualization of WSIs and segmentation results of periapical cysts
表1 15 例根尖周囊腫測(cè)試數(shù)據(jù)Dice 系數(shù)值Table 1 Dice coefficient values of 15 cases of periapical cysts
表2 U-net 網(wǎng)絡(luò)模型識(shí)別根尖周囊腫病理圖像的性能Table 2 Performance of the U-net network model in identifying pathological images of periapical cysts
曲線(xiàn)下面積(area under curve,AUC)為0.878(圖5),表明該模型在識(shí)別根尖周囊腫上皮中效果很好(AUC>0.85)。
圖5 U-net 網(wǎng)絡(luò)模型的ROC 曲線(xiàn)Figure 5 ROC network curve of the U-net network model
AI 最早提出是在20 世紀(jì)五十年代,是指制造智能機(jī)器的科學(xué)與工程,是計(jì)算機(jī)科學(xué)的一個(gè)分支[15],該分支是基于機(jī)器學(xué)習(xí)的方法去模擬人類(lèi)活動(dòng),而基于機(jī)器學(xué)習(xí)是指機(jī)器從輸入的數(shù)據(jù)中學(xué)習(xí),而深度學(xué)習(xí)是從人工神經(jīng)網(wǎng)絡(luò)中進(jìn)一步發(fā)展起來(lái)的,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)是深度學(xué)習(xí)的代表性算法之一[16],其優(yōu)秀的計(jì)算能力使得研究者們對(duì)其的探索不斷深入,從2012 年的AlexNet 開(kāi)始,ZFNet、VGGNet、GoogLeNet 和ResNet 等越來(lái)越多的CNN 被開(kāi)發(fā)應(yīng)用[17]。在醫(yī)學(xué)圖像領(lǐng)域中,AI 用于檢測(cè)、分割、診斷和分析數(shù)字化圖像[18],并且展現(xiàn)了極好的準(zhǔn)確性。
Bychkov 等[19]結(jié)合了卷積和循環(huán)結(jié)構(gòu)評(píng)估了420 例結(jié)/直腸癌患者HE 染色的腫瘤組織芯片(tumour tissue microarray,TMA)樣本,結(jié)果表明,相較于人類(lèi)專(zhuān)家以低級(jí)別和高級(jí)別患者分層時(shí)TMA 和整體切片水平進(jìn)行的組織學(xué)評(píng)估,僅以小組織區(qū)域作為輸入的基于深度學(xué)習(xí)的結(jié)果預(yù)測(cè)效果更好。與經(jīng)驗(yàn)豐富的人類(lèi)專(zhuān)家相比,最新的深度學(xué)習(xí)技術(shù)可以從結(jié)/直腸癌的組織形態(tài)中提取更多的預(yù)后信息。Esteva 等[20]使用像素和疾病標(biāo)簽作為輸入,利用單個(gè)CNN 對(duì)皮膚病變進(jìn)行分類(lèi),在21個(gè)專(zhuān)業(yè)皮膚科醫(yī)生活檢獲得的臨床圖像上,通過(guò)兩個(gè)關(guān)鍵的二元分類(lèi)測(cè)試了癌與脂溢性角化病以及惡性黑色素瘤與皮膚痣。CNN 在這兩個(gè)鑒別診斷上的表現(xiàn)均達(dá)到了所有測(cè)試的專(zhuān)家水平,顯示出AI 能夠?qū)ζつw癌進(jìn)行分類(lèi)。Turkki 等[21]將CNN方法與基于紋理的分類(lèi)以及由兩名病理學(xué)家進(jìn)行的診斷進(jìn)行了比較,結(jié)果表明,在一組123 442 個(gè)標(biāo)記的超像素中,CNN 方法在區(qū)分免疫細(xì)胞豐富和細(xì)胞貧乏區(qū)域方面獲得了0.94(0.92~0.94)的F1 評(píng)分,而通過(guò)基于紋理的分類(lèi)獲得的F1 評(píng)分為0.88(0.87~0.89)。與200 幅圖像的視覺(jué)評(píng)估相比,采用CNN 方法量化免疫浸潤(rùn)的一致性為90%(κ= 0.79),病理學(xué)家之間一致性為90%(κ=0.78)。這些研究表明,這種CNN 方法既減少病理學(xué)家工作量,同時(shí)又增加了診斷的客觀性。
有研究者提出了一種空間約束卷積神經(jīng)網(wǎng)絡(luò)(spatially constrained convolutional neural network,SC-CNN)來(lái)檢測(cè)細(xì)胞核。采用了一種與CNN 結(jié)合的新型鄰近集合預(yù)測(cè)子(neighboring ensemble predictor,NEP),以更準(zhǔn)確地預(yù)測(cè)細(xì)胞核的類(lèi)別,這種檢測(cè)和分類(lèi)方法不需要分割核。大腸腺癌圖像的大型數(shù)據(jù)集評(píng)估結(jié)果表明,與其他方法相比,SC-CNN 和NEP 的聯(lián)合檢測(cè)和分類(lèi)產(chǎn)生的平均F1評(píng)分最高[22]。Korbar 等[23]對(duì)包含2 074 張病理圖像的數(shù)據(jù)集開(kāi)發(fā)了多種深度學(xué)習(xí)方法,包括五種常見(jiàn)類(lèi)型的息肉(即增生型、無(wú)柄鋸齒狀、傳統(tǒng)鋸齒狀、管狀和管狀微管/絨毛狀)。然后在239 張WSI的獨(dú)立測(cè)試集上評(píng)估并測(cè)量了標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)評(píng)估指標(biāo)的準(zhǔn)確性、召回率和F1 得分及其95%置信區(qū)間。評(píng)估表明,殘差網(wǎng)絡(luò)體系結(jié)構(gòu)方法對(duì)WSI的結(jié)直腸息肉分類(lèi)具有最佳性能(總體準(zhǔn)確度:93.0%,95%置信區(qū)間:89.0%~95.9%)。
2015 年,Ronneberger 等[24]在國(guó)際醫(yī)學(xué)影像計(jì)算和計(jì)算機(jī)輔助介入會(huì)議中提出了一種基于全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)改進(jìn)而來(lái)的U-Net。神經(jīng)網(wǎng)絡(luò)因具有的結(jié)構(gòu)和層次不同,在學(xué)習(xí)能力方面表現(xiàn)出差異。一般來(lái)說(shuō)層次的加深與結(jié)構(gòu)的優(yōu)化能夠增強(qiáng)神經(jīng)網(wǎng)絡(luò)的特征性學(xué)習(xí)能力。U-Net 具有對(duì)稱(chēng)的U 型結(jié)構(gòu),這種結(jié)構(gòu)可以將低尺度高分辨率的特征圖與高層次高語(yǔ)義的特征圖的信息充分結(jié)合,可以為后期的分割提供關(guān)于待分割對(duì)象更豐富的高層語(yǔ)義信息[25]?;赨-net 結(jié)構(gòu)的特點(diǎn)是編碼和解碼路徑之間的跳躍連接,并且已有研究證明該結(jié)構(gòu)在各種醫(yī)學(xué)圖像分割任務(wù)中是有效的[26]。本實(shí)驗(yàn)建立U-net 網(wǎng)絡(luò)模型,對(duì)訓(xùn)練集的15 張根尖周囊腫WSI 進(jìn)行訓(xùn)練,得到對(duì)象級(jí)指標(biāo)F1 分?jǐn)?shù)為0.75,結(jié)果表明,像素級(jí)指標(biāo)Dice 系數(shù)為0.685,分割性能較好,對(duì)ROC曲線(xiàn)分析發(fā)現(xiàn)其AUC=0.878>0.85,表明該U-net網(wǎng)絡(luò)模型識(shí)別根尖周囊腫上皮的準(zhǔn)確率很高,其識(shí)別根尖周囊腫的能力很好,能夠進(jìn)行根尖周囊腫病理學(xué)輔助診斷。
【Author contributions】Hao YH performed the experiments andwrote the article.Huang MC, Li M, Tang YL analyzed the data.Liang XH revised the article.All authors read and approved the final manuscript as submitted.