關(guān)鍵詞:OCT 圖像;超分辨率;生成對(duì)抗網(wǎng)絡(luò);遷移學(xué)習(xí);金字塔注意力
中圖分類號(hào):TP 391 文獻(xiàn)標(biāo)志碼:A
引言
隨著光學(xué)相干斷層掃描( optical coherencetomography,OCT)技術(shù)的進(jìn)步,以及硬件系統(tǒng)的更迭,可捕獲到的視網(wǎng)膜圖像的視野范圍更為廣泛,但采集到的圖像中會(huì)不可避免地出現(xiàn)噪聲和偽影。如果要降低采集過程中的運(yùn)動(dòng)偽影,則需要更長的采集時(shí)間,這會(huì)導(dǎo)致患者不適。然而,提高采集系統(tǒng)的速度往往又會(huì)降低軸向分辨率[1],使得采集到的視網(wǎng)膜圖像的細(xì)節(jié)信息損失加重。為了給臨床醫(yī)生提供清晰的OCT 視網(wǎng)膜圖像,減少誤診和漏診,有必要采用超分辨率的方法對(duì)圖像進(jìn)行重建 [2]。近年來,圖像的超分辨率方法已經(jīng)得到了廣泛的研究。傳統(tǒng)的基于深度神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)[3]的模型利用卷積運(yùn)算代替?zhèn)鹘y(tǒng)的手動(dòng)特征提取,但這些模型的網(wǎng)絡(luò)太小,并且在學(xué)習(xí)過程中使用的像素范圍太小,從而導(dǎo)致重建輸出的圖像過于平滑。Ledig 等[4] 提出了一種用于超分辨率的生成對(duì)抗網(wǎng)絡(luò),即漸進(jìn)式超分辨率生成對(duì)抗網(wǎng)絡(luò)(progressive super-resolution generative" adversarialnetwork,PSRGAN),并將其應(yīng)用于醫(yī)學(xué)圖像來提高超分圖像質(zhì)量,恢復(fù)細(xì)節(jié)。
由于受到圖像數(shù)據(jù)集大小及醫(yī)學(xué)倫理的限制,深度網(wǎng)絡(luò)模型應(yīng)用于醫(yī)學(xué)圖像時(shí),其學(xué)習(xí)能力無法得到充分地訓(xùn)練。解決訓(xùn)練數(shù)據(jù)缺乏問題的主要方法是使用遷移學(xué)習(xí)[5]。根據(jù)遷移形式,遷移學(xué)習(xí)算法可分為4 種,分別為基于樣本、特征、模型或關(guān)系的知識(shí)遷移學(xué)習(xí)。為了解決加速M(fèi)RI 深度網(wǎng)絡(luò)訓(xùn)練中的數(shù)據(jù)稀缺問題,Dar等[6] 提出將遷移學(xué)習(xí)用于深度學(xué)習(xí)中,Lv等[7]探索了基于并行成像與GAN模型和遷移學(xué)習(xí)相結(jié)合的新應(yīng)用,從而提高了重建性能。將遷移學(xué)習(xí)引入醫(yī)學(xué)圖像處理的過程中還需要對(duì)使用的數(shù)據(jù)集進(jìn)行比較研究,以確定選擇的數(shù)據(jù)集類型對(duì)重建結(jié)果質(zhì)量的影響[8-9]。
作者提出了使用PSRGAN 和遷移學(xué)習(xí)來獲得高分辨率OCT 視網(wǎng)膜圖像的設(shè)想。結(jié)合了基于模型的遷移學(xué)習(xí)方法,利用來自不同領(lǐng)域的大型圖像數(shù)據(jù)在使用OCT 圖像數(shù)據(jù)訓(xùn)練之前進(jìn)行預(yù)訓(xùn)練[10]。遷移訓(xùn)練的主要目的是為了解決高質(zhì)量OCT 數(shù)據(jù)集樣本數(shù)不足的問題,借助另一個(gè)領(lǐng)域的大量圖像樣本執(zhí)行預(yù)訓(xùn)練,并使用該預(yù)訓(xùn)練獲得的權(quán)重作為實(shí)際訓(xùn)練過程的初始權(quán)重[11-12],這有助于模型在目標(biāo)域內(nèi)更快地收斂。本文中的遷移學(xué)習(xí)方法是對(duì)整個(gè)模型,即所有的層進(jìn)行了預(yù)訓(xùn)練。為了使本文的超分網(wǎng)絡(luò)訓(xùn)練收斂更快,在提出的PSRGAN 中添加了高效金字塔通道注意力(pyramid efficient channel attention" ,PECA)模塊,使模型更加輕量化。
1實(shí)驗(yàn)方法與原理
OCT圖像超分辨率重建分為4 個(gè)步驟:(1)預(yù)處理圖像,對(duì)采集到的OCT圖像進(jìn)行裁剪,裁剪OCT圖像的空白區(qū)域,填充邊緣空白區(qū)域;(2)劃分?jǐn)?shù)據(jù)集,將通過預(yù)處理后的OCT圖像劃分為訓(xùn)練集與測試集;(3)模型訓(xùn)練,將預(yù)處理過后的OCT 圖像導(dǎo)入訓(xùn)練模型中進(jìn)行下采樣操作,訓(xùn)練模型的特征提取能力;(4)超分辨率重建,最終利用訓(xùn)練好的模型對(duì)測試集的圖像進(jìn)行重建,測試模型的性能。
本研究中提出的超分辨率生成對(duì)抗模型PSRGAN是對(duì)SRGAN進(jìn)行了改進(jìn)。為了提高特征提取性能,獲得高分辨率OCT圖像,將本文提出的高效金字塔通道注意力PECA模塊引入到SRGAN網(wǎng)絡(luò)[13]。針對(duì)低分辨率OCT圖像感知質(zhì)量差的特點(diǎn),在SRGAN生成器的第4和第5卷積塊之間插入PECA,使提取圖像具有更多的高頻特征,增強(qiáng)特征的表現(xiàn)力,有助于紋理細(xì)節(jié)的重建。
1.1改進(jìn)的超分辨率重建網(wǎng)絡(luò)的構(gòu)建
在PSRGAN 中, 首先把低分辨率( lowresolution,LR)訓(xùn)練圖像中采樣到的噪聲特征發(fā)送到生成器,以生成類似于輸入的高分辨率( high resolution, HR) 圖像的假樣本。同時(shí),HR 訓(xùn)練樣本也作為真實(shí)樣本發(fā)送給判別器,并且讓判別器試圖區(qū)分假樣本和真實(shí)樣本的HR 之間的差異。生成器的目標(biāo)是連續(xù)產(chǎn)生盡可能接近真實(shí)樣本的高分辨率圖像,直到所產(chǎn)生的超分辨率圖像能夠欺騙判別器。判別器和生成器最終在相互博弈中實(shí)現(xiàn)平衡,這時(shí)候的生成器就可以產(chǎn)生高質(zhì)量的重建圖像。其中,通過添加PECA模塊,PSRGAN 可以生成更接近于HR 圖像的紋理細(xì)節(jié),圖像邊緣也更加清晰[14]。PSRGAN的結(jié)構(gòu)如圖1所示。
1.2高效金字塔通道注意力模塊
本文提出使用PECA模塊來有效地建立多尺度特征提取通道,將其添加在生成對(duì)抗網(wǎng)絡(luò)的生成器中的第4 卷積塊和第5 卷積塊之間,可以更有效地處理多尺度的輸入特征圖的空間信息。在之前的工作中[16],已經(jīng)提出將PECA模塊用于改進(jìn)PSANet 網(wǎng)絡(luò)。較其他注意力機(jī)制,PECA模塊是將PSANet 中的SENet 替換成了高效通道注意力(efficient channel attention,ECA)模塊,更加輕量化且高效。ECA 模塊可以提取不同尺度特征圖的通道注意力,同時(shí)以極輕量的方式獲取跨通道的交互信息[17]。PECA模塊結(jié)構(gòu)如圖3所示。
PECA模塊實(shí)現(xiàn)過程:首先使用分割和融合(split and concat,SPC)模塊將通道進(jìn)行拆分,提取每個(gè)通道特征圖上的多尺度空間信息;然后用ECA 模塊替換原始PSANet 中的SENet模塊,更高效的計(jì)算不同尺度特征圖的通道注意力;再利用Softmax對(duì)多尺度通道注意力向量的特征進(jìn)行標(biāo)定,獲得新的多尺度通道交互之后的注意力權(quán)重;最后對(duì)新獲取的權(quán)重和對(duì)應(yīng)的特征圖進(jìn)行逐元素點(diǎn)乘操作,得到一個(gè)多尺度特征信息注意力加權(quán)的特征圖。
為了避免維度縮減,并降低模型的復(fù)雜度,在不同尺度上分別采用了ECA模塊。ECA模塊的實(shí)現(xiàn)如圖4所示。首先,對(duì)每個(gè)通道的特征圖進(jìn)行全局平均池化;接著,快速通過大小為k的一維卷積層,其中k代表局部跨通道交互的覆蓋范圍,輸出經(jīng)過局部跨通道交互后的特征。ECA模塊可以自適應(yīng)地確定k 近鄰?fù)ǖ纴硗瓿赏ǖ雷⒁饬Φ挠?jì)算,其中k與C(C為通道數(shù))成比例。
1.3 PSRGAN模型結(jié)合遷移學(xué)習(xí)方法
要在深度學(xué)習(xí)方法中取得良好的性能,合理的訓(xùn)練數(shù)據(jù)量是必不可少的。然而,醫(yī)學(xué)領(lǐng)域中可用于處理和分析研究的OCT 視網(wǎng)膜圖像數(shù)量有限[18]。當(dāng)面臨相對(duì)有限的訓(xùn)練數(shù)據(jù)時(shí),遷移學(xué)習(xí)是一種高效的學(xué)習(xí)方法。
相較于其他大多數(shù)學(xué)習(xí)模型,遷移學(xué)習(xí)是利用卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)已標(biāo)記好的預(yù)訓(xùn)練網(wǎng)絡(luò)系統(tǒng)[19]。該系統(tǒng)會(huì)識(shí)別預(yù)訓(xùn)練系統(tǒng)中圖像的特點(diǎn),再繼續(xù)導(dǎo)入含有第一層圖像相似參數(shù)和結(jié)構(gòu)的網(wǎng)絡(luò)系統(tǒng),最后構(gòu)建出終極層。在本文的遷移學(xué)習(xí)系統(tǒng)中:第一層網(wǎng)絡(luò)就是學(xué)習(xí)的目標(biāo)圖像;第二層網(wǎng)絡(luò)使用第一層網(wǎng)絡(luò)的圖像尋找相應(yīng)的特征,通過前向傳播固定低層圖像中的權(quán)重,找到已經(jīng)學(xué)習(xí)的可辨別的結(jié)構(gòu)特點(diǎn),再提取更高層的權(quán)重,進(jìn)行反復(fù)的自調(diào)整、反饋和傳遞,達(dá)到學(xué)習(xí)區(qū)分特定類型圖像的目的[20]。
在本研究中,OCT視網(wǎng)膜圖像超分辨率重建受到數(shù)據(jù)集大小的限制,提出遷移開源的X 光照片數(shù)據(jù)集和天然花卉數(shù)據(jù)集的訓(xùn)練權(quán)重去促進(jìn)深層神經(jīng)網(wǎng)絡(luò)PSRGAN快速學(xué)習(xí)和收斂。將X 射線數(shù)據(jù)集或花卉數(shù)據(jù)集與OCT視網(wǎng)膜數(shù)據(jù)集共同進(jìn)行訓(xùn)練,增加訓(xùn)練的數(shù)據(jù)樣本,使計(jì)算機(jī)更好地學(xué)習(xí)訓(xùn)練,繼而達(dá)到更精確的重建目標(biāo)。本實(shí)驗(yàn)評(píng)估了使用遷移學(xué)習(xí)方法對(duì)最終生成圖像的影響,比較了本文提出的方法與其他超分辨率方法重建OCT 視網(wǎng)膜圖像的性能參數(shù)。兩個(gè)預(yù)訓(xùn)練數(shù)據(jù)集的選?。阂粋€(gè)屬于醫(yī)學(xué)領(lǐng)域X 射線數(shù)據(jù)集,呈現(xiàn)出與OCT 視網(wǎng)膜圖像相似的視覺特征;另一個(gè)數(shù)據(jù)集(花卉數(shù)據(jù)集)屬于完全不同的領(lǐng)域,與OCT 視網(wǎng)膜圖像幾乎沒有視覺上的相似性。目的是評(píng)估使用遷移學(xué)習(xí)方法是否能幫助重建出更好的圖像結(jié)果,以及在預(yù)訓(xùn)練步驟中使用不合適的數(shù)據(jù)集是否會(huì)干擾模型的收斂。
2實(shí)驗(yàn)結(jié)果和分析
本文實(shí)驗(yàn)在上述3個(gè)數(shù)據(jù)集上進(jìn)行,主要分為4個(gè)步驟:(1)圖像數(shù)據(jù)集采集和處理,對(duì)數(shù)據(jù)集中的圖像進(jìn)行初步的圖像篩選與裁剪,將處理后的OCT 圖像劃分為訓(xùn)練集與測試集;( 2) 搭建模型, 生成3個(gè)PSRGAN模型, 第1 個(gè)是隨機(jī)初始化權(quán)重的PSRGAN模型,第2、3 個(gè)分別是通過遷移學(xué)習(xí)方法獲得預(yù)先用胸部X 光片和花卉數(shù)據(jù)集訓(xùn)練的初始權(quán)值作為PSRGAN網(wǎng)絡(luò)訓(xùn)練權(quán)值的PSRGAN–TL–X-ray模型和PSRGAN–TL–Flowers模型;(3)訓(xùn)練模型并測試,使用OCT視網(wǎng)膜圖像訓(xùn)練集來訓(xùn)練搭好的3個(gè)PSRGAN模型,以及SRGAN模型和SRCNN模型,再用測試集測試的結(jié)果來評(píng)估這5 種模型的性能。
2.1 數(shù)據(jù)集和實(shí)驗(yàn)設(shè)置
在本實(shí)驗(yàn)中,運(yùn)用PSRGAN網(wǎng)絡(luò)和遷移學(xué)習(xí)的方法對(duì)眼科的臨床數(shù)據(jù)進(jìn)行圖像超分辨率重建處理,用到了3個(gè)數(shù)據(jù)集。第1個(gè)數(shù)據(jù)集是由溫州醫(yī)科大學(xué)利用醫(yī)用OCT 設(shè)備采集的眼科視網(wǎng)膜圖像的臨床數(shù)據(jù),將其劃分為1000張圖像的訓(xùn)練集和50張圖像的測試集進(jìn)行實(shí)驗(yàn)。為了比較遷移學(xué)習(xí)中采用的大型訓(xùn)練數(shù)據(jù)集的類型對(duì)OCT圖像重建結(jié)果的影響,本文選擇了兩種類型的數(shù)據(jù)集。一個(gè)是醫(yī)學(xué)領(lǐng)域中公開的胸部X 光片數(shù)據(jù)集,包含5856張X 光片圖像(https://data.mendeley.com/datasets/rscbjbr9sj/2),有肺炎/正常類別的子文件夾,將5000張用于訓(xùn)練,856 張用于測試。胸部X 光片圖像的超分重建研究也十分廣泛[21],與OCT圖像同樣屬于醫(yī)學(xué)灰度圖像,因此選擇它作為實(shí)驗(yàn)中預(yù)訓(xùn)練的數(shù)據(jù)集。另一個(gè)數(shù)據(jù)集選擇的是花卉數(shù)據(jù)集,其中含有102個(gè)花卉數(shù)據(jù)集( https://www.robots.ox.ac.uk/~vgg/data/flowers/102/),由3670張花卉圖像組成。由于花卉圖像細(xì)節(jié)豐富,邊緣感信息容易被提取,作為預(yù)訓(xùn)練數(shù)據(jù)集可以幫助網(wǎng)絡(luò)學(xué)習(xí)重建豐富的特征信息。將花卉圖像周圍的黑色邊框移除,并劃分3000張用于訓(xùn)練,670張用于測試。所有數(shù)據(jù)集的圖例見圖5。
實(shí)驗(yàn)基于Nvidia Tesla P100顯卡,深度學(xué)習(xí)框架為Pytorch 的實(shí)驗(yàn)平臺(tái)。受GPU內(nèi)存的限制,用于實(shí)驗(yàn)的原始圖像都被裁剪成128×128(高×寬)大小。在訓(xùn)練過程中,選取Adam作為優(yōu)化器,每批次訓(xùn)練數(shù)量大小為4,優(yōu)化器初始學(xué)習(xí)率均設(shè)置為2×10?4。5種模型訓(xùn)練OCT圖像數(shù)據(jù)集的最大周期均為100,遷移學(xué)習(xí)過程中的PSRGAN模型的預(yù)訓(xùn)練周期為1000。
式中:I為模型訓(xùn)練獲得的高分辨率圖像;O為高分辨率真實(shí)圖像。
2.3實(shí)驗(yàn)結(jié)果
在本實(shí)驗(yàn)中,對(duì)比了PSRGAN模型使用和不使用PECA 模塊的效果,比較了深度學(xué)習(xí)方法SRCNN, SRGAN, PSRGAN, PPECA–SRGAN, PSRGAN–TL–X-ray 和PSRGAN–TL–Flowers 對(duì)OCT視網(wǎng)膜圖像超分辨率重建結(jié)果,使用了上節(jié)提到的3個(gè)圖像質(zhì)量評(píng)價(jià)指標(biāo)來評(píng)估最終的測試結(jié)果。
表1是PSRGAN模型使用/不使用PECA注意力機(jī)制在測試集上的評(píng)價(jià)指標(biāo)對(duì)比,可以看出,添加注意力模塊后PSNR,SSIM和EPI 等指標(biāo)值都更高,這與圖6 展示的視覺效果圖相吻合。因此使用注意力機(jī)制有助于提升圖像細(xì)節(jié)和邊緣信息重建效果。
圖7是PSRGAN模型使用/不使用PECA注意力機(jī)制實(shí)驗(yàn)結(jié)果對(duì)比展示。為了更加準(zhǔn)確地對(duì)比重建圖像的細(xì)節(jié)信息,將圖像中標(biāo)記為矩形的區(qū)域放大,其放大結(jié)果見圖7(b)??梢钥闯鎏砑幼⒁饬δK后的結(jié)果在圖像邊緣和分層邊緣結(jié)構(gòu)處變得更加清晰,從視覺效果來看,基本上消除了斑點(diǎn)噪聲,重建圖像在視覺上更加接近于無噪圖像。
總的來說,遷移學(xué)習(xí)訓(xùn)練的PSRGAN 模型具有更好的指標(biāo)平均值,通過遷移學(xué)習(xí)得到的PSRGAN 模型的優(yōu)越性是顯而易見的。因?yàn)榛ɑ軘?shù)據(jù)集的細(xì)節(jié)和邊緣信息的結(jié)構(gòu)更清楚,網(wǎng)絡(luò)學(xué)習(xí)能力得到充分的訓(xùn)練,使得PSRGAN–TL–Flowers 方法在所有評(píng)價(jià)指標(biāo)上都取得最優(yōu)的效果。
圖7是從測試集中選擇的一張重建圖像(×4),為了進(jìn)一步對(duì)比各方法的細(xì)節(jié)信息保留能力,在原始HR 圖像和SR 圖像之間,聚焦于相同的區(qū)域?qū)Ρ炔町?,將圖像中標(biāo)記為白色矩形的區(qū)域放大。就整體視覺效果而言, 通過SRGAN 模型獲得的圖像的視覺質(zhì)量的提高程度是十分明顯的,而SRCNN模型在病變區(qū)域的細(xì)節(jié)上有一些模糊。所提出的PSRGAN方法優(yōu)于SRGAN和SRCNN,其生成圖像質(zhì)量更優(yōu)??梢钥闯?,PSRGAN模型產(chǎn)生的圖像在視覺上與原始圖像非常相似,幾乎無明顯差異,而PSRGAN–TL–Flowers可以產(chǎn)生相對(duì)干凈和銳利的邊緣,并且能夠準(zhǔn)確地重建圖像的紋理。
圖8是本實(shí)驗(yàn)提出的遷移學(xué)習(xí)訓(xùn)練后的PSRGAN模型(PSRGAN–TL–Flowers)進(jìn)行訓(xùn)練的過程中隨機(jī)選擇的一幅圖像展示。通過圖像可以看到:訓(xùn)練50 epoch時(shí),圖像噪點(diǎn)變少;訓(xùn)練100 epoch時(shí),圖像不僅噪點(diǎn)變少,邊緣細(xì)節(jié)更加清晰,也更加接近原始的HR真實(shí)圖像。PSNR、SSIM 和EPI值也隨周期的疊加而上升。因此,隨著訓(xùn)練周期的增加,模型生成的圖像質(zhì)量更高并且更真實(shí)。
2.4重建圖像層次自動(dòng)分割結(jié)果
OCT視網(wǎng)膜圖像的病理學(xué)結(jié)構(gòu)信息對(duì)眼部疾病檢測診斷來說至關(guān)重要,層次分割有助于自動(dòng)化OCT 圖像診斷。一般來說,LR圖像中存在的噪聲和偽影會(huì)導(dǎo)致圖像質(zhì)量低,細(xì)節(jié)和邊緣結(jié)構(gòu)不清晰,層次分割結(jié)果不準(zhǔn)確,從而影響臨床診斷的效率。超分辨率重建算法處理后的OCT視網(wǎng)膜圖像不僅要保留重要的細(xì)節(jié)信息,也應(yīng)該讓層次分割更加清晰。為了驗(yàn)證算法處理后的圖像質(zhì)量是有所提升的,從實(shí)驗(yàn)的測試數(shù)據(jù)集中隨機(jī)選擇了兩張圖像,使用公開的針對(duì)視網(wǎng)膜OCT圖像進(jìn)行層次分割的工具對(duì)圖像進(jìn)行自動(dòng)分割處理。截取放大各方法重建圖像的部分區(qū)域,分割結(jié)果如圖9 所示。在所有的分割結(jié)果中,原始LR 圖像和SRCNN方法中的分割線存在交錯(cuò)和跨越情況,SRGAN、PSRGAN中的分割線均比較平緩,而本文所提的PSRGAN–TL–X-ray和PSRGAN–TL–Flowers方法所重建圖像中的分割結(jié)果相較而言更優(yōu)。
3結(jié)論
提出了使用改進(jìn)的PSRGAN模型來改善OCT視網(wǎng)膜圖像,將PSRGAN模型在大型數(shù)據(jù)集上訓(xùn)練的模型參數(shù)遷移到OCT視網(wǎng)膜圖像超分辨率重建訓(xùn)練中,該網(wǎng)絡(luò)能有效減少OCT圖像中的斑點(diǎn)噪聲,捕捉更多邊緣細(xì)節(jié)和圖像特征。對(duì)比了5種超分辨率重建方法(包括使用和不使用遷移學(xué)習(xí)的方法),評(píng)估了遷移學(xué)習(xí)方法的使用效果,證明了改進(jìn)的GAN網(wǎng)絡(luò)(PSRGAN)對(duì)花卉圖像進(jìn)行逐像素特征重建的優(yōu)異性能,以及通過遷移學(xué)習(xí)適應(yīng)OCT-B掃描圖像重建的潛力??偟膩碚f,與傳統(tǒng)的超分辨率重建方法( SRCNN, SRGAN)相比, 生成對(duì)抗網(wǎng)絡(luò)(PSRGAN)能得到較好的結(jié)果,但結(jié)合遷移學(xué)習(xí)的PSRGAN方法重建的超分圖像質(zhì)量更佳。在兩種結(jié)合遷移學(xué)習(xí)的方法中,使用高清花卉數(shù)據(jù)集進(jìn)行遷移訓(xùn)練得到的重建效果最優(yōu)。基于本文給出的結(jié)果和分析,應(yīng)用于遷移學(xué)習(xí)方法的預(yù)訓(xùn)練數(shù)據(jù)集的類型會(huì)影響OCT 圖像的超分效果,數(shù)據(jù)集的選擇應(yīng)該考慮圖像細(xì)節(jié)和層次的清晰度,而不僅僅是數(shù)據(jù)集的大小和領(lǐng)域。本文重點(diǎn)是提高OCT 視網(wǎng)膜圖像分辨率,增強(qiáng)視網(wǎng)膜層邊緣和細(xì)節(jié),所以在本文預(yù)訓(xùn)練中使用邊緣和細(xì)節(jié)模糊的圖像可能會(huì)對(duì)遷移學(xué)習(xí)產(chǎn)生負(fù)面影響。
本文提出的超分辨率重建算法有效地提高了OCT視網(wǎng)膜圖像的質(zhì)量,從而能更好地幫助臨床診斷,減少誤診和漏診,具有一定的價(jià)值和意義。