• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度卷積神經(jīng)網(wǎng)絡(luò)的隧道襯砌裂縫識(shí)別算法

      2018-06-28 02:03:18柴雪松朱興永李健超辛學(xué)仕
      鐵道建筑 2018年6期
      關(guān)鍵詞:查全率像素卷積

      柴雪松,朱興永,李健超,薛 峰,辛學(xué)仕

      (1.中國(guó)鐵道科學(xué)研究院集團(tuán)有限公司 鐵道建筑研究所,北京 100081;2.中國(guó)鐵路蘭州局集團(tuán)有限公司 工務(wù)處,甘肅 蘭州 730000;3.北京郵電大學(xué),北京 100876)

      隧道襯砌裂縫會(huì)影響隧道的穩(wěn)定性,嚴(yán)重時(shí)危及列車(chē)運(yùn)行安全,因此必須及時(shí)對(duì)襯砌裂縫進(jìn)行有效識(shí)別。傳統(tǒng)的檢測(cè)方法是以人工目視檢查為主,檢測(cè)效率很低,檢測(cè)質(zhì)量也難以保證。為此,國(guó)內(nèi)外相繼研制了基于圖像處理的隧道襯砌質(zhì)量檢測(cè)系統(tǒng),實(shí)現(xiàn)了對(duì)隧道襯砌圖像的快速采集,并開(kāi)展了裂縫自動(dòng)識(shí)別的研究。中國(guó)鐵道科學(xué)研究院于2017年自主研制了隧道襯砌表面狀態(tài)檢測(cè)系統(tǒng)[1],能以50 km/h的速度采集含1 mm以上襯砌裂縫的圖像,并實(shí)現(xiàn)了對(duì)圖片中襯砌裂縫的快速準(zhǔn)確識(shí)別。本文對(duì)該系統(tǒng)中的襯砌裂縫快速識(shí)別算法予以介紹。

      隧道圖像具有復(fù)雜的特性,既有水漬、污染及其他結(jié)構(gòu)縫的存在,又有光照不均勻、噪聲繁多、分布不規(guī)律的情況。這些都給傳統(tǒng)的圖像處理方法帶來(lái)了發(fā)展瓶頸。近年來(lái)人工智能逐步發(fā)展,其中尤為重要的深度學(xué)習(xí)技術(shù)已經(jīng)全面滲透計(jì)算機(jī)視覺(jué)領(lǐng)域,并且取得了傲人的成績(jī)。本文提出的基于計(jì)算機(jī)視覺(jué)的襯砌裂縫自動(dòng)識(shí)別算法正是將深度學(xué)習(xí)開(kāi)創(chuàng)性地應(yīng)用到傳統(tǒng)的襯砌裂縫識(shí)別領(lǐng)域。這是一種有監(jiān)督的學(xué)習(xí)方式,采用深度卷積神經(jīng)網(wǎng)絡(luò)能夠更好地提取圖像更深層次的特征,能做到在識(shí)別裂縫時(shí)不受或者少受環(huán)境因素干擾。試驗(yàn)表明,這一算法具有很高的識(shí)別率,同時(shí)時(shí)間性能優(yōu)異,應(yīng)用價(jià)值極高。

      1 國(guó)內(nèi)外研究情況

      1.1 基于圖像處理的裂縫檢測(cè)法

      目前,基于圖像處理的裂縫檢測(cè)已經(jīng)取得了很多研究成果。國(guó)外,出現(xiàn)了基于網(wǎng)絡(luò)分析的裂縫檢測(cè)算法和基于最小路徑的裂縫檢測(cè)算法。此類(lèi)方法不適合處理被嚴(yán)重噪聲污染的圖像。FUJITA等[2]提出了一種兩步處理的算法。該算法能有效地去除圖像中不均勻光照、陰影、污點(diǎn)等引起的噪聲。后來(lái),產(chǎn)生了一種利用形態(tài)學(xué)處理和邏輯回歸的統(tǒng)計(jì)學(xué)分類(lèi)的裂縫檢測(cè)算法[3]。該算法對(duì)裂縫提取的精度超過(guò)80%,但是該算法會(huì)漏檢一些細(xì)小的裂縫且計(jì)算量較大,效率低下。國(guó)內(nèi),李剛等[4]提出了一種基于Sobel算子和最大熵法的圖像分割算法,褚燕利[5]提出了一種基于灰度圖像及其紋理特性的裂縫特征提取算法。盧曉霞分析和比較了多種經(jīng)典的算子,王曉明等提出了一種基于多圖像和多分辨率的路面裂縫檢測(cè)方法[6]。該方法使用了圖像融合技術(shù),而且多尺度的方法很好地保存了圖像的集合特性,極大地提高了裂縫檢測(cè)的可靠性和精度。隨著機(jī)器學(xué)習(xí)方法的快速發(fā)展,結(jié)合機(jī)器學(xué)習(xí)方法和圖像處理的裂縫識(shí)別算法不斷涌現(xiàn)。

      1.2 深度學(xué)習(xí)在圖像分類(lèi)中的發(fā)展

      深度學(xué)習(xí)(deep learning)這一概念由Hinton等[7]于2006年提出。首先提出的是自動(dòng)編碼器的多層次結(jié)構(gòu)模型,后來(lái)在限制玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)的基礎(chǔ)上拓展出了深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)。它是一種無(wú)監(jiān)督性逐層訓(xùn)練算法,在優(yōu)化并解決深層結(jié)構(gòu)問(wèn)題方面有很大改善[8]。另外,SERMANET等[9]提出了卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Netwok,CNN)——一個(gè)較為直觀的多層結(jié)構(gòu)網(wǎng)絡(luò)學(xué)習(xí)算法,利用圖像空間信息減少訓(xùn)練參數(shù)數(shù)量從而在提高模型訓(xùn)練性能方面有了很大改善。深度學(xué)習(xí)通過(guò)分層式結(jié)構(gòu)的多層信息處理來(lái)進(jìn)行非監(jiān)督的特征學(xué)習(xí)和圖像分類(lèi),模擬人腦學(xué)習(xí)和分析的能力,形成一個(gè)神經(jīng)網(wǎng)絡(luò)[10-12]結(jié)構(gòu)。它可以像人腦一樣對(duì)外界輸入事物進(jìn)行分析和理解,該網(wǎng)絡(luò)優(yōu)勢(shì)被廣泛應(yīng)用于圖像、文本、聲音等研究領(lǐng)域。

      圖像分類(lèi)是要解決圖片中是否包含某類(lèi)物體的問(wèn)題,對(duì)圖像進(jìn)行特征描述是物體分類(lèi)的主要研究?jī)?nèi)容。一般說(shuō)來(lái),物體分類(lèi)算法通過(guò)手工特征或者特征學(xué)習(xí)方法對(duì)整個(gè)圖像進(jìn)行全局描述,然后使用分類(lèi)器判斷是否存在某類(lèi)物體。應(yīng)用比較廣泛的圖像特征有SIFT,HOG,SURF等。這些對(duì)圖像分類(lèi)的研究中,大多數(shù)特征提取過(guò)程是人工設(shè)計(jì)的,通過(guò)淺層學(xué)習(xí)獲得圖像底層特征,與圖像高級(jí)主題間還存在很大的“語(yǔ)義鴻溝”。而深度學(xué)習(xí)利用設(shè)定好的網(wǎng)絡(luò)結(jié)構(gòu),完全從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)圖像的層級(jí)結(jié)構(gòu)性特征,能夠提取更加接近圖像高級(jí)語(yǔ)義的抽象特征,因此在圖像識(shí)別上的表現(xiàn)遠(yuǎn)遠(yuǎn)超過(guò)傳統(tǒng)方法。

      卷積神經(jīng)網(wǎng)絡(luò)在特征表示上具有極大的優(yōu)越性,模型提取的特征隨著網(wǎng)絡(luò)深度的增加越來(lái)越抽象,越來(lái)越能表現(xiàn)圖像主題語(yǔ)義,不確定性越少,識(shí)別能力越強(qiáng)。AlexNet的成功證明了CNN網(wǎng)絡(luò)能夠提升圖像分類(lèi)的效果,其使用了8層的網(wǎng)絡(luò)結(jié)構(gòu),獲得了2012年ImageNet數(shù)據(jù)集上圖像分類(lèi)的冠軍[13],為訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)模型提供了參考。2014年GoogleNet另辟蹊徑,從設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)的角度來(lái)提升識(shí)別效果[14]。其主要貢獻(xiàn)是設(shè)計(jì)了Inception模塊結(jié)構(gòu)來(lái)捕捉不同尺度的特征,通過(guò)1×1的卷積來(lái)進(jìn)行降維。2014年另外一個(gè)工作是VGG,進(jìn)一步證明了網(wǎng)絡(luò)的深度在提升模型效果方面的重要性[15]。2015年最重要的一篇文章是關(guān)于深度殘差網(wǎng)絡(luò)(ResNet),文章提出了擬合殘差網(wǎng)絡(luò)的方法,能夠做到更好地訓(xùn)練更深層的網(wǎng)絡(luò)[16]。后續(xù)分類(lèi)網(wǎng)絡(luò)的發(fā)展如Google的inception系列,2017年的主流模型比如獲得最佳論文獎(jiǎng)的DenseNet等都借鑒了ResNet的設(shè)計(jì)思想。本文的模型也是基于ResNet的基礎(chǔ)網(wǎng)絡(luò)設(shè)計(jì)的。

      1.3 基于深度學(xué)習(xí)的圖像分割方法

      雖然深度學(xué)習(xí)在圖像分類(lèi)和目標(biāo)檢測(cè)上取得了巨大的進(jìn)步,但仍有人質(zhì)疑深度學(xué)習(xí)在工程中的應(yīng)用效果。因?yàn)樗鼰o(wú)法很好地解決圖像識(shí)別的另一大任務(wù)——圖像分割。圖像分割與圖像分類(lèi)的最大區(qū)別是圖像分割要實(shí)現(xiàn)對(duì)每個(gè)像素的分類(lèi)。而真正解決這一問(wèn)題的是2015年CVPR的一篇圖像語(yǔ)義分割的文章FullyConvolutionalNetworksforSemanticSegmentation,自此以后一系列的用于圖像分割的改進(jìn)神經(jīng)網(wǎng)絡(luò)模型被提出,從FCN,DecovNet,DilatedNet到DeepLab,PSPNet,分割精度進(jìn)一步提升。

      2 算法設(shè)計(jì)與實(shí)現(xiàn)

      針對(duì)文獻(xiàn)[1]中研制的隧道襯砌表面狀態(tài)檢測(cè)系統(tǒng)所獲取的隧道襯砌圖片,建立的襯砌裂縫識(shí)別算法的流程如圖1 所示。

      圖1 襯砌裂縫識(shí)別算法流程

      2.1 超像素分割(Simple Linear Iterative Clustering,SLIC)

      通過(guò)相機(jī)獲取的原始隧道圖片(4 096×4 096)過(guò)于龐大,為便于處理,需要對(duì)其進(jìn)行切分。由于裂縫分布的不均勻性,普通的切分方法極有可能使裂縫出現(xiàn)在切分圖的邊緣,對(duì)后續(xù)的分類(lèi)模型訓(xùn)練造成負(fù)面影響。因此,本文采用SLIC超像素分割方法對(duì)原圖進(jìn)行分割,按照生成的一定數(shù)量的超像素對(duì)原圖進(jìn)行切分。裂縫的形狀多為細(xì)長(zhǎng)形,本文針對(duì)這一特點(diǎn)做了相應(yīng)的算法改進(jìn),同時(shí)也做了大量試驗(yàn)對(duì)SLIC超像素分割進(jìn)行優(yōu)化和加速。該過(guò)程如圖2所示。

      圖2 超像素分割示意

      輸入為一張大圖,經(jīng)過(guò)超像素分割,聚類(lèi)成一定數(shù)量的不規(guī)則圖像塊。經(jīng)過(guò)調(diào)試和一些編程技巧的優(yōu)化后,本文用cuda編程將分割程序運(yùn)行在GPU(Pascal Titan X)上,速度為每張圖片0.05 s,在同樣效果的情況下速度大幅提升。

      大圖中每一個(gè)不規(guī)則像素塊被切分出來(lái)按照一定格式保存,被用于裂縫識(shí)別數(shù)據(jù)集的建立。保存的圖片如圖3所示??梢钥闯?,這些不規(guī)則的像素塊有效地保持了裂縫的形狀,避免了裂縫出現(xiàn)在分割的邊緣處。

      圖3 超像素分割后像素塊形成的圖片

      2.2 數(shù)據(jù)集

      為了解決襯砌裂縫識(shí)別問(wèn)題,本文構(gòu)建了一個(gè)名為CNT的專(zhuān)有數(shù)據(jù)集,包含分類(lèi)子集CLS-CRACK的專(zhuān)用數(shù)據(jù)集和分割子集SEG-CRACK。數(shù)據(jù)集選取3條完整隧道的圖片數(shù)據(jù)作為數(shù)據(jù)源,涵蓋不同路段、不同光照和不同的隧道類(lèi)型。經(jīng)過(guò)龐大的人工清洗和人工標(biāo)注最終生成一個(gè)符合深度學(xué)習(xí)模型訓(xùn)練標(biāo)準(zhǔn)的數(shù)據(jù)集。其中,CLS-CRACK共包含 6 550 張圖像和對(duì)應(yīng)的分類(lèi)標(biāo)注,其中 4 550 張用作訓(xùn)練集,2 000 張用作驗(yàn)證集,正負(fù)樣本比例基本為2∶1。CLS-CRACK數(shù)據(jù)集包括圖像分類(lèi)標(biāo)簽0和1,代表圖片樣本是否含有裂縫。SEG-CRACK數(shù)據(jù)集包含裂縫圖片 2 000 張及其相應(yīng)的分割標(biāo)注,其中訓(xùn)練集 1 700 張,驗(yàn)證集300張。分割標(biāo)注是包圍裂縫的多邊形,通過(guò)圖像處理轉(zhuǎn)化成分割掩碼,用0和1的灰度值代表類(lèi)別。

      2.3 分類(lèi)模型設(shè)計(jì)

      2.3.1 模型細(xì)節(jié)

      一個(gè)完整的分類(lèi)網(wǎng)絡(luò)包括輸入、圖片處理、計(jì)算推理和輸出。在訓(xùn)練階段輸入包括圖像和對(duì)應(yīng)的標(biāo)簽,而在測(cè)試階段輸入只有圖像。模型最終輸出該圖像是否含有裂縫。分類(lèi)模型框架如圖4所示。

      圖4 分類(lèi)模型框架

      為了快速并準(zhǔn)確地對(duì)隧道圖片進(jìn)行裂縫的識(shí)別,本文選擇了速度性能均衡的ResNet18網(wǎng)絡(luò)。

      本文基于caffe深度學(xué)習(xí)框架來(lái)實(shí)現(xiàn),在GPU(Pascal Titan X)上進(jìn)行測(cè)試,一張尺寸300左右的圖片前向與反向計(jì)算的時(shí)間分別是4.48 ms與5.07 ms,速度極快。ResNet18包括18個(gè)卷積層,第1層為7×7的卷積層,最后一層為全連接層,中間為8個(gè)模塊結(jié)構(gòu),每個(gè)模塊結(jié)構(gòu)包括2個(gè)3×3卷積層。網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

      圖5 ResNet18網(wǎng)絡(luò)結(jié)構(gòu)

      2.3.2 模型訓(xùn)練與測(cè)試

      本文使用caffe深度學(xué)習(xí)框架來(lái)進(jìn)行模型訓(xùn)練與測(cè)試,模型訓(xùn)練采用在ImageNet上訓(xùn)練好的分類(lèi)模型繼續(xù)訓(xùn)練。訓(xùn)練參數(shù)的設(shè)置對(duì)于模型訓(xùn)練的效果至關(guān)重要。本文設(shè)置基礎(chǔ)學(xué)習(xí)率為0.001并采用分段式下降策略,圖片批數(shù)量為15,訓(xùn)練100次全數(shù)據(jù),圖片進(jìn)入網(wǎng)絡(luò)前統(tǒng)一縮放至600×600大小,并進(jìn)行減均值除方差操作進(jìn)行歸一化處理。

      模型測(cè)試應(yīng)用了不同的裁切(crop)策略,即對(duì)一張圖先縮放,再?gòu)膱D中crop出一定尺寸大小的圖片。這些圖片經(jīng)過(guò)模型預(yù)測(cè)的結(jié)果綜合起來(lái)能更好地提升準(zhǔn)確率。

      在分類(lèi)任務(wù)中,最常用的性能度量指標(biāo)是錯(cuò)誤率和精度。但是,本項(xiàng)目關(guān)心的是挑出的圖片中有多少是存在裂縫的或者所有存在裂縫的圖片有多少被挑出來(lái)了。此時(shí),查準(zhǔn)率(precision)和查全率(recall)是更為適用于此類(lèi)需求的性能度量指標(biāo)。對(duì)于二分類(lèi)問(wèn)題,根據(jù)真實(shí)類(lèi)別和模型預(yù)測(cè)的類(lèi)別組合可劃分為真正例(TP)、假正例(FP)、真反例(TN)和假反例(FN)4種情形。查準(zhǔn)率P和查全率R分別定義為

      查準(zhǔn)率和查全率是一對(duì)矛盾的度量指標(biāo),很多情況下可根據(jù)模型的預(yù)測(cè)結(jié)果對(duì)樣本進(jìn)行排序,排在最前面的是最有可能為正例的樣本,按照從前往后的順序逐個(gè)把樣本作為正例進(jìn)行預(yù)測(cè),每次可計(jì)算出當(dāng)前的查全率和查準(zhǔn)率,以查準(zhǔn)率為縱軸、查全率為橫軸作圖就得到P-R曲線。本文的試驗(yàn)不僅分析了這些指標(biāo),也在P-R曲線上對(duì)模型效果進(jìn)行了評(píng)估。

      2.4 分割算法設(shè)計(jì)與實(shí)現(xiàn)

      分割網(wǎng)絡(luò)基于ResNet 18與DeepLabv 3分割框架設(shè)計(jì)。分割網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

      圖6 ResNet 18-DeepLabv 3分割網(wǎng)絡(luò)結(jié)構(gòu)

      2.4.1 帶孔卷積

      使用帶孔卷積可以處理任意大小的輸入圖片,將最后一次全局池化的參長(zhǎng)(stride)設(shè)為1,其前面網(wǎng)絡(luò)的下采樣過(guò)程用擴(kuò)散系數(shù)(rate)為2的帶孔卷積來(lái)替代,就能夠直接在原始圖像分辨率大小下獲得特征響應(yīng)。但是這種一直在全分辨率下進(jìn)行計(jì)算的方式無(wú)論在時(shí)間上還是空間上都成本巨大。而根據(jù)FCN-8s最終是對(duì)8倍下采樣的特征圖進(jìn)行8倍雙線性插值得到原始輸入圖片大小的分割預(yù)測(cè)圖??梢栽诘玫?倍下采樣特征圖的后續(xù)網(wǎng)絡(luò)中加入帶孔卷積。這樣既不會(huì)過(guò)多地增大時(shí)間和空間成本,又能對(duì)足夠精確的特征圖進(jìn)一步優(yōu)化。

      根據(jù)空洞卷積原理,對(duì)原始ResNet 18網(wǎng)絡(luò)進(jìn)行了如下改進(jìn):即在第3次下采樣后第4次下采樣網(wǎng)絡(luò)開(kāi)始時(shí),將后續(xù)所有網(wǎng)絡(luò)的卷積層的stride設(shè)為1,同時(shí)添加空洞因子。其中對(duì)于之前的第4次下采樣模型塊rate=2,第5次下采樣rate=4,最后得到8倍下采樣的特征圖,再通過(guò)8倍雙線性插值后就可以得到原始圖片大小的預(yù)測(cè)結(jié)果。

      2.4.2 帶權(quán)重的Softmax Loss函數(shù)

      與常規(guī)的裂縫分割不同,裂縫分割有其數(shù)據(jù)分布的特殊性,裂縫在每張圖片上其像素只占有很小比例,而深度學(xué)習(xí)框架常用的Softmax損失函數(shù)可以看作為一個(gè)平均投票器,這樣就會(huì)導(dǎo)致像素更偏向于被預(yù)測(cè)為非裂縫的背景點(diǎn)。針對(duì)這個(gè)問(wèn)題,修改了Softmax Loss函數(shù),改為帶權(quán)重的Softmax Loss函數(shù),該函數(shù)使有裂縫的像素值位置加權(quán)參與運(yùn)算。該方法有效解決了裂縫數(shù)據(jù)不均衡的問(wèn)題。

      2.4.3 分割模型測(cè)試指標(biāo)

      在深度學(xué)習(xí)語(yǔ)義分割任務(wù)中慣用的評(píng)價(jià)指標(biāo)有像素分類(lèi)準(zhǔn)確率、均交并比(Mean Intersection over Union,MIOU)等。MIOU指的是模型預(yù)測(cè)結(jié)果與“真相”的交并比,是一個(gè)非常嚴(yán)苛的指標(biāo)。在本文中只有一類(lèi)裂縫需要被分割,因此只要計(jì)算裂縫的MIOU即可分析模型的分割效果。

      2.4.4 分割模型閾值選取

      在裂縫分割的過(guò)程中,經(jīng)過(guò)分割網(wǎng)絡(luò)的每個(gè)像素點(diǎn)都會(huì)得到一個(gè)得分。該得分代表著該像素點(diǎn)屬于裂縫的置信度。在判斷像素點(diǎn)是否為裂縫的過(guò)程中可以選取不同的閾值。選取不同閾值,獲得的裂縫分割圖像效果不同,如圖7所示。

      圖7 不同閾值的分割圖像

      從圖7可以看出:閾值選取得越高,越會(huì)導(dǎo)致一些裂縫點(diǎn)被認(rèn)為是背景。為了不損失裂縫信息,在后面的試驗(yàn)分析中將閾值取為0.5。

      3 分類(lèi)試驗(yàn)結(jié)果與分析

      3.1 對(duì)比試驗(yàn)分析

      模型采用的是Softmax分類(lèi)器,最終輸出的是該圖像是否存在裂縫的概率值。試驗(yàn)中,概率值大于0.5則認(rèn)為測(cè)試圖像存在裂縫。本文首先做了單尺度crop(600/600)試驗(yàn),模型精度為0.927,查準(zhǔn)率和查全率分別為0.545和0.800。以此作為基準(zhǔn)試驗(yàn),做了三組對(duì)比試驗(yàn)。試驗(yàn)參數(shù)及結(jié)果見(jiàn)表1。

      表1 分類(lèi)模型性能測(cè)試對(duì)比試驗(yàn)參數(shù)及結(jié)果

      從表1中可以看出:試驗(yàn)2比試驗(yàn)1在精度,查準(zhǔn)率和查全率方面都有所提升,原因是一張圖片crop出多個(gè)子圖片,模型對(duì)這些子圖片都進(jìn)行判別,再綜合考慮所有的結(jié)果最后對(duì)一張測(cè)試圖像給出結(jié)果。試驗(yàn)3與試驗(yàn)2對(duì)比,不同之處在于模型的最終結(jié)果不根據(jù)多張子圖片的結(jié)果綜合打分,而是找出其中概率最大的結(jié)果。依據(jù)是,在更關(guān)注查全率的前提下隧道圖片正樣本較少,且裂縫為細(xì)長(zhǎng)形不容易被發(fā)現(xiàn),一旦在某個(gè)狀態(tài)下被確定為裂縫則就認(rèn)為它存在裂縫,這樣能提高查全率。經(jīng)過(guò)分析,試驗(yàn)2的multi-crop策略能有效提升模型精度,因此在搭建級(jí)聯(lián)網(wǎng)絡(luò)時(shí)采取試驗(yàn)2的參數(shù)。

      3.2 P-R曲線分析

      P-R圖直觀地顯示出分類(lèi)器模型在測(cè)試樣本總體上的查全率和查準(zhǔn)率,能通過(guò)曲線的分布情況與曲線下的面積來(lái)比較分類(lèi)器的性能。3次試驗(yàn)的P-R曲線見(jiàn)圖8。

      圖8 分類(lèi)模型性能測(cè)試對(duì)比試驗(yàn)P-R曲線分析

      從圖8中可以看出:試驗(yàn)2和試驗(yàn)3的P-R曲線基本能完全包住試驗(yàn)1的曲線,即試驗(yàn)2、試驗(yàn)3的查準(zhǔn)率和查全率都要高于試驗(yàn)1。多尺度crop的技巧對(duì)于提高模型性能具有良好的效果。試驗(yàn)2和試驗(yàn)3的曲線存在交疊,模型性能較難評(píng)估。雖然表1表明在相同得分閾值下,試驗(yàn)3的查全率要高于試驗(yàn)2,但試驗(yàn)2的曲線下方面積比試驗(yàn)3大,試驗(yàn)2曲線取得查準(zhǔn)率和查全率雙高點(diǎn)的可能性要大于試驗(yàn)3曲線。因此,通過(guò)分析P-R曲線不僅能夠評(píng)估模型性能,還能根據(jù)不同的任務(wù)需求尋找最合適的得分閾值。在裂縫分類(lèi)任務(wù)及后面的試驗(yàn)中,默認(rèn)閾值為0.5。

      4 分割試驗(yàn)結(jié)果與分析

      4.1 對(duì)比試驗(yàn)分析

      用SEG-CRACK的驗(yàn)證集共300張圖片進(jìn)行模型的測(cè)試,進(jìn)行了多組試驗(yàn)與baseline對(duì)比來(lái)分析MIOU,結(jié)果見(jiàn)表2。

      表2 分割模型性能測(cè)試結(jié)果對(duì)比

      4.2 可視化結(jié)果分析

      裂縫分割優(yōu)化結(jié)果見(jiàn)圖9??煽闯龇指顑?yōu)化后圖像與標(biāo)注圖像非常吻合。

      圖9 裂縫分割優(yōu)化結(jié)果展示

      5 結(jié)論與展望

      本文提出了一個(gè)基于深度學(xué)習(xí)的襯砌裂縫識(shí)別算法,針對(duì)隧道圖片特征分析并優(yōu)化了SLIC超像素分割算法,構(gòu)建了一個(gè)用于襯砌裂縫分析的數(shù)據(jù)集CLS-CRACK。在此基礎(chǔ)上,設(shè)計(jì)分類(lèi)網(wǎng)絡(luò)ResNet 18,用caffe深度學(xué)習(xí)框架進(jìn)行模型訓(xùn)練與優(yōu)化。最后,將訓(xùn)練好的模型在驗(yàn)證集上進(jìn)行性能分析。試驗(yàn)結(jié)果表明,該模型在CLS-CRACK數(shù)據(jù)集上表現(xiàn)良好,模型識(shí)別正確率94%,能夠快速準(zhǔn)確地實(shí)現(xiàn)裂縫的識(shí)別。完成裂縫識(shí)別后,用ResNet 18網(wǎng)絡(luò)參考DeepLabv 3框架搭建裂縫分割網(wǎng)絡(luò),針對(duì)裂縫分割問(wèn)題作了諸多調(diào)整改進(jìn)使得模型收斂,且做了大量的試驗(yàn)來(lái)優(yōu)化分割模型,最終在分割驗(yàn)證集上MIOU達(dá)到65%。

      通過(guò)進(jìn)一步收集現(xiàn)場(chǎng)圖片并不斷完善模型,本文的研究成果在鐵路襯砌裂縫檢測(cè)中可以發(fā)揮積極作用。

      [1]柴雪松,李健超.基于圖像識(shí)別技術(shù)的隧道襯砌裂縫檢測(cè)系統(tǒng)研究[J].鐵道建筑,2018,58(1):20-24.

      [2]FUJITA Y,MITANI Y,HAMAMOTO Y.A Method for Crack Detection On A Concrete Structure[C]//Pattern Recognition,the 18th Internation Conference.IEEE,2006.

      [3]LANDSTROM A,THURLEY M J.Morphology-based Crack Detection For Steel Slabs[J].Selected Topics in Signal Processing,IEEE Journal,2012,6(7):866-875.

      [4]李剛,賀昱曜.不均勻光照的路面裂縫檢測(cè)和分類(lèi)新方法[J].光子學(xué)報(bào),2010,39(8):1405-1408.

      [5]褚燕利.基于灰度圖像及其紋理特性的裂縫特征提取[J].公路,2010,7(7):131-136.

      [6]盧曉霞.基于圖像處理的混凝土裂縫寬度檢測(cè)技術(shù)的研究[D].電子科技大學(xué),2010.

      [7]HINTON G E,SALAKHUTDINOV R R.Reducing the Dimensionality of Data with Neural Networks[J].Science,2006,313(7):504-507.

      [8]BENGIO Y,COURVILLE A,VINCENT P.Representation Learning:A Review and New Perspectives[J].Pattern Analysis and Machine Intelligence,IEEE Transactions,2013,35(8):1798-1828.

      [9]SERMANET P,CHINTALA S,LECUN Y.Convolutional Neural Networks Applied to House Numbers Digit Classification[C]Pattern Recognition,the 21st International Conference.IEEE,2012.

      [10]BENGIO Y.Deep Learning[M].Massachusetts:MIT Press,2015.

      [11]AGATONOVIC-KUSTRIN S,BERESFORD R.Basic Concepts of Artificial Neural Network (ANN) Modeling and Its Application in Pharmaceutical Research[].Journal of Pharmaceutical and Biomedical Analysis,2000,22(5):717-727.

      [12]BENGIO Y.Learning Deep Architectures for AI[J].Foundations and Trends in Machine Learning,2009,2(1):1-127.

      [13]KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet Classification with Deep Convolutional Neural Networks[J].Neural Information Processing Systems,2012,1-9.

      [14]SZEGEDY C,LIU W,JIA Y,et al.Going Deeper with Convolutions[J].Computer Vision and Pattern Recognition,2015,1-9.

      [15]SIMONYAN K,ZISSERMAN A.Very Deep Convolutional Networks for Large-scale Image Recognition[C]//the International Conference on Learning Representations,2015.

      [16]HE K,ZHANG X Y,REN S Q,et al.Deep Residual Learning for Image Recognition[J].Computer Vision and Pattern Recognition,2015(12):1-9.

      猜你喜歡
      查全率像素卷積
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      “像素”仙人掌
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      海量圖書(shū)館檔案信息的快速檢索方法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于詞嵌入語(yǔ)義的精準(zhǔn)檢索式構(gòu)建方法
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
      丁青县| 瑞丽市| 太谷县| 克什克腾旗| 景谷| 文成县| 望城县| 临泉县| 台南市| 临沭县| 临猗县| 高青县| 崇文区| 桑植县| 定兴县| 长垣县| 洛阳市| 沾化县| 大宁县| 寿宁县| 黑河市| 嘉荫县| 清流县| 讷河市| 三门县| 铜梁县| 略阳县| 甘洛县| 桃园县| 新乐市| 织金县| 茶陵县| 双流县| 扬中市| 神木县| 衢州市| 搜索| 巴林右旗| 泊头市| 黔东| 华亭县|