樓豪杰,鄭元林*,廖開陽,雷浩,李佳
(1.西安理工大學印刷包裝與數(shù)字媒體學院,西安 710048;2.陜西省印刷包裝工程重點實驗室,西安 710048)
印刷品缺陷檢測是印刷生產(chǎn)中一項重要的生產(chǎn)流程。一方面,人工缺陷檢測主觀性較強,長時間的缺陷檢測工作會產(chǎn)生視覺疲勞現(xiàn)象,降低質(zhì)檢員對印刷缺陷判斷的準確性;另一方面,人工質(zhì)檢投入成本高,缺陷檢測不連續(xù)。傳統(tǒng)人工質(zhì)檢方法的諸多弊端已經(jīng)不能適應現(xiàn)代化工業(yè)生產(chǎn)發(fā)展,因此開發(fā)新的算法并進行應用顯得尤為重要。在以往的研究中,紅外探測技術(shù)[1]、電磁超聲[2]檢測技術(shù)得到了較早的應用,但這些技術(shù)所需的設備門檻高,不能得到廣泛的應用。隨著圖像處理技術(shù)的發(fā)展,機器視覺的缺陷檢測方法逐步登上舞臺,但由于人工設計特征耗時費力,基于深度學習的缺陷檢測方法應運而生。本文的研究就是使用深度學習的方法對印刷品缺陷圖像進行缺陷的定位與識別。
傳統(tǒng)的人工缺陷檢測效率低下,嚴重的還會造成漏檢和誤檢,給印刷生產(chǎn)帶來了諸多負面效應。因此國內(nèi)外專家學者致力于機器質(zhì)檢的研究,在基于計算機視覺的缺陷檢測方面,如:Li 等[3]提出了一種能有效提取織物紋理信息的方法,通過采用稀疏結(jié)構(gòu)對缺陷進行建模,從而區(qū)分出背景紋理和缺陷信息。袁野等[4]使用目標檢測的方法對復雜環(huán)境下的冰箱金屬表面進行缺陷檢測,能夠較好地應用于金屬制品的缺陷檢測中。He等[5]提出了一種端到端的鋼鐵表面缺陷檢測方法并取得了較好的結(jié)果,但需要大量的人工標注。印刷品缺陷檢測的不同之處在于,印刷品缺陷檢測有著復雜的背景信息,不存在像織物一樣的固定紋理結(jié)構(gòu),因此使用提取紋理信息的方法,效果會不盡人意。此外,印刷品中包含各種顏色以及亮度信息,圖片分辨率往往較大,且缺陷占整幅圖像的比例也很小,這給缺陷檢測帶來了巨大的困難。在進行圖像下采樣操作時,容易丟失細小的缺陷信息,這時候就會出現(xiàn)漏檢和誤檢問題。因此,在印刷品缺陷目標檢測方面,Luo 等[6]提出了一種基于彩色直方圖和神經(jīng)網(wǎng)絡的特征提取方法用于印刷品的表觀缺陷檢測,但在檢測小目標缺陷時只提取顏色特征遠遠不夠。章毓晉等[7]采用了逐像素的圖像配準手段進行分區(qū)檢測,極大提高了檢測的精度,但印刷圖像分辨率高,逐像素的分區(qū)檢測效率低。隨著目標檢測算法的發(fā)展,現(xiàn)有的目標檢測網(wǎng)絡都有很好的檢測效果,基于深度學習的目標檢測網(wǎng)絡大體可以分為兩階段和一階段,其中:兩階段有R-CNN(Regional Convolutional Neural Network)[8]、Faster R-CNN[9]、SPP-Net(Spatial Pyramid Pooling Net)[10]等,兩階段目標檢測算法首先進行邊界框的搜索生成一系列的候選區(qū)域,利用卷積神經(jīng)網(wǎng)絡從原圖中提取特征,從而進行定位和分類。一階段目標檢測算法有SSD(Single Shot multibox Detector)[11]、EfficientDet(Efficient Object Detection)[12]、YOLO(You Only Look Once)系列等,這類算法是將目標檢測問題當成一個回歸問題進行處理,可直接通過回歸模型進行目標的定位和分類。其中YOLO 系列的目標檢測算法在速度和時間效率上要優(yōu)于兩階段算法。因此本文在眾多目標檢測網(wǎng)絡里面選擇了YOLOv4(You Only Look Once version 4)算法[13]及其對應的主干特征提取網(wǎng)絡,對模型結(jié)構(gòu)進行改進。孿生網(wǎng)絡(Siamese network)由于具有比較兩幅圖像匹配程度的作用,同時也非常適合比較圖像塊之間的差異,因此引入孿生網(wǎng)絡,增加缺陷候選區(qū)域選擇的操作,針對候選區(qū)域進行目標檢測。缺陷候選區(qū)域選擇操作剔除了非關(guān)鍵的冗余信息,提高了計算機的運算效率,使得模型可以快速收斂,既保留了YOLOv4 算法在速度方面的優(yōu)勢,又提高了印刷品缺陷檢測的準確率。
本文的主要工作如下:
1)在孿生相似性檢測網(wǎng)絡中引入寬核卷積核,在目標識別網(wǎng)絡中引入特征金字塔結(jié)構(gòu),提高了小目標缺陷的特征提取效果,解決卷積過程中特征消失的問題。
2)引入Siamese網(wǎng)絡,對標準樣張和缺陷樣張進行分塊處理后,進行相似性檢測,將檢測結(jié)果轉(zhuǎn)化為熱度圖,得出缺陷定位候選區(qū)域,提高了印刷缺陷檢測的精度。
對于印刷生產(chǎn)來說,缺陷樣本的數(shù)量是有限的;而收集一些常見的印刷品缺陷樣張,進行數(shù)據(jù)集的再生成,是擴增樣本的一種有效途徑。截取印刷樣張中的缺陷內(nèi)容,對缺陷內(nèi)容進行提取,去除非缺陷圖文部分,得到缺陷圖像,對缺陷圖像進行隨機形變操作,得到新的缺陷圖像。形變操作過程可由如式(1)表示:
式中:T為隨機形變運算;D(x,y)為截取的缺陷圖片;D'(x,y)是由形變操作后得到的新的缺陷圖像。
對圖像執(zhí)行0°~180°隨機旋轉(zhuǎn)操作,隨機旋轉(zhuǎn)操作可以增加樣本的多樣性。每種缺陷類型隨機生成若干張圖像,并保存成含有透明度信息的PNG(Portable Network Graphics)格式圖片。缺陷類型可大致分為漏印、臟點、衛(wèi)星墨滴,這三種都是印刷生產(chǎn)中常見的印刷故障。選取一張用于檢測的標準印刷樣張,將隨機生成的缺陷圖像隨機疊加在標準印刷樣張的不同位置上,生成4000張含有不同缺陷的印刷品缺陷樣張數(shù)據(jù)集,可用式(2)表示為:
式中:i∈{1,2,…,n},n為生成數(shù)據(jù)集的數(shù)量;(x,y)表示圖像像素點的位置,f(x,y)i是疊加后生成的圖像;B(x,y)表示無缺陷的樣稿圖;θ為缺陷圖片旋轉(zhuǎn)的角度,Di(x,y,θ)是經(jīng)過隨機形變以及旋轉(zhuǎn)后得到的缺陷。生成的印刷品缺陷數(shù)據(jù)集如圖1所示。
圖1 生成的印刷品缺陷樣張Fig.1 Sample of generated printed matter defect
由圖1 可以直觀地反映出,缺陷可以在任意的位置進行疊加,從而生成各式各樣的缺陷圖像,在短時間內(nèi),部分生成的缺陷圖像甚至無法輕易地被定位與識別,生成的印刷品缺陷數(shù)據(jù)集可以較好模擬真實的印刷品缺陷情況。
對隨機生成的印刷品缺陷數(shù)據(jù)集進行添加噪聲處理,添加的噪聲類型有椒鹽噪聲和高斯噪聲。為了模擬生產(chǎn)上的鏡頭抖動,在添加噪聲的基礎(chǔ)上還對圖像進行了模糊。圖像模糊采用了兩種方式:一種是均值濾波,另一種是中值濾波。數(shù)據(jù)增強可用一個簡化的模型表示:
式中:i∈{1,2,…,n},n是生成數(shù)據(jù)集的數(shù)量;h(x,y)表示濾波系統(tǒng);n(x,y)表示給缺陷圖像添加的噪聲。椒鹽噪聲的噪聲比例設置為0.0005,高斯噪聲均值參數(shù)設置為0,方差設置為0.001。兩種噪聲隨機選取并添加在生成數(shù)據(jù)集f(x,y)i的不同位置。Bi(x,y)為生成的缺陷印刷品數(shù)據(jù)集。
將上述處理好的圖像數(shù)據(jù)集Bi(x,y)進行分塊處理,分割塊的大小為100 × 100 像素,不滿足尺寸大小的圖像塊用255的像素值進行填補操作,使之能夠滿足尺寸大小要求。將分割好的圖像塊進行數(shù)據(jù)清洗,清除含有缺陷目標的圖像塊,并按照相似程度進行分類,分類好的數(shù)據(jù)集用于Siamese-YOLOv4網(wǎng)絡的訓練。
YOLO 算法最早是Redmon 等[14]提出的,該算法在很多領(lǐng)域都得到了廣泛的應用。如:李云鵬等[15]將YOLO 算法應用到了汽車自動駕駛;Ren 等[16]將YOLO 算法應用到了行人計數(shù)之中。YOLO 系列算法是經(jīng)典的單階段目標檢測算法,有著較好的識別速度和識別精度。YOLO 訓練和檢測都是在一個網(wǎng)絡中進行的,它將物體的檢測和分類問題作為一個回歸問題進行處理,通過求解圖像中所有物體的位置和類別及相應的置信概率,使得檢測速度得到了很大的提升。隨著時間的推移,Redmon 等[17-18]對YOLO 進行了迭代更新,YOLOv2、YOLOv3相繼問世,YOLOv4也隨后被提出,YOLOv4的算法框架如圖2所示。
圖2 YOLOv4算法框架Fig.2 Framework of YOLOv4 algorithm
YOLOv4 算法采用了CSPDarkNet53(Cross Stage Partial Dark Network 53)作為主干提取網(wǎng)絡。主干網(wǎng)絡引入了殘差網(wǎng)絡結(jié)構(gòu)[19],隨著網(wǎng)絡的加深,網(wǎng)絡的表現(xiàn)能力會逐漸增加,然后慢慢達到一個飽和值,最后迅速下降,而殘差結(jié)構(gòu)解決了網(wǎng)絡退化的問題。在該網(wǎng)絡中,使用Mish 激活函數(shù)[20]去代替ReLU(Rectified Linear Unit)激活函數(shù),Mish 激活函數(shù)的速度要比ReLU 快,且占用的內(nèi)存比較小,Mish 激活函數(shù)的梯度要更加的平滑。Mish激活函數(shù)如下所示:
SPP(Spatial Pyramid Pooling)[10]網(wǎng)絡結(jié)構(gòu)應用在特征提取網(wǎng)絡的最后一層,對CSPDarkNet53 的最后一個特征層進行三次卷積后,分別利用三個不同尺度的最大池化進行處理,對處理結(jié)果進行數(shù)據(jù)拼接。該結(jié)構(gòu)解決了建議框的尺寸問題,是一種可以不用考慮圖像大小、輸出圖像固定長度的網(wǎng)絡結(jié)構(gòu),在不同圖像形變的情況之下,表現(xiàn)比較穩(wěn)定,該結(jié)構(gòu)可以適應印刷缺陷中缺陷大小形狀不一的情況。將得到的特征進行上采樣,與CSPDarkNet53 相同尺度的特征進行特征融合,這種反復提取特征的方法用到了PANet(Path Aggregation Network)[21]的結(jié)構(gòu)。通過自底向上的路徑增強,利用準確的底層定位信號增強整個特征層次,從而可以縮短底層與頂層特征之間的信息路徑。提取CSPDarkNet53 倒數(shù)第三層與倒數(shù)第二層特征并與SPP 得到的特征進行數(shù)據(jù)拼接,作為第一個輸出特征;主干提取網(wǎng)絡的倒數(shù)二層與SPP 網(wǎng)絡提取的特征上采樣后融合,并與第一個輸出特征下采樣后進行融合,得到第二個輸出特征;第三個輸出特征則是通過融合倒數(shù)第二、三層以及SPP網(wǎng)絡提取的特征得到的。最后對融合后的特征進行卷積,將得到的卷積信息進行解碼,可以得到不同大小建議框的預測結(jié)果。該方法既可以保留高層的語義信息,也可以保留低層的位置信息,有利于缺陷檢測的精度。YOLOv4算法有著較好的識別速度和識別精度,但是直接應用YOLOv4 算法在印刷缺陷檢測場景中效果不佳,這是由于印刷圖片分辨率過大,多次卷積使得小缺陷特征消失,導致了印刷品缺陷檢測準確率下降,通過引入孿生網(wǎng)絡結(jié)構(gòu),改進YOLOv4網(wǎng)絡,使得改進后的網(wǎng)絡擁有更高的缺陷準確率。
Siamese 網(wǎng)絡最初是為人臉識別設計的,由Zagoruyko等[22]提出,用來檢測兩幅人臉圖像是否相似。如果用兩個不同的網(wǎng)絡去提取兩張圖片的特征,提取到的特征維度很可能不同,即使維度相同,不同網(wǎng)絡提取的特征所代表的語義信息也會存在很大的差異。因此使用一個神經(jīng)網(wǎng)絡對兩張圖像進行特征提取,然后進行比較,這樣更容易得到兩張圖像的特征差異。因此Siamese 網(wǎng)絡訓練出來的模型可以用于計算兩張圖片的相似度,所以模型學習得到的是相似性函數(shù)。通過引入孿生網(wǎng)絡結(jié)構(gòu)的方式,對分割好的圖像塊進行相似性檢測,得到整幅圖像所有分割塊的圖像塊相似度,提取符合相似度閾值范圍的圖像區(qū)域,通過這樣的方式可以對缺陷位置進行一個粗定位。將所有可能存在缺陷候選區(qū)域輸送到Y(jié)OLOv4網(wǎng)絡中,對缺陷進行一個更為精細的定位和分類。通過這樣的方式,解決了YOLOv4 針對印刷品缺陷檢測效果欠佳的問題,提高了定位的精度和檢測的準確率。孿生結(jié)構(gòu)如圖3 孿生相似性檢測網(wǎng)絡所示。
圖3 Siamese-YOLOv4網(wǎng)絡框架Fig.3 Architecture of Siaese-YOLOv4 network
將分割好的無缺陷圖像塊和有缺陷圖像塊作為輸入,輸入圖像的屬性為100 × 100 大小的RGB 色彩模式的彩色圖像。其中,原圖是RGB 色彩模式的無缺陷圖像,相當于印刷工藝流程中客戶的簽樣稿。缺陷圖是含有缺陷目標的RGB色彩模式圖像,其中包含了印刷品的缺陷信息。這兩部分在特征提取的過程中是權(quán)值共享的,特征提取網(wǎng)絡中包含了4個卷積層、3個池化層以及1個全連接層。第一個卷積層的卷積核大小為10 × 10、步長為1,較大的卷積核可以增加感受野,提取更多的關(guān)鍵信息,緊接著跟一個最大池化層,將池化后的信息進行卷積核為7× 7、步長為1的卷積操作,再使用一次最大池化,為了減少特征的損失,池化核的大小為2 × 2、步長為2。接著,進行一次卷積核大小為4 × 4、步長為1 的卷積操作,將得到的信息進行相同的池化操作。將池化后的結(jié)果進行一次卷積核大小為4 × 4、步長為1的卷積操作,最后進行全連接的操作,將二維信息展平成一個4096 × 1 大小的向量。由孿生網(wǎng)絡最終可以得到兩個特征向量,對特征進行分析處理用于缺陷區(qū)域的粗略定位。
結(jié)合YOLOv4 網(wǎng)絡較好的識別速度和識別精度以及孿生網(wǎng)絡對差異的高敏感性特點,提出了Siamese-YOLOv4 網(wǎng)絡,如圖3所示。將兩個輸入圖像塊得到的輸出向量作差計算L1范數(shù),所得數(shù)值作為線性分類器的輸入,經(jīng)過全連接層以及使用Sigmoid 函數(shù)將輸出值歸一化至0~1,數(shù)值越接近0 表示差異越大,數(shù)值越接近1 表示兩幅圖像越相似。Sigmoid 計算式如下:
式中:S表示圖像塊之間的相似度得分;x表示線性分類器的輸出。進行數(shù)據(jù)歸一化的目的是為了將數(shù)據(jù)規(guī)范到一定的區(qū)間,便于模型的計算,一定程度可以提高模型精度,讓訓練的模型可以快速收斂。
如圖4(b)所示,通過計算原圖和缺陷圖分割塊的相似度得分,將得分轉(zhuǎn)換成熱力圖的形式,把缺陷候選區(qū)域進行了可視化。使用固定閾值法,將區(qū)分閾值設定為0.5,如果兩幅圖像的相似度小于0.5,則認為兩幅圖像的相似度比較低,表明該區(qū)域可能含有缺陷信息,如圖4(a)所示,將整幅圖像所有相似度較低的圖像塊提取出來,該區(qū)域為存在缺陷的候選區(qū)域。通過這樣的方式可以實現(xiàn)缺陷的粗略定位,剔除非缺陷區(qū)域部分的冗余信息。粗略定位的區(qū)域會輸送到CSPDarkNet-53主干特征提取網(wǎng)絡中,使用改進的YOLOv4 算法對預定位區(qū)域執(zhí)行一個更為精細的定位和分類,對于YOLOv4 算法來說,改進后的模型有著更快的訓練速度和更高的定位精度。
圖4 缺陷樣品圖及其熱力圖Fig.4 Defect sample image and its heatmap
本文所使用的訓練設備的配置為GeForce RTX 2080Ti 顯卡,Intel Xeon Gold 6248 處理器,256 GB RAM,軟件的運行環(huán)境為Windows 10操作系統(tǒng),深度學習框架版本號為torch 1.2,Python3.6用到的函數(shù)庫包括cv2、matplotlib、numpy等。
本次模型訓練的過程中使用了原始生成的4000 張帶缺陷樣本的數(shù)據(jù)集,按照9∶1 的比例劃分成訓練集和測試集。經(jīng)過圖像分割后,訓練數(shù)據(jù)集和測試數(shù)據(jù)集擴增到原來的144倍。因為印刷缺陷數(shù)據(jù)集與VOC 數(shù)據(jù)集提取的特征有共通之處,所以本文將使用VOC 數(shù)據(jù)集訓練好的模型來進行遷移學習,首先在前25 批次進行凍結(jié)訓練,在后25 批次進行解凍訓練,初始的學習率為0.001,采用余弦退火衰減的方式,慢慢降低學習率。使用余弦退火衰減的方法后,可能會陷入局部最優(yōu)解,這時候可以通過調(diào)大學習率的方法來跳過局部最優(yōu)解。測試集的loss 值為每批次記錄一次,當訓練集和測試集的loss不再發(fā)生明顯變化時,提前停止訓練。
本次實驗使用平均準確率作為缺陷檢測算法的評價指標。損失值用于度量模型的擬合程度,損失值越小,表明該模型擬合數(shù)據(jù)的能力越好。Siamese-YOLOv4 模型在測試集上損失值的變化如圖5所示。
從圖5 中可以看出,隨著訓練迭代次數(shù)的增加,Siamese-YOLOv4 模型的損失值逐漸下降。在第25 次之后,模型的損失值都逐漸趨于平穩(wěn),損失值在0.9 左右。在訓練集和測試集上,損失值的下降趨勢趨于同步,因此可以認為模型沒有出現(xiàn)過擬合的情況。
圖5 Siamese-YOLOv4模型在測試集上損失值的變化Fig.5 Changes in loss of Siamese-YOLOv4 model on test set
平均準確率是指每一類缺陷檢測的準確率的平均值,通常用平均準確率來衡量一個模型的優(yōu)劣。Siamese-YOLOv4模型的檢測結(jié)果如圖6 所示,從圖6 中可以看出,三種缺陷類型都實現(xiàn)了定位與準確分類,因此該模型對于缺陷目標檢測任務來說是有效的。
圖6 Siamese-YOLOv4的檢測結(jié)果Fig.6 Detection result of Siamese-YOLOv4
將主流目標檢測算法(EfficientDet、SSD、YOLOv3、YOLOv4、YOLOv5 以 及Faster R-CNN)與本文的Siamese-YOLOv4 在印刷缺陷數(shù)據(jù)集上進行檢測準確率的對比。三種缺陷類別的檢測準確率以及整體的平均檢測準確率如表1所示。
表1 不同目標檢測方法的性能對比 單位:%Tab.1 Performance comparison of different target detection methods unit:%
可以看出Siamese-YOLOv4 模型在衛(wèi)星墨滴、臟點以及漏印三種不同缺陷的檢測準確率都要優(yōu)于其他幾種模型,整體的平均準確率可以達到96.8%,相較于EfficitentDet 算法、SSD算 法、YOLOv3 算 法、YOLOv4 算 法、YOLOv5 算 法、Faster R-CNN算法分別提高了10.6個百分點、14.9個百分點、9.3個百分點、6.5個百分點、7.3個百分點、6.4個百分點。
模型有效性分析采用了準確率(Precision,P)、召回率(Recall,R)、誤檢率(False Positive rate,F(xiàn)P)、漏檢率(Miss Rate,MR)和平均精度均值(mean Average Precision,mAP)五種評價指標,其中準確率、召回率、誤檢率、漏檢率和平均精度的定義分別為式(6)~(10):
式中:TP表示真實缺陷區(qū)域被成功檢出的個數(shù);FN表示真實缺陷區(qū)域未被檢出的個數(shù);FP表示正常區(qū)域被錯誤檢測為缺陷區(qū)域的個數(shù);TN表示正常區(qū)域被成功檢測為正常區(qū)域的個數(shù);AP為平均精度;N表示缺陷種類個數(shù)。
根據(jù)表2 實驗數(shù)據(jù)顯示,各缺陷類型檢測的平均準確率為96.8%,平均召回率達到了96.9%,誤檢率和漏檢率也處在一個較低水平,因此可以認為Siamese-YOLOv4 網(wǎng)絡模型擁有較好的缺陷檢測性能。
表2 Siamese-YOLOv4模型性能評價 單位:%Tab.2 Performance evaluation of Siamese-YOLOv4 model unit:%
如圖7 所示,對于漏印缺陷類型,YOLOv4、EfficientDet 和SSD 三種目標檢測算法的檢測結(jié)果一般,對于衛(wèi)星墨滴和臟點這兩類缺陷類型都有著較好的檢測結(jié)果。引入孿生圖像相似性檢測網(wǎng)絡后,三種目標檢測算法檢測準確率都有著不同程度的提升,如圖7 所示,該圖表示的是添加了相似性檢測網(wǎng)絡之后,不同算法基線的提升效果,其中對于漏印缺陷類型的檢測準確率提升效果最為明顯,究其原因這是由于未引入圖像相似性檢測網(wǎng)絡之前,漏印缺陷常常會與一些復雜的背景結(jié)合在一起,容易造成漏檢或者誤檢的情況,有了圖像相似性檢測的步驟,可以分析待檢測樣稿和標準樣稿之間的相似性,剔除大量無關(guān)的背景干擾信息,保留相似性較低的區(qū)域,對這些區(qū)域進行缺陷目標檢測,使得缺陷目標檢測的結(jié)果有了顯著的提升。因此本文提出的Siamese-YOLOv4 印刷品缺陷目標檢測方法符合實際的生產(chǎn)要求。
圖7 相似性檢測網(wǎng)絡對不同目標檢測算法的檢測精度提升Fig.7 Detection accuracy improvement of similarity detection network to different target detection algorithms
由于油墨表面有光澤,容易受到環(huán)境光的影響,所以在檢測過程中會有局部反光、明暗程度不同的現(xiàn)象。
為了驗證本文算法的魯棒性,實驗選取了四種不同亮度等級的光照環(huán)境,在這四種光照環(huán)境下分別進行缺陷目標檢測實驗,其中L=1,2,3,4表示亮度等級,亮度等級逐級增加。如圖8 所示,通過觀察檢測結(jié)果,可以明顯地發(fā)現(xiàn)在不同的亮度等級之下,Siamese-YOLOv4 算法均能夠檢測出缺陷的位置,并且能準確地對缺陷進行分類。該模型具有良好的魯棒性。
圖8 不同亮度等級下的檢測結(jié)果Fig.8 Detection results at different brightness levels
針對印刷工藝流程中缺陷檢測存在的問題,本文對原有的YOLOv4 模型進行了改進,設計了新的Siamese-YOLOv4 模型。該模型在保留YOLOv4 模型本身檢測效率的基礎(chǔ)上,進一步提高了印刷品缺陷檢測的準確率。針對印刷品表面復雜的背景信息以及生產(chǎn)上存在的鏡頭抖動和噪聲問題,采用隨機增加模糊和噪聲的方法,去模擬真實的生產(chǎn)情況,生成用于訓練的大規(guī)模樣本數(shù)據(jù)集。同時對數(shù)據(jù)集進行人工分割,引入相似性檢測網(wǎng)絡,檢測圖像塊的相似性,實現(xiàn)缺陷的預定位。該數(shù)據(jù)增強方法可以很好地解決缺陷圖片分辨率大,且缺陷目標較小的問題。最終的實驗結(jié)果表明本文所提出的模型具有良好的魯棒性,提高了缺陷目標檢測的精度,能夠適應小目標缺陷檢測,可應用于實際的生產(chǎn)過程。
然而,本文研究也有局限的地方,比如人工生成的印刷品缺陷數(shù)據(jù)集不能完全涵蓋印刷生產(chǎn)中存在的缺陷類型,且設定的參數(shù)值并不能適應不同領(lǐng)域的數(shù)據(jù)集。因此可以進一步改進特征提取網(wǎng)絡,使用自適應閾值方法,拓寬該模型的使用范圍。