陳連凱 李邦昱 齊亮
摘 要:針對復(fù)雜水面環(huán)境下的船舶目標(biāo)檢測問題,運用融合圖像顯著性的YOLOv3船舶目標(biāo)檢測改進算法以提高檢測能力。該算法基于Darknet-53網(wǎng)絡(luò)模型,根據(jù)水上船舶特點,融合非極大值抑制算法Soft-NMS和顯著性檢測算法FT思想,進一步優(yōu)化最終檢測以達到更準(zhǔn)確的效果。用Soft-NMS算法替換原有NMS算法,使得算法對小目標(biāo)和重疊目標(biāo)檢測效果明顯提升。融入FT算法對船舶圖像局部細節(jié)作進一步細化,使得包圍盒回歸更加準(zhǔn)確。在建立的數(shù)據(jù)集上進行訓(xùn)練與測試,實驗結(jié)果表明,改進方法比原始方法準(zhǔn)確率提高4%,達97%,檢測速度提高10幀/s,達30幀/s,表明改進算法有效提高了船舶目標(biāo)檢測精度,且加快了檢測速度。
關(guān)鍵詞:船舶目標(biāo)檢測;YOLOv3;Soft-NMS;顯著性檢測
DOI:10. 11907/rjdk. 201157
中圖分類號:TP312文獻標(biāo)識碼:A 文章編號:1672-7800(2020)010-0146-06
Abstract:Aiming at the problem of ship target detection in a complex water surface environment, we employ an improved YOLOv3 ship target detection algorithm that incorporates image saliency based on the Darknet-53 network model. This method is based on the characteristics of watercraft, combining the non-maximum suppression algorithm Soft-NMS (Soft Non-Maximum Suppression) and the significance detection algorithm FT (frequency-tuned salient region) to further optimize the final detection to achieve a more accurate effect. The Soft-NMS algorithm is used to replace the original NMS algorithm, so that the algorithm can significantly improve the detection effect of small targets and overlapping targets. The FT algorithm is incorporated to further refine the local details of the ship image, making the regression of the bounding box more accurate. Training and testing on the data set established in this article, the experimental results show that the accuracy of the improved method is 4% higher than the original method, reaching 97%, and the detection speed is increased by 10 frames/s to 30 frames/s. It shows that the improved algorithm effectively improves the accuracy of ship target detection and speeds up the detection speed.
Key Words: ship target detection; YOLOv3; Soft-NMS; salient region detection
0 引言
隨著計算機視覺與機器視覺的快速發(fā)展,深度學(xué)習(xí)算法在目標(biāo)檢測、識別和跟蹤領(lǐng)域取得了良好效果[1]。Krizhevsk等[2]提出圖像分類算法,該算法是基于深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)的算法,極大提高了目標(biāo)檢測率與識別率;Szegedy等[3]將已有目標(biāo)檢測的一分為二方法直接合二為一,轉(zhuǎn)為目標(biāo)回歸方法,使用回歸器對圖像中的目標(biāo)進行預(yù)測評估;Erhan等[4]采用深度卷積神經(jīng)網(wǎng)絡(luò)對目標(biāo)的包圍盒進行回歸預(yù)測,每個包圍盒所包含類別無關(guān)對象的置信度會被對應(yīng)給出;劉學(xué)平等[5]提出一種嵌入SENet結(jié)構(gòu)的改進YOLOv3目標(biāo)識別算法,減少了假正例數(shù)量,得到 90.39%的查準(zhǔn)率和 93.25%的查全率;Liu等[6]提出多尺度檢測方法SSD (Single Shot Multibox Detector,SSD),根據(jù)目標(biāo)尺寸大小自主選擇不同的預(yù)測器,預(yù)測邊界框位置中的對象類別與偏移量,同時應(yīng)用于網(wǎng)絡(luò)最后階段的多特征映射,達到了多尺度的預(yù)測效果;谷東亮等[7]調(diào)整Faster R-CNN所采用的網(wǎng)絡(luò)結(jié)構(gòu),在區(qū)域生成網(wǎng)絡(luò)的第一個全連接層后增加了一個Dropout層,使得船舶檢測準(zhǔn)確率達90.4%。
內(nèi)河及海上復(fù)雜環(huán)境、船舶運動導(dǎo)致的船舶晃動、多條船舶相會導(dǎo)致船舶重疊、反復(fù)無常的天氣變化、船舶遠小近大的客觀成像因素差異等問題,使得船舶檢測識別率受到極大影響。
針對以上問題,本文運用融合圖像顯著性的YOLOv3船舶目標(biāo)檢測算法,該算法是基于Darknet-53網(wǎng)絡(luò)模型。本文采用的目標(biāo)檢測模型以YOLOv3網(wǎng)絡(luò)為基礎(chǔ),首先通過大量卷積層提取目標(biāo)深度特征,然后對YOLOv3 模型結(jié)構(gòu)進行調(diào)整與改進,通過改進的非極大值抑制Soft-NMS和利用圖像顯著性FT算法提取特征與卷積深度特征進行張量操作和特征融合,提高目標(biāo)檢測精度,尤其是小目標(biāo)與重疊目標(biāo)檢測能力。
1 YOLOv3算法
1.1 邊界框預(yù)測
使用K-means聚類方法得到Y(jié)OLOv3的包圍盒(Anchor Box)[8]。各邊界框(Bounding Box)的實際坐標(biāo)位置分別為[tx]、[ty]、[tw]、[th]。一幅圖像通常會被劃分成[N×N]個單元格,用[cx]和[cy]表示圖像左上角單元格的偏移量。先前得到邊界框的寬和高分別用[pw]和[ph]表示,按照式(1)即可預(yù)測出邊界框?qū)嶋H位置[9]。
其中,邊界框中心點坐標(biāo)為[bx]、[by];邊界框?qū)捄透叩淖鴺?biāo)為[bw]、[bh];Logistic函數(shù)用[σ()]表示,坐標(biāo)歸一化范圍為0-1。
如式(2)所示,YOLOv3 網(wǎng)絡(luò)使用邏輯回歸計算預(yù)測每個邊界框的分數(shù),即置信度,如果先驗邊界框和真實邊界框的重疊度是所有邊界框中最高的,則該置信度為1。閾值用于控制重疊部分的舍棄與否,低于則被舍棄。目標(biāo)預(yù)測的損失是先驗邊界框沒有分配真實對象所造成,但不會影響分類預(yù)測[10]。
式(2)中,[confidence]表示預(yù)測邊界框和真實邊界框的分數(shù);[Pr(Object)]用于判斷單元格里是否存在目標(biāo)對象;[IOUtruthpred]表示預(yù)測邊界框與真實邊界框的交并比。YOLOv3網(wǎng)絡(luò)是通過相乘單元格類別概率和單元格中含有的目標(biāo)和適度確定各類別置信分數(shù),如式(3)所示。
式(3)中,[PrClassi|Object]表示某一類別在單元格出現(xiàn)的概率;[PrClassi]表示單元格與待檢測目標(biāo)匹配度。
1.2 Logistic分類器
YOLOv3使用多個Logistic分類器代替Softmax 分類器,其使用多標(biāo)簽分類預(yù)測邊界框可能包含的類別,僅給每個對象分配一個先驗框[11]。使用二值交叉熵損失函數(shù)(Binary Cross-Entropy Loss)計算改進后的分類損失,交叉熵損失函數(shù)如式(4)、式(5)所示。
眾多結(jié)構(gòu)與參數(shù)構(gòu)成了龐大的目標(biāo)檢測結(jié)構(gòu),其中[x,y]、[(w,h)]、[class]和 [confidence]是重要組成部分。在YOLOv3網(wǎng)絡(luò)中,其它部分使用的損失函數(shù)是二值交叉熵,而[(w,h)]的損失函數(shù)仍然使用總方誤差。
總方誤差損失函數(shù)如式(6)、式(7)所示。
其中,[yi]表示網(wǎng)絡(luò)預(yù)測值,[yi]表示標(biāo)注值。
1.3 多尺度預(yù)測
YOLOv3網(wǎng)絡(luò)可以預(yù)測3種不同尺度的邊界框,其主要原理是利用高層特征進行上采樣、低層特征進行自頂而下提取不同尺度下的特征[12]。在基本特征提取器中增加了卷積層,使用最后的卷積層預(yù)測一個三維張量編碼,即為邊界框、框中目標(biāo)和分類預(yù)測。如果每個尺寸的神經(jīng)網(wǎng)絡(luò)都預(yù)測了3個邊界框,則得到的張量S如式(8)所示。
其中,4個邊界框的偏移量用[4]表示,[1]表示1個目標(biāo)預(yù)測,[classes]表示預(yù)測類別個數(shù)。
1.4 特征提取
YOLOv3網(wǎng)絡(luò)使用一個全新的網(wǎng)絡(luò)進行特征提取,對比YOLO系列網(wǎng)絡(luò)之前的版本,此網(wǎng)絡(luò)汲取了YOLOv2網(wǎng)絡(luò)結(jié)構(gòu)與Res Net網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)點,被稱作為Darknet-53。
YOLOv3網(wǎng)絡(luò)第一次檢測結(jié)果是13×13的特征圖,其被多次卷積而來,通過對13×13的特征圖進行上采樣處理進而獲得26×26的特征圖,接著使用獲得的26×26特征圖與原網(wǎng)絡(luò)26×26的特征圖融合形成新特征圖,并通過多次卷積計算得到第二次檢測結(jié)果;然后對26×26的特征圖進行上采樣處理以獲得52×52的特征圖和原網(wǎng)絡(luò)52×52的特征圖融合形成的新特征圖,之后通過多次卷積得到第三次檢測結(jié)果[13]。最終檢測識別結(jié)果通過對上述3次獲得的結(jié)果圖進行非極大值抑制操作而獲得。
2 融合圖像顯著性的YOLOv3船舶目標(biāo)檢測模型
本文采用的目標(biāo)檢測模型以YOLOv3為基礎(chǔ)框架,針對水上船舶的特點,結(jié)合了非極大值抑制算法Soft-NMS(Soft Non-Maximum Suppression)和顯著性檢測算法FT (frequency-tuned Salient Region),進一步優(yōu)化最終檢測以達到更準(zhǔn)確的效果。用Soft-NMS算法替換原有NMS算法,提高本文算法對小目標(biāo)和重疊目標(biāo)的檢測效果。融入FT算法對船舶圖像局部細節(jié)作進一步細化,使得包圍盒回歸更加準(zhǔn)確。具體流程如圖1所示。
2.1 圖像顯著性檢測
圖像中能夠吸引人注意的區(qū)域,往往含有較大信息量[14]。在看一幅圖像時,人們的關(guān)注點往往是圖像中感興趣的區(qū)域,而其它剩余的不感興趣區(qū)域則被認為是無關(guān)部分。顯著區(qū)域指圖像中某些內(nèi)容最能夠表現(xiàn)出來的關(guān)鍵區(qū)域。常用圖像顯著性分析方法主要原理是根據(jù)人的注意力機制分析圖像。認知科學(xué)家根據(jù)實際情況及經(jīng)驗,提出多種數(shù)學(xué)模型,已達到模擬人注意力機制的效果[15]。
根據(jù)頻率可將圖像劃分為低頻部分和高頻部分:圖像低頻部分反映了圖像整體信息;圖像高頻部分反映了圖像局部詳細信息。顯著區(qū)域檢測使用了低頻部分的更多信息[16]。本文使用基于低頻的FT(frequency-tuned Salient Region)算法,F(xiàn)T方法利用高斯平滑舍去背景區(qū)域最高頻部分,以突出目標(biāo)區(qū)域,像素顯著性計算公式如式(9)所示。
其中,[Iμ]為圖像平均特征,后一項為像素p在高斯平滑后的Lab顏色特征,||.||為一種范式,即計算Lab顏色空間的歐氏距離。
對于圖像目標(biāo)整體及突出的局部信息,本文采用顯著性檢測算法,將已檢測到的目標(biāo)區(qū)域提取對應(yīng)的顯著性特征圖,使之融合YOLOv3網(wǎng)絡(luò)的Darknet-53提取特征,加強船舶圖像語義信息,提升目標(biāo)預(yù)測框預(yù)測分數(shù),使得包圍盒回歸更為準(zhǔn)確,進而提高檢測準(zhǔn)確率,如圖2所示。
2.2 Soft-NMS
利用檢測邊框確定特定類別的目標(biāo),并得出置信度,以達到檢測識別目標(biāo)之目的。目標(biāo)的傳統(tǒng)檢測流程采用滑動窗口,這種窗口是多尺度的,需根據(jù)每個目標(biāo)類別的前景分數(shù)及背景分數(shù)計算每個目標(biāo)特征。當(dāng)相鄰窗口得分比較接近時,會導(dǎo)致檢測結(jié)果假陽性錯誤:錯誤的肯定。為了解決此類問題,采用非極大值抑制方法對目標(biāo)檢測結(jié)果進行再處理,進而得到正確檢測結(jié)果。非最大抑制算法有效且高效地減少了目標(biāo)檢測結(jié)果的假陽性[17]。
圖3中,檢測算法原本應(yīng)該輸出兩個框,但是傳統(tǒng)NMS算法可能會將重疊和小目標(biāo)的船舶過濾掉,導(dǎo)致只檢測出一只船舶,因此目標(biāo)召回率較低。
傳統(tǒng)非極大值抑制算法原理是:在檢測到的圖片中生成所需檢測框B和檢測框?qū)?yīng)分數(shù)S,對選擇得分最高的檢測M,將其從檢測幀B中刪除,并將其存儲在最終檢測結(jié)果集D中。同時,大于設(shè)定重疊閾值[Nt]的部分:集合B中任何與檢測框M的重疊部分會被移除。非極大值抑制算法中將相鄰檢測框的分數(shù)均強制歸零,這就是最大問題所在[18]。此時,如果重疊區(qū)域出現(xiàn)目標(biāo),則存在目標(biāo)漏檢情況,甚至導(dǎo)致檢測失敗,從而降低了算法平均檢測率AP(Average Precision)。
如圖4所示,本文在YOLOv3網(wǎng)絡(luò)中加入Soft-NMS算法。該算法是在非極大值抑制算法上作出改進,設(shè)置了衰減函數(shù),使得重疊部分相鄰檢測框的分數(shù)不會置零。如果檢測框與M重疊部分較大,則得分低;如果檢測框與M重疊部分較小,則此部分原始得分不會發(fā)生改變。在標(biāo)準(zhǔn)數(shù)據(jù)集PASCAL VOC 2016 和 MS-COCO 2018等標(biāo)準(zhǔn)數(shù)據(jù)集上,加入Soft-NMS的目標(biāo)檢測算法在目標(biāo)有重疊部分時檢測平均準(zhǔn)確率顯著提升。
傳統(tǒng)NMS方法可通過分數(shù)重置函數(shù)(Rescoring Function)表達,如式(10)所示。
通過NMS設(shè)置的硬閾值判斷相鄰檢測框是否應(yīng)被保留。若檢測框[bi]與檢測框M高度重疊,易出現(xiàn)漏檢情況;若檢測框[bi]中所包含的目標(biāo)是不同于檢測框M中的目標(biāo),則即使在檢測閾值較低情況下,該目標(biāo)也不會被漏檢;若檢測框[bi]中不包含任何目標(biāo),則在衰減過后,會產(chǎn)生假陽性效果并且檢測框[bi]的得分會很高。通過較低的NMS重疊閾值設(shè)置,以達到移除所有相鄰檢測框的效果,這種做法顯然不是最優(yōu)解,并且極易出現(xiàn)誤檢、漏檢等情況,尤其是在目標(biāo)高度重疊的部分[19]。
Soft-NMS中的分數(shù)重置函數(shù):衰減與檢測框M有重疊相鄰檢測框的分數(shù),重疊度越高,越容易導(dǎo)致錯誤結(jié)果,也越嚴(yán)重地造成分數(shù)衰減。如此,需對NMS的分數(shù)重置函數(shù)作出必要改進,如式(11)所示。
其中,閾值[Nt]用于規(guī)定重疊度范圍,使相鄰檢測框與M的重疊度大于[Nt]的檢測框在檢測分數(shù)上呈線性衰減。此時,極大地衰減與M相鄰越近的檢測框,而遠離M的檢測框則反之[20]。
使用權(quán)重函數(shù)乘以當(dāng)前檢測框得分,此權(quán)重函數(shù)與最高得分檢測框M有重疊的相鄰檢測框分數(shù)會出現(xiàn)衰減,檢測框與M框重疊度越高,衰減程度越嚴(yán)重。因此,選用高斯函數(shù)為權(quán)重函數(shù),改變其檢測框刪除規(guī)則。高斯權(quán)重函數(shù)如式(12)所示。
如圖4所示,權(quán)重函數(shù)f(iou(M,bi))是基于檢測框的重疊程度。算法中每一步的復(fù)雜度用[O(N)]表示,表示圖片中有N個檢測框,Soft-NMS算法復(fù)雜度為[O(N2)],與傳統(tǒng)NMS算法有一定相同之處。
如圖5所示,相對于傳統(tǒng)NMS算法,Soft- NMS 算法能夠提高模型檢測與分類效果,且不增加額外計算量。Soft-NMS對重疊和小目標(biāo)有較好檢測效果,能很好地融入本文算法,降低漏檢率,加快運算速度。
3 訓(xùn)練
算法檢測速率快慢、準(zhǔn)確率高低取決于數(shù)據(jù)集是否兼具數(shù)量與質(zhì)量。由于目前沒有公共的開源船舶數(shù)據(jù)庫,因此將小組成員制作的船舶數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù)集。小組成員經(jīng)過省內(nèi)多地實地考察,最終選擇長江作為數(shù)據(jù)采集地。采集20 000張船舶目標(biāo)圖片,選取6 000張多目標(biāo)圖片與3 000張單目標(biāo)圖片,利用LabelImg工具進行標(biāo)注,記錄船舶圖像左上右下位置及類別,生成xml格式[21],本文將船舶類別分為3類,分別為“xunluochuan、kechuan、huochuan”。
本文實驗仿真環(huán)境:ThinkStation,內(nèi)存為128GB,GPU處理器為RTX2080Ti,軟件環(huán)境為Python3.7.3、VS2015、Opencv3.4.2、JetBrains PyCharm 2019.1.2、Anaconda3.4.1、CUDA10.0、CUDNNv7.1, TensorFlow1.2.1。
本文選擇的特征提取網(wǎng)絡(luò)為Darknet-53,權(quán)重初始值是在通用目標(biāo)訓(xùn)練集上訓(xùn)練而來,具有一定普適性。本文選取的訓(xùn)練圖片為5 000張,測試圖片為2 000張,學(xué)習(xí)率為0.001,Momentum設(shè)置為0.9,Weight Decay設(shè)置為0.000 5。
4 實驗結(jié)果與分析
考慮到算法的合理性、有效性及魯棒性,本文算法訓(xùn)練迭代次數(shù)設(shè)置為50 200次。由圖6可知,當(dāng)訓(xùn)練次數(shù)在30 000次左右時,平均損失函數(shù)值在一個數(shù)值0.0 920上下浮動,并趨于穩(wěn)定,表明訓(xùn)練過程收斂,達到了良好效果。
召回率與準(zhǔn)確率曲線衡量一個分類器的重要性能指標(biāo),實驗設(shè)定IOU的閾值為0.5,對3類船舶進行檢測。圖7—圖9是本文算法訓(xùn)練的召回率與準(zhǔn)確率關(guān)系曲線,可以看出,準(zhǔn)確率有振蕩出現(xiàn),表明正樣本被判斷為正例在變多,但負樣本被判斷為正例也在變多。本文3種船舶的PR曲線、高點AP(Average Precision)值、PR曲線下圍面積,整體趨于良好表現(xiàn),體現(xiàn)出本文算法的良好性能。
實驗結(jié)果根據(jù)本文建立的訓(xùn)練集和測試集而得,圖10和表1是本文方法實驗結(jié)果。分析可知,本文方法明顯優(yōu)于熱門的深度學(xué)習(xí)算法Faster R-CNN、YOLOv3(You Only Look Once v3),檢測速率得到一定程度提高,每秒大約檢測30張圖片;通過傳統(tǒng)深度學(xué)習(xí)算法能夠很好地進行船舶圖像目標(biāo)檢測,但相對而言,目標(biāo)檢測速度較慢,每秒鐘只能檢測大約13張圖片;本文方法是對算法YOLOv3的改進,在水上船舶檢測中顯著減少了算法訓(xùn)練和檢測時間,提高了準(zhǔn)確率。改進的YOLOv3深度網(wǎng)絡(luò)經(jīng)過訓(xùn)練后進行測試并驗證,比較Faster R-CNN和 YOLOv3算法在相同訓(xùn)練集與測試集上進行訓(xùn)練、測試與驗證,發(fā)現(xiàn)改進的YOLOv3算法準(zhǔn)確率可提高到97%,主要原因是本文算法加入了圖像顯著性FT算法與Soft-NNS,提高了算法對預(yù)測邊界框與真實框的預(yù)測率。
5 結(jié)語
本文提出了一種改進的船舶目標(biāo)檢測算法,在YOLOv3深度模型中利用Soft-NMS替換原有NMS,減小了重疊目標(biāo)漏檢率;利用顯著性檢測FT算法,突出感興趣區(qū)域,使背景區(qū)域與目標(biāo)區(qū)域有顯著差別,從而加強YOLOv3邊框回歸的可靠性。從實驗結(jié)果可知,本文方法兼具穩(wěn)定、快速與準(zhǔn)確等優(yōu)點,能夠應(yīng)對復(fù)雜的水面環(huán)境,發(fā)揮出算法在檢測、速度上的最大優(yōu)勢。
本文算法主要依賴于高性能計算能力的硬件設(shè)備和高質(zhì)量訓(xùn)練數(shù)據(jù),如何輕量化網(wǎng)絡(luò)模型,考慮訓(xùn)練集的圖像視頻幀之間的關(guān)系,實現(xiàn)更加高效、多尺度的水面船舶目標(biāo)檢測,是進一步研究的問題。
參考文獻:
[1] 王春艷,劉正熙. 結(jié)合深度學(xué)習(xí)的多目標(biāo)跟蹤算法[J]. 現(xiàn)代計算機(專業(yè)版),2019(6):55-59.
[2] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]. NIPS2012:Proceedings of the 25th International Conference on Neural Information Processing Systems,2012: 1097-1105.
[3] SZEGEDY C, TOSHEV A, ERHAN D. Deep neural networks for object detection[C].? Proceedings of the 2013 International Conference on Neural Information Processing Systems.Cambridge, MA: MIT Press, 2013: 2553-2561.
[4] ERHAN D, SZEGEDY C, TOSHEV A , et al.Scalable object detection using deep neural networks[C]. CVPR 2014: Proceedings? of? the 2014? IEEE Conference on Computer Vision and Pattern Recognition,2014: 2155-2162.
[5] 劉學(xué)平,李玙乾,劉勵,等. 嵌入SENet結(jié)構(gòu)的改進YOLOV3目標(biāo)識別算法[J]. 計算機工程,2019,45(11):243-248.
[6] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]. Proceedings of the 2016 European Conference on Computer Vision, 2016: 21-37.
[7] 谷東亮,徐曉剛,金鑫. 基于Faster R-CNN的海上船舶識別算法[J]. 圖像與信號處理,2018,7(3): 136-141.
[8] 葛雯,史正偉. 改進YOLOV3算法在行人識別中的應(yīng)用[J]. 計算機工程與應(yīng)用,2019,55(20):128-133.
[9] 呂鑠,蔡烜,馮瑞. 基于改進損失函數(shù)的YOLOv3網(wǎng)絡(luò)[J]. 計算機系統(tǒng)應(yīng)用,2019,28(2):1-7.
[10] 李慧欣. 艦船視覺系統(tǒng)海空多目標(biāo)識別與跟蹤技術(shù)研究[D].? 哈爾濱:哈爾濱工程大學(xué),2019.
[11] 周龍,韋素媛,崔忠馬,等. 基于深度學(xué)習(xí)的復(fù)雜背景雷達圖像多目標(biāo)檢測[J]. 系統(tǒng)工程與電子技術(shù),2019,41(6):1258-1264.
[12] 王璽坤,姜宏旭,林珂玉. 基于改進型YOLO算法的遙感圖像艦船檢測[J/OL]. 北京航空航天大學(xué)學(xué)報:1-10. 2019-12-27. https://kns.cnki.net/KCMS/detail/11.2625.v.20191024.1126.003.html.
[13] 魏宏彬,張端金,杜廣明,等. 基于改進型YOLO v3的蔬菜識別算法[J/OL]. 鄭州大學(xué)學(xué)報(工學(xué)版):1-6. 2020-03-04. https://kns.cnki.net/KCMS/detail/41.1339.T.20191219.1601.005.html.
[14] 張守東,楊明,胡太. 基于多特征融合的顯著性目標(biāo)檢測算法[J]. 計算機科學(xué)與探索,2019,13(5):834-845.
[15] 李鑫,陳雷霆,蔡洪斌,等. 基于雙層多尺度神經(jīng)網(wǎng)絡(luò)的顯著性對象檢測算法[J]. 微電子學(xué)與計算機,2018,35(11):1-7.
[16] 李平娜,吳清. 改進的頻域協(xié)調(diào)顯著性檢測及應(yīng)用[J]. 現(xiàn)代計算機(專業(yè)版),2017,34(8):77-80.
[17] 趙文清,嚴(yán)海,邵緒強. 改進的非極大值抑制算法的目標(biāo)檢測[J]. 中國圖象圖形學(xué)報,2018,23(11):1676-1685.
[18] 張海玉,陳久紅. 一種基于深度學(xué)習(xí)的夜間車流量檢測方法[J]. 軟件導(dǎo)刊,2019,18(9):33-37.
[19] HE K M,ZHANG X Y,REN S Q,et al.Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015,37(9): 1904-1916.
[20] 張銀松,趙銀娣,袁慕策. 基于改進Faster-RCNN模型的粘蟲板圖像昆蟲識別與計數(shù)[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報,2019,24(5):115-122.
[21] 譚俊. 一個改進的YOLOv3目標(biāo)識別算法研究[D]. 武漢:華中科技大學(xué),2018.
(責(zé)任編輯:孫 娟)