• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      融合DBSCAN的改進YOLOv3目標檢測算法

      2022-05-19 13:29:24李云紅李傳真蘇雪平聶夢瑄畢遠東謝蓉蓉
      計算機工程與應用 2022年10期
      關(guān)鍵詞:候選框卷積聚類

      李云紅,張 軒,李傳真,蘇雪平,聶夢瑄,畢遠東,謝蓉蓉

      西安工程大學 電子信息學院,西安 710048

      當前基于計算機視覺的深度學習算法[1]應用領(lǐng)域十分廣泛,結(jié)合目標檢測技術(shù)可用來解決一些公共場所的公共資源分配問題,以便節(jié)省人力和物力。

      近年來深度學習逐漸被應用于圖像的檢測與識別中,大大推進了該領(lǐng)域的研究。傳統(tǒng)的檢測識別方法有方向梯度直方圖(histogram of oriented gradient,HOG)特征、局部二值模式(local binary pattern,LBP)特征以及尺度不變特征變換(scale invariant feature transform,SIFT),通過設(shè)計特征提取器獲得圖像特征,然后將提取出來的特征輸入一個可訓練的分類器。常用分類模型有AlexNet、VGG、GoogleNet、ResNet(residual network)等。Krizhevsky等提出基于深度學習理論的深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)的圖像分類算法,大幅提升了圖像分類的準確率,同時目標檢測準確率也得以提升[2],但運算速度慢,帶來沉重的計算機負擔。Szegedy等將目標檢測問題看作目標的回歸問題,使用深度卷積神經(jīng)網(wǎng)絡(luò)作為回歸器來預測輸入圖像中的目標[3],但對目標特征泛化性較差,實際應用效果不佳。Erhan等使用深度卷積神經(jīng)網(wǎng)絡(luò)對目標的AnchorBox進行回歸預測,并給出每個AnchorBox包含類別無關(guān)對象的置信度[4],提升了識別率,但該方法移植性較差,對特定場合目標需要分別訓練。He等提出了一個可看作單層的網(wǎng)絡(luò)層,稱為感興趣區(qū)域(region of interest,ROI)Pooling[5],該方法提高了檢測速率,但是對小目標識別率較低。Liu等提出了單點多盒探測器(single shot multibox detector,SSD)的檢測方法[6],該方法進一步提升了檢測速度,但對小目標以及模糊目標檢測效果不佳。YOLO[7]在檢測速度上優(yōu)于SSD算法,但對于相互遮擋目標存在漏檢問題。

      針對以上問題,本文提出一種基于改進YOLOv3算法的目標檢測方法,該方法可在快速檢測的前提下提升對小目標、遮擋目標的檢測準確率。

      1 YOLOv3目標檢測算法

      1.1 YOLOv3算法原理

      YOLOv3是YOLO和YOLOv2[8]的改進,傳統(tǒng)的檢測算法對目標識別效率相對較低且優(yōu)化困難,例如以區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(region-convolutional neural network,R-CNN)[9]為首的候選框加預測位置、分類的這種策略。R-CNN首先產(chǎn)生一些潛在的Region Proposal,然后利用分類器對每一個區(qū)域進行分類的同時進行目標邊界修正,最后利用非極大值抑制(non-maximum suppression,NMS)合并、消除重復檢測框,這個過程被稱為two-stage[10],如圖1所示。YOLO系列算法的創(chuàng)新就是提出one-stage,如圖2所示。即將目標檢測僅看作單一的回歸問題,可以直接通過對檢測圖像優(yōu)化來得到所檢測物體的邊界位置和分類。YOLOv3之所以檢測速度快正是因為其基于回歸的方法來提取特征,是一種典型的端到端訓練,目標類別和邊框會直接在特征層回歸之后得到,相比兩步檢測類算法節(jié)省了提取邊框的時間,提升了檢測速度。

      圖1 兩步法Fig.1 Two-stage method

      圖2 單步法Fig.2 One-stage method

      YOLOv3網(wǎng)絡(luò)采用Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)(含有53個卷積層),如圖3所示。一方面采用全卷積網(wǎng)絡(luò),另一方面網(wǎng)絡(luò)結(jié)構(gòu)增添了5個殘差塊,每個殘差塊中包括兩個DBL(DarknetConv2D_BN_Leaky)單元在殘差塊中進行殘差操作,如圖4(a)所示。其中DBL單元包含了卷積層(convolutional)、批量歸一化(batch normalization)和Leaky ReLU激活函數(shù),如圖4(b)所示。通過引入殘差結(jié)構(gòu)網(wǎng)絡(luò)架構(gòu),網(wǎng)絡(luò)深度得以增加,并且可以有效避免在數(shù)據(jù)訓練的過程中造成的梯度爆炸和消失等問題。得益于ResNet的殘差結(jié)構(gòu),網(wǎng)絡(luò)訓練時的難度大大減小,因此這里可以將網(wǎng)絡(luò)層數(shù)由之前的Darknet-19增加到53層,從而加強了網(wǎng)絡(luò)的學習能力,檢測精度較之前也有明顯提升。Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)只是用來獲取圖像的特征,在圖3網(wǎng)絡(luò)結(jié)構(gòu)中可以看到經(jīng)過特征層傳入之后,該網(wǎng)絡(luò)分別進行了兩次上采樣,經(jīng)過上采樣的堆疊可以獲取更多檢測圖像特征,提升了檢測精度。同時YOLOv3采用了多尺度訓練,網(wǎng)絡(luò)輸出3個尺度,分別是13×13、26×26、52×52,對應于大、中和小目標的檢測,每個尺度之間存在著特殊聯(lián)系,增強了模型魯棒性。

      圖3 Darknet-53結(jié)構(gòu)圖Fig.3 Darknet-53 structure diagram

      圖4 結(jié)構(gòu)單元Fig.4 Structural unit

      YOLOv3算法保留了之前版本的優(yōu)點,“分而治之”就是其一,依然通過劃分單元格的方式來對目標進行檢測,這種方式保證了算法的檢測效率。在YOLO算法的第二代版本之后,YOLO選擇使用批量歸一化,通過這種方法有效避免了訓練過程中的過擬合問題,同時加速了收斂。網(wǎng)絡(luò)在每一層卷積之后增加激活函數(shù)Leaky ReLU,與ReLU激活函數(shù)相比該激活函數(shù)可以保留更多圖像信息。

      除此之外對于不同的類別判斷,YOLOv3使用了80個邏輯分類器,通過設(shè)置候選框閾值來判斷檢測目標是否為同一類目標。YOLO系列算法在目標檢測準確率和速度上一直有著很大優(yōu)勢,是圖像檢測熱門研究方法,但是該算法只通過單一方法進行特征提取,因此在小范圍的信息上表現(xiàn)并不理想。本文通過對YOLOv3算法聚類方式的改進來優(yōu)化解決這一問題。

      1.2 目標邊界框的預測

      在所有深度學習的目標檢測算法中,卷積層一般只獲取目標的特征,隨后將所獲取特征傳遞到分類器或回歸器中進行結(jié)果預測。YOLO系列算法采用1×1的卷積核來完成對目標的預測,這樣得到的預測圖大小與特征圖的大小相等。在YOLOv3目標邊界框的數(shù)量為3,由預測圖中每個單元格確定,此外特征圖中包含b×(5+C)個信息。C表示類別總數(shù),b表示得到的邊界框數(shù)量,不同目標有自己唯一的邊界框,5+C為每個邊界框的參數(shù),分別是邊界框的中心坐標、尺寸、目標分數(shù)和C個類的置信度。通過以下幾個公式可以知道邊界框的預測和網(wǎng)絡(luò)輸出之間的關(guān)系:

      如圖5所示,預測的中心坐標為(b x,b y),寬度和高度分別是b w、b h,t x、t y代表預測目標相對于中心坐標的偏移值,通過sigmoid函數(shù)將t x、t y的值控制在[0,1]區(qū)間上。該方法保證目標中心處于預測網(wǎng)格單元中,防止偏移過大。t w、t h為尺度縮放。網(wǎng)格原點在左上角,用c x和c y表示。p w和p h即為候選框的寬度和高度。

      圖5 邊界框預測示意圖Fig.5 Schematic diagram of bounding box prediction

      2 改進YOLOv3算法

      YOLOv3算法由兩部分組成,分別是訓練和測試。在訓練樣本時需要給模型大量數(shù)據(jù),預測過程中通過候選框判斷是否有檢測目標落入候選框。若有目標落入框內(nèi),則其概率為:

      在對目標進行檢測過程中圖像大小不一,種類繁多,針對如何確定候選框初始位置,YOLOv3選擇采用K-means聚類算法對邊界框的初始位置進行確定。Kmeans聚類算法屬于無監(jiān)督學習,通過指定K值作為中心,對周圍靠近它們的對象進行聚類操作。通過重復迭代,對聚類中心值進行更新,當類內(nèi)部差異越小,外部差異越大時即達到所期望效果,而“差異”大小的衡量是通過樣本點到所屬類質(zhì)心的距離來決定的。通常情況采用歐氏距離進行衡量,式(6)為歐式距離衡量算法,式中x為類中樣本點,μ為該類的質(zhì)心,n為每個類中的樣本數(shù)目,i為每個點標號。

      然而在K-means聚類算法中K值的選取往往難以估計,且K值的選取會直接影響到聚類的效果,同時該聚類方法的聚類結(jié)果一般情況下只能保證局部最優(yōu)聚類,以及對噪聲干擾較敏感,另外K-means聚類算法對非凸型數(shù)據(jù)和大小相差較大的數(shù)據(jù)難以達到理想聚類效果。在實際情況中,圖像中的目標個數(shù)以及類別個數(shù)一般情況下是未知的,同時目標之間的距離也可能過于分散,因此若按照指定K值進行聚類,則得到的中心點位置與實際位置相差距離太遠,而DBSCAN聚類算法對聚類簇的形狀沒有偏倚,同時不用輸入要劃分的聚類個數(shù)[11],僅設(shè)定目標出現(xiàn)半徑,由密度可達進行聚類也可以避免中心點和實際位置相差太遠造成的影響,因此本文提出融合DBSCAN的DB-K聚類方法。該方法首先通過DBSCAN聚類算法,在忽略中心點的情況下得到首次較好聚類效果,得到若干已完成的類,隨后增加多尺度聚類,進一步獲得檢測目標的局部和整體信息,具體為對檢測目標的輪廓信息進行多尺度聚類。經(jīng)過多尺度聚類和卷積操作,可以獲得初代特征圖。最后將這些類作為輸入數(shù)據(jù),通過K-means算法進行劃分聚類,這樣便可以獲得準確的中心點位置。通過這種方法可以有效加速數(shù)據(jù)集收斂,提升小目標分類精確度。

      DBSCAN聚類算法中鄰域的樣本分布緊密程度使用參數(shù)(?,MinPts)描述,輸入樣本為:

      如果子樣本集樣本個數(shù)滿足式(8):

      則將子樣本加入到核心樣本集合(9)中:

      隨后,核心對象通過鄰域距離閾值可查找所有的子樣本集,以便于更新當前簇樣本集合,未訪問的樣本集合也會隨之更新,最后經(jīng)過迭代輸出,輸出結(jié)果為式(10):

      YOLOv3中K-means聚類算法種子點是隨機選取的,這種方式增加了聚類的隨機性,會導致聚類效果不佳。本文提出一種減小種子點選取隨機性的方法。首先通過誤差平方和方法,如式(11)所示,得到K值,再經(jīng)過K-means算法得到首次聚類中心。判斷已得到的K個聚類情況,將最近的類進行合并,減小聚類中心數(shù),當進行下次聚類時對應的聚類數(shù)也會隨之減小,通過該方法可得到理想的聚類數(shù)。經(jīng)過迭代,當評判函數(shù)收斂達到預期值,即可獲得最佳聚類效果。

      實驗通過選取400個隨機點分別由K-means聚類算法和本文提出的DB-K混合聚類算法進行測試。Kmeans聚類算法中,K值指定為3,實驗結(jié)果如圖6所示。在DB-K聚類算法中由DBSCAN聚類算法可得K值為3,實驗結(jié)果如圖7所示。通過實驗結(jié)果可明顯看出,本文所提出的方法有更好的聚類效果。

      圖6 K-means聚類算法Fig.6 K-means clustering method

      圖7 DB-K聚類算法Fig.7 DB-K clustering method

      本文通過融合DBSCAN聚類算法以及對傳統(tǒng)Kmeans聚類算法改進,提升了檢測目標在不同數(shù)據(jù)集和復雜環(huán)境下的分類效果,使目標分類效果更佳,同時增加了抗噪聲和干擾的影響。在后期目標識別中起到了事半功倍的目的。

      3 候選框的確定

      將檢測圖像輸入Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)中,網(wǎng)絡(luò)中卷積層對行人特征進行提取、訓練和預測。本文采用DBSCAN聚類算法先得到樣本子集,再通過改進Kmeans聚類算法對數(shù)據(jù)集進行訓練得到聚類候選框。輸入圖像分割后得到S×S個單元格,每個單元格可預測B個候選框,同時每個候選框?qū)?個預測參數(shù)。候選框總數(shù)為S×S×B個。式(12)為判斷是否有目標在候選框內(nèi),若無目標則概率為0,有目標則概率為1。

      候選框中若無預測目標則將該候選框置信度設(shè)置為0,若存在目標則該候選框置信度應為式(13)所示:

      IoU(intersection over union)表示預測框和實際框交集面積與并集面積之比[12],也反映了檢測目標是否存在于候選框中,如式(14)所示:

      3.1 行人候選框確定

      總數(shù)為S×S×B個候選框內(nèi)有目標存在且為行人的概率如式(15)所示:

      通過式(16)將候選框置信度和所檢測目標的存在概率相乘可以得到行人類置信度:

      通過以上步驟候選邊框已經(jīng)和檢測對象對應,最后通過NMS將不合適的行人候選框剔除,僅保留最佳行人候選框。最終輸出框的內(nèi)容為[x,y,w,h,C,conf],分別為目標框的偏移量、寬度、高度、類別及置信度。

      3.2 交通工具候選框確定

      總數(shù)為S×S×B個候選框中存在目標且為交通工具的概率為式(17)所示:

      相應的,若不存在交通工具則置信度conf為0,若存在交通工具則置信度為式(18)所示:

      最后通過與處理行人候選框相同的方法,經(jīng)過非極大值抑制后保留最佳交通工具候選框,同時給出相應參數(shù)[x,y,w,h,C,conf]。

      4 實驗與分析

      本文實驗在Linux系統(tǒng)環(huán)境下完成,計算機系統(tǒng)配置為Ubuntu18.04、CUDA(compute unified device architecture)11.0、CUDNN(CUDA deep neural network library)8.0。硬件環(huán)境搭載核心數(shù)為8核Interl-CPU-10700F,顯卡選用RTX2020(Ti),計算機內(nèi)存16 GB,實驗過程中使用GPU進行加速訓練。

      4.1 行人及交通工具數(shù)據(jù)集

      本文數(shù)據(jù)集選用Pascal VOC 2007、2012以及MSCOCO數(shù)據(jù)集進行訓練。Pascal VOC為圖像識別和分類提供了一整套標準化的優(yōu)秀的數(shù)據(jù)集,從2007年到2012年該組織提供了大量圖片以及對應的標簽,利用這些數(shù)據(jù),實現(xiàn)圖像的分類、目標檢測識別、圖像分割三種任務[13]。在這些圖片中,一共包含了4個大類、20個小類的物體。MS-COCO數(shù)據(jù)集是微軟團隊獲取的一個可以用來進行圖像識別、分割和捕捉的大型數(shù)據(jù)集[14]。該數(shù)據(jù)集主要包括日常生活中的人、交通工具、動物等類別,通過精確地分割將圖像中的目標進行了準確的標定。MS-COCO數(shù)據(jù)集中包含91類目標、328 000個影像數(shù)據(jù)和2 500 000個標簽,基本可以滿足當前實驗需要。

      4.2 模型訓練

      在對數(shù)據(jù)集進行訓練時更改YOLOv3的配置文件,包括模式選擇、網(wǎng)絡(luò)輸入的寬和高以及通道數(shù)、動量、權(quán)重衰減、飽和度、曝光度和色調(diào)等,這些更改可以對圖像進行數(shù)據(jù)增強預處理,提高了數(shù)據(jù)模型的泛化能力。由于YOLOv3網(wǎng)絡(luò)的輸入圖像要求為416×416,在將圖像數(shù)據(jù)輸入到網(wǎng)絡(luò)模型時應將圖片大小調(diào)整為該尺寸來達到最佳模型訓練效果。

      本次實驗中設(shè)置迭代次數(shù)為30 000次,動量因子(momentum)和權(quán)重衰減分別設(shè)置為0.9和0.000 5,實驗過程中小批量樣本數(shù)設(shè)置為32,初始學習率為0.01,為防止過擬合將正則化系數(shù)設(shè)置為0.000 5,并階段性逐級縮小為原來的1/10。同時開啟多尺度訓練以增強模型對不同尺寸圖像的魯棒性。隨著迭代次數(shù)的增加損失函數(shù)逐漸收斂,當?shù)螖?shù)達到20 000次時,損失值已接近0.03,當訓練次數(shù)達到28 000次左右時,損失值在0.03上下浮動,此時可以判定訓練已達到預期效果,損失變化曲線如圖8所示。

      圖8 損失變化曲線Fig.8 Loss change curve

      當訓練次數(shù)達到30 000次時,IoU值逐漸收斂于1,實驗結(jié)果為理想狀態(tài),平均IoU曲線如圖9所示。隨著迭代次數(shù)增加召回率逐漸趨于1,精確率和召回率曲線如圖10所示。

      圖9 IoU變化曲線Fig.9 IoU change curve

      圖10 Precision和Recall變化曲線Fig.10 Precision and Recall changecurve

      4.3 實驗結(jié)果分析

      本文選擇Faster-RCNN、SSD以及YOLOv3目標檢測算法來做對比實驗。Faster-RCNN屬于兩步檢測算法,先提取感興趣區(qū)域,即判斷是所檢測圖像的前景或背景,之后再對圖像中目標進行分類,F(xiàn)aster-RCNN目標檢測算法由Ross Girshick團隊在2015年提出,該算法的核心為一個RPN網(wǎng)絡(luò)。SSD結(jié)合了Faster-RCNN和YOLO的優(yōu)點,該算法借鑒了YOLO算法,將檢測轉(zhuǎn)化為回歸機制,同時借鑒了anchor機制。SSD的anchor預測不是對目標的每個位置進行精確預測,而是跟YOLO一樣將輸入圖像劃分為一定數(shù)量的網(wǎng)格,然后根據(jù)每個網(wǎng)格生成預測框。

      改進后YOLOv3目標檢測算法首先通過融合DBSCAN聚類方法得到首次聚類結(jié)果,如圖11所示,為測試圖像DBSCAN聚類結(jié)果,可得DBSCAN聚類對檢測圖像的背景和目標信息進行了有效分類。

      圖11 DBSCAN聚類結(jié)果Fig.11 DBSCAN clustering result

      然后利用多尺度聚類獲取檢測圖像中目標的具體輪廓信息,如圖12所示,為測試圖像多尺度聚類結(jié)果。最后通過卷積網(wǎng)絡(luò)獲得輸入圖像初代特征圖,如圖13所示,為測試圖像初代特征圖。

      圖12 多尺度聚類結(jié)果Fig.12 Multi-scale clustering result

      圖13 初代特征圖Fig.13 Primary feature map

      最終的聚類結(jié)果通過輪廓系數(shù)法(silhouette coefficient)[15]進行評估,計算方法如式(19)所示:

      式中,a(i)代表樣本與其自身所在簇中的其他樣本的相似度,b(i)樣本與其他簇中的樣本的相似度??梢缘玫絪(i)的值為0.94,接近于1,說明樣本聚類合理,結(jié)果沒有偏倚。

      在目標被遮擋情況下改進YOLOv3算法與Faster-RCNN、SSD以及YOLOv3目標檢測算法在VOC2007+2012數(shù)據(jù)集訓練后的實際檢測效果圖如圖14所示,可明顯看到改進YOLOv3算法對小目標識別率以及識別精度較論文中對比算法有顯著提高。本文算法與對照組算法在MS-COCO數(shù)據(jù)集實際檢測效果圖如圖15所示,改進后的YOLOv3算法提升了對小目標以及遮擋目標的檢測準確率。

      圖14 VOC數(shù)據(jù)集檢測效果對比Fig.14 Comparison of detection effects of VOC dataset

      圖15 MS-COCO數(shù)據(jù)集檢測效果對比Fig.15 Comparison of detection effects of MS-COCO dataset

      目標檢測領(lǐng)域中精確率(precision)、召回率(recall)、平均精度均值(mAP)、識別耗時(s)以及F1值常被作為檢測效果的評價標準。其中精確率表示為預測為正樣本中真正的正樣本占有比例,召回率表示樣本中的正樣本被預測正確的比例。用TP代表預測和實際都為正的樣本,F(xiàn)P代表預測為正實際為負的樣本,P代表精確率,則精確率計算公式如式(20)所示:

      用R代表召回率,F(xiàn)N代表預測為正樣本實際為正的樣本,則召回率計算公式如式(21)所示:

      平均精度均值表示各類別平均精度的均值,它反映了全局性能指標。其中AP表示平均精度,用來量化分類器性能。在圖10中,曲線與坐標軸所圍成的面積即為AP值,如式(22)所示:

      則平均精度均值計算方法如式(23)所示:

      式中,m代表類別數(shù)。

      F1值為精確率和召回率的調(diào)和平均數(shù),計算方法如式(24)所示:

      改進后YOLOv3算法與其他各模型在VOC2007+2012數(shù)據(jù)集上的檢測效果對比如表1所示。改進后YOLOv3算法與其他各模型在MS-COCOC數(shù)據(jù)集上的檢測效果對比如表2所示。從實驗結(jié)果可以得到,改進后的YOLOv3算法比原算法在VOC2007+2012數(shù)據(jù)集上mAP提升14.9個百分點,召回率提升6.5個百分點,在MS-COCO數(shù)據(jù)集上mAP提升12.5個百分點,召回率提升8.6個百分點。

      表1 各模型在VOC2007+2012數(shù)據(jù)集的檢測效果對比Table 1 Comparison of detection effects of each model on VOC2007+2012 dataset

      表2 各模型在MS-COCO數(shù)據(jù)集的檢測效果對比Table 2 Comparison of detection effects of each model on MS-COCO dataset

      5 結(jié)束語

      本文針對YOLOv3目標檢測算法對小目標、遮擋目標識別效率不高的問題提出了相應的改進方法。通過融合DBSCAN聚類算法和對K-means聚類算法中種子點K值的合理選取分別做出了改進,并通過實驗進行了論證。由實驗結(jié)果可知,改進后的YOLOv3目標檢測算法在VOC2007+2012數(shù)據(jù)集和MS-COCO數(shù)據(jù)集上對小目標以及遮擋目標的識別準確率上有明顯提升,召回率分別達到81.9%和82.4%,平均精度均值分別達到70.2%和69.2%,降低了漏檢率。下一步工作將在保證檢測精度的情況下優(yōu)化Darknet-53網(wǎng)絡(luò)結(jié)構(gòu),達到節(jié)省計算機性能,同時進一步提升檢測速度的目的。

      猜你喜歡
      候選框卷積聚類
      重定位非極大值抑制算法
      面向自然場景文本檢測的改進NMS算法
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      基于Soft-NMS的候選框去冗余加速器設(shè)計*
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標跟蹤算法
      一種針對特定目標的提議算法
      基于DBSACN聚類算法的XML文檔聚類
      電子測試(2017年15期)2017-12-18 07:19:27
      基于改進的遺傳算法的模糊聚類算法
      一種層次初始的聚類個數(shù)自適應的聚類方法研究
      孝感市| 金塔县| 锦州市| 永修县| 屯昌县| 磐安县| 东莞市| 崇信县| 佳木斯市| 惠安县| 仙桃市| 宁明县| 铜山县| 望奎县| 濉溪县| 铜鼓县| 修水县| 墨江| 湟源县| 子长县| 双牌县| 保康县| 潜江市| 宁河县| 大厂| 镇雄县| 通城县| 北辰区| 城固县| 衡阳县| 巴林右旗| 油尖旺区| 南部县| 固镇县| 紫云| 阳西县| 长兴县| 名山县| 安西县| 黄大仙区| 客服|