• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YOLOv8-OCR的井下人員檢測(cè)算法

      2024-09-16 00:00:00倪云峰霍潔侯穎王靜郭蘋
      無(wú)線電工程 2024年8期
      關(guān)鍵詞:注意力機(jī)制目標(biāo)檢測(cè)

      關(guān)鍵詞:目標(biāo)檢測(cè);YOLOv8:光學(xué)字符識(shí)別;反光號(hào)碼牌;注意力機(jī)制

      0引言

      煤炭工業(yè)對(duì)我國(guó)國(guó)民經(jīng)濟(jì)快速發(fā)展具有基礎(chǔ)性作用。2022年中國(guó)擁有的煤炭?jī)?chǔ)量約占世界總量的15.1%,居世界第三位,僅次于美國(guó)和俄羅斯。煤炭產(chǎn)量比上年增長(zhǎng)7.9%,超過(guò)全球煤炭總產(chǎn)量的50.8%,消費(fèi)量比上年增長(zhǎng)0.6%,達(dá)到了161.10 EJ(占比為27%),位居世界第一。

      在我國(guó),煤礦環(huán)境錯(cuò)綜復(fù)雜,一旦發(fā)生事故就會(huì)造成重大的經(jīng)濟(jì)損失以及人員的傷亡。因此,對(duì)井下工作人員的嚴(yán)格保護(hù)變得至關(guān)重要。通常,井下許多重點(diǎn)安全區(qū)域都是以人員監(jiān)控管理為主。由于我國(guó)很多煤礦工人在井下穿著統(tǒng)一的安全帽和工作服,一旦發(fā)生事故,難以確定受害者的身份以及位置,對(duì)后續(xù)的救援增加了困難,因此,改善井下人員的著裝對(duì)防范安全事故有著至關(guān)重要的作用。本文創(chuàng)新性地將行人屬性應(yīng)用到井下,將反光號(hào)碼牌貼在安全帽和工作服上作為屬性進(jìn)行識(shí)別。安全帽和工作服上的反光號(hào)碼牌在井下昏暗環(huán)境中容易被攝像頭捕捉,從而提高井下人員的人身安全。近年來(lái),隨著視頻監(jiān)控系統(tǒng)的普及,基于圖像處理的著裝識(shí)別技術(shù)得到快速發(fā)展。但是,復(fù)雜的背景干擾和非剛性的人體結(jié)構(gòu)特點(diǎn)使得直接從原圖提取著裝特征的方法效果不佳。因此,大多數(shù)現(xiàn)有的識(shí)別算法依賴基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法。

      圖像的目標(biāo)檢測(cè)是對(duì)目標(biāo)進(jìn)行識(shí)別然后框出目標(biāo)所在位置。目前的煤礦井下人員檢測(cè)方法主要以深度學(xué)習(xí)的目標(biāo)檢測(cè)為框架,包括R-CNN和Y0L0系列兩大類。R-CNN主要針對(duì)候選區(qū)域進(jìn)行分類回歸,檢測(cè)精度高;Y0L0系列則通過(guò)處理整個(gè)圖像而不需要復(fù)雜的設(shè)計(jì)來(lái)優(yōu)先考慮更快的檢測(cè)。

      因此,為提高人員在井下昏暗環(huán)境的檢測(cè)性能,本文采用改進(jìn)的Y0L0v8算法對(duì)井下人員進(jìn)行檢測(cè),首先,本文創(chuàng)新性地將行人屬性應(yīng)用到工地場(chǎng)景,將反光號(hào)碼牌貼在安全帽和工作服上作為屬性進(jìn)行識(shí)別,之后收集井下環(huán)境的圖片,通過(guò)圖片的預(yù)處理構(gòu)建對(duì)應(yīng)的井下數(shù)據(jù)集,在Y0L0v8基礎(chǔ)上替換了FReLU激活函數(shù),解決了激活函數(shù)中的空間不敏感問(wèn)題,使普通的卷積也具備捕獲復(fù)雜的視覺(jué)布局能力,使模型具備像素級(jí)建模的能力。除此之外,還引入注意力機(jī)制,使得精確度提高。然后對(duì)識(shí)別的號(hào)碼牌區(qū)域用光學(xué)字符識(shí)別(Optical Character Recogni-tion,OCR)技術(shù)對(duì)區(qū)域的數(shù)字進(jìn)行識(shí)別。根據(jù)訓(xùn)練及驗(yàn)證數(shù)據(jù)集的劃分,評(píng)估不同算法下的檢測(cè)性能,與傳統(tǒng)算法YOLOv8進(jìn)行性能對(duì)比,提高了精度與速度,以及模型魯棒性,應(yīng)用性能更優(yōu)。

      1Y0L0v8算法原理

      Y0L0v8算法是由Ultralytics于2023年發(fā)布的Y0L0系列最新模型,Y0L0v8的一個(gè)關(guān)鍵特性是可擴(kuò)展性。它被設(shè)計(jì)為一個(gè)框架,支持所有以前版本的Y0L0,可以輕松地在不同版本之間切換并比較它們的性能。除了可擴(kuò)展性之外,Y0L0v8還包括許多其他創(chuàng)新,使其廣泛應(yīng)用在對(duì)象檢測(cè)和圖像分割任務(wù)上,包括新的骨干網(wǎng)絡(luò)、新的無(wú)錨網(wǎng)絡(luò)檢測(cè)頭和新的損失函數(shù)功能。Y0L0v8非常高效,可以實(shí)現(xiàn)從CPU到GPU的運(yùn)行。Y0L0v8的骨干部分與Y0L0v5基本相同,基于CSP思想,將C3模塊替換為C2f模塊。C2f模塊借鑒了YOLOv7中的ELAN思路,將C3和ELAN結(jié)合在一起組成了C2f模塊,使Y0L0v8在保證自身質(zhì)量輕的同時(shí)可以獲得更豐富的梯度流信息。在骨干末端,仍然使用最流行的快速空間金字塔池化(Spatial Pyramid Poo-ling-Fast,SPPF)模塊,依次傳遞3個(gè)大小為5×5的Maxpools,然后將每一層進(jìn)行串聯(lián),這樣既保證了不同尺度下物體的精度,同時(shí)又保證了物體的輕量化。在頸部,YOLOv8使用的特征融合方法仍然是PAN-FPN,加強(qiáng)了不同尺度下特征層信息的融合和利用。Y0L0v8的作者使用了2個(gè)上采樣和多個(gè)C2f模塊以及最終解耦的頭部結(jié)構(gòu)來(lái)組成頸部模塊。在Y0L0x中,頭部解耦的想法被Y0L0v8用于頸部的最后一部分。它將置信度和回歸盒結(jié)合起來(lái),達(dá)到了一個(gè)新的精度水平。對(duì)于正樣本和負(fù)樣本分配,Y0L0v8算法使用任務(wù)對(duì)齊單階段目標(biāo)檢測(cè)(Task-aligned One-stage Object Detection,TOOD)的分酉己器,根據(jù)分類和回歸的加權(quán)得分選擇正樣本。

      Y0L0v8支持所有版本的Y0L0,可以在不同版本之間隨意切換,還可以在各種硬件平臺(tái)(CPU-GPU)上運(yùn)行,具有很強(qiáng)的靈活性。Y0L0v8網(wǎng)絡(luò)架構(gòu)如圖1所示。

      2改進(jìn)模型

      2.1引入卷積注意力模塊注意力機(jī)制

      注意力機(jī)制最初應(yīng)用于計(jì)算機(jī)視覺(jué)以模擬人類視覺(jué)注意力處理。起源于2014年Google Deep-Mind團(tuán)隊(duì),此后在各種深度學(xué)習(xí)領(lǐng)域得到了廣泛應(yīng)用,例如自然語(yǔ)言處理、對(duì)象檢測(cè)和語(yǔ)義分割。通過(guò)將注意力機(jī)制納入目標(biāo)檢測(cè)中,模型可以專注于圖像中的關(guān)鍵信息,過(guò)濾掉不相關(guān)的數(shù)據(jù),從而優(yōu)化計(jì)算資源并提高小目標(biāo)的檢測(cè)性能。本文將卷積塊注意力模塊(Convolutional Block AttentionModule.CBAM)引入圖2所示的黃色位置。

      CBAM結(jié)構(gòu)由通道注意力模塊和空間注意力模塊組成,如圖3所示。通道注意力側(cè)重于識(shí)別具有特定目標(biāo)特征的相關(guān)通道,而空間注意力則強(qiáng)調(diào)空間域內(nèi)的關(guān)鍵信息。通過(guò)將網(wǎng)絡(luò)的注意力引導(dǎo)到感興趣的區(qū)域,這些機(jī)制增強(qiáng)了特征提取,特別是對(duì)于表面字符等小目標(biāo),從而顯著提高了檢測(cè)精度和整體模型性能。通道和空間注意力模塊與卷積層的集成通過(guò)自適應(yīng)調(diào)整進(jìn)一步優(yōu)化特征圖,過(guò)程如下:

      通道注意力模塊通過(guò)輸入,分別通過(guò)多層感知機(jī)(Multi-Layer Perception,MLP)對(duì)MLP輸出的特征進(jìn)行逐元素求和運(yùn)算,生成最終的通道關(guān)注特征圖。對(duì)其與輸入特征圖進(jìn)行乘法運(yùn)算,生成空間注意力模塊所需的輸入特征。該過(guò)程表示如下:

      空間注意力模塊使用上述注意輸出的特征圖作為該模塊的輸入特征圖。將特征與模塊輸入相乘,生成最終生成的特征圖。該過(guò)程表示如下:

      2.2替換激活函數(shù)

      通過(guò)保留基本特征并消除冗余,激活函數(shù)有效地映射激活的神經(jīng)元特征,從而增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的表達(dá)能力,在整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中也起到了重要作用。目標(biāo)檢測(cè)常用的激活函數(shù)包括Sigmoid、tanh、ReLU、PReLU和Mish,都有助于網(wǎng)絡(luò)的非線性能力。然而,這些函數(shù)有一個(gè)共同的局限性:只激活單個(gè)特征點(diǎn),而不考慮上下文信息,導(dǎo)致激活域大小固定為1X1,并且對(duì)整體圖像信息的關(guān)注有限。

      針對(duì)此問(wèn)題,香港理工大學(xué)于2020年提出一種專門用于圖像識(shí)別Funnel激活函數(shù)(FReLU)。本文將激活函數(shù)中的Sigmoid-Weighted Linear Unit(SiLU)替換為FReLU的模塊稱為CBF模塊,如圖4所示。FReLU是一種專用于視覺(jué)任務(wù)的激活函數(shù),增加了空間條件來(lái)擴(kuò)展ReLU和PReLU。FReLU提出的二維漏斗樣激活函數(shù),通過(guò)在ReLU激活函數(shù)中加入漏斗條件T(x),將二維漏斗樣激活函數(shù)擴(kuò)展到2D。只引入少量的計(jì)算和過(guò)擬合風(fēng)險(xiǎn)來(lái)激活網(wǎng)絡(luò)中空間不敏感的信息,以改善視覺(jué)任務(wù)。該過(guò)程表示如下:

      激活特性分析:FReLU激活函數(shù)中(激活特性如圖5所示),在進(jìn)行非線性激活時(shí),max()函數(shù)給了網(wǎng)絡(luò)模型是否關(guān)注空間信息的2種選擇,當(dāng)卷積的結(jié)果T(x)更大時(shí),模型將關(guān)注到更多的空間信息而不再是單個(gè)特征點(diǎn)。

      通過(guò)分析可以看出,采用FReLU激活函數(shù)進(jìn)行模型搭建將使模型有更廣的激活域,同時(shí)增強(qiáng)對(duì)空間信息捕獲能力。

      2.30CR

      OCR技術(shù)的發(fā)展得益于計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)和自然語(yǔ)言處理等領(lǐng)域的進(jìn)步?,F(xiàn)代0CR系統(tǒng)通常基于深度學(xué)習(xí)模型,如CNN和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),這些模型能夠更好地捕捉字符的特征和上下文信息,提高識(shí)別準(zhǔn)確性和魯棒性。字符識(shí)別就是對(duì)分割的字符一個(gè)個(gè)進(jìn)行識(shí)別,一般分為模板匹配法與神經(jīng)網(wǎng)絡(luò)2種算法。模板匹配計(jì)算目標(biāo)圖像與每個(gè)模板圖像之間的距離,并根據(jù)相似度對(duì)它們進(jìn)行排序,最相似的模板代表識(shí)別出的字符。然而,該算法需要結(jié)構(gòu)良好的字符,并且容易受到角度變化和拉伸引起的扭曲的影響。相比之下,神經(jīng)網(wǎng)絡(luò)利用字符間特征來(lái)實(shí)現(xiàn)魯棒識(shí)別,能夠從不同類型的噪聲干擾中提取不變特征,即使在處理變換后的目標(biāo)字符圖像時(shí)也表現(xiàn)出很強(qiáng)的適應(yīng)性。因此,本文在識(shí)別過(guò)程中采用Easy0CR,從預(yù)處理階段得到的增強(qiáng)圖像中讀出數(shù)字。

      Easy 0CR是一種支持70多種語(yǔ)言的0CR方法,如漢語(yǔ)、英語(yǔ)和印地語(yǔ)等。0CR是基于ResNet、長(zhǎng)短期記憶(Long Short Term Memory,LSTM)和連接時(shí)間分類(Connectionist Temporal Classification,CTC)模型的字符識(shí)別。Easy 0CR有3個(gè)主要組件,網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。①特征提取,對(duì)ResNet模型進(jìn)行特征提取訓(xùn)練。②序列標(biāo)記,采用LSTM算法。③基于CTC進(jìn)行解碼。在識(shí)別過(guò)程中利用了EasyOCR的Readtext功能。簡(jiǎn)單0CR的主要特點(diǎn)是從圖像中讀取字母和數(shù)字,并返回其所在位置的坐標(biāo)。

      3實(shí)驗(yàn)過(guò)程

      3.1實(shí)驗(yàn)環(huán)境

      本實(shí)驗(yàn)所用計(jì)算機(jī)操作系統(tǒng)為Windows 11 64位,處理器型號(hào)為i7-12700H,顯卡型號(hào)為NVIDIAGeForce RTX 3060 Ti,內(nèi)存8GB。以PyTorch框架:為基礎(chǔ),編程環(huán)境為Python 3.8。

      3.2數(shù)據(jù)集和預(yù)處理

      為驗(yàn)證本文井下人員著裝號(hào)碼牌檢測(cè)方法的有效性,利用自建井下數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),共采集1 830張圖片,標(biāo)簽包括號(hào)碼牌0~9,分別代表張某(0)、王某(1)、李某(2)、劉某(3)、陳某(4)、楊某(5)、趙某(6)、周某(7)、吳某(8)、許某(9)。為滿足數(shù)據(jù)集的多樣化要求并提高模型的穩(wěn)健性,選擇3種圖像處理技術(shù)擴(kuò)大數(shù)據(jù)集的廣度和深度,從而增強(qiáng)模型的彈性,包括水平翻轉(zhuǎn)以引入方向不變性、添加隨機(jī)高斯噪聲以提高針對(duì)相機(jī)失真的魯棒性,以及隨機(jī)亮度調(diào)整以模擬同一位置的照明條件的變化。

      擴(kuò)充后的數(shù)據(jù)集共有8581張圖片,并將數(shù)據(jù)集圖片按照7:2:1的比例劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集。

      3.3訓(xùn)練模型

      本文數(shù)據(jù)集來(lái)源于自建井下數(shù)據(jù)集,其中圖像為某煤礦井下圖片,分辨率均為2048pixel×2048pixel。數(shù)據(jù)集中有近8580張圖片,對(duì)圖片中的人員號(hào)碼牌進(jìn)行標(biāo)注,共包含10個(gè)類別。共計(jì)訓(xùn)練集6000張,測(cè)試集1700張。數(shù)據(jù)中使用0~9的標(biāo)簽代替人員信息。采用PyTorch框架對(duì)本文改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練學(xué)習(xí)。訓(xùn)練過(guò)程中每批次圖像為32張,模型在數(shù)據(jù)集中循環(huán)訓(xùn)練300次,學(xué)習(xí)率為0.0001。如果3個(gè)連續(xù)循環(huán)訓(xùn)練損失不下降,將學(xué)習(xí)率降低10倍。如果10個(gè)連續(xù)循環(huán)訓(xùn)練參數(shù)不下降,結(jié)束訓(xùn)練過(guò)程。

      圖7是使用Y0L0v8進(jìn)行檢測(cè)的結(jié)果,其中對(duì)帶有2、3、5、6、9號(hào)碼牌的井下人員檢測(cè)率達(dá)到了90%以上(9號(hào)碼牌的檢測(cè)準(zhǔn)確率最高為94.5%,0號(hào)碼牌的測(cè)試準(zhǔn)確率僅為71.2%)。

      圖8是使用YOLOv8+CBAM+CBF進(jìn)行檢測(cè)的結(jié)果,其中對(duì)帶有1、2、3、5、6、8、9號(hào)碼牌的井下人員檢測(cè)率達(dá)到了90%以上(6號(hào)碼牌的檢測(cè)準(zhǔn)確率最高為97.9%,0號(hào)碼牌的測(cè)試準(zhǔn)確率僅為76.6%)。

      4實(shí)驗(yàn)結(jié)果分析

      4.1評(píng)價(jià)指標(biāo)

      為了驗(yàn)證模型有效性和檢測(cè)效果,選取平均精度均值(mean Average Precision,mAP)、召回率(Re-call,R)、準(zhǔn)確率(Precision,P)和每幀推理時(shí)間作為評(píng)價(jià)指標(biāo)。

      4.2反光號(hào)碼牌區(qū)域檢測(cè)效果驗(yàn)證

      本文首先驗(yàn)證提出的模型在進(jìn)行號(hào)碼牌牌檢測(cè)時(shí)的有效性。為了進(jìn)一步驗(yàn)證上述改進(jìn)方法的效果,進(jìn)行了消融實(shí)驗(yàn),結(jié)果如圖9和表1所示。由于本文主要針對(duì)YOLOv8網(wǎng)絡(luò)進(jìn)行改進(jìn),實(shí)驗(yàn)選取YOLOv8網(wǎng)絡(luò)作為對(duì)比基準(zhǔn)??梢钥闯?,為提高YOLOv8網(wǎng)絡(luò)的精度,引入了CBAM注意力機(jī)制模塊,模型準(zhǔn)確率從85.2%提高到89.7%,提高了4%。然而,這一改進(jìn)使得召回率下降了6%。召回率的下降可歸因于通道注意力和空間注意力機(jī)制的引入,增加了網(wǎng)絡(luò)的深度。因此,當(dāng)在神經(jīng)網(wǎng)絡(luò)的較低層學(xué)習(xí)相似的物體時(shí),判別性特征變得不那么突出,導(dǎo)致檢測(cè)到物體但分類不正確,從而降低召回率。盡管如此,平均精度還是提高了近1%,證明了改進(jìn)模型的有效性。引入CBF模塊后,進(jìn)一步提升了網(wǎng)絡(luò)性能,準(zhǔn)確率由89.7%提高至90.6%,使得最終檢測(cè)結(jié)果更準(zhǔn)確。相較于原YOLOv8網(wǎng)絡(luò),YOLOV8+CBAM+CBF模型模型的準(zhǔn)確率由85.2%提高至91.2%,召回率較原網(wǎng)絡(luò)沒(méi)有變化,平均精度提升了2.7%。進(jìn)一步提高了模型的準(zhǔn)確性并證明了其有效性。

      4.3反光號(hào)碼牌識(shí)別效果驗(yàn)證

      結(jié)合YOLOv8+CBAM+CBF和Easy OCR的識(shí)另IJ網(wǎng)絡(luò),在自建數(shù)據(jù)集上與傳統(tǒng)字符識(shí)別算法EasyPR進(jìn)行對(duì)比測(cè)試,結(jié)果如圖10和表2所示。

      實(shí)驗(yàn)結(jié)果表明,在自建數(shù)據(jù)集上,本文提出的基于YOLOV8的OCR井下人員識(shí)別算法準(zhǔn)確率達(dá)到了93.2%,較Easy PR算法詞準(zhǔn)確率提高了16%。而檢測(cè)一張2048pixelx2 048 pixel圖片僅用時(shí)24.4ms,符合實(shí)時(shí)檢測(cè)的時(shí)間要求。

      從圖10和表2結(jié)果可以看出,本文采用先檢測(cè)人員著裝號(hào)碼牌的區(qū)域,然后在該區(qū)域上對(duì)數(shù)字進(jìn)行識(shí)別,其虛報(bào)率(偽號(hào)碼牌占有效總號(hào)碼牌的比例)和漏檢率有很大改善,去除了不少干擾,為后續(xù)的字符識(shí)別節(jié)約了時(shí)間(即阻止了偽號(hào)碼牌進(jìn)入字符識(shí)別模型)。

      井下人員反光號(hào)碼牌檢測(cè)結(jié)果如圖11所示,檢測(cè)結(jié)果用矩形框表示,框上是識(shí)別的類別標(biāo)簽和相應(yīng)的概率。通過(guò)對(duì)比看出,圖11(a)中YOLOv8模型對(duì)煤礦昏暗背景下的小目標(biāo)檢測(cè)能力較差;圖11(b)中的改進(jìn)模型對(duì)以上問(wèn)題都有明顯改善,進(jìn)一步證明了改進(jìn)模型的有效性和實(shí)用性。

      5結(jié)束語(yǔ)

      針對(duì)煤礦人員在井下惡劣環(huán)境的檢測(cè)效果,本文創(chuàng)新性地將行人屬性應(yīng)用到煤礦場(chǎng)景下,以提高檢測(cè)性能。針對(duì)井下小目標(biāo)檢測(cè)率低的缺點(diǎn),采用注意力模型,提高了網(wǎng)絡(luò)對(duì)不同尺度的特征提取能力;然后通過(guò)引入視覺(jué)激活模塊提高了模型檢測(cè)準(zhǔn)確率;最后對(duì)檢測(cè)到的號(hào)碼牌區(qū)域用字符識(shí)別技術(shù)對(duì)區(qū)域的數(shù)字進(jìn)行識(shí)別,進(jìn)一步提高了模型的檢測(cè)精度。實(shí)驗(yàn)結(jié)果表明,本文算法與原算法相比能夠更有效地應(yīng)對(duì)井下環(huán)境中的光照變化和干擾因素并且滿足實(shí)時(shí)檢測(cè)的要求。

      猜你喜歡
      注意力機(jī)制目標(biāo)檢測(cè)
      面向短文本的網(wǎng)絡(luò)輿情話題
      基于自注意力與動(dòng)態(tài)路由的文本建模方法
      基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
      軟件工程(2017年11期)2018-01-05 08:06:09
      InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
      視頻中目標(biāo)檢測(cè)算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
      移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
      基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測(cè)
      乌拉特中旗| 莒南县| 湘乡市| 丰镇市| 微博| 交城县| 砀山县| 新建县| 分宜县| 曲阜市| 石泉县| 中超| 丹巴县| 平武县| 苍南县| 德惠市| 西峡县| 历史| 谢通门县| 锦屏县| 田林县| 兴仁县| 利川市| 什邡市| 龙南县| 武邑县| 罗定市| 沙坪坝区| 潮安县| 黄梅县| 星子县| 拉孜县| 莆田市| 航空| 德安县| 桂平市| 高唐县| 辽中县| 申扎县| 扶余县| 襄樊市|