• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于脈沖頻率與輸入電流關(guān)系的SNN訓(xùn)練算法

      2022-05-19 13:26:52蘭浩鑫陳云華
      計算機(jī)工程與應(yīng)用 2022年10期
      關(guān)鍵詞:神經(jīng)元脈沖精度

      蘭浩鑫,陳云華

      廣東工業(yè)大學(xué) 計算機(jī)學(xué)院,廣州 510006

      脈沖神經(jīng)網(wǎng)絡(luò)(spiking neural network,SNN)通過脈沖事件驅(qū)動的通信實現(xiàn)神經(jīng)元和突觸計算,其與事件傳感器相結(jié)合,有望突破深度人工神經(jīng)網(wǎng)絡(luò)所面臨的能源和吞吐量瓶頸,實現(xiàn)低功耗、低延遲和高精度的目標(biāo)識別[1]。然而,由于SNN采用的是生物神經(jīng)元模型,使得SNN同時具有空間和時間特性,生物神經(jīng)元相較于人工神經(jīng)元有著復(fù)雜的時間動力學(xué)和離散脈沖事件產(chǎn)生過程不可微的性質(zhì),導(dǎo)致反向傳播(backpropagation,BP)算法難以直接應(yīng)用于SNN訓(xùn)練。

      為此,研究者提出線性假設(shè)、忽略不可微、替代微分函數(shù)等[2-8]方式,使得可利用BP算法對SNN進(jìn)行訓(xùn)練?,F(xiàn)有研究主要分為基于時間編碼和基于頻率編碼兩大類。

      基于時間編碼的方法主要包括線性假設(shè)法和因果集法。Bohte等人[2]提出的SpikeProp及Ghosh-Dastidar等人[3]提出的Multi-SpikeProp都是基于線性假設(shè),將神經(jīng)元的輸入時間和輸出時間進(jìn)行線性處理,以繞過脈沖函數(shù)不連續(xù)的問題。Mostafa[4]基于網(wǎng)絡(luò)前后兩層神經(jīng)元發(fā)放脈沖的時間關(guān)系,建立具有局部線性關(guān)系的因果集(causal set),求線性關(guān)系的梯度調(diào)整脈沖發(fā)放時間,使正確發(fā)放的神經(jīng)元比其他神經(jīng)元更早發(fā)放脈沖,通過因果集的關(guān)系來避免直接對脈沖函數(shù)求梯度。時間編碼將信息編碼到脈沖序列精準(zhǔn)的時刻點(diǎn),只需少量的脈沖就可以表達(dá)準(zhǔn)確的信息,因此這類方法限制某些神經(jīng)元或者全部神經(jīng)元發(fā)放一個脈沖,發(fā)放的脈沖數(shù)較少,具有功耗低的優(yōu)點(diǎn),但由于網(wǎng)絡(luò)結(jié)構(gòu)只有一個到兩個隱藏層的全連接結(jié)構(gòu),在較大型數(shù)據(jù)集上的精度不夠理想。

      基于頻率編碼的方法主要采用忽略不可微、近似脈沖函數(shù)、替換微分函數(shù)等方法解決神經(jīng)元產(chǎn)生離散脈沖事件的不可微性。Lee等人[5]采用的是忽略不可微法,將膜電位作為可微信號來求梯度,對于膜電位的突變將其看作噪聲而忽略,通過忽略不可微的方式來實現(xiàn)梯度的反向傳播。Jin等人[6]采用的是脈沖函數(shù)近似法,將網(wǎng)絡(luò)層與層之間的數(shù)據(jù)傳遞看作“宏觀層面”,神經(jīng)元內(nèi)部的數(shù)據(jù)傳遞看作“微觀層面”,將“宏觀層面”和“微觀層面”的數(shù)據(jù)傳遞聯(lián)系起來,通過對脈沖時間函數(shù)的近似來求梯度。Wu等人[1,7-8]基于替換微分函數(shù)的方法進(jìn)行反向傳播,用矩形函數(shù)代替脈沖函數(shù)的微分函數(shù),將膜電位帶入矩形函數(shù)中得到梯度。這類方法通常具有卷積結(jié)構(gòu)的SNN,因此在較大的數(shù)據(jù)集上精度較高,但由于頻率編碼將信息編碼到脈沖頻率,需要大量的脈沖來表達(dá)準(zhǔn)確的信息,仿真時長較長,功耗較高。

      上述算法,基于頻率編碼的方法比基于時間編碼的方法識別精度高,但由于基于頻率編碼算法通常采用時間信用分配(temporal credit assignment)機(jī)制進(jìn)行參數(shù)更新,導(dǎo)致學(xué)習(xí)效率較低。為此,本文針對SNN難以直接訓(xùn)練問題,對LIF(leaky integrate-and-fire)神經(jīng)元脈沖頻率與輸入電流進(jìn)行仿真實驗,發(fā)現(xiàn)模擬脈沖序列與真實脈沖序列具有一致性,基于仿真結(jié)果建模得到脈沖頻率與輸入電流關(guān)系的顯示表達(dá),將其顯示表達(dá)的導(dǎo)數(shù)作為梯度以解決神經(jīng)元產(chǎn)生離散脈沖事件的不可微性,從而使得BP算法可以用于SNN的訓(xùn)練。針對采用時間信用分配機(jī)制的方法學(xué)習(xí)效率較低問題,本文通過LIF神經(jīng)元響應(yīng)機(jī)制進(jìn)行參數(shù)更新來提高學(xué)習(xí)效率。本文在MNIST和CIFAR10數(shù)據(jù)集上進(jìn)行精度測試,識別精度分別達(dá)到了99.53%和89.46%。在學(xué)習(xí)效率方面,本文方法在MNIST數(shù)據(jù)集上與同類型的SNN算法進(jìn)行比較,實驗結(jié)果表明本文方法的學(xué)習(xí)效率約為同類型算法的兩倍。

      1 模型及算法

      1.1 LIF神經(jīng)元脈沖頻率與輸入電流的顯示關(guān)系

      神經(jīng)科學(xué)上LIF神經(jīng)元模型的時間動力學(xué)方程及其響應(yīng)機(jī)制可以描述為:

      其中,τm代表時間常量;u代表神經(jīng)元的膜電位;Vrest代表重置電位,本文置為0;I代表神經(jīng)元接收到的輸入電流,由前一層神經(jīng)元的輸出脈沖和突觸權(quán)重決定;R為輸入電阻。一旦膜電位u超過給定的閾值Vth時,神經(jīng)元通過式(7)的脈沖函數(shù)發(fā)放一個脈沖,并且膜電位會回落到Vrest,式(7)的不可微性是導(dǎo)致BP算法不能用于SNN訓(xùn)練的主要原因。圖1表達(dá)了上述描述的LIF神經(jīng)元模型及其運(yùn)行過程。

      圖1 LIF神經(jīng)元模型及其內(nèi)部狀態(tài)變化Fig.1 LIF neuron model and its internal state changes

      為了確定脈沖發(fā)放頻率與輸入電流的關(guān)系,生物學(xué)家將恒定的輸入電流I注入到LIF神經(jīng)元中,得到LIF神經(jīng)元脈沖發(fā)放頻率,可以表達(dá)為:

      其中,f代表脈沖發(fā)放頻率,tref代表不應(yīng)期常量。

      實踐性、應(yīng)用性較強(qiáng)的市場營銷專業(yè)培養(yǎng)的畢業(yè)生應(yīng)具有的創(chuàng)新、創(chuàng)業(yè)精神、創(chuàng)新創(chuàng)業(yè)能力,與創(chuàng)新創(chuàng)業(yè)教育的核心在本質(zhì)上是一致的,將專業(yè)教育與雙創(chuàng)教育進(jìn)行融合是高等教育發(fā)展的改革路徑之一。雙創(chuàng)教育必須以專業(yè)教育為載體貫穿于人才培養(yǎng)的全過程,專業(yè)教育是雙創(chuàng)活動的核心要素,二者相輔相成、相互融合、相互促進(jìn)。專創(chuàng)融合教育的實踐取向是構(gòu)建綜合型人才培養(yǎng)的高校教育體系,并通過構(gòu)建綜合型人才培養(yǎng)的教育目標(biāo)、重構(gòu)課程內(nèi)容、加強(qiáng)學(xué)生創(chuàng)新技能培養(yǎng)的教學(xué)實踐等予以實現(xiàn)。師資隊伍在高校創(chuàng)新創(chuàng)業(yè)教育與專業(yè)教育互動融合中扮演著至關(guān)重要的作用,應(yīng)當(dāng)積極實施創(chuàng)新驅(qū)動,強(qiáng)化高校創(chuàng)新創(chuàng)業(yè)教育與專業(yè)教育互動融合中的師資隊伍建設(shè)。

      然而,真實的生物大腦接收到的是噪聲電流,噪聲產(chǎn)生的主要原因是大腦神經(jīng)元離子通道開閉與神經(jīng)遞質(zhì)的釋放具有一定隨機(jī)性。為此,神經(jīng)學(xué)家通過實驗建模的方式得到噪聲電流下LIF神經(jīng)元的發(fā)放脈沖頻率表達(dá)式,即式(3):

      其中,μ、σ2代表輸入噪聲電流的均值和方差,erf(μ)為誤差函數(shù)。

      本文在實驗仿真時需要采用基于頻率編碼生成的泊松脈沖序列(Poisson spikes train)[9],因此需要確定軟件仿真得到的輸入電流和真實情況下帶有噪聲的輸入電流LIF神經(jīng)元的響應(yīng)是否一致。通過在PyNN[10]平臺上進(jìn)行仿真,在噪聲電流標(biāo)準(zhǔn)差為0.2、0.5、1.0的情況下,得到了不同噪聲電流下仿真結(jié)果和真實情況下LIF神經(jīng)元響應(yīng)曲線,如圖2所示[11]。

      圖2 泊松脈沖序列與真實LIF神經(jīng)元的仿真結(jié)果Fig.2 Simulation result of Poisson spikes train and real LIF neuron

      由仿真結(jié)果可知,采用泊松脈沖序列的LIF神經(jīng)元響應(yīng)曲線與真實情況下LIF神經(jīng)元的響應(yīng)曲線是一致的,因此采用泊松脈沖序列進(jìn)行網(wǎng)絡(luò)訓(xùn)練從生物學(xué)上講是合理的。從理論上講可以采用式(3)進(jìn)行反向傳播,但是式(3)是神經(jīng)科學(xué)研究者通過實驗建模所得,函數(shù)過于復(fù)雜,難以應(yīng)用于實際的網(wǎng)絡(luò)訓(xùn)練。此外神經(jīng)科學(xué)領(lǐng)域研究發(fā)現(xiàn),噪聲電流通常是具有均值為0、標(biāo)準(zhǔn)差為1的高斯白噪聲[12-13],因此本文對圖2中標(biāo)準(zhǔn)差為1的LIF神經(jīng)元響應(yīng)曲線進(jìn)行建模,得到LIF神經(jīng)元脈沖發(fā)放頻率與輸入電流關(guān)系的顯示表達(dá),如式(4)所示:

      其中,α和β作為尺度因子,用于控制曲線的形狀。

      由于本文是基于上述LIF神經(jīng)元脈沖頻率與輸入電流之間顯示表達(dá)的導(dǎo)數(shù)作為反向傳播的梯度,需要求得式(4)的導(dǎo)數(shù),即式(5):

      1.2 訓(xùn)練算法

      鑒于目前主流的學(xué)習(xí)框架(TensorFlow,Pytorch)要求神經(jīng)元模型以離散序列的形式運(yùn)行,但是式(1)在時間上是連續(xù)形式的LIF神經(jīng)元模型,因此需要對LIF神經(jīng)元離散化。目前出現(xiàn)了多種離散化LIF神經(jīng)元的形式[7,14],本文采用歐拉方程的解法來離散LIF神經(jīng)元,得到如下在時間上離散的LIF模型:

      其中,M代表最后一層神經(jīng)元的總個數(shù),L代表脈沖神經(jīng)網(wǎng)絡(luò)的最后一層,T代表總時間步,分別代表輸出層第m個神經(jīng)元期望標(biāo)簽值與實際輸出值,s L,m代表最后一層第m個神經(jīng)元的輸出脈沖。

      本文是依據(jù)脈沖頻率與輸入電流的關(guān)系求得微分,因此定義網(wǎng)絡(luò)中第l層第i個神經(jīng)元脈沖的發(fā)放頻率如式(10)所示:

      第l+1層第j個神經(jīng)元接收到第l層的脈沖而轉(zhuǎn)換為總的輸入電流,如式(11)所示:

      (2)隱藏層

      與輸出層類似,仍需要計算誤差函數(shù)E對權(quán)重w和初始膜電位b的微分,從而進(jìn)行隱藏層的參數(shù)更新。首先結(jié)合式(5)定義誤差項為:

      至此,基于LIF神經(jīng)元輸出脈沖頻率與輸入電流關(guān)系的SNN訓(xùn)練算法的參數(shù)更新過程推導(dǎo)完畢。為便于說明,圖3給出了本文采用LIF神經(jīng)元響應(yīng)機(jī)制與時間信用分配方法的參數(shù)更新對比圖。從圖3中可以看出,基于時間信用分配的方法需要在每個時刻進(jìn)行前向和反向計算,這種計算方式學(xué)習(xí)效率較低,而本文方法在反向計算時根據(jù)LIF神經(jīng)元響應(yīng)機(jī)制只需更新一次參數(shù),學(xué)習(xí)效率相較于基于時間信用分配的方法進(jìn)一步提高。

      圖3 時間信用分配與LIF神經(jīng)元響應(yīng)機(jī)制對比Fig.3 Comparison of time credit assignment and LIF neuron response mechanism

      2 實驗及相關(guān)結(jié)果分析

      2.1 參數(shù)設(shè)置

      本文方法的實驗都基于Python3.7、Pytorch1.3進(jìn)行軟件仿真,硬件環(huán)境為CPU i5 10400,顯卡GTX2060,內(nèi)存16 GB的環(huán)境下進(jìn)行實驗。表1是本網(wǎng)絡(luò)中使用的一些超參數(shù)設(shè)置,包括總時間步長、神經(jīng)元閾值、LIF神經(jīng)元的泄漏項、重置電位、控制脈沖頻率與輸入電流顯示關(guān)系的尺度因子以及由Pytorch初始化的權(quán)重和膜電位,優(yōu)化器采用的是Pytorch中Adam優(yōu)化器。評估了本文方法在MNIST[15]和CIFAR10[16]兩種分類任務(wù)上識別準(zhǔn)確度,兩種數(shù)據(jù)集的示例如圖4所示,并將其與人工神經(jīng)網(wǎng)絡(luò)、將人工神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換為脈沖神經(jīng)網(wǎng)絡(luò)的ANN2SNN算法、生物真實性較高的STDP(spike-timedependent plasticity)方法和直接訓(xùn)練SNN等方法進(jìn)行比較。本文在學(xué)習(xí)效率方面測試了本文方法與采用時間信用分配機(jī)制SNN算法。

      表1 網(wǎng)絡(luò)中參數(shù)設(shè)置Table 1 Parameter setting in network

      圖4 MNIST、CIFAR10數(shù)據(jù)集Fig.4 Dataset of MNIST,CIFAR10

      2.2 MNIST數(shù)據(jù)集測試

      手寫數(shù)字?jǐn)?shù)據(jù)集MNIST是機(jī)器學(xué)習(xí)領(lǐng)域中最經(jīng)典的數(shù)據(jù)集之一,其包括60 000張訓(xùn)練樣本和10 000張測試樣本,其示例如圖4中頂部樣本所示。由于SNN接收到的是脈沖數(shù)據(jù)事件,需要將靜態(tài)圖像轉(zhuǎn)換為脈沖版本的事件流。對于靜態(tài)圖像,在頻率編碼領(lǐng)域,最常見的預(yù)處理是使用泊松編碼將靜態(tài)實值輸入轉(zhuǎn)換為脈沖輸入,具體來講就是對輸入的特征向量在0到1范圍內(nèi)進(jìn)行歸一化處理,然后對每個特征維度生成泊松脈沖序列,該泊松脈沖序列的脈沖頻率與歸一化之后的特征值是成比例的。

      表2是本文方法與同領(lǐng)域的其他方法精度比較,這些方法包括采用間接監(jiān)督學(xué)習(xí)的ANN2SNN方法以及基于BP算法訓(xùn)練SNN的方法。表2中12C5表示有12個5×5的卷積核,P2表示平均池化核的大小為2×2,200FC表示有200個神經(jīng)元的全連接層。本文網(wǎng)絡(luò)所獲得精度為10次實驗數(shù)據(jù)集迭代100次的最好精度。由表2可知,本文方法達(dá)到了99.53%的精度,驗證了本文方法的有效性,相較于Lee[5]的算法提高了0.22個百分點(diǎn)。

      表2 MNIST數(shù)據(jù)集上的精度比較Table 2 Accuracy comparison on MNIST dataset

      2.3 CIFAR10數(shù)據(jù)集測試

      要證明算法的有效性,就應(yīng)該在更大的數(shù)據(jù)集上進(jìn)行測試。目前來看,CIFAR10相較于MNIST數(shù)據(jù)集對于SNN的訓(xùn)練有著更大的挑戰(zhàn),由于需要較多的時間步來表達(dá)精確的信息,具有訓(xùn)練成本較高難以收斂的問題,因此只有較少SNN版本的BP算法在此數(shù)據(jù)集上進(jìn)行測試。CIFAR10數(shù)據(jù)集包括10個類別,50 000張訓(xùn)練樣本和10 000張測試樣本,其示例如圖3中部區(qū)域所示。同樣的,針對CIFAR10數(shù)據(jù)集本文采用如處理MNIST數(shù)據(jù)集相同的方法,通過泊松脈沖編碼的方式將其轉(zhuǎn)換為動態(tài)版本。

      表3是本文算法在CIFAR10數(shù)據(jù)集上與ANN2SNN方法、具有高生物真實性的STDP算法和其他類型SNN版本的BP算法精度比較。圖5是本文算法在CIFAR10數(shù)據(jù)集上隨迭代次數(shù)變化的精度和損失曲線。通過表3可以看出,具有生物真實性的STDP算法因為只能部署在較淺的網(wǎng)絡(luò)中,所以只達(dá)到了75.42%的識別精度。ANN2SNN是將人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成的權(quán)重移植到SNN,這種方法雖然可以達(dá)到較好的精度,但是此方法需要額外的優(yōu)化手段,如基于模型的歸一化[20]、基于脈沖的歸一化[21]等技術(shù),并且此網(wǎng)絡(luò)的延遲較大,通常需要上百個時間步來保證良好的性能。與ANN2SNN相比,采用BP算法訓(xùn)練SNN的延遲較小,通常在20個時間步以內(nèi)。從表3中可以看出之前的STBP算法的精度已經(jīng)達(dá)到了85.24%準(zhǔn)確度,本文算法相對于此精度提高了4.22個百分點(diǎn)。

      圖5 CIFAR10數(shù)據(jù)集上精度和損失變化曲線Fig.5 Accuracy and loss change curve on CIFAR10 dataset

      表3 CIFAR10數(shù)據(jù)集上的精度比較Table 3 Accuracy comparison on CIFAR10 dataset

      2.4 學(xué)習(xí)效率比較

      由于大部分SNN版本的BP算法沒有在CIFAR10數(shù)據(jù)集上進(jìn)行測試,本文選用常用的MNIST數(shù)據(jù)集進(jìn)行測試。在相同網(wǎng)絡(luò)結(jié)構(gòu)下測試了本文方法與采用了時間信用分配機(jī)制的SNN版本BP算法,比較了在快速收斂到平穩(wěn)收斂階段所需的迭代次數(shù)與消耗時間,和訓(xùn)練完成后訓(xùn)練所需的迭代次數(shù)與消耗時間。

      如表4所示,本文給出了測試所用網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)集大小、Batch大小、SNN的時間步個數(shù)T_step、迭代一次數(shù)據(jù)集所需時間One epoch,快速收斂到緩慢收斂時所需迭代次數(shù)C_Epoch與消耗時間C_Time,訓(xùn)練至網(wǎng)絡(luò)穩(wěn)定所需的迭代次數(shù)E_Epoch與消耗時間E_Time。圖6是三種算法訓(xùn)練期間精度隨迭代次數(shù)的變化。由表4可以看出,本文算法迭代一次數(shù)據(jù)集所需的時間大約為27.45 s,約為另外兩種算法的一半。結(jié)合表4和圖6可以看出,LISNN算法的快速收斂階段為10個epoch,而本文算法和STBP算法大約為15個epoch。LISNN快速收斂所需epoch次數(shù)較短的原因是在LISNN網(wǎng)絡(luò)中采用了獨(dú)特的側(cè)抑制機(jī)制優(yōu)化算法,因此從迭代次數(shù)看可以更快收斂,但是所需的訓(xùn)練時間也會增加。由表4可以看出,在網(wǎng)絡(luò)快速收斂階段,本文算法比LISNN算法多了5個epoch,但是本文算法快速收斂所需時間411.8 s遠(yuǎn)遠(yuǎn)低于LISNN的709.3 s。另一方面,三種算法大約在100個epoch訓(xùn)練完成,本文算法訓(xùn)練完成后所需時間2 745 s也遠(yuǎn)遠(yuǎn)低于另外兩種算法的6 294 s和7 093 s。從迭代一次數(shù)據(jù)集所消耗時間、快速收斂階段所消耗時間以及網(wǎng)絡(luò)訓(xùn)練完成時所消耗時間三方面都可以說明本文算法的學(xué)習(xí)效率高于采用時間信用分配機(jī)制的算法。

      圖6 三種算法精度隨迭代次數(shù)的變化Fig.6 Accuracy change of three algorithms with number of iterations

      表4 學(xué)習(xí)效率比較Table 4 Comparison of learning efficiency

      3 結(jié)束語

      針對脈沖神經(jīng)元產(chǎn)生離散脈沖事件不可微而導(dǎo)致SNN難以訓(xùn)練問題,本文在研究LIF神經(jīng)元響應(yīng)機(jī)制的基礎(chǔ)上,提出一種新的基于脈沖頻率與輸入電流關(guān)系的有監(jiān)督式SNN訓(xùn)練算法。通過將每個LIF神經(jīng)元脈沖頻率與輸入電流顯示關(guān)系的導(dǎo)數(shù)作為梯度,解決了神經(jīng)元產(chǎn)生脈沖活動不可微問題,使得可利用BP算法對SNN進(jìn)行訓(xùn)練,在一些基準(zhǔn)數(shù)據(jù)集上的識別精度取得了具有競爭性的結(jié)果。另一方面,針對現(xiàn)有方法采用時間信用分配機(jī)制進(jìn)行參數(shù)更新導(dǎo)致學(xué)習(xí)效率較低的問題,本文采用LIF神經(jīng)元響應(yīng)機(jī)制進(jìn)行參數(shù)更新,提高學(xué)習(xí)效率,實驗表明本文算法是同類型SNN算法學(xué)習(xí)效率的兩倍。

      猜你喜歡
      神經(jīng)元脈沖精度
      他們使阿秒光脈沖成為可能
      脈沖離散Ginzburg-Landau方程組的統(tǒng)計解及其極限行為
      《從光子到神經(jīng)元》書評
      自然雜志(2021年6期)2021-12-23 08:24:46
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
      黃芩苷脈沖片的制備
      中成藥(2017年12期)2018-01-19 02:06:54
      GPS/GLONASS/BDS組合PPP精度分析
      基于二次型單神經(jīng)元PID的MPPT控制
      毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
      改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
      嘉荫县| 古丈县| 鄄城县| 阿合奇县| 德钦县| 澄迈县| 马尔康县| 中阳县| 桑日县| 太仆寺旗| 安远县| 荔波县| 克什克腾旗| 从江县| 肥乡县| 建宁县| 寿阳县| 长垣县| 龙口市| 兴业县| 沾化县| 达拉特旗| 青岛市| 桑植县| 肥西县| 南通市| 大宁县| 万全县| 阿巴嘎旗| 社旗县| 张家口市| 竹北市| 贵州省| 高台县| 连平县| 怀仁县| 卓尼县| 遂宁市| 哈尔滨市| 井陉县| 靖西县|