• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向彈載圖像的深度學習網(wǎng)絡壓縮方法研究

    2023-05-30 02:42:01高一博楊傳棟陳棟凌沖
    航空兵器 2023年1期

    高一博 楊傳棟 陳棟 凌沖

    引用格式:高一博,楊傳棟,陳棟,等.面向彈載圖像的深度學習網(wǎng)絡壓縮方法研究[J].航空兵器,2023,30(1):95-103.

    GaoYibo,YangChuandong,ChenDong,etal.ResearchonDeepLearningNetworkCompressionMethodforMissileBorneImage[J].AeroWeaponry,2023,30(1):95-103.(inChinese)

    摘要:針對基于深度學習目標識別算法具有網(wǎng)絡結構復雜、參數(shù)量大、計算延遲高等特點,難以直接應用于彈載任務的問題,對網(wǎng)絡輕量化方法進行了歸納總結。介紹了已有的壓縮方法和輕量化網(wǎng)絡的優(yōu)點及各自特點,并選擇各個方面優(yōu)秀的算法進行比較。最后,結合深度學習在目標檢測領域中的發(fā)展,對輕量化彈載圖像目標識別算法進行了展望。

    關鍵詞:網(wǎng)絡模型壓縮;輕量化網(wǎng)絡;彈載圖像;深度學習模型;算法移植

    中圖分類號:TJ413+.6

    文獻標識碼:A

    文章編號:1673-5048(2023)01-0095-09

    DOI:10.12132/ISSN.1673-5048.2022.0079

    0引言

    精確制導武器是現(xiàn)代戰(zhàn)爭制勝的關鍵因素,精確制導武器的核心部件是導引頭[1]。制導過程中,導引頭行使著觀測目標、感知環(huán)境、進行識別與跟蹤的職責,直到完成對目標的精確打擊。然而導引頭制導的效果取決于對目標位置判斷的精度,半主動制導的激光制導需要前哨站進行對目標的激光指引,隱蔽性極差;被動制導的雷達制導,極易被空間各種信號干擾以及被敵人捕捉。圖像制導使用CMOS(ComplementaryMetalOxideSemiconductor)采集目標可見光信息,抗電磁干擾能力強,且不需架設前哨站[2]。與普通的移動終端所使用專用芯片ASIC(ApplicationSpecificIntegratedCircuit)不同,導引頭中的彈載計算機核心處理單元架構主要包括DSP(DigitalSignalProcessing),DSP+FPGA(FieldProgrammableGateArray),SoC(SystemonChip)等。DSP資源較少,無法滿足目前的算法需求,如今主流方式是使用DSP+FPGA的方式。FPGA具有接口豐富、靈活性高的特點,然而其具有高功耗性,對于本就高消耗的深度學習算法是較難承受的。對此,各大廠商提出SoC,從而提高系統(tǒng)性能,降低系統(tǒng)成本、功耗以及重量和尺寸,但開發(fā)周期較長,研制費用較高,不適用于需要快速應用的小型武器系統(tǒng)。嵌入SoC的芯片,既有PL端的資源靈活性,又有PS端的強大處理器功能,適合深度學習算法的部署,但其中參數(shù)量和網(wǎng)絡結構的巨大是難以實用的難點之一。模型壓縮與輕量化是設計的關鍵步驟,既需要滿足軟件層面算法足夠的精度,又應保證移植硬件時參數(shù)量少、速度快。內(nèi)部空間小、彈丸作用時間短、嵌入式硬件平臺處理速度要求高是限制在彈載平臺上部署深度學習算法的關鍵因素[3]。因此,很有必要研究壓縮深度學習的算法。

    1面向彈載目標的跟蹤算法

    1.1彈載目標特性

    圖像制導彈的成像特點包括以下幾方面:

    (1)尺度變化大。彈體在空中飛行速度非???,平均速度可達200~300m/s,目標圖像在視場內(nèi)的尺度變化非常大,如圖1所示。當彈目距離較遠時,目標在視場中成像較小,細節(jié)不清晰;當彈目距離較近時,目標在視場內(nèi)的成像較大,細節(jié)不斷出現(xiàn)。因此,彈載圖像跟蹤算法需要有尺度不變性。

    (2)目標旋轉。由于彈體外形和氣動特性影響,圖像制導彈在飛行時伴有連續(xù)旋轉。雖然攝像機獲取的圖像經(jīng)過了消旋處理,但是由于彈體舵機控制和消旋精度的影響,彈體仍會出現(xiàn)一定程度的旋轉,導致視場中目標圖像的位置不斷發(fā)生變化,如圖2所示。彈體的連續(xù)旋轉導致目標圖像連續(xù)旋轉,可以看出在不同時刻目標所在位置不同。因此,彈載圖像跟蹤算法需要具有旋轉不變性。

    (3)目標進出視場(目標進入或離開視場范圍)。圖像制導彈在高速飛行過程中伴隨一定程度的章動,導致目標頻繁進出視場。當目標出視場后,由于前后兩幀中必定有相同的場景,根據(jù)深度學習中前景與背景特征提取方法,可以利用深度學習中掩膜激活,或者特征關聯(lián)方式預測下一幀目標出現(xiàn)的范圍;而對于半出視場或者部分出視場的目標,基于深度學習的方法可以輕松進行識別跟蹤。

    1.2各種跟蹤算法對比

    結合上述彈載目標獨有的特征,尋找跟蹤算法,各種算法的對比如表1所示。

    由表1可以看出,背景減除法只適合固定背景下目標的識別,且易受環(huán)境光線的影響,不適用于亮度不斷變換的彈載圖像。幀間差分法通過幀間圖像的差別來區(qū)分目標區(qū)域,但是由于彈體高速運動,彈載圖像間的幀間差別太大,很難識別出有效的目標區(qū)域。光流法抗噪聲能力差,簡單模板匹配法實時性差,且此方法魯棒性較差,缺少模板更新,而彈載圖像的尺度處于不斷變化當中,準確度較低。SFIT算法對旋轉、尺度放縮、亮度變化保持較高水平,對視角變化、仿射變化、噪聲的穩(wěn)定性較差,且不夠實時?;谏疃葘W習的算法由于各種目標都是訓練出來的,訓練好的網(wǎng)絡,準確度高,對尺度不變性和旋轉不變性,甚至遮擋出視場都有極強的適應能力。由于深度學習訓練網(wǎng)絡非常多,故速度和準確度相互有所取舍,其通病就是網(wǎng)絡結構過大,參數(shù)量多,計算量大,對彈載平臺有著巨大的負荷。因此,需要尋找各種壓縮深度學習網(wǎng)絡的方式使之符合彈載平臺的承受力。

    2模型壓縮方法

    本節(jié)重點介紹當前主流的壓縮方法和輕量化網(wǎng)絡設計,具體技術如表2所示。

    2.1參數(shù)量化與共享

    大多數(shù)操作系統(tǒng)和編程語言默認為32位浮點數(shù)組成的單精度數(shù),對內(nèi)存占用量較大,尤其在深度學習網(wǎng)

    絡模型中,大量的權值、激活值均需要占4bit的內(nèi)存。而在彈載環(huán)境中,允許保證近似效果的情況下減少參數(shù)量。常用量化、哈希、改變計算形式等技術降低參數(shù)量,減少冗余。

    2.1.1量化參數(shù)

    量化網(wǎng)絡過程常見的有1-bit二值網(wǎng)絡,2-bit三值網(wǎng)絡,以及將32位浮點數(shù)降低為16位浮點數(shù)或16位、8位的定點數(shù)。

    Mohammad等[4]在二進制權重網(wǎng)絡中,將濾波器近似為二進制值,結果可節(jié)省32×的內(nèi)存。Guo等[5]提出一種基于二進制權值網(wǎng)絡結構和深度優(yōu)先搜索算法相結合的多類別圖像分割模型,將其應用于人臉識別領域,取得較好效果。用二進制權重網(wǎng)絡的Alex網(wǎng)絡版本與完全準確的AlexNet版本一樣準確。

    Li等[6]引入了三元權值網(wǎng)絡TWNs神經(jīng)網(wǎng)絡,權值限制為+1,0和-1。全精度權重利用歐氏距離最小原則轉換為三值權值。另外,對基于閾值的三元函數(shù)進行了優(yōu)化,獲得一種快速、簡便的近似解,并通過實驗證明,該算法在保持較高預測性能和壓縮效率的情況下提高了圖像質量;TWNs比最近提出的二進制精度對應物等網(wǎng)絡更具有表達能力和有效性。同時,TWNs可實現(xiàn)16×或32×的模型壓縮率,且在較高維度下也具有良好的壓縮效果。因此,TWNs是一個非常有潛力的基于深度學習的圖像分類方法。來自MNIST,CIFAR-10和大型ImageNet數(shù)據(jù)集的標準顯示,TWNs只比全精度略低,但比類似的二進制精度要好得多。

    Krishnamoorthi[7]提出一種采用非線性量化的方法,將權值和輸入值都量化為unit8類型,而激活函數(shù)中偏置量化為unit32位。該方法統(tǒng)計了每一層權值的范圍分布,非線性地對應每個量化后的權值,同時還提供了一個權值量化訓練網(wǎng)絡,以確保端到端的精度。

    2.1.2權值替代

    Han等[8]使用k-means聚類算法將權重分類,并不斷微調權值,減少精度損失。根據(jù)調整后的權值進行分類,得到各個中心,然后使用所得的中心值替代該類其他值,最后使用霍夫曼編碼再次壓縮。Chen[9]利用哈希函數(shù),建立HashNet,其建議在訓練前對網(wǎng)絡權重進行量化和分組,并在每個組內(nèi)分享權重。HashNet的結構如圖3所示。在這種方法下,儲存值就是哈希索引以及

    少量的權值,減少了大量存儲消耗。由于采用了一種新的算

    法來處理數(shù)據(jù)集的相似性度量問題,也減少了對查詢結果進行匹配所需的計算量。實驗結果表明,該系統(tǒng)能夠取得很好的效果,但是該技術無法節(jié)省運行時的內(nèi)存和推理時間,因為需要哈希映射找回共享的權值。

    2.1.3降低計算復雜度

    與廉價的加法運算相比,乘法運算的計算復雜度要高得多。而深度神經(jīng)網(wǎng)絡中廣泛使用的卷積恰好是互相

    關的,方便測量輸入特征和卷積濾波器之間的相似性,但是這涉及浮點值之間的大量乘法。Chen等[10]提出加法器網(wǎng)絡(AdderNets),來替換深度神經(jīng)網(wǎng)絡中的這些大規(guī)模乘法,特別是卷積神經(jīng)網(wǎng)絡CNN(ConvolutionalNeuralNetwork),以獲得更少的計算復雜度,降低計算成本。AdderNets采用濾波器和輸入特征之間的L1范數(shù)距離作為輸出響應,并提出一種自適應學習速率策略,根據(jù)每個神經(jīng)元梯度的幅度來增強AdderNets的訓練過程。AdderNets可以在ImageNet數(shù)據(jù)集上使用ResNet-50實現(xiàn)74.9%Top-1精度和91.7%Top-5精度,而不會在卷積層中進行任何乘法。

    2.2參數(shù)剪枝

    彈載圖像數(shù)據(jù)量多而復雜,對于目標識別和分類網(wǎng)絡是巨大的考驗,故需要強大魯棒的網(wǎng)絡,而嵌入式網(wǎng)絡部署工程要求網(wǎng)絡更加輕量,剪枝可以將原本魯棒的網(wǎng)絡減去大量連接和計算,并維持相當?shù)木?。剪枝模式如圖4所示。

    剪枝可分為非結構化剪枝和結構化剪枝。非結構化剪枝是細粒度剪枝,即可以去除任意“冗余”的單獨神經(jīng)元權值,以獲得高壓縮率,實質是稀疏化卷積核矩陣。剪枝粒度示意圖如圖5所示。但裁剪后的網(wǎng)絡結構混亂,難以進行進一步操作,例如移位代替卷積、加法代替乘法等。結構化剪枝的最小單位是濾波器內(nèi)的一組參數(shù),通過為濾波器或特征圖設置評價因子,甚至通過刪除整個濾波器或某些通道,網(wǎng)絡“縮小”,允許直接對現(xiàn)有的軟件/硬件進行有效加速。但如果沒有一個合適的優(yōu)化算法,則不能保證得到最優(yōu)解。

    2.2.1非結構化剪枝

    早期的一些方法基本都是基于非結構化的,非結構化剪枝都是細粒度的。以LeCun等[11]提出的最優(yōu)腦損傷(OptimalBrainDamage)和Hassibi等[12]提出的最優(yōu)腦手術(OptimalBrainSurgeon)方法為代表,該類方法基于損失函數(shù)的海森矩陣判斷連接重要程度,減少連接的數(shù)量。Neubeck等[13]提出逐層導數(shù)修建算法,對每一層的參數(shù)計算損失,找到損失最大的參數(shù)對其二階導數(shù)進行獨立剪枝,修剪后經(jīng)過再訓練以恢復性能。

    非結構剪枝常用正則化項作為損失函數(shù)的一種懲罰項,用來限制某些參數(shù),因此,利用正則化權重評價非必須參數(shù)并裁剪以達到壓縮效果。但由于參數(shù)的L0范數(shù)不可微分,難以參與優(yōu)化,Louizos等[14]將權重值變?yōu)榉秦摂?shù),并設置特定參數(shù)權值為0以變?yōu)榭晌栴}。Tartaglione等[15]量化權重參數(shù)對輸出的影響力,并設計正則化項,降低或減少影響力小的權重值。Li等[16]減去L1正則化影響小的卷積核。He等[17]使用L2正則化標準一邊訓練一邊剪枝(即軟剪枝)。

    Lin等[18]定義BN(BatchNormalize)層系數(shù)和濾波器F-范數(shù)的乘積作為影響因子,評價各個連接的重要性。Luo等[19]提出一種基于熵的方法來評價濾波器的重要性。Chen等[20]引入硬件約束(例如延遲)后,刪除范數(shù)值低的權重并調整參數(shù),使任務精度最大化。Yang等[21]將能耗作為優(yōu)化約束條件,對卷積神經(jīng)網(wǎng)絡的能耗大小進行排序,裁掉大能耗的濾波器。該方法與傳統(tǒng)的卷積網(wǎng)絡相比大大降低了能耗,精度損失也在可接受范圍內(nèi)。He等[22]以給定的最大硬件資源數(shù)量作為約束的模型自動裁剪。

    2.2.2結構化剪枝

    結構化剪枝的對象由單個神經(jīng)變成了向量級、通道級乃至整個濾波器級連接。結果表明,結構化剪枝與非結構化剪枝具有相似的稀疏率,且不損失準確性;在相同的精度下,結構化剪枝由于索引存儲的原因可以獲得比非結構化剪枝更好的壓縮率;更常規(guī)的稀疏性使得細化網(wǎng)絡更適合于較快的硬件部署。因此,結構化剪枝具有優(yōu)勢。

    結構化剪枝又可進一步細分為通道級或濾波器級。通道裁剪是在網(wǎng)絡中直接刪除某層的一個或多個通道,缺點是精度損失較大;優(yōu)點是不生成稀疏矩陣,可以直接進行計算,而且大大節(jié)省空間和時間。He等[23]提出將通道中所有權值的絕對值和列為通道的重要性指標,然后剪枝不重要的通道,缺點是需要花時間重訓練。Molchanov等[24]直接考慮特征圖有無對損失函數(shù)的影響,并使用一階泰勒展開近似刪除不重要通道。濾波器級別剪枝是直接對整個三維濾波器進行裁剪,能夠保持網(wǎng)絡的結構特性,相當于變窄的原網(wǎng)絡結構。

    需要指出,對于結構化剪枝,經(jīng)過往復訓練得到的精度并不如將目標網(wǎng)絡從頭開始訓練的精度高,因此,剪枝的目標網(wǎng)絡的結構設計其實最為重要,需要合理設計和選擇。

    2.3知識蒸餾

    知識蒸餾是將“知識”從復雜模型傳遞給一個結構更簡單、運行速度更快的網(wǎng)絡模型。Hinton等[25]首次提出知識蒸餾的概念,將教師網(wǎng)絡中學到的各個類別之間的關系作為學生網(wǎng)絡學習的目標,實現(xiàn)“知識”傳遞的過程,如圖6所示。該方法中,總的loss函數(shù)是由兩部分構成的,一部分是由現(xiàn)實與學生網(wǎng)絡自測的loss,該部分為hard_loss;另一部分為教師網(wǎng)絡與學生網(wǎng)絡升高同樣的“溫度”,兩者之間的loss,該部分為soft_loss。總loss為兩者之和。這樣既能找到學生網(wǎng)絡與現(xiàn)實的差距,又可以學到教師網(wǎng)絡中各類別之間聯(lián)系。該方法適用于小型或者中型數(shù)據(jù)集上,由于壓縮后的學生模型學到了已有知識,故在數(shù)據(jù)集不大時,使用學生模型也能取得魯棒的性能。

    2.3.1改進學生網(wǎng)絡

    Sergey等[26]通過區(qū)域注意力機制找尋教師網(wǎng)絡中注意力高的區(qū)域,迫使學生網(wǎng)絡模擬一個強大的教師網(wǎng)絡的感興趣的區(qū)域來顯著提高其表現(xiàn)。Li等[27]提出轉移注意力的新方法,將教師網(wǎng)絡的“知識”相關性和學生網(wǎng)絡感興趣的事務傳給下次學習的學生網(wǎng)絡,如圖7所示。其中,ATloss(AttentionLoss)是將教師網(wǎng)絡通過注意力機制學到的知識通過該loss傳給學生網(wǎng)絡。ATloss與該group中的teacher和student網(wǎng)絡均相關,故上個group的學生網(wǎng)絡能影響下個教師網(wǎng)絡傳遞知識的過程,即影響ATloss,是教學相長的過程。

    Tian等[28]利用對比學習,提出一個替代目標,通過該目標,訓練學生在教師對數(shù)據(jù)的表示中捕獲更多信息。Heo等[29]激活隱藏神經(jīng)元使得學生網(wǎng)絡和教師網(wǎng)絡分類的區(qū)域邊界最相近,以提高學生網(wǎng)絡分類精細度。

    2.3.2改進教師網(wǎng)絡

    教師網(wǎng)絡的信息傳遞也是一大改進的方向。Xu[30]等提出一個新型自監(jiān)督知識蒸餾模型,利用自監(jiān)督從教師網(wǎng)絡中挖掘出更多的隱含信息。You等[31]提出通過平均多個教師網(wǎng)絡的軟化輸入,即“知識”,并施加關于示例之間的差異性約束,在中間層中再施加于學生網(wǎng)絡。Ahn等[32]將針對相同或者類似的任務預先訓練的教師網(wǎng)絡轉移到學生網(wǎng)絡。

    2.4輕量化網(wǎng)絡

    在彈載嵌入式環(huán)境中對輕量化網(wǎng)絡的需求很大,然而對彈載環(huán)境中輕量化網(wǎng)絡的應用較少。近年來,宋泰年等[33]面向彈載環(huán)境開發(fā)了一種將空間、通道注意力機制與MobileNetV2結合的模塊,說明輕量化網(wǎng)絡有應用于彈載環(huán)境的巨大潛力。以下從不同結構級別設計綜述輕量化網(wǎng)絡的發(fā)展。

    2.4.1卷積核設計

    Zhang等[34]在ShuffleNetV1中使用分組卷積大大降低了參數(shù)量分組卷積參數(shù),并提出通道混洗(ChannelShuffle)的方式,使得各個組間、通道之間相互交流,避免近親繁殖。Ma等[35]提出ShuffleNetV2,并提出四個輕量化網(wǎng)絡設計準則:(1)輸入輸出通道數(shù)相同時,內(nèi)存訪問量MAC最?。唬?)分組數(shù)過大的分組卷積會增加MAC;(3)碎片化操作對并行加速不友好;(4)逐元素操作(Element-wise)帶來的內(nèi)存和耗時不可忽略。Xception[36]是inception的最終版,由GoogLeNet[37](inceptionV1)演變而來。GoogLeNet將卷積層并行拆分成不同的大小,如3×3,5×5,7×7,加上一個全連接層,再加上1×1卷積的降維,可以在不增加太多參數(shù)的條件下大大提高分類的細粒度。隨后,inceptionV2和inceptionV3分別設計了depth-wise和point-wise,將5×5和7×7分離為3×3卷積核,并在不同條件下選擇了1×3和3×1卷積核,大大減少了參數(shù)量。該方法得到的結果是很好的,且具有一定的可擴展性。Xception只包含了1×1和3×3個模塊,共享1×1個模塊,且每個3×3卷積只劃分為第一層的一部分,以區(qū)分不同卷積,是深度可分類卷積。

    2.4.2層級別設計

    Huang等[38]建議對ResNet等具有殘差連接的網(wǎng)絡進行隨機深度訓練,隨機刪除block子集并使用殘差連接繞過其每次訓練。Dong等[39]為每個卷積層配備了輕量化的協(xié)同層LCCL(Low-CostCollaborativeLayer),該協(xié)同層可以預測經(jīng)過激活層后0的個數(shù)與來源,并且刪除了測試時的消耗。Li等[40]將網(wǎng)絡層分為權重層和非權重層,計算權重層參數(shù),忽略非權重層參數(shù)的計算。Prabhu等[41]設計了一種濾波器之間的稀疏連接。Wu等[42]用平移特征圖、特征向量取代卷積,減少了計算量。Chen等[43]使用稀疏移位層(SSL)代替原有卷積層構建網(wǎng)絡。在此體系結構中,基本塊僅由1×1卷積層組成,用來升維和降維,并在中間特征圖設計稀疏的移位操作。

    2.4.3網(wǎng)絡結構級別設計

    Kim等[44]提出SplitNet,其自動學會將網(wǎng)絡的各個層分為多個組,從而形成根節(jié)點,每個子節(jié)點共享根節(jié)點權值。Gordon等[45]提出通過裁剪和擴張來循環(huán)優(yōu)化網(wǎng)絡的方法:在裁剪階段,使用正則化損失判斷權值,去除影響小的權值;在擴展階段,利用旁邊節(jié)點擴展同倍的所有層的大小,因此,重要節(jié)點越多的層最終越寬,對應資源越多。但這些方法都存在一定問題:需要大量計算時間;對節(jié)點進行遍歷操作導致局部最優(yōu)解無法搜索到全局最好結果。Kim等[46]提出嵌套稀疏網(wǎng)絡,每層由多層次網(wǎng)絡組成,其中,高層次網(wǎng)絡和低層次網(wǎng)絡以網(wǎng)絡的形式共享參數(shù):低層次網(wǎng)絡感受野小,學習知識粗略,僅學習表面特征;高層次網(wǎng)絡感受野大,可以看到內(nèi)部關聯(lián),用來學習精細知識。

    2.4.4神經(jīng)網(wǎng)絡架構搜索

    EfficientDet[47]的高性能主要得益于兩個方面:強大的特征提取器和BiFPN。其中對BiFPN的研究與輕量化無關,而特征提取器EfficientNet[48]使用一種全新的網(wǎng)絡設計模式,即網(wǎng)絡結構搜索NAS(NeuralArchitectureSearch)[49]。NAS是一種搜索網(wǎng)絡框架的網(wǎng)絡設計模式,在圖像識別、圖像分類等領域中得到廣泛應用,并取得一些有意義的成果。

    NAS的設計思路為:在特定的搜索空間利用高效搜索策略進行與實際應用相關性更大的神經(jīng)網(wǎng)絡搜索。很多輕量網(wǎng)絡都使用了NAS架構搜索,如NASNet[50]和MobileNetv3[51]。而EfficientNet的搜索空間主要有常見的skip網(wǎng)絡、卷積網(wǎng)絡、池化網(wǎng)絡、全連接網(wǎng)絡及輕量網(wǎng)絡中常用的深度卷積,評價策略為輸入尺度、網(wǎng)絡深度、網(wǎng)絡寬度,搜索出了一套輕量級、高性能的卷積網(wǎng)絡。

    2016年,MIT提出MetaQNN[52]用強化學習的方式,學習每一個CNN層的類型、參數(shù),生成網(wǎng)絡結構,并形成損失函數(shù),用來參與強化訓練。MetaQNN使用馬爾可夫決策過程搜索網(wǎng)絡架構,利用RL(RuturnLoss)方法生成CNN架構。Zoph[53]采用RNN(RecurrentNeuralNetwork)網(wǎng)絡作為控制器,對網(wǎng)絡結構的語義進行采樣和生成,然后利用REINFORCE算法理解網(wǎng)絡結構(早期的RL方法),從而達到較高的準確度。通過采用800GPU,最終在CIFAR-10數(shù)據(jù)集中以類似的網(wǎng)絡架構擊敗了人工設計模型,并發(fā)現(xiàn)了比LSTM(Long-Short-TimeMemory)更好的結構。

    Real等[54]首先將基于進化算法(EvolutionaryAlgorithm)的思想融入到NAS問題,利用CIFAR-10數(shù)據(jù)集證明了算法的高精度。首先,將網(wǎng)絡結構當作DNA(DeoxyriboNucleicAcid)并進行編碼。在不斷變異進化的過程中,網(wǎng)絡模型會不斷增加,每次進化后判斷其精度,淘汰其中差的。將另一個模型作為父節(jié)點,子節(jié)點是由變異形成的(即在某些預先確定的網(wǎng)絡結構變更操作中的隨機選擇)。對子節(jié)點進行訓練和驗證,以便將其放置在集合中。文獻[55]中,去除種群中年齡最大的節(jié)點,使進化向更年輕方向發(fā)展,這有助于更好地探索。以此找出的最優(yōu)網(wǎng)絡結構稱為AmoebaNet。此外,通過對三個算法的比較,發(fā)現(xiàn)強化學習算法和進化算法更準確。進化算法搜索速度快于強化學習(特別是在早期),并產(chǎn)生較小的模型。

    基于梯度的搜索算法有卡內(nèi)基梅隆大學(CarnegieMellonUniversity,CMU)和Google的研究人員提出的DARTS(DifferentiableArchitectureSearch)方法[56],該方法尋求最優(yōu)結構的單元是包含N個有序結點的有向無環(huán)圖。文中利用隱馬爾科夫模型對局部區(qū)域進行描述,并把這種描述應用于求解多分類問題。結點表示隱式表征(如特征圖),運算符表示運算符的向邊聯(lián)接。在DARTS方法中,關鍵的技巧是使用softmax函數(shù)混合候選,通過計算每個子區(qū)域內(nèi)所有操作與該區(qū)域中心之間的距離來決定結點是否需要添加或刪除。對于每一種新出現(xiàn)的子域,反饋時也應該更新其值以使之保持不變,形成可微函數(shù)。通過這種方法,可以利用基于梯度搜索的方法找到最優(yōu)結構。最后,選取權重最高的參數(shù)形成網(wǎng)絡。此外,文獻[57]中還提出另一種搜索效率更高的方法。該方法是將網(wǎng)絡結構嵌入到搜索空間中,使用點表示各個區(qū)域網(wǎng)路,可以在這個空間中定義精度的預測值。通過基于梯度搜索的方法,找到一種合適的嵌入式網(wǎng)絡結構表示方法,優(yōu)化后,將此表示嵌入到網(wǎng)絡結構中。

    3壓縮效果比較

    為了測試各種算法對彈載圖像的指導意義,使用Xilinx的四核armcortex-A53的zynqUltrascale+MPSOCZCU104進行測試。Xilinx官方有成熟的深度學習算法IP,例如LeNet,AlexNet,ResNet等,對于參數(shù)量化共享、參數(shù)剪枝、知識蒸餾等網(wǎng)絡有著方便的植入。使用常見數(shù)據(jù)集ImageNet[58]和自制的艦船目標數(shù)據(jù)集,對AlexNet和ResNet進行參數(shù)量減少和準確度變化的測試。定義Δaccuracy=壓縮后Top-1準確率-壓縮前Top-1準確率,#Param為壓縮后參數(shù)量/壓縮前參數(shù)量,#FLOPs為壓縮后浮點計算量/壓縮前浮點計算量。知識蒸餾壓縮前代表teacher網(wǎng)絡,壓縮后代表student網(wǎng)絡。不同壓縮方法在AlexNetonImageNet上的壓縮效果如表3所示。

    由表3可以看出,這四類壓縮方法的結果差別是十分巨大的。權值量化[4]的參數(shù)量化有著很大的優(yōu)勢,對參數(shù)量和計算量的壓縮都十分可觀,且精度下降在可接受的范圍內(nèi)。而觀察并非頂級輕量化網(wǎng)絡SplitNet[44]的結果可知,輕量化網(wǎng)絡也具有很強的壓縮能力,但缺點是各種輕量化網(wǎng)絡層出不窮,想將其部署到彈載平臺上有著較長的周期;另一方面,可以將更多更優(yōu)的網(wǎng)絡部署于平臺,達到更優(yōu)更快的結果,這也是輕量化網(wǎng)絡的潛力所在。參數(shù)剪枝與知識蒸餾并沒有過于驚人的表現(xiàn),但優(yōu)勢是可以與其他方法結合使用,構成更優(yōu)的性能。

    對于炮彈來說,裝甲類目標更加真實。為了對比壓縮效果,自制一個裝甲目標數(shù)據(jù)集。該數(shù)據(jù)集利用無人機航拍500張各種裝甲類目標圖片,拍攝高度為2500~3000m,是末制導炮彈圖像制導階段的高度。拍攝傾角為30°~40°,是炮彈末端制導的俯仰角度。通過對每張圖片進行隨機1.1~1.5的亮度增強,加上每張圖片的間隔90°的旋轉及每張圖片的反轉,將數(shù)據(jù)集擴大到3000張目標圖像,其中包括2400張訓練集、200張驗證集、400張測試集,分辨率均為500×500,包括自行火炮、坦克、遠程火箭炮三個種類。原本500張圖片中,自行火炮占180張,坦克占180張,遠程火箭炮占140張。使用AlexNet對裝甲目標數(shù)據(jù)集進行壓縮效果測試,結果如表4所示。

    現(xiàn)在的各種嵌入式語言有著例如int8和int16的參數(shù)定義,使得研究者在部署過程中直接使用量化后的參數(shù)進行運算,表4中的結果也反映出參數(shù)量化的優(yōu)越性。而輕量化網(wǎng)絡仍然有著超強的壓縮能力以及較高的準確度。從剪枝的隨機性推測剪枝降低了網(wǎng)絡損失的過擬合,根據(jù)學生網(wǎng)絡的指向性,推測知識蒸餾的專項能力有所提升,所以參數(shù)剪枝與知識蒸餾對準確率均有提升。

    從上述測試可看出輕量化網(wǎng)絡的巨大潛力,但由于不同輕量化網(wǎng)絡結構差距較大且指向性不同,難以部署。在GPU為NVIDIARTX3080顯卡、CPU為AMD5000的計算機上對各個算法在ImageNet上進行測試,為下一步將各種輕量化網(wǎng)絡部署到彈載平臺上提供一定的指向。Top-1精度與FLOPs(FloatingPointOperations)的關系以及使用參數(shù)量大小如圖8所示。

    由圖8可以看出,ResNeXt-101精度高,然而消耗的計算量巨大,參數(shù)量將近64M,若想部署則必須進行壓縮;而AmoebaNet有著更高的準確度,以及小的計算量和參數(shù)量,此性能十分適合部署,但由于這是在GPU空間上搜索出的算法,對于FPGA等彈載平臺是否適配還需進一步驗證;ResNeXt-50網(wǎng)絡不僅是手工設計網(wǎng)絡,而且準確率很高,計算量也適中,適合壓縮后部署進行工作。

    選取ResNeXt-50作為主干網(wǎng)絡,使用YoloV3的特征提取網(wǎng)絡CSPNet作為檢測頭,訓練100次進行一次驗證,針對彈載目標特性訓練得到跟蹤結果。圖9為每隔5幀抽取的視頻結果。

    參數(shù)量已經(jīng)大大減少的ResNeXt-50的主干網(wǎng)絡經(jīng)過訓練,可以解決圖片旋轉、尺度變化和目標進出視場等問題。

    綜上所述,各種深度學習網(wǎng)絡的潛力巨大,選擇合適的壓縮方法,可以保證較高的準確性及合適的參數(shù)計算量,滿足彈上硬件需求。

    4展望

    對于將識別算法移植嵌入式平臺,壓縮網(wǎng)絡應該從各個方面進行評估和分析,結合本文綜述的各類算法特點的研究以及彈載平臺對于算法的特殊要求,對識別算法在彈載平臺的實現(xiàn)方式作如下展望:

    (1)優(yōu)化模塊提升輕量化網(wǎng)絡性能。現(xiàn)階段的很多輕量化網(wǎng)絡中都是優(yōu)化模塊提升輕量化網(wǎng)絡算力,例如Xception最終的inception模塊,加入該模塊可以提高速度以及減少參數(shù)。而NAS又為尋找這種模塊提供了新的可能,根據(jù)彈載嵌入式環(huán)境設計的NAS搜尋網(wǎng)絡,更易發(fā)現(xiàn)合適輕量化模塊以插入到目標算法中,為算法在彈載平臺的實現(xiàn)提供了新思路。

    (2)合理利用DSP和Mac(MultiplyingAccumulator)模塊。在芯片或邊緣計算設備有更多的DSP模塊和Mac模塊,卷積模塊可以改進乘加模塊,以便更充分、有效地利用彈上資源。例如FPGA有大量的并行Mac模塊,將算法改進后部署到設備上,不但可以在彈上大放光彩,在普通的智能移動終端上也會有更快的速度以及更高的性能。

    (3)采用直接壓縮方式。例如常用的剪枝、知識蒸餾一類壓縮現(xiàn)有模型的算法,均可以用作改進現(xiàn)有模型,可以在損失精度較小甚至不損失精度的情況下成功實現(xiàn)網(wǎng)絡的輕量化,與其他方法結合使用,可以在彈載平臺保證其魯棒性。

    參考文獻:

    [1]錢立志.電視末制導炮彈武器系統(tǒng)關鍵技術研究[D].合肥:中國科學技術大學,2006.

    QianLizhi.ResearchontheKeyTechnologyofTVTerminalGuidedArtilleryWeaponSystem[D].Hefei:UniversityofScienceandTechnologyofChina,2006.(inChinese)

    [2]郭鵬程,王晶晶,楊龍順.雷達地面目標識別技術現(xiàn)狀與展望[J/OL].航空兵器,doi:10.12312/ISSN.1673-5048.2022.0012.

    GuoPengcheng,WangJingjing,YangLongshun.StatusandProspectsofRadarGroundTargetRecognitionTechnology[J/OL].AeroWeaponry,doi:10.12312/ISSN.1673-5048.2022.0012.(inChinese)

    [3]陳棟,田宗浩.面向深度學習的彈載圖像處理異構加速現(xiàn)狀分析[J].航空兵器,2021,28(3):10-17.

    ChenDong,TianZonghao.ResearchonHeterogeneousAccelerationofDeepLearningMethodforMissile-BorneImageProcessing[J].AeroWeaponry,2021,28(3):10-17.(inChinese)

    [4]MohammadR,VicenteO,JosephR,etal.XNOR-Net:ImageNetClassificationUsingBinaryConvolutionalNeuralNetworks[C]∥ComputerVision-ECCV2016,2016:525-542.

    [5]GuoYW,YaoAB,ZhaoH,etal.NetworkSketching:ExploitingBinaryStructureinDeepCNNs[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2017:4040-4048.

    [6]LiFF,ZhangB,LiuB.TernaryWeightNetworks[EB/OL].(2016-11-19)[2022-04-23].https:∥arxiv.org/abs/1605.04711v2.

    [7]KrishnamoorthiR.QuantizingDeepConvolutionalNetworksforEfficientInference:AWhitepaper[EB/OL].(2018-06-21)[2022-04-23].https:∥arxiv.org/abs/1806.08342v1.

    [8]HanS,MaoHZ,DallyWJ.DeepCompression:CompressingDeepNeuralNetworkswithPruning,TrainedQuantizationandHuffmanCoding[EB/OL].(2016-02-15)[2022-04-23].https:∥arxiv.org/abs/1510.00149v5.

    [9]ChenWL,WilsonJT,TyreeS,etal.CompressingNeuralNetworkswiththeHashingTrick[C]∥32ndInternationalConferenceonMachineLearning,2015:2285-2294.

    [10]ChenHT,WangYH,XuCJ,etal.AdderNet:DoWeReallyNeedMultiplicationsinDeepLearning?[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2020:1465-1474.

    [11]LeCunY,DenkerJS,SollaSA.OptimalBrainDamage[J].AdvancesinNeuralInformationProcessingSystems,1989,2:598-605.

    [12]HassibiB,StorkDG.SecondOrderDerivativesforNetworkPruning:OptimalBrainSurgeon[C]∥AdvancesinNeuralInformationProcessingSystems,1992:164-171.

    [13]NeubeckA,vanGoolL.EfficientNon-MaximumSuppression[C]∥18thInternationalConferenceonPatternRecognition(ICPR06),2006:850-855.

    [14]LouizosC,WellingM,KingmaDP.LearningSparseNeuralNetworksthroughL0Regularization[EB/OL].(2018-06-22)[2022-04-23].https:∥arxiv.org/abs/1712.01312v2.

    [15]TartaglioneE,LepsyS,F(xiàn)iandrottiA,etal.LearningSparseNeuralNetworksviaSensitivity-DrivenRegularization[C]∥32ndInternationalConferenceonNeuralInformationProcessingSystems,2018:3882-3892.

    [16]LiH,KadavA,DurdanovicI,etal.PruningFiltersforEfficientConvNets[C]∥5thInternationalConferenceonLearningRepresentations,2017:2538-2547.

    [17]HeY,KangGL,DongXY,etal.SoftFilterPruningforAccele-ratingDeepConvolutionalNeuralNetworks[C]∥27thInternationalJointConferenceonArtificialIntelligence,2018:2234-2240.

    [18]LinC,ZhongZ,WuW,etal.SynapticStrengthforConvolutionalNeuralNetwork[C]∥Proceedingsofthe32ndInternationalConferenceonNeuralInformationProcessingSystems,2018:10170-10179.

    [19]LuoJH,WuJX.AnEntropy-BasedPruningMethodforCNNCompression[EB/OL].(2017-06-19)[2022-04-23].https:∥arxiv.org/abs/1706.05791v1.

    [20]ChenCG,TungF,VedulaN,etal.Constraint-AwareDeepNeuralNetworkCompression[C]∥ComputerVision-ECCV,2018:409-424.

    [21]YangTJ,ChenYH,SzeV.DesigningEnergy-EfficientConvolutionalNeuralNetworksUsingEnergy-AwarePruning[C]∥IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2017:6071-6079.

    [22]HeYH,LinJ,LiuZJ,etal.AMC:AutoMLforModelCompressionandAccelerationonMobileDevices[C]∥ComputerVision-ECCV,2018:815-832.

    [23]HeYH,ZhangXY,SunJ.ChannelPruningforAcceleratingVeryDeepNeuralNetworks[C]∥IEEEInternationalConferenceonComputerVision(ICCV),2017:1398-1406.

    [24]MolchanovP,TyreeS,KarrasT,etal.PruningConvolutionalNeuralNetworksforResourceEfficientInference[EB/OL].(2017-06-08)[2022-04-23].https:∥arxiv.org/abs/1611.06440v2.

    [25]HintonG,VinyalsO,DeanJ.DistillingtheKnowledgeinaNeuralNetwork[EB/OL].(2015-03-09)[2022-04-23].https:∥arxiv.org/abs/1503.02531v1.

    [26]ZagoruykoS,KomodakisN.PayingMoreAttentiontoAttention:ImprovingthePerformanceofConvolutionalNeuralNetworksviaAttentionTransfer[EB/OL].(2017-02-12)[2022-04-23].https:∥arxiv.org/abs/1612.03928v3.

    [27]LiP,ShuC,XieY,etal.HierarchicalKnowledgeSqueezedAdversarialNetworkCompression[C]∥AAAIConferenceonArtificialIntelligence,2020:11370-11377.

    [28]TianYL,KrishnanD,IsolaP.ContrastiveRepresentationDistillation[EB/OL].(2022-01-24)[2022-04-23].https:∥arxiv.org/abs/1910.10699v3.

    [29]HeoB,LeeM,YunS,etal.KnowledgeTransferviaDistillationofActivationBoundariesFormedbyHiddenNeurons[C]∥33rdAAAIConferenceonArtificialIntelligence,2019:3779-3787.

    [30]XuGD,LiuZW,LiXX,etal.KnowledgeDistillationMeetsSelf-Supervision[C]∥ComputerVision-ECCV,2020:588-604.

    [31]YouS,XuC,XuC,etal.LearningfromMultipleTeacherNetworks[C]∥23rdACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining,2017:1285-1294.

    [32]AhnS,HuSX,DamianouA,etal.VariationalInformationDistillationforKnowledgeTransfer[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2019:9155-9163.

    [33]宋泰年,秦偉偉,梁卓,等.面向輕量化網(wǎng)絡的改進雙通道注意力機制圖像分類方法[J].航空兵器,2021,28(5):81-85.

    SongTainian,QinWeiwei,LiangZhuo,etal.ImprovedDual-ChannelAttentionMechanismImageClassificationMethodforLightweightNetwork[J].AeroWeaponry,2021,28(5):81-85.(inChinese)

    [34]ZhangXY,ZhouXY,LinMX,etal.ShuffleNet:AnExtremelyEfficientConvolutionalNeuralNetworkforMobileDevices[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:6848-6856.

    [35]MaNN,ZhangX,ZhengHT,etal.ShuffleNetV2:PracticalGuidelinesforEfficientCNNArchitectureDesign[EB/OL].(2018-07-30)[2022-04-23].https:∥arxiv.org/abs/1807.11164v1.

    [36]CholletF.Xception:DeepLearningwithDepthwiseSeparableConvolutions[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2017:1800-1807.

    [37]SzegedyC,LiuW,JiaYQ,etal.GoingDeeperwithConvolutions[C]∥IEEEConferenceonComputerVisionandPatternRe-cognition(CVPR),2015:1-9.

    [38]HuangG,SunY,LiuZ,etal.DeepNetworkswithStochasticDepth[C]∥ComputerVision-ECCV,2016:646-661.

    [39]DongXY,HuangJS,YangY,etal.MoreisLess:AMoreComplicatedNetworkwithLessInferenceComplexity[C]∥IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2017:1895-1903.

    [40]LiDW,WangXL,KongDG.DeepRebirth:AcceleratingDeepNeuralNetworkExecutiononMobileDevices[C]∥32ndAAAIConferenceonArtificialIntelligence,2018:2322-2330.

    [41]PrabhuA,VarmaG,NamboodiriA.DeepExpanderNetworks:EfficientDeepNetworksfromGraphTheory[C]∥ComputerVision-ECCV,2018:20-35.

    [42]WuBC,WanA,YueXY,etal.Shift:AZeroFLOP,ZeroParameterAlternativetoSpatialConvolutions[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:9127-9135.

    [43]ChenWJ,XieD,ZhangY,etal.AllYouNeedIsaFewShifts:DesigningEfficientConvolutionalNeuralNetworksforImageClassification[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2019:7234-7243.

    [44]KimJ,ParkY,KimG,etal.SplitNet:LearningtoSemanticallySplitDeepNetworksforParameterReductionandModelParalleli-zation[C]∥34thInternationalConferenceonMachineLearning,2017:1866-1874.

    [45]GordonA,EbanE,NachumO,etal.MorphNet:Fast&SimpleResource-ConstrainedStructureLearningofDeepNetworks[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:1586-1595.

    [46]KimE,AhnC,OhS.NestedNet:LearningNestedSparseStructuresinDeepNeuralNetworks[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:8669-8678.

    [47]LoweDG.ObjectRecognitionfromScale-InvariantKeypoints[C]∥IEEEInternationalConferenceonComputerVision(ICCV),1999:1150-1157.

    [48]JinYH,MishkinD,MishchukA,etal.ImageMatchingacrossWideBaselines:FromPapertoPractice[J].InternationalJournalofComputerVision,2021,129(2):517-547.

    [49]BateniP,GoyalR,MasraniV,etal.ImprovedFew-ShotVisualClassification[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2020:14481-14490.

    [50]BarronJT.AGeneralandAdaptiveRobustLossFunction[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2019:4326-4334.

    [51]BertinettoL,MuellerR,TertikasK,etal.MakingBetterMistakes:LeveragingClassHierarchieswithDeepNetworks[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2020:12503-12512.

    [52]BakerB,GuptaO,NaikN,etal.DesigningNeuralNetworkArchitecturesUsingReinforcementLearning[EB/OL].(2017-03-22)[2022-04-23].https:∥arxiv.org/abs/1611.02167v3.

    [53]ZophB,LeQV.NeuralArchitectureSearchwithReinforcementLearning[EB/OL].(2017-02-15)[2022-04-23].https:∥arxiv.org/abs/1611.01578v2.

    [54]RealE,MooreS,SelleA,etal.Large-ScaleEvolutionofImageClassifiers[EB/OL].(2017-06-11)[2022-04-23].https:∥arxiv.org/abs/1703.01041v2.

    [55]RealE,AggarwalA,HuangYP,etal.RegularizedEvolutionforImageClassifierArchitectureSearch[C]∥33rdAAAIConferenceonArtificialIntelligence,2019:4780-4789.

    [56]LiuHX,SimonyanK,YangYM.DARTS:DifferentiableArchitectureSearch[EB/OL].(2019-04-23)[2022-04-23].https:∥arxiv.org/abs/1806.09055v2.

    [57]LuoRQ,TianF,QinT,etal.NeuralArchitectureOptimization[C]∥32ndInternationalConferenceonNeuralInformationProcessingSystems,2018:7827-7838.

    [58]DengJ,DongW,SocherR,etal.ImageNet:ALarge-ScaleHie-rarchicalImageDatabase[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2009:248-255.

    ResearchonDeepLearningNetworkCompression

    MethodforMissileBorneImage

    GaoYibo,YangChuandong,ChenDong*,LingChong

    (LaboratoryofGuidanceControlandInformationPerceptionTechnologyofHighOverloadProjectiles,

    ArmyAcademyofArtilleryandAirDefense,Hefei230031,China)

    Abstract:Aimingattheproblemthatthetargetrecognitionalgorithmbasedondeeplearninghasthecharacteristicsofcomplexnetworkstructure,largeamountofparametersandhighcomputationdelay,whichisdifficulttodirectlyapplytothemissile-bornetask,thenetworklightweightmethodaresummarized.Theadvantagesandrespectivecharacteristicsofexistingcompressionmethodsandlightweightnetworksareintroduced,andtheexcellentalgorithmsinva-riousaspectsareselectedforcomparison.Finally,combinedwiththedevelopmentofdeeplearninginthefieldoftargetdetection,thelightweightmissileborneimagetargetrecognitionalgorithmisprospected.

    Keywords:networkmodelcompression;lightweightnetwork;missileborneimage;deeplearningmodel;algorithmtransplantation

    收稿日期:2022-04-24

    作者簡介:高一博(1998-),男,安徽阜陽人,碩士研究生。

    *通信作者:陳棟(1983-),男,安徽黃山人,副教授。

    亚洲美女黄色视频免费看| 97在线视频观看| 美女内射精品一级片tv| 午夜日本视频在线| 久久久久久久亚洲中文字幕| 嫩草影院入口| 日韩不卡一区二区三区视频在线| 亚洲人成网站在线观看播放| 欧美 亚洲 国产 日韩一| 最黄视频免费看| 国产欧美亚洲国产| 丰满饥渴人妻一区二区三| 久久人人爽人人爽人人片va| 狠狠婷婷综合久久久久久88av| 丁香六月天网| 亚洲综合色网址| 色94色欧美一区二区| 国产精品一区www在线观看| 美女国产视频在线观看| 亚洲国产精品999| 天堂俺去俺来也www色官网| 国产精品免费大片| 免费女性裸体啪啪无遮挡网站| 熟妇人妻不卡中文字幕| 欧美xxxx性猛交bbbb| 久久久国产一区二区| 欧美激情 高清一区二区三区| 国产黄色视频一区二区在线观看| 有码 亚洲区| 永久免费av网站大全| 亚洲精品久久成人aⅴ小说| 国产精品久久久久成人av| 亚洲综合色惰| 国产av码专区亚洲av| av在线app专区| 日韩欧美精品免费久久| 十分钟在线观看高清视频www| 免费高清在线观看日韩| 久久精品国产亚洲av天美| 毛片一级片免费看久久久久| 亚洲精品成人av观看孕妇| 大香蕉久久成人网| a级片在线免费高清观看视频| 水蜜桃什么品种好| 一级毛片电影观看| 午夜福利网站1000一区二区三区| 国产精品久久久久久精品电影小说| 亚洲综合色惰| 大陆偷拍与自拍| 久久精品国产鲁丝片午夜精品| av国产久精品久网站免费入址| 波多野结衣一区麻豆| 18+在线观看网站| 一边摸一边做爽爽视频免费| 天堂8中文在线网| 亚洲美女黄色视频免费看| 久久久久久久久久成人| 制服人妻中文乱码| 最新的欧美精品一区二区| 亚洲,欧美,日韩| 午夜精品国产一区二区电影| 两个人看的免费小视频| 婷婷色综合大香蕉| 99国产精品免费福利视频| 精品亚洲乱码少妇综合久久| 夜夜骑夜夜射夜夜干| 精品久久国产蜜桃| 在线观看免费日韩欧美大片| 亚洲成av片中文字幕在线观看 | 99热全是精品| 看免费av毛片| 美女国产视频在线观看| 最近中文字幕2019免费版| 国产免费又黄又爽又色| 国产精品熟女久久久久浪| 亚洲色图 男人天堂 中文字幕 | 成年av动漫网址| 国产1区2区3区精品| 亚洲av男天堂| 交换朋友夫妻互换小说| 亚洲在久久综合| 三上悠亚av全集在线观看| 国产亚洲精品久久久com| 一级a做视频免费观看| 久久99精品国语久久久| 九草在线视频观看| 少妇精品久久久久久久| 亚洲四区av| 精品午夜福利在线看| 日本与韩国留学比较| 人体艺术视频欧美日本| 国产免费又黄又爽又色| 国产1区2区3区精品| 久久这里只有精品19| 纵有疾风起免费观看全集完整版| av在线老鸭窝| 最近2019中文字幕mv第一页| 精品少妇久久久久久888优播| 国产精品偷伦视频观看了| 18禁国产床啪视频网站| 国产在线一区二区三区精| av电影中文网址| 一本—道久久a久久精品蜜桃钙片| 欧美日韩综合久久久久久| 成人午夜精彩视频在线观看| 少妇 在线观看| 久久精品国产综合久久久 | 夫妻午夜视频| 亚洲激情五月婷婷啪啪| 不卡视频在线观看欧美| 伊人久久国产一区二区| 亚洲国产精品成人久久小说| 国产综合精华液| 精品久久蜜臀av无| av网站免费在线观看视频| 黄色配什么色好看| 高清毛片免费看| 亚洲国产最新在线播放| 晚上一个人看的免费电影| 免费久久久久久久精品成人欧美视频 | 国产精品一国产av| 亚洲精品美女久久av网站| 国产爽快片一区二区三区| 午夜福利影视在线免费观看| 少妇的丰满在线观看| 国产一区二区激情短视频 | 国产精品秋霞免费鲁丝片| 寂寞人妻少妇视频99o| 午夜视频国产福利| 免费看av在线观看网站| 9191精品国产免费久久| 亚洲内射少妇av| 黄片无遮挡物在线观看| 熟女电影av网| 国产午夜精品一二区理论片| 亚洲国产成人一精品久久久| 中文字幕精品免费在线观看视频 | 亚洲国产av影院在线观看| 亚洲精品日韩在线中文字幕| 在线天堂中文资源库| 高清在线视频一区二区三区| 久久国内精品自在自线图片| 一级毛片电影观看| 肉色欧美久久久久久久蜜桃| 久久精品熟女亚洲av麻豆精品| 飞空精品影院首页| 亚洲国产精品成人久久小说| 高清不卡的av网站| 夫妻午夜视频| 精品国产一区二区久久| 在线观看免费日韩欧美大片| 一级毛片黄色毛片免费观看视频| 精品一品国产午夜福利视频| 国产一级毛片在线| 欧美日韩av久久| 日本av手机在线免费观看| 一区二区av电影网| 欧美精品一区二区免费开放| 母亲3免费完整高清在线观看 | 女的被弄到高潮叫床怎么办| 王馨瑶露胸无遮挡在线观看| 久久ye,这里只有精品| 少妇高潮的动态图| 日韩电影二区| 三级国产精品片| 亚洲国产欧美在线一区| 亚洲综合精品二区| 校园人妻丝袜中文字幕| 国产精品成人在线| 国产成人精品久久久久久| a级片在线免费高清观看视频| 久久精品国产亚洲av天美| 大片免费播放器 马上看| 亚洲欧洲日产国产| 亚洲av成人精品一二三区| 22中文网久久字幕| 国产精品国产av在线观看| 如何舔出高潮| 免费看av在线观看网站| 777米奇影视久久| av福利片在线| 亚洲成人av在线免费| 人人妻人人爽人人添夜夜欢视频| 老女人水多毛片| 三上悠亚av全集在线观看| 99久久精品国产国产毛片| av国产精品久久久久影院| 91精品国产国语对白视频| 午夜老司机福利剧场| av在线播放精品| 精品少妇内射三级| 一本大道久久a久久精品| 久久久久网色| 热99国产精品久久久久久7| 午夜福利影视在线免费观看| 亚洲国产色片| 日韩一区二区三区影片| 精品一区二区三区视频在线| 成人黄色视频免费在线看| 永久网站在线| 99国产精品免费福利视频| 国产日韩欧美在线精品| 久久久久久人妻| 熟妇人妻不卡中文字幕| 春色校园在线视频观看| 美女内射精品一级片tv| 咕卡用的链子| 久久影院123| 欧美性感艳星| 黄片播放在线免费| 一边亲一边摸免费视频| 亚洲一级一片aⅴ在线观看| 亚洲av成人精品一二三区| 99热网站在线观看| 国产一区二区在线观看日韩| 99热国产这里只有精品6| 一级,二级,三级黄色视频| 中文字幕人妻丝袜制服| 精品人妻在线不人妻| 少妇被粗大的猛进出69影院 | 一区二区三区四区激情视频| 成人18禁高潮啪啪吃奶动态图| av天堂久久9| 欧美精品av麻豆av| 国国产精品蜜臀av免费| 男女高潮啪啪啪动态图| 大片电影免费在线观看免费| 最黄视频免费看| 婷婷色综合大香蕉| 亚洲av中文av极速乱| 欧美xxⅹ黑人| 国产免费现黄频在线看| 国产不卡av网站在线观看| 精品国产一区二区三区四区第35| 夜夜爽夜夜爽视频| 午夜免费观看性视频| 午夜福利视频在线观看免费| 日日啪夜夜爽| 久久精品国产a三级三级三级| 纯流量卡能插随身wifi吗| 久久久精品区二区三区| 免费黄色在线免费观看| 看免费av毛片| 亚洲精品av麻豆狂野| 欧美国产精品一级二级三级| 亚洲国产精品专区欧美| 久久这里只有精品19| 99热国产这里只有精品6| 日韩不卡一区二区三区视频在线| 最近中文字幕2019免费版| 高清视频免费观看一区二区| 国产精品人妻久久久久久| 国产免费又黄又爽又色| 成年动漫av网址| 国产乱人偷精品视频| 天堂俺去俺来也www色官网| 欧美日韩av久久| 精品久久久精品久久久| 春色校园在线视频观看| 久久久久精品性色| 男男h啪啪无遮挡| 春色校园在线视频观看| 日韩成人av中文字幕在线观看| 久久久久久久精品精品| 啦啦啦中文免费视频观看日本| 久久热在线av| 国产日韩一区二区三区精品不卡| 亚洲情色 制服丝袜| 美女xxoo啪啪120秒动态图| 美女xxoo啪啪120秒动态图| 国产成人av激情在线播放| 一本色道久久久久久精品综合| 最黄视频免费看| 一本色道久久久久久精品综合| 国产熟女午夜一区二区三区| 亚洲国产欧美在线一区| 一本久久精品| 女人被躁到高潮嗷嗷叫费观| 国产不卡av网站在线观看| 国产免费福利视频在线观看| 制服诱惑二区| 国产国拍精品亚洲av在线观看| 99九九在线精品视频| 亚洲精品中文字幕在线视频| 久久婷婷青草| 99精国产麻豆久久婷婷| 街头女战士在线观看网站| 十分钟在线观看高清视频www| 国产av国产精品国产| 少妇 在线观看| 亚洲欧美色中文字幕在线| 国产欧美亚洲国产| 亚洲精品,欧美精品| 国产欧美另类精品又又久久亚洲欧美| 午夜福利视频精品| 成人二区视频| 欧美日韩视频高清一区二区三区二| 性色avwww在线观看| 亚洲精品中文字幕在线视频| 欧美激情 高清一区二区三区| 天天操日日干夜夜撸| 亚洲精品乱久久久久久| 91精品国产国语对白视频| 亚洲av综合色区一区| 80岁老熟妇乱子伦牲交| 中文天堂在线官网| 亚洲国产欧美在线一区| 美国免费a级毛片| 高清在线视频一区二区三区| 欧美人与善性xxx| 91aial.com中文字幕在线观看| 欧美另类一区| av电影中文网址| 免费黄网站久久成人精品| 亚洲国产精品999| 满18在线观看网站| 一本—道久久a久久精品蜜桃钙片| 91精品国产国语对白视频| 青春草国产在线视频| 80岁老熟妇乱子伦牲交| 亚洲精品aⅴ在线观看| 大码成人一级视频| 国内精品宾馆在线| 欧美成人午夜免费资源| 久久久久久久久久成人| 两性夫妻黄色片 | 91久久精品国产一区二区三区| 9热在线视频观看99| 国产成人欧美| 亚洲精品一二三| 午夜福利在线观看免费完整高清在| 国产成人91sexporn| 免费观看性生交大片5| 一级黄片播放器| 美女中出高潮动态图| 免费观看av网站的网址| 日韩精品有码人妻一区| 国精品久久久久久国模美| 纯流量卡能插随身wifi吗| 欧美激情极品国产一区二区三区 | 99久久精品国产国产毛片| 丝袜喷水一区| 人体艺术视频欧美日本| 18禁裸乳无遮挡动漫免费视频| 又黄又粗又硬又大视频| 日本欧美视频一区| 天天操日日干夜夜撸| 免费久久久久久久精品成人欧美视频 | 色吧在线观看| 精品少妇内射三级| 黑人巨大精品欧美一区二区蜜桃 | 九色成人免费人妻av| 国产免费一区二区三区四区乱码| 欧美成人精品欧美一级黄| 免费看不卡的av| 一级,二级,三级黄色视频| 久久久国产一区二区| 亚洲人与动物交配视频| 国产精品国产av在线观看| 中文字幕人妻丝袜制服| 亚洲国产欧美在线一区| 男人爽女人下面视频在线观看| 精品亚洲成国产av| 精品熟女少妇av免费看| 国产精品人妻久久久影院| 亚洲av免费高清在线观看| 久久久久久久亚洲中文字幕| 免费观看在线日韩| 午夜激情久久久久久久| 97精品久久久久久久久久精品| 成年动漫av网址| 国产精品 国内视频| 免费久久久久久久精品成人欧美视频 | 一本—道久久a久久精品蜜桃钙片| av电影中文网址| 精品亚洲成国产av| 狠狠婷婷综合久久久久久88av| 色婷婷av一区二区三区视频| 精品久久久精品久久久| 午夜福利视频在线观看免费| 永久网站在线| 高清av免费在线| 丝袜脚勾引网站| 国产又色又爽无遮挡免| 一区二区三区精品91| 校园人妻丝袜中文字幕| 免费黄网站久久成人精品| 免费av不卡在线播放| 日韩大片免费观看网站| 一本久久精品| 免费人成在线观看视频色| 一区二区三区精品91| 日日摸夜夜添夜夜爱| 久久久a久久爽久久v久久| 大香蕉久久成人网| 黑人欧美特级aaaaaa片| 日本欧美视频一区| 欧美精品一区二区大全| 夫妻午夜视频| 麻豆乱淫一区二区| 欧美激情国产日韩精品一区| 蜜臀久久99精品久久宅男| 校园人妻丝袜中文字幕| 久久久久久人人人人人| 欧美激情极品国产一区二区三区 | 王馨瑶露胸无遮挡在线观看| 欧美成人精品欧美一级黄| 日韩熟女老妇一区二区性免费视频| 成人黄色视频免费在线看| av天堂久久9| 欧美3d第一页| 欧美最新免费一区二区三区| 爱豆传媒免费全集在线观看| 婷婷色综合www| 成人午夜精彩视频在线观看| 免费高清在线观看视频在线观看| 日日爽夜夜爽网站| 男女午夜视频在线观看 | 亚洲欧洲精品一区二区精品久久久 | 另类精品久久| 人妻一区二区av| 亚洲欧洲国产日韩| 亚洲精品国产av成人精品| av视频免费观看在线观看| 欧美日韩视频精品一区| 卡戴珊不雅视频在线播放| av在线老鸭窝| 久久99精品国语久久久| 婷婷色综合www| 午夜视频国产福利| 国产熟女午夜一区二区三区| 国语对白做爰xxxⅹ性视频网站| 国产午夜精品一二区理论片| 成人国产麻豆网| 日韩一区二区三区影片| 国产av精品麻豆| 国国产精品蜜臀av免费| 最近2019中文字幕mv第一页| 日本黄色日本黄色录像| 国产男人的电影天堂91| 丰满饥渴人妻一区二区三| 大陆偷拍与自拍| 搡老乐熟女国产| 韩国精品一区二区三区 | 天堂8中文在线网| 国产亚洲精品第一综合不卡 | 高清欧美精品videossex| 久久av网站| 七月丁香在线播放| 少妇 在线观看| 国产男女超爽视频在线观看| 欧美人与性动交α欧美软件 | 午夜日本视频在线| 9色porny在线观看| 久久狼人影院| 一本—道久久a久久精品蜜桃钙片| 晚上一个人看的免费电影| av播播在线观看一区| 热99国产精品久久久久久7| www.av在线官网国产| 亚洲av.av天堂| 热re99久久精品国产66热6| 全区人妻精品视频| 亚洲av.av天堂| 熟女人妻精品中文字幕| 久久久久国产网址| 欧美少妇被猛烈插入视频| 久久人人97超碰香蕉20202| 边亲边吃奶的免费视频| 在线观看美女被高潮喷水网站| 亚洲国产毛片av蜜桃av| 如日韩欧美国产精品一区二区三区| 一本久久精品| 一区二区日韩欧美中文字幕 | 国产极品粉嫩免费观看在线| 下体分泌物呈黄色| videosex国产| av天堂久久9| 久久久久久久亚洲中文字幕| 亚洲色图 男人天堂 中文字幕 | 巨乳人妻的诱惑在线观看| 黄片无遮挡物在线观看| 9热在线视频观看99| 亚洲av电影在线进入| 搡老乐熟女国产| 在线观看人妻少妇| 观看av在线不卡| 水蜜桃什么品种好| 人体艺术视频欧美日本| 久久午夜综合久久蜜桃| av在线老鸭窝| 69精品国产乱码久久久| 最近2019中文字幕mv第一页| 久久精品人人爽人人爽视色| www.熟女人妻精品国产 | 人人妻人人澡人人看| 侵犯人妻中文字幕一二三四区| 99视频精品全部免费 在线| 观看美女的网站| 免费人成在线观看视频色| 日韩制服骚丝袜av| 麻豆乱淫一区二区| 满18在线观看网站| 热re99久久国产66热| 国产成人一区二区在线| 国产男人的电影天堂91| 内地一区二区视频在线| 成人手机av| 97人妻天天添夜夜摸| 久久久久久久久久人人人人人人| 精品第一国产精品| 在线观看免费视频网站a站| 亚洲av成人精品一二三区| 国产精品久久久久久精品古装| 寂寞人妻少妇视频99o| 国产成人a∨麻豆精品| 国产毛片在线视频| 精品久久国产蜜桃| 在线观看人妻少妇| 免费在线观看黄色视频的| 少妇 在线观看| 日本黄大片高清| 大片免费播放器 马上看| 久久精品国产亚洲av涩爱| 亚洲情色 制服丝袜| 人人妻人人爽人人添夜夜欢视频| 九色成人免费人妻av| 男女无遮挡免费网站观看| 一级毛片 在线播放| 超碰97精品在线观看| 日韩av在线免费看完整版不卡| 亚洲综合精品二区| 伦理电影大哥的女人| 午夜免费鲁丝| 国产伦理片在线播放av一区| √禁漫天堂资源中文www| 国产一区有黄有色的免费视频| 国产极品粉嫩免费观看在线| 啦啦啦啦在线视频资源| 成人毛片a级毛片在线播放| 春色校园在线视频观看| 久久久久久久久久久免费av| 国产日韩一区二区三区精品不卡| 成年动漫av网址| 亚洲精品色激情综合| 伊人久久国产一区二区| 婷婷色综合大香蕉| 天堂俺去俺来也www色官网| 久久久亚洲精品成人影院| 国产精品久久久久久精品电影小说| 国产av精品麻豆| 国产成人免费无遮挡视频| 女性生殖器流出的白浆| 成人无遮挡网站| 黑丝袜美女国产一区| 亚洲四区av| 1024视频免费在线观看| 国产亚洲午夜精品一区二区久久| 婷婷成人精品国产| 国产国语露脸激情在线看| tube8黄色片| 男女国产视频网站| 亚洲性久久影院| 国产又色又爽无遮挡免| 夫妻午夜视频| 18+在线观看网站| 黑人欧美特级aaaaaa片| 亚洲国产日韩一区二区| 亚洲婷婷狠狠爱综合网| 考比视频在线观看| 交换朋友夫妻互换小说| 中文乱码字字幕精品一区二区三区| 欧美日韩一区二区视频在线观看视频在线| 日韩欧美精品免费久久| 波野结衣二区三区在线| 99九九在线精品视频| 久久女婷五月综合色啪小说| 国产精品久久久久久av不卡| 伦理电影大哥的女人| 亚洲精品av麻豆狂野| 亚洲精品美女久久av网站| xxxhd国产人妻xxx| 久久鲁丝午夜福利片| 看免费av毛片| 日韩,欧美,国产一区二区三区| 天堂8中文在线网| 免费在线观看完整版高清| 成人18禁高潮啪啪吃奶动态图| 国产成人午夜福利电影在线观看| 国产精品欧美亚洲77777| 欧美97在线视频| 午夜激情久久久久久久| 成人综合一区亚洲| 久久久久视频综合| 在线观看一区二区三区激情| 国产一区亚洲一区在线观看| 久久久国产欧美日韩av| 爱豆传媒免费全集在线观看| 久久久久久久亚洲中文字幕| 777米奇影视久久| 美女中出高潮动态图| 亚洲内射少妇av| 午夜视频国产福利| 伦理电影免费视频| 亚洲欧美成人精品一区二区| 狂野欧美激情性xxxx在线观看| 18+在线观看网站| 成人影院久久| 91精品三级在线观看| 中文字幕av电影在线播放| 黄色配什么色好看| 久久国产亚洲av麻豆专区| 亚洲成色77777| 欧美 亚洲 国产 日韩一| 边亲边吃奶的免费视频|