• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度神經(jīng)網(wǎng)絡(luò)壓縮與加速綜述

    2022-02-14 12:42:06曾煥強胡浩麟林向偉侯軍輝蔡燦輝
    信號處理 2022年1期
    關(guān)鍵詞:剪枝濾波卷積

    曾煥強 胡浩麟 林向偉 侯軍輝 蔡燦輝

    (1.華僑大學(xué)工學(xué)院,福建泉州 362021;2.華僑大學(xué)信息科學(xué)與工程學(xué)院,福建廈門 361021;3.香港城市大學(xué)計算機科學(xué)系,中國香港 999077)

    1 引言

    近年來,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,被大量應(yīng)用于人工智能各個領(lǐng)域。然而,深度神經(jīng)網(wǎng)絡(luò)的成功很大程度上依賴于GPU(Graphic Processing Unit,GPU)計算能力的發(fā)展。大型深度神經(jīng)網(wǎng)絡(luò)存在結(jié)構(gòu)復(fù)雜、層級較多、節(jié)點數(shù)量巨大等特點,例如早期在ILSVRC 競賽中取得了重大突破的AlexNet是針對圖像分類任務(wù)而設(shè)計的卷積神經(jīng)網(wǎng)絡(luò),僅由5 個卷積層與3 個全連接層組成,所含參數(shù)量超過6 千萬,模型大小超過240 MB。此外,業(yè)界廣泛使用的模型VGG16 則擁有1.44 億個參數(shù),模型大小超過500 MB,ResNet-152 擁有0.57 億個參數(shù),模型大小達到230 MB。采用上述模型對一幅224×224的彩色圖像進行分類,分別需要進行150 億次和113 億次浮點型計算。另外,由于ResNet 系列模型具有復(fù)雜的分支結(jié)構(gòu),雖然其參數(shù)量相較于具有平坦結(jié)構(gòu)的VGG 模型更小,但在實際訓(xùn)練和推理中耗時更長。可見,主流深度學(xué)習(xí)模型的存儲和計算成本對于具有嚴(yán)格時延約束條件的實時應(yīng)用來說過于高昂。

    隨著移動端設(shè)備的普及和市場規(guī)模的擴大,工業(yè)界迫切需要將深度學(xué)習(xí)模型部署到資源有限的邊緣設(shè)備上。然而嵌入式設(shè)備和現(xiàn)場可編程門陣列(Field Programmable Gate Array,F(xiàn)PGA)所具有的內(nèi)存容量、計算資源與GPU 相差幾個數(shù)量級,面對龐大的神經(jīng)網(wǎng)絡(luò)模型顯得捉襟見肘,因此模型壓縮及加速的工作變得至關(guān)重要。目前,根據(jù)不同壓縮與加速方法的性質(zhì),深度神經(jīng)網(wǎng)絡(luò)的壓縮和加速方法可分為四類:參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計和知識蒸餾。其中,基于參數(shù)量化的方法是降低權(quán)重參數(shù)的存儲位數(shù);基于參數(shù)剪枝的方法是通過去除權(quán)重參數(shù)中的非關(guān)鍵冗余部分來減少參數(shù)量;基于輕量型卷積核設(shè)計的方法從濾波結(jié)構(gòu)乃至卷積方式的層面進行改進設(shè)計,從而降低計算復(fù)雜度;基于知識蒸餾的方法利用知識遷移來訓(xùn)練一個緊湊的網(wǎng)絡(luò)模型且能復(fù)現(xiàn)大型網(wǎng)絡(luò)的性能。我們將在下面的章節(jié)中分別對它們的特性和優(yōu)缺點進行分析。具體地,我們將在后續(xù)章節(jié)中作進一步的介紹。本文剩余部分的安排如下:第2 節(jié)介紹模型壓縮的主流方法;第3 節(jié)介紹常用數(shù)據(jù)集與性能評價準(zhǔn)則;第4 節(jié)給出總結(jié)及未來研究方向的一些相關(guān)探討。

    2 模型壓縮方法

    本節(jié)將按照參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計以及知識蒸餾的順序進行介紹。表1對四種主要壓縮方法進行了總結(jié)。

    表1 不同深度神經(jīng)網(wǎng)絡(luò)壓縮與加速方法總結(jié)Tab.1 Summarization of Various Methods for DNN Compression and Acceleration

    2.1 參數(shù)量化

    參數(shù)量化通過減少存儲權(quán)重參數(shù)及激活值所需的比特位數(shù)來壓縮原始網(wǎng)絡(luò)。通過該方法,網(wǎng)絡(luò)中權(quán)值和激活值都會被量化,并且浮點乘法累加操作(Multiply Accumulate)可以被低比特的乘法累加操作代替。因此,使用降低比特數(shù)的方法可以顯著減少內(nèi)存存儲占用和計算資源的耗費。Gong 等人[1]和Wu 等人[2]通過k-means 聚類實現(xiàn)參數(shù)共享,只需要存儲作為權(quán)重索引值的k個質(zhì)心而不是所有權(quán)重值,顯著減少了內(nèi)存開銷。

    Gupta 等人[3]在基于隨機舍入的CNN(Convolutional Neural Network)訓(xùn)練中采用了16 位定點數(shù)表示,顯著減少了模型的內(nèi)存占用和浮點運算,而分類精度幾乎沒有損失。進一步地,Han 等人[4]提出的方法利用權(quán)值共享對權(quán)值進行量化,然后對量化后的權(quán)值和索引表進行霍夫曼編碼,以縮減模型大小。如圖1所示,首先對原始網(wǎng)絡(luò)進行訓(xùn)練,學(xué)習(xí)神經(jīng)元間的連接(connection),將權(quán)重較小的連接剪除,然后對稀疏網(wǎng)絡(luò)進行重訓(xùn)練,學(xué)習(xí)得到緊湊的新網(wǎng)絡(luò)。Choi 等人[5]證明了利用Hessian 權(quán)重來衡量網(wǎng)絡(luò)權(quán)值重要性的可行性,并提出了一種聚類參數(shù),用于最小化Hessian 加權(quán)量化誤差。Vanhoucke等人[6]的研究表明,將權(quán)重值量化至8 位,能夠顯著提升推理速度,同時保證最小的精度損失。Jacob等人[7]提出一種量化框架,在訓(xùn)練時保留32 位全精度存儲方式,而在前向推理時對權(quán)重值與激活值進行8位量化,從而用整數(shù)運算替代浮點數(shù)運算,顯著降低了運算復(fù)雜度。目前8位量化已經(jīng)在工業(yè)界得到了廣泛應(yīng)用,除上述方法外,英偉達(Nvidia)公司推出了TensorRT-int8 量化工具,對于正負(fù)分布均勻的權(quán)重值與激活值采用最大值映射,將取值范圍按一定比例映射至(-127,127),對于分布不均勻的值采用飽和截斷映射,即在映射前截斷部分區(qū)間,得到在正負(fù)區(qū)間對稱的截斷信息后再進行量化映射。

    值得一提的是,二值神經(jīng)網(wǎng)絡(luò)是網(wǎng)絡(luò)量化的極端情況。一般情況下,網(wǎng)絡(luò)模型中各項參數(shù)都采取32位單精度浮點數(shù)進行存儲,而二值網(wǎng)絡(luò)中將參數(shù)及特征圖激活值都以+1,-1 形式存儲,每個值僅占用1 比特內(nèi)存,類似地,三值網(wǎng)絡(luò)[8]采用+1,0,-1 的組合來量化權(quán)重。早期對網(wǎng)絡(luò)二值化進行探索的幾項工作,如BinaryConnect[9],BinaryNet[10]和XNOR[11]等都是在模型訓(xùn)練過程中直接學(xué)習(xí)二值化權(quán)值或激活值。

    然而,由于大部分二值網(wǎng)絡(luò)設(shè)計在利用矩陣近似的思想時未能充分考慮二值化帶來的精度損失,并且網(wǎng)絡(luò)量化將參數(shù)離散化,加劇了訓(xùn)練的不穩(wěn)定性,在對諸如GoogleNet 等大型CNN 進行量化壓縮后,容易導(dǎo)致二值網(wǎng)絡(luò)在分類、檢測任務(wù)中的精度顯著降低。為解決這個問題,Hou 等人[12]的工作提出了一種近似牛頓算法(proximal Newton algorithm),該算法利用對角Hessian 近似將二值權(quán)重的損失最小化。Liu 等人[13]提出一種可求導(dǎo)的軟性量化(Differentiable Soft Quantization,DSQ),使網(wǎng)絡(luò)在反向傳播過程中獲得更精確的梯度,以彌補二值網(wǎng)絡(luò)前向傳播過程中的量化損失。Lin 等人[14]提出一種對權(quán)重進行隨機二值化處理的壓縮方法,隨機二值化不僅能夠減少浮點運算次數(shù),還具有一定的正則化效果,能夠抑制二值化造成的精度損失。Zhang 等人[15]認(rèn)為,由于DNN 的權(quán)重、激活值在各個卷積層的數(shù)值分布是不同的,因此對整個網(wǎng)絡(luò)采取統(tǒng)一標(biāo)準(zhǔn)的量化策略缺乏靈活性。他們提出一種可習(xí)得的量化器,即聯(lián)合訓(xùn)練模型與其量化器,在訓(xùn)練過程中逐層優(yōu)化量化策略,以提升壓縮后的模型精度。Cai 等人[16]提出一種基于半波高斯量化(half-wave Gaussian Quantization)的近似方法,在二值化權(quán)重的基礎(chǔ)上,將激活函數(shù)ReLU(Rectified Linear Unit)進行近似處理,以適應(yīng)二值化網(wǎng)絡(luò)的反向傳播計算,使學(xué)習(xí)過程更加穩(wěn)定,減小精度損失。Bethge 等人[17]提出一種二值化網(wǎng)絡(luò)結(jié)構(gòu)MeliusNet,該結(jié)構(gòu)采用雙塊設(shè)計,能夠連續(xù)地提升特征數(shù)量,此外該結(jié)構(gòu)對一些保持32 位存儲的卷積層進行重新設(shè)計,極大地減少了運算量。

    表2 列出了上述所提主流量化方法的性能對比,所有方法均在ResNet-18 模型上進行,數(shù)據(jù)集采用ImageNet。

    表2 ImageNet數(shù)據(jù)集上對ResNet18采用不同量化方法的性能對比Tab.2 Performance comparison of different quantization methods on ResNet18 based on ImageNet dataset

    2.2 模型剪枝

    模型剪枝是模型壓縮和加速中使用最為廣泛的研究方法。模型剪枝的基本思想是通過在預(yù)訓(xùn)練的DNN 模型中剪除冗余的、信息量少的權(quán)重,將網(wǎng)絡(luò)結(jié)構(gòu)稀疏化,從而降低內(nèi)存開銷,加速推理過程。剪枝方法包括非結(jié)構(gòu)化剪枝和結(jié)構(gòu)化剪枝。非結(jié)構(gòu)化剪枝是最細(xì)粒度的方法,其操作對象是濾波(filter)中的每個權(quán)重;而結(jié)構(gòu)化剪枝的操作對象是整個濾波,乃至整個卷積層這樣的結(jié)構(gòu)化信息。

    2.2.1 非結(jié)構(gòu)化剪枝

    早期的剪枝方法大都基于非結(jié)構(gòu)化剪枝,由于它裁剪的粒度為單個神經(jīng)元,因此在對卷積核進行非結(jié)構(gòu)化剪枝時,得到稀疏分布的卷積核,即存在較多元素為0的矩陣,因此可以有效減少內(nèi)存占用,加速推理。

    Hanson 等[19]提出了基于有偏權(quán)重衰減的剪枝方法,是對網(wǎng)絡(luò)稀疏化最早的探索。Hassibi 等人[20]根據(jù)損失函數(shù)的Hessian 矩陣減少了連接的數(shù)量,使網(wǎng)絡(luò)結(jié)構(gòu)高度稀疏化。Srinivas 和Babu[21]從神經(jīng)元之間存在冗余的角度出發(fā),提出了一種不依賴訓(xùn)練數(shù)據(jù)的剪枝框架,計算節(jié)點的冗余程度并進行刪除。Han等人[22]提出批量減少整個網(wǎng)絡(luò)中的參數(shù)量和運算量,該方法規(guī)定的三階段剪枝流程被廣泛沿用,即訓(xùn)練權(quán)重、模型剪枝、重訓(xùn)練。Chen等人[23]提出了HashedNets 模型,引入哈希函數(shù),根據(jù)參數(shù)間漢明距離將權(quán)重分組,實現(xiàn)參數(shù)共享。然而,受限于底層硬件和計算庫的支持,非結(jié)構(gòu)化剪枝通常會構(gòu)成非結(jié)構(gòu)化的稀疏矩陣,在計算過程中會造成內(nèi)存獲取的不規(guī)則性,影響硬件工作效率,降低計算速度。因此,近年來研究者們致力于探索基于結(jié)構(gòu)化剪枝的壓縮方法。

    2.2.2 結(jié)構(gòu)化剪枝

    目前,在基于結(jié)構(gòu)化剪枝的研究工作當(dāng)中已涌現(xiàn)出許多出色的研究成果,解決了無法對稀疏矩陣計算進行加速的問題。此類方法遵循濾波顯著性準(zhǔn)則(即判別濾波對于模型性能重要性的準(zhǔn)則),直接批量地剪除非顯著性濾波,達到壓縮目的。Wen等人[24]利用Group Lasso 對模型中不同粒度的結(jié)構(gòu),包括濾波、通道、濾波形狀、層深度(filters,channels,filter shapes,layer depth)進行正則化,并將此正則化項加入目標(biāo)函數(shù),進行結(jié)構(gòu)化稀疏訓(xùn)練。Zhou 等人[25]向目標(biāo)函數(shù)中加入稀疏性局限(sparse constraints),然后在訓(xùn)練階段通過稀疏限制減少神經(jīng)元數(shù)量。該方法針對其特殊的優(yōu)化過程還提出前后項分裂法,其作用是在標(biāo)準(zhǔn)的反向傳播過程中,可以繞過不易求導(dǎo)的稀疏限制項。通過計算濾波的范數(shù)值,直接判斷濾波的重要性的方法也相繼被提出[26],該方法首先計算所有濾波的L1 范數(shù),逐層刪除范數(shù)值低于閾值的濾波,同時移除該濾波在當(dāng)前層生成的特征圖(feature map)以及該特征圖在下一層中對應(yīng)的濾波通道,剪枝后再進行重訓(xùn)練,恢復(fù)模型的精度。

    Liu 等人[27]提出一種介于粗、細(xì)粒度之間的通道級別剪枝。如圖2 所示,該方法向存在于每個卷積層的批量標(biāo)準(zhǔn)化(Batch Normalization)中的縮放因子γ 添加稀疏正則限制,并將此正則項加入目標(biāo)函數(shù),與模型損失函數(shù)聯(lián)合訓(xùn)練,受正則化限制,部分縮放因子將衰減至接近0的區(qū)域。由于批量標(biāo)準(zhǔn)化中超參數(shù)γ 的大小能夠直接改變特征圖的分布,進而影響模型的表達能力,因此較小的縮放因子對應(yīng)著全局貢獻度較低的通道,對這些通道進行剪除,再通過微調(diào)(fine-tune)恢復(fù)模型精度,有效降低了網(wǎng)絡(luò)的復(fù)雜度。不同于前述方法,Luo 等人[28]越過當(dāng)前層濾波,著眼于下一層濾波通道的顯著性,建立了一個有效的通道選擇優(yōu)化函數(shù),實現(xiàn)對下一層卷積核中冗余通道及其對應(yīng)當(dāng)前層濾波的剪枝。

    2.2.3 自動化剪枝

    上述非結(jié)構(gòu)化、結(jié)構(gòu)化剪枝屬于人工設(shè)計的剪枝方案,設(shè)計過程中需要人為考慮模型大小、推理速度和精度之間的權(quán)衡,因此人工設(shè)計往往需要耗費較長時間,部分設(shè)計可能只得到次優(yōu)化的結(jié)果。近年來基于自主機器學(xué)習(xí)(AutoML)與神經(jīng)架構(gòu)搜索(Neural Architecture Search,NAS)的剪枝方案陸續(xù)被提出。He等人[29]基于強化學(xué)習(xí)的思想,對精度損失進行懲罰,同時鼓勵模型簡化和加速,實現(xiàn)自動化剪枝。Yu等人[30]提出一種單次不循環(huán)的方法,此法訓(xùn)練一個單一的可瘦身網(wǎng)絡(luò)來近似不同通道結(jié)構(gòu)網(wǎng)絡(luò)的精度,然后迭代地評估訓(xùn)練后的可瘦身網(wǎng)絡(luò),在最大限度保持精度的前提下對各層進行貪婪剪枝。2020 年,滴滴AI 實驗室提出一種新的自動化壓縮方法[31]。該方法是經(jīng)驗導(dǎo)向型的搜索方法,彌補了基于強化學(xué)習(xí)的搜索與剪枝問題不完全兼容的缺陷,通過自動搜索進程來確定剪枝策略組合、逐層剪枝比例以及其他超參數(shù)。

    表3列出了上述所提主流模型剪枝方法的性能對比結(jié)果,所有實驗統(tǒng)一在VGG-16 與ResNet-50 模型上進行,數(shù)據(jù)集采用ImageNet。

    表3 ImageNet數(shù)據(jù)集上典型剪枝方法的性能對比Tab.3 Performance comparison of typical pruning methods on ImageNet dataset

    2.3 輕量型卷積核設(shè)計

    輕量型卷積核設(shè)計從卷積濾波尺寸以及卷積方式的層面考慮,將深度神經(jīng)網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積核用小尺寸卷積核直接替代,或采用非標(biāo)準(zhǔn)卷積方式,能夠有效加速模型推理速度,并獲得理想的分類識別精度。以下首先介紹三種最具代表性的輕量型卷積核設(shè)計方法。

    (1)SqueezeNet

    2016 年,Han 等提出了SqueezeNet[32]。在該模型中,常規(guī)的卷積結(jié)構(gòu)被Fire Module 所替換,整體結(jié)構(gòu)包含Squeeze 層和Expand 層。在Squeeze 層中用1×1的卷積核替換了常規(guī)的3×3卷積核,并將1×1和3×3的卷積核同時應(yīng)用于Expand層中。

    (2)MobileNet

    Google人工智能實驗室Howard等人提出了MobileNet 系列[33]。該模型棄用標(biāo)準(zhǔn)卷積,采用深度可分離卷積進行特征提取,根據(jù)理論計算,在采用3×3卷積核的情況下,卷積運算量能夠降低至標(biāo)準(zhǔn)卷積的1/8-1/9。如圖3 所示,深度可分離卷積的計算過程包含深度卷積和點卷積兩部分,將標(biāo)準(zhǔn)卷積中特征提取、特征融合并生成新特征的過程一分為二,在有效降低運算量的同時保持了卷積層的表達能力。MobileNet-V2[34]還引入了殘差網(wǎng)絡(luò)中的跳躍連接(skip connection),整體結(jié)構(gòu)采用堆疊倒置殘差塊(inverted residual block)的形式,既提升了網(wǎng)絡(luò)中梯度的傳播能力,也提高了存儲效率。MobileNet-V3[35]在MobileNet-V2 的基礎(chǔ)上,向殘差塊中引入Squeeze-and-Excitation 模塊,即先進行自適應(yīng)平均池化,再進行特征激勵,不同于傳統(tǒng)的SE 模塊[36]中采用固定的Sigmoid 函數(shù),MobileNet-V3 中根據(jù)層次所在深度對非線性激活函數(shù)進行微調(diào)。

    (3)ShuffleNet

    ShuffleNet 由Zhang 等人[37]在2017 年提出,將分組式卷積(Group Convolution)和重置通道次序(Channel Shuffle)相結(jié)合,設(shè)計緊湊型神經(jīng)網(wǎng)絡(luò)模型。該方法經(jīng)過實驗論證,發(fā)現(xiàn)在網(wǎng)絡(luò)中連續(xù)使用分組卷積會導(dǎo)致各組信息局限于單一的通道組,無法實現(xiàn)組間信息交互,而通過通道次序重置能有效改善這個弊端,重置后能夠恢復(fù)網(wǎng)絡(luò)表達能力,得到與標(biāo)準(zhǔn)卷積相似的計算結(jié)果。Ma 等人[38]提出ShuffleNet-V2,除了傳統(tǒng)的浮點運算數(shù)(Floating Point Operations,F(xiàn)LOPs)指標(biāo),還考慮到內(nèi)存訪問成本(Memory Access Cost,MAC)以及網(wǎng)絡(luò)結(jié)構(gòu)的并行度,提出綜合衡量各個指標(biāo)才能有效降低運行時延。ShuffleNet-V2的基礎(chǔ)塊中,首先進行通道分離,起到分組卷積的作用,然后其中一組進行點卷積與深度可分離卷積,最終連接分離后的兩組并執(zhí)行重置通道次序。

    基于MobileNet系列與ShuffleNet系列對輕量型卷積核設(shè)計方法的探索成果,華為諾亞團隊進一步分析得出[39],CNN 中特征圖的通道內(nèi)存在冗余,部分通道間相似度過高,由此提出一種新穎的Ghost模塊,減少普通卷積的利用率,通過計算成本極低的線性變換來生成“影子”特征,這些特征能夠完全挖掘出固有特征圖中潛在的信息,增強表達能力的同時也降低了計算量。以Ghost 模塊為基礎(chǔ),堆疊得到GhostNet。如表4 所示,該方法在FLOPs 上達到了最優(yōu)的性能,同時在精度和降低參數(shù)量方面也取得了較好的結(jié)果。

    表4 ImageNet數(shù)據(jù)集上典型輕量型卷積核設(shè)計方法的性能對比Tab.4 Performance comparison of typical lightweight convolution kernel design methods on ImageNet dataset

    2.4 知識蒸餾

    基于知識蒸餾的方法的核心思想是將大型教師網(wǎng)絡(luò)的知識遷移到小型網(wǎng)絡(luò)中,這一過程是通過學(xué)習(xí)大型網(wǎng)絡(luò)softmax 函數(shù)的類別分布輸出來完成的。Caruana等人[41]首次提出基于知識遷移(Knowledge Transfer)的深度神經(jīng)網(wǎng)絡(luò)壓縮方法。該方法主要研究內(nèi)置強分類器的集成模型,在輸入經(jīng)偽數(shù)據(jù)標(biāo)記的樣本后,經(jīng)過訓(xùn)練,重現(xiàn)了大型原始網(wǎng)絡(luò)的輸出。

    Hinton 等人[42]認(rèn)為訓(xùn)練集中采用one-hot 編碼的標(biāo)簽信息熵極低,而softmax分類器輸出的分類概率能夠體現(xiàn)出模型對不同類別的置信度,同一個輸入關(guān)于不同類別的置信度恰恰定義了數(shù)據(jù)層面豐富的相似結(jié)構(gòu),這些信息對網(wǎng)絡(luò)來說有著極高的學(xué)習(xí)價值。因此,他們提出了完整的知識蒸餾(Knowledge Distillation)思想,如圖4 所示,通過教師-學(xué)生模式,將教師網(wǎng)絡(luò)softmax分類器輸出的軟知識蒸餾出來,輔以硬知識,即真實標(biāo)簽,同時作為訓(xùn)練學(xué)生網(wǎng)絡(luò)的知識,在提升訓(xùn)練效果的同時實現(xiàn)了對原網(wǎng)絡(luò)的壓縮。Romero 等人[43]的工作基于知識蒸餾的思想,提出將通道數(shù)多而層級較淺的大型網(wǎng)絡(luò)壓縮為通道數(shù)少而層級更深的學(xué)生網(wǎng)絡(luò),并將該網(wǎng)絡(luò)稱作FitNets。該方法先確定雙方網(wǎng)絡(luò)相匹配的中間層級,然后將教師網(wǎng)絡(luò)中部的特征圖作為學(xué)生網(wǎng)絡(luò)對應(yīng)位置的近似目標(biāo),這在softmax輸出的基礎(chǔ)上進一步豐富了學(xué)生網(wǎng)絡(luò)的先驗知識。Zagoruyko 等[44]提出了注意力遷移方法(Attention Transfer),放寬了FitNets 方法所提的假設(shè)。該方法所遷移的注意力圖(attention map)是激活后的多通道特征圖的總和。

    知識蒸餾領(lǐng)域還有一些延伸性研究。Goodfellow 等人[45]通過將知識從舊網(wǎng)絡(luò)即時傳輸?shù)叫碌母罨蚋鼜V的網(wǎng)絡(luò),加速了實驗進程。Korattikara 等人[46]中的方法基于在線學(xué)習(xí)的思想,以近似蒙特卡洛教師模型為目標(biāo),對學(xué)生模型進行參數(shù)化訓(xùn)練。Zhu 等人[47]用高階隱層中的神經(jīng)節(jié)點作為先驗知識,這類神經(jīng)節(jié)點具有與標(biāo)簽概率相當(dāng)?shù)男畔⒘?,但是更加的緊湊。采用“自學(xué)”思想的知識蒸餾方法近期也廣受關(guān)注。Zhang 等人[48]提出一種通用的自體蒸餾訓(xùn)練框架。不同于傳統(tǒng)蒸餾方法中,使學(xué)生網(wǎng)絡(luò)輸出逼近教師網(wǎng)絡(luò)softmax輸出的思想,自體蒸餾不借助外部網(wǎng)絡(luò),而是將網(wǎng)絡(luò)本身切分,以深層網(wǎng)絡(luò)的知識來指導(dǎo)淺層網(wǎng)絡(luò)。工業(yè)應(yīng)用中,知識蒸餾的訓(xùn)練可能會受到訓(xùn)練數(shù)據(jù)匱乏以及教師網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)未知的影響,蒸餾效果會大打折扣。為解決此問題,Chen[49]等人結(jié)合生成對抗網(wǎng)絡(luò)思想,提出了一種不依賴于訓(xùn)練數(shù)據(jù)的蒸餾方法,該框架中將預(yù)訓(xùn)練的教師網(wǎng)絡(luò)作為判別器,只訓(xùn)練生成器,最終得到與教師網(wǎng)絡(luò)兼容性高的生成數(shù)據(jù),將其作為蒸餾過程中學(xué)生網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù),從而彌補未知的教師網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)對壓縮效果造成的影響,提升了知識蒸餾在實際場景中的實用性。

    表5列出了上述所提主流知識蒸餾方法的性能對比結(jié)果,教師-學(xué)生模型統(tǒng)一采用ResNet-152 與ResNet-18,數(shù)據(jù)集采用CIFAR100。

    表5 CIFAR100數(shù)據(jù)集上典型知識蒸餾方法的性能對比Tab.5 Performance comparison of typical knowledge distillation methods on CIFAR100 dataset

    3 數(shù)據(jù)集與性能評估準(zhǔn)則

    3.1 性能評估準(zhǔn)則

    大多數(shù)研究都是采用每輪(epoch)訓(xùn)練的平均訓(xùn)練時間來衡量運行時間。對于不同的訓(xùn)練集,一般都采用Top-1 正確率和Top-5 正確率兩種分類精度,其中Top-1 正確率指概率最大的預(yù)測結(jié)果對應(yīng)正確標(biāo)簽的概率,Top-5正確率指概率最大的5個預(yù)測結(jié)果中包含正確標(biāo)簽的概率。

    常用的衡量模型壓縮和加速性能的標(biāo)準(zhǔn)有壓縮率、空間節(jié)省率和加速率。假設(shè)a是原始模型M中的參數(shù)個數(shù),a*是壓縮模型M*的參數(shù)個數(shù),則M*相較于M的壓縮率α(M,M*)為:

    同時可以得到空間節(jié)省率,如下所示:

    相似地,給定模型M和M*各自的推理時間s及s*,由此可計算加速率δ(M,M*)如下所示:

    一般來說,模型的壓縮率和加速率是高度相關(guān)的,因為隨著參數(shù)量的減少,較小的模型往往在訓(xùn)練和測試階段的計算速度更快。優(yōu)秀的模型壓縮與加速方法普遍具有以下特點:分類精度與原始模型相近,模型參數(shù)量減少和計算量的大幅降低。因此在方法研究過程中應(yīng)統(tǒng)一考慮模型的精度和壓縮率(或加速率)。

    3.2 常用的基準(zhǔn)數(shù)據(jù)集

    (1)ImageNet數(shù)據(jù)集

    ImageNet 是一個用于視覺對象識別算法研究的大型可視化數(shù)據(jù)集,包含1400萬張經(jīng)過手動標(biāo)注的圖像。所有圖像共分為2萬多個類別。該數(shù)據(jù)集的結(jié)構(gòu)如同網(wǎng)絡(luò),網(wǎng)絡(luò)內(nèi)部節(jié)點繁多,每個節(jié)點相當(dāng)于一個子目錄,內(nèi)含數(shù)百個對應(yīng)類別物體的訓(xùn)練圖像。

    (2)CIFAR-10與CIFAR-100數(shù)據(jù)集

    CIFAR-10 和CIFAR-100 是常用的小型數(shù)據(jù)集。CIFAR-10 數(shù)據(jù)集中含有總計60000 張彩色圖像,分屬于10 個不同類別,每張圖像分辨率為32×32。數(shù)據(jù)集預(yù)先劃分為訓(xùn)練集和測試集,其中訓(xùn)練集內(nèi)含50000 張圖像,測試集內(nèi)含10000 張圖像。CIFAR-100數(shù)據(jù)集與CIFAR-10一樣,只是它有100個類,每個類包含600個圖像。

    4 總結(jié)和展望

    本文首先概述了深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)的研究背景;接著介紹了深度神經(jīng)網(wǎng)絡(luò)模型壓縮及加速的四類主要方法,包括參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計以及知識蒸餾;之后介紹分析了模型壓縮與加速領(lǐng)域常用的數(shù)據(jù)集與性能評估準(zhǔn)則;接下來對各類方法進行優(yōu)劣分析。

    4.1 方法優(yōu)劣分析

    (1)參數(shù)量化:基于參數(shù)量化的壓縮方法在一定程度上縮減了模型大小,使得模型能夠在計算資源與存儲空間受限的移動端和嵌入式設(shè)備上高效運行。但量化后的權(quán)重和激活降低了網(wǎng)絡(luò)的容量和特征圖的質(zhì)量,往往使得模型的表達能力大打折扣,另外,量化會向梯度信息中引入噪聲,導(dǎo)致基于梯度下降法的訓(xùn)練過程收斂難度增加。這些缺陷會造成量化后網(wǎng)絡(luò)的精度低于原始網(wǎng)絡(luò),二值化網(wǎng)絡(luò)中精度損失更加嚴(yán)重。因此基于網(wǎng)絡(luò)量化的壓縮方法具有一定局限性,但量化具有較好的兼容性,在實際應(yīng)用中常與其他壓縮方法相結(jié)合。

    (2)模型剪枝:基于模型剪枝的壓縮方法具有直觀的物理意義,在實際應(yīng)用中也展現(xiàn)出理想的壓縮性能,但該方法也存在一定缺陷。首先,相比于其他壓縮方法,基于L1 或L2 正則化的剪枝收斂較慢,需要更多次數(shù)的迭代訓(xùn)練。其次,剪枝相當(dāng)于優(yōu)化網(wǎng)絡(luò)的整體結(jié)構(gòu),對具有不同結(jié)構(gòu)特點的網(wǎng)絡(luò)模型往往不能采用完全相同的剪枝策略。對于不同類型網(wǎng)絡(luò)在不同訓(xùn)練數(shù)據(jù)集下的剪枝方法還不能完全統(tǒng)一。此外,人工設(shè)計的剪枝方法需要根據(jù)不同層級的敏感度,手動調(diào)節(jié)剪枝閾值,重復(fù)微調(diào)參數(shù),實現(xiàn)過程繁瑣。而自動化剪枝能夠綜合評估多種剪枝方案,自動搜索最優(yōu)結(jié)構(gòu),確定復(fù)雜的超參數(shù),但對于大型網(wǎng)絡(luò)來說,搜索空間過于龐大,對算力要求極高,耗時較長。

    (3)輕量型卷積核設(shè)計:基于輕量型卷積核設(shè)計的壓縮方法對原始卷積核進行緊湊設(shè)計或直接采用運算量遠小于標(biāo)準(zhǔn)卷積的新式卷積計算方式,能夠有效降低參數(shù)量,大幅減少浮點運算次數(shù)。但囿于輕量型卷積核設(shè)計的獨特性,壓縮后的模型十分緊湊,較難在其中綜合應(yīng)用其他壓縮技術(shù)來進一步提升效果。另外,相比于大而深的原始模型,基于輕量型卷積核設(shè)計的網(wǎng)絡(luò)模型由于容量受限,訓(xùn)練得到的特征泛化能力稍弱。

    (4)知識蒸餾:基于知識蒸餾的壓縮方法相當(dāng)于用一個神經(jīng)網(wǎng)絡(luò)訓(xùn)練另一個神經(jīng)網(wǎng)絡(luò),將大型復(fù)雜網(wǎng)絡(luò)的知識遷移至小型簡易網(wǎng)絡(luò)中,利用小型網(wǎng)絡(luò)來實現(xiàn)擁有與大型網(wǎng)絡(luò)相同優(yōu)越的性能和良好的泛化能力,并且顯著降低了所需存儲空間和計算資源。知識蒸餾的缺陷之一是只能應(yīng)用于具有softmax 分類器及交叉熵?fù)p失函數(shù)的分類任務(wù),應(yīng)用場景較為局限。另一個缺點是與其他類型的方法相比,基于知識蒸餾的壓縮方法在大型數(shù)據(jù)集的表現(xiàn)略差。

    4.2 未來發(fā)展趨勢

    綜合以上對近期研究成果的分析可以得知,深度神經(jīng)網(wǎng)絡(luò)壓縮與加速的研究仍然具有巨大的潛力和研究空間,未來的研究工作不僅需要進一步提高模型壓縮效率與推理速度,并且應(yīng)打破學(xué)術(shù)界與工業(yè)界之間的壁壘。以下介紹模型壓縮與加速領(lǐng)域需要進一步探索和開發(fā)的方向。

    (1)與硬件緊密結(jié)合。針對卷積神經(jīng)網(wǎng)絡(luò)在不同硬件平臺上的使用,提出一些與硬件緊密結(jié)合的壓縮方法就是未來方向之一。具體包括基于硬件的自動量化以及將硬件加速器的反饋信息引入算法設(shè)計環(huán)中。與硬件密切結(jié)合的模型壓縮方法可以使CNN 具有更強的硬件平臺適應(yīng)性,以應(yīng)對端設(shè)備部署帶來的挑戰(zhàn)。

    (2)對于知識蒸餾,需要探索更多類型的先驗知識。在當(dāng)前的教師-學(xué)生模式下,主要采用將softmax分類器的輸出和網(wǎng)絡(luò)中間層的特征圖作為蒸餾知識的方法。然而,將softmax分類器輸出作為軟知識的方法容易使得知識蒸餾的應(yīng)用場景局限在分類任務(wù)上,缺少任務(wù)多樣化。因此,網(wǎng)絡(luò)中的其他信息,例如神經(jīng)元傳遞過程中的選擇性知識值得研究者們的大膽嘗試,這種基于重要神經(jīng)元選擇的蒸餾框架可應(yīng)用于大多數(shù)計算機視覺任務(wù)中,因為先驗知識的多樣化不僅可能提高知識蒸餾的效果,而且有助于拓寬知識蒸餾的應(yīng)用范圍。

    (3)探索在更多任務(wù)場景下的應(yīng)用。除了圖像分類任務(wù)外,人們還在其他任務(wù)中對深度學(xué)習(xí)模型進行壓縮[54],包括一些關(guān)于深層自然語言模型(如BERT 模型)的研究[55-56]。在未來的研究工作中,我們希望將模型壓縮與加速技術(shù)應(yīng)用到其他領(lǐng)域的深度神經(jīng)網(wǎng)絡(luò)中,例如,基于深度學(xué)習(xí)的圖像及視頻處理[57-58],視覺、語言跨模態(tài)結(jié)合任務(wù)[59]以及對生成式對抗網(wǎng)絡(luò)(GAN)[60-61]的優(yōu)化。

    猜你喜歡
    剪枝濾波卷積
    人到晚年宜“剪枝”
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    基于YOLOv4-Tiny模型剪枝算法
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    剪枝
    天津詩人(2017年2期)2017-03-16 03:09:39
    RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
    基于線性正則變換的 LMS 自適應(yīng)濾波
    遙測遙控(2015年2期)2015-04-23 08:15:18
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
    一種面向不平衡數(shù)據(jù)分類的組合剪枝方法
    計算機工程(2014年6期)2014-02-28 01:26:33
    巨乳人妻的诱惑在线观看| videos熟女内射| 久久国产精品影院| 一进一出抽搐gif免费好疼 | 国产1区2区3区精品| 激情在线观看视频在线高清 | 日韩大码丰满熟妇| 久久精品91无色码中文字幕| 久久九九热精品免费| 一级作爱视频免费观看| 亚洲欧美激情综合另类| 久久久久久亚洲精品国产蜜桃av| 人妻久久中文字幕网| 首页视频小说图片口味搜索| 国产片内射在线| 成人18禁在线播放| 丰满人妻熟妇乱又伦精品不卡| 法律面前人人平等表现在哪些方面| 男女高潮啪啪啪动态图| 丰满迷人的少妇在线观看| 久久ye,这里只有精品| 校园春色视频在线观看| 成人18禁在线播放| 高潮久久久久久久久久久不卡| 啦啦啦视频在线资源免费观看| 在线国产一区二区在线| netflix在线观看网站| 日韩免费高清中文字幕av| 97人妻天天添夜夜摸| 老熟妇仑乱视频hdxx| 欧美激情 高清一区二区三区| cao死你这个sao货| 人妻久久中文字幕网| 国产在视频线精品| 一边摸一边做爽爽视频免费| 亚洲国产欧美日韩在线播放| 免费在线观看亚洲国产| 亚洲人成77777在线视频| 俄罗斯特黄特色一大片| 午夜福利在线免费观看网站| 中亚洲国语对白在线视频| 亚洲av美国av| 精品乱码久久久久久99久播| 久久精品aⅴ一区二区三区四区| 99国产极品粉嫩在线观看| 精品国产亚洲在线| 每晚都被弄得嗷嗷叫到高潮| av线在线观看网站| 国产高清视频在线播放一区| 亚洲 国产 在线| 十八禁高潮呻吟视频| 精品人妻1区二区| 亚洲国产精品合色在线| 在线十欧美十亚洲十日本专区| 久热爱精品视频在线9| 一本大道久久a久久精品| 老司机深夜福利视频在线观看| 亚洲精品一卡2卡三卡4卡5卡| 女人高潮潮喷娇喘18禁视频| 亚洲性夜色夜夜综合| 国产国语露脸激情在线看| 两人在一起打扑克的视频| 最新的欧美精品一区二区| 亚洲熟妇中文字幕五十中出 | 亚洲精品成人av观看孕妇| 午夜精品国产一区二区电影| 侵犯人妻中文字幕一二三四区| 建设人人有责人人尽责人人享有的| 日本黄色视频三级网站网址 | 久久午夜亚洲精品久久| 青草久久国产| 欧美国产精品一级二级三级| 国产精品98久久久久久宅男小说| 成年动漫av网址| 天天添夜夜摸| 亚洲免费av在线视频| 精品卡一卡二卡四卡免费| 大型黄色视频在线免费观看| 香蕉丝袜av| 在线av久久热| 女性被躁到高潮视频| 亚洲第一av免费看| av超薄肉色丝袜交足视频| 欧洲精品卡2卡3卡4卡5卡区| 9热在线视频观看99| 国产又色又爽无遮挡免费看| a在线观看视频网站| 黑人猛操日本美女一级片| 午夜激情av网站| 久久精品熟女亚洲av麻豆精品| 一夜夜www| 精品久久蜜臀av无| 亚洲欧美精品综合一区二区三区| 亚洲第一青青草原| 在线观看免费午夜福利视频| 亚洲av片天天在线观看| av线在线观看网站| 高清黄色对白视频在线免费看| 欧美另类亚洲清纯唯美| 久久久精品区二区三区| 五月开心婷婷网| 国产极品粉嫩免费观看在线| 无限看片的www在线观看| 亚洲欧美色中文字幕在线| 精品免费久久久久久久清纯 | 一本一本久久a久久精品综合妖精| 高清毛片免费观看视频网站 | 看片在线看免费视频| 12—13女人毛片做爰片一| 国产午夜精品久久久久久| 99精品久久久久人妻精品| 精品一区二区三区av网在线观看| 飞空精品影院首页| 五月开心婷婷网| 99热国产这里只有精品6| 欧美最黄视频在线播放免费 | 午夜福利欧美成人| 大香蕉久久成人网| 国产激情欧美一区二区| 老熟女久久久| 国产亚洲精品久久久久5区| 很黄的视频免费| 啦啦啦在线免费观看视频4| 国产成人欧美| 国产午夜精品久久久久久| 69精品国产乱码久久久| 9191精品国产免费久久| 丝瓜视频免费看黄片| 90打野战视频偷拍视频| 女人精品久久久久毛片| 欧美乱色亚洲激情| 国产不卡一卡二| 久久中文字幕一级| 久久久久久亚洲精品国产蜜桃av| 两性午夜刺激爽爽歪歪视频在线观看 | 两性夫妻黄色片| 国产高清videossex| 国产精品1区2区在线观看. | 国产精品一区二区在线不卡| 91字幕亚洲| 国内毛片毛片毛片毛片毛片| 丰满人妻熟妇乱又伦精品不卡| 中文亚洲av片在线观看爽 | 啦啦啦视频在线资源免费观看| 黑人巨大精品欧美一区二区蜜桃| 亚洲一码二码三码区别大吗| 欧美大码av| 亚洲精品中文字幕在线视频| 极品教师在线免费播放| 777米奇影视久久| 成年版毛片免费区| 99国产精品免费福利视频| 成人黄色视频免费在线看| 91精品国产国语对白视频| 日本五十路高清| 精品免费久久久久久久清纯 | 久久香蕉国产精品| 亚洲第一欧美日韩一区二区三区| 国产亚洲一区二区精品| 18禁裸乳无遮挡免费网站照片 | 国产成+人综合+亚洲专区| 午夜视频精品福利| 日本a在线网址| 人妻久久中文字幕网| 一边摸一边抽搐一进一出视频| 国产又色又爽无遮挡免费看| 国产熟女午夜一区二区三区| 中文字幕精品免费在线观看视频| 久久精品国产清高在天天线| 久99久视频精品免费| 香蕉久久夜色| 亚洲精品久久成人aⅴ小说| av超薄肉色丝袜交足视频| 国产人伦9x9x在线观看| 欧美不卡视频在线免费观看 | 日本五十路高清| 大型av网站在线播放| 国产aⅴ精品一区二区三区波| 一进一出抽搐gif免费好疼 | 大码成人一级视频| 午夜视频精品福利| cao死你这个sao货| 久久青草综合色| av中文乱码字幕在线| 99re6热这里在线精品视频| 色婷婷av一区二区三区视频| 日韩中文字幕欧美一区二区| 国产男女超爽视频在线观看| 正在播放国产对白刺激| 99久久人妻综合| 精品福利永久在线观看| 看黄色毛片网站| 国产一区在线观看成人免费| 欧美日韩视频精品一区| a级毛片黄视频| 一本一本久久a久久精品综合妖精| 精品一区二区三区四区五区乱码| 国产亚洲av高清不卡| 欧美日韩中文字幕国产精品一区二区三区 | 日韩 欧美 亚洲 中文字幕| a在线观看视频网站| 午夜日韩欧美国产| 99热只有精品国产| 午夜老司机福利片| 在线国产一区二区在线| 精品国产超薄肉色丝袜足j| 12—13女人毛片做爰片一| 国产一区二区三区综合在线观看| 久久香蕉激情| 亚洲国产欧美网| 欧美av亚洲av综合av国产av| 一级,二级,三级黄色视频| 黑人猛操日本美女一级片| 一级a爱视频在线免费观看| 日韩欧美一区视频在线观看| 男女之事视频高清在线观看| 成人三级做爰电影| 手机成人av网站| 国产不卡一卡二| 亚洲人成电影观看| 丰满迷人的少妇在线观看| 成人特级黄色片久久久久久久| 国产欧美日韩精品亚洲av| 黄色片一级片一级黄色片| 亚洲自偷自拍图片 自拍| 国产xxxxx性猛交| 母亲3免费完整高清在线观看| 欧美另类亚洲清纯唯美| 免费在线观看视频国产中文字幕亚洲| 午夜影院日韩av| 精品国产一区二区三区久久久樱花| 两人在一起打扑克的视频| 男男h啪啪无遮挡| 一进一出抽搐gif免费好疼 | 69av精品久久久久久| 色婷婷av一区二区三区视频| 免费观看精品视频网站| 午夜激情av网站| 亚洲精品在线观看二区| 国产主播在线观看一区二区| 亚洲九九香蕉| 久久久久国产一级毛片高清牌| 欧美日韩国产mv在线观看视频| 悠悠久久av| 高清视频免费观看一区二区| 在线观看免费日韩欧美大片| 国产男女内射视频| 一级a爱视频在线免费观看| 亚洲国产看品久久| cao死你这个sao货| 高清av免费在线| 久久精品亚洲精品国产色婷小说| 久久久国产欧美日韩av| 国产精品一区二区在线观看99| 亚洲精品国产色婷婷电影| 免费看a级黄色片| 如日韩欧美国产精品一区二区三区| 久久精品亚洲熟妇少妇任你| 五月开心婷婷网| 久久午夜综合久久蜜桃| 80岁老熟妇乱子伦牲交| 欧美另类亚洲清纯唯美| 搡老岳熟女国产| 视频区图区小说| 亚洲熟女毛片儿| 日本a在线网址| 真人做人爱边吃奶动态| www.999成人在线观看| 欧美另类亚洲清纯唯美| tube8黄色片| 日本一区二区免费在线视频| 又紧又爽又黄一区二区| 99热只有精品国产| 香蕉丝袜av| 精品一区二区三区四区五区乱码| 少妇 在线观看| 天堂中文最新版在线下载| 亚洲avbb在线观看| 亚洲一卡2卡3卡4卡5卡精品中文| 久久人妻熟女aⅴ| 国产欧美日韩精品亚洲av| 欧美老熟妇乱子伦牲交| 午夜影院日韩av| 国产99白浆流出| 亚洲欧美日韩另类电影网站| 免费看十八禁软件| 少妇 在线观看| 久久精品亚洲精品国产色婷小说| 91老司机精品| 日本vs欧美在线观看视频| 久久天堂一区二区三区四区| 美女高潮喷水抽搐中文字幕| 热99久久久久精品小说推荐| 色在线成人网| 亚洲国产精品sss在线观看 | 精品国产美女av久久久久小说| 免费在线观看完整版高清| 久久婷婷成人综合色麻豆| 国产深夜福利视频在线观看| av欧美777| 亚洲国产看品久久| 无遮挡黄片免费观看| 亚洲国产毛片av蜜桃av| 精品国产美女av久久久久小说| 99在线人妻在线中文字幕 | 操出白浆在线播放| 国产精品亚洲av一区麻豆| svipshipincom国产片| 露出奶头的视频| 午夜影院日韩av| 免费黄频网站在线观看国产| av视频免费观看在线观看| 日韩三级视频一区二区三区| 五月开心婷婷网| 在线看a的网站| 精品国产一区二区久久| 三级毛片av免费| 国产精品欧美亚洲77777| 香蕉久久夜色| 中文字幕制服av| 日韩精品免费视频一区二区三区| 亚洲精品在线观看二区| 亚洲va日本ⅴa欧美va伊人久久| 一区二区三区国产精品乱码| 亚洲va日本ⅴa欧美va伊人久久| 黑人巨大精品欧美一区二区mp4| 国产又色又爽无遮挡免费看| 亚洲av日韩精品久久久久久密| 一夜夜www| 久久这里只有精品19| 高清在线国产一区| 女人爽到高潮嗷嗷叫在线视频| 一区二区三区激情视频| 国产精品国产av在线观看| 一级,二级,三级黄色视频| 欧美中文综合在线视频| 757午夜福利合集在线观看| 天天躁狠狠躁夜夜躁狠狠躁| 国产一区二区三区综合在线观看| 一级作爱视频免费观看| 窝窝影院91人妻| 免费在线观看影片大全网站| 99re在线观看精品视频| 最近最新中文字幕大全免费视频| 亚洲一区高清亚洲精品| av不卡在线播放| av天堂在线播放| 精品国产乱码久久久久久男人| 人人妻人人澡人人看| 国产高清videossex| 欧美乱色亚洲激情| 日韩免费av在线播放| 欧美 日韩 精品 国产| 天堂√8在线中文| 在线看a的网站| 国产国语露脸激情在线看| 777米奇影视久久| 亚洲欧美一区二区三区久久| 岛国在线观看网站| 国产亚洲精品第一综合不卡| 精品乱码久久久久久99久播| 母亲3免费完整高清在线观看| 亚洲一区二区三区欧美精品| 国产麻豆69| 国产精品一区二区免费欧美| 下体分泌物呈黄色| av天堂在线播放| 一二三四社区在线视频社区8| 丝袜人妻中文字幕| 久久久国产一区二区| 一边摸一边做爽爽视频免费| 高清欧美精品videossex| 欧美日韩精品网址| avwww免费| a级毛片在线看网站| 91老司机精品| 女同久久另类99精品国产91| 男女午夜视频在线观看| 在线天堂中文资源库| 在线观看午夜福利视频| 天天躁狠狠躁夜夜躁狠狠躁| 中文字幕另类日韩欧美亚洲嫩草| 在线播放国产精品三级| 亚洲精品国产区一区二| 免费女性裸体啪啪无遮挡网站| 大码成人一级视频| 亚洲色图av天堂| 亚洲男人天堂网一区| 欧美黄色淫秽网站| 国产免费男女视频| 国产又色又爽无遮挡免费看| 99香蕉大伊视频| 丝袜美足系列| 一a级毛片在线观看| 99久久国产精品久久久| 午夜福利影视在线免费观看| 日韩精品免费视频一区二区三区| 免费看十八禁软件| 久久精品亚洲精品国产色婷小说| 亚洲视频免费观看视频| 精品一区二区三区四区五区乱码| 亚洲专区字幕在线| 国产av一区二区精品久久| 夜夜夜夜夜久久久久| 一边摸一边抽搐一进一出视频| 国产一区在线观看成人免费| 别揉我奶头~嗯~啊~动态视频| 欧美乱码精品一区二区三区| 一本一本久久a久久精品综合妖精| 亚洲欧美激情综合另类| 精品久久久精品久久久| 亚洲男人天堂网一区| 日本撒尿小便嘘嘘汇集6| 下体分泌物呈黄色| 精品国产一区二区三区久久久樱花| xxx96com| 亚洲伊人色综图| 亚洲中文av在线| 91大片在线观看| 国产精品综合久久久久久久免费 | 欧美日韩福利视频一区二区| 在线观看舔阴道视频| 精品久久久久久,| 亚洲精华国产精华精| 精品卡一卡二卡四卡免费| 午夜福利乱码中文字幕| 国产成人影院久久av| 一本大道久久a久久精品| 另类亚洲欧美激情| 十分钟在线观看高清视频www| 国产精品免费视频内射| 美女高潮到喷水免费观看| 欧美精品av麻豆av| 成人av一区二区三区在线看| 亚洲性夜色夜夜综合| 亚洲 欧美一区二区三区| 国产在线观看jvid| 90打野战视频偷拍视频| 黑人猛操日本美女一级片| 欧美日韩精品网址| 日韩欧美一区视频在线观看| 视频在线观看一区二区三区| 久久午夜综合久久蜜桃| 少妇 在线观看| 成人免费观看视频高清| 视频区图区小说| 亚洲午夜理论影院| 热99久久久久精品小说推荐| 亚洲人成电影观看| 国产在线精品亚洲第一网站| 日韩欧美国产一区二区入口| 悠悠久久av| 自线自在国产av| 黄频高清免费视频| 免费久久久久久久精品成人欧美视频| 欧美不卡视频在线免费观看 | 久久精品亚洲精品国产色婷小说| 亚洲成人免费av在线播放| 亚洲aⅴ乱码一区二区在线播放 | 又黄又粗又硬又大视频| 国产淫语在线视频| 欧美日韩成人在线一区二区| 狂野欧美激情性xxxx| 精品福利观看| 热99久久久久精品小说推荐| 欧美人与性动交α欧美精品济南到| 天天躁日日躁夜夜躁夜夜| 村上凉子中文字幕在线| 亚洲九九香蕉| 成年女人毛片免费观看观看9 | 久久久久久久久免费视频了| 嫩草影视91久久| 免费高清在线观看日韩| 夜夜夜夜夜久久久久| 欧美性长视频在线观看| 亚洲熟妇中文字幕五十中出 | 亚洲国产毛片av蜜桃av| 麻豆国产av国片精品| 91大片在线观看| 老汉色∧v一级毛片| 国产一卡二卡三卡精品| 一级片免费观看大全| 久久人人爽av亚洲精品天堂| 三上悠亚av全集在线观看| 日韩欧美三级三区| 亚洲一码二码三码区别大吗| 高清在线国产一区| 中文字幕制服av| 香蕉丝袜av| 搡老乐熟女国产| 日韩中文字幕欧美一区二区| 欧美激情 高清一区二区三区| 亚洲一卡2卡3卡4卡5卡精品中文| 9热在线视频观看99| a级片在线免费高清观看视频| 麻豆av在线久日| 成人18禁在线播放| 丰满的人妻完整版| 久99久视频精品免费| 午夜激情av网站| 亚洲熟妇熟女久久| 精品国产一区二区久久| 精品国产亚洲在线| 黄色视频不卡| 久久久久久亚洲精品国产蜜桃av| 不卡av一区二区三区| 久热这里只有精品99| 欧美色视频一区免费| 日日夜夜操网爽| 久久久久久久国产电影| 欧美日韩亚洲综合一区二区三区_| 国产精品欧美亚洲77777| 天天影视国产精品| 色婷婷av一区二区三区视频| 不卡一级毛片| 91麻豆精品激情在线观看国产 | 欧美午夜高清在线| 国产精品成人在线| 国产精品国产高清国产av | 精品熟女少妇八av免费久了| 女人爽到高潮嗷嗷叫在线视频| 在线观看免费视频网站a站| 99久久精品国产亚洲精品| 亚洲色图av天堂| av有码第一页| 国产高清国产精品国产三级| 欧美 日韩 精品 国产| 欧美激情高清一区二区三区| 亚洲情色 制服丝袜| 国产深夜福利视频在线观看| 亚洲av欧美aⅴ国产| 好看av亚洲va欧美ⅴa在| 91麻豆精品激情在线观看国产 | 美女午夜性视频免费| 中亚洲国语对白在线视频| 夜夜躁狠狠躁天天躁| 国产亚洲精品第一综合不卡| 99热国产这里只有精品6| 亚洲国产精品合色在线| 午夜福利,免费看| 老司机福利观看| 少妇粗大呻吟视频| 成年人黄色毛片网站| 中文字幕精品免费在线观看视频| 巨乳人妻的诱惑在线观看| 国产欧美日韩一区二区精品| 免费日韩欧美在线观看| www.999成人在线观看| 国产人伦9x9x在线观看| 国产精品综合久久久久久久免费 | 亚洲美女黄片视频| 1024视频免费在线观看| 女人爽到高潮嗷嗷叫在线视频| 一区二区日韩欧美中文字幕| 亚洲熟女精品中文字幕| 国产亚洲av高清不卡| 欧美日韩中文字幕国产精品一区二区三区 | 精品国产超薄肉色丝袜足j| 露出奶头的视频| 91精品国产国语对白视频| 久久狼人影院| 久久这里只有精品19| 韩国精品一区二区三区| 人成视频在线观看免费观看| 91大片在线观看| 国产精品免费一区二区三区在线 | 一进一出抽搐动态| 欧美 日韩 精品 国产| 中文字幕另类日韩欧美亚洲嫩草| 色尼玛亚洲综合影院| 嫩草影视91久久| 热99re8久久精品国产| 一级黄色大片毛片| 女人久久www免费人成看片| 久久人妻av系列| 一级a爱片免费观看的视频| 亚洲免费av在线视频| 国产一区二区三区视频了| 大陆偷拍与自拍| 黄色毛片三级朝国网站| 国产不卡av网站在线观看| 午夜老司机福利片| 嫩草影视91久久| 在线观看免费日韩欧美大片| 一边摸一边做爽爽视频免费| 午夜亚洲福利在线播放| 两个人看的免费小视频| 久久中文看片网| 国产精品免费大片| 国产高清激情床上av| 女人精品久久久久毛片| av中文乱码字幕在线| 丝袜人妻中文字幕| www日本在线高清视频| 狠狠婷婷综合久久久久久88av| 人妻丰满熟妇av一区二区三区 | 亚洲伊人色综图| 色婷婷av一区二区三区视频| 国产亚洲精品久久久久久毛片 | 亚洲情色 制服丝袜| 国产xxxxx性猛交| 高清av免费在线| 亚洲少妇的诱惑av| 两人在一起打扑克的视频| 精品国产亚洲在线| 高清毛片免费观看视频网站 | 高清毛片免费观看视频网站 | 免费看十八禁软件| 亚洲一区二区三区不卡视频| 亚洲九九香蕉| 丁香六月欧美| 少妇被粗大的猛进出69影院| 国内久久婷婷六月综合欲色啪| 女人高潮潮喷娇喘18禁视频| 两性夫妻黄色片|