• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度學習的對抗攻擊方法綜述

    2019-03-18 01:13:54張嘉楠王逸翔劉博常曉林
    網(wǎng)絡空間安全 2019年7期
    關鍵詞:安全威脅深度學習

    張嘉楠 王逸翔 劉博 常曉林

    摘 ? 要:隨著大數(shù)據(jù)時代的到來,深度學習已經(jīng)成為當前計算機領域研究和應用最廣泛的技術之一,成功應用于數(shù)據(jù)挖掘、計算機視覺、自然語言處理等領域。雖然深度學習已經(jīng)在解決復雜問題方面取得了的成功,但是研究表明,其容易受到對抗樣本的攻擊,導致模型產(chǎn)生不正確的輸出,進而影響到實際應用系統(tǒng)的可靠性和安全性。文章回顧了有關深度學習的對抗樣本的最新發(fā)現(xiàn),總結了生成對抗樣本的攻擊方法,最后給出了對抗攻擊的未來研究方向。

    關鍵詞:深度學習;對抗樣本;安全威脅;防御技術

    中圖分類號:TP309.2 ? ? ? ? ?文獻標識碼:A

    Abstract: With the arrival of big data, deep learning has become one of the most widely studied and used technologies in the field of computer, and has been widely applied in data mining, computer vision, natural language processing and other fields. Although deep learning makes great success in solving complex problems, recent studies have shown that it is vulnerable to adversarial examples, resulting in incorrect outputs of deep learning models and affecting the reliability and security of practical application systems based on deep learning eventually. In this article, we review the latest findings of adversarial examples on deep learning, summarize the algorithms to generate adversarial examples, and finally, look forward to the next step of adversarial attacks of deep learning.

    Key words: deep learning; adversarial examples; security threat; defense technology

    1 引言

    深度學習又迎來新的一波發(fā)展熱潮,推進人工智能向前邁進一大步,并在廣泛的應用中取得了卓越的進展,例如生物科學[1]、計算機視覺、語音識別[2]、自然語言理解[3]和惡意軟件檢測[4]等。

    2013年,Szegedy等人[5]首先通過添加輕微擾動來干擾輸入樣本,使基于深度神經(jīng)網(wǎng)絡(Deep Neural Network, DNN)的圖片識別系統(tǒng)輸出攻擊者想要的任意錯誤結果。研究人員稱,這類使模型錯誤的輸入樣本為對抗樣本(Adversarial Example),此過程稱對抗攻擊(Adversarial Attack)。研究人員表明,現(xiàn)代深度神經(jīng)網(wǎng)絡模型極易受到人類視覺系統(tǒng)幾乎無法察覺的微小擾動的對抗攻擊。這種攻擊可以造成神經(jīng)網(wǎng)絡分類器對原始圖像進行錯誤預測。更糟糕的是,受到攻擊的模型對輸出的錯誤預測結果表示高度信任,而且同樣的圖像擾動可以欺騙多個不同的分類器。研究表明,對抗樣本可以應用于現(xiàn)實世界。例如,敵手可以構建物理對抗樣本,并通過操縱交通標志識別系統(tǒng)中的停車標志或在物體識別系統(tǒng)中移除行人來欺騙自動駕駛車輛。隨著深度學習應用領域的不斷深入和擴大,深度學習暴露的安全性問題受到了更為廣泛的關注。

    2018年,N. Akhtar等人[6]對計算機視覺中使用深度學習所面臨的對抗攻擊進行了較為詳盡的研究。.本文以該綜述為藍圖,對后續(xù)的研究成果進行整理總結和補充,提出了新的依據(jù)白盒和黑盒環(huán)境劃分對抗樣本攻擊方法的分類方式,總結出了深度學習系統(tǒng)的安全威脅的現(xiàn)狀。早期的研究主要針對傳統(tǒng)機器學習(例如支持向量機、樸素貝葉斯等學習方法),但目前大量的安全威脅主要針對DNN模型。本文首先簡要地回顧了針對傳統(tǒng)機器學習的對抗攻擊,然后總結了針對深度學習的攻擊,根據(jù)敵手知識和對抗特異性,對對抗攻擊方法進行了細致的分類,分析總結了各種攻擊技術的研究思路和進展。已有文章證明,針對DNN模型生成的對抗樣本在傳統(tǒng)機器學習模型中仍然有效[7]。

    2 ?背景

    2.1 ?深度學習技術

    機器學習是一門多領域交叉學科,主要研究如何更好地讓計算機模擬和實現(xiàn)人類的學習行為,從而實現(xiàn)知識的自動獲取和產(chǎn)生。機器學習解決問題的過程分為訓練和預測兩個階段。

    深度學習是機器學習中一種基于對數(shù)據(jù)進行表征學習的方法,其動機在于建立、模擬人腦進行分析學習的神經(jīng)網(wǎng)絡,它模仿人腦的機制來解釋數(shù)據(jù)。

    深度神經(jīng)網(wǎng)絡(DNN)是典型的深度學習模型,其強表達能力使其在語音識別、面部識別和計算機視覺等領域取得了巨大的成功。卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)和循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network, RNN)在DNN基礎上擴展而來。

    深度學習解決某些復雜問題的能力已經(jīng)超出了人類水平,但研究表明,深度學習技術也面臨著多種安全性威脅。自Szegedy等人[5]首先通過對輸入樣本添加輕微擾動來欺騙DNN網(wǎng)絡以來,越來越多的研究發(fā)現(xiàn),除了DNN模型之外,生成的對抗樣本同樣能成功地攻擊強化學習模型、循環(huán)神經(jīng)網(wǎng)絡(RNN)模型等其他深度學習模型。

    2.2 ?術語定義

    本節(jié)描述了在面向深度學習系統(tǒng)的對抗攻擊相關文獻中使用的常用技術術語。

    (1)對抗性擾動:添加到原始樣本中使其成為對抗樣本的噪聲。

    (2)欺騙率:指一個經(jīng)過訓練的模型在受到干擾后改變其預測標簽的圖像百分比。

    (3)可遷移性:對抗樣本可以對生成模型以外的模型進行有效的攻擊。

    (4)普遍擾動:能夠高概率地在任意圖像上欺騙給定模型。

    (5)敵手知識(Adversarys Nnowledge):敵手更多的是指生成對抗樣本的代理人。在某些情況下,這個對抗樣本本身也被稱為敵手。敵手知識包括模型的訓練數(shù)據(jù)、特征集合、模型結構及參數(shù)、學習算法及決策函數(shù)、目標模型中可用的反饋信息等。根據(jù)敵手掌握機器學習模型信息的多少可將攻擊分為白盒攻擊和黑盒攻擊。

    1)白盒攻擊:攻擊者完全了解目標模型,包括模型的結構及參數(shù)值、特征集合、訓練方法,在某些情況下還包括其訓練數(shù)據(jù)。

    2)黑盒攻擊:攻擊者在不知道機器學習模型的內(nèi)部結構、訓練參數(shù)和算法的情況下,通過傳入輸入數(shù)據(jù)來觀察輸出、判斷輸出與模型進行交互。在一些情況下,假設敵手具有對模型的有限知識(例如其訓練過程或其架構),僅了解模型的一部分,但并不知道模型參數(shù)。

    (6)對抗特異性(Adversarial Specificity):按照攻擊的專一性及目的,可以將對抗樣本的攻擊分為針對目標攻擊和非針對目標攻擊。

    1)針對目標攻擊:攻擊者在構造對抗樣本時欺騙目標模型,將對抗樣本錯分到指定分類類別。針對目標攻擊通常發(fā)生在多類分類問題中。

    2)非針對目標攻擊:對抗樣本的預測標記是不相關的,只需讓目標模型將其錯誤分類,即除了原始類別,對抗類輸出可以是任意的。

    (7)擾動測量(Perturbation Measurement):優(yōu)化擾動是指將擾動設置為優(yōu)化問題,旨在最小化擾動,使得人類無法識別擾動。

    1)通過-norm距離估計對抗樣本與原樣本的差距。的定義如下所示:

    計算樣本中更改的像素數(shù),而不是擾動量。

    距離越小,表明對抗樣本與原樣本的差距越小,對抗樣本中擾動越不易察覺。

    2)PASS(Psychometric Perceptual Adversarial Similarity Score)值是Hot/Cold方法[8]定義的一個新的度量標準,用來衡量攻擊前后樣本的差異。

    (8)攻擊頻率(Attack Frequency):按照算法是否需要迭代地求解對抗樣本,可將攻擊算法分為單步攻擊和迭代攻擊。

    1)單步攻擊只需一次即可生成對抗樣本。

    2)迭代攻擊通過迭代生成對抗擾動。與單步攻擊相比,迭代攻擊通常能生成更好的對抗樣本,但需要與目標分類器進行更多交互(更多查詢),需要更多的計算時間。

    3 ?對抗攻擊

    對抗樣本最早由Szegedy等人[5]提出,在數(shù)據(jù)集中通過添加輕微擾動來干擾輸入樣本,導致模型以高置信度給出一個錯誤的輸出。模型在這個輸入點的輸出與附近的數(shù)據(jù)點不同。在許多情況下,與非常近似,人類不會察覺原始樣本和對抗樣本之間的差異,但是網(wǎng)絡會做出非常不同的預測。

    3.1 ?傳統(tǒng)機器學習中的對抗樣本

    早期的研究主要針對傳統(tǒng)機器學習模型中的對抗樣本,例如垃圾郵件過濾器、入侵檢測、生物識別身份驗證和欺詐檢測[9],垃圾郵件通常通過添加字符以避免檢測[10~12]。

    Dalvi等人[10]首先討論了對抗樣本,指出對抗樣本的攻擊和防御是攻擊者與防御者的一種迭代游戲。Biggio等人[13]首先嘗試了基于梯度的方法來生成針對線性分類器、支持向量機(Support Vector Machine, SVM)和神經(jīng)網(wǎng)絡的對抗樣本。與深度學習產(chǎn)生對抗樣本的方法相比,允許更自由地修改數(shù)據(jù)。Roli等人[14]審查了幾個主動防御,并討論了改善機器學習模型安全性的防御方法。

    Barreno等人[9,15]對機器學習的安全問題進行了初步調(diào)查,比較針對SpamBayes垃圾郵件過濾器和防御的攻擊作為研究案例。但是,它們主要關注二分類問題,如病毒檢測系統(tǒng)、入侵檢測和防御系統(tǒng)。

    傳統(tǒng)機器學習中的對抗樣本需要提取特征知識,而深度學習通常僅需要原始數(shù)據(jù)輸入。Papernot等人[16]全面概述了機器學習中的安全問題以及深度學習中的最新發(fā)現(xiàn),并建立了統(tǒng)一的威脅模型。

    3.2 ?深度學習攻擊分類

    本節(jié)將回顧深度學習中的文獻,介紹深度學習中產(chǎn)生對抗樣本的代表性方法。根據(jù)攻擊者掌握深度學習目標模型的背景知識,將對抗攻擊分為白盒攻擊和黑盒攻擊。考慮到對抗攻擊的特異性,根據(jù)生成的對抗樣本是否需要定位為某一特定類別,進一步可將攻擊算法分為針對目標攻擊和非針對目標攻擊。

    3.2.1 ?白盒攻擊

    白盒攻擊是指攻擊者在完全了解神經(jīng)網(wǎng)絡模型的網(wǎng)絡結構以及模型參數(shù)的情況下,針對該神經(jīng)網(wǎng)絡生成對抗樣本。攻擊者在產(chǎn)生對抗攻擊數(shù)據(jù)時與機器學習系統(tǒng)有所交互。

    (1)非針對目標攻擊

    1)FGSM

    FGSM[17]即快速梯度迭代法(Fast Gradient Sign Method),是一種常見的白盒攻擊算法。通過采用在模型輸出與目標類別的誤差函數(shù)對輸入向量的梯度方向添加擾動得到對抗性擾動,然后將對抗性擾動添加到原始樣本中生成對抗樣本。該方法證實深度神經(jīng)網(wǎng)絡在高維空間中的線性特征足以產(chǎn)生對抗樣本。

    Tramèr等人[18]提出R+FGSM方法,沿著梯度的反方向添加擾動,以此拉大對抗樣本與原始輸入樣本的距離。該方法在構造對抗樣本時添加了隨機攻擊。

    2)BIM&ILCM

    Kurakin等人將對抗樣本應用于現(xiàn)實物理世界,改進了FGSM方法,沿梯度方向采用多個較小的輸入變化參數(shù)進行迭代攻擊,從而提出了Basic Iterative Methods(BIM)[19]。Least Likely Class Iterative Methods(ILCM)[19]是BIM方法的變體,通過用識別概率最不可能的類別(目標類別)代替對抗擾動中的類別變量來生成對抗樣本。經(jīng)證實,由該方法生成的對抗樣本能夠讓Inception v3模型受到嚴重影響。

    3)PGD

    PGD(Project Gradient Descent)[20]攻擊,即投影梯度下降方法,是FGSM的變體。PGD算法首先在原圖附近允許的范圍內(nèi)(球形噪聲區(qū)域)進行隨機初始化搜索,然后進行多次迭代產(chǎn)生對抗樣本。PGD是一種典型的一階攻擊,如果防御方法對PGD攻擊有效,則該防御方法對其他的一階攻擊也有著很好的防御效果。

    Zheng等人[21]在PGD攻擊的基礎上,給出了PGD的分布優(yōu)化視圖,提出了分布對抗攻擊(Distributionally Adversarial Attack, DAA)方法,通過學習最大程度地增加模型泛化風險的對抗性數(shù)據(jù)分布。實驗證明,DAA方法在可證明的防御模型上取得了較好的攻擊結果。

    4)CPPN EA Fool

    Nguyen等人[22]發(fā)現(xiàn)了一種新型的攻擊,即組合模式生成網(wǎng)絡編碼的進化算法(Compositional Pattern Producing Network Encoded Evolutionary Algorithms, CPPN EA),該算法生成的對抗樣本人類無法識別,但被DNN模型以高置信度(99%)將其錯誤分類。研究者將此類攻擊歸類為假正性攻擊(False-positive Attack)。如圖1所示,顯示了假正性(False-positive)對抗樣本。Nguyen指出,對于許多對抗圖像,CPPN可以像JSMA一樣找到改變DNN輸出的關鍵特征。

    5)DeepFool

    DeepFool算法[23]是一種基于超平面分類思想的對抗樣本生成算法,目的是以迭代方式計算可以使分類產(chǎn)生誤判的最小擾動。在每次迭代時,算法通過小矢量擾動圖像,逐步將位于分類邊界內(nèi)的圖像推到邊界外,直到圖像被誤判,累積每次迭代中添加到圖像中的擾動以計算最終擾動。分別在MNIST,CIFAR-10和ILSVRC2012等數(shù)據(jù)集上進行了對比實驗。實驗表明,與FGSM和JSMA算法相比,DeepFool算法生成的擾動更小,計算時長更短。

    6)通用對抗擾動(UAP)

    諸如FGSM[17]、DeepFool[23]等方法,只能針對不同的對抗樣本添加依賴某一特定樣本特征的噪音,生成單張圖像的對抗擾動,而通用對抗擾動(Universal Adversarial Perturbations, UAP)[24]可以使添加該擾動的原始圖像被誤分類為其他類別,生成對任何圖像有攻擊能力的擾動。Khrulkov等人[25]將通用對抗擾動作為網(wǎng)絡的特征映射的雅可比矩陣的奇異向量,這使得僅使用少量圖像就可以實現(xiàn)較高的欺騙率。通用對抗擾動在當前流行的深度學習模型中得到了很好的推廣。

    (2)針對目標攻擊

    1)FGSM

    Kurakin等人[26]提出了FGSM[17]的變體,其攻擊目標是使模型輸出為原始預測最不可能的類別。對抗擾動中的類別變量用識別概率最小的目標類別代替,再將原始圖像減去該擾動,原始圖像就變成了對抗樣本,并能輸出目標類別。

    2)L-BFGS

    Szegedy等人[5]提出L-BFGS方法,通過計算添加到原始圖像上引起神經(jīng)網(wǎng)絡錯誤分類的擾動來構造對抗樣本。Szegedy[5]等人表示,L-BFGS算法生成的對抗樣本可以應用到不同的模型和訓練數(shù)據(jù)集中。

    3)JSMA

    JSMA[27]即Jacobian-based Saliency Map Attack。通過限制擾動的范數(shù)來進行對抗攻擊。JSMA算法中最重要的兩個要素是雅各比矩陣和顯著圖。計算給定樣本的雅各比矩陣,由下式給出:

    該類攻擊需要訪問可微分的模型,因此屬于白盒攻擊。

    4)C&W

    Carlini和Wagner[28]對L-BFGS攻擊進一步改善,提出了C&W攻擊。該攻擊是一種基于迭代優(yōu)化的低擾動方法,通過限制范數(shù)使得擾動無法被察覺。該算法改進其迭代攻擊中的目標優(yōu)化函數(shù),使其逐步收緊對擾動幅度的限制,減少對抗樣本的擾動幅度,進而使對抗樣本更加難以察覺。實驗證明,這三種攻擊可以有效地攻擊經(jīng)過“蒸餾”(Defensive Distillation)的網(wǎng)絡。

    5)Hot/Cold

    Rozsa等人[8]提出了一種Hot/Cold方法,該算法可以對每個輸入圖像生成多個對抗樣本。Hot/Cold方法定義了一個新的度量標準PASS來衡量攻擊前后樣本的差異。PASS包括兩個階段:第一階段將修改后的圖像與原始圖像對齊;第二階段測量對齊后的修改圖像與原始圖像之間的相似性。其中,Hot和Cold分別代表目標類別和原始類別,在每次迭代后,算法都將樣本移向Hot類,遠離Cold類。該算法與FGSM相比,其生成的對抗樣本具有多樣性。

    6)對抗轉(zhuǎn)換網(wǎng)絡(ATNs)

    Baluja和Fischer[29]訓練一個生成模型去生成對抗樣本。訓練的模型被稱為對抗轉(zhuǎn)換網(wǎng)絡(Adversarial Transformation Networks, ATNs)。這些網(wǎng)絡產(chǎn)生的對抗樣本是通過最小化由兩部分組成的聯(lián)合損失函數(shù)來計算的。聯(lián)合損失函數(shù)的第一部分使對抗樣本與原始圖像具有感知相似性,第二部分使對抗樣本被目標模型錯誤分類。值得注意的是,ATN可以是針對目標攻擊,也可以是非針對目標攻擊,并以白盒或黑盒的方式進行訓練。Balujar等人[29]的論文專注于有針對性的白盒攻擊。

    3.2.2 ?黑盒攻擊

    本文介紹的攻擊方法,攻擊者都需要完全了解目標模型的結構和參數(shù)。黑盒攻擊則代表了更為一般的場景,攻擊者可能無法獲取到目標模型的全部信息,但是可以利用對抗樣本在神經(jīng)網(wǎng)絡模型之間的可遷移性來進行黑盒攻擊。本文介紹的FSGM、JSMA、UAP等方法,也可以在黑盒場景下進行有效攻擊。

    (1)非針對目標攻擊

    1)FGSM和UAP

    Papernot等人[7]觀察到對抗樣本在模型之間的遷移性,提出使用FGSM算法對未知目標模型進行黑盒攻擊。黑盒攻擊依賴于對抗樣本的可遷移性,即使是具有不同架構的兩個分類器,在其中一個分類器中產(chǎn)生的對抗樣本也可能導致另一個分類器對該對抗樣本以高置信度做出誤判。基于此,Papernot等人[30]訓練了一個代理模型來進行分類任務,對代理模型進行白盒攻擊構造對抗樣本,再使用所生成的對抗樣本對目標模型進行黑盒攻擊。Dong等人[31]提出U-MI-FGSM方法,將FGSM攻擊迭代為多個小步驟擾動,并在每個擾動之后調(diào)整擾動方向以達到攻擊目的。

    Moosavi-dezfooli等人[24]用ImageNet訓練了不同的模型,表明使用通用對抗擾動(UAP)算法產(chǎn)生的對抗樣本在不同神經(jīng)網(wǎng)絡中具有有效的攻擊能力。Li等人[32]通過觀察現(xiàn)有的對抗噪聲,發(fā)現(xiàn)針對對抗訓練后的模型設計產(chǎn)生的對抗噪聲具有很強的局部相關性,文章提出利用保持對抗噪聲的局部相關性來提升對抗樣本的攻擊性能。文章還指出一個簡單的通用擾動可以欺騙一系列最先進的防御,其產(chǎn)生的對抗樣本可以很好地在不同的視覺任務中傳遞,在黑盒環(huán)境下取得了良好的效果。

    2)單像素攻擊

    Su等人[33]提出單像素攻擊(One Pixel),其目標是在輸入圖像中選定一個像素,更改其數(shù)值產(chǎn)生對抗圖像,使神經(jīng)網(wǎng)絡模型對對抗圖像錯誤分類。實驗證明,該攻擊能夠在70.97%的測試圖像上成功愚弄三種不同的網(wǎng)絡模型。單像素攻擊不需要知道網(wǎng)絡參數(shù)或梯度的任何信息,因此為黑盒攻擊。單像素攻擊可以是針對目標攻擊,也可以是非針對目標攻擊。如圖2所示,給出使用單像素攻擊的攻擊示例。

    3)ZOO攻擊

    Chen等人[34]提出ZOO-based(Zeroth Order Optimization)攻擊,該算法是一個典型的黑盒攻擊算法,可以在沒有模型轉(zhuǎn)移的情況下直接部署在黑盒攻擊中。通過采用梯度和Hessian矩陣的梯度估計,不需要獲取目標模型的梯度信息。然而,它需要昂貴的計算來查詢和估計梯度。實驗表明,ZOO攻擊實現(xiàn)了與C&W攻擊相當?shù)男阅?。值得注意的是,ZOO攻擊已被證明在針對目標攻擊上也取得了很好的效果。

    4)結合GAN的對抗攻擊

    Zhao等人[35]將生成對抗網(wǎng)絡(Generative Adversarial Networks, GAN)的理念結合到對抗樣本的生成中,并將此方法命名為Natural GAN。首先在數(shù)據(jù)集上訓練了WGAN模型,其中生成器G將隨機噪聲映射到輸入域。還訓練了一個“轉(zhuǎn)換器”來將輸入數(shù)據(jù)映射到密集的內(nèi)部表示,該方法通過最小化諸如“敵手”之類的內(nèi)部表示的距離來產(chǎn)生對抗性噪聲。由于Natural GAN不需要了解原始神經(jīng)網(wǎng)絡的梯度,因此它可以應用于黑盒攻擊。

    大多數(shù)的黑盒攻擊策略是基于對抗樣本的可遷移性質(zhì)。在這些方法中,攻擊者首先訓練一個本地模型,由本地模型模擬被攻擊的模型來生成對抗樣本。Xiao等人[36]提出AdvGAN方法,能夠不依賴對抗樣本的可遷移性進行黑盒攻擊。對于AdvGAN,當網(wǎng)絡架構中的生成器訓練完畢后,對于任何的輸入圖像,都可以高效地生成對抗樣本。應用AdvGAN方法到Madry的MNIST對抗樣本生成挑戰(zhàn)中,產(chǎn)生的對抗樣本在半白盒攻擊和黑盒攻擊下,分別實現(xiàn)了88.93%和92.76%的攻擊成功率。

    (2)針對目標攻擊

    1)FGSM

    Dong等人[31]在FGSM算法基礎上,提出基于動量的迭代算法T-MI-FGSM來增強對抗攻擊。為了進一步提高對抗樣本的可遷移性,提高黑盒攻擊的成功率,將動量迭代算法應用于一組模型,并證明了具有較強防御能力的神經(jīng)網(wǎng)絡模型也容易受到此類算法的黑箱攻擊。基于動量的迭代算法已被證明在針對目標攻擊上也取得了很好的效果。

    2)JSMA和ATNs

    Papernot等人[7]觀察到對抗樣本在模型之間的遷移性,提出使用JSMA算法對未知目標模型進行黑盒攻擊。

    Baluja和Fischer[29]訓練ATN來生成對抗樣本,沿著同一方向,Hayex和Danezis[37]使用ATN構造對抗樣本來進行黑盒攻擊。實驗結果表明,其生成的對抗樣本具有較高的欺騙率。

    3)UPSET和ANGRI

    Sarkar等人[38]提出了2個黑盒攻擊算法,UPSET(Universal Perturbations for Steering to Exact Targets)和ANGRI(Antagonistic Network for Generating Rogue Image)。UPSET使用殘差梯度網(wǎng)絡,為特定的目標類別產(chǎn)生對抗擾動構造對抗樣本,使得分類器將對抗樣本分類成目標類別。ANGRI算法生成的是“圖像特定”的擾動,其產(chǎn)生的擾動也獲得了高欺騙率。

    4)Houdini

    Cisse等人[39]提出了Houdini算法,這是一種用于欺騙基于梯度的機器學習算法的攻擊方法。生成對抗樣本的典型算法是使用網(wǎng)絡模型的損失函數(shù)的梯度來計算擾動,但是任務損失往往不適合這種方法。Houdini算法用來解決組合不可分解的問題,例如語音識別、語義分割等。除了成功生成對抗圖像外,Houdini算法還被證明能夠成功攻擊流行的自動語音識別系統(tǒng)。他們通過在黑盒攻擊場景中愚弄Google Voice來證明語音識別中攻擊的可轉(zhuǎn)移性。

    5)EAD

    Chen等人[40]提出一種基于彈性網(wǎng)絡正則化的攻擊算法(Elastic-net Attacks to DNNs, EAD)。該算法將對抗樣本攻擊DNN的過程形式化為彈性網(wǎng)絡正則化的優(yōu)化問題。在MNIST、CIFAR10和ImageNet上的實驗結果表明,EAD算法可以生成具有很小 失真的對抗樣本,并且其對抗樣本具有顯著增強的攻擊可遷移性,能在不同攻擊場景中實現(xiàn)與當前最佳方法匹敵的攻擊成功率。實驗證明了EAD算法的有效性,對基于 的對抗樣本和深度神經(jīng)網(wǎng)絡的安全性應用方面提供了新的線索。

    6)基于模型的集成攻擊

    Liu等人[41]在ImageNet數(shù)據(jù)集的不同模型上進行了可遷移性研究,并研究了非針對性和針對性的對抗樣本。與非針對目標對抗樣本相比,有針對性的對抗樣本更難以在模型之間進行轉(zhuǎn)移。本文提出了基于模型的集成攻擊(Model-based Ensembling Attack)以生成可轉(zhuǎn)移的對抗樣本,使大部分針對目標對抗樣本可以在不用的模型間轉(zhuǎn)遞,以此來攻擊黑盒模型。

    Liu等人[41]提出模型集成的概念,使用聯(lián)合分類器生成對抗樣本,并通過對比實驗總結出模型集成方法可以有效提高對抗樣本的泛化能力。結果表明,基于模型的集成攻擊可以生成可轉(zhuǎn)移的針對目標對抗圖像,這增強了黑盒攻擊中對抗樣本的能力。他們還證明,與以前的方法相比,這種方法在生成非針對目標對抗樣本方面表現(xiàn)更好。

    如表1所示,總結了生成對抗樣本的算法,其中規(guī)定了是否為針對目標或非針對目標攻擊、擾動測量衡量標準和攻擊強度。

    4 ?結束語

    本文對深度學習中的對抗樣本展開深入調(diào)查,根據(jù)敵手知識和對抗特異性,對對抗攻擊方法進行了細致的分類,清晰地展示了研究人員的研究進展和研究思路。在面向深度學習模型的對抗樣本的研究中,對抗攻擊的未來研究角度可以由兩個方面展開。

    (1)研究并設計更有攻擊性的對抗樣本,作為神經(jīng)網(wǎng)絡魯棒性的評估標準,可以為對抗防御展開新的研究思路,提高神經(jīng)網(wǎng)絡模型的穩(wěn)健性。

    (2)對抗場景下的現(xiàn)實應用。研究人員將深度學習應用在現(xiàn)實世界中,其實用性和普及性有了巨大提升,也引起了安全領域的極大關注。對抗樣本應用在分類器、目標檢測器等方面取得了良好的攻擊效果,但其在物理世界下的應用還沒有得到有效性驗證,相關的工作需要在更大的數(shù)據(jù)集、更真實的場景中進行驗證和完善。

    隨著深度學習在圖像處理、自然語言處理、語音識別、醫(yī)療診斷等多個領域的深入應用,深度學習模型面臨的安全威脅也日趨嚴重,現(xiàn)有的深度學習模型極易受到對抗攻擊[42]。對抗樣本揭示了神經(jīng)網(wǎng)絡的脆弱性和不可解釋性,但另一方面,對抗樣本的存在也可以激發(fā)更多關于對抗防御的研究,從而獲得魯棒性更好的深度學習模型。

    基金項目:

    國家自然科學基金項目(項目編號:U1836105)。

    參考文獻

    [1] Helmstaedter M,Briggman K L,Turaga S C,Jain V,Seung H S,Denk W.Connectomic reconstruction of the inner plexiform layer in the mouse retina[J].Nature,2013,500(7461):168.

    [2] Hinton G,Deng L,Yu D,Dahl G,Mohamed A R,Jaitly N,Senior A,Vanhoucke V,Kingsbury B,Sainath T. Deep neural networks for acoustic modeling in speech recognition[J].IEEE Signal processing magazine,2012, 29(6): 82-97.

    [3] Sutskever I,Vinyals O,Le Q V.Sequence to sequence learning with neural networks[C].Advances in neural information processing systems.2014: 3104-3112.

    [4] 劉金鵬.基于機器學習技術的網(wǎng)絡安全防護[J].網(wǎng)絡空間安全,2018,9(09):96-102.

    [5] Szegedy C,Zaremba W, Sutskever I,Bruna J,Erhan D,Goodfellow I,F(xiàn)ergus R.Intriguing properties of neural networks[C].ICLR (Poster).2014.

    [6] Akhtar N Mian A.Threat of adversarial attacks on deep learning in computer vision: A survey[J]. IEEE Access,2018,6:14410-14430.

    [7] Papernot N,McDaniel P,Goodfellow I. Transferability in machine learning: from phenomena to black-box attacks using adversarial samples[J].arXiv preprint arXiv:1605.07277,2016.

    [8] Rozsa A, Rudd E M, Boult T E.Adversarial diversity and hard positive generation[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.2016:25-32.

    [9] Barreno M,Nelson B,Joseph A D,Tygar J D.The security of machine learning[J].Machine Learning, 2010,81(2): 121-148.

    [10] Dalvi N, Domingos P,Sanghai S, Verma D.Adversarial classification[C].Proceedings of the tenth ACM SIGKDD international conference on Knowledge discovery and data mining.ACM, 2004: 99-108.

    [11] Lowd D,Meek C.Adversarial learning[C].Proceedings of the eleventh ACM SIGKDD international conference on Knowledge discovery in data mining.ACM, 2005: 641-647.

    [12] Biggio B,F(xiàn)umera G,Roli F.Multiple classifier systems for robust classifier design in adversarial environments[J].International Journal of Machine Learning and Cybernetics,2010, 1(1-4): 27-41.

    [13] Biggio B,Corona I,Maiorca D,Nelson B,Srndic N,Laskov P,Giacinto G,Roli F.Evasion attacks against machine learning at test time[C]. Joint European conference on machine learning and knowledge discovery in databases.Springer,Berlin,Heidelberg,2013: 387-402.

    [14] Roli F,Biggio B,F(xiàn)umera G.Pattern recognition systems under attack[C].Iberoamerican Congress on Pattern Recognition.Springer,Berlin,Heidelberg,2013:1-8.

    [15] Barreno M,Nelson B,Sears R,Joseph A D,Tygar J D.Can machine learning be secure?[C].Proceedings of the 2006 ACM Symposium on Information,computer and communications security.ACM,2006:16-25.

    [16] Papernot N, McDaniel P,Sinha A, Wellman M.Towards the science of security and privacy in machine learning[J].arXiv preprint arXiv:1611.03814,2016.

    [17] Goodfellow I J,Shlens J,Szegedy C.Explaining and harnessing adversarial examples[C].ICLR (Poster).2015.

    [18] Tramèr F,Kurakin A,Papernot N,Goodfellow I,Boneh D, McDaniel P.Ensemble adversarial training: Attacks and defenses[C].ICLR (Poster).2018.

    [19] Kurakin A,Goodfellow I,Bengio S.Adversarial examples in the physical world[C].ICLR (Workshop). 2017

    [20] Madry A,Makelov A,Schmidt L,Tsipras D,Vladu A.Towards deep learning models resistant to adversarial attacks[C].ICLR (Poster).2018.

    [21] Zheng T,Chen C,Ren K. Distributionally adversarial attack[C].Proceedings of the AAAI Conference on Artificial Intelligence. 2019,33: 2253-2260.

    [22] Nguyen A,Yosinski J,Clune J.Deep neural networks are easily fooled: High confidence predictions for unrecognizable images[C].Proceedings of the IEEE conference on computer vision and pattern recognition.2015: 427-436.

    [23] Moosavi-Dezfooli S M,F(xiàn)awzi A, Frossard P.Deepfool:a simple and accurate method to fool deep neural networks[C].Proceedings of the IEEE conference on computer vision and pattern recognition.2016:2574-2582.

    [24] Moosavi-Dezfooli S M,F(xiàn)awzi A, Fawzi O,F(xiàn)rossard P.Universal adversarial perturbations[C].Proceedings of the IEEE conference on computer vision and pattern recognition. 2017:1765-1773.

    [25] Khrulkov V,Oseledets I.Art of singular vectors and universal adversarial perturbations[C].Proceedings of the IEEE Conference on Computer Vision and P attern Recognition. 2018:8562-8570.

    [26] Kurakin A,Goodfellow I,Bengio S.Adversarial machine learning at scale[J].arXiv preprint arXiv:1611.01236,2016.

    [27] Papernot N,McDaniel P,Jha S, et al.The limitations of deep learning in adversarial settings[C].2016 IEEE European Symposium on Security and Privacy (EuroS&P).IEEE, 2016: 372-387.

    [28] Carlini N,Wagner D.Towards evaluating the robustness of neural networks[C].2017 IEEE Symposium on Security and Privacy (SP).IEEE, 2017: 39-57.

    [29] Baluja S,F(xiàn)ischer I. Adversarial transformation networks: Learning to generate adversarial examples[J].arXiv preprint arXiv:1703.09387, 2017.

    [30] Papernot N,McDaniel P,Goodfellow I,Jha S,Celik Z B, Swami A.Practical black-box attacks against machine learning[C].Proceedings of the 2017 ACM on Asia conference on computer and communications security.ACM, 2017: 506-519.

    [31] Dong Y,Liao F,Pang T,Su H,Zhu J,Hu X,Li J.Boosting adversarial attacks with momentum[C].Proceedings of the IEEE conference on computer vision and pattern recognition.2018: 9185-9193.

    [32] Li Y,Bai S, Xie C,Liao Z,Shen X,Yuille A L.Regional Homogeneity: Towards Learning Transferable Universal Adversarial Perturbations Against Defenses[J].arXiv preprint arXiv:1904.00979, 2019.

    [33] Su J,Vargas D V,Sakurai K.One pixel attack for fooling deep neural networks[J].IEEE Transactions on Evolutionary Computation, 2019.

    [34] Chen P Y,Zhang H,Sharma Y, Yi J, Hsieh C J.Zoo: Zeroth order optimization based black-box attacks to deep neural networks without training substitute models[C].Proceedings of the 10th ACM Workshop on Artificial Intelligence and Security. ACM, 2017: 15-26.

    [35] Zhao Z,Dua D,Singh S.Generating natural adversarial examples[J].arXiv preprint arXiv:1710.11342, 2017.

    [36] Xiao C,Li B,Zhu J Y,He W,Liu M,Song D.Generating adversarial examples with adversarial networks[J].arXiv preprint arXiv:1801.02610,2018.

    [37] Hayes J,Danezis G. Machine learning as an adversarial service: Learning black-box adversarial examples[J].arXiv preprint arXiv:1708.05207,2017.

    [38] Sarkar S,Bansal A, Mahbub U,Chellappa R.UPSET and ANGRI:breaking high performance image classifiers[J].arXiv preprint arXiv:1707.01159,2017.

    [39] Cisse M,Adi Y,Neverova N,Keshet J.Houdini: Fooling deep structured prediction models[J].arXiv preprint arXiv:1707.05373,2017.

    [40] Chen P Y,Sharma Y,Zhang H,Hsieh C J.Ead: elastic-net attacks to deep neural networks via adversarial examples[C].Thirty-second AAAI conference on artificial intelligence.2018.

    [41] Liu Y,Chen X,Liu C,Song D.Delving into transferable adversarial examples and black-box attacks[J].arXiv preprint arXiv:1611.02770,2016.

    [42] 李盼,趙文濤,劉強,崔建京,殷建平.機器學習安全性問題及其防御技術研究綜述[J].計算機科學與探索, 2018,12(2): 171-184.

    猜你喜歡
    安全威脅深度學習
    有體驗的學習才是有意義的學習
    WIFI無線網(wǎng)絡技術及安全問題研究
    電子商務中基于深度學習的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構
    大數(shù)據(jù)技術在反恐怖主義中的應用展望
    校園無線網(wǎng)絡的安全問題及應對策略
    深度學習算法應用于巖石圖像處理的可行性研究
    軟件導刊(2016年9期)2016-11-07 22:20:49
    基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    關于計算機網(wǎng)絡信息安全及防護策略探究
    大數(shù)據(jù)時代的微信安全文化建構
    新聞世界(2016年4期)2016-06-20 08:50:58
    日韩高清综合在线| 久热爱精品视频在线9| 亚洲专区中文字幕在线| 一区二区日韩欧美中文字幕| 久久久久久久久久久久大奶| 成人三级做爰电影| 成人永久免费在线观看视频| 日韩国内少妇激情av| 9191精品国产免费久久| 国产一级毛片七仙女欲春2 | 自拍欧美九色日韩亚洲蝌蚪91| 看免费av毛片| 每晚都被弄得嗷嗷叫到高潮| 19禁男女啪啪无遮挡网站| 大香蕉久久成人网| 我的亚洲天堂| 亚洲中文字幕一区二区三区有码在线看 | cao死你这个sao货| 日韩欧美在线二视频| 成人永久免费在线观看视频| 午夜福利18| 国产三级黄色录像| 日本vs欧美在线观看视频| 久久 成人 亚洲| 12—13女人毛片做爰片一| 亚洲第一青青草原| 如日韩欧美国产精品一区二区三区| 在线播放国产精品三级| 亚洲三区欧美一区| 欧美日本中文国产一区发布| 亚洲人成电影免费在线| 国产99久久九九免费精品| 黄网站色视频无遮挡免费观看| 一区二区日韩欧美中文字幕| 国产成人影院久久av| 欧美日韩亚洲国产一区二区在线观看| 亚洲av五月六月丁香网| 亚洲激情在线av| 久久久久久久久久久久大奶| xxx96com| 精品国产亚洲在线| 国产三级黄色录像| 免费在线观看亚洲国产| 丝袜美足系列| 亚洲自拍偷在线| 国产成人精品在线电影| 久久久久久亚洲精品国产蜜桃av| 色婷婷久久久亚洲欧美| 精品人妻在线不人妻| 一个人观看的视频www高清免费观看 | 又黄又粗又硬又大视频| 午夜福利欧美成人| 久久久久九九精品影院| 成人18禁高潮啪啪吃奶动态图| 女同久久另类99精品国产91| 男女床上黄色一级片免费看| 国产欧美日韩综合在线一区二区| 午夜福利影视在线免费观看| 男人舔女人下体高潮全视频| 亚洲五月天丁香| 多毛熟女@视频| 国产精品1区2区在线观看.| 美女免费视频网站| 一个人观看的视频www高清免费观看 | 亚洲电影在线观看av| 国产私拍福利视频在线观看| 久久久国产成人免费| 日韩大尺度精品在线看网址 | 欧美激情 高清一区二区三区| 免费看十八禁软件| 免费观看精品视频网站| 女人高潮潮喷娇喘18禁视频| 欧美激情高清一区二区三区| 国产成人av教育| 大码成人一级视频| 这个男人来自地球电影免费观看| 国产精品一区二区三区四区久久 | 可以免费在线观看a视频的电影网站| 久久青草综合色| 又紧又爽又黄一区二区| 啦啦啦免费观看视频1| 露出奶头的视频| 一夜夜www| 高清黄色对白视频在线免费看| 人人妻人人澡人人看| 久久久久精品国产欧美久久久| 国产熟女xx| 大型黄色视频在线免费观看| www.自偷自拍.com| 精品乱码久久久久久99久播| 男女下面插进去视频免费观看| 桃色一区二区三区在线观看| 人妻丰满熟妇av一区二区三区| 国语自产精品视频在线第100页| 亚洲成人久久性| 色综合亚洲欧美另类图片| 91av网站免费观看| 99精品久久久久人妻精品| 久久伊人香网站| 午夜日韩欧美国产| 欧美成人午夜精品| 精品电影一区二区在线| 两个人免费观看高清视频| 亚洲av电影在线进入| 亚洲精品久久国产高清桃花| x7x7x7水蜜桃| 久久午夜综合久久蜜桃| 不卡av一区二区三区| 午夜精品国产一区二区电影| 在线观看免费视频网站a站| 亚洲精品国产精品久久久不卡| 日本 欧美在线| 性少妇av在线| 啦啦啦观看免费观看视频高清 | 国产成人精品久久二区二区91| 欧美人与性动交α欧美精品济南到| 中文字幕色久视频| 亚洲在线自拍视频| 美女国产高潮福利片在线看| 老熟妇仑乱视频hdxx| 色在线成人网| 国产精品九九99| a在线观看视频网站| 精品久久蜜臀av无| 欧美最黄视频在线播放免费| 国产视频一区二区在线看| 村上凉子中文字幕在线| 女生性感内裤真人,穿戴方法视频| 中亚洲国语对白在线视频| 欧美中文日本在线观看视频| 成人欧美大片| 国产精品1区2区在线观看.| 天天躁狠狠躁夜夜躁狠狠躁| 成人免费观看视频高清| 麻豆国产av国片精品| 正在播放国产对白刺激| 一边摸一边抽搐一进一出视频| 国产精品影院久久| 欧美日本中文国产一区发布| av超薄肉色丝袜交足视频| 中文字幕色久视频| 亚洲av成人一区二区三| 黄色成人免费大全| 亚洲欧美日韩无卡精品| 国产精品日韩av在线免费观看 | 久久香蕉精品热| 国产xxxxx性猛交| 日本免费a在线| 欧美日韩福利视频一区二区| 亚洲天堂国产精品一区在线| 欧美精品亚洲一区二区| 亚洲国产精品sss在线观看| 国产黄a三级三级三级人| 两个人视频免费观看高清| av片东京热男人的天堂| 久久青草综合色| 国产99白浆流出| 亚洲激情在线av| 免费人成视频x8x8入口观看| 日韩一卡2卡3卡4卡2021年| 久久久久久久久免费视频了| 少妇熟女aⅴ在线视频| 国产av在哪里看| 国产一卡二卡三卡精品| 国产高清有码在线观看视频 | 一区二区三区高清视频在线| 国产私拍福利视频在线观看| 久久精品91无色码中文字幕| e午夜精品久久久久久久| 午夜免费鲁丝| 久久精品亚洲熟妇少妇任你| 欧美+亚洲+日韩+国产| 国产三级黄色录像| 国产亚洲av嫩草精品影院| 国产人伦9x9x在线观看| 国产熟女xx| 91字幕亚洲| 免费在线观看完整版高清| 最近最新中文字幕大全免费视频| 欧美乱妇无乱码| 亚洲男人的天堂狠狠| 精品国产国语对白av| 手机成人av网站| 麻豆成人av在线观看| 无遮挡黄片免费观看| 成人免费观看视频高清| 色精品久久人妻99蜜桃| 免费不卡黄色视频| 精品国内亚洲2022精品成人| 欧美日韩精品网址| 最好的美女福利视频网| 精品乱码久久久久久99久播| 一个人观看的视频www高清免费观看 | av在线播放免费不卡| 丝袜美腿诱惑在线| 美女 人体艺术 gogo| 久久久久久久久免费视频了| 亚洲欧美日韩另类电影网站| 亚洲第一av免费看| 国产一区二区三区在线臀色熟女| 午夜精品久久久久久毛片777| 国产精品永久免费网站| 香蕉久久夜色| 大型黄色视频在线免费观看| 美女高潮喷水抽搐中文字幕| 久久天躁狠狠躁夜夜2o2o| 一卡2卡三卡四卡精品乱码亚洲| 一级毛片高清免费大全| 老熟妇仑乱视频hdxx| 国产成年人精品一区二区| 又大又爽又粗| 多毛熟女@视频| 欧美国产精品va在线观看不卡| 久久人人97超碰香蕉20202| 人人妻人人爽人人添夜夜欢视频| 免费看十八禁软件| 亚洲av电影不卡..在线观看| 在线国产一区二区在线| 黄色 视频免费看| 99热只有精品国产| 这个男人来自地球电影免费观看| 色av中文字幕| 日日摸夜夜添夜夜添小说| 日韩中文字幕欧美一区二区| 日韩 欧美 亚洲 中文字幕| 淫秽高清视频在线观看| 中文字幕人妻熟女乱码| 校园春色视频在线观看| 欧美国产精品va在线观看不卡| 成人国产一区最新在线观看| 日韩欧美三级三区| 嫁个100分男人电影在线观看| 午夜成年电影在线免费观看| 欧美精品啪啪一区二区三区| 村上凉子中文字幕在线| 99国产综合亚洲精品| 老司机午夜十八禁免费视频| 可以在线观看毛片的网站| 侵犯人妻中文字幕一二三四区| 久热这里只有精品99| 18美女黄网站色大片免费观看| 精品日产1卡2卡| 9热在线视频观看99| 国产免费av片在线观看野外av| 中文字幕人成人乱码亚洲影| 久久精品aⅴ一区二区三区四区| 国产精品二区激情视频| 久久久久久久精品吃奶| x7x7x7水蜜桃| 亚洲黑人精品在线| x7x7x7水蜜桃| 好看av亚洲va欧美ⅴa在| 午夜影院日韩av| 又大又爽又粗| 国产极品粉嫩免费观看在线| 九色国产91popny在线| 激情在线观看视频在线高清| 日韩成人在线观看一区二区三区| 91精品三级在线观看| 18禁裸乳无遮挡免费网站照片 | 亚洲av电影在线进入| 操出白浆在线播放| 中文字幕久久专区| 夜夜看夜夜爽夜夜摸| 久久婷婷人人爽人人干人人爱 | www日本在线高清视频| 日韩 欧美 亚洲 中文字幕| 69av精品久久久久久| 一进一出抽搐动态| 99精品在免费线老司机午夜| 亚洲精品国产区一区二| 一进一出好大好爽视频| 中国美女看黄片| 国产精品一区二区在线不卡| 麻豆成人av在线观看| 亚洲精品久久成人aⅴ小说| 日韩大码丰满熟妇| 黄色a级毛片大全视频| 麻豆久久精品国产亚洲av| 亚洲成av片中文字幕在线观看| av福利片在线| 成人精品一区二区免费| 国产精品综合久久久久久久免费 | 国产精品久久视频播放| 成人18禁在线播放| 中文亚洲av片在线观看爽| 日韩欧美一区二区三区在线观看| 欧美激情高清一区二区三区| 国产97色在线日韩免费| 亚洲av成人一区二区三| 日韩成人在线观看一区二区三区| 日本a在线网址| 婷婷丁香在线五月| 香蕉久久夜色| 在线视频色国产色| a级毛片在线看网站| 国产单亲对白刺激| 天天一区二区日本电影三级 | 美女扒开内裤让男人捅视频| 91成年电影在线观看| 国产又爽黄色视频| 欧美激情极品国产一区二区三区| 69精品国产乱码久久久| 中文字幕av电影在线播放| 纯流量卡能插随身wifi吗| 国产一区二区激情短视频| 国产极品粉嫩免费观看在线| 一级毛片精品| 99久久久亚洲精品蜜臀av| 久久久久久国产a免费观看| 中文字幕人妻熟女乱码| 精品国产国语对白av| 12—13女人毛片做爰片一| 国产亚洲欧美在线一区二区| 欧美色视频一区免费| 亚洲色图综合在线观看| 婷婷精品国产亚洲av在线| 99国产综合亚洲精品| 免费不卡黄色视频| netflix在线观看网站| 亚洲成人久久性| 午夜福利,免费看| 国产精品美女特级片免费视频播放器 | cao死你这个sao货| 色尼玛亚洲综合影院| 一区二区三区激情视频| 亚洲av成人av| 99香蕉大伊视频| 91精品国产国语对白视频| 日本免费一区二区三区高清不卡 | 中文字幕久久专区| 嫩草影视91久久| 日韩欧美免费精品| 国产激情久久老熟女| 黄网站色视频无遮挡免费观看| 国产一区二区在线av高清观看| 日韩一卡2卡3卡4卡2021年| av电影中文网址| 国产亚洲精品第一综合不卡| 满18在线观看网站| 黄色丝袜av网址大全| 国产一区二区三区视频了| 国产成年人精品一区二区| 国产欧美日韩综合在线一区二区| 亚洲国产欧美网| 一级a爱片免费观看的视频| 最近最新免费中文字幕在线| 黄片播放在线免费| 神马国产精品三级电影在线观看 | 国产av在哪里看| 久久精品91无色码中文字幕| 中文字幕av电影在线播放| 免费少妇av软件| 一区二区三区精品91| 丝袜美足系列| 免费av毛片视频| 国产成人一区二区三区免费视频网站| 国产精品国产高清国产av| АⅤ资源中文在线天堂| 久久久久国产一级毛片高清牌| 夜夜看夜夜爽夜夜摸| 51午夜福利影视在线观看| 黄色a级毛片大全视频| 波多野结衣av一区二区av| 一本久久中文字幕| 国产在线精品亚洲第一网站| 一级黄色大片毛片| 精品人妻在线不人妻| 国产一卡二卡三卡精品| 91麻豆精品激情在线观看国产| 国产不卡一卡二| 国产私拍福利视频在线观看| 90打野战视频偷拍视频| 久久九九热精品免费| 国产成人欧美在线观看| 国产精品永久免费网站| 亚洲欧美日韩高清在线视频| 99精品在免费线老司机午夜| 日韩精品中文字幕看吧| 亚洲国产精品999在线| 99国产精品一区二区蜜桃av| 天堂影院成人在线观看| 999精品在线视频| 少妇裸体淫交视频免费看高清 | 777久久人妻少妇嫩草av网站| 99热只有精品国产| x7x7x7水蜜桃| 国语自产精品视频在线第100页| 老汉色av国产亚洲站长工具| 女人精品久久久久毛片| 亚洲专区国产一区二区| 久久久久久久午夜电影| 婷婷丁香在线五月| 精品国产超薄肉色丝袜足j| 一夜夜www| 两个人看的免费小视频| 韩国精品一区二区三区| 久久天躁狠狠躁夜夜2o2o| 国产成人免费无遮挡视频| 成人三级黄色视频| a级毛片在线看网站| 啦啦啦韩国在线观看视频| 成人三级黄色视频| 男人的好看免费观看在线视频 | 欧美在线一区亚洲| 日韩大尺度精品在线看网址 | 首页视频小说图片口味搜索| 亚洲自偷自拍图片 自拍| 1024香蕉在线观看| 日韩有码中文字幕| 少妇熟女aⅴ在线视频| 男女床上黄色一级片免费看| 日本vs欧美在线观看视频| 黑人巨大精品欧美一区二区mp4| 色综合站精品国产| 大码成人一级视频| 一区二区三区激情视频| 国产精品av久久久久免费| xxx96com| 美女大奶头视频| 国产av又大| 久久精品亚洲熟妇少妇任你| 天堂动漫精品| 久久久国产成人精品二区| 精品国产亚洲在线| 少妇裸体淫交视频免费看高清 | 国产高清视频在线播放一区| 日韩精品免费视频一区二区三区| avwww免费| 久久久精品欧美日韩精品| 成人国语在线视频| 中文字幕精品免费在线观看视频| 久久天堂一区二区三区四区| 两性夫妻黄色片| 中文字幕最新亚洲高清| 大型黄色视频在线免费观看| 午夜福利在线观看吧| 伦理电影免费视频| 涩涩av久久男人的天堂| 如日韩欧美国产精品一区二区三区| 激情在线观看视频在线高清| 欧美日韩中文字幕国产精品一区二区三区 | 美女高潮喷水抽搐中文字幕| 18禁裸乳无遮挡免费网站照片 | 国产99久久九九免费精品| 99国产极品粉嫩在线观看| 欧美成狂野欧美在线观看| 欧美不卡视频在线免费观看 | 亚洲欧美精品综合一区二区三区| 成在线人永久免费视频| 欧美一级a爱片免费观看看 | 黄色毛片三级朝国网站| 色综合亚洲欧美另类图片| 亚洲一卡2卡3卡4卡5卡精品中文| 成人国产综合亚洲| 99国产综合亚洲精品| 精品国内亚洲2022精品成人| 久久精品aⅴ一区二区三区四区| aaaaa片日本免费| 一区二区三区高清视频在线| 夜夜爽天天搞| 国产亚洲精品av在线| 91精品三级在线观看| 亚洲欧洲精品一区二区精品久久久| 精品久久久久久,| 日韩有码中文字幕| 一级黄色大片毛片| 欧美激情高清一区二区三区| 亚洲精品国产色婷婷电影| 亚洲欧美日韩无卡精品| 一进一出抽搐动态| 黄网站色视频无遮挡免费观看| 国产精品久久久久久人妻精品电影| 人妻丰满熟妇av一区二区三区| 中文字幕人成人乱码亚洲影| 国产成人一区二区三区免费视频网站| 亚洲av五月六月丁香网| 国产一区二区三区在线臀色熟女| 啦啦啦观看免费观看视频高清 | 正在播放国产对白刺激| 欧美在线黄色| 国产亚洲欧美98| 亚洲全国av大片| 久久午夜亚洲精品久久| 亚洲av五月六月丁香网| 国内毛片毛片毛片毛片毛片| 精品久久久久久久人妻蜜臀av | 香蕉国产在线看| 一二三四在线观看免费中文在| 国产高清有码在线观看视频 | 日韩精品免费视频一区二区三区| 久久久国产成人精品二区| 悠悠久久av| 一区二区三区精品91| 变态另类成人亚洲欧美熟女 | 黄色毛片三级朝国网站| 岛国视频午夜一区免费看| svipshipincom国产片| 一级a爱片免费观看的视频| 日本撒尿小便嘘嘘汇集6| 欧美一区二区精品小视频在线| 大香蕉久久成人网| 9热在线视频观看99| 免费女性裸体啪啪无遮挡网站| 亚洲国产欧美网| 亚洲狠狠婷婷综合久久图片| 脱女人内裤的视频| 男女床上黄色一级片免费看| 亚洲天堂国产精品一区在线| 精品人妻在线不人妻| 色av中文字幕| 日本欧美视频一区| 两人在一起打扑克的视频| av天堂在线播放| 操出白浆在线播放| 成人av一区二区三区在线看| 久久九九热精品免费| 在线观看免费视频日本深夜| 国产精品久久视频播放| 色老头精品视频在线观看| 久久中文字幕一级| 咕卡用的链子| 亚洲av日韩精品久久久久久密| 九色国产91popny在线| 国产一卡二卡三卡精品| 在线播放国产精品三级| 久久狼人影院| 欧美另类亚洲清纯唯美| 国产不卡一卡二| 亚洲av电影不卡..在线观看| 亚洲精品在线观看二区| av片东京热男人的天堂| 波多野结衣高清无吗| 精品一区二区三区四区五区乱码| 999久久久国产精品视频| 好男人在线观看高清免费视频 | 国产精品久久久久久亚洲av鲁大| 可以在线观看的亚洲视频| 午夜视频精品福利| 黄色片一级片一级黄色片| 大型黄色视频在线免费观看| 国产欧美日韩综合在线一区二区| 日本免费一区二区三区高清不卡 | 999久久久国产精品视频| 一进一出抽搐动态| 嫩草影视91久久| 免费在线观看亚洲国产| 成人国产一区最新在线观看| 日本撒尿小便嘘嘘汇集6| av天堂在线播放| 桃色一区二区三区在线观看| 亚洲av成人不卡在线观看播放网| 麻豆国产av国片精品| 成人av一区二区三区在线看| www.www免费av| 亚洲欧美激情在线| 午夜免费激情av| 久久香蕉精品热| 一区二区三区精品91| 国产高清视频在线播放一区| 一级作爱视频免费观看| 国产欧美日韩一区二区三区在线| 别揉我奶头~嗯~啊~动态视频| 日本免费一区二区三区高清不卡 | 天天一区二区日本电影三级 | www日本在线高清视频| а√天堂www在线а√下载| 成人国产综合亚洲| 亚洲国产欧美一区二区综合| 黑人巨大精品欧美一区二区mp4| www.www免费av| 精品一区二区三区视频在线观看免费| 在线观看免费日韩欧美大片| 999久久久精品免费观看国产| 亚洲欧美一区二区三区黑人| 99国产精品99久久久久| videosex国产| 午夜日韩欧美国产| 成在线人永久免费视频| 亚洲自偷自拍图片 自拍| 国产成人精品无人区| 国产精品98久久久久久宅男小说| 久久精品91无色码中文字幕| 亚洲三区欧美一区| 好男人在线观看高清免费视频 | 91字幕亚洲| av片东京热男人的天堂| 国产在线观看jvid| 欧美黄色淫秽网站| 免费少妇av软件| 欧洲精品卡2卡3卡4卡5卡区| 亚洲激情在线av| 免费观看精品视频网站| 精品乱码久久久久久99久播| 欧美另类亚洲清纯唯美| 在线永久观看黄色视频| 国产av一区在线观看免费| 国产欧美日韩精品亚洲av| 啦啦啦韩国在线观看视频| 久久久久久国产a免费观看| 99国产精品99久久久久| 亚洲人成77777在线视频| 看黄色毛片网站| 国产亚洲欧美在线一区二区| 欧美乱码精品一区二区三区| 18禁美女被吸乳视频| 9热在线视频观看99| 久久久久九九精品影院| 午夜视频精品福利| 亚洲免费av在线视频| 日韩成人在线观看一区二区三区| 成熟少妇高潮喷水视频| 亚洲激情在线av| 亚洲色图综合在线观看| 欧美激情极品国产一区二区三区|