• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于殘差空洞卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)安全實(shí)體識(shí)別方法

    2020-10-21 17:58:58謝博申國(guó)偉郭春周燕于淼
    關(guān)鍵詞:命名實(shí)體卷積

    謝博,申國(guó)偉,郭春,周燕,于淼

    (1.貴州大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,貴州 貴陽(yáng) 550025;2.貴州省公共大數(shù)據(jù)重點(diǎn)實(shí)驗(yàn)室,貴州 貴陽(yáng) 550025;3.中國(guó)科學(xué)院信息工程研究所,北京 100093)

    1 引言

    在網(wǎng)絡(luò)空間安全態(tài)勢(shì)日趨復(fù)雜的形勢(shì)下,威脅情報(bào)驅(qū)動(dòng)的網(wǎng)絡(luò)安全防御成為業(yè)界關(guān)注的重點(diǎn)[1]。從海量碎片化的網(wǎng)絡(luò)數(shù)據(jù)中挖掘威脅情報(bào),采用知識(shí)圖譜模型進(jìn)行組織,支撐攻擊路徑預(yù)測(cè)、攻擊溯源等,可實(shí)現(xiàn)海量數(shù)據(jù)驅(qū)動(dòng)的威脅情報(bào)智能分析。

    網(wǎng)絡(luò)安全實(shí)體識(shí)別是威脅情報(bào)知識(shí)圖譜構(gòu)建任務(wù)中非常重要的一個(gè)基礎(chǔ)任務(wù)[2],其目標(biāo)是從網(wǎng)絡(luò)安全領(lǐng)域的文本數(shù)據(jù)中提取出安全實(shí)體的語(yǔ)義類,如攻擊組織、企業(yè)、漏洞、軟件等。

    網(wǎng)絡(luò)安全實(shí)體識(shí)別屬于一種特定領(lǐng)域的命名實(shí)體識(shí)別。命名實(shí)體識(shí)別是自然語(yǔ)言處理中的一項(xiàng)重要研究?jī)?nèi)容,主要有基于規(guī)則的命名實(shí)體識(shí)別方法、基于機(jī)器學(xué)習(xí)的命名實(shí)體識(shí)別方法和基于深度學(xué)習(xí)的命名實(shí)體識(shí)別方法[3]。由于深度學(xué)習(xí)方法能夠自適應(yīng)地提取文本的特征信息,不依賴大量的特征工程和額外的語(yǔ)言學(xué)知識(shí),因此,深度學(xué)習(xí)被廣泛地應(yīng)用在命名實(shí)體識(shí)別任務(wù)中[4]。

    Georgescu等[5]通過基于命名實(shí)體識(shí)別的解決方案來增強(qiáng)和檢測(cè)物聯(lián)網(wǎng)系統(tǒng)中可能存在的漏洞。王通等[2]使用深度置信網(wǎng)絡(luò)對(duì)威脅情報(bào)知識(shí)圖譜實(shí)體識(shí)別子任務(wù)中的安全實(shí)體進(jìn)行有效識(shí)別。2003年,Hammerton[6]利用長(zhǎng)短記憶模型(LSTM)抽取句子的序列信息,并通過條件隨機(jī)場(chǎng)(CRF,conditional random fields)對(duì)命名實(shí)體的標(biāo)簽進(jìn)行分類。之后,很多命名實(shí)體識(shí)別方法是在LSTM-CRF網(wǎng)絡(luò)架構(gòu)下融入各種句子隱含的特征信息。Collobert等[7]在2011年使用窗口化方法的神經(jīng)網(wǎng)絡(luò)和基于句子的卷積神經(jīng)網(wǎng)絡(luò)方法對(duì)命名實(shí)體識(shí)別進(jìn)行了深入探索,在命名實(shí)體識(shí)別任務(wù)中取得了不錯(cuò)的效果。隨后,Santos等[8]使用字符級(jí)的特征向量作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,來增強(qiáng)CNN-CRF模型。Chiu等[9]在Hammerton和Collobert等的工作基礎(chǔ)上使用雙向LSTM并融合卷積神經(jīng)網(wǎng)絡(luò)來獲取詞的字符特征,與Collobert的模型相比,利用雙向LSTM模型打破固定窗口大小的限制。由于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在提取大的上下文特征信息時(shí)會(huì)丟掉一些信息,2017年,Strubell等[10]提出利用空洞卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行命名實(shí)體識(shí)別,實(shí)驗(yàn)表明該網(wǎng)絡(luò)能夠彌補(bǔ)傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的不足且進(jìn)一步提高網(wǎng)絡(luò)的訓(xùn)練速度。

    He[11]、Liu[12]、Li[13]等通過實(shí)驗(yàn)表明了基于字符的命名實(shí)體識(shí)別方法一般比基于詞的命名實(shí)體識(shí)別方法好。因此,秦婭等[14]針對(duì)傳統(tǒng)的命名實(shí)體識(shí)別方法難以識(shí)別網(wǎng)絡(luò)安全實(shí)體,提出一種基于特征模板的字符級(jí)CNN-BiLSTM-CRF網(wǎng)絡(luò)安全實(shí)體識(shí)別模型。除了基于字的命名實(shí)體識(shí)別,還有基于詞、融合字和詞特征信息的命名實(shí)體識(shí)別方法。Xu等[15]將字和詞的特征信息聯(lián)合訓(xùn)練進(jìn)行融合,其中,Zhang等[16]提出的Lattice LSTM中文命名實(shí)體識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)取得了較好的實(shí)體識(shí)別效果,該方法將傳統(tǒng)的LSTM單元改為網(wǎng)格LSTM,在字模型的基礎(chǔ)之上利用詞典,從而得到詞與詞序的特征信息,降低了分詞帶來的錯(cuò)誤傳播問題。

    注意力機(jī)制(attention mechanism)[17]被廣泛應(yīng)用于自然語(yǔ)言處理任務(wù)。Bahdanau等[18]將注意力機(jī)制和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,recurrent neural network)結(jié)合起來解決機(jī)器翻譯任務(wù),使注意力機(jī)制成功融入自然語(yǔ)言處理領(lǐng)域。Yin等[19]提出一種基于注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò),并成功地應(yīng)用于句子對(duì)建模任務(wù)。Wang等[20]在關(guān)系抽取任務(wù)中證明了注意力機(jī)制和卷積神經(jīng)網(wǎng)絡(luò)結(jié)合的有效性。

    與傳統(tǒng)領(lǐng)域的實(shí)體識(shí)別相比,網(wǎng)絡(luò)安全領(lǐng)域的實(shí)體識(shí)別發(fā)展比較緩慢,且仍存在以下幾方面的挑戰(zhàn)。

    1)深度學(xué)習(xí)依賴大規(guī)模的標(biāo)簽數(shù)據(jù),然而網(wǎng)絡(luò)安全領(lǐng)域中缺乏大規(guī)模高質(zhì)量的網(wǎng)絡(luò)安全實(shí)體標(biāo)注數(shù)據(jù)。

    2)網(wǎng)絡(luò)安全實(shí)體識(shí)別比較復(fù)雜,包含大量的多種混合安全實(shí)體,如“SQL注入”“80端口”。

    3)全文非一致問題。即在一篇文章、段落或者長(zhǎng)句子中相同的實(shí)體被賦予不同的類別標(biāo)簽。此外,存在實(shí)體縮寫情況,即第一次提到實(shí)體時(shí)給出全稱,在其后提到該實(shí)體時(shí),僅僅給出該實(shí)體的縮寫。

    針對(duì)上述挑戰(zhàn),本文提出一種殘差空洞卷積神經(jīng)網(wǎng)絡(luò)的安全實(shí)體識(shí)別方法。本文的主要貢獻(xiàn)如下。

    1)構(gòu)建并開放了一個(gè)網(wǎng)絡(luò)安全實(shí)體識(shí)別語(yǔ)料庫(kù),標(biāo)注了6類典型的網(wǎng)絡(luò)安全實(shí)體。

    2)提出一種基于BERT[21]語(yǔ)言模型的殘差空洞卷積神經(jīng)網(wǎng)絡(luò)命名實(shí)體識(shí)別方法,與基于注意力機(jī)制的BiLSTM-CRF網(wǎng)絡(luò)結(jié)構(gòu)相比,本文的模型可以接收句子的平行化輸入,降低了模型的訓(xùn)練時(shí)間。

    3)將殘差連接與空洞卷積神經(jīng)網(wǎng)絡(luò)模型相結(jié)合,構(gòu)建網(wǎng)絡(luò)安全實(shí)體識(shí)別模型,無須使用諸如詞性、依存句法等額外的特征信息。此外,以字符級(jí)特征向量作為模型的輸入,降低了分詞錯(cuò)誤導(dǎo)致的誤識(shí)別率。實(shí)驗(yàn)表明,本文提出的模型取得了比BiLSTM-CRF等模型好的安全實(shí)體識(shí)別效果。

    2 任務(wù)定義

    網(wǎng)絡(luò)安全實(shí)體識(shí)別任務(wù)可以看作特定領(lǐng)域中的命名實(shí)體識(shí)別,其相當(dāng)于自然語(yǔ)言處理中的序列標(biāo)注問題。由于網(wǎng)絡(luò)安全文本數(shù)據(jù)中的詞條存在歧義和安全實(shí)體構(gòu)成比較復(fù)雜,為了防止分詞帶來的錯(cuò)誤傳播問題,在字符層面進(jìn)行序列標(biāo)注是解決網(wǎng)絡(luò)安全實(shí)體識(shí)別的關(guān)鍵問題。

    本文以網(wǎng)絡(luò)安全文本中的句子為基本單元,針對(duì)其中的任意一個(gè)句子,xN],xi是句子s中的第i個(gè)字符。在BIO標(biāo)注方法[14]的指導(dǎo)下,識(shí)別句子s中的安全實(shí)體相當(dāng)于給出標(biāo)注序列。例如,句子s為“騰訊安全防御威脅情報(bào)中心檢測(cè)到一款通過驅(qū)動(dòng)人生系列軟件升級(jí)通道傳播的木馬突然爆發(fā)”,其對(duì)應(yīng)的序列標(biāo)注sL是“B-ORG I-ORG I-ORG I-ORG I-ORG I-ORG I-ORG I-ORG I-ORG I-ORG I-ORG I-ORG O O O O O O O B-SW I-SW I-SW I-SW O O O O O O O O O O O B-RT I-RT O O O O”。

    3 基于殘差空洞卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)安全實(shí)體識(shí)別模型

    針對(duì)網(wǎng)絡(luò)安全實(shí)體識(shí)別任務(wù),本文在BERT預(yù)訓(xùn)練模型的基礎(chǔ)上,提出基于殘差空洞卷積神經(jīng)網(wǎng)絡(luò)和CRF相結(jié)合的網(wǎng)絡(luò)安全實(shí)體識(shí)別模型BERT-RDCNN-CRF,如圖1所示。

    圖1 基于BERT-RDCNN-CRF的網(wǎng)絡(luò)安全實(shí)體識(shí)別模型Figure 1 Network security entity recognition model based on BERT-RDCNN-CRF

    該模型在BERT預(yù)訓(xùn)練模型的基礎(chǔ)上,采用RDCNN提取文本中的特征,為實(shí)體識(shí)別奠定基礎(chǔ),最后通過CRF層處理給出標(biāo)注序列。

    3.1 BERT預(yù)訓(xùn)練語(yǔ)言模型

    BERT模型能從大量的無標(biāo)簽數(shù)據(jù)中學(xué)習(xí)詞條或者字的前向和后向這種雙向表示,并且在學(xué)習(xí)詞條或者字的上下文表示過程中通過微調(diào)來解決詞或字的歧義問題。BERT模型的框架如圖2所示,其主要由輸入層、雙向的Transformer編碼層和輸出層組成。輸入層接收輸入句子的字嵌入(token embedding)、段嵌入(segment embedding)和位置嵌入(position embedding)拼接而成的一個(gè)特征矩陣。Transformer編碼層主要提取輸入層特征矩陣中重要的特征信息。輸出層通過一個(gè)前饋神經(jīng)網(wǎng)絡(luò)輸出每一個(gè)字的嵌入表示。

    圖2 微調(diào)BERT模型在單句標(biāo)注任務(wù)圖示Figure 2 Illustrations of fine-tuning BERT on single sentence tagging tasks

    本文以字為單位并將其作為BERT模型的輸入,對(duì)于長(zhǎng)度為n的句子s,其字嵌入表示為

    其中,⊕為拼接操作符。

    由于本文的輸入為文本句子,所以對(duì)于長(zhǎng)度為n的句子s,引入段嵌入作為句子對(duì)的區(qū)分界限。段嵌入全部初始化為0,如式(2)所示。

    在網(wǎng)絡(luò)安全實(shí)體識(shí)別任務(wù)中,字的位置特征是識(shí)別的關(guān)鍵特征。因此,BERT模型加入了位置嵌入,如式(3)~式(5)所示。

    其中,pos為位置,i為維度,dmodel為模型的輸出維度,為拼接操作符。

    最后,將字嵌入、段嵌入和位置嵌入拼接起來作為BERT模型的輸入,如式(6)所示。

    雙向Transformer編碼層通過“多頭”注意力機(jī)制(multi-head attention mechanism)擴(kuò)展了模型專注于不同位置的能力,增大注意力單元的“表示子空間”?!岸囝^”注意力機(jī)制的基礎(chǔ)是自注意力機(jī)制,自注意力機(jī)制主要計(jì)算句子中的每個(gè)字對(duì)于這個(gè)句子中所有字的相互關(guān)系,即將與該字相關(guān)聯(lián)的其他字的特征信息編碼進(jìn)該字的嵌入表示中。自注意力機(jī)制的計(jì)算如式(7)所示。

    其中,Q、K、V分別是自注意力機(jī)制中的查詢向量(query vector)、鍵向量(key vector)和值向量(value vector),計(jì)算方法如下。

    其中,WQ、WK、WV為權(quán)重矩陣,在模型開始訓(xùn)練時(shí)隨機(jī)初始化。

    由此,實(shí)現(xiàn)“多頭”注意力機(jī)制的計(jì)算如式(11)所示。

    其中,⊕為拼接操作符,Wo為形狀變換矩陣,是一個(gè)需要學(xué)習(xí)的參數(shù),headi=Attention,。

    最后,通過一個(gè)全連接層,輸出每個(gè)字的嵌入表示,其計(jì)算如式(12)所示。

    其中,W1、W2為權(quán)重矩陣,b1、b2為偏置,F(xiàn)FN為BERT模型的輸出結(jié)果。

    3.2 RDCNN -CRF命名實(shí)體識(shí)別模型

    本節(jié)在BERT模型的基礎(chǔ)上,提出網(wǎng)絡(luò)安全實(shí)體識(shí)別模型RDCNN-CRF,如圖3所示。RDCNN-CRF主要由輸入層、空洞卷積層和CRF層組成。輸入層接收輸入句子的特征矩陣;空洞卷積層利用卷積核對(duì)輸入的基本單位進(jìn)行卷積操作提取特征。RDCNN的輸入層將BERT模型的輸出構(gòu)建為一個(gè)特征矩陣傳入模型中;CRF層通過提取到的特征信息輸出字的命名實(shí)體標(biāo)簽分類結(jié)果。

    圖3 RDCNN-CRF模型框架Figure 3 Illustrations of RDCNN-CRF model framework

    在空洞卷積神經(jīng)網(wǎng)絡(luò)的卷積層中,給定長(zhǎng)度為h的卷積核,可以把句子分為,然后對(duì)每一個(gè)分量進(jìn)行卷積操作,通過式(13)得到卷積特征圖。

    其中,W為卷積核權(quán)重,b為偏置,δ>1為空洞卷積神經(jīng)網(wǎng)絡(luò)的膨脹系數(shù)。若δ=1,此時(shí)的空洞卷積神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)等價(jià)。

    由于對(duì)空洞卷積神經(jīng)網(wǎng)絡(luò)的卷積層進(jìn)行簡(jiǎn)單的線性堆疊會(huì)使網(wǎng)絡(luò)在訓(xùn)練過程中產(chǎn)生過擬合和退化問題,本文引用文獻(xiàn)[22]提出的殘差連接來防止退化問題,使用批正則化(BN,batch normalization)防止過擬合問題。殘差連接的殘差塊計(jì)算如式(15)所示。

    其中,x為輸入,F(xiàn)()表示殘差函數(shù)。

    最后,通過CRF層得到字的實(shí)體標(biāo)簽分類結(jié)果。CRF能夠考慮相鄰字的實(shí)體標(biāo)簽之間的關(guān)系,這符合字的實(shí)體標(biāo)簽關(guān)系之間并不獨(dú)立的特點(diǎn),且充分利用了字實(shí)體標(biāo)簽的上下文信息。而通過直接對(duì)殘差空洞卷積神經(jīng)網(wǎng)絡(luò)的輸出獲取其對(duì)應(yīng)字的實(shí)體標(biāo)簽的結(jié)果取決于數(shù)據(jù)的性質(zhì)和質(zhì)量。CRF層的具體算法如下。

    首先,定義一個(gè)狀態(tài)轉(zhuǎn)移矩陣A,這里的Ai,j表示標(biāo)簽i轉(zhuǎn)移到標(biāo)簽j的得分,該得分會(huì)隨著模型的訓(xùn)練而更新。另外,定義分值矩陣為空洞卷積層的輸出分值,其中,[fθ]i,t是第t個(gè)字、第i個(gè)標(biāo)簽的RDCNN的輸出分值,θ是RDCNN的參數(shù)。針對(duì)句子,N為句子的長(zhǎng)度。定義為整個(gè)RDCNN-CRF模型需要學(xué)習(xí)的參數(shù)。這樣,一個(gè)句子在給定標(biāo)簽序列的總得分計(jì)算為

    模型訓(xùn)練結(jié)束后,本文采用維特比算法來找到最佳標(biāo)簽序列。

    3.3 模型訓(xùn)練過程

    本文基于Tensorflow深度學(xué)習(xí)框架實(shí)現(xiàn)所提出的網(wǎng)絡(luò)安全實(shí)體識(shí)別方法,具體訓(xùn)練過程如下。

    本文提出的安全實(shí)體模型在訓(xùn)練的過程中先對(duì)BERT、RDCNN和CRF模型進(jìn)行初始化,然后BERT對(duì)字進(jìn)行編碼,隨后RDCNN進(jìn)行解碼提取出句子局部特征信息,接著CRF模型計(jì)算出字的安全實(shí)體標(biāo)簽;最后將錯(cuò)誤向前傳播更新各個(gè)模型的參數(shù)。

    算法1BERT-RDCNN-CRF

    輸入

    訓(xùn)練數(shù)據(jù)集T=(X,Y),其中,X,Y∈?V×n,|V|是數(shù)據(jù)集的大小,n是句子最大長(zhǎng)度;

    輸出

    實(shí)體標(biāo)簽序列;

    1)初始化BERT,RDCNN和CRF;

    2)fori=0,1,2,do

    3)for batch do

    4)BERT和RDCNN模型前向傳播;

    5)CRF前向傳播和后向傳播,計(jì)算出序列的全局似然概率;

    6)對(duì)RDCNN和BERT模型進(jìn)行后向傳播;

    7)更新BERT,RDCNN,CRF模型的參數(shù);

    8)end for

    9)end for

    4 實(shí)驗(yàn)與結(jié)果分析

    本節(jié)將所提出的方法在構(gòu)建的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。在本文的實(shí)驗(yàn)中,字向量均采用Google預(yù)訓(xùn)練好的BERT中文字向量。BERT模型采用Fine-tuning策略,即模型參數(shù)采用Google預(yù)訓(xùn)練好的參數(shù)進(jìn)行初始化,并可以在網(wǎng)絡(luò)訓(xùn)練過程中自適應(yīng)地調(diào)整BERT模型的參數(shù)。

    4.1 實(shí)驗(yàn)數(shù)據(jù)

    實(shí)驗(yàn)數(shù)據(jù)主要來自烏云漏洞數(shù)據(jù)庫(kù)、Freebuf網(wǎng)站、國(guó)家漏洞庫(kù)等主流網(wǎng)絡(luò)安全平臺(tái)的公開數(shù)據(jù)。網(wǎng)絡(luò)安全實(shí)體主要有6種類型,分別是人名(PER,person)、地名(LOC,location)、組織名(ORG,organization)、軟件名(SW,software)、網(wǎng)絡(luò)安全相關(guān)術(shù)語(yǔ)(RT,relevant term)和漏洞編號(hào)(VUL_ID,vulnerability ID)。網(wǎng)絡(luò)安全實(shí)體數(shù)據(jù)均采用BIO命名實(shí)體標(biāo)注策略。數(shù)據(jù)集的具體統(tǒng)計(jì)信息如表1所示。實(shí)驗(yàn)中將標(biāo)注好的數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,分別占總數(shù)據(jù)集規(guī)模的70%、10%和20%。詳見Github官網(wǎng)。

    表1 數(shù)據(jù)集的統(tǒng)計(jì)信息Table 1 Statistic of datasets

    本文采用精確率(P,Precision)、召回率(R,Recall)、F1值(F1-measure)和準(zhǔn)確率(Accuracy)作為評(píng)價(jià)標(biāo)準(zhǔn)。

    4.2 對(duì)比實(shí)驗(yàn)

    為了驗(yàn)證本文提出的網(wǎng)絡(luò)安全實(shí)體識(shí)別方法BERT-RDCNN-CRF的有效性,對(duì)12種模型進(jìn)行對(duì)比實(shí)驗(yàn)。其中,前6組實(shí)驗(yàn)的詞向量和字符向量是基于word2vec語(yǔ)言模型訓(xùn)練的,后 6組基于BERT預(yù)訓(xùn)練語(yǔ)言模型。實(shí)驗(yàn)代碼可到Github官網(wǎng)下載。

    1)CRF:文獻(xiàn)[23]提出使用CRF對(duì)序列數(shù)據(jù)進(jìn)行標(biāo)注。

    2)LSTM:文獻(xiàn)[24]提出使用LSTM進(jìn)行命名實(shí)體識(shí)別的模型。

    3)LSTM-CRF:文獻(xiàn)[25]提出結(jié)合CRF的LSTM命名實(shí)體識(shí)別模型。

    4)BiLSTM-CRF:文獻(xiàn)[26]提出考慮詞上下文的雙向LSTM結(jié)合CRF進(jìn)行命名實(shí)體識(shí)別模型。

    5)CNN-BiLSTM-CRF:文獻(xiàn)[27]提出使用CNN學(xué)習(xí)詞條的字符級(jí)特征信息,并將其和詞拼接在一起作為BiLSTM的輸入進(jìn)行命名實(shí)體識(shí)別的模型。

    6)FT-CNN-BiLSTM-CRF:文獻(xiàn)[14]提出結(jié)合特征模板的網(wǎng)絡(luò)安全實(shí)體識(shí)別模型。

    7)BERT-CRF:在文獻(xiàn)[21]中模型的基礎(chǔ)上結(jié)合CRF進(jìn)行命名實(shí)體識(shí)別的模型。

    8)BERT-LSTM-CRF:在文獻(xiàn)[25]的基礎(chǔ)上將語(yǔ)言模型使用BERT代替。

    9)BERT-BiLSTM-CRF:在文獻(xiàn)[26]的基礎(chǔ)上將語(yǔ)言模型使用BERT代替。

    10)BERT-GRU-CRF:在BERT的基礎(chǔ)上,使用普通GRU與CRF結(jié)合的命名實(shí)體識(shí)別模型。

    11)BERT-BiGRU-CRF:在BERT的基礎(chǔ)上,使用普通雙向GRU與CRF結(jié)合的命名實(shí)體識(shí)別模型。

    12)BERT-RDCNN-CRF:本文提出的識(shí)別方法彌補(bǔ)了CNN提取特征信息有限,并使用殘差連接防止模型在訓(xùn)練的過程中出現(xiàn)過擬合的情況。

    4.3 實(shí)驗(yàn)?zāi)P蛥?shù)

    在實(shí)驗(yàn)中,使用多種窗口卷積核對(duì)BERT的輸出矩陣進(jìn)行卷積操作。卷積核函數(shù)為rectified linear units,激活函數(shù)為L(zhǎng)eaky ReLU。模型訓(xùn)練過程中采用Zeiler[28]提出的Adadelta更新規(guī)則,其他參數(shù)見表2。

    表2 實(shí)驗(yàn)參數(shù)設(shè)置Table 2 Hyper parameters of experiment

    4.4 整體對(duì)比實(shí)驗(yàn)及分析

    本文將12組實(shí)驗(yàn)在網(wǎng)絡(luò)安全實(shí)體識(shí)別數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),分析網(wǎng)絡(luò)安全實(shí)體識(shí)別。表3給出了12組實(shí)驗(yàn)在網(wǎng)絡(luò)安全實(shí)體識(shí)別數(shù)據(jù)集上總體的實(shí)體識(shí)別準(zhǔn)確率、精確率、召回率和F1值。

    從表3結(jié)果可以看出,整體上本文提出的方法在網(wǎng)絡(luò)安全實(shí)體數(shù)據(jù)集上取得了不錯(cuò)的實(shí)體標(biāo)簽分類效果。其中,BERT-CRF、BERT-LSTMCRF、BERT-BiLSTM-CRF、BERT-GRU和BERTBiGRU-CRF模型在網(wǎng)絡(luò)安全實(shí)體數(shù)據(jù)集中的命名實(shí)體識(shí)別準(zhǔn)確率比傳統(tǒng)基于特征的CRF命名實(shí)體識(shí)別模型、LSTM模型、BiLSTM模型、CNN-BiLSTM模型和基于特征模板的FT-CNNBiLSTM模型好。

    對(duì)比文獻(xiàn)[26]提出的CNN-BiLSTM-CRF模型和文獻(xiàn)[13]提出的FT-CNN-BiLSTM-CRF模型可以看出,考慮了字特征信息的BERT-RDCNNCRF模型在網(wǎng)絡(luò)安全實(shí)體數(shù)據(jù)集上的實(shí)體識(shí)別準(zhǔn)確率相比考慮了詞特征信息和字特征信息的模型的準(zhǔn)確率高。這是因?yàn)榫W(wǎng)絡(luò)安全的實(shí)體是由字母、數(shù)字和中文構(gòu)成的,在分詞的過程中會(huì)產(chǎn)生大量的分詞錯(cuò)誤,這種錯(cuò)誤會(huì)隨著模型的訓(xùn)練往后傳播,影響模型最后對(duì)實(shí)體標(biāo)簽的分類效果。

    從表3的結(jié)果還可以看出,模型BERTCRF的F1值相比不使用BERT模型的實(shí)體識(shí)別模型沒有提高,但是加了能夠提取文本的句法和表層特征的序列模型后,其F1值有較大的提高。說明安全實(shí)體識(shí)別模型在含有豐富的語(yǔ)義特征基礎(chǔ)上利用文本的句法和表層特征能提高實(shí)體識(shí)別性能。

    表3 不同模型的網(wǎng)絡(luò)安全實(shí)體識(shí)別對(duì)比結(jié)果Table 3 Comparison of cyber security entity recognition results of different models

    為了進(jìn)一步說明基于BERT預(yù)訓(xùn)練模型的LSTM、BiLSTM、GRU和BiGRU模型與本文提出的方法在網(wǎng)絡(luò)安全實(shí)體識(shí)別任務(wù)中的實(shí)體識(shí)別效果,本文進(jìn)一步做了對(duì)比實(shí)驗(yàn)。從表3的結(jié)果可以看出,在準(zhǔn)確率和精確率方面,本文提出的方法比其他基于BERT模型的網(wǎng)絡(luò)安全實(shí)體識(shí)別模型好,說明本文提出的方法在網(wǎng)絡(luò)安全實(shí)體識(shí)別任務(wù)中的有效性,并且在使用BERT模型的前提下,單向的LSTM模型和GRU模型比雙向的LSTM模型和GRU模型在網(wǎng)絡(luò)安全實(shí)體識(shí)別任務(wù)中效果更好。然而,從召回率和F1值的結(jié)果來看,BERT- LSTM-CRF均取得了最好的結(jié)果,分別是91.96%和90.10%。與本文提出的方法在召回率(91.07%)和F1值(89.88%)上相比,分別提升了0.89%和0.22%,說明本文提出的方法在這兩個(gè)評(píng)價(jià)指標(biāo)上與能夠提取字的序列特征的模型相比差距不大。

    4.5 6類安全實(shí)體識(shí)別對(duì)比實(shí)驗(yàn)及分析

    為了進(jìn)一步比較基于BERT模型的安全實(shí)體識(shí)別模型在不同安全實(shí)體上的識(shí)別效果,本文計(jì)算出這6種安全實(shí)體的精確率、召回率和F1值,其中精確率如圖4所示。

    從圖4可以看出,BERT-CRF模型在SW和VUL_ID兩類安全實(shí)體上的實(shí)體識(shí)別效果非常差。所有實(shí)體識(shí)別模型在安全實(shí)體SW上的精確度比較低,最高的精確率才50.26%,其中BERT-LSTM-CRF模型、BERT-GRU-CRF模型和BERT-RDCNN-CRF模型的精確度相近,說明這些模型不擅長(zhǎng)識(shí)別安全實(shí)體SW,這是因?yàn)橐环矫嬖搶?shí)體在安全實(shí)體數(shù)據(jù)集中的數(shù)量較少,另一方面這類實(shí)體通常由數(shù)字、字母和漢字組成,構(gòu)成非常復(fù)雜,特征不好提取。

    6種安全實(shí)體識(shí)別模型在安全實(shí)體LOC、ORG和PER上的實(shí)體識(shí)別效果相差無幾且精確率較高,說明6種模型能夠?qū)OC、ORG和PER這種簡(jiǎn)單的實(shí)體特征信息進(jìn)行充分提取。對(duì)于安全實(shí)體RT,BERT-CRF模型的精確率最低,本文提出的方法比BERT-LSTM模型的精確率高0.52%,說明無論是使用改進(jìn)的卷積網(wǎng)絡(luò)還是使用能夠存儲(chǔ)句子序列信息的LSTM,在安全實(shí)體RT上都能取得較好的精確率。在安全實(shí)體VUL_ID的結(jié)果中,BERT-GRU-CRF模型取得了最高的精確率,比BERT-LSTM-CRF模型提升了0.28%,比本文提出的方法提升了4.13%,說明能夠存儲(chǔ)句子序列信息的LSTM模型和GRU模型在安全實(shí)體VUL_ID的精確率上更有優(yōu)勢(shì)。

    從圖4中還可以看出,使用雙向BiLSTM模型和雙向BiGRU模型的精確率比使用單向的LSTM模型和GRU模型的精確率低,這是因?yàn)槟P偷膹?fù)雜度增加會(huì)產(chǎn)生過擬合問題,損失函數(shù)的損失值在模型訓(xùn)練過程中很難下降。為了更進(jìn)一步比較6種模型的安全實(shí)體識(shí)別性能,對(duì)不同模型在不同安全實(shí)體上的召回率進(jìn)行對(duì)比,如圖5所示。

    從圖5的結(jié)果可以看出,6種模型在6類安全實(shí)體上的召回率和圖4的結(jié)果差不多。值得注意的是,BERT-LSTM-CRF模型和BERT-GRUCRF模型比其他模型取得了更好的召回率,這說明在召回率這一評(píng)價(jià)指標(biāo)上,這兩種模型能夠召回更多的安全實(shí)體。

    圖4 不同模型在不同安全實(shí)體上的精確率對(duì)比Figure 4 Comparison of accuracy of different models on different security entities

    圖5 不同模型在不同安全實(shí)體上的召回率對(duì)比Figure 5 Comparison of recall of different models on different security entities

    為了平衡精確率和召回率,不同模型的F1值如圖6所示。從圖6中可以看出,BERT-CRF模型、BERT-BiLSTM-CRF模型和BERT-BiGRUCRF模型對(duì)于復(fù)雜的安全實(shí)體RT、SW和VUL_ID的識(shí)別效果不是很好。對(duì)于安全實(shí)體PER的識(shí)別效果這6種模型相差無幾,說明這6種模型都適合用來識(shí)別PER這樣的安全實(shí)體。對(duì)于安全實(shí)體LOC的識(shí)別效果,BERT-RDCNN- CRF模型、BERT-LSTM-CRF模型、BERT-GRU- CRF模型和BERT-BiGRU-CRF模型的F1值比BERT-CRF模型和BERT- BiLSTM-CRF的F1值有不同程度的提升。對(duì)于安全實(shí)體ORG,BERT-RDCNN-CRF模型和BERT-LSTM-CRF模型的F1值比其他模型的F1值有不同程度的提升。以上結(jié)果表明,本文提出的方法在各種安全實(shí)體識(shí)別任務(wù)中的魯棒性和有效性。

    圖6 不同模型在不同安全實(shí)體上的F1值對(duì)比Figure 6 Comparison of F1-measure of different models on different security entities

    4.6 參數(shù)調(diào)整分析

    本文提出的安全實(shí)體識(shí)別方法和其他傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)方法一樣,通過最小化損失函數(shù)來進(jìn)一步更新模型的參數(shù)。而損失值在模型訓(xùn)練過程中的變化情況表示該模型在訓(xùn)練過程中是否學(xué)習(xí)和是否穩(wěn)定等。進(jìn)一步分析模型在訓(xùn)練過程中損失值的變化情況如圖7所示。

    從圖7可以看出,模型在整個(gè)訓(xùn)練過程中損失值是下降的,說明模型能夠?qū)W習(xí)網(wǎng)絡(luò)安全實(shí)體的相關(guān)特征信息。此外,由于本文提出的方法參數(shù)太多并且損失值整體上下降,進(jìn)一步表明本文模型在訓(xùn)練過程中具有魯棒性。從圖7中還可以看出,損失值的下降曲線并不是平滑的,這主要與最小化損失函數(shù)的優(yōu)化算法和學(xué)習(xí)率的設(shè)置有關(guān),從整體上看依然能夠說明本文所提方法的魯棒性。

    圖7 損失值曲線Figure 7 Loss value curves during training on network security entity datasets

    4.7 實(shí)例分析

    為了進(jìn)一步分析本文提出方法的實(shí)用性,從網(wǎng)絡(luò)安全實(shí)體識(shí)別數(shù)據(jù)集中抽取一些典型句子的實(shí)體標(biāo)簽分類結(jié)果進(jìn)行分析。經(jīng)典句型分析如表4所示。

    從表4中可以看出,對(duì)于句子1這種結(jié)構(gòu)簡(jiǎn)單的實(shí)體識(shí)別,本文提出的方法能正確識(shí)別出實(shí)體的標(biāo)簽。在句子2中,本文提出的方法除了準(zhǔn)確識(shí)別出安全實(shí)體PER和RT,還識(shí)別出了安全數(shù)據(jù)測(cè)試集中沒有標(biāo)注的ORG實(shí)體類型。另外,在句子3和句子7中,本文提出的方法均能準(zhǔn)確識(shí)別出安全數(shù)據(jù)測(cè)試集中沒有標(biāo)注的ORG和SW實(shí)體類型,說明本文提出的方法具有識(shí)別與訓(xùn)練集中相似實(shí)體的新實(shí)體的能力。對(duì)于句子8和句子9這種VUL_ID類型的英文字母和數(shù)字構(gòu)成的實(shí)體,不管該實(shí)體是單獨(dú)出現(xiàn)在句子中還是成對(duì)出現(xiàn)在句子中,本文提出的方法均能準(zhǔn)確識(shí)別出該類型的實(shí)體。此外,諸如“暗云Ⅲ”這種漢字加羅馬字符的安全實(shí)體,本文提出的方法均能準(zhǔn)確將其識(shí)別出來?!癐P地址”這類英文字母加漢字構(gòu)成的實(shí)體也能被準(zhǔn)確識(shí)別出來,如句子5所示。

    表4 經(jīng)典句型例子分析Table 4 Analysis of typical sentences

    然而,在句子3中,前一個(gè)實(shí)體“芯片”被準(zhǔn)確識(shí)別出,而后一個(gè)實(shí)體“芯片”卻沒有被準(zhǔn)確識(shí)別出來,Android卻被誤識(shí)別為ORG實(shí)體類型,這可能是因?yàn)锳ndroid前面有兩個(gè)ORG實(shí)體類型,算法在提取上下文信息的時(shí)候誤認(rèn)為android也是ORG類型的實(shí)體。

    除了表4展示的這些典型例子,在實(shí)驗(yàn)過程中,對(duì)于較長(zhǎng)的ORG這種實(shí)體類型算法,往往不能準(zhǔn)確將其識(shí)別。換句話說,對(duì)于名稱較長(zhǎng)的實(shí)體,不管是構(gòu)成簡(jiǎn)單的還是構(gòu)成復(fù)雜的模型往往不能將其準(zhǔn)確識(shí)別出來。所以,本文提出的方法更加適用于安全實(shí)體中名稱不是很長(zhǎng)和實(shí)體構(gòu)成相對(duì)規(guī)律的安全實(shí)體。

    5 結(jié)束語(yǔ)

    針對(duì)開放網(wǎng)絡(luò)文本數(shù)據(jù)中的安全實(shí)體構(gòu)成非常復(fù)雜的問題,本文提出了一種基于殘差空洞卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)安全實(shí)體識(shí)別方法。使用BERT模型對(duì)字進(jìn)行向量化表示,進(jìn)一步結(jié)合空洞卷積神經(jīng)網(wǎng)絡(luò)和CRF準(zhǔn)確地識(shí)別網(wǎng)絡(luò)安全實(shí)體。在網(wǎng)絡(luò)安全實(shí)體識(shí)別數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文提出的基于殘差空洞卷積神經(jīng)網(wǎng)絡(luò)的方法在準(zhǔn)確率和精確率方面優(yōu)于許多已有的實(shí)體識(shí)別方法。

    通過分析經(jīng)典句型可以看出,本文提出的方法在某些安全實(shí)體類型的識(shí)別上是存在不足的,仍然不能準(zhǔn)確識(shí)別出一些安全實(shí)體。在下一步的工作中,考慮從網(wǎng)上爬取大量的網(wǎng)絡(luò)安全數(shù)據(jù),使用表示能力較強(qiáng)的語(yǔ)言模型訓(xùn)練出網(wǎng)絡(luò)安全領(lǐng)域的字嵌入。并且,針對(duì)網(wǎng)絡(luò)安全數(shù)據(jù)集中安全實(shí)體的數(shù)量不平衡問題,對(duì)相應(yīng)的安全實(shí)體數(shù)量進(jìn)行補(bǔ)充或者在模型訓(xùn)練的過程中采用解決數(shù)據(jù)不平衡的訓(xùn)練技巧。此外,進(jìn)一步提高較長(zhǎng)的安全實(shí)體的識(shí)別準(zhǔn)確率。

    猜你喜歡
    命名實(shí)體卷積
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    命名——助力有機(jī)化學(xué)的學(xué)習(xí)
    前海自貿(mào)區(qū):金融服務(wù)實(shí)體
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    有一種男人以“暖”命名
    東方女性(2018年3期)2018-04-16 15:30:02
    為一條河命名——在白河源
    實(shí)體的可感部分與實(shí)體——兼論亞里士多德分析實(shí)體的兩種模式
    兩會(huì)進(jìn)行時(shí):緊扣實(shí)體經(jīng)濟(jì)“釘釘子”
    振興實(shí)體經(jīng)濟(jì)地方如何“釘釘子”
    夜夜看夜夜爽夜夜摸| 亚洲综合精品二区| 蜜桃久久精品国产亚洲av| 日韩成人伦理影院| freevideosex欧美| 久久久精品欧美日韩精品| 免费观看的影片在线观看| 狠狠精品人妻久久久久久综合| 午夜免费观看性视频| 国产精品久久久久久久电影| 九九久久精品国产亚洲av麻豆| 狂野欧美激情性xxxx在线观看| 欧美日韩国产mv在线观看视频 | 狂野欧美激情性xxxx在线观看| 亚洲精品日本国产第一区| 亚洲图色成人| .国产精品久久| 黄片wwwwww| av在线天堂中文字幕| 国产淫片久久久久久久久| 国产亚洲av片在线观看秒播厂 | 亚洲人成网站在线播| 午夜免费观看性视频| 麻豆久久精品国产亚洲av| 色综合亚洲欧美另类图片| 国产av国产精品国产| a级毛色黄片| 国产大屁股一区二区在线视频| 大香蕉久久网| 亚洲国产av新网站| 午夜免费激情av| 国产久久久一区二区三区| 麻豆成人av视频| 国产黄色免费在线视频| av在线天堂中文字幕| 久久精品国产亚洲网站| 人妻一区二区av| 男人舔奶头视频| 麻豆国产97在线/欧美| 成年人午夜在线观看视频 | av免费观看日本| 偷拍熟女少妇极品色| 少妇人妻精品综合一区二区| 亚洲欧美成人精品一区二区| 亚洲乱码一区二区免费版| or卡值多少钱| 成年免费大片在线观看| 日本熟妇午夜| 九九久久精品国产亚洲av麻豆| 国产成人a∨麻豆精品| 欧美成人精品欧美一级黄| 国产午夜精品论理片| 中文字幕av成人在线电影| 一级片'在线观看视频| 春色校园在线视频观看| 一级毛片aaaaaa免费看小| 国产成人精品久久久久久| 日韩精品有码人妻一区| 国产黄片视频在线免费观看| 青春草国产在线视频| 国产淫语在线视频| 婷婷色麻豆天堂久久| 2018国产大陆天天弄谢| 久久精品国产亚洲网站| 国产毛片a区久久久久| 国产黄色免费在线视频| 亚洲精品久久午夜乱码| 亚洲精品乱码久久久v下载方式| 十八禁网站网址无遮挡 | 国产在线一区二区三区精| 国产精品一区二区三区四区免费观看| 99热网站在线观看| 久久久久网色| 欧美日本视频| 国产午夜精品久久久久久一区二区三区| 久久久精品94久久精品| 国产精品蜜桃在线观看| 欧美区成人在线视频| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产麻豆成人av免费视频| 欧美变态另类bdsm刘玥| 国产一区二区三区av在线| 美女xxoo啪啪120秒动态图| 日韩一区二区三区影片| 网址你懂的国产日韩在线| 久久精品夜夜夜夜夜久久蜜豆| 一个人观看的视频www高清免费观看| 嘟嘟电影网在线观看| 天天一区二区日本电影三级| 又大又黄又爽视频免费| 久久久色成人| 免费看不卡的av| 汤姆久久久久久久影院中文字幕 | 中文字幕久久专区| 国产精品国产三级专区第一集| 舔av片在线| 啦啦啦啦在线视频资源| 国产成人freesex在线| 成人国产麻豆网| 亚洲婷婷狠狠爱综合网| 中文字幕久久专区| 精品人妻视频免费看| 69av精品久久久久久| 免费黄网站久久成人精品| h日本视频在线播放| 又大又黄又爽视频免费| 国产片特级美女逼逼视频| 精品久久久久久久人妻蜜臀av| 免费高清在线观看视频在线观看| 国产综合精华液| 欧美极品一区二区三区四区| 熟女电影av网| 一级毛片电影观看| 晚上一个人看的免费电影| 黄色配什么色好看| 亚州av有码| 乱系列少妇在线播放| 人人妻人人看人人澡| 国产黄频视频在线观看| 亚洲精品影视一区二区三区av| 久久久久久久久久久丰满| 免费观看在线日韩| 淫秽高清视频在线观看| 99热这里只有精品一区| 国产精品综合久久久久久久免费| 女人十人毛片免费观看3o分钟| 欧美极品一区二区三区四区| 国产女主播在线喷水免费视频网站 | 日韩 亚洲 欧美在线| 免费看不卡的av| 国产 一区精品| 在线观看免费高清a一片| 男女那种视频在线观看| 国产精品福利在线免费观看| 亚洲欧美清纯卡通| kizo精华| av免费在线看不卡| 免费看av在线观看网站| 国产熟女欧美一区二区| 狂野欧美激情性xxxx在线观看| 国产精品久久久久久久久免| 天堂中文最新版在线下载 | 91精品伊人久久大香线蕉| 天堂影院成人在线观看| 亚洲精品日韩在线中文字幕| 97热精品久久久久久| 亚洲在线自拍视频| 免费观看a级毛片全部| 18禁在线无遮挡免费观看视频| 日本一本二区三区精品| av播播在线观看一区| 亚洲欧美日韩卡通动漫| 久久这里有精品视频免费| 国产三级在线视频| 午夜免费激情av| 国产成人a∨麻豆精品| 国产乱人偷精品视频| 91久久精品电影网| 美女内射精品一级片tv| 国产亚洲精品av在线| 亚洲欧洲国产日韩| 国产黄色视频一区二区在线观看| 网址你懂的国产日韩在线| 国产精品一区二区三区四区久久| 久久草成人影院| 国产精品久久久久久久电影| 偷拍熟女少妇极品色| 99久久人妻综合| 麻豆久久精品国产亚洲av| 免费大片18禁| 国产一区有黄有色的免费视频 | av女优亚洲男人天堂| 国产精品99久久久久久久久| 日韩三级伦理在线观看| 亚洲精品456在线播放app| 国产av码专区亚洲av| 综合色av麻豆| 天堂影院成人在线观看| 少妇人妻一区二区三区视频| 国产精品一区www在线观看| 伊人久久精品亚洲午夜| 2018国产大陆天天弄谢| 精品久久久久久成人av| 99视频精品全部免费 在线| 亚洲内射少妇av| 如何舔出高潮| 欧美日韩一区二区视频在线观看视频在线 | 国产大屁股一区二区在线视频| 久久久久国产网址| 看非洲黑人一级黄片| 淫秽高清视频在线观看| 久久精品久久久久久久性| 青春草视频在线免费观看| 三级男女做爰猛烈吃奶摸视频| 国产午夜精品久久久久久一区二区三区| 国产一区二区亚洲精品在线观看| 欧美xxxx性猛交bbbb| 精品久久久噜噜| av福利片在线观看| 国产精品久久久久久精品电影| 搡老妇女老女人老熟妇| 精品久久久久久成人av| 免费av不卡在线播放| 亚洲精品成人久久久久久| 嫩草影院精品99| 成年人午夜在线观看视频 | av在线蜜桃| 久久久成人免费电影| 少妇裸体淫交视频免费看高清| 人妻少妇偷人精品九色| 国产又色又爽无遮挡免| 亚洲成人精品中文字幕电影| 欧美日韩视频高清一区二区三区二| 最近的中文字幕免费完整| 亚洲,欧美,日韩| 亚洲精品乱久久久久久| 国产精品蜜桃在线观看| 久久久午夜欧美精品| 国产免费视频播放在线视频 | 深爱激情五月婷婷| 久久这里有精品视频免费| 在线观看一区二区三区| 成人av在线播放网站| 国产一区二区三区综合在线观看 | 精品久久久久久久久亚洲| 99久久精品国产国产毛片| 中国美白少妇内射xxxbb| 亚洲国产精品专区欧美| 又爽又黄无遮挡网站| 国产精品久久久久久久电影| 久久韩国三级中文字幕| 国产伦理片在线播放av一区| 中文精品一卡2卡3卡4更新| 欧美丝袜亚洲另类| 国内精品美女久久久久久| av在线播放精品| 男女那种视频在线观看| 亚洲国产av新网站| 国产精品蜜桃在线观看| 亚洲精品自拍成人| 日韩欧美精品免费久久| 少妇高潮的动态图| 日本免费a在线| 国产成人a区在线观看| 久久99蜜桃精品久久| 99久国产av精品国产电影| 亚洲人成网站在线观看播放| 爱豆传媒免费全集在线观看| 直男gayav资源| 日韩精品青青久久久久久| 亚洲高清免费不卡视频| 少妇熟女aⅴ在线视频| 国产精品三级大全| 国产在视频线在精品| av播播在线观看一区| 精品欧美国产一区二区三| 伊人久久精品亚洲午夜| av在线天堂中文字幕| 黄色欧美视频在线观看| 色吧在线观看| 成年av动漫网址| 日日啪夜夜撸| 亚洲国产精品成人久久小说| 精品国产露脸久久av麻豆 | 亚洲av中文字字幕乱码综合| 亚洲国产欧美在线一区| 老女人水多毛片| 国产精品无大码| 亚洲欧美中文字幕日韩二区| 国产熟女欧美一区二区| 好男人视频免费观看在线| 日韩在线高清观看一区二区三区| 麻豆国产97在线/欧美| 亚洲精品一区蜜桃| 欧美日韩精品成人综合77777| 简卡轻食公司| 免费观看在线日韩| 国语对白做爰xxxⅹ性视频网站| 亚洲性久久影院| 国产欧美另类精品又又久久亚洲欧美| av黄色大香蕉| 最新中文字幕久久久久| 人妻系列 视频| 亚洲av日韩在线播放| 毛片一级片免费看久久久久| 日韩国内少妇激情av| 激情五月婷婷亚洲| 联通29元200g的流量卡| 97超视频在线观看视频| 久久精品国产鲁丝片午夜精品| 国产真实伦视频高清在线观看| 男插女下体视频免费在线播放| 欧美+日韩+精品| 一边亲一边摸免费视频| 日韩欧美国产在线观看| 久久久成人免费电影| 久久草成人影院| 国产黄色免费在线视频| 国产麻豆成人av免费视频| 国产午夜福利久久久久久| 丝袜美腿在线中文| 国产成人精品福利久久| 欧美一区二区亚洲| 欧美高清成人免费视频www| 国产精品人妻久久久影院| 最近手机中文字幕大全| 少妇高潮的动态图| 女人十人毛片免费观看3o分钟| 日韩成人伦理影院| 丰满乱子伦码专区| 亚洲人成网站在线观看播放| 97在线视频观看| 九九爱精品视频在线观看| av在线观看视频网站免费| 国内精品宾馆在线| 寂寞人妻少妇视频99o| 国产黄色小视频在线观看| 黄色欧美视频在线观看| 在线免费观看的www视频| av线在线观看网站| 亚洲伊人久久精品综合| 蜜桃久久精品国产亚洲av| 蜜臀久久99精品久久宅男| 亚洲国产最新在线播放| 网址你懂的国产日韩在线| 搡老妇女老女人老熟妇| 久久亚洲国产成人精品v| 麻豆国产97在线/欧美| 国产成人精品一,二区| 亚洲怡红院男人天堂| 99热这里只有是精品在线观看| 欧美精品一区二区大全| 熟女人妻精品中文字幕| 亚洲激情五月婷婷啪啪| 国产中年淑女户外野战色| 国产爱豆传媒在线观看| 国产美女午夜福利| 亚洲精品日韩在线中文字幕| 免费在线观看成人毛片| 久久99精品国语久久久| 国产69精品久久久久777片| 中文字幕av成人在线电影| 成年人午夜在线观看视频 | 色播亚洲综合网| 日韩,欧美,国产一区二区三区| 超碰av人人做人人爽久久| 少妇的逼水好多| 国产一区二区亚洲精品在线观看| 波多野结衣巨乳人妻| 麻豆国产97在线/欧美| 日韩视频在线欧美| 国产成人精品婷婷| 欧美97在线视频| 亚洲一级一片aⅴ在线观看| 高清毛片免费看| 亚洲精品日韩av片在线观看| 一级av片app| 久久99精品国语久久久| 亚洲成人一二三区av| 国产三级在线视频| 久热久热在线精品观看| 美女大奶头视频| 建设人人有责人人尽责人人享有的 | 成人二区视频| 亚洲熟女精品中文字幕| 一级av片app| 精品人妻视频免费看| 女人被狂操c到高潮| 国产午夜精品久久久久久一区二区三区| 三级国产精品片| 亚洲真实伦在线观看| 久久精品国产亚洲网站| 日韩欧美精品v在线| a级毛色黄片| 在线观看av片永久免费下载| 狂野欧美白嫩少妇大欣赏| 男女边摸边吃奶| 能在线免费观看的黄片| freevideosex欧美| 又爽又黄无遮挡网站| 国产精品无大码| 成人二区视频| 国内揄拍国产精品人妻在线| 蜜桃久久精品国产亚洲av| 热99在线观看视频| 国产 一区 欧美 日韩| 亚洲精品乱久久久久久| 免费人成在线观看视频色| 午夜激情久久久久久久| av专区在线播放| 色综合站精品国产| 亚洲欧美成人精品一区二区| 一个人免费在线观看电影| 久久精品国产亚洲av涩爱| 欧美日韩视频高清一区二区三区二| 欧美+日韩+精品| 亚洲精品久久午夜乱码| 亚洲经典国产精华液单| 能在线免费看毛片的网站| 一级毛片黄色毛片免费观看视频| 成年人午夜在线观看视频 | 最近手机中文字幕大全| 成人毛片60女人毛片免费| 精品人妻熟女av久视频| freevideosex欧美| 蜜桃亚洲精品一区二区三区| 搡女人真爽免费视频火全软件| 国产在线一区二区三区精| 免费av毛片视频| 极品少妇高潮喷水抽搐| 国产欧美另类精品又又久久亚洲欧美| 日韩一区二区视频免费看| 亚洲欧洲日产国产| 国产伦一二天堂av在线观看| 国产高清有码在线观看视频| 三级男女做爰猛烈吃奶摸视频| 亚洲精品国产av成人精品| 亚洲欧美一区二区三区黑人 | av在线观看视频网站免费| 成人鲁丝片一二三区免费| 五月伊人婷婷丁香| 天堂影院成人在线观看| 日韩av免费高清视频| 亚洲人成网站在线观看播放| 天美传媒精品一区二区| 白带黄色成豆腐渣| 精品久久久精品久久久| 91久久精品电影网| 国产69精品久久久久777片| 黄片无遮挡物在线观看| 蜜桃久久精品国产亚洲av| 国产成人免费观看mmmm| 可以在线观看毛片的网站| 搡老乐熟女国产| 久久久久免费精品人妻一区二区| 91久久精品国产一区二区成人| 国产精品.久久久| 精品久久久精品久久久| 成人毛片a级毛片在线播放| 国产成人aa在线观看| 日日啪夜夜撸| 成人亚洲精品av一区二区| 色综合亚洲欧美另类图片| 日本一本二区三区精品| 亚洲精品国产成人久久av| 亚洲,欧美,日韩| 91久久精品国产一区二区成人| 人体艺术视频欧美日本| 在线 av 中文字幕| 亚洲精品,欧美精品| 女的被弄到高潮叫床怎么办| 亚洲国产精品专区欧美| 午夜老司机福利剧场| 国产久久久一区二区三区| 国产一区二区三区av在线| 中文字幕制服av| 亚洲国产av新网站| 成年女人在线观看亚洲视频 | 青春草国产在线视频| 欧美bdsm另类| 国产一区有黄有色的免费视频 | 51国产日韩欧美| 两个人的视频大全免费| 禁无遮挡网站| 国产有黄有色有爽视频| 午夜精品在线福利| 午夜福利在线在线| 日本三级黄在线观看| 亚洲精品乱久久久久久| 在线播放无遮挡| 日日干狠狠操夜夜爽| 国产熟女欧美一区二区| 免费在线观看成人毛片| 亚洲美女视频黄频| 亚洲丝袜综合中文字幕| 欧美日韩视频高清一区二区三区二| 亚洲经典国产精华液单| 成人av在线播放网站| 精品人妻视频免费看| 天堂影院成人在线观看| 淫秽高清视频在线观看| 亚洲成色77777| 国产淫片久久久久久久久| 亚洲自拍偷在线| 国产久久久一区二区三区| 国产国拍精品亚洲av在线观看| kizo精华| 午夜福利在线观看吧| 1000部很黄的大片| 国产精品久久久久久久久免| 国产欧美另类精品又又久久亚洲欧美| 亚洲四区av| 亚洲精品亚洲一区二区| 蜜桃久久精品国产亚洲av| 一级片'在线观看视频| 欧美人与善性xxx| 一级毛片我不卡| 亚洲精品自拍成人| 日本三级黄在线观看| 精品久久久久久久久av| 小蜜桃在线观看免费完整版高清| 亚洲国产精品成人综合色| 成年女人看的毛片在线观看| 国产亚洲一区二区精品| 国产成人91sexporn| 一级毛片aaaaaa免费看小| 日本爱情动作片www.在线观看| 欧美日韩综合久久久久久| 国产麻豆成人av免费视频| 久久精品久久久久久噜噜老黄| 成人综合一区亚洲| 啦啦啦中文免费视频观看日本| 亚洲第一区二区三区不卡| 秋霞在线观看毛片| 热99在线观看视频| 日韩欧美一区视频在线观看 | 三级国产精品欧美在线观看| 色视频www国产| 亚洲怡红院男人天堂| 久久久精品免费免费高清| 日日干狠狠操夜夜爽| 三级国产精品欧美在线观看| 91精品国产九色| 精品午夜福利在线看| 久久久久免费精品人妻一区二区| 国语对白做爰xxxⅹ性视频网站| 日日啪夜夜撸| videos熟女内射| 听说在线观看完整版免费高清| 亚洲成人av在线免费| 国产麻豆成人av免费视频| 亚洲av成人精品一二三区| 精品国内亚洲2022精品成人| 久久99热这里只频精品6学生| 国产成人精品久久久久久| 一级av片app| 亚洲国产欧美在线一区| 亚洲最大成人中文| 男人和女人高潮做爰伦理| 亚洲成人中文字幕在线播放| 大又大粗又爽又黄少妇毛片口| 少妇裸体淫交视频免费看高清| 精品熟女少妇av免费看| 嘟嘟电影网在线观看| 国产亚洲91精品色在线| 黄色一级大片看看| 亚洲人与动物交配视频| 久久久成人免费电影| 日韩在线高清观看一区二区三区| 国语对白做爰xxxⅹ性视频网站| 亚洲精品,欧美精品| 真实男女啪啪啪动态图| 日本av手机在线免费观看| av在线蜜桃| 中文字幕免费在线视频6| 少妇的逼好多水| 亚洲色图av天堂| 国产精品一区www在线观看| 少妇被粗大猛烈的视频| 欧美潮喷喷水| 好男人视频免费观看在线| 国产精品国产三级专区第一集| 国产 一区 欧美 日韩| 视频中文字幕在线观看| 亚洲欧美一区二区三区黑人 | 九色成人免费人妻av| 黄色配什么色好看| 最近的中文字幕免费完整| 99热网站在线观看| 国产精品99久久久久久久久| 男人爽女人下面视频在线观看| 美女主播在线视频| 午夜视频国产福利| 18禁裸乳无遮挡免费网站照片| 亚洲欧美日韩无卡精品| 中文在线观看免费www的网站| 久久久国产一区二区| 国产精品不卡视频一区二区| 午夜福利在线观看吧| 街头女战士在线观看网站| 又黄又爽又刺激的免费视频.| 偷拍熟女少妇极品色| 三级国产精品欧美在线观看| 免费黄网站久久成人精品| 国产欧美另类精品又又久久亚洲欧美| 久久久精品免费免费高清| 日本av手机在线免费观看| av网站免费在线观看视频 | 大陆偷拍与自拍| 男人爽女人下面视频在线观看| 久久久久精品久久久久真实原创| 免费av观看视频| 亚洲综合精品二区| 婷婷色综合大香蕉| 久久久久久久久中文| 春色校园在线视频观看| 精品久久久久久久久亚洲| 少妇的逼水好多| 高清欧美精品videossex| 日韩伦理黄色片| 亚洲精品一二三| 高清欧美精品videossex| 黄片wwwwww| 中文字幕av在线有码专区| av国产久精品久网站免费入址| 国内少妇人妻偷人精品xxx网站| 精品久久久久久久久久久久久| 日本免费a在线| 日韩一本色道免费dvd| 久久久a久久爽久久v久久| 亚洲av.av天堂| 国内精品一区二区在线观看| 久99久视频精品免费| 日韩大片免费观看网站| 国产毛片a区久久久久|