• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    跨度語義增強的命名實體識別方法

    2022-07-19 02:17:48耿汝山陳艷平唐瑞雪黃瑞章秦永彬董博
    西安交通大學學報 2022年7期
    關鍵詞:跨度表格注意力

    命名實體識別(named entity recognition,NER)是自然語言處理(nature language processing,NLP)中一項重要的基本任務

    ,文本中的實體往往攜帶重要的信息,因此識別實體對于下游任務如關系提取

    、問題生成

    和實體鏈接

    等有重要的影響和積極的意義。由于語言在表達上具有迭代、遞歸的特點,文本中存在著大量的嵌套語義。例如,“秘魯總統(tǒng)藤森撤換三軍司令”,“秘魯總統(tǒng)藤森”中嵌套著“藤森”這個實體,且它們歸類的實體類型都為“人”。嵌套語義識別依然是自然語言處理中的研究難點。

    目前,基于深度學習的命名實體識別的方法可以分為基于序列模型、基于跨度模型和超圖的方法?;谛蛄行畔⒌姆椒ㄊ菍φZ句中的每個字符打標簽,其主要思想是通過神經網絡的方法對每個字符進行向量表示然后通過一定的編碼運算分類。依據(jù)每個字符分類的類型再合并為實體

    ?;诳缍饶P偷姆椒ㄊ菍ψ址M行組合以形成不同的跨度,跨度信息中包含有每個字符的信息,因此特定的跨度信息代表著特定的實體信息,所以通過對跨度信息的分類來識別不同的實體

    ?;诔瑘D的方法是允許一條邊連接到多個節(jié)點,以代表不同的實體,使用神經網絡對這些邊和節(jié)點進行編碼最后從超圖標簽中恢復實體

    。雖然深度學習的方法可以加入額外的語義特征信息,但是以上這些方法沒有考慮字與字之間的交互問題,會出現(xiàn)語義不足的情況。語義不足會降低模型對于實體的識別精確度,以及無法識別出存在嵌套情況的實體。

    循環(huán)神經網絡(recurrent neural networks,RNN)模型在傳統(tǒng)的神經網絡模型的基礎上發(fā)展起來,因而具有很強的非線性數(shù)據(jù)處理能力,在機器翻譯、自動問答、句法解析等自然語言處理任務中被廣泛的使用。RNN是一類用于處理序列數(shù)據(jù)的神經網絡模型,序列數(shù)據(jù)具有前后數(shù)據(jù)相關聯(lián)的特點

    。但是,RNN在參數(shù)過多的時候容易發(fā)生梯度爆炸問題,為了改善其局限性,研究人員提出了許多改進的循環(huán)神經網絡結構,其中長短期記憶網絡(long short term memory,LSTM)和門控循環(huán)單元(gate recurrent unit,GRU)就是最常用于處理文本循環(huán)神經網絡變種模型。文獻[16]模型使用分層的RNN對人體的姿勢進行識別,文獻[17]模型使用門控RNN模型增強了模型對長距離信息的學習能力,文獻[18]將殘差網絡引入RNN中處理更長的文本序列。通常,RNN用來處理一維信息,無法處理超越一維的信息。對于此問題,多維循環(huán)神經網絡(multi-dimensional recurrent neural networks,MD-RNN)

    被提出并可以在高維度的信息上進行語義增強。目前,多維循環(huán)神經網絡已經在圖像分類

    和語音識別

    等領域都取得了優(yōu)異的效果。MD-RNN是RNN的一種泛化,通過將單個循環(huán)神經網絡的連接替換為與數(shù)據(jù)維度相同的連接來處理多維數(shù)據(jù)。為了增強MD-RNN利用上下文信息的能力,同時避免環(huán)節(jié)RNN在處理長序列數(shù)據(jù)時梯度爆炸或梯度消失的問題,通常將長短期記憶網絡(LSTM)和門控循環(huán)神經網絡(gated recurrent unit,GRU)用作隱藏單元。

    基于上述研究,MD-RNN為融合跨度語義信息提供了一種有效的手段,在一定程度上解決了語義不足的問題。本文提出了一種增強跨度信息的方法,在利用跨度信息進行實體識別的基礎上,增強跨度之間的語義特征,從而有效地增加了跨度的語義信息。首先,使用預訓練語言模型提取字符向量信息,對字符向量進行枚舉拼接形成矩陣。其次,對矩陣使用MD-RNN進行跨度級的語義增強。最后,對矩陣中的跨度進行分類。模型在ACE2005英文數(shù)據(jù)集與中文數(shù)據(jù)集上進行了實驗,分別取得了86.92和81.16的

    值,與其他主流的方法相比,該方法取得了最優(yōu)的結果。

    期望、熵和超熵是代表云模型的三大數(shù)字特征。期望作為整個云圖的中心值,是隸屬度最大、最能表達定性要求的點;熵值則表達出了云的模糊性,指的是云模型在整個坐標區(qū)域的跨度大??;超熵代表了不確定性,超熵越大,云模型的離散程度越大,云圖越分散。

    1 跨度語義增強模型

    模型的整體結構如圖1所示,主要分為編碼、表填充、跨度語義增強、輸出4個模塊,其中表填充和跨度意義增強可以反復疊加多層,下面分別介紹各個模塊。

    1.1 編碼

    假設輸入模型的一句話

    =〈

    ,

    ,…,

    〉,

    表示句子中的第

    個字。對

    通過ALBERT的預訓練語言模型提取出含有上下文信息的連續(xù)稠密向量

    ×

    ,

    表示句子長度,同時使用GloVe預訓練字向量將其編碼為連續(xù)稠密向量

    ×

    ,公式如下

    本模型的注意力的計算流程如圖4所示。將注意力機制擴展到多個頭,并且都有獨立的參數(shù)。拼接輸出,使用全連接層來得到最終的注意力向量,其余部分與Transformer類似。

    ,

    =

    (

    )

    (1)

    =

    (

    )

    (2)

    這件事情翠姨是曉得的,而今天又見了我的哥哥,她不能不想哥哥大概是那樣看她的。她自覺地覺得自己的命運不會好的?,F(xiàn)在翠姨自己已經訂了婚,是一個人的未婚妻;二則她是出了嫁的寡婦的女兒,她自己一天把這個背了不知有多少遍,她記得清清楚楚。

    (3)

    2

    1

    2 評價指標

    1.2 表填充

    首先將得到的編碼層輸出

    =[

    ,

    ,

    ,…,

    ]進行枚舉拼接。將一個長度為

    的句子拼接為

    ×

    的表格

    ××

    ,其中表格

    列的位置對應句子中第

    個詞與第

    個詞進行拼接,此時

    并不包含上下文的信息,公式如下

    ,,

    =max(0,[

    -1,

    ;

    -1,

    ])

    (4)

    式中

    表示當前運算的層數(shù)。表格

    中每一個格子都代表著一個子序列跨度,這樣就將句子中所有可能的子序列都表示出。同時,將ALBERT預訓練模型中得到的注意力權重

    與表格拼接,作為補充信息,更新公式如下

    ,,

    =max(0,[

    -1,

    ;

    -1,

    ;

    ,

    ])

    (5)

    通過這種方式,可以將預訓練模型的權重

    添加到跨度語義增強中,補充語義信息。

    (3)重介質選和浮選效果差,實際生產數(shù)據(jù)與理論數(shù)據(jù)偏差大。主要表現(xiàn)在介耗高達4.5 kg/t,遠高于同行業(yè)水平;循環(huán)水濃度高,為保證礦井生產,不得不強制洗煤生產,導致重介質選和浮選效果惡化;重介質操作困難,不穩(wěn)定,導致矸石中小于1.80 kg/L密度級達到4%左右,洗混煤中小于1.40 kg/L密度級在10%上下。

    1.3 跨度語義增強

    通過拼接得到的每個表格只有邊界的信息,缺少句子的上下文信息,因此使用MD-RNN增強跨度語義信息以彌補缺失的信息。由于傳統(tǒng)循環(huán)神經網絡是在一維的信息上進行計算,因此只接受上一個位置的隱藏層輸出。然而,表格具有二維結構的特點,所以二維循環(huán)神經網絡可以充分利用表格信息。在表格中每個位置的隱藏層不僅接受表格橫向的上一個位置的隱藏層輸出,也接受表格縱向的上一個位置的隱藏層輸出。

    將表格

    輸入到使用GRU作為隱層的MD-RNN中計算,得到表格

    。整個計算過程分為門控計算和隱層計算兩部分。計算門控的過程如下

    (6)

    (7)

    (8)

    (9)

    (10)

    實體識別需要同時識別出實體準確的位置和類別,只有當實體位置和類別都識別正確時結果才算正確。本文實驗使用綜合指標

    值來衡量模型性能,公式如下

    (11)

    (12)

    (13)

    式(17)表示3種輸入之間的運算關系。

    將序列信息升為表格信息帶來了計算量上的指數(shù)增加,因此需要考慮對表格和計算進行一定的優(yōu)化。在表格存儲的信息中反對角線是相同的,因此為了加速計算以減少運算量可以只關注矩陣的上三角信息。一個長度為

    的序列更新為表格信息后只需要計算(

    +1)×

    2個格子,MD-RNN可以在行與列方向上任意挑選方向組合。如圖2所示,MD-RNN在

    維上有2

    種計算方向,在二維的數(shù)據(jù)上共有4種方式。

    根據(jù)文本信息的特點,使用所有方向上的信息會導致一些計算的重復利用,并不能很好增強跨度語義信息。為了降低計算量同時盡可能使當前跨度學習到臨近跨度的語義信息,可只選擇兩個方向(

    )(

    )進行計算,并將計算的結果拼接作為跨度語義增強后的輸出,計算公式如下

    (14)

    (15)

    (16)

    如圖3所示,綠色方塊代表當前的跨度,藍色的方塊代表了臨近的跨度,(

    )方向上的當前跨度會增強后一個跨度的信息,(

    )方向上的會增強到之前跨度的信息,最后將兩個方向上的結果進行拼接,得到包含跨度上下文信息的表格

    。

    注意力的使用是為了梳理跨度信息,跨度信息在經過語義增強后會出現(xiàn)語義信息混亂的情況。注意力運算將根據(jù)序列信息調整跨度信息,輸入是一條句子的向量,第

    個向量代表著句子中的第

    個字,以及MD-RNN的輸出表格

    ,其整體結構是基于Transformer,將自注意力機制(self-attention)中的縮放點乘替換成跨度引導的注意力機制

    。Transformer在自然語言處理領域取得了優(yōu)異的成績,其采用的自注意力機制是成功的關鍵因素

    。傳統(tǒng)的自注意力機制有查詢(

    )、鍵(

    )和值(

    )3個輸入,計算過程如下

    總之,語文生活化,生活語文化。無論哪種方式讀寫結合,無不彰顯《普通高中語文新課標》“語文學科素養(yǎng)是學生在積極的語言實踐活動中積累與構建,并在真實的語言運用情境中表現(xiàn)出來的語言能力及其品質,是學生在語文學習中獲得的語言知識與語言能力,思維方法與思維品質,情感、態(tài)度與價值觀的綜合體現(xiàn)”這一理念,因為讀寫結合是語文科本質性的行為表現(xiàn),語文核心素養(yǎng)的研究也需要以促進學生發(fā)展為基礎、以語文科塑造人的獨立品格與所需能力為基礎實現(xiàn)學生終身教育,讓我們一起努力踐行讓生活生命作文與語文核心素養(yǎng)齊飛吧!

    (17)

    本模型的數(shù)據(jù)輸入來自前一個序列表示層

    -1

    。在self-attention中考慮

    =

    =

    =

    ,可以發(fā)現(xiàn)函數(shù)softmax的輸出是一個基本的注意力權重,而MD-RNN輸出的

    來自于

    -1

    。因此,可以用

    來代替計算

    的相似度,這樣就可以把

    帶入到self-attention公式。這個過程稱為跨度引導的注意力機制,公式如下

    語文學習中,若學生具備綜合閱讀能力,能夠幫助學生更好地理解課文內容,加強學生對課本中文字及詞語等知識的理解,這對學生獲取優(yōu)異的語文成績有很大幫助。此外,學生綜合閱讀能力的提高還對學生口語表達能力及寫作能力的提升有巨大幫助。學生具備綜合閱讀能力,可以對文章內容獲得全方位的理解,掌握文章的表達方法,體會文章的思想情感,這樣可以讓學生在口語表達的時候用詞更加準確,并且有效表達自己的思想情感,同時借助綜合閱讀還可以積累一些有效的寫作方法與寫作素材,為學生進行文章寫作奠定了良好的基礎。

    (

    ,

    )=

    (18)

    式中:

    表示可學習參數(shù),用于調整

    的維度;

    來自于字符序列

    -1

    。與傳統(tǒng)的注意力的計算方法相比,使用跨度信息來引導計算會有一些相對應的優(yōu)勢:①不需要計算相似度,而使用

    來減少計算量;②

    的計算過程有關于行、列和前幾層的信息,這可以更好地獲得上下文信息;③使用

    允許表格編碼器參與序列表示學習過程。

    式中:X為樣品中元素的含量,mg/100 g;c為測定用樣品中元素的濃度,μg/mL;c0為試劑空白液中元素的濃度,μg/mL;V為樣品定容體積,mL;f為稀釋倍數(shù);m為樣品質量。

    在注意力機制后使用前饋神經網絡(FFNN)對關注權重進行串聯(lián)和歸一化,公式如下

    (19)

    (20)

    式中

    表示層規(guī)范(LayerNorm)運算。

    1.4 預測與損失函數(shù)

    在最后一層跨度意義增強后,對輸出的序列信息進行枚舉拼接,并使用拼接的表格信息

    去預測嵌套的實體標簽,公式如下

    (

    )=softmax(

    +

    )

    (21)

    式中:

    表示預測標簽的隨機變量;

    表示模型參數(shù)的估計概率函數(shù)。使用交叉熵函數(shù)被用作損失函數(shù),給定輸入

    和標簽

    計算損失函數(shù),公式如下

    (22)

    在訓練的過程中,只考慮矩陣中上三角的內容,選擇最可能的標簽作為答案進行輸出,公式如下

    (23)

    2 實驗與結果分析

    為了驗證本文提出的基于跨度語義增強的嵌套命名實體識別模型的效果,所以選擇與其它基于深度學習的命名實體識別模型進行對比。本文在ACE2005中文數(shù)據(jù)集和ACE2005英文數(shù)據(jù)集上進行實驗。使用精確率

    、召回率

    以及

    值作為實驗的主要評估指標,通過在相同數(shù)據(jù)集上進行實驗,驗證本模型的各項性能。

    2.1 實驗設置

    2

    1

    1 數(shù)據(jù)集介紹

    第二,善用教材中隱性數(shù)學文化知識進行拓展訓練.當前教材中出現(xiàn)了許多高考數(shù)學文化命題素材來源題.如“阿波羅尼斯圓”、“回文數(shù)”、“三角形數(shù)”分別出現(xiàn)在人教版高中數(shù)學必修2第131頁習題4及必修3第51頁第3題和必修5第28頁的正文部分.因此,教師上課時要有意識的對這些數(shù)學文化素材或歷史名題進行拓展改編.比如根據(jù)布洛卡點的基本性質,就可以結合余弦定理、外森比克不等式和等比數(shù)列等知識拓展許多變式問題[6].

    ACE2005中文數(shù)據(jù)集和ACE2005英文數(shù)據(jù)集是語言數(shù)據(jù)聯(lián)盟(Linguistic Data Consortium,LDC)于2006年發(fā)布用于各項自然語言處理任務的公共數(shù)據(jù)集。ACE2005英文數(shù)據(jù)集包含7種實體類別,共599篇英語文檔,分別為PER(人物,person)、ORG(組織機構,organization)、GPE(地理/社會/政治實體,geo-political)、LOC(處所,locations)、FAC(設施,facilities)、VEH(交通工具,vehicle)、WEA(武器,weapon)。ACE2005中文數(shù)據(jù)集包括同樣的7種實體類別,共633篇中文文檔。

    =([

    ;

    ])

    +

    兩個數(shù)據(jù)集都按照8∶1∶1劃分位訓練集、驗證集和測試集,其中ACE2005英文數(shù)據(jù)集采用文獻[5]的數(shù)據(jù)集劃分方法。

    式中:

    表示ALBERT語言模型的運算;

    表示GloVe語言模型的運算;

    ××

    表示ALBERT的注意力向量;

    ×

    表示編碼層的輸出向量;

    ×

    表示可學習參數(shù)。通過將兩種向量進行拼接,并經過線性層來代表編碼層輸出向量。

    (24)

    (25)

    (26)

    式中:

    表示正確識別出的命名實體個數(shù);

    表示識別出的命名實體個數(shù);

    表示標準結果中的命名實體個數(shù)。

    2.1.3 實驗環(huán)境與參數(shù)設置

    本文提出的跨度語義增強模型在Python3.7和Pytorch1.8的環(huán)境下進行實驗。設置模型在訓練、驗證與測試時的Batch_size分別為16、8、8。為降低神經網絡在訓練過程中過擬合造成的影響,設置Dropout為0.5。初始化的字嵌入向量使用了GloVe模型進行訓練并將其保存,其維度為100。在模型訓練中不更新單詞的GloVe向量,將隱藏層的大小設置為200,并且將每個MD-RNN的隱藏層大小設置為100。學習率設置為0.001,Adam作為模型的優(yōu)化工具,上下文的信息使用ALBERT進行訓練并保存最后一層的輸出作為文字的上下文信息。ALBERT是一個共享Transformer參數(shù)的輕量型BERT模型

    ,在模型中使用的版本是albert-xxlargev2,其隱藏層的維度為4 096。

    2.2 結果分析

    本文選取了幾個在命名實體識別上取得了較高性能的模型進行對比,表1展示了與這些方法在ACE2005英文數(shù)據(jù)集上的性能區(qū)別,通過使用ALBERT作為預訓練語言模型來提供上下文的信息。本文模型的

    值達到了最優(yōu)的86

    92,

    、

    值也達到了最好的性能,表明了本文方法的優(yōu)越性。

    在魚、蟹、甲魚等養(yǎng)殖中,也可以套種一些青蝦、黃鱔等新品種來養(yǎng)殖。還需要促進整體的混合養(yǎng)殖,將龜、蟹、青蝦等養(yǎng)殖品種和魚類進行混合養(yǎng)殖,可以將其中的一個品種作為主體,并在有限的水體資源中充分應用,將達到經濟效益的提升。

    2.3 PCR敏感性試驗 測定模板DNA濃度為50 ng/μL,通過1∶10倍比稀釋法稀釋模板進行PCR敏感性試驗,當模板稀釋度為10-8時,沒有擴增條帶出現(xiàn),見圖3,即PCR法檢測下限達到10-7,即本PCR方法檢測DNA的靈敏度達到fg水平。

    從整體上看,文獻[8]的模型使用次佳最優(yōu)路徑的方法識別嵌套命名實體在精確率

    和召回率

    結果上明顯低于其他方法。這與其使用的選擇次佳路徑的方式有關,選擇次佳路徑的算法會對結果有著明顯的影響和限制。文獻[26]的回歸模型性能與其他傳統(tǒng)方法比取得了最好的F

    值,其模型在設計的過程中考慮到了跨度信息利用不充分的問題,以及長實體識別較困難的現(xiàn)象,用回歸來生成跨度建議來定位實體位置,然后利用相應的類別標記邊界來對跨度建議再次調整。與其相比,本文的模型在精確率、召回率和F

    值上都高于回歸模型,這說明本文模型識別出的實體絕大多數(shù)是真實有效的。這是由于結合了跨度級上下文信息為模型提供了更加準確的實體表示,使得分類器有能力確定矩陣中的每一個單位是否為有效的實體跨度。

    鼓勵發(fā)展煤矸石燒結空心磚、輕骨料等新型建材,替代粘土制磚。鼓勵煤矸石建材及制品向多功能、多品種、高檔次方向發(fā)展。積極利用煤矸石充填采空區(qū)、采煤沉陷區(qū)和露天礦坑,開展復墾造地。

    表2展示模型在ACE2005中文數(shù)據(jù)集上的性能?!癝hallow BA”模型采用兩個獨立的CRF模型來識別起點與終點邊界,候選實體建立起來后,再對候選實體進行分類。“Cascading-out”模型每種實體被單獨的識別,如果出現(xiàn)嵌套的相同類型的實體,則會識別最外層的實體?!癓ayering-out”模型是由兩個獨立的BERT-BiLSTM-CRF模型去識別外層的實體與內層的實體,“NNBA”模型通過兩個BiLSTM-CRF模型分別識別實體的開始與結束位置,然后通過組合的方式生成候選實體再分類。本文模型的精確率較高,大幅度超過了之前的模型,這可能與堆疊多層的跨度語義增強模塊有關。

    本文模型在兩種語言的數(shù)據(jù)集上進行實驗是為了驗證不同語言上的適用性。整體上,本文的模型都取得了非常高的結果。

    2.3 句子長度(字數(shù))對模型性能影響分析

    長句子會導致模型對實體信息不敏感

    ,提高模型對長句子中實體識別的能力對模型性能有積極的作用,因此探究去掉跨度語義增強模塊對不同長度句子的性能影響。本實驗在ACE2005英文數(shù)據(jù)集上分析不同長度句子對于跨度語義增強模塊的影響,模型參數(shù)保持不變,其結果如圖5所示。

    通過對兩種方法進行對比,完整的模型比去掉跨度語義增強模塊的模型在長句子的區(qū)間(40到59與60到79)上有了明顯的性能提升。在較短句子的區(qū)間上,也有一定的提升。

    2.4 注意力權重可視化

    為了更好地探索注意力機制在模型中的作用,將注意力權重進行了可視化,如圖6所示,使用bertvit工具進行可視化處理。為了更好地突出與self-attention的不同,同時也對模型進行了修改并做了self-attention的可視化。重點比較兩種算法下的單詞與單詞之間的關系,模型的其他參數(shù)與之前保持一致,在此使用一個例子“We’re paying attention to all those details for us, Chris Plante at the pentagon.”來進行說明。這句話中有4個實體,即“we”“Chris Plante at the pentagon”“the pentagon”和“us”。

    在圖6中深色的線代表相對較高的注意權重,右側的層數(shù)代表著堆疊的跨度增強模塊的層數(shù),可以看出,不同層之間注意力關注到的內容是不同的,“Chris”對“we”“us”和“Plante”的注意權重較高,它們的實體類型是相同的,同一類型的實體彼此之間有相對較高的相似度。因此,同一類型的實體之間的注意權重是相互關聯(lián)的,與self-attention算法相比,self-attention的關注重點不夠突出,即圖中的深色線不夠明顯。由此可以證明,本模型的注意力算法優(yōu)于原始的算法,并且可以關注到同種類型實體之間的關系。

    2.5 消融實驗

    為了驗證注意力機制和MD-RNN的有效性,本文設計了消融實驗,結果如表3所示,w/o表示去掉某模塊。注意力機制在模型中用于梳理跨度信息的權重,在去掉注意力機制后表格內的序列信息會不可避免的產生一定的混亂,這對于實體的準確性有較大的影響。在去掉跨度引導的注意力模塊后,模型性能有了明顯下降。

    In conclusion, pain in pancreatic cancer has a complex physiopathology. It eminently implies a neuronal invasion and a neurogenic inflammation.

    MD-RNN在模型中用于進行跨度語義增強,并且融合跨度級語義特征信息,去掉MD-RNN后性能有所下降,這證明了跨度信息增強對于模型性能提升有幫助??缍日Z義信息的增強可以補充因利用邊界信息導致丟失的部分語義信息,并且跨度信息對于嵌套實體識別有著較大的幫助。

    捷達車穩(wěn)穩(wěn)駛停學校古城墻旁,小女新開業(yè)的書店仍然燈火輝煌,我匆匆下車。丁香花搖下車窗玻璃探出頭來忽然問我,“老龔,昆明是春城,它很美吧!” 我正欲回答,那車,卻像一陣風一樣遠了。

    2.6 層數(shù)與性能

    如表4所示,探討了表填充和跨度引導注意力機制層數(shù)與模型性能之間的關系。為了保持與前面實驗的一致性,選擇ACE2005英文數(shù)據(jù)集進行實驗,除了編碼器的層數(shù)之外其他的超參數(shù)均保持不變。一般來說,增加編碼器數(shù)量可以提高模型的性能,但當編碼器的數(shù)量超過一個范圍時,性能將開始下降。在實驗中選擇編碼器層數(shù)為1、2、3、4、5。通過對實驗結果進行分析發(fā)現(xiàn),在層數(shù)大于3之后,模型的性能就已經開始下降,這應該是由過擬合而導致的性能下降。

    3 結 語

    本文提出一種跨度語義增強的命名實體識別方法,解決了命名實體識別中出現(xiàn)的語義不足、召回率不高等問題,并將傳統(tǒng)的一維文本信息拼接成二維的表格信息,使用MD-RNN和注意力模型作為跨度語義增強模塊,進而有效增強了跨度之間的聯(lián)系。實驗結果表明,本文提出的方法相比之前基于跨度模型的嵌套命名實體識別方法有著明顯優(yōu)勢。

    透霧,也稱視頻圖像增透技術。大華透霧技術主要分為電子透霧和光學透霧兩種。大華電子透霧基于ISP上算法實現(xiàn),適用于一般的輕度霧霾環(huán)境使用,主要優(yōu)勢有:

    在下一步的工作中,將探究如何將跨度語義增強方法應用到其他領域,以及探究一種新的跨度語義融合機制去融合跨度間的語義信息。

    :

    [1] 黃銘, 劉捷, 戴齊. 融合字詞特征的中文嵌套命名實體識別 [J]. 現(xiàn)代計算機, 2021, 27(34): 21-28.

    HUANG Ming, LIU Jie, DAI Qi. Chinese Nested named entity recognition integrating improved representation learning method [J]. Modern Computer, 2021, 27(34): 21-28.

    [2] XIONG Chenyan, LIU Zhengzhong, CALLAN J, et al. Towards better text understanding and retrieval through kernel entity salience modeling [C]∥The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. New York, NY, USA: ACM, 2018: 575-584.

    [3] ZHOU Qingyu, YANG Nan, WEI Furu, et al. Neural question generation from text: a preliminary study [C]∥Natural Language Processing and Chinese Computing. Berlin: Springer, 2018: 662-671.

    [4] GUPTA N, SINGH S, ROTH D. Entity linking via joint encoding of types, descriptions, and context [C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2017: 2681-2690.

    [5] JU Meizhi, MIWA M, ANANIADOU S. A neural layered model for nested named entity recognition [C]∥Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Seattle, Washington, USA: ACL, 2018: 1446-1459.

    [6] FISHER J, VLACHOS A. Merge and label: a novel neural network architecture for nested NER [C]∥Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2019: 5840-5850.

    [7] WANG Jue, SHOU Lidan, CHEN Ke, et al. Pyramid: a layered model for nested named entity recognition [C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2020: 5918-5928.

    [8] SHIBUYA T, HOVY E. Nested named entity recognition via second-best sequence learning and decoding [J]. Transactions of the Association for Computational Linguistics, 2020, 8: 605-620.

    [9] XIA Congying, ZHANG Chenwei, YANG Tao, et al. Multi-grained named entity recognition [C]∥Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2019: 1430-1440.

    [10] XU Mingbin, JIANG Hui, WATCHARAWITTAYAKUL S. A local detection approach for named entity recognition and mention detection [C]∥Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2017: 1237-1247.

    [11] SOHRAB M G, MIWA M. Deep exhaustive model for nested named entity recognition [C]∥Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2018: 2843-2849.

    [12] LUAN Yi, WADDEN D, HE Luheng, et al. A general framework for information extraction using dynamic span graphs [C]∥Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Volume 1 Human Language Technologies. Seattle, Washington, USA: ACL, 2019: 3036-3046.

    [13] LU Wei, ROTH D. Joint mention extraction and classification with mention hypergraphs [C]∥Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2015: 857-867.

    [14] MUIS A O, LU Wei. Labeling gaps between words: recognizing overlapping mentions with mention separators [C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2017: 2608-2618.

    [15] 張西寧, 郭清林, 劉書語. 深度學習技術及其故障診斷應用分析與展望 [J]. 西安交通大學學報, 2020, 54(12): 1-13.

    ZHANG Xining, GUO Qinglin, LIU Shuyu. Analysis and prospect of deep learning technology and its fault diagnosis application [J]. Journal of Xi’an Jiaotong University, 2020, 54(12): 1-13.

    [16] DU Yong, WANG Wei, WANG Liang. Hierarchical recurrent neural network for skeleton based action recognition [C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2015: 1110-1118.

    [17] TANG Duyu, QIN Bing, LIU Ting. Document modeling with gated recurrent neural network for sentiment classification [C]∥Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2015: 1422-1432.

    [18] WANG Yiren, TIAN Fei. Recurrent residual learning for sequence classification [C]∥Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2016: 938-943.

    [20] GRAVES A, MOHAMED A R, HINTON G. Speech recognition with deep recurrent neural networks [C]∥2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ, USA: IEEE, 2013: 6645-6649.

    [21] GRAVES A, SCHMIDHUBER J. Offline handwriting recognition with multidimensional recurrent neural networks [C]∥Proceedings of the 21st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2008: 545-552.

    [22] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]∥Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2017: 6000-6010.

    [23] 方軍, 管業(yè)鵬. 基于雙編碼器的會話型推薦模型 [J]. 西安交通大學學報, 2021, 55(8): 166-174.

    FANG Jun, GUAN Yepeng. A session recommendation model based on dual encoders [J]. Journal of Xi’an Jiaotong University, 2021, 55(8): 166-174.

    [24] 李軍懷, 陳苗苗, 王懷軍, 等. 基于ALBERT-BGRU-CRF的中文命名實體識別方法 [J/OL]. 計算機工程 [2021-10-01]. https:∥doi.org/10.19678/j.issn.100 0-3428.00616 30.

    LI Junhuai, CHEN Miaomiao, WANG Huaijun, et al. Chinese named entity recognition method based on ALBERT-BGRU-CRF [J/OL]. Computer Engineering [2021-10-01]. https:∥doi.org/10.19678/j.issn.100 0-3428.00616 30.

    [25] YU Juntao, BOHNET B, POESIO M. Named entity recognition as dependency parsing [C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2020: 6470-6476.

    [26] SHEN Yongliang, MA Xinyin, TAN Zeqi, et al. Locate and label: a two-stage identifier for nested named entity recognition [C]∥Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing: Volume 1. Seattle, Washington, USA: ACL, 2021: 2782-2794.

    [27] CHEN Yanping, ZHENG Qinghua, CHEN Ping. A boundary assembling method for Chinese entity-mention recognition [J]. IEEE Intelligent Systems, 2015, 30(6): 50-58.

    [28] CHEN Yanping, WU Yuefei, QIN Yongbin, et al. Recognizing nested named entity based on the neural network boundary assembling model [J]. IEEE Intelligent Systems, 2020, 35(1): 74-81.

    猜你喜歡
    跨度表格注意力
    緩粘結預應力技術在大跨度梁中的應用
    讓注意力“飛”回來
    《現(xiàn)代臨床醫(yī)學》來稿表格要求
    大跨度連續(xù)剛構橋線形控制分析
    統(tǒng)計表格的要求
    統(tǒng)計表格的要求
    統(tǒng)計表格的要求
    組合鋁合金立柱在超大跨度玻璃幕墻中的應用
    上海建材(2018年4期)2018-11-13 01:08:54
    “揚眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    亚洲av免费高清在线观看| 久久久欧美国产精品| 成年女人在线观看亚洲视频| 久久毛片免费看一区二区三区| 午夜免费男女啪啪视频观看| 亚洲国产精品999| av黄色大香蕉| 欧美xxxx性猛交bbbb| 国产黄色视频一区二区在线观看| 免费日韩欧美在线观看| 国产精品99久久99久久久不卡 | 国产成人午夜福利电影在线观看| 成年动漫av网址| 日韩成人伦理影院| 老熟女久久久| 一区二区日韩欧美中文字幕 | 亚洲美女黄色视频免费看| 免费av中文字幕在线| 美女国产高潮福利片在线看| 国产精品一二三区在线看| 性色av一级| 成年女人在线观看亚洲视频| 日韩一本色道免费dvd| 日本wwww免费看| 爱豆传媒免费全集在线观看| www日本在线高清视频| 新久久久久国产一级毛片| 亚洲精品美女久久久久99蜜臀 | 亚洲五月色婷婷综合| 成年动漫av网址| 国产成人精品无人区| 黑人高潮一二区| 丝袜美足系列| 少妇精品久久久久久久| 最近最新中文字幕大全免费视频 | 日日啪夜夜爽| 你懂的网址亚洲精品在线观看| 99热国产这里只有精品6| 校园人妻丝袜中文字幕| 韩国高清视频一区二区三区| 国产在线视频一区二区| www.色视频.com| 一区二区三区四区激情视频| 精品人妻一区二区三区麻豆| 国产福利在线免费观看视频| www.熟女人妻精品国产 | 最新的欧美精品一区二区| 免费av中文字幕在线| 午夜激情av网站| 精品一品国产午夜福利视频| 久久99精品国语久久久| 一区二区三区四区激情视频| 精品亚洲成a人片在线观看| 夫妻性生交免费视频一级片| av又黄又爽大尺度在线免费看| 午夜91福利影院| 久久精品国产a三级三级三级| 久久久久国产网址| 日韩中字成人| 嫩草影院入口| 精品国产一区二区三区四区第35| 交换朋友夫妻互换小说| 欧美精品国产亚洲| 青青草视频在线视频观看| 男男h啪啪无遮挡| 99热国产这里只有精品6| 久久国产精品男人的天堂亚洲 | 亚洲欧洲国产日韩| 看免费av毛片| 欧美xxxx性猛交bbbb| 丝瓜视频免费看黄片| 精品一区二区三卡| 九草在线视频观看| 国产熟女午夜一区二区三区| 中国国产av一级| 99九九在线精品视频| 国产成人欧美| 熟女av电影| 亚洲av中文av极速乱| 国产麻豆69| 制服人妻中文乱码| 美女国产高潮福利片在线看| 精品国产一区二区三区四区第35| 午夜精品国产一区二区电影| 精品亚洲乱码少妇综合久久| 免费大片黄手机在线观看| 在线观看免费日韩欧美大片| 男女边吃奶边做爰视频| 日本爱情动作片www.在线观看| 亚洲精品国产av成人精品| 中文字幕亚洲精品专区| 人妻 亚洲 视频| 日本黄大片高清| 最新中文字幕久久久久| 成人国产av品久久久| 啦啦啦视频在线资源免费观看| 欧美日韩国产mv在线观看视频| 亚洲国产精品成人久久小说| 欧美 日韩 精品 国产| 亚洲欧美色中文字幕在线| 欧美+日韩+精品| 美女脱内裤让男人舔精品视频| 丝袜人妻中文字幕| 欧美精品av麻豆av| 久久精品国产亚洲av天美| 日韩熟女老妇一区二区性免费视频| 久久精品国产自在天天线| 一区二区三区四区激情视频| 国产免费又黄又爽又色| 中文欧美无线码| 亚洲 欧美一区二区三区| 高清毛片免费看| videosex国产| 一级a做视频免费观看| 侵犯人妻中文字幕一二三四区| 赤兔流量卡办理| 亚洲激情五月婷婷啪啪| 中国国产av一级| 久久精品久久久久久久性| 亚洲精品美女久久久久99蜜臀 | 男女午夜视频在线观看 | a 毛片基地| 国产精品不卡视频一区二区| 男人操女人黄网站| 老司机影院成人| 国产又爽黄色视频| 免费高清在线观看视频在线观看| 精品少妇久久久久久888优播| 纯流量卡能插随身wifi吗| 亚洲成色77777| 亚洲国产欧美在线一区| 成人二区视频| 全区人妻精品视频| 欧美性感艳星| 欧美成人精品欧美一级黄| 国产精品.久久久| 美女国产视频在线观看| 久久久久网色| 男人舔女人的私密视频| 免费女性裸体啪啪无遮挡网站| 制服诱惑二区| 日本av手机在线免费观看| 久久精品国产鲁丝片午夜精品| 国产av精品麻豆| 少妇的逼好多水| 欧美精品亚洲一区二区| 国产白丝娇喘喷水9色精品| 99热网站在线观看| 下体分泌物呈黄色| videosex国产| 国产片内射在线| 国产精品久久久久久久久免| 久久人妻熟女aⅴ| 欧美少妇被猛烈插入视频| 美女视频免费永久观看网站| 男女免费视频国产| 啦啦啦中文免费视频观看日本| 久久久久久人妻| 天堂中文最新版在线下载| 伦理电影免费视频| 精品亚洲成a人片在线观看| 天天躁夜夜躁狠狠久久av| 在线观看国产h片| 成年av动漫网址| 香蕉丝袜av| 国产片内射在线| 男人舔女人的私密视频| 亚洲av国产av综合av卡| 久久韩国三级中文字幕| 亚洲三级黄色毛片| 大香蕉久久成人网| 日本欧美国产在线视频| 亚洲国产精品999| 极品人妻少妇av视频| 国产老妇伦熟女老妇高清| 免费在线观看完整版高清| 久久这里只有精品19| 欧美日韩av久久| 亚洲在久久综合| 日韩大片免费观看网站| 婷婷成人精品国产| 午夜福利在线观看免费完整高清在| 男女边吃奶边做爰视频| 中文字幕亚洲精品专区| 亚洲av国产av综合av卡| 亚洲成人手机| 少妇被粗大的猛进出69影院 | 最近的中文字幕免费完整| 深夜精品福利| 色吧在线观看| 晚上一个人看的免费电影| 欧美日韩综合久久久久久| 精品久久蜜臀av无| av女优亚洲男人天堂| 涩涩av久久男人的天堂| 熟女电影av网| 亚洲av成人精品一二三区| 免费大片18禁| 日韩一区二区三区影片| 亚洲欧美色中文字幕在线| 国产男女超爽视频在线观看| 日本午夜av视频| av一本久久久久| 下体分泌物呈黄色| 乱码一卡2卡4卡精品| 国产在线免费精品| 中文欧美无线码| 观看美女的网站| 亚洲av综合色区一区| 人妻一区二区av| 亚洲精品久久久久久婷婷小说| 国产精品三级大全| 亚洲欧美中文字幕日韩二区| 国产免费又黄又爽又色| 天天操日日干夜夜撸| 精品卡一卡二卡四卡免费| 久久精品久久精品一区二区三区| 国产永久视频网站| 欧美国产精品一级二级三级| 亚洲精品第二区| 亚洲成av片中文字幕在线观看 | 黄网站色视频无遮挡免费观看| 成年av动漫网址| 成年人免费黄色播放视频| 亚洲av中文av极速乱| 男女高潮啪啪啪动态图| 少妇熟女欧美另类| 午夜福利,免费看| 免费不卡的大黄色大毛片视频在线观看| 国产日韩欧美视频二区| 熟女电影av网| 91在线精品国自产拍蜜月| 国产一区有黄有色的免费视频| 亚洲精品日韩在线中文字幕| 国产老妇伦熟女老妇高清| 五月开心婷婷网| 国产激情久久老熟女| 成年av动漫网址| av网站免费在线观看视频| 91精品国产国语对白视频| 精品国产一区二区三区四区第35| 国产精品秋霞免费鲁丝片| 99热这里只有是精品在线观看| 久久国产精品大桥未久av| 中国国产av一级| videos熟女内射| 国产 一区精品| 国产精品嫩草影院av在线观看| 国产毛片在线视频| 激情五月婷婷亚洲| 国产淫语在线视频| 大码成人一级视频| 极品少妇高潮喷水抽搐| 亚洲av成人精品一二三区| 国产精品国产三级国产专区5o| 黑丝袜美女国产一区| 国产综合精华液| 亚洲三级黄色毛片| 色婷婷av一区二区三区视频| 999精品在线视频| 精品福利永久在线观看| 国产免费一区二区三区四区乱码| 深夜精品福利| 91久久精品国产一区二区三区| av线在线观看网站| 久久久久精品久久久久真实原创| 青春草国产在线视频| 制服丝袜香蕉在线| 夜夜骑夜夜射夜夜干| 在线天堂中文资源库| 国产亚洲最大av| 国产高清三级在线| av免费在线看不卡| 久久久久久久大尺度免费视频| 永久免费av网站大全| 美女内射精品一级片tv| 久久精品国产亚洲av涩爱| 国产激情久久老熟女| 男女午夜视频在线观看 | 自线自在国产av| 只有这里有精品99| 欧美成人午夜精品| 国产永久视频网站| 中文乱码字字幕精品一区二区三区| 免费大片黄手机在线观看| 国产高清国产精品国产三级| 久久国产精品男人的天堂亚洲 | 久久狼人影院| 国产一区亚洲一区在线观看| av线在线观看网站| 国产精品国产三级专区第一集| 人人妻人人添人人爽欧美一区卜| 久久精品久久久久久久性| 久久鲁丝午夜福利片| 五月伊人婷婷丁香| 2021少妇久久久久久久久久久| 美女中出高潮动态图| 国产永久视频网站| 亚洲av电影在线观看一区二区三区| 51国产日韩欧美| 欧美老熟妇乱子伦牲交| 日本色播在线视频| 精品少妇内射三级| 久久久久久久亚洲中文字幕| 交换朋友夫妻互换小说| 黄色怎么调成土黄色| 男女午夜视频在线观看 | 99久久人妻综合| 亚洲成人av在线免费| 桃花免费在线播放| 少妇 在线观看| 女性生殖器流出的白浆| 色哟哟·www| 最近2019中文字幕mv第一页| 久久久久精品人妻al黑| 亚洲美女视频黄频| av国产精品久久久久影院| 内地一区二区视频在线| 国产精品.久久久| 日本vs欧美在线观看视频| av国产久精品久网站免费入址| 国产爽快片一区二区三区| 久久女婷五月综合色啪小说| 各种免费的搞黄视频| 亚洲欧美日韩另类电影网站| 黄色配什么色好看| 精品一区二区免费观看| 日韩免费高清中文字幕av| 少妇的逼水好多| 日韩伦理黄色片| 在现免费观看毛片| 精品人妻在线不人妻| 欧美人与性动交α欧美精品济南到 | 亚洲精品一区蜜桃| 日韩中字成人| 最近手机中文字幕大全| 久久久精品免费免费高清| 一区二区av电影网| a 毛片基地| 亚洲人成77777在线视频| 亚洲,一卡二卡三卡| 欧美激情国产日韩精品一区| 亚洲欧洲精品一区二区精品久久久 | 国国产精品蜜臀av免费| 免费少妇av软件| 国产精品国产三级国产av玫瑰| 国产乱来视频区| 黄色一级大片看看| 日本vs欧美在线观看视频| 9热在线视频观看99| 你懂的网址亚洲精品在线观看| 午夜福利视频精品| 久久精品人人爽人人爽视色| 国产成人a∨麻豆精品| 精品少妇黑人巨大在线播放| 最近中文字幕高清免费大全6| 国产精品国产av在线观看| 97在线视频观看| 亚洲第一av免费看| 国产精品免费大片| 午夜免费男女啪啪视频观看| 丝袜喷水一区| 又大又黄又爽视频免费| 精品亚洲乱码少妇综合久久| 18禁裸乳无遮挡动漫免费视频| 亚洲精品国产av蜜桃| 看非洲黑人一级黄片| 欧美3d第一页| av福利片在线| 乱人伦中国视频| 一区二区av电影网| 久久久久久人妻| 草草在线视频免费看| 久久精品国产亚洲av天美| 五月伊人婷婷丁香| 丝瓜视频免费看黄片| 少妇人妻 视频| 日韩制服丝袜自拍偷拍| 色吧在线观看| 久久精品熟女亚洲av麻豆精品| 少妇的丰满在线观看| 欧美精品高潮呻吟av久久| 黑人高潮一二区| 久久久国产欧美日韩av| 大片电影免费在线观看免费| 久久毛片免费看一区二区三区| 午夜久久久在线观看| 一区二区日韩欧美中文字幕 | 老熟女久久久| 黑人高潮一二区| 国产色爽女视频免费观看| 一区二区av电影网| 精品人妻一区二区三区麻豆| av又黄又爽大尺度在线免费看| 老女人水多毛片| 色吧在线观看| 日韩精品免费视频一区二区三区 | 十八禁高潮呻吟视频| 99热网站在线观看| 国产色爽女视频免费观看| 桃花免费在线播放| 精品视频人人做人人爽| 中文字幕最新亚洲高清| 亚洲国产日韩一区二区| 观看美女的网站| 少妇的逼水好多| 一本色道久久久久久精品综合| 三级国产精品片| 你懂的网址亚洲精品在线观看| 久久影院123| 国产xxxxx性猛交| 99热国产这里只有精品6| 久久人人爽人人片av| 国产免费现黄频在线看| 亚洲国产精品一区三区| 男女无遮挡免费网站观看| 极品人妻少妇av视频| 亚洲丝袜综合中文字幕| 欧美成人午夜免费资源| av免费在线看不卡| 国产成人精品一,二区| 啦啦啦在线观看免费高清www| 国产免费又黄又爽又色| 久久午夜综合久久蜜桃| 成年人免费黄色播放视频| 亚洲成人手机| 亚洲av日韩在线播放| 欧美xxxx性猛交bbbb| 午夜日本视频在线| 成人二区视频| 最新中文字幕久久久久| 国产乱人偷精品视频| 亚洲国产精品专区欧美| 日韩电影二区| 美女xxoo啪啪120秒动态图| 国产毛片在线视频| 嫩草影院入口| 成人毛片60女人毛片免费| 亚洲国产色片| 中文字幕另类日韩欧美亚洲嫩草| 欧美精品一区二区大全| 亚洲av福利一区| 韩国精品一区二区三区 | 中文字幕精品免费在线观看视频 | 人人妻人人添人人爽欧美一区卜| 久久久久国产网址| 中文字幕最新亚洲高清| 亚洲精品久久成人aⅴ小说| 18禁裸乳无遮挡动漫免费视频| 婷婷成人精品国产| 男的添女的下面高潮视频| 美女内射精品一级片tv| 国产精品不卡视频一区二区| 精品久久久久久电影网| 欧美日韩av久久| 99视频精品全部免费 在线| 婷婷色综合www| 日韩人妻精品一区2区三区| 另类精品久久| 桃花免费在线播放| 久久毛片免费看一区二区三区| 久久热在线av| 夫妻性生交免费视频一级片| 亚洲精品日本国产第一区| 日产精品乱码卡一卡2卡三| 婷婷色av中文字幕| 国产成人免费观看mmmm| 赤兔流量卡办理| 久久热在线av| 老司机影院毛片| 我要看黄色一级片免费的| 精品国产一区二区三区久久久樱花| 美女大奶头黄色视频| 热99国产精品久久久久久7| 日韩av在线免费看完整版不卡| 三级国产精品片| 视频区图区小说| 亚洲第一av免费看| 久久综合国产亚洲精品| 免费黄频网站在线观看国产| 亚洲综合色惰| 国产成人欧美| 色婷婷av一区二区三区视频| 考比视频在线观看| 午夜福利视频精品| 天天操日日干夜夜撸| 久久久精品区二区三区| 日日撸夜夜添| 午夜福利乱码中文字幕| 亚洲 欧美一区二区三区| 狠狠婷婷综合久久久久久88av| 久久久久网色| 亚洲天堂av无毛| 久久久国产欧美日韩av| 在线观看国产h片| 国产成人精品在线电影| 最近2019中文字幕mv第一页| 亚洲天堂av无毛| av在线老鸭窝| 97在线视频观看| 99re6热这里在线精品视频| 咕卡用的链子| 最新的欧美精品一区二区| 自线自在国产av| 免费久久久久久久精品成人欧美视频 | 色网站视频免费| 久久影院123| 久久久国产精品麻豆| 亚洲国产色片| 中文字幕人妻熟女乱码| 男人添女人高潮全过程视频| 看免费av毛片| 国产福利在线免费观看视频| 国产成人欧美| 在线观看三级黄色| 欧美日本中文国产一区发布| 我要看黄色一级片免费的| 免费人妻精品一区二区三区视频| 内地一区二区视频在线| 啦啦啦在线观看免费高清www| 18禁国产床啪视频网站| 精品久久久精品久久久| 久久99精品国语久久久| 久久久国产欧美日韩av| 黑人欧美特级aaaaaa片| 99视频精品全部免费 在线| 欧美精品亚洲一区二区| 成人国产麻豆网| 成人综合一区亚洲| 欧美日韩视频高清一区二区三区二| 国产白丝娇喘喷水9色精品| av不卡在线播放| 欧美精品一区二区免费开放| 乱码一卡2卡4卡精品| av一本久久久久| 免费高清在线观看日韩| 三级国产精品片| 一级毛片 在线播放| 日韩成人伦理影院| 王馨瑶露胸无遮挡在线观看| freevideosex欧美| 97在线人人人人妻| 亚洲国产精品一区三区| av.在线天堂| 青春草国产在线视频| 十分钟在线观看高清视频www| 欧美变态另类bdsm刘玥| 午夜91福利影院| 免费高清在线观看视频在线观看| 亚洲av在线观看美女高潮| www.熟女人妻精品国产 | 午夜福利影视在线免费观看| 街头女战士在线观看网站| 国产一区有黄有色的免费视频| 成人18禁高潮啪啪吃奶动态图| 亚洲经典国产精华液单| 下体分泌物呈黄色| 久久这里只有精品19| 亚洲精品一二三| 婷婷色综合www| 午夜av观看不卡| 美女中出高潮动态图| 国产av国产精品国产| 一级片免费观看大全| 亚洲av在线观看美女高潮| 国产精品一区二区在线不卡| 人体艺术视频欧美日本| 成人二区视频| 国产精品人妻久久久影院| 久久久久久久久久成人| 99久久精品国产国产毛片| 大香蕉久久成人网| 久久国产精品男人的天堂亚洲 | 日本免费在线观看一区| 香蕉精品网在线| 国产精品欧美亚洲77777| 大陆偷拍与自拍| 超碰97精品在线观看| 精品久久蜜臀av无| 国产毛片在线视频| 久久久久网色| 精品一区二区三区四区五区乱码 | 国产精品国产三级国产av玫瑰| 久久亚洲国产成人精品v| 咕卡用的链子| 波多野结衣一区麻豆| 久久婷婷青草| 丰满少妇做爰视频| 亚洲熟女精品中文字幕| 久久这里有精品视频免费| 丰满少妇做爰视频| 亚洲天堂av无毛| 午夜视频国产福利| 午夜福利视频精品| 免费人妻精品一区二区三区视频| 免费黄频网站在线观看国产| 亚洲 欧美一区二区三区| 1024视频免费在线观看| 一个人免费看片子| 一二三四中文在线观看免费高清| 精品人妻偷拍中文字幕| 久久精品国产a三级三级三级| 中文字幕最新亚洲高清| 国产成人精品久久久久久| 亚洲精品456在线播放app| 啦啦啦在线观看免费高清www| www.av在线官网国产| 亚洲五月色婷婷综合| 国产一区亚洲一区在线观看| 日本黄色日本黄色录像| 午夜激情av网站| 国产精品国产三级国产av玫瑰| 99国产精品免费福利视频| 国产成人aa在线观看| 爱豆传媒免费全集在线观看|