• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于角度間隔嵌入特征的端到端聲紋識(shí)別模型

    2019-11-15 04:49:03王康董元菲
    計(jì)算機(jī)應(yīng)用 2019年10期
    關(guān)鍵詞:損失函數(shù)聲紋識(shí)別卷積神經(jīng)網(wǎng)絡(luò)

    王康 董元菲

    摘 要: 針對(duì)傳統(tǒng)身份認(rèn)證矢量(i-vector)與概率線性判別分析(PLDA)結(jié)合的聲紋識(shí)別模型步驟繁瑣、泛化能力較弱等問題,構(gòu)建了一個(gè)基于角度間隔嵌入特征的端到端模型。該模型特別設(shè)計(jì)了一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò),從語音數(shù)據(jù)的聲學(xué)特征中提取深度說話人嵌入;選擇基于角度改進(jìn)的A-Softmax作為損失函數(shù),在角度空間中使模型學(xué)習(xí)到的不同類別特征始終存在角度間隔并且同類特征間聚集更緊密。在公開數(shù)據(jù)集VoxCeleb2上進(jìn)行的測(cè)試表明,與i-vector結(jié)合PLDA的方法相比,該模型在說話人辨認(rèn)中的Top-1和Top-5上準(zhǔn)確率分別提高了58.9%和30%;而在說話人確認(rèn)中的最小檢測(cè)代價(jià)和等錯(cuò)誤率上分別減小了47.9%和45.3%。實(shí)驗(yàn)結(jié)果驗(yàn)證了所設(shè)計(jì)的端到端模型更適合在多信道、大規(guī)模的語音數(shù)據(jù)集上學(xué)習(xí)到有類別區(qū)分性的特征。

    關(guān)鍵詞:聲紋識(shí)別;端到端模型;損失函數(shù);卷積神經(jīng)網(wǎng)絡(luò);深度說話人嵌入

    中圖分類號(hào):TN912.34;TP391.42

    文獻(xiàn)標(biāo)志碼:A

    Abstract:? An end-to-end model with angular interval embedding was constructed to solve the problems of complicated multiple steps and weak generalization ability in the traditional voiceprint recognition model based on the combination of identity vector (i-vector) and Probabilistic Linear Discriminant Analysis (PLDA). A deep convolutional neural network was specially designed to extract deep speaker embedding from the acoustic features of voice data. The Angular Softmax (A-Softmax), which is based on angular improvement, was employed as the loss function to keep the angular interval between the different classes of features learned by the model and make the clustering of the similar features closer in the angle space. Compared with the method combining i-vector and PLDA, it shows that the proposed model has the identification accuracy of Top-1 and Top-5 increased by 58.9% and 30% respectively and has the minimum detection cost and equal error rate reduced by 47.9% and 45.3% respectively for speaker verification on the public dataset VoxCeleb2. The results verify that the proposed end-to-end model is more suitable for learning class-discriminating features from multi-channel and large-scale datasets.

    Key words: voiceprint recognition; end-to-end model; loss function; convolutional neural network; deep speaker embedding

    0 引言

    聲紋識(shí)別是一種從語音信息中提取生物特征的識(shí)別技術(shù)[1]。在該技術(shù)發(fā)展的幾十年中,由Dehak等[2]提出的身份認(rèn)證矢量(identity vector, i-vector)方法一度成為聲紋識(shí)別領(lǐng)域的主流研究技術(shù)之一。該方法主要有三個(gè)步驟:1)利用高斯混合模型通用背景模型(Gaussian Mixture Model-Universal Background Model, GMM-UBM)計(jì)算充分統(tǒng)計(jì)量;2)在全因子空間上提取i-vector;3)利用概率線性判別分析(Probabilistic Linear Discriminant Analysis, PLDA)計(jì)算i-vector間的似然比分?jǐn)?shù)并作出判斷[3]。

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)在圖像識(shí)別、機(jī)器翻譯和語音識(shí)別等諸多領(lǐng)域取得了非常矚目的成績,所以聲紋識(shí)別技術(shù)同樣引入了這一思想。利用DNN對(duì)聲紋建模一般有兩種方式:一種是利用DNN取代i-vector框架中GMM-UBM來計(jì)算充分統(tǒng)計(jì)量[4];另一種是從DNN的瓶頸層中提取幀級(jí)別的特征,利用這些特征獲得話音級(jí)別表示[5-6],Variani等[7]將DNN最后一個(gè)隱藏層中提取的特征整體取平均來替代i-vector,是這種思想的典型代表。目前,將DNN和i-vector融合的技術(shù)已經(jīng)較為成熟,并且在部分小規(guī)模的商業(yè)產(chǎn)品上得到了實(shí)現(xiàn)。但利用該方法仍然存在兩大問題:1)提取i-vector作為話音級(jí)別的表示形式后,還需要長度標(biāo)準(zhǔn)化和后續(xù)分類器的步驟[8],比較繁瑣;2)由于加性噪聲的存在,利用i-vector構(gòu)建的模型泛化能力較弱[9]。

    基于上述研究背景,本文構(gòu)建一個(gè)端到端的聲紋識(shí)別模型,利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)和重新設(shè)計(jì)的度量方式,提取到類別區(qū)分能力更強(qiáng)的嵌入表示。這些方法在人臉識(shí)別領(lǐng)域得到了驗(yàn)證,但在聲紋識(shí)別中比較少見。模型用于文本無關(guān)的開集識(shí)別任務(wù),也就是訓(xùn)練和測(cè)試數(shù)據(jù)沒有交集,并通過嵌入之間的余弦距離直接來比較說話人之間的相似性。為使模型學(xué)習(xí)到的深度說話人嵌入有足夠的類別區(qū)分性,損失函數(shù)選擇A-Softmax(Angular Softmax)來替代分類網(wǎng)絡(luò)中最常使用的Softmax。A-Softmax損失函數(shù)能學(xué)習(xí)角度判別特征,將不同類別的特征映射到單位超球面上的不同區(qū)域內(nèi)[10],更適合大規(guī)模數(shù)據(jù)集的訓(xùn)練,得到泛化能力更強(qiáng)的模型。

    1 端到端聲紋模型——深度說話人嵌入開集識(shí)別任務(wù)本質(zhì)上是一種度量學(xué)習(xí)任務(wù),其中的關(guān)鍵是使模型學(xué)習(xí)到類別間隔較大的特征,所形成的特征空間足以概括沒訓(xùn)練過的說話人,所以模型訓(xùn)練過程中的目標(biāo)是在特征空間中不斷縮小同類距離的同時(shí)增大異類之間的距離。

    目前,已有一些研究通過改進(jìn)主干神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來提升模型效果,如文獻(xiàn)[11]利用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)提取話音級(jí)別特征作為說話人嵌入,文獻(xiàn)[12]則利用NIN(Network In Network)建模。

    CNN最初在圖像領(lǐng)域應(yīng)用廣泛,將其應(yīng)用到語音分析中也能有效地在聲學(xué)特征中減少譜之間的變化并對(duì)譜之間的相關(guān)性進(jìn)行建模[13],故本文選擇CNN從聲學(xué)特征中提取語音數(shù)據(jù)幀級(jí)別的特征。

    從平衡訓(xùn)練時(shí)間和模型深度的角度來看,選取CNN提取特征也要優(yōu)于語音識(shí)別中常用的長短期記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò)[3]。

    另一方面,模型的度量方式也可以進(jìn)行改進(jìn),基于這種改進(jìn)思想一般有兩種方式[8]:一種是訓(xùn)練分類網(wǎng)絡(luò)作為深度說話人嵌入的提取器,在損失函數(shù)上加上限制條件約束網(wǎng)絡(luò)學(xué)習(xí)方向,提取輸出層前一層的特征作為深度說話人嵌入;另一種是直接在特征空間中訓(xùn)練,使不同類別說話人之間的歐氏距離有一定的間隔,并將歸一化后的特征作為深度說話人嵌入,這樣特征空間中的歐氏距離與余弦距離意義等價(jià),測(cè)試階段可以直接利用余弦相似性計(jì)算分?jǐn)?shù)。直接度量特征之間距離最具代表性的是三元組損失[14],但三元組的挖掘非常復(fù)雜,導(dǎo)致模型訓(xùn)練非常耗時(shí),且對(duì)性能敏感,所以本文主要研究分類網(wǎng)絡(luò),即輸出層神經(jīng)元的個(gè)數(shù)等于訓(xùn)練的說話人類別數(shù),這種思想的系統(tǒng)流程如圖1所示。

    系統(tǒng)的整體流程分為訓(xùn)練過程和測(cè)試過程兩個(gè)部分。在訓(xùn)練過程中,將從語音數(shù)據(jù)中提取的聲學(xué)特征送入CNN生成幀級(jí)別的特征,幀級(jí)別的特征被激活后送入平均池化層得到話音級(jí)別的特征,再利用仿射層進(jìn)行維度轉(zhuǎn)換,得到固定維度的深度說話人嵌入,輸出層將固定維度的說話人嵌入映射到訓(xùn)練說話人類別數(shù)。損失函數(shù)是構(gòu)建的端到端網(wǎng)絡(luò)訓(xùn)練過程的最后一步,通過不斷減小網(wǎng)絡(luò)預(yù)測(cè)值和實(shí)際標(biāo)簽的差距來提高網(wǎng)絡(luò)性能。在測(cè)試階段,先把語音數(shù)據(jù)送入已經(jīng)訓(xùn)練好的網(wǎng)絡(luò)模型,從仿射層中得到深度說話人嵌入,再計(jì)算每對(duì)嵌入之間的余弦距離,根據(jù)閾值即可判斷該對(duì)語音數(shù)據(jù)是屬于相同說話人還是不同說話人。

    2 具有角度區(qū)分性的深度說話人嵌入

    基于Softmax損失函數(shù)學(xué)習(xí)到的深度說話人嵌入在本質(zhì)上就有一定的角度區(qū)分性[10],這一點(diǎn)在文獻(xiàn)[15]中也得到了證實(shí),但在由Softmax直接映射的角度空間中對(duì)異類說話人嵌入沒有明確的限制條件,這樣同時(shí)優(yōu)化了特征之間的夾角和距離。A-Softmax損失函數(shù)將特征權(quán)值進(jìn)行歸一化,使CNN更集中于優(yōu)化不同特征之間的夾角,學(xué)習(xí)到具有角度區(qū)分性的深度說話人嵌入[10],以提高模型性能。

    2.1 A-Softmax原理

    延用文獻(xiàn)[16]中的定義,將分類網(wǎng)絡(luò)的全連接輸出層,Softmax函數(shù)以及交叉熵?fù)p失函數(shù)三個(gè)步驟聯(lián)合定義為Softmax損失函數(shù),表達(dá)式為:

    其中:xi表示第i個(gè)訓(xùn)練樣本的輸入特征; yi為其對(duì)應(yīng)的類別標(biāo)簽;Wj、Wyi分別是全連接輸出層權(quán)重矩陣W的第j列和第yi列;bj、byi為其對(duì)應(yīng)的偏置。訓(xùn)練數(shù)據(jù)時(shí)一般會(huì)分批處理,N即為每一批次中的訓(xùn)練樣本個(gè)數(shù),K為所有訓(xùn)練樣本中的類別數(shù)。

    將W與xi展開成模長與夾角余弦的乘積,同時(shí)限制‖Wj‖=1和bj=0,即在每次迭代中都將權(quán)重矩陣W每列的模進(jìn)行歸一化,并將偏置設(shè)為0,損失函數(shù)表達(dá)式轉(zhuǎn)化為:

    其中:θj,i(0≤θj,i≤π)為向量Wj與特征xi間的夾角,式(2)表明了訓(xùn)練樣本i被預(yù)測(cè)為類別j的概率僅與θj,i有關(guān)。A-Softmax不僅在角度空間上使不同類別的樣本分離,同時(shí)利用倍角關(guān)系增大了類別之間的角度間隔[10],表達(dá)式為:

    2.2 A-Softmax角度間隔的性質(zhì)

    A-Softmax損失函數(shù)不僅通過角度間隔增加了特征之間的類別區(qū)分能力,同時(shí)能將學(xué)習(xí)到的特征映射到單位超球面上解釋。權(quán)重Wyi與特征xi之間的夾角對(duì)應(yīng)于該單位超球面上的最短弧長,同一類別在超球面上形成一個(gè)類似于超圓的區(qū)域。通過角度間隔參數(shù)m的設(shè)定可以調(diào)節(jié)學(xué)習(xí)任務(wù)的難易程度,m越大,單個(gè)類別形成的超圓區(qū)域也就越小,學(xué)習(xí)任務(wù)也越困難。但m存在一個(gè)最小值mmin使同類特征之間最大角度間隔小于異類特征之間最小角度間隔,文獻(xiàn)[10]中未給出推導(dǎo)過程,本文將在二維空間中定量分析mmin。

    二分類情況下不同類別之間的角度間隔如圖2所示,其中W1、W2分別是類1、類2的權(quán)重向量,W1與W2之間的夾角為θ12,令輸入的特征x屬于類1,則有cos(mθ1)>cos(θ2),即mθ1<θ2。當(dāng)特征x在W1、W2之間時(shí),θ1存在一個(gè)屬于類1的最大角

    θin1_max;當(dāng)特征x在W1、W2之外時(shí),θ1存在一個(gè)屬于類1的最大角θout1_max,θ1的范圍即在θin1_max與θout1_max之間。如圖2(a),當(dāng)x在W1、W2之間時(shí)有:

    選擇滿足期望特征分布的參數(shù)m,理論上可使所有訓(xùn)練特征按標(biāo)準(zhǔn)分布在單位超球面上,不同類別之間始終存在角度間隔,在此基礎(chǔ)上訓(xùn)練盡可能多的類別數(shù),則可以得到類別區(qū)分能力更強(qiáng)的深度說話人嵌入,提高模型的泛化能力。

    2.3 網(wǎng)絡(luò)模型設(shè)計(jì)

    本文設(shè)計(jì)的網(wǎng)絡(luò)模型主要分為三個(gè)部分:首先是語音信號(hào)聲學(xué)特征的提取;其次是主干神經(jīng)網(wǎng)絡(luò)的構(gòu)建;最后,利用A-Softmax損失函數(shù)衡量模型預(yù)測(cè)值,并更新參數(shù)。

    在聲學(xué)特征提取階段,為保留更豐富的原始音頻信息,將語音信號(hào)利用幀長25ms、幀移10ms的滑動(dòng)窗口轉(zhuǎn)化為64維FBank(FilterBank)特征。每個(gè)樣本隨機(jī)截取多個(gè)約0.6s的語音段,生成64×64的特征矩陣,經(jīng)過零均值,單位方差歸一化后,轉(zhuǎn)化為單通道的特征圖送入構(gòu)建好的CNN。

    主干網(wǎng)絡(luò)是基于殘差網(wǎng)絡(luò)設(shè)計(jì)[17],網(wǎng)絡(luò)層細(xì)節(jié)如表1所示。

    每個(gè)殘差塊由兩個(gè)卷積核為3×3、步長為1×1的卷積層構(gòu)成,包含低層輸出到高層輸入的直接連接,每一種殘差塊只有一個(gè)。當(dāng)輸出通道數(shù)增加時(shí),利用一個(gè)卷積核為5×5、步長為2×2的卷積層使頻域的維度保持不變,將經(jīng)過多個(gè)卷積層和殘差塊提取到的幀級(jí)別特征送入時(shí)間平均池化層。時(shí)間平均池化層將特征在時(shí)域上整體取均值,得到話音級(jí)別的特征,使得構(gòu)建的網(wǎng)絡(luò)在時(shí)間位置上具有不變性,再經(jīng)過仿射層將話音級(jí)別的特征映射成512維的深度說話人嵌入。

    A-Softmax損失函數(shù)中的角度間隔參數(shù)m設(shè)為3,利用反向傳播更新模型參數(shù)。測(cè)試數(shù)據(jù)直接從仿射層提取512維深度說話人嵌入,通過L2歸一化后直接計(jì)算余弦相似性,設(shè)置分?jǐn)?shù)閾值評(píng)判一對(duì)嵌入屬于相同說話人還是不同說話人,模型的訓(xùn)練算法和測(cè)試算法分別如算法1和算法2所示。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    為得到一個(gè)強(qiáng)魯棒性模型,需要訓(xùn)練一個(gè)多類別、多信道的大規(guī)模數(shù)據(jù)集,本實(shí)驗(yàn)采用VoxCeleb2數(shù)據(jù)集進(jìn)行驗(yàn)證。VoxCeleb是一個(gè)從YouTube網(wǎng)站的采訪視頻中提取的視聽數(shù)據(jù)集,由人類語音的短片段組成,其中VoxCeleb2數(shù)據(jù)集的規(guī)模比目前任何一個(gè)公開的聲紋識(shí)別數(shù)據(jù)集仍大數(shù)倍,包含近6000個(gè)說話人產(chǎn)生的百萬多條語音數(shù)據(jù)[18]。

    VoxCeleb2中的語音數(shù)據(jù)包含不同種族、口音、職業(yè)和年齡的說話人演講,數(shù)據(jù)在無任何約束條件下采集,背景有說話聲、笑聲、重疊的語音等符合實(shí)際環(huán)境的各種噪聲[18],更適合訓(xùn)練端到端的神經(jīng)網(wǎng)絡(luò)模型。同時(shí)該數(shù)據(jù)集提供了幾種不同方法在不同評(píng)價(jià)指標(biāo)下的基礎(chǔ)分?jǐn)?shù),本實(shí)驗(yàn)構(gòu)建自己的網(wǎng)絡(luò)模型與i-vector結(jié)合PLDA的方法進(jìn)行比較。

    3.2 模型訓(xùn)練方法

    模型共訓(xùn)練40輪,每輪每批處理的樣本數(shù)為64個(gè)音頻文件。每個(gè)卷積層后都加入批標(biāo)準(zhǔn)化(Batch Normalization, BN)和激活層,以提高模型訓(xùn)練速度,激活函數(shù)選擇上限值為20的線性整流函數(shù)(Rectified Linear Unit, ReLU)。優(yōu)化器選擇動(dòng)量為0.9的隨機(jī)梯度下降法,權(quán)重衰減設(shè)為0。

    為防止訓(xùn)練過程中損失函數(shù)出現(xiàn)震蕩,利用指數(shù)衰減法控制模型學(xué)習(xí)率,衰減系數(shù)設(shè)為0.98,每隔1000個(gè)批處理步驟當(dāng)前學(xué)習(xí)率乘以衰減系數(shù),模型初始學(xué)習(xí)率為0.001。

    3.3 實(shí)驗(yàn)結(jié)果分析

    訓(xùn)練好的端到端模型可以同時(shí)進(jìn)行說話人辨認(rèn)和說話人確認(rèn)兩個(gè)實(shí)驗(yàn),前者是“多選一”問題,后者是“一對(duì)一判別”問題。VoxCeleb2中的測(cè)試集共有118類,36237條語音,兩個(gè)實(shí)驗(yàn)設(shè)計(jì)的方法均參考文獻(xiàn)[19]。實(shí)驗(yàn)訓(xùn)練了基于Softmax和A-Softmax兩種損失函數(shù)的模型,以驗(yàn)證本文模型的優(yōu)勢(shì)。

    對(duì)于說話人辨認(rèn)實(shí)驗(yàn),在118個(gè)說話人中每人選擇5條語音數(shù)據(jù)構(gòu)建聲紋庫,即聲紋庫中一共包含590條語音。再從每個(gè)說話人中選擇一條不同于聲紋庫的測(cè)試語音與聲紋庫中的所有語音進(jìn)行比對(duì),按相似性分?jǐn)?shù)從大到小排序,計(jì)算相似度最大匹配成功的概率Top-1和前5名匹配成功的概率Top-5,結(jié)果見表2。

    由表2的實(shí)驗(yàn)結(jié)果可知,采用提取深度說話人嵌入的方式,模型性能要明顯優(yōu)于i-vector結(jié)合PLDA的方法。選擇A-Softmax作為損失函數(shù)構(gòu)建的模型與之相比,Top-1和Top-5準(zhǔn)確率分別提高了58.9%和30%。原因在于傳統(tǒng)方法提取的i-vector中既包含說話人信息又包含信道信息,利用信道補(bǔ)償?shù)姆椒▉頊p少信道影響不能充分?jǐn)M合多種信道下采集的訓(xùn)練數(shù)據(jù)集,CNN卻可以很好地?cái)M合這種多種信道樣本和標(biāo)簽之間的關(guān)系。損失函數(shù)選擇A-Softmax與Softmax相比,Top-1和Top-5準(zhǔn)確率分別提高了17.53%和7.41%。原因在于A-Softmax能學(xué)習(xí)到具有角度區(qū)分性的特征,對(duì)于從大規(guī)模的數(shù)據(jù)集訓(xùn)練得到的說話人嵌入在單位超球面上聚集更集中,這使得采用A-Softmax的模型比采用Softmax的模型具有更強(qiáng)的泛化能力。

    在說話人確認(rèn)實(shí)驗(yàn)中,測(cè)試集中共有36237條語音,對(duì)于每條測(cè)試語音組成兩對(duì)與該條語音屬于同種說話人的語音數(shù)據(jù)和兩對(duì)屬于不同說話人的語音數(shù)據(jù),實(shí)驗(yàn)一共組成了144948對(duì)測(cè)試對(duì)。計(jì)算所有測(cè)試對(duì)中錯(cuò)誤接受率(False Acceptance Rate, FAR)和錯(cuò)誤拒絕率(False Rejection Rate, FRR)相等時(shí)等錯(cuò)誤率(Equal Error Rate, EER)的值。同時(shí)該實(shí)驗(yàn)還有一個(gè)評(píng)價(jià)標(biāo)準(zhǔn)為最小檢測(cè)代價(jià)函數(shù)(Minimum Detection Cost Function, minDCF),檢測(cè)代價(jià)函數(shù)DCF的公式為:

    其中:CFR和CFA分別表示錯(cuò)誤拒絕和錯(cuò)誤接受的懲罰代價(jià);Ptarget和1-Ptarget分別為真實(shí)說話測(cè)試和冒認(rèn)測(cè)試的先驗(yàn)概率。實(shí)驗(yàn)設(shè) ,結(jié)果見表3。同時(shí)針對(duì)兩種不同損失函數(shù)所構(gòu)建的模型,繪制了檢測(cè)錯(cuò)誤權(quán)衡(Detection Error Tradeoff, DET)曲線圖,結(jié)果如圖4所示。

    由表3和圖4的實(shí)驗(yàn)結(jié)果可知,采用提取深度說話人嵌入的方式,模型性能受損失函數(shù)的影響非常大。選擇A-Softmax作為損失函數(shù)構(gòu)建的模型與傳統(tǒng)方法相比,minDCF和EER分別減小了47.9%和45.3%。原因是采用A-Softmax損失函數(shù)構(gòu)建的模型增加了角度間隔,學(xué)習(xí)到的深度說話人嵌入有非常好的類別區(qū)分性。但選擇Softmax作為損失函數(shù)構(gòu)建的模型,minDCF反而大于傳統(tǒng)方法,EER的減少程度也不明顯,這也說明了Softmax并不適用于學(xué)習(xí)具有類別區(qū)分性的深度說話人嵌入。

    4 結(jié)語

    本文構(gòu)建了一個(gè)端到端聲紋識(shí)別模型,該模型利用類似于殘差網(wǎng)絡(luò)的卷積神經(jīng)網(wǎng)絡(luò),從聲學(xué)特征中提取深度說話人嵌入,選擇A-Softmax作為損失函數(shù)來學(xué)習(xí)具有角度區(qū)分性的特征。通過對(duì)角度間隔參數(shù)m的分析,推導(dǎo)出滿足期望的特征分布時(shí)m的最小值。本文從實(shí)驗(yàn)中得出,端到端的聲紋模型能訓(xùn)練出結(jié)構(gòu)更簡單、泛化能力更強(qiáng)的模型,該模型在說話人辨認(rèn)實(shí)驗(yàn)上有明顯的優(yōu)勢(shì),但在說話人確認(rèn)實(shí)驗(yàn)中,模型性能受損失函數(shù)的影響較大。對(duì)于更大規(guī)模的數(shù)據(jù)集,本文構(gòu)建的網(wǎng)絡(luò)模型可能達(dá)不到更好的效果,需要構(gòu)建更深的網(wǎng)絡(luò)且減少過擬合對(duì)模型效果的影響,為保持特征在頻域上的維度不變,可以對(duì)每一層的殘差塊個(gè)數(shù)進(jìn)行增加。后續(xù)將會(huì)進(jìn)一步研究在大規(guī)模數(shù)據(jù)集的條件下,所設(shè)計(jì)的模型中殘差塊的個(gè)數(shù)對(duì)聲紋識(shí)別模型性能的影響。

    參考文獻(xiàn)(References)

    [1] KINNUNEN T, LI H. An overview of text-independent speaker recognition: from features to supervectors[J]. Speech Communication, 2010, 52(1): 12-40.

    [2] DEHAK N, KENNY P J, DEHAK R, et al. Front-end factor analysis for speaker verification[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2011, 19(4): 788-798.

    [3] LI C, MA X, JIANG B, et al. Deep speaker: an end-to-end neural speaker embedding system[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1705.02304.pdf.

    [4] LEI Y, SCHEFFER N, FERRER L, et al. A novel scheme for speaker recognition using a phonetically-aware deep neural network[C]// Proceedings of the 2014 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2014: 1695-1699.

    [5] FU T, QIAN Y, LIU Y, et al. Tandem deep features for text-dependent speaker verification[EB/OL]. [2019-01-10]. https://www.isca-speech.org/archive/archive_papers/interspeech_2014/i14_1327.pdf.

    [6] TIAN Y, CAI M, HE L, et al. Investigation of bottleneck features and multilingual deep neural networks for speaker verification[EB/OL]. [2019-01-10]. https://www.isca-speech.org/archive/interspeech_2015/papers/i15_1151.pdf.

    [7] VARIANI E, LEI X, McDERMOTT E, et al. Deep neural networks for small footprint text-dependent speaker verification[C]// Proceedings of the 2014 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2014: 4052-4056.

    [8] CAI W, CHEN J, LI M. Analysis of length normalization in end-to-end speaker verification system[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1806.03209.pdf.

    [9] 王昕, 張洪冉. 基于DNN處理的魯棒性I-Vector說話人識(shí)別算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2018, 54(22): 167-172. (WANG X, ZHANG H R. Robust i-vector speaker recognition method based on DNN processing[J]. Computer Engineering and Applications, 2018, 54(22): 167-172.)

    [10] LIU W, WEN Y, YU Z, et al. SphereFace: deep hypersphere embedding for face recognition[C]// Proceedings of the IEEE 2017 Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 6738-6746.

    [11] HEIGOLD G, MORENO I, BENGIO S, et al. End-to-end text-dependent speaker verification[C]// Proceedings of the 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2016: 5115-5119.

    [12] SNYDER D, GHAHREMANI P, POVEY D, et al. Deep neural network-based speaker embeddings for end-to-end speaker verification[C]// Proceedings of the 2016 IEEE Spoken Language Technology Workshop. Piscataway: IEEE, 2016: 165-170.

    [13] ZHANG Y, PEZESHKI M, BRAKEL P, et al. Towards end-to-end speech recognition with deep convolutional neural networks[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1701.02720.pdf.

    [14] ZHANG C, KOISHIDA K. End-to-end text-independent speaker verification with triplet loss on short utterances[EB/OL]. [2019-01-10]. https://www.isca-speech.org/archive/Interspeech_2017/pdfs/1608.PDF.

    [15] WEN Y, ZHANG K, LI Z, et al. A discriminative feature learning approach for deep face recognition[C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9911. Cham: Springer, 2016: 499-515.

    [16] LIU W, WEN Y, YU Z, et al. Large-margin softmax loss for convolutional neural networks[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1612.02295.pdf.

    [17] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778.

    [18] CHUNG J S, NAGRANI A, ZISSERMAN A. VoxCeleb2: deep speaker recognition[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1806.05622.pdf.

    [19] NAGRANI A, CHUNG J S, ZISSERMAN A. VoxCeleb: a large-scale speaker identification dataset[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1706.08612.pdf.

    猜你喜歡
    損失函數(shù)聲紋識(shí)別卷積神經(jīng)網(wǎng)絡(luò)
    考慮應(yīng)急時(shí)間和未滿足需求量的應(yīng)急物資多階段分配模型
    基于深度學(xué)習(xí)的人臉屬性聯(lián)合估計(jì)
    聲紋識(shí)別中的區(qū)分性訓(xùn)練
    基于福利損失函數(shù)的人民幣匯率制度選擇
    基于福利損失函數(shù)的人民幣匯率制度選擇
    淺談一種基于聲紋識(shí)別的教室上課點(diǎn)名系統(tǒng)
    基于i—vector聲紋識(shí)別上課點(diǎn)名系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    国产高清视频在线观看网站| 女人久久www免费人成看片 | 人妻少妇偷人精品九色| 最近视频中文字幕2019在线8| 亚洲成人中文字幕在线播放| 中文天堂在线官网| 两个人的视频大全免费| 欧美区成人在线视频| 亚洲最大成人中文| 久久人妻av系列| 日韩欧美国产在线观看| 国产亚洲一区二区精品| 热99re8久久精品国产| 乱系列少妇在线播放| 午夜精品在线福利| 亚洲欧美日韩卡通动漫| 精品久久国产蜜桃| 男女边吃奶边做爰视频| av又黄又爽大尺度在线免费看 | 日韩欧美三级三区| 日本五十路高清| 精品国产一区二区三区久久久樱花 | 亚洲国产高清在线一区二区三| 国产伦在线观看视频一区| 国产综合懂色| 婷婷色av中文字幕| 久久草成人影院| 免费看av在线观看网站| 人妻系列 视频| 非洲黑人性xxxx精品又粗又长| av视频在线观看入口| 噜噜噜噜噜久久久久久91| 亚洲18禁久久av| 国产精品三级大全| 精品久久国产蜜桃| 一级二级三级毛片免费看| 狂野欧美激情性xxxx在线观看| 国产成人免费观看mmmm| 亚洲成人中文字幕在线播放| 3wmmmm亚洲av在线观看| 97人妻精品一区二区三区麻豆| 亚洲第一区二区三区不卡| 国产免费福利视频在线观看| av在线蜜桃| av在线蜜桃| 熟女电影av网| 亚洲成人av在线免费| 中文亚洲av片在线观看爽| 色综合色国产| 可以在线观看毛片的网站| 亚洲美女搞黄在线观看| 尤物成人国产欧美一区二区三区| 亚洲国产精品久久男人天堂| 亚洲一区高清亚洲精品| 一级黄片播放器| 中文字幕精品亚洲无线码一区| 国产精品熟女久久久久浪| 国产精华一区二区三区| 亚洲va在线va天堂va国产| 欧美xxxx黑人xx丫x性爽| 一边摸一边抽搐一进一小说| 综合色丁香网| 69人妻影院| 欧美zozozo另类| 欧美激情在线99| 美女内射精品一级片tv| 国产黄片视频在线免费观看| 一个人免费在线观看电影| 国产高清国产精品国产三级 | 变态另类丝袜制服| 菩萨蛮人人尽说江南好唐韦庄 | 岛国在线免费视频观看| 国产成人a∨麻豆精品| 美女cb高潮喷水在线观看| 亚洲欧美一区二区三区国产| 建设人人有责人人尽责人人享有的 | 中文天堂在线官网| 午夜日本视频在线| 美女大奶头视频| 日产精品乱码卡一卡2卡三| 精华霜和精华液先用哪个| 国产三级在线视频| 91av网一区二区| 亚洲怡红院男人天堂| 美女黄网站色视频| 长腿黑丝高跟| 国产亚洲91精品色在线| 又粗又硬又长又爽又黄的视频| 精品久久国产蜜桃| 综合色丁香网| 97热精品久久久久久| 精品欧美国产一区二区三| 国产亚洲av嫩草精品影院| 国产麻豆成人av免费视频| 国产精品久久久久久精品电影小说 | 久久精品久久久久久噜噜老黄 | 午夜激情欧美在线| 国产成人aa在线观看| 亚洲一区高清亚洲精品| 欧美丝袜亚洲另类| 日韩亚洲欧美综合| 99热6这里只有精品| 亚洲欧美中文字幕日韩二区| 久久99热6这里只有精品| 欧美另类亚洲清纯唯美| 老女人水多毛片| 可以在线观看毛片的网站| 国产精品不卡视频一区二区| 久久久久久久久久久免费av| 国产免费一级a男人的天堂| 日韩一本色道免费dvd| 国产亚洲5aaaaa淫片| 日韩精品有码人妻一区| 亚州av有码| 我要看日韩黄色一级片| videossex国产| 成人av在线播放网站| 少妇熟女欧美另类| 国产v大片淫在线免费观看| 国产69精品久久久久777片| 直男gayav资源| 一级毛片aaaaaa免费看小| 久久久久久久久中文| av在线亚洲专区| 亚洲中文字幕日韩| 国产乱人视频| av国产免费在线观看| 久久久久久久久久黄片| 亚洲18禁久久av| 偷拍熟女少妇极品色| 亚洲五月天丁香| 欧美成人一区二区免费高清观看| 亚洲精品国产av成人精品| av女优亚洲男人天堂| 国产精品一二三区在线看| 又爽又黄无遮挡网站| 中文字幕制服av| 联通29元200g的流量卡| 亚洲无线观看免费| 国语自产精品视频在线第100页| 中文亚洲av片在线观看爽| 成人毛片a级毛片在线播放| 97在线视频观看| 观看美女的网站| 18禁裸乳无遮挡免费网站照片| 亚洲婷婷狠狠爱综合网| 亚洲婷婷狠狠爱综合网| 亚洲国产精品成人久久小说| 国产91av在线免费观看| 看片在线看免费视频| 中国美白少妇内射xxxbb| 久久久久国产网址| 国产午夜福利久久久久久| 亚洲激情五月婷婷啪啪| 国产一区二区在线观看日韩| 日韩大片免费观看网站 | 亚洲欧美清纯卡通| 亚洲人与动物交配视频| 亚洲不卡免费看| 中文字幕久久专区| 国产精品乱码一区二三区的特点| 网址你懂的国产日韩在线| 日韩一本色道免费dvd| 少妇丰满av| 丰满乱子伦码专区| 免费搜索国产男女视频| 午夜福利视频1000在线观看| 最近的中文字幕免费完整| 国产精品久久电影中文字幕| 国产一区有黄有色的免费视频 | 国产成年人精品一区二区| 免费看a级黄色片| 草草在线视频免费看| 国产高清视频在线观看网站| 嫩草影院入口| 久久精品国产亚洲网站| 午夜福利成人在线免费观看| 久久久久久久国产电影| 成人一区二区视频在线观看| 日韩国内少妇激情av| 国产高清不卡午夜福利| 中文欧美无线码| 国国产精品蜜臀av免费| 91久久精品国产一区二区成人| 天天躁日日操中文字幕| 韩国高清视频一区二区三区| 国产成人a区在线观看| 麻豆成人av视频| 22中文网久久字幕| www日本黄色视频网| 免费不卡的大黄色大毛片视频在线观看 | 亚洲无线观看免费| 国产免费福利视频在线观看| 久久精品国产自在天天线| 免费大片18禁| 亚洲aⅴ乱码一区二区在线播放| 少妇裸体淫交视频免费看高清| 一区二区三区免费毛片| a级毛色黄片| 级片在线观看| 尾随美女入室| 午夜福利网站1000一区二区三区| 亚洲欧美日韩无卡精品| 日韩三级伦理在线观看| 舔av片在线| 成人av在线播放网站| 国产大屁股一区二区在线视频| 国产伦在线观看视频一区| 久久久久久久久久久免费av| 欧美一区二区精品小视频在线| av播播在线观看一区| 免费电影在线观看免费观看| 青春草亚洲视频在线观看| av女优亚洲男人天堂| 直男gayav资源| 欧美不卡视频在线免费观看| 免费看a级黄色片| 精品久久久久久久久av| videossex国产| 亚洲av电影不卡..在线观看| 免费观看精品视频网站| 黄色一级大片看看| 欧美日本亚洲视频在线播放| 免费电影在线观看免费观看| 搡老妇女老女人老熟妇| 国产成人a∨麻豆精品| 三级国产精品片| a级一级毛片免费在线观看| av.在线天堂| 亚洲怡红院男人天堂| 久久6这里有精品| 国产单亲对白刺激| a级一级毛片免费在线观看| 国产精品野战在线观看| 人妻制服诱惑在线中文字幕| 久久热精品热| 亚洲成人中文字幕在线播放| 2021天堂中文幕一二区在线观| 日日撸夜夜添| 国产精品av视频在线免费观看| 有码 亚洲区| 亚洲最大成人手机在线| 亚洲图色成人| 黄色一级大片看看| 欧美日韩在线观看h| 成人特级av手机在线观看| 99久国产av精品国产电影| 级片在线观看| 国产免费男女视频| 男女啪啪激烈高潮av片| 国产男人的电影天堂91| 亚洲精品456在线播放app| 国产激情偷乱视频一区二区| 看十八女毛片水多多多| 亚洲精品日韩av片在线观看| 久久久久久大精品| 精品人妻熟女av久视频| 秋霞伦理黄片| 天天躁夜夜躁狠狠久久av| 国产一区二区在线av高清观看| 成人无遮挡网站| 久久久久久久久久久丰满| 天天一区二区日本电影三级| 国内少妇人妻偷人精品xxx网站| 在线观看一区二区三区| 国产精品精品国产色婷婷| 国产老妇伦熟女老妇高清| 又黄又爽又刺激的免费视频.| 亚洲国产精品合色在线| 国产三级中文精品| 久久精品影院6| 国产精华一区二区三区| 中文字幕制服av| 国产精品乱码一区二三区的特点| 婷婷色麻豆天堂久久 | 韩国av在线不卡| 成人欧美大片| 国产午夜福利久久久久久| 日韩精品有码人妻一区| 美女内射精品一级片tv| 免费黄网站久久成人精品| 少妇高潮的动态图| 精品久久久久久久久亚洲| 校园人妻丝袜中文字幕| 麻豆av噜噜一区二区三区| 亚洲国产日韩欧美精品在线观看| 午夜福利网站1000一区二区三区| 色吧在线观看| 中文乱码字字幕精品一区二区三区 | 91久久精品国产一区二区三区| 精品欧美国产一区二区三| 国产色爽女视频免费观看| 夜夜看夜夜爽夜夜摸| 国产成人91sexporn| videossex国产| 精品久久久噜噜| 91久久精品电影网| 我的女老师完整版在线观看| 18禁裸乳无遮挡免费网站照片| 精品99又大又爽又粗少妇毛片| 欧美+日韩+精品| 亚洲国产精品sss在线观看| 偷拍熟女少妇极品色| 国产精品久久久久久久久免| 白带黄色成豆腐渣| 五月伊人婷婷丁香| 91久久精品国产一区二区成人| 秋霞在线观看毛片| 久久久久久久久久成人| 中文欧美无线码| 日日摸夜夜添夜夜爱| 内地一区二区视频在线| av福利片在线观看| 免费不卡的大黄色大毛片视频在线观看 | 日本-黄色视频高清免费观看| www日本黄色视频网| 成人午夜高清在线视频| 欧美成人午夜免费资源| 九草在线视频观看| 成人国产麻豆网| 97热精品久久久久久| 午夜久久久久精精品| 国产高清不卡午夜福利| 草草在线视频免费看| 亚洲va在线va天堂va国产| 老司机福利观看| 国产成人a区在线观看| 人人妻人人看人人澡| 欧美激情国产日韩精品一区| 三级男女做爰猛烈吃奶摸视频| 夜夜看夜夜爽夜夜摸| 纵有疾风起免费观看全集完整版 | 国产亚洲精品久久久com| 最近2019中文字幕mv第一页| 中文字幕制服av| 波多野结衣巨乳人妻| 久久久久久久久久成人| 欧美又色又爽又黄视频| 狂野欧美激情性xxxx在线观看| 久久久久性生活片| 免费看光身美女| 九九久久精品国产亚洲av麻豆| 性插视频无遮挡在线免费观看| 中文在线观看免费www的网站| 99视频精品全部免费 在线| 国产av不卡久久| 亚洲人与动物交配视频| 成人高潮视频无遮挡免费网站| 婷婷六月久久综合丁香| 一级毛片我不卡| 亚洲人成网站在线观看播放| 亚洲欧美精品专区久久| 插阴视频在线观看视频| 国产精品麻豆人妻色哟哟久久 | 麻豆久久精品国产亚洲av| 又粗又硬又长又爽又黄的视频| 国产片特级美女逼逼视频| 国产伦在线观看视频一区| 亚洲精品成人久久久久久| 日本一二三区视频观看| 麻豆一二三区av精品| 亚洲精品日韩av片在线观看| videossex国产| 美女被艹到高潮喷水动态| 欧美日韩在线观看h| 午夜老司机福利剧场| 欧美97在线视频| 久久国产乱子免费精品| av国产久精品久网站免费入址| 丝袜喷水一区| 日日啪夜夜撸| av卡一久久| 啦啦啦韩国在线观看视频| 国产极品天堂在线| 日本猛色少妇xxxxx猛交久久| 少妇熟女欧美另类| 亚洲经典国产精华液单| 日本猛色少妇xxxxx猛交久久| 国产亚洲一区二区精品| 国产精品久久久久久久电影| 亚洲精品国产成人久久av| 中文字幕制服av| 亚洲精品aⅴ在线观看| 一级毛片久久久久久久久女| 欧美成人午夜免费资源| 国产精品一区二区性色av| 狂野欧美激情性xxxx在线观看| 久热久热在线精品观看| 亚洲国产高清在线一区二区三| 久久久精品94久久精品| 九九爱精品视频在线观看| 日本免费一区二区三区高清不卡| 乱人视频在线观看| 亚洲av电影不卡..在线观看| 精品熟女少妇av免费看| 成人漫画全彩无遮挡| 级片在线观看| 欧美精品一区二区大全| 最近中文字幕高清免费大全6| av黄色大香蕉| 汤姆久久久久久久影院中文字幕 | 久久这里只有精品中国| 人妻少妇偷人精品九色| 亚洲无线观看免费| 亚洲欧美日韩无卡精品| 日本色播在线视频| 色综合亚洲欧美另类图片| 国内揄拍国产精品人妻在线| www日本黄色视频网| 日本五十路高清| 国产午夜福利久久久久久| 91久久精品电影网| 超碰av人人做人人爽久久| 少妇人妻精品综合一区二区| h日本视频在线播放| 91久久精品国产一区二区三区| 女的被弄到高潮叫床怎么办| 1000部很黄的大片| 丝袜美腿在线中文| 国产伦精品一区二区三区四那| 婷婷色综合大香蕉| 亚洲av免费高清在线观看| 久久鲁丝午夜福利片| 九色成人免费人妻av| 亚洲人成网站在线播| 纵有疾风起免费观看全集完整版 | 汤姆久久久久久久影院中文字幕 | 男人舔女人下体高潮全视频| 亚洲欧美清纯卡通| 亚洲成av人片在线播放无| 美女国产视频在线观看| 国产69精品久久久久777片| 天天一区二区日本电影三级| 我的女老师完整版在线观看| 青春草国产在线视频| 日本黄色视频三级网站网址| 色综合站精品国产| 成年av动漫网址| 男的添女的下面高潮视频| 91久久精品国产一区二区成人| 午夜精品一区二区三区免费看| 免费看a级黄色片| 99久久精品国产国产毛片| 精品少妇黑人巨大在线播放 | 国产精品麻豆人妻色哟哟久久 | 国产av在哪里看| 亚洲精品国产av成人精品| 免费看光身美女| 九色成人免费人妻av| 高清在线视频一区二区三区 | 男女国产视频网站| 色尼玛亚洲综合影院| av在线观看视频网站免费| 国产精品嫩草影院av在线观看| 日韩国内少妇激情av| 精品午夜福利在线看| 特大巨黑吊av在线直播| 中文字幕av成人在线电影| 99久久精品热视频| 亚洲五月天丁香| 国产在视频线在精品| 亚洲成人精品中文字幕电影| 99久国产av精品国产电影| 三级经典国产精品| av在线天堂中文字幕| 老师上课跳d突然被开到最大视频| 22中文网久久字幕| 国产亚洲精品久久久com| 看免费成人av毛片| 亚洲国产欧洲综合997久久,| 99久久人妻综合| 国产真实伦视频高清在线观看| 春色校园在线视频观看| 国产精品1区2区在线观看.| 丰满乱子伦码专区| 中文字幕久久专区| 亚洲成人中文字幕在线播放| 能在线免费观看的黄片| 免费观看在线日韩| 卡戴珊不雅视频在线播放| 不卡视频在线观看欧美| 中文字幕熟女人妻在线| 免费一级毛片在线播放高清视频| 久久精品久久久久久噜噜老黄 | 两个人的视频大全免费| 国模一区二区三区四区视频| 亚洲欧美成人精品一区二区| 国产黄a三级三级三级人| 亚洲精品一区蜜桃| 26uuu在线亚洲综合色| 久久精品国产99精品国产亚洲性色| 精品熟女少妇av免费看| 免费搜索国产男女视频| 国产伦精品一区二区三区四那| 美女国产视频在线观看| 国产一级毛片在线| av播播在线观看一区| 一级黄片播放器| 久久精品人妻少妇| 日日摸夜夜添夜夜爱| 伦精品一区二区三区| 一级毛片电影观看 | 99久久九九国产精品国产免费| 国产精品三级大全| 国产精品麻豆人妻色哟哟久久 | 禁无遮挡网站| 欧美激情久久久久久爽电影| 国产一区二区亚洲精品在线观看| 欧美成人精品欧美一级黄| 自拍偷自拍亚洲精品老妇| 久久精品夜色国产| 人妻夜夜爽99麻豆av| 亚洲va在线va天堂va国产| 少妇高潮的动态图| 我要搜黄色片| 免费一级毛片在线播放高清视频| 国产私拍福利视频在线观看| 欧美3d第一页| 国产av在哪里看| 成人无遮挡网站| 三级经典国产精品| 99国产精品一区二区蜜桃av| 中文资源天堂在线| АⅤ资源中文在线天堂| 中文字幕人妻熟人妻熟丝袜美| 免费观看a级毛片全部| a级毛色黄片| 欧美又色又爽又黄视频| 国产片特级美女逼逼视频| 欧美日韩一区二区视频在线观看视频在线 | 亚洲精品影视一区二区三区av| 久久这里有精品视频免费| 国产黄a三级三级三级人| 99热这里只有是精品50| 97超视频在线观看视频| 亚洲国产精品国产精品| 七月丁香在线播放| 国产又黄又爽又无遮挡在线| 久久精品国产自在天天线| 欧美3d第一页| 少妇人妻一区二区三区视频| 超碰97精品在线观看| 日本色播在线视频| 国产v大片淫在线免费观看| 国产亚洲5aaaaa淫片| 午夜激情福利司机影院| 国产高潮美女av| 美女cb高潮喷水在线观看| 亚洲电影在线观看av| videossex国产| 精品国产一区二区三区久久久樱花 | 国产精品一区二区在线观看99 | 国产一区二区三区av在线| 午夜爱爱视频在线播放| 亚洲欧美精品自产自拍| 国产片特级美女逼逼视频| 1000部很黄的大片| 日韩亚洲欧美综合| 国产免费一级a男人的天堂| 国产精品一区www在线观看| 久久热精品热| 国产乱来视频区| 亚洲欧美日韩无卡精品| 国产精品一区www在线观看| 1000部很黄的大片| 亚洲国产精品成人久久小说| 男女啪啪激烈高潮av片| 少妇熟女欧美另类| 久久99蜜桃精品久久| 国产一级毛片在线| 在线观看一区二区三区| 亚洲欧美精品综合久久99| 深夜a级毛片| 女人被狂操c到高潮| 日本与韩国留学比较| 一级av片app| 午夜a级毛片| 欧美极品一区二区三区四区| 国产伦精品一区二区三区视频9| 午夜精品国产一区二区电影 | 成人无遮挡网站| 国产精品久久久久久久电影| av卡一久久| 美女脱内裤让男人舔精品视频| 最后的刺客免费高清国语| 国产成人精品久久久久久| 中文乱码字字幕精品一区二区三区 | 成人av在线播放网站| 大话2 男鬼变身卡| 国产美女午夜福利| 亚洲精品,欧美精品| 18禁动态无遮挡网站| 亚洲综合色惰| 亚洲在线观看片| 成人特级av手机在线观看| 欧美+日韩+精品| 毛片一级片免费看久久久久| 人体艺术视频欧美日本| 欧美色视频一区免费| 成人毛片60女人毛片免费| 99热6这里只有精品| 男人舔奶头视频| 日韩 亚洲 欧美在线| 村上凉子中文字幕在线| 免费看av在线观看网站| 久久久亚洲精品成人影院| 亚洲精品国产av成人精品| 1000部很黄的大片| 久久久色成人| 精品国产露脸久久av麻豆 | 久久国产乱子免费精品| 国产精品永久免费网站| 免费电影在线观看免费观看| 国产高清三级在线| 男女边吃奶边做爰视频|