• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    低資源語音識別中融合多流特征的卷積神經(jīng)網(wǎng)絡聲學建模方法

    2016-11-01 18:26:27秦楚雄張連海
    計算機應用 2016年9期
    關鍵詞:聲學語料基線

    秦楚雄 張連海

    摘要:

    針對卷積神經(jīng)網(wǎng)絡(CNN)聲學建模參數(shù)在低資源訓練數(shù)據(jù)條件下的語音識別任務中存在訓練不充分的問題,提出一種利用多流特征提升低資源卷積神經(jīng)網(wǎng)絡聲學模型性能的方法。首先,為了在低資源聲學建模過程中充分利用有限訓練數(shù)據(jù)中更多數(shù)量的聲學特征,先對訓練數(shù)據(jù)提取幾類不同的特征;其次,對每一類類特征分別構建卷積子網(wǎng)絡,形成一個并行結(jié)構,使得多特征數(shù)據(jù)在概率分布上得以規(guī)整;然后通過在并行卷積子網(wǎng)絡之上加入全連接層進行融合,從而得到一種新的卷積神經(jīng)網(wǎng)絡聲學模型;最后,基于該聲學模型搭建低資源語音識別系統(tǒng)。實驗結(jié)果表明,并行卷積層子網(wǎng)絡可以將不同特征空間規(guī)整得更為相似,且該方法相對傳統(tǒng)多特征拼接方法和單特征CNN建模方法分別提升了3.27%和2.08%的識別率;當引入多語言訓練時,該方法依然適用,且識別率分別相對提升了573%和4.57%。

    關鍵詞:

    低資源語音識別;卷積神經(jīng)網(wǎng)絡;特征規(guī)整;多流特征

    中圖分類號:

    TN912.34

    文獻標志碼:A

    Abstract:

    Aiming at solving the problem of insufficient training of Convolutional Neural Network (CNN) acoustic modeling parameters under the lowresource training data condition in speech recognition tasks, a method for improving CNN acoustic modeling performance in lowresource speech recognition was proposed by utilizing multistream features. Firstly, in order to make use of enough acoustic information of features from limited data to build acoustic model, multiple features of lowresource data were extracted from training data. Secondly, convolutional subnetworks were built for each type of features to form a parallel structure, and to regularize distributions of multiple features. Then, some fully connected layers were added above the parallel convolutional subnetworks to incorporate multistream features, and to form a new CNN acoustic model. Finally, a lowresource speech recognition system was built based on this acoustic model. Experimental results show that parallel convolutional subnetworks normalize different feature spaces more similar, and it gains 3.27% and 2.08% recognition accuracy improvement respectively compared with traditional multifeature splicing training approach and baseline CNN system. Furthermore, when multilingual training is introduced, the proposed method is still applicable, and the recognition accuracy is improved by 5.73% and 457% respectively.

    英文關鍵詞Key words:

    lowresource speech recognition; Convolutional Neural Network (CNN); feature normalization; multistream feature

    0引言

    隨著人們對于語音識別水平需求越來越多樣,語音識別對于聲學模型的要求越來越高。在低資源訓練數(shù)據(jù)條件下,訓練樣本數(shù)量有限,聲學模型參數(shù)訓練嚴重不足,淺層的高斯混合模型——隱馬爾可夫聲學模型(Gaussian Mixture ModelHidden Markov Model, GMMHMM)已經(jīng)無法滿足建模要求。隨著深度學習(Deep Learning)技術的深入發(fā)展,人們陸續(xù)提出使用深層神經(jīng)網(wǎng)絡(Deep Neural Network,DNN)、卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)等模型取代傳統(tǒng)的GMM,它們可以有效地對數(shù)據(jù)進行更深層次的建模,在多種連續(xù)語音識別任務中[1-3]取得了更優(yōu)的識別效果。尤其是CNN,作為一種具有更為復雜的非線性變換能力的深層網(wǎng)絡結(jié)構,在近幾年來廣泛應用于語音識別中,并在連續(xù)語音識別任務中取得了顯著優(yōu)于DNN的識別率[3]。

    從模型訓練原理的角度來說,CNN的語音建模能力優(yōu)于高斯混合模型(Gaussian Mixture Model, GMM)和DNN,具體表現(xiàn)在如下幾點。

    首先,CNN具有局部感受性(locality),特征映射的每個節(jié)點是通過上一層局部頻帶的F個節(jié)點卷積計算得到的,這種方法帶來兩點優(yōu)勢:第一,利用干凈頻譜可計算出性能優(yōu)異的特征,僅有少量特征會受到噪聲成分的影響,因此模型的魯棒性得到提升;第二,局部卷積實際是對語音局部特性的一種增強,而網(wǎng)絡的較高層通過將每個頻帶計算值組合起來,起到了平均的作用,因此該方法綜合并且平衡了鄰近頻帶的語音信息。

    其次,CNN中的池化采樣處理減弱了語音中頻移的影響。由于不同說話人不同的聲道長度會引起語音信號的頻移,即使對于相同的說話人,也會產(chǎn)生較小的頻移現(xiàn)象[4]。當使用GMM或者DNN模型解決這類問題時,需要大幅增加高斯混元或者隱含層節(jié)點的數(shù)量,即使對DNN的隱含層采用池化降采樣以減少節(jié)點數(shù),全連接計算方式也很難緩解頻移問題。而在CNN中,由于相鄰位置卷積計算得到的特征值是池化為一組的,因此當輸入特征在頻率軸上有頻移時,這種差異得以最小化。

    最后,CNN中同一特征映射的權值共享性導致參數(shù)總量受限,由于低資源條件下訓練數(shù)據(jù)也是有限的,因此模型訓練的稀疏程度會得到一定程度的減弱,網(wǎng)絡參數(shù)訓練相對更加充分,性能也就得到了相對提升。

    雖然從模型訓練的角度分析,CNN有著比其他模型更大的優(yōu)勢,但是當受限于訓練數(shù)據(jù)量時,所得到的聲學模型依然存在嚴重的訓練不足問題。

    針對CNN在語音識別中的研究有很多,文獻[5-7]驗證了CNN在大規(guī)模連續(xù)語音識別任務中的優(yōu)越性;文獻[8]驗證了CNN在特征提取方面優(yōu)于DNN;而文獻[9]則通過大量實驗詳細地驗證了CNN聲學模型在低資源語音識別任務中優(yōu)于DNN聲學模型。CNN的局部卷積處理和池化采樣處理不僅可以從有限的特征中提取更為細致的分類信息,還可以有效去除一些干擾信息,這些對訓練數(shù)據(jù)有限的低資源聲學模型訓練過程尤為重要。

    在有限的訓練條件下,充分利用更多的特征進行建模是一種有效的方法,傳統(tǒng)的融合多特征的訓練方法是直接對多種特征進行拼接構成超矢量訓練數(shù)據(jù),該方法適用于DNN模型,并不適用于CNN模型,因為當卷積核跨越特征拼接交界處時,計算所得結(jié)果毫無意義。

    為了在低資源條件下充分利用更多特征進行CNN聲學建模,本文提出一種可行的融合多特征的訓練方法。該方法充分利用不同表達形式的特征,通過并行子網(wǎng)絡對多流特征進行獨立的處理,最后使用全連接層對子網(wǎng)絡進行融合。通過多特征流數(shù)據(jù)對網(wǎng)絡的并行訓練,得到一種適合于低資源語音識別的CNN聲學模型。實驗結(jié)果表明,并行的卷積層能夠?qū)⒎植疾町愝^大的不同特征空間規(guī)整到分布更為相近的特征空間,以利于后續(xù)處理,從而增加了聲學模型的有效訓練數(shù)據(jù),該方法在未明顯增加訓練參數(shù)的情況下,識別率不但優(yōu)于單特征識別系統(tǒng)的識別率,還優(yōu)于傳統(tǒng)的多特征拼接建模方法;其次,對每個子網(wǎng)絡均使用高資源語料進行共享式的輔助訓練時,系統(tǒng)的識別率得到進一步提升,驗證了模型的泛化性。

    1融合多流特征的CNN聲學模型

    CNN是標準神經(jīng)網(wǎng)絡的一種變體網(wǎng)絡結(jié)構,不同于傳統(tǒng)神經(jīng)網(wǎng)絡全連接層的結(jié)構,卷積神經(jīng)網(wǎng)絡包含了卷積(convolution)處理和池化(pooling)處理。

    使用CNN對語音進行建模時,需要將輸入聲學特征組織成特征映射的形式,特征映射既可以是一維的也可以是二維的。根據(jù)文獻[9],通過提取特征的靜態(tài)、一階差分和二階差分三個分量形成初始的輸入特征映射。

    根據(jù)文獻[5,9],頻移不變性比時移不變性更為重要,因此本文采用沿頻率軸的一維卷積形式建立CNN卷積層,通過卷積核在特征映射上的移動實現(xiàn)對語音特征的卷積計算。如圖1所示,一個典型的CNN的卷積層通常包含卷積和池化采樣過程。

    在訓練數(shù)據(jù)有限的條件下,使用單一特征不足以訓練得到良好的網(wǎng)絡參數(shù),進而無法估計出較為準確的后驗概率。對此本文提出使用多種特征訓練CNN。由于不同語音聲學特征的提取原理、算法不盡相同,通過卷積計算等深度處理,能夠從多角度獲取不同表達形式的同類語音信息,即獲取到具有互補性表達形式的同類聲學信息,因此有利于聲學建模。

    1.1特征選擇與模型建立

    當前最經(jīng)典、使用最廣泛的多特征訓練方法是將多類特征進行拼接,應用倒譜均值方差規(guī)整(Cepstral Mean and Variance Normalization, CMVN)技術對拼接特征預處理,然后對網(wǎng)絡進行訓練。該方法對于全連接層的DNN較為有效,然而當使用CNN建模時,卷積核跨越特征拼接交界計算所得結(jié)果毫無意義,因此常規(guī)的多特征訓練方法不適用。為了更為有效地利用多特征信息進行CNN聲學建模,提出一種基于并行式多特征訓練的網(wǎng)絡結(jié)構(如圖2)。首先使用多流特征進行獨立的、并行式的子網(wǎng)絡訓練,子網(wǎng)絡由卷積層構成,它們分別對不同特征進行深度處理,實現(xiàn)特征值規(guī)整;然后使用全連接層將多流子網(wǎng)絡的輸出匯聚在一起,使用三音子綁定狀態(tài)作為訓練目標,構成一個完整的聲學模型。

    在特征選擇時,考慮到底層聲學特征之間的互補性與相似性,為了使訓練更具有實際意義,本文使用四種特征。具體來說,針對40維濾波器組(filter banks, fbanks)特征、257維功率譜(spectrogram)特征、13維梅爾頻率倒譜系數(shù)(MelFrequency Cepstral Coefficient, MFCC)特征和3維的基音周期(pitch)特征制定不同的CNN多訓練方案。這些特征有的基于頻帶濾波計算,有的基于能量計算,還有的基于離散余弦變換(Discrete Cosine Transformation, DCT),表達形式較為不同,涵蓋長時信息與短時信息,特征空間差異較大。

    在特征輸入網(wǎng)絡前進行預處理時,首先對于維數(shù)較小的fbanks、MFCC、pitch等特征提取一階、二階差分分量并進行前后5幀的拼接,這樣輸入時的特征映射數(shù)量均為33個;對于維數(shù)較大的spectrogram特征,提取一階、二階差分分量,并只進行前后1幀的拼接,這樣該特征進行卷積時的輸入特征映射數(shù)量為9個??傊?,對于維數(shù)小的特征,單幀的細節(jié)信息較少,幀間的局部相關性較大,拼接幀數(shù)也就設置大一些;對于維數(shù)大的特征,單幀細節(jié)信息豐富,卷積時幀間的局部相關性較小,因此將拼接幀數(shù)設置小一些。

    在模型構建時,對于并行網(wǎng)絡部分,將fbanks、MFCC、pitch等部分的子網(wǎng)絡均設置為 “卷積層池化采樣層卷積層”結(jié)構;對于spectrogram特征的子卷積網(wǎng)絡,由于spectrogram特征維數(shù)很大,因此當卷積映射的節(jié)點太多時,其輸出向量存在冗余,導致參數(shù)過多不利于訓練,因此對高維特征的子網(wǎng)絡部分再添加一個池化層進行降采樣處理,這樣一來,spectrogram特征子網(wǎng)絡結(jié)構為“卷積層池化采樣層卷積層池化采樣層”。

    1.2模型參數(shù)訓練

    為使CNN的訓練過程更容易描述,將1×F卷積核用F個權值表示。這樣每一層卷積計算可以用矩陣相乘形式表示,設第k流特征的第l個卷積層的權值描述矩陣為Wk,l,該矩陣由所有局部卷積權值矩陣構成,矩陣包含I×F行、J列,其中:F是一維卷積核所涵蓋節(jié)點數(shù)(構成一個頻帶);I是每個頻帶內(nèi)對應輸入特征映射的數(shù)量;J為卷積計算得到下一層的特征映射的數(shù)量。整體權值矩陣如式(1)所示。

    1.3系統(tǒng)搭建方法

    為了驗證所提出模型的推廣性,本文不僅考慮單語言訓練的情況,還借助文獻[10]的思想,考慮多語言條件下(目標低資源+高資源輔助語言)中間層共享訓練的方案。融合多流特征的CNN聲學建模方法主要由以下幾個步驟構成:

    步驟1構建子網(wǎng)絡。

    對每類特征(只考慮特征種類,不考慮語言)建立相應的子網(wǎng)絡, fbanks、MFCC、pitch等部分的子網(wǎng)絡均設置為 “卷積層池化采樣層卷積層”結(jié)構;spectrogram特征子網(wǎng)絡結(jié)構為“卷積層池化采樣層卷積層池化采樣層”。

    步驟2構建完整的網(wǎng)絡。

    在并行子網(wǎng)絡之上串接兩個全連接層,然后按如下方法設置輸出層:

    1)對于低資源單語言的情況,利用MFCC特征訓練GMM,通過強制對齊(forcealignment),使用其中的三音子綁定狀態(tài)(senones)作為CNN的訓練目標;

    2)對于多語言的情況,對低資源語料和輔助訓練語料分別使用MFCC特征訓練隱馬爾可夫模型(Hidden Markov Model, GMM),通過強制對齊得到CNN的多輸出層。

    步驟3模型參數(shù)訓練。

    按照1.1節(jié)的特征選擇方案對每類特征進行預處理,組織成特征映射的形式,準備訓練。

    1)低資源單語言訓練時,對目標訓練集的每一幀語音提取所需的四種特征,將四種特征同時送入子網(wǎng)絡,按照1.2節(jié)所描述的方法進行參數(shù)訓練,各自的特征訓練對應的子網(wǎng)絡,全連接層則是共同訓練。

    2)多語言訓練時,對每種參與訓練的語言的每一幀提取所需的四種特征,每種特征的子網(wǎng)絡接受來自所有參與訓練的語言的數(shù)據(jù)。使用多語言特征共同訓練中間層參數(shù),方法同文獻[10-11],在此不作贅述。其中多語言同類特征獨立訓練對應的子網(wǎng)絡,每種語言特征訓練對應的輸出層參數(shù)。

    步驟4測試識別系統(tǒng)。

    通過訓練HMM,得到基于多特征訓練的CNN聲學模型,然后搭建識別系統(tǒng),使用低資源測試數(shù)據(jù)完成識別性能測試。

    2不同特征空間的相似性度量

    之所以對不同特征采用不同子網(wǎng)絡并行處理,而不是直接將所有特征拼接在一起,是因為不同聲學特征的分布差異大,總體分布不規(guī)則。由于不同類別的特征其維度不同,無法按傳統(tǒng)的歐氏距離進行直接比較。但是在網(wǎng)絡參數(shù)的訓練中,如果特征間的均值、方差相差較大,則訓練樣本之間的幅值相差較大,進而造成訓練時的誤差信號波動較大,不利于基于梯度下降的收斂;反之,若特征間的均值、方差越接近,則訓練效果越好。因此,本文定義向量間的平均維度間距作為衡量不同特征空間相似度的評價指標,該指標的計算類似于歐氏距離的計算。dμ(i, j)為平均維度間均值距離,它表示第i類和第j類輸入聲學特征均值矢量的差異。對于維度為1×Ni的第i類特征, fik(k=1,2,…,N1)表示該類特征第k維數(shù)據(jù)的均值,這樣第i類聲學特征中各維特征均值的向量fi=(fi1, fi2,…, fiNi);dσ2(i, j)為平均維度間方差距離,表示第i類和第j類輸入聲學特征方差矢量的差異,設vi表示第i類聲學特征各維度方差的向量,這樣vi=(vi1,vi2,…,viNi)。它們的計算如式(9)所示:

    由于一維卷積計算針對語音頻帶的局部信息進行處理,因此在網(wǎng)絡底層設置合適的卷積核可以將原本在分布上相差很大的多種特征映射規(guī)整到更為相似的特征空間內(nèi)。使用Fi表示第一類特征在子網(wǎng)絡中前向傳遞后的激活元輸出的均值向量,同理有Fi=(Fi1,F(xiàn)i2,…,F(xiàn)iMi);用Dμ(i, j)表示第i類和第j類子網(wǎng)絡激活元輸出特征平均維度間均值距離;使用Vi表示第一類特征在子網(wǎng)絡中前向傳遞后的激活元輸出的均值向量, Vi=(Vi1,Vi2,…,ViMi),用Dσ2(i, j)表示第i類和第j類子網(wǎng)絡激活元輸出特征平均維度間方差距離。它們計算方法如式(10)所示:

    正是由于不同流特征所包含元素的幅值得到了相似性的規(guī)整,因此多特征訓練效果才優(yōu)于單特征訓練效果,本文在實驗部分也驗證了這一點。

    經(jīng)過子網(wǎng)絡規(guī)整后的特征進入全連接層進行融合訓練時,CNN高層網(wǎng)絡部分的參數(shù)可接受更多有效訓練數(shù)據(jù)的訓練,因此所得聲學模型的性能優(yōu)于單特征訓練時的情況。訓練時,當誤差信號傳遞至并行網(wǎng)絡部分時,對應的誤差信號傳遞至對應的子網(wǎng)絡進行相互獨立的訓練,即子網(wǎng)絡的參數(shù)更新只與對應特征計算得到的梯度相關,串行的全連接層部分則由所有特征共同參與訓練。

    3實驗與分析

    3.1實驗語料與評價指標

    實驗采用Vystadial 2013 English data和Vystadial 2013 Czech data兩種語料。Vystadial 2013 English data(Vystadial_en)是一類開源的英語語料庫[12],全部時長41h,來源于人工信息服務系統(tǒng)的對話語音數(shù)據(jù);Vystadial 2013 Czech data(Vystadial_cz)是開源的捷克語語料庫[13],全部時長15h,來源于:Call Friend電話服務的語音數(shù)據(jù)、Repeat After Me的語音數(shù)據(jù)和Public Transport Info的口語對話系統(tǒng)的語音數(shù)據(jù)。

    實驗評價指標有三個。

    第一個是識別性能指標,使用連續(xù)語音識別中的詞錯誤率(Word Error Rate,WER)來表示。設N為語料庫人工標注文本中詞(全部正確詞)的數(shù)量,W為解碼連續(xù)語音與人工標注作對比統(tǒng)計出的插入詞、刪除詞、替代詞的個數(shù),r表示W(wǎng)ER,將r定義為兩者的比值,并化為百分率,如式(12)所示:

    分兩部分計算參數(shù)數(shù)量P:一部分為卷積層的參數(shù),一部分為全連接層和Softmax層參數(shù)。對于第一部分的權值與偏移量的計算,式中ci為該層一維卷積核所包含的節(jié)點數(shù),Ni表示該層特征映射的個數(shù);第二部分較為簡單,只需根據(jù)層間節(jié)點數(shù)即可計算得到全連接層參數(shù)數(shù)量。

    第三個評價指標為多特征間的平均特征維度差異,使用2.1節(jié)中定義的平均維度間均值距離和平均維度間方差距離兩個指標來衡量。

    3.2實驗工具與硬件條件

    實驗使用Kaldi工具包[14]進行數(shù)據(jù)準備、底層聲學特征和高層聲學特征的提取、語言模型的聲學模型的訓練與解碼。聲學模型訓練、解碼矩陣分解的過程基于12核3.07GHz Xeon CPU實現(xiàn),神經(jīng)網(wǎng)絡的訓練則基于單核Quadro 600 GPU進行計算。

    3.3基線系統(tǒng)

    首先設定低資源語料環(huán)境,選取Vystadial_cz中的1h訓練語料作為訓練集,總共1504句話;再選取Vystadial_cz語料庫測試語音部分的30min左右的數(shù)據(jù)作為測試集,包含666句話,共3910個待識別詞?;赩ystadial_cz語料庫中全部訓練語料的標注文本構建發(fā)音字典并訓練二元語言模型(Bigram Language Model);輔助訓練語料為全部Vystadial_en訓練語料的一半(約19.7h)。

    為得到基線低資源單特征訓練的DNN與CNN聲學模型,首先訓練GMM聲學模型以獲取網(wǎng)絡訓練目標,對1h 的Vystadial_cz語料數(shù)據(jù)提取13維MFCC特征,訓練基于線性判別分析(Linear Discriminant Analysis, LDA)和最大似然線性變換(Maximum Likelihood Linear Transform, MLLT)的三音子GMM聲學模型(13維MFCC特征進行9幀拼接,LDA降到40維),該模型高斯混元數(shù)為19200個;然后利用特征空間最大似然線性回歸(featurespace Maximum Likelihood Linear Regression, fMLLR)技術進行說話人自適應訓練(Speaker Adaptive Training,SAT),從而構成LDA+MLLT+SAT的GMM聲學模型。通過對該模型強制對齊的方式,得到DNN和CNN的訓練目標。這樣,它們的Softmax層均含有915個節(jié)點。

    訓練基線DNN,將fbanks特征進行左右五幀的拼接,因此輸入層有440個節(jié)點,設置4個隱含層,每個隱含層節(jié)點均為1024個。訓練集和交叉驗證(crossvalidation)集各占訓練數(shù)據(jù)的90%和10%。對每個隱含層(包含BN層)進行20輪的受限玻爾茲曼機(Restricted Boltzmann Machine, RBM)預訓練,然后利用BP算法進行全局參數(shù)的微調(diào),在訓練過程中,學習速率設置初始值為0.08,每當相鄰兩輪訓練的驗證誤差小于0.1%時就將學習速率衰減一半,當衰減之后相鄰兩輪的驗證誤差再次小于0.1%時訓練停止。此外minibatch尺寸設為256。

    訓練基線CNN,首先提取fbanks特征的一階、二階差分量,然后進行5幀的拼接,這樣輸入的特征映射節(jié)點共有1320個。網(wǎng)絡同樣設置4個中間計算層,其中包含底層的兩個卷積層和高層的兩個全連接層。全連接層的節(jié)點數(shù)為1024;對于第一個卷積層,設置卷積核尺寸為1×8,沿頻帶的卷積移動步長為1,設置卷積特征映射的數(shù)量為128(即卷積所得特征映射數(shù)量);對于第二個卷積層,設置卷積核尺寸為1×4,沿頻帶的卷積移動步長為1,設置卷積特征映射的數(shù)量為256。在第一個卷積層和第二個卷積層之間設置一個池化采樣層,池化采樣尺寸為3,移動步長也為3,這樣節(jié)點數(shù)降采樣為原節(jié)點數(shù)的三分之一。學習速率和minibatch設置同DNN基線系統(tǒng),網(wǎng)絡不進行預訓練。

    此外,訓練基于傳統(tǒng)多特征拼接方法的神經(jīng)網(wǎng)絡作為對比的多特征基線系統(tǒng)。根據(jù)1.2節(jié)的分析,CNN不適用于多特征拼接的訓練方法,因此將該方法應用于DNN。為得到最優(yōu)結(jié)果,使用fbanks、spectrogram、MFCC、pitch等四種特征進行多特征拼接,實驗表明當fbanks、MFCC、pitch特征進行11幀拼接,spectrogram特征進行3幀拼接時可得最優(yōu)結(jié)果。拼接后對特征超矢量作CMVN,DNN訓練設置與基線DNN相同。

    表1前三行為基線系統(tǒng)實驗結(jié)果,可知在輸入相同、網(wǎng)絡結(jié)構相似的情況下,基于CNN聲學模型識別系統(tǒng)的詞錯誤率相對DNN聲學模型識別系統(tǒng)的詞錯誤率降低了272%(6276%→6105%),且參數(shù)數(shù)量降低約2169%(544×106→426×106);而傳統(tǒng)的多特征拼接訓練方法使得DNN識別系統(tǒng)詞錯誤率相對降低155%(6276%→6180%),但是參數(shù)規(guī)模增大很多。

    3.4基于多流特征訓練的實驗結(jié)果

    在多流特征訓練聲學模型的實驗中,根據(jù)1.2節(jié)圖2所描述的CNN網(wǎng)絡結(jié)構,引入3維pitch、13維MFCC以及257維spectrogram特征,訓練聲學模型搭建識別系統(tǒng)。設計五個實驗方案,每種實驗方案均在基線系統(tǒng)網(wǎng)絡的基礎上加入并行子網(wǎng)絡。

    方案一引入3維pitch特征與13維MFCC特征(11幀拼接,計算一階、二階差分量,下同),加入一個并行的全連接子網(wǎng)絡(與卷積子網(wǎng)絡作對比),包含兩層,節(jié)點數(shù)均為200,其余參數(shù)設置與基線CNN相同。

    方案二引入13維MFCC特征構建并行卷積層,結(jié)構為“卷積池化采樣卷積”,設置第一層和第二層的卷積核分別為1×5和1×2,卷積特征映射數(shù)量分別為64和128,卷積移動步長均為1,采樣尺寸為3,采樣移動步長為3,其余參數(shù)設置與基線CNN相同。

    方案三引入13維MFCC特征與3維pitch特征,將兩類特征視為同一流特征,構建共同的卷積層,訓練參數(shù)設置與方案二相同。

    方案四引入257維spectrogram特征(實驗表明該特征維數(shù)過大,當拼接幀數(shù)多時性能反而會降低,因此只進行3幀的拼接,計算一階、二階差分量),同樣對該特征設置兩個并行卷積層和一個采樣層,第一層和第二層的卷積核分別為1×9和1×3,卷積特征映射數(shù)量分別為8和16,卷積移動步長均為1,采樣尺寸為3,采樣移動步長為3,其余參數(shù)設置與基線CNN相同。

    方案五引入257維spectrogram特征、13維MFCC特征和3維pitch特征加號改成“和”?不知道后兩者是表示一組么還是?---作者表示無誤,對基線系統(tǒng)網(wǎng)絡添加兩個并行的卷積子網(wǎng)絡,其中spectrogram特征對應的子網(wǎng)絡與方案四相同,而13維MFCC+3維pitch特征對應的子網(wǎng)絡與方案三相同,其余參數(shù)設置與基線CNN相同。

    方案一到方案五的實驗結(jié)果如表1所示。比較方案一和方案三可知,全連接層對特征的規(guī)整變換效果不如卷積層;比較方案二、三、四、五,可知隨著特征流的增多,聲學模型性能越來越好,并且網(wǎng)絡的訓練參數(shù)并沒有顯著增多。當引入四種特征對CNN聲學模型進行改進時(即方案五)識別率最優(yōu),對比基線CNN系統(tǒng),以增加1972%(426×106→510×106)參數(shù)數(shù)量為代價換取了詞錯誤率208%(6105%→5978%)的相對降低,而且由于在低資源數(shù)據(jù)條件下進行訓練,因此CNN訓練時間并未明顯增加。對比基線多特征拼接DNN,不但識別詞錯誤率降低327%(6180%→5978%),而且還減少了2044%(641×106→510×106)的參數(shù)數(shù)量。

    再根據(jù)平均特征維度均值、方差距離的計算方法,對比各特征間的差異性,結(jié)果如表2。對比表中卷積前后的結(jié)果,發(fā)現(xiàn)卷積子網(wǎng)絡(CONV)有效降低了不同維度特征之間的均值、方差差異性,尤其每一維特征方差間差異得到極大降低。而特征元素幅值的差異性越小,特征分布越相似,因此該方法能有效起到規(guī)整特征空間的作用。對于低資源語音識別而言,該方法等效于增加有效訓練樣本,低資源聲學模型的訓練效果必然會得到提升。綜上所述,使用多特征構建并行子網(wǎng)絡的方法有利于提升低資源下CNN聲學模型訓練效果。

    3.5引入多語言訓練時多特征CNN模型的擴展實驗

    在該部分實驗中,引入高資源訓練語料進行多語言共享訓練,驗證該多特征訓練CNN模型對多語言訓練的擴展性。

    設計兩種實驗方案,方案六在基線CNN的基礎上引入約19.7h的英語輔助語料,網(wǎng)絡的中間層參數(shù)共享,且擁有兩個輸出層;方案七在方案五的基礎上引入同樣的英語輔助語料,

    不同語料的相同種特征混合在一起,送入同一個子網(wǎng)絡進行共享訓練。對于高資源英語語料部分的網(wǎng)絡的構造,首先對該部分訓練數(shù)據(jù)訓練基于LDA+MLLT+SAT的英語GMM聲學模型,然后通過模型強制對齊得到輸出層的訓練目標,這樣英語部分的CNN輸出層節(jié)點數(shù)為1031個。

    對比基線CNN與方案六,可以證明使用單特征時多語言訓練對CNN的有效性;對比方案五和方案七,說明基于多特征訓練結(jié)構的CNN在引入多語言訓練后得到了更大的識別性能增益。這些實驗都說明本文所提出的基于多特征的CNN聲學模型對于單語言、多語言訓練數(shù)據(jù)都適用,具有一定的泛化能力。此外,對比實驗方案五和方案六,發(fā)現(xiàn)多特征訓練與多語言訓練的結(jié)果相差無幾,更加說明子網(wǎng)絡對不同特征進行規(guī)整等效于增加了有效的訓練數(shù)據(jù)。

    綜上所述,方案七得到了最好的識別率,它的詞錯誤率相對基線DNN系統(tǒng)降低了717%(6276%→5826%),體現(xiàn)了CNN建模相對DNN建模的模型優(yōu)越性;將詞錯誤率相對基線CNN系統(tǒng)降低了457%(6105%→5826%),體現(xiàn)了多特征訓練相對于單特征訓練的優(yōu)越性;同時相對基線多特征拼接DNN系統(tǒng)的識別詞錯誤率和參數(shù)規(guī)模分別降低了573%(6180%→5826%)和390%(641×106→616×106),體現(xiàn)出本文多特征訓練方法相對于傳統(tǒng)特征拼接方法的優(yōu)越性。

    4結(jié)語

    本文針對低資源條件下的CNN聲學模型進行改進,從網(wǎng)絡結(jié)構入手,提出了一種可行的融合多流特征的訓練方法。為了充分利用低資源訓練數(shù)據(jù)的多種特征表達,在底層構建并行卷積子網(wǎng)絡,然后通過全連接的方式進行多特征流的融合,得到一種適用于CNN的多特征網(wǎng)絡結(jié)構。實驗表明,并行的子網(wǎng)絡對不同特征起到了特征空間規(guī)整的作用,該方法相對所有單特征基線系統(tǒng)的識別率實現(xiàn)了有效的提升,相對于傳統(tǒng)的多特征拼接融合訓練方法,不但有效提升了識別率,還降低了參數(shù)規(guī)模。實驗還表明,該方法對多語言共享訓練方式同樣適用,驗證了該模型具有一定的擴展性。

    參考文獻:

    [1]

    HINTON G, LI D, DONG Y, et al. Deep neural networks for acoustic modeling in speech recognition: the shared views of four research groups [J]. IEEE Signal Processing Magazine, 2012, 29(6): 82-97.

    [2]

    DAHL G E, YU D, DENG L, et al. Contextdependent pretrained deep neural networks for large vocabulary speech recognition [J]. IEEE Transactions on Audio, Speech and Language Processing, 2012, 20(1): 30-42

    [3]

    ABDELHAMID O, MOHAMED AR, JIANG H, et al. Applying convolutional neural networks concepts to hybrid NNHMM model for speech recognition [C]// ICASSP 2012: Proceedings of the 2012 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2012: 4277-4280.

    [4]

    ABDELHAMID O, MOHAMED AR, JIANG H, et al. Convolutional neural networks for speech recognition [J]. IEEE Transactions on Audio, Speech, and Language Processing, 2014, 22(10): 1533-1545.

    [5]

    ABDELHAMID O, LI DENG, YU D. Exploring convolutional neural network structures and optimization techniques for speech recognition [C]// INTERSPEECH 2013: Proceedings of the International Speech Communication Association Annual Conference. Lyon, France: International Speech Communication Association, 2013: 3366-3370.

    ABDELHAMID O, DENG L, YU D. Exploring convolutional neural network structures and optimization techniques for speech recognition [EB/OL]. [20160105]. https://www.researchgate.net/publication/264859599_Exploring_Convolutional_Neural_Network_Structures_and_Optimization_Techniques_for_Speech_Recognition.

    [6]

    SAINATH T N, MOHAMED AR, KINGSBURY B, et al. Deep convolutional neural networks for LVCSR [C]// ICASSP 2013: Proceedings of the 2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2013: 8614-8618.

    [7]

    SAINATH T N, MOHAMED AR, KINGSBURY B, et al. Improvements to deep convolutional neural networks for LVCSR [C]// ASRU 2013: Proceedings of the 2013 IEEE Workshop on Automatic Speech Recognition and Understanding. Piscataway, NJ: IEEE, 2013: 315-320.

    [8]

    MIAO Y J, METZE F. Improving languageuniversal feature extraction with deep maxout and convolutional neural networks [C]// INTERSPEECH 2014: Proceedings of the 2014 International Speech Communication Association Annual Conference. Singapore: International Speech Communication Association, 2013: 800-804.

    MIAO Y J, METZE F. Improving languageuniversal feature extraction with deep maxout and convolutional neural networks [EB/OL]. [20151122]. http://isl.anthropomatik.kit.edu/cmu-kit/downloads/Improving_Language-Universal_Feature_Extractions_with_Deep_Maxout_and_Convolutional_Neural_Networks.pdf.

    [9]

    CHAN W, LANE I. Deep convolutional neural networks for acoustic modeling in low resource languages [C]// ICASSP 2015: Proceedings of the 2015 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2015: 2056-2060.

    [10]

    HUANG J T, LI J Y, YU D, et al. Cross language knowledge transfer using multilingual deep neural network with shared hidden layers [C]// ICASSP 2013: Proceedings of the 2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2013: 7304-7308.

    [11]

    MIAO Y J, METZE F. Improving lowresource CDDNNHMM using dropout and multilingual DNN training [C]// INTERSPEECH 2013: Proceedings of the International Speech Communication Association Annual Conference. Lyon, France: International Speech Communication Association, 2013: 2237-2241.

    MIAO Y, METZE F. Improving lowresource CDDNNHMM using dropout and multilingual DNN training [EB/OL]. [20151122]. http://www.iscaspeech.org/archive/archive_papers/interspeech_2013/i13_2237.pdf.

    [12]

    KORVAS M, PLTEK O, DUEK O, et al. Vystadial 2013—English data [EB/OL]. [20151012]. https://lindat.mff.cuni.cz/repository/xmlui/handle/11858/00097C0000002346714.

    [13]

    KORVAS M, PLTEK O, DUEK O, et al. Vystadial 2013—Czech data [EB/OL]. [20151112]. https://lindat.mff.cuni.cz/repository/xmlui/handle/11858/00097C0000002346706?localeattribute=cs.

    [14]

    POVEY D, GHOSHAL A, BOULIANNE G, et al. The Kaldi speech recognition toolkit [C]// ASRU 2013: Proceedings of the IEEE Workshop on Automatic Speech Recognition and Understanding. Piscataway, NJ: IEEE, 2011: 1-4.

    POVEY D, GHOSHAL A, BOULIANNE G, et al. The Kaldi speech recognition toolkit [EB/OL]. [20151112]. https://www.researchgate.net/publication/228828379_The_Kaldi_speech_recognition_toolkit.

    猜你喜歡
    聲學語料基線
    適用于MAUV的變基線定位系統(tǒng)
    高技術通訊(2021年3期)2021-06-09 06:57:46
    航天技術與甚長基線陣的結(jié)合探索
    科學(2020年5期)2020-11-26 08:19:14
    愛的就是這股Hi-Fi味 Davis Acoustics(戴維斯聲學)Balthus 70
    Acoustical Treatment Primer:Diffusion談談聲學處理中的“擴散”
    Acoustical Treatment Primer:Absorption談談聲學處理中的“吸聲”(二)
    Acoustical Treatment Primer:Absorption 談談聲學處理中的“吸聲”
    基于語料調(diào)查的“連……都(也)……”出現(xiàn)的語義背景分析
    一種改進的干涉儀測向基線設計方法
    華語電影作為真實語料在翻譯教學中的應用
    《苗防備覽》中的湘西語料
    免费av中文字幕在线| 免费观看a级毛片全部| 亚洲精品乱码久久久久久按摩| av免费在线看不卡| 中国国产av一级| 亚洲成人手机| 高清不卡的av网站| 亚洲无线观看免费| 高清在线视频一区二区三区| 91精品国产九色| 如何舔出高潮| 少妇人妻精品综合一区二区| a级毛片黄视频| 欧美 亚洲 国产 日韩一| 国模一区二区三区四区视频| 精品一区在线观看国产| 国产亚洲欧美精品永久| 观看av在线不卡| 欧美精品一区二区免费开放| 蜜臀久久99精品久久宅男| freevideosex欧美| 欧美日韩在线观看h| 人人妻人人澡人人看| 免费久久久久久久精品成人欧美视频 | 啦啦啦视频在线资源免费观看| 日本黄色片子视频| 人妻 亚洲 视频| 亚洲第一区二区三区不卡| 看非洲黑人一级黄片| 一级毛片电影观看| 免费观看的影片在线观看| 亚洲少妇的诱惑av| 国产免费现黄频在线看| 日韩中字成人| 日韩成人av中文字幕在线观看| 免费黄色在线免费观看| 青春草视频在线免费观看| 国产熟女欧美一区二区| 九九久久精品国产亚洲av麻豆| 91在线精品国自产拍蜜月| 建设人人有责人人尽责人人享有的| 精品一品国产午夜福利视频| av.在线天堂| 免费播放大片免费观看视频在线观看| 亚洲精品久久午夜乱码| 另类精品久久| 亚洲无线观看免费| 国产一区二区三区av在线| 日韩强制内射视频| 少妇猛男粗大的猛烈进出视频| a 毛片基地| 在线观看人妻少妇| 久久久久久久久久人人人人人人| 亚洲欧洲国产日韩| 国产成人av激情在线播放 | 夜夜骑夜夜射夜夜干| 又大又黄又爽视频免费| 在线观看免费视频网站a站| 夜夜爽夜夜爽视频| 国产精品国产av在线观看| 五月开心婷婷网| 国产精品国产三级专区第一集| 免费观看a级毛片全部| 日本wwww免费看| 99热国产这里只有精品6| 日本黄大片高清| 亚洲欧美一区二区三区黑人 | 精品卡一卡二卡四卡免费| 国产成人a∨麻豆精品| 日日摸夜夜添夜夜爱| 亚洲成人手机| 一本大道久久a久久精品| 午夜福利视频精品| 91在线精品国自产拍蜜月| 啦啦啦视频在线资源免费观看| 人妻少妇偷人精品九色| 韩国高清视频一区二区三区| 久久久国产欧美日韩av| 你懂的网址亚洲精品在线观看| 欧美日韩精品成人综合77777| 亚洲欧美日韩卡通动漫| 婷婷色av中文字幕| 人妻一区二区av| 日本与韩国留学比较| 黑人欧美特级aaaaaa片| 热re99久久精品国产66热6| 午夜福利,免费看| 国产黄频视频在线观看| av国产精品久久久久影院| 亚洲国产成人一精品久久久| 人妻制服诱惑在线中文字幕| 最新中文字幕久久久久| 美女内射精品一级片tv| 涩涩av久久男人的天堂| 久久人妻熟女aⅴ| 美女国产视频在线观看| av电影中文网址| 在线观看一区二区三区激情| 人妻夜夜爽99麻豆av| 国产男人的电影天堂91| 精品人妻熟女av久视频| 赤兔流量卡办理| 18在线观看网站| 国产高清国产精品国产三级| 丰满饥渴人妻一区二区三| 日日摸夜夜添夜夜添av毛片| 成人手机av| 一级二级三级毛片免费看| 日本黄色片子视频| 黄色配什么色好看| 男人操女人黄网站| 亚洲,一卡二卡三卡| 晚上一个人看的免费电影| 看免费成人av毛片| 国产伦精品一区二区三区视频9| 91精品伊人久久大香线蕉| 中文字幕免费在线视频6| 日韩,欧美,国产一区二区三区| 欧美日韩在线观看h| 免费观看性生交大片5| 美女视频免费永久观看网站| 伦理电影大哥的女人| 只有这里有精品99| 精品少妇久久久久久888优播| 欧美亚洲日本最大视频资源| 女人久久www免费人成看片| 日韩不卡一区二区三区视频在线| 最后的刺客免费高清国语| av在线app专区| 肉色欧美久久久久久久蜜桃| 九色成人免费人妻av| av不卡在线播放| 一二三四中文在线观看免费高清| 亚洲熟女精品中文字幕| 精品国产乱码久久久久久小说| 丰满乱子伦码专区| 一本久久精品| 极品少妇高潮喷水抽搐| 久久久久久久久久成人| 亚洲精品久久久久久婷婷小说| 2018国产大陆天天弄谢| 午夜91福利影院| 亚洲精品中文字幕在线视频| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 岛国毛片在线播放| 亚洲精品自拍成人| 搡女人真爽免费视频火全软件| 国产精品国产三级国产av玫瑰| 欧美日韩视频高清一区二区三区二| 国产成人aa在线观看| 一个人免费看片子| 伦精品一区二区三区| 亚洲欧美精品自产自拍| 一区二区三区精品91| 亚洲内射少妇av| 婷婷色综合www| 欧美xxxx性猛交bbbb| av黄色大香蕉| 人妻一区二区av| 男的添女的下面高潮视频| 国产精品秋霞免费鲁丝片| 亚洲精品美女久久av网站| 人妻 亚洲 视频| 色网站视频免费| 蜜臀久久99精品久久宅男| 美女国产视频在线观看| 午夜免费鲁丝| av不卡在线播放| 成年av动漫网址| 久久精品国产a三级三级三级| 秋霞伦理黄片| 国产熟女欧美一区二区| 日韩中字成人| 久久午夜综合久久蜜桃| 老司机亚洲免费影院| 自线自在国产av| 亚洲精品一二三| 欧美三级亚洲精品| 又大又黄又爽视频免费| 久久影院123| 亚洲精品日本国产第一区| 精品亚洲乱码少妇综合久久| 亚洲性久久影院| 男女边摸边吃奶| 精品久久蜜臀av无| 91精品伊人久久大香线蕉| 欧美成人精品欧美一级黄| 国产伦理片在线播放av一区| a级毛片在线看网站| a级毛片免费高清观看在线播放| 欧美xxxx性猛交bbbb| 日韩视频在线欧美| 亚洲欧美精品自产自拍| 精品国产一区二区久久| 日韩av免费高清视频| 一二三四中文在线观看免费高清| 国产片特级美女逼逼视频| 下体分泌物呈黄色| 国产乱来视频区| 国产欧美日韩一区二区三区在线 | 日韩av不卡免费在线播放| 精品国产一区二区久久| 午夜福利视频精品| 亚洲精品一区蜜桃| av有码第一页| 制服诱惑二区| 一级毛片电影观看| 午夜激情av网站| 欧美丝袜亚洲另类| 在线观看一区二区三区激情| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | √禁漫天堂资源中文www| 大码成人一级视频| 国产精品熟女久久久久浪| 超碰97精品在线观看| 国产av一区二区精品久久| 日日摸夜夜添夜夜添av毛片| 久久鲁丝午夜福利片| 夫妻性生交免费视频一级片| 亚洲国产精品一区二区三区在线| 精品久久久久久久久亚洲| 国产亚洲午夜精品一区二区久久| 日韩免费高清中文字幕av| av在线app专区| 国产黄频视频在线观看| 国产老妇伦熟女老妇高清| 80岁老熟妇乱子伦牲交| 亚洲精品视频女| 成人亚洲精品一区在线观看| 亚洲av日韩在线播放| 国产欧美亚洲国产| 亚洲av男天堂| 大片免费播放器 马上看| 国产日韩欧美视频二区| 欧美变态另类bdsm刘玥| 午夜日本视频在线| 人人妻人人添人人爽欧美一区卜| 妹子高潮喷水视频| 欧美激情 高清一区二区三区| 中文天堂在线官网| 久久人人爽av亚洲精品天堂| 婷婷色av中文字幕| 日韩成人伦理影院| 在线观看免费日韩欧美大片 | 亚洲国产色片| 免费少妇av软件| 伦理电影大哥的女人| www.色视频.com| 久久人人爽av亚洲精品天堂| 51国产日韩欧美| 国产欧美日韩一区二区三区在线 | 中国国产av一级| 日本欧美国产在线视频| a级毛色黄片| 亚洲精品一二三| 边亲边吃奶的免费视频| 日韩不卡一区二区三区视频在线| 日韩成人av中文字幕在线观看| 2021少妇久久久久久久久久久| 三上悠亚av全集在线观看| 边亲边吃奶的免费视频| 能在线免费看毛片的网站| 久久久久久久久久成人| 欧美少妇被猛烈插入视频| 精品99又大又爽又粗少妇毛片| 最近中文字幕2019免费版| av一本久久久久| 欧美精品高潮呻吟av久久| 最新中文字幕久久久久| 亚洲欧美日韩另类电影网站| 免费观看在线日韩| 免费观看性生交大片5| 欧美变态另类bdsm刘玥| 少妇人妻 视频| 少妇熟女欧美另类| 三级国产精品欧美在线观看| 色视频在线一区二区三区| 国产亚洲av片在线观看秒播厂| av在线观看视频网站免费| 国产成人a∨麻豆精品| 久久久久久久亚洲中文字幕| 国产精品成人在线| 美女cb高潮喷水在线观看| 国产在线视频一区二区| 国产乱人偷精品视频| 亚洲精品aⅴ在线观看| 亚洲高清免费不卡视频| 精品少妇黑人巨大在线播放| 欧美少妇被猛烈插入视频| 国产爽快片一区二区三区| 日韩人妻高清精品专区| 插阴视频在线观看视频| 国产精品一区二区在线观看99| 在线观看国产h片| 久久久久久人妻| 欧美日韩成人在线一区二区| 少妇人妻精品综合一区二区| 亚洲av欧美aⅴ国产| 国模一区二区三区四区视频| 日韩熟女老妇一区二区性免费视频| 制服人妻中文乱码| 久久这里有精品视频免费| 各种免费的搞黄视频| 18禁观看日本| 最黄视频免费看| 国产日韩欧美视频二区| av网站免费在线观看视频| av电影中文网址| 久久精品人人爽人人爽视色| 午夜激情久久久久久久| 香蕉精品网在线| 男女啪啪激烈高潮av片| 成人无遮挡网站| 亚洲久久久国产精品| 中文字幕最新亚洲高清| 国产av一区二区精品久久| 日韩三级伦理在线观看| 国产在线一区二区三区精| 少妇被粗大猛烈的视频| 妹子高潮喷水视频| 中文欧美无线码| 久久精品夜色国产| 天天操日日干夜夜撸| 最后的刺客免费高清国语| 国产欧美亚洲国产| 日本av手机在线免费观看| kizo精华| 男女边吃奶边做爰视频| 精品视频人人做人人爽| 国产一区亚洲一区在线观看| 久久精品国产鲁丝片午夜精品| 国产熟女午夜一区二区三区 | 久久久久精品久久久久真实原创| 性色av一级| 成年美女黄网站色视频大全免费 | 制服丝袜香蕉在线| 插阴视频在线观看视频| 国产熟女欧美一区二区| 亚洲国产最新在线播放| 女性生殖器流出的白浆| 毛片一级片免费看久久久久| 国产成人精品福利久久| 色视频在线一区二区三区| kizo精华| 男女国产视频网站| 日韩在线高清观看一区二区三区| 有码 亚洲区| av在线老鸭窝| 18禁裸乳无遮挡动漫免费视频| 99久久人妻综合| 草草在线视频免费看| 亚洲精品中文字幕在线视频| 一区在线观看完整版| 999精品在线视频| 在线观看免费日韩欧美大片 | 日韩不卡一区二区三区视频在线| 亚洲精品乱码久久久v下载方式| 国产熟女午夜一区二区三区 | 亚洲一级一片aⅴ在线观看| 国产在线一区二区三区精| 国产精品秋霞免费鲁丝片| 内地一区二区视频在线| av福利片在线| 国产精品久久久久久久久免| 国产欧美日韩综合在线一区二区| 高清毛片免费看| 国产伦精品一区二区三区视频9| 久久久久久久国产电影| 草草在线视频免费看| 亚洲精品国产av蜜桃| 一区在线观看完整版| 妹子高潮喷水视频| 高清黄色对白视频在线免费看| 一二三四中文在线观看免费高清| 少妇的逼好多水| 亚洲,一卡二卡三卡| 免费少妇av软件| 免费高清在线观看日韩| 日本猛色少妇xxxxx猛交久久| 建设人人有责人人尽责人人享有的| 丝袜喷水一区| 又黄又爽又刺激的免费视频.| 国产高清三级在线| 看十八女毛片水多多多| 91精品一卡2卡3卡4卡| 这个男人来自地球电影免费观看 | 校园人妻丝袜中文字幕| 亚洲欧美清纯卡通| 国产成人午夜福利电影在线观看| 亚洲天堂av无毛| 亚洲情色 制服丝袜| 一个人免费看片子| 日韩一本色道免费dvd| 久久青草综合色| 精品亚洲乱码少妇综合久久| 欧美三级亚洲精品| 在线观看国产h片| 97在线人人人人妻| 又大又黄又爽视频免费| 国产在线一区二区三区精| 国产成人免费观看mmmm| 在线观看人妻少妇| 777米奇影视久久| 天天影视国产精品| 一级a做视频免费观看| 亚洲精品久久成人aⅴ小说 | 男人添女人高潮全过程视频| 国产视频首页在线观看| 在线精品无人区一区二区三| 美女福利国产在线| 高清午夜精品一区二区三区| 热re99久久国产66热| 久久精品人人爽人人爽视色| av国产久精品久网站免费入址| 看免费成人av毛片| 国语对白做爰xxxⅹ性视频网站| 制服丝袜香蕉在线| 99热6这里只有精品| 免费人妻精品一区二区三区视频| 午夜精品国产一区二区电影| 草草在线视频免费看| 欧美3d第一页| 最新中文字幕久久久久| 亚洲av成人精品一区久久| 国产一区亚洲一区在线观看| 国产又色又爽无遮挡免| 亚洲,一卡二卡三卡| 久久国产精品大桥未久av| 久久国内精品自在自线图片| 22中文网久久字幕| a级毛色黄片| 日韩中字成人| 国产色爽女视频免费观看| 免费久久久久久久精品成人欧美视频 | 欧美亚洲日本最大视频资源| 蜜臀久久99精品久久宅男| 亚洲国产欧美日韩在线播放| 又大又黄又爽视频免费| 在线观看一区二区三区激情| 日韩强制内射视频| 少妇高潮的动态图| 99久国产av精品国产电影| 男女啪啪激烈高潮av片| 欧美成人精品欧美一级黄| www.色视频.com| 精品一区二区三卡| 黄片播放在线免费| 老司机影院毛片| av不卡在线播放| 亚洲精品亚洲一区二区| 国产欧美日韩一区二区三区在线 | 国产又色又爽无遮挡免| av在线播放精品| 九九在线视频观看精品| 久久精品夜色国产| 久热这里只有精品99| 亚洲内射少妇av| 亚洲国产精品999| 卡戴珊不雅视频在线播放| 一级毛片黄色毛片免费观看视频| 97精品久久久久久久久久精品| 国产精品偷伦视频观看了| 欧美日韩亚洲高清精品| 26uuu在线亚洲综合色| 午夜精品国产一区二区电影| 一本色道久久久久久精品综合| 亚洲精品一区蜜桃| 国产亚洲午夜精品一区二区久久| 国产伦理片在线播放av一区| 久久午夜福利片| 插逼视频在线观看| 亚洲精品成人av观看孕妇| 国产精品一国产av| 精品人妻一区二区三区麻豆| 国产精品免费大片| 成年人免费黄色播放视频| av电影中文网址| 中文天堂在线官网| 蜜桃国产av成人99| 亚洲精品乱久久久久久| 中国美白少妇内射xxxbb| 国产精品久久久久久av不卡| 在线看a的网站| 久久久精品区二区三区| 亚洲av男天堂| 免费看不卡的av| 卡戴珊不雅视频在线播放| 狠狠婷婷综合久久久久久88av| 欧美 亚洲 国产 日韩一| 人成视频在线观看免费观看| 另类精品久久| 18禁裸乳无遮挡动漫免费视频| 热99久久久久精品小说推荐| 亚洲欧美日韩卡通动漫| 肉色欧美久久久久久久蜜桃| 国产精品一二三区在线看| 最新中文字幕久久久久| 国产色爽女视频免费观看| 一级毛片电影观看| 亚洲经典国产精华液单| 国产片特级美女逼逼视频| 高清毛片免费看| 欧美精品国产亚洲| 亚洲人成网站在线观看播放| 啦啦啦视频在线资源免费观看| 大话2 男鬼变身卡| 91精品国产九色| 国产一区二区三区av在线| 丝袜在线中文字幕| 在线看a的网站| 成人二区视频| 桃花免费在线播放| 久久毛片免费看一区二区三区| 久久国产亚洲av麻豆专区| 午夜福利网站1000一区二区三区| 妹子高潮喷水视频| 亚洲精品色激情综合| av视频免费观看在线观看| 久久国产亚洲av麻豆专区| 人成视频在线观看免费观看| 亚洲精品国产av蜜桃| 少妇的逼好多水| 黄色配什么色好看| 人妻少妇偷人精品九色| 最新中文字幕久久久久| 精品人妻在线不人妻| 美女福利国产在线| 亚洲激情五月婷婷啪啪| 内地一区二区视频在线| 久久久精品94久久精品| 免费av不卡在线播放| 国产精品99久久99久久久不卡 | 一个人免费看片子| 天堂8中文在线网| 免费观看在线日韩| 国产一级毛片在线| 九九久久精品国产亚洲av麻豆| 精品人妻在线不人妻| 美女福利国产在线| 视频在线观看一区二区三区| 成年av动漫网址| 国产精品免费大片| 成人亚洲精品一区在线观看| 在线免费观看不下载黄p国产| 人人妻人人澡人人看| av在线老鸭窝| 日本爱情动作片www.在线观看| 三级国产精品欧美在线观看| 欧美亚洲日本最大视频资源| 一级片'在线观看视频| 午夜福利,免费看| 毛片一级片免费看久久久久| 国产精品 国内视频| 亚洲图色成人| 丰满乱子伦码专区| 人人妻人人澡人人爽人人夜夜| 欧美日韩av久久| 日韩伦理黄色片| 久久狼人影院| 免费观看无遮挡的男女| 中文天堂在线官网| 人妻系列 视频| 免费不卡的大黄色大毛片视频在线观看| 美女中出高潮动态图| 国产精品女同一区二区软件| 寂寞人妻少妇视频99o| 在线观看www视频免费| 一区二区av电影网| 亚洲精品一二三| 久久国内精品自在自线图片| 美女主播在线视频| 男女无遮挡免费网站观看| av国产精品久久久久影院| 我的老师免费观看完整版| 熟妇人妻不卡中文字幕| 有码 亚洲区| 成人亚洲精品一区在线观看| 麻豆精品久久久久久蜜桃| 极品人妻少妇av视频| 日韩在线高清观看一区二区三区| 欧美 亚洲 国产 日韩一| 3wmmmm亚洲av在线观看| h视频一区二区三区| 美女福利国产在线| 免费人妻精品一区二区三区视频| 在线亚洲精品国产二区图片欧美 | a级片在线免费高清观看视频| 大片免费播放器 马上看| 国产黄频视频在线观看| 久久久久久久亚洲中文字幕| 高清不卡的av网站| 国产免费福利视频在线观看| 欧美 日韩 精品 国产| 精品久久久久久久久av| 精品国产一区二区三区久久久樱花| 天堂俺去俺来也www色官网| 各种免费的搞黄视频| 欧美激情极品国产一区二区三区 | 少妇被粗大的猛进出69影院 | 久久久久国产精品人妻一区二区| 最近最新中文字幕免费大全7| 亚洲久久久国产精品| 欧美精品亚洲一区二区| 色吧在线观看| 黄色一级大片看看| 久久精品夜色国产| 国产欧美另类精品又又久久亚洲欧美| 日韩,欧美,国产一区二区三区| 国产片特级美女逼逼视频| 亚洲国产精品专区欧美| 精品人妻熟女毛片av久久网站| 高清欧美精品videossex| 免费播放大片免费观看视频在线观看| 国产成人午夜福利电影在线观看| 国内精品宾馆在线|