• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向推薦系統(tǒng)中有偏和無偏一元反饋建模的三任務變分自編碼器

    2021-11-10 07:20:04林子楠劉杜鋼潘微科
    信息安全學報 2021年5期
    關鍵詞:偏置編碼器校正

    林子楠, 劉杜鋼, 潘微科, 明 仲

    1 深圳大學大數(shù)據(jù)系統(tǒng)計算技術國家工程實驗室 深圳 中國 518060

    2 人工智能與數(shù)字經(jīng)濟廣東省實驗室(深圳) 深圳 中國 518060

    3 深圳大學計算機與軟件學院 深圳 中國 518060

    1 引言

    隨著互聯(lián)網(wǎng)的快速發(fā)展, 信息的數(shù)量呈現(xiàn)出爆炸性的增長, 這進一步加劇了信息過載的問題。為了緩解這一問題, 推薦系統(tǒng)應運而生[1-4], 并被用于從海量的信息中為用戶提供有效的信息, 從而滿足用戶的需求。推薦系統(tǒng)的基本思路是通過對用戶的歷史行為、興趣偏好等信息進行建模和分析, 挖掘出用戶的需求, 進而為用戶推薦可能感興趣的物品。

    在推薦系統(tǒng)中, 用戶的行為(即對物品的反饋)可分為多元反饋、二元反饋和一元反饋等。多元反饋指的是用戶對物品的反饋是顯式且具有多個等級的,例如用戶給物品進行打分, 打分范圍為{1,2,3,4,5}。二元反饋和多元反饋類似, 用戶對物品的反饋也是顯式的, 但不同于多元反饋, 用戶的反饋只有兩個等級, 即喜歡和不喜歡。而一元反饋指的是用戶對物品的反饋是隱式的, 是由系統(tǒng)根據(jù)用戶的行為自行記錄的, 例如點擊和購買等。在現(xiàn)實生活中, 多元反饋和二元反饋都需要用戶主動對物品進行反饋, 收集過程較為困難, 而一元反饋是由系統(tǒng)自行記錄的,收集過程相對容易, 這使得一元反饋在推薦系統(tǒng)中更為常見, 并且得到了更廣泛的應用。然而, 一元反饋建模存在一個巨大的挑戰(zhàn), 即用戶的反饋不一定能反映用戶的真實偏好, 比如點擊并不代表用戶一定喜歡, 而沒有反饋也不代表用戶不感興趣, 有可能只是物品沒有被用戶觀測到, 從而使得沒有瀏覽、點擊或購買等行為被系統(tǒng)記錄下來。

    現(xiàn)有的大部分推薦模型在建模的過程中, 往往忽略了一個重要問題, 即推薦系統(tǒng)中的偏置問題。因為推薦系統(tǒng)作為一個閉環(huán)的反饋系統(tǒng), 在用戶與系統(tǒng)的交互過程中容易出現(xiàn)多種偏置問題[5-8]。例如位置偏置, 它指的是用戶傾向于點擊展示位置靠前的物品[6]; 流行偏置, 它指的是系統(tǒng)傾向于向用戶推薦流行度較高的物品, 也就是越受歡迎的物品越可能被推薦給用戶[7]。除此之外, 還有選擇偏置、曝光偏置等等, 這些偏置使得系統(tǒng)收集到的用戶歷史行為數(shù)據(jù)存在有偏性, 而現(xiàn)有的大部分推薦模型都只基于這樣的有偏數(shù)據(jù)來構(gòu)建。一些研究工作從理論和實驗兩方面說明, 忽略偏置問題會導致得到次優(yōu)的推薦模型, 而解決這些偏置問題能夠提高推薦模型的性能[5,9-11]。因此, 基于這樣的背景, 本文重點研究了推薦系統(tǒng)中一元反饋的偏置問題, 旨在提出一種新的推薦模型。

    為了緩解這一偏置問題, 本文引入了無偏數(shù)據(jù),通過與有偏數(shù)據(jù)進行聯(lián)合建模, 來獲得更加精準的推薦模型。其中, 無偏數(shù)據(jù)指的是推薦系統(tǒng)通過采用隨機的推薦策略而收集到的反饋數(shù)據(jù), 因為推薦策略的隨機性, 故可以被認為是不受偏置影響的[10-12]。有偏數(shù)據(jù)指的是推薦系統(tǒng)通過采用常規(guī)的推薦策略而收集到的反饋數(shù)據(jù), 被認為是固有地受到偏置影響的。一般而言, 因為采用隨機策略的推薦結(jié)果較差,會帶來用戶的流失和平臺的損失, 所以無偏數(shù)據(jù)的收集規(guī)模通常都較小。因此, 如何有效地利用無偏數(shù)據(jù)是本文研究問題的挑戰(zhàn)之一。除此之外, 有偏數(shù)據(jù)的規(guī)模比無偏數(shù)據(jù)大得多, 且由于推薦策略的不同導致有偏數(shù)據(jù)和無偏數(shù)據(jù)之間存在異構(gòu)性, 如何有效地結(jié)合有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模是本文研究問題的另一個挑戰(zhàn)。

    先前的研究工作表明引入無偏數(shù)據(jù)可以有效緩解偏置的影響[10-11]。在文獻[10]中, 作者提出了一種新的領域自適應算法, 通過正則化約束來糾正模型的參數(shù), 從而達到消除偏置的目的。但是, 當模型參數(shù)維度較高時, 參數(shù)對齊較難訓練, 使得模型不能取得很好的效果。在文獻[11]中, 作者提出了一個新的基于知識蒸餾的框架, 并從四個不同層面提出了多種策略, 旨在通過利用無偏數(shù)據(jù)或由無偏數(shù)據(jù)訓練的預訓練模型來消除偏置, 但是作者只是簡單地使用了某一種策略, 不能充分利用無偏數(shù)據(jù)中的信息。除此之外, 先前的大部分研究工作認為偏置隱式地反映在標簽或者模型參數(shù)上, 并且只在標簽或模型參數(shù)的層面上來緩解偏置問題[5,9-13], 很少有研究工作從特征的角度來解決偏置問題[14]。

    因此, 根據(jù)研究問題的挑戰(zhàn)和已有研究工作的局限, 本文提出了一種新的視角, 即從多任務學習的角度來解決偏置問題, 把有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三種相互關聯(lián)的信號, 分別對應三個不同但相關的學習任務。其中, 聯(lián)合數(shù)據(jù)指的是有偏數(shù)據(jù)和無偏數(shù)據(jù)的并集。目前在一元反饋問題中, 變分自編碼器模型取得了非常好的推薦性能[15-16]。為此,本文基于變分自編碼器提出了一個新的模型, 即三任務變分自編碼器。該模型包含三個變分自編碼器,分別對這三種數(shù)據(jù)進行重構(gòu)。變分自編碼器之間共享同一個編碼器和同一個解碼器。此外, 在三個任務之間, 本文設計了特征校正模塊和標簽增強模塊來加強任務之間的關聯(lián)。其中, 特征校正模塊用于校正用戶的潛在特征, 得到更無偏的潛在特征, 進而從潛在特征的角度來緩解偏置的影響。標簽增強模塊通過無偏數(shù)據(jù)訓練的無偏模型來生成可靠性較高的偽標簽并加以利用, 從而更有效地利用無偏數(shù)據(jù)中的信息。

    本文的主要貢獻如下:

    1) 研究了推薦系統(tǒng)中的一個重要問題——一元反饋的偏置問題, 提出了一種新的解決方案, 將結(jié)合有偏數(shù)據(jù)和無偏數(shù)據(jù)的偏置消除問題建模成一個多任務學習問題, 即把有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三種不同但相互關聯(lián)的數(shù)據(jù), 并為此設計了一個新的三任務變分自編碼器;

    2) 提出了特征校正模塊和標簽增強模塊, 其中,特征校正模塊用于獲得無偏的用戶潛在特征, 進而從潛在特征的角度緩解偏置的影響, 而標簽增強模塊能夠更加充分地利用無偏數(shù)據(jù)中的信息;

    3) 在兩個不同領域的真實數(shù)據(jù)集上進行了大量的實驗, 結(jié)果表明, 相比于現(xiàn)有最新的解決偏置的推薦模型, 本文提出的模型取得了更好的推薦效果。

    2 相關工作

    2.1 面向推薦系統(tǒng)中一元反饋建模的方法

    面向推薦系統(tǒng)中一元反饋建模的方法指的是通過一元反饋數(shù)據(jù)來學習用戶和物品之間的關系, 為每個用戶生成對應的個性化推薦列表。到目前為止,推薦系統(tǒng)中一元反饋方法大致可以劃分為基于鄰域的方法、基于分解的方法和基于神經(jīng)網(wǎng)絡的方法。

    基于鄰域的方法包括基于用戶鄰域的方法和基于物品鄰域的方法。基于用戶鄰域的方法通過計算用戶之間的相似度, 為每個用戶找到最相似的用戶集合, 并推薦與相似用戶有交互而與用戶本身未交互的物品[17-19]; 類似地, 基于物品鄰域的方法則是計算物品之間的相似度, 為每個用戶找到和他自身有交互的物品的相似物品, 并進行推薦[20-21]。常用的計算相似度的方法有余弦相似度、杰卡德指數(shù)和關聯(lián)規(guī)則[22]等等。此類算法計算簡單、可解釋性較好,但無法學習用戶與物品之間較為復雜的關系。

    基于分解的方法的主要思想是構(gòu)建低維度的數(shù)學模型來表示用戶與物品之間的關系, 再通過訓練數(shù)據(jù)來學習模型的參數(shù)。比較有代表性的工作有貝葉斯個性化排序[23]、分解的物品相似度模型(Factored Item Similarity Models, FISM)[24]和對數(shù)幾率矩陣分解(Logistic Matrix Factorization, LMF)[25]。貝葉斯個性化排序采用成對的思想來構(gòu)建形如三元組( u , i ,j)的訓練數(shù)據(jù), 并認為用戶u 對i 的喜歡程度大于j,其中u 表示用戶, i 表示與用戶u 有交互的物品, j表示與用戶u 沒有交互的物品。結(jié)合基于矩陣分解的思想, 即使用兩個維度更小的矩陣來表示用戶和物品的潛在特征, 通過使用三元組數(shù)據(jù)進行訓練, 學習用戶和物品的潛在特征。分解的物品相似度模型(FISM)創(chuàng)新性地提出物品之間的相似度可以通過學習得到, 并通過構(gòu)建物品的潛在特征向量, 利用訓練數(shù)據(jù)來學習用戶對物品的偏好程度。類似地, 對數(shù)幾率矩陣分解(LMF)結(jié)合矩陣分解的思想, 并利用對數(shù)幾率損失函數(shù)來擬合數(shù)據(jù), 學習用戶和物品的潛在特征。此類方法能夠有效學習用戶與物品之間的線性關系, 但無法學習它們之間更為復雜的非線性關系。

    基于神經(jīng)網(wǎng)絡的方法在近幾年才被提出, 通過利用深度學習技術來學習用戶與物品之間的高維度關系, 彌補了以往算法無法學習它們之間非線性關系的缺陷[16,26-27]。此類方法包括基于多層感知器的方法和基于自編碼器的方法, 其中比較有代表性的工作有神經(jīng)協(xié)同過濾(Neural Collaborative Filtering,NCF)[26]和變分自編碼器(Variational Autoencoder,VAE)[16]等。神經(jīng)協(xié)同過濾(NCF)使用多層感知器代替原本用戶和物品潛在特征之間的點乘操作, 從而實現(xiàn)非線性交互。此外, NCF 將矩陣分解和多層感知器統(tǒng)一在同一個框架下, 結(jié)合了它們之間的優(yōu)勢,同時捕獲用戶和物品的潛在特征之間的線性和非線性交互。變分自編碼器(VAE)是目前在一元反饋建模方法中推薦性能最好的方法之一。它首先將用戶與物品的交互記錄編碼成變分概率分布, 并使用多項式似然來模擬一元反饋數(shù)據(jù)的生成過程, 對原始輸入數(shù)據(jù)進行重構(gòu)。區(qū)別于以往的研究工作, 變分自編碼器學到的是用戶潛在特征的概率分布, 而不是用戶潛在特征的點值, 這也是該算法取得非常突出的性能的主要原因。

    2.2 面向推薦系統(tǒng)中有偏反饋建模的方法

    推薦系統(tǒng)中偏置消除問題起步較晚, 近幾年才逐漸被學術界和工業(yè)界重視。目前偏置消除的方法大致可以分為基于反事實學習的方法、基于啟發(fā)式的方法和基于無偏數(shù)據(jù)增強的方法[11]。

    基于反事實學習的方法主要是從因果推理的角度來緩解偏置問題, 目前其中一個主流的方法是引入逆傾向性得分(Inverse Propensity Score, IPS)評估器, 即給每一個觀測到的樣本都賦予一個傾向性得分, 從而學習一個更無偏的模型[9,28-29]。此類方法需要根據(jù)一些假設來設計傾向得分評估器, 因為真實的傾向性得分是無法求得的, 從而導致此類方法的準確性和穩(wěn)定性取決于評估方法本身。在文獻[28]中, 作者通過引入曝光概率, 根據(jù)物品的流行度來計算每個樣本的傾向性得分。在文獻[29]中, 作者通過神經(jīng)網(wǎng)絡模型來學習樣本的傾向性得分。但是, 這些傾向性得分的評估方法容易出現(xiàn)高方差等缺點,為了緩解這一問題, 在文獻[30]中, 作者提出了雙穩(wěn)健(Doubly Robust, DR)評估器, 利用插補模型來提高模型的穩(wěn)定性。除此之外, 在文獻[13]中, 作者提出了一個非對稱訓練框架, 利用兩個模型來產(chǎn)生更具無偏性的偽標簽, 以此加強第三個模型的訓練。但該方法的有效性取決于偽標簽的準確性, 而偽標簽的生成又受限于超參數(shù)的設置。在文獻[31]中, 作者建立了有關流行偏置產(chǎn)生的因果圖, 認為用戶對物品的反饋和用戶與物品之間的匹配程度、物品的流行度和用戶的活躍度有關, 并為此設計了一個多任務學習框架。但該方法僅用于解決流行偏置問題, 具有一定的局限性。

    基于啟發(fā)式的方法目前較少, 其主要思路是通過分析造成偏置的原因并作適當?shù)募僭O, 以此達到消除偏置的目的。但是偏置往往較為復雜, 并不是由單一因素造成的, 所以采用此類方法來解決偏置是也是比較困難的。在文獻[32]中, 作者假設推薦系統(tǒng)中偏置的產(chǎn)生和沉默的螺旋理論有關, 并提出了一種模擬沉默螺旋產(chǎn)生的概率模型。

    基于無偏數(shù)據(jù)增強的方法通過引入無偏數(shù)據(jù),對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 從而達到解決偏置問題的目的[10-11,33-35]。此類方法是目前穩(wěn)定性和準確性較好的方法, 因為與上述方法相比, 此類方法引入了更多真實的無偏信息。在文獻[34-35]中,作者利用無偏數(shù)據(jù)來協(xié)助傾向性得分的計算, 得到更加穩(wěn)定且準確的傾向性得分。同樣地, 此類方法也受限于傾向性得分評估方法的準確性。在文獻[10]中, 作者認為偏置的產(chǎn)生可以通過模型參數(shù)來進行糾正并提出了CauseE 算法, 通過引入額外的正則化項來約束有偏模型和無偏模型的參數(shù)。其中, 有偏模型是指使用有偏數(shù)據(jù)進行訓練得到的模型, 而無偏模型是指使用無偏數(shù)據(jù)進行訓練得到的模型。然而,當模型參數(shù)的維度較高時, 參數(shù)對齊本身也是一個較難的問題。在文獻[11]中, 作者提出了一個基于知識蒸餾的框架, 即利用無偏數(shù)據(jù)訓練得到一個無偏模型, 從蒸餾的角度提取無偏模型中的有效信息,進而和有偏數(shù)據(jù)進行聯(lián)合訓練來消除偏置的影響。但是, 該方法沒有充分利用無偏數(shù)據(jù)中蘊含的信息,因為僅僅是簡單地使用了某一種策略。在文獻[33]中, 作者先利用無偏數(shù)據(jù)訓練得到因果遷移隨機森林模型, 接著再利用有偏數(shù)據(jù)和無偏數(shù)據(jù)進行校正。該方法主要用于解決位置偏置問題, 且模型復雜度較高。因此, 為了更好地利用無偏數(shù)據(jù)中的信息, 本文從多任務學習的角度出發(fā), 聯(lián)合有偏數(shù)據(jù)和無偏數(shù)據(jù)進行建模, 并設計了特征校正模塊和標簽增強模塊來緩解偏置問題。

    3 問題描述

    3.1 定義

    本文使用 U = {u } = {1 ,2,… ,n}表示所有用戶的集合, I = {i} = {1 ,2, …,m}表示所有物品的集合,SA= {( u ,i)}和 ST= {( u ,i)}表示包含這些用戶對物品的一元反饋的兩個日志數(shù)據(jù)。其中, SA是系統(tǒng)使用常規(guī)的推薦策略進行推薦時產(chǎn)生的, 具有規(guī)模較大和相對有偏的特點; ST是系統(tǒng)使用隨機的推薦策略進行推薦時產(chǎn)生的, 具有規(guī)模較小和相對無偏的特點。本文使用 XA?{0 ,1}n×m和XT?{0 ,1}n×m分別表示由SA和ST構(gòu)成的用戶與物品的交互矩陣。此外, 本文使用SC表示聯(lián)合數(shù)據(jù), 即SC= SA∪ST,以及 XC?{ 0,1}n×m表示由SC構(gòu)成的用戶與物品的交互矩陣。本文的目標是在給定有偏數(shù)據(jù)SA和無偏數(shù)據(jù)ST的前提下, 如何對它們進行聯(lián)合建模來緩解偏置問題, 從而獲得一個更加精準的個性化推薦模型。

    3.2 挑戰(zhàn)

    本文研究的問題存在以下三個挑戰(zhàn):

    1) 通常情況下, 無偏數(shù)據(jù)的規(guī)模較小。為了盡可能地減少偏置的影響, 從推薦系統(tǒng)中收集無偏數(shù)據(jù)需要采用隨機的推薦策略。然而, 采用隨機策略的推薦結(jié)果往往很差, 這不僅會降低用戶的體驗, 而且會導致系統(tǒng)帶來的收益大幅下降。因此, 為了盡可能地減少損失, 無偏數(shù)據(jù)的收集過程不會持續(xù)很久,從而使得其數(shù)據(jù)規(guī)模是較為有限的。

    2) 有偏數(shù)據(jù)和無偏數(shù)據(jù)的規(guī)模差別較大, 有著嚴重的不平衡性。不同于無偏數(shù)據(jù), 獲取有偏數(shù)據(jù)是相對容易的, 從而導致了它們之間的數(shù)據(jù)規(guī)模的不一致性。

    3) 有偏數(shù)據(jù)和無偏數(shù)據(jù)具有異構(gòu)性, 因為它們分別是由兩組不同性質(zhì)的推薦策略產(chǎn)生的, 導致用戶對物品的反饋所代表的偏好信息有所不同。在有偏數(shù)據(jù)中, 用戶對物品的反饋不一定是因為用戶喜歡物品, 有可能是受到了偏置的影響; 而在無偏數(shù)據(jù)中, 這通常表示用戶喜歡相應的物品。

    4 三任務變分自編碼器

    4.1 概述

    針對上述挑戰(zhàn), 本文從一個新的角度對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 將有偏數(shù)據(jù)SA、無偏數(shù)據(jù)ST和聯(lián)合數(shù)據(jù)SC看作3 種不同但相互關聯(lián)的信號, 分別用于學習不同的用戶偏好, 并基于變分自編碼器, 提出了一種新的推薦模型, 即三任務變分自編碼器(Tri-VAE), 如圖1 所示。Tri-VAE 包含了3 個子模型, 分別記為MA、MT和MC。它們的作用分別是對SA、ST和SC進行重構(gòu)。在這個3 個子模型中, MC作為目標子模型, 其預測輸出作為最終的推薦結(jié)果, 而另外兩個子模型作為輔助子模型。3個子模型之間通過以下兩個方面進行關聯(lián), 一是它們共享同一個編碼器和同一個解碼器, 二是MA和MT通過特征校正模塊(Feature Calibration Module,FCM)和標簽增強模塊(Label Enhancement Module,LEM)來協(xié)助MC的學習。其中, 特征校正模塊指的是利用MA和MT的用戶潛在特征來校正MC的用戶潛在特征, 以獲得更無偏的用戶潛在特征; 標簽增強模塊則是進一步利用MT的預測輸出來訓練MC, 因為MT是重構(gòu)無偏數(shù)據(jù), 可以認為是相對無偏的模型, 其預測輸出包含了較為豐富的無偏信息。

    圖1 三任務變分自編碼器模型架構(gòu)。該模型包含三個子模型, 分別是MA 、MT 和MC , 其中MC 作為目標子模型, 旨在產(chǎn)生更精準的推薦結(jié)果。三個子模型之間共享同一個編碼器和同一個解碼器, 并通過特征校正模塊(Feature Calibration Module, FCM)和標簽增強模塊(Label Enhancement Module, LEM)進行關聯(lián)Figure 1 llustration of tri-task variational autoencoder (Tri-VAE). It contains three sub-models of MA , MT and MC , where MC is used as the target sub-model to produce more accurate recommendation results. The three sub-models share the same encoder and decoder, and are associated through the feature calibration module (FCM)and the label enhancement module (LEM).

    4.2 有偏數(shù)據(jù)重構(gòu)

    在Tri-VAE中, 子模型MA的作用是重構(gòu)有偏數(shù)據(jù)SA。該子模型是變分自編碼器, 其模型結(jié)構(gòu)和Mult-VAE[16]一樣, 包含編碼器和解碼器。其中, 編碼器是推理模型, 將輸入數(shù)據(jù)通過多層感知器壓縮成用戶潛在特征的變分分布, 得到均值和標準差; 解碼器則是生成模型, 從用戶潛在特征的變分分布中隨機采樣, 通過多層感知器對原始輸入數(shù)據(jù)進行重構(gòu)。在子模型MA中, 使用?R1×k表示用戶潛在特征,?R1×k和?R1×k分別表示用戶潛在特征的變分分布的均值和標準差, 其中k 指的是用戶潛在特征的維度。由XA可以得到每個用戶與所有物品產(chǎn)生的交互向量, 記為?{ 0,1}1×m, 并將其作為編碼器的輸入, 通過多層感知器可以得到用戶潛在特征的變分分布qφ(|), 從該變分分布隨機采樣可得到, 進而有

    其 中, Wμ?Rm×k和 Wσ?Rm×k指 的 是 權 重 矩 陣,bμ?R1×k和 bσ?R1×k指的是偏置向量。

    根據(jù)以上描述, 可以得到子模型MA總的損失函數(shù), 即

    其中, β 是超參數(shù)。

    4.3 無偏數(shù)據(jù)重構(gòu)

    在Tri-VAE中, 子模型MT的作用是重構(gòu)無偏數(shù)據(jù)ST。該子模型的模型結(jié)構(gòu)和MA一樣, 具有相同的編碼器和解碼器。在子模型MT中, 使用?R1×k表示用戶的潛在特征,?R1×k和?R1×k分別表示用戶潛在特征的變分分布的均值和標準差。在給定XT的情況下, 可以得出每個用戶和所有物品產(chǎn)生的交互向量, 記為?{ 0,1}1×m。具體而言, 將的潛在特征的變分分布并由該分布隨作為MT的輸入,通過多層感知器可以得到用戶機采樣得到, 即

    其中, β 是超參數(shù)。

    4.4 聯(lián)合數(shù)據(jù)重構(gòu)

    在Tri-VAE 中, 子模型MC的作用是重構(gòu)聯(lián)合數(shù)據(jù)SC, 即同時重構(gòu)SA和ST。與MA和MT一樣, 該子模型也是變分自編碼器, 有著相同的編碼器和解碼器。在子模型MC中, 使用?R1×k表示用戶的潛在特征,和分別表示用戶潛在特征的變分分布的均值和標準差。由XC可以得出每個用戶和所有物品產(chǎn)生的交互向量, 記為。將作為MC的輸入, 通過多層感知器來得到用戶潛在特征的變分分布, 并由該分布隨機采樣得到, 即有

    從信息的角度來看, 聯(lián)合數(shù)據(jù)是由有偏數(shù)據(jù)和無偏數(shù)據(jù)組成的, 那么它所包含的信息是最豐富的,故在Tri-VAE 中, 將MC作為目標子模型。然而, 因為有偏數(shù)據(jù)和無偏數(shù)據(jù)的規(guī)模不同, 有偏數(shù)據(jù)占據(jù)了大部分。因此, 為了獲得更精準的無偏的個性化推薦模型, MC應當有效地緩解偏置的影響。然而, 偏置本身是隱蔽的, 無法直接通過某種測量方式來衡量, 所以只能從間接的角度來解決這一問題。

    先前的大部分研究工作認為偏置隱式地反映在標簽或模型參數(shù)上[5,9-13], 并從標簽的角度或從模型參數(shù)的角度上來緩解偏置的影響。很少有研究工作從特征的角度、潛在特征的角度、或結(jié)合多個角度來解決偏置問題。

    受潛在特征的性質(zhì)的啟發(fā), 不同類型的數(shù)據(jù)所對應的潛在特征不同。故本文從潛在特征的角度來緩解偏置問題, 即認為偏置實際上隱藏在用戶的潛在特征中。也就是說, 由子模型MA和MC得到的和是相對有偏的, 而子模型MT得到的是相對無偏的。因為是從有偏數(shù)據(jù)學習得到的, 而是從無偏數(shù)據(jù)學習得到的。對于而言, 盡管它是從聯(lián)合數(shù)據(jù)學習而來, 但聯(lián)合數(shù)據(jù)中大部分都屬于有偏數(shù)據(jù)。那么此時, 可以通過衡量,和的之間的差異來間接地緩解偏置的影響。因此,基于這樣的動機, 本文設計了一個特征校正模塊(Feature Calibration Module, FCM), 即以為基準,利用和之間的差異來消除中的偏置特征,從而獲得無偏的用戶潛在特征。

    其中, d ?R1×k指的是和的差異。

    其中, g (?)指的是一個具體的激活函數(shù), Wf?R2k×k和 bf?R1×k分別是特征校正模塊的權重矩陣和偏置向量。

    在子模型MC中, 本文使用表示由解碼器生成的用戶和所有物品產(chǎn)生的交互向量, 其計算公式如(24)所示。之后再通過最小化重構(gòu)損失函數(shù)來優(yōu)化模型。但不同于子模型MA和MT直接對輸入的數(shù)據(jù)進行重構(gòu), 子模型MC在重構(gòu)過程中, 并沒有直接讓和盡可能地接近, 而是對有偏數(shù)據(jù)SA和無偏數(shù)據(jù)ST作了區(qū)別對待。理想情況下, MC的輸出應當更接近無偏, 而SA本身是有偏的。受偏置信息反映在標簽上的啟發(fā), 如果直接對SA進行重構(gòu)可能會影響模型最后的推薦性能。因此, 借鑒文獻[11]中的Weight 策略的思路, 本文在重構(gòu)SA時設置置信度來控制, 以保證模型的無偏性。具體而言, 本文為重構(gòu)的損失函數(shù)設置了權重 α ? ( 0,1), 而將重構(gòu)的損失函數(shù)的權重設置為1, 即有

    另外, 在本文提出的Tri-VAE 中, 由于MT是在重構(gòu)無偏數(shù)據(jù), 故MT的預測輸出可以被認為是相對無偏的標簽。受文獻[11]中的啟發(fā), MT的預測輸出包含了較為豐富的無偏信息。因此, 為了加強對無偏數(shù)據(jù)中的信息的利用, 借鑒于文獻[11]中的Bridge策略的思路, 本文設計了一個標簽增強模塊(Label Enhancement Module, LEM), 旨在訓練過程中加強利用MT的預測輸出。

    算法1. 三任務變分自編碼器的訓練過程

    輸入:用戶與物品的交互矩陣XA、XT和XC,用戶總數(shù)n, 物品總數(shù)m, 潛在特征維度rank, 正則化項權重λ, 重構(gòu)損失函數(shù)權重α 和γ , KL 約束項權 重 β , dropout rate ρ , 最 大 迭 代 次 數(shù)iteration number, 學習率learning rate, 一次訓練所選取的樣本數(shù)batch size

    輸出:編碼器φ, 解碼器θ , 特征校正模塊FCM

    1. 隨機初始化編碼器φ, 解碼器θ 和特征校正模塊FCM

    2. FOR iter = 1:iteration number DO

    3. 從D 中隨機采樣和SA規(guī)模大小一樣的(用戶,物品)對, 并對用戶ID 和物品ID 進行標記

    4. 根據(jù)n 和batch size, 按照用戶ID 順序分成多個batches

    5. FOR batch = 1: length(bacthes) DO

    6. FOR 對于batch 中的所有用戶 DO

    7. 分別從XA、XT和XC取出用戶u 對應的交互向量、和

    14. 根據(jù)公式(5)、(12)和(24)重構(gòu)輸入數(shù)據(jù), 即、和

    16. 根據(jù)公式(29)求出總的損失函數(shù) LTri-VAE, 進而求出梯度

    17. END FOR

    18. 對batch 中所求出的所有梯度進行平均

    19. 對編碼器φ, 解碼器θ 和特征校正模塊FCM進行更新

    20. END FOR

    21. END FOR

    22. RETURN 編碼器φ, 解碼器θ 和特征校正模塊FCM

    本文使用D 表示所有用戶和物品交互的集合,包括可觀測到的和不可觀測到的(用戶, 物品)對。在訓練過程中, 每一次迭代都從D 中隨機采樣和SA規(guī)模大小一樣的(用戶, 物品)對, 再利用MT對這些(用戶, 物品)對進行預測得到相應的偽標簽, 即用戶對物品的反饋。本文將這一個偽數(shù)據(jù)集記為。另外, 本文使用?{ 0,1}1×m表示由S~T 得到的每個用戶和所有物品產(chǎn)生的交互向量。本文期望MC的預測輸出和盡可能地接近, 為此構(gòu)造了它們之間的重構(gòu)損失函數(shù), 如公式(27)所示。類似地, 本文在該重構(gòu)損失函數(shù)設置了權重 γ ? ( 0,1), 因為無偏數(shù)據(jù)規(guī)模通常較小, 不足以讓無偏模型MT得到充分的訓練, 所以中的偽標簽不一定都是正確的。因此, 為了解決這一問題, 本文設置了權重γ加以調(diào)整。

    根據(jù)以上描述, 可以得到子模型MC總的損失函數(shù), 即

    其中, α , β 和γ 都是超參數(shù)。

    4.5 優(yōu)化

    結(jié)合以上所有描述, 本文采用聯(lián)合訓練的方式來訓練模型, 并采用批量梯度下降(BGD)來最小化各個子模型的損失函數(shù)之和, 即

    另外, 整個模型的訓練過程如算法1 所示。

    5 實驗結(jié)果與分析

    5.1 數(shù)據(jù)集

    本文對解決偏置問題的有效性進行評估, 故所采用的數(shù)據(jù)集必須包含無偏數(shù)據(jù)。目前已公開的數(shù)據(jù)集只有兩個, 即Yahoo! R3[38]和Coat Shopping[9],關于它們的具體信息如表1 所示。

    表1 實驗所采用的數(shù)據(jù)集的統(tǒng)計信息。其中“#Feedback”指的是反饋樣本的數(shù)量, “P/N”指的是數(shù)據(jù)集中正反饋和負反饋的比例Table1 Statistics of the datasets used in the experiments. Notice that #Feedback denotes the number of feedback samples and P/N denotes the ratio between the numbers of positive feedback and negative feedback

    · Yahoo! R3[38]: 這是一個關于用戶對音樂評分的數(shù)據(jù)集, 包含了一個有偏的常規(guī)數(shù)據(jù)子集和一個無偏的隨機數(shù)據(jù)子集。其中, 常規(guī)數(shù)據(jù)子集包含15400 個用戶, 1000 首歌曲和大約30 萬條評分記錄, 評分范圍是{1,2,3,4,5}。常規(guī)數(shù)據(jù)子集是由系統(tǒng)使用常規(guī)的推薦策略進行推薦, 用戶根據(jù)自身選擇來對歌曲進行評價而收集到的, 故被認為是有偏的。隨機數(shù)據(jù)子集是通過要求前5400 個用戶對10 首隨機選擇的歌曲進行評分收集而來的, 故被認為是無偏的。因為本文研究的問題是一元反饋的偏置問題, 故需將評分轉(zhuǎn)換成一元反饋。因此, 本文對數(shù)據(jù)集進行了預處理。如果評分大于3 分, 那么該記錄被認為是正反饋[10-11], 即 rui= 1。在實驗中,本文將常規(guī)數(shù)據(jù)子集作為有偏數(shù)據(jù)(SA), 并將隨機數(shù)據(jù)子集隨機劃分成3 個子集, 其中10%作為目標訓練的無偏數(shù)據(jù)(ST), 10%作為驗證集用以選擇超參數(shù), 最后的80%作為測試集用以評估模型的性能。

    · Coat Shopping[9]: 這是一個關于用戶對外衣(coat)評分的數(shù)據(jù)集, 是通過讓Amazon Mechanical Turk 平臺上的290 用戶對300 件外衣進行評分收集而來的。和Yahoo! R3 一樣, 該數(shù)據(jù)集包含了一個有偏的常規(guī)數(shù)據(jù)子集和一個無偏的隨機數(shù)據(jù)子集。其中, 常規(guī)數(shù)據(jù)子集是用戶根據(jù)自身選擇來對外衣進行評價而收集的, 大約有7000 條評分記錄, 評分范圍是{1,2,3,4,5}, 被認為是有偏的。隨機數(shù)據(jù)子集是通過要求所有用戶對16 件隨機選擇的外衣進行評分收集的, 被認為是無偏的。常規(guī)數(shù)據(jù)子集和隨機數(shù)據(jù)子集的預處理及劃分方式和Yahoo! R3 一樣。

    5.2 評價指標

    為了評估模型的推薦性能, 本文采用推薦系統(tǒng)中常用的評價指標進行評估, 包括ROC(Receiver Operating Characteristic, ROC)曲線下的面積(Area Under Roc Curve, AUC)、歸一化折損累積增益(Normalized Discounted Cumulative Gain, NDCG)、精確率(Precision@N, P@N)和召回率(Recall@N, R@N)4 個指標, 各個指標的定義如下所示。其中, 在實驗過程中, N 設置為10、20 和50。另外, 在實驗過程中, 本文將AUC 作為主要指標, 其他作為參考指標[10-12]。

    下面對4 個指標的定義進行一一闡述。

    · ROC 曲線下的面積(AUC): 其計算公式如下所示

    其中, Ω 指的是測試集上(在選擇參數(shù)過程中為驗證集)的所有正反饋的集合, Lp指的是Ω 中正反饋的總數(shù), Rankij指的是根據(jù)預測結(jié)果進行降序排列得到的正反饋(i , j) 在所有的反饋中的排序位置, L 指的是在測試集上(在選擇參數(shù)過程中為驗證集)的反饋總數(shù), 包括正反饋和負反饋。

    ·歸一化折損累積增益(NDCG): 其計算公式如下

    其中, Ute指的是測試集上(在選擇參數(shù)過程中為驗證集)的用戶集合, NDCGu@K 指的是用戶u 的歸一化折損累積增益, DCGu@K 指的是用戶u 的折損累積增益, IDCGu指的是理想情況下用戶u 的折損累積增益, 即根據(jù)返回的結(jié)果, 按照真實的相關性重新排序, 進而計算 DCGu@K 得來的, K 指的是推薦列表的長度, reli指的是推薦物品的相關性。在實驗過程中, K 設置為50。

    · 精確率(P@N): 其計算公式如下

    其中, R ( u )指的是模型給用戶生成的長度為N 的推薦列表, T ( u )指的是用戶在測試集上(在選擇參數(shù)過程中為驗證集)的反饋形成的推薦列表。

    · 召回率(R@N): 其計算公式如下

    其中, R ( u )指的是模型給用戶生成的長度為N 的推薦列表, T ( u )指的是用戶在測試集上(在選擇參數(shù)過程中為驗證集)的反饋形成的推薦列表。

    5.3 基線模型

    本文提出的模型是在VAE的基礎上進行改進的,故將VAE 作為最相關的基線模型。不同類型的數(shù)據(jù)進行訓練會產(chǎn)生不同版本的VAE。在本文中, 有以下3 個版本, 即分別使用有偏數(shù)據(jù)SA、無偏數(shù)據(jù)ST和聯(lián)合數(shù)據(jù)SC進行訓練, 本文將它們依次記為VAE(SA)、VAE(ST)和VAE(SC)。除此之外, 本文還將近年來提出的具有代表性的方法作為基線模型,分別是基于逆傾向性得分的模型(IPS)[9,28-29]、CausE[10]和KDCRec[11]。

    · 基于逆傾向性得分的模型(IPS)[9,28-29]: 基于逆傾向性得分消除偏置的算法是目前學術界比較主流的方法, 通過對訓練集中的每個樣本賦予一個傾向性得分, 從而來訓練一個無偏的模型。傾向性得分的計算方法有很多[13,28-29], 本文采用的是其中一個具有代表性的方法, 即樸素貝葉斯評估方法。該方法通過樸素貝葉斯來計算物品的曝光概率, 以此得到每個樣本的傾向性得分, 具體計算公式如下:

    其中, P( I=i |O =1)指的是在可觀測到的樣本中,所有用戶對物品i 產(chǎn)生交互的樣本所占的比例;P (O = 1)指的是在全部樣本中(包括未觀測樣本), 可觀測的樣本所占的比例; P( I=i)指的是在無偏數(shù)據(jù)中,所有用戶對物品i 產(chǎn)生交互的樣本所占的比例。另外,為了實驗的公平性, 本文使用VAE 作為基本模型。

    · CausE[10]: 其思想是通過正則化項來約束有偏模型和無偏模型的參數(shù), 進而緩解偏置的影響。首先通過無偏數(shù)據(jù)進行訓練得到無偏模型,接著使用有偏數(shù)據(jù)訓練新的模型, 同時以無偏模型的模型參數(shù)作為參考, 使用正則化項進行約束。同樣地, 為了公平比較, 本文使用VAE作為CasuE 的基本模型。

    · KDCRec[11]: 一個基于知識蒸餾的框架。作者在文中提出了多種策略, 其中最具有代表性的策略是Bridge 策略。因為從作者提供的實驗結(jié)果來看, 使用Bridge 策略訓練出來的模型的推薦性能表現(xiàn)最佳。因此, 本文采用Bridge 策略作為基線模型之一。類似地, 為了公平比較,本文使用VAE 作為基本模型。

    5.4 實驗設置

    本文使用Python 3.6 和TensorFlow 1.14 進行實驗, 模型訓練和測試都是在搭載了Ubuntu18.04 系統(tǒng)的計算機集群上進行的。該集群包含2 個26 核的CPU, 256GB 內(nèi)存和2 個Nvidia Tesla P100 GPU。在Tri-VAE 中, 對于特征校正模塊中的激活函數(shù) g(?),本文采用了tanh 函數(shù)和sigmoid 函數(shù)。本文使用網(wǎng)格搜索的方式對超參數(shù)進行搜索, 并通過驗證集上AUC 的值來確定最佳的超參數(shù)。其中, 超參數(shù)的設置范圍如表2 所示。另外, 對于Coat Shopping 數(shù)據(jù)集, 由于驗證集的規(guī)模較小, 為了讓實驗結(jié)果更具有說服力, 在選參的過程中, 先使用網(wǎng)格搜索的方式進行搜索, 再選擇在驗證集上AUC 性能最好的前5 組參數(shù), 讓每組參數(shù)運行5 遍, 最后選擇平均性能最好的那組參數(shù)作為最佳的超參數(shù)。此外, 在模型評估過程中, 本文通過改變隨機種子, 對每個模型分別進行10 次訓練和測試, 最后將平均值作為最終的測試結(jié)果。同時, 本文還使用雙樣本t 檢驗對各個指標進行了顯著性檢驗, 即在各個指標上檢驗比較本文提出的模型的結(jié)果和最好的基線模型的結(jié)果。本文所涉及的實驗數(shù)據(jù)、源代碼和腳本將會公開, 可從http://csse.szu.edu.cn/staff/panwk/Tri-VAE/獲得。

    5.5 實驗結(jié)果分析

    5.5.1 性能比較

    對于數(shù)據(jù)集Yahoo! R3和Coat Shopping, 本文提出的模型Tri-VAE 和基線模型的推薦性能比較如表3和表4 所示。其中, Tri-VAE-tanh 表示特征校正模塊使用tanh 函數(shù)作為激活函數(shù), Tri-VAE-sig 表示特征校正模塊使用sigmoid 函數(shù)作為激活函數(shù)。從實驗結(jié)果可以看出: (1)不管是Yahoo! R3 還是Coat Shopping,在絕大多數(shù)情況下, Tri-VAE 的推薦性能比所有基線模型都要好。注意AUC 是最關鍵的指標, 且模型參數(shù)是通過AUC 進行選擇的。另外, 本文通過雙樣本t 檢驗進行了顯著性檢驗, 發(fā)現(xiàn)大部分指標的p 值都小于0.01。這說明本文所提出的模型能夠更好地對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 有效地利用無偏數(shù)據(jù)中的信息來緩解偏置帶來的影響; (2)對于本文提出的特征校正模塊, 使用不同的激活函數(shù)對最終的推薦性能有一定的影響。從主要指標來看, 在Yahoo! R3 上, tanh 函數(shù)的推薦性能更好, 而在Coat Shopping 上, 則是sigmoid 函數(shù)的性能更好。造成這種差異的原因可能是不同的激活函數(shù)所提取到的偏置信息有所不同, 而這兩個數(shù)據(jù)集包含的偏置信息存在一定的差異; (3)關于使用不同類型的數(shù)據(jù)進行訓練產(chǎn)生的 3 個版本的 VAE, 其實驗效果是VAE(SC)> VAE(SA)> VAE(ST), 這說明有偏數(shù)據(jù)和無偏數(shù)據(jù)之間具有互補性。而本文提出的Tri-VAE比這三個基準模型的效果都要好, 說明Tri-VAE能更好地對有偏數(shù)據(jù)和無偏數(shù)據(jù)之間的互補性進行建模;(4)IPS-VAE 的實驗效果比較差, 這說明本文中所采用的利用無偏數(shù)據(jù)和樸素貝葉斯法來計算傾向性得分并不能很好地解決偏置問題; (5)CausE 和KDCRec的實驗效果比VAE(SA)要好, 但比VAE(SC)差, 這是因為這兩個基線模型都需要利用單獨使用無偏數(shù)據(jù)得到的預訓練模型, 而由于無偏數(shù)據(jù)的規(guī)模較小,導致預訓練模型不能得到充分的訓練。

    5.5.2 消融實驗

    為了進一步研究Tri-VAE, 本文設計了消融實驗。在本文所提出的模型中, 子模型之間通過特征校正模塊和標簽增強模塊進行關聯(lián)。簡而言之, 通過利用、和的信息來協(xié)助目標子模型MC的訓練。因此, 本文首先一一去除、和中的一個, 分別記為“-T”, “-A” 和“-P”, 接著再去除它們之間的組合, 包括同時去除和(記為“-TA”), 以及同時去除、和(記為“-TAP”)。從表3 和表4 的分析來看, 在Yahoo! R3 上采用tanh函數(shù)的推薦性能更好, 而在Coat Shopping 上則是采用sigmoid 函數(shù)。因此, 為了實驗的公平性, 在Yahoo!R3 上的消融實驗選擇tanh 函數(shù)作為激活函數(shù), 在Coat Shopping 上的消融實驗則選擇sigmoid 函數(shù)作為激活函數(shù), 具體的實驗結(jié)果如圖2 所示。從實驗結(jié)果可以看出, 去除Tri-VAE中的某一部分或者同時去除某幾部分, 都會使推薦性能變差。其中, 去除之后, 模型的推薦性能小幅度下降, 而去除或者之后, 模型的推薦性能大幅度下降。這說明特征校正模塊在Tri-VAE 中起到了重要的作用, 而標簽增強模塊是輔助作用, 同時也驗證了從潛在特征的角度來緩解偏置的有效性。另外, 對于特征校正模塊和標簽增強模塊對推薦性能的作用程度不同, 這是因為特征校正模塊是直接對用戶的潛在特征進行校正, 而標簽增強模塊通過標簽增強的方式間接地對用戶的潛在特征進行校正。

    圖2 消融實驗中推薦性能的比較Figure 2 Recommendation performance in ablation studi es

    表3 在數(shù)據(jù)集Yahoo! R3 上, 本文提出的模型和基線模型的推薦性能比較, 其中最佳結(jié)果用粗體標記, 次優(yōu)結(jié)果用下劃線標記。另外, 顯著性檢驗中p 值小于0.01 的最佳結(jié)果用星號(*)標記Table 3 Recommendation performance of our proposed model and the baselines on Yahoo! R3, where the best results are marked in bold and the second best results are marked underlined. In addition, the significantly best results are marked with a star (*), where the p-value is smaller than 0.01

    表4 在數(shù)據(jù)集Coat Shopping 上, 本文提出的模型和基線模型的推薦性能比較, 其中最佳結(jié)果用粗體標記, 次優(yōu)結(jié)果用下劃線標記。另外, 顯著性檢驗中p 值小于0.01 的最佳結(jié)果用星號(*)標記Table 4 Recommendation performance of our proposed model and the baselines on Coat Shopping, where the best results are marked in bold and the second best results are marked underlined. In addition, the significantly best results are marked with a star (*), where the p-value is smaller than 0.01

    5.5.3 超參數(shù)敏感性分析

    本文所提出的模型引入了兩個主要的超參數(shù),分別是α 和γ , 因此本文設計了以下實驗對超參數(shù)進行分析。首先, 為了分析α , 先固定其他超參數(shù),α 值依次從0.1變化到0.6, 重新訓練并測試模型, 最后的實驗結(jié)果如圖3 所示。從圖3 可以看出, 最優(yōu)的α 值在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上分別是0.1 和0.5。α 值的大小可能和有偏數(shù)據(jù)與無偏數(shù)據(jù)的數(shù)據(jù)規(guī)模之比(即|SA|/|ST|)有關系。因為有偏數(shù)據(jù)與無偏數(shù)據(jù)規(guī)模差異直接影響到對SA的重構(gòu)損失函數(shù)與對ST的重構(gòu)損失函數(shù)的差異。當有偏數(shù)據(jù)規(guī)模較大時, 對SA的重構(gòu)損失函數(shù)的影響相對會大一些, 此時為了削弱SA的重構(gòu)損失函數(shù)的影響, α值就應當相對小一些。接著分析γ , 類似地, 先固定其他超參數(shù), γ 值依次從0.0001 變化到0.1, 重新訓練并測試模型, 最后的實驗結(jié)果如圖4 所示。從圖4 可以看出, 最優(yōu)的γ 值在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上分別是0.001 和0.0001, γ 值越大, 最終的推薦性能越差。這和無偏數(shù)據(jù)的數(shù)據(jù)規(guī)模有關。盡管通過無偏數(shù)據(jù)可以訓練得到相對比較無偏的模型, 但由于無偏數(shù)據(jù)的規(guī)模較小, 較難充分訓練得到一個很準確的預測結(jié)果, 也就是說, 標簽增強模塊產(chǎn)生的偽標簽的可信度不會很高, 故γ 值不會很大。

    圖3 不同α 值對推薦性能的影響Figure 3 Recommendation performance of our proposed model with different values of α

    圖4 不同γ 值對推薦性能的影響Figure 4 Recommendation performance of our proposed model with different values of γ

    5.5.4 模型的收斂性分析

    為了進一步分析本文提出的模型Tri-VAE 的收斂性, 本文進行了實驗驗證。通過5.5.1 節(jié)的實驗結(jié)果可知, 在眾多的基線模型中, VAE(SC)的模型性能最好, 同時VAE 也是與Tri-VAE 最相關的基線模型。因此, 本文通過分析Tri-VAE 和VAE(SC)這兩個模型在訓練時總的損失和驗證集上的AUC 隨迭代次數(shù)的變化情況來驗證模型的收斂性。具體實驗結(jié)果如圖5 所示。從實驗結(jié)果可以看出, 本文提出的模型的收斂性較好, 收斂速度不會隨著模型復雜度的增加而減緩。首先, 在Yahoo! R3 數(shù)據(jù)集上, Tri-VAE 和VAE(SC)在訓練時總的損失的收斂趨勢較為相近。而對于驗證集上的AUC, Tri-VAE 的收斂性要優(yōu)于VAE(SC)。其次, 在Coat Shopping 數(shù)據(jù)集上, 與Yahoo! R3 數(shù)據(jù)集上的結(jié)果類似, Tri-VAE 和VAE(SC)在訓練時總的損失的收斂性相當。而在驗證集上的AUC, 卻表現(xiàn)出了不一樣的結(jié)果。通過比較發(fā)現(xiàn), VAE(SC)出現(xiàn)了過擬合的現(xiàn)象, 即在訓練集上總的損失越來越小, 但驗證集上的AUC 卻在變差。而本文提出的模型(Tri-VAE-sig)不僅能夠正常收斂, 而且沒有出現(xiàn)過擬合的現(xiàn)象。

    圖5 模型訓練時總的損失和驗證集上AUC 隨迭代次數(shù)的變化情況Figure 5 Variation of the total loss when training the model and the AUC on the validation set with the number of iterations

    5.5.5 關于特征校正模塊的進一步探討

    其中, g (?)指的是一個具體的激活函數(shù), Wf1?Rk×k和 bf1?R1×k分別指的是的權重矩陣和偏置向量。

    本文將使用上述公式的模型記為Tri-VAE-sub,并使用了tanh函數(shù)和sigmoid函數(shù)作為激活函數(shù)進行實驗, 最后的實驗結(jié)果如表5 所示。結(jié)合表3、表4和表5 的實驗結(jié)果可以看出, Tri-VAE-sub 的推薦性能比Tri-VAE 稍差一些, 但比所有基線模型都要好。這說明通過利用和之間的差異能夠糾正用戶的潛在特征, 進而有效緩解偏置帶來的影響。另外,對于衡量和差異的方式, 使用拼接的方法比作差的方法要好一點, 這是因為使用拼接能夠最大程度地保留兩者差異的信息, 更有利于神經(jīng)網(wǎng)絡對偏置信息的提取。

    表5 在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上,Tri-VAE 和它的變體Tri-VAE-sub 的推薦性能比較, 其中最佳結(jié)果用粗體標記Table 5 Recommendation performance between Tri-VAE and its variant Tri-VAE-sub on Yahoo! R3 and Coat Shopping, where the best results are marked in bold

    此外, 在Tri-VAE 中, 特征校正模塊使用了帶激活函數(shù)的單層全連接網(wǎng)絡提取偏置特征。因此, 接下來本文從網(wǎng)絡層數(shù)的角度來進一步探討特征校正模塊, 并先后使用了雙層全連接網(wǎng)絡和三層全連接網(wǎng)絡。本文將使用雙層全連接網(wǎng)絡的模型記為Tri-VAE(雙層), 將使用三層全連接網(wǎng)絡的模型記為Tri-VAE(三層)。同樣地, 使用了tanh 函數(shù)和sigmoid函數(shù)作為激活函數(shù)進行實驗。另外, 對于同一個模型,多層全連接網(wǎng)絡的設置相同, 比如在實驗過程中,模型選擇tanh 函數(shù), 則雙層全連接網(wǎng)絡都使用tanh函數(shù)。Tri-VAE(雙層)和Tri-VAE(三層)的推薦性能結(jié)果如表6 所示。從實驗結(jié)果可以看出, 對于數(shù)據(jù)集Yahoo! R3 而言, 增加網(wǎng)絡層數(shù)并不能提高模型的推薦性能, 而對于數(shù)據(jù)集Coat Shopping 而言, 增加網(wǎng)絡層數(shù)能夠進一步提高模型的推薦性能。這可能與數(shù)據(jù)集本身包含的偏置信息有關, 不同的數(shù)據(jù)集受偏置的影響程度不同。另外還有可能與無偏數(shù)據(jù)規(guī)模的大小有關, 對于Yahoo! R3 而言, 無偏數(shù)據(jù)的規(guī)模相對于有偏數(shù)據(jù)比Coat Shopping 更小, 在同樣的數(shù)據(jù)規(guī)模下, 增加網(wǎng)絡層數(shù)相當于增加了模型參數(shù),這使得模型的訓練更加困難。

    表6 在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上, 特征校正模塊網(wǎng)絡層數(shù)對推薦性能的影響, 其中最佳結(jié)果用粗體標記Table 6 Recommendation performance of our proposed model with different numbers of network layers on Yahoo! R3 and Coat Shopping, where the best results are marked in bold

    6 總結(jié)

    本文首先提出了推薦系統(tǒng)中一個重要且前沿的問題, 即一元反饋的偏置問題, 并對其進行了嚴格的定義和形式化。針對這一問題, 從一個新穎的角度提出了一種基于多任務學習和變分自編碼器的模型,即三任務變分自編碼器。該模型將有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三個不同的學習任務, 同時任務之間通過特征校正模塊和標簽增強模塊進行關聯(lián)。其中, 特征校正模塊用于獲取無偏的用戶潛在特征, 而標簽增強模塊則是為了進一步利用無偏數(shù)據(jù)的信息。本文在兩個真實的數(shù)據(jù)集上進行實驗, 實驗結(jié)果表明該模型能夠有效緩解偏置的影響, 比現(xiàn)有的推薦模型有更好的推薦性能。此外, 為了進一步研究所提出的模型, 本文對其進行了消融實驗、超參數(shù)敏感性分析和收斂性分析, 同時還進一步對其中的特征校正模塊進行了探討。

    在推薦系統(tǒng)中, 保護用戶的隱私越來越受學術界和工業(yè)界的關注。在未來的工作中, 我們將進一步研究面向用戶反饋等隱私信息的保護技術[39], 以適應用戶對隱私和數(shù)據(jù)安全的需求。

    猜你喜歡
    偏置編碼器校正
    基于40%正面偏置碰撞的某車型仿真及結(jié)構(gòu)優(yōu)化
    基于雙向線性插值的車道輔助系統(tǒng)障礙避讓研究
    中國信息化(2022年5期)2022-06-13 11:12:49
    劉光第《南旋記》校正
    國學(2020年1期)2020-06-29 15:15:30
    基于FPGA的同步機軸角編碼器
    一類具有校正隔離率隨機SIQS模型的絕滅性與分布
    機內(nèi)校正
    基于PRBS檢測的8B/IOB編碼器設計
    一級旋流偏置對雙旋流杯下游流場的影響
    JESD204B接口協(xié)議中的8B10B編碼器設計
    電子器件(2015年5期)2015-12-29 08:42:24
    多總線式光電編碼器的設計與應用
    久久精品国产清高在天天线| 三级男女做爰猛烈吃奶摸视频| 99久久成人亚洲精品观看| 精品欧美国产一区二区三| 高清毛片免费观看视频网站| 亚洲五月婷婷丁香| 亚洲国产色片| 嫩草影院入口| 欧美黑人巨大hd| 免费观看的影片在线观看| 国产精品美女特级片免费视频播放器| 最近最新中文字幕大全免费视频| 99久久无色码亚洲精品果冻| 亚洲五月天丁香| 我要搜黄色片| 亚洲欧美一区二区三区黑人| 毛片女人毛片| 免费人成视频x8x8入口观看| 国产精品日韩av在线免费观看| 一个人免费在线观看的高清视频| 天美传媒精品一区二区| 天堂√8在线中文| 亚洲无线在线观看| 国产一区二区在线av高清观看| 日本 av在线| 每晚都被弄得嗷嗷叫到高潮| 夜夜看夜夜爽夜夜摸| 成人国产一区最新在线观看| 国产三级在线视频| 国产午夜福利久久久久久| 国产毛片a区久久久久| 白带黄色成豆腐渣| 国产精品一区二区三区四区免费观看 | www日本黄色视频网| 成人三级黄色视频| 在线观看av片永久免费下载| 国产真实伦视频高清在线观看 | 日本一本二区三区精品| 精品久久久久久久人妻蜜臀av| 久久精品国产亚洲av涩爱 | 法律面前人人平等表现在哪些方面| 最近最新中文字幕大全电影3| 色综合婷婷激情| 国产成人a区在线观看| 一区二区三区国产精品乱码| 伊人久久精品亚洲午夜| 亚洲国产高清在线一区二区三| 两性午夜刺激爽爽歪歪视频在线观看| av天堂中文字幕网| 日韩人妻高清精品专区| 五月伊人婷婷丁香| 村上凉子中文字幕在线| 久久婷婷人人爽人人干人人爱| 国产黄a三级三级三级人| 69人妻影院| 欧美一区二区国产精品久久精品| 九九热线精品视视频播放| 18禁国产床啪视频网站| 久久精品影院6| 18禁在线播放成人免费| 18禁美女被吸乳视频| 国产av不卡久久| 观看美女的网站| 丝袜美腿在线中文| 日本一二三区视频观看| 国产中年淑女户外野战色| 国产精品久久电影中文字幕| 国产精品亚洲av一区麻豆| 99久久成人亚洲精品观看| 国产激情偷乱视频一区二区| 欧美精品啪啪一区二区三区| 手机成人av网站| 成年女人看的毛片在线观看| av天堂在线播放| 夜夜看夜夜爽夜夜摸| 免费看a级黄色片| 久久久久久久久大av| 嫩草影院精品99| 亚洲性夜色夜夜综合| 午夜老司机福利剧场| 久久久久性生活片| 亚洲精品乱码久久久v下载方式 | 无遮挡黄片免费观看| 色吧在线观看| 麻豆国产97在线/欧美| 91久久精品国产一区二区成人 | 中文字幕久久专区| 在线十欧美十亚洲十日本专区| 久久久久久九九精品二区国产| 欧美日韩黄片免| 男女午夜视频在线观看| 丰满人妻一区二区三区视频av | 青草久久国产| 一级作爱视频免费观看| 久久九九热精品免费| 久久精品国产99精品国产亚洲性色| 男女那种视频在线观看| www日本在线高清视频| 欧美区成人在线视频| 1000部很黄的大片| 亚洲片人在线观看| 成年女人永久免费观看视频| 制服丝袜大香蕉在线| 国产精品自产拍在线观看55亚洲| 搡老妇女老女人老熟妇| www.www免费av| 一进一出抽搐动态| 国产在视频线在精品| 淫妇啪啪啪对白视频| 嫩草影院精品99| 亚洲av熟女| 亚洲av第一区精品v没综合| 麻豆国产av国片精品| 色av中文字幕| 国产成人av激情在线播放| 麻豆一二三区av精品| 欧美最黄视频在线播放免费| 香蕉久久夜色| 熟女电影av网| 此物有八面人人有两片| 久久人人精品亚洲av| 亚洲精品色激情综合| 观看美女的网站| 女警被强在线播放| www.熟女人妻精品国产| 最新美女视频免费是黄的| www日本在线高清视频| 日韩欧美国产一区二区入口| 美女黄网站色视频| 在线免费观看的www视频| 少妇裸体淫交视频免费看高清| av女优亚洲男人天堂| 观看免费一级毛片| 免费人成在线观看视频色| 成年版毛片免费区| 精品人妻1区二区| 深夜精品福利| 夜夜爽天天搞| 日韩欧美精品免费久久 | 精品人妻一区二区三区麻豆 | 黑人欧美特级aaaaaa片| 国产精品一区二区三区四区免费观看 | 老司机深夜福利视频在线观看| 12—13女人毛片做爰片一| 久久99热这里只有精品18| 国产高清激情床上av| 19禁男女啪啪无遮挡网站| 成人无遮挡网站| 高清毛片免费观看视频网站| 精品久久久久久成人av| 久久精品国产综合久久久| 国产免费一级a男人的天堂| 国产三级在线视频| 国产精品三级大全| 日本 欧美在线| 婷婷丁香在线五月| 久久精品国产综合久久久| 久久久久免费精品人妻一区二区| 亚洲一区二区三区色噜噜| 18禁国产床啪视频网站| 嫩草影院入口| 欧美极品一区二区三区四区| 美女被艹到高潮喷水动态| 国内精品美女久久久久久| 精品国产美女av久久久久小说| 日本免费a在线| 精品熟女少妇八av免费久了| 免费在线观看亚洲国产| 亚洲欧美日韩高清在线视频| 麻豆成人av在线观看| 一a级毛片在线观看| 一a级毛片在线观看| 18禁在线播放成人免费| 51国产日韩欧美| 日韩大尺度精品在线看网址| 亚洲电影在线观看av| 99国产极品粉嫩在线观看| 国产一区二区在线av高清观看| 亚洲国产色片| 午夜精品一区二区三区免费看| 亚洲 欧美 日韩 在线 免费| 亚洲中文字幕日韩| 搡女人真爽免费视频火全软件 | 欧美性猛交黑人性爽| 亚洲av免费高清在线观看| 亚洲人成网站高清观看| 亚洲国产高清在线一区二区三| 免费av毛片视频| 嫩草影院精品99| 99热6这里只有精品| 国产探花在线观看一区二区| av在线蜜桃| 亚洲成人久久性| 欧美黄色片欧美黄色片| 男插女下体视频免费在线播放| 国产精品 欧美亚洲| 国产精品一区二区三区四区免费观看 | 国产精品亚洲一级av第二区| 精品国产三级普通话版| 欧美一区二区国产精品久久精品| 可以在线观看的亚洲视频| 免费在线观看日本一区| 亚洲电影在线观看av| 国产av在哪里看| 成人特级av手机在线观看| 在线观看日韩欧美| 亚洲欧美日韩高清在线视频| av在线蜜桃| 午夜福利欧美成人| 国内毛片毛片毛片毛片毛片| 少妇人妻精品综合一区二区 | 国产国拍精品亚洲av在线观看 | 啦啦啦韩国在线观看视频| 99久久99久久久精品蜜桃| 悠悠久久av| 亚洲精品色激情综合| 成人av在线播放网站| 国产av一区在线观看免费| 日本成人三级电影网站| 欧美午夜高清在线| 嫩草影院入口| 日本在线视频免费播放| 啦啦啦观看免费观看视频高清| 动漫黄色视频在线观看| 五月玫瑰六月丁香| 给我免费播放毛片高清在线观看| 午夜精品一区二区三区免费看| netflix在线观看网站| 国内精品一区二区在线观看| 午夜福利在线在线| 在线观看一区二区三区| 淫秽高清视频在线观看| 一个人观看的视频www高清免费观看| 中出人妻视频一区二区| 特级一级黄色大片| 国产真实伦视频高清在线观看 | 亚洲va日本ⅴa欧美va伊人久久| 精品久久久久久,| а√天堂www在线а√下载| 中出人妻视频一区二区| 可以在线观看毛片的网站| 国产爱豆传媒在线观看| 久久久久久大精品| 很黄的视频免费| 亚洲在线自拍视频| 成年女人看的毛片在线观看| 中文字幕人妻丝袜一区二区| 午夜精品在线福利| 99精品在免费线老司机午夜| 黄色日韩在线| 国产欧美日韩一区二区三| 毛片女人毛片| 啦啦啦韩国在线观看视频| 嫩草影视91久久| 欧美黑人欧美精品刺激| 国产精华一区二区三区| 国产成人a区在线观看| 99久久久亚洲精品蜜臀av| 国产精品日韩av在线免费观看| 18禁裸乳无遮挡免费网站照片| 亚洲人成网站高清观看| 日韩免费av在线播放| 欧美日韩中文字幕国产精品一区二区三区| 国模一区二区三区四区视频| 观看免费一级毛片| 99久久久亚洲精品蜜臀av| 淫秽高清视频在线观看| 两人在一起打扑克的视频| 夜夜躁狠狠躁天天躁| 欧美一区二区精品小视频在线| 亚洲av电影在线进入| 欧美中文日本在线观看视频| 国产精品国产高清国产av| 日本与韩国留学比较| 亚洲av第一区精品v没综合| 欧洲精品卡2卡3卡4卡5卡区| 亚洲国产高清在线一区二区三| 有码 亚洲区| 久久九九热精品免费| 日日摸夜夜添夜夜添小说| 国产野战对白在线观看| 69av精品久久久久久| 国产aⅴ精品一区二区三区波| 亚洲一区二区三区不卡视频| 欧美日本亚洲视频在线播放| 欧美zozozo另类| 老司机午夜十八禁免费视频| 熟妇人妻久久中文字幕3abv| 欧美bdsm另类| 十八禁人妻一区二区| 国产探花在线观看一区二区| 日韩精品青青久久久久久| 欧美日韩中文字幕国产精品一区二区三区| 首页视频小说图片口味搜索| 成人国产综合亚洲| 99精品欧美一区二区三区四区| 中文字幕精品亚洲无线码一区| 99精品在免费线老司机午夜| 2021天堂中文幕一二区在线观| 欧美成人性av电影在线观看| 最近最新中文字幕大全电影3| 欧美+亚洲+日韩+国产| 国产精品女同一区二区软件 | 亚洲激情在线av| 精品欧美国产一区二区三| 一本综合久久免费| 亚洲国产精品sss在线观看| 在线观看午夜福利视频| 夜夜躁狠狠躁天天躁| 免费看a级黄色片| 亚洲精品影视一区二区三区av| 男女那种视频在线观看| 小说图片视频综合网站| 少妇的逼好多水| 国产单亲对白刺激| 99视频精品全部免费 在线| 久久久久久国产a免费观看| 亚洲精品456在线播放app | 日韩欧美精品免费久久 | 少妇高潮的动态图| 亚洲真实伦在线观看| 欧美成人a在线观看| 日日夜夜操网爽| av欧美777| 久久性视频一级片| 18+在线观看网站| 国产高清激情床上av| 中国美女看黄片| a级一级毛片免费在线观看| 五月伊人婷婷丁香| 午夜精品在线福利| 一本综合久久免费| 大型黄色视频在线免费观看| 男女之事视频高清在线观看| 国产av一区在线观看免费| 好男人电影高清在线观看| 两个人视频免费观看高清| 日本撒尿小便嘘嘘汇集6| 变态另类成人亚洲欧美熟女| 国产一区二区在线av高清观看| 91麻豆av在线| 免费在线观看影片大全网站| 久久精品国产清高在天天线| 少妇人妻精品综合一区二区 | 99久久成人亚洲精品观看| 国产午夜福利久久久久久| 亚洲狠狠婷婷综合久久图片| 久久伊人香网站| 一进一出抽搐gif免费好疼| 天美传媒精品一区二区| 女人被狂操c到高潮| 波野结衣二区三区在线 | 欧美丝袜亚洲另类 | 久久久久久久午夜电影| 嫁个100分男人电影在线观看| 可以在线观看毛片的网站| 国产精品99久久99久久久不卡| 免费av毛片视频| 色视频www国产| 韩国av一区二区三区四区| 欧美午夜高清在线| 日本撒尿小便嘘嘘汇集6| 在线天堂最新版资源| 天美传媒精品一区二区| 91麻豆av在线| 不卡一级毛片| 精品免费久久久久久久清纯| 亚洲在线观看片| 国产真实伦视频高清在线观看 | 日韩人妻高清精品专区| 久久亚洲真实| 看黄色毛片网站| 一进一出好大好爽视频| 亚洲成a人片在线一区二区| 好看av亚洲va欧美ⅴa在| www.色视频.com| x7x7x7水蜜桃| 麻豆成人av在线观看| 免费看美女性在线毛片视频| 精品久久久久久久久久免费视频| 在线天堂最新版资源| 天美传媒精品一区二区| 一级毛片女人18水好多| 美女大奶头视频| 日韩亚洲欧美综合| 白带黄色成豆腐渣| 国产精品久久久久久精品电影| 美女 人体艺术 gogo| 欧美最新免费一区二区三区 | 国产私拍福利视频在线观看| 桃色一区二区三区在线观看| 国产精品亚洲美女久久久| 五月玫瑰六月丁香| 欧美另类亚洲清纯唯美| 久久久久久九九精品二区国产| 久久亚洲真实| 好看av亚洲va欧美ⅴa在| 最好的美女福利视频网| 99riav亚洲国产免费| 一本综合久久免费| 麻豆国产97在线/欧美| 高清在线国产一区| 亚洲国产精品999在线| 中文字幕精品亚洲无线码一区| 日韩欧美在线乱码| 美女高潮喷水抽搐中文字幕| 少妇的丰满在线观看| 一区二区三区高清视频在线| 精品久久久久久久末码| 亚洲不卡免费看| 亚洲精品亚洲一区二区| www.www免费av| 国产精品乱码一区二三区的特点| 免费高清视频大片| 成人av在线播放网站| 日本成人三级电影网站| 亚洲av一区综合| a级一级毛片免费在线观看| 国产91精品成人一区二区三区| 少妇的丰满在线观看| 欧美+亚洲+日韩+国产| 中国美女看黄片| 特级一级黄色大片| 麻豆国产97在线/欧美| 精品人妻一区二区三区麻豆 | 成人国产一区最新在线观看| 少妇裸体淫交视频免费看高清| 夜夜躁狠狠躁天天躁| 午夜a级毛片| 亚洲人成伊人成综合网2020| 国产老妇女一区| 性色av乱码一区二区三区2| 国产av麻豆久久久久久久| 88av欧美| 首页视频小说图片口味搜索| 亚洲 国产 在线| 18禁裸乳无遮挡免费网站照片| 成人高潮视频无遮挡免费网站| 亚洲精品国产精品久久久不卡| 真实男女啪啪啪动态图| 国产蜜桃级精品一区二区三区| 最后的刺客免费高清国语| 成人高潮视频无遮挡免费网站| 天天添夜夜摸| 国产伦精品一区二区三区四那| 首页视频小说图片口味搜索| 日韩精品中文字幕看吧| 国产一区二区激情短视频| 精品久久久久久久久久免费视频| 国产一区在线观看成人免费| 亚洲人成伊人成综合网2020| 欧美区成人在线视频| 天美传媒精品一区二区| 在线观看舔阴道视频| 国产亚洲欧美在线一区二区| 夜夜躁狠狠躁天天躁| 免费看a级黄色片| 国产淫片久久久久久久久 | a级一级毛片免费在线观看| 亚洲av成人av| 精品久久久久久久久久免费视频| 午夜两性在线视频| 啪啪无遮挡十八禁网站| 亚洲不卡免费看| 啦啦啦免费观看视频1| 99久久精品国产亚洲精品| 亚洲专区中文字幕在线| 1024手机看黄色片| 999久久久精品免费观看国产| 欧美激情在线99| 特级一级黄色大片| 深爱激情五月婷婷| 中文字幕高清在线视频| 亚洲精品美女久久久久99蜜臀| 久久国产精品人妻蜜桃| 国产一级毛片七仙女欲春2| 亚洲精品影视一区二区三区av| 白带黄色成豆腐渣| 岛国在线免费视频观看| 搞女人的毛片| 久久久国产精品麻豆| 特大巨黑吊av在线直播| 人人妻,人人澡人人爽秒播| 国产成人aa在线观看| av在线蜜桃| 精品欧美国产一区二区三| 色哟哟哟哟哟哟| 观看美女的网站| 国产成+人综合+亚洲专区| 极品教师在线免费播放| 中文资源天堂在线| 精品久久久久久久毛片微露脸| 真人做人爱边吃奶动态| 久久精品国产清高在天天线| 日本在线视频免费播放| 婷婷六月久久综合丁香| 国产欧美日韩一区二区精品| 久久香蕉精品热| 亚洲精品久久国产高清桃花| 欧美日韩精品网址| 日日干狠狠操夜夜爽| 免费看光身美女| 国产精品女同一区二区软件 | 欧美性猛交黑人性爽| 亚洲在线观看片| 国产伦精品一区二区三区视频9 | 成人高潮视频无遮挡免费网站| 极品教师在线免费播放| 日韩欧美在线乱码| 久久精品综合一区二区三区| 啦啦啦观看免费观看视频高清| 国产精品,欧美在线| 日本三级黄在线观看| 亚洲激情在线av| 女人被狂操c到高潮| 日韩成人在线观看一区二区三区| 狂野欧美激情性xxxx| 亚洲成人精品中文字幕电影| 色视频www国产| 少妇人妻一区二区三区视频| 非洲黑人性xxxx精品又粗又长| 悠悠久久av| 99精品久久久久人妻精品| 精品电影一区二区在线| 三级毛片av免费| av中文乱码字幕在线| 成人性生交大片免费视频hd| 一级黄色大片毛片| 狠狠狠狠99中文字幕| 久久精品亚洲精品国产色婷小说| 九九热线精品视视频播放| 啦啦啦韩国在线观看视频| 国产av不卡久久| 免费在线观看日本一区| 波多野结衣高清作品| 国产精品永久免费网站| 久久精品国产自在天天线| 99久国产av精品| 搡老岳熟女国产| 亚洲av不卡在线观看| 中文字幕人成人乱码亚洲影| 久久伊人香网站| 亚洲自拍偷在线| 欧美中文日本在线观看视频| 午夜福利欧美成人| 色尼玛亚洲综合影院| 18禁国产床啪视频网站| 国产色婷婷99| 女生性感内裤真人,穿戴方法视频| 看黄色毛片网站| 搡老妇女老女人老熟妇| 免费人成在线观看视频色| 欧美一区二区国产精品久久精品| 亚洲国产欧美网| 超碰av人人做人人爽久久 | 久久久成人免费电影| 欧美一级a爱片免费观看看| 男女床上黄色一级片免费看| 国产精品一区二区免费欧美| 99在线人妻在线中文字幕| 国产激情偷乱视频一区二区| av在线天堂中文字幕| 国产探花极品一区二区| 日韩av在线大香蕉| 三级男女做爰猛烈吃奶摸视频| 亚洲成av人片免费观看| 又黄又爽又免费观看的视频| 亚洲五月天丁香| 国产亚洲精品久久久久久毛片| 日本一二三区视频观看| 午夜福利在线观看免费完整高清在 | 国产v大片淫在线免费观看| 丁香欧美五月| 日本在线视频免费播放| 88av欧美| 国产av麻豆久久久久久久| 亚洲狠狠婷婷综合久久图片| 91在线观看av| 叶爱在线成人免费视频播放| 内射极品少妇av片p| 亚洲七黄色美女视频| 日韩精品中文字幕看吧| 免费人成视频x8x8入口观看| 在线观看66精品国产| 午夜福利在线观看吧| 在线天堂最新版资源| 久久午夜亚洲精品久久| 91字幕亚洲| 国产视频内射| 国产成人系列免费观看| 欧美极品一区二区三区四区| 美女黄网站色视频| 亚洲国产欧美网| 偷拍熟女少妇极品色| 手机成人av网站| 桃红色精品国产亚洲av| 日韩精品青青久久久久久| 亚洲第一欧美日韩一区二区三区| 色综合亚洲欧美另类图片| 国产色婷婷99| 精品久久久久久久毛片微露脸| 免费无遮挡裸体视频| 夜夜爽天天搞| 国产免费一级a男人的天堂| 亚洲欧美日韩高清专用| 日本与韩国留学比较| 日本三级黄在线观看| 国产欧美日韩精品亚洲av| 色综合婷婷激情| 久久6这里有精品| av在线蜜桃| 99久久综合精品五月天人人| 啦啦啦免费观看视频1| 九色国产91popny在线| 亚洲国产欧美人成|