• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于加權(quán)詞向量和卷積神經(jīng)網(wǎng)絡(luò)的新聞文本分類①

      2020-05-22 04:48:24胡萬亭
      關(guān)鍵詞:類別文檔卷積

      胡萬亭,賈 真

      1(河南大學(xué)濮陽工學(xué)院,濮陽 457000)

      2(西南交通大學(xué) 信息科學(xué)與技術(shù)學(xué)院,成都 611756)

      隨著信息技術(shù)的飛速發(fā)展,信息呈爆炸式增長,文本是信息最重要的載體之一.文本分類技術(shù)是指根據(jù)預(yù)定義的主題類別,按照自動化的方法對未知類別文本進(jìn)行高效、準(zhǔn)確歸類的技術(shù).文本分類按照文本長度可分為短文本分類和長文本分類,本文研究對象——新聞文本屬于長文本.

      文本分類方法主要是基于統(tǒng)計分析或者機(jī)器學(xué)習(xí)的方法,比如支持向量機(jī)[1]、K近鄰法[2]、樸素貝葉斯[3]、決策樹[4]、LDA 模型[5]、最大熵模型[6]等方法.近幾年的研究熱點主要是基于淺層神經(jīng)網(wǎng)絡(luò)或者深度學(xué)習(xí)的方法.基于淺層神經(jīng)網(wǎng)絡(luò)的方法主要指詞向量通過Word2Vec 生成,然后結(jié)合其他機(jī)器學(xué)習(xí)方法進(jìn)行分類.文獻(xiàn)[7]利用加權(quán)Word2Vec 結(jié)合SVM 技術(shù)進(jìn)行微博情感分類,具有較好的分類效果.深度學(xué)習(xí)文本分類主要是使用CNN、自動編碼器等深度學(xué)習(xí)模型進(jìn)行分類,或者是CNN 和LSTM 結(jié)合的混合模型等.文獻(xiàn)[8]研究了將注意力機(jī)制后引入卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行中文新聞文本分類的方法.文獻(xiàn)[9]研究了基于降噪自動編碼器的中文新聞文本分類算法.文獻(xiàn)[10]提出一種CNN 和雙向LSTM 特征融合的模型,利用CNN提取文本向量的局部特征,利用BiLSTM 提取下文相關(guān)的全局特征,然后融合兩種模型進(jìn)行情感分析.

      本文設(shè)計一種基于加權(quán)詞向量結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的新聞文本分類方法.Word2Vec 生成的詞向量能夠體現(xiàn)上下文語義信息,所以基于Word2Vec 的詞表示和文檔表示已經(jīng)廣泛應(yīng)用于自然語言處理領(lǐng)域.但是Word2Vec 無法體現(xiàn)詞語對于文本的重要性,而TFIDF 本質(zhì)上就是詞語的權(quán)重,可以用它來對詞向量進(jìn)行加權(quán),進(jìn)一步用加權(quán)后的詞向量作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,進(jìn)行新聞文本的分類.因為新聞有標(biāo)題和正文兩部分組成,所以本文改進(jìn)了TF-IDF 算法,計算TF 時融合了標(biāo)題和正文兩個部分.

      1 相關(guān)技術(shù)

      1.1 TF-IDF

      TF-IDF 中文名是“詞頻-逆文本頻率”.TF 即詞頻,統(tǒng)計每個詞在每一個文檔內(nèi)的頻率,體現(xiàn)了詞語對某篇文檔的重要性.TF 越大,詞語對文檔越重要,TF 越小,詞語對文檔越不重要,計算如式(1)所示.

      其中,ni,j是詞語ti在文檔dj中出現(xiàn)的頻數(shù),分母是文檔dj中所有詞語頻數(shù)總和.

      IDF 即逆文檔頻率,主要思想是在整個文檔集合中,某個詞語所在的文檔數(shù)量越小,該詞語對這些文檔的標(biāo)識性越強(qiáng),或者說該詞語對文檔類別的區(qū)分能力越強(qiáng).比如詞語“記者”在每一篇新聞里的出現(xiàn)頻率可能都較高,但是對整個新聞文檔集合來說,把“記者”當(dāng)成新聞文檔分類的重要特征的話,效果顯然很差,不具有區(qū)分度.計算如式(2)所示.

      其中,|D|是文檔總數(shù),分母是包含第i個詞語的文檔數(shù)量.

      TF-IDF 簡單取TF 和IDF 的乘積,如果文檔長度不一致,可以對TF-IDF 進(jìn)行歸一化.基礎(chǔ)的計算公式如式(3)所示.

      1.2 Word2Vec

      Word2Vec 是Google 提出的一種詞嵌入的算法,主要包含CBOW 和Skip-Grams 兩種神經(jīng)網(wǎng)絡(luò)模型.在詞向量出現(xiàn)之前,詞語一般通過獨熱編碼表示,文本用詞袋模型表達(dá),向量非常稀疏,容易造成維數(shù)災(zāi)難,而且無法準(zhǔn)確計算文本的相似度.近年來深度學(xué)習(xí)迅速發(fā)展,自特征抽取的詞嵌入技術(shù)越來越受到學(xué)術(shù)界和工業(yè)界的青睞.Mikolov 等[11]在2013年提出了Word2Vec模型,用于計算詞向量(又叫上下文分布式表達(dá)).Word2Vec 將詞語上下文信息轉(zhuǎn)化成一個低維向量,避免計算災(zāi)難,而且可以很好度量詞語相似度,現(xiàn)在已經(jīng)被廣泛應(yīng)用在自然語言處理的各個領(lǐng)域[12].

      一般認(rèn)為CBOW 的訓(xùn)練時間更短,Skip-gram 的訓(xùn)練結(jié)果更好,所以我們選擇Skip-gram 模型,如圖1.輸入層向量是輸入中心詞的one-hot 編碼,輸出層向量就是詞典中每一個詞語出現(xiàn)在中心詞周圍的概率分布.WV*N和W’N*V是權(quán)重矩陣,也就是待求參數(shù).式(4)是求解參數(shù)的目標(biāo)函數(shù),顯然目標(biāo)函數(shù)取最大值的直觀解釋就是文本內(nèi)所有詞作為中心詞產(chǎn)生相應(yīng)周圍詞的條件概率乘積取最大值,近似表示已知詞典生成目標(biāo)文本集合的條件概率取得最大值.目標(biāo)函數(shù)直接取對數(shù),然后再取負(fù)數(shù),就轉(zhuǎn)化成了目標(biāo)函數(shù)求最小值,就可以利用梯度下降法來求解參數(shù).預(yù)測時,根據(jù)輸入數(shù)據(jù)和參數(shù)可以得到詞向量.目標(biāo)函數(shù)如式(5)所示.

      其中,wt是文本里每一個詞,j的取值范圍就是窗口大小,wt+j就是中心詞的周圍詞.

      圖1 Skip-gram 模型

      1.3 卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)模型,有多層感知器結(jié)構(gòu),在圖像識別和語音識別領(lǐng)域取得了很好的結(jié)果,現(xiàn)在也被廣泛應(yīng)用到自然語言處理領(lǐng)域.卷積神經(jīng)網(wǎng)絡(luò)的模型如圖2所示.

      圖2 卷積神經(jīng)網(wǎng)絡(luò)模型

      對于圖像處理,輸入層就是圖像像素組成的矩陣;對于文本處理,輸入層是輸入文本的詞向量構(gòu)成的矩陣.卷積層對輸入數(shù)據(jù)應(yīng)用若干過濾器,進(jìn)行特征提取.一個過濾器對應(yīng)一個卷積核,不同的過濾器代表了不同類型的特征提取,過濾后的結(jié)果被稱為特征圖譜.池化層對矩陣或者向量進(jìn)行降維,從而減小數(shù)據(jù)規(guī)模,但是要避免主要特征的損失.池化可以選擇最大池化、平均池化等.池化層的數(shù)據(jù)通過全連接的方式接入到Softmax 層后輸出分類結(jié)果.實際的輸出結(jié)果是一個向量,輸出的向量里每一個標(biāo)量的值對應(yīng)一個類別的概率,最大標(biāo)量所在位置對應(yīng)的類別就是分類結(jié)果.

      2 模型描述與實現(xiàn)

      2.1 整體框架

      整體框架如圖3所示,主要包括了數(shù)據(jù)預(yù)處理模塊、詞向量生成模塊、TF-IDF 計算模塊、CNN 分類模塊,前三個模塊的輸出為CNN 分類模塊提供訓(xùn)練數(shù)據(jù).采用Python 語言編程,除了開發(fā)效率高之外,還有很多的機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、自然語言處理的第三方庫,有助于快速實現(xiàn)模型.

      圖3 總體框架

      2.2 文本預(yù)處理

      新聞文本來源于搜狗實驗室公布的搜狐新聞數(shù)據(jù),以XML 形式提供,數(shù)據(jù)的詳細(xì)介紹將在下一節(jié)給出.首先逐個抽出每個新聞頁面的文本,文本包含了標(biāo)題和正文.然后用結(jié)巴分詞對文本進(jìn)行分詞.接著對分詞結(jié)果進(jìn)行停用詞過濾,停用詞表結(jié)合哈工大停用詞表和百度停用詞表.最后把處理好的數(shù)據(jù)按照類別放到不同的文本文件中,每個新聞文本數(shù)據(jù)占文件的一行.

      2.3 TF-IDF 計算

      本文在計算TF-IDF 時,對公式進(jìn)行了改進(jìn),如式(6)所示.新聞文本由新聞標(biāo)題和正文組成,標(biāo)題對于區(qū)分文本類別也有較大價值,因其長度相對正文來說極短,所以標(biāo)題詞語在文本內(nèi)詞頻比正文詞語在文本內(nèi)詞頻有更高的權(quán)重.

      其中,w是大于1 的權(quán)重,和文本長度、文本內(nèi)容有很大關(guān)系,可以在實驗過程中根據(jù)實際情況進(jìn)行調(diào)節(jié),本實驗調(diào)節(jié)到4~5 的范圍內(nèi),取得了較好效果.TFt(t)是文本標(biāo)題內(nèi)出現(xiàn)的詞語t的詞頻,TFc(t)是文本正文內(nèi)出現(xiàn)的詞語t的詞頻.顯然詞語t在標(biāo)題或者正文內(nèi)不出現(xiàn)的話,TFt(t)或者TFc(t)取0.

      2.4 生成詞向量并加權(quán)

      詞向量生成選擇了Word2Vec 的Skip-Gram 模型.Word2Vec 生成的詞向量雖然可以很好地體現(xiàn)語義上下文的關(guān)聯(lián),但是無法反映詞語對于文本分類的重要性,而TF-IDF 可以體現(xiàn)詞語對文本的重要程度,因此可以把TF-IDF 值作為詞語區(qū)分文本類別的權(quán)重.本文參考了文獻(xiàn)[7],對詞向量用TF-IDF 值進(jìn)行了加權(quán),加權(quán)后的向量可以更好表征文本.向量數(shù)乘公式如式(7)所示.

      其中,W2V(t)是詞語t的詞向量,W–W2V(t)是詞語t在第j篇文本內(nèi)加權(quán)后的詞向量.

      每個詞語在不同文檔中的TF-IDF值預(yù)先計算好.每個詞語的Word2Vec 詞向量也都預(yù)先訓(xùn)練好,但是沒有區(qū)分它們在不同文本中的差異.新聞文本分類模型的訓(xùn)練和預(yù)測時,需要詞向量表達(dá)的文本數(shù)據(jù)不斷輸入模型.所以,選擇在輸入每個文本的詞向量矩陣數(shù)據(jù)時,用哈希方法獲得每個詞語在該文本中的TFIDF 值,通過矩陣運算得到加權(quán)后的詞向量矩陣.在本文實驗中,詞向量的維數(shù)調(diào)節(jié)到100.

      2.5 CNN 文本分類

      本文選擇Keras 搭建卷積神經(jīng)網(wǎng)絡(luò).Keras 是建立在Tensorflow 和Theano 之上的神經(jīng)網(wǎng)絡(luò)框架,但是比直接用TensorFlow 搭建神經(jīng)網(wǎng)絡(luò)要容易得多,使用搭積木的方式搭建神經(jīng)網(wǎng)絡(luò).

      在輸入層,每個文本的詞向量矩陣大小一致,都是150×100,150 是文本單詞數(shù)量,100 是詞向量的維數(shù).文本長短不一,單詞數(shù)量多于150 時,按照單詞出現(xiàn)頻數(shù)取前150 個單詞;單詞數(shù)量不足150 時,用0 補(bǔ)齊矩陣.

      在卷積層,選擇200 個大小為3×100 的卷積核,卷積層輸出200 個148×1 維的矩陣,也就是200 個148維向量.形象解釋就是200 個卷積核從不同角度提取了文本的200 種特征向量.

      在池化層,選擇MAX-Pooling,取目標(biāo)區(qū)域的最大值,可以保留文本的突出特征,又進(jìn)行了降維,降低了數(shù)據(jù)運算量.當(dāng)然,最大池化不可避免會損失一些有效信息,這也是CNN 存在的問題,一般可以通過增加特征圖數(shù)量進(jìn)行彌補(bǔ),本文卷積層有200 個特征圖,可以在一定程度彌補(bǔ)信息損失.池化后的結(jié)果是一個200維向量,就是該文本的向量表示.

      數(shù)據(jù)通過全連接的方式接入到Softmax 層后連接到12 維的類別向量上,該向量就是樣本在12 個類別上的概率分布情況.預(yù)測樣本類別時,最大值所在的維度映射到對應(yīng)類別上.

      3 實驗結(jié)果與分析

      3.1 實驗數(shù)據(jù)

      實驗數(shù)據(jù)來自搜狗實驗室對外開放的搜狐新聞精簡版,保留12 種類別文本,分別是汽車(auto)、商業(yè)(business)、文化(cul)、健康(health)、房產(chǎn)(house)、信息技術(shù)(IT)、教育(learning)、軍事(mil)、運動(sports)、旅游(travel)、女人(women)、娛樂(yule).數(shù)據(jù)預(yù)處理過程上面已經(jīng)描述過:從XML 文件抽取標(biāo)題、正文和類別,分詞,去掉停用詞,分類別存儲.

      實驗中,每個類別取5000 個樣本,隨機(jī)選4000 個加入訓(xùn)練集,剩余1000 個加入測試集.訓(xùn)練集總的樣本數(shù)是48 000 個,測試集總的樣本數(shù)是12 000 個.

      3.2 分類結(jié)果與分析

      本文做了3 組對照實驗,分別采用詞向量+邏輯回歸分類方法(方法1)、詞向量+CNN 方法(方法2)、加權(quán)詞向量+CNN 方法(方法3),實驗結(jié)果分別見表1、表2、表3.確率(Precision)、召回率(Recall)、F1 分?jǐn)?shù)(F1-score)的宏平均(Macro-avg)對比如圖4所示.宏平均是全部類別性能度量的算術(shù)平均值,通過對比可以明顯看出方法的性能提升.

      表1 詞向量+邏輯回歸分類結(jié)果

      3 個實驗都用Word2Vec 表示詞向量,分析發(fā)現(xiàn)邏輯回歸分類實驗結(jié)果相對較差,詞向量結(jié)合卷積神經(jīng)網(wǎng)絡(luò)可以取得較好的分類效果,加權(quán)詞向量結(jié)合卷積神經(jīng)網(wǎng)絡(luò)讓實驗結(jié)果進(jìn)一步提升.上文分析過,Word2Vec 能夠體現(xiàn)上下文語義,TF-IDF 能夠反映詞語區(qū)分文本類別的能力,所以對詞向量加權(quán)后進(jìn)一步提升了分類效果.

      表3 加權(quán)詞向量+卷積神經(jīng)網(wǎng)絡(luò)分類結(jié)果

      圖4 3 種方法性能的宏平均值對比圖

      搜狗實驗室的搜狐新聞?wù)Z料相對來說規(guī)模較大、類別準(zhǔn)確、頁面噪聲較低.但是限于實驗機(jī)器運算能力,每個類別選取了5000 個樣本.提升硬件性能或者結(jié)合并行計算技術(shù),從而擴(kuò)大訓(xùn)練語料庫規(guī)模,能夠進(jìn)一步提升分類效果.

      4 總結(jié)與展望

      本文區(qū)分新聞的標(biāo)題和正文,改進(jìn)了TF-IDF 模型,然后使用TF-IDF 對詞向量進(jìn)行加權(quán),最后用CNN 進(jìn)行新聞分類.在搜狐新聞?wù)Z料內(nèi)部,取得了較好的分類效果.

      用搜狐新聞訓(xùn)練的模型,對全網(wǎng)新聞數(shù)據(jù)進(jìn)行預(yù)測,準(zhǔn)確率和召回率有所下降.分析主要原因是訓(xùn)練數(shù)據(jù)集中在搜狐新聞,對訓(xùn)練數(shù)據(jù)存在過擬合,而異源新聞的長度、風(fēng)格等存在較大差異,所以分類效果有所下降.今后的研究工作中,期望擴(kuò)大訓(xùn)練數(shù)據(jù)來源,增加不同數(shù)據(jù)源的新聞文本,以更好地適用于全網(wǎng)新聞文本分類.BERT、ERNIE 等詞嵌入模型方興未艾,在自然語言處理各個領(lǐng)域取得了更好的成績,下一步實驗擬采用BERT 或者其改進(jìn)模型替代Word2Vec,期望進(jìn)一步提高新聞文本分類的效果.

      猜你喜歡
      類別文檔卷積
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      有人一聲不吭向你扔了個文檔
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于RI碼計算的Word復(fù)制文檔鑒別
      服務(wù)類別
      新校長(2016年8期)2016-01-10 06:43:59
      Persistence of the reproductive toxicity of chlorpiryphos-ethyl in male Wistar rat
      論類別股東會
      商事法論集(2014年1期)2014-06-27 01:20:42
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
      中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
      茂名市| 开阳县| 林口县| 沂源县| 章丘市| 观塘区| 三门峡市| 丹阳市| 九江市| 忻城县| 新闻| 田东县| 呼和浩特市| 中西区| 肥西县| 汽车| 安顺市| 凌海市| 扬州市| 敦化市| 鲁山县| 广水市| 安仁县| 崇阳县| 嘉鱼县| 迁安市| 维西| 曲阜市| 合川市| 伊吾县| 日土县| 五华县| 襄汾县| 镇雄县| 高淳县| 荆门市| 虞城县| 五家渠市| 巢湖市| 合川市| 丹阳市|