宋勇,嚴(yán)志偉,秦玉坤,趙東明,葉曉舟,柴園園,歐陽曄
研究與開發(fā)
基于矩陣分解和注意力多任務(wù)學(xué)習(xí)的客服投訴工單分類
宋勇1,嚴(yán)志偉2,秦玉坤2,趙東明3,葉曉舟1,柴園園1,歐陽曄1
(1. 亞信科技(中國)有限公司,北京 100193;2. 亞信科技(南京)有限公司,江蘇 南京 210013;3. 中國移動通信集團(tuán)天津有限公司,天津 300020)
投訴工單自動分類是通信運(yùn)營商客服數(shù)字化、智能化發(fā)展的要求。客服投訴工單的類別有多層,每一層有多個標(biāo)簽,層級之間有所關(guān)聯(lián),屬于典型的層次多標(biāo)簽文本分類問題,現(xiàn)有解決方法大多數(shù)基于分類器同時處理所有的分類標(biāo)簽,或者對每一層級分別使用多個分類器進(jìn)行處理,忽略了層次結(jié)構(gòu)之間的依賴。提出了一種基于矩陣分解和注意力的多任務(wù)學(xué)習(xí)的方法(MF-AMLA),處理層次多標(biāo)簽文本分類任務(wù)。在通信運(yùn)營商客服場景真實(shí)投訴工單分類數(shù)據(jù)下,與該場景常用的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法的Top1 F1值相比分別最大提高了21.1%和5.7%。已在某移動運(yùn)營商客服系統(tǒng)上線,模型輸出的正確率97%以上,對客服坐席單位時間的處理效率提升22.1%。
層次多標(biāo)簽分類;注意力機(jī)制;多任務(wù)學(xué)習(xí);客服工單分類
近年來,通信運(yùn)營商的客戶數(shù)量穩(wěn)步上升,業(yè)務(wù)范圍增大,面臨的投訴問題日趨繁多和復(fù)雜[1]。快速準(zhǔn)確地處理投訴工單是提升客戶滿意度和運(yùn)營商效益的重要方面。針對每個投訴工單,首先需要判斷其所屬的業(yè)務(wù)類別。傳統(tǒng)的依賴客服坐席標(biāo)記投訴工單所屬類別需要耗費(fèi)大量的人力成本和時間成本,而且不能保證很高的準(zhǔn)確率。因此,對投訴工單文本進(jìn)行自動化分類是運(yùn)營商朝著數(shù)字化、智能化方向發(fā)展的要求[2]。
通信運(yùn)營商客服場景的投訴工單文本相較于一般的文本,通常對應(yīng)很多層級的業(yè)務(wù)類別,并且各類別之間存在一定的關(guān)聯(lián)關(guān)系[3],每個層級的業(yè)務(wù)類別串聯(lián)形成最終的總類別,屬于典型的層次多標(biāo)簽文本分類(hierarchical multi-label text classification,HMTC)問題。傳統(tǒng)的文本分類方法很少考慮類別層級的關(guān)聯(lián)關(guān)系,文本特征表示相對較弱,分類效果仍有提升空間。因此,為了實(shí)現(xiàn)對運(yùn)營商投訴工單文本的自動分類以及保證高的準(zhǔn)確率,需要采取更有針對性的有效分類方法。本文創(chuàng)新性地提出一種基于矩陣分解(matrix factorization,MF)和注意力的多任務(wù)學(xué)習(xí)(attention-based multi-task learning approach,AMLA)的方法,被稱為MF-AMLA,處理HMTC任務(wù),幫助運(yùn)營商客服快速準(zhǔn)確地對多層級的投訴工單文本進(jìn)行分類。
文本分類是自然語言處理(NLP)中的一個經(jīng)典任務(wù),旨在為給定的文本序列分配預(yù)定義的類別[4-5]。早期的文本分類算法主要基于淺層學(xué)習(xí),如樸素貝葉斯(naive bayes)、支持向量機(jī)(support vector machine,SVM)、最鄰近分類(-nearest neighbor,NN)和隨機(jī)森林等,這些方法存在高維度、高稀疏問題,分類效果差。近年來,深度學(xué)習(xí)的快速發(fā)展使得神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域大放異彩。例如,文本卷積神經(jīng)網(wǎng)絡(luò)(text convolutional neural network,TextCNN)[6]能夠捕捉局部相關(guān)性,在短文本分類上取得較好效果。循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)[7-8]考慮了上下文信息的語義關(guān)聯(lián)。長短期記憶(long short-term memory,LSTM)網(wǎng)絡(luò)[9]可以學(xué)習(xí)長距離依賴信息,解決了傳統(tǒng)RNN梯度消失的問題。門控循環(huán)單元(gated recurrent unit,GRU)[10]作為LSTM的一種變體,結(jié)構(gòu)更加簡單。Transformer的自注意力機(jī)制在處理長期依賴的問題時相較于LSTM有更好的表現(xiàn)[11]?;诖?,GPT(generative pre-training)預(yù)訓(xùn)練詞向量模型[12]、BERT(bidirectional encoder representations from transformers)預(yù)訓(xùn)練語言模型[13],依次刷新各NLP任務(wù)效果。
多標(biāo)簽文本分類是文本分類的重要分支,相比于單標(biāo)簽分類任務(wù),多標(biāo)簽通常有復(fù)雜的依賴性,每個文本不只屬于一個類別,而是被賦予多個標(biāo)簽。Tsoumakas等[14]將多標(biāo)簽分類的方法分為兩類,一類是問題轉(zhuǎn)換的方法,另一類是算法適應(yīng)的方法。前者將多標(biāo)簽分類問題轉(zhuǎn)化為一個或多個單標(biāo)簽分類問題,代表算法有Binary Relevance[15]、Random-labelsets[16]、Calibrated Label Ranking[17]、Label Power-set[18]。這類方法面對類別多、數(shù)據(jù)量大的數(shù)據(jù)集時存在計算復(fù)雜度高的缺陷。后者通過拓展單標(biāo)簽學(xué)習(xí)算法,直接處理多標(biāo)簽的數(shù)據(jù),代表算法有Rank-SVM[19]、ML-NN[20]。
而在許多實(shí)際問題中,文本建模的預(yù)測輸出是結(jié)構(gòu)化的類別,即類別之間存在依賴關(guān)系,例如表現(xiàn)為樹狀分層結(jié)構(gòu)或有向無環(huán)圖[21]。這種多標(biāo)簽分類屬于HMTC[22]。HMTC分類任務(wù),主要方法可以分為兩類:一類為局部方法,根據(jù)類別標(biāo)簽的層次結(jié)構(gòu),對預(yù)測輸出空間的每個分類建立模型,將HMTC分類轉(zhuǎn)化為對多個單一標(biāo)簽的分類,最后組合各個模型獲得最終的標(biāo)簽[23]。例如,Cesa-Bianchi等[24]提出了Hierarchical SVM,僅在父類標(biāo)簽被激活時進(jìn)行SVM學(xué)習(xí);另一類為全局方法,預(yù)測輸出空間建立單一模型預(yù)測所有類別,相比于局部方法,可挖掘、使用各標(biāo)簽之間的依賴關(guān)系,學(xué)習(xí)到隱含特征獲得更好的分類效果[25]。例如,Vens等[23]提出Clus HMC,使用單個決策樹處理整個層次類別結(jié)構(gòu)。Borges等[26]提出了一種基于競爭人工神經(jīng)網(wǎng)絡(luò)的全局方法預(yù)測層次結(jié)構(gòu)中的所有類別。然而,上述這些研究只關(guān)注到了層次結(jié)構(gòu)的局部區(qū)域或整體結(jié)構(gòu),而忽略了層次結(jié)構(gòu)不同層級之間的依賴關(guān)系。
多任務(wù)學(xué)習(xí)(multi-task learning,MTL)是對多個任務(wù)共享模型,同時學(xué)習(xí),提升模型性能的算法[27]。MTL有許多優(yōu)點(diǎn),例如可以提高數(shù)據(jù)計算效率,通過共享表示可以減少過度擬合,利用輔助信息可以快速學(xué)習(xí)等[28]。MTL同時考慮多個相關(guān)任務(wù)的學(xué)習(xí)過程,能夠利用任務(wù)之間的關(guān)聯(lián)提高單一任務(wù)學(xué)習(xí)的泛化能力。例如,Liu等[29]利用16個不同的文本分類任務(wù)進(jìn)行MTL,相較于單任務(wù)顯著提升了分類效果。MTL現(xiàn)有方法主要有兩類:硬參數(shù)共享[28,30]和軟參數(shù)共享[31-32]。前者在不同任務(wù)的隱藏層共享模型權(quán)重,使每個權(quán)重都經(jīng)過訓(xùn)練,共同最小化多個損失函數(shù)。后者針對不同的任務(wù)有特定的任務(wù)模型,在參數(shù)空間討論需要交互哪些信息,設(shè)定不同的權(quán)重,通過將不同模型參數(shù)之間的距離加入聯(lián)合目標(biāo)函數(shù)進(jìn)行優(yōu)化。
綜合以上相關(guān)研究,基于HMTC的特點(diǎn),本文創(chuàng)新性地提出了MF-AMLA。矩陣分解(matrix factorization,MF)是一種協(xié)同過濾推薦算法[33],通過將用戶評分矩陣分解以學(xué)習(xí)用戶和物品之間的交互關(guān)系。這里,本文引入MF模塊,增強(qiáng)文本和分層多標(biāo)簽的語義表示,以捕捉文本與層次標(biāo)簽的淺層隱藏關(guān)系。然后對不同分層的多標(biāo)簽進(jìn)行基于注意力的MTL,既考慮局部層級特征以及全局信息,又考慮不同層級之間的關(guān)聯(lián)關(guān)系,挖掘、使用各層級標(biāo)簽之間的依賴關(guān)系,學(xué)習(xí)更深層的隱含特征。MF和MTL聯(lián)合損失函數(shù),在各子任務(wù)間互相修正錯誤,提升模型對層次多標(biāo)簽文本的分類效果。
MF-AMLA模型結(jié)構(gòu)如圖1所示,主要涉及3部分內(nèi)容:文本表征層、嵌入層、AMLA 層。
圖1 MF-AMLA模型結(jié)構(gòu)
對于HMTC任務(wù),涉及Text和層次多標(biāo)簽(hierarchical multi-label,HML),Text表示為:
HML表示為:
在基于注意力機(jī)制的多任務(wù)學(xué)習(xí)的第一階段,為了使文本和分層多標(biāo)簽類別的向量表示統(tǒng)一,本文首先在嵌入(embedding)層編碼文本和分層多標(biāo)簽類別結(jié)構(gòu),然后使用MF層增強(qiáng)文本語義表示的編碼。
本文把文本和分層多標(biāo)簽類別組合成矩陣:
使用梯度下降算法降低損失:
AMLA層包含兩個模塊:Transformer和MTL。
(1)Transformer
每個編碼器包含兩個模塊,分別為自注意力(self-attention)模塊和前饋網(wǎng)絡(luò)模塊。在自注意力模塊,輸入的嵌入被線性變換成3個矩陣:查詢、鍵、值??s放點(diǎn)積注意力為:
多頭注意力機(jī)制將、、拆分成個頭,并行執(zhí)行注意力操作,再將多頭的輸出值串聯(lián),投影后形成輸出。經(jīng)多頭注意力機(jī)制后再接前饋網(wǎng)絡(luò)層,得到句子的特征向量。
(2)MTL
其中:
本文使用的數(shù)據(jù)集來自運(yùn)營商客服接聽電話投訴后人工標(biāo)注好的文本。投訴工單文本實(shí)例見表1。數(shù)據(jù)篩選前的原始標(biāo)簽的長尾分布見表2??紤]實(shí)際生產(chǎn)實(shí)踐中著重關(guān)注占比高的處理方式,本文按照2/8原則,篩選前80%的頭部標(biāo)簽數(shù)據(jù)進(jìn)行后續(xù)的下游分類任務(wù),對于剩余20%的長尾標(biāo)簽數(shù)據(jù)則不采用。篩選后,共有283 904條投訴工單文本,原始的標(biāo)簽數(shù)量為186個。進(jìn)行預(yù)處理后,得到7個層級子標(biāo)簽(見表1的樣本實(shí)例),一級到七級的標(biāo)簽數(shù)量分布為4、5、45、49、6、83、64(文本標(biāo)簽分布見表3),例如一級標(biāo)簽對應(yīng)的類別有:家庭業(yè)務(wù)、移動業(yè)務(wù)、集團(tuán)業(yè)務(wù)、增值業(yè)務(wù)4個類別。之后對數(shù)據(jù)集劃分,按照原始標(biāo)簽8:2的比例將其劃分為訓(xùn)練集和驗(yàn)證集。
表1 投訴工單文本實(shí)例
表2 數(shù)據(jù)篩選前的文本原始標(biāo)簽的長尾分布
表3 文本標(biāo)簽分布
為了評估對運(yùn)營商行業(yè)層次多標(biāo)簽文本的分類效果,本文基于第3.1節(jié)獲取的數(shù)據(jù)集對比了本模型MF-AMLA與5種其他廣泛應(yīng)用的評價不錯的模型:Hierarchical SVM、Clus HMC、GRU、TextCNN、Bert。前兩種是基于機(jī)器學(xué)習(xí)的層次標(biāo)簽分類模型,后3種是基于深度學(xué)習(xí)的多標(biāo)簽分類方法。
為了多方面評估模型效果,本文引入Top準(zhǔn)確率評估方法,即置信度最高的個結(jié)果中包含正確標(biāo)簽的占比。本文采用Top1、Top5、Top10 3個指標(biāo)。經(jīng)過對比實(shí)驗(yàn),各模型的精確率、召回率的對比見表4,各模型F1值對比如圖2所示。整體來看,本文的MF-AMLA效果最優(yōu)。其中,Hierarchical SVM與Clus HMC出現(xiàn)較早,未采用深度學(xué)習(xí)的方法,效果較差,與之相比,MF-AMLA在Top1、Top5、Top10的F1值分別最大提高了21.1%、26.7%、22.1%;GRU、TextCNN和BERT模型作為文本分類常見深度學(xué)習(xí)方法,與之相比,MF-AMLA在Top1、Top5、Top10的F1值分別最大提高了5.7%、4.8%、4.8%。
表4 各模型的精確率P、召回率R的對比
以上實(shí)驗(yàn)結(jié)果表明,本文模型通過MF模塊將文本和分層多標(biāo)簽類別的向量表示統(tǒng)一,提升了模型的表征能力,再引入AMLA遞歸注意力多任務(wù)學(xué)習(xí)對層級標(biāo)簽分類后,提升了模型學(xué)習(xí)層級標(biāo)簽之間關(guān)聯(lián)關(guān)系的能力。本文提出的MF-AMLA可以有效提升運(yùn)營商行業(yè)中投訴工單文本的分類效果。
圖2 各模型F1值對比
運(yùn)營商的投訴工單文本屬于層次多標(biāo)簽的文本,目前一般的分類方法難以獲得好的分類效果。本文提出一種基于矩陣分解和注意力多任務(wù)學(xué)習(xí)的層次多標(biāo)簽分類方法(MF-AMLA),針對運(yùn)營商領(lǐng)域的投訴工單文本含有層次多標(biāo)簽的特點(diǎn),加入了MF模塊增強(qiáng)文本和分層多標(biāo)簽的語義表示,其次,按層級關(guān)聯(lián)關(guān)系進(jìn)行了遞歸注意力多任務(wù)學(xué)習(xí),解決HMTC問題,提高了投訴工單分類的準(zhǔn)確率。該模型已在某移動運(yùn)營商客服系統(tǒng)上線,對客服坐席接入的實(shí)時投訴數(shù)據(jù),MF-AMLA輸出Top 5分類結(jié)果,輔助客服坐席快速定位用戶投訴或咨詢的問題,及時協(xié)助用戶解決問題??头答伳P洼敵龅恼_率在97%以上,對客服坐席單位時間的處理效率提升22.1%(平均一通投訴或通話時長由58 s降低為49 s)。
未來本文將考慮更多文本分類任務(wù)的實(shí)踐,如電商售后服務(wù)咨詢內(nèi)容的自動分類,根據(jù)用戶反饋的內(nèi)容,給出用戶的真實(shí)意圖并歸類,快速解決用戶的訴求;用于智能對話機(jī)器人中,通過對問答內(nèi)容的精準(zhǔn)分類,快速定位用戶意圖,給出正確的交流策略;以及新聞自動歸類,對新聞網(wǎng)站的內(nèi)容,進(jìn)行自動歸類和分析,支持輿情分析,為公共安全和社會治理做出貢獻(xiàn)等,驗(yàn)證其他類似的任務(wù)是否會有進(jìn)一步的效果提升。
[1] TUNG F C. Customer satisfaction, perceived value and customer loyalty: the mobile services industry in China[J]. African Journal of Business Management, 2013, 7(18): 1730-1737.
[2] LIN L, ZHU B, WANG Q, et al. A novel 5G core network capability exposure method for telecom operator[C]//Proceedings of 2020 IEEE Intl Conf on Parallel & Distributed Processing with Applications, Big Data & Cloud Computing, Sustainable Computing & Communications, Social Computing & Networking. Piscataway: IEEE Press, 2020: 1450-1454.
[3] WEHRMANN J, CERRI R, BARROS R. Hierarchical multi-label classification networks[C]//Proceedings of International Conference on Machine Learning. [S.l.:s.n.], 2018: 5075-5084.
[4] KOWSARI, MEIMANDI J, HEIDARYSAFA, et al. Text classification algorithms: a survey[J]. Information, 2019, 10(4): 150.
[5] MINAEE S, KALCHBRENNER N, CAMBRIA E, et al. Deep learning: based text classification[J]. ACM Computing Surveys, 2021, 54(3): 1-40.
[6] ZHANG Y, WALLACE B. A sensitivity analysis of (and practitioners' guide to) convolutional neural networks for sentence classification[J]. arXiv preprint arXiv:1510.03820, 2015.
[7] MIKOLOV T, KOMBRINK S, BURGET L, et al. Extensions of recurrent neural network language model[C]//Proceedings of 2011 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE Press, 2011: 5528-5531.
[8] SOCHER R, LIN C C-Y, NG A Y, et al. Parsing natural scenes and natural language with recursive neural networks[C]//Proceedings of the 28th International Conference on Machine Learning.[S.l.:s.n.], 2011.
[9] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.
[10] DEY R, SALEM F M. Gate-variants of Gated Recurrent Unit (GRU) neural networks[C]//Proceedings of 2017 IEEE 60th International Midwest Symposium on Circuits and Systems. Piscataway: IEEE Press, 2017: 1597-1600.
[11] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Advances in neural information processing systems. [S.l.:s.n.], 2017: 5998-6008.
[12] RADFORD A, NARASIMHAN K, SALIMANS T, et al. Improving language understanding with unsupervised learning[EB]. 2018.
[13] DEVLIN J, CHANG M-W, LEE K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.
[14] TSOUMAKAS G, KATAKIS I, VLAHAVAS I. Mining multi-label data[M]//Data Mining and Knowledge Discovery Handbook. Boston, MA: Springer US, 2009: 667-685.
[15] BOUTELL M R, LUO J B, SHEN X P, et al. Learning multi-label scene classification[J]. Pattern Recognition, 2004, 37(9): 1757-1771.
[16] TSOUMAKAS G, VLAHAVAS I. Random k-labelsets: an ensemble method for multilabel classification[C]//Machine Learning: ECML.[S.l.:s.n.], 2007.
[17] FüRNKRANZ J, HüLLERMEIER E, LOZA MENCíA E, et al. Multilabel classification via calibrated label ranking[J]. Machine Learning, 2008, 73(2): 133-153.
[18] MADJAROV G, KOCEV D, GJORGJEVIKJ D, et al. An extensive experimental comparison of methods for multi-label learning[J]. Pattern Recognition, 2012, 45(9): 3084-3104.
[19] ELISSEEFF A, WESTON J. A kernel method for multi-labelled classification[J]. Advances in neural information processing systems, s.l.: The MIT Press, 2001(14): 681-687.
[20] ZHANG M L, ZHOU Z H. ML-KNN: a lazy learning approach to multi-label learning[J]. Pattern Recognition, 2007, 40(7): 2038-2048.
[21] BI W, KWOK J T. Multilabel classification on tree-and dag-structured hierarchies[C]//Proceedings of the 28th International Conference on Machine Learning, [S.l,:s.n.], 2011.
[22] GONG J B, TENG Z Y, TENG Q, et al. Hierarchical graph transformer-based deep learning model for large-scale multi-label text classification[J]. IEEE Access, 2020(8): 30885-30896.
[23] VENS C, STRUYF J, SCHIETGAT L, et al. Decision trees for hierarchical multi-label classification[J]. Machine Learning, 2008, 73(2): 185-214.
[24] CESA-BIANCHI N, GENTILE C, ZANIBONI L. Incremental algorithms for hierarchical classification[J]. The Journal of Machine Learning Research, 2006(7): 31-54.
[25] LEVATI? J, KOCEV D, D?EROSKI S. The importance of the label hierarchy in hierarchical multi-label classification[J]. Journal of Intelligent Information Systems, 2015, 45(2): 247-271.
[26] BORGES H B, NIEVOLA J C. Multi-Label Hierarchical Classification using a Competitive Neural Network for protein function prediction[C]//Proceedings of 2012 International Joint Conference on Neural Networks (IJCNN). Piscataway: IEEE Press, 2012: 1-8.
[27] CARUANA R. Multitask learning[J]. Machine learning, 1997, 28(1): 41-75.
[28] COLLOBERT R, WESTON J. A unified architecture for natural language processing: deep neural networks with multitask learning[C]//Proceedings of the 25th international conference on Machine learning-ICML '08. New York: ACM Press, 2008: 160-167.
[29] LIU X D, HE P C, CHEN W Z, et al. Multi-task deep neural networks for natural language understanding[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2019.
[30] EATON E, DESJARDINS M, LANE T. Modeling transfer relationships between learning tasks for improved inductive transfer[C]//Machine Learning and Knowledge Discovery in Databases. [S.l.:s.n.], 2008.
[31] DUONG L, COHN T, BIRD S, et al. Low resource dependency parsing: cross-lingual parameter sharing in a neural network parser[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers). Stroudsburg, PA, USA: Association for Computational Linguistics, 2015.
[32] YANG Y, HOSPEDALES T M. Trace norm regularised deep multi-task learning[J]. arXiv preprint arXiv:1606.04038, 2016.
[33] BENNETT J, LANNING S. The netflix prize[C]//Proceedings of KDD Cup and Workshop. New York: ACM Press, 2007: 35.
Customer service complaint work order classification based on matrix factorization and attention multi-task learning
SONG Yong1, YAN Zhiwei2, QIN Yukun2, ZHAO Dongming3, YE Xiaozhou1, CHAI Yuanyuan1, OUYANG Ye1
1. AsiaInfo Technologies (China) Co., Ltd., Beijing 100193, China 2. AsiaInfo Technologies (Nanjing) Co., Ltd., Nanjing 210013, China 3. China Mobile Communications Group Tianjin Co., Ltd., Tianjin 300020, China
The automatic classification of complaint work orders is the requirement of the digital and intelligent development of customer service of communication operators. The categories of customer service complaint work orders have multiple levels, each level has multiple labels, and the levels are related, which belongs to a typical hierarchical multi-label text classification (HMTC) problem. Most of the existing solutions are based on classifiers to process all classification labels at the same time, or use multiple classifiers for each level, ignoring the dependence between hierarchies. A matrix factorization and attention-based multi-task learning approach (MF-AMLA) to deal with hierarchical multi-label text classification tasks was proposed. Under the classification data of real complaint work orders in the customer service scenario of communication operators, the maximum Top1 F1 value of MF-AMLA is increased by 21.1% and 5.7% respectively compared with the commonly used machine learning algorithm and deep learning algorithm in this scenario. It has been launched in the customer service system of one mobile operator, the accuracy of model output is more than 97%, and the processing efficiency of customer service agent unit time has been improved by 22.1%.
hierarchical multi-label classification, attention mechanism, multi-task learning, customer service work order classification
TP183
A
10.11959/j.issn.1000?0801.2022031
2021?09?17;
2021?12?27
秦玉坤,qinyk@asiainfo.com
宋勇(1989? ),男,亞信科技(中國)有限公司通信人工智能實(shí)驗(yàn)室通信業(yè)務(wù)與應(yīng)用算法研究部負(fù)責(zé)人,主要研究方向?yàn)镹LP、知識圖譜、AIOps、推薦等。
嚴(yán)志偉(1994? ),男,博士,亞信科技(南京)有限公司通信人工智能實(shí)驗(yàn)室算法工程師,主要研究方向?yàn)镹LP、AIOps。
秦玉坤(1987? ),男,亞信科技(南京)有限公司通信人工智能實(shí)驗(yàn)室算法工程師,主要研究方向?yàn)镹LP、AIOps、知識圖譜。
趙東明(1984? ),男,博士,中國移動通信集團(tuán)天津有限公司技術(shù)專家,天津移動AI實(shí)驗(yàn)室/天津移動博士后科研工作站負(fù)責(zé)人,主要研究方向?yàn)橹R圖譜、智能語音情感、認(rèn)知概念網(wǎng)絡(luò)。
葉曉舟(1980? ),男,博士,亞信科技(中國)有限公司通信人工智能實(shí)驗(yàn)室資深總監(jiān)、首席科學(xué)家,主要研究方向?yàn)橥ㄐ啪W(wǎng)絡(luò)與人工智能。
柴園園(1980? ),女,博士,亞信科技(中國)有限公司通信人工智能實(shí)驗(yàn)室首席算法科學(xué)家,主要研究方向?yàn)樯疃葘W(xué)習(xí)、人工智能、數(shù)據(jù)科學(xué)及管理。
歐陽曄(1981? ),男,博士,亞信科技(中國)有限公司首席技術(shù)官、高級副總裁,主要研究方向?yàn)橐苿油ㄐ?、人工智能、?shù)據(jù)科學(xué)、科技研發(fā)創(chuàng)新與管理。