• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      知識嵌入的醫(yī)療對話生成

      2024-01-03 12:04:10曾磊磊武振華
      天津科技大學(xué)學(xué)報 2023年6期
      關(guān)鍵詞:子圖圖譜實體

      王 嫄,曾磊磊,武振華,熊 寧

      (天津科技大學(xué)人工智能學(xué)院,天津 300457)

      現(xiàn)如今,醫(yī)療資源緊張的情況普遍存在,根據(jù)2020 年中國衛(wèi)生健康統(tǒng)計年鑒[1],全國平均每千人的醫(yī)療機(jī)構(gòu)床位數(shù)為6.30 張,其中:東部地區(qū)平均每千人的醫(yī)療機(jī)構(gòu)床位數(shù)為5.78 張,中部地區(qū)平均每千人的醫(yī)療機(jī)構(gòu)床位數(shù)為6.44 張,西部地區(qū)平均每千人的醫(yī)療機(jī)構(gòu)床位數(shù)為6.84 張。不同地域情況不同,西部地區(qū)地廣人稀,千人床位數(shù)相對較高,而東部地區(qū)人口密度較大,千人床位數(shù)相對較低。倘若人人都去線下醫(yī)院咨詢,這勢必會給醫(yī)院造成很大的壓力,并且容易引起交叉感染,導(dǎo)致更加嚴(yán)重的后果。因此,一個可以讓患者在線咨詢和問診的醫(yī)療對話系統(tǒng)就顯得十分必要。它能夠節(jié)省人力、物力,減小線下醫(yī)院的壓力,提高問診效率,把有限的醫(yī)療資源留給最需要的群體,更好、更及時地滿足患者的需求。

      知識圖譜本質(zhì)上是語義網(wǎng)絡(luò)的知識庫,它主要包含實體、屬性和關(guān)系。實體是指現(xiàn)實世界中的事物,比如人、地名、概念、藥物、公司等;屬性是指實體具備的某些特征,屬性值即為某種屬性相對應(yīng)的具體值;關(guān)系則用來表達(dá)不同實體之間的某種聯(lián)系?,F(xiàn)有基于知識圖譜的醫(yī)療對話生成的基本思想是在生成回復(fù)時向模型提供所需要的實體信息和關(guān)系信息。然而,回復(fù)生成模型的輸入序列長度通常是有限的。例如,對于GPT-2(generative pretrained transformer,GPT)模型來說,輸入序列長度不能超過1 024 個詞,因而背景知識的引入會高度影響可以輸入模型的上下文信息量的大小。在早期工作嘗試的方法中,圖譜中的局部知識被改寫成偽話語并與對話歷史中的話語一起提供給模型,但這種做法容易丟失知識圖譜中的實體關(guān)系邏輯推理信息。

      在醫(yī)療對話生成中,為了提高模型生成回復(fù)的內(nèi)容準(zhǔn)確性和對話信息量,很多學(xué)者[2-3]嘗試根據(jù)歷史對話引入相關(guān)疾病實體信息,但是這些方法在多輪的長對話中仍然存在話語之間聯(lián)系不緊密、醫(yī)療信息表述多樣化、醫(yī)療信息利用不足的問題。

      為了解決上述問題,本文提出知識嵌入的醫(yī)療對話生成模型(medical conversation generation model based on knowledge embedding,MCG-KE),根據(jù)歷史對話進(jìn)行實體預(yù)測得到上下文知識嵌入實體,引入串行圖編碼方式和圖注意力機(jī)制獲得當(dāng)前對話相關(guān)的醫(yī)療知識圖譜子圖編碼,并保留子圖在其結(jié)構(gòu)中的編碼信息。該模型通過實體預(yù)測模塊得到上下文知識嵌入實體,利用歷史對話中的實體生成知識圖譜子圖,同時獲取子圖的語義信息,利用圖注意力機(jī)制表示實體之間的關(guān)系,使用串行圖編碼技術(shù)簡潔地編碼知識圖譜子圖,將上下文知識嵌入實體、歷史對話和子圖編碼結(jié)果作為模型的輸入,從而使生成的回復(fù)具有醫(yī)學(xué)常識一貫性。

      1 相關(guān)工作

      在對話系統(tǒng)中產(chǎn)生基于知識的回復(fù)是一個重要的研究挑戰(zhàn)。知識圖譜可以被視為現(xiàn)實世界的一個抽象概念,它可以潛在地促進(jìn)對話系統(tǒng)產(chǎn)生基于知識的回復(fù)。然而,以端到端方式將知識圖譜集成到對話生成過程中是一項艱巨的任務(wù)。Chaudhuri 等[4]將知識圖譜集成到回復(fù)生成過程中,訓(xùn)練一個 BERT(bidirectional encoder representations from transformers)模型,學(xué)習(xí)在多任務(wù)的端到端設(shè)置中使用知識圖譜的元素進(jìn)行回答。在使用圖拉普拉斯函數(shù)進(jìn)行訓(xùn)練和推理的過程中,將知識圖譜的k 跳子圖納入模型中。引入外部知識,通過選擇具體的內(nèi)容加到回復(fù)生成過程中,提升回復(fù)的質(zhì)量。但知識為實體,無法為回復(fù)生成提供其他更加豐富的信息,而且非結(jié)構(gòu)化的表示方案要求模型具有很強(qiáng)的能力從知識文本集合中進(jìn)行知識選擇。Liu 等[5]提出基于擴(kuò)充知識圖的開放域?qū)υ捝赡P?AKGCM),融合非結(jié)構(gòu)化知識和結(jié)構(gòu)化知識,模型由知識選擇和回復(fù)生成這兩個模塊組成。知識選擇模塊轉(zhuǎn)化為一個多跳圖問題,基于強(qiáng)化學(xué)習(xí)的推理模型(MINERVA)有效捕獲會話流,實現(xiàn)知識選擇,回復(fù)生成模塊使用帶復(fù)制機(jī)制的編碼器、解碼器模型,基于所選知識和用戶輸入生成最終回復(fù)。通過引入外部背景知識,神經(jīng)對話模型可以在生成流暢和信息豐富的回復(fù)方面顯示出巨大的潛力。然而,構(gòu)建這種以知識為基礎(chǔ)的對話很費力,而且現(xiàn)有模型在遷移到訓(xùn)練樣本有限的新領(lǐng)域時通常表現(xiàn)不佳。基于弱監(jiān)督學(xué)習(xí)的新型三階段學(xué)習(xí)框架(TSLF)受益于大規(guī)模的對話和非結(jié)構(gòu)化知識庫,同時作者還設(shè)計了帶有解耦解碼器的Transformer 變體,促進(jìn)了響應(yīng)生成和知識整合的分離學(xué)習(xí)[6]。

      本文研究基于知識的醫(yī)療對話生成。知識的引入可以豐富模型生成回復(fù)的信息量,緩解高頻無實際意義的回復(fù)的問題。目前,基于知識的醫(yī)療對話生成主要分為基于實體知識的醫(yī)療對話生成和基于圖譜知識的醫(yī)療對話生成。

      基于實體知識的醫(yī)療對話生成主要通過挖掘與上下文相關(guān)的醫(yī)學(xué)實體,輔助回復(fù)生成。研究人員分別使用檢索方法和生成方法,將醫(yī)學(xué)實體知識用于醫(yī)療對話生成任務(wù),其中檢索方法通過使用醫(yī)學(xué)實體作為關(guān)鍵信息在語料庫中檢索與該醫(yī)學(xué)實體最相關(guān)的回復(fù),而生成方法則將醫(yī)療實體編碼并作為序列到序列模型的輸入逐詞生成回復(fù)[2]。

      基于圖譜知識的醫(yī)療對話生成包括引入圖譜推理技術(shù)的醫(yī)療對話生成和引入圖譜融合技術(shù)的醫(yī)療對話生成,主要利用醫(yī)療知識圖譜實現(xiàn)。

      引入圖譜推理技術(shù)的醫(yī)療對話生成工作如下。通過構(gòu)造一種全局注意力機(jī)制以及癥狀圖模擬癥狀之間的關(guān)聯(lián),提高了在醫(yī)療對話中對于每一句話出現(xiàn)相關(guān)癥狀的預(yù)測準(zhǔn)確率,以及癥狀推理(患者是否有某一種癥狀)的精度和癥狀診斷的性能[7]。為了解決訓(xùn)練數(shù)據(jù)匱乏疾病的醫(yī)療對話生成模型學(xué)習(xí)困難的問題,Lin 等[8]提出低資源醫(yī)療回復(fù)生成器,該模型集成了分層上下文編碼器、元知識圖推理網(wǎng)絡(luò)和圖指導(dǎo)的響應(yīng)生成器,利用可動態(tài)進(jìn)化的常識圖反映和推斷疾病與癥狀的相關(guān)性,將問診模式從數(shù)據(jù)資源豐富疾病遷移到數(shù)據(jù)資源匱乏疾病。

      引入圖譜融合技術(shù)的醫(yī)療對話生成工作如下。為了全覆蓋復(fù)雜的醫(yī)療對話自然語言模式和場景,Xu 等[9]提出了知識路由關(guān)系對話系統(tǒng),該系統(tǒng)將豐富的醫(yī)療知識圖譜融入對話管理的主題切換中,并且使其與自然語言理解和自然語言生成協(xié)作。系統(tǒng)使用知識路由DQN(KR-DQN)管理主題切換,它集成了一個關(guān)系細(xì)化分支編碼不同癥狀和癥狀疾病對之間的關(guān)系,以及一個用于主題決策的知識路由圖譜分支。為了使問答型醫(yī)療對話系統(tǒng)檢索出來的答案更加科學(xué)合理,章毅等[10]提出了一種基于語言模型和實體匹配的問答型醫(yī)療對話系統(tǒng)構(gòu)建方法。作者收集網(wǎng)絡(luò)醫(yī)療討論帖清洗后存入ElasticSearch 中作為檢索數(shù)據(jù)集;使用醫(yī)療自然語言處理比賽數(shù)據(jù)集的開源數(shù)據(jù),訓(xùn)練出醫(yī)療相關(guān)的命名實體識別模型;收集開源網(wǎng)站的公開數(shù)據(jù)集構(gòu)成醫(yī)療知識圖譜,擴(kuò)充檢索流程。作者構(gòu)建的基于語言模型和實體匹配的問答型醫(yī)療對話系統(tǒng)在經(jīng)過召回、精排和綜合評分幾個步驟之后,結(jié)合合理的評分機(jī)制,輸出一個最為合適的回答,彌補(bǔ)檢索式問答系統(tǒng)和知識圖譜式問答系統(tǒng)的缺陷。穆天楊等[11]將知識圖譜中的結(jié)構(gòu)化信息應(yīng)用到對話系統(tǒng)中,提出了融合醫(yī)療知識圖譜的端到端對話系統(tǒng)。使用詞表匹配與深度學(xué)習(xí)方法相結(jié)合的方式提取對話信息中的關(guān)鍵詞,并根據(jù)提取的關(guān)鍵詞搜索知識圖譜中的相關(guān)信息作為GPT-2 模型的輸入,從而提高端到端對話系統(tǒng)的表現(xiàn)效果。

      上述基于實體知識和圖譜知識的醫(yī)療對話生成方法都在對話生成過程中引入了知識,但知識之間的復(fù)雜語義線索關(guān)系仍未被有效利用,圖譜的引入仍然占用較多數(shù)據(jù)空間。

      2 模型與方法

      2.1 問題形式化描述

      知識嵌入的醫(yī)療對話生成任務(wù)定義如下。給定醫(yī)生和患者歷史對話的文本序列 S = {S1, … , Si,… ,Sk}和醫(yī)療知識圖譜數(shù)據(jù)集MKG,其中k 表示當(dāng)前對話的輪次,Si為來自醫(yī)生d 或患者p 的由li個詞組成的話語 Si= {wi1, … ,wili}。任務(wù)基于歷史對話S 生成上下文一致且有醫(yī)學(xué)意義的長度為 r 的文本序列R = {wi1,… ,wir}作為回復(fù)為患者提供診斷建議。

      2.2 模型框架

      本文模型利用歷史對話和醫(yī)療知識圖譜引導(dǎo)對話生成預(yù)問診回復(fù),模型包含上下文知識嵌入模塊、子圖編碼模塊和回復(fù)生成模塊。上下文知識嵌入模塊利用數(shù)據(jù)集中的候選實體集合計算出與歷史對話最相關(guān)的醫(yī)學(xué)實體;子圖編碼模塊旨在通過串行圖編碼技術(shù)編碼從醫(yī)療知識圖譜數(shù)據(jù)集中獲取的子圖;回復(fù)生成模型則使用上下文知識嵌入實體、歷史對話和編碼后的醫(yī)療知識圖譜子圖生成回復(fù)。首先,根據(jù)患者和醫(yī)生的歷史對話以及候選實體集合計算出與歷史對話最相關(guān)的上下文知識嵌入實體;然后,基于歷史對話數(shù)據(jù)中的醫(yī)學(xué)實體從醫(yī)療知識圖譜中獲取子圖,并使用串行圖編碼方法對其進(jìn)行簡潔編碼,從而獲取子圖的相關(guān)語義信息;最后,將上下文知識嵌入實體、歷史對話和編碼的子圖連接并輸入GPT-2 模型中解碼生成對話回復(fù)。訓(xùn)練過程中,通過最小化下一個標(biāo)記預(yù)測的負(fù)對數(shù)似然優(yōu)化來自GPT-2 模型的權(quán)值?;谥R嵌入的醫(yī)療對話生成模型如圖1所示。

      圖1 基于知識嵌入的醫(yī)療對話生成模型Fig.1 Medical conversation generation model based on knowledge embedding

      2.3 上下文知識嵌入模塊

      在上下文知識嵌入模塊中,首先基于醫(yī)生和患者的歷史對話的文本序列S 得到對應(yīng)的類型向量T 和位置向量P。類型向量T 是指醫(yī)生d 或患者p,位置向量P 通過學(xué)習(xí)得到。將文本序列S、類型向量T 和位置向量P 作為BERT[12]的輸入進(jìn)行編碼即得到歷史對話向量Mu。

      為進(jìn)一步提升模型對非線性復(fù)雜上下文語義的表征建模能力,本文引入由多個節(jié)點層組成,每一層全連接到下一層的多層感知機(jī)(multilayer perceptron,MLP)映射歷史對話向量Mu到患者當(dāng)次就診上下文表示向量Vp,即

      計算 Vp和每個候選實體向量的乘積,使用softmax 函數(shù)從數(shù)據(jù)集的候選實體集合中找到概率值最大即最相關(guān)的實體。第i 個候選實體與當(dāng)前就診歷史對話相關(guān)性概率為

      其中ei是實體i 的詞向量。

      選擇相關(guān)性概率最大的實體作為被預(yù)測的實體,即關(guān)鍵指導(dǎo)實體,為

      2.4 子圖編碼模塊

      利用歷史對話數(shù)據(jù)中的醫(yī)學(xué)疾病實體獲取醫(yī)療知識圖譜中以該疾病實體為中心的子圖。串行圖編碼見表1。在串行圖編碼中,子圖中的關(guān)系和實體標(biāo)記在編碼結(jié)果GE 中的words 層中串行排列,在編碼結(jié)果中的segments 層使用兩個新的標(biāo)記entity 和relation 區(qū)分words 層的關(guān)系和實體。由于輸入上下文的長度固定,通過使用串行圖編碼技術(shù),模型編碼知識圖譜所需要的空間減少,實現(xiàn)了知識圖譜高效編碼,節(jié)省了輸入數(shù)據(jù)空間。

      表1 串行圖編碼Tab.1 Serial graph coding

      為了保存子圖的結(jié)構(gòu)信息,本文創(chuàng)建并添加了子圖的圖注意力矩陣,矩陣中的權(quán)值設(shè)置為1 或者0,即當(dāng)兩個實體在醫(yī)療知識圖譜中相鄰并有邊連接,矩陣的權(quán)值設(shè)置為1,否則權(quán)值設(shè)置為0。例如:實體吸煙中毒癥、肺部檢查、腹痛、高血壓、布美他尼片、消化內(nèi)科對應(yīng)的圖注意力機(jī)制矩陣如圖2 所示。

      圖2 圖注意力機(jī)制矩陣Fig.2 Graph attention mechanism matrix

      對于序列S,GPT-2 模型在進(jìn)行預(yù)測時,模型第l層第i 個詞的隱狀態(tài)計算公式如下,其中Q、K、V是可學(xué)習(xí)的參數(shù),Pj即圖注意力矩陣。

      2.5 回復(fù)生成模塊

      回復(fù)生成模塊旨在使用GPT-2 模型生成醫(yī)療問診回復(fù)。為了使生成的回復(fù)更加具有醫(yī)療場景語義信息,將使用子圖編碼模塊得到的編碼結(jié)果、嵌入實體i 和歷史對話共同作為GPT-2 模型的輸入,并解碼生成回復(fù)

      其中:R 為模型生成的回復(fù),GE 為子圖編碼的結(jié)果,S 為歷史對話序列,i 為上下文知識嵌入實體。

      3 實 驗

      3.1 實驗設(shè)置

      3.1.1 數(shù)據(jù)集

      為了證明本方法的有效性以及魯棒性,使用兩個公開數(shù)據(jù)集MedDG 和CovidDialog-Chinese 以及知識圖譜MedicaKnowledgeGraph 進(jìn)行實驗。

      MedDG 數(shù)據(jù)集[2]是一個與12 種常見胃腸道疾病相關(guān)的大規(guī)模、高質(zhì)量的醫(yī)學(xué)對話數(shù)據(jù)集,它包含從中國健康咨詢平臺收集的超過17 000 段對話,是目前醫(yī)療對話回復(fù)生成任務(wù)測評中的公認(rèn)數(shù)據(jù)集。該數(shù)據(jù)集平均每個話語包含詞數(shù)是17.7。候選實體集合有5 類共160 個實體,類別包括疾病、癥狀、屬性、檢查和藥物。疾病實體共12 項,包括胃炎、腸炎、便秘等;癥狀實體共62 項,包括腹瀉、腹痛、腹脹等;屬性實體共4 項,包括時長、誘因、性質(zhì)、位置;檢查實體共20 項,包括胃鏡、腸鏡、便常規(guī)等;藥物實體共62 項,包括奧美拉唑、嗎丁啉、莫沙必利等。本文將該數(shù)據(jù)集劃分為訓(xùn)練集(14 864 段對話)、驗證集(2 000 段對話)和測試集(1 000 段對話)。

      CovidDialog-Chinese 數(shù)據(jù)集[13]來源于haodf.com在線醫(yī)療服務(wù)平臺,它包含1 088 段關(guān)于新冠肺炎及其他相關(guān)肺炎的中文對話,共有來自935 名患者和352 名醫(yī)生的話語9 494 條,平均每個話語包含42.8個詞。候選實體集合使用TF-IDF(term frequencyinverse document frequency)技術(shù)從數(shù)據(jù)集中提取。每段對話由3 個部分組成:對患者病情和病史的描述、患者與醫(yī)生之間的對話、由醫(yī)生提供的診斷和治療建議。本文將該數(shù)據(jù)集劃分為訓(xùn)練集(870 段對話)、驗證集(109 段對話)和測試集(109 段對話)。

      MedicaKnowledgeGraph 是一個以垂直型醫(yī)藥網(wǎng)站為數(shù)據(jù)來源的知識圖譜,以疾病為核心,包含7 類規(guī)模為4.4 萬的知識實體,11 類規(guī)模約30 萬實體關(guān)系的知識圖譜。

      3.1.2 數(shù)據(jù)預(yù)處理

      數(shù)據(jù)預(yù)處理操作主要有MedicaKnowledgeGraph知識圖譜預(yù)處理、醫(yī)療知識圖譜子圖獲取、歷史對話和話語角色獲取。

      首先,利用MedicaKnowledgeGraph 知識圖譜生成以疾病實體為中心的三元組集合,其中每個三元組由兩個實體和它們之間的關(guān)系組成,例如肩關(guān)節(jié)、symptom(癥狀)、骨質(zhì)疏松。

      然后,根據(jù)兩個數(shù)據(jù)集的劃分情況,利用醫(yī)生和患者的歷史對話獲取每段對話中醫(yī)生和患者的全部話語,根據(jù)三元組集合獲取醫(yī)療知識圖譜子圖信息并保存在相應(yīng)的文件中,其中包含實體、關(guān)系以及對應(yīng)的圖注意力機(jī)制矩陣。

      最后,根據(jù)兩個數(shù)據(jù)集的劃分情況,獲取每段對話對應(yīng)的全部歷史對話以及每個話語對應(yīng)的角色,并保存在相應(yīng)的文件中。

      3.1.3 基線模型

      由于本文方法旨在根據(jù)歷史對話和醫(yī)療知識圖譜生成預(yù)問診回復(fù),因此選擇目前最優(yōu)且相關(guān)的基于知識庫的回復(fù)生成模型進(jìn)行對比,并從相關(guān)文獻(xiàn)中直接抽取實驗結(jié)果。

      Retrieval:基于檢索的回復(fù)生成方法,使用Lucene 搭建檢索引擎。它使用最相關(guān)的實體從知識庫中檢索最相關(guān)的回復(fù)。

      Seq2Seq[14]:一種經(jīng)典的基于注意力機(jī)制的序列到序列模型,由編碼器和解碼器組成,其中編碼器負(fù)責(zé)編碼歷史對話,解碼器負(fù)責(zé)解碼得到的最終回復(fù)。

      HRED[15]:在Seq2Seq 的基礎(chǔ)上,采用分層循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)對上下文進(jìn)行建模。通過分層堆疊兩個RNN 擴(kuò)展了傳統(tǒng)的RNN 編碼器,一個在單詞級別,一個在話語級別。

      DialoGPT[16]:DialoGPT 模型在GPT-2 基礎(chǔ)上進(jìn)行擴(kuò)展,也為自回歸語言模型,適合用于處理生成式任務(wù),使用了多層Transformer 解碼器作為模型架構(gòu)。但不同于GPT-2 模型,DialoGPT 模型的訓(xùn)練使用了從Reddit 討論鏈中提取出的大規(guī)模對話數(shù)據(jù),是GPT-2 模型的一個變體,實現(xiàn)了最大化互信息評分方程。

      Transformer[17]:Transformer 模型拋棄了傳統(tǒng)的RNN 和卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu),設(shè)計了一種注意力機(jī)制,它由且僅由自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)組成,使用堆疊的Encoder-Decoder 結(jié)構(gòu)搭建。

      BERT-GPT[18]:Transformer 模型的一個預(yù)訓(xùn)練方法,其中BERT 用于預(yù)訓(xùn)練Transformer 編碼器部分,GPT 用于預(yù)訓(xùn)練Transformer 模型解碼器部分。

      TAPT[19]:任務(wù)自適應(yīng)預(yù)訓(xùn)練技術(shù)。先對任務(wù)相關(guān)的無標(biāo)注語料進(jìn)行預(yù)訓(xùn)練,然后再對特定任務(wù)進(jìn)行微調(diào)。

      BERT-GPT-TAPT[13]:在BERT-GPT 模型的基礎(chǔ)之上使用了任務(wù)自適應(yīng)預(yù)訓(xùn)練技術(shù)。

      MCG-HE:基于歷史對話和實體預(yù)測的醫(yī)療對話生成模型,主要包含實體預(yù)測模塊和回復(fù)生成模塊,實體預(yù)測模塊使用BERT 預(yù)測與歷史對話最相關(guān)的關(guān)鍵指導(dǎo)實體,回復(fù)生成模塊將關(guān)鍵指導(dǎo)實體以及歷史對話作為GPT-2 模型的輸入實現(xiàn)回復(fù)生成。

      3.1.4 實驗參數(shù)

      本文模型MCG-KE 使用PyTorch 深度學(xué)習(xí)框架實現(xiàn),其中子圖編碼模塊設(shè)置:batch size 為4,學(xué)習(xí)率為6.0×10-5,epoch 為3,所使用的中文編碼器是BertTokenizerFast;回復(fù)生成模塊使用 M=12 層GPT-2 預(yù)訓(xùn)練模型,設(shè)置batch size 為1,學(xué)習(xí)率為1.0×10-5,epoch 為3,模型設(shè)置每句生成對話的最長長度為50 個詞,基線模型部分參數(shù)設(shè)置見表2。

      表2 基線模型部分參數(shù)設(shè)置Tab.2 Parameter configurations of baseline model

      3.1.5 評估指標(biāo)

      采用自動評估和人工評估兩種方法評估MCGKE 方法。

      自動評估指標(biāo):又稱為客觀評價指標(biāo)。本文參考對話系統(tǒng)采用BLEU(bilingual evaluation understudy)和Distinct 兩個指標(biāo)。

      BLEU 指標(biāo)評估生成回復(fù)與真實回復(fù)的詞重疊程度,計算公式為

      其中:c 為生成的回復(fù)句子長度;r 為參考回復(fù)句子長度;Wn指n-gram 的權(quán)重,n-garm 是包含N 個詞的連續(xù)詞片段,一般設(shè)為均勻權(quán)重,即對于任意n 都有Wn=1/N;Pn是指n-garm 的精度,計算公式為

      其中:candidates 是參考回復(fù),Countclip(n-gram)表示某一個n-gram 在生成回復(fù)中的個數(shù),Count(n-gram′)表示n-gram′在candidates 中的個數(shù)。

      Distinct 指標(biāo)評估生成回復(fù)在詞級別的多樣性。Distinct-1 為所有生成回復(fù)中不同的1-gram 占所有1-gram 的比例。Distinct-2 為所有生成結(jié)果中不同2-gram 占所有2-gram 的比例。Distinct 指標(biāo)取值越高,表示生成的結(jié)果中含有越多不同的n 元組,說明結(jié)果的多樣性更好。Distinct-n 計算公式為

      其中:Countunique(n-gram)表示回復(fù)中不重復(fù)的 ngram 詞語數(shù)量,Count(n-gram)表示回復(fù)中n-gram 詞語的總數(shù)量。

      人工評估指標(biāo):又稱為主觀評價指標(biāo),是對話系統(tǒng)中最重要的評估指標(biāo),能表示對話系統(tǒng)模擬人工的有效性。本文使用了correctness、relevance、informativeness、doctor-likeness 這4 個指標(biāo)評估生成回復(fù)的質(zhì)量。correctness 是指這個回復(fù)在臨床上的正確程度,relevance 是指回復(fù)與歷史對話的相關(guān)程度,informativeness 是指在回復(fù)中提供了醫(yī)療信息和建議的信息量,doctor-likeness 是指生成回復(fù)與真實醫(yī)生回復(fù)的相似程度。本文邀請4 位醫(yī)學(xué)相關(guān)專業(yè)的專家根據(jù)相關(guān)醫(yī)學(xué)知識對生成回復(fù)進(jìn)行評估。他們對所有生成回復(fù)的4 個指標(biāo)從1~5 進(jìn)行打分,分?jǐn)?shù)越高代表效果越好。計算所有生成回復(fù)在每個指標(biāo)上的平均分?jǐn)?shù),并作為最終結(jié)果。

      3.2 實驗結(jié)果與分析

      3.2.1 自動評估

      在MedDG 數(shù)據(jù)集和CovidDialog-Chinese 數(shù)據(jù)集上的自動評估實驗結(jié)果分別見表3 和表4,其中-e表示模型不使用實體預(yù)測模塊。本文選取已發(fā)表論文中所匯報的在兩個數(shù)據(jù)集上的先進(jìn)方法進(jìn)行對比,這幾種對比模型的實驗結(jié)果直接來自相關(guān)參考文獻(xiàn)。為了讓實驗結(jié)果更加清晰、直觀,本文把所有自動評估實驗結(jié)果都?xì)w一化為[0,100]之間,并且最優(yōu)結(jié)果以粗體表示。

      表3 在MedDG數(shù)據(jù)集上的自動評估指標(biāo)對比Tab.3 Comparison of automated assessment indicators on MedDG datasets

      表4 在CovidDialog-Chinese 數(shù)據(jù)集上的自動評估指標(biāo)對比Tab.4 Comparison of automated assessment indicators on CovidDialog-Chinese datasets

      從表3 可以看出,在MedDG 數(shù)據(jù)集上,MCGKE 模型在BLEU 指標(biāo)上優(yōu)于所有的基線模型,而在Distinct 指標(biāo)上,MCG-KE 沒有取得很好的表現(xiàn),不如MCG-HE 模型。猜測可能的原因是Distinct 指標(biāo)不適用于此任務(wù)[20],該指標(biāo)用于度量生成回復(fù)的多樣性,多樣性越高并不代表生成回復(fù)的質(zhì)量就越好,由于醫(yī)療對話生成屬于任務(wù)型對話,模型應(yīng)該根據(jù)患者的需求給出符合醫(yī)學(xué)原理的正確回復(fù),因此更加關(guān)注生成的回復(fù)是否準(zhǔn)確,而不是多樣。

      從表4 可以看出,在CovidDialog-Chinese 數(shù)據(jù)集上,MCG-KE 模型在BLEU 指標(biāo)上優(yōu)于所有的基線模型,同時MCG-HE 模型也比基線模型效果好;但如果不使用實體預(yù)測模塊,指標(biāo)均有下降,說明實體的加入對生成回復(fù)有積極作用。

      從以上兩個數(shù)據(jù)集的實驗結(jié)果可以看出,在BLEU 指標(biāo)上MCG-KE 模型取得了比較好的結(jié)果,說明MCG-KE 模型生成的回復(fù)更加接近于真實回復(fù),醫(yī)療知識圖譜和上下文知識嵌入能夠有效指導(dǎo)模型生成更加準(zhǔn)確、合適的回復(fù)。

      3.2.2 人工評估

      在MedDG 數(shù)據(jù)集和CovidDialog-Chinese 數(shù)據(jù)集上的人工評估實驗結(jié)果見表5 和表6,其中最優(yōu)結(jié)果用粗體表示。與自動評估不同的是,本文選擇在兩個數(shù)據(jù)集上與相關(guān)學(xué)者的實驗結(jié)果進(jìn)行對比。

      表5 在MedDG數(shù)據(jù)集上的人工評估指標(biāo)對比Tab.5 Comparison of manual assessment indicators on MedDG datasets

      表6 在CovidDialog-Chinese數(shù)據(jù)集上的人工評估指標(biāo)對比Tab.6 Comparison of manual assessment indicators on CovidDialog-Chinese datasets

      從表5 和表6 可以看出,在兩個數(shù)據(jù)集上,MCG-KE 模型在4 個人工評估指標(biāo)上都取得了最優(yōu)結(jié)果,相比于基線模型有明顯提升。同時,MCG-HE模型比基線模型效果好,再次證明了實體的引入有助于生成回復(fù)。另外,從實驗結(jié)果可以看出,MCG-KE模型比MCG-HE 模型效果好,模型在引入了醫(yī)療知識圖譜之后,模型生成的回復(fù)被認(rèn)為更加正確,與上下文更加相關(guān),信息量更加豐富,由此說明醫(yī)療知識圖譜含有豐富的實體以及關(guān)系信息,能夠指導(dǎo)模型生成更加接近于人類醫(yī)生的回復(fù)。

      4 結(jié) 語

      本文提出了知識嵌入的醫(yī)療對話生成模型MCG-KE,該模型通過歷史對話預(yù)測最相關(guān)的上下文嵌入實體,利用圖注意力機(jī)制表示實體之間的關(guān)系,使用串行圖編碼技術(shù)編碼醫(yī)療知識圖譜子圖,將醫(yī)療知識圖譜集成到基于知識的醫(yī)療對話系統(tǒng)當(dāng)中,指導(dǎo)模型生成更加接近于人類醫(yī)生的回復(fù),提升系統(tǒng)的推理魯棒性。在實驗部分,通過在兩個數(shù)據(jù)集上的實驗結(jié)果驗證了本文方法的有效性。知識圖譜在不同實體之間的復(fù)雜關(guān)系可以被簡潔地編碼,并且不會導(dǎo)致知識正確性、一致性和信息性等關(guān)鍵指標(biāo)下降。

      猜你喜歡
      子圖圖譜實體
      繪一張成長圖譜
      前海自貿(mào)區(qū):金融服務(wù)實體
      中國外匯(2019年18期)2019-11-25 01:41:54
      臨界完全圖Ramsey數(shù)
      實體的可感部分與實體——兼論亞里士多德分析實體的兩種模式
      補(bǔ)腎強(qiáng)身片UPLC指紋圖譜
      中成藥(2017年3期)2017-05-17 06:09:01
      兩會進(jìn)行時:緊扣實體經(jīng)濟(jì)“釘釘子”
      振興實體經(jīng)濟(jì)地方如何“釘釘子”
      基于頻繁子圖挖掘的數(shù)據(jù)服務(wù)Mashup推薦
      主動對接你思維的知識圖譜
      不含2K1+K2和C4作為導(dǎo)出子圖的圖的色數(shù)
      洮南市| 锡林浩特市| 华宁县| 天门市| 瑞安市| 武城县| 乌什县| 广平县| 伊吾县| 长宁县| 九寨沟县| 措勤县| 蕉岭县| 舟山市| 通榆县| 西和县| 汕尾市| 双鸭山市| 湖北省| 城步| 左云县| 南开区| 高唐县| 垦利县| 山西省| 沈丘县| 台安县| 黑山县| 巴彦县| 夏津县| 吉林省| 沙洋县| 隆昌县| 黄冈市| 彩票| 崇文区| 临西县| 连云港市| 铜川市| 寻乌县| 栖霞市|