普瑞麗,王元龍,李茹,2
(1.山西大學計算機與信息技術(shù)學院,太原 030006;2.山西大學計算智能與中文信息處理教育部重點實驗室,太原 030006)
隨著自然語言處理研究領(lǐng)域的深入發(fā)展,閱讀理解任務受到了越來越多研究者的關(guān)注。閱讀理解任務是指讓機器根據(jù)給定文本回答相關(guān)問題,從而衡量機器理解自然語言的能力。近年來,大量的閱讀理解數(shù)據(jù)集被提出,如SQuAD[1]、RACE[2]、Drop[3]、CMRC[4]等,推動了該項研究的發(fā)展。
高考語文閱讀理解中的選擇題來源于高考真實考試場景,由領(lǐng)域?qū)<以O(shè)計,以評估學生的閱讀理解能力,因此在數(shù)據(jù)質(zhì)量上有很大的保障。在高考閱讀理解任務中,需要結(jié)合文章針對提出的問題從四個選項中選擇出正確的答案。由近15 年的全國高考試題和7 392 道模擬題中選項的統(tǒng)計可知,在全國高考試題中,包含因果關(guān)系選項的題目占總題目的35.43%,包含因果關(guān)系的選項占總選項的12.65%,在模擬題中,包含因果關(guān)系選項的題目占總題目的39.69%,包含因果關(guān)系的選項占總選項的13.77%。因此,本文重點研究因果關(guān)系類選項。此外,由于目前大多數(shù)閱讀理解模型都是使用深度學習的方法將問題轉(zhuǎn)換成一個分類或排序問題,該類方法用在因果關(guān)系類選項中存在兩個缺陷:一是不能很好地捕捉到因果關(guān)系類選項特有的表征;二是只能用來判斷選項是否正確,而對于模型預測的結(jié)果卻無法給出一個合理的解釋。
本文對高考閱讀理解任務中的因果關(guān)系類選項進行分析,發(fā)現(xiàn)該類型選項錯誤的原因主要分為因果顛倒、強加因果、偷換原因或結(jié)果、其他等4 種類型。針對不同的選項錯誤原因,提出采用因果關(guān)系網(wǎng)來表征原文,并將其融入到BERT 模型[5]中,從而提高BERT 模型預測因果關(guān)系選項的性能。此外,結(jié)合每一種錯誤類型的特點,針對因果關(guān)系類選項判斷的可解釋性做進一步研究。
目前,針對閱讀理解提出的方法主要有兩種:基于特征的方法[6-8]和基于神經(jīng)網(wǎng)絡(luò)的方法[9-11]?;谔卣鞯姆椒ê诵脑谟谶x擇合適的特征用以表示文本,常用特征為句法特征、詞頻特征、詞距離特征、框架語義特征[12-13]、詞向量特征等?;谏窠?jīng)網(wǎng)絡(luò)的方法大多先使用詞向量表示,再使用深度學習模型學習文本的向量表示,最后將問題轉(zhuǎn)換為一個分類或排序問題?,F(xiàn)階段,多數(shù)研究使用基于神經(jīng)網(wǎng)絡(luò)的方法來解決閱讀理解任務,由于高考閱讀理解中包含的類型較多,難度較大,且數(shù)據(jù)量較少,加入因果關(guān)系網(wǎng)絡(luò)可以使模型更好地學習到選項與文章中的因果關(guān)系表征。文獻[6]將高考閱讀理解選擇題中的選項分為4 類,并針對其中的因果選項,提出基于因果關(guān)系網(wǎng)的因果關(guān)系支持度分析方法。本文在文獻[6]的基礎(chǔ)上,對因果關(guān)系類選項按照錯誤類型進行分類,并將因果關(guān)系表征融入到BERT 模型中,進而提高模型預測因果關(guān)系選項的性能。
在解決因果關(guān)系類選項問題時,首要任務是抽取因果關(guān)系。目前,因果關(guān)系抽取方法主要有兩種:基于模式匹配的方法和基于機器學習的方法。基于模式匹配的方法是依據(jù)因果句子的結(jié)構(gòu)特點進行模式匹配抽取因果關(guān)系,該方法僅可抽取固定模式的顯式因果關(guān)系。文獻[14]通過分析法語中具有因果含義的動詞,實現(xiàn)了一個用于抽取帶有標記的顯示因果關(guān)系的COATIS 系統(tǒng)。文獻[15]指出,除動詞之外,還有一些介詞連接詞(如because of、for)、狀語連接詞(如so、therefore)以及從句連接(如the result is)也能表達因果關(guān)系,并且使用模式匹配的方法在Wall StreetJournal 數(shù)據(jù)中抽取帶有標記的因果關(guān)系。基于機器學習的方法主要把因果關(guān)系抽取任務分為兩類:分類任務和序列標注任務,在分類任務中,依據(jù)文本中候選對之間是否存在因果關(guān)系進行分類。文獻[16]利用平行維基百科語料庫來識別已知因果短語的新標記,并使用遠程監(jiān)督的方法構(gòu)造訓練集,利用來自開放類標記的特性和提供上下文信息的語義特性訓練一個因果分類器。文獻[17]利用生成式對抗網(wǎng)絡(luò)的對抗學習特性,把帶有注意力機制的雙向門控循環(huán)單元網(wǎng)絡(luò)和對抗學習融合起來,提出一種融合對抗學習的因果關(guān)系分類方法。在序列標注任務中,需要標注出句子中的因果實體。文獻[18]使用單詞級的詞向量及其語義特征,通過BiLSTM 網(wǎng)絡(luò)對句子中的原因、結(jié)果及因果連接詞進行標注。文獻[19]通過使用因果關(guān)系的時間特征,把因果關(guān)系抽取任務定義成一種特殊的時間進行抽取,并提出一種基于條件隨機場(Conditional Random Field,CRF)的緊急情況中因果關(guān)系抽取方法。文獻[20]提出了BiLSTM+CRF+S-GAT 的因果關(guān)系抽取模型,將詞向量輸入模型中從而得到句中每個詞的因果標簽。與基于模式匹配的方法相比,基于機器學習的方法更加靈活,可以抽取隱式因果關(guān)系、跨句、跨段因果關(guān)系等,但前提是需要人工對語料進行大量的標注用于訓練模型,而基于模式匹配的方法可以更加準確地確定文本中因果關(guān)系的因果角色,在探測到因果知識的同時還可以有效地分清何為因,何為果。因此,本文使用已創(chuàng)建好的模板來提取文章中的顯示因果關(guān)系。
對于構(gòu)建因果關(guān)系網(wǎng)絡(luò),文獻[6]首先對句子的依存句法進行分析,然后使用3 種關(guān)系類型的短語(動賓關(guān)系、定中關(guān)系和狀中關(guān)系)作為因變量和果變量來構(gòu)建因果關(guān)系網(wǎng)絡(luò)。然而,由于每個句子的句法結(jié)構(gòu)各不相同,因此得到的因果關(guān)系網(wǎng)絡(luò)比較稀疏。文獻[21]在英文語料上,通過保留句子中的動詞、名詞、形容詞和副詞作為網(wǎng)絡(luò)節(jié)點來構(gòu)建因果關(guān)系網(wǎng)絡(luò),該方法既可以保留句子中的主要信息,又可以緩解網(wǎng)絡(luò)稀疏的問題,因此,本文借鑒該方法建立一個基于高考閱讀理解的因果關(guān)系網(wǎng)絡(luò)。
在高考閱讀理解選擇題中,題干對解題的作用較小,多數(shù)為考察對原文的理解是否正確,因此,本文參考文獻[6],忽略題干的作用,將選擇題形式化描述為一個三元組
對應上述形式,本文針對高考閱讀理解中因果關(guān)系類選項提出一種判斷方法。首先使用基于模式匹配的方法分別抽取文章與因果選項中的原因句和結(jié)果句,得到文章因果句對集合與選項因果句對集合,并根據(jù)選項因果句從文章中抽取出相應的原因候選句與結(jié)果候選句;然后從得到的文章因果句對中抽取出因果關(guān)系詞對,從而構(gòu)建因果關(guān)系網(wǎng)絡(luò);最后在BERT 中融入因果關(guān)系網(wǎng)絡(luò)進行訓練,并根據(jù)每一種錯誤類型的特點,結(jié)合BERT 的預測結(jié)果來確定選項的類型,進而判斷選項是否正確。
將文章按句號劃分成句子集D=(S1,S2,…,Sn),采用因果線索詞分別在文章句子集和選項中抽取因果句子對。本文共收集了105 個因果線索詞,根據(jù)因果線索詞的特點將抽取模式分為句內(nèi)因果模式和句間因果模式,具體的抽取模板如表1 所示,其中,Cause 和Effect 分別代表原因句和結(jié)果句。
表1 因果線索模式Table 1 Causality clue patterns
算法1抽取文章與選項中的因果句子對
例句1霧霾加重{Effect}的原因在于大氣污染物排放總量及集聚程度上升{Cause}。
例句2動物的大腦是對稱的{Cause},因而動物不能區(qū)分左右{Effect}。
從例句1 中可以提取到的句內(nèi)因果句對為(大氣污染物排放總量及集聚程度上升,霧霾加重),而從例句2 中可以提取到的句間因果句對為(動物的大腦是對稱的,動物不能區(qū)分左右)。
在分別得到文章句子集D=(S1,S2,…,Sn)與選項因果句Oc-e=(Oc,Oe)之后,為了從文章中抽取出與選項相關(guān)的句子,本文先使用BERT對文章中的每一個句子以及選項進行編碼,分別計算Oc和Oe與文章句子集D 中每一個句子的余弦相似度,計算公式如式(1)所示:
其中:xj和yj分別表示Sm和Oc中第j個詞的詞向量;n表示最大句子長度。在此基礎(chǔ)上,分別選出相似度最大的句子Si和Sj作為原因候選句與結(jié)果候選句,即選項O 的候選句SD=(Si,Sj),具體步驟如算法2 所示。
算法2抽取候選句
本文參考文獻[21]的方法構(gòu)建一個基于高考語文閱讀理解的因果關(guān)系網(wǎng)絡(luò),網(wǎng)絡(luò)中的節(jié)點均為詞,在因果句子對(Cause,Effect)中,將Cause 中的一個單詞wi作為因(記為ic),Effect 中的一個單詞wj作為果(記為je),并兩兩相連構(gòu)成因果關(guān)系對(ic,je),記其出現(xiàn)的頻率為1。統(tǒng)計同一因果關(guān)系對在不同因果模式下的頻率,便可以得到該因果詞對在語料中出現(xiàn)的總頻率。例如,從2.1 節(jié)例句1 中,可以提取出的因果關(guān)系對有:(大氣,霧霾),(污染物,霧霾),(排放,霧霾),(總量,霧霾),(集聚,霧霾),(程度,霧霾),(上升,霧霾),(大氣,加重),(污染物,加重),(排放,加重),(總量,加重),(集聚,加重),(程度,加重),(上升,加重)。在此過程中,去除停用詞,并且只保留在WordNet[22]中作為名詞、動詞和形容詞出現(xiàn)過的詞,從而在一定程度上可以減少一些無意義的因果關(guān)系對。
因果關(guān)系網(wǎng)絡(luò)的邊的權(quán)重為2 個節(jié)點之間的點互信息,計算公式如式(2)~式(5)所示:
其中:f(ic,je)是在語料中抽取到的因果關(guān)系對(ic,je)的數(shù)目;M是所有因果關(guān)系的總數(shù);W 是語料中所有單詞的集合。
算法3構(gòu)建因果關(guān)系網(wǎng)絡(luò)
2.3.1 詞語級因果關(guān)聯(lián)強度計算
在計算兩個句子中的詞對之間的因果關(guān)聯(lián)強度時,需要同時考慮使用因果關(guān)系網(wǎng)絡(luò)中的信息以及該詞對所在的上下文信息,因此,本文首先得到句子中的每個詞基于上下文的表示,并用余弦距離來計算每個詞對之間的相關(guān)度,再加上每個詞對在因果關(guān)系網(wǎng)絡(luò)中的點互信息,將結(jié)果作為每個詞對基于其所在句子的因果關(guān)聯(lián)強度,如式(6)所示:
2.3.2 句子級因果關(guān)聯(lián)強度計算
當Sc作為原因句,Se作為結(jié)果句時,它們之間的因果關(guān)聯(lián)度可根據(jù)式(7)計算得出:
其中:ic表示Sc中的第i個詞;je表示Se中的第j個詞;|Sc|和|Se|分別表示Sc和Se的句子長度。
為了使BERT 能夠更好地捕捉到選項內(nèi)部以及候選句內(nèi)部的因果關(guān)系,本文將因果關(guān)系表征融入到BERT 模型中,模型結(jié)構(gòu)如圖1 所示。
圖1 融合因果關(guān)系表征的BERT 模型Fig.1 BERT model incorporating representation of causality
本文使用BERT 對選項O 與候選句SD進行編碼,使用BERT 最后一層對應于輸入中的[CLS]的C向量作為句子對表示,如式(8)所示:
選項與候選句間的表示由3 個特征拼接而成,最后經(jīng)過softmax 層便可得到最終的分類結(jié)果,從而判斷選項是否正確,如式(11)和式(12)所示:
其中:w為權(quán)重矩陣;b為偏置值。
為了增強模型的可解釋性,本文在BERT 的預測結(jié)果上做進一步處理,來判斷每一個選項的類型,并且對于判斷為錯誤的選項,提供一個錯誤解釋。
因果關(guān)系類選項錯誤的原因主要分為因果顛倒、強加因果、偷換原因或結(jié)果和其他類型,表2 為各錯誤類型示例。4 種錯誤類型的特點如下:
表2 錯誤類型示例Table 2 Examples of error types
1)因果顛倒:選項在文章中有對應的因果句,但選項中的原因和結(jié)果與文章中正好相反。
2)強加因果:選項在文章中有對應的候選句,但候選句間無因果關(guān)系,或選項中的原因或結(jié)果在原文中并無體現(xiàn)。
3)偷換原因或結(jié)果:選項在文章中有對應的因果句,但選項中的原因或結(jié)果與文章中不符。
4)其他:如細節(jié)錯誤等。
本文工作主要針對前3 種錯誤類型。根據(jù)這3 種錯誤類型的特點,設(shè)計圖2 所示流程進行錯誤類型判斷。
圖2 選項類型判斷流程Fig.2 Procedure of option types judgement
在得到2.4 節(jié)中BERT 的預測結(jié)果之后,本文使用softmax 預測結(jié)果為1 的概率作為選項與候選句之間的支持度k,并設(shè)定閾值y1和y2來判斷選項與候選句之間的支持度;使用閾值y3作為句子之間是否存在因果關(guān)系的依據(jù),若兩個句子(S1,S2)之間的因果關(guān)聯(lián)強度CCau(S1,S2)大于y3,則表示兩個句子之間存在因果關(guān)系,否則,表示不存在因果關(guān)系。具體步驟如下:
步驟1當選項與候選句之間的支持度k小于y1時,則認為選項與文章內(nèi)容完全不匹配,即判定為強加因果;若支持度k大于y2,則認為選項與文章內(nèi)容完全相符,即判定為正確選型;若支持度k在y1與y2之間,則需要對選項與候選句之間是否匹配做進一步判斷,即轉(zhuǎn)到步驟2。
步驟2根據(jù)因果關(guān)系網(wǎng)絡(luò)分別計算Si與Sj之間的因果關(guān)聯(lián)強度CCau(Si,Sj)及Sj與Si之間的因果關(guān)聯(lián)強度CCau(Sj,Si),判斷CCau(Si,Sj)是否大于特定的閾值y3,若是,說明選項中的原因和結(jié)果在文章中都能找到相應的候選句且原因與結(jié)果之間存在因果關(guān)系,即判定為正確選項,否則,轉(zhuǎn)到步驟3。
步驟3判斷CCau(Sj,Si)是否大于特定的閾值y3,若是,說明選項中的原因和結(jié)果在文章中都能找到相應的候選句但候選句間的因果關(guān)系和選項間的因果關(guān)系正好相反,即判定為因果顛倒型,否則,轉(zhuǎn)到步驟4。
步驟4用Si作為原因分別與文章中的每一個句子計算因果關(guān)聯(lián)強度,并選出因果關(guān)聯(lián)強度最大的值CCau(Si,Sm),如式(13)所示,用Sj作為結(jié)果分別與文章中的每一個句子計算因果關(guān)系強度,并選出因果關(guān)聯(lián)強度最大的值CCau(Sn,Sj),如式(14)所示。若CCau(Si,Sm)大于特定的閾值y3或CCau(Sn,Sj)大于特定的閾值y3,則說明選項在文章中有對應的因果句,但選項中的原因或結(jié)果與文章中不符,即判定為偷換原因或結(jié)果型,否則,說明選項在文章中有對應的候選句,但候選句間并無因果關(guān)系,即判定為強加因果型錯誤。
本文實驗所用環(huán)境為CPU:Intel?Xeon?CPU E5-2620 v4@2.10 GHz,GPU:TITAN Xp(12 GB),python 版本為3.6。本文實驗所用的語料為科技類閱讀理解,包括507 道高考題與8 161 道模擬題,其中因果選項有4 071 個。實驗中使用jieba 分詞工具來進行分詞與詞性標注。本文將選項與候選句之間的支持度閾值y1的取值區(qū)間設(shè)置為[0,0.5],閾值y2的取值區(qū)間設(shè)置為[0.5,1],因果關(guān)聯(lián)強度閾值y3的取值區(qū)間設(shè)置為[0,1],步長都為0.01,逐次進行試驗,并從中選出最好的結(jié)果作為最終的實驗結(jié)果。經(jīng)過多次試驗,當y1=0.33,y2=0.89,y3=0.72 時,實驗效果最好。
為驗證本文方法的有效性,設(shè)置以下5 個基線模型進行對比實驗:
1)參考文獻[6],本文設(shè)置了一個基線方法。在得到因果關(guān)系網(wǎng)絡(luò)、選項因果句Cc‐e=(Sc,Se)以及選項候選句(Sh1,Sh2)之后,根據(jù)因果關(guān)系網(wǎng)絡(luò)計算出Sh1和Sh2之間的因果關(guān)聯(lián)度CCau(Sh1,Sh2)。因此,可將候選句之間的因果關(guān)系支持度CCausality(Sh1,Sh2)表示為式(15),最后,通過判斷CCausality(Sh1,Sh2)是否大于閾值y來判斷選項是否正確,其中,閾值y的取值區(qū)間為[0,1],步長為0.01,逐次進行試驗,并從中選出最好的結(jié)果作為最終的實驗結(jié)果。經(jīng)過多次試驗,當y=0.75 時,實驗結(jié)果最好。
2)BERT:本文使用BERT-base 作為基線方法,將選項與候選句作為輸入,預測每一個選項是否正確。
3)BERT+cause:僅在BERT 中融入因果關(guān)系表征進行實驗。
4)BERT+kjs:僅在BERT 中融入可解釋模塊進行實驗。
5)BERT+cause+kjs:將因果關(guān)系表征與可解釋模塊都融入BERT 中進行實驗。
實驗結(jié)果如表3 所示??梢钥闯觯疚牡? 種方法相比文獻[6]方法和BERT 方法的效果均有所提升。相比文獻[6]方法,準確率最多提高6.25 個百分點,F(xiàn)1值最多提高8.91 個百分點;相比BERT 方法,準確率最多提高1.32 個百分點,F(xiàn)1 值最多提高1.3 個百分點。根據(jù)BERT+cause 的實驗結(jié)果可看出,在BERT 中融入因果關(guān)系表征是有效的;根據(jù)BERT+kjs 的實驗結(jié)果可看出,按錯誤類型將選項進行分類,并根據(jù)每個錯誤類型的特點來進行解答是有效的。圖3 中展示了一個使用本文方法判斷正確的示例。
表3 不同方法的性能指標Table 3 Performance indexes of different methods
圖3 正確選項示例Fig.3 Examples of correct option
本文方法的準確率仍有進一步的提升空間,主要原因是:
1)本文在構(gòu)建因果關(guān)系網(wǎng)絡(luò)時,使用的因果文本對是利用模式匹配的方法抽取出來的,因此對于一些隱式的因果信息可能未能抽取到。
2)一部分選項中的因果關(guān)系是根據(jù)文章中的多處信息進行歸納總結(jié)或推理之后得到的,如在錯誤選項示例1 中,選項為正確選項,但選項中的結(jié)果句“西班牙早期在美洲的主要礦產(chǎn)是黃金”在文章中并沒有顯示提到,需要根據(jù)候選句進行推斷才可得到該信息,從而容易導致模型判斷錯誤。
錯誤選項示例1
侯選句:在美洲方面,當西方走向世界尋求財富時,最早尋找的是黃金,但也是從16 世紀40 年代開始,西班牙在美洲轉(zhuǎn)而開采白銀且產(chǎn)量激增。
選項:西方走向世界的重要原因是尋求黃金,因此西班牙最早在美洲的主要礦產(chǎn)是黃金。
由于本文方法涉及到的計算較多,為了準確評估性能,對每一個關(guān)鍵步驟的耗時進行統(tǒng)計,表3 中統(tǒng)計了1 個epoch 和10 個epoch 分別需要消耗的時間。其中抽取因果句子對、候選句抽取以及構(gòu)建因果關(guān)系網(wǎng)絡(luò)部分均可作為數(shù)據(jù)預處理階段,由于它們在每個epoch 中都是固定的,因此在整個訓練過程中計算一次,不需要在每個epoch 中進行計算,分別耗時126 s、672 s 和498 s。與BERT 相比,增加了因果關(guān)系表征的BERT+cause 方法在訓練1 個epoch 和10 個epoch 均多消耗186 s。增加了可解釋性的BERT+kjs 方法在訓練1 個epoch 和10 個epoch 均多消耗492 s。而同時增加了因果表征和可解釋性兩個模塊的方法BERT+cause+kjs 方法多消耗607 s,說明本文方法所消耗的時間在整個訓練過程中不會隨著epoch 的增加而變化。
對于機器閱讀理解,可解釋性始終是一個非常好的性質(zhì),有助于更充分地理解問題。本文針對錯誤的選項提供一個錯誤原因的解釋,從而使選項判斷具有可解釋性。
3.3.1 可解釋性實驗結(jié)果
為了驗證本文方法可解釋性的有效性,本文標注了一部分實驗數(shù)據(jù)來對可解釋性進行驗證,每個類型的標注數(shù)目各20 條,實驗設(shè)置的評價指標為準確率,實驗結(jié)果如表4 所示。可以看出,本文方法具有可解釋性,但是對于偷換原因或結(jié)果類型的錯誤準確率不高,這可能是因為偷換原因或結(jié)果類型的選項大多需要從文章中進行總結(jié),如“一開始,蠻子大媽很疼愛這四個敵人,主要是因為四個德國士兵會讓她想到自己的兒子,也會讓自己的憂愁和牽掛得到一些安慰?!保谖恼轮袩o法找到和選項對應的原因與結(jié)果,因此容易判別成其他類型的錯誤。
表4 可解釋性實驗結(jié)果Table 4 Explanable experiment results %
3.3.2 可解釋性實驗示例
從實驗結(jié)果可以看出本文方法對選項錯誤可解釋性的理解是有效的,每種錯誤類型的可解釋性實驗示例如下所示:
1)因果顛倒型
經(jīng)過2.5 節(jié)中的步驟1~步驟3,可判斷出選項中的原因與文章中的結(jié)果相匹配,而選項中的結(jié)果與文章中的原因相匹配,如圖4 所示,因此,可判斷出選項為錯誤選項,且錯誤原因為因果顛倒。
圖4 因果顛倒型選項示例Fig.4 Example of reverse cause and effect option
2)偷換原因或結(jié)果型
經(jīng)過2.5 節(jié)中的步驟1~步驟4,可判斷出選項中的原因與文章中的原因相匹配,而結(jié)果卻不匹配,如圖5 所示,因此,可判斷出選項為錯誤選項,且錯誤原因為偷換原因或結(jié)果。
圖5 偷換原因或結(jié)果型選項示例Fig.5 Example of swapping cause or effect option
3)強加因果型
在例2 中,經(jīng)過2.5 節(jié)中的步驟1~步驟4,可判斷出選項在文章中對應的候選句間并無因果關(guān)系,因此,可判斷出選項為錯誤選項,且錯誤原因為強加因果,錯誤選項示例如下:
錯誤選項示例2
侯選句:綿竹年畫歷史悠久,它起源于北宋,到明末清初進入繁盛時期。
選項:綿竹年畫由于起源于北宋,所以它是所有年畫品種中歷史最悠久的。
本文針對高考語文閱讀理解中的因果關(guān)系類選項,提出融合因果關(guān)系表征的因果關(guān)系類選項判斷方法。采用因果關(guān)系網(wǎng)來表征原文,并將其融入到BERT 模型中,同時結(jié)合每一種錯誤類型的特點,針對因果關(guān)系類選項的可解釋性進行研究。實驗結(jié)果表明,本文方法有效且具有可解釋性,但其在抽取因果句子對時只能識別到包含因果線索詞的顯式因果關(guān)系。因此,后續(xù)將改進方法使其可識別具有隱式因果關(guān)系的因果句子對,并進一步提高判斷方法的準確率。