聶龍
AI檢測一定公平嗎?絕大多數(shù)人對這個問題的答案很可能是肯定。在2018年,美國社交媒體Facebook開發(fā)了新的代號為Rosetta的AI系統(tǒng),用以檢測自己社交平臺上的仇恨性言論。然而,兩年之后,美國南加州大學(xué)的研究人員發(fā)現(xiàn),包括Facebook在內(nèi)的所有AI語言檢測系統(tǒng)實(shí)際上也帶有偏見,黑人、同性戀和變性人所發(fā)的信息更容易被這些AI標(biāo)記為“具有仇恨的”。例如,黑人的推特(美國另一個社交媒體,類似中國的微博)被AI標(biāo)記為“帶有種族歧視”的可能性是其他族裔的1.5倍,這個數(shù)值在其他研究當(dāng)中甚至高達(dá)2.2倍。
AI并沒有我們想象中那樣的公平,這是怎么一回事?
為什么AI也帶有偏見?這是因?yàn)锳I“學(xué)壞”了。AI是在某一種機(jī)器學(xué)習(xí)模型的基礎(chǔ)上發(fā)展起來的,而所有的機(jī)器學(xué)習(xí)模型都需要大量的數(shù)據(jù)來進(jìn)行訓(xùn)練和充實(shí)自己的數(shù)據(jù)庫。如果把AI比作高樓,那么機(jī)器學(xué)習(xí)模型就是這座AI高樓的設(shè)計圖紙,而那些數(shù)據(jù)就是建造這座AI高樓的磚瓦。
然而,機(jī)器學(xué)習(xí)模型所使用的數(shù)據(jù)來自于現(xiàn)實(shí)生活中的各大社交平臺,這些社交平臺當(dāng)中的信息又都充滿了偏見,有的社交平臺甚至專為種族歧視者服務(wù)。因此,基于“偏見”磚瓦所壘砌的AI高樓,帶有偏見也就不足為奇了。
另外,這些AI采用的還是“關(guān)鍵字”的檢測方式,完全忽略了上下文和語境。就拿“nigger”這個英文單詞來說,它的中文意思是“黑鬼”,是一個極具種族歧視色彩的單詞,也是AI所檢測的重點(diǎn)單詞之一。但是,如果情況是黑人自己說了nigger這個詞(無論對象是誰),那么這個詞的意思卻是“好兄弟”、“好朋友”或“死鬼”(死鬼:在黑人婦女稱呼自己黑人丈夫的語境下),等等。在日??谡Z中,黑人也多以nigger來稱呼自己親密的朋友和兄弟。
但AI可管不了這么多。只要信息中出現(xiàn)ni gger,或其他類似的詞或語句,這信息就會被AI標(biāo)記,然后被關(guān)“小黑屋”,同時,AI還會記錄發(fā)送該信息的用戶的“罪行”。于是乎,在文章的開頭提到的,黑人的推特更容易被標(biāo)記為“具有種族歧視”的現(xiàn)象就產(chǎn)生了。
那么,科學(xué)家該如何改進(jìn)AI,使它對仇恨性言論的檢測更加公平?首先在我們腦海顯現(xiàn)的方法很可能是解決“磚瓦”上的問題。既然AI帶有偏見的原因之一,是由于其訓(xùn)練和使用的數(shù)據(jù)帶有偏見,那么給AI提供客觀公平的數(shù)據(jù)不就好了?但是,取自現(xiàn)實(shí)生活的數(shù)據(jù)或多或少都帶有偏見,如果人工制造絕對客觀公平的數(shù)據(jù),那么這個工作量可是非常巨大的,甚至大到無法實(shí)現(xiàn)。
南加州大學(xué)的研究人員對原來的AI算法進(jìn)行了編程,使它識別關(guān)鍵字或關(guān)鍵詞的同時,能夠聯(lián)系上下文,并判斷上下文有沒有侮辱性的語言,也就是說,跟原來的AI相比,經(jīng)過編程后的AI只多考慮了兩個“情況”。
改進(jìn)后的AI效果如何?跟其它最新開發(fā)的AI相比,即使南加州大學(xué)的研究人員改進(jìn)后的AI練習(xí)所使用的數(shù)據(jù)全都來自臭名昭著的仇恨網(wǎng)站,但它檢測仇恨性言論的準(zhǔn)確率依然更高,高達(dá)90%,而其它最新AI只有77%。只是多考慮兩個附加因素的南加州大學(xué)AI為什么會有如此大的提升?
其背后的道理不難理解。同樣且簡單的一句話“Thank you, myni gger. ”(中文意思:“多謝了,我的好兄弟?!保绻霞又荽髮W(xué)AI那樣考慮上下文的話,那么我們很容易就能理解這句話的意思是感謝。但是,如果我們跟傳統(tǒng)的AI那樣,忽略了上下文,只看關(guān)鍵詞“nigger”的話,那么我們就會認(rèn)為說者在發(fā)表種族歧視的言論。