呂之品
太拘泥于細(xì)節(jié)的AI
最近一段時間,AI(人工智能)被炒得神乎其神,似乎它無所不能。但事實上,據(jù)社交網(wǎng)站“臉譜”披露,要想欺騙AI把某個不存在的東西當(dāng)作真實存在,比你想象的要容易得多。
譬如,在一張高清晰度的圖片中,隨機(jī)地降低某些地方的像素。這么一點微不足道的變化,人眼根本難以覺察,也不會影響我們的判斷;但AI卻能覺察出來其中的差異,并因此嚴(yán)重干擾了判斷,比如說把圖中的貓誤認(rèn)作了狗。
再比如,據(jù)說現(xiàn)在谷歌的語音識別AI功能已經(jīng)非常強(qiáng)大,能一邊聽語音,一邊筆錄成文字。但一位AI工程師略施小計,就把它給耍弄了:他在語音文件中摻入少量數(shù)碼噪聲,這點噪聲對于我們是不會有什么影響的,但讓谷歌的AI去識別,結(jié)果卻是筆錄下來的文字已跟原意大不一樣。
這些低級錯誤揭示出當(dāng)前AI的一個重大缺陷:太拘泥于細(xì)節(jié),“只見樹木,不見森林”,讓無謂的細(xì)節(jié)影響了對整體的判斷。如果這個弱點被黑客利用,后果將不堪設(shè)想。他們將能夠操縱無人駕駛汽車狂奔,無視紅綠燈;或者讓犯罪嫌疑人輕易躲過AI控制的監(jiān)控攝像頭。
AI的決策規(guī)則不易被人知
為了解決這個問題,這就需要我們先去了解AI是如何自我學(xué)習(xí),如何做決策的,但這一直是個難題。因為AI在自我學(xué)習(xí)過程中,經(jīng)過海量的數(shù)據(jù)訓(xùn)練之后,會自創(chuàng)一套決策規(guī)則,但它最后創(chuàng)立的規(guī)則到底是什么,這對于AI的設(shè)計者有時候都是一個謎。這一點其實跟人也是相似的。譬如,老師在課堂上向你傳授知識,但你是如何把這些知識點組織起來的,他也不見得清楚。
最近,美國布朗大學(xué)的克里斯·格林和他的同事開發(fā)了一個系統(tǒng),有望突破這個困難。
這個系統(tǒng)能夠分析,當(dāng)AI對一個圖像做判斷時,它是根據(jù)圖像的哪一部分做出判斷的;與此類似的,對于給文件自動歸檔的AI,這個系統(tǒng)也能夠分析,AI是根據(jù)文檔里的哪個詞對文檔進(jìn)行歸類的。
為開發(fā)這個工具,研究小組用數(shù)碼噪聲依次替換圖片的一部分(相當(dāng)于給這部分圖片打馬賽克),以便看看這樣替換之后,是否會對AI的判斷產(chǎn)生影響。如果更換部分的圖片改變了AI最終的判斷,那說明圖片的這塊區(qū)域可能正是影響AI判斷的關(guān)鍵所在。
一窺AI的決策過程
格林在給圖片分類的一個AI上測試了他的系統(tǒng)。這個AI被訓(xùn)練把圖片分成10個類,包括飛機(jī)、鳥、鹿和馬等。格林的系統(tǒng)能夠暗中查看,當(dāng)AI對圖片進(jìn)行分類時,什么是它所倚重的,什么是被它忽略不計的。
結(jié)果表明,AI先是將圖片上的物體分解成不同的元素,然后搜索圖片中的每一個元素以確定把圖片歸到哪一類。
舉個例子。當(dāng)AI觀察馬的圖片時,它首先關(guān)注的是其腿部,然后,尋找它的頭部。在觀察鹿的圖片時,它也采用類似的辦法,不過在關(guān)注了鹿的腿部之后,它接下去搜尋的不是頭,而是鹿角,因為鹿角是最能把鹿跟其他動物區(qū)別開來的,所以鹿角被置于優(yōu)先的地位。至于圖片的其他地方,則被AI完全忽略了。
從這里我們看出,AI做決策的過程迥異于我們?nèi)祟?。我們是不會如此拘泥于局部的。面對一張鹿的圖,即使把它的角打上馬賽克,我們也還是可以根據(jù)分叉的蹄子認(rèn)出鹿來的,但對于“死板”的AI,它很可能就把它認(rèn)作驢了。
格林的軟件可以幫助我們測試現(xiàn)有的AI,以便確保它們下判斷時,關(guān)注的是我們認(rèn)為重要的東西,這對于改進(jìn)AI有重要的價值。