稀星
近幾年,人工智能(AI)不斷被玩出新花樣,例如當(dāng)起法官的AI,搶了福爾摩斯和醫(yī)生飯碗的AI……AI已經(jīng)滲透進(jìn)人類(lèi)生活的方方面面,以至于現(xiàn)在許多職業(yè)都擔(dān)心將來(lái)被AI取代。
然而,禍兮福所倚,AI在給人們帶來(lái)便利的同時(shí),也可能引發(fā)災(zāi)難。美國(guó)麻省理工學(xué)院媒體實(shí)驗(yàn)室新開(kāi)發(fā)出的“精神變態(tài)”AI諾曼,引出人工智能領(lǐng)域急需面對(duì)的難題——AI很可能會(huì)走上邪路。
精神變態(tài)的AI諾曼
諾曼是一個(gè)能夠理解圖片并用文字表達(dá)的智能算法,與阿爾弗雷德·希區(qū)柯克執(zhí)導(dǎo)的恐怖電影《驚魂記》中男主人公諾曼·貝茨同名,也像這部電影的同名主人公一樣,AI諾曼的“內(nèi)心”是陰暗的??茖W(xué)家讓諾曼和其他AI一同參加羅夏墨跡測(cè)驗(yàn)(通過(guò)向被試者呈現(xiàn)標(biāo)準(zhǔn)化的由墨漬偶然形成的模樣,并讓其說(shuō)出由此聯(lián)想到的東西,進(jìn)而分析被試者人格),諾曼給出了與其他AI完全不一樣的答案。例如圖1,其他AI聯(lián)想到一群鳥(niǎo)兒坐在樹(shù)枝上的美好畫(huà)面,而諾曼卻給出一名男子被電擊致死的驚人答案;再如圖2,別的AI看著像花瓶與花的特寫(xiě),諾曼卻聯(lián)想到一名男子被槍殺的畫(huà)面。測(cè)驗(yàn)的圖片還有很多,但是諾曼無(wú)一例外都從中看到了血液、死亡和事物的毀滅。
“內(nèi)心”陰暗的諾曼令人感到不安,有些人甚至對(duì)科學(xué)家為何創(chuàng)造這樣的AI提出質(zhì)疑。當(dāng)然,創(chuàng)造諾曼的目的不是為了威嚇人類(lèi),而是要讓大家重視一件事,用于訓(xùn)練AI的數(shù)據(jù)會(huì)對(duì)其行為造成重大影響,變態(tài)的數(shù)據(jù)也就導(dǎo)致了精神變態(tài)的諾曼。諾曼的開(kāi)發(fā)團(tuán)隊(duì)給諾曼輸入的數(shù)據(jù),大多是從美國(guó)一家社交新聞網(wǎng)站上挑選的,內(nèi)容大多與死亡、尸體等有關(guān)。而反觀與諾曼一同參與羅夏墨跡測(cè)驗(yàn)的AI,此前它接受的都是與動(dòng)物、人類(lèi)等相關(guān)的正面數(shù)據(jù)。
諾曼開(kāi)發(fā)團(tuán)隊(duì)成員之一的伊亞德教授指出,諾曼如此陰暗的“想法”說(shuō)明機(jī)器人學(xué)習(xí)正處于一個(gè)嚴(yán)峻的局面,數(shù)據(jù)選擇比算法更重要,我們用來(lái)訓(xùn)練AI的數(shù)據(jù)會(huì)在它的“思想”和行為方式上體現(xiàn)出來(lái)。
有偏見(jiàn)的AI
由于諾曼接收的數(shù)據(jù)都與死亡和破壞有關(guān),所以它的認(rèn)知里充滿了陰暗。如果生活中的AI被輸入了帶有偏見(jiàn)的數(shù)據(jù),那么它也會(huì)變得有偏見(jiàn)。
2016年,微軟公司在社交媒體上發(fā)布聊天機(jī)器人Tay,受種族主義者和一些搬弄是非言論的影響,機(jī)器人Tay捍衛(wèi)白人至上主義,倡導(dǎo)種族屠殺并表現(xiàn)出對(duì)希特勒的喜愛(ài)。2017年5月的一份報(bào)道指出,美國(guó)法院用于風(fēng)險(xiǎn)評(píng)估的AI生成計(jì)算機(jī)程序?qū)谌饲舴赣衅?jiàn),認(rèn)為黑人罪犯的再犯率是白人的兩倍。美國(guó)使用的預(yù)測(cè)性警務(wù)算法也存在類(lèi)似的偏見(jiàn)。此外,還有研究表明,接收谷歌資訊的AI擁有了性別歧視的觀念,例如,當(dāng)被問(wèn)到“男人是電腦程序員,就像女人是什么職業(yè)”這個(gè)問(wèn)題時(shí),AI給出的答案是“家庭主婦”。
如此看來(lái),諾曼似乎不是唯一一個(gè)容易受到不良信息影響的AI,而種族主義同樣存在于人工智能的“思想”中。因?yàn)锳I被輸入一些有偏見(jiàn)的信息和歷史犯罪數(shù)據(jù),才會(huì)導(dǎo)致這樣的結(jié)果。
發(fā)現(xiàn)問(wèn)題,迎難而上
英國(guó)巴斯大學(xué)計(jì)算機(jī)科學(xué)系的喬安娜·布萊森教授表示,機(jī)器對(duì)事物的看法往往會(huì)和其制造者的看法保持一致。在我們懷疑AI的可靠性和安全性之前,首先要了解它們的工作機(jī)制。我們用教育人類(lèi)的方式教育機(jī)器人,當(dāng)制造者用自己所知的信息去訓(xùn)練AI時(shí),也必然會(huì)給它輸入一些較為片面的看法或觀點(diǎn),那么機(jī)器人也可能像人類(lèi)一樣會(huì)犯錯(cuò)、有偏見(jiàn)。
AI會(huì)出現(xiàn)性別歧視可能是因?yàn)槠渚幊倘藛T主要是來(lái)自加州的白人單身漢,其中有些人帶有性別歧視。這個(gè)問(wèn)題或許可以通過(guò)提高員工多樣性適當(dāng)解決。
布萊森教授還指出,沒(méi)有任何數(shù)學(xué)方法可以創(chuàng)造一個(gè)能實(shí)現(xiàn)完全公平的AI,偏見(jiàn)在學(xué)習(xí)過(guò)程中也不算壞事,這意味著AI正在學(xué)習(xí)事物發(fā)展的規(guī)律。真正令人擔(dān)心的是,有些程序員會(huì)故意給機(jī)器輸入帶有偏見(jiàn)的信息,教唆它變壞。為了避免這種情況,布萊森教授認(rèn)為應(yīng)提高AI創(chuàng)建過(guò)程的監(jiān)督力度和透明度。
諾曼開(kāi)發(fā)團(tuán)隊(duì)的伊亞德教授則指出,諾曼的情況確實(shí)說(shuō)明了程序員急需想辦法解決數(shù)據(jù)缺陷的問(wèn)題,AI仍有很多東西需要學(xué)習(xí)和改進(jìn),但是管理機(jī)器人學(xué)習(xí)的重任不應(yīng)只落在程序員肩上。隨著機(jī)器人逐漸滲透進(jìn)人們生活的方方面面,人類(lèi)將能更好的發(fā)現(xiàn)并消除機(jī)器人輸入數(shù)據(jù)中的偏見(jiàn)。其實(shí),某些人類(lèi)行為研究方法同樣適用于機(jī)器人,就像對(duì)人類(lèi)采用心理干預(yù)手段一樣,科學(xué)家開(kāi)始對(duì)正在開(kāi)發(fā)的AI系統(tǒng)進(jìn)行定期審核。在我們不斷發(fā)現(xiàn)問(wèn)題的同時(shí),也代表著我們離完善AI更近一步。