日前,來(lái)自數(shù)百家公司的2000多名科學(xué)家聯(lián)名簽署宣言,宣誓絕不參與致命性自主武器系統(tǒng)的開(kāi)發(fā)、研制工作。這是學(xué)界針對(duì)“殺人機(jī)器人”最大規(guī)模的一次集體發(fā)聲。人工智能AI與人類(lèi)的命運(yùn),再一次因?yàn)樽灾魑淦鞫煌粕狭溯浾擄L(fēng)口。
“硅谷鋼鐵俠”埃隆·馬斯克(美國(guó)太空探索技術(shù)公司SpaceX創(chuàng)始人)是當(dāng)今科技界的明星,就連日前泰國(guó)洞穴救援遇到困難,網(wǎng)友們都第一時(shí)間想到向馬斯克求助。在大多數(shù)人的眼里,馬斯克始終走在行業(yè)前列,善于發(fā)明創(chuàng)造,如果說(shuō)誰(shuí)最能接受新生事物,馬斯克應(yīng)該會(huì)是很多人的答案。
然而,面對(duì)如今炙手可熱的人工智能AI,馬斯克卻幾度發(fā)聲,對(duì)AI可能帶來(lái)的惡果表示擔(dān)憂(yōu),成為AI悲觀(guān)派的代表人物。日前,在瑞典斯德哥爾摩舉辦的2018國(guó)際人工智能聯(lián)合會(huì)議上,來(lái)自數(shù)百家公司的2000多名科學(xué)家聯(lián)名簽署《致命性自主武器宣言》,宣誓絕不參與致命性自主武器系統(tǒng)的開(kāi)發(fā)、研制工作,馬斯克也名列其中。
這也是學(xué)界針對(duì)“殺人機(jī)器人”最大規(guī)模的一次集體發(fā)聲。AI與人類(lèi)的命運(yùn),再一次因?yàn)樽灾魑淦鞫煌粕狭溯浾擄L(fēng)口。
危險(xiǎn)的AI,馬斯克多次警告
來(lái)自數(shù)百家公司的2000多名科學(xué)家,其中許多是機(jī)器人和人工智能領(lǐng)域的著名的研究人員和工程師。他們承諾:在世界上的任何一個(gè)國(guó)家,自主武器都對(duì)公民構(gòu)成了“明顯而現(xiàn)實(shí)的危險(xiǎn)”。
馬斯克也多次在公開(kāi)場(chǎng)合表示,人類(lèi)發(fā)展人工智能的過(guò)程是在召喚惡魔。他警告說(shuō)人工智能可能比禽流感可怕得多。這并非他臨時(shí)起意,他已反復(fù)在多個(gè)場(chǎng)合表達(dá)對(duì)人工智能的擔(dān)憂(yōu),在社交網(wǎng)絡(luò)推特上他則表示“人工智能可能比核武器更加危險(xiǎn),未來(lái)人工智能可能會(huì)毀滅人類(lèi)”。
馬斯克認(rèn)為政府監(jiān)管可能是一個(gè)好辦法?!叭斯ぶ悄芫褪俏覀兩娴淖畲笸{。我越來(lái)越傾向于事情要有一定的監(jiān)管,在國(guó)家和國(guó)際層面確保我們不會(huì)做一些很愚蠢的事情?!?/p>
AI在軍事系統(tǒng)中扮演越來(lái)越重要的角色
一年前,馬斯克和谷歌AI專(zhuān)家蘇萊曼等116名全球人工智能和機(jī)器人領(lǐng)域的專(zhuān)家就曾聯(lián)名發(fā)表公開(kāi)信,呼吁聯(lián)合國(guó)采取行動(dòng)禁止自主殺人機(jī)器,稱(chēng)其為“恐怖武器”。專(zhuān)家們認(rèn)為,AI越發(fā)達(dá),機(jī)器越厲害,殺傷力就越強(qiáng)。就算機(jī)器程序是人類(lèi)編出來(lái)的,面對(duì)越來(lái)越強(qiáng)大的人工智能,人類(lèi)控制機(jī)器的力量越來(lái)越有限,而心懷鬼胎的人利用機(jī)器帶來(lái)的破壞力就越來(lái)越強(qiáng)大。
所以,隨著AI在軍事系統(tǒng)中扮演越來(lái)越重要的角色,區(qū)分AI可接受的用途和不可接受的用途變得更加迫在眉睫。自主殺人武器就像一個(gè)潘多拉盒子,充滿(mǎn)了誘惑,“一旦這個(gè)潘多拉的盒子被打開(kāi),就很難再次關(guān)上”,專(zhuān)家們警告說(shuō)。
美國(guó)政府在全球范圍內(nèi)使用升級(jí)的軍用無(wú)人機(jī)后,工程師和科學(xué)家們警告說(shuō),自主機(jī)器很容易受到黑客的攻擊,它們可能被劫持,進(jìn)而攻擊無(wú)辜的人群;并且,它們不可避免地很容易就會(huì)被惡意攻擊者獲得,或者惡意攻擊者能夠自己制造這類(lèi)武器。
為了演示在自主殺人武器的威脅下的生活,發(fā)起這次宣誓行動(dòng)的生命未來(lái)研究所協(xié)助制作了一個(gè)名為“Slaughterbots”(《屠殺機(jī)器人》)的影片,視頻中的一個(gè)片段描繪了數(shù)千名大學(xué)生被殺人機(jī)器人屠殺的景象。這些學(xué)生在社交媒體上分享了一段揭露腐敗的視頻后,被不知名的“黑影人”盯上,機(jī)器通過(guò)面部識(shí)別系統(tǒng)識(shí)別學(xué)生的身份,進(jìn)而實(shí)施屠殺。
《致命性自主武器宣言》簽署后,簽署者將進(jìn)一步敦促8月聯(lián)合國(guó)會(huì)議針對(duì)自主武器問(wèn)題在各國(guó)之間達(dá)成一致承諾,促使各國(guó)禁止自主武器研發(fā)。
對(duì)“殺人機(jī)器人”的擔(dān)憂(yōu)是多余的嗎
馬斯克對(duì)于“殺人機(jī)器人”的擔(dān)憂(yōu)不外乎三種情況:一是機(jī)器成為一個(gè)新物種,具有進(jìn)化能力,具有自我意識(shí)之后與人類(lèi)成為敵人或者對(duì)手;二是人工智能在一個(gè)引爆點(diǎn)到來(lái)時(shí)失控;三是人工智能被“壞人”利用來(lái)對(duì)付人類(lèi)自己。
馬斯克的擔(dān)憂(yōu)不是多余的,然而,縱觀(guān)人類(lèi)歷史,每一項(xiàng)革命性技術(shù)出現(xiàn)總會(huì)受到抵制,或者說(shuō)恐懼。
1814年,美國(guó)工人斯蒂芬發(fā)明了蒸汽機(jī)車(chē),便遭到傳統(tǒng)勢(shì)力的反對(duì),有人譏笑它不如馬車(chē)好,說(shuō)它聲音讓牛吃不了草、產(chǎn)不了奶,雞鴨也因?yàn)槭荏@下不了蛋,煙氣有毒能殺絕飛鳥(niǎo),火星四濺能引起火災(zāi),要是萬(wàn)一氣鍋爆炸,乘客小命不保。同樣核能出現(xiàn)之時(shí)更是有人驚呼,世界末日就要來(lái)臨。
新技術(shù)在讓世界更美好的同時(shí),確實(shí)蘊(yùn)藏著一定的風(fēng)險(xiǎn),或者會(huì)帶來(lái)負(fù)面作用,甚至一些新技術(shù)本來(lái)就是懷揣著“惡意”的目的去研發(fā)。而此時(shí)此刻每個(gè)人都在使用的互聯(lián)網(wǎng)還存在著信息失控、信息泛濫、隱私泄露這些消極影響。
人工智能跟上述技術(shù)并沒(méi)有什么兩樣。人類(lèi)既然有智慧去創(chuàng)造新技術(shù),便應(yīng)該有信心去駕馭它。
世界上有樂(lè)觀(guān)主義者,也有悲觀(guān)主義者,關(guān)于機(jī)器人或者人工智能是否會(huì)消滅人類(lèi)的爭(zhēng)論一直無(wú)休無(wú)止。人們對(duì)新技術(shù)的恐懼不一定是無(wú)知。對(duì)未知的恐懼和對(duì)潛在危險(xiǎn)的憂(yōu)慮,是人類(lèi)本能。當(dāng)然,有時(shí)候新技術(shù)遭致抵觸是因?yàn)橛|犯了一些人的既得利益。無(wú)論如何,抵觸本身是有價(jià)值的,它讓整個(gè)事情發(fā)展更加平和有序,而不是激進(jìn)甚至瘋狂。但任何新技術(shù)從來(lái)都不會(huì)被恐懼所遏制,人類(lèi)為了更美好的明天,一直在上下求索。
(《環(huán)球科學(xué)》2018年第7期等)