蔡書騰
《生命3.0》一書的深度遠遠超過市面上大多數(shù)關于AI的普及類書籍,其廣度也讓人吃驚,從AI的起源與背后的技術出發(fā),一路上探討了諸多將被其深度影響的領域,比如:工作、社會、戰(zhàn)爭、犯罪等等。
今年8月29日,一本名為《Life 3.0》、直譯過來是《生命3.0》,副標題是《人工智能時代的人類》的書,上線僅一天就登上美國亞馬遜“人工智能和機器學習類”書籍排行版首位。此書的作者叫麥克斯·泰格馬克,是麻省理工學院物理學家,也是真正站在AI領域最前沿的研究者之一。太空探索技術公司(SpaceX)CEO埃隆·馬斯克在其推特上發(fā)文稱:此書值得一讀,人工智能將是人類遇到的最棒或者最糟糕的東西,所以讓我們正確面對吧!
能夠真正以冷靜客觀、并且站在相當?shù)母叨扰c深度來看待人工智能的人很少,本書作者泰格馬克正是其中一個?!渡?.0》一書的深度遠遠超過市面上大多數(shù)關于AI的普及類書籍,其廣度也讓人吃驚,從AI的起源與背后的技術出發(fā),一路上探討了諸多將被其深度影響的領域,比如:工作、社會、戰(zhàn)爭、犯罪等等。
隨便舉舉書里談及的問題:在不可避免的自動化浪潮中,我們要如何確保人們的工作與收入不會減少?如何避免智能化軍備競賽所帶來的全球性危機?我們給下一代的職業(yè)建議應該是什么樣的,什么樣的職業(yè)將會成為下一個時代的寵兒?如何保障人工智能的安全性?如何保證AI始終在我們的控制之中,而不是如科幻電影中那樣開始與人類對抗?
在這本書中,泰格馬克從自己的專業(yè)視角,逐個解答了這些問題。這些解答全部都基于他多年的研究心血,并且通過通俗易懂的語言呈現(xiàn)給了讀者們。該書可能是2017年關于人工智能話題最為深刻的一本書籍。
首先解釋一下書名《生命3.0》。泰格馬克認為,生命可以分為三個階段,第一階段稱之為生物演變,以細菌為代表,在其生命周期內(nèi)無法重新設計它的軟硬件,完全由它的DNA所決定,只有通過許多代才可能發(fā)生改變;第二階段稱之為文化演變,以人類為代表,能夠在其生命周期內(nèi)重新設計它大部分的軟件,比如學習語言、運動、職業(yè)等新的技能,更新世界觀和目標,但是基本無法重新設計自己的硬件,只能通過代際發(fā)生緩慢改變;第三階段稱之為技術演變,以未來可能出現(xiàn)的超人工智能為代表,能夠重新設計自己的軟件和硬件,完全掌控自己的命運。
生命1.0的細菌能夠通過傳感器收集周圍環(huán)境的信息,對信息進行處理并決定如何采取相應的行動。例如,許多細菌具有測量周圍液體中糖的濃度的傳感器,并且可以使用螺旋槳結構的鞭毛進行游弋。這里頭的算法是:如果我的傳感器報告說,現(xiàn)在的糖濃度比幾秒鐘前的數(shù)值低一些,那么我就反方向轉動我的螺旋槳游回去。
不過細菌并不是一個好的學習者,它不是在誕生之后慢慢學會朝著糖分高的水域游過去,而是從一開始就在DNA里編碼了這套算法,而這則是它的老祖宗通過殘酷的自然選擇遺傳下來的,那些不這么游的細菌都滅絕了。再比如說,經(jīng)常遇到抗生素的細菌可能會在幾代之后發(fā)展出耐藥性,但單個細菌在其生命周期內(nèi)根本不會改變自己的行為;相比之下,一個女孩知道她有花生過敏就會立即改變她的行為,主動不吃花生。
生命2.0的人類可能掌握琴棋書畫吹拉彈唱等十八般武藝,但在你剛出生時,你無法執(zhí)行任何一項任務,所有這些軟件都是后來通過我們稱之為學習的過程被編入大腦的,也就是說,我們擁有重新設計自己軟件的能力,這使得我們比生命1.0更聰明、更靈活,適應環(huán)境的能力更強。
然而,我們所知道的所有生命形式仍然受到生物硬件的限制,沒有人能活一百萬年,記住所有的維基百科,了解所有已知的科學或享受沒有航天器的太空飛行。所有這一切都需要生命進行最后的升級,也就是生命的3.0版本,它不僅可以設計其軟件,還可以設計其硬件,完全擺脫進化的束縛。
生命三個階段之間的界限有點模糊,比如老鼠可以算作生命1.1,今天的人類應該算作生命2.1,因為我們可以執(zhí)行較小的硬件升級,例如植入人造牙齒、膝蓋和起搏器等。
許多人工智能的研究人員認為,生命 3.0可能在本世紀到來,這對我們意味著什么呢?
首先說說武器。
到目前為止,除了地雷這樣的低技術陷阱,世界各地的國防部門部署的武器系統(tǒng)都有一個人處在決策環(huán)節(jié)中。但是,目前人類正在開發(fā)真正的智能自主武器,能夠完全自主地選擇和攻擊目標。從軍事上來說,把人從決策環(huán)節(jié)中拿掉以獲得速度優(yōu)勢是十分誘人的,比如一架完全自主的無人飛機可以立即做出反應,而一架由身處地球另一端的人所操控的無人飛機則反應相對遲鈍,那么打起來誰會贏?
但是,我們應該慶幸的是,至今為止我們武器系統(tǒng)的決策環(huán)節(jié)都有人的參與。1962年10月27日,在古巴導彈危機期間,美國11艘海軍驅逐艦和航空母艦在古巴附近的海域將蘇聯(lián)潛艇B-59逼入困境,他們不知道的是,蘇聯(lián)潛艇內(nèi)的溫度升高到了45℃,因為潛艇的電池快用光了,所以空調(diào)停止了運轉。許多船員由于輕度的二氧化碳中毒而暈倒了。船員也已經(jīng)有好幾天失去和莫斯科的聯(lián)系,不知道第三次世界大戰(zhàn)是否已經(jīng)開打。隨后,美國開始投放小型的深水炸彈,他們已經(jīng)告知莫斯科這么做只是為了逼迫核潛艇浮出水面并離開,但是潛艇上的人可不知道美國的意圖。一名船員回憶說:我感覺我們就像坐在一個金屬桶里,而外頭有人拿著一把大錘不停地砸著桶。當時潛艇上有一枚核魚雷,他們有權在沒有上報莫斯科的情況下發(fā)射這枚魚雷。事實上,船長已經(jīng)決定發(fā)射。魚雷官也支持這一決定,打算與美軍同歸于盡。幸運的是,這個決定要由潛艇上三名軍官同時授權,而正是這第三位軍官——瓦西里·阿爾希波夫(Vasili Arkhipov)說了一聲:不。我們得衷心感謝瓦西里,沒有他的這個冷靜的決定,也許當時第三次世界大戰(zhàn)就打了起來,不知又有多少生靈涂炭。假如蘇聯(lián)的B-59是一艘AI控制的自動潛艇,沒有人參與決策環(huán)節(jié),處在類似的情況里,結果會發(fā)生什么呢?endprint
泰格馬克對自主武器系統(tǒng)有著嚴重的關切,尤其擔心AI武器的軍備競賽。2015年7月,他和斯圖爾特一起發(fā)表了一封公開信,大體內(nèi)容如下:
自主武器在無需人為干預的情況下選擇和完成目標,這種武器風險很高,被視為火藥和核武器之后的第三次戰(zhàn)爭革命。對于自主武器,支持者和反對者各有理由。比如說,用機器取代士兵,能夠減少己方的傷亡,這是好事;但是這同樣也會降低戰(zhàn)斗的門檻,這則是壞事。
今天的關鍵問題是要不要防止全球性的AI軍備競賽的啟動。
與核武器不同,AI武器不需要昂貴或者難以獲得的原材料,所以它們會很便宜而且無處不在。這些武器最終落到恐怖分子、獨裁者以及計劃實行種族清洗的軍閥手里只是一個時間問題。自主武器是執(zhí)行暗殺、破壞國家穩(wěn)定、鎮(zhèn)壓老百姓以及選擇性地屠殺某個特定族群的理想工具。我們認為,AI軍備競賽對于人類是有害的。
正如大多數(shù)化學家和生物學家對制造化學或生物武器毫無興趣一樣,大多數(shù)AI研究人員對制造AI武器也毫無興趣,不希望其他人這樣做而玷污了這一領域,尤其是這可能會造成公眾對于人工智能的反感。事實上,化學家和生物學家廣泛支持相關國際協(xié)定,并由此成功地禁止了生化武器的開發(fā)。
泰格馬克起草的這封公開信不久就獲得了超過3000名AI研究人員的簽名,包括來自谷歌、臉書、微軟以及特斯拉的多位高管。另外17000位非專業(yè)人士也簽了名,包括史蒂芬·霍金。
事實上,AI軍備競賽蓄勢待發(fā)。2016年,美國投資到民用AI項目的經(jīng)費約為10億美元,而2017年美國五角大樓計劃投資于AI有關的軍事項目的資金就高達120億-150億美元。其他國家也摩拳擦掌。是否應該有相應的禁止性的國際條約?這個可能說起來容易做起來難,比如說,條約只是禁止致命性的AI武器,還是將傷害但非致命的武器一并禁止?條約是否適用于所有自主武器系統(tǒng),還是對防御性的系統(tǒng)網(wǎng)開一面?再者,自主武器的大多數(shù)組成部分都具有民事用途,例如送郵件的無人機和運炸彈的無人機沒有太大區(qū)別,我們要如何執(zhí)行條約?
一些人認為,設計一個有效的AI武器的禁止性條約是幾乎不可能的,所以干脆不搞了。但是泰格馬克引用了肯尼迪在宣布登月任務時講的話:艱難的事情也值得一試,因為一旦成功將對人類的未來十分有利。
在泰格馬克與基辛格的一次交談中,雙方都認為從AI軍備競賽中獲益最多的不是超級大國,而是那些小型的流氓國家和恐怖分子,他們能夠通過黑市獲得武器。一旦開始大規(guī)模生產(chǎn)AI驅動的小型殺手無人機,它的成本可能比智能手機低得多。無論是恐怖分子想暗殺一位政治家,或者是一個瘋子想報復他的前女友,他們需要做的就是把目標的照片和地址上傳到無人機,然后這架無人機就會飛到目的地,識別并殺害目標,然后自我銷毀,使得我們無從追查操控者。對于那些計劃實行種族清洗的人來說,他們很容易通過編程使得無人機專門殺死具有某種膚色或種族的人。也許未來一輛卡車就能放出上百萬架小如昆蟲的殺手無人機??催^《黑鏡》這部電視劇的朋友應該還記得,其中有一集就為我們展示了這一可怕的場景。
接下來是法律。人類通過合作的能力成為萬物之靈,征服了所有其他物種。我們創(chuàng)造的法律體系也是為了激勵和促進合作。所以如果人工智能能夠改善我們的法律體系,那么我們能比以往任何時候都更加成功地合作,從中取得更好的成果。
以美國的法律體系為例,它的缺點是審判時間漫長、費用高昂以及偶爾出現(xiàn)不公正。一些學者夢想通過機器法官來實現(xiàn)審判的自動化,因為一套法律程序可以被抽象地視為一種算法:輸入有關證據(jù)和法律的信息,輸出一個判決。而且人工智能沒有人類法官的常見缺點,比如偏見、疲勞或者缺乏最新的知識,只會不知疲倦地地將相同的法律標準應用在每一個判決上,所以,從理論上來說,AI能夠讓審判變得更加高效和公平。
使用機器法官能夠加快法律程序,增加那些精明的律師歪曲結果的難度,人們通過法庭獲得正義的成本將會急劇降低。因此,窮人或初創(chuàng)公司在和那些擁有豪華律師團隊的富人或跨國公司展開訴訟時,獲勝的概率會大大提高。
但是,機器法官的采用也會面臨以下幾個問題:第一,如果機器法官有bug或者遭到黑客攻擊呢?第二,即使AI足夠強大,能夠抵御住各種網(wǎng)絡攻擊,但是每個人都能理解它的邏輯推理、對它的判決感到服氣嗎?神經(jīng)網(wǎng)絡的大行其道使得這一挑戰(zhàn)更加嚴重,因為基于神經(jīng)網(wǎng)絡的算法不像傳統(tǒng)AI算法那么易于理解。如果被告人想知道他為什么被定罪,也許機器法官的設計者只能給對方如下理由:我們使用大量數(shù)據(jù)對系統(tǒng)進行訓練,而這就是它所給出的答案。這肯定不能讓人滿意。第三,最近的研究表明,如果你用大量的囚犯數(shù)據(jù)去訓練一個人工智能系統(tǒng),那么它可以比人類法官更準確地預測誰的再犯率更高,所以不得假釋。但是,如果這個系統(tǒng)發(fā)現(xiàn)再犯率與囚犯的性別或種族有統(tǒng)計學上的關系,那么它會不會被視為一個抱有性別歧視或種族歧視的機器法官?
這些都是我們需要思考和討論的重要問題,這事關我們將以何種程度和效率在我們的法律體系里部署人工智能。
談完了人工智能在法律體系里的應用問題,再來看看法律的內(nèi)容問題。
由于技術進步的步伐似乎在加快,法律已經(jīng)有落后的傾向。對于一個社會來說,讓更多技術精湛的人才進入法學院和政府可能是一個明智的舉動。
如何調(diào)整我們的法律以適應人工智能的進步是一個引人入勝的爭議性話題,其中第一個重要爭議在于隱私與信息自由之間的矛盾。
支持信息自由的人認為,我們擁有的隱私越少,法庭所擁有的證據(jù)就越多,判斷就越公平。例如,假如政府能夠查看每個人的電子設備和記錄,許多罪行將水落石出,還可以防止即將發(fā)生的犯罪行徑。支持隱私權的人則反駁說,他們不想要出現(xiàn)奧威爾小說里那種一直有雙老大哥的眼睛盯著你的監(jiān)視狀態(tài),如果真的這么做,很有可能出現(xiàn)登峰造極的極權專制體制。endprint
此外,機器學習技術已經(jīng)十分擅長分析來自功能磁共振成像掃描儀的大腦數(shù)據(jù),能夠識別一個人正在想什么,特別是判斷他說的是實話還是謊言。如果AI腦掃描技術在法庭上變得司空見慣,那么目前確定案件事實的冗長的過程可能會大大簡化和加速,從而加快審判,作出更公正的判決。
隱私權的捍衛(wèi)者則擔心這樣的系統(tǒng)是否偶爾會犯錯,更重要的是,是否應該限制政府對我們頭腦的窺探。極權政府可以利用這種技術將某些信仰和意見定為犯罪。你會如何在公正和隱私之間劃出一條分界線?你覺得應該如何平衡保護社會和保護個人自由之間的關系?
第二個引人注目的爭議是,人工智能研究是否應該受到監(jiān)管。一些人工智能的研究人員反對對AI研發(fā)的所有形式的監(jiān)管。而在波多黎各會議上,埃隆馬斯克認為,我們現(xiàn)在從政府那里所要得到的不是監(jiān)督,而是洞察力:具體來說,技術上具備能力的政府人員可以監(jiān)督人工智能的發(fā)展,并且在必要的時候進行引導。他還認為,政府監(jiān)督有時也可以是一種培育而不是扼殺進步:比如說,如果政府出臺的自動駕駛汽車的安全標準能夠減少事故數(shù)量,那么公眾對于自動駕駛汽車的排斥程度就會降低,新技術的采用也可以加快。
第三個有趣的法律爭議涉及授予機器的權利。如果自動駕駛汽車的普及使得美國交通事故死亡人數(shù)從32000名減少到16000名,那么汽車制造商不可能收到16000份感謝信,而是會收到16000份起訴書。那么,如果一輛自動駕駛汽車造成事故,誰應該承擔責任呢?法律學者大衛(wèi)·弗拉德克給出的答案是:汽車本身!具體來說,他建議允許并要求每一臺自動駕駛汽車持有汽車保險。這樣,具有完整的安全記錄的車型只需繳納非常低的保費,而來自馬虎的制造商的車型將繳納高昂的保險費。那么如果允許汽車等機器持有保險,它們還應該擁有自己的財產(chǎn)嗎?它可以在股市上賺錢、雇人幫它干活嗎?民主國家是否要授予這些機器投票權?這些都是有趣且值得探討的問題。
最后是我們的收入和工作。我們都知道,古代的雅典公民生活很悠閑,他們把大把時間花在辯論、民主投票、藝術以及游戲上,這主要是因為有奴隸幫他們做了很多工作。那么我們未來有沒有可能用人工智能代替奴隸,創(chuàng)造出一個現(xiàn)代化的數(shù)字雅典呢?
假如我們每個人的時薪逐年增長,那么我們就可以逐步進入到數(shù)字雅典時代,那些喜歡閑暇的人就能夠逐漸減少工作量,不斷提高生活水平。這正是美國從二戰(zhàn)結束到70年代中期所發(fā)生的事情。但是,此后的故事悄然發(fā)生變化。最近這40年來,盡管經(jīng)濟不斷發(fā)展,人均收入也不斷增加,但是新增的蛋糕幾乎全部掉進最富有的1%的人的口袋,最貧窮的90%的人處于收入停滯狀態(tài)。如果我們從財富而非收入的角度來看,貧富分化更加嚴重。對于90%的美國底層家庭,2012年的平均財富與二十五年前一模一樣;而同一時間段內(nèi),最富有的1%的人的財富則翻了一番。全球的貧富分化情況更加嚴重,2013年最有錢的8個人的財產(chǎn)加起來就相當于最窮的36億人的總財產(chǎn)。
麻省理工學院經(jīng)濟學家埃里克·布林約爾松(Erik Brynjolfsson)和安德魯·邁克菲(Andrew McAfee)認為,造成收入不平等的原因既不是全球化也不是什么富人的減稅政策,主要的原因是技術。具體來說,他們認為數(shù)字技術以三種不同的方式推動了不平等。
首先,新的工作要求更多的技能,那些受過教育的人得到更高的回報:自20世紀70年代中期以來,大學畢業(yè)的人薪水平均上漲了25%,而那些高中就輟學的人薪水減少了30%。
其次,自2000年以來,企業(yè)利潤中越來越高的比例流入了公司的所有者而不是打工者,而只要自動化的過程持續(xù),那么這些擁有機器的人會占有更高比例的蛋糕。舉個例子,1990年底特律的三大公司,也就是通用汽車、福特和克萊斯勒的總收入與2014年硅谷的三大公司也就是谷歌、蘋果以及臉書一樣,但后者的員工數(shù)量是前者的1/9,股價是前者的30倍,這也意味著更多的收入流入投資者而不是工人的腰包。
第三,數(shù)字經(jīng)濟導致贏家通吃,超級巨星的收入遠高于其他人?!豆ㄌ亍返淖髡逬. K.羅琳成為第一個加入億萬富翁俱樂部的作家,她比莎士比亞富有得多,因為她的故事以極低的成本、通過文字、電影以及游戲的形式傳送給數(shù)十億人。市場上只會誕生少量的超級巨星,這也意味著,如果世界各地的家長都建議他們的孩子成為下一個J.K羅琳、馬特達蒙、C羅、奧普拉或者馬斯克,那么幾乎沒有一個孩子會發(fā)現(xiàn)這是一個可行的職業(yè)策略。
那么我們應該給自己的孩子什么靠譜的職業(yè)建議呢?這幾個問題很有用。這份職業(yè)是否需要與人打交道并且使用社交智慧?這份職業(yè)是否需要創(chuàng)造力,并且提出聰明的解決方案?這份職業(yè)是否需要在不可預測的環(huán)境中工作?如果這幾個問題的答案都是yes,那么你所提供的這個職業(yè)建議應該就比較靠譜。這也意味著,相對安全的職業(yè)選擇包括教師、護士、醫(yī)生、牙醫(yī)、科學家、企業(yè)家、程序員、工程師、律師、社會工作者、神職人員、藝術家、理發(fā)師以及按摩治療師等。
相比之下,在可預測的環(huán)境中的高度重復性或按部就班的工作則不可能存在很長時間,比如電話銷售員、倉庫工作人員、收銀員,火車司機、面包師以及廚房生產(chǎn)線上的廚師。司機這一職業(yè)也面臨機器的取代。還有更多的職業(yè),比如律師助理、信貸分析師、貸款人員,簿記員以及稅務會計師,雖然不在瀕臨滅絕的名單上,但他們的大部分任務都是可以自動化的,因此這類職業(yè)的用工需求會大大縮減。
但是,自動化并不是技術所帶來的唯一的職業(yè)挑戰(zhàn)。在這個全球數(shù)字時代,旨在成為專業(yè)作家、導演、演員、運動員或者時尚設計師會面臨來自全球范圍的激烈競爭,只有很少的人能夠成功。
需要補充的一點是,對某個職業(yè)領域是否會被機器替代不能一概而論,可能只是部分任務被替代,比如說,如果你進入醫(yī)學領域,不要花太多時間分析醫(yī)學圖像,而要學會訂購放射學分析、與患者討論結果并制定治療方案,因為前一個任務可能會被IBM的沃森所替代;如果你進入財務領域,不要變成為一個沉迷于對數(shù)據(jù)應用算法的“寬客”,而要學會成為使用定量分析結果做出戰(zhàn)略投資決策的基金經(jīng)理;如果你進入法律領域,不要安于做一個負責審閱文件的律師助理,而要學會向客戶提供咨詢意見并將案件提交法庭審理。endprint
上面是就個人而言的,而在政府層面,許多政策可能會有所幫助,比如對研究、教育、基礎設施進行大量投資,促進移民以及激發(fā)創(chuàng)業(yè)精神等。
那么,假如AI持續(xù)改進,更多的工作被機器替代,人類未來會集體失業(yè)嗎?泰格馬克在此書里也逐一列舉了樂觀派和悲觀派的論據(jù),值得一提的是,針對樂觀派所預想的未來會出現(xiàn)大批新的工作,悲觀派的反駁似乎更有力。我們剛剛經(jīng)歷過計算機為代表的信息革命,那么有多少職業(yè)是新出現(xiàn)的呢?在今天的美國,按照就業(yè)崗位的數(shù)量排列,前20大職業(yè)都是一個世紀前就已經(jīng)存在的,排在第二十一位的職業(yè)軟件開發(fā)商僅占不到1%的就業(yè)人口。
現(xiàn)在人類所面臨的就業(yè)情況就如同海面上的島嶼,代表人工智能水平的海平面正在逐步上升,淹沒了越來越多的島嶼,我們并未發(fā)現(xiàn)全新的島嶼,而是不得不擠進那些尚未被技術潮流所淹沒的小島。悲觀派認為,結局是顯而易見的:整個群島將被淹沒,人類最終會集體失業(yè)。
泰格馬克認為,短期來看樂觀派可能是對的,但長期來看悲觀派則可能更接近事實。但另一方面,集體失業(yè)也未必是壞事!工業(yè)革命期間,勒德分子癡迷于特定的工作,忽視了其他工作可能提供相同社會價值的可能性。類似地,也許今天那些癡迷于工作的人太狹隘了:我們希望得到工作,是因為它可以為我們提供收入和目的感,但也許可以找到一套替代方案,在無需工作的情況下獲得收入和目的感。
減少貧富分化除了有道德上的考量,它還能夠使民主機制更好地運轉:當存在一個受過良好教育的龐大的中產(chǎn)階級時,政客很難操縱選民,這樣一種民主反過來可以使一個經(jīng)濟體更少腐敗、更有效率以及獲得更快的增長,最終使每個人都受益。
再來看目的感的問題。工作能夠給予人們的不僅是錢。根據(jù)積極心理學的研究,有一系列的因素能夠提高人們的幸福感和目的感,而一些工作能夠提供這些因素,例如:朋友和同事的社交網(wǎng)絡;健康和道德的生活方式;做一件自己擅長的事情時所產(chǎn)生的尊重、自尊、自我效能感和愉悅的心流;被需要和有所作為的感覺;因為服務于某種大于自己的事物所獲得的意義感。我們可以對這一發(fā)現(xiàn)感到高興,因為所有這些因素都能在工作場所之外找到落腳點,比如通過運動、愛好、學習,以及和家人、朋友、團隊、俱樂部、社區(qū)團體、學校、宗教、人文組織以及政治運動以及其他機構所獲得。
因此,要創(chuàng)造一個蓬勃發(fā)展而不是退化為自我毀滅行為的低就業(yè)社會我們需要了解如何幫助這種催生幸福的活動蓬勃發(fā)展。對它們的理解不僅關乎科學家和經(jīng)濟學家,也需要心理學家、社會學家以及教育者的參與。如果我們努力地為所有人創(chuàng)造福祉,所需財富通過AI來獲得,那么未來的社會應該能夠像以前一樣蓬勃發(fā)展。
假如以超人工智能為代表生命3.0真的會出現(xiàn),對人類來說是一件好事嗎?對待這個問題有四大流派,第一派被統(tǒng)稱為勒德分子,最早是指英國工業(yè)革命時期因為機器代替了人力而失業(yè)的技術工人,現(xiàn)在引申為反對發(fā)展人工智能的人,這一派當然非常懼怕超人工智能的出現(xiàn)。第二派是以拉里佩奇、庫茲韋爾為代表的數(shù)字烏托邦主義者,他們認為人類很有可能在21世紀發(fā)展出超人工智能,而且他們衷心歡迎這一步的到來。第三派則是以百度前首席科學家吳恩達為代表的技術懷疑論者,他最著名的話是:擔心殺手機器人的興起就像擔心火星人口過多。第四派中有好幾位都是大名鼎鼎的人物,比如比爾·蓋茨、霍金、埃隆馬斯克,這一派被稱之為“益智運動派”,他們支持推動有益的人工智能發(fā)展,關注人工智能的安全問題。這一派認為,超人工智能是有可能在本世紀出現(xiàn)的,但它并不保證對人類有好的結果,所以現(xiàn)在對于AI有關的安全問題的研究和討論能夠增加未來出現(xiàn)良好結果的概率。
智能,指的是完成復雜目標的能力。
弱人工智能,指的是實現(xiàn)一組有限的目標的能力,比如下圍棋或者駕駛汽車。
通用智能:指的是有能力達成幾乎任何目標,包括學習。
超人工智能,指的是遠超人類水平的通用智能。
第一個是關于時間表的神話。人類發(fā)展出超人工智能需要多長時間呢? 這個領域的頂尖專家對此問題分歧極大,所以我們其實不知道答案。
第二個誤解是關于爭議的神話,也就是誤以為AI研究者對于是否支持人工智能安全研究存在巨大的爭議。比如過于強調(diào)吳恩達的火星人口過剩論。其實吳恩達并非不在意人工智能的安全問題,只不過他關于超人工智能出現(xiàn)的時間表較長,所以傾向于優(yōu)先考慮短期內(nèi)的AI挑戰(zhàn)。
第三個誤解是關于風險的神話。超人工智能對人類的影響在于它會做什么,而不是它意識到什么。我們真正應該擔心的不是機器的惡意,而是它的能力。益智運動就是希望努力避免人類被沒有惡意但十分強大的超人工智能隨手毀滅。事實上,只要機器足夠聰明,它就能夠控制人類,益智運動主要的關注點不在于機器人,而在于智能本身:具體而言,就是與我們的目標不符的智能。endprint