施龍·茲里斯
人工智能(AI)正在擴大其使用范圍——從特斯拉的自駕車,到谷歌DeepMind設(shè)計的AlphaGo在圍棋比賽中擊敗世界冠軍,再到IBM的沃森(Watson)疾病診斷系統(tǒng)。軟件正在超越執(zhí)行黑白指令的階段,轉(zhuǎn)而作出復(fù)雜且通常是主觀的決策。2017年,社會將開始信任機器,就像相信人類一樣。
人工智能帶來了一種傳統(tǒng)軟件沒有的不可預(yù)測性。在解決復(fù)雜的任務(wù)時,想要構(gòu)建覆蓋每一個可能性的規(guī)則太困難了。相反,人工智能從經(jīng)驗中學(xué)習(xí)。他們作出的決定隨著時間的推移而變化(如同Google的搜索結(jié)果)。人們通常不可能準(zhǔn)確地解釋為什么一個人工智能系統(tǒng)產(chǎn)生了它所做出的結(jié)果:一個四歲的孩子和一個人工智能圖像分析程序可以正確地在照片中識別出一只狗,但他們都無法告訴你,他們是怎么知道他們是正確的。
在區(qū)別這是一張狗的照片還是貓的照片時,這種不可預(yù)測性是沒有問題的。但當(dāng)人工智能推薦一種形式的手術(shù)而不是另一種,又或是在擁擠的高速公路上全速駕駛汽車時,挑戰(zhàn)出現(xiàn)了。
如果人工智能不可預(yù)測,那為什么要信任它?因為這些程序帶來的價值太大,不可忽視。2015年,幾乎50億美元的私人投資投給了人工智能公司,更不用說微軟、亞馬遜、Facebook、谷歌、彭博(我作為合伙人的風(fēng)險投資基金正屬于彭博)和Uber等公司的內(nèi)部研發(fā)。人工智能不僅有助于挽救路上和醫(yī)院里的生命,而且還會讓企業(yè)作出更好的決策。即使人有時也是不可預(yù)測和不可置信的,商業(yè)領(lǐng)袖仍然相信人類是市場的決策者。社會將以同樣的方式開始建立一種“機器信任”。
但是,社會并不會盲目地相信人工智能,社會將隨著時間的推移對其進行評估,并逐漸給予它更大的自由度(就像老板試用新員工一樣)。自駕車將要經(jīng)過相當(dāng)于駕校的過程,并在通過考試時獲得許可;放射電腦醫(yī)生將作為實習(xí)生,向?qū)<覍W(xué)習(xí),隨著作出更準(zhǔn)確的診斷而承擔(dān)更多的責(zé)任。
創(chuàng)造者們也會嘗試將倫理逐漸灌輸?shù)竭@些系統(tǒng)中。就像人類一樣,人工智能系統(tǒng)也會犯錯誤,社會必須決定什么時候原諒和什么時候懲罰。但是,在人工智能開始作出比人類更好的決定時,它會贏得他們的信任,并且蓬勃發(fā)展。
(翻譯:袁雪,審譯:康娟)