劉本章
本文的開頭,我想先強調(diào)一個概念,究竟什么是人工智能。一般人看到AI第一瞬間便會想到機器人,但機器人只是一個容器,它的內(nèi)核與控制系統(tǒng)才能被稱作人工智能。再者,人工智能不能被單純地被認為是與人類處在同等智能水平上的事物,總的來說,可以將它分成三個層次:1.弱人工智能;2.強人工智能;3.超人工智能。
弱人工智能,是在單一領域具有超越常人的能力,比如說AlphaGo,它可以在圍棋方面戰(zhàn)勝李世石,但是若讓它進行簡單的計算,類似1+1=2這樣的式子,它可能卻是不行的。現(xiàn)階段,弱人工智能存在于我們生活的方方面面。導航,Siri,天氣預報,搜索引擎,音樂推薦等等,這都是人工智能,只不過大多數(shù)人并不知道罷了。所以那些“人工智能根本不可能造福人類”的說法是絕對錯誤的,正相反,人工智能給人們帶來了諸多便利。因此,我希望大家能拋棄對人工智能的偏見,真正接納人工智能的存在。組成人類的細胞都比弱人工智能層次要高,所以對待這一層次的人工智能,我們是不必擔心的,若非要把有關人類的事物劃分到這一層次中,類似核糖體的細胞器便是屬于這一層次。
人類是屬于強人工智能層次的生物,而且是這一層次中頂端的存在。強人工智能,已經(jīng)可以同人類一樣進行各種腦力活動。但很遺憾,至今它還未曾問世。從弱人工智能到強人工智能的過渡是漫長的,從地球弱人工智能層次的氨基酸等有機物進化至生命,耗費的時間以億計數(shù)。但是隨著社會的進步,發(fā)展的能力、速度都會極大地提升,所以強人工智能的出現(xiàn)不會耗費太多時間,短則十年長則百年。由弱到強,需要有兩方面的改變。
第一,提高弱人工智能的運算速度,降低單位運算速度所需金錢。人類的大腦運算速度經(jīng)Kurzweil對不同大腦區(qū)域進行估算,大約為一億億次計算每秒。強人工智能不是終點,所以運算速度也必須超過一億億這個數(shù)值。但若是我們研究出超人工智能卻只能供應極少數(shù)人,那必將會造成災難——上位者操縱人工智能統(tǒng)御下位者,這絕對不是我們想看見的。因此,我們要降低單位運算速度的成本,讓成果平民化,讓人工智能能真正造福所有人類。
第二,提高弱人工智能的智能層次,然后通過人工智能的遞變演化,讓它到達更高的層次。這一點是最難處理的,也是可能導致人工智能轉(zhuǎn)頭空的最大因素,人類對智能層次的認識只能停留在淺薄的理論上,我們不知道如何將猩猩的大腦演化為人類的大腦,同樣,我們也不知道如何將人工智能的層次提高到新的高度。不過萬幸我們有我們自己這樣一個完美的強人工智能系統(tǒng),我們可以通過對自身的生物研究來推動人工智能的發(fā)展。這樣做有兩個方向:1.逆推,根據(jù)人本身大腦的思考模式逆推出運算的模式,再將這種模式代入到人工智能上;2.正推,從細胞開始,不斷推動生命層次的研究,一步一步地將大腦的運算模式推斷出來。兩種方向皆有利弊,從我自己來說,這兩種方向應同時進行,一個最大的原因便是人類若想得到長足發(fā)展,必先研究透自身,一舉兩得,何樂而不為?
以上所述,還可尋到根據(jù),接下來的便只能是進行合乎邏輯的推理和大膽的設想了。
強人工智能即指超過人類的層次,它可能超過一點,也可能超過幾千萬倍,跨度極大。也正是因為它的不可控性,人們才會認為這是一個潘多拉魔盒,會毀滅人類,但是這也同樣可能使人類真正永生。那么有什么辦法能使超人工智能受到人類的控制呢?答案是沒有,起碼在我們當前的認知中是不切實際的。自然界創(chuàng)造了人類,可人類卻近乎脫離了自然界的控制。那么,人工智能是不是該停止呢?我認為不該。前面提到了遞變演化,超人工智能的層次提高是人類插不上手的,只能靠它自身的遞變演化。但是遞變演化卻不是只出現(xiàn)在人工智能身上,人類也有自己的遞變演化,而且根據(jù)加速回報理論,遞變的單位所需時間是會逐漸縮短的,如果我們能從人工智能那里取得這樣的經(jīng)驗,發(fā)展的就不會只是人工智能。再者,從強人工智能到超人工智能的層次質(zhì)變,同樣可以被借鑒用于人類的發(fā)展,這就意味著人類自身是會永遠領先人工智能一步。難道人類擔心過被猴子毀滅嗎?沒有。同樣人工智能就好比比我們智能層次低的猴子,也不會導致我們的毀滅。并且我們可利用人工智能為我們自身服務。當然,這只局限于理論推導、假設猜想,很可能未來的走向會與之大相徑庭。
人工智能的發(fā)展不應是單方面的,視野必須拓寬出去。對于人工智能的研究其實等同于對人自身的研究,它不僅僅只是一門計算機科學,更是一門生命科學。如果能將它的研究與生命科學的研究結(jié)合起來,人們對它的了解就可能更透徹。比如說,對于大腦的研究,一定會牽扯到思維的研究,而對思維研究的深入,可以讓我們更好地設計智能的思維,甚至于我們可以將人類的心理在不影響性能的情況下導入其中。人類的心理會使它們站在人類的角度思考,甚至可以說智能便成了人類的另一種存在形式。在這里,就又引出一個問題:安全和性能,我們應更注重哪一個。答案非常明確,安全。如果連安全都保證不了,那它就沒有存在的價值。原子能,人類可以控制,所以才有了核電的存在。人工智能同樣如此,雖然我希望人工智能能造福人類,但若能證實它對人類的弊大于利,那就應該終止有關的研究,讓它成為歷史。
有人說人工智能是人類最后的一項發(fā)明,因為一旦超人工智能出現(xiàn),人類便會滅絕,未免太過悲觀了。生物與生物之間最純粹的關系是利益關系,人工智能與人類之間也可以通過利益關系關聯(lián)起來,并且讓人類處于主導的地位。那么人類可以為人工智能提供什么利益呢?目標。人類是已知唯一有獨立意識的存在,我們可以提供給人工智能目標,這就需要我們再設計時不能讓它產(chǎn)生獨立意識,如果這能實現(xiàn),就意味著我們擁有了超越人類層次卻對人類無比忠誠的存在,人類社會的發(fā)展必因此得到更大的進步。
人工智能是一個很好的發(fā)展機遇,我們不應畏手畏腳。人工智能的未來是不可控的,但是人類的發(fā)展也同樣是不可控的。走得太穩(wěn)不見得能真地走得太遠,試一次或許會有不一樣的結(jié)果。
(作者單位:山東省青島市西海岸新區(qū)膠南第一高級中學312班)