魏屹東
(山西大學 哲學社會學學院,山西 太原 030006)
人工智能(AI),顧名思義,是人類制造的智能,它不是人類智能行為本身,而是人智能的產物。這種人造的智能能否像人類一樣去行動、去思考,甚至有情感能力,是人工智能產生以來一直探討的問題。事實上,“人工智能呈現(xiàn)出一種新特點,即該技術已經徹底改變了普通大眾的生活”,[1](P152)已經登上能力層級頂端,“人類與機器智能之間的界限越發(fā)顯得模糊,因為機器智能越來越多地源于其人類設計者的智能,而人類智能也因為機器智能得到了更大提高”。[2](P289)從適應性的角度看,人類的表征無疑是適應性的,即人會隨著環(huán)境的變化不斷調節(jié)自己的行為以適應環(huán)境。人工智能的表征是否也是適應性的?這是本文要著力探討的問題。
人工智能旨在模擬人的智能,它不僅要理解人如何思維,而且要構造出非生物的智能實體,如智能機器人。從模擬人行為的角度看,人工智能是像人那樣思維和行動的實體,這種定義實質上是基于以人為中心的科學方法的,包括關于人的行為觀察和假設;從理性的角度看,人工智能是理性地思維或行動的實體,這種定義是基于理性主義方法論的,包括數(shù)學和工程學的結合。這兩類定義蘊含了研究人工智能的不同方法或進路。
第一是圖靈測試。它是一種模擬人行動的方法。圖靈測試是說,如果一個人提出的一些問題電腦能夠正確地給出書寫答案,即順利通過問答測試,而其他人不能區(qū)分答案是來自人還是電腦,那么我們不得不說,電腦像人那樣擁有智能。這就是說,“圖靈測試只進行文本信息的測試就足夠了,因為在測試中增加視覺和聽覺信息并不會增加該測試的難度”。[1](P153)要讓電腦嚴格地通過圖靈測試,就必須使電腦具有至少四種能力:(1)自然語言處理,即能用某種語言成功地交流;(2)知識表征,即儲存所知或所聽的信息;(3)自動推理,即使用儲存的信息回答問題并得出結論;(4)機器學習,即適應新環(huán)境以及發(fā)現(xiàn)和推斷模式。這種圖靈測試有意避免了電腦和人的直接接觸,還算不上是完全的圖靈測試。若讓電腦和人接觸,無論是直接的(感知)還是間接的(視頻),電腦還需要(5)視力和(6)機器人技術(操作客體和移動)。這六個方面形成了人工智能的大部分能力,也為此后的研究奠定了基礎,指明了方向。正如弗洛里迪指出的,“圖靈使我們認識到,人類在邏輯推理、信息處理和智能行為領域的主導地位已不復存在,人類已不再是信息圈毋庸置疑的主宰,數(shù)字設備代替人類執(zhí)行了越來越多的原本需要人的思想來解決的任務,而這使得人類被迫一再地拋棄一個又一個自認為獨一無二的地位”。[3](P107)這在人類認知史上構成了繼哥白尼革命、達爾文革命和神經科學革命之后的“第四次革命”。
第二是認知建模。它是一種模擬人思維的方法。若說一個電腦的程序會像人那樣思維,我們必然會聯(lián)想到人是如何思維的,這就需要探討人的心智是如何工作的。一般有三種方法可以理解心智的實際工作機制:一是內省,這是一種哲學方法,它通過反思和沉思來直接意識或捕捉自己的思想或內心狀態(tài),是一種關于心的事件的真陳述的能力;二是心理實驗,這是一種科學心理學方法,它通過觀察人的行動探測心智功能;三是腦成像,這是一種造影技術手段,通過它觀察腦的工作機制。一旦我們擁有一個充分精確的關于心智的理論,它就可能成為表達電腦作為程序的理論。如果程序的輸入-輸出行為與相應的人的行為匹配,這說明電腦程序的機制的某些方面也能夠在人身上操作。例如,發(fā)明“通用問題解決器”的西蒙和紐威爾,不只是關注程序如何正確地解決問題,他們更注重比較機器和人類解決同樣問題的推理步驟。認知科學的發(fā)展強化了機器與人類(動物)認知行為的比較研究。
第三是理性思維。它是一種關于思想規(guī)律的方法。亞里士多德可能是第一個描述邏輯地思維即“正確思維”(不可反駁的推理過程)的哲學家。他的“三段論”提供了論證結構的模式,總是產生正確的結論。例如,蘇格拉底是人,凡人必死,所以蘇格拉底會死。這些思想規(guī)律就是邏輯,被認為用于控制對心智的操作。這些人工智能中的邏輯傳統(tǒng)被用于建構這樣的程序來創(chuàng)造智能系統(tǒng)。然而,這一方法遇到兩種障礙:一是它不容易采取非形式的知識,并以邏輯概念需要的形式術語闡述它,特別是當知識不是絕對確定的時候;二是在原則上和實踐上解決問題之間存在極大的差異。即使是處理幾百個事實這樣數(shù)量的問題,都會耗盡電腦的資源。也就是說,這種方法會遇到框架問題。
第四是理性行動。它是一種理性主體方法。一個主體(agent,①人、動物或機器)是某些能行動的東西。電腦作為主體能做許多事,如自動操作、感知其環(huán)境、持續(xù)很長時間、適應變化、追尋目標。一個理性主體是這樣一個主體:其行動的目的是獲得最佳結果,當存在不確定性時,它尋求最期望的結果。同理性思維強調正確推理一樣,理性主體也強調做正確的推理,因為理性行動的方式之一是邏輯地推出結論。不過,正確的推理不完全是理性的。在某些情形中,不存在被證明是正確的事情,但我們仍然必須要做。當然,也有這樣的情形,理性行動的方式不能說是涉及推理的,如迅速逃離火災是一個反射行為,它比深思熟慮后的慢行動(理性行動)更為成功。圖靈測試需要的所有技巧也要求主體理性地行動。知識表征和推理使得主體能夠獲得好的決策。人類能夠使用自然語言產生綜合語句來應付復雜的社會,這不僅要求主體不斷學習以達到學識淵博,而且還要提高我們產生有效行為的能力。
與其他方法相比,理性主體方法有兩個優(yōu)點:其一,它比理性思維方法更普遍,因為正確的推理只是獲得理性的幾個可能機制之一;其二,對于科學發(fā)展來說,它是比基于人類行為或思想的方法更經得起檢驗的方法。理性的標準是很好地由數(shù)學定義的,具有普遍性,并能夠產生通過證明獲得它的主體設計。盡管如此,理性主體方法還是有限的,因而其理性也是有限理性。
人工智能作為有心智的機器,是一個多學科交叉的研究領域,它至少涉及哲學、數(shù)學、經濟學、神經科學、心理學、計算機工程、控制理論和控制論、語言學等學科或理論。從問題視角看,這些不同的學科都對人工智能提出了亟待解決的問題。
對于人工智能,哲學家往往會提出這樣的問題:(1)使用形式規(guī)則能夠推出有效結論嗎?(2)心智是如何從一個物理大腦產生的?(3)知識來自哪里?(4)知識如何導致行動?(5)知識表征負載意義嗎?這些問題都難以回答。
在哲學史上,亞里士多德首次為嚴格推理提出“三段論”的非形式系統(tǒng),這種推理原則上允許我們機械地產生結論,只要給出初始前提(條件)。后來,羅曼·勒爾(Roman Lull)提出,有用的推理實際上是能夠由一個機械裝置推出的?;舨妓拐J為,推理類似數(shù)字計算,就是在我們心中做加減,因此,機械地實現(xiàn)計算的自動操作是可能的。文藝復興初期,意大利的達·芬奇曾經設計了一個機械計算器,但沒有建造出來,此后有人根據他的設計圖重新制造了計算器,表明它具有計算功能。已知的第一臺計算器是德國科學家威廉·施卡德(Wilhelm Schickard)大約在1623年制造的。21年后另一位德國科學家帕斯卡(Blaise Pascal)也制造了一臺更著名的計算器“Pascaline”,認為算術機器產生的效果似乎比動物的行為更接近人的思想。在此基礎上,萊布尼茨制造了一臺機械裝置,試圖執(zhí)行概念操作而不是數(shù)字操作,但其范圍非常有限。據說,萊布尼茨的計算器超越了帕斯卡的,它能夠做加減乘和求根運算,而后者只能做加減運算。霍布斯稱這種計算器為“人造動物”,其心臟不過是一個彈簧,神經不過是許多絲線,關節(jié)不過是許多輪子。但不可否認,帕斯卡首次開創(chuàng)性地提出了“思考即推理,推理即計算”的思想,“從這個層面來說,‘推理’只不過是‘計算’,也就是對我們大腦中的一些符號與表達的結果進行加加減減。當我們獨立計算時,稱其為‘符號’;當我們向他人展示與證明我們的計算時,則稱其為‘表達’”。[3](P106)
關于心智問題,哲學史上一般有兩種觀點:其一,心智至少部分是根據邏輯運作的,而且建立的物理系統(tǒng)效仿某些規(guī)則;其二,心智本身就是一個物理系統(tǒng)。我們知道,笛卡爾首次清晰論述了心智與物質的區(qū)分及其產生的問題,其中與心智的純粹物理概念相關的一個問題是,該概念似乎沒有給自由意志留下任何余地。也就是說,如果心智完全由物理規(guī)律支配,那么就不存在任何自由意志,它只不過像一塊朝地球中心下落的石頭。在這個問題上,笛卡爾是一個理性主義者,堅信推理在理解世界中的動力作用。同時,笛卡爾也是一個著名的二元論者,承認心智與物質并存,也就是心智可以脫離物質,免于物理規(guī)律的支配;而動物不具有這種二元屬性,可以被看作生物機器。唯物主義超越了二元論,認為腦的運作是根據物理規(guī)律進行的,這構成了心智,自由意志只不過是一種方便的選擇而已。
假定物理心智操作知識,接下來的問題是如何建立知識源。經驗主義致力于解決這個問題。從培根經洛克到休謨的經驗主義運動試圖說明,感覺是一切知識的根源,著名的“歸納原則”表明:一般規(guī)則源于個別的經驗事實及其關系。維特根斯坦和羅素的邏輯原子主義,以及隨后以卡爾納普為代表的邏輯實證主義,均主張所有知識都能由邏輯理論來刻畫,邏輯理論最終與觀察語句相聯(lián)系,觀察語句又與感覺輸入相對應。這樣,邏輯實證主義就將理性主義與經驗主義結合起來。在科學哲學中,卡爾納普和亨普爾的證實理論就試圖從經驗分析知識的獲得,卡爾納普在其《世界的邏輯構造》中為從基本經驗獲得知識定義了一個明確的計算程序,這可能是作為計算處理的第一個心智理論。[4]這為人工智能關于知識與行動之間的聯(lián)系奠定了基礎。
哲學家雖然給出了人工智能的一些基本觀點,但距如何將那些觀點形式化還有相當?shù)木嚯x。這個任務就自然落到數(shù)學家的肩上,對于人工智能,數(shù)學家會問:(1)什么形式規(guī)則得出有效結論?(2)計算什么?(3)如何用不確定信息進行推理?這些問題涉及邏輯、計算和概率。形式邏輯的思想可以追溯到古希臘的哲學家,但其數(shù)學化始于19世紀的數(shù)學家布爾,他發(fā)展出命題邏輯或布爾邏輯。后來,弗雷格將布爾邏輯延展到包括客體和關系,創(chuàng)造了今日仍然使用的一階邏輯。而塔爾斯基的指稱理論表明了邏輯中的客體如何與真實世界中的客體相關。這必然涉及如何計算的問題。布爾等人討論了邏輯演繹的算法,并使數(shù)學推理成為邏輯演繹的形式化。哥德爾的工作表明,在弗雷格和羅素的一階邏輯中,存在一個有效程序來證明任何真陳述,但一階邏輯不能滿足用于刻畫自然數(shù)的數(shù)學歸納原則,而且對演繹的確存在限制。他的不完備定律說明,任何形式理論都存在真陳述,這些真陳述在該理論內沒有證據的意義上是不可判定的。這意味著,某些關于整數(shù)的函數(shù)不能由一個算法來表征,或者說,某些函數(shù)是不能被計算的。這促使圖靈試圖精確刻畫哪些函數(shù)是可計算的(computable)。事實上,“可計算”這個概念有點問題,因為計算或有效程序的概念確實不能被給出一個形式定義。不過,丘奇-圖靈論題(Church-Turing Thesis)表明:圖靈機能夠計算任何可計算的函數(shù),這是一個提供充分定義而被普遍接受的觀點。同時,圖靈也承認,有些函數(shù)是圖靈機不能計算的,比如,沒有機器總體上能夠說明一個給定程序是否會在一個給定輸入上給出答案。
盡管可判定性(decidability)和可計算性(computability)對于理解計算是非常重要的,但是易處理性(tractability)概念對于人工智能更具有沖擊力,因為我們往往要求一個問題是易處理的,而不是相反。如果要求解決例子問題的時間隨著例子的多少成指數(shù)增長,那么這個問題就是一個不易處理的問題,因為指數(shù)增長意味著,即使適度增長的例子,在合理的時間也不能被解決。因此我們力圖將產生智能行為的所有問題分成易處理的子問題,而不是不易處理的子問題。問題是,我們如何辨別不易處理的問題?NP-完備性(NPC)理論提供了一種方法。②該方法表明存在著一大類典型組合搜索和具有NP完備的推理問題。任何能夠被還原或簡化的NP完備的問題類,都可能是不易處理的。盡管NP完備問題還沒有被完全證明是必然不易處理的,但是許多數(shù)學家相信這一點。隨著電腦運行速度越來越快,這些問題也有望得到解決。然而,我們也應該看到,世界是極度復雜的,它包括無限個問題例子。人工智能有望幫助我們解釋為什么有些NP完備問題是難的,而其他的則是相對容易的,并找到NP完備問題的所有啟發(fā)性解決方案。[5](P42~43)另外,數(shù)學的概率理論也對人工智能做出了巨大貢獻。比如對賭博中的勝率問題,概率理論有助于處理其中的不確定性和不完備問題。特別是著名的貝葉斯定律,構成了人工智能系統(tǒng)中不確定推理的現(xiàn)代方法的基礎。
從經濟思維的角度看,人工智能在決策問題上應該是講效益的,或者是目標最大化的,這是經濟學要探討的目標。如何達到這個目標,邏輯地包括解答如下問題:(1)應該如何決策來獲得最大回報?(2)當其他人不贊同時應該如何做到這一點?(3)當回報遙遙無期時應該如何做到這一點?人工智能在遇到決策問題時,會借助決策理論,而決策理論將概率理論與功用理論相結合,為不確定性情形下的決策(概率描述適當?shù)夭蹲經Q策者的環(huán)境的情形)提供了形式的和完備的框架。經濟學中的“經濟人”類似于“理性主體”,其中的“操作研究”對“理性主體”概念有重要貢獻,如馬可夫決策過程可以形式化一類序列決策問題。人工智能的先驅西蒙獲得1978年諾貝爾經濟學獎,是因他建立了基于滿意(satisficing)的模型。滿意即決策得足夠好;而不是奮力計算最佳決定,即給出實際人類行為的更好描述。自20世紀90年代以來,關于主體系統(tǒng)的決策理論技巧的研究已經再次興起,[6]它與人工智能的研究也越來越緊密。
人工智能通過邏輯推理、數(shù)學計算等處理信息,那么人腦是如何處理信息的?這是腦科學要回答的問題。腦科學研究神經系統(tǒng),特別是研究大腦。自古以來,大腦精確思維的方式是哲學和科學的最大秘密之一。我們知道大腦異常復雜,也的確能夠思維,但其思維如何運作仍然是個謎。大腦也有不能思維的時候,如人的腦部受到強烈打擊后人出現(xiàn)失憶、失語,即導致心靈無能力。例如19世紀60年代布羅卡(Paul Broca)對腦損傷病人失語癥的研究揭示,大腦的某個區(qū)域負責具體的認知功能,如語言表達能力,該區(qū)域位于左半腦部分,現(xiàn)在被稱為布羅卡區(qū)。迄今大腦的結構及神經結構通過解剖已經基本弄清,也能夠通過技術手段如EEG、fMRI掃描腦的活動圖譜,但探索不同區(qū)域之間的精細聯(lián)系,以及如何理解認知過程的實際工作機制,仍然有很長的路要走。這也容易導致心靈神秘主義。
簡單神經細胞能夠產生思想、行動和意識嗎?用塞爾的話說就是,大腦引起心智,或者說,意識或心智是腦的物理屬性。[7](P13~14)博登將塞爾的這個觀點稱為“肯定性論斷”,即意向性必須以生物特性為基礎,而其否定性論斷是:純形式主義理論不能解釋心理特性。[8](P125)從神秘主義角度來看,心智可能在某個神秘領域運作,這個領域是自然科學不可到達的。從科學主義的角度來看,科學最終能夠弄清大腦的認知機制。這兩種對立的觀點勢必導致爭論。大腦無疑是一個“黑箱”,從外部模擬其功能可能是一種好的策略,計算機科學的發(fā)展為我們從模擬角度探討大腦的工作機制提供了一種新的研究進路,如電腦的中央處理器(CPU)相對于人腦的神經元,其儲存單元相對于人腦的突觸。經過對比研究,可在某種程度上幫助我們揭示人腦的奧秘。當然,這種模擬是有限的,畢竟人腦的智能水平怎樣,通過人機比較我們仍然不清楚。
即使電腦模擬是一種好的策略,我們如何建造一個有效的人造物(智能機)來模擬人腦呢?這是計算機工程要回答的問題。這種人造物如何在自己的控制下運作?這是控制理論(control theory)或控制論(cybernetics)要解決的問題。人工智能,包括智能和人造物兩方面,如智能機、機器人,已經開發(fā)了許多觀念,這使得它已融入主流計算機科學之中,甚至走在前沿。其內容包括分時操作、交互解釋器、擁有視窗和鼠標的個人電腦、快速適應環(huán)境、連接列表數(shù)據類型、自動存儲管理,以及關于符號的、功能的、敘述的和目標導向的編程的核心概念。
如果智能機能夠在無人控制下自主運行,那么它的表征應該是適應性的,或者說,它就能夠在自主控制下自動操作,盡管它可能沒有意識。簡易的自動控制機器古代就有了,如古代的水表用一個調節(jié)器保持恒定的流速。這個發(fā)明改變了人造物能做什么的定義。因為此前人們認為,只有生物才能順應環(huán)境的變化改變它們的行為。瓦特發(fā)明的蒸汽機是一個自調節(jié)反饋控制系統(tǒng),恒溫器和潛水艇也是這種系統(tǒng)。這種反饋系統(tǒng)的數(shù)學理論19世紀就建立了。1948年數(shù)學家維納在其《控制論》中發(fā)展了這種數(shù)學理論,使人工智能機器成為可能。同年,阿什比在其《設計大腦》中詳細說明了他的思想——智能能夠通過運用自我平衡裝置被創(chuàng)造出來,這種自我平衡裝置包含適當?shù)姆答伃h(huán)來獲得穩(wěn)定適應性行為?,F(xiàn)代控制論,特別是著名的隨機最佳控制,其目標是設計系統(tǒng)以最大化目標函數(shù)。這一目標與人工智能的目標——設計行為最佳的系統(tǒng),基本一致。
最后,人和動物如何思維和行動?這是認知心理學要回答的問題。如果思維和行動蘊含意義,意義又與語言緊密關聯(lián),那么語言如何與思想相關?這是語言學要回答的問題。一方面,心理學特別是馮特的科學心理學或實驗心理學的誕生,使得我們通過控制的實驗研究心理活動成為可能,比如,它在讓被試執(zhí)行一個感知任務時可以內觀他們的思想過程。當然,實驗數(shù)據的主觀性使得實驗者難以證實其思想或理論。另一方面,生物學家研究缺乏內省數(shù)據的動物的行為,發(fā)展出一個客觀的方法論,即行為主義。行為主義反對任何包含心理過程的理論,認為內省不能提供可靠的證據,堅持只有對動物的感知(刺激)做客觀測量,才能獲得對它們的行為或反應的認識。行為主義對于某些動物如老鼠和鴿子的行為的說明是較成功的,但是對于人類行為的說明還遠未成功。
認知心理學的興起,對人的行為的理解深化起到關鍵作用。它將大腦看作一個信息處理裝置,認為感知包括一個無意識的邏輯推理形式,認知建模在其中是關鍵。巴特萊特的學生克雷克(K.Craik)將心理術語看作信念和目標,認為它們就像使用壓力和溫度表征氣體一樣是科學的。他詳細描述了基于知識的主體(knowledge-based agent)的工作模型,用于表示系統(tǒng)的內部表征,認為它包括三個關鍵步驟:[9](P30~61)(1)刺激必須被轉化為內在表征;(2)表征由認知過程操作以衍生出新的內在表征;(3)這些反過來再轉化為行動。隨后,計算機建模的發(fā)展導致了認知科學的誕生。這就是1956年始于麻省理工學院的專題討論會的貢獻。③在該會議上,喬姆斯基宣讀了《語言的三個模型》,彌勒發(fā)表了《神秘數(shù)字七》,紐威爾和西蒙發(fā)表了《邏輯理論機器》。這三篇極有影響的論文說明,計算機模型如何被分別用于闡明記憶心理學、語言和邏輯思維。目前在心理學界有一個普遍的看法,即一個認知理論應該像一個計算機程序,也就是說,認知理論應該描述一個詳細的信息處理機制,其中某些認知功能能夠被執(zhí)行。
在認知功能被執(zhí)行過程中,語言是繞不開的一個重要因素。這就有一個語言學習問題。斯金納在1957年出版的《言語行為》中詳細說明了語言學習的行為主義方法。但喬姆斯基對此方法提出了嚴厲的批評,他在《句法結構》中指出,行為主義理論不能用語言闡明創(chuàng)造性概念,即不能解釋兒童如何理解和編造他們以前從來沒有聽過的句子。而他的句法理論不僅能夠給出合理的解釋,原則上也能夠對句子進行形式化編程。當代語言學和人工智能在“計算語言學”或“自然語言處理”領域交叉,因為理解語言是一個比理解行為主義復雜得多的問題。理解語言不只是理解語句的結構那么簡單,更要理解語句的意義和語境。這似乎是顯然的,但此前并沒有引起人們的足夠重視。事實上,人工智能的知識表征問題與語言密切相關,也與語言的哲學分析相關,這促進了人工智能中知識表征問題的研究,即研究如何使知識形式化以便電腦能夠處理。
這里所說的一個主體④是這樣一種實體,它被看作能夠通過感知器感知其環(huán)境,并通過促動器作用于環(huán)境。對于人類主體來說,感知器就是眼睛、耳朵和觸覺,促動器就是手、腿和聲道等;對于機器人主體來說,感知器是攝影機、紅外測距儀,各種發(fā)動機是促動器。一個軟件主體接收鍵擊、文件內容和網包作為感知輸入,然后通過在屏幕上顯示、寫文件、發(fā)送網包等作用于環(huán)境。所以,相對于環(huán)境,智能主體是一個認知系統(tǒng),兩者通過感知器和促動器或輸入-輸出聯(lián)系起來。用區(qū)分形式表征就是:(智能主體,環(huán)境)&(感知器,促動器)。
一般來說,一個主體在任何給定時刻的行動選擇,依賴于整個觀察到數(shù)據的感知序列,但不依賴于沒有察覺的任何東西。從數(shù)學方面來說,一個主體的行為由主體函數(shù)(agent function)描述,主體函數(shù)將任何給定的感知序列映射到一個行動上。假如將主體函數(shù)制成表來描述任何已知的主體,大多數(shù)主體將會是一個非常大、甚至無限大的表,除非我們給要考慮的感知序列設置一個界限。表是主體的一個外在特征,對于人工主體來說,主體函數(shù)將由一個主體程序(agent program)執(zhí)行。主體函數(shù)是一個抽象的數(shù)學描述,主體程序是一個具體的執(zhí)行方案,與某些物理系統(tǒng)一起運行。我用真空吸塵器的例子來說明這個觀點。真空吸塵器是一個人造系統(tǒng),它有兩個狀態(tài)——干凈和污垢。真空主體感知哪個地方干凈、哪個地方臟,于是它選擇向右移動、向左移動、吸塵,或者什么也不做。它的主體函數(shù)是:如果這個地方是臟的,那么吸;⑤否則,移動到另一個地方。若制成表的話,這個主體函數(shù)就是:感知序列為{a,干凈}{a,污垢}{b,干凈}{b,污垢}{a,干凈}{a,干凈}等;行動為右、吸、左、吸等。其主體程序是,函數(shù)反射真空主體(位置,狀態(tài))返回一個行動:如果狀態(tài)是污垢,那么返回吸;如果位置是右,就返回右;如果位置是左,就返回左。用區(qū)分表征就是:(a,干凈)∨(a,污垢)∧(b,干凈})∨({b,污垢)→(右,吸)∨(左,吸)。
如何判斷一個主體的優(yōu)或劣、智能或愚蠢?這就是理性行為或好行為的問題。一個主體的理性行為應該是一個適應性的行為,否則就是不理性的、不適應的?;蛘哒f,一個理性主體是做正確事情的主體,是因為做正確的事總比做錯誤的事要好,但是,做正確的事是什么意思,如何才能做正確的事呢?
我們設想,當一個主體突然進入一個環(huán)境時,它會根據接收的感知信息產生一系列行動。這個行動序列導致環(huán)境穿過一系列狀態(tài)。如果這個序列是令人滿意的,那么這個主體就運行得好。滿意度(desirability)概念由性能指標(performance measure)或行為標準獲得,這些指標評估任何給定的環(huán)境狀態(tài)序列,而不是主體狀態(tài)。因為主體狀態(tài)容易受到它自己表現(xiàn)的影響,如人類主體典型地具有“酸葡萄”效應的特征,即“吃不到葡萄就說葡萄酸”。顯然,對于所有任務和主體,不存在一個固定的性能指標。設計者會設計一個適應環(huán)境的性能指標。比如真空吸塵器的例子中,人們可以根據環(huán)境臟的程度和面積大小,設置合適的時間和測度性能標準。這個過程是主體適應環(huán)境的過程。對理性主體來說,它想要的就是它得到的,或者說,理性主體能根據凈化污垢的程度最大化性能指標,然后把污垢全部傾倒在地板上,接著再凈化,如此往復,直到地板干凈為止。對于真空吸塵器來說,地板干凈是最合適的性能指標??傊?,作為一般規(guī)則,最好是根據我們對環(huán)境的要求設計性能指標,而不是根據我們認為主體應該如何行動設計性能指標。
盡管如此,我們還是難以避免一些意想不到的困難,仍然有一些棘手的癥結需要解開。比如在真空吸塵器例子中,“干凈”的標準是什么?是否存在普遍認可的平均干凈的標準?假如有兩個不同的真空吸塵器,一個一直以中等速度工作,另一個全力凈化但耗時長,則可以獲得平均干凈。哪個更合適似乎是管理科學的問題。但事實上,這是一個有深遠意義的、深刻的哲學問題:兩個中哪個更好?是安全但耗時的,還是粗糙但有效的?是經濟的還是昂貴的?這些問題值得我們深思。
那么,什么是理性?理性主體如何保證與環(huán)境的適應性?在任何給定時間,什么是理性,依賴于四個方面:[10](P37)(1)性能指標,它定義成功的標準;(2)主體先前關于環(huán)境的知識;(3)主體能夠執(zhí)行的行動;(4)主體對數(shù)據的感知序列。這四個方面就規(guī)定了對理性主體的定義:對于每個可能的感知序列,一個理性主體應該選擇一個行動,該行動被期望最大化其性能指標,給出由證據感知序列和主體擁有的任何內置知識提供的證據。
同一主體在不同的環(huán)境下可能是非理性的,如一個有修養(yǎng)的人有時也會不理智。理性不是全知全能、絕對正確、完美無缺的。理性最大化所期望的性能,完善最大化實際的性能。例如過馬路,首先要觀察馬路上的情況,確信無危險后再行動。這是理性的行為,因為觀察有助于最大化所期望的性能。這意味著理性主體在行為前需要信息搜集,在面對不熟悉的情況時還需要盡可能多地向所感知的環(huán)境學習。主體的初始構造能夠反映環(huán)境的某些先前的知識,但當主體獲得經驗時,這個構造可能被改變從而增強。例如,真空吸塵器的初始結構擁有一定的先前知識,當遇到新環(huán)境時,可以通過學習改變感知序列從而導致行為能力的增強。這就是機器學習,其程序設計者能夠通過窺視其復雜并不斷進化的構造來理解或解釋理性主體系統(tǒng)知道什么或它們如何解決問題。因此,“對機器學習系統(tǒng)最好的理解就是,它們發(fā)展出自己的直覺能力,然后用直覺來行動,這和以前的謠言——它們‘只能按照編好的程序工作’,可大不相同”。[11](P31)
就主體依賴它的設計者的先前知識而不是它自己的感知而言,我們說主體缺乏自主性。一個理性主體應該是自主的,它學習它能學的所有東西,以補償部分或不正確的先前知識。比如真空吸塵器這種主體,它能夠學習預見哪里、何時有污垢出現(xiàn),這比不善于學習的主體做得更好。正如生物進化提供動物足夠的內置反射以使其存活得足夠長來自己學習一樣,進化提供一個智能主體某些初始知識以及學習的能力是非常合理的事情。因此,一個理性主體,在充分體驗其環(huán)境后,其行為能有效地擺脫自己先前的知識。
在人工智能中,主體是設計者設計的一個中介客體,用于描述行為,即在任何給定的感知序列下被執(zhí)行的行動。人工智能的工作就是設計這樣一個主體程序來執(zhí)行主體的功能,即從感知到行動的映射。這個程序被稱為構架(architecture),它能夠啟動某類具有物理感知器和促動器的計算裝置。因此,主體就等于構架加上程序。從適應性表征角度看,我們選擇或設計的程序必須與構架相適應。例如,若該程序要付諸行動,如行走,其構架最好有腿或輪子。構架也可能是普通電腦,或機器人車,或無人機。一般來說,構架的作用是讓感知從感知器到程序可用,啟動程序,提供程序對促動器的行動選擇。在這個意義上的構架就是人工智能的認知框架,主體和環(huán)境的相互作用(通過感知器和促動器)是在這個框架下進行的,而程序是主體的認知核心。
一個主體程序是一個表驅動主體(table-driven agent)程序,它將源于感知器的輸入作為當下感知,然后將行動給予促動器。之所以強調當下感知,是因為沒有什么來自環(huán)境的更多信息是可用的。表是一個行動序列,明確地表征主體程序包含的主體函數(shù)。要以這種方式建立一個理性主體,設計者必須建構一個表,該表對于每個可能的感知序列均包含了適當?shù)男袆?。不過,這種表驅動方法面臨一個自身無法克服的困境,那就是,查詢表(lookup table)會有無數(shù)個記錄需要查找。例如,采用查詢表下棋,可能至少有10150個記錄。⑥如此巨大的數(shù)目,就連可觀察宇宙中包含的原子數(shù)目(小于1080)也相差甚多。這意味著,在這個宇宙中,沒有任何物理主體能夠有足夠空間儲存這種表,沒有設計者有任何時間創(chuàng)造這種表,更沒有任何主體能夠從其經驗中學習正確的表記錄方式;即使環(huán)境簡單得足以產生一個可行的表,仍然沒有設計者有任何依據來填充這個表記錄。盡管如此,表驅動主體的確做了我們想要的,即它執(zhí)行了所期望的狀態(tài)函數(shù)。對人工智能的關鍵挑戰(zhàn)是發(fā)現(xiàn)如何編寫程序,讓該程序在可能的范圍內從一個小程序而不是巨大表中產生理性行為。
目前的人工智能大致有四類主體:簡單反射主體、基于模型的反射主體、基于目標的主體、基于效用的主體。每一類主體都以特別的方式結合特別的成分來產生行動。接下來我們詳細討論這些主體的特性。
第一,簡單反射主體,基于當下感知,忽略其他的感知歷史。前文談到的真空吸塵器就是一個簡單反射主體,因為它的決策僅僅基于當下位置和這個位置是否包含污垢。這種簡單反射行為也會發(fā)生在更復雜的環(huán)境中。假設一個自動出租車司機(機器人司機)前面的小車剎車燈亮了,那么自動出租車司機應該注意這一點并立刻剎車。這就是說,視覺輸入建立了條件(前面的車剎車)來處理某些緊急情況,這種突然發(fā)生的周遭情況啟動了主體程序中某些已建立的連接(立刻剎車的行動)。這種連接就是條件-行動規(guī)則;或境遇-行動規(guī)則;或如果-那么規(guī)則。這也可以寫作:如果(前面的車剎車),那么(立刻剎車)。人類主體也有這種連接,如當某物接近眼睛時我們會眨眼。這種條件-行動規(guī)則允許主體產生從感知到行動的連接。因此,一個簡單反射主體根據條件-規(guī)則行動,該規(guī)則的條件與當下狀態(tài)匹配。它的狀態(tài)程序用區(qū)分及其組合表征就是:(感知函數(shù),行動)→(狀態(tài),規(guī)則)∧(規(guī)則,行動)。
總之,簡單反射主體具有簡單性的優(yōu)點,但它是有限的智能。這種有限智能,僅當在當下感知的基礎上做出正確的決策,即僅當環(huán)境是充分可觀察時,才能起作用。哪怕是一點點不可觀察性,都足以導致嚴重的困難。
第二,基于模型的反射主體,使用一個內在模型,追蹤世界⑦當下狀態(tài)的路徑。處理部分可觀察性的最有效方法是,主體追蹤它不能看見的世界部分的路徑?;蛘哒f,主體應該保持某種內在狀態(tài),該狀態(tài)依賴于感知歷史并反映當下狀態(tài)的某些不可觀察方面。例如剎車問題,其內在狀態(tài)不是太廣,它只是來自攝影儀的先前框架——允許主體發(fā)現(xiàn)車兩側的兩個紅燈何時同時亮或滅。主體的內在狀態(tài)信息,可以通過在主體程序中對兩種知識進行編碼加強。一方面,我們需要某些關于世界獨立于主體如何演化的信息,如超車總是比前一刻更接近目標車;另一方面,我們需要某些關于主體自己的行動如何影響世界的信息,如司機清楚,順時針打方向盤車向右轉,逆時針打方向盤車向左轉。這種關于世界如何運作的知識,就是世界的一個模型,使用這種模型的主體就是基于模型的反射主體。它的主體程序用區(qū)分及其組合表征就是:(感知函數(shù),行動)→(狀態(tài),模型)∧(規(guī)則,行動)。其中,狀態(tài)是主體關于世界主體的當下概念;模型是關于下一個狀態(tài)如何依賴于當下狀態(tài)和行動的描述;規(guī)則是一套條件-行動或如果-那么規(guī)則;行動是最近的行動。主體在行動的過程中,更新狀態(tài)(狀態(tài)、行動、感知、模型)負責創(chuàng)造新的內在狀態(tài)描述,規(guī)則負責匹配狀態(tài)與規(guī)則之間的一致,這些規(guī)則最終引發(fā)行動。
第三,基于目標的主體,追逐世界狀態(tài)的路徑和盡可能達到的目標,并選擇導致它獲得其目標的行動。主體僅知曉環(huán)境的某些當下狀態(tài),這對決定做什么是不夠的。如在岔路口,車是右轉、左轉還是直走,正確的決定依賴于車的目的地。也就是說,當下狀態(tài)的適當描述依賴于正確的目標信息,如乘客的目的地。主體程序能夠將目標與相關模型結合起來選擇達到目標的行動。因此,這種基于目標的主體也是基于模型的。這種基于目標的行動在人工智能中是通過“搜索”和“計劃”實現(xiàn)的。然而,這類決策根本不同于條件-行動規(guī)則,原因在于,它涉及未來因素的考慮,如:“若這樣做會發(fā)生什么?”“這能取得預期效果嗎?”在基于模型的反射主體的設計中,這種信息不是明確地被表征的,因為其內置的規(guī)則是從感知到行動的直接映射,如看到剎車燈亮時,反射主體立刻剎車。一個基于目標的主體,原則上能夠推知,若前面車的剎車燈亮了,其就會減速。若給定這種世界演化的方式,唯一避免撞車的行動是剎車。這樣一來,基于目標的主體似乎有效性弱,因為支持其決策的知識被明確地表征,并能夠被修正。比如,若下雨,主體能夠更新其如何有效操作剎車的知識,這會自動引起所有相關的行動,以改變其主體程序來適應新條件。這也意味著,基于目標的主體的行為容易隨著目標的不同被改變。這就是目標對于主體行為的適應性引導與控制。
第四,基于效用的主體,使用一個世界的模型和一個效用函數(shù),測量自己在這個世界不同狀態(tài)中的性能。這種主體選擇能導致最佳期望獲得的效用的行動,其中所期望的效用是由平均所有可能結果的狀態(tài)計算所得,并由該結果的概率加權評估。這是因為只有目標不足以產生高質量的行動,比如,許多行動序列都能使小車達到其目的地(即達到目標),但是有些更快、更安全、更可靠,甚至更便宜,有些則不是。因此,目標僅僅提供了一個大致的二元狀態(tài)區(qū)分(幸福,不幸福),對于其他狀態(tài)如效用則無能為力。這就需要引入經濟學家和計算機科學家使用的“效用”(utility)概念。一個主體的效用函數(shù)必然使性能指標內在化。如果內在效用函數(shù)和外在性能指標是一致的,那么選擇行動最大化其效用的主體,根據外在性能指標就是理性的。
像基于目標的主體同時也是基于模型的一樣,基于效用的主體同時也是基于模型的。也就是說,模型在這兩類主體的行動中扮演重要的角色。從靈活性和學習角度看,一個基于效用的主體擁有許多優(yōu)勢,而且與基于目標的主體相比,盡管目標對它是不適當?shù)模匀荒軌蜃龀隼硇詻Q定。一方面,當存在沖突的目標時,僅有一些目標可以實現(xiàn),如要安全就會犧牲速度,效用函數(shù)會細化適當?shù)臋嗪?。另一方面,當主體瞄準幾個目標時,沒有一個能夠確定地實現(xiàn),而效用提供了一種方法,即成功的可能性能夠根據目標的重要性做出權衡。
我們知道,部分可觀察性和隨機性在現(xiàn)實世界中是普遍存在的,不確定性視閾下的決策也是如此。一個理性的、基于效用的主體,在技術上選擇這樣的行動,它最大化行動結果所期望的效用,即主體期望獲得的效用,是平均得出概率和每個結果的效用。一個處理效用函數(shù)的主體,能夠用一個通用算法做出理性決策,而通用算法不依賴具體的效用函數(shù)最大化。這樣,理性的普遍定義(主體函數(shù)擁有最高性能)轉變?yōu)榫植肯拗频睦硇灾黧w設計,而這種設計能夠用簡單程序表達。
總之,這種基于效用的主體擁有智能,但并不簡單。它必須給它的環(huán)境和任務建模,并保持與其環(huán)境和任務的聯(lián)系。而環(huán)境和任務包括大量的關于感知、表征、推理和學習的研究,這是人工智能研究一直面臨的艱巨任務。
與理性主體相對應的是任務環(huán)境(task environment),它本質上是理性主體要解決的問題。任務環(huán)境由性能(Performance)、環(huán)境(Environment)、促動器(Actuator)和感知器(Sensor)組成,在人工智能中被稱為PEAS描述。我們仍以自動出租車司機(機器人司機)為例,詳細說明任務環(huán)境在適應性表征中的作用。用區(qū)分表征就是:(出租車司機,任務環(huán)境)→(性能指標,環(huán)境,促動器,感知器)。性能指標包括安全、快速、合法、舒適、收益最大化;環(huán)境包括道路、其他交通工具、行人、消費者;促動器包括轉向裝置、加速器、制動器、信號、喇叭、顯示器;感知器包括攝影器、聲吶裝置、速度表、GPS、里程計、加速器、引擎感知器、鍵盤。任何出租車司機都要面對其任務環(huán)境,將乘客安全、節(jié)約、快速地送達其目的地。除出租車司機外,常見的理性主體有醫(yī)療診斷系統(tǒng)、衛(wèi)星圖像分析系統(tǒng)、精煉控制器、交互英語教師等。它們的任務環(huán)境雖然各不相同,但具有共同的特征。這些特征包括:
第一,充分可觀察性與部分可觀察性。如果主體的感知器在每個點及時與環(huán)境的完全狀態(tài)相聯(lián)系,那么任務環(huán)境就是充分可觀察的。如果感知器探測到與選擇的行動相關的所有方面,那么一個任務環(huán)境是有效的、充分可觀察的,而相關的方面依賴于性能指標。充分可觀察的環(huán)境是方便的和適當?shù)模驗橹黧w不需要保持其任何內在狀態(tài)與自然世界的路徑一致。由于噪音或不準確的感知器,一個環(huán)境可能是部分可觀察的,或者是因為部分狀態(tài)從感知器遺失,比如智能自動出租車不知道其他司機在思考什么。如果主體完全沒有感知器,如人失明,那么環(huán)境是不可觀察的。在此境況下,主體很難實現(xiàn)其目標。但也不是沒有任何可能性,如盲人用導盲犬來實現(xiàn)自己的目標。
第二,單主體性與多主體性。一個自己解決字謎的主體處于一個單主體環(huán)境,而一個下棋的主體處于一個雙主體環(huán)境。一個主體A如出租車司機,一定將一個客體B(另一個裝置)看作一個主體,或者說,它能夠僅根據物理規(guī)律被看作一個行動客體。關鍵的區(qū)別在于:B的行為是否最好能被描述為最大化一個性能指標,其賦值依賴于主體A的行為。例如在對弈中,對手B盡可能最大化它的性能指標,該性能指標根據棋規(guī)則最小化主體A的性能指標。這樣,對弈就是一個競爭性多主體環(huán)境。而在出租車駕駛的環(huán)境中,避免碰撞是最大化所有主體的性能指標。因此這是一個部分合作性多主體環(huán)境,同時也是一個部分競爭性的,因為一個停車位僅能容納一輛出租車。多主體環(huán)境中主體設計的問題,通常不同于單主體環(huán)境的,如交流通常作為理性行為出現(xiàn)在多主體環(huán)境中。在某些競爭性環(huán)境中,隨機行為是理性的,因為它避免了可預測性的陷阱。
第三,決定性與隨機性。如果環(huán)境的下一個狀態(tài)完全由當下狀態(tài)和主體執(zhí)行的行動決定,那么這個環(huán)境就是決定性的;否則就是隨機性的。原則上,一個主體,在一個充分可觀察、決定性的環(huán)境中,無須擔憂不確定性問題,因為這種環(huán)境的定義已經排除了不確定性。然而,如果這個環(huán)境是部分可觀察的,那么它的出現(xiàn)可能是隨機性的。大多數(shù)真實境遇是非常復雜的,以至于我們保持所有不可觀察方面的路徑是不可能的。比如,駕駛車輛顯然是隨機的,因為駕駛員從來不能精確預測交通的行為,而且駕駛員的疲勞和引擎的卡殼等情況也是難以預料的。真空吸塵器是決定性的,但變化可能包括隨機因素,如任意出現(xiàn)的灰塵和不可靠的吸機制。因此,我們說,一個環(huán)境是不確定的,如果它是不充分可觀察的,或者不是決定性的。這里的隨機性蘊含了結果的不確定性,它是由概率來量化的。非決定性環(huán)境是這樣一種境遇,在其中行動是由其可能結果描述的,但沒有任何概率與其相關。也就是說,非決定性環(huán)境描述通常與性能指標相關,而性能指標要求主體對其行動的所有可能結果是成功的。
第四,中斷性與序列性。在一個中斷性的任務環(huán)境中,主體的經驗被分為原子片段。在每個片段,主體接收到一個感知對象,接著執(zhí)行一個單一行動。下一個片段不依賴于在先前片段中被采取的行動。許多分類任務是中斷性的。比如,一個主體,它必須在流水線上發(fā)現(xiàn)有缺陷部分,將每個決定置于流動部分,而不顧先前的決定,而且當下的決定不影響下一部分是否有缺陷。在序列性環(huán)境中,當下決定可能影響未來的決定。棋局就是一個序列性環(huán)境。在這個例子中,短期行動能夠產生長期的結果。總之,中斷性環(huán)境比序列性環(huán)境簡單得多,因為主體不需要提前思考。
第五,靜態(tài)性與動態(tài)性。若環(huán)境在主體深思熟慮時能夠發(fā)生變化,那么環(huán)境對于主體就是動態(tài)的;否則,就是靜態(tài)的。靜態(tài)環(huán)境易于處理,因為主體在決定行動時不需要一直觀察這個世界,也不需要考慮時間因素。而動態(tài)環(huán)境則需要不斷地問主體要做什么,若主體還沒有做出決定,就算決定了什么也不做。如果環(huán)境本身不隨時間變化,但主體的性能評價隨時間變化,那么環(huán)境是半動態(tài)的。例如,開車是動態(tài)的,這輛車與其他車輛一直在運動,而駕駛算法選擇下一步做什么。對弈時計時是半動態(tài)的,字謎游戲則是靜態(tài)的。
第六,可知性與不可知性。這種區(qū)分嚴格講不是指環(huán)境本身,而是指主體或設計者關于環(huán)境的物理規(guī)律的知識狀態(tài)。在一個可知的環(huán)境中,所有行動的結果包括環(huán)境是隨機時的概率結果,是已知的。如果環(huán)境是不可知的,主體就會學習如何工作以做出好的決策。這是一個主體認知探求的過程。需要澄清的是,可知環(huán)境與不可知環(huán)境的區(qū)分,不同于充分可觀察環(huán)境與部分可觀察環(huán)境的區(qū)分。對于一個可知環(huán)境,它很可能是部分可觀察的,如單人紙牌游戲,我們雖然知道游戲規(guī)則,但仍然不能看到沒有翻過來的牌。相反,一個不可知的環(huán)境可能是充分可觀察的,如面對一個未知現(xiàn)象,我們對其充分觀察了但仍不知道其機制。這在科學探尋中是常見的。
第七,離散性與連續(xù)性。離散與連續(xù)的區(qū)分應用于環(huán)境,是狀態(tài)和處理時間的方式,以及狀態(tài)的感知和行動。例如,下棋環(huán)境有一個有限量的確定狀態(tài),下棋本身也有一個感知和行動的離散集。開車是一個連續(xù)狀態(tài)和連續(xù)時間的問題——該車和其他車輛的速度、位置掠過一系列連續(xù)的賦值,且一直這樣流暢地進行下去。開車的動作也是連續(xù)的,如操作方向盤。而數(shù)字攝影儀的輸入嚴格說是離散的,但它被看作是表征連續(xù)變化的強度和位置。
人類能夠自主學習,而前述四類人工智能主體如何成為一種學習主體?如何進行適應性表征?圖靈提出的方法是建立學習機,然后教會它們。這就是學習主體的原型。在人工智能中,一個學習主體包括四個概念成分:評論者(critic)、學習單元(learning element)、性能單元(performance element)和問題發(fā)生器(problem generator)。學習單元和性能單元的區(qū)分是最重要的,前者負責改進,即使用來自評論的反饋,評估主體在如何做,決定性能單元應該如何被修正以便在未來做得更好;后者負責選擇外在行動,即接收感知對象,決定采取行動。學習單元的設計非常依賴于性能單元的設計。當我們試圖設計一個主體來學習某種能力時,第一個問題不是“如何讓它學習”,而是“一旦它學會如何做了,哪類性能單元需要它”。若給定一個主體設計,學習機制就能夠被建構出來以改進主體的每個部分。
評論者告訴學習單元,一個固定性能標準主體如何做得好。對學習單元來說,評論者是必要的,因為感知本身沒有提供任何主體成功的標記。例如一個下棋程序,它能夠接受一個感知標記,如將死它的對手,但它需要一個性能標準知道這是一件好事,而感知本身沒有說明這一點。固定性能標準是重要的。理論上講,性能標準是外在于主體的,因為主體不必修正它來適應自己的行為。
學習主體的問題發(fā)生器負責提出行動,該行動會導致新的、提供信息的經驗。這意味著,如果性能單元有自己的方法,它就會一直選擇最好的行動,好像它知道如何做。然而,如果主體樂意做出一點發(fā)現(xiàn)嘗試,做一些短期未達到最佳標準的行動,那么它可能長期發(fā)現(xiàn)更好的行動。問題發(fā)生器的工作是提議這些探索的行動。這是科學家做實驗時所做的事情。例如,伽利略在比薩斜塔做自由落體實驗時并不認為下落的石頭本身有什么價值,它不是要打破石頭或改變過路人的觀念,其目的是通過確認一個更好的物體運動理論來改變他自己的觀念。
為了使上述的設計更具體,我們仍以自動出租車的例子說明。性能單元由出租車所擁有的選擇它的駕駛行動的知識和程序結合組成。出租車使用這個性能單元在路上行駛。評論者觀察這個世界,將信息傳遞給學習單元。比如,出租車迅速左轉穿過三個車道后,評論者觀察被其他司機使用的語言。由這個經驗,學習單元能夠形成一個規(guī)則,表明這是一個壞的行動,而性能單元由安裝的新規(guī)則改變。問題發(fā)生器由于需要更新可能識別行動的某些區(qū)域,并提出實驗驗證,如在不同的條件下、在不同的路上試著剎車。
上述學習形式不需要使用外在的性能標準,在這個意義上,該標準是與實驗一致的預測的普遍標準。這個境遇對于希望學習效用信息的主體來說有點復雜。假設出租車司機沒有從乘客那里收到任何小費,外在的性能標準必須通知主體,損失的小費對于它的總性能是否有貢獻。此時,主體可能習得,這種行為對它自己的效用沒有貢獻。在某種意義上,性能標準區(qū)分了部分接受的感知作為獎賞或處罰,這為主體的行為質量提供了直接的反饋。像動物的疼痛和饑餓這樣的內在基本性能標準,也能夠以這種方式得到理解。
總之,主體有許多成分,它們在主體程序中能夠以許多方式被表征,這意味著出現(xiàn)了許多學習方法。然而,存在一個唯一統(tǒng)一的主題。智能主體的學習能夠被概括為主體的每個成分的一個改進過程,以使這些成分與可用的反饋信息一致,從而以此提升主體的綜合性能。
接下來的問題是,主體程序的要素是如何工作的?這是人工智能如何表征的問題。為了增強復雜性、提高表達力,人工智能中的基本表征主要有三種:[10](P57~58)原子表征(atomic representation)、分解表征(factored representation)和結構化表征(structured representation)。原子表征是指這樣一個狀態(tài),該狀態(tài)是一個沒有任何內在結構的黑箱,或者說,原子表征是不能再分的任何狀態(tài)。分解表征是指一個由屬性賦值的一個矢量構成的狀態(tài),其賦值可能是布爾真賦值,或者是符號的一個固定集。結構化表征是說,一個狀態(tài)包括許多客體,每個客體都可能有它自己的屬性以及與其他客體的關系。
在原子表征中,世界的每個狀態(tài)是不可分的,沒有任何內在結構。比如開車在地圖上找路,從一個地點到另一個地點,每個都是沒有結構的狀態(tài),每個城鎮(zhèn)都有一個名稱,也就是將一個地點簡化為一個概念,如北京、上海;而每個名稱都是唯一的知識原子、一個黑箱。黑箱可識別的屬性,要么與另一個黑箱同一,要么與另一個不同。支持搜索和博弈的算法、隱馬可夫模型⑧和馬可夫決策過程,⑨都使用原子表征,或至少將其表征看作好像是原子的。
在分解表征中,每個狀態(tài)被分解為一套固定的變量或屬性,每個變量或屬性都有一個值。當兩個不同的原子狀態(tài)沒有任何共同之處時,它們就是不同的黑箱。而兩個不同的分解狀態(tài)能夠共有某些屬性,如小車位于某些具體的GPS位置,這使得它們更容易解決如何將一個狀態(tài)轉換為另一個狀態(tài)。使用分解表征,我們也能夠表征不確定性。例如,忽略小車油箱中汽油的量,可以通過使那個屬性是空的,從而得到表征。許多人工智能的重要領域是基于分解表征的,包括約束滿足算法、命題邏輯、計劃、貝葉斯網以及機器學習算法。然而,出于不同目的,我們需要將世界理解為是其中的不同要素相互關聯(lián)的事物,而不僅是變量及其賦值,這就需要結構化表征。
在結構化表征中,一個客體,如行駛中的小車,它與行駛的卡車及它們之間的不同和變化關系,可以被明確地描述。結構化表征構成相關數(shù)據庫和一階邏輯、一階概率模型、基于知識的學習和自然語言理解的基礎。事實上,人類用自然語言表達的幾乎所有事物都涉及不同物體及其相互間的關系。
概言之,這些不同的表征方式是為了提高表達力。一般來說,一個更有表達性的表征無疑比一個表達性弱的表征要好。更有表達性的語言更精確,例如,棋規(guī)則若用結構化表征語言一階邏輯編寫,可能幾頁就足夠了;若用分解表征語言命題邏輯來寫,可能就需要幾百甚至上千頁了。另外,當這些表征的表達力增強時,推理和學習更為復雜。為了從這些表達性表征中獲得益處而避免它們的不足,真實世界的智能系統(tǒng)需要操作這些表征。
注釋:
①源于拉丁詞agere,意思是做或者行動。因此,agent就是具有自主能力的施動者、行動者或行為體。它可以是人或動物,也可以是機器或自然類物體。
②這是計算復雜性理論中的一個問題,即NPC問題(NP是指非判定性多項式時間)。它是NP中最難的判定性問題。NPC問題也應是最不可能被還原為P(多項式時間可判定)的判定性問題的集合。這是史蒂芬·古克1971年提出并由理查德·卡普1972年證明的問題(卡普證明了21個NPC)。
③這是在人工智能誕生的學術會議結束僅僅兩個月后形成的一個專題討論會,成員有George Miller、Allen Newell、Herbert Simon、Noam Chomsky 等著名人物。
④這里的主體概念是作為一種分析系統(tǒng)的工具,而不是將世界分為主體與非主體或者客體的一個絕對特征。
⑤這是一種if-then推理模式,在邏輯上是一種蘊含推理,人工智能的程序表征幾乎都采取這種模式。
⑦這里的“世界”不是指我們通常意指的自然世界或日常世界,而是一個人工系統(tǒng),如人工智能系統(tǒng)的環(huán)境。它也可以指一個智能主體,如智能機。智能機既是一個系統(tǒng),也是一個世界。一個理性主體就是一個認知系統(tǒng)或一個世界。
⑧隱馬可夫模型(HMM)是指一個時間概率模型,在這個模型中,過程的狀態(tài)被描述為一個單一離散隨機變量。這個變量的可能值是這個世界的可能狀態(tài)。
⑨對于一個充分可觀察的、具有馬可夫轉換模型和附加補償?shù)碾S機環(huán)境來說,一個序列決策問題被稱為馬可夫決策過程(MPD)。它由包括初始狀態(tài)S0的一套狀態(tài)構成;每個狀態(tài)中的行動的一套行動(S);一個轉換模型P(S’∣S,a);一個補償函數(shù)R(S)。
[1] 雷·庫茲韋爾.人工智能的未來[M].盛楊燕,譯.杭州:浙江人民出版社,2016.
[2] 雷·庫茲韋爾.機器之心[M].胡曉嬌,張溫卓瑪,吳純潔,譯.北京:中信出版集團,2016.
[3] 盧西亞諾·弗洛里迪.第四次革命:人工智能如何重塑人類現(xiàn)實[M].王文革,譯.杭州:浙江人民出版社,2016.
[4] 卡爾納普.世界的邏輯構造[M].陳啟偉,譯.上海:上海譯文出版社,2008.
[5] 佩德羅·多明戈斯.終極算法:機器學習和人工智能如何重塑世界[M].黃芳萍,譯.北京:中信出版集團,2017.
[6] Wellman,M.P.The economic approach to artificial intelligence[J].ACM Computing Surveys,1995,27(3).
[7] Searle,J.R.The Rediscovery of the Mind[M]. MIT Press,1992.
[8] 瑪格麗特·博登.人工智能哲學[M].劉西瑞,王漢琦,譯.上海:上海譯文出版社,2001.
[9] Craik,K.J.The Nature of Explanation[M]. Cambridge: Cambridge University Press,1943.
[10] Stuart J.Russell,PeterNorvig.Artificial Intelligence: A Modern Approach(third edition)[M].北京:清華大學出版社,2011.
[11] 杰瑞·卡普蘭.人工智能時代[M].李盼,譯.杭州:浙江人民出版社,2016.