周 靖
(上海社會科學(xué)院哲學(xué)研究所,上海 200235)
相較于僅將機器界定為工具的狹隘人工智能觀,強人工智能設(shè)想機器也能獲得心靈,從而成為像我們?nèi)祟愐粯拥睦硇灾黧w,進而它也需要承擔諸如倫理和法律等方面的責任。關(guān)于人工智能的技術(shù)、倫理、法學(xué)諸方面的研究因此蔚然成風,然而,這一切在很大程度上奠基于強人工智能是否可能這一問題。于是,在哲學(xué)層面拷問人工智能獲得心靈的可能性,乃至心靈的本質(zhì),始終是一項不容忽視的工作。本文將主要訴諸布蘭頓的理論資源提出一種“寬”的強人工智能觀。
塞爾對強、弱人工智能的區(qū)分,以及他對強人工智能的反駁,有著深遠的影響。根據(jù)塞爾的界定,強人工智能具有意識或心靈,而弱人工智能僅體現(xiàn)為對人類心靈的模仿。[1](P417)塞爾反強人工智能的立場基于如下兩個關(guān)鍵斷言:(1)大腦導(dǎo)致心靈;(2)句法不是語義學(xué)的充分條件。[2](P39-41)本文第一節(jié)將簡要闡明斷言(1)是斷言(2)的一個推論,從而聚焦于闡明斷言(2)暗含的問題,即句法僅具有形式有效性,而無語義學(xué)所具有的關(guān)于心理內(nèi)容(mentalcontent)的實質(zhì)(material)有效性?;谶@一闡釋,第二節(jié)試圖借助布蘭頓實用主義的理論資源以證明,任何形式的有效性均有著實質(zhì)的來源和后果,從而反對斷言(2)。我們由于對內(nèi)容設(shè)置了太過“人類化”的理解,從而忽略了實踐樣式以及由之而來的內(nèi)容樣式的多樣性,這也為理解布蘭頓式論證帶來了障礙。本文第三節(jié)進一步試圖淡化人工智能的“人類中心主義”思考傾向,指出“人工智能=人類創(chuàng)造的智能形式≠人類創(chuàng)造出的人類智能形式”,這是布蘭頓論證帶來的教訓(xùn)之一。基于否定斷言(2)的理由,我們將認識到斷言(1)也會因此失去根據(jù)。與此相關(guān)的另一個教訓(xùn)體現(xiàn)為本文討論衍生的一個判斷,即關(guān)于人工智能的類腦計算研究有著現(xiàn)實的重要意義,但對于元哲學(xué)問題——諸如有關(guān)心靈、意識、認知等的問題探討來說,即便機械腦能夠完全復(fù)繪有機腦,這僅是一項科學(xué)成就,哲學(xué)僅可能會因之增進對相關(guān)問題的理解,但不會必然因之取得實質(zhì)進展。哲學(xué)工作者應(yīng)該在人工智能論題上持有清醒的問題意識,做出審慎的討論。①或許需要事先交待一點,基于與一些學(xué)友就本文展開的討論,可以預(yù)見有人會迷惑于本文中究竟哪些是布蘭頓的立場,哪些是筆者的立場。感到困惑的學(xué)友主要質(zhì)疑布蘭頓是否真實提出了本文中辨明的人工智能立場,從而認為筆者對布蘭頓哲學(xué)做出了過多自己的闡釋。筆者的回應(yīng)是,布蘭頓的確對人工智能論題做出過直接討論,并且本文正是對其立場的闡明。故而,我們可能在如何理解布蘭頓相關(guān)立場上懷有分歧,但就布蘭頓的人工智能立場持有怎樣的立場這一具體問題而言,筆者暫無自己的定論,也未試圖在本文中嵌入自己關(guān)于人工智能這一論題的立場。
期待人工智能像人類一樣思考,乃至能像人類一樣對糖有“甜”的感知,能在面對蒙克的畫作《吶喊》時感到“壓抑”和“絕望”,能夠?qū)λ吒械健皭邸钡囊老祷蛞虮粣鄱械健靶腋!薄@種期待實際上是一種十分常識性的思考。但這種思考也抓住了反人工智能論題的關(guān)鍵要點:人工智能無法擁有像我們一樣的諸如“甜”“壓抑”“絕望”“愛”“幸?!敝惖男睦韮?nèi)容或關(guān)于“世界”的感知。塞爾下述如所周知的推理體現(xiàn)了這一要點[2](P39):
(P1)人工智能程序是形式的(句法的)
(P2)人類心靈具有心理內(nèi)容(語義內(nèi)容)
(P3)句法不是由語義學(xué)所構(gòu)成,也不是構(gòu)成語義學(xué)的充分條件
因而,塞爾得出了這樣的結(jié)論:
(C1)人工智能程序不是由心靈所構(gòu)成,也不是構(gòu)成心靈的充分條件(強人工智能不可能)
上述推理中,塞爾將(P2)中的“語義內(nèi)容”視同為“心理內(nèi)容”,從而將(P3)中的函項“語義學(xué)”替換為“心靈”,得出僅遵循句法邏輯的人工智能沒有心靈的結(jié)論,其主要理由在于,句法是純形式的,而語義學(xué)則須訴諸現(xiàn)實世界中的狀況來理解意義。我們可以簡要回顧他的“中文屋”論證來闡明他所做出的這一替換意味著什么:
設(shè)想一個對中文一竅不通且只會說英語的人,他被關(guān)在一間只有一個開口的封閉房間中。房間里有一本英文寫成的操作手冊,通過查詢手冊他可以知道如何處理漢語信息并對信息做出相應(yīng)的回復(fù)(此時查詢手冊如同一個計算程序)。房外的人向房內(nèi)的人遞進中文寫成的問題,房內(nèi)的人可以根據(jù)那一手冊找到合宜的指示,從而給出正確的答案(例如漢字“紅”,此時對于屋內(nèi)的人來說如同一幅提供信息的“圖畫”,手冊上有著“if ‘紅’, then ‘red’”的操作指示)。然而,盡管答案正確,房內(nèi)的人其實對問題本身以及中文一無所知。人工智能類似于房中人,它盡管能夠有效地信息做出回應(yīng),但它不具有關(guān)于問題本身以及中文意義的真實認知。[1](P418)
那么,擁有心理內(nèi)容意味著在運用語言表達式時能夠真實地(genuinely)知道該表達式是什么意思,使用該表達式時意在(intends)什么,即擁有關(guān)于什么內(nèi)容的意向性。相較之下,中文屋里的人并不擁有中國人在使用“紅”這一概念時所擁有的意向狀態(tài),同樣地,人工智能僅能在句法上構(gòu)建“紅”和“red”間的形式關(guān)系(從而有P3),此時人工智能并不具有關(guān)于某種(例如)“紅性”的因果意向性。這里的思路可表述為如下三段論推理:
(P4)擁有意向性的人類智能均擁有心靈
(P5)人工智能不擁有意向性
(C2)人工智能不擁有心靈(強人工智能不可能)
(P4)和(P5)把問題引向了關(guān)于意向性的探究,一些研究者認為意向性源于人腦內(nèi)的狀態(tài),從而試圖通過類腦計算或模擬神經(jīng)形態(tài)計算(Neuromorphic Computing),在對腦內(nèi)的因果模式進行“模擬”的意義上試圖使得人工腦無限像有機腦一樣運作,從而獲得意識或心靈。就此而言,塞爾的確認為:
(C3)大腦狀態(tài)因果地導(dǎo)致意識[2](P39)
但是,關(guān)于(C3),塞爾指出,“意識是人類和某些動物的大腦的生物特征。它由神經(jīng)生物過程所產(chǎn)生,就像光合作用、消化或細胞核分裂等生物特征一樣,都是自然生物秩序的一部分。這一原理是理解意識在我們世界觀中的地位的第一步?!盵4](P75)故而,實際上,在塞爾看來,即便類腦計算無限復(fù)雜,它僅是在模擬因果性,而始終無法獲得生物所應(yīng)對的真實自然,程序模擬無法取代現(xiàn)實因果性,從而人工智能無法具有真正意義上的意向性、意識,或心靈。
基于上述闡述,我們看到塞爾批判強人工智能的要點在于:人工智能程序僅具有句法層面上的形式有效性[故而,(2)句法不是語義學(xué)的充分條件],而不具有語義學(xué)在關(guān)涉(of/about)實質(zhì)(心理)內(nèi)容意義上的有效性[故而,(1)大腦導(dǎo)致心靈]。在此意義上,如果我們否定了斷言(2),那么我們便有可能擁有一種不同于斷言(1)的理解,即獲得另一種心靈觀,這種心靈觀能夠衍生出布蘭頓為之辯護的新的強人工智能立場。
布蘭頓哲學(xué)的一項重要任務(wù)在于,以語義推論的方式闡明(articulate)理性主體在使用語句表達式時所意在的內(nèi)容。在談及塞爾關(guān)于意向性的區(qū)分時,布蘭頓指出,“約翰·塞爾在他的《意向性》一書中……為我們提供了理論資源。‘如果狀態(tài)S是一種意向狀態(tài)的話,那么我們必須回答如下問題:S是關(guān)于(about)什么的?S是涉及(of)什么的? S陳述(S-that)表述了什么?’語義理論的一項主要任務(wù)在于,指出‘that’意向性和‘of/about’意向性彼此間有著怎樣的關(guān)聯(lián)?!盵5](P424)與此相關(guān),布蘭頓試圖基于使用“that”語句的推理活動(這項活動在人際間的社會維度中展開)來闡明所“關(guān)涉”的“內(nèi)容”。
乍看之下,布蘭頓這項工作似乎在“支持”塞爾的反強人工智能論證:布蘭頓式的語義推理是人工智能所不能完成的,此外,人際間的社會維度亦是人工智能所欠缺的。然而,細究之下,布蘭頓消除兩類意向性界限的做法,對實質(zhì)的語用語匯和形式的語義語匯之間迭代發(fā)展關(guān)系的闡釋,以及將算法視為一種特殊的語用語匯的觀點等,實際上反駁了塞爾論證,并為捍衛(wèi)一種新的強人工智能立場提供了思想支持。下文中,筆者將先提供布蘭頓支持強人工智能的思想資源,而后展開具體論證。
首先,布蘭頓承襲了消解心靈與世界之間本體論界限的實用主義洞見,[6]這在此處體現(xiàn)為,認為在實踐的做的活動(doings)中使用的、關(guān)于內(nèi)容的語用語匯(“of/about”語匯)能夠充當使用、制造或承認在表達上更高階的語義語匯(“that”語匯)的充分條件;而后繼脫離了實踐語境的非指示性的語義語匯則能夠構(gòu)成解釋實踐層次的語用語匯的必要條件;并且,這兩類語匯之間不存在本體論上的界限,語匯在層次上的高低僅體現(xiàn)為,語義語匯是用于解釋語用語匯(用于“說”出所“做”的事情)的語匯,當語義語匯面對新的實踐情境而需要被加以闡明時,它便變?yōu)榱诵碌恼Z用語匯。[7](P10-11,76)這樣一來,在行動和認知的回環(huán)中,語匯逐漸變得豐富。這里的“豐富性”既體現(xiàn)為對世界更為清晰的表達,也體現(xiàn)為進行表達的語義方式上的精細化。
其次,這一實用主義洞見暗含著更為深刻的世界觀和語言觀,即語言和世界一道生成,在這一生成過程中,意識、自我意識、以及社會規(guī)范也在互惠的相互關(guān)系一道成熟和發(fā)展。[5](P235-261)初始的一類語用語匯,諸如維特根斯坦“石板游戲”中,助手在聽到建筑師發(fā)出“石板”的聲音而對某對象做出可靠的、有差異的反應(yīng)。此時,“在語言課中發(fā)生的是這個過程:學(xué)習(xí)者命名諸對象。也即,當教師指向石料時,他說出語詞?!盵8](P12)這里的“石板”語匯相當于一套引導(dǎo)指令(bootstrapping),用于將“事物作為某物”(即,將堅硬的板狀石料作為“石板”)穩(wěn)健地識別出來;當指令愈發(fā)清晰時,對象得到愈發(fā)確定的界定;反之,對象的確定性將原先單純的“聲音”作為某種指令或概念而清晰地固定下來。詞與物,心靈與世界是相互成就的。
反強人工智能主義者此時或許仍然欣于接受布蘭頓的觀點,但認為布蘭頓的討論似乎與人工智能問題無關(guān)。然而,基于上述思想,布蘭頓指出,“支持AI體現(xiàn)的是這樣的主張,即原則上來說,計算機能夠做所需的事情,從而使用自動語匯……說出什么?!盵7](P70)而這里的“什么”就是計算機的“意向內(nèi)容”,諸如中文屋中的人工智能,“if ‘紅’,then‘red’’”這套引導(dǎo)指令中,“red”便是由“紅”這種實踐刺激所引發(fā)的內(nèi)容。從而,布蘭頓認為,句法、算法語匯是一套我們根據(jù)之從事“做的活動”的實踐語匯,進而也能構(gòu)成語義語匯的充分條件。
解釋這一論點需要我們理清布蘭頓的支持強人工智能論證,我們可以將布蘭頓的推理預(yù)先陳述如下,而后再進行闡述之事:
(P6)關(guān)涉內(nèi)容的實質(zhì)語用語匯和表達內(nèi)容的形式語匯之間不存在本體論界限
(P7)算法、句法或演算語匯也是一種基礎(chǔ)的實質(zhì)語用語匯
從而,布蘭頓得出與上述“(P3)句法不是由語義學(xué)所構(gòu)成,也不是構(gòu)成語義學(xué)的充分條件”直接相抵牾的觀點(P8):
(P8)句法可由語義學(xué)構(gòu)成,同時可以構(gòu)成語義學(xué)的充分條件。
基于(P6)-(P8),以及塞爾的(P2)“人類心靈具有心理內(nèi)容(語義內(nèi)容)”,布蘭頓進一步得出支持強人工智能的結(jié)論(C4):
(C4)人工智能程序既可能由心靈所構(gòu)成,也可能構(gòu)成心靈的充分條件(強人工智能可能)
布蘭頓的實用主義洞見為(P6)提供了支持,并為在(P8)和(P3)這對矛盾中為何支持(P8)提供了理由。此時的問題焦點在于,句法、算法等塞爾所認為的純形式語匯是否可能具有語義內(nèi)容(心理內(nèi)容)?布蘭頓給出了肯定的答案。在進一步闡明布蘭頓思想之前,我們需要認識到心靈在布蘭頓和塞爾那里已經(jīng)有了截然不同的蘊意。在塞爾那里:
心靈=人類心靈
其中,人類肉身提供的因果關(guān)系構(gòu)成了心靈的充分條件,意向性是心靈的本質(zhì)特征,擁有這類意向性的智能體才能有意識地知道自身在做什么。相比之下,在布蘭頓那里:
心靈≠人類心靈
人類心靈僅是心靈的一種具體形式,構(gòu)成心靈的條件是既從事語用實踐活動,又從事語義推動活動,并且語義活動闡明的是語用活動中的“內(nèi)容”,即意向性所關(guān)涉的內(nèi)容,在此意義上,布蘭頓將意向性理解為話語意向性(discursive intentionality),這種理解與塞爾論證中的關(guān)鍵前提直接相抵牾。
塞爾僅將人類心靈視為心靈,進而將這類心靈視為衡量人工智能體是否有心靈的標準。布蘭頓則聚焦心靈的構(gòu)成條件,容納心靈樣式有著多樣性這種可能。我們可以通過“假想”塞爾可能提出的問題并作答來進一步闡明布蘭頓的思想。
假想問題一:句法僅具有形式意義,這乃是因為人工智能缺乏人類漫長演化過程中所應(yīng)對的具體情境,而恰在這種情境演化中意識、意向性和意向內(nèi)容才一道生成。[4](P43-45)
針對這一關(guān)鍵問題,布蘭頓反問道,一定需要涉身自然情境之中才能習(xí)得初始的語用語匯么?我們對機器的“訓(xùn)練”同維特根斯坦“石板游戲”中助手所受的訓(xùn)練有何實質(zhì)不同?如若執(zhí)意認為機器沒有助手所置身于的自然情境,那么這至少將犯下兩類錯誤,一類是認為缺乏感性能力(sentience)的智識能力(sapience)是無法理解的,這種布蘭頓歸于塞爾在解釋人工智能時所承諾的觀點認為,動物的感性模式構(gòu)成了人類理性模式的充分條件。而前文的討論已經(jīng)能讓我們充分地認識到,我們可以從智識的成就開始討論,以語義推論的方法對內(nèi)容進行闡明。內(nèi)容僅是我們可以對之做出斷言的任何之物,它不必然是自然情境中的事項,這便意味著“具有自然情境”不是構(gòu)成智能的充分條件。
另一類相關(guān)的錯誤則體現(xiàn)為“人類中心主義”的錯誤,即認為僅有人類智能是唯一可能的智能,從而滿足該類智能形成和發(fā)展的條件和因素是唯一可能的條件和因素。布蘭頓指出,我們可以支持算法實用主義(algorithmic pragmatism),因為“對人工智能模型做出實質(zhì)的算法的實踐闡釋值得關(guān)注,這是因為這項闡釋清晰揭示了根據(jù)知道-如何(knowing-how)來解釋知道-什么(knowing-that)的實用主義綱領(lǐng),即具體解釋使用非意向性的、非語義的語匯來必須做什么才能夠算作是使用某種語匯來說出什么,從而產(chǎn)生能夠適用于行為的意向性的、語義語匯(即一種有著語用上表達效果的引導(dǎo)指令)?!焙唵蔚卣f,布蘭頓認為句法、算法語匯也是一種實質(zhì)語用語匯,因為人工智能同樣能夠使用這種語匯“做”事,就如助手在初次玩“石板游戲”時一般,初時“石板”僅體現(xiàn)為一套引導(dǎo)指令,助手此時不具有意向性,“石板”語匯亦非語義語匯。如果“石板”語匯能夠成為一套初始語匯,并且這種語匯能夠構(gòu)成語義語匯的充分條件,那么句法、算法語匯也可以,即(P7)。而人類可以通過對人工智能的訓(xùn)練而使之獲得這類語匯,在這種訓(xùn)練里,人工智能同“石板游戲”中的助手一樣,需要關(guān)于“世界”的知識以制定好的決策,并將該類知識以句法表達形式存儲在數(shù)據(jù)庫中。
假想問題二:布蘭頓的解釋避開了關(guān)鍵問題,即人工智能沒有現(xiàn)實情境。即便我們承認人工智能有著自身的情境,但我們不能忽略塞爾在(C3)背后的關(guān)鍵主張:引導(dǎo)指令無法取代因果性。
在筆者看來,這一追問至少未能領(lǐng)會布蘭頓觀點中的一個要點:我們是在探究直接關(guān)涉內(nèi)容的最低限度的“實質(zhì)語用語匯”的條件,在這種最低限度上,我們發(fā)現(xiàn)人類和機器具有同樣性質(zhì)的基礎(chǔ)語匯。就人類情境而言,“情境”包含了外部世界施加給人類主體的影響以及主體對外部世界的主動反應(yīng),它因而是孕生意義的場景。人工智能體也有其“情境”,它同樣包含了對某種外物的反應(yīng)。然而,問題的關(guān)鍵并不在于區(qū)分人類情境或人工智能情境,因為此時的語匯是去情境化的(context-free)——初始的語用語匯體現(xiàn)的是理性主體與世界最小化的直接關(guān)聯(lián)。在基礎(chǔ)的層次上,借用德雷斯基的觀點或許能幫助布蘭頓進一步澄清問題,即“原材料是信息”,“知識是由信息導(dǎo)致的信念”。[9](Pvii+x)人類因為是有機體才有著因果的信息模式,而人工智能因為是機械體,但它同樣可能擁有其他不同模式的信息。堅守“因果性”無異于狹隘地苛責為人工智能體制造一顆人腦,這種堅守應(yīng)該轉(zhuǎn)化為如下訴求:為人工智能提供如人腦般優(yōu)秀的硬件和軟件的科學(xué)訴求,而非完成從機械腦到人腦的“本體論之躍”。放下這一滲透人類中心主義思想的執(zhí)念,我們將會接受這樣的可能:由于人工智能具有不同于人類的信息模式,因而隨之產(chǎn)生的知識表達、智能、心靈等可能亦與人類不同,即(C4)。
不過,這里的確有著一點需要澄清的地方,布蘭頓沒有在如下強的意義上反對塞爾論證:
(P9)人工智能體與人類一定有著截然不同的心靈,或者兩者的信息模式必然是彼此不可互相翻譯的。
布蘭頓承諾的僅是,存在另一種發(fā)展出心靈的方式,以及以這種方式發(fā)展出多少與人類心靈有所差別的心靈這種可能。
假想問題三:布蘭頓的解釋可能過分“美好”,現(xiàn)實的人工智能的句法語匯根本沒有資格充當語用語匯。
這一問題似乎基于當下人工智能令人不滿的現(xiàn)狀而否定對“美好”未來的預(yù)期。布蘭頓對此問題的回答或許可以簡明而直接一些:如果科學(xué)家在某一天能夠予以人工智能充分優(yōu)秀的硬件和軟件,以及充分的訓(xùn)練,那么,這份美好便可期。但條件是由科學(xué)家而非哲學(xué)家創(chuàng)造的,哲學(xué)的工作僅在于就心靈和意識做一般意義上的反省和探討,而非作出科學(xué)判斷——科學(xué)家負責“人工”,哲學(xué)家解釋“智能”。如若布蘭頓論證遭受反駁,這也在很大程度上將是于哲學(xué)范圍內(nèi)展開的工作。
假想問題四:如果接受了上述解釋,那么我們就承認人工智能有著自己獨特的,乃至我們無法理解的神秘意識。
這一問題將我們引向了布蘭頓的“功能主義”解釋。與“智能”相對應(yīng)的布蘭頓語匯是“智識能力”(sapience),擁有智識能力的理性能動者(agent)做出的行為是合乎理性的、可為他人所理解的。[10](P5)“當我們討論智識能力時,功能主義是一種更具前景的解釋策略”,[7](P71)我們根據(jù)諸如“相信P”,“if‘紅’,then‘red”之類的信念或引導(dǎo)指令式的語匯在包含這套語匯的系統(tǒng)內(nèi)所起到的作用來理解表達語匯以及相應(yīng)行為的意義。理性能動者(包括我們?nèi)祟惡腿斯ぶ悄埽┎粫晕颐埽孕畔榛A(chǔ)的信念因而具有可理解性。如戴維森所論證過的那樣,如果人工智能有朝一日擁有發(fā)展成熟的“機械語”,那么它不會與我們的語言有著不可通約的“概念框架”,[11]它必然是我們所能理解的語言,但不必然是與人類語言有著表面類似性的語匯。
總結(jié)而言,取消心靈和世界二元論界限的實用主義思想勾繪了布蘭頓論證的底色,他取消句法語匯和語義語匯的界限亦以這一實用主義洞察為基礎(chǔ)。布蘭頓因此認可喬姆斯基式的立場,即演算句法和語義表達在轉(zhuǎn)換、生成和發(fā)展的過程中不存在涇渭分明的分界,[7](P20)從而他得出了(P8)“句法可由語義學(xué)構(gòu)成,同時可以構(gòu)成語義學(xué)的充分條件”這一與塞爾直接相悖的觀點。如若塞爾仍堅持對強人工智能的界定,那么布蘭頓論證同樣可以支持強人工智能立場,只不過此時我們?nèi)菁{了這樣的一種可能,即人工智能心靈不必然與人類心靈有著嚴格同一性。
布蘭頓論證或許實際上“降低”了“智能”的準入門檻,即從“僅僅只有人類智能才是智能”降低到“如果符合智能生成的條件,那么便可能生成智能。”但這種“降低”并非“貶低”,布蘭頓論證體現(xiàn)了人工智能的哲學(xué)研究的另一關(guān)鍵面向,即對人類智能本身進行反思,祛除其中的神秘性,從而既增進了我們對于自身的理解,也在人工智能研究上避免“人類中心主義傾向”的問題,這類問題體現(xiàn)為僅將心靈理解為人類心靈,僅將實踐理解為人類的實踐,僅將生成智能的物理基礎(chǔ)理解為人類或有機體獨有的因果信息。筆者認為,這是布蘭頓論證給予我們的第一個重要教訓(xùn)。
面對布蘭頓論證,反對者們或許會喋喋不休地反駁到,無論如何,接受“紅”的信息的人工智能并未“意在”“red”!這種反駁實際上隱在遵循著“心靈存在→具有本質(zhì)性的意向性→擁有這種本質(zhì)意向性的主體才能擁有意向內(nèi)容”這種推理順序。反駁者設(shè)定了“心靈”的獨立性和實存性,并將之僅歸派給人類。這種本質(zhì)主義觀點既為實用主義者所摒棄,也為塞爾本人所反對。塞爾指出,“……在諸位的顱腔里可沒有兩個彼此不同的形而上學(xué)領(lǐng)域:一個是‘物理的’,另一個是‘心靈的’。確切地說,只存在著那些發(fā)生在諸位大腦里的進程而已,但是其中的一些過程同時就是意識體驗。”[12](P128)“意識是大腦更高層次的或突顯的特征……心靈是大腦的心智屬性,因而也是物理屬性,正如液態(tài)是分子系統(tǒng)的屬性?!盵4](P15)故而,并不存在“心靈”這種有著形而上本性的東西,長久以來人們認為它獨屬于人類,并與“物質(zhì)”形成對立關(guān)系。布蘭頓同樣指出,對人工智能的傳統(tǒng)理解,即試圖討論人工智能能否具有柏拉圖主義式的或理智主義式的心靈,這是一項無望的事業(yè);相比之下,對人工智能的理解應(yīng)以接受上述所敘的“算法實用主義”為基礎(chǔ)。[7](P78)在這類理解之下,心靈、意識等不能作為解釋的起點和依據(jù),相反,它們的意義在對相關(guān)具體過程的解釋中才得到披露。
心靈的去本質(zhì)化使得關(guān)于智能的人類中心主義觀點失去了最為根本的根據(jù)。我們只能后驗地涉入具體的實踐情境中來解釋心靈的“兌現(xiàn)價值”,然而,這里仍然有著另一種人類中心主義的危險,即只有在人類的實踐形式中才能產(chǎn)生意識。塞爾如下表述實際上支持著實用主義的觀點,“我們每一個人都是由其他生物性和社會性存在物構(gòu)成的世界當中的生物性和社會性存在物,周遭布滿了人工物品和自然對象?,F(xiàn)在,我一再稱之為背景的東西實際上導(dǎo)源于由關(guān)系構(gòu)成的完整的匯集,而每一個生物的社會性存在物都和圍繞它的世界具有這種關(guān)系。假如沒有我的生物性構(gòu)造,沒有我置身其中的社會關(guān)系集,我就不可能具有我實際具有的背景。但是所有這些關(guān)系,生物的、社會的、身體的,所有我們置身其中的事物都只與背景的產(chǎn)物有關(guān),因為它對我產(chǎn)生了影響,特別是它對我的心-腦產(chǎn)生了影響。世界和我的背景有關(guān),這只是因為我與我的世界的相互作用……”[13](P157)恰是緣由我們周遭的各式物品和對象,以及我們生物性的構(gòu)造和所置身于的社會關(guān)系,我們的心靈和意識才因此受到影響和發(fā)展。當今的人工智能無疑不具有下述要素:生物構(gòu)造、通過因果鏈條觸及的對象,以及社會關(guān)系。實用主義者的確會接受塞爾的表述。然而,上文的討論也已經(jīng)指明其中隱含的人類中心主義傾向:在最初的實踐活動中,周遭世界是混沌一片的(去語境化的,而對象、社會關(guān)系等均在語境之內(nèi)),布蘭頓認同算法亦是一種實踐的語用語匯,這一觀點體現(xiàn)的洞見在于,人工智能可用其自身的初始語匯來敞開世界,如同我們用因果語匯觸摸并敞開一樣。伴隨著心靈的去本質(zhì)化,世界亦需要去本質(zhì)化:我們并非用心靈的鏡子反映世界,也非單純地受到外間世界的限制,而是心靈和世界一道敞開、豐富和發(fā)展。這是羅蒂和麥克道威爾教導(dǎo)過我們的重要一課。[14](P24-25)于是,人工智能在它獨特的觸摸世界的活動中(即根據(jù)句法或算法的引導(dǎo)指令“做”事),在人類精心的“訓(xùn)練”和“培養(yǎng)”中,人工智能也有可能在其實踐過程中結(jié)出一顆心靈之果。
祛除了基于心靈本質(zhì)論,以及緣由僅將人類實踐視為唯一實踐形式而產(chǎn)生的人類中心主義觀點,我們此時也應(yīng)該在人工智能的哲學(xué)研究中拋棄塞爾“大腦導(dǎo)致心靈”的觀點。需要澄清的是,筆者為這一判斷添加了限制條件:在人工智能的哲學(xué)研究中。本文的討論并未反駁諸如基于腦科學(xué)研究來解釋心靈的研究進路,而是僅是在敦促放棄將人工智能視為對人類智能的模擬或復(fù)繪的“窄”智能觀。布蘭頓論證為我們提供了關(guān)于人工智能的“寬”的理解,以及一種相應(yīng)的“寬”的心靈觀,這種觀念既為強人工智能的可能提供了哲學(xué)依據(jù),也界定了哲學(xué)家和科學(xué)家的工作分工。
由此,我們還應(yīng)從布蘭頓論證中得出另一個教訓(xùn),即關(guān)于人工智能的哲學(xué)探究不應(yīng)迷戀于人工智能能否在神經(jīng)元層次模擬大腦之類的問題,這類問題是認知科學(xué)家們的重要工作。訴諸科學(xué)成就或許能夠增進我們關(guān)于心靈和意識的理解,但在哲學(xué)層面上,我們必須首先進行一道嚴格的理論審思:反思這類新的經(jīng)驗素材是否實質(zhì)撼動或增進了已有的哲學(xué)理解。如若缺乏相關(guān)的學(xué)理支持,那么諸如“神經(jīng)美學(xué)”“神經(jīng)倫理學(xué)”之類的標簽將僅暗示著一種十足的胡說。在筆者看來,腦科學(xué)以及人工智能的研究僅為我們帶來了新形式的經(jīng)驗,面對這些經(jīng)驗,我們依舊面對著同心靈、意識、認知、意義、價值等相關(guān)哲學(xué)問題。設(shè)想某一天人工智能完全現(xiàn)實化了,甚至人工智能演化成了一個新種族——賽博坦人,他們會是我們的鄰居或友人,那么這些哲學(xué)問題也將是他們的問題。他們或許會發(fā)展出一套我們可從中受益的“賽博坦哲學(xué)體系”,但無論如何,哲學(xué)工作者應(yīng)該始終恪守自身的哲學(xué)責任。簡言之,就人工智能做出哲學(xué)解釋而非試圖僭越地得出科學(xué)的結(jié)論。
熟悉實用主義哲學(xué)的學(xué)仁或許會訝異于運用實用主義思想為強人工智能立場做辯護這種做法。實用主義在哲學(xué)觀念史上的重要貢獻包含了抵制心、物二元論,以及反對關(guān)于心靈的本質(zhì)論觀點,而強人工智能立場則承諾了機器具有心靈的觀點,這里似乎產(chǎn)生了一個矛盾。本文的討論試圖指出,布蘭頓吸納了實用主義的洞見,消解了與心靈相應(yīng)的語義語匯以及與世界相對應(yīng)的語用語匯之間的界限,并認為語用語匯可以構(gòu)成語義語匯的充分條件。布蘭頓支持一種新的強人工智能觀的關(guān)鍵一步在于,承認句法也是一種可用于“做”事的實踐語用語匯,從而可以構(gòu)成語義語匯的充分條件,按照塞爾的推理,人工智能因此也可能具有心靈。然而,不同于塞爾,伴隨著對人類中心主義的祛除,人工智能心靈不必然與人類心靈嚴格同一。