馮怡博,劉寶杰
(曲阜師范大學(xué) 政治與公共管理學(xué)院,山東 日照 276826)
馬克思曾經(jīng)說過:“人的本質(zhì)不是單個人所固有的抽象物,在其現(xiàn)實性上,它是一切社會關(guān)系的總和”。隨著社會的發(fā)展,人們對交流的需求會不斷增加,特別是一些情感缺失的人,他們對社交的需求會更加強烈。在“弱人工智能時代”不斷走向“強人工智能時代”的過程中,出現(xiàn)了能夠和人交流的社交機器人。社交機器人是在遵循符合自己身份的社交行為和規(guī)范下,與人類或其他自主的實體進行互動與溝通的機器人,社交機器人的類型有伴侶機器人、教育機器人、醫(yī)療機器人、娛樂機器人、服務(wù)機器人等。人同社交機器人交流的過程我們稱之為跨實體交流,跨實體交流是社交機器人利用人工智能情感技術(shù),對使用者進行情感識別,通過相應(yīng)的情感計算,再對使用者進行情感輸出的過程。隨著人工智能技術(shù)的不斷發(fā)展,社交機器人逐漸被應(yīng)用于各個領(lǐng)域,像日本軟銀公司發(fā)明的幫助老人和殘疾人士的機器人“羅密歐”、本田公司的服務(wù)機器人“ASIMO”、軟銀公司能夠識別人類的情緒與人交談甚至還能和人一起跳舞的機器人“Pepper”。技術(shù)的進步使社交機器人的“情感”越來越真實,越來越“擬人化”,人們同社交機器人的交流也越來越像和人交流一樣,但是,社交機器人同人的交流是真實的嗎?本文根據(jù)馬克·科克爾伯格(Mark Coeckelbergh)所提出的三個角度論證了社交機器人具有欺騙性。其一,機器人存在的目的是欺騙人類的情感;其二,機器人的情感不是真實的;其三,機器人假裝成為另一個實體。[1]3最后得出結(jié)論:社會在發(fā)展,時代在進步,人類應(yīng)不斷增強社交機器人“為我服務(wù)”的能力,發(fā)揮其對人類的獨特作用。
何為欺騙?欺騙與謊言是不同的,欺騙意味著使人相信本不該相信的東西,只有目標者相信了“謊言”才算得上欺騙,機器人的欺騙也是如此,“如果一個人相信一個社交機器人有情感并關(guān)心他們,那么他們就是被欺騙了:即使沒有人明確地有意相信這種想法?!盵2]機器人同人之間的欺騙和人與人之間的欺騙是有區(qū)別的,在人與人的欺騙中欺騙者和被欺騙者之間的關(guān)系是主動與被動的關(guān)系;而機器人和人之間的欺騙關(guān)系是被動與被動的關(guān)系,這是因為在跨實體交流的過程中“也許社交本身并沒有任何“意圖”,但是其集非生物體性和擬人化為一身的特征導(dǎo)致了來自于機器人的虛擬情感和來自于人的真實情感關(guān)系的失衡,這種虛擬與真實之間失衡的、不對等的情感關(guān)系就體現(xiàn)為一種欺騙關(guān)系?!盵3]58也就是說這種欺騙關(guān)系的發(fā)生責(zé)任并不在于機器人本身,而在于機器人的設(shè)計、制造方,它是設(shè)計、制造人員“強迫”機器人的欺騙,設(shè)計、制造人員把非生物性的機器人變得越來越擬人化,使得這種欺騙變成一種“干擾”,干擾使用者的視覺、神經(jīng)反應(yīng)等主觀意識,使目標者的主觀意識認定與機器人的交流符合正確的價值觀。這種“干擾”主要體現(xiàn)在兩個方面:一方面,社交機器人被逐漸設(shè)計成類人的形象,是一種外部“干擾”,這種“干擾”是基于視覺上的真實目的;在情感交流的過程中一個更像人的機器人要比一個“非人類”的機器人更具有“欺騙性”,進而使“社交機器人欺騙的目的”更加真實。舉個簡單的例子,“雖然機器人不需要模仿人類功能的眼睛來吸引人類的注意力,但很多研究都致力于機器人如何進行社交眼睛的注視?!盵4]25這主要因為在人與人交流的過程中,眼神的交流會增加交流者之間的情感,社交機器人的設(shè)計本可以不給予“眼睛”,但給予社交機器人“眼睛”是設(shè)計制造人員主動地給予,社交機器人被動地接受,他們的目的就是增強人機交流的情感真實性,促使社交機器人“欺騙”的真實性。另一方面,是增強“情感計算”的研發(fā),設(shè)計人員為了使社交機器人的“情感”更加真實,他們會不斷地追求技術(shù)上的極致化而模擬人類的情感,但機器人同人之間的交流本質(zhì)上并不是基于真實情感的,人同機器人交流過程的基礎(chǔ)條件是流暢的交流過程,如果說不追求極致的交流的真實情感,那么僅僅“無情感”的流暢交流會滿足大部分人的社交需求,而不斷加大對“情感計算”的研發(fā),會使社交機器人的交流方式越來越趨于人,那么會給人們造成一種錯覺,在人同社交機器人的交流過程中,人們的意識會逐漸錯誤地意識到“社交機器人可能就是人”,使社交機器人的“情感”更加真實,以達到欺騙的目的。
達納赫爾(J.Danaher)將機器人的欺騙分為兩種:完全的欺騙和部分的欺騙?!爱?dāng)一個人相信社交機器人不是機器人時,完全的欺騙就發(fā)生了?!盵5]282“當(dāng)一個人對機器人的本質(zhì)有一個理性的理解,但在潛意識層面忍不住對它作出回應(yīng),就像它是真實的一樣,就會發(fā)生部分欺騙?!盵5]282但無論是把社交機器人的外觀設(shè)計成人的形象還是不斷加大對“情感計算”的研發(fā)都是為了達到部分欺騙,這是因為機器人欺騙成功與否不僅僅是社交機器人的原因,使用者可能需要這種欺騙來滿足自身的情感需求。當(dāng)設(shè)計師把社交機器人的外形和“情感”設(shè)計得更加“擬人”時,雖然人們在理性上能夠認清社交機器人的本質(zhì),但隨著時間的推移,目標者對“欺騙”本身的認知感逐漸變得模糊,在潛意識上忍不住對它作出情感回應(yīng),最終目標者使自身相信了這種“欺騙”,這時我們便被動地處于部分的被騙狀態(tài)。部分的欺騙也可能會向完全的欺騙過渡,隨著時間的推移,人們長期處于這種交流的“欺騙”當(dāng)中,主觀意識會逐漸變得模糊,他們會逐漸把社交機器人當(dāng)成一個“社會主體”,造成人類本身的價值觀發(fā)生改變。
情感分為外部情感和內(nèi)部情感,外部情感可以理解為“為了溝通和社會協(xié)調(diào)的情感表達”,內(nèi)部情感可以理解為“為了行為組織的情感?!盵6]559外部情感是表象的,內(nèi)部情感是意識的。針對這個問題我們首先從情感表象來分析,情感表象是情感的外部真實反應(yīng),那么如何對情感進行外部反應(yīng)呢?在解決這個問題之前我們要知道情感是什么,“情感是一種主觀感受,但它與被動的感官知覺不同,代表著我們對觀察或經(jīng)歷的情境的反應(yīng),能為我們的行動提供動力和指引,是海德格爾所說的“在世”與環(huán)境發(fā)生關(guān)聯(lián)的方式。”[7]145情感表象就是對觀察和經(jīng)歷的主觀感受的外部呈現(xiàn)。社交機器人根據(jù)目標對象的反應(yīng)而做出相關(guān)的“情感表達”,但這個“情感表達”并不是機器人自身的,是人類把自身的經(jīng)歷通過數(shù)據(jù)運算賦予機器人的,社交機器人的環(huán)境關(guān)聯(lián)是人類經(jīng)驗環(huán)境關(guān)聯(lián)的“復(fù)現(xiàn)”,并不是海德格爾所說“在世”的環(huán)境關(guān)聯(lián)。海德格爾是把“生命”等同于“此在”,它經(jīng)歷著“在”,而社交機器人不具備生命,它也不會經(jīng)歷著“在”,所以說社交機器人的“外部情感”僅僅是在模擬人的外部情感,社交機器人所呈現(xiàn)出來的喜悅、憤怒、好奇、生氣、悲傷等這些“情感”表達,僅僅是對人類面部表情的模擬,對于人內(nèi)心最真實的反應(yīng),社交機器人無法呈現(xiàn)出來。另外,關(guān)于情感意識。情感意識可以分為兩類:一類是意向情感,另外一類是非意向情感。“意向情感指向?qū)ο?,……通常我們也將它們稱作感受”[8]116意向情感指對客觀目標的反應(yīng),是客觀目標的行為影響到了行為者,行為者能夠?qū)陀^目標作出主觀上的反應(yīng),使情感呈現(xiàn):但社交機器人的情感呈現(xiàn)看似指向?qū)ο?,但它不具有主觀意向性的表達,所以它不具備意向情感?!岸且庀蚯楦胁恢赶蚓唧w的對象,……通常我們也將它們稱作情緒或心情?!盵8]116非意向情感是內(nèi)心情感的自主呈現(xiàn),行為者不會主動指向目標對象,而是自然而然地受到外在物的影響;社交機器人在無外物的影響情況下,它始終處于一種“情感靜止”的狀態(tài),無法自主作出情緒的反應(yīng)。
社交機器人的情感是不真實的,但機器人的情感不真實是否會對人與人之間的交流過程產(chǎn)生影響呢?舉個簡單的例子,人們在玩游戲時或者看電影的時候尚且會對虛擬角色產(chǎn)生情感,更何況機器人呢!假如人們相信社交機器人的情感是真實的,那么人們在同社交機器人交流的過程中必然也會對這種虛擬的不真實情感產(chǎn)生依賴,造成的后果就是使人類感情喪失,人類會逐漸被機器人同化。原因在于社交機器人的情感看似與人類相似,但它于人類相比智能程度遠遠不及,它同人的交流方式有異于人與人之間的交流。那么,當(dāng)人長期處于同社交機器人的交流過程時,他們的交流范圍被限制在了機器人的情感范圍內(nèi),最終他們同機器人的交流方式取代人與人之間的交流方式。
實體即ousia一詞,“亞里士多德的ousia最嚴格的意義是指實際存在的可感事物,如這某個人,但也可指較為抽象的某種東西,如‘是其所是’、質(zhì)料、形式、載體以及屬、種等。如果要尋求一個統(tǒng)一的解釋,那就是‘實體’是某種真實存在的東西,這基本符合ousia的本義。”[9]72機器人本身是作為一種實體存在,但社交機器人為了達到理想化的交流過程它假裝成為了另外一個實體,即社交機器人假裝成為了人。根據(jù)這個定義“實體x具有屬性p;任何實體具有屬性p,都具有道德地位s;實體x具有道德地位s?!盵10]63我們把社交機器人和人對應(yīng)起來,假設(shè)它具有和人相同的屬性,那么社交機器人是否和人一樣能夠成為道德主體呢?要成為道德主體應(yīng)具備以下三個條件“(1)具有對道德正當(dāng)與否的推理和判斷的能力,以及據(jù)此而行動的能力;(2)其行為被期望應(yīng)當(dāng)符合道德規(guī)范;(3)對其行為負有道德責(zé)任且能對其行為后果進行責(zé)任的歸咎?!盵11]126首先,關(guān)于社交機器人對道德正當(dāng)與否的推理判斷能力。社交機器人所具備的推理和判斷能力是人們所賦予它的,它是否具備對道德行為的分析能力是基于人的賦予,人們賦予給它什么它才具有什么,人不可能把“自己”完全地賦予給機器人,那么社交機器人不具備完全的道德分析能力。其次,關(guān)于社交機器人的行為被期望應(yīng)符合道德規(guī)范。根據(jù)康德的道德義務(wù)論“由于非人動物沒有理性本性,它們無法具有人格從而擁有道德地位”[12]56。社交機器人同樣也是如此,它不具備理性本性,從而不具備道德地位,那么我們就不能夠判斷社交機器人的行為是否符合道德規(guī)范。最后,關(guān)于社交機器人能否為其行為負有責(zé)任。我們從自動駕駛汽車的例子來看“費希爾道德責(zé)任理論認為,倘若一個人能夠進行引導(dǎo)性控制或進行管制性控制,那么他就要承擔(dān)道德責(zé)任。由此可見,自動駕駛汽車的使用者應(yīng)為自己使用自動駕駛汽車引發(fā)的事故承擔(dān)道德責(zé)任?!盵13]116同樣人能夠?qū)ι缃粰C器人進行管制性控制,那么承擔(dān)責(zé)任的一方只能是人類本身而非社交機器人。綜上所述,社交機器人不具備成為道德主體的能力。那么,我們可以認為社交機器人為了達到理想化的交流過程,它假裝成為人,但它卻不具備人相應(yīng)的道德地位。社交機器人在假裝成為人同人交流的過程中,如果我們真的把社交機器人當(dāng)做一個“社會主體”,造成的影響將是巨大的,因“社交機器人采用的機器學(xué)習(xí)算法,讓其在與人類的互動中不斷學(xué)習(xí),不受限于程序員植入的算法模型,這使得它在魚龍混雜的網(wǎng)絡(luò)知識海洋中極易被人‘教壞’?!盵14]11而社交機器人又不具備相應(yīng)道德的地位無法承擔(dān)責(zé)任,假設(shè)機器人“犯罪”的話,其造成惡劣的后果又必然會是由人類本身來承擔(dān)。
總之,社交機器人的應(yīng)用確實存在“欺騙性”,作為一種跨實體的交流,它不是真實的,人類長期處于這種“虛假”的交流方式中會受到一系列的影響,首先主觀意識會逐漸模糊,最終結(jié)果就是把機器人真正的當(dāng)成一個社會主體,造成人的價值觀發(fā)生改變;其次,會影響實際生活中的人人交流,人機交流方式會逐漸取代人人的交流方式;最后,因為社交機器人不具備相應(yīng)的道德地位,社交機器人一旦“犯罪”,責(zé)任會由人類來承擔(dān)。當(dāng)然,雖然社交機器人存在一定的弊端,但人們并沒有停止對社交機器人的研發(fā),反而加大了對它的關(guān)照力度,原因在于“社交需求”是人類的必然需求,特別是對那些因不可抗因素造成情感缺失的人而言,他們對社交機器人的情感依賴也更加強烈。此外,高新技術(shù)的發(fā)展會不斷地改變我們的生活方式,畢竟社會在發(fā)展,時代在進步,人類使各種高新技術(shù)“為我服務(wù)”的能力也在不斷成熟。社交機器人的出現(xiàn)在很大程度帶給人了便利,但人們在使用社交機器人時一定要明確它的應(yīng)用地位,因為社交機器人永遠無法具有人類的復(fù)雜情感,所以我們要把它當(dāng)成人工物對待,而不是獨立的社會主體。
齊齊哈爾大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)2021年11期