程 晨,何 婷(貴州財經(jīng)大學 馬克思主義學院,貴州 貴陽 550025)
人工智能技術是新世紀最令人注目的重大科技進展,被普遍認為是第四次工業(yè)革命的引導力量。當前,人工智能技術已經(jīng)與人類社會產(chǎn)生了深刻的聯(lián)系,它在為社會經(jīng)濟生活注入強大動力的同時,也帶來了眾多的倫理性問題。譬如人工智能機器人代替工人從事生產(chǎn)活動可能引發(fā)新一輪失業(yè)風險,大數(shù)據(jù)算法的歧視與偏見對社會公平的挑戰(zhàn)、人身安全與數(shù)據(jù)隱私風險等問題。
近年來,面對人工智能所帶來的倫理問題,眾多學者們都在如火如荼進行討論研究。大致可以分為以下幾類:從技術治理層面來看,有學者認為人工智能并非成熟的技術,在不同的發(fā)展階段具有不同技術特點,技術的不斷進步一方面促進了人類認識、實踐能力的進步,但另一方面也導致人的行動力、創(chuàng)造力等部分能力的降低。因此,應當在建立人工智能技術治理框架的同時秉持和技術與時俱進的理念,使技術在人類可控的范圍內(nèi)協(xié)助人類創(chuàng)造美好生活[1~5];從人機關系層面來看,人工智能的不良使用會導致人的異化,人類將會被人工智能所“裹挾”。倘若未來技術奇點出現(xiàn),機器甚至會代替人類。因此,在現(xiàn)階段應當考慮到把人所倡導的價值取向與倫理規(guī)范嵌入到各種智能體中,使其遵守道德規(guī)范并具有自主倫理抉擇能力[6~8];從社會治理層面來看,技術的失控、技術的非正當使用、應用風險、管理失誤等一些列社會性的倫理問題,都可能引發(fā)安全性、公平性、數(shù)據(jù)隱私等倫理難題[9~11]。有學者認為,對于現(xiàn)階段的人工智能技術風險而言,技術失控被普遍高估,最需要重視的人工智能技術的非正當使用卻被公眾嚴重低估。因此,從以上幾個層面來看,雖然各個國家人工智能發(fā)展的階段不同、領域不同,但是所面對的倫理問題卻是相似的。對人工智能倫理問題及其治理方式的研究,需要打破科技與人文的界限,更加關注人工智能技術對整個人類社會未來發(fā)展的影響。
學者們看待人工智能技術未來的發(fā)展可以歸納為以下三種:(1)西方眾多學者對人工智能的發(fā)展持悲觀消極態(tài)度,這類學者認為未來社會將是一個大的智能體,人類將成為這個智能體上的一個個小部件,就如同螺釘這類小部件一樣隨時可以被替換掉[12~17]。(2)相反,一部分學者對人工智能的發(fā)展持有積極的態(tài)度。認為人工智能對人類社會的發(fā)展,人的解放具有重要的推動作用,人類不應該擔心人工智能代替人類工作,反而應該歌頌贊美人工智能把人類從紛繁復雜的勞動中解救出來[18~20]。(3)持有這類觀點的學者,他們認為既要看到人工智能的發(fā)展前景,也應該看到人工智能所引發(fā)的倫理問題,提出在發(fā)展中要謹慎[21~24,9]。
面對技術不斷智能化、科技不斷自主化,人工智能技術治理所產(chǎn)生的社會性倫理風險,從本質上來看是關于人的實踐問題。在實踐中,人與技術關系的變化、實踐的過程和結果以及對未來社會深遠的影響都是研究的關鍵問題。這些關鍵問題與馬克思人本思想所關注的問題高度契合。因此,以馬克思人本思想作為理論分析工具,探究人工智能技術發(fā)展所面臨的倫理困境,嘗試提供一些對策性建議,具有一定的可行性。
馬克思對人的本質的界定,是遵循社會歷史發(fā)展規(guī)律和唯物辯證法提出的最科學、最精辟的解釋。馬克思關于人的本質的界定主要側重于:(1)人是現(xiàn)實的人,不是抽象的存在物;(2)人是具有自然屬性和社會屬性的統(tǒng)一體;(3)社會性和實踐性是人的本質。在馬克思看來,人之所以是人,是由生產(chǎn)勞動決定的,在生產(chǎn)勞動中的自由自覺的活動是人的本質。因此,馬克思對人的本質的科學認識與界定是馬克思人本思想形成的根本。馬克思人本思想把處于一定社會關系中的現(xiàn)實的人的社會實踐作為出發(fā)點,以現(xiàn)實的人現(xiàn)實生活作為依據(jù),在現(xiàn)實的生活中通過“革命的、實踐的批判”[25],揭示出人的實踐活動是有目的、有意識的自覺活動,是實踐聯(lián)結了人與客觀世界,是人類在生產(chǎn)實踐的過程中改造著客觀世界,創(chuàng)造著人類的歷史。馬克思認為,世界的歷史只不過是在每個人的勞動實踐中產(chǎn)生的過程。人類在通過勞動創(chuàng)造歷史的過程中,也通過勞動實踐改造著客觀世界,實現(xiàn)自我的不斷進步與發(fā)展。人類生存和發(fā)展的最高境界便是實現(xiàn)馬克思所勾勒的人本思想藍圖,在馬克思所勾勒的藍圖中,提醒人類最值得關注的是人類的未來,即通過勞動實踐解放全人類,實現(xiàn)人自由而全面發(fā)展。
列寧曾強調:“邏輯和認識論應當從‘全部自然生活和精神生活的發(fā)展’中引申出來[26]?!瘪R克思主義的人本思想正是沿著這樣的思維路徑,發(fā)微現(xiàn)實的人和人的現(xiàn)實,揭示人的本質屬性和社會存在,厘定人本的內(nèi)涵和存在價值,發(fā)掘人本的堅實基礎和終極關懷,探尋人本的實現(xiàn)路徑[27]。從實踐活動來說,一定社會關系制約下的人的實踐活動是人類生存的本體;從實踐過程來看,人的物質生產(chǎn)及其產(chǎn)生的社會交往形式是整個歷史的基礎;從實踐結果出發(fā),人與社會的和諧統(tǒng)一是人類社會發(fā)展的價值目標[28]。
1.馬克思人本思想關注實踐中的社會關系
馬克思指出:“甚至當我從事科學之類的活動,即從事一種我只是在很少情況下才能同別人直接交往的活動的時候,我也是社會的,因為我是作為人活動的……我本身的存在就是社會的活動?!盵29]如馬克思所言,人類的實踐活動產(chǎn)生人類的社會關系,使得人類具有了社會屬性,這也是人的本質最根本的特征。
基于人的本質,馬克思從實踐出發(fā)對社會關系有著深刻的認識。他認為,人及其在實踐基礎上的活動是本體,物是客體。處于一定社會關系中現(xiàn)實的人的實踐活動是對客觀存在的反映。人作為社會存在物,不可能脫離社會實踐活動、社會關系而存在。在此基礎上,形成了一定的人與人之間的關系。人通過運用實踐中介進行勞動實踐,從而培塑了多種多樣的社會關系來塑造人的社會性,同時也規(guī)定和發(fā)展了人的本質屬性。在私有制和舊式分工的條件下,由于人類實踐活動的片面性,實踐中產(chǎn)生的人與人、物的關系也必然是片面的,直接導致人與人社會關系的不平等、物對人的統(tǒng)治,從而不利于人的本質的復歸。
2.馬克思人本思想關注實踐過程和影響
馬克思在《1844年經(jīng)濟學哲學手稿》中指出,“整個所謂世界歷史不外是人通過人的勞動而誕生的過程,是自然界對人來說的生成過程[30]?!?/p>
首先,人類也通過勞動實踐創(chuàng)造著人類歷史,人既是歷史的“劇作者”,也是歷史的“劇中人[31]”。人在實踐過程確立的目標、方案與結果,在實踐過程的過去、現(xiàn)在以及未來能夠得到體現(xiàn)。因此,每一代人都在前一代取得生產(chǎn)力的基礎上繼續(xù)實踐,創(chuàng)造新的生產(chǎn)力,由此形成人們的歷史中的聯(lián)系和人類的歷史[32]。
其次,人類通過勞動實踐改造著客觀世界,使得人類社會從被物支配到被人主宰,從而實現(xiàn)人類主體性的不斷升華和發(fā)展。馬克思很清楚,人類的解放絕不是從諸如“絕對思維”等理論中解脫出來,而是通過不斷的實踐滿足人的需要,實現(xiàn)人真正的解放。因此,馬克思把人的發(fā)展作為價值取向,注重在實踐過程中強調人的全面發(fā)展與人的主體地位,并在實踐過程中考慮到人與人的關系、人與社會的關系、人與自然的關系。
3.馬克思人本思想關注終極價值的實現(xiàn)
馬克思指出的:“凡是有某種關系存在的地方,這種關系都是為我而存在的;動物不對什么東西發(fā)生‘關系’,而且根本沒有‘關系’;對于動物來說,它對他物的關系不是作為關系存在的?!盵33]馬克思認為“人是目的”。因此,人類無論對大自然的開發(fā),還是社會的進步發(fā)展,都是為了滿足人類自身的需要。馬克思十分尊重人的價值,認為人類終將擺脫一切束縛和阻礙人本質發(fā)展的不利因素,實現(xiàn)人與社會的和諧統(tǒng)一,直至達到對自身本質的完全占有。《資本論》中所談論的:“一個更高級的、以每個人的全面而自由發(fā)展為基本原則的社會形式。”[34]他所描繪的在共產(chǎn)主義社會,人擺脫了一切束縛和阻礙人的本質發(fā)展的不利因素,實現(xiàn)了對自身本質的完全占有,人類已經(jīng)從必然王國飛躍至自由王國,實現(xiàn)全人類的自由與解放。這既是馬克思人本思想的價值旨歸,也是全人類勞動實踐的終極目標,這個理想目標為全人類的發(fā)展指明了方向。
人工智能技術作為人類實踐的階段性成果,作為人類改造提高勞動生產(chǎn)率的工具,倘如突破了與實踐主體的關系,便會影響全人類,并從根本上帶來人類主體性喪失的風險。馬克思人本思想關注人的實踐結果,人作為目的而存在。人工智能發(fā)展的最大問題,從來都不是技術的瓶頸問題,而是人工智能與人類的關系問題。
從馬克思人本思想關注的核心問題來看,人工智能的發(fā)展必然會引發(fā)與其相關的三個倫理問題:(1)社會關系的變化所導致的倫理問題——人工智能的出現(xiàn)動搖了人類的主體性地位;(2)使用人工智能可能對人類和社會產(chǎn)生的影響——公平公正以及信息安全問題;(3)人工智能在一定程度上挑戰(zhàn)了馬克思提出的終極價值,每個人全面而自由的發(fā)展受到威脅。
人工智能技術是人類認識世界、改造世界的工具。在實踐過程中,人類既創(chuàng)造人工智能,又使用人工智能。通過創(chuàng)造和使用人工智能實現(xiàn)人類自身的主體性,這一主體性區(qū)別于其它,使人成為真正的“人”。但在人工智能技術迅猛發(fā)展的年代,人工智能不再只是人類實踐的工具和手段,不再被動地作為技術存在,而是被內(nèi)化為人類自身的要素、被整合為人類自身的一部分,主動地參與人類生活進而影響人類社會,主要有以下四個方面的表現(xiàn)。
首先,人類的選擇范圍被人工智能定義。一般認為,馬克思在技術與人的關系上是堅持技術“工具論”的立場,即科學技術是為了滿足人類需求、提高人類勞動生產(chǎn)率的工具。隨著人工智能技術的智能化、自主化,人與人工智能技術之間不斷相互作用,人類身上逐漸顯現(xiàn)出人工智能技術的“模樣”。使得在生物學意義上擁有鮮明特征的自然人將不斷轉變?yōu)榧夹g意義上的“機械人”。例如,當我們打開購物軟件時,頁面展示的往往是我們感興趣的內(nèi)容。表面上看沒有任何問題,然而當用戶在點擊自己喜歡的商品時的過程,使得該智能軟件記下了用戶的喜好。同時,為了成功推送用戶感興趣的產(chǎn)品,人工智能通過點擊率過濾算法,讓它在下次打開時繼續(xù)推送,以便提高交易率。久而久之在這非對象化過程中,人工智能投喂式的“滿足”人類的需求,人類逐漸成為人工智能技術的奴隸。然而,人類卻忽略了創(chuàng)造人工智能的初衷是讓它滿足人類的需求,而非人工智能來調動人類配合它,使人類成為技術的存在。因此,人工智能不再是人類主體的技術存在,而是喧賓奪主,人類逐漸成為了技術的附庸。
其次,人類的表達能力被人工智能超越。新一代人工智能算法超強的表達能力,突破了“波蘭尼悖論”——人類表達能力的有限性。大眾熟知的傳統(tǒng)算法是借助人的能力輸入數(shù)據(jù)和規(guī)則,最終生成結果。相比之下,基于機器學習的人工智能技術流派的發(fā)展,可以在對大量數(shù)據(jù)學習的基礎上,獨立總結出數(shù)據(jù)背后的規(guī)律和特征,無需再依賴人類知識的表達,便能體現(xiàn)出類似于人類的“表達”能力[35]。例如,自動駕駛、醫(yī)學影像分析、虛擬助理、人臉識別、機器翻譯、分析和預測等,以往傳統(tǒng)算法不能與人相匹敵的行業(yè),人工智能算法皆可達到與人的能力相比擬的高度。顯然,人工智能的誕生已經(jīng)突破了“波蘭尼悖論”所論述的:人類所知道的遠遠超過他們所能表達的。人工智能對此困境的突破,使之具備了一定程度的主體性。
再次,人類的社會秩序被人工智能重構。如疫情下“刷臉”進站,倘若我們不把口罩取下來,門口的人工智能就無法識別,即使我們有十萬火急的事,也必須得等人工智能識別到“人”才不會被拒之門外。值得深思的是,在實踐中人的主體性已經(jīng)被外化為可被識別觀察的數(shù)據(jù)才能納入到人工智能體中。這“代碼即規(guī)則”的社會運行規(guī)則,恰巧與哈佛大學教授勞倫斯·萊辛格曾提出的“代碼即法律”不謀而合。儼然,人的主體性正在智能化時代遭受深刻的挑戰(zhàn)。
最后,人類的創(chuàng)造能力被人工智能效仿。在馬克思看來從事社會生產(chǎn)實踐的人創(chuàng)造著人類歷史,人類在造創(chuàng)歷史的實踐過程中,根據(jù)自身的需要制造出生產(chǎn)實踐的工具,這些創(chuàng)造能力是人所特有的。然而,隨著人工智能的發(fā)展,創(chuàng)造性勞動不再是人類的特性。如服裝設計領域可以使用軟件,搜索當下熱門的服裝款式,并對其中的時尚元素進行提取、拼接,設計出一款新的服裝式樣。不久前,薩里大學向專利局提交了一項名為DABUS的人工智能做出的兩項發(fā)明,但遭到拒絕。該大學的Ryan Abbott教授表示不滿。在他看來,人工智能具有創(chuàng)造力。人工智能也應當享有和人類一樣的權利。就目前人工智能的發(fā)展趨勢來看,它完全有可能根據(jù)勞動過程的需要自主制造生產(chǎn)工具,在生產(chǎn)過程中使用,并根據(jù)生產(chǎn)需要不斷調整和改進。當然,目前人工智能的創(chuàng)造性勞動大多是簡單且基礎的,但是隨著技術的不斷進步,無論是制造和使用生產(chǎn)工具,還是更一般意義上的勞動,都將不再是人類的“專利”。
馬克思人本思想關注人的實踐過程與實踐結果,實踐過程價值取向通常有兩種:第一,把物質利益作為衡量標準,也就是在實踐過程中關注物質經(jīng)濟利益;第二,把人的發(fā)展作為價值取向,注重在實踐過程中強調人的全面發(fā)展與強調人的主體地位。人的實踐過程就是人類創(chuàng)造歷史的過程,在實踐過程中無論選擇何種取向都應考慮到該價值取向對人和人類社會的影響。
首先,人工智能將拉大貧富差距,有違于人類對社會平等公平發(fā)展的期待。馬克思曾高屋建瓴指出:“手推磨產(chǎn)生的是封建主的社會,蒸汽磨產(chǎn)生的是工業(yè)資本家的社會?!盵26]舊式的社會分工導致社會不平等,人工智能的產(chǎn)生就像第二次工業(yè)革命一樣,技術的不斷進步,使得技術的核心逐漸掌握在少數(shù)人手中,人工智能技術逐漸成為少數(shù)精英掌握的財富密碼,造成貧富差距不斷擴大。在199IT最新發(fā)布的關于Gartner的最新預測中,“2022年全球人工智能(AI)軟件收入預計將達到625億美元,比2021年增長21.3%。”目前,掌握人工智能核心技術的人不多,大型人工智能公司更是屈指可數(shù)。不言而喻,人工智能創(chuàng)造的財富向少數(shù)人收攏,大公司會越做越強,小公司則更加難以介入該行業(yè)。當巨額財富集中在少數(shù)幾家頂級公司時,貧富差距則會越來越大。人工智能作為賦能經(jīng)濟發(fā)展的杠桿,旨在促進經(jīng)濟社會健康發(fā)展,最終實現(xiàn)全民共享。但是,貧富差距的擴大違背了人類對社會平等公平發(fā)展的期待,也將使馬克思人本思想的終極價值難以實現(xiàn)。
其次,人工智能算法驅動,加劇社會不平等。社會的平等公平是構建社會體系最基本的準則,同時也是評價人類社會發(fā)展進步的價值尺度之一。馬克思人本思想關注人類實踐過程中,人與人、人與社會、人與自然的和諧關系,強調的是人與人自由平等公平、人與社會協(xié)調統(tǒng)一的發(fā)展。當今世界各個社會層面仍然存在著諸多不公平的現(xiàn)象,在人工智能所驅動的第四次工業(yè)革命背景下,一定程度上加劇了這一現(xiàn)象。比如2014年著名的“亞馬遜簡歷事件”,該公司開發(fā)了一套“算法篩選系統(tǒng)”,目的就是幫助公司高效篩選簡歷。很快,開發(fā)團隊發(fā)現(xiàn)“算法篩選系統(tǒng)”具有明顯的性別偏好,當算法識別出應聘者為女性等相關詞匯時,簡歷分數(shù)會低于男性應聘者。無獨有偶,卡內(nèi)基梅隆大學研究表明,谷歌的廣告系統(tǒng)推送高收入職位招聘信息時,男性收到推送的頻率遠高于女性。
最后,人工智能導致信息安全缺失。馬克思非常重視個人隱私和信息安全。當他針對普魯士國王提出一項侵犯個人隱私的新出版法時,他憤怒地指出:“新法案則企圖把在私人談話中、在自己房屋中、在自己家庭中、在私人通信中所發(fā)表的任何意見都置于警察局和檢察機關的監(jiān)督之下并加以懲治,——也就是說,新法案企圖組織最卑鄙的無孔不入的特務活動?!盵36]當前,隨著人工智能在社會各領域的深入應用,其帶來的信息安全缺失問題也日益凸顯。大科技公司在收集用戶隱私信息的過程中普遍存在安全隱患。信息安全不僅僅關乎個人隱私,更是成為國家政治安全和社會穩(wěn)定的重要因素?!皽y繪特務”汽車在中國公然駕駛,特斯拉深陷“間諜門”事件引發(fā)熱議。由于特斯拉創(chuàng)始人身份的特殊性,以及特斯拉對車主個人所有信息和對車內(nèi)外環(huán)境實時錄像收集等功能,采集后的數(shù)據(jù)將會立即傳輸?shù)矫绹奶厮估瓟?shù)據(jù)庫,成為潛在的情報。事實上,生活中關于信息泄漏的事件屢見不鮮。特斯拉當前所面臨的挑戰(zhàn),實際是以自動駕駛為代表的人工智能技術發(fā)展面臨的安全困境?!爱攤€人的私事甚至隱私與公共利益和社會政治發(fā)生聯(lián)系的時候,個人的私事就不是一般的私事,而成為歷史和社會的一部分了。”[37]面對個人隱私泄漏、信息安全缺失等問題,處理不當將會引發(fā)大范圍公眾信任危機、影響社會穩(wěn)定。
馬克思人本思想認為“人是目的”,把全人類的解放作為其價值取向,反對把人看作工具或手段。人的實踐結果是為了滿足其真正的需求,最終目的是為了全人類的解放與發(fā)展。人工智能作為人類實踐結果,目的在于增進人類福祉、推動社會進步,幫助人類從必然王國走向自由王國。
在智能化時代,人類的生活,離不開人工智能技術,人們不得不生活在人工智能所營造的“溫室”中。人工智能為大眾提供了新的生活、娛樂方式,人類可以機械化地來滿足虛假的需求,擺脫空虛和恐懼,將“美麗的新世界”投射到現(xiàn)實中。倘若,人類過渡沉迷人工智能帶來的便捷生活,忽略了人工智能在給我們生活帶來極大便利的同時,也將威脅和挑戰(zhàn)到人類的生存與發(fā)展。那么,人類的創(chuàng)造力、本質力量勢必會被人工智能技術削弱,社會的進步發(fā)展也將受到阻礙。赫伯特·馬爾庫塞(Herbert Marcuse)在《單向度的人》中指出,“現(xiàn)代社會的不正當發(fā)展,使人用技術創(chuàng)造的工具和裝置,沒有使人更好地解放和自由,反而成為人類奴役的工具,在這樣一個價值社會中,一切都已掛牌出售,包括人?!盵38]在過去沒有人工智能的時代,人類甚至包括所有的有機生命都是按照優(yōu)勝劣汰的原則生存,但人工智能作為“無機生命”的出現(xiàn),似乎打破了這一切。隨著人機交互、腦機接口等生物智能技術的進一步發(fā)展,人類在生物學意義上的身體正在被改造,人類所獨有的情感、創(chuàng)造性逐步被人工智能獲得,人機互補、人機一體、人機伴生將成為時代發(fā)展的趨勢。試問這時候的“人”是真正的人還是“機器人”?如若人類在這一過程中不加以反思,這將意味著人類變得像機器。當人生存的內(nèi)在性被一些外在目的性所遮蔽時,就有違馬克思人本思想所期望的人能擺脫異化,成為具有完整思維的現(xiàn)實的人這一理想狀態(tài)。
第四次工業(yè)革命下,社會的可持續(xù)發(fā)展需要實現(xiàn)人工智能、人類、動物和環(huán)境的和諧共生。由于人工智能技術本身的不可持續(xù)性以及它的使用過程中造成的不可持續(xù)發(fā)展的問題,“元宇宙”概念再次把人工智能技術推向風口浪尖。技術本應是服務于人,促進人全面發(fā)展的工具,但如今它成為阻礙人的全面發(fā)展的最大“威脅”。馬克思人本思想所期望的終極價值,是人的全面發(fā)展與社會的和諧進步,絕不是遭遇技術“反叛”下的殘缺的人格與不可持續(xù)的社會,這有違馬克思人本思想所期望的終極價值。人類該如何沖破人工智能的倫理困境,使人工智能更好的造福于人類,馬克思人本思想指向的“人是目的”中所蘊含的辯證法思想會給予我們指引[39]。
哲學問題始終離不開關于人的問題,“馬克思學說從誕生之日起就將傳統(tǒng)本體論哲學所指向的對象轉向到人生活于其中的現(xiàn)實世界,全面論證和揭示了現(xiàn)實世界的屬人性及其本質。”[40]在這人機共生的智能化時代,人的需要的能動性和創(chuàng)造性被削弱、平等公平缺失、社會關系異化……這一系列人工智能技術發(fā)展所面臨的倫理困境,使得我們必須堅持馬克思人本思想的立場,著手解決現(xiàn)實倫理問題,以確保人工智能技術發(fā)展始終沿著服務于人、為人類的自由解放路徑出發(fā)。
在前文的倫理困境中已經(jīng)提到,就智能化時代人機關系而言,一方面,人類將成為技術的附庸、人類變得像越來越像機器,另一方面,人工智能技術可能成為“一個階層對另一個階層思維統(tǒng)治的工具”,最終導致“無用階層”的出現(xiàn)。馬克思曾對“無用階層”作出預見,指出“對象化在機器體系中的價值表現(xiàn)為這樣一個前提,同它相比,單個勞動能力創(chuàng)造價值的力量作為無限小的量而趨于消失[33]?!比缛簦撾A層不可避免的出現(xiàn),從風險防范的角度,我們應該作出以下兩點思考。
其一,正視人類在智能化時代的地位和作用。隨著智能化武器與自動駕駛的迅猛發(fā)展,人類對機器的控制力逐漸弱化,便會出現(xiàn)如“人工智能倫理風險的責任主體是否還是人類?”等問題。因此,我們必須明確人工智能是人的本質力量的對象化、現(xiàn)實化的特殊表現(xiàn),即使是最先進的智能機器,也不能達到人類智能的層級,無法擁有人的意識,取代或超越人類智能[41]。為了降低人工智能給人類社會文明帶來的風險,我們應該從具體的人工智能應用情景分析,對人機關系進行再三思考。
其二,探索人機共生的未來前景。要從根本上克服人工智能可能引發(fā)的風險,應該考慮把人工智能和人類相互理解與合作作為發(fā)展目標。有人認為“人”與“機”是相互對立的關系,但現(xiàn)在越來越多的人認為人與機器可以協(xié)同進化。所謂協(xié)同進化,就是共同發(fā)展,人機共生的協(xié)同進化,既不是宣揚一種“機器福利”主義,也不是推動探求真知,而是在判斷人工智能下一步該如何發(fā)展。例如,如何使自動駕駛發(fā)展的同時,既貼近現(xiàn)代化的發(fā)展要求,又不引發(fā)嚴重的倫理問題。因此,人類解決此類問題時,要把握好人類社會的主流倫理與人工智能發(fā)展相協(xié)調,對人機共生的未來前景探索,必須把握好價值觀。
人工智能在參與人類實踐過程中,一方面,大數(shù)據(jù)算法為人類提供了一種嶄新的生活方式,使人類被灌輸了一種虛假的需求,讓人類的需求、行為變得更易預測,逐步失去創(chuàng)造性和能動性,成為失去自由的工具人;另一方面,個人的數(shù)據(jù)權利缺失,將會導致隱私泄漏及信息安全隱患。因此,倡導數(shù)據(jù)權利的再平衡,是加強數(shù)據(jù)保護和提升人的創(chuàng)造性能動性的有效對策。
首先,提升數(shù)據(jù)主體的權利意識,倡導社會各界積極主動地參與人工智能應用的反饋與修正機制的建構。通過調動人類主體的能動性,即以此重獲西蒙棟所指的個體化議程的主導地位,也是數(shù)據(jù)權利再平衡的應有之義。
其次,“去偽存真”,明晰數(shù)據(jù)主體的真實需求。明晰數(shù)據(jù)主體的真實需求并在現(xiàn)實世界通過能動的實踐得以滿足,既是人的本質的才能得到確證的重要條件,也是數(shù)據(jù)權利再平衡的必然要求。
在面對由人工智能所推動的第四次工業(yè)革命背景下,人的主體性受到挑戰(zhàn)、社會公平公正與信息安全缺失等一系列問題,其實質有違于馬克思人本思想所關注的終極價值的實現(xiàn),即人類擺脫一切不利于自身發(fā)展的因素,實現(xiàn)對其本質的完全占有,最終實現(xiàn)人的自由而全面的發(fā)展。因此,我們強調關注終極價值的實現(xiàn)目的在于:人類的發(fā)展不再被人工智能技術所束縛、人類實現(xiàn)對其本質的復歸,實現(xiàn)人與人、人與社會的和諧共生。為此,全球應當共同合作、積極應對,同時在推動人工智能技術發(fā)展的同時更應當不忘初心、勇于創(chuàng)新。
首先,人工智能所引發(fā)的倫理挑戰(zhàn),不是某一個國家、某一個民族所面臨的倫理問題,而是全人類共同積極應對的挑戰(zhàn)。就目前而言,人工智能倫理治理的代表模式主要有三種:歐盟模式、美國模式、中國模式。每個模式有其不同的代表策略,對于發(fā)達國家而言,人工智能技術確實走在我國前面,他們對于人工智能倫理問題的治理也不可否認在某些方面優(yōu)于我國。因此,當我們面對發(fā)達國家以往所遭遇的人工智能倫理問題時,可以吸取西方發(fā)達國家的治理經(jīng)驗,避免走上“先發(fā)展后治理”的道路;同時在面對全人類共同的倫理問題時,也應當呼吁世界各國展開積極的討論與溝通,以構建適應全人類發(fā)展的有效對策。
其次,人工智能技術的發(fā)展應該以改善社會關系為目標,以服務于人類及人類社會的發(fā)展為底線,以實現(xiàn)終極價值為使命。這就要求我們在發(fā)展人工智能技術的同時,牢牢堅守人工智能技術發(fā)展的“紅線”。在人工智能技術研發(fā)和應用的各個環(huán)節(jié)中,可能引發(fā)的倫理問題都需要正確地預估和應對,確保人工智能技術真正成為實現(xiàn)終極目標的途徑和工具。