楊雙彪
摘 要:人工智能作為以算法為核心、模擬人類活動(dòng)的智能機(jī)器,它的迅速發(fā)展在推動(dòng)社會(huì)進(jìn)步、促進(jìn)人類解放的同時(shí),也引發(fā)了一系列的倫理風(fēng)險(xiǎn)挑戰(zhàn),即人的主體性消解、人的意志遭受侵犯和責(zé)任歸屬認(rèn)定困境。對(duì)此,規(guī)避人工智能所帶來(lái)的倫理風(fēng)險(xiǎn),必須遵循馬克思主義科技觀引導(dǎo)、提高社會(huì)科技倫理水平、構(gòu)建人工智能監(jiān)督體系、健全人工智能法律規(guī)范,從而確保人工智能為人類服務(wù)、最大限度地促進(jìn)人的自由全面發(fā)展。
關(guān)鍵詞:人工智能;倫理風(fēng)險(xiǎn);馬克思主義科技觀
中圖分類號(hào):B82-057文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009 — 2234(2023)06 — 0052 — 05
近年來(lái),人工智能得到迅速發(fā)展,特別是自動(dòng)駕駛、AI繪畫等產(chǎn)品的廣泛應(yīng)用,無(wú)不說(shuō)明人工智能時(shí)代已經(jīng)到來(lái)。但人工智能在解構(gòu)傳統(tǒng)倫理關(guān)系的過(guò)程中,也帶來(lái)了新的倫理矛盾,在這樣的情況下,如何使人工智能達(dá)到技術(shù)進(jìn)步與倫理治理的平衡,成為當(dāng)今社會(huì)所不可回避的重大課題?;诖?,本文主要聚焦人工智能當(dāng)前面臨的倫理困境,在描繪人工智能時(shí)代鏡像的基礎(chǔ)上、探討人工智能倫理困境的多維表現(xiàn)、進(jìn)而提出解決倫理困境的規(guī)避進(jìn)路。
一、人工智能倫理困境的時(shí)代鏡像
以算法為核心的人工智能通過(guò)對(duì)人類思維過(guò)程的模擬,在推理、判斷等方面表現(xiàn)的越來(lái)越類人化,甚至在某些領(lǐng)域已經(jīng)超越人類。人工智能的發(fā)展促進(jìn)了生產(chǎn)力的提高,給予人類更多自由時(shí)間,有效促進(jìn)了人類的自由全面發(fā)展。但在實(shí)踐活動(dòng)中越來(lái)越相對(duì)獨(dú)立的人工智能,對(duì)人類主體性地位也提出了嚴(yán)峻挑戰(zhàn)。
(一)智能機(jī)器的類人摹效
人工智能是以互聯(lián)網(wǎng)信息技術(shù)為基礎(chǔ),以基于具有強(qiáng)大數(shù)據(jù)采集分析能力的算法為核心,以對(duì)人類思維過(guò)程的模仿和超越為目標(biāo)的現(xiàn)代科學(xué)技術(shù)。通過(guò)對(duì)其智能化水平的劃分,主要分為“弱人工智能”和“強(qiáng)人工智能”。目前我們普遍使用的人工智能都是“弱人工智能”,即僅讓機(jī)器擁有某種智能行為。而“強(qiáng)人工智能”,則是指能夠通過(guò)深度學(xué)習(xí),產(chǎn)生脫離程序具有獨(dú)立意志的智能機(jī)器,此時(shí)的人工智能已經(jīng)超出機(jī)器的界限,其行為不再是人類意志的延伸,而是能夠自主做出決策并實(shí)施的“類人”。需要指出的是,無(wú)論是“弱人工智能”還是“強(qiáng)人工智能”,都能夠在一定意義上發(fā)起具體的社會(huì)實(shí)踐活動(dòng)[1],并在實(shí)踐過(guò)程中根據(jù)需要做出調(diào)整。從這個(gè)意義上說(shuō),人工智能與人類社會(huì)中傳統(tǒng)的機(jī)器已經(jīng)截然不同。
特別是隨著大數(shù)據(jù)算力的提升和深度學(xué)習(xí)算法的改進(jìn),人工智能展現(xiàn)出了與人類高度相近的認(rèn)知能
力、邏輯能力甚至情感能力。具體來(lái)說(shuō),人工智能不僅可以分析數(shù)據(jù)、協(xié)助人類進(jìn)行決策,還能夠進(jìn)行藝術(shù)創(chuàng)作這種人類獨(dú)有的實(shí)踐活動(dòng),事實(shí)上,人工智能顯然對(duì)傳統(tǒng)的機(jī)器概念進(jìn)行了消解。馬克思認(rèn)為,生產(chǎn)形式在機(jī)器出現(xiàn)后的最大改變就是人類不再參與特定的生產(chǎn)過(guò)程,而只是“站在機(jī)器旁邊”監(jiān)督機(jī)器的運(yùn)行,把人類對(duì)商品的生產(chǎn)過(guò)程轉(zhuǎn)化為對(duì)機(jī)器的操作過(guò)程。而人工智能通過(guò)復(fù)雜的數(shù)據(jù)網(wǎng)絡(luò)模擬人的行為模式和思維方式,使機(jī)器也擁有“類人”的智能,在生產(chǎn)過(guò)程中不僅增加了勞動(dòng)者的剩余勞動(dòng)時(shí)間,還在一定程度上取代了人類勞動(dòng),將人從重復(fù)、繁重的體力勞動(dòng)和腦力勞動(dòng)中解放出來(lái),促進(jìn)人的自由全面發(fā)展。但需要指出的是,新技術(shù)的發(fā)展大多具有復(fù)雜性和不確定性,人工智能在推動(dòng)社會(huì)進(jìn)步的同時(shí),也不可避免地引發(fā)了各種不良后果,如何確保人工智能向善發(fā)展,成為當(dāng)前擺在人類面前的重要課題。
(二)科技發(fā)展視域下人的解放
“人”是馬克思一切思想批判的核心問(wèn)題,實(shí)現(xiàn)人的自由全面發(fā)展也是馬克思主義的根本追求??茖W(xué)技術(shù)作為一種革命性的力量,每一次的技術(shù)進(jìn)步都會(huì)促進(jìn)人的解放和社會(huì)的發(fā)展,而人工智能在生產(chǎn)生活中的廣泛應(yīng)用,使人的自由全面發(fā)展有了現(xiàn)實(shí)可能性。首先,人工智能使人的勞動(dòng)由異化轉(zhuǎn)向自由自覺(jué)。勞動(dòng)是人的存在方式,也是人的基本權(quán)利,但在很多時(shí)候勞動(dòng)也是一種沉重的負(fù)擔(dān),甚至勞動(dòng)者的艱辛勞動(dòng)不僅得不到財(cái)富,反而會(huì)加深勞動(dòng)者自身的貧窮,這就是勞動(dòng)的異化。馬克思認(rèn)為“‘勞動(dòng),按其本質(zhì)來(lái)說(shuō),是非自由的、非人的、非社會(huì)的。”[2]因此“只要肉體的強(qiáng)制或其他強(qiáng)制已停止,人們就會(huì)像逃避瘟疫一樣逃避勞動(dòng)。”[3]但是隨著人工智能代替人類從事體力和腦力勞動(dòng),人類逐漸擺脫勞動(dòng)的束縛,有更多的時(shí)間自由自覺(jué)地從事更能體現(xiàn)人類價(jià)值的其它活動(dòng)。
其次,人工智能推動(dòng)社會(huì)生產(chǎn)力的提高。正如馬克思所言,“手推磨產(chǎn)生的是封建主的社會(huì),蒸汽磨產(chǎn)生的是工業(yè)資本家的社會(huì)”[4]142。人工智能自誕生以來(lái)就通過(guò)變革生產(chǎn)方式、降低生產(chǎn)成本和提高勞動(dòng)生產(chǎn)率等方式,促使生產(chǎn)力落后的傳統(tǒng)企業(yè)改造升級(jí),促進(jìn)社會(huì)生產(chǎn)力的普遍提高。人工智能在發(fā)展生產(chǎn)力的過(guò)程中與生產(chǎn)資料相結(jié)合,提高社會(huì)生產(chǎn)效率從而顯著增加了勞動(dòng)者的自由支配時(shí)間。人工智能與勞動(dòng)對(duì)象相結(jié)合,變革了以往嚴(yán)格繁重的生產(chǎn)模式,可以面對(duì)生產(chǎn)過(guò)程中各類變化隨時(shí)調(diào)整,有效提高勞動(dòng)生產(chǎn)率水平特別是勞動(dòng)者的安全水平。最后,人工智能創(chuàng)造出更多的自由時(shí)間。勞動(dòng)實(shí)踐活動(dòng)在人工智能時(shí)代變得更加自動(dòng)化和智能化,以往重復(fù)且繁重的工作被大量的智能機(jī)器所取代,使社會(huì)能夠在更短的時(shí)間內(nèi)生產(chǎn)出更多的物質(zhì)財(cái)富,有效縮短了人們生產(chǎn)必要物質(zhì)資料的時(shí)間,在此基礎(chǔ)上,人類所能夠支配的自由時(shí)間大大增加,從而使人們擁有更多的時(shí)間和機(jī)會(huì)去實(shí)現(xiàn)人的全面發(fā)展。[5]
(三)實(shí)踐向度的主體性思考
人工智能以互聯(lián)網(wǎng)大數(shù)據(jù)為載體并通過(guò)復(fù)雜算法的運(yùn)算,獲得了人所特有的一些基本特征,在推理、思考等方面表現(xiàn)得越來(lái)越像人,傳統(tǒng)的人機(jī)界限不斷被模糊化,特別是人形機(jī)器人的不斷突破,對(duì)“人”的概念提出了嚴(yán)峻挑戰(zhàn)。在這個(gè)意義上,主體還是不是人類的專屬,或者說(shuō)人工智能是否可以在哲學(xué)層面被認(rèn)為與人類等同的“主體”,成為當(dāng)前對(duì)人類主體性哲學(xué)思考的當(dāng)務(wù)之急。
馬克思認(rèn)為“同活動(dòng)對(duì)象的客體相反,主體是活動(dòng)的承擔(dān)者和執(zhí)行者”。[12]在馬克思看來(lái),現(xiàn)實(shí)的實(shí)踐活動(dòng)是確立主體性的根本原則,[1]人類正是通過(guò)實(shí)踐活動(dòng)奠定了全部社會(huì)生活和人類歷史的基礎(chǔ)。在實(shí)踐中,人將自己的活動(dòng)與意識(shí)相分離,使意識(shí)不僅成為自身的一部分,還可以審視自身的活動(dòng)。也就是說(shuō),意識(shí)作為人主體性的重要特征,不僅能夠直觀反映人的實(shí)踐活動(dòng),還具有相對(duì)獨(dú)立性,可以審視甚至規(guī)劃人的實(shí)踐活動(dòng)。從而引出馬克思對(duì)主體的另一規(guī)定性,即主體能夠進(jìn)行主觀能動(dòng)的創(chuàng)造性活動(dòng),主體所從事的實(shí)踐活動(dòng)并不只是依靠本能,而是擁有明確的目的性和計(jì)劃性,并且主體能夠根據(jù)實(shí)踐的需要制作和使用工具,這也是人之為人的本質(zhì)特征。
隨著人工智能技術(shù)的突飛猛進(jìn)和廣泛應(yīng)用,越來(lái)越多的智能系統(tǒng)從事著各種勞動(dòng)任務(wù),我們甚至可以說(shuō),這些人工智能系統(tǒng)就是為了代替人類勞動(dòng)而產(chǎn)生的。特別是隨著近些年計(jì)算機(jī)算法和深度學(xué)習(xí)技術(shù)的突破,人工智能不僅能夠根據(jù)人類編制的算法進(jìn)行生產(chǎn)勞動(dòng),還可以根據(jù)需要“制造和使用生產(chǎn)工具”,盡管當(dāng)前的人工智能制造和使用生產(chǎn)工具還比較初級(jí),主要還是通過(guò)受人驅(qū)使的方式進(jìn)行數(shù)據(jù)的采集和程序的編寫。在這樣的情況下,勞動(dòng)實(shí)踐還是不是人的專屬活動(dòng),就值得我們進(jìn)一步反思和追問(wèn)了。但是明確的是,人的唯一主體地位正被人工智能所挑戰(zhàn),為此必須重新思考人與人工智能之間的人機(jī)關(guān)系,確保人的本質(zhì)的復(fù)歸。
二、人工智能倫理困境的多維透視
馬克思曾指出:“在我們這個(gè)時(shí)代,每一種事物好像都包含有自己的反面,……技術(shù)的勝利,似乎是以道德的敗壞為代價(jià)換來(lái)的。”[6]人工智能的發(fā)展不僅是科技產(chǎn)業(yè)的重大革命,還引起了社會(huì)倫理的深刻變革,帶來(lái)了一系列人工智能倫理困境,如人的主體性消解、決策自主權(quán)的喪失、倫理責(zé)任歸屬等各種問(wèn)題。
(一)人的主體性消解困境
人的主體性主要體現(xiàn)在兩個(gè)方面,一方面是在自然世界中的主體性,人類能動(dòng)地改造自然的實(shí)踐過(guò)程是其主體性的關(guān)鍵因素。另一方面就是社會(huì)生活中的主體性,人類社會(huì)是人們?cè)陂L(zhǎng)期的生活實(shí)踐中演變來(lái)的,人無(wú)疑是社會(huì)生活的主體。然而人的這種主體地位受到了人工智能的嚴(yán)峻挑戰(zhàn),特別是隨著人工智能逐漸成為人類社會(huì)不可或缺的一部分,人類主體性也遭到了不斷地異化。馬克思在《1844年經(jīng)濟(jì)學(xué)哲學(xué)手稿》中完整提出了異化命題,即異化主要為原本由人所創(chuàng)造的、對(duì)象化的客體,本應(yīng)該服務(wù)作為主體的人,但這種客體反而控制了作為主體的人,這種主客體關(guān)系的顛倒就是異化。[1]恩格斯就曾以英國(guó)紡織工人為例,仔細(xì)描繪了機(jī)器如何將原本鄉(xiāng)村中精神健全的農(nóng)民,轉(zhuǎn)化為紡織工廠里愚鈍和癡呆的工人。遵循同樣的邏輯,原本為人類所創(chuàng)造用以服務(wù)自身的人工智能,現(xiàn)在卻反過(guò)來(lái)成為控制人類的手段和工具。
首先,人工智能會(huì)導(dǎo)致人類主體能動(dòng)性的削弱。人類主體能動(dòng)性就是人類區(qū)別于其它物種的獨(dú)特屬性和專有能力,如認(rèn)知能力、審美能力。但原本獨(dú)屬人類的領(lǐng)域不斷被人工智能所侵占,人工智能可以寫詩(shī)、繪畫、甚至給予他人情感慰藉,導(dǎo)致人類主體性的能力被極大地消解。其次,人工智能導(dǎo)致人類社會(huì)交往的虛擬化。人工智能與互聯(lián)網(wǎng)的深度融合,使得人與人之間現(xiàn)實(shí)的社會(huì)交往逐漸被基于網(wǎng)絡(luò)的虛擬社交所取代,但這種虛擬的社會(huì)交往實(shí)質(zhì)就是人類交往的異化,同時(shí)也是對(duì)人社會(huì)屬性的背離。最后,人工智能使人類異化為“智能機(jī)器的附庸”。馬爾庫(kù)塞在《單向度的人》中指出,現(xiàn)代社會(huì)的畸形發(fā)展,使科技人員創(chuàng)造的工具和裝置不僅沒(méi)有使人們更好地解放和自由,反而成為奴役人們的工具和手段。[7]在高度智能的機(jī)器面前,普通人只會(huì)喪失作為主體的個(gè)性化特征,逐漸地淪為龐大且復(fù)雜的智能機(jī)器中不起眼的零部件。
(二)決策自主權(quán)喪失困境
人工智能技術(shù)的發(fā)展也會(huì)引發(fā)決策自主權(quán)的喪失。媒體為了增加瀏覽量,往往利用大數(shù)據(jù)算法來(lái)分析用戶的興趣偏好,并根據(jù)所刻畫的用戶畫像進(jìn)行精準(zhǔn)化的信息推送。個(gè)性化的算法推薦導(dǎo)致用戶的信息域被智能遮蔽和過(guò)濾,使人的思維只能在算法規(guī)制的“信息繭房”中進(jìn)行活動(dòng),這不可避免地影響個(gè)體的價(jià)值取向,嚴(yán)重削弱了人類對(duì)信息的甄別能力。在此意義上,人工智能算法雖然提高了民眾獲取信息的準(zhǔn)確性,但是卻剝奪了民眾選擇數(shù)據(jù)的自主權(quán)。最典型的例子就是2016年美國(guó)大選的“劍橋分析事件”,有證據(jù)表明在美國(guó)總統(tǒng)大選期間,特朗普?qǐng)F(tuán)隊(duì)利用人工智能針對(duì)性地向選民推送片面甚至虛假信息。人工智能對(duì)人的決策施加影響不僅存在于政治領(lǐng)域,在日常的網(wǎng)絡(luò)瀏覽中亦會(huì)如此,算法會(huì)根據(jù)人們平常瀏覽或搜索的數(shù)據(jù)推薦相應(yīng)的信息。這些固然會(huì)高效快捷地將感興趣的信息展現(xiàn)在人們面前,但也讓人們喪失對(duì)其它信息的敏感度和感知力,甚至影響其對(duì)現(xiàn)實(shí)世界的認(rèn)知。
另一方面,人工智能所具有的信息搜集和數(shù)據(jù)分析能力是人類難以匹敵的,基于此,人們往往利用人工智能對(duì)數(shù)據(jù)進(jìn)行處理分析,并在此基礎(chǔ)上做出“最優(yōu)解”的決策,如醫(yī)生通過(guò)醫(yī)療系統(tǒng)給病人的治療方案救助病人,金融公司通過(guò)智能系統(tǒng)確定投資方向和比重等等。這種對(duì)人工智能產(chǎn)生的過(guò)度依賴,不僅嚴(yán)重削弱了人類對(duì)問(wèn)題的主動(dòng)探索能力,還消解了人類在解決問(wèn)題中對(duì)自身能力的培養(yǎng)。人的自由全面發(fā)展受到嚴(yán)重阻礙,如醫(yī)生在對(duì)醫(yī)療系統(tǒng)形成依賴后,就會(huì)逐步喪失某些依靠長(zhǎng)期實(shí)踐經(jīng)驗(yàn)積累的醫(yī)療技能。在這樣的背景下,人類對(duì)人工智能的過(guò)度依賴的后果,只會(huì)“使物質(zhì)力量具有理智生命,而人的生命則化為愚鈍的物質(zhì)力量”。[6]這無(wú)非是說(shuō),隨著人工智能越來(lái)越多地介入人類的選擇決策過(guò)程,人類的行為選擇也逐漸失去自我思考,在此意義上,人工智能將可能成為“永遠(yuǎn)的獨(dú)裁者”。
(三)倫理責(zé)任歸屬困境
通常情況下,一項(xiàng)新技術(shù)的發(fā)展往往具有復(fù)雜性和不確定性,在應(yīng)用過(guò)程中會(huì)出現(xiàn)難以避免的消極影響,正因如此,正確處理因技術(shù)發(fā)展引發(fā)的責(zé)任問(wèn)題就顯得尤為重要。而人工智能的發(fā)展使傳統(tǒng)的科技倫理規(guī)范失效,正如威爾伯斯所說(shuō):“在日益科技化的現(xiàn)代社會(huì)中,人工智能技術(shù)的廣泛應(yīng)用使得道德責(zé)任的歸屬?gòu)?fù)雜化?!保?]無(wú)人駕駛是當(dāng)前人工智能最典型的應(yīng)用領(lǐng)域之一。無(wú)人駕駛相比人類更加專注且不易疲勞,大幅減少了因司機(jī)駕駛過(guò)錯(cuò)導(dǎo)致的交通事故,特別是對(duì)于沒(méi)有駕駛能力的特殊人群來(lái)說(shuō),無(wú)人駕駛無(wú)異于是對(duì)生活軌跡的重建。但需要指出的是,無(wú)人駕駛背后隱藏著一個(gè)巨大的責(zé)任倫理困境,即顛覆了傳統(tǒng)駕駛那種以司機(jī)過(guò)錯(cuò)為基礎(chǔ)的責(zé)任規(guī)范體系,因?yàn)闊o(wú)人駕駛導(dǎo)致的交通事故中,既不存在司機(jī)主觀上的故意,也不存在司機(jī)因疲勞駕駛等造成的無(wú)意過(guò)錯(cuò),道德和法律的責(zé)任分配此時(shí)變得更加復(fù)雜和難以確定。
事實(shí)上,相關(guān)法律的滯后也是人工智能責(zé)任判定困難的重要原因。馬克思曾指出,責(zé)任是建立在自由意志基礎(chǔ)之上的,只有人才是承擔(dān)責(zé)任的主體,因此在傳統(tǒng)的法律判定主要基于人的行為進(jìn)行責(zé)任劃分,如果發(fā)生機(jī)器傷害人的事件,則主要由機(jī)器的所有者或制造商承擔(dān)相應(yīng)責(zé)任。但隨著人工智能技術(shù)的發(fā)展,人工智能也在一定程度上擁有了自己的判斷決策能力,人類很難決定智能機(jī)器的具體行為。在這樣的背景下,出現(xiàn)人工智能導(dǎo)致的事故該如何分配責(zé)任,迄今為止都沒(méi)有一個(gè)統(tǒng)一的法律規(guī)定。通常我們對(duì)責(zé)任歸屬的判定,主要依據(jù)法律條文中的相關(guān)規(guī)定。但人工智能的發(fā)展速度遠(yuǎn)遠(yuǎn)超過(guò)相關(guān)法律條文的制定速度,致使當(dāng)前人工智能領(lǐng)域面臨責(zé)任分配困難的法律難題,只能將人工智能失控歸咎于產(chǎn)品缺陷,讓人工智能及其產(chǎn)品的設(shè)計(jì)者承擔(dān)相應(yīng)責(zé)任。而長(zhǎng)期的責(zé)任分配失衡,勢(shì)必會(huì)挫傷人工智能研發(fā)人員的積極性,最終限制人工智能的發(fā)展。
三、人工智能倫理困境的規(guī)避進(jìn)路
人工智能所引發(fā)的倫理困境是技術(shù)發(fā)展中的必然產(chǎn)物,對(duì)此既不能因噎廢食放棄人工智能發(fā)展,也不能對(duì)所產(chǎn)生的倫理問(wèn)題視若無(wú)睹。而是應(yīng)該探究當(dāng)前所產(chǎn)生倫理困境的真實(shí)動(dòng)因,在馬克思主義科技觀的指導(dǎo)下,構(gòu)建多方協(xié)同治理體系,推動(dòng)人工智能朝著為人類服務(wù)的方向穩(wěn)步前進(jìn)。
(一)遵循馬克思主義科技觀
馬克思主義科技觀是馬克思主義關(guān)于科學(xué)技術(shù)的系統(tǒng)性的觀點(diǎn)和方法,我國(guó)發(fā)展人工智能,必須堅(jiān)持馬克思主義科技觀的基本立場(chǎng)和基本原則。馬克思主義認(rèn)為,“科學(xué)技術(shù)是人的創(chuàng)造物,是人類認(rèn)識(shí)世界、改造世界的手段和工具,”[9]科學(xué)技術(shù)還是推動(dòng)社會(huì)變革和時(shí)代進(jìn)步的關(guān)鍵因素。但是需要指出的是,科學(xué)技術(shù)具有二重性,一味強(qiáng)調(diào)科技對(duì)社會(huì)發(fā)展的推動(dòng)作用并不客觀,科技在給人類帶來(lái)巨大收益的同時(shí)也會(huì)帶來(lái)難以預(yù)料的風(fēng)險(xiǎn)。正是基于這樣的認(rèn)識(shí),發(fā)展人工智能必須要始終堅(jiān)持人類主體性地位,任何科學(xué)技術(shù),都只是基于人類需求創(chuàng)造出來(lái)的客體,如果將主客體位置顛倒,不僅會(huì)阻礙人類對(duì)科技的正確認(rèn)識(shí)和運(yùn)用,還會(huì)誤導(dǎo)人類對(duì)科技負(fù)面影響根源的把握。
馬克思主義強(qiáng)調(diào)認(rèn)識(shí)來(lái)源于實(shí)踐,但人工智能所擁有的知識(shí)并不是實(shí)踐的產(chǎn)物,它的“智能”來(lái)源于人類自身。人類通過(guò)發(fā)揮自身的能動(dòng)性,將人工智能的能力轉(zhuǎn)化為人類自己的能力,從而促進(jìn)人類自身實(shí)踐能力的提升??萍嫉陌l(fā)展就是為了給人類爭(zhēng)取更多的自由時(shí)間,最終實(shí)現(xiàn)人類的解放,是以對(duì)于科技的研發(fā)永遠(yuǎn)不會(huì)停滯下來(lái),但對(duì)于發(fā)展科技引發(fā)的一系列倫理問(wèn)題,必須始終堅(jiān)持馬克思主義科技觀的指導(dǎo),堅(jiān)持以人為本的理念。人是審視人工智能發(fā)展的價(jià)值尺度,實(shí)現(xiàn)人的解放也是人工智能發(fā)展的根本追求,為此人工智能技術(shù)的研發(fā)要始終強(qiáng)調(diào)人在社會(huì)發(fā)展中的主體地位。
(二)提高社會(huì)科技倫理水平
科技的發(fā)展固然能夠方便人類的生活,但也有可能給人類帶來(lái)災(zāi)難性的后果。愛(ài)因斯坦就曾認(rèn)為“怎樣用它,究竟是給人類帶來(lái)幸福還是災(zāi)難,全取決于人自己,而不是取決于工具”。[10]將人工智能發(fā)展所帶來(lái)的倫理問(wèn)題一味歸咎于科技本身,是有失偏頗且不客觀的,事實(shí)上,當(dāng)今人工智能各種倫理問(wèn)題的產(chǎn)生,很大程度就是因?yàn)榭蒲泄ぷ髡叩赖仑?zé)任感缺失。事實(shí)確實(shí)如此,如果科研工作者的道德理念淡漠,那么此前發(fā)生的基因編輯這種倫理悲劇很容易在人工智能領(lǐng)域重演。通過(guò)對(duì)科研工作者進(jìn)行正確的道德約束,可以有效避免技術(shù)異化對(duì)人類產(chǎn)生的不利影響,確保人工智能研究始終朝著為“人”服務(wù)的方向前進(jìn)。
提高公眾的知識(shí)素養(yǎng)也是解決人工智能倫理問(wèn)題的重要途徑。庫(kù)茲韋爾將人們對(duì)待新技術(shù)的態(tài)度分為三個(gè)階段,首先,人們會(huì)驚嘆新技術(shù)為人類所帶來(lái)的便利;其次,人們了解到隱藏在新技術(shù)背后的弊端,并對(duì)此產(chǎn)生恐懼;最后,研究出一條科學(xué)的發(fā)展道路,實(shí)現(xiàn)科技為人類服務(wù)的初衷。近年來(lái)人工智能威脅論甚囂塵上,特別是部分媒體夸大其詞地報(bào)道,更是使民眾對(duì)其產(chǎn)生懼怕心理?;诖?,提高民眾相關(guān)的知識(shí)素養(yǎng)顯然已成一項(xiàng)必要工作,這需要政府運(yùn)用多元化手段,培養(yǎng)民眾對(duì)人工智能技術(shù)的科學(xué)認(rèn)知。讓民眾了解到人工智能并不會(huì)威脅人類安全,反而會(huì)對(duì)人類的發(fā)展做出重大貢獻(xiàn),從而有效緩解人類所產(chǎn)生的恐懼心理,推動(dòng)人工智能得到健康發(fā)展。
(三)構(gòu)建人工智能監(jiān)督體系
當(dāng)前人工智能發(fā)展過(guò)程中所產(chǎn)生的一些倫理問(wèn)題,其主要原因就是缺乏有效監(jiān)管?;诖耍鶕?jù)當(dāng)前人工智能發(fā)展實(shí)際,建立起一整套切實(shí)可行的監(jiān)管體系,成為當(dāng)今時(shí)代的首要任務(wù),而制定一個(gè)多方位、全流程的監(jiān)督系統(tǒng),首先需要確保政府在人工智能監(jiān)管體系的主導(dǎo)地位。政府需要設(shè)立各級(jí)各層的人工智能監(jiān)管機(jī)構(gòu),加大對(duì)人工智能技術(shù)的監(jiān)管,從算法邏輯、專業(yè)機(jī)構(gòu)的檢測(cè)報(bào)告等方面保障人工智能技術(shù)的安全可控性,確保即使有意外發(fā)生也有切實(shí)可行的應(yīng)急舉措。還要定期對(duì)人工智能相關(guān)企業(yè)進(jìn)行倫理審查,防止人工智能技術(shù)被不法分子因追求私利危害人類,對(duì)于有可能危害人類尊嚴(yán)權(quán)利的相關(guān)問(wèn)題,一旦發(fā)現(xiàn)要立即整改并嚴(yán)懲不法分子。
此外,通過(guò)民眾監(jiān)督更有利于有效發(fā)現(xiàn)人工智能的風(fēng)險(xiǎn)。民眾是人工智能最廣泛的使用者,在這種情況下,賦予民眾對(duì)人工智能監(jiān)督的權(quán)力,更有利于讓民眾在使用人工智能過(guò)程中,及時(shí)發(fā)現(xiàn)風(fēng)險(xiǎn)并將風(fēng)險(xiǎn)扼殺在初始階段,確保人工智能及其產(chǎn)品符合倫理法規(guī)要求。最后,來(lái)自人工智能研發(fā)者的監(jiān)督也十分必要??萍急旧頍o(wú)法與其研發(fā)者分裂開(kāi)來(lái),科研工作者在開(kāi)發(fā)人工智能及其產(chǎn)品時(shí),有責(zé)任也有義務(wù)在設(shè)計(jì)研發(fā)階段,確?!叭斯ぶ悄芩惴ǖ目山忉屝浴⒖沈?yàn)證性和可預(yù)測(cè)性”。[11]不僅如此,科研人員還要在人工智能產(chǎn)品使用階段全程監(jiān)管,一旦發(fā)現(xiàn)問(wèn)題及時(shí)干預(yù),確保研究始終堅(jiān)持為人類服務(wù)。
(四)健全人工智能法律規(guī)范
人工智能發(fā)展過(guò)程中出現(xiàn)的各種倫理困境,僅靠道德感化是遠(yuǎn)遠(yuǎn)不夠的,因?yàn)閭惱淼赖轮皇墙柚f(shuō)服教育等軟性手段,并沒(méi)有相應(yīng)的強(qiáng)制力,在這樣的情況下,法律無(wú)疑是化解當(dāng)前人工智能倫理問(wèn)題的有效措施。法律通過(guò)國(guó)家強(qiáng)制性手段,最大可能地限制人工智能發(fā)展過(guò)程中出現(xiàn)的無(wú)序性,有效降低因人工智能倫理問(wèn)題給社會(huì)帶來(lái)的危害。基于這樣的認(rèn)識(shí),首先要著眼于人工智能的法律主體關(guān)系,充分論證法律上的“主體”概念,并在確定人工智能法律主體地位的基礎(chǔ)上,厘清人工智能在無(wú)人駕駛、醫(yī)療機(jī)器等應(yīng)用過(guò)程中的權(quán)利、義務(wù)和責(zé)任歸屬,對(duì)于有可能出現(xiàn)的倫理事故,劃分好開(kāi)發(fā)者、使用者及智能機(jī)器的法律責(zé)任。
此外,還要加強(qiáng)法律對(duì)數(shù)據(jù)信息和算法的治理。嚴(yán)格保護(hù)用戶的個(gè)人信息,防止不法分子因利益對(duì)個(gè)人信息的收集、傳播與濫用,同時(shí)還要建立健全關(guān)于人工智能的法律問(wèn)責(zé)機(jī)制,對(duì)于在應(yīng)用過(guò)程中出現(xiàn)的侵害個(gè)人隱私、制造算法偏見(jiàn)的法律主體,必須根據(jù)實(shí)際情況和法律標(biāo)準(zhǔn)進(jìn)行嚴(yán)厲打擊。最后,要規(guī)范人工智能的生產(chǎn)使用原則,采用法律手段對(duì)智能機(jī)器的生產(chǎn)制造加以限制。在研發(fā)生產(chǎn)階段,將設(shè)計(jì)規(guī)范寫入法律條款之中,明確開(kāi)發(fā)人員的法律責(zé)任,在智能產(chǎn)品的使用過(guò)程中也要進(jìn)行實(shí)時(shí)監(jiān)控,避免使用者超越法律的界限??傊?,通過(guò)對(duì)人工智能進(jìn)行全方位的法律規(guī)范,能夠減少科技濫用對(duì)人類造成的傷害,最大限度地解決當(dāng)前倫理困境。
〔參 考 文 獻(xiàn)〕
[1]婁延強(qiáng).人工智能的倫理困境與正解[J].道德與文明,2022(01):131-139.
[2]中共中央編譯局.馬克思恩格斯全集:第42卷[M].北京:人民出版社,1979:254-255.
[3]馬克思.1844年經(jīng)濟(jì)學(xué)哲學(xué)手稿[M].北京:人民出版社,2000:55.
[4]中共中央編譯局.馬克思恩格斯選集:第1卷[M].北京:人民出版社,1995.
[5]孫閃閃.人工智能時(shí)代人的發(fā)展的新機(jī)遇與新挑戰(zhàn)[J].沈陽(yáng)工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018,
11(06):571-576.
[6]中共中央編譯局.馬克思恩格斯全集:第2卷[M].北京:人民出版社,1985:79.
[7][美]馬爾庫(kù)塞.單向度的人:發(fā)達(dá)工業(yè)社會(huì)意識(shí)形態(tài)研究[M].劉繼,譯.上海:上海譯文出版社,1989:112.
[8]Katinka Waelbers. Technological Delegation: Responsibility for the Unintended,Science and Engineering Ethics,2009,15(01).
[9]李桂花.科技的人化[M].長(zhǎng)春:吉林人民出版社,2004.
[10][德]愛(ài)因斯坦.愛(ài)因斯坦文集(第3卷)[M].許良英,等,譯.北京:商務(wù)印書館,2010:78.
[11]郭銳.人工智能的倫理和治理[M].北京:法律出版社,2020.
[12][德]阿·科辛.馬克思列寧主義哲學(xué)詞典[M].郭官義,等,譯.北京:東方出版社,1911:483.
〔責(zé)任編輯:侯慶?!?/p>