• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      延續(xù)和重構(gòu):人工智能倫理研究的多重視角

      2023-10-07 08:04:46王雪瑩邵國(guó)松
      未來(lái)傳播 2023年1期
      關(guān)鍵詞:倫理媒介人工智能

      王雪瑩,邵國(guó)松

      (上海交通大學(xué)媒體與傳播學(xué)院,上海200240)

      盧西亞諾·弗洛里迪指出,人類在經(jīng)歷了哥白尼革命、達(dá)爾文革命、神經(jīng)科學(xué)革命之后,自我認(rèn)知已經(jīng)開始第四個(gè)革命,即圖靈革命。[1]人類已經(jīng)進(jìn)入人工智能時(shí)代,而當(dāng)我們這樣講的時(shí)候,我們正在用一種媒介史的角度看待人工智能,因?yàn)椤拔覀冋谟眠@一時(shí)代的支配性的媒介技術(shù)界定這一時(shí)代的特征”[2]。得益于計(jì)算機(jī)、大數(shù)據(jù)、云計(jì)算等技術(shù)的發(fā)展,人工智能技術(shù)實(shí)現(xiàn)重大突破。一項(xiàng)新技術(shù)的出現(xiàn)往往能產(chǎn)生兩方面的影響:一方面,人工智能作為一種底層基礎(chǔ)技術(shù)可以提高生產(chǎn)效率,帶來(lái)經(jīng)濟(jì)效益;另一方面,新技術(shù)也會(huì)帶來(lái)隱患。做到對(duì)技術(shù)經(jīng)濟(jì)性關(guān)注的同時(shí),也應(yīng)當(dāng)關(guān)注其風(fēng)險(xiǎn)性的一面。更重要的是,這種風(fēng)險(xiǎn)已經(jīng)實(shí)實(shí)在在地發(fā)生了,比如大數(shù)據(jù)“殺熟”[3]“回音室效應(yīng)”和隱私被侵犯[4],等等。出于對(duì)風(fēng)險(xiǎn)的擔(dān)憂,人工智能倫理成為重要的研究領(lǐng)域,也備受新聞傳播學(xué)者的關(guān)注。傳播學(xué)研究人工智能及其倫理問(wèn)題的合法性在于我們將人工智能視為媒介。從泛媒介的角度看,媒介與技術(shù)基本上可以畫上等號(hào),媒介的范疇不僅包括報(bào)紙、廣播、電視、電影等,更包括服飾、住宅、貨幣、汽車等。[5]從這個(gè)角度看,人工智能當(dāng)然是媒介,正如麥克盧漢所言:“一切技術(shù)都是媒介,一切媒介都是我們自己的外化和延伸?!盵6]對(duì)人工智能倫理問(wèn)題的研究正是對(duì)人工智能隱憂的回應(yīng)。本研究試圖以人工智能的底層邏輯和倫理研究的發(fā)展脈絡(luò)作為起點(diǎn),試圖梳理出人工智能倫理研究幾種可行的視角和研究路徑,為其提供一定的創(chuàng)新性思路。

      一、 人工智能的底層邏輯:大數(shù)據(jù)、算法和算力

      1956年的達(dá)特茅斯會(huì)議一般被認(rèn)為是人工智能正式誕生的起點(diǎn)。發(fā)展至今,人工智能的概念并不明晰。技術(shù)層面每一次新的進(jìn)展都會(huì)刷新人類對(duì)人工智能的認(rèn)知。人工智能的本質(zhì)在于擬人、像人,然而人的智能是什么、人的智能能發(fā)展到何種程度尚未可知,因此對(duì)人工智能的未來(lái)預(yù)測(cè)也存在局限。目前的人工智能是幫助人類解決難題的、沒(méi)有自我意識(shí)的應(yīng)用程序,被稱為弱人工智能;而在未來(lái)可能會(huì)出現(xiàn)真正像人、擁有像人類的自我意識(shí)的智能,被稱為強(qiáng)人工智能。目前我們所探討的現(xiàn)實(shí)中的人工智能多為前者,主要包括專家系統(tǒng)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)。此類人工智能主要是以機(jī)器學(xué)習(xí)為核心,通常被置于搜索引擎里面,通過(guò)大數(shù)據(jù)可以自行判斷輸出結(jié)果,代表性應(yīng)用是算法推薦。

      在提及人工智能時(shí)往往會(huì)提到大數(shù)據(jù)和算法,這是因?yàn)榇髷?shù)據(jù)、算法與人工智能密不可分。數(shù)據(jù)量和算法可以分別比作人工智能的燃料和發(fā)動(dòng)機(jī)。算法是計(jì)算機(jī)基于所訓(xùn)練的數(shù)據(jù)集歸納出的識(shí)別邏輯,好的算法模型可以實(shí)現(xiàn)精準(zhǔn)的物體和場(chǎng)景識(shí)別。數(shù)據(jù)集的豐富性和大規(guī)模性對(duì)算法訓(xùn)練尤為重要。[7]人工智能近幾年之所以能快速發(fā)展,得益于諸多方面:一是傳感器性能和數(shù)量的大幅度提高、移動(dòng)互聯(lián)網(wǎng)的爆發(fā)使大量用戶接入互聯(lián)網(wǎng)積累了海量數(shù)據(jù);二是計(jì)算成本的降低和算力的進(jìn)步為處理、分析海量數(shù)據(jù)提供了可能;三是算法的進(jìn)步讓程序更智能、程序輸出結(jié)果更精準(zhǔn)。通過(guò)對(duì)大數(shù)據(jù)、算法和算力的關(guān)系分析我們可以發(fā)現(xiàn),大數(shù)據(jù)被稱作是21世紀(jì)的“新石油”并不是抽象意義上的比喻,而是一種現(xiàn)實(shí)的客觀描述:數(shù)據(jù)確實(shí)如石油一般具有巨大的經(jīng)濟(jì)效益。在某種程度上,算法已經(jīng)成為人工智能的三大基石——大數(shù)據(jù)、算法和算力——中最核心的議題,甚至可以說(shuō)“幾乎所有的經(jīng)濟(jì)運(yùn)行流程,或是人們的活動(dòng),都是由算法在幕后重新建立一種秩序”[8]。“算法社會(huì)的前提是萬(wàn)物數(shù)據(jù)化,這也包括人的數(shù)據(jù)化(datafication)”[9],將一切數(shù)據(jù)化、實(shí)現(xiàn)數(shù)據(jù)流最大化是算法社會(huì)內(nèi)在的邏輯。

      回到人工智能技術(shù)邏輯本身,人工智能所面臨的倫理問(wèn)題正是大數(shù)據(jù)和算法所面臨的倫理問(wèn)題。從人工智能的底層技術(shù)看,探討人工智能倫理問(wèn)題可以從大數(shù)據(jù)、算法和云計(jì)算這三個(gè)源頭考慮。根據(jù)對(duì)相關(guān)研究的梳理,這一層面的倫理問(wèn)題主要關(guān)注兩個(gè)方面:一個(gè)是實(shí)然的研究,即人工智能出現(xiàn)以后帶來(lái)了什么實(shí)質(zhì)性的影響,尤其是負(fù)面后果;一個(gè)是應(yīng)然的研究,人工智能作為一種技術(shù),應(yīng)該對(duì)其建構(gòu)怎樣的倫理。

      實(shí)然的研究集中于大數(shù)據(jù)人工智能的數(shù)據(jù)收集如何引發(fā)侵犯?jìng)€(gè)人隱私[10]、形成“全景監(jiān)獄”式的社會(huì)監(jiān)控[11]等問(wèn)題,以及算法如何帶來(lái)回音室效應(yīng)[12]、偏見(jiàn)問(wèn)題[13]等。訓(xùn)練算法需要借助大數(shù)據(jù),因此大數(shù)據(jù)的質(zhì)量尤為重要,基于“garbage in,garbage out”的原則,如果原始數(shù)據(jù)有問(wèn)題,那么算法建模運(yùn)行后的結(jié)果一定有問(wèn)題。算力是幫助算法運(yùn)行的基礎(chǔ),比起算法模型的準(zhǔn)確性和大數(shù)據(jù)來(lái)源的精準(zhǔn)性,算力并不是核心要素。因?yàn)榧词顾懔涨鞍l(fā)展,如果大數(shù)據(jù)和算法建模存在問(wèn)題,算力的強(qiáng)大只會(huì)讓我們更快地得出錯(cuò)誤的結(jié)果。所以,算力是作為硬件為軟件服務(wù)的。大數(shù)據(jù)之“大”,在于其體量大,因?yàn)樾枰拼鎯?chǔ)和云計(jì)算。借助于“云”的隱喻,云計(jì)算看起來(lái)像是沒(méi)有實(shí)體,但是實(shí)際上云計(jì)算背后是物質(zhì)性實(shí)體,需要建立數(shù)據(jù)儲(chǔ)存中心。從這個(gè)維度上說(shuō),云計(jì)算帶來(lái)的電子污染、隱私、安全、結(jié)構(gòu)性失業(yè)的問(wèn)題必不可免。云計(jì)算的問(wèn)題,也是大數(shù)據(jù)的問(wèn)題。[14]

      應(yīng)然的研究多是規(guī)范性研究,關(guān)注對(duì)人工智能的治理,旨在提出倫理準(zhǔn)則。[15]提出怎樣的倫理準(zhǔn)則依然與人工智能的底層邏輯相關(guān)。人工智能如何表現(xiàn)關(guān)鍵在于我們需要人工智能實(shí)現(xiàn)什么樣的目標(biāo)——實(shí)現(xiàn)的目標(biāo)是人類的目標(biāo),而不是人工智能自己的目標(biāo)。目標(biāo)指導(dǎo)算法結(jié)構(gòu)及其運(yùn)算的目的。因此,制定什么樣的目標(biāo)、如何制定目標(biāo)成為關(guān)鍵。一方面,從功能論的角度看,人工智能的目標(biāo)一定是實(shí)現(xiàn)效用最大化。但是實(shí)現(xiàn)的效用是誰(shuí)的效用?當(dāng)人工智能掌握在大公司手中,實(shí)現(xiàn)的一定是商業(yè)公司的目標(biāo)。價(jià)值涉入和偏好并不能兼顧到社會(huì)上所有的利益群體:比如普通大眾。而多元價(jià)值、多元利益共存的世界,要求利益各群體都投入到議題協(xié)商中。無(wú)論是政府、企業(yè)、學(xué)界,還是公眾,都應(yīng)該明晰人工智能的發(fā)展對(duì)個(gè)人意味著什么。

      媒介的邏輯非常重要,因此需要解開算法黑箱,了解人工智能的運(yùn)作邏輯和基本原理,明晰使用人工智能帶來(lái)的結(jié)果,幫助個(gè)體識(shí)別人工智能、警惕人工智能。媒介素養(yǎng)的概念自報(bào)紙、廣播、電視等傳統(tǒng)媒體時(shí)代就被提出了,其核心意涵在于如何提高公眾識(shí)別信息的能力?;谌斯ぶ悄艿男旅襟w成為公眾主要的信息來(lái)源,媒介素養(yǎng)的內(nèi)容應(yīng)隨之轉(zhuǎn)換。

      總而言之,看到技術(shù)的邏輯,明確思考人工智能的倫理應(yīng)從哪些維度著手。同時(shí),也應(yīng)該看到定位人工智能目標(biāo)的重要性,呼喚社會(huì)各方提高參與公共事務(wù)的意識(shí)。

      二、延續(xù):并非僅僅是人工智能才有倫理問(wèn)題

      倫理研究由來(lái)已久,倫理道德是一套調(diào)節(jié)人與人之間社會(huì)關(guān)系的價(jià)值系統(tǒng),包括內(nèi)在的價(jià)值理想和外在的行為規(guī)范。[16]“倫理學(xué)就是要去證明,當(dāng)我們追問(wèn)何為正確的行為時(shí),什么是正確的答案;就是要對(duì)為什么認(rèn)為我們關(guān)于人之品格或行為之道德的表述是對(duì)的或錯(cuò)的給出理由。”[17]倫理學(xué)是關(guān)于人的倫理學(xué),當(dāng)倫理的概念應(yīng)用于人工智能,追問(wèn)的是人工智能如何表現(xiàn)才是正確的行為。能給人工智能倫理提供指導(dǎo)作用的理論非常多,比如中外具有代表性的適度倫理原則:亞里士多德的中間之道、孔子的中庸之道,還有康德的絕對(duì)律令、密爾的效用原則、羅爾斯的無(wú)知之幕、諾丁思的關(guān)懷倫理學(xué)。倫理意味著我們?nèi)祟惾绾卫斫馑撕瓦@個(gè)世界,以及對(duì)他人和世界是什么樣的期待。因此,倫理研究從本質(zhì)上就有規(guī)范研究的傾向,即這個(gè)世界“應(yīng)當(dāng)”是什么樣子的判斷。從宏觀角度說(shuō),倫理是社會(huì)得以運(yùn)行的原則;從中觀角度說(shuō),不同的職業(yè)系統(tǒng)有不同的倫理原則(比如醫(yī)學(xué)倫理、新聞傳播倫理等);從微觀角度說(shuō),人與人之間的日常交往也需要倫理道德的規(guī)范。倫理研究在于追求“善”,讓生活更美好。因此,倫理問(wèn)題當(dāng)然不是人工智能出現(xiàn)后人類所面對(duì)的獨(dú)有的問(wèn)題,而是在倫理學(xué)脈絡(luò)上逐漸具體化的體現(xiàn)。

      人工智能作為一種技術(shù),其倫理問(wèn)題可以被看作是技術(shù)倫理的一種;人工智能應(yīng)用于實(shí)踐,也就有了相應(yīng)的職業(yè)倫理,比如機(jī)器人寫作的倫理問(wèn)題、算法推薦的倫理問(wèn)題等。采用何種技術(shù),決定了我們?nèi)绾慰创澜?,也?huì)改變我們與外部世界的關(guān)系。大數(shù)據(jù)和人工智能是一種新技術(shù),但是,所謂新型技術(shù)也只是某一階段的“新”。人類從第一階段的農(nóng)業(yè)社會(huì)到第二階段的工業(yè)社會(huì),再到第三階段的信息社會(huì),階段之間躍升所花的時(shí)間越來(lái)越短。關(guān)照現(xiàn)實(shí)固然有意義,互聯(lián)網(wǎng)出現(xiàn)后我們研究互聯(lián)網(wǎng),社交媒體出現(xiàn)后我們研究社交媒體,人工智能出現(xiàn)后我們研究人工智能,區(qū)塊鏈出現(xiàn)后我們研究區(qū)塊鏈……但是這種追“新”,需要問(wèn)一個(gè)問(wèn)題:然后呢?“趕時(shí)髦”的研究反而“亂花漸欲迷人眼”,讓人抓不到問(wèn)題的實(shí)質(zhì)。孫瑋提到:“大量的所謂新媒體研究,只不過(guò)是在舊有范式中填充入新媒體材料,是不斷地在用新材料驗(yàn)證舊理論?!盵18]

      為了解決這個(gè)問(wèn)題,我們可以從“媒介”的角度看人工智能。雖然強(qiáng)調(diào)媒介可能容易陷入媒介決定論的危險(xiǎn),但是,它卻是一種非常有效的看待事物的方法。尤其是當(dāng)我們從媒介技術(shù)發(fā)展史的角度探討相關(guān)問(wèn)題時(shí),這種有效性更加明顯。我們所要探討的“大數(shù)據(jù)”“人工智能”等新技術(shù),它們雖然從時(shí)間線上看是最新出現(xiàn)的,但是事實(shí)上它們也不過(guò)是整體媒介技術(shù)的一種具體表現(xiàn)形式罷了。將人工智能置于媒介發(fā)展史的長(zhǎng)河中看,當(dāng)有更新的技術(shù)出現(xiàn)后,所謂新技術(shù)又變成舊技術(shù)了。當(dāng)我們從這樣的視角切入探討大數(shù)據(jù)、人工智能和社會(huì)各行各業(yè)的關(guān)系時(shí),就不再是孤立的,而是從一種整體觀的路徑出發(fā)。這種分析視角使我們探討問(wèn)題更加深入、更加具有廣泛性。

      回溯倫理學(xué)的研究脈絡(luò),人工智能被劃分為擁有自我意識(shí)的“強(qiáng)人工智能”和無(wú)自我意識(shí)的“弱人工智能”,二者的倫理問(wèn)題并不能在同一層次的邏輯上探討。對(duì)于強(qiáng)人工智能,我們可以沿襲機(jī)器倫理的思路,先確定其主體性問(wèn)題,再探討其倫理問(wèn)題。但是,強(qiáng)人工智能從技術(shù)上是否能實(shí)現(xiàn),目前暫時(shí)還未知。雖然需要未雨綢繆,但是提出“可能存在”的倫理問(wèn)題需要有一個(gè)立得住的前提,即“可能存在倫理問(wèn)題”的人工智能從技術(shù)上來(lái)說(shuō)是可實(shí)現(xiàn)的。否則,人類所談?wù)摰娜斯ぶ悄艿膫惱韱?wèn)題只能是人的臆想。對(duì)于弱人工智能,因其是工具,沿襲技術(shù)倫理的思路,將其看作是“客體”,探討其倫理問(wèn)題就自然而然了。將人工智能看作一種技術(shù),人工智能倫理不再是孤立的,比如技術(shù)倫理本身就已經(jīng)是一個(gè)非常成熟的概念了。因此,人工智能倫理問(wèn)題是新現(xiàn)象背后的“老問(wèn)題”。

      就倫理學(xué)而言,依然存在很多懸而未決的問(wèn)題。比如,倫理學(xué)追求“善”,那么實(shí)現(xiàn)這一目標(biāo)是目的導(dǎo)向還是結(jié)果導(dǎo)向呢?當(dāng)做出一種行為是出于“善”的目的但是卻產(chǎn)生了壞的結(jié)果,那么這是可接受的嗎?當(dāng)做出一種行為盡管是出于“非善”的目的但是卻產(chǎn)生了好的結(jié)果,那么這是可接受的嗎?當(dāng)類似的重大議題沒(méi)有解決時(shí),研究人工智能倫理需要繼續(xù)推進(jìn)倫理學(xué)的研究向前,從總綱領(lǐng)的角度為人工智能倫理研究提供理論基礎(chǔ)。

      三、 重構(gòu):人工智能倫理研究的多重視角

      人工智能帶來(lái)的變革一觸即發(fā),互聯(lián)網(wǎng)行業(yè)之外的其他行業(yè)也會(huì)被顛覆,舊的系統(tǒng)有可能面臨崩潰。既然人工智能的出現(xiàn)帶來(lái)的問(wèn)題如此之大,人工智能倫理研究應(yīng)從哪幾個(gè)方向入手呢?根據(jù)前述對(duì)人工智能倫理現(xiàn)有研究的梳理發(fā)現(xiàn),現(xiàn)有研究往往聚焦于現(xiàn)狀、問(wèn)題、對(duì)策。這種研究具有一定的價(jià)值,但是問(wèn)題在于,如果研究視角過(guò)于狹窄,缺乏宏觀視角統(tǒng)籌,研究就無(wú)法歸類、無(wú)法與上一層級(jí)的學(xué)術(shù)傳統(tǒng)進(jìn)行對(duì)話、無(wú)法站在巨人的肩膀上將理論再往前推進(jìn)一步,同時(shí)也無(wú)法看清人工智能倫理的本質(zhì),直擊問(wèn)題的痛點(diǎn),給出切實(shí)可行的對(duì)策建議。為了突破目前研究的局限性,本文依然延續(xù)人工智能作為媒介的邏輯,提出四種研究路徑。

      (一) 將人工智能置于應(yīng)用場(chǎng)景中進(jìn)行探討

      目前大部分關(guān)于人工智能倫理問(wèn)題的探討多是從人工智能的應(yīng)用出發(fā),從實(shí)踐中探究人工智能的倫理問(wèn)題。人工智能的原理就是借助于海量數(shù)據(jù),通過(guò)算法,幫助實(shí)現(xiàn)智能。人工智能內(nèi)在的應(yīng)有之義就是獲得更多的數(shù)據(jù),因此互聯(lián)網(wǎng)公司想方設(shè)法收集用戶的信息。從個(gè)人的角度講,人有保護(hù)自己的隱私、保護(hù)個(gè)人數(shù)據(jù)的需要。在人工智能大數(shù)據(jù)時(shí)代就形成了“數(shù)據(jù)收集”和“數(shù)據(jù)保護(hù)”的悖論。[19]從隱私到用戶數(shù)據(jù),互聯(lián)網(wǎng)的發(fā)展改變了隱私的內(nèi)涵和外延,甚至模糊了公共領(lǐng)域與私人領(lǐng)域之間的界限。要解決這個(gè)悖論,實(shí)際上要解決的是公共利益與私人利益邊界的問(wèn)題。

      生活中的人工智能主要用于醫(yī)療(智能診斷)、交通(自動(dòng)駕駛)、智能家居等。除此之外,還有對(duì)社會(huì)排斥、社會(huì)公正、不平等問(wèn)題的關(guān)注。人工智能的發(fā)展必然會(huì)挑戰(zhàn)既有的人類價(jià)值,促使人類去重新思考人類的基本屬性與倫常關(guān)系。甚至還有對(duì)超級(jí)智能是否會(huì)“失控”,反過(guò)來(lái)取代、控制人類的隱憂。[20]從應(yīng)用中探討人工智能的倫理問(wèn)題,無(wú)疑是明智的。具體問(wèn)題具體分析,可以保證談?wù)摰膯?wèn)題具體到實(shí)處,進(jìn)而制定行之有效的對(duì)策。在尋找解決之道時(shí),主要體現(xiàn)在以下三個(gè)方面:第一,從理論層面和規(guī)范層面提出各種倫理原則以用于實(shí)踐時(shí),必須考量其現(xiàn)實(shí)可能性并尋求折中的解決方案;第二,應(yīng)擺脫未來(lái)學(xué)家簡(jiǎn)單的樂(lè)觀主義與悲觀主義立場(chǎng),從具體問(wèn)題入手強(qiáng)化人的控制作用與建設(shè)性參與;第三,要從人機(jī)協(xié)作和人機(jī)共生而不是人機(jī)對(duì)立的角度探討負(fù)責(zé)任的人工智能的可能。[21]但是問(wèn)題在于,提出對(duì)策應(yīng)當(dāng)是自然而然、水到渠成的,探討人工智能需要這種原則,探討其他的媒介技術(shù)就不需要這種原則了嗎?也就是說(shuō),提出的對(duì)策必然要看到人工智能倫理問(wèn)題所面臨的普遍性和特殊性。如此,才能真正理解人工智能倫理的內(nèi)涵所在。

      既然人工智能實(shí)現(xiàn)一定的目標(biāo)是靠算法設(shè)計(jì)操縱的,那么解決倫理的問(wèn)題也可以從源代碼的設(shè)計(jì)上規(guī)避倫理風(fēng)險(xiǎn)。比如,通過(guò)效用函數(shù)或決策樹的設(shè)計(jì)解決人工智能的倫理困境,實(shí)現(xiàn)利益最大化。[22]但是事實(shí)上,這種做法從技術(shù)上可行,在現(xiàn)實(shí)生活中往往很難實(shí)現(xiàn)。這就是“應(yīng)然”和“實(shí)然”的區(qū)別。這背后依然是商業(yè)主義與人文主義的沖突。人工智能的開發(fā)和利用往往是大公司先行,商業(yè)公司首要的目標(biāo)是盈利。在進(jìn)行人工智能應(yīng)用時(shí),希望人工智能可以帶來(lái)市場(chǎng)和利潤(rùn)。算法是有價(jià)值取向的,這種價(jià)值取向來(lái)自于算法執(zhí)行的目的。在使用人工智能時(shí),首先要制定執(zhí)行目標(biāo),根據(jù)不同的執(zhí)行目標(biāo)進(jìn)行算法的設(shè)置以實(shí)現(xiàn)相應(yīng)目標(biāo)。因此,如果公司的目標(biāo)是盈利,那么算法的執(zhí)行自然就是要獲取更多的點(diǎn)擊量、購(gòu)買量。這也就能解釋為什么從算法設(shè)置這一步就能解決算法偏見(jiàn),以及信息流通過(guò)程中所帶來(lái)的信息繭房問(wèn)題而商業(yè)公司卻毫不作為——將“善”的倫理嵌入算法結(jié)構(gòu)并不能為公司帶來(lái)利益。這一點(diǎn)與人工智能的技術(shù)邏輯相一致。因此,為了解決商業(yè)主義與人文主義的沖突,依然要向“多元協(xié)商”的策略靠攏:當(dāng)公眾意識(shí)到算法、大數(shù)據(jù)的應(yīng)用影響到自身的生活并且產(chǎn)生了負(fù)面影響,公眾必然要采取抵抗行動(dòng),通過(guò)行動(dòng)倒逼商業(yè)公司進(jìn)行算法的改良。比如劍橋分析數(shù)據(jù)泄露事件引發(fā)了用戶#delete Facebook#的行動(dòng),倒逼Facebook采取更強(qiáng)的隱私保護(hù)策略。[23]公眾的行動(dòng)之所以尤為重要,是因?yàn)橹挥泄姷牡挚剐袆?dòng)影響到企業(yè)的利益時(shí),企業(yè)才會(huì)采取改善的措施。除此之外,各方應(yīng)成立倫理審查委員會(huì),從專業(yè)的角度提出人工智能發(fā)展和應(yīng)用應(yīng)遵循的原則。正如學(xué)者段偉文所稱:“鑒于當(dāng)前的人工智能發(fā)展還遠(yuǎn)未達(dá)到這一或許會(huì)出現(xiàn)的未來(lái)情境,面向人工智能時(shí)代的價(jià)值校準(zhǔn)與倫理調(diào)適,應(yīng)與未來(lái)學(xué)家的悲觀主義和樂(lè)觀主義預(yù)見(jiàn)保持一定距離,而更多地訴諸人工智能當(dāng)下的真實(shí)發(fā)展程度與可預(yù)見(jiàn)的未來(lái)的可能性。唯其如此,才能系統(tǒng)深入地慎思、明辨、審度與應(yīng)對(duì)人工智能的倫理挑戰(zhàn)?!盵21]

      (二) 將人工智能置于媒介技術(shù)哲學(xué)更大的背景下探討

      對(duì)媒介技術(shù)的研究并不稀奇,從哈羅德·伊尼斯、馬歇爾·麥克盧漢以來(lái)的媒介技術(shù)學(xué)派,以及后繼的以約書亞·梅羅維茨為代表的媒介環(huán)境學(xué)派,都看到了媒介的重要性。每種新媒介的出現(xiàn),一定是給當(dāng)時(shí)的社會(huì)同時(shí)帶來(lái)新的機(jī)遇和恐慌。因此,當(dāng)我們把媒介的研究聚焦到人工智能上,雖然“媒介形式”是新的,但是其可能面對(duì)的隱憂和風(fēng)險(xiǎn)并不是新的。而對(duì)媒介的研究,核心關(guān)懷在于看到“媒介與人和社會(huì)”的關(guān)系。這種關(guān)系,并非是單向的,而是雙向的。一方面,我們要看到政治、經(jīng)濟(jì)、文化和社會(huì)對(duì)技術(shù)發(fā)展的形塑;另一方面,是要看到技術(shù)的反向作用。人工智能不僅作為工具為人所使用,更重要的是人工智能技術(shù)結(jié)構(gòu)所具有的內(nèi)在規(guī)則對(duì)人的思想和行為的形塑。因此,就會(huì)存在這樣的疑問(wèn):到底是人在利用人工智能還是人工智能在利用人?

      一種技術(shù)塑造一種新的生活方式,麥克盧漢通過(guò)“媒介即訊息”的描述指出,最重要的不是媒介傳遞的信息內(nèi)容,而在于媒介形式自身。麥克盧漢還稱,媒介即人的延伸,延伸意味著“截除”。也就是說(shuō),技術(shù)在一定程度上延伸了人的某種功能,但是卻會(huì)損害人的另一種功能。比如文字的發(fā)明幫助人記憶的同時(shí),也使得人的記憶能力變?nèi)酰碎_始過(guò)度依賴體外化的媒體。人工智能將人的延伸演化到極致——因?yàn)樗由斓氖侨四X。人工智能的出現(xiàn),使得人們?cè)谛畔⒈〞r(shí)代高效地獲取需要的信息,但是同時(shí)也讓人失去了自主性——過(guò)度依賴算法推薦的信息做出決策。因此,人們總是假裝在選擇,實(shí)際上順從了算法的決定。

      隨著現(xiàn)代科學(xué)技術(shù)的快速發(fā)展,正如凱瑟琳·海勒所言,人類已成為“后人類”。人與機(jī)器的聯(lián)系越來(lái)越密切,依賴越來(lái)越深,差異越來(lái)越小。將人工智能放置于媒介技術(shù)哲學(xué)背景下考察有一個(gè)好處是可以看到人工智能出現(xiàn)的脈絡(luò),進(jìn)而解決如何分辨人工智能倫理的一般性和特殊性的問(wèn)題。

      對(duì)于技術(shù)的理解有兩種理論可以參考:工具理論(instrumental theory)和實(shí)體理論(substantive theory)[24]。從工具理論的角度看,一定會(huì)得出技術(shù)是中立的,技術(shù)是善是惡關(guān)鍵是人如何使用它。但是從實(shí)體理論的角度看,一切技術(shù)都有價(jià)值偏向性。即使是最簡(jiǎn)單的弱人工智能,因?yàn)槠湟揽克惴?,所以?huì)包含價(jià)值導(dǎo)向:無(wú)論是有意識(shí)的企業(yè)價(jià)值導(dǎo)向,還是無(wú)意識(shí)的程序員的價(jià)值導(dǎo)向。所以,絕不能從中立性的角度看待人工智能。除此之外,人能在多大程度上控制人創(chuàng)造出的東西?技術(shù)是否有自主性?

      回答這些問(wèn)題,我們需要借助媒介技術(shù)哲學(xué)思考問(wèn)題的方式,回到媒介環(huán)境學(xué)派學(xué)者那里看媒介發(fā)展的歷史,看各種媒介是如何嵌入社會(huì)、給人和社會(huì)帶來(lái)影響的;回到海德格爾、基特勒、齊澤克等學(xué)者那里尋找理解媒介的靈感;回到雅克·埃呂爾、蘭登·溫納等學(xué)者那里尋找思考技術(shù)政治的方法。技術(shù)不斷使自身更加“技術(shù)化”[25],自主技術(shù)具有“自我生成、自我維持和自我規(guī)劃”的能力[26]。技術(shù)作為一種人造物(artifact)存在對(duì)非物的牽制性作用基本上已經(jīng)達(dá)成了共識(shí)[27]。倫理學(xué)研究又以其鮮明的價(jià)值取向?yàn)樘卣?,而這一點(diǎn)正與媒介技術(shù)哲學(xué)的研究取向相關(guān):從媒介技術(shù)哲學(xué)的立場(chǎng)上來(lái)說(shuō),技術(shù)從來(lái)都不是中立的。因此,當(dāng)技術(shù)出現(xiàn)了明顯的偏向性,就存在內(nèi)在的倫理問(wèn)題。人工智能底層的算法邏輯,比以往任何一種媒介更趨顯自主性。媒介哲學(xué)的反思潮流,是面對(duì)當(dāng)前數(shù)字場(chǎng)景傳統(tǒng)研究思路已然捉襟見(jiàn)肘的應(yīng)然之舉。[28]

      (三) 將強(qiáng)人工智能置于未來(lái)哲學(xué)的語(yǔ)境中探討

      對(duì)強(qiáng)人工智能的探討最初往往來(lái)源于科幻小說(shuō)。而對(duì)于人工智能尚未利用但是未來(lái)有可能涉足的領(lǐng)域,學(xué)者往往采用“可能性”來(lái)推斷這種倫理問(wèn)題。對(duì)強(qiáng)人工智能倫理的探討首先要解決從技術(shù)上講強(qiáng)人工智能能否實(shí)現(xiàn)的問(wèn)題。卡魯姆·蔡斯在其著作《人工智能革命:超級(jí)智能時(shí)代的人類命運(yùn)》中探討了這一問(wèn)題:我們能造出來(lái)嗎?如果能,什么時(shí)候能造出來(lái)?它安全嗎?作者稱,第一個(gè)問(wèn)題是最接近答案的,這個(gè)答案是“只要人類沒(méi)有在此之前滅絕,有可能”。而就第二個(gè)問(wèn)題,作者認(rèn)為,我們確實(shí)不知道人類能否制造一個(gè)大腦或者有意識(shí)的機(jī)器出來(lái)。[29]

      這是作者的一種看法,當(dāng)然,也有學(xué)者認(rèn)為可能實(shí)現(xiàn)。比如樂(lè)觀主義者雷·庫(kù)茲韋爾認(rèn)為:“只要擁有真實(shí)大腦的詳細(xì)數(shù)據(jù),我們就能模擬出生物學(xué)意義上的大腦?!盵30]既然學(xué)界對(duì)此有爭(zhēng)議,那么本研究就不能輕易下結(jié)論。做出“只要人類沒(méi)有滅亡,依靠進(jìn)化的能力一定能實(shí)現(xiàn)”的推論并不具有現(xiàn)實(shí)意義。強(qiáng)人工智能作為一種是否能實(shí)現(xiàn)還未知的事物,只能從源頭上加以防范。強(qiáng)人工智能的開發(fā)是否應(yīng)該成為科學(xué)研究的禁區(qū)?

      世界上第一個(gè)擁有公民身份的機(jī)器人——索菲亞——雖然并不能被看作是強(qiáng)人工智能機(jī)器人。但是她的出現(xiàn)讓我們思考:人工智能機(jī)器人是否具有人格、主體性?什么是機(jī)器人的權(quán)利?這些暫時(shí)都無(wú)法回答。但是這些風(fēng)險(xiǎn)和挑戰(zhàn)涉及倫理、法律和社會(huì)等方方面面,需要政府、學(xué)界、業(yè)界以及公眾共同應(yīng)對(duì)。作為工具使用的弱人工智能的倫理問(wèn)題關(guān)鍵在于使用主體,工具是否作惡全在于人如何使用它,應(yīng)該從制度上建立起弱人工智能的使用標(biāo)準(zhǔn)與規(guī)范。而強(qiáng)人工智能只能從源頭上加以防范。借助未來(lái)哲學(xué)的語(yǔ)境,對(duì)人工智能發(fā)展的可能性進(jìn)行預(yù)測(cè),可預(yù)測(cè)性是人工智能,尤其是強(qiáng)人工智能的倫理原則之一。[31]

      (四) 將人工智能置于跨學(xué)科的背景下探討

      如今的世界是具有復(fù)雜性的世界,任何單個(gè)人、單個(gè)學(xué)科的力量無(wú)法應(yīng)對(duì)高度復(fù)雜的問(wèn)題。因此,我們需要跨學(xué)科的研究視角?!翱鐚W(xué)科研究是回答問(wèn)題、解決問(wèn)題或處理問(wèn)題的進(jìn)程,這些問(wèn)題太寬泛、太復(fù)雜,靠單門學(xué)科不足以解決;它以學(xué)科為依托,以整合其見(jiàn)解、構(gòu)建更全面認(rèn)識(shí)為目的?!盵32]也就是說(shuō),跨學(xué)科研究是以研究問(wèn)題為導(dǎo)向,突破學(xué)科之間的藩籬,發(fā)揮各學(xué)科的優(yōu)勢(shì)來(lái)回答研究問(wèn)題。因此跨學(xué)科僅僅是解決問(wèn)題的手段和路徑。并非所有問(wèn)題或課題都適用于跨學(xué)科研究,不能為了跨學(xué)科而跨學(xué)科,而應(yīng)該堅(jiān)持問(wèn)題導(dǎo)向。當(dāng)研究問(wèn)題和課題是較為復(fù)雜的、尚未解決的社會(huì)需求或議題、單個(gè)學(xué)科并不能全面處理或解決該問(wèn)題、問(wèn)題的重要見(jiàn)解或理論由兩門及以上學(xué)科提供,[32](85)那么自然而然就“跨”了學(xué)科。

      為什么在人工智能時(shí)代需要強(qiáng)調(diào)跨學(xué)科?首先,因?yàn)槿斯ぶ悄艿淖h題過(guò)于復(fù)雜,而同時(shí)學(xué)科分化、專業(yè)化、碎片化的程度之高,依靠單個(gè)學(xué)科的力量無(wú)法解決?!艾F(xiàn)在社會(huì)的技術(shù)知識(shí)是如此高度專業(yè)化和分散,以至于大多數(shù)人僅僅能掌握一個(gè)微小的部分。”[26](23)其次,人工智能應(yīng)用于實(shí)踐,技術(shù)人員更傾向于關(guān)注其是否達(dá)到預(yù)定的目標(biāo)和效果,忽略了倫理問(wèn)題。一項(xiàng)對(duì)照研究發(fā)現(xiàn),道德準(zhǔn)則的有效性幾乎為零,它們并不會(huì)改變技術(shù)界專業(yè)人員的行為。[33]與之相對(duì)應(yīng)的,關(guān)注倫理問(wèn)題的學(xué)者可能不懂技術(shù),文科學(xué)者對(duì)技術(shù)保持天然的警惕,對(duì)維護(hù)人類安全、幸福的大憲章問(wèn)題有天然的敏感性。而由于不懂人工智能運(yùn)作的背后原理,尤其是算法黑箱的問(wèn)題,文科學(xué)者在探討倫理問(wèn)題時(shí)并不能直擊人工智能的軟肋。因此,在這樣的背景下重提跨學(xué)科研究,發(fā)揮各學(xué)科的優(yōu)勢(shì),達(dá)到協(xié)同創(chuàng)新的目的。

      “雖然大部分學(xué)院的學(xué)科障礙仍然阻遏了觀念的交換和信息的整合,但是要求各學(xué)科或多學(xué)科合并的呼聲現(xiàn)在非常高漲,幾乎已經(jīng)成為一種潮流了。”[34]人工智能倫理研究當(dāng)然也應(yīng)該促進(jìn)文科與理工科的交叉融合,促進(jìn)科技向善。傳播學(xué)天然地對(duì)媒介持有敏感性,傳播學(xué)學(xué)者總是先人一步地討論與媒介相關(guān)的新現(xiàn)象、新問(wèn)題,然而由于缺乏成熟和公認(rèn)的理論傳統(tǒng),隨著研究的深入傳播,研究最后總是被收編到其他學(xué)科的研究路徑之下,失去了自身學(xué)科的發(fā)言權(quán)。[35]而從媒介的角度理解人工智能,關(guān)注人工智能的倫理問(wèn)題可以激發(fā)人工智能倫理研究的活力,從傳播學(xué)的視角為人工智能倫理這一交叉領(lǐng)域做出自己的貢獻(xiàn)。

      四、余論:邁向未來(lái)的人工智能研究

      海德格爾和埃呂爾都從技術(shù)實(shí)體論的角度出發(fā),主張技術(shù)不是價(jià)值無(wú)涉的,“它承載著一定的價(jià)值內(nèi)涵并因此構(gòu)成我們難以擺脫和改變的社會(huì)環(huán)境和生活方式”[36]。關(guān)注人工智能倫理,關(guān)注的是人工智能是如何嵌入到社會(huì)結(jié)構(gòu)中,對(duì)人和社會(huì)產(chǎn)生影響的。而人工智能的發(fā)展也符合梅卡夫法則:使用某種技術(shù)的人數(shù)越多,產(chǎn)生的效益越是呈倍數(shù)級(jí)增長(zhǎng)。正如研究技術(shù)的人忽視了關(guān)注人工智能的倫理問(wèn)題一樣,研究倫理學(xué)的學(xué)者也應(yīng)該反思是否夸大了技術(shù)的負(fù)面效應(yīng)?比如每次新的技術(shù)出來(lái)都有人看到技術(shù)的負(fù)面效應(yīng):文字的出現(xiàn)讓人喪失主動(dòng)的記憶能力、印刷術(shù)的出現(xiàn)使得大量“機(jī)器復(fù)制的藝術(shù)作品”喪失了“靈韻”、電視的發(fā)明讓人擔(dān)心“娛樂(lè)至死”,互聯(lián)網(wǎng)和人工智能出現(xiàn)后自然也會(huì)有新的問(wèn)題。在對(duì)媒介的批評(píng)中,印刷媒體、廣播電視在互聯(lián)網(wǎng)的沖擊下似乎已經(jīng)退居二線。反觀其負(fù)面效應(yīng),似乎也沒(méi)有學(xué)者預(yù)測(cè)的那樣嚴(yán)重。但是問(wèn)題在于,當(dāng)學(xué)者放棄了對(duì)技術(shù)的批評(píng),商業(yè)主義必然占據(jù)控制技術(shù)發(fā)展的主導(dǎo)地位,多元協(xié)商的力量不再平衡,那么我們是否能由人工智能媒介時(shí)代“安全”過(guò)渡到下一個(gè)更新的媒介時(shí)代,就不可知了。學(xué)者作為多元利益主體的一分子,需要做出自己的行動(dòng)。

      “海德格爾已經(jīng)說(shuō)得很明白:你批判什么東西,不等于要逃避它。恰恰相反,你要直面它、擁抱它?!盵37]關(guān)注人工智能倫理,不是限制人工智能的發(fā)展。而是在發(fā)展的同時(shí),直面人工智能技術(shù)發(fā)展可能帶來(lái)的風(fēng)險(xiǎn)。倫理學(xué)最終回答的還是如何讓人類生活得更幸福的問(wèn)題。因此,了解人工智能的技術(shù)邏輯,重回倫理學(xué)研究的起點(diǎn),通過(guò)應(yīng)用場(chǎng)景、媒介技術(shù)哲學(xué)、未來(lái)哲學(xué)和跨學(xué)科的多重視角,也許能夠在人工智能技術(shù)廣泛應(yīng)用的今天,在倫理研究的問(wèn)題上提供更有價(jià)值的貢獻(xiàn)。

      猜你喜歡
      倫理媒介人工智能
      《心之死》的趣味與倫理焦慮
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      媒介論爭(zhēng),孰是孰非
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      書,最優(yōu)雅的媒介
      好日子(2018年9期)2018-10-12 09:57:18
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      歡迎訂閱創(chuàng)新的媒介
      下一幕,人工智能!
      反思媒介呈現(xiàn)中的弱勢(shì)群體排斥現(xiàn)象
      新聞前哨(2015年2期)2015-03-11 19:29:26
      龙里县| 石屏县| 襄城县| 阿瓦提县| 奉化市| 扎赉特旗| 安乡县| 衡东县| 互助| 宕昌县| 镶黄旗| 锡林郭勒盟| 开原市| 沙雅县| 六安市| 甘泉县| 怀安县| 交口县| 易门县| 云和县| 新泰市| 个旧市| 承德县| 册亨县| 腾冲县| 永泰县| 丰宁| 六安市| 武义县| 女性| 重庆市| 海南省| 鄂托克前旗| 连州市| 扬中市| 西林县| 大安市| 河间市| 多伦县| 女性| 巴南区|