作者簡介:劉兢,男,教授,博士;陳芷薇,女,碩士研究生。
摘"要:2022年夏季號Daedalus跨學(xué)科“人工智能—社會”討論分享了人工智能三大前沿應(yīng)用及兩大技術(shù)局限,呈現(xiàn)了西方學(xué)人以人工智能為鑒對自我、智能及語言的反思,更回應(yīng)了人工智能引發(fā)的就業(yè)危機、黑箱治理與大國博弈等西方社會新爭議。新聞傳播學(xué)立場的人工智能研究,可在微觀多主體人機溝通、中觀算法新聞生產(chǎn)及傳媒行業(yè)崗位變動、宏觀人工智能介入的傳播治理等方面探索新議題。
關(guān)鍵詞:人工智能;技術(shù)前沿;人文反思;社會爭議;新聞傳播學(xué)
中圖分類號:G206文獻標識碼:A文章編號:2096-8418(2023)03-0002-07
2023年2月,OpenAI公司開發(fā)的AI聊天工具ChatGPT讓人工智能再次成為坊間熱點。有人驚嘆它在人機對話中對答如流的從容表現(xiàn),也有人擔心它生成的大量貌似可信但實則并無實據(jù)的語句會讓本就滿是謬訊的網(wǎng)絡(luò)空間雪上加霜。人工智能這種新一代通用技術(shù)已在慢慢改變世界,正像當年的蒸汽機、電力所做的那樣。反躬自省,以“傳播”研究為業(yè)的新聞傳播學(xué)人又能為人類理解這一最新通用技術(shù)與社會的關(guān)系做些什么呢?
我們曾以“人工智能”“傳播”“AI”“Communication”為檢索詞分別檢索了2017年1月至2022年3月期間發(fā)表的CSSCI新聞傳播學(xué)期刊論文及SSCI傳播學(xué)一區(qū)期刊論文,并嘗試厘清部分高引文獻及重要期刊其他文獻的思路。主要發(fā)現(xiàn)如下:其一,中文高引文獻的焦點是人工智能對傳媒行業(yè)的影響,多從宏觀層面透視其對傳媒行業(yè)的全面滲入[1][2][3][4]及其影響下的媒介融合[5]、新聞生產(chǎn)[6]等變化;其二,也有中文文獻沿媒介哲學(xué)或倫理路徑切入,聚焦身體視角的智能傳播主體反思、以計算為基礎(chǔ)的智能傳播意義、人與作為傳播基礎(chǔ)設(shè)施的算法之關(guān)系及人工智能主播認知特性等議題[7][8][9][10],并心系人工智能引發(fā)的用戶隱私侵犯、虛假信息傳播、算法偏見等倫理爭議[11][12][13];其三,英文高引文獻的焦點是人工智能對傳播研究議程的影響,或從功能、關(guān)系及本體等方面概括出三大議程[14],或總結(jié)出“技術(shù)設(shè)計”與“技術(shù)對人際交流之影響”兩大論域[15],還有學(xué)人重視以機器學(xué)習為研究對象的計算民族志及人機溝通的心理效應(yīng)剖析[16][17];其四,英文高引文獻對人工智能出現(xiàn)后傳播實踐變化的討論不限于人機關(guān)系變化及合成政治視頻的負面影響等宏觀議題[18][19],用戶對算法決策的感知及他們與聊天機器人溝通后的情感與心理效果等微觀議題也不乏學(xué)者涉獵[20][21]。
上述討論敏銳地抓住了人工智能影響下人類傳播實踐的最新變化,無論是對傳媒行業(yè)調(diào)整、人機傳播效果、傳播倫理爭議的經(jīng)驗反思,還是對傳播主體及其關(guān)系變動、傳播研究議程更新的理論思辨,都能讓心系相關(guān)議題的同行清醒警惕。但它們主要是限于傳播實踐中人工智能已有應(yīng)用及其問題的分析。若我們跳出上述論域,對“當前人工智能能做什么?怎么做到的?不能做什么?”等技術(shù)類議題更加了然,對“人類如何通過人工智能反躬自省,豐富對自我、智能及語言的認識?”等人文類議題及“如何在善用人工智能的同時維護社會公平正義?圍繞人工智能的大國博弈如何展開?”等社科類議題更加關(guān)切,則有可能進一步跳出廬山看廬山,拓展新聞傳播學(xué)立場的人工智能研究的深度和廣度。
2022年夏季,美國藝術(shù)與科學(xué)院主辦的跨學(xué)科頂尖期刊Daedalus繼1988年首次出版人工智能專輯(第117卷第1期)后又一次推出了人工智能與社會專輯,以期“捕捉我們在人工智能發(fā)展中的位置,以及其日益廣泛的應(yīng)用如何影響社會”[22]。這為我們提供了打破知識屏障、管窺西方跨學(xué)科人工智能與社會研究最新進展的良機。一方面,頂尖計算機技術(shù)專家穆拉提、李飛飛和魯斯等人分享了科學(xué)家眼中的人工智能技術(shù)前沿動態(tài);另一方面,經(jīng)濟學(xué)諾獎得主斯班塞、美國前國防部長卡特、谷歌高級副總裁曼尼卡等人則從人文或社會科學(xué)的視角貢獻了他們對人工智能與人類自我反省及社會變局之間勾連的最新思考。我們期待能深入該專輯,梳理他們對上述技術(shù)類議題和人文及社科類議題的可能回答,以期為我國新聞傳播學(xué)立場的人工智能研究思路更新提供可能的刺激。
一、技術(shù)的能與不能:人工智能前沿應(yīng)用與局限
如果細讀了OpenAI公司現(xiàn)任首席技術(shù)官穆拉提在專輯中對該公司研發(fā)的大型語言處理模型GPT-3原理的梳理,就會明白本文開頭提到的由GPT-3衍生的人工智能聊天工具ChatGPT輸出語言的方式,本質(zhì)上是語言處理模型對“詞語序列中下一個詞的預(yù)測”[23]。你在聊天框里講了哪些話,ChatGPT就會在回溯分析大量文本中的詞義、詞語關(guān)系及句子結(jié)構(gòu)后計算出最可能伴隨這些話的特定詞句并把它們回復(fù)給你。也就是說,ChatGPT跟你講的話其實并無現(xiàn)實經(jīng)驗基礎(chǔ),只是匹配你發(fā)言提示(prompt)的符號反應(yīng)罷了,與能從現(xiàn)實經(jīng)驗出發(fā)推敲、反省、斟酌詞語的人類語言輸出方式完全不同。能跟人聊天其實不算啥,受過海量文本訓(xùn)練的GPT-3現(xiàn)在還能根據(jù)提示寫小說、摘文章,甚至按指令輸出一首仿聶魯達體情詩。
上述模擬人類語言的語言處理模型只是專輯中科學(xué)家們重點介紹的當前人工智能三大前沿應(yīng)用之一,模擬人類視覺的對象識別和模擬人類動作的軟體機器人則是另外兩大焦點應(yīng)用。斯坦福大學(xué)華裔專家李飛飛團隊將對象識別視為讀圖時代計算機視覺領(lǐng)域的明星議題,希望能教會計算機像人一樣正確識別給定圖片中的對象。可計算機沒法像人一樣靠捕捉“對象所處環(huán)境中的線索、對象的關(guān)鍵特征”[24]來感知對象,只能先用大量圖片對它進行“預(yù)訓(xùn)練”(pretraining)后才有可能在給定圖片中認出見過的對象。他們?yōu)榇私艘粋€擁有1500多萬張網(wǎng)絡(luò)圖片的超級圖庫ImageNet,但計算機目前最多只能“察覺”(perception)圖片中的對象是什么,還沒法像人一樣靠經(jīng)驗深刻“認知”(cognitive)對象之間的關(guān)系。麻省理工學(xué)院機器人專家魯斯直言他們團隊開發(fā)的能做基本移動及抓取的軟體機器魚Sofi的關(guān)鍵,是“(軟生物材料)肉身與組成大腦的算力之耦合(coupling)”[25]。這些外部是硅膠等可延展材料的軟體機器人可比現(xiàn)在工廠里笨重危險的硬體機器人靈活得多,在由軟體設(shè)計、線路板和計算技術(shù)引領(lǐng)的未來世界里,“形式和材質(zhì)各異的機器人都將亮相,助力人類在以人為中心的環(huán)境里干好各種體力活”[25]。
上述幾大前沿應(yīng)用的出現(xiàn),都離不開2000年代以來由海量網(wǎng)絡(luò)數(shù)據(jù)訓(xùn)練、計算軟硬件更新推動的人工神經(jīng)網(wǎng)絡(luò)技術(shù)突破,而迭代后的人工智能向醫(yī)療保健、環(huán)境監(jiān)測、個性化學(xué)習、藝術(shù)創(chuàng)作等更多領(lǐng)域的延伸,更讓很多人相信“人工智能物種演化(speciation)仍將繼續(xù),深入我們身處其中的‘賽博—現(xiàn)實世界’里的許多小世界,從特定任務(wù)到日常生活”[26]??扇斯ぶ悄芸此茻o所不能,實則能力有限,其中“人工通用智能”和“模仿直覺思維”是專輯中科學(xué)家們提及最多的當前兩大局限。
其一,跨越不同任務(wù)和場景的“人工通用智能”(AGI)短期內(nèi)還無法實現(xiàn)。人工智能先驅(qū)西蒙和紐威爾曾預(yù)言過“與人類思維疆域同步”的機器[27],但像人類一樣“適應(yīng)任何問題及情境并能自我革新及調(diào)整目標”[22]的“人工通用智能”迄今仍只存在于《星球大戰(zhàn)》等好萊塢大片的幻想之中。當前人工智能主流是能做好重復(fù)、數(shù)據(jù)密集且社交性較弱的(asocial)單項任務(wù)的“窄人工智能”,可它們沒法將在一組訓(xùn)練數(shù)據(jù)中習得的某項任務(wù)能力遷移至其他任務(wù)中去。能擊敗人類圍棋高手的“AlfaGo”除了下棋之外干不了別的,而人類智力的一大標志則是能舉一反三,“發(fā)現(xiàn)不同任務(wù)的相似之處,并讓這些與舊任務(wù)共性的領(lǐng)悟增值(parlay)以應(yīng)對新任務(wù)”[24]。其二,模仿人類思維中的直覺(intuitive reasoning)對現(xiàn)階段的人工智能來說更是不可能的任務(wù)。當前主流人工智能研究預(yù)設(shè)人類思維通過形式邏輯來建構(gòu),諸多應(yīng)用需要給定明確前提才能完成被分配的任務(wù)。這樣的思路強調(diào)的是按部就班正確地完成任務(wù),而“沒法就創(chuàng)造性地生成前提、使用概念和推理規(guī)則拿出高招”[28]??扇祟愃季S中除了嚴謹?shù)倪壿嬤€有神秘的直覺。后者重視豐富而非正確,常沒來由地即興發(fā)揮:不僅能聽出弦外之音,“超越在靜態(tài)圖像里所看到的,腦補圖像背后的動態(tài)故事”,還能來場頭腦風暴,在無限遞歸、層層延展的思維空間里“交錯組合物體、動作、位置、屬性和情感等概念”[28]。
二、自我、智能與語言:人工智能刺激下的人文反思
與上述探索人工智能模擬人類能力邊界的科學(xué)家們不同,專輯中的另外一些人文學(xué)者則期待以人工智能為鑒,找尋它們對人類自我反省的意義,因為在他們眼里“人工智能作為一種觀察人類的方式將日益重要,不管這些程序本身在模仿人類思維的方方面面上是否成功”[29]。在這些學(xué)人筆下,人類果真了解自我嗎?果真了解智能嗎?語言與人類的關(guān)系到底是什么?這些問題在人工智能出現(xiàn)之后都被讀出了更豐富的意涵。
其一,人工智能讓人類重新審視自我。人類對自身能力的認識可能是有局限的:當人工智能研究將讓數(shù)字計算機或由計算機控制的機器人模擬與智力、創(chuàng)造力、同情心、關(guān)系等X概念相關(guān)的人類能力視為孜孜以求的圣杯時,也許會“限制其他能更好補充或服務(wù)人類的X概念的可能性”[22]。人類自身的捉摸不定其實相當危險:人工智能只要人類下達指令即可如法執(zhí)行,可人類往往會瞻前顧后,對哪些指令能帶來最大公益既看不清也辨不明;所以可怕的是“能力強大的機器與無法全面正確地說清自身愿望的人類湊在一起”[30],因為一旦人工智能不管不顧地要完成人類既定指令,買不到后悔藥的人類就可能方寸大亂。人類對讓人工智能復(fù)制自我這事更不能太過執(zhí)念:一是要讓科學(xué)洞悉人類的秘密可不容易,GPT-3在回應(yīng)牛津萬靈學(xué)院測試時就提示人類“科學(xué)只能告訴你人不是什么,可要真想弄明白人是什么,最好求助哲學(xué)而非科學(xué)”[31];二是就算有朝一日科學(xué)真能解開所有人類謎題,人類也要三思,想想“人之為人,需要守住多少自身運作黑箱的秘密,留下多少模擬或復(fù)制自身的空白”[22]。
其二,人工智能讓人類重新審視智能。首先,何謂人工智能其實見仁見智。1950年代人工智能先驅(qū)們想法明確,要“讓機器使用語言、形成抽象和概念、解決人類各種問題并自我更新”[32]。但思路漸寬的后繼者們則提出“若某機器行動能達成其目標,就是有智能”,于是人工智能基本模式就成了“我們設(shè)定目標,剩下的交給機器”[30]。但其實人們對哪些目標是智能體現(xiàn)眾說紛紜:有人說還是“語言、學(xué)習、記憶和問題解決”重要,有人則認定“復(fù)雜世界的生存能力”及“展示認知和運動技巧能力”才重要;還有人干脆說將“是否實現(xiàn)既定目標”作為智能體現(xiàn)其實不妥,因為除了下棋等少數(shù)任務(wù),人類解決很多任務(wù)時都得因地制宜、隨時調(diào)整既定目標。其次,以人類作為智能尺度更值得商榷。致力于讓機器仿效人類智能的人們似乎預(yù)設(shè)智能是有層級的,但我們“將自身置于線性量度(a linear scale)中時,也會對尺有所短、寸有所長這一事實視而不見”[26]。人類有可能是井底之蛙,看不到章魚用腕足行走、變色龍隨環(huán)境變色等自然界里“有別于我們的聰明法子”,也有可能夜郎自大,為讓自己獨享“智能”名號而把計算機的很多進步都說成是非智能表現(xiàn)[22]。
其三,人工智能讓人類重新審視語言之于人類的意義。GPT-3等語言處理模型也能輸出人類語言了,人類語言似乎不再是區(qū)分人與自然的人類專屬能力,人類似乎被降格為“物質(zhì)世界中諸多物質(zhì)(有生命或無生命、有機物或機器、自然或人工)中的一種”[33],這對人類意味著什么呢?有人仍堅稱語言與人類關(guān)系獨特:語言處理模型輸出的并非真的人類語言,它們所做的只是“按概率隨機將在海量受訓(xùn)數(shù)據(jù)中觀察到的語言形式拼湊在了一起,未涉及任何意義”[33];只有人才能通過語言賦予事物意義,“這是人類的存世方式,讓我們把事物條分縷析,進而共同創(chuàng)造世界”[33]。有人則宣稱語言與人類的關(guān)系其實并無定論,相信人類語言是神賜天賦或人類語言讓人類與自然兩分曾經(jīng)都能自圓其說,但語言處理模型的出現(xiàn)讓索緒爾結(jié)構(gòu)主義語言觀有了新佐證——“語言是一個按內(nèi)部組合邏輯創(chuàng)建的系統(tǒng),獨立于任何言說者(人或機器)”[33]。還有人在和語言模型的交流中頓悟,提出與其糾結(jié)語言模型說出的話是否真實,不如問問自己和它交流時的感受。語言模型證明語言可以和情感分離,但我們和它們聊得越久,就越容易投入情感與它們建立關(guān)系,所以“談到人工智能時,很多人會覺得求一段關(guān)系比深不見底的‘真實’問題更重要”[34]。
三、就業(yè)、治理與大國博弈:人工智能社會影響之爭議
西方學(xué)人對人工智能的技術(shù)探索及人文反思是普適的,這些是全人類的共同問題,而對人工智能之于西方社會影響的討論卻是特殊的,回應(yīng)的是他們心中西方社會的特殊難題。如何看待人工智能對西方社會就業(yè)崗位的影響?如何治理已漸漸嵌入重要政治經(jīng)濟活動的人工智能黑箱?如何應(yīng)對人工智能時代的大國博弈?這些是專輯中一些社科學(xué)人各抒己見的另一些熱點。
專輯中幾位經(jīng)濟學(xué)家對當前受人工智能影響的就業(yè)崗位看法不一。前克林頓政府顧問泰森重視中低端崗位所受的沖擊,強調(diào)雖然從長期看來人工智能會帶動無法自動化的崗位生產(chǎn)力需求上升(productivity)及人機結(jié)合新崗位升級(reinstatement),但短期內(nèi)則會替代(displacement)大量可自動化崗位[35],這會造成中端崗位流失、高低端崗位收入差距進一步拉大的短期“崗位極化”現(xiàn)象,亟需政府出臺社會保障、職業(yè)培訓(xùn)等政策幫助中低端崗位人群過渡[35]。諾獎得主斯賓塞則提示我們,上一階段“基于代碼的數(shù)字化”影響的確實主要是中端藍白領(lǐng)崗位,一些高端崗位工作當時沒法被寫成代碼交給機器;但現(xiàn)階段“人工智能突破后的數(shù)字化”的影響可能更為全面,一些專業(yè)性高端崗位也無法幸免,“它們雖不至于全面自動化,但通過‘關(guān)鍵任務(wù)自動化’的‘數(shù)字機器增強’已出現(xiàn)”[36],如OpenAI開發(fā)的能編寫、轉(zhuǎn)譯計算機代碼的人工智能系統(tǒng)。數(shù)字經(jīng)濟專家布林諾夫森的反思則更為徹底,批評循著圖靈路徑只追求能用自動化機器替代人類的“類人人工智能”(human-like artificial intelligence),其雖既能解放勞力又能照亮心靈,但卻更可能淪為讓少數(shù)技術(shù)控制者得益、大多數(shù)群體因下崗而生怨的陷阱;人工智能研究應(yīng)將重心轉(zhuǎn)向“增強而非模擬人類”,通過新工具和新平臺增強人力以普惠大眾,而非只關(guān)心自動化取代人力而讓蛋糕被少數(shù)人瓜分[37]。
專輯中幾位倫理學(xué)、政治學(xué)學(xué)人對于須治理人工智能黑箱卻有共識,并基于各自的背景給出了建議。隨著當前人工智能對西方金融信貸交易等商業(yè)活動及社保、移民、保釋資格審查等政務(wù)活動的嵌入,相關(guān)質(zhì)疑也不絕于耳。一方面,算法、數(shù)據(jù)庫及應(yīng)用等人工智能三大架構(gòu)都易出紕漏[38]。算法設(shè)計可能反映設(shè)計者對女性、少數(shù)族裔、低收入者等弱勢群體的偏見,訓(xùn)練算法時輸入數(shù)據(jù)的代表性既可能不足也可能過度,其不當應(yīng)用更可能侵犯受影響者的權(quán)利甚至操縱他們的行為。另一方面,技術(shù)黑箱讓受影響者難以制約那些手握人工智能工具的商家和掌權(quán)者。貸款申請者、社交媒體用戶、社保申請人等受影響者在上述三大架構(gòu)中都無機會參與,他們“幾乎沒有角色能指導(dǎo)分配利益和責任的算法”[39],甚至被蒙在鼓里,“被有偏見的決策控制還不自知,或因決策缺乏透明度對偏見束手無策”[40]。
呼應(yīng)上述質(zhì)疑,一些學(xué)人整理出若干價值規(guī)范:或列出算法公開、維護人權(quán)、機會均等、向弱勢傾斜等人工智能正義原則[41],或提倡人工智能研發(fā)要從最大限度追求人類偏好或財富的功利主義倫理轉(zhuǎn)向珍視價值多元、重視程序、擴大民眾參與等理念的人文主義倫理[42],或喊出增加利益相關(guān)者參與度、向外界分享算法運營關(guān)鍵信息、研發(fā)能幫受害者索償?shù)乃惴鞒套匪菁夹g(shù)等提升人工智能公眾信任等倡議[39]。另一些學(xué)人則托出了具體治理方案。懂技術(shù)的前美國國防部長卡特建議三管齊下:一是通過企業(yè)內(nèi)部多重把關(guān)、政府設(shè)立行業(yè)標準等法子提升算法設(shè)計質(zhì)量和透明度;二是通過落實匿名以保護數(shù)據(jù)源隱私、多重審查以減少數(shù)據(jù)偏差等方式確保訓(xùn)練算法的數(shù)據(jù)來源之正當性及準確性;三是加大對涉嫌欺詐、操縱等不法勾當?shù)娜斯ぶ悄軕?yīng)用的監(jiān)管力度[38]。劍橋數(shù)字政務(wù)專家瑪吉茨則期待改進政府的人工智能應(yīng)用以達善治:人工智能可幫助政府偵測所需信息,預(yù)測“須關(guān)注的趨勢或關(guān)系”以優(yōu)化資源分配,甚至模擬救災(zāi)、防疫等重大決策的可能后果;在技術(shù)幫助下,政府應(yīng)提升自我創(chuàng)新能力、建立決策模型并著力識別并應(yīng)對社會中的結(jié)構(gòu)性不公[43]。
專輯中還有一份美國人工智能國安委員會前主席施密特的報告。他看似對人工智能時代的大國博弈了如指掌,而中國成了他筆下美國的頭號勁敵。其一,人工智能改變了國際戰(zhàn)爭形態(tài)。從社交機器人介入后真真假假的網(wǎng)絡(luò)輿論攻防到已有自動武器登場的常規(guī)戰(zhàn),甚至連核大國之間的脆弱均勢也可能因難以預(yù)料的智能武器打擊而變得更脆弱。因此,核大國應(yīng)盡量摸清彼此紅線,“確保雙方至少總體上知曉彼此在做什么”[44]。其二,人工智能讓在美國運營的Tiktok等他國網(wǎng)絡(luò)平臺成為隱患。它們平時可能利用人工智能學(xué)習并引導(dǎo)美國用戶行為,戰(zhàn)時則“可能被‘武器化’、中止服務(wù),成為‘潛在制衡利器’”[44]。其三,中國是美國在人工智能領(lǐng)域的最大對手,但沒法與中國徹底脫鉤的美國應(yīng)做兩手打算。中美爭霸不可避免,“只有美中擁有資源、商機、人才和創(chuàng)新生態(tài)體系,能在人工智能領(lǐng)域引領(lǐng)世界”[44];美國應(yīng)既在敏感技術(shù)領(lǐng)域防范中國,又保持雙方商業(yè)和科研領(lǐng)域的互惠合作,“雙邊合作既要選擇性脫鉤,也須在共同利益領(lǐng)域延續(xù)下去”[44]。
四、討論:跨學(xué)科視野與新聞傳播學(xué)立場的人工智能研究
西方人工智能與社會研究已從計算機科學(xué)的機房延伸至相關(guān)科學(xué)的實驗室及人文與社會科學(xué)者的書齋或田野,上面露出的只是冰山一角,但我們相信它們已為我們了解西方相關(guān)研究的最新進展推開了一扇偏窗??茖W(xué)家已能讓人工智能根據(jù)人類“提示”或經(jīng)過“預(yù)訓(xùn)練”完成語言輸出、對象識別等任務(wù),還設(shè)計出由它們加持的體型更小、身段更軟的機器生物,但沒法讓它們像人類一樣跨越不同的任務(wù)和場景工作,更不太可能讓它們學(xué)會一葉知秋、天馬行空的人類直覺思維。人文學(xué)者眼中的人工智能可以是反映人性的鏡子,在豐富人類對自我、智能及語言與人類關(guān)系的認識同時,也讓人類警覺自身的弱點與欲望、叩問以往那些幫助人類在蕓蕓眾生中找自己的參照系的意義。社會科學(xué)學(xué)者則試圖指出:無論人工智能時代就業(yè)趨勢是高低端崗位收入差距拉大還是高端崗位也得一并洗牌,“增強而非模擬人類”以普惠大眾才是人工智能的主要研發(fā)方向;倡導(dǎo)正義、倫理、信任以達到人工智能善治的前提是打開技術(shù)黑箱,既得深入算法、數(shù)據(jù)庫及應(yīng)用等人工智能內(nèi)部架構(gòu)把關(guān),還得把握偵測、預(yù)測、模擬等智能政務(wù)新動向。最后的施密特報告也警醒我們,雖然學(xué)術(shù)無國界但學(xué)者有國籍,西方學(xué)者們早已開始為“新冷戰(zhàn)”時代人工智能等數(shù)字技術(shù)前沿的中西博弈支招了。
上述跨學(xué)科討論能為新聞傳播學(xué)立場的人工智能研究提供哪些啟示呢?我們拋磚引玉,提出若干淺見以求教諸位方家。
其一,微觀層面的人工智能與人機溝通研究,可在積累新經(jīng)驗材料的基礎(chǔ)上,針對多元主體溝通中出現(xiàn)的新課題提出洞見。前人曾將“以人工智能為中介的傳播”視為人工智能傳播研究的一大主題[15],落腳點還是作為二元主體的人和機器;而多元主體之間的溝通協(xié)調(diào)則成了“虛擬與現(xiàn)實交織、AI主體間互動及AI主體與人互動并存”[45]的人工智能傳播新階段的新課題。作為溝通主體的AI被設(shè)計時如何避免偏見、尊重隱私及善用數(shù)據(jù)?如何應(yīng)對多元主體溝通時可能出現(xiàn)的AI之間協(xié)調(diào)、AI誤導(dǎo)人類、人與人之間誤解等問題?這些都需要基于新經(jīng)驗材料予以解答。及時發(fā)現(xiàn)問題并對癥下藥,才有可能避免人工智能重蹈社交媒體“重增長輕安全”的覆轍。被巨頭壟斷的社交媒體正離“聯(lián)結(jié)人群以益世樂民”的美好承諾越來越遠,留下式微的新聞行業(yè)、滿網(wǎng)的假消息和愈演愈烈的青少年心理危機等一地雞毛[46]。
其二,中觀層面的人工智能與傳媒行業(yè)研究,可在緊盯人工智能引發(fā)的新聞生產(chǎn)最新變動的同時,深描其對我國傳媒行業(yè)崗位結(jié)構(gòu)的影響。ChatGPT等語言處理模型讓“算法新聞中人的價值”這一新聞生產(chǎn)中已略顯陳舊的老話題起了新波瀾。雖然當前語言處理模型能輸出的早已不僅是基于結(jié)構(gòu)化數(shù)據(jù)的標準化稿件了,但科學(xué)家們在前文坦言最先進的人工智能也學(xué)不來與創(chuàng)造力密切相關(guān)的人類直覺思維。因此,了解人類記者如何在語言處理模型輔助下發(fā)揮創(chuàng)造力與追問語言處理模型還能輸出啥稿件同樣重要,如探索“他們何時以及如何將工作委托給能算出標準并對信息進行優(yōu)先、分類、聯(lián)結(jié)及過濾的算法”[47]。此外,雖然人工智能對可自動化崗位的“替代”效應(yīng)在我國傳媒行業(yè)已現(xiàn)端倪,如早就上崗“寫”財訊的Dreamwriter,可難以自動化的舊崗位究竟是哪些?人機結(jié)合的新崗位又在哪里?前者可能少不了須應(yīng)付復(fù)雜場景的外派記者,后者肯定包括設(shè)計算法預(yù)測甚至創(chuàng)造用戶信息需求的工程師,但更全面的崗位結(jié)構(gòu)變動分析還有待調(diào)研。麥肯錫《COVID-19后工作的未來》報告就是深描現(xiàn)實的好范本。該報告強調(diào)疫情讓“身體接觸”成了影響崗位自動化的新變量,加速了人工智能在一些社交性較強崗位的推廣,如現(xiàn)場客服、休閑旅游、計算機文秘及室內(nèi)倉儲[48],這與當前人工智能主流應(yīng)用對能完成社交性較弱任務(wù)的“窄人工智能”的強調(diào)并不一致。
其三,宏觀層面的人工智能與傳播治理研究,可結(jié)合對智能技術(shù)的掌握更新議程,但也不能忘了人類判斷的重要性。一方面,在處理國內(nèi)輿情管理和國際話語權(quán)競爭議題時,可利用機器學(xué)習的分類聚類功能偵測國內(nèi)違法違規(guī)言論及國際反華信息攻擊并開發(fā)相應(yīng)反制技術(shù),那么借助機器學(xué)習工具發(fā)現(xiàn)并預(yù)測值得關(guān)注的國內(nèi)外涉華輿論走向也不難實現(xiàn),在做出可能引發(fā)國內(nèi)外輿情波動的重大決策前基于以往數(shù)據(jù)模擬各種可能的后果也值得嘗試。另一方面,在瞬息萬變的輿論場中過于依賴機器可能適得其反,因為能被機器轉(zhuǎn)化為數(shù)據(jù)的現(xiàn)實相當有限。在這個充滿不確定性的時代,人類“那些出自實際、不言自明的即興知識和非正式?jīng)Q策過程,對于因地制宜地求一個更好的結(jié)果不可或缺”[49]。比如,中國站在人工智能前沿靠的不是追著美國比拼新潮研發(fā)而是深耕“制造能力這一并不酷炫的任務(wù)”[50],這類當前數(shù)字中國輿論熱潮中的冷思考只能來自實事求是的人類“中國通”。
參考文獻:
[1] 喻國明,等智能化:未來傳播模式創(chuàng)新的核心邏輯—兼論“人工智能+媒體”的基本運作范式[J]新聞與寫作,2017(3):41-45
[2] 仇筠茜,陳昌鳳黑箱:人工智能技術(shù)與新聞生產(chǎn)格局嬗變[J]新聞界,2018(1):28-34
[3] 彭蘭更好的新聞業(yè),還是更壞的新聞業(yè)?——人工智能時代傳媒業(yè)的新挑戰(zhàn)[J]中國出版,2017(24):3-8
[4] 張志安,劉杰人工智能與新聞業(yè):技術(shù)驅(qū)動與價值反思[J]新聞與寫作,2017(11):5-9
[5] 沈浩,袁璐人工智能:重塑媒體融合新生態(tài)[J]現(xiàn)代傳播,2018(7):8-11
[6] 張超,鐘新從比特到人工智能:數(shù)字新聞生產(chǎn)的算法轉(zhuǎn)向[J]編輯之友,2017(11):61-66
[7] 孫瑋交流者的身體:傳播與在場—意識主體、身體—主體、智能主體的演變[J]國際新聞界,2018(12):83-103
[8] 陳衛(wèi)星智能傳播的認識論挑戰(zhàn)[J]國際新聞界,2021(9):6-24
[9] 蔣曉麗,鐘棣冰智能傳播時代人與算法技術(shù)的關(guān)系交迭[J]新聞界,2022(1):118-126
[10] 於春傳播中的離身與具身:人工智能新聞主播的認知交互[J]國際新聞界,2020(5):35-50
[11] 姬德強深度造假:人工智能時代的視覺政治[J]新聞大學(xué),2020(7):1-16
[12] 林愛珺,劉運紅智能新聞信息分發(fā)中的算法偏見與倫理規(guī)制[J]新聞大學(xué),2020(1):29-39
[13] 許向東,王怡溪智能傳播中算法偏見的成因、影響與對策[J]國際新聞界,2020(10):69-85
[14] Guzman, Lamp; Lewis, C(2020)Artificial intelligence and communication: A human-machine communication research agendaNew Media amp; Society, 22(1): 70-86
[15] Hancock, JT, Naaman, Mamp; Levy, K(2020)AI-mediated communication: Definition, research agenda, and ethical considerationsJournal of Computer-Mediated Communication, 25(1): 89-100
[16] Elish, Camp; Boyd, D(2018)Situating methods in the magic of big data and AICommunication Monographs, 85(1): 57-80
[17] Sundar, S(2020)Rise of machine agency: A framework for studying the psychology of human-AI Interaction (HAII)Journal of Computer-Mediated Communication, 25(1): 74-88
[18] Lewis, SC, Guzman, ALamp; Schmidt, TR(2019)Automation, journalism, and human-machine communication: Rethinking roles and relationships of humans and machines in newsDigital Journalism, 7(4): 409-427
[19] Vaccari, Camp; Chadwick, A(2020)Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in newsSocial Media+ Society, 6(1):2056305120903408
[20] Shin, D(2020)User perceptions of algorithmic decisions in the personalized AI system: perceptual evaluation of fairness, accountability, transparency, and explainabilityJournal of Broadcasting amp; Electronic Media, 64(4): 541-565
[21] Ho, A, Hancock, Jamp; Miner, AS(2018)Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbotJournal of Communication, 68(4): 712-733
[22] Manyika, J(2022)Getting AI right: Introductory notes on AI amp; societyDaedalus, 151 (2): 5-27
[23] Murati, E(2022)Language amp; coding creativityDaedalus, 151 (2): 156-167
[24] Li, Famp; Krishna,R (2022)Searching for computer vision north starsDaedalus, 151 (2): 85-99
[25] RusD,(2022)The machines from our futureDaedalus, 151 (2): 100-113
[26] Shadbolt, N(2022)From so simple a beginning: Species of artificial intelligenceDaedalus, 151 (2): 28-42
[27] Simon, Hamp; Newell,A(1958)Heuristic problem solving: The next advance in operations researchOperations Research, 6 (1): 1-10
[28] Choi, Y(2022)The curious case of commonsense intelligenceDaedalus, 151 (2): 139-155
[29] Bolter, D(1984)Artificial intelligenceDaedalus, 113(3): 1-18
[30] Russell, S(2022)If we succeedDaedalus, 151 (2): 43-57
[31] Manyika, J(2022)Afterword: Some illustrationsDaedalus, 151 (2): 372-379
[32] McCarthy, J, Minsky, ML, Rochester, Namp; Shannon, CE(2006)A proposal for the dartmouth summer research project on artificial intelligence, August 31, 1955AI Magazine, 27(4): 12-12
[33] Rees, T(2022)Non-human words: On GPT-3 as a philosophical laboratoryDaedalus, 151 (2): 168-182
[34] Arcas, A(2022)Do large language models understand us?Daedalus, 151 (2): 183-197
[35] Tyson, Lamp; Zysman,J(2022)Automation, AI amp; workDaedalus, 151 (2): 256-271
[36] Spence, M(2022)Automation,augmentation, value creation amp; the distribution of income amp; wealthDaedalus, 151 (2): 244-255
[37] Brynjolfsson, E(2022)The turing trap: The promise amp; peril of human-like artificial intelligenceDaedalus, 151 (2): 272-287
[38] Carter, A(2022)The moral dimension of AI-assisted decision-making: Some practical perspectives from the front linesDaedalus, 151 (2): 299-308
[39] Dwork, Camp; Minow,M(2022)Distrust of artificial intelligence: Sources amp; responses from computer science amp; lawDaedalus, 151 (2): 309-321
[40] Katyal, S(2022)Democracy amp; distrust in an era of artificial intelligenceDaedalus, 151 (2): 322-334
[41] Gabriel, I(2022)Toward a theory of justice for artificial intelligenceDaedalus, 151 (2): 218-231
[42] Tasioulas, J(2022)Artificial intelligence, humanistic ethicsDaedalus, 151 (2): 232-243
[43] Margetts, H(2022)Rethinking AI for good governanceDaedalus, 151 (2): 360-371
[44] Schmidt, E(2022)AI, great power competition amp; national securityDaedalus, 151 (2): 288-298
[45] Kobi, G. amp; Grosz,B.J. (2022)Multi-agent systems: Technical amp; ethical challenges of functioning in a mixed groupDaedalus151 (2)114-126
[46] Chow, A amp; Perrigo, B(2023)The AI arms race is changing everythingTime201 (7): 51-54
[47] Diakopoulos, N (2019) "Automating the news: How algorithms are rewriting the media Cambridge, MA: Harvard University Press
[48] McKinsey Global InstituteThe future of work after COVID-19Retrieved March15,2022,from https://wwwmckinseycom/featured-insights/future-of-work/the-future-of-work-after-covid-19
[49] Coyle, D(2022)Socializing dataDaedalus, 151 (2): 338-359
[50] Wang, D(2023)China’s hidden tech revolutionForeign Affairs102 (2): 65-77
[責任編輯:謝薇娜]