○王超群
“算法新聞”指的是以機(jī)器學(xué)習(xí)或者神經(jīng)網(wǎng)絡(luò)為技術(shù)基礎(chǔ)生產(chǎn)和分發(fā)的新聞。通過算法把關(guān)可以決策新聞選題,通過對(duì)用戶數(shù)據(jù)的分析和用戶畫像的描摹可以進(jìn)行個(gè)性化新聞推送……這些過程中的算法機(jī)制極其復(fù)雜和晦澀,被視為“黑箱”,這為算法新聞倫理危機(jī)埋下了諸多隱患,主要包括“算法歧視與偏見”“信息繭房”“低俗與虛假新聞”等。正是在這樣的背景下,“透明性原則”作為新倫理規(guī)范的核心內(nèi)容,為越來越多的媒體組織所追捧和接受。但是在平臺(tái)型媒體大行其道的今天,“透明性原則”的實(shí)施也遭遇著重重問題,需要進(jìn)一步思考“透明性原則”未來該如何改進(jìn)。
“客觀性”是二十世紀(jì)新聞職業(yè)倫理規(guī)范的核心。如何在新聞報(bào)道中實(shí)踐“客觀性原則”?主要包括依據(jù)許多消息來源、可證實(shí)的事實(shí)等。但是,到了網(wǎng)絡(luò)新媒體時(shí)代,速度常常被認(rèn)為是比事實(shí)更重要的要素。但過于追求速度會(huì)帶來虛假新聞和事實(shí)的反轉(zhuǎn)。媒體不斷在線更新新聞報(bào)道的過程中,公眾與媒體的互動(dòng)日益方便,用戶生產(chǎn)的內(nèi)容也被媒體頻繁采納,公眾最終參與新聞生產(chǎn)。根據(jù)卡爾森(Karlsson)的說法,這種發(fā)展需要調(diào)整專業(yè)規(guī)范,使新聞業(yè)變得更加透明,以維持其作為“權(quán)威信息來源”的地位。正是在這樣的背景下,卡爾森等人對(duì)“透明性”原則做出了具體且富操作性的定義。
卡爾森將透明性劃分為兩種:一種是公開的透明性(disclosure transparency),一種是參與的透明性(participatory transparency)。公開的透明性指新聞生產(chǎn)者可以解釋并公開新聞的選擇和制作方式。這種透明性可以通過發(fā)布原始材料和使用來源的鏈接來實(shí)現(xiàn),或者通過對(duì)所犯錯(cuò)誤的問責(zé)制,即承認(rèn)錯(cuò)誤與發(fā)布修正信息來實(shí)現(xiàn)。故而有人將透明性定義為“向公眾展示制作新聞報(bào)道的決策,方法和來源”。參與的透明性要求用戶能夠參與新聞制作的每一個(gè)階段,從新聞收集到報(bào)道、出版、分析和討論。這種透明性與交互性聯(lián)系起來,故而有學(xué)者將透明性定義為“新聞業(yè)內(nèi)部和外部人士對(duì)新聞流程進(jìn)行監(jiān)督、檢查、批評(píng),甚至介入的各種方式”。
網(wǎng)絡(luò)新媒體時(shí)代初始,透明性的實(shí)施主要表現(xiàn)為博客作者通過將信息與原始文件鏈接,解釋他的報(bào)道程序,以實(shí)現(xiàn)網(wǎng)上空間的透明性,并揭露可能的偏見以產(chǎn)生可信度。隨著時(shí)間的推移,博客作者采用的“透明性措施”逐漸被主流新聞媒體整合到網(wǎng)上的日?!皟x式”中,主流新聞媒體試圖通過這種方式披露信息、更新信息并與受眾互動(dòng)。記者們認(rèn)為目前“透明度”的努力主要取決于引入機(jī)構(gòu)設(shè)計(jì)和控制的技術(shù)特征,如評(píng)論機(jī)制、提供超鏈接、日期和時(shí)間戳以及在線更正。《紐約時(shí)報(bào)》等主要新聞媒體宣稱“通過社交媒體與記者進(jìn)行基于網(wǎng)絡(luò)的聊天來擁抱透明度,通過聘請(qǐng)一位向讀者解釋文章的公共編輯實(shí)現(xiàn)透明度”。
“透明性原則”的實(shí)施有兩個(gè)主要功能:一是透明度提供了更好的說明真相的手段,“使記者能夠證明他們的報(bào)道具有準(zhǔn)確性和公平性,讓公眾相信它”。透明度“標(biāo)志著記者對(duì)觀眾的尊重”并且“有助于確定記者有公共利益動(dòng)機(jī)”,從而增加了公眾信任與新聞業(yè)聲譽(yù)。二是透明度作為新聞機(jī)構(gòu)提高可信度的方式,推動(dòng)媒體通過發(fā)布社會(huì)責(zé)任報(bào)告來體現(xiàn)自己的誠(chéng)信,通過對(duì)錯(cuò)誤和失敗的披露來建立信任,進(jìn)而形成差異化的競(jìng)爭(zhēng)優(yōu)勢(shì),為媒體帶來經(jīng)濟(jì)利益并提高聲譽(yù)。總之,“透明性原則”被視為解決西方新聞業(yè)今天所面臨的主要問題的方法之一,甚至被認(rèn)為正在成為“新的客觀性”,被視為恢復(fù)西方新聞業(yè)信任的核心。
2014 年9 月,美國(guó)“職業(yè)新聞工作者協(xié)會(huì)”修訂了《職業(yè)道德規(guī)范》,“透明性原則”作為新修訂的內(nèi)容被添加進(jìn)去,其中相應(yīng)的表述是“新聞工作者應(yīng)當(dāng)向公眾說明新聞報(bào)道過程以及自身所面臨并做出的道德選擇。鼓勵(lì)公眾參與討論新聞報(bào)道的實(shí)踐標(biāo)準(zhǔn);迅速回應(yīng)有關(guān)報(bào)道準(zhǔn)確性、清晰性和公正性的質(zhì)疑;承認(rèn)新聞報(bào)道中的錯(cuò)誤并做出及時(shí)、明顯的修正,向公眾認(rèn)真、清楚地解釋和澄清錯(cuò)誤”。無獨(dú)有偶,美國(guó)波因特(Poynter)研究所和廣播電視數(shù)字新聞協(xié)會(huì)(RTDNA)都采用透明性作為專業(yè)記者的新核心素養(yǎng)標(biāo)準(zhǔn)。至此,“透明性”作為新聞職業(yè)道德準(zhǔn)則的一部分,為西方業(yè)界廣為接受。
算法新聞時(shí)代,平臺(tái)型媒體(platisher)的崛起分外引人注目。平臺(tái)型媒體核心工作方式高度依賴互聯(lián)網(wǎng)技術(shù),包括搜集用戶信息、分析用戶喜好、精準(zhǔn)推送信息等。這一特點(diǎn)使得它們非常容易利用有效內(nèi)容迅速俘獲大量用戶,賺取流量,但同時(shí)也容易導(dǎo)致倫理危機(jī)頻現(xiàn),具體有以下幾個(gè)方面的表現(xiàn)。
第一,算法歧視與偏見倫理危機(jī):以“技術(shù)中立”的名義介入新聞生產(chǎn),在實(shí)踐操作中存在人主導(dǎo)的算法設(shè)計(jì),難免體現(xiàn)出各種各樣的“歧視”,比如“商業(yè)社會(huì)的金錢歧視,政治社會(huì)的權(quán)力歧視等”,只是歧視變得更加隱蔽,體現(xiàn)出對(duì)“新聞客觀性”的背離。2016 年,有網(wǎng)友質(zhì)疑Facebook利用算法有意識(shí)地引導(dǎo)用戶大量點(diǎn)贊和轉(zhuǎn)發(fā)假新聞網(wǎng)站Freedom Daily 上的新聞,試圖影響2016年美國(guó)總統(tǒng)大選。
第二,信息繭房倫理危機(jī):基于算法的個(gè)性化信息推薦注重“點(diǎn)”上的深挖,難以最大程度地實(shí)現(xiàn)個(gè)人價(jià)值和公共價(jià)值,公民參與受到損害,這些體現(xiàn)出對(duì)傳媒“民主社會(huì)功能”的背離。2014 年8 月9 日,美國(guó)發(fā)生一起涉及警察暴力與種族歧視的弗格森槍擊案。但當(dāng)天Facebook上很少看到相關(guān)新聞推送,因?yàn)镕acebook 根據(jù)用戶興趣畫像分析判斷,用戶“并不喜歡”這樣的新聞,于是當(dāng)天通過算法推薦推送了更多關(guān)于冰桶挑戰(zhàn)的新聞。
第三,價(jià)值觀導(dǎo)向危機(jī):只要用戶感興趣,基于技術(shù)理性的算法就容易將低俗內(nèi)容、“標(biāo)題黨”新聞和價(jià)值觀存在問題的新聞推薦給用戶,算法背后依賴的是冷冰冰的數(shù)據(jù),缺乏價(jià)值導(dǎo)向與人文關(guān)懷。2018 年1 月,網(wǎng)紅Logan Paul在YouTube 平臺(tái)上傳了一段視頻,內(nèi)容是關(guān)于在日本自殺森林死者身旁發(fā)表的不當(dāng)言論,視頻觀看量24 小時(shí)之內(nèi)就達(dá)到600 萬人次。其對(duì)死者的輕蔑和不尊重引發(fā)網(wǎng)友討伐,同時(shí)網(wǎng)友譴責(zé)YouTube 平臺(tái)將這種視頻放在首頁推薦,極不具備社會(huì)責(zé)任感。
在這樣的背景下,要求平臺(tái)型媒體在算法推薦和新聞分發(fā)方面執(zhí)行“透明性原則”的呼聲日益強(qiáng)烈。在具體的實(shí)踐操作中,算法透明逐漸走向了“主動(dòng)的算法透明”和“被動(dòng)的算法透明”兩種方式。
“主動(dòng)的算法透明”是指新聞生產(chǎn)者主動(dòng)向公眾公開算法的運(yùn)行機(jī)制與設(shè)計(jì)意圖,接受公眾監(jiān)督。大多數(shù)表現(xiàn)為“解鎖ITO三階段”,即將算法新聞生產(chǎn)流程的數(shù)據(jù)輸入、數(shù)據(jù)吞吐、數(shù)據(jù)輸出這三個(gè)環(huán)節(jié)所涉及的數(shù)據(jù)和操作步驟進(jìn)行全面的、具體的公開。如2016年美國(guó)大選Facebook 新聞“偏見門”事件之后,F(xiàn)acebook 主動(dòng)披露算法,開放假新聞大數(shù)據(jù)分析平臺(tái)。
實(shí)際上,“主動(dòng)的算法透明”有淪為表演策略的危險(xiǎn),成為一種“策略性的透明”。它往往演變成形式上的透明,即“看得見”卻“看不懂”的透明,本質(zhì)上仍屬于“不透明”。以YouTube 為例,YouTube 一直致力于公開算法推薦機(jī)制,2008年公開的第一階段的算法是基于user-video graph,從用戶co-view 的角度來看待資源訪問關(guān)系;2010 年公開的推薦算法基于item-based的協(xié)同過濾機(jī)制;2014 YouTube 公開宣稱已經(jīng)接入Google Brain 機(jī)器學(xué)習(xí)技術(shù)應(yīng)用于算法推薦中。但實(shí)際上普通的受眾無法看懂這些算法意味著什么,無法判斷有沒有實(shí)現(xiàn)對(duì)“算法偏見”和“信息繭房”的主動(dòng)規(guī)避。“主動(dòng)的算法透明”,從形式上讓受眾感到放心和值得信賴。它成為平臺(tái)型媒體的一種表演策略,目的是建立平臺(tái)與用戶的信任關(guān)系,以期作為獲得商業(yè)競(jìng)爭(zhēng)優(yōu)勢(shì)和實(shí)現(xiàn)經(jīng)濟(jì)利益的資本。“策略性的算法透明”實(shí)際上是“戰(zhàn)略性的不透明”,是指行動(dòng)者“受透明性規(guī)則約束”,有目的地讓“很多信息”可見。這也意味著“可見性”與“透明性”并不是一回事?!巴该餍浴睍?huì)被有意地遮擋,“可見性產(chǎn)生了大量的信息,以至于重要的信息,在看似無意中被隱藏在信息碎片中,變得不可見?!边@是一種不可用的透明形式,也被稱為“一種抵抗性的透明”。正是因?yàn)椤安呗孕缘乃惴ㄍ该鳌钡拇嬖?,“透明性原則”的執(zhí)行并不能真正解決算法新聞所帶來的倫理危機(jī)。
“被動(dòng)的算法透明”是指在新聞生產(chǎn)者拒絕披露算法的前提下,由有興趣的人士通過監(jiān)督式揭露的方法讓新聞生產(chǎn)者的“算法黑箱”被迫披露。大多數(shù)表現(xiàn)為“逆向工程學(xué)”方式,即基于專業(yè)知識(shí)進(jìn)行嚴(yán)密的觀察、推斷,發(fā)掘出這個(gè)系統(tǒng)的模式,用人工去推斷“黑箱”中的算法規(guī)律,并且清楚地對(duì)每一個(gè)部分進(jìn)行闡述。如一位曾經(jīng)與YouTube工程師團(tuán)隊(duì)共事的前谷歌公司員工Guillaume Chaslot,運(yùn)用“逆向工程”的方法解碼了YouTube 算法偏見,包括:宣揚(yáng)陰謀論,仇恨言論得到優(yōu)先推薦,2016 年美國(guó)總統(tǒng)選舉中明顯偏向推送對(duì)特朗普有利的信息等。
當(dāng)前平臺(tái)型媒體的“算法暗箱”在某種程度上導(dǎo)致了新聞品質(zhì)的惡化,“透明性原則”的執(zhí)行遠(yuǎn)不能讓受眾滿意。那么,該如何治理“算法黑箱”?單靠現(xiàn)階段的透明性原則操作模式顯然是遠(yuǎn)遠(yuǎn)不夠的,還需多管齊下。
第一,完善“透明性原則”衡量標(biāo)準(zhǔn)。目前“透明性原則”最重要的難題之一便是解決“看見但不理解”的問題。對(duì)此,有學(xué)者提出“可理解的透明性”,它是用戶導(dǎo)向的,以可行性和社會(huì)接受效果作為衡量標(biāo)準(zhǔn),這也是“可理解”的主要含義;它要求平臺(tái)媒體站在“數(shù)據(jù)主體”的角度來進(jìn)行算法透明,通過設(shè)計(jì)語音交互、游戲互動(dòng)等形式進(jìn)行“深度描述”,讓用戶真正理解算法及其影響,比如設(shè)計(jì)交互界面,讓讀者選擇性調(diào)整參數(shù)以測(cè)試推薦內(nèi)容是否會(huì)有所不同。
第二,擴(kuò)大“透明性原則”的適用范圍。前文已經(jīng)提及,“透明性原則”已經(jīng)被納入美國(guó)新聞工作者協(xié)會(huì)的《職業(yè)道德規(guī)范》,但其約束的對(duì)象僅僅是機(jī)構(gòu)媒體以及新聞工作者。然而,運(yùn)用算法技術(shù)的主體是平臺(tái)型媒體及其算法工程師。平臺(tái)型媒體的頂層設(shè)計(jì)迥異于傳統(tǒng)媒體,往往將商業(yè)利益優(yōu)先于價(jià)值導(dǎo)向,在政策導(dǎo)向上除非認(rèn)為“透明性原則”有利于提升流量,否則缺少動(dòng)力去主動(dòng)執(zhí)行這個(gè)原則。而算法工程師沒有接受過系統(tǒng)的媒介職業(yè)素養(yǎng)培訓(xùn),難以主動(dòng)意識(shí)到要將“透明性原則”作為日常職業(yè)規(guī)范加以遵守。所以,“透明性原則”不僅應(yīng)該包含“新聞透明性”,成為傳統(tǒng)媒體新聞工作者的職業(yè)道德準(zhǔn)則,還應(yīng)該包含“算法透明性”,成為平臺(tái)型媒體及其算法工程師遵守的職業(yè)道德準(zhǔn)則。
第三,重啟“客觀性原則”。算法新聞時(shí)代需要“透明性原則”與“客觀性原則”并駕齊驅(qū),并肩作戰(zhàn)。雖然“透明性原則”正在盡力做到開放和問責(zé),但離平衡、真實(shí)與公正還有很長(zhǎng)一段距離,因此“客觀性原則”重歸新聞倫理規(guī)范核心是大勢(shì)所趨。平臺(tái)型媒體執(zhí)行“透明性原則”的不盡如人意,似乎給了傳統(tǒng)媒體發(fā)展的好機(jī)會(huì)。作為內(nèi)容生產(chǎn)型媒體,它們選擇重啟“客觀性原則”,以求在維持自身獨(dú)立性上作出努力。重啟“客觀性原則”最顯著體現(xiàn)在針對(duì)“算法偏見、信息繭房和過濾氣泡”的平衡報(bào)道策略。如繼2011 年帕里澤提出“過濾氣泡”的概念后,《衛(wèi)報(bào)》于2016 年開設(shè)“Burst your bubble”欄目,在全國(guó)掀起一場(chǎng)聲勢(shì)浩大的“戳泡運(yùn)動(dòng)”。鑒于《衛(wèi)報(bào)》讀者大多數(shù)偏左派,該欄目主推“右派”文章,每周選取5篇值得一讀的保守派文章,拓寬讀者視野,每篇文章都附有文章來源、薦讀原因和內(nèi)文選摘三個(gè)部分,讀者表示他們通過這一欄目,閱讀到之前未曾關(guān)注的保守派信息,開始嘗試了解保守派的觀點(diǎn)。
第四,理順“透明性原則”與其他倫理原則的關(guān)系。一方面“透明性原則”應(yīng)當(dāng)與“客觀性原則”并駕齊驅(qū),另一方面還要處理好“透明性原則”與其他倫理原則的關(guān)系。雖然開放、問責(zé)、知情同意等倫理原則的實(shí)施要依賴于“透明性原則”的實(shí)現(xiàn),但同時(shí)也有很多新聞專業(yè)人士擔(dān)憂,實(shí)施“透明性原則”必然會(huì)讓更多的非專業(yè)人士參與到專業(yè)性信息內(nèi)容的生產(chǎn)中來,勢(shì)必影響新聞行業(yè)的獨(dú)立性與自主性,對(duì)隱私、版權(quán)等倫理原則產(chǎn)生潛在侵害。因此,進(jìn)一步明確“透明性原則”與其他倫理原則的關(guān)系,才能各自發(fā)揮應(yīng)盡的作用,起到相互補(bǔ)充、相互促進(jìn)的效果,而不是相互沖突。
[1][8]仇筠茜,陳昌鳳.基于人工智能與算法新聞透明度的“黑箱”打開方式選擇[J].鄭州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(05).
[2][3]Karlsson,M.(2010).Rituals of transparency:Evaluating online news outlets’uses of transparency rituals in the United.
[4]Chadha,K.,&Koliska,M.(2014).Newsrooms and transparency in the digital age.Journalism Practice,1,1-15.
[5]Deuze.What Is Journalism? Professional identity and ideology of journalists Reconsidered.Journalism,2005(04).
[6] [7]王之延.平臺(tái)型媒體語境下的新聞趨勢(shì)分析——基于《平臺(tái)型媒體:硅谷如何重塑新聞業(yè)》的討論[J].青年記者,2017(16).