摘要:人工智能技術(shù)得到廣泛應(yīng)用,人機交互程度不斷提升,實現(xiàn)了大眾傳播向智能傳播的轉(zhuǎn)向,人工智能也逐漸由“弱智能”向“強智能”轉(zhuǎn)化。算法新聞給以往的新聞生產(chǎn)和傳播方式帶來了深刻的變革,在提升效率、優(yōu)化用戶體驗的同時也帶來了“信息繭房”、群體極化、“算法黑箱”、算法歧視等倫理失范問題,其本質(zhì)在于算法技術(shù)和算法新聞生產(chǎn)傳播中商業(yè)價值主導(dǎo)的技術(shù)理性與人文價值的沖突。文章從官方、平臺、用戶的維度探索對算法新聞進行協(xié)同治理的具體路徑,旨在探究如何為算法技術(shù)與人文價值的對話創(chuàng)造良好媒介環(huán)境,例如有關(guān)部門應(yīng)完善相關(guān)法律法規(guī)、提高算法透明度,算法新聞平臺和機構(gòu)應(yīng)堅守新聞專業(yè)主義、提升算法新聞的人文價值,同時需要培養(yǎng)大眾的媒介素養(yǎng)及算法素養(yǎng),增加受眾對算法風(fēng)險的認知。
關(guān)鍵詞:算法;算法新聞;智能傳播;倫理失范;社會治理
中圖分類號:G206 文獻標(biāo)志碼:A 文章編號:1674-8883(2023)03-0001-04
算法新聞是指包括算法新聞寫作、編輯、算法推薦機制和平臺聚合分發(fā)機制及營銷等業(yè)務(wù)的自動化新聞生產(chǎn)流程[1]。算法正在成為新聞傳播領(lǐng)域的底層技術(shù),重塑著當(dāng)今的媒介環(huán)境。目前,我國正在加大力度發(fā)展和應(yīng)用人工智能技術(shù),探索將人工智能運用在新聞采集、生產(chǎn)、分發(fā)、接收、反饋中,全面提高輿論引導(dǎo)能力。依托于人工智能技術(shù)的算法新聞不僅控制表層的信息流轉(zhuǎn),而且進一步規(guī)訓(xùn)公眾的社會生活[2]。人工智能技術(shù)的廣泛應(yīng)用和不斷成熟標(biāo)志著人類已經(jīng)進入智能傳播時代,可以獨立完成文案寫作、方案策劃以及回答用戶任何問題的超級人工智能ChatGPT橫空出世,更是意味著人工智能已向“強智能”過渡,但目前總體而言人工智能仍屬于“低智能”的范疇,人工智能核心算法也并非絕對技術(shù)中立,其背后隱藏著商業(yè)利益、價值取向等多種因素。算法技術(shù)在為人們獲取信息提供巨大便利的同時,也造成新聞傳播領(lǐng)域甚至社會大環(huán)境的倫理困境。如何更好地實現(xiàn)人機共生的繁榮局面,創(chuàng)造技術(shù)與人文的積極對話范式,將算法納入法治化健康發(fā)展的軌道,是智能傳播時代人工智能向“強智能”轉(zhuǎn)型過程中亟須解決的問題,目前對算法的監(jiān)管也成為衡量國家風(fēng)險管理、國家治理體系和治理能力現(xiàn)代化的一大因素。
技術(shù)理性往往注重提升效率,但人類總是更加在意公正公平,這是因為人類社會里充斥著由道德倫理主導(dǎo)的人文價值取向。作為非生命體的算法技術(shù)是否應(yīng)當(dāng)成為倫理建構(gòu)的因素和承擔(dān)倫理責(zé)任的主體?以往研究表明,行動者網(wǎng)絡(luò)理論能夠作為對算法進行社會倫理研究的理論基礎(chǔ)[3]。
行動者網(wǎng)絡(luò)理論是由法國社會學(xué)家布魯諾·拉圖爾(Bruno Latour)等人提出的社會學(xué)分析方法。首先,行動者可以是任何事物,可以是人,也可以是非生命的算法技術(shù),或是觀念、組織等其他事物,不同行動者相互作用形成動態(tài)關(guān)系網(wǎng)絡(luò)。從行動者網(wǎng)絡(luò)視角看來,算法并不是絕對理性和客觀的,算法作為行動者具有強大的鏈接能力,建構(gòu)起整個媒介生態(tài)網(wǎng)絡(luò),因此算法可作為承擔(dān)倫理責(zé)任的主體。其次,社會責(zé)任理論視角下,人類并非具有絕對正確的價值觀念,新聞傳播機構(gòu)應(yīng)該起到對公眾、對社會負責(zé)的作用,發(fā)揮及履行宣傳教育、引導(dǎo)樹立正確價值觀的功能和義務(wù)。因此,算法作為與人相互影響的行動者,處于整個行動者網(wǎng)絡(luò)中心的關(guān)鍵部位。再次,行動者網(wǎng)絡(luò)理論思考了人與非人、自然、社會的共生關(guān)系。智能傳播環(huán)境正是人文價值、技術(shù)理性和媒介環(huán)境的耦合,人機共生構(gòu)成了媒介生態(tài)網(wǎng)絡(luò)。最后,行動者網(wǎng)絡(luò)理論中人文與科學(xué)辯證關(guān)系的討論與新聞算法中算法技術(shù)和人文價值的對話研究視角相吻合。
任何技術(shù)的發(fā)展都具有兩面性,算法在提升新聞傳播和用戶接收信息效率的同時,也挑戰(zhàn)了新聞權(quán)威性,“把關(guān)人”目標(biāo)的轉(zhuǎn)變和新聞價值的消解,阻礙受眾認知,加劇群體極化,損害受眾知情權(quán)、隱私權(quán),算法不透明導(dǎo)致其背離社會責(zé)任等社會公共領(lǐng)域的倫理失范問題,對社會風(fēng)險治理提出了新的挑戰(zhàn)。
(一)算法驅(qū)動新聞的價值危機
智能傳播時代的算法技術(shù)取代了人類作為新聞生產(chǎn)主體,帶來了新聞價值的重構(gòu)。算法驅(qū)動的新聞寫作已廣泛應(yīng)用于新聞傳播領(lǐng)域,例如騰訊財經(jīng)的“Dreamwriter”、新華社的“快筆小新”、南方都市報的“小南”等都是較早應(yīng)用于算法新聞寫作的人工智能機器人;再如今日頭條的“Xiaomingbot”寫作機器人,可以輕松對數(shù)據(jù)進行抓取、加工,匹配自然的語言模版并生成貼近人類寫作口吻的新聞。
傳統(tǒng)媒體時代,時效性和真實性是新聞的兩大特性。維護新聞?wù)鎸嵭允切侣劰ぷ髡叩哪繕?biāo)和職責(zé),正是新聞生產(chǎn)過程中“把關(guān)人”的存在,才使新聞具有極高的社會價值。算法應(yīng)用于新聞生產(chǎn)過程在一定意義上重新建構(gòu)了新聞“把關(guān)人”的概念,從新聞的線索、熱點、題材選擇到文本建構(gòu)和分發(fā)推薦,傳統(tǒng)新聞生產(chǎn)過程中記者、編輯、專業(yè)審核人員等重要角色完全被程序取代,人對新聞事實和意義符號的加工權(quán)力已讓渡給算法技術(shù),尊崇商業(yè)邏輯的算法技術(shù)和遵從倫理邏輯的新聞原則之間的沖突構(gòu)成了算法新聞的價值危機。
從信息生產(chǎn)視角看,傳統(tǒng)媒體時代,新聞“把關(guān)人”判斷新聞價值的標(biāo)準(zhǔn)是時新性、重要性、接近性、顯著性、趣味性五個要素,工作原則是新聞?wù)鎸嵭訹4]。然而智能傳播時代,不同新聞機構(gòu)和平臺的市場份額競爭極為激烈,人的注意力被喻為“原油”,導(dǎo)致算法把關(guān)和傳統(tǒng)新聞生產(chǎn)把關(guān)目標(biāo)完全不同。算法把關(guān)尊崇“流量至上”,即“注意力至上”的生產(chǎn)和分發(fā)原則,由商業(yè)價值及利益主導(dǎo)。
從倫理視角看,智能傳播時代的新聞同樣應(yīng)該承擔(dān)公共責(zé)任,如果疏于監(jiān)管,一些低俗、虛假新聞存在被廣泛傳播的可能,由此造成新聞信息的低俗和同質(zhì)化,嚴(yán)重損害新聞的權(quán)威性以及新聞機構(gòu)的公信力。
從新聞專業(yè)主義視角看,算法新聞的推薦機制造成了算法邏輯和道德邏輯上的沖突。算法更在乎如何通過受眾畫像、興趣模型去分發(fā)新聞,“注意力至上”原則在一定程度上是對新聞專業(yè)主義中“求真求實”“應(yīng)知”等價值向?qū)У南狻4送?,人們樂于關(guān)注更具噱頭和能夠引發(fā)情緒的新聞事件,因此基于用戶興趣導(dǎo)向的算法新聞推薦機制更容易推薦一些不論其價值取向而更具看點的事件,這種新聞傳播機制構(gòu)成了新聞價值導(dǎo)向危機。但事實上,無論媒介時代如何更迭,新聞的核心價值不會改變,算法新聞仍需堅守新聞專業(yè)主義的價值理念。
(二)算法推薦依賴下受眾的認知危機
媒介從模擬人類身體的延伸到模擬“中樞神經(jīng)”的延伸,進入智能傳播時代,大數(shù)據(jù)技術(shù)、算法推薦技術(shù)模擬人類意識的延伸,甚至成了控制人類意識的機制。算法代替了受眾的大腦選擇,一方面節(jié)約了時間成本,為受眾推薦他們潛意識中想要看到的內(nèi)容,另一方面在無形中制造了“信息繭房”。被困于“繭房”中的受眾在算法的監(jiān)控中,仿佛置身于“全景監(jiān)獄”,只能在算法既定框架下作出選擇,從而失去了接觸信息的多元化路徑。“繭房”中,受眾所接觸到的其他用戶的討論和反饋大多是與自身意見相似的回響,進一步加劇了“回音室效應(yīng)”。長時間單一的意見會加固受眾的既往認知,造成片面和狹隘的認知效果,這種認知的窄化在個人層面是一種唯心主義,在社會層面屬于一種不利于社會整合的個人情境,若每個人都陷入“信息孤島”,則必然導(dǎo)致群體極化。
群體極化由美國社會學(xué)家詹姆·斯托納(James Stone)提出,即在集體決策中,最終結(jié)論往往向越發(fā)保守或冒險的兩個極端轉(zhuǎn)移?!靶畔⒗O房”帶來的極化效應(yīng)在損害受眾展開多元化討論的權(quán)利的同時,減少了異質(zhì)化觀點的存在,給多元化觀點討論帶來阻礙。然而社會的進步需要思想的碰撞和多種話語體系,高度的群體分化會導(dǎo)致群體分裂,群體極化成為阻礙社會發(fā)展和社會穩(wěn)定的威脅??傊?,算法新聞推薦機制可能會使用戶更偏向于沉浸在個人議程中,而不會被公眾議程干擾,因此使用者之間無法實現(xiàn)文化資源共享,一是會造成受眾認知窄化和程序化,二是長遠來看,人們在形成認同感和維護集體情感時,公共媒體的社會整合作用就可能失效[5]。因此,算法新聞的推薦制度對受眾的認知影響以及社會發(fā)展、治理提出了一定挑戰(zhàn)。此外也有學(xué)者指出,“信息繭房”的形成會受到受眾主觀行為的影響,并非算法技術(shù)的特有產(chǎn)物,應(yīng)當(dāng)辯證地看待。因此,如何廣泛提升大眾媒介素養(yǎng)和數(shù)字素養(yǎng),使大眾有意識地識別和規(guī)避互聯(lián)網(wǎng)中的潛在風(fēng)險,是智能傳播時代社會治理中亟需思考的問題。
(三)算法技術(shù)的社會責(zé)任危機
算法技術(shù)潛在侵害用戶權(quán)益。隨著算法技術(shù)迅速發(fā)展,如果不能及時確立和普及相關(guān)法律法規(guī),就極易造成潛在的侵權(quán)危害。由于算法技術(shù)的核心需要收集用戶信息以實現(xiàn)內(nèi)容的精準(zhǔn)分發(fā),由海量用戶數(shù)據(jù)構(gòu)成的透明“全景監(jiān)獄”極有可能造成信息泄露,也產(chǎn)生了諸如“用戶的瀏覽記錄歸誰所有”“平臺任意調(diào)取用戶數(shù)據(jù)是否應(yīng)被授權(quán)”“分析使用用戶數(shù)據(jù)應(yīng)被誰授權(quán)”等不易被用戶察覺的對知情權(quán)、隱私權(quán)的侵害。
算法偏見違背公正平等的價值觀。算法偏見主要產(chǎn)生在用戶畫像描繪時,“算法自動確定個體的性別、階層、種族等身份特征”[6],每個人都被賦予了由一個個標(biāo)簽組成的算法身份。算法進行信息分發(fā)時,算法設(shè)計者的價值觀決定了算法如何分析信息,也決定了算法會過濾和強化哪些信息,這樣的隱形鏈接下蘊藏著多種因素的博弈,即算法使用者自身對性別、年齡、種族、階層、態(tài)度傾向等偏向,在應(yīng)用過程中可能導(dǎo)致嚴(yán)重的社會問題。
算法偏見與“算法鴻溝”相依存?!八惴櫆稀敝甘鼙娫讷@取算法新聞內(nèi)容和對算法技術(shù)使用方面的感受差異。傳統(tǒng)媒體造成的“知溝”往往由受眾所處環(huán)境條件和受教育水平導(dǎo)致,而“算法鴻溝”則是由算法對用戶的教育程度、身份地位、職業(yè)特征、所處地區(qū)等因素進行的信息收集和分析所預(yù)設(shè)出的,算法帶來的個體標(biāo)簽化趨勢愈發(fā)明顯,不利于維護社會的公平公正。
由經(jīng)濟、政治、個人價值觀影響的算法運行機制造成的平臺和用戶信息不對稱、不公開即“算法黑箱”的核心所在,受眾無從得知算法的目標(biāo)和意圖以及算法運行的價值指向,因此難以對算法進行評判及監(jiān)督[7]。造成算法倫理失范問題的潛在因素存在于算法的每一個環(huán)節(jié),看似無法避免,實際上算法背離社會責(zé)任的根本原因是其背后人的意志。例如有學(xué)者認為算法偏見來源于算法設(shè)計者的偏見、輸入數(shù)據(jù)的偏見、算法局限的偏見,其中設(shè)計者的偏見是能夠避免的[8],算法決策會受到人為因素的干擾,因此可以通過優(yōu)化算法和加強法律約束來規(guī)避倫理失范。
算法具有極強的跨界屬性,算法技術(shù)和算法新聞的生產(chǎn)傳播作為一種看似“中立”的技術(shù)產(chǎn)物,所帶來的影響應(yīng)受到監(jiān)管。算法帶來的一系列倫理失范問題如“Facebook偏見門”、谷歌將黑人女性照片識別為大猩猩、“劍橋分析事件”以及愛奇藝起訴字節(jié)跳動旗下今日頭條內(nèi)容侵權(quán)案、短視頻平臺算法侵權(quán)案等事件,造成了很大的社會影響。算法具有極強跨界屬性的根本原因在于算法由人設(shè)計,雖然如今的算法已具有一定程度的自我深度學(xué)習(xí)功能,但其背后裹挾著平臺和商戶對于優(yōu)化用戶體驗、增強受眾對產(chǎn)品黏性的需求和實現(xiàn)自身價值利益最大化的取向,并非絕對技術(shù)中立。2021年,《關(guān)于加強新時代文藝評論工作的指導(dǎo)意見》提出,要做好對互聯(lián)網(wǎng)算法的研發(fā)與引導(dǎo)工作,并對互聯(lián)網(wǎng)算法推薦進行綜合治理。算法的“偽中立性”為公眾科學(xué)看待算法和推進算法的綜合治理提供了前提和基礎(chǔ)。
(一)官方視角:完善相關(guān)法律法規(guī),提高算法透明度
改善大數(shù)據(jù)主導(dǎo)的智能傳播的媒介生態(tài)環(huán)境,需要從官方的角度對新聞推薦算法進行宏觀管理。西方國家對人工智能、大數(shù)據(jù)的監(jiān)管實踐起步較早,從實踐效果來看,對算法進行立法管理、行政管理、社會管理是大勢所趨[9]。哥倫比亞大學(xué)Tow數(shù)字新聞中心于2014年發(fā)布的《算法新聞責(zé)任報告》強調(diào)要提高算法本身的透明度,例如主動提供或依照美國的信息公開法案向請求者提供算法的源代碼[10]。
透明性原則是打開“算法黑箱”的關(guān)鍵鑰匙,例如一些國家和地區(qū)要求各使用大數(shù)據(jù)和算法的平臺和機構(gòu)需要建立一種可被解釋和被受眾理解的算法模型。2016年,歐盟通過的《一般性數(shù)據(jù)保護法案》明確了算法透明的理念,提出算法必須遵守透明性原則,例如該法案規(guī)定收集用戶個人數(shù)據(jù)的平臺必須將其收集分析數(shù)據(jù)的過程主動告知用戶。再如2017年,美國計算機協(xié)會發(fā)布了《算法透明與追責(zé)原則》,涉及知情原則、接入和糾正原則、追責(zé)原則、解釋原則、數(shù)據(jù)來源原則、可審查原則、驗證與測試原則,以解決算法在實踐中可能造成的種種問題,其中多個原則都旨在提升算法透明度。例如解釋原則規(guī)定算法使用主體有義務(wù)對算法的原理和使用結(jié)果進行解釋,驗證與測試原則鼓勵算法使用主體公開算法模型的測試結(jié)果。
目前我國正在積極制定相關(guān)法律法規(guī),例如2022年施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確了“具有輿論屬性或社會動員能力”的算法推薦技術(shù)的信息規(guī)范服務(wù)與責(zé)任,同時也提出了用戶知情權(quán)、算法選擇權(quán)等提高算法透明度的用戶權(quán)益保護機制。
算法新聞的各個生產(chǎn)環(huán)節(jié)都需要被納入社會監(jiān)督,開放相關(guān)監(jiān)管部門和平臺與公眾對話的渠道。算法新聞需要找到商業(yè)價值和社會公共性的“最大公約數(shù)”,需要在新聞議程中對社會及相關(guān)群體給予足夠的關(guān)注。這些舉措都是在推動新聞倫理與技術(shù)的進一步交互,是技術(shù)倫理建設(shè)過程。政府從宏觀層面倡導(dǎo)算法及算法新聞的主流價值導(dǎo)向,不斷更新算法技術(shù)風(fēng)險治理的方法理念,還需進一步細化算法作為責(zé)任主體的倫理責(zé)任,將透明性原則和問責(zé)制度作為重點,完善信息監(jiān)管機制。比如可以成立第三方監(jiān)督組織,對算法新聞領(lǐng)域進行全方位的社會監(jiān)督,保證互聯(lián)網(wǎng)信息安全,構(gòu)建健康的智能傳播環(huán)境,為算法技術(shù)和人文價值的對話創(chuàng)造良好條件。
(二)平臺視角:堅守新聞專業(yè)主義,加強人文關(guān)懷
智能傳播時代,算法新聞生產(chǎn)和傳播呼吁的透明化不僅在于對用戶信息及其合法權(quán)益的保護和對平臺的監(jiān)管,也在于新聞機構(gòu)和平臺的建設(shè)以及算法工程師等相關(guān)技術(shù)人員的職業(yè)道德操守的引導(dǎo)與培養(yǎng),促使行業(yè)健康有序發(fā)展。
第一,算法新聞機構(gòu)和平臺在算法生成新聞及算法推薦技術(shù)方面需不斷優(yōu)化已有的算法程序,秉承新聞專業(yè)主義,增強新聞的公正性和真實性,傳播正能量和正確社會價值內(nèi)容,謹(jǐn)防倫理失范問題出現(xiàn),加強對算法透明性法則的應(yīng)用。
第二,在人工智能由“弱智能”轉(zhuǎn)向“強智能”的過程中,不斷優(yōu)化增強算法的深度學(xué)習(xí)功能,但鑒于目前算法并沒有發(fā)展到自身具備強學(xué)習(xí)能力和分辨?zhèn)惱淼赖碌臈l件下,需以算法技術(shù)和人工審核相結(jié)合的方式,提升人機協(xié)調(diào)能力以及算法新聞的人文價值和新聞?wù)鎸嵭?,從而更好地實現(xiàn)算法的服務(wù)效果。增強新聞機構(gòu)及平臺的專業(yè)性、透明性和公正性,彌補算法運行過程中可能出現(xiàn)的風(fēng)險和漏洞。
第三,在計算機相關(guān)專業(yè)的高等教育過程中,完善計算機倫理教育課程和加大實踐力度。新聞機構(gòu)及平臺對算法工程師、審核人員及相關(guān)專業(yè)工作人員的培養(yǎng)方面,應(yīng)增加媒介素養(yǎng)教育的相關(guān)培訓(xùn)設(shè)置,工作人員需要與時俱進,樹立正確的媒介倫理觀,把握正確的新聞價值取向,這是身處智能傳播時代作為技術(shù)操控者的義務(wù),能夠在一定程度上改善算法歧視現(xiàn)象,對用戶的算法身份進行“去標(biāo)簽化”,更好地維護用戶的合法權(quán)益。
(三)用戶視角:培養(yǎng)大眾算法素養(yǎng)
提升用戶媒介素養(yǎng)或數(shù)字素養(yǎng)是諸多研究者用來應(yīng)對網(wǎng)絡(luò)新聞傳播領(lǐng)域算法倫理失范問題的重要方式之一。大眾傳播時代,受眾媒介素養(yǎng)概念被提出,智能傳播時代的媒介素養(yǎng)范疇再一次被擴展,算法素養(yǎng)可作為媒介素養(yǎng)的延伸。
智能傳播時代,算法不僅應(yīng)用于新聞傳播領(lǐng)域,而且充斥于人們生活的方方面面,例如導(dǎo)航系統(tǒng)、社交軟件、短視頻和線上購物等領(lǐng)域都被算法這一底層邏輯主導(dǎo)。在此背景下,算法素養(yǎng)不僅要求公眾了解算法及相關(guān)概念,例如對相關(guān)名詞的理解,還需增加受眾對算法所造成倫理風(fēng)險的認知,警惕算法背后隱藏的意識形態(tài),具備主動識別數(shù)字陷阱的能力,從主觀層面規(guī)避技術(shù)的無意識傷害,充分發(fā)揮自身的主觀能動性,共同建設(shè)和維護媒介生態(tài)網(wǎng)絡(luò)。
值得注意的是,雖然大眾媒介素養(yǎng)培養(yǎng)已被倡導(dǎo)多年,但事實上目前專業(yè)學(xué)習(xí)領(lǐng)域外較少有能夠接觸媒介素養(yǎng)相關(guān)知識的場景。媒介素養(yǎng)、算法素養(yǎng)的科普是一項亟待解決的事情,需加大覆蓋各年齡段的知識科普和各大主流媒體的宣傳科普力度,從基礎(chǔ)媒介素養(yǎng)著手,打造健康的智能傳播環(huán)境。
此外,“知溝”假說提出了信息社會的根本矛盾是信息接收者享有信息量的多少造成的兩極分化矛盾,應(yīng)警惕智能傳播作為大眾傳播的高級形態(tài),“知溝”具有擴大的趨勢,因此在科普中不應(yīng)忽視農(nóng)村和低收入等群體,避免“知溝”現(xiàn)象加劇,以維系國家和社會的均衡發(fā)展。
每一次技術(shù)的迭代都帶來媒介環(huán)境的巨大變革,每一場變革的背后又必然引發(fā)新的問題?!懊浇榧从嵪ⅰ苯沂玖巳斯ぶ悄芗夹g(shù)是給社會帶來變革的主體,大數(shù)據(jù)依托的算法技術(shù)和新聞生產(chǎn)方式實現(xiàn)大眾傳播到智能傳播時代的轉(zhuǎn)變,在重構(gòu)媒介傳播范式的同時也帶來了新的社會治理問題。
算法新聞平臺、機構(gòu)在商業(yè)利益的導(dǎo)向下,技術(shù)理性和人文價值的沖突給算法新聞埋下隱患,造成倫理失范。使用算法的新聞機構(gòu)和平臺應(yīng)當(dāng)承擔(dān)社會責(zé)任和公共管理職能,但歸根結(jié)底,算法新聞的倫理失范研究中的核心是算法本身,相關(guān)部門需要依據(jù)人工智能的發(fā)展水平和實踐效果,及時完善和調(diào)整監(jiān)管體系,加大算法素養(yǎng)的科普力度,為人工智能向“強智能”轉(zhuǎn)向做好充分準(zhǔn)備。
參考文獻:
[1] 劉樹楠.智媒時代對新聞生產(chǎn)中算法新聞倫理的思考[J].傳媒論壇,2020,3(8):28-29.
[2] 彭桂兵,丁奕雯.智能傳播中短視頻平臺版權(quán)爭議及其治理路徑:兼評“首例算法推薦案”[J].新聞記者,2022(9):86-96.
[3] 王仕勇.算法推薦新聞的技術(shù)創(chuàng)新與倫理困境:一個綜述[J].重慶社會科學(xué),2019(9):123-132.
[4] 陳昌鳳,霍婕.權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理[J].新聞與寫作,2018(1):63-66.
[5] 陳昌鳳,師文.個性化新聞推薦算法的技術(shù)解讀與價值探討[J].中國編輯,2018(10):9-14.
[6] 劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學(xué)學(xué)報(社會科學(xué)版),2019,21(2):118-125.
[7] 張淑玲.破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實現(xiàn)機制[J].中國出版,2018(7):49-53.
[8] 張超.作為中介的算法:新聞生產(chǎn)中的算法偏見與應(yīng)對[J].中國出版,2018(1):29-33.
[9] 匡文波,張一虹.論新聞推薦算法的管理[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2020,42(7):120-124,146.
[10] 周建明,馬璇.個性化服務(wù)與圓形監(jiān)獄:算法推薦的價值理念及倫理抗?fàn)嶽J].社會科學(xué)戰(zhàn)線,2018(10):168-173.
作者簡介 付欣歌,研究方向:廣播電視。