韓紅 鄧倩倩 鄭州大學
大數(shù)據(jù)是近幾年研究的熱門話題,即使我們可能對大數(shù)據(jù)概念不太了解,但不可否認的是,生活中,我們誰都免不了受到它的影響。
當你打開淘寶,你會發(fā)現(xiàn)推薦購買商品一欄都是你近期瀏覽過的網(wǎng)頁;當你瀏覽咨訊時,推薦欄清一色是你近期關(guān)注過的話題;路過某家店鋪,美團可能會給你發(fā)附近的美食小貼士。算法無時無刻不在發(fā)揮作用,它幾乎每天都會對展示在我們眼前的信息進行分類、篩選與取舍。
大數(shù)據(jù)背后往往有著算法的支撐。算法的出現(xiàn)其實并不算晚,應該說和計算機的發(fā)展緊密相連,但之前關(guān)于算法的相關(guān)研究大都集中在信息技術(shù)領(lǐng)域,算法在新聞傳播領(lǐng)域中的應用研究可以說近幾年才逐漸得到重視。雖然相關(guān)研究起步較晚,但不少觀點都承認現(xiàn)在已經(jīng)步入了算法主導時代,算法盛行已經(jīng)成為未來不可避免的一種發(fā)展趨勢。
“你關(guān)心的,才是頭條”,這是今日頭條打出的口號,今日頭條的崛起,可以說促進了新聞推送方式的大變革,其從受眾需求出發(fā),信息內(nèi)容和傳播渠道主要依靠數(shù)據(jù)和算法實現(xiàn),專注于提供個性化推薦內(nèi)容,用戶的粘性和平臺瀏覽量也因此大幅提升。
個性化內(nèi)容推薦似乎已經(jīng)成為一種“新常態(tài)”,軟件變得越來越“懂”我們。在海量信息流中,我們很容易發(fā)現(xiàn)自己感興趣的內(nèi)容,我們每個人的核心關(guān)注點都可以被標簽化,而且隨著個人關(guān)注點的變化,系統(tǒng)給出的推薦也是能夠隨之更新的。
《移動互聯(lián)網(wǎng)2017春季報告》指出,網(wǎng)絡新聞活躍用戶數(shù)量排名前三的是騰訊新聞、今日頭條和一點資訊,而這三個媒體平臺全都依托于算法,新聞生產(chǎn)的算法時代已經(jīng)來臨。
美國學者凱斯·桑斯坦在其著作《信息烏托邦》中提出了“信息繭房”的概念。他認為,公眾往往只關(guān)注他們感興趣的信息,因而知識結(jié)構(gòu)是不全面的,長此以往,將置身于狹隘的“繭房”中。他還生動地描述了“個人日報”現(xiàn)象。用戶的個性化需求不斷被滿足,未來某一天,將出現(xiàn)新的界面代理人,它將能夠為每個人量身定制一份個人日報。
這兩種現(xiàn)象在算法作用下日益凸顯,單一化、同質(zhì)化的信息不斷被推送,“信息繭房”日益加固,當信息一一被過濾后,我們都在自己專屬的“私人訂制”下,瀏覽我們感興趣和無聊消遣的信息(八卦娛樂等),卻無視那些雖然趣味性不強但卻可能很重要的信息。(時政信息、公益內(nèi)容等)
微博中就存在典型的信息繭房效應:關(guān)注對象日趨同質(zhì)化,收到的新消息取決于你關(guān)注過的人;互粉、轉(zhuǎn)發(fā)、私信等功能使得“圈子化”現(xiàn)象明顯。
互聯(lián)網(wǎng)主要的商業(yè)模式就是免費,我們獲取了互聯(lián)網(wǎng)公司的服務,但代價卻是出賣了我們的個人隱私,一定程度上,我們的注意力和個人數(shù)據(jù)已經(jīng)成為互聯(lián)網(wǎng)公司所出售的產(chǎn)品。
比如今年年初支付寶賬單侵隱私風波,支付寶收集了用戶一年內(nèi)的消費信息,運用大數(shù)據(jù)進行分析生成每個人的年度消費報告,而用戶若想要查看賬單,默認條件是同意《芝麻服務協(xié)議》,即允許相關(guān)公司采集自身信息。這種做法沒有留給用戶選擇的余地,很大程度上侵犯了其隱私。類似的年度歌單等也都利用了我們的使用記錄或其他信息,我們的隱私安全在算法操縱下受到了一定威脅。
傳統(tǒng)的新聞把關(guān)主要由編輯負責,把關(guān)人需要對事實真?zhèn)魏藢嵳鐒e,對所傳播的內(nèi)容進行價值判斷,進而篩選出那些符合公共需求的信息,新聞專業(yè)主義精神也由此得到彰顯。
而在算法分發(fā)條件下,當代碼寫好后,接下來的內(nèi)容生產(chǎn)或識別就主要依靠機器完成,編輯的功能相對被弱化,由此也不可避免地會引發(fā)一系列社會倫理問題。一些戲謔、惡俗的內(nèi)容稍加偽裝,就很有可能逃過算法的控制。尤其是在“人人都有麥克風”的時代下,信息系統(tǒng)十分龐雜,算法怎么“把關(guān)”、“把關(guān)'效果如何等現(xiàn)實因素都需要我們考慮。
如今,我們身邊從來都不缺乏信息,海量的信息甚至已經(jīng)形成轟炸態(tài)勢,但真正有觀點、有內(nèi)容的優(yōu)質(zhì)產(chǎn)品卻是少之又少,網(wǎng)絡垃圾充斥著屏幕,這已經(jīng)成為人們獲取信息的現(xiàn)實情境。算法把關(guān)再優(yōu)越,也不能由其完全決定內(nèi)容生產(chǎn),新聞媒體作為輿論的前沿陣地,應該始終堅守傳統(tǒng)新聞價值。
大數(shù)據(jù)時代,人們應該學習擺脫海量信息帶來的不確定性。我們不能完全接受推送給我們的內(nèi)容,而應該有自己的判斷,多采用懷疑性認知方法,這樣我們才能逐漸為自己建立一個“關(guān)口”,從而成為自己信息消費的“把關(guān)人”。
陳昌鳳教授認為,通過人機交互,能夠讓人工智能更好地體現(xiàn)人的主導性和價值觀,這也符合目前算法在新聞傳播領(lǐng)域發(fā)展趨勢。就像今日頭條雖主要依靠算法篩選內(nèi)容,但代碼在應用前需要經(jīng)過內(nèi)容部和研發(fā)部的共同商議,算法背后“人”的因素發(fā)揮了很大作用。由此可見,實現(xiàn)技術(shù)和人的良性互動是未來人類社會發(fā)展的必然要求。
[1]樓建坤,陳澤璽,國秋華.算法的把關(guān)研究——以今日頭條App為例[J].新媒體研究,2017,9.
[2]劉志毅.今日頭條如何用算法打擊“標題黨”[J].傳媒,2017,4.