□ 周靜怡
算法(Algorithm)一詞最早由波斯數(shù)學(xué)家花拉子密提出。這時(shí)的算法主要指的是數(shù)學(xué)學(xué)科內(nèi)的計(jì)算方式,當(dāng)計(jì)算機(jī)科學(xué)與算法結(jié)合之后誕生了算法的新意義。目前,算法自動(dòng)生成技術(shù)通常指的是運(yùn)用人工智能相關(guān)技術(shù)通過搜集整合指定內(nèi)容資料,根據(jù)使用者的目的,自動(dòng)將相關(guān)的信息內(nèi)容生成一條完整的信息。這一技術(shù)在新聞媒體以及一些大型社交平臺(tái)中使用得比較普遍。例如在財(cái)經(jīng)新聞、體育新聞?lì)I(lǐng)域,自動(dòng)生成內(nèi)容分發(fā)新聞已經(jīng)是行業(yè)內(nèi)的常規(guī)行為。
名譽(yù)權(quán)是公民或法人享有的就其自身特性所表現(xiàn)出來的社會(huì)價(jià)值而獲得社會(huì)公正評(píng)價(jià)的權(quán)利,是人格權(quán)的一種。人的名譽(yù)是指具有人格尊嚴(yán)的名聲,是人格的重要內(nèi)容,受法律保護(hù)。任何人都不得損害公民和法人的名譽(yù)。凡敗壞他人名譽(yù),損害他人形象的行為,都是對(duì)名譽(yù)權(quán)的侵犯,行為人應(yīng)負(fù)法律責(zé)任。而在算法技術(shù)侵入新聞?lì)I(lǐng)域、社交領(lǐng)域之后,公民的名譽(yù)權(quán)也可能在不知不覺中被智能技術(shù)所侵犯。
在智媒時(shí)代,隨著算法技術(shù)進(jìn)入新聞生產(chǎn)與產(chǎn)出過程,算法技術(shù)涉及侵權(quán)的問題日益凸顯。近年來,被曝光的關(guān)于算法產(chǎn)生的倫理問題頻繁涌現(xiàn)。但目前國(guó)內(nèi)針對(duì)算法自動(dòng)生成技術(shù)侵權(quán)問題直接進(jìn)行討論的研究較少。而如今算法侵權(quán)頻發(fā),對(duì)此不應(yīng)逃避,而應(yīng)進(jìn)行討論、研究。
“電子人”指向人工智能?!半娮尤恕笔菗碛腥祟愔悄芴卣鳎哂凶灾餍?,以電子及電子化技術(shù)構(gòu)建的機(jī)器設(shè)備或系統(tǒng)。關(guān)于電子人是否具有主體地位,多國(guó)出臺(tái)了相關(guān)法律法規(guī)。2016年5月31日,歐洲議會(huì)法律事務(wù)委員會(huì)發(fā)布《關(guān)于機(jī)器人民事法律規(guī)則立法建議致歐盟委員會(huì)的報(bào)告草案》;2017年1月12日,草案由該委員會(huì)表決通過成為決議;2017年2月16日,歐洲議會(huì)通過該決議。其第59段建議,當(dāng)對(duì)未來法律文件的影響進(jìn)行評(píng)估時(shí),應(yīng)探索、分析并考慮所有可能的法律舉措的意蘊(yùn)。舉措之一就是:從長(zhǎng)期著眼為機(jī)器人創(chuàng)立特定的法律地位,以至于至少明確最精密的自主機(jī)器人擁有“電子人”地位,能夠承擔(dān)彌補(bǔ)其引發(fā)的損害的責(zé)任,并可能把“電子人格”適用于那些機(jī)器人自主決定或其他獨(dú)立于第三方交互的案件①。
關(guān)于算法侵權(quán)問題的產(chǎn)生,算法工程師難辭其咎。由于算法工程師是算法的設(shè)置者,也是算法價(jià)值觀的輸入者,算法所造成的一系列問題都跟算法工程師息息相關(guān)。但是,如何恒定算法工程師的過錯(cuò)是目前存在的困境。算法工程師固然擁有自己的價(jià)值觀以及各種歧視偏見,但是并無能力預(yù)測(cè)算法技術(shù)最后生成內(nèi)容的對(duì)錯(cuò)以及犯罪與否。其中就牽扯到實(shí)際惡意原則,該原則在1964年美國(guó)最高法院審理《紐約時(shí)報(bào)》訴沙利文案時(shí)確立。美國(guó)最高法院認(rèn)為,所謂的真實(shí)惡意是指,明知這個(gè)資訊是錯(cuò)誤不實(shí)的(knowledge that the information was false),或完全無視它是不是錯(cuò)誤的(or with reckless disregard of whether it was false or not)②。但是在實(shí)施之中衡量算法工程師是否具有實(shí)際惡意比較困難。
算法自動(dòng)生成技術(shù)通常依托于各大網(wǎng)站和APP,因此該技術(shù)的使用平臺(tái)難逃其咎。作為面向公眾的平臺(tái)必須承擔(dān)起社會(huì)責(zé)任,對(duì)算法生成內(nèi)容進(jìn)行篩選,必須符合情理,不能以傷害某人或某一群體的利益為代價(jià)。然而不管國(guó)內(nèi)還是國(guó)外,使用平臺(tái)都未能承擔(dān)起應(yīng)盡職責(zé)。例如2012年,一臺(tái)機(jī)器反復(fù)稱德國(guó)前第一夫人貝蒂娜·伍爾夫?yàn)榧伺?。違規(guī)系統(tǒng)是谷歌搜索功能中的自動(dòng)完成功能。當(dāng)用戶在搜索欄中輸入“bettina wulff”時(shí),google(打算提供幫助)會(huì)根據(jù)其他用戶常用的搜索結(jié)果在框中輸入建議。在這種情況下,“貝蒂娜·伍爾夫妓女”這個(gè)詞組出現(xiàn)在谷歌的算法中,并以各種語言呈現(xiàn)給世界各地的用戶。伍爾夫起訴該公司生成內(nèi)容對(duì)其形象具有負(fù)面影響,并要求在德國(guó)刪除谷歌所自動(dòng)完成的相應(yīng)短語。同時(shí),德國(guó)聯(lián)邦法院要求谷歌對(duì)通過其自動(dòng)完成服務(wù)侵犯德國(guó)原告的名譽(yù)和人格權(quán)承擔(dān)責(zé)任。平臺(tái)的把關(guān)人應(yīng)該對(duì)算法自動(dòng)生成的內(nèi)容負(fù)責(zé),而不能因?yàn)槭亲詣?dòng)生成而推卸責(zé)任。把關(guān)人的失位只會(huì)讓平臺(tái)公信力下降,在未來引起越來越多的司法糾紛。盡管此類案件中涉及的主體眾多,但平臺(tái)所應(yīng)承擔(dān)的責(zé)任是毋庸置疑的。
算法技術(shù)侵權(quán)問題涉及眾多學(xué)界所關(guān)注的話題。首先,對(duì)于算法技術(shù)本身是否能夠作為一個(gè)主體,并為其所犯下的錯(cuò)誤承擔(dān)責(zé)任,在學(xué)界是存在爭(zhēng)議的。技術(shù)是否能夠承擔(dān)責(zé)任尚無答案,但在不久的未來也許技術(shù)本身也能為其過錯(cuò)接受懲罰。而算法工程師與平臺(tái)背后的負(fù)責(zé)人抑或是把關(guān)人在此類侵權(quán)事件中恐將難以獨(dú)善其身。算法自動(dòng)生成內(nèi)容源于算法工程師的價(jià)值觀,融入了算法工程師的看法、想法。盡管是自動(dòng)生成,也是包含了算法工程師的思想在內(nèi)才能形成。平臺(tái)負(fù)責(zé)人、把關(guān)人本應(yīng)擔(dān)負(fù)起平臺(tái)所應(yīng)承擔(dān)的全部責(zé)任。面向大眾提供的內(nèi)容,公眾平臺(tái)理應(yīng)使其符合社會(huì)主義核心價(jià)值觀,堅(jiān)持擔(dān)負(fù)起社會(huì)責(zé)任,對(duì)不良信息、不實(shí)信息進(jìn)行篩選把關(guān),為受眾提供一個(gè)良好清潔的網(wǎng)絡(luò)環(huán)境。
2016年,英國(guó)下議院科學(xué)和技術(shù)委員會(huì)發(fā)布《機(jī)器人與人工智能》,特別強(qiáng)調(diào)決策系統(tǒng)透明化對(duì)人工智能安全和管控的作用。世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)也發(fā)布了關(guān)于機(jī)器人倫理的初步草案報(bào)告,提出應(yīng)當(dāng)在機(jī)器人及機(jī)器人技術(shù)的倫理與法律監(jiān)管中確立可追溯性,保證機(jī)器人的行為及決策全程處于監(jiān)管之下③。
2019年4月10日,美國(guó)民主黨參議員布克(Booker)和懷登(Wyden)聯(lián)合提出了《2019算法問責(zé)制法案》(Algorithmic Accountability Act of 2019),試圖對(duì)人工智能機(jī)器學(xué)習(xí)中的偏見和個(gè)人敏感信息使用問題進(jìn)行規(guī)制。法案提出,聯(lián)邦貿(mào)易委員會(huì)(Federal Trade Commission)應(yīng)盡快制定關(guān)于高風(fēng)險(xiǎn)自動(dòng)決策系統(tǒng)的評(píng)估規(guī)則,科技企業(yè)必須評(píng)估算法是否存在歧視性偏見,以及它們是否對(duì)消費(fèi)者構(gòu)成隱私或安全風(fēng)險(xiǎn)④。
在以上兩個(gè)事例可以看出,不少國(guó)家都在對(duì)算法技術(shù)進(jìn)行進(jìn)一步的規(guī)制化管理,算法絕不是絕對(duì)的自由,不在法律管轄范圍之外。國(guó)外近幾年不斷推出關(guān)于人工智能、算法等技術(shù)的管理?xiàng)l例,不光是為了未來的技術(shù)世界更加和諧,也是對(duì)世界范圍的一種號(hào)召。技術(shù)是中立的,而技術(shù)人員不是;技術(shù)難以定罪,而相關(guān)人員可以。
依據(jù)《中華人民共和國(guó)產(chǎn)品法》第四十三條的規(guī)定,可以解決目前大多數(shù)因人工智能算法技術(shù)所造成的侵權(quán)案件。因產(chǎn)品存在缺陷造成人身、他人財(cái)產(chǎn)損害的,受害人可以向產(chǎn)品的生產(chǎn)者要求賠償,也可以向產(chǎn)品的銷售者要求賠償。屬于產(chǎn)品生產(chǎn)者責(zé)任,由產(chǎn)品銷售者賠償?shù)模a(chǎn)品銷售者有權(quán)向產(chǎn)品生產(chǎn)者追償。屬于產(chǎn)品銷售者責(zé)任,由產(chǎn)品生產(chǎn)者賠償?shù)模a(chǎn)品生產(chǎn)者有權(quán)向產(chǎn)品銷售者追償。算法自動(dòng)生成內(nèi)容由平臺(tái)運(yùn)用所生產(chǎn)使用,而算法技術(shù)本身由算法工程師創(chuàng)造。算法工程師是生產(chǎn)者,而使用平臺(tái)的則為銷售者,都應(yīng)對(duì)其產(chǎn)生的侵權(quán)問題承擔(dān)相應(yīng)的責(zé)任。
但目前,我國(guó)關(guān)于人工智能、算法等新技術(shù)的相應(yīng)管理?xiàng)l例比較滯后,暫無直接對(duì)應(yīng)的法律條文作為最終司法判決的依據(jù)。
對(duì)國(guó)內(nèi)外法律法規(guī)進(jìn)行對(duì)比后可以發(fā)現(xiàn)以下幾個(gè)問題。國(guó)外盡管對(duì)名譽(yù)權(quán)的保護(hù)力度以及重視程度非常之高,但是由于國(guó)情限制,難以使相應(yīng)法律法規(guī)達(dá)到預(yù)期效果。以美國(guó)為例,與世界上大多數(shù)國(guó)家不同,美國(guó)不禁止或懲罰仇恨言論,也不強(qiáng)制刪除虛假信息。美國(guó)各個(gè)州可以自行設(shè)置相關(guān)法律,難以形成統(tǒng)一的判決標(biāo)準(zhǔn)。
在國(guó)內(nèi),首先,我國(guó)法律處于滯后階段,急需根據(jù)現(xiàn)存問題進(jìn)行調(diào)查討論解決算法等技術(shù)可能帶來的問題,使得相關(guān)案件有法可依。其次,國(guó)人的維權(quán)意識(shí)普遍不高,使得法律形成的推動(dòng)力不足。以國(guó)內(nèi)公眾人物為例,大多數(shù)時(shí)候,由于維權(quán)之路比較漫長(zhǎng),他們選擇息事寧人,而普通受眾則更為如此。最后,國(guó)內(nèi)算法技術(shù)尚不成熟。目前常見的算法侵權(quán)問題主要出現(xiàn)于一些社交平臺(tái)或聚合類網(wǎng)站;然而在未來,算法等技術(shù)日益發(fā)展,無人駕駛汽車或機(jī)器人服務(wù)員等新型技術(shù)產(chǎn)品將蓬勃發(fā)展??梢砸杂⒚赖劝l(fā)達(dá)國(guó)家為參考對(duì)象,盡可能把相應(yīng)治理?xiàng)l例實(shí)現(xiàn)前瞻性規(guī)劃,把算法/人工智能分成更為細(xì)致的類型,制定出更具體的法律法規(guī),以更好地適應(yīng)發(fā)展。
算法技術(shù)固然擁有一套比較復(fù)雜的生成環(huán)節(jié),但隨著時(shí)代的不斷發(fā)展,控制算法并不是一件完全不可能的事情。從實(shí)際出發(fā),人工控制算法并不太可能實(shí)現(xiàn)。由于算法技術(shù)本身比較復(fù)雜,一般的平臺(tái)把關(guān)人或媒體工作者并不能輕松地承擔(dān)此重任。而通過專業(yè)人員創(chuàng)造出新技術(shù)去進(jìn)行合理控制,通過技術(shù)來控制技術(shù),是目前比較好的方法。國(guó)外許多企業(yè)已經(jīng)進(jìn)行了一系列的嘗試,例如2019年6月,微軟公司與人工智能(簡(jiǎn)稱AI)公平專家合作,修改并擴(kuò)展了用于訓(xùn)練的Face API數(shù)據(jù)集。這是一個(gè)微軟Azure API,用于檢測(cè)、識(shí)別并分析圖像中人臉的算法。通過新的膚色、性別與年齡數(shù)據(jù),其能夠?qū)⑸钅w色男性與女性的識(shí)別錯(cuò)誤率降低至原本的二十分之一,并將女性整體的識(shí)別錯(cuò)誤率降低至原本的九分之一⑤。2019年9月,谷歌公司推出了What-If工具,這是面向其TensorFlow機(jī)器學(xué)習(xí)框架的Tensor-Board網(wǎng)絡(luò)儀表板中的一項(xiàng)偏見檢測(cè)功能⑥。國(guó)內(nèi)的算法自動(dòng)生成技術(shù)使用平臺(tái)可以效仿國(guó)外的一些進(jìn)步性嘗試,以減少侵權(quán)事件的發(fā)生。
作為算法的直接創(chuàng)造者,算法設(shè)計(jì)師對(duì)技術(shù)的了解固然毋庸置疑。但是算法設(shè)計(jì)師作為算法生成內(nèi)容的價(jià)值體現(xiàn),必須要經(jīng)過一定的考核。算法設(shè)計(jì)師的綜合素質(zhì)、媒介素養(yǎng)都應(yīng)該成為考核的重點(diǎn)內(nèi)容。對(duì)算法設(shè)計(jì)師要進(jìn)行一定時(shí)間的培訓(xùn),達(dá)到規(guī)定要求,通過測(cè)試才能成為合格的算法設(shè)計(jì)師。這能夠在一定程度上減少算法自動(dòng)生成內(nèi)容中包含歧視、誹謗的內(nèi)容。同時(shí),可以鼓勵(lì)新聞從業(yè)人員學(xué)習(xí)算法、AI技術(shù)或者引入跨專業(yè)人才,這樣能夠更好地保證算法推薦內(nèi)容的質(zhì)量。
算法等人工智能技術(shù)是目前的大勢(shì)所趨,也是未來社會(huì)發(fā)展的必然趨勢(shì)。盡管此類技術(shù)存在一些潛在的問題,但不容置疑的是,算法等技術(shù)為現(xiàn)代人類工作帶來了許多便利。只要合理使用這些新興智能技術(shù),從多個(gè)方面進(jìn)行正確的引導(dǎo),算法等新技術(shù)將利大于弊。本文簡(jiǎn)要討論了算法技術(shù)存在的一些侵權(quán)事實(shí),以及通過列舉國(guó)內(nèi)外的相關(guān)法律條文,提出了更好使用算法技術(shù)的一些建議,旨在促進(jìn)國(guó)內(nèi)關(guān)于人工智能技術(shù)管理的法律法規(guī)的進(jìn)一步完善。
注釋:
①十項(xiàng)建議解讀歐盟人工智能立法新趨勢(shì)[EB/OL].騰訊研究院,2017-02-16.https://www.tisi.org/4811.
②搜狗百科.真實(shí)惡意原則[EB/OL].https://baike.sogou.com/m/fullLemma?lid=70011042&fromTitle=%E7%9C%9F%E5%AE%9E%E6%81%B6%E6%84%8F%E5%8E%9F%E5%88%99&mcv=64&pcl=373,211&sed=0&ml=0&sct=0.
③人工智能各國(guó)戰(zhàn)略解讀系列之六《英國(guó)人工智能的未來監(jiān)管措施與目標(biāo)概述》[EB/OL].騰訊研究院,2017-04-02.https://mp.weixin.qq.com/s/C6HirVTunsp0UMg3dlLGQ.
④互聯(lián)網(wǎng)公司的定制推送會(huì)受限嗎?美參院就人工智能算法展開討論[EB/OL].界面新聞,2020-06-26.https://finance.sina.cn/2019 -06 -26/detail -ihytcerk9505867.d.html?from=wap.
⑤IBM停止人臉識(shí)別業(yè)務(wù),AI在美遭遇兩重天[EB/OL].計(jì)世網(wǎng),2020-06-09.http://www.ccw.com.cn/ai/2020-06-09/15228.html.
⑥谷歌高管:人臉識(shí)別技術(shù)存在巨大社會(huì)風(fēng)險(xiǎn)[EB/OL].科技行者,2018-12-19.https://mp.weixin.qq.com/s/mJdNz_xR7g_gV96gXfyf6Q.