張志剛 施麗芳
近年來,算法在各個領(lǐng)域的應(yīng)用日趨廣泛。算法為我們理解數(shù)據(jù)提供了幫助,這無形中帶來了諸多益處,如創(chuàng)新生活模式、激勵科學(xué)突破等。同時,算法也存在不少問題,如“信息繭房”效應(yīng)、算法系統(tǒng)作為一個“黑箱”缺少透明性、算法歧視的產(chǎn)生、人類自我思考能力下降、加劇社會矛盾等等。美國當(dāng)屬最早針對算法進(jìn)行規(guī)制的國家。美國計算機(jī)協(xié)會(ACM)于2017 年就有關(guān)算法透明度及可審查性方面,發(fā)布了七項基本原則,并增強(qiáng)了規(guī)制算法歧視的自律性 。同年12 月,《算法問責(zé)法案》 由紐約州議會通過,這是美國首個通過立法監(jiān)管算法的法案。
本文以算法所引發(fā)的法律問題為出發(fā)點(diǎn),即算法推薦致陷“信息繭房”、算法黑箱以及算法歧視,通過分析問題產(chǎn)生的原因及其危害,論證對算法進(jìn)行法制規(guī)制的必要性,并試圖提出對算法進(jìn)行法律規(guī)制的建議。
算法(Algorithm)該詞起源于9世紀(jì)的一位名叫阿布·阿仆杜拉·穆罕默德·伊本·穆薩·花剌子密的波斯數(shù)學(xué)家 ,其含義是阿拉伯?dāng)?shù)字的運(yùn)算法則。在人工智能時代,以計算機(jī)程序代碼為載體的“算法”被普遍應(yīng)用。關(guān)于算法的概念,目前沒有統(tǒng)一的定義??茽柭斫獾乃惴ㄒ话闶侵附鉀Q某一特定問題而采取的有限且明確的操作步驟 。西普塞認(rèn)為算法是為了把問題解決而輸入的一套指令 。還有學(xué)者將算法理解為在有限的時間里逐步完成特定任務(wù)的過程。換言之,算法是在規(guī)定的步驟里,將輸入數(shù)據(jù)進(jìn)行一系列的分析、計算從而輸出結(jié)果的過程。譬如,廣泛應(yīng)用于日常生活中的手機(jī)導(dǎo)航算法為路上的無數(shù)司機(jī)提供方向指引;美國IBM 公司的認(rèn)知技術(shù)平臺與Nextlaw Labs 合作開發(fā)的ROSS 系統(tǒng),可以代替律師完成從法條、司法解釋和判例搜尋到研讀的一系列任務(wù) 。
算法最初被人類設(shè)計出來便是為了推動人類社會的發(fā)展,具有諸多的積極意義。算法在我們的生活中扮演著日益重要的角色,涵蓋教育、就業(yè)、新聞、住房、貸款申請、醫(yī)療衛(wèi)生、政府決策、司法審判等等領(lǐng)域 。
第一,算法為我們的日常生活提供了更多的便利并大幅提升了效率。舉例來說,在網(wǎng)絡(luò)中傳播的海量數(shù)據(jù)和信息會導(dǎo)致人們篩選出自身所需內(nèi)容的任務(wù)加重,從而產(chǎn)生過度的疲憊感。而推薦算法能夠根據(jù)用戶的閱讀習(xí)慣進(jìn)行精準(zhǔn)的推送內(nèi)容,大幅降低了用戶獲取信息的成本,同時有效獲取到用戶自身所喜歡的內(nèi)容。除此之外,操作系統(tǒng)的調(diào)度算法幫助我們順暢地使用操作系統(tǒng);看似平凡的文字處理工具在排版、修訂方面能夠節(jié)省很多的成本,等等。算法的正向價值在無形中不斷擴(kuò)大對社會的影響。
第二,算法技術(shù)合理應(yīng)用于司法方面能夠增強(qiáng)案件判決的公正性,同時案件處理效率也會提高。在西方國家,法律專家系統(tǒng) 被用于法官判決案件時對類似案件的檢索,為司法資源和時間的節(jié)約產(chǎn)生了積極作用。在我國,最高院于2018 年發(fā)布的評價報告顯示,全國“智慧法院” 已經(jīng)初步形成。通過使用算法技術(shù)對大量案件的分析,法官可以獲得一定的參考,從而有助于案件判決客觀性的提升,推動司法公正的實現(xiàn)。譬如,在當(dāng)事人到法院立案時,通過智能機(jī)器的導(dǎo)訴便可以迅速辦理立案;在判決階段,通過算法分析提供的判決結(jié)果能夠為最終裁決提供參考,這些都能簡化訴訟程序 。
算法產(chǎn)生的的積極意義遠(yuǎn)不止于此,社會日新月異的變化與算法息息相關(guān),譬如政府利用算法進(jìn)行行政管理,從而達(dá)到降低成本提高效率的目的,等等。
推薦算法,是計算機(jī)專業(yè)中的一種算法,是指依據(jù)用戶的某些行為進(jìn)行一系列算法分析,從而推測出用戶可能喜歡的東西 。而“信息繭房”的概念,最早是出現(xiàn)在桑斯坦《信息烏托邦》一書中,主要指信息傳播中公眾對信息的需求并非涵蓋全部的,其只關(guān)心和選擇能使自己愉悅的領(lǐng)域,長此以往,會將自身束縛在蠶繭似的“繭房”里 。大量信息通過信息技術(shù)在網(wǎng)絡(luò)中傳播,由該技術(shù)所營造的愈加自我的思考環(huán)境,有些人或許會為了躲避社會矛盾而變得獨(dú)立。相同群體之間的溝通交流或許會因此更加高效,但相較于信息匱缺的時代,社會群體之間的溝通交流并不見得會更加順暢。
我國發(fā)布的《2016 年中國互聯(lián)網(wǎng)新聞市場研究報告》顯示,互聯(lián)網(wǎng)新聞已成為網(wǎng)民高頻使用的基礎(chǔ)類網(wǎng)絡(luò)應(yīng)用,而通過算法可以調(diào)整用戶獲取的新聞信息順序,例如百度、谷歌等利用搜索引擎的方式對信息提供者和用戶之間進(jìn)行匹配 。在互聯(lián)網(wǎng)時代,豐富的社會信息超過了個人或系統(tǒng)所能接受、處理、有效利用的范圍,最終將導(dǎo)致故障的狀態(tài)。應(yīng)對這一現(xiàn)象,最理想的便是依據(jù)用戶的喜好向其推送相關(guān)新聞。然而,近幾年來,算法推薦變得不加節(jié)制甚至為引起用戶關(guān)注而持續(xù)推送同類、劣質(zhì)信息,這極易促使用戶陷入“信息繭房”。《人民日報》于2017 年連續(xù)發(fā)布了三篇評論,針對通過算法向用戶自動推薦信息的互聯(lián)網(wǎng)業(yè)態(tài)提出批評意見,意在警示大家,不要受困于“信息繭房”,不要被算法左右我們獲取的信息 。2016 年“魏則西事件 ”反映了算法推薦極盡追逐利益的寫照。
作為一種隱喻的“黑箱”,已經(jīng)被一部分人(算法設(shè)計者、開發(fā)者)知道,但另一部分人(受眾或用戶)不一定知道 。算法之所以被稱為黑箱,大體上是由于算法自身的工作原理不為一般人所熟知,這使得算法缺少透明性而難以監(jiān)管。有學(xué)者總結(jié)了三種形式的不透明性,其一是“固有不透明”,由算法自身的復(fù)雜性帶來的;其二是“文義不透明”,產(chǎn)生于不同的技術(shù)認(rèn)知水平;其三是“故意不透明”,產(chǎn)生于商業(yè)秘密或國家秘密 。
算法歧視,是指那些可能導(dǎo)致不公正、不合理結(jié)果的系統(tǒng)性和可重復(fù)性出現(xiàn)的錯誤,其中最常見的是對不同的人產(chǎn)生不同的結(jié)果或是對兩個條件相同或相似的人產(chǎn)生不同的結(jié)果 。例如,含有價格歧視因素的程序?qū)⒊霈F(xiàn)“算法殺熟”現(xiàn)象,即同樣的商品或服務(wù),老客戶看到的價格反而比新客戶要貴出許多的現(xiàn)象。
算法的歧視風(fēng)險來源之一是算法使用者或設(shè)計者自身的偏見,這種偏見編入計算機(jī)程序后,隨著算法自身的不斷學(xué)習(xí)可能會逐漸暴露出來并被放大,導(dǎo)致決策不公。正如騰訊研究院曹建峰先生所言,算法是“以數(shù)學(xué)方式或者計算機(jī)代碼表達(dá)意見,包含其設(shè)計、目的、數(shù)據(jù)使用等等,這些都是由于設(shè)計者或開發(fā)者的自主選擇,他們或許還會將自身的偏見嵌入算法系統(tǒng) ”。其次,大數(shù)據(jù)并非萬能藥。社會中存在著歧視機(jī)制,挖掘數(shù)據(jù)的過程極易重現(xiàn)現(xiàn)有的歧視模式。即使沒有經(jīng)過手動編程,算法也可能會表現(xiàn)出這些趨勢,無論是否有意?!按髷?shù)據(jù)集”的不完備性在一定程度上是由人類社會的不確定和復(fù)雜的客觀事實決定的。例如,人臉識別算法對于不同種族人類的識別準(zhǔn)確率差異明顯,針對白人男性的錯誤率低于1%,而針對黑人女性的錯誤率卻高達(dá)35%,造成該差異正是由于黑人女性相關(guān)數(shù)據(jù)的缺失 。
算法歧視不僅極易導(dǎo)致個體失去獲取資源和實現(xiàn)自我完善的機(jī)會,損害個體公平,還容易出現(xiàn)強(qiáng)弱兩極分化的現(xiàn)象,損害社會群體的公平。算法在設(shè)計之初就是為了追求經(jīng)濟(jì)利益和提升效率。企業(yè)在研發(fā)算法時,最先考慮的就是經(jīng)濟(jì)利益和工作效率,為降低成本和增加利益,經(jīng)濟(jì)利益的導(dǎo)向深深地影響算法的運(yùn)行。
對算法進(jìn)行法律規(guī)制將面臨空前復(fù)雜的挑戰(zhàn),并且推進(jìn)這一過程也需要時間。在承認(rèn)算法于應(yīng)用之中產(chǎn)生的價值的同時,應(yīng)該對算法應(yīng)用可能產(chǎn)生問題保持警惕性,通過完善關(guān)于算法的立法、強(qiáng)化算法監(jiān)管等路徑,以達(dá)到有效規(guī)制算法的目的。
第一,針對算法推薦,《數(shù)據(jù)安全管理辦法(征求意見稿)》(以下簡稱《辦法》) 第二十三條規(guī)定,網(wǎng)絡(luò)運(yùn)營者利用用戶數(shù)據(jù)和算法推送新聞信息、商業(yè)廣告等(以下簡稱“定向推送”),應(yīng)當(dāng)以明顯方式標(biāo)明“定推”字樣,為用戶提供停止接收定向推送信息的功能。該條款明確了“定向推送”的內(nèi)涵,對用戶脫離信息繭房的桎梏具有重要意義。筆者建議可以增加網(wǎng)絡(luò)運(yùn)營商的告知義務(wù),以電子郵件等形式將清除結(jié)果發(fā)送給用戶,保障用戶的知情權(quán)、隱私權(quán),減少同類劣質(zhì)信息的推送。其次,《辦法》中對網(wǎng)絡(luò)運(yùn)營商明確施加了不得歧視的義務(wù),其中第十三條規(guī)定了禁止對個人信息分析后進(jìn)行定價歧視,這明顯針對的是大數(shù)據(jù)殺熟現(xiàn)象。因此,有必要根據(jù)算法應(yīng)用范圍大小分階段對算法歧視進(jìn)行法律治理,如人臉識別算法在銀行、客運(yùn)等行業(yè)應(yīng)用迅速且廣泛,可以先行進(jìn)行法律治理。最后,針對算法黑箱問題,可以通過提高算法透明性來應(yīng)對。
第二,《網(wǎng)絡(luò)安全法》的相關(guān)規(guī)定適用算法的規(guī)制,因為算法的開發(fā)、運(yùn)行和使用等等過程都置于網(wǎng)絡(luò)環(huán)境中。該法第二十二條規(guī)定,網(wǎng)絡(luò)產(chǎn)品、服務(wù)應(yīng)當(dāng)符合相關(guān)國家標(biāo)準(zhǔn)的強(qiáng)制性要求,網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者不得設(shè)置惡意程序 。假設(shè)有組織或個人利用算法侵害他人權(quán)益或公共利益的,應(yīng)當(dāng)認(rèn)定屬于“惡意程序”的范圍,是該法禁止的。該法第四十一條,強(qiáng)調(diào)了個人的信息安全,算法的開發(fā)者和使用者應(yīng)向用戶明示并取得同意后才可收集其信息,保障了用戶的知情權(quán)。
第三,明確問責(zé)主體。參照《侵權(quán)責(zé)任法》 ,可以將開發(fā)者、使用者以及第三方侵權(quán)的責(zé)任人作為算法問責(zé)主體。在出現(xiàn)算法問題時,關(guān)于結(jié)構(gòu)性問題還是功能性問題的確定是極其重要的一個環(huán)節(jié)。在開發(fā)者和使用者相分離時,若是結(jié)構(gòu)性問題,問題發(fā)生在算法系統(tǒng)內(nèi)部,則由算法開發(fā)者作為問責(zé)主體;若在算法運(yùn)用中發(fā)生,則由算法使用者作為問責(zé)主體。在算法的開發(fā)者和使用者相同時,則無需區(qū)分。
確保算法能夠被中立的第三方或監(jiān)管機(jī)構(gòu)有效審查受到國際社會的密切關(guān)注,因為這可以提升實現(xiàn)算法決策的透明性和公平性的可能。目前在德國,名為“監(jiān)控算法”(Monitoring Algorithm)的非營利組織已經(jīng)成立,該組織主要由技術(shù)專家和資深媒體人組成,旨在評估并監(jiān)控算法決策過程中對公共生活產(chǎn)生的影響 。在監(jiān)管算法的過程中,明確其主體十分重要。本文建議將算法的開發(fā)者和使用者作為主體進(jìn)行監(jiān)管。我國可以借鑒德國的做法設(shè)立算法監(jiān)管機(jī)構(gòu),該監(jiān)管機(jī)構(gòu)必須是獨(dú)立的并被賦予了相應(yīng)職權(quán),要由具備算法知識的法律人員組成。當(dāng)人們認(rèn)為自身權(quán)利遭受到算法決策過程中產(chǎn)生的問題的侵犯時,可以投訴到算法監(jiān)管機(jī)構(gòu);當(dāng)出現(xiàn)算法決策侵犯公共利益的情況時,該機(jī)構(gòu)也可依職權(quán)對相關(guān)算法開發(fā)者、使用者進(jìn)行問詢。
在理解的基礎(chǔ)上才有助于產(chǎn)生信任,算法的功能必須讓那些受其影響的人能夠理解,但關(guān)于算法怎樣運(yùn)作的問題,一般人無法理解,也沒那樣的能力理解,即便是吃了算法的虧,也可能無從知道,或者知道卻不以為意。因此,必須從公民的算法素養(yǎng)培育開始,公民不能充當(dāng)“被算法賣了還替算法數(shù)錢”的算法文盲。
公民算法素養(yǎng)的培育需要“革命性”的教育努力,包括美國在內(nèi)的不少國家已經(jīng)著手將算法教育納入基礎(chǔ)教育中。例如,德克薩斯州大學(xué)把“計算機(jī)科學(xué)的倫理基礎(chǔ)”課程列入計算機(jī)專業(yè)學(xué)生的學(xué)習(xí)范圍;康奈爾大學(xué)也開設(shè)了數(shù)據(jù)倫理課程,旨在提升對數(shù)據(jù)倫理問題的關(guān)注度 。值得關(guān)注的是,我國也開始重視算法素養(yǎng)的培育,在《新一代人工智能發(fā)展規(guī)劃》中提到全面的智能教育不可忽視,并希望加快編程教育進(jìn)入中小學(xué)課堂的實施進(jìn)度 。
算法作為法律上的新鮮事物,需要納入法律的調(diào)整范圍,因為法律經(jīng)常是各方利益妥協(xié)的產(chǎn)物。因此,對算法進(jìn)行法律規(guī)制,一方面,有利于促進(jìn)人工智能產(chǎn)業(yè)的發(fā)展;另一方面,可以更好地規(guī)范算法與其他法律主體或客體之間的關(guān)系。目前,算法技術(shù)的發(fā)展仍屬于初級階段,法律以及其他社會各界,都應(yīng)給予其更多的寬容和發(fā)展空間。算法問題是新時代的新問題,科技進(jìn)步是必然的,我們更應(yīng)該以積極的心態(tài)來面對。
1 鄭智航,徐昭曦.大數(shù)據(jù)時代算法歧視的法律規(guī)制與司法審查——以美國法律實踐為例[J].比較法研究,2019(4):111-122.
2 參見算法也有偏見?紐約市通過美國首個算法問責(zé)法案_每日觀科技網(wǎng),http://xmkelan.com/a/kxjs/30510.html 最后訪問:2020-03-25.
3 克里斯托弗·斯坦納著.李筱瑩譯.算法帝國[M].人民郵電出版社,2014 年版,第43 頁.
4[美]科爾曼等:《算法導(dǎo)論(原書第3 版)》,殷建平等譯,機(jī)械工業(yè)出版社,2013年版,第3頁.
5 邁克爾·西普塞.計算理論導(dǎo)引[M].段磊,唐常杰,等譯.北京:機(jī)械工業(yè)出版社,2015.
6 鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):80-86.
7 楊學(xué)科.論智能互聯(lián)網(wǎng)時代的算法歧視治理與算法公正[J].山東科技大學(xué)學(xué)報(社會科學(xué)版),2019,21(04):33-40+58.
8 參見法律專家系統(tǒng)_360 百科 https://baike.so.com/doc/28403265-29833084.html 最后訪問:2020-04-22.
9 參 見 智 慧 法 院_360 百 科 https://baike.so.com/doc/26292417-27731368.html 最后訪問:2020-04-22.
10 劉愛軍,周春梅,智慧法院對深化司法改革影響研究——以和諧共同體關(guān)系為視角[J].法制與社會,2017(27).
11 參見推薦算法_百度百科 https://baike.baidu.com/item/%E6%8E%A8%E8%8D%90%E7%AE%97%E6%B3%95 最后訪問:2020-03-26.
12[美]凱斯·桑斯坦.畢競悅譯.信息烏托邦:眾人如何生產(chǎn)知識[M].北京:法律出版社,2008.8.
13 參見2016 年中國互聯(lián)網(wǎng)新聞市場研究報告-中共中央網(wǎng)絡(luò)安全和信息化委員會辦公 室http://www.cac.gov.cn/2017-01/12/c_1121534556.htm 最后訪問:2020-03-26.
14 人民日報.三評算法推薦[EB/OL] http://opinion.people.com.cn/n1/2017/0918/c1003-29540709.html 最后訪問:2020-03-26.
15 參見魏則西_360 百科 https://baike.so.com/doc/23848728-24405374.html 最后訪問:2020-03-26.
16 張淑玲.破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實現(xiàn)機(jī)制[J].中國出版,2018(7):49-53.
17 崔靖梓.算法歧視挑戰(zhàn)下平等權(quán)保護(hù)的危機(jī)與應(yīng)對[J].法律科學(xué):西北政法大學(xué)學(xué)報,2019,037(003):29-42.
18 劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019,40(06):55-66.
19[美]凱西·奧尼爾:《算法霸權(quán)》,馬青玲譯,中信出版集團(tuán)2018 年版,第48~217 頁.
20 曹建峰.怎樣應(yīng)對人工智能帶來的倫理問題[N].學(xué)習(xí)時報,2017-06-14(7).
21 賈開.人工智能與算法治理研究[J].中國行政管理,2019(01):17-22.
22 參見國家互聯(lián)網(wǎng)信息辦公室關(guān)于《數(shù)據(jù)安全管理辦法(征求意見稿)》公開征求意見的通知_部門政務(wù)_中國政府網(wǎng) http://www.gov.cn/xinwen/2019-05/28/content_5395524.htm最后訪問:2020-05-15.
23 參見中華人民共和國網(wǎng)絡(luò)安全法(全文)https://ltc.jhun.edu.cn/6c/8a/c3059a93322/page.htm 最后訪問:2020-04-28.
24 參見侵權(quán)責(zé)任法_360 百科 https://baike.so.com/doc/5401123-5638733.html 最后訪問:2020-05-16.
25 張淑玲. 破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實現(xiàn)機(jī)制[J]. 中國出版, 2018(7): 49-53.
26 劉培,池忠軍. 算法的倫理問題及其解決進(jìn)路[J]. 東北大學(xué)學(xué)報(社會科學(xué)版),2019,21(02):118-125.
27 參見國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知(國發(fā)〔2017〕35 號)_ 政府信息公開專欄 http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm最后訪問:2020-03-21.