趙 璐
西安歐亞學(xué)院,陜西 西安 710065
就目前的技術(shù)階段而言,我們處于“弱人工智能時代”,人工智能分為“弱人工智能”與“強(qiáng)人工智能”階段,前者指的是未達(dá)到人類智能水平,只能模擬人或動物的行為,需要人類參與才能進(jìn)行活動;后者則指達(dá)到人類智能水平,擁有自我意識,可以脫離于人類完成任務(wù)。不得不承認(rèn),僅處于發(fā)展不是很充分的“弱人工智能”階段,就已經(jīng)給我們的生活帶來了方方面面的便利。與此同時,這些技術(shù)也悄然“入侵”了我們的私人領(lǐng)域。算法與數(shù)據(jù)是“弱人工智能”領(lǐng)域的核心和本質(zhì),換言之,越是向人工智能時代邁進(jìn),越是需要海量的數(shù)據(jù)化信息及更優(yōu)化的算法。與此相伴而來的是更嚴(yán)重的隱私危機(jī)。“弱人工智能”技術(shù)增強(qiáng)了對隱私的直接監(jiān)控,人工智能本身也逐漸成為隱私信息的載體,增加了更多的隱私獲取性,且其窺探隱私的行為往往極具迷惑性和隱秘性。同時,“弱人工智能”的算法從目前來看仍有許多問題[1]。近年來,以快速準(zhǔn)確地進(jìn)行身份認(rèn)定為標(biāo)志的“人臉識別”“指紋識別”等生物識別科技作為先行者,被大量應(yīng)用于多生產(chǎn)生活領(lǐng)域,雖然極大地便利了生產(chǎn)生活,但也造成了“弱人工智能時代”的隱私權(quán)危機(jī)。無論是某些新聞熱點(diǎn)人物被“人肉搜索”造成針對性的隱私被他人獲取,例如“表哥”楊某才、“踩貓門”,還是諸多房地產(chǎn)公司、汽車4S 店、商場在其店內(nèi)安裝智能攝像頭的現(xiàn)象。不同于普通監(jiān)控攝像頭的是,這種攝像頭具備人臉識別功能,也就是說只要你進(jìn)入該區(qū)域,人臉信息將會立刻被采集并存儲于商家的存儲器中,以用于對該消費(fèi)者的消費(fèi)習(xí)慣、消費(fèi)能力等分析,并在其下次消費(fèi)時給出相匹配的購物建議,以提升成交率[2]。但在此情境下信息的采集并未獲得消費(fèi)者同意,更多時候是在其完全不知情的情況下進(jìn)行的,甚至?xí)⒋祟愋畔⒐蚕斫o其他利益相關(guān)方使用,導(dǎo)致泄露面進(jìn)一步擴(kuò)大。被稱為“人臉識別第一案”的郭某案就是典型代表。人臉識別等生物識別技術(shù)所囊括的隱私信息,相較于姓名、身份證號、電話號碼這些信息來說,其具有唯一性。倘若這些信息未被妥善保管或定期銷毀,一旦落入不法之徒手中造成的后果將不堪設(shè)想?!盎①畛鲇谘?,龜玉毀于櫝中,孰之過”?下文就“弱人工智能時代”下隱私權(quán)危機(jī)的形成原因進(jìn)行分析。
隱私權(quán)的概念隨著不同時代的發(fā)展有著不同的特征。目前階段,全球有關(guān)隱私的立法,無論是歐盟地區(qū)的“個人信息權(quán)利與統(tǒng)一規(guī)制為主導(dǎo)”模式,還是以美國“市場自我規(guī)制為主導(dǎo)”的模式,以及中國的模式,雖各有特色,但總結(jié)下來共同之處均在于采取了對主體賦權(quán)與對處理者施加責(zé)任與義務(wù)的措施;不同之處體現(xiàn)在,歐盟國家采取了具體人格權(quán)、一般人格權(quán)的方式來進(jìn)行保護(hù)。在此基礎(chǔ)上歐美國家牽頭,以用戶的“信息自決權(quán)”為核心,以強(qiáng)調(diào)用戶控制,重視“通知—同意”機(jī)制的運(yùn)用為制度核心,以信息使用、控制者(企業(yè)、政府機(jī)構(gòu))承擔(dān)保護(hù)責(zé)任構(gòu)建了“全球第一代個人信息保護(hù)框架”。但進(jìn)入到“弱人工智能時代”,上述框架對于隱私權(quán)的保護(hù)著實(shí)力不從心。隨著數(shù)字技術(shù)和人們生活的電子化、數(shù)據(jù)化發(fā)展,人們的隱私正在被全方位無死角地滲透,公共區(qū)域和個人隱私區(qū)域(既包括物理上的地域上區(qū)域,也包含以數(shù)字代碼為核心的網(wǎng)絡(luò)區(qū)域)的界限日漸模糊。除了上述的模糊性和多變性以外,其在“弱人工智能時代”的一個重要特性就是,被侵犯時的隱蔽性和欺騙性。各種商業(yè)分析利用、公權(quán)力的行政司法職能、各類學(xué)術(shù)研究,甚至是違法犯罪行為,無論出于何種目的,當(dāng)利用“弱人工智能”技術(shù)進(jìn)行非透明數(shù)據(jù)收集、第三方數(shù)據(jù)共享、去匿名化及對個人進(jìn)行大數(shù)據(jù)跟蹤與分析之時,用戶大多數(shù)時候是并不知曉其信息在被披露而利用的,或者雖知曉卻無能為力[3]。例如近期的“T 市燒烤店打人”事件,當(dāng)事人的個人隱私,無不被“人肉”得一干二凈。我們承認(rèn)輿論對于社會監(jiān)督的積極作用,但許多人抱著“法不責(zé)眾”的心理在網(wǎng)絡(luò)上窺探他人隱私的同時,也無不恐慌于“假如那個人是我怎么辦”?個人隱私與應(yīng)當(dāng)公開信息的邊界理應(yīng)作出區(qū)分。
在“弱人工智能時代”,公眾對于私人財產(chǎn)的保護(hù)意識較高,但受到數(shù)據(jù)開放、政府治理、傳統(tǒng)思維方式和法律法規(guī)的滯后等限制,對于隱私權(quán)的保護(hù)極易被忽視。根據(jù)《國家治理》雜志中一份調(diào)查報告的數(shù)據(jù)顯示:公眾雖已意識到自身隱私的價值,但在接受調(diào)查的人群中,從未意識到隱私需要保護(hù)和從未采取過保護(hù)措施的比例高達(dá)72.11%。隱私權(quán)實(shí)質(zhì)上是一種舶來概念,我國自古對于隱私權(quán)就沒有保護(hù)的傳統(tǒng),在高度的集體主義和宗族主義思想背景之下,僅有“陰私”這一勉強(qiáng)能與現(xiàn)代隱私權(quán)相關(guān)的倫理道德概念,甚至中國古代法中都未予以明確的法律保護(hù)。在我國直到改革開放之后隱私相關(guān)法律才開始后發(fā)緩行,開始以“姓名權(quán)”“名譽(yù)權(quán)”和“肖像權(quán)”的形式間接保護(hù)隱私權(quán),卻并未專門對隱私權(quán)進(jìn)行規(guī)定,20 世紀(jì)80 年代末90 年代初“隱私”相關(guān)字眼才見諸學(xué)者的筆端、立法和司法解釋中??傮w來看,我國公民對隱私權(quán)保護(hù)的意識欠缺,到了“弱人工智能時代”則更加捉襟見肘,隱私權(quán)侵犯的現(xiàn)象更是比比皆是。如在下載某軟件時,軟件彈出較長的格式條款合同,其中涉及到同意授權(quán)軟件開發(fā)者獲取并使用其個人隱私而免責(zé)的條款,用戶往往在看都不看的情況下直接點(diǎn)擊同意[4]。在侵權(quán)損害結(jié)果發(fā)生后,又會存在“多一事不如少一事,維權(quán)麻煩”的心理狀態(tài),不對自己的隱私權(quán)做任何維護(hù),放任其損害后果的進(jìn)一步蔓延。這無疑會助長侵權(quán)者的囂張氣焰,使他們得到一種反饋,即在獲得巨大利益的同時還不必承擔(dān)嚴(yán)重的法律后果,可想而知這會使得相關(guān)侵權(quán)進(jìn)一步擴(kuò)大和加劇。
誠如那句法諺所講:“任何法律一經(jīng)制定就已經(jīng)滯后”。其中所展示的法律(尤其是成文法)滯后性的弊端,在人類社會從工業(yè)時代向人工智能時代的巨變期里變得尤為明顯。在“弱人工智能時代”傳統(tǒng)隱私保護(hù)法律框架對于隱私權(quán)的保護(hù)著實(shí)力不從心。首先,“通知—同意”機(jī)制開始背離其設(shè)置目的,日漸形同虛設(shè)。一方面,“弱人工智能”的學(xué)習(xí)式數(shù)據(jù)處理越來越造成結(jié)果的不可預(yù)見;另一方面,海量的數(shù)據(jù)處理,大量的“通知—同意”條款,讓使用者不堪其擾,為了便利生產(chǎn)生活,許多人采取了“一攬子”同意的方式。其次,隨著搜集、處理數(shù)據(jù)的主體日益泛化,將以往施加給企業(yè)、政府等傳統(tǒng)數(shù)據(jù)搜集、處理者的責(zé)任直接套用在當(dāng)下泛化的普通大眾,是極不恰當(dāng)?shù)摹W詈?,缺乏事前防護(hù)手段和機(jī)制,僅限于事后救濟(jì),且違法成本很低。
當(dāng)前涉及“弱人工智能時代”背景下隱私權(quán)保護(hù)的法律法規(guī)主要體現(xiàn)在《民法典》及《個人信息保護(hù)法》之中,其中以2021 年底剛剛頒布實(shí)施的《個人信息保護(hù)法》較為全面,相較于之前相關(guān)規(guī)制的缺少,該法增加了敏感信息處理規(guī)則,在收集用戶的敏感信息時需要經(jīng)過用戶的單獨(dú)同意,不得秘密私自搜集處理。還增加了對未成年群體的特殊保護(hù),收集14 周歲以下未成年人的相關(guān)信息需要征得其監(jiān)護(hù)人的同意;用戶對于自己的隱私信息有更豐富的權(quán)利,例如有權(quán)要求對方對所采信息的用途、存儲方式、銷毀路徑等作出解釋說明,對數(shù)據(jù)收集處理者的法律責(zé)任進(jìn)行了強(qiáng)化,不得不說在對敏感信息隱私權(quán)的保護(hù)上該法有很大進(jìn)步。但依舊存在尚未解決的問題,該法雖然明確提到了當(dāng)個人隱私受到侵犯時監(jiān)管機(jī)構(gòu)應(yīng)該依法履行相應(yīng)職責(zé),但對于具體的監(jiān)管部門、監(jiān)管職責(zé)劃分、監(jiān)管不力的救濟(jì)途徑等信息未詳細(xì)規(guī)定。在發(fā)生實(shí)際糾紛時就會產(chǎn)生不同的機(jī)關(guān)相互“踢皮球”的現(xiàn)象。政府、社會監(jiān)管既要平衡市場、技術(shù)發(fā)展的需求和個人隱私保護(hù)的矛盾,又存在嚴(yán)重的信息不對稱、數(shù)據(jù)時代監(jiān)管技術(shù)難度大等技術(shù)問題。
我國的隱私權(quán)保護(hù)模式是侵權(quán)后責(zé)任承擔(dān)模式,“弱人工智能”背景之下,隱私權(quán)的侵犯往往難以確定侵權(quán)主體,立法及司法裁判對于隱私權(quán)保護(hù)力度不足,適用裁判規(guī)則也不利于維權(quán)。因而即使能夠勝訴,能夠獲得賠償?shù)姆秶徒痤~也不足以覆蓋司法途徑的成本及時間成本。排除未撤訴、未和解的隱私權(quán)案件,隱私權(quán)人訴侵權(quán)人的勝訴率接近50%,其中接近三分之二的案件僅支持了賠禮道歉和停止侵權(quán),即使獲得了賠償?shù)慕痤~也大多在1000 元到5000 元之間,顯然不高。以“人臉識別第一案”為例[5],從兩審法院的判決書來看,雖承認(rèn)了隱私權(quán)人對于違法搜集隱私信息的刪除權(quán),但在裁判價值取向上偏向產(chǎn)業(yè)界,在法律援引與適用上避開《消費(fèi)者權(quán)益保護(hù)法》與《網(wǎng)絡(luò)安全法》等特殊法的相關(guān)規(guī)定,而直接援引原《民法總則》和原《合同法》。且在審判中僅就雙方行為是否超越了合同約定進(jìn)行界定,而對于侵犯個人隱私的企業(yè)所制定的格式合同相關(guān)條款是否屬于“格式條款無效”的情形避而不談,只承認(rèn)“未經(jīng)許可提取人臉信息”是違約行為,而對于其是否構(gòu)成侵權(quán),也避而不談,沒有從司法釋法的角度為該類型案件劃定圭臬。在法律定位上,消費(fèi)者(用戶)與經(jīng)營者(信息采集者)之間有著明顯的強(qiáng)弱之分,故而用“以平等主體”構(gòu)建的民事合同來實(shí)現(xiàn)隱私權(quán)保護(hù)的規(guī)則適用是極不公平的,是有利于經(jīng)營者(信息采集者)的。從實(shí)際效果來看,郭某作為隱私權(quán)的被侵犯者,獲得的賠償僅限于“678 元及交通費(fèi)360 元,共計1038 元,并刪除原告辦理指紋年卡時提交的包括照片在內(nèi)的面部特征信息”,這一判決結(jié)果對于隱私權(quán)的侵害者來說,懲罰極輕,對于受害者來說,付出大量時間精力,得不償失。極低的違法成本,勢必會加劇處于強(qiáng)勢地位的企業(yè)、政府將其觸手伸進(jìn)公眾更寬廣的隱私領(lǐng)域。
在基本原則方面:處理個人信息要遵循“正當(dāng)、必要和誠實(shí)信用原則”業(yè)已成為學(xué)術(shù)界與實(shí)務(wù)界的共識,但對于怎樣實(shí)現(xiàn)“法的適用”,卻缺乏準(zhǔn)確的法律依據(jù)。本文認(rèn)為對于“正當(dāng)、必要”應(yīng)出于“特定的、明確的、合理的、禁止過度損害和保護(hù)不足的”目的;對“誠實(shí)信用原則”,應(yīng)鑒于信息采集者與被采集者的不平等態(tài)勢,審慎理解是否出于當(dāng)事人的真實(shí)意思表示(尤其是被采集者),就信息處理之目的、方式進(jìn)行合理規(guī)制,對于風(fēng)險及損益進(jìn)行合理分擔(dān),這樣才能真正起到法律的衡平作用。既出于保護(hù)個人隱私的目的,又不會動輒以隱私權(quán)不容侵犯為由妨礙“弱人工智能時代”所需要的海量數(shù)據(jù)搜集以實(shí)現(xiàn)自身進(jìn)化的必要[6]。
在具體權(quán)益方面:首先,在信息隱私層面。如前所述,“弱人工智能時代”以數(shù)據(jù)和算法為核心的信息隱私極易被泄露,諸如家庭地址、手機(jī)號碼、銀行卡密碼、身高體重、健康狀況等隱私性極強(qiáng)的個人信息。本文認(rèn)為,應(yīng)當(dāng)在現(xiàn)有《民法典》的基礎(chǔ)上,對隱私權(quán)以“陳列+兜底條款”的方式,增加關(guān)于隱私定義之條款。其次,在空間隱私層面,應(yīng)當(dāng)對私人空間做出擴(kuò)大解釋和動態(tài)解釋。本文認(rèn)為,應(yīng)當(dāng)認(rèn)定個人住宅、汽車等隱私空間為絕對隱私空間,認(rèn)定在公共區(qū)域從事非公共活動時,也應(yīng)當(dāng)視為相對隱私空間。此外,對于網(wǎng)絡(luò)空間的解釋也應(yīng)當(dāng)劃定相應(yīng)的絕對與相對虛擬隱私空間,鑒于網(wǎng)絡(luò)空間轉(zhuǎn)化的特殊性,應(yīng)當(dāng)嚴(yán)格限制對于公權(quán)力及企業(yè)對私人隱私空間的訪問權(quán)。最后,增加侵權(quán)者的責(zé)任和懲罰金額。當(dāng)前我國對于侵權(quán)人的法律責(zé)任已經(jīng)比較明確,主要責(zé)任方式包括罰款、停業(yè)整頓、吊銷營業(yè)執(zhí)照等,并在舉證責(zé)任承擔(dān)上采取舉證責(zé)任倒置。這對于規(guī)范相關(guān)違法行為有一定作用,但同國際上高額罰款金額對比,罰款金額明顯較低。尤其是對于大部分后果不是特別嚴(yán)重的侵權(quán)案件采用警告、沒收違法所得等措施顯然無法起到應(yīng)有的震懾作用,導(dǎo)致雖然有法卻力度不足,實(shí)踐中的侵權(quán)案件不斷增多。隱私權(quán)受到侵犯的個人也往往因?yàn)樵V訟成本高、賠償數(shù)額低而選擇放棄追訴,這無疑潛在助長了侵權(quán)者的囂張氣焰。因而,在之后的法律制定中應(yīng)將強(qiáng)化侵權(quán)者的法律責(zé)任作為重點(diǎn)進(jìn)行考量,尤其強(qiáng)化一般侵權(quán)行為的法律責(zé)任,加大賠償數(shù)額、豐富責(zé)任承擔(dān)形式等[7]。
隱私權(quán)歸根結(jié)底屬于公民個人權(quán)利的一部分,若公眾不注重對自身權(quán)益的保護(hù),遇到侵權(quán)行為時不及時主動地采取措施,單憑外界的手段無法完全避免相關(guān)問題的產(chǎn)生。公權(quán)力,尤其是司法部門要敢于發(fā)揮司法能動作用,保護(hù)公眾的隱私權(quán),以實(shí)實(shí)在在的判決讓維權(quán)者獲益或止損,讓侵權(quán)者得到法律的嚴(yán)懲,糾正不良之風(fēng)[8]。遺憾的是,“人臉識別第一案”并沒有成為扭轉(zhuǎn)風(fēng)氣的排頭兵,反而造成了不好的社會預(yù)期效果。在效率與風(fēng)險分配不均的“弱人工智能”領(lǐng)域,司法應(yīng)當(dāng)保護(hù)處于弱勢地位的被侵權(quán)人,通過個案的適用來達(dá)到每一個案件的具體正義。本文認(rèn)為,司法機(jī)關(guān)對于諸多商品經(jīng)營者或服務(wù)提供者單方面強(qiáng)制決定采集用戶的類似人臉信息等敏感信息,用戶往往在圖方便或不知情的狀況下被迫接受這一條件的案件中,在舉證層面應(yīng)當(dāng)提高其對于信息采集必要性、正當(dāng)性的審查,不應(yīng)當(dāng)限于舉證“沒有保管與使用不當(dāng)”。對于不平等狀態(tài)下簽訂的信息采集條款和承諾,不應(yīng)當(dāng)簡單認(rèn)為是出于被采集人的自愿,對于捆綁條款的格式合同,應(yīng)增加其判定該條款說明義務(wù)的舉證責(zé)任。不合理不合法搜集利用用戶敏感信息,勢必被確定為違法并承擔(dān)相應(yīng)法律后果,如刪除信息、賠償損失。此類案件越來越多,證明了公眾的隱私權(quán)保護(hù)意識正在逐步提升,也唯有公眾的隱私權(quán)保護(hù)意識提升才能根本解決這一問題。
法律法規(guī)會順應(yīng)社會生活的新變化而不斷調(diào)整以滿足社會發(fā)展的需求,因而一個新的問題產(chǎn)生最終必然是依靠法律法規(guī)來進(jìn)行調(diào)整規(guī)范的,誠然從提出草案到制定再到頒行需要較長的時間跨度,而在這一尚無明確法律規(guī)定的時期如何解決現(xiàn)實(shí)中已經(jīng)出現(xiàn)的相關(guān)問題呢?首先,重新審視隱私設(shè)計原則和增強(qiáng)隱私保護(hù)技術(shù)的標(biāo)準(zhǔn)。比如在人臉識別領(lǐng)域,最初的設(shè)計者就需要根據(jù)行業(yè)標(biāo)準(zhǔn),將信息采集、同意機(jī)制、刪除備份等環(huán)節(jié)可能出現(xiàn)侵權(quán)的因素加以考量,在技術(shù)層面最大限度避免侵權(quán)產(chǎn)生,涉及用戶的敏感信息時應(yīng)提高研發(fā)標(biāo)準(zhǔn)及審核標(biāo)準(zhǔn),讓一些自動采集敏感信息且數(shù)據(jù)存儲系統(tǒng)欠安全的設(shè)計無法通過審核進(jìn)入使用環(huán)節(jié),并做到有效監(jiān)督。其次,建立起隱私影響評估制度,對企業(yè)、政府采集個人隱私信息進(jìn)行過程性考核與評價,并建立起良性的獎懲反饋機(jī)制。最后,引入市場機(jī)制。雖然對于人格權(quán)商品化的正當(dāng)性存在巨大爭議,曾經(jīng)在美國引起軒然大波,但本文認(rèn)為也總好過個人信息被無限制地免費(fèi)使用,可以嘗試對個人信息收集的有償制,這樣企業(yè)、政府自然審慎搜集個人信息,而私人也能得到一定補(bǔ)償,還能開辟新的經(jīng)濟(jì)模式和增長點(diǎn)。
隨著國際化進(jìn)程的日益加深,“弱人工智能時代”隱私權(quán)保護(hù)的問題已經(jīng)不是某一國家某一地區(qū)的問題,而是全球性的問題。隱私泄露后所帶來的不良影響也不僅局限于特定國家,而是呈現(xiàn)出更大的范圍更深的影響,而對于被侵權(quán)者來說,其人身權(quán)利及財產(chǎn)權(quán)利的被侵害程度無疑更深[9]。因而加強(qiáng)國與國之間的交流與合作,通力解決該問題顯得尤為必要。2019 年5 月,經(jīng)濟(jì)合作與發(fā)展組織(OECD)就此問題召開了會議,四十余個國家共同簽署了《人工智能建議》,該建議旨在推動人工智能產(chǎn)生積極效用,堅決抵制不符合道德標(biāo)準(zhǔn)的濫用行為,以期營造一個更加安全健康的環(huán)境。我國政府也在積極探索人工智能的良性治理,以規(guī)制全球化背景下越來越多的諸如無人駕駛、人臉識別領(lǐng)域產(chǎn)生的新問題。
隱私權(quán)在“弱人工智能時代”遇到許多新挑戰(zhàn)。公眾、政府及企業(yè)存在強(qiáng)弱差異。既要保護(hù)公眾天然所擁有的隱私權(quán),還要平衡“弱人工智能時代”所需要的海量數(shù)據(jù)。隱私權(quán)保護(hù)的限度應(yīng)當(dāng)如何?是一個極富有挑戰(zhàn)性、爭議性的話題。舊有的法律體系及監(jiān)管體系存在不足,故而應(yīng)當(dāng)增強(qiáng)隱私權(quán)的確權(quán)保護(hù),提升公眾隱私權(quán)保護(hù)意識,扭轉(zhuǎn)對于信息采集者的司法偏向,完善行業(yè)標(biāo)準(zhǔn)并嘗試探索更完善的市場機(jī)制及加強(qiáng)隱私權(quán)保護(hù)的國際合作。“弱人工智能時代”的隱私權(quán)保護(hù)才剛剛啟航,任重道遠(yuǎn),很多論斷還需要得到實(shí)踐的發(fā)展與現(xiàn)實(shí)需要的影響,究竟“弱人工智能時代”的隱私權(quán)保護(hù)應(yīng)該向何處去?本文不敢妄作論斷,是以作出余論。