劉秀麗
(西南政法大學(xué) 民商法學(xué)院,重慶 401120)
人工智能(AI)作為一種工具在世界范圍內(nèi)被使用已經(jīng)成為一種普遍趨勢(shì),無論人工智能將來的發(fā)展趨勢(shì)如何,可以肯定的是任何人工智能的創(chuàng)建、開發(fā)和使用都是為人類服務(wù),都應(yīng)充分尊重人權(quán),特別是保護(hù)個(gè)人隱私、個(gè)人數(shù)據(jù)以及人的尊嚴(yán)不受損害,減輕因人工智能的發(fā)展可能導(dǎo)致的歧視以及侵犯言論和信息自由問題。這些要求和挑戰(zhàn)加強(qiáng)了國際人權(quán)機(jī)構(gòu)合作的必要性,以確保在國際層面的所有人工智能技術(shù)發(fā)展中促進(jìn)和保護(hù)人權(quán),使個(gè)人能夠理解和控制人工智能系統(tǒng)。
人權(quán)(human rights)是西方文化的產(chǎn)物,關(guān)于人權(quán)的主張最早產(chǎn)生于西方古典自然法觀念中。然而對(duì)于人權(quán)的定義卻是眾說紛紜。“人權(quán)”概念最早是由意大利詩人但丁提出,他認(rèn)為人類的目的是要建立統(tǒng)一的世界帝國來實(shí)現(xiàn)普天下幸福,而“帝國的基石是人權(quán)”。[1]1789年法國的《人權(quán)宣言》中“人權(quán)”意指人身權(quán)利和基本自由。第二次世界大戰(zhàn)以后,人權(quán)的外延得以擴(kuò)展,政治、經(jīng)濟(jì)和文化等權(quán)利也被許多國家的憲法和法律劃入人權(quán)的范疇之內(nèi)。20世紀(jì)70年代以后,人權(quán)的外延進(jìn)一步突破了公民權(quán)和政治、經(jīng)濟(jì)、文化權(quán)利,發(fā)展權(quán)、環(huán)境權(quán)等“第三代”人權(quán)被國際社會(huì)所普遍接受。
人權(quán)由“人”和“權(quán)”兩部分構(gòu)成,即“人道”和“權(quán)利”的融合。本文依據(jù)前人關(guān)于人權(quán)的定義推導(dǎo)出,人權(quán),首先是屬于人的權(quán)利,本質(zhì)上只能由人享有;其次,應(yīng)當(dāng)是一種道德權(quán)利,盡管世界各國基于其習(xí)俗有著不同的道德定義,但是基于人性本身的抽象,道德權(quán)利具有一致性;最后,人權(quán)的外延應(yīng)當(dāng)擴(kuò)展至與人的存在與發(fā)展相關(guān)聯(lián)的一切權(quán)利。基本人權(quán)應(yīng)當(dāng)是社會(huì)中的個(gè)體所享有的人的最起碼的人格、人身、安全、生存和發(fā)展的基本權(quán)利和基本自由。因此,本文中所提到的個(gè)人隱私、個(gè)人數(shù)據(jù)保護(hù)、歧視、言論和信息自由以及人類尊嚴(yán)等問題皆應(yīng)在基本人權(quán)的范疇之內(nèi)。
人工智能的發(fā)展以大數(shù)據(jù)的收集為基礎(chǔ),大數(shù)據(jù)收集過程中采取的技術(shù)手段必然會(huì)涉及到個(gè)人隱私以及個(gè)人數(shù)據(jù)保護(hù)問題,這一類問題所涉及的范圍是人工智能發(fā)展觸及傳統(tǒng)人權(quán)領(lǐng)域時(shí)學(xué)者們研究較多的話題,相對(duì)于新近提出的“更廣泛的人權(quán)問題”的研究較為成熟。美國法學(xué)家沃倫與布蘭代斯于1890年發(fā)表的《論隱私權(quán)》中首次提到了“隱私”的概念,并將其界定為一種免受外界干擾的獨(dú)處權(quán)力。隱私的本質(zhì)特征在于個(gè)人可以獨(dú)自控制和決定涉及其隱私的事項(xiàng)而不受外界干擾和侵犯。如今,人工智能侵犯隱私的情形主要有兩種:一是侵權(quán)人非法控制人工智能系統(tǒng),比如黑客、病毒等;二是智能系統(tǒng)本身可能存在瑕疵。[2]人工智能語境下的隱私權(quán)內(nèi)容得以擴(kuò)充,隱私權(quán)保護(hù)的范圍擴(kuò)大,隱私權(quán)的財(cái)產(chǎn)性增強(qiáng)導(dǎo)致了隱私保護(hù)手段的多樣化。無論是美國還是歐洲大陸都更多地將隱私權(quán)上升到了基本人權(quán)的意義上加以保護(hù),對(duì)隱私的保護(hù)日益呈現(xiàn)出國際統(tǒng)一化的趨勢(shì)。
人工智能發(fā)展過程中使用數(shù)據(jù)收集技術(shù)時(shí),倘若只規(guī)定數(shù)據(jù)處理者的義務(wù)而不對(duì)數(shù)據(jù)主體創(chuàng)設(shè)權(quán)利保護(hù)似乎并不合理。在美國法中,個(gè)人數(shù)據(jù)權(quán)叫做信息隱私權(quán),是指個(gè)人具有其數(shù)據(jù)的控制與處理的權(quán)利。我國學(xué)者也有針對(duì)我國具體情況提出個(gè)人數(shù)據(jù)權(quán)的定義:個(gè)人數(shù)據(jù)處理自由支配權(quán)是規(guī)定或隱含在法律規(guī)范中,實(shí)現(xiàn)于法律關(guān)系中的自由支配和控制個(gè)人數(shù)據(jù)處理行為所獲得利益的一種手段。[3]個(gè)人數(shù)據(jù)權(quán)不同于隱私權(quán),它不強(qiáng)調(diào)獨(dú)處與隱匿,而更多地強(qiáng)調(diào)自由支配的權(quán)利。然而在計(jì)算機(jī)批量處理數(shù)據(jù)的過程中,由于技術(shù)原因難以區(qū)分個(gè)人數(shù)據(jù)和非個(gè)人數(shù)據(jù),因此在數(shù)據(jù)被收集、處理和應(yīng)用的各個(gè)環(huán)節(jié),個(gè)人數(shù)據(jù)都存在被侵犯的風(fēng)險(xiǎn)。針對(duì)個(gè)人數(shù)據(jù)法律保護(hù)存在的兩種模式,即以美國為首的低政府干預(yù)模式和以歐盟為首的高政府干預(yù)模式。[4]我國的個(gè)人數(shù)據(jù)立法處于“真空地帶”,盡管一國法律必須根植于社會(huì)特定基礎(chǔ)的土壤之上,但是仍可借鑒美國或者歐盟法律保護(hù)的范式,以期制定出適合我國的個(gè)人數(shù)據(jù)保護(hù)法。
人工智能決策歧視是指基于機(jī)器學(xué)習(xí)和人工智能系統(tǒng)的一些被“訓(xùn)練”過的數(shù)據(jù)集被發(fā)現(xiàn)包含固有的偏見,導(dǎo)致決策可能不公平地歧視某些個(gè)人或群體,限制某些服務(wù)或內(nèi)容的可用性,進(jìn)而侵犯個(gè)人權(quán)利。最為典型的例子是亞馬遜此前曾應(yīng)用的使其招聘過程自動(dòng)化的人工智能系統(tǒng),該系統(tǒng)給求職者打分,一星到五星不等。問題在于該系統(tǒng)程序往往給男性求職者打五星,而給女性求職者只打一星。據(jù)路透社報(bào)道,該系統(tǒng)將含有“女性的”簡歷置于不利地位,除此之外該系統(tǒng)還壓低了上過女子大學(xué)的申請(qǐng)人的分?jǐn)?shù)。這說明亞馬遜該自動(dòng)招聘系統(tǒng)是經(jīng)過“訓(xùn)練”的,即輸入過去十年的亞馬遜招聘信息,因?yàn)榇饲按蠖鄶?shù)申請(qǐng)者為男性,該程序即“認(rèn)為”男性為更好的申請(qǐng)者,因此導(dǎo)致了對(duì)女性求職者的歧視和不公平待遇。據(jù)此推斷,過去十年招聘信息的輸入者本身亦或是亞馬遜并沒有歧視女性的初衷,而導(dǎo)致決策歧視的其實(shí)是數(shù)據(jù)本身固有的偏見。當(dāng)把本應(yīng)當(dāng)由人類做出的決策讓渡給人工智能系統(tǒng)時(shí),系統(tǒng)如何最大程度上實(shí)現(xiàn)公平?在數(shù)據(jù)輸入前,數(shù)據(jù)輸入者是否能有意識(shí)的選擇和判斷原始數(shù)據(jù)是否包含固有偏見,是否能有意識(shí)的初步預(yù)測(cè)系統(tǒng)是否會(huì)產(chǎn)生歧視性決策是至關(guān)重要的。
人工智能系統(tǒng)決策的偏見和歧視體現(xiàn)在社會(huì)的很多其他方面,例如美國司法系統(tǒng)用于評(píng)估刑事被告再次犯罪的可能性的軟件,更有可能將黑人被告視為潛在的累犯;人臉識(shí)別軟件對(duì)非白種人的識(shí)別能力較差;谷歌一個(gè)圖片應(yīng)用程序甚至將非裔美國人標(biāo)注為“大猩猩”;微軟的人工智能聊天機(jī)器人Tay被網(wǎng)民“教壞”為一個(gè)集性別歧視和種族歧視為一身的“不良少女”。
言論自由是公民權(quán)利和政治權(quán)利的重要組成部分,馬克思曾這樣描述言論自由;“表達(dá)言論的自由在所有的自由里是最為基本的,因而它在世界上所有的自由里,也是最為神圣的。”[5]信息自由是指公民對(duì)與之相關(guān)的信息資料有決定其如何使用的權(quán)利。尊重個(gè)人的言論和信息自由在人工智能語境下外延應(yīng)擴(kuò)展至尊重個(gè)人的反自動(dòng)化決策權(quán)。反自動(dòng)化決策權(quán)是指應(yīng)當(dāng)保證個(gè)人不受制于僅基于自動(dòng)化處理的決定的權(quán)利,同時(shí)在不適用的情況下保證個(gè)人具有挑戰(zhàn)和反對(duì)這種決定的權(quán)利。反自動(dòng)化決策權(quán)是新近提出的概念,但是在歐盟等國的法律實(shí)踐中可以尋得其發(fā)展的路徑及其內(nèi)涵。
《歐洲基本權(quán)利憲章》第八條規(guī)定:每一個(gè)人都有權(quán)保護(hù)自己的個(gè)人數(shù)據(jù)。這些數(shù)據(jù)必須是為了特定目的,并征得數(shù)據(jù)相關(guān)個(gè)人的同意或在其他法律規(guī)定下進(jìn)行公平的處理。每一個(gè)人都有權(quán)獲取所收集的與之有關(guān)的數(shù)據(jù),并且有權(quán)予以更正。依據(jù)歐盟成員國以及美國對(duì)于此種在人工智能技術(shù)發(fā)展中的個(gè)人數(shù)據(jù)自動(dòng)處理和決策問題所產(chǎn)生的權(quán)利的研究和法律實(shí)踐,筆者認(rèn)為,“尊重個(gè)人言論和信息自由以及與之相關(guān)的反自動(dòng)化決策權(quán)”應(yīng)包括以下內(nèi)涵:第一,知情同意權(quán)。該項(xiàng)權(quán)利所反映的人權(quán)屬性應(yīng)該居于核心地位,個(gè)人應(yīng)當(dāng)掌握和知曉自己的個(gè)人數(shù)據(jù)在何時(shí)何地被以何種方式進(jìn)行處理。第二,封存權(quán)。當(dāng)數(shù)據(jù)處理和自動(dòng)化決策違反數(shù)據(jù)主體的意志時(shí),數(shù)據(jù)主體有權(quán)請(qǐng)求自動(dòng)化系統(tǒng)控制者暫時(shí)停止其個(gè)人數(shù)據(jù)的處理。第三,反對(duì)權(quán)。即數(shù)據(jù)主體有權(quán)對(duì)自動(dòng)化決策的結(jié)果提出反對(duì)意見并要求對(duì)導(dǎo)致該結(jié)果的個(gè)人數(shù)據(jù)進(jìn)行更正或刪除。
需要首先界定和明確的是“人的尊嚴(yán)”不完全等同于“人格尊嚴(yán)”。人的尊嚴(yán)是人的根本性和終極性的價(jià)值,需要通過具體的權(quán)利來實(shí)現(xiàn),也是人格權(quán)的基礎(chǔ)。人的尊嚴(yán)的概念來自于自然法,并得到現(xiàn)代法治國家的確認(rèn),是現(xiàn)代法秩序的哲學(xué)基礎(chǔ)。[6]康德曾提出人格權(quán)的概念,并將人格視為人的尊嚴(yán)的權(quán)利。康德對(duì)此概念的理解包含兩個(gè)方面:第一,人本身就是自己的主人,人不能成為手段和工具。第二,人的尊嚴(yán)基礎(chǔ)是人的自主和自治,每個(gè)人都應(yīng)當(dāng)有自主決定行為方式、做出行動(dòng)的權(quán)利。因此,人的尊嚴(yán)和自治、自決總是聯(lián)系在一起的,可以說,自治和自決是實(shí)現(xiàn)人的尊嚴(yán)的必經(jīng)之途。“人是獨(dú)立的、自由的,所以不應(yīng)該服從他人,而應(yīng)該服從自己的理性。當(dāng)人類服從他們的理性時(shí),就超出自然,獲得了尊嚴(yán),因此自主是人性和一切有理性事物的尊嚴(yán)基礎(chǔ)。”[7]人的尊嚴(yán)是人權(quán)領(lǐng)域最根本、最終極的保護(hù)對(duì)象。
人工智能技術(shù)發(fā)展中獲取的數(shù)據(jù)尤其是涉及個(gè)人隱私的數(shù)據(jù)或信息稱得上是人的尊嚴(yán)的屏障。個(gè)人數(shù)據(jù)尤其是涉及個(gè)人隱私的數(shù)據(jù)的公開和披露會(huì)直接導(dǎo)致人的不安全感產(chǎn)生,猶如赤裸暴露在光天化日之下,也會(huì)因他人的羞辱損及個(gè)人尊嚴(yán)。再言之,若是在人工智能自動(dòng)化決策中,個(gè)人數(shù)據(jù)的主體無權(quán)支配和決定其個(gè)人數(shù)據(jù)和信息的處理,那么他就喪失了對(duì)于自身的最終決定權(quán),失去對(duì)自己控制和決定的人也必然會(huì)喪失其作為獨(dú)立個(gè)體的人的尊嚴(yán)。在人工智能領(lǐng)域中,個(gè)人數(shù)據(jù)和個(gè)人信息會(huì)被拼湊合成一個(gè)獨(dú)立個(gè)體的“畫像”,而這個(gè)“畫像”可能是還原了個(gè)體真實(shí)信息的,但也不排除在信息的收集和處理過程中的偏差或有意操縱導(dǎo)致個(gè)體的電子人格與其現(xiàn)實(shí)形象相去甚遠(yuǎn),導(dǎo)致其形象的扭曲,使其受到尊嚴(yán)的損害。根據(jù)美國微軟公司的調(diào)查,75%的美國招聘人員和人力資源專家稱,會(huì)對(duì)應(yīng)聘者進(jìn)行網(wǎng)絡(luò)搜索,其中70%遭拒的應(yīng)聘者都是因?yàn)榫W(wǎng)絡(luò)上的不良信息。[8]
考慮到上述人工智能技術(shù)發(fā)展過程中對(duì)于更廣泛的人權(quán)保護(hù)所帶來的挑戰(zhàn),本文提出以下共同治理原則促進(jìn)國際人權(quán)機(jī)構(gòu)以及各國在此領(lǐng)域的一致合作,以確保人工智能的發(fā)展和使用符合規(guī)范、倫理和人類價(jià)值觀,尊重人類尊嚴(yán)。
第一, 公平原則。應(yīng)將公平原則作為首要原則,設(shè)計(jì)、開發(fā)和使用符合基本人權(quán)的人工智能和機(jī)器學(xué)習(xí)技術(shù)。確保人工智能系統(tǒng)的使用與其原始預(yù)期目的相一致來保證個(gè)人的合理預(yù)期,并且保證個(gè)人數(shù)據(jù)的收集與使用方式與其初始目的相一致。在考慮到人工智能的使用對(duì)個(gè)人的影響的同時(shí),還要將人工智能的使用對(duì)整個(gè)人類的影響納入考慮范圍。從整個(gè)人類的安全角度出發(fā),應(yīng)確保人工智能技術(shù)的發(fā)展能夠促進(jìn)人類的進(jìn)步而不是阻礙甚至危害人類,這就需要國際人權(quán)機(jī)構(gòu)以及各國協(xié)同反對(duì)通用人工智能的大規(guī)模使用,而是通過對(duì)功能和用途的精細(xì)劃分發(fā)展單一技能人工智能。
第二, 公開原則。應(yīng)當(dāng)改進(jìn)人工智能算法系統(tǒng)的透明度和可理解度以及可達(dá)性,以實(shí)現(xiàn)個(gè)體對(duì)于人工智能系統(tǒng)的理解和控制。提高人工智能系統(tǒng)的透明度、可理解度,應(yīng)當(dāng)注意每個(gè)相關(guān)受眾個(gè)體的理解能力以及所需的信息不同,這就需要數(shù)據(jù)處理者提供與人工系統(tǒng)應(yīng)用目的和效果有關(guān)的信息,以保證其與數(shù)據(jù)個(gè)體期望的連續(xù)一致性。再者,通過提高人工智能系統(tǒng)的可審計(jì)性,來保證所提供信息的有效性、真實(shí)性和有意義性,以確保個(gè)體在人工智能系統(tǒng)交互的過程中能夠始終獲得真實(shí)有效的信息,以實(shí)現(xiàn)人工智能系統(tǒng)的全面人為控制。
第三, 默認(rèn)應(yīng)用隱私的開發(fā)原則。在人工智能系統(tǒng)的開發(fā)與設(shè)計(jì)時(shí),通過設(shè)計(jì)應(yīng)用默認(rèn)隱私來對(duì)其進(jìn)行開發(fā),以確保人工系統(tǒng)在進(jìn)行數(shù)據(jù)收集和處理時(shí),數(shù)據(jù)主體的隱私和個(gè)人數(shù)據(jù)能夠得到充分的尊重和保護(hù)。這就需要在一項(xiàng)人工智能系統(tǒng)開發(fā)之始,對(duì)其應(yīng)用隱私功能進(jìn)行預(yù)期評(píng)估和檢測(cè),并對(duì)其整個(gè)生命周期的隱私保護(hù)狀況進(jìn)行預(yù)測(cè),以確定其后續(xù)的投放和使用符合尊重人權(quán)的具體要求。
第四, 鼓勵(lì)個(gè)人權(quán)利行使原則。應(yīng)在國際范圍內(nèi)通過宣傳和教育活動(dòng)鼓勵(lì)個(gè)體增強(qiáng)對(duì)人工智能時(shí)代其個(gè)人權(quán)利的理解和促進(jìn)其權(quán)利的行使。用張文顯教授的話來說,“權(quán)利是目的, 義務(wù)是手段, 法律設(shè)定義務(wù)的目的在于保障權(quán)利的實(shí)現(xiàn)。”因此,在人工智能語境下,尊重相關(guān)權(quán)利顯得尤為重要,尤其是尊重個(gè)體的言論和信息自由,擴(kuò)大反對(duì)權(quán)和告訴權(quán)及于個(gè)體的影響,保證個(gè)體不受來自人工智能系統(tǒng)自動(dòng)決策決定的限制和拘束,加強(qiáng)個(gè)體參與意識(shí)以及相關(guān)權(quán)利的行使意識(shí)。
第五, 反歧視原則。國際領(lǐng)域應(yīng)著重投資有利于識(shí)別和減輕因使用人工智能數(shù)據(jù)而可能導(dǎo)致的非法偏見和歧視,這就需要在技術(shù)應(yīng)用過程中保證自動(dòng)決策使用的個(gè)人信息和個(gè)人數(shù)據(jù)準(zhǔn)確、最新并盡可能完整的前提下還要尊重個(gè)體的隱私權(quán)以及對(duì)于個(gè)人數(shù)據(jù)的保護(hù)。雖然相對(duì)矛盾和具備挑戰(zhàn)性,就更加需要人工智能決策系統(tǒng)的開發(fā)者和使用者在檢測(cè)過程中進(jìn)行利益與道德的權(quán)衡,在遵守保護(hù)人權(quán)的國際法律文書的前提下應(yīng)用該系統(tǒng),避免本末倒置,觸發(fā)更大范圍的社會(huì)與倫理問題。
基于大數(shù)據(jù)和復(fù)雜系統(tǒng)的人工智能技術(shù)的高速發(fā)展帶給人類社會(huì)的影響是全方位、多領(lǐng)域的,在為促進(jìn)人類便捷和經(jīng)濟(jì)發(fā)展的進(jìn)步而喜悅的同時(shí)不能忽視在更高層面的人權(quán)倫理方面帶來的挑戰(zhàn)。作為一種跨國界高速發(fā)展的工具,人工智能所帶來的人權(quán)挑戰(zhàn)研究也必須全球性推進(jìn),在國際人權(quán)層面補(bǔ)充人工智能技術(shù)發(fā)展的共同治理措施,促進(jìn)國際層面的溝通與實(shí)時(shí)性互動(dòng),提升個(gè)體在與人工智能系統(tǒng)交互時(shí)的自覺意識(shí)。