嚴(yán)衛(wèi) 錢(qián)振江 周立凡 肖樂(lè)
摘 要:在斯諾登事件后,人工智能大數(shù)據(jù)倫理背景下,對(duì)倫理問(wèn)題進(jìn)行深入研究。以人工智能大數(shù)據(jù)倫理問(wèn)題需要跨學(xué)科的對(duì)話為主線,通過(guò)計(jì)算機(jī)技術(shù)及其在監(jiān)視社會(huì)中的應(yīng)用關(guān)系來(lái)探討切實(shí)可行的出路。最后在教學(xué)和研究中提出價(jià)值和方向引導(dǎo),呼吁相關(guān)人士采取行動(dòng)。
關(guān)鍵詞:人工智能;大數(shù)據(jù);倫理;算法
黨的十九大提出了推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能的發(fā)展,政府將加快國(guó)家數(shù)據(jù)治理平臺(tái)建設(shè),重點(diǎn)發(fā)展大數(shù)據(jù)技術(shù),實(shí)現(xiàn)“彎道超車”。[1]盡管以大數(shù)據(jù)為基礎(chǔ),以人工智能為引擎的新科技時(shí)代的到來(lái)勢(shì)不可擋。但自從斯諾登事件曝光后,大數(shù)據(jù)的倫理問(wèn)題成為焦點(diǎn)。這種問(wèn)題涉及包括計(jì)算機(jī)科學(xué)、計(jì)算語(yǔ)言學(xué)和數(shù)字人文學(xué)科在內(nèi)的大數(shù)據(jù)及其分析。首先,要考量研究者自己的研究和教學(xué)實(shí)踐,并對(duì)所從事的工作的倫理層面負(fù)責(zé)。明確指出,應(yīng)更關(guān)注的是這涉及到的數(shù)據(jù)采集,因?yàn)榻裉斓拇蠖鄶?shù)數(shù)據(jù)科學(xué)家(包括許多計(jì)算機(jī)專業(yè)學(xué)生)他們工作中的一部分與數(shù)據(jù)處理有關(guān)。目前的焦點(diǎn)主要體現(xiàn)在“計(jì)算機(jī)科學(xué)家應(yīng)該在人工智能開(kāi)發(fā)和使用的法律和道德方面發(fā)揮什么作用?”針對(duì)這個(gè)問(wèn)題科學(xué)家們普遍認(rèn)為這是一項(xiàng)長(zhǎng)期的研究工作。人們有理由擔(dān)心:斯諾登事件說(shuō)明工業(yè)間諜情報(bào)機(jī)構(gòu)的監(jiān)測(cè)活動(dòng)和國(guó)家保護(hù)自己免受經(jīng)濟(jì)監(jiān)測(cè)以求生存的現(xiàn)狀。這也會(huì)促使學(xué)生意識(shí)到數(shù)據(jù)監(jiān)控的后果,促使教學(xué)人員將研究和教學(xué)重點(diǎn)放在開(kāi)發(fā)和部署新工具和倫理技術(shù)上,這將是一項(xiàng)充滿挑戰(zhàn)的教學(xué)任務(wù)。
1 斯諾登事件啟發(fā)
2013年5月,愛(ài)德華·斯諾登飛往香港會(huì)見(jiàn)了格倫·沃爾德和勞拉·普瓦特拉斯等記者,讓他們得以接觸有關(guān)大規(guī)模數(shù)據(jù)的數(shù)千份機(jī)密文件。從那時(shí)起,《衛(wèi)報(bào)》等眾多媒體機(jī)構(gòu)就一直在研究他們能夠接觸到的文件,并對(duì)這些文件進(jìn)行編輯和報(bào)道,以了解他們所披露的有關(guān)信號(hào)情報(bào)基礎(chǔ)設(shè)施的情況。其中,至少包括:(1)威瑞森等電話公司被迫與美國(guó)國(guó)家安全局秘密共享數(shù)百萬(wàn)美國(guó)用戶的電話記錄;(2)美國(guó)國(guó)家安全局和聯(lián)邦調(diào)查局直接從Facebook、谷歌、微軟和蘋(píng)果等科技媒體巨頭那里獲取電子郵件內(nèi)容,并在程序中進(jìn)行數(shù)據(jù)挖掘;(3)英國(guó)政府通訊總部正在竊聽(tīng)與美國(guó)國(guó)家安全局共享的光纖電纜以及全球通訊;(4)美國(guó)國(guó)家安全局每天收集數(shù)以億計(jì)的短信,包括地理位置信息和金融交易信息等。
這就產(chǎn)生了一個(gè)問(wèn)題:“面對(duì)這種情況,應(yīng)該怎么做?”這些發(fā)現(xiàn)表明,大量資源正用于收集公民通訊、儲(chǔ)存和開(kāi)采。不僅美國(guó)公司銷售監(jiān)控設(shè)備,世界各地的公司也紛紛涉足這一行業(yè),并向非民主制度的政府銷售監(jiān)控設(shè)備。信號(hào)情報(bào)已經(jīng)成為一項(xiàng)大生意。這些從事數(shù)據(jù)挖掘和知識(shí)表示等相關(guān)領(lǐng)域研究和教學(xué)的人必須承認(rèn),日常工作中可能直接或間接地被用于非法或不可接受的目的。我們必須反思,我們的研究和教學(xué)是否助長(zhǎng)了非法政府和商業(yè)竊聽(tīng)。斯諾登事件印證了一個(gè)事實(shí),網(wǎng)絡(luò)監(jiān)測(cè)已經(jīng)持續(xù)了很久。長(zhǎng)期以來(lái),部分政府和大公司等對(duì)數(shù)據(jù)可疑使用、直接濫用并導(dǎo)致數(shù)據(jù)泄露;全球計(jì)算機(jī)科學(xué)部門(mén)、商學(xué)院及相關(guān)機(jī)構(gòu)對(duì)“大數(shù)據(jù)”的研究穩(wěn)步增長(zhǎng);社會(huì)科學(xué)和人文學(xué)科專家探索了研究大型文學(xué)、歷史和哲學(xué)語(yǔ)料庫(kù)的技術(shù)等。然而,除了偶爾的新聞報(bào)道,大多數(shù)人沒(méi)有關(guān)注這些進(jìn)展。這些通常被視為不值得廣泛民主討論的案例。斯諾登事件曝光后,泄密核心的人,在世界范圍成功地引發(fā)了一場(chǎng)激烈的、持久的公開(kāi)辯論。公眾對(duì)這些問(wèn)題的關(guān)注也為科學(xué)家提供了更多參與的契機(jī)和作出貢獻(xiàn)的機(jī)會(huì)。
2 以職業(yè)為背景的全面思考
相關(guān)人工智能研究人員要對(duì)自己設(shè)計(jì)創(chuàng)造并引入的一項(xiàng)技術(shù)負(fù)責(zé),但當(dāng)這項(xiàng)技術(shù)被用于監(jiān)視無(wú)辜的人,侵犯他們的隱私和其他基本權(quán)利時(shí),研究人員可能會(huì)漠視個(gè)體數(shù)據(jù)。面對(duì)這種情況,研究人員應(yīng)該跳出專業(yè)壁壘,打開(kāi)視野,從解釋技術(shù)、算法和它們背后的統(tǒng)計(jì)方法的角度去思考,并認(rèn)識(shí)它們的局限性、誤解和應(yīng)用推理中的缺陷??梢苑Q之為“全面思考”。
相關(guān)研究人員可能會(huì)意識(shí)到,在分析文本語(yǔ)料庫(kù)如海量電子郵件或人口普查數(shù)據(jù)時(shí),在某種程度上做的數(shù)據(jù)分析與情報(bào)機(jī)構(gòu)攔截和分析通信非常相似(而且使用的方法和工具基本上相同)。研究人員習(xí)慣于挖掘人們的個(gè)人生活,調(diào)整他們的行為以適應(yīng)理論視角,有時(shí)還會(huì)通過(guò)研究結(jié)果作用于他們的生活。研究人員應(yīng)該如何判斷對(duì)錯(cuò),這就需要從不同的文化角度仔細(xì)分析文本和其他材料,使用不同的語(yǔ)言并建立交流的語(yǔ)境。
人工智能大數(shù)據(jù)的倫理學(xué)思考總是在政治和經(jīng)濟(jì)的背景下進(jìn)行的。倫理學(xué)者可以幫助其他科學(xué)家不落入尋常陷阱:自愿性無(wú)知(“我只是一個(gè)科學(xué)家,道德不是我的領(lǐng)域”)、憤世嫉俗(“如果我不做這篇文章或這類研究無(wú)論如何都會(huì)有人做”)、辭職(“無(wú)論如何我不能改變?nèi)魏问虑椤保⒖蔀E用的行動(dòng)主義(“我可以調(diào)整我的算法,使它不做這件違背倫理的事情,所以現(xiàn)在我已經(jīng)貢獻(xiàn)了我的一份善,否則可以像以前一樣繼續(xù)下去”)。[2]
學(xué)者有更多談?wù)摰赖碌淖杂?。但是必須認(rèn)識(shí)到,在實(shí)際情況中由于工作的限制等原因,有時(shí)候?qū)W者并沒(méi)有所謂的自由。
3 以科學(xué)為主導(dǎo)的立場(chǎng)
3.1 客觀對(duì)待技術(shù)
在會(huì)議上展示的監(jiān)控。是否有些國(guó)家利用這種技術(shù)壓制政治言論,用于非正義用途?可能是的。但是,誰(shuí)能說(shuō)這項(xiàng)技術(shù)完全沒(méi)有用于造福人類?這種爭(zhēng)論在生產(chǎn)監(jiān)視技術(shù)的IT公司中普遍存在,直到最近,這項(xiàng)技術(shù)的雙重用途才被正視。
學(xué)術(shù)計(jì)算機(jī)科學(xué)家也經(jīng)常提出類似的觀點(diǎn),但較難以可引用的形式找到它們。其中原因各不相同,但其中肯定包括自我實(shí)現(xiàn)的預(yù)言,即“只是做科學(xué)”的計(jì)算機(jī)科學(xué)家通常不會(huì)就“不關(guān)他們的事”的倫理問(wèn)題公開(kāi)發(fā)表意見(jiàn)。反而,關(guān)于技術(shù)的不同用途的思考通常留給計(jì)算機(jī)專業(yè)以外的學(xué)者。有幸接觸到這些權(quán)威觀點(diǎn),即數(shù)據(jù)分析監(jiān)管也是一項(xiàng)政治、法律和社會(huì)任務(wù)。[3-4]然而,大數(shù)據(jù)離不開(kāi)計(jì)算機(jī)方面的專業(yè)知識(shí),而計(jì)算性設(shè)計(jì)決策具有真實(shí)的影響,因此不可能將技術(shù)和研究決策視為中立。此問(wèn)題上需要謹(jǐn)慎,不贊成沒(méi)有經(jīng)過(guò)深思熟慮的學(xué)術(shù)分工。
3.2 數(shù)據(jù)挖掘和歧視
根據(jù)事物的某些特征或?qū)傩赃M(jìn)行區(qū)分是人類認(rèn)知和行為的一個(gè)基本特征。人們對(duì)其他人采取差別對(duì)待,允許一些人而非所有人投票,對(duì)他們采用特定的法律,給他們貸款或者剝奪他們與這些權(quán)利和決定相關(guān)的特權(quán)。這種不可接受的差別被稱為“非法歧視”。
數(shù)據(jù)挖掘的應(yīng)用可能會(huì)在不經(jīng)意間導(dǎo)致歧視。例如在2016年,谷歌公司的圖像識(shí)別軟件通過(guò)數(shù)據(jù)挖掘技術(shù)誤將黑人識(shí)別為“黑猩猩”的事件。[5]通過(guò)修改算法,可以避免這種歧視的結(jié)果,使其不返回基于特定屬性的區(qū)分。[6]創(chuàng)建“區(qū)分感知數(shù)據(jù)挖掘”和“公平感知數(shù)據(jù)挖掘”,并提出了一些方法來(lái)應(yīng)對(duì)難以檢測(cè)的問(wèn)題,比如間接歧視(通過(guò)看似無(wú)害但實(shí)際上相關(guān)的屬性)。這些方法非常重要,因?yàn)樗鼈儾粌H可以阻止不必要的推論及其應(yīng)用,并且允許一個(gè)透明的、結(jié)構(gòu)化的、可量化的社會(huì)討論。即愿意放棄多少“預(yù)測(cè)準(zhǔn)確性”,進(jìn)而支持多少“增加的公平性”。修改算法是一個(gè)有價(jià)值和迫切需要的關(guān)鍵點(diǎn),但更重要的是,計(jì)算機(jī)科學(xué)家也要意識(shí)這種方法的局限性。
3.3 從科技研究中汲取營(yíng)養(yǎng)
文學(xué)、歷史、社會(huì)學(xué)和哲學(xué)等顯然會(huì)為我們提供很多職責(zé)等方面的內(nèi)容,一些有價(jià)值的信息包括:關(guān)于大數(shù)據(jù)的隱私、倫理和社會(huì)問(wèn)題的文獻(xiàn)越來(lái)越多。新技術(shù)會(huì)帶來(lái)意想不到的道德挑戰(zhàn),這不足為奇。對(duì)于大數(shù)據(jù)技術(shù),也是如此,危險(xiǎn)不在于技術(shù)的發(fā)展,而在于一旦脫離研究者,技術(shù)用途的不可控。[7]
現(xiàn)在人們對(duì)大數(shù)據(jù)提出了各種各樣的主張。一些技術(shù)系統(tǒng)似乎更符合特定的政治環(huán)境。核能,甚至核武器,都需要一定程度的集中控制才能安全管理。對(duì)此提出的觀點(diǎn)是:需要關(guān)注技術(shù)本身的政治性并且用一種對(duì)話的方式給予以關(guān)注,使人們不被阻礙地做出選擇,就要在技術(shù)學(xué)科和人文學(xué)科之間進(jìn)行一定程度的跨學(xué)科討論。
4 價(jià)值和方向引導(dǎo)
可以進(jìn)入對(duì)話,并鼓勵(lì)其他人把對(duì)話帶到實(shí)驗(yàn)室和教室。例如,我們不知道美國(guó)國(guó)家安全局和合作伙伴開(kāi)發(fā)的監(jiān)控系統(tǒng)是否合規(guī),對(duì)話是一種思考的方式,通過(guò)對(duì)話,我們既可以思考方法,也可以思考目的,而不是目的本身。
4.1 教學(xué)探索
課堂是討論人工智能大數(shù)據(jù)倫理的重要場(chǎng)所之一。我們這些講授知識(shí)表示、數(shù)據(jù)挖掘、文本分析和計(jì)算語(yǔ)言學(xué)課程的人,在講授相關(guān)技術(shù)的同時(shí),同學(xué)生探討了有關(guān)知識(shí)技術(shù)的倫理。下面是一些我們已經(jīng)取得一些成功的方法。
(1)介紹涉及倫理和社會(huì)問(wèn)題的學(xué)術(shù)讀物,如維克托·邁爾-舍恩伯格和肯尼思·庫(kù)克耶主編的《大數(shù)據(jù)時(shí)代》以及李倫主編的《人工智能與大數(shù)據(jù)倫理》?;蛘呖梢詫⑾嚓P(guān)新聞讀物融入課程,如開(kāi)展我們?yōu)槭裁葱枰惴▊惱淼挠懻摚?/p>
(2)角色扮演,情景呈現(xiàn)。隱私和大數(shù)據(jù)課程扮演 “隱私顧問(wèn)”的角色,為其他學(xué)生正在做的項(xiàng)目提供咨詢?!半[私顧問(wèn)”與項(xiàng)目團(tuán)隊(duì)討論隱私問(wèn)題。
(3)學(xué)生們學(xué)習(xí)隱私影響評(píng)估和認(rèn)證業(yè)務(wù)泄露并進(jìn)行相關(guān)資料的精讀諸如斯諾頓事件、加拿大的通信安全機(jī)構(gòu)一直監(jiān)視巴西礦山和能源等。
(4)閱讀幻燈片鼓勵(lì)學(xué)生思考泄露信息的價(jià)值問(wèn)題,以及學(xué)生能從這些材料中推斷出多少內(nèi)容。
毫無(wú)疑問(wèn),讓學(xué)生參與對(duì)話的方式還有很多,教學(xué)重要的不是告訴學(xué)生如何遵守倫理,而是教會(huì)學(xué)生如何參與公共領(lǐng)域的對(duì)話,這是參與式民主的一個(gè)基本組成部分。不僅要訓(xùn)練學(xué)生擅長(zhǎng)做,而且希望他們能夠參與討論并提供對(duì)策建議。
4.2 反思自我,評(píng)價(jià)他人
由于技術(shù)沒(méi)有邊界,現(xiàn)在的焦點(diǎn)是倫理問(wèn)題。即便出于研究的目的,在未經(jīng)允許的情況下跟蹤和記錄一個(gè)人生活的各個(gè)方面,不僅侵犯他人隱私,而且可能帶來(lái)風(fēng)險(xiǎn)。面對(duì)這個(gè)問(wèn)題,應(yīng)該設(shè)身處地,假設(shè)自己是被侵犯隱私的人,并從當(dāng)事人的角度去思考。研究人員也應(yīng)該捫心自問(wèn),會(huì)不會(huì)允許同樣的事情發(fā)生在自己身上。
目前,在數(shù)字人文學(xué)科中,有許多數(shù)字化的工作正在全世界范圍內(nèi)通過(guò)日記和私人通信等方式進(jìn)行,盡管這些工作可能具有侵入性,但對(duì)我們理解歷史具有不可估量的價(jià)值。因此,研究人員有責(zé)任決定哪些數(shù)據(jù)和軟件支持在倫理上“正確”使用,以及如何使用。做這個(gè)決定的一個(gè)關(guān)鍵點(diǎn),就是設(shè)身處地的思考:如果我是研究對(duì)象,我可以接受哪些內(nèi)容?
5 結(jié)論
論述表明,人工智能大數(shù)據(jù)倫理分析的理論關(guān)鍵是建立一個(gè)多視角的體系,在這里沒(méi)有純技術(shù)上的解決方案。這是一個(gè)涉及眾多利益,利益又以更多的方式相互影響的問(wèn)題。因此,不能指望找到一種模式來(lái)解決有關(guān)分析思路分析方法的問(wèn)題。相反,必須承認(rèn)這是一個(gè)倫理問(wèn)題,倫理問(wèn)題需要不斷的辯論,且沒(méi)有固定答案。我們要有“解決方案主義”的心態(tài)和“算法規(guī)則”的心態(tài),避免“離開(kāi)倫理談倫理”。而作為科學(xué)家,正處于特殊的關(guān)鍵位置,應(yīng)該利用對(duì)知識(shí)建模和深度學(xué)習(xí)等先進(jìn)技術(shù),使人工智能大數(shù)據(jù)倫理問(wèn)題變得透明公開(kāi)。[8]
參考文獻(xiàn):
[1]柳亦博.人工智能陰影下:政府大數(shù)據(jù)治理中的倫理困境[J].行政論壇,2018,25(03):97-103.
[2]Berendt B,Marco Büchler,Rockwell G.Is it Research or is it Spying? Thinking-Through Ethics in Big Data AI and Other Knowledge Sciences[J].KI –Künstliche Intelligenz,2015,29(2):223-232.2015,29(2):223-232.
[3]馬治國(guó),徐濟(jì)寬.人工智能發(fā)展的潛在風(fēng)險(xiǎn)及法律防控監(jiān)管[J].北京工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018,18(06):65-71.
[4]張愛(ài)軍,秦小琪.人工智能與政治倫理[J].自然辯證法研究,2018,34(04):47-52.
[5]陳偉光,袁靜.人工智能全球治理:基于治理主體、結(jié)構(gòu)和機(jī)制的分析[J].國(guó)際觀察,2018(04):23-37.
[6]王祿生.司法大數(shù)據(jù)與人工智能技術(shù)應(yīng)用的風(fēng)險(xiǎn)及倫理規(guī)制[J].法商研究,2019,36(02):101-112.
[7]Big Data ethics Zwitter,Andrej,Public Trust and Public Law Big Data & Society,2014,1(2):1-6.
[8]Ethics of artificial intelligence Russell,S Nature,2015-28,521(7553):415-416.
基金項(xiàng)目:1.本文系“2019年江蘇省計(jì)算機(jī)學(xué)會(huì)‘計(jì)算機(jī)倫理與職業(yè)修養(yǎng)專項(xiàng)課題”(JSCS2019ZX012)的研究成果;2.本文系“2016年國(guó)家自然科學(xué)基金青年基金”(項(xiàng)目編號(hào):41501461)的研究成果;3.本文系“江蘇省高?!嗨{(lán)工程優(yōu)秀青年骨干教師培養(yǎng)對(duì)象項(xiàng)目”(2017)的研究成果;4.本文系“江蘇省高?!嗨{(lán)工程中青年學(xué)術(shù)帶頭人培養(yǎng)對(duì)象項(xiàng)目”(2019)的研究成果;5.本文系“江蘇省教育科學(xué)‘十三五規(guī)劃課題”(No.B-b/2016/01/34)的研究成果;6.本文系“江蘇省現(xiàn)代教育技術(shù)研究2019年度課題”(2019-R-70263)的研究成果;7.本文系“常熟理工學(xué)院2018年度高等教育研究項(xiàng)目(GJ1807)”的研究成果;8.本文系“常熟理工學(xué)院2018年度高等教育研究項(xiàng)目(GJ1808)”的研究成果
作者簡(jiǎn)介:嚴(yán)衛(wèi)(1980-),男,江蘇常熟人,碩士,常熟理工學(xué)院助理研究員,實(shí)驗(yàn)師,主要研究方向?yàn)槿斯ぶ悄軅惱?、高等教育管?錢(qián)振江(1982-),男,江蘇常熟人,博士,常熟理工學(xué)院計(jì)算機(jī)科學(xué)與工程學(xué)院副院長(zhǎng),副教授,主要研究方向?yàn)橛?jì)算機(jī)工程教育;周立凡(1984-),男,江蘇常熟人,博士,常熟理工學(xué)院講師,主要研究方向?yàn)樯疃葘W(xué)習(xí);肖樂(lè)(1981-),女,江蘇常熟人,碩士,常熟理工學(xué)院副教授,主要研究方向?yàn)槿斯ぶ悄堋?/p>