• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    從數(shù)據(jù)角度治理算法歧視

    2020-12-29 01:50:11閆文光
    關(guān)鍵詞:數(shù)據(jù)保護個人信息人工智能

    閆文光

    (中國社會科學(xué)院大學(xué) 法學(xué)系 北京 100102)

    在人工智能時代,社會的運行、經(jīng)濟的發(fā)展以及科技的進步都離不開三個基本要素:算法、數(shù)據(jù)與算力。我們的生活已經(jīng)悄悄的被算法和數(shù)據(jù)所控制,算法與數(shù)據(jù)接管了整個社會。[1]雖然人們對算法和數(shù)據(jù)抱有巨大幻想,希望它們能夠超越現(xiàn)有的決策形式,不再受人為因素影響,實現(xiàn)真正意義上的公平、公正與客觀,但正如科技哲學(xué)家凱文·凱利在其著作《失控》中所指出,“人們在將自然邏輯輸入機器的同時,也把技術(shù)邏輯帶到了生命之中……機器人、經(jīng)濟體、計算機程序等人造物也越來越具有生命屬性?!盵2]在人類賦予人工智能以“智慧”的同時,也將人類社會中所固有的偏見與歧視帶給了人工智能的靈魂——算法。根據(jù)美國白宮于2014 年發(fā)布的《大數(shù)據(jù):抓住機遇,保護價值》報告,受多種因素的影響,基于人工智能算法和大數(shù)據(jù)的自動化決策可能會對使用者產(chǎn)生不可預(yù)測的偏見,將會給使用者帶來不利影響。而大數(shù)據(jù)是訓(xùn)練算法、迭代算法的重要資料,更是算法分析、識別、挖掘信息價值的主要對象。如果算法作惡,大數(shù)據(jù)在很大程度上難辭其咎。因此從數(shù)據(jù)角度治理算法歧視具有重要意義。

    一、算法歧視及其危害

    (一) 危害群體權(quán)益,激化社會矛盾

    這些權(quán)利的主體是不特定的多數(shù)人,權(quán)利被侵犯的程度無法統(tǒng)計,危害后果無法有效遏制且受害主體難以獲得救濟。[3]其中最典型的就是種族歧視。[4]種族歧視將導(dǎo)致就業(yè)機會不均、種族隔離以及貧富差距惡化,加深不同種族之間的矛盾與芥蒂,破壞民族團結(jié),引發(fā)社會動蕩。

    (二)危害商業(yè)利益,加速市場壟斷

    算法帶有強烈的技術(shù)屬性,是高新技術(shù)的產(chǎn)物,其設(shè)計、訓(xùn)練、迭代過程都需要投入大量的人力物力,因而好的算法大都掌握在實力雄厚的企業(yè)或機構(gòu)手中。在市場競爭中,大公司會利用自身掌握的算法來識別、打擊競爭對手,尤其是實力較弱的企業(yè),從而形成行業(yè)壟斷。[5]

    (三)危害個人權(quán)益,惡化分配不公

    在日常預(yù)約網(wǎng)絡(luò)出租車或者酒店的過程中,經(jīng)常會出現(xiàn)同樣服務(wù)不同價格的現(xiàn)象,這就是“動態(tài)差異化定價”機制,也稱“大數(shù)據(jù)殺熟”。大數(shù)據(jù)殺熟其實更應(yīng)該稱為“算法殺熟”,數(shù)據(jù)只是分析提取信息的樣本和載體,如何使用信息取決于算法所表征的程序設(shè)計思想,如果算法擁有者主觀上存在“看人下菜碟”的故意,那么算法歧視的出現(xiàn)就不可避免。[6]

    二、算法歧視的本質(zhì)

    在奇點到來之前,弱人工智能時代的算法在本質(zhì)和底層架構(gòu)上都是以神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)為核心的學(xué)習(xí)型算法。這一階段的人工智能沒有“生命”,不具備獨立思考的能力,雖然能夠在一定程度上實現(xiàn)自動化,但其主要工作是對數(shù)據(jù)進行分類、聚類操作[7],基于此預(yù)測各變量下一步的狀態(tài),即“學(xué)習(xí)過去,預(yù)測未來”。算法對數(shù)據(jù)進行的類別處理與心理學(xué)上的社會范疇化理論大同小異,人類為了節(jié)省認知資源和減少信息處理成本,往往會在對新事物未深入了解的情況下根據(jù)經(jīng)驗形成預(yù)先判斷,這種經(jīng)驗化判斷實際上就是將信息分類(又稱范疇化)的過程。[8]

    算法的本質(zhì)決定了算法歧視的本質(zhì)。首先,基于范疇化處理的分類聚類,無法做到全面掌握數(shù)據(jù)所承載的信息,更無法認清數(shù)據(jù)的本質(zhì),正如著名心理學(xué)家奧爾波特在《偏見的本質(zhì)》中所述,這種范疇化必將導(dǎo)致偏見的出現(xiàn)。其次,基于大數(shù)據(jù)而形成和運行的算法必然會“繼承”大數(shù)據(jù)的價值觀。牛津大學(xué)數(shù)據(jù)倫理和算法領(lǐng)域研究人員桑德拉·沃徹(Sandra Wachter)說:“世界存在偏見,歷史數(shù)據(jù)存在偏見,因此,我們得到帶有偏見的結(jié)果,不足為奇?!盵9]大數(shù)據(jù)是人類社會的數(shù)字鏡像[10],是人類觀察社會的表征形式,直觀地反映并放大了人類的世界觀與價值觀。數(shù)字人類學(xué)家托馬斯·克倫普在其著作《數(shù)字人類學(xué)》表明,數(shù)字的背后其實都是人,“數(shù)字系統(tǒng)以清晰的方式,和它們植根于其中的文化緊密地融合在一起”[11]。算法歧視的本質(zhì)是大數(shù)據(jù)歧視,更是人類自身所固有的偏見,這種偏見通過數(shù)字介質(zhì)全息無損的傳遞到了同構(gòu)屬性的算法之上,“大數(shù)據(jù)與世界本身是對等的,也可以說是同構(gòu)的”[12]。

    三、算法歧視的數(shù)據(jù)原因

    (一)學(xué)習(xí)數(shù)據(jù)瑕疵

    在計算機科學(xué)領(lǐng)域,有個很有名的“GIGO 定律 ( Garbage In,Garbage Out) ”,《自然》雜志曾用“偏見進,則偏見出( Bias In,Bias Out) ”來描述。[13]基于深度學(xué)習(xí)而產(chǎn)生的人工智能算法在初步編譯完成后,還需要對現(xiàn)有的數(shù)據(jù)資料進行學(xué)習(xí)、訓(xùn)練,從而迭代出類人的“智能”。這一過程雖然能夠產(chǎn)生人類需要的算法模型,但我們對于算法如何工作以及原始算法如何經(jīng)過學(xué)習(xí)演化為最終算法的過程,都還是“一頭霧水”,無法理解,這一現(xiàn)象又被稱為“算法黑箱”。面對魚龍混雜的大數(shù)據(jù)集和未知的算法黑箱等大量不可控因素,算法極易產(chǎn)生異化,形成算法歧視。

    (二)交互過程中的數(shù)據(jù)帶有歧視

    算法在應(yīng)用后需要無時無刻的處理大量的用戶需求,根據(jù)實際情況為用戶提供合理的解決方案。在應(yīng)用過程中,算法也在不斷地根據(jù)接收的數(shù)據(jù)而修正自己,以符合現(xiàn)實中的實際情況。因此從本質(zhì)上來看,應(yīng)用端是學(xué)習(xí)端的一個延伸。由于在應(yīng)該過程中所接觸到的用戶價值觀迥異,適用的場景也千奇百怪,算法自身修正的方向也就難以預(yù)料,歧視和偏見產(chǎn)生的幾率將大幅增高,許多智能聊天機器人就是因為這樣的原因而被“教壞”。

    (三)數(shù)據(jù)未脫敏

    大數(shù)據(jù)之所以稱為“大數(shù)據(jù)”并不僅僅是因為其數(shù)據(jù)量巨大,更是因為其數(shù)據(jù)種類之多以及覆蓋范圍之廣?;谌绱巳娴臄?shù)據(jù)信息,即使設(shè)計者在算法形成到應(yīng)用的全流程中都使用的是客觀中立的基礎(chǔ)數(shù)據(jù),但算法還是能夠從大數(shù)據(jù)中挖掘出不可知的屬性,從而使合法的客觀中立的數(shù)據(jù)組合在一起產(chǎn)生歧視性的后果。例如居住地址、名字等往往能夠大概地反映出一個人的種族信息,如我國的少數(shù)民族自治區(qū)、美國某些城市的黑人聚居區(qū)以及我國少數(shù)民族中帶有強烈的民族色彩的名字。通過分析數(shù)據(jù)中的敏感信息,算法同樣會產(chǎn)生歧視性后果,其原因主要在于“冗余編碼”,即受保護群體的敏感性數(shù)據(jù)恰好在其他可合法獲得的數(shù)據(jù)中編碼中[14]。

    (四)不同場景下數(shù)據(jù)的正義屬性不同

    在數(shù)據(jù)領(lǐng)域同樣需要具體情況具體分析。在不同場景中,同一類型的數(shù)據(jù)可能占有不同的地位,具有不同的意義。在刑事案件中,認定犯罪嫌疑人是否犯罪時要綜合考量主觀方面與客觀方面,同一行為既可能是正當防衛(wèi),也有可能是故意殺人。與此類似,數(shù)據(jù)在的正義性也需要結(jié)合具體情況來考量。如在體力勞動中,性別與年齡應(yīng)當是考量的主要因素;而在腦力勞動中,如果以性別與年齡作為主要的考量因素則可能構(gòu)成歧視。

    四、治理策略

    (一)完善數(shù)據(jù)價值觀

    如前所述,算法歧視的本質(zhì)在于數(shù)據(jù)及其背后的人,數(shù)據(jù)作為連接算法與人類的橋梁,在信息傳遞的同時應(yīng)承擔(dān)起信息過濾的功能,最大限度地排除人類社會中的偏見與歧視,建立起公平、正義與向善的價值觀,為算法提供“綠色食品”。

    從域外治理經(jīng)驗來看,美國國家及各州都會針對算法的規(guī)制做出基礎(chǔ)性、原則性規(guī)定,無論是法律層面的《憲法》第十四條修正案、《公平信用報告法》、《民權(quán)法案》,還是政府政策方面的《美國白宮大數(shù)據(jù)白皮書》,都要求算法必須遵循平等保護的基本準則,保障公民平等權(quán)。歐盟委員會于2019 年 4 月 8 日發(fā)布《“可信賴人工智能”倫理指南》,指出人工智能系統(tǒng)的使用應(yīng)當遵循多樣性、非歧視性和公平性原則, 2018年正式生效的《統(tǒng)一數(shù)據(jù)保護條例》(GDPR)也為大數(shù)據(jù)處理與自動決策算法樹立了“無害化”的核心價值觀。

    數(shù)據(jù)向善價值觀的塑造“作為一個過程,不僅僅表現(xiàn)為外在強加,而有其內(nèi)在根據(jù);但這種根據(jù)最初主要以向善的潛能等形式存在,惟有通過教育、學(xué)習(xí)及道德實踐的過程,內(nèi)在的潛能才能不斷獲得現(xiàn)實的內(nèi)容,并成為真實的德性”[15]。首先,科技應(yīng)努力解決自身發(fā)展帶來的社會問題,把技術(shù)規(guī)則體系納入到由法律、倫理所構(gòu)建的社會規(guī)則體系中,將公平向善的價值觀融入到大數(shù)據(jù)產(chǎn)業(yè)的全鏈條中,在數(shù)據(jù)收集時預(yù)處理掉非正常來源的歧視性信息。其次,數(shù)據(jù)向善價值觀的確立還需要多方主體的共同努力,不僅要涉及計算科學(xué)、法學(xué)、哲學(xué)等專業(yè)科學(xué)領(lǐng)域,更要注重來自不同階層的意見建議。

    (二)加強個人信息保護

    由于無處不在的互聯(lián)網(wǎng),人工智能系統(tǒng)無時無刻不在收集我們的個人信息,如運動軌跡、手機品牌、購物習(xí)慣、IP地址、上網(wǎng)痕跡、地理位置等,甚至有些手機APP會在用戶不知情的情況下對其日常生活錄音。依靠強大的算力和嚴謹?shù)倪壿嫹治瞿芰Γ惴軌蛲ㄟ^數(shù)據(jù)清洗、數(shù)據(jù)挖掘等方式整合、分析各數(shù)據(jù)之間的相互關(guān)系,對用戶實施精準畫像,全面掌握公民的身份信息與行為習(xí)慣,做到比公民自己還要了解自己。因此,凱文·凱利在對未來20年商業(yè)科技發(fā)展預(yù)測的一次講演中提出,在大數(shù)據(jù)時代, “所有生意都是數(shù)據(jù)生意”,“個人數(shù)據(jù)才是大未來”。[16]

    在個人信息保護方面,美國與歐盟一直走在世界前列。美國已通過出臺多部個人信息保護相關(guān)法律,如第一部為保護個人隱私權(quán)而專門立法的《隱私權(quán)法》、規(guī)范個人信息采集與處理的《個人數(shù)據(jù)通知和保護法案》《消費者隱私權(quán)法案》等,目前已經(jīng)形成了以隱私權(quán)為基礎(chǔ)、分散立法與行業(yè)自律相結(jié)合的治理模式。歐盟自2018年《一般數(shù)據(jù)保護條例》(GDPR)正式生效以來,已經(jīng)建立了最為完善和嚴格的個人信息保護制度,規(guī)制范圍從歐盟內(nèi)部企業(yè)擴展到向歐盟用戶提供互聯(lián)網(wǎng)和商業(yè)服務(wù)的所有企業(yè)。

    為應(yīng)對日益復(fù)雜的個人信息保護亂象與算法歧視逐步惡化的態(tài)勢,我國也應(yīng)該完善個人信息保護的法治體系,理順立法要求與信息控制者內(nèi)在激勵之間的關(guān)系,探索利用激勵與保護激勵相容的個人數(shù)據(jù)治理之道。[17]同時還要兼顧企業(yè)發(fā)展與技術(shù)的進步,平衡好數(shù)據(jù)流動與權(quán)利保護之間的天平。首先,應(yīng)強化公民安全防范意識,提高自我保護與尊重他人個人隱私的道德素養(yǎng)。其次,應(yīng)科學(xué)化政府監(jiān)管,明確各級各部門責(zé)任,建立分層監(jiān)管機制,加強監(jiān)管執(zhí)法力度。最后,完善個人信息保護法律體系,以制定個人信息保護為源頭,民法、刑法、行政法等多部門法綜合治理。[18]民法層面上應(yīng)明確事前防范與事后救濟相關(guān)制度,明確責(zé)任承擔(dān);[19]刑法層面上要清楚界定“個人信息”概念,完善個人信息犯罪的相關(guān)罪名,強化落實力度;行政法層面上,法律應(yīng)明確用戶的知情權(quán)、同意權(quán)、被遺忘權(quán)等基本權(quán)利。在源頭層面,應(yīng)加快制定、出臺統(tǒng)一的個人信息保護法,將個人信息保護的法條、原則、權(quán)利義務(wù)以及責(zé)任承擔(dān)等各方面規(guī)定系統(tǒng)化、體系化,賦予其實踐性、可操作性。

    (三)建立數(shù)據(jù)審查與問責(zé)機制

    當前算法治理的主流觀點是要求算法具備“透明性”與“可解釋性”,以便監(jiān)管機構(gòu)等相關(guān)部門能夠?qū)λ惴ㄟM行閱讀和審查,從而鑒定其合法性。美國學(xué)者考爾德等人( Calders、Zliobaite) 認為,為了使計算機系統(tǒng)以規(guī)范的方式運作,算法審查必須從一開始就成為系統(tǒng)設(shè)計的一部分。[20]但在具體實施過程中,算法透明與可解釋原則也暴露了缺陷,即算法作為企業(yè)的技術(shù)成果與核心競爭力,如果全部開源透明和可解釋,則很容易被競爭對手剽竊算法架構(gòu)與設(shè)計思想,給算法擁有者造成損失。因此,單純的以算法透明及審查作為監(jiān)管手段顯然存在一定的不足,應(yīng)將數(shù)據(jù)透明與審查作為算法審查的一種延伸而納入算法治理的監(jiān)管手段之中。此外,對于算法所涉及的各方主體還應(yīng)設(shè)立合理的問責(zé)制,完善事后救濟與責(zé)任承擔(dān)制度。

    2018年正式生效的歐盟《統(tǒng)一數(shù)據(jù)保護條例》(GDPR)提出,算法歧視的規(guī)制應(yīng)確立數(shù)據(jù)無害化的原則。2016年1月26日,法國國民議會通過一項關(guān)于數(shù)字權(quán)力的新法案,法案明確了有關(guān)數(shù)據(jù)透明度、“忠誠”(或公平)的義務(wù)。

    我國應(yīng)當建立數(shù)據(jù)審查與問責(zé)機制。首先,數(shù)據(jù)來源、內(nèi)容與處理過程可查。對于輸入數(shù)據(jù)的來源應(yīng)該明確記錄并考核其合法性、合理性,可以引入?yún)^(qū)塊鏈技術(shù)對數(shù)據(jù)內(nèi)容做相應(yīng)備份,保證原始數(shù)據(jù)的真實性。關(guān)于數(shù)據(jù)的應(yīng)用過程、應(yīng)用策略、應(yīng)用比例等一系列處理過程,公司應(yīng)當及時準確地予以記錄,履行“注意”義務(wù),在監(jiān)管部門進行核查時應(yīng)當提供相關(guān)資料,履行配合義務(wù)。其次,周期復(fù)查。原始算法需要不斷地迭代更新與自我學(xué)習(xí),在這個過程中算法會產(chǎn)生難以人為控制的變化,其變化方向難以預(yù)料。因此,應(yīng)當建立周期的復(fù)查機制[21],根據(jù)其在某一階段的輸入輸出數(shù)據(jù)來校驗其公正客觀性,防止算法與數(shù)據(jù)的異變,同時應(yīng)要求使用者定期自我復(fù)查,公布復(fù)查報告,將評估結(jié)果上傳至國家企業(yè)信用公示系統(tǒng)。最后,建立數(shù)據(jù)問責(zé)制。法律應(yīng)是確保規(guī)范性期望實現(xiàn)、疏解和救濟失望之工具。[22]應(yīng)從法律層面明確各方主體義務(wù)與責(zé)任,確定歸責(zé)原則,對責(zé)任主體的行為進行規(guī)制,完善救濟機制。

    (四)建立專業(yè)數(shù)據(jù)監(jiān)管機構(gòu)

    在人工智能、大數(shù)據(jù)、云計算等新興產(chǎn)業(yè)領(lǐng)域,我國當前的治理模式以中央網(wǎng)信辦(國家網(wǎng)信辦)、工信部為主,市場監(jiān)管總局、公安部、文旅部、交通部、廣電總局、教育部、商務(wù)部等部門在各自職權(quán)范圍內(nèi)進行監(jiān)管。多部門共管的模式雖然可以整合各機構(gòu)的資源,增強監(jiān)管力量,但更容易導(dǎo)致部門配合不協(xié)調(diào)、各自為政的現(xiàn)象,留下監(jiān)管真空的同時存在監(jiān)管重復(fù)交叉,降低了監(jiān)管效率。更為重要的是,面對如此多的部門機構(gòu),企業(yè)和消費者難以分清各部門之間的聯(lián)系與區(qū)別,更無法明確各部門的職權(quán)范圍,將導(dǎo)致企業(yè)合規(guī)成本的提高與消費者事后救濟的不能。隨著大數(shù)據(jù)總量急劇擴大、數(shù)據(jù)類型逐步豐富、數(shù)據(jù)管理主體更加多元,商業(yè)平臺的私權(quán)力將會劇增,利用數(shù)字鴻溝、算法共謀等手段建立算法霸權(quán),形成一座越來越封閉的算法監(jiān)獄,損害公民權(quán)益。[23]

    在域外治理經(jīng)驗上,美英德等發(fā)達國家同樣經(jīng)歷了類似的階段,從被動處理到主動監(jiān)管,從事后救濟到事前預(yù)防,逐步建立了專業(yè)、統(tǒng)一的政府監(jiān)管機構(gòu)。2016年12月,美國奧巴馬政府成立“聯(lián)邦貿(mào)易委員會”,統(tǒng)一負責(zé)數(shù)據(jù)完整性與公民隱私保護。1998年,英國新版《數(shù)據(jù)保護法》設(shè)立“信息專員”負責(zé)數(shù)據(jù)保護與行業(yè)監(jiān)管。德國《聯(lián)邦數(shù)據(jù)保護法》作出規(guī)定,凡滿足法定條件的公私機構(gòu)都必須書面任命常設(shè)的個人數(shù)據(jù)保護顧問。個人數(shù)據(jù)保護顧問在編制上隸屬于企業(yè),是企業(yè)員工,負責(zé)監(jiān)督檢查機構(gòu)的數(shù)據(jù)活動,保證其符合法律規(guī)定。在個人數(shù)據(jù)保護顧問行使職權(quán)過程中如若受到阻礙及壓力,數(shù)據(jù)保護監(jiān)管局會及時以國家公權(quán)力作為保障為其提供支持與幫助。這種二元化的數(shù)據(jù)監(jiān)管機構(gòu)設(shè)置方式,既維護了企業(yè)的商業(yè)秘密不被泄露,又保障了企業(yè)等數(shù)據(jù)處理與算法擁有者的合規(guī)發(fā)展,減少了算法歧視的發(fā)生。

    因此,我國應(yīng)當未雨綢繆,加強對大數(shù)據(jù)領(lǐng)域的監(jiān)管與治理,建立統(tǒng)一且專業(yè)的數(shù)據(jù)監(jiān)管機構(gòu)與審慎合理的管理機制,保障數(shù)據(jù)的真實、客觀,提高數(shù)據(jù)質(zhì)量。我國可借鑒德國治理模式,建立數(shù)據(jù)管理顧問與數(shù)據(jù)保護局相互配合的二元數(shù)據(jù)治理機制,將企業(yè)也政府連接起來,保障企業(yè)核心利益的同時規(guī)范數(shù)據(jù)與算法,有利于政治系統(tǒng)中行政部門始終保持對算法發(fā)展的敏感度,有利于保護經(jīng)濟系統(tǒng)中企業(yè)的經(jīng)營自由,也有利于降低裁判門檻,實現(xiàn)算法公平和正義。[24]

    (五)構(gòu)建多元參與的治理格局

    算法的編譯與應(yīng)用、數(shù)據(jù)的收集與處理是一個涉及方方面面主體的產(chǎn)業(yè)鏈條,政府、公眾、行業(yè)等都參與其中,發(fā)揮著不可或缺的作用。所以,算法歧視的治理不能只依靠政府部門的監(jiān)管而忽略其他利益相關(guān)者,應(yīng)逐步探索將公司、公眾、行業(yè)協(xié)會等納入算法歧視的治理體系中,合理界定各自的權(quán)利義務(wù),劃分職責(zé)范圍,形成行業(yè)自律、政府監(jiān)管、公眾參與的綜合治理格局。

    《歐盟通用數(shù)據(jù)保護條例》特別強調(diào)數(shù)據(jù)行為的管理應(yīng)當堅持行業(yè)主導(dǎo)、監(jiān)管機構(gòu)適度干預(yù)的理念。商業(yè)公司是算法的主要研發(fā)與應(yīng)用者,好的算法能夠給企業(yè)帶來豐厚的回報,反之,帶有偏見與歧視的算法也會給其商業(yè)信譽和業(yè)務(wù)帶來不利影響,算法與企業(yè)相輔相成。商業(yè)公司應(yīng)承擔(dān)起社會責(zé)任,加強自律自查,制定完善的算法設(shè)計、訓(xùn)練以及應(yīng)用規(guī)則,規(guī)范數(shù)據(jù)處理流程,保障元數(shù)據(jù)集的客觀性、正當性、公平性,避免算法歧視的出現(xiàn)。2016 年,日本 AI 學(xué)會、英國標準協(xié)會相繼出臺人工智能設(shè)計倫理標準;2017年1月,美國計算機協(xié)會發(fā)布人工智能算法透明性與可責(zé)性七項原則,谷歌、微軟等產(chǎn)業(yè)巨頭也相繼提出“機會平等( Equality of Opportunity) ”等技術(shù)規(guī)范,將“不作惡”作為公司發(fā)展的基本原則之一。[25]

    被稱為“人民的律師”的路易斯·布蘭代斯有一句名言:“陽光是最好的消毒劑,燈光是最好的警察?!敝挥凶尭嗟娜藚⑴c進來,讓算法與數(shù)據(jù)以合理的方式接受更多人的審視,才能更好地消弭算法歧視,維護社會公平。作為算法歧視的直接受害者,公眾應(yīng)主動參與到對歧視的治理中來。公民的普遍參與應(yīng)以個人算法素養(yǎng)的提高為前提,要能夠在一定程度上了解算法、知悉大數(shù)據(jù)技術(shù)的原理和歧視的發(fā)生機制,以免在遭遇算法歧視時既無從察覺又不知如何留證和自力救濟。政府應(yīng)出臺政策和措施公民提高算法素養(yǎng),提供必要的資源和平臺。2016年,美國發(fā)布《為人工智能的未來做好準備》報告,建議全體公民準備接受人工智能教育。2017年,我國出臺《新一代人工智能發(fā)展規(guī)劃》,鼓勵實施全民智能教育項目。未來,政府應(yīng)持續(xù)加大政策制定力度,通過設(shè)置更加科學(xué)合理的方式培養(yǎng)公民的算法知識,縮小數(shù)字鴻溝,抑制算法霸權(quán),打破算法暴政所營造的“技術(shù)監(jiān)獄”,維護社會公平正義。

    猜你喜歡
    數(shù)據(jù)保護個人信息人工智能
    如何保護勞動者的個人信息?
    工會博覽(2022年16期)2022-07-16 05:53:54
    個人信息保護進入“法時代”
    警惕個人信息泄露
    綠色中國(2019年14期)2019-11-26 07:11:44
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    TPP生物藥品數(shù)據(jù)保護條款研究
    下一幕,人工智能!
    歐盟數(shù)據(jù)保護立法改革之發(fā)展趨勢分析
    歐盟《一般數(shù)據(jù)保護條例》新規(guī)則評析
    许昌县| 洪洞县| 呼图壁县| 金塔县| 南平市| 新邵县| 安康市| 古田县| 渭源县| 巢湖市| 商城县| 昌乐县| 阿瓦提县| 西乌珠穆沁旗| 白水县| 桐庐县| 玉龙| 宜宾市| 潞城市| 枣庄市| 大方县| 象山县| 武山县| 民权县| 无为县| 乐昌市| 黎平县| 林芝县| 玉山县| 阿克苏市| 安康市| 黄大仙区| 永吉县| 大渡口区| 乌鲁木齐县| 合山市| 辛集市| 柘城县| 百色市| 阳曲县| 淳化县|