• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    中國(guó)人工智能的倫理原則及其治理技術(shù)發(fā)展

    2020-09-03 08:16:16吳文峻黃鐵軍龔克
    工程 2020年3期
    關(guān)鍵詞:透明隱私保密

    吳文峻*,黃鐵軍,龔克

    a State Key Laboratory of Software Development Environment, Beihang University, Beijing 100191, China

    b School of Electronics Engineering and Computer Science, Peking University, Beijing 100871, China

    c Chinese Institute of New Generation Artificial Intelligence Development Strategie, Nankai University, Tianjin 300071, China

    1. 引言

    隨著新一代人工智能(AI)算法和產(chǎn)品的快速開(kāi)發(fā)和部署,AI在各個(gè)領(lǐng)域發(fā)揮著越來(lái)越重要的作用,并對(duì)現(xiàn)代社會(huì)結(jié)構(gòu)產(chǎn)生了重大影響。AI模型和算法已被廣泛應(yīng)用于各種決策場(chǎng)景,如刑事審判、交通控制、金融貸款和醫(yī)療診斷。這種基于AI的自動(dòng)決策系統(tǒng)得到不斷的推廣和應(yīng)用,正在從安全性和公平性等方面帶來(lái)潛在的風(fēng)險(xiǎn)。

    例如,當(dāng)前自動(dòng)駕駛系統(tǒng)的安全性引發(fā)了人們的關(guān)注。2015年,中國(guó)的一輛特斯拉汽車(chē)發(fā)生了致命的事故,原因是汽車(chē)的自動(dòng)駕駛系統(tǒng)未能識(shí)別出路上的清掃車(chē),從而導(dǎo)致其沒(méi)有執(zhí)行正確的操作。在智能司法場(chǎng)景中,司法人員根據(jù)囚犯行為特征,采用智能算法來(lái)決定是否授予其假釋許可。有人指出,這種算法可能會(huì)基于種族和文化背景做出有偏見(jiàn)和不公平的決定。在金融場(chǎng)景中,基于AI的數(shù)字貸款算法可能會(huì)因?yàn)橛衅?jiàn)的判斷而拒絕某些人的貸款申請(qǐng)。政府機(jī)構(gòu)、學(xué)術(shù)界和工業(yè)界都意識(shí)到了AI應(yīng)用的安全性和公平性等問(wèn)題,而且對(duì)AI應(yīng)用的治理也成為了越來(lái)越重要的議題,所以我們必須采取有效措施來(lái)減輕與AI相關(guān)的一些潛在風(fēng)險(xiǎn)。

    如今,許多國(guó)家的政府部門(mén)、研究機(jī)構(gòu)和企業(yè)已經(jīng)公布了他們的AI倫理準(zhǔn)則、原則和建議。為了在當(dāng)前的AI系統(tǒng)和產(chǎn)品中實(shí)施這些準(zhǔn)則、原則和建議,開(kāi)發(fā)AI治理技術(shù)將至關(guān)重要,需要深入研究聯(lián)邦學(xué)習(xí)、可解釋AI、嚴(yán)格的AI安全測(cè)試和驗(yàn)證以及AI倫理評(píng)估等方法。這些技術(shù)仍在高速發(fā)展期,而且也不夠成熟,所以無(wú)法被廣泛應(yīng)用于商業(yè)場(chǎng)景。主要的技術(shù)障礙來(lái)源于現(xiàn)代AI研究所面臨的基本挑戰(zhàn),如人類(lèi)層面的道德認(rèn)知、常識(shí)性的道德推理和多學(xué)科AI倫理工程。本文旨在從中國(guó)的角度對(duì)AI倫理原則和正在進(jìn)行的相關(guān)研究工作進(jìn)行總體概述。

    本文的其余部分安排如下:第二部分介紹了政府機(jī)構(gòu)和組織發(fā)布的倫理原則,并重點(diǎn)介紹了中國(guó)研究人員在AI治理方面的主要研究成果;第三部分比較了中國(guó)與其他國(guó)家在AI倫理原則和治理技術(shù)發(fā)展方面的差異;第四部分討論了AI治理研究中的巨大挑戰(zhàn),并提出了未來(lái)的研究方向。

    2. 中國(guó)的AI倫理原則與新興治理技術(shù)

    2017年中國(guó)發(fā)布的《新一代人工智能發(fā)展戰(zhàn)略規(guī)劃》(Development Plan of the New Generation Artificial Intelligence)強(qiáng)調(diào),必須認(rèn)真管理好AI的技術(shù)屬性和社會(huì)屬性,以確保AI的可靠性。2019年,中國(guó)科技部成立了國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì),并發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》 [1]。北京智源人工智能研究院(Beijing Academy of Artificial Intelligence, BAAI)也發(fā)布了《人工智能北京共識(shí)》[2],就推進(jìn)AI的研發(fā)、使用、治理和長(zhǎng)遠(yuǎn)規(guī)劃提出倡議,以支持實(shí)現(xiàn)對(duì)人類(lèi)和自然環(huán)境有益的AI。在參考文獻(xiàn) [3]中,來(lái)自BAAI的研究人員收集了20多個(gè)關(guān)于AI倫理原則的提議,并對(duì)這些提議的文本內(nèi)容進(jìn)行了主題詞分析。他們確定了提議中共同提到的關(guān)鍵詞——隱私、保密、安全、透明、問(wèn)責(zé)和公平。

    (1)保密性和隱私性:AI系統(tǒng)應(yīng)該是保密的且尊重個(gè)人隱私。

    (2)安全性和可靠性:AI系統(tǒng)應(yīng)能可靠并安全地運(yùn)行。

    表1 AI倫理原則和治理技術(shù)

    (3)透明度:AI系統(tǒng)應(yīng)該是可以理解的。

    (4)問(wèn)責(zé)制:AI系統(tǒng)應(yīng)該有問(wèn)責(zé)制。

    (5)公平性:AI系統(tǒng)應(yīng)該公平對(duì)待所有人。

    這些通用原則得到了全球AI領(lǐng)域的研究人員、從業(yè)人員和監(jiān)管人員的廣泛認(rèn)可。這些原則不僅反映了我們?nèi)祟?lèi)社會(huì)的友好和道德信念,而且也需要可行的和全面的技術(shù)框架及解決方案來(lái)實(shí)現(xiàn)AI模型、算法和產(chǎn)品中的倫理約束。表1列舉了與AI倫理相關(guān)的新興技術(shù),這些技術(shù)在支撐AI的有效治理方面有很大的潛力。

    2.1. 數(shù)據(jù)安全和隱私

    數(shù)據(jù)安全是AI倫理原則中最基本、最常見(jiàn)的要求。各國(guó)政府正在制定保護(hù)數(shù)據(jù)安全和隱私的法律。例如,歐盟于2018年實(shí)施了《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation, GDPR),中國(guó)也于2017年頒布了《中華人民共和國(guó)網(wǎng)絡(luò)安全法》(Cybersecurity Law of the People's Republic of China)。這些法規(guī)的建立旨在保護(hù)用戶的個(gè)人隱私,并給如今被廣泛使用的數(shù)據(jù)驅(qū)動(dòng)型AI的開(kāi)發(fā)帶來(lái)新的挑戰(zhàn)。

    在數(shù)據(jù)驅(qū)動(dòng)型AI的范式中,開(kāi)發(fā)人員通常需要在中央存儲(chǔ)庫(kù)中收集大量用戶數(shù)據(jù),然后進(jìn)行后續(xù)的數(shù)據(jù)處理,包括數(shù)據(jù)清洗、融合和標(biāo)注,以儲(chǔ)備數(shù)據(jù)集用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN)模型。顯然,新公布的法規(guī)阻礙了公司直接從其云服務(wù)器上收集和保留用戶數(shù)據(jù)。

    聯(lián)邦學(xué)習(xí)為AI公司提供了一個(gè)有效的解決方案,該方法能夠以合法的方式解決數(shù)據(jù)碎片和數(shù)據(jù)孤島的問(wèn)題。香港科技大學(xué)及其他研究機(jī)構(gòu)的研究人員[4]列出了三種聯(lián)邦學(xué)習(xí)模式,即橫向聯(lián)邦學(xué)習(xí)、縱向聯(lián)邦學(xué)習(xí)和聯(lián)邦遷移學(xué)習(xí)。當(dāng)數(shù)據(jù)共享的參與方各自具有不重疊的數(shù)據(jù)集,但數(shù)據(jù)樣本又具有相同的特征空間時(shí),我們可以使用橫向聯(lián)邦學(xué)習(xí)??v向聯(lián)邦學(xué)習(xí)適用于參與方的數(shù)據(jù)集指向同一組實(shí)體,但其特征屬性不同的情況。當(dāng)參與方的數(shù)據(jù)集不能滿足上述任意一個(gè)條件時(shí)(數(shù)據(jù)樣本既指向不同實(shí)體,又具有不同的特征空間),聯(lián)邦遷移學(xué)習(xí)可能是一個(gè)合理的選擇。通過(guò)這些模式,AI公司始終能夠?yàn)槎鄠€(gè)企業(yè)建立統(tǒng)一的模型,而無(wú)需在一個(gè)集中的地方共享它們的本地?cái)?shù)據(jù)。

    聯(lián)邦學(xué)習(xí)不僅為機(jī)構(gòu)間分布式機(jī)器學(xué)習(xí)模型的協(xié)同開(kāi)發(fā)提供了一種用于隱私保護(hù)的技術(shù)解決方案,而且也為AI社會(huì)的可持續(xù)發(fā)展指明了一種新的商業(yè)模型,用于發(fā)展可信任的數(shù)字生態(tài)系統(tǒng)。通過(guò)在區(qū)塊鏈的基礎(chǔ)上運(yùn)行聯(lián)邦學(xué)習(xí),我們能夠利用智能合約和可信賴的利潤(rùn)激勵(lì)機(jī)制,使得數(shù)字生態(tài)系統(tǒng)中的成員主動(dòng)分享其數(shù)據(jù),并創(chuàng)建聯(lián)邦機(jī)器學(xué)習(xí)模型。

    聯(lián)邦學(xué)習(xí)模式被中國(guó)越來(lái)越多的在線金融機(jī)構(gòu)所采用。微眾銀行(WeBank)已經(jīng)制定了一個(gè)關(guān)于聯(lián)邦學(xué)習(xí)的開(kāi)源項(xiàng)目,并向Linux基金會(huì)貢獻(xiàn)了聯(lián)邦A(yù)I技術(shù)使能器(federated AI technology enabler, FATE)框架。WeBank的AI研發(fā)團(tuán)隊(duì)[5]還啟動(dòng)了IEEE聯(lián)邦學(xué)習(xí)的標(biāo)準(zhǔn)化工作,并開(kāi)始起草體系結(jié)構(gòu)框架的定義和應(yīng)用指南。

    2.2. AI安全性、透明度和可信度

    在計(jì)算機(jī)科學(xué)和軟件工程領(lǐng)域,為確保大型復(fù)雜信息系統(tǒng)的安全性和可信度,研究人員已經(jīng)進(jìn)行了數(shù)十年的研究。隨著信息系統(tǒng)的規(guī)模和復(fù)雜性的增加,如何以經(jīng)濟(jì)高效且無(wú)差錯(cuò)的方式設(shè)計(jì)和實(shí)施一個(gè)安全和可信賴的系統(tǒng),成為計(jì)算機(jī)科學(xué)和軟件工程領(lǐng)域面臨的一個(gè)巨大挑戰(zhàn)。當(dāng)自主系統(tǒng)中被部署的AI組件與不確定的動(dòng)態(tài)環(huán)境交互時(shí),會(huì)不可避免地使上述問(wèn)題變得更加困難。由于先進(jìn)的AI模型采用了非常復(fù)雜的DNN和端到端的訓(xùn)練方法,這種黑箱性質(zhì)不僅妨礙了開(kāi)發(fā)人員充分理解其結(jié)構(gòu)和行為,而且還會(huì)因惡意輸入而給模型引入潛在漏洞。因此,AI治理框架必須綜合多種技術(shù),以使AI工程師能夠?qū)I行為進(jìn)行系統(tǒng)的評(píng)估,并提供能夠建立公眾對(duì)AI系統(tǒng)信任的證據(jù)。圖1顯示了AI行為分析和評(píng)估框架的主要構(gòu)建模塊,包括測(cè)試、驗(yàn)證、解釋和溯源。

    這些新興的AI治理技術(shù)都是從不同方面來(lái)檢查和評(píng)估AI行為和內(nèi)部工作機(jī)制的。AI測(cè)試通常側(cè)重于評(píng)估智能模型的輸入和輸出之間的關(guān)系,以確保AI的功能和行為能夠符合所需的目標(biāo)和倫理要求。AI驗(yàn)證采用嚴(yán)格的數(shù)學(xué)模型來(lái)證明AI算法的可靠性。AI解釋旨在開(kāi)發(fā)新型技術(shù)來(lái)分析和揭示復(fù)雜的DNN模型的內(nèi)部工作機(jī)制。AI溯源可以跟蹤訓(xùn)練數(shù)據(jù)、模型、算法和決策過(guò)程,以支持審計(jì)和責(zé)任認(rèn)定。

    這些AI治理技術(shù)的集成是非常重要的,因?yàn)樗鼘⑺械睦嫦嚓P(guān)者聚集在一起,去理解、檢查和審計(jì)一個(gè)自主且智能的系統(tǒng)。對(duì)于受AI系統(tǒng)決策影響的用戶,他們有權(quán)了解和理解算法決策背后的原理。對(duì)于負(fù)責(zé)AI系統(tǒng)開(kāi)發(fā)和維護(hù)的工程師,他們必須依靠AI測(cè)試、驗(yàn)證和解釋工具來(lái)診斷AI算法的潛在問(wèn)題,從而采取必要的補(bǔ)救措施和改進(jìn)措施。對(duì)于負(fù)責(zé)監(jiān)督AI工程流程和產(chǎn)品質(zhì)量的管理人員,他們應(yīng)利用這些工具來(lái)查詢流程數(shù)據(jù)、指導(dǎo)倫理標(biāo)準(zhǔn)的實(shí)施以及降低系統(tǒng)的倫理和質(zhì)量風(fēng)險(xiǎn)。對(duì)于調(diào)查事故或法律案件中AI系統(tǒng)責(zé)任的政府審計(jì)人員,他們必須利用AI溯源技術(shù)來(lái)跟蹤系統(tǒng)演化的脈絡(luò)并收集相關(guān)證據(jù)。

    2.2.1. AI的安全性和魯棒性

    圖1 . 可信賴AI的測(cè)試、驗(yàn)證、解釋和溯源。

    近年來(lái),DNN的對(duì)抗樣本已成為機(jī)器學(xué)習(xí)領(lǐng)域非常熱門(mén)的研究課題。DNN模型容易受到對(duì)抗樣本的攻擊,在這些樣本中,帶有細(xì)微擾動(dòng)的輸入會(huì)誤導(dǎo)DNN,使其產(chǎn)生錯(cuò)誤的結(jié)果。例如,黑客可以惡意地在行人過(guò)馬路圖像上添加少量擾動(dòng),從而生成相應(yīng)的對(duì)抗樣本來(lái)欺騙DNN,使其忽略路上的行人。因此,當(dāng)實(shí)際的深度學(xué)習(xí)應(yīng)用程序(如自動(dòng)駕駛和人臉識(shí)別系統(tǒng))受到嚴(yán)重?fù)p害時(shí),對(duì)抗樣本可能會(huì)導(dǎo)致經(jīng)濟(jì)損失或致命事故。目前主要采用對(duì)抗測(cè)試和形式驗(yàn)證這兩種方法來(lái)解決AI的安全問(wèn)題,并確保AI系統(tǒng)在干擾下的魯棒性。

    (1)用于AI安全的對(duì)抗測(cè)試。已經(jīng)有許多科研人員對(duì)如何通過(guò)生成對(duì)抗樣本來(lái)測(cè)試DNN模型進(jìn)行了研究。生成測(cè)試用例的一種最直接的方法是,在不影響場(chǎng)景的整體可視圖像情況下直接干擾原始輸入。但當(dāng)黑客無(wú)法訪問(wèn)輸入信號(hào)源且無(wú)法在輸入圖像中添加擾動(dòng)時(shí),此方法有其局限性。因此研究人員開(kāi)始探索基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的對(duì)抗樣本的生成,該對(duì)抗樣本由微小的圖像補(bǔ)丁組成,這些補(bǔ)丁可以被很容易地貼在物體(如戶外的電線桿或人的帽子)表面上,從而影響圖像輸入[6]。

    北京航空航天大學(xué)的研究人員[7]提出了一種感知敏感的GAN,該GAN可以增強(qiáng)對(duì)抗補(bǔ)丁的視覺(jué)保真度,并在安全性測(cè)試下為神經(jīng)網(wǎng)絡(luò)生成更真實(shí)的測(cè)試樣本。在2018年國(guó)際NeurIPS(Neural Information Processing Systems)大會(huì)上,清華大學(xué)的研究人員發(fā)表了兩篇有關(guān)DNN網(wǎng)絡(luò)防御對(duì)抗樣本算法的論文[8,9]。其中一篇提出了一種新的基于對(duì)抗擾動(dòng)的正則化方法,即深度防御法(deep defense),用于訓(xùn)練DNN來(lái)對(duì)抗可能的攻擊;另一篇?jiǎng)t建議通過(guò)最小化訓(xùn)練過(guò)程中的反向交叉熵來(lái)檢測(cè)可能存在的對(duì)抗樣本。浙江大學(xué)和阿里巴巴的研究人員實(shí)施了一個(gè)以DEEPSEC命名的DNN測(cè)試平臺(tái)[10],該平臺(tái)集成了十多種最先進(jìn)的攻擊和防御算法。該平臺(tái)使研究人員和從業(yè)人員既能夠評(píng)估DNN模型的安全性,又可以評(píng)估攻擊和防御算法的有效性。

    (2)DNN模型的形式化驗(yàn)證。因?yàn)檩斎霐_動(dòng)的選擇組合情況極其龐大,對(duì)抗測(cè)試無(wú)法列舉出給定一組輸入的所有可能輸出。作為對(duì)抗測(cè)試方法的補(bǔ)充,研究人員引入了形式驗(yàn)證方法,以此來(lái)證明DNN模型的輸出與所有可能輸入的規(guī)范嚴(yán)格一致。但是,對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行形式驗(yàn)證是一個(gè)非常困難的問(wèn)題。已有研究表明,即使是驗(yàn)證關(guān)于神經(jīng)網(wǎng)絡(luò)行為的簡(jiǎn)單屬性也是一個(gè)NP(non-deterministic polynomial)完全問(wèn)題[11]。

    形式化驗(yàn)證中遇到的主要困難主要來(lái)自于激活函數(shù)的非線性和復(fù)雜的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。為了解決神經(jīng)網(wǎng)絡(luò)中非線性帶來(lái)的問(wèn)題,最近的研究工作都集中在了分段線性形式的激活函數(shù)上。研究人員正在研究有效且可擴(kuò)展的驗(yàn)證方法,主要關(guān)注了輸出集的幾何邊界。對(duì)于DNN模型,基本上有兩種形式化的驗(yàn)證程序,即完整驗(yàn)證程序和不完整驗(yàn)證程序。完整的驗(yàn)證程序可以保證沒(méi)有誤報(bào),但可擴(kuò)展性有限,因?yàn)樗鼈儾捎昧擞?jì)算成本較高的方法,如可滿足性模理論(SMT)解決方案[12]。不完整的驗(yàn)證程序可能會(huì)產(chǎn)生誤報(bào),但其可擴(kuò)展性比完整的驗(yàn)證程序好。蘇黎世聯(lián)邦理工學(xué)院(ETH Zurich)的研究人員[13,14]基于抽象解釋提出了一種不完整的驗(yàn)證程序,其中基于形狀的抽象域被表示為非線性激活函數(shù)輸出的幾何邊界,以逼近DNN的無(wú)窮行為集。華東師范大學(xué)、中國(guó)科學(xué)院和其他相關(guān)機(jī)構(gòu)的研究人員[15,16]也介紹了他們基于線性規(guī)劃或符號(hào)傳播的形式化驗(yàn)證框架。

    這些研究工作仍處于起步階段,目前對(duì)不同種類(lèi)的激活函數(shù)和神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)還沒(méi)有進(jìn)行過(guò)系統(tǒng)研究。盡管研究人員在形式化驗(yàn)證領(lǐng)域進(jìn)行了數(shù)十年的研究,但是由于深度學(xué)習(xí)的復(fù)雜性,可擴(kuò)展的驗(yàn)證方法在處理現(xiàn)代大規(guī)模的深度學(xué)習(xí)系統(tǒng)時(shí)尚不成熟。

    2.2.2. AI的透明度和可追溯性

    AI的透明度對(duì)于公眾在許多決策應(yīng)用中能夠理解和信任AI是至關(guān)重要的,如醫(yī)療診斷、貸款管理和法律執(zhí)行??山忉孉I有助于人們理解深度學(xué)習(xí)模型內(nèi)部復(fù)雜的工作原理,它可以將這些深度學(xué)習(xí)模型的推理形成人類(lèi)可以理解的解釋。隨著AI透明度的提高,人們將更加有信心去利用AI工具做出決策,并評(píng)估自主系統(tǒng)的合法性和可靠性。

    研究人員正在研究如何構(gòu)建可解釋的DNN框架和分析工具。在這個(gè)研究方向上,多種方法已經(jīng)被提出用于支持模型理解。一些研究人員設(shè)計(jì)出了伴隨神經(jīng)網(wǎng)絡(luò),用于在DNN推理過(guò)程中生成自然語(yǔ)言解釋。另一種流行的方法被稱為L(zhǎng)IME [17],它試圖從原始的復(fù)雜模型中去構(gòu)造基于簡(jiǎn)單模型(如稀疏線性模型和決策樹(shù))的代理模型,用以近似原始模型的行為。上海交通大學(xué)及其他研究機(jī)構(gòu)的研究人員[18]提出了一種基于決策樹(shù)的LIME方法,該方法從語(yǔ)義層面定量解釋了預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)所做出的每個(gè)預(yù)測(cè)的基本原理。

    信息可視化也被廣泛認(rèn)為是實(shí)現(xiàn)可解釋的DNN模型的一種有效方法。清華大學(xué)的研究人員[18]提出了交互式DNN可視化和分析工具,以支持模型的理解和診斷。利用對(duì)倫理價(jià)值觀的正確知識(shí)表示,這種視覺(jué)分析方法可以使AI工程師直觀地驗(yàn)證其DNN模型是否遵循了人類(lèi)的倫理原則。

    與可解釋AI密切相關(guān)的另一個(gè)重要研究領(lǐng)域是AI溯源。它強(qiáng)調(diào)記錄、呈現(xiàn)和查詢各種與模型、算法和數(shù)據(jù)有關(guān)的歷史演化信息,以供將來(lái)進(jìn)行審計(jì)和取證分析。盡管我們已經(jīng)有了成熟的數(shù)據(jù)和信息溯源框架,但對(duì)AI溯源的研究還很少。南京大學(xué)和美國(guó)普渡大學(xué)聯(lián)合發(fā)表了一篇論文[20],該論文通過(guò)跟蹤內(nèi)部導(dǎo)數(shù)計(jì)算步驟,設(shè)計(jì)了AI算法的溯源計(jì)算系統(tǒng)。此方法可以幫助算法設(shè)計(jì)者診斷潛在問(wèn)題。

    除了能夠促進(jìn)AI模型的開(kāi)發(fā)外,溯源技術(shù)在新興的AI司法鑒定研究中也發(fā)揮著重要作用。最近,DeepFake技術(shù)被濫用,該技術(shù)利用GAN生成了虛假的人臉圖像和視頻,從而對(duì)社會(huì)規(guī)范和安全造成了巨大威脅。許多研究人員正在開(kāi)發(fā)新的分類(lèi)方法,以檢測(cè)這些虛假的圖像并確保視覺(jué)內(nèi)容的可信度。例如,中國(guó)科學(xué)院自動(dòng)化研究所的研究人員[21]嘗試去改善DeepFake檢測(cè)算法的通用性,并提出了一種新的司法鑒定CNN模型。但是,僅憑這些努力還不足以擊敗DeepFake,因?yàn)榻苹脑O(shè)計(jì)者總是可以構(gòu)思出更好的算法來(lái)欺騙已知的檢測(cè)算法?;蛟S,我們應(yīng)該對(duì)原始圖像的可靠來(lái)源信息進(jìn)行補(bǔ)充,以提供必要的線索來(lái)驗(yàn)證圖像來(lái)源的合法性?;趨^(qū)塊鏈的溯源管理系統(tǒng)對(duì)建立一個(gè)可靠且可信賴的數(shù)字生態(tài)系統(tǒng)是有幫助的,在這個(gè)生態(tài)系統(tǒng)中我們可以跟蹤和驗(yàn)證數(shù)字資源的真實(shí)來(lái)源,從而徹底清除虛假圖像和視頻。

    2.3. AI算法的公平性評(píng)估

    最近,公平性成為了評(píng)估AI算法的一種重要的非功能性特征。AI公平性研究的工作主要集中在評(píng)估不同群體之間或個(gè)人之間AI輸出的差異。研究人員提出了許多公平性評(píng)價(jià)的標(biāo)準(zhǔn)。Gajane和Pechenizkiy [22]對(duì)相關(guān)文獻(xiàn)中如何定義并形式化預(yù)測(cè)任務(wù)的公平性進(jìn)行了調(diào)查。以下列出了AI公平性的主要定義。

    (1)隱式的公平。只要在基于AI的決策過(guò)程中未明確使用被保護(hù)的屬性,AI算法就是公平的。例如,智能欺詐檢測(cè)系統(tǒng)應(yīng)首先從其特征集中排除敏感屬性,如種族和性別,然后再進(jìn)行風(fēng)險(xiǎn)評(píng)估。盡管這種簡(jiǎn)單且盲目的方法在某些情況下可能會(huì)起作用,但它有一個(gè)非常嚴(yán)重的局限性,即排除相關(guān)屬性可能會(huì)降低預(yù)測(cè)性能,而且從長(zhǎng)遠(yuǎn)來(lái)看,其產(chǎn)生的結(jié)果的有效性要低于屬性關(guān)注預(yù)測(cè)法。

    (2)群體公平。群體公平要求AI算法針對(duì)基于特定屬性區(qū)分的用戶群體要做出相同概率的決策。群體公平有以下幾種類(lèi)型,包括人口結(jié)構(gòu)均等、概率均等和機(jī)會(huì)均等。此類(lèi)公平的定義之所以具有吸引力,是因?yàn)樗患俣ㄓ?xùn)練數(shù)據(jù)具有任何特殊屬性,并且很容易被驗(yàn)證。

    (3)個(gè)體公平。如果兩個(gè)人具有相似的屬性,則AI算法應(yīng)該提出相似的決策。

    (4)反事實(shí)公平。在許多決策場(chǎng)景中,受保護(hù)的屬性(如種族和性別群體)可能對(duì)預(yù)測(cè)結(jié)果產(chǎn)生因果性影響。所以,“隱式的公平”度量標(biāo)準(zhǔn)可能會(huì)導(dǎo)致產(chǎn)生群體差異,而這正是該度量指標(biāo)試圖要避免的。為了減輕這種固有的偏見(jiàn),Kusner等[23]利用因果框架來(lái)描述受保護(hù)的屬性和數(shù)據(jù)之間的關(guān)系,從而給出了反事實(shí)公平的定義。這種公平性的定義還提供了一種用于解釋偏見(jiàn)原因的機(jī)制。

    當(dāng)前,關(guān)于哪種公平性定義最合適尚無(wú)共識(shí),甚至在某些情況下,這些定義彼此不兼容。如何為特定情況下的機(jī)器學(xué)習(xí)選擇適當(dāng)?shù)墓綐?biāo)準(zhǔn),并在充分考慮社會(huì)背景的情況下設(shè)計(jì)公平的智能決策算法,仍是一個(gè)尚待解決的問(wèn)題。

    除了眾多公平性定義外,研究人員還介紹了不同的偏差處理算法,用以解決AI模型生命周期不同階段的公平性問(wèn)題。例如,Bolukbasi等 [24]設(shè)計(jì)了一種去偏差方法,該方法可從自然語(yǔ)言處理常用的詞嵌入中消除性別偏見(jiàn)。上海交通大學(xué)的研究人員[25]提出,在獎(jiǎng)勵(lì)機(jī)制中使用社會(huì)福利函數(shù)對(duì)公平性進(jìn)行編碼,并在深度強(qiáng)化學(xué)習(xí)的框架內(nèi)解決資源分配問(wèn)題的公平性。

    大型AI公司正在積極開(kāi)發(fā)公平性評(píng)估和去偏見(jiàn)工具,用以促進(jìn)在真實(shí)智能系統(tǒng)中實(shí)施AI公平性。Google發(fā)布了名為What-If的交互式可視化工具,該工具使數(shù)據(jù)科學(xué)家能夠以直觀的方式檢查復(fù)雜的機(jī)器學(xué)習(xí)模型。它集成了一些公平性指標(biāo),如隱式群體、機(jī)會(huì)均等和人口均等,用以評(píng)估和診斷機(jī)器學(xué)習(xí)模型的公平性。IBM創(chuàng)建了一個(gè)可擴(kuò)展的開(kāi)源工具包AI Fairness 360,用于處理算法的偏差[26]。該軟件包在數(shù)據(jù)集和模型中集成了一套全面的公平標(biāo)準(zhǔn)和去偏差算法。

    3. 中外AI倫理原則與治理技術(shù)發(fā)展對(duì)比

    在本節(jié)中,我們將比較中國(guó)和其他國(guó)家在發(fā)展AI倫理原則和治理技術(shù)方面所開(kāi)展的研究工作。從政府和機(jī)構(gòu)的角度來(lái)看,中國(guó)的政府部門(mén)和企業(yè)在建立AI倫理原則和促進(jìn)AI向善的認(rèn)知方面采取了積極的舉措。從學(xué)術(shù)研究和產(chǎn)業(yè)發(fā)展的角度來(lái)看,中國(guó)研究人員和從業(yè)人員一直積極與國(guó)際同行齊頭并進(jìn)地開(kāi)發(fā)AI治理技術(shù)。

    3.1. 政府與機(jī)構(gòu)的視角

    世界上的主要經(jīng)濟(jì)大國(guó)已經(jīng)發(fā)布了他們的AI倫理原則和治理法規(guī)。歐盟在2018年發(fā)布了GDPR。2019年4月,歐盟AI高級(jí)別專(zhuān)家組(High-Level Expert Group)提出了《可信賴AI的倫理原則》(Ethics Guidelines for Trustworthy AI)[27]。2019年,美國(guó)政府發(fā)布了《維持美國(guó)AI領(lǐng)先地位的行政命令》(Executive Order on Maintaining American Leadership in Artificial Intelligence),并要求美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology, NIST)為制定關(guān)于AI的相關(guān)技術(shù)標(biāo)準(zhǔn)進(jìn)行計(jì)劃,這些標(biāo)準(zhǔn)旨在規(guī)范開(kāi)發(fā)可靠、魯棒和可信賴的AI系統(tǒng) [28]。與歐盟和美國(guó)一樣,中國(guó)是在全國(guó)范圍內(nèi)發(fā)起AI治理和倫理倡議的主要國(guó)家之一。聯(lián)合國(guó)也正在推進(jìn)AI倫理方面的國(guó)際政策的制定,并在2019年3月聯(lián)合國(guó)教科文組織(UNESCO)舉辦的AI會(huì)議上宣布了其對(duì)待AI的人文主義態(tài)度,它強(qiáng)調(diào)“以具有人類(lèi)價(jià)值觀的AI實(shí)現(xiàn)可持續(xù)發(fā)展”。但是,目前多國(guó)政府尚未采取任何聯(lián)合行動(dòng)來(lái)推動(dòng)落實(shí)。

    此外,大型科技公司,如谷歌、亞馬遜和微軟,以及中國(guó)的百度、阿里巴巴和騰訊,一直都在積極參與國(guó)內(nèi)外的AI倫理和治理的相關(guān)工作。騰訊在2018年宣布了AI的ARCC(“可用、可靠、可理解、可控制”)原則,并在2019年發(fā)布了數(shù)字社會(huì)中關(guān)于AI倫理的報(bào)告[29]。百度加入了AI合作伙伴聯(lián)盟(Partnership on AI)[30],這是一個(gè)由AI行業(yè)的主要參與者組成的國(guó)際聯(lián)盟,其任務(wù)旨在建立造福社會(huì)的AI系統(tǒng)。

    3.2. 學(xué)術(shù)研究與工業(yè)開(kāi)發(fā)的視角

    在第2節(jié)中,我們重點(diǎn)介紹了中國(guó)研究人員在AI倫理和新興治理技術(shù)方面的主要研究工作。在與AI倫理和治理技術(shù)相關(guān)的四個(gè)主要領(lǐng)域中,中國(guó)的研究人員與國(guó)際同行并駕齊驅(qū),開(kāi)發(fā)和設(shè)計(jì)出了新的模型、算法和工具。

    在數(shù)據(jù)保密和隱私方面,微眾銀行的FATE是聯(lián)邦學(xué)習(xí)的主要開(kāi)源項(xiàng)目之一。根據(jù)參考文獻(xiàn)[31],與谷歌TensorFlow的聯(lián)邦學(xué)習(xí)相比,F(xiàn)ATE是這些開(kāi)源項(xiàng)目中唯一支持分布式聯(lián)邦學(xué)習(xí)的框架。

    在AI的安全性和魯棒性方面,針對(duì)Szegedy等[32]提出的DNN的脆弱性,中國(guó)研究人員在對(duì)抗攻擊和防御方面開(kāi)發(fā)的新算法表現(xiàn)出色。在2017年NIPS會(huì)議上,Google Brain組織了一場(chǎng)關(guān)于對(duì)抗性攻擊和防御方法的國(guó)際競(jìng)賽,清華大學(xué)團(tuán)隊(duì)在攻擊性和防御性方面均獲得了第一名[33]。在這方面,也有國(guó)際合作的例子,中國(guó)的百度研究院與美國(guó)密歇根大學(xué)(University of Michigan)和伊利諾伊大學(xué)香檳分校(University of Illinois at Urbana-Champaign)的研究人員合作,發(fā)現(xiàn)了基于LiDAR的自動(dòng)駕駛檢測(cè)系統(tǒng)中DNN的安全漏洞[34]。

    在AI的透明度和可追溯性方面,來(lái)自學(xué)術(shù)界和工業(yè)界(如阿里巴巴和百度)的中國(guó)研究人員,積極提出了新的解釋方法和可視化工具。IBM、Facebook和微軟之類(lèi)的大公司已經(jīng)發(fā)布了他們的AI解釋工具。例如,IBM推出了AI Explainability 360,這個(gè)開(kāi)源軟件工具包集成了8種AI解釋方法和2種評(píng)估指標(biāo)[35]。相比于這些用于AI解釋的通用框架,中國(guó)企業(yè)應(yīng)努力將新算法和原型集成到開(kāi)源工具中,并使其在全球范圍內(nèi)廣泛使用。

    盡管AI的公平性是一個(gè)相對(duì)較新的話題,但它在AI學(xué)術(shù)界引起了許多關(guān)注。如第2.3節(jié)所述,對(duì)AI公平性問(wèn)題的研究通常需要跨學(xué)科的方法。2016年,ACM召開(kāi)了公平、問(wèn)責(zé)和透明大會(huì)(ACM Conference on Fairness, Accountability, and Transparency, ACM FAT),重點(diǎn)關(guān)注了AI的倫理問(wèn)題,如算法的透明度、機(jī)器學(xué)習(xí)的公平性以及偏見(jiàn)。這次會(huì)議有500多人參加,其中包括AI領(lǐng)域的專(zhuān)家以及倫理學(xué)、哲學(xué)、法律和公共政策等社會(huì)科學(xué)領(lǐng)域的學(xué)者。盡管ACM FAT已經(jīng)成為國(guó)際上研究人員討論AI公平性的主要會(huì)議之一,但中國(guó)的研究人員對(duì)其了解甚少。所以鼓勵(lì)中國(guó)AI學(xué)術(shù)界對(duì)這一新興領(lǐng)域進(jìn)行更多的跨學(xué)科研究是十分必要的。

    總之,各國(guó)政府、學(xué)術(shù)界和產(chǎn)業(yè)界均認(rèn)識(shí)到了AI倫理的重要性,并采取了積極的措施開(kāi)發(fā)AI的治理技術(shù)。中國(guó)是在全國(guó)范圍內(nèi)發(fā)起AI治理和倫理倡議的主要國(guó)家之一。我們認(rèn)為,為了國(guó)際社會(huì)的發(fā)展和我們?nèi)祟?lèi)共同的未來(lái),在這個(gè)新興領(lǐng)域加強(qiáng)國(guó)際合作是十分必要的。然而,目前這方面的國(guó)際合作還沒(méi)有得到各國(guó)的充分重視。

    4. AI治理研究中的重大挑戰(zhàn)

    為了滿足AI造福社會(huì)的基本原則,將倫理價(jià)值觀和法規(guī)納入當(dāng)前的AI治理框架還需要克服許多挑戰(zhàn)。本節(jié)中,我們將從以下幾個(gè)方面詳細(xì)闡述主要挑戰(zhàn):AI倫理決策框架、AI工程開(kāi)發(fā)流程和跨學(xué)科研究。

    4.1. 倫理決策框架

    倫理決策框架是AI治理研究的主要議題之一。香港科技大學(xué)和南洋理工大學(xué)的研究人員[36]在AI頂級(jí)會(huì)議上回顧了有關(guān)現(xiàn)有倫理決策框架的文章,并提出劃分這一主題的分類(lèi)法,將倫理決策框架劃分為4個(gè)部分,即道德困境探索、個(gè)體倫理決策框架、集體倫理決策框架和人機(jī)交互中的倫理。其他研究者[37]也回顧了關(guān)于通用AI(artificial general intelligence, AGI)的安全性研究,其中,倫理決策問(wèn)題研究通常采用強(qiáng)化學(xué)習(xí)的理論框架。他們假定理性智能體能夠通過(guò)與社會(huì)環(huán)境互動(dòng)產(chǎn)生的經(jīng)驗(yàn)來(lái)學(xué)習(xí)人類(lèi)的道德偏好和規(guī)則。因此,在強(qiáng)化學(xué)習(xí)的框架中,AI設(shè)計(jì)者可以將倫理價(jià)值觀指定為獎(jiǎng)勵(lì)函數(shù),以使智能體的目標(biāo)與其人類(lèi)同伴的目標(biāo)保持一致,并激發(fā)智能體以人類(lèi)的道德規(guī)范行事。在新興的研究領(lǐng)域,科學(xué)家們必須克服當(dāng)前數(shù)據(jù)驅(qū)動(dòng)型DNN模型的主要瓶頸,以實(shí)現(xiàn)人類(lèi)水平的自動(dòng)化倫理決策,并對(duì)部署到實(shí)際復(fù)雜道德環(huán)境中的這些理論框架進(jìn)行廣泛評(píng)估。

    4.1.1. 如何為倫理規(guī)則和價(jià)值觀建模

    在大多數(shù)情況下,我們很難通過(guò)直接設(shè)計(jì)數(shù)學(xué)函數(shù)來(lái)對(duì)道德價(jià)值觀建模,尤其針對(duì)所謂的道德困境,即人們只能在消極的選擇中做出艱難的決策。采取數(shù)據(jù)驅(qū)動(dòng)型和基于學(xué)習(xí)的方法使自主智能體從人類(lèi)經(jīng)驗(yàn)中學(xué)習(xí)適當(dāng)?shù)牡赖卤硎臼强尚械?。例如,麻省理工學(xué)院的研究人員發(fā)起了道德機(jī)器項(xiàng)目(Moral Machine project)[38],以眾包方式收集有關(guān)各種道德困境的數(shù)據(jù)集。但是,由于這種傾向于道德困境的眾包式自我報(bào)告方法沒(méi)有任何約束機(jī)制,它無(wú)法確保用戶的真實(shí)選擇,所以這種方法會(huì)不可避免地偏離實(shí)際的決策行為。

    4.1.2. 倫理決策中的常識(shí)和情境感知

    盡管現(xiàn)代AI技術(shù)飛速發(fā)展,但基于DNN的AI智能體大多只擅長(zhǎng)識(shí)別潛在模式,在開(kāi)放的和非結(jié)構(gòu)化的環(huán)境中,這樣的智能體不能很好地支持通用的認(rèn)知智能。在復(fù)雜的道德困境中,最先進(jìn)的AI智能體尚沒(méi)有足夠的認(rèn)知能力來(lái)感知正確的道德環(huán)境,所以其更無(wú)法通過(guò)常識(shí)性推理來(lái)成功地解決困境。目前的研究工作主要集中于探索博弈論道德模型或基于Bayesian的效用函數(shù)。美國(guó)杜克大學(xué)的研究人員[39]采用博弈論方法對(duì)道德困境建模,并使AI的道德價(jià)值觀與人類(lèi)的一致。MIT的研究人員[40]設(shè)計(jì)了一種計(jì)算模型,用于將道德困境描述為效用函數(shù),并引入了層次Bayesian模型來(lái)表示社會(huì)結(jié)構(gòu)和群體規(guī)范。雖然這些早期的嘗試可能不足以支持常見(jiàn)的道德場(chǎng)景,但它們至少為如何在AI倫理學(xué)領(lǐng)域綜合利用DNN和可解釋Bayesian推理模型這兩種方法指出了新的研究方向。

    4.1.3. 安全強(qiáng)化學(xué)習(xí)

    許多研究人員采用深度強(qiáng)化學(xué)習(xí)將道德約束建模為獎(jiǎng)勵(lì)函數(shù),并使用Markov決策過(guò)程進(jìn)行序貫決策。然而,深度強(qiáng)化學(xué)習(xí)還不夠成熟,要將其應(yīng)用于游戲之外的其他場(chǎng)景的話,我們還有很長(zhǎng)的路要走。其主要問(wèn)題之一在于強(qiáng)化學(xué)習(xí)過(guò)程的安全性。一個(gè)惡意的智能體能夠使用多種方法來(lái)欺騙獎(jiǎng)勵(lì)機(jī)制,規(guī)避道德監(jiān)管約束。例如,它可以利用獎(jiǎng)勵(lì)過(guò)程中存在的漏洞來(lái)獲得比預(yù)期更多的獎(jiǎng)勵(lì)。

    4.2. 在智能工程流程中整合AI倫理原則

    倫理原則應(yīng)被轉(zhuǎn)化為指導(dǎo)AI系統(tǒng)設(shè)計(jì)和實(shí)施的軟件規(guī)范。從軟件工程的角度來(lái)看,對(duì)AI模型的開(kāi)發(fā)和AI系統(tǒng)的運(yùn)行通常是按照一個(gè)有明確定義的生命周期(圖2)來(lái)組織,這一生命周期包括AI任務(wù)定義、數(shù)據(jù)收集和準(zhǔn)備、AI設(shè)計(jì)和模型訓(xùn)練、模型測(cè)試和驗(yàn)證、模型部署和應(yīng)用。AI隱私性、安全性和公平性的軟件規(guī)范的實(shí)施應(yīng)該貫穿于整個(gè)AI開(kāi)發(fā)和運(yùn)行一體化(DevOps)的生命周期。

    首先,我們需要在需求分析階段定義和分析AI任務(wù)。設(shè)計(jì)人員可以針對(duì)不同應(yīng)用場(chǎng)景中的定制要求,采用不同種類(lèi)的倫理規(guī)范和評(píng)估指標(biāo)。在數(shù)據(jù)收集和準(zhǔn)備階段,工程師必須通過(guò)消除已損壞的數(shù)據(jù)樣本和減少數(shù)據(jù)集的潛在偏差來(lái)確保訓(xùn)練數(shù)據(jù)集的有效性。利用平衡且正確的數(shù)據(jù)集,工程師可以根據(jù)倫理規(guī)范設(shè)計(jì)出恰當(dāng)?shù)哪P徒Y(jié)構(gòu),從而進(jìn)行模型訓(xùn)練。在設(shè)計(jì)和模型訓(xùn)練階段之后,工程師必須根據(jù)倫理規(guī)范所描述的公平性、魯棒性、透明性和任務(wù)績(jī)效方面的約束條件對(duì)初步模型進(jìn)行測(cè)試和驗(yàn)證。如果模型無(wú)法通過(guò)測(cè)試和驗(yàn)證階段,則工程師必須重新設(shè)計(jì)模型、重新檢查數(shù)據(jù)和重新訓(xùn)練模型。如果模型通過(guò)測(cè)試和驗(yàn)證階段,則該模型可以與其他軟件組件進(jìn)行集成并被部署在智能系統(tǒng)中。在系統(tǒng)運(yùn)行期間,工程師將不斷檢查該系統(tǒng)的運(yùn)行時(shí)行為,并判斷其是否符合道德要求。如果違反道德約束,工程師則必須進(jìn)一步改進(jìn)AI模型,并啟動(dòng)新一輪的AI DevOps生命周期。

    圖2 . AI DevOps生命周期。

    顯然,為了簡(jiǎn)化這種具有倫理意識(shí)的AI DevOps生命周期,我們需要開(kāi)發(fā)許多AI工程工具,并將其集成到一個(gè)全面而靈活的環(huán)境中,以供AI模型設(shè)計(jì)者和系統(tǒng)開(kāi)發(fā)人員使用。如前幾節(jié)所述,這些工具必須能實(shí)現(xiàn)核心技術(shù),如聯(lián)邦學(xué)習(xí)、對(duì)抗測(cè)試、形式化驗(yàn)證、公平性評(píng)估、可解釋、溯源和運(yùn)行時(shí)沙盒以及安全監(jiān)控。目前,這些工具(如AI Fairness 360)仍在開(kāi)發(fā)中,因此主要的AI DevOps平臺(tái)尚未將這些工具集成在一起,形成AI倫理原則所要求的主要功能。為了形成一個(gè)具內(nèi)置倫理支持的開(kāi)放的AI DevOps環(huán)境,更多的研究工作和工程開(kāi)發(fā)是必不可少的,在這個(gè)環(huán)境中,研究人員和工程師可以方便地探索新的AI道德技術(shù),系統(tǒng)地評(píng)估不同的指標(biāo),并針對(duì)各種應(yīng)用領(lǐng)域中不同的道德場(chǎng)景構(gòu)思新的解決方案。

    隨著AI治理技術(shù)的進(jìn)步,我們可以預(yù)見(jiàn),AI倫理方面的法規(guī)和標(biāo)準(zhǔn)將在企業(yè)、社區(qū)、國(guó)家和國(guó)際層面得到不斷的實(shí)施,以加強(qiáng)AI系統(tǒng)和產(chǎn)品的合規(guī)性。實(shí)際上,全球AI標(biāo)準(zhǔn)化研究工作已經(jīng)開(kāi)展了好多年。例如,國(guó)際標(biāo)準(zhǔn)化組織(ISO)的SC 24于2018年成立了AI可信度工作組,中國(guó)人工智能標(biāo)準(zhǔn)化總體組、專(zhuān)家咨詢組則于2019年發(fā)布了AI倫理風(fēng)險(xiǎn)分析白皮書(shū)[41]。AI工業(yè)界和標(biāo)準(zhǔn)化組織的共同努力將進(jìn)一步提高人們對(duì)AI倫理問(wèn)題的認(rèn)識(shí),并在AI工業(yè)界和研究社區(qū)加速道德價(jià)值觀在智能系統(tǒng)和產(chǎn)品中的集成。

    4.3. AI治理的跨學(xué)科研究

    AI系統(tǒng)是復(fù)雜且先進(jìn)的社會(huì)性技術(shù)系統(tǒng),通常涉及機(jī)器學(xué)習(xí)模型、支撐軟件組件和社會(huì)組織。來(lái)自多個(gè)學(xué)科的研究人員需要對(duì)AI進(jìn)行社會(huì)系統(tǒng)分析[42],以理解AI在不同社會(huì)、文化和政治環(huán)境下所帶來(lái)的影響。這樣的社會(huì)系統(tǒng)分析需要跨學(xué)科的研究方法,需要充分利用哲學(xué)、法學(xué)和社會(huì)學(xué)以及其他學(xué)科的相關(guān)研究成果。通過(guò)多學(xué)科研究,AI設(shè)計(jì)者和開(kāi)發(fā)人員可以與法學(xué)專(zhuān)家和社會(huì)學(xué)專(zhuān)家合作,對(duì)智能系統(tǒng)的道德方面進(jìn)行整體建模和分析,用以評(píng)估可能對(duì)各方產(chǎn)生的影響,并在AI DevOps的各個(gè)階段和狀態(tài)中處理道德問(wèn)題。

    毫無(wú)疑問(wèn),對(duì)社會(huì)性技術(shù)工程來(lái)說(shuō),這種跨學(xué)科的和整體的分析方法要求AI開(kāi)發(fā)人員與具有其他領(lǐng)域?qū)I(yè)知識(shí)的合作伙伴進(jìn)行深入合作。盡管中國(guó)的計(jì)算機(jī)科學(xué)、哲學(xué)、法學(xué)和社會(huì)學(xué)領(lǐng)域的研究人員對(duì)AI倫理學(xué)的認(rèn)知日益提高,但他們的大部分研究工作仍在各自的軌道上進(jìn)行,尚未完全協(xié)同起來(lái)去解決上述重大挑戰(zhàn)。因此,我們認(rèn)為將所有相關(guān)學(xué)科的專(zhuān)家召集在一起是至關(guān)重要的,并針對(duì)具有明確目標(biāo)的AI倫理問(wèn)題開(kāi)展工作。首先,我們需要根據(jù)公認(rèn)的AI倫理原則,在自動(dòng)駕駛、智能法院和金融貸款決策等應(yīng)用中確定關(guān)鍵和典型的道德場(chǎng)景,并要求跨學(xué)科團(tuán)隊(duì)提出新的研究思路和解決方案。在這些場(chǎng)景中,我們要適當(dāng)?shù)貙?duì)復(fù)雜社會(huì)環(huán)境進(jìn)行抽象并將其描述為AI倫理規(guī)范。其次,我們應(yīng)該創(chuàng)建一個(gè)開(kāi)放和通用的平臺(tái)來(lái)促進(jìn)AI倫理的跨學(xué)科研究。這樣的平臺(tái)將極大地方便來(lái)自不同背景的研究人員分享他們的見(jiàn)解和工作,并比較不同的技術(shù)框架和道德標(biāo)準(zhǔn),以構(gòu)建具有道德價(jià)值觀和準(zhǔn)則的智能機(jī)器。

    5. 結(jié)論

    AI的快速發(fā)展和部署預(yù)示著人類(lèi)社會(huì)即將發(fā)生根本性轉(zhuǎn)變。這將是建設(shè)人類(lèi)命運(yùn)共同體和促進(jìn)自然與社會(huì)可持續(xù)發(fā)展的絕佳機(jī)會(huì)。但是如果沒(méi)有足夠的有效治理手段和規(guī)章制度,這一轉(zhuǎn)變也有可能會(huì)造成前所未有的消極影響。為了確保這些轉(zhuǎn)變?cè)谕耆谌胛覀兊纳钪澳茉旄H祟?lèi),我們必須建立可靠且可行的AI治理框架,用以根據(jù)人類(lèi)道德和價(jià)值觀來(lái)約束AI開(kāi)發(fā)者。這樣,我們才能讓AI變得可追責(zé)且值得信賴,同時(shí)增強(qiáng)公眾對(duì)AI技術(shù)和系統(tǒng)的信任。

    本文介紹了中國(guó)在發(fā)展AI治理理論和技術(shù)方面正在開(kāi)展的工作。許多中國(guó)研究人員正在積極開(kāi)展研究,以解決當(dāng)前AI的倫理問(wèn)題。為了克服數(shù)據(jù)驅(qū)動(dòng)型AI的保密性問(wèn)題,中國(guó)的大學(xué)和企業(yè)的科研團(tuán)隊(duì)正努力開(kāi)發(fā)聯(lián)邦學(xué)習(xí)技術(shù)。為了確保DNN模型的安全性和魯棒性,研究人員在對(duì)抗性測(cè)試和形式化驗(yàn)證中提出了新的算法。此外,一些研究團(tuán)隊(duì)還在研究可解釋AI、溯源和取證領(lǐng)域的有效框架。這些研究工作目前仍處于起步階段,有待進(jìn)一步加強(qiáng),從而為將來(lái)的廣泛應(yīng)用和實(shí)踐提供成熟的解決方案。

    我們建議采取以下行動(dòng)來(lái)推進(jìn)當(dāng)前有關(guān)AI治理的倡議。第一,政府、基金會(huì)和企業(yè)應(yīng)開(kāi)展跨學(xué)科、跨行業(yè)和跨國(guó)合作,從而在AI倫理原則方面達(dá)成共識(shí)。第二,政府、基金會(huì)和企業(yè)必須加強(qiáng)AI治理技術(shù)的協(xié)作研發(fā),以跟上AI快速發(fā)展的步伐。第三,開(kāi)發(fā)具有內(nèi)置倫理約束相關(guān)工具的開(kāi)放式AI DevOps平臺(tái),以支持不同AI系統(tǒng)的相關(guān)人員來(lái)評(píng)估AI系統(tǒng)的功能和合法性。第四,明確定義具有重大社會(huì)影響的AI倫理情景,以便來(lái)自不同學(xué)科的專(zhuān)家能夠共同應(yīng)對(duì)AI倫理挑戰(zhàn)。最后,我們必須積極促進(jìn)對(duì)在研發(fā)、應(yīng)用和管理環(huán)節(jié)的每個(gè)AI利益相關(guān)者的倫理教育,以顯著提高他們的AI倫理意識(shí)。

    Compliance with ethics guidelines

    Wenjun Wu, Tiejun Huang, and Ke Gong declare that they have no conflicts of interest or financial conflicts to disclose.

    猜你喜歡
    透明隱私保密
    多措并舉筑牢安全保密防線
    《信息安全與通信保密》征稿函
    數(shù)據(jù)安全事件頻發(fā) “隱私”何處安放?
    新形勢(shì)下個(gè)人信息隱私保護(hù)研究
    室內(nèi)窗簾裝飾性探析
    戲劇之家(2016年22期)2016-11-30 17:18:18
    淺議隱私權(quán)的邊界
    “透明”麥當(dāng)勞的網(wǎng)絡(luò)公關(guān)之道
    權(quán)力運(yùn)行“透明”化 企業(yè)經(jīng)營(yíng)“陽(yáng)光”化
    論中國(guó)共產(chǎn)黨的保密觀
    保密
    乐至县| 澎湖县| 冷水江市| 鲜城| 德江县| 清涧县| 三都| 德州市| 大渡口区| 天水市| 东台市| 乌拉特后旗| 屏山县| 高州市| 佛山市| 宝鸡市| 遂平县| 亚东县| 黄山市| 霍林郭勒市| 大安市| 富宁县| 萝北县| 彭州市| 来凤县| 甘洛县| 专栏| 临邑县| 内黄县| 阆中市| 重庆市| 金昌市| 嘉定区| 青田县| 开化县| 淮滨县| 磐石市| 濉溪县| 宜君县| 大竹县| 巴东县|