吳文峻*,黃鐵軍,龔克
a State Key Laboratory of Software Development Environment, Beihang University, Beijing 100191, China
b School of Electronics Engineering and Computer Science, Peking University, Beijing 100871, China
c Chinese Institute of New Generation Artificial Intelligence Development Strategie, Nankai University, Tianjin 300071, China
隨著新一代人工智能(AI)算法和產(chǎn)品的快速開(kāi)發(fā)和部署,AI在各個(gè)領(lǐng)域發(fā)揮著越來(lái)越重要的作用,并對(duì)現(xiàn)代社會(huì)結(jié)構(gòu)產(chǎn)生了重大影響。AI模型和算法已被廣泛應(yīng)用于各種決策場(chǎng)景,如刑事審判、交通控制、金融貸款和醫(yī)療診斷。這種基于AI的自動(dòng)決策系統(tǒng)得到不斷的推廣和應(yīng)用,正在從安全性和公平性等方面帶來(lái)潛在的風(fēng)險(xiǎn)。
例如,當(dāng)前自動(dòng)駕駛系統(tǒng)的安全性引發(fā)了人們的關(guān)注。2015年,中國(guó)的一輛特斯拉汽車(chē)發(fā)生了致命的事故,原因是汽車(chē)的自動(dòng)駕駛系統(tǒng)未能識(shí)別出路上的清掃車(chē),從而導(dǎo)致其沒(méi)有執(zhí)行正確的操作。在智能司法場(chǎng)景中,司法人員根據(jù)囚犯行為特征,采用智能算法來(lái)決定是否授予其假釋許可。有人指出,這種算法可能會(huì)基于種族和文化背景做出有偏見(jiàn)和不公平的決定。在金融場(chǎng)景中,基于AI的數(shù)字貸款算法可能會(huì)因?yàn)橛衅?jiàn)的判斷而拒絕某些人的貸款申請(qǐng)。政府機(jī)構(gòu)、學(xué)術(shù)界和工業(yè)界都意識(shí)到了AI應(yīng)用的安全性和公平性等問(wèn)題,而且對(duì)AI應(yīng)用的治理也成為了越來(lái)越重要的議題,所以我們必須采取有效措施來(lái)減輕與AI相關(guān)的一些潛在風(fēng)險(xiǎn)。
如今,許多國(guó)家的政府部門(mén)、研究機(jī)構(gòu)和企業(yè)已經(jīng)公布了他們的AI倫理準(zhǔn)則、原則和建議。為了在當(dāng)前的AI系統(tǒng)和產(chǎn)品中實(shí)施這些準(zhǔn)則、原則和建議,開(kāi)發(fā)AI治理技術(shù)將至關(guān)重要,需要深入研究聯(lián)邦學(xué)習(xí)、可解釋AI、嚴(yán)格的AI安全測(cè)試和驗(yàn)證以及AI倫理評(píng)估等方法。這些技術(shù)仍在高速發(fā)展期,而且也不夠成熟,所以無(wú)法被廣泛應(yīng)用于商業(yè)場(chǎng)景。主要的技術(shù)障礙來(lái)源于現(xiàn)代AI研究所面臨的基本挑戰(zhàn),如人類(lèi)層面的道德認(rèn)知、常識(shí)性的道德推理和多學(xué)科AI倫理工程。本文旨在從中國(guó)的角度對(duì)AI倫理原則和正在進(jìn)行的相關(guān)研究工作進(jìn)行總體概述。
本文的其余部分安排如下:第二部分介紹了政府機(jī)構(gòu)和組織發(fā)布的倫理原則,并重點(diǎn)介紹了中國(guó)研究人員在AI治理方面的主要研究成果;第三部分比較了中國(guó)與其他國(guó)家在AI倫理原則和治理技術(shù)發(fā)展方面的差異;第四部分討論了AI治理研究中的巨大挑戰(zhàn),并提出了未來(lái)的研究方向。
2017年中國(guó)發(fā)布的《新一代人工智能發(fā)展戰(zhàn)略規(guī)劃》(Development Plan of the New Generation Artificial Intelligence)強(qiáng)調(diào),必須認(rèn)真管理好AI的技術(shù)屬性和社會(huì)屬性,以確保AI的可靠性。2019年,中國(guó)科技部成立了國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì),并發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》 [1]。北京智源人工智能研究院(Beijing Academy of Artificial Intelligence, BAAI)也發(fā)布了《人工智能北京共識(shí)》[2],就推進(jìn)AI的研發(fā)、使用、治理和長(zhǎng)遠(yuǎn)規(guī)劃提出倡議,以支持實(shí)現(xiàn)對(duì)人類(lèi)和自然環(huán)境有益的AI。在參考文獻(xiàn) [3]中,來(lái)自BAAI的研究人員收集了20多個(gè)關(guān)于AI倫理原則的提議,并對(duì)這些提議的文本內(nèi)容進(jìn)行了主題詞分析。他們確定了提議中共同提到的關(guān)鍵詞——隱私、保密、安全、透明、問(wèn)責(zé)和公平。
(1)保密性和隱私性:AI系統(tǒng)應(yīng)該是保密的且尊重個(gè)人隱私。
(2)安全性和可靠性:AI系統(tǒng)應(yīng)能可靠并安全地運(yùn)行。
表1 AI倫理原則和治理技術(shù)
(3)透明度:AI系統(tǒng)應(yīng)該是可以理解的。
(4)問(wèn)責(zé)制:AI系統(tǒng)應(yīng)該有問(wèn)責(zé)制。
(5)公平性:AI系統(tǒng)應(yīng)該公平對(duì)待所有人。
這些通用原則得到了全球AI領(lǐng)域的研究人員、從業(yè)人員和監(jiān)管人員的廣泛認(rèn)可。這些原則不僅反映了我們?nèi)祟?lèi)社會(huì)的友好和道德信念,而且也需要可行的和全面的技術(shù)框架及解決方案來(lái)實(shí)現(xiàn)AI模型、算法和產(chǎn)品中的倫理約束。表1列舉了與AI倫理相關(guān)的新興技術(shù),這些技術(shù)在支撐AI的有效治理方面有很大的潛力。
數(shù)據(jù)安全是AI倫理原則中最基本、最常見(jiàn)的要求。各國(guó)政府正在制定保護(hù)數(shù)據(jù)安全和隱私的法律。例如,歐盟于2018年實(shí)施了《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation, GDPR),中國(guó)也于2017年頒布了《中華人民共和國(guó)網(wǎng)絡(luò)安全法》(Cybersecurity Law of the People's Republic of China)。這些法規(guī)的建立旨在保護(hù)用戶的個(gè)人隱私,并給如今被廣泛使用的數(shù)據(jù)驅(qū)動(dòng)型AI的開(kāi)發(fā)帶來(lái)新的挑戰(zhàn)。
在數(shù)據(jù)驅(qū)動(dòng)型AI的范式中,開(kāi)發(fā)人員通常需要在中央存儲(chǔ)庫(kù)中收集大量用戶數(shù)據(jù),然后進(jìn)行后續(xù)的數(shù)據(jù)處理,包括數(shù)據(jù)清洗、融合和標(biāo)注,以儲(chǔ)備數(shù)據(jù)集用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN)模型。顯然,新公布的法規(guī)阻礙了公司直接從其云服務(wù)器上收集和保留用戶數(shù)據(jù)。
聯(lián)邦學(xué)習(xí)為AI公司提供了一個(gè)有效的解決方案,該方法能夠以合法的方式解決數(shù)據(jù)碎片和數(shù)據(jù)孤島的問(wèn)題。香港科技大學(xué)及其他研究機(jī)構(gòu)的研究人員[4]列出了三種聯(lián)邦學(xué)習(xí)模式,即橫向聯(lián)邦學(xué)習(xí)、縱向聯(lián)邦學(xué)習(xí)和聯(lián)邦遷移學(xué)習(xí)。當(dāng)數(shù)據(jù)共享的參與方各自具有不重疊的數(shù)據(jù)集,但數(shù)據(jù)樣本又具有相同的特征空間時(shí),我們可以使用橫向聯(lián)邦學(xué)習(xí)??v向聯(lián)邦學(xué)習(xí)適用于參與方的數(shù)據(jù)集指向同一組實(shí)體,但其特征屬性不同的情況。當(dāng)參與方的數(shù)據(jù)集不能滿足上述任意一個(gè)條件時(shí)(數(shù)據(jù)樣本既指向不同實(shí)體,又具有不同的特征空間),聯(lián)邦遷移學(xué)習(xí)可能是一個(gè)合理的選擇。通過(guò)這些模式,AI公司始終能夠?yàn)槎鄠€(gè)企業(yè)建立統(tǒng)一的模型,而無(wú)需在一個(gè)集中的地方共享它們的本地?cái)?shù)據(jù)。
聯(lián)邦學(xué)習(xí)不僅為機(jī)構(gòu)間分布式機(jī)器學(xué)習(xí)模型的協(xié)同開(kāi)發(fā)提供了一種用于隱私保護(hù)的技術(shù)解決方案,而且也為AI社會(huì)的可持續(xù)發(fā)展指明了一種新的商業(yè)模型,用于發(fā)展可信任的數(shù)字生態(tài)系統(tǒng)。通過(guò)在區(qū)塊鏈的基礎(chǔ)上運(yùn)行聯(lián)邦學(xué)習(xí),我們能夠利用智能合約和可信賴的利潤(rùn)激勵(lì)機(jī)制,使得數(shù)字生態(tài)系統(tǒng)中的成員主動(dòng)分享其數(shù)據(jù),并創(chuàng)建聯(lián)邦機(jī)器學(xué)習(xí)模型。
聯(lián)邦學(xué)習(xí)模式被中國(guó)越來(lái)越多的在線金融機(jī)構(gòu)所采用。微眾銀行(WeBank)已經(jīng)制定了一個(gè)關(guān)于聯(lián)邦學(xué)習(xí)的開(kāi)源項(xiàng)目,并向Linux基金會(huì)貢獻(xiàn)了聯(lián)邦A(yù)I技術(shù)使能器(federated AI technology enabler, FATE)框架。WeBank的AI研發(fā)團(tuán)隊(duì)[5]還啟動(dòng)了IEEE聯(lián)邦學(xué)習(xí)的標(biāo)準(zhǔn)化工作,并開(kāi)始起草體系結(jié)構(gòu)框架的定義和應(yīng)用指南。
在計(jì)算機(jī)科學(xué)和軟件工程領(lǐng)域,為確保大型復(fù)雜信息系統(tǒng)的安全性和可信度,研究人員已經(jīng)進(jìn)行了數(shù)十年的研究。隨著信息系統(tǒng)的規(guī)模和復(fù)雜性的增加,如何以經(jīng)濟(jì)高效且無(wú)差錯(cuò)的方式設(shè)計(jì)和實(shí)施一個(gè)安全和可信賴的系統(tǒng),成為計(jì)算機(jī)科學(xué)和軟件工程領(lǐng)域面臨的一個(gè)巨大挑戰(zhàn)。當(dāng)自主系統(tǒng)中被部署的AI組件與不確定的動(dòng)態(tài)環(huán)境交互時(shí),會(huì)不可避免地使上述問(wèn)題變得更加困難。由于先進(jìn)的AI模型采用了非常復(fù)雜的DNN和端到端的訓(xùn)練方法,這種黑箱性質(zhì)不僅妨礙了開(kāi)發(fā)人員充分理解其結(jié)構(gòu)和行為,而且還會(huì)因惡意輸入而給模型引入潛在漏洞。因此,AI治理框架必須綜合多種技術(shù),以使AI工程師能夠?qū)I行為進(jìn)行系統(tǒng)的評(píng)估,并提供能夠建立公眾對(duì)AI系統(tǒng)信任的證據(jù)。圖1顯示了AI行為分析和評(píng)估框架的主要構(gòu)建模塊,包括測(cè)試、驗(yàn)證、解釋和溯源。
這些新興的AI治理技術(shù)都是從不同方面來(lái)檢查和評(píng)估AI行為和內(nèi)部工作機(jī)制的。AI測(cè)試通常側(cè)重于評(píng)估智能模型的輸入和輸出之間的關(guān)系,以確保AI的功能和行為能夠符合所需的目標(biāo)和倫理要求。AI驗(yàn)證采用嚴(yán)格的數(shù)學(xué)模型來(lái)證明AI算法的可靠性。AI解釋旨在開(kāi)發(fā)新型技術(shù)來(lái)分析和揭示復(fù)雜的DNN模型的內(nèi)部工作機(jī)制。AI溯源可以跟蹤訓(xùn)練數(shù)據(jù)、模型、算法和決策過(guò)程,以支持審計(jì)和責(zé)任認(rèn)定。
這些AI治理技術(shù)的集成是非常重要的,因?yàn)樗鼘⑺械睦嫦嚓P(guān)者聚集在一起,去理解、檢查和審計(jì)一個(gè)自主且智能的系統(tǒng)。對(duì)于受AI系統(tǒng)決策影響的用戶,他們有權(quán)了解和理解算法決策背后的原理。對(duì)于負(fù)責(zé)AI系統(tǒng)開(kāi)發(fā)和維護(hù)的工程師,他們必須依靠AI測(cè)試、驗(yàn)證和解釋工具來(lái)診斷AI算法的潛在問(wèn)題,從而采取必要的補(bǔ)救措施和改進(jìn)措施。對(duì)于負(fù)責(zé)監(jiān)督AI工程流程和產(chǎn)品質(zhì)量的管理人員,他們應(yīng)利用這些工具來(lái)查詢流程數(shù)據(jù)、指導(dǎo)倫理標(biāo)準(zhǔn)的實(shí)施以及降低系統(tǒng)的倫理和質(zhì)量風(fēng)險(xiǎn)。對(duì)于調(diào)查事故或法律案件中AI系統(tǒng)責(zé)任的政府審計(jì)人員,他們必須利用AI溯源技術(shù)來(lái)跟蹤系統(tǒng)演化的脈絡(luò)并收集相關(guān)證據(jù)。
2.2.1. AI的安全性和魯棒性
圖1 . 可信賴AI的測(cè)試、驗(yàn)證、解釋和溯源。
近年來(lái),DNN的對(duì)抗樣本已成為機(jī)器學(xué)習(xí)領(lǐng)域非常熱門(mén)的研究課題。DNN模型容易受到對(duì)抗樣本的攻擊,在這些樣本中,帶有細(xì)微擾動(dòng)的輸入會(huì)誤導(dǎo)DNN,使其產(chǎn)生錯(cuò)誤的結(jié)果。例如,黑客可以惡意地在行人過(guò)馬路圖像上添加少量擾動(dòng),從而生成相應(yīng)的對(duì)抗樣本來(lái)欺騙DNN,使其忽略路上的行人。因此,當(dāng)實(shí)際的深度學(xué)習(xí)應(yīng)用程序(如自動(dòng)駕駛和人臉識(shí)別系統(tǒng))受到嚴(yán)重?fù)p害時(shí),對(duì)抗樣本可能會(huì)導(dǎo)致經(jīng)濟(jì)損失或致命事故。目前主要采用對(duì)抗測(cè)試和形式驗(yàn)證這兩種方法來(lái)解決AI的安全問(wèn)題,并確保AI系統(tǒng)在干擾下的魯棒性。
(1)用于AI安全的對(duì)抗測(cè)試。已經(jīng)有許多科研人員對(duì)如何通過(guò)生成對(duì)抗樣本來(lái)測(cè)試DNN模型進(jìn)行了研究。生成測(cè)試用例的一種最直接的方法是,在不影響場(chǎng)景的整體可視圖像情況下直接干擾原始輸入。但當(dāng)黑客無(wú)法訪問(wèn)輸入信號(hào)源且無(wú)法在輸入圖像中添加擾動(dòng)時(shí),此方法有其局限性。因此研究人員開(kāi)始探索基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的對(duì)抗樣本的生成,該對(duì)抗樣本由微小的圖像補(bǔ)丁組成,這些補(bǔ)丁可以被很容易地貼在物體(如戶外的電線桿或人的帽子)表面上,從而影響圖像輸入[6]。
北京航空航天大學(xué)的研究人員[7]提出了一種感知敏感的GAN,該GAN可以增強(qiáng)對(duì)抗補(bǔ)丁的視覺(jué)保真度,并在安全性測(cè)試下為神經(jīng)網(wǎng)絡(luò)生成更真實(shí)的測(cè)試樣本。在2018年國(guó)際NeurIPS(Neural Information Processing Systems)大會(huì)上,清華大學(xué)的研究人員發(fā)表了兩篇有關(guān)DNN網(wǎng)絡(luò)防御對(duì)抗樣本算法的論文[8,9]。其中一篇提出了一種新的基于對(duì)抗擾動(dòng)的正則化方法,即深度防御法(deep defense),用于訓(xùn)練DNN來(lái)對(duì)抗可能的攻擊;另一篇?jiǎng)t建議通過(guò)最小化訓(xùn)練過(guò)程中的反向交叉熵來(lái)檢測(cè)可能存在的對(duì)抗樣本。浙江大學(xué)和阿里巴巴的研究人員實(shí)施了一個(gè)以DEEPSEC命名的DNN測(cè)試平臺(tái)[10],該平臺(tái)集成了十多種最先進(jìn)的攻擊和防御算法。該平臺(tái)使研究人員和從業(yè)人員既能夠評(píng)估DNN模型的安全性,又可以評(píng)估攻擊和防御算法的有效性。
(2)DNN模型的形式化驗(yàn)證。因?yàn)檩斎霐_動(dòng)的選擇組合情況極其龐大,對(duì)抗測(cè)試無(wú)法列舉出給定一組輸入的所有可能輸出。作為對(duì)抗測(cè)試方法的補(bǔ)充,研究人員引入了形式驗(yàn)證方法,以此來(lái)證明DNN模型的輸出與所有可能輸入的規(guī)范嚴(yán)格一致。但是,對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行形式驗(yàn)證是一個(gè)非常困難的問(wèn)題。已有研究表明,即使是驗(yàn)證關(guān)于神經(jīng)網(wǎng)絡(luò)行為的簡(jiǎn)單屬性也是一個(gè)NP(non-deterministic polynomial)完全問(wèn)題[11]。
形式化驗(yàn)證中遇到的主要困難主要來(lái)自于激活函數(shù)的非線性和復(fù)雜的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。為了解決神經(jīng)網(wǎng)絡(luò)中非線性帶來(lái)的問(wèn)題,最近的研究工作都集中在了分段線性形式的激活函數(shù)上。研究人員正在研究有效且可擴(kuò)展的驗(yàn)證方法,主要關(guān)注了輸出集的幾何邊界。對(duì)于DNN模型,基本上有兩種形式化的驗(yàn)證程序,即完整驗(yàn)證程序和不完整驗(yàn)證程序。完整的驗(yàn)證程序可以保證沒(méi)有誤報(bào),但可擴(kuò)展性有限,因?yàn)樗鼈儾捎昧擞?jì)算成本較高的方法,如可滿足性模理論(SMT)解決方案[12]。不完整的驗(yàn)證程序可能會(huì)產(chǎn)生誤報(bào),但其可擴(kuò)展性比完整的驗(yàn)證程序好。蘇黎世聯(lián)邦理工學(xué)院(ETH Zurich)的研究人員[13,14]基于抽象解釋提出了一種不完整的驗(yàn)證程序,其中基于形狀的抽象域被表示為非線性激活函數(shù)輸出的幾何邊界,以逼近DNN的無(wú)窮行為集。華東師范大學(xué)、中國(guó)科學(xué)院和其他相關(guān)機(jī)構(gòu)的研究人員[15,16]也介紹了他們基于線性規(guī)劃或符號(hào)傳播的形式化驗(yàn)證框架。
這些研究工作仍處于起步階段,目前對(duì)不同種類(lèi)的激活函數(shù)和神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)還沒(méi)有進(jìn)行過(guò)系統(tǒng)研究。盡管研究人員在形式化驗(yàn)證領(lǐng)域進(jìn)行了數(shù)十年的研究,但是由于深度學(xué)習(xí)的復(fù)雜性,可擴(kuò)展的驗(yàn)證方法在處理現(xiàn)代大規(guī)模的深度學(xué)習(xí)系統(tǒng)時(shí)尚不成熟。
2.2.2. AI的透明度和可追溯性
AI的透明度對(duì)于公眾在許多決策應(yīng)用中能夠理解和信任AI是至關(guān)重要的,如醫(yī)療診斷、貸款管理和法律執(zhí)行??山忉孉I有助于人們理解深度學(xué)習(xí)模型內(nèi)部復(fù)雜的工作原理,它可以將這些深度學(xué)習(xí)模型的推理形成人類(lèi)可以理解的解釋。隨著AI透明度的提高,人們將更加有信心去利用AI工具做出決策,并評(píng)估自主系統(tǒng)的合法性和可靠性。
研究人員正在研究如何構(gòu)建可解釋的DNN框架和分析工具。在這個(gè)研究方向上,多種方法已經(jīng)被提出用于支持模型理解。一些研究人員設(shè)計(jì)出了伴隨神經(jīng)網(wǎng)絡(luò),用于在DNN推理過(guò)程中生成自然語(yǔ)言解釋。另一種流行的方法被稱為L(zhǎng)IME [17],它試圖從原始的復(fù)雜模型中去構(gòu)造基于簡(jiǎn)單模型(如稀疏線性模型和決策樹(shù))的代理模型,用以近似原始模型的行為。上海交通大學(xué)及其他研究機(jī)構(gòu)的研究人員[18]提出了一種基于決策樹(shù)的LIME方法,該方法從語(yǔ)義層面定量解釋了預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)所做出的每個(gè)預(yù)測(cè)的基本原理。
信息可視化也被廣泛認(rèn)為是實(shí)現(xiàn)可解釋的DNN模型的一種有效方法。清華大學(xué)的研究人員[18]提出了交互式DNN可視化和分析工具,以支持模型的理解和診斷。利用對(duì)倫理價(jià)值觀的正確知識(shí)表示,這種視覺(jué)分析方法可以使AI工程師直觀地驗(yàn)證其DNN模型是否遵循了人類(lèi)的倫理原則。
與可解釋AI密切相關(guān)的另一個(gè)重要研究領(lǐng)域是AI溯源。它強(qiáng)調(diào)記錄、呈現(xiàn)和查詢各種與模型、算法和數(shù)據(jù)有關(guān)的歷史演化信息,以供將來(lái)進(jìn)行審計(jì)和取證分析。盡管我們已經(jīng)有了成熟的數(shù)據(jù)和信息溯源框架,但對(duì)AI溯源的研究還很少。南京大學(xué)和美國(guó)普渡大學(xué)聯(lián)合發(fā)表了一篇論文[20],該論文通過(guò)跟蹤內(nèi)部導(dǎo)數(shù)計(jì)算步驟,設(shè)計(jì)了AI算法的溯源計(jì)算系統(tǒng)。此方法可以幫助算法設(shè)計(jì)者診斷潛在問(wèn)題。
除了能夠促進(jìn)AI模型的開(kāi)發(fā)外,溯源技術(shù)在新興的AI司法鑒定研究中也發(fā)揮著重要作用。最近,DeepFake技術(shù)被濫用,該技術(shù)利用GAN生成了虛假的人臉圖像和視頻,從而對(duì)社會(huì)規(guī)范和安全造成了巨大威脅。許多研究人員正在開(kāi)發(fā)新的分類(lèi)方法,以檢測(cè)這些虛假的圖像并確保視覺(jué)內(nèi)容的可信度。例如,中國(guó)科學(xué)院自動(dòng)化研究所的研究人員[21]嘗試去改善DeepFake檢測(cè)算法的通用性,并提出了一種新的司法鑒定CNN模型。但是,僅憑這些努力還不足以擊敗DeepFake,因?yàn)榻苹脑O(shè)計(jì)者總是可以構(gòu)思出更好的算法來(lái)欺騙已知的檢測(cè)算法?;蛟S,我們應(yīng)該對(duì)原始圖像的可靠來(lái)源信息進(jìn)行補(bǔ)充,以提供必要的線索來(lái)驗(yàn)證圖像來(lái)源的合法性?;趨^(qū)塊鏈的溯源管理系統(tǒng)對(duì)建立一個(gè)可靠且可信賴的數(shù)字生態(tài)系統(tǒng)是有幫助的,在這個(gè)生態(tài)系統(tǒng)中我們可以跟蹤和驗(yàn)證數(shù)字資源的真實(shí)來(lái)源,從而徹底清除虛假圖像和視頻。
最近,公平性成為了評(píng)估AI算法的一種重要的非功能性特征。AI公平性研究的工作主要集中在評(píng)估不同群體之間或個(gè)人之間AI輸出的差異。研究人員提出了許多公平性評(píng)價(jià)的標(biāo)準(zhǔn)。Gajane和Pechenizkiy [22]對(duì)相關(guān)文獻(xiàn)中如何定義并形式化預(yù)測(cè)任務(wù)的公平性進(jìn)行了調(diào)查。以下列出了AI公平性的主要定義。
(1)隱式的公平。只要在基于AI的決策過(guò)程中未明確使用被保護(hù)的屬性,AI算法就是公平的。例如,智能欺詐檢測(cè)系統(tǒng)應(yīng)首先從其特征集中排除敏感屬性,如種族和性別,然后再進(jìn)行風(fēng)險(xiǎn)評(píng)估。盡管這種簡(jiǎn)單且盲目的方法在某些情況下可能會(huì)起作用,但它有一個(gè)非常嚴(yán)重的局限性,即排除相關(guān)屬性可能會(huì)降低預(yù)測(cè)性能,而且從長(zhǎng)遠(yuǎn)來(lái)看,其產(chǎn)生的結(jié)果的有效性要低于屬性關(guān)注預(yù)測(cè)法。
(2)群體公平。群體公平要求AI算法針對(duì)基于特定屬性區(qū)分的用戶群體要做出相同概率的決策。群體公平有以下幾種類(lèi)型,包括人口結(jié)構(gòu)均等、概率均等和機(jī)會(huì)均等。此類(lèi)公平的定義之所以具有吸引力,是因?yàn)樗患俣ㄓ?xùn)練數(shù)據(jù)具有任何特殊屬性,并且很容易被驗(yàn)證。
(3)個(gè)體公平。如果兩個(gè)人具有相似的屬性,則AI算法應(yīng)該提出相似的決策。
(4)反事實(shí)公平。在許多決策場(chǎng)景中,受保護(hù)的屬性(如種族和性別群體)可能對(duì)預(yù)測(cè)結(jié)果產(chǎn)生因果性影響。所以,“隱式的公平”度量標(biāo)準(zhǔn)可能會(huì)導(dǎo)致產(chǎn)生群體差異,而這正是該度量指標(biāo)試圖要避免的。為了減輕這種固有的偏見(jiàn),Kusner等[23]利用因果框架來(lái)描述受保護(hù)的屬性和數(shù)據(jù)之間的關(guān)系,從而給出了反事實(shí)公平的定義。這種公平性的定義還提供了一種用于解釋偏見(jiàn)原因的機(jī)制。
當(dāng)前,關(guān)于哪種公平性定義最合適尚無(wú)共識(shí),甚至在某些情況下,這些定義彼此不兼容。如何為特定情況下的機(jī)器學(xué)習(xí)選擇適當(dāng)?shù)墓綐?biāo)準(zhǔn),并在充分考慮社會(huì)背景的情況下設(shè)計(jì)公平的智能決策算法,仍是一個(gè)尚待解決的問(wèn)題。
除了眾多公平性定義外,研究人員還介紹了不同的偏差處理算法,用以解決AI模型生命周期不同階段的公平性問(wèn)題。例如,Bolukbasi等 [24]設(shè)計(jì)了一種去偏差方法,該方法可從自然語(yǔ)言處理常用的詞嵌入中消除性別偏見(jiàn)。上海交通大學(xué)的研究人員[25]提出,在獎(jiǎng)勵(lì)機(jī)制中使用社會(huì)福利函數(shù)對(duì)公平性進(jìn)行編碼,并在深度強(qiáng)化學(xué)習(xí)的框架內(nèi)解決資源分配問(wèn)題的公平性。
大型AI公司正在積極開(kāi)發(fā)公平性評(píng)估和去偏見(jiàn)工具,用以促進(jìn)在真實(shí)智能系統(tǒng)中實(shí)施AI公平性。Google發(fā)布了名為What-If的交互式可視化工具,該工具使數(shù)據(jù)科學(xué)家能夠以直觀的方式檢查復(fù)雜的機(jī)器學(xué)習(xí)模型。它集成了一些公平性指標(biāo),如隱式群體、機(jī)會(huì)均等和人口均等,用以評(píng)估和診斷機(jī)器學(xué)習(xí)模型的公平性。IBM創(chuàng)建了一個(gè)可擴(kuò)展的開(kāi)源工具包AI Fairness 360,用于處理算法的偏差[26]。該軟件包在數(shù)據(jù)集和模型中集成了一套全面的公平標(biāo)準(zhǔn)和去偏差算法。
在本節(jié)中,我們將比較中國(guó)和其他國(guó)家在發(fā)展AI倫理原則和治理技術(shù)方面所開(kāi)展的研究工作。從政府和機(jī)構(gòu)的角度來(lái)看,中國(guó)的政府部門(mén)和企業(yè)在建立AI倫理原則和促進(jìn)AI向善的認(rèn)知方面采取了積極的舉措。從學(xué)術(shù)研究和產(chǎn)業(yè)發(fā)展的角度來(lái)看,中國(guó)研究人員和從業(yè)人員一直積極與國(guó)際同行齊頭并進(jìn)地開(kāi)發(fā)AI治理技術(shù)。
世界上的主要經(jīng)濟(jì)大國(guó)已經(jīng)發(fā)布了他們的AI倫理原則和治理法規(guī)。歐盟在2018年發(fā)布了GDPR。2019年4月,歐盟AI高級(jí)別專(zhuān)家組(High-Level Expert Group)提出了《可信賴AI的倫理原則》(Ethics Guidelines for Trustworthy AI)[27]。2019年,美國(guó)政府發(fā)布了《維持美國(guó)AI領(lǐng)先地位的行政命令》(Executive Order on Maintaining American Leadership in Artificial Intelligence),并要求美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology, NIST)為制定關(guān)于AI的相關(guān)技術(shù)標(biāo)準(zhǔn)進(jìn)行計(jì)劃,這些標(biāo)準(zhǔn)旨在規(guī)范開(kāi)發(fā)可靠、魯棒和可信賴的AI系統(tǒng) [28]。與歐盟和美國(guó)一樣,中國(guó)是在全國(guó)范圍內(nèi)發(fā)起AI治理和倫理倡議的主要國(guó)家之一。聯(lián)合國(guó)也正在推進(jìn)AI倫理方面的國(guó)際政策的制定,并在2019年3月聯(lián)合國(guó)教科文組織(UNESCO)舉辦的AI會(huì)議上宣布了其對(duì)待AI的人文主義態(tài)度,它強(qiáng)調(diào)“以具有人類(lèi)價(jià)值觀的AI實(shí)現(xiàn)可持續(xù)發(fā)展”。但是,目前多國(guó)政府尚未采取任何聯(lián)合行動(dòng)來(lái)推動(dòng)落實(shí)。
此外,大型科技公司,如谷歌、亞馬遜和微軟,以及中國(guó)的百度、阿里巴巴和騰訊,一直都在積極參與國(guó)內(nèi)外的AI倫理和治理的相關(guān)工作。騰訊在2018年宣布了AI的ARCC(“可用、可靠、可理解、可控制”)原則,并在2019年發(fā)布了數(shù)字社會(huì)中關(guān)于AI倫理的報(bào)告[29]。百度加入了AI合作伙伴聯(lián)盟(Partnership on AI)[30],這是一個(gè)由AI行業(yè)的主要參與者組成的國(guó)際聯(lián)盟,其任務(wù)旨在建立造福社會(huì)的AI系統(tǒng)。
在第2節(jié)中,我們重點(diǎn)介紹了中國(guó)研究人員在AI倫理和新興治理技術(shù)方面的主要研究工作。在與AI倫理和治理技術(shù)相關(guān)的四個(gè)主要領(lǐng)域中,中國(guó)的研究人員與國(guó)際同行并駕齊驅(qū),開(kāi)發(fā)和設(shè)計(jì)出了新的模型、算法和工具。
在數(shù)據(jù)保密和隱私方面,微眾銀行的FATE是聯(lián)邦學(xué)習(xí)的主要開(kāi)源項(xiàng)目之一。根據(jù)參考文獻(xiàn)[31],與谷歌TensorFlow的聯(lián)邦學(xué)習(xí)相比,F(xiàn)ATE是這些開(kāi)源項(xiàng)目中唯一支持分布式聯(lián)邦學(xué)習(xí)的框架。
在AI的安全性和魯棒性方面,針對(duì)Szegedy等[32]提出的DNN的脆弱性,中國(guó)研究人員在對(duì)抗攻擊和防御方面開(kāi)發(fā)的新算法表現(xiàn)出色。在2017年NIPS會(huì)議上,Google Brain組織了一場(chǎng)關(guān)于對(duì)抗性攻擊和防御方法的國(guó)際競(jìng)賽,清華大學(xué)團(tuán)隊(duì)在攻擊性和防御性方面均獲得了第一名[33]。在這方面,也有國(guó)際合作的例子,中國(guó)的百度研究院與美國(guó)密歇根大學(xué)(University of Michigan)和伊利諾伊大學(xué)香檳分校(University of Illinois at Urbana-Champaign)的研究人員合作,發(fā)現(xiàn)了基于LiDAR的自動(dòng)駕駛檢測(cè)系統(tǒng)中DNN的安全漏洞[34]。
在AI的透明度和可追溯性方面,來(lái)自學(xué)術(shù)界和工業(yè)界(如阿里巴巴和百度)的中國(guó)研究人員,積極提出了新的解釋方法和可視化工具。IBM、Facebook和微軟之類(lèi)的大公司已經(jīng)發(fā)布了他們的AI解釋工具。例如,IBM推出了AI Explainability 360,這個(gè)開(kāi)源軟件工具包集成了8種AI解釋方法和2種評(píng)估指標(biāo)[35]。相比于這些用于AI解釋的通用框架,中國(guó)企業(yè)應(yīng)努力將新算法和原型集成到開(kāi)源工具中,并使其在全球范圍內(nèi)廣泛使用。
盡管AI的公平性是一個(gè)相對(duì)較新的話題,但它在AI學(xué)術(shù)界引起了許多關(guān)注。如第2.3節(jié)所述,對(duì)AI公平性問(wèn)題的研究通常需要跨學(xué)科的方法。2016年,ACM召開(kāi)了公平、問(wèn)責(zé)和透明大會(huì)(ACM Conference on Fairness, Accountability, and Transparency, ACM FAT),重點(diǎn)關(guān)注了AI的倫理問(wèn)題,如算法的透明度、機(jī)器學(xué)習(xí)的公平性以及偏見(jiàn)。這次會(huì)議有500多人參加,其中包括AI領(lǐng)域的專(zhuān)家以及倫理學(xué)、哲學(xué)、法律和公共政策等社會(huì)科學(xué)領(lǐng)域的學(xué)者。盡管ACM FAT已經(jīng)成為國(guó)際上研究人員討論AI公平性的主要會(huì)議之一,但中國(guó)的研究人員對(duì)其了解甚少。所以鼓勵(lì)中國(guó)AI學(xué)術(shù)界對(duì)這一新興領(lǐng)域進(jìn)行更多的跨學(xué)科研究是十分必要的。
總之,各國(guó)政府、學(xué)術(shù)界和產(chǎn)業(yè)界均認(rèn)識(shí)到了AI倫理的重要性,并采取了積極的措施開(kāi)發(fā)AI的治理技術(shù)。中國(guó)是在全國(guó)范圍內(nèi)發(fā)起AI治理和倫理倡議的主要國(guó)家之一。我們認(rèn)為,為了國(guó)際社會(huì)的發(fā)展和我們?nèi)祟?lèi)共同的未來(lái),在這個(gè)新興領(lǐng)域加強(qiáng)國(guó)際合作是十分必要的。然而,目前這方面的國(guó)際合作還沒(méi)有得到各國(guó)的充分重視。
為了滿足AI造福社會(huì)的基本原則,將倫理價(jià)值觀和法規(guī)納入當(dāng)前的AI治理框架還需要克服許多挑戰(zhàn)。本節(jié)中,我們將從以下幾個(gè)方面詳細(xì)闡述主要挑戰(zhàn):AI倫理決策框架、AI工程開(kāi)發(fā)流程和跨學(xué)科研究。
倫理決策框架是AI治理研究的主要議題之一。香港科技大學(xué)和南洋理工大學(xué)的研究人員[36]在AI頂級(jí)會(huì)議上回顧了有關(guān)現(xiàn)有倫理決策框架的文章,并提出劃分這一主題的分類(lèi)法,將倫理決策框架劃分為4個(gè)部分,即道德困境探索、個(gè)體倫理決策框架、集體倫理決策框架和人機(jī)交互中的倫理。其他研究者[37]也回顧了關(guān)于通用AI(artificial general intelligence, AGI)的安全性研究,其中,倫理決策問(wèn)題研究通常采用強(qiáng)化學(xué)習(xí)的理論框架。他們假定理性智能體能夠通過(guò)與社會(huì)環(huán)境互動(dòng)產(chǎn)生的經(jīng)驗(yàn)來(lái)學(xué)習(xí)人類(lèi)的道德偏好和規(guī)則。因此,在強(qiáng)化學(xué)習(xí)的框架中,AI設(shè)計(jì)者可以將倫理價(jià)值觀指定為獎(jiǎng)勵(lì)函數(shù),以使智能體的目標(biāo)與其人類(lèi)同伴的目標(biāo)保持一致,并激發(fā)智能體以人類(lèi)的道德規(guī)范行事。在新興的研究領(lǐng)域,科學(xué)家們必須克服當(dāng)前數(shù)據(jù)驅(qū)動(dòng)型DNN模型的主要瓶頸,以實(shí)現(xiàn)人類(lèi)水平的自動(dòng)化倫理決策,并對(duì)部署到實(shí)際復(fù)雜道德環(huán)境中的這些理論框架進(jìn)行廣泛評(píng)估。
4.1.1. 如何為倫理規(guī)則和價(jià)值觀建模
在大多數(shù)情況下,我們很難通過(guò)直接設(shè)計(jì)數(shù)學(xué)函數(shù)來(lái)對(duì)道德價(jià)值觀建模,尤其針對(duì)所謂的道德困境,即人們只能在消極的選擇中做出艱難的決策。采取數(shù)據(jù)驅(qū)動(dòng)型和基于學(xué)習(xí)的方法使自主智能體從人類(lèi)經(jīng)驗(yàn)中學(xué)習(xí)適當(dāng)?shù)牡赖卤硎臼强尚械?。例如,麻省理工學(xué)院的研究人員發(fā)起了道德機(jī)器項(xiàng)目(Moral Machine project)[38],以眾包方式收集有關(guān)各種道德困境的數(shù)據(jù)集。但是,由于這種傾向于道德困境的眾包式自我報(bào)告方法沒(méi)有任何約束機(jī)制,它無(wú)法確保用戶的真實(shí)選擇,所以這種方法會(huì)不可避免地偏離實(shí)際的決策行為。
4.1.2. 倫理決策中的常識(shí)和情境感知
盡管現(xiàn)代AI技術(shù)飛速發(fā)展,但基于DNN的AI智能體大多只擅長(zhǎng)識(shí)別潛在模式,在開(kāi)放的和非結(jié)構(gòu)化的環(huán)境中,這樣的智能體不能很好地支持通用的認(rèn)知智能。在復(fù)雜的道德困境中,最先進(jìn)的AI智能體尚沒(méi)有足夠的認(rèn)知能力來(lái)感知正確的道德環(huán)境,所以其更無(wú)法通過(guò)常識(shí)性推理來(lái)成功地解決困境。目前的研究工作主要集中于探索博弈論道德模型或基于Bayesian的效用函數(shù)。美國(guó)杜克大學(xué)的研究人員[39]采用博弈論方法對(duì)道德困境建模,并使AI的道德價(jià)值觀與人類(lèi)的一致。MIT的研究人員[40]設(shè)計(jì)了一種計(jì)算模型,用于將道德困境描述為效用函數(shù),并引入了層次Bayesian模型來(lái)表示社會(huì)結(jié)構(gòu)和群體規(guī)范。雖然這些早期的嘗試可能不足以支持常見(jiàn)的道德場(chǎng)景,但它們至少為如何在AI倫理學(xué)領(lǐng)域綜合利用DNN和可解釋Bayesian推理模型這兩種方法指出了新的研究方向。
4.1.3. 安全強(qiáng)化學(xué)習(xí)
許多研究人員采用深度強(qiáng)化學(xué)習(xí)將道德約束建模為獎(jiǎng)勵(lì)函數(shù),并使用Markov決策過(guò)程進(jìn)行序貫決策。然而,深度強(qiáng)化學(xué)習(xí)還不夠成熟,要將其應(yīng)用于游戲之外的其他場(chǎng)景的話,我們還有很長(zhǎng)的路要走。其主要問(wèn)題之一在于強(qiáng)化學(xué)習(xí)過(guò)程的安全性。一個(gè)惡意的智能體能夠使用多種方法來(lái)欺騙獎(jiǎng)勵(lì)機(jī)制,規(guī)避道德監(jiān)管約束。例如,它可以利用獎(jiǎng)勵(lì)過(guò)程中存在的漏洞來(lái)獲得比預(yù)期更多的獎(jiǎng)勵(lì)。
倫理原則應(yīng)被轉(zhuǎn)化為指導(dǎo)AI系統(tǒng)設(shè)計(jì)和實(shí)施的軟件規(guī)范。從軟件工程的角度來(lái)看,對(duì)AI模型的開(kāi)發(fā)和AI系統(tǒng)的運(yùn)行通常是按照一個(gè)有明確定義的生命周期(圖2)來(lái)組織,這一生命周期包括AI任務(wù)定義、數(shù)據(jù)收集和準(zhǔn)備、AI設(shè)計(jì)和模型訓(xùn)練、模型測(cè)試和驗(yàn)證、模型部署和應(yīng)用。AI隱私性、安全性和公平性的軟件規(guī)范的實(shí)施應(yīng)該貫穿于整個(gè)AI開(kāi)發(fā)和運(yùn)行一體化(DevOps)的生命周期。
首先,我們需要在需求分析階段定義和分析AI任務(wù)。設(shè)計(jì)人員可以針對(duì)不同應(yīng)用場(chǎng)景中的定制要求,采用不同種類(lèi)的倫理規(guī)范和評(píng)估指標(biāo)。在數(shù)據(jù)收集和準(zhǔn)備階段,工程師必須通過(guò)消除已損壞的數(shù)據(jù)樣本和減少數(shù)據(jù)集的潛在偏差來(lái)確保訓(xùn)練數(shù)據(jù)集的有效性。利用平衡且正確的數(shù)據(jù)集,工程師可以根據(jù)倫理規(guī)范設(shè)計(jì)出恰當(dāng)?shù)哪P徒Y(jié)構(gòu),從而進(jìn)行模型訓(xùn)練。在設(shè)計(jì)和模型訓(xùn)練階段之后,工程師必須根據(jù)倫理規(guī)范所描述的公平性、魯棒性、透明性和任務(wù)績(jī)效方面的約束條件對(duì)初步模型進(jìn)行測(cè)試和驗(yàn)證。如果模型無(wú)法通過(guò)測(cè)試和驗(yàn)證階段,則工程師必須重新設(shè)計(jì)模型、重新檢查數(shù)據(jù)和重新訓(xùn)練模型。如果模型通過(guò)測(cè)試和驗(yàn)證階段,則該模型可以與其他軟件組件進(jìn)行集成并被部署在智能系統(tǒng)中。在系統(tǒng)運(yùn)行期間,工程師將不斷檢查該系統(tǒng)的運(yùn)行時(shí)行為,并判斷其是否符合道德要求。如果違反道德約束,工程師則必須進(jìn)一步改進(jìn)AI模型,并啟動(dòng)新一輪的AI DevOps生命周期。
圖2 . AI DevOps生命周期。
顯然,為了簡(jiǎn)化這種具有倫理意識(shí)的AI DevOps生命周期,我們需要開(kāi)發(fā)許多AI工程工具,并將其集成到一個(gè)全面而靈活的環(huán)境中,以供AI模型設(shè)計(jì)者和系統(tǒng)開(kāi)發(fā)人員使用。如前幾節(jié)所述,這些工具必須能實(shí)現(xiàn)核心技術(shù),如聯(lián)邦學(xué)習(xí)、對(duì)抗測(cè)試、形式化驗(yàn)證、公平性評(píng)估、可解釋、溯源和運(yùn)行時(shí)沙盒以及安全監(jiān)控。目前,這些工具(如AI Fairness 360)仍在開(kāi)發(fā)中,因此主要的AI DevOps平臺(tái)尚未將這些工具集成在一起,形成AI倫理原則所要求的主要功能。為了形成一個(gè)具內(nèi)置倫理支持的開(kāi)放的AI DevOps環(huán)境,更多的研究工作和工程開(kāi)發(fā)是必不可少的,在這個(gè)環(huán)境中,研究人員和工程師可以方便地探索新的AI道德技術(shù),系統(tǒng)地評(píng)估不同的指標(biāo),并針對(duì)各種應(yīng)用領(lǐng)域中不同的道德場(chǎng)景構(gòu)思新的解決方案。
隨著AI治理技術(shù)的進(jìn)步,我們可以預(yù)見(jiàn),AI倫理方面的法規(guī)和標(biāo)準(zhǔn)將在企業(yè)、社區(qū)、國(guó)家和國(guó)際層面得到不斷的實(shí)施,以加強(qiáng)AI系統(tǒng)和產(chǎn)品的合規(guī)性。實(shí)際上,全球AI標(biāo)準(zhǔn)化研究工作已經(jīng)開(kāi)展了好多年。例如,國(guó)際標(biāo)準(zhǔn)化組織(ISO)的SC 24于2018年成立了AI可信度工作組,中國(guó)人工智能標(biāo)準(zhǔn)化總體組、專(zhuān)家咨詢組則于2019年發(fā)布了AI倫理風(fēng)險(xiǎn)分析白皮書(shū)[41]。AI工業(yè)界和標(biāo)準(zhǔn)化組織的共同努力將進(jìn)一步提高人們對(duì)AI倫理問(wèn)題的認(rèn)識(shí),并在AI工業(yè)界和研究社區(qū)加速道德價(jià)值觀在智能系統(tǒng)和產(chǎn)品中的集成。
AI系統(tǒng)是復(fù)雜且先進(jìn)的社會(huì)性技術(shù)系統(tǒng),通常涉及機(jī)器學(xué)習(xí)模型、支撐軟件組件和社會(huì)組織。來(lái)自多個(gè)學(xué)科的研究人員需要對(duì)AI進(jìn)行社會(huì)系統(tǒng)分析[42],以理解AI在不同社會(huì)、文化和政治環(huán)境下所帶來(lái)的影響。這樣的社會(huì)系統(tǒng)分析需要跨學(xué)科的研究方法,需要充分利用哲學(xué)、法學(xué)和社會(huì)學(xué)以及其他學(xué)科的相關(guān)研究成果。通過(guò)多學(xué)科研究,AI設(shè)計(jì)者和開(kāi)發(fā)人員可以與法學(xué)專(zhuān)家和社會(huì)學(xué)專(zhuān)家合作,對(duì)智能系統(tǒng)的道德方面進(jìn)行整體建模和分析,用以評(píng)估可能對(duì)各方產(chǎn)生的影響,并在AI DevOps的各個(gè)階段和狀態(tài)中處理道德問(wèn)題。
毫無(wú)疑問(wèn),對(duì)社會(huì)性技術(shù)工程來(lái)說(shuō),這種跨學(xué)科的和整體的分析方法要求AI開(kāi)發(fā)人員與具有其他領(lǐng)域?qū)I(yè)知識(shí)的合作伙伴進(jìn)行深入合作。盡管中國(guó)的計(jì)算機(jī)科學(xué)、哲學(xué)、法學(xué)和社會(huì)學(xué)領(lǐng)域的研究人員對(duì)AI倫理學(xué)的認(rèn)知日益提高,但他們的大部分研究工作仍在各自的軌道上進(jìn)行,尚未完全協(xié)同起來(lái)去解決上述重大挑戰(zhàn)。因此,我們認(rèn)為將所有相關(guān)學(xué)科的專(zhuān)家召集在一起是至關(guān)重要的,并針對(duì)具有明確目標(biāo)的AI倫理問(wèn)題開(kāi)展工作。首先,我們需要根據(jù)公認(rèn)的AI倫理原則,在自動(dòng)駕駛、智能法院和金融貸款決策等應(yīng)用中確定關(guān)鍵和典型的道德場(chǎng)景,并要求跨學(xué)科團(tuán)隊(duì)提出新的研究思路和解決方案。在這些場(chǎng)景中,我們要適當(dāng)?shù)貙?duì)復(fù)雜社會(huì)環(huán)境進(jìn)行抽象并將其描述為AI倫理規(guī)范。其次,我們應(yīng)該創(chuàng)建一個(gè)開(kāi)放和通用的平臺(tái)來(lái)促進(jìn)AI倫理的跨學(xué)科研究。這樣的平臺(tái)將極大地方便來(lái)自不同背景的研究人員分享他們的見(jiàn)解和工作,并比較不同的技術(shù)框架和道德標(biāo)準(zhǔn),以構(gòu)建具有道德價(jià)值觀和準(zhǔn)則的智能機(jī)器。
AI的快速發(fā)展和部署預(yù)示著人類(lèi)社會(huì)即將發(fā)生根本性轉(zhuǎn)變。這將是建設(shè)人類(lèi)命運(yùn)共同體和促進(jìn)自然與社會(huì)可持續(xù)發(fā)展的絕佳機(jī)會(huì)。但是如果沒(méi)有足夠的有效治理手段和規(guī)章制度,這一轉(zhuǎn)變也有可能會(huì)造成前所未有的消極影響。為了確保這些轉(zhuǎn)變?cè)谕耆谌胛覀兊纳钪澳茉旄H祟?lèi),我們必須建立可靠且可行的AI治理框架,用以根據(jù)人類(lèi)道德和價(jià)值觀來(lái)約束AI開(kāi)發(fā)者。這樣,我們才能讓AI變得可追責(zé)且值得信賴,同時(shí)增強(qiáng)公眾對(duì)AI技術(shù)和系統(tǒng)的信任。
本文介紹了中國(guó)在發(fā)展AI治理理論和技術(shù)方面正在開(kāi)展的工作。許多中國(guó)研究人員正在積極開(kāi)展研究,以解決當(dāng)前AI的倫理問(wèn)題。為了克服數(shù)據(jù)驅(qū)動(dòng)型AI的保密性問(wèn)題,中國(guó)的大學(xué)和企業(yè)的科研團(tuán)隊(duì)正努力開(kāi)發(fā)聯(lián)邦學(xué)習(xí)技術(shù)。為了確保DNN模型的安全性和魯棒性,研究人員在對(duì)抗性測(cè)試和形式化驗(yàn)證中提出了新的算法。此外,一些研究團(tuán)隊(duì)還在研究可解釋AI、溯源和取證領(lǐng)域的有效框架。這些研究工作目前仍處于起步階段,有待進(jìn)一步加強(qiáng),從而為將來(lái)的廣泛應(yīng)用和實(shí)踐提供成熟的解決方案。
我們建議采取以下行動(dòng)來(lái)推進(jìn)當(dāng)前有關(guān)AI治理的倡議。第一,政府、基金會(huì)和企業(yè)應(yīng)開(kāi)展跨學(xué)科、跨行業(yè)和跨國(guó)合作,從而在AI倫理原則方面達(dá)成共識(shí)。第二,政府、基金會(huì)和企業(yè)必須加強(qiáng)AI治理技術(shù)的協(xié)作研發(fā),以跟上AI快速發(fā)展的步伐。第三,開(kāi)發(fā)具有內(nèi)置倫理約束相關(guān)工具的開(kāi)放式AI DevOps平臺(tái),以支持不同AI系統(tǒng)的相關(guān)人員來(lái)評(píng)估AI系統(tǒng)的功能和合法性。第四,明確定義具有重大社會(huì)影響的AI倫理情景,以便來(lái)自不同學(xué)科的專(zhuān)家能夠共同應(yīng)對(duì)AI倫理挑戰(zhàn)。最后,我們必須積極促進(jìn)對(duì)在研發(fā)、應(yīng)用和管理環(huán)節(jié)的每個(gè)AI利益相關(guān)者的倫理教育,以顯著提高他們的AI倫理意識(shí)。
Compliance with ethics guidelines
Wenjun Wu, Tiejun Huang, and Ke Gong declare that they have no conflicts of interest or financial conflicts to disclose.