陳 磊,王柏村,黃思翰,張吉豫,郭 銳,魯俊群
(1.中國工程院戰(zhàn)略咨詢中心,北京 100088;2.浙江大學(xué)工業(yè)工程研究所,浙江杭州 310027;3.北京理工大學(xué)機(jī)械與車輛學(xué)院,北京 100081;4.中國人民大學(xué)法學(xué)院未來法治研究院,北京 100872;5.清華大學(xué)人工智能國際治理研究院,北京 100084)
自1956 年誕生,人工智能(AI)發(fā)展經(jīng)歷了多次高潮和低谷[1]。2006 年以來,人工智能技術(shù)迎來了又一次發(fā)展高潮,以深度學(xué)習(xí)為代表的新一代人工智能技術(shù)在機(jī)器視覺和語音識(shí)別等領(lǐng)域取得了極大的成功,使人工智能再次受到廣泛的關(guān)注[2-4]。人工智能技術(shù)不可逆轉(zhuǎn)地重塑著人類生活、工作和交往的方式,但在發(fā)展的同時(shí),也帶來了公共安全風(fēng)險(xiǎn)、算法偏見問題、責(zé)任倫理問題、人類權(quán)利保障等一系列的倫理挑戰(zhàn)[5]。不管是弱人工智能還是強(qiáng)人工智能,人工智能倫理是無法繞開的重要議題,并逐漸成為各國人工智能相關(guān)研究、人工智能政策與立法等方面關(guān)注的重要內(nèi)容之一[6-8]。
國內(nèi)學(xué)者對人工智能的倫理問題進(jìn)行了大量的研究,人工智能正快速地在多個(gè)領(lǐng)域應(yīng)用,比如自動(dòng)駕駛、醫(yī)療健康、智能媒體等,在這個(gè)過程中涌現(xiàn)出了許多新的倫理問題。以智慧醫(yī)療為例,通過分析智能醫(yī)療倫理沖突案例,可以總結(jié)出“以人為本”“人機(jī)和諧”“強(qiáng)化倫理責(zé)任”等智能醫(yī)療發(fā)展過程中應(yīng)遵循的原則,以促進(jìn)智能醫(yī)療的和諧有序發(fā)展;另外,政府、專業(yè)團(tuán)體、人工智能開發(fā)者等應(yīng)協(xié)同合作,為公眾參與提供渠道,完善智慧醫(yī)療的監(jiān)管體系,使智慧醫(yī)療的發(fā)展符合法律規(guī)范和倫理規(guī)則。人工智能技術(shù)的發(fā)展對現(xiàn)行法律法規(guī)的挑戰(zhàn)也愈發(fā)明顯,特別是在民事主體、侵權(quán)責(zé)任、人格權(quán)等方面,亟需法律制度產(chǎn)品供給的補(bǔ)充[9]??傮w來說,人工智能技術(shù)存在的主要倫理問題包括人權(quán)倫理、責(zé)任倫理、道德地位倫理等[10]。
當(dāng)前正值我國人工智能技術(shù)飛速發(fā)展的關(guān)鍵時(shí)期,對人工智能倫理問題的深入研究有著重要的意義。一方面,需要平衡技術(shù)革新與風(fēng)險(xiǎn)防范,建立包容創(chuàng)新、審慎發(fā)展的政策和制度環(huán)境;另一方面,建立人工智能倫理準(zhǔn)則過程中可以充分調(diào)動(dòng)社會(huì)力量,共同解決人工智能倫理問題,推進(jìn)人工智能技術(shù)和產(chǎn)業(yè)符合倫理、安全可信地創(chuàng)新發(fā)展。
“倫理”可以從理想和規(guī)范兩個(gè)層面進(jìn)行闡述。在理想層面,倫理主要指代理想化的人與人之間的關(guān)系、人與社會(huì)之間的關(guān)系,可以作為對于法律、政策、風(fēng)俗習(xí)慣等具體規(guī)范的評價(jià)依據(jù),指導(dǎo)法律、政策等規(guī)范的制定。在規(guī)范層面,倫理被看作是與傳統(tǒng)風(fēng)俗、法律制度等并列的一類社會(huì)規(guī)范。與法律制度相比,倫理在實(shí)際運(yùn)行中更多地依賴個(gè)體的自律,缺乏國家強(qiáng)制力的保障。
當(dāng)前人工智能倫理問題主要從兩個(gè)維度進(jìn)行討論:一是關(guān)于人工智能“擬主體”及相關(guān)倫理問題的討論;二是關(guān)于人工智能在社會(huì)中日益廣泛的應(yīng)用本身引起的倫理問題的討論。第一類討論通常以人工智能的“自由意志”“自治性”或“主體性”為視角,例如機(jī)器人是否會(huì)具有自我意識(shí)、自由意志且不被人控制甚至毀滅整個(gè)人類?盡管一些領(lǐng)域應(yīng)用的人工智能具有一定的進(jìn)行決策、模仿人的行為的功能,但從法律等社會(huì)規(guī)范的層面來看,人工智能是否能夠成為規(guī)范意義上的主體并不取決于其功能,而是以自由意志為核心來構(gòu)建的,而當(dāng)前像人一樣具有自由意志并能作出倫理決策的智能體尚無發(fā)展路徑,且自由意志本身還屬于科學(xué)研究范疇的問題。因此,在自由意志這一層面的人工智能倫理問題當(dāng)前僅存在于想象之中,目前并無客觀技術(shù)基礎(chǔ)和探討的必要性。第二類討論主要著眼于人工智能技術(shù)和應(yīng)用的發(fā)展給人與人的關(guān)系、人與社會(huì)的關(guān)系帶來的一系列現(xiàn)實(shí)的和潛在的問題及挑戰(zhàn)。人工智能技術(shù)中關(guān)注的倫理問題,并非限于機(jī)器是否具有自由意志、是否應(yīng)將其視為倫理關(guān)系中的主體來對待和建設(shè)倫理關(guān)系這樣的問題,而是著眼于在社會(huì)結(jié)構(gòu)發(fā)生變化的當(dāng)下對人倫關(guān)系、社會(huì)秩序的理性思考。在當(dāng)前及可預(yù)見的未來,人們的生產(chǎn)生活方式將逐漸受到人工智能等技術(shù)的影響,社會(huì)形態(tài)和結(jié)構(gòu)將呈現(xiàn)出與工業(yè)時(shí)代不同的全新樣貌,必然且正在進(jìn)入倫理視域?;诖?,人工智能的倫理問題,實(shí)際上只是飛速發(fā)展的信息技術(shù)的倫理問題的延伸和發(fā)展。因此,本研究所說的人工智能倫理,關(guān)注的是“人工智能技術(shù)和系統(tǒng)被用于輔助和執(zhí)行人類決策”這一特征,從倫理作為理想秩序和社會(huì)規(guī)范這兩個(gè)層面著眼,致力于尋求解決實(shí)際問題、求得社會(huì)共識(shí)。
基于上述分析,人工智能倫理準(zhǔn)則主要是指當(dāng)前在人工智能技術(shù)開發(fā)和應(yīng)用中,依照理想中的人倫關(guān)系、社會(huì)秩序所確立的,相關(guān)主體應(yīng)予以遵循的標(biāo)準(zhǔn)或原則。當(dāng)然,任何倫理準(zhǔn)則都必須借助于相關(guān)治理體系中的一系列互相配合的運(yùn)作機(jī)制,并且應(yīng)用于具體的場景才能得到充分落實(shí),因此,本研究的主要內(nèi)容不僅包括人工智能倫理準(zhǔn)則相關(guān)發(fā)展現(xiàn)狀和基本原則,還涉及到具體的典型應(yīng)用場景,以及對治理框架和治理體系的探討。
對世界主要國家和地區(qū)以及相關(guān)國際組織在人工智能倫理準(zhǔn)則相關(guān)領(lǐng)域的發(fā)展和舉措進(jìn)行梳理分析(見表1 至表3),可以看出各國或組織均非常重視人工智能倫理問題,分別從出臺(tái)國家政策、發(fā)布倫理準(zhǔn)則、倡導(dǎo)行業(yè)自律、立法和制定標(biāo)準(zhǔn)等不同路徑開展了許多行動(dòng)。從治理領(lǐng)域來看,在制定標(biāo)準(zhǔn)和立法方面,自動(dòng)駕駛領(lǐng)域是當(dāng)前各國開展的重點(diǎn)領(lǐng)域。在個(gè)人信息保護(hù)、算法規(guī)制、機(jī)器人相關(guān)法律方面,歐盟走在世界前列,特別是歐盟的《通用數(shù)據(jù)保護(hù)條例》引領(lǐng)了世界各國和地區(qū)的相關(guān)立法和研究,其中的復(fù)雜規(guī)定、高額罰金、“長臂管轄”等對世界各國的信息技術(shù)企業(yè)都產(chǎn)生了重要影響。從治理路徑來看,美國最早關(guān)注人工智能的倫理問題,并著眼于對人工智能國際標(biāo)準(zhǔn)制定的主導(dǎo);歐盟巧妙避免技術(shù)和產(chǎn)業(yè)的劣勢,從人工智能價(jià)值觀的角度進(jìn)行研究,通過立法等活動(dòng)將歐洲的人權(quán)傳統(tǒng)轉(zhuǎn)化為其在人工智能發(fā)展中的新優(yōu)勢,相關(guān)立法活動(dòng)事實(shí)上增強(qiáng)了歐盟對全球信息技術(shù)產(chǎn)業(yè)的影響力;英國政府未將重點(diǎn)完全置于國家層面的強(qiáng)制性規(guī)定,而是強(qiáng)調(diào)加強(qiáng)行業(yè)自律。綜上,各國和地區(qū)以及國際組織在人工智能倫理準(zhǔn)則建議和立法方向的觀點(diǎn)基本一致,初步達(dá)成了共識(shí)?;诖耍斯ぶ悄軅惱淼陌l(fā)展開始進(jìn)入新的階段,也就是所謂的人工智能倫理應(yīng)用場景快速擴(kuò)張和討論人工智能倫理治理體系建設(shè)階段。
表1 主要國家和地區(qū)人工智能倫理治理主要進(jìn)展
表2 相關(guān)國際組織人工智能倫理治理主要進(jìn)展
表3 我國人工智能倫理治理主要進(jìn)展
探究人工智能倫理問題的成因,是梳理在不同應(yīng)用場景下人工智能典型問題的前提性工作,也是建構(gòu)應(yīng)對人工智能倫理問題的價(jià)值取向和治理框架的理論支撐。根據(jù)人工智能倫理問題的特征和產(chǎn)生方式的不同,可從技術(shù)、數(shù)據(jù)和社會(huì)應(yīng)用3 個(gè)層面來梳理其成因。
4.1.1 技術(shù)層面
技術(shù)層面引發(fā)的人工智能倫理問題,主要包括算法及系統(tǒng)的安全問題、可解釋性問題、算法歧視問題和算法決策問題。算法及系統(tǒng)的安全問題,主要是指算法或系統(tǒng)的漏洞被攻擊和惡意利用的情形;可解釋性問題,則主要關(guān)注人類的知情利益和主體地位,潘云鶴院士[11]提到人工智能應(yīng)用需關(guān)注算法的可解釋性;算法歧視問題,來自算法研究人員的認(rèn)知偏見或者訓(xùn)練數(shù)據(jù)集不完美導(dǎo)致的歧視性的決策結(jié)果;算法決策問題,則是人工智能自學(xué)習(xí)導(dǎo)致的不可預(yù)見性結(jié)果。
4.1.2 數(shù)據(jù)層面
人工智能技術(shù)在許多領(lǐng)域獲得重大進(jìn)展依賴于海量數(shù)據(jù),隨著人工智能技術(shù)日益廣泛地應(yīng)用在社會(huì)中,網(wǎng)絡(luò)空間及物理空間中的數(shù)據(jù)采集、存儲(chǔ)、流通和利用行為均大規(guī)模增加,數(shù)據(jù)導(dǎo)致的倫理問題逐漸顯現(xiàn)。人工智能技術(shù)的快速發(fā)展以及大量應(yīng)用案例實(shí)施,提供了豐富的個(gè)人信息收集場景、范圍和數(shù)量,數(shù)據(jù)采集日益成為引發(fā)人工智能倫理問題的重要原因之一。
4.1.3 社會(huì)應(yīng)用層面
社會(huì)應(yīng)用層面引發(fā)的人工智能倫理問題,主要是人工智能算法的濫用和誤用。由于算法濫用/誤用,人們在社會(huì)活動(dòng)時(shí)容易出現(xiàn)使用目的、方式、范圍等偏差,從而導(dǎo)致不良的影響和后果。舉例來說,利用人臉識(shí)別算法可以提高追查犯罪嫌疑人的效率,但是,如果把人臉識(shí)別算法用于判別某人是否有犯罪的可能性,則就屬于算法的濫用。
人工智能的各類典型應(yīng)用場景是連接價(jià)值取向與社會(huì)實(shí)踐的最佳橋梁,以下將從技術(shù)發(fā)展比較成熟、社會(huì)爭議較大、解決相關(guān)倫理問題緊迫性強(qiáng)的幾類場景出發(fā),梳理相關(guān)的人工智能倫理問題。
4.2.1 自動(dòng)駕駛
自動(dòng)駕駛技術(shù)在解放駕駛員雙手的同時(shí),給自動(dòng)駕駛汽車企業(yè)和政府帶來了許多倫理難題。從自動(dòng)駕駛汽車企業(yè)角度,車輛在面臨突發(fā)情況時(shí),是堅(jiān)持乘客安全至上還是要保障整體損失最?。孔詣?dòng)駕駛汽車在面臨倫理選擇時(shí),能否簡單地進(jìn)行制動(dòng)規(guī)避或?qū)⒖刂茩?quán)交回個(gè)人?在發(fā)生不可避免的碰撞時(shí),自動(dòng)駕駛汽車企業(yè)應(yīng)以何種標(biāo)準(zhǔn)進(jìn)行抉擇?總體來看,自動(dòng)駕駛場景涉及的倫理問題可歸結(jié)為兩個(gè)方面:一是事故風(fēng)險(xiǎn)的預(yù)先分配方案缺乏必要的社會(huì)共識(shí)。不同于傳統(tǒng)場景下乘客在事故發(fā)生時(shí)作出臨場選擇,自動(dòng)駕駛系統(tǒng)需要對緊急情況下的決策預(yù)先作出安排,比如是優(yōu)先保護(hù)乘客還是行人、是否優(yōu)先保護(hù)婦女兒童等。二是自動(dòng)駕駛與現(xiàn)行交通法律法規(guī)體系的關(guān)系有待協(xié)調(diào)。自動(dòng)駕駛的一些特性對現(xiàn)行交通法律法規(guī)的適用形成了障礙,例如對政府而言,自動(dòng)駕駛汽車是否可以在緊急情況下違反交通法規(guī)以避免碰撞,還是從程序上就應(yīng)被禁止違規(guī)行駛。
4.2.2 智能媒體
較之于傳統(tǒng)媒體,智能媒體基于用戶畫像進(jìn)行內(nèi)容推送,以用戶的喜好為主要標(biāo)準(zhǔn),能為用戶精準(zhǔn)地提供其感興趣的內(nèi)容。然而,這種推送方式盡管能夠在最大程度上滿足用戶需求,但也可能引發(fā)相應(yīng)的倫理風(fēng)險(xiǎn)。首先,推薦算法對用戶數(shù)據(jù)的收集和使用缺乏明確的邊界。為了精確刻畫用戶畫像,算法需要對用戶的歷史行為、個(gè)人特征等數(shù)據(jù)進(jìn)行深入細(xì)致的挖掘,這可能導(dǎo)致推薦系統(tǒng)過度收集用戶的個(gè)人數(shù)據(jù),甚至達(dá)到侵犯用戶隱私的程度。其次,內(nèi)容推送的信息內(nèi)卷,往往會(huì)形成“信息繭房”[12],在無形中限制了用戶探索新知的范圍,也對公共議題的討論形成障礙;此外,以討好用戶為初衷的智能媒體形式難以保證推送內(nèi)容的質(zhì)量。智能媒體以用戶為導(dǎo)向、以流量為目標(biāo),在人工智能時(shí)代很容易放棄對于內(nèi)容質(zhì)量的必要堅(jiān)守。最后,信息富有者與信息貧困者之間的“信息鴻溝”也是智能媒體場景下應(yīng)當(dāng)引起關(guān)注的倫理問題之一。
4.2.3 智能風(fēng)控
傳統(tǒng)的金融風(fēng)控?cái)?shù)據(jù)支持、覆蓋人群范圍都十分有限。在人工智能時(shí)代,龐大的個(gè)人數(shù)據(jù)庫為金融風(fēng)控提供了資源,金融機(jī)構(gòu)可以借此給更廣泛的人群提供個(gè)性化的金融服務(wù),實(shí)現(xiàn)真正的普惠金融。然而智能風(fēng)控在發(fā)展的同時(shí),也容易發(fā)生許多倫理問題。首先,金融風(fēng)控對數(shù)據(jù)的收集和使用存在潛在隱患。金融領(lǐng)域的數(shù)據(jù)可能會(huì)直接影響用戶的個(gè)人信用,因此金融機(jī)構(gòu)在收集用戶的海量數(shù)據(jù)時(shí),既要保證數(shù)據(jù)的安全性,也要保證數(shù)據(jù)的準(zhǔn)確性。鑒于現(xiàn)有的金融數(shù)據(jù)收集處理體系尚不完備、過程尚不夠透明,用戶的個(gè)人信用數(shù)據(jù)可能在用戶不知曉的情況下發(fā)生負(fù)面變化。其次,金融風(fēng)控缺乏正當(dāng)性的信用評級(jí)體系,容易引發(fā)大范圍的歧視問題。當(dāng)前金融機(jī)構(gòu)尚未建構(gòu)起合理、正當(dāng)?shù)男庞迷u級(jí)體系,很可能由于算法歧視、算法不透明等原因而產(chǎn)生相應(yīng)的倫理問題。
4.2.4 智慧醫(yī)療
人工智能在智慧醫(yī)療場景下主要被應(yīng)用于建設(shè)智慧醫(yī)院、探索治療新模式,如開發(fā)智能診療助手、人機(jī)協(xié)同的手術(shù)機(jī)器人,研發(fā)柔性可穿戴設(shè)備,建立快速精準(zhǔn)的智能醫(yī)療體系等[13]。雖然,人工智能在醫(yī)療領(lǐng)域的應(yīng)用是為了增加人民的福祉,但也容易引發(fā)人工智能倫理風(fēng)險(xiǎn)問題。首先,人工智能算法的疾病診斷可能出現(xiàn)算法安全和準(zhǔn)確性問題,對患者身體健康造成損害,例如IBM Watson 的智能問診系統(tǒng)因推薦錯(cuò)誤的診療建議而引起了廣泛質(zhì)疑[14];其次,人工智能算法的不可解釋性可能與作為病人基本權(quán)利的知情權(quán)產(chǎn)生沖突;最后,藥品定價(jià)、醫(yī)藥招標(biāo)標(biāo)準(zhǔn)等涉及政府治理職能的人工智能,容易引發(fā)對公權(quán)力的濫用,損害公眾利益。
4.2.5 智慧司法
智慧司法應(yīng)當(dāng)具備增強(qiáng)保障司法公信力的功能。目前,人工智能技術(shù)在司法領(lǐng)域的應(yīng)用過程中主要產(chǎn)生了兩方面的倫理問題:一是算法的設(shè)計(jì)者對于不同數(shù)據(jù)的理解不同于職業(yè)法律群體,人工智能可能會(huì)對案件得出錯(cuò)誤的結(jié)論,損害案件當(dāng)事人利益;二是算法本身的科學(xué)性、準(zhǔn)確性尚沒有得到業(yè)界的一致認(rèn)可,容易引發(fā)更大范圍的爭論[15]。此外,智慧司法還存在著“技術(shù)黑箱”引起司法透明度缺失、數(shù)據(jù)的相關(guān)關(guān)系與法律中的因果關(guān)系聯(lián)系不明、法官產(chǎn)生技術(shù)依賴等相關(guān)倫理問題。
4.2.6 智能服務(wù)機(jī)器人
消費(fèi)者對于智能服務(wù)機(jī)器人產(chǎn)業(yè)給予了很大期望,從阿西莫夫的“機(jī)器人三大定律”開始所引發(fā)的相關(guān)倫理問題就已經(jīng)在學(xué)界和社會(huì)公眾中得到討論。突出的問題包括如下方面:一是智能服務(wù)機(jī)器人應(yīng)用場景下的人工智能技術(shù)缺乏應(yīng)對利益沖突的社會(huì)共識(shí),當(dāng)服務(wù)對象利益與公共利益或他人利益發(fā)生沖突,或服務(wù)對象的意志與其自身利益發(fā)生沖突時(shí),智能服務(wù)機(jī)器人應(yīng)當(dāng)如何進(jìn)行決策問題;二是智能服務(wù)機(jī)器人可能會(huì)對服務(wù)對象的人身權(quán)益造成傷害,比如泄漏服務(wù)對象的私密信息、造成人與人之間的疏離等[16]。
上述人工智能應(yīng)用典型場景下,人工智能技術(shù)在應(yīng)用過程中可能存在的倫理問題是當(dāng)前人工智能技術(shù)發(fā)展的痛點(diǎn)、難點(diǎn),有待于從政策、法律、行業(yè)自治等途徑進(jìn)行解決。除了上述人工智能應(yīng)用直接產(chǎn)生的倫理風(fēng)險(xiǎn)外,人工智能發(fā)展還存在著一些長期、間接的倫理風(fēng)險(xiǎn),例如就業(yè)問題,當(dāng)人工智能和機(jī)器人技術(shù)演化到一定程度并突破其應(yīng)用閾值后,將會(huì)引發(fā)新一輪的產(chǎn)業(yè)革命,并有可能重新構(gòu)筑產(chǎn)業(yè)生態(tài)。雖然人工智能技術(shù)和產(chǎn)業(yè)本身發(fā)展很快,但是其倫理治理應(yīng)循序漸進(jìn),仍應(yīng)聚焦于人工智能所直接引發(fā)的倫理風(fēng)險(xiǎn)。
目前,人工智能倫理治理經(jīng)歷了兩個(gè)階段,階段一是對人工智能倫理必要性的討論,在專業(yè)性與廣泛性上引起了國際的普遍重視,階段二進(jìn)一步對人工智能倫理準(zhǔn)則進(jìn)行討論,特別是關(guān)于人工智能倫理基本原則的討論。綜合國內(nèi)外相關(guān)成果,通過對人工智能倫理所處理的人工智能系統(tǒng)相關(guān)主體的倫理角色和倫理關(guān)系進(jìn)行分析,可以總結(jié)人工智能倫理治理的主要路徑是人類主體權(quán)利的保護(hù)和負(fù)責(zé)任的創(chuàng)新,前者要求強(qiáng)調(diào)和明晰所要保護(hù)的人類利益,后者則強(qiáng)調(diào)對整體責(zé)任的認(rèn)識(shí)和內(nèi)部責(zé)任的劃分。由此,我國人工智能的發(fā)展應(yīng)遵循以下基本原則:人類根本利益原則、責(zé)任原則,而由這兩個(gè)原則及其派生出來的要求構(gòu)成了應(yīng)對人工智能倫理問題的準(zhǔn)則體系。
5.1.1 人類根本利益原則
人工智能應(yīng)以實(shí)現(xiàn)人類根本利益為最終目標(biāo),即人類根本利益原則[17],體現(xiàn)了對人權(quán)的尊重,降低技術(shù)風(fēng)險(xiǎn)和負(fù)面影響的價(jià)值選擇。人類根本利益原則應(yīng)以促進(jìn)人類向善為目的,保障人的基本權(quán)利與自由,關(guān)注隱私保護(hù)等。
5.1.2 責(zé)任原則
人工智能的發(fā)展要建立明確的責(zé)任體系,也就是責(zé)任原則[17]?;诖?,人工智能發(fā)展過程中遇到人類倫理或法律沖突問題時(shí),可以從技術(shù)層面對人工智能技術(shù)應(yīng)用部門進(jìn)行問責(zé)。在責(zé)任原則下,人工智能技術(shù)的開發(fā)和應(yīng)用應(yīng)分別遵循透明度原則和權(quán)責(zé)一致原則。
人工智能倫理的治理應(yīng)以技術(shù)發(fā)展與規(guī)制為主題,形成涵蓋技術(shù)、政策、道德、法律等多層次的倫理治理體系,具體如表4 所示。
表4 人工智能倫理基本原則與多層次治理體系
5.2.1 技術(shù)應(yīng)對
人工智能當(dāng)下的許多倫理風(fēng)險(xiǎn)可以通過技術(shù)的改進(jìn)予以解決,例如,算法可解釋性和透明性是人工智能倫理的重要命題之一,涉及人類的知情利益和主體地位,而算法可解釋性和“算法黑箱”問題就可以在一定程度上通過技術(shù)手段逐漸得到部分解決,即借助技術(shù)使得機(jī)器理解層次降維到人類理解層次,也即人類在更大程度上能看懂、能理解有關(guān)算法。另外,也要逐步形成算法開發(fā)者和使用者信息披露的技術(shù)慣例,對算法進(jìn)行監(jiān)管,接受公眾的審查和質(zhì)詢。
5.2.2 道德規(guī)范
我國《新一代人工智能發(fā)展規(guī)劃》強(qiáng)調(diào),未來要重點(diǎn)開展人工智能行為科學(xué)和倫理等問題研究,基于此探索倫理道德多層次判斷結(jié)構(gòu)及人機(jī)協(xié)作的倫理框架。在相關(guān)法律法規(guī)尚未成型或生效之前,需要通過教育和社會(huì)輿論進(jìn)行適當(dāng)?shù)匾龑?dǎo),倡導(dǎo)正確的價(jià)值觀,推動(dòng)人工智能倫理共識(shí)的形成,有效地避免一些違背倫理道德卻未違反現(xiàn)行法律的惡性事件發(fā)生。另外,還要推動(dòng)科研機(jī)構(gòu)和企業(yè)對人工智能倫理風(fēng)險(xiǎn)的認(rèn)知和實(shí)踐,通過發(fā)布倫理風(fēng)險(xiǎn)分析報(bào)告等形式討論人工智能倫理風(fēng)險(xiǎn)的應(yīng)對措施,為推動(dòng)科研機(jī)構(gòu)和企業(yè)對人工智能倫理風(fēng)險(xiǎn)的認(rèn)知和實(shí)踐提供參考。
5.2.3 政策指引
由于人工智能技術(shù)的前景和潛力尚有不確定性,通過國家政策指引相比立法有更大的靈活性,也更體現(xiàn)差異化和順應(yīng)創(chuàng)新趨勢。根據(jù)技術(shù)發(fā)展程度,在某些領(lǐng)域嘗試確立一些應(yīng)用模式作為典型,逐步推進(jìn)人工智能標(biāo)準(zhǔn)化進(jìn)程,進(jìn)而推動(dòng)人工智能應(yīng)用領(lǐng)域的不斷拓展。另外,還要推動(dòng)人工智能企業(yè)建立倫理委員會(huì),明確扮演人工智能技術(shù)落地執(zhí)行者角色的企業(yè)的倫理意識(shí)和社會(huì)責(zé)任,并將對倫理的考量貫穿始終。目前,Google、微軟等科技公司紛紛設(shè)立了人工智能倫理審查委員會(huì)。
5.2.4 法律規(guī)則
在人工智能這一新興領(lǐng)域的法律規(guī)制中,需要在促進(jìn)發(fā)展與風(fēng)險(xiǎn)控制之間探求最佳平衡點(diǎn),尤其需要把握公權(quán)力干預(yù)和產(chǎn)業(yè)自治之間的平衡。一個(gè)可行的路徑是:在實(shí)踐相對成熟、已有一定普遍共識(shí)的部分,可嘗試進(jìn)行立法規(guī)制;而在實(shí)踐不足以證成立法規(guī)制的領(lǐng)域,則通過行業(yè)自律、政策引導(dǎo)等方式進(jìn)行倫理風(fēng)險(xiǎn)控制。具體建議如下:一是根據(jù)行業(yè)發(fā)展進(jìn)行立法規(guī)劃,在成熟的領(lǐng)域推動(dòng)立法,如針對各領(lǐng)域人工智能技術(shù)應(yīng)用中均較為普遍的對于個(gè)人隱私等人格利益侵犯的風(fēng)險(xiǎn)問題,通過立法的方式進(jìn)行保障。二是在行業(yè)發(fā)展需要明確責(zé)任的領(lǐng)域啟動(dòng)立法研究,如對自動(dòng)駕駛等發(fā)展相對成熟、迫切需要明確責(zé)任的領(lǐng)域,建議在現(xiàn)行法律之下嘗試地方性、試驗(yàn)性的立法,為推進(jìn)人工智能立法進(jìn)程提供有效經(jīng)驗(yàn)。
人工智能倫理準(zhǔn)則在社會(huì)治理中的切實(shí)落地需要一個(gè)發(fā)展過程,因此建議采取分層次、多維度的治理體系,在實(shí)踐相對成熟、已有一定普遍共識(shí)的領(lǐng)域可嘗試進(jìn)行立法規(guī)制,而在實(shí)踐不足以證成立法規(guī)制的領(lǐng)域則通過政策引導(dǎo)、行業(yè)自律、技術(shù)應(yīng)對等方式進(jìn)行倫理風(fēng)險(xiǎn)控制。在倫理治理中,應(yīng)始終注意到人工智能產(chǎn)業(yè)當(dāng)前仍在高速發(fā)展和變化,需要審慎考量倫理治理與技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展的平衡,科學(xué)地選取適當(dāng)?shù)闹卫砺窂剑员苊庾璧K人工智能產(chǎn)業(yè)的發(fā)展。根據(jù)我國《新一代人工智能發(fā)展規(guī)劃》中的“三步走”戰(zhàn)略,我國人工智能倫理治理采取的具體措施及戰(zhàn)略建議如下(見表5):
第一步,到2020 年,初步建立國家層面的人工智能倫理準(zhǔn)則體系;針對個(gè)人信息保護(hù)方面和自動(dòng)駕駛領(lǐng)域的人工智能倫理問題制定法律予以規(guī)范。
(1)加強(qiáng)教育和社會(huì)宣傳,推動(dòng)人工智能倫理共識(shí)的形成。在學(xué)校思想政治課程中加入科技倫理內(nèi)容、高等教育院校開設(shè)專門的科技倫理課程,重點(diǎn)對人工智能倫理問題和道德規(guī)范進(jìn)行普及教育,培養(yǎng)廣大公民、特別是信息科學(xué)專業(yè)學(xué)生的人工智能倫理意識(shí)。
(2)著手制定國家層面的人工智能倫理準(zhǔn)則體系。研究我國當(dāng)前在全國和地方政府、研究機(jī)構(gòu)、行業(yè)協(xié)會(huì)和產(chǎn)業(yè)聯(lián)盟等層面出臺(tái)的有關(guān)倫理準(zhǔn)則,以《人工智能創(chuàng)新發(fā)展道德倫理宣言》《人工智能北京共識(shí)》《人工智能行業(yè)自律公約(征求意見稿)》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》等重點(diǎn)文件為基礎(chǔ),盡快制定并發(fā)布國家層面的人工智能倫理準(zhǔn)則草案,并廣泛征集社會(huì)各界意見。
(3)推動(dòng)個(gè)人隱私和個(gè)人信息保護(hù)領(lǐng)域的立法。2020 年5 月全國人大已通過了《民法典·人格權(quán)編》征求意見,其中重點(diǎn)對個(gè)人信息保護(hù)和個(gè)人隱私進(jìn)行了規(guī)定。此外,應(yīng)著力推進(jìn)《個(gè)人信息保護(hù)法》和《數(shù)據(jù)安全法》的立法工作。在立法中考慮人工智能倫理問題的同時(shí),需要考量數(shù)據(jù)分析對產(chǎn)業(yè)發(fā)展的意義及其可以為社會(huì)帶來的價(jià)值。
(4)制定自動(dòng)駕駛領(lǐng)域的法律規(guī)范。自動(dòng)駕駛技術(shù)發(fā)展已經(jīng)相對成熟,亟待進(jìn)入市場應(yīng)用領(lǐng)域。當(dāng)前應(yīng)開始制定全國性的自動(dòng)駕駛倫理準(zhǔn)則和法律規(guī)范,包括在《侵權(quán)責(zé)任法》中增加人工智能致人損害時(shí)的責(zé)任分配規(guī)則;并盡快制定安全管理方面的法規(guī),為法律的制定奠定基礎(chǔ)。
(5)開展典型場景人工智能倫理及治理路徑調(diào)研。對立法條件尚不成熟的智能媒體、智能風(fēng)控、智慧醫(yī)療、智慧司法、智慧電商等人工智能應(yīng)用領(lǐng)域,在對創(chuàng)新持包容審慎態(tài)度的同時(shí),深入開展對人工智能帶來的倫理、法律及社會(huì)問題的研究,保持持續(xù)觀察,作為未來人工智能立法活動(dòng)的前置性步驟。
(6)在相關(guān)企業(yè)中設(shè)立人工智能倫理委員會(huì)。第一,人工智能相關(guān)企業(yè)應(yīng)設(shè)置倫理委員會(huì),領(lǐng)導(dǎo)人工智能倫理風(fēng)險(xiǎn)控制流程的實(shí)施及監(jiān)督、參與人工智能的倫理風(fēng)險(xiǎn)評估、審查倫理評價(jià)結(jié)果、定期審查決策執(zhí)行情況;第二,國家科技倫理委員會(huì)可每年評選若干最佳實(shí)踐,以促進(jìn)先進(jìn)風(fēng)險(xiǎn)評估控制經(jīng)驗(yàn)的推廣;第三,為保障市場競爭,可為小型、初創(chuàng)型企業(yè)設(shè)置一定的優(yōu)惠條件,行業(yè)協(xié)會(huì)應(yīng)提供必要的協(xié)助和指導(dǎo),以避免給小型、初創(chuàng)型企業(yè)帶來過重的負(fù)擔(dān)。
第二步,到2025 年,初步建立人工智能倫理規(guī)范和重點(diǎn)領(lǐng)域的法律規(guī)范。
(1)發(fā)布國家層面的人工智能倫理準(zhǔn)則體系。在充分考慮前一階段對人工智能倫理準(zhǔn)則草案征求意見的基礎(chǔ)上,進(jìn)一步論證并正式發(fā)布國家層面的人工智能倫理準(zhǔn)則體系,引領(lǐng)人工智能倫理治理。
(2)促進(jìn)支撐人工智能倫理準(zhǔn)則實(shí)現(xiàn)的科技發(fā)展。第一,通過設(shè)置相應(yīng)科研項(xiàng)目、國家獎(jiǎng)勵(lì)來激勵(lì)科研人員研究人工智能系統(tǒng)的隱私保護(hù)、安全性、可追溯性、評估和監(jiān)管等方面的技術(shù);第二,通過專利制度切實(shí)促進(jìn)關(guān)于人工智能系統(tǒng)的隱私保護(hù)、安全性、可追溯性等方面技術(shù)的創(chuàng)新發(fā)展;第三,在適當(dāng)?shù)膱鼍跋?,可通過將相關(guān)先進(jìn)技術(shù)吸納入標(biāo)準(zhǔn)來促進(jìn)相關(guān)技術(shù)的推廣應(yīng)用,為創(chuàng)新者獲得收益提供更多機(jī)會(huì)。
(3)在人工智能的標(biāo)準(zhǔn)制定中,著重考慮人工智能倫理準(zhǔn)則。第一,在政策上要求人工智能國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)、地方標(biāo)準(zhǔn)、團(tuán)體標(biāo)準(zhǔn)、企業(yè)標(biāo)準(zhǔn)等標(biāo)準(zhǔn)在制定過程中,強(qiáng)化對人工智能倫理準(zhǔn)則的貫徹和支撐;第二,在制定國家強(qiáng)制性標(biāo)準(zhǔn)時(shí)應(yīng)持非常審慎的態(tài)度,需充分論證才宜納入強(qiáng)制性標(biāo)準(zhǔn),以避免不恰當(dāng)?shù)刈璧K人工智能相關(guān)技術(shù)的應(yīng)用;第三,鼓勵(lì)企業(yè)提出和公布自己的標(biāo)準(zhǔn),突出企業(yè)在標(biāo)準(zhǔn)制定中的主體作用;第四,鼓勵(lì)企業(yè)參與相關(guān)國際標(biāo)準(zhǔn)的制定,促進(jìn)我國相關(guān)專利技術(shù)被納入國際標(biāo)準(zhǔn),提升我國人工智能技術(shù)在國際上的話語權(quán)和競爭優(yōu)勢。
(4)開展智能媒體、智能風(fēng)控、智慧醫(yī)療、智慧司法、智慧電商等領(lǐng)域的立法籌備。在前一階段調(diào)研和論證的基礎(chǔ)上,開展針對人工智能重要場景中有關(guān)倫理問題的立法籌備工作,成立項(xiàng)目組進(jìn)行研究,制定立法草案,并廣泛征求社會(huì)意見。
第三步,到2030 年,建成更加完善的人工智能倫理治理體系。
(1)建立完善的人工智能倫理治理體系和行業(yè)規(guī)范。建立起層次化、多元化的人工智能倫理教育體系,形成不同層次、面向不同群體的系列教材;對于人工智能領(lǐng)域?qū)I(yè)人士,建立起從源頭到下游的道德規(guī)范約束和引導(dǎo)體系,制定相關(guān)道德規(guī)范和行為守則。
(2)形成一批人工智能倫理支撐技術(shù)和支撐人工智能倫理的標(biāo)準(zhǔn)體系。在鼓勵(lì)企業(yè)制定國內(nèi)標(biāo)準(zhǔn)體系的同時(shí),引導(dǎo)其更多地參與到國際標(biāo)準(zhǔn)制定工作中,為國際標(biāo)準(zhǔn)制定提供中國方案。
(3)形成國家層面和企業(yè)層面?zhèn)惱砦瘑T會(huì)完整的工作流程和順暢的信息交互機(jī)制。建立起我國國家科技倫理委員會(huì)與各科技企業(yè)內(nèi)部倫理委員會(huì)之間良好對接、協(xié)同工作的完整工作流程,建立實(shí)時(shí)、順暢的人工智能倫理風(fēng)險(xiǎn)和問題、企業(yè)實(shí)踐等信息的傳遞機(jī)制,形成良好的人工智能倫理社會(huì)共治機(jī)制。
(4)完善人工智能法律體系。從自動(dòng)駕駛、智能媒體、智能醫(yī)療、智慧風(fēng)控等各領(lǐng)域立法中進(jìn)行體系化梳理和理論抽象,建立完整的人工智能法律體系。
表5 人工智能倫理治理措施和戰(zhàn)略建議
當(dāng)前正值我國人工智能技術(shù)飛速發(fā)展的關(guān)鍵時(shí)期,對人工智能倫理問題的探討有著極為重要的意義。本研究首先界定了人工智能倫理準(zhǔn)則的基本概念,分析人工智能發(fā)展現(xiàn)狀;然后探討導(dǎo)致人工智能倫理問題的主要原因,總結(jié)人工智能典型應(yīng)用場景下的倫理問題,并圍繞應(yīng)對人工智能倫理問題的基本原則探索了治理框架體系,包括技術(shù)應(yīng)對、道德規(guī)范、政策引導(dǎo)、法律規(guī)則等方面;最后結(jié)合我國人工智能發(fā)展規(guī)劃戰(zhàn)略部署,指出在社會(huì)治理的落地過程中宜采取分層次、多維度的治理體系,并提出在人工智能倫理準(zhǔn)則和治理方面的具體措施建議,包括社會(huì)宣傳、標(biāo)準(zhǔn)體系、法律法規(guī)等方面。我國需要以促進(jìn)人工智能發(fā)展為總體原則,平衡技術(shù)革新與風(fēng)險(xiǎn)防范,建立包容創(chuàng)新、審慎發(fā)展的政策和制度環(huán)境,并充分調(diào)動(dòng)社會(huì)力量共同解決人工智能倫理問題,推進(jìn)人工智能技術(shù)和產(chǎn)業(yè)符合倫理、安全可信地創(chuàng)新發(fā)展,進(jìn)一步提升我國人工智能產(chǎn)業(yè)在國際競爭中的優(yōu)勢地位。