席子祺譯
2018 年 12 月,歐盟委員會公布了《可信賴的人工智能道德準則草案》。草案闡述了人工智能應遵循的道德目標,包括基本權(quán)利、原則與價值觀;分析了實現(xiàn)可信賴的人工智能的要求;并制定了具體的評估標準。草案為開發(fā)、部署和使用人工智能的政府、社會組織、研究機構(gòu)、企業(yè)和個人提供了一個人工智能道德準則框架,以便實現(xiàn)“以人為本”和可信賴的人工智能技術(shù),并創(chuàng)造一種“可信賴的人工智能源自歐洲”的文化,使歐洲成為引領(lǐng)全球人工智能的創(chuàng)新者。
人工智能(AI)是當代最強大的變革力量之一,勢必會改變?nèi)藗兊纳鐣Y(jié)構(gòu)。人工智能將帶來繁榮發(fā)展的巨大機遇,歐洲絕不能等閑視之。得益于可用數(shù)據(jù)的海量驟增、更強大的計算結(jié)構(gòu)以及機器學習等人工智能技術(shù)的突飛猛進,人工智能在過去 10年里取得重大進步。在人工智能的推動下,自動駕駛汽車、醫(yī)療、家用/服務型機器人、教育、網(wǎng)絡(luò)安全等領(lǐng)域?qū)崿F(xiàn)重大發(fā)展,人類生活水平也隨之不斷提高。此外,人工智能還是解決全球重大挑戰(zhàn)的關(guān)鍵手段,如全球健康與福利、氣候變化、可靠的法律與民主系統(tǒng)以及載入《聯(lián)合國可持續(xù)發(fā)展目標》的其他挑戰(zhàn)。
人工智能擁有造福人類與社會的卓越能力,同時也會帶來風險,必須妥善管理。為確保人工智能的發(fā)展不偏離軌道,就需要堅持以人為本,必須始終牢記人工智能的發(fā)展與應用本身并不是目的,其目的是造福人類。實現(xiàn)可信賴的人工智能是本準則的根本宗旨,因為對于人工智能來說,人類只有信其所能,才能用其所及。
歐盟實現(xiàn)人工智能 道德的權(quán)利型策略
以《歐盟條約》和《基本權(quán)利憲章》中規(guī)定的基本權(quán)利為基石,找出抽象道德原則,確定如何在人工智能的語境中落實道德價值,這才是落實人工智能道德的正道。歐盟的基本義務,就是通過憲政保護不可分割的基本人權(quán),確保尊重法律規(guī)則,推動民主自由,促進共同發(fā)展。基本權(quán)利不僅能夠催生新的法律與監(jiān)管規(guī)則,也是指導人工智能系統(tǒng)開發(fā)、使用與實施的依據(jù)。
歐盟條約和憲章規(guī)定了落實歐盟法律時所適用的權(quán)利,即:尊嚴、自由、平等、團結(jié)、公民權(quán)利與正義。這些權(quán)利在憲章的后續(xù)章節(jié)中進行了闡述,而貫穿其始終的主線,就是歐盟堅持以人為本的精神,即公民在政治、經(jīng)濟與社會工作中始終占據(jù)特殊的首要位置。
道德領(lǐng)域也是為了保護個體權(quán)利和自由,同時造福社會與公益。道德視角能夠幫助人們理解技術(shù)如何在人工智能的開發(fā)與應用中將基本權(quán)利納入考慮因素,以及如何更好地指導人們利用技術(shù)造福公益,而不是(現(xiàn)在)只關(guān)注技術(shù)能夠做什么。在人工智能領(lǐng)域堅持基本權(quán)利,重視需要遵循的道德原則。
從基本權(quán)利到原則和價值觀
要舉例說明基本權(quán)利、原則與價值觀的關(guān)系,就讓人們來思考一下“尊重人類尊嚴”的基本權(quán)利概念。這種權(quán)利涉及對人類固有價值的認識,如此又可引出自治的道德原則,即人人都有自由選擇身體、情感或精神等方面生活方式的權(quán)利。繼而,知情同意就是自治原則在實踐中的具體操作。知情同意要求個體在決定是否開發(fā)、使用或投資實驗或商用人工智能系統(tǒng)時,要為其提供充分的信息。
簡而言之,基本權(quán)利是形成道德準則的基石。這些原則是高級的抽象標準,開發(fā)者、部署者、使用者和監(jiān)管者要奉行以人為本和可信賴的人工智能的目標,就必須遵守。而價值觀是奉行道德原則的具體指導,同時也為基本權(quán)利提供支撐。
運用基本權(quán)利推導出道德原則和價值觀的做法,并非人工智能高級專家組的首創(chuàng)。早在 1997 年,歐洲理事會就出臺了名為《在生物學和醫(yī)學應用領(lǐng)域保護人權(quán)和人類尊嚴的公約》(簡稱奧維耶多公約)。奧約耶多公約明確規(guī)定,基本權(quán)利是在技術(shù)變革中確?!耙匀藶楸尽钡母舅凇?/p>
尊重并確保人工智能系統(tǒng)遵守基本權(quán)利、原則與價值觀,就是本文中所述的確保“道德目標”,這是實現(xiàn)可信賴的人工智能的關(guān)鍵因素。
人工智能領(lǐng)域的道德原則及相關(guān)價值觀
許多公共、私人與民間組織已經(jīng)在運用基本權(quán)利來構(gòu)建人工智能的道德框架。在歐盟,歐洲科學與新技術(shù)倫理工作組(EGE)以歐盟條約和歐盟基本權(quán)利憲章中規(guī)定的基本價值觀為基礎(chǔ),提出了九大基本原則。近期,AI4People研究項目對歐洲科學與新技術(shù)倫理工作組提出的九大原則以及迄今為止提出的其他三十六個原則進行了評估,并將其歸納為四大總體原則,包括:善行、無傷害、個體自主和公正平等。為適應人工智能的發(fā)展,專家組還對上述四大原則進行了修正,增加了第五項原則,即:可解讀原則。人工智能高級專家組相信會聚的好處,這樣能夠找出迄今為止各種機構(gòu)提出的大部分原則,同時澄清這些原則所針對的目的。最重要的,這些總體原則能夠為核心價值觀提供具有可操作性的指導原則。
同時還應當注意,在特殊情況下,個體與社會對這些原則的態(tài)度可能會出現(xiàn)沖突。這種情況并沒有特定的解決途徑。在上述情況下,參照歐盟條約和憲章所保護的原則與總體價值觀和權(quán)利不無裨益。鑒于人工智能的未知潛力與意外后果,本文建議要有內(nèi)部與外部(道德)專家參與人工智能的設(shè)計、開發(fā)與應用。這些專家有助于人們進一步關(guān)注未來幾年里可能出現(xiàn)的特別道德問題。
善行原則。人工智能系統(tǒng)的設(shè)計與開發(fā)應當有益于個體與集體。人工智能可促進繁榮、創(chuàng)造價值、增加財富、促進可持續(xù)發(fā)展。同時,致力于善行的人工智能系統(tǒng)有利于創(chuàng)造公平、包容與和平的社會,有助于維護公民的精神自治,促進經(jīng)濟、社會與政治機會的平等分配,從而造福全民。人工智能系統(tǒng)如果用于保護民主進程與法治,保障低成本與高質(zhì)量的公益與服務,加強數(shù)據(jù)素養(yǎng)與代表性,為使用者減輕傷害及加強信任,從經(jīng)濟發(fā)展、社會公平與環(huán)境保護這三個方面實現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標或更廣泛的可持續(xù)發(fā)展。換言之,人工智能是促進全球公益和/或應對全球挑戰(zhàn)的有效工具。
無傷害原則。人工智能系統(tǒng)不得傷害人類。人工智能系統(tǒng)的設(shè)計應確保在社會上和工作中保護人類的尊嚴、誠信、自由、隱私和安全。人工智能系統(tǒng)不得威脅民主進程、表達自由、身份自由以及拒絕人工智能服務的權(quán)利。人工智能系統(tǒng)至少在設(shè)計上不能加劇已經(jīng)存在的傷害,也不能導致新的傷害,包括身體、心理、財務或社會等方面的傷害。人工智能領(lǐng)域的傷害可能來自于對個人數(shù)據(jù)的處理(包括數(shù)據(jù)的采集、存儲、使用方式等)。為避免傷害,為用于培訓人工智能算法而采集和使用的數(shù)據(jù)必須要避免歧視、操縱或負面判斷。同時,人工智能系統(tǒng)的開發(fā)與實施還必須保護社會避免意識形態(tài)的兩極分化和算法決定論。
避免傷害,也包括對環(huán)境和動物的傷害。因此,避免傷害的原則應當包括開發(fā)環(huán)保型的人工智能。地球資源有其本身的價值,也有著供人類消費的價值。無論是哪一種,人工智能的研究、開發(fā)和使用有必要堅持環(huán)保意識。
自主原則:“保留人類的能動性”。人工智能開發(fā)所涉及的人類自主性,意味著人類自由不從屬于人工智能,也不受其脅迫。在與人工智能系統(tǒng)的交互中,人類必須保持完整有效的自決權(quán)。這就要求人工智能的消費者或使用者有權(quán)決定是否遵守人工智能的直接或間接決策,有權(quán)知曉與人工智能系統(tǒng)進行直接或間接互動的知識,并有權(quán)選擇拒絕或退出。
公正原則。本準則所提及的公正原則要求人工智能系統(tǒng)的開發(fā)、使用與監(jiān)管必須公平。開發(fā)者和實施者需要確保個體與少數(shù)群體享有不遭受偏見、侮辱和歧視的自由。此外,人工智能的開發(fā)應當平衡利弊,避免加劇弱勢群體的遭遇,努力為其爭取在教育、商品、服務和技術(shù)上不受歧視的公平機會。公正還意味著人工智能系統(tǒng)必須要提供有效的救濟措施,以防范意外傷害或者數(shù)據(jù)偏離人類個體或集體偏好。最后,公正原則還要求人工智能的開發(fā)者或?qū)嵤┱弑仨殦碛懈邩藴实膯栘煓C制。為人工智能的性能制定(道德)標準,將有益于造福人類。
可解讀原則:“透明操作”。透明度是人工智能系統(tǒng)及其開發(fā)者贏得并維持信任的關(guān)鍵。從道德立場上來看,技術(shù)和商業(yè)模式的透明度都十分重要。技術(shù)上的透明度,是指人工智能系統(tǒng)要能夠被理解能力和專業(yè)水平各不相同的人士所審查和理解。商業(yè)模式上的透明度,是指人工智能系統(tǒng)開發(fā)者與技術(shù)實施者要明確告知其意圖。
可解讀是個體在與人工智能交互時實現(xiàn)知情同意的前提,而為確保實現(xiàn)可解讀與無傷害原則,就應當保障知情同意的要求??山庾x還要求必須采取追責措施。個體與機構(gòu)可要求人工智能系統(tǒng)的組織者與開發(fā)者、技術(shù)實施者或供應鏈上的第三方基本參數(shù)與說明的證據(jù)(人工智能系統(tǒng)的發(fā)現(xiàn)或預測,或者發(fā)現(xiàn)和預測所涉及的因素),以此為依據(jù)來分析人工智能的決策。
人工智能引發(fā)的重大關(guān)注
人工智能的具體用途或應用以及領(lǐng)域或語境可能會違背上述的權(quán)利和原則,從而引發(fā)重大關(guān)注。與其他強大的技術(shù)一樣,人工智能雖然有助于實現(xiàn)歐盟價值觀,但其兩面性本質(zhì)意味著人工智能也可能會侵犯這些價值觀。下面列出了部分重大關(guān)注,在未來可能會有所縮減或變動。
未經(jīng)同意的身份識別。公共或私營機構(gòu)都可以運用人工智能來更加高效的識別個體身份。人工智能領(lǐng)域的控制技術(shù)必須合情合理,才能保障歐洲民眾的自主權(quán)。在個體身份識別與個體跟蹤之間,以及針對監(jiān)控與大眾監(jiān)控之間進行區(qū)分,是實現(xiàn)可信賴的人工智能的關(guān)鍵。
目前互聯(lián)網(wǎng)上也有知情同意的機制,但消費者往往不假思索就點擊同意。這就要求監(jiān)管者必須根據(jù)實際情況構(gòu)建全新機制,讓公民能夠給出可驗證的同意,讓人工智能或同等技術(shù)能夠自動識別驗證。面部識別或其他使用生物計量數(shù)據(jù)的非自愿身份識別手段都屬于可擴展人工智能身份識別技術(shù)(如謊言測試、通過微表情進行性格評估、自動語音識別等)。個體身份識別有時也符合道德原則(如發(fā)現(xiàn)欺詐、洗錢或資助恐怖分子等行為)。在現(xiàn)有法律或者對核心價值觀的保護沒有明確規(guī)定可以采用此類技術(shù)的地方,自動身份識別會引發(fā)重大的法律與道德關(guān)注,其默認條件是用戶并沒有給出同意身份驗證的意思表示。這同時也適用于使用能夠進行逆向身份驗證的“匿名”個人數(shù)據(jù)。
隱秘的人工智能系統(tǒng)。人工智能的開發(fā)者和部署者有責任讓用戶知道交互對象是人類還是機器,這一點必須可靠實現(xiàn)。此外,掌握人工智能的控制權(quán),操縱人類的能力就可能達到前所未有的規(guī)模。因此,人工智能開發(fā)者和部署者應當確保人類了解交互對象是人工智能的這一事實,或者能夠要求并驗證這個事實。值得注意的是,存在可能讓事態(tài)更加復雜的邊緣情況,比如用人工智能過濾人類語音。機器人就可視為是一種隱秘的人工智能系統(tǒng),因為機器人在盡量模仿人類行為。機器人進入到人類社會有可能改變?nèi)藗儗θ祟惣叭诵缘恼J知。人們必須牢記,人類與機器的混合將導致多重后果,包括歸屬感、影響力,或者降低人類的價值。因此,類人與人形機器人的開發(fā)必須要進行謹慎的道德評估。
所有公民的自由與自主都應得到尊重。政府機構(gòu)在各方面進行大規(guī)模標準化公民評分(如“道德人格”或者“道德誠實”方面的總體評估)將危及這些價值觀,特別是在不符合基本權(quán)利或者規(guī)模失調(diào)且沒有明確合法目標的情況下。當今世界,大小規(guī)模的公民評分常為具體領(lǐng)域的單純說明性評分(如學校系統(tǒng)、電子學習或駕照)。但是,公民評分如果要應用于有限的社會領(lǐng)域,就必須要為公民提供透明流程,并提供評分過程、目的和方法方面的信息,在理想情況下還要向公民提供退出評分機制的選擇權(quán)。在雙方權(quán)利不對稱的情況下,這一點尤為重要。因此,開發(fā)者和部署者都應當在技術(shù)設(shè)計中保障這種選擇權(quán),并提供必要的資源予以實現(xiàn)。
致命自動化武器系統(tǒng)(LAWS)。致命自動化武器系統(tǒng)可以在沒有人類控制的情況下自動執(zhí)行選擇與攻擊個體目標的關(guān)鍵功能。而最終,所有傷亡還是必須要由人類負責。目前,不明數(shù)量的企業(yè)和國家正在研究和開發(fā)致命自動化武器系統(tǒng)。這種情況會引發(fā)基本的道德關(guān)注,比如會導致前所未有的軍備競賽失控,會導致人類完全放棄控制、故障風險完全無解的軍事環(huán)境。不過還有另一方面需要注意,那就是致命自動化武器系統(tǒng)能夠在武裝沖突中減少附帶傷害,比如有選擇的解救兒童。歐洲議會呼吁緊急制定共同遵守的法律,解決人類控制、監(jiān)督的道德與法律問題,落實國際人權(quán)法律、國際人道主義法律和軍事戰(zhàn)略的問責與落實機制。
遠期關(guān)注。當前所有的人工智能仍然僅涉及具體領(lǐng)域,需要訓練有素的人類科學家和工程師為其指定準確目標。但是,長遠的未來仍然存在一些重大關(guān)注,雖然這些僅僅是猜測。盡管以現(xiàn)在的眼光看來,出現(xiàn)這些情況的可能性并不大,但其潛在危害卻可能十分巨大(比如擁有主觀經(jīng)驗的人工意識、人工道德實體或者無監(jiān)督遞歸自我改進型人工智能(AGI)等,這些技術(shù)在今天看來尚遙遙無期)。因此,人們需要采取風險評估策略,始終關(guān)注這些領(lǐng)域的發(fā)展,并投入資源減少遠期風險。
人工智能道德準則草案結(jié)論
人工智能已給全球商業(yè)和社會帶來巨大的積極影響。人工智能是一種變革與顛覆性技術(shù)。過去幾年,得益于海量數(shù)字化數(shù)據(jù)、計算能力與存儲能力的重大進步以及人工智能方法與工具的重大科研創(chuàng)新,人工智能實現(xiàn)了跨越式發(fā)展。
人工智能將繼續(xù)給社會和民眾帶來難以預料的影響。這種前景令人振奮,但人們也必須保持警惕,應正確認識可信賴的人工智能,并努力加以踐行,只有贏得人類的信任,技術(shù)才能發(fā)揮造福人類的巨大作用。因此,實現(xiàn)可信賴的人工智能是本文件的根本宗旨。
可信賴的人工智能包含兩個方面:第一,應尊重基本權(quán)利、相關(guān)規(guī)則和核心原則,確?!暗赖履繕恕钡膶崿F(xiàn);第二,技術(shù)上必須穩(wěn)健可靠。