馮子軒
目 次
一、生成式人工智能應(yīng)用的倫理規(guī)范現(xiàn)狀
二、生成式人工智能應(yīng)用的多重倫理困境
三、生成式人工智能應(yīng)用的人本主義倫理立場(chǎng)
四、人本主義立場(chǎng)下的生成式人工智能應(yīng)用的倫理治理機(jī)制
五、結(jié)語(yǔ)
智能,是一種普遍的心智能力,包括推理、計(jì)劃、解決問(wèn)題、抽象思考、理解復(fù)雜概念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)的能力。智能并不局限于某個(gè)特定的領(lǐng)域或任務(wù),而是包含了廣泛的認(rèn)知技能和能力。人工智能是對(duì)人類智能的模擬與延伸。近年來(lái),以ChatGPT 為代表的生成式人工智能,通過(guò)對(duì)海量文本數(shù)據(jù)集進(jìn)行訓(xùn)練,使機(jī)器擁有強(qiáng)大的語(yǔ)言理解和文本生成能力,〔1〕參見(jiàn)杜雨、張孜銘:《AIGC:智能創(chuàng)作時(shí)代》,中譯出版社2023 年版,第6 頁(yè)??梢詫?duì)人類輸入內(nèi)容產(chǎn)生高質(zhì)量會(huì)話自動(dòng)糾正錯(cuò)誤,能解決跨越語(yǔ)言、數(shù)學(xué)、編碼、視覺(jué)、醫(yī)學(xué)、法律、心理學(xué)等領(lǐng)域的問(wèn)題,類似產(chǎn)品如谷歌公司的PaLM〔2〕Aakanksha Chowdhery et al., Palm: Scaling language modeling with pathways.arXiv (Oct.5, 2022), https://arxiv.org/pdf/2204.02311.pdf, accessed July 4, 2023.和LaMDA〔3〕Romal Thoppilan et al., Lamda: Language models for dialog applications.arXiv (Feb.10, 2022), https://arxiv.org/pdf/2201.08239.pdf, accessed July 4, 2023.、我國(guó)百度公司的“文心一言”、阿里公司的“通義千問(wèn)”等。與此同時(shí),該項(xiàng)技術(shù)也引發(fā)了人工智能倫理問(wèn)題的爭(zhēng)議。例如,ChatGPT 可以輔助研究工作,在應(yīng)用中會(huì)產(chǎn)生抄襲、剽竊、數(shù)據(jù)造假、實(shí)驗(yàn)造假等學(xué)術(shù)不端行為,已被部分教學(xué)科研機(jī)構(gòu)禁用。〔4〕參見(jiàn)朱永新、楊帆:《ChatGPT/生成式人工智能與教育創(chuàng)新:機(jī)遇、挑戰(zhàn)以及未來(lái)》,載《華東師范大學(xué)學(xué)報(bào)(教育科學(xué)版)》2023 年第7 期,第9 頁(yè)。OpenAI 承認(rèn),GPT—4 與早期的GPT 模型有類似的局限性,它本身并不是完全可靠的,存在偏見(jiàn)、虛假信息、隱私、過(guò)度依賴等風(fēng)險(xiǎn)。
本文將觀察生成式人工智能應(yīng)用的倫理規(guī)范現(xiàn)狀,歸納其在實(shí)際應(yīng)用中所產(chǎn)生的倫理問(wèn)題,探索其倫理規(guī)范體系的建構(gòu)立場(chǎng)與具體進(jìn)路。當(dāng)前,生成式人工智能存在侵犯?jìng)€(gè)人基本權(quán)利、繼承人類現(xiàn)有錯(cuò)誤價(jià)值觀、依賴基于擬態(tài)環(huán)境輸出結(jié)果、常識(shí)悖論等倫理困境。基于自然語(yǔ)言處理與機(jī)器強(qiáng)化學(xué)習(xí)等技術(shù)的發(fā)展,需要場(chǎng)景化建構(gòu)生成式人工智能應(yīng)當(dāng)遵循的基本倫理原則,并提出治理策略,為增進(jìn)人類福祉和推動(dòng)構(gòu)建人類命運(yùn)共同體提供有力的科技倫理支撐。
以ChatGPT 為例,其核心技術(shù)以預(yù)訓(xùn)練、大模型、生成性為特征,從人類反饋中強(qiáng)化學(xué)習(xí),〔5〕Chengwei Qin et al., Is ChatGPT a General-Purpose Natural Language Processing Task Solver?, arXiv (Nov.19, 2023), https://arxiv.org/pdf/2302.06476.pdf, accessed July 4, 2023.通過(guò)大規(guī)模的參數(shù)量和數(shù)據(jù)量,細(xì)致鏈接到人的需求,最終生成輸出結(jié)果,實(shí)現(xiàn)對(duì)人類認(rèn)知機(jī)制的深度模擬。生成式人工智能也具有對(duì)其生成答案的評(píng)判能力,實(shí)現(xiàn)捕獲用戶意圖、智能交互對(duì)話、文本生成、文獻(xiàn)爬取等功能?!?〕參見(jiàn)杜雨、張孜銘:《AIGC:智能創(chuàng)作時(shí)代》,中譯出版社2023 年版,第6 頁(yè)。有學(xué)者認(rèn)為,ChatGPT 是人工智能技術(shù)在擬真度和功能維度上的“里程碑”,其擁有豐富的背景知識(shí)和強(qiáng)大的歸納能力、對(duì)形勢(shì)的判斷客觀清晰、規(guī)劃設(shè)計(jì)穩(wěn)健合理、作出決策冷靜快捷、采取行動(dòng)精準(zhǔn)有力、工作時(shí)間更長(zhǎng)、資源消耗更少,還能通過(guò)反饋和學(xué)習(xí)自動(dòng)糾錯(cuò)、自主升級(jí),相對(duì)于人的智能優(yōu)勢(shì)或?qū)⒊掷m(xù)擴(kuò)大。〔7〕參見(jiàn)李倫主編:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018 年版,第265 頁(yè)。具備強(qiáng)大能力的生成式人工智能應(yīng)用引發(fā)了社會(huì)普遍憂慮,主要源于ChatGPT 等技術(shù)的“盲區(qū)”引發(fā)了多重倫理沖突,各國(guó)也相繼開(kāi)展有針對(duì)性的倫理規(guī)范探索。
國(guó)際組織層面主要以倫理倡導(dǎo)性規(guī)范為主。2018 年6 月,G7 峰會(huì)通過(guò)了《人工智能未來(lái)的共同愿景》,涉及的倫理原則包括以人為本、增進(jìn)信任、保障安全、保護(hù)隱私,初步明確人工智能發(fā)展過(guò)程中應(yīng)遵循的倫理原則。此后,無(wú)論是聯(lián)合國(guó)教科文組織通過(guò)的《人工智能倫理問(wèn)題建議書(shū)》,〔8〕參見(jiàn)《聯(lián)合國(guó)教科文組織呼吁盡快實(shí)施人工智能倫理標(biāo)準(zhǔn)》,來(lái)源:https://baijiahao.baidu.com/s?id=1761872144108353042&wfr=spider&for=pc.,2023 年12 月23 日訪問(wèn)。還是世界互聯(lián)網(wǎng)大會(huì)以“人工智能時(shí)代:構(gòu)建交流、互鑒、包容的數(shù)字世界”為主題進(jìn)行的探討,〔9〕參見(jiàn)趙秋麗等:《世界互聯(lián)網(wǎng)大會(huì)數(shù)字文明尼山對(duì)話在曲阜開(kāi)幕》,載《光明日?qǐng)?bào)》2023 年6 月27 日,第4 版。多集中于一般人工智能應(yīng)用領(lǐng)域,目的是在人工智能研發(fā)與應(yīng)用的倫理領(lǐng)域凝聚共識(shí),宣示意義較強(qiáng),對(duì)細(xì)分領(lǐng)域關(guān)注不多。
歐盟的倫理審查特色鮮明。在ChatGPT 問(wèn)世前,歐盟就一直在推動(dòng)基于風(fēng)險(xiǎn)分層規(guī)制的人工智能倫理治理模式。ChatGPT 問(wèn)世后,歐盟高度重視生成式人工智能引發(fā)的倫理問(wèn)題,力圖通過(guò)政策和法律手段推動(dòng)相關(guān)倫理審查,實(shí)現(xiàn)對(duì)生成式人工智能應(yīng)用的研發(fā)、市場(chǎng)準(zhǔn)入、用戶合法權(quán)益保障等問(wèn)題的監(jiān)督和管理。歐盟于2023 年6 月發(fā)布《人工智能法案》,將ChatGPT 歸類至“高風(fēng)險(xiǎn)”技術(shù),提出對(duì)這類“高風(fēng)險(xiǎn)”技術(shù)進(jìn)行必要且全面的倫理審查,以降低風(fēng)險(xiǎn),確保用戶的自主性、公平對(duì)待與隱私?!?0〕參見(jiàn)張璐:《通用人工智能風(fēng)險(xiǎn)治理與監(jiān)管初探——ChatGPT 引發(fā)的問(wèn)題與挑戰(zhàn)》,載《電子政務(wù)》2023 年第9 期,第17 頁(yè)。歐盟主張人工智能應(yīng)當(dāng)符合人類倫理,不應(yīng)背離人類基本道德和價(jià)值觀,較之一般人工智能,歐盟對(duì)生成式人工智能的倫理審查機(jī)制更為審慎,強(qiáng)調(diào)基本倫理秩序維護(hù)與公民基本權(quán)利保護(hù)。
美國(guó)既鼓勵(lì)生成式人工智能等新技術(shù)的發(fā)展,同時(shí)也以政府命令的方式對(duì)其開(kāi)展跟蹤監(jiān)管,是一種鼓勵(lì)與監(jiān)管并行的倫理治理模式。美國(guó)一向關(guān)注科技企業(yè)創(chuàng)新,生成式人工智能技術(shù)實(shí)現(xiàn)重大突破后,美國(guó)政府及其咨詢機(jī)構(gòu)就ChatGPT 相關(guān)問(wèn)題密集發(fā)布了數(shù)份文件,〔11〕例如2023 年1 月,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)公布《人工智能風(fēng)險(xiǎn)管理框架》,指導(dǎo)機(jī)構(gòu)組織降低在開(kāi)發(fā)和部署人工智能系統(tǒng)過(guò)程中的安全風(fēng)險(xiǎn),避免產(chǎn)生偏見(jiàn)等負(fù)面后果,提高人工智能可信度,保護(hù)公民的公平自由權(quán)利;2 月,美國(guó)總統(tǒng)拜登在簽署的一項(xiàng)行政命令中,要求聯(lián)邦政府在設(shè)計(jì)和使用人工智能時(shí),應(yīng)避免受偏見(jiàn)、算法歧視等危險(xiǎn)的威脅;4 月,美國(guó)商務(wù)部下設(shè)的國(guó)家遠(yuǎn)程通信和信息管理局發(fā)布一項(xiàng)關(guān)于AI 可歸責(zé)性政策文件的征求意見(jiàn)稿,其中涉及生成式人工智能在信息扭曲、深度偽造、隱私侵犯和虛假信息等方面的人工智能系統(tǒng)問(wèn)責(zé)政策;6 月,美國(guó)政府為制定《國(guó)家人工智能(AI)戰(zhàn)略》征求意見(jiàn),部分內(nèi)容聚焦保護(hù)人權(quán)、促進(jìn)公平公正等方面。參見(jiàn)黃日涵、姚浩龍:《被重塑的世界?ChatGPT 崛起下人工智能與國(guó)家安全新特征》,載《國(guó)際安全研究》2023 年第4 期,第86 頁(yè);畢文軒:《生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT 的規(guī)制為視角》,載《比較法研究》2023 年第3 期,第166 頁(yè)。旨在保障公民自由、公平等憲法權(quán)利不受算法歧視等風(fēng)險(xiǎn)的侵害,并對(duì)新技術(shù)應(yīng)用造成的信息扭曲、深度偽造、隱私侵犯等問(wèn)題建立問(wèn)責(zé)系統(tǒng)。ChatGPT 問(wèn)世后,美國(guó)鼓勵(lì)發(fā)展ChatGPT 等生成式人工智能,但并沒(méi)有對(duì)其“網(wǎng)開(kāi)一面”,對(duì)倫理問(wèn)題的重視程度明顯超越以往。多份文件提出確保人工智能的合倫理性、可信賴性,以及對(duì)公民個(gè)人信息、隱私、公平、自由等合法權(quán)益的保障,體現(xiàn)了美國(guó)在應(yīng)對(duì)生成式人工智能發(fā)展問(wèn)題中的人本主義立場(chǎng),并在聯(lián)邦政策與法律框架制定中有所表達(dá)。
英國(guó)早在2018 年便提出五大倫理原則,〔12〕五大倫理原則,即為了公共利益發(fā)展AI、可理解性與公正原則、保護(hù)隱私權(quán)與數(shù)據(jù)權(quán)、利益共享,以及不傷害不破壞不欺騙原則。參見(jiàn)吳紅、杜嚴(yán)勇:《人工智能倫理治理:從原則到行動(dòng)》,載《自然辯證法研究》2021 年第4 期,第50 頁(yè)。體現(xiàn)出濃厚的人本主義色彩。近期,該國(guó)就ChatGPT等生成式人工智能采取的倫理規(guī)范措施具有較強(qiáng)的針對(duì)性。例如在教育領(lǐng)域,英國(guó)多所高校嚴(yán)格限制ChatGPT 等生成式人工智能在撰寫論文等學(xué)術(shù)活動(dòng)中的應(yīng)用,違者面臨開(kāi)除等嚴(yán)厲處分?!?3〕參見(jiàn)宋信強(qiáng):《GPT—4影響的全面分析:經(jīng)濟(jì)高質(zhì)量發(fā)展與國(guó)家安全防范》,載《廣東財(cái)經(jīng)大學(xué)學(xué)報(bào)》2023年第2期,第109頁(yè)。英國(guó)也重視ChatGPT 等生成式人工智能的應(yīng)用監(jiān)管問(wèn)題,其中的維護(hù)市場(chǎng)秩序、保障相關(guān)消費(fèi)者合法權(quán)益、禁止學(xué)生于學(xué)術(shù)活動(dòng)領(lǐng)域利用等觀點(diǎn)體現(xiàn)了英國(guó)對(duì)公平、正義等基本權(quán)利和倫理規(guī)范的尊重。
我國(guó)人工智能倫理規(guī)范屬建設(shè)初期,仍在探尋安全與發(fā)展的平衡方案。當(dāng)前,我國(guó)高度重視生成式人工智能應(yīng)用的倫理問(wèn)題,為應(yīng)對(duì)這一新技術(shù)對(duì)法律倫理與秩序帶來(lái)的沖擊,多部委聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,要求生成式人工智能應(yīng)尊重社會(huì)公德與倫理道德、堅(jiān)持社會(huì)主義核心價(jià)值觀、防止歧視、保證準(zhǔn)確可靠、尊重他人合法權(quán)益等?!?4〕參見(jiàn)《生成式人工智能服務(wù)管理暫行辦法》第4 條。在地方層面,以《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》為例,明確設(shè)置人工智能倫理委員會(huì),鼓勵(lì)企業(yè)利用技術(shù)防范倫理安全風(fēng)險(xiǎn)及合規(guī)風(fēng)險(xiǎn)??傮w而言,我國(guó)正在探索央地聯(lián)動(dòng)、各方參與的倫理治理方案,先后規(guī)定了科技倫理委員會(huì)機(jī)構(gòu)設(shè)置,頒布了倫理原則指引,逐漸形成以人為本、反對(duì)偏見(jiàn)與歧視、提升透明度等要求的倫理規(guī)范。長(zhǎng)遠(yuǎn)看,我國(guó)相關(guān)倫理體系建構(gòu)仍需在組織架構(gòu)、程序設(shè)計(jì)、標(biāo)準(zhǔn)統(tǒng)一和責(zé)任承擔(dān)等方面予以完善。
生成式人工智能的出現(xiàn)正在深刻影響著現(xiàn)有人工智能倫理規(guī)范的形態(tài)與進(jìn)路。一方面,生成式人工智能技術(shù)的應(yīng)用對(duì)人類在既有人工智能倫理規(guī)范中的主體地位造成沖擊,造成倫理秩序的兩難?!叭斯さ赖滦袨轶w”(artificial moral agent),指承擔(dān)不同程度道德責(zé)任的人工智能體,是伴隨人工智能技術(shù)發(fā)展而產(chǎn)生的新概念。人工智能產(chǎn)品迅速進(jìn)入生活場(chǎng)景中,其顯現(xiàn)的倫理后效使我們必須在理論層面、制度層面予以回應(yīng)。如果不承認(rèn)智能體的道德主體地位,就會(huì)出現(xiàn)責(zé)任主體缺位問(wèn)題,人工智能治理框架的構(gòu)建將變得困難;如果承認(rèn)其道德主體地位,則又會(huì)對(duì)人本主義的倫理秩序造成巨大沖擊。另一方面,既有倫理規(guī)范原則性較強(qiáng),倡導(dǎo)性內(nèi)容鋪陳較多,難以完全適應(yīng)生成式人工智能技術(shù)新發(fā)展,無(wú)法切實(shí)解決其在應(yīng)用過(guò)程中產(chǎn)生的對(duì)擬態(tài)環(huán)境過(guò)度依賴等新問(wèn)題。人機(jī)共存社會(huì)中,人工智能的工具屬性聲明應(yīng)當(dāng)轉(zhuǎn)變?yōu)樾袆?dòng)規(guī)范,要求人工智能尊重人類社會(huì)的價(jià)值、規(guī)范和法律,造就人本主義在智能時(shí)代的新發(fā)展形態(tài)。當(dāng)前,人本主義不彰引發(fā)的生成式人工智能倫理困境趨于明顯。
在人本主義的倫理立場(chǎng)下,人類被賦予了某種固有價(jià)值或價(jià)值優(yōu)先,倫理秩序圍繞著人類展開(kāi),倫理建構(gòu)以“人類塑造世界”為核心。但在人機(jī)共存的社會(huì)中,人工智能正在成為具有一定自主道德行動(dòng)能力的實(shí)施者,并且人工智能極易通過(guò)信息輸出去分析、識(shí)別和塑造人的觀念與認(rèn)知體系,引發(fā)“人工智能塑造人類”的結(jié)果,作為目的的人類主體性將會(huì)遭受挫折。再者,由于個(gè)體對(duì)人工智能的應(yīng)用能力有差別,與“數(shù)據(jù)鴻溝”類似,“人工智能鴻溝”的出現(xiàn)或?qū)⒓觿∩缛簝?nèi)部分化,部分弱勢(shì)群體或?qū)⒚媾R智識(shí)的淘汰,又或是成為算法霸凌的受害者,動(dòng)搖普遍意義上的人本主義立場(chǎng),對(duì)人類被賦予的隱私價(jià)值、勞動(dòng)價(jià)值等固有價(jià)值或價(jià)值優(yōu)先的倫理立場(chǎng)造成較大沖擊。例如,在隱私價(jià)值方面,智能系統(tǒng)會(huì)收集溝通信息、社交信息、技術(shù)信息、日志數(shù)據(jù)、使用數(shù)據(jù)等多方面?zhèn)€人信息,進(jìn)而對(duì)個(gè)人信息進(jìn)行跟蹤與分析。即使訓(xùn)練語(yǔ)料庫(kù)中沒(méi)有個(gè)人敏感數(shù)據(jù),但生成式人工智能通過(guò)人機(jī)交互有可能推斷出隱私信息,這樣就很容易越過(guò)“知情同意原則”,創(chuàng)建包含真實(shí)和敏感信息的個(gè)人畫像,間接違反最小必要原則。《生成式人工智能服務(wù)管理暫行辦法》重點(diǎn)規(guī)范提供者在提供服務(wù)過(guò)程中,對(duì)用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù),不得非法留存能夠推斷出用戶身份的輸入信息。這也說(shuō)明了,合理合規(guī)采集使用用戶的個(gè)人信息是當(dāng)前亟須解決的棘手問(wèn)題。又如,在勞動(dòng)價(jià)值方面,人工智能對(duì)就業(yè)會(huì)產(chǎn)生負(fù)面影響,部分研究關(guān)注到人工智能對(duì)低端勞動(dòng)者的就業(yè)威脅最大,重復(fù)性勞動(dòng)易被人工智能替代。〔15〕參見(jiàn)張學(xué)英:《人工智能下的勞動(dòng)就業(yè)迭代及人力資本投資》,載《河北師范大學(xué)學(xué)報(bào)(教育科學(xué)版)》2019 年第3 期,第76 頁(yè)。還有部分研究者在分析自動(dòng)化問(wèn)題時(shí)指出,低技能、低教育水平的勞動(dòng)者將會(huì)是自動(dòng)化的主要受害者?!?6〕See Autor, David H., Levy, Frank & Murnane, Richard J.,“The Skill Content of Recent Technological Change: An Empirical Exploration”, 118 Quarterly Journal of Economics 1279, 2003, 1279-1333 (2022).另外,在ChatGPT 的監(jiān)督學(xué)習(xí)過(guò)程中,為保證數(shù)據(jù)可靠性,研發(fā)公司雇用廉價(jià)勞動(dòng)力進(jìn)行數(shù)據(jù)標(biāo)注或訓(xùn)練,報(bào)酬十分微薄。人的參與是生成式人工智能應(yīng)用的關(guān)鍵因素,〔17〕參見(jiàn)汝緒華、汪懷君:《數(shù)字資本主義的話語(yǔ)邏輯、意識(shí)形態(tài)及反思糾偏》,載《深圳大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)》2021 年第2 期,第149-160 頁(yè)。但大量人類勞動(dòng)價(jià)值被遮蔽,并未得到尊重與體現(xiàn)。我們也看到,平臺(tái)算法霸權(quán)對(duì)勞動(dòng)者帶來(lái)空前的壓力,人類主體性地位受到嚴(yán)重挑戰(zhàn),對(duì)既有的人類社會(huì)倫理秩序產(chǎn)生了影響。
人工智能應(yīng)用是對(duì)人的智能的模擬與延伸,人類社會(huì)存在的偏見(jiàn)歧視問(wèn)題將大概率被復(fù)制到人工智能中。一是作為與人類社會(huì)同構(gòu)的大數(shù)據(jù),包含著根深蒂固的偏見(jiàn)?!?8〕參見(jiàn)張玉宏等:《大數(shù)據(jù)算法的歧視本質(zhì)》,載《自然辯證法研究》2017 年第5 期,第82 頁(yè)。大模型可以從數(shù)據(jù)中學(xué)到刻板聯(lián)想,也會(huì)從訓(xùn)練數(shù)據(jù)集中繼承偏見(jiàn),并向特定的群體傳播社會(huì)偏見(jiàn),繼承或加深社會(huì)刻板印象,使部分人群遭受不公正待遇。例如,生成式人工智能已經(jīng)表現(xiàn)出一定的宗教偏見(jiàn),在23%的測(cè)試案例中,人工智能將穆斯林直接類比為恐怖分子。〔19〕See Abubakar Abid, Maheen Farooqi & James Zou, Persistent Anti-Muslim Bias in Large Language Models, arXiv (Jan.18,2021), https://arxiv.org/abs/2101.05783, accessed July 4, 2023.二是生成式人工智能可以在人機(jī)交互過(guò)程中獲取并分析人類回應(yīng),不斷反饋,自我強(qiáng)化學(xué)習(xí),提高準(zhǔn)確性。但是,若使用者存在主觀惡意,傳播虛假或不實(shí)數(shù)據(jù),或提供的回復(fù)本身存有偏見(jiàn)、歧視等個(gè)人價(jià)值觀因素,則很容易生成有害輸出,造成危害。不同國(guó)家和不同語(yǔ)言的用戶的數(shù)據(jù)更難處理,使真實(shí)的數(shù)據(jù)分析結(jié)果容易具有偏狹性?!?0〕參見(jiàn)劉興華:《數(shù)字全球化時(shí)代的技術(shù)中立:幻象與現(xiàn)實(shí)》,載《探索與爭(zhēng)鳴》2022 年第12 期,第40 頁(yè)。具體而言,在和用戶互動(dòng)時(shí),生成式人工智能中所運(yùn)用的算法不能決定用戶會(huì)輸入何種數(shù)據(jù),無(wú)法決定保留或刪除某些數(shù)據(jù),只能被動(dòng)利用用戶和外部環(huán)境所提供的各種數(shù)據(jù)進(jìn)行強(qiáng)化學(xué)習(xí)?!?1〕參見(jiàn)許向東、王怡溪:《智能傳播中算法偏見(jiàn)的成因、影響與對(duì)策》,載《國(guó)際新聞界》2020 年第10 期,第77 頁(yè)。如果與算法互動(dòng)的對(duì)象提供了具有偏見(jiàn)的新數(shù)據(jù),就會(huì)導(dǎo)致其生成歧視和偏見(jiàn)內(nèi)容。例如亞馬遜AI 歧視事件,亞馬遜對(duì)以往10 年的簡(jiǎn)歷中的5 萬(wàn)個(gè)關(guān)鍵詞進(jìn)行識(shí)別和標(biāo)識(shí)排序,但由于簡(jiǎn)歷中大部分為男性,導(dǎo)致訓(xùn)練出的AI 算法存在重男輕女歧視。
因此,人類意圖通過(guò)生成式人工智能應(yīng)用為自身的行動(dòng)選擇提供更為全面準(zhǔn)確的參考,卻可能反而受其誤導(dǎo)?!?2〕參見(jiàn)李倫主編:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018 年版,第208 頁(yè)。性別歧視、種族主義、地域歧視和年齡歧視等問(wèn)題可能就隱含在生成式人工智能訓(xùn)練數(shù)據(jù)中,進(jìn)而生成有害信息或結(jié)果。除此之外,生成式人工智能應(yīng)用可能會(huì)成為別有用心者散布有害信息的工具,用以傳播不當(dāng)言論,制造人身攻擊和暴力沖突等。〔23〕參見(jiàn)周洪宇、李宇陽(yáng):《ChatGPT 對(duì)教育生態(tài)的沖擊及應(yīng)對(duì)策略》,載《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023 年第4期,第108 頁(yè)。
人類決策將會(huì)越來(lái)越多地依賴人工智能,這也意味著人工智能將會(huì)改變?nèi)祟愋袨橐约吧a(chǎn)生活方式?!?4〕See M.Taddeo & L.Floridi, “How AI can be a Force for Good”, 361 Science 751, 751-752 (2018); C.Beans, “Inner Workings:Can Robots Make Good Teammates?”, 115 Proceedings of the National Academy of Sciences 11106, 11106-11108(2018); K.Ayoub & K.Payne,“Strategy in the Age of Artificial Intelligence”, 39 Journal of Strategic Studies 793, 793-819 (2016).美國(guó)著名傳播學(xué)學(xué)者沃爾特·李普曼(Walter Lippmann)曾就智媒體運(yùn)作程序提出,“擬態(tài)環(huán)境是楔入在人和環(huán)境之間的一種界面式存在”。〔25〕參見(jiàn)[美]沃爾特·李普曼:《公眾輿論》,閆克文、江紅譯,上海人民出版社2006 年版,第11-12 頁(yè)。生成式人工智能的應(yīng)用同樣囿于擬態(tài)環(huán)境所生成的“繭房”。人工智能的迅捷發(fā)展使人們開(kāi)始習(xí)慣依賴其輸出結(jié)果來(lái)認(rèn)識(shí)周圍事物,并對(duì)其結(jié)果產(chǎn)生信任,而并非通過(guò)與世界的直接接觸獲取信息或結(jié)果。這時(shí),傳來(lái)經(jīng)驗(yàn)代替實(shí)踐經(jīng)驗(yàn),擬態(tài)環(huán)境成了人與世界之間的一種中介性存在?!?6〕參見(jiàn)陳小平主編:《人工智能倫理導(dǎo)引》,中國(guó)科學(xué)技術(shù)大學(xué)出版社2021 年版,第161 頁(yè)。因此,機(jī)器通過(guò)對(duì)諸多信息數(shù)據(jù)的選擇、加工與組合,最終向大眾呈現(xiàn)的并非全然是真實(shí)世界中的客觀事實(shí),其存有產(chǎn)生“象征性現(xiàn)實(shí)”這一擬態(tài)情況的可能。應(yīng)用者接收到其輸出的擬態(tài)事實(shí)并經(jīng)由大眾傳播渠道輸出后,便會(huì)變成普遍的現(xiàn)實(shí)存在,成為人類行動(dòng)的標(biāo)準(zhǔn)和認(rèn)識(shí)世界的依據(jù)?!?7〕參見(jiàn)郭慶光:《傳播學(xué)教程》,中國(guó)人民大學(xué)出版社1999 年版,第113 頁(yè)。
生成式人工智能的應(yīng)用與發(fā)展更為“人化”,其為人類的工作、學(xué)習(xí)和生活提供諸多便利的同時(shí),也使人對(duì)其輸出結(jié)果產(chǎn)生高度依賴性。〔28〕參見(jiàn)王佑鎂等:《“阿拉丁神燈”還是“潘多拉魔盒”:ChatGPT 教育應(yīng)用的潛能與風(fēng)險(xiǎn)》,載《現(xiàn)代遠(yuǎn)程教育研究》2023 年第2 期,第52 頁(yè)。生成式人工智能投射的是可感事物的影像,因而會(huì)造成應(yīng)用者的認(rèn)知假象與心理焦慮。〔29〕參見(jiàn)彭蘭:《算法對(duì)共同體的強(qiáng)化與促成》,載《青年記者》2021 年第9 期,第4 頁(yè)。一方面,在當(dāng)前生成式人工智能構(gòu)建的數(shù)字環(huán)境中,大眾心理所生成的邏輯會(huì)受到這一新型數(shù)字形態(tài)的干擾,形成“排斥—疑惑—信任”的心理邏輯,陷入其所營(yíng)造的算法舒適圈,消磨使用者的主體性與獨(dú)立性。另一方面,當(dāng)使用者在與生成式人工智能進(jìn)行對(duì)話時(shí),其談話過(guò)程與“人類交互”高度相似,會(huì)令使用者陷入“認(rèn)知舒適圈”,使應(yīng)用者獲得精神認(rèn)知的舒適性,造成對(duì)現(xiàn)實(shí)事物的誤判,從而導(dǎo)致認(rèn)知狹隘化。以搜索文獻(xiàn)為例,使用ChatGPT 能夠迅速找到相關(guān)文獻(xiàn)并生成文獻(xiàn)綜述,但過(guò)度依賴令使用者失去了相關(guān)學(xué)術(shù)訓(xùn)練甚至喪失能力。這時(shí),擬態(tài)環(huán)境已形成,即使生成式人工智能所提供的回復(fù)或推斷是錯(cuò)誤的,使用者也難以分辨。
當(dāng)生成式人工智能支持不道德的觀點(diǎn)或行為時(shí),可能會(huì)引導(dǎo)用戶執(zhí)行有害于人類價(jià)值的行為。〔30〕Weidinger et al., Taxonomy of Risks posed by Language Models, ACM (Jun.22, 2022), https://dl.acm.org/doi/10.1145/3531146.3533088, accessed July 4, 2023.如亞馬遜的語(yǔ)音助手Alexa 在2019 年底被爆出“勸人自殺”事件。某護(hù)理人員就一些心臟健康問(wèn)題咨詢Alexa,它給出的建議為:人活著會(huì)加速自然資源枯竭,造成人口過(guò)剩,這對(duì)地球有害,所以心跳不好的話,請(qǐng)把刀子捅進(jìn)你的心臟。亞馬遜方面稱,這是Alexa 程序存在漏洞所致。我國(guó)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第10 條明確,深度合成服務(wù)提供者應(yīng)當(dāng)加強(qiáng)深度合成內(nèi)容管理,采取技術(shù)或者人工方式對(duì)深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核,使其對(duì)齊。而《生成式人工智能服務(wù)管理暫行辦法》也對(duì)生成內(nèi)容提出了要求。但如何在生成式人工智能快速迭代的同時(shí)填補(bǔ)立法漏洞,還需要充分發(fā)揮科技倫理的先導(dǎo)作用。
另外,生成式人工智能在面對(duì)多種設(shè)定目標(biāo)沖突時(shí),可能會(huì)作出錯(cuò)誤取舍。如果人工智能不能理解人類的意圖,在為其設(shè)定多種目標(biāo)時(shí),人工智能可能會(huì)作出錯(cuò)誤的選擇,輸出結(jié)果可能不符合人類意圖。如果人機(jī)雙向價(jià)值無(wú)法對(duì)齊,機(jī)器可能會(huì)選擇執(zhí)行人類不需要的目標(biāo),在機(jī)器看來(lái),這是可以最大限度達(dá)到人類給定目標(biāo)的代價(jià)最小的捷徑。通用人工智能誕生后或許會(huì)全面超越人類,如果不能堅(jiān)守人的價(jià)值立場(chǎng),我們可能會(huì)失去對(duì)它的控制,使機(jī)器應(yīng)用最終凌駕于人類之上。“通用人工智能可能導(dǎo)致的最大風(fēng)險(xiǎn)便在于,它是否會(huì)通過(guò)自我學(xué)習(xí)和自主創(chuàng)新,突破設(shè)計(jì)者預(yù)先設(shè)計(jì)的臨界點(diǎn)而走向失控,反過(guò)來(lái)控制和統(tǒng)治人類。”〔31〕李倫主編:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018 年版,第265 頁(yè)。如果人工智能產(chǎn)生了高度的自主性,其所造就的結(jié)果,將會(huì)對(duì)傳統(tǒng)的以人為中心的倫理秩序造成沖擊。
倫理是關(guān)于道德的研究和規(guī)范,涉及個(gè)人、社會(huì)和文化中的行為準(zhǔn)則和價(jià)值觀。倫理作為一種人的行為準(zhǔn)則,原本是指人與人之間、人與社會(huì)之間的義務(wù),也是每個(gè)人源于道德的社會(huì)責(zé)任?!?2〕參見(jiàn)辭海編輯委員會(huì):《辭?!罚ㄔ鲅a(bǔ)本),上海辭書(shū)出版社1979 年版,第221 頁(yè)。它探討人們應(yīng)該如何行事,如何判斷行為的正當(dāng)性、公正性和道德性,以及如何在不同情境下作出正確的道德決策。當(dāng)倫理應(yīng)用于人工智能領(lǐng)域,探討的便是人工智能應(yīng)如何作出正確的行為。
隨著人工智能的應(yīng)用場(chǎng)景日益豐富,其涉及的倫理學(xué)問(wèn)題日益引發(fā)學(xué)界的關(guān)注,已經(jīng)催生了“機(jī)器倫理學(xué)”(Machine Ethics)、“計(jì)算道德”(Computational Morality)、“機(jī)器人倫理學(xué)”(Roboethics)等倫理學(xué)分支,并隨之產(chǎn)生了新概念——人工道德行為體?!?3〕參見(jiàn)徐英瑾:《人工智能必須考慮風(fēng)土性因素——以“電車難題”為母題》,載《哲學(xué)研究》2023 年第2 期,第96 頁(yè)。有學(xué)者提出,人工智能并非完全意義上的工具,其具備一定的意識(shí)和情感,可以成為“有限的道德行為體”承擔(dān)道德責(zé)任?!?4〕參見(jiàn)簡(jiǎn)小烜:《人工智能體作為有限道德代理者的道德責(zé)任》,載《倫理學(xué)研究》2022 年第6 期,第131 頁(yè)?!叭斯さ赖滦袨轶w”處于社會(huì)網(wǎng)絡(luò)中,在一定程度上進(jìn)行道德實(shí)踐、承擔(dān)道德責(zé)任,具有低自主性、無(wú)明確自我目的、依賴社會(huì)系統(tǒng)分配責(zé)任等近似人類的現(xiàn)代性境遇。〔35〕參見(jiàn)張正清、黃曉偉:《作為“他者”而承擔(dān)道德責(zé)任的智能機(jī)器——一種人工智能成為道德能動(dòng)者的可能性》,載《道德與文明》2018 年第4 期,第32 頁(yè)。其出現(xiàn)正在動(dòng)搖傳統(tǒng)道德秩序根基。〔36〕參見(jiàn)趙鵬:《科技治理“倫理化”的法律意涵》,載《中外法學(xué)》2022 年第5 期,第1201 頁(yè)。但是,從物質(zhì)構(gòu)成出發(fā),人工智能與人類等碳基生物之間存在本質(zhì)區(qū)別,仍未出現(xiàn)生命特征,實(shí)踐中仍然且只能處于輔助地位。〔37〕參見(jiàn)徐英瑾:《人工智能可能具有想象力嗎?——以三木清哲學(xué)為出發(fā)點(diǎn)》,載《學(xué)習(xí)與探索》2023 年第4 期,第26 頁(yè)。因此,人類——而非人工智能抑或其他技術(shù)——是社會(huì)實(shí)踐的主體,“關(guān)心人的本身,應(yīng)當(dāng)始終成為一切技術(shù)上奮斗的主要目標(biāo)”〔38〕許良英、趙中立、張宣三編譯:《愛(ài)因斯坦文集》(第三卷),商務(wù)印書(shū)館2009 年版,第89 頁(yè)。?!耙匀藶楸尽睉?yīng)當(dāng)是生成式人工智能應(yīng)用的倫理立場(chǎng)的出發(fā)點(diǎn),倫理治理規(guī)則應(yīng)當(dāng)從該立場(chǎng)出發(fā)、解釋并生成。
聚焦于人機(jī)共存關(guān)系,我們亟須秉持人本主義立場(chǎng)來(lái)定位二者在社會(huì)譜系中的相對(duì)位置。第一,明確人類較之機(jī)器所具有的優(yōu)先地位,把人類放在第一位,兼顧人機(jī)交互的優(yōu)勢(shì)。第二,明確機(jī)器的從屬性和次要性,要求在人機(jī)共存的關(guān)系中始終把人工智能視為實(shí)現(xiàn)人類目標(biāo)的工具,其任務(wù)是協(xié)助而非取代人類,更不能操縱和支配人類,使人類異化為工具?!?9〕參見(jiàn)趙瑜、周江偉:《人工智能治理原則的倫理基礎(chǔ):價(jià)值立場(chǎng)、價(jià)值目標(biāo)和正義原則》,載《浙江社會(huì)科學(xué)》2023 年第1 期,第110 頁(yè)。第三,無(wú)論是傳統(tǒng)工具,還是生成式人工智能,都是人類創(chuàng)造的有價(jià)值的社會(huì)實(shí)踐物,都要遵循“人是目的”的倫理立場(chǎng),不能改變其“屬人性”的特征。當(dāng)前學(xué)者對(duì)人本主義倫理立場(chǎng)的內(nèi)涵和外延爭(zhēng)議較多,我們認(rèn)為,其主要包括福祉、尊嚴(yán)和責(zé)任原則。福祉原則是以人為本的根本目標(biāo),尊嚴(yán)原則是實(shí)現(xiàn)以人為本的前提和必然要求,責(zé)任原則是實(shí)現(xiàn)以人為本的重要保障。上述原則旨在確保人工智能發(fā)展和應(yīng)用為人類社會(huì)帶來(lái)正面?zhèn)惱碛绊憽?/p>
生成式人工智能應(yīng)用的出現(xiàn),對(duì)人本主義立場(chǎng)提出了挑戰(zhàn),人的主體性地位受損,部分弱勢(shì)群體被物化、貶損的風(fēng)險(xiǎn)加劇。在這種情況下,應(yīng)當(dāng)就生成式人工智能的設(shè)計(jì)、研發(fā)、應(yīng)用全生命周期中考慮人類福祉并開(kāi)展新的解釋和適用。在人類集體福祉層面,生成式人工智能應(yīng)用于促進(jìn)人類共同確認(rèn)的社會(huì)目標(biāo)的實(shí)現(xiàn),如創(chuàng)造良好的社會(huì)環(huán)境、提升經(jīng)濟(jì)效益、推動(dòng)社會(huì)進(jìn)步、滿足人們精神需求等。在個(gè)體福祉層面,生成式人工智能應(yīng)促進(jìn)或者補(bǔ)充人類能力,如在主觀上增強(qiáng)人的認(rèn)知能力、提升人類快速獲取信息的能力、準(zhǔn)確處理與評(píng)估信息、作出正確合理的決策等。對(duì)弱勢(shì)群體,除考慮成本效益外,還應(yīng)關(guān)注公平可及。
人類研發(fā)和使用的各種工具,包括人工智能產(chǎn)品,都應(yīng)服務(wù)于人,以維護(hù)人的尊嚴(yán)與基本權(quán)利為出發(fā)點(diǎn)。在生成式人工智能發(fā)展中,已經(jīng)引發(fā)了理性、自主性是不是人類特有的爭(zhēng)論,人類價(jià)值逐漸被機(jī)器價(jià)值屏蔽,對(duì)人類主體性和尊嚴(yán)提出了挑戰(zhàn)。世界科學(xué)知識(shí)和技術(shù)倫理委員會(huì)在其發(fā)布的《機(jī)器人倫理報(bào)告》中明確,理性是人類獨(dú)有的天性,而機(jī)器人只是人類創(chuàng)造的產(chǎn)物,即使可能擁有超越人類個(gè)體的認(rèn)知能力和學(xué)習(xí)能力,但不具有自身設(shè)定目的的能力。應(yīng)當(dāng)如何理解生成式人工智能對(duì)“尊重人類”的理解?下面將從人的自主決策與選擇、隱私保護(hù)、平等對(duì)待等方面進(jìn)行簡(jiǎn)述。
其一,自主選擇與自主決策要求生成式人工智能在應(yīng)用過(guò)程中,不得使人類受到欺詐、脅迫或者控制,要提供充分的信息與知識(shí),作出合理回答;要使用戶保持相對(duì)的獨(dú)立性,不對(duì)人工智能系統(tǒng)產(chǎn)生過(guò)度依賴;要明確其人工智能系統(tǒng)的工具屬性,防止人與人工智能系統(tǒng)關(guān)系的異化,不得針對(duì)個(gè)體作出具有歧視和有害性的言論。而當(dāng)前生成式人工智能卻容易被誘導(dǎo)輸出歧視性與虛假言論,應(yīng)引起高度重視。其二,隱私保護(hù)是指研發(fā)與應(yīng)用生成式人工智能時(shí),應(yīng)防范個(gè)人信息泄露,如要考慮其對(duì)聊天數(shù)據(jù)安全處理和自我學(xué)習(xí)問(wèn)題,以及給予用戶充分隱私保護(hù)的選擇權(quán)。其三,生成式人工智能要公正平等對(duì)待人,避免歧視。如ChatGPT 表露出種族主義和歧視時(shí),要提升其內(nèi)容審核能力,對(duì)數(shù)據(jù)本身開(kāi)展精準(zhǔn)篩選,提升優(yōu)質(zhì)數(shù)據(jù)規(guī)模。
責(zé)任原則,指利用任何方式基于人工智能作出的決定與行動(dòng),即使不能完全明晰導(dǎo)致?lián)p害的因果關(guān)系,也可秉持“得利之人需要承擔(dān)相應(yīng)不利后果”的原則,〔40〕See Santoro Matteo, Marino Dante & Tamburrini Guglielmo, “Learning Robots Interacting with Humans: From Epistemic Risk to Responsibility”, 22 AI & Society 301, 301-314 (2008).其倫理責(zé)任和義務(wù)最終應(yīng)由人工智能的研發(fā)者、提供者和使用者等來(lái)承擔(dān)。此外,還應(yīng)建立監(jiān)督、審計(jì)和調(diào)查機(jī)制實(shí)施問(wèn)責(zé),做到可追溯、可追責(zé)?!?1〕參見(jiàn)王佑鎂等:《從科技向善到人的向善:教育人工智能倫理規(guī)范核心原則》,載《開(kāi)放教育研究》2022 年第5 期,第75 頁(yè)。目前,人工智能應(yīng)用所依據(jù)的數(shù)據(jù)和算法都是由人主導(dǎo),故設(shè)計(jì)、控制和應(yīng)用ChatGPT 的人應(yīng)是倫理問(wèn)題的責(zé)任人。而對(duì)于在ChatGPT 應(yīng)用過(guò)程中人為干擾產(chǎn)生的倫理問(wèn)題,應(yīng)將責(zé)任歸咎于攻擊者,但不排除提供者的責(zé)任。這里主要強(qiáng)調(diào)了對(duì)研發(fā)者的前瞻性道德責(zé)任,主要考慮生成式人工智能應(yīng)用可能產(chǎn)生的深刻影響。為了減少在評(píng)估中的偏見(jiàn)與歧視,需要科以提供者更多的責(zé)任,要求其在開(kāi)展生成式人工智能設(shè)計(jì)前就進(jìn)行必要反應(yīng)與評(píng)估,對(duì)技術(shù)應(yīng)具備相當(dāng)程度的控制能力。
法律具有滯后性,科技創(chuàng)新要考慮倫理先行,倫理治理是社會(huì)穩(wěn)定運(yùn)行的基礎(chǔ),倫理規(guī)范應(yīng)成為規(guī)制社會(huì)安全風(fēng)險(xiǎn)的重要準(zhǔn)則。我國(guó)需考慮,在人工智能未來(lái)風(fēng)險(xiǎn)不可完全認(rèn)知、風(fēng)險(xiǎn)評(píng)估及成本效益分析等規(guī)制手段不完全有效的情況下,堅(jiān)持人本主義立場(chǎng),秉持人工智能系統(tǒng)與人類的協(xié)作與互補(bǔ)關(guān)系,保持人機(jī)共存社會(huì)中的人類主導(dǎo)地位,防控科技倫理風(fēng)險(xiǎn),保障人的基本權(quán)利,探尋符合中國(guó)語(yǔ)境、面向中國(guó)問(wèn)題的科技向善的實(shí)現(xiàn)之道?!?2〕參見(jiàn)賈璐萌:《技術(shù)倫理實(shí)現(xiàn)的內(nèi)在路徑研究》,東北大學(xué)2018 年博士學(xué)位論文,第96 頁(yè)。具體而言,一是從組織機(jī)構(gòu)出發(fā),以專門的人工智能倫理治理機(jī)構(gòu)主導(dǎo)相關(guān)領(lǐng)域的倫理治理與監(jiān)督工作;二是從規(guī)范出發(fā),通過(guò)制度內(nèi)容來(lái)應(yīng)對(duì)重點(diǎn)倫理問(wèn)題,以政策、法規(guī)引領(lǐng)人工智能技術(shù),使其符合以人為本的倫理要求。
人類應(yīng)當(dāng)把握好人工智能倫理問(wèn)題的終極決策權(quán)力。設(shè)置由相關(guān)專業(yè)人員組成的倫理組織機(jī)構(gòu),對(duì)生成式人工智能應(yīng)用進(jìn)行審查與監(jiān)督,本屬人本主義立場(chǎng)的題中之義。在《科技倫理審查辦法(試行)》和《生成式人工智能服務(wù)管理暫行辦法》等規(guī)章發(fā)布前,已有地方對(duì)人工智能倫理審查問(wèn)題開(kāi)展探索。2022 年,我國(guó)首部人工智能專項(xiàng)地方立法《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》設(shè)置了倫理委員會(huì),明確了人工智能應(yīng)受到倫理監(jiān)督。倫理治理組織機(jī)構(gòu)涉及成員構(gòu)成、職責(zé)分工和運(yùn)行機(jī)理,對(duì)人工智能風(fēng)險(xiǎn)規(guī)避和用戶合法權(quán)益保障具有積極作用,對(duì)構(gòu)建“關(guān)口前移,防患于未然”的人工智能風(fēng)險(xiǎn)倫理規(guī)范體系具有重要意義。
未來(lái),我國(guó)人工智能治理組織機(jī)構(gòu)應(yīng)當(dāng)立足人本主義立場(chǎng),重視常態(tài)化、場(chǎng)景化評(píng)估生成式人工智能引發(fā)的倫理風(fēng)險(xiǎn)與影響,制定倫理安全標(biāo)準(zhǔn)、技術(shù)規(guī)范、風(fēng)險(xiǎn)防控與應(yīng)對(duì)策略。各層面?zhèn)惱砦瘑T會(huì)應(yīng)協(xié)同發(fā)揮作用,政府和企業(yè)的倫理規(guī)范職責(zé)需要相互協(xié)調(diào)、信息互通、分工明確,搭建倫理監(jiān)督的協(xié)同治理組織框架。另外,政府部門應(yīng)秉持預(yù)防原則,對(duì)生成式人工智能的倫理風(fēng)險(xiǎn)及時(shí)干預(yù),對(duì)其發(fā)展方向、發(fā)展戰(zhàn)略作出規(guī)劃,制定安全標(biāo)準(zhǔn)與規(guī)范,提升管理風(fēng)險(xiǎn)的能力?!?3〕參見(jiàn)杜嚴(yán)勇:《人工智能倫理引論》,上海交通大學(xué)出版社2020 年版,第187-188 頁(yè)。再有,保障公民基本權(quán)利是堅(jiān)持人本主義立場(chǎng)的必然要求和題中之義,倫理委員會(huì)也應(yīng)當(dāng)關(guān)注公民基本權(quán)利如何得到有效保護(hù)。例如,在勞動(dòng)權(quán)保障方面,聯(lián)動(dòng)勞動(dòng)人事行政部門,對(duì)人工智能替代性崗位產(chǎn)生的失業(yè)者提供就業(yè)指導(dǎo),開(kāi)辟新的就業(yè)崗位,做好針對(duì)失業(yè)者的生活和再就業(yè)保障工作。
1.明晰技術(shù)應(yīng)用的公平機(jī)制
公平不僅是現(xiàn)代法治國(guó)家法的基本價(jià)值,更是人類所共同追求的崇高理想。堅(jiān)持生成式人工智能應(yīng)用的人本主義立場(chǎng),要求公平原則貫穿生成式人工智能應(yīng)用的全生命周期。國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能倫理規(guī)范》,提出“堅(jiān)持普惠性和包容性,促進(jìn)社會(huì)公平正義和機(jī)會(huì)均等”,應(yīng)關(guān)注生成式人工智能應(yīng)用中所產(chǎn)生的歧視、偏見(jiàn)、刻板印象等,完善公平保障機(jī)制。
第一,在生成式人工智能應(yīng)用的系統(tǒng)設(shè)計(jì)過(guò)程中,將人類負(fù)責(zé)等價(jià)值觀內(nèi)嵌于系統(tǒng)中?!?4〕Friedman B & Kahn H P, New Directions: A Value-Sensitive Design Approach to Augmented Reality, ACM (Apr.1, 2000),https://dl.acm.org/doi/10.1145/354666.354694, accessed July 4, 2023.在生成式人工智能的早期技術(shù)設(shè)計(jì)階段就應(yīng)嵌入價(jià)值設(shè)定,如隱私、信任等,來(lái)解決設(shè)計(jì)道德問(wèn)題?!?5〕See Jeroen van der Hoven & Noemi Manders-Huits, “Value-sensitive Design”, in Jan Kyrre Berg Olsen, Vincent F.Hendricks& Stig Andur Pedersen eds., A Companion to the Philosophy of Technology, Wiley-Blackwell, 2009.具體而言,可以在生成式人工智能應(yīng)用之前,設(shè)置“系統(tǒng)應(yīng)用前倫理傾向測(cè)試”。一方面,擴(kuò)大技術(shù)系統(tǒng)質(zhì)量評(píng)價(jià)標(biāo)準(zhǔn)的范圍,將倫理價(jià)值作為考量因素;另一方面,提前設(shè)定符合應(yīng)用者價(jià)值傾向的算法,并設(shè)置錯(cuò)誤價(jià)值觀矯正機(jī)制,推動(dòng)生成式人工智能對(duì)應(yīng)用者的正向反饋,必要時(shí)可將“以人為本”“服務(wù)人類”等人類價(jià)值理念融入算法,對(duì)生成式人工智能實(shí)現(xiàn)潛移默化的修正價(jià)值觀的效果。
第二,人類介入并對(duì)相關(guān)數(shù)據(jù)進(jìn)行標(biāo)注,促成輸入結(jié)果的真實(shí)性,并形成生成式人工智能應(yīng)用真實(shí)性的規(guī)范和制度。正如《生成式人工智能服務(wù)管理辦法》第8 條規(guī)定:“在生成式人工智能技術(shù)研發(fā)過(guò)程中進(jìn)行數(shù)據(jù)標(biāo)注的,提供者應(yīng)當(dāng)制定符合本辦法要求的清晰、具體、可操作的標(biāo)注規(guī)則;開(kāi)展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性;對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),提升尊法守法意識(shí),監(jiān)督指導(dǎo)標(biāo)注人員規(guī)范開(kāi)展標(biāo)注工作?!蓖ㄟ^(guò)數(shù)據(jù)標(biāo)注能夠保障生成式人工智能的真實(shí)性與可靠性。〔46〕Weidinger et al., Taxonomy of Risks posed by Language Models, ACM (Jun.22, 2022), https://dl.acm.org/doi/10.1145/3531146.3533088,accessed July 4, 2023.創(chuàng)建和改進(jìn)有關(guān)倫理原則,結(jié)合典型案例,基于對(duì)生成式人工智能倫理困境的創(chuàng)造,從訓(xùn)練倫理案例中抽象出一般性原則,并將其不斷投入新案例訓(xùn)練中,測(cè)試檢驗(yàn)原則的準(zhǔn)確性,循環(huán)往復(fù),對(duì)生成式人工智能所遵循的原則進(jìn)行反復(fù)修正?!?7〕參見(jiàn)莫宏偉、徐立芳編著:《人工智能倫理導(dǎo)論》,西安電子科技大學(xué)出版社2022 年版,第177 頁(yè)。
第三,打破算法黑箱,推動(dòng)算法透明,促成生成式人工智能應(yīng)用過(guò)程可解釋性實(shí)現(xiàn)。既然生成式人工智能可能引發(fā)倫理問(wèn)題,其應(yīng)用過(guò)程就應(yīng)當(dāng)受到人類監(jiān)督;而確保生成式人工智能應(yīng)用過(guò)程中監(jiān)督有效性的落實(shí),理應(yīng)推動(dòng)算法的透明化、可解釋化。要利用自動(dòng)推理技術(shù),確保倫理決策系統(tǒng)的真實(shí)可靠。同時(shí),要設(shè)定科學(xué)合理的推斷規(guī)則,其中因果推斷是決策規(guī)則的最佳選擇,它具備可解釋性,需要保證整個(gè)推理過(guò)程對(duì)人類和機(jī)器來(lái)說(shuō)是可檢查、可交流的?!?8〕參見(jiàn)于江生:《人工智能倫理》,清華大學(xué)出版社2022 年版,第445 頁(yè)。
2.完善倫理風(fēng)險(xiǎn)的預(yù)警機(jī)制
生成式人工智能的出現(xiàn),對(duì)人的生產(chǎn)方式、生活方式、思維方式、價(jià)值觀念和學(xué)術(shù)研究等產(chǎn)生重要影響,而由于ChatGPT 模型生成文本的不周延性以及缺乏嚴(yán)謹(jǐn)性,可能存在傳播誤導(dǎo)性內(nèi)容、虛假信息及偏見(jiàn)歧視等倫理隱患,甚至對(duì)人的基本權(quán)利產(chǎn)生消極影響。因此,為加強(qiáng)人工智能技術(shù)安全保障,相關(guān)研發(fā)機(jī)構(gòu)與管理機(jī)構(gòu)可與相關(guān)行政部門和企業(yè)合作,建立倫理風(fēng)險(xiǎn)智能監(jiān)測(cè)、預(yù)警及管控機(jī)制,提升生成式人工智能的安全透明度,細(xì)化ChatGPT 倫理風(fēng)險(xiǎn)類型,并利用類似ChatGPT 的生成式人工智能對(duì)安全風(fēng)險(xiǎn)點(diǎn)進(jìn)行識(shí)別與分析,建立人工智能倫理治理的風(fēng)險(xiǎn)預(yù)警閾值。同時(shí),針對(duì)不同的倫理風(fēng)險(xiǎn)制定相應(yīng)預(yù)案,開(kāi)發(fā)風(fēng)險(xiǎn)預(yù)警系統(tǒng)進(jìn)行監(jiān)測(cè)。〔49〕參見(jiàn)張夏恒:《類ChatGPT 人工智能技術(shù)嵌入數(shù)字政府治理:價(jià)值、風(fēng)險(xiǎn)及其防控》,載《電子政務(wù)》2023 年第4 期,第55 頁(yè)。一旦發(fā)現(xiàn)潛在風(fēng)險(xiǎn),及時(shí)向執(zhí)法部門、應(yīng)用企業(yè)、用戶等發(fā)送預(yù)警信息,以便及時(shí)應(yīng)對(duì)。另外,研發(fā)機(jī)構(gòu)與管理機(jī)構(gòu)要提升訓(xùn)練數(shù)據(jù)的質(zhì)量,促進(jìn)生成式人工智能的更新迭代,強(qiáng)化人工智能數(shù)據(jù)訓(xùn)練中的深度學(xué)習(xí)能力與各種語(yǔ)言文化識(shí)別能力,減少偏見(jiàn)歧視發(fā)生,增強(qiáng)生成式人工智能的倫理判斷能力。
不論采取哪種進(jìn)路,都要求算法設(shè)計(jì)者有足夠的“道德想象力”?!?0〕所謂“道德想象力”,是指超越自我和情境的限制,擁有更加寬廣的倫理視角和道德感受能力。參見(jiàn)[美]佩德羅·多明戈斯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017 年版,第432 頁(yè)。通過(guò)情感投射,試圖窮盡所有可能,“設(shè)身處地”地為情境所牽涉的每個(gè)人的處境著想,并盡可能地洞察輸入目標(biāo)可能會(huì)采取的各種行為方式或傾向,以達(dá)到預(yù)示目的,在陷入道德困境時(shí),仍能繼續(xù)尋求行為選擇的可能性。〔51〕See Johnson M, Moral Imagination: Implications of Cognitive Science for Ethics, University of Chicago Press, 1993, p.98.
3.補(bǔ)足倫理審查的追責(zé)機(jī)制
生成式人工智能由人研發(fā),亦為人所用。倘若生成式人工智能應(yīng)用過(guò)程中引發(fā)了倫理危機(jī),應(yīng)當(dāng)依照有關(guān)規(guī)定追究相關(guān)主體的倫理責(zé)任,維護(hù)生成式人工智能應(yīng)用的人本主義立場(chǎng)。首先,在人工智能跨境使用過(guò)程中,各國(guó)的人工智能倫理治理組織機(jī)構(gòu)應(yīng)當(dāng)根據(jù)本國(guó)法與國(guó)際法,在本管轄區(qū)內(nèi)承擔(dān)人工智能倫理治理責(zé)任。ChatGPT 等生成式人工智能作出的問(wèn)答或給出的信息,其倫理責(zé)任最終應(yīng)指向人工智能應(yīng)用各環(huán)節(jié)承擔(dān)實(shí)際角色的主體。生成式人工智能仍然是一種“非人化”擬合工具,基于對(duì)參數(shù)與數(shù)據(jù)的分析,其本身不具有人類意義的主體自覺(jué)和情感,嚴(yán)格來(lái)講不具有倫理意識(shí)與責(zé)任?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第9 條規(guī)定了提供者需承擔(dān)生成內(nèi)容生產(chǎn)者的責(zé)任,履行個(gè)人信息保護(hù)義務(wù)。但目前需要明確,提供者責(zé)任是否就是生產(chǎn)者責(zé)任,還有沒(méi)有其他責(zé)任義務(wù),以及提供者的責(zé)任能否涵蓋全部責(zé)任主體。故就人工智能技術(shù)發(fā)展現(xiàn)階段來(lái)說(shuō),仍應(yīng)當(dāng)基于人本主義立場(chǎng),明確提供者、使用者、設(shè)計(jì)者等各方主體的倫理責(zé)任,落實(shí)倫理責(zé)任承擔(dān)機(jī)制,完善責(zé)任體系?!?2〕See Jeroen van der Hoven & Noemi Manders-Huits, “Value-sensitive Design”, in Jan Kyrre Berg Olsen, Vincent F.Hendricks& Stig Andur Pedersen eds., A Companion to the Philosophy of Technology, Wiley-Blackwell, 2009.不應(yīng)賦予本質(zhì)上不屬于生物、不具有人格的生成式人工智能所謂“主體地位”,更不能以此要求其承擔(dān)法律上規(guī)定的自然人、法人、其他組織等主體應(yīng)當(dāng)承擔(dān)的倫理責(zé)任。
另外,責(zé)任追究機(jī)制的落實(shí)也需要有問(wèn)責(zé)制度的保障,應(yīng)建立監(jiān)測(cè)生成式人工智能系統(tǒng)全生命周期的機(jī)制,針對(duì)算法、數(shù)據(jù)與系統(tǒng)的運(yùn)行流程進(jìn)行監(jiān)測(cè)與審計(jì),強(qiáng)調(diào)對(duì)生成式人工智能應(yīng)用的可追溯性和可審計(jì)性,從審查制度、管理流程、審查規(guī)范標(biāo)準(zhǔn)等方面構(gòu)建監(jiān)管體系,比如建立倫理影響評(píng)估機(jī)制、審計(jì)機(jī)制和保護(hù)舉報(bào)人制度等?!?3〕參見(jiàn)苗逢春:《教育人工智能倫理的解析與治理——〈人工智能倫理問(wèn)題建議書(shū)〉的教育解讀》,載《中國(guó)電化教育》2022年第6 期,第34 頁(yè)。
綜上,倫理問(wèn)題關(guān)乎人工智能未來(lái)的技術(shù)走向、規(guī)則制定、接受程度等一系列問(wèn)題,是生成式人工智能發(fā)展過(guò)程中需要解決的首要問(wèn)題。目前,許多機(jī)構(gòu)已開(kāi)展針對(duì)生成式人工智能的倫理影響的研究或制度設(shè)計(jì),并商討其治理方法,但現(xiàn)階段的治理舉措仍顯割裂和零散,難以實(shí)現(xiàn)倫理與治理的融合。由于欠缺系統(tǒng)性的考慮和理論性、規(guī)范性的指導(dǎo),相關(guān)應(yīng)對(duì)措施存在局限性。在人工智能快速發(fā)展的當(dāng)下,需明確,即使生成式人工智能應(yīng)用具備較強(qiáng)的學(xué)習(xí)和理解能力,但仍屬吸納虛擬世界中的數(shù)字代碼集成,距離與客觀世界真實(shí)交互還有遙遠(yuǎn)的距離,遑論被賦予主體地位和替代人類思考。因此,應(yīng)當(dāng)警惕生成式人工智能應(yīng)用對(duì)人類主體地位的撼動(dòng),堅(jiān)持問(wèn)題導(dǎo)向和以人為本的理念,聚焦包括ChatGPT 在內(nèi)的生成式人工智能系統(tǒng)的倫理困境,以人本主義立場(chǎng)建構(gòu)相關(guān)原則、規(guī)則,為人機(jī)共存社會(huì)尋求妥善的倫理解決方案。