□李 巖 康 銘
(遼寧大學(xué)法學(xué)院,遼寧 沈陽 110036)
近年來,伴隨神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)和深度學(xué)習(xí)等技術(shù)的發(fā)展和運(yùn)用,人工智能與生產(chǎn)的鏈接可能會(huì)引發(fā)生產(chǎn)方式的根本性變革。人們驚訝地發(fā)現(xiàn)人工智能在模仿人類表達(dá)、思考方式方面展現(xiàn)出的強(qiáng)大功能,并將其廣泛應(yīng)用于人們?nèi)粘I畹母鱾€(gè)方面,在社交、寫作、編程、翻譯、教育等領(lǐng)域完成賦能。生成式人工智能的應(yīng)用改進(jìn)了生產(chǎn)工具,推動(dòng)產(chǎn)業(yè)升級(jí),提升了勞動(dòng)者生產(chǎn)能力。正如習(xí)近平總書記指出:“新一代人工智能正在全球范圍內(nèi)蓬勃興起,為經(jīng)濟(jì)社會(huì)發(fā)展注入了新動(dòng)能,正在深刻改變?nèi)藗兊纳a(chǎn)生活方式”[1]。
生成式人工智能的強(qiáng)大功能使得它能勝任本應(yīng)由人類完成的各項(xiàng)工作,甚至包括構(gòu)思、創(chuàng)作等“高級(jí)任務(wù)”。實(shí)踐證明,人們?cè)诠ぷ鳌W(xué)習(xí)中越來越依賴生成式人工智能,利用其完成各種任務(wù)的情形屢見不鮮。對(duì)生成式人工智能廣泛而普遍的使用,一方面確實(shí)提高了產(chǎn)能,另一方面還需要警惕因過于依賴技術(shù)而產(chǎn)生的“技術(shù)沉迷”。
盡管當(dāng)下生成式人工智能沉迷的實(shí)例并不多見,但根據(jù)國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》精神,必須高度重視人工智能可能帶來的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn)。生成式人工智能的便捷性容易誘發(fā)對(duì)其“工具沉迷”,對(duì)此應(yīng)當(dāng)加以防范。
當(dāng)下法學(xué)界鮮有學(xué)者從防沉迷角度討論生成式人工智能法律規(guī)制問題,對(duì)生成式人工智能防沉迷問題缺乏深入研究。因此有必要對(duì)生成式人工智能沉迷的誘因以及不利后果展開深入思考,探究生成式人工智能沉迷與傳統(tǒng)互聯(lián)網(wǎng)沉迷的區(qū)別,以此作為生成式人工智能沉迷法律規(guī)制具體措施的基礎(chǔ),并且提出針對(duì)生成式人工智能沉迷的法律規(guī)制對(duì)策。
習(xí)近平總書記指出,要把握人工智能發(fā)展規(guī)律和特點(diǎn),加強(qiáng)統(tǒng)籌協(xié)調(diào),加大政策支持,形成工作合力[2]。據(jù)筆者統(tǒng)計(jì),2020 年至2023 年6月14 日,中央及各地方政府出臺(tái)了70 余項(xiàng)人工智能相關(guān)政策。在中央政府出臺(tái)的政策文件中,人工智能政策較為強(qiáng)調(diào)人工智能技術(shù)在各個(gè)行業(yè)場(chǎng)景的應(yīng)用,同時(shí)強(qiáng)調(diào)人工智能風(fēng)險(xiǎn)的防范。以此為契機(jī),關(guān)于生成式人工智能的相關(guān)立法也開始嶄露頭角,但其中涉及生成式人工智能防沉迷的條款較少。
當(dāng)下直接涉及生成式人工智能防沉迷的規(guī)范只有《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《管理暫行辦法》)第10條?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法推薦管理規(guī)定》)第8條、第18條第2款對(duì)算法推薦服務(wù)沉迷進(jìn)行了規(guī)制,同樣涉及生成式人工智能防沉迷問題?!段闯赡耆吮Wo(hù)法》第71條、第74條以及《未成年人網(wǎng)絡(luò)保護(hù)條例》第五章針對(duì)未成年人沉迷網(wǎng)絡(luò)問題做出回應(yīng),考慮到已經(jīng)有網(wǎng)絡(luò)游戲開發(fā)者利用生成式人工智能技術(shù)設(shè)計(jì)游戲,以上規(guī)范與生成式人工智能沉迷的法律規(guī)制存在一定程度上的關(guān)聯(lián)①根據(jù)權(quán)威解讀,利用生成式人工智能技術(shù)提供生成式人工智能服務(wù)的,也屬于“提供者”的范圍。此處網(wǎng)絡(luò)游戲開發(fā)者屬于提供娛樂性服務(wù),應(yīng)屬于生成式人工智能提供者的范圍。參見辛勇飛:專家解讀|推動(dòng)生成式人工智能精細(xì)化治理,http://www.cac.gov.cn/2023-07/13/c_1690898363806525.htm,訪問日期:2023-10-01。。
上述規(guī)范體現(xiàn)了國家對(duì)生成式人工智能沉迷問題的重視,但同時(shí)也存在如下問題,導(dǎo)致其難以發(fā)揮應(yīng)有的作用。
第一,既有防沉迷規(guī)范更多偏向未成年人沉迷,忽略了成年人的防沉迷問題。即便是傳統(tǒng)的網(wǎng)絡(luò)游戲?qū)Τ赡耆艘簿哂休^強(qiáng)的吸引力;生成式人工智能提供的個(gè)性化服務(wù)、更為真實(shí)的虛擬世界和虛擬人物同樣容易使成年人沉迷其中。生成式人工智能沉迷涉及人類的思維能力、倫理道德、審美、人機(jī)關(guān)系等深層次領(lǐng)域,這與未成年人和成年人均密切相關(guān)。因此,對(duì)生成式人工智能沉迷的規(guī)制不能忽略成年人,但既有規(guī)范未注意這一問題,更沒有針對(duì)成年人與未成年人在認(rèn)知、心理、自控力等方面的區(qū)別設(shè)計(jì)不同的防沉迷措施。
第二,既有防沉迷規(guī)范對(duì)生成式人工智能防沉迷的監(jiān)管方式設(shè)置不當(dāng)。從監(jiān)管層面來看,對(duì)生成式人工智能防沉迷監(jiān)管的重點(diǎn)在于“出現(xiàn)沉迷后果”,這顯然不合適。《管理暫行辦法》第10 條作為生成式人工智能防沉迷的一般性規(guī)定,其中“采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)”中的“有效措施”意味著“不能出現(xiàn)沉迷后果”,該防沉迷義務(wù)顯然過高。此外,《管理暫行辦法》也沒有規(guī)定相關(guān)行業(yè)協(xié)會(huì)對(duì)防沉迷治理的參與。
第三,既有規(guī)范主要針對(duì)網(wǎng)絡(luò)游戲以及算法推薦服務(wù)的沉迷問題,其適用范圍有限。《算法推薦管理規(guī)定》主要規(guī)制各種利用“生成合成類、個(gè)性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等算法技術(shù)”的信息提供服務(wù),側(cè)重于信息的篩選和信息資源的分配(分析式人工智能②分析式人工智能主要指能夠?qū)A啃畔⑦M(jìn)行識(shí)別與篩選,完成諸如垃圾或欺騙郵件識(shí)別或算法推送等工作。參見《生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從ChatGPT 到全面智能化時(shí)代的未來》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第5期。),難以應(yīng)對(duì)“提供設(shè)計(jì)思路”“生成文本、視頻、圖片”等生成式人工智能“專長(zhǎng)領(lǐng)域”的沉迷問題。實(shí)際上,后者才是生成式人工智能防沉迷重點(diǎn)關(guān)注的領(lǐng)域。《未成年人網(wǎng)絡(luò)保護(hù)條例》規(guī)定了網(wǎng)絡(luò)服務(wù)提供者在使用時(shí)段、時(shí)長(zhǎng)、功能和內(nèi)容等方面按照國家相關(guān)標(biāo)準(zhǔn)提供服務(wù),盡可能預(yù)防未成年人沉迷網(wǎng)絡(luò)。但該條規(guī)定僅限于網(wǎng)絡(luò)游戲等娛樂性服務(wù),未提及其他類型,難免掛一漏萬。
第四,生成式人工智能防沉迷手段過于單一,對(duì)相關(guān)主體防沉迷義務(wù)設(shè)置不明確。一方面,《管理暫行辦法》只有一條籠統(tǒng)的“防沉迷條款”,缺少明確的防沉迷義務(wù)主體以及防沉迷義務(wù)的具體內(nèi)容。另一方面,《未成年人保護(hù)法》規(guī)定了“限制網(wǎng)絡(luò)使用時(shí)長(zhǎng)”“限制打賞”等方法來防止未成年人沉迷網(wǎng)絡(luò),這種限制方法應(yīng)對(duì)網(wǎng)絡(luò)沉迷尚可,但面對(duì)能夠提供多樣服務(wù)的生成式人工智能卻因手段過于單一而力有不逮。這是因?yàn)椋墒饺斯ぶ悄芴峁┑姆?wù)是多樣的,其既能提供沉迷性較強(qiáng)的娛樂性服務(wù),又能提供簡(jiǎn)化機(jī)械式工作、有效節(jié)省工作時(shí)間的各項(xiàng)便捷服務(wù)。這就意味著,生成式人工智能沉迷的預(yù)防手段也應(yīng)當(dāng)是多樣化的,只從使用時(shí)長(zhǎng)等方面考慮難以達(dá)到防沉迷的目的。
科學(xué)技術(shù)是把雙刃劍。習(xí)近平總書記指出,要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控[2]。盡管生成式人工智能帶來的沉迷風(fēng)險(xiǎn)屬于程度上的風(fēng)險(xiǎn),但這并非意味著該問題不應(yīng)被重視。恰恰相反,量變的積累通常會(huì)引起質(zhì)變。不同于傳統(tǒng)網(wǎng)絡(luò)游戲沉迷的不利后果偏向個(gè)體性①以網(wǎng)絡(luò)游戲成癮為代表的網(wǎng)絡(luò)沉迷會(huì)導(dǎo)致未成年人身體功能、心理功能、社會(huì)功能受損等。網(wǎng)絡(luò)沉迷對(duì)個(gè)體精神、價(jià)值觀、人格、各項(xiàng)能力等造成負(fù)面影響。參見郭開元:《網(wǎng)絡(luò)不良信息與未成年人權(quán)益保護(hù)專題》,《預(yù)防青少年犯罪研究》2017年第4期。,生成式人工智能沉迷造成的危害還涉及思維、道德、審美、自由、主體性等人類社會(huì)層面的問題。生成式人工智能沉迷影響了人們的思想自由和道德自由,加劇了用戶與生成式人工智能提供者之間的不平等地位,造成了人主體地位的虛化。因此不能將生成式人工智能沉迷與傳統(tǒng)互聯(lián)網(wǎng)沉迷混為一談。當(dāng)下缺少對(duì)生成式人工智能沉迷后果的研究,對(duì)生成式人工智能沉迷層面的風(fēng)險(xiǎn)研判不足,本部分主要討論生成式人工智能沉迷的危害,以論證從防沉迷層面對(duì)其進(jìn)行規(guī)制的必要性,并且作為下文規(guī)制對(duì)策的理論基礎(chǔ),以達(dá)到前瞻性應(yīng)對(duì)風(fēng)險(xiǎn)挑戰(zhàn)②《新一代人工智能發(fā)展規(guī)劃》將“前瞻應(yīng)對(duì)風(fēng)險(xiǎn)”作為指導(dǎo)思想的一部分。的目的。
人類過度依賴生成式人工智能進(jìn)行決策、借助算法的力量“思考”,會(huì)剝奪身體原本應(yīng)有的專注力、認(rèn)知力和辨別力,導(dǎo)致思維能力的惰化,進(jìn)一步限制思想自由。更為嚴(yán)重的是,人類如果缺少思考、缺乏創(chuàng)新,社會(huì)文明將會(huì)停滯不前。
人的思維活動(dòng)主要依賴?yán)硇缘倪\(yùn)用。理性是一種無限的概念,是一種先驗(yàn)的、追求無限的能力,“追求無限就是說,要把一個(gè)東西完全把握住”[3]45,運(yùn)用理性的推演能力來“促進(jìn)一切知識(shí)的最終意圖”[4]1。而“理性推演”實(shí)際上就是形式邏輯思維的運(yùn)用。換言之,人們總是喜歡通過邏輯推演的方式把握“無限的東西”,追求知識(shí)的完整性——需要?jiǎng)?chuàng)新來完成。人類的創(chuàng)新離不開上述的思維活動(dòng)。人通過對(duì)現(xiàn)象的觀察以及對(duì)現(xiàn)有知識(shí)的積累,可以在此基礎(chǔ)上完成形象思維到抽象思維的轉(zhuǎn)變。研究者首先需要進(jìn)行大量的觀察,搜集足夠多的信息文獻(xiàn),再結(jié)合自身的前理解與直觀感知,并采用上述兩種思維中所包含的歸納、對(duì)比、推理、判斷、想象等綜合思維方法對(duì)其進(jìn)行整體上的把握。在這一過程中,僅僅依靠知性無法應(yīng)對(duì)對(duì)象的豐富性,這就需要判斷力發(fā)揮作用。判斷力具有主體的主觀能動(dòng)性,其將諸多復(fù)雜的規(guī)律統(tǒng)一于少數(shù)的規(guī)律之下,這會(huì)引發(fā)一種“愉悅感”,進(jìn)而達(dá)到內(nèi)心與外界的和諧狀態(tài)。這種狀態(tài)實(shí)際上是“自由狀態(tài)”,此時(shí)人們的思想可以天馬行空,思緒萬千,更容易產(chǎn)生“驚奇”。正是“驚奇”有助于形成突如其來的“靈感”,在此基礎(chǔ)上形成新的觀點(diǎn)和論證思路。但靈感非憑空產(chǎn)生,其穿插在抽象思維和形象思維之中,在經(jīng)歷了大量的形象思維和抽象思維訓(xùn)練后才能“頓悟”。這種“聯(lián)系和交錯(cuò)”更多地依賴先驗(yàn)的判斷力,這是生成式人工智能無法模仿和學(xué)習(xí)的。
生成式人工智能沉迷造成人類思維惰化的原因在于:人類思維保持“活性”的機(jī)理在于大量的抽象思維,而生成式人工智能不具備人類的思維模式,它以另一種方式幫助人們跳過了思維過程。
生成式人工智能具備像人一樣的普遍的自我學(xué)習(xí)能力,可以自我進(jìn)化并廣泛適應(yīng)各種傳統(tǒng)需要自然人才能從事的領(lǐng)域[5]。人們借助算法增強(qiáng)了對(duì)世界的掌握能力,但當(dāng)人們?cè)絹碓揭蕾嚿墒饺斯ぶ悄苓@種節(jié)省腦力和精力的工具之后,就會(huì)越來越離不開它。這一過程會(huì)存在算法黑箱,即無法得知生成式人工智能基于何種邏輯和思維方式得出這一答案。一方面,人類從這個(gè)“黑箱”中學(xué)不到任何東西,甚至可能出現(xiàn)“遇事不決,便問機(jī)器”的懶惰與“人假機(jī)威”的自大。另一方面,過分依賴技術(shù)將會(huì)部分或完全遮蔽人的能動(dòng)性,誘使人們放棄思想的自由。在利用生成式人工智能直接得到“答案”的過程中,實(shí)際上是算法代替我們“思考”,這使人們迷惑于人工智能的強(qiáng)大功能而喪失必要的反思,從而放棄了對(duì)其他情形可能性的探尋,慢慢喪失自主思考的能力。如此限制了思路的多種可能性:思維的惰性會(huì)讓我們?cè)絹碓讲辉敢庾叱鲋R(shí)的舒適區(qū),從而扼殺創(chuàng)造力。而越是百家爭(zhēng)鳴、思想多元,越容易促進(jìn)創(chuàng)新,促進(jìn)學(xué)術(shù)盛世的形成;相反,過于強(qiáng)調(diào)“統(tǒng)一”“單一”“形式”反而會(huì)扼殺學(xué)術(shù)自由,扼殺人們創(chuàng)造的天賦。長(zhǎng)期的沉迷與依賴使得人的思想能力逐漸陷入停滯,判斷能力下降,創(chuàng)新意識(shí)減退?!爱?dāng)我們一有問題就習(xí)慣性地求助ChatGPT時(shí),就會(huì)不自覺地將自己的思維能力降低到‘庸人’的平均水平,在潛意識(shí)里喪失了創(chuàng)新的欲望”[6]。這樣,人們由于缺少長(zhǎng)期抽象的思維訓(xùn)練而變得“遲鈍”,靈感和“驚奇”將與人們漸行漸遠(yuǎn),人們也將漸漸失去可領(lǐng)悟、可反思、可批判的思維過程,如此將嚴(yán)重削弱人應(yīng)有的認(rèn)知能力、創(chuàng)新能力和思辨能力。長(zhǎng)此以往,人類那特有的如電光石火一般的靈光一閃將不復(fù)存在。
1.對(duì)形式邏輯的依賴導(dǎo)致道德自由僵化。從認(rèn)識(shí)論角度來看,倫理道德與知識(shí)不能相提并論,倫理道德不能通過形式的邏輯推理得出,否則將引發(fā)道德僵化的倫理危機(jī)。在科學(xué)和知識(shí)的領(lǐng)域內(nèi),人類對(duì)客觀事物的認(rèn)識(shí)過程的確可以總結(jié)為從個(gè)別到一般的歸納能力和從一般到個(gè)別的演繹能力,但在道德等價(jià)值評(píng)價(jià)方面,歸納和類推的適用范圍始終有限。這是因?yàn)榈赖略u(píng)價(jià)標(biāo)準(zhǔn)因?yàn)闊o法量化,無法通過數(shù)學(xué)公式進(jìn)行運(yùn)算,自然也就無法通過算法的形式邏輯得出。如果想通過理性形式邏輯(演繹推理)去認(rèn)識(shí)、把握它們,將會(huì)產(chǎn)生邏輯上的無限后退,最終形成二律背反。此外,人們對(duì)某件事物進(jìn)行價(jià)值判斷時(shí)會(huì)運(yùn)用一種“判斷力”,這種“判斷力”“按照某先天原則而與愉快或不愉快的情感有一種直接的關(guān)系”[4]3,其同樣不是來自邏輯上的判斷,“不能通過概念加以規(guī)定”[3]69-70的,因此無法將其通過形式理性的算法賦予生成式人工智能。
只有將個(gè)體意志的內(nèi)部規(guī)定外部化,同時(shí)又表現(xiàn)為群體性、普遍的行為方式,也就是社會(huì)的整體道德風(fēng)尚,才是真正的道德,這同時(shí)也是我們內(nèi)心的道德律。生成式人工智能相當(dāng)于一個(gè)超大型的數(shù)據(jù)庫,人們每次對(duì)它的“訓(xùn)練”,都有可能使它下一次的回答產(chǎn)生相應(yīng)的變化。進(jìn)言之,生成式人工智能通過算法匯聚了人們大量的價(jià)值判斷標(biāo)準(zhǔn),并且將之“融合”成一種新的道德標(biāo)準(zhǔn)反饋給人們。這樣看來,生成式人工智能似乎具備了價(jià)值判斷的能力。實(shí)際上并非如此。所謂生成式人工智能的“價(jià)值判斷”只是通過抓取“關(guān)鍵詞”的方式完成。當(dāng)遇到類似的“關(guān)鍵詞”時(shí),再賦予其相同或者類似的評(píng)價(jià)?,F(xiàn)實(shí)世界紛繁復(fù)雜,有時(shí)細(xì)微的差別可能會(huì)影響最終的價(jià)值判斷。而人類理性的有限性導(dǎo)致其不可能賦予生成式人工智能完全的“能力”,其只能是有限的、機(jī)械的、對(duì)影響較強(qiáng)的層級(jí)映射,不可能像人一樣從事物的不同狀態(tài)中準(zhǔn)確提取出差異性與穩(wěn)定性。因此,縱然是擁有強(qiáng)大算力的生成式人工智能也很難將這些細(xì)微差別窮盡。如果該細(xì)微的差別沒有被算法捕捉,那么其得出的價(jià)值判斷必然是機(jī)械和僵化的。并且,由于算法無法完全理解人們的道德標(biāo)準(zhǔn),加之算法黑箱的存在,使得其再次輸出的價(jià)值評(píng)價(jià)未必完全符合人類的預(yù)期。如果人們產(chǎn)生了對(duì)生成式人工智能的過度沉迷或者依賴,將引發(fā)社會(huì)整體的道德風(fēng)尚走向僵化。如果生成式人工智能通過理性的形式邏輯將道德評(píng)價(jià)標(biāo)準(zhǔn)一一演繹得出,整個(gè)社會(huì)將逐漸失去價(jià)值多元性,最終走向沉寂。此外,道德自律作為內(nèi)心的強(qiáng)制,其與作為法律的外部強(qiáng)制并非完全割裂,作為外在強(qiáng)制性的法律,正是道德自律的外在化結(jié)果。換言之,對(duì)自由的這種強(qiáng)制本身就是自由所建立起來的。由此可見,隨著人們對(duì)生成式人工智能沉迷的加深,社會(huì)將由內(nèi)(內(nèi)心的道德律)而外(法律)地被生成式人工智能影響,成為“AI 帝國”,充滿著單一化與器械化,多元與生機(jī)將不復(fù)存在。
2.對(duì)機(jī)械化審美的沉迷導(dǎo)致道德自由僵化。馬克思指出,藝術(shù)產(chǎn)品也會(huì)影響到藝術(shù)生產(chǎn)的主體[7]。從人類審美的角度來看,人們對(duì)生成式人工智能的依賴將導(dǎo)向?qū)徝罊C(jī)械化,最終造成道德自由僵化。審美與人類的道德存在內(nèi)在的聯(lián)系,人在欣賞美時(shí)會(huì)引發(fā)道德方面的思考,審美最終會(huì)引導(dǎo)一種共通感,進(jìn)而引向道德并與道德相通[3]302。人們通過判斷力將原本“雜亂無章”的自然界假定為“合目的”。對(duì)于這種“合目的”的假定產(chǎn)生的愉悅感不同于思辨理性中的“先驗(yàn)自由”,也不同于實(shí)踐理性中的“實(shí)踐自由”,而是表現(xiàn)為情感活動(dòng)的自由感,此時(shí)人們發(fā)現(xiàn)自己是自由的,由此可以過渡到信仰、道德等物自體的部分,最終可能與道德目的相結(jié)合。在審美中,人們會(huì)意識(shí)到自己對(duì)自由與道德的接受性,在欣賞美的時(shí)候,可以帶來、引發(fā)道德方面的思考。所有人在審美情感上達(dá)到相通,也就預(yù)示著具有“普遍法則”的道德律的形成。美是德性的象征[4]154??茖W(xué)和藝術(shù),最終都要通向一個(gè)目的,那就是道德的人[3]148。即便是“非純粹美”的浪漫主義審美趣味,也能顯示出“對(duì)美的展望”,人們的道德感同樣會(huì)受到審美能力的影響。以上提及的鑒賞力對(duì)象為自然美,但作為人工產(chǎn)品的藝術(shù)品必須像自然那樣“渾然天成”“不留痕跡”才是最美的,這就意味著對(duì)于藝術(shù)品的鑒賞依然離不開對(duì)自然美的鑒賞。因此,美和藝術(shù)可以看作知識(shí)和道德的入門,審美是培養(yǎng)美德愛好的最佳途徑——席勒的“審美教育論”同樣持這一觀點(diǎn)。
馬克思認(rèn)為,人有現(xiàn)實(shí)的、感性的對(duì)象作為自己本質(zhì)的即自己生命表現(xiàn)的對(duì)象;人只有憑借現(xiàn)實(shí)的、感性的對(duì)象才能表現(xiàn)自己的生命[8]209-210。這說明人的活動(dòng)不僅僅是一種現(xiàn)實(shí)活動(dòng),也是一種感性活動(dòng)。這同時(shí)暗示了人通過審美感受生命活動(dòng)的價(jià)值。通過探查生成式人工智能“制造”藝術(shù)品的運(yùn)行機(jī)理,不難發(fā)現(xiàn)這類“作品”只是通過大量輸入人類的作品并對(duì)其進(jìn)行對(duì)比、分類和歸納的結(jié)果,是機(jī)械、套路、形式化的,是不具備對(duì)生命意義的思考與人文情懷的。盡管算法可以模仿某位藝術(shù)家的風(fēng)格生成“藝術(shù)作品”,但這并不是“自發(fā)的藝術(shù)品”,而是在構(gòu)圖、線條等可以量化的要素的基礎(chǔ)上模仿而來。這只是通過將藝術(shù)作品“數(shù)據(jù)化”后機(jī)械模仿的結(jié)果。隨著人類對(duì)生成式人工智能的沉迷加深,理性邏輯的力量會(huì)消除藝術(shù)中的“偶然性”,進(jìn)而將技術(shù)整合到必然性之中。如果過度沉迷于生成式人工智能產(chǎn)生的所謂“藝術(shù)品”,會(huì)使得人類的審美逐步算法化、計(jì)算化、規(guī)律化,導(dǎo)致人們的個(gè)性被機(jī)械化的“統(tǒng)一”所取代,這種套路化、機(jī)械化的審美會(huì)影響甚至控制人們的審美口味。
反映到倫理道德自由上,審美的對(duì)象是一種“象征”或“暗示”。如果審美變得形式化,那么算法機(jī)械、形式的“因果律”將替代人諸認(rèn)識(shí)能力的自由協(xié)調(diào),審美行為將難以達(dá)到“自由的愉悅”。長(zhǎng)此以往,人們對(duì)生命活動(dòng)思考的人文情懷亦喪失殆盡,人們的情感和倫理會(huì)被人工物所中介,“自由感”被“機(jī)械化”消磨殆盡。
表面上來看,生成式人工智能提供者與用戶之間基于意思自治原則成立了服務(wù)合同,生成式人工智能提供者提供相應(yīng)的便捷服務(wù),用戶根據(jù)合同條款承擔(dān)相應(yīng)的義務(wù)。這本是市場(chǎng)主體的私法自治行為。私法何以“自治”?這是因?yàn)槊總€(gè)人都具有自由意志,在這一層面每個(gè)人都是天生的自由人,這種內(nèi)在的平等的自由是每個(gè)人憑借自己的人性應(yīng)當(dāng)具有的法權(quán)。然而,前述所謂“平等的自由意志”僅僅是一種假設(shè),在生成式人工智能提供者與用戶之間并不存在這種假設(shè),面對(duì)生成式人工智能提供的服務(wù),用戶通常不存在“自由意志的選擇空間”。這主要是因?yàn)橛脩魧?duì)生成式人工智能形成的沉迷導(dǎo)致其“自由意志”受到潛移默化的影響,以及用戶與生成式人工智能提供者之間的信息不對(duì)等。信息的不平等影響意思表示的真實(shí)性,一方無法有效作出判斷而引發(fā)不公平和低效率。
生成式人工智能提供者與用戶的平等關(guān)系實(shí)際上掩蓋了算法資本與用戶之間的不平等關(guān)系。算法的開發(fā)和應(yīng)用需要投入大量人力和物力,這就使得生成式人工智能服務(wù)的提供不得不依賴資本力量。利益的追逐是資本的固然屬性。這就意味著,資本為了賺取利潤(rùn)會(huì)盡可能提高用戶對(duì)產(chǎn)品的依賴,而生成式人工智能可以通過分析用戶的喜好,不斷優(yōu)化算法推薦服務(wù),使用戶無意中產(chǎn)生對(duì)生成式人工智能服務(wù)的沉迷。生成式人工智能的無意識(shí)沉迷改變了信息呈現(xiàn)模式,產(chǎn)生了信息不平等。這是因?yàn)椋墒饺斯ぶ悄芡扑头?wù)背后必然包括那些自動(dòng)匹配的“令人愉快的算法”,這就意味著生成式人工智能推薦服務(wù)的內(nèi)容多為人們所希望看到的二次選擇內(nèi)容;在其驅(qū)動(dòng)下,人們自然而然地陷入“信息繭房”之中,難以完全掌握社會(huì)中的數(shù)據(jù)資源,由此導(dǎo)致信息呈現(xiàn)不平等與信息分布不平等。信息呈現(xiàn)不平等是指在算法信息過濾機(jī)制的影響下,人們發(fā)現(xiàn)相關(guān)數(shù)據(jù)的能力受到限制,進(jìn)而導(dǎo)致信息呈現(xiàn)機(jī)會(huì)的不平等以及算法網(wǎng)絡(luò)空間的信息話語權(quán)不平等。當(dāng)人們沉迷于生成式人工智能帶來的愉悅時(shí),伴隨著判斷力與反思能力的惰化,其更加難以監(jiān)視信息的過濾與呈現(xiàn)過程。更為嚴(yán)重的是,人們對(duì)生成式人工智能的沉迷加深了這種不平等。這是因?yàn)椤靶畔⒗O房”效應(yīng)會(huì)不斷加重,如此進(jìn)一步擴(kuò)大了用戶與生成式人工智能提供者之間的信息差。隨著人們判斷力、思維能力的弱化,人們的價(jià)值判斷標(biāo)準(zhǔn)會(huì)被生成式人工智能的“價(jià)值輸出”、推薦服務(wù)等干擾和控制,人的自由意志會(huì)逐漸被其侵蝕,導(dǎo)致原本就“不平等的自由意志”更加向生成式人工智能提供者傾斜,這進(jìn)一步加劇了地位失衡,從而形成“惡性循環(huán)”。
生成式人工智能“工具沉迷”影響了社會(huì)共通感的形成,導(dǎo)致公眾的社會(huì)整體語境價(jià)值被算法干預(yù),造成“自由人”主體地位的虛化。
社會(huì)價(jià)值語境的形成與人們的普遍共通感有關(guān)。共通感即共同的感覺,其“不是理性的抽象普遍性,而是表現(xiàn)一個(gè)集團(tuán)、一個(gè)民族、一個(gè)國家或整個(gè)人類的共同性的具體普遍性”[9]。共通感并非純粹先天形成,而是借助后天經(jīng)驗(yàn)性的東西“教化”而成。通過教化可以使這種共通感指向民族或者公民的“共同品性”,最終同樣影響一個(gè)民族基本的道德共識(shí)?!敖袒钡倪^程其實(shí)是一個(gè)不斷影響的過程,它是把理性能力熔鑄到感覺當(dāng)中,在彼此共同生活中潛移默化地受到影響,而生成式人工智能將成為引導(dǎo)人們共通感形成的因素之一,尤其是當(dāng)人們沉迷其中時(shí)。生成式人工智能的“教化”體現(xiàn)在如下兩個(gè)方面。
在大數(shù)據(jù)時(shí)代,生成式人工智能的自動(dòng)化算法可以通過對(duì)個(gè)人信息的分析評(píng)估個(gè)人的健康、收入、喜好等個(gè)人特征,精準(zhǔn)化影響個(gè)人的“選擇”。有學(xué)者提出“輕推”這一概念,說明在不妨礙人們自由選擇的前提下同樣可以鼓勵(lì)或誘導(dǎo)人們決策,引導(dǎo)人們選擇特定的選項(xiàng)[10]。由于現(xiàn)在流行的算法越來越“親人”,其可以“對(duì)公眾認(rèn)知態(tài)度的流變性塑造基于算法的數(shù)據(jù)監(jiān)測(cè)評(píng)估系統(tǒng)對(duì)公眾的社會(huì)需求、政治偏好、價(jià)值立場(chǎng)、文化需求等進(jìn)行預(yù)測(cè)”[11],根據(jù)用戶興趣愛好、個(gè)人特征等為其打造獨(dú)一無二的智能化場(chǎng)景,滿足用戶信息需求和個(gè)性偏好,符合用戶之所想。這一整個(gè)過程是一種“由生理驅(qū)動(dòng)且不斷自我強(qiáng)化的‘自反性沉迷’——它在根本上,是一種人的生物學(xué)弱點(diǎn)”[12],在其驅(qū)動(dòng)下,用戶審美體驗(yàn)等更容易得到滿足,這就導(dǎo)致世人將如同魔法欣賞一般對(duì)生成式人工智能感到莫名的愉悅[13]。由此意味著人們?nèi)菀紫萑肷墒饺斯ぶ悄艹撩?,被生成式人工智能“引?dǎo)”。
生成式人工智能的大語言模型具有吸引人的社交特點(diǎn),長(zhǎng)時(shí)間沉迷于生成式人工智能、過度依賴人工智能的回答或者推薦,將導(dǎo)致用戶的心智結(jié)構(gòu)呈現(xiàn)為更具有形成性的“慣習(xí)”,進(jìn)而形成算法對(duì)人的監(jiān)視和控制,成為一種隱形的控制手段。這種機(jī)制下,生成式人工智能通過培養(yǎng)“慣習(xí)”進(jìn)而構(gòu)建出知識(shí)場(chǎng)域,影響人們對(duì)社會(huì)各個(gè)領(lǐng)域的認(rèn)識(shí)與觀念。隨著人們對(duì)生成式人工智能的依賴甚至沉迷的加深,用戶的主動(dòng)控制對(duì)人工智能的約束力將越來越弱,最終成為一種“虛假控制”——用戶對(duì)于這種監(jiān)視、控制、灌輸仍在一定程度上處在一種不知情的狀態(tài)。有學(xué)者做過類似的研究,通過訪談發(fā)現(xiàn),當(dāng)用戶感覺可以控制他們的在線互動(dòng)時(shí),他們就不太會(huì)意識(shí)到生成式人工智能對(duì)自己行為潛移默化的干預(yù),認(rèn)為自己仍然是其主人,但實(shí)際上已經(jīng)在無意中受其影響[14]。
馬克思主義實(shí)踐論將人的本體歸為社會(huì)性實(shí)踐活動(dòng)?!巴ㄟ^實(shí)踐創(chuàng)造對(duì)象世界,改造無機(jī)界,人證明自己是有意識(shí)的類存在物”[8]162,而正是在對(duì)象性活動(dòng)中,“人才真正地證明自己是類存在物”[8]163。包括生成式人工智能在內(nèi)的科學(xué)技術(shù)作為人類實(shí)踐活動(dòng)的產(chǎn)物,其本質(zhì)是工具,是人的力量的對(duì)象化。但在生成式人工智能的“教化”下,人們會(huì)在無意識(shí)中“跟著AI走”,人的情感認(rèn)知、倫理行為、價(jià)值信仰和整體行為等會(huì)潛移默化地受其影響,最終影響整個(gè)社會(huì)語境價(jià)值的形態(tài)。大眾的意識(shí)在算法個(gè)性化、價(jià)值分化和認(rèn)知固化等作用下會(huì)影響社會(huì)整體共通感的形成,遮蔽國家主導(dǎo)意識(shí)形態(tài)的價(jià)值導(dǎo)向,消解國家倡導(dǎo)的價(jià)值信仰,蠶食主導(dǎo)意識(shí)形態(tài)的權(quán)威地位,導(dǎo)致公眾的價(jià)值取向成為可計(jì)算的“數(shù)字價(jià)值”,從而在無意識(shí)中被AI 所引導(dǎo)。換言之,一旦形成對(duì)算法的依賴,“實(shí)質(zhì)上就是在以服從歷史模型的方式臣服于機(jī)器,機(jī)器便以尊重歷史經(jīng)驗(yàn)的表象實(shí)際統(tǒng)治了人類”[15]。
進(jìn)言之,本應(yīng)服務(wù)于人類社會(huì)的機(jī)器人反而“引導(dǎo)”人類,造成人機(jī)關(guān)系異化;生成式人工智能并非是膺服于人,而是主宰了人。正如有觀點(diǎn)所說,“當(dāng)人工智能真的成為強(qiáng)人工智能或者超級(jí)智能時(shí),或許人與機(jī)器的關(guān)系會(huì)顛倒過來”[16],人最終被算法奴役,成為被AI 駕馭的機(jī)器,停止思辨,喪失靈性,作為人的思想自由與行為自主性將被機(jī)器剝奪。
綜上所述,生成式人工智能發(fā)展的技術(shù)邏輯在資本邏輯的作用下會(huì)形成技術(shù)奴隸社會(huì)[6]14。長(zhǎng)此以往,人們的思想自由、行為自由將逐步被生成式人工智能侵蝕,人們與生成式人工智能提供者之間的不平等地位將進(jìn)一步失衡,人類將逐步喪失主體性地位。隨著人們對(duì)生成式人工智能的沉迷不斷加深,上述影響會(huì)越來越嚴(yán)重。因此,無論從國家層面還是社會(huì)層面,這都是需要警惕的問題。
習(xí)近平總書記指出,技術(shù)“一方面可以造福社會(huì)、造福人民,另一方面也可以被一些人用來損害社會(huì)公共利益和民眾利益[17]。面對(duì)生成式人工智能,我們應(yīng)當(dāng)“在充分放大和加速其正面效應(yīng)的同時(shí),把可能出現(xiàn)的負(fù)面影響降到最低”[18]。結(jié)合前文分析,本文認(rèn)為,未來人工智能立法應(yīng)當(dāng)關(guān)注生成式人工智能沉迷問題,需要在立法中設(shè)置相應(yīng)的防沉迷條款。
生成式人工智能沉迷的法律規(guī)制不能忽視對(duì)成年人沉迷的預(yù)防,應(yīng)當(dāng)區(qū)分成年人與未成年人,要采取不同的規(guī)制沉迷手段。當(dāng)下法律規(guī)范主要針對(duì)未成年人沉迷的防范與規(guī)制,立法者似乎認(rèn)為,成年人具有完全民事行為能力,其自治空間應(yīng)當(dāng)受到最大程度的尊重,沉迷網(wǎng)絡(luò)可視為成年人的自主選擇,就如同選擇“垃圾食品”,國家最多只能倡導(dǎo)健康飲食,而不可斷然禁絕餐廳售賣合法商品。但實(shí)際上,生成式人工智能沉迷與選擇垃圾食品不可相提并論?,F(xiàn)代心理學(xué)表明,瀏覽社交媒體能刺激多巴胺甚至內(nèi)啡肽分泌,有助于減輕壓力、釋放情緒。國際研究發(fā)現(xiàn),網(wǎng)絡(luò)成癮與藥物成癮都會(huì)使上癮者控制力降低、獎(jiǎng)賞尋求增加、耐受性增強(qiáng),具有戒斷反應(yīng)和精神以及軀體癥狀等臨床反應(yīng);我國有學(xué)者發(fā)現(xiàn)網(wǎng)癮患者內(nèi)囊前枝、外囊等白質(zhì)纖維束損傷的模式與毒品依賴患者非常類似,且左側(cè)外囊損傷程度與患者網(wǎng)癮嚴(yán)重程度顯著相關(guān)①彭錞教授指出,網(wǎng)絡(luò)成癮更接近于毒品和賭博成癮。參見彭錞:《“算法防沉迷”義務(wù)首次寫入我國法規(guī),亦屬世界首創(chuàng)》,http://m.legalweekly.cn/fzzg/2022-01/06/content_8653548.html,訪問日期:2023-10-01。。
相比傳統(tǒng)互聯(lián)網(wǎng),生成式人工智能提供的服務(wù)對(duì)人們的吸引力更強(qiáng),其誘導(dǎo)沉迷的可能性更大。不僅未成年人,生成式人工智能的強(qiáng)大功能和便捷的服務(wù)同樣吸引著成年人,即便是已經(jīng)成年的大學(xué)生、參加工作的職場(chǎng)人士,在社會(huì)壓力下同樣可能將精神情感寄托于人工智能搭建的虛擬世界中,沉迷于生成式人工智能的算法推送,由此誘發(fā)沉迷風(fēng)險(xiǎn)②在算法推薦服務(wù)的影響下,人們對(duì)手機(jī)(如短視頻)的沉迷越來越明顯,尤其是算法使用水平較高的個(gè)體,感知到的個(gè)性化、響應(yīng)性以及準(zhǔn)社會(huì)互動(dòng)對(duì)短視頻沉迷的正向影響更大。參見謝新洲,杜燕:《社會(huì)技術(shù)因素對(duì)短視頻沉迷影響的實(shí)證研究——算法推薦的調(diào)節(jié)作用》,《信息資源管理學(xué)報(bào)》2023年第1期。。
前文已述,生成式人工智能沉迷問題不僅是個(gè)人層面的問題,從整體層面來看,其涉及人類的思維能力、倫理道德、審美等深層次領(lǐng)域,與人的自由、主體地位等問題密切相關(guān),而與沉迷主體是未成年人還是成年人關(guān)聯(lián)性不強(qiáng)。因此成年人的沉迷問題同樣不能忽視。根據(jù)馬克思的異化理論,生成式人工智能對(duì)于未成年人和成年人的吸引力、沉迷機(jī)理不盡相同;未成年人與成年人在自控能力、心智成熟程度、辨別能力方面亦不可相提并論。因此,在具體防沉迷設(shè)計(jì)上,應(yīng)當(dāng)要求生成式人工智能提供者對(duì)未成年人與成年人進(jìn)行區(qū)分,二者應(yīng)區(qū)別對(duì)待。
有關(guān)部門的監(jiān)管應(yīng)當(dāng)重點(diǎn)關(guān)注生成式人工智能提供者是否履行了相關(guān)防沉迷義務(wù),而非出現(xiàn)“用戶沉迷于生成式人工智能”這一后果。根據(jù)《管理暫行辦法》第10條規(guī)定,生成式人工智能提供者有義務(wù)采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)?!安扇∮行Т胧币馕吨鴮?duì)沉迷結(jié)果的規(guī)制,其合理性有待商榷——只要出現(xiàn)了沉迷于生成式人工智能的后果,都可以歸責(zé)于生成人工智能提供者“沒有采取有效措施”,該條為生成式人工智能提供者施加了過嚴(yán)的責(zé)任。這種責(zé)任模式并不合理,有關(guān)部門的監(jiān)管應(yīng)當(dāng)重點(diǎn)關(guān)注生成式人工智能提供者是否履行了相關(guān)防沉迷義務(wù)。
在利用生成式人工智能提供服務(wù)的領(lǐng)域,用戶與生成式人工智能提供者總體上具有合作關(guān)系。雖然需要關(guān)注生成式人工智能的防沉迷設(shè)計(jì),但全面和不加區(qū)分過度防范亦不可取,因?yàn)檫@會(huì)破壞蓬勃發(fā)展的信息經(jīng)濟(jì),影響每個(gè)人的日常生活。因此必須在令人上癮的和吸引人之間劃清界限。不是所有提高用戶粘性的算法都是誘導(dǎo)沉迷。然而,我們對(duì)此很難做出具體的劃分,這是因?yàn)?,與毒品成癮已經(jīng)形成了廣為接受的測(cè)量標(biāo)準(zhǔn)不同,生成式人工智能成癮缺乏相關(guān)的標(biāo)準(zhǔn)和方法。此時(shí)如果針對(duì)算法模型建立一套鑒定成癮的辦法,并且要政府部門對(duì)不符合該標(biāo)準(zhǔn)的生成式人工智能算法模型全部禁止,既不合理也不可行。對(duì)于生成式人工智能防沉迷限度控制的思路,應(yīng)當(dāng)轉(zhuǎn)變?yōu)閷?duì)生成式人工智能提供者防沉迷義務(wù)履行情況的監(jiān)管。具體而言,政府部門應(yīng)當(dāng)對(duì)生成式人工智提供者是否設(shè)置了法律規(guī)定的防沉迷算法,以及該算法的運(yùn)行情況等因素進(jìn)行監(jiān)管,并且要求生成式人工智能提供者從使用權(quán)限、內(nèi)容限制、時(shí)間限制等因素進(jìn)行事前評(píng)估。如果生成式人工智能提供者沒有履行相關(guān)的防沉迷義務(wù),網(wǎng)信辦等有關(guān)部門可以對(duì)其進(jìn)行行政處罰。
此外,行業(yè)協(xié)會(huì)的管理規(guī)范可以為企業(yè)自律提供柔和的外在監(jiān)督。目前我國已經(jīng)成立了上海市人工智能行業(yè)協(xié)會(huì)、深圳市人工智能行業(yè)協(xié)會(huì)等,上述協(xié)會(huì)一定程度上可以監(jiān)管生成式人工智能提供者防沉迷義務(wù)的履行情況。隨著未來行業(yè)協(xié)會(huì)數(shù)量的進(jìn)一步增加,其有助于進(jìn)一步實(shí)現(xiàn)有關(guān)企業(yè)自律與政府強(qiáng)制監(jiān)管之間的有效緩沖。如此形成了既依賴國家監(jiān)管,又發(fā)揮企業(yè)自主管理、自我治理作用的“政府—企業(yè)—行業(yè)協(xié)會(huì)”協(xié)同參與防沉迷治理模式。該模式可以發(fā)揮政府管控與市場(chǎng)自治的優(yōu)勢(shì),一定程度上可以避免政府管控力度把握不到位的問題,更有利于從專業(yè)角度發(fā)現(xiàn)生成式人工智能服務(wù)企業(yè)內(nèi)部存在的誘導(dǎo)沉迷風(fēng)險(xiǎn),為算法市場(chǎng)提供更多自治空間,彌補(bǔ)政府規(guī)制面臨的執(zhí)法能力有限等問題。因此,法律應(yīng)當(dāng)進(jìn)一步明確生成式人工智能提供者的防沉迷義務(wù)、相關(guān)部門的監(jiān)管義務(wù),以及違反義務(wù)后的責(zé)任承擔(dān)。
當(dāng)下生成式人工智能防沉迷領(lǐng)域主要集中于網(wǎng)絡(luò)游戲以及算法推送服務(wù)領(lǐng)域,該防沉迷范圍過窄,應(yīng)當(dāng)予以擴(kuò)展。前文已述,生成式人工智能使用范圍廣闊,其可以提供便捷的服務(wù)以簡(jiǎn)化工作,還可以根據(jù)人們的指令生成成品,也可以根據(jù)用戶的喜好推送其想看到的內(nèi)容,甚至能提供“陪聊”等情感服務(wù)。盡管生成式人工智能提供的服務(wù)對(duì)人們具有較強(qiáng)吸引力,但這并不意味著生成式人工智能的使用、提供的服務(wù)均需要考慮防沉迷問題。對(duì)于娛樂性服務(wù)(比如短視頻APP 中的推薦服務(wù)、網(wǎng)絡(luò)游戲等)當(dāng)然需要考慮防沉迷問題,而對(duì)于生成式人工智能提供的便捷服務(wù)則不能一概而論。如果生成式人工智能的使用目的是替代人們思考、提供價(jià)值判斷、生成藝術(shù)品,對(duì)生成式人工智能的長(zhǎng)期依賴會(huì)導(dǎo)致人們思想自由的惰化、道德自由的僵化;從人類整體來看,長(zhǎng)期的沉迷和依賴甚至?xí)鸩较麥p人的主體地位,人工智能將取而代之。因此,當(dāng)生成式人工智能的使用領(lǐng)域、服務(wù)范圍涉及人的思維訓(xùn)練、道德相關(guān)的判斷以及藝術(shù)品創(chuàng)作時(shí),需要警惕沉迷問題。
前文已述,生成式人工智能的使用、提供的服務(wù)并非都需要考慮沉迷問題,而是應(yīng)當(dāng)采取場(chǎng)景化的思路明確生成式人工智能提供者的防沉迷義務(wù),根據(jù)不同服務(wù)的應(yīng)用場(chǎng)景設(shè)置相應(yīng)的防沉迷標(biāo)準(zhǔn)和措施。生成式人工智能的沉迷會(huì)導(dǎo)致人思維惰化,但并非所有類型的服務(wù)場(chǎng)景均容易導(dǎo)致思維惰化。比如一些文字校對(duì)、翻譯、文字潤(rùn)色之類的工作通常不涉及理性思維問題,如果將這類工作交給生成式人工智能完成,可以把人們從繁瑣費(fèi)時(shí)的工作中解脫出來,人們得以獲得更多的時(shí)間進(jìn)行思考創(chuàng)新。因此,應(yīng)提倡將生成式人工智能服務(wù)應(yīng)用于這類工作中降低人們的工作量,無需擔(dān)心對(duì)其過度依賴導(dǎo)致思維惰化。在涉及道德價(jià)值判斷時(shí),生成式人工智能應(yīng)當(dāng)謹(jǐn)慎回答甚至拒絕回答,并提醒用戶自己不具備價(jià)值評(píng)價(jià)的能力,從而避免頻繁價(jià)值輸出,以至于潛移默化影響人們的道德判斷。但即便如此也不應(yīng)“一刀切”地設(shè)定統(tǒng)一的價(jià)值判斷標(biāo)準(zhǔn),而是應(yīng)促進(jìn)多元價(jià)值判斷體系的生成。正如《關(guān)于加強(qiáng)科技倫理治理的意見》中提及“科技活動(dòng)應(yīng)尊重宗教信仰、文化傳統(tǒng)等方面的差異”。再如,在藝術(shù)創(chuàng)作過程中,生成式人工智能則可以輔助完成一些機(jī)械性、重復(fù)性、邏輯性的工作,應(yīng)當(dāng)允許用戶利用生成式人工智能進(jìn)行潤(rùn)色優(yōu)化,而對(duì)于直接生成藝術(shù)品的請(qǐng)求則應(yīng)當(dāng)加以限制??梢?,以上三種情形采取“限制使用時(shí)長(zhǎng)”的方式并不能很好地實(shí)現(xiàn)防沉迷目的,因?yàn)榇藭r(shí)關(guān)注的重點(diǎn)應(yīng)當(dāng)是“限制使用/使用頻次”而非使用時(shí)長(zhǎng)。基于此,不宜只采取“限制使用時(shí)間”這一種防沉迷方式,應(yīng)當(dāng)根據(jù)生成式人工智能的具體使用場(chǎng)景采取諸如“限制使用頻次”“禁止使用”“必要的提醒義務(wù)”等防沉迷手段。
《未成年人網(wǎng)絡(luò)保護(hù)條例》第43 條規(guī)定了“網(wǎng)絡(luò)游戲……在使用時(shí)段、時(shí)長(zhǎng)、功能和內(nèi)容等方面按照國家規(guī)定和標(biāo)準(zhǔn)提供服務(wù)”;第47條規(guī)定了“評(píng)估游戲產(chǎn)品的類型、內(nèi)容與功能等要素,對(duì)游戲產(chǎn)品進(jìn)行分類”,指出網(wǎng)絡(luò)游戲服務(wù)提供者應(yīng)當(dāng)根據(jù)游戲類型等要素明確適合不同年齡段的未成年人??紤]到不同年齡段的未成年人的心智區(qū)別,其對(duì)網(wǎng)絡(luò)游戲的認(rèn)識(shí)程度以及抵抗網(wǎng)絡(luò)游戲誘惑的能力有所不同,上述規(guī)定采取了網(wǎng)絡(luò)游戲分級(jí)的防沉迷理念,有利于讓未成年人根據(jù)自身的年齡和發(fā)展情況選擇適合自身的游戲。就網(wǎng)絡(luò)游戲防沉迷而言,以上規(guī)定根據(jù)未成年人的不同年齡段采取了產(chǎn)品類型化的規(guī)制思路,具有一定合理性。未來人工智能立法可以借鑒這種類型化思路模式明確生成式人工智能提供者的防沉迷義務(wù)。
國家標(biāo)準(zhǔn)化管理委員會(huì)、中央網(wǎng)信辦等部門聯(lián)合印發(fā)了《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,那么在生成式人工智能防沉迷層面是否可以在使用場(chǎng)景化下構(gòu)建一套防沉迷指標(biāo)體系?本文認(rèn)為該方案既不合理也不可行。第一,當(dāng)下生成式人工智能的發(fā)展仍處于起步階段,對(duì)生成式人工智能防沉迷規(guī)制不宜走得太遠(yuǎn),應(yīng)當(dāng)采取“大膽展望、小心立法”的模式,促進(jìn)科技發(fā)展與人文關(guān)懷的平衡。為此,對(duì)生成式人工智能提供者的防沉迷義務(wù)不宜過重。應(yīng)當(dāng)保持適當(dāng)?shù)拈_放性與模糊性,并且在實(shí)踐中不斷完善細(xì)化,在此基礎(chǔ)上再完成相關(guān)指標(biāo)的建構(gòu)。顯然,目前尚未達(dá)到這一階段。第二,前文已述,不同于網(wǎng)絡(luò)游戲沉迷,生成式人工智能沉迷的場(chǎng)景更為復(fù)雜,令人沉迷的原因也更加多樣;加之目前生成式人工智能使用領(lǐng)域并未全面鋪開,仍有相當(dāng)一部分停留于理論設(shè)想層面①《科技部關(guān)于支持建設(shè)新一代人工智能示范應(yīng)用場(chǎng)景的通知》首批支持建設(shè)十個(gè)示范應(yīng)用場(chǎng)景。另外,也有學(xué)者對(duì)未來生成式人工智能的適用場(chǎng)景展開討論。參見張熙,楊小汕,徐常勝:《ChatGPT 及生成式人工智能現(xiàn)狀及未來發(fā)展方向》,《中國科學(xué)基金》2023年第5期。。在生成式人工智能應(yīng)用剛剛落地之時(shí),再要求更為具體化、細(xì)致化的指標(biāo)更是難上加難。因此,該方案的可行性還需進(jìn)一步考證。
此外,為了促進(jìn)平等地位的維護(hù),除了學(xué)者們廣為提及的加強(qiáng)政府干預(yù)和監(jiān)管、通過法律限制算法偏好、加強(qiáng)算法倫理性等措施②相關(guān)論述較多,這里做簡(jiǎn)要列舉。參見張愛軍,李圓:《人工智能時(shí)代的算法權(quán)力:邏輯、風(fēng)險(xiǎn)及規(guī)制》,《河海大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019 年第6 期;徐琳:《人工智能推算技術(shù)中的平等權(quán)問題之探討》,《法學(xué)評(píng)論》2019 年第3 期;匡文波:《對(duì)個(gè)性化算法推薦技術(shù)的倫理反思》,《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2021年第5期。外,生成式人工智能服務(wù)提供者應(yīng)當(dāng)有意識(shí)地采取措施弱化“信息繭房”效應(yīng),降低人們的過度依賴。生成式人工智能提供者需要在設(shè)置推送算法時(shí)適當(dāng)拓寬用戶視野,增加同各種信息接觸的機(jī)會(huì),注重多元化信息,均衡不同立場(chǎng)、地域、愛好、價(jià)值的觀點(diǎn)態(tài)度;同時(shí)加入多樣化的算法指標(biāo),通過信息物理方法、二次優(yōu)化方法、社會(huì)化網(wǎng)絡(luò)方法和時(shí)間感知方法來提高推薦系統(tǒng)信息推薦的多樣性,從實(shí)際操作上對(duì)用戶接收內(nèi)容進(jìn)行糾偏[19]。此外,還應(yīng)當(dāng)提高算法的可解釋性,保障用戶的知情權(quán);通過設(shè)置防沉迷提醒提高用戶對(duì)生成式人工智能系統(tǒng)的認(rèn)知和信任,減少彼此之間的信息不對(duì)等。近年來可解釋的人工智能(XAI)已經(jīng)成為計(jì)算科學(xué)研究的前沿主題,一些大型算法公司已經(jīng)將XAI 用于實(shí)踐,通過提供相關(guān)開源工具箱來幫助開發(fā)者和普通公眾理解機(jī)器學(xué)習(xí)算法。該方法更偏向于技術(shù)層面,需要通過法律賦予其強(qiáng)制性與合法性。比較可行的辦法是,在法律上明確生成式人工智能提供者應(yīng)當(dāng)采取適當(dāng)?shù)募夹g(shù)手段削弱“信息繭房”效應(yīng)。
生成式人工智能沉迷的后果不僅是個(gè)體層面的問題,更涉及到人的思維自由惰化、倫理道德與行為自由的僵化、生成式人工智能提供者與用戶之間不平等地位的加劇、技術(shù)失控導(dǎo)致人類主體性的遮蔽等更深層次的問題,關(guān)系到智能AI 時(shí)代人與機(jī)器的關(guān)系以及人類文明發(fā)展。習(xí)近平總書記指出,要“加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”[2]。本文提出應(yīng)當(dāng)從法律層面對(duì)生成式人工智能的沉迷問題進(jìn)行規(guī)制,拓展生成式人工智能防沉迷的對(duì)象和領(lǐng)域,明確生成式人工智能提供者的防沉迷義務(wù),轉(zhuǎn)變監(jiān)管方法,加大監(jiān)管力度,發(fā)揮多元主體協(xié)同共治,確保生成式人工智能的使用符合人類整體利益。人應(yīng)當(dāng)被看作目的而不能僅僅作為手段,生成式人工智能只能作為工具而絕不能成為主體;只有保證人類作為“掌舵者”的角色,方能使智能技術(shù)的發(fā)展行穩(wěn)致遠(yuǎn)。因此不論將來人機(jī)關(guān)系發(fā)展如何,在技術(shù)不斷朝向“人化”方向發(fā)展時(shí),人們都應(yīng)提醒自己技術(shù)的根本目的在于實(shí)現(xiàn)人的自由全面發(fā)展,而不是將整個(gè)社會(huì)帶向幻想之外的“空中樓閣”。因此有必要建立完善生成式人工智能防沉迷體系,在特定情形中限制對(duì)生成式人工智能的使用,降低對(duì)其依賴,構(gòu)建良好的人機(jī)關(guān)系,從而避免人類社會(huì)成為被AI 管理的“AI 帝國”。
從全球范圍來看,隨著歐盟《人工智能法》的不斷推進(jìn)以及生成式人工智能的新一輪爆發(fā),人工智能的治理已經(jīng)邁入大規(guī)模立法的新階段??紤]到人工智能的發(fā)展速度,對(duì)人工智能立法既需要立足于當(dāng)下問題,更需要應(yīng)對(duì)前瞻風(fēng)險(xiǎn)和挑戰(zhàn)。從國內(nèi)看,2023 年8 月,在“全球治理話語競(jìng)賽下人工智能立法的中國方案”研討會(huì)上,中國社會(huì)科學(xué)院國情調(diào)研重大項(xiàng)目《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組正式發(fā)布《人工智能法示范法(專家建議稿)》??傮w來看,該建議稿堅(jiān)持發(fā)展與安全并行的中國式治理思路,提出了負(fù)面清單管理等治理制度,并對(duì)人工智能產(chǎn)業(yè)鏈條各主體責(zé)任義務(wù)分配等核心問題進(jìn)行了回應(yīng)。遺憾的是,該稿中并未涉及生成式人工智能防沉迷問題。本文認(rèn)為,有關(guān)立法部門在未來人工智能立法中應(yīng)當(dāng)借鑒《未成年人網(wǎng)絡(luò)保護(hù)條例》將“生成式人工智能沉迷防治”作為專門一章加以規(guī)定。這為防治生成式人工智能沉迷提供了法治保障,也有利于生成式人工智能發(fā)揮更加正面而積極的作用。
北京行政學(xué)院學(xué)報(bào)2024年1期