何 煊
(華東政法大學(xué) 經(jīng)濟(jì)法學(xué)院,上海 200042)
當(dāng)今社會,人工智能(AI)的發(fā)展日新月異,且已被廣泛應(yīng)用于包括金融、醫(yī)療、法律等各個領(lǐng)域,逐漸成為推動社會進(jìn)步與經(jīng)濟(jì)發(fā)展的重要力量。生成式AI(Generative AI)是一種具有創(chuàng)造性的AI技術(shù),可以模擬人類創(chuàng)造性的思維和行為,生成近乎真實(shí)的圖像、音樂和文本等作品[1]。與傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)不同,生成式AI不受人為制定輸出結(jié)果格式和內(nèi)容的限制,而是可以自行決定。生成式AI的出現(xiàn),標(biāo)志著強(qiáng)AI時代帷幕已徐徐拉開,人類社會或?qū)⑦~入一個分水嶺。然而,隨著生成式AI技術(shù)的廣泛應(yīng)用,給人類帶來驚喜的同時,也產(chǎn)生了一系列的法律風(fēng)險和挑戰(zhàn),特別是在數(shù)據(jù)安全、知識產(chǎn)權(quán)保護(hù)、個人信息安全等方面,具有發(fā)生潛在意外的可能。另一方面,生成式AI技術(shù)也將會對人類社會的制度、經(jīng)濟(jì)、道德倫理及價值觀構(gòu)成挑戰(zhàn)。有觀點(diǎn)認(rèn)為,以ChatGPT(Chat Generative Pre-trained Transformer,聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器)為代表的系列應(yīng)用將會加速公共價值體系的崩解,有必要針對潛在風(fēng)險進(jìn)行應(yīng)對[2]。而如何在現(xiàn)有法律框架和規(guī)范的基礎(chǔ)上,制定適當(dāng)?shù)膽?yīng)對策略,是擺在人類面前的一項重要課題。我國網(wǎng)信辦先后于2022年11月25日及2023年4月11日發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《規(guī)定》)與《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《辦法》),旨在促進(jìn)技術(shù)的健康發(fā)展與規(guī)范應(yīng)用,具有重要的里程碑意義。歐盟已于2023年6月14日通過《人工智能法案》(AI Act,以下簡稱《AI法案》),配搭以《數(shù)字服務(wù)法案》(DSA)、《人工智能責(zé)任指令》(AILD)等法律法規(guī),為應(yīng)對大型平臺、AI產(chǎn)品等形成規(guī)制體系??梢灶A(yù)見的是,未來各國將持續(xù)對生成式AI監(jiān)管規(guī)則進(jìn)行探索,以形成更為豐富健全的理論體系。本文旨在探討生成式AI的相關(guān)概念及作用機(jī)理,分析其可能帶來的法律風(fēng)險,對國內(nèi)外現(xiàn)有制度進(jìn)行分析,為我國制度構(gòu)建提出基本的應(yīng)對策略,以促進(jìn)公民合法權(quán)益的保障及生成式AI產(chǎn)業(yè)的有序發(fā)展。
從現(xiàn)有規(guī)定框架以及學(xué)界討論來看,對于生成式AI,在概念的使用上就令人目眩。AI生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)[3]與生成式AI(Generative AI)[4]存在區(qū)別,AIGC強(qiáng)調(diào)由AI生成的內(nèi)容,而生成式AI是一種產(chǎn)生或創(chuàng)造AIGC的手段,二者所涉風(fēng)險并不相同。生成式AI是一種更廣泛、包容的概念,包括多種生成模型和方法,用于實(shí)現(xiàn)內(nèi)容的生成、創(chuàng)造和創(chuàng)新,其中包括深度合成與深度學(xué)習(xí)等[5]。AIGC則與PGC(Professional Generated Content,專業(yè)生成內(nèi)容)、UGC(User Generated Content,用戶生成內(nèi)容)相對應(yīng),強(qiáng)調(diào)生成主體為AI。《辦法》將生成式AI定義為:基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。該定義對生成式AI底層技術(shù)內(nèi)核與生成內(nèi)容類型進(jìn)行了概括,較為全面與精確。有學(xué)者提出類似觀點(diǎn),認(rèn)為生成式AI是指基于算法、模型、規(guī)則等,在沒有人為直接參與的情況下,自動生成文本、圖片、視頻等內(nèi)容的技術(shù)[6]。從技術(shù)角度來看,生成式AI又與機(jī)器學(xué)習(xí)(Machine Learning)、深度學(xué)習(xí)(Deep Learning)、深度合成(Deep Synthesis)等存在著密切聯(lián)系,對此有必要進(jìn)行區(qū)分與厘清。機(jī)器學(xué)習(xí)是AI技術(shù)的一個分支與子集,主要涉及從輸入數(shù)據(jù)中學(xué)習(xí),并做出預(yù)測或決策,不斷進(jìn)行改進(jìn)或提高[7]。傳統(tǒng)AI技術(shù)應(yīng)用如自動駕駛、人臉識別等雖然可以對特征進(jìn)行高效識別,但輸出結(jié)果系靜態(tài)、固定的,這意味著AI無法通過自身進(jìn)化而提高準(zhǔn)確性。而深度學(xué)習(xí)技術(shù)則為機(jī)器學(xué)習(xí)的升級,可以學(xué)習(xí)更復(fù)雜的數(shù)據(jù)表示,并執(zhí)行圖像識別、自然語言處理等任務(wù)[8]14。通過在變量之間創(chuàng)建神經(jīng)網(wǎng)絡(luò)(Neural Network)來輔助預(yù)測過程,在數(shù)百個變量間建立起聯(lián)系,較機(jī)器學(xué)習(xí)更為先進(jìn)。深度合成技術(shù)則是深度學(xué)習(xí)的子集,是側(cè)重于視覺領(lǐng)域應(yīng)用的分支,如圖片合成、視頻編輯等。正如學(xué)者所言,深度合成在我國制度框架下不僅是技術(shù)概念,更是法律概念[9]?!兑?guī)定》中明確了深度合成技術(shù)為“利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)”(1)參見《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第23條。,并以此作為規(guī)制重點(diǎn)。
《AI法案》形成了以“通用AI系統(tǒng)”(General-Purpose AI System,GPAIS)為核心的規(guī)制體系,成為生成式AI監(jiān)管的著力點(diǎn)。歐盟理事會在2022年12月6日通過的一般方法現(xiàn)將GPAIS定義為:“提供者意在廣泛開展適用的功能,如圖像和語音識別、音頻及視頻生成、模型檢測、問答、翻譯等;通用AI系統(tǒng)可以在多個情形中使用,并被整合在多個其他AI系統(tǒng)中?!?2)See Article 3 AI Act.AI系統(tǒng)(AI System)是幫助理解AI規(guī)制的重要概念,AI系統(tǒng)的工作原理是,通過獲取輸入數(shù)據(jù)并經(jīng)過一系列算法運(yùn)行,以進(jìn)行預(yù)測風(fēng)險、解釋或解決問題,例如對自動駕駛系統(tǒng)的應(yīng)用[10]?!澳P汀?(Model)是指通過對訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí)而得到的一個函數(shù)或算法。模型可以對輸入數(shù)據(jù)進(jìn)行處理,并生成有用的輸出或預(yù)測。模型是機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等重要技術(shù)的基石,通過函數(shù)與算法對訓(xùn)練數(shù)據(jù)的加工,模型可以持續(xù)地運(yùn)行與自我完善。ChatGPT是深度學(xué)習(xí)技術(shù)的代表性應(yīng)用產(chǎn)物,而深度學(xué)習(xí)技術(shù)則主要以深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks)模型為核心,其又可被稱作“大型生成式AI模型”(Large Generative AI Models,LGAIM)或“大型語言模型”(Large Language Models,LLM)。它們相較于傳統(tǒng)模型能夠處理更為廣泛、復(fù)雜的問題,它們的“通用性”建立在功能及性能之上,如任務(wù)類型(文本、圖片)、任務(wù)領(lǐng)域(教育、醫(yī)療、金融等)、多功能性(黑白或彩色圖像)[11]。一般而言,人類會審查模型結(jié)果的準(zhǔn)確性,但機(jī)器學(xué)習(xí)技術(shù)的出現(xiàn)幫助AI系統(tǒng)進(jìn)行自主調(diào)整與反饋,使其在脫離人類干預(yù)的情況下,在預(yù)測精準(zhǔn)度方面不斷提升。故此類模型具有極強(qiáng)的可塑性,能夠不斷進(jìn)行自我完善與學(xué)習(xí)。
AI系統(tǒng)與AI模型是一對重要的概念?!禔I法案》主要強(qiáng)調(diào)對通用AI系統(tǒng)的規(guī)制,進(jìn)而提出了風(fēng)險分級概念,所依據(jù)的也正是對AI系統(tǒng)在多種場景下具體應(yīng)用的評估,而非僅聚焦于AI模型的性能。AI系統(tǒng)是一個由多個組件構(gòu)成的整體,模型作為其中的一個關(guān)鍵組件,負(fù)責(zé)對輸入數(shù)據(jù)進(jìn)行處理和分析,作為整個系統(tǒng)的工具性構(gòu)成而存在。除模型外,AI系統(tǒng)還包括了數(shù)據(jù)存儲與管理、用戶接口、決策邏輯和反饋機(jī)制等組件[12]1045。模型的訓(xùn)練和推理過程是AI系統(tǒng)中的重要環(huán)節(jié),它們與其他組件共同協(xié)作,形成完整的AI應(yīng)用。脫離了系統(tǒng)的其他組件,模型便無法發(fā)揮全部作用,從這個角度來看,以ChatGPT為代表的生成式AI可以被視為一個集成了生成式AI模型和相關(guān)AI系統(tǒng)組件的綜合系統(tǒng)。它不僅具備生成式AI模型的能力,還具備部署、交互和管理的能力,以提供實(shí)際的對話服務(wù)。AI系統(tǒng)可以與其他系統(tǒng)深度集成,如搜索引擎、辦公程序等,進(jìn)而強(qiáng)化用戶使用體驗(yàn),形成完整的AI系統(tǒng)價值鏈條。概言之,模型本身具有工具性,高級模型的存在旨在提升預(yù)測效率與精度,是整個AI系統(tǒng)的最關(guān)鍵部分。AI系統(tǒng)作為更廣泛的概念,涵蓋了不同的類型、目的與用途,其設(shè)計與使用能夠涉及多個層面的法律問題,應(yīng)成為針對生成式AI的主要規(guī)制對象。
以ChatGPT為例,以基于深度學(xué)習(xí)的自然語言處理模型為基礎(chǔ),功能是生成具有上下文連貫性和邏輯性的自然語言回復(fù)。作為文本對話式應(yīng)用,它的機(jī)理可以分為兩個主要方面:訓(xùn)練和推斷。在訓(xùn)練階段,ChatGPT語言模型使用了大量的文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練。它的訓(xùn)練數(shù)據(jù)可以包括從互聯(lián)網(wǎng)上獲取的各種文本資源,例如新聞文章、網(wǎng)頁內(nèi)容、書籍等。這些數(shù)據(jù)被用來訓(xùn)練一個深度神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)具有多層結(jié)構(gòu),通常采用了Transformer模型[1]。Transformer 模型是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由多個編碼器(encoder)與解碼器層(decoder)組成,它在自然語言處理任務(wù)中能發(fā)揮有效作用。在預(yù)測與輸出階段,GPT模型通過事先的訓(xùn)練、注意力機(jī)制與神經(jīng)網(wǎng)絡(luò)等對上下文展開理解,經(jīng)“采樣分類”技術(shù)最終生成具有多樣性的文本內(nèi)容[13](見圖1)。
圖1 生成式AI模型運(yùn)行機(jī)理
通用AI系統(tǒng)可以完成或適應(yīng)于完成一系列不同任務(wù),其中包括一些它沒有經(jīng)過刻意及專門訓(xùn)練的任務(wù)[11]。生成式AI的用途不僅僅局限于對話交互、文本生成,除ChatGPT應(yīng)用外,在圖像與語音識別、音頻及視頻生成方面的應(yīng)用前景也十分廣闊。在自然語言處理(Natural Language Processing,NLP)、計算機(jī)視覺(Computer Vision,CV)等領(lǐng)域,生成式AI也有不俗表現(xiàn)。例如谷歌翻譯(Google Translate)、百度翻譯等在線翻譯工具,以及以NLP技術(shù)為基礎(chǔ)的虛擬助手、聊天機(jī)器人等應(yīng)用。人臉識別為視覺領(lǐng)域的主要應(yīng)用,其用于對人臉進(jìn)行分類并識別等操作,在安保、金融服務(wù)及社交網(wǎng)絡(luò)等場景下作用明顯。在我國,如支付寶“刷臉支付”功能的廣泛應(yīng)用,給人們帶來極大便利。生成式AI系統(tǒng)具有高度的可塑性、自主性與不確定性。ChatGPT基于GPT3.5(Instruct GPT)大規(guī)模預(yù)訓(xùn)練模型,通過存儲海量數(shù)據(jù)、高效理解設(shè)計結(jié)構(gòu)與讀取用戶需求,以近乎于人類的語言形式生成具有“較高復(fù)雜度的回應(yīng)文本[14],其運(yùn)行過程無關(guān)乎人類意志,可以在接受指令后自行獨(dú)立完成任務(wù),生成的結(jié)果也往往具有不可預(yù)測性。
各類生成式AI系統(tǒng)具有普遍類似的作用機(jī)理,雖然在文本、圖像、視頻等作用形式上呈現(xiàn)差異化,但無法脫離生成、比對、預(yù)測等功能。通過對ChatGPT運(yùn)作的分析,生成式AI的深層運(yùn)行邏輯主要可分為模型訓(xùn)練與采樣推理兩個階段,分別可稱作前端與后端[15]。在前端,AI系統(tǒng)提供者或開發(fā)人員通?;谔囟ǖ哪P?如生成對抗網(wǎng)絡(luò)(GANs)等,經(jīng)海量規(guī)模、類型數(shù)據(jù)的“投喂”,使之具備不斷自我完善與進(jìn)化的能力。預(yù)訓(xùn)練(Pretraining)被認(rèn)為是一種用于生成式AI開發(fā)與訓(xùn)練的有效方法。預(yù)訓(xùn)練通過使用大量的訓(xùn)練數(shù)據(jù),如無標(biāo)簽數(shù)據(jù)(Unlabeled Data),通過深度神經(jīng)網(wǎng)絡(luò)開展共性特征學(xué)習(xí),使其能夠?qū)W習(xí)到常用的知識與表達(dá),再使用有標(biāo)簽數(shù)據(jù)(Labeled Data)進(jìn)行微調(diào),達(dá)到性能的優(yōu)化效果[16]。在模型實(shí)際應(yīng)用到下游場景時,模型通常脫離最初提供者的控制,需要專業(yè)人員對其進(jìn)行調(diào)整以適應(yīng)各種變化。對于后端而言,生成式AI需要體現(xiàn)其創(chuàng)造性與不確定性,其通過最小化或最大化特定的損失函數(shù)來優(yōu)化模型。在生成對抗網(wǎng)絡(luò)中,生成器和判別器之間的對抗損失函數(shù)驅(qū)使生成器產(chǎn)生更逼真的輸出[17]。通過對輸入樣本進(jìn)行插值、操作和采樣,可以生成不同的輸出樣本,實(shí)現(xiàn)創(chuàng)造性的生成。憑借創(chuàng)造性的生成,生成式AI系統(tǒng)往往不局限于日常交互,而向社會領(lǐng)域各類專業(yè)服務(wù)擴(kuò)張,如金融、醫(yī)療、教育等,專業(yè)的行業(yè)工作者通過對AI系統(tǒng)的使用,開展專業(yè)業(yè)務(wù)工作。
與為單一、簡單化目標(biāo)與任務(wù)而設(shè)計并服務(wù)的傳統(tǒng)AI相比,生成式AI能夠通過學(xué)習(xí)人類的行為和偏好,產(chǎn)生新的、更加精準(zhǔn)的推斷結(jié)果,從而帶來對個人隱私、知識產(chǎn)權(quán)、數(shù)據(jù)安全等多個維度的法律風(fēng)險。有學(xué)者通過對AI技術(shù)原理的剖析,指出生成式AI將帶來數(shù)據(jù)合規(guī)、生成內(nèi)容濫用、算法濫用以及隱私風(fēng)險等[18]。也有學(xué)者依據(jù)生成式AI在準(zhǔn)備、運(yùn)算到生成階段的不同表征,提出生成式AI在數(shù)據(jù)、算法偏見及知識產(chǎn)權(quán)三個方面的風(fēng)險[19]。自生成式AI問世之日起,以數(shù)據(jù)、隱私、知識產(chǎn)權(quán)等法律風(fēng)險的擔(dān)憂便延綿不絕,屬于AI模型與系統(tǒng)風(fēng)險的共同表現(xiàn)形式,此類風(fēng)險均可被認(rèn)為具有同一屬性與特點(diǎn),即對公民個人或特定群體的人身、財產(chǎn)等權(quán)利的風(fēng)險。對于以ChatGPT為代表的生成式AI,有學(xué)者不主張單獨(dú)立法規(guī)制,理由在于技術(shù)應(yīng)用場景乃至技術(shù)本身具有的不確定性將帶來風(fēng)險的難以預(yù)測,以此為規(guī)制起因與緣由,會陷入技術(shù)與法律一一對應(yīng)的謬誤中[20]。本文認(rèn)為,技術(shù)本身是中性的,AI模型的開發(fā)目的在于提高生產(chǎn)效率、增進(jìn)社會福祉,模型的固有缺陷與風(fēng)險無法徹底消除,只能夠通過技術(shù)層面的不斷完善而將風(fēng)險降至可接受并預(yù)見的范圍內(nèi),法律制度無法解決技術(shù)問題,不當(dāng)介入將對技術(shù)發(fā)展構(gòu)成阻礙。就目前來看,生成式AI所帶來的法律風(fēng)險仍未形成特殊的風(fēng)險類別,無需就假設(shè)或猜想中的風(fēng)險予以單獨(dú)立法。
基礎(chǔ)法律條文可被理解為“行為+要件”的結(jié)合,對技術(shù)模型的風(fēng)險的單一討論必將落入籠統(tǒng)、寬泛的困境,而結(jié)合特定應(yīng)用與人的行為則將使問題更為清晰與具體,形成針對實(shí)際風(fēng)險規(guī)制的探索,構(gòu)建特定主體的權(quán)利義務(wù)規(guī)則,成為生成式AI規(guī)制的邏輯起點(diǎn)。生成式AI應(yīng)用的多樣化決定其風(fēng)險程度伴隨場景的變化具有顯著差異??紤]到這一基本特征,歐盟《AI法案》提出了具有基石性意義的“風(fēng)險管理系統(tǒng)”(Risk Management System)分類體系,將風(fēng)險程度進(jìn)行相對科學(xué)且精細(xì)的劃分。該體系下,依據(jù)AI系統(tǒng)可能對人的基本權(quán)利產(chǎn)生威脅的等級將其劃分為四類,分別是不可接受的風(fēng)險(Unacceptable)、高風(fēng)險(High)、有限風(fēng)險(Limited)與最小風(fēng)險(Minimal)[21]。凡是使用人工智能系統(tǒng)或技術(shù)操控人類行為,對人類造成或可能造成身體、心理傷害,進(jìn)而對公民的安全、正常生活和基本權(quán)利構(gòu)成明顯危險的,即屬于“不可接受的風(fēng)險”,應(yīng)無一例外地被禁止使用。部分可顯著影響用戶基本權(quán)利的AI系統(tǒng)可被視為具有高風(fēng)險,如涉及生物識別、信用評估、基礎(chǔ)設(shè)施管理等。而大多數(shù)人工智能系統(tǒng),如視頻游戲或垃圾郵件過濾器,都屬于有限風(fēng)險或最小風(fēng)險類別,無須特別規(guī)制。就頗受爭議的高風(fēng)險系統(tǒng)而言,其使用面臨著法案設(shè)置的諸多強(qiáng)制性要求,只有當(dāng)合規(guī)性要求被滿足并預(yù)先經(jīng)過有關(guān)部門評估合格,這類AI系統(tǒng)才能夠真正進(jìn)入市場并投入使用,對提供者而言較為嚴(yán)苛。提供者作為技術(shù)開發(fā)主體,事實(shí)上無法預(yù)見模型投入使用的所有可能場景,這些在一定程度上由下游使用者所決定,主體權(quán)利義務(wù)關(guān)系與風(fēng)險等級隨場景而變化,故此種風(fēng)險分級制度亟待完善。我國法律欲參考?xì)W盟立法對AI進(jìn)行分級,就必須明確具體應(yīng)用場景及下游主體,對癥下藥。
從前端的模型架構(gòu)與數(shù)據(jù)訓(xùn)練來看,模型以網(wǎng)絡(luò)文本、語言學(xué)知識庫、對話數(shù)據(jù)集和科學(xué)論文等主要渠道進(jìn)行訓(xùn)練,雖然這些渠道的數(shù)據(jù)可能涉及個人信息或隱私,但開發(fā)人員會對數(shù)據(jù)進(jìn)行篩選和屏蔽,去除其中的個人信息,僅使用匿名化數(shù)據(jù)用于訓(xùn)練。在篩選過程中,涉及到數(shù)據(jù)、個人信息獲取及知識產(chǎn)權(quán)等方面的法律規(guī)范,以及公平競爭和商業(yè)道德等要求。在后端的輸出階段,以文字、圖片、音頻或視頻為主要表現(xiàn)形式的輸出內(nèi)容,將挑戰(zhàn)基于現(xiàn)行法知識產(chǎn)權(quán)歸屬、轉(zhuǎn)讓以及責(zé)任認(rèn)定等方面的規(guī)定,圍繞著版權(quán)、商標(biāo)權(quán)、專利權(quán)等知識產(chǎn)權(quán)糾紛將大量出現(xiàn),公眾對生成信息的誤讀及誤解將引發(fā)負(fù)面社會影響。例如,OpenAI的政策團(tuán)隊曾發(fā)布由Irene Solaiman領(lǐng)導(dǎo)的一個研究小組所取得的成果,該研究小組當(dāng)時在研究GPT-2等語言處理模型的信息發(fā)布策略、社會影響及濫用案例。該研究發(fā)現(xiàn),被測試的讀者錯誤地將虛假新聞?wù)`認(rèn)為真正的新聞,對它的平均信任與對“紐約時報”文章的信任程度相同[22]。然而,技術(shù)可能被用于增進(jìn)社會福祉的同時,也可遭不法分子的惡意利用,這取決于具體的場合與場景。例如醫(yī)療、金融場景下對病人、用戶的隱私泄露,相較一般場景下,如日常問答對話,具有更高的風(fēng)險程度。而對應(yīng)用于何種場景與如何應(yīng)用到具體場景,開發(fā)人員無法事先預(yù)測與知曉,下游主體在此過程中扮演著重要角色。對于AI模型而言,提供者扮演類似產(chǎn)品責(zé)任法律制度中“生產(chǎn)者”的角色,對模型性能及質(zhì)量負(fù)有首要責(zé)任,而在實(shí)際應(yīng)用場景中,模型需要經(jīng)過微調(diào)方可具備適應(yīng)性。
對于后端生成內(nèi)容的輸出審查,應(yīng)當(dāng)以平臺為主要規(guī)制對象。原因在于平臺,尤其是超大型平臺在模型開發(fā)、數(shù)據(jù)訓(xùn)練等方面具備了超越個體的優(yōu)勢,相較于個體,其在權(quán)益侵害可能性、范圍、影響等各方面均更勝一籌。在風(fēng)險程度上,這超越了以個體非專業(yè)用戶權(quán)益的侵害,而上升成為對整個社會秩序的威脅。因此,雖然無法跳脫傳統(tǒng)法律制度就歧視、不當(dāng)言論等風(fēng)險構(gòu)建的規(guī)則范疇,但仍應(yīng)作為該類風(fēng)險中的極端情形予以特殊規(guī)制。New bing就通過微軟平臺對瀏覽器、word等應(yīng)用進(jìn)行嵌入,完善與優(yōu)化客戶的服務(wù)體驗(yàn)。以“平臺+AI”的發(fā)展模式將通過創(chuàng)造新的權(quán)威知識重新分配權(quán)力,強(qiáng)化互聯(lián)網(wǎng)寡頭在市場的壟斷態(tài)勢[23]68。虛假信息、誤導(dǎo)性言論、歧視與偏見等帶來的威脅將通過平臺規(guī)模進(jìn)一步放大,當(dāng)前微軟、Meta、谷歌等對通用AI系統(tǒng)的開發(fā)與收購熱潮表明資本對技術(shù)的充分關(guān)注,隨著技術(shù)與平臺經(jīng)濟(jì)的深度融合,未來針對應(yīng)用于超大在線平臺的生成式AI系統(tǒng)的監(jiān)管將成為趨勢。法律應(yīng)當(dāng)專注于法律關(guān)系,只有在法律關(guān)系場景下,制度方可發(fā)揮作用,而法律關(guān)系場景架構(gòu)的前提是AI系統(tǒng)應(yīng)用場景的存在,而真正能夠給公民權(quán)利造成威脅的應(yīng)用場景才是制度的著力點(diǎn),脫離場景客觀風(fēng)險而存在的規(guī)制如無本之木。盡管生成式AI模型的固有屬性及缺陷將使數(shù)據(jù)、個人信息、隱私、知識產(chǎn)權(quán)等基本權(quán)利侵害形式愈加復(fù)雜化,但站在AI系統(tǒng)應(yīng)用場景的角度看,由各單一個體積聚的風(fēng)險將引發(fā)更高維度的社會整體風(fēng)險,體現(xiàn)為“平臺+AI”的模式,這是現(xiàn)有法律規(guī)制體系所無法觸及的。
在權(quán)利侵害的表征上,傳統(tǒng)法律體系仍存在一定程度上的調(diào)整與因應(yīng)空間,然而該空間已愈發(fā)狹小。
第一,《辦法》系在我國《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護(hù)法》,以及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等規(guī)定基礎(chǔ)之上的升華與凝練,對技術(shù)規(guī)范、主體義務(wù)與責(zé)任作出了細(xì)致安排,強(qiáng)調(diào)技術(shù)開發(fā)、提供者的主體責(zé)任,但規(guī)制對象仍相對單一。我國為應(yīng)對生成式AI法律風(fēng)險所出臺的具有針對性的規(guī)定,如《辦法》《規(guī)定》等,一定程度上存在對歐盟立法的借鑒?!掇k法》通過參考《AI法案》規(guī)定,將責(zé)任聚焦于AI產(chǎn)品或服務(wù)的提供者,要求其對數(shù)據(jù)及服務(wù)質(zhì)量負(fù)責(zé),使其負(fù)有某種程度上的“高風(fēng)險義務(wù)”,然而這一舉措并不能實(shí)現(xiàn)對生成式AI的有效規(guī)制。事實(shí)上,以《AI法案》為代表的相關(guān)歐盟立法,其靈感有一部分來源于歐洲相關(guān)產(chǎn)品安全立法,因此所謂的AI“提供者”(Provider)的角色地位很大程度上被等同于現(xiàn)實(shí)中的產(chǎn)品制造商。例如在最新《一般產(chǎn)品安全條例》(General Product Safety Directive,GPSD)中,規(guī)定了制造商、供應(yīng)商及平臺的盡職調(diào)查義務(wù)(3)See European Parliament:General Product Safety Directive(2021).。對于GPSD所規(guī)定的“產(chǎn)品”概念,包括日常生活用品,在責(zé)任分配邏輯上,法律自然將其主要分配給上游制造商,因?yàn)樗麄兺ǔJ亲盍私猱a(chǎn)品性能及質(zhì)量的主體,這也合乎一般情況下產(chǎn)品質(zhì)量法律法規(guī)的責(zé)任分配邏輯。然而,AI并非一般的日常生活用品,如玩具、桌椅等,AI是作為更具動態(tài)性、復(fù)雜性與成長性的特殊工具而存在的,下游參與者對其使用、改造及維護(hù)方式與最初如何建立相比同樣重要,但《AI法案》就其責(zé)任分配及承擔(dān)問題卻并未過多涉及。例如,部署者(Deployer)通常根據(jù)用途目的的不同而對模型進(jìn)行微調(diào),使其在性能上具有更強(qiáng)的適應(yīng)性。對于用戶而言,也存在專業(yè)水平能力與應(yīng)用目的的差別,如日常生活中的疑問解答與專業(yè)辦公場景下工作人員的使用。我國現(xiàn)有規(guī)定偏重于對上游技術(shù)提供者、供應(yīng)商等主體進(jìn)行規(guī)制,主要試圖解決因提供AI服務(wù)而產(chǎn)生的責(zé)任主體不明、責(zé)任劃分不清晰等問題,仍是一種基于“產(chǎn)品”的規(guī)制思路。
第二,現(xiàn)有規(guī)定對平臺關(guān)注度不足?!禔I法案》對大型生成式AI模型開發(fā)提供者不加以區(qū)分地課以高風(fēng)險義務(wù),高昂的合規(guī)成本將部分小型開發(fā)者、企業(yè)驅(qū)逐出市場,僅剩少量市場巨頭,如谷歌、Meta、Microsoft/Open AI等,可以承擔(dān)因開發(fā)模型所帶來的高昂成本。我國《辦法》《規(guī)定》等制度所起到的類似效果,可能導(dǎo)致AI模型開發(fā)的集中化趨勢,這顯然并非是立法者的預(yù)期目的。這就引申出了生成式AI系統(tǒng)與平臺經(jīng)濟(jì)的關(guān)系,前者能夠嵌入平臺,強(qiáng)化后者的壟斷擴(kuò)張效應(yīng),在與下游應(yīng)用場景結(jié)合的情形下帶來巨大的市場支配力量,最終導(dǎo)致平臺權(quán)力的“再中心化”[23]67。而技術(shù)膨脹出的權(quán)力越絕對,人類的主體性就越受到威脅,在平臺經(jīng)濟(jì)所積累的優(yōu)勢前日漸式微[24]。憑借其優(yōu)勢,大型平臺迅速超越其他競爭對手,不斷在提高模型性能上加大投入,在數(shù)據(jù)等生產(chǎn)資源的攫取方面愈發(fā)猛烈,為其權(quán)力構(gòu)筑添磚加瓦。因此,促進(jìn)市場競爭是實(shí)現(xiàn)創(chuàng)新與規(guī)制的最有效手段,通過對個人、中小企業(yè)等模型研發(fā)者的扶持,降低模型開發(fā)所帶來的積聚效應(yīng),減少對公民權(quán)益的損害,形成市場良性競爭。盡管為應(yīng)對日益擴(kuò)張的平臺經(jīng)濟(jì),消除平臺壟斷給國民經(jīng)濟(jì)帶來的嚴(yán)重負(fù)面影響,我國《反壟斷法》《電子商務(wù)法》等法律制度發(fā)揮著良好作用,但面對生成式AI仍顯力有未逮。以ChatGPT為例,該類大型生成式模型所能夠引發(fā)的最大外部風(fēng)險,在于因其生成內(nèi)容而導(dǎo)致的歧視、偏見、假新聞等一切有害信息所引發(fā)的社會問題。其在未來將會全面整合到平臺中,包括大型搜索引擎及社交媒體,當(dāng)前的微軟、Meta、谷歌等對生成式AI模型的開發(fā)與收購熱潮足見一斑。區(qū)分AI模型生成內(nèi)容與人類創(chuàng)造內(nèi)容成為平臺生成式AI規(guī)制的“最后一英里”,有效的措施能夠從根本上杜絕因?qū)﹀e誤信息的誤信而產(chǎn)生的消極后果。對此,有專業(yè)人士提出以加密水印為主要技術(shù)手段,將其應(yīng)用于識別ChatGPT生成內(nèi)容(4)該文詳細(xì)介紹了加密水印的定義及作用機(jī)理,其被認(rèn)為能夠有效維護(hù)數(shù)據(jù)、隱私與個人信息安全。“How The ChatGPT Watermark Works And Why It Could Be Defeated”Search Engine Journal,2023-04-28,https://www.searchenginejournal.com/chatgpt-watermark/475366/.,從技術(shù)上解決因內(nèi)容來源而產(chǎn)生的誤解與誤判。制度上,DSA強(qiáng)調(diào)對超大在線平臺的管理與執(zhí)法,如臉書、推特等需要履行相應(yīng)義務(wù),用戶也可針對非法內(nèi)容進(jìn)行投訴,具有一定的借鑒價值。然而,作為一部主要為因應(yīng)超大型平臺法律風(fēng)險而存在的法律制度,在針對生成式AI系統(tǒng)的規(guī)制上卻存在缺陷。DSA第二條第一款、第二條第二款將規(guī)制范圍局限于中介服務(wù)(Intermediary Service),隨后第三條將引入“純粹通道”(Mere Conduit)概念對其進(jìn)行定義,以及托管服務(wù)概念(Hosting Service)(如互聯(lián)網(wǎng)接入提供者、社交媒體平臺等均屬于此)。托管服務(wù)被定義為提供者存儲由用戶提供或應(yīng)用戶要求的信息(5)See Article 3(g)(iii) DSA.。當(dāng)用戶請求AI系統(tǒng)提供信息時,它應(yīng)該說是很難做到的。AI系統(tǒng)不屬于這些類別中的任何一個,它無法與為互聯(lián)網(wǎng)提供接入或緩存服務(wù)的提供商相提并論,因?yàn)樯缃幻襟w場景下,生成內(nèi)容來源于系統(tǒng)本身而非用戶,故DSA并不能適用。
法律是社會中各種利益沖突的表現(xiàn),是人們對各種沖突的利益進(jìn)行評價后制定出來的,實(shí)際上是利益的安排與平衡[25]。AI立法的首要任務(wù)是處理好創(chuàng)新與規(guī)制的關(guān)系。AI不是一種產(chǎn)品或一次性服務(wù),它在不同的情境下歷經(jīng)多個生命周期,對多種個人或群體產(chǎn)生不同的影響[26]。歐盟立法雖然部分考慮到AI的發(fā)展性與可塑性,但生成式AI系統(tǒng)的出現(xiàn)卻對諸如風(fēng)險管理制度等規(guī)則安排提出挑戰(zhàn),迫使法案朝著更為嚴(yán)格的方向前進(jìn)。對于生成式AI系統(tǒng)的規(guī)制,應(yīng)當(dāng)以一種動態(tài)、靈活的視角,強(qiáng)調(diào)生命周期中各主體發(fā)揮能動作用,對此不宜課以較重責(zé)任,進(jìn)而保留模型開發(fā)人員的熱情與動力,以增強(qiáng)AI市場的競爭力。另一方面,必須對平臺經(jīng)濟(jì)與生成式AI的深度融合給予足夠的重視,DSA確立的平臺內(nèi)容審核機(jī)制可為我國法律所借鑒,但仍需進(jìn)行相應(yīng)的擴(kuò)張與調(diào)整。
如美國學(xué)者曼紐爾·卡斯特(Manuel Castells)所定義的,網(wǎng)絡(luò)社會圍繞用戶的信息權(quán)力組織起它的制度,人們建立了自己的生活并決定自己的所作所為,這種權(quán)力來源于人們的心靈[27]117。整個AI價值鏈,具體到大型生成式AI模型的價值創(chuàng)造過程中,不僅應(yīng)當(dāng)對前后兩端的提供者和用戶權(quán)利義務(wù)進(jìn)行規(guī)定,更需要對過程中的眾多參與者地位進(jìn)行考量。有學(xué)者提出,應(yīng)當(dāng)依據(jù)生成式AI模型的一般特征,通過提供者與用戶間的合同關(guān)系來對其預(yù)期目的及使用條件進(jìn)行調(diào)整,更有利于雙方的權(quán)責(zé)利分配。將生成式AI和通用AI系統(tǒng)視為該法案下的一般風(fēng)險類別,課以產(chǎn)品供應(yīng)商對系統(tǒng)性風(fēng)險的定期監(jiān)測義務(wù),關(guān)注供應(yīng)商與用戶間的合同關(guān)系,建立對合同條款的監(jiān)管審查機(jī)制[28]。然而,隨著生成式AI侵權(quán)責(zé)任主體、方式、范圍的變化,此種思路已無法有效因應(yīng)現(xiàn)實(shí)的監(jiān)管需求,仍然在產(chǎn)品責(zé)任的框架下兜轉(zhuǎn)。
生成式AI模型并非經(jīng)一次性制造便可投入后續(xù)長期使用的產(chǎn)品,而是需要經(jīng)過反復(fù)打磨與調(diào)整最終適應(yīng)不同目的與用途的工具。在此意義上,讓模型開發(fā)人員或提供者承擔(dān)模型全生命周期內(nèi)所引發(fā)的一切風(fēng)險,是不切實(shí)際的。技術(shù)提供者無法事先排除所有高風(fēng)險應(yīng)用的可能性,其由生成式AI的特定場景的多個主體決定,在AI的價值生成中分別體現(xiàn)相應(yīng)價值,無法由單一主體所全權(quán)決定。就語言模型而言,其可被用于總結(jié)或評價病人檔案或是對學(xué)生的工作情況、信用水平及保險申請環(huán)節(jié)進(jìn)行評估(6)See Annexes II Section A.No.12,13 and III No.3-5 AI Act.,亦可用于制造輿論、煽動仇恨,這與下游主體的作用密不可分。學(xué)者Edwards就提出應(yīng)當(dāng)區(qū)分通用AI系統(tǒng)的開發(fā)者、部署者和用戶,通過分析幾種實(shí)體扮演的不同角色,對AI系統(tǒng)價值鏈主體進(jìn)一步切分[26],這與《AI法案》的思路相吻合。模型提供者(開發(fā)人員)與部署者在某些情形下會產(chǎn)生身份的重疊,這就會引起反壟斷法下的縱向壟斷問題[29]。對于用戶而言,作為使用AI系統(tǒng)獲取生成結(jié)果的實(shí)體,可依據(jù)對生成結(jié)果的用途區(qū)分為專業(yè)用戶和非專業(yè)用戶。前者根據(jù)歐盟《消費(fèi)者保護(hù)法》(Consumer Protection Law)[30]115以及《法案》中所定義,包括公司、非政府組織、行政機(jī)構(gòu)等(7)See Article 2(8) AI Act.。試想當(dāng)大型企業(yè)在提供如金融、醫(yī)療等服務(wù)時,對錯誤生成內(nèi)容的未予關(guān)注或放任,將會導(dǎo)致個人或群體權(quán)益的受損。因此,在此類人員運(yùn)用生成式AI系統(tǒng)進(jìn)行專業(yè)活動時,如開展金融風(fēng)險評估、醫(yī)療診斷、學(xué)術(shù)教育等,因故意或過失導(dǎo)致生成內(nèi)容蔓延而造成損害的,除遵守一般法律法規(guī)及行業(yè)規(guī)章制度外,還應(yīng)該遵守類似《AI法案》確立的合規(guī)規(guī)則,負(fù)有額外的合規(guī)義務(wù)。建議我國法律對以上主體概念進(jìn)行明確與甄別,以確保在特定場景下的有力追責(zé)。
現(xiàn)行《AI法案》第五條中,就對提供者與用戶的合作進(jìn)行了強(qiáng)調(diào),前者應(yīng)為后者提供必要的信息,使后者能夠遵守本法規(guī)下的義務(wù)(8)See Article (5) AI Act:Providers of general purpose AI systems shall cooperate with and provide the necessary information to other providers intending to put into service or place such systems on the Union market as high-risk AI systems or as components of high-risk AI systems,with a view to enabling the latter to comply with their obligations under this Regulation.。而對于披露過程中涉及商業(yè)秘密、隱私或知識產(chǎn)權(quán)保護(hù)等重要信息的保護(hù),《AI法案》第七十條第一款就要求任何涉及AI應(yīng)用的主體,采取適當(dāng)?shù)募夹g(shù)和組織措施,以確保在執(zhí)行其任務(wù)和活動中獲得的信息和數(shù)據(jù)的機(jī)密性(9)See Article 70(1) AI Act.。然而,此種合作將引發(fā)矛盾沖突,主要涉及內(nèi)外部兩個維度。內(nèi)部維度主要聚焦于數(shù)據(jù)權(quán)利主體與他人訪問權(quán)的沖突。如開發(fā)人員以商業(yè)秘密為由,對部署者的訪問權(quán)利進(jìn)行抗辯,用戶也可能因受到侵害而要求對部分機(jī)密信息進(jìn)行非正當(dāng)?shù)脑L問。因此,該種情形下提供者、部署者與用戶的利益沖突也將導(dǎo)致合作關(guān)系的脆弱化,三者并非總是存在著共同的利益取向。為鞏固合作關(guān)系,一個可行的方法是,提供者以及部署者可就模型使用的授權(quán)與專業(yè)用戶簽訂合同,約定相關(guān)保密條款及非競爭條款,從而對數(shù)據(jù)訪問權(quán)利進(jìn)行限制。此外,還可借鑒美國審前制度(Pretrial Discovery),使法院有權(quán)對保密協(xié)議賦予保護(hù)令,加重違反者遭受的處罰[31]。在外部維度方面,建議賦予價值鏈主體以對外的透明度義務(wù)。《AI法案》包含了廣泛的披露義務(wù),但它們僅適用于高風(fēng)險系統(tǒng)(10)See Article 11,Annex IV AI Act.。鑒于生成式AI日益增長的功能性及行業(yè)發(fā)展?jié)摿?應(yīng)當(dāng)要求生成式AI模型開發(fā)及使用的相關(guān)主體遵守一定的披露義務(wù),該種義務(wù)的負(fù)有與AI系統(tǒng)是否被認(rèn)定為高風(fēng)險無關(guān),對于開發(fā)人員及部署者而言,可要求其披露訓(xùn)練數(shù)據(jù)的出處、模型運(yùn)行機(jī)制以及應(yīng)對有害內(nèi)容的應(yīng)對措施等,以便監(jiān)管機(jī)構(gòu)進(jìn)行比對和分析?!掇k法》中主要以提供者為主要規(guī)制對象,規(guī)定提供者應(yīng)對預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)的合法性負(fù)責(zé),這些規(guī)定為提供者增添了沉重負(fù)擔(dān)且成效不彰。提供者對于數(shù)據(jù)的作用有限,即使其對于模型的應(yīng)用有最初預(yù)期與判斷,但實(shí)際上也可能因具體情形下模型的微調(diào)而有所偏差。部署者與用戶也需要對生成內(nèi)容負(fù)有一定義務(wù),此時區(qū)分專業(yè)用戶的意義就有所體現(xiàn)。具體而言,當(dāng)特定場景下存在部署者參與模型的微調(diào)時,其地位與開發(fā)人員類似,需就模型性能等基礎(chǔ)信息進(jìn)行披露。專業(yè)用戶應(yīng)該有義務(wù)披露他們公開的內(nèi)容中,哪些部分是由AI模型直接生成,哪些部分是根據(jù)輸出改編加工而來,例如在新聞、學(xué)術(shù)等領(lǐng)域,此種義務(wù)顯得至關(guān)重要??蓪I(yè)用戶定義及范圍進(jìn)行明確,在此基礎(chǔ)上要求其在專業(yè)目的范圍內(nèi)履行披露義務(wù),惡意行為人若刻意無視該義務(wù),那么將遭受罰款等相應(yīng)處罰。但隨之而來的問題是,我們不能期待現(xiàn)實(shí)中專業(yè)用戶事無巨細(xì)地進(jìn)行披露,因?yàn)殡y以對內(nèi)容的成分進(jìn)行辨別,即使用戶毫無作為,監(jiān)管者也無法采取行動。這就需要得到技術(shù)上的支持,例如數(shù)字版權(quán)、水印技術(shù)等,歐盟議會正就其進(jìn)行討論。當(dāng)內(nèi)容足以為外界識別,且難以被用戶刪除或更改時,此種技術(shù)將有效推動事前披露義務(wù)的履行,相關(guān)主體將被迫按照法律規(guī)定行事。
技術(shù)本身是中性的,無法期待通過技術(shù)去解決所有的問題,因此制度的供給顯得尤為重要。以“平臺+AI”的運(yùn)行模式帶來的再中心化無可避免,對數(shù)據(jù)、個人信息、知識產(chǎn)權(quán)等權(quán)利的風(fēng)險愈發(fā)復(fù)雜,不僅要從技術(shù)上實(shí)現(xiàn)人類與AI的區(qū)分,更要在制度層面提供相應(yīng)保障。我國可吸收借鑒歐盟法律,出臺對大型互聯(lián)網(wǎng)在線平臺的完整制度規(guī)則,實(shí)現(xiàn)技術(shù)與制度的共同作用。
歐盟議會已為因應(yīng)挑戰(zhàn)而作出改變,規(guī)定基礎(chǔ)模型的使用不得違反歐盟法律[32]。可以預(yù)見諸如GDPR、DSA的相關(guān)規(guī)則,在未來將為適應(yīng)AI模型的發(fā)展而發(fā)生變化。這種趨勢將以超大型在線平臺為核心,與DSA的適用不謀而合,但需要進(jìn)一步完善以將AI模型生成內(nèi)容納入規(guī)制體系中。我國在應(yīng)對以指數(shù)級擴(kuò)張的生成式AI輿論宣傳效應(yīng)上,當(dāng)前尚未出臺有效應(yīng)對之策。對此,需要在技術(shù)及制度兩個層面對生成內(nèi)容進(jìn)行規(guī)范。水印技術(shù)對原創(chuàng)作者的保護(hù)效果顯著,且能夠增強(qiáng)內(nèi)容可信度及可追溯性,有效遏止有害、虛假信息的蔓延,但也存在一定的局限,例如由于個體寫作風(fēng)格及能力的多變性,導(dǎo)致即使使用水印技術(shù),仍不能完全保證內(nèi)容的來源。此外,技術(shù)本身的限制導(dǎo)致其可能會遭受規(guī)避或篡改,例如惡意行為人通過技術(shù)手段刪除水印或偽造水印,模糊內(nèi)容來源?!兑?guī)定》第十六條、第十七條、第十八條已就深度合成服務(wù)提供者顯著標(biāo)識行為進(jìn)行規(guī)定,并強(qiáng)調(diào)了此種技術(shù)的不受侵害。建議在此基礎(chǔ)之上,列舉可行的技術(shù)措施種類,如水印技術(shù)、數(shù)字版權(quán)管理(DRM)、平臺算法檢測技術(shù)等,并明確惡意行為人侵害標(biāo)識行為的責(zé)任??紤]到技術(shù)限制,應(yīng)當(dāng)加強(qiáng)技術(shù)使用的靈活搭配,以最大限度減輕有害言論的繁殖空間。制度與技術(shù)需要進(jìn)一步結(jié)合,歐盟DSA與《AI法案》在規(guī)則上提供了良好示范,但仍需要進(jìn)一步完善,以加強(qiáng)內(nèi)容真實(shí)性審核的力度。除了需要在規(guī)制對象上進(jìn)行擴(kuò)張,將AI模型納入平臺輸出的規(guī)制外,仍可在現(xiàn)有規(guī)則下探尋容納空間。DSA第十九條就強(qiáng)調(diào)利用“受信的標(biāo)記者”(Trusted Flaggers),如個人、政府組織或特定技術(shù)人員,對可疑的內(nèi)容進(jìn)行標(biāo)記并通知開發(fā)人員與部署者(11)See Article 11,DSA.。在AI系統(tǒng)的場景下,該行為模式也可以得到適用,通過加強(qiáng)主體間交互達(dá)到內(nèi)容審核的目的。對此,《AI法案》第二十九條中提出的用戶通知義務(wù)是可以被借鑒的對象,并納入DSA體系之下。另外,對開發(fā)人員、部署者等專業(yè)技術(shù)人員課以優(yōu)先處理與回應(yīng)的義務(wù),確保他們在收到通知后及時地對AI系統(tǒng)作出修繕,阻止其受到惡意行為人的作用而生成有害內(nèi)容,以建立一個符合DSA要求的更為安全、合規(guī)的系統(tǒng)。
強(qiáng)人工智能時代或許已悄然而至,但監(jiān)管永遠(yuǎn)不會讓技術(shù)獨(dú)行,制度需要在人工智能發(fā)展過程中不斷完善自身,在豐富多彩的應(yīng)用場景中積極探索靈活的規(guī)制措施。歐盟立法的示范具有開創(chuàng)性意義,其中許多典型制度可以為我國所借鑒,但人工智能產(chǎn)業(yè)的發(fā)展充滿不確定性與挑戰(zhàn),風(fēng)險的樣態(tài)已經(jīng)發(fā)生了巨大變化,監(jiān)管需要保持相當(dāng)?shù)那罢靶浴T诖嘶A(chǔ)之上,我國也要具備符合自身國情的生成式人工智能規(guī)制模式,發(fā)揮監(jiān)管的積極作用,探索風(fēng)險規(guī)制與促進(jìn)科技發(fā)展的兩全之策。