劉春彥 彭曦
作為生成式人工智能的一種,ChatGPT能夠通過學習和理解人類的語言來進行對話,還能根據(jù)聊天的上下文進行互動,并協(xié)助人類完成一系列復雜任務。生成式人工智能在文本寫作、代碼編寫等領域廣闊的應用前景,引起了各界的關注。不能忽視的是,生成式人工智能在數(shù)據(jù)存儲、傳輸以及使用等環(huán)節(jié)存在信息安全隱患。本文側重對生成式人工智能發(fā)展中可能存在的信息安全風險及其保護難點進行分析,提出相應的對策建議。
生成式人工智能是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關技術,以ChatGPT為例,在技術層面,ChatGPT的本質是對大量文本數(shù)據(jù)進行預訓練,基于學習數(shù)據(jù)的上下文信息形成語言生成概率模型,從而模擬出接近自然語言的回答;在算法層面,ChatGPT依托GPT-3.5這一人類反饋強化學習技術進行訓練的語言模型;在算力方面,ChatGPT核心基建主要是AzuerAI超算平臺,包括28.5萬個CPU核心、1萬個 GPU和400GB/s的GPU服務器網(wǎng)絡傳輸帶寬;在數(shù)據(jù)方面,ChatGPT以龐大數(shù)據(jù)資料為基礎。例如,GPT-3囊括了3000億單詞語料。以ChatGPT為代表的生成式人工智能,通過算法模型對海量數(shù)據(jù)信息進行處理,可能在數(shù)據(jù)輸入、處理、輸出環(huán)節(jié)出現(xiàn)信息安全問題,引發(fā)侵犯公民、企業(yè)合法權益及損害公共利益、國家安全等安全風險。
第一,數(shù)據(jù)獲取階段可能存在非法獲取數(shù)據(jù)的風險。2023年國家網(wǎng)信辦、國家發(fā)改委、教育部、科技部、工信部、公安部、廣電總局公布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)?!掇k法》第七條規(guī)定了生成式人工智能適用具有合法來源的數(shù)據(jù)和基礎模型,不得侵害他人知識產(chǎn)權,涉及個人信息的,應當取得個人同意等。生成式人工智能服務者可能存在無視相關規(guī)定,非法收集個人信息、企業(yè)信息等情況,導致侵犯公民個人信息、企業(yè)商業(yè)秘密,以及國家秘密等。同時生成式人工智能使用者在提問中也可能涉及一些個人信息,個人信息在使用過程中被收集。第二,數(shù)據(jù)處理階段可能存在數(shù)據(jù)濫用的風險。生成式人工智能可能在信息處理時,因為技術漏洞或者其他原因造成信息泄露。第三,數(shù)據(jù)輸出階段存在被非法利用的風險。生成式人工智能可能生成虛假、錯誤的信息,造成虛假信息的傳播。生成式人工智能還可能被使用者誘導生成虛假信息,被不正當使用。
《個人信息保護法》第六十二條規(guī)定國家網(wǎng)信部門統(tǒng)籌協(xié)調有關部門依據(jù)本法針對小型個人信息處理者、處理敏感個人信息以及人臉識別、人工智能等新技術、新應用,制定專門的個人信息保護規(guī)則、標準?!稊?shù)據(jù)安全法》第二十七條也規(guī)定了利用互聯(lián)網(wǎng)等信息網(wǎng)絡開展數(shù)據(jù)處理活動,應當在網(wǎng)絡安全等級保護制度的基礎上,履行依照法律、法規(guī)規(guī)定,建立健全全流程數(shù)據(jù)安全管理制度、開展數(shù)據(jù)安全教育培訓,采取相應的技術措施和其他必要措施保護數(shù)據(jù)安全?!掇k法》也規(guī)定了生成式人工智能服務總體要求和促進生成式人工智能技術發(fā)展的相關措施。
人工智能在行業(yè)發(fā)展初期,需要行業(yè)從業(yè)者強化自我合規(guī)監(jiān)督,提高對自身的道德倫理要求。
數(shù)據(jù)安全問題不斷增多(圖文無關)
生成式人工智能信息安全保護存在以下難點:第一,對侵犯信息的行為發(fā)現(xiàn)難。特別是對公民個人信息的侵犯發(fā)現(xiàn)較為困難。生成式人工智能對數(shù)據(jù)的獲取采用的是海量的方式,公民個人很難發(fā)現(xiàn)自己的信息被不當或者非法收集。第二,信息保護維權成本較高。生成式人工智能對公民個人信息侵犯時,公民維權成本較高??赡茉斐晒裰雷约旱膫€人信息被侵犯,但是缺乏低成本渠道進行維權,最終只能放任侵權行為。對于企業(yè)而言,消除信息泄露影響的成本高于維權成本,因此健全信息保護機制尤為重要。第三,生成式人工智能信息安全責任劃分需要進一步明確。生成式人工智能服務者、生成式人工智能服務使用者,以及生成式人工智能行業(yè)管理者等主體責任有待進一步明確?!掇k法》第三章規(guī)定了提供者、使用者的義務和責任,第四章明確了有關職能部門的監(jiān)督檢查和法律責任,相關的管理和規(guī)則還需要進一步細化。第四,生成式人工智能對公共數(shù)據(jù)的收集如何看待。公共數(shù)據(jù)是各級行政機關及具有公共管理和服務職能的事業(yè)單位在依法履行職責過程中獲得的各類數(shù)據(jù)資源。公共數(shù)據(jù)不可避免包含國家信息、企業(yè)信息和個人信息。零星的數(shù)據(jù)信息可能并不敏感,海量的信息可能反映出某些商業(yè)秘密和國家秘密。生成式人工智能對公共數(shù)據(jù)收集的規(guī)范,需要理論和實踐的進一步關注。
第一,進一步明確生成式人工智能服務提供者、使用者的主體責任。明確生成式人工智能提供者、服務者依法收集信息,對使用者輸入信息和使用記錄承擔具體保護責任,以及對使用者生成違法內(nèi)容的管理責任,進一步明確使用者合法使用生成式人工智能的義務。特別對于生成式人工智能服務提供者,其處于數(shù)據(jù)控制者的地位,基于其自身掌握的技術優(yōu)勢,理應承擔更多的安全保護責任。實踐中,可以明確生成式人工智能服務提供者在獲取信息時需要取得原始數(shù)據(jù)所有者的授權,在處理信息時需要采取必要的加密措施防止數(shù)據(jù)處理階段的信息泄露,比如采用技術手段實現(xiàn)對訪問IP的控制,對于短時間內(nèi)多次同地址訪問等可疑行為采取限制措施;在信息產(chǎn)出時要對輸出信息進行二次脫密處理,對其中敏感信息進行技術性屏蔽,比如對個人信息進行匿名化處理等,降低輸出信息時侵犯個人隱私的風險。在用戶端,即生成式人工智能工具的使用者,也要強化信息安全的敏感性,增強辨別能力,對于可能涉密、涉敏的信息做好自我甄別,避免人工智能可能存在的“盲目性”。第二,注重生成式人工智能行業(yè)的規(guī)范建設。作為新興領域,生成式人工智能行業(yè)規(guī)范的建立需要隨著行業(yè)的發(fā)展不斷完善。在行業(yè)發(fā)展初期,從行業(yè)內(nèi)部看,需要行業(yè)從業(yè)者強化自我合規(guī)監(jiān)督,提高對自身的道德倫理要求,必要時需要在從業(yè)主體內(nèi)部企業(yè)架構中增加合規(guī)部門。從外部監(jiān)管上看,要加強網(wǎng)信、工信等有關部門的管理職責,通過加強宣傳、出臺相關歸責條款等方式,引導生成式人工智能行業(yè)有序發(fā)展。同時,針對新興行業(yè)的固有特征,在外部監(jiān)管時要注重監(jiān)管力度和措施的必要性和謹慎性,給予行業(yè)發(fā)展一定的“容錯”空間,不做“一刀切”的規(guī)定,對于存在數(shù)據(jù)安全保護問題的行業(yè)、企業(yè)不能“一棒子打死”,但也不能讓其“野蠻生長”。要強化政策宣傳解讀和監(jiān)督引導,推動行業(yè)實現(xiàn)合規(guī)基礎上的繁榮。具體而言,要預防ChatGPT的數(shù)據(jù)安全風險,應當在ChatGPT的數(shù)據(jù)安全風險治理體系中引入合規(guī)管理方式,從企業(yè)角度建立ChatGPT的數(shù)據(jù)合規(guī)管理體系。生成式人工智能數(shù)據(jù)安全體系,包括信息分類管理、信息安全基礎設施建設、信息風險防控機制設立、信息泄露的處理機制等。第三,建立健全信息保護的救濟機制。有救濟則有權利。在信息爆炸的當今社會,數(shù)據(jù)安全問題在社會生活方面的集中映射就是對于個人信息的侵犯不斷增多。特別是在生成式人工智能工具侵犯個人信息時,拓寬救濟渠道,暢通投訴等救濟渠道需要進一步加強。對于嚴重侵害公民個人信息的行為,公民可以立即要求服務提供者處理,生成式人工智能服務提供者有義務進行處理,拒不處理情節(jié)嚴重的,有可能觸犯拒不履行信息網(wǎng)絡安全管理義務罪。
(劉春彥,同濟大學法學院副教授)