郭云
【摘?要】近年來,經(jīng)濟的發(fā)展,促進我國科技水平的提升。當前,隨著計算能力的大幅提升和數(shù)據(jù)規(guī)模的暴增,人工智能技術(shù)獲得快速發(fā)展,成為全球各國高度重視和競相發(fā)展的帶有“頭雁”效應(yīng)的引領(lǐng)型技術(shù) . 與此同時,數(shù)據(jù)作為人工智能技術(shù)發(fā)展的重要資源,其重要價值進一步凸顯,但也由此引發(fā)了一系列對于數(shù)據(jù)安全和隱私保護的擔憂,數(shù)據(jù)安全問題已然成為人工智能全面發(fā)展的重要制約瓶頸和亟需突破的關(guān)鍵挑戰(zhàn)。本文就人工智能數(shù)據(jù)安全治理與技術(shù)發(fā)展展開探討。
【關(guān)鍵詞】人工智能;數(shù)據(jù)安全;隱私保護;全球治理
引言
隨著越來越多智能應(yīng)用的出現(xiàn),而形成了海量數(shù)據(jù),這些數(shù)據(jù)又在人們的生產(chǎn)、生活場景中不斷被收集與利用,在此過程中如何兼顧數(shù)據(jù)安全和人工智能技術(shù)發(fā)展,并探尋人工智能數(shù)據(jù)安全影響因素逐漸成為了當前國內(nèi)外研究的焦點。
1全球人工智能數(shù)據(jù)安全治理國家戰(zhàn)略層面
2017年7月,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,在人工智能數(shù)據(jù)安全治理方面提出了多項要求,包括“強化數(shù)據(jù)安全與隱私保護,為人工智能研發(fā)和廣泛應(yīng)用提供海量數(shù)據(jù)支撐”“開展與人工智能應(yīng)用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權(quán)保護等法律問題研究,建立追溯和問責制度”“加大對數(shù)據(jù)濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度”“打造人工智能基礎(chǔ)數(shù)據(jù)與安全檢測平臺,建設(shè)面向人工智能的公共數(shù)據(jù)資源庫、標準測試數(shù)據(jù)集、云服務(wù)平臺”。在國家人工智能發(fā)展戰(zhàn)略的指引下,我國相關(guān)部門在金融科技、智慧城市、自動駕駛等應(yīng)用領(lǐng)域紛紛出臺了相應(yīng)的規(guī)范性文件,強調(diào)要加強人工智能的相關(guān)數(shù)據(jù)安全研究和管控。如在金融科技場景,2018年4月,中國人民銀行、中國銀監(jiān)會、中國證監(jiān)會和國家外匯管理局共同發(fā)布了《關(guān)于規(guī)范金融機構(gòu)資產(chǎn)管理業(yè)務(wù)的指導意見》,在第23條對運用人工智能技術(shù)開展投資業(yè)務(wù)進行了相應(yīng)規(guī)定,要求金融機構(gòu)應(yīng)當向金融監(jiān)督管理部門報備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯,并向投資者充分提示人工智能算法的固有缺陷和使用風險。2019年8月,中國人民銀行發(fā)布《金融科技(FinTech)發(fā)展規(guī)劃(2019— 2021年)》,提出要“加強金融領(lǐng)域人工智能應(yīng)用潛在風險研判和防范,確保把人工智能金融應(yīng)用規(guī)制在安全可控范圍內(nèi)”。整體來看,我國目前尚未形成體系完善的人工智能數(shù)據(jù)安全法律法規(guī)。雖然《數(shù)據(jù)安全法(草案)》和《個人信息保護法(草案)》已發(fā)布,但其落實尚需要一系列配套法規(guī)、部門規(guī)章和規(guī)范性文件提供支撐。同時由于上位法尚未出臺,人工智能場景化立法的步伐也相對滯后,數(shù)據(jù)安全并未在相關(guān)人工智能應(yīng)用行業(yè)的規(guī)范性文件中得到足夠的重視和明確的規(guī)制要求。未來,我國還需要在《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法(草案)》和《個人信息保護法(草案)》的體系框架下,加快生物特征識別、工業(yè)互聯(lián)網(wǎng)、智能網(wǎng)聯(lián)汽車、數(shù)字內(nèi)容精準推送等人工智能重點應(yīng)用領(lǐng)域的場景化立法,構(gòu)建完備的人工智能數(shù)據(jù)安全法律體系。
2人工智能技術(shù)自身面臨的數(shù)據(jù)安全風險
(1)訓練數(shù)據(jù)污染可導致人工智能決策錯誤。數(shù)據(jù)投毒通過在訓練數(shù)據(jù)里加入偽裝數(shù)據(jù)、惡意樣本等破壞數(shù)據(jù)的完整性,進而導致訓練的算法模型決策出現(xiàn)偏差。隨著人工智能與實體經(jīng)濟深度融合,醫(yī)療、交通、金融等行業(yè)訓練數(shù)據(jù)集建設(shè)需求迫切,為惡意、偽造數(shù)據(jù)注入提供機會,使得從訓練樣本環(huán)節(jié)發(fā)動攻擊潛在危害增大。例如,在對話機器人領(lǐng)域,訓練數(shù)據(jù)投毒可導致機器人發(fā)表歧視性、攻擊性的不當言論;在自動駕駛領(lǐng)域,訓練數(shù)據(jù)投毒可導致車輛違反交通規(guī)則甚至造成交通事故。(2)運行階段的數(shù)據(jù)異??蓪е轮悄芟到y(tǒng)運行錯誤。一是人為構(gòu)造對抗樣本攻擊,導致智能系統(tǒng)產(chǎn)生錯誤的決策結(jié)果。例如在生物特征識別應(yīng)用場景中,對抗樣本攻擊可欺騙基于人工智能技術(shù)的身份鑒別、活體檢測系統(tǒng)。二是動態(tài)環(huán)境的非常規(guī)輸入可導致智能系統(tǒng)運行錯誤。人工標記數(shù)據(jù)覆蓋不全、訓練數(shù)據(jù)與測試數(shù)據(jù)同質(zhì)化等會導致人工智能算法泛化能力不足,智能系統(tǒng)在動態(tài)環(huán)境實際使用中決策可能出現(xiàn)錯誤。(3)模型竊取攻擊可對算法模型的數(shù)據(jù)進行逆向還原。攻擊者可通過公共訪問接口對算法模型的輸入和輸出信息映射關(guān)系分析,構(gòu)造出與目標模型相似度非常高的模型,實現(xiàn)算法模型竊取,進而還原出模型訓練和運行過程中的數(shù)據(jù)以及相關(guān)隱私信息。(4)開源學習框架安全風險可導致人工智能系統(tǒng)數(shù)據(jù)泄露。人工智能開源學習框架集成了大量的第三方軟件包和依賴庫資源,相關(guān)組件缺乏嚴格的測試管理和安全認證,存在未知安全漏洞。360、騰訊等企業(yè)安全團隊曾多次發(fā)現(xiàn) TensorFlow、Caffe、Torch 等深度學習框架及其依賴庫的安全漏洞,攻擊者可利用相關(guān)漏洞篡改或竊取人工智能系統(tǒng)數(shù)據(jù)。
3技術(shù)發(fā)展策略
3.1標準制定與監(jiān)管
人工智能安全標準制定。人工智能安全標準,是與人工智能安全、倫理、隱私保護等相關(guān)的標準規(guī)范。從廣義來說,人工智能安全標準涉及人工智能本身、平臺、技術(shù)、產(chǎn)品和應(yīng)用相關(guān)的安全標準。國內(nèi)外對人工智能標準化工作也越來越重視。中國也應(yīng)針對技術(shù)應(yīng)用風險,嚴格人工智能標準制定和行業(yè)監(jiān)管,確保人工智能良性發(fā)展。加強人工智能安全監(jiān)管與預警。加強人工智能安全的研究與監(jiān)管,全面審查、分析人工智能技術(shù)及系統(tǒng)的安全性,包括審查民用人工智能產(chǎn)品的安全性和穩(wěn)定性,特別是涉及人身安全的人工智能產(chǎn)品;審查人工智能在軍事應(yīng)用中的風險,以及軍事智能化對國際法的影響;審查人工智能在國家安全和國防中的倫理道德問題。建立人工智能安全預警機制,對人工智能安全風險進行監(jiān)控和掃描,識別脆弱點、風險與威脅,建立風險數(shù)據(jù)庫。重點關(guān)注人工智能技術(shù)的新發(fā)展與新應(yīng)用,維護國家總體安全。
3.2基于差分隱私的隱私保護技術(shù)
在許多人工智能應(yīng)用中,機器學習需要基于敏感數(shù)據(jù)開展訓練,例如照片等。在理想情況下,機器學習模型參數(shù)代表的應(yīng)該是通用模式,而不是關(guān)于特定個人數(shù)據(jù)主體的信息。在這種情況下,差分隱私作為一種隱私保護技術(shù)可以提供有效的隱私保護。差分隱私是在統(tǒng)計和機器學習分析的背景下對隱私的一個強有力的數(shù)學定義。當基于隱私數(shù)據(jù)進行訓練時,差分隱私能夠保證模型不會學習或記住任何特定數(shù)據(jù)主體的細節(jié)信息。
3.3推動高質(zhì)量數(shù)據(jù)資源建設(shè),降低數(shù)據(jù)濫用泄露帶來的安全隱患
高質(zhì)量數(shù)據(jù)集是提升人工智能算法準確性、模型合理性至關(guān)重要的因素,只有當人工智能系統(tǒng)獲取更為準確、及時、一致的高質(zhì)量數(shù)據(jù),才能提供更高效、更可靠的智慧化服務(wù),因此推進高質(zhì)量數(shù)據(jù)資源建設(shè)是解決人工智能數(shù)據(jù)安全的重要手段之一。
結(jié)語
人工智能數(shù)據(jù)安全挑戰(zhàn)會隨著人工智能技術(shù)的發(fā)展突破、應(yīng)用行業(yè)的不斷深入擴大等因素加快演變,其對于人類現(xiàn)實社會的外溢和威脅將是一個復雜的長期過程。因此,我國必須要在人工智能的動態(tài)發(fā)展中實現(xiàn)對數(shù)據(jù)安全風險整體的可知可控,確保人工智能數(shù)據(jù)在采集、標注、處理、存儲、流動、共享和場景應(yīng)用的全生命周期安全,不斷提高人工智能企業(yè)的數(shù)據(jù)安全能力,增強人工智能數(shù)據(jù)安全供給鏈的連續(xù)性和可用性。
參考文獻:
[1]朱天清,何木青,鄒德清 . 基于差分隱私的大數(shù)據(jù)隱私保護[J]. 信息安全研究,2018,1(3).
[2]郝英好.人工智能安全風險分析與治理[J].中國電子科學研究院學報,2020(6):501-505.
[3]魏薇,景慧昀,牛金行.人工智能數(shù)據(jù)安全風險及治理[J].中國信息安全,2020(3):82-85.