2024年3月13日,歐洲議會以壓倒性票數通過《歐盟人工智能法案》(以下簡稱“《法案》”),旨在提升歐盟人工智能產業(yè)的規(guī)范性和透明度,加強技術治理與監(jiān)管,以人為本推動人工智能有序發(fā)展。《法案》作為全球首部綜合性人工智能監(jiān)管法案,將使歐盟在人工智能治理方面走在世界前列,并為西方國家主導人工智能規(guī)則走向和監(jiān)管話語權奠定錨點。
全球市場份額占比大,生成式人工智能發(fā)展迅速。據國際數據公司22日發(fā)布的《全球人工智能和生成式人工智能支出指南》估計,2024年歐洲人工智能市場規(guī)模將達476億美元,約占全球人工智能市場總額的1/5,且仍在以33.7%的年復合增長率持續(xù)擴增。2023年歐洲生成式人工智能市場份額僅占歐洲人工智能市場總額的9.6%,但鑒于生成式人工智能支出的增長速度是其他人工智能支出增速的3倍以上,預測該份額2027年將增長至整個歐洲人工智能市場總額的1/4以上。
成員國間技術投資差異較大,人才儲備總量不足。2022年,全球人工智能技術投資份額中,歐盟整體位列第三,但成員國之間投資水平差異較大。其中,法國在人工智能技術投資方面表現強勁,包括承諾在2022年前向人工智能領域投資15億歐元,并于2022年宣布追加5億歐元投資,以打造人工智能強國。相比之下,歐盟其他成員國技術投資較弱。此外,歐盟人工智能領域人才競爭力不足。據《中國人工智能發(fā)展報告》統(tǒng)計,德國、法國、西班牙、意大利等歐盟成員國的人工智能人才數量均位居全球前十位,分列第四、第六、第九和第十,四國人工智能人才總數僅占全球總量的12.4%,與排名前三的美國、中國和印度相比差距較大。
重視人工智能治理與監(jiān)管,先行優(yōu)勢明顯。歐盟致力于構建人工智能技術應用監(jiān)管體系,以打造可信和以人為本的人工智能生態(tài)環(huán)境。一方面,歐盟委員會2020年發(fā)布《人工智能白皮書》,率先提出構建人工智能監(jiān)管框架,以確保人工智能安全、可信,引領全球人工智能監(jiān)管體系構建;另一方面,歐盟基于人工智能法治愿景,探索人工智能治理的法律支持,謀求立法先行優(yōu)勢。歐盟委員會自2021年4月21日首次提出《人工智能法案》以來,便積極推動該法案落地,以填補全球人工智能監(jiān)管的立法空白。
人工智能技術快速發(fā)展,成為推動科技和產業(yè)加速發(fā)展的重要力量,但其固有的不透明性、不確定性、難管控性,將對經濟發(fā)展、國際政治和全球治理等帶來深遠影響,引發(fā)全球廣泛關注。
基礎數據不透明風險。人工智能模型的優(yōu)劣很大程度上取決于訓練模型所使用的基礎數據,但因基礎數據篩選機制缺乏透明度和可視性,采集、清洗和標記過程中存在黑箱問題,數據質量的真實性和準確性難以監(jiān)管,導致模型透明度無法保障。
人工智能軍事化風險。人工智能作為新技術,具有顯著的顛覆性特征,通過智能化的態(tài)勢感知、戰(zhàn)場情報分析、輔助決策和自主武器系統(tǒng)的使用,能夠對戰(zhàn)爭造成非對稱影響。美國等軍事強國持續(xù)探索人工智能的軍事化應用,可能帶來人道主義風險、人工智能系統(tǒng)穩(wěn)定性風險及加劇沖突的風險。在全球地緣政治摩擦不斷加深的背景下,歐盟無論是選邊站隊,還是保持中立,都可能受到人工智能軍事化應用帶來的潛在風險。
人工智能濫用風險。隨著生成式人工智能系統(tǒng)的不斷擴展應用,也催生了非國家行為體的濫用和非法使用問題,增加了極端主義、恐怖主義風險。歐盟始終堅持發(fā)展以人為本的人工智能,強調避免濫用,防止人工智能對個人基礎權利和社會民主法治的侵犯。
《法案》旨在保護個人基本權利、民主、法治免受高風險人工智能系統(tǒng)影響,同時促進技術創(chuàng)新,推動歐盟成為人工智能領域的領導者。
適用主體廣泛,具有一定的域外效力?!斗ò浮反_立了廣泛的適用范圍和域外效力:一方面,所有在歐盟境內投入市場或投入使用的人工智能系統(tǒng)均適用該法案,即使系統(tǒng)供應商并未在歐盟設址;另一方面,人工智能系統(tǒng)價值責任鏈的供應商、分銷商、運營商等相關主體,均為本法案的規(guī)制對象,全面管控人工智能風險。
制定一般原則,促進以人為本和可信人工智能發(fā)展。歐盟人工智能系統(tǒng)或基礎模型應遵循以下6項原則:一是人工智能系統(tǒng)在設計、開發(fā)、部署和使用過程中,必須以人為本、尊重人權,并由人類適當監(jiān)控其運行;二是人工智能系統(tǒng)應具備技術安全性和韌性,盡量避免意外傷害,并提升恢復能力;三是應符合現有的隱私和數據保護規(guī)則;四是系統(tǒng)的開發(fā)和使用應允許適當的可追溯性和可解釋性;五是尊重人工智能系統(tǒng)的開發(fā)和使用方式的不同,并促進公平性和文化多樣性,避免歧視和偏見;六是以可持續(xù)和環(huán)境友好的方式開發(fā)和使用人工智能系統(tǒng),并使所有人類受益,監(jiān)測和評估對個人、社會和民主的長期影響。
明令禁止開發(fā)和使用4類系統(tǒng),避免出現不良影響?!斗ò浮访鞔_禁止將4類人工智能系統(tǒng)投放市場或投入使用。一是使用超越人類意識或誘騙、操控技術的系統(tǒng)。二是利用個人或特定群體弱點,扭曲其行為的系統(tǒng)。三是根據自然人或特定群體的社會行為或人格特征,進行社會評價、分類的系統(tǒng)。四是在公共場所使用的“實時”遠程生物識別系統(tǒng),包括評估自然人或群體的犯罪風險;從互聯網或閉路電視視頻中抓取面部圖像,新建或擴大人臉識別數據庫;除特殊情況外,在執(zhí)法、邊境管理和教育機構中推斷自然人情緒的人工智能系統(tǒng)。這4類禁止情形體現了《法案》的人權考量,避免對自然人或特定群體造成不利影響。
劃分人工智能系統(tǒng)風險等級,分類施策,強化管理成效?!斗ò浮坊谌斯ぶ悄艿牟煌该餍?、復雜性、對數據的依賴性等特點,將人工智能系統(tǒng)的風險等級劃分為不可接受風險、高風險、有限風險和極低風險4類。其中,不可接受風險人工智能系統(tǒng)不得在歐盟境內投入使用。高風險人工智能系統(tǒng)需在滿足一定條件的情況下使用。有限風險人工智能系統(tǒng)可規(guī)范、合理使用,其中人機交互系統(tǒng)、情感識別系統(tǒng)、生物特征分類系統(tǒng)及生成式人工智能系統(tǒng),需要履行透明度義務。極低風險人工智能系統(tǒng)可自由使用。
制定處罰標準,以此體現“硬法”約束。2024年2月,歐盟在《法案》正式通過前夕成立人工智能辦公室,負責監(jiān)督各成員國的《法案》執(zhí)行情況,對違反該法案的相關實體進行處罰,處罰結果取決于人工智能系統(tǒng)的類型、公司規(guī)模和違法行為的嚴重程度,根據是否違反法案禁止的人工智能系統(tǒng)條款、是否違反法案合規(guī)性要求、是否向監(jiān)管機構提供錯誤、不完整或誤導信息,制定了三檔處罰標準,分別予以對應的處罰。
打造“立法先行”優(yōu)勢,為人工智能發(fā)展設置護欄。作為全球首部人工智能立法,《法案》將使歐盟在人工智能法治方面占據先行優(yōu)勢,并為其他國家和地區(qū)的人工智能監(jiān)管設定了基準。從行業(yè)角度來看,《法案》有助于提升人工智能行業(yè)的規(guī)范性和透明度,通過明確監(jiān)管標準和要求,將有助于減少行業(yè)亂象和不合規(guī)行為,吸引更多的投資和人才進入人工智能領域,推動行業(yè)健康可持續(xù)發(fā)展。歐盟將以《法案》為監(jiān)管抓手,希望通過率先制定基本規(guī)則,為域內人工智能發(fā)展提供基本護欄。
重視高風險人工智能系統(tǒng)管理,強調基本治理原則?!斗ò浮丰槍Ω唢L險人工智能系統(tǒng)構建了涵蓋事前、事中和事后的全生命周期監(jiān)管體系。歐盟對于高風險人工智能系統(tǒng)的劃分原則遵循《法案》中所提到的人工智能治理的基本原則,即“促進以人為本和可信任的人工智能應用,并保證對于人民健康、安全、基本權利、民主以及法治的高度保護”。高風險人工智能系統(tǒng)管理是《法案》治理的重中之重,因此歐盟突出強調該類系統(tǒng)在風險和符合人工智能治理原則之間的平衡,以防范其快速發(fā)展帶來的算法歧視、算法黑箱等問題。
開啟全球人工智能分級監(jiān)管法治進程,迎接人工智能治理時代?!斗ò浮返某雠_不是終點,而是圍繞人工智能技術建立新治理模式的起點。在人工智能技術迅速發(fā)展的時代浪潮下,《法案》開啟了全球人工智能治理的法制化進程,世界各國將迎來人工智能立法熱潮,各相關方應努力把握全球人工智能監(jiān)管的脈搏,迎接人工智能法治時代。一方面,加強國際合作,探索雙邊或多邊合作治理機制,加深企業(yè)在人工智能領域的技術交流和人才互動;另一方面,積極參與國際標準制定,推動國際人工智能治理規(guī)則的形成。
責任編輯:陳曉芳