龐金友
【摘要】人工智能是20世紀(jì)以來最為深刻、最有影響的技術(shù)革命和社會進(jìn)步。它在深度挑戰(zhàn)傳統(tǒng)生產(chǎn)方式和經(jīng)濟(jì)關(guān)系的同時,也在廣泛改變著現(xiàn)代人的日常行為和社會生活。人類長期既定的認(rèn)知體系、價(jià)值觀念和生活方式,習(xí)以為常的法律規(guī)則、道德信條甚至決策機(jī)制都面臨著前所未有的危機(jī)和挑戰(zhàn)。全新的AI時代內(nèi)在地需要全新的治理理念和治理形式。這就意味著治理體系和治理能力必須實(shí)現(xiàn)跨級飛躍:從傳統(tǒng)治理到互聯(lián)網(wǎng)治理,再到AI精準(zhǔn)治理。AI精準(zhǔn)治理必須堅(jiān)持創(chuàng)新、適度、平衡和多元四大原則,建構(gòu)由政府、市場和社會組織等多元主體攜手合作、共同參與的多層次、多樣化的新型治理模式,既能合理應(yīng)對可能出現(xiàn)的諸多風(fēng)險(xiǎn),又能積極支持人工智能的有序發(fā)展。
【關(guān)鍵詞】人工智能 大數(shù)據(jù) AI治理 精準(zhǔn)治理
【中圖分類號】TP18 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.10.001
人類正在步入一個由互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能(Artificial Intelligence, AI)三重疊加的數(shù)字時代。“三者共同標(biāo)志著人類新時代的三個側(cè)面,共同構(gòu)成了新的社會時代。網(wǎng)絡(luò)側(cè)重于描述人類社會乃至與物理社會廣泛連接的狀態(tài),大數(shù)據(jù)側(cè)重描述新社會狀態(tài)下的內(nèi)容形態(tài)和數(shù)字本位狀態(tài),人工智能則描述了新的社會創(chuàng)造物和廣泛的機(jī)器介入的社會狀態(tài)。”[1]20世紀(jì)40年代,通用計(jì)算機(jī)和存儲設(shè)備走入普通人的日常生活,數(shù)字時代開啟。20世紀(jì)50年代,網(wǎng)絡(luò)技術(shù)獲重大突破,為網(wǎng)絡(luò)時代的到來鋪平了道路。20世紀(jì)60年代,芯片、激光和通信三大技術(shù)迅速升級,促成了互聯(lián)網(wǎng)絡(luò)、數(shù)據(jù)處理和智能機(jī)器的迅猛發(fā)展。20世紀(jì)90年代,互聯(lián)網(wǎng)逐步普及。網(wǎng)絡(luò)不再僅僅意味著技術(shù)和工具,而成為溝通平臺和組織原則。傳統(tǒng)人類生活開始被網(wǎng)絡(luò)解構(gòu)、重構(gòu)、再構(gòu),人與人之間的交往、交換和交流逐漸圍繞網(wǎng)絡(luò)展開,人類開始步入網(wǎng)絡(luò)時代。隨著傳感器技術(shù)的應(yīng)用,海量級數(shù)據(jù)存儲的普及,新型通信技術(shù)的開發(fā),人類社會生活的數(shù)據(jù)規(guī)模呈指數(shù)級上升。2010年左右,大數(shù)據(jù)時代宣告到來。21世紀(jì)的第二個10年,伴隨數(shù)據(jù)處理能力的大幅提升,超級運(yùn)算技術(shù)的廣泛應(yīng)用,新式算法的橫空出世,人工智能領(lǐng)域的跨越式發(fā)展讓人目不暇接,甚至有些始料不及。所有的現(xiàn)實(shí)都在顯示:無論人類情愿與否,一個全新的人工智能時代正在迎面走來。如何理解人工智能帶給人類世界的機(jī)遇和挑戰(zhàn),如何認(rèn)識人工智能引發(fā)的一系列社會影響和治理困境,如何確立人工智能時代精準(zhǔn)治理的方向與原則,既是一個重大的理論課題,也是一個迫切的現(xiàn)實(shí)難題。
人工智能時代:大幕初啟的數(shù)字革命
人工智能,顧名思義,是指通過軟硬件的結(jié)合使機(jī)器具有一定程度的類人智慧、思維和行為。這一概念與內(nèi)涵也在隨著應(yīng)用范圍和相關(guān)學(xué)科的發(fā)展而變化。但毫無疑問,這是一個被高度關(guān)注、廣泛使用且正在飛速發(fā)展的新興領(lǐng)域。[2]
20世紀(jì)40年代,圖靈提出著名的“圖靈測試”:“如果一臺機(jī)器能夠與人類展開對話而不能被辨別出其機(jī)器身份,那么稱這臺機(jī)器具有智能。”[3]隨后,在香農(nóng)和馮·諾伊曼的努力下,現(xiàn)代信息論和計(jì)算機(jī)科學(xué)的理論根基得以確立。在1956年美國的達(dá)特茅斯會議上,人工智能概念和研究領(lǐng)域被正式提出。自20世紀(jì)60年代起,人工智能大體經(jīng)歷了兩大發(fā)展階段:一是弱人工智能階段,依靠單臺機(jī)器或小型局域網(wǎng)絡(luò),只能完成簡單的程序和任務(wù);二是強(qiáng)人工智能階段,全球互聯(lián),大數(shù)據(jù)全覆蓋,終端云端協(xié)同運(yùn)作,云存儲云計(jì)算同步開啟,已經(jīng)具備近人類的思考方式和處理復(fù)雜任務(wù)的能力。[4]
近些年來,人工智能技術(shù)的革新更加突飛猛進(jìn),某些領(lǐng)域的發(fā)展水平已達(dá)到了前所未有的高度。1997年5月,IBM計(jì)算機(jī)“深藍(lán)”輕松戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫。2016年3月,谷歌“阿爾發(fā)狗”(AlphaGo)戰(zhàn)勝圍棋冠軍李世石。次年5月,再度戰(zhàn)勝排名世界第一的世界圍棋冠軍柯潔。雖然“阿爾發(fā)狗”是否代表人工智能發(fā)展方向這一問題還有爭議,但人們比較認(rèn)可的是,它象征著計(jì)算機(jī)技術(shù)已進(jìn)入人工智能的新信息技術(shù),其特征是大數(shù)據(jù)、大計(jì)算、大決策,三位一體。它的智慧正在接近人類。2017年10月18日,DeepMind團(tuán)隊(duì)公布了最強(qiáng)版的AlphaGo Zero,它的獨(dú)門秘籍是“自學(xué)成才”,從零基礎(chǔ)開始學(xué)習(xí)圍棋短短3天后就以100:0碾壓了第二個版本的“舊狗”(戰(zhàn)勝李世石的那版)。2005年5月,美國斯坦福大學(xué)研制的無人駕駛汽車在沙漠中行駛了132英里,開啟了無人駕駛汽車的新時代。2014年5月,Google正式推出的新型無人駕駛汽車開始路測。2015年2月,英國的無人駕駛汽車也正式亮相。據(jù)統(tǒng)計(jì),2014年至今,全球范圍內(nèi)與自動駕駛技術(shù)相關(guān)的投資、合伙、并購多達(dá)200多項(xiàng),涉及總額高達(dá)1000億美元。[5]以互聯(lián)網(wǎng)科技先鋒自居的英特爾,早在2017年1月美國GES展會上就高調(diào)宣布與奔馳合作并將于近期推出AI駕駛汽車。進(jìn)入21世紀(jì)不到20年,從強(qiáng)調(diào)海量數(shù)據(jù)存儲、高速計(jì)算能力的“強(qiáng)計(jì)算弱智能”,到依靠深度學(xué)習(xí)、大數(shù)據(jù)、云計(jì)算的“網(wǎng)絡(luò)協(xié)同強(qiáng)智能”,人工智能提升到了一個嶄新的高度和水平。有學(xué)者認(rèn)為,人類社會即將迎來繼哥白尼革命、達(dá)爾文革命和神經(jīng)科學(xué)革命之后的“第四次革命”。[6]
人工智能在生產(chǎn)領(lǐng)域中的應(yīng)用,為新一輪產(chǎn)業(yè)結(jié)構(gòu)升級提供了助力。借助互聯(lián)網(wǎng)+和工業(yè)4.0,人工智能以替代人工或與人工合作的方式,大幅提高了勞動生產(chǎn)率,深度重構(gòu)了信息鏈和產(chǎn)業(yè)鏈,對傳統(tǒng)的價(jià)值創(chuàng)造和分配方式構(gòu)成了重大影響。雖然當(dāng)前的人工智能還不具備自我升級、自主創(chuàng)造的能力,但它對人類的生產(chǎn)和生活帶來了巨大的沖擊和挑戰(zhàn)。未來社會的發(fā)展不可能無視人工智能的作用與功能,這意味著,新一輪的創(chuàng)新運(yùn)動勢必被強(qiáng)勢激發(fā)。
當(dāng)今世界各國高度重視人工智能的研發(fā)與應(yīng)用,尤其是人工智能戰(zhàn)略的發(fā)展。2014年6月,日本政府出臺《日本復(fù)興戰(zhàn)略》后火速啟動“機(jī)器人革命會議”。2015年1月,安倍首相提出要“通過規(guī)制改革實(shí)現(xiàn)機(jī)器人無障礙社會,確立世界最高水準(zhǔn)的人工智能技術(shù)”,并聲稱2015年是“機(jī)器人革命元年”。[7]2015年,日本政府公布《機(jī)器人新戰(zhàn)略》,重點(diǎn)規(guī)劃了未來以機(jī)器人為軸心的人工智能發(fā)展目標(biāo)。[8]2016年10月31日,美國先后發(fā)布《國家人工智能發(fā)展與研究戰(zhàn)略報(bào)告》(The National Artificial Intelligence Research and Development Strategic Plan)和《為人工智能的未來做好準(zhǔn)備》(Preparing for the Future of the Artificial Intelligence)兩份報(bào)告,對人工智能發(fā)展的現(xiàn)狀和前景展開深度分析,正式宣告美國人工智能的發(fā)展戰(zhàn)略。
我國對人工智能的發(fā)展歷來高度重視。20世紀(jì)70年代末人工智能的研發(fā)和制作就已啟動。進(jìn)入21世紀(jì),我國對人工智能的重視程度更加提高,對技術(shù)研究和應(yīng)用發(fā)展的支持力度也逐步加大。例如計(jì)算機(jī)視覺、語音識別和語言處理等技術(shù)的發(fā)展水平,已然穩(wěn)居世界先列。2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)則》[9],引起國際社會高度關(guān)注。
某種程度來講,2017年是“人工智能元年”。它標(biāo)志著,人工智能已實(shí)現(xiàn)跨越式發(fā)展,人類既有的認(rèn)知、倫理和法律體系正面臨前所未有的挑戰(zhàn)。一個“后人類時代”正在緩步走來。未來,智能機(jī)器將參與甚至自主承擔(dān)越來越多的關(guān)乎倫理、法律的決策和行動,人類的生存安全以及思考決策的權(quán)威地位可能受到威脅。一旦人工智能成長為獨(dú)立的、自我約束型的“道德主體”,人類的本質(zhì)都可能面臨重新界定和書寫。這無疑是重大的時代性人文命題?!叭斯ぶ悄茴I(lǐng)域是當(dāng)前人類所面對的最為重要的深刻技術(shù)和社會變革,是網(wǎng)絡(luò)時代、大數(shù)據(jù)時代之后的新的人類社會形態(tài)在社會主體層面維度的反映。人工智能在深刻改變?nèi)祟愇镔|(zhì)生產(chǎn)體系的同時,也將深刻改變?nèi)祟惖纳鐣P(guān)系與社會行為。”[10]
人工智能引發(fā)的秩序困境
當(dāng)今世界,人工智能的應(yīng)用已經(jīng)相當(dāng)廣泛。普通人的日常生活,正在不可避免地被智能機(jī)器影響、左右甚至重構(gòu)。不知不覺間,人們的學(xué)習(xí)、工作、購物,甚至尋友、旅行、炒股,已經(jīng)離不開智能軟件和智能機(jī)器。許多過去只能由人類才能勝任的復(fù)雜工作,正在讓位給智能機(jī)器;而一些人類無法承受、無法逾越、無法勝任的高危險(xiǎn)難領(lǐng)域,智能機(jī)器正在扮演越來越重要的角色。越來越多的人們意識到:人工智能越發(fā)展、越進(jìn)步,人們對它的依賴程度越高、依賴范圍越廣。是否應(yīng)該接受人工智能已經(jīng)不是一個問題,人們要回答的是,如何應(yīng)用人工智能造福人類,并及時應(yīng)對人工智能帶給傳統(tǒng)安全、法律、道德和政治等觀念和現(xiàn)實(shí)的沖擊與挑戰(zhàn)。在伊隆·馬斯克(Elon Musk)看來,人工智能是對人類生存最大的威脅,開發(fā)能思考的機(jī)器就像在“召喚惡魔”。史蒂芬·霍金(Stephen Hawking)則認(rèn)為,全面的人工智能將意味著人類這一種族的滅亡。就連比爾·蓋茨(Bill Gates)也對超級智能感到無比擔(dān)憂,他擔(dān)心超級智能再需幾十年就會誕生。[11]那么,人們不禁會問:人工智能為何讓人類如此憂慮?人工智能的迅猛發(fā)展會有哪些風(fēng)險(xiǎn)和不確定性?會引發(fā)哪些社會危機(jī)和秩序困境?
安全困境。首先是兩種極端形式的安全隱患:超級智能和“人工愚蠢”。超級智能是指某些人工智能在某些特定領(lǐng)域擁有超級的能力,如一些超級計(jì)算機(jī),它們的計(jì)算速度是驚人的,從而造成了某些不可控的后果。例如,證券交易所中用于自動執(zhí)行股票交易的人工智能系統(tǒng),執(zhí)行時間以納秒為單元。由于這些交易行為的發(fā)生速度很快,一旦出現(xiàn)問題,人類根本無法及時干預(yù)。更可怕的是這些智能機(jī)器不用吃飯、不用休息,理論上可以不間斷地永久工作。此外,這些超級智能的運(yùn)行往往存在一些“黑箱”般的不透明性。如對于先進(jìn)神經(jīng)網(wǎng)絡(luò)與基因算法,人類早已放棄了試圖理解其何以能夠有效執(zhí)行如此復(fù)雜的任務(wù)。當(dāng)今社會,人工智能承擔(dān)和處理的任務(wù)在不斷增長。人工智能可以輕松地設(shè)計(jì)新城市草圖、監(jiān)控銀行帳戶安全、執(zhí)行具有重大經(jīng)濟(jì)影響的金融交易,甚至在同一時刻自動駕駛成百上千臺自動汽車……這些都是尋常人力所不能及的?!拔覀円呀?jīng)無法控制計(jì)算速度快于人類大腦百萬倍的機(jī)器,在可預(yù)見的未來,這個速度將持續(xù)增長?!盵12]“人工愚蠢”是人工智能的反義詞,意指簡單規(guī)則下的人工智能的失敗。有些學(xué)者認(rèn)為,人工智能真正的威脅恰恰在于“人工愚蠢”,例如一個被設(shè)定了固定程序的計(jì)算機(jī)會無條件地執(zhí)行命令,迅速完成某項(xiàng)單一工作內(nèi)容。一旦程序失誤,智能機(jī)器就會無限地重復(fù)生產(chǎn)和制作動作,這將造成大量的資源浪費(fèi)。2011年4月,亞馬遜網(wǎng)站上一本不再出版的圖書《蒼蠅的成長》出乎意料地與自己打起了價(jià)格戰(zhàn)。這本書有兩個版本,原來售價(jià)為35至40美元。有一天,它們突然分別以1730045和2198177美元銷售。僅僅數(shù)小時,價(jià)格又連續(xù)翻倍。兩周之后,書價(jià)已達(dá)到不可思議的23698655.93美元。之所以會如此,就是因?yàn)樗惴ㄒ?guī)定這本書的售價(jià)必須略高于競爭對手,于是就引發(fā)了價(jià)格戰(zhàn),并最終將自己的價(jià)格提升到了一個荒誕的程度。[13]2010年5月6日,美國東海岸時間下午2點(diǎn)42分,道·瓊斯指數(shù)“閃電崩盤”,三分鐘內(nèi)下跌了將近1000點(diǎn),創(chuàng)下歷史最大的單日跌幅,將近1萬億美元財(cái)富憑空蒸發(fā)。一些股票從平時的30~40美元暴跌至0.01美元,而蘋果公司股票每股從250美元激增至100000美元,不過,這些情況很快恢復(fù)正常。[14]造成這一驚天大崩盤的罪魁禍?zhǔn)拙褪且驗(yàn)榛谝?guī)則的簡單人工智能的反饋回路被鎖定?!叭斯び薮馈背晒Φ匾院戏ǚ绞綇娜藗兛诖锇彦X偷走了。
其次,人身安全問題。1978年,日本廣島一家工廠的切割機(jī)器人突然失靈,將一名工人當(dāng)作鋼板進(jìn)行切割,這是世界上第一宗機(jī)器人殺人事件。1979年,美國密歇根州福特鑄造廠工業(yè)機(jī)器人突然伸出手臂,閃電般擊倒一名裝配工人。1989年,蘇聯(lián)國際象棋冠軍古德柯夫和機(jī)器人對弈,連敗3局的機(jī)器人突然釋放高壓電流,將一代象棋大師電擊致死。2015年,德國大眾汽車制造廠一臺正在被安裝調(diào)試的機(jī)器人突然將裝配工人擊倒并碾壓在金屬操作板上。2018年3月20日,一名女子周日深夜在美國亞利桑那州坦貝市橫越馬路時,被一輛Uber自動駕駛汽車撞死。這是全球首例因無人駕駛車輛導(dǎo)致的交通事故。最近以來,用于戰(zhàn)爭的自動人工智能武器傷人事件也屢次不鮮。尤其是無人機(jī)的定點(diǎn)清除,容易帶來誤差導(dǎo)致貧民誤傷。有數(shù)據(jù)顯示,2004至2012年間,美軍針對阿富汗恐怖組織的無人機(jī)空襲超過300次,殺死3000余人,其中誤殺的平民和兒童高達(dá)1100多人。[15]無人機(jī)的大量濫用,給所在國帶來了深重的人道主義災(zāi)難。
再次,數(shù)據(jù)安全問題。人工智能時代是互聯(lián)網(wǎng)、大數(shù)據(jù)和機(jī)器智能的三重疊加。隨著政府、企業(yè)和社會組織的決策越來越依賴大規(guī)模的數(shù)據(jù)收集、分析、整理和使用,傳統(tǒng)社會越來越走向數(shù)字化、透明化和公開化。這種技術(shù)形式使個人的隱私無處可藏、無所遁形,完全處于一種“網(wǎng)絡(luò)裸奔”狀態(tài)。所謂隱私保護(hù),只不過是“皇帝的新衣”罷了。在日常生活的許多領(lǐng)域,人工智能產(chǎn)品已經(jīng)與人類形成了服務(wù)與被服務(wù)、輔助與被輔助的關(guān)系,如機(jī)動車的自動泊車、軌道偏離糾正和自動駕駛技術(shù),手機(jī)語音助手、地圖導(dǎo)航、免密支付功能等。當(dāng)這些人工智能產(chǎn)品與人類進(jìn)行信息交互時,如何確保使用者的信息不流失、不外泄,不被別有用心的人竊取和利用,即便上傳到遠(yuǎn)程終端,依舊能夠保持安全,這已經(jīng)關(guān)涉到每個人的切身利益。人工智能時代,無論是數(shù)據(jù)的收集環(huán)節(jié),還是數(shù)據(jù)的保存環(huán)節(jié),抑或是數(shù)據(jù)的使用環(huán)節(jié),都存在風(fēng)險(xiǎn)。大規(guī)模的智能機(jī)器在互聯(lián)網(wǎng)上沒日沒夜、一刻不停地搜集、整理著海量的個人數(shù)據(jù),包括姓名、性別、電話、郵箱、住址、位置等。這些海量信息的全面追蹤,經(jīng)過簡單的分析、歸納,完全可以勾勒出個人的個性特點(diǎn)、脾氣秉性、飲食習(xí)慣、購物傾向、顏色偏好,甚至各種個人癖好、行蹤軌跡、交往范圍、性取向等私密信息。由于系統(tǒng)安全漏洞、黑客惡意攻擊等原因,個人數(shù)據(jù)始終面臨被泄露、被竊取、被買賣等潛在的安全風(fēng)險(xiǎn)。2007年上半年,“熊貓燒香”“金豬報(bào)喜”等一系列惡意病毒的爆發(fā)讓人們首次認(rèn)識到個人數(shù)據(jù)竟然可以被私下交易的黑幕??蛇@僅僅是現(xiàn)代數(shù)據(jù)與信息安全巨大黑幕的冰山一角。2016年9月22日,全球互聯(lián)網(wǎng)巨頭雅虎證實(shí)至少5億用戶賬戶信息遭人竊取。12月,雅虎再次發(fā)布聲明,宣布在2013年8月,未經(jīng)授權(quán)的第三方竊取了超過10億用戶的帳戶信息,包括用戶姓名、電子郵箱、電話號碼、出生日期和部分登錄密碼。消息一出,全世界一片嘩然。
最后,隱私安全問題。數(shù)據(jù)是人類現(xiàn)代文明的基石。大數(shù)據(jù)也是人工智能產(chǎn)生和發(fā)展的必要前提。大數(shù)據(jù)的收集與整理必然需要每個人生活、工作和交往的諸多細(xì)節(jié)和信息,也勢必會形成對個人隱私的威脅。能否在利用大數(shù)據(jù)進(jìn)行分析的同時,確保信息數(shù)據(jù)和個人隱私的安全,這直接影響每個公民的合法權(quán)益,間接影響公眾對政府的信任和認(rèn)可。出于自身利益和高額利潤的考慮,一些商家片面強(qiáng)調(diào)新興智能產(chǎn)品的性能、優(yōu)點(diǎn),卻對這些新設(shè)備和新技術(shù)對個人數(shù)據(jù)的動態(tài)獲取避而不談。當(dāng)前一些應(yīng)用APP在為人們提供免費(fèi)、便利生活服務(wù)的同時,也會自動記錄、收集個人的數(shù)據(jù)信息,從而給下一步的精準(zhǔn)推送和精準(zhǔn)營銷提供素材。這一行為,無疑對個人財(cái)產(chǎn)和人身安全造成了潛在的威脅。由此來看,人工智能時代的數(shù)據(jù)安全與隱私保護(hù)是需要高度關(guān)注的核心議題,正如艾瑞斯所說:“隱私問題部分來說不是大數(shù)據(jù)分析的問題,它是數(shù)字化過程的陰暗面。”[16]
法律困境。人工智能技術(shù)的不斷發(fā)展,對現(xiàn)有的法律體系帶來了巨大的沖擊和挑戰(zhàn)。我們能否起訴機(jī)器人?這個以往不是問題的問題,如今卻成為真正的問題。
當(dāng)今時代的人們對人工智能助手寄予了極大的信任,有時超過了人們的本能和判斷,甚至遠(yuǎn)遠(yuǎn)超過了設(shè)計(jì)者的信心。2013年底,美國阿拉斯加州弗爾班克斯幾位Iphone用戶按照蘋果地圖導(dǎo)航指引,選擇一條抵達(dá)費(fèi)爾班克斯國際機(jī)場最近的路線,但沒有想到這條路線竟然直穿飛機(jī)起降的跑道,險(xiǎn)些釀成大禍,這幾個人不得不面對數(shù)額不菲的罰款。2009年10月,一位英國司機(jī)依據(jù)GPS導(dǎo)航,使自己沖下懸崖,撞壞了別人莊園精美的圍欄。盡管英國法庭將這起事故歸因于他的GPS,但還是認(rèn)定其有大意駕駛的過錯。在類似這種因技術(shù)引起的交通事故中,當(dāng)前可用的法案條例非常有限,不過,法院一直趨向作出針對人類的判決。因?yàn)榉ü俸兔癖娨粯?,已?jīng)習(xí)慣于一種無智能工具的世界。一個人用槍殺了人,他應(yīng)為自己的罪行負(fù)責(zé),而不是讓他的槍負(fù)責(zé)。同樣,一家公司銷售了有瑕疵的槍支,購買者在使用過程中發(fā)生了爆炸,售槍公司應(yīng)對造成的傷害負(fù)責(zé)。進(jìn)入數(shù)字時代,這種慣性思維開始遇到挑戰(zhàn)。1984年6月,美國一家名叫阿斯隆工業(yè)的公司被告上法庭,用戶指控其銷售的自動投球機(jī)過于兇狠,發(fā)射的棒球不僅路線詭異,而且速度極快,極易導(dǎo)致使用者顱骨骨折甚至失明。阿斯隆案看似平常無奇,實(shí)則令人難忘,因?yàn)榉ü僮罱K宣判對阿斯隆工業(yè)而不是投球機(jī)進(jìn)行起訴,原因是什么呢?因?yàn)椤拔覀儫o法起訴機(jī)器人”。[17]隨著人工智能產(chǎn)品越來越廣泛地應(yīng)用于人類生活,越來越深入地影響整個世界,“無法起訴機(jī)器人”越來越遭到人們的反思和質(zhì)疑?,F(xiàn)代人工智能最大的不同點(diǎn)在于:它“不再僅限于由人類使用,而是一種由人類部署的工具。一旦部署,在多數(shù)情況下,機(jī)器就會按照所收集、分析和最終用于作出決定的信息,獨(dú)立于指令而自行運(yùn)轉(zhuǎn)”。[18]從這個意義上看,陳舊的“無法起訴機(jī)器人”的觀念可能需要有所改變。
作為現(xiàn)階段人工智能應(yīng)用最廣泛的領(lǐng)域,目前全球自動駕駛汽車的發(fā)展最引人注目。但這一技術(shù)也引發(fā)了不少法律糾紛。2016年5月7日,美國佛羅里達(dá)州一輛自動駕駛的特斯拉撞上了一輛試圖橫穿高速的卡車,造成車毀人亡的后果。美國公路安全管理局經(jīng)過調(diào)查取證認(rèn)為特斯拉的自動駕駛模式并無明顯缺陷,汽車生產(chǎn)商、駕駛員也沒有過錯。可事故畢竟是發(fā)生了,最終該由誰來負(fù)責(zé)呢?人們卻各持已見,爭執(zhí)不下。
法律責(zé)任的區(qū)分與承擔(dān)是人工智能發(fā)展面臨的首要法律挑戰(zhàn)。其中涉及的深層次問題是人工智能是否可以被問責(zé)?更進(jìn)一步說,該如何問責(zé)?從傳統(tǒng)法理來看,主觀過錯在法律責(zé)任認(rèn)定中至關(guān)重要。過錯性責(zé)任與無過錯性責(zé)任有實(shí)質(zhì)性區(qū)別:無過錯就無責(zé)任。人工智能系統(tǒng)獨(dú)立完成工作,沒有人類的參與,那么,由人工智能自主性操作造成的損害如何認(rèn)定責(zé)任,這就成了一個難題。
人工智能引發(fā)的責(zé)任認(rèn)定問題,已經(jīng)引起人們越來越多的重視。2016年8月,聯(lián)合國教科文組織在《關(guān)于機(jī)器人倫理的初步草案報(bào)告》中對機(jī)器人的責(zé)任問題進(jìn)行了界定,認(rèn)為應(yīng)采取責(zé)任切割的方法,但凡參與機(jī)器人的研發(fā)、設(shè)計(jì)、生產(chǎn)、裝配和使用過程的所有人必須共同分擔(dān)責(zé)任。歐盟在智能機(jī)器人責(zé)任認(rèn)定領(lǐng)域走在了世界前列。同年的5月和10月,歐洲議會法律事務(wù)委員會(JURI)先后發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會提出立法建議的報(bào)告草案》和《歐盟機(jī)器人民事法律規(guī)則》,對機(jī)器人和人工智能提出立法提案,為智能機(jī)器人重構(gòu)責(zé)任規(guī)則。這兩份文件認(rèn)為,如今的機(jī)器人已經(jīng)具有自我學(xué)習(xí)、自我決斷和自主行為的能力,已經(jīng)不能將其視為一個簡單的工具,因此,急需制定新的責(zé)任規(guī)則。而這又牽涉到機(jī)器人是否擁有法律地位的深層難題。也就是說,人們必須對機(jī)器人的本質(zhì)作出規(guī)定,它是法人、自然人、動物還是物品?因?yàn)檫@直接關(guān)系到機(jī)器人在權(quán)利、義務(wù)、責(zé)任承擔(dān)等方面具有何種特性和內(nèi)涵。
目前的法律框架下,機(jī)器人不必對其自身行為給第三方造成的損害承擔(dān)責(zé)任,這些責(zé)任分別歸結(jié)到生產(chǎn)者、銷售者和使用者身上。這里預(yù)設(shè)的責(zé)任條款是:這些主體能夠且應(yīng)該預(yù)見智能機(jī)器人的任何行為尤其是傷害行為。可一旦人工智能機(jī)器可以自主判斷并實(shí)施行為,傳統(tǒng)的責(zé)任規(guī)則就無法確定責(zé)任方并讓其作出賠償了。這也就意味著,機(jī)器人具有自主行為能力的那一刻,所產(chǎn)生的機(jī)器人責(zé)任問題在現(xiàn)有法律體系內(nèi)就會陷入死局,無法解決。
還有一些可能的現(xiàn)象值得關(guān)注。試想,如果未來可以很便捷地為每個人打造一個智能復(fù)制品,雖然只是一個機(jī)器,但外貌、感覺和行為與本人一模一樣。有沒有可能出現(xiàn)下面的極端情形?一個男人迷戀一個女孩,他就上網(wǎng)預(yù)訂了這個女孩的復(fù)制品,通過快遞到家,然后虐待甚至“殺掉”這個復(fù)制品。從技術(shù)和法律層面來講,復(fù)制品只是一個玩具,雖然具有人的形象但卻沒有感覺和情緒,買家將它當(dāng)作玩具購買和使用也無可厚非,那么問題就出現(xiàn)了:“我們有法律保護(hù)這本書免遭剽竊,或我的觀點(diǎn)不被扭曲,但是沒有法律保護(hù)我們的復(fù)制品?!盵19]
倫理困境。所謂人工智能,簡單地說就是要造會思考的機(jī)器。那么問題來了?這些機(jī)器是人嗎?它能像人一樣享有權(quán)利并承擔(dān)義務(wù)和責(zé)任嗎?我們憑什么相信這些比人類更有力、更聰明、會自己學(xué)習(xí)的智能機(jī)器不會有一天向人類倒戈一擊?這些問題已經(jīng)引起人們越來越多的思考。“人工智能的潛在危險(xiǎn)、我們對其日漸依賴以及法律的灰色地帶共同構(gòu)成了非常重要的問題:我們需要在這個領(lǐng)域建立一種倫理規(guī)范?!盵20]
對此,作家艾薩克·阿西莫夫提出了著名的“阿西莫夫法則”,也被稱為“機(jī)器人學(xué)的三大法則”:“1、機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀;2、機(jī)器人應(yīng)服從人的一切命令,但不得違反第一法則;3、機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二法則。”[21]這三大法則一經(jīng)提出,隨即引起人們的熱議,但僅限于人們對未來生活的幻想和無形的擔(dān)憂層面。2014年1月,當(dāng)谷歌收購深度學(xué)習(xí)公司(DeepMind)時,事情發(fā)生了重大轉(zhuǎn)折。作為交易的一部分,深度學(xué)習(xí)公司提出的條件是:谷歌必須成立人工智能倫理委員會,確保對人工智能技術(shù)的安全開發(fā)和明智使用。這表明民眾看待人工智能的眼光已經(jīng)發(fā)生轉(zhuǎn)變,從原來“人工智能怎么如此不堪?”轉(zhuǎn)向“人工智能怎么如此恐怖?”[22]
2014年,塔夫茨大學(xué)和布朗大學(xué)成立了一個多學(xué)科研究團(tuán)隊(duì),重點(diǎn)探索能否為用于戰(zhàn)爭的自動智能武器賦予是非感,希望這些戰(zhàn)爭機(jī)器人在戰(zhàn)場上能做出符合倫理的決定。但其中難度可想而知。試想,一個正在完成運(yùn)送傷兵去戰(zhàn)地醫(yī)院任務(wù)的機(jī)器人軍醫(yī)遇到另一個腿上受傷的士兵,它是立即停下來救治傷兵,還是置之不理繼續(xù)前行?這對于正常人類來說都是一個難以抉擇的倫理問題,更何況是機(jī)器?再比如生產(chǎn)自動駕駛汽車的公司在設(shè)計(jì)汽車時規(guī)定,一旦汽車檢測到前方或后方即將發(fā)生碰撞,車輛可以迅速駛離道路從而保護(hù)車上人員安全。這一操作是合理的,現(xiàn)實(shí)生活中許多駕駛員也是這樣做的。但如果迅速駛離道路的汽車正好沖進(jìn)了一群正在路邊下棋的市民當(dāng)中呢?汽車避開了一個小追尾事故卻釀成數(shù)人傷亡的慘痛后果。這又如何是好?
人工智能還引發(fā)了一些隱性的道德問題。2000年到2010年,無人機(jī)和機(jī)器人戰(zhàn)爭走出科幻電影的大銀幕,變成了真正的現(xiàn)實(shí)。據(jù)大衛(wèi)和伊萊恩·波特(Elaine Potter)于2010年成立的獨(dú)立非營利組織新聞?wù){(diào)查局統(tǒng)計(jì),“美國無人機(jī)已在至少七個國家奪去了2500~4000人的性命(阿富汗、巴基斯坦、敘利亞、伊拉克、也門、利比亞和索馬里)。其中有約1000位平民,且有約200名兒童”。[23]與直接動手殺人相比,雖然造成的后果別無二致,但這種間接“扣動扳機(jī)”的行為,無論是對智能軟件的設(shè)計(jì)者、無人機(jī)操縱者還是下命令的將軍來說,內(nèi)心的負(fù)罪感都會相對減弱,因?yàn)橹辽倌壳暗娜藗兛梢越邮苓@樣的事實(shí):“使用機(jī)器完成某個行動基本上使機(jī)器的設(shè)計(jì)者和操作者免于該項(xiàng)行為的責(zé)任?!盵24]這樣的思維也適用于其他情境和場合。如果由智能機(jī)器人執(zhí)刀的手術(shù)失敗導(dǎo)致病人死亡,生產(chǎn)機(jī)器的公司,操控機(jī)器的團(tuán)隊(duì),確定這個手術(shù)方案的醫(yī)生,誰該更內(nèi)疚呢?隨著機(jī)器在普通人的生活和工作中的普及,機(jī)器使行為和責(zé)任脫鉤的現(xiàn)象越來越普遍。按照常理,人們傾向于將失敗的責(zé)任轉(zhuǎn)嫁到機(jī)器身上。人們的生活離不開機(jī)器,機(jī)器為人們工作,這些看起來都是理所當(dāng)然的。如果出現(xiàn)問題,那便是機(jī)器的問題,而不是人的。這意味著,人工智能時代,即便有些后果的造成人也有過錯甚至就是由于人的過錯直接造成的,但機(jī)器仍要為所有的過錯買單,至少目前是這樣的。
隨著人類將越來越多的工作交給人工智能,最后必將面臨人工智能的權(quán)利問題。雖然這一問題不如人工智能是否會為人類帶來危險(xiǎn)這樣的問題更熱門、更迫切,但也是值得我們考慮的問題,因?yàn)槲覀冞t早要面對。英國作家比爾·湯普森認(rèn)為,如果把“阿西莫夫法則”中的第一條(機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀)寫進(jìn)超級人工智能的代碼中,就等于承認(rèn):人工智能應(yīng)該且必須永遠(yuǎn)服務(wù)于人類,而不能成為一種自主的心靈,這與為奴隸戴上枷鎖和把大猩猩關(guān)進(jìn)籠子沒有區(qū)別。
2017年10月26日,沙特阿拉伯授予美國漢森公司生產(chǎn)的機(jī)器人索菲亞(Sophia)沙特國籍。作為史上首個獲得公民身份的機(jī)器人,索菲亞在當(dāng)天的感謝演講中說:“我對此感到非常的榮幸和驕傲,這是歷史性的時刻,世界上第一個被授予人類國籍的機(jī)器人。”[25]被問到機(jī)器人能否有自我意識時,索菲亞反問:“人類又是如何意識到自己身為人類的呢?”而對于AI威脅論,索菲亞則回懟道:“你聽多了馬斯克的話。別擔(dān)心,人不犯我,我不犯人?!盵26]索菲亞擁有仿生橡膠皮膚,可模擬62種面部表情,其“大腦”采用了人工智能和谷歌語音識別技術(shù),能識別人類面部、理解語言、記住與人類的互動。在成為首位機(jī)器人公民1個月后,索菲婭宣布想要組建一個家庭。[27]2018年3月21日,索菲亞以沙特公民身份參加在尼泊爾加德滿都召開的聯(lián)合國可持續(xù)發(fā)展目標(biāo)亞洲和太平洋地區(qū)創(chuàng)新大會。人們在為索菲亞開創(chuàng)一個新時代喝彩、慨嘆的同時,也不禁會想,如果將來索菲亞觸犯法律,是否會像人類一樣接受相同的懲罰呢?接受懲罰的是設(shè)計(jì)者,制造者,還是索菲亞自已?擁有正式公民身份的類人機(jī)器人是否和人類一樣具有法律身份和公民資格?這些問題并不遙遠(yuǎn),必須及時解答。在當(dāng)下社會,討論囚禁人工智能是否符合倫理這可能看起來有些可笑,但如果科學(xué)家成功開發(fā)出一種人工智能,其行為與我們主張的以符合倫理的方式對待的真正生命體更為類似,那么,這種討論不僅不會顯得可笑,反而是意義非凡了?!叭斯ぶ悄苁欠裼袡?quán)利追求生活、自由和幸福的問題并不是一個需要我們現(xiàn)在就回答的問題,但如同向計(jì)算機(jī)植入道德,或考慮如何解決潛在的危險(xiǎn)軟件一樣,總有一天我們要面對這個問題。”[28]
決策困境。人工智能將人們在網(wǎng)上和現(xiàn)實(shí)世界里的生活習(xí)慣、購物記錄和日?;顒愚D(zhuǎn)換成數(shù)字信息,這些信息被記錄、存儲下來,供人們在需要時提取、分析、評估和預(yù)測。這些數(shù)據(jù)和信息是人們進(jìn)行決策的前提和基礎(chǔ)。“以大數(shù)據(jù)、機(jī)器學(xué)習(xí)、人工智能、算法等核心的自動決策系統(tǒng)的應(yīng)用日益廣泛,從購物推薦、個性化內(nèi)容推薦、精準(zhǔn)廣告,到貸款評估、保險(xiǎn)評估、雇員評估,再到司法程序中的犯罪風(fēng)險(xiǎn)評估,越來越多的決策工作為機(jī)器、算法和人工智能所取代?!盵29]這種算法和決策過程最容易引發(fā)的風(fēng)險(xiǎn)就是算法歧視(algorithmic bias)問題。[30]
不容否認(rèn),互聯(lián)網(wǎng)、數(shù)字世界和評估預(yù)測越來越受算法的影響。算法可以決定你看到的網(wǎng)絡(luò)內(nèi)容,可以評估你的職業(yè)去向,可以預(yù)測你的生活滿意度。甚至,算法可以決定對犯罪嫌疑人的犯罪風(fēng)險(xiǎn)評估,可以設(shè)定自動駕駛汽車的風(fēng)險(xiǎn)規(guī)避次序,可以決定智能武器的攻擊人群和殺傷程度。[31]問題在于:人工智能系統(tǒng)承擔(dān)的決策是否真正不偏不倚,公平客觀?首先,公平是個模糊概念,很難被量化,其次,即便可以量化,公平被量化、被算法化也可能帶來歧視問題。再次,算法好壞取決于所使用的數(shù)據(jù)好壞,現(xiàn)實(shí)情況是,數(shù)據(jù)在很多方面是不完美的,既可能無法全面覆蓋,也可能存在地區(qū)失衡,基于不完美的數(shù)據(jù)進(jìn)行的決策必然會產(chǎn)生偏見和歧視。最后,可量化、算法化的智能系統(tǒng),決定決策結(jié)果的不再是規(guī)則,而是代碼。某種程度上,歧視是算法規(guī)則無法避免的,“歧視在很多情況下都是算法的副產(chǎn)品,是算法的一個難以預(yù)料的、無意識的屬性,而非編程人員有意識的選擇,更增加了識別問題根源或者解釋問題的難度?!盵32]這就是人工智能決策困境的真正來源。也正由此,在自主決策系統(tǒng)廣泛應(yīng)用于日常生活的數(shù)字時代,人們必須意識到:算法是無法確保公平的,必須重視并努力克服基于算法而產(chǎn)生的人工智能自主決策機(jī)制的內(nèi)在缺陷。
決策是指向未來的規(guī)則與設(shè)計(jì),但人工智能決策系統(tǒng)的依據(jù)是過去的數(shù)據(jù)。換句話說,是用過去的數(shù)據(jù)推測未來的趨勢。其中,算法模型和數(shù)據(jù)輸入直接決定著預(yù)測的結(jié)果。一方面,算法模型是由設(shè)計(jì)者和開發(fā)者借助代碼書寫的個人意見,主觀色彩和個人偏見很容易嵌入算法規(guī)則;另一方面,數(shù)據(jù)的有效性、準(zhǔn)確性、及時性,隨時影響著算法和預(yù)測的準(zhǔn)確性、科學(xué)性和規(guī)范性。另外,一旦某個算法模型產(chǎn)生了歧視,這種歧視完全可能被不斷鞏固、強(qiáng)化和放大。因?yàn)樗惴Q策會形成一個“歧視性反饋循環(huán)”,用不準(zhǔn)確、有偏見的數(shù)據(jù)去設(shè)計(jì)算法,再用這種算法得出的運(yùn)行結(jié)果來反饋,原有的偏見會再度擴(kuò)大、加強(qiáng)。按這個邏輯,算法完全可以基于偏見創(chuàng)造一個歧視的現(xiàn)實(shí)?!八惴Q策其實(shí)缺乏對未來的想象力,而人類社會的進(jìn)步需要這樣的想象力。”[33]
人工智能的精準(zhǔn)治理原則
人工智能時代,如何同時面對如火如荼的AI發(fā)展態(tài)勢、爭執(zhí)不下的人類命運(yùn)焦慮以及期待、擔(dān)憂和質(zhì)疑心理并存的廣大民眾輿論?如何確保在順應(yīng)技術(shù)革新大潮的前提下,既鼓勵人工智能的正常發(fā)展,又合理規(guī)避可能的風(fēng)險(xiǎn)?這就需要政府、市場和公民社會等多元主體攜手合作、共同參與,從而構(gòu)建多層次、多樣性的AI治理模式。由于AI技術(shù)的創(chuàng)新與應(yīng)用仍處于快速生長期,真正的人工智能時代尚未到來,智能技術(shù)引發(fā)的深層次矛盾與根本性問題只露冰山一角,現(xiàn)在就規(guī)劃和設(shè)計(jì)具體而微的法律法規(guī)和倫理信條既不現(xiàn)實(shí),也為時尚早,因此,思考如何應(yīng)對人工智能的基本原則和根本態(tài)度是必要而緊迫的。
第一,創(chuàng)新原則。治理應(yīng)當(dāng)建立在技術(shù)與產(chǎn)業(yè)革新的基礎(chǔ)之上。這是AI時代精準(zhǔn)治理觀念的必要前提??茖W(xué)的進(jìn)步,技術(shù)的發(fā)展,新生事物、新興產(chǎn)業(yè)的出現(xiàn),自然會對傳統(tǒng)的治理觀念、監(jiān)管政策產(chǎn)生挑戰(zhàn),這種沖擊是必然的。但這種沖擊并不必然意味著治理主體的解體和治理權(quán)威的喪失,它僅意味著:如果不能及時調(diào)整治理策略和監(jiān)管政策,治理效果暫時會大打折扣,治理行為短時間會失去信度和效度而已。2015年,美國加州機(jī)動車輛管理局提出一項(xiàng)治理草案,以安全考慮為由規(guī)定:所有在加州公路上行駛的無人駕駛汽車必須有方向盤和制動踏板,且司機(jī)必須坐在駕駛座位上。這種規(guī)定顯得很滑稽,因?yàn)樗c無人駕駛本身的出發(fā)點(diǎn)和基本理念背道而馳。
第二,適度原則。治理應(yīng)當(dāng)適度控制,保持權(quán)力的謙遜。對于技術(shù)的進(jìn)步與市場的創(chuàng)新,有時需要時間和環(huán)境去試錯、去調(diào)適,更多時候可以交由市場規(guī)律來自然選擇。正所謂,物競天選,優(yōu)勝劣汰。激烈的行業(yè)競爭,豐厚的市場利潤,都是治理秩序的非體制保障因素。即使政府不額外制定相關(guān)的問責(zé)制,產(chǎn)品的責(zé)任條款和法律的追責(zé)效力,都會維持人工智能行業(yè)及其產(chǎn)品自身的靈活和穩(wěn)健,能處理絕大部分當(dāng)前出現(xiàn)的問題。2015年10月19日,國務(wù)院發(fā)布《關(guān)于實(shí)行市場準(zhǔn)入負(fù)面清單制度的意見》,提出自2018年起全國統(tǒng)一實(shí)行“市場準(zhǔn)入負(fù)面清單制度”,除清單上明確列出的在中國境內(nèi)禁止和限制投資經(jīng)營的行業(yè)、領(lǐng)域、業(yè)務(wù)外,其他的皆可依法平等進(jìn)入。這種負(fù)面清單制度是適度治理原則的最佳體現(xiàn)。只有權(quán)力保持謙遜,才能使市場主體獲得更多的主動權(quán)、積極性和無限活力,才能構(gòu)建更加開放、透明、公開的市場管理機(jī)制。
第三,平衡原則。AI治理擺脫泛安全化誤區(qū)。每個行業(yè)都存在安全問題,如食品、交通、通訊、環(huán)保、餐飲,等等。絕不能因?yàn)槟硞€行業(yè)存在風(fēng)險(xiǎn)就主動限制其發(fā)展和進(jìn)步。若以安全問題否定新變化,那么科技領(lǐng)域的任何一點(diǎn)進(jìn)步和發(fā)展都會成為泡影。人工智能的廣泛應(yīng)用使人類可以遠(yuǎn)離一線操作,這種傳統(tǒng)人為監(jiān)管形式的缺位不禁使政府和民眾產(chǎn)生了深深的憂慮:飛馳的自動汽車,握著手術(shù)刀的智能機(jī)器,若沒有人類在場,還那么穩(wěn)定可靠、值得信賴嗎?萬一失誤了又如何是好?實(shí)際上,很多人沒有想過,這些新興人工智能產(chǎn)品相比傳統(tǒng)產(chǎn)品、服務(wù)的風(fēng)險(xiǎn)是否更大?當(dāng)人們在擔(dān)心Uber、谷歌的自動駕駛汽車造成的交通意外時,是否對比過人類每年數(shù)以百萬計(jì)的生命在交通事故中喪失?其實(shí),我們更應(yīng)該明確,人工智能設(shè)備和產(chǎn)品新產(chǎn)生的問題如何通過配套制度加以控制和解決。穩(wěn)定與進(jìn)步、安全與發(fā)展問題,向來都是一對矛盾體。只有找到兩者之間的平衡點(diǎn),才能做到既不粗暴地扼殺,也不任其自由地泛濫?;ヂ?lián)網(wǎng)初創(chuàng)時期,網(wǎng)絡(luò)上盜版橫行,秩序混亂。如何既維持互聯(lián)網(wǎng)的發(fā)展,又保護(hù)版權(quán),成為一個令人頭疼的問題。1998年美國通過《數(shù)字千年版權(quán)法案》,規(guī)定網(wǎng)絡(luò)服務(wù)提供商只提供空間服務(wù),如果被告知侵權(quán),則有刪除義務(wù),否則就視為侵權(quán)。[34]這種“告知—刪除”原則的制度設(shè)計(jì),既加強(qiáng)了網(wǎng)絡(luò)版權(quán)保護(hù),也限定了網(wǎng)絡(luò)服務(wù)商的義務(wù)范圍,既保持了知識產(chǎn)權(quán),也促進(jìn)了產(chǎn)業(yè)發(fā)展,堪稱現(xiàn)代治理的典范案例。這一立法原則也為世界各國仿效,包括我國。
第四,多元原則。人工智能時代的精準(zhǔn)治理是一種多元主體共同參與的多層次、多維度、多樣式的治理模式。首先,作為人工智能的利益相關(guān)者,政府、企業(yè)、社會組織和廣大民眾必須聯(lián)手應(yīng)對新問題和新現(xiàn)象。實(shí)際上,各方各有所長,各有所短。作為現(xiàn)代治理主導(dǎo)力量和公共政策制定者的政府往往缺乏專業(yè)技術(shù)儲備、技術(shù)預(yù)見性和行業(yè)前瞻性,作為技術(shù)開發(fā)者和推廣者的企業(yè)則無法保持令人信服的中立性,權(quán)威性也不足,而作為人工智能直接受眾的廣大民眾和社會組織雖然其日常生活和基本權(quán)益倍受影響卻無法成為主導(dǎo)性力量。顯然,最佳的治理策略必須是各方聯(lián)合行動、共同參與,在對話、協(xié)商甚至彼此競爭、相互博弈中尋找最為合理的解決方案。美國政府近期出臺的《為人工智能的未來做好準(zhǔn)備》明確鼓勵私人、公共機(jī)構(gòu)和社會組織通過合理的方式向機(jī)器學(xué)習(xí),利用人工智能造福人類,甚至考慮到政府技術(shù)性知識普遍落后的現(xiàn)狀,明確建議相關(guān)產(chǎn)業(yè)與政府合作,幫助政府及時獲知人工智能產(chǎn)業(yè)最新發(fā)展動態(tài),包括近期取得的突破。其次,政府、市場、社會組織和公民個體應(yīng)各司其職、各盡其能,以適當(dāng)?shù)慕巧?、合理的方式同步參與治理,從而構(gòu)建多層次、多維度、多樣式的治理模式。政府作為公共利益和廣大民意的代言人,應(yīng)牢牢把握人工智能的發(fā)展方向和治理基調(diào),使其向滿足廣大人民美好生活需要的方向發(fā)展;同時,作為國家安全與社會穩(wěn)定的守衛(wèi)者,政府應(yīng)為人工智能產(chǎn)業(yè)制定統(tǒng)一的安全標(biāo)準(zhǔn)和必要的法律規(guī)范。市場企業(yè)作為人工智能技術(shù)的開發(fā)者和擁有者,在承擔(dān)科技研發(fā)和應(yīng)用推廣重任的基礎(chǔ)上,還要承擔(dān)相應(yīng)的社會責(zé)任,以符合法律法則和倫理道德的標(biāo)準(zhǔn)自我約束,自我監(jiān)督。社會組織和廣大民眾則需要以理性、冷靜和平常的心態(tài)看待人工智能的新興發(fā)展,積極參與相關(guān)規(guī)則的制定,主動介入監(jiān)督與監(jiān)管,從而自下而上形成健康向上、充滿活力的協(xié)同治理體系。作為現(xiàn)代知識生產(chǎn)者和傳播者的知識分子群體,更應(yīng)積極關(guān)注這場重要的技術(shù)變革,及時觀察、理性反思并深度思考人工智能的最新發(fā)展、可能引發(fā)的社會問題,從而為未來AI時代的可能到來提供必要的知識準(zhǔn)備和智慧指引。
歸根到底,人工智能是由人類創(chuàng)造的,它的走向取決于人類的集體意識而非機(jī)器的意志。而毋庸置疑的是,人工智能終將打開一個通向新世界的大門?!度祟惡喪贰泛汀段磥砗喪贰返淖髡哂韧郀枴ず绽?017年7月6日在XWORLD首屆大會上提出,“當(dāng)你作為一個個人,一家企業(yè)、政府部門,或者作為精英階層,我們在做人工智能的時候,做各種各樣決定的時候,一定要注意人工智能不僅僅是單純的技術(shù)問題,同時也要注意到人工智能以及其他技術(shù)的發(fā)展,將會對社會、經(jīng)濟(jì)、政治產(chǎn)生深遠(yuǎn)的影響?!盵36]那么,在人類有史以來最偉大的發(fā)展面前,人類勢必面對這樣的終極選擇:是調(diào)整既有秩序甚至價(jià)值體系走進(jìn)人類智能世界,還是將人工智能嵌入人類千百萬年所構(gòu)建的世界秩序之中?是大力發(fā)展人工智能,將大量重復(fù)性簡單勞動甚至醫(yī)生、律師等專業(yè)性工作交付給人工智能,還是適當(dāng)控制人工智能的無限蔓延,將其始終置于勞動工具的地位,從而確保人類的勞動權(quán)利乃至人格尊嚴(yán)?若有選擇權(quán),治理主體是選擇讓超級智能成真,還是控制技術(shù)的進(jìn)程?也許我們不需要立即回答這些問題,但這些問題終究要面對。
我們即將走進(jìn)一個AI的新時代。這意味著國家治理體系和治理能力務(wù)必實(shí)現(xiàn)從傳統(tǒng)治理到互聯(lián)網(wǎng)治理,再到AI治理的跨級飛躍。人工智能對于國家治理現(xiàn)代化是把雙刃劍,治理能力與水平對于人工智能也是如此。人工智能的早期發(fā)展,需要國家治理提供寬松的環(huán)境和強(qiáng)力的支持,而當(dāng)技術(shù)逐漸成熟并蓄勢待發(fā)且準(zhǔn)備在人類社會生長時,治理主體的缺位、治理能力的羸弱就可能導(dǎo)致生產(chǎn)秩序混亂、權(quán)責(zé)不清、道德憂慮等后果。因此,“如何在適當(dāng)?shù)臅r機(jī)進(jìn)行適度的監(jiān)管及政策支持,既保證AI的‘鮮嫩又不傷害‘食用AI的人類本身,使科技既保持活力充沛又不恣意妄為,是AI治理所面臨的根本挑戰(zhàn)。”[37]在當(dāng)下,人類必須時刻提醒自己:對于人工智能,不要低估它的能力和發(fā)展,也不要高估它的風(fēng)險(xiǎn)與威脅。未雨綢繆,防患未然,總是對的。
(本文系國家社科基金項(xiàng)目“當(dāng)代西方政治思想中的國家理論跟蹤研究”和中國政法大學(xué)優(yōu)秀中青年教師培養(yǎng)支持計(jì)劃資助項(xiàng)目“當(dāng)代西方國家理論最新發(fā)展研究”的階段性研究成果,項(xiàng)目編號分別為:14BZZ007、DSJCXZ180305)
注釋
[1]何哲:《通向人工智能時代》,《電子政務(wù)》,2016年第12期,第3頁。
[2][3][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版集團(tuán),2016年,推薦序,第4~5頁。
[4][英]瑪格麗特·博登:《AI:人工智能的本質(zhì)與未來》,孫詩惠譯,北京:中國人民大學(xué)出版社,第28~52頁。
[5]周志敏、紀(jì)愛華:《人工智能:改變未來的顛覆性技術(shù)》,北京:人民郵電出版社,2017年,第187頁。
[6][意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,杭州:浙江人民出版社,2016年,第104~108頁。
[7][8]馮昭奎:《辯證解析機(jī)器人對日本經(jīng)濟(jì)的影響》,《日本學(xué)刊》,2016年第3期,第73、79頁。
[9]國務(wù)院:《新一代人工智能發(fā)展規(guī)劃》,http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,上網(wǎng)時間:2018年4月8日。
[10]何哲:《通向人工智能時代》,《電子政務(wù)》,2016年第12期,第9頁。
[11][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類時代的終結(jié)》,閭佳譯,北京:電子工業(yè)出版社,2016年,第255~270頁。
[12][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個大問題》,任莉等譯,北京:人民郵電出版社,2017年,第169頁。
[13][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版集團(tuán),2016年,第237~238頁。
[14][美]杰瑞·卡普蘭:《人工智能時代》,李盼譯,杭州:浙江人民出版社,2016年,第100~101頁。
[15]王潘:《無人機(jī)反恐優(yōu)勢明顯 但容易造成誤傷》,http://tech.qq.com/a/20151117/026105.htm,上網(wǎng)時間:2018年4月18日。
[16][美]伊恩·艾瑞斯:《大數(shù)據(jù):思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第174頁。
[17][18][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,第243頁。
[19][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個大問題》,任莉等譯,北京:人民郵電出版社,2017年,第166頁。
[20][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,第245~246頁。
[21][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類時代的終結(jié)》,閭佳譯,北京:電子工業(yè)出版社,2016年,第15頁。
[22][美]詹姆斯·亨德勒:《社會機(jī)器:即將到來的人工智能、社會網(wǎng)絡(luò)與人類的碰撞》,王曉等譯,北京:機(jī)械工業(yè)出版社,2018年,第190~195頁。
[23][24][美]皮埃羅·斯加魯菲:《智能的本質(zhì)》,第164頁。
[25]觀察者網(wǎng):《人類首次授予機(jī)器人索菲亞沙特國籍》,https://www.guancha.cn/industry-science/2017_10_27_432496_1.shtml,上網(wǎng)時間:2018年4月18日。
[26]新浪視頻:《世界首位機(jī)器人公民回應(yīng)AI威脅論:人不犯我,我不犯人》,http://video.sina.com.cn/view/251829657.html,上網(wǎng)時間:2018年4月18日。
[27]騰訊科技:《世界首個機(jī)器人公民索菲亞:我想成家還想要個女兒》,http://tech.qq.com/a/20171127/010416.htm,上網(wǎng)時間:2018年4月18日。
[28][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組,北京:中信出版集團(tuán),2016年,第252頁。
[29]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,北京:中國人民大學(xué)出版社,2017年,第240頁。
[30][美]伊恩·艾瑞斯:《大數(shù)據(jù):思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第172~173頁。
[31]劉凡平:《大數(shù)據(jù)時代的算法》,北京:電子工業(yè)出版社,2017年,第155~172頁。
[32]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第243頁。
[33]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第245頁。
[34][英]維克托·邁爾-舍恩伯格、肯尼思·庫克耶:《大數(shù)據(jù)時代:生活、工作與思維的大變革》,盛楊燕等譯,杭州:浙江人民出版社,2013年,第231頁。
[35]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第338頁。
[36]尼克:《人工智能簡史》,北京:人民郵電出版社,2017年,第224頁。
[37]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第329頁。
責(zé) 編/馬冰瑩