董沐野
摘要:當(dāng)今時(shí)代,人工智能技術(shù)給我國的發(fā)展帶來了一次發(fā)展機(jī)遇,同時(shí)也帶來了挑戰(zhàn)?!皳屪C(jī)遇,乘勢(shì)而上”是官商學(xué)界普遍一致達(dá)成共識(shí)的觀點(diǎn)。我國作為世界大國,在面對(duì)人工智能安全問題方面更需要慎重考慮。事實(shí)上,人工智能導(dǎo)致的安全問題已經(jīng)影響到了國家的方方面面。筆者首先對(duì)人工智能技術(shù)引發(fā)的安全風(fēng)險(xiǎn)進(jìn)行了闡述,并提出了可行的對(duì)策。
關(guān)鍵詞:人工智能;安全問題;對(duì)策
前言
近年來,在人工智能技術(shù)持續(xù)發(fā)展的過程中,盡管人工智能是人類依靠程序設(shè)計(jì)出來,但是依靠人工智能的運(yùn)行,可以在某些領(lǐng)域超出人類的表現(xiàn),從而對(duì)人類產(chǎn)生威脅。因此,人類必須對(duì)人工智能的安全問題進(jìn)行研究,從而提出解決對(duì)策。
1.人工智能隱含的安全風(fēng)險(xiǎn)分析
人工智能的智能化程度越高,其風(fēng)險(xiǎn)越是凸顯。英國科學(xué)家斯蒂芬·霍金教授曾經(jīng)預(yù)言,人工智能有可能會(huì)毀滅人類。因此,如何對(duì)人工智能掌握控制權(quán),這是人類需要思考的問題。世界上的多個(gè)國家都非常重視人工智能的發(fā)展,并且關(guān)注其危險(xiǎn)性。對(duì)于人工智能技術(shù)在應(yīng)用過程中的安全風(fēng)險(xiǎn),主要包括這幾個(gè)方面。
1.1國家安全風(fēng)險(xiǎn)
在人工智能技術(shù)的輔助下,機(jī)器的智能化程度越來越高,當(dāng)其達(dá)到了一定的程度,很可能使國家發(fā)展出現(xiàn)較大的變革。有專家學(xué)者認(rèn)為,新一代人工智能會(huì)成為重要的戰(zhàn)略威懾力量,類似于“擁核自重”。如果國家被人工智能所控制,那么這個(gè)國家可能會(huì)出現(xiàn)一些問題。蘭德公司曾經(jīng)發(fā)布報(bào)告《人工智能對(duì)核戰(zhàn)爭(zhēng)風(fēng)險(xiǎn)的影響》,該報(bào)告預(yù)言,在2040年,人工智能甚至有可能超過核武器的威力。另外,如果人類對(duì)人工智能技術(shù)進(jìn)行濫用,那么極有可能出現(xiàn)失控的情況,人們獲得人工智能技術(shù)較為容易,但是對(duì)其管理和控制難度較大,濫用人工智能技術(shù)的后果非常嚴(yán)重,很有可能對(duì)國家政權(quán)產(chǎn)生威脅,甚至誘發(fā)社會(huì)動(dòng)蕩的產(chǎn)生。
最后,人工智能應(yīng)用存在安全風(fēng)險(xiǎn),如果對(duì)其失察,那么就會(huì)帶來較多的不確定性。比如,近年來,一些西方國家使用大數(shù)據(jù)分析部署“機(jī)器人水軍”借助網(wǎng)絡(luò)來干擾選舉,或者一些別有用心的公司使用人工智能來干擾選民意見的行為時(shí)有發(fā)生。
1.2軍事安全風(fēng)險(xiǎn)
人工智能這項(xiàng)技術(shù)得到了軍方的密切關(guān)注。首先,每年有一些國家投入大量的人力物力于“致命性自動(dòng)武器”,這種行為是個(gè)體行為,很容易引發(fā)機(jī)器自動(dòng)殺人事故,其安全隱患極大。其次,現(xiàn)在,有一些國家可能通過商業(yè)力量去研發(fā)工業(yè)機(jī)器人,從而得到“機(jī)器人戰(zhàn)士”,這樣導(dǎo)致的后果是智能化武器裝備的增加,人工智能必定會(huì)給國家的軍事安全帶來越來越大的風(fēng)險(xiǎn)。
1.3社會(huì)安全風(fēng)險(xiǎn)
隨著人工智能技術(shù)大力推廣,其打破法律和道德限制的概率逐漸增加,必定導(dǎo)致社會(huì)生活的安全威脅增加。首先,在若干年的某一天,智能社會(huì)到來,那么現(xiàn)在需要人工實(shí)現(xiàn)的工作將又智能機(jī)器人所代替,“機(jī)器吃人”的悲劇將在各行各業(yè)上演,這樣導(dǎo)致的直接結(jié)果是大量的勞動(dòng)者會(huì)處于失業(yè)狀態(tài)。當(dāng)一個(gè)國家的失業(yè)人數(shù)過多,其社會(huì)穩(wěn)定性就難以得到保障。其次,隨著智能技術(shù)的提升,物聯(lián)網(wǎng)技術(shù)也得到提高,萬物互聯(lián)成為一種非常普遍的現(xiàn)象。如此,個(gè)人隱私暴露,當(dāng)個(gè)人信息被別有用心的人所利用之后,網(wǎng)絡(luò)信息安全問題就出現(xiàn)了。
2.解決人工智能安全問題的思路
2.1預(yù)先設(shè)定人工智能設(shè)備在設(shè)定道德范疇內(nèi)行動(dòng)
為了人工智能的安全隱患,必須首先考慮倫理道德方面的問題。就機(jī)器人而言,其人權(quán)的問題曾經(jīng)是西方學(xué)者關(guān)注的對(duì)象。當(dāng)人類與機(jī)器人在互動(dòng)的時(shí)候,要使機(jī)器人道德判斷能力和行為判斷能力得到設(shè)定,使機(jī)器人受到道德的約束。只有做好倫理方面的設(shè)計(jì),才能使智能機(jī)器人具有較高的道德素質(zhì),從而降低了其危害人類的概率。
2.2限定人工智能的應(yīng)用范圍
目前,人工智能技術(shù)還不成熟,關(guān)于人工智能的爭(zhēng)議較大的一個(gè)重要原因是其安全性問題的存在。但是,如果能夠?qū)ζ鋺?yīng)用范圍進(jìn)行限定,那么就能夠使人工智能設(shè)備與人保持和平相處。就克隆技術(shù)來講,人類先后在羊、豬、狗等的動(dòng)物身上實(shí)現(xiàn)了成功克隆,而對(duì)于克隆人類的行為,由于倫理問題無法解決,所以無法進(jìn)一步將克隆技術(shù)進(jìn)行應(yīng)用。事實(shí)上,很多國家已經(jīng)頒布了相關(guān)法律法規(guī)杜絕人類克隆。所以,為了保障人類的安全,是有必要對(duì)人工智能的應(yīng)用范圍做限定的。當(dāng)AlphaGo機(jī)器人戰(zhàn)勝圍棋世界冠軍李世乭時(shí),人工智能就備受關(guān)注,而當(dāng)機(jī)器人Master 7天內(nèi)連勝60場(chǎng)比賽時(shí),帶來的則是舉世驚嘆。與此同時(shí),這也說明了人工智能正在逐漸給人類帶來威脅。
2.3人工智能安全評(píng)估和管理
為了有效解決人工智能安全問題,對(duì)人工智能產(chǎn)品的安全進(jìn)行深入的評(píng)估和管理是非常有必要的。安全評(píng)估就是對(duì)人工智能產(chǎn)品對(duì)人類產(chǎn)生的危害進(jìn)行量化估計(jì),對(duì)其發(fā)生概率進(jìn)行計(jì)算,從而判定其危害的程度并劃分等級(jí),從而方便人類采取應(yīng)對(duì)措施。進(jìn)一步地,根據(jù)劃分等級(jí)給出處理建議,從而為人工智能產(chǎn)品獲得更高的安全性而采取措施.
3.結(jié)語
綜上所述,隨著人工智能技術(shù)的不斷發(fā)展,也許在未來的某年某月某日,人工智能必然會(huì)超越人類智能,同時(shí)人工智能的發(fā)展,也讓人們感受到了威脅,缺乏控制的人工智能,必然會(huì)給人類帶來巨大災(zāi)難。鑒于此,我們必須重視人工智能的安全問題,妥善采取合適的策略:預(yù)先設(shè)定人工智能設(shè)備在設(shè)定道德范疇內(nèi)行動(dòng),限定人工智能的應(yīng)用范圍,對(duì)人工智能進(jìn)行深入的安全評(píng)估和管理。
參考文獻(xiàn)
[1]霍金斯、布拉克斯莉:《人工智能的未來》,賀俊杰、李若子、楊倩譯,陜西科學(xué)技術(shù)出版社,2006,第224頁
[2]國發(fā)[2017]35號(hào)《新一代人工智能發(fā)展規(guī)劃》[R]2017.7
[3]全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì).大數(shù)據(jù)安全標(biāo)準(zhǔn)化白皮書[R]2017.4
[4]劉飛.人工智能技術(shù)在網(wǎng)絡(luò)安全領(lǐng)域的應(yīng)用研究[J].電子制作,2016(17):32-33.
[5]林婧.關(guān)于人工智能的淺析[J]. 網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2014(10):191-192.