唐 蜜
(中國刑事警察學院,遼寧 沈陽 110854)
在時代快速進步的過程中,我們需要認識到我國對于人工智能的研究與開發(fā)還存在許多阻礙和困難,想要順利推動人工智能技術發(fā)展還要走很多彎路并克服許多難題。特別是人工智能在進行自我創(chuàng)造和學習的過程中,往往會引發(fā)道德與倫理層面的問題。人工智能時代是一個全新的時代,其對于傳統(tǒng)法律理念以及現(xiàn)有法律法規(guī)造成了巨大沖擊,在人工智能時代的沖擊作用下,我們還需要對相關法律法規(guī)進行調(diào)整和完善。
在人工智能技術不斷發(fā)展的過程中,各行業(yè)、領域的人都可以使用人工智能技術進行工作,該技術為各行業(yè)、領域的發(fā)展提供了巨大的便利。在這個過程中,也有人會利用人工智能技術從事違法犯罪活動,并且基于人工智能技術的犯罪活動危害程度進一步加深。在科技不斷進步的背景下,我們需要認識到人們對于人工智能技術的依賴性越來越強,在人們對于人工智能依賴性超過現(xiàn)實理想的情況下,一旦有人利用人工智能技術從事違法犯罪活動,將會對社會的健康發(fā)展造成嚴重影響,嚴重影響著社會的安全和穩(wěn)定。比如如果有企業(yè)在人工智能領域取得巨大進展之后,利用人工智能技術盜取競爭企業(yè)的基本信息,必然會影響市場的良性競爭氛圍,長期處于這種狀態(tài)可能會對我國經(jīng)濟發(fā)展產(chǎn)生負面影響。
人工智能時代下存在的一些犯罪活動,與傳統(tǒng)犯罪活動存在明顯差異,一些不法分子利用人工智能技術可以獲取許多有用的數(shù)據(jù)、信息。比如有些不法分子充分結合了人工智能技術與大數(shù)據(jù)技術,開發(fā)出了一種新的犯罪模式。嚴格意義上講,人工智能之所以能夠?qū)崿F(xiàn)對各類數(shù)據(jù)的控制,得益于其依靠系統(tǒng)化的程度編碼,如果能夠合理運用這些數(shù)據(jù),對于時代進一步發(fā)展有著巨大的推動作用。不過一旦有人濫用這些數(shù)據(jù)或者落到一些不法分子手里,必然會對社會的健康發(fā)展造成危害,嚴重違背了人工智能技術的研發(fā)初衷,會導致社會的健康發(fā)展受到一定程度的危害。這些數(shù)據(jù)被不法分子掌握之后,可能會對市場穩(wěn)定、企業(yè)發(fā)展、國家安全等方面造成威脅。
人們在使用人工智能技術的過程中,應當認識到智能機器人本身是不具備“人”的智能,也就是說無法像正常的人一樣分辨、控制事物,在實際使用該技術的時候無法有效分辨使用者的程度是否符合社會道德要求以及相關法律規(guī)范。比如有人在開發(fā)和使用智能機器人的過程中,一旦涉及違法操作的情況,智能機器人本身是無法拒絕違法指令的。從這點就可以看出,人工智能技術的發(fā)展和應用為許多不法分子提供了可乘之機,不法分子可能會利用人工智能技術做出一些危害社會的事情。在科技不斷進步的背景下,我們可以發(fā)現(xiàn)少數(shù)智能機器人已經(jīng)具備了自我學習的能力,而在未來高科技的促進下智能機器人的這種自我學習能力過強,是否會與人的本意相違背也未可知[1]。在智能機器人自身行為失去程序控制的情況下,可能會對社會產(chǎn)生一些消極的影響,嚴重可能會對社會的發(fā)展造成毀滅性打擊。這些問題都是人工智能技術發(fā)展和應用過程中非常容易產(chǎn)生的刑事風險,所以我們還應當深入對人工智能時代下的刑事風險進行分析,確??梢酝ㄟ^法律的手段來應對和解決這些風險。充分將人工智能技術發(fā)展過程中存在的潛在風險進行規(guī)避,完全挖掘人工智能技術的正向價值,不斷為社會進步鞏固基礎,同時還可以利用人工智能技術有效遏制不法分子從事影響社會正常秩序的行為。
人工智能技術的發(fā)展并不能為智能機器人創(chuàng)設人格,但是智能機器人在某些方面的行為早已經(jīng)超出了人類的認知,所以還存在著大量潛在性風險項。比如不法分子可以在短短的幾秒鐘之內(nèi),就能夠獲取危害國家安全的信息,在這些信息被不法分子掌握后,造成的損失是無法估量的。比如不法分子可以利用深度換臉技術,真實還原他人的肖像素材,在視頻甚至在直播過程中進行換臉。從目前的情況來看,該技術的使用門檻非常低,其危害性目前已經(jīng)逐漸延伸到了詐騙、盜竊等犯罪領域中,造成了許多公民的財產(chǎn)損失。
從一定程度上,人工智能通過深度學習的方式已經(jīng)具備了“人”的智能,如果說傳統(tǒng)犯罪還具有較高的技術門檻,那么人工智能技術的出現(xiàn)就充分降低了這一門檻,從一定程度上來講,人工智能技術進一步強化了智能犯罪行為的類型以及侵犯的程度。比如有不法分子利用換臉技術傳播色情視頻,存在惡意侮辱、誹謗他人的行為,這種犯罪形式充分建立在人工智能技術的基礎之上,已經(jīng)完全突破了傳統(tǒng)侮辱、誹謗行為的界限。行為對象視角下的人工智能,與傳統(tǒng)犯罪相比目前已經(jīng)成為《刑法》理論研究的重點[2]。人工智能具有一定工具屬性,但這并非意味著其不存在被騙的可能,也就是說人工智能技術也會被騙。該技術具有的復雜化、深度化,決定了其工具屬性并不是簡單通過意志有無進行界定。站在功能主義的角度思考,在設計目的不同的情況下實現(xiàn)了人工智能的工具屬性本身的價值分野,所以在人工智能的意思表示判定中應當充分重視人工智能的客觀功能地位。也就是說人工智能技術能否被騙,所涉及的處分意思和處分行為等要素,并不是僅僅依靠人工智能產(chǎn)品的人格有無或智能水平來界定的。比如國際頂尖的圍棋選手可能無法擊敗僅有人類6歲智力水平的人工智能,但是人工智能在普通學校考試中并不能取得良好成績,從一定程度上就反映出了人工智能工具意識類型化的特殊性。
從前,許多人都沒有意識到濫用人工智能也是犯罪的一種。從人工智能技術的發(fā)展現(xiàn)狀來看,開發(fā)者和利用者一旦通過人工智能技術進行犯罪,不僅會極大損害人們的利益,同時也很難在短時間內(nèi)給出一套行之有效的解決方案,所以針對這一現(xiàn)象還需要深入進行研究[3]。人工智能時代下如何規(guī)避各類刑事風險并進行《刑法》應對,目前已經(jīng)成為學術界研究的重點。在從前我國《刑法》還沒有對濫用人工智能而導致的犯罪進行明確界定,也就是說在從前的社會中不存在人工智能犯罪這一客觀事物。但是從人工智能技術的發(fā)展情況來看,我們還應當緊跟社會發(fā)展的步伐,將人工智能犯罪納入我國《刑法》體系當中,避免在濫用人工智能的情況下導致違法犯罪事件的發(fā)生。
比如在當前的社會中,有許多不法分子通過推出人工智能產(chǎn)品的方式進行犯罪,在這樣的情況下不僅會損害人們的合法權益,同時也會對國家的核心利益造成影響,嚴重危害我國的安全性和穩(wěn)定性,對國家社會的穩(wěn)定、快速發(fā)展產(chǎn)生了非常大的負面影響。人工智能技術的發(fā)展為人們的生活、工作創(chuàng)造了巨大便利,這也是人工智能存在并發(fā)展的主要意義,而不是利用人工智能技術進行犯罪。如果使用人工智能技術進行犯罪,該技術將會變成社會發(fā)展中的一顆定時炸彈,其存在也就沒有任何意義。為了進一步維護國家安全,我們必須學會正確對人工智能所引發(fā)的違法犯罪行為進行規(guī)避,確保人工智能技術在符合國家相關法律標準的情況下進行試用。我國從前在使用人工智能的過程中,缺少來自法律層面的約束,導致許多人工智能開展開發(fā)者利用這一法律漏洞從事違法犯罪活動。針對人工智能技術建立并完善相關法律法規(guī)之后,能夠?qū)Σ环ǚ肿舆M行威懾,進一步保障了人工智能技術使用過程中的規(guī)范性、合法性,充分發(fā)揮出人工智能技術推動社會高質(zhì)量發(fā)展的速度,降低了人工智能技術濫用過程中對社會造成的危害?!缎谭ā放c其他法律不同,本身其就具有強大的威懾效果,對于利用人工智能進行犯罪的不法分子有很大的威懾力,尤其是能夠進一步維護人們的生命、財產(chǎn)安全,可以有限避免濫用人工智能的現(xiàn)象出現(xiàn),確保人工智能技術在發(fā)展的過程中不會給人們的生活、工作帶來消極影響。從目前的情況來看,我國在規(guī)避人工智能所帶來的風險時還存在許多問題,并且刑法的完善度還不夠,因此需要結合人工智能技術的發(fā)展現(xiàn)狀深入社會進行調(diào)查,明確社會上現(xiàn)存的人工智能犯罪行為,逐漸加大懲罰力度,用《刑法》來對不法分子的行為進行規(guī)范和約束,使得人工智能技術成為一項穩(wěn)定推動社會進步的技術[4]。《刑法》與其他法律實際上更具有威懾力,一般在使用《刑法》之后,如果《刑法》剝奪了犯人某項權利,那么該剝奪是不可逆的,也就是說一旦利用《刑法》進行剝奪,被剝奪的權利將無法重新獲取,通過這種方式進一步強化了《刑法》的威懾力,同時也可以確保不法分子在未來不敢再利用人工智能進行犯罪。將濫用人工智能當成是一種犯罪行為,能夠有效避免人工智能技術快速發(fā)展對社會造成的影響。
我們在使用人工智能技術的過程中應當認識到,人工智能技術本身具備的特殊性,所以只有最大限度保證人工智能開發(fā)者以及使用者的權利和義務,才可以合理對人工智能的研發(fā)控制進行控制,并確保人工智能在使用過程中的安全性,這對于維護社會穩(wěn)定有著非常重要的意義。采用法律的手段有效降低人工智能開發(fā)過程中存在的危害性,盡可能減少實際應用過程中對社會所產(chǎn)生的消極影響,是充分挖掘人工智能技術正向價值的一種手段。首先,需要通過立法的方式對人工智能技術開發(fā)者的權利、義務進行界定,確保相關人員在研發(fā)人工智能技術或開發(fā)人工智能產(chǎn)品的過程中,可以自主規(guī)避影響社會道德體系、價值體系的一些環(huán)節(jié),進一步滿足國家法律法規(guī)提出的要求,避免在研發(fā)和開發(fā)人工智能技術的過程中,讓該技術成為危害社會的一種產(chǎn)品。其次,人工智能差評在研發(fā)技術之后還需要進行相應測試,確保人工智能產(chǎn)品能夠滿足我國社會在法律、道德等層面的要求。在這個過程中,人工智能產(chǎn)品一旦出現(xiàn)了問題或發(fā)生了一些悖論性的問題,應當立即停止對產(chǎn)品的生產(chǎn)。同時在開發(fā)和生產(chǎn)人工智能產(chǎn)品的過程中,所涉及全部數(shù)據(jù)都必須具備較強的安全性,避免在使用人工智能技術及其產(chǎn)品的過程中出現(xiàn)數(shù)據(jù)上的錯誤,有效規(guī)避人工智能不合理應用過程中對社會產(chǎn)生消極影響。比如在有完善的法律法規(guī)保障下,如果人工智能產(chǎn)品的開發(fā)者和使用者沒有嚴格遵循相關法律法規(guī),那么他們就必須承擔相應的法律責任。所以通過增設新罪名的方式,對人工智能時代下出現(xiàn)的各類新型犯罪有良好的約束效果,它可以幫助我們有效規(guī)避人工時代下的各類刑事風險,進一步保障了人工智能使用中的合理性[5]。最后,對《刑法》進行完善,還應當充分考慮智能機器人的發(fā)展。比如在目前的刑法中,并沒有將智能機器人囊括其中,在人工智能技術不斷進步的情況下,智能機器人可能會做出一些違背人意識的事情,從而造成巨大的損失。所以完善法律法規(guī)的方式,將智能機器人的設計、研發(fā)理念納入相關法律體系中,對于智能機器人的設計、研發(fā)等環(huán)節(jié)起到了一定約束作用,避免智能機器人的后期行為超出人類掌控,從而對社會發(fā)展的穩(wěn)定性造成影響。
綜上所述,人工智能時代下,我國想要有效規(guī)避人工智能應用過程中存在的刑事風險,采用合理的《刑法》應對措施,應當著重對當前時代背景下存在的所有關于人工智能犯罪的問題進行分析,認識到人工智能犯罪對社會產(chǎn)生的危害。在這個過程中,我國要深入對人工智能時代下產(chǎn)生的所有新型違法犯罪行為進行調(diào)查和了解,并明確不同違法犯罪行為對社會穩(wěn)定、國家安全造成的影響,并在此基礎上采取有效的應對措施,不斷對相關法律法規(guī)進行完善,確保在發(fā)生不同類型人工智能違法犯罪事件的過程中,可以充分發(fā)揮《刑法》應對作用,進一步減少濫用人工智能的現(xiàn)象,實現(xiàn)對人工智能的有效管治。