施韻婷 劉怡君 丁嘉欣 王 露 付夢(mèng)鴿
河南科技大學(xué),河南 洛陽 471000
隨著人工智能對(duì)人類生活的不斷滲透,人工智能已經(jīng)成為我們生活中重要的組成部分。人工智能機(jī)器人已經(jīng)初步具有自我意識(shí),擁有自我表達(dá)能力,甚至可以與人類進(jìn)行簡(jiǎn)單的情感交流??上攵?,未來人工智能時(shí)代的機(jī)器人一定會(huì)更加智能化、擬人化。那么,我們將來是否有必要在法律上承認(rèn)人工智能作為法律主體呢?如果承認(rèn)了法律主體資格,侵權(quán)后的追責(zé)責(zé)任又該由誰承擔(dān)呢?這都是需要我們?nèi)ド逃懙摹?/p>
1.人工智能機(jī)器人能否具有法律主體地位?這個(gè)問題的提出不得不回到法律設(shè)立法律主體理論的初衷。首先需要明確的是法律主體的概念。法律主體是指活躍在法律之中,享有權(quán)利、負(fù)有義務(wù)和承擔(dān)責(zé)任的人。法律中的“人”是指自然人、法人和其他組織。這個(gè)“人”并不包含人工智能。我國目前并沒有承認(rèn)人工智能的主體地位,而是把它作為一個(gè)產(chǎn)品對(duì)待,但我們必須要考慮到人工智能時(shí)代機(jī)器人的發(fā)展。機(jī)器人雖無法歸類為傳統(tǒng)法律主體,但我們可以為其創(chuàng)設(shè)新的主體類型。例如,歐盟委員會(huì)曾提交過議題,要求將最先進(jìn)自動(dòng)化機(jī)器人用一個(gè)新的身份定位為“電子人”,將其作為類似自然人的主體,這在法律中成為法律擬制,它將會(huì)被設(shè)定有“特定的權(quán)利和義務(wù)”,并且還需要像“人”一樣辦理身份證,進(jìn)行戶口登記,甚至老化后還可以領(lǐng)維修基金。這一提議為我們?cè)O(shè)想人工智能時(shí)代的法律問題提供了思路。但機(jī)器人權(quán)利能力從何起始、終結(jié)的確定這一問題,目前各界說法還不一致。至于是從出廠的日期,還是主要程序被創(chuàng)作出來的日期,又或者是行政登記后開始;是被格式化的日期,還是程序解體崩潰、機(jī)械客體被銷毀的時(shí)候結(jié)束?這一問題還有待探討。
2.人工智能機(jī)器人的行為能力如何劃分?作為一個(gè)合格的法律主體,必須能夠承擔(dān)相應(yīng)法律權(quán)利和法律義務(wù),即主體合格原則,又稱有行為能力原則。把人工智能機(jī)器人考慮作為獨(dú)立的法律主體,就必須劃分它的權(quán)利能力和行為能力。自然人可以用年齡來對(duì)行為能力進(jìn)行劃分,那么人工智能機(jī)器人如何劃分呢?對(duì)此,目前有學(xué)者提出根據(jù)人工智能的智能等級(jí)進(jìn)行分類。但隨之又有新的問題產(chǎn)生,智能機(jī)器人畢竟是程序化的產(chǎn)物,它們是不斷更新升級(jí)的,而這種分類標(biāo)準(zhǔn)可能無法適應(yīng)新生的程序,因此筆者認(rèn)為這種分類方法還有待商榷。
1.公民個(gè)人信息的泄露?!澳槙鴶?shù)據(jù)門”能夠直觀地體現(xiàn)這一問題,為大家提供便捷聯(lián)系的社交工具Facebook,2018年卻出現(xiàn)劍橋分析公司“竊取”5000萬臉書用戶信息事件?;ヂ?lián)網(wǎng)大數(shù)據(jù)背景下,通過大數(shù)據(jù)分析用戶個(gè)人的喜好,AI技術(shù)人員通過自己所掌握的技術(shù)竊取用戶的個(gè)人信息,并將其在較廣范圍內(nèi)流傳,且已泄露的個(gè)人信息無法挽回。
2.隱私侵權(quán)的追責(zé)問題。人們?cè)谑褂酶鞣N智能電子產(chǎn)品時(shí)需要不斷確認(rèn)自己的個(gè)人信息,這使得用戶信息泄露的途徑進(jìn)一步擴(kuò)大。權(quán)利人要想查找自己的信息是如何泄露的,查找難度較大,查找成本過高。且人工智能時(shí)代下的隱私侵權(quán)主體難以認(rèn)定,隱私權(quán)主體想要追責(zé),其追責(zé)對(duì)象應(yīng)該是誰?是盜取用戶信息的人?還是設(shè)計(jì)銷售該技術(shù)的開發(fā)人員?又或者是購買他人信息的人……這些問題皆有待深究。
1.對(duì)倫理道德的挑戰(zhàn)
倫理,是指在處理人與人、人與社會(huì)之間的關(guān)系時(shí)應(yīng)遵循的道理和準(zhǔn)則。從古至今人們都重視道德,認(rèn)為道德一直規(guī)范著人們的行為,而法律是最低限度的道德,任何法律都內(nèi)含一定的倫理道德觀念,而人工智能的出現(xiàn),則可能對(duì)人類一直公認(rèn)的倫理道德產(chǎn)生沖擊,進(jìn)而影響法律構(gòu)建基礎(chǔ)。人工智能會(huì)對(duì)婚姻家庭倫理道德形成挑戰(zhàn),而夫妻關(guān)系的和諧穩(wěn)定,是一個(gè)國家社會(huì)穩(wěn)定的基礎(chǔ),維護(hù)夫妻間的和諧穩(wěn)定也是我們法律研究中重要的內(nèi)容。而隨著智能“女友”“男友”的出現(xiàn),通過大數(shù)據(jù)分析用戶的個(gè)人愛好,滿足用戶生理上的需求和感情上的寄托,這種情況下,會(huì)導(dǎo)致大量適婚男女不想結(jié)婚生子,也會(huì)加劇已婚男女的矛盾。
2.算法歧視會(huì)對(duì)人類傳統(tǒng)價(jià)值觀產(chǎn)生沖擊
人工智能的背后是強(qiáng)大程序支撐的智能算法,有學(xué)者認(rèn)為,算法本質(zhì)上是一種數(shù)學(xué)表達(dá)運(yùn)算與大數(shù)據(jù)分析,是很客觀運(yùn)算出來的結(jié)果,不像人類那樣受各種因素的影響,具有各種情緒和偏見,因而絕對(duì)不會(huì)產(chǎn)生歧視。然而,這種觀點(diǎn)筆者覺得并不可取。正如凱文·?凱利在其作品《失控》中所說的,“人們?cè)诎炎匀贿壿嬢斎霗C(jī)器的同時(shí),也將技術(shù)邏輯帶到了生命之中,機(jī)器人、計(jì)算機(jī)程序等人工制造物也越來越具有生命屬性”。而作為大數(shù)據(jù)處理的計(jì)算程序和人類思維的一種物化形式與人腦外延的智能算法,也正“失控性”地呈現(xiàn)出其劣根性——歧視。算法歧視會(huì)對(duì)人類傳統(tǒng)價(jià)值觀等倫理道德理念產(chǎn)生沖擊。算法歧視原因可能是算法設(shè)計(jì)者的道德價(jià)值取向不良,也可能是受到數(shù)據(jù)的來源及準(zhǔn)確性的影響,甚至可能是機(jī)器自我學(xué)習(xí)的結(jié)果。如何確保算法設(shè)計(jì)中的倫理的考量將成為一個(gè)重要問題,也要思考限制人工智能大數(shù)據(jù)的分析及產(chǎn)生法律問題后的責(zé)任問題。
目前人工智能雖然在很多領(lǐng)域都得到了廣泛應(yīng)用,但仍存在上述問題有待解決。綜上所述,在人工智能大數(shù)據(jù)背景下,我們要提前做好相應(yīng)的具體措施。
首先就是要進(jìn)行監(jiān)管,進(jìn)一步建立健全人工智能監(jiān)管體系。這一重點(diǎn)應(yīng)在人工智能的法律設(shè)計(jì)和應(yīng)用監(jiān)督并重的雙重監(jiān)管結(jié)構(gòu)上,設(shè)計(jì)好人工智能管理體系,才能實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)和后續(xù)監(jiān)督管理一系列的運(yùn)作。這就需要切實(shí)建立人工智能一體化的管理體系,加大對(duì)人工智能領(lǐng)域數(shù)據(jù)濫用等各種違法行為的懲戒力度。
一定程度上進(jìn)行機(jī)器人專門立法,將之視作人工智能作為法律主體的基本規(guī)范?!睹穹ǖ洹分腥烁駲?quán)篇著重規(guī)定互聯(lián)網(wǎng)技術(shù)下隱私權(quán)保護(hù)的相關(guān)法律規(guī)定,其中包括對(duì)隱私權(quán)的侵害行為和個(gè)人信息的定義、主體權(quán)利及處理人的免責(zé)事由、安全保障義務(wù)等多方面的明文規(guī)定。這些規(guī)定為我們靈活應(yīng)對(duì)未來人工智能帶來的沖擊和風(fēng)險(xiǎn)提供了法律依據(jù)。
法律控制是風(fēng)險(xiǎn)治理機(jī)制的重要手段。立法者必須要重視控制人工智能機(jī)器的風(fēng)險(xiǎn)功能的法治化,同時(shí)也要注重權(quán)利客體的適用的限制,以及防止權(quán)利濫用、限制權(quán)利行使等制度規(guī)則的適用,限制和排除人工智能的潛在危害。
人工智能目前仍處于發(fā)展中水平,很多嚴(yán)重關(guān)鍵的問題并沒有得到實(shí)際有效的解決,因此在人工智能對(duì)人類社會(huì)造成影響甚至產(chǎn)生對(duì)抗之前,我們應(yīng)該提前制定好明確的規(guī)則,加強(qiáng)對(duì)人工智能技術(shù)的完善,并引導(dǎo)人們正確使用,最終達(dá)到人與人工智能和諧共處。