• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能時代的刑事風險

      2019-05-16 06:35劉坤
      法制與社會 2019年13期
      關鍵詞:社會風險人工智能

      摘 要 在當今信息時代,人工智能這項前沿技術的發(fā)展已經趨向白熱化,是全球科技關注的熱點。但人工智能是一把“雙刃劍”,它給人類在商業(yè)、交通、醫(yī)療、教育等領域帶來巨大進步與福利的同時,也帶來了各種風險與挑戰(zhàn),人與機器的關系所引發(fā)的紛繁復雜日益凸顯的倫理問題、法律問題層出不窮。因此,要建立多層次的風險規(guī)制體系,理清科技與法律的關系,出臺相應的對人工智能進行規(guī)制的法律法規(guī),防范人工智能對刑法適用的沖擊,以確保人工智能在法律的框架下能夠健康有序運行,來滿足日新月異的新型社會需求。

      關鍵詞 人工智能 社會風險 刑事立法 信息濫用

      作者簡介:劉坤,西北政法大學2018級法律碩士研究生,研究方向:刑法學。

      中圖分類號:D920.4 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標識碼:A ? ? ? ? ? ?? ? ? ? ? ?DOI:10.19387/j.cnki.1009-0592.2019.05.102

      在六十多年的發(fā)展中,人工智能已經經歷了兩次繁榮時期,產生了多層次的人工智能相關技術,在21世紀,由于計算機技術的革新和大數據技術的白熱化,2010年后,人工智能進入了第三次繁榮期,2017年我國發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確了人工智能發(fā)展目標,對人工智能的發(fā)展進行了布局,這標志著我國人工智能發(fā)展提高到國家戰(zhàn)略的層面,該年被稱為我國人工智能時代的“元年”。在刑法應用方面,我國已經出現了利用人工智能實施撞庫打碼進而進行牟利的刑事案例,這也引發(fā)了刑法領域關于人工智能犯罪的激烈討論。在2018新增備案本科專業(yè)名單中“機器人工程”“數據科學與大數據技術”等人工智能方向專業(yè)炙手可熱。而隨著人工智能的快速發(fā)展,有關人工智能的立法已經是大勢所趨,而美國已經先行實現了從人工智能規(guī)劃到人工智能立法的過渡,德國等國家也制定了規(guī)制自動駕駛的法律,在這一方面我國尚有所欠缺?,F如今我國對于人工智能的政策扶持、理論研究引起了社會廣泛熱切的關注,也引發(fā)了對傳統(tǒng)法律體系轉型的思考,而“人工智能與刑法”這個命題在刑法理論界也已展開初步的討論。不管是從預防刑法出發(fā),還是從風險刑法出發(fā),對人工智能的防控都是勢在必行的。從人工智能所涉及的利益角度來看,要明確在生產中智能機器人實施人身傷害行為的刑事責任主體、探究非法利用人工智能實施犯罪的責任,在刑事立法方面增加對人工智能進行刑法規(guī)制的法律條文,以應對全面到來的人工智能時代。

      一、人工智能的刑事法律地位與責任風險

      人工智能的刑事法律地位問題近年來成為學界討論的熱點問題。人工智能是否能成為刑事法律上的責任主體,這關乎于在有法益侵害結果發(fā)生時,能否對人工智能進行定罪及刑事處罰。目前人工智能從本質上來說是人類的一種輔助工具,不具有法律上的人格屬性。但若人工智能持續(xù)發(fā)展可脫離程序設計自主運行,其欠缺法規(guī)范遵從能力的意志性,若客觀上造成了法益侵害后果,但不具有刑法上的可歸責性,則會引發(fā)一系列問題。現在科技界普遍觀點是將人工智能分為兩種,即弱人工智能、強人工智能。弱人工智能是指不能進行真正的推理、不能自主解決問題的機器,這些機器有著智能的表面,能夠進行深層次的學習,但其實并沒有自主意識,智能化水平僅限于特定功能領域,這就是迄今為止人工智能所發(fā)展的狀態(tài)。但隨著科技的不斷進步,能夠自主適應地面對外界環(huán)境挑戰(zhàn)、具有獨立主體自我意識的強人工智能也將隨之出現,但這需要漫長的時間。有的學說主張人工智能具有主體資格,認為人工智能會對人類產生迫切威脅,但這種威脅成為現實的可能性還不大,因此暫不具有現實意義。西園春夫教授在《刑法的根基與哲學》中闡明了這一觀點:“刑法是處罰人的法律”。法律人格是享受權利、承擔義務的基礎??陀^上造成法益侵害結果的人工智能是否具備可追究刑事責任的主體意志自由,這是人工智能能否成為被刑法規(guī)制對象的關鍵。刑事責任的認定根據不應該只在客觀層面討論侵害行為與結果之間的因果性,還應從實質層面來關注實施危害行為主體自身的目的性,即應是在主體目的理性前提下實施的侵害行為,以當前科技發(fā)展水平來看,人工智能仍將長期處于弱人工智能發(fā)展階段,弱人工智能不具有刑法評價意義上的行為認識與控制要素的自主性,欠缺作為刑事責任主體的本質要素。機器人不管以何種方式承擔責任,其最終承擔者都是人,倘若出現重大法益受到損害,涉及到刑事追責,可以根據事故發(fā)生的原因追究人工智能背后主體的刑事責任。在仍將長期維持的弱人工智能時期,對于人工智能的開發(fā)者、使用者、相關義務人應設定相應的注意義務,但由于“社會追求的是最小化我們責任的技術,而不是最大化提高效率的技術,也不是最大化我們責任的技術”,因此也不能過于擴大系統(tǒng)設計者和使用者的責任。而隨著人工智能技術的不斷提高,可以逐漸轉為由具有相應自主意識的人工智能來承擔責任。

      二、法律手段與倫理道德的關系

      社會關系也會因人工智能時代的到來而相應作出調整。作為調節(jié)社會規(guī)范的基本手段,法律與道德通過不同的方式在社會生活的各個領域以不同的方式發(fā)揮著作用。人工智能能夠代替人類來完成一些工作任務,達到“人機共處”,但是它在給人類帶來巨大驚喜與便利的同時,也對我們已有的法律、倫理與秩序提出了挑戰(zhàn)。如何定義智能機器人的身份,人機關系應怎樣處理,倘若人與機器發(fā)生沖突該如何解決?這都是尚待解決的問題。人工智能機器人是沒有道德觀念的,“它們只是一種物體,被灌輸了程序員為達到特定目的而編寫的代碼”,人工智能是完全按照程序員編寫輸入的代碼和算法來完成的,是程序化、無意識的。而人工智能的智化同樣對人文精神提出了挑戰(zhàn),當人們的一切活動都可歸結于算法,決策權已經不再掌握在人們手里。這樣就會出現從以人為中心的世界觀轉為以數據為中心的世界觀,社會的確變得越來越智能,但是卻失去了意識,這種預設是讓人毛骨悚然的。因此,在規(guī)范人工智能的方面,道德可以發(fā)揮其先導性,這在美國與日本已經實現了有關人工智能的倫理學說的初步探索。通過倫理道德對科研工作者進行規(guī)范,倫理道德與法律可以發(fā)揮相輔相成、相互促進的作用。法律與道德并不是對立的兩個方面,要充分利用好法律和道德的關系,兩者并重,齊頭并進,而不要顧此失彼,如此才能促進人工智能的有序發(fā)展。

      三、信息安全問題

      有學者提出,人工智能可能產生的風險主要涉及兩大類,一類為功能風險,另一類為法律制度和權益風險,在這其中個人信息風險所受的威脅是顯而易見的,而利用人工智能侵犯個人信息的犯罪是較為普遍的,它主要是指利用人工智能的系統(tǒng)或者其組成部分,進而非法侵犯個人信息的犯罪。人工智能的基礎在于數據,人工智能進行學習的來源主要是依靠網絡所能提供的大量的數據信息,這就避免不了對公民個人信息的大量收集和辨析。而能夠對公民身份進行直接識別的基礎信息是受我國法律重點保護的。這在“侵犯公民個人信息罪”的設立上有所體現。而我國新《消費者權益保護法》在第二十九條中同樣規(guī)定了經營者在收集、使用消費者個人信息時的義務。而在2015年8月,《刑法修正案(九)》第十七條修訂將侵犯公民個人信息罪的主體進行了修改,該罪的行為主體本來是特殊主體,現在修改成了一般主體,并且規(guī)定了從重處罰的情形,最高刑期也有所提高,這充分表明了我國對于公民個人信息的保護力度。在人工智能飛速發(fā)展的今天,對人類行為的復制是人工智能數據采集的主要針對對象,這基于互聯網對公民個人基礎數據、及其以外的其他相關數據的采集。我們在日常生活中生成的這些數據很有可能會被拿去做分析處理,從而進行相應的研究,這就對我們公民個人造成了傷害。而對于這一方面的法律規(guī)制我國是尚有空缺的。公民個人間接信息的大量濫用,使公民的個人信息權處在隨時被侵犯的邊緣。

      四、人工智能刑事立法問題

      人工智能刑事立法也應根據技術發(fā)展作出相應的調整。我們要以保障人工智能持續(xù)健康有序發(fā)展為人工智能刑事立法的首要目的,對于非法利用人工智能的行為,要充分利用刑法對其進行規(guī)制。對人工智能要進行雙重的刑法規(guī)制,一方面要充分保護其發(fā)展,另一方面要做好人工智能的風險防控工作。人工智能發(fā)展到相對發(fā)達階段,其將會對人類的生命、健康和財產安全產生一定的威脅,這就需要刑事立法對其風險加以防控。人工智能刑事立法可以參照互聯網金融犯罪的立法經驗,在立法前期設置一定的底線,如涉及人類生命安全等重大問題上設置底線,當人工智能發(fā)展到一定階段,風險增大時,再根據實時情況提高入罪門檻,加大對不法行為的懲治力度。要全面落實法律防控,降低人工智能潛在性侵害。而各國對于人工智能刑事立法問題上的態(tài)度出現了較大的分歧,德國對于人工智能立法偏向消極立場,認為擔憂是有點兒多余的,人工智能的好處遠遠多于壞處,可以對人工智能刑事立法進行探究,但是制定詳細的法律規(guī)則卻為之尚早;歐盟對于人工智能刑事立法采取相對積極的態(tài)度,提出立法方面卻多傾向于民法領域,對刑法領域涉及不深。而美國率先在人工智能立法領域進行立法,采取實用主義的方法、以包容開放的態(tài)度大力促進人工智能的發(fā)展,其目的在于大力促進美國經濟的增長和社會的持續(xù)繁榮,其在人工智能立法方面處于相對領先地位。而中國人工智能立法已成必然趨勢,應盡早完成人工智能規(guī)劃到立法的過渡階段,重視人工智能領域的專業(yè)人才,以寬容的態(tài)度妥善應對人工智能刑事立法問題。

      五、結語

      人工智能的發(fā)展應用現如今已不再單單只是一門科技方面的發(fā)展,它關系到社會大眾的福祉、社會的進步發(fā)展,已經逐漸成為世界進行國家實力競爭的重要區(qū)域。我們無法真正預測未來,因為科技發(fā)展并不會帶來確定的結果,人工智能的一體兩面性的特征不可忽視,它給我們帶來諸多紅利的同時,同樣也帶來了相應的新型風險。在電影中所展示的人類物種滅絕危機有可能真的會發(fā)生,暫不考慮這種長遠的危機,當前人工智能所帶來的刑事法律地位與責任風險、法律手段與倫理道德的關系問題、信息安全問題等風險也要積極面對,不能因為其潛在的負面影響而限制其發(fā)展。如何防范人工智能所帶來的各種風險,如何促進人工智能向健康有序的方向發(fā)展,如何應對人工智能新事物對刑法適用的沖擊,對其進行法律規(guī)制特別是進行刑法規(guī)制就至關重要。法律應該緊緊跟隨智能社會的日新月異的發(fā)展,以法律規(guī)范特別是刑法為界,對人工智能進行應用,以確保其發(fā)展不偏離有益于人類社會發(fā)展進步的方向。

      參考文獻:

      [1]劉憲權.人工智能時代的刑事風險與刑法應對.法商研究.2018(1).

      [2]馬長山.人工智能的社會風險及其法律規(guī)制.2018(6).

      [3]王燕玲.人工智能時代的刑法問題與應對思路.政治與法律.2019(1).

      [4]李振林.人工智能刑事立法圖景.華南師范大學學報(社會科學版).2018(6).

      [5]時方.人工智能刑事主體地位之否定.法律科學(西北政法大學學報).2018(6).

      猜你喜歡
      社會風險人工智能
      我校新增“人工智能”本科專業(yè)
      2019:人工智能
      人工智能與就業(yè)
      數讀人工智能
      公眾網絡安全素養(yǎng)如何提升
      網絡社會風險規(guī)律及其因應策略
      網絡社會風險規(guī)律及其因應策略
      下一幕,人工智能!
      下一幕,人工智能!
      低壓集抄改造項目的社會風險管理研究
      定日县| 六枝特区| 罗平县| 唐河县| 高清| 民丰县| 徐州市| 奈曼旗| 桓仁| 贡觉县| 东安县| 旬邑县| 吉首市| 江城| 北安市| 海南省| 麻栗坡县| 扎兰屯市| 得荣县| 久治县| 拜泉县| 扶沟县| 静宁县| 永善县| 清远市| 特克斯县| 英超| 扬中市| 赞皇县| 南乐县| 合川市| 思茅市| 乌什县| 台东县| 张北县| 田阳县| 保靖县| 孙吴县| 马边| 襄汾县| 佛坪县|