• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人工智能機器人的刑事可罰性

    2020-11-30 08:38:19拉塞·夸爾克王德政
    中州學(xué)刊 2020年10期
    關(guān)鍵詞:機器人人工智能算法

    拉塞·夸爾克 王德政

    摘?要:為了在人工智能的運用中不形成刑法上的規(guī)范漏洞,必須在教義學(xué)上討論智能代理的可罰性。無論是出于法律政策還是從刑罰目的理論層面考慮,電子人地位的采用都是有意義和必要的。對實現(xiàn)一般預(yù)防目的而言,僅確定可罰性是不夠的,還必須向社會大眾明確說明已實施的不法行為之可罰性,通過盡可能適當(dāng)?shù)牧啃蹋瑢ψ镓?zé)非難進行量化,具體包括進行公益勞動、對機器人的身體進行干預(yù)、執(zhí)行算法所違反規(guī)范的內(nèi)容而進行重新編程、關(guān)閉機器人。人工智能的可罰性由此成為可能。

    關(guān)鍵詞:人工智能;機器人;電子人;算法;可罰性

    中圖分類號:D924.1?文獻標(biāo)識碼:A

    文章編號:1003-0751(2020)10-0048-05

    一、數(shù)字革命與法

    在亞歷克斯·普羅亞斯的科幻小說《智能機器人》中,有這樣一幕:類人機器人桑尼對那位人類主角說自己“做夢了”。在這一幕中,人與機器之間的界限消失了。不明確的是,桑尼是一個機器人還是一個類人的生物?艾薩克·阿西莫夫著作全集中的短篇小說卷是普羅亞斯小說的淵源,從該著作全集可以看出,最晚從第二次工業(yè)革命末,人類就開始思考人工智能及其影響。很多文獻和電影作品都涉及智能機器及其與人類的互動,這些作者和導(dǎo)演所展示出來的幻想一般都是反烏托邦式的。從弗里茨·朗所著的被列入電影藝術(shù)類世界記憶項目的《大都會》,到斯坦利·庫布里克的永恒經(jīng)典《2001:太空漫游》,再到沃卓斯基姐妹的《黑客帝國》,在這些作品中,機器人和超級計算機大多被描繪成對主人公的威脅。

    幸運的是,這種風(fēng)格化其實與自然科學(xué)的小說相關(guān)。迄今為止,機器和算法始終是人類有益的幫助者,我們多年來在日常生活中是無法忽略其存在的。數(shù)字語音助手、自動駕駛汽車、醫(yī)用或護理機器人只是少數(shù)例子,卻說明當(dāng)代科技是無處不在的。在美國,算法甚至被用來支持判例的形成。比如,幾年前罪犯埃里克·盧米斯被判處6年有期徒刑,因為算法“Compas”證明他有很高的再犯風(fēng)險。①

    即使上述無論如何都存在疑問的做法導(dǎo)致產(chǎn)生了諸如機器人法官這種值得向往的幻想,所有這些例子也都令人印象深刻地說明,技術(shù)在當(dāng)今所能帶來的一切。這一點可能通過瞬間處理巨量的各種來源的數(shù)據(jù)而做到,這在專業(yè)術(shù)語上被稱為“大數(shù)據(jù)”。在此期間,算法所面臨的任務(wù)是處理復(fù)雜情況并進行學(xué)習(xí)。②

    (一)人工智能變得自主化

    智能系統(tǒng)的學(xué)習(xí)能力超越了單純的“試驗與錯誤”之范疇。借助于神經(jīng)網(wǎng)絡(luò)和模仿生物性大腦結(jié)構(gòu)的電路,系統(tǒng)能同時在多個層面處理信息。③通過多種關(guān)于機器學(xué)習(xí)的擬設(shè),如強度學(xué)習(xí)、監(jiān)督或無監(jiān)督的深度學(xué)習(xí)等,神經(jīng)網(wǎng)絡(luò)能得到訓(xùn)練,甚至能作出決定和基于學(xué)習(xí)而富于創(chuàng)造性。④系統(tǒng)的能力由此產(chǎn)生,其自主地實施行為,無須人類的幫助就能(可能是無意識的)對很多情況和難題獨立而適當(dāng)?shù)刈鞒龇磻?yīng)。⑤這種靈活性和適應(yīng)能力蘊含巨大的潛力。然而,人工智能未來對我們社會的具體影響,當(dāng)前還無法預(yù)見。面對幾十年來和近幾年來技術(shù)的飛速進步,我們在不太遙遠(yuǎn)的將來,會遇到類似于本文開頭提到的極為先進的桑尼機器人,似乎不是不可能的。

    無論如何,顯而易見的是,自主化或部分自主化的人工智能通過分擔(dān)人類的特定任務(wù)或使之更容易完成,會改善我們的生活條件。⑥智能代理造成的法益侵害可能由此無法避免。這尤其適用于以下情況:智能系統(tǒng)不但不斷變得更加自主化,不再始終處于人類的監(jiān)管之下,而且不斷進入公共區(qū)域。智能代理可能實施的越來越多的獨立行為合乎邏輯地導(dǎo)致法益侵害風(fēng)險的升高。

    (二)刑罰的目的是產(chǎn)生人工智能可罰性需要的出發(fā)點

    那么,一種人工智能,比如以智能機器人的形式,侵害了一個保護法益,誰對此承擔(dān)責(zé)任?這就成為問題所在。由于人工智能的學(xué)習(xí)能力和自主性的提升,在不遠(yuǎn)的將來,這種情況是可以想象到并且很可能發(fā)生的,這種情況下的刑法結(jié)果基于各種原因不能再歸責(zé)于幕后的人,即編程者、制造者和使用者。該結(jié)果是可以想象到的,因為欠缺預(yù)見可能性⑦,或者是因為,人工智能的普遍運用和不可能完全排除其導(dǎo)致的損害,人工智能的運用具備社會相當(dāng)性,由此不再違反注意義務(wù)。⑧

    自主性的前提恰恰在于,不依賴于人類從外部施加的影響。上述法律后果對智能代理而言是內(nèi)在的。系統(tǒng)所實施的無法預(yù)見的行為是自主性合乎邏輯導(dǎo)致的結(jié)果,在這一點上,人類與人工智能相同。⑨因此,法學(xué)的任務(wù)必然是,為新科技的運用與該運用導(dǎo)致的結(jié)果設(shè)定法學(xué)上的框架條件。這導(dǎo)致兩點:其一,在測試環(huán)境之外去運用新科技,編程的法學(xué)標(biāo)準(zhǔn)也能得到考慮。其二,法律問題的澄清對運用人工智能的社會認(rèn)同之形成有決定性的貢獻。⑩

    社會大眾形成了這樣一個印象:數(shù)字化的進步對法學(xué)提出挑戰(zhàn),法治國原則對此沒有適當(dāng)?shù)幕貞?yīng),規(guī)范秩序的信任受到了撼動。B11對保護法益被侵害缺乏反應(yīng)是不可容忍的。因為對規(guī)范秩序的信任而言,需要的是全面的保護,而非違反計劃的規(guī)范漏洞。刑法及其適用者無法對法益受侵害作出相應(yīng)的反應(yīng),這等于使值得保護的法益變相失效。B12沒有人能對一個刑法上的結(jié)果負(fù)責(zé),這使得法的基礎(chǔ)被撼動。B13

    刑法的目的不僅是對既有的不法情況作出反應(yīng),還在于通過這種反應(yīng)防止將來出現(xiàn)此類不法情況。B14這一方面通過作用于行為人而產(chǎn)生特殊預(yù)防的效果,另一方面通過展示給社會(刑法適用的對象)——違反法律將導(dǎo)致法治國意義上的回應(yīng),從而產(chǎn)生一般預(yù)防的效果。B15只有當(dāng)判例正式將一個行為認(rèn)定為違法行為并予以處罰時,社會大眾才能全面遵守法律規(guī)范。如果人們形成這樣一個印象——可以侵害法益而無須承擔(dān)后果,刑法的目的就無法實現(xiàn)。

    為了在人工智能的運用中不以責(zé)任分散B16的方式形成刑法上的規(guī)范漏洞,必須討論智能代理的可罰性。更確切地說,討論這一問題并不取決于,是否人們不僅認(rèn)為人工智能很可能在外表上立即存在,還認(rèn)為人工智能的認(rèn)識能力很可能與人類一致。這要求法學(xué)在我們的規(guī)范之價值秩序的意義上,參與這一數(shù)字化的變革。因此,只有當(dāng)這一點在法益侵害中表現(xiàn)出來之后才去尋找有關(guān)人工智能問題的解決方案,從刑罰的預(yù)防目的考慮,是令人無法容忍的。對于這類問題,必須預(yù)先在教義學(xué)上進行解釋。

    二、人工智能的可罰性對刑法教義學(xué)的挑戰(zhàn)

    關(guān)于刑法對智能代理的實際適用性,可以提出三個重要的批評點。這些批評點說明,我們以自然人為出發(fā)點的刑法教義學(xué),對于自主運行的人工智能之運用,還沒做好準(zhǔn)備。B17這些批評點即:首先,人工智能缺乏一種在刑法意義上實施行為的能力;其次,人工智能缺乏罪責(zé)能力;最后,智能代理不是刑罰的合適對象。

    (一)有關(guān)人工智能的行為概念

    對行為能力這一問題而言,重要的是,人們基于既定的概念理解,是多么強烈地想要維護有關(guān)人工智能的行為概念。實現(xiàn)這一愿望可能首先取決于,人們在多大程度上規(guī)范性地賦予這個概念以內(nèi)涵。由于人們以至少是潛在的規(guī)范理解(此即行為能力的前提)來看待人工智能的能力,所以該能力至少在當(dāng)前要被否定。B18智能代理還沒有這種能力去義務(wù)性地識別未知的感覺沖動以及實施相應(yīng)的行為。只有當(dāng)人們僅要求一個舉止是在意志的支配下實施時,行為的認(rèn)定才成為問題。這種意義上的意志(不同于單純的條件反射)是否必須從因果論的角度去理解,或者說,行為的成立是否要具備目的指向性即目的性,成為問題所在。B19

    在此,要討論兩種情況:智能代理在多大程度上有意識地去培養(yǎng)規(guī)范理解,或者在多大程度上有能力形成指向目的之意志。技術(shù)這個術(shù)語說明,我們以人文主義為特征、以自然人為出發(fā)點的刑法教義學(xué),只是部分適合于解決有關(guān)人工智能的法律問題。刑法是人類為自己創(chuàng)造的。直到幾十年前,人工智能機器還沒有存在于立法者的想象和法學(xué)中。因此,人類的概念范疇一開始就欠缺一種直接的可轉(zhuǎn)用性。然而,如果可罰性與自然人實施的不法行為無關(guān),而與系統(tǒng)或算法實現(xiàn)的不法情況有關(guān),那么,具備人類意義上的意志這一要求,可能就得放棄。B20不同于德國法秩序的其他法秩序放棄了上述要求,其已認(rèn)識到企業(yè)的可罰性。據(jù)此,企業(yè)的可罰行為并不以人類的代理行為為基礎(chǔ),而是以其內(nèi)部結(jié)構(gòu)——企業(yè)內(nèi)部的組織和交流為基礎(chǔ)。B21人類的機關(guān)和企業(yè)的代理人實施的行為僅是其上一級交流過程的付諸實踐,因此,每個人自己都沒有實施行為,只有企業(yè)實施了行為。B22

    當(dāng)前,關(guān)于智能代理的討論還有:就企業(yè)的行為能力而言,其自我動力重新被提及,以使之能適應(yīng)相應(yīng)的算法程序。B23在檢驗可罰性的前提時,行為這一構(gòu)成要件要素與構(gòu)成要件結(jié)果之間具備因果關(guān)系和客觀歸責(zé)性。這樣一個后來導(dǎo)致結(jié)果發(fā)生的法所不容許的風(fēng)險,可能由于企業(yè)的交流結(jié)構(gòu)內(nèi)的錯誤而被創(chuàng)設(shè),或者由于算法內(nèi)的錯誤而被創(chuàng)設(shè)。該行為概念超越了自然人不法的情況,關(guān)于智能代理行為能力的觀點因贊同該行為概念而被駁倒。

    (二)智能代理的罪責(zé)能力

    智能代理必須由于行為或算法錯誤而導(dǎo)致不法情況出現(xiàn),從而受到直接和間接的非難。其一定是具備罪責(zé)能力的。這種意義上的罪責(zé)能力的意思是,行為人能夠作出決定不去實施不法行為而實施合法行為,卻有意地不利用這種可能性。B24罪責(zé)能力的基本前提是意志自由。因為只有具備自由意志的人才處于這樣一個位置——在認(rèn)識和理解法律規(guī)范的情況下使其行為遵守或不遵守該規(guī)范。

    1.意志自由是罪責(zé)能力的必要前提嗎?

    這種意義上的意志自由當(dāng)然是無法證明其存在的。決定論的支持者在某種程度上甚至否定(至少是懷疑)意志自由在神經(jīng)科學(xué)上存在。B25因此,只有自由作出決定的經(jīng)歷是真實的,而導(dǎo)致作出決定的過程完全是注定的(被決定了的)。B26該決定是由遺傳易感性、教育和人的社會化導(dǎo)致的結(jié)果,是當(dāng)時的情緒情況、其他情況和諸多其他因素導(dǎo)致的結(jié)果。這些因素在細(xì)節(jié)上并不能完全被人們理解。下述相反的說法也是正確的:就像當(dāng)前人類的意志自由無法被積極地證明一樣,肯定不能認(rèn)為,這樣一種意志自由是存在的。

    意志自由的這種現(xiàn)實存在應(yīng)當(dāng)是可罰性的必要前提,這在上述論斷的背景下顯得不合情理。這樣一個無法證明且由此不具備法的安定性之要素,何以決定是否判處刑罰?為了解決這個問題,對行為人的罪責(zé)問題而言,需要一個現(xiàn)實可行的解決方案。僅在以下基礎(chǔ)上才存在自由意志:自身有與人類相同的經(jīng)歷。如果我自己有自由意志,其他所有人也必定有自由意志。作為可罰性前提的罪責(zé)由此對負(fù)責(zé)性進行了分配。之所以進行這種分配,是因為已實施的不法行為在我們的社會體系內(nèi)引發(fā)了沖突。通過這種分配應(yīng)當(dāng)能解決此沖突。B27解決此沖突的社會需要是存在的。這是因為,基于上述原因,如果沒有相應(yīng)的處罰,不法情況就可能繼續(xù)存在。

    對罪責(zé)的這樣一種功能性的理解實現(xiàn)了對智能代理之負(fù)責(zé)性的分配。如果基于我們的社會體制,認(rèn)為算法具有意志自由,則與人類的不當(dāng)行為一樣,人工智能對法的違反易衍生出一種解決社會沖突的需要。對人類和機器而言,所作出的不法決定是否基于既定的生物或算法過程,或者基于在法律上有瑕疵的自由意志的形成,都是不重要的。

    2.對智能機器人地位的思考

    只有當(dāng)智能代理被視為法律意義上的人時,這樣一種基于社會沖突的責(zé)任分配才會肯定成功。B28只有當(dāng)社會大眾這一對象不再被視為物,而是被視為法律主體,同時受到法律上的對待時,刑罰才能產(chǎn)生一般預(yù)防的效果。

    人工智能具備人類的身份,即人格化。這在20世紀(jì)60年代就發(fā)生了。計算機科學(xué)家約瑟夫·維森鮑姆開發(fā)的程序伊莉莎,通過對特定的、人類在電子對話中給出的關(guān)鍵詞和預(yù)設(shè)的詞組作出反應(yīng),模擬了一個心理療法上的治療。B29盡管伊莉莎的能力受到很大限制,但這場對話導(dǎo)致一些參與者認(rèn)為程序能理解它自身的情況。人工智能程序舉止的人格化由此也被稱為伊莉莎效應(yīng)。B30該效應(yīng)如果能在一個連圖靈測試都無法通過的程序中發(fā)生,對極為先進的、外表更像人類(如有可能)的人工智能而言,其發(fā)生更是可想而知。這種社會存在被視為某種事物,其擁有一種超越物的地位。這是極有可能的。此外,這樣一種電子人地位能夠在法律上得到承認(rèn)。對無論如何都要采用電子人地位進行討論而言,存在政策上的抵觸。例如,2017年歐盟議會要求關(guān)心民法問題。B31

    電子人并非教義學(xué)上的空想,這說明人的概念在法律上存在變異性?;谛淌仑?zé)任能力,自然人與法人之間、成年人與未成年人之間的區(qū)別或者不同清楚地表明,有一種評價始終存在于不同的人的概念中:相關(guān)權(quán)利主體有何種社會、法律和道德地位?法秩序想要從中得出何種結(jié)論?B32人們已觀察到這種極其重要且將來愈加重要的地位、數(shù)字科技的無處不在性以及相關(guān)挑戰(zhàn)和法律問題。我的結(jié)論如下:無論是出于法律政策還是從刑罰目的理論層面考慮,電子人地位的采用都是有意義和必要的。

    (三)智能代理的可罰性

    最后也要反對以下論斷:電子人完全無法受到處罰。這里存在的疑問首先是,刑罰有何種特殊特性?其次是,對智能代理而言,刑罰能否適用?在這里,刑罰有三個特征:惡害性、社會倫理上的無價值評價性、否定性。

    我們先來考察一下惡害施加??梢酝ㄟ^刑罰對行為人產(chǎn)生一種效果,行為人將該效果感知為不利的。B33該效果看上去是無害的,事實上并非如此,因為憲法上的保障(如行動自由和個性的發(fā)揮)無論如何都受到了限制。在此,要舉一個教科書上的案例——無家可歸者案。該案中的無家可歸者打算在冬天來臨之前讓自己受到關(guān)押,以便在有暖氣的監(jiān)獄里度過這個寒冷的季節(jié)。B34這種惡害(即感受到的惡害)如果是罰金刑或者罰款,是否要進行金額上的計算,當(dāng)然可能讓相關(guān)者不太感興趣。B35這同樣適用于自由刑和(作為保安處分中警察拘留的)保安監(jiān)禁。在所有的情況下,同樣的憲法保障都受到了限制。惡害施加并非刑罰的特殊特性。B36

    與惡害施加一樣,社會倫理上的無價值評價性也不是刑罰的特殊特性。B37行為人違反刑法、懲戒法和秩序違反法導(dǎo)致國家對其進行非難——行為人實施了不法舉止。對違規(guī)停車這一舉止開具罰單所表達(dá)出來的是——該舉止與整體社會中以法秩序為形式的價值共識相矛盾。B38此外,無法確定的是,社會倫理應(yīng)在何種程度上充當(dāng)刑罰的特征。它在概念上的可選擇性是很差的。B39最終產(chǎn)生了憲法上的如下考慮:通過這種價值判斷去明確表明刑罰的特征。對刑罰而言,行為人降低了道德倫理的價值是較為重要的。如果有人想要這樣做,國家實施的欺凌就會利用人性尊嚴(yán)保障的個人效力要求,降臨到行為人身上。B40。

    由此,僅剩下否定性成為刑罰的重要特征,它直接連接刑罰與行為人的罪責(zé)。B41個人的可非難性對于國家判處多余的刑罰而言,恰恰不是其前提。該可非難性表明了對刑法上的重要的舉止更高程度的否定,也表明了該舉止導(dǎo)致的刑罰。就像剛才所說的,如果人工智能在負(fù)有責(zé)任(源自我們的社會現(xiàn)實)的意義上是有罪責(zé)能力的,則刑罰也能發(fā)揮對人工智能的否定性。

    然而,對實現(xiàn)一般預(yù)防目的而言,僅確定可罰性是不夠的。必須向作為刑罰對象的社會大眾明確說明已實施的不法行為之可罰性,因此,需要通過盡可能適當(dāng)?shù)牧啃蹋瑢ψ镓?zé)非難進行量化。在此,可以考慮進行公益勞動、對機器人的身體進行干預(yù),或者作為最后手段去關(guān)閉機器人。B42此外,還可以通過執(zhí)行算法所違反規(guī)范的內(nèi)容而進行重新編程。B43只要幾個智能代理互相連接并由此全面執(zhí)行該內(nèi)容,就會產(chǎn)生最大限度的特殊預(yù)防效果,如果可能的話,還會產(chǎn)生最大限度的一般預(yù)防效果。人工智能的可罰性也將成為可能。

    三、結(jié)論

    第四次工業(yè)革命方興未艾。相關(guān)學(xué)科要積極參與這場革命以及相互交融,否則,這些學(xué)科將落在后面或完全止步不前?;诖朔N原因,法秩序必須對隨之而來的疑問和難題準(zhǔn)備好答案。人工智能可罰性的采用由此是長期的,并且是必然的。反對該可罰性的觀點可能遭到教義學(xué)上有說服力的反對,通過這一方式,在人工智能領(lǐng)域,一種擴展性的、超越當(dāng)今以自然人為出發(fā)點的刑法教義學(xué)的觀點,會在刑法的概念性上得到認(rèn)可。該觀點涉及行為能力,(尤其是)罪責(zé)能力,以及與罪責(zé)能力相關(guān)的刑罰論。

    即使科技的進步在規(guī)模和速度方面或許現(xiàn)在有點令人驚恐,這可能是無法阻擋的,也完全不應(yīng)該去阻擋這種進步。如果及時識別法律和技術(shù)上的風(fēng)險并予以最小化或完全消除,則科技進步的優(yōu)點無論如何都能超越這些風(fēng)險。因此,“技術(shù)阻礙者”至少不會來自法學(xué)領(lǐng)域。在這方面,我想以德國皇帝威廉二世的一句名言作為結(jié)尾。他在20世紀(jì)初說:“我相信馬。汽車是一個轉(zhuǎn)瞬即逝的現(xiàn)象。”

    (譯者注:本文譯自德語論文“Zur Strafbarkeit von intelligenten Robotern”,譯者已獲得著者的中文翻譯和發(fā)表授權(quán),本文內(nèi)容系全球首發(fā)。)

    注釋

    ①Smith. New York Times v. 22.6.2016, abrufbar unter https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html?module=inline (4.2.2020); FAZ v. 11.6.2019, abrufbar unter https://www.faz.net/aktuell/rhein-main/algorithmen-werden-in-amerika-bei-gerichtsprozessen-genutzt-16230589.html (4.2.2020).

    ②Vgl. Brutigam/Klindt. NJW 2015, 1137 (1138 f.).

    ③Styczynski/Rudion/Naumann. Einführung in Expertensyste-me, 2017, S. 132 ff.

    ④Zu den verschiedenen Prozessen beim Maschinenlernen Grz/Nebel. Künstliche Intelligenz, 2003, S. 108 ff.; Gopnik. SdW kompakt v. 1.10.2018, S. 15 ff.; Wolfangel. SdW kom-pakt v. 17.20.2016.

    ⑤Hilgendorf. ZStW 130 (2018), 674 (675).

    ⑥Vgl. Kirchschlger. AJP/PJA 2017, 240 (241 f.).

    ⑦Dazu Gless/Weigend. ZStW 126 (2014), 561 (581); vgl. auch Markwalder/Simmler, AJP/PJA 2017, 171 (177).

    ⑧Gless/Weigend. ZStW 126 (2014), 561 (583 f.); krit. Gless/ Janal, JR 2016, 561 (566).

    ⑨Borges. NJW 2018, 977 (978).

    ⑩Sternberg-Lieben. in: Hilgendorf (Hrsg.), Robotik im Kon-text von Recht und Moral, Robotik und Recht, Bd. 3, 2013, S. 119.

    B11Brüning. Das Verhltnis des Strafrechts zum Disziplinar-recht, 2017, S. 186 f.

    B12Vgl. Meier. Strafrechtliche Sanktionen, 4. Aufl. 2015, S. 36.

    B13Brüning. in: Gesk/Jing (Hrsg.), Digitalisierung und Straf-recht in Deutschland und China, noch unverffentlichtes Manuskript des Vortrags vom 22.11.2018 an der Universitt Osnabrück.

    B14B15B33B34Meier (Fn. 12), S. 18 ff., 21 f., 16, 16.

    B16Beck. JR 2009, 225 (227 f.).

    B17②Brüning (Fn. 13); Seher. in: Gless/Seelmann (Hrsg.), Intel-ligente Agenten und das Recht, Robotik und Recht Bd. 9, 2016, S. 46 f.

    B18Seher (Fn. 17), S. 48 ff.

    B19Roxin. Strafrecht, Allgemeiner Teil, Bd. 1, 4. Aufl. 2006, § 8 Rn. 10 ff.; Heinrich. Strafrecht Allgemeiner Teil, 5. Aufl. 2016, Rn. 96 ff.

    B20Brüning (Fn. 13).

    B21Ortmann. NZWiSt 2017, 241 f.

    B22Dannecker/Dannecker. NZWiSt 2016, 162 (164).

    B23Vgl. Teubner. AcP 218 (2018), 155 (157 ff., 165 f.).

    B24Roxin (Fn. 19), § 19 Rn. 1 ff.; BGHSt 2, 194 (200); 18, 87 (94).

    B25Vgl. Marlie. ZJS 2008, 41 (44 in Fn. 47-49).

    B26Vgl. Marlie. ZJS 2008, 41 (44 in Fn. 52).

    B27Markwalder/Simmler. AJP/PJA 2017, 171 (180); Gless/ Weigend. ZStW (126), 2014, 561 (574 f.); vgl. auch Roxin (Fn. 19), § 16 Rn. 39 ff.

    B28Seher (Fn. 17), S. 58; Zur Frage, ob eine Statusdebatte überhaupt sinnvoll ist, Beck, in: Hilgendorf/Günther (Hrsg.), Robotik und Gesetzgebung, Robotik und Recht, Bd. 2, 2013, S. 239.

    B29Siehe sterreichische Akademie der Wissenschaften v. 1.12.2017, abrufbar unter https://www.oeaw.ac.at/detail/news/gefangen-im-eliza-effekt/ (4.2.2020).

    B30Vgl. dazu Gless/Weigend. ZStW 126 (2014), 561 (565); Herberger. NJW 2018, 2825 (2826).

    B31Entschlieung des Europischen Parlaments von 16. Feb-ruar 2017 mit Empfehlungen an die Kommission zu zivil-rechtlichen Regelungen im Bereich Robotik (2015/2103 [INL]), abrufbar unter http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (4.2.2020).

    B32Teubner. AcP 218 (2018), 155 (168 f.); Vgl. zum Perso-nenbegriff im Zoll- und Mehrwertsteuerrecht Scheller/ Zaczek, UR 2015, 937.

    B35Vgl. Roxin. in: Hassemer/Kempf/Drr/Moccia (Hrsg.), In dubio pro libertate, Festschrift für Klaus Volk zum 65. Ge-burtstag, 2009, S. 602.

    B36A.A. Meier (Fn. 12), S. 16.

    B37B38Brüning (Fn. 11), S. 547 ff., 549.

    B39Roxin (Fn. 35), S. 603.

    B40Brüning (Fn. 11), S. 543 f. m.w.N.

    B41Brüning (Fn. 11), S. 547 f.

    B42Gless. GA 2017, 324 (328).

    B43Gless/Weigend. ZStW 126 (2014), 561 (589).

    責(zé)任編輯:鄧?林

    猜你喜歡
    機器人人工智能算法
    基于MapReduce的改進Eclat算法
    Travellng thg World Full—time for Rree
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    進位加法的兩種算法
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    下一幕,人工智能!
    一種改進的整周模糊度去相關(guān)算法
    機器人來幫你
    認(rèn)識機器人
    资中县| 凤城市| 曲麻莱县| 当阳市| 通城县| 威远县| 乐东| 凭祥市| 洛南县| 浏阳市| 达州市| 福建省| 临漳县| 吉木乃县| 龙游县| 大渡口区| 封开县| 石台县| 福建省| 增城市| 祁连县| 玛沁县| 农安县| 来安县| 南投市| 剑河县| 九龙县| 钟祥市| 澄城县| 德清县| 太保市| 犍为县| 嘉禾县| 江安县| 大洼县| 象州县| 渑池县| 河北省| 乌兰浩特市| 三都| 收藏|