• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能的倫理問題:挑戰(zhàn)與應(yīng)對

      2018-01-23 08:14:21
      倫理學(xué)研究 2018年4期
      關(guān)鍵詞:倫理道德機(jī)器人

      王 軍

      近年來,人工智能在社會(huì)各領(lǐng)域迅速發(fā)展開來,并給人們生產(chǎn)生活帶來極大便利。其產(chǎn)生的目的是為研究人類智能的本質(zhì)內(nèi)涵,具體而言就是為實(shí)現(xiàn)機(jī)器能夠執(zhí)行與人類智能相關(guān)的活動(dòng)。然而,隨著人工智能的發(fā)展,一些問題開始日益凸現(xiàn),這些問題不僅有技術(shù)層面的也有倫理方面的。Rosalind Picard曾指出“機(jī)器的自由化程度越高,就越需要道德標(biāo)準(zhǔn)。”[1](P9)因此,對人工智能進(jìn)行倫理審思顯得尤為必要,這也是應(yīng)對人工智能引發(fā)的倫理問題的前提所在,與此同時(shí),我們還應(yīng)當(dāng)提出一些具有建設(shè)性的、可操作的建議,為人工智能的健康發(fā)展保駕護(hù)航。

      一、人工智能的道德主體思考

      以倫理的視角審思人工智能技術(shù)及發(fā)展現(xiàn)狀,一方面能對人工智能的發(fā)展提供必要的倫理規(guī)范;另一方面也能對人工智能的良好發(fā)展提供方向性、原則性建議。

      1.人工智能能否成為道德主體

      很長時(shí)間以來,道德是僅僅就人而言的。隨著生態(tài)倫理的興起,一些生態(tài)倫理學(xué)家主張將道德的范疇擴(kuò)大到有生命的一切存在物上,生態(tài)倫理正式被確立并得到廣泛承認(rèn)。而現(xiàn)今人工智能發(fā)展十分迅猛,在此情況下,一些學(xué)者認(rèn)為也應(yīng)當(dāng)將人工智能納入道德的考慮范疇之內(nèi),他們借法國哲學(xué)家拉·梅特之言為其辯護(hù):“人是動(dòng)物,因而也是機(jī)器,只不過是更復(fù)雜的機(jī)器罷了?!盵2](P65)

      進(jìn)一步而言,人工智能是否能夠成為道德主體呢?關(guān)于這一問題爭論已久,學(xué)術(shù)界至今未能達(dá)成統(tǒng)一。大多數(shù)學(xué)者還是認(rèn)為人工智能體不能夠成為道德主體,因?yàn)榈赖率莾H就人類而言的,這也是人與其他生物相區(qū)別的根本。具體而言,人之所以成為道德主體是因?yàn)榫哂幸庾R(shí)、能夠思考、能夠判斷的能力,這些能力是成為道德主體的必要條件。在這些明確的標(biāo)準(zhǔn)下,不同的研究者也存在著爭論,一些學(xué)者認(rèn)為:意識(shí)只能存在于生物體的大腦內(nèi),不存在離開生物體而存在的意識(shí),“人工智能本質(zhì)上是人造機(jī)器運(yùn)用人類喂給它的知識(shí),是人類已有明述知識(shí)的轉(zhuǎn)移、利用”[3](P18)。另外一些學(xué)者明確指出,計(jì)算機(jī)中也存在意識(shí),機(jī)器也可充當(dāng)意識(shí)的載體,當(dāng)科學(xué)技術(shù)發(fā)展到一定程度時(shí),人工智能是有能力通過“圖靈測試”①的。然而,有關(guān)圖靈測試也在這兩派中引起巨大的爭論。所以,截至目前,關(guān)于人工智能是否具有道德主體的問題仍然爭論不休。

      2.人工智能是否應(yīng)被給予道德地位

      雖然學(xué)術(shù)界在人工智能能否成為道德主體的問題上存在著較大爭論,然而這并不妨礙將人工智能納入道德體系范疇之中。需要指出的是,將人工智能納入到人類的道德體系范疇并不意味著肯定了人工智能的道德主體地位,而是人類作為道德主體拓寬了一些非人類事物的道德準(zhǔn)入標(biāo)準(zhǔn)。現(xiàn)代生態(tài)學(xué)家奧爾多·利奧波德認(rèn)為,應(yīng)當(dāng)把“權(quán)利”的主體范圍進(jìn)行擴(kuò)展,也即是把道德權(quán)利主體擴(kuò)大到有生命的自然物上去,這就使得人類生活的整個(gè)生態(tài)系統(tǒng)都具有了道德地位。英國的亞倫·斯洛曼教授受到近代生態(tài)倫理學(xué)家影響,他在《哲學(xué)中的計(jì)算機(jī)革命》一書中指出,人工智能技術(shù)下的機(jī)器人是存在思考和感知能力的可能的,因而把人工智能納入到道德系統(tǒng)范疇內(nèi)是合理的[4](P2-3)。雖然斯洛曼教授是基于一種可能性而言的一種主張,但顯然,將人工智能納入到人類道德范疇已勢在必行。

      在人工智能被納入到人類道德系統(tǒng)范疇后,如何給予人工智能恰當(dāng)?shù)亩ㄎ皇鞘种匾?,就目前而言關(guān)于人工智能的主體定位尚存在較大爭議。英國教授蒂夫·托倫斯(Steve Torrance)認(rèn)為道德地位可以被劃分為兩個(gè)方面,分別是道德產(chǎn)出(ethical productivity)和道德接收(ethical receptivity)。他曾明確指出:“無論圣人還是殺人犯——以及那些誠實(shí)地提交他們納稅申報(bào)表的盡本分的人——都是‘道德的產(chǎn)出者’,而從其他人的行為中受益或者被其他人的行為所傷害的人都是‘道德接收者’?!盵5](P495-521)因而,根據(jù)托倫斯教授觀點(diǎn),我們同樣可以把人類和非人類給予道德角色定位,也即人類是道德行為的產(chǎn)出者,人工智能是受道德行為影響的道德接收者。

      二、人工智能發(fā)展帶來的倫理挑戰(zhàn)

      1.人工智能引起的道德決策風(fēng)險(xiǎn)

      “隨著生產(chǎn)力的進(jìn)一步發(fā)展,人工智能科技會(huì)快速發(fā)展,但是人類自身的認(rèn)知能力在特定的歷史條件和階段總是受到限制的,這也是人類認(rèn)知?dú)v史發(fā)展的客觀規(guī)律之一,人類理性的有限性表現(xiàn)為人類對人工智能產(chǎn)品道德風(fēng)險(xiǎn)認(rèn)知的滯后性?!盵6](P42)人工智能之所以具有道德決策風(fēng)險(xiǎn)主要在于,它被賦予越來越多的自主決策權(quán),這一點(diǎn)可以在當(dāng)前的自動(dòng)駕駛汽車上很好的顯現(xiàn)?!爸灰詣?dòng)駕駛汽車與其他的道路使用者存在相互影響,自動(dòng)駕駛汽車的零事故發(fā)生率就是不可能的?!盵7](P98)自動(dòng)駕駛汽車所面臨的道德決策與“電車難題”十分相似,它首先被要求具有十分強(qiáng)的道德決策能力,并且要正確而合理。作為人工智能的產(chǎn)物,自動(dòng)駕駛的道德決策能力是由其自身的道德決策參數(shù)所決定的,因而這就不可避免地帶來一系列道德決策風(fēng)險(xiǎn)。

      就目前而言,對于人工智能的道德決策能力研究主要有“自上而下”和“自下而上”兩種進(jìn)路。自上而下的進(jìn)路是指通過頂層設(shè)計(jì)確定標(biāo)準(zhǔn)而后向下傳播的一種方式。具體而言,就是將確定的倫理原則進(jìn)行復(fù)雜的編碼,繼而將編碼植入到人工智能系統(tǒng)的過程。然而這種方式也存在諸多缺陷。其一,人類還沒有足夠的能力考慮到人工智能所要涉及的各方面問題;其二,設(shè)定的原則也很難實(shí)現(xiàn)與人工智能體的完全有效融合;其三,不同的人工智能體之間的道德標(biāo)準(zhǔn)存在相互競爭與沖突;其四,人工智能體很難應(yīng)對在發(fā)展過程中的各種突發(fā)狀況。當(dāng)然,這些缺陷也并不能完全否定自上而下路徑的研究意義,自上而下的方式更有助于把人類的智慧、意識(shí)、情感等融入折射到人工智能體中,并且在當(dāng)前的技術(shù)水平下人們至少可以確定一些初步的統(tǒng)一原則,如不傷害以及自由原則等。

      自下而上的進(jìn)路是指“智能機(jī)器不需要被嵌入任何道德規(guī)則或道德哲學(xué),它只需要‘觀察’并分析大量的實(shí)際情境中人類的行為數(shù)據(jù),就能學(xué)會(huì)如何做道德決策”[8](P565-582)。這一路徑使得人工智能體的道德標(biāo)準(zhǔn)與設(shè)計(jì)技術(shù)有望實(shí)現(xiàn)統(tǒng)一,但它也存在著如何實(shí)現(xiàn)道德進(jìn)化目標(biāo)的問題。耶魯大學(xué)機(jī)器人專家Jonathan Hartman認(rèn)為,阿西莫夫的三大定律應(yīng)當(dāng)作為智能機(jī)器人的適應(yīng)性標(biāo)準(zhǔn)[9](P565-582),三大定律是指:機(jī)器人不得對人類個(gè)體造成傷害,也不能看到人類受到傷害而不管不顧;機(jī)器人應(yīng)當(dāng)服從人的命令,前提是不違反第一個(gè)律令;機(jī)器人應(yīng)當(dāng)保護(hù)自身的安全,前提是不違反第一、第二個(gè)律令。需要指出的是,人工智能體在向道德進(jìn)化過程中并不能受到三大定律的嚴(yán)格限制,因?yàn)檫M(jìn)化需要一個(gè)寬松的環(huán)境,而這也使得人工智能體在這種進(jìn)路下產(chǎn)生危害的風(fēng)險(xiǎn)劇增。

      除此之外,對于人工智能體的道德決策能力的研究進(jìn)路還有很多,比如自上而下與自下而上相結(jié)合的研究進(jìn)路等。但每一種研究進(jìn)路都存在著或多或少的弊端與缺陷,這主要是由人類道德哲學(xué)的內(nèi)在結(jié)構(gòu)決定的,同時(shí)人類的技術(shù)還不能夠完全使人工智能體的道德決策能力達(dá)到人類水平。人工智能體已廣泛地應(yīng)用于我們社會(huì)各領(lǐng)域,這又加劇形成道德決策風(fēng)險(xiǎn)乃至社會(huì)的系統(tǒng)性風(fēng)險(xiǎn)。

      2.人工智能可能導(dǎo)致的社會(huì)倫理問題

      在現(xiàn)實(shí)生活層面,人工智能帶給人們更多的是社會(huì)倫理問題,如人們的工作、家庭、醫(yī)療、環(huán)境等問題。這些倫理問題是人們所不能忽視的,它與每個(gè)人的生活都息息相關(guān),而了解、理清這些倫理問題的現(xiàn)狀及本質(zhì)有助于問題的解決。

      其一,是對環(huán)境產(chǎn)生的倫理問題。人工智能在發(fā)展過程中,對環(huán)境不可避免地產(chǎn)生危害。人工智能對環(huán)境產(chǎn)生的危害源主要來自于兩個(gè)方面:一是制造人工智能產(chǎn)品過程中產(chǎn)生的危害,例如伴隨著人工智能產(chǎn)品制造過程中而產(chǎn)生的廢料等。二是產(chǎn)品的更新?lián)Q代以及自身意外損害等,譬如從事太空探索任務(wù)的機(jī)器人,很難回收再利用,多數(shù)淪為太空垃圾。這不僅是當(dāng)前環(huán)境問題,由此也引出一些代際倫理問題。

      其二,是對醫(yī)療產(chǎn)生的倫理問題。醫(yī)療機(jī)器人的應(yīng)用帶來許多倫理問題:首先是對醫(yī)療公平的沖擊,由于人工智能醫(yī)療成本較為昂貴,多數(shù)普通患者不愿接受人工智能醫(yī)療設(shè)備的治療,因而其主要受眾也僅限于少數(shù)群體。其次是對病人隱私的威脅。比如人工智能機(jī)器在了解病人信息后會(huì)自動(dòng)對信息進(jìn)行儲(chǔ)存分析等,即便手動(dòng)刪除個(gè)人私隱信息,在當(dāng)今技術(shù)條件下依然存在恢復(fù)找回的可能,因而存在較大的隱私泄露風(fēng)險(xiǎn)。最后是對醫(yī)療安全性的挑戰(zhàn)??v使人工智能醫(yī)療技術(shù)越來越向精準(zhǔn)化、智能化方向發(fā)展,但其應(yīng)對突發(fā)情況的反應(yīng)處置能力還是帶來許多有待解決問題,例如醫(yī)療過程和醫(yī)療事故的責(zé)任界定等。

      其三,是對家庭產(chǎn)生的倫理問題。這種倫理問題首先表現(xiàn)在夫妻的情感層面。如高仿真機(jī)器人的出現(xiàn)使得夫妻感情受到考驗(yàn),當(dāng)已婚人士對高仿真機(jī)器人投入時(shí)間和情感,甚至把機(jī)器人當(dāng)作情感的傾訴者、心理的慰藉者甚至是性行為伴侶時(shí),這是否構(gòu)成對婚姻的背叛?同時(shí),夫或妻的這種行為又能在多大程度上能得到對方的包容?高仿真機(jī)器人的市場化、普遍化與機(jī)器人的高仿真及個(gè)性定制等特性存在重大關(guān)聯(lián),當(dāng)高仿真機(jī)器人發(fā)展到很多行為、情感、外表與人類相差無幾時(shí),人們是否更愿意把機(jī)器人作為自己的伴侶?人們可以隨心所欲地對機(jī)器人伴侶進(jìn)行挑選,甚至是量身制作,這不僅影響夫妻情感,更威脅到人類的繁衍和未來。此外,這種不良的影響還表現(xiàn)在親子關(guān)系方面。在當(dāng)前社會(huì)中,子女與父母相處的時(shí)間越來越少,隨著會(huì)看護(hù)孩子的人工智能機(jī)器人的商業(yè)應(yīng)用,這將加劇孩子與父母的感情逐漸淡化弱化,可能使孩童出現(xiàn)情感偏差和認(rèn)知障礙。

      3.人工智能可能導(dǎo)致的主體人存在與發(fā)展的倫理問題

      任何科學(xué)技術(shù)都存在著兩面性,人工智能也是如此,在其高速發(fā)展的同時(shí)我們也應(yīng)看到其存在的潛在威脅。人工智能是人類實(shí)踐產(chǎn)品的客體性存在,然而其越來越具有向主體性存在發(fā)展的趨勢。如2017年10月25日機(jī)器人索菲亞被授予沙特阿拉伯王國公民身份,這使得越來越多的人開始擔(dān)心人的主體性存在的問題,也即“人”概念與機(jī)器概念的融合。當(dāng)前人工智能顯然處于初級(jí)低智能階段,在這一階段“人們往往只對那些帶有類人的實(shí)體外形的機(jī)器人或者某種對象化的人工智能賦予人格”[10](P42-43)。但這一層面模仿的人工智能體已可運(yùn)用于實(shí)際戰(zhàn)場,這些人工智能體與人不同,它們不會(huì)疲累不會(huì)饑餓,沒有思想沒有感情,因而會(huì)存在對無辜生命傷害的可能與危險(xiǎn)。在人工智能向更高階段發(fā)展時(shí),也即開始向人類思維方式以及意向性方面模擬。在這一高度模擬化的過程中,人工智能存在不受人類控制的可能,并與人類形成競爭甚至是敵我關(guān)系。此時(shí),人類安全將受到實(shí)際威脅。

      另一方面,人類自身容易自我異化。人工智能的發(fā)展使得人類許多崗位被人工智能體所取代,首先帶給人類的是生存壓力,越來越多人失業(yè),貧富差距逐漸被拉大,一系列社會(huì)問題出現(xiàn)。為緩解壓力,更多人會(huì)選擇逃避,逐漸走向異化。而富人們也不能避免異化,他們會(huì)沉迷于人工智能技術(shù)帶來的便利以及由此而來的舒適生活,在這種生活環(huán)境下,人類群體的實(shí)踐能力逐漸削弱,生活空間逐漸被壓縮,人工智能成為其消磨時(shí)間的工具,人與人之間的交往愈趨虛擬化,人們慢慢迷失自我,走向異化的孤獨(dú)。質(zhì)言之,人工智能的發(fā)展使得人類有更多閑暇,貧困者承受著生存壓力,選擇在虛擬的人工智能體中逃避生活;富有者在享受人工智能帶來的便利時(shí)沉迷于其中,進(jìn)而為其所異化。

      三、應(yīng)對人工智能倫理問題的路徑

      “我們正在邁入開放性、異質(zhì)性的智能社會(huì),科技的威力更甚以往,有時(shí)甚至超出了人類的想象力。”[11]人工智能的發(fā)展已成為關(guān)乎整個(gè)人類的存在與發(fā)展的重大問題,深刻領(lǐng)悟馬克思的科技史觀、正確定位人與人工智能的關(guān)系同樣有助于這一問題的解決。

      1.以馬克思主義指導(dǎo)人工智能的發(fā)展

      在馬克思的邏輯范疇內(nèi),生產(chǎn)技術(shù)屬性是人本質(zhì)屬性的具體體現(xiàn)。那么,人工智能與人類的關(guān)系就十分明晰,人始終是具有主體性的存在,而人工智能技術(shù)及其衍生物只能作為客體而存在,這一主客關(guān)系是不容違背的,其直接導(dǎo)向的最高原則是以人為本。

      在正確認(rèn)識(shí)人與人工智能的本質(zhì)關(guān)系上,我們還應(yīng)當(dāng)構(gòu)建人與人工智能的良好互動(dòng)機(jī)制。馬克思人的技術(shù)化思想本身就要求人們實(shí)現(xiàn)人與技術(shù)的雙向互動(dòng),雙向互動(dòng)包括兩個(gè)層面的構(gòu)建方式。其一,作為主體的存在者——人以其自身的需求創(chuàng)造出人工智能客體,實(shí)現(xiàn)人本質(zhì)的力量向人工智能客體的轉(zhuǎn)移,也即是一種對象化的過程。其二,人工智能體具有獨(dú)立的存在形態(tài),其對主體存在者——人的活動(dòng)具有制約和導(dǎo)向作用,此時(shí)主體的存在者——人成為一定程度的受動(dòng)性存在,然而人可以發(fā)揮自身的主體能動(dòng)性,在認(rèn)識(shí)和把握規(guī)律的基礎(chǔ)上,掌握人工智能的規(guī)律,并把人工智能技術(shù)的能力內(nèi)化為自身能力,從而實(shí)現(xiàn)自身能力的提升,這也是一個(gè)自我能力復(fù)歸并提升的過程。質(zhì)言之,人與人工智能之間的雙向互動(dòng)始終是以“以人為本”為最高原則,人雖然存在將自身能力外化為人工智能體,并受其制約和導(dǎo)向,但最終又返回人本身,最終提升人自身的實(shí)踐能力。

      2.加強(qiáng)倫理制度建設(shè)

      倫理制度建設(shè)對于人工智能所產(chǎn)生的倫理問題是不可或缺的,“我們所體驗(yàn)到的那種無能為力并不是個(gè)人失敗的標(biāo)志,而是反映出我們的制度無能為力。我們需要重構(gòu)我們曾經(jīng)有過的這些制度,或者建立新的制度”[12](P15)。人工智能產(chǎn)品的研究與倫理制度的結(jié)合是應(yīng)對人工智能倫理問題的最有效方式。倫理制度層面的建設(shè)應(yīng)當(dāng)包括人工智能的設(shè)計(jì)倫理以及人工智能的應(yīng)用規(guī)范倫理。設(shè)計(jì)倫理旨在從源頭上保障人工智能產(chǎn)品的安全性,規(guī)范倫理是意在保障人工智能產(chǎn)品在應(yīng)用過程中的安全性,兩者雖各有側(cè)重,但需同時(shí)進(jìn)行。

      人工智能應(yīng)用過程中的倫理制度規(guī)范一般是對人工智能的使用者而言的。當(dāng)前,人工智能體不再局限于是減輕人類勞動(dòng)的工具,而開始成為一種滿足人類政治、經(jīng)濟(jì)、社會(huì)、軍事需要的工具。在人工智能體不具備道德主體時(shí),人工智能體的使用者就是一種道德主體,因而,對人工智能體的使用者制定合理的倫理制度規(guī)范是必要的。比如人工智能體的使用者不能為自身利益最大化而損害甚至是傷害其他人利益及健康安全,故此應(yīng)當(dāng)禁止人工智能應(yīng)用于可能對人類及整個(gè)社會(huì)造成危害的領(lǐng)域。除了外在的倫理制度規(guī)約,人工智能使用者也應(yīng)當(dāng)注重自身的倫理責(zé)任意識(shí)培養(yǎng),這一方面需要人工智能使用者將人工智能道德制度規(guī)范內(nèi)化為自身的主體信念;另一方面需要人工智能使用者加強(qiáng)自身道德修養(yǎng),提升自身責(zé)任意識(shí)。

      3.正確處理人與人工智能的發(fā)展

      當(dāng)前,人與人工智能是一種相互嵌入式的發(fā)展模式,這種發(fā)展模式對舊有的人與人之間的道德關(guān)系形成重大沖擊,因而,舊有的道德關(guān)系已不再適應(yīng)當(dāng)前時(shí)代,而新型人與人之間的關(guān)系是實(shí)現(xiàn)人與人工智能和諧相處的前提所在。具體而言,新型的人與人之間的關(guān)系是一種共享共存關(guān)系,是一種相互合作、相互信任的和諧關(guān)系。新型的人與人之間的和諧關(guān)系要求在對待人工智能技術(shù)方面,要始終堅(jiān)持“以人為本”的最高原則,要以實(shí)現(xiàn)人的自由全面發(fā)展為最高目標(biāo)。這首先要求人們克服對人工智能的工具理性的崇拜,擺脫人工智能對人的控制與束縛,維護(hù)人自身的尊嚴(yán)。同時(shí),人們自身也應(yīng)當(dāng)注重豐富人全面發(fā)展的具體內(nèi)容,以人工智能為載體,對其進(jìn)行升級(jí)改造,更加注重人工智能與人的個(gè)性、意識(shí)、價(jià)值、藝術(shù)創(chuàng)造相融合,并以此展示人的全面性,通過在人工智能的展示過程中不斷拓展人的全面性的新內(nèi)容,進(jìn)而完善人自身。

      此外,人們還應(yīng)樹立正確的科技觀、技術(shù)觀。人與人工智能之間的和諧關(guān)系是建立在人能夠科學(xué)正確地看待人工智能的基礎(chǔ)上,然而在當(dāng)今社會(huì)中關(guān)于人工智能技術(shù)的知識(shí)普及較為匱乏,多數(shù)人是通過觀看科幻電影方式了解的人工智能,而這種科幻電影多以人工智能主宰地球、統(tǒng)治世界的形式展現(xiàn),因而多數(shù)人對人工智能具有畏懼心理,并在一定程度上排斥人工智能。故而,普及人工智能相關(guān)知識(shí)是十分必要的。首先應(yīng)讓民眾了解人工智能技術(shù)是計(jì)算機(jī)學(xué)科的一個(gè)分支,其本身并無好壞之分,當(dāng)然,對其研究應(yīng)更多地注入倫理關(guān)懷與人文精神。其次,當(dāng)前一段時(shí)間內(nèi)人工智能技術(shù)的發(fā)展只是處于模仿人的行為層面,是服務(wù)人類的客體存在物。此外,面對有關(guān)人工智能的相關(guān)危險(xiǎn)言論,人們應(yīng)當(dāng)理性思考,不宜盲目跟風(fēng)。

      4.加強(qiáng)人工智能領(lǐng)域的監(jiān)管

      人工智能所產(chǎn)生的一些倫理問題與人工智能領(lǐng)域的監(jiān)管不嚴(yán)或空白有較大關(guān)聯(lián),而一個(gè)有效的監(jiān)督系統(tǒng)應(yīng)是多層次、全方位的,有效監(jiān)督系統(tǒng)的根本保障在于法律制度的建立與全方位地覆蓋整個(gè)過程并由此而形成閉環(huán)。當(dāng)前有關(guān)人工智能領(lǐng)域的法律較為匱乏甚至空白,這給實(shí)際的監(jiān)督管控帶來很大困難,因而,一個(gè)囊括政策、法規(guī)、法律解釋以及司法準(zhǔn)則的法律系統(tǒng)亟待制定實(shí)施。

      對人工智能的監(jiān)督并不是限制人工智能發(fā)展,而是保障其健康可持續(xù)發(fā)展,更好地為人類服務(wù);政府要依法對人工智能進(jìn)行監(jiān)督,做到有法必依、執(zhí)法必嚴(yán)、違法必究。民眾對人工智能及其產(chǎn)品的監(jiān)督是加強(qiáng)人工智能領(lǐng)域監(jiān)管的重要環(huán)節(jié)。民眾是人工智能及其產(chǎn)品的使用者,在人工智能應(yīng)用過程中更容易直接發(fā)現(xiàn)一些存在的問題及潛在風(fēng)險(xiǎn)。此外,科技工作者及倫理學(xué)者也是監(jiān)督的重要環(huán)節(jié),他們往往能夠從專業(yè)上看到問題的本質(zhì),在趨勢判斷上也更具預(yù)判性,從科學(xué)理性的角度來說其監(jiān)督是必不可少的。

      對人工智能的監(jiān)督還應(yīng)涵括其他環(huán)節(jié),“按照人工智能的研發(fā)流程,我們對其進(jìn)行的監(jiān)管應(yīng)是全流程的、分層次的,既要保障人工智能能夠快速發(fā)展又要使其能夠在法律的監(jiān)管下運(yùn)行”[13](P126)。首先是人工智能產(chǎn)品設(shè)計(jì)環(huán)節(jié),這是最重要的監(jiān)督環(huán)節(jié),這一環(huán)節(jié)的監(jiān)督應(yīng)當(dāng)包括,如人工智能的設(shè)計(jì)不能對人類及社會(huì)造成傷害及重大危害,不能對人類的尊嚴(yán)、人權(quán)等造成危害,不能帶有欺騙性等等,具體的相關(guān)監(jiān)督還應(yīng)當(dāng)根據(jù)法律明文規(guī)定來執(zhí)行;其次是人工智能產(chǎn)品出售環(huán)節(jié)。應(yīng)嚴(yán)把出售關(guān),準(zhǔn)確監(jiān)督其是否具備投入市場應(yīng)用的能力,是否具有相關(guān)使用說明等,而在重要的人工智能產(chǎn)品出售時(shí),還應(yīng)當(dāng)實(shí)行準(zhǔn)入制或登記制等,如登記購買產(chǎn)品者相關(guān)個(gè)人信息等。最后是人工智能產(chǎn)品使用環(huán)節(jié)。這一環(huán)節(jié)的監(jiān)督主要在于民眾對其所使用產(chǎn)品的反饋,這包括人工智能產(chǎn)品的使用是否對環(huán)境造成危害,是否對使用者安全構(gòu)成威脅等。

      [注 釋]

      ①圖靈測試(The Turing test)是由艾倫·麥席森·圖靈所提出的一種實(shí)驗(yàn),是指人在與人工智能產(chǎn)品隔開的情況下,通過一些裝置向人工智能產(chǎn)品隨意提問,進(jìn)而判斷其是否具有人類智能。[參考文獻(xiàn)]

      [1]Picard,Rosalind. Affective Computing[M].Cambridge,MA:MIT Press,1997.

      [2]拉·梅特里.人是機(jī)器[M].北京:商務(wù)印書館,1981.

      [3]王禮鑫.馬克思主義新認(rèn)識(shí)論與人工智能——人工智能不是威脅人類文明的科技之火[J].自然辯證法通訊.2018(4).

      [4]Sloman A.The Computer Revolution in Philosophy:philoso-phy,science and models of mind[M].Brighton:HarvesterPress,1978.

      [5]Torrance S.Ethics,Consciousness and Artificial Agents[J].Artif Intell Soc,2008(4).

      [6]閆坤如.人工智能的道德風(fēng)險(xiǎn)及其規(guī)避路徑[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(2).

      [7]孫保學(xué).自動(dòng)駕駛汽車事故的道德算法由誰來決定[J].倫理學(xué)研究,2018(2).

      [8]http://news.gmw.cn/2017-09/11/content_261 09182.htm.

      [9]Wallach,W.,Allen,C.,& Smit,I. Machine morality:Bottom-up and top-down ap proaches for modelling human moral faculties[J].AI and Society,2008(4).

      [10]藍(lán)江.人工智能與倫理挑戰(zhàn)[J].社會(huì)科學(xué)戰(zhàn)線,2018(1).

      [11]李美鳳.“人的技術(shù)化”:內(nèi)涵與過程[J].沈陽師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2011(7).

      [12]安東尼·吉登斯.失控的世界:全球化如何重塑我們的生活[M].周紅云,譯.南昌:江西人民出版社,2001.

      [13]倪楠.人工智能發(fā)展過程中的法律規(guī)制問題研究[J].人文雜志,2018(4).

      猜你喜歡
      倫理道德機(jī)器人
      《心之死》的趣味與倫理焦慮
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      跟蹤導(dǎo)練(五)(2)
      道德是否必需?——《海狼》對道德虛無主義的思考
      機(jī)器人來幫你
      認(rèn)識(shí)機(jī)器人
      機(jī)器人來啦
      認(rèn)識(shí)機(jī)器人
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      遂溪县| 新蔡县| 汾阳市| 黄山市| 绥化市| 仙游县| 信阳市| 会泽县| 枣阳市| 永川市| 屯门区| 霍城县| 吉木乃县| 包头市| 邯郸县| 同仁县| 雷波县| 保靖县| 淮滨县| 湘西| 万州区| 镇沅| 平顺县| 大姚县| 远安县| 大渡口区| 建平县| 新野县| 尉氏县| 封开县| 柏乡县| 黄浦区| 堆龙德庆县| 喀喇沁旗| 福安市| 汶上县| 清涧县| 息烽县| 远安县| 赤峰市| 德庆县|