• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      如何讓機(jī)器人變得善良

      2018-05-31 05:04:00何夢雨
      世界博覽 2018年5期
      關(guān)鍵詞:阿金道德機(jī)器人

      何夢雨

      機(jī)器人軍團(tuán)現(xiàn)在不加思索地執(zhí)行我們的指示。我們?nèi)绾未_保這些生物,始終以我們的利益行事呢?我們應(yīng)該教他們學(xué)會(huì)思考嗎?如果是這樣,我們?nèi)绾谓趟麄儽嬲J(rèn)對(duì)錯(cuò)?

      傳說400年前,在現(xiàn)在被稱為捷克共和國的布拉格,有位猶太教的拉比跪在伏爾塔瓦河河畔。他從水中撈出粘土,小心翼翼地拍打捏出人的形狀。原來,布拉格的猶太人被誣告在他們舉行的宗教儀式中使用基督徒的鮮血,因此遭到襲擊。所以拉比猶大·洛伊烏·本·比扎萊爾(Judah Loew ben Bezalel)決定,他的社區(qū)需要一個(gè)比任何人都強(qiáng)的保護(hù)者。他將希伯來文的單詞emet(真相)刻在黏土巨人的前額上,并將一個(gè)寫有卡巴拉教派公式的膠囊放進(jìn)它的嘴里。這個(gè)生物就有了生命。

      美劇《西部世界》,一部關(guān)于人工智能黯淡前景的不祥預(yù)言。

      第一個(gè)人造人格勒姆就這樣誕生了,格勒姆在貧民窟巡邏,保護(hù)猶太社區(qū)內(nèi)的人,并從事有益的工作:掃街,送水和劈柴。一切都很順利,直到有一天平靜被打破了,拉比忘了按照黏土人的要求讓其在安息日休息,于是這個(gè)怪物開始了一場兇殘的作亂。拉比被迫擦掉了格勒姆前額上刻字的首字母,它額頭上的字變成了met,在希伯來文中是“死亡”的意思。生命從粘土人的身體中消逝,它崩落成灰塵。

      這個(gè)關(guān)于制造人形機(jī)械仆人風(fēng)險(xiǎn)重重的警示性故事,在人工智能時(shí)代獲得了新的意義。機(jī)器人軍團(tuán)現(xiàn)在不加思索地執(zhí)行我們的指示。我們?nèi)绾未_保這些生物,無論它們是用粘土還是硅制成,始終以我們的利益行事呢?我們應(yīng)該教他們學(xué)會(huì)思考嗎?如果是這樣,我們?nèi)绾谓趟麄儽嬲J(rèn)對(duì)錯(cuò)?

      人工智相當(dāng)于人類召喚惡魔?

      在2018年,這個(gè)問題變得更加迫切。自動(dòng)駕駛汽車在城市的街道行駛數(shù)百萬英里,同時(shí)做出可能影響其他道路使用者安全的自主決定。日本,歐洲,中國和美國的機(jī)器人專家正在開發(fā)服務(wù)型機(jī)器人,為老年人和殘疾人提供護(hù)理。 2015年日本理化學(xué)研究所研發(fā)的護(hù)理型機(jī)器人ROBEAR(它們長著小熊貓的臉)就致力于幫助那些行動(dòng)不便的人,輕柔的動(dòng)作可以將人類抱起或放下,或者是幫助其站立起來。但是我們也可以想象它們會(huì)輕易把人撕得粉碎。

      自2000年以來,美國陸軍就部署了數(shù)以千計(jì)的配備機(jī)槍的機(jī)器人,每個(gè)機(jī)器人都能夠在沒有人類參與的情況下定位目標(biāo)并瞄準(zhǔn)目標(biāo)(然而,他們不允許在無人監(jiān)督的情況下扣動(dòng)扳機(jī))。這些越來越復(fù)雜的機(jī)器人正準(zhǔn)備接管美國陸軍最危險(xiǎn)、枯燥無味和骯臟的工作。它們已經(jīng)用于尋找埋藏在路邊的炸彈,執(zhí)行空中偵察任務(wù)和監(jiān)視軍事基地周圍情況。

      在科幻小說或電影中,人工智能(AI)經(jīng)常讓人類陷入噩夢中。比如《2001》、《終結(jié)者》、《銀翼殺手》等電影中,智能電腦或智能機(jī)器最終將武器對(duì)準(zhǔn)它們的人類創(chuàng)造者。電動(dòng)汽車公司特斯拉、商業(yè)太空飛行公司SpaceX首席執(zhí)行官埃隆·馬斯克曾發(fā)表評(píng)論稱,人工智能的進(jìn)步就相當(dāng)于人類正在召喚惡魔。他聲稱:“我認(rèn)為我們應(yīng)當(dāng)對(duì)人工智能萬分小心。如果讓我猜測人類生存面臨的最大威脅,人工智能或許就是?!敝锢韺W(xué)家霍金也表達(dá)了自己的擔(dān)憂,他認(rèn)為人類不斷在AI領(lǐng)域探索“是個(gè)極大的錯(cuò)誤,該錯(cuò)誤甚至可能是人類有史以來犯過的最愚蠢的錯(cuò)誤。”

      2016年夏天,白宮委托專家研討機(jī)器人的道德層面。麻省理工學(xué)院情感計(jì)算部主任羅薩琳德·皮卡德說:“機(jī)器的自由度越大,就越需要道德標(biāo)準(zhǔn)?!?h3>機(jī)器人就像孩子一樣需要學(xué)習(xí)

      現(xiàn)在蜿蜒流淌的伏爾塔瓦河岸邊矗立著未來派風(fēng)格的辦公大樓,就在猶太拉比雕刻他的格勒姆的地方,整齊排列的電腦嗡嗡作響。這些電腦是奇特的教師,像忠誠于教育任務(wù)的人類一樣有崇高的目的。他們的學(xué)生沒有坐在每臺(tái)電腦屏幕前,而是存在于硬盤上。這個(gè)名為GoodAI的虛擬學(xué)校教育的是人工智能:教它們思考,理智和行動(dòng)。 GoodAI的總體愿望是培養(yǎng)具有倫理的人工智能?!斑@并不意味著讓人工智能遵循既定的規(guī)則,按照人類規(guī)定的可能情況,該做什么以及不應(yīng)該做什么,”捷克成功的電子游戲設(shè)計(jì)師兼GoodAI創(chuàng)始人馬雷克·羅莎(Marek Rosa)說。他已經(jīng)在該公司投資1000萬美元。“我們的想法是培訓(xùn)它們將知識(shí)應(yīng)用到以前從未遇到過的情況。”

      2015年日本研發(fā)的護(hù)理型機(jī)器人ROBEAR(它們長著小熊貓的臉)就致力于幫助那些行動(dòng)不便的人,輕柔的動(dòng)作可以將人類抱起或放下,或者是幫助其站立起來。

      專家們一致認(rèn)為羅莎的做法是明智的。“預(yù)先為人工智能可能遇到的每一種情況都設(shè)定道德選擇是不太可能的,”紐約大學(xué)的認(rèn)知科學(xué)家,幾何智能公司的首席執(zhí)行官和創(chuàng)始人加里·馬庫斯解釋說“例如,你如何為公平還是傷害的概念編程?”他指出,這種編碼方法不能解釋人類信念和態(tài)度的轉(zhuǎn)變。想象一下,美國的國父們也算是先進(jìn)了,但他們允許奴隸制,壓制女性的權(quán)利等等呢,人工智能如何理解這些情況?

      最終,我們需要一臺(tái)能夠自學(xué)的機(jī)器。羅莎認(rèn)為人工智能就像一個(gè)孩子,作為空白的石板可以刻上基本的價(jià)值觀,并且能將這些原則應(yīng)用于不可預(yù)見的情景中。這一點(diǎn)和人類很像,人類通過觀察他人的行為,從而直觀地了解道德上可接受的東西。

      GoodAI通過提供數(shù)字導(dǎo)師來監(jiān)督人工智能獲取價(jià)值觀的進(jìn)程,然后逐漸增加它們必須做出決定的復(fù)雜情況。 羅莎認(rèn)為,父母不會(huì)讓孩子一開始就在公路上跑?!巴瑯拥?,我們將人工智能置于越來越復(fù)雜的環(huán)境中,它們可以利用以前學(xué)到的知識(shí)做出行動(dòng),并從我們團(tuán)隊(duì)獲得反饋。”

      GoodAI只是近年來世界各地不斷涌現(xiàn)的眾多致力于機(jī)器人倫理維度的機(jī)構(gòu)之一。其中許多類似的機(jī)構(gòu)都有宏大的,帶有不祥預(yù)感的名字比如:生命的未來研究所,負(fù)責(zé)任的機(jī)器人小組和全球倫理自治系統(tǒng)。關(guān)于如何更好地向機(jī)器傳授道德倫理,很多人都有自己的看法,羅莎是一位,佐治亞理工學(xué)院移動(dòng)機(jī)器人實(shí)驗(yàn)室主管羅恩·阿金另一位。

      讓機(jī)器人學(xué)會(huì)內(nèi)疚

      羅恩·阿金60多歲,是個(gè)禿頭的機(jī)械倫理學(xué)家。他在喬治亞理工學(xué)院教授計(jì)算機(jī)倫理學(xué),但他的工作并不局限于教室。阿金的研究資金來源廣泛,其中有的資金來自美國陸軍和海軍。 2006年,阿金獲得資助,研究如何使機(jī)器人戰(zhàn)斗機(jī)在戰(zhàn)爭中能夠遵守道德標(biāo)準(zhǔn)。他認(rèn)為機(jī)器人士兵在倫理上可以優(yōu)于人類。畢竟,它們不能強(qiáng)奸,掠奪或憤怒燒毀一個(gè)村莊。

      教授機(jī)器人如何在戰(zhàn)場上表現(xiàn)得當(dāng)似乎很簡單,因?yàn)楦鲊裱瓏H公認(rèn)的法律來制定參與戰(zhàn)爭的規(guī)則。但是,工程師并不能預(yù)見戰(zhàn)場上的每一個(gè)潛在情景,現(xiàn)實(shí)中總是存在道德上模棱兩可的情況都。比如,一個(gè)機(jī)器人是否可以在一個(gè)目標(biāo)正與平民分吃面包的房子里開火?它是否應(yīng)該解救被圍困在城鎮(zhèn)一側(cè)的五名低級(jí)新兵,還是要為另一名高級(jí)軍官提供支持?決策應(yīng)該基于戰(zhàn)術(shù)還是道德層面?

      為了幫助機(jī)器人及其創(chuàng)造者在戰(zhàn)場上解決這些問題,阿金一直在研究與GoodAI不同的模型。他的方法被稱為 “道德適配器”,也就是說試圖模擬人類的情緒,而不是模仿人類的行為,以幫助機(jī)器人從錯(cuò)誤中學(xué)習(xí)。他的系統(tǒng)允許一個(gè)機(jī)器人體驗(yàn)類似于人類的內(nèi)疚感。 “內(nèi)疚是一種阻止我們重復(fù)特定行為的機(jī)制,”阿金解釋說。因此,內(nèi)疚對(duì)機(jī)器人和人類來說都是一種有用的學(xué)習(xí)工具。

      阿金采取的方法是,設(shè)計(jì)一種被稱為“潛在行動(dòng)的多維數(shù)學(xué)決策空間”的軟件程序。這套融合了人類悔恨、同情、內(nèi)疚等情緒的程序安裝到機(jī)器人身上后,就能扮演“道德適配器”的角色,可根據(jù)傳感器接收到的數(shù)據(jù)和情報(bào),把機(jī)器人所有可能的行動(dòng)分為“道德的”和“不道德的”兩種,并根據(jù)需要選擇適當(dāng)?shù)奈淦飨到y(tǒng)。

      阿金解釋說:“想象一下,一名特工在戰(zhàn)場上射擊之前和之后進(jìn)行戰(zhàn)斗傷害評(píng)估。 如果附帶損害比預(yù)期的要多就會(huì)帶來內(nèi)疚感。特定的底線內(nèi),特工將停止使用特定的武器。此外,還將完全停止使用武器。雖然機(jī)器人可能感受到的內(nèi)疚是模擬的,但像人類的內(nèi)疚一樣具有三重含義:相信規(guī)范遭到侵犯,對(duì)自己行為擔(dān)憂以及回到原來狀態(tài)的愿望”。

      這是一個(gè)巧妙的解決方案,但不是沒有問題。首先,在機(jī)器人能夠修改其行為之前,內(nèi)疚模型要求先出錯(cuò)。在戰(zhàn)爭的混亂中,錯(cuò)誤可能是可以接受的,因?yàn)閾p害可能完全出乎意料。但如果錯(cuò)誤出現(xiàn)在民用住宅、醫(yī)院或道路上,公眾對(duì)致命機(jī)器人錯(cuò)誤的容忍度要低得多。殺手機(jī)器人可能還沒來得及從錯(cuò)誤中學(xué)習(xí)就被拆解掉了。

      讓機(jī)器人從圖書館獲得靈感

      從虛擬教室到模擬內(nèi)疚,教機(jī)器人道德的方法各不相同,但都是探索性的,并且每種方法下都伴隨著各自的問題。在喬治亞理工學(xué)院,娛樂智能實(shí)驗(yàn)室主任馬克·里德爾(Mark Riedl)正在嘗試一種方法,他的解決之道不是在課堂上,而是在圖書館中尋找靈感。

      通過讓人工智能讀取數(shù)以千計(jì)的人類歷史故事,并允許它們根據(jù)自己的發(fā)現(xiàn)制定一套行為規(guī)則,里德爾相信,從燭光晚餐到銀行搶劫等各種場景,機(jī)器人都能做出恰當(dāng)?shù)谋憩F(xiàn)。包括美國國防高級(jí)研究計(jì)劃局(DARPA),美國陸軍,谷歌和迪斯尼等在內(nèi)的一系列組織和公司為里德爾團(tuán)隊(duì)的研究提供資金支持。

      里德爾贊同GoodAI的基本理念。“所有的答案都是為了將??機(jī)器人培養(yǎng)成孩子,”他說。 “但是我沒有20年那么久的時(shí)間來培養(yǎng)機(jī)器人。這是一個(gè)非常耗時(shí)和昂貴的過程。我的想法是將故事作為學(xué)習(xí)過程的捷徑。”

      里德爾將這項(xiàng)技術(shù)命名為“堂吉訶德” 這項(xiàng)技術(shù)主要通過為機(jī)器人提供一些故事來展示正常的或者被人類所接受的行為,比如幫助別人、守時(shí)以及不消滅人類等等。據(jù)了解,這些故事都是研究人員從互聯(lián)網(wǎng)上挑選出來的,它們講述的都是正確的、被社會(huì)認(rèn)可的行為。

      接下來,如果人工智能能夠做出跟故事的良好行為匹配的決定或者行為的話,這項(xiàng)堂吉訶德技術(shù)將會(huì)給機(jī)器人做出一定程度的“獎(jiǎng)勵(lì)”(就是類似小紅花的一些機(jī)械行星)。反之,如果人工智能的決定或者行為不符合故事中的道德標(biāo)準(zhǔn)的話,研究人員就會(huì)對(duì)這些行為進(jìn)行負(fù)面強(qiáng)化。

      通過閱讀幾百篇關(guān)于偷竊與不偷盜的故事,人工智能通過這些故事的后果可以理解規(guī)則,并開始基于群體智慧制定道德框架?!拔覀?nèi)祟惖碾[含規(guī)則很難明確寫下來,但書籍,電視和電影的主角都體現(xiàn)了現(xiàn)實(shí)世界的價(jià)值觀。人工智能可以從簡單的故事開始,然后發(fā)展到年輕人讀的故事。它會(huì)面對(duì)越來越復(fù)雜的道德情況。”

      雖然在概念上不同于GoodAI,但里德爾的方法還是屬于機(jī)器學(xué)習(xí)的范疇。他說“我們要求人工智能觀看幾千名不同主角的故事,他們每個(gè)人都經(jīng)歷著類似的困境。然后,機(jī)器可以做出判斷,并且制定符合大多數(shù)人會(huì)認(rèn)為是正確的行為方式。”

      我們有責(zé)任教機(jī)器人如何生活

      從格勒姆到弗蘭肯斯坦,當(dāng)人們想象人類作為造物主時(shí),總是講述成故事。 正如對(duì)這些故事都有一個(gè)令人沮喪的結(jié)論一樣,現(xiàn)在的研究者還有一個(gè)擔(dān)憂:如果你只讓人工智能接觸黑暗的情節(jié),它最終可能會(huì)被訓(xùn)練成邪惡的?!叭绻阆氤蔀锳I的老師,那就得擁有圣人般的學(xué)識(shí),”里德爾說,“但如果你在教材中刪掉了反英雄形象,那就說明你這圣人當(dāng)?shù)貌缓细瘢驗(yàn)槟銓?duì)這個(gè)社會(huì)根本沒有深刻的理解,而這正是我的擔(dān)心之一。我們已經(jīng)進(jìn)入了大數(shù)據(jù)時(shí)代,經(jīng)驗(yàn)告訴我們,超量數(shù)據(jù)總比剛好夠更安全,因此只要是合規(guī)的,就可以加入供AI學(xué)習(xí)的數(shù)據(jù)庫中,只有這樣我們才能不偏不倚的判斷出到底什么是善什么是惡?!?/p>

      里德爾聲稱我們正處于歷史上的關(guān)鍵時(shí)刻,人類社會(huì)面臨著一個(gè)簡單的選擇“我們可以認(rèn)為永遠(yuǎn)都不可能有一個(gè)完美的機(jī)器人,而且由于存在各種危險(xiǎn),我們絕不應(yīng)該開發(fā)人工智能;或者我們可以,盡自己所能,努力減輕傷害……我們永遠(yuǎn)不會(huì)擁有完美的自駕車。它會(huì)發(fā)生事故。但事故發(fā)生的次數(shù)比人類少。所以我們的目標(biāo)應(yīng)該是不比人類更糟糕。也許,有可能比人類更好。”

      在科幻小說中,機(jī)器人獲得感知力的時(shí)刻通常是人類對(duì)自己的造物有道德義務(wù)的時(shí)候。與錘子或鐵鍬相比,iPhone或筆記本電腦的復(fù)雜程度要高得多,但它們都屬于同一類別:工具。然而,隨著機(jī)器人開始表現(xiàn)得像人類一樣,機(jī)器人開始獲得情感,并學(xué)習(xí)和接受我們的文化和社會(huì)價(jià)值觀,或許舊的故事需要重新審視。至少,我們有道義上的責(zé)任去教機(jī)器人如何在世上生活。一旦如此,我們可能就不得不重新考慮該如何對(duì)待它們。

      猜你喜歡
      阿金道德機(jī)器人
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      我沒看見你,但我知道你是誰
      跟蹤導(dǎo)練(五)(2)
      道德是否必需?——《海狼》對(duì)道德虛無主義的思考
      藍(lán)繡球開花就去找你
      機(jī)器人來幫你
      認(rèn)識(shí)機(jī)器人
      機(jī)器人來啦
      認(rèn)識(shí)機(jī)器人
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      甘孜| 井冈山市| 晴隆县| 游戏| 侯马市| 西林县| 稻城县| 马关县| 砚山县| 安多县| 中江县| 沾化县| 同仁县| 岐山县| 九江县| 旬阳县| 卓尼县| 乳山市| 长汀县| 东阳市| 兰溪市| 卢龙县| 泗水县| 太康县| 河间市| 甘洛县| 五家渠市| 海阳市| 关岭| 潢川县| 景洪市| 嘉祥县| 荣昌县| 池州市| 贵阳市| 吉木萨尔县| 图木舒克市| 彭州市| 米易县| 海南省| 临沧市|