人們愿意派遣殺人機器到前線作戰(zhàn),而不愿讓自己子女戰(zhàn)死沙場。但是,人們卻又不希望看到敵人派殺人機器來追殺自己。那么,人類到底要不要擁有這種“殺手機器人”(killer robots),即所謂的致命的自主武器 (lethal autonomous weapons)?對于這件事,特斯拉和SpaceX CEO埃隆·馬斯克的立場可謂異常堅定:禁止。
《中國經(jīng)濟周刊》對此刊發(fā)《除了車和火箭,馬斯克還對一件事非常上心》一文,回顧了包括馬斯克在內(nèi)的眾多科技圈大佬對于所謂“殺手機器人”的憂慮,不過也有人認為馬斯克是杞人憂天。你怎么看?
擔心:科技圈的呼吁力量有限
@睿棋:潘多拉魔盒一直都在,有人封存就有人竊取,有人強行打開就有人搶奪。
@你在哪兒呢:科技圈大佬們做的關(guān)于禁止“殺手機器人”的承諾讓我覺得恐怖。因為他們這樣承諾,就意味著可能有人在造殺人的AI了,細思恐極。
@墅燕:人類有時候是控制不了自己內(nèi)心欲望的。電影 《未來世界》 正在逐漸走近我們,而此刻的我們都在為能使用機器人為自己盈利而沾沾自喜,渾然不知。抑制人的警覺性從來不是一步到位的,溫水煮青蛙乃是最簡單最實用的。
@云上逐日行:等真的造出了高級人工智能,用不用在武器上就由不得你們決定了。
@猁子9:人工智能發(fā)展永遠不是幾千個科技圈的人能把握的。
@廢紙桶子:就算簽了不開發(fā)自主殺人機器的宣言,也可能會撕毀,只是現(xiàn)在沒造出來或者說沒有利益沖突而已。希望科學家不要向資本低頭,不要把承諾變成廢紙。
機器人落入不法分子之手最可怕
@小雨:人控制的殺人機器是武器,不可怕。能讓機器來選擇殺誰的機器,才可怕。
@曾伽·宗博魯特:你并不能決定所謂的自主武器如何使用。水結(jié)成冰都能成為致命武器,主要看誰使用,只有致命程度的高低之分。
@孤寡老漢:如果無人駕駛的車載電腦被人黑進去了,想想都恐怖。
@雲(yún)師兄:菜刀不會殺人,但是到了暴徒手里就是兇器。機器人不會殺人,但是到了恐怖分子手里,他能給改成殺人機器人。
@silent1090536:問題是怎么能保證機器人的核心技術(shù)不會落到恐怖組織的人的手里。
需要法律護衛(wèi)發(fā)展
@白羅斯水晶:大多時候,機器人只是一種智能化生產(chǎn)工具,如果編入特定的程序給它作業(yè),它當然會“屠殺”。是在屠宰場屠殺牲畜,還是出門去戰(zhàn)場屠殺人?至于機器人能否作為武器投入戰(zhàn)爭,有國際法規(guī)定嗎?
@喜歡倒著仰泳:機器人殺人,其“父母”應(yīng)該一律以死刑論處。
@一蓑煙雨qxsmh:避免潛在風險最有效的辦法實際上并不取決于技術(shù)發(fā)展,而取決于人類的決定。
@Reder:有AI就必須要有反AI,從法律、設(shè)計理念、技術(shù)規(guī)范及軟件硬件等,構(gòu)建完備的法律方面的規(guī)范系統(tǒng)。