張?zhí)锟?/p>
作文君:近年來,AI的發(fā)展可謂勢不可當!這不,2019年5月2日,美國麻省理工學(xué)院的三位科學(xué)家在《科學(xué)》發(fā)表文章稱,他們首次用AI軟件大腦視覺神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)了控制猴子大腦的神經(jīng)元活動。雖然這是使用人工神經(jīng)網(wǎng)絡(luò)來理解真實神經(jīng)網(wǎng)絡(luò)的一大突破,但網(wǎng)友們紛紛對此表示:“太可怕了!離控制人腦不遠了吧?!”到底這一突破的意義何在?我們又該如何去認識這件事情呢?一起來看吧!
對人腦進行控制,較早的研究是腦機接口,而現(xiàn)在,新的控制大腦的方式出爐了,是用深度學(xué)習的方式讓AI模擬人工神經(jīng)網(wǎng)絡(luò)(ANN)掌握對圖像的識別,然后通過操控人工神經(jīng)網(wǎng)絡(luò),達到對大腦的控制。
具體而言,即研究人員建立一個基于人工神經(jīng)網(wǎng)絡(luò)的視覺系統(tǒng)模型,每個網(wǎng)絡(luò)都以一個由模型神經(jīng)元或節(jié)點(類似于真實神經(jīng)系統(tǒng)中的突觸)組成的任意架構(gòu)開始,這些神經(jīng)元或節(jié)點可以以不同的強度(權(quán)重)相互連接。然后,用一個包含超過100萬張圖像的圖庫來訓(xùn)練這些模型。當研究人員向模型展示每張圖像,以及圖像中最突出的物體(比如飛機或椅子)的標簽時,模型通過改變連接的強度來學(xué)習識別物體。
隨后把這些圖像呈現(xiàn)給猴子來測試AI模型控制猴子神經(jīng)元的情況,結(jié)果表明,AI模型可以強烈激活所選定的大腦神經(jīng)元,甚至可以精確控制單個神經(jīng)元和位于網(wǎng)絡(luò)中間的神經(jīng)元群。因此,未來可能只要能操控視覺神經(jīng)網(wǎng)絡(luò)模型AI,就可以控制大腦。由于人和非人靈長類動物的解剖和生理都相似,這一研究結(jié)果似乎也可以推論到人,也就是說未來如果采用某種AI模型,就可以控制人的大腦。
但這種控制顯然是初步的和局部的。實際上,準確地說,這種情況并非控制大腦,而是吸引猴子或人的大腦更多關(guān)注某一物體和事物。
現(xiàn)在已知人腦中大約有1000億個神經(jīng)元(神經(jīng)細胞),每個神經(jīng)元又通過突觸(神經(jīng)元與神經(jīng)元之間的接頭)與多個神經(jīng)元聯(lián)系,是通過神經(jīng)元上的稱為軸突和樹突的分支來建立聯(lián)系的。但是,這些聯(lián)系是如何形成并且有多少種聯(lián)系方式,迄今人們知道的并不多。但即便解決了所有的問題,也明確了用圖像控制大腦不同部位的神經(jīng)元(激活并傳導(dǎo)到特定的神經(jīng)網(wǎng)絡(luò)),未必就能真的實現(xiàn)控制大腦,因為這涉及太多的倫理問題。
在治療疾病上,此舉倫理上的爭議或許相對較小——畢竟只是為了治療疾病,而且保證不會對病人造成傷害,也不會在治愈后還持續(xù)不斷地控制病人的大腦,大概是可以通過倫理委員會的批準。但對于正常人而言,通過這樣的AI軟件來控制大腦就有比較大的倫理問題。即便是應(yīng)用于提高記憶力和增強學(xué)習能力,都有可能造成不對等競爭的后果,也會產(chǎn)生不公正。更重要的是,如果這類AI軟件進一步發(fā)展到可以隨時控制正常人的大腦,就違背和超越了人工智能的一個極大的倫理原則,即AI不應(yīng)用來收集或使用信息,以監(jiān)視人和控制人。
因此,AI大腦視覺神經(jīng)網(wǎng)絡(luò)模型最大的用處,應(yīng)當是用來診治疾病及研究生命現(xiàn)象和機理,當然這應(yīng)是在技術(shù)成熟并有了規(guī)范而具體的倫理原則之后。
(摘自《新京報》2019年5月10日)