文/劉飛
由于人工智能革新了人類的工作方式,使人類有更多時(shí)間從事更有價(jià)值的工作,同時(shí),也為降低社會(huì)資源能耗、推動(dòng)經(jīng)濟(jì)社會(huì)發(fā)展發(fā)揮著有益作用,人工智能已經(jīng)成為世界各國(guó)重點(diǎn)投入科研力量的社會(huì)民生領(lǐng)域。但由于存在技術(shù)人員一定程度上在設(shè)計(jì)算法的過(guò)程中對(duì)智能化產(chǎn)品缺乏安全意識(shí)的現(xiàn)象,可能會(huì)導(dǎo)致場(chǎng)景應(yīng)用隱私泄露,且基于人工智能技術(shù)所使用的算法引發(fā)的問(wèn)題也日益受到關(guān)注,在智能產(chǎn)品及應(yīng)用中暗藏的算法偏見或算法歧視給不少群體帶來(lái)使用的擔(dān)憂,可能進(jìn)一步干擾人們的正常生產(chǎn)生活。因此,政府、科研院所、相關(guān)企業(yè)及商業(yè)機(jī)構(gòu)都應(yīng)給予人工智能倫理高度重視,推動(dòng)人工智能倫理在法律法規(guī)所允許的標(biāo)準(zhǔn)規(guī)制范圍內(nèi)搭建必要的科技治理體系,更好實(shí)現(xiàn)科技適應(yīng)人類發(fā)展的目標(biāo)。
人工智能日益加速滲透到社會(huì)發(fā)展的各個(gè)角落,推動(dòng)著社會(huì)朝著更加便利的方向發(fā)展,不僅提高了一些行業(yè)的工作效率,而且有利于降低資源的消耗,踐行綠色發(fā)展方式;但與此同時(shí),人工智能倫理問(wèn)題也隨之而來(lái),影響著人類的生產(chǎn)生活。人工智能產(chǎn)品及應(yīng)用的開發(fā)設(shè)計(jì)主要依靠科研技術(shù)人員,并且算法中的數(shù)據(jù)都是人為選區(qū)的,算法作為人工智能技術(shù)的核心,無(wú)法保證算法最后所訓(xùn)練出來(lái)的模型不帶有某些歧視或者偏見,甚至?xí)`背人類意愿。
人工智能在制度標(biāo)準(zhǔn)方面的完善,不僅能在監(jiān)管中發(fā)揮治理效能,而且能夠推動(dòng)商業(yè)技術(shù)開發(fā)機(jī)構(gòu)在合法合規(guī)的范圍內(nèi)運(yùn)行??蒲性核皩<覍W(xué)者等應(yīng)積極培養(yǎng)與人工智能相關(guān)的跨學(xué)科、跨專業(yè)的復(fù)合型人才,并需要有針對(duì)性地在人工智能倫理方面付諸實(shí)踐指導(dǎo),深入把握人工智能倫理界限,切實(shí)把人工智能倫理的相關(guān)標(biāo)準(zhǔn)規(guī)范制度做深做實(shí),營(yíng)造良好的人工智能倫理實(shí)踐氛圍,為人工智能有序健康發(fā)展打下堅(jiān)實(shí)基礎(chǔ)。人們應(yīng)秉持理性精神使用智能相關(guān)產(chǎn)品及應(yīng)用,在面對(duì)智能系統(tǒng)推薦的個(gè)性化定制服務(wù)時(shí),務(wù)必加以辨別,若不加以辨別,對(duì)智能系統(tǒng)推薦的內(nèi)容囫圇吞棗、照單全收,則可能會(huì)陷入算法編織的信息繭房,極有可能被智能系統(tǒng)所誤導(dǎo),進(jìn)而可能帶來(lái)不少倫理問(wèn)題。
如今,人工智能加速擴(kuò)展及深化在各領(lǐng)域各產(chǎn)業(yè)的應(yīng)用,日益成為人類發(fā)展不可或缺的重要推動(dòng)力。人工智能逐漸成為未來(lái)社會(huì)發(fā)展的重要新引擎,在社會(huì)生活領(lǐng)域,一些簡(jiǎn)單重復(fù)的工作可以由智能系統(tǒng)來(lái)替代完成;而在特殊領(lǐng)域,一些危險(xiǎn)精密或執(zhí)行危險(xiǎn)任務(wù)可以由人工智能技術(shù)輔助完成,在提高效率的同時(shí),也成為社會(huì)發(fā)展的關(guān)鍵力量。但人工智能深入應(yīng)用場(chǎng)景的領(lǐng)域在不斷擴(kuò)大的過(guò)程中,人類與人工智能系統(tǒng)存在的矛盾沖突與日益嚴(yán)重的倫理問(wèn)題,日漸成為人們關(guān)注的焦點(diǎn)。
在人工智能的發(fā)展過(guò)程中,不斷催生出許多產(chǎn)品及應(yīng)用,其中在這一過(guò)程中就有引發(fā)出倫理問(wèn)題的可能,這些問(wèn)題主要包括數(shù)據(jù)隱私保護(hù)存在隱患、安全防范能力不足、算法規(guī)制意識(shí)較弱等倫理問(wèn)題,為人工智能有序健康發(fā)展增加了許多不確定性因素。
人工智能的發(fā)展,離不開數(shù)據(jù)這一關(guān)鍵要素,但也正是對(duì)數(shù)據(jù)資源的開發(fā)利用,給隱私問(wèn)題帶來(lái)不小的倫理問(wèn)題。當(dāng)今社會(huì),互聯(lián)網(wǎng)平臺(tái)及各類移動(dòng)端應(yīng)用都需要注冊(cè)后才能使用其相關(guān)功能,因此而收集到用戶的個(gè)人數(shù)據(jù)不斷增多,成為企業(yè)掌握用戶個(gè)人消費(fèi)及行為的重要參考。人工智能系統(tǒng)中所使用的數(shù)據(jù)挖掘分析技術(shù)可以通過(guò)海量數(shù)據(jù)挖掘分析出有價(jià)值的內(nèi)容,人類的現(xiàn)實(shí)身份信息、互聯(lián)網(wǎng)使用行為以及個(gè)人生活習(xí)慣軌跡極有可能被某些商業(yè)機(jī)構(gòu)用來(lái)進(jìn)行商業(yè)開發(fā)。人類通過(guò)使用網(wǎng)絡(luò)便捷地獲取想要知曉的信息,同時(shí)也在網(wǎng)絡(luò)留下了使用痕跡,這些痕跡可能成為一些機(jī)構(gòu)進(jìn)行開發(fā)的支撐數(shù)據(jù)。一些人工智能產(chǎn)品及應(yīng)用通過(guò)挖掘分析用戶的喜好來(lái)推薦個(gè)性化定制服務(wù),使用戶無(wú)形之中接受了智能系統(tǒng)的推薦,且智能系統(tǒng)能夠根據(jù)用戶留下的體驗(yàn)反饋及使用數(shù)據(jù)進(jìn)一步優(yōu)化推薦方案,不斷貼近用戶所需,導(dǎo)致用戶的個(gè)人隱私等信息不斷被智能系統(tǒng)所吸納。長(zhǎng)此以往,用戶的個(gè)人隱私數(shù)據(jù)信息就有可能暴露在網(wǎng)絡(luò)中,使用戶隨時(shí)有遭受隱私泄露風(fēng)險(xiǎn)的可能性,甚至造成財(cái)產(chǎn)損失,給人類倫理有序健康發(fā)展帶來(lái)較大的不良影響。
人工智能的突飛猛進(jìn)為倫理方面帶來(lái)不少的安全風(fēng)險(xiǎn),其中以下三個(gè)部分較為突出:第一,人工智能所擁有的機(jī)器學(xué)習(xí)能力需要持續(xù)不斷的數(shù)據(jù)作為支撐,機(jī)器學(xué)習(xí)在持續(xù)提高分析決策性能的同時(shí),算法所需要挖掘的數(shù)據(jù)的內(nèi)容會(huì)更深入,極有可能使保護(hù)的信息受到破壞,以及不法分子可能通過(guò)人工智能技術(shù)盜取用戶在互聯(lián)網(wǎng)平臺(tái)上所保存的數(shù)據(jù)信息,即技術(shù)開發(fā)應(yīng)用不加節(jié)制。第二,有些技術(shù)未被合理規(guī)制就被使用在智能系統(tǒng)中,極有可能使系統(tǒng)出現(xiàn)異常,并且算法中的“黑箱”操作無(wú)法被準(zhǔn)確判斷,導(dǎo)致算法決策后果定性困難,為安全帶來(lái)更大的不確定性,即技術(shù)本身存在缺陷。第三,人工智能系統(tǒng)的安全防護(hù)得不到應(yīng)有的保障,極有可能受到不法分子及黑客的網(wǎng)絡(luò)攻擊,發(fā)生竊取用戶數(shù)據(jù)信息等問(wèn)題,導(dǎo)致社會(huì)安全風(fēng)險(xiǎn)增加,即缺乏必要的監(jiān)管體系機(jī)制。
人工智能系統(tǒng)的開發(fā)過(guò)程離不開算法的支撐,此外,人工智能系統(tǒng)主要是運(yùn)用算法模型與數(shù)據(jù)信息來(lái)不斷學(xué)習(xí)人們已經(jīng)產(chǎn)生的行為數(shù)據(jù),從而做出相關(guān)的分析與預(yù)測(cè)。但是由科研技術(shù)人員選取的數(shù)據(jù)而得出的訓(xùn)練模型不一定能確切地體現(xiàn)出真實(shí)的現(xiàn)實(shí)情況,算法的設(shè)計(jì)者和開發(fā)者很可能將其主觀偏見帶入算法系統(tǒng),因所選取的樣本數(shù)據(jù)中存在一部分對(duì)抗樣本的干擾,故人工智能系統(tǒng)體現(xiàn)出來(lái)的結(jié)果未能符合預(yù)期,會(huì)導(dǎo)致生成一部分錯(cuò)誤決策。且在所使用的數(shù)據(jù)中極有可能存在容易被人忽視的價(jià)值取向以及當(dāng)?shù)仫L(fēng)俗特征,一旦發(fā)生此類忽視價(jià)值取向等事件,很難在短時(shí)間內(nèi)糾正,也無(wú)法從技術(shù)方面取得立竿見影的效果,想要辨別哪些數(shù)據(jù)帶有歧視性是非常困難的。一旦在算法設(shè)計(jì)中攜帶某些歧視,就極有可能對(duì)社會(huì)公正發(fā)展產(chǎn)生不利影響。
隨著人工智能倫理所應(yīng)用范圍的不斷擴(kuò)大,其治理也離不開法律的約束。法律從人工智能產(chǎn)品設(shè)計(jì)、開發(fā)、應(yīng)用等方面作了相關(guān)規(guī)定,可以有效引導(dǎo)人工智能倫理有序健康發(fā)展,并有力推動(dòng)人工智能技術(shù)最大程度朝著合理規(guī)范的方向發(fā)展,對(duì)提升人工智能產(chǎn)品的安全性、可靠性有較好的促進(jìn)作用。此外,應(yīng)明確人工智能企業(yè)的法律主體責(zé)任與義務(wù),最大程度踐行人工智能產(chǎn)品的倫理準(zhǔn)則。在企業(yè)層面,人工智能企業(yè)在開發(fā)各類智能化產(chǎn)品時(shí)要遵循相關(guān)制度規(guī)定;在政府及相關(guān)組織層面,要加強(qiáng)對(duì)智能化產(chǎn)品的審查及監(jiān)督力度,使其符合相關(guān)標(biāo)準(zhǔn)。
近年來(lái),人工智能相關(guān)產(chǎn)品及應(yīng)用誘導(dǎo)用戶下載病毒軟件甚至詐騙軟件的現(xiàn)象屢有發(fā)生,導(dǎo)致用戶個(gè)人隱私甚至財(cái)產(chǎn)受到損失,因此,人工智能的產(chǎn)品及應(yīng)用的安全可靠穩(wěn)定性能越來(lái)越受到人們的關(guān)注。為了加強(qiáng)人工智能產(chǎn)品及應(yīng)用的安全性,應(yīng)嚴(yán)格把關(guān)產(chǎn)品及應(yīng)用的測(cè)試過(guò)程、測(cè)試結(jié)果,設(shè)立獨(dú)立的監(jiān)測(cè)監(jiān)督機(jī)構(gòu),最大程度保證人工智能產(chǎn)品及應(yīng)用的安全性良好,穩(wěn)定性、可靠性持續(xù)增加。并應(yīng)同時(shí)加強(qiáng)對(duì)人工智能相關(guān)科研人員的倫理方面的培訓(xùn),強(qiáng)化科研技術(shù)人員的倫理意識(shí),不斷提升科研技術(shù)人員的道德素養(yǎng)教育水平,進(jìn)一步明確人工智能在設(shè)計(jì)、研發(fā)等環(huán)節(jié)的倫理標(biāo)準(zhǔn)準(zhǔn)則,把人工智能倫理始終規(guī)制在合理合法范圍內(nèi)。
作為當(dāng)下的新興科技產(chǎn)業(yè),人工智能的發(fā)展日新月異,要推動(dòng)人工智能各方面有序健康發(fā)展,應(yīng)完善人工智能倫理監(jiān)管體系及制度。政府及相關(guān)部門應(yīng)制定應(yīng)用于各行業(yè)各產(chǎn)業(yè)的應(yīng)用規(guī)范與監(jiān)管制度,加強(qiáng)對(duì)人工智能產(chǎn)品及應(yīng)用的監(jiān)管,在初步設(shè)計(jì)、實(shí)際研發(fā)、產(chǎn)品及應(yīng)用的推廣及落地等環(huán)節(jié)細(xì)化監(jiān)管體系,全面嚴(yán)格篩查產(chǎn)品及應(yīng)用倫理漏洞,最大限度保護(hù)消費(fèi)者權(quán)益。組織科研院所專家學(xué)者、企業(yè)技術(shù)骨干等對(duì)市場(chǎng)上使用的人工智能產(chǎn)品及應(yīng)用進(jìn)行倫理審查,主要審查其是否符合相關(guān)規(guī)范制度等;對(duì)不符合相關(guān)要求的智能產(chǎn)品及應(yīng)用應(yīng)強(qiáng)制要求下架整改,并舉一反三督促相關(guān)企業(yè)產(chǎn)品及應(yīng)用加強(qiáng)自身倫理檢查,切實(shí)推動(dòng)人工智能相關(guān)企業(yè)及產(chǎn)業(yè)健康發(fā)展。
算法是智能化產(chǎn)品中的重要因素,因此應(yīng)加強(qiáng)算法開發(fā)監(jiān)管,尤其在算法設(shè)計(jì)、數(shù)據(jù)選取方面應(yīng)格外注意??蒲腥藛T在進(jìn)行算法設(shè)計(jì)、開發(fā)時(shí),由于個(gè)人認(rèn)知、周圍環(huán)境影響等因素,極有可能在開發(fā)產(chǎn)品及應(yīng)用時(shí)出現(xiàn)算法歧視、算法偏見等,導(dǎo)致出現(xiàn)人工智能倫理問(wèn)題,進(jìn)而引發(fā)許多不良社會(huì)倫理輿論。因此,應(yīng)加強(qiáng)政府在人工智能倫理頂層設(shè)計(jì)與統(tǒng)籌規(guī)劃中的作用,科學(xué)引導(dǎo)人工智能相關(guān)科研院所及企業(yè)在設(shè)計(jì)開發(fā)人工智能產(chǎn)品及應(yīng)用時(shí)充分分析人工智能倫理方面可能帶來(lái)的影響,加強(qiáng)企業(yè)在人工智能產(chǎn)品及應(yīng)用中的算法監(jiān)管,嚴(yán)格制定算法開發(fā)規(guī)則制度,加大人工智能產(chǎn)品及應(yīng)用審查力度,強(qiáng)化科研人員及開發(fā)人員等的倫理意識(shí),提升人工智能在符合倫理規(guī)范范圍內(nèi)的發(fā)展水平。
人工智能為推動(dòng)全球發(fā)展持續(xù)注入強(qiáng)大動(dòng)力,惠及世界各國(guó)人民。世界各國(guó)在人工智能研究方面應(yīng)進(jìn)一步加強(qiáng)跨學(xué)科、跨領(lǐng)域、跨地區(qū)合作,加大人工智能國(guó)際人才協(xié)同培養(yǎng)力度,完善人工智能項(xiàng)目創(chuàng)新協(xié)作體系,合理規(guī)制人工智能倫理開發(fā)與應(yīng)用,增強(qiáng)各國(guó)在人工智能技術(shù)創(chuàng)新、產(chǎn)業(yè)落地應(yīng)用、知識(shí)產(chǎn)權(quán)保護(hù)等方面的協(xié)作意識(shí)。各國(guó)政府及學(xué)術(shù)機(jī)構(gòu)等應(yīng)牽頭舉辦與人工智能倫理相關(guān)的專業(yè)研討會(huì)及論壇,提升各國(guó)國(guó)家政府相關(guān)部門及專家學(xué)者、行業(yè)從業(yè)者等關(guān)于人工智能倫理方面的重視程度,健全各國(guó)在人工智能方面互相參觀、交流、合作機(jī)制,更大程度上保障各國(guó)在人工智能領(lǐng)域能夠更好實(shí)現(xiàn)共享、共創(chuàng)、共治、共贏。
隨著人工智能在不同應(yīng)用場(chǎng)景中的深入應(yīng)用,人工智能倫理問(wèn)題也不斷增多。在實(shí)踐中切實(shí)有效地解決這些問(wèn)題需要加快完善人工智能倫理相關(guān)法律建設(shè),嚴(yán)把人工智能產(chǎn)品安全關(guān),完善人工智能倫理監(jiān)管與審查制度,加強(qiáng)科研人員倫理意識(shí)培養(yǎng),強(qiáng)化國(guó)際協(xié)同創(chuàng)新合作,攜手推動(dòng)人工智能倫理創(chuàng)造性發(fā)展等,共同化解倫理風(fēng)險(xiǎn),以服務(wù)于人民美好生活需要為宗旨,引導(dǎo)人工智能向上向善。