谷業(yè)凱
圖像識別使身份認(rèn)證更可信賴,短短幾秒就能證明“你就是你”。但是,當(dāng)隱私侵犯、數(shù)據(jù)泄露等事件層出不窮時,人們又不得不反思:人工智能的持續(xù)進步和廣泛應(yīng)用帶來的好處是巨大的,為了讓它真正有益于社會,同樣不能忽視的還有對人工智能的價值引導(dǎo)、倫理調(diào)節(jié)以及風(fēng)險規(guī)制。
“刷臉”進站、“刷臉”支付、“刷臉”簽到、“刷臉”執(zhí)法……人臉識別技術(shù)正走進更為廣闊的應(yīng)用場景,與指紋、虹膜等相比,人臉具有弱隱私性的生物特征,因此,這一技術(shù)對于公民隱私保護造成的威脅性尤其值得重視?!叭四槇D像或視頻廣義上講也是數(shù)據(jù),如果沒有妥善保管和合理使用,就會容易侵犯用戶的隱私?!敝袊鐣茖W(xué)院哲學(xué)研究所研究員段偉文說。
通過數(shù)據(jù)采集和機器學(xué)習(xí)來對用戶的特征、偏好等“畫像”,互聯(lián)網(wǎng)服務(wù)商進而提供一些個性化的服務(wù)和推薦等,從正面看是有利于供需雙方的一種互動。但對于消費者來說,這種交換是不對等的。就頻頻發(fā)生的個人數(shù)據(jù)侵權(quán)的事件來看,個人數(shù)據(jù)權(quán)利與機構(gòu)數(shù)據(jù)權(quán)力的對比已經(jīng)失衡,在對數(shù)據(jù)的收集和使用方面,消費者是被動的,企業(yè)和機構(gòu)是主動的。段偉文表示,“數(shù)據(jù)實際上成為被企業(yè)壟斷的資源,又是驅(qū)動經(jīng)濟的要素?!比绻碳抑粡淖陨砝娉霭l(fā),就難免會對個人數(shù)據(jù)過度使用或者不恰當(dāng)披露。
“大數(shù)據(jù)時代,個人在互聯(lián)網(wǎng)上的任何行為都會變成數(shù)據(jù)被沉淀下來,而這些數(shù)據(jù)的匯集都可能最終導(dǎo)致個人隱私的泄露。”湖南師范大學(xué)人工智能道德決策研究所所長李倫認(rèn)為,用戶已經(jīng)成為被觀察、分析和監(jiān)測的對象。
2017年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》)?!兑?guī)劃》強調(diào),促進人工智能行業(yè)和企業(yè)自律,切實加強管理,加大對數(shù)據(jù)濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度。
“雖然‘刷臉的應(yīng)用越來越多,但人工智能目前仍處于起步階段,需加大對數(shù)據(jù)和隱私的保護力度,關(guān)注和防范決策失誤和社會不公?!痹趥€人數(shù)據(jù)權(quán)利的保護方面,段偉文建議,應(yīng)促使數(shù)據(jù)交易各方對自己的行為負(fù)責(zé),讓每個人知道自己的數(shù)據(jù)如何被處理,特別是用于其他用途的情形,減少數(shù)據(jù)濫用,讓人們清楚知道自己的“臉”還是否安全。
段偉文認(rèn)為,要進一步加強人工智能的倫理設(shè)計,進行全流程追問與核查,從算法決策的結(jié)果和影響中的不公正入手,反向核查其機制與過程有無故意或不自覺的曲解與誤導(dǎo),揭示存在的問題,并促使其修正和改進。
在騰訊研究院法律研究中心高級研究員曹建峰看來,應(yīng)對人工智能帶來的倫理問題,一是要構(gòu)建算法治理的內(nèi)外部約束機制,將人類社會的法律、道德等規(guī)范和價值嵌入人工智能系統(tǒng);二是在人工智能研發(fā)中貫徹倫理原則,促使研發(fā)人員遵守基本的倫理準(zhǔn)則。
“我們生活在一個人機共生的時代,人類與機器之間勢必將發(fā)生各種沖突和矛盾,僅靠法律和制度很難完全解決?!崩顐惐硎荆藗冞€應(yīng)努力提升自身的科學(xué)素養(yǎng),主動維護自身的權(quán)利,社會也應(yīng)盡快建立討論人工智能倫理問題的公共平臺,讓各方充分表達意見,促進共識的形成。