黃崑 徐曉婷 黎安潤澤 徐峰
關鍵詞:人工智能;倫理;圖書情報;內(nèi)容分析
1問題提出
人工智能(Artificial Intelligence,簡稱AI)興起于20世紀50年代,研究和制造能夠模擬人類智能活動的智能機器或智能系統(tǒng),用來延伸和擴展人類的智能。人工智能技術發(fā)展驅動了新一輪產(chǎn)業(yè)變革和第四次科技革命。美國、日本、英國等國家(地區(qū))都已出臺相關政策對人工智能技術的發(fā)展予以支持,我國政府也高度重視,相繼出臺《新一代人工智能發(fā)展規(guī)劃》(2017年7月)、《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020)》(2017年12月)、《關于促進人工智能和實體經(jīng)濟深度融合的指導意見》(2019年3月)等多項戰(zhàn)略規(guī)劃和行動計劃。然而,技術的健康發(fā)展離不開倫理研究的同步發(fā)展。2018年,習近平總書記在主持中共中央政治局第九次集體學習時,指出“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究”。在國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,提出到2025年“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”??梢姡谌斯ぶ悄芗夹g發(fā)展過程中,倫理研究至關重要。倫理泛指“道德”,狹義上常用來表示某一特定傳統(tǒng)、群體或個人的道德原則,表現(xiàn)為人與社會、人與自然和人與人關系的思想與行為準則。在人工智能時代倫理的內(nèi)涵,指在一定社會歷史條件下,通過制定相關原則、規(guī)范和標準,促進人、社會、自然和人工智能機器的和諧共處。
新技術的發(fā)展及其社會影響是圖情學科重要的內(nèi)容之一。人工智能是一個新興的交叉學科,應用領域廣泛。圖情學科現(xiàn)有的情報分析方法,可能在處理人工智能倫理問題研究上,還需要結合新的理論視角和研究手段,這也有助于推進圖情學科在處理交叉學科問題上研究方法的探索。不僅如此,圖情學科對信息生命周期的管理研究,各類信息系統(tǒng)、信息技術的創(chuàng)新研究,都存在著道德倫理的風險,也需要對倫理問題進行思考并應對。洞察國際圖情領域所關注的倫理風險情境和應對,不僅可以用于分析與計算機、哲學等不同學科關注的聯(lián)系和差異,也可以為我國圖情學科研究者進入這一領域提供參考和借鑒。
根據(jù)對國內(nèi)圖情CSSCI期刊的論文調(diào)研可以看到,研究者們已經(jīng)從隱私保護、數(shù)據(jù)安全等問題角度進行探討,還有研究者從國際角度,對人工智能倫理問題研究進行分析,如劉鴻宇等、汪玉蘭等都運用CiteSpace工具,對人工智能倫理領域文獻研究論文研究的主題、經(jīng)典文獻與重要作者等進行了分析。王晰巍等則利用CiteSpace工具,對國內(nèi)外圖情領域在人工智能問題上的研究論文進行分析,指出國內(nèi)外研究者主要圍繞人工智能在信息檢索、社交媒體內(nèi)容分類、情感分析、知識問答、網(wǎng)絡輿情分析等方面。雖然倫理問題研究并非當下圖情領域在人工智能方面研究關注的熱點,但是.人工智能技術對隱私與安全的影響等相關倫理問題被認為是未來研究趨勢中重要的方向之一。
可見,國內(nèi)圖情領域已經(jīng)開始關注人工智能倫理問題,為了進一步推動圖情領域的研究關注和力度,本研究選取了近5年圖情學科SSCI期刊發(fā)表的相關論文,利用內(nèi)容分析法對這些研究探討的倫理風險問題情境、應對策略進行編碼和分析,力圖為我國圖情領域同行開展研究提供參考和借鑒。
2研究設計
2.1研究問題
本研究通過分析國際圖書情報領域人工智能倫理研究文獻,探究圖書情報領域人工智能倫理研究現(xiàn)狀,具體研究問題如下:
1)研究了哪些主題的人工智能倫理問題?
2)提出了哪些倫理風險應對的策略?
2.2編碼設計
本研究采取內(nèi)容分析法,從問題層次、應用領域、對策3個方面,對收集到的論文進行編碼。其中,問題層次又分為數(shù)據(jù)、算法和人工智能系統(tǒng)3類。應用領域根據(jù)《中國圖書館分類法》中的21個大類(去掉z綜合性)進行編碼。在對策層面,借鑒Hagendorff T提出的社會方法和技術方法分類方式,如表1所示。編碼過程由兩位編碼員進行,在編碼分歧時進行討論,最終取得一致后完成編碼工作。
2.3數(shù)據(jù)收集
為了收集圖情領域相關論文,根據(jù)Web of Sci.ence(WOS)數(shù)據(jù)庫圖書情報學科類目下進行檢索。一方面,綜合兩種策略檢索人工智能主題,如表2所示。第一,使用“人工智能”或人工智能系統(tǒng)載體的“機器人”為主題詞;第二,根據(jù)人工智能相關發(fā)展報告,將人工智能領域的相關技術作為主題詞。
另一方面,確定“倫理”或“道德”作為倫理主題的檢索詞。
因此,最終確定的檢索式為TS=(“ArtificialIntelligen”O(jiān)R AI OR Robot。OR“Machine Learn-ing”O(jiān)R“Deep Learning”O(jiān)R“Natural LanguageProcessing”O(jiān)R“Image Recognition”O(jiān)R“FaceRecognition”O(jiān)R“Computer Vision”O(jiān)R“VirtualAssistant”O(jiān)R“Visual Search”O(jiān)R“Text Analysis”O(jiān)R“Semantic Search”O(jiān)R“Predictive Analysis”O(jiān)R“Intelligent System”O(jiān)R“Semantic Web”、AND TS=(Ethic OR Moral),并限定WOS類別為圖書情報(INFORMATION SCIENCE LIBRARYSCIENCE),文獻類型為學術論文(Article,Re.view,Proceedings Paper),在2015年1月1日一2019年12月31日期間發(fā)表,檢索到43篇論文。其中4篇無法獲得全文,最終分析的論文數(shù)為39篇。自2015年起,逐年發(fā)表論文數(shù)為4、7、3、10和15,整體呈現(xiàn)上升趨勢。
對文獻來源出版物進行統(tǒng)計,共有14個來源期刊。發(fā)表在期刊《Ethics and Information Techn01.ogy》的論文占61%,如表3所示,該期刊是圖書情報學科類目下發(fā)表人工智能倫理研究文獻的主要刊物。該期刊的出版商為Springer Nature,出版年份可追溯到1999年,出版頻率為每年出版4期,2019年期刊影響因子為2.06。根據(jù)WOS的學科分類,該期刊同時歸類在圖書情報學和倫理學學科,辦刊宗旨是推動道德哲學與信息通信技術領域之間的對話。
從論文作者機構來看.這39篇論文共計涉及83位作者,來自18個國家(地區(qū)),其中,美國、英國和荷蘭的作者發(fā)表文獻最多,分別有11篇、8篇和6篇研究文獻:意大利和丹麥研究者分別發(fā)表了3篇文獻。我國研究者發(fā)表了1篇相關研究。
3數(shù)據(jù)分析
3.1基本情況
根據(jù)編碼結果,39篇論文分為兩類,一類在論文標題中就出現(xiàn)“倫理或道德”,主要探究或解決某一類倫理問題,如無人機在人道主義領域應用中的道德反思、人工智能產(chǎn)品與人權問題、機器人、生物特征識別等數(shù)字化應用帶來的社會倫理問題。第二類在關鍵詞或摘要內(nèi)容中出現(xiàn)“倫理或道德”,通常將倫理作為研究分析或討論的視角之一。如探討人工智能在公共部門服務領域的應用和發(fā)展問題時涉及了將人工智能政策和倫理納入應用各層面的觀點。在訪談圖書館館長、圖書館評論員等人員探究人工智能對高校圖書館潛在影響時提及,人工智能應用的倫理問題是圖書館面臨的挑戰(zhàn)之一。
在應用領域上.共計出現(xiàn)9類領域,醫(yī)藥衛(wèi)生領域出現(xiàn)最多,如圖1所示。
在問題層次上,數(shù)據(jù)、算法和人工智能系統(tǒng)層面?zhèn)惱韱栴}研究各有14篇、11篇和31篇??梢?,對人工智能系統(tǒng)層面的關注度更高。下面,結合問題層次、應用領域進行分析。
3.2數(shù)據(jù)層面
數(shù)據(jù)層面?zhèn)惱韱栴}研究涉及的應用領域如圖2所示。
關于醫(yī)藥衛(wèi)生領域,主要探討護理和醫(yī)療中的數(shù)據(jù)采集、共享中的倫理風險。針對護理數(shù)據(jù)的采集,護理機器人24小時監(jiān)視、記錄并傳遞護理對象的身體狀況,這些數(shù)據(jù)包含護理對象日常行動的大量信息,如洗澡或尚未穿好衣服等時刻被監(jiān)視或記錄,這些信息如果在未征得護理對象許可情況下被收集、觀看甚至利用,會威脅到護理對象的隱私。針對醫(yī)療數(shù)據(jù)的共享,不同醫(yī)療機構之間的共享數(shù)據(jù)有助于增加數(shù)據(jù)樣本的容量和多樣性,大量訓練數(shù)據(jù)可以促進醫(yī)療記錄監(jiān)測和醫(yī)學治療改善,但是共享過程容易因為數(shù)據(jù)保護不當而侵犯患者的健康隱私。
關于政治領域,主要探討公共服務中公民數(shù)據(jù)利用產(chǎn)生的倫理風險。Sousa w G等提出公共部門應用人工智能技術時要避免數(shù)據(jù)被一些追求個人利益的人破壞和利用。針對公民數(shù)據(jù)利用,Lindgren I等指出應用人工智能技術生成或分析大量公民數(shù)據(jù)時,結果可能用于監(jiān)視公民線上或線下行為而限制其行為活動.對公民數(shù)據(jù)隱私造成影響。
關于地球科學領域.主要探討地理文本分析的數(shù)據(jù)標注可能引發(fā)的倫理問題。McDonough K等分析了跨越歷史的地理文本給地理信息檢索帶來的挑戰(zhàn),認為常用地名詞典由于缺少鏈接到歷史地名形式的時間元數(shù)據(jù),造成地名歷史被遺忘、殖民時期地名永久化,從而引發(fā)殖民時期地名歷史延續(xù)、當?shù)孛麣v史文化遭破壞等一系列社會倫理問題。
關于工業(yè)技術領域.主要探討家居產(chǎn)品應用中的倫理風險。如智能家居產(chǎn)品收集用戶個人信息和產(chǎn)品使用等數(shù)據(jù),雖然智能產(chǎn)品提供了隱私協(xié)議,但人們通常不能完全理解協(xié)議內(nèi)容,或者由于產(chǎn)品的使用限制和隱私協(xié)議的閱讀時間過長而習慣性選擇“同意”,這給隱私安全帶來威脅。
在經(jīng)濟、軍事、交通運輸?shù)阮I域,數(shù)據(jù)層面的問題也主要集中在數(shù)據(jù)生命周期的不同階段,如在數(shù)據(jù)組織階段,Iliadis A提出應用本體對軍事情報、社會計劃和經(jīng)濟學等領域的數(shù)據(jù)進行組織分析時,需要關注錯誤識別社會實體可能產(chǎn)生的倫理道德風險。
此外,表情數(shù)據(jù)采集問題也受到關注。表情數(shù)據(jù)采集不僅存在常見的數(shù)據(jù)泄露的隱患,還會帶來精神層面的隱私侵犯形式。如面部識別軟件可以自動發(fā)現(xiàn)人們不自覺的面部微表情.揭示人們視為隱私的情緒。又如機器人教師可以通過情緒探測器和傳感器識別學生的情緒,然而這些個人情緒識別信息在存儲和傳輸過程中可能會侵犯到學生的隱私,帶來新的隱患。情緒識別技術通過檢查人們在無意識發(fā)出的非語言信息(如面部表情、走路方式),可能因為泄露人們原本希望隱藏的心理狀態(tài)或情緒而侵犯人的“精神隱私”。
3.3算法層面
算法層面?zhèn)惱韱栴}研究涉及的應用領域如圖3所示。
關于經(jīng)濟領域,主要探討區(qū)域經(jīng)濟分析、社會就業(yè)、金融信貸和商業(yè)銷售等應用情境中應用人工智能算法產(chǎn)生的倫理問題。具體包括:①在區(qū)域經(jīng)濟分析中,運用卷積神經(jīng)網(wǎng)絡識別高分辨率衛(wèi)星圖像的特征,據(jù)此分析地方經(jīng)濟發(fā)展,進而確定各地區(qū)的經(jīng)濟水平,但這可能造成因地區(qū)經(jīng)濟水平差異產(chǎn)生的差別對待;②在就業(yè)機會分配時,由于現(xiàn)有的工作數(shù)據(jù)中男性和女性的工作情況存在差異,基于這些數(shù)據(jù)進行算法模型訓練,容易延續(xù)數(shù)據(jù)中的性別歧視給男性提供更具經(jīng)濟優(yōu)勢的工作機會;③在金融信貸中,運用人工智能技術幫助金融機構決定提供貸款的對象,算法運行結果可能產(chǎn)生地域、種族和性別上的偏見。此外,金融機構根據(jù)信用預測算法的結果確定提供貸款的對象雖然有助于規(guī)避貸款風險,但同時也可能加大良好信用群體與信用有風險群體之間信用評分的差距,加劇不平等現(xiàn)象;④在商業(yè)銷售中,Ien.ca M提到面部識別算法識別非裔美國人始終比白種人效果差,產(chǎn)生諸如面部識別等技術應用的社會受益不平等問題。
關于政治領域,主要探討在競選活動和公共部門服務中使用算法可能會引發(fā)的倫理問題。在競選活動中,人工智能算法根據(jù)選民搜索行為預測選擇偏好,通過改變搜索結果順序影響選民偏好,對選舉的民主造成威脅。同時,信息技術創(chuàng)造的更智慧算法會有意或無意地“懲罰”某些群體或減少他們獲得某種機會的可能性,破壞低水平的消費者享有某些服務的公平機會。這些算法偏見或歧視會進一步侵犯人類原有的自我決策權,公共部門在應對算法偏見帶來的不利影響時,存在法律問責的困難。
關于法律領域,主要探討犯罪預測中算法應用產(chǎn)生的倫理問題。Vetro A等提到法官用來評估被告再犯概率以防止累犯行為的算法存在對黑人被告的偏見,該算法使他們普遍呈現(xiàn)更高的犯罪風險.加劇現(xiàn)實社會的種族歧視,帶來社會不安定因素。Rahwan I也提到警務預測中使用AI會使得一些人很難擺脫遭受歧視的惡性循環(huán)。
在文化科學領域,主要討論新聞傳播中使用人工智能算法可能引起的倫理問題。運用機器學習算法.通過用戶的瀏覽和點擊等行為預測他們的偏好選擇,并據(jù)此推薦新聞內(nèi)容,在用戶對推薦算法不知情或不理解的情況下.將他們閱讀的新聞內(nèi)容朝著算法預測的方向引導.這可能限制了用戶對新聞內(nèi)容的自主選擇權利。
3.4人工智能系統(tǒng)層面
人工智能系統(tǒng)層面?zhèn)惱韱栴}研究涉及的應用領域如圖4所示。
在社會科學領域,主要討論機器人在人類社會活動中引發(fā)的倫理問題。如聊天、陪伴等社交機器人通過模仿人類行為觸發(fā)用戶的情緒反應,可能讓用戶投入情感并建立一種新的社會關系。對于認知水平有限的用戶,可能會降低他們參與真正社會互動的意愿,造成道德傷害。又如機器人擁有的道德能力引發(fā)的倫理問題.包括機器人是否應該有自主性、是否應該總是聽從人類的命令、是否應該被允許在一定情境下殺害人類、是否應該享有被保護權利等。人們很容易將機器人使用中產(chǎn)生的問題歸咎于機器人本身或對機器人負有責任的代理人,但機器人往往不滿足被迫責的條件或者不適合成為被追責的責任主體.由此可能導致道德替罪羊的出現(xiàn),削弱公眾對法治的信心。
在醫(yī)藥衛(wèi)生領域,主要探討護理機器人引發(fā)的倫理問題。機器人在喂食、搬運等行為時不能像人一樣對照料對象提供關愛,因而被照料者可能會感覺自己被當作物體來對待,個人尊嚴受到傷害。Draper H等提到使用機器人為老年人提供家庭護理服務時,機器人的監(jiān)視可能干擾老人的行動,剝奪他們自主選擇權。Tuisku O等也指出機器人無法代替人類的聲音和手.機器人的使用會減少護理中的人際接觸,造成人類關懷的喪失。Rodog.no R探究陪伴型機器人與老年人的關系時指出,為了獲得護理機器人的積極情感交流,老年人可能夸大悲傷經(jīng)歷而變得更加多愁善感。Wynsberghe AV也指出.設計護理機器人應重視“關懷倫理”,其核心元素為關系、角色和責任,強調(diào)護理機器人的道德水平不只是關注照顧效率和隱私保護,還需要考慮對被照料者的道德品格的影響。
在軍事領域.主要討論軍用武器系統(tǒng)應用人工智能技術的倫理問題,包括對人的尊嚴的影響和武器系統(tǒng)自主決策的道德責任問題。自主武器系統(tǒng)使用傳感器獲取目標,會在人類難以直接干預決策情況下進行自主攻擊。Sharkey A認為目前自主武器系統(tǒng)無法理解或尊重生命的價值,使用武器系統(tǒng)做出殺人的決定是對生命不負責任的行為。因此,自主武器系統(tǒng)或軍用機器人的使用需要在最大限度減少間接傷害和實現(xiàn)軍事優(yōu)勢間進行權衡。然而,一旦發(fā)生不必要的平民傷亡,明確追責或進行懲罰都變得相當困難。
在政治領域,主要關注在人道主義援助和國家安全中應用人工智能技術產(chǎn)生的倫理問題。在人道主義援助方面,針對政治避難和移民的臨時收容所.利用無人機收集收容中心場地數(shù)據(jù),盡管可以檢查中心的生活條件,但也減少了人與人之間的互動.如果未考慮無人機使用的潛在危害,可能傷害到受援助對象的尊嚴。在國家安全方面,相關研究中提到國家安全機構或其他政府機構部署監(jiān)視系統(tǒng)用于控制和約束公民,引發(fā)了侵犯公民自由權利的爭論。
在文化科學領域,主要關注在文化服務、教育中使用機器人產(chǎn)生的倫理問題。如機器人可以代替圖書館工作人員進行書籍訂購、分類以及咨詢等工作,使相關人員感受到就業(yè)環(huán)境威脅,甚至產(chǎn)生心理健康問題。機器人教師、同伴在兒童教育中的應用,可能因為長時間陪伴和相處讓學生產(chǎn)生情感依戀,減少與人的相處.影響他們社交能力的發(fā)展。
在交通運輸領域,主要對自動駕駛汽車應用產(chǎn)生的倫理困境進行探討。自動駕駛汽車在即將發(fā)生交通事故時需要做出決策,在駕駛員、乘客、行人安全以及其他相關因素之間進行權衡,面臨類似于人類社會的“電車難題”.自動駕駛汽車做出決定會使交通事故的責任歸屬變得更加復雜.引起道德責任主體與承擔方式的爭議。此外,自動化使得人們高度依賴技術.一旦自動化生產(chǎn)機器不能正常工作,工人缺乏替代機器進行生產(chǎn)工作的能力,主管作為管理者同樣缺乏相關的專業(yè)知識和手工技能,使生產(chǎn)鏈的脆弱性增加。
3.5對策層面
研究中針對人工智能技術應用的倫理問題提出的解決方法,根據(jù)借助的工具類型不同,將其分為社會方法和技術方法。
3.5.1社會方法
社會方法倡導,將道德原則、法律法規(guī)等有助于規(guī)避倫理風險的社會規(guī)范融人人工智能技術設計與應用場景,使個人或組織在社會環(huán)境中更負責任地使用人工智能技術。
一方面,根據(jù)道德原則建立技術規(guī)范要求,盡可能降低人工智能技術應用中的倫理道德風險。例如,針對機器學習可能產(chǎn)生的偏見風險.可以通過強調(diào)公正和尊重的道德原則來構建公平、非歧視的社會,通過社會數(shù)據(jù)處理前的倫理分析或道德審查規(guī)避風險。同時,人工智能程序設計需要兼顧人工智能的“理性代理”與“對社會負責的代理”角色,設計高效且尊重人類社會的人工智能應用。針對人工智能技術可能破壞人類社會的民主、自由和公平,可以構建一種介于嚴格監(jiān)管和自由放任之間的、積極主動的技術民主化方法,對技術設計和應用進行規(guī)范化。此外,還可以建立適用于自主機器人開發(fā)的公司或組織的道德責任規(guī)范體系,通過安全協(xié)議事先明確責任歸屬。更多推廣“以關懷為中心的價值敏感設計”方法,將倫理維度納入機器人設計和實現(xiàn)框架,這種方法目前主要應用于醫(yī)療保健領域,通過設計過程的價值觀反思性評價,規(guī)范機器人的護理實踐步驟。
另一方面,使用約束力更強的法律法規(guī)應對人工智能技術應用的倫理問題。例如,為了確保公共價值觀和人的基本權利在人工智能技術應用中得到保障,Royakkers L等提出設計人員需要認識并遵循國際條約中大數(shù)據(jù)監(jiān)管和算法透明度的有關規(guī)定。Vamplew P等提到設計自主軍事系統(tǒng)時應保證機器的行動符合《戰(zhàn)爭法》和《交戰(zhàn)規(guī)則》的有關規(guī)定。Ransbotham S等提到針對算法偏見和歧視問題,應參考國家法院《民權法案》中相應的法律原則,在美國《民權法》第七章中就提到了有關的歧視案件的法律條文。
3.5.2技術方法
技術方法是從技術操作層面思考解決方法,以降低人工智能技術應用的倫理風險。
在數(shù)據(jù)操作方面,根據(jù)數(shù)據(jù)生命周期探討不同階段的倫理風險規(guī)避。例如,從數(shù)據(jù)采集來看,Robinson L等提出對機器人收集的信息進行分類.建立各類信息合法獲取和使用的標準,可以保護個人隱私信息。從數(shù)據(jù)處理來看,Hagendorff T提到通過刪除敏感、受保護屬性,或者修正訓練集消除倫理隱患。但是,非敏感屬性同樣存在產(chǎn)生歧視的可能,而且對訓練數(shù)據(jù)集的修正可能降低數(shù)據(jù)分析的質量和有用性。從數(shù)據(jù)組織來看,McDonoughK等提出使用擴展命名實體標注具有歷史跨越的地理文本,綜合考慮地理空間位置和非地理空間或時間的多樣性信息,提高對空間歷史的解釋力度。從數(shù)據(jù)共享來看,Kuo T T等提出將隱私保護的學習模型與區(qū)塊鏈技術結合起來開發(fā)通用的保護隱私的預測模型共享框架,為機構間數(shù)據(jù)共享時的隱私保護提供幫助。
在算法模型方面,Ananny M提到開發(fā)“非監(jiān)督式學習”算法來識別數(shù)據(jù)集中可能導致歧視的模式或結構,避免總是基于一種假設而扭曲數(shù)據(jù)集。Marlies V D V等構建了一個道德決策模型,針對不同的人機關系進行不同道德模式的響應,輔助人工智能系統(tǒng)做出恰當?shù)牡赖聸Q策。
在智能系統(tǒng)結構方面.Arnold T等提出通過倫理核心應對人工智能系統(tǒng)的道德威脅,倫理核心在智能系統(tǒng)的體系結構中,位于硬件(或最小操作系統(tǒng)層)與虛擬機層之間,由場景生成,仿真引擎以及最小關閉3種機制組成。Malle B F提出通過賦予機器人道德能力來解決倫理問題.包括強化對道德詞匯的監(jiān)測、編寫道德規(guī)范和道德事件評估的程序、建立道德推理和溝通的能力。
4討論
綜前所述,圖情SSCI期刊有關人工智能倫理問題的研究在研究內(nèi)容的廣泛性、領域的結合性上主要體現(xiàn)了如下特點:
第一,研究內(nèi)容涉及醫(yī)藥衛(wèi)生、文化教育、軍事、政治等多個領域,較為全面地涵蓋了從數(shù)據(jù)、算法到人工智能系統(tǒng)的不同層次.并以人工智能系統(tǒng)層面的問題研究數(shù)量最多。
數(shù)據(jù)層面研究主要圍繞數(shù)據(jù)生命周期,探討采集、加工、組織、共享等過程中的隱私侵犯隱患和風險。如數(shù)據(jù)采集、傳播時采集原則解釋說明缺失或者不充分、數(shù)據(jù)標注的不當都可能帶來侵犯數(shù)據(jù)采集對象的隱私.給相關社會實體帶來傷害,引發(fā)社會倫理問題。此外,數(shù)據(jù)的二次使用或再利用也會加大數(shù)據(jù)知情同意的實施和數(shù)據(jù)保護的困難而引發(fā)倫理問題。
算法層面的研究結合算法的特性,探討人工智能算法在具體應用中引發(fā)的歧視、偏見、影響人類自主權等問題。過度依賴人工智能算法結果會影響人的自主選擇。同時,根據(jù)算法的統(tǒng)計結果進行決策可能導致某些歧視性的決定,從而延續(xù)甚至加深人類社會的偏見。如地區(qū)經(jīng)濟水平的識別、信用資質的評估、就業(yè)機會的分配等。
人工智能系統(tǒng)層面主要從智能系統(tǒng)對人的尊嚴和權利,以及社會關系的影響角度進行分析。例如探討人工智能系統(tǒng)與人類形成的社會關系對人類社會的影響、在醫(yī)藥衛(wèi)生行業(yè)對護理治療對象的心理和精神的影響以及自動駕駛汽車、自主軍事武器等代替人類進行決策對于人類生命和社會秩序的影響等。因為這些問題的存在,研究者們也對機器倫理道德的設計方面進行了探討,以及對智能機器的道德地位進行討論.分析人工智能體是否享有道德權利或承擔道德責任等問題。
第二,研究視角覆蓋人本主義觀和技術主義觀,包括積極倫理和消極倫理兩類觀點傾向。消極倫理觀點更多考慮到人工智能技術帶來的倫理危機,希望通過規(guī)則的制定讓問題回歸傳統(tǒng)倫理規(guī)范。積極倫理觀點則更多關注人工智能技術帶來的促進與機遇。
在人本主義觀視角下,以人與人類社會為中心,探討人工智能技術的應用對社會中的個體以及整體產(chǎn)生的倫理影響。研究中探討較多的是人的隱私、平等、自主、自由、尊嚴等以及社會的歷史文化和社會聯(lián)系。如具有歷史和文化敏感性的數(shù)據(jù)組織不當可能對社會的歷史文化帶來沖擊.影響到個人或群體的尊嚴。推薦系統(tǒng)對特定人種的傾向可能導致偏見、不平等。而醫(yī)療護理、娛樂陪伴等應用中智能機器人對人際社會關系的影響也會對人們的心理和精神層面產(chǎn)生影響。
在技術主義觀視角下,以數(shù)據(jù)、算法和智能體為中心,更多從數(shù)據(jù)化、算法和智能系統(tǒng)的應用出發(fā),考慮數(shù)據(jù)化的重要性、算法的公平性,尤其是智能體的道德地位。如Miao z通過文獻調(diào)研討論人工智能技術應用中的人權倫理困境。又如,從機器人角度,探討機器的社會道德地位和機器人是否成為道德主體、擁有道德權利、承擔道德責任等問題。對于機器道德地位問題的探討主要是運用對比分析的方法,將智能機器與人或動物等社會實體進行比較分析,基于哲學思維或理論進行分析討論。在道德地位問題上,Johnson D G等認為,動物和機器人的區(qū)別在于對痛苦的感受差異,對機器道德地位問題的討論會細化出對機器享有道德權利和承擔道德責任等問題的探究.但目前的觀點和看法尚未取得一致。
由上述分析可見.圖情SSCI期刊論文探討的問題與國內(nèi)外人工智能倫理研究有著較高的一致性,人工智能算法與數(shù)據(jù)倫理控制、人工智能體設計、人工智能道德代理等均是整個領域關注的議題。尤其在機器人倫理方面,關于幼兒、老人看護機器人的倫理研究,機器人護理與受護理者尊嚴的倫理研究,戰(zhàn)爭機器人行為的倫理研究等也都在圖情SSCI期刊中有所體現(xiàn)。從研究機構來看,研究者來自計算機科學、信息系統(tǒng)、信息技術、哲學、心理學、圖書情報、語言學等諸多學科??梢?,人工智能倫理問題是一個與多學科交織的問題領域。對于圖書情報領域而言,信息倫理、用戶隱私保護、數(shù)據(jù)與信息安全一直是關注的研究問題,順應人工智能時代發(fā)展的背景,有必要在倫理研究方面有所加強,推動健全圖情學科在交叉學科問題上的研究方法體系建立,促進信息管理技術在同步發(fā)展的倫理研究中健康發(fā)展.如下問題值得進一步研究:
一方面,加強對不同層次與應用領域問題的涉入和研究。結合信息生命周期管理階段(如信息創(chuàng)建、信息采集、信息組織、信息存儲、信息利用和信息清理),從人工智能技術相關的數(shù)據(jù)、算法和人工智能系統(tǒng)3個方面進一步加強相關研究的開展。例如,在數(shù)據(jù)層面,加強在移動互聯(lián)網(wǎng)應用、社交媒體、公共信息資源管理等情境下,對數(shù)據(jù)采集方式、用途、規(guī)范使用、隱私保護的研究。在算法層面,加大對各類網(wǎng)絡搜索、推薦等系統(tǒng)中的偏見問題研究。在人工智能系統(tǒng)層面,加強對豐富應用場景下的探討,如圖書館中的智能咨詢服務機器人、盤點機器人、閱讀機器人等在應用中的倫理風險,對現(xiàn)實從業(yè)人員的沖擊以及應對等問題。人工智能技術在圖情服務的應用場景多樣,人工智能技術與知識服務基礎設施建設、智能知識化服務創(chuàng)新等方面的融合中都會涉及到不同層次的倫理問題研究,都值得從研究脈絡溯源、倫理風險識別與應對、智能道德代理、用戶對智慧應用態(tài)度等角度進行深入研究。
另一方面,加強對人工智能倫理倡導的規(guī)范與準則研究。在人工智能技術應用過程中,最大限度降低倫理風險與追求技術優(yōu)勢這兩個目標可能存在的沖突,需要結合特定的應用情境,分析不同倫理因素之間的關系,進行綜合的分析和權衡。因此,未來研究需要進一步探索人工智能技術在具體應用中的倫理規(guī)范,豐富和完善人工智能倫理準則。目前.諸多國家都從政府層面對人工智能實踐發(fā)展提供了政策支持與推動,在我國,黨中央、國務院在人工智能發(fā)展規(guī)劃中都曾專門提及倫理問題研究。相比英、美、日等國,我國在倫理規(guī)范與制度建設方面還有待進一步深化。因此,進一步加強對各國政府、國際組織,以及相關行業(yè)協(xié)會的人工智能倫理倡議、原則的研究,結合我國的應用實踐狀況,探索從數(shù)據(jù)、算法、智能系統(tǒng)等微觀層面,到人工智能產(chǎn)業(yè)、人類社會秩序的宏觀層面的人工智能倫理規(guī)范與準則的研制與貫徹,促進我國人工智能技術在倫理規(guī)范指引下的健康發(fā)展,提升在推動全球社會秩序穩(wěn)定中的地位和作用。
5結語
本研究運用內(nèi)容分析法對WOS圖書情報學科類目的文獻進行分析,探討人工智能倫理問題的研究現(xiàn)狀,結果表明,圖情學科SSCI期刊的論文從數(shù)據(jù)、算法以及人工智能系統(tǒng)等多個層面,結合政治法律、軍事、經(jīng)濟、文化科學、醫(yī)藥衛(wèi)生、交通運輸?shù)葢妙I域,進行了一系列的研究,探討人工智能技術對個體以及人類社會的影響;并且,從人本主義觀點和技術主義觀點角度進行了共同的探討,從社會方法和技術方法角度提出了應對的策略。在此基礎上展望了圖情領域的未來研究問題。
本研究的不足主要包括.盡管調(diào)查的文獻來自圖情學科SSCI期刊論文,這些文獻只能有限地反映圖情學科對人工智能倫理問題的研究狀況.還需要結合學者發(fā)文角度,以及人工智能技術應用的實踐角度進行綜合分析。同時,加強與相關學科人工智能倫理問題研究的比較,進一步結合圖情領域的典型應用與服務場景,分析人工智能技術的應用現(xiàn)狀、發(fā)展趨勢,以及伴生的倫理風險與應對,與相關學科一同促進人工智能技術整體的健康發(fā)展。