• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能算法的倫理規(guī)制研究

      2025-01-17 00:00:00黃靜秋鄧伯軍

      〔摘要〕 目前,人工智能算法已經深度嵌入人類的生產活動和日常生活的毛細血管,其自主性引致的非確定性,促使不可解釋性和不可預測性成為算法倫理的難題;其在應用場景中引發(fā)的算法偏見、算法歧視和個人隱私保護等,也形成了一定的倫理風險。同時,人工智能算法的復雜性深刻挑戰(zhàn)了傳統(tǒng)的倫理規(guī)則體系,造成了算法的歸責性難題。因此,有必要通過增進人工智能算法的確定性、推動人工智能算法的科學應用、明確人工智能算法的責任主體、構建一定的容錯空間、回歸人工智能算法技術本身等方面加以規(guī)制,從而推進人工智能算法的良善發(fā)展。

      〔關鍵詞〕 人工智能算法;倫理風險;倫理規(guī)制

      〔中圖分類號〕G 315

      〔文獻標識碼〕A

      〔文章編號〕1 008?2689(2025)02?0088?09

      人工智能從20 世紀50 年代興起,迄今已有70多年的歷史,隨著深度學習技術的成熟使機器學習獲得一定程度的自主性,推動機器學習朝著全自動數(shù)據分析方向發(fā)展。深度學習“旨在探索和實現(xiàn)機器的智能化,其底層算法邏輯是對人類的認知過程、情感狀態(tài)、信息加工方式等的模擬和計算,表征為模式識別、專家系統(tǒng)等能直接為人所用的智能技術”[1]。人工智能算法作為人工智能技術的核心和靈魂,構成了人工智能系統(tǒng)的基本方面,通過數(shù)據指令的不斷輸入和深度學習,建構了一整套運行的系統(tǒng)和機制,得到了越來越廣泛的應用,引發(fā)了人力、腦力和算力的緊密融合與有機共生。人工智能算法已經深度作用于人類的生產活動和日常生活的毛細血管,日臻嵌入生活世界的底層架構,使得人類的操作、決策和選擇由人類主導模式延伸為算法主導模式,革新了數(shù)字社會的生產方式和生存方式,但也造就了社會倫理的爭執(zhí)紛紜和失范問題,“無論是人們的生存處境抑或商品的生產消費都被人工智能重新塑型,主體的異化更為加劇和隱秘”[2],影響了人與自然、人與人、人與社會、人與自身之間的倫理關系,生成了人工智能算法倫理規(guī)制的荒蕪之境。因此,需要明確人工智能算法引發(fā)的倫理風險,對算法的非確定性、偏見性、歧視性、隱私性、歸責性困境等進行規(guī)制,引導人工智能算法的良善發(fā)展,形構服務于全人類福祉的數(shù)字社會。

      一、問題的提出

      目前深度學習在搜索技術、數(shù)據挖掘、機器翻譯、自然語言處理、多媒體學習、語言區(qū)別、語音推薦和個性化技術以及相應領域獲得豐碩的成果,促進機器模仿視聽和思考等人類活動,解決了復雜的模式識別難題,使得人工智能相關技術的發(fā)展日新月異。其中,人工智能算法借助深度學習技術形成了一套算法系統(tǒng),即依據程序員輸入的指令對相關數(shù)據信息進行自動處置,自主找到優(yōu)化解,最終得出邏輯推演的預設結果。人工智能算法技術觸角不斷延展,越來越廣泛地應用于人類社會的各種場景,或可為各國政府、社會組織和個人決策提供輔助支撐,或可運用于智慧農業(yè)、智慧工業(yè)、智慧服務、智慧金融等社會生產場域,或可應用于智慧醫(yī)療、智慧交通、智慧家居等日常生活情景,精準提供個性化的信息服務,有力提升人類社會的運轉效率,全面變革社會的生產方式和生存方式,從而實現(xiàn)了“破壞式創(chuàng)新”①,展露了顛覆性的指涉力量。當然,即使深度學習技術的發(fā)展促進了人工智能算法的騰飛,但目前的人工智能技術仍居于弱人工智能階段,正在趨向強人工智能階段,還遠未能夠達到超人工智能階段。人工智能算法的運行仍需遵照人類制定的目標指令,仍經受人類的意向性介入,并未完全具備獨立于人類的“自由意志”。然而,人工智能算法在具體運行過程中能夠自主找到最優(yōu)解,這又體現(xiàn)了其具有一定程度的“自主意志”?!叭斯ぶ悄芩惴ū旧硎羌夹g中立的,還是深具價值偏好的?”人們對這個問題的回答有著不少爭論,至今仍未得出一致的結論,但可以預見的是人工智能算法技術的發(fā)展帶來的倫理問題將越來越多。“在人工智能所涉及的倫理問題中,算法倫理居于基礎地位……在人工智能的廣泛應用并引發(fā)的越來越多的社會倫理問題中,多數(shù)都是由算法所派生的?!盵3]對于這些問題,人類別無選擇,需要直面人工智能算法的倫理風險。事實上,算法問題不是純粹價值中立的,算法不會選擇價值觀,算法的價值是人賦予的。誰掌握了算法,就意味著掌握了話語權和規(guī)制權。因此,有必要從算法的自主性引發(fā)的非確定性、算法應用倫理風險和算法的歸責性難題等層面來理解算法的倫理問題,逐步探索人工智能算法的倫理規(guī)制策略,構建合乎道德規(guī)范的倫理規(guī)制架構,促進人工智能算法的科學發(fā)展。

      二、算法的自主性引致的非確定性

      傳統(tǒng)上,代碼主要是程序員手動編寫,由程序員來決定算法的決策規(guī)則和權重分配,存有較低的自主性,這時算法倫理的責任主體是程序員,致使算法的價值敏感設計比較突出。如今,基于深度學習的人工智能算法不斷趨向于人類的神經認知系統(tǒng),生成了一定的語言能力和思維能力,獲取了愈來愈多的自主性,能夠自行編寫代碼。這時程序員僅需預先予以一種得當?shù)乃惴?,繼而賦予算法綽綽有余的訓練數(shù)據,則再無需一直參與到具體編寫詳細代碼的過程。即言之,“算法是從信息體向智能體發(fā)展的機制基礎,正是由此逐漸獲得智能算法的自主性”[4]。智能算法能夠按照程序員給出的參數(shù)獨立自主地跑程序,能夠自己做主調試相關參數(shù),盡可能地找到最優(yōu)解,使得在算法自動化決策過程中占據主導地位的主體由人類個體日臻轉向人類與機器的合謀,甚至在某些環(huán)節(jié)中機器能夠完全替代人類的選擇。人工智能算法的自主性發(fā)展使其開始脫離工具性角色,日漸觸及價值性角色。歸根到底,由于基于深度學習技術的人工智能算法產品大都具有自學習能力和自適應能力,促使算法系統(tǒng)的編程代碼深具變動性和隱匿性,推進了人類主觀能動性和機器技術智能屬性的高度融合,形構一種進化式機器技能習得模式,從而使得算法本身存有一定的道德推理能力,推動自我進化并構成一個類群,自然而然地生成了算法倫理屬性。

      然則,人工智能算法并沒有借助自主性這一“東風”賦能實現(xiàn)良善發(fā)展,反而卻將非確定性引入了算法決策過程,致使人們未能有效地把握算法系統(tǒng)的目的性、邏輯性、效應性,未能清晰地解釋和預測算法輸出的結果,未能真正地透視算法運行過程的重重迷霧。究其根本,人工智能算法在自主處置海量數(shù)據信息的過程中,依據復雜的運行邏輯形構了不確定的歸納知識,使得人們難以明確其中的因果關聯(lián),難以考量算法系統(tǒng)內部的調節(jié)方式,難以辨明算法結果或決策應用失誤的本末源流。換言之,人們不再能夠覺知數(shù)據與結論的相關性或因果性,并隨著這些未知的數(shù)據體量的與日俱增以及數(shù)據原初結構的錯節(jié)盤根,將促使算法運轉流程越來越復雜化,導致底層數(shù)據與目標知識未能具備一種可清晰化的直接導向性,而是演變?yōu)橐环N非透明化的間接導向性,確定性與不確定性相互交織,造成“雙重黑箱”即算法本身和算法系統(tǒng)的“黑箱”問題。在其中,人們很難曉明意向性編碼或解碼過程,很難理解、預測和驗證算法過程以及算法結果,很難明確人工智能算法的運算過程是否違反社會的倫理規(guī)范,從而導致算法倫理溯源深具挑戰(zhàn)性。因此,人工智能算法帶來的不可解釋性和不可預測性成為算法倫理的難題。

      三、算法應用引發(fā)的倫理風險

      基于深度學習技術的人工智能算法的不斷發(fā)展,人類能夠借助人工智能算法進行有序性部署,解決愈來愈多的復雜化難題,但是人工智能算法的應用后果也將越來越難以預測。譬如,人們進入數(shù)字空間以來,越頻繁使用一個平臺反而導致其價格居高不下,這就是“殺熟”;或者,人們在某平臺購物經常給店鋪打差評,該數(shù)字平臺就將自動標注更高的價格,這就是“記仇”;再如,數(shù)字平臺通過人工智能算法能夠輕而易舉地覺知數(shù)字用戶的需求是什么以及制造虛假需求,造成人類看到只是一個自己喜歡的世界,而不是真實的世界,這就是人工智能時代的“信息繭房”等??梢?,人工智能算法的應用正在全方位地改變著人類的生產生活,正在展開自發(fā)性動態(tài)創(chuàng)序,正在重塑人類的社會關系,也由此引發(fā)了一系列倫理問題,主要包括算法偏見、算法歧視和個人隱私保護等。

      其一,人工智能算法深受數(shù)據本身偏見、開發(fā)者偏見和算法本身偏見所作用,引致了算法偏見的倫理問題。就數(shù)據本身存在偏見而言,人工智能算法依賴于數(shù)據而生,而原初數(shù)據先天持存了數(shù)字用戶與算法開發(fā)者的價值取向,承繼了社會先天的倫理規(guī)范?!皵?shù)據是算法的基礎和‘原料’,數(shù)據公正對于算法公正的影響也無處不在。”[5] 事實上,當人們輸入有偏見的數(shù)據,計算機也將輸出有偏見的結果,這就是“BIBO”(Bias In,Bias Out)定律。即智能系統(tǒng)的原初數(shù)據主要由人類程序員所喂養(yǎng)或訓練,即使人工智能算法越來越持存一種自主性,但其在原初狀態(tài)中便經受了人為價值的意向性介入。數(shù)據不可避免地體現(xiàn)和記錄人類社會的先在性偏見,存在先端的“被污染”狀態(tài),導致人工智能算法在具體的運算過程中沿襲了人類社會的固有偏見,并以算法偏見的結果加以呈現(xiàn),使得依賴于算法結果所做出的決策或選擇同樣帶有偏見性。換言之,人工智能算法抓取的數(shù)據本身存在原初價值偏見,使其在數(shù)據輸入過程中存在導向偏見,在數(shù)據吞吐環(huán)節(jié)中存在選擇偏見,在文本輸出過程中存在互動偏見等,從而生成了一種數(shù)據偏差,產出了系統(tǒng)性的偏差結果,造就了算法決策的偏差風險。就人工智能算法的開發(fā)者偏見而言,開發(fā)者在設計階段難以做到價值無涉,不可避免地將自身內蘊的主觀偏見、價值觀念與意識形態(tài)等入序于人工智能算法,使得人工智能算法的運算過程存有一定的價值負載性和道德意向性,無法做到真正的價值無涉和客觀中立,深度遭受人類倫理規(guī)范的隱性構架。也就是說,“開發(fā)者的偏見既包含顯性偏見也包含了隱性偏見”[6]。顯性偏見主要是指開發(fā)者有意識或主動在設計中設置的偏見,比如“大數(shù)據殺熟”,因為這種顯性偏見由人為設置而生成,并非由人工智能算法自動學習所導致。隱性偏見主要是指開發(fā)者本身固有的社會偏見將無意識地滲透進入算法的運行過程,使得算法系統(tǒng)具有偏差性,造成算法決策或結果的偏見化,但這種隱性偏見不是開發(fā)者有意為之,只是受限于開發(fā)者自身的固有認知而生成的。人工智能算法的開發(fā)者偏見將深刻影響算法設計環(huán)節(jié)、算法運行環(huán)節(jié)、算法驗證環(huán)節(jié)以及算法糾正環(huán)節(jié)等,在所難免地在算法全過程中嵌入自身的固有偏見,從而構筑了算法偏見的倫理問題。就人工智能算法本身而言,如同人類活動本身帶有偏見性,人工智能算法本身也同樣存有偏見性。“受制于算法模型、計算能力、系統(tǒng)約束等條件,算法技術本身可能會存在某種技術偏見,產生不公平的算法結果?!盵7] 人工智能算法的基本原理是一種“貼標簽”的活動,這個過程存在顯性或隱性的偏見。概之,數(shù)字用戶被當成一個個標簽化的“數(shù)據主體”,擁有了特殊的“數(shù)據身份”,而這種標簽化的行為就是一種“范疇化”的行為,也就是伽達默爾所說的“偏見”。同時,人工智能算法技術代碼存有先天的缺陷性,通過不恰當?shù)哪P图夹g、代碼錯誤、算法程序設計錯誤等將產出具有偏見性的算法結果。“如英國達勒姆警察局應用的違法者再犯風險評估算法將郵政編碼作為再犯風險評估的指標之一,郵編輸入算法系統(tǒng)后會加深、放大警務或司法決策的地域歧視。”[8] 因此,當人們忽略了算法結果或決策應用的前提假設,不恰當?shù)厥褂盟惴ńY果或決策,忽視了算法結果或決策的具體場景要求,從而錯誤地利用或過度地依賴算法,將繼續(xù)牢固人類社會的固有偏見,不利于社會正義的構建。

      其二,人工智能算法的發(fā)展引起了算法歧視的倫理問題。人工智能算法經受數(shù)字資本介入和政治權力內嵌,導致現(xiàn)實社會的結構性偏見被置入算法系統(tǒng)的智能編碼過程,形塑了算法的內生性歧視,深化了對現(xiàn)實世界和數(shù)字世界的隱性規(guī)訓,生成了90算法歧視的倫理危機。算法歧視是指“人工智能算法在收集、分類、生成和解釋數(shù)據時產生的與人類相同的偏見與歧視,主要表現(xiàn)為年齡歧視、性別歧視、消費歧視、就業(yè)歧視、種族歧視、弱勢群體歧視等現(xiàn)象”[9]。算法歧視主要從人類的歧視行為所習得,經由算法技術轉譯,并未進行準確驗證,盲目信任算法結果或決策,忽視必要的價值判斷,從而生成了“千人千面”的偏待性行為,構建了算法權力的構式機制,精準規(guī)訓和操縱數(shù)字受眾,持續(xù)深化現(xiàn)實空間和虛擬空間的歧視問題。究其根本,人工智能算法歧視主要由人工智能算法的開發(fā)者和人工智能算法的使用者所造就。人工智能算法的開發(fā)者或依據自身的利益需要進行有意識設計,或轄制于固有的社會偏見展開無意識設置,在算法運行過程中以不同權重輸入、訓練和檢驗相關數(shù)據,使得算法結果或決策形成對不同人群的差別化對待,導致人們在日常生活和生產生活中遭遇各種各樣的非平等事件,沖擊著人類社會的倫理秩序。人工智能算法的使用者是指數(shù)字企業(yè)、政府部門或數(shù)字用戶個人等,他們基于自身的認知局限隨意操控算法應用環(huán)節(jié),或未能做到一視同仁地分類,或將算法決策運用到錯誤的社會場景,或沒有設置相關的監(jiān)管機制等;從而促使算法決策歧視性地對待不同膚色、不同性別、不同信仰、不同地區(qū)、不同國籍的人群,繼續(xù)引發(fā)種族歧視、性別歧視、宗教歧視、地域歧視、民族歧視等。譬如,“ProPublica 的一項調查發(fā)現(xiàn),執(zhí)法部門使用的人工智能工具顯示黑人比白人更有可能犯罪”[10]。

      其三,人工智能算法的發(fā)展催生了個人隱私保護的倫理問題。人工智能算法得以自主運轉的前提是需要有豐富的“數(shù)據糧食”,當自主性越發(fā)展,越需要收集和存儲更多的個人數(shù)據信息?!皞€人信息處理是算法平臺爭奪個人隱私資源的重要階段?!盵11]目前,當數(shù)字用戶進入數(shù)字空間的那一刻,所有活動都以數(shù)據的形式留痕,各種瀏覽、搜索、玩樂、消費等屬于個人隱私的數(shù)據信息將作為算法系統(tǒng)統(tǒng)計與分析的根源,雖然運用一種“匿名的”數(shù)據集模式加以存儲和管理,但實際上是可以追溯到具體的數(shù)字用戶。換言之,人工智能算法依靠深度學習技術能夠實時追蹤、識別和研析每一位數(shù)字用戶的各種行為軌跡,全方面抓取個人的隱私信息,為每一位數(shù)字用戶設置標簽,實現(xiàn)精準畫像,能夠依據數(shù)字用戶的興趣、偏好、習慣等進行數(shù)字建模,智能推測數(shù)字用戶的需求與行為,從而智慧預測個人的生產活動、交往活動和生活活動,深度侵入人們的私人空間,促使私人空間不再成為個人的棲居領域,而是被迫向算法系統(tǒng)無限開放。譬如,“洛杉磯縣‘協(xié)調入住算法系統(tǒng)’(HMIS)為例,一旦申領者的隱私信息輸入到HMIS 算法系統(tǒng)中,在系統(tǒng)默認申領者‘選擇性同意’分享保密信息的情況下,將可與住房管理、社會或醫(yī)療服務機構等168 個組織共享”[12]180。不難看出,由于人工智能算法的不透明性,極大增強了算法系統(tǒng)的不確定性、不可控性、不可解釋性等,個人隱私數(shù)據信息被有意識或無意識地肆意挖掘,使得數(shù)字用戶的人身信息、消費喜好、日常軌跡等數(shù)據存在被泄露的風險,“如果智能系統(tǒng)掌握的敏感的個人信息被泄露出去,會將人置于尷尬甚至危險的境地,個人的隱私權會受到不同程度的侵害”[13]50。換言之,一旦當個人隱私信息暴露,如同被剝光了衣服一般,個人呈現(xiàn)為一種赤裸裸樣態(tài),隨時被“殺死”或“社死”,強烈引發(fā)個人內心的焦慮、恐慌、失衡,不斷危及個人的人身和財產安全等,并將可能對社會秩序和公共安全造成巨大的潛在威脅。也由此,人工智能算法實現(xiàn)了對人們的毛細血管式控制,使得人不再成為自我的主人,反而為人工智能算法所管控,還意識不到這種隱性的生命政治馴順,并在這種規(guī)訓中“開心地活著”,越發(fā)透明化、數(shù)據化、馴順化。

      四、算法的歸責性難題

      在簡易編程時代,程序員就是算法系統(tǒng)的行為控制者,此時人工智能算法具有較低層次的自主性。隨著深度學習技術的發(fā)展,算法開始具有較高的自主性,由線性編程轉向自編程,使得算法自動化、訓練數(shù)據和系統(tǒng)環(huán)境的結合成為行為的使動者,而“這種計算機系統(tǒng)的模塊化設計,意味著沒有單個人或團隊可以完全掌握系統(tǒng)與一個復雜新輸入流進行互動或回應的方法”[14]32。即言之,人工智能算法越來越具有自主性,出現(xiàn)了算法黑箱、技術壁壘和數(shù)據流轉不透明等現(xiàn)象,使得人們很難明白其中的運行方式和作用機理,哪怕再能干的程序員也無法完全控制基于深度學習的人工智能算法,也就沒有哪個主體的人對機器行為來承擔責任。這就是安德里亞斯·馬蒂亞斯(Andreas Matthias)所講的“責任鴻溝”(responsibility gap)?!啊熑硒櫆稀菣C器智能和人類智能融合進化過渡階段特有的重要課題?!盵15] 由于可追溯的倫理評價總是要對傷害找出責任人,而基于深度學習的人工智能算法,由成百上千的數(shù)學函數(shù)(相當于“神經元”)構成,這些函數(shù)構成非線性的原來圈層,“信號在函數(shù)之間的傳遞每深入一層,其信息的復雜度就會呈指數(shù)增長,如果對其進行倫理追責,那么其所涉及的計算量將大得驚人”[3]。

      鑒于智能算法的復雜化,深刻挑戰(zhàn)了傳統(tǒng)的倫理歸責體系,人們難以精準地歸因于具體環(huán)節(jié)或運作過程,難以界定歸責事由是否具有主觀上的“有意”或“無意”,然而算法系統(tǒng)的結果或決策越來越切近人類本身,并深度影響人類在現(xiàn)實生活中的種種抉擇。當人工智能算法結果或決策生成了一系列的倫理問題卻難以歸責,誰應該負起責任成為一個關鍵問題。事實上,人工智能算法通過模擬基于數(shù)據驅動的深層神經網絡系統(tǒng)能夠實現(xiàn)自主運算,能夠自動調整操作參數(shù)和規(guī)則,能夠自己做主決定怎樣執(zhí)行任務,能夠對開發(fā)者設定的目標進行動態(tài)優(yōu)化等;但在這個過程中人們無法明確算法的源代碼以及再編碼的運行邏輯,存有較明顯的模糊性、復雜性、非透明性、不可解釋性等,呈現(xiàn)為“算法黑箱”的復雜構境,也就是講人們無法說明各個變量進行怎樣組合并相互作用從而得出決策結果。當這些人工智能算法結果或決策具有偏見性、歧視性或者危害個人隱私安全等,誰應該為這些倫理難題負責呢?

      五、算法倫理的規(guī)制路徑

      人工智能算法深受人類社會的價值偏好浸染,需要直面人工智能算法引發(fā)的種種倫理難題,通過增進人工智能算法的確定性、推動人工智能算法的科學應用、明確人工智能算法的責任主體、構建一定的容錯空間、回歸人工智能算法技術本身等方面加以規(guī)制,從而推進人工智能算法的良善發(fā)展。

      (一) 增進人工智能算法的確定性

      隨著人工智能算法的發(fā)展,“不確定性估計和度量方法在機器學習與深度學習領域得到了廣泛的研究與應用,被用于處理數(shù)據與深度神經網絡中的不確定性, 以提升任務性能和模型的可解釋性等”[16]。然而,人工智能算法本身存在弱魯棒性造成其具備不確定性,生成了一系列倫理問題,需要以人類整體利益為優(yōu)先項,而不是以數(shù)字資本家的增殖利益為前置項,積極構建“人在環(huán)中”的算法系統(tǒng),許可人類監(jiān)督和控制算法全過程,優(yōu)化算法決策的輸入模式和輸出模式,增進尋找確定性和可理解的證據等,進而顯現(xiàn)人工智能算法的本然面目,使得人類能夠重新把控算法系統(tǒng),真正獲取決定自身事務的自主權利。正如《可信賴的人工智能倫理準則》強調AI 應該是安全而準確的,它不應該輕易受到外部攻擊(例如對抗性例子)的破壞,并且應該是相當可靠的。具體而言,人工智能算法的發(fā)展需要深化對數(shù)據信息的選擇環(huán)節(jié)進行實時管控,避免部分數(shù)據信息被有意識或者無意識的遮蔽,使得人們能夠及時把控數(shù)據信息的意向性編碼或者解碼過程。要有力增進人工智能算法的確定性,從而能夠理解人工智能算法結果或決策的訓練環(huán)節(jié),規(guī)避“算法黑箱”狀態(tài),從而促進算法的明確可辨,擺脫訓練數(shù)據樣本和特征值的原初的非正義性,深度制約人工智能算法的自主活動。人工智能算法的發(fā)展需要強化對算法代碼的編寫環(huán)節(jié)展開常態(tài)化監(jiān)控,雖然人工智能算法能夠自主進行運算,但是這個自主運算過程會自動記錄并將保存在一定的文件夾當中,通過實時和定期管控這個編碼過程能夠增進人工智能算法的確定性,一旦出現(xiàn)算法倫理問題能夠按照這些監(jiān)控記錄進行溯源。人工智能算法的發(fā)展需要建構一套算法透明度指標,明確算法要素、算法程序、算法背景的透明標準,要求算法系統(tǒng)按照這種標準運作,而不能任意偏離,并向大眾公開算法的運行過程、應用目的、使用成效等,使得事后的倫理審計和倫理風險溯源能夠智慧展開,從而精準審視算法的倫理問題,有效明確非決定性證據、疑義性證據、誤導性證據等,增進人工智能算法的確定性,提高人們對人工智能算法的信任閾值,推動人工智能算法的科學發(fā)展。人工智能算法的發(fā)展需要專門開發(fā)一種倫理監(jiān)控算法,以監(jiān)控算法智能管控其他算法的自主運行過程,設立清晰的技術指標體系,達成對算法自主運行的即時可控,進而增進人工智能算法的確定性,祛除人工智能算法倫理的難以定標、難以管制、難以防備等問題,規(guī)制人工智能算法的合理發(fā)展。

      (二) 推動人工智能算法的科學應用

      正如世界經濟合作與發(fā)展組織(CDEP)通過的《人工智能發(fā)展建議》,明確了基于價值觀的五項原則與可信賴人工智能的國家政策和國際合作建議,人工智能算法的發(fā)展需要借鑒《人工智能發(fā)展建議》,對算法結果或決策的應用環(huán)節(jié)進行倫理規(guī)制,建立一定的算法應用規(guī)則,推動人工智能算法的合理應用。其一,由于人工智能算法偏見嵌套于人類的生產活動和生活活動,人們需要對人工智能算法偏見進行倫理規(guī)制,從原初數(shù)據到算法開發(fā)者,再到算法系統(tǒng)本身都需要重新進行合理度規(guī)。要以正義為根本價值旨歸干預、管控和審查人工智能算法的全過程,構建算法的倫理規(guī)制模型,完善算法應用的倫理規(guī)制框架,促使人工智能算法的發(fā)展符合人類社會的倫理規(guī)范。其二,人工智能算法的開發(fā)者和使用者須對算法歧視問題負起相關責任,而不能將責任完全推脫給人工智能算法本身。人們需要合理引導開發(fā)者和使用者的行為,積極排除個人的顯性偏見,智慧識別潛藏的隱性偏見,智能完善相應的監(jiān)督機制和補償機制,從算法設計本身及外部約束來規(guī)制算法歧視的倫理問題,進而精準防控算法歧視的倫理風險。其三,當個人隱私保護難以實現(xiàn),嚴重挑戰(zhàn)了社會的倫理秩序,人們需要對人工智能算法進行倫理規(guī)制,將人類的公正、責任、道德原則等嵌入到機器代碼之中,使用“差分隱私”算法規(guī)避匿名信息泄露,嚴格控制算法對個人隱私信息的無限度地攫取,積極尋找人工智能算法不確定性和開源透明性的平衡點,合理解決個人隱私保護的倫理難題。“人工智能參與者應致力于提升人工智能系統(tǒng)的透明度,進行負責任地披露信息”[17],充分彌補開發(fā)者與使用者之間的“數(shù)據鴻溝”,避免數(shù)據信息的過度不對稱生成的技術劣勢一方依附于技術強勢一方的倫理困境。這必須強化事后的算法審計,通過援引不同的倫理標準和倫理原則審核人工智能算法結果或決策的前提性預設、輸入過程和輸出過程,積極采用代碼審計、爬取審計、眾包審計等算法審計技術智能識別人工智能算法的“盲點”,精準考察人工智能算法決策或結果是否合乎道德,是否有違公正,是否挑戰(zhàn)現(xiàn)有的倫理秩序,從而引導人工智能算法服務于全人類的福祉,推進人工智能算法的良善發(fā)展。

      (三) 明確人工智能算法的責任主體

      人工智能算法的歸責須經歷一個責任主體的過渡銜接過程,也就是由“智能算法的開發(fā)者和使用者到由完全自主進化的機器智能體”[18]。但這還需要一個過程,而在現(xiàn)階段必然會出現(xiàn)非單一責任主體的現(xiàn)象,呈現(xiàn)為一種多道德主體的復雜化的責任關系。“大多數(shù)情況下人們應對技術的使用負責,當人工智能成為道德代理人后,沒有人會對人工智能體的行為負責?!盵19] 就是說,人類如果把責任完全交付給機器,只會自食其果。因此,人們需要將倫理準則嵌入人工智能算法的開發(fā)設計和系統(tǒng)應用環(huán)節(jié),或者預先識別,或者過程制止,或者事后歸咎,建立明確的責任分配體系,及時糾正人工智能算法的倫理風險,形構安全的人工智能算法治理體系。

      人工智能算法的責任人主要是開發(fā)者、使用者以及算法系統(tǒng)本身,面對人工智能算法生成的倫理問題,需要對這三個主體進行倫理責任溯源,明確分攤責任,推進對應歸責,形成多元治理體系。就人工智能算法的開發(fā)者而言,由于算法設計、部署和應用仍深受開發(fā)者目的和意圖所作用,深度嵌入了開發(fā)者的道德判斷和價值取向;開發(fā)者需要公開人工智能算法開發(fā)的目的、應用條件以及潛在風險等,將透明度置入算法開發(fā)環(huán)節(jié),增強自身的價值敏感性設計能力,明確設計、部署和應用環(huán)節(jié)的社會責任規(guī)范,并搭建人工智能算法倫理規(guī)制架構,提前準備倫理侵害的處理預案,促進人工智能算法的良善發(fā)展。正如《阿西洛馬人工智能原則》第九條主張高級人工智能系統(tǒng)的設計者和建造者,是人工智能使用、誤用和行為所產生的道德影響的參與者,有責任和機會去塑造那些道德影響。就人工智能算法的使用者而言,人們需要確定人工智能算法使用者的主體責任,“審查數(shù)據質量、算法命令執(zhí)行中各種因素及其權重、數(shù)據或事實與結果之間的相關性等”[20],并深度審核算法應用的事前、事中和事后環(huán)節(jié),合規(guī)審計使用者在應用算法過程中是否遵守監(jiān)管要求,有必要開放數(shù)據界面、算法源代碼、算法運行結果等,引導使用者履行相關義務,保證人工智能算法應用的安全可靠,推進人工智能算法的倫理規(guī)制。就人工智能算法本身而言,需要增進人工智能算法的透明性,動態(tài)監(jiān)測和審計人工智能算法的全過程,提升人工智能算法模型、過程和結果的可解釋性,明確告知數(shù)字用戶算法本身具有生物識別和情感識別的功能,建立人工智能算法系統(tǒng)運行的倫理安全標準和實施評估認證制度,推動人工智能算法的自我修正、自我迭代、自我優(yōu)化,從而規(guī)避人工智能算法的倫理風險。

      (四) 構建一定的容錯空間

      縱然人工智能算法存在偏見、歧視、隱私泄露、歸責困難等諸多倫理難題,具有較強的傳染性、感染性和滲透力等,引發(fā)接二連三的“連鎖反應”;但不能以此否定人工智能算法,不能“一禁了之”,應該為基于深度學習的人工智能算法技術開展留下一定的容錯空間,創(chuàng)造相對寬松的環(huán)境。正如任何人類的解釋或決策都不一定能夠完全正確,有可能出錯,人工智能算法也是如此。人類總是給自己留下一定的容錯空間,同樣需要為人工智能算法的發(fā)展留下一定的容錯空間。鑒于人工智能算法的所有結果或決策不可能完全契合人類社會的倫理規(guī)范,不能將人工智能算法的倫理問題過度放大化;而是應該保有一種寬容的態(tài)度,給予一定的可解釋和可糾錯的機會,并對人工智能算法進行倫理規(guī)制,從而為人工智能算法的發(fā)展留下余地,避免人類對人工智能算法的“因噎廢食”,致使其裹足不前,反而得不償失??傊?,由于任何新技術的應用都具有雙刃劍的作用,人工智能算法作為一種新興的數(shù)字技術,如果過度放大人工智能算法的消極效應,不允許其犯錯,將不利于人工智能算法的科學發(fā)展,最終將影響人類社會以及人本身的持續(xù)發(fā)展。

      人類不能拒絕技術,而應該擁抱技術。我們不能因為人工智能算法發(fā)展存在的問題,就全然否定和拒絕人工智能算法。人工智能算法的倫理風險是人類社會倫理風險的時空延展,但由于人工智能算法過程的高度復雜性、算法結果的不可預測性以及疊加了人類的局限性和環(huán)境的動態(tài)變化等,使得人們需要在不斷試錯的過程中強化人工智能算法的可控性。通過秉持前瞻性、系統(tǒng)性、審慎性等原則,建立科學規(guī)范的工作方法和工作流程,增進對相關的數(shù)據集、程序代碼、算法訓練方法等的倫理規(guī)定,并引入算法解釋權、算法監(jiān)管系統(tǒng)、算法審計機制等措施,從源頭上實現(xiàn)對人工智能算法的可控化,使其在轄定場域內“帶著鐐銬跳舞”,讓倫理規(guī)范自然入序人工智能算法。通過定期對人工智能算法應用實踐進行道德責任的追溯分析,推進倫理嵌入、倫理學習和混合法的智慧發(fā)展,增進人工智能算法應用的透明性、可解釋性、可信任性,從而弱化人工智能算法的倫理風險,推進人工智能算法的倫理規(guī)制,封住人工智能算法的“潘多拉之盒”,促進人工智能算法的健康發(fā)展,為人類的自由而全面發(fā)展提供助推力。一言以蔽之,人工智能算法的倫理規(guī)制沒有“完成時”,只有“進行時”,在未來相當?shù)拈L時期內,追求算法的可控性是人工智能算法技術研發(fā)的首要任務,但其可能是永無止境的追求,甚至是難以完成的任務,或許會永遠在路上,正如多明戈斯[21]xix 指出的“只有工程師和機修工有必要知道汽車發(fā)動機如何運作,但每位司機都必須明白轉動方向盤會改變汽車的方向、踩剎車會讓車停下?!比祟愋枰獙θ斯ぶ悄芩惴ǔ钟袕姶蟮陌菪模ψ叱鋈斯ぶ悄芩惴夹g生成的“ 科林格里奇困境”①。

      (五) 回歸人工智能算法技術本身

      技術產出的問題,固然需要法律規(guī)制、倫理規(guī)制甚至意識形態(tài)規(guī)制,但技術產生的問題還是需要技術本身來解決,正如馬克思[22]241 所言:“批判的武器當然不能代替武器的批判,物質力量只能用物質力量來摧毀?!蔽覀兓氐胶5赂駹?,他對未來的技術世界,提到解決方案,他說要“泰然任之”,首先不要慌。要對算法說yes,同時也要說no。而對于深度學習的人工智能算法給人帶來的“座架”,人類所獲得者由我在“座架”之中,海德格爾引用詩人荷爾德的詩句“哪里有危險,哪里也就有救渡,我們愈是臨近危險,進入救渡的道路便愈明亮的開始閃爍”[23]267。因此,我們就要以更為明亮的眼睛去洞察危險,追問算法技術,因為救渡根植并發(fā)育于算法技術本身之中。

      我們需要回歸人工智能技術本身,以人工智能算法技術的發(fā)展解決算法倫理問題,促進人工智能算法的茁壯成長。通過積極引導人工智能算法的發(fā)展方向,使機器從“能夠思維”向“能夠有道德的思維”演進,形構人工智能算法的“向善性”,為人工智能算法的自我賦形奠定基本倫理基調,促進算法技術屬性和倫理屬性的互構融合,從源頭上規(guī)制人工智能算法技術的發(fā)展動機和前進目標。通過持續(xù)開發(fā)人工智能算法技術,推進人工智能算法的技術創(chuàng)新工作,促進人工智能算法技術的動態(tài)完善和迭代升級,智慧調整人工智能算法的運行邏輯,構造“監(jiān)管沙箱”等實驗性或試點性工具,研發(fā)加密技術、匿名化技術、屏蔽技術、漏洞防護技術等,增強人工智能算法的可控性,促使算法盡可能地可解釋、可追溯、可信任,提高人工智能算法的安全性、正義性、良善性等,為人工智能算法的科學發(fā)展提供堅實的技術支撐。通過以人工智能算法技術強化對算法程序設計的審查,運用人工智能算法技術預先排查算法數(shù)據來源是否具有倫理問題,深化對算法程序架構與代碼的設計審查,依照倫理規(guī)范進行過濾、聚類、分類和賦值,實現(xiàn)倫理規(guī)則的代碼化,確保人工智能算法設計符合基本的倫理規(guī)范,深化人工智能算法的倫理規(guī)制。通過以人工智能算法技術檢視算法決策或算法結果的應用問題,建構倫理智能體的模型結構,重塑人機和諧共生的鏈接機制,設置人工智能算法應用的行為邊界和倫理底線的參數(shù)值,以算法技術實時核驗算法應用是否出現(xiàn)數(shù)值異?;蚱x,注重人工智能算法應用的安全性、可問責性、可溯源性等,促進人工智能算法的倫理規(guī)制。通過構建人工智能算法技術的元規(guī)制治理和合作治理的多元治理體系,建立人工智能算法技術的倫理準入機制和準入清單,為算法技術的進入和退出設置閾限,架構倫理安全的過濾屏障,設置算法系統(tǒng)內部糾錯機制,完善算法技術的倫理標準體系,健全算法倫理風險預警、應急管理、整改優(yōu)化制度,讓人工智能算法技術推進構筑人類的美好生活,做到合理性與合價值性相統(tǒng)一,以此確證人類的真正主體性。

      總而言之,人工智能算法推動了人類社會的萬象更新,改變了人類的生存方式,影響了社會的倫理秩序,成為不可或缺的數(shù)字技術。事實上,雖然人工智能算法造就了非確定性、算法偏見、算法歧視、個人隱私泄露以及歸責難題等倫理困境,但是需要在直面人工智能算法的倫理風險的同時,繼續(xù)深化對人工智能算法的研究,通過增進人工智能算法的確定性、推動人工智能算法的科學應用、明確人工智能算法的責任主體、構建一定的容錯空間、回歸人工智能算法技術本身等實現(xiàn)對人工智能算法的倫理規(guī)制,推進人工智能算法的良善發(fā)展。需要強調,技術的應用具有兩面性,通過研析人工智能算法的倫理問題,并不是排斥人工智能算法技術,而是積極探尋技術理性與價值理性的動態(tài)平衡,竭力解決算法技術與算法倫理的張力關系,引導人工智能算法技術為全人類的福祉而服務!

      〔參考文獻〕

      [ 1 ]胡航,王家壹. 從人機融合走向深度學習:范式、方法與價值意蘊[J]. 開放教育研究,2024,30(2):69-79.

      [ 2 ]馮戎,吳學琴. 數(shù)字資本的“智能”統(tǒng)御與主體復歸??基于芬伯格“技術民主”理路的審思[J]. 北京科技大學學報(社會科學版),2024,40(2):24-32.

      [ 3 ]孫保學. 人工智能算法倫理及其風險[J]. 哲學動態(tài),2019(10):93-99.

      [ 4 ]王天恩. 人工智能算法的進化及其倫理效應[J]. 山西師大學報(社會科學版),2024,51(2):36-44.

      [ 5 ]孫偉平. 價值哲學視域中的算法歧視與社會公正[J].哲學研究,2023(3):46-55,126-127.

      [ 6 ]孟令宇. 從算法偏見到算法歧視:算法歧視的責任問題探究[J]. 東北大學學報(社會科學版),2022,24(1):1-9.

      [ 7 ]賈詩威,閆慧. 算法偏見概念、哲理基礎與后果的系統(tǒng)回顧[J]. 中國圖書館學報,2022,48(6):57-76.

      [ 8 ]溫鳳鳴,解學芳. 歐美社會治理中算法應用的倫理風險與規(guī)制路徑研究[J]. 西南民族大學學報(人文社會科學版),2023,44(9):130-139.

      [ 9 ]江懷君,汝緒華. 人工智能算法歧視及其治理[J]. 科學技術哲學研究,2020,37(2):101-106.

      [10]閆坤如. 人工智能的算法偏差及其規(guī)避[J]. 江海學刊,2020(5):141-146.

      [11]楊喜喜,李本乾. 結構性剝奪:算法受眾隱私剝奪感的生成邏輯[J]. 山東師范大學學報(社會科學版),2023,68(6):125-138.

      [12]EUBANKS V. Automating Inequality: How High-TechTools Profile, Police, and Punish the Poor [M]. NewYork:St. Martin’s Press,2018.

      [13]金東寒. 秩序的重構??人工智能與人類社會[M].上海:上海大學出版社,2017.

      [13]溫德爾·瓦拉赫,科林·艾倫. 道德機器:如何讓機器人明辨是非[M]. 王小紅,譯. 北京:北京大學出版社,2017.

      [14]王天恩. 人工智能應用“責任鴻溝”的造世倫理跨越??以自動駕駛汽車為典型案例[J]. 哲學分析,2022,13(1):15-30,196.

      [15]ABDAR M, POURPANAH F, HUSSAIN S, et al. Areview of uncertainty quantification in deep learning:techniques, aplications and challenges [J]. InformationFusion,2021,163(76):243-297.

      [16]唐川. OECD 制定人工智能發(fā)展建議[J]. 科研信息化技術與應用,2019,10(3):87-89.

      [17]王天恩. 人工智能算法的倫理維度[J]. 武漢科技大學學報(哲學社會科學版),2020,22(5):645-653.

      [18]楊愛華. 人工智能中的意識形態(tài)風險與應對[J]. 求索,2021(1):66-72.

      [19]唐要家,唐春暉. 基于風險的人工智能監(jiān)管治理[J]. 社會科學輯刊,2022(1):114-124,209.

      [20]佩德羅·多明戈斯. 終極算法:機器學習和人工智能如何重塑世界[M]. 黃芳萍,譯. 北京:中信出版社,2016.

      [21]馬克思,恩格斯. 馬克思恩格斯全集(第3 卷) [M]. 北京:人民出版社,2002.

      [22]海德格爾. 林中路[M]. 孫周興,譯. 上海:上海譯文出版社,2008.

      〔基金項目〕國家社科基金青年項目“平臺模式下零工勞動的政治經濟學分析”(編號:24CKS103);國家社科基金西部項目“數(shù)字社會意識形態(tài)風險防控研究”(編號:21XKS030)。

      阿荣旗| 饶平县| 泽州县| 寿宁县| 虹口区| 崇礼县| 敦化市| 铜陵市| 靖安县| 平阴县| 永福县| 遵义市| 海口市| 桂平市| 宁化县| 辽中县| 文化| 托克逊县| 连平县| 南靖县| 黑山县| 报价| 广安市| 武鸣县| 嵊泗县| 宣化县| 万山特区| 沂源县| 西乌| 文昌市| 鹤庆县| 漳州市| 永平县| 天长市| 盈江县| 灵武市| 醴陵市| 鄂伦春自治旗| 陕西省| 嵊州市| 盐边县|