• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能的倫理風險防范及其算法審計應用

      2024-01-01 00:00:00鄧若玉
      陜西行政學院學報 2024年2期
      關鍵詞:人工智能

      改革實踐文章編號:1673-9973(2024)02-0116-03

      收稿日期:2024-03-20

      基金項目:2023年四川省第三批高校思想政治工作精品項目“‘E宣講’深度融合的全媒體實踐育人體系重構與探索”(SCSZJP0010)

      作者簡介:鄧若玉(1988-),女,四川成都人,副教授,法學博士,主要從事馬克思主義倫理觀研究。

      摘" 要:人工智能是現(xiàn)代計算機科學領域發(fā)展下的重要產(chǎn)物,可從理論、方法、技術等層面實現(xiàn)人的智能延伸。在為社會發(fā)展提供便利的同時,人工智能的泛化應用也催生了對應的倫理風險,諸如算法歧視、責任界定困難等,需以特定防范舉措加以控制。分析人工智能催生的倫理風險及其成因,以算法審計的應用作為化解風險的路徑,在厘清其應用原則的前提下,可擬建科學實踐路徑,以供參考。

      關鍵詞:人工智能;倫理風險;算法審計

      中圖分類號:F239.4

      文獻標識碼:A""" DOI:10.13411/j.cnki.sxsx.2024.02.023

      Ethical Risk Prevention of AI and Its Algorithm Audit Application

      DENG Ruoyu

      (School of Marxism, Chengdu Institute of Technology, Chengdu 610000,China

      Abstract:Artificial intelligence is an important product under the development of modern computer science, which can realize the extension of" human intelligence from the aspects of theory, method, and technology. While providing convenience for social development, the widespread application of artificial intelligence has also generalized corresponding ethical risks, such as algorithmic discrimination and difficulty in defining responsibilities, which need to be controlled through specific preventive measures. Based on the analysis of the ethical risks and their causes, this paper takes the application of algorithm audit as the path to resolve the risks, and proposes a scientific practice path for reference on the premise of clarifying its application principles.

      Key words:artificial intelligence; ethical risk; algorithm audit

      人工智能技術普及范圍持續(xù)拓展的當前,衍生的倫理風險也隨之增多,本質上屬于技術缺陷與理性失衡共同導致的局限性,亟需以有效的防范手段加以干預。算法審計——一般包含代碼審計、間接算法邏輯推斷等——作為一種檢測算法技術是否遵循倫理準則、符合道德要求的系統(tǒng)性審查方法,與人工智能環(huán)境下的倫理風險防范訴求問題高度契合,通過剖析算法與社會規(guī)范之間的交互關系來達成倫理治理目的。因此,基于進一步防范人工智能倫理風險的治理需求,有必要進一步解構算法審計的應用原則及其中邏輯,找準科學應用方向,調整算法結果失衡現(xiàn)狀。

      一、人工智能催生的倫理風險及其成因

      隨著人工智能的技術拓展與功能延伸,近年來在社會各個行業(yè)、領域的應用范圍呈現(xiàn)明顯的擴張態(tài)勢,催生的倫理風險類型也隨之增多。從宏觀視角來看,人工智能在倫理層面的負面影響主要分為兩類,一是人工智能在人類事務決策制定方面占比過高,而由于人工智能天然缺乏倫理判斷能力,導致決策結果的合理性與人文性無法達到預期;二是人類對人工智能技術進行過度開發(fā)利用,且缺乏符合倫理準則的邊界意識,致使技術濫用現(xiàn)象普遍,陷入倫理誤區(qū)[1]。具體而言,目前常見的人工智能倫理風險類型主要有算法歧視(含性別歧視、價格歧視等)、算法失真(含人為造假、技術局限等)、審計事故責任認定困難、人的主體地位弱化等。

      人工智能倫理風險成因主要包含以下幾個方面:一是主觀層面的利益碰撞造成理性失衡,如過度依賴算法紅利帶來的經(jīng)濟效應,為追求利益而忽視部分群體權益,進而引發(fā)數(shù)據(jù)泄露、算法模型盜用等倫理風險;二是客觀層面的理論與技術局限,人工智能算法所依托的社會數(shù)據(jù)無法脫離社會本身,因此社會中存在的偏見與局限也難免折射于算法中,造成算法歧視等倫理風險涌現(xiàn);三是規(guī)范層面的教育體系及法規(guī)體系缺位,當公眾對于人工智能缺乏正確的倫理認知及道德約束,便容易在人工智能應用中發(fā)生越界現(xiàn)象,催生潛在倫理風險。

      二、基于人工智能倫理風險防范目標的算法審計原則

      自2022年6月中共中央全面深化改革委員會第26次會議明確提出“推動算法審計”這一要求后,社會各領域對算法審計的重視度及認知度提升,對其內涵、功能的闡釋也進入新的階段[2]。結合人工智能環(huán)境下的倫理風險類型及防范需求,可將算法審計的應用原則歸納為以下幾個維度。

      (一)公共利益原則

      人工智能技術支持下的算法平臺往往存在一定的利益傾向,即在面對算法審計時,可能會遮蔽、造假等形式維護平臺利益,進而對公眾利益造成損害[3]。因此,算法審計需秉承公共利益原則,同步面向審計方與被審計方做出約束,最大化維護利益平衡。一方面,針對算法審計人員的審計行為做出限制,嚴格防范動機不良、技術越界等情況的發(fā)生,確保算法審計始終圍繞審計文化精神內核開展,避免算法審計最終成為惡意黑客的“工具”。另一方面,公共利益原則要求被審計者在理解審計內涵的前提下,主動識別并整改潛在的審計問題,主動平衡利益相關主體的核心利益,重視邊緣人群的權益保護,盡可能規(guī)避倫理風險的產(chǎn)生。

      (二)介入無害原則

      在法律法規(guī)允許的范圍內,審計人員開展介入算法平臺或賬戶以獲取數(shù)據(jù)信息的行為時,應充分考慮對應條件及后果,防止對被審計者的正當利益造成損害,即介入無害原則。譬如,介入頻率與介入方式應控制在合理范圍,以不干擾算法的正常運行為基準,可在特定的時間范圍內反復發(fā)送少量介入請求,既保證數(shù)據(jù)信息的全面性,又可避免對服務器造成過重負擔。同時,審計人員還需建立充分的用戶隱私保護意識,在開展算法審計的過程中,不可對外泄露保密性數(shù)據(jù),防止因數(shù)據(jù)流失、數(shù)據(jù)篡改而侵害被審計者的利益。

      (三)最小必要原則

      算法審計中,數(shù)據(jù)源搜集邊界的設定應以數(shù)據(jù)的夠用程度為衡量標準,即在能夠洞察審計信息的前提下,將搜集的個人信息類型與數(shù)量控制在最小范圍,避免影響審計安全。譬如,審計人員在爬取算法平臺的數(shù)據(jù)時,應首先衡量出實現(xiàn)審計目的所需的必要數(shù)據(jù)類型、數(shù)據(jù)體量,確定“最小必要”的標準,再從實際需求出發(fā),控制數(shù)據(jù)獲取頻率,防止因頻率過高而導致對審計效率及用戶利益造成負面影響。

      (四)情境理解原則

      維持人工智能算法公平的一大關鍵在于從具體的問題情境出發(fā),由審計人員在特定的情境中判斷審計行為、審計問題、審計結果的合理性,在此過程中,能夠準確理解并代入情境至關重要。情境理解原則要求審計人員在算法審計中充分理解算法的應用情境,依托算法設計原理及審計標準,綜合考慮算法設計的邏輯、算法受眾的目標、審計方法的側重點,從而由不同視角客觀分析算法審計的實施準度,提高算法審計對于解決算法倫理問題的效能[4]。

      三、基于人工智能倫理風險防范的算法審計優(yōu)化應用路徑

      目前,我國針對人工智能領域的算法審計應用框架設計仍未成體系,在應用實踐中面臨著方向混亂、秩序失衡等問題。為強化算法審計監(jiān)管效能,可從以下幾個方向綜合構建優(yōu)化應用路徑,有效應對人工智能環(huán)境下的倫理風險。

      (一)確立政府主導核心,鞏固市場認知根基

      算法審計在國內人工智能環(huán)境的應用仍處于初期階段,無法以規(guī)范的市場化運作形成體系,還需在政府主導、市場發(fā)育的模式下,遏制算法市場亂象,發(fā)揮算法審計效能。一方面,結合當?shù)卣呶募?,明確算法審計主體及其對應的權責范圍,緊跟人工智能技術的迭代升級趨勢,構建算法審計規(guī)范運作模式,圍繞算法平臺的數(shù)據(jù)體量及數(shù)據(jù)類型,找準算法審計的切入點,以適當?shù)慕槿腩l率、介入方法來獲取準確的審計信息,及時識別審計問題。另一方面,以培育“全民數(shù)字素養(yǎng)”為目標,針對人工智能環(huán)境下的一系列風險進行大眾向普及,在當?shù)卣囊龑?,開展專業(yè)化的智能算法市場培育工作,重點面向相關被審計主體加強算法審計知識的宣傳,共同應對人工智能倫理難題,同時以審計公開的形式鼓勵市場及公眾進行共同監(jiān)督,逐步建立起大眾層面的倫理風險共治意識,自覺抵制可能涉及倫理風險的算法應用,由認知建設層面夯實算法審計的大眾配合根基。

      (二)構建算法審計制度,強化實踐應用效能

      算法審計的實施目的在于維護算法倫理的平衡;通過明確算法審計制度的實施主體、對象、方法,可從根本上加固風險防線,提高算法審計應用實效。在審計主體層面,分設政府、企業(yè)、第三方審計組織等主體,并引進倫理學學者、算法技術工程師、法律顧問等符合時代發(fā)展訴求的人才,依照對應的崗位要求來完善權責管理體系,促使主體監(jiān)管制度的最終形成。在審計對象層面,將被審計主體的算法研發(fā)及應用活動納入審計范疇,包括為滿足某種算法需求而設計的算法模型、數(shù)據(jù)集等,用作轉化審計依據(jù)、識別倫理風險、調整算法結構的支撐。在審計方法層面,可在組織面談、現(xiàn)場檢查等常規(guī)審計方法的基礎上,加入更符合人工智能環(huán)境特征的審計環(huán)節(jié),以達成針對性審計應用成效,如通過代碼審計來解決參數(shù)權重不均所導致的算法歧視問題;通過非侵入式審計來突破用戶與平臺之間的信息繭房困境;通過代理審計來創(chuàng)建大量虛擬用戶,進而提高對算法結果的分析準度,降低“算法黑箱”出現(xiàn)的可能性;通過抓取審計來重復獲取隨機數(shù)據(jù),解決算法失真或完整性不足等問題。

      (三)開展審計跟蹤記錄,增強算法解釋保障

      算法解釋即通過增加算法的公開性、透明性、可追溯性,為相關主體提供更清晰精準的信息了解渠道,在認識規(guī)則、厘清事實的基礎上做出有效決策。因此,提高算法的可解釋性成為降低人工智能倫理風險的重要一環(huán),可通過開展全程式審計跟蹤記錄這一路徑,來向人們闡釋算法背后的邏輯與緣由,確保相關主體能夠獲悉算法決策產(chǎn)生的過程,并在必要時做出適當?shù)男拚⒄铡度斯ぶ悄茉O計的倫理準則》,要求自動化系統(tǒng)必須具備可解釋性,算法審計的開展也應圍繞“可解釋性”進行標準層面的設計,如審計主體有權在合理范圍內要求被審計主體提供決策相關的數(shù)據(jù)信息,并據(jù)此提供不可篡改的審計跟蹤記錄,確保決策所依據(jù)的事實具有真實性與可追溯性,并在發(fā)生倫理糾紛時,發(fā)揮對應的判斷支持作用,輔助糾正人工智能自動化決策可能發(fā)生的偏差[5]。

      (四)設置審查反饋機制,提供專業(yè)人力補充

      人工智能在現(xiàn)階段仍難以做出可完全滿足人類需求的自動化決策,加上攻擊技術的存在,可能由于輸入樣本被人為篡改而引發(fā)一些安全性倫理風險。因此,可通過以人力補充人工智能算法缺口的方式,設置事前預測、事中審查、事后聽證的審查反饋機制,及時察覺并糾正算法中存在的錯誤。一方面,審計人員要充分樹立合理質疑、科學求證的審計意識,規(guī)避過度依賴人工智能決策結果的誤區(qū),對自動化決策形成的各個步驟進行分析判斷,快速阻斷某個錯誤造成的負反饋,提高后續(xù)的算法預測準度。另一方面,設置獨立的算法審計崗位,定期對特定算法進行檢測,出具對應審計意見,針對人工智能自動化系統(tǒng)中的潛在風險隱患進行人工排查,修正錯誤代碼及算法,維護自動化決策系統(tǒng)的正常運作。人工智能技術在發(fā)展中不斷迭代,其中反饋機制屬于重要的糾錯保障,將此邏輯代入至算法審計中,可知審查反饋機制設立的必要性,以人工干預并優(yōu)化算法模型的形式目前仍不可替代,可在干預形式或角度方面做出靈活變通。

      結語

      綜上所述,算法審計屬于規(guī)范人工智能應用體系、抵制算法霸權的有效規(guī)制路徑,對于降低人工智能倫理風險及維護算法平衡具有重要意義。為進一步發(fā)揮算法審計在人工智能倫理風險防范中的價值功能,應結合人工智能環(huán)境下的主要倫理風險及成因,重新明確算法審計的應用原則,并從機構主導、制度確立、算法解釋、人工糾錯等方向彰顯審計文化內核,推進算法審計優(yōu)化應用,從而突破人工智能技術高速發(fā)展與社會人文環(huán)境維護訴求沖突下的治理壁壘。

      參考文獻:

      [1]李巍.智能+技術背景下基于聚類算法的自動化審計研究[J].佳木斯大學學報(自然科學版),2023,41(5):131-134.

      [2]王兆毓.生成式人工智能視閾下算法審計的制度構建與路徑創(chuàng)新[J].網(wǎng)絡安全與數(shù)據(jù)治理,2023,42(8):6-12.

      [3]徐明華,魏子瑤.算法倫理的治理新范式:算法審計的興起、發(fā)展與未來[J].當代傳播,2023,(1):80-86.

      [4]張永忠,張寶山.算法規(guī)制的路徑創(chuàng)新:論我國算法審計制度的構建[J].電子政務,2022(10):48-61.

      [5]邊瑩,張世國.智能技術背景下基于聚類算法的自動化審計研究[J].貴陽學院學報(自然科學版),2022,17(2):15-19.

      [責任編輯:黨" 婷]

      猜你喜歡
      人工智能
      我校新增“人工智能”本科專業(yè)
      用“小AI”解決人工智能的“大”煩惱
      汽車零部件(2020年3期)2020-03-27 05:30:20
      當人工智能遇見再制造
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      AI人工智能解疑答問
      人工智能與就業(yè)
      基于人工智能的電力系統(tǒng)自動化控制
      人工智能,來了
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      人工智能來了
      學與玩(2017年12期)2017-02-16 06:51:12
      锦屏县| 桂林市| 理塘县| 淮阳县| 武义县| 遵化市| 阿拉尔市| 枞阳县| 瑞安市| 友谊县| 涞水县| 淮北市| 桃园市| 黔西| 南投市| 昌乐县| 凤山市| 峨眉山市| 土默特左旗| 五常市| 油尖旺区| 刚察县| 三原县| 广饶县| 长岛县| 电白县| 福安市| 鸡泽县| 庆阳市| 山东| 城市| 绿春县| 玉林市| 台东县| 永川市| 大荔县| 西丰县| 龙游县| 墨江| 宁远县| 伽师县|