• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能參與決策過程的挑戰(zhàn)與圖景

      2023-12-31 00:00:00陳鋒
      電腦迷 2023年15期

      【摘" 要】 在人工智能技術(shù)快速發(fā)展的背景下,人工智能參與決策過程的深度不斷拓展,這在提升組織決策效率和精準(zhǔn)化的同時,也給社會治理帶來了嚴(yán)峻的挑戰(zhàn)。文章探析了人工智能參與決策過程中面臨的挑戰(zhàn),并基于此闡述了人工智能參與決策過程的圖景。

      【關(guān)鍵詞】 人工智能;決策過程;權(quán)責(zé)體系

      人工智能的發(fā)展史可追溯至20世紀(jì)50年代,人工智能在經(jīng)歷了系列進(jìn)化和突破后,從簡單的圖像識別發(fā)展到如今的自主決策,簡化為四個階段(見圖1)。

      2017年,我國頒發(fā)了《新一代人工智能發(fā)展規(guī)劃》,明確提出要把握住人工智能發(fā)展的重大戰(zhàn)略機(jī)遇,這為人工智能技術(shù)的發(fā)展指明了方向。此后,人工智能技術(shù)獲取了更為廣泛的應(yīng)用,特別是廣泛地參與到?jīng)Q策過程中,提升了決策效率和質(zhì)量,實現(xiàn)了決策的精準(zhǔn)化。然而,人工智能參與決策過程中仍然面臨著較大的挑戰(zhàn)。

      一、人工智能參與決策過程面臨的挑戰(zhàn)

      (一)決策信息資源不足

      與傳統(tǒng)人工決策相比,人工智能能通過大數(shù)據(jù)技術(shù)獲取大量的數(shù)據(jù),并高效地對這些數(shù)據(jù)進(jìn)行整理、分析,這是人工智能參與決策過程的重大優(yōu)勢。然而,這并不意味著人工智能能獲取與決策相關(guān)的所有信息資源。相反,人工智能參與決策仍然面臨數(shù)據(jù)來源不足的問題,這在很大程度上影響了決策結(jié)果的科學(xué)性和正確性,甚至?xí)霈F(xiàn)較大的決策失誤。人工智能參與決策過程的信息資源不足主要體現(xiàn)在兩個方面。一方面,人工智能參與決策過程的信息獲取缺乏動態(tài)調(diào)整。人工智能在參與決策過程中,算法開啟后就按照程序的指定開始運行,而決策的信息資源大都是在算法開啟前獲取的數(shù)據(jù),在決策過程中難以實現(xiàn)人類決策的溝通水平。也就是說,人工智能參與決策過程中既難以獲取外部環(huán)境的變化,也難以與利益相關(guān)者進(jìn)行充分的交流與溝通,這在很大程度上降低了人工智能參與決策過程的科學(xué)性。另一方面,人工智能參與決策過程難以獲取非正式溝通信息資源。正式溝通是獲取信息資源的官方渠道,也是人工智能獲取信息資源的主要來源。然而,非正式溝通同樣蘊含著大量的信息資源,甚至在某些場景下,非正式溝通中才能獲取人員的真實想法和動機(jī)。因此,非正式溝通對于決策具有重要的意義。從這一維度來看,人工智能對非正式溝通信息資源的忽視,決定了人工智能參與決策過程面臨著巨大挑戰(zhàn)。

      (二)人工智能系統(tǒng)的運作黑箱

      傳統(tǒng)組織決策行為多發(fā)生在人與人之間,決策過程和決策結(jié)果都具有明確的理性邏輯和流程,因此決策具有很強(qiáng)的可理解性和可解釋性,這既是讓人感知到?jīng)Q策公平性的重要因素,也是影響決策公信力的重要條件。然而,人工智能系統(tǒng)存在著天然的運作“黑箱”。人工智能參與決策過程主要基于算法,這主要分為兩類:一是傳統(tǒng)算法,即邏輯嚴(yán)密的算法被程序員提前內(nèi)置到系統(tǒng)中,從而根據(jù)獲取的信息進(jìn)行決策;二是新算法,即人工智能具有模擬思維的能力,可以根據(jù)獲取的信息進(jìn)行自我學(xué)習(xí),實現(xiàn)算法的自我迭代,從而在更復(fù)雜的環(huán)境中做出決策。實際上,人工智能參與決策過程中,新算法所占的比例正逐漸加大,這也意味著決策結(jié)果只能依靠數(shù)據(jù)計算來解釋,而無法依靠理性邏輯去理解和解釋其中的邏輯關(guān)系,從而造成人工智能參與決策過程的透明度不足。這給人工智能參與決策過程帶來了挑戰(zhàn)。一方面,人工智能基于算法參與決策過程,將人進(jìn)行物化,人類的情感、人性都轉(zhuǎn)化為可量化的數(shù)據(jù),忽略了人的人格和情感。另一方面,人工智能參與決策過程由于缺乏可解釋性,這會讓相關(guān)利益主體感受到不公平,不利于決策的公信力,也導(dǎo)致大眾監(jiān)督變得愈發(fā)困難。

      (三)決策過程中的價值理性沖擊

      人工智能在參與決策過程中按照既定的算法來得出決策結(jié)果,這無疑在很大程度上擺脫了人的情緒和感性方面的影響,使得決策結(jié)果更加客觀。然而,在人工智能的運行邏輯中,人的行為和思想都轉(zhuǎn)化為可量化的數(shù)據(jù),而且程序只要開始運行,就會按照設(shè)定的算法運行下去,不會由于內(nèi)外部環(huán)境的變化而輕易改變,即使決策過程和結(jié)果已經(jīng)與社會價值觀產(chǎn)生沖突和偏離,這就可能導(dǎo)致人工智能參與決策過程中的價值理性沖擊。人工智能體系能為決策提供更豐富的信息,但往往無法確定哪方面的數(shù)據(jù)要給予更多的權(quán)重;人工智能體系能根據(jù)大數(shù)據(jù)技術(shù)迅速計算出哪個決策結(jié)果更有效率,更節(jié)約成本,但是卻從社會價值和社會倫理的維度去判斷,也無法量化人類的真實情感。由于人工智能體系可能脫離社會大環(huán)境,對人類的生活經(jīng)驗和常識缺乏理解,也不具有這方面的矯正機(jī)制,因此相關(guān)的決策結(jié)果可能會違背常理,帶來道德風(fēng)險和倫理風(fēng)險。若人工智能體系在決策過程中處于輔助的作用,人類還可以進(jìn)行人為矯正和價值調(diào)控,而在人工智能主導(dǎo)的決策過程中,價值理性會受到嚴(yán)重的沖擊。

      (四)決策選擇中的權(quán)責(zé)體系失衡

      組織決策是一項系統(tǒng)的工程,涉及眾多的利益相關(guān)者和復(fù)雜的數(shù)據(jù),根據(jù)決策過程的不同會產(chǎn)生不同的備選方案。因此,如何去選擇出一個決策結(jié)果是一個重大的現(xiàn)實問題,作出選擇也意味著要承擔(dān)對應(yīng)的決策責(zé)任。在傳統(tǒng)決策過程中,人類是決策的中心,遵循“誰決策,誰負(fù)責(zé)”的原則,同時在承擔(dān)決策失敗風(fēng)險的同時,也能享受到?jīng)Q策成功的紅利。這意味著傳統(tǒng)決策過程中的權(quán)責(zé)體系是平衡的。然而,在人工智能參與決策過程中,決策選擇中的權(quán)責(zé)體系出現(xiàn)失衡的現(xiàn)象。特別是隨著人工智能參與決策的深度不斷拓展,并逐漸取代人類在決策過程中的主導(dǎo)地位,然而人工智能卻不具備承擔(dān)決策責(zé)任的能力。在決策過程中人類主導(dǎo)地位下降主要源于兩方面的因素:一是人類的主動讓渡,即人類認(rèn)識到人工智能在決策上的高效率和高質(zhì)量,主動將決策權(quán)讓渡給人工智能;二是被迫讓渡,即在信息爆炸時代,受限于現(xiàn)實條件,人類不得不將部分決策權(quán)讓渡給人工智能。即便人類具有強(qiáng)烈的自主決策意愿,但所獲取的信息實際上是人工智能處理過的,甚至部分“事實要素”也是人工智能參與的結(jié)果。基于此,決策權(quán)威從人類轉(zhuǎn)變到人工智能,然而人工智能卻不具備作為責(zé)任主體的能力,這也意味著一些重大決策中沒有主體為其決策結(jié)果承擔(dān)責(zé)任,造成決策選擇中的權(quán)責(zé)體系失衡。

      二、人工智能參與決策過程的圖景

      (一)增強(qiáng)人工智能的信息獲取能力

      人工智能參與決策過程中表現(xiàn)出整體上的信息獲取和處理能力優(yōu)勢,但在某些領(lǐng)域的信息獲取上還存在短板,特別是在與人的實時交流和認(rèn)知上存在障礙。因此,人工智能參與決策過程要增強(qiáng)信息獲取能力。首先,要強(qiáng)化人工智能參與決策過程的實時溝通能力。在信息時代,各行業(yè)、各領(lǐng)域外部環(huán)境變化迅速,正如美國作家斯賓塞·約翰遜所言:唯一不變的就是變化。在此背景下,組織決策要根據(jù)內(nèi)外部環(huán)境變化來進(jìn)行及時調(diào)整,才能保證決策結(jié)果的科學(xué)性。在人工智能參與決策過程的圖景上,要優(yōu)化人工智能系統(tǒng)技術(shù)上的信息共享功能,并強(qiáng)化人與人工智能系統(tǒng)的交互功能,使人工智能系統(tǒng)通過人機(jī)交互,以及機(jī)機(jī)交互來獲取內(nèi)外部環(huán)境變化信息,并應(yīng)用于決策過程。其次,要強(qiáng)化人工智能獲取非正式溝通信息的能力。非正式溝通信息是決策過程中不可缺少的信息資源,因此人工智能參與決策過程中要充分了解各參與主體在非正式溝通場合表露出的態(tài)度和意見。實際上,非正式溝通信息難以獲取的一個重要原因是其中包含了大量的非結(jié)構(gòu)化信息,包括語音、視頻和用戶畫像等,還包括人類在溝通過程中的肢體語言、微表情等。因此,人工智能技術(shù)要加強(qiáng)非結(jié)構(gòu)化信息資源的收集和處理能力,進(jìn)而提升獲取非正式溝通信息的能力,實現(xiàn)人工智能參與決策過程的科學(xué)性。

      (二)建立“解釋與理解”雙向發(fā)展的人工智能體系

      人工智能參與決策過程中,人類仍然占據(jù)著重要的作用和地位,因此要建立人工智能主動解釋和人類主動理解的雙向發(fā)展的人工智能體系。研究表明,信任和人工智能的可解釋性呈現(xiàn)出正相關(guān)的關(guān)系,可解釋性強(qiáng)的決策能得到更多人的認(rèn)可。人類對人工智能可解釋性的訴求源于人工智能系統(tǒng)的運作“黑箱”,因此,人工智能要更好地參與決策過程,就要實現(xiàn)算法的公開與透明,采用通俗的、易懂的社會語言,而非抽象的、專業(yè)性強(qiáng)的計算機(jī)語言去向利益相關(guān)者闡釋人工智能參與決策過程的機(jī)理,提升人對人工智能決策的認(rèn)知,從而更好地保障其監(jiān)督權(quán),實現(xiàn)人工智能參與決策過程的科學(xué)性。此外,現(xiàn)階段人與技術(shù)交互之間還存在一定的障礙,這對于技術(shù)水平不高的人來說,將自己的意圖傳達(dá)給機(jī)器存在較大的困難,同時也難以理解人工智能的運行邏輯。因此,要優(yōu)化人與機(jī)器交互的端口,實現(xiàn)更人性化的人機(jī)交互機(jī)制,使人與機(jī)器的溝通、互動能更加便捷,從而增強(qiáng)人類對人工智能決策的可理解性。

      (三)完善公共價值治理

      人類以共同體的形式生活在社會之中,離不開所有社會成員共同的公共價值。無論人工智能技術(shù)如何發(fā)展,其落腳點都在于為人類的共同價值服務(wù)。因此,人工智能參與決策過程中,要不斷完善公共價值治理,實現(xiàn)決策實質(zhì)上的價值理性。一方面,要明確人工智能技術(shù)的決策輔助地位。由于信息不對稱和算法的不透明性,導(dǎo)致決策責(zé)任很難被明確。若人工智能主導(dǎo)決策過程,很有可能造成決策結(jié)果與公共價值的背離。因此,要始終將人工智能作為人類決策的工具,明確人工智能在決策過程中的輔助性地位,降低不正確授權(quán)而對價值理性的沖擊。另一方面,要將公共價值內(nèi)化于人工智能算法中。現(xiàn)階段,公共價值如何量化到人工智能技術(shù)之中是一大挑戰(zhàn),也是人工智能參與決策過程的偉大圖景。在信息獲取過程中,要對算法進(jìn)行優(yōu)化,采用賦予權(quán)重的方式來引導(dǎo)算法向公共價值靠攏,同時探索出更先進(jìn)的信息獲取技術(shù),對非結(jié)構(gòu)化信息和非正式溝通信息進(jìn)行準(zhǔn)確識別。在決策過程中,要將是否遵循公共價值作為決策選擇的一票否決因素,保證決策結(jié)果與公共價值相匹配。

      (四)健全人工智能決策的權(quán)責(zé)體系

      由于人工智能無法成為決策的責(zé)任主體,因此在人工智能參與決策過程中,要將人類作為決策過程和結(jié)果的權(quán)責(zé)主體,明確人工智能在決策過程中所產(chǎn)生風(fēng)險的具體責(zé)任人。政府機(jī)構(gòu)可以采用嚴(yán)格的制度標(biāo)準(zhǔn)來落實責(zé)任體系,對于決策過程中的風(fēng)險,若決策風(fēng)險是由于違反開發(fā)準(zhǔn)入制度造成的,則決策責(zé)任由技術(shù)開發(fā)者來承擔(dān);若決策風(fēng)險是由于違反生產(chǎn)制度標(biāo)準(zhǔn)造成的,則決策責(zé)任由技術(shù)使用者來承擔(dān);若決策符合制度標(biāo)準(zhǔn),仍然出現(xiàn)決策風(fēng)險,則要反思準(zhǔn)入制度是否科學(xué)、合理,根據(jù)實際情況對準(zhǔn)入制度進(jìn)行優(yōu)化和調(diào)整。同時,要對符合準(zhǔn)入制度的決策風(fēng)險進(jìn)行補(bǔ)救,由政府機(jī)構(gòu)承擔(dān)治理責(zé)任。政府機(jī)構(gòu)可以成立專門針對人工智能決策風(fēng)險的專項委員會,除了對技術(shù)風(fēng)險進(jìn)行識別外,最主要的還是承擔(dān)著技術(shù)風(fēng)險補(bǔ)救職責(zé),對因人工智能決策造成損失的相關(guān)主體進(jìn)行救濟(jì),減輕相關(guān)主體的損失。

      三、結(jié)語

      隨著人工智能在各個領(lǐng)域的廣泛應(yīng)用,人類與AI的協(xié)作開始變得普遍。AI可以提供建議和相關(guān)信息,因此其在決策過程中的角色逐漸凸顯。然而,人工智能參與決策過程并非一帆風(fēng)順,面臨著決策信息資源不足、人工智能系統(tǒng)的運作黑箱、決策過程中的價值理性沖擊、決策選擇中的權(quán)責(zé)體系失衡等諸多挑戰(zhàn)。為了解決這一系列問題,需要增強(qiáng)人工智能的信息獲取能力、建立“解釋與理解”雙向發(fā)展的人工智能體系、完善公共價值治理、健全人工智能決策的權(quán)責(zé)體系。只有如此,才能充分發(fā)揮人類與AI協(xié)作的潛力,為AI輔助決策提供保障。

      參考文獻(xiàn):

      [1] 王鋒,劉瑋. 人工智能參與決策過程的挑戰(zhàn)與圖景[J]. 求實,2023(03):18-29.

      [2] 孫立會. 人工智能之于教育決策的主體性信任危機(jī)及其規(guī)避[J]. 電化教育研究,2023,44(03):21-27+43.

      [3] 杜昕怡,肖澤晟. 人工智能算法輔助行政決策的法治風(fēng)險及其化解路徑[J]. 學(xué)習(xí)論壇,2023(03):122-130.

      [4] 蘇麗,張卓玉. 人工智能參與行政決策的法治風(fēng)險探究[J]. 石家莊學(xué)院學(xué)報,2023,25(04):155-160.

      [5] 余樂安. 基于人工智能的預(yù)測與決策優(yōu)化理論和方法研究[J]. 管理科學(xué),2022,35(01):60-66.

      [6] 孔祥維,王子明,王明征,等. 人工智能使能系統(tǒng)的可信決策:進(jìn)展與挑戰(zhàn)[J]. 管理工程學(xué)報,2022,36(06):1-14.

      [7] 柳亦博,高潔,李軼倩. 人工智能參與決策對行政倫理的影響及其治理之道[J]. 中共天津市委黨校學(xué)報,2022,24(06):55-63.

      [8] 吳進(jìn)進(jìn),符陽. 算法決策:人工智能驅(qū)動的公共決策及其風(fēng)險[J]. 開放時代,2021(05):194-206.

      宜川县| 醴陵市| 全南县| 济南市| 临夏县| 深泽县| 济南市| 福贡县| 乐业县| 万载县| 西畴县| 锡林郭勒盟| 分宜县| 天津市| 庆元县| 湖北省| 波密县| 呈贡县| 府谷县| 通城县| 灵山县| 万荣县| 广南县| 桃园县| 二连浩特市| 星座| 武乡县| 英超| 莱西市| 永寿县| 闽清县| 宜阳县| 浦东新区| 拜城县| 保德县| 杭锦旗| 望城县| 阳江市| 定边县| 大邑县| 麻栗坡县|