• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      數(shù)字時代下算法歧視的表現(xiàn)、產(chǎn)生原因與法律規(guī)制

      2023-08-07 12:12:18
      關(guān)鍵詞:規(guī)制人工智能算法

      程 蕾

      (華東政法大學(xué) 法律學(xué)院,上海 200000)

      一、數(shù)字時代下算法歧視的表現(xiàn)

      (一)數(shù)字時代下算法歧視的產(chǎn)生

      人工智能在當(dāng)前的技術(shù)革命中發(fā)揮著重要驅(qū)動作用,一系列新生事物與行業(yè)隨之產(chǎn)生。隨著人工智能與大數(shù)據(jù)的深度結(jié)合,我們的生活發(fā)生著翻天覆地的變化。此次的技術(shù)革命相比于之前的工業(yè)革命,其適用領(lǐng)域更廣,影響程度更深,全新的數(shù)字生活時代正在被重構(gòu),新的生活理念與生活方式正在形成。在2017年我國發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,明確提出確保人工智能的深度發(fā)展,制定與人工智能發(fā)展相匹配的法律法規(guī)等內(nèi)容。

      算法是人工智能的三要素之一,也是對人工智能發(fā)展至關(guān)重要的因素,數(shù)字時代的到來,讓算法在人工智能中的應(yīng)用不斷增多,使得我們每個人都處于算法帶來的便捷之中,也使得人們的隱私信息處于算法的漩渦之中。比如,公司在招聘時以算法篩選簡歷;外賣平臺通過算法推測顧客的喜好進(jìn)行精準(zhǔn)推薦;銀行通過算法決定是否通過借貸人的信貸審核;法院和檢察院可以通過算法輔助生成法律適用方案等。算法在商業(yè)與公共治理場景下被廣泛使用,在帶來便捷與準(zhǔn)確的同時,也會給個人甚至社會帶來不利影響,增加侵犯人們權(quán)利的風(fēng)險。

      在人工智能算法帶來的諸多挑戰(zhàn)中,“非歧視”是高度關(guān)注的風(fēng)險話題之一。算法決策是大規(guī)模使用相關(guān)數(shù)據(jù)做出決策,通常認(rèn)為,流程式的算法決策相比于人工決策會更加客觀公正。但是在算法運(yùn)用的過程中會出現(xiàn)隱形的歧視偏向。美國的“數(shù)字濟(jì)貧院”便引起了許多學(xué)者的關(guān)注,以算法的公正掩蓋了實質(zhì)產(chǎn)生的不平等??此颇芨咝Ы鉀Q社會問題以及救助窮人的算法,不僅會泄露個人信息,還會帶來一系列倫理道德問題。目前我國關(guān)于人工智能算法歧視的問題尚未在公共媒體上引起激烈討論,但其隱匿的歧視確實存在,且影響著社會的公平正義。算法歧視的表現(xiàn)形式可分為平權(quán)語境下的算法歧視以及經(jīng)濟(jì)法語境下的算法歧視。算法歧視產(chǎn)生的本質(zhì)原因是原有社會已存在的歧視,加之算法程序設(shè)計本身,算法歧視隨之產(chǎn)生。算法歧視并不是新技術(shù)的產(chǎn)物,而是當(dāng)前數(shù)字社會對傳統(tǒng)矛盾的延伸。數(shù)字時代下的歧視相比于傳統(tǒng)的歧視雖顯得更加隱蔽,但數(shù)字時代下效率背后的正義更是值得我們關(guān)注的,對數(shù)字社會公平正義的影響是不能忽視的。

      (二)算法歧視的表現(xiàn)形式

      近幾年來,越來越多的學(xué)者開始意識到人工智能領(lǐng)域在算法決策方面存在的歧視與偏見問題,表示出對人工智能算法產(chǎn)生歧視的擔(dān)憂,并且產(chǎn)生了許多關(guān)于算法歧視的研究成果。

      有學(xué)者將算法歧視分類為偏見代理型的算法歧視、特征選擇的算法歧視以及大數(shù)據(jù)殺熟類型的的算法歧視。偏見代理是指算法程序雖客觀公正,但是由于過于強(qiáng)調(diào)某個數(shù)據(jù)特征而造成的算法歧視,特征選擇的算法歧視是原有社會中傳統(tǒng)歧視的延伸,大數(shù)據(jù)殺熟是對消費者進(jìn)行差別定價的算法歧視[1]。此種分類是從算法歧視產(chǎn)生的原因入手,分析算法歧視的種類。算法歧視的表現(xiàn)形式直接以表現(xiàn)形態(tài)進(jìn)行列舉,以性別歧視、種族歧視、消費歧視、弱勢群體的歧視以及年齡歧視為代表,不明確算法歧視分類的特征。

      算法歧視大致可以分為兩種類型,其一為涉及平等權(quán)情況下的算法歧視,其二為經(jīng)濟(jì)法情況下的算法歧視。算法歧視的研究不僅包括在平權(quán)運(yùn)動研究[2]中關(guān)于平等權(quán)的算法歧視以及在經(jīng)濟(jì)法語境下[3]與價格歧視相關(guān)的算法歧視,還包括了涉及倫理學(xué)、金融學(xué)等和法學(xué)相結(jié)合的研究。在倫理學(xué)語境下,有學(xué)者將算法歧視與算法的公平性以及算法所帶來的身份污名化做聯(lián)系[4]。

      1.平權(quán)語境下的算法歧視

      首先,算法的運(yùn)行在形式上看起來會更加客觀公正,但實際在程序運(yùn)行以及結(jié)果上會產(chǎn)生一定的不平等。平等從最開始的道德準(zhǔn)則到現(xiàn)在由憲法規(guī)定的權(quán)利,都表現(xiàn)出人類樸素的情感以及對個人尊嚴(yán)的渴望。平等權(quán)從原先憲法所規(guī)定形式平等到現(xiàn)在所賦予的實質(zhì)平等,是人類對平等正義孜孜不倦的追求,平等權(quán)也成為人類公認(rèn)的一項基本權(quán)利[5]。我國憲法所涉及的平等權(quán)分為兩類,其一是法律面前人人平等的一般平等權(quán),其二是涉及民族、信仰、性別平等的特別平等權(quán)。算法在運(yùn)行中不能損害公民所享有的平等權(quán)[6]。

      其次,與平等權(quán)有關(guān)的算法歧視主要涉及性別、種族等有一定特定身份的帶有個人情感偏見的歧視。這種損害社會公眾權(quán)益的算法歧視有著受害群眾不確定以及損害程度不確定的特點,主要表現(xiàn)在性別歧視和種族歧視以及司法裁判過程當(dāng)中。例如,公司招聘時會使用人工智能算法自動篩選簡歷,在此過程中對特定人群形成隱形的就業(yè)歧視。對于女性工作者的歧視更多表現(xiàn)為隱形歧視。算法設(shè)計者以及用工單位決策者的固有性別歧視,可能會通過工作的勞動要素算法化被帶到算法決策當(dāng)中[7]。勞動用工過程中的算法決策是通過對勞動者的受教育程度、工作經(jīng)驗、工作強(qiáng)度以及工作能力等要素進(jìn)行分析,以期找到最符合用工要求的勞動者,這種用戶畫像分析在《信息安全技術(shù) 個人信息安全規(guī)范》中有相應(yīng)概念分析。為了節(jié)約人力以及時間成本,各類企業(yè)越來越傾向于使用人工智能算法在眾多應(yīng)聘者中尋找符合條件的完美勞動者。例如,亞馬遜在進(jìn)行招聘時,算法對女性會有隱形歧視,在對應(yīng)聘者信息進(jìn)行處理時,對于和女性相關(guān)的一些詞如女子俱樂部、女子大學(xué)等比較敏感,以至于此類女性的簡歷排列順位就會靠后[8]。

      最后,算法歧視可能導(dǎo)致的教育平等權(quán)現(xiàn)象也會有發(fā)生。早期美國在進(jìn)行大學(xué)入學(xué)申請時會有申請模型的運(yùn)算,但其模型的訓(xùn)練數(shù)據(jù)大多為已經(jīng)成功的男性,因此,女性在教育平權(quán)上也會受到歧視[9]。算法訓(xùn)練的數(shù)據(jù)不僅僅在教育領(lǐng)域有所缺失,在產(chǎn)品設(shè)計等涉及日常生活的方方面面都有女性數(shù)據(jù)的缺失。例如,對于聲音識別,男性的準(zhǔn)確率要高于女性;對于溫度的適應(yīng),市面產(chǎn)品更符合男性的體感溫度[10]。算法歧視導(dǎo)致的男女不平等若不加以規(guī)制可能會導(dǎo)致更加嚴(yán)重的不平等,導(dǎo)致社會固化。例如,在推薦高薪水的工作時,算法決策向男性推薦的次數(shù)要遠(yuǎn)高于向女性推薦的次數(shù),以此會加劇就業(yè)的不平等[11]。除了對性別、民族這種看得見的歧視,還有對窮人等群體產(chǎn)生的看不見的歧視,在自動化算法驅(qū)動下,可以更好地鎖定特定人群、針對特定人群。

      算法歧視在平權(quán)語境下會損害憲法所規(guī)定公民的基本權(quán)利——平等權(quán),尤其是在性別歧視、民族歧視等方面。

      2.經(jīng)濟(jì)法語境下的算法歧視

      首先,經(jīng)濟(jì)法語境下的算法歧視主要是價格與消費歧視,例如數(shù)字時代的大數(shù)據(jù)殺熟現(xiàn)象。眾多購物平臺如淘寶、亞馬遜以及外賣、在線旅游平臺均被曝光存在價格歧視的現(xiàn)象。大數(shù)據(jù)殺熟現(xiàn)象的本質(zhì)為利用人工智能算法對消費者個人信息以及消費喜好進(jìn)行分析以達(dá)到差別待遇,實現(xiàn)自身利益。這不僅有悖商業(yè)倫理,更是違反了誠實信用原則,侵犯了消費者權(quán)利。涉及競爭性利益的算法歧視損害,主要是經(jīng)營者濫用市場支配地位、進(jìn)行不正當(dāng)競爭的算法歧視。損害個體權(quán)益的算法歧視與前兩者相比具有特殊性,主要表現(xiàn)為大數(shù)據(jù)殺熟、千人千價的差別待遇[12]。大數(shù)據(jù)殺熟行為不僅是對社會公平正義的損害,其算法不透明的特點更是讓算法形成“算法黑箱”。

      其次,對大數(shù)據(jù)殺熟的本質(zhì),有著不同的看法,主要是欺詐說、價格歧視以及濫用算法歧視。價格欺詐說的理由是商家以直接或間接的故意不告知消費者真實價格,使得消費者造成財產(chǎn)損失,侵害消費者的合法權(quán)益[13]。反對欺詐說的學(xué)者主要認(rèn)為,商家未告知其他消費者的價格不屬于欺詐行為[14]。主流觀點是價格歧視說,但是并非所有的價格歧視都需要受法律規(guī)制。

      最后,價格歧視一般可以分為針對所有消費者的一級價格歧視,因購買多少而定價不同的二級價格歧視,以及針對特定群體消費者的三級價格歧視[15]。大數(shù)據(jù)殺熟是對消費者的消費能力、消費次數(shù)以及消費習(xí)慣進(jìn)行分析,以此來定可以讓消費者接受的價格。價格歧視在經(jīng)濟(jì)學(xué)上是對市場資源的合理分配手段,因此大數(shù)據(jù)殺熟應(yīng)是價格歧視中的非合法行為。

      二、算法歧視產(chǎn)生的原因

      (一)算法歧視產(chǎn)生的本質(zhì)原因

      1.社會中原有的不平等

      算法社會本身就是不平等的、會產(chǎn)生歧視的社會,算法是擁有權(quán)力的人與高科技人才對普通人的支配,因此算法社會的不平等會直接導(dǎo)致算法歧視的產(chǎn)生[16]。算法歧視的產(chǎn)生本質(zhì)為人類社會原有歧視的延伸,可將歧視根源分為因個人認(rèn)知不同的內(nèi)心偏見歧視,以及因社會資源分配、統(tǒng)治權(quán)力關(guān)系產(chǎn)生的歧視[17]。個人認(rèn)知在無意識中會參與算法決策,本該客觀公正的算法決策因個人意識而受到影響[18]。例如,人們對老年人、同性戀、殘障者的接受度就小于年輕人、異性戀和健全人,這種個人無意識的選擇會影響算法決策。結(jié)構(gòu)性歧視使得個案中的歧視發(fā)生成為社會的常態(tài)化歧視,借助社會制度加劇歧視的發(fā)生,導(dǎo)致女性、攜帶病原體以及殘障者等特定群體受到歧視。

      2.嵌入算法中的不平等

      社會原有的歧視在算法到來時嵌入并形成算法歧視。算法歧視的產(chǎn)生從人工智能的起點開始,平臺利用算法的目的是從利益和效率出發(fā),將所要達(dá)成的目標(biāo)用計算機(jī)可以量化表達(dá)的語言表達(dá)出來。社會所需要的公正是算法設(shè)計者無法找到具體的衡量標(biāo)準(zhǔn)的,但是利益與效率是可以進(jìn)行某些元素的量化的。算法設(shè)計者會將目標(biāo)的抽象性表達(dá)轉(zhuǎn)化為具體的衡量,比如企業(yè)在選擇優(yōu)質(zhì)客戶或者判斷是否信貸時,會綜合考察客戶的年齡、消費以及是否是殘障人士,這便在無形中對殘障人士進(jìn)行了歧視。

      3.結(jié)構(gòu)性歧視

      從問題解決角度去看,其不僅包含了個人內(nèi)心的隱形偏見還包括了結(jié)構(gòu)性歧視,在互聯(lián)網(wǎng)行業(yè),多處數(shù)據(jù)表明互聯(lián)網(wǎng)行業(yè)對男性以及年輕人較為優(yōu)待,女性在互聯(lián)網(wǎng)的從業(yè)比例遠(yuǎn)低于男性,這不僅僅是社會選擇的結(jié)果,更是在學(xué)習(xí)階段之初,就有男女生對學(xué)習(xí)分科的偏見。算法對于性別以及種族的歧視使得公司職工的同質(zhì)化嚴(yán)重,也是個人偏見與結(jié)構(gòu)性歧視作用的結(jié)果。從算法所依據(jù)的數(shù)據(jù)來看,主要是由于所選用的相關(guān)數(shù)據(jù)不足以及過往數(shù)據(jù)代表性的過度集中。從特征的選擇與個人信息的角度下來看,算法歧視因個人信息的暴露以及特征選擇產(chǎn)生。

      因此,算法歧視產(chǎn)生的本質(zhì)是原有社會就存在的不平等觀念以及不平等現(xiàn)象的延伸。人們總會有意無意地將原有的人類不平等帶入算法當(dāng)中,自此形成了算法歧視。當(dāng)然,算法歧視的產(chǎn)生也不完全是由于原有社會的歧視,也有一部分因素源于算法設(shè)計的程序問題。

      (二)算法歧視產(chǎn)生的程序原因

      有國外學(xué)者將算法歧視的緣由分為四類:第一類是運(yùn)用于算法決策的數(shù)據(jù)存在的歧視問題;第二類是算法在運(yùn)行開始時就有表現(xiàn)不同的區(qū)分,以此形成算法歧視;第三類是算法模型的濫用所產(chǎn)生的算法歧視;第四類是反饋數(shù)據(jù)的循環(huán)方式會導(dǎo)致算法歧視[19]。有學(xué)者指出,算法歧視形成的原因可以追溯為三類,其一為算法形成之初的設(shè)計者,其二為算法運(yùn)行所依據(jù)的數(shù)據(jù),其三為機(jī)器后天學(xué)習(xí)中產(chǎn)生的歧視[12]。算法歧視產(chǎn)生的程序原因大致可分為所依數(shù)據(jù)樣本、研發(fā)人員以及算法本身三種。

      1.算法依靠的數(shù)據(jù)與樣本導(dǎo)致的算法歧視

      在算法運(yùn)行當(dāng)中所依據(jù)的數(shù)據(jù)以及訓(xùn)練所用的樣本可能會導(dǎo)致算法歧視的發(fā)生。數(shù)據(jù)以及訓(xùn)練樣本的多少、數(shù)據(jù)特征的分布、數(shù)據(jù)是否具有代表性都會影響算法決策的結(jié)果。在人工智能算法的運(yùn)算過程中,需要依靠大量的相關(guān)數(shù)據(jù)作出決策,若出現(xiàn)偏差,會使得結(jié)果出現(xiàn)假陽性以及假陰性,這樣的偏差在結(jié)果上就顯得非常重要。以司法領(lǐng)域為例,判定為假陰性,是將有罪的人員判定為無罪;判定為假陽性,是將無罪的人員判定為有罪。因此無論哪一種偏差都會影響社會的公平正義[20]。

      2.算法研發(fā)人員導(dǎo)致的算法歧視

      研發(fā)算法人員與算法所屬主體以算法來實現(xiàn)自身的利益而產(chǎn)生的算法歧視。例如,公司在招聘時更加傾向于能為公司帶來更高效益的勞動者,商家能夠通過算法分析出消費者的消費習(xí)慣以及消費能力,以此實現(xiàn)商家的利益最大化。

      3.算法自身的原因所產(chǎn)生的算法歧視

      算法由于自身的特性,也是算法決策產(chǎn)生歧視的重要原因之一?!八惴ê谙洹爆F(xiàn)象使得人們更難了解本就復(fù)雜的人工智能算法,會導(dǎo)致對于算法決策的監(jiān)管力度下降,不能從源頭上對算法歧視進(jìn)行預(yù)防。

      三、算法歧視的法律規(guī)制

      無論為哪種算法歧視,均不同程度存在“算法黑箱”以及侵犯個人隱私權(quán)、知情權(quán)的情況。算法已經(jīng)被廣泛運(yùn)用到社會生活中,其引發(fā)的算法歧視發(fā)生在數(shù)據(jù)收集、處理與使用的各個環(huán)節(jié)。為防止算法權(quán)力異化,減少算法歧視發(fā)生,需要我們從法律層面進(jìn)行分析與規(guī)制,以實現(xiàn)更好的數(shù)字正義,維護(hù)數(shù)字時代下人的尊嚴(yán),保護(hù)公民權(quán)利。算法決策在各個領(lǐng)域的使用,要求完備的法律制度,在算法歧視領(lǐng)域的立法亟須完善,人工智能從業(yè)人員的倫理規(guī)范更需要提高。

      (一)國外算法歧視的法律規(guī)制——以美國為例

      首先,美國在處理算法歧視時,會引用禁止歧視的一般原則來對其進(jìn)行規(guī)制,這種原則性規(guī)制在多個立法中都有體現(xiàn)。除了對算法歧視進(jìn)行原則性規(guī)制,還有對算法特定的規(guī)制。原則性與特定方向的規(guī)制可以多方向地預(yù)防算法歧視的發(fā)生。美國將非歧視列為人工智能算法的標(biāo)準(zhǔn),以算法程序來限制算法,以減少算法歧視發(fā)生[21]。

      其次,美國在算法領(lǐng)域的立法力度較大,《2019算法問責(zé)制法案》等都對算法歧視進(jìn)行了規(guī)制與防范。美國的《大數(shù)據(jù)報告:算法系統(tǒng)、機(jī)會和公民權(quán)利》強(qiáng)調(diào)了對司法領(lǐng)域、信貸領(lǐng)域等算法歧視的治理,其中法律規(guī)制、倫理建設(shè)以及科技提升都是重要的解決方法。將倫理嵌入算法之中也可以防范算法歧視的發(fā)生。算法程序的設(shè)計過程與細(xì)節(jié)經(jīng)專家、民眾、政府審核評估之后才可以進(jìn)入到算法決策,同時還要對數(shù)據(jù)收集可能產(chǎn)生的算法歧視進(jìn)行事前預(yù)防。對于事后追責(zé)方面,美國立法規(guī)定,存在歧視且有損害后果,可以對其進(jìn)行事后追責(zé)。

      (二)算法歧視法律規(guī)制的路徑

      1.算法歧視的傳統(tǒng)規(guī)制

      算法的傳統(tǒng)規(guī)制方法,其一是算法公開,針對不同主體、不同情況、不同范圍內(nèi)的公開。對算法進(jìn)行公開透明的解釋可以減少算法歧視的發(fā)生。弗蘭克·帕斯奎爾的著作《黑箱社會》對算法歧視進(jìn)行了研究,尤其是個人隱私保護(hù)方面,對于如何披露信息闡述了相關(guān)公開標(biāo)準(zhǔn)。對于算法的公開,不僅是公開算法的代碼,更要關(guān)注算法形成的訓(xùn)練數(shù)據(jù)以及模型[22]。其二是對個人數(shù)據(jù)的賦權(quán),在我國《民法典》《個人信息保護(hù)法》《網(wǎng)絡(luò)安全法》等多部法律規(guī)范中對個人信息以及個人數(shù)據(jù)進(jìn)行了保護(hù)。歐盟的數(shù)字保護(hù)委員會也發(fā)布了相應(yīng)的數(shù)據(jù)保護(hù)法則。算法所使用的個人數(shù)據(jù),應(yīng)當(dāng)獲得主體的同意,不能在未經(jīng)同意的情況下使用他人數(shù)據(jù)用于算法決策。

      2.算法歧視時間維度上的法律規(guī)制

      時間維度上,可以分為算法歧視的事前規(guī)制、事中規(guī)制以及算法歧視發(fā)生的事后規(guī)制。在算法歧視的規(guī)制中,主要是對算法設(shè)計者、訓(xùn)練數(shù)據(jù)以及算法本身的規(guī)制。對于訓(xùn)練數(shù)據(jù)方面,數(shù)據(jù)的來源、內(nèi)容以及處理都應(yīng)該是可查、透明的。對于算法本身,應(yīng)設(shè)立相關(guān)的審查機(jī)構(gòu)或者形成可制約的權(quán)力關(guān)系,以保證算法的設(shè)計不會偏離法律應(yīng)有的價值。事前對算法進(jìn)行監(jiān)督,從第三方的角度進(jìn)行審查,以減少算法歧視的發(fā)生。有學(xué)者指出算法解釋是解決“算法黑箱”的有效途徑,算法本身要堅持算法解釋原則。算法歧視的規(guī)制要有可責(zé)性,對于算法設(shè)計者以及使用者都應(yīng)有事后的責(zé)任承擔(dān)機(jī)制。

      3.算法歧視總體價值上的倫理規(guī)制

      對總體價值倫理上的規(guī)制。算法需要有德性,以公平為算法設(shè)計的基本價值,嚴(yán)格遵守誠實信用原則,創(chuàng)造公平公正的數(shù)字社會環(huán)境。數(shù)字平權(quán)是從根本上進(jìn)行非歧視的解決辦法,凈化社會環(huán)境。國外學(xué)者阿努帕姆·錢德也提出算法歧視的根本治理之法在于對平權(quán)運(yùn)動的重視,而不是單單關(guān)注算法透明,對人們的平等對待才能從根本上解決算法歧視。在算法技術(shù)的倫理規(guī)范方面,權(quán)力統(tǒng)籌人員以及算法技術(shù)人員的責(zé)任意識以及責(zé)任承擔(dān)需要加強(qiáng)。

      4.算法歧視法律規(guī)制的相應(yīng)制度

      算法歧視的規(guī)制需要有相應(yīng)制度的保駕護(hù)航。目前,我國對于算法歧視沒有專門的制度規(guī)制,但是算法歧視一直在損害公眾以及個人的合法權(quán)益。首先,可以在算法歧視領(lǐng)域引入公益訴訟制度,借鑒原有的公益訴訟制度來保障可能因算法歧視引發(fā)的不良影響[23]。算法歧視在某些領(lǐng)域所引發(fā)的不良影響范圍是不確定的,相比于單獨侵害個人利益,其受侵害的人群更廣,因此,設(shè)立公益訴訟有一定的可行性。其次,在經(jīng)濟(jì)法語境下的壟斷以及大數(shù)據(jù)殺熟現(xiàn)象中的舉證責(zé)任需要由商家承擔(dān)。最后,登記備案制度也是我們可借鑒的方式之一,但是登記備案審查的繁雜度導(dǎo)致的可行度我們要視情況而定。對于人工智能算法的使用我們要盡可能進(jìn)行事前預(yù)防,事前登記備案制度可以讓相關(guān)機(jī)關(guān)以及算法使用人盡到相應(yīng)的注意義務(wù)。

      四、結(jié)語

      數(shù)字時代的到來,為我們的社會生活帶來了便捷,看似客觀公正的算法,也會產(chǎn)生不公平的結(jié)果,因此對算法歧視的研究成為必要。算法歧視在當(dāng)下社會的表現(xiàn)形式主要以平權(quán)語境下的性別歧視、種族歧視、年齡歧視以及經(jīng)濟(jì)法語境下的“大數(shù)據(jù)殺熟”為代表。算法歧視產(chǎn)生的本質(zhì)原因需要從現(xiàn)實社會的歧視入手,只有把公平正義真正作為社會的基本價值準(zhǔn)則才能減少算法歧視的發(fā)生。同時,算法設(shè)計本身也是算法歧視產(chǎn)生的原因。對算法歧視進(jìn)行規(guī)制可以借鑒國外的制度方向,以公平正義為整體準(zhǔn)則。算法設(shè)計應(yīng)在最大程度上保持公開透明,完善算法歧視的審查監(jiān)督以及事后追責(zé)制度。減少算法歧視的發(fā)生,構(gòu)建良好的社會法治環(huán)境,實現(xiàn)公民所期待的公平正義。

      猜你喜歡
      規(guī)制人工智能算法
      主動退市規(guī)制的德國經(jīng)驗與啟示
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      進(jìn)位加法的兩種算法
      人工智能與就業(yè)
      保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
      刑法論叢(2018年4期)2018-05-21 00:44:30
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      論《反不正當(dāng)競爭法》的規(guī)制范疇
      法治研究(2016年4期)2016-12-01 03:41:40
      下一幕,人工智能!
      思南县| 宜城市| 盘锦市| 太保市| 高陵县| 巫溪县| 金溪县| 弥勒县| 大余县| 内丘县| 福鼎市| 永川市| 右玉县| 八宿县| 高唐县| 克什克腾旗| 南溪县| 固安县| 凤阳县| 汉川市| 民勤县| 吉林省| 广灵县| 齐齐哈尔市| 西华县| 惠州市| 惠水县| 长寿区| 涪陵区| 南充市| 卓资县| 丰镇市| 武功县| 武山县| 康定县| 望谟县| 邓州市| 莲花县| 崇礼县| 聂拉木县| 巍山|