• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      AI-HR招聘的算法歧視及應(yīng)對(duì)

      2022-03-17 14:22:31程建華劉菲菲
      關(guān)鍵詞:求職者主體算法

      程建華,劉菲菲

      (安徽建筑大學(xué)公共管理學(xué)院,安徽 合肥 230601)

      一、問(wèn)題的提出

      人工智能(AI)是計(jì)算機(jī)科學(xué)領(lǐng)域研究、設(shè)計(jì)和應(yīng)用智能機(jī)器的一個(gè)分支,就其本質(zhì)而言,是對(duì)人的思維的信息過(guò)程的模擬(對(duì)人腦結(jié)構(gòu)模擬與人腦功能模擬)。隨著AI技術(shù)的不斷發(fā)展,它應(yīng)用到了人們生活的方方面面,其中一些崗位被智能機(jī)器取代,在一定程度上解放了人類的勞動(dòng)力。與此同時(shí)也給人們帶來(lái)了一大難題,即人工智能技術(shù)中的算法歧視問(wèn)題。算法歧視問(wèn)題已經(jīng)引起了世界各國(guó)的關(guān)注,早些年,美國(guó)白宮發(fā)布的大數(shù)據(jù)研究報(bào)告、歐盟數(shù)據(jù)保護(hù)委員會(huì)( EDPB)發(fā)布的《應(yīng)對(duì)大數(shù)據(jù)挑戰(zhàn)》、我國(guó)2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》以及2021年國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見(jiàn)稿)》與《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》都關(guān)注到了智能背景下算法可能帶來(lái)的歧視問(wèn)題。近年來(lái),眾多學(xué)者就算法歧視的形成以及如何消除算法歧視也展開(kāi)了激烈的探討。卜素認(rèn)為人類刻板印象通過(guò)人工智能技術(shù)轉(zhuǎn)譯從而形成了算法歧視,要建立完善算法歧視審查體系才能規(guī)避歧視現(xiàn)象[1]。汪懷君、汝緒華認(rèn)為算法歧視是人工智能算法在處理、解釋并應(yīng)用數(shù)據(jù)時(shí)產(chǎn)生的與人類相同的偏見(jiàn)與歧視,對(duì)算法歧視規(guī)制要從立法、技術(shù)以及觀念上著手[2]101-106。綜上所述,算法歧視現(xiàn)象不僅僅是技術(shù)本身出現(xiàn)缺陷,還受到思想觀念、立法、行業(yè)環(huán)境等的影響,算法歧視的消除需要從多方面進(jìn)行規(guī)制。

      近年來(lái),AI技術(shù)逐漸被應(yīng)用于招聘領(lǐng)域,AI-HR(AI-HR是指AI賦能于人才選拔,解放HR的繁雜、重復(fù)性工作)隨之到來(lái)并朝著精細(xì)化方向發(fā)展。AI-HR中,算法深度參與了招聘的各個(gè)環(huán)節(jié),包括廣告的投放、簡(jiǎn)歷的收集、錄用決策等。當(dāng)下,以算法為核心的招聘平臺(tái)——智聯(lián)招聘、BOSS直聘、獵聘等成為了企業(yè)獲取人才的重要渠道之一。使用數(shù)據(jù)系統(tǒng)和算法決策來(lái)監(jiān)測(cè)、篩選、評(píng)估和管理人員已經(jīng)成為了當(dāng)代招聘的一個(gè)重要特征。如方小雷創(chuàng)辦的近嶼智能公司研發(fā)的AI得賢招聘官[3],通過(guò)歷史大數(shù)據(jù)描繪人才數(shù)字畫(huà)像,再依靠算法自動(dòng)從海量求職者中進(jìn)行高效篩選與科學(xué)匹配。人工智能時(shí)代,算法的參與,為企業(yè)招聘帶來(lái)了極大便利。如依托算法進(jìn)行的招聘可以極大降低招聘成本(資金投入與時(shí)間成本);增強(qiáng)招聘匹配程度,大數(shù)據(jù)算法深度分析下,可以高效快速獲取與企業(yè)相匹配的求職者;消除HR招聘官的技術(shù)障礙;等等??萍际前央p刃劍,AI招聘中算法為企業(yè)帶來(lái)便利的同時(shí),也暗含著一系列算法歧視問(wèn)題。算法參與下,看似科學(xué)、高效、中立的招聘模式并未實(shí)現(xiàn)真正的招聘平等,算法的編碼及數(shù)據(jù)收集等都受到人們價(jià)值觀念的影響,因此在很大程度上暗含著招聘歧視。

      傳統(tǒng)招聘中的歧視,包括性別歧視、年齡歧視、身高歧視、地域歧視等。而AI-HR招聘,通過(guò)對(duì)海量數(shù)據(jù)的收集、整理、分析與應(yīng)用將傳統(tǒng)招聘過(guò)程中的歧視進(jìn)一步擴(kuò)大化、透明化,加劇了就業(yè)市場(chǎng)的挑戰(zhàn)。規(guī)制AI-HR招聘中的算法歧視問(wèn)題,是保障求職者的合法權(quán)益、凈化就業(yè)市場(chǎng)的重要一步。本文擬圍繞智能招聘中暗含的算法歧視,探究AI-HR招聘中算法歧視的主要體現(xiàn)、歧視產(chǎn)生的原因以及如何消除這些歧視,以期使AI與招聘進(jìn)一步融合,實(shí)現(xiàn)就業(yè)市場(chǎng)的高效與公平。

      二、AI-HR招聘算法歧視的類型化呈現(xiàn)

      在招聘過(guò)程中,算法就求職者的基礎(chǔ)數(shù)據(jù)、能力數(shù)據(jù)、效率數(shù)據(jù)及潛力數(shù)據(jù)進(jìn)行自動(dòng)推送、篩選、評(píng)估和決策,最后的錄用結(jié)果可能有失公平。具體表現(xiàn)在以下3個(gè)方面:其一,AI算法下,求職者們獲得的數(shù)據(jù)信息存在差異,有失機(jī)會(huì)公平,即招聘數(shù)據(jù)推送歧視;其二,求職者對(duì)智能招聘中的算法了解甚微,從而無(wú)法得知自身數(shù)據(jù)與最終錄用結(jié)果的聯(lián)系,有失過(guò)程公平,即招聘數(shù)據(jù)解釋歧視;其三,有偏見(jiàn)的推送及篩選最終導(dǎo)致錄用結(jié)果不公平,有失結(jié)果公平,即招聘數(shù)據(jù)應(yīng)用歧視。

      (一)招聘數(shù)據(jù)推送歧視

      早些年,亞馬遜公司開(kāi)發(fā)的自動(dòng)招聘系統(tǒng),在對(duì)簡(jiǎn)歷進(jìn)行篩選時(shí)出現(xiàn)了歧視女性應(yīng)聘者的現(xiàn)象[4]12??▋?nèi)基梅隆大學(xué)Amit Datta等學(xué)者使用ADFisher(一個(gè)探索用戶行為與廣告設(shè)置如何交互的自動(dòng)化工具)發(fā)現(xiàn),谷歌的廣告軟件向男性推送的高薪職位遠(yuǎn)多于女性[5]。2019年,美國(guó)的研究人員進(jìn)行了一項(xiàng)關(guān)于在線廣告優(yōu)化的實(shí)驗(yàn):將招聘廣告分發(fā)給臉書(shū)(Facebook)用戶,目標(biāo)受眾相同,在極端情況下,超市的收銀員職位最終分配給85%的女性觀眾,出租車司機(jī)職位分配給75%的黑人觀眾,伐木工人職位分配給90%的男性和72%的白人觀眾[6]。這種暗含歧視性的就業(yè)信息推送,在我國(guó)也常有發(fā)生。當(dāng)一些用工單位在招聘軟件(如智聯(lián)招聘、BOSS直聘、獵聘等)中輸入“程序員”時(shí),男性求職者的簡(jiǎn)歷會(huì)優(yōu)先被推送出來(lái);當(dāng)輸入“前臺(tái)”時(shí),系統(tǒng)則會(huì)優(yōu)先將女性求職者的簡(jiǎn)歷推送出來(lái)。

      看似為招聘廣告的定向推送,實(shí)則為被迫性“信息繭房”,又稱過(guò)濾氣泡[7]。企業(yè)根據(jù)求職者的數(shù)據(jù)信息,應(yīng)用AI算法對(duì)每位求職者進(jìn)行定位,確定特定受眾對(duì)其進(jìn)行廣告的精準(zhǔn)投放,這種針對(duì)性導(dǎo)致求職者獲取就業(yè)信息的機(jī)會(huì)不同,造成了就業(yè)不公平。這種招聘數(shù)據(jù)推送歧視可分為無(wú)意識(shí)歧視與有意識(shí)歧視。無(wú)意識(shí)歧視是指由于算法技術(shù)本身以及大數(shù)據(jù)算法下輸入的偏差樣本所致的歧視,也是當(dāng)下最難攻克的算法問(wèn)題。招聘過(guò)程的核心是“適合”組織的招聘目標(biāo),這一要求使得招聘主體可充分利用其自由裁量權(quán)從而造成招聘過(guò)程中的有意識(shí)歧視。不管是前者還是后者,都在“源頭”上影響著求職者的職業(yè)發(fā)展,侵犯了求職者的平等就業(yè)權(quán)。

      (二)招聘數(shù)據(jù)解釋歧視

      算法解釋權(quán)是指人們對(duì)算法決策下產(chǎn)生的具體行為具有獲得解釋以及要求更新或更正數(shù)據(jù)的權(quán)利[8]。而招聘過(guò)程中求職者不了解其算法的應(yīng)用過(guò)程,也不了解自身數(shù)據(jù)與最終錄用結(jié)果的聯(lián)系,無(wú)法獲得解釋,更無(wú)法對(duì)數(shù)據(jù)信息提出要求。求職者無(wú)法與算法得出的結(jié)果進(jìn)行博弈,只能接受其結(jié)果,長(zhǎng)此以往,該歧視現(xiàn)象將被固化,從而助長(zhǎng)了就業(yè)市場(chǎng)的不良風(fēng)氣。

      招聘數(shù)據(jù)解釋歧視可以分為兩種:一是招聘主體不可操控性歧視,即算法“黑洞”[9]所導(dǎo)致的解釋歧視。算法運(yùn)行實(shí)質(zhì)上是數(shù)據(jù)輸入再輸出的過(guò)程,但是在數(shù)據(jù)輸入與輸出的過(guò)程中存在著很多無(wú)法解釋的“黑洞”。究其根本,是由于算法技術(shù)本身十分復(fù)雜,如設(shè)計(jì)算法時(shí)存在多個(gè)研發(fā)主體、多種算法的層層疊加、算法中人工神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)的自動(dòng)深度學(xué)習(xí)等。算法“黑洞”導(dǎo)致算法決策不可解釋,招聘主體無(wú)法向求職者解釋最終的錄用結(jié)果。二是招聘主體可操控性歧視,即利益最大化導(dǎo)向所致的解釋歧視。招聘過(guò)程中利用算法技術(shù)操作規(guī)則的不透明,以企業(yè)利益最大化對(duì)求職者進(jìn)行篩選。例如,隨著我國(guó)三孩政策的實(shí)行,某些企業(yè)對(duì)其工作崗位進(jìn)行算法設(shè)定,不錄用已婚女性求職者(含有性別歧視);隨著我國(guó)人口的老齡化, 很多招聘中智能設(shè)定一系列年齡限制條件(含有年齡歧視),對(duì)這些影響就業(yè)結(jié)果的隱性要求,招聘主體為了切身利益并不向求職者解釋。不可操作性歧視與可操控性歧視都剝奪了求職者獲得解釋的權(quán)利,加劇了智能招聘的不公平性。

      (三)招聘數(shù)據(jù)應(yīng)用歧視

      招聘數(shù)據(jù)推送歧視及招聘數(shù)據(jù)解釋歧視,必然導(dǎo)致招聘數(shù)據(jù)應(yīng)用歧視,即必然的不公平結(jié)果。招聘中算法歧視所導(dǎo)致的不公平結(jié)果表現(xiàn)在最終的錄用結(jié)果、薪資待遇等方面。錄用結(jié)果上主要表現(xiàn)為求職者因?yàn)橐恍徫环潜匾獥l件(年齡、身高、長(zhǎng)相、婚姻狀況等)錯(cuò)失工作機(jī)會(huì),例如比利亞雷亞爾訴雷諾煙草公司案中,比利亞雷亞爾多次在網(wǎng)上申請(qǐng)雷諾煙草公司的工作,卻一直未果[2]102,最后得知該公司篩選求職者時(shí)存在年齡歧視并且從未向被拒絕的求職者解釋其中的原因。薪資待遇上主要表現(xiàn)為就求職者的基礎(chǔ)數(shù)據(jù)、能力數(shù)據(jù)、效率數(shù)據(jù)及潛力數(shù)據(jù)等進(jìn)行差異化“定價(jià)”,繼而影響到求職者今后的薪資待遇、職位變動(dòng)等。我國(guó)《2020中國(guó)女性職場(chǎng)現(xiàn)狀調(diào)查報(bào)告》顯示,58.25%的女性在招聘過(guò)程中被問(wèn)及婚姻生育狀況[10],企業(yè)無(wú)形中提高了對(duì)女性的錄用標(biāo)準(zhǔn),進(jìn)而影響到其薪資待遇及未來(lái)發(fā)展。上述不公平結(jié)果并不等同于常規(guī)招聘中的效益原則,而是由求職者與招聘主體之間存在的極大“信息鴻溝”所致,如招聘信息的選擇性推送、簡(jiǎn)歷篩選中的隱性年齡歧視或者智能招聘系統(tǒng)中算法自帶的偏見(jiàn)等。

      傳統(tǒng)招聘中求職者本就處于弱勢(shì)地位,AI-HR招聘進(jìn)一步加劇了這種現(xiàn)象,使求職者無(wú)法與最終的不公平結(jié)果進(jìn)行博弈。錄用與否、薪資待遇如何等都與求職者密切相關(guān),影響著求職者今后整個(gè)的職業(yè)發(fā)展道路,因此如何消除智能招聘中的算法歧視、維護(hù)求職者的平等就業(yè)權(quán)是當(dāng)下亟須解決的問(wèn)題。

      三、AI-HR招聘算法歧視成因溯源

      (一)算法中的偏見(jiàn)性編碼

      算法可被定義為由編程人員設(shè)計(jì)的一系列“已被編碼的程序”或者“為了快速實(shí)現(xiàn)其目標(biāo)對(duì)特定數(shù)據(jù)進(jìn)行處理的步驟”。算法作為解決問(wèn)題的一種特定邏輯步驟,是程序代碼在計(jì)算機(jī)中的實(shí)現(xiàn),即編程人員選用一種計(jì)算機(jī)可識(shí)別的語(yǔ)言(計(jì)算機(jī)可識(shí)別指令由最初的一個(gè)0、1代碼串到低級(jí)程序設(shè)計(jì)語(yǔ)言,再到現(xiàn)在的高級(jí)程序設(shè)計(jì)語(yǔ)言,如Java、Python、C++等[11])對(duì)算法進(jìn)行表述。編程人員運(yùn)用程序設(shè)計(jì)語(yǔ)言與計(jì)算機(jī)進(jìn)行交流,設(shè)計(jì)出“數(shù)據(jù)輸入、結(jié)果輸出”的有窮性算法(有窮性:在有限的步驟后,算法自動(dòng)結(jié)束得出結(jié)果,不會(huì)無(wú)限循環(huán))。編程人員與計(jì)算機(jī)進(jìn)行交流時(shí),為了算法能夠更好地實(shí)現(xiàn),必然夾雜著其主觀選擇與判斷。人的價(jià)值觀念被嵌入算法程序設(shè)計(jì)中,所以說(shuō)算法是人的觀點(diǎn)的一種呈現(xiàn),必然存在一定的偏見(jiàn)[12]。同時(shí),算法在設(shè)計(jì)并實(shí)現(xiàn)時(shí)并不一定是由一人完成,也可能是多人協(xié)作共同完成。一人完成時(shí)可確保其前后銜接一致,但其個(gè)人主觀價(jià)值也被更多地反映在算法之中。多人共同完成時(shí)其效率與公正性相較于前者更高,但前后連貫銜接不能確保精確完成,同時(shí)也會(huì)夾雜多人價(jià)值觀念,導(dǎo)致算法出現(xiàn)偏差。正是由于現(xiàn)實(shí)世界中的我們將個(gè)人固有的偏見(jiàn)嵌入了代碼中,使得計(jì)算機(jī)世界中的算法并不是真正意義上的中立。

      偏見(jiàn)性編碼下,AI-HR招聘中的算法暗含人的偏見(jiàn)。在智能互聯(lián)網(wǎng)時(shí)代,這種偏見(jiàn)可能進(jìn)一步擴(kuò)大化,進(jìn)而呈現(xiàn)出“過(guò)濾氣泡”現(xiàn)象。偏見(jiàn)性編碼是人們無(wú)意識(shí)的個(gè)人偏見(jiàn)的附加,在算法運(yùn)作過(guò)程中偏見(jiàn)將一步一步加深進(jìn)而形成歧視。

      (二)社會(huì)利益驅(qū)使招聘主體進(jìn)行“利益最大化篩選”

      AI-HR招聘相較于傳統(tǒng)的招聘方式,不僅可以降低招聘成本,同時(shí)還可以增強(qiáng)招聘匹配度。使用智能招聘系統(tǒng)監(jiān)測(cè)、分配、評(píng)估和管理勞動(dòng)力是當(dāng)代就業(yè)市場(chǎng)的一個(gè)顯著特征。有關(guān)報(bào)告顯示,約98%的財(cái)富500強(qiáng)公司在招聘過(guò)程中使用某種類型的申請(qǐng)人跟蹤系統(tǒng)(ATS)[13],使公司以最高效率獲得最佳求職者。我國(guó)開(kāi)啟AI-HR招聘的企業(yè),如騰訊、滴滴、字節(jié)跳動(dòng)等一批知名企業(yè),其招聘效益也高于之前的傳統(tǒng)招聘[14]。AI-HR招聘中算法雖然給企業(yè)招聘帶來(lái)了極大便利,使其利益最大程度實(shí)現(xiàn),但過(guò)分追求利益也傷害了求職者的平等就業(yè)權(quán)。

      所有的社會(huì)技術(shù)系統(tǒng),即使是為了減輕偏見(jiàn)而設(shè)計(jì)的,在設(shè)計(jì)時(shí)也考慮到了用例,但這些用例并不能適用于所有的場(chǎng)景。首先,AI-HR招聘中算法的使用可以讓企業(yè)從海量求職者中快速篩選出適合本企業(yè)的求職者,向合適的求職者定向推送招聘信息。雖然高效,極大節(jié)約了招聘成本,但也有失機(jī)會(huì)公平,出現(xiàn)過(guò)濾氣泡現(xiàn)象。其次,AI-HR招聘中使用算法一方面會(huì)出現(xiàn)招聘主體不可操控性歧視,另一方面會(huì)增加招聘主體可操控性歧視,即利益最大化導(dǎo)向所致的解釋歧視。最后,根據(jù)定向推送以及利益最大化篩選,企業(yè)做出最利己的選擇。AI-HR招聘中算法本身就暗含偏見(jiàn)性編碼,在利益最大化驅(qū)動(dòng)下求職者的平等就業(yè)權(quán)一步步遭到了侵害。

      (三)相關(guān)法律法規(guī)的滯后

      《中華人民共和國(guó)勞動(dòng)法》(以下簡(jiǎn)稱《勞動(dòng)法》)和《中華人民共和國(guó)就業(yè)促進(jìn)法》(以下簡(jiǎn)稱《就業(yè)促進(jìn)法》)是我國(guó)用來(lái)保障勞動(dòng)者工作平等權(quán)的主要法律依據(jù),包括勞動(dòng)者的種族、民族、宗教信仰、性別、殘疾人、農(nóng)村勞動(dòng)者等方面,并且力求實(shí)現(xiàn)企業(yè)用工自由與反對(duì)就業(yè)歧視兩個(gè)目標(biāo)之間的平衡[15]。但在實(shí)踐中,由于勞動(dòng)力市場(chǎng)供需不平衡以及舉證困難等原因,其都更傾向于維護(hù)用人單位的自主用人權(quán)利而忽略了對(duì)求職者平等就業(yè)權(quán)利的保護(hù)。

      當(dāng)今社會(huì)發(fā)展迅速,新技術(shù)、新生產(chǎn)工具給社會(huì)生活帶來(lái)了巨大改變,與此同時(shí)也出現(xiàn)了一系列原有法律制度無(wú)法正確處理的事件。AI-HR時(shí)代以算法為核心的招聘體系產(chǎn)生了一系列算法歧視問(wèn)題,相對(duì)滯后的法律法規(guī)使得求職者的平等就業(yè)權(quán)更無(wú)法得到保護(hù),這對(duì)我國(guó)反對(duì)就業(yè)歧視的法律提出了新的挑戰(zhàn)。挑戰(zhàn)主要表現(xiàn)在以下兩個(gè)方面:一是AI-HR招聘中算法的使用增加了對(duì)就業(yè)歧視認(rèn)定的難度。如向求職者定向推送招聘信息,雖然推送廣告中不含有任何歧視性字眼,但其背后暗含著算法的深度計(jì)算,它只推送給特定條件的人群(例如只向某一年齡段女性推送招聘廣告),而未被推送的群體則被剝奪了了解招聘信息的機(jī)會(huì)。二是AI-HR招聘中算法的使用使得求職者提供招聘中存在歧視行為證明的難度大大增加。例如運(yùn)用算法對(duì)簡(jiǎn)歷進(jìn)行審核或者做出最后錄用決策,看似是大數(shù)據(jù)下算法做出的中立性評(píng)價(jià),實(shí)則背后暗含算法黑洞,求職者也無(wú)法獲得相應(yīng)的解釋。現(xiàn)有法律法規(guī)已經(jīng)不能滿足AI-HR對(duì)求職者平等就業(yè)權(quán)保護(hù)的需求。

      (四)民眾算法意識(shí)薄弱

      隨著信息技術(shù)的快速發(fā)展,算法被應(yīng)用于各行各業(yè)之中,改變著人們的生活方式?,F(xiàn)實(shí)生活中,人們享受著算法帶來(lái)的便利或者遭受著算法帶來(lái)的不公,本質(zhì)上是因其對(duì)算法沒(méi)有清晰的認(rèn)識(shí),從而出現(xiàn)惡性循環(huán),導(dǎo)致信息繭房進(jìn)而形成過(guò)濾氣泡現(xiàn)象。

      AI-HR招聘中使用算法技術(shù),就要求算法設(shè)計(jì)者、招聘主體以及求職者要有較高算法意識(shí)。算法設(shè)計(jì)者算法素養(yǎng)較低將導(dǎo)致偏見(jiàn)性編碼,在算法的深度自我學(xué)習(xí)下,招聘中的歧視現(xiàn)象將一步步擴(kuò)大。招聘主體應(yīng)該明確自己的責(zé)任,若通過(guò)算法優(yōu)勢(shì)有意侵害求職者平等就業(yè)權(quán),或者不能認(rèn)識(shí)到招聘中使用算法將會(huì)導(dǎo)致就業(yè)歧視現(xiàn)象的發(fā)生,將不利于就業(yè)市場(chǎng)的穩(wěn)定發(fā)展。招聘過(guò)程中,由于信息不對(duì)稱等原因,求職者處于弱勢(shì)地位,很難對(duì)大數(shù)據(jù)下算法決策提出反證,若又對(duì)算法了解甚少,無(wú)法運(yùn)用合法手段維護(hù)自己的合法權(quán)益,將影響到求職者未來(lái)整個(gè)職業(yè)發(fā)展??梢?jiàn)算法意識(shí)、算法素質(zhì)對(duì)AI-HR招聘的實(shí)際運(yùn)用有重要影響。

      四、AI-HR招聘算法歧視的應(yīng)對(duì)措施

      (一)克服根源性算法技術(shù)偏見(jiàn)

      AI-HR招聘中算法技術(shù)的先天缺陷導(dǎo)致了歧視現(xiàn)象的必然出現(xiàn),如招聘廣告定向推送,求職者無(wú)法獲得解釋等。雖然智能招聘中算法的設(shè)計(jì)也是為了減輕偏見(jiàn)(用人單位的主觀偏好),在設(shè)計(jì)時(shí)也考慮到了很多用例,但是其技術(shù)本身還是存在缺陷,并且各種場(chǎng)景交雜在一起的時(shí)候并不是所有的用例都適合。所以技術(shù)出現(xiàn)問(wèn)題,首先要用技術(shù)來(lái)彌補(bǔ)。要想從源頭上消除歧視,就必須先在技術(shù)上消除歧視。

      首先要在算法設(shè)計(jì)時(shí)就盡量避免歧視,減少偏見(jiàn)性編碼,確保技術(shù)的中立性。編程人員在設(shè)計(jì)算法時(shí),不能帶入自身價(jià)值觀念,不僅需要有較高的技術(shù)水平同時(shí)還要有較高的算法素養(yǎng)。很多研究人員,都在力求消除算法中存在的歧視因素,如約瑟夫等人試圖將哲學(xué)家羅爾斯的公平理論應(yīng)用于機(jī)器學(xué)習(xí)中,使得在算法的每一步設(shè)置中都去避免一種算法偏好[4]18。除了算法設(shè)計(jì)本身不含有偏見(jiàn)之外,其數(shù)據(jù)的挖掘與處理也十分重要。建立招聘數(shù)據(jù)挖掘[16]與數(shù)據(jù)預(yù)處理技術(shù)[17],從數(shù)據(jù)倉(cāng)庫(kù)獲得高效準(zhǔn)確數(shù)據(jù)。若數(shù)據(jù)本身就含有歧視性,經(jīng)過(guò)算法處理,其歧視性將越來(lái)越大。只有針對(duì)性地開(kāi)發(fā)設(shè)計(jì)不含有偏見(jiàn)的算法技術(shù),才能從真正意義上消除歧視。

      (二)明確招聘主體的責(zé)任

      大數(shù)據(jù)智能招聘中算法的使用為企業(yè)帶來(lái)巨大便利的同時(shí),在一定程度上也損害了求職者的平等就業(yè)權(quán)。在招聘廣告的定向推送、簡(jiǎn)歷的篩選與評(píng)估以及最終的錄用決策中,每一個(gè)階段都出現(xiàn)了或多或少的歧視現(xiàn)象,而這些通常都能讓招聘主體受益,進(jìn)而導(dǎo)致招聘主體拒絕承擔(dān)其相應(yīng)的責(zé)任。為維護(hù)我國(guó)就業(yè)市場(chǎng)的穩(wěn)定性,招聘主體必須明確自身的責(zé)任。

      招聘主體要明確自身的責(zé)任,切實(shí)保障就業(yè)市場(chǎng)的高效運(yùn)轉(zhuǎn)。一是公平公正地提供就業(yè)崗位。企業(yè)存在用工自由,但前提是不得違反我國(guó)勞動(dòng)就業(yè)法,不能利用存在的信息溝侵犯求職者的平等就業(yè)權(quán)。二是招聘主體作為算法的應(yīng)用者,有義務(wù)對(duì)算法造成的招聘歧視現(xiàn)象承擔(dān)相關(guān)責(zé)任。2021年我國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》中就明確提到要強(qiáng)化企業(yè)主體的責(zé)任,企業(yè)要對(duì)算法應(yīng)用產(chǎn)生的結(jié)果負(fù)主體責(zé)任。三是維護(hù)求職者的平等就業(yè)權(quán)。作為算法的使用者有義務(wù)維護(hù)求職者的合法權(quán)益,積極解決算法中存在的客觀性、不可控制性所導(dǎo)致的歧視現(xiàn)象。

      (三)完善相關(guān)法律法規(guī)

      人類社會(huì)的生產(chǎn)生活以及思維方式受科技進(jìn)步的影響會(huì)發(fā)生全新的變化,法律作為受經(jīng)濟(jì)基礎(chǔ)決定的上層建筑,也應(yīng)時(shí)刻根據(jù)社會(huì)生產(chǎn)方式的變革作出相應(yīng)修改和完善。關(guān)于AI-HR招聘中出現(xiàn)的就業(yè)歧視問(wèn)題,多數(shù)國(guó)家都有相應(yīng)的法律法規(guī)條款對(duì)其進(jìn)行規(guī)范,例如美國(guó)《民權(quán)法》第七章與《防止就業(yè)年齡歧視法》、歐盟的《歐盟基本權(quán)利憲章》第21條等。我國(guó)應(yīng)借鑒其他國(guó)家與地區(qū)的算法歧視治理經(jīng)驗(yàn),再結(jié)合我國(guó)就業(yè)市場(chǎng)自身狀況完善相應(yīng)法律法規(guī),減少以至杜絕招聘中算法歧視現(xiàn)象的發(fā)生。

      相關(guān)法律法規(guī)的完善可以從以下幾方面進(jìn)行:一是擴(kuò)展歧視的類型,明確歧視的認(rèn)定。修改相關(guān)法律法規(guī),擴(kuò)大就業(yè)歧視的類型,將智能招聘中存在的算法歧視作為一種法定歧視類型,從而更好地保護(hù)求職者的合法權(quán)益。歧視類型得到擴(kuò)展,明確并細(xì)化歧視認(rèn)定的條件,可給求職者維護(hù)自身平等就業(yè)權(quán)利提供明確的法律標(biāo)準(zhǔn)。二是明確解釋義務(wù)的規(guī)則。智能招聘過(guò)程中存在解釋歧視,不囊括招聘主體不可操作性解釋歧視,要消除招聘主體可操作性解釋歧視,就要明確招聘主體的解釋義務(wù)。即將大數(shù)據(jù)智能招聘中運(yùn)用算法的過(guò)程“翻譯”成為普通用戶可以理解的語(yǔ)言,對(duì)求職者存在的合理疑問(wèn)提供解釋。解釋規(guī)則給求職者事后追究責(zé)任提供了證據(jù),從而更好地維護(hù)求職者的平等就業(yè)權(quán)利。三是設(shè)立專門的訴訟機(jī)構(gòu)。專門的訴訟機(jī)構(gòu)能夠幫助求職者有效收集證據(jù)材料并提供一定的技術(shù)支持,幫助求職者維護(hù)其就業(yè)權(quán)利,有序推進(jìn)算法的備案工作。

      (四)培育民眾的算法素養(yǎng)

      算法素養(yǎng)是指算法的設(shè)計(jì)者、管理者、使用者應(yīng)該具備的算法能力、算法倫理以及普通民眾應(yīng)該具備的算法意識(shí)等。首先,算法設(shè)計(jì)者與算法的管理者、使用者除了應(yīng)具備一定的算法能力之外,更為重要的是要遵守算法倫理,不借助自身“優(yōu)勢(shì)”做出違背倫理道德的事情,嚴(yán)格遵守算法行業(yè)自律。其次,應(yīng)該有意識(shí)地培育普通民眾的算法意識(shí),防止其因?yàn)椴恢?、不理解算法,遭遇算法服?wù)中暗含的歧視性行為。培育人們的算法素養(yǎng),防止人們做算法文盲。

      算法素養(yǎng)的培育任重道遠(yuǎn),需要多方共同努力。一是應(yīng)將算法教育納入基礎(chǔ)教育,構(gòu)建完善的課程培養(yǎng)體系。政府應(yīng)該將算法教育納入基礎(chǔ)教育之中,為民眾提供算法教育資料、資源,讓民眾意識(shí)到算法教育的重要性,學(xué)習(xí)算法知識(shí)進(jìn)而了解AI-HR招聘中可能出現(xiàn)的算法歧視現(xiàn)象。二是充分發(fā)揮社會(huì)力量,宣傳算法知識(shí)的重要性,引導(dǎo)算法應(yīng)用向上向善。對(duì)算法知識(shí)進(jìn)行宣傳,培養(yǎng)民眾的“拒絕算法文盲,從我做起”的意識(shí)。三是民眾應(yīng)積極主動(dòng)提升算法素養(yǎng)。通過(guò)政府以及社會(huì)的強(qiáng)調(diào)與宣傳,讓民眾充分認(rèn)識(shí)到人工智能背景下算法素養(yǎng)的重要性,從而自覺(jué)學(xué)習(xí)算法知識(shí),減少算法歧視,提升算法使用的幸福感。

      五、結(jié)語(yǔ)

      隨著科學(xué)技術(shù)的迅速發(fā)展,算法技術(shù)正在悄無(wú)聲息地影響著我國(guó)傳統(tǒng)的招聘方式。AI-HR招聘中算法的參與具有兩面性,既能夠防止也能加劇招聘中對(duì)求職者的就業(yè)歧視。AI-HR招聘中暗含的算法歧視問(wèn)題,即招聘數(shù)據(jù)推送歧視、招聘數(shù)據(jù)解釋歧視、招聘數(shù)據(jù)應(yīng)用歧視極易被忽略,但卻嚴(yán)重侵害著求職者的平等就業(yè)權(quán)。究其根本,是算法技術(shù)本身的缺陷、利益導(dǎo)向下的招聘主體篩選、相關(guān)法律法規(guī)的滯后以及人們薄弱的算法意識(shí)所致。消除AI-HR招聘中的算法歧視問(wèn)題不僅要從技術(shù)上進(jìn)行真正的“消歧”,還需要招聘主體有所擔(dān)當(dāng),同時(shí)要完善相關(guān)法律法規(guī)以及慢慢培育人們的算法素養(yǎng)。只有消除算法歧視問(wèn)題,才能更好地共享AI-HR招聘帶來(lái)的便捷性。

      猜你喜歡
      求職者主體算法
      起初為娛樂(lè),現(xiàn)在做招聘:直播幫中國(guó)求職者找工作
      論自然人破產(chǎn)法的適用主體
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      進(jìn)位加法的兩種算法
      加納移民局招聘:有妊娠紋不行
      民生表情
      面試中的12個(gè)禁忌
      一種改進(jìn)的整周模糊度去相關(guān)算法
      關(guān)于遺產(chǎn)保護(hù)主體的思考
      微山县| 鄱阳县| 中山市| 定南县| 霍邱县| 清苑县| 沙洋县| 会理县| 靖江市| 桃园县| 景谷| 揭阳市| 唐海县| 醴陵市| 成武县| 本溪市| 西安市| 新巴尔虎右旗| 乌鲁木齐县| 建宁县| 高密市| 景德镇市| 肃宁县| 闵行区| 南皮县| 皋兰县| 南郑县| 枣阳市| 潼南县| 邓州市| 汤阴县| 仁化县| 江西省| 朔州市| 绥芬河市| 玉屏| 罗源县| 勐海县| 宝清县| 济源市| 潢川县|