• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人工智能有搞『種族歧視』嗎?

    2022-02-28 08:43:14關(guān)不羽
    中外文摘 2022年1期
    關(guān)鍵詞:錯(cuò)誤率優(yōu)步亞裔

    □ 關(guān)不羽

    優(yōu)步公司在英國(guó)又“攤上大事”了。這事大致上是這樣的:公司要求員工把自拍照上傳到人事系統(tǒng),與系統(tǒng)存儲(chǔ)的參考照片進(jìn)行匹配。如果匹配不成功,那么系統(tǒng)會(huì)提示員工實(shí)時(shí)自拍,并面臨解雇風(fēng)險(xiǎn)。而員工一旦被解雇,也將面臨被自動(dòng)吊銷(xiāo)其私人出租司機(jī)和車(chē)輛執(zhí)照的處罰。這樣的倒霉事在兩位優(yōu)步前員工身上發(fā)生。

    這本來(lái)是一起普普通通的勞資糾紛。但是,英國(guó)工會(huì)可不會(huì)那么輕易放過(guò)這樣的機(jī)會(huì),訴訟的理由中赫然出現(xiàn)了“種族歧視”。

    因?yàn)閾?jù)一些技術(shù)人員和相關(guān)組織稱(chēng),“面部識(shí)別系統(tǒng)……天生就有缺陷,對(duì)有色人種進(jìn)行識(shí)別時(shí)準(zhǔn)確度會(huì)變得很差”。涉及“種族”,事件性質(zhì)立刻升級(jí)到“種族歧視”的高度了,技術(shù)問(wèn)題升級(jí)為政治問(wèn)題,敏感度倍增。

    其實(shí),人工智能面部識(shí)別系統(tǒng)對(duì)有色人種的識(shí)別精度不佳,不是新問(wèn)題。2015 年,谷歌就鬧過(guò)笑話。一名黑人軟件開(kāi)發(fā)人員在Twitter 上說(shuō),谷歌照片服務(wù)把他和一個(gè)黑人朋友的照片打上了“大猩猩”的標(biāo)簽。當(dāng)時(shí)也有一些“進(jìn)步”組織和人士借機(jī)發(fā)難,指責(zé)谷歌“種族歧視”。但“進(jìn)步”的谷歌不大可能是故意為之。最終的“受害者”可能是猩猩,因?yàn)楣雀璧膽?yīng)對(duì)措施是把“猩猩”和其他靈長(zhǎng)類(lèi)動(dòng)物的標(biāo)簽移除了,“猩猩”在“谷歌宇宙”中成了“查無(wú)此人”的黑戶。

    比起2015 年的谷歌,優(yōu)步可能就沒(méi)那么幸運(yùn)了。一則“種族問(wèn)題”的敏感度遠(yuǎn)遠(yuǎn)超過(guò)了2015年;二則涉及勞資糾紛,索賠的想象空間巨大。就在2021 年10 月5 日,因“旗下工廠存在種族歧視問(wèn)題”,美國(guó)舊金山法院判決某電動(dòng)汽車(chē)廠商向前黑人員工賠付1.37 億美元。

    那么,到底人工智能的識(shí)別誤差能不能被視為“種族歧視”呢?這就涉及誤差產(chǎn)生的原因。眾所周知,人工智能是在特定模型下自我學(xué)習(xí)形成算法的,訓(xùn)練模型所依據(jù)的數(shù)據(jù)集和模型本身的設(shè)計(jì)都有可能帶來(lái)偏差。數(shù)據(jù)集和模型本身哪怕只是出現(xiàn)了人力難以察覺(jué)的細(xì)微偏差,人工智能的海量運(yùn)算也會(huì)將其放大到失真的程度。這樣的問(wèn)題在現(xiàn)有的技術(shù)條件下并不罕見(jiàn)。2013 年谷歌人工智能預(yù)測(cè)流感暴發(fā)就“大翻車(chē)”了,預(yù)測(cè)數(shù)據(jù)比實(shí)際數(shù)據(jù)高了兩倍。原因是經(jīng)媒體報(bào)道后,很多沒(méi)得流感的人也搜索了相關(guān)內(nèi)容,導(dǎo)致人工智能的誤判。

    造成“有色人種面部識(shí)別率誤差大”的技術(shù)因素甚至更為單純——光學(xué)現(xiàn)象。2015 年“黑猩猩標(biāo)簽”事件后,技術(shù)人員分析發(fā)現(xiàn),識(shí)別錯(cuò)誤率最高的不是非裔,而是亞裔(黃種人)女性,識(shí)別錯(cuò)誤率高達(dá)20%。而“黑人”的識(shí)別錯(cuò)誤率為5%——此處的“黑人”并不局限于所謂“非裔”,而是純粹意義的深膚色,也包括印度裔、拉丁裔等等。

    造成這一現(xiàn)象的原因其實(shí)不難理解,亞裔女性的膚色普遍偏白,不僅比亞裔男性白,甚至可能比大部分白人更白,更高的反光度造成了面部成像的對(duì)比度下降,造成了識(shí)別度偏低。而“黑人”的膚色偏黑,吸收了更多的光,同樣造成了識(shí)別困難。其實(shí),理解這一現(xiàn)象不需要高深的知識(shí),日常生活經(jīng)驗(yàn)就夠了。觀察各類(lèi)攝像頭監(jiān)視畫(huà)面里就可以發(fā)現(xiàn),膚色更黑和更白的人,面部細(xì)節(jié)會(huì)更模糊一些。

    這一純粹的光學(xué)難題,人工智能很難完全克服,確實(shí)存在技術(shù)局限性。但是,沒(méi)有理由認(rèn)為這是人為設(shè)置的“歧視”。硅谷沒(méi)有理由專(zhuān)門(mén)為難亞裔女性,卻“放過(guò)”亞裔男性。也不會(huì)刻意針對(duì)“黑人”——在硅谷,深膚色的印度裔可是優(yōu)勢(shì)人群。更何況人為降低人工智能的面部識(shí)別精度,對(duì)這些企業(yè)的商業(yè)利益毫無(wú)幫助。

    當(dāng)然,不可否認(rèn),人工智能技術(shù)確實(shí)會(huì)產(chǎn)生“歧視”。2014年亞馬遜開(kāi)始建立人工智能程序,以審查求職者的簡(jiǎn)歷,以實(shí)現(xiàn)自動(dòng)化招聘功能。但是,一年之后亞馬遜就放棄了這一嘗試,因?yàn)樗麄儼l(fā)現(xiàn)“AI 不喜歡女性”。這種差別對(duì)待當(dāng)然符合“歧視”的標(biāo)準(zhǔn)定義,但是這種“歧視”恰恰是因?yàn)椤斑^(guò)于真實(shí)”才造成了麻煩。亞馬遜有很多崗位是對(duì)體力有一定要求的,男性確實(shí)比女性強(qiáng)壯,因此AI 計(jì)算形成了性別偏好。這到底算不算AI 犯錯(cuò)了呢?

    引入人工智能自動(dòng)招聘是為了提高效率,AI 確實(shí)做到了。但是,這種真實(shí)的效率改進(jìn),卻因“性別歧視”的敏感性而擱淺。復(fù)雜的人類(lèi)社會(huì)中,真相并不總是受到歡迎,AI 沒(méi)有學(xué)到這最重要的一課。

    如果是護(hù)士、教師等女性?xún)?yōu)勢(shì)崗位也用人工智能自動(dòng)招聘,出現(xiàn)“重女輕男”的結(jié)果,又會(huì)如何?多半是波瀾不驚,甚至成為一段佳話。這種微妙的心態(tài),或許已經(jīng)超出了AI 的理解能力。

    歸根結(jié)底,圍繞“人工智能”的是是非非再?gòu)?fù)雜,也是技術(shù)問(wèn)題,不應(yīng)將其政治化、意識(shí)形態(tài)化。即使存在技術(shù)局限,那就改進(jìn)技術(shù),而不是揮舞“歧視”的政治大棒去限制和扼殺。如果因此導(dǎo)致人工智能學(xué)會(huì)撒謊,那更是危險(xiǎn)的傾向。

    猜你喜歡
    錯(cuò)誤率優(yōu)步亞裔
    限制性隨機(jī)試驗(yàn)中選擇偏倚導(dǎo)致的一類(lèi)錯(cuò)誤率膨脹*
    楊紫瓊:首位奧斯卡亞裔影后
    過(guò)去一年美國(guó)發(fā)生6000多起針對(duì)亞裔仇恨事件
    為什么中國(guó)的滴滴能在優(yōu)步苦苦掙扎的領(lǐng)域取得成功
    優(yōu)步轉(zhuǎn)向共享自行車(chē)市場(chǎng)
    正視錯(cuò)誤,尋求策略
    教師·中(2017年3期)2017-04-20 21:49:49
    解析小學(xué)高段學(xué)生英語(yǔ)單詞抄寫(xiě)作業(yè)錯(cuò)誤原因
    優(yōu)步:極速前進(jìn)
    降低學(xué)生計(jì)算錯(cuò)誤率的有效策略
    新蔡县| 高唐县| 谢通门县| 淮阳县| 措勤县| 宣武区| 扎兰屯市| 牙克石市| 咸丰县| 岢岚县| 宣汉县| 定边县| 海原县| 东山县| 察雅县| 雅江县| 阿拉善左旗| 揭东县| 乌恰县| 普陀区| 成都市| 长沙市| 四子王旗| 金溪县| 赣榆县| 宁安市| 台北县| 舞阳县| 简阳市| 通江县| 盐边县| 夏津县| 三明市| 浑源县| 九龙城区| 海晏县| 广东省| 望都县| 新兴县| 乐清市| 来宾市|