人臉識(shí)別惹爭(zhēng)議:應(yīng)對(duì)技術(shù)偏見(jiàn),行業(yè)缺乏統(tǒng)一標(biāo)準(zhǔn)

研究發(fā)現(xiàn):與膚色較淺的男性相比,由IBM、微軟和曠視科技(Face++)設(shè)計(jì)的面部識(shí)別算法在檢測(cè)膚色較深的女性時(shí),其出錯(cuò)率要高出35%。通過(guò)這種方式,面部識(shí)別的技術(shù)偏見(jiàn)可能會(huì)強(qiáng)化社會(huì)偏見(jiàn),影響女性和少數(shù)族裔,亦有可能將他們排除在世界數(shù)字基礎(chǔ)設(shè)施之外,或?qū)λ麄冏龀龈淖內(nèi)松呐袛唷?/div>
   面部識(shí)別技術(shù)逐漸成為日常生活的一部分。你可能已經(jīng)靠“刷臉”登錄你的手機(jī)或電腦,或者完成網(wǎng)銀付款前的身份驗(yàn)證。在中國(guó),面部識(shí)別技術(shù)更為常見(jiàn),通過(guò)人臉識(shí)別,你可以購(gòu)買快餐或者在公共廁所中領(lǐng)取衛(wèi)生紙。但這種技術(shù)的廣泛應(yīng)用掩蓋了其背后潛在的結(jié)構(gòu)性問(wèn)題,尤其是偏見(jiàn)問(wèn)題。研究人員表示,用于面部識(shí)別的分析軟件依據(jù)其識(shí)別對(duì)象的年齡、性別和種族的差異,會(huì)反饋出不同的結(jié)果。

人臉識(shí)別惹爭(zhēng)議:應(yīng)對(duì)技術(shù)偏見(jiàn),行業(yè)缺乏統(tǒng)一標(biāo)準(zhǔn)
 
  麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)的研究人員在2月份發(fā)表的一項(xiàng)研究發(fā)現(xiàn):與膚色較淺的男性相比,由IBM、微軟和曠視科技(Face++)設(shè)計(jì)的面部識(shí)別算法在檢測(cè)膚色較深的女性時(shí),其出錯(cuò)率要高出35%。通過(guò)這種方式,面部識(shí)別的技術(shù)偏見(jiàn)可能會(huì)強(qiáng)化社會(huì)偏見(jiàn),影響女性和少數(shù)族裔,亦有可能將他們排除在世界數(shù)字基礎(chǔ)設(shè)施之外,或?qū)λ麄冏龀龈淖內(nèi)松呐袛唷?/div>
 
  一、是時(shí)候建立應(yīng)對(duì)技術(shù)偏見(jiàn)的全行業(yè)標(biāo)準(zhǔn)
 
  以上所述是個(gè)壞消息,更壞的消息是,公司還沒(méi)有解決這個(gè)問(wèn)題的計(jì)劃。盡管個(gè)別公司正在其自主研發(fā)的軟件中解決面部識(shí)別中的技術(shù)偏見(jiàn),但專家們表示,沒(méi)有任何統(tǒng)一的標(biāo)準(zhǔn)可以在整個(gè)行業(yè)范圍內(nèi)同步實(shí)施。因此,當(dāng)公司在其算法中減少偏見(jiàn)的時(shí)候(正如微軟上個(gè)月宣布的那樣),很難判斷這有多大意義。
 
  喬治城大學(xué)隱私與技術(shù)中心的研究員克萊爾·加維(Clare Garvie)表示,很多人認(rèn)為現(xiàn)在是時(shí)候引入全行業(yè)的偏見(jiàn)和準(zhǔn)確性的基準(zhǔn)測(cè)試了:測(cè)試算法在不同的人口統(tǒng)計(jì)數(shù)據(jù)上的表現(xiàn),比如年齡、性別和膚色。“我認(rèn)為這將是非常有益的,”Garvie說(shuō)。“特別是對(duì)于那些將與政府機(jī)構(gòu)簽約的公司。”對(duì)于公司來(lái)說(shuō),面部識(shí)別應(yīng)用已經(jīng)變得比以往任何時(shí)候都要容易。
 
人臉識(shí)別
 ?。▓D1:今年5月,英國(guó)天空廣播公司(Sky)利用亞馬遜的面部識(shí)別API接口來(lái)識(shí)別名人。)

  二、科技行業(yè)有哪些解決方案?
 
  在一項(xiàng)非正式調(diào)查中,The Verge聯(lián)系了十幾家出售面部識(shí)別、驗(yàn)證和分析算法的公司。所有回復(fù)的公司都說(shuō)他們意識(shí)到了偏見(jiàn)的問(wèn)題,而且大多數(shù)公司都說(shuō)他們正在盡最大努力在他們自己的系統(tǒng)中減少這種偏見(jiàn)。但沒(méi)有人會(huì)分享他們工作的詳細(xì)數(shù)據(jù),或者透露他們自己的內(nèi)部指標(biāo)。如果你經(jīng)常使用面部識(shí)別算法,難道你不愿意知道它是否一直在性別或膚色項(xiàng)目上表現(xiàn)欠佳嗎?
 
  谷歌只銷售人臉識(shí)別的算法,而不是身份信息。谷歌表示:“我們確實(shí)測(cè)試了偏見(jiàn),而且我們一直在測(cè)試我們的底層模型,以減少技術(shù)偏見(jiàn)帶來(lái)的不公平。在這個(gè)時(shí)候,我們沒(méi)有更多的細(xì)節(jié)來(lái)分享。”
 
  微軟分享了其近期的改進(jìn),包括軟件在性別識(shí)別方面的進(jìn)展,目前其對(duì)膚色較深的女性的識(shí)別錯(cuò)誤率為1.9%(低于20.8%)。該公司沒(méi)有提供官方聲明,但其首席法律顧問(wèn)布拉德·史密斯(Brad Smith)在7月份發(fā)表的一篇博客文章提到了這一點(diǎn)。史密斯表示,現(xiàn)在是時(shí)候讓美國(guó)政府監(jiān)管自身對(duì)面部識(shí)別的使用了,盡管不是由私營(yíng)企業(yè)來(lái)部署。也許,還應(yīng)包括設(shè)定最低的精確度標(biāo)準(zhǔn)。
 
  IBM還強(qiáng)調(diào)了最近的改進(jìn),以及上個(gè)月發(fā)布的一套用于訓(xùn)練面部識(shí)別系統(tǒng)的多樣化數(shù)據(jù)集,旨在對(duì)抗偏見(jiàn)。IBM Watson的首席設(shè)計(jì)師魯希爾·普里(Ruchir Puri)于6月份曾表示,該公司有意幫助建立準(zhǔn)確的基準(zhǔn)。普里說(shuō):“應(yīng)該有許多這樣的基準(zhǔn)來(lái)評(píng)判。”“但這種判斷應(yīng)該由團(tuán)體來(lái)做,而不是由任何特定的參與者來(lái)做。”
 
 
 ?。▓D2:亞馬遜人臉識(shí)別系統(tǒng)將28名國(guó)會(huì)議員識(shí)別為罪犯)
 
  亞馬遜沒(méi)有回應(yīng)這個(gè)問(wèn)題,而是于今年早些時(shí)候在發(fā)表的聲明中提到,該公司曾因向執(zhí)法部門出售面部識(shí)別技術(shù)而受到ACLU(美國(guó)公民自由聯(lián)盟)的批評(píng)。(ACLU最近也提出了類似的批評(píng):它測(cè)試了該公司的面部識(shí)別軟件,以識(shí)別國(guó)會(huì)成員的照片,并發(fā)現(xiàn)他們錯(cuò)誤地將28個(gè)人與犯罪照片相匹配。)
 
  亞馬遜表示,如果用戶將算法應(yīng)用于非法歧視或侵犯公眾的隱私權(quán),他們將對(duì)該用戶撤銷權(quán)限,但沒(méi)有提及任何形式的監(jiān)管。該公司透露,其團(tuán)隊(duì)正在內(nèi)部進(jìn)行測(cè)試,以分析和消除系統(tǒng)中的偏見(jiàn),但不會(huì)透露更多信息??紤]到亞馬遜持續(xù)向執(zhí)法機(jī)構(gòu)出售其算法,這一點(diǎn)值得注意。
 
  在接近邊緣的企業(yè)供應(yīng)商中,有些公司根本沒(méi)有提供直接的回應(yīng),包括FaceFirst、Gemalto和NEC。另一些公司,比如一家向世界各地的執(zhí)法部門和邊境機(jī)構(gòu)銷售面部識(shí)別算法的德國(guó)公司科尼特克公司(Cognitec)承認(rèn),如果沒(méi)有正確的數(shù)據(jù),消除偏見(jiàn)很難。
 
  “可用的數(shù)據(jù)庫(kù)往往是有偏見(jiàn)的,”科尼特公司的市場(chǎng)經(jīng)理埃爾克·奧伯格(Elke Oberg)表示。“數(shù)據(jù)庫(kù)可能只包含白人,因?yàn)檫@是供應(yīng)商提供的模型。”奧伯格說(shuō),科尼特公司在不同的數(shù)據(jù)上做了最好的訓(xùn)練,但他說(shuō),市場(chǎng)力量將淘汰糟糕的算法。“所有的供應(yīng)商都在研究這個(gè)問(wèn)題,因?yàn)楣娨呀?jīng)意識(shí)到了這一點(diǎn),”她說(shuō)。“我認(rèn)為,如果你想作為一個(gè)供應(yīng)商生存下去,你肯定需要在高度多樣化的數(shù)據(jù)上訓(xùn)練你的算法。”
 
http://www.cqcimf.com/
 
  三、如何解決偏見(jiàn)的問(wèn)題?
 
  這些答案表明,盡管人們意識(shí)到偏見(jiàn)的問(wèn)題,但沒(méi)有應(yīng)對(duì)的措施。那么該怎么辦呢?大多數(shù)專家建議的解決方案在概念上是簡(jiǎn)單的,但卻難以實(shí)現(xiàn):為準(zhǔn)確性和偏差創(chuàng)建全行業(yè)的測(cè)試。
 
  有趣的是,這樣的測(cè)試已經(jīng)存在了。它被稱為FRVT(人臉識(shí)別供應(yīng)商測(cè)試),由美國(guó)國(guó)家標(biāo)準(zhǔn)技術(shù)研究院(NIST)管理。它測(cè)試了幾十個(gè)面部識(shí)別系統(tǒng)在不同情況下的準(zhǔn)確性,比如將護(hù)照照片與站在邊境門上的人相匹配,或者在數(shù)據(jù)庫(kù)中匹配閉路電視片段和臉部照片。它還測(cè)試了“人口差異”——算法是如何基于性別、年齡和種族來(lái)進(jìn)行面部識(shí)別的。
 
  然而,F(xiàn)RVT是完全自愿的,提交其算法的組織往往是試圖向政府出售服務(wù)的企業(yè)供應(yīng)商,或者是學(xué)者測(cè)試新的、實(shí)驗(yàn)性的模型。像NEC和Gemalto這樣的小公司提交了他們的算法,但是沒(méi)有一家大型的商業(yè)科技公司這么做。
 
  Garvie認(rèn)為,擴(kuò)大FRVT的覆蓋范圍,而不是為面部識(shí)別的準(zhǔn)確性創(chuàng)造新的測(cè)試,可能是一個(gè)好主意。“NIST在進(jìn)行這些測(cè)試方面做得非常出色,”Garvie說(shuō)。“但他們的資源也有限。我懷疑我們需要立法或聯(lián)邦資金支持來(lái)提高NIST測(cè)試其他公司的能力。”另一個(gè)挑戰(zhàn)是,像亞馬遜和微軟這樣的公司部署的深度學(xué)習(xí)算法很難被送去分析。這些算法是不斷更新的軟件的巨大組成部分,與老式的面部識(shí)別系統(tǒng)非常不同,后者通??梢园惭b在一個(gè)u盤上。
 
  在接受The Verge采訪時(shí),NIST的生物識(shí)別標(biāo)準(zhǔn)和測(cè)試主管帕特里克·格羅瑟(Patrick Grother)明確表示,該組織目前的角色不是監(jiān)管。“我們不做監(jiān)管,我們不制定政策。我們只生產(chǎn)數(shù)字,”格羅瑟說(shuō)。NIST近20年來(lái)一直在測(cè)試面部識(shí)別算法的準(zhǔn)確性,目前正在準(zhǔn)備一份專門針對(duì)偏見(jiàn)問(wèn)題的年底報(bào)告。
 
  格羅瑟表示,盡管自NIST開始測(cè)試以來(lái),“錯(cuò)誤數(shù)量大幅減少”,但不同算法的性能之間仍然存在很大的差異。“不是每個(gè)人都能做面部識(shí)別,但很多人認(rèn)為他們能做到,”他說(shuō)。
 
  格羅瑟說(shuō),最近關(guān)于偏見(jiàn)的討論經(jīng)常會(huì)混淆不同類型的問(wèn)題。他指出,盡管訓(xùn)練數(shù)據(jù)集缺乏多樣性會(huì)造成偏見(jiàn),但對(duì)相關(guān)的人像采集拍攝也會(huì)產(chǎn)生偏見(jiàn),尤其是當(dāng)膚色沒(méi)有被適當(dāng)?shù)乇┞冻鰜?lái)的時(shí)候。類似地,不同類型的錯(cuò)誤在應(yīng)用于不同類型的任務(wù)時(shí)意味著更多。所有這些細(xì)微之處都需要考慮到基準(zhǔn)或監(jiān)管。

  四、偏見(jiàn)并不是唯一的問(wèn)題
 
  關(guān)于偏見(jiàn)的討論還引發(fā)了其他關(guān)于社會(huì)使用面部識(shí)別的問(wèn)題。
 
  人工智能科學(xué)家Joy Buolamwini是麻省理工學(xué)院的研究人員(從事性別識(shí)別算法不同準(zhǔn)確率的研究工作),他表示,僅僅解決偏見(jiàn)并不能完全解決這些更廣泛的問(wèn)題。“開發(fā)面部分析技術(shù),然后將其武器化,有什么好處呢?我們需要一種更全面的方法,將面部分析技術(shù)作為一個(gè)社會(huì)技術(shù)問(wèn)題來(lái)對(duì)待。技術(shù)上的考慮不能與社會(huì)影響相分離。”
 
人臉識(shí)別
 
 ?。▓D三:人臉識(shí)別應(yīng)用于邊境檢查)
 
  Buolamwini和其他人工智能團(tuán)隊(duì)成員對(duì)這些問(wèn)題采取了積極的態(tài)度。面部識(shí)別供應(yīng)商Kairos的首席執(zhí)行官布萊恩·布雷克(Brian Brackeen)特最近宣布,其公司不會(huì)向執(zhí)法部門出售面部識(shí)別系統(tǒng),因?yàn)橛斜粸E用的可能性。
 
  布雷克表示,當(dāng)涉及到面部識(shí)別的商業(yè)部署時(shí),市場(chǎng)力量將有助于消除偏見(jiàn)算法。但是他同時(shí)表示,當(dāng)這些工具被政府使用時(shí),風(fēng)險(xiǎn)要高得多。這是因?yàn)槁?lián)邦機(jī)構(gòu)可以獲得更多的數(shù)據(jù),這增加了這些系統(tǒng)被用于抑制監(jiān)視的可能性。(據(jù)估計(jì),美國(guó)政府持有該國(guó)一半成年人口的面部數(shù)據(jù)。)類似地,政府使用這些算法做出的決定將對(duì)個(gè)人的生活產(chǎn)生更大的影響。
 
  “執(zhí)法的用例不只是街上的攝像頭,而是身體攝像頭、臉部照片,”布雷克說(shuō),如果偏見(jiàn)是這些場(chǎng)景中的一個(gè)因素,那么“你就有了一個(gè)更大的可能性讓一個(gè)有色人種被錯(cuò)誤地指控為犯罪。”
 
  因此,關(guān)于偏見(jiàn)的討論似乎只是一場(chǎng)更大辯論的開始。正如Buolamwini所述,基準(zhǔn)測(cè)試可以發(fā)揮他們的作用,但還需要做更多的工作:“開發(fā)這些工具的公司、研究人員和學(xué)者必須承擔(dān)責(zé)任,在他們想要減輕損害的情況下,對(duì)他們開發(fā)的系統(tǒng)設(shè)置條件限制。”
讀者們,如果你或你的朋友想被手機(jī)報(bào)報(bào)道,請(qǐng)狠戳這里尋求報(bào)道
相關(guān)文章
熱門話題
推薦作者
熱門文章
熱門評(píng)論