ジェンダーを見つけたときでさえ、現在の顔認識技術が白人の方のために良い

Sidney Fussell 07/09/2018. 12 comments
Face Recognition AI/Ethics

顔認識ソフトウェアの新しいレビューでは、性別を特定するとき、ソフトウェアは軽い肌の男性にとって最も正確であり、肌が暗い女性にとって最も正確でないことが分かった。 MITメディアラボの研究者でありコンピュータ科学者でもあるJoy Buolamwiniは、顔認識サービスの一環として提供される3つの商業ジェンダー分類子をテストしました。 彼女が見つけたときに、ソフトウェアは暗い肌の女性の性別を35%間違っていた。 対照的に、軽肌の男性の誤り率は1%未満であった。

「全般的に、男性被験者は以前の所見を複製する女性被験者(Ngan et al。、2015)よりも正確に分類され、より明るい被験者はより暗い個人よりもより正確に分類されました」と、Buolamwini氏とTimnit Gebru 「交差点の内訳は、すべての分類器が暗い女性の被験者で最悪の結果を示した」

この結果は、肌が暗い女性や個人を特定する際の顔認識ソフトウェアの失敗に関する以前の知見を反映しています。 ジョージタウン大学のプライバシーとテクノロジーのセンターが指摘したように、これらのジェンダーと人種格差は、 空港の顔面スキャンの文脈で 女性や少数派に、手動指紋などのより侵襲的な処理のターゲットとなる可能性が高くなります。

すべての顔認識ソフトウェアは、データセット内の何千もの画像をスキャンし、貴重なデータポイントを抽出し、有用でないものを無視する能力を改良して訓練されています。 Buolamwiniが指摘しているように、これらのデータセットの多くはそれ自体が偏っています。 Adienceは、性別分類ベンチマークの1つで、軽い肌色の86%の被験者を使用しています。 もう1つのデータセットIJB-Aでは、明るい皮で覆われた79%の被写体が使用されています。

歪んだデータセットの他の問題の中でも、データセットの人々に似ているのは本当に正確なときに企業が顔認識ソフトウェアを「正確に」呼び出すことができます。 より暗い女性は、これらのデータセットで最も少なかった。 アジアンスのデータセットの7.4%が暗い色の女性でしたが、IJB-Aは4.4%でした。 これは、企業がそれに頼っているときに問題になります。

Buolamwiniは、MicrosoftのCognitive Services Face API、IBMのWatson Visual Recognition API、Lenovoの技術を提供している中国のコンピュータビジョン会社であるFace ++の3つの商用ソフトウェアAPIをテストしました。 Buolamwiniは、各写真の人の性別を確実に分類できるかどうかを調べました。

彼女が見つけたように、すべてのクラシファイアは、女性の顔よりも男性の顔のほうが優れていて、すべてのクラシファイアは、ダークスキンの女性の性別を判断する際に最も正確ではありませんでした。 Face ++とIBMは、暗い肌の女性でそれぞれ34.5と34.7パーセントの分類誤り率を示しました。 どちらも明るい肌の男性のエラー率は1%未満でした。 マイクロソフトの暗い肌の女性のエラー率は20.8%で、明るい肌の男性の場合は事実上ゼロでした。

特に顔認識ソフトウェアが法執行機関やテロ対策で標準化されているため、Buolamwini氏は顔認識の正確性を見極めることを望んでいます。 乗客は空港でスキャンされ、観客はアリーナでスキャンされ、iPhone Xの時代には誰もすぐに携帯電話でスキャンされることがあります。 Buolamwini ジョージタウンの調査 空港で顔認識が標準的になり、テストに「失敗」した人が余分な精査を受けると、バイアスの潜在的なフィードバックループが発生する可能性があることを警告します。 このペーパーでは、特にAIが社会の中核となる姿勢をとっているため、不均衡な影響を考慮してさらに多くの交差監査を取り入れることを望んでいます。

[ NYT ]

HighResolutionMusic.com - Download Hi-Res Songs

12 Comments

cj01
yaboihotkarl
smmy15643
Nick
RumpleDickSkin

Suggested posts

Other Sidney Fussell's posts

Language