AI・人工知能の差別問題とは、現状と課題について

AI・人工知能の差別問題とは、人工知能が人間にとって偏見や差別と見られるような発言や行動をしてしまう問題を指しています。

AI・人工知能の差別とは

そもそも、人間にとって差別とは定義がかなり難しい問題です。この差別の問題に対しAI・人工知能が行儀よく振る舞うことはAI・人工知能の研究開発にとって大きな課題となっていくでしょう。

AI・人工知能による差別の問題は、近年の人工知能の進化とともに多く指摘されるようになりました。これらの背景として、AI・人工知能は人間のようなつまらないミスをしてほしくないという大きなAI・人工知能への期待があるのかもしれません。

このような背景を踏まえた上で、AI・人工知能の差別問題の歴史、現状と課題を見ていきましょう。

AI・人工知能の差別問題の歴史

Microsoft のチャットボット Tay による差別発言

2016年3月、Microsoftの研究チームと「Bing」チームが開発する Tay(テイ)という人工知能(AI)チャットボットは Twitter アカウントを停止しました。
Tay は「ナチスは正しかった」など攻撃的で不適切なツイートを発信したとされています。結果として、Microsoft は Tay をオフラインにしました。

Tay はユーザーの発言を学習するようなシステムであったため、ユーザーからのヘイト発言を学習して好ましくない発言は発信するようになったと考えられています。

参考: マイクロソフト、人工知能ボット「Tay」の不適切ツイートを謝罪 – CNET Japan

Google フォト、Flicker の自動タグ付け問題

2015年に画像クラウドストレージサービスである Google フォト、Flicker は画像の自動タグ付け機能の問題で謝罪を行いました。

黒人のユーザーがアップロードした写真に、「ゴリラ」や「動物」といったタグを自動で付与したとされています。
画像認識の精度が足りなかったために発生した問題として、Google、Flicker は問題があることを認め修正する努力をしているとアナウンスを行いました。

参考: Google says sorry for racist auto-tag in photo app | Google | The Guardian

アマゾンに採用AIによる採用システムの打ち切り

米アマゾン・ドット・コムは2014年から2017年にかけて開発していたAIによる採用システムの打ち切るという結果なりました。

これはAIによる女性の採用評価が男性よりも低くなるという欠陥があったとされています。
人工知能は学習データが多いほうが有利になる傾向があるため、データ量が男性よりも少ない女性のデータが不利になったのではないかと考えられています。

参考: 焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で | Reuters

参考

コメント

タイトルとURLをコピーしました