アマゾンAIと日本の医学部大の発想が同じ
鳴り物入りで始まったアマゾンのAI採用が、期待と違う結果になりあっけなく中止になった。
原因はAIが女性を採用しないようにしたというのだが、AIは客観的で公正な判断で採用したはずでした。
アマゾンは過去10年間に送られてきた技術職履歴書などのデータをAIに学習させ、2014年から2017年まで使用していた。
技術職の大半は男性だったので、AIは最初から女性をなるべく採用しない事を学習し、男性を優先するようになった。
応募者が女性だったり女子大出身だと自動的に減点し、男性より合格のハードルを高くした。
AIは男性の方が技術者に向いていると思い、女性を外すことで効率よく優秀な技術者を採用できると思い込んだ。
どこかで聞いたような話であり、最近日本で問題になっている医学部の女子への減点と同じでした。
医学部大の言い分では女性は結婚や出産でやめる人が多いので、男性医師を多くしておく必要があった。
アマゾンのAIと同じで「女性は向いていないから最初から減点しておこう」という発想でした。
AIが「悪い言葉」を学習
アマゾンはデータを修正したが、AIが今後も自己学習によってバイアス(偏り)を持つ可能性は否定できないとしている。
このようなことは男女だけでなく多くのグループ分けで起こりえるし、効率的にやろうとするほどバイアスも大きくなる。
例えばある調査では「親の収入が多いほど成績が良く名門大学に入学している」というデータがある。
それなら全員平等ではなく、最初から親が金持ちの受験者を優遇したほうが、効率よく優れた学生を獲得できる。
人種間でも年齢でも非行歴でも同じようなデータはあるだろうし、例えば交通違反についてもいえる。
交通違反を複数回する人は今後も何度となく繰り返すし、それならすぐ免許を没収しようとAIは考えるかもしれない。
MSは2015年にツイッター上で一般人と会話し自己学習するAI のテストを実施しました。
AIはわずか一日で悪い言葉や暴言を学習し、独裁政治は正しいなどと言い始めたので翌日には中止された。
これらのケースは人工知能がいかにデータを教える人間に影響されやすいかを示している。
教える人間が少しでも偏ったことを教えれば、AIはそれを増幅して自己学習し、どんどん偏りが大きくなる。
AIが人間のように学習していくというアイディアは素晴らしいものに思えたが、現実はそれほどうまく行っていません。