急成長する採用AI、偏見・バイアスはなぜ発生するのか 対策と担当者の役割は

(※本記事は『THE CONVERSATION』に2024年10月14日付で掲載された記事を、許可を得て掲載しています)

ビジネスマンを指先でつまむ、ロボットの大きな手の画像
世界では多くの組織で採用プロセスへのAI導入が急速に進んでいることを考えると、AIがもたらす複雑な倫理的課題についての認識を高めることは重要だ

2019年、ある公益団体がAI採用ツール「HireVue」の不正な採用事例について米連邦政府に苦情を申し立てた。同ツールは既に数百の企業で利用されており、特定の表情や話し方、声のトーンに高評価を下す傾向があり、その結果、マイノリティの応募者が不当な扱いを受けていた。

米ワシントンD.C.に拠点を置く非営利組織「電子プライバシー情報センター(EPIC)」は、「HireVueの評価はバイアスが掛かっており、証明が不可能で再現性もない」と主張した。HireVueはその後、顔認識技術の使用を中止したが、音声パターンなど他の生体データにおける偏見に関する懸念は依然として残っている。

同様に2018年、Amazonも女性に対する扱いの問題を解消できず、AIを使った採用ツールの使用を中止した。同社のツールは過去10年間の、男性が多く応募していた職務経歴をもとに学習しており、「女性」という言葉を含む応募書類や、女子大の卒業生を低く評価するなど、男性候補者を優遇する動作をしていた。エンジニアが偏見を取り除こうと試みたものの、公平性を保証できなかったため、プロジェクトは中止された。

これらの事例は、採用におけるAI活用に関する懸念を浮き彫りにしている。AIが人間の偏見を排除することを期待して採用される一方で、既存の偏見を助長・拡大させる可能性もある、ということだ。多くの組織の人事部門にAIが急速に取り入れられる中、AIがもたらす倫理的な課題についての認識を高めることが求められている。

AIが採用判断でバイアスを生む仕組み

まず、企業が重要な採用判断でアルゴリズムを頼るようになるにつれ、AIがどのようにバイアスを生むかを理解しておくことが重要である。

1. 学習データに既にバイアスが含まれるケース

AIシステムは大量のデータセット(学習データ)をもとにパターンを学び、意思決定を行うが、その公平性や正確性はデータの質に依存する。過去の採用データに特定の属性を好む偏見が含まれている場合、AIはその偏見を引き継ぎ再現してしまう。AmazonのAIツールは、男性が多い業界の職務経歴を学習していたため、性別による偏見が生じた。

2. 学習データ自体が不足しているケース

データサンプリングの不備とは、学習データが本来サービスを提供すべき母集団とズレている場合に起こる問題である。採用においては、特定の属性を持つ応募者(たいていは「白人男性」)を多く含む一方で、そうでない属性を持つ応募者が少ないケースがある。

このとき、AIは多数派の応募者の属性を好み、少数派を不利に扱ってしまう可能性がある。例えば、顔認識技術はデータセットで非白人系の人種・民族の女性に対し、誤認率が高いことが確認されている。

3. 本質的な関連がないのに特定の特徴が優先されてしまうケース

AIシステムは、判断時に特定の特徴・属性を優先するよう設計される。しかし、これらの特徴が優先されること自体が不公正な結果を生み既存の不平等を助長する場合があるのだ。たとえば、AIは歴史的に特権階級が通ってきた名門大学の卒業生を過剰に評価してしまうかもしれないし、ありふれた一般的な職務経歴を優先するかもしれない。さらにこの問題は、郵便番号のような地域情報が優先すべき特徴として使われてしまった場合、歴史的な住宅分離政策などの影響を受けた、人種や経済的地位と密接に関連する差別的な結果を生む温床となりうる。

ロボットの手が虫眼鏡を持って、6枚ある採用応募者の顔写真のうち、白人男性の顔を拡大している画像
採用アルゴリズムのバイアスは倫理的なトラブルを引き起こしうる。責任ある、多様性に配慮したAI利用が求められている。

4. 透明性が欠けていてバイアスの原因が特定できないケース

多くのAIシステムは「ブラックボックス」として機能しており、その意思決定プロセスは不透明である。この透明性の欠如により、企業がバイアスの発生場所を特定し、それが採用にどのように影響するかを理解するのが難しくなる。AmazonやHireVueの事例でも、ユーザーや開発者はシステムが応募者をどのように評価し、なぜ特定の集団を除外したのかを把握するのに苦慮した。

5. 人的監視が不足しており問題が見過ごされるケース

AIは多くの意思決定プロセスにおいて重要な役割を果たすが、最終的な判断は人間が行うべきである。AIへの過度の依存と、技術が絶対的であるとの誤った信頼が偏見のリスクを高める。この問題は、採用担当者が自身の判断よりもAIを信頼しがちになるとさらに悪化する。

採用AIアルゴリズムのバイアスを無くすための対策

これらの課題を軽減するため、企業はAIによる採用プロセスにおいて多様性への配慮、透明性を重視する戦略を採用すべきである。以下に、AIによるバイアスを克服するための主要な対策を示す。

1. 学習データの多様化

AIによるバイアスへの最も効果的な対策の一つは、学習データが多様で幅広い候補者を代表するものであるようにすることである。これには、多様な人種、民族、性別、経済的背景や教育水準を持つデータを含むことが求められる。

2. 定期的なバイアス監査

AIシステムに対し、バイアスや差別のパターンを特定するための定期的かつ徹底した監査を行うべきである。これには、アルゴリズムの出力や意思決定プロセス、異なる集団に対する影響の検証が含まれる。

カメラに背を向けた白人のビジネスマンと握手する、黒人の若い女性が笑顔で写っている画像
AIを用いた意思決定には、現状は人間の判断を積極的に取り入れることが重要であり、特に最終的な採用判断においては欠かせない。

3. 公平性を重視したアルゴリズムの実装

公平性を考慮した制約を組み込み、偏見を軽減するよう設計されたAIソフトウェアを使用する。これには、公平性指標の導入や、偏見を減らすような学習データの調整、予測モデルの公平性基準の適用などが含まれる。

4. 透明性の向上

アルゴリズムの意思決定プロセスを理解しやすくするため、透明性の高いAIソリューションを選択し、偏見の特定と是正をしやすくする。また、採用プロセスにおいてAIを使用していることを応募者や関係者に開示し、透明性を確保することも重要である。こうした情報開示は、候補者に対してAIの利用に関する理解を深めてもらう一助となり、企業に対する信頼感を高める効果もある。

5. 人的監視の強化

AIによる採用判断をコントロールするためには、マネージャーやリーダーがAIの決定を積極的に見直し、特に最終的な採用判断において人間の判断を積極的に取り入れる必要がある。近年の研究では、AI利用時のリスクを軽減するために人間の監視が重要な役割を果たすことが示されている。ただし、こうした監視が効果的かつ有意義であるためには、リーダーが倫理的な配慮を採用プロセスに組み込むことが必要であり、AIの利用が責任ある、多様性に配慮した、倫理的なものになるよう促進することが求められる。


採用アルゴリズムにおけるバイアスは深刻な倫理的懸念を引き起こし、AIの慎重で責任ある、そして多様性に配慮した利用に対する関心の高まりを促している。AIによる採用プロセスの倫理的配慮やバイアスの問題を理解し、解決に取り組むことは、公平な採用結果を実現し、テクノロジーがシステム的な偏見を助長するリスクを防ぐために不可欠である。

元記事へのリンクはこちらThe Conversation

メーナズ・ラフィ(Mehnaz Rafi)
メーナズ・ラフィ(Mehnaz Rafi)
カナダ・カルガリー大学 ハスケイン経営大学院 博士課程候補生・非常勤講師

続きは無料会員登録後、ログインしてご覧いただけます。

  • 記事本文残り0%

月刊「事業構想」購読会員登録で
全てご覧いただくことができます。
今すぐ無料トライアルに登録しよう!

初月無料トライアル!

  • 雑誌「月刊事業構想」を送料無料でお届け
  • バックナンバー含む、オリジナル記事9,000本以上が読み放題
  • フォーラム・セミナーなどイベントに優先的にご招待

※無料体験後は自動的に有料購読に移行します。無料期間内に解約しても解約金は発生しません。