AIに履歴書を読み込ませれば、優秀な人材を本当に素早く選び出せるか?

2023年11月21日(火)4時0分 JBpress

 ビジネスや社会生活にAIが急速に普及するのに伴い、AIに関する倫理やガバナンスが注目を集めている。本連載では、Deloitte AI Instituteのグローバルリーダーが著した『信頼できるAIへのアプローチ』(ビーナ・アマナス著、森正弥・神津友武監訳/共立出版)より、内容の一部を抜粋・再編集。AIに潜む落とし穴、積極的に利用するために必要なリスク管理、そしてAIをいかに信頼できるものとして活用していくかを探る。

 第2回目は、AIにバイアスがかかってしまう可能性とその原因を考える。

<連載ラインアップ>
■第1回 Deloitte AI Instituteのグローバルリーダーが考える「信頼できるAI」とは?
■第2回 AIに履歴書を読み込ませれば、優秀な人材を本当に素早く選び出せるか?(本稿)

■第3回 バイアスのあるデータで学習したAIが、ビジネスに与える深刻な影響とは?
■第4回 CEOは男性、秘書は女性?なぜ人間が作るデータにバイアスがかかるのか?(12月5日公開)
■第5回 AIを使うべきか使わぬべきか、リーダーとデータサイエンティストの責任とは?(12月12日公開)

※公開予定日は変更になる可能性がございます。この機会にフォロー機能をご利用ください。
<著者フォロー機能のご案内>
●無料会員に登録すれば、本記事の下部にある著者プロフィール欄から著者フォローできます。
●フォローした著者の記事は、マイページから簡単に確認できるようになります。
●会員登録(無料)はこちらから


第2章 公平性と中立性

 多くの企業がそうであるように、BAM社においても高い技術力を持った従業員が不足していました。

 BAM社には低迷している収益を立て直すための技術はあるものの、その技術を有効活用できる従業員がいなかったのです。そのため最高人事責任者であるVidya(ヴィジャ)は、人事部がより多くの応募者を募る必要があると考えていました。

 BAM社はハイテクな機械を操作できる人材を必要としており、そのためには力ではなく知性が求められていたのです。Vidyaは、山のようにある履歴書や応募書類を整理するために、時折メンテナンスされていたもののあまり使用されていないAIシステムに目を付けました。

 それは前任者が人事部に導入したもので、Vidya自身は従来の手作業による書類審査を好んでいたので使用することはありませんでしたが、今回はあまりにも書類の数が膨大であったため、手作業では全書類を素早く審査することができないと考えたのです。

 Vidyaは、データチームやAIチームと十分な議論をしないまま履歴書をAIシステムに入力し、BAM社のハイテクな工場で働くことができる人材を探しました。その結果、いくつかの履歴書はBAM社が必要としている人材に近いというフラグが立ち、それはまさに期待通りの結果でした。

 ある午後のミーティングで、Vidyaは最高執行責任者と共に採用候補者に目を通していました。「AIのおかげでそのような有能な人材を素早く見つけ出すことができたんだ。」と、Vidyaは言いました。「これについてどう思う?」

 最高執行責任者は「ここにいるのは男性ばかりだ。妙だぞ。女性は応募して来なかったのかい?まるでタレントプールがおかしくなったみたいだ。」と返しました。Vidyaはすぐに異変に気づきました。

 不公平でバイアスがかかったAIが、誰かに被害を及ぼしたり世間から反発されたりした例は枚挙に暇がありません。エンドユーザーたちが何らかの被害を受けるだけでなく、そのようなAIを導入した組織も、消費者からの信頼・評判の低下や関連法違反による罰則といった影響を受けてしまいます。AIに対する政府の規制は、違反した際の罰則と伴って年々厳しくなっています。

 アメリカでは、連邦取引委員会(Federal Trade Commission:FTC)がAIに関連した記載をしている既存の法律の問題点を指摘し、AIの開発者やユーザーが遵守すべき事項として「開発者やユーザー自身が責任を負うこと。もしくは、FTCが代わりに責任を負う必要があるならば、その準備をしておくこと。」と発表しました2

 非常に多くのユースケースで急速にAIが使用されてきているため、現状、公平性を定義しそれを追求する責任はAIを利活用するすべての組織に求められています。

 その一方で、今後検討すべき論点や倫理的な課題はいまだ数多くあり、また、それぞれのユースケースにおけるエンドユーザーへの影響は多岐にわたっており、一意に定まることはありません。

 データ、開発者、システム構成など、現実世界には非常に多くの視点があり、公平なAIを開発し利活用の幅を広げるための指針はいまだ存在していないのです。

 したがって、今ある法規制やガイドラインを踏まえ、組織はAIのライフサイクルのどこにバイアスが生じてしまうかを理解する必要があるのです。

 では、不公平でバイアスがかかったAIの原因となる要素は何でしょうか。様々なユースケースにおける公平性はどのように評価され、対処されるべきなのでしょうか。ステークホルダは誰で、またAIを公平に活用するための手綱を握っている人物は誰なのでしょうか。

 最後に、AIが持つバイアスを理解し低減させる方法を検討する出発点として、私たちはより根本的な質問をします。公平性とは何でしょうか。

2. Elisa Jillson,Aiming for Truth, Fairness, and Equity in Your Company’s Use of AI(Federal Trade Commission, April 19, 2021).

■長年にわたる倫理問題

 公平性の定義については、何千年も前から議論されてきました。アリストテレスはNicomachean Ethics(ニコマコス倫理学)の中で、「平等とは平等に扱われることを指し、不平等とは不平等に扱われることを指す」と述べています。つまり、公平性の核となる部分は、平等で、中立的な「扱い」なのです。

 アリストテレスがいた時代から2000年経っているにもかかわらずいまだに私たちは様々な国やビジネスの現場で不平等を目にしていることを踏まえると、公平性の実現は難しいということだけでなく、仮に実現してもすぐに壊れてしまうものだという事実を私たちに伝えているのです。

 公平性の実現には平等な扱いが必要であるという前提のもと、平等な「扱い」の枠を越えて、平等であるという「結果」に目を向けた手続き的公平性(procedural fairness)と分配的公平性(distributive fairness)について考えてみましょう。

 手続き的公平性(アリストテレスがいう平等な扱い)とは、ある手続きが正しい場合に、どのように公平な結果や公平性を守るための正義という概念が導かれるのかについて定義するものです。哲学者John Rawls(ジョン・ロールズ)bは、自著の中でこの手続き的正義について3つの層に分けて記載しています3

  1. 完全な手続き上の正義(perfect procedural justice):公平性について具体的な定義がなされた場合、必ず公平性が確保される手続きが存在します。
  2. 不完全な手続き上の正義(imperfect procedural justice):手続きについて具体的な定義がなされた場合、公平性が確保される可能性は高いですがその保証はありません。
  3. 純粋な手続き上の正義(pure procedural justice):公平性が確保されるという結果は手続きから生じるものであるものの、公平性の定義が独立してあるわけではなく、手続きによって整合性が保たれているに過ぎないのです。

 AIに話を戻すと、新しいユースケースが常に生まれてくる世の中で、すべてのユースケースについて何が公平かを定義することは困難です。「公平」の本質的な意味を考えても、結局、AIの使用例や使用目的に依存した非常に主観的なものになってしまいます。

 John Rawlsいわく、純粋な手続き上の正義とは、手続きが正当な行いであったために結果的に公平性が確保されるものであり、これによって平等な扱いという概念が支えられるのだとしています。しかしこのことは分配的公平性をも意味します。

 このとき、公平な結果が得られたとして、果たして真の公平性が満たされていると言えるのでしょうか。もしそうであれば、それは公平でもあるのでしょうか。

 例えば、履歴書をAIに読み込ませて応募者をスコアリングするといった、採用活動が簡便化されるAIツールがあったとします。

 理論的にはそのようなツールは、誰を採用するかを決定する際に面接官のバイアスがかからずに、優秀な従業員を素早く見つけ出すことができることができるように思えます。

 しかし実際には、訓練用データセットに特定の性別へのバイアスがあると、AIはその性別の応募者に重みをつけ、結果、バイアスがかかった採用活動を行ってしまう可能性があるのです。

 この事例では、AIツールは手続き上も分配上も不公平であるといえます。応募者がスコアリングされるプロセスにバイアスがあれば、必然的に不公平な結果になってしまうからです。そしてこれは、分配上の公平性とAIサービスの質に関する重要性も表しています。

 AIによって行われた採用活動や住宅ローン審査などでは、すべての人は平等に審査に受かる可能性も落ちる可能性もあります。つまり、AIが平等な扱いをする可能性も、バイアスがかかった扱いをする可能性もありうるのです。

 さらに組織として懸念すべき点は、AIモデルを開発するデータサイエンティストがいかに透明性を確保しても、AIの判断によって影響を受ける人々にとってそれは不透明で理解することが難しい内容である可能性が高いということです。

 倫理的に優れた人間の行動というものは、向社会性cによって決定されます。この判断によって、個人は他者との関係性を踏まえて社会性のある行動とは何かを理解・評価し、積極的に行動するようになります。

 私たちは周りの人たちとの関係性を考慮しながら、社会に生きる中で何が公平で何が中立であるかを直感的に理解し、同時に社会の仕組みを通して反社会的な行動を自然に淘汰しています。

 このときに重要なことは、何をもって反社会的とするかは、地域や組織によって異なる可能性があるということです。中には、明示的であれ暗黙的であれ偏見が容認されたり、場合によっては偏見を強制されたりすることがあるかもしれません。

 しかし、機械は何が公平であるかを直感的に理解したり、判断結果の理由について「考え」たりすることはできません。AIの公平性をめぐる問題から、アルゴリズムフェアネスという新しい分野が生まれました。

 これは、データ活用および分析活動、特にAI利活用において、いかにしてバイアスを無くし、公平性を担保するかを探求することに焦点を当てた学問です。

 性別・国籍・年齢などのセンシティブな情報を、アルゴリズムへの影響がないように排除することも1つの手段ではありますが、(法規制や社会における常識が許すのであれば)これらセンシティブな情報を慎重に活用するということもまた1つの主要な手段です4

 これは、データサイエンスの範疇を大きく超えた複雑な問題であり、公平性は、それが語られる学問分野ごとに、様々な意味を持ちます。

 実際に、法律・ビジネス・社会構造・数学などその他多くの分野で公平性について議論された本が出版されています。それほど公平性や中立性について定義することは難しいのでしょう。

 ただAIの場合においては、厳密に定義をするよりも、一歩引いた視点からAIの公平性に関する具体的な問題とは何かを特定し、その問題に適切にアプローチすることが重要だと考えます。

 その一歩目として、私たちはバイアスがどこにあるかを理解し、またそのバイアスを排除することが求められるのです。

b訳注:アメリカ合衆国の哲学者(1921-2002)であり、1971年に刊行した『正義論』(A Theory Of Justice)は大きな反響を呼んだ。

3. John Rawls,A Theory of Justice,2nd ed.(Harvard University Press, 1999).

c訳注:相手の気持ちを理解、共有し(共感)、自分よりも相手を優先させようとする心情や行動である。向社会的行動には、相手の心情や要求に影響され、自分の欲求を抑え相手の利益になるように振舞う自己抑制的な側面と、相手の要求を優先させて相手の利益につながる行動を積極的に表現しようとする自己主張的な側面とがある。

4. Jon Kleinberg et al., “Algorithmic Fairness,” Advanced in Big Data Research in Economics,AEA Papers and Proceedings108(2018): 22-27.

<連載ラインアップ>
■第1回 Deloitte AI Instituteのグローバルリーダーが考える「信頼できるAI」とは?
■第2回 AIに履歴書を読み込ませれば、優秀な人材を本当に素早く選び出せるか?(本稿)

■第3回 バイアスのあるデータで学習したAIが、ビジネスに与える深刻な影響とは?
■第4回 CEOは男性、秘書は女性?なぜ人間が作るデータにバイアスがかかるのか?(12月5日公開)
■第5回 AIを使うべきか使わぬべきか、リーダーとデータサイエンティストの責任とは?(12月12日公開)

※公開予定日は変更になる可能性がございます。この機会にフォロー機能をご利用ください。
<著者フォロー機能のご案内>
●無料会員に登録すれば、本記事の下部にある著者プロフィール欄から著者フォローできます。
●フォローした著者の記事は、マイページから簡単に確認できるようになります。
●会員登録(無料)はこちらから

筆者:ビーナ・アマナス,森 正弥,神津 友武

JBpress

「履歴書」をもっと詳しく

「履歴書」のニュース

「履歴書」のニュース

トピックス

x
BIGLOBE
トップへ