
2023年には、AIを活用した採用活動を規制する新しい法律がニューヨーク市で施行され、他の州でも必然的に施行されるでしょう。これは、女性候補者に対する有害な偏見を引き起こした悪名高いAI採用ツールをAmazonが導入してからほぼ10年後のことです。
参照: 人工知能倫理ポリシー (TechRepublic Premium)
新興技術は、その周囲に産業が形成される過程で、しばしば野放しにされてしまう。急速なイノベーションと規制の緩慢さから、市場に先駆けて参入した企業は、制度的な許可を求めるよりも、世間の寛容を求める傾向がある。Facebook(現Meta)は創業から20年近くが経過した現在でも、依然として大部分が自主規制されている。暗号通貨は2009年に初めて登場し、現在では時価総額が2.6兆ドルに達しているが、規制をめぐる議論は始まったばかりだ。ワールド・ワイド・ウェブは、1996年に議会が電気通信法を可決するまでの5年間、完全に規制を受けずに存在していた。
法律制定の責任を負う人々は、規制対象となる技術を理解していないことが多く、その結果、曖昧で現実離れした法律が生まれ、ユーザーを適切に保護したり、技術の進歩を促進したりすることができません。当然のことながら、人工知能(AI)の商業化も同様の道を辿っています。しかし、AIは指数関数的に進化し、学習する能力を本質的に備えているため、規制当局やAI実務家はどのようにしてこの流れに対応していくことができるのでしょうか。
準備ができていようがいまいが、AI採用ガバナンスは今まさに到来しています。この変革をもたらすテクノロジーを取り巻く法整備が進む中、知っておくべき4つの重要なポイントをご紹介します。
1. データは決して中立的ではありません。
採用業界において、AIを放置することのリスクは大きい。AIを求職者の選考、評価、選考に活用する場合、人種、民族、性別、障害に対する偏見を生み出したり、永続させたりするリスクは極めて現実的である。
採用プロセスにおいて偏りのないデータを収集しようとするのは、地雷原を歩くようなものです。GPA、学校の評判、履歴書の文言などに基づいて、意識的・無意識的に判断が下され、歴史的に見て不公平な結果につながっています。
そのため、ニューヨーク市法では、すべての自動雇用決定ツールに対し、バイアス監査の実施を義務付けています。この監査では、独立した監査人が、複数の人口統計学的要因に基づいて、ツールが個人に与える影響を判定します。監査要件の詳細は不明瞭ですが、AIを活用した採用企業は、特定のグループが悪影響を受けていないかを判断するために、「差異影響分析」を実施することが義務付けられる可能性があります。
倫理的なAI実践者は、偏りのあるデータを修正しつつ、非常に効果的で予測力の高いアルゴリズムを作成するノウハウを持っています。彼らは、有意な悪影響がなくなるまで、データを視覚化し、分析し、クレンジングする必要があります。しかし、堅牢なツールはほとんど存在せず、ほとんどがオープンソースであるため、データサイエンティスト以外の人が自力でこれを行う方法を見つけるのは困難です。だからこそ、アルゴリズムを導入する前に、機械学習技術の専門家に入力データを厳密にクレンジングしてもらうことが不可欠です。
2. 多様かつ豊富なデータセットが不可欠です。
規制上の問題を回避するため、AIの学習に使用するデータは、偏った結果を避けるために、あらゆる集団を適切に代表するものでなければなりません。これは特に採用において重要です。なぜなら、多くの専門職の職場環境、特にテクノロジー、金融、メディアなどの業界では、白人や男性が大多数を占めているからです。
多様で豊富なデータにアクセスできない場合は、経験豊富なデータ サイエンティストが追加の代表的なサンプルを総合的に生成し、業界や労働力における人口の割合に関係なく、データセット全体ですべての性別、人種、年齢などが 1 対 1 の比率になるようにすることができます。
3. AI は候補者を除外してはならない。
従来の採用手法では、履歴書情報などの構造化データや「直感」などの非構造化データに頼って候補者を選考から除外することがよくあります。これらのデータポイントは将来のパフォーマンスを予測するものではなく、多くの場合、根深い体系的なバイアスを含んでいます。
しかし、AIを活用した採用ツールの中には、AIの判断に基づいて候補者を除外するよう採用担当者に指示する推奨案を提示するものもあります。このようにAIが候補者を除外すると、問題が発生する可能性があります。
むしろ、これらのツールは、採用プロセスで収集・評価される他の情報と組み合わせて活用できる追加データポイントを提供するべきです。AIが最善を尽くすには、すべての候補者について、実用的で説明可能な補足情報を提供し、雇用主が可能な限り人間主導の最適な判断を下せるようにする必要があります。
4. 頑固な偏見や埋もれた偏見を取り除くために、何度もテストを繰り返します。
将来の規制では、採用判断を支援するために設計されたあらゆるAIに対し、徹底的かつカタログ化された、場合によっては継続的なテストが求められるでしょう。これは、雇用機会均等委員会(EEOC)が定めた4/5ルールに倣うものとなるでしょう。
4/5ルールとは、人種、性別、民族を問わず、選考率が最も高いグループの選考率の5分の4、つまり80%以上でなければならないというものです。AIを活用した採用ツールにおいては、4/5ルールを遵守し、悪影響を及ぼさないことが標準的な実践方法となるべきです。
しかし、さらに一歩踏み込むことも可能であり、また推奨されます。例えば、使用しているツールが候補者のパフォーマンス予測を提示するとします。予測値が最も高い候補者の中に、十分な代表性があり、悪影響の兆候がないことを確認する必要があるかもしれません。これにより、予測スケールの異なるポイントにバイアスが集中している可能性を判断し、候補者にとってより公平なエコシステムを構築するのに役立ちます。
AIを活用した採用における監督強化は、主観的あるいは明白な差別的要素に基づいて候補者が不利益を被る可能性を徐々に低減させるでしょう。しかし、これらの法律は新しく曖昧であるため、AI企業は候補者の保護を自らの責任として確保すべきです。
あらゆるリスクを負うとしても、採用においてAIを適切に活用することのメリットは比類のないものです。効率性、正確性、公平性といったあらゆる面で、AIの活用はプラスの影響を与える可能性があり、差し迫った監督当局の介入によってAIの導入が阻まれるべきではありません。
-
スイートテッドのCTO、アーロン・マイヤーズ博士
マイヤーズ博士は、AIを活用した評価主導型採用ネットワーク「Suited」のCTOです。Suitedは、専門サービス企業があらゆるバックグラウンドを持つ若手候補者を正確かつ機密性を保ちながら公平に発掘し、競争力のある若手キャリアの機会に紹介するために利用しています。Suited設立前は、採用プロセスからバイアスを排除することに特化した、別のAI採用スタートアップ企業の共同創業者でした。テキサス大学で計算科学、工学、数学の博士号を取得し、機械学習モデルの構築を専門としています。