「このAIの回答、信じていいの?」過去の採用支援や顔認証システムの失敗から見える、生成AI…

2026/04/02 09:19 

  • このエントリーをはてなブックマークに追加
 「この回答、本当に信じていいのかな?」―。
 仕事の資料作成からプライベートの悩み相談まで、生成AI(人工知能)が日常のパートナーとなりつつある昨今。その利便性を享受する一方で、画面越しに返ってくる回答に、ふと底知れぬ不信感を抱く人は少なくないだろう。
 静岡新聞社が衆院選に合わせて実施したアンケートでも、生成AIを利用しない理由として「もっともらしい嘘をつく」「誤情報の懸念がある」といった回答が相次ぎ、回答の信頼性に対する疑念が垣間見える。
 これほど便利で身近な存在になりつつあるのに、なぜ私たちは生成AIを完全に信じ切ることができないのだろうか。その背景には、AIが真実を理解しているのではなく、膨大なデータから確率的に「もっともらしい回答」を導き出しているに過ぎないという側面がある。全体像が見えない「ブラックボックス」への不透明さが、利用者の不安を増幅させている。
 「中身が見えない以上、AIの判断に偏りや差別が紛れ込んでいる可能性がある」。こうした技術の「不透明さ」から生じる実害は「実は10年ほど前から表面化していた」と、静岡大DE&I推進室の佐野敦子講師は指摘する。
 女性を低評価にした採用支援AIや、特定の人種・ジェンダーを誤認しやすい顔認証AIなどの事例を挙げ、普及する生成AIにおいて、特定の属性が不正確に扱われる危うさに警鐘を鳴らす。
■採用支援AIが再現した「女性差別」
 「AIが選んだのは、男性だけだった」。2018年、米EC大手アマゾン・コムが開発した採用支援AIが、女性を差別する傾向にあるとして稼働停止に追い込まれた。採用効率の向上を目的とした技術が、ある特定の属性を排除するシステムへと変貌してしまったのだ。
 原因は、AIが学習した過去10年間の履歴書データにあった。
 IT業界の歴史的背景から採用者の多くを男性が占めていた実績に基づき、AIは「男性であること」を採用の好条件だと誤認。データの背景にある社会的要因を考慮せず、統計的な傾向をそのまま学習した結果、履歴書に「女性」という文言が含まれるだけで自動的に評価を下げるアルゴリズムを構築していた。
 「AIが社会に存在するバイアスをそのまま取り込み、多数派(マジョリティ)の論理を優先してしまった例だ」。佐野講師は、最新技術が図らずも「過去の不平等」を忠実に再現してしまった構造をそう分析する。
静岡新聞

静岡ニュース

静岡ニュース一覧>

注目の情報