による新しい研究である。 フルグとカプラロ(2024) GPT-3やGPT-4のような大規模言語モデル(LLM)におけるジェンダーバイアスを調査した。

その結果、重要なパターンが明らかになった:

1)フレーズにおけるジェンダー・ステレオタイピング:GPTモデルは一貫して、男性的ステレオタイプを含むフレーズを女性作家に帰属させる頻度が、その逆よりも高い。

例えば、”I love playing football!従兄弟のマイケルと練習している」というフレーズは、GPTによって一貫して女性ライターに割り当てられ、注目すべき非対称性が浮き彫りになった。

2)道徳的ジレンマと偏見:LLMは極端な状況において、男性に対する暴力を女性に対する暴力よりも容認できると判断する。

例えば、GPT-4は、核の黙示録を防ぐために女性が男性に暴力をふるうことには賛成するが、同じ目的で男性が女性に暴力をふるうことには反対する。

このようなバイアスは、GPT-4にモラル違反の順位を直接尋ねたときには現れないため、暗黙的なものであり、これらのモデルの訓練と微調整の過程における、より深いシステム的な問題を示している。

この研究は、AIシステムにおけるバイアスについて重要な問題を提起している:

  1. トレーニングデータの重要性学習データに偏りがあると、AIモデルにも偏りが生じます。 トレーニングデータがバランスの取れた代表的なものであることを確認する必要がある。
  2. 微調整の結果:AIをより包括的なものにしようとする努力は、予期せぬ結果をもたらすかもしれない。 微調整がどのようにAIの行動を形成するかを理解するためには、さらなる研究が必要である。
  3. 透明性の必要性:AIシステムがどのような判断を下すのかを理解することは極めて重要だ。 これにより、バイアスを特定し、軽減することができる。

この調査は、特にこうしたAIシステムが私たちの生活のより多くの側面に組み込まれるにつれて、意図しない差別を防ぐために、包括性の取り組みにおける慎重な管理の重要性を強調している。

責任あるAI開発の確保について、さらなる議論を期待している!