Safety by Design Labでは、AIシステムに関連するリスクを特定、理解、軽減するための研究開発に取り組んでいます。具体的には、以下の重点分野に焦点を当てています。
1. 偏見と公平性
- アルゴリズムのバイアス : AIシステムは、トレーニングデータに存在する偏見を誤って学習し、差別的な結果につながる可能性があります。
- 公平性: AIが社会のすべての層に利益をもたらし、既存の不平等を悪化させないことが重要です。
2. 倫理的配慮
- 道徳的および倫理的使用: AIは、倫理基準と社会的価値観に沿った方法で開発および使用される必要があります。
- 自律性と制御: AIシステムの自律性と人間による監視および制御のバランスを適切に取る必要があります。.
3. 透明性と説明責任
- 説明可能性の欠如: AIアルゴリズムの複雑さは、判断に至る過程を理解することを困難にし、信頼を損なう可能性があります。
- 責任の不明確さ:
AIシステムによる行動や決定に対して誰が責任を負うのかを明確にする必要があります。