Skip to content

AIの導入と倫理

JSTQB Foundation Level AIテスティング(CT-AI)における、AIの基本概念と倫理的な課題について整理します。

AIの定義は時代とともに変化します。 かつては「AI」と呼ばれていた技術(例:文字認識など)が、一般的になりすぎると「単なるソフトウェア」と見なされるようになる現象をAI効果と呼びます。

  • 狭義のAI (Narrow AI): 特定のタスク(チェス、画像認識など)において人間を凌駕するが、それ以外はできない。現在のAIはすべてこれに分類されます。
  • 汎用AI (General AI): 人間と同じように、あらゆる知的タスクを学習・実行できるAI。まだ実現していません。
  • スーパーAI (Super AI): 人間の知能をあらゆる面ではるかに超えるAI。

AIシステムは、従来のソフトウェア以上に倫理的な問題を引き起こす可能性があります。

  1. 公平性 (Fairness):
    • 学習データに含まれる差別や偏見(バイアス)をAIが学習し、特定の人種や性別に対して不公平な判断を下すリスク。
  2. 説明責任 (Accountability):
    • AIが事故を起こした際(自動運転車の事故など)、誰が責任を負うのか(開発者、ユーザー、あるいはAI自体か)という問題。
  3. 透明性 (Transparency):
    • AIがなぜその結論に至ったのか、プロセスがブラックボックス化しやすく、人間が理解・検証できるようにする必要性(XAI: 説明可能なAI)。