責任ある AI
責任ある AI について理解する重要なポイントは次のとおりです。
- 公平性: AI モデルは、データを使用してトレーニングされます。データは通常、人間によってソース化され、選択されます。 データ選択基準、またはデータ自体に無意識の バイアス が反映され、モデルが差別的な出力を生成する可能性がある大きなリスクがあります。 AI 開発者は、トレーニング データの偏りを最小限に抑え、公平性のために AI システムをテストするように注意する必要があります。
- 信頼性と安全性: AI は確率論的モデルに基づいていますが、万能ではありません。 AI を利用するアプリケーションでは、これを考慮し、それに応じてリスクを軽減する必要があります。
- プライバシーとセキュリティ: モデルは、個人情報を含むデータを使用してトレーニングされます。 AI 開発者は、トレーニング データのセキュリティを確保し、トレーニング済みのモデル自体を使用して個人または組織の非公開の詳細を明らかにできないようにする責任があります。
- 包括性: AI が生活を改善し、成功を促進する可能性は、すべての人に公開される必要があります。 AI 開発者は、ソリューションが一部のユーザーを除外しないように努める必要があります。
- 透明性: AI は "魔法" のように見えることがありますが、システムのしくみと潜在的な制限事項をユーザーに認識してもらう必要があります。
- アカウンタビリティ: 最終的には、AI ソリューションを開発して配布するユーザーと組織は、そのアクションに対して責任を負います。 AI モデルとアプリケーションを開発している組織は、ガバナンスのフレームワークを定義して適用し、責任ある AI 原則を確実に作業に適用できるようにすることが重要です。
責任ある AI の例
責任ある AI プラクティスを適用する必要があるシナリオの例を次に示します。
- AI を利用した大学入学システムをテストして、関連する学術基準を考慮しながら、無関係な人口統計要因に基づく根拠のない差別を回避しながら、すべてのアプリケーションを公平に評価するようにする必要があります。
- コンピューター ビジョンを使用して物体を検出する AI を利用したロボット ソリューションは、意図しない損害や損傷を回避する必要があります。 この目標を達成する 1 つの方法は、物理オブジェクトを操作する前に確率値を使用してオブジェクト識別の "信頼度" を判断し、信頼レベルが特定のしきい値を下回る場合はアクションを回避することです。
- 空港やその他の安全なエリアで使用されている顔識別システムは、不要になったらすぐに一時的なアクセスに使用される個人画像を削除する必要があります。 さらに、セーフガードは、画像を表示する必要がないオペレーターやユーザーが画像にアクセスできないようにする必要があります。
- 音声ベースの対話を提供する Web ベースのチャットボットでは、聴覚障磉のあるユーザーがシステムを使用できないようにするために、テキスト キャプションも生成する必要があります。
- AI ベースのローン承認アプリケーションを使用する銀行は、AI の使用を開示し、トレーニングされたデータの特徴を記述する必要があります (機密情報を明らかにしません)。