責任ある AI
ソフトウェア エンジニアは、ソフトウェアがユーザーや社会全般に与える影響を考慮することが重要です。その責任ある使用に関する考慮事項を含む。 アプリケーションに人工知能が組み込まれている場合、これらの考慮事項は、AI システムがどのように機能し、意思決定を通知するかという性質上、特に重要です。多くの場合、確率論的モデルに基づいています。これは、トレーニングされたデータに依存します。
AI ソリューションの人間に似た性質は、アプリケーションをユーザーフレンドリにする上で大きな利点ですが、ユーザーがアプリケーションの適切な意思決定を行う能力に大きな信頼を置く可能性もあります。 誤った予測や AI 機能の誤用を通じて個人やグループに損害を与える可能性は大きな懸念事項であり、AI 対応ソリューションを構築するソフトウェア エンジニアは、リスクを軽減し、公平性、信頼性、損害や差別からの適切な保護を確保するために十分な考慮を適用する必要があります。
Microsoft で採用されている責任ある AI の主要な原則について説明しましょう。
公平性
AI システムでは、すべての人を公平に扱う必要があります。 たとえば、銀行のローン承認申請をサポートする機械学習モデルを作成するとします。 モデルは、性別、民族性、または特定の申請者グループに不公平な利益または不利益をもたらす可能性のあるその他の要因に基づくバイアスを組み込まずに、ローンを承認すべきかどうかを予測する必要があります。
機械学習システムの公平性は、継続的な研究の非常に活発な領域であり、機械学習モデルの不公平性を評価、定量化、軽減するための一部のソフトウェア ソリューションが存在します。 ただし、公平性を確保するにはツールだけでは不十分です。 アプリケーション開発プロセスの最初から公平性を考慮する。トレーニング データを慎重に確認して、影響を受ける可能性のあるすべての対象を代表していることを確認し、開発ライフサイクル全体を通じてユーザー人口のサブセクションの予測パフォーマンスを評価します。
信頼性と安全性
AI システムは、確実かつ安全に実行する必要があります。 たとえば、自律走行車用の AI ベースのソフトウェア システムを考えてみましょう。または、患者の症状を診断し、処方箋を推奨する機械学習モデル。 このようなシステムの信頼性が低い場合、人命に大きなリスクが生じる可能性があります。
他のソフトウェアと同様に、AI ベースのソフトウェア アプリケーション開発では、リリース前に想定どおりに動作するように、厳格なテストと展開管理プロセスを実施する必要があります。 さらに、ソフトウェア エンジニアは、機械学習モデルの確率論的性質を考慮し、予測の信頼度スコアを評価するときに適切なしきい値を適用する必要があります。
プライバシーとセキュリティ
AI システムは安全であり、プライバシーを尊重する必要があります。 AI システムが基になっている機械学習モデルは、大量のデータに依存します。データには、非公開にする必要がある個人情報が含まれている可能性があります。 モデルがトレーニングされ、システムが運用環境に入った後でも、新しいデータを使用して予測を行ったり、プライバシーやセキュリティの問題の対象となる可能性のあるアクションを実行したりします。データと顧客コンテンツを保護するための適切なセーフガードを実装する必要があります。
包括性
AI システムは、すべての人に力を与え、人々を引き付ける必要があります。 AI は、身体能力、性別、性的指向、民族性、その他の要因に関係なく、社会のあらゆる部分に利益をもたらす必要があります。
包括性を最適化する 1 つの方法は、アプリケーションの設計、開発、テストに、できるだけ多様なユーザー グループからの入力が含まれていることを確認することです。
透明性
AI システムは理解できる必要があります。 ユーザーは、システムの目的、動作方法、および予想される制限事項を十分に認識する必要があります。
たとえば、AI システムが機械学習モデルに基づいている場合は、通常、モデルのトレーニングに使用されるケースの数や、予測に最も影響を与える特定の特徴など、予測の精度に影響する可能性のある要因をユーザーに認識させる必要があります。 予測の信頼度スコアに関する情報も共有する必要があります。
AI アプリケーションが個人データに依存している場合(顔認識システムなど)、ユーザーの画像を認識して認識する場合。データの使用方法と保持方法、およびデータにアクセスできるユーザーを明確にする必要があります。
アカウンタビリティ
人は AI システムに対して責任を負う必要があります。 多くの AI システムは自律的に動作するように見えますが、最終的には、使用するモデルをトレーニングして検証し、システム全体が責任要件を満たすようにモデル予測に基づく決定を行うロジックを定義した開発者の責任です。 この目標を達成するために、AI ベースのソリューションの設計者と開発者は、明確に定義された責任ある法的標準をソリューションが確実に満たすように、ガバナンスと組織の原則のフレームワーク内で作業する必要があります。