次の方法で共有


Azure AI Foundry 用の信頼できる AI

この記事では、信頼できるエージェントを構築およびデプロイするためのリソースの概要について説明します。 これには、エージェントライフサイクルのすべての段階で制御とチェックポイントを使用したエンドツーエンドのセキュリティ、可観測性、ガバナンスが含まれます。 Microsoft が推奨する基本的な開発ステップは、Microsoft の責任ある AI 基準に根ざしており、この基準で規定されたポリシー要件に Microsoft 自身のエンジニアリング チームも従っています。 Standard のコンテンツの多くはパターンに従い、潜在的なコンテンツ リスクの検出、保護、管理をチームに依頼します。

Microsoft のアプローチは、AI の原則に根ざしたガバナンス フレームワークによって導かれ、製品要件を確立し、"北の星" として機能します。生成型 AI のビジネス ユース ケースを特定するときは、まず AI システムの潜在的なリスクを検出して評価し、重要な焦点領域を特定します。

これらのリスクを特定した後に、それが AI システム内にどれだけ広がっているかを体系的な測定を通じて評価します。このことは、注意が必要な領域に優先度を付けるのに役立ちます。 その後、これらのリスクに対してモデルとエージェント レベルで適切な保護を適用します。

最後に、デプロイと運用の準備、継続的なガバナンスをサポートするための監視の設定など、運用環境のリスクを管理するための戦略を検討し、コンプライアンスを確保し、アプリケーションの稼働後に新しいリスクを表面化します。

Microsoft の RAI プラクティスに合わせて、これらの推奨事項は次の 3 つの段階に分かれています。

  • デプロイの前後にエージェントの品質、安全性、セキュリティのリスクを検出します。
  • セキュリティ リスク、望ましくない出力、安全でないアクションから、モデル出力レベルとエージェント ランタイム レベルの両方で保護します。
  • トレースおよび監視ツールとコンプライアンス統合を通じてエージェントを管理します。

セキュリティアラートと推奨事項

Defender for Cloud のセキュリティ アラートと推奨事項を表示して、[ リスクとアラート ] セクションでセキュリティ体制を改善できます。 セキュリティ アラートは、AI ワークロードで脅威が特定されたときに Defender for AI Services プランによって生成される通知です。 これらのアラートに対処するには、Azure portal または Defender ポータルでアクションを実行できます。

責任ある AI の詳細を確認する