責任ある生成 AI ソリューションを管理する
潜在的な損害をマップし、その存在を測定し、ソリューションに軽減策を実装する方法を開発したら、ソリューションをリリースする準備を整えることができます。 その前に、リリースとその後の操作を確実に成功させるために役立ついくつかの考慮事項があります。
プレリリース レビューを完了する
生成型 AI ソリューションをリリースする前に、組織と業界のさまざまなコンプライアンス要件を特定し、適切なチームにシステムとそのドキュメントを確認する機会が与えられていることを確認します。 一般的なコンプライアンス レビューは次のとおりです。
- 法律
- プライバシー
- 安全
- アクセシビリティ
ソリューションをリリースして操作する
リリースが成功するには、計画と準備が必要です。 次のガイドラインを考慮してください。
- 制限されたユーザー グループにソリューションを最初にリリースできるようにする、段階的デリバリー計画 を考案します。 このアプローチを使用すると、より多くのユーザーにリリースする前に、フィードバックを収集し、問題を特定できます。
- 予期しないインシデントへの対応にかかった時間の見積もりを含む インシデント対応計画 を作成します。
- インシデントが発生した場合にソリューションを以前の状態に戻す手順を定義する ロールバック 計画 を作成します。
- 有害なシステム応答が検出されたときにすぐにブロックする機能を実装します。
- システムの誤用が発生した場合に特定のユーザー、アプリケーション、またはクライアント IP アドレスをブロックする機能を実装します。
- ユーザーがフィードバックを提供し、問題を報告する方法を実装します。 特に、生成されたコンテンツを "不正確"、"不完全"、"有害"、"不快"、またはその他の問題として報告できるようにします。
- ユーザーの満足度を判断し、機能のギャップや使いやすさの課題を特定できるテレメトリ データを追跡します。 収集されるテレメトリは、プライバシーに関する法律と、ユーザーのプライバシーに対する組織のポリシーとコミットメントに準拠している必要があります。
Azure AI Foundry Content Safety を利用する
いくつかの Azure AI リソースでは、コンテンツ フィルターを使用した言語、ビジョン、Azure OpenAI など、操作するコンテンツの組み込みの分析が提供されます。
Azure AI Foundry Content Safety では、AI と副操縦をリスクから安全に保つことに重点を置いて、より多くの機能が提供されます。 これらの機能には、入力または生成の両方から不適切または不快な言語を検出し、危険または不適切な入力を検出することが含まれます。
Foundry Content Safety の機能は次のとおりです。
特徴 | 機能 |
---|---|
プロンプト シールド | 言語モデルに対するユーザー入力攻撃のリスクをスキャンします |
根拠性検出 | テキスト応答がユーザーのソース コンテンツに固定されているかどうかを検出します |
保護されたマテリアルの検出 | 既知の著作権で保護されたコンテンツをスキャンします |
カスタム カテゴリ | 新しいまたは出現しているパターンのカスタムカテゴリを定義する |
Foundry Content Safety を使用するための詳細とクイック スタートについては、サービスの ドキュメント ページ を参照してください。