この記事では、Azure で AI ワークロードを実行している組織に向けた、管理に関する推奨事項を紹介します。 AI 用の Azure サービスとしてのプラットフォーム (PaaS) ソリューションに焦点を当てています。
AI のデプロイを管理する
一貫したデプロイ構成により、すべての AI 環境でセキュリティ、コンプライアンス、運用効率が向上します。 展開アプローチを標準化する組織は、構成の誤差を軽減し、信頼性の高いパフォーマンスを確保します。 ビジネス要件に合った体系的な展開プラクティスを実装する必要があります。 その方法は次のとおりです。
組織に適した運用モデルを選択します。 デプロイ モデルでは、データ ドメインやビジネス機能などの論理境界が作成され、自律性、ガバナンス、コスト追跡が保証されます。 複数の部署間で 1 つのインスタンスを共有するとコスト追跡が制限され、リソースの制約が作成されるため、各部署に Azure AI Foundry のインスタンスをデプロイします。 ユース ケースごとにプロジェクトを定義し、チームが共有リソースを必要とする場合にのみハブベースのプロジェクトを使用します。 詳細については、「必要な Azure AI Foundry プロジェクトの種類 」と 「AI Foundry リソースの種類」を参照してください。
要件を満たすリージョンにデプロイします。 モデルの配置は、最適なパフォーマンスを決定する特定の待機時間、スループット、コンプライアンスの要件に依存します。 Azure リージョン の製品の可用性 テーブルを確認し、デプロイ前に必要なハードウェア、機能、およびデータ所在地ルールのサポートを確認して、パフォーマンスと規制の調整を確保します。
AI デプロイ リソースを継続的に監視します。 リソース監視は、パフォーマンス データをキャプチャし、ユーザーに影響を与える前に問題を特定します。 診断設定では、 Azure AI Foundry や Azure AI サービスを含むすべての主要サービスのログとメトリックがキャプチャされます。 この監視により、システムの正常性が可視化され、プロアクティブな問題の解決が可能になります。 「Azure Monitor ベースライン アラート」も参照してください。
デプロイ リソースを一元的に管理します。 一元化されたリソース管理により、すべての AI デプロイで一貫した監視と制御が提供されます。 Azure AI Foundry の 管理センター を使用して、Foundry プロジェクトを構成し、リソース使用率を追跡し、アクセスを管理します。 このアプローチにより、標準化されたリソースの割り当てとコスト管理が保証されます。 また、Azure AI Foundry のコストも監視します。
複数のデプロイの統合ゲートウェイとして Azure API Management を使用します。 API Management は、複数のアプリケーションまたはチームをオンボードするときに、一貫したセキュリティ、スケーラビリティ、レート制限、トークン クォータ、一元的な監視を提供します。 このアプローチにより、アクセス パターンが標準化され、AI サービス全体の管理オーバーヘッドが軽減されます。 詳細については、「 ゲートウェイ経由で Azure OpenAI やその他の言語モデルにアクセスする」を参照してください。
AI モデルを管理する
モデルの監視により、出力は責任ある AI の原則と一致し、時間の経過と共に精度が維持されます。 AI モデルでは、データの変更、ユーザーの行動、または不正確な結果や倫理的な懸念につながる可能性がある外部要因による誤差が発生します。 これらの変更を事前に検出して対処するには、継続的な監視を実装する必要があります。 その方法は次のとおりです。
モデル出力の品質と配置を監視します。 監視プロセスにより、ワークロードは責任ある AI ターゲットと一致し、期待される結果が得られます。 Azure AI Foundry の 監視機能 を使用し、 アプリケーションを監視します。 Azure AI Foundry Agent Service の場合は、 エージェントのデプロイを監視します。
モデルのパフォーマンス メトリックを継続的に追跡します。 パフォーマンスの監視は、精度または応答品質が許容されるしきい値を下回ったときの問題を特定するのに役立ちます。 Azure AI Foundry の トレース を使用して、ベクター検索結果の応答時間と精度の待機時間を監視します。
監視を強化するために、生成型 AI ゲートウェイを実装することを検討してください。 Azure API Management を使用すると、ソース IP 収集、入力テキスト追跡、出力テキスト分析など、プラットフォームがネイティブに提供しないログ記録と監視機能が可能になります。 このアプローチでは、包括的な監査証跡と監視データが提供されます。 詳細については、「Azure OpenAI Service 言語モデルのログ記録と監視の実装」を参照してください。
コンピューティングを選択します。 Azure AI Foundry では、コンピューティング リソースは、基本的な モデルのデプロイ と 微調整をサポートします。 コンピューティング インスタンス、クラスター、およびサーバーレス オプション全体でコンピューティングの種類、ランタイム、シャットダウン期間を標準化します。
AI データを管理する
データ品質によって、AI モデルの出力の精度と信頼性が決まります。 高品質のデータ標準を維持している組織は、モデルのパフォーマンスを向上させ、偏った結果や不正確な結果のリスクを軽減します。 一貫したモデル品質を確保するには、体系的なデータ管理プラクティスを実装する必要があります。 その方法は次のとおりです。
データドリフトを継続的に監視します。 データ ドリフト検出は、入力データ パターンがトレーニング ベースラインから変化するタイミングを識別します。これによって、時間の経過とともにモデルのパフォーマンスが低下する可能性があります。 生成型 AI ワークロードと非変性 AI ワークロードの両方で精度とデータドリフトを追跡し、モデルが現在の状態に対して関連性と応答性を維持できるようにします。 Azure AI Foundry の評価を使用して、監視ベースラインと検出しきい値を確立します。
パフォーマンス低下のための自動アラートを設定します。 アラート システムは、モデルのパフォーマンスが許容されるしきい値を下回ったときに早期警告を提供し、問題がユーザーに影響を与える前にプロアクティブな介入を可能にします。 カスタム アラートを構成してパフォーマンスの偏差を検出し、モデルで再トレーニングまたは調整が必要な場合に修復ワークフローをトリガーします。
品質データ処理標準を確保します。 データ準備の要件は AI ワークロードの種類によって異なりますが、すべての実装で一貫した品質基準を維持する必要があります。 生成 AI のために、AI モデルが最適にデータを利用できるように、構造化されたデータを正しい形式で適切にチャンク化、エンリッチメント、埋め込みを行います。 詳細については、「RAGソリューション の設計と開発のガイド」を参照してください。
ビジネス継続性を実装する
ビジネス継続性により、リージョンの停止やサービスの中断時に AI サービスを引き続き利用できます。 サービスの中断は、AI 機能に依存する重要なビジネス運用に影響を与える可能性があります。組織の回復性のために継続性の計画が不可欠になります。 サービスの可用性を維持するには、複数リージョンのデプロイ戦略を実装する必要があります。 その方法は次のとおりです。
複数のリージョンに AI サービスをデプロイします。 複数リージョンのデプロイでは、個々のリージョンで障害や容量の制約が発生したときにサービスの可用性を維持する冗長性が提供されます。 Azure AI Foundry と AzureOpenAI の複数リージョンデプロイ戦略を実装して、一貫したサービス配信を確保します。
自動フェールオーバー メカニズムを構成します。 自動フェールオーバーにより、復旧時間が短縮され、プライマリ リージョンが使用できなくなった場合の継続的なサービス配信が保証されます。 サービス中断中のシームレスな移行を可能にするために、リージョン間のトラフィック ルーティングと負荷分散を設定します。