この記事では、App Service を使用してインテリジェントなアプリケーションを構築するのに役立つ言語固有のチュートリアルとリソースについて説明します。
Azure App Service を使用すると、複数のプログラミング言語とフレームワークにわたって AI 機能を Web アプリケーションに簡単に統合できます。 強力な Azure OpenAI モデルを使用する場合、ローカルの小規模言語モデル (SLB) をアプリと直接デプロイする、エージェント Web アプリケーションを構築する、OpenAPI を使用する AI エージェントのツールとしてアプリを公開する、モデル コンテキスト プロトコル (MCP) サーバーをホストする、または取得拡張生成 (RAG) などの高度なパターンを実装する場合、App Service は AI を利用するアプリケーションに必要な柔軟で安全なプラットフォームを提供します。
App Service には、AI を利用したアプリケーションを開発およびデプロイするためのいくつかの利点があります。
- Azure AI サービスとのネイティブ統合 - セキュリティで保護されたパスワードレス認証のためにマネージド ID を使用して Azure OpenAI やその他の AI サービスにシームレスに接続する
- ローカル SLM のサポート - サイドカー拡張機能を使用して、より小さな言語モデルをアプリケーションに直接デプロイする
- エンタープライズ レベルのセキュリティ - ネットワーク分離、エンドツーエンドの暗号化、ロールベースのアクセス制御を実装する
- GitHub 統合による DevOps の簡素化 - GitHub Actions を使用して CI/CD パイプラインを合理化し、AI 支援型開発用に統合された GitHub Copilot を使用して GitHub Codespaces を活用し、開発から運用環境へのデプロイまでエンドツーエンドのワークフローを作成する
App Service でチャットボットと RAG アプリケーションを構築する
チャットまたは取得拡張生成 (RAG) に Azure OpenAI を使用するインテリジェントな Web アプリを構築します。 これらのチュートリアルでは、Azure OpenAI と (必要に応じて) Azure AI Search を統合し、セキュリティで保護された認証にマネージド ID を使用して、優先言語でチャットボットと RAG ソリューションを作成する方法について説明します。
エージェント Web アプリケーションを構築する
Microsoft セマンティック カーネル、LangGraph、Azure AI Foundry Agent Service などのフレームワークを使用してエージェント機能を追加することで、AI 時代に合わせて従来の CRUD Web アプリケーションを変換します。 ユーザーがフォーム、テキスト ボックス、ドロップダウンを移動する代わりに、アプリが提供するのと同じ操作をインテリジェントに実行する "エージェントと話す" ことを可能にする会話インターフェイスを提供できます。 このアプローチにより、Web アプリはユーザーに代わって推論、計画、およびアクションを実行できます。
Azure AI Foundry Agent の OpenAPI としての App Service ツール
OpenAPI を使用して Azure AI Foundry Agent Service に機能を公開することで、既存の Web アプリを強化します。 多くの Web アプリには既に REST API が用意されているため、REST API をツールとして呼び出すことができるエージェントへの統合に最適な候補になります。 Azure AI Foundry Agent Service をこれらの API に接続することで、少ないコードで強力で機能豊富なエージェントを迅速に作成できます。
App Service as Model Context Protocol (MCP) サーバー
Web アプリを モデル コンテキスト プロトコル (MCP) サーバーとして統合して、GitHub Copilot Chat、Cursor、Winsurf などの主要な個人 AI エージェントの機能を拡張します。 MCP を介してアプリの API を公開することで、Web アプリが既に提供している独自の機能とビジネス ロジックを使用して、これらのエージェントを、大規模な開発作業や再設計なしで過給できます。
ローカル SLM (サイドカー コンテナー) を使用する
ローカルの小規模言語モデル (SLM) をサイドカー コンテナーとして使用して Web アプリをデプロイし、App Service 環境内で AI モデルを完全に実行します。 送信呼び出しや外部 AI サービスの依存関係は必要ありません。 このアプローチは、すべての AI 処理とデータがアプリに対してローカルのままであるため、データのプライバシーまたはコンプライアンスに関する厳しい要件がある場合に最適です。 App Service には、サイドカーで SLB を実行するために必要な、高パフォーマンスのメモリ最適化価格レベルが用意されています。