セキュリティは、Microsoft のアプローチの基礎となります。これは、顧客データを保護し、システムの整合性をサポートし、ユーザーの安全機能を含みます。 このコミットメントは、 プライバシー、コンプライアンス、信頼に関する広範な原則に沿っています。 この記事では、Microsoft 365 Copilot をセキュリティで保護するアプローチについて説明し、AI セキュリティ体制を強化するために使用できるガイダンスを提供します。
Microsoft 365 Copilot をセキュリティで保護するために Microsoft が行っていること
Microsoft では、多層防御戦略を適用して、Microsoft 365 Copilot をあらゆるレベルでセキュリティで保護し、エンタープライズ のセキュリティ、プライバシー、コンプライアンスの基準に基づきます。 つまり、1 つのレイヤーが侵害された場合でも、他のレイヤーは保護を提供します。 Microsoft のアプローチは 責任ある AI 原則 によって導かれ、最近拡張された Secure Future Initiative によって強化されています。
AI の包括的なセキュリティ体制には、次のものが含まれます。
- エンジニアリングと開発のプラクティスをセキュリティで保護する
- 脅威インテリジェンスとリスク軽減
- 設計によるプライバシーとコンプライアンス
この基盤の各側面は、AI の機能とツールを自信を持って採用するための、より安全なデジタル エコシステムを形成します。
さらに、Microsoft は責任ある AI 原則ベースのガバナンスを AI ライフサイクル全体に組み込み、システムが倫理的かつ安全に開発およびデプロイされるようにしています。 この戦略は、信頼できる、責任ある、包括的な方法で AI の動作を保証するのに役立ちます。 責任ある AI プログラムの中核となる部分は、潜在的なリスクを特定し、発生する傾向を測定し、それらを管理するための軽減策を構築するように設計されています。「 Microsoft 365 Copilot の透明性に関するメモ: リスクのマッピング、測定、管理」で説明されています。
エンジニアリングと開発のプラクティスをセキュリティで保護する
セキュリティは、 セキュリティ開発ライフサイクル (SDL) を通じて一から統合されます。 この統合は、開発プロセスの早い段階で脆弱性を特定して軽減するのに役立ちます。 Microsoft では、Microsoft AI テクノロジを使用する開発者、エンジニア、セキュリティの専門家向けに、カスタマイズされたセキュリティ ガイダンスとベスト プラクティスも提供しています。 「AI の強力なセキュリティ体制を構築する」を参照してください。
評価とテスト
Microsoft では、内部の赤いチーミングを実施し、侵入テストを含むサード パーティの評価を委託しています。 これらの評価は、Microsoft 365 Copilot の実装を従来の脆弱性に対して評価し、 LLM の Open Web Application Security Project (OWASP) Top 10 を評価するのに役立ちます。 評価を確認するには、 Service Trust Portal にアクセスします。
実行コントロール
Microsoft 365 Copilot では、ランサムウェアの生成やリモート コードの実行など、誤用を防ぐために、セキュリティで保護されたコーディングとアーキテクチャ上の保護策が適用されます。 悪意のあるパターンは、迅速な検査とコンテンツのフィルター処理によってブロックされますが、サンドボックス化は、Microsoft 365 Copilot が制約付き実行境界内で動作することを保証するのに役立ちます。 詳細については、「 Microsoft 365 Copilot アーキテクチャとそのしくみ」を参照してください。
脅威インテリジェンスとリスク軽減
Microsoft 365 Copilot は、脅威インテリジェンス、AI 固有の検出、アーキテクチャの包含を組み合わせた多層防御戦略によって保護されています。 Microsoft では、グローバル脅威インテリジェンスを使用して、敵対攻撃、モデル操作、およびデータ漏洩を監視します。 最新の結果を確認するには、 Microsoft セキュリティ: 脅威インテリジェンスに関するブログを参照してください。
主なプラクティスは次のとおりです。
- 内部の赤いチーミングとサード パーティの侵入テスト
- 悪意のある入力をブロックするプロアクティブな識別
- 機械学習分類子
- メタプロンプティング
- 脱獄、eXternalized Prompt Injection Attacks (XPIA)、エージェントの脆弱性など、迅速な挿入試行を検出するためのコンテンツ フィルタリング
レポート、ホワイトペーパー、その他のリソースを表示するには、 Service Trust Portal にアクセスします。
Microsoft 365 Copilot は、マークダウンサニタイズ、悪意のあるプロンプト分類子、セッションのセキュリティ強化、コンテンツ セキュリティ ポリシーなど、階層化された防御を通じて XPIA とエージェントの脆弱性を軽減します。 これらの保護は、Microsoft 365 Copilot サーフェス全体で未承認のアクションとデータ流出を防ぐのに役立ち、顧客の操作を必要とせずに Microsoft のクラウド インフラストラクチャを介して自動的にデプロイされます。 この手法には、継続的なテストと封じ込め戦略も含まれます。
設計による包含
挿入試行が成功した場合、 Microsoft 365 Copilot のアーキテクチャは 、設計による封じ込みを確保するのに役立ちます。 Microsoft 365 Copilot は、ユーザーの ID とアクセス コンテキスト内で動作し、潜在的な侵害の爆発半径を制限します。
- Microsoft 365 Copilot は、ユーザーの ID とテナント のコンテキスト内で動作します
- Microsoft 365 Copilot は、ユーザーが表示を許可されているデータにのみアクセスします
- すべての操作のスコープは既存のアクセス許可に限定され、横移動や未承認のデータ アクセスを防ぎます
迅速なインジェクション防御
Microsoft は、迅速な挿入のリスクを軽減するために、Microsoft 365 Copilot プロンプト フロー全体で多層防御戦略を採用しています。 既定でアクティブであり、セットアップを必要としない保護機能の例を次に示します。
- ユーザーがループ内設計を使用すると、ユーザーは AI によって生成されたコンテンツを確認、変更、または拒否できます。
- スパム、詐欺、不審なコンテンツ フィルタリングは、プロンプトで悪意のある指示、フィッシング詐欺、不正な資料をブロックするのに役立ちます。
- Microsoft 365 Copilot は、迷惑メールや信頼されていないMicrosoft Teamsチャット (外部連絡先からのチャットなど) を無視します。
- Microsoft 365 Copilot では、web ブロックBing尊重して、Web 検索中にアダルト サイト、低機関サイト、悪意のあるサイトを除外します。
- Microsoft 365 Copilot はステートレス LLM アーキテクチャを使用して動作します。 要求は、テナント スコープの セマンティック インデックス作成を 使用してリアルタイムで処理され、データ アクセスと関連性がユーザーの組織のコンテキストに厳密に限定されるようにします。
Microsoft がデータを保護し、プライバシー制御を適用し、AI 操作をセキュリティで保護する方法の詳細については、「 Microsoft 365 Copilot のデータ、プライバシー、セキュリティ」を参照してください。
データ流出防止
Microsoft 365 Copilot の階層化されたセキュリティ モデルは、次のようなデータ流出の可能性があるシナリオなど、従来および新たな脅威に対処します。
- 認証されていないイメージ URL。ユーザーが機密データを含むイメージを生成し、ブラウザー ツールを使用して URL を抽出した後、画像を外部で共有します。 認証なしでイメージにアクセスできる場合は、 条件付きアクセス や 秘密度ラベルなどのエンタープライズコントロールをバイパスできます。
- あるテナントのユーザーが悪意のあるイメージを生成し、別のテナントのユーザーと匿名 URL を共有する、QR コードなどの悪意のあるイメージ。 URL が認証によって保護されていない場合、アクセス制御が適用されない可能性があります。
このようなシナリオを軽減するために、Microsoft は多層防御戦略を適用します。 この戦略には、データ漏えいベクトル、敵対的な誤用、未承認のアクセス パターンの継続的な監視が含まれます。
Microsoft 365 Copilot によって生成されたコンテンツは、他の Microsoft 365 コンテンツと同じアクセス制御とコンプライアンス ポリシーによって管理されます。 つまり、ユーザーのアクセス許可、秘密度ラベル、条件付きアクセス ポリシーは、コンテンツの生成とアクセスの時点で適用されます。
設計によるプライバシーとコンプライアンス
Microsoft 365 Copilot は、「 Microsoft 365 Copilot のデータ、プライバシー、セキュリティ」で説明されているプライバシーとコンプライアンスの基準に準拠しています。 セキュリティ制御によって適用される保護には、次のものがあります。
- データ アクセスの適用
- 暗号化と分離
- コンプライアンス ツール
- AI ライフサイクル全体でデータを保護する
- EU データ境界
- AI ワークロードのクロスクラウド ガバナンス
- ポリシーの統合と適用
詳細については、「Microsoft 365 Copilot および Microsoft 365 Copilot Chat でのエンタープライズ データ保護」を参照してください。
データ アクセスの適用
Microsoft 365 Copilot では、Microsoft Entra ID のアクセス許可と Microsoft Purview ポリシーが尊重されています。 Microsoft 365 Copilot は、個々のユーザーが少なくとも表示アクセス許可を持っている組織データのみを表示します。 ポリシーは、Microsoft Entra ID、Microsoft Purview、および条件付きアクセスによって適用されます。
Microsoft 365 Copilot コネクタは、 エンタープライズ保護を維持しながら、Microsoft 365 Copilot の価値を高めます。
暗号化と分離
データは、FIPS 140-2 準拠テクノロジを使用して転送中および保存時に暗号化され、テナント レベルの分離が行われます。 Double Key Encryption (DKE) は、お客様のキーなしで Microsoft が保護されたコンテンツにアクセスできないようにし、Microsoft 365 Copilot からコンテンツにアクセスできないようにするのに役立ちます。
Microsoft Purview 情報保護によって暗号化されたデータがある場合、Microsoft 365 Copilot はユーザーに付与された使用権を尊重します。 暗号化は、Information Rights Management (IRM) を使用して 、秘密度ラベル または Microsoft 365 のアプリの制限付きアクセス許可によって適用できます。
Microsoft 365 Copilot で Purview を使用する方法の詳細については、「 生成型 AI アプリの Microsoft Purview データセキュリティとコンプライアンス保護」を参照してください。
AI ワークロードのクロスクラウド ガバナンス
Microsoft Purview は、Azure、AWS、Google Cloud などのハイブリッド環境とマルチクラウド環境全体で AI を管理するのに役立ちます。 Microsoft Security Copilotがある場合は、より多くの AI 分析情報と脅威検出機能を取得できます。
- Purview を使用すると、クラウド間で一貫したデータ分類、ラベル付け、ポリシーの適用が可能になり、AI モデルとプラグインにデータがどのように流れ込むかを把握できます。
- Security Copilotは、プラットフォーム間で AI 関連のリスクを検出し、脅威を関連付け、クラウドのセキュリティ体制管理から姿勢の分析情報を表示します。
ポリシーの統合と適用
Microsoft 365 Copilot は、Microsoft のエンタープライズ コンプライアンス プログラムの一部であり、さまざまな認定と評価の恩恵を受けています。 これらの標準には次のものが含まれます (ただし、これらに限定されません)。
- FedRAMP
- HiTrust
- SOC 2 タイプ 1
- ISO/IEC 27001、27701、22301、27018、42001
Microsoft Entra ID、Microsoft Purview、および Microsoft 365 for business では、条件付きアクセス、秘密度ラベル、および情報バリアが適用されます。
詳細については、次のリソースを参照してください。
- 規制遵守要件を満たす
- 生成 AI アプリ向け、Microsoft Purview のデータセキュリティおよびコンプライアンス保護
- Microsoft Purview を使用して、Microsoft 365 Copilot & Microsoft 365 Copilot Chat のデータ セキュリティ & コンプライアンスを管理する
Microsoft 365 Copilot のデータをセキュリティで保護する
Microsoft 365 Copilot などの AI ツールのデータをセキュリティで保護することは、共有の責任です。 Microsoft 365 Copilot をセキュリティで保護するために Microsoft が行うことに加えて、データを管理し、AI を安全かつ安全に使用できるように、organizationが行う必要がある特定のタスクがあります。 AI 共有責任モデルを参照してください。
Microsoft Purview には、Microsoft 365 Copilot および AI ツールで使用するデータのセキュリティ保護と管理に役立つツールが用意されています。 次の記事をご覧ください。
- Microsoft Purview を使用して、Microsoft 365 Copilot & Microsoft 365 Copilot Chat のデータ セキュリティ & コンプライアンスを管理する
- 生成 AI アプリ向け、Microsoft Purview のデータセキュリティおよびコンプライアンス保護
シナリオベースのデプロイ モデル、プレゼンテーション、ガイドをダウンロードして確認します。 これらのリソースでは、セキュリティで保護された既定の構成を迅速に実装し、オーバーシェアの問題に対処し、シャドウ AI へのデータ リークを防ぐ方法について説明します。 「エンジニアリングからのメモ: Microsoft Purview デプロイ モデル」を参照してください。