Compartilhar via


Proteger o uso de dados e aplicativos de IA por sua organização

Este artigo descreve como usar recursos específicos para proteger aplicativos de IA e os dados com os quais eles interagem.

  • Proteger seus dados confidenciais em prompts de usuário e dados gerados por IA
  • Defender contra ameaças emergentes, como injeções de prompt

Este é o terceiro artigo de uma série. Se você ainda não realizou as tarefas em Preparar para segurança de IA e descobrir aplicativos e dados de IA, comece com esses artigos para preparar seu ambiente com recursos prescritos neste artigo.

Diagrama que mostra o aspecto Proteger da série de segurança para IA.

Use este artigo junto com este recurso:

A Microsoft fornece um amplo conjunto de recursos para proteger dados e aplicativos de IA. Este artigo discute isso em duas categorias: proteção de dados e proteção contra ameaças.

Diagrama que mostra os recursos para proteger dados e aplicativos de IA.

As duas tabelas a seguir descrevem a ilustração e também percorrem as etapas de implementação dessas funcionalidades.

Tabela 1 – Recursos de proteção de dados

Passo Tarefa Escopo
1 Aplique controles de compartilhamento excessivo do SharePoint para isentar rapidamente sites confidenciais e dados do escopo de aplicativos de IA. Sites e arquivos em seu ambiente do Microsoft 365.
2 Use o DSPM (Gerenciamento de Postura de Segurança de Dados) para IA para saber onde o compartilhamento excessivo está ocorrendo e para encontrar lacunas na cobertura da política para rótulos de confidencialidade e políticas DLP. Copilotos, agentes e outros aplicativos de IA que usam LLMs (grandes modelos de linguagem) de terceiros, incluindo sites de IA com suporte.
Aplicativos de IA em outros provedores de nuvem por meio do SDK do Purview.
3 Continue progredindo em rótulos de confidencialidade e políticas de prevenção contra perda de dados (DLP). Sites, arquivos e dispositivos em seu ambiente do Microsoft 365.
Aplicativos SaaS quando integrados ao Defender para Aplicativos de Nuvem.
Aplicativos de IA no Azure e em outros provedores de nuvem por meio do SDK do Purview.
4 No IRM (Insider Risk Management), aplique o modelo de IA arriscado para identificar o comportamento arriscado em aplicativos de IA. Sites de IA generativos.
Microsoft 365 Copilot, Microsoft Copilot, Copilot Studio, serviços de IA do Azure.
Aplicativos de IA em outros provedores de nuvem por meio do SDK do Purview.
5 Configurar a Proteção Adaptável para o Gerenciamento de Riscos Internos para aumentar a proteção de dados com base no risco dos usuários Sites, arquivos e dispositivos em seu ambiente do Microsoft 365.

Tabela 2 – Funcionalidades de proteção contra ameaças

Passo Tarefa Escopo
1 Use o Defender para Aplicativos de Nuvem para alertá-lo quando novos aplicativos de IA estão sendo usados, para calcular as pontuações de risco para aplicativos de IA e para permitir ou bloquear esses aplicativos em seu ambiente. O Defender para Aplicativos de Nuvem fornece proteções extras para o Microsoft 365 Copilot. Aplicativos SaaS de IA
2 Defender para Nuvem

Descubra cargas de trabalho de IA implantadas em seu ambiente e obtenha insights de segurança com o Microsoft Defender para Nuvem
Aplicativos de IA personalizados construídos com o Azure AI

Proteger dados de IA

Esses recursos ajudam você a aprender e atenuar com eficiência os principais riscos associados ao compartilhamento excessivo de dados, ao uso de dados confidenciais e aos comportamentos arriscados dos usuários. Esses recursos têm como escopo proteções para aplicativos e dados de IA em seu ambiente.

Etapa 1 – Aplicar controles de compartilhamento excessivo do SharePoint

Os controles de compartilhamento excessivo do SharePoint incluem controles integrados ao SharePoint, como permissões com escopo, e recursos de complemento no Gerenciamento Avançado do SharePoint para reforçar a governança de conteúdo para o percurso de implantação do Microsoft Copilot. Os controles de compartilhamento excessivo do SharePoint ajudam você a:

  • Limite temporariamente a pesquisa do Copilot a uma lista de sites especificados (Pesquisa Restrita do SharePoint).
  • Identifique rapidamente sites que potencialmente contêm dados compartilhados ou conteúdo confidencial (relatórios de governança de acesso a dados).
  • Sinalizar sites para que os usuários não possam encontrá-los por meio do Copilot ou da pesquisa em toda a organização (Descoberta restrita de conteúdo no Gerenciamento Avançado do SharePoint).
  • crie políticas de site inativas para gerenciar e reduzir automaticamente sites inativos (Gerenciamento Avançado do SharePoint).
  • Restrinja o acesso a sites do SharePoint e do OneDrive a usuários em um grupo específico (políticas de controle de acesso restrito no Gerenciamento Avançado do SharePoint).

Para começar a usar controles de compartilhamento excessivo, use os recursos a seguir.

Tarefa Recursos recomendados
Examine a ilustração e a descrição dos controles de compartilhamento excessivo que você pode usar com o Microsoft 365 Copilot Arquitetura de auditoria e proteção de dados do Microsoft 365 Copilot
Modelo disponível para download para impedir o compartilhamento excessivo Plano do Microsoft 365 Copilot para compartilhamento excessivo
Saiba mais sobre o Gerenciamento Avançado do SharePoint Microsoft SharePoint Premium - visão geral do Gerenciamento Avançado do SharePoint

Etapa 2– Proteger dados por meio do DSPM para IA

Use o DSPM para IA para saber onde o compartilhamento excessivo está ocorrendo e para encontrar lacunas na cobertura da política para rótulos de confidencialidade e políticas DLP.

Um ótimo lugar para começar é com o Relatório de Avaliação da Semana.

Captura de tela das avaliações de dados de uma semana de novembro.

Você pode analisar relatórios individuais para saber mais sobre onde você tem lacunas em controles de compartilhamento excessivo, rótulos e políticas DLP para que você possa corrigir rapidamente esses problemas.

Captura de tela que mostra os cinco principais sites do SharePoint com arquivos sem rótulo nos prompts do Copilot.

Para cada relatório, o DSPM para IA fornece recomendações para melhorar a segurança de dados. Use o link Exibir todas as recomendações ou Recomendações do painel de navegação para ver todas as recomendações disponíveis para seu locatário e seu status.

Captura de tela que mostra as recomendações para o locatário e seu status.

Use os recursos a seguir para proteger aplicativos e dados de IA com O DSPM para IA.

Tarefa Recursos recomendados
Saiba mais sobre DSPM para IA Como usar o DSPM para IA
Saiba mais sobre os pré-requisitos e como funcionam as políticas de um clique e as políticas padrão Considerações sobre o DSPM para IA
Para aplicativos de IA em outros provedores de nuvem, saiba como testar a integração com o DSPM para IA usando o SDK do Purview Como testar um aplicativo de IA integrado ao SDK do Purview

Etapa 3 – Continuar a identificar lacunas em rótulos de confidencialidade e políticas DLP

No Prepare for AI Security, você usou as ferramentas de gerenciamento de postura de segurança de dados do Microsoft Purview, DSPM e DSPM para IA, para priorizar a proteção de seus dados confidenciais. Continue revisitando essas ferramentas para identificar lacunas na cobertura da política e descobrir onde você precisa continuar investindo na aplicação de rótulos de confidencialidade e políticas DLP. Além disso, estenda rótulos de confidencialidade e políticas DLP para aplicativos SaaS usando o Defender para Aplicativos de Nuvem.

Use os recursos a seguir para progredir com o Microsoft Purview.

Tarefa Recursos recomendados
Saiba mais sobre estratégias de implantação recomendadas para proteção de informações Implantar uma solução de proteção de informações com o Microsoft Purview
Estender rótulos de confidencialidade e políticas DLP para aplicativos SaaS usando o Defender para Aplicativos de Nuvem Proteção de informações do Deply para aplicativos SaaS
Definir seus rótulos de confidencialidade e políticas que protegerão os dados da sua organização Introdução aos rótulos de confidencialidade.
Criar e configurar rótulos de sensibilidade e suas políticas
Restringir o acesso ao conteúdo usando rótulos de confidencialidade para aplicar criptografia
Rotular e proteger dados para aplicativos e serviços do Microsoft 365 Gerenciar rótulos de confidencialidade em aplicativos do Office
Habilitar rótulos de confidencialidade para arquivos no SharePoint e no OneDrive
Ajuste suas políticas DLP Criar e Implementar políticas de prevenção de perda de dados
Para aplicativos de IA desenvolvidos no Auzre ou em outros provedores de nuvem, saiba como aplicar rótulos de confidencialidade e políticas DLP usando o SDK do Purview O que é o SDK do Purview
Utilize APIs do Microsoft Graph Purview
Como testar um aplicativo de IA integrado ao SDK do Purview

Etapa 4 – Aplicar o modelo de IA arriscado no IRM (Insider Risk Management)

O IRM (Gerenciamento de Risco Interno) do Microsoft Purview inclui modelos de política predefinidos que você pode aplicar ao seu ambiente, incluindo o uso de IA arriscado. Os modelos IRM são condições de política predefinidas que definem os tipos de indicadores de risco e o modelo de pontuação de risco usados pela política.

A política de uso de IA arriscada pode ajudar a detectar e habilitar a pontuação de risco para prompts e respostas em ferramentas de IA em sua organização. O IRM ajuda você a investigar e tomar medidas sobre atividades de risco relacionadas à IA.

Use os recursos a seguir para começar a usar o Insider Risk Management e aplicar o modelo de política de uso de IA arriscado.

Tarefa Recursos recomendados
Introdução ao Insider Risk Management e saiba mais sobre os principais cenários que beneficiam sua organização Saiba mais sobre o gerenciamento de riscos internos
Aplicar o modelo de IA arriscado Saiba mais sobre modelos de política de gerenciamento de risco interno | Microsoft Learn
Saiba mais sobre os principais cenários para IA e veja relatórios de exemplo Gerenciamento de Risco Interno capacitando uma melhor visibilidade do uso arriscado de IA e investigações de segurança
Para aplicativos de IA desenvolvidos com o SDK do Purview, teste a integração do Insider Risk Management Como testar um aplicativo de IA integrado ao SDK do Purview

Etapa 5 – Configurar a Proteção Adaptável para o Gerenciamento de Risco Interno

A Proteção Adaptável no Gerenciamento de Riscos do Insider do Microsoft Purview atribui dinamicamente um nível de risco aos usuários e aplica políticas criadas a usuários com risco moderado ou elevado. As políticas podem implementar ações de prevenção contra perda de dados aumentadas, preservar conteúdo excluído ou impor requisitos de acesso condicional mais altos.

Use os recursos a seguir para começar a usar a Proteção Adaptável.

Tarefa Recursos recomendados
Introdução ao Insider Risk Management e saiba mais sobre os principais cenários que beneficiam sua organização Saiba mais sobre o gerenciamento de riscos internos
Saiba mais sobre os principais cenários para IA e veja relatórios de exemplo Gerenciamento de Risco Interno capacitando uma melhor visibilidade do uso arriscado de IA e investigações de segurança
Aplicar o modelo de IA arriscado Saiba mais sobre os modelos de políticas de gestão de riscos internos
Investigar e agir sobre atividades de risco interno Investigar atividades de gestão de riscos internos
Tomar medidas sobre casos de gerenciamento de risco interno

Aproveitar ao máximo a proteção contra ameaças para IA

O Defender para Aplicativos de Nuvem e o Defender para Nuvem incluem recursos para mantê-lo informado sobre o uso do novo aplicativo de IA e aplicar controles apropriados.

Etapa 1 – Usar o Defender para Aplicativos de Nuvem para fazer a triagem e proteger o uso de aplicativos de IA

O artigo anterior desta série, Descobrir Aplicativos de IA e Dados, se concentrou no uso do Defender para Aplicativos de Nuvem para descobrir aplicativos de IA em seu ambiente. Este artigo incentiva as organizações a usar o Defender para Aplicativos de Nuvem para se manterem em cima do novo uso de aplicativo de IA avaliando o risco que isso representa para seu ambiente, sancionando ou bloqueando esses aplicativos e aplicando controles de sessão a aplicativos.

Primeiro, crie uma política para disparar automaticamente um alerta quando um novo aplicativo de IA do Generative estiver sendo usado em sua organização.

Captura de tela que mostra a página Criar política de descoberta de aplicativos no Microsoft Defender.

Em seguida, avalie a pontuação de risco para aplicativos recém-descobertos. Você também pode personalizar a pontuação de risco. Por exemplo, as organizações altamente regulamentadas podem querer alterar o peso de atributos específicos da pontuação de risco. Você também pode substituir uma pontuação de risco.

Captura de ecrã a mostrar o catálogo de aplicações na cloud.

Decida se deseja sancionar ou bloquear cada aplicativo. As organizações podem optar por bloquear o uso de aplicativos por vários motivos. Alguns estão preocupados que dados confidenciais sejam compartilhados sem saber com aplicativos e expostos posteriormente a um público fora da organização. Isso pode fazer com que a organização bloqueie o uso de todos os aplicativos de IA não gerenciados. Embora outras organizações precisem garantir que todos os aplicativos em uso estejam em conformidade de acordo com padrões diferentes, como SOC2 ou HIPAA.

Por fim, para aplicativos que você sanciona, decida se deseja aplicar políticas de sessão para maior controle e visibilidade. As políticas de sessão permitem-lhe aplicar parâmetros à forma como as aplicações na cloud são utilizadas pela sua organização. Por exemplo, você pode configurar uma política de sessão que permite que apenas dispositivos gerenciados acessem um aplicativo de IA. Um exemplo mais simples pode ser configurar uma política para monitorizar o tráfego de dispositivos não geridos para que possa analisar o risco deste tráfego antes de aplicar políticas mais rigorosas.

Um diagrama que mostra como as aplicações na cloud são acedidas através de políticas de controlo de sessão com Defender para Aplicativos de Nuvem.

Nesta ilustração:

  • O acesso a aplicações na cloud aprovadas a partir de utilizadores e dispositivos na sua organização é encaminhado através de Defender para Aplicativos de Nuvem onde as políticas de sessão podem ser aplicadas a aplicações específicas.
  • Os aplicativos de nuvem que você não sancionou ou não sancionou explicitamente não são afetados.

Além disso, o Defender para Aplicativos de Nuvem fornece detecções dedicadas para o Microsoft 365 Copilot. As equipes de segurança podem detectar interações suspeitas de um usuário com o Copilot e responder e atenuar a ameaça. Por exemplo, quando um usuário acessa dados confidenciais por meio do Copilot de um endereço IP arriscado, o Defender para Aplicativos de Nuvem dispara um alerta para sinalizar essa atividade suspeita com detalhes importantes, incluindo a técnica de ataque MITRE, o endereço IP e outros campos que as equipes de segurança podem usar para investigar ainda mais esse alerta.

Use os recursos a seguir como próximas etapas.

Tarefa Recursos recomendados
Examinar as etapas 5-8 neste fluxo de implantação do Defender para Aplicativos de Nuvem Descobrir e gerir aplicações na cloud
Examine este tutorial de vídeo sobre como gerenciar aplicativos Descobrir quais aplicativos de IA generativos são usados em seu ambiente usando o Defender para aplicativos de nuvem – YouTube
Criar uma política de descoberta de aplicativo Criar políticas de deteção de cloud
Avaliar a pontuação de risco para aplicativos recém-descobertos Pontuações de risco e catálogo de aplicativos de nuvem
Sancionar ou bloquear novos aplicativos Gerencie aplicativos detectados
Aplicar políticas de sessão a aplicativos de IA para maior controle e visibilidade Criar políticas de sessão
Saiba como usar a proteção contra ameaças para o Microsoft 365 Copilot Novas detecções de ameaças para o Microsoft Copilot para Microsoft 365

Etapa 2 – Aplicar proteções de IA no Defender para Nuvem

O artigo anterior desta série, Descobrir aplicativos e dados de IA, se concentrou na descoberta de cargas de trabalho e modelos de IA geradores em execução em seu ambiente. Este artigo se concentra na proteção de aplicativos GenAI em todo o ciclo de vida do aplicativo, à medida que você cria e usa seus aplicativos de IA personalizados.

As organizações estão optando por desenvolver novos aplicativos GenAI e inserir IA em aplicativos existentes para aumentar a eficiência e a produtividade dos negócios. Os invasores estão cada vez mais buscando explorar aplicativos para alterar a finalidade projetada do modelo de IA com novos ataques, como injeções rápidas, ataques de carteira, roubo de modelo e envenenamento de dados, ao mesmo tempo em que aumentam a suscetibilidade a riscos conhecidos, como violações de dados e negação de serviço. As equipes de segurança precisam estar preparadas e garantir que tenham os controles de segurança adequados para seus aplicativos de IA e detecções que resolvam o novo cenário de ameaças.

O Microsoft Defender para Nuvem ajuda as organizações a proteger seus ambientes híbridos e multinuvem de código para nuvem. O Defender para nuvem inclui a postura de segurança e os recursos de proteção contra ameaças para permitir que as organizações protejam seus aplicativos GenAI criados pela empresa durante todo o ciclo de vida do aplicativo:

  • Descubra continuamente componentes de aplicações GenAI e artefatos de IA, desde o código até a nuvem.
  • Explore e corrija riscos nos aplicativos de GenAI com recomendações integradas para fortalecer a segurança.
  • Identifique e corrija combinações tóxicas em aplicativos GenAI usando a análise do caminho de ataque.
  • Detecte nos aplicativos GenAI alimentados por escudos de prompt de Segurança de Conteúdo da IA do Azure, sinais de inteligência de ameaças da Microsoft e monitoramento de atividade contextual.
  • Pesquise e investigue ataques em aplicativos GenAI com integração interna com o Microsoft Defender.

Comece com os recursos de gerenciamento de postura de segurança com IA no Gerenciamento de Postura de Segurança na Nuvem do Defender (CSPM). O Defender CSPM descobre automaticamente e continuamente cargas de trabalho de IA implantadas com visibilidade granular e sem agente na presença e nas configurações de modelos de IA, SDKs e tecnologias usadas em serviços de IA, como o Serviço OpenAI do Azure, o Azure Machine Learning e o Amazon Bedrock.

O CSPM apresenta continuamente problemas de segurança contextualizados e sugere recomendações de segurança baseadas em risco personalizadas para priorizar lacunas críticas em suas cargas de trabalho de IA. Recomendações de segurança relevantes também aparecem no próprio recurso do Azure OpenAI no portal do Azure, fornecendo aos desenvolvedores ou proprietários de carga de trabalho acesso direto às recomendações e ajudando a corrigir mais rapidamente.

A funcionalidade de análise de caminho de ataque pode identificar riscos sofisticados para cargas de trabalho de IA, incluindo cenários de segurança de dados em que dados de aterramento ou ajuste fino são expostos à Internet por meio da movimentação lateral e são suscetíveis a envenenamento de dados.

Em seguida, mantenha-se seguro em tempo de execução com proteção contra ameaças para cargas de trabalho de IA. O Defender para Nuvem inclui proteção contra ameaças para cargas de trabalho de IA. A proteção contra ameaças para IA usa a integração nativa do Serviço Azure OpenAI, os escudos de prompt de Segurança de Conteúdo da IA do Azure e a inteligência contra ameaças da Microsoft para fornecer alertas de segurança contextuais e acionáveis. A proteção contra ameaças para cargas de trabalho de IA permite que as equipes de segurança monitorem seus aplicativos do Azure OpenAI em tempo de execução para atividades mal-intencionadas associadas a ataques diretos e indiretos de injeção de prompt, vazamentos de dados confidenciais e envenenamento de dados, bem como abuso de carteiras ou ataques de negação de serviço.

Use os recursos a seguir para as próximas etapas.

Tarefa Recursos recomendados
Examinar os principais cenários descritos neste blog Proteger aplicativos de IA generativos com o Microsoft Defender para Nuvem
Usar o CSPM para obter visibilidade dos riscos de IA em seu ambiente Proteger seus recursos com o Defender CSPM
Examinar o painel de segurança de dados e IA (versão prévia)
Habilitar a proteção contra ameaças para cargas de trabalho de IA (versão prévia) Habilitar a proteção contra ameaças para cargas de trabalho de IA (versão prévia)
Alertas para cargas de trabalho de IA (versão prévia)

Próxima etapa para proteger a IA

Depois de proteger aplicativos e dados de IA em sua organização, a próxima etapa é controlar os aplicativos de IA para atender aos requisitos de conformidade regulatória:

  • Avalie e fortaleça sua postura de conformidade em relação às regulamentações.
  • Implemente controles para controlar o uso de dados e aplicativos de IA.

Confira o próximo artigo desta série: Como reger a IA para conformidade?