Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Orientações de licenciamento do Microsoft 365 para conformidade com & de segurança
Utilize o Microsoft Purview para mitigar e gerir os riscos associados à utilização de IA e implementar controlos de proteção e governação correspondentes.
As secções seguintes nesta página fornecem uma descrição geral do Gerenciamento da Postura de Segurança de Dados para IA e das capacidades do Microsoft Purview que fornecem controlos de conformidade e segurança de dados adicionais para acelerar a adoção de Copilots e agentes da sua organização e outras aplicações de IA geradoras.
Em algumas soluções do Microsoft Purview, poderá ver as aplicações de IA suportadas agrupadas pelos seguintes nomes de categorias:
Experiências e agentes copiais ou experiências de Microsoft Copilot para copilots e agentes suportados que incluem:
- Microsoft 365 Copilot
- Security Copilot
- Co-piloto nos Recursos de Infraestrutura
- Copilot Studio
As aplicações de IA empresariais para aplicações e agentes de IA não Copilot ligados à sua organização através do registo Entra, conectores de dados, Fábrica de IA do Azure e outros métodos, incluem:
- Aplicações de IA registadas no Entra
- ChatGPT Enterprise
- Serviços de IA do Azure
Outras aplicações de IA que são detetadas através da atividade do browser e categorizadas como "IA Geradora" no catálogo de Defender para Aplicativos de Nuvem e incluem:
- ChatGPT
- Google Gemini
- Microsoft Copilot (versão do consumidor)
- DeepSeek
Para obter uma discriminação das capacidades suportadas de segurança e conformidade do Microsoft Purview para interações de IA por aplicação, veja as páginas adicionais identificadas na tabela seguinte. Quando estas aplicações de IA suportam agentes, herdam as mesmas capacidades de segurança e conformidade que a aplicação de IA principal. No entanto, para obter um resumo rápido, veja Utilizar o Microsoft Purview para gerir a segurança de dados & conformidade dos agentes de IA.
Experiências e agentes do Copilot | Aplicações de IA empresariais | Outras aplicações de IA |
---|---|---|
Microsoft 365 Copilot & Microsoft 365 Copilot Chat | Aplicações de IA registadas no Entra | Outras aplicações de IA |
Copilot da Segurança da Microsoft | Serviços de IA do Azure | |
Co-piloto nos Recursos de Infraestrutura | ChatGPT Enterprise | |
Microsoft Copilot Studio | ||
Facilitador da Microsoft | ||
Agente de Canal no Teams |
Se você for novo no Microsoft Purview, também poderá encontrar uma visão geral do produto útil: Saiba mais sobre o Microsoft Purview.
Gerenciamento da Postura de Segurança de Dados do Microsoft Purview para IA
Utilize Gerenciamento da Postura de Segurança de Dados do Microsoft Purview (DSPM) para IA como porta de entrada para detetar, proteger e aplicar controlos de conformidade para a utilização de IA na sua empresa. Esta solução utiliza controlos existentes da gestão de conformidade e proteção de informações do Microsoft Purview com ferramentas gráficas e relatórios fáceis de utilizar para obter rapidamente informações sobre a utilização de IA na sua organização. Com recomendações personalizadas, as políticas de um clique ajudam-no a proteger os seus dados e a cumprir os requisitos regulamentares.
Para obter mais informações, veja Saiba mais sobre Gerenciamento da Postura de Segurança de Dados (DSPM) para IA.
O Microsoft Purview reforça a proteção de informações para aplicações de IA
Devido à potência e velocidade que a IA pode apresentar proativamente conteúdo, a IA geradora amplifica o problema e o risco de partilha excessiva ou fuga de dados. Saiba como as capacidades de proteção de informações do Microsoft Purview podem ajudar a fortalecer as suas soluções de segurança de dados existentes.
Etiquetas de confidencialidade e interações de IA
As aplicações de IA suportadas pelo Microsoft Purview utilizam controlos existentes para garantir que os dados armazenados no seu inquilino nunca são devolvidos ao utilizador ou utilizados por um modelo de linguagem grande (LLM) se o utilizador não tiver acesso a esses dados. Quando os dados têm etiquetas de confidencialidade da sua organização aplicadas ao conteúdo, existe uma camada adicional de proteção:
Quando um ficheiro é aberto no Word, Excel, PowerPoint ou, da mesma forma, um evento de e-mail ou calendário é aberto no Outlook, a confidencialidade dos dados é apresentada aos utilizadores na aplicação com o nome da etiqueta e marcações de conteúdo (como texto de cabeçalho ou rodapé) que foram configurados para a etiqueta. Loop componentes e páginas também suportam as mesmas etiquetas de confidencialidade.
Quando a etiqueta de confidencialidade aplica encriptação, os utilizadores têm de ter o direito de utilização EXTRAÇÃO, bem como VER, para que as aplicações de IA devolvam os dados.
Essa proteção se estende a dados armazenados fora do seu locatário do Microsoft 365 quando abertos em um aplicativo do Office (dados em uso). Por exemplo, armazenamento local, compartilhamentos de rede e armazenamento em nuvem.
Dica
Se ainda não o fez, recomendamos que ative as etiquetas de confidencialidade para o SharePoint e o OneDrive e também se familiarize com os tipos de ficheiro e as configurações de etiquetas que estes serviços podem processar. Quando as etiquetas de confidencialidade não estão ativadas para estes serviços, os ficheiros encriptados aos quais o Copilot e os agentes podem aceder estão limitados aos dados utilizados a partir das aplicações do Office no Windows.
Para obter instruções, consulte Habilitar rótulos de confidencialidade para arquivos do Office no Microsoft Office SharePoint Online e no OneDrive.
Se você ainda não estiver usando rótulos de confidencialidade, consulte Introdução aos rótulos de confidencialidade.
Encriptação sem etiquetas de confidencialidade e interações de IA
Mesmo que um rótulo de confidencialidade não seja aplicado ao conteúdo, serviços e produtos poderão usar os recursos de criptografia do serviço Rights Management do Azure. Como resultado, as aplicações de IA ainda podem marcar para os direitos de utilização VER e EXTRAIR antes de devolver dados e ligações para um utilizador, mas não existe nenhuma herança automática de proteção para novos itens.
Dica
Obterá a melhor experiência de utilizador quando utilizar sempre etiquetas de confidencialidade para proteger os seus dados e a encriptação é aplicada por uma etiqueta.
Exemplos de produtos e serviços que podem usar os recursos de criptografia do serviço Rights Management do Azure sem rótulos de confidencialidade:
- Criptografia de Mensagem do Microsoft Purview
- Gerenciamento de Direitos de Informação da Microsoft Corporation (IRM)
- Conector do Microsoft Rights Management
- Gerenciamento de Direitos da Microsoft Corporation SDK
Para outros métodos de criptografia que não usam o serviço Azure Rights Management:
Os e-mails protegidos por S/MIME não serão devolvidos pelo Copilot e o Copilot não está disponível no Outlook quando um e-mail protegido por S/MIME está aberto.
Os documentos protegidos por palavra-passe não podem ser acedidos pelas aplicações de IA, a menos que já estejam abertos pelo utilizador na mesma aplicação (dados em utilização). As palavras-passe não são herdadas por um item de destino.
Tal como acontece com outros serviços do Microsoft 365, como a Deteção de Dados Eletrónicos e a pesquisa, os itens encriptados com a Chave de Cliente do Microsoft Purview ou a sua própria chave de raiz (BYOK) são suportados e elegíveis para serem devolvidos pela Copilot.
Prevenção de perda de dados e interações de IA
Prevenção Contra Perda de Dados do Microsoft Purview (DLP) ajuda-o a identificar itens confidenciais em todos os serviços e pontos finais do Microsoft 365, a monitorizá-los e a protegê-los contra fugas desses itens. Utiliza a inspeção de conteúdo profunda e a análise contextual para identificar itens confidenciais e impõe políticas para proteger dados confidenciais, como registos financeiros, informações de saúde ou propriedade intelectual.
Os computadores Windows integrados no Microsoft Purview podem ser configurados para políticas de prevenção de perda de dados de Ponto final (DLP) que avisam ou impedem os utilizadores de partilhar informações confidenciais com sites de IA geradores de terceiros que são acedidos através de um browser. Por exemplo, um utilizador é impedido de colar card números de crédito em ChatGPT ou vê um aviso a indicar que pode substituir. Para obter mais informações sobre as ações DLP suportadas e as plataformas que as suportam, consulte as duas primeiras linhas na tabela a partir das atividades do Ponto final que pode monitorizar e tomar medidas.
Além disso, uma política DLP no âmbito de uma localização de IA pode restringir o processamento de conteúdos confidenciais por parte das aplicações de IA. Por exemplo, uma política DLP pode impedir o Microsoft 365 Copilot de resumir ficheiros com base em etiquetas de confidencialidade, como "Altamente Confidencial". Depois de ativar esta política, o Microsoft 365 Copilot e os agentes não resumem ficheiros com o nome "Altamente Confidencial", mas podem referenciá-los com uma ligação para que o utilizador possa abrir e ver o conteúdo com Word. Para obter mais informações que incluam as aplicações de IA que suportam esta configuração DLP, consulte Saiba mais sobre a localização da política do Microsoft 365 Copilot.
Interações de IA e Gestão de Riscos Internos
Gerenciamento de Risco Interno do Microsoft Purview ajuda-o a detetar, investigar e mitigar riscos internos, como roubo de IP, fuga de dados e violações de segurança. Tira partido de modelos de machine learning e de vários sinais do Microsoft 365 e de indicadores de terceiros para identificar potenciais atividades maliciosas ou inadvertidas do Insider. A solução inclui controlos de privacidade, como pseudonimização e acesso baseado em funções, garantindo a privacidade ao nível do utilizador, ao mesmo tempo que permite que os analistas de risco tomem as medidas adequadas.
Utilize o modelo de política de utilização de IA de Risco para detetar uma utilização arriscada que inclui ataques de injeção rápida e acesso a materiais protegidos. As informações destes sinais estão integradas no Microsoft Defender XDR para fornecer uma vista abrangente dos riscos relacionados com a IA.
Classificação de dados e interações de IA
A classificação de dados do Microsoft Purview fornece uma arquitetura abrangente para identificar e identificar dados confidenciais em vários serviços Microsoft, incluindo Office 365, Dynamics 365 e Azure. Classificar dados é, muitas vezes, o primeiro passo para garantir a conformidade com os regulamentos de proteção de dados e proteger contra o acesso, alteração ou destruição não autorizados. Pode utilizar classificações de sistema incorporadas ou criar as suas próprias.
Os tipos de informações confidenciais e classificadores treináveis podem ser utilizados para localizar dados confidenciais em pedidos de utilizador e respostas quando utilizam aplicações de IA. Em seguida, as informações resultantes são apresentadas na descrição geral dos Relatórios do Microsoft Purview e no explorador de atividades no Gerenciamento da Postura de Segurança de Dados para IA.
O Microsoft Purview suporta a gestão de conformidade para aplicações de IA
As interações com aplicações de IA suportadas podem ser monitorizadas para cada utilizador no seu inquilino. Como tal, juntamente com a classificação de dados, pode utilizar a auditoria, a conformidade de comunicação, a Deteção de Dados Eletrónicos do Microsoft Purview com a pesquisa de conteúdos e as capacidades de retenção e eliminação automáticas da Gestão do Ciclo de Vida dos Dados para gerir esta utilização de IA.
Auditoria e interações de IA
Auditoria do Microsoft Purview soluções fornecem ferramentas abrangentes para pesquisar e gerir registos de auditoria de atividades realizadas em vários serviços Microsoft por utilizadores e administradores e ajudar as organizações a responder eficazmente a eventos de segurança, investigações forenses, investigações internas e obrigações de conformidade.
Tal como outras atividades, os pedidos e as respostas são capturados no registo de auditoria unificado. Os eventos incluem como e quando os utilizadores interagem com a aplicação de IA e podem incluir em que serviço do Microsoft 365 a atividade ocorreu e referências aos ficheiros armazenados no Microsoft 365 que foram acedidos durante a interação. Se estes ficheiros tiverem uma etiqueta de confidencialidade aplicada, também é capturada.
Estes eventos fluem para o explorador de atividades no Gerenciamento da Postura de Segurança de Dados para IA, onde os dados de pedidos e respostas podem ser apresentados. Também pode utilizar a solução Auditoria do portal do Microsoft Purview para procurar e encontrar estes eventos de auditoria.
Para obter mais informações, veja Registos de auditoria para atividades de Copilot e IA.
Conformidade de comunicação e interações de IA
Conformidade de Comunicações do Microsoft Purview fornece ferramentas para o ajudar a detetar e gerir a conformidade regulamentar e as violações de conduta empresarial em vários canais de comunicação, que incluem pedidos de utilizador e respostas para aplicações de IA. Foi concebido com privacidade por predefinição, pseudonimizando nomes de utilizador e incorporando controlos de acesso baseados em funções. A solução ajuda a identificar e remediar comunicações inadequadas, como a partilha de informações confidenciais, assédio, ameaças e conteúdos para adultos.
Para saber mais sobre como utilizar políticas de conformidade de comunicação para aplicações de IA, veja Configurar uma política de conformidade de comunicação para detetar interações de IA geradoras.
Deteção de Dados Eletrónicos com pesquisa de conteúdos e interações de IA
Descoberta Eletrônica do Microsoft Purview permite-lhe identificar e fornecer informações eletrónicas que podem ser utilizadas como prova em casos legais. As ferramentas de Deteção de Dados Eletrónicos no Microsoft Purview suportam a pesquisa de conteúdos nas equipas de Exchange Online, OneDrive for Business, SharePoint Online, Microsoft Teams, Grupos do Microsoft 365 e Viva Engage. Em seguida, pode impedir que as informações sejam eliminados e exportar as informações.
Uma vez que os pedidos de utilizador e as respostas das aplicações de IA são armazenados na caixa de correio de um utilizador, pode criar um caso e utilizar a pesquisa quando a caixa de correio de um utilizador está selecionada como a origem de uma consulta de pesquisa. Por exemplo, selecione e obtenha estes dados da caixa de correio de origem ao selecionar a partir do construtor de consultas Adicionartipo> de >condição>Contém qualqueratividadeEditar>Copilot. Esta condição de consulta inclui toda a atividade copilot e outra aplicação de IA.
Depois de refinada a pesquisa, pode exportar os resultados ou adicionar a um conjunto de revisões. Pode rever e exportar informações diretamente a partir do conjunto de revisões.
Para saber mais sobre como identificar e eliminar dados de interação de IA do utilizador, veja Procurar e eliminar dados do Copilot na Deteção de Dados Eletrónicos.
Gestão do Ciclo de Vida de Dados e interações de IA
Gerenciamento do Ciclo de Vida dos Dados do Microsoft Purview fornece ferramentas e capacidades para gerir o ciclo de vida dos dados organizacionais ao manter os conteúdos necessários e eliminar conteúdos desnecessários. Estas ferramentas garantem a conformidade com os requisitos comerciais, legais e regulamentares.
Utilize políticas de retenção para reter ou eliminar automaticamente pedidos de utilizador e respostas para aplicações de IA. Para obter informações detalhadas sobre este trabalho de retenção, veja Saiba mais sobre a retenção para aplicações copilot & IA.
Tal como acontece com todas as políticas de retenção e retenções, se mais do que uma política para a mesma localização se aplicar a um utilizador, os princípios de retenção resolve quaisquer conflitos. Por exemplo, os dados são retidos pela maior duração de todas as políticas de retenção aplicadas ou bloqueios de Descoberta Eletrônica.
Interações de IA e Gestor de Conformidade
O Gestor de Conformidade do Microsoft Purview é uma solução que o ajuda a avaliar e gerir automaticamente a conformidade em todo o seu ambiente multicloud. O Gerenciador de Conformidade pode ajudá-lo durante todo o percurso de conformidade, incluindo desde fazer um inventário dos riscos de proteção de dados até gerenciar as complexidades de implementação de controles, mantendo-o atualizado quanto aos regulamentos e certificações e enviando relatórios para auditores.
Para o ajudar a manter-se em conformidade com os regulamentos de IA, o Gestor de Conformidade fornece modelos regulamentares para o ajudar a avaliar, implementar e reforçar os seus requisitos de conformidade para todas as aplicações de IA geradoras. Por exemplo, monitorizar interações de IA e impedir a perda de dados em aplicações de IA. Para obter mais informações, veja Avaliações de regulamentos de IA.
Outra documentação para o ajudar a proteger e gerir aplicações de IA geradoras
Anúncio de publicação de blogue: Acelerar a adoção de IA com capacidades de segurança e governação de próxima geração
Microsoft 365 Copilot:
Recursos relacionados:
- Proteger a IA Geradora com Microsoft Entra
- Governar aplicações e dados de IA para conformidade regulamentar
- Mensagens de blogue (abril de 2025):