Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Depois de criar um Eventstream, você pode conectá-lo a várias fontes de dados e destinos.
Observação
Os recursos aprimorados são habilitados por padrão quando você cria fluxos de eventos. Se você tiver fluxos de eventos criados por meio de recursos padrão, esses fluxos de eventos continuarão funcionando. Você ainda pode editá-los e usá-los como de costume. É recomendado criar um novo Eventstream para substituir os Eventstreams padrão para que você possa usufruir de recursos adicionais e benefícios de Eventstreams aprimorados.
Depois de criar um eventstream, você pode conectá-lo a várias fontes de dados e destinos.
O Eventstream não só permite transmitir dados de origens da Microsoft, mas também oferece suporte à ingestão de plataformas de terceiros, como Google Cloud e Amazon Kinesis, com novos conectores de mensagens. Esse recurso expandido oferece integração uma perfeita dos fluxos de dados externos ao Fabric, fornecendo maior flexibilidade e permitindo que você obtenha insights em tempo real de várias fontes.
Neste artigo, você aprenderá sobre as origens de evento que podem ser adicionadas a um Eventstream.
Pré-requisitos
- Acesso a um workspace no modo de licença de capacidade do Fabric (ou) no modo de licença de Avaliação com permissões de Colaborador ou superior.
- Pré-requisitos específicos para cada origem que estão documentados nos artigos a seguir específicos da origem.
Origens compatíveis
Os fluxos de eventos do Fabric com recursos aprimorados oferecem suporte às origens a seguir. Cada artigo fornece detalhes e instruções para adicionar origens específicas.
| Source | Descrição |
|---|---|
| Azure Data Explorer (versão prévia) | Se você tiver um banco de dados do Azure Data Explorer e uma tabela, poderá ingerir dados da tabela no Microsoft Fabric usando o Eventstream. |
| Hubs de eventos do Azure | Se você tiver um hub de eventos do Azure, poderá ingerir dados do hub de eventos no Microsoft Fabric usando o Eventstream. |
| Grade de Eventos do Azure (versão prévia) | Se você tiver um namespace do Grade de Eventos do Azure, poderá ingerir dados de eventos MQTT ou não MQTT no Microsoft Fabric usando o Eventstream. |
| Barramento de Serviço do Azure (versão prévia) | Você pode fazer a ingestão de dados de uma fila no Azure Service Bus ou da assinatura de um tópico no Microsoft Fabric usando o Eventstream. |
| Hub IoT do Azure | Se você tiver um hub IoT do Azure, poderá ingerir dados de IoT no Microsoft Fabric usando o Eventstream. |
| Ponto de extremidade personalizado (ou seja, Aplicativo personalizado em recurso padrão) | O recurso de ponto de extremidade personalizado permite que seus aplicativos ou clientes Kafka se conectem ao Eventstream usando uma cadeia de conexão, permitindo a ingestão suave de dados de streaming no Eventstream. |
| Operações do Azure IoT | Configure as Operações de IoT do Azure para enviar dados em tempo real diretamente para o Microsoft Fabric Real-Time Intelligence usando um ponto de extremidade personalizado de fluxo de eventos (dá suporte à ID do Microsoft Entra ou à autenticação SASL). |
| Dados de amostra | Você pode escolher Bicicletas, Táxi Amarelo, Mercado de Ações, Ônibus, Ações de empresas S&P 500 ou Logs de Modelo Semântico como uma fonte de dados de exemplo para testar a ingestão de dados ao configurar um fluxo de eventos. |
| Tempo em tempo real (versão prévia) | Você pode adicionar uma fonte meteorológica em tempo real a um fluxo de eventos para transmitir dados meteorológicos em tempo real de diferentes locais. |
| Captura de dados de alterações (CDA) com o Banco de Dados SQL do Azure | O conector de origem da CDA do Banco de Dados SQL do Azure permite que você capture um instantâneo dos dados atuais em um banco de dados SQL do Azure. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
| CDC do banco de dados PostgreSQL | O conector de origem da CDA (captura de dados de alterações) do Banco de Dados PostgreSQL permite que você capture um instantâneo dos dados atuais em um banco de dados PostgreSQL. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
| HTTP (versão prévia) | O conector HTTP permite transmitir dados de plataformas externas para Eventstream usando solicitações HTTP padrão. Ele também oferece feeds de dados públicos predefinidos com cabeçalhos e parâmetros preenchidos automaticamente, para que você possa começar rapidamente sem uma configuração complexa. |
| CDC do MongoDB (versão prévia) | O conector de origem CDC do MongoDB para fluxos de eventos do Microsoft Fabric captura um instantâneo inicial dos dados do MongoDB. Você pode especificar as coleções a serem monitoradas e o fluxo de eventos rastreia e registra alterações em tempo real em documentos em bancos de dados e coleções selecionados. |
| CDA do Banco de Dados MySQL | O conector de Origem da Captura de Dados de Alteração (CDC) do Banco de Dados do Azure MySQL permite que você capture um instantâneo dos dados atuais em um banco de dados do Banco de Dados do Azure para MySQL. Você pode especificar as tabelas a serem monitoradas. O eventstream registrará quaisquer alterações futuras nas tabelas no nível de linha. |
| CDA do Azure Cosmos DB | O conector de origem da Captura de Dados de Alterações (CDA) do Banco de Dados do Azure Cosmos DB dos fluxos de eventos do Microsoft Fabric permite que você capture um instantâneo dos dados atuais em um banco de dados do Azure Cosmos DB. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
| SQL Server no Banco de Dados (DB) CDC da máquina virtual (VM) | O conector de origem do SQL Server na VM DB (CDC) para fluxos de eventos do Fabric permite que você capture um instantâneo dos dados atuais em um banco de dados do SQL Server na VM. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível de linha nos dados. |
| CDC da Instância Gerenciada de SQL do Azure | O conector de origem da CDA da Instância Gerenciada de SQL do Azure para fluxos de eventos do Microsoft Fabric permite que você capture um instantâneo dos dados atuais em um banco de dados da Instância Gerenciada de SQL. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
| Eventos de Itens do workspace do Fabric | Os eventos de itens do espaço de trabalho do Fabric são eventos discretos do Fabric que ocorrem quando são feitas alterações no espaço de trabalho do Fabric. Essas alterações incluem a criação, a atualização ou a exclusão de um item do Fabric. Com os fluxos de eventos do Fabric, você pode capturar esses eventos do espaço de trabalho do Fabric, transformá-los e encaminhá-los a vários destinos no Fabric para análise adicional. |
| Eventos do Fabric OneLake | Os eventos do OneLake permitem que você assine alterações em arquivos e pastas no OneLake e, em seguida, reaja a essas alterações em tempo real. Com os fluxos de eventos do Fabric, você pode capturar esses eventos do OneLake, transformá-los e roteá-los para vários destinos no Fabric para análise adicional. Essa integração perfeita de eventos do OneLake nos fluxos de eventos do Fabric oferece maior flexibilidade para monitorar e analisar atividades em seu OneLake. |
| Eventos de Trabalho do Fabric | Os eventos de tarefas permitem que você assine as alterações ocorridas quando o Fabric executa uma tarefa. Por exemplo, você pode reagir às alterações ao atualizar um modelo semântico, executar um pipeline agendado ou executar um notebook. Cada uma dessas atividades pode gerar um trabalho correspondente, que, por sua vez, gera um conjunto de eventos de trabalho correspondentes. Com os fluxos de eventos do Fabric, você pode capturar esses eventos de trabalho, transformá-los e roteá-los para vários destinos no Fabric para análise adicional. Essa integração perfeita de eventos de trabalho nos fluxos de eventos do Fabric oferece maior flexibilidade para monitorar e analisar atividades em seu Trabalho. |
| Eventos de visão geral da capacidade do Fabric (versão prévia) | Os Eventos de Visão Geral da Capacidade do Fabric fornecem informações de nível de resumo relacionadas à sua capacidade. Esses eventos podem ser usados para criar alertas relacionados à saúde da capacidade por meio do Data Activator ou podem ser armazenados em um Eventhouse para análise detalhada ou histórica. |
| Eventos de Armazenamento de Blobs do Azure | Os eventos do Armazenamento de Blobs do Azure são acionados quando um cliente cria, substitui ou exclui um Blob. O conector permite vincular eventos do Azure Blob Storage a eventos do Fabric no Hub em Tempo Real. Você pode converter esses eventos em fluxos de dados contínuos e transformá-los antes de encaminhá-los a vários destinos no Fabric. |
| Pub/Sub do Google Cloud | O Pub/Sub do Google é um serviço de mensagens que permite publicar e assinar fluxos de eventos. Você pode adicionar o Pub/Sub do Google como origem para o eventstream para capturar, transformar e encaminhar eventos em tempo real a vários destinos no Fabric. |
| Fluxos de dados do Amazon Kinesis | O Amazon Kinesis Data Streams é um serviço de processamento e ingestão de dados altamente escalonável e durável, otimizado para fluxo de dados. Ao integrar o Amazon Kinesis Data Streams como uma origem no eventstream, você pode processar facilmente fluxos de dados em tempo real antes de encaminhá-los a vários destinos no Fabric. |
| Confluent Cloud para Apache Kafka | O Confluent Cloud para Apache Kafka é uma plataforma de streaming que oferece funcionalidades avançadas de streaming e processamento de dados usando o Apache Kafka. Integrando o Confluent Cloud para Apache Kafka como uma origem em seu fluxo de eventos, você pode processar perfeitamente fluxos de dados em tempo real antes de roteá-los para vários destinos no Fabric. |
| Apache Kafka (versão prévia) | O Apache Kafka é uma plataforma distribuída de software livre para a criação de sistemas de dados escalonáveis e em tempo real. Ao integrar o Apache Kafka como uma origem no eventstream, você pode facilmente trazer eventos em tempo real do Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric. |
| Amazon MSK Kafka | O Amazon MSK Kafka é um serviço Kafka totalmente gerenciado que simplifica a instalação, o dimensionamento e o gerenciamento. Ao integrar o Amazon MSK Kafka como uma origem no seu fluxo de eventos, você pode facilmente trazer os eventos em tempo real do Amazon MSK Kafka e processá-los antes de roteá-los para vários destinos dentro do Fabric. |
| MQTT (versão prévia) | Os fluxos de eventos do Microsoft Fabric permitem que você se conecte a um agente MQTT, onde as mensagens no agente MQTT são ingeridas no eventstream do Fabric e roteadas para vários destinos no Fabric. |
| Cribl (versão prévia) | Os fluxos de eventos do Microsoft Fabric permitem que você conecte o Crible ao fluxo de eventos do Fabric e sejam roteados para vários destinos no Fabric. |
| Solace PubSub+ (versão prévia) | Os fluxos de eventos do Microsoft Fabric permitem que você se conecte ao Solace PubSub+, permitindo que mensagens do Solace PubSub+ sejam ingeridas no eventstream do Fabric e roteadas para vários destinos dentro do Fabric. |
Observação
Um fluxo de eventos pode dar suporte a até 11 origens e destinos combinados somente ao usar os seguintes tipos:
- Fonte: ponto de extremidade personalizado.
- Destinos: endpoint personalizado e Eventhouse com ingestão direta.
As fontes ou destinos não incluídos na lista acima e os destinos não acrescentados ao fluxo padrão não contam para esse limite.
Conteúdo relacionado
Pré-requisitos
Antes de começar, você deve concluir os seguintes pré-requisitos:
- Acesso a um workspace no modo de licença de capacidade do Fabric (ou) no modo de licença de Avaliação com permissões de Colaborador ou superior.
- Para adicionar um Hubs de Eventos do Azure ou Hub IoT do Azure como origem do eventstream, você precisará ter a permissão apropriada para acessar suas chaves de política. Elas deve ser publicamente acessíveis e não por trás de um firewall ou protegida em uma rede virtual.
Origens compatíveis
Os fluxos de eventos do Fabric dão suporte às fontes a seguir. Use os links na tabela para navegar até artigos que forneçam mais detalhes sobre como adicionar origens específicas.
| Source | Descrição |
|---|---|
| Hubs de eventos do Azure | Se você tiver um hub de eventos do Azure, poderá ingerir dados do hub de eventos no Microsoft Fabric usando um fluxo de eventos. |
| Hub IoT do Azure | Se você tiver um hub IoT do Azure, poderá ingerir dados IoT no Fabric usando um fluxo de eventos. |
| Dados de amostra | Você pode escolher Bicicletas, Táxi Amarelo ou Mercado de Ações como uma fonte de dados de exemplo para testar a ingestão de dados ao configurar um fluxo de eventos. |
| Aplicativo personalizado | O recurso de aplicativo personalizado permite que seus aplicativos ou clientes Kafka se conectem a um fluxo de eventos usando uma cadeia de conexão. Essa funcionalidade permite a ingestão suave de dados de streaming no fluxo de eventos. |
Observação
Um fluxo de eventos pode dar suporte a até 11 origens e destinos combinados somente ao usar os seguintes tipos:
- Fonte: ponto de extremidade personalizado.
- Destinos: endpoint personalizado e Eventhouse com ingestão direta.
As fontes ou destinos não incluídos na lista acima e os destinos não acrescentados ao fluxo padrão não contam para esse limite.
Gerenciar uma origem
Editar/remover: você pode selecionar uma origem de fluxo de eventos por meio do painel de navegação ou da tela. Ao selecionar Editar, o painel de edição é aberto à direita do editor principal.
Regenerar chave para um aplicativo personalizado: se você quiser regenerar uma nova chave de conexão para seu aplicativo, selecione uma das fontes de aplicativo personalizadas na tela e selecione Regenerar para obter uma nova chave de conexão.