Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo mostra como adicionar a origem do Apache Kafka a um fluxo de eventos do Fabric.
O Apache Kafka é uma plataforma distribuída de software livre para a criação de sistemas de dados escalonáveis e em tempo real. Ao integrar o Apache Kafka como uma origem no eventstream, você pode facilmente trazer eventos em tempo real do Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric.
Observação
Não há suporte para esta origem nas seguintes regiões de capacidade do espaço de trabalho: Oeste dos EUA 3 e Oeste da Suíça.
Pré-requisitos
- Acesso ao workspace do Fabric com permissões de Colaborador ou acima.
- Um cluster do Apache Kafka em execução.
- O Apache Kafka deve ser acessível publicamente e não estar atrás de um firewall ou protegido em uma rede virtual.
Adicionar o Apache Kafka como origem
Na Inteligência em Tempo Real do Fabric, selecione Eventstream para criar um eventstream.
Na tela seguinte, selecione Adicionar origem externa.
Na página Selecionar uma fonte de dados ou fontes de dados, selecione Apache Kafka.
Configurar e conectar-se ao Apache Kafka
Na página Conectar, selecione Nova conexão.
Na seção Configurações de conexão, em Servidor Bootstrap, insira o endereço do servidor Apache Kafka.
Na seção Credenciais de conexão , se você tiver uma conexão existente com o cluster do Apache Kafka, selecione-a na lista suspensa para Conexão. Caso contrário, siga estas etapas:
- Em Nome da conexão, insira um nome para a conexão.
- Em Tipo de autenticação, confirme se a Chave de API está selecionada.
- Em Chave e Segredo, insira a chave de API e o segredo da chave.
Selecione Conectar.
Agora, na página Conectar, siga estas etapas.
Em Tópico, insira o tópico Kafka.
Em Grupo de consumidores, insira o grupo de consumidores do cluster do Apache Kafka. Esse campo fornece um grupo de consumidores dedicado para obter eventos.
Selecione Redefinir deslocamento automático para especificar onde começar a ler os deslocamentos, se não houver confirmação.
Para fontes do Apache Kafka recém-adicionadas, o único protocolo de segurança com suporte é SASL_SSL. Ao usar SASL_SSL, o certificado do servidor deve ser assinado por uma AC (Autoridade de Certificação) incluída na lista de autoridades de certificação confiáveis.
O mecanismo SASL padrão normalmente é PLAIN, a menos que configurado de outra forma. Você pode selecionar o mecanismo SCRAM-SHA-256 ou SCRAM-SHA-512 que atende aos seus requisitos de segurança.
Selecione Avançar. Na tela Revisar e criar, revise o resumo e selecione Adicionar.
Exibir o Eventstream atualizado
Você pode ver a origem do Apache Kafka adicionada ao Eventstream no modo Editar.
Depois de concluir essas etapas, a origem do Apache Kafka estará disponível para visualização no Modo de exibição ao vivo.
Observação
Para visualizar eventos dessa fonte do Apache Kafka, verifique se a chave usada para criar a conexão de nuvem tem permissão de leitura para grupos de consumidores prefixados com "preview-".
Para a origem do Apache Kafka, somente as mensagens no formato JSON podem ser visualizadas.
Conteúdo relacionado
Outros conectores:
- Fluxos de dados do Amazon Kinesis
- Azure Cosmos DB
- Hubs de eventos do Azure
- Hub IoT do Azure
- Captura de dados de alterações (CDA) com o Banco de Dados SQL do Azure
- Ponto de extremidade personalizado
- Pub/Sub do Google Cloud
- CDA do Banco de Dados MySQL
- CDA do Banco de dados PostgreSQL
- Dados de amostra
- Eventos de Armazenamento de Blobs do Azure
- Evento de espaço de trabalho do Fabric