Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Lakeflow Declarative Pipelines é uma estrutura para criar pipelines de dados em lote e streaming em SQL e Python. Os casos de uso comuns do Lakeflow Declarative Pipelines incluem ingestão de dados de fontes como armazenamento em nuvem (como Amazon S3, Azure ADLS Gen2 e Google Cloud Storage) e barramentos de mensagens (como Apache Kafka, Amazon Kinesis, Google Pub/Sub, Azure EventHub e Apache Pulsar), além de transformações incrementais em lote e streaming.
Observação
Lakeflow Declarative Pipelines requer o plano Premium. Entre em contato com sua equipe de conta Databricks para obter mais informações.
Esta seção fornece informações detalhadas sobre o uso de Lakeflow Declarative Pipelines. Os tópicos a seguir irão ajudá-lo a começar.
Tópico | Description |
---|---|
Conceitos de Lakeflow Declarative Pipelines | Saiba mais sobre os conceitos de alto nível de Lakeflow Declarative Pipelines, incluindo pipelines, fluxos, tabelas de streaming e exibições materializadas. |
Tutoriais | Siga os tutoriais para obter experiência prática com a utilização de pipelines declarativas do Lakeflow. |
Desenvolver fluxos de trabalho | Saiba como desenvolver e testar pipelines que criam fluxos para ingestão e transformação de dados. |
Configurar pipelines | Saiba como agendar e configurar pipelines. |
Monitorizar pipelines | Saiba como monitorar seus pipelines e solucionar problemas de consultas de pipeline. |
Desenvolvedores | Saiba como usar Python e SQL ao desenvolver Lakeflow Declarative Pipelines. |
Pipelines declarativos Lakeflow no Databricks SQL | Saiba mais sobre como usar tabelas de streaming do Lakeflow Declarative Pipelines e exibições materializadas no Databricks SQL. |