Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
I flussi di dati sono uno strumento basato sul cloud che consente di preparare e trasformare i dati senza scrivere codice. Forniscono un'interfaccia a basso codice per l'inserimento di dati da centinaia di origini dati, la trasformazione dei dati tramite 300 trasformazioni di dati e il caricamento dei dati risultanti in più destinazioni. Si considerino come assistente ai dati personali in grado di connettersi a centinaia di origini dati diverse, pulire i dati disordinati e distribuirli esattamente dove sono necessari. Che si tratti di sviluppatori professionisti o cittadini, i flussi di dati offrono un'esperienza moderna di integrazione dei dati per inserire, preparare e trasformare i dati da un set completo di origini dati, tra cui database, data warehouse, Lakehouse, dati in tempo reale e altro ancora.
Dataflow Gen2 è la versione più recente e più potente che funziona insieme al flusso di dati di Power BI originale (ora denominato Gen1). Basato sull'esperienza familiare di Power Query disponibile in diversi prodotti e servizi Microsoft, ad esempio Excel, Power BI, Power Platform e Dynamics 365, Dataflow Gen2 offre funzionalità avanzate, prestazioni migliori e funzionalità di copia veloci per inserire e trasformare rapidamente i dati. Se si inizia da zero, è consigliabile usare Dataflow Gen2 per le funzionalità avanzate e migliorare le prestazioni.
Cosa è possibile fare con i flussi di dati?
Con i flussi di dati, è possibile:
- Connettersi ai dati: eseguire il pull di informazioni da database, file, servizi Web e altro ancora.
- Trasformare i dati: pulire, filtrare, combinare e rimodellare i dati usando un'interfaccia visiva.
- Caricare i dati ovunque: inviare i dati trasformati ai database, ai data warehouse o all'archiviazione cloud.
- Automatizzare il processo: configurare le pianificazioni in modo che i dati rimangano aggiornati e up-to-date.
Funzionalità del flusso di dati
Ecco le funzionalità disponibili tra Dataflow Gen2 e Gen1:
| Funzionalità | Flusso di dati Gen2 | Flusso di dati Gen1 |
|---|---|---|
| Creare flussi di dati con Power Query | ✓ | ✓ |
| Processo di creazione più semplice | ✓ | |
| Salvataggio automatico e pubblicazione in background | ✓ | |
| Più destinazioni di output | ✓ | |
| Monitoraggio e rilevamento degli aggiornamenti migliori | ✓ | |
| Interagisce con le pipeline | ✓ | |
| Calcolo ad alte prestazioni | ✓ | |
| Connettersi tramite il connettore del flusso di dati | ✓ | ✓ |
| Direct Query tramite il connettore Dataflow | ✓ | |
| Aggiornare solo i dati modificati | ✓ | ✓ |
| Informazioni dettagliate basate su intelligenza artificiale | ✓ |
Aggiornamenti a Dataflow Gen2
Nelle sezioni successive sono riportati alcuni dei principali miglioramenti apportati a Dataflow Gen2 rispetto a Gen1 per semplificare e rendere più efficienti le attività di preparazione dei dati.
Gen2 è più facile da creare e usare
Dataflow Gen2 sembra familiare se hai usato Power Query in precedenza. Abbiamo semplificato il processo per farti iniziare rapidamente. Verrà fornita una guida passo-passo durante l'inserimento dei dati nel flusso di dati e abbiamo ridotto il numero di passaggi necessari per creare i tuoi flussi di dati.
Il salvataggio automatico mantiene il lavoro sicuro
Gen2 Flusso di dati salva automaticamente le modifiche mentre lavori. È possibile allontanarsi dal computer, chiudere il browser o perdere la connessione Internet senza preoccuparsi di perdere lo stato di avanzamento. Quando ritorni, tutto è esattamente dove l'hai lasciato.
Al termine della compilazione del flusso di dati, è possibile pubblicare le modifiche. Pubblicare salva il tuo lavoro ed esegue le convalide in background, quindi non è necessario attendere che tutto sia verificato prima di procedere con l'attività successiva.
Per altre informazioni sul funzionamento del salvataggio, vedere Salvare una bozza del flusso di dati.
Inviare dati ovunque sia necessario
Mentre Dataflow Gen1 archivia i dati trasformati nel proprio spazio di archiviazione interno (accessibile tramite il connettore Flusso di dati), Dataflow Gen2 offre la flessibilità per usare tale archiviazione o inviare i dati a destinazioni diverse.
Questa flessibilità apre nuove possibilità. Ad esempio, puoi:
- Usare un flusso di dati per caricare i dati in un lakehouse e quindi analizzarli con un notebook
- Caricare i dati in un database SQL di Azure e quindi usare una pipeline per spostarli in un data warehouse
Dataflow Gen2 supporta attualmente queste destinazioni:
- Database SQL di Azure
- Esplora dati di Azure (Kusto)
- Azure Datalake Gen2 (anteprima)
- Tabelle di Fabric Lakehouse
- Fabric Lakehouse Files (anteprima)
- Magazzino tessuti
- Database KQL dell'infrastruttura
- Database SQL dell'infrastruttura
- File di SharePoint
Per altre informazioni sulle destinazioni dati disponibili, vedere Destinazioni dati e impostazioni gestite di Dataflow Gen2.
Monitoraggio e rilevamento degli aggiornamenti migliori
Dataflow Gen2 offre un quadro più chiaro di ciò che accade con gli aggiornamenti dei dati. L'hub di monitoraggio è stato integrato e migliorato l'esperienza Cronologia aggiornamenti , in modo da poter tenere traccia dello stato e delle prestazioni dei flussi di dati.
Funziona perfettamente con le pipeline
Le pipeline consentono di raggruppare le attività per completare attività più grandi. Si considerino flussi di lavoro in grado di copiare dati, eseguire query SQL, eseguire stored procedure o eseguire notebook Python.
È possibile connettere più attività in una pipeline e impostarla per l'esecuzione in base a una pianificazione. Ad esempio, ogni lunedì è possibile usare una pipeline per eseguire il pull dei dati da un BLOB di Azure e pulirli, quindi attivare un flusso di dati Gen2 per analizzare i dati di log. In alternativa, alla fine del mese, è possibile copiare dati da un BLOB di Azure a un database SQL di Azure, quindi eseguire una stored procedure in tale database.
Per altre informazioni sulla connessione dei flussi di dati con le pipeline, vedere Attività del flusso di dati.
Calcolo ad alte prestazioni
Dataflow Gen2 usa motori di calcolo SQL di Infrastruttura di calcolo avanzati per gestire in modo efficiente grandi quantità di dati. Per eseguire questa operazione, Dataflow Gen2 crea sia gli elementi Lakehouse che Warehouse nell'area di lavoro e li usa per archiviare e accedere ai dati, migliorando le prestazioni per tutti i flussi di dati.
Copilot per Dataflow Gen2
Dataflow Gen2 si integra con Microsoft Copilot in Fabric per fornire assistenza basata sull'intelligenza artificiale per la creazione di soluzioni di integrazione dei dati tramite prompt del linguaggio naturale. Copilot consente di semplificare il processo di sviluppo del flusso di dati consentendo di usare il linguaggio di conversazione per eseguire trasformazioni e operazioni dei dati.
- Ottenere dati dalle origini: usare il prompt di avvio "Recupera dati da" per connettersi a varie origini dati, ad esempio OData, database e file
-
Trasformare i dati con il linguaggio naturale: applicare trasformazioni usando prompt di conversazione, ad esempio:
- "Mantieni solo i clienti europei"
- "Contare il numero totale di dipendenti per città"
- "Mantieni solo gli ordini le cui quantità sono superiori al valore mediano"
- Creare dati di esempio: usare Azure OpenAI per generare dati di esempio per il test e lo sviluppo
- Annulla operazioni: digitare o selezionare "Annulla" per rimuovere l'ultimo passaggio applicato
- Convalida e verifica: ogni azione copilota viene visualizzata come scheda di risposta con i passaggi corrispondenti nell'elenco Passaggi applicati
Per altre informazioni, vedere Copilot per Dataflow Gen2.
Cosa serve per usare i flussi di dati?
Dataflow Gen2 richiede una capacità Fabric o una capacità di prova Fabric. Per comprendere il funzionamento delle licenze per i flussi di dati, vedere Concetti e licenze di Microsoft Fabric.
Passaggio da Dataflow Gen1 a Gen2
Se i flussi di dati sono già stati compilati con Gen1, non preoccuparti: è possibile eseguirne facilmente la migrazione a Gen2. Sono disponibili diverse opzioni che consentono di effettuare il passaggio:
- Esportare e importare le query
- Copiare e incollare in Power Query
- Usare la funzionalità Salva con nome
Esportare e importare le query
È possibile esportare le query di Dataflow Gen1 e salvarle in un file PQT, quindi importarle in Dataflow Gen2. Per istruzioni dettagliate, vedere Usare la funzionalità modello di esportazione.
Copiare e incollare in Power Query
Se si dispone di un flusso di dati in Power BI o Power Apps, è possibile copiare le query e incollarle nell'editor Dataflow Gen2. Questo approccio consente di eseguire la migrazione senza dover ricompilare le query da zero. Altre informazioni: Copiare e incollare query di Dataflow Gen1 esistenti.
Usare la funzionalità Salva con nome
Se si dispone già di un tipo di flusso di dati (Gen1, Gen2 o Gen2 CI/CD), "Data Factory" include ora la funzionalità "Salva con nome". In questo modo è possibile salvare qualsiasi flusso di dati esistente come nuovo elemento Dataflow Gen2 (CI/CD) con una sola azione. Altri dettagli: Eseguire la migrazione a Dataflow Gen2 (CI/CD) usando Salva con nome.
Contenuto correlato
Di seguito sono disponibili altre informazioni. Vedere queste risorse utili:
- Monitorare i flussi di dati - Tenere traccia della cronologia e delle prestazioni degli aggiornamenti
- Salvare le bozze man mano che si lavora - Informazioni sulla funzionalità di salvataggio automatico
- Eseguire la migrazione da Gen1 a Gen2 - Guida dettagliata alla migrazione