Compartilhar via


Importar e exportar notebooks do Databricks

Essa página descreve como importar e exportar notebooks no Azure Databricks e os formatos de notebook compatíveis com o Azure Databricks.

Formatos de notebook compatíveis

O Databricks pode importar e exportar notebooks nos seguintes formatos:

  • Arquivo de origem: um arquivo que contém apenas instruções de código-fonte com a extensão .scala, .py, .sql ou .r.
  • HTML: um notebook do Azure Databricks com a extensão .html.
  • Arquivo .dbc do Databricks.
  • Notebook IPython: um Jupyter notebook com a extensão .ipynb.
  • RMarkdown: um documento R Markdown com a extensão .Rmd.

Importar um notebook

Você pode importar um notebook externo de uma URL ou um arquivo. Você também pode importar um arquivo ZIP de notebooks exportados em massa de um workspace do Azure Databricks.

  1. Clique no Ícone do workspaceWorkspace na barra lateral. Realize um dos seguintes procedimentos:
    • Clique com o botão direito do mouse em uma pasta e selecione Importar.
    • Para importar um bloco de anotações no nível superior da pasta do workspace atual, clique no menu kebab no canto superior direito e selecione Importar.
  2. Especifique a URL ou navegue até um arquivo que contém um formato externo com suporte ou um arquivo ZIP de notebooks exportados de um workspace do Azure Databricks.
  3. Clique em Importar.
    • Se você escolher um único notebook, ele será exportado na pasta atual.
    • Se você escolher um arquivo DBC ou ZIP, sua estrutura de pastas será recriada na pasta atual e cada notebook será importado.

Converter um arquivo em um notebook

Um ativo no workspace é identificado como um notebook se tiver uma extensão .ipynb ou contiver a cadeia de caracteres Databricks notebook source em um comentário na primeira linha e tiver uma das seguintes extensões: .py, .r, .scala, .sql. Qualquer gravação ou renomeação de um bloco de anotações ou arquivo que altera essas condições também altera o tipo do bloco de anotações ou arquivo. Por exemplo, se você tiver um arquivo myfile.txt que tenha # Databricks notebook source como a primeira linha, renomear esse arquivo para myfile.py o transforma em um notebook.

Observação

A conversão entre tipos de arquivo e notebook pode ter resultados inesperados, pois os notebooks têm um IPYNB ou formato de origem específico. Confira Formatos de notebook.

Para converter scripts Python, SQL, Scala e R em notebooks de célula única, adicione um comentário à primeira célula do arquivo:

Python

# Databricks notebook source

SQL

-- Databricks notebook source

Scala (linguagem de programação)

// Databricks notebook source

R

# Databricks notebook source

Para definir células em um script, use o comentário especial mostrado abaixo. Quando você importa o script para o Databricks, as células são criadas conforme marcadas pelas linhas COMMAND mostradas.

Python

# COMMAND ----------

SQL

-- COMMAND ----------

Scala (linguagem de programação)

// COMMAND ----------

R

# COMMAND ----------

Exportar notebooks

Observação

Quando você exporta um notebook como HTML, notebook de IPython (.ipynb) ou arquivo (DBC) e não limpa as saídas do comando, as saídas são incluídas na exportação.

Para exportar um notebook, selecione Arquivo > Exportar na barra de ferramentas do notebook e selecione o formato de exportação.

Para exportar todas as pastas em uma pasta de workspace como um arquivo ZIP:

  1. Clique no Ícone do workspaceWorkspace na barra lateral.

  2. Clique com o botão direito na pasta e selecione Exportar.

  3. Selecione o formato de exportação:

    • Arquivo DBC: exporte um arquivo do Databricks, um formato binário que inclui metadados e saídas de comando do notebook.
    • Arquivo de origem: exportar um arquivo ZIP de arquivos de origem do notebook, que pode ser importado para um workspace do Azure Databricks, usado em um pipeline de CI/CD ou exibido como arquivos de origem no idioma padrão de cada notebook. As saídas do comando do notebook não estão incluídas.
    • Arquivo HTML: exporte um arquivo ZIP de arquivos HTML. Cada arquivo HTML de notebook pode ser importado para um workspace do Azure Databricks ou exibido como HTML. As saídas do comando do notebook estão incluídas.