Compartilhar via


Recursos de computação de notebooks

Este artigo aborda as opções de recursos de computação de notebooks. Você pode executar um notebook em um recurso de computação para todos os fins, computação sem servidor ou, para comandos SQL, pode usar um SQL Warehouse, um tipo de computação otimizada para análise de SQL. Para obter mais informações sobre tipos de computação, consulte Computação.

Computação sem servidor para notebooks

A computação sem servidor permite que você conecte seu notebook rapidamente aos recursos de computação sob demanda.

Para anexar à computação sem servidor, clique no menu suspenso Conectar no notebook e selecione Sem servidor.

Consulte Computação sem servidor para notebooks para obter mais informações.

Restauração de sessão automatizada para notebooks sem servidor

O encerramento por inatividade da computação sem servidor pode fazer com que você perca o trabalho em andamento, como valores de variável de Python, em seus notebooks. Para evitar isso, habilite a restauração de sessão automatizada para notebooks sem servidor.

  1. Clique no seu nome de usuário no canto superior direito do espaço de trabalho, então clique em Configurações na lista suspensa.
  2. Na barra lateral Configurações, selecione Desenvolvedor.
  3. Em Recursos Experimentais, ative a configuração Restaurar automaticamente sessões em notebooks sem servidor.

Habilitar essa configuração permite que o Databricks tire um instantâneo do estado de memória do notebook sem servidor antes do encerramento por inatividade. Quando você retorna a um bloco de anotações após uma desconexão ociosa, uma faixa é exibida na parte superior da página. Clique em Reconectar para restaurar o estado de trabalho.

Quando você se reconecta, o Databricks restabelece todo o ambiente de trabalho, incluindo:

  • Variáveis, funções e definições de classe do Python: o lado Python do notebook é preservado para que você não precise importar novamente ou redeclarar.
  • Dataframes do Spark, visualizações em cache e temporárias: os dados carregados, transformados ou armazenados em cache (incluindo visualizações temporárias) são preservados, portanto, você evita recarregamento ou recomputação custosos.
  • Estado da sessão do Spark: todas as configurações no nível do Spark, exibições temporárias, modificações de catálogo e UDFs (funções definidas pelo usuário) são salvas, portanto, você não precisa redefini-las.

Esse recurso tem limitações e não dá suporte à restauração do seguinte:

  • Estados Spark com mais de 4 dias
  • Estados Spark maiores que 50 MB
  • Dados relacionados ao script SQL
  • Identificadores de arquivo
  • Bloqueios e outros primitivos de simultaneidade
  • Conexões de rede

Anexar um notebook a um recurso de computação para todos os fins

Para anexar um notebook a um recurso de computação para todas as finalidades, é necessária a permissão PODE ANEXAR A no recurso de computação.

Importante

Desde que um notebook esteja anexado a um recurso de computação, qualquer usuário com a permissão CAN RUN no notebook tem permissão implícita para acessar o recurso de computação.

Para anexar um notebook a um recurso de computação, clique no seletor de computação na barra de ferramentas do notebook e selecione o recurso no menu suspenso.

O menu mostrará uma seleção de computação para todas as finalidades e SQL warehouses que você usou recentemente ou que estão em execução no momento.

Anexar notebook

Para selecionar de toda a computação disponível, clique em Mais.... Selecione entre a computação geral disponível ou os sql warehouses.

diálogo Mais clusters

Você também pode criar um novo recurso de computação multifuncional selecionando Criar novo recurso... no menu drop-down.

Importante

Um bloco de anotações anexado tem as seguintes variáveis do Apache Spark definidas.

Classe Nome de Variável
SparkContext sc
SQLContext/HiveContext sqlContext
SparkSession (Spark 2.x) spark

Não criar um SparkSession, SparkContext ou SQLContext. Isso resultará em um comportamento inconsistente.

Usar um notebook com um SQL warehouse

Quando um notebook é anexado a um SQL warehouse, você pode executar células SQL e Markdown. Executar uma célula em qualquer outra linguagem (como Python ou R) irá gerar um erro. As células SQL executadas em um SQL Warehouse aparecem no histórico de consultas do SQL Warehouse. O usuário que executou uma consulta pode exibir o perfil de consulta do notebook clicando no tempo decorrido na parte inferior da saída.

Os notebooks anexados aos sql warehouses dão suporte a sessões do SQL Warehouse, que permitem definir variáveis, criar exibições temporárias e manter o estado em várias execuções de consulta. Isso permite que você crie a lógica do SQL iterativamente sem a necessidade de executar todas as instruções de uma só vez. Veja o que são sessões do SQL Warehouse?

A execução de um notebook requer um SQL warehouse pro ou sem servidor. Você deve ter acesso ao workspace e ao SQL warehouse.

Para anexar um notebook a um SQL warehouse, faça o seguinte:

  1. Clique no seletor de computação na barra de ferramentas do notebook. O menu suspenso mostra os recursos de computação que estão em execução no momento ou que você usou recentemente. Os SQL warehouses estão marcados com um rótulo de SQL warehouse.

  2. No menu, selecione um SQL warehouse.

    Para ver todos os SQL warehouses disponíveis, selecione Mais... no menu suspenso. Uma caixa de diálogo é exibida mostrando os recursos de computação disponíveis para o notebook. Selecione SQL Warehouse, escolha o warehouse que deseja usar e clique em Anexar.

    caixa de diálogo mais cluster com SQL warehouse selecionado

Você também pode selecionar um SQL warehouse como o recurso de computação para um notebook SQL quando criar um fluxo de trabalho ou um trabalho agendado.

Limitações do SQL Warehouse

Consulte as limitações conhecidas dos notebooks do Databricks para obter mais informações.