Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Os espaços de trabalho são locais para colaborar com colegas para criar artefatos de aprendizado de máquina e trabalho relacionado a grupos. Por exemplo, experimentos, trabalhos, conjuntos de dados, modelos, componentes e pontos de extremidade de inferência. Este artigo descreve espaços de trabalho, como gerenciar o acesso a eles e como usá-los para organizar seu trabalho.
Pronto para começar? Crie um espaço de trabalho.
Tarefas executadas dentro de um espaço de trabalho
Para as equipes de aprendizado de máquina, o espaço de trabalho é um lugar para organizar seu trabalho. Aqui estão algumas das tarefas que você pode começar a partir de um espaço de trabalho:
- Criar empregos - Empregos são treinamentos que você usa para construir seus modelos. Você pode agrupar trabalhos em experimentos para comparar métricas.
- Pipelines de autor - Os pipelines são fluxos de trabalho reutilizáveis para formação e formação contínua do modelo.
- Registrar ativos de dados - Os ativos de dados ajudam no gerenciamento dos dados que você usa para treinamento de modelos e criação de pipeline.
- Registrar modelos - Depois de ter um modelo que deseja implantar, você cria um modelo registrado.
- Criar pontos de extremidade online - Use um modelo registrado e um script de avaliação para criar um ponto de extremidade online.
- Implantar um modelo - Use o modelo registrado e um script de pontuação para implantar um modelo.
Além de agrupar os resultados do aprendizado de máquina, os espaços de trabalho também hospedam configurações de recursos:
- Os destinos de computação são usados para executar seus experimentos.
- Os armazenamentos de dados definem como você e outras pessoas podem se conectar a fontes de dados ao usar ativos de dados.
- Configurações de segurança - Rede, controle de identidade e acesso e configurações de criptografia.
Organização de espaços de trabalho
Para líderes e administradores de equipe de aprendizado de máquina, os espaços de trabalho servem como contêineres para gerenciamento de acesso, gerenciamento de custos e isolamento de dados. Aqui estão algumas dicas para organizar espaços de trabalho:
- Use funções de usuário para gerenciamento de permissões no espaço de trabalho entre usuários. Por exemplo, um cientista de dados, um engenheiro de aprendizado de máquina ou um administrador.
- Atribuir acesso a grupos de usuários: usando grupos de usuários do Microsoft Entra, você não precisa adicionar usuários individuais a cada espaço de trabalho e a outros recursos aos quais o mesmo grupo de usuários requer acesso.
- Criar um espaço de trabalho por projeto: embora um espaço de trabalho possa ser usado para vários projetos, limitá-lo a um projeto por espaço de trabalho permite relatórios de custos acumulados em um nível de projeto. Ele também permite que você gerencie configurações como datastores no escopo de cada projeto.
- Compartilhar recursos do Azure: os espaços de trabalho exigem que você crie vários recursos associados. Compartilhe esses recursos entre espaços de trabalho para salvar etapas de configuração repetitivas.
- Habilite o autoatendimento: pré-crie e proteja recursos associados como administrador de TI e use funções de usuário para permitir que cientistas de dados criem espaços de trabalho por conta própria.
- Compartilhar ativos: você pode compartilhar ativos entre espaços de trabalho usando registros do Azure Machine Learning.
Como é que o meu conteúdo é armazenado numa área de trabalho?
O seu espaço de trabalho mantém um histórico de todas as execuções de treinos, com logs, métricas, resultados, metadados de linhagem e uma instantâneo dos seus scripts. À medida que você executa tarefas no Aprendizado de Máquina do Azure, os artefatos são gerados. Seus metadados e dados são armazenados no espaço de trabalho e em seus recursos associados.
Recursos associados
Ao criar uma nova área de trabalho, precisa de trazer outros recursos do Azure para armazenar os seus dados. Se não for fornecido por si, o Azure Machine Learning cria automaticamente estes recursos.
Conta do Armazenamento do Azure. Armazena artefactos de aprendizagem automática, como registos de tarefas. Por padrão, essa conta de armazenamento é usada quando você carrega dados no espaço de trabalho. Os blocos de anotações Jupyter usados com suas instâncias de computação do Azure Machine Learning também são armazenados aqui.
Importante
Você não pode usar uma conta de Armazenamento do Azure existente se:
- Uma conta do tipo BlobStorage
- Uma conta premium (Premium_LRS e Premium_GRS)
- Uma conta com namespace hierárquico (usado com o Azure Data Lake Storage Gen2).
Você pode usar o armazenamento premium ou o namespace hierárquico como armazenamento extra criando um armazenamento de dados.
Não habilite o namespace hierárquico na conta de armazenamento após a atualização para a v2 de uso geral.
Se você trouxer uma conta de armazenamento v1 de uso geral existente, poderá atualizar para v2 de uso geral depois que o espaço de trabalho for criado.
Azure Container Registry (ACR). As lojas criaram contêineres docker quando você cria ambientes personalizados por meio do Azure Machine Learning. A implantação de modelos AutoML e perfis de dados aciona a criação de ambientes personalizados.
Os espaços de trabalho podem ser criados sem ACR como uma dependência se você não tiver a necessidade de criar contêineres docker personalizados. O Azure Machine Learning pode ler a partir de registos de contentores externos.
O ACR é provisionado automaticamente quando você cria imagens personalizadas do docker. Utilize o controlo de acesso baseado em funções do Azure (Azure RBAC) para impedir que contêineres Docker dos clientes sejam construídos.
Importante
Se sua configuração de assinatura exigir a adição de tags aos recursos sob ela, o ACR criado pelo Azure Machine Learning falhará, pois não podemos definir tags como ACR.
Azure Application Insights. Ajuda a monitorizar e recolher informações de diagnóstico dos seus endpoints de inferência.
Para obter mais informações, consulte Monitorizar pontos de extremidade online.
Azure Key Vault. Armazena segredos que são usados por destinos de computação e outras informações confidenciais de que o espaço de trabalho precisa.
Criar uma área de trabalho
Há várias maneiras de criar um espaço de trabalho. Para começar, use uma das seguintes opções:
- O estúdio do Azure Machine Learning permite criar rapidamente um espaço de trabalho com configurações padrão.
- Use o portal do Azure para uma interface de apontar e clicar com mais opções de segurança.
- Usa a extensão VS Code se trabalhares no Visual Studio Code.
Para automatizar a criação de espaços de trabalho usando suas configurações de segurança preferidas:
- Os modelos do Azure Resource Manager / Bicep fornecem uma sintaxe declarativa para implantar recursos do Azure. Uma opção alternativa é usar Terraform. Consulte também o modelo Bicep ou modelo Terraform.
- Use o CLI do Azure Machine Learning ou SDK do Azure Machine Learning para Python para prototipagem e como parte dos seus fluxos de trabalho de MLOps.
- Utilize diretamente as REST APIs no ambiente de scripting, para integração de plataforma ou em fluxos de trabalho de MLOps.
Os modelos do Azure Resource Manager / Bicep fornecem uma sintaxe declarativa para implantar recursos do Azure. Uma opção alternativa é usar Terraform. Consulte também o modelo Bicep ou modelo Terraform.
Utilize a CLI Azure Machine Learning v1 ou o SDK Azure Machine Learning v1 para Python para criar protótipos e como parte dos seus fluxos de trabalho MLOps.
Importante
Este artigo fornece informações sobre como usar o SDK do Azure Machine Learning v1. O SDK v1 foi preterido a partir de 31 de março de 2025. O apoio terminará em 30 de junho de 2026. Você pode instalar e usar o SDK v1 até essa data.
Recomendamos a transição para o SDK v2 antes de 30 de junho de 2026. Para obter mais informações sobre o SDK v2, consulte O que é a CLI do Azure Machine Learning e o SDK do Python v2? e a referência do SDK v2.
Importante
Alguns dos comandos da CLI do Azure neste artigo usam a extensão , ou v1, para o
azure-cli-ml
Azure Machine Learning. O suporte para a extensão v1 terminará em 30 de setembro de 2025. Você pode instalar e usar a extensão v1 até essa data.Recomendamos que você faça a transição para a
ml
extensão , ou v2, antes de 30 de setembro de 2025. Para obter mais informações sobre a extensão v2, consulte Extensão CLI do Azure Machine Learning e Python SDK v2.Utilize diretamente as REST APIs no ambiente de scripting, para integração de plataforma ou em fluxos de trabalho de MLOps.
Ferramentas para interação e gerenciamento do espaço de trabalho
Depois que seu espaço de trabalho estiver configurado, você poderá interagir com ele das seguintes maneiras:
- na web
- Em qualquer ambiente Python com o SDK do Azure Machine Learning.
- Na linha de comando, usando a extensão da CLI do Azure Machine Learning v2
- Azure Machine Learning VS Extensão de Código
- na web
- Em qualquer ambiente Python com o SDK do Azure Machine Learning v1
Importante
Este artigo fornece informações sobre como usar o SDK do Azure Machine Learning v1. O SDK v1 foi preterido a partir de 31 de março de 2025. O apoio terminará em 30 de junho de 2026. Você pode instalar e usar o SDK v1 até essa data.
Recomendamos a transição para o SDK v2 antes de 30 de junho de 2026. Para obter mais informações sobre o SDK v2, consulte O que é a CLI do Azure Machine Learning e o SDK do Python v2? e a referência do SDK v2.
- Na linha de comando, usando a extensão v1 da CLI do Azure Machine Learning
Importante
Alguns dos comandos da CLI do Azure neste artigo usam a extensão , ou v1, para o
azure-cli-ml
Azure Machine Learning. O suporte para a extensão v1 terminará em 30 de setembro de 2025. Você pode instalar e usar a extensão v1 até essa data.Recomendamos que você faça a transição para a
ml
extensão , ou v2, antes de 30 de setembro de 2025. Para obter mais informações sobre a extensão v2, consulte Extensão CLI do Azure Machine Learning e Python SDK v2. - Azure Machine Learning VS Extensão de Código
As seguintes tarefas de gerenciamento de espaço de trabalho estão disponíveis em cada interface.
Tarefa de gestão da área de trabalho | Portais | Estúdio | SDK Python | CLI do Azure | Código VS |
---|---|---|---|---|---|
Criar uma área de trabalho | ✓ | ✓ | ✓ | ✓ | ✓ |
Gerir o acesso à área de trabalho | ✓ | ✓ | |||
Criar e gerir recursos de computação | ✓ | ✓ | ✓ | ✓ | ✓ |
Criar uma instância de computação | ✓ | ✓ | ✓ | ✓ |
Aviso
Não há suporte para mover seu espaço de trabalho do Azure Machine Learning para uma assinatura diferente ou mover a assinatura proprietária para um novo locatário. Fazer isso pode causar erros.
Sub recursos
Quando você cria clusters de computação e instâncias de computação no Aprendizado de Máquina do Azure, subrecursos são criados.
- VMs: fornecem poder de computação para instâncias de computação e clusters de computação, que você usa para executar trabalhos.
- Balanceador de carga: um balanceador de carga de rede é criado para cada instância de computação e cluster de computação para gerenciar o tráfego mesmo quando a instância/cluster de computação está parada.
- Rede Virtual: estes ajudam os recursos do Azure a comunicar entre si, com a Internet e com outras redes locais.
- Largura de banda: encapsula todas as transferências de dados de saída entre regiões.
Próximos passos
Para saber mais sobre como planejar um espaço de trabalho para os requisitos da sua organização, consulte Organizar e configurar o Azure Machine Learning.
Para começar a usar o Azure Machine Learning, consulte: