Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
Este documento refere-se somente ao portal do Microsoft Foundry (clássico ).
Neste artigo, você aprenderá a criar implantações para o Azure OpenAI no Microsoft Foundry Models usando o portal do Foundry.
Os Modelos da Fábrica de OpenAI do Azure oferecem um conjunto diversificado de modelos com diferentes capacidades e preços. Ao implantar modelos do OpenAI do Azure no portal do Foundry, você pode consumir os ambientes usando o prompt flow ou outra ferramenta. A disponibilidade do modelo varia de acordo com a região. Para obter mais informações sobre os detalhes de cada modelo, consulte Modelos do OpenAI do Azure.
Para modificar e interagir com um modelo do Azure OpenAI no playground do Foundry , primeiro você precisa implantar um modelo base do Azure OpenAI em seu projeto. Depois de implantar o modelo e disponibilizá-lo em seu projeto, você poderá consumir seu ponto de extremidade da API REST como está ou personalizá-lo ainda mais com seus próprios dados e outros componentes, como incorporações e índices.
Pré-requisitos
Uma assinatura do Azure com uma forma de pagamento válida. As assinaturas gratuitas ou de avaliação do Azure não funcionam. Caso você não tenha uma assinatura do Azure, crie uma conta paga do Azure para começar.
Implantar um modelo Azure OpenAI do catálogo de modelos
Siga as etapas nesta seção para implantar um modelo do Azure OpenAI, como gpt-4o-mini, em um endpoint em tempo real no catálogo de modelos do portal do Foundry:
- Entre no Microsoft Foundry. Certifique-se de que o botão New Foundry está desativado. Essas etapas referem-se ao Foundry (clássico).
- Se você ainda não estiver em seu projeto, selecione-o.
- Selecione o catálogo de modelos no painel esquerdo.
No filtro Coleções, selecione Azure OpenAI.
Selecione um modelo como
gpt-4o-minida coleção Azure OpenAI.Selecione Usar este modelo para abrir a janela de implantação.
Selecione o recurso no qual deseja implantar o modelo. Se você não tiver um recurso, crie um.
Especifique o nome da implantação e modifique outras configurações padrão dependendo dos seus requisitos.
Selecione Implantar.
Vá para a página de detalhes da implantação. Selecione Abrir no playground.
Selecione Exibir Código para obter exemplos de código que você pode usar para consumir o modelo implantado em seu aplicativo.
Implantar um modelo Azure OpenAI do seu projeto
Você também pode iniciar a implantação do projeto no portal do Foundry.
Dica
Como você pode personalizar o painel esquerdo no portal do Microsoft Foundry, talvez você veja itens diferentes dos mostrados nestas etapas. Se você não vir o que está procurando, selecione ... Mais na parte inferior do painel esquerdo.
- Acesse seu projeto no portal do Foundry.
- Na barra lateral esquerda do projeto, acesse Meus ativos>Modelos + pontos de extremidade.
- Selecione Implantar modelo>Implantar modelo base.
- Pesquise e selecione um modelo, como
gpt-4o-minina lista de modelos. - Selecione Confirmar para abrir a janela de implantação.
- Especifique o nome da implantação e modifique outras configurações padrão dependendo dos seus requisitos.
- Selecione Implantar.
- Vá para a página de detalhes da implantação. Selecione Abrir no playground.
- Selecione Exibir Código para obter exemplos de código que você pode usar para consumir o modelo implantado em seu aplicativo.
Inferência o modelo Azure OpenAI
Para realizar inferência no modelo implantado, você pode usar o playground ou exemplos de código. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Você pode usar o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.
Para mais exemplos de como consumir o modelo implantado em seu aplicativo, consulte a Introdução ao uso de conclusões de chat com o OpenAI do Azure em Modelos da Fábrica.
Limites de disponibilidade e cota regionais de um modelo
Para modelos do OpenAI do Azure, a cota padrão para modelos varia de acordo com o modelo e a região. Determinados modelos só podem estar disponíveis em algumas regiões. Para obter mais informações sobre limites de disponibilidade e cota, consulte cotas e limites do Azure OpenAI.
Cota para implantar e inferir um modelo
Para modelos do OpenAI do Azure, a implantação e a inferência consomem a quota que o Azure atribui à sua subscrição por região, por modelo em unidades de Tokens por Minuto (TPM). Ao se inscrever no Foundry, você recebe a cota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que a cria, o que reduz a cota disponível para esse modelo. Você pode continuar criando implantações e atribuindo-lhes TPMs até atingir o limite de cota.
Ao atingir o limite de cota, você só poderá criar novas implantações desse modelo se:
- Solicite mais cota enviando um formulário de aumento de cota.
- Ajuste a cota alocada em outras implantações de modelo para liberar tokens para novas implantações no Portal do OpenAI do Azure.
Para obter mais informações sobre cota, consulte Cota do Foundry e Gerenciar cota do Azure OpenAI.
Conteúdo relacionado
- Saiba mais sobre o que você pode fazer no Foundry
- Obtenha respostas às perguntas frequentes no artigo Perguntas Frequentes sobre a IA do Azure