Compartilhar via


Ciclo de vida da API do OpenAI do Azure em Modelos da Fábrica de IA do Azure

Este artigo é para ajudá-lo a entender o ciclo de vida de suporte para APIs do Azure OpenAI.

Observação

Novos objetos de resposta de API podem ser adicionados à resposta da API a qualquer momento. Recomendamos que você analise apenas os objetos de resposta necessários.

Evolução da API

Anteriormente, o OpenAI do Azure recebia atualizações mensais de novas versões de API. Aproveitar os novos recursos exigia atualizar constantemente o código e as variáveis de ambiente a cada nova versão da API. O Azure OpenAI também exigiu a etapa extra do uso de clientes específicos do Azure que criaram sobrecarga ao migrar código entre o OpenAI e o Azure OpenAI.

A partir de agosto de 2025, você poderá aceitar nossas APIs do OpenAI do Azure da próxima geração v1 que adicionam suporte para:

  • Acesso contínuo aos recursos mais recentes, sem necessidade de especificar novos api-version a cada mês.
  • Ciclo de lançamento de API mais rápido com novos recursos sendo iniciados com mais frequência.
  • Suporte ao cliente OpenAI com alterações mínimas de código para trocar entre OpenAI e OpenAI do Azure ao usar a autenticação baseada em chave.
  • Suporte ao cliente do OpenAI para obter autenticação baseada em token e atualização automática de token sem a necessidade de depender de um cliente Azure OpenAI separado.
  • Faça chamadas de conclusão de chat com modelos de outros provedores, como DeepSeek e Grok, que dão suporte à sintaxe de conclusões de chat v1.

O acesso a novas chamadas à API que ainda estão em versão prévia será controlado passando cabeçalhos de visualização específicos do recurso, permitindo aceitar os recursos desejados, sem precisar trocar as versões da API. Opcionalmente, alguns recursos indicarão o status de versão prévia por meio de seu caminho de API e não exigirão um cabeçalho adicional.

Exemplos:

  • /openai/v1/evals está em versão prévia e requer a passagem de um cabeçalho de "aoai-evals":"preview".
  • /openai/v1/fine_tuning/alpha/graders/ está em versão prévia e não requer nenhum cabeçalho personalizado devido à presença de alpha no caminho da API.

Para a inicialização da API de GA (disponibilidade geral) v1 inicial, só há suporte para um subconjunto dos recursos de API de inferência e criação. Todos os recursos de GA têm suporte para uso em produção. Em breve, adicionaremos suporte para mais recursos.

Alterações de código

API v1

Exemplos do Python v1

Chave de API:

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("AZURE_OPENAI_API_KEY"),
    base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)

response = client.responses.create(   
  model="gpt-4.1-nano", # Replace with your model deployment name 
  input="This is a test.",
)

print(response.model_dump_json(indent=2)) 
  • OpenAI() o cliente é usado em vez de AzureOpenAI().
  • base_url passa o ponto de extremidade do OpenAI do Azure e /openai/v1 é acrescentado ao endereço do ponto de extremidade.
  • api-version não é mais um parâmetro necessário com a API de GA v1.

Chave de API com variáveis de ambiente definidas para OPENAI_BASE_URL e OPENAI_API_KEY:

client = OpenAI()

Microsoft Entra ID:

Importante

O tratamento da atualização automática de token foi tratado anteriormente por meio do uso do cliente AzureOpenAI(). A API v1 remove essa dependência adicionando suporte automático de atualização de token ao cliente OpenAI().

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = OpenAI(  
  base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",  
  api_key = token_provider  
)

response = client.responses.create(
    model="gpt-4.1-nano",
    input= "This is a test" 
)

print(response.model_dump_json(indent=2)) 
  • base_url passa o ponto de extremidade do OpenAI do Azure e /openai/v1 é acrescentado ao endereço do ponto de extremidade.
  • api_key o parâmetro é definido como token_provider, habilitando a recuperação automática e a atualização de um token de autenticação em vez de usar uma chave de API estática.

Suporte ao modelo

Para modelos do Azure OpenAI, recomendamos usar a API de Respostas, no entanto, a API v1 também permite que você faça chamadas de conclusão de chat com modelos de outros provedores, como DeepSeek e Grok, que dão suporte à sintaxe de conclusões de chat do OpenAI v1.

base_url aceitará ambos https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/ e https://YOUR-RESOURCE-NAME.services.ai.azure.com/openai/v1/ formatos.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = OpenAI(  
  base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",  
  api_key=token_provider,
)
completion = client.chat.completions.create(
  model="grok-3-mini", # Replace with your model deployment name.
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Tell me about the attention is all you need paper"}
  ]
)

#print(completion.choices[0].message)
print(completion.model_dump_json(indent=2))

Suporte de API v1

Situação

Recursos em disponibilidade geral têm suporte para uso em produção.

Caminho da API Situação
/openai/v1/chat/completions Disponibilidade Geral
/openai/v1/embeddings Disponibilidade Geral
/openai/v1/evals Preview
/openai/v1/files Disponibilidade Geral
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy Preview
/openai/v1/fine_tuning/alpha/graders/ Preview
/openai/v1/fine_tuning/ Disponibilidade Geral
/openai/v1/models Disponibilidade Geral
/openai/v1/responses Disponibilidade Geral
/openai/v1/vector_stores Disponibilidade Geral

Cabeçalhos de versão prévia

Caminho da API Header
/openai/v1/evals "aoai-evals":"preview"
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy "aoai-copy-ft-checkpoints" : "preview"

Alterações entre a versão prévia da v1 e a versão 2025-04-01-preview

  • API de visualização v1
  • Suporte à geração de vídeo
  • NOVOS Recursos da API de Respostas:
    • Integração de ferramentas de servidores MCP (protocolo de contexto remoto)
    • Suporte para tarefas em segundo plano assíncronas
    • Itens de raciocínio criptografados
    • Geração de imagem

Alterações entre 2025-04-01-preview e 2025-03-01-preview

Alterações entre 2025-03-01-preview e 2025-02-01-preview

Alterações entre 2025-02-01-preview e 2025-01-01-preview

Alterações entre 2025-01-01-preview e 2024-12-01-preview

Alterações entre 2024-12-01-preview e 2024-10-01-preview

Alterações entre 2024-09-01-preview e 2024-08-01-preview

  • max_completion_tokens adicionado para dar suporte aos modelos o1-preview e o1-mini. max_tokens não funciona com os modelos da série o1.
  • parallel_tool_calls adicionado
  • Adicionados completion_tokens_details e reasoning_tokens.
  • Adicionados stream_options e include_usage.

Alterações entre as especificações das APIs 2024-07-01-preview e 2024-08-01-preview

Alterações entre as especificações das APIs 2024-5-01-preview e 2024-07-01-preview

Alterações entre as especificações das APIs 2024-04-01-preview e 2024-05-01-preview

Alterações entre as especificações das APIs 2024-03-01-preview e 2024-04-01-preview

Versão mais recente da API GA

A versão da API 2024-10-21 do Serviço OpenAI do Azure é atualmente a versão mais recente da API em disponibilidade geral. Esta versão da API é o substituto para a versão anterior 2024-06-01 de lançamento GA.

Problemas conhecidos

  • A 2025-04-01-preview especificação do Azure OpenAI usa OpenAPI 3.1, é um problema conhecido que atualmente não tem suporte total do Gerenciamento de API do Azure

Próximas etapas