Compartilhar via


Novidades no OpenAI do Azure nos Modelos da Fábrica de IA do Azure

Este artigo fornece um resumo das versões mais recentes e das principais atualizações de documentação do OpenAI do Azure.

Outubro de 2025

Suporte à API em tempo real para SIP

A API em tempo real agora dá suporte ao SIP, habilitando conexões de telefonia para realtimeapi. Para obter mais informações, consulte a documentação SIP em Tempo Real.

Modelo de áudio GPT-4o lançado

  • O modelo de conversão de fala em texto gpt-4o-transcribe-diarize foi lançado. Este é um modelo de ASR (Reconhecimento Automático de Fala) que converte o idioma falado em texto em tempo real. Ele permite que as organizações desbloqueiem insights de conversas instantaneamente com latência ultra baixa e alta precisão em mais de 100 idiomas. Essa funcionalidade é essencial para fluxos de trabalho em que os dados de voz conduzem decisões, como suporte ao cliente, reuniões virtuais e eventos ao vivo.

A diarização é o processo de identificar quem e quando falou em um fluxo de áudio. Ele transforma conversas em transcrições atribuídas pelo locutor, permitindo que as empresas extraam insights acionáveis de reuniões, chamadas de clientes e eventos ao vivo. Com modelos avançados, como gpt-4o-transcribe-diarize, as organizações ganham clareza e contexto em tempo real, transformando a voz em dados estruturados que impulsionam decisões mais inteligentes e melhoram a produtividade, dando suporte ao reconhecimento automático de fala.

Use este modelo por meio das APIs /audio e /realtime.

GPT-image-1-mini

O gpt-image-1-mini modelo agora está disponível para implantações globais. É uma versão menor do gpt-image-1 modelo que oferece um bom equilíbrio entre desempenho e custo. Atualmente, todos os casos de uso têm suporte, exceto para edições de imagem e fidelidade de entrada.

Solicitar acesso: Modelo de aplicação de acesso limitado

Siga o guia de instruções de geração de imagem para começar a usar esse modelo.

Filtro de detecção de conteúdo PII

A detecção de PII (informações de identificação pessoal) agora está disponível como um filtro de conteúdo interno. Esse recurso permite que você identifique e bloqueie informações confidenciais em saídas de LLM, aprimorando a privacidade dos dados. Para obter mais informações, consulte a documentação de detecção de PII .

Setembro de 2025

GpT-5-codex agora está disponível

Suporte de vídeo-para-vídeo do Sora

O modelo Sora do OpenAI agora dá suporte à geração de vídeo para vídeo. Você pode fornecer um vídeo curto como entrada para gerar um vídeo novo e mais longo que incorpora o vídeo de entrada. Confira o início rápido para começar.

Julho 2025

Suporte de imagem para vídeo do Sora

O modelo do Sora do OpenAI agora dá suporte à geração de imagem para vídeo. Você pode fornecer uma imagem como entrada para o modelo para gerar um vídeo que incorpore o conteúdo da imagem. Você também pode especificar o quadro do vídeo no qual a imagem deve aparecer: ela não precisa ser o início. Confira o início rápido para começar.

Este modelo Sora agora está disponível na região Central da Suécia e leste dos EUA 2.

GA do modelo de áudio da API em tempo real

Os modelos GPT RealTime e Áudio do OpenAI agora estão em disponibilidade geral nos Modelos Diretos da Fábrica de IA do Azure.

Melhorias de modelo:

  • Instruções aprimoradas a seguir: funcionalidades aprimoradas para seguir instruções de tom, ritmo e escalonamento de forma mais precisa e confiável. Também é possível alternar idiomas.
  • Novas vozes padrão, Marin e Cedar, que trazem melhor naturalidade e clareza à sintetização de voz.
  • Qualidade de áudio aprimorada: saída sem efeito estático, reprodução alfanumérica aprimorada e controle de modalidade.

Melhorias no serviço de API em tempo real:

  • Entrada da imagem: adicionar e discutir imagens por meio de voz sem requisitos de vídeo.
  • Chamada de função aprimorada: capacidade aprimorada de chamar código personalizado definido pelos desenvolvedores. Há suporte para a chamada de função assíncrona, permitindo que as sessões continuem enquanto uma chamada de função estiver pendente.
  • Modo de Conversa: comportamento de tomada de turnos do mundo real para interações naturais. O modo de conversa usa VAD para avisar os usuários se nenhuma resposta for detectada, melhorando a usabilidade do mundo real para interações semelhantes ao telefone.

É altamente recomendável que todos os clientes façam a transição para os modelos de GA recém-lançados para aproveitar ao máximo os recursos mais recentes. Visite a documentação do OpenAI do Azure e o Playground da Fábrica de IA do Azure para explorar os recursos e integrar aos seus aplicativos.

Disponibilidade geral (GA) de transbordamento provisionado

O transbordamento agora está em Disponibilidade Geral. O spillover gerencia as flutuações de tráfego em implantações provisionadas roteando excedentes para uma implantação padrão designada. Para saber mais sobre como maximizar a utilização para suas implantações provisionadas com transbordamento, consulte Gerenciar o tráfego com transbordamento para implantações provisionadas.

Modelos GPT-5 disponíveis

Nova versão do roteador de modelos

  • O roteador modelo agora dá suporte a modelos da série GPT-5.

  • O roteador de modelos para o Azure AI Foundry é um modelo de chat de IA que pode ser implantado e seleciona automaticamente o melhor modelo de chat subjacente para responder a uma determinada solicitação. Para obter mais informações sobre como o roteador de modelo funciona, suas vantagens e limitações, consulte o Guia de Conceitos do Roteador de Modelo. Para usar o roteador de modelo com a API de Conclusões, siga o Guia de instruções.

Julho de 2025

Atualização GPT-image-1 (versão prévia)

  • Parâmetro de fidelidade de entrada: O parâmetro input_fidelity na API de edição de imagens permite controlar quão fielmente o modelo transmite o estilo e as características dos elementos na imagem original (entrada). Isso é útil para:

    • Editar fotos preservando as características faciais; criando avatares que se parecem com a pessoa original em diferentes estilos; combinando rostos de várias pessoas em uma imagem.
    • Manter a identidade da marca em imagens geradas para ativos de marketing, simulações, fotografia de produto.
    • Comércio eletrônico e moda, onde você precisa editar imagens de roupas ou detalhes do produto sem comprometer o realismo.
  • Streaming parcial de imagens: as APIs de geração e edição de imagem dão suporte ao streaming parcial de imagens, em que retornam imagens com conteúdo parcialmente renderizado durante todo o processo de geração de imagem. Exiba essas imagens ao usuário para fornecer comentários visuais anteriores e mostrar o progresso da operação de geração de imagem.

Junho de 2025

Novos modelos codex-mini &o3-pro lançados

Maio de 2025

Geração de vídeo Sora lançada (versão prévia)

O modelo Sora (2025-05-02) é um modelo de geração de vídeo do OpenAI que pode criar cenas de vídeo realistas e imaginativas a partir de instruções de texto.

Siga o começo rápido para geração de vídeo para começar. Para obter mais informações, consulte o guia de conceitos de geração de vídeo.

Destaque para escudos de prompt (versão prévia)

O destaque é um sub-recurso das proteções da solicitação que aprimora a proteção contra ataques indiretos (documento inserido) marcando os documentos de entrada com formatação especial para indicar menor confiança para o modelo. Para obter mais informações, veja a documentação do Filtro de proteções da solicitação.

Roteador modelo (versão prévia)

O roteador de modelos para o Azure AI Foundry é um modelo de chat de IA que pode ser implantado e seleciona automaticamente o melhor modelo de chat subjacente para responder a uma determinada solicitação. Para obter mais informações sobre como o roteador de modelo funciona, suas vantagens e limitações, consulte o Guia de Conceitos do Roteador de Modelo. Para usar o roteador de modelo com a API de Conclusões, siga o Guia de instruções.

Abril de 2025

Suporte à API em tempo real (versão prévia) para WebRTC

A API em tempo real (versão prévia) agora dá suporte ao WebRTC, habilitando o streaming de áudio em tempo real e interações de baixa latência. Esse recurso é ideal para aplicativos que exigem comentários imediatos, como suporte ao cliente dinâmico ou assistentes de voz interativos. Para obter mais informações, consulte a documentação da API em tempo real (versão prévia).

GPT-image-1 lançado: prévia, acesso limitado

GPT-image-1 (2025-04-15) é o modelo de geração de imagem mais recente do Azure OpenAI. Ele apresenta melhorias importantes em relação ao DALL-E, incluindo:

  • Melhor em responder a instruções precisas.
  • Renderiza o texto de forma confiável.
  • Aceita imagens como entrada, o que permite os novos recursos de edição e preenchimento de imagens.

Solicitar acesso: Modelo de aplicação de acesso limitado

Siga o guia de instruções de geração de imagem para começar a usar o novo modelo.

modelos o4-mini e o3 lançados

Os modelos o4-mini e o3 já estão disponíveis. Esses são os modelos de raciocínio mais recentes do OpenAI do Azure que oferecem raciocínio, qualidade e desempenho aprimorados. Para obter mais informações, consulte a página introdução aos modelos de raciocínio.

GPT-4.1 lançado

GpT 4.1 e GPT 4.1-nano agora estão disponíveis. Estes são os modelos mais recentes do Azure OpenAI. O GPT 4.1 tem um limite de contexto de 1 milhão de tokens. Para obter mais informações, consulte a página modelos.

Modelos de áudio da gpt-4o lançados

Novos modelos de áudio alimentados pelo GPT-4o agora estão disponíveis.

  • Os modelos de conversão de fala para texto gpt-4o-transcribe e gpt-4o-mini-transcribe são lançados. Use esses modelos por meio das APIs /audio e /realtime.

  • O modelo de conversão de texto em fala gpt-4o-mini-tts foi lançado. Use o gpt-4o-mini-tts modelo de geração de texto para fala por meio da /audio API.

Para obter mais informações sobre os modelos disponíveis, veja a documentação modelos e versões.

Março de 2025

API de respostas e modelo de visualização de uso do computador

A API de Respostas é uma nova API com estado do Azure OpenAI. Ele reúne os melhores recursos da API de conclusões de chat e assistentes em uma experiência unificada. A API de Respostas também adiciona suporte para o novo modelo computer-use-preview, que alimenta a funcionalidade de Uso do computador.

Para acessar o computer-use-preview, o registro é obrigatório e o acesso será concedido com base nos critérios de elegibilidade da Microsoft. Os clientes que têm acesso a outros modelos de acesso limitado ainda precisam solicitar acesso para esse modelo.

Solicitar acesso: computer-use-preview aplicativo de modelo de acesso limitado

Para obter mais informações sobre os recursos do modelo e a disponibilidade da região, consulte a documentação dos modelos.

Gif animado do modelo de pré-visualização do uso do computador integrado com o Playwright.

Código de demonstração de integração do Playwright.

Derramamento provisionado (versão prévia)

O spillover gerencia as flutuações de tráfego em implantações provisionadas roteando excedentes para uma implantação padrão designada. Para saber mais sobre como maximizar a utilização para suas implantações provisionadas com derramamento, consulte Gerenciar tráfego com derramamento para implantações provisionadas (versão prévia).

Especificar configurações de filtragem de conteúdo

Além da configuração de filtragem de conteúdo no nível da implantação, agora também fornecemos um cabeçalho de solicitação que permite especificar sua configuração personalizada no momento da solicitação para cada chamada à API. Para obter mais informações, consulte Usar filtros de conteúdo (versão prévia).

Fevereiro de 2025

Versão prévia do GPT-4.5

O modelo gpt mais recente que se destaca em diversas tarefas de texto e imagem agora está disponível no Azure OpenAI.

Para obter mais informações sobre os recursos do modelo e a disponibilidade da região, consulte a documentação dos modelos.

API de conclusões armazenadas

Conclusões armazenadas permitem capturar o histórico de conversas de sessões de conclusão de chat para usar como conjuntos de dados para avaliações e aprimoramento.

implementações padrão de zona de dados o3-mini

o3-mini agora está disponível para implantações globais padrão e de zona de dados padrão para clientes registrados com acesso limitado.

Para obter mais informações, consulte nosso guia de modelo de raciocínio.

gpt-4o mini áudio lançado

O modelo gpt-4o-mini-audio-preview (2024-12-17) é o modelo de preenchimento de áudio mais recente. Para obter mais informações, consulte o início rápido da geração de áudio.

O modelo gpt-4o-mini-realtime-preview (2024-12-17) é o mais recente modelo de áudio em tempo real. Os modelos em tempo real usam o mesmo modelo de áudio GPT-4o subjacente da API de conclusões, mas são otimizados para interações de áudio em tempo real e de baixa latência. Para obter mais informações, veja o início rápido de áudio em tempo real.

Para obter mais informações sobre os modelos disponíveis, veja a documentação modelos e versões.

Janeiro de 2025

o3-mini lançado

o3-mini (2025-01-31) é o modelo de raciocínio mais recente, oferecendo habilidades de raciocínio aprimoradas. Para obter mais informações, consulte nosso guia de modelo de raciocínio.

Conclusões de áudio do GPT-4o

O modelo gpt-4o-audio-preview agora está disponível para implantações globais nas regiões Leste dos EUA 2 e Suécia Central. Use o modelo gpt-4o-audio-preview para geração de áudio.

O modelo gpt-4o-audio-preview apresenta a modalidade de áudio na API /chat/completions existente. O modelo de áudio expande o potencial para aplicativos de IA em interações baseadas em texto e voz e análise de áudio. As modalidades com suporte no modelo gpt-4o-audio-preview incluem: texto, áudio e texto + áudio. Para obter mais informações, consulte o início rápido da geração de áudio.

Note

A API em Tempo Real utiliza o mesmo modelo de áudio subjacente GPT-4o que a API de conclusões, mas está otimizada para interações de áudio em tempo real de baixa latência.

GPT Realtime API 2024-12-17

A versão 17-12-2024 do modelo gpt-4o-realtime-preview está disponível para implantações globais nas regiões Leste dos EUA 2 e Suécia Central. Use a versão 17-12-2024 do modelo gpt-4o-realtime-preview em vez da versão 01-10-2024-preview do modelo gpt-4o-realtime-preview para interações de áudio em tempo real.

  • Adicionado suporte para o cache de prompts com o modelo gpt-4o-realtime-preview.
  • Adicionado suporte para novas vozes. Os gpt-4o-realtime-preview modelos agora dão suporte às seguintes vozes: alloy, , ash, ballad, coral, echo, , sage, , shimmer. verse
  • Os limites de taxa não são mais baseados em conexões por minuto. A limitação de taxa agora é baseada em RPM (solicitações por minuto) e TPM (tokens por minuto) para o modelo gpt-4o-realtime-preview. Os limites de taxa para cada implantação de modelo gpt-4o-realtime-preview são 100 K TPM e 1 K RPM. Durante a visualização, é possível que o Portal da Fábrica de IA do Azure e as APIs mostrem incorretamente limites de taxa diferentes. Mesmo se você tentar definir um limite de taxa diferente, o limite de taxa real será de 100 K TPM e 1 K RPM.

Para obter mais informações, consulte o Início rápido de áudio em tempo real do GPT e o guia de instruções.

Dezembro de 2024

modelo de raciocínio o1 liberado para acesso limitado

O modelo de o1 mais recente agora está disponível para acesso à API e implantação de modelo. O registro é obrigatório e o acesso será concedido com base nos critérios de elegibilidade da Microsoft. Os clientes que aplicaram e receberam acesso o1-previewanteriormente não precisam se reaplicar, pois estão automaticamente na lista de espera para o modelo mais recente.

Solicitar acesso: aplicativo de modelo de acesso limitado

Para saber mais sobre os modelos avançados da série o1, veja introdução aos modelos de raciocínio da série O1.

Disponibilidade da região

Model Region
o1
(Versão: 2024-12-17)
Leste dos EUA2 (Padrão Global)
Suécia Central (Padrão Global)

Ajuste de preferência (versão prévia)

DPO (otimização de preferência direta) é uma nova técnica de alinhamento para modelos de linguagem grandes, projetada para ajustar os pesos do modelo com base nas preferências humanas. Ao contrário do aprendizado por reforço usando feedback humano (RLHF), o DPO não necessita ajustar um modelo de recompensa e utiliza dados mais simples (preferências binárias) para treinamento. Esse método é computacionalmente mais leve e mais rápido, tornando-o igualmente eficaz no alinhamento enquanto é mais eficiente. O DPO é especialmente útil em cenários em que elementos subjetivos, como tom, estilo ou preferências de conteúdo específicas, são importantes. Estamos empolgados em anunciar a prévia pública do DPO no Azure OpenAI, começando com o modelo gpt-4o-2024-08-06.

Para obter a disponibilidade do modelo de sintonia fina na sua região, confira a página de modelos.

Conclusões armazenadas e destilação

As conclusões armazenadas permitem capturar o histórico de conversas de sessões de conclusão de chat para usar como conjuntos de dados para avaliações e ajuste fino.

GPT-4o 2024-11-20

gpt-4o-2024-11-20 agora está disponível para implantação de norma global em:

  • Leste dos EUA
  • Leste dos EUA 2
  • Centro-Norte dos EUA
  • Centro-Sul dos EUA
  • Oeste dos EUA
  • Oeste dos EUA 3
  • Suécia Central

Tipo de implantação provisionada de zona de dados NEW

As implantações provisionadas de zona de dados estão disponíveis no mesmo recurso do OpenAI do Azure que todos os outros tipos de implantação do OpenAI do Azure, mas permitem que você use a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center dentro da zona de dados definida pela Microsoft com a melhor disponibilidade para cada solicitação. As implantações provisionadas de zona de dados fornecem capacidade de processamento de modelo reservado para uma taxa de transferência alta e previsível usando a infraestrutura do Azure dentro das zonas de dados especificadas pela Microsoft. As implantações provisionadas de zona de dados têm suporte em modelos gpt-4o-2024-08-06, gpt-4o-2024-05-13 e gpt-4o-mini-2024-07-18.

Para obter mais informações, consulte o guia de tipos de implantação.

Próximas etapas

Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.