Freigeben über


Bereitstellen von Azure OpenAI-Modellen mit Azure KI Foundry

In diesem Artikel erfahren Sie, wie Sie Bereitstellungen für Azure OpenAI in Azure AI Foundry Models mithilfe des Azure AI Foundry-Portals erstellen.

Azure OpenAI in Foundry Models bietet eine vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Wenn Sie Azure OpenAI-Modelle im Azure AI Foundry-Portal bereitstellen, können Sie die Bereitstellungen mithilfe des Eingabeaufforderungsflusses oder eines anderen Tools nutzen. Die Modellverfügbarkeit variiert je nach Region. Weitere Informationen zu den Details der einzelnen Modelle finden Sie unter Azure OpenAI-Modelle.

Um ein Azure OpenAI-Modell im Azure AI Foundry-Playground zu ändern und zu interagieren, müssen Sie zuerst ein Basismodell für Azure OpenAI für Ihr Projekt bereitstellen. Nachdem Sie das Modell bereitgestellt und in Ihrem Projekt zur Verfügung gestellt haben, können Sie den REST-API-Endpunkt as-is nutzen oder es mit Ihren eigenen Daten und anderen Komponenten, z. B. Einbettungen und Indizes, weiter anpassen.

Voraussetzungen

Bereitstellen eines Azure OpenAI-Modells aus dem Modellkatalog

Führen Sie die Schritte in diesem Abschnitt aus, um ein Azure OpenAI-Modell wie gpt-4o-miniz. B. einen Echtzeitendpunkt aus dem Azure AI Foundry-Portalmodellkatalog bereitzustellen:

  1. Melden Sie sich bei Azure KI Foundry an.
  2. Wenn Sie sich noch nicht in Ihrem Projekt befinden, wählen Sie es aus.
  3. Wählen Sie im linken Bereich den Modellkatalog aus.
  1. Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.

    Screenshot: Filtern nach OpenAI-Modellen im Katalog.

  2. Wählen Sie ein Modell wie gpt-4o-mini aus der Azure OpenAI-Sammlung aus.

  3. Wählen Sie "Dieses Modell verwenden " aus, um das Bereitstellungsfenster zu öffnen.

  4. Wählen Sie die Ressource aus, für die Sie das Modell bereitstellen möchten. Wenn Sie keine Ressource haben, erstellen Sie eine Ressource.

  5. Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.

  6. Klicken Sie auf Bereitstellen.

  7. Wechseln Sie zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.

  8. Wählen Sie "Code anzeigen" aus, um Codebeispiele abzurufen, mit denen Sie das bereitgestellte Modell in Ihrer Anwendung nutzen können.

Bereitstellen eines Azure OpenAI-Modells aus Ihrem Projekt

Sie können die Bereitstellung auch über Ihr Projekt im Azure AI Foundry-Portal starten.

Tipp

Da Sie den linken Bereich im Azure AI Foundry-Portal anpassen können, werden möglicherweise unterschiedliche Elemente angezeigt als in diesen Schritten. Wenn Sie nicht sehen, wonach Sie suchen, wählen Sie ... Mehr am unteren Rand des linken Bereichs.

  1. Wechseln Sie zu Ihrem Projekt im Azure KI Foundry-Portal.
  2. Wechseln Sie auf der linken Randleiste Ihres Projekts zu Meine Ressourcen>Modelle + Endpunkte.
  3. Wählen Sie + Modell bereitstellen>Basismodell bereitstellen aus.
  4. Suchen sie nach einem Modell, und wählen Sie es aus gpt-4o-mini der Liste der Modelle aus.
  5. Wählen Sie Bestätigen aus, um das Bereitstellungsfenster zu starten.
  6. Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.
  7. Klicken Sie auf Bereitstellen.
  8. Wechseln Sie zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.
  9. Wählen Sie "Code anzeigen" aus, um Codebeispiele abzurufen, mit denen Sie das bereitgestellte Modell in Ihrer Anwendung nutzen können.

Rückschlüsse des Azure OpenAI-Modells

Verwenden Sie zum Ableiten des bereitgestellten Modells den Playground oder Codebeispiele. Der Playground ist eine webbasierte Schnittstelle, über die Sie in Echtzeit mit dem Modell interagieren können. Verwenden Sie den Playground, um das Modell mit unterschiedlichen Eingabeaufforderungen zu testen und die Antworten des Modells anzuzeigen.

Weitere Beispiele für die Nutzung des bereitgestellten Modells in Ihrer Anwendung finden Sie in der Schnellstartanleitung zum Verwenden von Chatabschlussen mit Azure OpenAI in Azure AI Foundry Models.

Regionale Verfügbarkeits- und Kontingentbeschränkungen eines Modells

Bei Azure OpenAI-Modellen variiert das Standardkontingent für Modelle je nach Modell und Region. Bestimmte Modelle sind möglicherweise nur in einigen Regionen verfügbar. Weitere Informationen zu Verfügbarkeits- und Kontingentbeschränkungen finden Sie unter Azure OpenAI-Kontingente und -Grenzwerte.

Kontingent für die Bereitstellung und Ableitung eines Modells

Für Azure OpenAI-Modelle wird das Kontingent bereitgestellt und ableiten, das Azure Ihrem Abonnement pro Region in Einheiten von Token pro Minute (TPM) zuweist. Wenn Sie sich für Azure KI Foundry registrieren, erhalten Sie das Standardkontingent für die meisten verfügbaren Modelle. Anschließend weisen Sie jeder Bereitstellung TPM zu, während Sie sie erstellen, wodurch das verfügbare Kontingent für dieses Modell reduziert wird. Sie können weiterhin Bereitstellungen erstellen und ihnen TPM zuweisen, bis Sie Ihr Kontingentlimit erreicht haben.

Wenn Sie ihr Kontingentlimit erreichen, können Sie nur neue Bereitstellungen dieses Modells erstellen, wenn Sie:

Weitere Informationen zum Kontingent finden Sie unter Azure AI Foundry-Kontingent und Verwalten des Azure OpenAI-Kontingents.