Freigeben über


REST-API-Referenz zu Azure OpenAI in Azure KI Foundry Modellen

Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.

API-Spezifikationen

Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Steuerebene
  • Datenebene: Erstellung
  • Datenebene: Rückschluss

Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.

Von Bedeutung

Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

Programmierschnittstelle (API) Neuestes Vorschaurelease Neuestes allgemein verfügbares Release Spezifikationen BESCHREIBUNG
Steuerungsebene 2025-07-01-preview 2025-06-01 Spezifikationsdateien Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist.
Datenebene v1 preview v1 Spezifikationsdateien Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge.

Authentifizierung

Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token muss Bearer vorangestellt werden. Beispiel: Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datenebene: Rückschluss

Der Rest des Artikels behandelt das neueste Vorschaurelease der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse: 2024-10-21.

Eine Dokumentation für das neueste Vorschau-API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.

Abschlüsse

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.

URI-Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID Pfad Ja Schnur Bereitstellungs-ID des Modells, das bereitgestellt wurde.
API-Version Anfrage Ja Schnur API-Version

Anfrage-Kopf

Name Erforderlich Typ BESCHREIBUNG
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
prompt Zeichenfolge oder Array Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt.
Ja
best_of integer Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
Nein 1
Echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück.
Nein Falsch
Frequenzstrafe (frequency_penalty) number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
Nein Nichts
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Tokens zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.

Der Höchstwert für logprobs ist 5.
Nein Nichts
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können.

Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Nein 16
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
Nein 1
Präsenzstrafe number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
Nein 0
Seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten.
Nein
Datenstrom boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird. Nein Falsch
suffix Schnur Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.

Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
Nein Nichts
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
Nein

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
Anwendung/json createCompletionResponse Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Inhaltstyp Typ Beschreibung
Anwendung/json errorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine-Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.

URI-Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID Pfad Ja Schnur
API-Version Anfrage Ja Schnur API-Version

Anfrage-Kopf

Name Erforderlich Typ BESCHREIBUNG
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe Zeichenfolge oder Array Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder weniger umfassen. Ja
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Eingabetyp Schnur Eingabetyp der zu verwendenden Einbettungssuche Nein
Kodierungsformat Schnur Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. Nein
Abmessungen integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. Nein

Antworten

Name Typ BESCHREIBUNG Erforderlich Standard
Objekt Schnur Ja
Modell Schnur Ja
Daten array Ja
Verwendung Objekt Ja

Eigenschaften für „usage“

prompt_tokens

Name Typ BESCHREIBUNG Standard
prompt_tokens integer

Gesamtanzahl Tokens

Name Typ BESCHREIBUNG Standard
Gesamtanzahl Tokens integer

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Beispiele

Beispiel

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chatvervollständigungen

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Erstellt eine Vervollständigung für die Chatnachricht

URI-Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID Pfad Ja Schnur Bereitstellungs-ID des Modells, das bereitgestellt wurde.
API-Version Anfrage Ja Schnur API-Version

Anfrage-Kopf

Name Erforderlich Typ BESCHREIBUNG
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird Nein Falsch
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren.
Nein
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt.
Nein
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
Präsenzstrafe number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
Nein 0
Frequenzstrafe (frequency_penalty) number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
Nein Nichts
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
Nein
Meldungen array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Ja
Datenquellen array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
Nein
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. Nein Falsch
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. Nein
n integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein 1
Parallele Werkzeugaufrufe ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein Richtig
Antwortformat ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.

Die Einstellung auf { "type": "json_schema", "json_schema": {...} } ermöglicht strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Seed integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
Werkzeuge array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt.
Nein
Toolauswahl chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. Nein
function_call string oder chatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
Nein
Funktionen array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
Anwendung/json createChatCompletionResponse oder createChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Inhaltstyp Typ Beschreibung
Anwendung/json errorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transkribiert Audio in die Eingabesprache

URI-Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID Pfad Ja Schnur Bereitstellungs-ID des Spracherkennungsmodells.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
API-Version Anfrage Ja Schnur API-Version

Anfrage-Kopf

Name Erforderlich Typ BESCHREIBUNG
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ BESCHREIBUNG Erforderlich Standard
file Schnur Das zu transkribierende Audiodateiobjekt Ja
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. Nein
Antwortformat audioResponseFormat Definiert das Format der Ausgabe Nein
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0
Sprache Schnur Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. Nein

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
Anwendung/json audioResponse oder audioVerboseResponse
text/plain Schnur Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war)

Beispiele

Beispiel

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transkribiert Audioeingaben und übersetzt sie in englischen Text

URI-Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID Pfad Ja Schnur Bereitstellungs-ID des Whisper-Modells, das bereitgestellt wurde.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
API-Version Anfrage Ja Schnur API-Version

Anfrage-Kopf

Name Erforderlich Typ BESCHREIBUNG
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ BESCHREIBUNG Erforderlich Standard
file Schnur Die zu übersetzende Audiodatei Ja
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. Nein
Antwortformat audioResponseFormat Definiert das Format der Ausgabe Nein
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
Anwendung/json audioResponse oder audioVerboseResponse
text/plain Schnur Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war)

Beispiele

Beispiel

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Bildgenerierung

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Generiert eine Reihe von Bildern auf der Grundlage einer Textbeschriftung für eine bestimmte DALL-E-Modellimplementierung

URI-Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID Pfad Ja Schnur Bereitstellungs-ID des DALL-E-Modells, das bereitgestellt wurde.
API-Version Anfrage Ja Schnur API-Version

Anfrage-Kopf

Name Erforderlich Typ BESCHREIBUNG
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
prompt Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Ja
n integer Die Anzahl der zu generierenden Bilder. Nein 1
Größe imageSize Die Größe der generierten Bilder. Nein 1024 x 1024
Antwortformat imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Nein url
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
quality imageQuality Die Qualität des zu generierenden Bilds Nein Standard
style imageStyle Die Größe der generierten Bilder. Nein vivid

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
Anwendung/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Inhaltstyp Typ Beschreibung
Anwendung/json dalleErrorResponse

Beispiele

Beispiel

Erstellt Bilder auf der Grundlage eines Prompts.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Komponenten

Fehlerantwort

Name Typ BESCHREIBUNG Erforderlich Standard
Fehler Fehler Nein

errorBase

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Nein
Nachricht Schnur Nein

Fehler

Name Typ BESCHREIBUNG Erforderlich Standard
param Schnur Nein
Typ Schnur Nein
innerer Fehler innerError Innerer Fehler mit zusätzlichen Details. Nein

innerError

Innerer Fehler mit zusätzlichen Details.

Name Typ BESCHREIBUNG Erforderlich Standard
code innerErrorCode Fehlercodes für das innere Fehlerobjekt Nein
Content-Filtern-Egebnisse contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. Nein

internerFehlercode

Fehlercodes für das innere Fehlerobjekt

Beschreibung: Fehlercodes für das innere Fehlerobjekt

Typ: string

Standard:

Enumerationsname: InnerErrorCode

Enumerationswerte:

Wert BESCHREIBUNG
ResponsibleAIPolicyViolation Der Prompt verstieß gegen eine von mehreren Inhaltsfilterregeln.

dalleErrorResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Fehler dalleError Nein

dalleError

Name Typ BESCHREIBUNG Erforderlich Standard
param Schnur Nein
Typ Schnur Nein
innerer Fehler dalleInnerError Innerer Fehler mit zusätzlichen Details. Nein

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Typ BESCHREIBUNG Erforderlich Standard
code innerErrorCode Fehlercodes für das innere Fehlerobjekt Nein
Content-Filtern-Egebnisse dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. Nein
überarbeitete_Aufforderung Schnur Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde Nein

InhaltFilterErgebnisBasis

Name Typ BESCHREIBUNG Erforderlich Standard
gefiltert boolean Ja

Ergebnis der Inhaltsfilter-Schweregradbewertung

Name Typ BESCHREIBUNG Erforderlich Standard
gefiltert boolean Ja
Schweregrad Schnur Nein

Ergebnis der Inhaltserkennungsfilterung

Name Typ BESCHREIBUNG Erforderlich Standard
gefiltert boolean Ja
erkannt boolean Nein

Content-Filter mit Zitierungsergebnis erkannt

Name Typ BESCHREIBUNG Erforderlich Standard
Zitat Objekt Nein

Eigenschaften für „citation“

URL

Name Typ BESCHREIBUNG Standard
URL Schnur

license

Name Typ BESCHREIBUNG Standard
license Schnur

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Typ BESCHREIBUNG Erforderlich Standard
sexual Inhaltsfilter-Schweregrad-Ergebnis Nein
Gewalt Inhaltsfilter-Schweregrad-Ergebnis Nein
hate Inhaltsfilter-Schweregrad-Ergebnis Nein
Selbstverletzung Inhaltsfilter-Schweregrad-Ergebnis Nein
Profanität Ergebnis des Inhaltsfilters erkannt Nein
Fehler errorBase Nein

contentFilterPromptResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ BESCHREIBUNG Erforderlich Standard
sexual Inhaltsfilter-Schweregrad-Ergebnis Nein
Gewalt Inhaltsfilter-Schweregrad-Ergebnis Nein
hate Inhaltsfilter-Schweregrad-Ergebnis Nein
Selbstverletzung Inhaltsfilter-Schweregrad-Ergebnis Nein
Profanität Ergebnis des Inhaltsfilters erkannt Nein
Fehler errorBase Nein
Jailbreak Ergebnis des Inhaltsfilters erkannt Nein

Inhaltsfilterauswahl-Ergebnisse

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ BESCHREIBUNG Erforderlich Standard
sexual Inhaltsfilter-Schweregrad-Ergebnis Nein
Gewalt Inhaltsfilter-Schweregrad-Ergebnis Nein
hate Inhaltsfilter-Schweregrad-Ergebnis Nein
Selbstverletzung Inhaltsfilter-Schweregrad-Ergebnis Nein
Profanität Ergebnis des Inhaltsfilters erkannt Nein
Fehler errorBase Nein
protected_material_text Ergebnis des Inhaltsfilters erkannt Nein
protected_material_code contentFilterDetectedWithCitationResult Nein

PromptFilterErgebnis

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

Name Typ BESCHREIBUNG Erforderlich Standard
prompt_index integer Nein
Content-Filtern-Egebnisse contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. Nein

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

Ergebnisse des Dalle-Inhaltsfilters

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Typ BESCHREIBUNG Erforderlich Standard
sexual Inhaltsfilter-Schweregrad-Ergebnis Nein
Gewalt Inhaltsfilter-Schweregrad-Ergebnis Nein
hate Inhaltsfilter-Schweregrad-Ergebnis Nein
Selbstverletzung Inhaltsfilter-Schweregrad-Ergebnis Nein

dalle-Filter-Ergebnisse

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ BESCHREIBUNG Erforderlich Standard
sexual Inhaltsfilter-Schweregrad-Ergebnis Nein
Gewalt Inhaltsfilter-Schweregrad-Ergebnis Nein
hate Inhaltsfilter-Schweregrad-Ergebnis Nein
Selbstverletzung Inhaltsfilter-Schweregrad-Ergebnis Nein
Profanität Ergebnis des Inhaltsfilters erkannt Nein
Jailbreak Ergebnis des Inhaltsfilters erkannt Nein

chatCompletionsRequestCommon

Name Typ BESCHREIBUNG Erforderlich Standard
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet. Nein Falsch
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Nein
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). Dieser Wert ist jetzt zugunsten von max_completion_tokens veraltet und ist nicht mit o1-Serienmodellen kompatibel. Nein 4096
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
Präsenzstrafe number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. Nein 0
Frequenzstrafe (frequency_penalty) number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein

erstellenAbschlussanfrage

Name Typ BESCHREIBUNG Erforderlich Standard
prompt Zeichenfolge oder Array Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt.
Ja
best_of integer Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
Nein 1
Echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück.
Nein Falsch
Frequenzstrafe (frequency_penalty) number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
Nein Nichts
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Tokens zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.

Der Höchstwert für logprobs ist 5.
Nein Nichts
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können.

Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Nein 16
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
Nein 1
Präsenzstrafe number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
Nein 0
Seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten.
Nein
Datenstrom boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird. Nein Falsch
suffix Schnur Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.

Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
Nein Nichts
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
Nein

createCompletionResponse

Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Eindeutiger Bezeichner für die Vervollständigung Ja
Optionen array Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat Ja
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Vervollständigung erstellt wurde Ja
Modell Schnur Das für die Vervollständigung verwendete Modell Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. Nein
Systemfingerabdruck Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
Objekt enum Der Objekttyp, der immer „text_completion“ lautet
Mögliche Werte: text_completion
Ja
Verwendung completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung Nein

Chat-Vervollständigungsanfrage erstellen

Name Typ BESCHREIBUNG Erforderlich Standard
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird Nein Falsch
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren.
Nein
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt.
Nein
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
Präsenzstrafe number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
Nein 0
Frequenzstrafe (frequency_penalty) number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
Nein Nichts
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
Nein
Meldungen array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Ja
Datenquellen array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
Nein
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. Nein Falsch
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. Nein
n integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein 1
Parallele Werkzeugaufrufe ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein Richtig
Antwortformat ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.

Die Einstellung auf { "type": "json_schema", "json_schema": {...} } ermöglicht strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Seed integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
Werkzeuge array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt.
Nein
Toolauswahl chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. Nein
function_call string oder chatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
Nein
Funktionen array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein

Chat-Vervollständigungsfunktionen

Name Typ BESCHREIBUNG Erforderlich Standard
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Parameter FunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein

chatCompletionFunctionCallOption

Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Name Typ BESCHREIBUNG Erforderlich Standard
name Schnur Der Name der aufzurufenden Funktion. Ja

chatCompletionRequestMessage

Mögliche Werte für diese Komponente:

chatCompletionRequestSystemMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Die Inhalte der Systemnachricht. Ja
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: system).
Mögliche Werte: system
Ja
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein

ChatAbschlussAnfrageBenutzerNachricht

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Die Inhalte der Benutzernachricht.
Ja
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: user).
Mögliche Werte: user
Ja
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein

chatCompletionRequestAssistantMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Die Inhalte der Assistentennachricht. Erforderlich, es sei denn, tool_calls oder function_call ist angegeben.
Nein
Ablehnung Schnur Die Ablehnungsnachricht des Assistenten. Nein
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).
Mögliche Werte: assistant
Ja
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
tool_calls chatCompletionMessageToolCalls Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein

Eigenschaften für function_call

Argumente

Name Typ BESCHREIBUNG Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen.

name

Name Typ BESCHREIBUNG Standard
name Schnur Der Name der aufzurufenden Funktion.

chatCompletionRequestToolMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).
Mögliche Werte: tool
Ja
Inhalt Zeichenfolge oder Array Die Inhalte der Toolnachricht. Ja
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Ja

chatCompletionRequestFunctionMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Mögliche Werte: function
Ja
Inhalt Schnur Die Inhalte der Funktionsmeldung. Ja
name Schnur Der Name der aufzurufenden Funktion. Ja

chatCompletionRequestSystemMessageContentPart

Mögliche Werte für diese Komponente:

ChatabschlussanfrageBenutzernachrichtInhaltTeil

Mögliche Werte für diese Komponente:

chatCompletionRequestAssistantMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestToolMessageContentPart

Mögliche Werte für diese Komponente:

ChatVervollständigungsAnfrageNachrichtenInhaltTeilText

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des Inhaltsteils
Mögliche Werte: text
Ja
Text Schnur Der Textinhalt. Ja

chatCompletionRequestMessageContentPartImage

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des Inhaltsteils
Mögliche Werte: image_url
Ja
image_url Objekt Ja

Eigenschaften für image_url

url

Name Typ BESCHREIBUNG Standard
url Schnur Entweder eine URL des Bilds oder die base64-codierten Bilddaten

Einzelheit

Name Typ BESCHREIBUNG Standard
Einzelheit Schnur Gibt den Detailgrad des Bilds an. Weitere Informationen finden Sie im Leitfaden für Vision. auto

chatCompletionRequestMessageContentPartRefusal

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des Inhaltsteils
Mögliche Werte: refusal
Ja
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja

Azure-Chat-Erweiterungskonfiguration

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja

Azure-Chat-Erweiterungs-Typ

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Beschreibung: Eine Darstellung der Konfigurationsdaten einer einzelnen Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Typ: string

Standard:

Enumerationsname: AzureChatExtensionType

Enumerationswerte:

Wert BESCHREIBUNG
Azure-Suche Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar
Azure Cosmos-Datenbank Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar

Azure-Such-Chat-Erweiterungskonfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ BESCHREIBUNG Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureSearchChatErweiterungsParameter Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird Nein

Azure Such-Chat-Erweiterungs-Parameter

Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ BESCHREIBUNG Erforderlich Standard
Authentifizierung onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. Nein
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. Nein
Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. Nein
Rolleninformationen Schnur Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. Nein
Endpunkt Schnur Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. Ja
index_name Schnur Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. Ja
Feldzuordnung Azure-Suche-Index-Feldzuordnungsoptionen Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. Nein
Abfrage_typ azureSearchQueryType Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll Nein
semantische_Konfiguration Schnur Die zusätzliche semantische Konfiguration für die Abfrage. Nein
filter Schnur Suchfilter. Nein
Einbettungsabhängigkeit onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Nein

Azure-Suche-Index-Feldzuordnungsoptionen

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.

Name Typ BESCHREIBUNG Erforderlich Standard
Titel_Feld Schnur Der Name des Indexfelds, das als Titel verwendet werden soll. Nein
url_field Schnur Der Name des Indexfelds, das als URL verwendet werden soll. Nein
filepath_field Schnur Der Name des Indexfelds, das als Dateipfad verwendet werden soll. Nein
Inhaltsfelder array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Nein
content_fields_separator Schnur Das Trennmuster, das Inhaltsfelder verwenden sollen. Nein
Vektorfelder array Die Namen von Feldern, die Vektordaten darstellen. Nein

Azure-Suchanfragetyp

Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Beschreibung: Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Typ: string

Standard:

Enumerationsname: AzureSearchQueryType

Enumerationswerte:

Wert BESCHREIBUNG
Einfach Stellt den standardmäßigen einfachen Abfrageparser dar.
semantic Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar.
Vektor Stellt die Vektorsuche über berechnete Daten dar.
Vektor_Einfach_Hybrid Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar.
Vektor-semantischer Hybrid Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar.

Azure Cosmos DB Chat Erweiterung Konfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ BESCHREIBUNG Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureCosmosDBChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for
MongoDB vCore verwenden.
Nein

azureCosmosDBChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden

Name Typ BESCHREIBUNG Erforderlich Standard
Authentifizierung onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. Nein
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. Nein
Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. Nein
Rolleninformationen Schnur Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. Nein
Datenbankname Schnur Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll Ja
container_name Schnur Der Name des Azure Cosmos DB-Ressourcencontainers Ja
index_name Schnur Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll Ja
Feldzuordnung azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource Ja
Einbettungsabhängigkeit onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Ja

Azure-Cosmos-DB-Feldzuordnungsoptionen

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource

Name Typ BESCHREIBUNG Erforderlich Standard
Titel_Feld Schnur Der Name des Indexfelds, das als Titel verwendet werden soll. Nein
url_field Schnur Der Name des Indexfelds, das als URL verwendet werden soll. Nein
filepath_field Schnur Der Name des Indexfelds, das als Dateipfad verwendet werden soll. Nein
Inhaltsfelder array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Ja
content_fields_separator Schnur Das Trennmuster, das Inhaltsfelder verwenden sollen. Nein
Vektorfelder array Die Namen von Feldern, die Vektordaten darstellen. Ja

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja

onYourDataAuthenticationType

Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data

Beschreibung: Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data

Typ: string

Standard:

Enumerationsname: OnYourDataAuthenticationType

Enumerationswerte:

Wert BESCHREIBUNG
API-Schlüssel Authentifizierung per API-Schlüssel
connection_string Authentifizierung per Verbindungszeichenfolge
Systemzugewiesene verwaltete Identität Authentifizierung per systemseitig zugewiesener verwalteter Identität
Benutzerdefinierte verwaltete Identität Authentifizierung per benutzerseitig zugewiesener verwalteter Identität

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
Schlüssel Schnur Der für die Authentifizierung zu verwendende API-Schlüssel. Nein

onYourDataConnectionStringAuthentifizierungsoptionen

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
connection_string Schnur Die Verbindungszeichenfolge für die Authentifizierung Nein

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
managed_identity_resource_id Schnur Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. Nein

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren

Beschreibung: Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren

Typ: string

Standard:

Enumerationsname: OnYourDataVectorizationSourceType

Enumerationswerte:

Wert BESCHREIBUNG
Endpunkt Stellt die Vektorisierung dar, die von Aufrufen durchgeführt wird, die von öffentlichen Diensten an ein Azure OpenAI-Einbettungsmodell gerichtet werden
deployment_name Stellt den zu verwendenden Namen einer Ada-Modellimplementierung dar. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden.
On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche
auch in privaten Netzwerken ermöglicht.

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
deployment_name Schnur Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. Nein

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
Authentifizierung onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. Nein
Endpunkt Schnur Gibt den Endpunkt an, der für die Vektorisierung verwendet werden soll. Dieser Endpunkt muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diesen Endpunkt jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. Nein

Azure-Chat-ErweiterungenNachrichtKontext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.

Name Typ BESCHREIBUNG Erforderlich Standard
Zitationen array Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. Nein
Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. Nein

Zitat

Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Schnur Der Inhalt des Zitats. Ja
title Schnur Der Titel des Zitats. Nein
url Schnur Die URL des Zitats. Nein
filepath Schnur Der Dateipfad des Zitats. Nein
chunk_id Schnur Die Segment-ID des Zitats. Nein

chatCompletionMessageToolCall

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Die ID des Toolaufrufs Ja
Typ toolCallType Der Typ des Toolaufrufs (in diesem Fall: function). Ja
Funktion Objekt Die Funktion, die das Modell aufgerufen hat Ja

Eigenschaften für „function“

name

Name Typ BESCHREIBUNG Standard
name Schnur Der Name der aufzurufenden Funktion.

Argumente

Name Typ BESCHREIBUNG Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen.

Werkzeugaufruftyp

Der Typ des Toolaufrufs (in diesem Fall: function).

Beschreibung: Der Typ des Toolaufrufs (in diesem Fall: function)

Typ: string

Standard:

Enumerationsname: ToolCallType

Enumerationswerte:

Wert BESCHREIBUNG
Funktion Der Typ des Toolaufrufs ist „function“.

chatCompletionRequestMessageTool

Name Typ BESCHREIBUNG Erforderlich Standard
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Nein
Inhalt Schnur Der Inhalt der Nachricht. Nein

chatCompletionRequestMessageFunction

Name Typ BESCHREIBUNG Erforderlich Standard
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Mögliche Werte: function
Nein
name Schnur Der Inhalt der Nachricht. Nein
Inhalt Schnur Der Inhalt der Nachricht. Nein

createChatCompletionResponse

Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Ein eindeutiger Bezeichner für die Chatvervollständigung Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. Nein
Optionen array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist. Ja
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Ja
Modell Schnur Das Modell, das für die Chatvervollständigung verwendet wird Ja
Systemfingerabdruck Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
Objekt enum Der Objekttyp, der immer chat.completion ist.
Mögliche Werte: chat.completion
Ja
Verwendung completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung Nein

createChatCompletionStreamResponse

Repräsentiert einen gestreamten Block einer Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. Ja
Optionen array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist.
Ja
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. Ja
Modell Schnur Das Modell, das die Vervollständigung generiert. Ja
Systemfingerabdruck Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
Objekt enum Der Objekttyp, der immer chat.completion.chunk ist.
Mögliche Werte: chat.completion.chunk
Ja

chatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Schnur Die Inhalte der Blocknachricht. Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
tool_calls array Nein
Rolle (role) enum Die Rolle des Autors dieser Nachricht
Mögliche Werte: system, user, assistant, tool
Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Nein

Eigenschaften für function_call

Argumente

Name Typ BESCHREIBUNG Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen.

name

Name Typ BESCHREIBUNG Standard
name Schnur Der Name der aufzurufenden Funktion.

chatCompletionMessageToolCallChunk

Name Typ BESCHREIBUNG Erforderlich Standard
Index integer Ja
id Schnur Die ID des Toolaufrufs Nein
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Nein
Funktion Objekt Nein

Eigenschaften für „function“

name

Name Typ BESCHREIBUNG Standard
name Schnur Der Name der aufzurufenden Funktion.

Argumente

Name Typ BESCHREIBUNG Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen.

chatCompletionStreamOptions

Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Typ BESCHREIBUNG Erforderlich Standard
include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert.
Nein

chatCompletionChoiceLogProbs

Logarithmierte Wahrscheinlichkeit für die Auswahl

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit Ja
Ablehnung array Eine Liste der Nachrichtenablehnungstoken mit Informationen zur logarithmierten Wahrscheinlichkeit. Nein

chatCompletionTokenLogprob

Name Typ BESCHREIBUNG Erforderlich Standard
token Schnur Das Token. Ja
logprob number Die logarithmierte Wahrscheinlichkeit dieses Tokens Ja
Byte array Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. Ja
top_logprobs array Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Ja

ChatCompletionResponseMessage

Eine vom Modell generierte Chatvervollständigungsnachricht

Name Typ BESCHREIBUNG Erforderlich Standard
Rolle (role) chatCompletionResponseMessageRole Die Rolle des Antwortnachrichterstellers Ja
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
Inhalt Schnur Der Inhalt der Nachricht. Ja
tool_calls array Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein
function_call chatCompletionFunctionCall Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
Kontext azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen
an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn
eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist.
Nein

chatCompletionResponseMessageRole

Die Rolle des Antwortnachrichterstellers

Beschreibung: Die Rolle des Autors der Antwortnachricht

Typ: string

Standard:

Enumerationswerte:

  • assistant

Chat-Vervollständigungswerkzeug-Auswahloption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Mögliche Werte für diese Komponente:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Ja
Funktion Objekt Ja

Eigenschaften für „function“

name

Name Typ BESCHREIBUNG Standard
name Schnur Der Name der aufzurufenden Funktion.

ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionMessageToolCalls

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

Name Typ BESCHREIBUNG Erforderlich Standard
name Schnur Der Name der aufzurufenden Funktion. Ja
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. Ja

completionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ BESCHREIBUNG Erforderlich Standard
prompt_tokens integer Anzahl der Token im Prompt. Ja
completion_tokens integer Anzahl der Token in der generierten Vervollständigung Ja
Gesamtanzahl Tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Ja
completion_tokens_details Objekt Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. Nein

Eigenschaften für completion_tokens_details

Begründungs_Token

Name Typ BESCHREIBUNG Standard
Begründungs_Token integer Vom Modell generierte Tokens zur Begründung.

chatCompletionTool

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Ja
Funktion FunctionObject Ja

Funktionsparameter

Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Typ BESCHREIBUNG Erforderlich Standard
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Parameter FunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. Nein Falsch

ResponseFormatText

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats: text
Mögliche Werte: text
Ja

ResponseFormatJsonObject

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats: json_object
Mögliche Werte: json_object
Ja

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Für diese Komponente sind keine Eigenschaften definiert.

AntwortformatJsonSchema

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats: json_schema
Mögliche Werte: json_schema
Ja
JSON-Schema Objekt Ja

Eigenschaften für json_schema

Beschreibung

Name Typ BESCHREIBUNG Standard
Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll.

name

Name Typ BESCHREIBUNG Standard
name Schnur Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.

schema

Name Typ BESCHREIBUNG Standard
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

strict

Name Typ BESCHREIBUNG Standard
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. Falsch

chatCompletionChoiceCommon

Name Typ BESCHREIBUNG Erforderlich Standard
Index integer Nein
Beendigungsgrund Schnur Nein

Übersetzungsanforderung erstellen

Übersetzungsanforderung

Name Typ BESCHREIBUNG Erforderlich Standard
file Schnur Die zu übersetzende Audiodatei Ja
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. Nein
Antwortformat audioResponseFormat Definiert das Format der Ausgabe Nein
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0

Audio-Antwort

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Übersetzter oder transkribierter Text Ja

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Übersetzter oder transkribierter Text Ja
Aufgabe Schnur Die Art von Audiotask Nein
Sprache Schnur Sprache. Nein
duration number Dauer. Nein
Segmente array Nein

Audio-Antwortformat

Definiert das Format der Ausgabe

Beschreibung: Definiert das Format der Ausgabe

Typ: string

Standard:

Enumerationswerte:

  • json
  • Text
  • srt
  • verbose_json
  • vtt

TranskriptionsAnfrageErstellen

Transkriptionsanforderung

Name Typ BESCHREIBUNG Erforderlich Standard
file Schnur Das zu transkribierende Audiodateiobjekt Ja
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. Nein
Antwortformat audioResponseFormat Definiert das Format der Ausgabe Nein
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0
Sprache Schnur Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. Nein

audioSegment

Transkriptions- oder Übersetzungssegment

Name Typ BESCHREIBUNG Erforderlich Standard
id integer Segmentbezeichner Nein
seek number Der Offset des Segments Nein
Start number Der Offset für den Segmentbeginn. Nein
Ende number Der Offset für das Segmentende Nein
Text Schnur Segmenttext Nein
tokens array Token des Texts Nein
Temperatur number Temperatur Nein
avg_logprob number Durchschnittliche logarithmierte Wahrscheinlichkeit Nein
Kompressionsverhältnis number Komprimierungsverhältnis Nein
kein_Sprachen_Problem number Wahrscheinlichkeit von no speech. Nein

Bildqualität

Die Qualität des zu generierenden Bilds

Beschreibung: Die Qualität des zu generierenden Bilds

Typ: string

Standard: standard

Enumerationsname: Quality

Enumerationswerte:

Wert BESCHREIBUNG
Standard Bei Verwendung von Standardqualität werden Bilder mit Standardqualität erstellt.
hd Bei Verwendung von HD-Qualität werden Bilder mit mehr Details und höherer Konsistenz im gesamten Bild erstellt.

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden

Typ: string

Standard: url

Enumerationsname: ImagesResponseFormat

Enumerationswerte:

Wert BESCHREIBUNG
url Die URL für temporären Zugriff zum Herunterladen der generierten Bilder
b64_json Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben.

imageSize

Die Größe der generierten Bilder.

Beschreibung: Die Größe der generierten Bilder

Typ: string

Standard: 1024x1024

Enumerationsname: Size

Enumerationswerte:

Wert BESCHREIBUNG
1792x1024 Die gewünschte Größe des generierten Bilds beträgt 1.792 × 1.024 Pixel.
1024 x 1792 Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.792 Pixel.
1024 x 1024 Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.024 Pixel.

Bildstil

Die Größe der generierten Bilder.

Beschreibung: Der Stil der generierten Bilder

Typ: string

Standard: vivid

Enumerationsname: Style

Enumerationswerte:

Wert BESCHREIBUNG
vivid Mit „vivid“ werden hyperrealistische und spektakuläre Bilder erstellt.
natural Mit „natural“ werden natürlichere und weniger hyperrealistische Bilder erstellt.

Bildgenerierungsanfrage

Name Typ BESCHREIBUNG Erforderlich Standard
prompt Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Ja
n integer Die Anzahl der zu generierenden Bilder. Nein 1
Größe imageSize Die Größe der generierten Bilder. Nein 1024 x 1024
Antwortformat imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Nein url
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
quality imageQuality Die Qualität des zu generierenden Bilds Nein Standard
style imageStyle Die Größe der generierten Bilder. Nein vivid

generateImagesResponse

Name Typ BESCHREIBUNG Erforderlich Standard
created integer Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde Ja
Daten array Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war Ja

BildErgebnis

Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.

Name Typ BESCHREIBUNG Erforderlich Standard
url Schnur Die Bild-URL Nein
b64_json Schnur Das base64-codierte Bild Nein
Content-Filtern-Egebnisse dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung Nein
überarbeitete_Aufforderung Schnur Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde Nein
prompt_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. Nein

Erweiterungen für Vervollständigungen

Vervollständigungserweiterungen sind nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse.

Chatnachricht

Das Chatnachrichtenobjekt ist nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse.

Text-zu-Sprache (Vorschau)

Ist derzeit nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse. Weitere Informationen finden Sie in der neuesten Vorschauversion dieser Funktion.

Nächste Schritte

Erfahren Sie mehr über Modelle und die Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.