Freigeben über


Microsoft Foundry – Schnellstart

Note

Dieses Dokument bezieht sich auf das Microsoft Foundry(klassische) Portal.

Note

Dieses Dokument bezieht sich auf das Microsoft Foundry (neue) Portal.

In dieser Schnellstartanleitung verwenden Sie Microsoft Foundry für:

  • Erstellen eines Projekts
  • Bereitstellen eines Modells
  • Ausführen einer Chatvervollständigung
  • Erstellen und Ausführen eines Agents
  • Hochladen von Dateien in den Agent

In dieser Schnellstartanleitung verwenden Sie Microsoft Foundry für:

  • Erstellen eines Projekts
  • Bereitstellen eines Modells
  • Vorbereiten des Codes – Installieren der erforderlichen Pakete und Authentifizierung
  • Chatten mit einem Modell
  • Einen Agent erstellen
  • Chatten mit einem Agent

Das Microsoft Foundry SDK ist in mehreren Sprachen verfügbar, einschließlich Python, Java, TypeScript und C#. Diese Schnellstartanleitung enthält Anweisungen für jede dieser Sprachen.

Tip

Im restlichen Artikel wird gezeigt, wie Sie ein Foundry-Projekt erstellen und verwenden. Siehe Schnellstart: Erste Schritte mit Microsoft Foundry (Hub-Projekte), wenn Sie stattdessen ein hubbasiertes Projekt verwenden möchten. Welche Art von Projekt benötige ich?

Prerequisites

Important

Bevor Sie beginnen, stellen Sie sicher, dass Ihre Entwicklungsumgebung bereit ist.
Diese Schnellstartanleitung konzentriert sich auf szenariospezifische Schritte wie SDK-Installation , Authentifizierung und Ausführen von Beispielcode.

Erstellen von Ressourcen

Im Portal können Sie einen reichhaltigen Katalog modernster Modelle aus vielen verschiedenen Anbietern erkunden. Suchen Sie in diesem Lernprogramm nach dem gpt-4o-Modell und wählen Sie es aus.

  1. Melden Sie sich bei Microsoft Foundry an. Stellen Sie sicher, dass der Umschalter "Neue Gießerei " deaktiviert ist. Diese Schritte beziehen sich auf Foundry (klassisch).

  2. Wenn Sie sich in einem Projekt befinden, wählen Sie "Microsoft Foundry " im oberen linken Breadcrumb aus, um das Projekt zu verlassen. Sie erstellen in einem Moment eine neue.

  3. Wählen Sie auf der Startseite oder im Modellkataloggpt-4o (oder gpt-4o-mini) aus.

    Screenshot zeigt, wie Sie mit einem Modell im Foundry-Portal beginnen.

  4. Wählen Sie Dieses Modell verwenden aus. Wenn Sie dazu aufgefordert werden, geben Sie einen neuen Projektnamen ein, und wählen Sie "Erstellen" aus.

  5. Überprüfen Sie den Bereitstellungsnamen, und wählen Sie Erstellen aus.

  6. Wählen Sie Verbinden und bereitstellen aus, nachdem Sie einen Bereitstellungstyp ausgewählt haben.

  7. Wählen Sie auf der Bereitstellungsseite Im Playground öffnen aus, nachdem sie bereitgestellt wurde.

  8. Sie landen im Chat-Playground mit dem voreingestellten und einsatzbereiten Modell.

Wenn Sie einen Agent erstellen, können Sie stattdessen mit dem Erstellen eines Agents beginnen. Die Schritte sind ähnlich, aber in einer anderen Reihenfolge. Sobald das Projekt erstellt wurde, gelangen Sie anstelle des Chat-Playgrounds zum Agent-Playground.

Nachdem Sie nun über einen Agent verfügen, können Sie mit dem Agent entweder im Code oder im Portal interagieren.

Sie beginnen im Microsoft Foundry-Portal, um ein Projekt zu erstellen und ein Modell bereitzustellen. Diese Schnellstartanleitung verwendet das gpt-4-1-Mini-Modell , Sie können jedoch jedes unterstützte Modell von mehreren Anbietern verwenden.

  1. Melden Sie sich bei Microsoft Foundry an. Stellen Sie sicher, dass der Umschalter "Neue Gießerei " deaktiviert ist. Diese Schritte beziehen sich auf Foundry (klassisch).
    Melden Sie sich bei Microsoft Foundry an. Stellen Sie sicher, dass die Umschaltfläche Neues Foundry aktiviert ist. Diese Schritte beziehen sich auf Foundry (neu).
  2. Projekte helfen beim Organisieren Ihrer Arbeit. Das Projekt, an dem Sie arbeiten, wird in der oberen linken Ecke angezeigt.
  3. Um ein neues Projekt zu erstellen, wählen Sie den Projektnamen und dann "Neues Projekt erstellen" aus.
  4. Geben Sie Ihrem Projekt einen Namen, und wählen Sie "Projekt erstellen" aus.
  5. Stellen Sie nun ein Modell im Projekt bereit:
    1. Wählen Sie " Entdecken" in der oberen rechten Navigationsleiste aus.
    2. Wählen Sie "Modelle" aus.
    3. Suchen Sie nach dem gpt-4.1-mini-Modell .
    4. Wählen Sie Bereitstellen>Standardeinstellungen aus, um es ihrem Projekt hinzuzufügen.

Foundry Models ermöglicht Es Kunden, die leistungsstärksten Modelle von Flagship-Modellanbietern mit einem einzigen Endpunkt und Anmeldeinformationen zu nutzen. Dies bedeutet, dass Sie zwischen Modellen wechseln und diese aus Ihrer Anwendung nutzen können, ohne eine einzelne Codezeile zu ändern.

Sie sind jetzt bereit, mit Ihrem Modell zu interagieren und einen Agent zu erstellen.

Mach dich bereit zum Programmieren

Tip

Code verwendet Agents v1-API und ist nicht mit Agents v2 (Vorschau) kompatibel. Wechseln Sie zur Foundry -Dokumentation (neu) für die Agents v2-API (Vorschauversion).

  1. Installieren Sie diese Pakete:

    pip install openai azure-identity azure-ai-projects==1.0.0
    
  2. Microsoft Foundry Models ermöglicht Es Kunden, die leistungsstärksten Modelle von Flagship-Modellanbietern mit einem einzigen Endpunkt und anmeldeinformationen zu nutzen. Dies bedeutet, dass Sie zwischen Modellen wechseln und diese aus Ihrer Anwendung nutzen können, ohne eine einzelne Codezeile zu ändern.

    Kopieren Sie den Endpunkt des Foundry-Projekts im Abschnitt "Übersicht" Ihres Projekts. Sie verwenden sie in Kürze.

    Screenshot der Projektübersicht für ein Foundry-Projekt.

    Tip

    Wenn der Endpunkt des Foundry-Projekts nicht angezeigt wird, verwenden Sie ein hubbasiertes Projekt. (Siehe Projekttypen). Wechseln Sie zu einem Foundry-Projekt, oder verwenden Sie die vorherigen Schritte, um ein Projekt zu erstellen.

    1. Wählen Sie "Start" in der oberen rechten Navigationsleiste aus.
    2. Wählen Sie Schlüssel aus, und kopieren Sie den Endpunkt. Sie verwenden sie in Kürze.
  3. Stellen Sie sicher, dass Sie sich mit dem CLI-Befehl az login (oder az login --use-device-code) anmelden, um sich zu authentifizieren, bevor Sie Ihre Python-Skripts ausführen.

Folgen Sie der Anleitung unten oder holen Sie sich den Code:

Important

Der Code in diesem Artikel verwendet Pakete, die sich derzeit in der Vorschau befinden. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.

Festlegen von Umgebungsvariablen

Speichern Sie den Endpunkt als Umgebungsvariable. Legen Sie diese Werte auch für die Verwendung in Ihren Skripts fest.

  1. Kopieren Sie Ihren Endpunkt vom Willkommensbildschirm. Sie verwenden es im nächsten Schritt.

    Screenshot der Willkommensseite von Microsoft Foundry Models mit der Endpunkt-URL und der Schaltfläche

  2. Legen Sie diese Umgebungsvariablen fest, die in Ihren Skripts verwendet werden sollen:

    AZURE_AI_FOUNDRY_PROJECT_ENDPOINT=<endpoint copied from welcome screen>
    AZURE_AI_FOUNDRY_AGENT_NAME="MyAgent"
    AZURE_AI_FOUNDRY_MODEL_DEPLOYMENT_NAME="gpt-4.1-mini"
    

Installieren und Authentifizieren

Tip

Code verwendet Agents v2-API (Vorschau) und ist mit Agents v1 nicht kompatibel. Wechseln Sie zur klassischen Foundry-Dokumentation für die Version der Agents v1-API.

  1. Installieren Sie diese Pakete, einschließlich der Vorschauversion von azure-ai-projects. Diese Version verwendet die Agents v2-API (Vorschau).

    pip install azure-ai-projects --pre
    pip install openai azure-identity python-dotenv
    
  2. Stellen Sie sicher, dass Sie sich mit dem CLI-Befehl az login (oder az login --use-device-code) anmelden, um sich zu authentifizieren, bevor Sie Ihre Python-Skripts ausführen.

Folgen Sie der Anleitung unten oder holen Sie sich den Code:

Chatten mit einem Modell

Chatabschlusse sind der grundlegende Baustein von KI-Anwendungen. Mithilfe von Chatabschlüssen können Sie eine Liste von Nachrichten senden und eine Antwort vom Modell erhalten.

Tip

Code verwendet Agents v1-API und ist nicht mit Agents v2 (Vorschau) kompatibel. Wechseln Sie zur Foundry -Dokumentation (neu) für die Agents v2-API (Vorschauversion).

Ersetzen Sie den endpoint in diesem Code durch Ihren Endpunkt:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project = AIProjectClient(
    endpoint="https://your-foundry-resource-name.ai.azure.com/api/projects/project-name",
    credential=DefaultAzureCredential(),
)

models = project.get_openai_client(api_version="2024-10-21")
response = models.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "system", "content": "You are a helpful writing assistant"},
        {"role": "user", "content": "Write me a poem about flowers"},
    ],
)

print(response.choices[0].message.content)

Die Interaktion mit einem Modell ist der grundlegende Baustein von KI-Anwendungen. Senden Sie eine Eingabe, und empfangen Sie eine Antwort vom Modell:

Tip

Code verwendet Agents v2-API (Vorschau) und ist mit Agents v1 nicht kompatibel. Wechseln Sie zur klassischen Foundry-Dokumentation für die Version der Agents v1-API.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

print(f"Using AZURE_AI_FOUNDRY_PROJECT_ENDPOINT: {os.environ['AZURE_AI_FOUNDRY_PROJECT_ENDPOINT']}")
print(f"Using AZURE_AI_FOUNDRY_MODEL_DEPLOYMENT_NAME: {os.environ['AZURE_AI_FOUNDRY_MODEL_DEPLOYMENT_NAME']}")

project_client = AIProjectClient(
    endpoint=os.environ["AZURE_AI_FOUNDRY_PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

openai_client = project_client.get_openai_client()

response = openai_client.responses.create(
    model=os.environ["AZURE_AI_FOUNDRY_MODEL_DEPLOYMENT_NAME"],
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

Einen Agent erstellen

Erstellen Sie einen Agent mit Ihrem bereitgestellten Modell.

Ein Agent definiert das Kernverhalten. Nach der Erstellung stellt sie konsistente Antworten in Benutzerinteraktionen sicher, ohne jedes Mal Anweisungen wiederholen zu müssen. Sie können Agents jederzeit aktualisieren oder löschen.

Tip

Code verwendet Agents v2-API (Vorschau) und ist mit Agents v1 nicht kompatibel. Wechseln Sie zur klassischen Foundry-Dokumentation für die Version der Agents v1-API.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["AZURE_AI_FOUNDRY_PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent = project_client.agents.create_version(
    agent_name=os.environ["AZURE_AI_FOUNDRY_AGENT_NAME"],
    definition=PromptAgentDefinition(
        model=os.environ["AZURE_AI_FOUNDRY_MODEL_DEPLOYMENT_NAME"],
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

Chatten mit einem Agent

Erstellen Sie einen Agent, und chatten Sie damit.

Tip

Code verwendet Agents v1-API und ist nicht mit Agents v2 (Vorschau) kompatibel. Wechseln Sie zur Foundry -Dokumentation (neu) für die Agents v2-API (Vorschauversion).

Ersetzen Sie den endpoint in diesem Code durch Ihren Endpunkt:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
from azure.ai.agents.models import ListSortOrder, FilePurpose

project = AIProjectClient(
    endpoint="https://your-foundry-resource-name.ai.azure.com/api/projects/project-name",
    credential=DefaultAzureCredential(),
)

agent = project.agents.create_agent(
    model="gpt-4o",
    name="my-agent",
    instructions="You are a helpful writing assistant")

thread = project.agents.threads.create()
message = project.agents.messages.create(
    thread_id=thread.id, 
    role="user", 
    content="Write me a poem about flowers")

run = project.agents.runs.create_and_process(thread_id=thread.id, agent_id=agent.id)
if run.status == "failed":
    # Check if you got "Rate limit is exceeded.", then you want to get more quota
    print(f"Run failed: {run.last_error}")

# Get messages from the thread
messages = project.agents.messages.list(thread_id=thread.id)

# Get the last message from the sender
messages = project.agents.messages.list(thread_id=thread.id, order=ListSortOrder.ASCENDING)
for message in messages:
    if message.run_id == run.id and message.text_messages:
        print(f"{message.role}: {message.text_messages[-1].text.value}")

# Delete the agent once done
project.agents.delete_agent(agent.id)
print("Deleted agent")

Verwenden Sie den zuvor erstellten Agent namens "MyAgent", um zu interagieren, indem Sie eine Frage und eine zugehörige Nachverfolgung stellen. Die Konversation behält den Verlauf dieser Interaktionen bei.

Tip

Code verwendet Agents v2-API (Vorschau) und ist mit Agents v1 nicht kompatibel. Wechseln Sie zur klassischen Foundry-Dokumentation für die Version der Agents v1-API.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["AZURE_AI_FOUNDRY_PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent_name = os.environ["AZURE_AI_FOUNDRY_AGENT_NAME"]
openai_client = project_client.get_openai_client()

# Optional Step: Create a conversation to use with the agent
conversation = openai_client.conversations.create()
print(f"Created conversation (id: {conversation.id})")

# Chat with the agent to answer questions
response = openai_client.responses.create(
    conversation=conversation.id, #Optional conversation context for multi-turn
    extra_body={"agent": {"name": agent_name, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

# Optional Step: Ask a follow-up question in the same conversation
response = openai_client.responses.create(
    conversation=conversation.id,
    extra_body={"agent": {"name": agent_name, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(f"Response output: {response.output_text}")

Hinzufügen von Dateien zum Agent

Agents verfügen über leistungsstarke Funktionen durch die Verwendung von Tools. Fügen wir nun ein Tool für die Dateisuche hinzu, mit dem wir wissensabrufen können.

Tip

Code verwendet Agents v1-API und ist nicht mit Agents v2 (Vorschau) kompatibel. Wechseln Sie zur Foundry -Dokumentation (neu) für die Agents v2-API (Vorschauversion).

Ersetzen Sie den endpoint in diesem Code durch Ihren Endpunkt:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
from azure.ai.agents.models import ListSortOrder, FileSearchTool

project = AIProjectClient(
    endpoint="https://your-foundry-resource-name.ai.azure.com/api/projects/project-name",
    credential=DefaultAzureCredential(),
)

# Upload file and create vector store
file = project.agents.files.upload(file_path="./product_info_1.md", purpose=FilePurpose.AGENTS)
vector_store = project.agents.vector_stores.create_and_poll(file_ids=[file.id], name="my_vectorstore")

# Create file search tool and agent
file_search = FileSearchTool(vector_store_ids=[vector_store.id])
agent = project.agents.create_agent(
    model="gpt-4o",
    name="my-assistant",
    instructions="You are a helpful assistant and can search information from uploaded files",
    tools=file_search.definitions,
    tool_resources=file_search.resources,
)

# Create thread and process user message
thread = project.agents.threads.create()
project.agents.messages.create(thread_id=thread.id, role="user", content="Hello, what Contoso products do you know?")
run = project.agents.runs.create_and_process(thread_id=thread.id, agent_id=agent.id)

# Handle run status
if run.status == "failed":
    print(f"Run failed: {run.last_error}")

# Print thread messages
messages = project.agents.messages.list(thread_id=thread.id, order=ListSortOrder.ASCENDING)
for message in messages:
    if message.run_id == run.id and message.text_messages:
        print(f"{message.role}: {message.text_messages[-1].text.value}")

# Cleanup resources
project.agents.vector_stores.delete(vector_store.id)
project.agents.files.delete(file_id=file.id)
project.agents.delete_agent(agent.id)

Bereinigen von Ressourcen

Wenn Sie keine der von Ihnen erstellten Ressourcen mehr benötigen, löschen Sie die dem Projekt zugeordnete Ressourcengruppe.

Wählen Sie im Microsoft Foundry-Portal ihren Projektnamen in der oberen rechten Ecke aus. Wählen Sie dann den Link für die Ressourcengruppe aus, um sie im Azure-Portal zu öffnen. Wählen Sie die Ressourcengruppe und dann "Löschen" aus. Vergewissern Sie sich, dass Sie die Ressourcengruppe löschen möchten.

Suchen Sie im Azure-Portal Ihre Ressourcengruppe, und wählen Sie sie aus. Wählen Sie "Löschen" aus, und bestätigen Sie, dass die Ressourcengruppe und alle zugehörigen Ressourcen gelöscht werden sollen.

Nächster Schritt