Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Azure AI Foundry Models ist Ihr zentrales Ziel zum Ermitteln, Auswerten und Bereitstellen leistungsstarker KI-Modelle – ganz gleich, ob Sie einen benutzerdefinierten Copilot erstellen, einen Agent erstellen, eine vorhandene Anwendung verbessern oder neue KI-Funktionen erkunden.
Mit Foundry Models haben Sie folgende Möglichkeiten:
- Erkunden Sie einen umfassenden Katalog modernster Modelle von Microsoft, OpenAI, DeepSeek, Hugging Face, Meta und mehr.
- Vergleichen und bewerten Sie Modelle nebeneinander mithilfe von realen Aufgaben und Ihren eigenen Daten.
- Stellen Sie dank integrierter Tools für Optimierung, Einblick und verantwortungsvolle KI sicher bereit.
- Wählen Sie Ihren Pfad aus– bringen Sie Ihr eigenes Modell mit, verwenden Sie ein gehostetes Modell, oder integrieren Sie nahtlos in Azure-Dienste.
- Ganz gleich, ob Sie Entwickler, Datenwissenschaftler oder Unternehmensarchitekt sind, Foundry Models bietet Ihnen die Flexibilität und Kontrolle, KI-Lösungen zu erstellen, die skaliert werden – sicher, verantwortungsbewusst und schnell.
Azure AI Foundry bietet einen umfassenden Katalog von KI-Modellen. Es gibt über 1900 Modelle, die von Foundation-Modellen, Reasoning-Modellen, kleinen Sprachmodellen, multimodalen Modellen, domänenspezifischen Modellen, Industriemodellen und mehr reichen.
Unser Katalog ist in zwei Hauptkategorien unterteilt:
Wenn Sie die Unterscheidung zwischen diesen Kategorien verstehen, können Sie die richtigen Modelle basierend auf Ihren spezifischen Anforderungen und strategischen Zielen auswählen.
Direkt von Azure verkaufte Modelle
Dies sind Modelle, die von Microsoft unter den Microsoft-Produktbedingungen gehostet und verkauft werden. Diese Modelle haben eine strenge Bewertung durchlaufen und sind tief in das KI-Ökosystem von Azure integriert. Die Modelle stammen aus einer Vielzahl von Top-Anbietern und bieten eine verbesserte Integration, optimierte Leistung und direkten Microsoft-Support, einschließlich Vereinbarungen zum Servicelevel auf Unternehmensniveau (SERVICE Level Agreements, SLAs).
Eigenschaften von Modellen, die direkt von Azure verkauft werden:
- Offizieller First-Party-Support von Microsoft
- Hohes Maß an Integration in Azure-Dienste und -Infrastruktur
- Umfangreiches Leistungs-Benchmarking und Validierung
- Einhaltung der verantwortungsvollen KI-Standards von Microsoft
- Skalierbarkeit, Zuverlässigkeit und Sicherheit auf Unternehmensniveau
Diese Modelle bieten auch den Vorteil eines austauschbaren bereitgestellten Durchsatzes, was bedeutet, dass Sie Ihr Limit und Ihre Reservierungen flexibel in jedem dieser Angebote nutzen können.
Modelle von Partnern und der Gemeinschaft
Diese Modelle stellen die überwiegende Mehrheit der Azure AI Foundry-Modelle dar und werden von vertrauenswürdigen Drittanbieterorganisationen, Partnern, Forschungslabors und Community-Mitwirkenden bereitgestellt. Diese Modelle bieten spezielle und vielfältige KI-Funktionen, die eine vielzahl von Szenarien, Branchen und Innovationen abdecken.
Beispiele für Modelle von Partnern und Communitys sind Offene Modelle vom Hugging Face Hub. Dazu gehören Hunderte von Modellen aus dem Hugging Face Hub zur Echtzeitverarbeitung von Inferenzen mit verwalteter Rechenleistung. Hugging Face erstellt und unterhält die in dieser Sammlung aufgelisteten Modelle. Für Hilfe zu den Hugging Face Modellen verwenden Sie das Hugging Face Forum oder den Hugging Face-Support. Erfahren Sie, wie Sie Hugging-Face-Modelle in Azure AI Foundry mit offenen Modellen bereitstellen.
Merkmale von Modellen von Partnern und Gemeinschaft:
- Entwickelt und unterstützt von externen Partnern und Community-Mitwirkenden
- Vielfältiges Angebot an spezialisierten Modellen für Nischen oder breite Anwendungsfälle
- In der Regel von Anbietern selbst überprüft, wobei integrationsrichtlinien von Azure bereitgestellt werden
- Gemeinschaftliche Innovation und schnelle Verfügbarkeit modernster Modelle
- Standardmäßige Azure AI-Integration mit Unterstützung und Wartung, die von den jeweiligen Anbietern verwaltet wird
Modelle von Partnern und der Community können als verwaltete Rechenressourcen oder als serverlose API-Bereitstellungsoptionen bereitgestellt werden. Der Modellanbieter wählt aus, wie die Modelle bereitgestellt werden können.
Anfordern eines Modells, das im Modellkatalog enthalten sein soll
Sie können anfordern, dass wir dem Modellkatalog direkt über die Modellkatalogseite im Azure AI Foundry-Portal ein Modell hinzufügen. Auf der Suchleiste der Modellkatalogseite gibt eine Suche nach einem Modell, das nicht im Katalog vorhanden ist, z. B. "mymodel", die Schaltfläche " Modell anfordern " zurück. Wählen Sie diese Schaltfläche aus, um ein Formular zu öffnen, in dem Sie Details zum angeforderten Modell freigeben können.
Auswahl zwischen direkten Modellen und Partner- und Communitymodellen
Berücksichtigen Sie bei der Auswahl von Modellen aus Azure AI Foundry Models Folgendes:
- Anwendungsfall und Anforderungen: Modelle, die direkt von Azure verkauft werden, eignen sich ideal für Szenarien, die eine umfassende Azure-Integration, garantierte Unterstützung und Unternehmens-SLAs erfordern. Modelle von Partnern und Gemeinschaft zeichnen sich in spezialisierten Anwendungsfällen und innovationszentrierten Szenarien aus.
- Supporterwartungen: Modelle, die direkt von Azure verkauft werden, verfügen über robusten von Microsoft bereitgestellten Support und Wartung. Diese Modelle werden von ihren Anbietern mit unterschiedlichen SLA- und Supportstrukturen unterstützt.
- Innovation und Spezialisierung: Modelle von Partnern und Community bieten schnellen Zugang zu spezialisierten Innovationen und Nischenfunktionen, die häufig von führenden Forschungslaboren und aufstrebenden KI-Anbietern entwickelt wurden.
Übersicht über die Modellkatalogfunktionen
Der Modellkatalog im Azure KI Foundry-Portal ist der Hub, um eine Vielzahl von Modellen zu entdecken und zu verwenden, mit denen Sie generative KI-Anwendungen erstellen können. Der Modellkatalog verfügt über Hunderte von Modellen über Modellanbieter wie Azure OpenAI, Mistral, Meta, Cohere, NVIDIA und Hugging Face, einschließlich Modellen, die Microsoft trainiert hat. Modelle von anderen Anbietern als Microsoft sind Nicht-Microsoft-Produkte, wie in den Microsoft-Produktbedingungen definiert und unterliegen den mit den Modellen gelieferten Geschäftsbedingungen.
Sie können Modelle suchen und ermitteln, die Ihren Anforderungen durch Stichwortsuche und -filter entsprechen. Der Modellkatalog bietet außerdem ein Leistungs-Ranking und Benchmark-Metriken für ausgewählte Modelle. Sie können darauf zugreifen, indem Sie "Bestenliste durchsuchen " und "Modelle vergleichen" auswählen. Auf Benchmarkdaten können Sie auch über die Registerkarte „Benchmark“ der Modellkarte zugreifen.
Im Modellkatalogfilter finden Sie:
- Sammlung: Sie können Modelle basierend auf der Modellanbieterauflistung filtern.
- Industrie: Sie können nach den Modellen filtern, die auf branchenspezifischem Dataset trainiert werden.
- Funktionen: Sie können nach eindeutigen Modellfeatures wie Gründen und Aufrufen von Tools filtern.
- Bereitstellungsoptionen: Sie können nach den Modellen filtern, die eine bestimmte Bereitstellungsoptionen unterstützen.
- serverlose API: Mit dieser Option können Sie pro API-Aufruf bezahlen.
- Bereitgestellt: am besten geeignet für die Echtzeitbewertung großer konsistenter Mengen
- Batch: am besten geeignet für kostenoptimierte Batchaufträge und nicht für Latenz. Für die Batchbereitstellung wird keine Unterstützung für den Playground bereitgestellt.
- Verwaltete Berechnung: Mit dieser Option können Sie ein Modell auf einem virtuellen Azure-Computer bereitstellen. Die Kosten für Hosting und Rückschluss werden Ihnen in Rechnung gestellt.
- Ableitungsaufgaben: Sie können Modelle basierend auf dem Ableitungsaufgabentyp filtern.
- Feinabstimmung von Aufgaben: Sie können Modelle basierend auf dem Feinabstimmungsvorgangstyp filtern.
- Lizenzen: Sie können Modelle basierend auf dem Lizenztyp filtern.
Auf der Modellkarte finden Sie:
- Schnelle Fakten: Sie können wichtige Informationen zum Modell auf einen schnellen Blick sehen.
- Details: Diese Seite enthält die detaillierten Informationen zum Modell, einschließlich Beschreibung, Versionsinformationen, unterstützter Datentyp usw.
- Benchmarks: Sie finden Benchmarkmetriken für Leistung für ausgewählte Modelle.
- Vorhandene Bereitstellungen: Wenn Sie das Modell bereits bereitgestellt haben, finden Sie es auf der Registerkarte „Vorhandene Bereitstellungen“.
- Lizenz: Sie finden rechtliche Informationen zur Modelllizenzierung.
- Artefakte: Diese Registerkarte wird nur für geöffnete Modelle angezeigt. Sie können die Modellressourcen anzeigen und über die Benutzeroberfläche herunterladen.
Modellbereitstellung: Verwaltete Compute- und serverlose API-Bereitstellungen
Zusätzlich zur Bereitstellung in Azure OpenAI bietet der Modellkatalog zwei verschiedene Möglichkeiten zum Bereitstellen von Modellen für Ihre Verwendung: verwaltete Compute- und serverlose API-Bereitstellungen.
Die für jedes Modell verfügbaren Bereitstellungsoptionen und Features variieren, wie in den folgenden Tabellen beschrieben. Erfahren Sie mehr über die Datenverarbeitung mit den Bereitstellungsoptionen.
Funktionen der Modellimplementierungsoptionen
Funktionen | Verwaltete Rechenkapazität | Serverlose API-Bereitstellung |
---|---|---|
Bereitstellungserfahrung und Abrechnung | Modellgewichtungen werden für dedizierte VMs mit verwalteter Computeressource bereitgestellt. Eine verwaltete Computeressource, die über eine oder mehrere Bereitstellungen verfügen kann, stellt eine REST-API für den Rückschluss zur Verfügung. Ihnen werden die VM-Kernstunden in Rechnung gestellt, welche die Bereitstellungen verwenden. | Der Zugriff auf Modelle erfolgt über eine Bereitstellung, die eine API für den Zugriff auf das Modell bereitstellt. Die API bietet den Zugriff auf das Modell, das von Microsoft gehostet und verwaltet wird, um Rückschlüsse zu ermöglichen. Sie werden für Eingaben und Ausgaben an die APIs in Rechnung gestellt, in der Regel in Token. Preisinformationen werden vor der Bereitstellung bekannt gegeben. |
API-Authentifizierung | Schlüssel und Microsoft Entra-Authentifizierung. | Nur Schlüssel. |
Inhaltssicherheit | Verwenden Sie Dienst-APIs der Azure KI Inhaltssicherheit. | Azure KI Inhaltssicherheit-Filter sind integriert mit Rückschluss-APIs verfügbar. Azure KI Inhaltssicherheit-Filter werden separat abgerechnet. |
Netzwerkisolation | Konfigurieren von verwalteten Netzwerken für Azure KI Foundry-Hubs. | Verwaltete Rechenressourcen folgen der Flaggeinstellung für den öffentlichen Netzwerkzugriff (Public Network Access, PNA) Ihres Hubs. Weitere Informationen finden Sie in der Netzwerkisolation für Modelle, die über serverlose API-Bereitstellungen bereitgestellt werden , weiter unten in diesem Artikel. |
Verfügbare Modelle für unterstützte Bereitstellungsoptionen
Informationen zu Azure OpenAI-Modellen finden Sie unter Azure OpenAI.
Um eine Liste der unterstützten Modelle für die Serverlose API-Bereitstellung oder verwaltete Compute anzuzeigen, wechseln Sie zur Startseite des Modellkatalogs in Azure AI Foundry. Verwenden Sie den Filter "Bereitstellungsoptionen ", um entweder serverlose API-Bereitstellung oder verwaltete Compute auszuwählen.
Modelllebenszyklus: Einstellung und Außerbetriebnahme
KI-Modelle entwickeln sich schnell, und wenn eine neue Version oder ein neues Modell mit aktualisierten Funktionen in derselben Modellfamilie verfügbar wird, können ältere Modelle im KI Foundry-Modellkatalog eingestellt werden. Um einen reibungslosen Übergang zu einer neueren Modellversion zu ermöglichen, bieten einige Modelle Benutzern die Möglichkeit, automatische Updates zu aktivieren. Weitere Informationen zum Modelllebenszyklus verschiedener Modelle, anstehende Termine der Modelldeaktivierung und vorgeschlagene Ersatzmodelle und Versionen finden Sie unter:
- Eingestellte Unterstützung und Deaktivierung des Azure OpenAI-Modells
- Einstellung und Außerbetriebnahme des Bereitstellungsmodells der serverlosen API
Verwaltete Rechenkapazität
Die Funktionalität, Modelle als verwaltete Compute Services bereitzustellen, baut auf Plattformfunktionen von Azure Machine Learning auf, um eine nahtlose Integration der umfangreichen Sammlung von Modellen im Modellkatalog über den gesamten Lebenszyklus von Vorgängen für große Sprachmodelle (Large Language Model, LLM) hinweg zu ermöglichen.
Verfügbarkeit von Modellen für die Bereitstellung als verwaltete Rechenressourcen
Die Modelle werden über Azure Machine Learning-Registrierungen zur Verfügung gestellt. Diese Registrierungen ermöglichen einen Ansatz „maschinelles Lernen zuerst“ zum Hosten und Verteilen von Azure Machine Learning-Ressourcen. Zu diesen Ressourcen gehören Modellgewichte, Container-Runtimes für das Durchführen der Modelle, Pipelines zum Auswerten und Feinabstimmen der Modelle sowie Datensätze für Benchmarks und Beispiele.
Die Registrierungen bauen auf einer hoch skalierbaren und unternehmensfähigen Infrastruktur auf, die Folgendes bietet:
Liefert latenzarme Modellartefakte für den Zugriff für alle Azure-Regionen mit integrierter Georeplikation.
Unterstützt Unternehmenssicherheitsanforderungen wie beispielsweise das Einschränken des Zugriffs auf Modelle mithilfe von Azure Policy und die sichere Bereitstellung mithilfe von verwalteten virtuellen Netzwerken.
Bereitstellung von Modellen für Vorhersagen mit verwalteten Rechenressourcen
Modelle, die für die Bereitstellung für verwaltete Compute Services verfügbar sind, können für verwaltete Azure Machine Learning-Computeressourcen für den Echtzeitrückschluss bereitgestellt werden. Für die Bereitstellung für verwaltete Compute Services müssen Sie über ein VM-Kontingent in Ihrem Azure-Abonnement für die spezifischen Produkte verfügen, die Sie für die optimale Ausführung des Modells benötigen. Einige Modelle ermöglichen Ihnen die Bereitstellung im vorübergehend freigegebenen Kontingent für das Modelltesten.
Weitere Informationen zum Bereitstellen von Modellen:
Erstellen von generativen KI-Apps mit verwaltetem Rechenbetrieb
Das Feature prompt flow in Azure Machine Learning bietet eine großartige Erfahrung für die Erstellung eines Prototyps. Modelle, die mit verwalteten Rechnerressourcen bereitgestellt werden, können Sie mit dem Open Model LLM-Tool in Prompt Flow verwenden. Sie können auch die REST-API verwenden, die von den verwalteten Computeressourcen in beliebten LLM-Tools wie LangChain mit der Azure Machine Learning-Erweiterung verfügbar gemacht wird.
Inhaltssicherheit für Modelle, die als verwaltete Rechenressourcen bereitgestellt werden
Der Dienst Azure KI Inhaltssicherheit ist für die Verwendung mit verwalteten Compute Services verfügbar, um verschiedene Kategorien von schädlichen Inhalten zu überprüfen, z. B. sexuelle Inhalte, Gewalt, Hass und Selbstverletzung. Sie können den Dienst auch verwenden, um auf erweiterte Bedrohungen wie die Erkennung von Jailbreak-Risiken und die Erkennung von geschütztem Textmaterial zu überprüfen.
Sie können für eine Referenzintegration in Azure KI Inhaltssicherheit für Llama 2 auf dieses Notebook verweisen. Alternativ können Sie das Tool für Inhaltssicherheit (Text) in Prompt Flow verwenden, um Antworten vom Modell zur Überprüfung an Azure AI Content Safety zu übergeben. Sie werden für eine solche Verwendung separat in Rechnung gestellt, wie in Azure KI Inhaltssicherheit beschrieben.
Abrechnung der Serverless-API-Bereitstellung
Sie können bestimmte Modelle im Modellkatalog mit serverloser API-Abrechnung bereitstellen. Diese Bereitstellungsmethode, auch als serverlose API-Bereitstellung bezeichnet, bietet eine Möglichkeit, die Modelle als APIs zu nutzen, ohne sie in Ihrem Abonnement zu hosten. Modelle werden in einer von Microsoft verwalteten Infrastruktur gehostet, wodurch API-basierter Zugriff auf das Modell des Modellanbieters ermöglicht wird. Der API-basierte Zugriff kann die Kosten für den Zugriff auf ein Modell dramatisch reduzieren und die Bereitstellungserfahrung vereinfachen.
Modelle, die für die Bereitstellung als serverlose API-Bereitstellungen verfügbar sind, werden vom Modellanbieter angeboten, aber sie werden in einer von Microsoft verwalteten Azure-Infrastruktur gehostet und über DIE API aufgerufen. Modellanbieter definieren die Lizenzbedingungen und legen den Preis für die Verwendung ihrer Modelle fest. Der Azure Machine Learning Service:
- Verwaltet die Hostinginfrastruktur.
- Stellt die Rückschluss-APIs zur Verfügung.
- Dient als Datenprozessor für die übertragenen Eingabeaufforderungen und die generierten Inhalte der über MaaS bereitgestellten Modelle.
Erfahren Sie mehr über die Datenverarbeitung für MaaS im Artikel zum Datenschutz.
Hinweis
Cloud Solution Provider (CSP)-Abonnements haben nicht die Möglichkeit, serverlose API-Bereitstellungsmodelle zu erwerben.
Abrechnung
Das Erlebnis der Entdeckung, des Abonnements und des Verbrauchs von Modellen, die über MaaS bereitgestellt werden, befindet sich im Azure KI Foundry-Portal und im Azure Machine Learning Studio. Benutzer akzeptieren Lizenzbedingungen für die Verwendung der Modelle. Preisinformationen für den Verbrauch werden während der Bereitstellung bereitgestellt.
Modelle von Nicht-Microsoft-Anbietern werden über Azure Marketplace gemäß den Nutzungsbedingungen des kommerziellen Microsoft-Marketplace in Rechnung gestellt.
Modelle von Microsoft werden über Azure-Verbrauchseinheiten als Erstanbieter-Verbrauchsdienste in Rechnung gestellt. Wie in den Produktbedingungen beschrieben, erwerben Sie Dienste für den Erstanbieterverbrauch mithilfe von Azure-Zählern, unterliegen jedoch nicht den Azure-Dienstbedingungen. Die Verwendung dieser Modelle unterliegt den bereitgestellten Lizenzbedingungen.
Optimierung von Modellen
Bestimmte Modelle unterstützen auch Feinabstimmungen. Für diese Modelle können Sie verwaltetes Compute (Vorschau) oder die Feinabstimmung für serverlose API-Bereitstellung nutzen, um die Modelle mithilfe bereitgestellter Daten anzupassen. Weitere Informationen finden Sie in der Anpassungsübersicht.
RAG mit Modellen, die als serverlose API-Bereitstellungen bereitgestellt werden
Im Azure KI Foundry-Portal können Sie Vektorindizes und die Abruf-erweiterte Generierung (Retrieval Augmented Generation, RAG) verwenden. Sie können Modelle verwenden, die über serverlose API-Bereitstellungen bereitgestellt werden können, um Einbettungen und Ableitungen basierend auf benutzerdefinierten Daten zu generieren. Diese Einbettungen und Rückschlüsse können dann Antworten generieren, die spezifisch für Ihren Anwendungsfall sind. Weitere Informationen finden Sie unter Erstellen und Nutzen von Vektorindizes im Azure KI Foundry-Portal.
Regionale Verfügbarkeit von Angeboten und Modellen
Die Pay-per-Token-Abrechnung ist nur für Benutzer verfügbar, deren Azure-Abonnement zu einem Abrechnungskonto in einem Land oder einer Region gehört, in dem der Modellanbieter das Angebot verfügbar gemacht hat. Wenn das Angebot in der relevanten Region verfügbar ist, müssen die Benutzer über eine Projektressource in der Azure-Region verfügen, in der das Modell für die Bereitstellung oder Optimierung verfügbar ist. Siehe Verfügbarkeit von Regionen für Modelle in serverlosen API-Bereitstellungen | Azure AI Foundry für detaillierte Informationen.
Inhaltssicherheit für Modelle, die über serverlose API-Bereitstellungen bereitgestellt werden
Für Sprachmodelle, die über die serverlose API bereitgestellt werden, implementiert Azure AI eine Standardkonfiguration von Azure AI Content Safety-Textmoderationsfiltern, die schädliche Inhalte wie Hass, Selbstschäden, sexuelle und gewalttätige Inhalte erkennen. Weitere Informationen zum Filtern von Inhalten finden Sie unter Leitplanken und Kontrollen für direkt von Azure verkaufte Modelle.
Tipp
Die Inhaltsfilterung ist für bestimmte Modelltypen, die über die serverlose API bereitgestellt werden, nicht verfügbar. Zu diesen Modelltypen gehören Einbettungsmodelle und Zeitreihenmodelle.
Die Inhaltsfilterung erfolgt synchron, während der Dienst Eingaben verarbeitet, um Inhalte zu generieren. Möglicherweise werden Sie gemäß den Azure KI Inhaltssicherheit-Preisen für diese Verwendung separat in Rechnung gestellt. Sie können die Inhaltsfilterung für einzelne serverlose Endpunkte entweder deaktivieren:
- Zum Zeitpunkt der ersten Bereitstellung eines Sprachmodells
- Später durch Auswählen der Umschaltfläche für die Inhaltsfilterung auf der Seite mit den Bereitstellungsdetails
Angenommen, Sie entscheiden sich für die Verwendung einer anderen API als der Modellinference-API , um mit einem Modell zu arbeiten, das über eine serverlose API bereitgestellt wird. In einer solchen Situation ist die Inhaltsfilterung nicht aktiviert, es sei denn, Sie implementieren sie separat mithilfe von Azure AI Content Safety.
Erste Schritte mit Azure KI Inhaltssicherheit finden Sie im Schnellstart: Analysieren von Textinhalten. Wenn Sie beim Arbeiten mit Modellen, die über die serverlose API bereitgestellt werden, keine Inhaltsfilterung verwenden, besteht ein höheres Risiko, dass Benutzer schädliche Inhalte ausgesetzt werden.
Netzwerkisolation für Modelle, die über serverlose API-Bereitstellungen bereitgestellt werden
Endpunkte für Modelle, die als serverlose API-Bereitstellungen bereitgestellt werden, folgen der Flageinstellung für den öffentlichen Netzwerkzugriff des Azure AI Foundry-Hubs mit dem Projekt mit der Bereitstellung. Um die Bereitstellung ihrer serverlosen API zu sichern, deaktivieren Sie das Flag für den öffentlichen Netzwerkzugriff auf Ihrem Azure AI Foundry-Hub. Sie können eingehende Kommunikation von einem Client zu Ihrem Endpunkt sichern, indem Sie einen privaten Endpunkt für den Hub verwenden.
So legen Sie das Flag für den öffentlichen Netzwerkzugriff für den Azure KI Foundry-Hub fest:
- Öffnen Sie das Azure-Portal.
- Suchen Sie nach der Ressourcengruppe, zu welcher der Hub gehört, und wählen Sie Ihren Azure KI Foundry-Hub aus den Ressourcen aus, die für diese Ressourcengruppe aufgeführt sind.
- Wechseln Sie auf der Hubübersicht im linken Bereich zu Einstellungen>Netztechnologie.
- Auf der Registerkarte Öffentlicher Zugriff können Sie Einstellungen für das Flag für den öffentlichen Netzwerkzugriff konfigurieren.
- Speichern Sie Ihre Änderungen. Es kann bis zu fünf Minuten dauern, bis Ihre Änderungen verteilt sind.
Einschränkungen
Wenn Sie einen Azure AI Foundry-Hub mit einem privaten Endpunkt haben, der vor dem 11. Juli 2024 erstellt wurde, folgen serverlose API-Bereitstellungen, die zu Projekten in diesem Hub hinzugefügt wurden, nicht der Netzwerkkonfiguration des Hubs. Stattdessen müssen Sie einen neuen privaten Endpunkt für den Hub erstellen und eine neue serverlose API-Bereitstellung im Projekt erstellen, damit die neuen Bereitstellungen der Netzwerkkonfiguration des Hubs folgen können.
Wenn Sie einen Azure AI Foundry-Hub mit MaaS-Bereitstellungen haben, die vor dem 11. Juli 2024 erstellt wurden, und Sie einen privaten Endpunkt auf diesem Hub aktivieren, folgen die vorhandenen serverlosen API-Bereitstellungen nicht der Netzwerkkonfiguration des Hubs. Damit serverlose API-Bereitstellungen im Hub der Netzwerkkonfiguration des Hubs folgen können, müssen Sie die Bereitstellungen erneut erstellen.
Derzeit ist der Support für Azure OpenAI On Your Data für serverlose API-Bereitstellungen in privaten Hubs nicht verfügbar, da bei privaten Hubs das Flag für den Zugriff aus öffentlichen Netzwerken deaktiviert ist.
Jede Netzwerkkonfigurationsänderung (z. B. das Aktivieren oder Deaktivieren des Flags für den öffentlichen Netzwerkzugriff) kann bis zu fünf Minuten dauern, bis sie verteilt ist.