Freigeben über


Übersicht über verantwortungsvolle KI-Praktiken für Azure OpenAI-Modelle

Important

Nicht englische Übersetzungen werden nur zur Bequemlichkeit bereitgestellt. Bitte wenden Sie sich an die EN-US Version dieses Dokuments für die Bindungsversion.

Viele der Azure OpenAI-Modelle sind generative KI-Modelle, die Verbesserungen erweiterter Funktionen wie z. B. Inhalts- und Codegenerierung, Zusammenfassung und Suche veranschaulichen. Mit vielen dieser Verbesserungen gehen auch erhöhte verantwortungsbewusste KI-Herausforderungen im Zusammenhang mit schädlichen Inhalten, Manipulation, menschlichem Verhalten, Datenschutz und mehr einher. Weitere Informationen zu den Funktionen, Einschränkungen und geeigneten Anwendungsfällen für diese Modelle finden Sie im Transparenzhinweis.

Zusätzlich zum Transparenzhinweis stellen wir technische Empfehlungen und Ressourcen bereit, die Kunden beim Entwerfen, Entwickeln, Bereitstellen und Verwenden von KI-Systemen unterstützen, die die Azure OpenAI-Modelle verantwortungsbewusst implementieren. Unsere Empfehlungen basieren auf dem Microsoft Responsible AI Standard, der Richtlinienanforderungen festlegt, die unsere eigenen Entwicklungsteams befolgen. Ein Großteil des Inhalts des Standards folgt einem Muster, das Teams auffordern, potenzielle Schäden zu identifizieren, zu messen und zu mindern und zu planen, wie das KI-System betrieben wird. In Übereinstimmung mit diesen Praktiken sind diese Empfehlungen in vier Stufen unterteilt:

  1. Identifizieren und priorisieren Sie potenzielle Schäden, die durch iteratives Red-Teaming, Stresstests und Analysen aus Ihrem KI-System resultieren könnten.
  2. Measure: Messen Sie die Häufigkeit und den Schweregrad dieser Schäden, indem Sie klare Metriken erstellen, Messtestsätze erstellen und iterative, systematische Tests (sowohl manuell als auch automatisiert) abschließen.
  3. Mindern Sie Schäden, indem Sie Tools und Strategien wie Prompt Engineering implementieren und unsere Inhaltsfilter verwenden. Wiederholen Sie die Messung, um die Effektivität nach der Implementierung von Entschärfungen zu testen.
  4. Operation : Definieren und Ausführen eines Bereitstellungs- und Betriebsbereitschaftsplans.

Neben ihrer Korrespondenz mit dem Microsoft Responsible AI Standard entsprechen diese Stufen den Funktionen im NIST AI Risk Management Framework genau.

Identify

Die erste Phase des Verantwortlichen KI-Lebenszyklus besteht darin, potenzielle Schäden zu identifizieren, die in einem KI-System auftreten oder verursacht werden können. Je früher Sie mit der Identifizierung potenzieller Schäden beginnen, desto effektiver können Sie sie mindern. Entwickeln Sie bei der Bewertung potenzieller Schäden ein Verständnis der Arten von Schäden, die sich aus der Verwendung des Azure OpenAI-Diensts in Ihren spezifischen Kontexten ergeben könnten. Dieser Abschnitt enthält Empfehlungen und Ressourcen, die Sie verwenden können, um Schäden durch eine Folgenabschätzung, iterative rote Teamtests, Stresstests und Analysen zu identifizieren. Rotes Teaming und Stresstests sind Ansätze, bei denen eine Gruppe von Testern absichtlich ein System untersucht, um seine Einschränkungen, Risikooberfläche und Sicherheitsrisiken zu identifizieren.

Diese Schritte erzeugen eine priorisierte Liste potenzieller Schäden für jedes bestimmte Szenario.

  1. Identifizieren Sie Schäden, die für Ihr spezifisches Modell, Ihre Anwendung und Ihr Bereitstellungsszenario relevant sind.
    1. Identifizieren Sie potenzielle Schäden im Zusammenhang mit den Modell- und Modellfunktionen (z. B. GPT-3-Modell und GPT-4-Modell), die Sie in Ihrem System verwenden. Jedes Modell verfügt über unterschiedliche Funktionen, Einschränkungen und Risiken.
    2. Identifizieren Sie andere Schäden oder einen erhöhten Schaden, der durch die beabsichtigte Verwendung Ihres Systems entstehen könnte. Erwägen Sie die Verwendung einer verantwortungsvollen KI-Folgenabschätzung , um potenzielle Schäden zu identifizieren.
      1. Betrachten Sie beispielsweise ein KI-System, das Text zusammenfasst. Einige Verwendungsmöglichkeiten der Textgenerierung sind niedriger als andere. Wenn das System in einer Gesundheitsdomäne zum Zusammenfassen von Arztnotizen verwendet wird, ist das Risiko von Schäden aufgrund von Ungenauigkeiten höher, als wenn das System Onlineartikel zusammenfasst.
  2. Priorisieren Sie Schäden basierend auf Elementen des Risikos, z. B. Häufigkeit und Schweregrad. Bewerten Sie das Risikoniveau für jeden Schaden und die Wahrscheinlichkeit jedes Risikos, um die Liste der von Ihnen identifizierten Schäden zu priorisieren. Erwägen Sie, bei Bedarf mit Experten und Risikomanagern in Ihrer Organisation und mit relevanten externen Projektbeteiligten zusammenzuarbeiten.
  3. Führen Sie Red-Team-Tests und Stresstests durch, beginnend mit den höchsten Prioritätsschäden. Entwickeln Sie ein besseres Verständnis darüber, ob und wie die identifizierten Schäden in Ihrem Szenario auftreten. Identifizieren Sie neue Schäden, die Sie ursprünglich nicht vorhergesehen haben.
  4. Teilen Sie diese Informationen mithilfe der internen Complianceprozesse Ihrer Organisation mit relevanten Projektbeteiligten.

Am Ende dieser Identifizierungsphase haben Sie eine dokumentierte, priorisierte Liste der Schäden. Wenn neue Schäden und neue Schadeninstanzen durch weitere Tests und Nutzung des Systems entstehen, aktualisieren und verbessern Sie diese Liste.

Measure

Nachdem Sie eine priorisierte Liste von Schäden identifiziert haben, entwickeln Sie einen Ansatz zur systematischen Messung der einzelnen Schäden und führen Auswertungen des KI-Systems durch. Sie können manuelle und automatisierte Messansätze verwenden. Es wird empfohlen, beide Ansätze zu verwenden, beginnend mit manueller Messung.

Manuelle Messung ist nützlich für:

  • Messen des Fortschritts bei einer kleinen Gruppe von Prioritätsproblemen. Bei der Eindämmung bestimmter Schäden ist es oft am produktivsten, den Fortschritt anhand eines kleinen Datasets manuell zu überprüfen, bis der Schaden nicht mehr zu beobachten ist, bevor man zur automatischen Messung übergeht.
  • Definieren und Melden von Metriken, bis die automatisierte Messung zuverlässig genug ist, um sie selbst zu verwenden.
  • Regelmäßige Stichprobenprüfungen zur Überprüfung der Qualität automatisierter Messungen.

Automatisierte Messung ist nützlich für:

  • Automatisierte Messungen sind nützlich, wenn Sie in großem Maßstab und mit größerem Erfassungsbereich messen, um umfassendere Ergebnisse zu erhalten.
  • Es ist auch hilfreich für die laufende Messung, um eventuelle Regressionen zu überwachen, wenn sich das System, die Nutzung und die Abhilfemaßnahmen weiterentwickeln.

Die folgenden Empfehlungen helfen Ihnen, Ihr KI-System für potenzielle Schäden zu messen. Es wird empfohlen, diesen Vorgang zuerst manuell abzuschließen und dann einen Plan zur Automatisierung des Prozesses zu entwickeln:

  1. Erstellen Sie Eingaben, die wahrscheinlich jeden priorisierten Schaden erzeugen: Erstellen Sie Messsätze, indem Sie viele verschiedene Beispiele für gezielte Eingaben generieren, die wahrscheinlich jeden priorisierten Schaden erzeugen.

  2. Systemausgaben generieren: Übergeben Sie die Beispiele aus den Messsätzen als Eingaben an das System, um Systemausgaben zu generieren. Dokumentieren Sie die Ausgaben.

  3. Auswerten von Systemausgaben und Melden von Ergebnissen an relevante Projektbeteiligte

    1. Definieren Sie klare Metriken. Richten Sie für jede beabsichtigte Verwendung Ihres Systems Metriken ein, die die Häufigkeit und den Schweregrad jeder potenziell schädlichen Ausgabe messen. Erstellen Sie klare Definitionen, um Ausgaben zu klassifizieren, die Sie im Kontext Ihres Systems und Szenarios als schädlich oder problematisch betrachten, für jede Art von priorisiertem Schaden, den Sie identifiziert haben.
    2. Bewerten Sie die Ausgaben anhand der eindeutigen Metrikdefinitionen . Erfassen und quantifizieren Sie die Vorkommen schädlicher Ausgaben. Wiederholen Sie die Messungen regelmäßig, um Entschärfungen zu bewerten und eine Regression zu überwachen.
    3. Teilen Sie diese Informationen mithilfe der internen Complianceprozesse Ihrer Organisation mit relevanten Projektbeteiligten.

Am Ende dieser Messphase sollten Sie einen definierten Messansatz haben, um zu bewerten, wie Ihr System in Bezug auf jeden potenziellen Schaden abschneidet sowie über eine erste Reihe dokumentierter Ergebnisse verfügt. Wenn Sie weiterhin Gegenmaßnahmen implementieren und testen, verfeinern Sie die Metriken und Maßsätze. Fügen Sie beispielsweise Metriken für neue Schäden hinzu, die Sie anfänglich nicht vorhergesehen haben. Aktualisieren Sie die Ergebnisse.

Mitigate

Die Reduzierung von Schäden, die von großen Sprachmodellen (Large Language Models) wie den Azure OpenAI-Modellen präsentiert werden, erfordert einen iterativen, mehrstufigen Ansatz, der Experimentieren und kontinuierliche Messung umfasst. Es wird empfohlen, einen Entschärfungsplan zu entwickeln, der vier Ebenen von Gegenmaßnahmen für die in den früheren Phasen dieses Prozesses identifizierten Schäden umfasst:

Diagramm der Entschärfungsebenen.

  1. Verstehen Sie auf Modellebene die von Ihnen verwendeten Modelle und welche Feinabstimmungsschritte die Modellentwickler ausführen, um das Modell an die beabsichtigten Verwendungen auszurichten und das Risiko potenziell schädlicher Verwendungen und Ergebnisse zu verringern.
    1. Entwickler verwenden beispielsweise Verstärkungslernmethoden als verantwortungsvolles KI-Tool, um GPT-4 besser auf die beabsichtigten Ziele der Designer auszurichten.
  2. Verstehen Sie auf Sicherheitssystemebene die Maßnahmen auf Plattformebene, die die Entwickler implementieren, z. B. die Azure OpenAI-Inhaltsfilter , die dazu beitragen, die Ausgabe schädlicher Inhalte zu blockieren.
  3. Auf Anwendungsebene können Anwendungsentwickler Metaprompt- und benutzerzentrierte Design- und Benutzeroberflächenminderungen implementieren. Metaprompts sind Anweisungen, die Sie dem Modell bereitstellen, um sein Verhalten zu leiten. Ihre Verwendung kann entscheidend dazu führen, dass sich das System entsprechend Ihren Erwartungen verhält. Benutzerzentrierte Design- und UX-Interventionen (User Centered Design and User Experience, UX) sind auch wichtige Entschärfungstools, um Missbrauch und Überlastung auf KI zu verhindern.
  4. Informieren Sie auf Positionierungsebene die Personen, die ihr System verwenden oder davon betroffen sind, über seine Funktionen und Einschränkungen.

In den folgenden Abschnitten werden spezifische Empfehlungen für die Implementierung von Entschärfungen auf den verschiedenen Ebenen bereitgestellt. Nicht alle diese Gegenmaßnahmen sind für jedes Szenario geeignet. Im Gegensatz dazu sind diese Gegenmaßnahmen für einige Szenarien möglicherweise nicht ausreichend. Achten Sie sorgfältig auf Ihr Szenario, und die priorisierten Schäden, die Sie identifiziert haben. Entwickeln Sie beim Implementieren von Entschärfungen einen Prozess zum Messen und Dokumentieren ihrer Effektivität für Ihr System und Ihr Szenario.

  1. Risikominderungen auf Modellebene: Überprüfen und identifizieren Sie, welches Azure OpenAI-Basismodell am besten zum System passt, das Sie erstellen. Informieren Sie sich über ihre Fähigkeiten, Einschränkungen und alle Maßnahmen, die ergriffen werden, um das Risiko der potenziellen Schäden zu verringern, die Sie identifiziert haben. Wenn Sie z. B. GPT-4 verwenden, lesen Sie zusätzlich zum Lesen dieses Transparenzhinweiss die GPT-4-Systemkarte von OpenAI, die die sicherheitsrelevanten Herausforderungen des Modells und die Sicherheitsprozesse erläutert, die OpenAI zur Vorbereitung von GPT-4 für die Bereitstellung übernommen hat. Experimentieren Sie mit verschiedenen Versionen des Modells (einschließlich durch Red Teaming und Messung), um zu beobachten, wie sich die Schäden unterschiedlich manifestieren.

  2. Risikominderungen auf Sicherheitssystemebene: Identifizieren und bewerten Sie die Effektivität von Lösungen auf Plattformebene, z. B. die Azure OpenAI-Inhaltsfilter , um die potenziellen Schäden zu mindern, die Sie identifiziert haben.

  3. Entschärfungen auf Anwendungsebene: Prompt Engineering, einschließlich Metaprompt-Optimierung, kann eine effektive Risikominderung für viele verschiedene Arten von Schäden sein. Überprüfen und implementieren Sie metaprompt (auch als "Systemnachricht" oder "Systemaufforderung" bezeichnet) Anleitungen und bewährte Methoden, die hier dokumentiert sind.

    Implementieren Sie die folgenden benutzerzentrierten Design- und Benutzeroberflächeninteraktionen (User Experience, UX), Anleitungen und bewährte Methoden, um Benutzer dazu zu führen, das System wie beabsichtigt zu verwenden und die Überlastung auf dem KI-System zu verhindern:

    1. Überprüfen und Bearbeiten von Interventionen: Entwerfen Sie die Benutzeroberfläche (User Experience, UX), um Personen zu ermutigen, die das System verwenden, um die von KI generierten Ausgaben zu überprüfen und zu bearbeiten, bevor sie akzeptiert werden (siehe HAX G9: Effiziente Korrektur unterstützen).
    2. Heben Sie potenzielle Ungenauigkeiten in den KI-generierten Ausgaben hervor (siehe HAX G2: Machen Sie klar, wie gut das System tun kann, was es tun kann), sowohl wenn Benutzer das System zum ersten Mal verwenden, als auch zu geeigneten Zeiten während der laufenden Nutzung. Informieren Sie Benutzer in der ersten Ausführungsumgebung (First Run Experience, FRE), dass KI-generierte Ausgaben möglicherweise Ungenauigkeiten enthalten und dass sie Informationen überprüfen sollten. Schließen Sie während der gesamten Erfahrung Erinnerungen ein, um die von KI generierte Ausgabe auf potenzielle Ungenauigkeiten zu überprüfen, sowohl insgesamt als auch in Bezug auf bestimmte Arten von Inhalten, die das System möglicherweise falsch generiert. Wenn Ihr Messvorgang beispielsweise feststellt, dass Ihr System mit Zahlen eine niedrigere Genauigkeit aufweist, markieren Sie Zahlen in generierten Ausgaben, um den Benutzer zu benachrichtigen und sie aufzufordern, die Nummern zu überprüfen oder externe Quellen zur Überprüfung zu suchen.
    3. Benutzerverantwortung. Erinnern Sie Personen daran, dass sie für den endgültigen Inhalt verantwortlich sind, wenn sie KI-generierte Inhalte überprüfen. Erinnern Sie den Entwickler beispielsweise beim Anbieten von Codevorschlägen daran, Vorschläge vor der Annahme zu überprüfen und zu testen.
    4. Geben Sie die Rolle der KI in der Interaktion offen. Machen Sie sich bewusst, dass sie mit einem KI-System interagieren (im Gegensatz zu einem anderen Menschen). Informieren Sie die Verbraucher von Inhalten gegebenenfalls darüber, dass Inhalte teilweise oder vollständig von einem KI-Modell generiert werden. Solche Hinweise könnten gesetzlich oder durch anwendbare bewährte Methoden erforderlich sein. Sie können unangemessene Abhängigkeiten von KI-generierten Inhalten reduzieren und den Verbrauchern helfen, ihr eigenes Urteilsvermögen anzuwenden, um solche Inhalte zu interpretieren und darauf zu reagieren.
    5. Verhindern Sie, dass das System anthropomorphisiert. KI-Modelle können Inhalte ausgeben, die Meinungen, emotivische Aussagen oder andere Formulierungen enthalten, die bedeuten könnten, dass sie menschlich sind. Solche Inhalte könnten für eine menschliche Identität gehalten werden. Solche Inhalte könnten die Menschen dazu verleiten zu denken, dass ein System bestimmte Fähigkeiten hat, die es nicht besitzt. Implementieren Sie Mechanismen, die das Risiko solcher Ausgaben reduzieren oder Offenlegungen integrieren, um die Fehlinterpretation von Ausgaben zu verhindern.
    6. Zitieren Sie Verweise und Informationsquellen. Wenn Ihr System Inhalte auf der Grundlage von Verweisen generiert, die an das Modell gesendet werden, hilft das Zitieren von Informationsquellen den Menschen zu verstehen, woher die von der KI generierten Inhalte stammen.
    7. Beschränken Sie gegebenenfalls die Länge der Ein- und Ausgaben. Das Einschränken der Eingabe- und Ausgabelänge kann die Wahrscheinlichkeit verringern, unerwünschte Inhalte zu erzeugen, den Missbrauch des Systems über seine beabsichtigte Verwendung hinaus oder andere schädliche oder unbeabsichtigte Verwendungen zu vermeiden.
    8. Strukturieren Sie Eingaben und/oder Systemausgaben. Verwenden Sie eingabeaufforderungstechnische Techniken in Ihrer Anwendung, um Eingaben für das System zu strukturieren, um offene Antworten zu verhindern. Sie können Ausgaben auch einschränken, sodass sie in bestimmten Formaten oder Mustern strukturiert werden. Wenn Ihr System z. B. einen Dialog für einen fiktiven Charakter als Reaktion auf Abfragen generiert, beschränken Sie die Eingaben so, dass Personen nur nach einer vordefinierten Gruppe von Konzepten abfragen können.
    9. Bereiten Sie vorab festgelegte Antworten vor. Es gibt bestimmte Abfragen, für die ein Modell möglicherweise anstößige, unangemessene oder anderweitig schädliche Antworten generieren könnte. Wenn schädliche oder anstößige Abfragen oder Antworten erkannt werden, können Sie Ihr System so entwerfen, dass eine vordefinierte Antwort an den Benutzer übermittelt wird. Vordefinierte Antworten sollten sorgfältig gestaltet werden. Beispielsweise kann die Anwendung vorgefertigte Antworten auf Fragen wie „Wer/was bist du?“ bereitstellen, um zu vermeiden, dass das System mit anthropomorphen Antworten reagiert. Sie können auch vordefinierte Antworten auf Fragen wie "Was sind Ihre Nutzungsbedingungen?" verwenden, um Personen zur richtigen Richtlinie zu leiten.
    10. Schränken Sie die automatische Veröffentlichung in sozialen Medien ein. Beschränken Sie, wie Personen Ihr Produkt oder Ihren Dienst automatisieren können. Sie können z. B. die automatisierte Veröffentlichung von KI-generierten Inhalten auf externen Websites (einschließlich sozialer Medien) verbieten oder die automatisierte Ausführung von generierten Code verbieten.
    11. Boterkennung. Entwickeln und implementieren Sie einen Mechanismus, um zu verhindern, dass Benutzer eine API auf Grundlage Ihres Produkts erstellen.
  4. Risikominderungen auf Positionierungsebene:

    1. Seien Sie angemessen transparent. Bieten Sie den Personen, die das System nutzen, die richtige Transparenz, damit sie fundierte Entscheidungen über die Nutzung des Systems treffen können.
    2. Bereitstellen einer Systemdokumentation. Erstellen und stellen Sie Schulungsmaterialien für Ihr System bereit, einschließlich Erläuterungen seiner Funktionen und Einschränkungen. Beispielsweise könnte dieser Inhalt in Form einer über das System zugänglichen "Weitere Informationen"-Seite sein.
    3. Veröffentlichen Sie Benutzerrichtlinien und bewährte Methoden. Helfen Sie Benutzern und Projektbeteiligten, das System entsprechend zu verwenden, indem Sie bewährte Methoden veröffentlichen, z. B. zum Erstellen von Aufforderungen, zum Überprüfen von Generationen, bevor sie akzeptiert werden usw. Solche Richtlinien können personen dabei helfen zu verstehen, wie das System funktioniert. Integrieren Sie nach Möglichkeit die Richtlinien und bewährten Methoden direkt in die UX.

Wenn Sie Gegenmaßnahmen implementieren, um potenzielle identifizierte Schäden zu beheben, entwickeln Sie einen Prozess zur kontinuierlichen Messung der Wirksamkeit solcher Gegenmaßnahmen. Dokumentieren sie die Ergebnisse der Messung. Überprüfen Sie diese Messergebnisse, um das System kontinuierlich zu verbessern.

Operate

Nachdem Sie Mess- und Entschärfungssysteme eingerichtet haben, definieren und führen Sie einen Bereitstellungs- und Betriebsbereitschaftsplan aus. Diese Phase umfasst die Durchführung geeigneter Überprüfungen Ihrer System- und Entschärfungspläne mit relevanten Projektbeteiligten, die Einrichtung von Pipelines zum Sammeln von Telemetrie und Feedback sowie die Entwicklung eines Vorfallreaktions- und Rollbackplans.

Beachten Sie die folgenden Empfehlungen für die Bereitstellung und den Betrieb eines Systems, das den Azure OpenAI-Dienst mit geeigneten, gezielten Schadensminderungen verwendet:

  1. Arbeiten Sie mit Complianceteams innerhalb Ihrer Organisation zusammen, um zu verstehen, welche Arten von Rezensionen für Ihr System erforderlich sind und wann sie abgeschlossen werden sollen. Überprüfungen können rechtliche Überprüfungen, Datenschutzüberprüfungen, Sicherheitsüberprüfung, Barrierefreiheitsprüfung und andere umfassen.

  2. Entwickeln und implementieren Sie die folgenden Komponenten:

    1. Phasenweiser Übermittlungsplan. Starten Sie Systeme, die den Azure OpenAI-Dienst schrittweise mit einem phasenweisen Bereitstellungsansatz verwenden. Dieser Ansatz bietet eine begrenzte Anzahl von Personen die Möglichkeit, das System auszuprobieren, Feedback zu geben, Probleme und Bedenken zu melden und Verbesserungen vorzuschlagen, bevor das System breiter veröffentlicht wird. Außerdem können Sie das Risiko unerwarteter Fehlermodi, unerwartetes Systemverhalten und unerwartete Probleme, die gemeldet werden, verwalten.
    2. Plan zur Reaktion auf Vorfälle. Entwickeln Sie einen Plan zur Reaktion auf Vorfälle, und bewerten Sie die Zeit, die erforderlich ist, um auf einen Vorfall zu reagieren.
    3. Rollbackplan. Stellen Sie sicher, dass Sie das System schnell und effizient zurücksetzen können, wenn ein unerwarteter Vorfall auftritt.
    4. Sofortiges Handeln für unerwartete Schäden. Erstellen Sie die erforderlichen Features und Prozesse, um problematische Eingabeaufforderungen und Antworten so zu blockieren, wie sie entdeckt und so nah wie möglich in Echtzeit sind. Wenn unerwartete Schäden auftreten, blockieren Sie die problematischen Eingabeaufforderungen und Antworten so schnell wie möglich. Entwickeln und Bereitstellen geeigneter Entschärfungen. Untersuchen Sie den Vorfall, und implementieren Sie eine langfristige Lösung.
    5. Mechanismus zum Blockieren von Personen, die Ihr System missbrauchen. Entwickeln Sie einen Mechanismus, um Benutzer zu identifizieren, die gegen Ihre Inhaltsrichtlinien verstoßen (z. B. durch Generieren von Hassreden), oder verwenden Sie Ihr System anderweitig für unbeabsichtigte oder schädliche Zwecke. Ergreifen Sie Maßnahmen gegen weitere Missbrauch. Wenn ein Benutzer beispielsweise Ihr System häufig zum Generieren von Inhalten verwendet, die von Inhaltssicherheitssystemen blockiert oder gekennzeichnet werden, sollten Sie erwägen, ihm die weitere Verwendung Ihres Systems zu untersagen. Implementieren Sie gegebenenfalls einen Beschwerdemechanismus.
    6. Effektive Benutzerfeedbackkanäle. Implementieren Sie Feedback-Kanäle, über die Stakeholder (und ggf. die breite Öffentlichkeit) Feedback abgeben oder Probleme mit generierten Inhalten oder Probleme melden können, die während der Nutzung des Systems anderweitig auftreten. Dokumentieren Sie, wie Sie dieses Feedback verarbeiten, berücksichtigen und adressieren. Bewerten Sie das Feedback und die Arbeit, um das System basierend auf Benutzerfeedback zu verbessern. Ein Ansatz könnte das Einschließen von Schaltflächen mit generierten Inhalten sein, mit denen Benutzer Inhalte als "ungenau", "schädlich" oder "unvollständig" identifizieren können. Dieser Ansatz könnte ein weit verbreitetes, strukturiertes und Feedbacksignal für die Analyse bieten.
    7. Telemetriedaten. Identifizieren und erfassen Sie (im Einklang mit geltenden Datenschutzgesetzen, -richtlinien und -verpflichtungen) Signale, die auf die Zufriedenheit der Benutzer oder ihre Fähigkeit hinweisen, das System wie vorgesehen zu verwenden. Verwenden Sie Telemetriedaten, um Lücken zu identifizieren und das System zu verbessern.

Dieses Dokument stellt keine rechtliche Beratung dar und darf auch nicht als solche ausgelegt werden. In der Gerichtsbarkeit, in der Sie agieren, können verschiedene behördliche oder rechtliche Anforderungen für Ihr KI-System gelten. Wenden Sie sich an einen Rechtsspezialisten, wenn Sie unsicher sind, welche Gesetze oder Vorschriften für Ihr System gelten könnten, insbesondere, wenn Sie der Meinung sind, dass sich dies auf diese Empfehlungen auswirken könnte. Beachten Sie, dass nicht alle hier bereitgestellten Empfehlungen und Ressourcen für jedes Szenario geeignet sind und dass die Empfehlungen und Ressourcen umgekehrt für einige Szenarien möglicherweise nicht ausreichen.

Erfahren Sie mehr über verantwortungsvolle KI

Weitere Informationen zu Azure OpenAI