Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
-
2025-06-27
Von Bedeutung
Nicht englische Übersetzungen werden nur zur Bequemlichkeit bereitgestellt. Bitte wenden Sie sich an die EN-US
Version dieses Dokuments für die Bindungsversion.
Was ist ein Transparenzhinweis?
Ein KI-System umfasst nicht nur die Technologie, sondern auch die Personen, die das System verwenden, die davon betroffenen Personen und die Umgebung, in der es bereitgestellt wird. Die Erstellung eines Systems, das für den vorgesehenen Zweck geeignet ist, erfordert ein Verständnis dafür, wie Technologie funktioniert, was ihre Funktionen und Einschränkungen sind und wie Sie die beste Leistung erzielen können. Die Transparenzhinweise von Microsoft sollen Ihnen helfen zu verstehen, wie unsere KI-Technologie funktioniert, welche Entscheidungen Systembesitzer treffen können, die die Systemleistung und das Systemverhalten beeinflussen, und wie wichtig es ist, das gesamte System zu betrachten, einschließlich der Technologie, der Menschen und der Umgebung. Sie können Transparenzhinweise verwenden, wenn Sie Ihr eigenes System entwickeln oder bereitstellen oder mit den Personen teilen, die ihr System verwenden oder davon betroffen sind.
Die Transparenzhinweise von Microsoft sind Teil einer größeren Initiative bei Microsoft, unsere KI-Prinzipien praktisch umzusetzen. Weitere Informationen finden Sie unter Verantwortungsvolle und vertrauenswürdige KI.
Die Grundlagen von Azure AI Search
Einleitung
Azure AI Search bietet Entwicklern Tools, APIs und SDKs zum Erstellen einer umfassenden Sucherfahrung über private, heterogene Inhalte in Web-, Mobilen- und Unternehmensanwendungen. Die Suche ist für jede Anwendung, die Daten für Benutzer anzeigt, von grundlegender Grundlage. Häufige Szenarien sind Katalog- oder Dokumentsuche, Online-Einzelhandelsgeschäfte oder Datensuche über proprietäre Inhalte.
Durchsuchbare Daten können in Form von Text oder Vektoren sein und as-is aus einer Datenquelle aufgenommen oder mithilfe von KI erweitert werden, um die allgemeine Sucherfahrung zu verbessern. Entwickler können Daten int in numerische Darstellungen (als Vektoren bezeichnet) konvertieren, indem Sie ein externes Machine Learning-Modell (sogenannte Einbettungsmodelle) aufrufen. Indexer können optional Fähigkeiten umfassen, die eine leistungsstarke Suite von Datenanreicherung über mehrere Azure AI Language-Funktionen unterstützen, z. B. Named Entity Recognition (NER) und personenbezogene Informationen (PII)-Erkennung sowie Azure AI Vision-Funktionen , einschließlich optischer Zeichenerkennung (OCR) und Bildanalyse.
Weitere Informationen dazu, wie Azure AI Search die Sucherfahrung verbessert, indem Sie Azure AI-Dienste oder andere KI-Systeme verwenden, um die Absicht, Semantik und konkludente Struktur eines Kundeninhalts besser zu verstehen.
- KI-Anreicherung
- Vektorsuche
- Semantischer Sortierer
- Abfrageumformulierung
- GenAI Prompt-Fähigkeit
- Agent-Abruf
Die KI-Bereicherung ist die Anwendung von Machine Learning-Modellen von Azure AI-Diensten über Inhalte, die nicht einfach in ihrer rohen Form durchsuchbar sind. Durch Anreicherung, Analyse und Rückschließen werden durchsuchbare Inhalte und Strukturen geschaffen, wo vorher keine vorhanden waren.
DIE KI-Anreicherung ist eine optionale Erweiterung der Azure AI Search-Indexerpipeline, die eine Verbindung mit Azure AI-Diensten in derselben Region wie der Suchdienst eines Kunden herstellt. Eine Anreicherungspipeline verfügt über die gleichen Kernkomponenten wie ein typischer Indexer (Indexer, Datenquelle, Index), sowie einen Qualifikationssatz, der die Atomanreicherungsschritte angibt. Ein Qualifikationssatz kann mit integrierten Fähigkeiten basierend auf den Azure AI-Dienst-APIs, z. B. Azure AI Vision und Azure AI Language, oder benutzerdefinierten Fähigkeiten erstellt werden, die externen Code ausführen, den Sie bereitstellen.
Die Vektorsuche ist eine Methode zum Abrufen von Informationen, bei denen Dokumente und Abfragen in einem Index anstelle von Nur-Text als Vektoren dargestellt werden. In der Vektorsuche generieren Machine Learning-Modelle, die extern von Azure AI Search gehostet werden, die Vektordarstellungen von Quelleingaben, die Text, Bilder, Audio- oder Videoinhalte sein können. Diese mathematische und normalisierte Darstellung von Inhalten, die als Vektoreinbettungen bezeichnet werden, bietet eine gemeinsame Grundlage für Suchszenarien.
Wenn alles ein Vektor ist, kann eine Abfrage eine Übereinstimmung im Vektorraum finden, auch wenn sich der zugeordnete ursprüngliche Inhalt in einem anderen Medientyp befindet, z. B. Bilder im Vergleich zu Text oder Sprache als die Abfrage. Die Suchmaschine überprüft den Index, der nach Vektorinhalten sucht, die am ehesten dem Vektor in der Abfrage am nächsten sind. Das Abstimmen auf eine mathematische Vektordarstellung anstelle von Schlüsselwörtern macht es viel wahrscheinlicher, Übereinstimmungen zu finden, die semantische Bedeutungen teilen, aber textlich verschieden sind, z. B. "Auto" und "Wagen". Dadurch erhalten Sie eine detailliertere Einführung in Vektoreinbettungen und die Funktionsweise des Ähnlichkeitsalgorithmus.
Schlüsselbegriffe
Begriff | Definition |
---|---|
Vektoreinbettungen | Eine hochoptimierte Methode zum Darstellen von Daten, die Bedeutung und Verständnis widerspiegeln, die von einem maschinellen Lernmodell aus Bildern, Audio, Video oder Text extrahiert werden. Der Inhalt wird sowohl beim Indizieren als auch zur Abfragezeit in Vektoreinbettungen umgewandelt. Die Vektorsuche bezieht sich auf die in einer Abfrage bereitgestellten Einbettungen und sucht nach den ähnlichsten Einbettungen im Index. Die Ergebnisse werden dann in der Regel nach dem Grad der Ähnlichkeit sortiert. |
Einbettungsraum | Alle Vektoren im Korpus für ein einzelnes Feld belegen den gleichen Einbettungsraum, in dem sich ähnliche Elemente nahe beieinander befinden, und unterschiedliche Elemente sind weiter auseinander. Eine höhere Dimensionalität des Einbettungsraums kann weitere Informationen in einem einzelnen Vektor enthalten und die Sucherfahrung erheblich verbessern, aber zu erheblichen Kosten für die Indexspeichergröße und höhere Abfragelatenz. |
Der semantische Rangierer verwendet den Kontext oder die semantische Bedeutung einer Abfrage, um eine neue Relevanzbewertung zu berechnen, die Ergebnisse fördert, die semantisch der Absicht der ursprünglichen Abfrage am Anfang am nächsten stehen. Das anfängliche Resultset kann aus einer Schlüsselwortsuche mit BM25-Rangfolge , Vektorsuche oder einer Hybridsuche stammen, die beide umfasst. Sie erstellt und liefert auch „Beschriftungen“ zurück, indem wortgenauer Inhalt extrahiert wird, der im Ergebnis gefunden wurde, und „Highlights“, um die Aufmerksamkeit auf wichtige Inhalte innerhalb des Ergebnisses zu lenken. Es kann auch eine "Antwort" zurückgeben, wenn die Abfrage die Merkmale einer Frage ("was ist der Gefrierpunkt von Wasser") aufweist, und das Ergebnis enthält Text mit den Merkmalen einer Antwort ("Wasser friert bei 0°C oder 32°F").
Schlüsselbegriffe
Begriff | Definition |
---|---|
Semantischer Sortierer | Verwendet den Kontext und die semantische Bedeutung einer Abfrage, um die Suchrelevanz zu verbessern, indem das Sprachverständnis verwendet wird, um Suchergebnisse neu zu bewerten. |
Semantische Titel und Markierungen | Extrahiert Sätze und Ausdrücke aus einem Dokument, die den Inhalt am besten zusammenfassen, mit Hervorhebungen über wichtigen Passagen zum einfachen Scannen. Beschriftungen, die ein Ergebnis zusammenfassen, sind nützlich, wenn einzelne Inhaltsfelder für die Ergebnisseite zu dicht sind. Der markierte Text hebt die relevantesten Begriffe und Ausdrücke hervor, sodass Benutzer schnell ermitteln können, warum eine Entsprechung als relevant eingestuft wurde. |
Semantische Antworten | Stellt eine optionale und zusätzliche Unterstruktur bereit, die von einer semantischen Abfrage zurückgegeben wird. Sie bietet eine direkte Antwort auf eine Abfrage, die wie eine Frage aussieht. Ein Dokument muss Text mit den Merkmalen einer Antwort enthalten. |
Bei der Abfrageumschreibung werden synthetische Abfragen erstellt, bei denen es sich um Abfragen handelt, die künstlich erstellt oder aus tatsächlichen Kundeneingaben generiert werden, um den Rückruf zu verbessern (der Anteil der relevanten Dokumente, die aus der Gesamtzahl der verfügbaren Dokumente abgerufen wurden) der BM25-Rangfolge, der Vektorsuche oder einer Hybridsuche. Die ursprüngliche Abfrage wird mit den synthetischen Abfragen kombiniert, um einen optimalen Rückruf von der Suchmaschine zu ermöglichen.
Die GenAI Prompt-Fähigkeit ist Teil des Azure AI Search-Katalogs von Fähigkeiten, sodass Kunden ihre Suchindizes mit KI-generierten Inhalten basierend auf ihren Daten verbessern können. Durch die Verwendung der eigenen Daten und Vorlieben des Kunden hilft diese Fähigkeit dabei, maßgeschneiderte Zusammenfassungen, Antworten oder Erkenntnisse zu erstellen, die ihren spezifischen Anforderungen entsprechen.
Das bedeutet, wenn der Endbenutzer die Inhalte der Kunden über die KI-Suche durchsucht, kann der von KI generierte Inhalt informativere und kontextbezogene Ergebnisse liefern, sodass Benutzer die gesuchten Informationen leichter finden können.
Schlüsselbegriffe
Begriff | Definition |
---|---|
Fähigkeiten | Eine Azure AI Search-Fähigkeit ist eine modulare Verarbeitungskomponente in der Azure AI Search-Anreicherungspipeline. Diese Fähigkeiten wenden KI-gesteuerte Transformationen auf Rohinhalte wie Text, Bilder oder Dokumente während der Indizierung an, wodurch strukturierte, durchsuchbare Informationen aus unstrukturierten Daten extrahiert werden können. |
Prompt | Der Text, den Sie im API-Aufruf an den Dienst senden. Dieser Text wird dann in das Modell eingegeben. Beispielsweise kann ein Benutzer die folgende Eingabeaufforderung eingeben: Konvertieren Sie die Fragen in einen Befehl: F: Fragen Sie Konstanz, ob wir etwas Brot A benötigen: send-msg find constance Brauchen wir ein Brot? F: Senden Sie eine Nachricht an Greg, um herauszufinden, ob alles für Mittwoch fertig ist. A: Send-msg find greg alle bereit für Mittwoch? |
Suchindizes | In Azure AI Search ist ein Index die Datenstruktur, die Ihre durchsuchbaren Inhalte enthält, definiert, wie sie gespeichert wird, und steuert, wie der Dienst sie interpretiert, wenn Sie eine Abfrage ausführen. |
Agentisches Abrufen ist eine parallele Architektur zur Abfragebearbeitung, die ein konversationelles großes Sprachmodell (LLM) als „Abfrageplaner“ verwendet. Das LLM wandelt nach Bedarf den Unterhaltungsverlauf eines Benutzers in eine oder mehrere fokussierte Unterabfragen um. Diese Unterabfragen werden gleichzeitig in Ihrem Azure AI Search-Index ausgeführt, und der Dienst führt die wichtigsten Ergebnisse zusammen und gibt Folgendes zurück:
- Ein einzelnes Inhaltselement, das die relevantesten Passagen (Referenzdaten) enthält.
- Ein Referenzarray (optional), das die vollständigen Quelldokumente oder -blöcke verfügbar macht.
- Ein Aktivitätsarray, das jede Operation, Tokenanzahl und Latenz auflistet, um die Kostennachverfolgung und das Debuggen zu unterstützen.
Schlüsselbegriffe
Begriff | Definition |
---|---|
Agent-Abruf | Dies bezieht sich auf die Planung und Ausführung einer Abfolge von Schritten zum Abrufen von Informationen aus Groundingdaten. Dies umfasst Aktivitäten wie Abfragen und Verfeinern von Suchvorgängen, um die relevantesten Informationen für die Abfrage abzurufen. |
Groundingdaten | Satz von Dokumenten/Informationen, die vom Agentic-Abruf zurückgegeben werden. Dient als sachliche Grundlage, die ein externes LLM zitieren oder in eine natürlichsprachige Antwort umwandeln kann, um die Rückverfolgbarkeit zu gewährleisten und das Halluzinationsrisiko zu reduzieren. |
Abfrageplaner | Unterteilt den Unterhaltungsverlauf in Unterabfragen, um die relevantesten Daten als Grundlage für die zugrunde liegende Suchanfrage zu finden. |
Unterabfrage | Eine einzelne Abfrage, die von einer LLM generiert wird. Unterabfragen basieren auf Benutzerfragen, Chatverlauf und Parametern auf der Anforderung. Die Unterabfragen zielen auf Ihre indizierten Dokumente (Nur-Text und Vektoren) in Azure AI Search ab. |
Fähigkeiten
- KI-Anreicherung
- Vektorsuche
- Semantischer Sortierer
- Abfrageumformulierung
- GenAI Prompt-Fähigkeit
- Agent-Abruf
Systemverhalten
Mehrere integrierte Fähigkeiten zur KI-Anreicherung in Azure AI Search nutzen Azure AI-Dienste. Die Transparenzhinweise für jede integrierte Qualifikation finden Sie unten für Überlegungen bei der Wahl einer Fähigkeit:
- Fähigkeiten zur Erkennung von Schlüsselbegriffen: Azure AI Language – Schlüsselworterkennung
- Spracherkennung: Azure AI-Sprache – Spracherkennung
- Entitätsverknüpfungsfertigkeit: Azure AI-Sprache – Entitätsverknüpfung
- Entitätserkennungskompetenz: Azure AI Language – Benannte Entitätserkennung (NER)
- PII-Erkennungskompetenz: Azure AI-Sprache – PII-Erkennung
- Stimmungskompetenz: Azure AI-Sprache - Stimmungsanalyse
- Fähigkeit zur Bildanalyse: Azure AI Vision – Bildanalyse
- OCR Skill: Azure AI Vision - OCR
In der Dokumentation zu jeder Fähigkeit erfahren Sie mehr über deren jeweilige Fähigkeiten, Einschränkungen, Leistung, Bewertungen und Methoden für die Integration und verantwortungsvolle Nutzung. Beachten Sie, dass die Verwendung dieser Techniken in Kombination zu kumulierenden Effekten führen kann (z. B. bei der Verwendung von OCR auftretende Fehler setzen sich bei der Schlüsselwortextraktion fort).
Anwendungsfälle
Beispielhafte Anwendungsfälle
Da Azure AI Search eine Volltextsuchlösung ist, besteht der Zweck der KI-Anreicherung darin, die Suchfunktion unstrukturierter Inhalte zu verbessern. Hier sind einige Beispiele für Szenarien zur Inhaltserweiterung, die von den integrierten Fähigkeiten unterstützt werden:
- Übersetzung und Spracherkennung ermöglichen die mehrsprachige Suche.
- Die Entitätserkennung extrahiert Personen , Orte und andere Entitäten aus großen Textabschnitten.
- Die Schlüsselauszugsextraktion identifiziert und gibt dann wichtige Begriffe aus.
- OCR erkennt gedruckten und handschriftlichen Text in Binärdateien.
- Die Bildanalyse beschreibt Bildinhalte und gibt die Beschreibungen als durchsuchbare Textfelder aus.
- Integrierte Vektorisierung ist ein Vorschaufeature, das das Azure OpenAI-Einbettungsmodell aufruft, um Daten zu vektorisieren und Einbettungen in Azure AI Search für Ähnlichkeitssuche zu speichern.
Systemverhalten
In der Vektorsuche sucht die Suchmaschine im Einbettungsraum im Index nach Vektoren, um Vektoren zu finden, die dem Abfragevektor nahe sind. Diese Technik wird als nächste Nachbarsuche bezeichnet. Dies hilft auch, den Grad der Ähnlichkeit oder des Abstands zwischen Elementen zu quantifizieren. Ein hoher Grad an Vektorähnlichkeit deutet darauf hin, dass die ursprünglichen Daten ebenfalls ähnlich waren. Die beiden von Azure AI Search unterstützten Vektorsuchalgorithmen haben unterschiedliche Herangehensweisen an dieses Problem, bei denen Merkmale wie Latenz, Durchsatz, Speicher und Recall gegeneinander abgewogen werden.
Die Suche nach der tatsächlichen Menge der "k" nächsten Nachbarn erfordert einen erschöpfenden Vergleich des Eingabevektors mit allen Vektoren im Datensatz. Während jede Berechnung der Vektorähnlichkeit relativ schnell ist, ist die Durchführung dieser umfassenden Vergleiche in großen Datasets rechenintensiv und langsam aufgrund der schiere Anzahl von Vergleichen, die erforderlich sind. Je höher die Dimensionalität jedes Vektors ist, desto komplexer und langsamer werden die Berechnungen für jeden Vektor sein.
Um diese Herausforderung anzugehen, werden ungefähre nächste Nachbarsuche-Methoden (ANN) verwendet, um die Trefferquote gegen Geschwindigkeit abzuwägen. Diese Methoden können effizient eine kleine Gruppe von Kandidatenvektoren finden, die wahrscheinlich dem Abfragevektor ähneln, wodurch die Gesamtanzahl der Vektorvergleiche reduziert wird. Azure AI Search verwendet den hierarchischen Navigable Small World (HNSW)-Algorithmus, um hochdimensionale Datenpunkte in einer probabilistischen hierarchischen Diagrammstruktur zu organisieren, die eine schnelle Ähnlichkeitssuche ermöglicht und gleichzeitig einen tunbaren Kompromiss zwischen Suchgenauigkeit und Rechenkosten ermöglicht.
Azure AI Search unterstützt auch mehrere Ähnlichkeitsmetriken, um den nächsten Nachbarn und die Bewertung jedes Vektorergebnisses zu ermitteln. Dazu gehören Kosinus, „Euklidean“ (auch als „l2 Norm“ bezeichnet) und „Dot-Produkt“. Kosinus berechnet den Winkel zwischen zwei Vektoren. Euklidan berechnet den Euklidischen Abstand zwischen zwei Vektoren, was die l2-Norm des Unterschieds der beiden Vektoren ist. Dot-Produkt wird von den Größen der Vektoren und des Winkels zwischen ihnen beeinflusst. Das Punktprodukt entspricht bei normalisierten Einbettungsräumen der Kosinus-Ähnlichkeit, ist aber effizienter.
Anwendungsfälle
Beispielhafte Anwendungsfälle
Es gibt viele Szenarien, in denen die Vektorsuche nützlich ist, und sie sind nur durch die Funktionen des Modells beschränkt, die zum Generieren von Vektoreinbettungen verwendet werden. Im Folgenden finden Sie einige allgemeine Anwendungsfälle, in denen die Vektorsuche verwendet werden kann:
- Semantische Suche: Extrahieren des semantischen Verständnisses aus Text mithilfe eines Modells, wie den Einbettungsmodellen des Azure OpenAI-Dienstes.
- Suchen Sie über verschiedene Datentypen (multimodal): Codieren Sie Inhalte, die aus Bildern, Text, Audio und Video stammen, oder eine Mischung, und führen Sie eine einzelne Suche durch.
- Mehrsprachige Suche: Verwenden Sie ein mehrsprachiges Einbettungsmodell, um Ihr Dokument in mehreren Sprachen darzustellen, um Ergebnisse in unterstützten Sprachen zu finden.
- Hybridsuche: Die Vektorsuche wird auf Feldebene implementiert, was bedeutet, dass Sie Abfragen erstellen können, die Vektorfelder und durchsuchbare Textfelder enthalten. Die Abfragen werden parallel ausgeführt, und die Ergebnisse werden in einer einzigen Antwort zusammengeführt. Hybride Suchergebnisse mit semantischer Rangfolge haben sich als die besten qualitativen Ergebnisse erwiesen.
- Gefilterte Vektorsuche: Eine Abfrage kann eine Vektorabfrage und einen Filterausdruck enthalten. Filter, die auf andere Datentypen angewendet werden, sind nützlich, um Dokumente basierend auf anderen Kriterien einzuschließen oder auszuschließen.
- Vektordatenbank: Dieser reine Vektorspeicher ist für den langfristigen Speicher oder eine externe Wissensbasis für große Sprachmodelle (LLMs) vorgesehen. Verwenden Sie beispielsweise Azure AI Search als Vektorindex in Azure Machine Learning-Eingabeaufforderungsfluss für RAG-Anwendungen (Retrieval Augmented Generation).
Hinweise zur Auswahl eines Anwendungsfalls
Es kann Überlegungen und Bedenken im Zusammenhang mit dem spezifischen Modell geben, das Sie zum Generieren von Vektoreinbettungen auswählen. Jedes Modell könnte eigene Probleme mit Voreingenommenheit und Fairness haben und sollte vor der Verwendung in Ihrer Anwendung ausgewertet werden. Azure AI Search bietet keine Modelle zum Vektorisieren von Inhalten als Teil des Diensts. Beispiele für diese Überlegungen finden Sie im Azure OpenAI Service Transparency Note . Andere Drittanbieter- oder OSS-Modelle haben eigene Überlegungen zu berücksichtigen.
Systemverhalten
Die Bewertung der Ergebnisse des ersten Schichtabrufschritts ist ein sehr ressourcenintensiver Prozess. Um die Verarbeitung des Rankers innerhalb der erwarteten Latenz eines Abfragevorgangs abzuschließen, werden nur die 50 wichtigsten Resultate der Abrufmaschine als Eingaben an die semantische Bewertungsmaschine gesendet. Falls die Liste zu lang ist, werden die 50 Ergebnisse zuerst an einen Zusammenfassungsschritt gesendet, der die relevantesten Inhalte aus jedem einzelnen Ergebnis extrahiert, bevor die semantische Bewertungsfunktion ausgeführt wird.
Im Zusammenfassungsschritt wird das abgerufene Dokument zunächst einem Vorbereitungsprozess unterzogen, der die verschiedenen Dokumenteinträge zu einer einzigen langen Zeichenfolge zusammenfügt. Wenn die Zeichenfolge zu lang ist, findet eine Einschränkungsübung statt, wobei ein besonderer Schwerpunkt auf das Aufbewahren von Inhalten in Feldern gelegt wird, die der semantischen Konfiguration hinzugefügt wurden. Nachdem Zeichenfolgen vorbereitet wurden, werden sie durch Computerleseverständnis- und Sprachdarstellungsmodelle übergeben, um zu bestimmen, welche Sätze und Ausdrücke die beste Zusammenfassung relativ zur Abfrage bereitstellen. In dieser Phase werden Inhalte aus der Zeichenfolge extrahiert, die an die semantische Rangfolgestufe weitergeleitet werden, und gibt optional eine semantische Beschriftung oder semantische Antwort aus.
Der letzte Schritt, semantische Rangfolge, bestimmt die Relevanz des im vorherigen Schritt extrahierten Inhalts für die Abfrage des Benutzers und gibt eine semantische Bewertung zwischen 4 (hoch relevant) und 0 (irrelevant) aus. Dieser Schritt basiert auf dem Abfragetext und auf dem zusammengefassten Text und umfasst komplexere Berechnungen als die der Abrufebene.
Anwendungsfälle
Beispielhafte Anwendungsfälle
Semantischer Rangfolger kann in mehreren Szenarien verwendet werden. Zu den vorgesehenen Anwendungsfällen des Systems gehören:
- Retrieval Augmented Generation (RAG): Der semantische Rangierer ermöglicht es Ihnen, Antworten aus Ihren generativen KI-Anwendungen in relevanten Suchergebnissen zu ermitteln, die den von Ihnen definierten Schwellenwert für die Relevanzbewertung erfüllen. Beispielsweise verwendet der Azure OpenAI-Dienst für Ihre Daten Azure AI Search, um Azure OpenAI-Modelle mit Ihren Daten zu erweitern. Sie können den semantischen Rang innerhalb dieses Diensts verwenden, um die Relevanz der Informationen zu verbessern, die dem Azure OpenAI-Modell bereitgestellt werden.
- Inhaltssuche: Mit dem semantischen Rangierer können Sie nach relevanten Inhalten in Ihren Daten suchen, indem Sie Text und Metadaten analysieren. Beispielsweise verwendet die Suche auf der learn.microsoft.com Website semantische Rangfolge, um die Suchrelevanz für Softwareentwickler zu verbessern, die nach der technischen Dokumentation von Microsoft suchen.
- eCommerce-Suche: Der semantische Rangierer ermöglicht es eCommerce-Unternehmen, ihre Sucherfahrung zu verbessern, indem relevante Produktergebnisse basierend auf semantischer Relevanz bereitgestellt werden. Onlinehändler verwenden beispielsweise semantische Rangfolger, um ihre eCommerce-Erfahrung zu optimieren, indem sie relevante Suchergebnisse für ihre Online-Shopper bereitstellen.
- QnA: Mit Azure AI Search können Organisationen ihren Benutzern eine Unterhaltungserfahrung bieten, indem Sie Fragen beantworten, die auf den in ihren Datenbanken verfügbaren Informationen basieren. Beispielsweise kann ein Hersteller semantische Rangfolge verwenden, um Informationen zu erweitern, die einem Chatbot zur Verfügung stehen. Techniker können diesen Chatbot verwenden, um Fragen zu stellen und hoch relevante interne Dokumente im Zusammenhang mit ihrer Abfrage und sofortigen Antworten innerhalb der abgerufenen Dokumente abzurufen.
Hinweise zur Auswahl eines Anwendungsfalls
Wir ermutigen Kunden, semantische Rangfolger in ihren innovativen Lösungen oder Anwendungen zu verwenden. Bei der Auswahl eines Anwendungsfalls sind jedoch einige Überlegungen nötig:
- Vertrauliche Informationen : Die Machine Learning-Modelle, mit denen der semantische Rangierer die in einer Suchabfrage abgerufenen Daten verarbeiten kann, einschließlich vertraulicher Informationen wie persönliche Details und Finanzinformationen. Berücksichtigen Sie alle Datenschutz- und Sicherheitsauswirkungen, bevor Sie den semantischen Rang für solche Anwendungsfälle implementieren.
- Bias und Fairness : Der semantische Rangierer wird durch Deep Learning-Modelle unterstützt. Diese Deep Learning-Modelle wurden mit öffentlichen Inhalten trainiert. Kundendaten werden von semantischen Rangmodellen bewertet. Bewerten Sie die Ausgabe des semantischen Rankers, wenn Sie Use Cases auswählen, insbesondere für solche, die Auswirkungen auf Fairness und Gleichheit haben, wie zum Beispiel Einstellungen.
- Einhaltung der Vorschriften: Einige Branchen, z. B. Gesundheitswesen und Finanzen, sind streng reguliert und können Einschränkungen für die Verwendung von KI und maschinellem Lernen haben. Bevor Sie semantische Rangfolger in solchen Branchen verwenden, stellen Sie sicher, dass die Lösung den relevanten Vorschriften und Richtlinien entspricht.
Systemverhalten
Die ursprüngliche Abfrage wird an ein fein abgestimmtes Small Language Model (SLM) gesendet, das von Azure AI Search gehostet wird. Dieses Modell wurde mit öffentlichen Inhalten trainiert. Der SLM transformiert die ursprüngliche Abfrage in eine Reihe synthetischer Abfragen. Diese synthetischen Abfragen sind semantisch nahe an der Absicht der ursprünglichen Abfrage, enthalten jedoch einen anderen Satz von Ausdrücken, um den Rückruf von der Suchmaschine zu verbessern.
Die synthetischen Abfragen werden dann mit der ursprünglichen Abfrage kombiniert und an die Suchmaschine gesendet. Wenn die BM25-Rangfolge ausgeführt wird, werden schlüsselbegriffe aus den synthetischen Abfragen mit der ursprünglichen Abfrage kombiniert. Wenn die Vektorsuche ausgeführt wird, wird die ursprüngliche Abfrage mit den synthetischen Abfragen verkettet, bevor der Vektoreinbettungsschritt ausgeführt wird.
Anwendungsfälle
Beispielhafte Anwendungsfälle
Abfrageumschreibung kann in mehreren Szenarien verwendet werden. Für die Abfrageumschreibung ist die Verwendung des semantischen Rankers erforderlich.
- Chatinteraktion mit Ihren Daten: Die Abfrageumschreibung ermöglicht es Ihnen, Antworten aus Ihren generativen KI-Anwendungen in relevanten Suchergebnissen zu verankern, die den von Ihnen definierten Schwellenwert für die Relevanzbewertung erfüllen. Der Azure OpenAI-Dienst für Ihre Daten verwendet beispielsweise Azure AI Search, um Azure OpenAI-Modelle mit Ihren Daten zu erweitern. Sie können die Abfrageumschreibung innerhalb dieses Diensts verwenden, um die Relevanz der Ergebnisse der Informationen zu verbessern, die dem Azure OpenAI-Modell bereitgestellt werden.
- Unterhaltungsfragen und -antworten (QnA): Mit Azure AI Search können Organisationen eine Unterhaltungserfahrung für ihre Benutzer bereitstellen, indem Sie Fragen beantworten, die auf den in ihren Datenbanken verfügbaren Informationen basieren. Beispielsweise kann ein Hersteller semantische Rangfolge verwenden, um Informationen zu erweitern, die einem Chatbot zur Verfügung stehen. Techniker können diesen Chatbot verwenden, um Fragen zu stellen und hoch relevante interne Dokumente im Zusammenhang mit ihrer Abfrage und sofortigen Antworten innerhalb der abgerufenen Dokumente abzurufen.
Hinweise zur Auswahl eines Anwendungsfalls
Wir ermutigen unsere Kunden, Abfrageumschreibungen in ihren innovativen Lösungen oder Anwendungen einzusetzen. Bei der Auswahl eines Anwendungsfalls sind jedoch einige Überlegungen nötig:
- Vertrauliche Informationen und PII: Der fein abgestimmte SLM , der das Schreiben von Abfragen ermöglicht, verarbeitet die Suchabfrage, die vertrauliche Informationen enthalten kann. Berücksichtigen Sie alle Datenschutz- und Sicherheitsauswirkungen, bevor Sie abfrageumschreibungen für solche Anwendungsfälle implementieren.
- Maskieren Sie persönliche Informationen, um unbewusste Verzerrungen zu reduzieren. Beispielsweise möchten sie während des Lebenslaufüberprüfungsprozesses eines Unternehmens möglicherweise den Namen, die Adresse oder telefonnummer eines Kandidaten blockieren, um unbewusstes Geschlecht oder andere Verzerrungen während der Suche zu reduzieren.
- Rechtliche und regulatorische Überlegungen. Organisationen müssen potenzielle rechtliche und behördliche Verpflichtungen bewerten, wenn Sie eine KI-Suche verwenden, die möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario geeignet ist. Einschränkungen können je nach regionalen oder lokalen behördlichen Anforderungen variieren. Darüber hinaus ist AI Search nicht dafür gedacht und darf nicht in einer Art und Weise verwendet werden, die in den anwendbaren Nutzungsbedingungen und relevanten Verhaltensregeln verboten ist.
Die GenAI Prompt-Fähigkeit ermöglicht Es Kunden, ihre Dokumentinhalte, die in ihren Datenquellen vorhanden sind, und benutzerdefinierte Aufforderungen an ein Sprachmodell zu übergeben, das sie besitzen, gehostet in Azure AI Foundry. Das Sprachmodell verarbeitet die Eingabe und gibt erweiterten Inhalt zurück, der dann zusammen mit dem ursprünglichen Dokumentinhalt in den Suchindex aufgenommen wird. Dieser Prozess ermöglicht die Erweiterung von Suchindizes mit KI-generierten Zusammenfassungen, Bildbeschriftungen und Entitätsextraktion, unter anderem basierend auf kundendefinierten Kriterien.
Die folgenden Beispiele zeigen, wie die GenAI Prompt-Fähigkeit funktioniert.
Zero-Shot-Zusammenfassung von Tickets
Ziel: Supportmitarbeiter können E-Mail-Threads mit mehreren Seiten in Sekunden überspringen.
So funktioniert's:
- Während der Indizierung wird jede lange Ticketunterhaltung in logische Segmente unterteilt (Erstanfrage, Folgefragen, Diagnoseprotokolle usw.).
- Für jedes Segment wird das Sprachmodell angewiesen, diesen Abschnitt in drei scharfen Sätzen zusammenzufassen.
- Die resultierenden Abstraktionen ersetzen den Rohtext während des Abrufs, sodass Agenten – und nachgeschaltete RAG-Pipelines – nur die destillierte Essenz sehen.
Warum dies hilft: Präzise Zusammenfassungen auf Segmentebene reduzieren die Promptgröße, beschleunigen die Reaktionsgenerierung und helfen Agents, sich auf das Kernproblem des Kunden zu konzentrieren.
Entitätsextraktion mit wenigen Aufnahmen
Ziel: Abfragen wie „Zeige mir alle Tickets, in denen Produkt X mit Fehler 500 abgestürzt ist,“ unterstützen.
Funktionsweise
- Der vollständige Tickettext wird zusammen mit einem bearbeiteten Beispiel an den Skill gesendet, das das gewünschte Ausgabeformat zeigt (eine Liste der wichtigsten Entitäten wie Produktname, Fehlercode, Betriebssystem und Schweregrad).
- Das Modell extrahiert jedes Vorkommen von 〈Produkt, error_code, Plattform, Schweregrad.
- Diese strukturierte Liste wird mit dem Dokument gespeichert, sodass Sofortfilter aktiviert werden, die z. B. alle schwerwiegenden Abstürze auf iOS anzeigen.
Warum dies hilft: Vorkalkulierte Entitäten verwandeln Freiform-Kundennachrichten in filterbare Daten, sodass es den Support-Leitungen ermöglicht wird, Muster zu erkennen und Korrekturen ohne manuelle Analyse zu priorisieren.
One-Shot-Ticketweiterleitungsklassifizierung
Ziel: Leitet jedes Ticket automatisch an die richtige Warteschlange weiter.
So funktioniert's:
- Jedes Ticket wird mit einer Aufforderung analysiert, die fünf Supportkategorien auflistet: Abrechnung, technisches Problem, Kontozugriff, Featureanfrage und allgemeines Feedback – plus ein Referenzbeispiel ("Beispielticket → Abrechnung").
- Das Modell weist jedem Ticket, das als Eingabe in das KI-Suchsystem gelangt, basierend auf den oben genannten fünf Supportkategorien genau eine Bezeichnung zu.
- Das Helpdesk-System nutzt das Label, um Abrechnungsanfragen an Finanzexperten, technische Abstürze an Ingenieure usw. zu senden.
Warum es hilft: Schnelle, konsistente Kennzeichnung reduziert falsch weitergeleitete Tickets, verkürzt die Auflösungszeit und verbessert die Kundenzufriedenheit.
Vorschlag zur Denkprozesslösung
Ziel: Bieten Sie Supportmitarbeitern den besten nächsten Schritt, um das Problem zu beheben.
Funktionsweise
- Das gesamte Ticket ( oder die neueste Kundennachricht ) wird an das Sprachmodell übergeben.
- Die Benutzernachricht weist das Modell nach der Systemaufforderung an: "Schritt für Schritt intern denken, aber nur die empfohlene nächste Aktion ausgeben".
- Der zurückgegebene Leitfaden kann lauten: "Bitten Sie den Kunden, den Cache zu löschen und Version 3.2.1 erneut zu installieren."
- Agenten können den Vorschlag direkt kopieren oder verfeinern, bevor sie antworten.
Warum es hilft: Agents erhalten eine umsetzbare Empfehlung ohne die private Begründungskette des Modells und sparen Zeit, während die Problembehandlungsschritte präzise und relevant bleiben. In bestimmten Fällen wird der Supportmitarbeiter nicht mit unnötigen Informationen überflutet.
Anwendungsfälle
Beispielhafte Anwendungsfälle
Die GenAI Prompt-Fähigkeit verbessert die Datenanreicherung in Azure AI Search und trägt zur Reaktionsrelevanz bei, um den Benutzerabsichten und Erwartungen gerecht zu werden. Durch die Integration von KI-generierten Inhalten in Suchindizes ermöglicht diese Fähigkeit genauere und kontextbezogenere Suchergebnisse. Zu den wichtigsten Anwendungen gehören:
- Erstellen sie kurze Zusammenfassungen langwieriger Dokumente, um einen schnelleren Informationsabruf zu erleichtern: Eine Anwaltskanzlei verarbeitet umfangreiche Verträge und verwendet die GenAI Prompt-Fähigkeit, kurze Zusammenfassungen mit hervorhebung wichtiger Klauseln zu erstellen, wodurch es Rechtsanwälten einfacher ist, wichtige Informationen zu überprüfen, ohne ganze Dokumente zu lesen.
- Erstellen von Textbeschreibungen für Bilder zur Verbesserung der Suchbarkeit und Barrierefreiheit: Ein Medienunternehmen verwaltet eine umfangreiche Bildbibliothek. Durch die Anwendung der GenAI Prompt-Fähigkeit generieren sie beschreibende Beschriftungen für jedes Bild und ermöglichen eine effiziente Suche und Organisation innerhalb ihres digitalen Asset Management-Systems.
- Identifizieren und Extrahieren bestimmter Entitäten oder Fakten aus Dokumenten basierend auf benutzerdefinierten Kriterien: Eine Forschungseinrichtung analysiert wissenschaftliche Arbeiten, um Erwähnungen chemischer Verbindungen und ihrer Eigenschaften zu extrahieren. Die GenAI Prompt-Fähigkeit automatisiert diese Extraktion und füllt eine strukturierte Datenbank für Forscher, um schnell auf relevante Daten zuzugreifen.
- Klassifizieren von Dokumenten in definierte Kategorien für bessere Organisation und Abruf: Ein Versicherungsunternehmen erhält täglich zahlreiche Arten von Dokumenten. Mithilfe der GenAI Prompt-Fähigkeit klassifizieren sie diese Dokumente automatisch in Kategorien wie Ansprüche, Richtlinienaktualisierungen und Kundenfeedback. Dadurch wird der Prozess der Dokumentverwaltung optimiert und das Auffinden bestimmter Dokumente bei Bedarf vereinfacht.
Dies sind zwar gängige Anwendungen, aber die Fähigkeit ist flexibel, sodass Kunden Aufforderungen definieren können, die auf ihre individuellen Anforderungen zugeschnitten sind.
Hinweise zur Auswahl eines Anwendungsfalls
Es ist wichtig zu beachten, dass die Bereitstellungen von Inhalten, Eingabeaufforderungen und Sprachmodellbereitstellungen vollständig vom Kunden verwaltet werden. Azure AI Foundry unterstützt Inhaltssicherheitsfilter für Modellbereitstellungen, und Kunden sind für die Konfiguration dieser Filter nach Bedarf verantwortlich. Über die in Azure AI Foundry verfügbaren Konfigurationen hinaus wendet Azure AI Search keine zusätzlichen Inhaltssicherheitsfilter innerhalb der GenAI Prompt-Fähigkeit an.
Berücksichtigen Sie bei der Implementierung der GenAI Prompt-Fähigkeit Folgendes:
- Implementieren Sie Prozesse für die menschliche Überprüfung von KI-generierten Inhalten, insbesondere bei der Anwendung von prompten Transformationen, die sich auf die Zuverlässigkeit von Informationen auswirken könnten. Verwenden Sie das Debugsitzungs-Tool von Azure AI Search, um Aufforderungen zu Beispieldokumenten vor der vollständigen Bereitstellung zu testen.
- Vermeiden Sie Szenarien, in denen die Verwendung oder der Missbrauch des Systems zu erheblichen körperlichen oder psychischen Verletzungen eines Einzelnen führen kann. Szenarien, die Patienten diagnostizieren oder Medikamente verschreiben, können beispielsweise erhebliche Schäden verursachen. Die Einbeziehung sinnvoller menschlicher Überprüfung und Aufsicht in das Szenario kann dazu beitragen, das Risiko schädlicher Ergebnisse zu verringern.
- Berücksichtigen Sie alle generativen Anwendungsfälle sorgfältig. Szenarien zur Inhaltsgenerierung können wahrscheinlicher zu unbeabsichtigten Ausgaben führen, und diese Szenarien erfordern sorgfältige Überlegungen und Gegenmaßnahmen.
- Rechtliche und regulatorische Überlegungen. Organisationen müssen potenzielle rechtliche und behördliche Verpflichtungen bewerten, wenn Sie eine KI-Suche verwenden, die möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario geeignet ist. Einschränkungen können je nach regionalen oder lokalen behördlichen Anforderungen variieren. Darüber hinaus ist AI Search nicht dafür vorgesehen und darf nicht auf eine Weise verwendet werden, die durch die anwendbaren Nutzungsbedingungen und relevanten Verhaltensregeln verboten ist.
Systemverhalten
Die ursprüngliche Unterhaltung oder Suchabfrage wird an das Azure OpenAI-Modell eines Kunden gesendet, um die Abfrageplanungsschritte auszuführen. Die Abfrageplanung unterteilt die Unterhaltung in eine Reihe optimierter Unterabfragen, die die zugrunde liegende Absicht des Benutzers mit korrigierten Rechtschreib- und erweiterten Synonymen widerspiegeln. Azure AI Search verarbeitet dann alle Unterabfragen gleichzeitig über das vollständige Suchabrufsystem. Unterabfragen werden zuerst von einer Hybridkombination der Stichwortsuche und der Vektorsuche verarbeitet. Die Schlüsselwortsuche findet die Dokumente im Suchindex mit ähnlichen Schlüsselwörtern wie die Unterabfragen. Die Vektorsuche findet Dokumente im Suchindex, die möglicherweise unterschiedliche Schlüsselwörter aufweisen, aber ähnliche zugrunde liegende Bedeutung für die Unterabfragen. Die Ergebnisse dieser Hybridsuche werden dann nach semantischer Rangfolger neu bewertet, um die Dokumente mit der besten Übereinstimmung mit der Absicht der Unterabfrage zu finden. Der Dienst führt dann Duplikate aus den bewerteten Ergebnissen zusammen und entfernt sie und wendet Antwortgrenzwerte wie die maximale Ausgabelänge an, bevor die endgültige Antwort zurück gesendet wird.
Anwendungsfälle
Beispielhafte Anwendungsfälle
- Grundlagendaten für benutzerdefinierte Chatbots. Verknüpfen Sie den Chatbot mit den offiziellen PERSONALrichtlinien und dem Mitarbeiterhandbuch des Unternehmens, damit der Chatbot die Antwort direkt aus diesen Dokumenten zieht, anstatt zu erraten, wenn jemand fragt: "Wie viele Urlaubstage erhalte ich?"
- Nutzen Sie Unternehmenswissensassistenten, um Den Benutzerkontext, Filter und Chatverlauf zu respektieren. Wenn ein Mitarbeiter beispielsweise nach den Zielen für einen bestimmten Zeitraum fragt, verwendet der Assistent seine Rolle, die aktuellen Filter (z. B. Region: US) und die laufende Unterhaltung (z. B. das letzte Thema war "Q2-Pipeline"), um eine personalisierte Antwort zu generieren.
- Lösen Sie komplexe Aufgaben zur Informationssuche an, bei denen eine einzelne Schlüsselwortabfrage einen geringen Rückruf hat. Solche Aufgaben können Anleitungen zur Problembehandlung, Medizinische Literaturforschung oder Produktvergleiche umfassen. Wenn beispielsweise ein Techniker einfach "Gerätefehler" durchsucht und generische Ergebnisse empfängt, kann ein agentischer Retriever den gesamten Unterhaltungsverlauf berücksichtigen, der Gerätemodell, Softwareversion, Wartungsverlauf und Netzwerkstatus umfassen kann, um präzise, relevante Artikel anzuzeigen.
- Sorgen Sie für volle Transparenz, was abgerufen wurde, warum und zu welchen Kosten. Beispielsweise ist es wichtig, die genauen Quellen zu kennen (z. B. "SEC-Ablage von Q2 2023"), die Auswahl rationale (z. B. "übereinstimmende Schlüsselwörter: Risikoveröffentlichung, Derivate") und die damit verbundenen Kosten (z. B. Tokennutzung).
Hinweise zur Auswahl eines Anwendungsfalls
- Latenz: Das Hinzufügen eines zweiten LLM-Aufrufs für die Abfrageplanung erweitert zwangsläufig die Roundtripzeit der Anforderung. Selbst bei schnellen Modellen sollten Sie die zusätzliche Verzögerung bei Spitzendatenverkehr vergleichen und überprüfen, ob die Gesamterfahrung für Ihre Benutzer akzeptabel bleibt. Bei kritischer Latenz sollten Sie häufige Abfragen zwischenspeichern oder kleinere, schnellere Planungsmodelle verwenden.
- Kosten: Gebühren entstehen in zwei Dimensionen: OpenAI-Modelltoken und Suchbewertungstoken. Der Abfrageplaneraufruf wird von Azure OpenAI für Eingabe- und Ausgabetoken in Rechnung gestellt, während jede Unterabfrage von Azure AI Search für die Token in Rechnung gestellt wird, die er rangieren muss. Ranking-Token sind in der Anfangsphase der öffentlichen Vorschau kostenlos erhältlich. Schätzen Sie sowohl die Modell- als auch die Rangfolgetokennummern für Ihre Arbeitslast im Voraus.
- Vertrauliche Eingaben: Der gesamte Unterhaltungsverlauf wird an das Planner-Modell weitergeleitet, was bedeutet, dass alle persönlich identifizierbaren oder geschäftsrelevanten Daten Ihre unmittelbare Vertrauensgrenze verlassen. Entfernen, maskieren oder schwärzen Sie solche Daten, bevor Sie das LLM aufrufen, und dokumentieren Sie diese Maßnahmen zur Risikominderung in Ihren Datenschutzmaßnahmen.
- Grenzwerte für Region und Vorschau: Der agentische Abruf ist nur in Regionen verfügbar, in denen der semantische Rangierer verfügbar ist. Ein einzelner Agent kann nur auf einen Suchindex verweisen. Vergewissern Sie sich, dass die Region, die Ihre Daten und Ihr Modell hostet, agentische Abrufe unterstützt, und planen Sie separate Agents, wenn Sie mehrere Indizes oder Regionen umfassen müssen.
- Compliance: Vergewissern Sie sich, dass die Verwendung eines LLM-gesteuerten Abfrageplaners branchenspezifische oder regionale Anforderungen erfüllt (z. B. Data-Residency, Datenschutz oder Automatisierte Entscheidungsregeln im Gesundheitswesen oder Finanzwesen). Sicherstellen einer angemessenen menschlichen Aufsicht und Kontrolle. Erwägen Sie, Steuerelemente einzuschließen, um Entwicklern zu helfen, Aktionen rechtzeitig zu überprüfen, zu überprüfen und/oder zu genehmigen, was die Überprüfung geplanter Aufgaben oder Aufrufe an externe Datenquellen umfassen kann.
- Rechtliche und behördliche Überlegungen: Benutzer müssen potenzielle spezifische rechtliche und behördliche Verpflichtungen bewerten, wenn Sie KI-Dienste und -Lösungen verwenden, die möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario geeignet sind. Darüber hinaus sind KI-Dienste oder -Lösungen nicht dafür konzipiert, auf eine Weise verwendet zu werden, die gegen geltende Vertragsbedingungen und relevante Verhaltensregeln verstößt, und sie dürfen nicht auf eine solche Weise verwendet werden.
Einschränkungen
- KI-Anreicherung
- Vektorsuche
- Semantischer Sortierer
- Abfrageumformulierung
- GenAI Prompt-Fähigkeit
- Agent-Abruf
Die KI-Anreicherung in Azure AI Search verwendet die Indexer- und Datenquellenfeatures des Diensts, um Azure AI-Dienste aufzurufen, um die Inhaltserweiterung durchzuführen. Einschränkungen der in diesem Prozess verwendeten Indexer und Datenquellen gelten. Lesen Sie die Indexer- und Datenquellendokumentation für weitere Informationen über diese zugehörigen Einschränkungen. Die Einschränkungen der einzelnen Azure AI-Dienste, die von der KI-Anreicherungspipeline in Azure AI Search verwendet werden, gelten ebenfalls. Weitere Informationen zu diesen Einschränkungen finden Sie in den Transparenzhinweisen für jeden Dienst .
Technische Einschränkungen, Betriebsfaktoren und Bereiche
Alle in Azure AI Search hochgeladenen Vektoren müssen extern aus dem Dienst mithilfe eines Modells Ihrer Wahl generiert werden. Es liegt in Ihrer Verantwortung, die technischen Einschränkungen und Betriebsfaktoren jedes Modells zu berücksichtigen und ob die von ihr erzeugten Einbettungen für Ihren Anwendungsfall optimiert oder sogar geeignet sind. Dies umfasst sowohl die Schlussfolgerungen von Bedeutungen, die aus dem Inhalt extrahiert wurden, als auch die Dimensionalität des Vektoreinbettungsraums.
Das Vektorisierungsmodell erstellt einen Einbettungsbereich, der die resultierende Endbenutzersuche einer Anwendung definiert. Es könnte Nachteile für ein Modell geben, das sich negativ auf Funktionen und Leistung auswirkt, wenn ein Modell nicht gut mit einem gewünschten Anwendungsfall übereinstimmt oder die generierten Einbettungen schlecht optimiert sind.
Während viele Einschränkungen der Vektorsuche aus dem Modell stammen, das zum Generieren von Einbettungen verwendet wird, gibt es einige zusätzliche Optionen, die Sie zur Abfragezeit berücksichtigen sollten. Sie können aus zwei Algorithmen wählen, um die Relevanz für Vektorsuchergebnisse zu bestimmen: Exhaustive k-nächste Nachbarn (KNN) oder Hierarchical Navigable Small World. Erschöpfende k-nächste Nachbarn (KNN) führen eine Brute-Force-Suche des gesamten Vektorraums für Übereinstimmungen aus, die der Abfrage am ehesten ähneln, indem die Abstände zwischen allen Datenpunktenpaaren berechnet und die genauen k nächsten Nachbarn eines Abfragepunkts gefunden werden. Obwohl präziser, kann dieser Algorithmus langsam sein. Wenn niedrige Latenz das primäre Ziel ist, sollten Sie den Hierarchischen Navigable Small World (HNSW)-Algorithmus verwenden. HNSW führt eine effiziente annähernde nächste Nachbarsuche (ANN) in hochdimensionalen Einbettungsräumen durch. Weitere Informationen zu diesen Optionen finden Sie in der Vektorsuchdokumentation .
Bewährte Methoden zur Verbesserung der Systemleistung
- Verbringen Sie unbedingt Zeit damit, A/B-Tests Ihrer Anwendung mit den unterschiedlichen Inhalts- und Abfragetypen durchzuführen, die Ihre Anwendung unterstützen soll. Ermitteln Sie, welche Abfrageumgebung für Ihre Anforderungen am besten geeignet ist.
- Verbringen Sie Zeit mit dem Testen Ihrer Modelle mit einem vollständigen Bereich von Eingabeinhalten, um zu verstehen, wie sie sich in vielen Situationen verhält. Dieser Inhalt kann potenziell sensible Eingaben enthalten, um zu verstehen, ob es irgendwelche Verzerrungen gibt, die dem Modell inhärent sind. Die Übersicht über azure OpenAI Responsible AI bietet Anleitungen für die verantwortungsvolle Nutzung von KI.
- Erwägen Sie das Hinzufügen von Azure AI Content Safety zu Ihrer Anwendungsarchitektur. Sie enthält eine API, um schädlichen vom Benutzer generierten und KI-generierten Text oder Bilder in Anwendungen und Diensten zu erkennen.
Auswerten und Integrieren der Vektorsuche für Ihre Anwendung
Um eine optimale Leistung zu gewährleisten, führen Sie ihre eigenen Auswertungen der Lösungen durch, die Sie mithilfe der Vektorsuche implementieren möchten. Folgen Sie einem Evaluierungsprozess, der: (1) einige interne Interessengruppen einsetzt, um Ergebnisse auszuwerten, (2) A/B-Experimente verwendet, um die Vektorsuche für Benutzer zu implementieren, (3) Key Performance Indicators (KPIs) und Metriküberwachung umfasst, wenn der Dienst zum ersten Mal in Abläufen eingesetzt wird, und (4) Tests und Feinabstimmungen der Semantikbewertungskonfiguration und/oder Indexdefinition durchführt, einschließlich umfassender Erfahrungen wie der Platzierung von Benutzeroberflächen oder Geschäftsprozessen.
Microsoft hat die Vektorsuche sowohl in Bezug auf Latenz und Rückruf als auch Relevanz streng ausgewertet, indem verschiedene Datasets verwendet werden, um die Geschwindigkeit, Skalierbarkeit und Genauigkeit der zurückgegebenen Ergebnisse zu messen. Der Hauptfokus Ihrer Evaluierungsbemühungen sollte die Auswahl des geeigneten Modells für Ihren spezifischen Anwendungsfall sein, das Verständnis der Einschränkungen und Voreingenommenheiten des Modells und das strenge Testen der End-to-End-Vektorsucherfahrung.
Technische Einschränkungen, Betriebsfaktoren und Bereiche
Es kann vorkommen, dass semantische Ergebnisse, Beschriftungen und Antworten möglicherweise nicht korrekt erscheinen. Die von semantischen Rangierern verwendeten Modelle werden auf verschiedenen Datenquellen (einschließlich Open Source und Auswahl aus dem Microsoft Bing-Korpus) trainiert. Der semantische Rangierer unterstützt eine breite Palette von Sprachen und versucht, Benutzerabfragen mit Inhalten aus Ihren Suchergebnissen abzugleichen. "Semantic Ranker ist auch ein Premium-Feature gegen zusätzliche Kosten, das bei der Planung der Gesamtkosten Ihrer End-to-End-Lösung berücksichtigt werden sollte."
Der semantische Rangierer wird wahrscheinlich die Relevanz gegenüber Inhalten verbessern, die semantisch reich sind, z. B. Artikel und Beschreibungen. Es sucht nach Kontext und Verwandtschaft zwischen Begriffen und erhöht Übereinstimmungen, die im Zusammenhang mit der Abfrage sinnvoller sind. Sprachverständnis "findet" Zusammenfassungen oder Beschriftungen und Antworten innerhalb Ihrer Inhalte, aber im Gegensatz zu generativen Modellen wie Azure OpenAI Service-Modellen GPT-3.5 oder GPT-4 werden sie nicht erstellt. In der Antwort ist nur der wortwörtliche Text aus Quelldokumenten enthalten, der dann auf einer Suchergebnisseite gerendert werden kann, um die Sucherfahrung produktiver zu gestalten.
Modernste, vortrainierte Modelle werden zur Zusammenfassung und Rangfolge verwendet. Um die schnelle Leistung aufrechtzuerhalten, die Benutzer von der Suche erwarten, werden semantische Zusammenfassungen und Rangfolgen nur auf die top 50 Ergebnisse angewendet, wie sie vom Standardbewertungsalgorithmus bewertet werden. Eingaben werden vom Inhalt im Suchergebnis abgeleitet. Es kann nicht zurück zum Suchindex gelangen, um auf andere Felder im Suchdokument zuzugreifen, die nicht in der Abfrageantwort zurückgegeben wurden. Eingaben unterliegen einer Tokenlänge von 8.960. Diese Grenzwerte sind erforderlich, um Die Reaktionszeiten in Millisekunden beizubehalten.
Der Standardbewertungsalgorithmus stammt von Bing und Microsoft Research und ist als Add-On-Feature in die Azure AI Search-Infrastruktur integriert. Die Modelle werden intern verwendet, sind nicht für den Entwickler verfügbar und können nicht konfiguriert werden. Weitere Informationen zu den Forschungs- und KI-Investitionen, die den semantischen Ranker unterstützen, finden Sie unter Wie KI von Bing die Azure AI-Suche antreibt (Microsoft Research Blog).
Der semantische Rangierer bietet auch Antworten, Beschriftungen und Hervorhebungen innerhalb der Antwort. Wenn das Modell beispielsweise eine Abfrage als Frage klassifiziert und 70% der Antwort sicher ist, gibt das Modell eine semantische Antwort zurück. Darüber hinaus stellen semantische Beschriftungen den relevantesten Inhalt innerhalb der Ergebnisse bereit und stellen einen kurzen Codeausschnitt bereit, der die relevantesten Wörter oder Ausdrücke innerhalb dieses Codeausschnitts hervorhebung.
Semantische Bewertungsergebnisse basieren auf den Daten im zugrunde liegenden Suchindex, und die Modelle stellen Relevanzbewertung, Antworten und Beschriftungen basierend auf den aus dem Index abgerufenen Informationen bereit. Vor der Verwendung des semantischen Rangierers in einer Produktionsumgebung ist es wichtig, weitere Tests durchzuführen und sicherzustellen, dass das Dataset korrekt und für den vorgesehenen Anwendungsfall geeignet ist. Weitere Informationen und Beispiele zum Auswerten der semantischen Rangfolge finden Sie im Inhalt und Anhang hier.
Systemleistung
Bei vielen KI-Systemen wird die Leistung oft in Bezug auf die Genauigkeit definiert, d. h. wie oft das KI-System eine korrekte Vorhersage oder Ausgabe liefert. Bei groß angelegten Natürlichen Sprachmodellen können zwei verschiedene Benutzer die gleiche Ausgabe betrachten und verschiedene Meinungen darüber haben, wie nützlich oder relevant es ist, was bedeutet, dass die Leistung für diese Systeme flexibler definiert werden muss. Hier betrachten wir die Leistung im Allgemeinen als die Fähigkeit der Anwendung, wie von Ihnen und Ihren Benutzern erwartet zu funktionieren, einschließlich der Vermeidung schädlicher Ergebnisse.
Der semantische Ranker wurde mit öffentlichen Inhalten trainiert. Daher variiert die semantische Relevanz je nach den Dokumenten im Index und den darin ausgestellten Abfragen. Es ist wichtig, ihr eigenes Urteil und Ihre Recherche zu verwenden, wenn Sie diese Inhalte für die Entscheidungsfindung verwenden.
Bewährte Methoden zur Verbesserung der Systemleistung
- Bitte verbringen Sie Zeit mit A/B-Tests Ihrer Anwendung mit unterschiedlichen Abfragetypen, z. B. Schlüsselwort im Vergleich zu hybrid plus semantischer Ranker. Ermitteln Sie, welche Abfrageumgebung für Ihre Anforderungen am besten geeignet ist.
- Führen Sie einen angemessenen Aufwand aus, um Ihre semantische Konfiguration gemäß der Featuredokumentation einzurichten.
- Vertrauen Sie den semantischen Antworten nicht, wenn Sie keine Vertrauensstellung in die Genauigkeit der Informationen innerhalb des Suchindex haben.
- Vertrauen Sie nicht immer semantischen Untertiteln, da sie aus Kundeninhalten über eine Reihe von Modellen extrahiert werden, die die relevantesten Antworten in einem kurzen Codeausschnitt vorhersagen.
Auswertung des semantischen Rankers
Auswertungsmethoden
Der semantische Ranker wurde durch interne Tests ausgewertet, einschließlich automatisierter und menschlicher Beurteilungen von mehreren Datensätzen sowie Feedback von internen Nutzern. Tests umfassen die Einstufung von Dokumenten, indem sie als relevant oder nicht relevant bewertet werden, sowie die Rangordnung der Dokumente nach Priorität der Relevanz. Ebenso wurden die Beschriftungs- und Antwortfunktionen auch durch interne Tests bewertet.
Auswertung der Ergebnisse
Wir bemühen uns, alle Modellupdates regressionsfrei zu versenden (d. a. das aktualisierte Modell sollte nur das aktuelle Produktionsmodell verbessern). Jeder Kandidat wird direkt mit dem aktuellen Produktionsmodell verglichen, indem Metriken verwendet werden, die für die Auswertung des Features geeignet sind (z. B. normalisierter rabattierter Kumulierter Gewinn für Rangfolge und Genauigkeit/Rückruf für Antworten). Semantische Bewertungsmodelle werden trainiert, abgestimmt und ausgewertet, indem sie eine breite Palette von Schulungsdaten verwenden, die repräsentativ für Dokumente sind, die unterschiedliche Eigenschaften (Sprache, Länge, Formatierung, Formatvorlagen und Töne) aufweisen, um das umfassendste Array von Suchszenarien zu unterstützen. Unsere Schulungs- und Testdaten stammen aus:
Quellen von Dokumenten:
- Benchmarks für Akademia und Industrie
- Kundendaten (nur Tests, mit Kundenberechtigungen ausgeführt)
- Synthetische Daten
Quellen von Abfragen:
- Benchmark-Abfragesätze
- Vom Kunden bereitgestellte Abfragesätze (nur Tests, mit Kundenberechtigungen ausgeführt)
- Synthetische Abfragesätze
- Vom Menschen generierte Abfragesätze
Quellen von Bezeichnungen für die Bewertung von Abfragen und Dokumentenpaaren:
- Bezeichnungen für akademische und industrielle Leistungsvergleiche
- Kundenetiketten (nur zu Testzwecken, mit Genehmigung des Kunden durchgeführt)
- Synthetische Datenbeschriftungen
- Anzeigen bewerteter Bezeichnungen
Bewertung und Integration des semantischen Rankers für Ihren Einsatz
Die Leistung des semantischen Rangierers variiert je nach der realen Nutzung und den Bedingungen, unter denen die Benutzer sie verwenden. Die Qualität der Relevanz, die durch die Deep-Learning-Modelle bereitgestellt wird, die die semantischen Ranking-Funktionen unterstützen, korreliert direkt mit der Datenqualität Ihres Suchindex. Beispielsweise weisen die Modelle derzeit Tokenbeschränkungen auf, die nur die top 8.960 Token für semantische Antworten berücksichtigen. Wenn daher die semantische Antwort auf eine Suchabfrage am Ende eines langen Dokuments (über das Tokenlimit von 8.960 hinaus) gefunden wird, wird die Antwort nicht bereitgestellt. Die gleiche Regel gilt für Beschriftungen. Außerdem listet die semantische Konfiguration relevante Suchfelder in der Prioritätsreihenfolge auf. Sie können die Felder in dieser Liste neu anordnen, um die Relevanz an Ihre Anforderungen anzupassen.
Um eine optimale Leistung in ihren Szenarien sicherzustellen, sollten Kunden ihre eigenen Auswertungen der lösungen durchführen, die sie mithilfe des semantischen Rangierers implementieren. Kunden sollten in der Regel einem Evaluierungsprozess folgen, der: (1) verwendet einige interne Interessengruppen, um Ergebnisse auszuwerten, (2) verwendet A/B-Experimente, um semantische Rangfolger für Benutzer bereitzustellen, (3) umfasst KPIs und Metriküberwachung, wenn der Dienst zum ersten Mal in Erfahrungen bereitgestellt wird, und (4) Tests und Optimierungen der Semantikbewertungskonfiguration und/oder Indexdefinition, einschließlich der umgebungsspezifischen Erfahrungen wie Benutzeroberflächenplatzierung oder Geschäftsprozesse.
Wenn Sie eine Anwendung in einer Domäne oder Branche mit hohem Einsatz entwickeln, wie z. B. Gesundheitswesen, Personalwesen, Bildung oder juristischer Bereich, bewerten Sie, wie gut die Anwendung in Ihrem Szenario funktioniert, implementieren Sie eine starke menschliche Aufsicht, bewerten Sie, wie gut die Benutzer die Einschränkungen der Anwendung verstehen und alle relevanten Gesetze einhalten. Berücksichtigen Sie andere Gegenmaßnahmen basierend auf Ihrem Szenario.
Technische Einschränkungen, Betriebsfaktoren und Bereiche
Es kann vorkommen, dass synthetische Abfragen falsch sind, zu viele Einschränkungen aufweisen oder zu teuer sind. Abfrageumschreibung unterstützt eine breite Palette von Sprachen und Versuche, Benutzerabfragen umzuschreiben, um den Rückruf zu maximieren, es ist erforderlich, die Abfragesprache als Eingabe anzugeben. Das Neuschreiben von Abfragen ist Teil des Semantic Rankers (Azure AI Search-Feature zur Verbesserung der Suchrelevanz), ein Premium-Feature mit zusätzlichen Kosten. Dies sollte beim Projizieren der Gesamtausgaben Ihrer End-to-End-Lösung berücksichtigt werden. Die Neuschreibung der Abfrage kann nur verwendet werden, wenn der semantische Rangierer aktiviert ist.
Vor der Verwendung der Abfrageumschreibung in einer Produktionsumgebung (Liveversion Ihrer Anwendung) ist es wichtig, weitere Tests durchzuführen und sicherzustellen, dass die synthetischen Abfragen für den vorgesehenen Anwendungsfall geeignet sind. Weitere Informationen und Beispiele zum Auswerten des Umschreibens von Abfragen finden Sie im Artikel und Anhang.
Systemleistung
Bei groß angelegten Natürlichen Sprachmodellen können zwei verschiedene Benutzer die gleiche Ausgabe betrachten und verschiedene Meinungen darüber haben, wie nützlich oder relevant es ist, was bedeutet, dass die Leistung für diese Systeme flexibler definiert werden muss. Hier betrachten wir die Leistung im Allgemeinen als die Fähigkeit der Anwendung, wie von Ihnen und Ihren Benutzern erwartet zu funktionieren, einschließlich der Vermeidung schädlicher Ergebnisse.
Die Leistung der Abfrageumschreibung variiert je nach der realen Verwendung und den Bedingungen, in denen benutzer sie verwenden. Die Qualität synthetischer Abfragen, die vom Abfrageumschreibungsmodell bereitgestellt werden, wird direkt mit der ursprünglichen Suchabfrage korreliert.
Um eine optimale Leistung in ihren Szenarien sicherzustellen, sollten Kunden eigene Auswertungen der Lösungen durchführen, die sie mithilfe von Query-Rewriting implementieren. Kunden sollten in der Regel einem Evaluierungsprozess folgen, der:
- verwendet einige interne Projektbeteiligte, um Ergebnisse auszuwerten,
- verwendet A/B-Experimente zum Bereitstellen von Abfrageumschreibungen für Benutzer und
- Enthält KPIs und die Überwachung von Metriken, wenn der Dienst zum ersten Mal in Anwendungen implementiert wird.
Bewährte Methoden zur Verbesserung der Systemleistung
- Vollständige A/B-Tests für Ihre Anwendung mit unterschiedlichen Abfragetypen (Volltext, Vektor, Hybrid oder andere Arten von Abfragen). Ermitteln Sie, welche Abfrageumgebung für Ihre Anforderungen am besten geeignet ist.
- Gehen Sie nicht immer davon aus, dass jede synthetische Abfrage, die von der Abfrageumschreibung generiert wird, die genaue Absicht der ursprünglichen Abfrage widerspiegelt. Synthetische Abfragen werden von einem fein abgestimmten SLM generiert, das Abfragen semantisch ähnlich der Absicht der ursprünglichen Abfrage generiert, aber möglicherweise nicht mit der genauen Absicht übereinstimmt.
Auswertung der Abfrageumschreibung
Auswertungsmethoden
Die Abfrageumschreibung wurde durch interne Tests ausgewertet, einschließlich automatisierter und menschlicher Beurteilung von mehreren Datensätzen sowie Feedback von internen Nutzern. Das Testen umfasste die Auswertung der Relevanz der Ergebnisse der semantischen Rangfolge in Kombination mit Abfrageanpassung im Vergleich zur Relevanz der Ergebnisse nur mit semantischer Rangfolge.
Auswertung der Ergebnisse
Jedes Kandidatenmodell wird direkt mit dem aktuell bereitgestellten Modell verglichen, indem Metriken verwendet werden, die für die Auswertung des Features geeignet sind. Abfrageumschreibungsmodelle werden abgestimmt und ausgewertet, indem eine breite Palette von öffentlichen Daten verwendet wird, die repräsentativ für Abfragen sind, die unterschiedliche Eigenschaften (Sprache, Länge, Formatierung, Formatvorlagen und Töne) aufweisen, um das umfassendste Array von Suchszenarien zu unterstützen. Unsere Schulungs- und Testdaten stammen aus:
Quellen von Dokumenten:
- Benchmarks für Akademia und Industrie
- Kundendaten (nur Tests, mit Kundenberechtigungen ausgeführt)
Quellen von Abfragen:
- Benchmark-Abfragesätze
- Vom Kunden bereitgestellte Abfragesätze (nur Tests, mit Kundenberechtigungen ausgeführt)
- Synthetische Abfragesätze
- Vom Menschen generierte Abfragesätze
Quellen von Bezeichnungen für die Bewertung von Abfragen und Dokumentenpaaren:
- Bezeichnungen für akademische und industrielle Leistungsvergleiche
- Kundenetiketten (nur zu Testzwecken, mit Genehmigung des Kunden durchgeführt)
- Synthetische Datenbeschriftungen
- Anzeigen bewerteter Bezeichnungen
Evaluierung und Integration von Abfrageumschreibungen für Ihren Gebrauch
Da die Abfrageumschreibung mit öffentlichen Inhalten trainiert wurde, variieren die erzeugten Abfragen je nach den an das System gestellten Abfragen. Daher ist es wichtig, ihr eigenes Urteil und Ihre Recherche zu verwenden, wenn Sie diese Inhalte für die Entscheidungsfindung verwenden.
Technische Einschränkungen, Betriebsfaktoren und Bereiche
Obwohl die GenAI-Prompt-Funktion leistungsstarke Fähigkeiten bietet, ist es wichtig, bestimmte Einschränkungen zu erkennen:
- Die Fähigkeit basiert auf vom Kunden konfigurierten Inhaltsfiltern in Azure AI Foundry. Azure AI Search bietet keine zusätzlichen Sicherheitsmechanismen für Inhalte für diese Fähigkeit.
- Die Qualität von KI-generierten Inhalten hängt von der Effektivität der Eingabeaufforderungen und dem zugrunde liegenden Sprachmodell ab. Gründliche Tests sind erforderlich, um sicherzustellen, dass die Ausgabe den gewünschten Standards entspricht.
- Die Verarbeitung großer Datenmengen mit komplexen Eingabeaufforderungen erfordert möglicherweise erhebliche Rechenressourcen und kann zu Latenz führen. Planen und zuordnen Sie Ressourcen, um nicht nur die Leistung und Kosteneffizienz aufrechtzuerhalten, sondern auch mögliche Verzögerungen bei der Datenverarbeitung zu verhindern.
Systemleistung
Bewährte Methoden zur Verbesserung der Systemleistung
So optimieren Sie die Leistung der GenAI Prompt-Fähigkeit:
- Verwenden Sie das Tool für Debugsitzungen von Azure AI Search, um Aufforderungen zu Beispieldokumenten zu testen, um sicherzustellen, dass der von KI generierte Inhalt den Erwartungen vor der vollständigen Bereitstellung entspricht.
- Erstellen Sie klare und detaillierte Eingaben, um das Sprachmodell effektiv zu führen und die Wahrscheinlichkeit irrelevanter oder ungenauer Ergebnisse zu verringern.
- Überwachen Sie die Systemleistung und skalieren Sie Ressourcen nach Bedarf, um die rechentechnischen Anforderungen der KI-Verarbeitung zu verarbeiten.
- Fördern Sie die menschliche Überwachung von Ausgaben vor der Veröffentlichung oder Verbreitung. Mit generativer KI besteht das Potenzial, Inhalte zu generieren, die möglicherweise anstößig oder irrelevant für die aufgabe sind.
Bewertung der GenAI Prompt-Fähigkeit
Bewerten und Integrieren von GenAI-Prompt-Fertigkeiten für Ihre Nutzung
Um die Vorteile der GenAI Prompt-Fähigkeit innerhalb Ihres spezifischen Kontexts zu maximieren, sollten Sie die folgenden Schritte in Betracht ziehen:
- Bestimmen Sie die spezifischen Anreicherungsziele, z. B. das Generieren präziser Zusammenfassungen, Extrahieren wichtiger Entitäten oder das Erstellen beschreibender Metadaten, um die Anwendung der Fähigkeiten an Ihre geschäftlichen Anforderungen anzupassen.
- Beginnen Sie mit einer Teilmenge Ihrer Daten, um die Leistung der Fähigkeiten zu bewerten und die erforderlichen Anpassungen vorzunehmen. Dieser Ansatz ermöglicht die kontrollierte Experimentierung und Verfeinerung vor der vollständigen Bereitstellung.
- Richten Sie Mechanismen ein, um die Qualität und Die Auswirkungen von KI-generierten Inhalten zu überwachen. Fordern Sie Feedback von Endbenutzern an, um Verbesserungsbereiche zu identifizieren und sicherzustellen, dass die erweiterten Daten den Erwartungen der Benutzer entsprechen.
Technische Einschränkungen, Betriebsfaktoren und Bereiche
Es kann vorkommen, dass die von LLM generierten Unterabfragen irrelevant, übermäßig restriktiv sind oder die Tokenkosten in die Höhe treiben. Agentische Abfrage unterstützt alle Sprachen, die von der GPT‑4o-Familie behandelt werden, aber die Qualität des generierten Abfrageplans hängt dennoch von der Klarheit der Benutzereingaben ab. Da der agentspezifische Abruf vom semantischen Rangiermodul für jede Unterabfrage abhängt, muss dieses für den Index aktiviert sein. Der semantische Ranker ist ein Premium-Token-basiertes Feature; Obwohl die Rankinggebühren während der ersten Phase der öffentlichen Vorschau aufgehoben werden, gelten sie später und sollten in die Gesamtkosten des Besitzes integriert werden.
Führen Sie vor dem Verschieben des agentischen Abrufs in eine Produktionsumgebung zusätzliche Tests durch, um zu bestätigen, dass die Unterabfragen und zurückgegebenen Passagen für den vorgesehenen Anwendungsfall geeignet sind, dass Latenz und Kosten Ihren Zielen auf Dienstebene entsprechen und dass die Erdungsdaten keine vertraulichen oder nicht kompatiblen Inhalte verfügbar machen.
Systemleistung
Wie bei jedem groß angelegten Sprachmodellsystem können unterschiedliche Benutzer unterschiedliche Beurteilungen über die Nützlichkeit oder Relevanz der zurückgegebenen Passagen erreichen, sodass die Leistung flexibel definiert werden muss. Für den agentischen Zugriff definieren wir eine gute Leistung als die Fähigkeit der End-to-End-Anwendung, die Inhalte zu liefern, die Ihre Benutzer erwarten – ohne inakzeptable Latenzzeiten, Kosten oder schädliche Ergebnisse.
Die Wirksamkeit des agentischen Abrufs hängt von vielen realen Faktoren ab:
- Länge des Prompt-/Chatverlaufs
- Anzahl der von LLM generierten Unterabfragen
- Indexgröße und Schema (Schlüsselwort, Vektor, Hybrid)
- Wahl des Planungsmodells (GPT-4o vs. GPT-4o-mini)
- Konfigurations- und Bewertungsschwellenwerte für semantische Suche
Bewährte Methoden zur Verbesserung der Systemleistung
- Fassen Sie ältere Chatverläufe zusammen oder kürzen Sie sie, um die Tokennutzung gering zu halten.
- Optimieren Sie die Rankerschwelle, damit nur hochrelevante Passagen zurückgegeben werden.
- Verwenden von Filtern nach Möglichkeit
Auswertung des agentischen Abrufs
Der agentische Abrufprozess wurde durch interne Tests ausgewertet, einschließlich automatisierter und menschlicher Beurteilung mehrerer Datensätze. Tests enthielten die Bewertung der Relevanz der Ergebnisse des agentischen Abrufs im Vergleich zu Ergebnissen nur mit semantischer Rangfolge.
Auswertungsmethoden
Jede Kandidat-Konfiguration für den agentischen Abruf, die durch die Planner-Eingabeaufforderung, Modellvariante, Anzahl der Unterabfragen und Rangschwellenwerte definiert wird, wird im direkten Vergleich mit der Produktionsbasis ausgewertet. Wir wenden eine Reihe von Relevanz, Sicherheit, Latenz und Kostenmetriken an, die speziell für Abfrageabrufszenarien mit mehreren Abfragen ausgewählt wurden. Um die Zuverlässigkeit in realen Anwendungsfällen sicherzustellen, werden Optimierungen und Tests auf einer breiten Mischung aus öffentlichen und vom Kunden genehmigten Datensätzen durchgeführt, die in Sprache, Abfragelänge, Formatierung, Stil und Unterhaltungston variieren. Testmaterial stammt aus:
Quellen von Dokumenten:
- Benchmarks für Akademia und Industrie
- Kundendaten (nur Tests, mit Kundenberechtigungen ausgeführt)
- Quellen von Abfragen:
- Benchmark-Abfragesätze
- Vom Kunden bereitgestellte Abfragesätze (nur Tests, mit Kundenberechtigungen ausgeführt)
- Synthetische Abfragesätze
- Vom Menschen generierte Abfragesätze
Quellen von Bezeichnungen für die Bewertung von Abfragen und Dokumentenpaaren:
- Bezeichnungen für akademische und industrielle Leistungsvergleiche
- Kundenetiketten (nur zu Testzwecken, mit Genehmigung des Kunden durchgeführt)
- Synthetische Datenbeschriftungen
- Anzeigen bewerteter Bezeichnungen
Evaluierung und Integration von agentischer Datenabfrage für Ihre Nutzung
Da der Agentic-Abrufplaner weitgehend auf öffentliche Daten trainiert wird, variiert die Qualität und Relevanz seiner generierten Unterabfragen mit Ihrer Domäne und den spezifischen Benutzeraufforderungen. Um die Vorteile des agentischen Abrufs innerhalb Ihres spezifischen Kontexts zu maximieren, berücksichtigen Sie die folgenden Schritte:
- Überprüfen Sie die Ausgabe, bevor Sie sie verwenden, um geschäftskritische Entscheidungen voranzutreiben: Überprüfen Sie manuell eine Stichprobe von generierten Unterabfragen und zurückgegebenen Dokumenten, um sicherzustellen, dass sie mit der Terminologie, Genauigkeit und Complianceanforderungen der Domäne übereinstimmen.
- Stellen Sie dem Planner domänenspezifische Informationen bereit. Stellen Sie Synonymzuordnungen und vollständige Unterhaltungshistorien zur Verfügung, damit das LLM Abfragen in einer Sprache, die Ihren Inhalten entspricht, paraphrasieren und zerlegen kann, um Relevanz und Genauigkeit zu verbessern.
- Implementieren Sie Fallback- oder Guardrail-Logik: Wenn der Planer Unterabfragen mit niedriger Zuverlässigkeit oder außerhalb des Gültigkeitsbereichs erzeugt, leiten Sie die Anforderung an ein einfacheres Schlüsselwort oder eine Vektorsuche weiter, oder zeigen Sie dem Benutzer eine Klarstellungsaufforderung an, um zu verhindern, dass unzuverlässige Antworten nachgelagert verteilt werden.
Erfahren Sie mehr über verantwortungsvolle KI
- KI-Prinzipien von Microsoft
- Ressourcen für verantwortungsbewusste KI von Microsoft
- Microsoft Azure Learning-Kurse zu verantwortungsvoller KI
Weitere Informationen zu Azure AI Search
Feedback
War diese Seite hilfreich?