Freigeben über


So erstellen Sie eine klassische RAG-Lösung mit Azure AI Search

In dieser Lernprogrammreihe wird das klassische Muster zum Erstellen von RAG-Lösungen in Azure AI Search veranschaulicht. Classic RAG verwendet die ursprüngliche Abfragepipeline ohne LLM-Integration, außer am Ende der Pipeline, wenn Sie die Suchergebnisse an eine LLM zur Antwortformulierung übergeben.

Hinweis

Wir empfehlen jetzt den agentischen Abruf für RAG-Workflows, aber klassische RAG ist einfacher. Wenn sie Ihre Anwendungsanforderungen erfüllt, ist es immer noch eine gute Wahl.

Inhalt dieser Serie

In dieser Reihe lernen Sie die Komponenten, Abhängigkeiten und Optimierungen kennen, um die Relevanz zu maximieren und Kosten zu minimieren.

Bei den Beispieldaten handelt es sich um eine Sammlung von PDF-Dateien, die in Azure Storage hochgeladen werden. Der Inhalt stammt aus dem kostenlosen E-Book „Earth“ der NASA.

Beispielcode finden Sie in diesem Python-Notebook. Es wird jedoch empfohlen, die Artikel in dieser Reihe zu verwenden, da sie einen Kontext, Erkenntnisse und alternative Ansätze bieten.

Übungen in dieser Tutorialreihe

  • Auswählen der Modelle für Einbettungen und den Chat

  • Entwerfen eines Indexes für die unterhaltungsbezogene Suche

  • Entwerfen einer Indizierungspipeline, die durchsuchbare Inhalte lädt, segmentiert, einbettet und erfasst

  • Abrufen durchsuchbarer Inhalte mit Abfragen und einem Chatmodell

  • Maximieren der Relevanz

  • Minimieren des Speicherbedarfs und der Kosten

Einige Aspekte eines RAG-Musters wurden hier weggelassen, um die Komplexität zu verringern:

  • Keine Verwaltung von Chatverlauf und -kontext. Der Chatverlauf wird typischerweise getrennt von Ihren Groundingdaten gespeichert und verwaltet, wozu zusätzliche Schritte und zusätzlicher Code erforderlich sind. In diesem Tutorial wird von der Verwendung atomischer Fragen und Antworten des LLM (Large Language Model, großes Sprachmodell) und der Standard-LLM-Umgebung ausgegangen.

  • Keine Benutzersicherheit pro Benutzer für Ergebnisse (bezeichnet als „Einschränkung aus Sicherheitsgründen“ oder „Sicherheitskürzung“). Beginnen Sie mit dem Artikel zur Sicherheitskürzung, um weitere Informationen und Ressourcen zu erhalten, und sehen Sie sich unbedingt die Ressourcen unter den Links am Ende des Artikels an.

In dieser Tutorialreihe werden die Grundlagen der Entwicklung von RAG-Lösungen behandelt. Nachdem Sie sich mit den Grundlagen vertraut gemacht haben, fahren Sie mit Beschleunigern und anderen Codebeispielen fort, die mehr Abstraktion bieten oder aus anderen Gründen besser für Produktionsumgebungen und komplexere Workloads geeignet sind.

Gründe für die Verwendung von Azure KI-Suche für RAG-Lösungen

Chatmodelle unterliegen Beschränkungen hinsichtlich der Datenmenge, die sie bei einer Anforderung akzeptieren können. Sie sollten Azure KI-Suche verwenden, da die Qualität der an ein LLM übergebenen Inhalte über den Erfolg oder Misserfolg einer RAG-Lösung entscheiden kann.

Um hochwertige Eingaben für ein Chatmodell bereitzustellen, bietet Azure KI-Suche eine erstklassige Suchmaschine mit KI-Integration (künstliche Intelligenz) und umfassender Relevanzoptimierung. Die Suchmaschine unterstützt die Vektorähnlichkeitssuche (mehrere Algorithmen), Schlüsselwortsuche, Fuzzysuche und räumliche Suche sowie Filter. Sie können Hybridabfrageanforderungen erstellen, die all diese Komponenten enthalten, und steuern, wie viel jede Abfrage zur gesamten Anforderung beiträgt.

Nächster Schritt