Pobieranie rozszerzonej generacji przy użyciu przepływu monitu Edukacja maszyny platformy Azure (wersja zapoznawcza)

Ważne

Ta funkcja jest obecnie w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone.

Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.

Pobieranie rozszerzonej generacji (RAG) to wzorzec, który współpracuje ze wstępnie wytrenowanym dużymi modelami językowymi (LLM) i własnymi danymi w celu wygenerowania odpowiedzi. W usłudze Azure Machine Learning można teraz zaimplementować narzędzie RAG w natychmiastowym przepływie. Obsługa RAG jest obecnie dostępna w publicznej wersji zapoznawczej.

W tym artykule wymieniono niektóre korzyści z programu RAG, przedstawiono omówienie techniczne i opisano obsługę rag w usłudze Azure Machine Edukacja.

Uwaga

Czy dopiero zaczynasz korzystać z koncepcji LLM i RAG? Ten klip wideo z prezentacji firmy Microsoft oferuje proste wyjaśnienie.

Dlaczego warto używać programu RAG?

Tradycyjnie model podstawowy jest trenowany przy użyciu danych punkt-w czasie w celu zapewnienia skuteczności wykonywania określonych zadań i dostosowywania się do żądanej domeny. Jednak czasami trzeba pracować z nowszymi lub bardziej aktualnymi danymi. Dwa podejścia mogą uzupełniać model podstawowy: dostrajanie lub dalsze szkolenie modelu podstawowego przy użyciu nowych danych lub RAG, które używają monitu inżynieryjnego do uzupełnienia lub kierowania modelem w czasie rzeczywistym.

Dostrajanie jest odpowiednie do ciągłej adaptacji domeny, co umożliwia znaczne ulepszenia jakości modelu, ale często wiąże się z wyższymi kosztami. Z drugiej strony funkcja RAG oferuje alternatywne podejście, umożliwiając korzystanie z tego samego modelu co aparat rozumowania w przypadku nowych danych dostarczonych w wierszu polecenia. Ta technika umożliwia uczenie w kontekście bez konieczności kosztownego dostrajania, co umożliwia firmom wydajniejsze korzystanie z funkcji LLM.

Rozwiązanie RAG umożliwia firmom osiągnięcie dostosowanych rozwiązań przy zachowaniu istotności danych i optymalizacji kosztów. Przyjmując rag, firmy mogą używać możliwości rozumowania llMs, wykorzystując swoje istniejące modele do przetwarzania i generowania odpowiedzi na podstawie nowych danych. Rag ułatwia okresowe aktualizacje danych bez konieczności precyzyjnego dostrajania, co usprawnia integrację oprogramowania LLMs z firmami.

  • Podaj dane uzupełniające jako dyrektywę lub monit do usługi LLM
  • Dodaje składnik sprawdzania faktów w istniejących modelach
  • Trenowanie modelu na aktualnych danych bez ponoszenia dodatkowego czasu i kosztów związanych z dostrajaniem
  • Trenowanie na danych specyficznych dla firmy

Omówienie techniczne korzystania z programu RAG w przypadku dużych modeli językowych (LLMs)

W przypadku pobierania informacji rag jest podejściem, które umożliwia wykorzystanie możliwości llMs z własnymi danymi. Włączenie funkcji LLM w celu uzyskania dostępu do danych niestandardowych obejmuje następujące kroki. Najpierw duże dane powinny być podzielone na zarządzane elementy. Po drugie fragmenty muszą zostać przekonwertowane na format z możliwością wyszukiwania. Po trzecie, przekonwertowane dane powinny być przechowywane w lokalizacji, która umożliwia wydajny dostęp. Ponadto ważne jest przechowywanie odpowiednich metadanych w przypadku cytatów lub odwołań, gdy usługa LLM udostępnia odpowiedzi.

Screenshot of a diagram of the technical overview of an LLM walking through rag steps.

Przyjrzyjmy się bardziej szczegółowo diagramowi.

  • Dane źródłowe: to miejsce, w którym istnieją twoje dane. Może to być plik/folder na maszynie, plik w magazynie w chmurze, zasób danych usługi Azure Machine Edukacja, repozytorium Git lub baza danych SQL.

  • Fragmentowanie danych: dane w źródle muszą zostać przekonwertowane na zwykły tekst. Na przykład dokumenty programu Word lub pliki PDF muszą być otwierane i konwertowane na tekst. Tekst jest następnie podzielony na mniejsze fragmenty.

  • Konwertowanie tekstu na wektory: nazywane osadzaniem. Wektory to liczbowe reprezentacje pojęć konwertowanych na sekwencje liczbowe, co ułatwia komputerom zrozumienie relacji między tymi pojęciami.

  • Linki między danymi źródłowymi i osadzaniem: te informacje są przechowywane jako metadane we utworzonych fragmentach, które są następnie używane do wspierania funkcji LLM do generowania cytatów podczas generowania odpowiedzi.

Rag with Azure Machine Edukacja (wersja zapoznawcza)

Funkcja RAG w usłudze Azure Machine Edukacja jest włączona przez integrację z usługą Azure OpenAI Service na potrzeby dużych modeli językowych i wektoryzacji, z obsługą faiss i azure AI Search (dawniej Cognitive Search) jako magazynów wektorowych oraz obsługę narzędzi i struktur typu open source, takich jak LangChain na potrzeby fragmentowania danych.

Aby zaimplementować usługę RAG, należy spełnić kilka kluczowych wymagań. Najpierw dane powinny być sformatowane w sposób umożliwiający efektywne wyszukiwanie przed wysłaniem ich do usługi LLM, co ostatecznie zmniejsza użycie tokenu. Aby zapewnić skuteczność programu RAG, ważne jest również regularne aktualizowanie danych w regularnych okresach. Ponadto możliwość oceny danych wyjściowych z usługi LLM przy użyciu danych umożliwia mierzenie skuteczności technik. Usługa Azure Machine Edukacja nie tylko umożliwia łatwe rozpoczęcie pracy na tych aspektach, ale także umożliwia ulepszanie i produkcję rag. Usługa Azure Machine Edukacja oferuje następujące oferty:

  • Przykłady uruchamiania scenariuszy Q&A opartych na technologii RAG.
  • Środowisko interfejsu użytkownika oparte na kreatorze w celu tworzenia danych i zarządzania nimi oraz dołączania ich do przepływów monitów.
  • Możliwość mierzenia i ulepszania przepływów pracy RAG, w tym generowania danych testowych, automatycznego tworzenia monitów i wizualizowania metryk oceny monitów.
  • Zaawansowane scenariusze z większą kontrolą przy użyciu nowych wbudowanych składników RAG do tworzenia niestandardowych potoków w notesach.
  • Środowisko kodu, które umożliwia wykorzystanie danych utworzonych za pomocą ofert typu open source, takich jak LangChain.
  • Bezproblemowa integracja przepływów pracy RAG z przepływami pracy metodyki MLOps przy użyciu potoków i zadań.

Podsumowanie

Usługa Azure Machine Edukacja umożliwia dołączenie rozwiązania RAG do sztucznej inteligencji przy użyciu usługi Azure Machine Edukacja Studio lub użycia kodu z potokami usługi Azure Machine Edukacja. Oferuje on kilka dodatków o wartości, takich jak możliwość mierzenia i ulepszania przepływów pracy RAG, generowania danych testowych, automatycznego tworzenia monitów i wizualizowania metryk oceny monitów. Umożliwia integrację przepływów pracy RAG z przepływami pracy metodyki MLOps przy użyciu potoków. Możesz również używać swoich danych z ofertami typu open source, takimi jak LangChain.

Następne kroki

Używanie magazynów wektorów z usługą Azure Machine Edukacja (wersja zapoznawcza)

Jak utworzyć indeks wektorów w usłudze Azure Machine Edukacja przepływ monitu (wersja zapoznawcza)