Łączenie niestandardowych odpowiedzi na pytania za pomocą usługi Azure OpenAI na danych
Niestandardowe odpowiadanie na pytania umożliwia tworzenie warstwy konwersacyjnej na danych w oparciu o zaawansowane funkcje przetwarzania języka naturalnego (NLP, Natural Language Processing) o zwiększonym znaczeniu przy użyciu klasyfikatora uczenia głębokiego, precyzyjnych odpowiedzi i kompleksowej obsługi regionów. Większość przypadków użycia niestandardowych odpowiedzi na pytania polega na znalezieniu odpowiednich odpowiedzi na dane wejściowe, integrując je z czatbotami, aplikacjami mediów społecznościowych i aplikacjami stacjonarnymi obsługującymi mowę.
Jednak środowiska uruchomieniowe sztucznej inteligencji ewoluują ze względu na rozwój dużych modeli językowych (LLM), takich jak GPT-35-Turbo i GPT-4 oferowane przez usługę Azure OpenAI , mogą dotyczyć wielu przypadków użycia opartych na czacie, z którymi warto się zintegrować.
Jednocześnie klienci często wymagają niestandardowego środowiska tworzenia odpowiedzi, aby uzyskać bardziej szczegółową kontrolę nad jakością i zawartością par odpowiedzi na pytania i umożliwić im rozwiązywanie problemów z zawartością w środowisku produkcyjnym. Przeczytaj ten artykuł, aby dowiedzieć się, jak zintegrować usługę Azure OpenAI On Your Data (wersja zapoznawcza) z parami odpowiedzi na pytania z niestandardowego projektu odpowiedzi na pytania przy użyciu bazowych indeksów usługi Azure AI Search w projekcie.
Wymagania wstępne
- Istniejący zasób usługi Azure OpenAI. Jeśli nie masz jeszcze zasobu usługi Azure OpenAI, utwórz go i wdróż model.
- Zasób usługi językowej platformy Azure i projekt niestandardowego odpowiadania na pytania. Jeśli jeszcze go nie masz, utwórz go.
- Upewnij się, że masz przypisaną co najmniej rolę Współautor openAI usług Cognitive Services dla zasobu azure OpenAI.
Łączenie usługi Azure OpenAI z danymi i niestandardowymi odpowiedziami na pytania
Zaloguj się do programu Language Studio i przejdź do niestandardowego projektu odpowiadania na pytania przy użyciu istniejącego wdrożenia.
Wybierz kartę Azure Search w menu nawigacji po lewej stronie.
Zanotuj szczegóły usługi Azure Search, takie jak nazwa zasobu usługi Azure Search, subskrypcja i lokalizacja. Te informacje będą potrzebne podczas łączenia indeksu usługi Azure AI Search z usługą Azure OpenAI.
Przejdź do usługi Azure OpenAI Studio i zaloguj się przy użyciu poświadczeń, które mają dostęp do zasobu usługi Azure OpenAI.
Wybierz kafelek Bring your own data (Przynieś własne dane), aby rozpocząć nawiązywanie połączenia z indeksem wyszukiwania. Możesz również wybrać kafelek Plac zabaw czatu.
Na kafelku Konfiguracja Asystenta wybierz pozycję Dodaj dane (wersja zapoznawcza)>+ Dodaj źródło danych.
W wyświetlonym okienku wybierz pozycję Azure AI Search w obszarze Wybierz lub dodaj źródło danych. Spowoduje to zaktualizowanie ekranu przy użyciu opcji mapowania pól danych w zależności od źródła danych.
Wybierz subskrypcję, usługę Azure AI usługa wyszukiwania i indeks usługi Azure AI Search skojarzony z niestandardowym projektem odpowiadania na pytania. Wybierz potwierdzenie, że połączenie spowoduje naliczenie użycia na twoim koncie. Następnie kliknij przycisk Dalej.
Na ekranie mapowania pól danych indeksowania wybierz pozycję Odpowiedź dla pola Dane zawartości . Inne pola, takie jak Nazwa pliku, Tytuł i Adres URL , są opcjonalne w zależności od charakteru źródła danych.
Wybierz Dalej. Wybierz typ wyszukiwania z menu rozwijanego. Możesz wybrać słowo kluczowe lub semantyczne. Wyszukiwanie semantyczne " wymaga istniejącej konfiguracji wyszukiwania semantycznego, która może lub nie jest dostępna dla projektu.
Przejrzyj podane informacje, a następnie wybierz pozycję Zapisz i zamknij.
Źródło danych zostało teraz dodane. Wybierz nazwę wdrożenia modelu na karcie Wdrażanie konfiguracji>w menu po prawej stronie.
Teraz możesz rozpocząć eksplorowanie możliwości usługi Azure OpenAI przy użyciu podejścia bez kodu za pośrednictwem placu zabaw czatu. Jest to po prostu pole tekstowe, w którym można przesłać monit o wygenerowanie ukończenia. Na tej stronie można szybko iterować i eksperymentować z możliwościami. Możesz również uruchomić aplikację internetową, aby porozmawiać z modelem za pośrednictwem Internetu.