Generowanie sztucznej inteligencji i dużych modeli językowych (LLMs) w usłudze Azure Databricks

Ten artykuł zawiera omówienie generowania sztucznej inteligencji w usłudze Databricks oraz linki do przykładowych notesów i pokazów.

Co to jest generowanie sztucznej inteligencji?

Generowanie sztucznej inteligencji to typ sztucznej inteligencji skoncentrowany na możliwości komputerów do używania modeli do tworzenia zawartości, takiej jak obrazy, tekst, kod i syntetyczne dane.

Generowanie aplikacji sztucznej inteligencji opiera się na dużych modelach językowych (LLM) i modelach podstawowych.

  • LlMs to modele uczenia głębokiego, które używają ogromnych zestawów danych i trenują je w celu wykonywania zadań przetwarzania języka. Tworzą nowe kombinacje tekstu, które naśladują język naturalny na podstawie danych treningowych.
  • Modele podstawowe to duże modele uczenia maszynowego wstępnie wytrenowane z zamiarem dostosowania ich do bardziej szczegółowych zadań interpretacji języka i generowania. Te modele są używane do rozróżniania wzorców w danych wejściowych.

Po ukończeniu tych modeli procesów uczenia się razem generują statystycznie prawdopodobne dane wyjściowe po wyświetleniu monitu i mogą być stosowane do wykonywania różnych zadań, w tym:

  • Generowanie obrazów na podstawie istniejących lub użycie stylu jednego obrazu w celu zmodyfikowania lub utworzenia nowego obrazu.
  • Zadania mowy, takie jak transkrypcja, tłumaczenie, generowanie pytań/odpowiedzi oraz interpretacja intencji lub znaczenia tekstu.

Ważne

Chociaż wiele modeli LLM lub innych modeli generacyjnych sztucznej inteligencji ma zabezpieczenia, nadal mogą generować szkodliwe lub niedokładne informacje.

Generowanie sztucznej inteligencji ma następujące wzorce projektowe:

  • Monitowanie inżynieryjne: tworzenie wyspecjalizowanych monitów o wskazówki dotyczące zachowania usługi LLM
  • Pobieranie rozszerzonej generacji (RAG): łączenie modułu LLM z zewnętrznym pobieraniem wiedzy
  • Dostrajanie: dostosowanie wstępnie wytrenowanego modułu LLM do określonych zestawów danych domen
  • Wstępne szkolenie: trenowanie modułu LLM od podstaw

Opracowywanie generowania sztucznej inteligencji i funkcji LLM w usłudze Azure Databricks

Usługa Azure Databricks łączy cykl życia sztucznej inteligencji z zbierania i przygotowywania danych, programowania modeli i operacji LLMOps, obsługi i monitorowania. Poniższe funkcje są specjalnie zoptymalizowane pod kątem ułatwiania tworzenia aplikacji generacyjnych sztucznej inteligencji:

Dodatkowe zasoby