Udostępnij za pośrednictwem


Generowanie sztucznej inteligencji dla deweloperów języka JavaScript

Użyj języka JavaScript, aby tworzyć funkcje generowania sztucznej inteligencji w aplikacjach internetowych, mobilnych i klasycznych. To omówienie wyróżnia podstawowe pojęcia, narzędzia i zasoby szkoleniowe ułatwiające rozpoczęcie pracy.

Dlaczego warto używać języka JavaScript dla sztucznej inteligencji?

Język Python jest typowym wyborem do trenowania modeli sztucznej inteligencji, ale większość deweloperów aplikacji korzysta z modeli za pośrednictwem internetowych interfejsów API. Ponieważ język JavaScript działa w przeglądarkach i serwerach i obsługuje dobrze wywołania HTTP, jest to praktyczny wybór do tworzenia aplikacji sztucznej inteligencji.

Weź udział w kursie towarzyszącym

Skorzystaj z kursu towarzyszącego, aby uczyć się za pomocą projektów z kodem, kompletnego od początku do końca przykładu i filmów wideo.

Jeśli jesteś studentem lub nowym deweloperem, ten kurs zapewnia praktyczny sposób nauki sztucznej inteligencji. Jeśli już zawodowo tworzysz aplikacje, pomaga to pogłębić swoje umiejętności w dziedzinie sztucznej inteligencji.

W tym kursie wykonasz następujące elementy:

  • Poznaj sztuczną inteligencję, ożywiając postacie historyczne dzięki generatywnej sztucznej inteligencji.
  • Stosowanie ułatwień dostępu przy użyciu wbudowanych interfejsów API przeglądarki.
  • Użyj generowania tekstu i obrazu, aby zintegrować sztuczną inteligencję ze środowiskiem aplikacji.
  • Poznaj wzorce architektury dla aplikacji sztucznej inteligencji.

wygenerowany przez sztuczną inteligencję obraz Leonardo Da Vinci używany w aplikacji towarzyszącej do rozmowy z postaciami historycznymi.

Użyj aplikacji towarzyszącej do rozmowy z postaciami historycznymi

Co należy wiedzieć o maszynach LLM

Duże modele językowe (LLM) to sieci neuronowe trenowane na dużych zestawach danych w celu zrozumienia i wygenerowania tekstu. Proces trenowania zwykle rozpoczyna się od ogólnego modelu bazowego, a następnie stosuje się dostrajanie pod kątem określonych zadań. LLM-y mogą pomóc w scenariuszach, takich jak uzupełnianie kodu i czat, ale mają również limity, w tym okna kontekstowe i możliwą stronniczość w danych treningowych. Dlatego praktyki odpowiedzialnego używania sztucznej inteligencji, takie jak sprawiedliwość, niezawodność, prywatność i odpowiedzialność mają znaczenie.

Dowiedz się więcej w sesji LLM kursu:

Korzystanie z technik inżynierii podpowiedzi

Inżynieria monitów to praktyka pisania monitów, które kierują model w kierunku lepszych wyników. Użyj monitu zero-shot, gdy nie potrzebujesz przykładów, lub monitu few-shot, gdy przykłady są pomocne. Jasne instrukcje, odpowiedni kontekst oraz wyraźne formaty danych wyjściowych często ulepszają odpowiedzi i przygotowują Państwa do bardziej zaawansowanych schematów, takich jak RAG.

Dowiedz się więcej w ramach sesji projektowania promptów w kursie.

Zwiększanie dokładności i niezawodności sztucznej inteligencji dzięki funkcji RAG

Użyj generowania z rozszerzonym wyszukiwaniem (RAG), aby oprzeć odpowiedzi modelu na aktualnych, zaufanych danych. RAG łączy program retriever, który znajduje odpowiednią zawartość z generatorem, który używa tej zawartości do odpowiadania na pytania. Takie podejście może poprawić dokładność, ułatwić weryfikowanie odpowiedzi i kontrolowanie kosztów. Na przykład aplikacja pomocy technicznej dla nieruchomości może używać dokumentów firmy, aby odpowiedzieć na szczegółowe pytania klientów.

Dowiedz się więcej podczas sesji RAG kursu.

Przyspieszanie opracowywania sztucznej inteligencji przy użyciu LangChain.js

Przyspiesz projekty sztucznej inteligencji za pomocą LangChain.js. Ta biblioteka języka JavaScript ułatwia tworzenie szablonów monitów, łączenie modeli i magazynów wektorów oraz tworzenie złożonych przepływów pracy. Dobrze sprawdza się w przypadku szybkiego tworzenia prototypów, takiego jak interfejs API, który odpowiada na pytania z transkrypcji w serwisie YouTube. Gdy wszystko będzie gotowe do użycia w środowisku produkcyjnym, możesz zamienić lokalne modele i magazyny wektorowe dla usług platformy Azure bez ponownego zapisywania aplikacji.

Dowiedz się więcej w sesji LangChain.js kursu:

Uruchamianie modeli sztucznej inteligencji na komputerze lokalnym przy użyciu rozwiązania Ollama

Użyj narzędzia Ollama, aby uruchamiać lokalne modele sztucznej inteligencji, w tym Phi-3, na maszynie. Modele lokalne zmniejszają zależności w chmurze, obsługują programowanie w trybie offline i skracają pętlę wewnętrzną podczas testowania pomysłów. Ponieważ Ollama uwidacznia interfejs API zgodny z interfejsem OpenAI, możesz zintegrować go z istniejącymi przepływami pracy języka JavaScript z minimalnymi zmianami.

Dowiedz się więcej w ramach sesji Ollama na kursie.

Rozpocznij pracę ze sztuczną inteligencją bezpłatnie

Możesz bezpłatnie uruchamiać sztuczną inteligencję przy użyciu narzędzia Foundry Local, co umożliwia pobieranie modeli sztucznej inteligencji i interakcję z nimi lokalnie. Istnieje również AI Toolkit for Visual Studio Code, rozszerzenie, które obsługuje pobieranie modeli, dostrajanie i nie tylko. Ollama to kolejny popularny wybór do uruchamiania modeli lokalnych.

Możesz również wypróbować modele bez żadnej konfiguracji lokalnej, tworząc środowisko GitHub Codespace i używając notatnika Jupyter do testowania prompt engineering, uczenia z mniejszą ilością danych i RAG.

Dowiedz się więcej w sesji Phi-3 kursu:

Wprowadzenie do rozwiązania Microsoft Foundry

Użyj rozwiązania Microsoft Foundry, aby rozpocząć tworzenie generowanych aplikacji sztucznej inteligencji za pomocą języka JavaScript. Organizowanie zasobów za pomocą centrów i projektów, przeglądanie modeli i wdrażanie modelu do testowania na placu zabaw. Niezależnie od tego, czy używasz zarządzanych interfejsów API obliczeniowych, czy bezserwerowych, przepływ pracy pozostaje taki sam: wybierz model, wdróż go i zintegruj go z aplikacją.

Dowiedz się więcej w sesji "Foundry" tego kursu:

Tworzenie aplikacji generacyjnych sztucznej inteligencji za pomocą usługi Azure Cosmos DB

Aby dowiedzieć się więcej, zapoznaj się z sesją Azure Cosmos DB w ramach kursu.

Narzędzia i usługi platformy Azure do hostowania i przechowywania aplikacji sztucznej inteligencji

Dowiedz się, które narzędzia i usługi platformy Azure pasują do typowych architektur aplikacji sztucznej inteligencji, w tym aplikacji czatu, aplikacji RAG i agentów autonomicznych. W tej sesji pokazano również, jak za pomocą interfejsu wiersza polecenia dewelopera platformy Azure (AZD) wdrażać aplikacje i porównywać opcje hostingu bezserwerowego i opartego na kontenerach.

Dowiedz się więcej podczas sesji narzędzi i usług platformy Azure w ramach kursu.

  • wideo

Strumieniowanie danych wyjściowych generowanych przez AI za pomocą protokołu AI Chat.

Protokół AI Chat Protocol umożliwia obsługę komunikacji w czasie rzeczywistym między usługą sztucznej inteligencji a aplikacjami klienckimi. Odpowiedzi można przesyłać strumieniowo z przeglądarki lub z serwera wnioskowania sztucznej inteligencji, w zależności od architektury. Podczas implementowania przesyłania strumieniowego zaplanuj ochronę kluczy interfejsu API, bezpieczeństwo danych i wybór protokołu. Klient protokołu obsługuje metody, takie jak getCompletion i getStreamedCompletion, jak pokazano w przykładzie bezserwerowym RAG z LangChain.js.

Dowiedz się więcej podczas sesji Streaming w ramach kursu.