Udostępnij za pomocą


Omówienie generowania sztucznej inteligencji dla języka JavaScript

Odkryj możliwości generowania sztucznej inteligencji za pomocą języka JavaScript. Dowiedz się, jak bezproblemowo zintegrować sztuczną inteligencję z aplikacjami internetowymi, mobilnymi lub klasycznymi.

Język JavaScript ze sztuczną inteligencją?

Mimo że język Python doskonale nadaje się do tworzenia i trenowania modeli sztucznej inteligencji, tworzenie aplikacji za pomocą tych modeli jest inne. Większość modeli sztucznej inteligencji działa za pośrednictwem internetowych interfejsów API, więc każdy język, który może wykonywać wywołania HTTP, może używać sztucznej inteligencji. Język JavaScript jest międzyplatformowy i łatwo łączy przeglądarki i serwery, dzięki czemu jest to silny wybór dla aplikacji sztucznej inteligencji.

Kurs zabawny i interaktywny

Dołącz do nas, aby przeżyć immersywne doświadczenie edukacyjne, obejmujące filmy wideo, projekty kodowania oraz pełną implementację, aby używać i uczyć się o generatywnej sztucznej inteligencji.

Ten kurs jest doskonałym sposobem dla uczniów i nowych deweloperów, aby dowiedzieć się więcej o sztucznej inteligencji w zabawny, interaktywny sposób. Dla programistów: wskocz głębiej, aby rozwijać swoje umiejętności z zakresu sztucznej inteligencji.

W tym kursie:

  • Poznaj sztuczną inteligencję, ożywiając postaci historyczne z generatywną sztuczną inteligencją.
  • Stosowanie ułatwień dostępu za pomocą wbudowanych interfejsów API przeglądarki
  • Używanie generowania tekstu i obrazu w celu zintegrowania sztucznej inteligencji ze środowiskiem aplikacji
  • Poznaj wzorce architektury dla aplikacji sztucznej inteligencji

wygenerowany przez sztuczną inteligencję obraz Leonardo Da Vinci używany w aplikacji towarzyszącej do rozmowy z postaciami historycznymi.

Użyj aplikacji towarzyszącej do rozmowy z postaciami historycznymi

Co musisz wiedzieć o llMs?

Duże modele językowe (LLM) to głębokie sieci neuronowe wyszkolone na wielu danych w celu zrozumienia i utworzenia tekstu. Trenowanie rozpoczyna się od dużych, zróżnicowanych zestawów danych w celu utworzenia modelu podstawowego, a następnie używa specjalnych danych do dostosowania w celu uzyskania lepszych wyników. LLM-y działają jak inteligentne narzędzia do autouzupełniania w edytorach kodu lub aplikacjach do czatowania. Modele mają limity, takie jak okna kontekstowe (zwykle kilka tysięcy tokenów, choć nowsze modele obsługują więcej) i mogą pokazywać uprzedzenia z danych treningowych. Dlatego odpowiedzialność za sztuczną inteligencję ma znaczenie — skoncentruj się na sprawiedliwości, niezawodności, prywatności i odpowiedzialności, jak zaleca firma Microsoft.

Dowiedz się więcej w sesji LLM kursu:

Podstawowe techniki inżynierii monitów

Inżynieria promptów oznacza projektowanie promptów w celu uzyskania lepszych wyników sztucznej inteligencji. Możesz użyć uczenia zero-shot (bez przykładów) lub uczenia few-shot (z przykładami), dla pokierowania modelem. Dodawanie wskazówek, takich jak instrukcje krok po kroku, jasny kontekst i formaty danych wyjściowych, pomaga modelowi udzielać lepszych odpowiedzi. Możesz również dostosować ton i personalizować odpowiedzi. Te podstawy przygotowują cię do zaawansowanych technik, takich jak RAG.

Dowiedz się więcej w ramach sesji projektowania promptów w kursie.

Zwiększanie dokładności i niezawodności sztucznej inteligencji dzięki funkcji RAG

Użyj funkcji Pobierania rozszerzonej generacji (RAG), aby zwiększyć dokładność i niezawodność sztucznej inteligencji. RAG łączy moduł wyszukujący, który znajduje aktualne dokumenty, z generatorem, który używa tych dokumentów do odpowiadania na pytania. Takie podejście daje jasne, faktyczne odpowiedzi oparte na zaufanych źródłach, co ułatwia sprawdzanie i opłacalne wyniki. Na przykład dział pomocy technicznej firmy Contoso używa programu RAG do udzielenia szczegółowych odpowiedzi opartych na dokumentach firmy.

Dowiedz się więcej podczas sesji RAG kursu.

Przyspieszanie opracowywania sztucznej inteligencji przy użyciu LangChain.js

Przyspiesz projekty sztucznej inteligencji za pomocą LangChain.js. Ta biblioteka języka JavaScript ułatwia pracę z dużymi modelami językowymi. Użyj LangChain.js do tworzenia szablonów monitów, łączenia modeli i baz danych wektorów oraz tworzenia złożonych przepływów pracy. Szybkie prototypowanie aplikacji, takich jak API, które pobiera dane i odpowiada na pytania z transkryptów z YouTube. Gdy wszystko będzie gotowe do produkcji, zamień lokalne modele i magazyny wektorowe na usługi platformy Azure bez konieczności zmieniania kodu.

Dowiedz się więcej w sesji LangChain.js kursu:

Uruchamianie modeli sztucznej inteligencji na komputerze lokalnym przy użyciu rozwiązania Ollama

Pobieranie i używanie lokalnych modeli sztucznej inteligencji z narzędziem Ollama — narzędziem typu open source opartym na llama.cpp — w celu wydajnego uruchamiania małych modeli językowych, takich jak Phi-3. Modele lokalne eliminują poleganie na infrastrukturze chmury, umożliwiają szybkie opracowywanie z możliwościami trybu offline i oferują ekonomiczne testowanie za pomocą szybkiej wewnętrznej pętli programowania. Phi-3, znany z wysokiej wydajności i odpowiedzialnego bezpieczeństwa sztucznej inteligencji, może działać nawet na urządzeniach o średniej specyfikacji i jest dostępny za pośrednictwem interfejsu API zgodnego z platformą OpenAI, co ułatwia integrację z przepływem pracy programowania.

Dowiedz się więcej w ramach sesji Ollama na kursie.

Rozpocznij pracę ze sztuczną inteligencją bezpłatnie przy użyciu rozwiązania Phi-3

Wypróbuj modele sztucznej inteligencji za pomocą narzędzia Ollama i modelu Phi-3 w przeglądarce przy użyciu środowiska zabaw online. Utwórz Codespace GitHub do korzystania z VS Code w przeglądarce, uruchom polecenia takie jak "Ollama run phi3" do komunikacji z modelem, a następnie użyj notesu Jupyter do testowania inżynierii promptów, uczenia na małej próbce oraz RAG (Retrieval-Augmentation-Generation). Możesz tworzyć i eksplorować projekty sztucznej inteligencji w trybie online — nie ma potrzeby szybkiej konfiguracji procesora GPU ani lokalnej.

Dowiedz się więcej w sesji Phi-3 kursu:

Wprowadzenie do rozwiązania Azure AI Foundry

Użyj rozwiązania Azure AI Foundry, aby rozpocząć tworzenie generowanych aplikacji sztucznej inteligencji za pomocą języka JavaScript. Organizowanie zasobów za pomocą centrów i projektów, przeglądanie tysięcy modeli i wdrażanie modelu do testowania na placu zabaw. Niezależnie od tego, czy wybierasz zarządzany system obliczeniowy czy bezserwerowe interfejsy API, wykonaj te same kroki, aby wybrać, wdrożyć i użyć modelu w swoim przepływie pracy.

Dowiedz się więcej na temat sesji Azure AI Foundry w kursie.

Tworzenie aplikacji generacyjnych sztucznej inteligencji za pomocą usługi Azure Cosmos DB

Aby dowiedzieć się więcej, zapoznaj się z sesją Azure Cosmos DB w ramach kursu.

Narzędzia platformy Azure i usługi & do hostowania i przechowywania aplikacji sztucznej inteligencji

Odkryj kluczowe narzędzia i usługi platformy Azure do hostowania i przechowywania aplikacji sztucznej inteligencji. Twórz różne typy aplikacji sztucznej inteligencji, takich jak aplikacje do czatów, rag i agenci autonomiczni. Użyj interfejsu wiersza polecenia dla deweloperów platformy Azure (AZD), aby łatwo wdrożyć. Porównaj opcje bezserwerowe i oparte na kontenerach oraz dowiedz się, jak zapewnić bezpieczeństwo, skalowalność i monitorowanie interfejsów API pod kątem rzeczywistego użycia.

Dowiedz się więcej podczas sesji narzędzi i usług platformy Azure w ramach kursu.

  • wideo

Generowanie strumieniowe wyników generatywnej sztucznej inteligencji za pomocą protokołu czatowego AI

Strumieniowanie danych wyjściowych generowanych przez AI za pomocą protokołu AI Chat. To narzędzie ułatwia komunikację w czasie rzeczywistym między usługą sztucznej inteligencji a aplikacjami klienckimi. Wypróbuj dwie metody przesyłania strumieniowego: uruchom wnioskowanie w przeglądarce lub użyj serwera wnioskowania sztucznej inteligencji. Zwróć uwagę na ujawnienie klucza interfejsu API, bezpieczeństwo danych i wybranie odpowiedniego protokołu. Prosty klient Protokółu AI Chat Protocol umożliwia dodawanie bezpiecznego i wydajnego przesyłania strumieniowego do aplikacji za pomocą metod getCompletion i getStreamedCompletion, jak pokazano w przykładzie naszego bezserwerowego środowiska RAG, używającego LangChain.js.

Dowiedz się więcej podczas sesji Streaming w ramach kursu.