Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Entdecken Sie die Leistungsfähigkeit der generativen KI mit JavaScript. Erfahren Sie, wie Sie KI nahtlos in Ihre Web-, Mobil- oder Desktopanwendungen integrieren.
JavaScript mit KI?
Obwohl Es stimmt, dass Python wahrscheinlich die beste Sprache zum Erstellen, Trainieren und Optimieren von KI-Modellen ist, ist es eine andere Geschichte, wenn es darum geht, Anwendungen mit diesen KI-Modellen zu erstellen. Die meisten KI-Modelle werden mit Web-APIs genutzt. Das bedeutet, dass jede Sprache, die HTTP-Aufrufe ausführen kann, tatsächlich KI machen kann. Da JavaScript plattformübergreifend ist und eine nahtlose Integration zwischen Browser- und serverseitigen Umgebungen bietet, ist es eine großartige Wahl für Ihre KI-Anwendungen.
Spaß und interaktiver Kurs
Begleiten Sie uns für eine immersive Lernerfahrung mit Videos, Codeprojekten und einer vollständigen Implementierung, um generative KI sowohl zu verwenden als auch darüber zu lernen.
Dieser Kurs ist eine großartige Möglichkeit für Schüler und neue Entwickler, um auf unterhaltsame, interaktive Weise mehr über KI zu erfahren. Für Berufstätige, vertiefen Sie sich weiter in Ihre Weiterentwicklung im Bereich KI.
In diesem Kurs:
- Lernen Sie KI kennen, während Sie historische Figuren mit generierender KI zum Leben erwecken
- Anwenden von Barrierefreiheit mit den integrierten Browser-APIs
- Verwenden der Text- und Bildgenerierung zum Integrieren von KI in die App-Benutzeroberfläche
- Lernen Sie Architekturmuster für KI-Anwendungen kennen
Verwenden Sie die Begleitanwendung, um mit historischen Charakteren zu sprechen
Was müssen Sie über LLMs wissen?
Große Sprachmodelle (LLMs) sind tiefe neurale Netzwerke, die auf großen Datenmengen trainiert werden, um Text durch tokenisierte Eingaben zu erkennen und zu generieren. LLMs werden zunächst durch Schulungen zu verschiedenen, umfangreichen Datasets – einem teuren Prozess – erstellt, um ein grundlegendes Modell zu erstellen, das dann mit spezialisierten Daten für eine höhere Qualität optimiert werden kann. In der Praxis funktionieren diese Modelle wie erweiterte AutoVervollständigen-Systeme, ob in einer typischen IDE oder über Chatschnittstellen, die detaillierte Aufforderungen befolgen. Sie sind jedoch durch Kontextfenster begrenzt (in der Regel einige tausend Token, obwohl neuere Modelle viel mehr unterstützen) und können Verzerrungen von ihren Schulungsdaten erben. Dies unterstreicht die Bedeutung verantwortungsvoller KI-Praktiken, z. B. der von Microsoft befürworteten Praktiken, die Fairness, Zuverlässigkeit, Datenschutz und Rechenschaftspflicht bei der KI-Entwicklung betonen.
Weitere Informationen finden Sie in der LLM-Sitzung des Kurses:
Essentielle Techniken des Prompt-Engineering
Eingabeaufforderungs-Engineering umfasst das Entwerfen und Optimieren von Eingabeaufforderungen zur Verbesserung von KI-Modellausgaben. In dieser Sitzung wird das Konzept mit Techniken wie Zero-Shot-Learning eingeführt, bei denen das Modell Antworten aus seinen Trainingsdaten ohne Beispiele generiert, und Few-Shot-Learning, bei dem Beispiele das gewünschte Ergebnis leiten. Der Sprecher veranschaulicht, wie das Hinzufügen von Hinweisen ( z. B. Gedankenkette-Ausdrücke) zur Schrittweisen Begründung, klaren Anweisungen, Kontext und sogar zum Angeben von Ausgabeformaten die Antworten des Modells erheblich verbessern kann. Wenn Sie ein Szenario mit einem KI-Assistenten für Contoso Shoes verwenden, werden verschiedene Änderungen wie Tonanpassungen und Personalisierung gezeigt, um die Ergebnisse weiter zu verfeinern und die Phase für komplexere Techniken wie RAG in der nächsten Sitzung festzulegen.
Erfahren Sie mehr in der Prompt Engineering-Sitzung des Kurses:
Verbessern der KI-Genauigkeit und Zuverlässigkeit mit RAG
Verbessern Sie die KI-Genauigkeit und Zuverlässigkeit mithilfe von Retrieval Augmented Generation (RAG). RAG überwindet Einschränkungen herkömmlicher großer Sprachmodelle, indem ein Retriever kombiniert wird, der relevante, up-to-Datumsdokumente aus einer Wissensbasis mit einem Generator abruft, der antworten kann, basierend auf diesem spezifischen Kontext. Diese Methode sorgt für sachliche, transparente Antworten, indem die Ausgabe in vertrauenswürdigen Quellen geerdet wird, wodurch sie sowohl kostenwirksam als auch überprüfbar ist. Ein praktisches Beispiel mit Contoso-Immobilienunterstützung zeigt, wie RAG detaillierte, zitierte Antworten mithilfe von Unternehmensdokumenten effektiv bereitstellen kann, um seine Antworten zu sichern.
Erfahren Sie mehr in der RAG-Sitzung des Kurses:
Beschleunigen Sie Ihre KI-Entwicklung mit LangChain.js
Beschleunigen Sie Ihre KI-Entwicklung mithilfe von LangChain.js– einer JavaScript-Bibliothek, die das Arbeiten mit großen Sprachmodellen optimiert. LangChain.js bietet allgemeine Abstraktionen zum Erstellen von Eingabeaufforderungsvorlagen, zum Verwalten von Modell- und Vektordatenbankkomponenten und zum Erstellen komplexer Workflows. Das Framework ermöglicht eine schnelle Prototyperstellung, z. B. das Erstellen einer API, die YouTube-Transkripte extrahiert und verarbeitet, um Fragen zu beantworten, und vereinfacht den Übergang von der lokalen Entwicklung zur Produktion in Azure, indem einfache Komponententauschs ermöglicht werden, z. B. das Ersetzen lokaler Modelle und Vektorspeicher durch Azure-Dienste.
Weitere Informationen erhalten Sie in der LangChain.js Session des Kurses:
Führen Sie KI-Modelle auf Ihrem lokalen Computer mit Ollama aus
Laden Sie lokale KI-Modelle mit Ollama herunter und verwenden Sie sie – ein Open-Source-Tool, das auf llama.cpp basiert – um kleine Sprachmodelle wie Phi-3 effizient auszuführen. Lokale Modelle vermeiden die Abhängigkeit von der Cloudinfrastruktur, ermöglichen eine schnelle Entwicklung mit Offlinefunktionen und bieten kostengünstige Tests über eine schnelle interne Entwicklungsschleife. Phi-3, bekannt für seine hohe Leistung und verantwortungsvolle KI-Sicherheit, kann sogar auf moderaten Geräten ausgeführt werden und ist über eine OpenAI-kompatible API zugänglich und erleichtert die Integration in Ihren Entwicklungsworkflow.
Erfahren Sie mehr in der Ollama-Sitzung des Kurses:
Erste Schritte mit KI kostenlos mit Phi-3
Experimentieren Sie mit KI-Modellen mit dem Ollama-Tool und dem Phi-3-Modell direkt von Ihrem Browser über einen Online-Spielplatz. Durch das Erstellen eines GitHub Codespace können Sie mit einem vertrauten VS Code-Editor in Ihrem Browser interagieren, Befehle wie Ollama run phi3 im Terminal ausführen, um mit dem Modell zu chatten, und ein interaktives Jupyter-Notizbuch zum Ausführen von Codeblöcken verwenden, die Prompt-Engineering, Few-Shot-Learning und abrufunterstützte Generierung über eine OpenAI-kompatible API veranschaulichen. Mit diesem Setup können Sie Ihre KI-Projekte vollständig online erkunden und entwickeln – keine notwendigkeit für eine schnelle GPU oder lokale Infrastruktur.
Erfahren Sie mehr in der Phi-3-Sitzung des Kurses:
Einführung in Azure KI Foundry
Azure AI Foundry ist wie das Gateway für Ihre Reise zum Erstellen von generativen KI-Anwendungen mit JavaScript. In dieser Sitzung werden wir untersuchen, wie die Foundry Ressourcen über Hubs und Projekte organisiert, einen umfassenden Modellkatalog mit Tausenden von Modellen von verschiedenen Anbietern bietet, und ein Modell bereitstellen, um es in einem interaktiven Playground zu testen. Unabhängig davon, ob Sie verwaltete Compute- oder serverlose API-Optionen auswählen, bleiben die Kernkonzepte konsistent, während Sie das Modell auswählen, bereitstellen und in Ihren Entwicklungsworkflow integrieren.
Erfahren Sie mehr in der Azure AI Foundry-Sitzung des Kurses:
Erstellen von generativen KI-Apps mit Azure Cosmos DB
Erfahren Sie mehr in der Azure Cosmos DB-Sitzung des Kurses:
Azure-Tools und -Dienste zum Hosten und Speichern von KI-Apps
Lernen Sie die wesentlichen Azure-Tools und -Dienste zum Hosten und Speichern Ihrer KI-Apps kennen. Wir untersuchen die verschiedenen Arten von KI-Apps, die Sie erstellen können – von Chat-Apps bis hin zu abruf-erweiterten Generierungen und autonomen Agenten – und besprechen die erforderlichen Tools, einschließlich der Azure Developer CLI (AZD) für die nahtlose Bereitstellung. Sie erfahren mehr über Architekturoptionen, das Abwägen von serverlosen und containerbasierten Ansätzen und die Verwaltung von APIs in der Produktion mit Überlegungen zu Sicherheit, Skalierung und Überwachung, um sicherzustellen, dass Ihre KI-Anwendungen robust und für die reale Nutzung bereit sind.
Weitere Informationen finden Sie in der Azure-Tools- und Dienstsitzung des Kurses:
Streaming der generativen KI-Ausgabe mit dem KI-Chatprotokoll
Erkunden Sie die generative Streaming-KI-Ausgabe mithilfe des AI-Chat-Protokolls, das die Echtzeitkommunikation zwischen Ihrem Back-End-KI-Schlussfolgedienst und den Clientanwendungen vereinfacht. Wir werden zwei Streaming-Ansätze überprüfen – Inferenz im Browser und über einen KI-Inferenzserver – und die Herausforderungen der API-Schlüsselexposition, der Datenbereinigung und der Protokollauswahl diskutieren. Mit dem einfachen Client des AI-Chatprotokolls und seinen synchronen (getCompletion) und asynchronen (getStreamedCompletion)-Methoden können Sie sicheres, effizientes und gut strukturiertes Streaming in Ihre KI-App integrieren, wie in unserem serverlosen RAG mit LangChain.js Beispiel gezeigt.
Erfahren Sie mehr in der Streaming-Sitzung des Kurses: