Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Entdecken Sie die Leistungsfähigkeit der generativen KI mit JavaScript. Erfahren Sie, wie Sie KI nahtlos in Ihre Web-, Mobil- oder Desktopanwendungen integrieren.
JavaScript mit KI?
Python eignet sich zwar hervorragend zum Erstellen und Trainieren von KI-Modellen, aber das Erstellen von Apps mit diesen Modellen unterscheidet sich. Die meisten KI-Modelle arbeiten über Web-APIs, sodass jede Sprache, die HTTP-Aufrufe tätigen kann, KI verwenden kann. JavaScript ist plattformübergreifend und verbindet Browser und Server einfach und macht sie zu einer starken Wahl für KI-Apps.
Spaß und interaktiver Kurs
Begleiten Sie uns für eine immersive Lernerfahrung mit Videos, Codeprojekten und einer vollständigen Implementierung, um generative KI sowohl zu verwenden als auch darüber zu lernen.
Dieser Kurs ist eine großartige Möglichkeit für Schüler und neue Entwickler, um auf unterhaltsame, interaktive Weise mehr über KI zu erfahren. Für Berufstätige, vertiefen Sie sich weiter in Ihre Weiterentwicklung im Bereich KI.
In diesem Kurs:
- Lernen Sie KI kennen, während Sie historische Figuren mit generierender KI zum Leben erwecken
- Anwenden von Barrierefreiheit mit den integrierten Browser-APIs
- Verwenden der Text- und Bildgenerierung zum Integrieren von KI in die App-Benutzeroberfläche
- Lernen Sie Architekturmuster für KI-Anwendungen kennen
Verwenden Sie die Begleitanwendung, um mit historischen Charakteren zu sprechen
Was müssen Sie über LLMs wissen?
Große Sprachmodelle (LLMs) sind tiefe neurale Netzwerke, die auf vielen Daten trainiert sind, um Text zu verstehen und zu erstellen. Die Schulung beginnt mit großen, vielfältigen Datasets, um ein Basismodell zu erstellen, und verwendet dann spezielle Daten, um bessere Ergebnisse zu erzielen. LLMs funktionieren wie intelligente AutoVervollständigen-Tools in Code-Editoren oder Chat-Apps. Modelle weisen Beschränkungen auf, z. B. Kontextfenster (in der Regel ein paar tausend Token, obwohl neuere Modelle mehr unterstützen) und Verzerrungen aus ihren Schulungsdaten zeigen können. Aus diesem Grund ist verantwortungsvolle KI wichtig – konzentrieren Sie sich auf Fairness, Zuverlässigkeit, Datenschutz und Rechenschaftspflicht, wie Microsoft empfiehlt.
Weitere Informationen finden Sie in der LLM-Sitzung des Kurses:
Essentielle Techniken des Prompt-Engineering
Prompt Engineering bedeutet, Aufforderungen zu entwerfen, um bessere KI-Ergebnisse zu erzielen. Sie können zero-shot Learning (keine Beispiele) oder ein paar Aufnahmen lernen (mit Beispielen), um das Modell zu leiten. Das Hinzufügen von Hinweisen wie Schrittweise Anleitungen, klarem Kontext und Ausgabeformaten hilft dem Modell, bessere Antworten zu geben. Sie können auch den Ton anpassen und Antworten personalisieren. Diese Grundlagen richten Sie für fortgeschrittene Techniken wie RAG ein.
Erfahren Sie mehr in der Prompt Engineering-Sitzung des Kurses:
Verbessern der KI-Genauigkeit und Zuverlässigkeit mit RAG
Verwenden Sie "Retrieval Augmented Generation(RAG)", um KI präziser und zuverlässiger zu machen. RAG kombiniert einen Retriever, der up-to-Datumsdokumente mit einem Generator findet, der diese Dokumente verwendet, um Fragen zu beantworten. Dieser Ansatz bietet klare, sachliche Antworten auf der Grundlage vertrauenswürdiger Quellen, wodurch Ergebnisse einfach zu überprüfen und kostenwirksam zu sein. Beispielsweise verwendet der Contoso-Immobiliensupport RAG, um detaillierte Antworten zu geben, die von Unternehmensdokumenten unterstützt werden.
Erfahren Sie mehr in der RAG-Sitzung des Kurses:
Beschleunigen Sie Ihre KI-Entwicklung mit LangChain.js
Beschleunigen Sie Ihre KI-Projekte mit LangChain.js. Diese JavaScript-Bibliothek erleichtert das Arbeiten mit großen Sprachmodellen. Verwenden Sie LangChain.js, um Eingabeaufforderungsvorlagen zu erstellen, Modelle und Vektordatenbanken zu verbinden und komplexe Workflows zu erstellen. Schnelle Prototyp-Apps, z. B. eine API, die Fragen aus YouTube-Transkripten abruft und beantwortet. Wenn Sie für die Produktion bereit sind, tauschen Sie lokale Modelle und Vektorspeicher für Azure-Dienste aus, ohne Ihren Code zu ändern.
Weitere Informationen erhalten Sie in der LangChain.js Session des Kurses:
Führen Sie KI-Modelle auf Ihrem lokalen Computer mit Ollama aus
Laden Sie lokale KI-Modelle mit Ollama herunter und verwenden Sie sie – ein Open-Source-Tool, das auf llama.cpp basiert – um kleine Sprachmodelle wie Phi-3 effizient auszuführen. Lokale Modelle vermeiden die Abhängigkeit von der Cloudinfrastruktur, ermöglichen eine schnelle Entwicklung mit Offlinefunktionen und bieten kostengünstige Tests über eine schnelle interne Entwicklungsschleife. Phi-3, bekannt für seine hohe Leistung und verantwortungsvolle KI-Sicherheit, kann sogar auf moderaten Geräten ausgeführt werden und ist über eine OpenAI-kompatible API zugänglich und erleichtert die Integration in Ihren Entwicklungsworkflow.
Erfahren Sie mehr in der Ollama-Sitzung des Kurses:
Erste Schritte mit KI kostenlos mit Phi-3
Probieren Sie KI-Modelle mit dem Ollama-Tool und dem Phi-3-Modell in Ihrem Browser mit einem Online-Playground aus. Erstellen Sie einen GitHub Codespace zur Verwendung von VS Code in Ihrem Browser, führen Sie Befehle wie "Ollama run phi3" aus, um mit dem Modell zu chatten, und verwenden Sie ein Jupyter-Notizbuch zum Testen von Eingabeaufforderungs-Engineering, wenigen Lernversuchen und RAG. Sie können KI-Projekte online erstellen und erkunden – keine notwendigkeit für eine schnelle GPU oder ein lokales Setup.
Erfahren Sie mehr in der Phi-3-Sitzung des Kurses:
Einführung in Azure KI Foundry
Verwenden Sie Azure AI Foundry, um mit dem Erstellen von generativen KI-Apps mit JavaScript zu beginnen. Organisieren Sie Ressourcen mit Hubs und Projekten, durchsuchen Sie Tausende von Modellen, und stellen Sie ein Modell zum Testen in einem Playground bereit. Unabhängig davon, ob Sie verwaltete Compute- oder serverlose APIs auswählen, führen Sie die gleichen Schritte aus, um Ihr Modell in Ihrem Workflow auszuwählen, bereitzustellen und zu verwenden.
Erfahren Sie mehr in der Azure AI Foundry-Sitzung des Kurses:
Erstellen von generativen KI-Apps mit Azure Cosmos DB
Erfahren Sie mehr in der Azure Cosmos DB-Sitzung des Kurses:
Azure-Tools und -Dienste zum Hosten und Speichern von KI-Apps
Entdecken Sie wichtige Azure-Tools und -Dienste zum Hosten und Speichern Ihrer KI-Apps. Erstellen Sie verschiedene Arten von KI-Apps, z. B. Chat-Apps, RAG und autonome Agents. Verwenden Sie die Azure Developer CLI (AZD), um die Bereitstellung einfach zu erleichtern. Vergleichen Sie serverlose und containerbasierte Optionen, und erfahren Sie, wie Sie Ihre APIs sicher, skalierbar und für die reale Verwendung überwachen.
Weitere Informationen finden Sie in der Azure-Tools- und Dienstsitzung des Kurses:
Streaming der generativen KI-Ausgabe mit dem KI-Chatprotokoll
Streamen Sie eine generative KI-Ausgabe mit dem AI-Chatprotokoll. Dieses Tool erleichtert die Echtzeitkommunikation zwischen Ihrem KI-Dienst und Client-Apps. Probieren Sie zwei Streamingmethoden aus: Führen Sie eine Ableitung im Browser aus, oder verwenden Sie einen KI-Rückschlussserver. Achten Sie auf api key exposure, data safety, and choosing the right protocol. Mit dem einfachen Client des AI Chat Protocol können Sie Ihrer App sicheres und effizientes Streaming mit getCompletion- und getStreamedCompletion-Methoden hinzufügen, wie in unserem serverlosen RAG mit LangChain.js Beispiel gezeigt.
Erfahren Sie mehr in der Streaming-Sitzung des Kurses: