Partager via


Vue d’ensemble de l’IA générative pour JavaScript

Découvrez la puissance de l’IA générative avec JavaScript. Découvrez comment intégrer en toute transparence l’IA à vos applications web, mobiles ou de bureau.

JavaScript avec l’IA ?

Bien qu’il soit vrai que Python est probablement le meilleur langage pour créer, entraîner et affiner les modèles IA, il s’agit d’une histoire différente quand il s’agit de créer des applications à l’aide de ces modèles IA. La plupart des modèles IA sont consommés à l’aide d’API web. Cela signifie que n’importe quel langage pouvant effectuer des appels HTTP peut réellement effectuer l’IA. Étant donné que JavaScript est multiplateforme et offre une intégration transparente entre les environnements côté navigateur et côté serveur, il s’agit d’un excellent choix pour vos applications IA.

Cours amusant et interactif

Rejoignez-nous pour une expérience d’apprentissage immersive, notamment des vidéos, des projets de code et une implémentation complète pour utiliser et découvrir l’IA générative.

Ce cours est un excellent moyen pour les étudiants et les nouveaux développeurs d’apprendre l’IA de manière amusante et interactive. Pour les développeurs de carrière, explorez plus en détail votre mise à l’échelle vers l’IA.

Dans ce cours :

  • Apprenez l'IA tout en donnant vie à des figures historiques grâce à l'IA générative.
  • Appliquer l’accessibilité avec les API intégrées du navigateur
  • Utiliser la génération de texte et d’image pour intégrer l’IA à l’expérience de l’application
  • Découvrir des modèles architecturaux pour les applications IA

Image générée par l’IA de Leonardo Da Vinci utilisée dans l’application complémentaire pour parler aux personnages historiques.

Utiliser l’application complémentaire pour parler aux caractères historiques

Que devez-vous savoir sur les llMs ?

Les modèles de langage volumineux (LLMs), sont des réseaux neuronaux profonds formés sur de grandes quantités de données pour reconnaître et générer du texte par le biais d’entrées tokenisées. Les modules LLM sont créés par l’apprentissage initial sur des jeux de données variés et étendus ( un processus coûteux) pour créer un modèle fondamental, qui peut ensuite être affiné avec des données spécialisées pour une sortie de meilleure qualité. Dans la pratique, ces modèles fonctionnent comme des systèmes decomplétion automatique avancés, que ce soit dans un IDE classique ou via des interfaces de conversation qui suivent des invites détaillées. Toutefois, ils sont limités par les fenêtres de contexte (généralement quelques milliers de jetons, bien que les modèles plus récents en prennent en charge beaucoup plus) et peuvent hériter de biais de leurs données d’apprentissage. Cela souligne l’importance des pratiques d’IA responsables, telles que celles défendues par Microsoft, qui insistent sur l’équité, la fiabilité, la confidentialité et la responsabilité dans le développement de l’IA.

En savoir plus dans la session LLM du cours :

Techniques d’ingénierie d’invites essentielles

L’ingénierie des invites implique la conception et l’optimisation des invites pour améliorer les sorties du modèle IA. Dans cette session, le concept est introduit avec des techniques telles que l’apprentissage sans coup, où le modèle génère des réponses en utilisant ses données d’entraînement sans exemples, et l’apprentissage avec un petit nombre d’exemples, où des exemples guident le résultat souhaité. L’orateur montre comment ajouter des signaux, tels que des expressions de chaîne de pensée pour encourager le raisonnement pas à pas, des instructions claires, du contexte et même la spécification de formats de sortie, peuvent améliorer considérablement les réponses du modèle. Lorsque vous utilisez un scénario avec un assistant IA pour Contoso Shoes, diverses modifications telles que les ajustements de tonalité et la personnalisation sont montrées pour affiner davantage les résultats, en définissant la phase pour des techniques plus avancées telles que RAG dans la session suivante.

En savoir plus dans la session d’ingénierie rapide du cours :

Améliorer la précision et la fiabilité de l’IA avec RAG

Améliorez la précision et la fiabilité de l'IA à l'aide de la Génération Augmentée par Récupération (RAG). RAG résout les limitations des modèles de langage volumineux traditionnels en combinant un récupérateur qui extrait des documents pertinents, up-to-date à partir d’une base de connaissances avec un générateur qui fabrique des réponses basées sur ce contexte spécifique. Cette méthode garantit des réponses factuelles et transparentes en s'appuyant sur des sources fiables, ce qui la rend à la fois économique et vérifiable. Un exemple pratique avec le support immobilier de Contoso montre comment RAG peut efficacement fournir des réponses détaillées, citées à l’aide de documents d’entreprise pour étayer ses réponses.

En savoir plus dans la session RAG du cours :

Accélérer votre développement IA avec LangChain.js

Accélérez votre développement IA à l’aide de LangChain.js: une bibliothèque JavaScript qui simplifie l’utilisation de modèles de langage volumineux. LangChain.js fournit des abstractions de haut niveau pour la création de modèles de questions, pour la gestion des composants des modèles et des bases de données vectorielles, ainsi que pour l’élaboration de flux de travail complexes. L’infrastructure permet un prototypage rapide, comme la création d’une API qui extrait et traite des transcriptions YouTube pour répondre aux questions et simplifie la transition du développement local à la production sur Azure en permettant des échanges de composants faciles, comme le remplacement de modèles locaux et de magasins vectoriels par des services Azure.

En savoir plus dans la sessionLangChain.js du cours :

Exécuter des modèles IA sur votre ordinateur local avec Ollama

Téléchargez et utilisez des modèles IA locaux avec Ollama, un outil open source basé sur llama.cpp, pour exécuter efficacement de petits modèles linguistiques comme Phi-3. Les modèles locaux éliminent la dépendance à l’infrastructure cloud, permettent un développement rapide avec des fonctionnalités hors connexion et offrent des tests rentables via une boucle de développement interne rapide. Phi-3, noté pour ses hautes performances et sa sécurité de l’IA responsable, peut s’exécuter même sur des appareils modérés et est accessible via une API compatible OpenAI, ce qui facilite l’intégration à votre flux de travail de développement.

En savoir plus dans la session Ollama du cours :

Commencez gratuitement avec l’IA grâce à Phi-3

Expérimentez avec des modèles IA à l’aide de l’outil Ollama et du modèle Phi-3 directement à partir de votre navigateur via un terrain de jeu en ligne. En créant un GitHub Codespace, vous pouvez interagir avec un éditeur VS Code familier dans votre navigateur, exécuter des commandes telles que Ollama exécuter phi3 dans le terminal pour discuter avec le modèle et utiliser un bloc-notes Jupyter interactif pour exécuter des blocs de code qui illustrent l’ingénierie rapide, l’apprentissage à quelques coups et la génération augmentée par récupération via une API compatible OpenAI. Cette configuration vous permet d’explorer et de développer vos projets IA entièrement en ligne, sans avoir besoin d’une infrastructure GPU ou locale rapide.

En savoir plus dans la session Phi-3 du cours :

Présentation d’Azure AI Foundry

Azure AI Foundry est comme la passerelle pour votre parcours dans la création d’applications IA génératives avec JavaScript. Dans cette session, nous allons découvrir comment Foundry organise les ressources par le biais de hubs et de projets, plongez dans un catalogue de modèles enrichi comprenant des milliers de modèles de différents fournisseurs et déployons un modèle pour le tester dans un terrain de jeu interactif. Que vous choisissiez des options de calcul managées ou d’API serverless, les concepts de base restent cohérents lorsque vous sélectionnez, déployez et intégrez le modèle à votre flux de travail de développement.

Pour en savoir plus, consultez la session Azure AI Foundry du cours :

Création d’applications IA génératives avec Azure Cosmos DB

En savoir plus dans la session Azure Cosmos DB du cours :

Outils Et services Azure pour l’hébergement et le stockage d’applications IA

Découvrez les outils et services Azure essentiels pour l’hébergement et le stockage de vos applications IA. Nous allons explorer les différents types d’applications IA que vous pouvez créer, des applications de conversation à des agents de génération augmentée et autonomes de récupération, et discuter des outils nécessaires, y compris l’interface de ligne de commande Azure Developer (AZD) pour un déploiement transparent. Vous découvrirez les options architecturales, le pesage des approches serverless et basées sur des conteneurs et la gestion des API en production avec des considérations relatives à la sécurité, à la mise à l’échelle et à la surveillance, ce qui garantit que vos applications IA sont robustes et prêtes à être utilisées dans le monde réel.

Pour en savoir plus, consultez la session outils et services Azure du cours :

Diffusion en continu de la sortie IA générative à l'aide du protocole AI Chat

Explorez la sortie d'IA générative en streaming à l’aide du protocole d'IA Chat, ce qui simplifie la communication en temps réel entre votre service d’inférence IA de back-end et les applications clientes. Nous allons passer en revue deux approches de diffusion en continu ( inférence dans le navigateur et via un serveur d’inférence IA) en examinant les défis liés à l’exposition des clés API, à l’assainissement des données et à la sélection du protocole. Avec le client léger du protocole AI Chat et ses méthodes synchrones (getCompletion) et asynchrones (getStreamedCompletion), vous pouvez facilement intégrer un streaming sécurisé, efficace et bien structuré dans votre application IA, comme illustré dans l'exemple de notre RAG sans serveur avec l'échantillon LangChain.js.

Pour en savoir plus, consultez la session streaming du cours :