Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Utilisez JavaScript pour créer des fonctionnalités d’IA génératives dans vos applications web, mobiles et de bureau. Cette vue d’ensemble met en évidence les principaux concepts, outils et ressources d’apprentissage pour vous aider à commencer.
Pourquoi utiliser JavaScript pour l’IA ?
Python est un choix courant pour l’apprentissage des modèles IA, mais la plupart des développeurs d’applications utilisent des modèles par le biais d’API web. Étant donné que JavaScript s’exécute sur les navigateurs et les serveurs et gère bien les appels HTTP, il s’agit d’un choix pratique pour créer des applications IA.
Suivre le cours complémentaire
Utilisez le cours complémentaire pour découvrir des vidéos, des projets de code et un exemple complet de bout en bout.
Si vous êtes étudiant ou nouveau développeur, ce cours vous donne un moyen pratique d’apprendre l’IA. Si vous créez déjà des applications professionnellement, cela vous aide à approfondir vos compétences ia.
Dans ce cours, vous :
- Apprenez l’IA tout en faisant revivre des figures historiques grâce à l’IA générative.
- Appliquez l’accessibilité à l’aide d’API de navigateur intégrées.
- Utilisez la génération de texte et d’image pour intégrer l’IA à l’expérience de l’application.
- Découvrez les modèles architecturaux pour les applications IA.
Utiliser l’application complémentaire pour parler aux caractères historiques
Qu’est-ce que vous devez savoir sur les llMs ?
Les modèles de langage volumineux sont des réseaux neuronaux formés sur des jeux de données volumineux pour comprendre et générer du texte. L’entraînement commence généralement par un modèle de base large, puis ajoute un réglage précis pour des tâches spécifiques. LlMs peut vous aider dans des scénarios tels que la saisie semi-automatique du code et la conversation, mais ils ont également des limites, notamment des fenêtres de contexte et des biais possibles dans les données d’apprentissage. C’est pourquoi les pratiques d’IA responsables telles que l’équité, la fiabilité, la confidentialité et la responsabilité sont importantes.
En savoir plus dans la session LLM du cours :
Utiliser des techniques de conception de consignes
L’ingénierie des incitations est la pratique de rédiger des incitations guidant le modèle vers de meilleurs résultats. Utilisez des invites de capture zéro lorsque vous n’avez pas besoin d’exemples ou d’invites à quelques captures lorsque des exemples vous aident. Des instructions claires, un contexte pertinent et des formats de sortie explicites améliorent souvent les réponses et vous préparent à des modèles plus avancés tels que RAG.
En savoir plus dans la session d’ingénierie rapide du cours :
Améliorer la précision et la fiabilité de l’IA avec RAG
Utilisez la génération d’extraction augmentée (RAG) pour baser les réponses du modèle dans les données actuelles et approuvées. RAG combine un récupérateur qui trouve du contenu pertinent avec un générateur qui utilise ce contenu pour répondre aux questions. Cette approche peut améliorer la précision, rendre les réponses plus faciles à vérifier et contrôler les coûts. Par exemple, une application de support immobilier peut utiliser des documents d’entreprise pour répondre aux questions détaillées des clients.
En savoir plus dans la session RAG du cours :
Accélérer votre développement IA avec LangChain.js
Accélérer vos projets IA avec LangChain.js. Cette bibliothèque JavaScript vous aide à créer des modèles de formulaires d’invite, à connecter des modèles et des banques vectorielles, et à composer des flux de travail complexes. Il fonctionne bien pour le prototypage rapide, tel qu’une API qui répond aux questions des transcriptions YouTube. Lorsque vous êtes prêt pour la production, vous pouvez échanger des modèles locaux et des magasins vectoriels pour les services Azure sans réécrire votre application.
En savoir plus dans la sessionLangChain.js du cours :
Exécuter des modèles IA sur votre ordinateur local avec Ollama
Utilisez Ollama pour exécuter des modèles IA locaux, y compris Phi-3, sur votre machine. Les modèles locaux réduisent les dépendances cloud, prennent en charge le développement hors connexion et raccourcissent votre boucle interne pendant que vous testez des idées. Étant donné que Ollama expose une API compatible OpenAI, vous pouvez l’intégrer dans des flux de travail JavaScript existants avec des modifications minimales.
En savoir plus dans la session Ollama du cours :
Commencez gratuitement avec l’IA
Vous pouvez exécuter l’IA gratuitement à l’aide de Foundry Local, qui vous permet de télécharger des modèles IA et d’interagir avec eux localement. Il existe également AI Toolkit pour Visual Studio Code, une extension qui prend en charge le téléchargement de modèle, le réglage précis et bien plus encore. Ollama est un autre choix populaire pour exécuter des modèles locaux.
Vous pouvez également essayer des modèles sans configuration locale en créant un espace de code GitHub et en utilisant un notebook Jupyter pour tester l’ingénierie rapide, l’apprentissage à quelques coups et RAG.
En savoir plus dans la session Phi-3 du cours :
Présentation de Microsoft Foundry
Utilisez Microsoft Foundry pour commencer à créer des applications IA génératives avec JavaScript. Organisez les ressources avec des hubs et des projets, parcourez des modèles et déployez un modèle pour tester dans un terrain de jeu. Que vous utilisiez des API de calcul managées ou serverless, le flux de travail reste le même : choisissez un modèle, déployez-le et intégrez-le à votre application.
Pour en savoir plus, consultez la session Foundry du cours :
Créer des applications IA génératives avec Azure Cosmos DB
En savoir plus dans la session Azure Cosmos DB du cours :
Outils et services Azure pour l’hébergement et le stockage d’applications IA
Découvrez quels outils et services Azure correspondent aux architectures courantes des applications IA, notamment les applications de conversation, les applications RAG et les agents autonomes. Cette session montre également comment utiliser Azure Developer CLI (AZD) pour déployer des applications et comparer les options d’hébergement serverless et basées sur des conteneurs.
Pour en savoir plus, consultez la session outils et services Azure du cours :
Diffusez le contenu généré par l'IA avec le protocole Chat d'IA.
Utilisez le protocole AI Chat pour prendre en charge la communication en temps réel entre votre service IA et vos applications clientes. Vous pouvez diffuser en continu des réponses à partir du navigateur ou à partir d’un serveur d’inférence IA, en fonction de votre architecture. Lorsque vous implémentez la diffusion en continu, planifiez la protection des clés d’API, la sécurité des données et le choix du protocole. Le client de protocole prend en charge des méthodes telles que getCompletion et getStreamedCompletion, comme indiqué dans le RAG serverless avec LangChain.js exemple.
Pour en savoir plus, consultez la session streaming du cours :