Compartir a través de


Introducción a la IA generativa para JavaScript

Descubra la eficacia de Generative AI con JavaScript. Aprenda a integrar sin problemas la inteligencia artificial en las aplicaciones web, móviles o de escritorio.

¿JavaScript con IA?

Aunque es cierto que Python es probablemente el mejor lenguaje para crear, entrenar y ajustar modelos de IA, es una historia diferente cuando se trata de crear aplicaciones con estos modelos de IA. La mayoría de los modelos de inteligencia artificial se consumen mediante las API web. Esto significa que cualquier lenguaje que pueda realizar llamadas HTTP realmente puede hacer inteligencia artificial. Dado que JavaScript es multiplataforma y proporciona una integración perfecta entre el explorador y los entornos del lado servidor, es una excelente opción para las aplicaciones de inteligencia artificial.

Curso divertido e interactivo

Únase a nosotros para obtener una experiencia de aprendizaje inmersiva, incluidos vídeos, proyectos de código y una implementación completa para usar y aprender sobre la inteligencia artificial generativa.

Este curso es una excelente manera de que los estudiantes y los nuevos desarrolladores aprendan sobre la inteligencia artificial de una manera divertida e interactiva. En el caso de los desarrolladores profesionales, profundice en el escalado de la inteligencia artificial.

En este curso:

  • Aprende sobre IA mientras das vida a figuras históricas con IA generativa
  • Aplicación de accesibilidad con las API del explorador integradas
  • Uso de la generación de texto e imágenes para integrar la inteligencia artificial en la experiencia de la aplicación
  • Aprender patrones arquitectónicos para aplicaciones de INTELIGENCIA ARTIFICIAL

Imagen generada por ia de Leonardo Da Vinci usada en la aplicación complementaria para hablar con personajes históricos.

Uso de la aplicación complementaria para hablar con caracteres históricos

¿Qué necesita saber sobre las MÁQUINAS VIRTUALES?

Los modelos de lenguaje grande (LLM) son redes neuronales profundas entrenadas en grandes cantidades de datos para reconocer y generar texto a través de entradas tokenizadas. Los LLM se crean al entrenar inicialmente en diversos conjuntos de datos extensos (un proceso costoso) para crear un modelo fundamental, que luego se puede ajustar con datos especializados para obtener una salida de mayor calidad. En la práctica, estos modelos funcionan como sistemas avanzados de autocompletar, ya sea en un IDE típico o a través de interfaces de chat que siguen indicaciones detalladas. Sin embargo, están limitados por ventanas de contexto (normalmente unos pocos miles de tokens, aunque los modelos más recientes admiten mucho más) y pueden heredar sesgos de sus datos de entrenamiento. Esto subraya la importancia de las prácticas de inteligencia artificial responsables, como las que promueve Microsoft, que subrayan la imparcialidad, la confiabilidad, la privacidad y la responsabilidad en el desarrollo de inteligencia artificial.

Obtenga más información en la sesión de LLM del curso:

Técnicas esenciales de ingeniería de avisos

La ingeniería de avisos implica diseñar y optimizar las indicaciones para mejorar las salidas del modelo de IA. En esta sesión, el concepto se presenta con técnicas como el aprendizaje de disparos cero, donde el modelo genera respuestas mediante sus datos de entrenamiento sin ejemplos y el aprendizaje de pocas capturas, donde los ejemplos guían el resultado deseado. El orador muestra cómo agregar indicaciones (como frases de cadena de pensamiento para fomentar el razonamiento paso a paso, instrucciones claras, contexto e incluso especificar formatos de salida) puede mejorar significativamente las respuestas del modelo. Cuando usas un escenario con un asistente de IA para Contoso Shoes, se presentan diversas modificaciones, como ajustes de tono y personalización, para refinar aún más los resultados, preparando el camino para técnicas más avanzadas como RAG en la siguiente sesión.

Obtenga más información en la sesión de ingeniería de avisos del curso:

Mejora de la precisión y confiabilidad de la inteligencia artificial con RAG

Mejorar la precisión y confiabilidad de la inteligencia artificial mediante la generación aumentada de recuperación (RAG). RAG supera las limitaciones de los modelos de lenguaje grandes tradicionales mediante la combinación de un recuperador que extrae documentos relevantes, up-to-date de una base de conocimiento con un generador que crea respuestas basadas en ese contexto específico. Este método garantiza respuestas fácticas y transparentes estableciendo la salida en orígenes de confianza, lo que hace que sea rentable y verificable. Un ejemplo práctico con el apoyo inmobiliario de Contoso muestra cómo RAG puede proporcionar respuestas detalladas y citadas mediante documentos de la empresa para respaldar sus respuestas.

Aprenda más en la sesión RAG del curso:

Acelerar el desarrollo de inteligencia artificial con LangChain.js

Acelere el desarrollo de inteligencia artificial mediante LangChain.js, una biblioteca de JavaScript que optimice el trabajo con modelos de lenguaje grandes. LangChain.js proporciona abstracciones de alto nivel para crear plantillas de aviso, administrar componentes de base de datos vectoriales y modelo y crear flujos de trabajo complejos. El marco permite crear prototipos rápidos, como la creación de una API que extrae y procesa transcripciones de YouTube para responder a preguntas y simplifica la transición del desarrollo local a la producción en Azure al permitir intercambios de componentes sencillos, como reemplazar modelos locales y almacenes vectoriales por servicios de Azure.

Obtenga más información en la sesiónLangChain.js del curso:

Ejecución de modelos de IA en la máquina local con Ollama

Descargue y use modelos de inteligencia artificial locales con Ollama( una herramienta de código abierto basada en llama.cpp) para ejecutar modelos de lenguaje pequeños de forma eficaz, como Phi-3. Los modelos locales eliminan la dependencia de la infraestructura en la nube, permiten el desarrollo rápido con funcionalidades sin conexión y ofrecen pruebas rentables a través de un bucle de desarrollo interno rápido. Phi-3, conocido por su alto rendimiento y seguridad de inteligencia artificial responsable, puede ejecutarse incluso en dispositivos de especificación moderada y es accesible a través de una API compatible con OpenAI, lo que facilita la integración con el flujo de trabajo de desarrollo.

Obtenga más información en la sesión de Ollama del curso:

Introducción a la inteligencia artificial de forma gratuita mediante Phi-3

Experimente con modelos de IA mediante la herramienta Ollama y el modelo Phi-3 directamente desde su navegador a través de un área de juegos en línea. Mediante la creación de un espacio de código de GitHub, puede interactuar con un conocido editor de VS Code en el explorador, ejecutar comandos como Ollama run phi3 en el terminal para chatear con el modelo y usar un cuaderno interactivo de Jupyter Notebook para ejecutar bloques de código que muestran ingeniería rápida, pocos aprendizajes y generación aumentada de recuperación a través de una API compatible con OpenAI. Esta configuración le permite explorar y desarrollar sus proyectos de inteligencia artificial completamente en línea, sin necesidad de una GPU rápida ni una infraestructura local.

Obtenga más información en la sesión Phi-3 del curso:

Introducción a Azure AI Foundry

Azure AI Foundry es como la puerta de enlace para su recorrido hacia la creación de aplicaciones de IA generativas con JavaScript. En esta sesión, exploraremos cómo Foundry organiza los recursos a través de centros y proyectos, profundizaremos en un catálogo de modelos enriquecido con miles de modelos de varios proveedores e implementaremos un modelo para probarlo en un área de juegos interactiva. Tanto si eliges opciones de cómputo gestionado como API sin servidor, los conceptos básicos siguen siendo coherentes al seleccionar, implementar e integrar el modelo en tu flujo de trabajo de desarrollo.

Obtenga más información en la sesión de Azure AI Foundry del curso:

Creación de aplicaciones de IA generativas con Azure Cosmos DB

Obtenga más información en la sesión de Azure Cosmos DB del curso:

Herramientas y servicios de Azure para hospedar y almacenar aplicaciones de INTELIGENCIA ARTIFICIAL

Conozca las herramientas y servicios esenciales de Azure para hospedar y almacenar las aplicaciones de INTELIGENCIA ARTIFICIAL. Exploraremos los diferentes tipos de aplicaciones de inteligencia artificial que puede compilar( desde aplicaciones de chat hasta la generación aumentada de recuperación y agentes autónomos) y analizaremos las herramientas necesarias, incluida la CLI para desarrolladores de Azure (AZD) para una implementación sin problemas. Obtendrá información sobre las opciones de arquitectura, el pesaje de los enfoques sin servidor frente a los basados en contenedores y cómo administrar las API en producción con consideraciones sobre seguridad, escalado y supervisión, lo que garantiza que las aplicaciones de inteligencia artificial sean sólidas y listas para su uso real.

Obtenga más información en la sesión de herramientas y servicios de Azure del curso:

Transmisión de la salida de inteligencia artificial generativa con el protocolo de chat de IA

Explora la salida de la IA generativa en streaming mediante el Protocolo de Chat de IA, lo que simplifica la comunicación en tiempo real entre tu servicio de inferencia de IA en el back-end y las aplicaciones de cliente. Revisaremos dos enfoques de streaming: inferencia en el navegador y a través de un servidor de inferencia de IA, analizando los desafíos de la exposición de claves de API, la sanitización de datos y la selección de protocolos. Con el cliente ligero del protocolo de chat de IA y sus métodos sincrónicos (getCompletion) y asincrónicos (getStreamedCompletion), puede integrar fácilmente el streaming seguro, eficaz y bien estructurado en su aplicación de IA, como se demuestra en el ejemplo de RAG sin servidor LangChain.js.

Obtenga más información en la sesión de streaming del curso: