Nota
O acceso a esta páxina require autorización. Pode tentar iniciar sesión ou modificar os directorios.
O acceso a esta páxina require autorización. Pode tentar modificar os directorios.
Use JavaScript para crear características de IA generativas en las aplicaciones web, móviles y de escritorio. En esta introducción se resaltan los conceptos básicos, las herramientas y los recursos de aprendizaje que le ayudarán a empezar.
¿Por qué usar JavaScript para IA?
Python es una opción común para entrenar modelos de inteligencia artificial, pero la mayoría de los desarrolladores de aplicaciones usan modelos a través de api web. Dado que JavaScript se ejecuta en exploradores y servidores y controla bien las llamadas HTTP, es una opción práctica para compilar aplicaciones de inteligencia artificial.
Tome el curso complementario
Use el curso complementario para aprender a través de vídeos, proyectos de código y un ejemplo completo de un extremo a otro.
Si es estudiante o desarrollador nuevo, este curso le ofrece una manera práctica de aprender inteligencia artificial. Si ya crea aplicaciones profesionalmente, le ayuda a profundizar en sus aptitudes de inteligencia artificial.
En este curso, usted:
- Aprenda sobre inteligencia artificial mientras da vida a figuras históricas con IA generativa.
- Aplique la accesibilidad mediante las API del explorador integradas.
- Use la generación de texto e imágenes para integrar la inteligencia artificial en la experiencia de la aplicación.
- Obtenga información sobre los patrones arquitectónicos de las aplicaciones de inteligencia artificial.
Uso de la aplicación complementaria para hablar con caracteres históricos
Qué saber sobre los MODELOS DE LENGUAJE A GRAN ESCALA
Los modelos de lenguaje grande (LLM) son redes neuronales entrenadas en conjuntos de datos grandes para comprender y generar texto. El entrenamiento suele comenzar con un modelo base amplio y, a continuación, agrega ajuste preciso para tareas específicas. Los LLM pueden ayudar con escenarios como la finalización de código y el chat, pero también tienen límites, incluidas las ventanas contextuales y el posible sesgo en los datos de entrenamiento. Es por eso que las prácticas de inteligencia artificial responsables, como la equidad, la confiabilidad, la privacidad y la responsabilidad son importantes.
Obtenga más información en la sesión de LLM del curso:
Uso de técnicas de ingeniería de avisos
La ingeniería de avisos es la práctica de escribir mensajes que guían el modelo hacia mejores resultados. Use avisos de captura cero cuando no necesite ejemplos o avisos de pocas capturas cuando los ejemplos le ayuden. Las instrucciones claras, el contexto pertinente y los formatos de salida explícitos a menudo mejoran las respuestas y le preparan para patrones más avanzados, como RAG.
Obtenga más información en la sesión de ingeniería de avisos del curso:
Mejora de la precisión y confiabilidad de la inteligencia artificial con RAG
Utilizar la generación aumentada de recuperación (RAG) para basar las respuestas del modelo en datos de confianza actuales. RAG combina un recuperador que busca contenido relevante con un generador que usa ese contenido para responder a preguntas. Este enfoque puede mejorar la precisión, hacer que las respuestas sean más fáciles de comprobar y controlar los costos. Por ejemplo, una aplicación de soporte técnico inmobiliario puede usar documentos de la empresa para responder a preguntas detalladas de los clientes.
Aprenda más en la sesión RAG del curso:
Acelerar el desarrollo de inteligencia artificial con LangChain.js
Acelere los proyectos de inteligencia artificial con LangChain.js. Esta biblioteca de JavaScript le ayuda a crear plantillas de solicitud, conectar modelos y almacenes de vectores y crear flujos de trabajo complejos. Funciona bien para crear prototipos rápidos, como una API que responde a preguntas de transcripciones de YouTube. Cuando esté listo para producción, puede intercambiar modelos locales y almacenes de vectores para los servicios de Azure sin volver a escribir la aplicación.
Obtenga más información en la sesiónLangChain.js del curso:
Ejecución de modelos de IA en la máquina local con Ollama
Use Ollama para ejecutar modelos de IA locales, incluido Phi-3, en la máquina. Los modelos locales reducen las dependencias en la nube, admiten el desarrollo sin conexión y acortan el bucle interno mientras prueba ideas. Dado que Ollama expone una API compatible con OpenAI, puede integrarla en flujos de trabajo de JavaScript existentes con cambios mínimos.
Obtenga más información en la sesión de Ollama del curso:
Introducción a la inteligencia artificial de forma gratuita
Puede ejecutar ia de forma gratuita mediante Foundry Local, que le permite descargar modelos de IA e interactuar con ellos localmente. También hay AI Toolkit para Visual Studio Code, una extensión que admite la descarga del modelo, el ajuste preciso y mucho más. Ollama es otra opción popular para ejecutar modelos locales.
También puede probar modelos sin ninguna configuración local creando un Codespace en GitHub y utilizando un cuaderno de Jupyter para probar la ingeniería de prompts, el aprendizaje con pocos ejemplos y RAG.
Obtenga más información en la sesión Phi-3 del curso:
Introducción a Microsoft Foundry
Use Microsoft Foundry para empezar a crear aplicaciones de IA generativas con JavaScript. Organice los recursos con centros y proyectos, examine los modelos e implemente un modelo para probarlo en un área de juegos. Tanto si usa api de proceso administradas como sin servidor, el flujo de trabajo permanece igual: elija un modelo, impleméntelo e intégrelo en la aplicación.
Obtenga más información en la sesión Foundry del curso:
Creación de aplicaciones de IA generativas con Azure Cosmos DB
Obtenga más información en la sesión de Azure Cosmos DB del curso:
Herramientas y servicios de Azure para hospedar y almacenar aplicaciones de IA
Obtenga información sobre qué herramientas y servicios de Azure se ajustan a las arquitecturas comunes de aplicaciones de IA, incluidas las aplicaciones de chat, las aplicaciones RAG y los agentes autónomos. En esta sesión también se muestra cómo usar la CLI para desarrolladores de Azure (AZD) para implementar aplicaciones y comparar las opciones de hospedaje sin servidor y basadas en contenedores.
Obtenga más información en la sesión de herramientas y servicios de Azure del curso:
Transmisión de salidas de IA generativa con el Protocolo de Chat con IA
Use el protocolo de chat de IA para admitir la comunicación en tiempo real entre el servicio de IA y las aplicaciones cliente. Puede transmitir respuestas desde el explorador o desde un servidor de inferencia de IA, en función de la arquitectura. A medida que implementa streaming, planee la protección de claves de API, la seguridad de los datos y la elección del protocolo. El cliente de protocolo admite métodos como getCompletion y getStreamedCompletion, como se muestra en el RAG sin servidor con LangChain.js ejemplo.
Obtenga más información en la sesión de streaming del curso: