Implementación de ingeniería de inteligencia artificial generativa con Azure Databricks
En un vistazo
-
Nivel
-
Habilidad
-
Producto
La ingeniería de inteligencia artificial generativa (AI) con Azure Databricks usa las funcionalidades de la plataforma para explorar, ajustar, evaluar e integrar modelos de lenguaje avanzados. Mediante la escalabilidad de Apache Spark y el entorno de colaboración de Azure Databricks, puede diseñar sistemas complejos de inteligencia artificial.
Requisitos previos
Antes de iniciar este módulo, debe estar familiarizado con los conceptos fundamentales de inteligencia artificial y Azure Databricks. Considere la posibilidad de completar primero la ruta de aprendizaje Introducción a la inteligencia artificial y el módulo Exploración de Azure Databricks.
Código de logros
¿Desea solicitar un código de logro?
Módulos en esta ruta de aprendizaje
Los modelos de lenguaje grande (LLM) han revolucionado varios sectores al habilitar funcionalidades avanzadas de procesamiento de lenguaje natural (NLP). Estos modelos de lenguaje se usan en una amplia gama de aplicaciones, como el resumen de texto, el análisis de opiniones, la traducción de idioma, la clasificación de captura cero y el aprendizaje de pocas capturas.
La generación aumentada de recuperación (RAG) es una técnica avanzada en el procesamiento de lenguaje natural que mejora las capacidades de los modelos generativos mediante la integración de mecanismos de recuperación de información externa. Cuando se usan modelos generativos y sistemas de recuperación, RAG captura dinámicamente información relevante de orígenes de datos externos para aumentar el proceso de generación, lo que da lugar a salidas más precisas y contextualmente relevantes.
Los sistemas de razonamiento en varias fases desglosan problemas complejos en varias fases o pasos, con cada fase centrada en una tarea de razonamiento específica. La salida de una fase actúa como entrada para el siguiente, lo que permite un enfoque más estructurado y sistemático para resolver problemas.
El ajuste preciso usa conocimientos generales de modelos de lenguaje grande (LLM) para mejorar el rendimiento en tareas específicas, lo que permite a las organizaciones crear modelos especializados que sean más precisos y relevantes, a la vez que se ahorran recursos y tiempo en comparación con el entrenamiento desde cero.
Aprenda a comparar los modelos de lenguaje grande (LLM) y las evaluaciones tradicionales de Machine Learning (ML), comprender su relación con la evaluación del sistema de IA y explorar varias métricas de evaluación de LLM y evaluaciones específicas relacionadas con tareas.
Al trabajar con modelos de lenguaje de gran tamaño (LLM) en Azure Databricks, es importante comprender los principios de IA responsable para la implementación, las consideraciones éticas y cómo mitigar los riesgos. En función de los riesgos identificados, aprenda a implementar herramientas de seguridad clave para los modelos de lenguaje.
Optimice la implementación de modelos de lenguaje grande (LLM) con LLMOps (operaciones LLM) en Azure Databricks. Obtenga información sobre cómo implementar y administrar LLM a lo largo de su ciclo de vida mediante Azure Databricks.