Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Importante
Esta característica actualmente está en su versión preliminar pública. Esta versión preliminar se ofrece sin un Acuerdo de Nivel de Servicio y no se recomienda para cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas.
Para más información, consulte Términos de uso complementarios de las Versiones Preliminares de Microsoft Azure.
La Generación aumentada de recuperación (RAG) es un patrón que funciona con modelos de lenguaje grandes (LLM) entrenados previamente y datos propios para generar respuestas. En Azure Machine Learning, ahora puede implementar RAG en un flujo de solicitudes. La compatibilidad con RAG se encuentra actualmente en versión preliminar pública.
En este artículo se enumeran algunas de las ventajas de RAG, se proporciona información general técnica y se describe la compatibilidad con RAG en Azure Machine Learning.
Nota:
¿No está familiarizado con los conceptos de LLM y RAG? En este clip de vídeo de una presentación de Microsoft se ofrece una explicación sencilla.
¿Por qué usar RAG?
Tradicionalmente, se entrena un modelo base con datos a un momento dado para garantizar su eficacia en la realización de tareas específicas y la adaptación al dominio deseado. Pero a veces es necesario trabajar con datos más recientes o más actuales. Dos enfoques pueden complementar el modelo base: la optimización o el entrenamiento adicional del modelo base con nuevos datos, o el RAG que usa la ingeniería de solicitudes para complementar o guiar el modelo en tiempo real.
El ajuste preciso es adecuado para la adaptación continua de dominios, lo que permite mejoras significativas en la calidad del modelo, pero a menudo implica mayores costos. Por el contrario, RAG ofrece un enfoque alternativo y permite usar el mismo modelo como motor de razonamiento sobre nuevos datos proporcionados en una solicitud. Esta técnica permite el aprendizaje en contexto sin necesidad de un ajuste costoso, lo que permite a las empresas usar LLM de forma más eficaz.
RAG permite a las empresas desarrollar soluciones personalizadas al tiempo que mantienen la relevancia de los datos y optimizan los costos. Al adoptar RAG, las empresas pueden usar las funcionalidades de razonamiento de los LLM y aprovechar sus modelos existentes para procesar y generar respuestas basadas en nuevos datos. RAG facilita las actualizaciones periódicas de datos sin necesidad de ajustarlas, lo que simplifica la integración de los LLM en las empresas.
- Suministro de datos complementarios como una directiva o una solicitud al LLM
- Adición de un componente de comprobación de hechos en los modelos existentes
- Entrene el modelo con datos actualizados sin incurrir en el tiempo y los costos adicionales asociados a la optimización
- Entrenamiento en datos específicos de la empresa
Introducción técnica al uso de RAG en modelos de lenguaje grande (LLM)
En la recuperación de información, RAG es un enfoque que le permite aprovechar el poder de los LLM con datos propios. La habilitación de un LLM para acceder a datos personalizados implica los pasos siguientes. En primer lugar, fragmenta los datos grandes en partes manejables. En segundo lugar, convierta los fragmentos en un formato que se puede buscar. En tercer lugar, almacene los datos convertidos en una ubicación que permita un acceso eficaz. Además, almacene metadatos relevantes para citas o referencias cuando el LLM proporciona respuestas.
Echemos un vistazo al diagrama con más detalle.
Datos de origen: estos datos existen en un archivo o carpeta de la máquina, un archivo en el almacenamiento en la nube, un recurso de datos de Azure Machine Learning, un repositorio de Git o una base de datos SQL.
Fragmentación de datos: convierta los datos del origen en texto sin formato. Por ejemplo, los documentos de word o los archivos PDF deben abrirse y convertirse en texto. A continuación, divida el texto en fragmentos más pequeños.
Convertir el texto en vectores: se denomina incrustaciones. Los vectores son representaciones numéricas de conceptos convertidos en secuencias numéricas, lo que facilita a los equipos comprender las relaciones entre esos conceptos.
Vínculos entre los datos de origen e incrustaciones: almacene esta información como metadatos en los fragmentos que cree. Úselo para ayudar a los LLM a generar citas al generar respuestas.
RAG con Azure Machine Learning (versión preliminar)
Azure Machine Learning habilita RAG mediante la integración con Azure OpenAI en Microsoft Foundry Models para modelos de lenguaje grande y vectorización. Admite Faiss y Azure AI Search (anteriormente Cognitive Search) como almacenes de vectores. También admite ofertas de código abierto, herramientas y marcos como LangChain para la fragmentación de datos.
Para implementar RAG, debe cumplir algunos requisitos clave. En primer lugar, dé formato a los datos de una manera que permita una búsqueda eficaz antes de enviarlos al LLM, lo que en última instancia reduce el consumo de tokens. Para garantizar la eficacia de RAG, actualice periódicamente los datos de forma periódica. Además, tener la capacidad de evaluar la salida del LLM mediante los datos le permite medir la eficacia de las técnicas. Azure Machine Learning no solo le permite empezar a trabajar fácilmente en estos aspectos, sino también mejorar RAG y ponerlo en producción. Ofertas de Azure Machine Learning:
- Ejemplos para iniciar escenarios de preguntas y respuestas basados en RAG.
- Experiencia de interfaz de usuario basada en asistentes para crear y administrar datos e incorporarlos en flujos de avisos.
- Capacidad para medir y mejorar los flujos de trabajo de RAG, incluida la generación de datos de prueba, la creación automática de mensajes y las métricas de evaluación de solicitudes visualizadas.
- Escenarios avanzados con más control mediante los nuevos componentes RAG integrados para crear canalizaciones personalizadas en cuadernos.
- Experiencia de código, que permite usar datos creados con ofertas de código abierto como LangChain.
- Integración perfecta de flujos de trabajo de RAG en flujos de trabajo de MLOps mediante canalizaciones y trabajos.
Conclusión
Azure Machine Learning permite incorporar RAG en la solución de inteligencia artificial mediante Azure Machine Learning Studio o escribiendo código con canalizaciones de Azure Machine Learning. Ofrece varias adiciones de valor como la capacidad de medir y mejorar los flujos de trabajo de RAG, la generación de datos de prueba, la creación automática de mensajes y la visualización de métricas de evaluación rápida. Permite la integración de flujos de trabajo de RAG en los de MLOps a través de canalizaciones. También puede usar los datos con ofertas de código abierto como LangChain.
Pasos siguientes
Uso de almacenes de vectores con Azure Machine Learning (versión preliminar)
Cómo crear un índice vectorial en el flujo de avisos de Azure Machine Learning (versión preliminar)