Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las operaciones de carga de trabajo de IA se centran en la conservación de los datos y el consumo de esos datos. Las operaciones garantizan la eficacia para lograr y mantener la calidad, confiabilidad, seguridad, ética y otros estándares que se priorizan para la carga de trabajo.
Las tareas de carga de trabajo se pueden clasificar en tres áreas principales: desarrollo de aplicaciones, control de datos y administración de modelos de IA. Cada categoría debe adoptar metodologías operativas probadas en el sector, como DevOps, DataOps, MLOps y GenAIOps.
Las actividades de DevOps abarcan toda la administración del ciclo de vida de desarrollo de aplicaciones a través de canalizaciones automatizadas de integración e implementación continuas (CI/CD) y supervisión. Sin embargo, para las cargas de trabajo de IA, la canalización de datos es uno de los componentes principales. DataOps, una especialización de DevOps, se centra en administrar el ciclo de vida de los datos mediante la optimización de procesos como la extracción de datos, la transformación y la carga (ETL/ELT). Los profesionales de DataOps suelen medir el rendimiento del flujo de datos y la eficacia de la limpieza de datos y supervisar la canalización para detectar anomalías.
Las cargas de trabajo de IA son intrínsecamente no deterministas. Muchos modelos de inteligencia artificial son propensos a producir respuestas diferentes para la misma consulta durante la inferencia. Estas cargas de trabajo necesitan procesos que puedan administrar y adaptarse a la imprevisibilidad de los resultados de IA. DataOps se extiende a MLOps, que operacionaliza los flujos de trabajo de aprendizaje automático para el entrenamiento y las pruebas de modelos. GenAIOps, un subconjunto especializado de MLOps, se concentra en las soluciones de inteligencia artificial generativa. Implica tareas como la detección de modelos y la refinación de modelos previamente entrenados con datos enriquecidos.
Las actividades operativas a menudo se superponen y las distintas metodologías se aplican en diversas proporciones. Por ejemplo, en IA discriminativa, DataOps desempeña un papel importante, mientras que las actividades de DevOps son menos destacadas. Por el contrario, en la IA generativa, la excelencia operativa depende más en DevOps que en DataOps.
Independientemente, el objetivo general es la entrega de funcionalidades con operaciones eficaces a lo largo del ciclo de vida de desarrollo. Los resultados esperados son:
- Procesos repetibles con resultados coherentes.
- Precisión sostenida de los modelos a lo largo del tiempo.
- Gobernanza eficaz que minimiza los riesgos.
- Procesos de administración de cambios para adaptarse al desfase del modelo.
La automatización y la supervisión son las estrategias operativas fundamentales para lograr esos objetivos.
También debe establecer procesos estandarizados para los componentes de IA, para las operaciones rutinarias, no planeadas y de emergencia, además de contar con mecanismos de seguimiento adecuados. Sin esos procesos, corre el riesgo de:
- Errores repetidos y no reproducibilidad en el procesamiento de datos, hospedaje de modelos, administración de datos de base y otras tareas.
- Datos de baja calidad u obsoletos usados para el entrenamiento y el refinamiento del modelo.
- Desconfianza del usuario final en el sistema que, en el peor de los casos, conduce a problemas legales, de cumplimiento o de seguridad.
Debe implementar procesos establecidos con el conjunto de herramientas adecuado. Existen herramientas especializadas disponibles para administrar flujos de trabajo de IA o aprendizaje automático en entornos.
Este artículo se centra en la estrategia de diseño para las operaciones y proporciona recomendaciones de herramientas.
Recomendaciones
Aquí hay un resumen de las recomendaciones provistas en este artículo.
Recomendación | Descripción |
---|---|
Diseñar un ciclo de vida eficaz de las operaciones de carga de trabajo. | En función de los componentes de la carga de trabajo de IA, las distintas fases operativas se aplicarán a su ciclo de vida. Es importante que comprenda los procedimientos recomendados pertinentes para su caso y las herramientas que están disponibles para implementarlos. Dedique tiempo para obtener más información e implementar las recomendaciones fundamentales para todos los componentes de la carga de trabajo. ▪ DataOps ▪ MLOps ▪ GenAIOps ▪ Supervisión |
Automatice todo. | La automatización garantiza la repetibilidad y eficacia en el ciclo de vida de una carga de trabajo. Aunque los procesos de DevOps son fundamentales para esto, existen otros adicionales que debe seguir para compilar, probar, validar e implementar los modelos de forma eficaz. ▪ Automatización |
Use canalizaciones de implementación siempre que sea posible. | Las canalizaciones de implementación pueden ayudarle a ofrecer implementaciones de infraestructura repetibles o integrar código continuamente. También son una excelente herramienta para crear o validar modelos antes de encaminarlos para producción. La implementación de canalizaciones de implementación le ayuda a mejorar la confiabilidad, así como la experiencia general del usuario de la carga de trabajo. ▪ Canalizaciones de implementación |
Evite el desfase y la descomposición en los modelos. | Debe protegerse contra la descomposición y el desfase del modelo, y contar con un proceso estructurado que le ayude a aceptar nuevos cambios de modelo de una manera controlada. Seguir las recomendaciones sobre el mantenimiento del modelo le ayuda a preservar la compatibilidad, a evitar experiencias de usuario inesperadas y a proporcionar un servicio más actualizado. ▪ Mantenimiento del modelo |
Ciclo de vida de las operaciones de carga de trabajo
En esta imagen se muestran las fases operativas de los modelos de inteligencia artificial, como la recopilación de datos, la limpieza de datos para eliminar incoherencias o errores y la transformación de datos en un formato analizable. Estas fases son relevantes para entrenar modelos discriminativos y datos de base en modelos generativos. Sin embargo, el caso de uso específico de los modelos generativos de entrenamiento no se muestra en esta imagen. Ese caso de uso está fuera del ámbito de este artículo.
Las fases de MLOps y GenAIOps son similares. La principal diferencia es que, en el caso de GenAIOps, el enfoque cambia de entrenamiento a selección del modelo adecuado, la ingeniería de consultas y la incorporación de conocimientos específicos del dominio mediante el ajuste o la implementación de la generación aumentada de recuperación (RAG).
Incluso las fases de implementación y supervisión son bastante similares.
En las secciones siguientes se describen las prácticas operativas más comunes. Abarcan todas las fases del ciclo de vida, desde la preproducción hasta la producción.
DataOps
Los datos se agregan de varios orígenes de datos de producción y, a continuación, se preprocesan para remover errores e incoherencias y para manejar los valores ausentes. Por último, se transforma y normaliza en un formato adecuado para el entrenamiento o el enriquecimiento. Los aspectos del diseño se describen en los artículos de Datos de entrenamiento y Datos de base.
Los procesos de operaciones de datos durante esta fase deben ser eficaces porque el manejo de grandes volúmenes de datos de varios orígenes y canalizaciones de datos complejas puede ser desafiante. Los enfoques adoptados deben garantizar de que esta fase genera datos de alta calidad. Supervise esta fase para realizar un seguimiento del avance hacia un estándar de calidad aceptable.
También debe garantizar de que los datos estén seguros, dado que los datos proceden de producción. Asegúrese de que los entornos inferiores, como Dev/Test, son tan seguros como producción para evitar problemas de seguridad.
Nota
Aborde los datos de baja calidad invirtiendo en una amplia limpieza de datos durante las fases iniciales. Aproveche los patrones de análisis conocidos, como medallion, data mesh y almacenes de características, para realizar tareas de procesamiento ascendentes. Si las fases ascendentes son ineficaces, debe mejorar la calidad durante las fases descendentes, lo que conduce a un aumento de los costos de carga de trabajo porque la preparación de datos se produce durante cada fase.
Para obtener información sobre las tareas de procesamiento de datos, consulte estos artículos:
Herramientas
Se recomienda estandarizar las herramientas de orquestación de datos de la carga de trabajo. Las herramientas deben ser capaces de proporcionar una canalización de datos que pueda agrupar actividades con automatización integrada.
Una canalización de Azure Data Factory puede ser una opción inicial. Puede conectarse y procesar muchos orígenes de datos de forma eficaz. También puede considerar Azure Synapse Analytics, que combina macrodatos y almacenamiento de datos y admite lagos de datos, Apache Spark y Azure Synapse SQL. También se integra con Data Factory para ETL.
Para preparar los datos de entrenamiento, las canalizaciones de Azure Machine Learning proporcionan características especializadas que pueden automatizar tareas como la recopilación y el procesamiento de datos.
Las tecnologías de código abierto como Pandas (para la preparación de datos) y Scrapy son opciones populares.
MLOps
El entrenamiento del modelo es el proceso de seleccionar algoritmos adecuados y proporcionarles datos históricos preprocesados y observaciones para permitir que el modelo aprenda patrones y realice predicciones.
Entrenar el modelo (ingeniería de características) y el ajuste de hiperparámetros son procesos iterativos y son bastante costosos. Durante cada iteración, los científicos de datos realizan un seguimiento de los resultados con combinaciones de datos, código y parámetros. Use canalizaciones repetibles para realizar un seguimiento de los experimentos con un esfuerzo manual mínimo hasta que se alcance el nivel de precisión correcto.
Otro desafío operativo es el aprovisionamiento y el escalado de recursos de proceso especializados en los que se realizan experimentos. Además, debe empaquetar y publicar modelos de forma eficaz.
Los equipos pueden empezar con el desarrollo basado en la interfaz de usuario para reducir los desafíos y, a medida que su confianza aumenta, pasar a un enfoque basado en código.
Herramientas
Se recomienda usar herramientas que puedan realizar un seguimiento de los experimentos de aprendizaje automático mediante la captura de detalles como versiones de código, entornos, parámetros, ejecuciones y resultados. MLflow es uno de estos marcos de código abierto. Considere la posibilidad de usar áreas de trabajo de Azure Machine Learning, que son compatibles con MLflow y proporcionan un flujo de trabajo simplificado que permite a los científicos de datos administrar la productividad y la reproducibilidad en sus proyectos. Para administrar el desarrollo de código con el seguimiento del control de código fuente, integre la canalización de aprendizaje automático con el control de código fuente como GitHub o use recursos de archivos compartidos.
El proceso de hospedaje también puede influir en la elección de un orquestador de flujo de trabajo. Si la aplicación se hospeda en Azure Kubernetes Service (AKS), considere el uso de Kubeflow.
Si está considerando Azure Machine Learning, recomendamos que comience con la perspectiva de Azure Well-Architected Framework de Machine Learning para garantizar que comprende cómo el producto puede ayudarle con los problemas de calidad del Well-Architected Framework para la carga de trabajo.
Parte de la ventaja del proceso es optimizar el tiempo personal. Normalmente, los científicos de datos necesitan herramientas y SDK específicos para realizar de forma eficaz análisis de datos exploratorios (EDA) y experimentación desde sus estaciones de trabajo. Evalúe si las opciones precompiladas de Azure Machine Learning son adecuadas. Si no es así, almacene la configuración de estación de trabajo o mantenga imágenes de máquina virtual aprobadas para este trabajo. Un ejemplo de una imagen que puede usar como punto de partida es la máquina virtual para ciencia de datos (DSVM).
En algunos casos, el uso de máquinas virtuales puede estar prohibido por directivas. Busque alternativas, como agregar Microsoft Dev Box y Azure Virtual Desktop. También puede considerar el uso de Docker para iniciar máquinas que contienen imágenes precompiladas.
Sin embargo, a medida que esta fase madure y necesite experimentos extendidos, cambie a instancias de proceso administradas y elija opciones integradas como parte del flujo de trabajo. Evalúe si puede usar instancias de proceso de Azure Machine Learning para el entrenamiento y la inferencia con fines de desarrollo y pruebas. Los clústeres de proceso pueden controlar grandes conjuntos de datos y modelos complejos.
Azure Machine Learning proporciona soluciones basadas en código a través del SDK y opciones con poco código, como el aprendizaje automático automatizado y el diseñador visual. El SDK de Python ofrece varias maneras de entrenar modelos, cada una con características distintas. Machine Learning también es compatible con tecnologías de computación distribuida y optimización avanzada, como ORTModule, DeepSpeed y LoRA de ONNX Runtime Training para acelerar el proceso de entrenamiento.
GenAIOps
Las actividades fundamentales durante esta fase comienzan por detectar y evaluar modelos existentes para identificar uno entrenado previamente para el caso de uso específico. Es un proceso iterativo. Después de encontrar un modelo adecuado, puede beneficiarse de su refinamiento para el fundamento específico del dominio, que también implica pasos iterativos y requiere un determinado nivel de orquestación.
La integración e implementación de modelos requiere herramientas y prácticas especializadas que van más allá de las funcionalidades tradicionales de MLOps, incluidos los modelos de orquestación, los índices vectoriales, las consultas y los bloques de código.
Herramientas
Para abordar las tareas de detección, aproveche las ventajas de los catálogos de modelos que incluyen modelos de varios proveedores. El catálogo de modelos de en el portal de Azure AI Foundry permite evaluar entre colecciones seleccionadas e implementar modelos de forma eficaz.
El flujo de consultas de Azure Machine Learning puede ayudar con el desarrollo de código de orquestación, lo que permite la creación de prototipos, la experimentación, la iteración y la ingeniería de consultas. Estos flujos se pueden implementar en puntos de conexión administrados por Azure Machine Learning. Evalúe si puede ejecutar e implementar los flujos con la tecnología de canalización de CI/CD existente.
Implementación
Durante esta fase, el modelo se implementa en una plataforma de hospedaje e inferencia o en el nivel de servicio de las cargas de trabajo de IA. Las API deben empaquetarse como contenedores escalables. La plataforma de contenedor puede ser un proceso administrado o una plataforma de hospedaje personalizada. Las prácticas operativas deben garantizar una implementación segura y habilitar reversiones.
Comience con soluciones de plataforma como servicio (PaaS) y sin servidor como Azure OpenAI en Foundry Models para simplificar la adopción y administración. Considere la posibilidad de usar la API Azure Machine Learning Serverless para agregar el acceso a puntos de conexión. Los clústeres de proceso administrados son una opción viable para las necesidades avanzadas. El autohospedaje en AKS es otra opción. Asegúrese de ajustar el tamaño adecuado al proceso y mantener el aislamiento adecuado de otras cargas de trabajo. También puede considerar opciones como hospedar el modelo completamente como infraestructura como servicio (IaaS). IaaS proporciona flexibilidad, pero puede agregar carga operativa. Estas opciones se describen en Plataforma de aplicaciones.
Esta fase presenta la última oportunidad de detectar problemas antes de mover el modelo a producción. Los procesos de prueba deben incluir pasos de validación para garantizar que el modelo está configurado para proporcionar predicciones según lo previsto.
Debe integrar el modelo en el entorno de producción existente siguiendo los procesos de exposición progresiva y usando implementaciones en paralelo. El modelo controlado es una forma común de implementar nuevos modelos. Con este método, la base de usuarios aumenta gradualmente. La implementación azul-verde es otro método.
Herramientas
Puede usar canalizaciones de Azure Machine Learning o Azure Pipelines para implementar los modelos para la inferencia. Machine Learning proporciona varias características para operaciones simplificadas, como el aprovisionamiento de nodos, las actualizaciones del sistema operativo, el escalado automático, la supervisión y las redes virtuales aisladas.
Machine Learning también es compatible con la implementación azul-verde, lo que permite que un único punto de conexión contenga varias implementaciones.
Si usa otras plataformas de hospedaje, como Azure Container Apps o Azure App Service, usted es responsable de las operaciones, inclusive el aprovisionamiento y el escalado. Use Azure DevOps, canalizaciones de GitHub o su opción preferida de tecnología de CI/CD en esos casos.
Supervisión
La supervisión es una estrategia clave y se aplica en todas las fases. Se trata de un proceso continuo y actúa como entrada para las puertas de calidad que garantizan que las cargas de trabajo de IA se prueban rigurosamente para mantener la coherencia y la confiabilidad durante todo el ciclo de vida de desarrollo. Los modelos deben supervisarse desde las perspectivas operativas y de ciencia de datos.
Se recomienda encarecidamente tener un proceso de supervisión de bucle interno de DataOps que mida la proximidad a un estándar de calidad aceptable y compruebe si existen anomalías.
En el caso de los modelos previamente entrenados, también es importante supervisar el desfase de datos y el rendimiento, con un enfoque principal en la relevancia. Evalúe las entradas (consultas) y las salidas (finalizaciones) para asegurarse de que son pertinentes y precisas. Además, tenga en cuenta los riesgos de seguridad, como los intentos de manipular el comportamiento del modelo a través de consultas malintencionadas. Asegúrese de contar con una moderación de contenido exhaustiva que inspecciona los datos en ambas direcciones y filtra el contenido inapropiado. Estas consideraciones se describen en el área de diseño ResponsibleAI.
Después de la implementación, las operaciones de supervisión son necesarias para solucionar problemas como la degradación del modelo. Los modelos pueden quedar obsoletos debido a cambios de datos o cambios externos que pueden hacer que el modelo genere resultados irrelevantes. Como medida proactiva, use procesos automatizados para la supervisión continua y evalúe y vuelva a entrenar para mantener la precisión y la relevancia. Además, debe supervisar las métricas de infraestructura y carga de trabajo, como lo haría con cualquier otra carga de trabajo, para ayudar a garantizar un rendimiento y una confiabilidad óptimas. Para obtener más información, consulte Pruebas de degradación de modelos.
Herramientas
Invierta en herramientas que facilitan la recopilación de métricas de puntos de conexión de inferencia, como el recopilador de datos de Azure Machine Learning.
También necesita observabilidad del rendimiento del modelo, el desfase de datos, la seguridad y la calidad de la IA generativa.
Para más información, consulte estos artículos:
Automation
Las cargas de trabajo de IA son complejas porque el ciclo de vida general implica muchos roles, cambios frecuentes e pasos interrelacionados. Los procesos manuales pueden ser propensos a errores e incoherencias. La automatización en el hospedaje del modelo de procesamiento de datos ayuda a garantizar la repetibilidad y la eficacia. La automatización no siempre es necesaria, pero es una manera eficaz de administrar estas complejidades. Estos son algunos casos de uso en los que la automatización puede mitigar los riesgos:
A diferencia de la implementación de código tradicional, los modelos y soluciones no deterministas en la IA o el aprendizaje automático requieren experimentación iterativa y entrenamiento. Cuando varios equipos colaboran, la automatización, como una manera de aplicar procesos estandarizados, puede ayudar a mantener la coherencia, la reproducibilidad y la colaboración eficaz entre científicos de datos, ingenieros y equipos de operaciones.
El ciclo de vida del modelo implica dos tipos de entrenamiento principales:
El entrenamiento en línea incorpora datos recientes en el modelo frecuentemente, a veces diariamente, para garantizar que las decisiones se basan en la información más reciente. Este entrenamiento se integra en la carga de trabajo para que el modelo se actualice continuamente como parte del proceso normal.
El entrenamiento sin conexión entrena el modelo con menos frecuencia, lo que permite una brecha más larga entre las actualizaciones. El proceso de entrenamiento es independiente de la carga de trabajo principal y se realiza de forma asincrónica. Cuando el nuevo modelo está listo, se integra en el sistema.
La confiabilidad se puede poner en peligro si las actualizaciones son poco frecuentes. Si se pierde una actualización, se puede posponer sin problemas importantes. Este concepto también se aplica a los datos de base. Por ejemplo, si usa RAG, debe decidir si necesita usar datos recientes o si los datos ligeramente antiguos son suficientes. Ambos escenarios implican equilibrar la necesidad de información actualizada con la practicidad de la frecuencia de actualización. Debe realizar el entrenamiento en línea a través de la automatización debido a la frecuencia y confiabilidad requeridas. Para el entrenamiento sin conexión, debido a la frecuencia requerida, debe justificar la automatización mediante el análisis de costo-beneficio. Además, puede realizar el entrenamiento sin conexión mediante recursos menos costosos, como hardware sin conexión.
Los procesos tradicionales de DevOps suelen verse afectados por cambios estructurales. Sin embargo, en IA y aprendizaje automático, los modelos se entrenan con datos de producción. La degradación del modelo supone un riesgo significativo y puede provocar una disminución sucesiva del rendimiento si no se supervisa. La recopilación y el análisis automatizado de métricas de rendimiento, alertas y reentrenamiento de modelos son necesarios para mantener la eficacia del modelo. Use la automatización de forma que pueda ayudarle a detectar cambios en los datos y las dependencias del modelo para comprender claramente el estado actual en cualquier momento dado.
Los modelos se pueden entrenar con dos enfoques distintos.
- Modelo entrenado en el entorno de desarrollo con todos los datos de producción y solo se promueve el artefacto a través de entornos. Este enfoque puede reducir los costos computacionales, pero requiere una seguridad más estricta para controlar los datos de producción en los entornos más bajos y puede que no sea posible en todas las organizaciones.
- Modelo entrenado en cada entorno. La promoción de código puede ayudar con la estabilidad porque el código de entrenamiento se revisa y se prueba en los entornos inferiores, pero aumenta el costo del proceso.
Ambos enfoques ofrecen ventajas y desventajas. Elegir el enfoque adecuado depende de las prioridades de su organización y de las prácticas del ciclo de vida de desarrollo de software (SDLC) de la carga de trabajo. Independientemente del método, las pruebas y evaluaciones exhaustivas del modelo antes de la implementación de producción son esenciales.
El código de automatización debe incorporar el linaje de datos para admitir la auditoría proporcionando un registro claro de las fases de procesamiento de datos. Este registro le ayuda a administrar las expectativas y le permite demostrar cómo se tomaron las decisiones para abordar cualquier preocupación sobre los resultados.
Canalizaciones de implementación
En las cargas de trabajo de IA y aprendizaje automático, el desarrollo de modelos implica crear, validar y promover modelos a plataformas de hospedaje de modelos. Es importante tener canalizaciones de implementación que optimicen los flujos de trabajo complejos relacionados con el procesamiento de datos, la ingeniería de características, el entrenamiento o el aumento del modelo y la implementación para producción. Dada la naturaleza no determinista de la IA, que hace que los procesos sean opacos, es necesario incorporar pruebas cualitativas en canalizaciones de lanzamiento y sistemas de supervisión.
Aunque MLOps y GenAIOps pueden requerir distintas actividades de IA y las tecnologías principales pueden diferir, los conceptos subyacentes siguen siendo similares a los de DevOps. Se recomienda aplicar las prácticas recomendados a partir de los procesos de DevOps existentes. Integre las actividades de IA en las canalizaciones existentes de la carga de trabajo.
Normalmente, las cargas de trabajo de IA implican implementaciones de código tradicionales. Puede elegir controlar la implementación del modelo junto con el código o por separado en su propio ciclo de vida. El primer enfoque es preferible. Prepárese para empaquetar modelos e puntos de conexión de inferencia con la implementación de cargas de trabajo para mantener las operaciones de IA centradas principalmente en la preparación de datos, el entrenamiento o ajuste, la administración de datos de base y la supervisión.
Vuelva a evaluar cómo se pueden adaptar los siguientes recursos para cubrir todo el ciclo de vida de MLOps y GenAIOps, desde la preproducción a la producción:
- Herramientas de infraestructura como código (IaC)
- Canalizaciones de CI/CD
- La pila de observabilidad para el seguimiento y la identificación de problemas
Herramientas
Puede ampliar los flujos de trabajo de Acciones de Azure Pipelines y GitHub, que se usan habitualmente para CI/CD, a modelos de aprendizaje automático. Estos flujos ayudan a implementar la infraestructura de aprendizaje automático, los componentes de carga de trabajo personalizados, el código de orquestación y los modelos. Combine canalizaciones de Azure Machine Learning con canalizaciones de Azure DevOps o GitHub. Para obtener más información consulte Uso de Azure Pipelines con Azure Machine Learning.
Dos factores principales influyen en la elección de la combinación correcta de herramientas: el caso de uso y las funcionalidades. Por ejemplo, las canalizaciones de Azure Machine Learning son excelentes para la orquestación realizada por los científicos de datos. Tiene un conjunto de características enriquecido que admite la reutilización, el almacenamiento en caché y mucho más. Para conocer las opciones de herramientas, consulte ¿Qué tecnología de canalización de Azure debo usar?
Mantenimiento del modelo
El panorama de IA y aprendizaje automático es competitivo y la innovación es continua. Nuevos modelos surgen con frecuencia, se descubren nuevos casos de uso y nuevos orígenes de datos se tornan disponibles. Como resultado, la degradación de modelos es un desafío común.
Para evitar la degradación o el desfase del rendimiento del modelo con el pasar del tiempo, deben implementarse procesos automatizados para la supervisión, evaluación y reentrenamiento continuos. Por ejemplo:
Mantener un catálogo de modelos. Automatice el proceso de detección de nuevos modelos y la actualización del catálogo.
Adáptese a nuevos casos de uso. A medida que se agregan nuevos casos de uso a los requisitos de carga de trabajo, anticipe las consultas y ajuste la lógica de procesamiento de datos en consecuencia.
Incorpore nuevos orígenes de datos. Si los nuevos orígenes de datos pueden mejorar potencialmente la eficacia predictiva o la relevancia del modelo, actualice la canalización de ingesta de datos para conectarse y extraer datos de esos orígenes.
Evalúe el cumplimiento de los requisitos normativos. Al adaptarse a nuevas funcionalidades, asegúrese de que los cambios permanecen válidos dentro de las restricciones de los estándares de cumplimiento organizativos o externos.
Implemente un proceso formal para realizar un seguimiento de la mejora continua e incorpore la auto-mejora como subproceso dentro de ese ciclo.
Evolución continua
Revise y mejore periódicamente las operaciones y fomente la innovación.
El modelo de madurez de MLOps pasa de los procesos manuales a la automatización total. Comience con compilaciones y supervisión manuales e incorpore compilaciones automatizadas de aplicaciones, entornos de entrenamiento e implementación en fases justificadas por métricas completas. Para obtener más información, consulte Modelo de madurez MLOps.
Los niveles de madurez de GenAIOps pasan de modelos básicos a implementación estructurada, mediante técnicas de optimización automatizadas de forma progresiva. Para obtener más información, consulte Avance del nivel de madurez para GenAIOps.