Visualización de los detalles del modelo de flujo de trabajo de orquestación
Una vez completado el entrenamiento del modelo, puede ver los detalles de su modelo y ver su rendimiento en comparación con el conjunto de pruebas. Observar el rendimiento del modelo se denomina evaluación. El conjunto de pruebas consta de datos que no se introdujeron en el modelo durante el proceso de entrenamiento.
Nota
El uso de la opción Automatically split the testing set from training data (Dividir automáticamente el conjunto de pruebas a partir de datos de entrenamiento) puede dar lugar a resultados de evaluación de modelos diferentes cada vez que entrene un nuevo modelo, ya que el conjunto de pruebas se selecciona aleatoriamente a partir de las expresiones. Para asegurarse de que la evaluación se calcule con el mismo conjunto de pruebas cada vez que se entrene un modelo, asegúrese de usar la opción Use a manual split of training and testing data (Usar una división manual de datos de entrenamiento y pruebas) al iniciar un trabajo de entrenamiento y definir el conjunto de pruebas al agregar las expresiones.
Requisitos previos
Para poder ver la evaluación del modelo, se necesita lo siguiente:
- Un proyecto de flujo de trabajo de orquestación.
- Un modelo entrenado correctamente.
Consulte el ciclo de vida del desarrollo de proyectos para más información.
Detalles del modelo
En la página de detalles del modelo de vista, podrá ver todos los modelos, con su estado de entrenamiento actual y la fecha en que se entrenaron por última vez.
Vaya a la página del proyecto en Language Studio.
Seleccione Rendimiento del modelo en el menú situado a la izquierda de la pantalla.
En esta página solo puedes ver los modelos entrenados correctamente, la puntuación F1 de cada modelo y la fecha de expiración del modelo. Puede seleccionar el nombre del modelo para obtener más detalles sobre su rendimiento.
Puede encontrar las métricas de evaluación de nivel de modelo en Información general y las métricas de evaluación de nivel de intención. Para obtener más información, consulte las métricas de evaluación.
La matriz de confusión del modelo se encuentra en Test set confusion matrix (Matriz de confusión del conjunto de pruebas). Puede ver la matriz de confusión de intenciones.
Nota:
Si no ve ninguna de las intenciones que tiene en su modelo mostradas aquí, es porque no estaban en ninguna de las expresiones que se usaron para el conjunto de prueba.
Carga o exportación de datos del modelo
Para cargar los datos del modelo:
Seleccione cualquier modelo en la página de evaluación de modelos.
Seleccione el botón Cargar datos de modelo.
Confirme que no hay ningún cambio sin guardar que necesite capturar en la ventana que aparece y seleccione Cargar datos.
Espere hasta que acaben de cargarse los datos del modelo en el proyecto. Al finalizar, se le redireccionará a la página Diseño del esquema.
Para exportar los datos del modelo:
Seleccione cualquier modelo en la página de evaluación de modelos.
Seleccione el botón Exportar datos del modelo. Espere hasta que la instantánea JSON del modelo se descargue localmente.
Eliminación de un modelo
Para eliminar el modelo desde Language Studio:
Seleccione Rendimiento del modelo en el menú izquierdo.
Seleccione el nombre del modelo que desea eliminar y seleccione Eliminar en el menú superior.
En la ventana que se abre, seleccione Aceptar para eliminar el modelo.
Pasos siguientes
- A medida que revise el rendimiento del modelo, puede obtener información sobre las métricas de evaluación que se usan.
- Si está satisfecho con el rendimiento del modelo, puede implementar el modelo.