Para entrenar un modelo, inicie un trabajo de entrenamiento. Solo los trabajos completados correctamente crean un modelo. Los trabajos de entrenamiento expiran después de siete días, después de este tiempo ya no podrá recuperar los detalles del trabajo. Si el trabajo de entrenamiento se completó correctamente y se creó un modelo, éste no se verá afectado por la expiración del trabajo. Solo puede tener un trabajo de entrenamiento ejecutándose a la vez y no puede iniciar otros trabajos en el mismo proyecto.
Los tiempos de entrenamiento pueden ir desde unos pocos segundos cuando se trata de proyectos sencillos, hasta un par de horas cuando se alcanza el límite máximo de expresiones.
La evaluación del modelo se desencadena automáticamente después de que el entrenamiento se haya completado correctamente. El proceso de evaluación se inicia mediante el modelo entrenado para ejecutar predicciones en las expresiones del conjunto de pruebas y compara los resultados previstos con las etiquetas proporcionadas (que establecen una línea base de verdad). Los resultados se devuelven para que pueda revisar el rendimiento del modelo.
Prerrequisitos
Un proyecto creado correctamente con una cuenta de Azure Blob Storage configurada
Antes de iniciar el proceso de entrenamiento, las expresiones etiquetadas del proyecto se dividen en un conjunto de entrenamiento y un conjunto de pruebas. Cada uno de ellos sirve una función diferente.
El conjunto de entrenamiento se usa para entrenar el modelo, es el conjunto a partir del cual el modelo aprende las expresiones etiquetadas.
El conjunto de pruebas es un conjunto ciego que no se introduce en el modelo durante el entrenamiento, sino solo durante la evaluación.
Una vez entrenado el modelo correctamente, éste puede usarse para hacer predicciones a partir de los enunciados del conjunto de pruebas. Estas predicciones se usan para calcular lasmétricas de evaluación.
Se recomienda asegurarse de que todas las intenciones se representan adecuadamente tanto en el conjunto de entrenamiento como en el de prueba.
El flujo de trabajo de orquestación admite dos métodos de división de datos:
Dividir automáticamente el conjunto de pruebas de los datos de entrenamiento: el sistema dividirá los datos etiquetados entre los conjuntos de entrenamiento y pruebas, según los porcentajes especificados. La división de porcentaje recomendada es del 80 % para el entrenamiento y el 20 % para las pruebas.
Nota
Si elige la opción Automatically splitting the testing set from training data (Dividir automáticamente el conjunto de pruebas de los datos de entrenamiento), solo los datos asignados al conjunto de entrenamiento se dividirán según los porcentajes proporcionados.
Usar una división manual de los datos de entrenamiento y de prueba: Este método permite a los usuarios definir qué expresiones deben pertenecer a cada conjunto. Este paso solo se activa si se agregan expresiones al conjunto de prueba durante el etiquetado.
Nota:
Solo puede agregar expresiones en el conjunto de datos de entrenamiento para intenciones no conectadas.
Seleccione Trabajos de entrenamiento en el menú de la izquierda.
Seleccione Iniciar un trabajo de entrenamiento en el menú superior.
Seleccione Train a new model (Entrenar un nuevo modelo) y escriba el nombre del modelo en el cuadro de texto. Para sobrescribir un modelo existente, seleccione esta opción y elija el modelo que quiera sobrescribir del menú desplegable. La sobrescritura de un modelo entrenado es irreversible, pero no afectará a los modelos implementados hasta que implemente el nuevo modelo.
Dividir automáticamente el conjunto de pruebas de los datos de entrenamiento: las expresiones etiquetadas se dividirán aleatoriamente entre los conjuntos de entrenamiento y de prueba, según los porcentajes que elija. El porcentaje de división predeterminado es del 80 % para el entrenamiento y del 20 % para la prueba. Para cambiar estos valores, elija el conjunto que desea cambiar y escriba el nuevo valor.
Nota
Si elige la opción Dividir automáticamente el conjunto de pruebas de los datos de entrenamiento, solo se dividirán las expresiones del conjunto de entrenamiento según los porcentajes indicados.
Use una división manual de datos de entrenamiento y pruebas: asigne cada expresión al conjunto de entrenamiento o pruebas durante el paso de etiquetado del proyecto.
Nota
Use una división manual de la opción de datos de entrenamiento y pruebas solo se habilitará si agrega expresiones al conjunto de pruebas en la página de datos de etiquetas. De lo contrario, se deshabilitará.
Seleccione el botón Entrenar.
Nota
Los trabajos de entrenamiento completados correctamente serán los únicos que generarán modelos.
El entrenamiento puede llevar entre un par de minutos y un par de horas en función del tamaño de los datos etiquetados.
Solo puede haber un trabajo de entrenamiento ejecutándose en un momento dado. No puede iniciar otro trabajo de entrenamiento dentro del mismo proyecto hasta que se complete el trabajo en curso.
Cree una solicitud POST mediante la dirección URL, los encabezados y el cuerpo JSON para enviar un trabajo de entrenamiento.
URL de la solicitud
Use la siguiente dirección URL al crear la solicitud de API. Reemplace los valores de los marcadores de posición por sus propios valores.
Métodos de división. Los valores posibles son percentage o manual. Vea cómo entrenar un modelo para obtener más información.
percentage
trainingSplitPercentage
80
Porcentaje de los datos etiquetados que se incluirán en el conjunto de entrenamiento. El valor recomendado es 80.
80
testingSplitPercentage
20
Porcentaje de los datos etiquetados que se incluirán en el conjunto de pruebas. El valor recomendado es 20.
20
Nota
trainingSplitPercentage y testingSplitPercentage solo son necesarios si Kind está establecido en percentage y la suma de ambos porcentajes es igual a 100.
Una vez que envíe la solicitud de API, recibirá una respuesta 202 que indica que se ha realizado correctamente. En los encabezados de respuesta, extraiga el valor operation-location. Tendrá el formato siguiente:
Seleccione el id. de trabajo de entrenamiento de la lista, aparecerá un panel lateral donde podrá comprobar el Progreso del entrenamiento, el Estado del trabajo y otros detalles de este trabajo.
El entrenamiento puede tardar un tiempo en función del tamaño de los datos de entrenamiento y la complejidad del esquema. Puede usar la siguiente solicitud para mantener el sondeo del estado del trabajo de entrenamiento hasta que se complete correctamente.
Use la siguiente solicitud GET para obtener el estado del proceso de entrenamiento del modelo. Reemplace los valores de los marcadores de posición por sus propios valores.
Use el siguiente encabezado para autenticar la solicitud.
Clave
Valor
Ocp-Apim-Subscription-Key
Clave para el recurso. Se usa para autenticar las solicitudes de API.
Cuerpo de la respuesta
Una vez que envíe la solicitud, recibirá la siguiente respuesta. Siga sondeando este punto de conexión hasta que el parámetro status cambie a "succeeded".
Para cancelar un trabajo de entrenamiento en Language Studio, vaya a la página Entrenar modelo. Seleccione el trabajo de entrenamiento que desea cancelar y seleccione Cancelar en el menú superior.
Cree una solicitud POST con la dirección URL, los encabezados y el cuerpo JSON para cancelar un trabajo de entrenamiento.
URL de la solicitud
Use la siguiente dirección URL al crear la solicitud de API. Reemplace los valores de los marcadores de posición por sus propios valores.
Use el siguiente encabezado para autenticar la solicitud.
Clave
Valor
Ocp-Apim-Subscription-Key
Clave para el recurso. Se usa para autenticar las solicitudes de API.
Una vez que envíe la solicitud de API, recibirá una respuesta 202 que indica que se ha realizado correctamente, lo que significa que el trabajo de entrenamiento se ha cancelado. Una llamada correcta devuelve un encabezado Operation-Location que se usa para comprobar el estado del trabajo.