Compartir a través de


Implementación de consultas para predicciones de intención

Después de agregar la implementación correctamente, puede consultar la implementación predicciones de intención y de entidades de la expresión en función del modelo asignado a dicha implementación. Para consultarla, puede hacerlo mediante programación usando la Prediction API o a través de bibliotecas de cliente (SDK de Azure).

Comprobación del modelo implementado

Puede usar Language Studio para enviar una expresión, obtener predicciones y visualizar los resultados.

Para probar el modelo desde Language Studio

  1. Seleccione Prueba de implementaciones en el menú lateral izquierdo.

  2. Seleccione el modelo que quiera probar. Solo se pueden probar modelos que estén asignados a implementaciones.

  3. En la lista desplegable nombre de implementación, seleccione el nombre de la implementación.

  4. En el cuadro de texto, escriba una expresión que se va a probar.

  5. En el menú superior, seleccione Ejecutar la prueba.

  6. Después de ejecutar la prueba, debería ver la respuesta del modelo en el resultado. Puede ver los resultados en la vista de tarjetas de entidades o verlo en formato JSON.

    Captura de pantalla en la que se muestra cómo probar un modelo en Language Studio.


Envío de una solicitud de flujo de trabajo de orquestación

  1. Cuando el trabajo de implementación finalice correctamente, seleccione la implementación que desea usar y, en el menú superior, seleccione Get prediction URL (Obtener dirección URL de predicción).

    Captura de pantalla que muestra cómo obtener una predicción de URL.

  2. En la ventana que aparece, copie la URL y el cuerpo de la solicitud de ejemplo en la línea de comandos. Reemplace <YOUR_QUERY_HERE> por el texto real que desea enviar para extraer intenciones y entidades.

  3. Envíe la solicitud cURL POST en el terminal o en el símbolo del sistema. Recibirá una respuesta 202 con los resultados de la API si la solicitud se ha realizado correctamente.

Pasos siguientes