Compartir a través de


Preguntas frecuentes sobre capacidades de generación de texto y solicitudes

Estas preguntas frecuentes (FAQ) describen el impacto de la IA de la característica de prompts de AI Builder.

¿Qué son los prompts?

La función de prompts en AI Builder ofrece a los usuarios una capacidad versátil para desarrollar flujos de trabajo, aplicaciones, transformación de datos y personalización de copilotos impulsados ​​por IA. Permite la creación de flujos de trabajo y aplicaciones que resumen documentos, crean borradores de respuestas, clasifican texto y traducen idiomas. Esta capacidad está impulsada por Azure OpenAI Service, que utiliza la tecnología Generative Pre-trained Transformer (GPT). Estos modelos se han entrenado con grandes cantidades de datos de texto, lo que les ha habilitado para generar textos que se asemejan a los escritos por personas. Para obtener más información sobre el servicio Azure OpenAI, vaya a Nota de transparencia para Azure OpenAI Service.

¿Cuáles son los casos de uso previstos para los prompts?

Los prompts en AI Builder le permiten crear aplicaciones inteligentes, flujos de trabajo y ampliar copilotos. Aprovechan las capacidades de los modelos de GPT preentrenados, lo que elimina la necesidad de entrenar el modelo personalizado. Por ejemplo, la intención podría ser crear un flujo de trabajo que resuma las quejas entrantes de los clientes. Luego, crea un ticket en una herramienta de gestión de incidentes según la categoría de la queja entrante. En este ejemplo, los responsables pueden simplemente ordenar al modelo que categorice y resuma la queja entrante para crear un nuevo incidente.

La siguiente lista contiene los casos de uso más populares de este servicio:

  • Resumen de correos electrónicos, conversaciones, transcripciones, documentos y más.
  • Sugerencias de borradores de respuestas a consultas de clientes, quejas, correo electrónico y más.
  • Extracción de información de contratos, correos electrónicos, facturas, pedidos y más.
  • Clasificación del contenido en las categorías deseadas (por ejemplo, si un correo electrónico es un pedido, una queja o una devolución).
  • Análisis de sentimiento de un texto dado (por ejemplo, identificación del sentimiento de una reseña de producto).

En todos estos casos, los usuarios son responsables del resultado final del sistema. Deben revisar el contenido generado para detectar posibles imprecisiones o falta de integridad antes de usarlo.

¿Cómo se evaluó la disponibilidad de la función de indicaciones? ¿Qué métricas se utilizan para medir el rendimiento?

La evaluación de esta característica implica la realización de pruebas exhaustivas en una serie de parámetros de seguridad. Esto garantiza que la característica se ajusta a las normas y principios de IA responsable de nuestra organización. El servicio también se evalúa continuamente para detectar posibles vulnerabilidades. Las métricas de rendimiento que usamos implican principalmente la eficacia del filtrado de contenidos y el grado de acuerdo entre el ser humano y la máquina sobre el contenido filtrado frente al no filtrado.

¿Qué tipo de moderación de contenido se implementa para las indicaciones?

Los modelos GPT se entrenan con datos de Internet, lo cual es excelente para construir un modelo mundial general. Al mismo tiempo, puede heredar contenido tóxico, dañino y sesgado de las mismas fuentes. Los modelos están capacitados para comportarse de manera segura y no producir contenido dañino, pero a veces puede generar resultados tóxicos. Los prompts de AI Builder aprovechan el servicio Azure AI Content Satefy para crear capacidades de moderación de contenido de última generación dentro de los mensajes de IA. Esto incluye servicios para analizar la salida generada con escáneres de texto de gravedad múltiple y seguridad contra ataques de inyección rápida. La salida también se escanea en busca de regurgitación de material protegido.

¿Cuáles son las limitaciones de la característica de prompts? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de los prompts cuando usan el sistema?

El uso de esta tecnología debe ajustarse a los requisitos del Código de conducta de Azure OpenAI Service. Esta tecnología no debe usarse para generar contenidos asociados a propaganda política, incitación al odio, desinformación, autolesiones, discriminación, material sexual explícito u otros contenidos prohibidos por el Código de conducta. Entre las aplicaciones no admitidas de esta tecnología se incluyen la prestación de asesoramiento, el uso para orientación legal, financiera, relacionada con la salud o predicciones futuras, así como cálculos financieros, científicos o matemáticos, y cualquier otro uso no admitido mencionado en la nota de transparencia de Azure OpenAI Service. En la actualidad, el servicio se presta exclusivamente en Estados Unidos y solo está disponible en inglés.

Los contenidos generados por IA pueden tener errores, por lo que los fabricantes deben informar a los usuarios finales de su solución de que la generación de contenidos por este modelo está creada por IA de forma transparente. Una comunicación clara de los contenidos generados por la IA ayuda a evitar un exceso de confianza. Los creadores también deben infundir la posibilidad de un paso de revisión manual para asegurarse de que el contenido generado por la IA es preciso y apropiado antes de usarlo.

¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable del sistema?

El contenido generado por el modelo de IA es de naturaleza probabilística, por lo que las respuestas del modelo podrían variar para una misma pregunta. La respuesta generada podría ser incorrecta o engañosa y podría provocar resultados no deseados del flujo o la aplicación. Por ejemplo, los clientes empresariales podrían recibir información, recomendaciones o soporte erróneos o incorrectos. Los creadores deben implementar una supervisión manual significativa en sus flujos y aplicaciones, así como poner a prueba sus preguntas para detectar la posibilidad de que conduzcan a generar comportamientos nocivos o contenidos prohibidos, tal y como se recoge en el Código de conducta de Microsoft. Los desarrolladores con poco código también deben ser transparentes sobre el uso de la IA en sus aplicaciones y flujos para informar al usuario empresarial, indicando que el contenido está generado por la IA. Además, es posible que las respuestas generadas no se ajusten a las expectativas del desarrollador con poco código debido a restricciones de longitud, filtrado de contenidos o selección de modelos.

¿Cómo se llama el modelo GPT, dónde está alojado y cómo puedo acceder a él?

El modelo GPT-3.5 Turbo está alojado en el servicio Azure OpenAI. Para acceder a él, puede utilizar las API REST del servicio Azure OpenAI, el SDK de Python o la interfaz basada en web en Azure OpenAI Studio.

Para obtener más información, vaya a ¿Qué hay de nuevo en el servicio Azure OpenAI?

¿Se utilizan mis datos para entrenar o mejorar los grandes modelos lingüísticos disponibles en AI Builder?

AI Builder Los mensajes se ejecutan en el servicio Azure OpenAI hospedado por Microsoft. Los datos del cliente no se utilizan para entrenar ni mejorar ninguno de los modelos de Azure Service Foundation. OpenAI Microsoft no comparte sus datos de cliente con un tercero a menos que usted haya otorgado permiso para hacerlo. Ni las indicaciones del cliente (entrada) con sus datos básicos ni las respuestas del modelo (salida) se utilizan para entrenar o mejorar los modelos de Azure Service Foundation. OpenAI

¿El contenido agregado a la acción "Crear texto con GPT mediante un mensaje" es de acceso público?

La pestaña Acerca de para la acción dice: Esta acción proporciona acceso a sus mensajes aprovechando el modelo GPT que se ejecuta en el servicio OpenAI de Azure.

Las indicaciones que agrega a la acción Crear texto con GPT usando una solicitud en Power Automate son privadas de forma predeterminada. Solo son visibles y utilizables dentro de su organización, no accesibles para el mundo. Las indicaciones son privadas y están destinadas al uso interno de su empresa.

Las preguntas recién creadas son privadas de forma predeterminada. Esto significa que son visibles y utilizables en Power Automate, Power Apps y Microsoft Copilot Studio solo por la persona que las creó. Esto permite al fabricante disponer del tiempo necesario para probarlas y evaluarlas en aplicaciones o flujos de trabajo y garantizar su exactitud antes de compartirlas.

Si desea que otros usuarios del entorno o grupos usen su pregunta en Power Apps o Power Automate, deberá compartirla.

Para obtener más información, vaya a Compartir su solicitud.

¿Qué son los prompts personalizados y las funciones de IA?

Avisos personalizados

Las indicaciones personalizadas brindan a los creadores la libertad de indicar al modelo de lenguaje grande (LLM) que se comporte de cierta manera o que realice una tarea específica. Al elaborar cuidadosamente un mensaje, puede generar respuestas que se adapten a sus necesidades comerciales específicas. Esto transforma el modelo LLM en una herramienta flexible para realizar diversas tareas.

Ejemplo

Con un modelo de lenguaje, un mensaje personalizado puede guiar al modelo para responder una pregunta, completar texto, traducir idiomas, resumir un documento e identificar tareas, tareas pendientes y elementos de acción en el texto. La complejidad de un mensaje personalizado puede variar desde una sola oración hasta algo más complejo, según la tarea.

Funciones de IA

Las funciones de IA son prompts preconfigurados creadas por el equipo de Microsoft para ayudar a los creadores a realizar tareas comunes fácilmente. Ofrecen capacidades de IA listas para usar en varios casos de uso, lo que simplifica la experiencia del fabricante para infundir inteligencia en sus soluciones.

Ejemplo

El mensaje prediseñado de un modelo de lenguaje podría verse así:

Extraiga como una lista numerada los puntos de acción de: [TextToExtract]

En este caso, el usuario sólo necesita proporcionar el texto en [TextToExtract] del que desea extraer puntos de acción. El mensaje prediseñado se encarga del resto.