Compartir por


Visión xeral das solicitudes

Este artigo explica as indicacións e a enxeñaría de avisos como conceptos clave para axudarche a crear poderosas capacidades xerativas de IA que se poden aproveitar Power Platform.

Un aviso é unha instrución de linguaxe natural que lle indica a un modelo de linguaxe grande (LLM) que realice unha tarefa. O proceso tamén se coñece como axuste de instrucións. O modelo segue a indicación para determinar a estrutura e o contido do texto que precisa xerar. A enxeñaría de avisos é o proceso de creación e refinamento do aviso utilizado polo modelo.

AI Builder ofrece unha experiencia de usuario de creación rápida que permite aos creadores crear, probar e gardar indicacións reutilizables.

Importante

Requisitos previos

  • Tes unha comprensión básica de como escribir indicacións. Para obter máis información, descarga a AI Builder Guía de solicitudes.
  • O teu contorno está na lista de rexións dispoñibles.
  • Tes unha licenza Power Apps ou Power Automate .
  • Unha Microsoft Dataverse base de datos está instalada no ambiente.
  • Tes un AI Builder complemento.

Que é un aviso e como usalo

Pensa nun aviso como unha tarefa ou un obxectivo que lle das ao modelo de linguaxe grande (LLM). Co creador de solicitudes, podes crear, probar e gardar as túas solicitudes personalizadas. Tamén podes usar variables de entrada e Dataverse datos para proporcionar datos de contexto dinámico no tempo de execución. Podes compartir estas solicitudes con outras persoas e usalas en Power Automate, Power Apps ou Copilot Studio. Por exemplo, podes facer unha solicitude para escoller elementos de acción dos correos electrónicos da túa empresa e usalos nun Power Automate fluxo para crear unha automatización de procesamento de correo electrónico.

Prompt Builder permite aos creadores crear indicacións personalizadas que atendan ás súas necesidades empresariais específicas mediante linguaxe natural. Estas indicacións pódense empregar para moitas tarefas ou escenarios comerciais, como resumir contido, categorizar datos, extraer entidades, traducir idiomas, avaliar sentimentos ou formular un resposta nunha reclamación.

Os avisos pódense integrar nos fluxos para crear unha automatización intelixente sen intervención. Os creadores tamén poden crear capacidades avanzadas de IA xerativa para as súas aplicacións describindoas como indicacións da linguaxe natural. Tamén poden usar estas indicacións para estender unha acción e temas de copiloto, simplificando así as operacións comerciais diarias e aumentando a eficiencia.

Vixilancia humana

A supervisión humana é un paso importante cando se traballa con contido xerado a partir dun modelo GPT. Os modelos de idiomas grandes como GPT están adestrados en grandes cantidades de datos. O contido xerado pola IA pode conter erros e prexuízos. Un humano debería revisalo antes de publicalo en liña, enviarllo a un cliente ou utilizalo para informar unha decisión comercial. A supervisión humana axúdache a identificar posibles erros e prexuízos. Tamén se asegura de que o contido sexa relevante para o caso de uso previsto e se aliña cos valores da empresa.

A revisión humana tamén pode axudar a identificar calquera problema co propio modelo GPT. Por exemplo, se o modelo está a xerar contido que non é relevante para o caso de uso previsto, é posible que teñas que axustar a solicitude.

IA responsable

Comprometémonos a crear IA responsable por deseño. O noso traballo está guiado por un conxunto básico de principios: equidade, fiabilidade e seguridade, privacidade e seguridade, inclusión, transparencia e responsabilidade. Poñemos en práctica estes principios en toda a empresa para desenvolver e implantar IA que teña un impacto positivo na sociedade. Adoptamos un enfoque integral, que combina investigación innovadora, enxeñería excepcional e goberno responsable. Xunto á investigación líder de OpenAI sobre o aliñamento da IA, estamos avanzando nun marco para a implantación segura das nosas propias tecnoloxías de IA co obxectivo de axudar a orientar a industria cara a resultados máis responsables.

Obtén máis información sobre a transparencia no servizo Azure OpenAI