Comparteix a través de


Visió general de les indicacions

Aquest article explica l'enginyeria d'indicadors i altres conceptes clau per ajudar-vos a crear aplicacions potents que puguin generar text a partir d'una entrada (prompt).

Un missatge és una instrucció de llenguatge natural que indica a un model de llenguatge gran (LLM) que realitzi una tasca. El procés també es coneix com a sintonització d'instruccions. El model segueix l'indicador per determinar l'estructura i el contingut del text que ha de generar. L'enginyeria ràpida és el procés de creació i refinament de l'indicador utilitzat pel model.

AI Builder Proporciona un creador d'indicacions que permet als creadors escriure, provar, desar i utilitzar indicacions per generar text.

Important

  • AI Builder Les indicacions s'executen en el model GPT-3.5 Turbo alimentat per l'Azure OpenAI Service.
  • Aquesta capacitat es limita a algunes regions.
  • Aquesta capacitat pot estar subjecta a límits d'ús o limitació de capacitat.

Requisits previs

  • Teniu una comprensió bàsica de com escriure indicacions.
  • El vostre entorn és a la llista de regions disponibles.
  • Tens una Power Apps llicència o Power Automate llicència.
  • S'instal·la una Microsoft Dataverse base de dades a l'entorn.
  • Teniu un AI Builder complement.

Què és un missatge i com utilitzar-lo

Penseu en un missatge com una tasca o un objectiu que doneu al model de llengua gran (LLM). Amb el creador d'avisos, podeu crear, provar i desar les sol·licituds personalitzades. També podeu utilitzar variables d'entrada per proporcionar dades de context dinàmiques en temps d'execució. Podeu compartir aquestes indicacions amb altres persones i utilitzar-les en Power Automate, Power Apps o bé Copilot Studio. Per exemple, podeu fer una sol·licitud per triar elements d'acció dels correus electrònics de la vostra empresa i utilitzar-los en un Power Automate flux per crear una automatització del processament de correu electrònic.

Prompt builder permet als fabricants idear sol·licituds personalitzades que s'adaptin a les seves necessitats empresarials específiques mitjançant llenguatge natural. Aquestes indicacions es poden utilitzar per a moltes tasques o escenaris empresarials, com ara resumir contingut, classificar dades, extreure entitats, traduir idiomes, avaluar sentiments o formular una resposta a una queixa.

Les indicacions es poden integrar en fluxos per crear una automatització intel·ligent de mans lliures. Els fabricants també poden crear capacitats avançades d'IA generativa per a les seves aplicacions descrivint-les com a indicacions en llenguatge natural. Aquestes indicacions es poden utilitzar per estendre un copilot personalitzat, racionalitzant així les vostres operacions comercials diàries i augmentant l'eficiència".

Supervisió humana

La supervisió humana és un pas important quan es treballa amb contingut generat a partir d'un model GPT. Els grans models de llenguatge com GPT s'entrenen amb grans quantitats de dades. El contingut generat per IA pot contenir errors i biaixos. Un humà hauria de revisar-lo abans de publicar-lo en línia, enviar-lo a un client o utilitzar-lo per informar una decisió empresarial. La supervisió humana ajuda no només a identificar possibles errors i biaixos, sinó també a assegurar-se que el contingut sigui rellevant per al cas d'ús previst i s'alineï amb els valors de l'empresa.

La revisió humana també pot ajudar a identificar qualsevol problema amb el propi model GPT. Per exemple, si el model genera contingut que no és rellevant per al cas d'ús previst, és possible que hàgiu d'ajustar la sol·licitud.

IA responsable

Estem compromesos amb la creació d'IA responsable des del disseny. El nostre treball es guia per un conjunt bàsic de principis: equitat, fiabilitat i seguretat, privadesa i seguretat, inclusió, transparència i rendició de comptes. Estem posant en pràctica aquests principis a tota l'empresa per desenvolupar i implementar una IA que tingui un impacte positiu en la societat. Adoptem un enfocament integral, combinant recerca innovadora, enginyeria excepcional i governança responsable. Juntament amb la investigació líder d'Aside OpenAI sobre l'alineació de la IA, estem avançant en un marc per al desplegament segur de les nostres pròpies tecnologies d'IA destinades a ajudar a guiar la indústria cap a resultats més responsables.

Més informació sobre la transparència al servei de l'Azure OpenAI

Vegeu també