Delen via


Veelgestelde vragen over mogelijkheden voor het genereren van prompts en tekst

Deze veelgestelde vragen (FAQ) beschrijven de AI-impact van de functie voor prompts in AI Builder.

Wat zijn prompts?

De functie voor prompts in AI Builder biedt gebruikers veelzijdige mogelijkheden voor het ontwikkelen van met AI mogelijk gemaakte werkstromen, toepassingen, gegevenstransformatie en het aanpassen van copilots. Hiermee kunnen werkstromen en toepassingen worden gemaakt die documenten samenvatten, conceptreacties maken, tekst classificeren en talen vertalen. Dit wordt mogelijk gemaakt door de Azure OpenAI Service, die GPT-technologie (Generative Pre-trained Transformer) gebruikt. Deze modellen zijn getraind op enorme hoeveelheden tekstgegevens, waardoor ze tekst kunnen genereren die lijkt op door mensen geschreven content. Voor meer informatie over de Azure OpenAI Service raadpleegt u Transparantienotitie voor Azure OpenAI Service.

Wat zijn de beoogde gebruiksscenario's voor prompts?

Dankzij de prompts in AI Builder kunt u intelligente toepassingen en werkstromen bouwen en copilots uitbreiden. Ze benutten de mogelijkheden van vooraf getrainde GPT-modellen, waardoor training van aangepaste modellen niet meer nodig is. Het kan bijvoorbeeld de intentie zijn om een werkstroom te bouwen die binnenkomende klachten van klanten samenvat. Vervolgens wordt er een ticket aangemaakt in een hulpprogramma voor incidentbeheer op basis van de categorie van de binnenkomende klacht. In dit voorbeeld kunnen makers het model eenvoudig instrueren om de binnenkomende klacht te categoriseren en samen te vatten om een ​​nieuw incident te creëren.

De volgende lijst bevat de meest populaire gebruiksscenario's voor deze service:

  • Samenvatting van e-mails, gesprekken, transcripties, documenten en meer.
  • Suggesties voor conceptantwoorden op vragen van klanten, klachten, e-mail en meer.
  • Extraheren van informatie uit contracten, e-mails, facturen, bestellingen en meer.
  • Classificatie van inhoud in gewenste categorieën (bijvoorbeeld of een e-mail een bestelling, klacht of een retour is).
  • Gevoelsanalyse van een bepaalde tekst (bijvoorbeeld het identificeren van het gevoel van een productrecensie).

In al deze gevallen zijn gebruikers verantwoordelijk voor het uiteindelijke resultaat van het systeem. Ze zijn verplicht de gegenereerde inhoud te controleren op eventuele onnauwkeurigheden of onvolledigheden voordat ze deze gebruiken.

Hoe werd de gereedheid van de functie voor prompts geëvalueerd? Welke statistieken worden gebruikt om de prestaties te meten?

De evaluatie van deze mogelijkheid omvat uitgebreide tests van een reeks veiligheidsparameters. Dit zorgt ervoor dat de functie aansluit bij de verantwoorde AI-normen en -principes van onze organisatie. De service wordt ook voortdurend beoordeeld op mogelijke kwetsbaarheden. De prestatiestatistieken die we gebruiken, hebben voornamelijk betrekking op de efficiëntie van inhoudsfiltering en de mate van overeenstemming tussen mens en machine over gefilterde versus ongefilterde inhoud.

Welk soort inhoudsmoderatie wordt geïmplementeerd voor prompts?

De GPT-modellen zijn getraind met internetgegevens, wat geweldig is voor het bouwen van een algemeen wereldmodel. Tegelijkertijd kan het toxische, schadelijke en bevooroordeelde inhoud van dezelfde bronnen overnemen. De modellen worden getraind voor veilig gedrag en om geen schadelijke inhoud te produceren, maar soms kan dit toxische output genereren. AI Builder-prompts maken gebruik van de Azure AI Content Veiligheid-service om de modernste mogelijkheden voor inhoudsmoderatie binnen de AI-prompts te creëren. Dit omvat services om de gegenereerde uitvoer te analyseren met tekstscanners voor meerdere ernstniveaus en beveiliging tegen promptinjectie-aanvallen. De uitvoer wordt ook gescand op regurgitatie van beschermd materiaal.

Wat zijn de beperkingen van deze functie voor prompts? Hoe kunnen gebruikers de impact van de prompt-beperkingen tot een minimum terugbrengen bij gebruik van het systeem?

Het gebruik van deze technologie moet in overeenstemming zijn met de vereisten in de Gedragscode voor Azure OpenAI Service. Deze technologie mag niet worden gebruikt voor het genereren van inhoud die verband houdt met politieke propaganda, aanzetten tot haat, onjuiste informatie, zelfbeschadiging, discriminatie, expliciet seksueel materiaal of andere inhoud die verboden is onder de Gedragscode. Niet-ondersteunde toepassingen van deze technologie zijn onder meer het verstrekken van advies, gebruik voor juridische, financiële, gezondheidsgerelateerde begeleiding of toekomstvoorspellingen, evenals financiële, wetenschappelijke of wiskundige berekeningen, en elk ander niet-ondersteund gebruik dat wordt vermeld in de Transparantienotitie voor Azure OpenAI Service. Momenteel wordt de service exclusief ondersteund in de Verenigde Staten en is deze alleen beschikbaar in het Engels.

Door AI gegenereerde inhoud kan fouten bevatten, daarom moeten makers de eindgebruikers van hun oplossing op een transparante manier informeren dat de inhoud die door dit model wordt gegenereerd door AI wordt gemaakt. Duidelijke communicatie van met AI gegenereerde inhoud helpt om overmatig vertrouwen te vermijden. Ook moeten makers de mogelijkheid van de stap voor menselijke beoordeling bieden om ervoor te zorgen dat de door AI gegenereerde inhoud nauwkeurig en passend is voordat deze wordt gebruikt.

Welke operationele factoren en instellingen maken een effectief en verantwoordelijk gebruik van het systeem mogelijk?

Inhoud die door het AI-model wordt gegenereerd, is probabilistisch van aard en daarom kan het model voor dezelfde prompt verschillende reacties geven. Het gegenereerde antwoord kan onjuist of misleidend zijn en onbedoelde resultaten van de stroom of app veroorzaken. Zakelijke klanten kunnen bijvoorbeeld verkeerde of onjuiste informatie, aanbevelingen of ondersteuning krijgen. Makers moeten zorgen voor menselijk toezicht op hun stromen en apps, en hun prompts testen op de mogelijkheid om schadelijk gedrag of verboden inhoud te genereren, zoals vermeld in de Microsoft-gedragscode. Ook zouden low-code ontwikkelaars transparant moeten zijn over het gebruik van AI in hun apps en stromen om de zakelijke gebruiker te informeren en aan te geven dat de inhoud door AI is gegenereerd. Bovendien komen de gegenereerde antwoorden mogelijk niet overeen met de verwachtingen van de low-code-ontwikkelaar vanwege lengtebeperkingen, filtering van inhoud of modelkeuze.

Hoe heet het GPT-model, waar het wordt gehost en hoe kan ik er toegang toe krijgen?

Het GPT-3.5 Turbo-model wordt gehost op de Azure OpenAI Service. Om toegang te krijgen, kunt u de Azure OpenAI Service REST API's, Python SDK of de webgebaseerde interface in Azure OpenAI Studio gebruiken.

Ga voor meer informatie naar Wat is er nieuw in de Azure OpenAI Service?

Worden mijn gegevens gebruikt om de grote taalmodellen die beschikbaar zijn te trainen of te verbeteren AI Builder?

AI Builder prompts worden uitgevoerd op Azure OpenAI Service gehost door Microsoft. Klantgegevens worden niet gebruikt om de Azure OpenAI Service Foundation-modellen te trainen of te verbeteren. Microsoft zal uw klantgegevens niet Delenen met derden, tenzij u daarvoor toestemming hebt gegeven. Noch de klantprompts (invoer) met de bijbehorende basisgegevens, noch de modelreacties (uitvoer) worden gebruikt om Azure OpenAI Service Foundation-modellen te trainen of te verbeteren.

Is de inhoud die is toegevoegd aan de actie 'Tekst maken met GPT via een prompt' openbaar toegankelijk?

Op het tabblad Over voor de actie staat: Deze actie biedt toegang tot uw prompts, waarbij gebruik wordt gemaakt van het GPT-model dat wordt uitgevoerd op de Azure OpenAI Service .

De prompts die u toevoegt aan de actie Tekst maken met GPT met behulp van een prompt in Power Automate zijn standaard privé. Ze zijn alleen zichtbaar en bruikbaar binnen uw organisatie, niet toegankelijk voor de wereld. De prompts zijn privé en bedoeld voor intern gebruik binnen uw bedrijf.

Nieuw gemaakte prompts zijn standaard privé. Dit betekent dat deze zichtbaar en in Power Automate, Power Apps en Microsoft Copilot Studio bruikbaar zijn alleen voor de persoon die ze heeft gemaakt. Hierdoor heeft de maker de tijd om deze in apps of werkstromen te testen en evalueren en de nauwkeurigheid ervan te garanderen voordat ze worden gedeeld.

Als u wilt dat andere gebruikers van de omgeving of groepen uw prompt gebruiken in Power Apps of Power Automate, moet u deze delen.

Ga voor meer informatie naar Uw prompt delen.

Wat zijn aangepaste prompts en AI-functies?

Aangepaste prompts

Aangepaste prompts geven makers de vrijheid om het LLM-model (Large Language Model) te instrueren zich op een bepaalde manier te gedragen of een specifieke taak uit te voeren. Door zorgvuldig een prompt samen te stellen, kunt u respons genereren die aansluit bij uw specifieke zakelijke behoeften. Dit transformeert het LLM-model in een flexibel hulpmiddel voor uitvoering van verschillende taken.

Voorbeeld

Met een taalmodel kan een aangepaste prompt het model leiden bij het beantwoorden van een vraag, het aanvullen van tekst, het vertalen van talen, het samenvatten van een document en het identificeren van taken, to-do's en actie-items in tekst. De complexiteit van een aangepaste prompt kan variëren van een enkele zin tot iets ingewikkelders, afhankelijk van de taak.

AI-functies

Vooraf samengestelde AI-functies zijn vooraf geconfigureerde prompts die zijn gemaakt en verfijnd door het Microsoft-team om makers te helpen bij het simpel uitvoeren van veelvoorkomende taken. Ze bieden kant-en-klare AI-mogelijkheden voor verschillende gebruiksscenario's, wat de ervaring van makers vereenvoudigt om intelligentie in hun oplossingen op te nemen.

Voorbeeld

De vooraf gebouwde prompt van een taalmodel zou er als volgt uit kunnen zien:

Haal als een genummerde lijst de actiepunten uit de: [TextToExtract]

In dit geval hoeft de gebruiker alleen de tekst aan te leveren in [TextToExtract] van waaruit hij actiepunten wil halen. De vooraf gebouwde prompt doet de rest.