Nejčastější dotazy k pokynům

Tyto často kladené otázky (FAQ) popisují dopad nástroje pro vytváření výzev na umělou inteligenci.

Co jsou to výzvy?

Funkce výzev v nástroji Prompt Builder nabízí uživatelům všestranné možnosti pro vývoj pracovních postupů, aplikací, transformace dat a přizpůsobení kopilotů poháněných umělou inteligencí. Umožňuje vytváření pracovních postupů a aplikací, které sumarizují dokumenty, vytvářejí koncepty odpovědí, klasifikují text a překládají do jiných jazyků. Tato schopnost je založená na Azure OpenAI Service, která využívá technologii Generative Pre-Trained Transformer (GPT). Tyto modely byly trénovány na obrovském množství textových dat, což jim umožnilo generovat text, který se podobá obsahu psanému člověkem.

Další informace najdete v Transparency Note pro Azure OpenAI Service.

Jaké jsou zamýšlené případy použití výzev?

Výzvy v nástroji Prompt Builder vám umožní vytvářet inteligentní aplikace, pracovní postupy a rozšiřovat kopiloty. Ty využívají funkcí předem trénovaných modelů GPT, čímž eliminuje potřebu trénování vlastních modelů. Záměrem může být například vytvoření pracovního postupu, který shrnuje příchozí stížnosti zákazníků. Poté vytvoří lístek v nástroji pro správu incidentů na základě kategorie příchozí stížnosti. V tomto příkladu mohou tvůrci dát modelu pokyn, aby kategorizoval a shrnul příchozí stížnost a vytvořil tak nový incident.

Následující seznam obsahuje nejčastější případy použití této služby:

  • Sumarizace e-mailů, konverzací, přepisů, dokumentů atd.
  • Návrhy konceptů odpovědí na dotazy zákazníků, stížnosti, e-maily atd.
  • Získávání informací ze smluv, e-mailů, faktur, objednávek atd.
  • Klasifikace obsahu do požadovaných kategorií (např. zda je e-mail objednávkou, stížností nebo vrácením zboží).
  • Analýza postoje uživatele v daném textu (např. identifikace postoje při recenzi produktu).

Ve všech těchto případech jsou uživatelé odpovědní za konečný výsledek systému. Před použitím musí vygenerovaný obsah zkontrolovat, zda neobsahuje případné nepřesnosti nebo neúplnost.

Jak byla hodnocena připravenost funkce výzev? Jaké metriky se používají k měření výkonu?

Vyhodnocení této funkce zahrnuje komplexní testování řady bezpečnostních parametrů. Toto testování zajišťuje, že funkce je v souladu se standardy a principy odpovědné AI naší organizace. Služba je také průběžně vyhodnocována z hlediska potenciálních zranitelností. Výkonnostní metriky, které používáme, zahrnují především efektivitu filtrace obsahu a míru shody mezi člověkem a strojem na filtrovaném versus nefiltrovaném obsahu.

Jaký druh moderování obsahu je implementován pro výzvy?

Velké jazykové modely jsou trénovány na internetových datech, což je skvělé pro tvorbu obecného světového modelu. Zároveň může zdědit toxický, škodlivý a neobjektivní obsah ze stejných zdrojů. Modely jsou trénovány tak, aby se chovaly bezpečně a neprodukovaly škodlivý obsah (nenávist a spravedlnost, sex, násilí, sebepoškozování), ale někdy to může generovat toxický výstup. Prompty tvůrce promptů využívají službu Bezpečnost obsahu Azure AI k integraci špičkových funkcí moderování obsahu přímo do promptů AI. To zahrnuje služby pro analýzu generovaného výstupu pomocí vícezávažných skenerů škodlivého obsahu a ochranu proti útokům rychlého vstřikování. Výstup je také skenován ohledně vypouštění chráněného obsahu.

Tvůrci mohou nastavit úroveň moderování pouze pro škodlivý obsah. Nižší moderace zvyšuje riziko škodlivého obsahu v odpovědích na zadání. Vyšší moderace toto riziko snižuje, ale může snížit počet odpovědí.

Zjistěte více v úrovni moderování obsahu.

Jaká jsou omezení funkce výzev? Jak mohou uživatelé minimalizovat dopad omezení výzvy při používání systému?

Použití této technologie musí být v souladu s požadavky v Kód chování pro Azure OpenAI Service. Tato technologie se nesmí používat ke generování obsahu spojeného s politickou propagandou, nenávistnými projevy, dezinformacemi, sebepoškozováním, diskriminací, explicitním sexuálním materiálem nebo jiným obsahem zakázaným Kodexem chování. Nepodporované aplikace této technologie zahrnují poskytování poradenství, použití pro právní, finanční, zdravotní pokyny nebo budoucí předpovědi, jakož i finanční, vědecké nebo matematické výpočty a jakékoli jiné nepodporované využití uvedené v Transparency Note pro Azure OpenAI Service.

Generovaný obsah umělé inteligence může mít chyby, proto by tvůrci měli koncové uživatele informovat o řešení, že AI vytváří generování obsahu tímto modelem transparentně. Jasná komunikace generovaného obsahu pomáhá vyhnout se přílišnému spoléhání. Tvůrci by měli také využít možnost kontroly člověkem, aby se ujistili, že obsah generovaný AI je přesný a vhodný, než jej použijí.

Jaké provozní faktory a nastavení umožňují efektivní a odpovědné využívání systému?

Obsah generovaný modelem umělé inteligence je pravděpodobnostní povahy, a proto se odpovědi modelu na stejnou výzvu mohou lišit. Vygenerovaná odpověď může být nesprávná nebo zavádějící a může způsobit nechtěné výsledky toku nebo aplikace. Například firemní zákazníci mohou obdržet nesprávné nebo chybné informace, doporučení nebo podporu. Tvůrci by měli do svých toků a aplikací implementovat smysluplný lidský dohled a testovat své výzvy z hlediska potenciálu vést ke generování škodlivého chování nebo zakázaného obsahu, jak je uvedeno v Kodexu chování Microsoft. Vývojáři v low-code platformách by měli být rovněž transparentní ohledně využívání AI ve svých aplikacích a tocích. Je nezbytné informovat firemní uživatele o tom, že daný obsah generuje AI. Generované odpovědi navíc nemusejí odpovídat očekáváním vývojáře kvůli omezení délky, filtrování obsahu nebo výběru modelu.

Jak se nazývá model GPT, kde je hostován a jak k němu mohu získat přístup?

Tvůrce výzev podporuje modely GPT 4.1 mini, GPT 4.1 a GPT 5, které jsou hostované na službě Azure OpenAI. K těmto modelům můžete přistupovat prostřednictvím promptů napříč Power Platform, ve vašich aplikacích, tocích a kopilotech.

Další informace najdete v Co je nového v Azure OpenAI Service?

Používají se moje data k trénování nebo vylepšování velkých jazykových modelů dostupných v nástroji Prompt Builder?

Prompty nástroje Prompt Builder běží na službě Azure OpenAI, hostované společností Microsoft. Zákaznická data se nepoužívají k trénování ani vylepšování žádných základních modelů Azure OpenAI Service. Microsoft nesdílí data vašeho zákazníka s třetí stranou, pokud jste k tomu neudělili oprávnění. Vstupy od zákazníků, které obsahují jejich podkladová data, a výstupy modelů se nepoužívají k učení nebo zdokonalování základních modelů služby Azure OpenAI.

Je obsah přidaný do akce "Spustit výzvu" veřejně přístupný?

Na kartě About pro akci je uvedeno, že tato akce poskytuje přístup k vašim výzvám využívajícím model GPT spuštěný na Azure OpenAI Service.

Výzvy, které přidáte do Spuštění příkazu v Power Automate, jsou ve výchozím nastavení soukromé. Jsou viditelné a použitelné pouze ve vaší organizaci, nejsou přístupné světu. Pokyny jsou soukromé a jsou určeny pro interní použití ve vaší společnosti.

Nově vytvořené dotazy jsou ve výchozím nastavení soukromé. To znamená, že jsou viditelné a použitelné v Power Automate, Power Apps a Microsoft Copilot Studio jenom člověkem, který je vytvořil. To dává tvůrci čas je otestovat a vyhodnotit v aplikacích nebo pracovních postupech a zajistit jejich přesnost před jejich sdílením.

Pokud chcete, aby vaši výzvu použili jiní uživatelé prostředí nebo skupin v Power Apps nebo Power Automate, musíte ji sdílet.

Další informace získáte v části Sdílení výzvy.

Jak se zpracovávají obrázky osob v promptách Prompt Builderu?

Nástroj Prompt Builder není určen k identifikaci osob na základě rysů obličeje nebo biometrických údajů. Když odešlete obrázky obsahující osoby v nástroji Prompt Builder, systém před analýzou obrázků automaticky použije funkci rozmazání obličeje, aby chránil soukromí jednotlivců. Tento krok rozmazání pomáhá řešit obavy o soukromí tím, že zabraňuje identifikaci na základě rysů obličeje. Při rozmazání nedochází k rozpoznávání obličeje ani porovnávání šablon obličeje. Místo toho se jakákoli identifikace známých osob opírá o kontextové podněty, jako jsou uniformy nebo jedinečné prostředí, nikoli o jejich tváře. Toto opatření na ochranu soukromí by nemělo mít vliv na kvalitu výsledků, které obdržíte. Rozmazání obličeje může být příležitostně zmiňováno v odpovědích systému.

Další informace najdete v tématu Rozmazání obličeje.

Potenciální poškození při používání obrázků nebo dokumentů ve výzvách

Nástroj Prompt Builder zmírňuje většinu rizik spojených s používáním obrázků nebo dokumentů ve výzvách, ale některá rizika stále vyžadují zvláštní péči ze strany tvůrce výzvy:

  • Obrázky nebo dokumenty mohou obsahovat škodlivý text nebo vizuální prvky, které mohou mít dopad na následné procesy.
  • Obrázky nebo dokumenty mohou obsahovat speciální a případně skryté pokyny, které mohou ohrozit nebo přepsat úvodní výzvu.
  • Obrázky nebo dokumenty mohou obsahovat pokyny, které by mohly vést k vytvoření obsahu, který podléhá duševnímu vlastnictví (IP).
  • Výzvy mohou vytvářet zaujaté komentáře k obrázkům nebo dokumentům.
  • Extrakce informací z obrázků nebo dokumentů s nízkou kvalitou může vést k nesprávným informacím, označovaným také jako halucinace.

Jak se model o3 liší od modelů GPT?

Model o3 se od modelů GPT odlišuje především svými pokročilými schopnostmi uvažování. Než odpoví, generuje podrobné vnitřní řetězce myšlenek, což vede ke zlepšení výkonu v matematice, kódování a analytických úlohách. Tento přístup však vede ke zvýšeným výpočetním nárokům a pomalejší době odezvy ve srovnání s modely GPT. GPT-4o nebo GPT-4.1 například vyniká v obecných jazykových úlohách a nabízí rychlejší a nákladově efektivní odpovědi, takže je vhodný pro aplikace, kde jsou nezbytné rychlé výstupy.

Co jsou výzvy a funkce AI?

Výzvy

Výzvy dávají tvůrcům svobodu instruovat velký jazykový model (LLM), aby se choval určitým způsobem nebo aby provedl konkrétní úkol. Pečlivým vytvořením dotazu můžete generovat odpovědi, které vyhovují vašim specifickým obchodním potřebám. To transformuje model LLM na flexibilní nástroj pro plnění různých úkolů.

Například u jazykového modelu může podnět vést model k tomu, aby odpověděl na otázku, dokončil text, přeložil jazyky, shrnul dokument a identifikoval úkoly, seznamy úkolů a akční položky v textu. Složitost vlastní výzvy se může pohybovat od jedné věty až po něco složitějšího, v závislosti na úkolu.

Funkce AI

Předpřipravené funkce AI jsou předkonfigurované výzvy vytvořené a vyladěné týmem společnosti Microsoft, aby pomohly tvůrcům snadno provádět běžné úkoly. Nabízejí schopnosti AI ihned připravené k použití v různých případech, což zjednodušuje tvůrcům vdechnout inteligenci jejich řešením.

Například předem vytvořená výzva jazykového modelu může vypadat takto:

Extrahuj jako očíslovaný seznam akční body z: [TextToExtract]

V tomto případě uživatel potřebuje pouze zadat text v [TextToExtract], ze kterého chce extrahovat akční body. O zbytek se postará předem sestavený prompt.