Споделяне чрез


ЧЗВ за подканите и възможностите за генериране на текст

Тези често задавани въпроси (ЧЗВ) описват въздействието на AI на AI Builder функцията за подкани.

Какво представляват подканите?

Функцията AI Builder за подкани предлага на потребителите гъвкава възможност за разработване на задвижвани от AI работни процеси, приложения, трансформация на данни и персонализиране на втори пилоти. Той позволява създаването на работни потоци и приложения, които обобщават документи, създават чернови на отговори, класифицират текст и превеждат езици. Тази възможност се захранва от услугата Azure OpenAI , която използва технологията Generative Pre-trained Transformer (GPT). Тези модели са обучени върху огромни количества текстови данни, което им позволява да генерират текст, който прилича на съдържание, написано от човека.

Научете повече в Бележка за прозрачност за услугата Azure OpenAI .

Какви са предвидените случаи на използване на подкани?

Подканите AI Builder ви дават възможност да създавате интелигентни приложения, работни потоци и да разширявате вторите пилоти. Те използват възможностите на предварително обучени GPT модели, което елиминира необходимостта от обучение на персонализирани модели. Например намерението може да е да се изгради работен поток, който обобщава входящите оплаквания на клиентите. След това създава билет в инструмент за управление на инциденти въз основа на категорията на входящата жалба. В този пример създателите могат да инструктират модела да категоризира и обобщи входящата жалба, за да създаде нов инцидент.

Следният списък съдържа най-популярните случаи на използване на тази услуга:

  • Обобщаване на имейли, разговори, преписи, документи и др.
  • Предложения за чернови на отговори на клиентски запитвания, оплаквания, имейли и др.
  • Извличане на информация от договори, имейли, фактури, поръчки и др.
  • Класифициране на съдържанието в желани категории (например дали имейлът е поръчка, жалба или връщане).
  • анализ на впечатление на даден текст (например идентифициране на настроението на преглед на продукт).

Във всички тези случаи потребителите са отговорни за крайния резултат от системата. От тях се изисква да прегледат генерираното съдържание за потенциални неточности или непълнота, преди да го използват.

Как беше оценена готовността на функцията за подкани? Какви показатели се използват за измерване на ефективността?

Оценката на тази възможност включва цялостно тестване на редица параметри на безопасност. Това тестване гарантира, че функцията е в съответствие със стандартите и принципите за отговорен AI на нашата организация. Услугата също така непрекъснато се оценява за потенциални уязвимости. Показателите за ефективност, които използваме, включват предимно ефективността на филтрирането на съдържанието и степента на съгласие между човек и машина за филтрирано спрямо нефилтрирано съдържание.

Какъв вид модериране на съдържанието се прилага за подкани?

GPT моделите са обучени на интернет данни, което е чудесно за изграждане на общ световен модел. В същото време може да наследи токсично, вредно и пристрастно съдържание от същите източници. Моделите са обучени да се държат безопасно и да не произвеждат вредно съдържание, но понякога може да генерира токсичен изход. AI Builder подкани използват услугата Azure AI Content Satefy , за да изпечет най-съвременните възможности за модериране на съдържание в подканите за изкуствен интелект. Това включва услуги за анализ на генерирания резултат с текстови скенери с много степени на сериозност и безопасност срещу бързи инжектирани атаки. Изходът също се сканира за регургитация на защитен материал.

Какви са ограниченията на функцията за подкани? Как потребителите могат да сведат до минимум въздействието на бързите ограничения при използване на системата?

Използването на тази технология трябва да е в съответствие с изискванията на Кодекса за поведение за услугата OpenAI Azure. Тази технология не трябва да се използва за генериране на съдържание, свързано с политическа пропаганда, реч на омразата, дезинформация, самонараняване, дискриминация, нецензурни сексуални материали или друго съдържание, забранено от Кодекса за поведение. Неподдържаните приложения на тази технология включват предоставяне на съвети, използване за правни, финансови, здравни насоки или бъдещи прогнози, както и финансови, научни или математически изчисления и всяка друга неподдържана употреба, спомената в Бележката за прозрачност за услугата OpenAI Azure. В момента услугата се поддържа изключително в Съединените щати и е достъпна само на английски език.

Съдържанието, генерирано от AI, може да има грешки, поради което създателите трябва да информират крайните потребители на своето решение, че генерирането на съдържание от този модел се създава от AI по прозрачен начин. Ясната комуникация на генерираното съдържание помага да се избегне прекомерното разчитане. Създателите трябва също така да влеят възможността за стъпката за преглед от човек, за да се уверят, че генерираното от AI съдържание е точно и подходящо, преди да го използват.

Какви оперативни фактори и настройки позволяват ефективно и отговорно използване тази система?

Съдържанието, генерирано от AI модела, е вероятностно по природа и следователно отговорите на модела могат да варират за една и съща подкана. Генерираният отговор може да е неправилен или подвеждащ и да доведе до нежелани резултати от потока или приложението. Например бизнес клиентите може да получат грешна или неправилна информация, препоръки или поддръжка. Създателите трябва да прилагат смислен човешки надзор в своите потоци и приложения и да тестват своите подкани за потенциал да доведат до генериране на вредно поведение или забранено съдържание, както е посочено в Кодекса за поведение на Microsoft. Разработчиците с малко код също трябва да бъдат прозрачни относно използването на AI в своите приложения и потоци, за да информират бизнес потребителя, като посочат, че съдържанието се генерира от AI. Освен това генерираните отговори може да не отговарят на очакванията на разработчика с нисък код поради ограничения за дължина, филтриране на съдържание или избор на модел.

Как се нарича моделът GPT, къде се хоства и как мога да получа достъп до него?

Моделът GPT-3.5 Turbo се хоства в Azure OpenAI Service. За достъп до него можете да използвате REST API на услугата на Azure OpenAI , Python SDK или уеб базирания интерфейс в Azure OpenAI Studio.

Научете повече в Какво е новото в услугата Azure OpenAI ?

Използват ли се моите данни за обучение или подобряване на наличните големи езикови модели AI Builder?

AI Builder подкани се изпълняват в услугата Azure OpenAI , хоствана от Microsoft. Клиентските данни не се използват за обучение или подобряване на нито един от моделите на OpenAI Azure Service Foundation. Microsoft не споделя Вашите клиентски данни с трето лице, освен ако не сте дали разрешение за това. Нито подканите на клиента (вход) с неговите заземяващи данни, нито отговорите на модела (изход) се използват за обучение или подобряване на моделите на основата на услугата на Azure OpenAI .

Публично достъпно ли е съдържанието, добавено към действието "Създаване на текст с GPT с помощта на подкана"?

Разделът "Относно " за действието казва: " Това действие предоставя достъп до вашите подкани, използващи GPT модел, работещ в услугата Azure OpenAI .

Подканите, които добавяте към Създаване на текст с GPT с помощта на подканващо действие, Power Automate са частни по подразбиране. Те са видими и използваеми само във вашата организация, а не са достъпни за света. Подканите са частни и са предназначени за вътрешна употреба във вашата компания.

Новосъздадените подкани са частни по подразбиране. Това означава, че те са видими и използваеми и Power Automate Power Apps Microsoft Copilot Studio само от човека, който ги е създал. Това дава на производителя време да ги тества и оцени в приложения или работни потоци и да гарантира тяхната точност, преди да ги сподели.

Ако искате други потребители на средата или групите да използват вашата подкана в Power Apps или Power Automate, трябва да я споделите.

Научете повече в Споделяне на вашата подкана.

Как се обработват изображенията на хора в AI Builder подканите?

AI Builder не е предназначен да се използва за идентифициране на лица въз основа на черти на лицето или биометрични данни. Когато изпращате изображения, съдържащи хора AI Builder, системата автоматично прилага функция за замъгляване на лица, преди да анализира изображенията, за да защити личната поверителност. Тази стъпка за замъгляване помага за справяне с проблемите с поверителността, като предотвратява идентифицирането въз основа на черти на лицето. При замъгляването не се включва лицево разпознаване или съвпадение на лицеви шаблони. Вместо това всяка идентификация на добре познати личности разчита на контекстуални знаци, като униформи или уникална обстановка, а не на лицата им. Тази мярка за поверителност не трябва да влияе върху качеството на резултатите, които получавате. Замъгляването на лицето понякога може да се споменава в отговорите на системата.

Научете повече в Замъгляване на лица.

Какво представляват персонализираните подкани и функциите на AI?

Персонализирани подкани

Персонализираните подкани дават на създателите свободата да инструктират големия езиков модел (LLM) да се държи по определен начин или да изпълнява конкретна задача. Чрез внимателно изготвяне на подкана можете да генерирате отговори, които отговарят на вашите специфични бизнес нужди. Това трансформира LLM модела в гъвкав инструмент за изпълнение на различни задачи.

Пример

С езиков модел персонализирана подкана може да насочи модела да отговори на въпрос, да завърши текст, да преведе езици, да обобщи документ и да идентифицира задачи, задачи и елементи за действие в текст. Сложността на персонализирана подкана може да варира от едно изречение до нещо по-сложно, в зависимост от задачата.

AI функции

Предварително изградените функции на AI са предварително конфигурирани подкани, създадени от екипа на Microsoft, за да помогнат на производителите да изпълняват лесно често срещани задачи. Те предлагат готови за използване възможности за изкуствен интелект в различни случаи на употреба, което опростява изживяването на производителя, за да влее интелигентност в своите решения.

Пример

Предварително изградената подкана на езиковия модел може да изглежда така:

Извлечете като номериран списък точките за действие от: [TextToExtract]

В този случай потребителят трябва само да предостави текста, от [TextToExtract] който иска да извлече точки за действие. Предварително изградената подкана се грижи за останалото.