Condividi tramite


Domande frequenti sull'esperienza di creazione di un agente per le conversazioni

Queste domande frequenti descrivono l'impatto dell'intelligenza artificiale dell'esperienza di creazione dell'agente conversazionale in Copilot Studio.

Cos'è l'esperienza di creazione di un agente per le conversazioni?

L'esperienza di creazione di agenti per le conversazioni viene usata per aiutarti a creare un agente personalizzato o un agente Copilot. Predice il nome, la descrizione e le istruzioni per l'agente tramite la conversazione, supporta l'aggiunta di origini di conoscenza e genera richieste suggerite (per gli agenti Copilot).

Quali sono le funzionalità dell'esperienza di creazione dell'agente conversazionale?

È possibile iniziare rapidamente con una configurazione dell'agente personalizzato o dell'agente Copilot tramite un'interfaccia del linguaggio naturale. Il sistema aggiorna la configurazione in base all'input durante la conversazione.

Qual è la destinazione d'uso dell'esperienza di creazione di agenti conversazionali?

Puoi utilizzare questa esperienza per iniziare la configurazione iniziale dell'agente.

Come è stata valutata l'esperienza di creazione dell'agente conversazionale e quali metriche vengono utilizzate per misurare le prestazioni?

Abbiamo valutato il sistema per verificarne l'accuratezza nel rappresentare le richieste attraverso la configurazione prevista nella conversazione, al fine di garantirne la qualità. Abbiamo anche testato per garantire che il sistema non produca contenuti dannosi o malevoli.

Quali sono i limiti dell'esperienza di creazione di agenti conversazionali e in che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni durante il suo utilizzo?

  • L'esperienza di creazione di agenti per le conversazioni supporta solo determinate lingue. Potrebbe essere possibile usare altre lingue, ma le risposte generate potrebbero essere incoerenti o impreviste.

  • Questa esperienza può essere usata solo per configurare:

    • Nome.
    • Descrizione.
    • Istruzioni per la creazione dell'agente
    • Sottoinsieme dei tipi di origine delle informazioni supportati
    • Richieste suggerite per gli agenti Copilot
  • Vedere domande frequenti sull'intelligenza artificiale responsabile per le risposte generative per altre considerazioni e limitazioni quando si usano risposte generative negli agenti creati con questa funzionalità.

Quali fattori operativi e impostazioni consentono un uso efficace e responsabile dell'esperienza di creazione di agenti conversazionali?

È possibile usare il linguaggio naturale per conversare con il sistema tramite chat oppure modificare direttamente la configurazione manualmente. Se si modifica manualmente, il sistema potrebbe aggiornare la configurazione dell'agente con informazioni aggiuntive mentre si continua la conversazione.

Quali sono le tutele previste in Copilot Studio per un'IA responsabile?

Le risposte generative includono varie protezioni per garantire ad amministratori, autori e utenti un'esperienza sicura e conforme. Gli amministratori hanno il controllo completo sulle funzionalità del proprio tenant e possono sempre disattivare la possibilità di pubblicare agenti con risposte generative nell'organizzazione. Gli autori possono aggiungere istruzioni personalizzate per influenzare i tipi di risposte restituite dai loro agenti. Per ulteriori informazioni sulle procedure consigliate per la scrittura di istruzioni personalizzate, consulta Utilizzare la modifica delle richieste per fornire istruzioni personalizzate all'agente.

Gli autori possono anche limitare le fonti di conoscenza che gli agenti possono utilizzare per rispondere alle domande. Per consentire agli agenti di rispondere a domande al di fuori dell'ambito delle origini della Knowledge Base configurate, gli autori possono attivare la funzionalità Conoscenza generale dell'intelligenza artificiale. Per limitare gli agenti a rispondere solo alle domande nell'ambito delle origini della conoscenza configurate, gli autori devono disattivare questa funzionalità.

Copilot Studio applica inoltre i criteri di moderazione dei contenuti a tutte le richieste dell'IA generativa per proteggere amministratori, autori e utenti da contenuti offensivi o dannosi. Questi criteri di moderazione dei contenuti si estendono anche ai tentativi dannosi di jailbreak, prompt injection, esfiltrazione di prompt e violazione del copyright. Tutti i contenuti vengono controllati due volte: la prima durante l'input dell'utente e di nuovo quando l'agente sta per rispondere. Se il sistema trova contenuti dannosi, offensivi o nocivi, impedisce all'agente di rispondere.

Infine, è buona norma comunicare agli utenti che l'agente utilizza l'intelligenza artificiale, pertanto il seguente messaggio predefinito informa gli utenti: "Solo perché tu sia consapevole, a volte uso l'intelligenza artificiale per rispondere alle tue domande".