Usare Copilot con modelli semantici

Questo articolo illustra come usare le esperienze Copilot in Power BI per i modelli semantici.

Copilot in Microsoft Fabric è un assistente di intelligenza artificiale generativo che mira a migliorare l'esperienza di analisi dei dati nella piattaforma Fabric, incluso il carico di lavoro di Power BI. È possibile usare Copilot in Power BI per supportare sia lo sviluppo che l'utilizzo di modelli semantici sia da utenti self-service che aziendali. Quando usato in modo efficace, Copilot può supportare analisti e utenti aziendali per migliorare la produttività e ottenere più valore dai modelli semantici.

Tuttavia, per usare Copilot con modelli semantici in Power BI, è prima necessario preparare i dati, il modello semantico e gli utenti. Se non si preparano questi elementi, Copilot produce principalmente output di bassa qualità e imprecisi che potrebbero non essere corretti o persino fuorvianti. Le sezioni seguenti illustrano come usare Copilot in Power BI per sviluppare o usare un modello semantico con le esperienze di Copilot disponibili.

Annotazioni

Per altre informazioni, vedere la documentazione di Copilot in Power BI.

Copilot e le sue capacità si stanno evolvendo nel tempo. Le esperienze di Copilot nelle sezioni seguenti potrebbero cambiare e le nuove esperienze potrebbero diventare disponibili con i modelli semantici. Di conseguenza, è consigliabile rimanere aggiornati con le versioni mensili di Power BI e gli annunci di Copilot pertinenti.

Importante

Non è possibile abilitare o disabilitare Copilot in carichi di lavoro specifici o per esperienze di Copilot specifiche. Se si abilita Copilot in Fabric nella capacità di un utente o di un gruppo di sicurezza, tutti i carichi di lavoro e le esperienze di Copilot sono accessibili per tali utenti.

Sviluppare un modello semantico con l'aiuto di Copilot

Quando si sviluppa un modello semantico in Power BI, usare Copilot per migliorare l'efficienza e la praticità di determinate attività. In genere, questo processo comporta l'uso di Copilot per semplificare le modifiche ridondanti o ripetitive (ad esempio la generazione di descrizioni delle misure) o per affrontare o comprendere un modello complesso o DAX (ad esempio, l'uso di Copilot nella visualizzazione query DAX per spiegare i concetti DAX o generare query DAX).

Le sezioni seguenti illustrano in che modo uno sviluppatore o un analista di Power BI che crea modelli semantici può sfruttare le varie esperienze di Copilot in Power BI.

Annotazioni

Le sezioni seguenti riguardano le esperienze che supportano lo sviluppo di modelli semantici in Power BI Desktop e non online usando Modifica modelli di dati nel servizio Power BI. Le linee guida e le considerazioni riportate nelle sezioni seguenti potrebbero comunque essere valide quando si modificano i modelli di dati nel servizio Power BI, ma tenere presente che esistono differenze tra queste due esperienze.

In generale, sviluppare modelli semantici di Power BI usando Power BI Desktop o strumenti di terze parti, quindi pubblicare questi modelli nel servizio Power BI quando si è pronti per usarli. Tuttavia, è anche possibile modificare i modelli di dati nel servizio Power BI se si preferisce o se non è possibile usare gli strumenti desktop per sviluppare il modello.

Porre domande sui dati sul modello semantico

Durante lo sviluppo di un modello semantico, spesso è necessario esplorare ed eseguire query sui dati. In genere, si usa una combinazione dell'editor di Power Query, dell'area di disegno del report e delle query DAX. Tuttavia, è anche possibile porre domande sui dati sul modello e sul relativo contenuto usando il riquadro chat di Copilot. In genere, porre domande sui dati è più un'esperienza di consumo, in cui gli utenti aziendali possono porre domande sui dati quando non riescono a trovare la risposta in un report. Tuttavia, gli sviluppatori possono usare questa funzionalità per esplorare i dati o convalidare le prestazioni di Copilot sul modello.

L'immagine seguente mostra un esempio di un utente che pone una domanda sui dati a Copilot su un modello semantico. L'immagine mostra la richiesta seguente: Qual è stato il profitto % per l'area di vendita australia nel 2023?

Screenshot del riquadro chat di Copilot in cui un utente pone una domanda sui dati a cui risponde il modello semantico.

Casi d'uso

Usare Copilot per porre domande sui dati per i casi d'uso seguenti:

  • Esplorare i dati nel modello: Uno sviluppatore potrebbe usare l'esperienza Porre domande sui dati per esplorare i dati nel modello usando Copilot. Tuttavia, è probabile che sia più efficiente esplorare i dati aggiungendo oggetti visivi all'area di disegno del report o usando query DAX. Ciò è dovuto al fatto che gli oggetti visivi del report vengono aggiornati automaticamente ogni volta che si apportano modifiche al modello, ma le risposte alle domande sui dati nel riquadro chat di Copilot sono statiche e scompaiono ogni volta che si chiude il riquadro chat di Copilot. Inoltre, gli oggetti visivi generati da Copilot possono contenere filtri specifici dell'oggetto visivo che non è possibile creare manualmente in Power BI Desktop. Questi filtri possono essere fuorvianti o problematici da analizzare.

  • Convalidare l'uso di Copilot per l'utilizzo del modello semantico: Gli sviluppatori devono usare l'esperienza Porre domande sui dati per comprendere e testare le prestazioni delle esperienze di consumo di Copilot sul modello semantico. Questo è il caso d'uso principale per l'uso di Porre domande sui dati quando si sviluppa un modello semantico. Questo caso d'uso consente a uno sviluppatore di apportare modifiche al modello semantico che potrebbe supportare meglio Copilot per produrre output più utili.

Importante

Quando si progetta il modello semantico, assicurarsi di discutere con gli utenti e documentare come usarlo, inclusi gli elementi, gli strumenti e le esperienze che useranno. Se gli utenti non usano Copilot in Power BI, uno sviluppatore non deve usare l'esperienza Porre domande sui dati per testare il modello. Tuttavia, se gli utenti prevedono di usare Copilot per usare modelli semantici ora o in futuro, è essenziale per gli sviluppatori tenere conto di questo aspetto durante la progettazione e lo sviluppo di modelli.

Vantaggi

Uno sviluppatore può usare Porre domande sui dati per comprendere in che modo l'esperienza sarà destinata agli utenti aziendali che usano il modello semantico usando Copilot in Power BI. Questo test è essenziale se gli utenti aziendali vogliono usare Copilot per usare un modello semantico.

Specifiche dell'esperienza

L'esperienza Porre domande sui dati è diversa dal Copilot standard nel processo Fabric nelle seguenti aree. Questa panoramica si applica all'uso dell'esperienza Porre domande sui dati durante lo sviluppo e l'utilizzo di modelli semantici:

  • Immissione: Gli utenti forniscono una richiesta scritta che pone una domanda o richiede informazioni specifiche dal modello semantico.

  • Pre-elaborazione e dati di ancoraggio: Copilot recupera i dati di ancoraggio dallo schema del modello. Esegue la riduzione dello schema per tentare di limitare il contesto a ciò che è più importante. Come contesto, Copilot accetta le informazioni seguenti per cercare di migliorare l'utilità e la specificità dell'output di Copilot:

    • Tutti i metadati del report nella pagina del report corrente. Se sono presenti metadati del report pertinenti, Copilot in Power BI risponde alle domande sui dati dal report anziché dal modello.
    • Conversazione con Copilot nella sessione corrente. Questa conversazione include eventuali domande e output precedenti, inclusi i punti dati delle domande relative ai dati a cui Copilot ha risposto in precedenza.
    • Schema del modello semantico, che include tabelle, righe, colonne, misure e altri oggetti , ad esempio relazioni, gruppi di calcolo e così via.
    • Schema linguistico del modello completo.
    • Alcune proprietà del modello semantico, incluse descrizioni, tipi di dati, stringhe di formato e categoria di dati.

    Le informazioni seguenti sono escluse:

    • Qualsiasi pagina del report nascosta.
    • Qualsiasi campo (misura o colonna) nel modello nascosto.
    • Qualsiasi tabella nel modello contrassegnata come privata.
  • Prodotto: L'output fornito da Copilot contiene diverse parti:

    • Visivo: Copilot risponde alla domanda sui dati eseguendo il rendering di un oggetto visivo di Power BI, ad esempio una scheda, un grafico a linee o una tabella. Copilot sceglie l'oggetto visivo e la relativa formattazione, che l'utente non può controllare o richiedere nella richiesta. La visualizzazione potrebbe andare in timeout se il modello sottostante, il DAX o i dati non sono ottimizzati o sono troppo complessi.
    • Sommario: Copilot riepiloga il risultato della query. Questo riepilogo viene generato inviando un risultato di query semantica ad Azure OpenAI (che include i punti dati) e richiedendo una spiegazione in linguaggio naturale.
    • Errori o richiesta di chiarimento: Se Copilot non è in grado di produrre una risposta, potrebbe restituire un messaggio di errore generico. Questo messaggio di errore può includere una richiesta di chiarimento, incluse le varianti suggerite della domanda di dati originali dell'utente.

Attenzione

Quando si usa Copilot in Power BI con modelli semantici in Power BI Desktop, Copilot potrebbe usare i metadati del report come dati di base. In determinate circostanze, i metadati del report possono contenere punti dati, ad esempio valori di colonna, che potrebbero includere informazioni riservate. Questa condizione è vera sia per il formato dei metadati del report legacy che per il nuovo formato di report avanzato (PBIR) di Power BI.

Suggerimenti per migliorare gli output di Copilot

Copilot può produrre output non accurati o di bassa qualità, incluse risposte errate alle domande relative ai dati. Spesso, risposte errate derivano da errori dell'utente o problemi del modello. Per ridurre la probabilità di output errati o imprevisti da parte di Copilot, affrontare le richieste degli utenti e la progettazione del modello di dati.

Importante

Risposte imprecise alle domande relative ai dati possono causare decisioni e azioni errate da parte degli utenti aziendali, che generano risultati negativi. Per evitare questo impatto negativo, è importante attenuare la probabilità di risposte imprecise da Parte di Copilot il più possibile.

Un utente può produrre risultati non corretti solo scrivendo una richiesta scadente. Di seguito sono riportati alcuni esempi di richieste scarse:

  • Prompt vaghi o incompleti: Se si descrive in modo non accurato o incompleto l'output desiderato o si usa una lingua ambigua nel prompt, è meno probabile che Copilot producano un risultato utile. Quando si scrivono richieste, provare a essere il più specifico e descrittivo possibile per indicare il risultato desiderato.

  • Prompt non corretti: Se si commettono errori di ortografia quando si fa riferimento a una misura, una colonna o un nome di tabella, Copilot potrebbe non fare riferimento al campo corretto. Quando si scrivono richieste, assicurarsi che i campi menzionati nella richiesta facciano riferimento correttamente ai campi nello schema del modello semantico. Questa regola include l'evitare abbreviazioni, acronimi o punteggiatura eccessiva. È anche possibile usare sinonimi per fare riferimento ai campi, ma non è possibile convalidare i sinonimi disponibili per un determinato campo, ad esempio come visualizzare le descrizioni quando si passa il puntatore del mouse su una misura o una colonna nel riquadro Dati.

  • Dati di base eccessivi o inappropriati: Se si invia una richiesta tramite il riquadro chat di Copilot, Copilot accetta la cronologia delle chat da tale sessione come dati di base durante la pre-elaborazione. A seconda di ciò che comporta la cronologia delle chat, è possibile ottenere risultati diversi o imprevisti. Quando si scrivono richieste, prendere in considerazione che le richieste e gli output precedenti vengono usati come dati di riferimento. Per evitare questo problema, selezionare il pulsante Copilot per chiudere e riaprire il riquadro della chat di Copilot, cancellando la cronologia delle chat prima di inviare una nuova richiesta.

L'immagine seguente mostra un esempio di output non corretto di Copilot a causa di un prompt utente non corretto:

Screenshot che mostra il riquadro della chat di Copilot in cui l'utente pone una domanda sui dati che Copilot risponde con il modello semantico.

L'immagine mostra la richiesta seguente: Qual è stato il profitto % per l'area di vendita australia nel 2023? Nell'output Copilot restituisce il valore del profitto anziché il profitto come percentuale. In questo caso, l'utente potrebbe ottenere un risultato migliore da Copilot specificando più chiaramente che desiderano il profitto in percentuale (anziché usare il simbolo percentuale).

Oltre alle richieste degli utenti, l'esperienza Porre domande sui dati può anche produrre risultati non corretti o imprevisti a causa della qualità o dell'organizzazione del modello semantico sottostante. Esempi di quando il modello semantico produce risultati scarsi includono:

  • Progettazione o implementazione di modelli scadenti: Se il modello semantico non segue le procedure consigliate comuni (ad esempio una progettazione dello schema star), è probabile che si ottengano risultati scarsi con qualsiasi strumento o esperienza di consumo. Cercare sempre modelli semantici di qualità per sfruttare al meglio Power BI e Fabric. Vedere anche Linee guida per la modellazione dei dati per Power BI per altri suggerimenti e indicazioni per migliorare i modelli semantici di Power BI.

  • Convenzioni di denominazione scarse: Se i campi hanno convenzioni di denominazione incoerenti o eccessive (ad esempio acronimi, abbreviazioni e punteggiatura), è più probabile che gli utenti commettono errori nei loro prompt e Copilot si confondano quando si fa riferimento a questi campi. Copilot funziona meglio quando tabelle, colonne e misure hanno nomi in inglese leggibile.

  • Organizzazione di modelli scadente: Se non si organizza il modello, è probabile che si verifichino più problemi con Copilot. L'organizzazione del modello è un argomento di grandi dimensioni che include molte attività, tra cui descrizioni dei campi, nascondere colonne e misure ed evitare campi con gli stessi nomi in tabelle diverse.

  • Modellazione linguistica: Se il modello semantico non ha la modellazione linguistica configurata, inclusi i sinonimi per campi o verbi per le relazioni, Copilot potrebbe essere più probabile che restituisca risultati imprevisti. Power BI si basa sulla stessa modellazione linguistica della funzionalità Q&A. La configurazione di un modello linguistico per il modello semantico comporta tempi e sforzi aggiuntivi sulle attività di sviluppo del modello semantico. Tuttavia, è possibile compensare questo problema leggermente usando Copilot per generare sinonimi, come illustrato più avanti in questo articolo.

  • Complessità del modello: Il modello più complesso è che include più campi, dipendenze e logica di business, maggiore è la probabilità che si verifichino difficoltà quando si usa Copilot. Ad esempio, modelli complessi come la conversione di valuta o le tabelle disconnesse (ad esempio i parametri di campo) possono causare risultati imprevisti o errati quando gli utenti fanno riferimento a questi campi o tabelle nelle richieste. Con modelli più complessi, potrebbe essere necessario prendere in considerazione decisioni specifiche di progettazione dei modelli per ottenere i risultati migliori con Copilot. In generale, è consigliabile testare il modello con Copilot per determinare se si ottengono risultati coerenti e affidabili. In caso contrario, potrebbe essere consigliabile consigliare agli utenti di non usare Copilot per consumare il modello semantico.

Annotazioni

Per altre informazioni, vedere Preparare un modello semantico per il consumo di Copilot più avanti in questo articolo. Vedere anche l'articolo separato aggiornare il modello di dati in modo che funzioni bene con Copilot per Power BI per altre considerazioni.

L'immagine seguente mostra un esempio di output non corretto di Copilot a causa di problemi con il modello semantico:

Screenshot di un utente che pone una domanda sui dati che Copilot risponde in modo non corretto a causa di nomi di campo ambigui nel modello semantico.

L'immagine illustra la richiesta seguente: Quante unità sono state vendute in Australia nel 2023? Nella risposta, Copilot restituisce il numero di unità in cui la colonna Country nella tabella Customer viene filtrata in "Australia", invece di filtrare la colonna Country nella tabella Area vendite . In questo caso, l'utente potrebbe aver migliorato la richiesta di specificare il paese dell'area di vendita. Tuttavia, lo sviluppatore di modelli semantici potrebbe anche nascondere o rinominare la colonna Country nella tabella Customer se non è destinata a essere usata da Copilot. In alternativa, è possibile disabilitare il campo dai sinonimi di campo del modello linguistico usando la configurazione Q&A.

L'importanza dello schema linguistico e della configurazione Q&A è descritta nella sezione Schema linguistico.

Suggerimento

È possibile identificare i campi e i filtri usati da Copilot per generare un oggetto visivo o rispondere a una domanda sui dati facendo clic sul pulsante Aggiungi alla pagina . Questa azione aggiunge l'oggetto visivo all'area di disegno del report, in cui è possibile selezionare l'oggetto visivo e visualizzare i filtri applicati da Copilot o i campi usati da Copilot.

Indipendentemente dalla qualità del prompt o del modello, è comunque possibile ottenere output non accurati o di bassa qualità da Copilot quando si usa l'esperienza Porre domande sui dati . Questo perché il modello sottostante, con la configurazione corrente, non è deterministico e non è garantito che producano una risposta corretta o la stessa risposta con lo stesso prompt, modello e dati.

L'immagine seguente mostra un esempio di Copilot che produce risultati imprecisi o inappropriati:

Screenshot di un utente che pone una domanda sui dati che Copilot risponde in modo non corretto filtrando la colonna data errata.

In questo esempio, l'immagine mostra le richieste: Domanda: Quale paese ha prodotto il profitto più alto nel 2024? e Domanda: Quale paese ha prodotto il profitto più alto nel 2023? Gli output mostrano prima che Copilot richieda chiarimenti dopo che non sono presenti dati per il modello 2024. Tuttavia, nel modello 2024 sono presenti dati quando si filtra l'anno usando la tabella date. Copilot restituisce quindi un filtro dei risultati che filtra la colonna Compleanno dalla tabella Customer anziché la tabella data contrassegnata nel modello. Anche se l'utente potrebbe produrre un prompt più specifico o lo sviluppatore potrebbe nascondere il campo Compleanno , in questo caso Copilot dovrebbe produrre il risultato previsto.

Per attenuare questo problema, si dovrebbe formare gli utenti a valutare criticamente gli output ottenuti da Copilot in Fabric e Power BI e a sapere cosa fare per risolvere eventuali risultati imprevisti. Inoltre, dovrebbero essere in grado di provare una nuova richiesta chiudendo e riaprendo il riquadro o la finestra della chat di Copilot.

Visualizzazione query DAX

Durante lo sviluppo di un modello semantico, usare Copilot per generare query DAX nella vista delle query DAX. In queste query è anche possibile definire misure DAX, che è quindi possibile aggiungere al modello semantico. È anche possibile usare Copilot per spiegare i concetti DAX nelle query generate o nelle query create manualmente.

L'immagine seguente mostra un esempio di un utente che chiede a Copilot di generare una query DAX.

Screenshot di un utente che richiede a Copilot di generare una query DAX nella visualizzazione query DAX.

L'immagine illustra la richiesta seguente: Profitto YTD per mese nel 2023. L'utente potrebbe quindi chiedere a Copilot di spiegare la query, come illustrato nell'immagine seguente.

Screenshot di Copilot che illustra una query DAX nella visualizzazione delle query DAX di Power BI Desktop.

L'immagine illustra il prompt seguente: Spiega questa query DAX. La spiegazione viene visualizzata nella parte inferiore della finestra Copilot.

Casi d'uso

Usare Copilot nella visualizzazione query DAX per i casi d'uso seguenti:

  • Generare query DAX: Usare Copilot per suggerire query DAX, che è possibile usare per:

    • Esplorare o analizzare il modello o i dati.
    • Testare e convalidare il modello o i dati.
    • Provare nuovi approcci o modelli per i calcoli in DAX.
  • Eseguire il refactoring delle query DAX esistenti: Usare Copilot per modificare in modo più pratico o efficiente le query copiate o scritte manualmente, ad esempio:

    • Aggiunta di commenti per spiegare e documentare una query o una misura DAX.
    • Semplificare la lettura e la comprensione della query, come nel caso di una query copiata da una visualizzazione di un report Power BI che si sta esaminando.
    • Esecuzione di sostituzioni grandi o ripetitive nel codice.
    • Chiedere a Copilot di rimuovere o sostituire le variabili.
  • Generare misure DAX: Usare Copilot per suggerire misure DAX definite a monte di una query generata. Queste misure possono essere limitate alla query DAX generata o aggiunta al modello semantico.

  • Illustrare i concetti di DAX: Usare Copilot per spiegare e comprendere meglio i diversi concetti in DAX, ad esempio:

    • Query DAX o una misura definita nel contesto della query.
    • Funzioni DAX, ad esempio CALCULATE o KEEPFILTERS.

Vantaggi

Il vantaggio principale dell'uso di Copilot nella visualizzazione query DAX è che si ottiene supporto quando si scrivono query DAX. Questo supporto significa che sviluppatori e analisti meno esperti possono usare Copilot per apprendere i concetti DAX o generare DAX da usare nel modello. Può anche far risparmiare tempo agli sviluppatori intermedio ed esperto quando devono sviluppare DAX, ma non riescono a ricordare una funzione o un modello specifico o quando vogliono eseguire il refactoring o semplificare una query esistente.

Altri strumenti di intelligenza artificiale generativi sono disponibili per il codice DAX, ma Copilot in Power BI offre i vantaggi specifici seguenti:

  • Copilot in Power BI viene sviluppato in collaborazione con gli autori del linguaggio DAX.
  • Copilot non usa alcuna ottimizzazione del modello, ma contiene metaprompt con esempi DAX specifici di Microsoft.
  • Non è necessario copiare o incollare codice o informazioni sul modello, perché Copilot è integrato in Power BI Desktop.
  • Durante la post-elaborazione, Copilot usa un parser DAX per garantire che la query sia valida, riducendo così la probabilità di ricevere allucinazioni nelle query.

Avvertimento

Gli sviluppatori o gli analisti di Power BI inesperti devono assicurarsi di convalidare e comprendere qualsiasi DAX generato prima di usarlo. Questa convalida è particolarmente importante quando si usa Copilot nella visualizzazione query DAX per suggerire misure aggiunte al modello. Ciò è dovuto al fatto che Copilot non sa dove si userà tale misura e, mentre il codice suggerito potrebbe funzionare nella query DAX iniziale, in un contesto di filtro diverso del report, potrebbe produrre risultati imprevisti o errati.

Per convalidare e comprendere DAX, questi sviluppatori inesperti possono usare Copilot per aggiungere commenti al codice, spiegare i concetti e anche cercare i modelli o le funzioni usando origini online verificate, ad esempio la documentazione Microsoft.

Specifiche dell'esperienza

Le esperienze Copilot nella visualizzazione della query DAX presentano passaggi durante la pre-elaborazione e la post-elaborazione che differiscono dalle altre esperienze Copilot in Fabric.

Copilot nella visualizzazione delle query DAX include le specifiche seguenti da tenere presente:

  • Immissione: Gli utenti forniscono una richiesta scritta in una casella di input specifica per una singola finestra di query DAX. Possono richiedere una query, richiedere modifiche a una query esistente già generata da Copilot o spiegare un concetto DAX. Nella casella di input gli utenti possono anche selezionare i pulsanti per generare query. Il pulsante Riprova genera nuovamente la query ignorando il contesto corrente, in modo da poter provare a ottenere un approccio diverso.

  • Pre-elaborazione e dati di ancoraggio: Copilot recupera i dati di ancoraggio dallo schema del modello e qualunque elemento contenuto nella finestra di query. Copilot accetta le informazioni seguenti come contesto per cercare di migliorare l'utilità e la specificità dell'output di Copilot:

    • Qualsiasi testo nella finestra di query DAX corrente, incluso il codice DAX scritto, i commenti o le query DAX precedenti generate.
    • Cronologia delle conversazioni con Copilot dalla sessione attualmente attiva. Questa cronologia include domande e output precedenti, ma non punti dati.
    • Schema del modello semantico, che include tabelle, righe, colonne, misure e altri oggetti come relazioni e gruppi di calcolo. Questo schema include tutti gli oggetti indipendentemente dal fatto che siano nascosti o meno, tranne quando si dispone di una connessione dinamica a un modello semantico condiviso.
    • Sinonimi dello schema linguistico del modello.
    • Alcune proprietà del modello semantico, tra cui espressioni DAX, descrizioni (troncate dopo i primi 200 caratteri), tipi di dati, stringhe di formato (ed espressioni di stringa di formato) e categoria di dati.
    • Alcune aggregazioni statistiche, ad esempio valori minimi e massimi delle colonne del modello che potrebbero essere usate in una query. Questi valori sono punti dati inviati a Copilot come contesto.
    • Copilot potrebbe anche inviare il risultato della query ad Azure OpenAI per spiegare la query generata o i relativi risultati.

    Le informazioni seguenti sono escluse:

    • La cronologia delle conversazioni con Copilot nella sessione corrente quando si seleziona il pulsante Riprova.
    • Qualsiasi tabella nel modello contrassegnata come privata.
    • Commenti nelle espressioni DAX.
  • Output: L'output fornito da Copilot contiene o il codice DAX e i commenti DAX nella finestra di query DAX, oppure spiegazioni del DAX nella casella di input di Copilot. Un utente deve in genere scegliere di eseguire e mantenere la query stessa.

Suggerimenti per migliorare gli output di Copilot

Per migliorare la qualità delle query DAX generate da Copilot, usare gli stessi suggerimenti di quando si usa l'esperienza Porre domande sui dati in Copilot. In particolare, assicurarsi che le richieste siano chiare, accurate e descrittive e che il modello semantico sia ben progettato, organizzato e non contenga troppe complessità o eccezioni.

Annotazioni

Per altre informazioni, vedere Preparare un modello semantico per il consumo di Copilot più avanti in questo articolo. Vedere anche l'articolo separato aggiornare il modello di dati in modo che funzioni bene con Copilot per Power BI per altre considerazioni.

Di seguito sono riportati alcuni suggerimenti specifici per l'esperienza di query DAX:

  • Differenze tra i modelli di connessione locale e dinamica: Copilot funziona in modo diverso a seconda che si stia eseguendo una query su un modello locale aperto in Power BI Desktop o in un modello semantico condiviso nel servizio Power BI. Ad esempio, quando si dispone di una connessione dinamica a un modello semantico condiviso e si usa l'esperienza di visualizzazione query DAX:

    • Copilot non è in grado di visualizzare le espressioni DAX delle misure, né alcun oggetto nascosto o privato.
    • Copilot deve eseguire la query DAX prima di restituirla per assicurarsi che la query sia valida.
  • Usare il pulsante Riprova: Il pulsante Riprova svuota la cache di Copilot, assicurandosi di ottenere un nuovo risultato con gli stessi dati di richiesta e messa a terra. Questa funzionalità è utile quando si lavora in modo iterativo verso una soluzione che soddisfi i requisiti specifici.

  • Chiedere a Copilot di aggiungere commenti al codice: I commenti sono un modo utile per organizzare e documentare le query DAX e per comprendere il codice generato da Copilot. È anche possibile chiedere a Copilot di spiegare il concetto DAX.

  • Controllare la qualità, fonti con revisione paritaria: Se non si comprende ancora il codice generato con commenti e spiegazioni di Copilot, ricercare le funzioni e i modelli online da fonti affidabili nella documentazione Microsoft o nella community di Power BI.

  • Attenzione all'utilizzo delle variabili da parte di Copilot: Copilot può faticare a usare le variabili in modo appropriato nelle query DAX e nelle misure definite. Ad esempio, Copilot potrebbe provare a filtrare o raggruppare una variabile già dichiarata, che non è possibile e produce un risultato imprevisto.

  • Usare descrizioni concise per distinguere tra campi denominati in modo analogo: Le descrizioni consentono di individuare campi simili nello stesso modello, ad esempio Name nella tabella Customer e Name nella tabella Store .

  • Attenzione all'utilizzo del gruppo di calcolo da Parte di Copilot: Copilot può faticare a usare i gruppi di calcolo nelle query suggerite. Per migliorare l'uso dei gruppi di calcolo di Copilot, includere i nomi degli elementi di calcolo elencati nella descrizione del gruppo di calcolo.

  • Attenzione alle funzioni più recenti e alla sintassi DAX: Copilot e altri strumenti di intelligenza artificiale generativi sono limitati nel volume e nell'ambito dei dati di training. Di conseguenza, è più probabile che commettono errori con le funzioni o la sintassi DAX più recenti. Per questi scenari, è consigliabile provare prima a creare la query manualmente e quindi a modificarla usando Copilot.

  • Quando si generano misure, richiedere sempre una query: L'esperienza Copilot nella visualizzazione query DAX è progettata per generare query DAX. Si ottengono i risultati migliori quando si indica a Copilot di eseguire questa attività, anziché chiedere di generare una misura o un'altra espressione DAX.

Schema linguistico

Usare Copilot per suggerire sinonimi per i campi e le relazioni linguistiche per il modello. Creare sinonimi o relazioni quando si crea lo schema linguistico per il modello semantico. Questo passaggio di modellazione linguistica è importante per garantire che sia Q&A che Copilot possano restituire risultati utili quando gli utenti pongono domande a un modello semantico. Vengono usati per interpretare le richieste degli utenti e identificare i campi corretti, ad esempio il sinonimo Fatturato che viene utilizzato per identificare una misura denominata Importo delle vendite.

Per aggiungere sinonimi e relazioni al modello semantico, abilitare l'impostazione di Power BI Desktop Attiva Q&A per porre domande in linguaggio naturale sui dati nelle impostazioni di caricamento dati del file corrente. Aprire quindi la finestra di configurazione Q&A tramite Q&A Setup nella barra multifunzione della Modellazione di Power BI Desktop.

L'immagine seguente illustra la finestra di installazione di domande e risposte in Power BI Desktop, in cui è possibile aggiungere sinonimi e relazioni per l'uso da parte di Q&A e Copilot in Power BI.

Screenshot della finestra di installazione di domande e risposte in Power BI Desktop per l'aggiunta di sinonimi e relazioni linguistiche.

Da qui è possibile aggiungere manualmente sinonimi o relazioni oppure aggiungere sinonimi suggeriti dall'organizzazione, un thesaurus o usando i suggerimenti di Copilot. Copilot può suggerire sia sinonimi che nuovi tipi di relazione da aggiungere al modello semantico. Copilot può anche interpretare termini non riconosciuti. Per i sinonimi, è possibile modificarlo dal menu Impostazioni suggerimento , come illustrato nell'immagine seguente.

Schermata della vista sinonimi e delle impostazioni dei suggerimenti nella configurazione di Domande e Risposte di Power BI Desktop.

Per altre informazioni sull'uso del menu di configurazione Q&A, vedere Introduzione agli strumenti Q&A per eseguire il training di Q&A di Power BI.

Anziché usare la finestra di installazione Q&A, è anche possibile aggiungere sinonimi e relazioni usando i file YAML dello schema linguistico.

Usare Copilot per generare sinonimi come primo passaggio durante l'esecuzione della modellazione linguistica per il modello semantico. Quindi, curare i sinonimi suggeriti, rimuovendo quelli che non hanno senso e aggiungendo sinonimi aggiuntivi dove necessario. Assicurarsi di condividere sinonimi utili con l'organizzazione per riutilizzarli.

Se si vuole escludere una tabella, una colonna o una misura dall'uso da Q&A o Copilot, disabilitare Includi in Q&A nella finestra Sinonimi della configurazione di Q&A. Questa azione è consigliata quando si hanno campi tecnici o ridondanti a cui non si vuole fare riferimento usando le varie esperienze copilote.

Annotazioni

Se non si prevede di usare Copilot o Q&A per il modello semantico, non è necessario configurare uno schema linguistico. La modellazione linguistica offre solo vantaggi a queste caratteristiche specifiche.

Vantaggi

L'uso di Copilot per suggerire sinonimi può risparmiare tempo per gli sviluppatori e aiutare a trovare nuovi sinonimi che non considererebbero altrimenti. Questo approccio può rendere la modellazione linguistica più efficiente ed efficace, se necessario usarla.

Suggerimenti per migliorare gli output di Copilot

Questa esperienza di Copilot usa i dati di base seguenti per il contesto:

  • Schema del modello semantico, che include tabelle, righe, colonne, misure non nascoste e altri oggetti (ad esempio, relazioni, gruppi di calcolo e altri).
  • Schema linguistico del modello completo.
  • Alcune proprietà del modello semantico, incluse descrizioni, tipi di dati, stringhe di formato e categoria di dati.

Dato questi dati di base, è possibile assicurarsi che i sinonimi suggeriti siano utili per:

  • Uso di convenzioni di denominazione coerenti e accurate.
  • Evitare l'uso di punteggiatura, acronimi e abbreviazioni, ove possibile.
  • Denominazione di tabelle, colonne e misure in inglese.

Generare descrizioni delle misure con Copilot

Usare Copilot per generare descrizioni per le misure del modello. Le descrizioni delle misure consentono sia ai consumer di modelli che ad altri sviluppatori di comprendere lo scopo di una misura e come usarlo. Inoltre, le descrizioni delle misure possono migliorare l'utilità degli output di Copilot per altre esperienze Copilot, ad esempio quando si usa Copilot per generare query DAX nella visualizzazione query DAX di un modello semantico di Power BI.

Usare Copilot per generare descrizioni delle misure dei modelli. Esaminare quindi i risultati e modificarli per assicurarsi che siano accurati, concisi e utili.

Vantaggi

La creazione di descrizioni delle misure è in genere un'attività difficile spesso trascurata. La generazione di descrizioni delle misure riduce il tempo dedicato all'organizzazione e alla documentazione del modello semantico. A differenza di uno schema linguistico, tutti i modelli semantici traggono vantaggio dall'aggiunta di descrizioni a tabelle, colonne e misure. Questa procedura consente di migliorare la documentazione del modello e l'utilità per altri utenti dell'organizzazione.

Suggerimento

Se sono necessarie descrizioni delle misure in un'altra lingua, è possibile generarle prima in inglese. È quindi possibile tradurre automaticamente il modello pubblicato usando altri strumenti, ad esempio i lab di collegamento semantico nei notebook.

Suggerimenti per migliorare gli output di Copilot

Questa esperienza di Copilot usa i dati di base seguenti per il contesto:

  • Espressioni DAX per misure e oggetti calcolati.
  • Proprietà dei campi, incluse descrizioni, tipi di dati, stringhe di formato e categoria di dati.
  • Sinonimi di campo.

Dato questi dati di base, è possibile assicurarsi che i sinonimi suggeriti siano utili per:

  • Uso di convenzioni di denominazione coerenti.
  • Limitazione dell'uso di punteggiatura, acronimi e abbreviazioni.
  • Denominazione delle misure in inglese.

Consumare un modello semantico usando Copilot

È possibile usare Copilot per porre domande sui dati ai modelli semantici durante l'utilizzo. Questa esperienza è disponibile ogni volta che si usa un report, incluso in Power BI Desktop, un report pubblicato in un'area di lavoro, un'app o un elemento OrgApp o nell'app Power BI per dispositivi mobili.

Gli utenti possono porre domande sui dati di un modello semantico negli scenari seguenti:

  • Non riescono a trovare le informazioni o l'analisi necessarie nei report.
  • Vogliono visualizzare i dati presentati in modo diverso e personalizzazione degli oggetti visivi non è abilitata.
  • Vogliono porre una domanda di dati usando il linguaggio naturale, invece di usare strumenti o codice.

Annotazioni

Vedere Porre domande sui dati in precedenza in questo articolo sullo sviluppo di un modello semantico con l'aiuto di Copilot. Le immagini e le indicazioni sono valide anche quando si usa l'esperienza porre domande sui dati per usare un modello semantico.

Per altre informazioni su come usare Copilot nei report, che usano un modello semantico, vedere l'articolo Usare Copilot con i report di Power BI.

Preparare un modello semantico per l'integrazione con Copilot

Usare Copilot per usare i modelli semantici solo dopo aver eseguito i passaggi necessari per aggiornare il modello di dati in modo che funzioni correttamente con Copilot per Power BI.

Suggerimento

** Prendi in considerazione l'uso di tag per etichettare i modelli semantici come pronti per l'utilizzo con Copilot. Questo metodo consente ai consumer di dati di identificare i modelli che possono usare con Copilot e di aspettarsi risultati migliori. In alternativa, considerare l'idoneità di un modello semantico da usare con Copilot come criterio per l'approvazione al raggiungimento dello stato promosso o persino certificato.

Se i modelli non sono pronti per l'uso con Copilot in Power BI, ma gli utenti vogliono comunque la flessibilità necessaria per interrogare i dati stessi, è consigliabile usare oggetti visivi personalizzati. In alternativa, è possibile mostrare agli utenti come usare le esplorazioni dei dati o connettersi al modello semantico da Power BI Desktop o Excel per creare report personalizzati.

Power BI Desktop per analisi dati

In Power BI Desktop, usi il riquadro della chat di Copilot per porre domande relative ai dati sul modello semantico. Questa funzionalità funziona con entrambi i modelli locali aperti in Power BI Desktop e quando si è connessi a un modello semantico condiviso usando una connessione dinamica. Per altre informazioni, vedere Porre domande sui dati in precedenza in questo articolo.

È anche possibile usare la visualizzazione delle query DAX per consumare un modello semantico generando query DAX. Gli utenti avanzati di Power BI potrebbero usare questo approccio se preferiscono esplorare i dati usando il codice.

Tuttavia, per la maggior parte dei consumer di dati, è in genere più pratico ed efficiente usare ed esplorare un modello semantico aggiungendo oggetti visivi all'area di disegno del report o usando altri elementi come le esplorazioni o le tabelle pivot di Analizza in Excel. Questi elementi in genere hanno un'interfaccia utente più semplice e un'esperienza utente più adatta all'esplorazione e alla comprensione dei dati rispetto alle esperienze simili al linguaggio naturale, ad esempio Copilot.

Suggerimento

È possibile usare le esperienze di Copilot in Power BI quando si è connessi a modelli semantici pubblicati nei workspace Pro o PPU. L'unico requisito consiste nel configurare Power BI Desktop per l'utilizzo di Copilot da un'area di lavoro F64; questo requisito si verifica indipendentemente dal modello semantico a cui ci si connette e si utilizza.

Report pubblicato

In un report pubblicato, usa il riquadro chat di Copilot per fare domande sui dati del modello semantico connesso. Questa esperienza in Fabric è identica all'esperienza Porre domande sui dati in Power BI Desktop sia per lo sviluppo di modelli che per l'utilizzo.

Annotazioni

Potrebbero esistere lievi differenze tra le esperienze di Copilot in Fabric e in Power BI Desktop. Alla fine, nel corso del tempo, queste esperienze avranno parità e funzioneranno allo stesso modo.

App Power BI per dispositivi mobili

Nell'app Power BI per dispositivi mobili, usare il riquadro chat Copilot nell'app per porre domande sui dati per qualsiasi report. Le domande sono relative al modello semantico connesso per tale report. Questa funzionalità funziona in modo analogo all'esperienza Porre domande sui dati illustrata in precedenza in questo articolo.