Del via


Remote Power BI MCP serverværktøjer

Den eksterne Power BI MCP-server tilbyder værktøjer, der gør det muligt for AI-agenter at chatte med data i Power BI semantiske modeller ved brug af naturligt sprog. Gennem disse værktøjer kan AI-assistenter hente modelskemaer, generere DAX-forespørgsler og udføre forespørgsler for at levere indsigt fra dine data.

Vigtigt!

Den eksterne Power BI MCP-server er i forhåndsvisning. Værktøjsdefinitioner, anmodningsformater og svarskemaer kan ændre sig, efterhånden som vi forbedrer kapaciteterne.

Notat

Den eksterne Power BI MCP-server er ikke en traditionel REST API. Få adgang til den via MCP-kompatible agenter og frameworks i stedet for at foretage direkte HTTP-kald. Serveren implementerer Model Context Protocol-specifikationen, som giver en standardiseret grænseflade for AI-agenter til at opdage og påkalde værktøjer.

Tilgængelige værktøjer

MCP-serveren tilbyder følgende værktøjer, som AI-agenter kan kalde. For forbindelsesdetaljer, se Kom i gang med den eksterne Power BI MCP-server.

Få Semantic Model Schema

Henter omfattende metadata for en semantisk model, herunder:

  • Tabeller, kolonner, mål og relationer
  • Datatyper og hierarkier
  • AI-optimeret metadata, når de konfigureres af modelforfatteren:

Påkrævet input: Semantisk model-ID

Generer forespørgsel

Genererer optimerede DAX-forespørgsler fra naturlige sprogprompts ved hjælp af Copilot i Power BI. Værktøjet bruger samme DAX-genereringsmotor som Copilot for Power BI til at oprette forespørgsler, der følger best practices.

Påkrævede input:

  • Semantisk model-ID
  • Spørgsmål eller prompt i naturligt sprog
  • Relevant skemakontekst bestemt af agenten (tabeller, kolonner, målinger)

Krav:

Notat

Hvis du foretrækker ikke at bruge Copilot-kapacitet, kan du deaktivere dette værktøj i din MCP-klientkonfiguration og stole på, at din klients LLM genererer DAX direkte.

Udfør forespørgsel

Udfører en DAX-forespørgsel mod en semantisk model og returnerer resultaterne til AI-agenten.

Påkrævede input:

  • Semantisk model-ID
  • DAX-forespørgselsudtryk

Tilladelser:

  • Brugere skal have mindst byggetilladelser på den semantiske model
  • Forespørgsler udføres i konteksten af den autentificerede bruger

Sikkerhedsmæssige overvejelser:

  • Række-niveau sikkerhed (RLS) håndhæves for brugerautentificering
  • RLS understøttes i øjeblikket ikke, når man bruger Service Principal-autentificering

Se også:Execute Queries REST API

Bedste praksis

Gem semantiske model-ID'er til genbrug

Hvert værktøj kræver en semantisk model-ID. I stedet for at bede brugerne om at oplyse ID'et i hver chatsession, kan du gemme ofte brugte model-ID'er, hvor din agent kan få adgang til dem. Det kan f.eks. være:

  • VS Code: Opret en semantic-model-ids.json fil i dit arbejdsområde
  • Toldagenter: Gem ID'er i miljøvariabler eller konfigurationsfiler
  • Multimodel-scenarier: Vedligehold et katalog, der kortlægger venlige navne til model-ID'er

Find dit semantiske model-ID

For at få et semantisk model-ID fra Power BI-tjenesten:

  1. Log ind på Power BI
  2. Naviger til arbejdsområdet, der indeholder din semantiske model
  3. Vælg den semantiske model for at åbne dens detaljeside
  4. Kopier det semantiske model-ID fra URL'en

Semantiske model-URL'er følger dette format:

https://app.powerbi.com/groups/{workspaceId}/datasets/{semanticModelId}

Du kan også hente semantiske model-ID'er programmatisk ved hjælp af Power BI REST API'en.

Begrænsninger og overvejelser

Godkendelse og sikkerhed

  • Række-niveau sikkerhed (RLS): Det håndhæves i øjeblikket ikke, når man bruger Service Principal-autentificering. Når en tjenesteprincipal udfører forespørgsler, har den adgang til alle data, som principalen er autoriseret til at få adgang til. Gennemgå sikkerhedsimplikationer omhyggeligt, før du udsætter agenter, der er autentificerede agenter for slutbrugere.
  • Lejerindstillinger: Administratorer skal aktivere "Brugere kan bruge Power BI Model Context Protocol serverendpoint (preview)" for din organisation.

Forespørgselsgenerering

  • Kompleks DAX: Meget komplekse beregninger eller indlejret logik oversættes måske ikke perfekt fra naturlige sprogprompts.
  • Modeloptimering: Kvaliteten af forespørgselsgenerering forbedres markant, når du forbereder dine data til AI.

Ydeevne

  • Modeldesignets indflydelse: Forespørgselsudførelsespræstation afhænger af semantisk modeldesign, størrelse og optimering.
  • Store skemaer: Modeller med hundredvis af tabeller eller tusindvis af kolonner kan resultere i store skema-payloads.
  • Forespørgselskompleksitet: Komplekse DAX-forespørgsler kan tage længere tid at generere og udføre.

Kontekst og samtale

  • Kontekstvinduesbegrænsninger: Der er grænser for, hvor meget kontekst der kan opretholdes på tværs af samtaleture, afhængigt af hvilken AI-model din MCP-klient bruger.
  • Statsløse forespørgsler: Hver forespørgsel kører uafhængigt. Serveren opretholder ikke forespørgselsstatus mellem anmodninger.