Dela via


Copilot i Fabric-ordlista och termer

Den här artikeln innehåller en översikt över valda nyckeltermer och deras definitioner i kontexten för Copilot i Fabric. Se dessa termer när du läser artiklar om Copilot i Fabric, eller när du använder Copilot och behöver en påminnelse om vad en term eller ett namn betyder.

Term Definition (i samband med Copilot in Fabric)
Azure AI Search-
(tidigare Azure Cognitive Search)
Ett sök- och hämtningssystem med en omfattande uppsättning avancerade söktekniker som skapats för högpresterande program i valfri skala. Azure AI Search är det primära rekommenderade hämtningssystemet när du skapar RAG-baserade program i Azure, med interna LLM-integreringar mellan Azure OpenAI Service och Azure Machine Learning.
,
Du använder Azure AI Search för att skapa egna assistenter.
Azure OpenAI-tjänsten
(Azure OpenAI)
Ger REST API-åtkomst till OpenAI:s språkmodeller. Azure OpenAI Service är en Microsoft-hanterad tjänst som inte använder offentliga OpenAI-tjänster eller -resurser. Copilot skickar förbearbetade indata till Azure OpenAI så att indata kan bearbetas. Efter bearbetningen returnerar Azure OpenAI ett LLM-svar till Copilot för efterbearbetning.

Du kan inte visa, komma åt eller ändra Azure OpenAI-tjänster som används för Copilot i Fabric.
Kapacitetsenheter (CUS) Så här mäter du kapacitetsanvändning med hjälp av appen Kapacitetsmått för Microsoft Fabric. Antalet CU:er som du har beror på din SKU för vävnadskapacitet. Högre SKU:er har ett högre antal tillgängliga CU:er. När du använder 100% av dina tillgängliga processorer kan du ange ett tillstånd för begränsning, vilket kan leda till försämrade prestanda och fel.

Copilot i Fabric förbrukar från dina tillgängliga infrastrukturenheter.
Kapacitetsanvändning Datorpåverkan av alla dina kapacitetsoperationer.

Copilot i Fabric är en bakgrundsåtgärd som resulterar i kapacitetsanvändning.
Förbrukning (av fabric-CU:er) Användning av Fabric CUs. Synonymt med kapacitetsanvändning.

Användning av Copilot i Fabric resulterar i förbrukning av dina Fabric CUs.
Copilot En generativ AI-assistent som syftar till att förbättra dataanalysupplevelsen på Fabric-plattformen. Det finns olika Copilots i varje arbetsbelastning och olika Copilot-upplevelser beroende på vilket objekt och användargränssnitt du arbetar med.
Inbäddning (i kontexten för LLM:er) Processen att omvandla tokens till täta vektorer med verkliga tal. Inbäddningar ger LLM:er den semantiska betydelsen av en given token baserat på andra tokens runt dem i en mening eller ett stycke.
Erfarenhet En funktionell modul för Copilot, till exempel DAX-frågeupplevelsen, som genererar DAX-kod och genereringen av rapportsidan, som genererar visuella objekt för en Power BI-rapportsida.

När du använder Copilot i Fabric använder du olika Copilot-upplevelser. Varje arbetsbelastning och objekt kan ha flera upplevelser.
Grundmodell Basmodellerna som görs tillgängliga av leverantörer som OpenAI (för GPT-modellerna) eller antropiska (för Claude-modeller). Varje modell har egna träningsdata och fungerar på olika sätt, till exempel genom att använda olika sätt att tokenisera och bearbeta indata för att skapa ett svar.

Copilot i Fabric använder GPT-grundmodellerna från OpenAI, som hanteras av Microsoft i Azure OpenAI-tjänsten. Du kan inte ändra eller finjustera dessa modeller själv.
Generativ AI En form av artificiell intelligens där modeller tränas att generera nytt originalinnehåll baserat på indata från naturligt språk.

Copilot i Fabric är ett verktyg som utnyttjar generativ AI-teknik, som försöker förbättra dataanalysupplevelsen i Fabric-plattformen.
Jordning En förbearbetningsteknik där ytterligare kontextuell information hämtas och används för att förbättra LLM-svarets specificitet och användbarhet. Grunddata är alltid specifika för en användare och respekterar behörigheterna för objekt och eventuell framtvingad datasäkerhet.

Copilot i Fabric utför jordning under förbearbetningen av indataprompten, vilket kan innebära att hämta information från den aktuella aktiva Copilot-sessionen, objektmetadata eller specifika datapunkter.
indata Uppmaningen eller interaktionen som ges till Copilot som startar Copilot-processen.

Copilot i Fabric använder olika indata. främst en skriftlig, naturlig språkinmatning från användaren eller en genererad indata från naturligt språk från användaren som interagerar med en knapp eller liknande UI-element.
Stor språkmodell (LLM) Djupinlärningsmodeller som tränats med stora textkorpusar till att generera text. LLM:er baseras på idén om autoregressiva modeller, där de har tränats att förutsäga nästa ord (eller de mest sannolika) med tanke på de tidigare. LLM:er kan användas för att bearbeta stora mängder text och lära sig strukturen och syntaxen för mänskligt språk.

Copilot i Fabric utnyttjar GPT-serien med LLM:er från OpenAI, som finns i Azure OpenAI-tjänsten.
Meta-prompt En uppmaning som inte tillhandahålls av användaren. Meta-prompter tillhandahålls av Copilot och konfigureras av Microsoft. Varje Copilot-upplevelse använder sina egna meta-prompter för att förbättra specificiteten och användbarheten för Copilot-utdata. Till exempel använder DAX Query Copilot-upplevelsen en meta-prompt som innehåller flera exempel på DAX-frågor och -uttryck.
Naturligt språk Ett naturligt förekommande eller konversationsspråk.

Copilot i Fabric kan ta emot användarindata från en fråga på naturligt språk.
Drift (av infrastrukturresurser) Aktiviteter som inträffar i Fabric-struktur och resulterar i kapacitetsanvändning.

Begäranden och åtgärder på begäran som kan utlösas av användarinteraktioner med användargränssnittet, till exempel datamodellfrågor som genereras av visuella rapportobjekt, klassificeras som interaktiva åtgärder. Åtgärder som körs längre, till exempel semantisk modell eller dataflödesuppdateringar, klassificeras som bakgrundsåtgärder .

Copilot i Fabric är en bakgrundsprocess.
Orchestrator En uppgift under Copilot-förbearbetningen som avgör vilken färdighet eller vilket verktyg Copilot ska använda. Orchestrator avgör detta med hjälp av systeminformation från en meta-prompt som tillhandahålls vid inmatningstillfället.
Resultat Vad Copilot returnerar till en användare efter efterbearbetning. Utdata kan bestå av låg kvalitet och felaktigt innehåll, så användarna bör kritiskt utvärdera varje utdata innan ytterligare användning eller beslutsfattande.

Copilot i Fabric kan returnera olika utdata beroende på vilken upplevelse en individ använder.
Förbehandling Aktiviteter av Copilot där användarens indata tas och förbättras, eller ytterligare information hämtas, för att försöka skapa en mer specifik och användbar utdata.
Efterbearbetning Aktiviteter av Copilot där LLM-svaret tas, filtreras och hanteras för att producera de slutliga utdata. Efterbearbetningsaktiviteter varierar kraftigt beroende på den specifika Copilot-upplevelse som en individ använder.
Uppmaning Indata för Copilot skrivs på naturligt språk av en användare eller genereras av Copilot som svar på användarinteraktion.
Q&A(Power BI-funktion) En funktion i Power BI som låter dig ställa frågor om dina data med hjälp av naturliga data och få ett svar. Q&A använder bearbetning av naturligt språk, men inte generativ AI.

Copilot i Fabric kan användas för att förbättra Q&A-upplevelsen; Det kan till exempel generera synonymer för språklig modellering.
Svar (av en LLM) Resultatet av en bearbetad indata. Ett LLM-svar är alltid text, men den texten kan vara antingen naturligt språk, kod eller metadata.
Ansvarsfull AI (RAI) En uppsättning vägledande principer och metoder som i teorin bör minska riskerna och förbättra den etiska användningen av AI om de följs.
Återvinningsförstärkt generering (RAG) En arkitektur som utökar funktionerna i en LLM genom att lägga till ett informationshämtningssystem som tillhandahåller grunddata.

Copilot i Fabric använder RAG under förbehandling.
Färdighet En specifik uppgift i en Copilot-upplevelse. Till exempel är filtrering av en rapportsida en färdighet i sammanfattningsupplevelsen för Copilot-rapportsidan.
Lagerhållningsenhet (SKU) Storleken på din Infrastrukturkapacitet. En SKU anges med bokstaven F följt av ett tal, till exempel F2 eller F8. Större tal motsvarar större SKU:er.

Copilot i Fabric är endast tillgängligt för SKU:er av F2 eller högre.

Copilot och AI-funktioner stöds för närvarande inte på utvärderingsplattformar.
Utjämning En process i Infrastruktur där kapacitetsanvändningen för en bakgrundsåtgärd sprids över ett 24-timmarsfönster, från när åtgärden börjar till exakt 24 timmar senare. Utjämningsåtgärder minskar effekten av den högsta samtidiga användningen på din Infrastrukturkapacitet.

All användning av Copilot-kapacitet i Fabric jämnas ut eftersom det är en bakgrundsprocess.
token Den minsta informationsenhet som en LLM använder. En token består av ett eller flera tecken med ofta förekommande text. Varje token har ett motsvarande unikt heltal för en viss LLM, som kallas token-ID. Token krävs för att konvertera naturligt språk till en numerisk representation, vilket är vad en LLM använder för att bearbeta indata och returnera ett svar.
Tokenisering Processen att konvertera indata för naturligt språk till token. Tokenisering görs av en LLM och olika LLM-tokenisera indata på olika sätt.
Arbetsbelastning De olika funktionella områdena i Fabric, till exempel datateknik, datavetenskap eller Power BI. Olika typer av arbetsbelastningar i plattform använder olika Copilots. Det finns olika Copilot-upplevelser i varje arbetsbelastning.