Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Med Model Context Protocol (MCP) i Real-Time Intelligence (RTI) kan AI-modeller, AI-agenter och program interagera med Fabric RTI-komponenter med naturligt språk.
Model Context Protocol (MCP) är ett standardiserat sätt för AI-modeller, till exempel Azure OpenAI-modeller, att identifiera och använda externa verktyg och datakällor. MCP gör det enklare att skapa intelligenta program som kan fråga, resonera och agera på realtidsdata. MCP gör det också enklare för AI-agenter att hitta, ansluta till och använda företagsdata.
Fabric Real-Time Intelligence innehåller två typer av MCP-servrar: lokala och fjärranslutna. Varje alternativ har olika distributionsmodeller, funktioner och användningsfall.
Lokal MCP-server för RTI
Den lokala MCP-servern för Fabric Real-Time Intelligence är en server med öppen källkod som du installerar, är värd för och hanterar själv. Den körs på din lokala dator och ger skrivskyddad åtkomst till Fabric RTI- och Azure Data Explorer-resurser (ADX).
Viktiga egenskaper:
- Distribution: Lokalt installerad på din lokala dator
- Source: Open-source på GitHub
- Access: Skrivskyddade frågor till Eventhouse-, Eventstream-, Map- och Azure Data Explorer-kluster (ADX).
- Hantering: Du hanterar installation, uppdateringar och underhåll
Detaljerad information finns i Komma igång med den lokala MCP-servern.
Fjärr-MCP-servrar
Fjärr-MCP-servrar hanteras av Microsoft och är tillgängliga som HTTP-slutpunkter. Du konfigurerar MCP-klienten så att den ansluter till dessa servrar utan att installera eller hantera någon programvara.
| Server | Beskrivning | Kapaciteter |
|---|---|---|
| Eventhouse MCP-server | Gör det möjligt för AI-agenter att fråga Eventhouse med naturligt språk | Schemaidentifiering, KQL-frågegenerering, datasampling, naturligt språk till KQL-översättning |
| Aktivator MCP-server | Gör att AI-agenter kan interagera med Fabric Activator | Skapa övervakningsregler, hantera aviseringar, utlösa åtgärder |
- MCP-värd: Miljön där AI-modellen (till exempel GPT-4, Claude eller Gemini) körs.
- MCP Client: En mellanhandstjänst vidarebefordrar AI-modellens begäranden till MCP-servrar som GitHub Copilot, Cline eller Claude Desktop.
- MCP Server: Små program som gör specifika funktioner tillgängliga för AI-modeller, till exempel köra databasfrågor. Till exempel kan Fabric RTI MCP-server köra KQL-frågor för datahämtning i realtid från KQL-databaser.
- Kom igång med mcp-fjärrservern för Eventhouse
- Kom igång med den fjärranslutna MCP-servern för Activator
När du ska använda lokala servrar jämfört med fjärrservrar
Gränssnitt för naturligt språk: Ställ frågor på vanlig engelska eller andra språk, och systemet omvandlar dem till optimerade frågor (NL2KQL – naturligt språk till Kusto Query Language).
| Scenario | Rekommenderat alternativ |
|---|---|
| Fråga Eventhouse- eller ADX-data med fullständig kontroll över servern | Lokal MCP-server |
| Fråga Eventhouse utan att hantera serverinfrastruktur | Remote Eventhouse MCP |
| Skapa övervakningsregler och aviseringar i Activator | Fjärraktiveringssystem MCP |
| Använd på molnagentplattformar som Copilot Studio eller Azure AI Foundry | Fjärr-MCP-servrar |
| Behöver offline- eller luftgapad åtkomst | Lokal MCP-server |
| Vill ha automatiska uppdateringar och underhåll | Fjärr-MCP-servrar |
AI-klienter som stöds
Både lokala och fjärranslutna MCP-servrar fungerar med populära AI-klienter:
RTI-komponenter som stöds
Eventhouse – Kör KQL-frågor mot KQL-databaserna i Din Eventhouse-serverdel . Med det här enhetliga gränssnittet kan AI-agenter söka i dina realtidsdata, analysera mönster och vidta åtgärder baserat på vad de hittar.
Anmärkning
Du kan också använda Fabric RTI MCP Server för att köra KQL-frågor mot klustren i Azure Data Explorer serverdel.