Vad är MCP i Real-Time Intelligence? (förhandsversion)

Med Model Context Protocol (MCP) i Real-Time Intelligence (RTI) kan AI-modeller, AI-agenter och program interagera med Fabric RTI-komponenter med naturligt språk.

Model Context Protocol (MCP) är ett standardiserat sätt för AI-modeller, till exempel Azure OpenAI-modeller, att identifiera och använda externa verktyg och datakällor. MCP gör det enklare att skapa intelligenta program som kan fråga, resonera och agera på realtidsdata. MCP gör det också enklare för AI-agenter att hitta, ansluta till och använda företagsdata.

Fabric Real-Time Intelligence innehåller två typer av MCP-servrar: lokala och fjärranslutna. Varje alternativ har olika distributionsmodeller, funktioner och användningsfall.

Lokal MCP-server för RTI

Den lokala MCP-servern för Fabric Real-Time Intelligence är en server med öppen källkod som du installerar, är värd för och hanterar själv. Den körs på din lokala dator och ger skrivskyddad åtkomst till Fabric RTI- och Azure Data Explorer-resurser (ADX).

Viktiga egenskaper:

  • Distribution: Lokalt installerad på din lokala dator
  • Source: Open-source på GitHub
  • Access: Skrivskyddade frågor till Eventhouse-, Eventstream-, Map- och Azure Data Explorer-kluster (ADX).
  • Hantering: Du hanterar installation, uppdateringar och underhåll

Detaljerad information finns i Komma igång med den lokala MCP-servern.

Fjärr-MCP-servrar

Fjärr-MCP-servrar hanteras av Microsoft och är tillgängliga som HTTP-slutpunkter. Du konfigurerar MCP-klienten så att den ansluter till dessa servrar utan att installera eller hantera någon programvara.

Server Beskrivning Kapaciteter
Eventhouse MCP-server Gör det möjligt för AI-agenter att fråga Eventhouse med naturligt språk Schemaidentifiering, KQL-frågegenerering, datasampling, naturligt språk till KQL-översättning
Aktivator MCP-server Gör att AI-agenter kan interagera med Fabric Activator Skapa övervakningsregler, hantera aviseringar, utlösa åtgärder
  • MCP-värd: Miljön där AI-modellen (till exempel GPT-4, Claude eller Gemini) körs.
  • MCP Client: En mellanhandstjänst vidarebefordrar AI-modellens begäranden till MCP-servrar som GitHub Copilot, Cline eller Claude Desktop.
  • MCP Server: Små program som gör specifika funktioner tillgängliga för AI-modeller, till exempel köra databasfrågor. Till exempel kan Fabric RTI MCP-server köra KQL-frågor för datahämtning i realtid från KQL-databaser.

När du ska använda lokala servrar jämfört med fjärrservrar

Gränssnitt för naturligt språk: Ställ frågor på vanlig engelska eller andra språk, och systemet omvandlar dem till optimerade frågor (NL2KQL – naturligt språk till Kusto Query Language).

Scenario Rekommenderat alternativ
Fråga Eventhouse- eller ADX-data med fullständig kontroll över servern Lokal MCP-server
Fråga Eventhouse utan att hantera serverinfrastruktur Remote Eventhouse MCP
Skapa övervakningsregler och aviseringar i Activator Fjärraktiveringssystem MCP
Använd på molnagentplattformar som Copilot Studio eller Azure AI Foundry Fjärr-MCP-servrar
Behöver offline- eller luftgapad åtkomst Lokal MCP-server
Vill ha automatiska uppdateringar och underhåll Fjärr-MCP-servrar

AI-klienter som stöds

Både lokala och fjärranslutna MCP-servrar fungerar med populära AI-klienter:

RTI-komponenter som stöds

Eventhouse – Kör KQL-frågor mot KQL-databaserna i Din Eventhouse-serverdel . Med det här enhetliga gränssnittet kan AI-agenter söka i dina realtidsdata, analysera mönster och vidta åtgärder baserat på vad de hittar.

Anmärkning

Du kan också använda Fabric RTI MCP Server för att köra KQL-frågor mot klustren i Azure Data Explorer serverdel.