Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Protokół MCP (Model Context Protocol) w usłudze Real-Time Intelligence (RTI) umożliwia korzystanie z modeli sztucznej inteligencji, agentów sztucznej inteligencji i aplikacji do interakcji z składnikami Fabric RTI przy użyciu języka naturalnego.
Protokół kontekstowy Model (MCP) zapewnia ustandaryzowany sposób dla modeli sztucznej inteligencji, takich jak modele Azure OpenAI, do odnajdywania i używania zewnętrznych narzędzi i źródeł danych. McP ułatwia tworzenie inteligentnych aplikacji, które mogą wykonywać zapytania, rozumować i działać na danych w czasie rzeczywistym. McP ułatwia również agentom sztucznej inteligencji znajdowanie, nawiązywanie połączenia z danymi przedsiębiorstwa i korzystanie z nich.
Fabric Real-Time Intelligence zapewnia dwa typy serwerów MCP: lokalne i zdalne. Każda opcja ma różne modele wdrażania, możliwości i przypadki użycia.
Lokalny serwer MCP dla RTI
Lokalny serwer MCP na potrzeby Fabric Real-Time Intelligence to serwer open source, który instalujesz, hostujesz i zarządzasz samodzielnie. Działa na komputerze lokalnym i zapewnia dostęp tylko do odczytu do zasobów Fabric RTI i Azure Data Explorer (ADX).
Kluczowe cechy:
- Wdrożenie: Samodzielne hostowanie na komputerze lokalnym
- Source: Otwórz źródło w GitHub
- Access: zapytania tylko do odczytu do klastrów eventhouse, Eventstream, Map i Azure Data Explorer (ADX).
- Zarządzanie: zarządzasz instalacją, aktualizacjami i konserwacją
Aby uzyskać szczegółowe informacje, zobacz Wprowadzenie do lokalnego serwera MCP.
Zdalne serwery MCP
Zdalne serwery MCP są hostowane przez Microsoft i są dostępne jako punkty końcowe HTTP. Klient MCP należy skonfigurować tak, aby łączył się z tymi serwerami bez instalowania oprogramowania ani zarządzania nim.
| Serwer | Opis | Capabilities |
|---|---|---|
| Serwer MCP usługi Eventhouse | Umożliwia agentom sztucznej inteligencji wykonywanie zapytań dotyczących usługi Eventhouse przy użyciu języka naturalnego | Odnajdywanie schematów, generowanie zapytań KQL, próbkowanie danych, tłumaczenie języka naturalnego na język KQL |
| Serwer aktywatora MCP | Umożliwia agentom sztucznej inteligencji interakcję z Fabric Activator. | Tworzenie reguł monitorowania, zarządzanie alertami, akcje wyzwalania |
- Host MCP: środowisko, w którym działa model sztucznej inteligencji (np. GPT-4, Claude lub Gemini).
- MCP Client: Pośrednia usługa przekazuje żądania modelu sztucznej inteligencji do serwerów MCP, takich jak GitHub Copilot, Cline lub Claude Desktop.
- Serwer MCP: małe aplikacje, które udostępniają określone funkcje modelom sztucznej inteligencji, takie jak uruchamianie zapytań bazy danych. Na przykład serwer FABRIC RTI MCP może wykonywać zapytania KQL na potrzeby pobierania danych w czasie rzeczywistym z baz danych KQL.
- Rozpocznij korzystanie ze zdalnego serwera MCP dla Eventhouse
- Wprowadzenie do zdalnego serwera MCP dla Activatora
Kiedy należy używać serwerów lokalnych i zdalnych
Interfejsy języka naturalnego: zadawanie pytań w języku angielskim lub innych językach, a system przekształca je w zoptymalizowane zapytania (NL2KQL- Natural Language to Kusto Query Language).
| Scenario | Zalecana opcja |
|---|---|
| Wykonywanie zapytań dotyczących danych usługi Eventhouse lub ADX z pełną kontrolą nad serwerem | Lokalny serwer MCP |
| Wykonywanie zapytań w usłudze Eventhouse bez zarządzania infrastrukturą serwera | Remote Eventhouse MCP |
| Tworzenie reguł monitorowania i alertów w aktywatorze | Aktywacja zdalna MCP |
| Używanie na platformach agentów w chmurze, takich jak Copilot Studio lub Azure AI Foundry | Zdalne serwery MCP |
| Potrzebna jest dostęp w trybie offline lub w trybie air-gapped | Lokalny serwer MCP |
| Potrzeba aktualizacji automatycznych i konserwacji | Zdalne serwery MCP |
Obsługiwani klienci sztucznej inteligencji
Zarówno lokalne, jak i zdalne serwery MCP współpracują z popularnymi klientami sztucznej inteligencji:
Obsługiwane składniki RTI
Eventhouse — uruchamianie zapytań KQL w bazach danych KQL w zapleczu Eventhouse. Ten ujednolicony interfejs umożliwia agentom sztucznej inteligencji wyszukiwanie danych w czasie rzeczywistym, analizowanie wzorców i wykonywanie akcji na podstawie tego, co znajdują.
Uwaga / Notatka
Można również użyć serwera Fabric RTI MCP do uruchamiania zapytań KQL względem klastrów znajdujących się w zapasie Azure Data Explorer.