Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här sidan förklarar hur du använder dina Azure Databricks-data från följande plattformar när du har skapat en anslutning:
- Power Apps: Skapa program som kan läsa från och skriva till Azure Databricks, samtidigt som du bevarar dina Styrningskontroller för Azure Databricks.
- Power Automate: Skapa flöden och lägg till åtgärder som gör det möjligt att köra anpassad SQL eller ett befintligt jobb och få tillbaka resultaten.
- Copilot Studio: Skapa anpassade agenter med dina Azure Databricks-data som kunskapskälla eller anslut Genie-utrymmen som verktyg.
Förutsättningar
Innan du ansluter till Azure Databricks från Power Platform måste du skapa en anslutning till Azure Databricks på Microsoft Power Platform.
Använd dina Azure Databricks-data för att bygga Power Canvas-appar
Gör följande för att lägga till dina Azure Databricks-data i ditt program:
- Klicka på Skapa i det vänstra navigeringsfältet i Power Apps.
- Klicka på Börja med en tom arbetsyta och välj önskad arbetsytestorlek för att skapa en ny arbetsyteapp.
- Från ditt program klickar du på Lägg till dataanslutningsprogram >> Azure Databricks. Klicka på den Azure Databricks-anslutning som du skapade.
- Välj en katalog i sidofältet Välj en datauppsättning .
- I sidofältet Välj en datauppsättning väljer du alla tabeller som du vill ansluta din arbetsyteapp till.
- Klicka på Anslut.
Dataåtgärder i Power Apps:
Anslutningsappen stöder åtgärder för att skapa, uppdatera och ta bort, men endast för tabeller som har en definierad primärnyckel. När du utför skapandeåtgärder måste du alltid ange primärnyckeln.
Azure Databricks stöder genererade identitetskolumner. I det här fallet genereras primärnyckelvärden automatiskt på servern när raden skapas och kan inte anges manuellt.
Använda dina Azure Databricks-data för att skapa Power Automate-flöden
API:et för körning av Azure Databricks Statement Execution API och Jobs API:et exponeras i Power Automate-flöden, så att du kan skriva SQL-instruktioner och köra befintliga jobb. Om du vill skapa ett Power Automate-flöde med hjälp av Azure Databricks som en åtgärd, gör följande:
Klicka på Skapa i det vänstra navigeringsfältet i Power Automate.
Skapa ett flöde och lägg till valfri utlösartyp.
Från det nya flödet klickar du på + och söker efter "Databricks" för att se tillgängliga åtgärder.
Om du vill skriva en SQL-fråga väljer du någon av följande åtgärder:
Kör en SQL-instruktion: Skriv och kör en SQL-instruktion. Ange följande:
- För Brödtext/warehouse_id anger du ID för det lager där SQL-instruktionen ska köras.
- För Brödtext/statement_id anger du ID för SQL-instruktionen som ska köras.
Mer information om avancerade parametrar finns i API-dokumentationen.
Kontrollera status och få resultat: Kontrollera statusen för en SQL-instruktion och samla in resultat. Ange följande:
- För Instruktions-ID anger du det ID som returnerades när SQL-instruktionen kördes.
Mer information om parametern finns i API-dokumentationen.
Avbryt körningen av en -instruktion: Avsluta körningen av en SQL-instruktion. Ange följande:
- För Instruktions-ID anger du ID för SQL-instruktionen som ska avslutas.
Mer information om parametern finns i API-dokumentationen.
Hämta resultat efter segmentindex: Hämta resultat efter segmentindex, vilket är lämpligt för stora resultatuppsättningar. Ange följande:
- För Instruktions-ID anger du ID för SQL-instruktionen vars resultat du vill hämta.
- För Segmentindex anger du målsegmentindexet.
Mer information om parametrarna finns i API-dokumentationen.
Om du vill interagera med ett befintligt Azure Databricks-jobb väljer du någon av följande åtgärder:
- Listjobb: Hämtar en lista över jobb. Mer information finns i API-dokumentationen.
-
Utlös en ny jobbkörning: Kör ett jobb och returnerar den
run_idutlösta körningen. Mer information finns i API-dokumentationen. -
Hämta en enda jobbkörning: Returnerar metadata om en körning, inklusive körningsstatus (t.ex. ,
RUNNING,SUCCESS,FAILED), start- och sluttid, körningsvaraktighet, klusterinformation och så vidare. Mer information finns i API-dokumentationen. - Avbryt en körning: Avbryter en jobbkörning eller en aktivitetskörning. Mer information finns i API-dokumentationen.
- Hämta utdata för en enda körning: Hämtar utdata och metadata för ett enda jobb eller en aktivitetskörning. Mer information finns i API-dokumentationen.
Ansluta till Genie-utrymmen i Copilot Studio
Viktigt!
Den här funktionen finns som allmänt tillgänglig förhandsversion.
Viktigt!
Gör följande innan du använder den här funktionen:
- Aktivera förhandsversionen av hanterade MCP-servrar på din arbetsyta. Se Hantera förhandsversioner av Azure Databricks.
- Skapa en anslutning till Azure Databricks i Power Apps. Se Skapa en Azure Databricks-anslutning på Microsoft Power Platform.
Genie är en Azure Databricks-funktion som gör att affärsteam kan interagera med sina data med naturligt språk. Mer information om hur du konfigurerar Genie-utrymmen i Azure Databricks finns i Vad är ett Genie-utrymme. Se till att ge ditt Azure Databricks Genie-utrymme ett tydligt namn och en beskrivning.
Om du vill lägga till ett Genie-utrymme som ett verktyg i en Copilot Studio-agent gör du följande:
I sidofältet i Copilot Studio klickar du på Agent.
Välj en befintlig agent eller skapa en ny agent genom att klicka på + Skapa tom agent.
Välj agentens modell. Databricks rekommenderar att du väljer Sonnet 4.5 som agentmodell.
Under Instruktioner beskriver du agentens funktioner och hur den ska bete sig.
- Databricks rekommenderar att du inkluderar följande i instruktionerna: "Fortsätt alltid att avsöka Genie-utrymmet tills du får ett svar. Sluta inte efter några sekunder." Detta förhindrar att integreringen upprepade gånger skickar ett "fortfarande bearbetande" meddelande medan agenten avsöker Genie-utrymmet.
Under Verktyg klickar du på + Lägg till ett verktyg.
Sök efter "Azure Databricks" eller välj Modellkontextprotokoll.
Välj Azure Databricks Genie, välj din anslutning till Azure Databricks bredvid Anslutning och klicka på Lägg till och konfigurera.
Konfigurera Verktyget Azure Databricks Genie:
- Namnge verktyget. Ett mer beskrivande verktygsnamn hjälper Copilot Studio-agenten att orkestrera begäranden.
- Under Indata anger du Genie Space ID eller väljer genie-utrymmet från rullgardinsmenyn.
- Om du vill använda OBO-flödet (on-behalf-of) klickar du under Information på Ytterligare information. Välj Slutanvändarens autentiseringsuppgifter som de autentiseringsuppgifter som ska användas. Om du vill använda en unik identitet väljer du Maker-angivna autentiseringsuppgifter.
- För Slutanvändarens autentiseringsuppgifter måste du antingen aktivera delning av anslutningsparametrar, se Microsofts dokumentation eller så måste användarna ha en befintlig anslutning till Azure Databricks. Om delning av anslutningsparameter inte är aktiverat måste användarna skapa sin anslutning till Azure Databricks i Power Apps.
- Spara verktyget.
- (Valfritt) Uppdatera avsnittet verktyg på konfigurationsskärmen för att bekräfta att Genie-utrymmet är anslutet.
I det övre högra hörnet klickar du på Inställningar. Under avsnittet Orkestrering klickar du på Ja för att använda generativ AI-orkestrering för agentens svar.
Om du vill publicera din agent klickar du på Publicera i det övre högra hörnet.
(Valfritt) Publicera Den Genie-aktiverade Copilot Studio-agenten till Microsoft Teams eller Microsoft 365 för att distribuera Genie-insikter till andra användare. Information om hur du publicerar din agent finns i Microsofts dokumentation.
Du kan lägga till din agent i en Power App. Information om hur du konfigurerar en Power App finns i Använda dina Azure Databricks-data för att skapa Power Canvas-appar. Information om hur du lägger till din Copilot Studio-agent i en Power App finns i Microsofts dokumentation.
Om du vill använda agenten i din publicerade app öppnar du det publicerade programmet, klickar på Copilot-ikonen i det övre högra hörnet och ställer en fråga.
Använda Azure Databricks som kunskapskälla i Copilot Studio
Gör följande för att lägga till dina Azure Databricks-data som en kunskapskälla i en Copilot Studio-agent:
I sidofältet i Copilot Studio klickar du på Agent.
Välj en befintlig agent eller skapa en ny agent genom att klicka på + Ny agent.
- Beskriv agenten genom att ange ett meddelande och klicka sedan på Skapa.
- Eller klicka på Hoppa över för att ange agentens information manuellt.
På fliken Kunskap klickar du på + Kunskap.
Klicka på Avancerat.
Klicka på Azure Databricks som kunskapskälla.
Ange katalognamnet som dina data finns i.
Klicka på Anslut.
Välj de tabeller som du vill att agenten ska använda som kunskapskälla och klicka på Lägg till.
Skapa virtuella Dataverse-tabeller med dina Azure Databricks-data
Du kan också skapa virtuella Dataverse-tabeller med Azure Databricks-anslutningsappen. Virtuella tabeller, även kallade virtuella entiteter, integrerar data från externa system med Microsoft Dataverse. En virtuell tabell definierar en tabell i Dataverse utan att den fysiska tabellen lagras i Dataverse-databasen. Mer information om virtuella tabeller finns i Komma igång med virtuella tabeller (entiteter).
Anmärkning
Även om virtuella tabeller inte använder Dataverse-lagringskapacitet rekommenderar Databricks att du använder direkta anslutningar för bättre prestanda.
Du måste ha rollen Systemanpassare eller Systemadministratör. Mer information finns i säkerhetsroller för Power Platform.
Följ dessa steg för att skapa en virtuell Dataverse-tabell:
- I Power Apps går du till sidofältet och klickar på Tabeller.
- Klicka på + Ny tabell i menyraden och välj Skapa en virtuell tabell.
- Välj en befintlig Azure Databricks-anslutning eller skapa en ny anslutning till Azure Databricks. Information om hur du lägger till en ny anslutning finns i Skapa en Azure Databricks-anslutning på Microsoft Power Platform.
- Databricks rekommenderar att du använder en tjänsthuvudnamnsanslutning för att skapa en virtuell tabell.
- Klicka på Nästa.
- Välj de tabeller som ska representeras som en virtuell Dataverse-tabell.
Anmärkning
Virtuella Dataverse-tabeller kräver en primärnyckel. Nyckeln måste antingen vara ett GUID (sträng), bigInt eller ett heltal. Vyer kan inte vara virtuella tabeller, men materialiserade vyer kan vara det.
- Klicka på Nästa.
- Konfigurera den virtuella tabellen genom att uppdatera informationen i tabellen om det behövs.
- Klicka på Nästa.
- Bekräfta informationen om datakällan och klicka på Slutför.
- Använd den virtuella Dataverse-tabellen i Power Apps, Power Automate och Copilot Studio.
En lista över kända begränsningar för virtuella Dataverse-tabeller finns i Kända begränsningar och felsökning.
Ska du använda virtuella tabeller eller en direktanslutning?
Dataverse virtuella tabeller och en direktanslutning erbjuder olika fördelar. Vilken metod du väljer beror på ditt användningsfall. Tabellen nedan sammanfattar de viktigaste funktionerna för varje metod.
| Dataåtkomstmetod | Vidarebefordran av autentiseringsuppgifter för slutanvändare via OAuth | Zero-copy(ingen datakopiering) | Läs | Skriva till Azure Databricks | Canvas-appar | Modelldrivna appar |
|---|---|---|---|---|---|---|
| Direktanslutning | ✔ | ✔ | ✔ | ✔ | ✔ | |
| Virtuella Dataverse-tabeller | ✔ | ✔ | ✔ | ✔ | ✔ |
Genomföra batchuppdateringar
Om du behöver utföra massskapande,uppdaterings- eller borttagningsåtgärder som svar på Power Apps-indata rekommenderar Databricks att implementera ett Power Automate-flöde. Gör följande för att åstadkomma detta:
Skapa en canvasapp med din Azure Databricks-anslutning i Power Apps.
Skapa ett Power Automate-flöde med hjälp av Azure Databricks-anslutningen och använd Power Apps som utlösare.
I Power Automate-utlösaren lägger du till de indatafält som du vill skicka från Power Apps till Power Automate.
Skapa ett samlingsobjekt i Power Apps för att samla in alla dina ändringar.
Lägg till Power Automate-flödet i din canvas-app.
Anropa Power Automate-flödet från din arbetsyteapp och iterera över samlingen med hjälp av ett
ForAllkommando.ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
Samtidiga skrivoperationer
Samtidighet på radnivå minskar konflikterna mellan samtidiga skrivåtgärder genom att identifiera ändringar på radnivå och automatiskt lösa konflikter som uppstår när samtidiga skrivningar uppdaterar eller tar bort olika rader i samma datafil.
Samtidighet på radnivå ingår i Databricks Runtime 14.2 eller senare. Samtidighet på radnivå stöds som standard för följande typer av tabeller:
- Tabeller med borttagningsvektorer aktiverade och utan partitionering
- Tabeller med flytande klustring, såvida inte borttagningsvektorer är inaktiverade
Om du vill aktivera borttagningsvektorer kör du följande SQL-kommando.
ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);
Mer information om samtidiga skrivkonflikter i Azure Databricks finns i Isoleringsnivåer och skrivkonflikter.
Begränsningar
Begränsningar för Copilot Studio
- Genie spaces i Copilot Studio stöder upp till fem frågor per minut på grund av Genie API-hastighetsbegränsningar. Gränser på den kostnadsfria nivån finns för att förhindra missbruk. Kontakta databricks-kontoteamet om du vill skala längre.
Begränsningar i Power Apps
Följande PowerFx-formler beräknar värden med endast de data som hämtas lokalt:
| Kategori | Formula |
|---|---|
| Tabellfunktion |
|
| Aggregation |
|