Microsoft ODBC -ajuri Microsoft Fabric Data Engineeringille (Preview)

Tärkeää

Tämä ominaisuus on esikatseluvaiheessa.

ODBC (Open Database Connectivity) on laajasti hyväksytty standardi, joka mahdollistaa asiakassovellusten yhteyden tietokantojen ja big data -alustojen datan käsittelyn ja sen kanssa.

Microsoft ODBC Driver for Fabric Data Engineering mahdollistaa Spark-työkuormien yhdistämisen, kyselyn ja hallinnan Microsoft Fabricissa ODBC-standardin luotettavuudella ja yksinkertaisuudella. Microsoft Fabricin Livy-rajapintojen pohjalta rakennettu ajuri tarjoaa turvallisen ja joustavan Spark SQL -yhteyden .NET-, Python- ja muihin ODBC-yhteensopiviin sovelluksiin ja BI-työkaluihin.

Tärkeimmät ominaisuudet

  • ODBC 3.x -yhteensopivuus: ODBC 3.x -määrityksen täysi toteutus
  • Microsoft Entra ID autentikointi: Useita todennusvirtoja, mukaan lukien Azure CLI, interaktiivinen, asiakastunnukset, varmennepohjainen ja pääsytunnustunnistus
  • Spark SQL query support: Spark SQL -lauseiden suora suoritus
  • Kattava tietotyyppituki: Tuki kaikille Spark SQL -tietotyypeille, mukaan lukien monimutkaiset tyypit (ARRAY, MAP, STRUCT)
  • Istunnon uudelleenkäyttö: Sisäänrakennettu istunnonhallinta suorituskyvyn parantamiseksi
  • Suuren taulukon tuki: Optimoitu käsittely suurille tulosjoukoille, joissa sivukoot on konfiguroitavissa
  • Asynkroninen esilataus: Taustalla lataava datan lataus suorituskyvyn parantamiseksi
  • Välityspalvelintuki: HTTP-välityspalvelimen konfiguraatio yritysympäristöihin
  • Moniskeemainen Lakehouse-tuki: Yhdistä tiettyyn skeemaan Lakehousen sisällä
  • OneLake-integraatio: Pääsy Lakehouse-tietoihin, jotka on tallennettu Microsoft OneLakeen, mukaan lukien taulukot useiden skeemien yli, yhtenäisen ODBC-rajapinnan kautta ilman erillistä tallennuskonfiguraatiota
  • Environment items support: Liitä Fabric ympäristöelementtejä työn suorituksen aikana soveltaaksesi työtilakirjastoja, Spark-ominaisuuksia ja muuttujia jokaiseen istuntoon
  • Custom Spark configuration: Välitä Spark-konfiguraatioominaisuudet suoraan yhteysmerkkijono:n kautta istuntokäyttäytymisen säätämiseksi

Muistio

Avoimen lähdekoodin Apache Sparkissa tietokantaa ja skeemaa käytetään synonyymeinä. Esimerkiksi Fabric Notebookin suorittaminen SHOW SCHEMASSHOW DATABASES palauttaa saman tuloksen — listan kaikista Lakehousen skeemoista.

edellytykset

Ennen Microsoft ODBC Driverin käyttöä Microsoft Fabric Data Engineeringiin, varmista, että sinulla on:

  • Käyttöjärjestelmä: Windows 10/11 tai Windows Server 2016+
  • Microsoft Fabricin käyttö: Pääsy Microsoft Fabricin työtilaan
  • Microsoft Entra ID tunnistetiedot: Sopivat tunnistetiedot todennukseen
  • Workspace- ja Lakehouse-tunnisteet: GUID-tunnisteet Fabric-työtilallesi ja järvenrakennukselle
  • Azure CLI (valinnainen): Vaaditaan Azure CLI -todennusmenetelmälle

Lataus ja MSI-asennus

Microsoft ODBC Driver for Microsoft Fabric Data Engineering versio 1.0.0 on julkisessa esikatselussa, jonka voit ladata tästä latauskeskuksen linkistä.

  1. Lataa Microsoft ODBC Driver for Microsoft Fabric Data Engineering MSI -paketti
  2. Kaksoisklikkaus MicrosoftFabricODBCDriver-1.0.msi
  3. Seuraa asennusohjainta ja hyväksy lisenssisopimus
  4. Valitse asennushakemisto (oletus: C:\Program Files\Microsoft ODBC Driver for Microsoft Fabric Data Engineering\)
  5. Viimeistele asennus

Hiljainen asentaminen

# Silent installation
msiexec /i "MicrosoftFabricODBCDriver-1.0.msi" /quiet

# Installation with logging
msiexec /i "MicrosoftFabricODBCDriver-1.0.msi" /l*v install.log

Asennuksen tarkistaminen

Asennuksen jälkeen varmista, että ajuri on rekisteröity:

  1. Suorita odbcad32.exe (ODBC Data Source Administrator)
  2. Siirry Kuljettajat-välilehdelle
  3. Varmista, että "Microsoft ODBC Driver for Microsoft Fabric Data Engineering" on listattu

Nopea aloitusesimerkki

Tämä esimerkki osoittaa, miten yhdistetään Microsoft Fabriciin ja suoritetaan kysely Microsoft ODBC Driver for Microsoft Fabric Data Engineering -ajurilla. Ennen tämän koodin suorittamista varmista, että olet suorittanut vaaditut vaatimukset ja asentanut ajurin.

Python-esimerkki

import pyodbc

# Connection string with required parameters
connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=AZURE_CLI;"
)

# Connect and execute query
conn = pyodbc.connect(connection_string, timeout=30)
cursor = conn.cursor()

cursor.execute("SELECT 'Hello from Fabric!' as message")
row = cursor.fetchone()
print(row.message)

conn.close()

.NET-esimerkki

using System.Data.Odbc;

// Connection string with required parameters
string connectionString = 
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};" +
    "WorkspaceId=<workspace-id>;" +
    "LakehouseId=<lakehouse-id>;" +
    "AuthFlow=AZURE_CLI;";

using var connection = new OdbcConnection(connectionString);
await connection.OpenAsync();

Console.WriteLine("Connected successfully!");

using var command = new OdbcCommand("SELECT 'Hello from Fabric!' as message", connection);
using var reader = await command.ExecuteReaderAsync();

if (await reader.ReadAsync())
{
    Console.WriteLine(reader.GetString(0));
}

Yhteysmerkkijonomuoto

Perusyhteysjono

Microsoft ODBC Driver for Microsoft Fabric Data Engineering käyttää seuraavaa yhteysmerkkijonomuotoa:

DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};<parameter1>=<value1>;<parameter2>=<value2>;...

Yhteysmerkkijonon komponentit

Osa Kuvaus Esimerkki
KULJETTAJA ODBC-ajurin tunniste {Microsoft ODBC Driver for Microsoft Fabric Data Engineering}
WorkspaceId Microsoft Fabric workspace identifier (GUID) xxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxx
LakehouseId Microsoft Fabric Lakehouse -tunniste (GUID) xxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxx
AuthFlow Todentamismenetelmä AZURE_CLI, INTERACTIVE, , CLIENT_CREDENTIALCLIENT_CERTIFICATE, ,ACCESS_TOKEN

Esimerkkejä yhteysmerkkijonoista

Perusyhteys (Azure CLI authentication)

DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI

Suorituskykyvaihtoehdoilla

DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;ReuseSession=true;LargeTableSupport=true;PageSizeBytes=18874368

Metsänhakkuun kanssa

DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;LogLevel=DEBUG;LogFile=odbc_driver.log

Todennus

Microsoft ODBC Driver for Microsoft Fabric Data Engineering tukee useita todennusmenetelmiä Microsoft Entra ID:n (entinen Azure Active Directory) kautta. Tunnistautuminen konfiguroidaan yhteysmerkkijonon AuthFlow parametrin avulla.

Todennusmenetelmät

AuthFlow-arvo Kuvaus
AZURE_CLI Kehitys Azure CLI -tunnisteuksilla
INTERACTIVE Interaktiivinen selainpohjainen tunnistautuminen
CLIENT_CREDENTIAL Palvelupäähenkilö asiakassalaisuudella
CLIENT_CERTIFICATE Palvelupäämies todistuksella
ACCESS_TOKEN Ennakkoon hankittu haltijan pääsytunnus

Azure CLI -todennus

Paras: Kehitykseen ja interaktiivisiin sovelluksiin

# Python Example
connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=AZURE_CLI;"
    "Scope=https://api.fabric.microsoft.com/.default;"
)
conn = pyodbc.connect(connection_string)

Edellytykset:

  • Azure CLI asennettu: az --version
  • Kirjautunut sisään: az login

Interaktiivinen selaimen tunnistautuminen

Parhaiten: Käyttäjäkohtaisille sovelluksille

# Python Example
connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=INTERACTIVE;"
    "TenantId=<tenant-id>;"
    "Scope=https://api.fabric.microsoft.com/.default;"
)
conn = pyodbc.connect(connection_string)

Toiminta:

  • Avaa selaimen ikkunan käyttäjän tunnistautumista varten
  • Tunnistetiedot tallennetaan välimuistiin seuraavia yhteyksiä varten

Asiakastunnisteiden (palvelupäähenkilön) todennus

Paras: Automatisoidut palvelut ja taustatyöt

connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=CLIENT_CREDENTIAL;"
    f"TenantId={tenant_id};"
    f"ClientId={client_id};"
    f"ClientSecret={client_secret};"
)

Vaaditut parametrit

  • TenantId: Azure vuokralaisen tunnus
  • ClientId: Application (client) ID Microsoft Entra ID:stä
  • ClientSecret: Asiakassalaisuus Microsoft Entra ID:stä

Parhaat käytännöt

  • Tallenna salaisuudet turvallisesti (Azure Key Vault, ympäristömuuttujat)
  • Käytä hallittuja identiteettejä aina kun mahdollista
  • Kierrätä salaisuuksia säännöllisesti

Varmennepohjainen todentaminen

Paras: Yrityssovelluksiin, jotka vaativat varmennepohjaista todennusta

connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=CLIENT_CERTIFICATE;"
    "TenantId=<tenant-id>;"
    "ClientId=<client-id>;"
    "CertificatePath=C:\\certs\\mycert.pfx;"
    "CertificatePassword=<password>;"
)

Vaaditut parametrit:

  • TenantId: Azure vuokralaisen tunnus
  • ClientId: Sovelluksen (asiakas) tunnus
  • CertificatePath: Polku PFX/PKCS12-varmennetiedostoon
  • CertificatePassword: Varmenteen salasana

Pääsytunnuksen tunnistautuminen

Parhaiten: Mukautetut todennusskenaariot

# Acquire token through custom mechanism
access_token = acquire_token_from_custom_source()

connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=ACCESS_TOKEN;"
    f"AccessToken={access_token};"
)

Määritysparametrit

Pakolliset parametrit

Nämä parametrit täytyy olla läsnä jokaisessa yhteysjonossa:

Parametri Tyyppi Kuvaus Esimerkki
WorkspaceId UUID Microsoft Fabric workspace identifier 4bbf89a8-...
LakehouseId UUID Microsoft Fabric Lakehouse -tunniste d8faa650-...
AuthFlow String Tunnistautumisen virtaustyyppi AZURE_CLI

Valinnaiset parametrit

Yhteysasetukset

Parametri Tyyppi Oletus Kuvaus
Tietokanta String Ei toistuvuutta Erityinen tietokanta yhdistettäväksi
Käyttöalue String https://api.fabric.microsoft.com/.default OAuthin laajuus

Esitysasetukset

Parametri Tyyppi Oletus Kuvaus
ReuseSession totuusarvo true Käytä olemassa olevaa Spark-istuntoa uudelleen
LargeTableSupport totuusarvo false Ota optimointi käyttöön suurille tulosjoukoille
EnableAsyncPrefetch totuusarvo false Ota taustatietojen esihakemus käyttöön
PageSizeBytes Kokonaisluku 18874368 (18 MB) Sivun koko tulossivuille (1–18 MB)

Lokiasetukset

Parametri Tyyppi Oletus Kuvaus
LogLevel String INFO Logaritmitaso: TRACE, DEBUG, INFOWARN, ,ERROR
Lokitiedosto String odbc_driver.log Lokitiedoston polku (absoluuttinen tai suhteellinen)

Välityspalvelimen asetukset

Parametri Tyyppi Oletus Kuvaus
UseProxy totuusarvo false Ota välityspalvelin käyttöön
ProxyHost String Ei toistuvuutta Välityspalvelimen isäntänimi
ProxyPort Kokonaisluku Ei toistuvuutta Proxy-portti
ProxyUsername String Ei toistuvuutta Välityspalvelimen todennuskäyttäjätunnus
ProxyPassword String Ei toistuvuutta Välityspalvelimen todennussalasana

Ympäristöasetukset

Voit liittää Fabric-ympäristön esineen Spark-istuntoon, jonka kuljettaja aloittaa. Valitun ympäristön kirjastot, Spark-ominaisuudet ja muuttujat otetaan automaattisesti käyttöön istunnon luomisen yhteydessä.

Parametri Tyyppi Oletus Kuvaus
EnvironmentId UUID Ei toistuvuutta Fabric-ympäristön kohdetunniste (GUID) käytettäväksi Spark-istunnon luomisen yhteydessä

Esimerkki yhteysmerkkijono, jossa on ympäristökohde:

DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;EnvironmentId=<environment-id>

Muistio

Ympäristö aktivoituu, kun Spark-istunto alkaa. Jos määrität myös omat Spark-konfiguraatioominaisuudet, istuntotason ominaisuudet menevät ympäristön oletusten edelle.

Mukautettu Spark-konfiguraatio

Voit välittää Sparkin konfiguraatioominaisuudet suoraan yhteysmerkkijonoiin. Mikä tahansa parametri, joka on etuliite, spark. sovelletaan automaattisesti Spark-istuntoon luomishetkellä, jolloin voit ohittaa työtilan tai ajonaikaiset oletusasetukset.

Esimerkkejä kipinäkonfiguraatioista:

spark.sql.shuffle.partitions=200
spark.sql.adaptive.enabled=true
spark.sql.autoBroadcastJoinThreshold=10485760

Esimerkki yhteysmerkkijono mukautetuilla Spark-ominaisuuksilla:

DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;spark.sql.shuffle.partitions=200;spark.sql.adaptive.enabled=true

Muistio

Kipinän konfiguraatioominaisuudet otetaan käyttöön istunnon luomisen yhteydessä. Ne koskevat kaikkia kyseisessä istunnossa suoritettuja kyselyjä ja ohittavat ympäristön tai ajonaikaiset oletusasetukset samoille ominaisuuksille.

DSN-konfiguraatio

Luo järjestelmän DSN

  1. Open ODBC Administrator

    %SystemRoot%\System32\odbcad32.exe
    
  2. Luo uusi järjestelmä DSN

    • Mene "System DSN" -välilehdelle
    • Valitse "Lisää"
    • Valitse "Microsoft ODBC Driver for Microsoft Fabric Data Engineering"
    • Valitse "Viimeistele"
  3. Määritä DSN-asetukset

    • Tietolähteen nimi: Syötä yksikäsitteinen nimi (esim. FabricODBC)
    • Kuvaus: Valinnainen kuvaus
    • Workspace ID: Fabric-työtilan GUID
    • Lakehouse ID: Kangasjärvimajan GUID
    • Tunnistautuminen: Valitse todennusmenetelmä
    • Environment ID (valinnainen): Syötä Fabric ympäristön elementin käyttöliittymä, joka liitetään istunnon luomisen yhteydessä
    • Säädä lisäasetuksia tarpeen mukaan
  4. Testiyhteys

    • Valitse "Test Connection" vahvistaaksesi asetukset
    • Valitse "OK" tallentaaksesi

Käytä DSN:ää sovelluksissa

# Python - Connect using DSN
conn = pyodbc.connect("DSN=FabricODBC")
// .NET - Connect using DSN
using var connection = new OdbcConnection("DSN=FabricODBC");
await connection.OpenAsync();

Käyttöesimerkkejä

Perusyhteys ja kysely

Python

import pyodbc

def main():
    connection_string = (
        "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
        "WorkspaceId=<workspace-id>;"
        "LakehouseId=<lakehouse-id>;"
        "AuthFlow=AZURE_CLI;"
        "ReuseSession=true;"
    )
    
    conn = pyodbc.connect(connection_string, timeout=30)
    cursor = conn.cursor()
    
    print("Connected successfully!")
    
    # Show available tables
    print("\nAvailable tables:")
    cursor.execute("SHOW TABLES")
    for row in cursor.fetchall():
        print(f"  {row}")
    
    # Query data
    print("\nQuery results:")
    cursor.execute("SELECT * FROM employees LIMIT 10")
    
    # Print column names
    columns = [desc[0] for desc in cursor.description]
    print(f"Columns: {columns}")
    
    # Print rows
    for row in cursor.fetchall():
        print(row)
    
    conn.close()

if __name__ == "__main__":
    main()

.NET

using System.Data.Odbc;

class Program
{
    static async Task Main(string[] args)
    {
        string connectionString = 
            "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};" +
            "WorkspaceId=<workspace-id>;" +
            "LakehouseId=<lakehouse-id>;" +
            "AuthFlow=AZURE_CLI;" +
            "ReuseSession=true;";

        using var connection = new OdbcConnection(connectionString);
        await connection.OpenAsync();
        
        Console.WriteLine("Connected successfully!");

        // Show available tables
        Console.WriteLine("\nAvailable tables:");
        using (var cmd = new OdbcCommand("SHOW TABLES", connection))
        using (var reader = await cmd.ExecuteReaderAsync())
        {
            while (await reader.ReadAsync())
            {
                Console.WriteLine($"  {reader.GetString(0)}");
            }
        }

        // Query data
        Console.WriteLine("\nQuery results:");
        using (var cmd = new OdbcCommand("SELECT * FROM employees LIMIT 10", connection))
        using (var reader = await cmd.ExecuteReaderAsync())
        {
            // Print column names
            var columns = new List<string>();
            for (int i = 0; i < reader.FieldCount; i++)
            {
                columns.Add(reader.GetName(i));
            }
            Console.WriteLine($"Columns: {string.Join(", ", columns)}");

            // Print rows
            while (await reader.ReadAsync())
            {
                var values = new object[reader.FieldCount];
                reader.GetValues(values);
                Console.WriteLine(string.Join("\t", values));
            }
        }
    }
}

Työskentely suurten tulosjoukkojen kanssa

import pyodbc

connection_string = (
    "DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
    "WorkspaceId=<workspace-id>;"
    "LakehouseId=<lakehouse-id>;"
    "AuthFlow=AZURE_CLI;"
    "LargeTableSupport=true;"
    "PageSizeBytes=18874368;"  # 18 MB pages
    "EnableAsyncPrefetch=1;"
)

conn = pyodbc.connect(connection_string)
cursor = conn.cursor()

# Execute large query
cursor.execute("SELECT * FROM large_table")

# Process in batches
row_count = 0
while True:
    rows = cursor.fetchmany(1000)  # Fetch 1000 rows at a time
    if not rows:
        break
    
    for row in rows:
        # Process row
        row_count += 1
        
    if row_count % 10000 == 0:
        print(f"Processed {row_count} rows")

print(f"Total rows processed: {row_count}")
conn.close()

Skeeman löytö

import pyodbc

conn = pyodbc.connect(connection_string)
cursor = conn.cursor()

# List all tables
print("Tables in current default schema / database:")
cursor.execute("SHOW TABLES")
tables = cursor.fetchall()
for table in tables:
    print(f"  {table}")

# Describe table structure
print("\nTable structure for 'employees':")
cursor.execute("DESCRIBE employees")
for col in cursor.fetchall():
    print(f"  {col}")

# List schemas (for multi-schema Lakehouses)
print("\nAvailable schemas:")
cursor.execute("SHOW SCHEMAS")
for db in cursor.fetchall():
    print(f"  {db}")

conn.close()

Tietotyyppien kartoittaminen

Ajuri kartoittaa Spark SQL -tietotyypit ODBC:n SQL-tyyppeihin:

Spark SQL Type ODBC SQL Type C/C++-tyyppi Python-tyyppi NET-tyyppi
BOOLEAN SQL_BIT SQLCHAR bool bool
BYTE SQL_TINYINT SQLSCHAR int sbyte
LYHYT SQL_SMALLINT SQLSMALLINT int lyhyt
INT SQL_INTEGER SQLINTEGER int int
PITKÄ SQL_BIGINT SQLBIGINT int long
KELLUA SQL_REAL SQLREAL liukuluku liukuluku
KAKSINKERTAINEN SQL_DOUBLE SQLDOUBLE liukuluku double
DESIMAALI SQL_DECIMAL SQLCHAR* desimaali. Desimaali desimaali
MERKKIJONO SQL_VARCHAR SQLCHAR* Str merkkijono
VARCHAR(n) SQL_VARCHAR SQLCHAR* Str merkkijono
CHAR(n) SQL_CHAR SQLCHAR* Str merkkijono
BINÄÄRI SQL_BINARY SQLCHAR* tavut tavu[]
PÄIVÄMÄÄRÄ SQL_TYPE_DATE SQL_DATE_STRUCT datetime.date Päivämäärä ja aika
AIKALEIMA SQL_TYPE_TIMESTAMP SQL_TIMESTAMP_STRUCT datetime.datetime Päivämäärä ja aika
VALIKOIMA SQL_VARCHAR SQLCHAR* voima (JSON) merkkijono
KARTTA SQL_VARCHAR SQLCHAR* voima (JSON) merkkijono
RAKENNE SQL_VARCHAR SQLCHAR* voima (JSON) merkkijono

BI-työkalujen integrointi

Microsoft Excel

  1. Open Excel -> Data -> Hae dataa -> muista lähteistä -> ODBC:stä
  2. Valitse konfiguroitu DSN (esim. FabricODBC)
  3. Autentikointi, jos pyydetään
  4. Selaa ja valitse taulukot
  5. Lataa data Excel-työarkisteeseen

Power BI Desktop

  1. Avaa Power BI työpöytä -> Hae data -> ODBC
  2. Valitse konfiguroidun DSN-tunnuksesi
  3. Selaa tietoluetteloa ja valitse taulukot
  4. Muunna dataa tarpeen mukaan
  5. Visualisointien luominen

SQL Server Management Studio (Linked Server)

-- Create linked server
EXEC sp_addlinkedserver 
    @server = 'FABRIC_LINKED_SERVER',
    @srvproduct = 'Microsoft Fabric',
    @provider = 'MSDASQL',
    @datasrc = 'FabricODBC'

-- Configure RPC
EXEC master.dbo.sp_serveroption 
    @server = N'FABRIC_LINKED_SERVER',
    @optname = N'rpc out',
    @optvalue = N'true';

-- Query via linked server
SELECT * FROM OPENQUERY(FABRIC_LINKED_SERVER, 'SHOW TABLES');
SELECT * FROM OPENQUERY(FABRIC_LINKED_SERVER, 'SELECT * FROM employees LIMIT 20');

-- Execute statements
EXEC('SELECT * FROM employees LIMIT 10') AT FABRIC_LINKED_SERVER;

Vianmääritys

Tämä osio antaa ohjeita yleisten ongelmien ratkaisemiseen, joita saatat kohdata Microsoft ODBC Driver for Microsoft Fabric Data Engineering -ajuria käyttäessäsi.

Yleisiä ongelmia

Seuraavissa osioissa kuvataan yleisiä ongelmia ja niiden ratkaisuja:

Yhteyden epäonnistumiset

Ongelma: En saa yhteyttä Microsoft Fabriciin

Ratkaisut:

  1. Varmista, että Workspace ID ja Lakehouse ID ovat oikeat GUID:t
  2. Tarkista Azure CLI -autentikointi: az account show
  3. Varmista, että sinulla on asianmukaiset Fabric-työtilaoikeudet
  4. Tarkista verkkoyhteys ja välityspalvelinasetukset

Todennusvirheet

Ongelma: Todennus epäonnistuu Azure CLI:llä

Ratkaisut:

  • Juokse az login päivittääksesi tunnukset
  • Varmista oikea vuokralainen: az account set --subscription <subscription-id>
  • Tarkista tokenin pätevyys: az account get-access-token --resource https://api.fabric.microsoft.com

Kyselyn aikakatkaisut

Ongelma: Kyselyt aikakatkaistuvat suurilla tauluilla

Ratkaisut:

  • LargeTableSupport=true ottaminen käyttöön
  • Säädä PageSizeBytes optimaalisen lohkon kokoa
  • Ota käyttöön asynkroninen esilataus: EnableAsyncPrefetch=1
  • Käytä LIMIT lauseketta tuloskoon rajoittamiseen

Lokituksen ottaminen käyttöön

Ongelmien vianetsinnässä yksityiskohtainen lokitus voi auttaa tunnistamaan juurisyyn. Voit ottaa kirjautumisen käyttöön yhteysjonon kautta.

Yksityiskohtaisen lokituksen mahdollistamiseksi:

LogLevel=DEBUG;LogFile=C:\temp\odbc_driver_debug.log;

Lokitasot:

  • TRACE: Monisanainen, sisältää kaikki API-kutsut
  • DEBUG: Yksityiskohtaista virheenkorjaustietoa
  • INFO: Yleistä tietoa (oletus)
  • WARN: Vain varoitukset
  • ERROR: Vain virheet

ODBC:n jäljitys

Matalan tason diagnostiikkaan voit ottaa käyttöön Windowsin ODBC-jäljityksen, joka tallentaa yksityiskohtaisia ODBC-API-kutsuja ja ajurien käyttäytymistä. Muista poistaa jäljitys käytöstä, kun sitä ei tarvita, jotta suorituskyky pysyy optimaalisena.

ODBC-jäljityksen mahdollistamiseksi:

  1. Avaa odbcad32.exe
  2. Mene "Jäljitys"-välilehdelle
  3. Aseta jäljitystiedoston polku (esim. C:\temp\odbctrace.log)
  4. Valitse "Aloita jäljitys nyt"
  5. Toista numero
  6. Valitse "Lopeta jäljittäminen nyt"