Muistiinpano
Tämän sivun käyttö edellyttää valtuutusta. Voit yrittää kirjautua sisään tai vaihtaa hakemistoa.
Tämän sivun käyttö edellyttää valtuutusta. Voit yrittää vaihtaa hakemistoa.
Tärkeää
Tämä ominaisuus on esikatseluvaiheessa.
ODBC (Open Database Connectivity) on laajasti hyväksytty standardi, joka mahdollistaa asiakassovellusten yhteyden tietokantojen ja big data -alustojen datan käsittelyn ja sen kanssa.
Microsoft ODBC Driver for Fabric Data Engineering mahdollistaa Spark-työkuormien yhdistämisen, kyselyn ja hallinnan Microsoft Fabricissa ODBC-standardin luotettavuudella ja yksinkertaisuudella. Microsoft Fabricin Livy-rajapintojen pohjalta rakennettu ajuri tarjoaa turvallisen ja joustavan Spark SQL -yhteyden .NET-, Python- ja muihin ODBC-yhteensopiviin sovelluksiin ja BI-työkaluihin.
Tärkeimmät ominaisuudet
- ODBC 3.x -yhteensopivuus: ODBC 3.x -määrityksen täysi toteutus
- Microsoft Entra ID autentikointi: Useita todennusvirtoja, mukaan lukien Azure CLI, interaktiivinen, asiakastunnukset, varmennepohjainen ja pääsytunnustunnistus
- Spark SQL query support: Spark SQL -lauseiden suora suoritus
- Kattava tietotyyppituki: Tuki kaikille Spark SQL -tietotyypeille, mukaan lukien monimutkaiset tyypit (ARRAY, MAP, STRUCT)
- Istunnon uudelleenkäyttö: Sisäänrakennettu istunnonhallinta suorituskyvyn parantamiseksi
- Suuren taulukon tuki: Optimoitu käsittely suurille tulosjoukoille, joissa sivukoot on konfiguroitavissa
- Asynkroninen esilataus: Taustalla lataava datan lataus suorituskyvyn parantamiseksi
- Välityspalvelintuki: HTTP-välityspalvelimen konfiguraatio yritysympäristöihin
- Moniskeemainen Lakehouse-tuki: Yhdistä tiettyyn skeemaan Lakehousen sisällä
- OneLake-integraatio: Pääsy Lakehouse-tietoihin, jotka on tallennettu Microsoft OneLakeen, mukaan lukien taulukot useiden skeemien yli, yhtenäisen ODBC-rajapinnan kautta ilman erillistä tallennuskonfiguraatiota
- Environment items support: Liitä Fabric ympäristöelementtejä työn suorituksen aikana soveltaaksesi työtilakirjastoja, Spark-ominaisuuksia ja muuttujia jokaiseen istuntoon
- Custom Spark configuration: Välitä Spark-konfiguraatioominaisuudet suoraan yhteysmerkkijono:n kautta istuntokäyttäytymisen säätämiseksi
Muistio
Avoimen lähdekoodin Apache Sparkissa tietokantaa ja skeemaa käytetään synonyymeinä. Esimerkiksi Fabric Notebookin suorittaminen SHOW SCHEMASSHOW DATABASES palauttaa saman tuloksen — listan kaikista Lakehousen skeemoista.
edellytykset
Ennen Microsoft ODBC Driverin käyttöä Microsoft Fabric Data Engineeringiin, varmista, että sinulla on:
- Käyttöjärjestelmä: Windows 10/11 tai Windows Server 2016+
- Microsoft Fabricin käyttö: Pääsy Microsoft Fabricin työtilaan
- Microsoft Entra ID tunnistetiedot: Sopivat tunnistetiedot todennukseen
- Workspace- ja Lakehouse-tunnisteet: GUID-tunnisteet Fabric-työtilallesi ja järvenrakennukselle
- Azure CLI (valinnainen): Vaaditaan Azure CLI -todennusmenetelmälle
Lataus ja MSI-asennus
Microsoft ODBC Driver for Microsoft Fabric Data Engineering versio 1.0.0 on julkisessa esikatselussa, jonka voit ladata tästä latauskeskuksen linkistä.
- Lataa Microsoft ODBC Driver for Microsoft Fabric Data Engineering MSI -paketti
- Kaksoisklikkaus
MicrosoftFabricODBCDriver-1.0.msi - Seuraa asennusohjainta ja hyväksy lisenssisopimus
- Valitse asennushakemisto (oletus:
C:\Program Files\Microsoft ODBC Driver for Microsoft Fabric Data Engineering\) - Viimeistele asennus
Hiljainen asentaminen
# Silent installation
msiexec /i "MicrosoftFabricODBCDriver-1.0.msi" /quiet
# Installation with logging
msiexec /i "MicrosoftFabricODBCDriver-1.0.msi" /l*v install.log
Asennuksen tarkistaminen
Asennuksen jälkeen varmista, että ajuri on rekisteröity:
- Suorita
odbcad32.exe(ODBC Data Source Administrator) - Siirry Kuljettajat-välilehdelle
- Varmista, että "Microsoft ODBC Driver for Microsoft Fabric Data Engineering" on listattu
Nopea aloitusesimerkki
Tämä esimerkki osoittaa, miten yhdistetään Microsoft Fabriciin ja suoritetaan kysely Microsoft ODBC Driver for Microsoft Fabric Data Engineering -ajurilla. Ennen tämän koodin suorittamista varmista, että olet suorittanut vaaditut vaatimukset ja asentanut ajurin.
Python-esimerkki
import pyodbc
# Connection string with required parameters
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=AZURE_CLI;"
)
# Connect and execute query
conn = pyodbc.connect(connection_string, timeout=30)
cursor = conn.cursor()
cursor.execute("SELECT 'Hello from Fabric!' as message")
row = cursor.fetchone()
print(row.message)
conn.close()
.NET-esimerkki
using System.Data.Odbc;
// Connection string with required parameters
string connectionString =
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};" +
"WorkspaceId=<workspace-id>;" +
"LakehouseId=<lakehouse-id>;" +
"AuthFlow=AZURE_CLI;";
using var connection = new OdbcConnection(connectionString);
await connection.OpenAsync();
Console.WriteLine("Connected successfully!");
using var command = new OdbcCommand("SELECT 'Hello from Fabric!' as message", connection);
using var reader = await command.ExecuteReaderAsync();
if (await reader.ReadAsync())
{
Console.WriteLine(reader.GetString(0));
}
Yhteysmerkkijonomuoto
Perusyhteysjono
Microsoft ODBC Driver for Microsoft Fabric Data Engineering käyttää seuraavaa yhteysmerkkijonomuotoa:
DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};<parameter1>=<value1>;<parameter2>=<value2>;...
Yhteysmerkkijonon komponentit
| Osa | Kuvaus | Esimerkki |
|---|---|---|
| KULJETTAJA | ODBC-ajurin tunniste | {Microsoft ODBC Driver for Microsoft Fabric Data Engineering} |
| WorkspaceId | Microsoft Fabric workspace identifier (GUID) | xxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxx |
| LakehouseId | Microsoft Fabric Lakehouse -tunniste (GUID) | xxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxx |
| AuthFlow | Todentamismenetelmä |
AZURE_CLI, INTERACTIVE, , CLIENT_CREDENTIALCLIENT_CERTIFICATE, ,ACCESS_TOKEN |
Esimerkkejä yhteysmerkkijonoista
Perusyhteys (Azure CLI authentication)
DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI
Suorituskykyvaihtoehdoilla
DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;ReuseSession=true;LargeTableSupport=true;PageSizeBytes=18874368
Metsänhakkuun kanssa
DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;LogLevel=DEBUG;LogFile=odbc_driver.log
Todennus
Microsoft ODBC Driver for Microsoft Fabric Data Engineering tukee useita todennusmenetelmiä Microsoft Entra ID:n (entinen Azure Active Directory) kautta. Tunnistautuminen konfiguroidaan yhteysmerkkijonon AuthFlow parametrin avulla.
Todennusmenetelmät
| AuthFlow-arvo | Kuvaus |
|---|---|
AZURE_CLI |
Kehitys Azure CLI -tunnisteuksilla |
INTERACTIVE |
Interaktiivinen selainpohjainen tunnistautuminen |
CLIENT_CREDENTIAL |
Palvelupäähenkilö asiakassalaisuudella |
CLIENT_CERTIFICATE |
Palvelupäämies todistuksella |
ACCESS_TOKEN |
Ennakkoon hankittu haltijan pääsytunnus |
Azure CLI -todennus
Paras: Kehitykseen ja interaktiivisiin sovelluksiin
# Python Example
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=AZURE_CLI;"
"Scope=https://api.fabric.microsoft.com/.default;"
)
conn = pyodbc.connect(connection_string)
Edellytykset:
- Azure CLI asennettu:
az --version - Kirjautunut sisään:
az login
Interaktiivinen selaimen tunnistautuminen
Parhaiten: Käyttäjäkohtaisille sovelluksille
# Python Example
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=INTERACTIVE;"
"TenantId=<tenant-id>;"
"Scope=https://api.fabric.microsoft.com/.default;"
)
conn = pyodbc.connect(connection_string)
Toiminta:
- Avaa selaimen ikkunan käyttäjän tunnistautumista varten
- Tunnistetiedot tallennetaan välimuistiin seuraavia yhteyksiä varten
Asiakastunnisteiden (palvelupäähenkilön) todennus
Paras: Automatisoidut palvelut ja taustatyöt
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=CLIENT_CREDENTIAL;"
f"TenantId={tenant_id};"
f"ClientId={client_id};"
f"ClientSecret={client_secret};"
)
Vaaditut parametrit
-
TenantId: Azure vuokralaisen tunnus -
ClientId: Application (client) ID Microsoft Entra ID:stä -
ClientSecret: Asiakassalaisuus Microsoft Entra ID:stä
Parhaat käytännöt
- Tallenna salaisuudet turvallisesti (Azure Key Vault, ympäristömuuttujat)
- Käytä hallittuja identiteettejä aina kun mahdollista
- Kierrätä salaisuuksia säännöllisesti
Varmennepohjainen todentaminen
Paras: Yrityssovelluksiin, jotka vaativat varmennepohjaista todennusta
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=CLIENT_CERTIFICATE;"
"TenantId=<tenant-id>;"
"ClientId=<client-id>;"
"CertificatePath=C:\\certs\\mycert.pfx;"
"CertificatePassword=<password>;"
)
Vaaditut parametrit:
-
TenantId: Azure vuokralaisen tunnus -
ClientId: Sovelluksen (asiakas) tunnus -
CertificatePath: Polku PFX/PKCS12-varmennetiedostoon -
CertificatePassword: Varmenteen salasana
Pääsytunnuksen tunnistautuminen
Parhaiten: Mukautetut todennusskenaariot
# Acquire token through custom mechanism
access_token = acquire_token_from_custom_source()
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=ACCESS_TOKEN;"
f"AccessToken={access_token};"
)
Määritysparametrit
Pakolliset parametrit
Nämä parametrit täytyy olla läsnä jokaisessa yhteysjonossa:
| Parametri | Tyyppi | Kuvaus | Esimerkki |
|---|---|---|---|
| WorkspaceId | UUID | Microsoft Fabric workspace identifier | 4bbf89a8-... |
| LakehouseId | UUID | Microsoft Fabric Lakehouse -tunniste | d8faa650-... |
| AuthFlow | String | Tunnistautumisen virtaustyyppi | AZURE_CLI |
Valinnaiset parametrit
Yhteysasetukset
| Parametri | Tyyppi | Oletus | Kuvaus |
|---|---|---|---|
| Tietokanta | String | Ei toistuvuutta | Erityinen tietokanta yhdistettäväksi |
| Käyttöalue | String | https://api.fabric.microsoft.com/.default |
OAuthin laajuus |
Esitysasetukset
| Parametri | Tyyppi | Oletus | Kuvaus |
|---|---|---|---|
| ReuseSession | totuusarvo | true |
Käytä olemassa olevaa Spark-istuntoa uudelleen |
| LargeTableSupport | totuusarvo | false |
Ota optimointi käyttöön suurille tulosjoukoille |
| EnableAsyncPrefetch | totuusarvo | false |
Ota taustatietojen esihakemus käyttöön |
| PageSizeBytes | Kokonaisluku |
18874368 (18 MB) |
Sivun koko tulossivuille (1–18 MB) |
Lokiasetukset
| Parametri | Tyyppi | Oletus | Kuvaus |
|---|---|---|---|
| LogLevel | String | INFO |
Logaritmitaso: TRACE, DEBUG, INFOWARN, ,ERROR |
| Lokitiedosto | String | odbc_driver.log |
Lokitiedoston polku (absoluuttinen tai suhteellinen) |
Välityspalvelimen asetukset
| Parametri | Tyyppi | Oletus | Kuvaus |
|---|---|---|---|
| UseProxy | totuusarvo | false |
Ota välityspalvelin käyttöön |
| ProxyHost | String | Ei toistuvuutta | Välityspalvelimen isäntänimi |
| ProxyPort | Kokonaisluku | Ei toistuvuutta | Proxy-portti |
| ProxyUsername | String | Ei toistuvuutta | Välityspalvelimen todennuskäyttäjätunnus |
| ProxyPassword | String | Ei toistuvuutta | Välityspalvelimen todennussalasana |
Ympäristöasetukset
Voit liittää Fabric-ympäristön esineen Spark-istuntoon, jonka kuljettaja aloittaa. Valitun ympäristön kirjastot, Spark-ominaisuudet ja muuttujat otetaan automaattisesti käyttöön istunnon luomisen yhteydessä.
| Parametri | Tyyppi | Oletus | Kuvaus |
|---|---|---|---|
| EnvironmentId | UUID | Ei toistuvuutta | Fabric-ympäristön kohdetunniste (GUID) käytettäväksi Spark-istunnon luomisen yhteydessä |
Esimerkki yhteysmerkkijono, jossa on ympäristökohde:
DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;EnvironmentId=<environment-id>
Muistio
Ympäristö aktivoituu, kun Spark-istunto alkaa. Jos määrität myös omat Spark-konfiguraatioominaisuudet, istuntotason ominaisuudet menevät ympäristön oletusten edelle.
Mukautettu Spark-konfiguraatio
Voit välittää Sparkin konfiguraatioominaisuudet suoraan yhteysmerkkijonoiin. Mikä tahansa parametri, joka on etuliite, spark. sovelletaan automaattisesti Spark-istuntoon luomishetkellä, jolloin voit ohittaa työtilan tai ajonaikaiset oletusasetukset.
Esimerkkejä kipinäkonfiguraatioista:
spark.sql.shuffle.partitions=200
spark.sql.adaptive.enabled=true
spark.sql.autoBroadcastJoinThreshold=10485760
Esimerkki yhteysmerkkijono mukautetuilla Spark-ominaisuuksilla:
DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};WorkspaceId=<workspace-id>;LakehouseId=<lakehouse-id>;AuthFlow=AZURE_CLI;spark.sql.shuffle.partitions=200;spark.sql.adaptive.enabled=true
Muistio
Kipinän konfiguraatioominaisuudet otetaan käyttöön istunnon luomisen yhteydessä. Ne koskevat kaikkia kyseisessä istunnossa suoritettuja kyselyjä ja ohittavat ympäristön tai ajonaikaiset oletusasetukset samoille ominaisuuksille.
DSN-konfiguraatio
Luo järjestelmän DSN
Open ODBC Administrator
%SystemRoot%\System32\odbcad32.exeLuo uusi järjestelmä DSN
- Mene "System DSN" -välilehdelle
- Valitse "Lisää"
- Valitse "Microsoft ODBC Driver for Microsoft Fabric Data Engineering"
- Valitse "Viimeistele"
Määritä DSN-asetukset
-
Tietolähteen nimi: Syötä yksikäsitteinen nimi (esim.
FabricODBC) - Kuvaus: Valinnainen kuvaus
- Workspace ID: Fabric-työtilan GUID
- Lakehouse ID: Kangasjärvimajan GUID
- Tunnistautuminen: Valitse todennusmenetelmä
- Environment ID (valinnainen): Syötä Fabric ympäristön elementin käyttöliittymä, joka liitetään istunnon luomisen yhteydessä
- Säädä lisäasetuksia tarpeen mukaan
-
Tietolähteen nimi: Syötä yksikäsitteinen nimi (esim.
Testiyhteys
- Valitse "Test Connection" vahvistaaksesi asetukset
- Valitse "OK" tallentaaksesi
Käytä DSN:ää sovelluksissa
# Python - Connect using DSN
conn = pyodbc.connect("DSN=FabricODBC")
// .NET - Connect using DSN
using var connection = new OdbcConnection("DSN=FabricODBC");
await connection.OpenAsync();
Käyttöesimerkkejä
Perusyhteys ja kysely
Python
import pyodbc
def main():
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=AZURE_CLI;"
"ReuseSession=true;"
)
conn = pyodbc.connect(connection_string, timeout=30)
cursor = conn.cursor()
print("Connected successfully!")
# Show available tables
print("\nAvailable tables:")
cursor.execute("SHOW TABLES")
for row in cursor.fetchall():
print(f" {row}")
# Query data
print("\nQuery results:")
cursor.execute("SELECT * FROM employees LIMIT 10")
# Print column names
columns = [desc[0] for desc in cursor.description]
print(f"Columns: {columns}")
# Print rows
for row in cursor.fetchall():
print(row)
conn.close()
if __name__ == "__main__":
main()
.NET
using System.Data.Odbc;
class Program
{
static async Task Main(string[] args)
{
string connectionString =
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};" +
"WorkspaceId=<workspace-id>;" +
"LakehouseId=<lakehouse-id>;" +
"AuthFlow=AZURE_CLI;" +
"ReuseSession=true;";
using var connection = new OdbcConnection(connectionString);
await connection.OpenAsync();
Console.WriteLine("Connected successfully!");
// Show available tables
Console.WriteLine("\nAvailable tables:");
using (var cmd = new OdbcCommand("SHOW TABLES", connection))
using (var reader = await cmd.ExecuteReaderAsync())
{
while (await reader.ReadAsync())
{
Console.WriteLine($" {reader.GetString(0)}");
}
}
// Query data
Console.WriteLine("\nQuery results:");
using (var cmd = new OdbcCommand("SELECT * FROM employees LIMIT 10", connection))
using (var reader = await cmd.ExecuteReaderAsync())
{
// Print column names
var columns = new List<string>();
for (int i = 0; i < reader.FieldCount; i++)
{
columns.Add(reader.GetName(i));
}
Console.WriteLine($"Columns: {string.Join(", ", columns)}");
// Print rows
while (await reader.ReadAsync())
{
var values = new object[reader.FieldCount];
reader.GetValues(values);
Console.WriteLine(string.Join("\t", values));
}
}
}
}
Työskentely suurten tulosjoukkojen kanssa
import pyodbc
connection_string = (
"DRIVER={Microsoft ODBC Driver for Microsoft Fabric Data Engineering};"
"WorkspaceId=<workspace-id>;"
"LakehouseId=<lakehouse-id>;"
"AuthFlow=AZURE_CLI;"
"LargeTableSupport=true;"
"PageSizeBytes=18874368;" # 18 MB pages
"EnableAsyncPrefetch=1;"
)
conn = pyodbc.connect(connection_string)
cursor = conn.cursor()
# Execute large query
cursor.execute("SELECT * FROM large_table")
# Process in batches
row_count = 0
while True:
rows = cursor.fetchmany(1000) # Fetch 1000 rows at a time
if not rows:
break
for row in rows:
# Process row
row_count += 1
if row_count % 10000 == 0:
print(f"Processed {row_count} rows")
print(f"Total rows processed: {row_count}")
conn.close()
Skeeman löytö
import pyodbc
conn = pyodbc.connect(connection_string)
cursor = conn.cursor()
# List all tables
print("Tables in current default schema / database:")
cursor.execute("SHOW TABLES")
tables = cursor.fetchall()
for table in tables:
print(f" {table}")
# Describe table structure
print("\nTable structure for 'employees':")
cursor.execute("DESCRIBE employees")
for col in cursor.fetchall():
print(f" {col}")
# List schemas (for multi-schema Lakehouses)
print("\nAvailable schemas:")
cursor.execute("SHOW SCHEMAS")
for db in cursor.fetchall():
print(f" {db}")
conn.close()
Tietotyyppien kartoittaminen
Ajuri kartoittaa Spark SQL -tietotyypit ODBC:n SQL-tyyppeihin:
| Spark SQL Type | ODBC SQL Type | C/C++-tyyppi | Python-tyyppi | NET-tyyppi |
|---|---|---|---|---|
| BOOLEAN | SQL_BIT | SQLCHAR | bool | bool |
| BYTE | SQL_TINYINT | SQLSCHAR | int | sbyte |
| LYHYT | SQL_SMALLINT | SQLSMALLINT | int | lyhyt |
| INT | SQL_INTEGER | SQLINTEGER | int | int |
| PITKÄ | SQL_BIGINT | SQLBIGINT | int | long |
| KELLUA | SQL_REAL | SQLREAL | liukuluku | liukuluku |
| KAKSINKERTAINEN | SQL_DOUBLE | SQLDOUBLE | liukuluku | double |
| DESIMAALI | SQL_DECIMAL | SQLCHAR* | desimaali. Desimaali | desimaali |
| MERKKIJONO | SQL_VARCHAR | SQLCHAR* | Str | merkkijono |
| VARCHAR(n) | SQL_VARCHAR | SQLCHAR* | Str | merkkijono |
| CHAR(n) | SQL_CHAR | SQLCHAR* | Str | merkkijono |
| BINÄÄRI | SQL_BINARY | SQLCHAR* | tavut | tavu[] |
| PÄIVÄMÄÄRÄ | SQL_TYPE_DATE | SQL_DATE_STRUCT | datetime.date | Päivämäärä ja aika |
| AIKALEIMA | SQL_TYPE_TIMESTAMP | SQL_TIMESTAMP_STRUCT | datetime.datetime | Päivämäärä ja aika |
| VALIKOIMA | SQL_VARCHAR | SQLCHAR* | voima (JSON) | merkkijono |
| KARTTA | SQL_VARCHAR | SQLCHAR* | voima (JSON) | merkkijono |
| RAKENNE | SQL_VARCHAR | SQLCHAR* | voima (JSON) | merkkijono |
BI-työkalujen integrointi
Microsoft Excel
- Open Excel -> Data -> Hae dataa -> muista lähteistä -> ODBC:stä
- Valitse konfiguroitu DSN (esim.
FabricODBC) - Autentikointi, jos pyydetään
- Selaa ja valitse taulukot
- Lataa data Excel-työarkisteeseen
Power BI Desktop
- Avaa Power BI työpöytä -> Hae data -> ODBC
- Valitse konfiguroidun DSN-tunnuksesi
- Selaa tietoluetteloa ja valitse taulukot
- Muunna dataa tarpeen mukaan
- Visualisointien luominen
SQL Server Management Studio (Linked Server)
-- Create linked server
EXEC sp_addlinkedserver
@server = 'FABRIC_LINKED_SERVER',
@srvproduct = 'Microsoft Fabric',
@provider = 'MSDASQL',
@datasrc = 'FabricODBC'
-- Configure RPC
EXEC master.dbo.sp_serveroption
@server = N'FABRIC_LINKED_SERVER',
@optname = N'rpc out',
@optvalue = N'true';
-- Query via linked server
SELECT * FROM OPENQUERY(FABRIC_LINKED_SERVER, 'SHOW TABLES');
SELECT * FROM OPENQUERY(FABRIC_LINKED_SERVER, 'SELECT * FROM employees LIMIT 20');
-- Execute statements
EXEC('SELECT * FROM employees LIMIT 10') AT FABRIC_LINKED_SERVER;
Vianmääritys
Tämä osio antaa ohjeita yleisten ongelmien ratkaisemiseen, joita saatat kohdata Microsoft ODBC Driver for Microsoft Fabric Data Engineering -ajuria käyttäessäsi.
Yleisiä ongelmia
Seuraavissa osioissa kuvataan yleisiä ongelmia ja niiden ratkaisuja:
Yhteyden epäonnistumiset
Ongelma: En saa yhteyttä Microsoft Fabriciin
Ratkaisut:
- Varmista, että Workspace ID ja Lakehouse ID ovat oikeat GUID:t
- Tarkista Azure CLI -autentikointi:
az account show - Varmista, että sinulla on asianmukaiset Fabric-työtilaoikeudet
- Tarkista verkkoyhteys ja välityspalvelinasetukset
Todennusvirheet
Ongelma: Todennus epäonnistuu Azure CLI:llä
Ratkaisut:
- Juokse
az loginpäivittääksesi tunnukset - Varmista oikea vuokralainen:
az account set --subscription <subscription-id> - Tarkista tokenin pätevyys:
az account get-access-token --resource https://api.fabric.microsoft.com
Kyselyn aikakatkaisut
Ongelma: Kyselyt aikakatkaistuvat suurilla tauluilla
Ratkaisut:
-
LargeTableSupport=trueottaminen käyttöön - Säädä
PageSizeBytesoptimaalisen lohkon kokoa - Ota käyttöön asynkroninen esilataus:
EnableAsyncPrefetch=1 - Käytä
LIMITlauseketta tuloskoon rajoittamiseen
Lokituksen ottaminen käyttöön
Ongelmien vianetsinnässä yksityiskohtainen lokitus voi auttaa tunnistamaan juurisyyn. Voit ottaa kirjautumisen käyttöön yhteysjonon kautta.
Yksityiskohtaisen lokituksen mahdollistamiseksi:
LogLevel=DEBUG;LogFile=C:\temp\odbc_driver_debug.log;
Lokitasot:
-
TRACE: Monisanainen, sisältää kaikki API-kutsut -
DEBUG: Yksityiskohtaista virheenkorjaustietoa -
INFO: Yleistä tietoa (oletus) -
WARN: Vain varoitukset -
ERROR: Vain virheet
ODBC:n jäljitys
Matalan tason diagnostiikkaan voit ottaa käyttöön Windowsin ODBC-jäljityksen, joka tallentaa yksityiskohtaisia ODBC-API-kutsuja ja ajurien käyttäytymistä. Muista poistaa jäljitys käytöstä, kun sitä ei tarvita, jotta suorituskyky pysyy optimaalisena.
ODBC-jäljityksen mahdollistamiseksi:
- Avaa
odbcad32.exe - Mene "Jäljitys"-välilehdelle
- Aseta jäljitystiedoston polku (esim.
C:\temp\odbctrace.log) - Valitse "Aloita jäljitys nyt"
- Toista numero
- Valitse "Lopeta jäljittäminen nyt"