Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
AI-funksjoner er utformet for å fungere som standard, med den underliggende modellen og innstillingene konfigurert som standard. Brukere som ønsker mer fleksible konfigurasjoner, kan imidlertid tilpasse løsningene sine med noen ekstra linjer med kode.
Viktig!
- AI-funksjoner er for bruk i Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) og senere.
- Se gjennom forutsetningene i denne oversiktsartikkelen, inkludert bibliotekinstallasjoner som er midlertidig nødvendige for å bruke AI-funksjoner.
- Selv om den underliggende modellen kan håndtere flere språk, er de fleste AI-funksjonene optimalisert for bruk på engelskspråklige tekster.
Note
- Denne artikkelen dekker tilpasning av AI-funksjoner med pandaer. Hvis du vil tilpasse AI-funksjoner med PySpark, kan du se denne artikkelen.
- Se alle AI-funksjoner i denne oversiktsartikkelen.
Konfigurasjoner
Som standard drives AI-funksjoner av det innebygde AI-endepunktet i Fabric. Innstillingene for stor språkmodell (LLM) er globalt konfigurert i aifunc.Conf klassen. Hvis du arbeider med AI-funksjoner i pandaer, kan du bruke aifunc.Conf-klassen til å endre noen av eller alle disse innstillingene:
| Parameter | Beskrivelse | Default |
|---|---|---|
concurrencyValgfritt |
En int som angir maksimalt antall rader som skal behandles parallelt med asynkrone forespørsler til modellen. Høyere verdier øker hastigheten på behandlingstiden (hvis kapasiteten har plass til den). Den kan settes opp til 1,000. | 200 |
embedding_deployment_nameValgfritt |
En streng som angir navnet på distribusjonen av innebyggingsmodellen som driver AI-funksjoner. | text-embedding-ada-002 |
model_deployment_nameValgfritt |
En streng som angir navnet på distribusjonen av språkmodellen som driver AI-funksjoner. Du kan velge mellom modellene som støttes av Fabric. | gpt-4.1-mini |
reasoning_effortValgfritt |
Brukes av modeller i gpt-5-serien for antall resonneringstokens de bør bruke. Kan settes til openai.NOT_GIVEN eller en strengverdi på "minimal", "lav", "middels" eller "høy". |
openai.NOT_GIVEN |
seedValgfritt |
En int som angir frøet som skal brukes for responsen til den underliggende modellen. Standardvirkemåten velger tilfeldig en frøverdi for hver rad. Valget av en konstant verdi forbedrer reproduserbarheten til eksperimentene dine. | openai.NOT_GIVEN |
temperatureValgfritt |
En flyt mellom 0.0 og 1.0 som angir temperaturen til den underliggende modellen. Høyere temperaturer øker tilfeldigheten eller kreativiteten til modellens utganger. |
0.0 |
timeoutValgfritt |
En int som angir antall sekunder før en AI-funksjon gir en tidsavbruddsfeil. Som standard er det ingen tidsavbrudd. | Ingen |
top_pValgfritt |
En flottør mellom 0 og 1. En lavere verdi (for eksempel 0,1) begrenser modellen til å vurdere bare de mest sannsynlige tokenene, noe som gjør utdataene mer deterministiske. En høyere verdi (for eksempel 0,9) gir mulighet for mer varierte og kreative resultater ved å inkludere et bredere spekter av tokens. | openai.NOT_GIVEN |
use_progress_barValgfritt |
Vis tqdm-fremdriftslinje for AI-funksjonsfremdrift over inndata. Bruker tqdm under panseret. Boolsk verdi, som kan settes til True eller False. |
True |
verbosityValgfritt |
Brukes av modeller i gpt-5-serien for utgangslengde. Kan settes til openai.NOT_GIVEN eller en strengverdi på "lav", "middels" eller "høy". |
openai.NOT_GIVEN |
Tip
- Hvis kapasiteten for modelldistribusjon kan håndtere flere forespørsler, kan høyere samtidighetsverdier øke behandlingstiden.
Følgende kodeeksempel viser hvordan du overstyrer aifunc.Conf innstillinger globalt, slik at de gjelder for alle AI-funksjonskall i en økt:
# This code uses AI. Always review output for mistakes.
aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Du kan også tilpasse disse innstillingene for hvert enkelt funksjonsanrop. Hver AI-funksjon godtar en valgfri conf parameter. Følgende kodeeksempel endrer standardinnstillingene aifunc for bare funksjonskallet ai.translate , via en egendefinert temperaturverdi. (Kallet ai.analyze_sentiment bruker fortsatt standardverdiene, fordi ingen egendefinerte verdier er angitt).
# This code uses AI. Always review output for mistakes.
from synapse.ml.aifunc import Conf
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Følgende kodeeksempel viser hvordan man konfigurerer gpt-5 og andre resonnementsmodeller for alle funksjoner.
aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1 # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1 # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"
Tilpassede modeller
Hvis du vil bruke en annen AI-modell enn standarden, kan du velge en annen modell som støttes av Fabric eller konfigurere et egendefinert modellendepunkt.
Velg en annen støttet stor språkmodell
Velg en av modellene som støttes av Fabric , og konfigurer den ved hjelp av parameteren model_deployment_name . Du kan gjøre denne konfigurasjonen på én av to måter:
Globalt i
aifunc.Confklassen. Eksempel:aifunc.default_conf.model_deployment_name = "<model deployment name>"Individuelt i hvert AI-funksjonskall:
df["translations"] = df["text"].ai.translate( "spanish", conf=Conf(model_deployment_name="<model deployment name>"), )
Velg en annen støttet innebyggingsmodell
Velg en av modellene som støttes av Fabric , og konfigurer den ved hjelp av parameteren embedding_deployment_name . Du kan gjøre denne konfigurasjonen på én av to måter:
Globalt i
aifunc.Confklassen. Eksempel:aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"Individuelt i hvert AI-funksjonskall. Eksempel:
df["embedding"] = df["text"].ai.embed( conf=Conf(embedding_deployment_name="<embbedding deployment name>"), )
Konfigurere et egendefinert modellendepunkt
Som standard bruker AI-funksjoner Fabric LLM endpoint API for enhetlig fakturering og enkel oppsett.
Du kan velge å bruke ditt eget modellendepunkt ved å sette opp en Azure OpenAI- eller OpenAI-kompatibel klient med endepunktet og nøkkelen din. Følgende eksempel viser hvordan du kan bringe din egen Microsoft AI Foundry (tidligere Azure OpenAI) ressurs ved å bruke aifunc.setup:
from openai import AzureOpenAI
# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
api_key="<API_KEY>",
api_version=aifunc.session.api_version, # Default "2025-04-01-preview"
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
Tip
- Du kan konfigurere en egendefinert AI Foundry-ressurs til å bruke modeller utover OpenAI.
Følgende kodeeksempel bruker plassholderverdier for å vise deg hvordan du kan overstyre det innebygde Fabric AI-endepunktet med en tilpasset Microsoft AI Foundry-ressurs for å bruke modeller utover OpenAI:
Viktig!
- Støtte for Microsoft AI Foundry-modeller er begrenset til modeller som støtter
Chat CompletionsAPI og akseptererresponse_formatparametere med JSON-skjema - Resultatet kan variere avhengig av oppførselen til den valgte AI-modellen. Vennligst utforsk mulighetene til andre modeller med passende forsiktighet
- De embedding-baserte AI-funksjonene
ai.embedstøttesai.similarityikke når man bruker en AI Foundry-ressurs
from openai import OpenAI
# Example to create client for Azure AI Foundry models
client = OpenAI(
base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
api_key="<API_KEY>",
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"
Relatert innhold
Finn sentiment med
ai.analyze_sentiment.Kategoriser tekst med
ai.classify.Trekk ut enheter med
ai_extract.Løse grammatikk med
ai.fix_grammar.Svar på egendefinerte brukermeldinger med
ai.generate_response.Beregn likhet med
ai.similarity.Oppsummer tekst med
ai.summarize.Oversett tekst med
ai.translate.Finn ut mer om hele settet med AI-funksjoner.
Gikk vi glipp av en funksjon du trenger? Foreslå det på Fabric Ideas-forumet.