Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
KI-Funktionen sind so konzipiert, dass sie einsatzbereit sind, wobei das zugrunde liegende Modell und die Einstellungen standardmäßig konfiguriert sind. Benutzer, die flexiblere Konfigurationen wünschen, können ihre Lösungen jedoch mit wenigen zusätzlichen Codezeilen anpassen.
Von Bedeutung
- KI-Funktionen dienen zur Verwendung in Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) und höher.
- Lesen Sie die Voraussetzungen in diesem Übersichtsartikel, einschließlich der Bibliotheksinstallationen, die vorübergehend für die Verwendung von KI-Funktionen erforderlich sind.
- Obwohl das zugrunde liegende Modell mehrere Sprachen verarbeiten kann, sind die meisten KI-Funktionen für die Verwendung in englischsprachigen Texten optimiert.
Hinweis
- Dieser Artikel befasst sich mit dem Anpassen von KI-Funktionen mit Pandas. Informationen zum Anpassen von KI-Funktionen mit PySpark finden Sie in diesem Artikel.
- Alle KI-Funktionen finden Sie in diesem Übersichtsartikel.
Configurations
Standardmäßig werden KI-Funktionen vom integrierten KI-Endpunkt in Fabric unterstützt. Die LLM-Einstellungen (Large Language Model) werden global in der aifunc.Conf Klasse konfiguriert. Wenn Sie mit KI-Funktionen in Pandas arbeiten, können Sie die aifunc.Conf Klasse verwenden, um einige oder alle diese Einstellungen zu ändern:
| Parameter | Description | Standard |
|---|---|---|
concurrencyWahlfrei |
Ein Int , das die maximale Anzahl von Zeilen angibt, die parallel mit asynchronen Anforderungen an das Modell verarbeitet werden sollen. Höhere Werte beschleunigen die Verarbeitungszeit (wenn Ihre Kapazität dies aufnehmen kann). Es kann auf bis zu 1.000 eingestellt werden. | 200 |
embedding_deployment_nameWahlfrei |
Eine Zeichenfolge , die den Namen der Einbettungsmodellbereitstellung angibt, die KI-Funktionen unterstützt. | text-embedding-ada-002 |
model_deployment_nameWahlfrei |
Eine Zeichenfolge , die den Namen der Sprachmodellbereitstellung angibt, die KI-Funktionen unterstützt. Sie können aus den von Fabric unterstützten Modellen wählen. | gpt-4.1-mini |
reasoning_effortWahlfrei |
Wird von gpt-5-Serienmodellen für die Anzahl von Schlussfolgerungstoken verwendet, die sie verwenden sollten. Kann auf openai.NOT_GIVEN oder auf einen Zeichenfolgenwert von "minimal", "niedrig", "mittel" oder "hoch" festgelegt werden. |
openai.NOT_GIVEN |
seedWahlfrei |
Ein int, das den zu verwendenden Seed für die Reaktion des zugrunde liegenden Modells angibt. Das Standardverhalten wählt zufällig einen Ausgangswert für jede Zeile aus. Die Wahl eines konstanten Werts verbessert die Reproduzierbarkeit Ihrer Experimente. | openai.NOT_GIVEN |
temperatureWahlfrei |
Ein Gleitkomma zwischen 0.0 und 1.0, das die Temperatur des zugrunde liegenden Modells angibt. Höhere Temperaturen erhöhen die Zufälligkeit oder Kreativität der Ergebnisse des Modells. |
0.0 |
timeoutWahlfrei |
Ein int, das die Anzahl von Sekunden angibt, bevor eine KI-Funktion einen Time-out-Fehler auslöst. Standardmäßig ist kein Timeout vorhanden. | Nichts |
top_pWahlfrei |
Ein float zwischen 0 und 1. Ein niedrigerer Wert (z. B. 0,1) schränkt das Modell so ein, dass nur die wahrscheinlichsten Token berücksichtigt werden, wodurch die Ausgabe deterministischer wird. Ein höherer Wert (z. B. 0,9) ermöglicht vielfältigere und kreativere Ausgaben, indem eine breitere Palette von Tokens eingeschlossen wird. | openai.NOT_GIVEN |
use_progress_barWahlfrei |
Zeigen Sie den tqdm-Fortschrittsbalken für den Fortschritt der KI-Funktion bei den Eingabedaten an. Verwendet tqdm unter der Haube. Boolescher Wert, der auf True oder False gesetzt werden kann. |
True |
verbosityWahlfrei |
Wird von Modellen der gpt-5-Serie für die Ausgabelänge verwendet. Kann auf openai.NOT_GIVEN oder einen Zeichenfolgenwert von "low", "medium" oder "high" festgelegt werden. |
openai.NOT_GIVEN |
Tipp
- Wenn ihre Modellbereitstellungskapazität mehr Anforderungen aufnehmen kann, kann das Festlegen höherer Parallelitätswerte die Verarbeitungszeit beschleunigen.
Das folgende Codebeispiel zeigt, wie aifunc.Conf-Einstellungen global überschrieben werden, sodass sie auf alle KI-Funktionsaufrufe in einer Sitzung angewendet werden:
# This code uses AI. Always review output for mistakes.
aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Sie können diese Einstellungen auch für jeden einzelnen Funktionsaufruf anpassen. Jede KI-Funktion akzeptiert einen optionalen conf Parameter. Im folgenden Codebeispiel werden die Standardeinstellungen aifunc nur für den ai.translate Funktionsaufruf über einen benutzerdefinierten Temperaturwert geändert. (Der ai.analyze_sentiment Aufruf verwendet weiterhin die Standardwerte, da keine benutzerdefinierten Werte festgelegt sind).
# This code uses AI. Always review output for mistakes.
from synapse.ml.aifunc import Conf
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Im folgenden Codebeispiel wird gezeigt, wie Sie die gpt-5 und andere Begründungsmodelle für alle Funktionen konfigurieren.
aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1 # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1 # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"
Kundenspezifische Modelle
Wenn Sie ein anderes KI-Modell als den Standard verwenden möchten, können Sie ein anderes Modell auswählen, das von Fabric unterstützt wird, oder einen benutzerdefinierten Modellendpunkt konfigurieren.
Auswählen eines anderen unterstützten großen Sprachmodells
Wählen Sie eines der von Fabric unterstützten Modelle aus, und konfigurieren Sie es mit dem model_deployment_name Parameter. Sie können diese Konfiguration auf eine von zwei Arten ausführen:
global in der
aifunc.Conf-Klasse. Beispiel:aifunc.default_conf.model_deployment_name = "<model deployment name>"Einzeln in jedem KI-Funktionsaufruf:
df["translations"] = df["text"].ai.translate( "spanish", conf=Conf(model_deployment_name="<model deployment name>"), )
Auswählen eines anderen unterstützten Einbettungsmodells
Wählen Sie eines der von Fabric unterstützten Modelle aus, und konfigurieren Sie es mit dem embedding_deployment_name Parameter. Sie können diese Konfiguration auf eine von zwei Arten ausführen:
global in der
aifunc.Conf-Klasse. Beispiel:aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"Jeweils in jedem KI-Funktionsaufruf. Beispiel:
df["embedding"] = df["text"].ai.embed( conf=Conf(embedding_deployment_name="<embbedding deployment name>"), )
Konfigurieren eines benutzerdefinierten Modellendpunkts
Standardmäßig verwenden KI-Funktionen die Fabric LLM-Endpunkt-API für einheitliche Abrechnung und einfache Einrichtung.
Sie können ihren eigenen Modellendpunkt verwenden, indem Sie einen Azure OpenAI- oder OpenAI-kompatiblen Client mit Ihrem Endpunkt und Schlüssel einrichten. Das folgende Beispiel zeigt, wie Sie Ihre eigene Microsoft AI Foundry-Ressource (ehemals Azure OpenAI) unter Verwendung von aifunc.setup bereitstellen.
from openai import AzureOpenAI
# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
api_key="<API_KEY>",
api_version=aifunc.session.api_version, # Default "2025-04-01-preview"
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
Tipp
- Sie können eine benutzerdefinierte AI Foundry-Ressource so konfigurieren, dass Modelle außerhalb von OpenAI verwendet werden.
Im folgenden Codebeispiel werden Platzhalterwerte verwendet, um zu zeigen, wie Sie den integrierten Fabric AI-Endpunkt mit einer benutzerdefinierten Microsoft AI Foundry-Ressource außer Kraft setzen, um Modelle über OpenAI hinaus zu verwenden.
Von Bedeutung
- Die Unterstützung für Microsoft AI Foundry-Modelle ist auf Modelle beschränkt, die API unterstützen
Chat Completionsund Parameter mit JSON-Schema akzeptierenresponse_format - Die Ausgabe kann je nach Verhalten des ausgewählten KI-Modells variieren. Bitte erkunden Sie die Funktionen anderer Modelle mit entsprechender Vorsicht
- Die einbettungsbasierten KI-Funktionen
ai.embedundai.similaritywerden bei Verwendung eines KI Foundry-Ressource nicht unterstützt.
from openai import OpenAI
# Example to create client for Azure AI Foundry models
client = OpenAI(
base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
api_key="<API_KEY>",
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"
Verwandte Inhalte
Passen Sie KI-Funktionenkonfigurationen mit PySpark an.
Erkennen Sie die Stimmung mit
ai.analyze_sentiment.Kategorisieren von Text mit
ai.classify.Extrahieren Sie Entitäten mit
ai_extract.Grammatik mit
ai.fix_grammarkorrigieren.Beantworten Sie benutzerdefinierte Benutzeraufforderungen mit
ai.generate_response.Ähnlichkeit berechnen mit
ai.similarity.Fasse den Text mit
ai.summarizezusammen.Übersetzen Sie Text mit
ai.translate.Erfahren Sie mehr über den vollständigen Satz von KI-Funktionen.
Haben wir ein Feature verpasst, das Sie benötigen? Schlagen Sie es im Forum für Fabric-Ideen vor.