Freigeben über


Anpassen von KI-Funktionen mit Pandas

KI-Funktionen sind so konzipiert, dass sie einsatzbereit sind, wobei das zugrunde liegende Modell und die Einstellungen standardmäßig konfiguriert sind. Benutzer, die flexiblere Konfigurationen wünschen, können ihre Lösungen jedoch mit wenigen zusätzlichen Codezeilen anpassen.

Von Bedeutung

Hinweis

  • Dieser Artikel befasst sich mit dem Anpassen von KI-Funktionen mit Pandas. Informationen zum Anpassen von KI-Funktionen mit PySpark finden Sie in diesem Artikel.
  • Alle KI-Funktionen finden Sie in diesem Übersichtsartikel.

Configurations

Standardmäßig werden KI-Funktionen vom integrierten KI-Endpunkt in Fabric unterstützt. Die LLM-Einstellungen (Large Language Model) werden global in der aifunc.Conf Klasse konfiguriert. Wenn Sie mit KI-Funktionen in Pandas arbeiten, können Sie die aifunc.Conf Klasse verwenden, um einige oder alle diese Einstellungen zu ändern:

Parameter Description Standard
concurrency
Wahlfrei
Ein Int , das die maximale Anzahl von Zeilen angibt, die parallel mit asynchronen Anforderungen an das Modell verarbeitet werden sollen. Höhere Werte beschleunigen die Verarbeitungszeit (wenn Ihre Kapazität dies aufnehmen kann). Es kann auf bis zu 1.000 eingestellt werden. 200
embedding_deployment_name
Wahlfrei
Eine Zeichenfolge , die den Namen der Einbettungsmodellbereitstellung angibt, die KI-Funktionen unterstützt. text-embedding-ada-002
model_deployment_name
Wahlfrei
Eine Zeichenfolge , die den Namen der Sprachmodellbereitstellung angibt, die KI-Funktionen unterstützt. Sie können aus den von Fabric unterstützten Modellen wählen. gpt-4.1-mini
reasoning_effort
Wahlfrei
Wird von gpt-5-Serienmodellen für die Anzahl von Schlussfolgerungstoken verwendet, die sie verwenden sollten. Kann auf openai.NOT_GIVEN oder auf einen Zeichenfolgenwert von "minimal", "niedrig", "mittel" oder "hoch" festgelegt werden. openai.NOT_GIVEN
seed
Wahlfrei
Ein int, das den zu verwendenden Seed für die Reaktion des zugrunde liegenden Modells angibt. Das Standardverhalten wählt zufällig einen Ausgangswert für jede Zeile aus. Die Wahl eines konstanten Werts verbessert die Reproduzierbarkeit Ihrer Experimente. openai.NOT_GIVEN
temperature
Wahlfrei
Ein Gleitkomma zwischen 0.0 und 1.0, das die Temperatur des zugrunde liegenden Modells angibt. Höhere Temperaturen erhöhen die Zufälligkeit oder Kreativität der Ergebnisse des Modells. 0.0
timeout
Wahlfrei
Ein int, das die Anzahl von Sekunden angibt, bevor eine KI-Funktion einen Time-out-Fehler auslöst. Standardmäßig ist kein Timeout vorhanden. Nichts
top_p
Wahlfrei
Ein float zwischen 0 und 1. Ein niedrigerer Wert (z. B. 0,1) schränkt das Modell so ein, dass nur die wahrscheinlichsten Token berücksichtigt werden, wodurch die Ausgabe deterministischer wird. Ein höherer Wert (z. B. 0,9) ermöglicht vielfältigere und kreativere Ausgaben, indem eine breitere Palette von Tokens eingeschlossen wird. openai.NOT_GIVEN
use_progress_bar
Wahlfrei
Zeigen Sie den tqdm-Fortschrittsbalken für den Fortschritt der KI-Funktion bei den Eingabedaten an. Verwendet tqdm unter der Haube. Boolescher Wert, der auf True oder False gesetzt werden kann. True
verbosity
Wahlfrei
Wird von Modellen der gpt-5-Serie für die Ausgabelänge verwendet. Kann auf openai.NOT_GIVEN oder einen Zeichenfolgenwert von "low", "medium" oder "high" festgelegt werden. openai.NOT_GIVEN

Tipp

  • Wenn ihre Modellbereitstellungskapazität mehr Anforderungen aufnehmen kann, kann das Festlegen höherer Parallelitätswerte die Verarbeitungszeit beschleunigen.

Das folgende Codebeispiel zeigt, wie aifunc.Conf-Einstellungen global überschrieben werden, sodass sie auf alle KI-Funktionsaufrufe in einer Sitzung angewendet werden:

# This code uses AI. Always review output for mistakes.

aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Sie können diese Einstellungen auch für jeden einzelnen Funktionsaufruf anpassen. Jede KI-Funktion akzeptiert einen optionalen conf Parameter. Im folgenden Codebeispiel werden die Standardeinstellungen aifunc nur für den ai.translate Funktionsaufruf über einen benutzerdefinierten Temperaturwert geändert. (Der ai.analyze_sentiment Aufruf verwendet weiterhin die Standardwerte, da keine benutzerdefinierten Werte festgelegt sind).

# This code uses AI. Always review output for mistakes. 

from synapse.ml.aifunc import Conf

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Im folgenden Codebeispiel wird gezeigt, wie Sie die gpt-5 und andere Begründungsmodelle für alle Funktionen konfigurieren.

aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1  # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1  # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"

Kundenspezifische Modelle

Wenn Sie ein anderes KI-Modell als den Standard verwenden möchten, können Sie ein anderes Modell auswählen, das von Fabric unterstützt wird, oder einen benutzerdefinierten Modellendpunkt konfigurieren.

Auswählen eines anderen unterstützten großen Sprachmodells

Wählen Sie eines der von Fabric unterstützten Modelle aus, und konfigurieren Sie es mit dem model_deployment_name Parameter. Sie können diese Konfiguration auf eine von zwei Arten ausführen:

  • global in der aifunc.Conf-Klasse. Beispiel:

    aifunc.default_conf.model_deployment_name = "<model deployment name>"
    
  • Einzeln in jedem KI-Funktionsaufruf:

    df["translations"] = df["text"].ai.translate(
        "spanish",
        conf=Conf(model_deployment_name="<model deployment name>"),
    )
    

Auswählen eines anderen unterstützten Einbettungsmodells

Wählen Sie eines der von Fabric unterstützten Modelle aus, und konfigurieren Sie es mit dem embedding_deployment_name Parameter. Sie können diese Konfiguration auf eine von zwei Arten ausführen:

  • global in der aifunc.Conf-Klasse. Beispiel:

    aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"
    
  • Jeweils in jedem KI-Funktionsaufruf. Beispiel:

    df["embedding"] = df["text"].ai.embed(
        conf=Conf(embedding_deployment_name="<embbedding deployment name>"),
    )
    

Konfigurieren eines benutzerdefinierten Modellendpunkts

Standardmäßig verwenden KI-Funktionen die Fabric LLM-Endpunkt-API für einheitliche Abrechnung und einfache Einrichtung. Sie können ihren eigenen Modellendpunkt verwenden, indem Sie einen Azure OpenAI- oder OpenAI-kompatiblen Client mit Ihrem Endpunkt und Schlüssel einrichten. Das folgende Beispiel zeigt, wie Sie Ihre eigene Microsoft AI Foundry-Ressource (ehemals Azure OpenAI) unter Verwendung von aifunc.setup bereitstellen.

from openai import AzureOpenAI

# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
    azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
    api_key="<API_KEY>",
    api_version=aifunc.session.api_version,  # Default "2025-04-01-preview"
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

Tipp

  • Sie können eine benutzerdefinierte AI Foundry-Ressource so konfigurieren, dass Modelle außerhalb von OpenAI verwendet werden.

Im folgenden Codebeispiel werden Platzhalterwerte verwendet, um zu zeigen, wie Sie den integrierten Fabric AI-Endpunkt mit einer benutzerdefinierten Microsoft AI Foundry-Ressource außer Kraft setzen, um Modelle über OpenAI hinaus zu verwenden.

Von Bedeutung

  • Die Unterstützung für Microsoft AI Foundry-Modelle ist auf Modelle beschränkt, die API unterstützen Chat Completions und Parameter mit JSON-Schema akzeptieren response_format
  • Die Ausgabe kann je nach Verhalten des ausgewählten KI-Modells variieren. Bitte erkunden Sie die Funktionen anderer Modelle mit entsprechender Vorsicht
  • Die einbettungsbasierten KI-Funktionen ai.embed und ai.similarity werden bei Verwendung eines KI Foundry-Ressource nicht unterstützt.
from openai import OpenAI

# Example to create client for Azure AI Foundry models
client = OpenAI(
    base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
    api_key="<API_KEY>",
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"