Zdieľať cez


Prispôsobte si funkcie AI pomocou pandy

Funkcie AI sú navrhnuté tak, aby fungovali hneď po vybalení, pričom základný model a nastavenia sú predvolene nakonfigurované. Používatelia, ktorí chcú flexibilnejšie konfigurácie, si však môžu svoje riešenia prispôsobiť niekoľkými ďalšími riadkami kódu.

Dôležité

  • AI funkcie sú určené na použitie v Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) a novších.
  • Prečítajte si požiadavky uvedené v článku s prehľadomvrátane inštalácií knižnice , ktoré sú dočasne potrebné na používanie funkcií AI.
  • Napriek tomu, že základný model dokáže pracovať v niekoľkých jazykoch, väčšina funkcií AI je optimalizovaná na používanie v textoch v anglickom jazyku.

Poznámka

  • Tento článok sa zaoberá prispôsobením funkcií AI pomocou pand. Ak chcete prispôsobiť funkcie AI pomocou PySparku, pozrite si tento článok.
  • Všetky funkcie umelej inteligencie nájdete v tomto prehľadnom článku.

Konfigurácie

V predvolenom nastavení sú funkcie AI poháňané vstavaným koncovým bodom AI v službe Fabric. Nastavenia veľkého jazykového modelu (LLM) sú globálne nakonfigurované v triede aifunc.Conf . Ak pracujete s funkciami AI v pandas, môžete použiť triedu aifunc.Conf na úpravu niektorých alebo všetkých týchto nastavení:

Parameter Popis Predvolené
concurrency
Voliteľné
Int, ktorý určuje maximálny počet riadkov, ktoré sa majú spracovať paralelne s asynchrónnymi požiadavkami na model. Vyššie hodnoty urýchlia čas spracovania (ak ju vaša kapacita dokáže prispôsobiť). Dá sa nastaviť až 1 000. 200
embedding_deployment_name
Voliteľné
reťazec, ktorý určuje názov nasadenia vloženého modelu, na ktorý poháňa funkcie umelej inteligencie. text-embedding-ada-002
model_deployment_name
Voliteľné
Reťazec , ktorý určuje názov nasadenia jazykového modelu, na ktorý určujú funkcie AI. Môžete si vybrať z modelov podporovaných Fabric. gpt-4.1-mini
reasoning_effort
Voliteľné
Používajú ho modely série gpt-5 na množstvo tokenov uvažovania, ktoré by mali používať. Môže byť nastavená na openai.NOT_GIVEN hodnotu reťazca "minimálna", "nízka", "stredná" alebo "vysoká". openai.NOT_GIVEN
seed
Voliteľné
int, ktorý určí osivo, ktoré sa použije na odozvu základného modelu. Predvolené správanie náhodne vyberie semennú hodnotu pre každý riadok. Výberom konštantnej hodnoty získate lepšiu reprodukovateľnosť experimentov. openai.NOT_GIVEN
temperature
Voliteľné
Plavák medzi a 0.01.0 ktorý označuje teplotu základného modelu. Vyššie teploty zvyšujú náhodnosť alebo kreativitu výstupov modelu. 0.0
timeout
Voliteľné
int, ktorá určí počet sekúnd pred funkciou umelej inteligencie vyvolá chybu v dôsledku časového obmedzenia. V predvolenom nastavení nie je k dispozícii žiadny časový limit. Žiadne
top_p
Voliteľné
Plavák medzi 0 a 1. Nižšia hodnota (napríklad 0,1) obmedzuje model tak, aby bral do úvahy iba najpravdepodobnejšie tokeny, čím sa výstup stáva deterministickejším. Vyššia hodnota (napríklad 0,9) umožňuje rozmanitejšie a kreatívnejšie výstupy zahrnutím širšej škály tokenov. openai.NOT_GIVEN
use_progress_bar
Voliteľné
Zobraziť indikátor priebehu tqdm pre priebeh funkcie AI nad vstupnými údajmi. Používa tqdm pod kapotou. Booleovská hodnota, ktorú je možné nastaviť na True alebo False. True
verbosity
Voliteľné
Používa sa v modeloch série gpt-5 na výstupnú dĺžku. Môže byť nastavená na openai.NOT_GIVEN hodnotu reťazca "nízka", "stredná" alebo "vysoká". openai.NOT_GIVEN

Tip

  • Ak kapacita nasadenia vášho modelu zvládne viac požiadaviek, nastavenie vyšších hodnôt súbežnosti môže urýchliť čas spracovania.

Nasledujúca ukážka kódu ukazuje, ako globálne prepísať aifunc.Conf nastavenia tak, aby sa vzťahovali na všetky volania funkcií AI v relácii:

# This code uses AI. Always review output for mistakes.

aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Tieto nastavenia môžete tiež prispôsobiť pre každé volanie funkcie. Každá funkcia AI akceptuje voliteľný parameter conf. Nasledujúci kód sample upravuje predvolené aifunc nastavenia iba ai.translate pre volanie funkcie prostredníctvom vlastnej hodnoty teploty. (Volanie ai.analyze_sentiment stále používa predvolené hodnoty, pretože nie sú nastavené žiadne vlastné hodnoty).

# This code uses AI. Always review output for mistakes. 

from synapse.ml.aifunc import Conf

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Nasledujúci príklad kódu ukazuje, ako konfigurovať gpt-5 a ďalšie modely uvažovania pre všetky funkcie.

aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1  # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1  # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"

Vlastné modely

Ak chcete použiť iný ako predvolený model AI, môžete vybrať iný model podporovaný službou Fabric alebo nakonfigurovať koncový bod vlastného modelu.

Výber iného podporovaného veľkého jazykového modelu

Vyberte jeden z modelov podporovaných službou Fabric a nakonfigurujte ho pomocou parametra model_deployment_name . Túto konfiguráciu môžete vykonať jedným z dvoch spôsobov:

  • Globálne v triede aifunc.Conf . Príklad:

    aifunc.default_conf.model_deployment_name = "<model deployment name>"
    
  • Individuálne v každom volaní funkcie AI:

    df["translations"] = df["text"].ai.translate(
        "spanish",
        conf=Conf(model_deployment_name="<model deployment name>"),
    )
    

Výber iného podporovaného modelu vkladania

Vyberte jeden z modelov podporovaných službou Fabric a nakonfigurujte ho pomocou parametra embedding_deployment_name . Túto konfiguráciu môžete vykonať jedným z dvoch spôsobov:

  • Globálne v triede aifunc.Conf . Príklad:

    aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"
    
  • Individuálne v každom volaní funkcie AI. Príklad:

    df["embedding"] = df["text"].ai.embed(
        conf=Conf(embedding_deployment_name="<embbedding deployment name>"),
    )
    

Konfigurácia koncového bodu vlastného modelu

Štandardne AI funkcie používajú Fabric LLM endpoint API pre jednotnú fakturáciu a jednoduché nastavenie. Môžete si zvoliť použitie vlastného modelového endpointu nastavením klienta kompatibilného s Azure OpenAI alebo OpenAI s vaším koncovým bodom a kľúčom. Nasledujúci príklad ukazuje, ako si priniesť vlastný zdroj Microsoft AI Foundry (predtým Azure OpenAI) pomocou aifunc.setup:

from openai import AzureOpenAI

# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
    azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
    api_key="<API_KEY>",
    api_version=aifunc.session.api_version,  # Default "2025-04-01-preview"
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

Tip

  • Môžete si nakonfigurovať vlastný zdroj AI Foundry tak, aby používal modely mimo OpenAI.

Nasledujúca ukážka kódu používa zástupné hodnoty, aby vám ukázala, ako prepísať zabudovaný Fabric AI endpoint pomocou vlastného zdroja Microsoft AI Foundry na použitie modelov mimo OpenAI:

Dôležité

  • Podpora Microsoft AI Foundry modelov je obmedzená na modely, ktoré podporujú Chat Completions API a akceptujú response_format parametre pomocou JSON schémy
  • Výstup sa môže líšiť v závislosti od správania vybraného AI modelu. Prosím, preskúmajte možnosti iných modelov s primeranou opatrnosťou
  • AI založená na vkladaní funguje ai.embed a ai.similarity nie je podporovaná pri používaní AI Foundry zdroja
from openai import OpenAI

# Example to create client for Azure AI Foundry models
client = OpenAI(
    base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
    api_key="<API_KEY>",
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"