Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le funzioni di intelligenza artificiale sono progettate per funzionare correttamente, con il modello e le impostazioni sottostanti configurati per impostazione predefinita. Gli utenti che vogliono configurazioni più flessibili, tuttavia, possono personalizzare le proprie soluzioni con alcune righe di codice aggiuntive.
Importante
- Le funzioni di intelligenza artificiale sono destinate all'uso in Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) e versioni successive.
- Esamina i prerequisiti in in questo articolo introduttivo, incluse le installazioni delle librerie temporaneamente necessarie per l'uso delle funzioni di intelligenza artificiale.
- Anche se il modello sottostante può gestire diverse lingue, la maggior parte delle funzioni di intelligenza artificiale è ottimizzata per l'uso nei testi in lingua inglese.
Annotazioni
- Questo articolo illustra la personalizzazione delle funzioni di intelligenza artificiale con pandas. Per personalizzare le funzioni di intelligenza artificiale con PySpark, vedere questo articolo.
- Vedere tutte le funzioni di intelligenza artificiale in questo articolo di panoramica.
Configurations
Per impostazione predefinita, le funzioni di intelligenza artificiale sono basate sull'endpoint di intelligenza artificiale predefinito in Fabric. Le impostazioni LLM (Large Language Model) vengono configurate a livello globale nella aifunc.Conf classe . Se si usano le funzioni di intelligenza artificiale in pandas, è possibile usare la classe aifunc.Conf per modificare alcune o tutte queste impostazioni:
| Parametro | Description | Impostazione predefinita |
|---|---|---|
concurrencyOpzionale |
Valore int che definisce il numero massimo di righe da elaborare in parallelo con richieste asincrone al modello. I valori più elevati consentono di velocizzare il tempo di elaborazione (se la capacità può supportarla). Può essere configurato fino a 1.000. | 200 |
embedding_deployment_nameOpzionale |
Stringa che definisce il nome dell'implementazione del modello di embedding che abilita le funzioni di intelligenza artificiale. | text-embedding-ada-002 |
model_deployment_nameOpzionale |
Stringa che designa il nome dell'implementazione del modello linguistico che supporta le funzioni di intelligenza artificiale. È possibile scegliere tra i modelli supportati da Fabric. | gpt-4.1-mini |
reasoning_effortOpzionale |
Usato dai modelli di serie gpt-5 per il numero di token di ragionamento che devono usare. Può essere impostato su openai.NOT_GIVEN o su una stringa di valore "minimal", "low", "medium" o "high". |
openai.NOT_GIVEN |
seedOpzionale |
Un int che designa il seme da utilizzare per la risposta del modello sottostante. Il comportamento predefinito seleziona in modo casuale un valore di seed per ogni riga. La scelta di un valore costante migliora la riproducibilità degli esperimenti. | openai.NOT_GIVEN |
temperatureOpzionale |
Un valore compreso fra 0.0 e 1.0 che indica la temperatura del modello sottostante. Temperature più elevate aumentano la casualità o la creatività degli output del modello. |
0.0 |
timeoutOpzionale |
Un int che definisce il numero di secondi prima che una funzione di intelligenza artificiale generi un errore di timeout. Per impostazione predefinita, non esiste alcun timeout. | None |
top_pOpzionale |
Un valore Float compreso tra 0 e 1. Un valore inferiore (ad esempio, 0,1) limita il modello a considerare solo i token più probabili, rendendo l'output più deterministico. Un valore più alto (ad esempio, 0,9) consente output più diversificati e creativi includendo una gamma più ampia di token. | openai.NOT_GIVEN |
use_progress_barOpzionale |
Mostra la barra di progresso tqdm per il progresso della funzionalità AI sui dati di input. Usa tqdm sotto le quinte. Valore booleano, che può essere impostato su True o False. |
True |
verbosityOpzionale |
Usato dai modelli della serie gpt-5 per determinare la lunghezza dell'output. Può essere impostato su openai.NOT_GIVEN o su un valore stringa "basso", "medio" o "alto". |
openai.NOT_GIVEN |
Suggerimento
- Se la capacità di distribuzione del modello può supportare più richieste, l'impostazione di valori di concorrenza più elevati può velocizzare il tempo di elaborazione.
L'esempio di codice seguente illustra come eseguire l'override aifunc.Conf delle impostazioni a livello globale, in modo che vengano applicate a tutte le chiamate di funzione di intelligenza artificiale in una sessione:
# This code uses AI. Always review output for mistakes.
aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
È anche possibile personalizzare queste impostazioni per ogni singola chiamata di funzione. Ogni funzione di intelligenza artificiale accetta un parametro conf facoltativo. L'esempio di codice seguente modifica le impostazioni predefinite aifunc solo alla chiamata della funzione ai.translate tramite un valore di temperatura personalizzato. La ai.analyze_sentiment chiamata usa comunque i valori predefiniti, perché non sono impostati valori personalizzati.
# This code uses AI. Always review output for mistakes.
from synapse.ml.aifunc import Conf
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Nell'esempio di codice seguente viene illustrato come configurare il gpt-5 e altri modelli di ragionamento per tutte le funzioni.
aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1 # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1 # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"
Modelli personalizzati
Per usare un modello di intelligenza artificiale diverso da quello predefinito, è possibile scegliere un altro modello supportato da Fabric o configurare un endpoint modello personalizzato.
Scegliere un altro modello linguistico di grandi dimensioni supportato
Selezionare uno dei modelli supportati da Fabric e configurarlo usando il model_deployment_name parametro . È possibile eseguire questa configurazione in due modi:
Globalmente nella classe
aifunc.Conf. Esempio:aifunc.default_conf.model_deployment_name = "<model deployment name>"Singolarmente in ogni chiamata di funzione di intelligenza artificiale:
df["translations"] = df["text"].ai.translate( "spanish", conf=Conf(model_deployment_name="<model deployment name>"), )
Scegliere un altro modello di incorporamento supportato
Selezionare uno dei modelli supportati da Fabric e configurarlo usando il embedding_deployment_name parametro . È possibile eseguire questa configurazione in due modi:
Globalmente nella classe
aifunc.Conf. Esempio:aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"Singolarmente in ogni chiamata di funzione di intelligenza artificiale. Esempio:
df["embedding"] = df["text"].ai.embed( conf=Conf(embedding_deployment_name="<embbedding deployment name>"), )
Configurare un endpoint modello personalizzato
Per impostazione predefinita, le funzioni di intelligenza artificiale usano l'API endpoint LLM di Fabric per la fatturazione unificata e la configurazione semplificata.
È possibile scegliere di usare un endpoint modello personalizzato configurando un client compatibile OpenAI o un client di Azure OpenAI con il proprio endpoint e chiave. L'esempio seguente illustra come usare la propria risorsa Microsoft AI Foundry (in precedenza Azure OpenAI) usando aifunc.setup:
from openai import AzureOpenAI
# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
api_key="<API_KEY>",
api_version=aifunc.session.api_version, # Default "2025-04-01-preview"
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
Suggerimento
- È possibile configurare una risorsa di AI Foundry personalizzata per l'uso di modelli oltre OpenAI.
L'esempio di codice seguente usa i valori segnaposto per illustrare come eseguire l'override dell'endpoint di intelligenza artificiale di Fabric predefinito con una risorsa personalizzata di Microsoft AI Foundry per utilizzare modelli diversi da OpenAI.
Importante
- Il supporto per i modelli di Microsoft AI Foundry è limitato ai modelli che supportano
Chat Completionsl'API e accettanoresponse_formatil parametro con lo schema JSON - L'output può variare a seconda del comportamento del modello di intelligenza artificiale selezionato. Esaminare le funzionalità di altri modelli con cautela appropriata
- Le funzioni
ai.embeddi intelligenza artificiale basate sull'incorporamento eai.similaritynon sono supportate quando si usa una risorsa di Ai Foundry
from openai import OpenAI
# Example to create client for Azure AI Foundry models
client = OpenAI(
base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
api_key="<API_KEY>",
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"
Contenuti correlati
Personalizzare le configurazioni delle funzioni di intelligenza artificiale con PySpark.
Rilevare il sentimento con
ai.analyze_sentiment.Classificare il testo con
ai.classify.Estrarre entità con
ai_extract.Correggere la grammatica con
ai.fix_grammar.Rispondi alle richieste utente personalizzate con
ai.generate_response.Calcolare la somiglianza con
ai.similarity.Riepilogare il testo con
ai.summarize.Tradurre il testo con
ai.translate.Altre informazioni sul set completo di funzioni di intelligenza artificiale.
Abbiamo perso una funzionalità necessaria? Suggeriscilo nel forum Fabric Ideas.