Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las funciones de IA están diseñadas para funcionar de forma predeterminada, con el modelo subyacente y la configuración configurados de forma predeterminada. Sin embargo, los usuarios que quieran configuraciones más flexibles pueden personalizar sus soluciones con algunas líneas de código adicionales.
Importante
- Las funciones de IA se usan en Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) y versiones posteriores.
- Revise los requisitos previos en este artículo de información general, incluidas las instalaciones de las bibliotecas que requieren temporalmente para usar funciones de inteligencia artificial.
- Aunque el modelo subyacente puede controlar varios lenguajes, la mayoría de las funciones de IA están optimizadas para su uso en textos en inglés.
Nota:
- En este artículo se describe la personalización de funciones de inteligencia artificial con pandas. Para personalizar las funciones de IA con PySpark, consulte este artículo.
- Consulte todas las funciones de IA en este artículo de información general.
Configurations
De forma predeterminada, las funciones de inteligencia artificial están basadas en el punto de conexión de IA integrado en Fabric. La configuración del modelo de lenguaje grande (LLM) se configura globalmente en la aifunc.Conf clase . Si trabaja con funciones de IA en Pandas, puede usar la aifunc.Conf clase para modificar algunas o todas estas opciones de configuración:
| Parámetro | Description | Predeterminado |
|---|---|---|
concurrencyOpcional |
Un valor int que designa el número máximo de filas que se van a procesar en paralelo con solicitudes asincrónicas al modelo. Los valores más altos aceleran el tiempo de procesamiento (si la capacidad puede acomodarla). Se puede configurar hasta 1000. | 200 |
embedding_deployment_nameOpcional |
Cadena que designa el nombre de la implementación del modelo de inserción que impulsa las funciones de IA. | text-embedding-ada-002 |
model_deployment_nameOpcional |
Cadena que designa el nombre de la implementación del modelo de lenguaje que impulsa las funciones de IA. Puede elegir entre los modelos admitidos por Fabric. | gpt-4.1-mini |
reasoning_effortOpcional |
Los modelos de la serie gpt-5 se utilizan para determinar la cantidad de tokens de razonamiento que se deben emplear. Se puede establecer en openai.NOT_GIVEN o en un valor de texto de "mínimo", "bajo", "medio" o "alto". |
openai.NOT_GIVEN |
seedOpcional |
Un int que designa la semilla para la respuesta del modelo subyacente. El comportamiento predeterminado elige aleatoriamente un valor de inicialización para cada fila. La elección de un valor constante mejora la reproducibilidad de los experimentos. | openai.NOT_GIVEN |
temperatureOpcional |
Un valor float entre 0.0 y 1.0 que designa la temperatura del modelo subyacente. Las temperaturas más altas aumentan la aleatoriedad o creatividad de las salidas del modelo. |
0.0 |
timeoutOpcional |
Un int que designa el número de segundos antes de que una función de IA provoque un error de tiempo de espera. De forma predeterminada, no hay tiempo de espera. | Ninguno |
top_pOpcional |
Un float entre 0 y 1. Un valor inferior (por ejemplo, 0,1) restringe el modelo para que solo tenga en cuenta los tokens más probables, lo que hace que la salida sea más determinista. Un valor mayor (por ejemplo, 0,9) permite salidas más diversas y creativas mediante la inclusión de una gama más amplia de tokens. | openai.NOT_GIVEN |
use_progress_barOpcional |
Mostrar la barra de progreso de tqdm para el avance de la función de inteligencia artificial sobre los datos de entrada. Usa tqdm bajo el capó. Valor booleano, que se puede establecer en True o False. |
True |
verbosityOpcional |
Se usa en los modelos de la serie gpt-5 para la longitud de salida. Se puede establecer en openai.NOT_GIVEN o en un valor de cadena de "bajo", "medio" o "alto". |
openai.NOT_GIVEN |
Sugerencia
- Si la capacidad de implementación del modelo puede dar cabida a más solicitudes, establecer un mayor número de valores de simultaneidad puede acelerar el tiempo de procesamiento.
En el ejemplo de código siguiente se muestra cómo invalidar aifunc.Conf la configuración globalmente, de modo que se apliquen a todas las llamadas de función de IA en una sesión:
# This code uses AI. Always review output for mistakes.
aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
También puede personalizar esta configuración para cada llamada de función individual. Cada función de IA acepta un parámetro opcional conf . El ejemplo de código siguiente modifica la configuración predeterminada aifunc solo para la ai.translate llamada de función, a través de un valor de temperatura personalizado. (La ai.analyze_sentiment llamada sigue usando los valores predeterminados, porque no se establecen valores personalizados).
# This code uses AI. Always review output for mistakes.
from synapse.ml.aifunc import Conf
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
En el ejemplo de código siguiente se muestra cómo configurar los gpt-5 modelos de razonamiento y otros para todas las funciones.
aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1 # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1 # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"
Modelos personalizados
Para usar un modelo de IA distinto del predeterminado, puede elegir otro modelo compatible con Fabric o configurar un punto de conexión de modelo personalizado.
Elección de otro modelo de lenguaje grande admitido
Seleccione uno de los modelos admitidos por Fabric y configúrelo mediante el model_deployment_name parámetro . Puede realizar esta configuración de una de estas dos maneras:
Globalmente en la clase
aifunc.Conf. Ejemplo:aifunc.default_conf.model_deployment_name = "<model deployment name>"Individualmente en cada llamada de función de inteligencia artificial:
df["translations"] = df["text"].ai.translate( "spanish", conf=Conf(model_deployment_name="<model deployment name>"), )
Elegir otro modelo de inserción admitido
Seleccione uno de los modelos admitidos por Fabric y configúrelo mediante el embedding_deployment_name parámetro . Puede realizar esta configuración de una de estas dos maneras:
Globalmente en la clase
aifunc.Conf. Ejemplo:aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"Individualmente en cada llamada de función de IA. Ejemplo:
df["embedding"] = df["text"].ai.embed( conf=Conf(embedding_deployment_name="<embbedding deployment name>"), )
Configuración de un punto de conexión de modelo personalizado
De forma predeterminada, las funciones de IA usan la API de punto de conexión de Fabric LLM para la facturación unificada y la configuración sencilla.
Puede optar por usar su propio punto de conexión de modelo configurando un cliente compatible con Azure OpenAI o OpenAI con su propio punto de conexión y su clave. En el ejemplo siguiente se muestra cómo traer su propio recurso de Microsoft AI Foundry (anteriormente Azure OpenAI) mediante aifunc.setup:
from openai import AzureOpenAI
# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
api_key="<API_KEY>",
api_version=aifunc.session.api_version, # Default "2025-04-01-preview"
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
Sugerencia
- Puede configurar un recurso de AI Foundry personalizado para usar modelos más allá de OpenAI.
En el ejemplo de código siguiente se utilizan valores de marcador de posición para mostrar cómo sobrescribir el punto de conexión integrado de Fabric AI con un recurso personalizado de Microsoft AI Foundry para utilizar modelos que van más allá de OpenAI.
Importante
- La compatibilidad con los modelos de Microsoft AI Foundry se limita a los modelos que admiten
Chat Completionsla API y aceptanresponse_formatparámetros con el esquema JSON. - La salida puede variar en función del comportamiento del modelo de IA seleccionado. Explore las funcionalidades de otros modelos con precaución adecuada.
- Las funciones de inteligencia artificial basadas en incrustación
ai.embedyai.similarityno se admiten al usar un recurso de AI Foundry.
from openai import OpenAI
# Example to create client for Azure AI Foundry models
client = OpenAI(
base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
api_key="<API_KEY>",
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"
Contenido relacionado
Personalice las configuraciones de las funciones de IA con PySpark.
Detecte sentimientos con
ai.analyze_sentiment.Clasificar texto con
ai.classify.Extraiga entidades con
ai_extract.Corrija la gramática con
ai.fix_grammar.Responda a las solicitudes de usuario personalizadas con
ai.generate_response.Calcule la similitud con
ai.similarity.Resumir texto con
ai.summarize.Traducir texto con
ai.translate.Obtenga más información sobre el conjunto completo de funciones de inteligencia artificial.
¿Perdimos una característica que necesita? Sugerirlo en el foro de Ideas de Fabric.