Compartir a través de


Personalización de funciones de IA con Pandas

Las funciones de IA están diseñadas para funcionar de forma predeterminada, con el modelo subyacente y la configuración configurados de forma predeterminada. Sin embargo, los usuarios que quieran configuraciones más flexibles pueden personalizar sus soluciones con algunas líneas de código adicionales.

Importante

Nota:

Configurations

De forma predeterminada, las funciones de inteligencia artificial están basadas en el punto de conexión de IA integrado en Fabric. La configuración del modelo de lenguaje grande (LLM) se configura globalmente en la aifunc.Conf clase . Si trabaja con funciones de IA en Pandas, puede usar la aifunc.Conf clase para modificar algunas o todas estas opciones de configuración:

Parámetro Description Predeterminado
concurrency
Opcional
Un valor int que designa el número máximo de filas que se van a procesar en paralelo con solicitudes asincrónicas al modelo. Los valores más altos aceleran el tiempo de procesamiento (si la capacidad puede acomodarla). Se puede configurar hasta 1000. 200
embedding_deployment_name
Opcional
Cadena que designa el nombre de la implementación del modelo de inserción que impulsa las funciones de IA. text-embedding-ada-002
model_deployment_name
Opcional
Cadena que designa el nombre de la implementación del modelo de lenguaje que impulsa las funciones de IA. Puede elegir entre los modelos admitidos por Fabric. gpt-4.1-mini
reasoning_effort
Opcional
Los modelos de la serie gpt-5 se utilizan para determinar la cantidad de tokens de razonamiento que se deben emplear. Se puede establecer en openai.NOT_GIVEN o en un valor de texto de "mínimo", "bajo", "medio" o "alto". openai.NOT_GIVEN
seed
Opcional
Un int que designa la semilla para la respuesta del modelo subyacente. El comportamiento predeterminado elige aleatoriamente un valor de inicialización para cada fila. La elección de un valor constante mejora la reproducibilidad de los experimentos. openai.NOT_GIVEN
temperature
Opcional
Un valor float entre 0.0 y 1.0 que designa la temperatura del modelo subyacente. Las temperaturas más altas aumentan la aleatoriedad o creatividad de las salidas del modelo. 0.0
timeout
Opcional
Un int que designa el número de segundos antes de que una función de IA provoque un error de tiempo de espera. De forma predeterminada, no hay tiempo de espera. Ninguno
top_p
Opcional
Un float entre 0 y 1. Un valor inferior (por ejemplo, 0,1) restringe el modelo para que solo tenga en cuenta los tokens más probables, lo que hace que la salida sea más determinista. Un valor mayor (por ejemplo, 0,9) permite salidas más diversas y creativas mediante la inclusión de una gama más amplia de tokens. openai.NOT_GIVEN
use_progress_bar
Opcional
Mostrar la barra de progreso de tqdm para el avance de la función de inteligencia artificial sobre los datos de entrada. Usa tqdm bajo el capó. Valor booleano, que se puede establecer en True o False. True
verbosity
Opcional
Se usa en los modelos de la serie gpt-5 para la longitud de salida. Se puede establecer en openai.NOT_GIVEN o en un valor de cadena de "bajo", "medio" o "alto". openai.NOT_GIVEN

Sugerencia

  • Si la capacidad de implementación del modelo puede dar cabida a más solicitudes, establecer un mayor número de valores de simultaneidad puede acelerar el tiempo de procesamiento.

En el ejemplo de código siguiente se muestra cómo invalidar aifunc.Conf la configuración globalmente, de modo que se apliquen a todas las llamadas de función de IA en una sesión:

# This code uses AI. Always review output for mistakes.

aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

También puede personalizar esta configuración para cada llamada de función individual. Cada función de IA acepta un parámetro opcional conf . El ejemplo de código siguiente modifica la configuración predeterminada aifunc solo para la ai.translate llamada de función, a través de un valor de temperatura personalizado. (La ai.analyze_sentiment llamada sigue usando los valores predeterminados, porque no se establecen valores personalizados).

# This code uses AI. Always review output for mistakes. 

from synapse.ml.aifunc import Conf

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

En el ejemplo de código siguiente se muestra cómo configurar los gpt-5 modelos de razonamiento y otros para todas las funciones.

aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1  # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1  # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"

Modelos personalizados

Para usar un modelo de IA distinto del predeterminado, puede elegir otro modelo compatible con Fabric o configurar un punto de conexión de modelo personalizado.

Elección de otro modelo de lenguaje grande admitido

Seleccione uno de los modelos admitidos por Fabric y configúrelo mediante el model_deployment_name parámetro . Puede realizar esta configuración de una de estas dos maneras:

  • Globalmente en la clase aifunc.Conf. Ejemplo:

    aifunc.default_conf.model_deployment_name = "<model deployment name>"
    
  • Individualmente en cada llamada de función de inteligencia artificial:

    df["translations"] = df["text"].ai.translate(
        "spanish",
        conf=Conf(model_deployment_name="<model deployment name>"),
    )
    

Elegir otro modelo de inserción admitido

Seleccione uno de los modelos admitidos por Fabric y configúrelo mediante el embedding_deployment_name parámetro . Puede realizar esta configuración de una de estas dos maneras:

  • Globalmente en la clase aifunc.Conf. Ejemplo:

    aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"
    
  • Individualmente en cada llamada de función de IA. Ejemplo:

    df["embedding"] = df["text"].ai.embed(
        conf=Conf(embedding_deployment_name="<embbedding deployment name>"),
    )
    

Configuración de un punto de conexión de modelo personalizado

De forma predeterminada, las funciones de IA usan la API de punto de conexión de Fabric LLM para la facturación unificada y la configuración sencilla. Puede optar por usar su propio punto de conexión de modelo configurando un cliente compatible con Azure OpenAI o OpenAI con su propio punto de conexión y su clave. En el ejemplo siguiente se muestra cómo traer su propio recurso de Microsoft AI Foundry (anteriormente Azure OpenAI) mediante aifunc.setup:

from openai import AzureOpenAI

# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
    azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
    api_key="<API_KEY>",
    api_version=aifunc.session.api_version,  # Default "2025-04-01-preview"
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

Sugerencia

  • Puede configurar un recurso de AI Foundry personalizado para usar modelos más allá de OpenAI.

En el ejemplo de código siguiente se utilizan valores de marcador de posición para mostrar cómo sobrescribir el punto de conexión integrado de Fabric AI con un recurso personalizado de Microsoft AI Foundry para utilizar modelos que van más allá de OpenAI.

Importante

  • La compatibilidad con los modelos de Microsoft AI Foundry se limita a los modelos que admiten Chat Completions la API y aceptan response_format parámetros con el esquema JSON.
  • La salida puede variar en función del comportamiento del modelo de IA seleccionado. Explore las funcionalidades de otros modelos con precaución adecuada.
  • Las funciones de inteligencia artificial basadas en incrustación ai.embed y ai.similarity no se admiten al usar un recurso de AI Foundry.
from openai import OpenAI

# Example to create client for Azure AI Foundry models
client = OpenAI(
    base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
    api_key="<API_KEY>",
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"