Aracılığıyla paylaş


Pandas ile yapay zeka işlevlerini özelleştirme

Yapay zeka işlevleri, model ve ayarlar varsayılan olarak yapılandırılmış ve çalışmaya hazır olacak şekilde tasarlanmıştır. Ancak daha esnek yapılandırmalar isteyen kullanıcılar, birkaç ek kod satırıyla çözümlerini özelleştirebilir.

Önemli

Uyarı

  • Bu makale pandas ile yapay zeka işlevlerini özelleştirmeyi kapsar. PySpark ile yapay zeka işlevlerini özelleştirmek için bu makaleye bakın.
  • Bu genel bakış makalesinde tüm yapay zeka işlevlerine bakın.

Configurations

Yapay zeka işlevleri varsayılan olarak Doku'daki yerleşik yapay zeka uç noktası tarafından desteklenir. Büyük dil modeli (LLM) ayarları aifunc.Conf sınıfında global olarak yapılandırılır. Pandas'ta yapay zeka işlevleriyle çalışıyorsanız, bu ayarların bazılarını veya tümünü değiştirmek için aifunc.Conf sınıfını kullanabilirsiniz:

Parametre Description Varsayılan
concurrency
Opsiyonel
Modele zaman uyumsuz isteklerle paralel olarak işlenecek maksimum satır sayısını belirten bir int. Daha yüksek değerler işleme süresini hızlandırabilir (kapasiteniz buna uyum sağlayabilirse). 1.000'e kadar ayarlanabilir. 200
embedding_deployment_name
Opsiyonel
Yapay zeka işlevlerini sağlayan gömme modeli dağıtımının adını belirten bir dizesi. text-embedding-ada-002
model_deployment_name
Opsiyonel
Yapay zeka işlevlerini destekleyen dil modeli dağıtımının adını belirleyen bir dizesi. Doku tarafından desteklenen modeller arasından seçim yapabilirsiniz. gpt-4.1-mini
reasoning_effort
Opsiyonel
Gpt-5 serisi modelleri tarafından, kullanmaları gereken akıl yürütme belirteçlerinin sayısı için kullanılır. openai.NOT_GIVEN veya "minimal", "low", "medium" veya "high" olarak ayarlanabilir. openai.NOT_GIVEN
seed
Opsiyonel
Temel alınan modelin yanıtı için kullanılacak tohumu belirten bir int. Varsayılan davranış, her satır için rastgele bir tohum değeri seçer. Sabit değer seçimi, denemelerinizin yeniden üretilebilirliğini artırır. openai.NOT_GIVEN
temperature
Opsiyonel
Arasında ve 0.0 olan bir 1.0, temel alınan modelin sıcaklığını belirtir. Daha yüksek sıcaklıklar modelin çıkışlarının rastgeleliğini veya yaratıcılığını artırır. 0.0
timeout
Opsiyonel
Yapay zeka işlevinin zaman aşımı hatası oluşturmadan önce geçmesi gereken saniye sayısını belirten bir int. Varsayılan olarak zaman aşımı yoktur. Hiç kimse
top_p
Opsiyonel
0 ile 1 arasında bir float. Daha düşük bir değer (örneğin, 0,1), modeli yalnızca en olası belirteçleri dikkate alacak şekilde kısıtlayarak çıkışı daha belirleyici hale getirir. Daha yüksek bir değer (örneğin, 0,9), daha geniş bir belirteç aralığı ekleyerek daha çeşitli ve yaratıcı çıkışlar sağlar. openai.NOT_GIVEN
use_progress_bar
Opsiyonel
Giriş verileri üzerinde yapay zeka işlevinin ilerleme durumunu gösteren tqdm ilerleme çubuğu. Kaputun altında tqdm kullanır. True veya False olarak ayarlanabilen Boole değeri. True
verbosity
Opsiyonel
Çıkış uzunluğu için gpt-5 serisi modelleri tarafından kullanılır. veya "low", "medium" veya "high" dize değeri olarak ayarlanabilir openai.NOT_GIVEN . openai.NOT_GIVEN

Tavsiye

  • Model dağıtım kapasiteniz daha fazla istek barındırabiliyorsa, daha yüksek eşzamanlılık değerleri ayarlamak işlem süresini hızlandırabilir.

Aşağıdaki kod örneği, ayarların bir oturumdaki tüm yapay zeka işlev çağrılarına uygulanabilmesi için genel olarak nasıl geçersiz kılınacağını aifunc.Conf gösterir:

# This code uses AI. Always review output for mistakes.

aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Ayrıca her işlev çağrısı için bu ayarları özelleştirebilirsiniz. Her yapay zeka işlevi isteğe bağlı bir conf parametresi kabul eder. Aşağıdaki kod örneği, yalnızca aifunc işlev çağrısı için özel bir sıcaklık değeri aracılığıyla ai.translate varsayılan ayarları değiştirir. (Özel ai.analyze_sentiment değer ayarlanmadığı için çağrı yine de varsayılan değerleri kullanır).

# This code uses AI. Always review output for mistakes. 

from synapse.ml.aifunc import Conf

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Aşağıdaki kod örneği, gpt-5 ve diğer mantık modellerinin tüm işlevler için nasıl yapılandırılacağını göstermektedir.

aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1  # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1  # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"

Özel Modeller

Varsayılan dışında bir yapay zeka modeli kullanmak için Doku tarafından desteklenen başka bir model seçebilir veya özel bir model uç noktası yapılandırabilirsiniz.

Desteklenen başka bir büyük dil modeli seçin

Doku tarafından desteklenen modellerden birini seçin ve parametresini model_deployment_name kullanarak yapılandırın. Bu yapılandırmayı iki yoldan biriyle yapabilirsiniz:

  • Sınıfında küresel olarak aifunc.Conf. Örnek:

    aifunc.default_conf.model_deployment_name = "<model deployment name>"
    
  • Her bir yapay zeka işlev çağrısında ayrı ayrı:

    df["translations"] = df["text"].ai.translate(
        "spanish",
        conf=Conf(model_deployment_name="<model deployment name>"),
    )
    

Desteklenen başka bir ekleme modeli seçin

Doku tarafından desteklenen modellerden birini seçin ve parametresini embedding_deployment_name kullanarak yapılandırın. Bu yapılandırmayı iki yoldan biriyle yapabilirsiniz:

  • Sınıfında küresel olarak aifunc.Conf. Örnek:

    aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"
    
  • Yapay zeka işlev çağrılarının her birinde ayrı ayrı. Örnek:

    df["embedding"] = df["text"].ai.embed(
        conf=Conf(embedding_deployment_name="<embbedding deployment name>"),
    )
    

Özel model uç noktasını yapılandırma

Yapay zeka işlevleri varsayılan olarak birleşik faturalama ve kolay kurulum için Doku LLM uç nokta API'sini kullanır. Uç noktanız ve anahtarınız ile Azure OpenAI veya OpenAI uyumlu bir istemci ayarlayarak kendi model uç noktanızı kullanmayı seçebilirsiniz. Aşağıdaki örnekte aifunc.setup kullanarak kendi Microsoft AI Foundry (eski adıyla Azure OpenAI) kaynağınızı nasıl getireceğiniz gösterilmektedir:

from openai import AzureOpenAI

# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
    azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
    api_key="<API_KEY>",
    api_version=aifunc.session.api_version,  # Default "2025-04-01-preview"
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

Tavsiye

  • OpenAI dışındaki modelleri kullanmak için özel bir AI Foundry kaynağı yapılandırabilirsiniz.

Aşağıdaki kod örneği, OpenAI dışındaki modelleri kullanmak üzere özel bir Microsoft AI Foundry kaynağıyla yerleşik Fabric AI uç noktasını nasıl geçersiz kılabileceğinizi göstermek için yer tutucu değerleri kullanır:

Önemli

  • Microsoft AI Foundry modelleri desteği, API'yi destekleyen Chat Completions ve JSON şemasıyla parametre kabul response_format eden modellerle sınırlıdır
  • Çıkış, seçilen yapay zeka modelinin davranışına bağlı olarak değişebilir. Lütfen diğer modellerin özelliklerini uygun bir şekilde inceleyin
  • Ekleme tabanlı yapay zeka işlevleri ai.embed ve ai.similarity AI Foundry kaynağı kullanılırken desteklenmez
from openai import OpenAI

# Example to create client for Azure AI Foundry models
client = OpenAI(
    base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
    api_key="<API_KEY>",
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"