Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Yapay zeka işlevleri, model ve ayarlar varsayılan olarak yapılandırılmış ve çalışmaya hazır olacak şekilde tasarlanmıştır. Ancak daha esnek yapılandırmalar isteyen kullanıcılar, birkaç ek kod satırıyla çözümlerini özelleştirebilir.
Önemli
- Yapay zeka işlevleri Fabric Çalışma Zamanı 1.3 (Spark 3.5), (Python 3.11) ve sonraki sürümlerde kullanılabilir.
- Geçici olarak yapay zeka işlevlerini kullanmak için gereken kütüphane yüklemeleri de dahil olmak üzere,bu genel bakış makalesindeki önkoşulları gözden geçirin.
- Temel alınan model birkaç dili işleyebilir ancak yapay zeka işlevlerinin çoğu İngilizce metinlerde kullanılmak üzere iyileştirilmiştir.
Uyarı
- Bu makale pandas ile yapay zeka işlevlerini özelleştirmeyi kapsar. PySpark ile yapay zeka işlevlerini özelleştirmek için bu makaleye bakın.
- Bu genel bakış makalesinde tüm yapay zeka işlevlerine bakın.
Configurations
Yapay zeka işlevleri varsayılan olarak Doku'daki yerleşik yapay zeka uç noktası tarafından desteklenir. Büyük dil modeli (LLM) ayarları aifunc.Conf sınıfında global olarak yapılandırılır. Pandas'ta yapay zeka işlevleriyle çalışıyorsanız, bu ayarların bazılarını veya tümünü değiştirmek için aifunc.Conf sınıfını kullanabilirsiniz:
| Parametre | Description | Varsayılan |
|---|---|---|
concurrencyOpsiyonel |
Modele zaman uyumsuz isteklerle paralel olarak işlenecek maksimum satır sayısını belirten bir int. Daha yüksek değerler işleme süresini hızlandırabilir (kapasiteniz buna uyum sağlayabilirse). 1.000'e kadar ayarlanabilir. | 200 |
embedding_deployment_nameOpsiyonel |
Yapay zeka işlevlerini sağlayan gömme modeli dağıtımının adını belirten bir dizesi. | text-embedding-ada-002 |
model_deployment_nameOpsiyonel |
Yapay zeka işlevlerini destekleyen dil modeli dağıtımının adını belirleyen bir dizesi. Doku tarafından desteklenen modeller arasından seçim yapabilirsiniz. | gpt-4.1-mini |
reasoning_effortOpsiyonel |
Gpt-5 serisi modelleri tarafından, kullanmaları gereken akıl yürütme belirteçlerinin sayısı için kullanılır.
openai.NOT_GIVEN veya "minimal", "low", "medium" veya "high" olarak ayarlanabilir. |
openai.NOT_GIVEN |
seedOpsiyonel |
Temel alınan modelin yanıtı için kullanılacak tohumu belirten bir int. Varsayılan davranış, her satır için rastgele bir tohum değeri seçer. Sabit değer seçimi, denemelerinizin yeniden üretilebilirliğini artırır. | openai.NOT_GIVEN |
temperatureOpsiyonel |
Arasında ve 0.0 olan bir 1.0, temel alınan modelin sıcaklığını belirtir. Daha yüksek sıcaklıklar modelin çıkışlarının rastgeleliğini veya yaratıcılığını artırır. |
0.0 |
timeoutOpsiyonel |
Yapay zeka işlevinin zaman aşımı hatası oluşturmadan önce geçmesi gereken saniye sayısını belirten bir int. Varsayılan olarak zaman aşımı yoktur. | Hiç kimse |
top_pOpsiyonel |
0 ile 1 arasında bir float. Daha düşük bir değer (örneğin, 0,1), modeli yalnızca en olası belirteçleri dikkate alacak şekilde kısıtlayarak çıkışı daha belirleyici hale getirir. Daha yüksek bir değer (örneğin, 0,9), daha geniş bir belirteç aralığı ekleyerek daha çeşitli ve yaratıcı çıkışlar sağlar. | openai.NOT_GIVEN |
use_progress_barOpsiyonel |
Giriş verileri üzerinde yapay zeka işlevinin ilerleme durumunu gösteren tqdm ilerleme çubuğu. Kaputun altında tqdm kullanır.
True veya False olarak ayarlanabilen Boole değeri. |
True |
verbosityOpsiyonel |
Çıkış uzunluğu için gpt-5 serisi modelleri tarafından kullanılır. veya "low", "medium" veya "high" dize değeri olarak ayarlanabilir openai.NOT_GIVEN . |
openai.NOT_GIVEN |
Tavsiye
- Model dağıtım kapasiteniz daha fazla istek barındırabiliyorsa, daha yüksek eşzamanlılık değerleri ayarlamak işlem süresini hızlandırabilir.
Aşağıdaki kod örneği, ayarların bir oturumdaki tüm yapay zeka işlev çağrılarına uygulanabilmesi için genel olarak nasıl geçersiz kılınacağını aifunc.Conf gösterir:
# This code uses AI. Always review output for mistakes.
aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Ayrıca her işlev çağrısı için bu ayarları özelleştirebilirsiniz. Her yapay zeka işlevi isteğe bağlı bir conf parametresi kabul eder. Aşağıdaki kod örneği, yalnızca aifunc işlev çağrısı için özel bir sıcaklık değeri aracılığıyla ai.translate varsayılan ayarları değiştirir. (Özel ai.analyze_sentiment değer ayarlanmadığı için çağrı yine de varsayılan değerleri kullanır).
# This code uses AI. Always review output for mistakes.
from synapse.ml.aifunc import Conf
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Aşağıdaki kod örneği, gpt-5 ve diğer mantık modellerinin tüm işlevler için nasıl yapılandırılacağını göstermektedir.
aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1 # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1 # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"
Özel Modeller
Varsayılan dışında bir yapay zeka modeli kullanmak için Doku tarafından desteklenen başka bir model seçebilir veya özel bir model uç noktası yapılandırabilirsiniz.
Desteklenen başka bir büyük dil modeli seçin
Doku tarafından desteklenen modellerden birini seçin ve parametresini model_deployment_name kullanarak yapılandırın. Bu yapılandırmayı iki yoldan biriyle yapabilirsiniz:
Sınıfında küresel olarak
aifunc.Conf. Örnek:aifunc.default_conf.model_deployment_name = "<model deployment name>"Her bir yapay zeka işlev çağrısında ayrı ayrı:
df["translations"] = df["text"].ai.translate( "spanish", conf=Conf(model_deployment_name="<model deployment name>"), )
Desteklenen başka bir ekleme modeli seçin
Doku tarafından desteklenen modellerden birini seçin ve parametresini embedding_deployment_name kullanarak yapılandırın. Bu yapılandırmayı iki yoldan biriyle yapabilirsiniz:
Sınıfında küresel olarak
aifunc.Conf. Örnek:aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"Yapay zeka işlev çağrılarının her birinde ayrı ayrı. Örnek:
df["embedding"] = df["text"].ai.embed( conf=Conf(embedding_deployment_name="<embbedding deployment name>"), )
Özel model uç noktasını yapılandırma
Yapay zeka işlevleri varsayılan olarak birleşik faturalama ve kolay kurulum için Doku LLM uç nokta API'sini kullanır.
Uç noktanız ve anahtarınız ile Azure OpenAI veya OpenAI uyumlu bir istemci ayarlayarak kendi model uç noktanızı kullanmayı seçebilirsiniz. Aşağıdaki örnekte aifunc.setup kullanarak kendi Microsoft AI Foundry (eski adıyla Azure OpenAI) kaynağınızı nasıl getireceğiniz gösterilmektedir:
from openai import AzureOpenAI
# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
api_key="<API_KEY>",
api_version=aifunc.session.api_version, # Default "2025-04-01-preview"
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
Tavsiye
- OpenAI dışındaki modelleri kullanmak için özel bir AI Foundry kaynağı yapılandırabilirsiniz.
Aşağıdaki kod örneği, OpenAI dışındaki modelleri kullanmak üzere özel bir Microsoft AI Foundry kaynağıyla yerleşik Fabric AI uç noktasını nasıl geçersiz kılabileceğinizi göstermek için yer tutucu değerleri kullanır:
Önemli
- Microsoft AI Foundry modelleri desteği, API'yi destekleyen
Chat Completionsve JSON şemasıyla parametre kabulresponse_formateden modellerle sınırlıdır - Çıkış, seçilen yapay zeka modelinin davranışına bağlı olarak değişebilir. Lütfen diğer modellerin özelliklerini uygun bir şekilde inceleyin
- Ekleme tabanlı yapay zeka işlevleri
ai.embedveai.similarityAI Foundry kaynağı kullanılırken desteklenmez
from openai import OpenAI
# Example to create client for Azure AI Foundry models
client = OpenAI(
base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
api_key="<API_KEY>",
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"
İlgili içerik
PySpark ile yapay zeka işlevleri yapılandırmalarını özelleştirin.
ai.analyze_sentimentile duyguları algılayın.ai.classifyile metni kategorilere ayırın.ai_extractile varlıkları ayrıştırın.ai.fix_grammarile dilbilgisini düzelt.ai.generate_responseile özel kullanıcı istemlerini yanıtlayın.ai.similarityile benzerliği hesaplayın.ai.summarizeile metni özetleyin.ai.translateile metni çevirin.Yapay zeka işlevlerinin tamamı hakkında daha fazla bilgi edinin.
İhtiyacınız olan bir özelliği kaçırdık mı? Fabric Fikirleri forumu'nda önerin.