Κοινοποίηση μέσω


Προσαρμόστε τις λειτουργίες AI με πάντα

Οι λειτουργίες AI έχουν σχεδιαστεί για να λειτουργούν αμέσως, με το υποκείμενο μοντέλο και τις ρυθμίσεις διαμορφωμένες από προεπιλογή. Ωστόσο, οι χρήστες που επιθυμούν πιο ευέλικτες ρυθμίσεις παραμέτρων μπορούν να προσαρμόσουν τις λύσεις τους με μερικές επιπλέον γραμμές κώδικα.

Σημαντικό

  • Οι συναρτήσεις AI προορίζονται για χρήση στο Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) και νεότερες εκδόσεις.
  • Εξετάστε τις προϋποθέσεις σε αυτό το άρθρο επισκόπησης, συμπεριλαμβανομένων των εγκαταστάσεων βιβλιοθήκης που απαιτούνται προσωρινά για τη χρήση συναρτήσεων AI.
  • Παρόλο που το υποκείμενο μοντέλο μπορεί να χειριστεί πολλές γλώσσες, οι περισσότερες συναρτήσεις AI έχουν βελτιστοποιηθεί για χρήση σε αγγλόφωνα κείμενα.

Σημείωμα

  • Αυτό το άρθρο καλύπτει την προσαρμογή των λειτουργιών AI με pandas. Για να προσαρμόσετε τις λειτουργίες AI με το PySpark, ανατρέξτε σε αυτό το άρθρο.
  • Δείτε όλες τις λειτουργίες AI σε αυτό το άρθρο επισκόπησης.

Ρυθμίσεις παραμέτρων

Από προεπιλογή, οι λειτουργίες AI τροφοδοτούνται από το ενσωματωμένο τελικό σημείο AI στο Fabric. Οι ρυθμίσεις του μοντέλου μεγάλης γλώσσας (LLM) διαμορφώνονται καθολικά στην aifunc.Conf κλάση. Εάν εργάζεστε με συναρτήσεις AI στα pandas, μπορείτε να χρησιμοποιήσετε την aifunc.Conf κλάση για να τροποποιήσετε ορισμένες ή όλες αυτές τις ρυθμίσεις:

Παράμετρος Περιγραφή Προεπιλεγμένος
concurrency
Προαιρετικός
Ένα int που ορίζει τον μέγιστο αριθμό γραμμών για επεξεργασία παράλληλα με ασύγχρονες αιτήσεις στο μοντέλο. Οι υψηλότερες τιμές επιταχύνουν τον χρόνο επεξεργασίας (εάν οι εκχωρημένοι πόροι σας μπορούν να το εξυπηρετήσουν). Μπορεί να ρυθμιστεί έως και 1,000. 200
embedding_deployment_name
Προαιρετικός
Μια συμβολοσειρά που ορίζει το όνομα της ανάπτυξης μοντέλου ενσωμάτωσης που τροφοδοτεί τις λειτουργίες AI. text-embedding-ada-002
model_deployment_name
Προαιρετικός
Μια συμβολοσειρά που ορίζει το όνομα της ανάπτυξης του μοντέλου γλώσσας που τροφοδοτεί τις λειτουργίες AI. Μπορείτε να επιλέξετε από τα μοντέλα που υποστηρίζονται από το Fabric. gpt-4.1-mini
reasoning_effort
Προαιρετικός
Χρησιμοποιείται από μοντέλα της σειράς gpt-5 για τον αριθμό των διακριτικών συλλογισμού που πρέπει να χρησιμοποιούν. Μπορεί να οριστεί σε ή μια openai.NOT_GIVEN τιμή συμβολοσειράς "ελάχιστη", "χαμηλή", "μεσαία" ή "υψηλή". openai.NOT_GIVEN
seed
Προαιρετικός
Ένα int που ορίζει τον σπόρο που θα χρησιμοποιηθεί για την απόκριση του υποκείμενου μοντέλου. Η προεπιλεγμένη συμπεριφορά επιλέγει τυχαία μια τιμή φύτου για κάθε γραμμή. Η επιλογή μιας σταθερής τιμής βελτιώνει την αναπαραγωγιμότητα των πειραμάτων σας. openai.NOT_GIVEN
temperature
Προαιρετικός
Ένας πλωτήρας μεταξύ 0.0 και 1.0 που δηλώνει τη θερμοκρασία του υποκείμενου μοντέλου. Οι υψηλότερες θερμοκρασίες αυξάνουν την τυχαιότητα ή τη δημιουργικότητα των αποτελεσμάτων του μοντέλου. 0.0
timeout
Προαιρετικός
Ένα int που ορίζει τον αριθμό των δευτερολέπτων πριν από μια λειτουργία AI εγείρει ένα σφάλμα χρονικού ορίου. Από προεπιλογή, δεν υπάρχει χρονικό όριο. None
top_p
Προαιρετικός
Ένας πλωτήρας μεταξύ 0 και 1. Μια χαμηλότερη τιμή (για παράδειγμα, 0.1) περιορίζει το μοντέλο να λαμβάνει υπόψη μόνο τα πιο πιθανά διακριτικά, καθιστώντας την έξοδο πιο ντετερμινιστική. Μια υψηλότερη τιμή (για παράδειγμα, 0,9) επιτρέπει πιο ποικίλα και δημιουργικά αποτελέσματα, συμπεριλαμβάνοντας ένα ευρύτερο φάσμα διακριτικών. openai.NOT_GIVEN
use_progress_bar
Προαιρετικός
Εμφάνιση γραμμής προόδου tqdm για την πρόοδο της λειτουργίας AI σε σχέση με τα δεδομένα εισόδου. Χρησιμοποιεί tqdm κάτω από την κουκούλα. Δυαδική τιμή, η οποία μπορεί να οριστεί σε True ή False. True
verbosity
Προαιρετικός
Χρησιμοποιείται από μοντέλα της σειράς gpt-5 για μήκος εξόδου. Μπορεί να οριστεί σε ή μια openai.NOT_GIVEN τιμή συμβολοσειράς "χαμηλή", "μεσαία" ή "υψηλή". openai.NOT_GIVEN

Tip

  • Εάν η χωρητικότητα ανάπτυξης του μοντέλου σας μπορεί να φιλοξενήσει περισσότερες αιτήσεις, ο ορισμός υψηλότερων τιμών ταυτόχρονης εκτέλεσης μπορεί να επιταχύνει τον χρόνο επεξεργασίας.

Το παρακάτω δείγμα κώδικα δείχνει πώς μπορείτε να παρακάμψετε aifunc.Conf τις ρυθμίσεις καθολικά, ώστε να εφαρμόζονται σε όλες τις κλήσεις συναρτήσεων AI σε μια περίοδο λειτουργίας:

# This code uses AI. Always review output for mistakes.

aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Μπορείτε επίσης να προσαρμόσετε αυτές τις ρυθμίσεις για κάθε μεμονωμένη κλήση συνάρτησης. Κάθε συνάρτηση AI αποδέχεται μια προαιρετική conf παράμετρο. Το ακόλουθο δείγμα κώδικα τροποποιεί τις προεπιλεγμένες aifunc ρυθμίσεις μόνο για την ai.translate κλήση συνάρτησης, μέσω μιας προσαρμοσμένης τιμής θερμοκρασίας. (Η ai.analyze_sentiment κλήση εξακολουθεί να χρησιμοποιεί τις προεπιλεγμένες τιμές, επειδή δεν έχουν οριστεί προσαρμοσμένες τιμές).

# This code uses AI. Always review output for mistakes. 

from synapse.ml.aifunc import Conf

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself.",
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Το παρακάτω δείγμα κώδικα δείχνει πώς μπορείτε να ρυθμίσετε τις παραμέτρους του gpt-5 και άλλων μοντέλων συλλογισμού για όλες τις συναρτήσεις.

aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1  # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1  # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"

Προσαρμοσμένα μοντέλα

Για να χρησιμοποιήσετε ένα μοντέλο AI διαφορετικό από το προεπιλεγμένο, μπορείτε να επιλέξετε ένα άλλο μοντέλο που υποστηρίζεται από το Fabric ή να ρυθμίσετε τις παραμέτρους ενός προσαρμοσμένου τελικού σημείου μοντέλου.

Επιλέξτε ένα άλλο υποστηριζόμενο μοντέλο μεγάλης γλώσσας

Επιλέξτε ένα από τα μοντέλα που υποστηρίζονται από το Fabric και ρυθμίστε τις παραμέτρους του χρησιμοποιώντας την model_deployment_name παράμετρο. Μπορείτε να κάνετε αυτήν τη ρύθμιση παραμέτρων με έναν από τους εξής δύο τρόπους:

  • Παγκοσμίως στην aifunc.Conf κατηγορία. Παράδειγμα:

    aifunc.default_conf.model_deployment_name = "<model deployment name>"
    
  • Ξεχωριστά σε κάθε κλήση συνάρτησης AI:

    df["translations"] = df["text"].ai.translate(
        "spanish",
        conf=Conf(model_deployment_name="<model deployment name>"),
    )
    

Επιλέξτε ένα άλλο υποστηριζόμενο μοντέλο ενσωμάτωσης

Επιλέξτε ένα από τα μοντέλα που υποστηρίζονται από το Fabric και ρυθμίστε τις παραμέτρους του χρησιμοποιώντας την embedding_deployment_name παράμετρο. Μπορείτε να κάνετε αυτήν τη ρύθμιση παραμέτρων με έναν από τους εξής δύο τρόπους:

  • Παγκοσμίως στην aifunc.Conf κατηγορία. Παράδειγμα:

    aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"
    
  • Ξεχωριστά σε κάθε κλήση συνάρτησης AI. Παράδειγμα:

    df["embedding"] = df["text"].ai.embed(
        conf=Conf(embedding_deployment_name="<embbedding deployment name>"),
    )
    

Ρύθμιση παραμέτρων τελικού σημείου προσαρμοσμένου μοντέλου

Από προεπιλογή, οι λειτουργίες AI χρησιμοποιούν το API τελικού σημείου Fabric LLM για ενοποιημένη χρέωση και εύκολη ρύθμιση. Μπορείτε να επιλέξετε να χρησιμοποιήσετε το δικό σας τελικό σημείο μοντέλου ρυθμίζοντας ένα πρόγραμμα-πελάτη συμβατό με Azure OpenAI ή OpenAI με το τελικό σημείο και το κλειδί σας. Το παρακάτω παράδειγμα δείχνει πώς μπορείτε να φέρετε τον δικό σας πόρο Microsoft AI Foundry (πρώην Azure OpenAI) χρησιμοποιώντας aifunc.setup:

from openai import AzureOpenAI

# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
    azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
    api_key="<API_KEY>",
    api_version=aifunc.session.api_version,  # Default "2025-04-01-preview"
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

Tip

  • Μπορείτε να διαμορφώσετε έναν προσαρμοσμένο πόρο AI Foundry για να χρησιμοποιήσετε μοντέλα πέρα από το OpenAI.

Το παρακάτω δείγμα κώδικα χρησιμοποιεί τιμές κράτησης θέσης για να σας δείξει πώς μπορείτε να παρακάμψετε το ενσωματωμένο τελικό σημείο Fabric AI με έναν προσαρμοσμένο πόρο Microsoft AI Foundry για να χρησιμοποιήσετε μοντέλα πέρα από το OpenAI:

Σημαντικό

  • Η υποστήριξη για μοντέλα Microsoft AI Foundry περιορίζεται σε μοντέλα που υποστηρίζουν Chat Completions API και δέχονται response_format παραμέτρους με σχήμα JSON
  • Η έξοδος μπορεί να διαφέρει ανάλογα με τη συμπεριφορά του επιλεγμένου μοντέλου AI. Εξερευνήστε τις δυνατότητες άλλων μοντέλων με τη δέουσα προσοχή
  • Οι λειτουργίες ai.embed AI που βασίζονται στην ενσωμάτωση και ai.similarity δεν υποστηρίζονται κατά τη χρήση ενός πόρου AI Foundry
from openai import OpenAI

# Example to create client for Azure AI Foundry models
client = OpenAI(
    base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
    api_key="<API_KEY>",
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client)  # Set the client for all functions.

aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"