Κοινή χρήση μέσω


Προσαρμόστε τις λειτουργίες AI με πάντα

Οι λειτουργίες AI έχουν σχεδιαστεί για να λειτουργούν αμέσως, με το υποκείμενο μοντέλο και τις ρυθμίσεις διαμορφωμένες από προεπιλογή. Ωστόσο, οι χρήστες που επιθυμούν πιο ευέλικτες ρυθμίσεις παραμέτρων μπορούν να προσαρμόσουν τις λύσεις τους με μερικές επιπλέον γραμμές κώδικα.

Σημαντικό

Αυτή η δυνατότητα είναι σε προεπισκόπηση, για χρήση στο Fabric Runtime 1.3 και νεότερες εκδόσεις.

  • Εξετάστε τις προϋποθέσεις σε αυτό το άρθρο επισκόπησης, συμπεριλαμβανομένων των εγκαταστάσεων βιβλιοθήκης που απαιτούνται προσωρινά για τη χρήση συναρτήσεων AI.
  • Παρόλο που το υποκείμενο μοντέλο μπορεί να χειριστεί πολλές γλώσσες, οι περισσότερες συναρτήσεις AI έχουν βελτιστοποιηθεί για χρήση σε αγγλόφωνα κείμενα.

Σημείωμα

  • Αυτό το άρθρο καλύπτει την προσαρμογή των λειτουργιών AI με pandas. Για να προσαρμόσετε τις λειτουργίες AI με το PySpark, ανατρέξτε σε αυτό το άρθρο.
  • Δείτε όλες τις λειτουργίες AI σε αυτό το άρθρο επισκόπησης.

Ρυθμίσεις παραμέτρων

Από προεπιλογή, οι λειτουργίες AI τροφοδοτούνται από το ενσωματωμένο τελικό σημείο AI στο Fabric. Οι ρυθμίσεις του μοντέλου μεγάλης γλώσσας (LLM) διαμορφώνονται καθολικά στην aifunc.Conf κλάση. Εάν εργάζεστε με συναρτήσεις AI στα pandas, μπορείτε να χρησιμοποιήσετε την aifunc.Conf κλάση για να τροποποιήσετε ορισμένες ή όλες αυτές τις ρυθμίσεις:

Παράμετρος Περιγραφή Προεπιλεγμένος
concurrency
Προαιρετικός
Ένα int που ορίζει τον μέγιστο αριθμό γραμμών για επεξεργασία παράλληλα με ασύγχρονες αιτήσεις στο μοντέλο. Οι υψηλότερες τιμές επιταχύνουν τον χρόνο επεξεργασίας (εάν οι εκχωρημένοι πόροι σας μπορούν να το εξυπηρετήσουν). Μπορεί να ρυθμιστεί έως και 1,000. 200
embedding_deployment_name
Προαιρετικός
Μια συμβολοσειρά που ορίζει το όνομα της ανάπτυξης μοντέλου ενσωμάτωσης που τροφοδοτεί τις λειτουργίες AI. text-embedding-ada-002
model_deployment_name
Προαιρετικός
Μια συμβολοσειρά που ορίζει το όνομα της ανάπτυξης του μοντέλου γλώσσας που τροφοδοτεί τις λειτουργίες AI. Μπορείτε να επιλέξετε από τα μοντέλα που υποστηρίζονται από το Fabric. gpt-4.1-mini
reasoning_effort
Προαιρετικός
Χρησιμοποιείται από μοντέλα της σειράς gpt-5 για τον αριθμό των διακριτικών συλλογισμού που πρέπει να χρησιμοποιούν. Μπορεί να οριστεί σε ή μια openai.NOT_GIVEN τιμή συμβολοσειράς "ελάχιστη", "χαμηλή", "μεσαία" ή "υψηλή". openai.NOT_GIVEN
seed
Προαιρετικός
Ένα int που ορίζει τον σπόρο που θα χρησιμοποιηθεί για την απόκριση του υποκείμενου μοντέλου. Η προεπιλεγμένη συμπεριφορά επιλέγει τυχαία μια τιμή φύτου για κάθε γραμμή. Η επιλογή μιας σταθερής τιμής βελτιώνει την αναπαραγωγιμότητα των πειραμάτων σας. openai.NOT_GIVEN
temperature
Προαιρετικός
Ένας πλωτήρας μεταξύ 0.0 και 1.0 που δηλώνει τη θερμοκρασία του υποκείμενου μοντέλου. Οι υψηλότερες θερμοκρασίες αυξάνουν την τυχαιότητα ή τη δημιουργικότητα των αποτελεσμάτων του μοντέλου. 0.0
timeout
Προαιρετικός
Ένα int που ορίζει τον αριθμό των δευτερολέπτων πριν από μια λειτουργία AI εγείρει ένα σφάλμα χρονικού ορίου. Από προεπιλογή, δεν υπάρχει χρονικό όριο. None
top_p
Προαιρετικός
Ένας πλωτήρας μεταξύ 0 και 1. Μια χαμηλότερη τιμή (για παράδειγμα, 0.1) περιορίζει το μοντέλο να λαμβάνει υπόψη μόνο τα πιο πιθανά διακριτικά, καθιστώντας την έξοδο πιο ντετερμινιστική. Μια υψηλότερη τιμή (για παράδειγμα, 0,9) επιτρέπει πιο ποικίλα και δημιουργικά αποτελέσματα, συμπεριλαμβάνοντας ένα ευρύτερο φάσμα διακριτικών. openai.NOT_GIVEN
use_progress_bar
Προαιρετικός
Εμφάνιση γραμμής προόδου tqdm για την πρόοδο της λειτουργίας AI σε σχέση με τα δεδομένα εισόδου. Χρησιμοποιεί tqdm κάτω από την κουκούλα. Δυαδική τιμή, η οποία μπορεί να οριστεί σε True ή False. True
verbosity
Προαιρετικός
Χρησιμοποιείται από μοντέλα της σειράς gpt-5 για μήκος εξόδου. Μπορεί να οριστεί σε ή μια openai.NOT_GIVEN τιμή συμβολοσειράς "χαμηλή", "μεσαία" ή "υψηλή". openai.NOT_GIVEN

Tip

  • Η ρύθμιση της ταυτόχρονης εκτέλεσης σε υψηλότερες τιμές μπορεί να επιταχύνει τον χρόνο επεξεργασίας (εάν οι εκχωρημένοι πόροι σας μπορούν να τον φιλοξενήσουν).

Το παρακάτω δείγμα κώδικα δείχνει πώς μπορείτε να παρακάμψετε aifunc.Conf τις ρυθμίσεις καθολικά, ώστε να εφαρμόζονται σε όλες τις κλήσεις συναρτήσεων AI σε μια περίοδο λειτουργίας:

# This code uses AI. Always review output for mistakes. 
# Read terms: https://azure.microsoft.com/support/legal/preview-supplemental-terms/.

aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself."
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Μπορείτε επίσης να προσαρμόσετε αυτές τις ρυθμίσεις για κάθε μεμονωμένη κλήση συνάρτησης. Κάθε συνάρτηση AI αποδέχεται μια προαιρετική conf παράμετρο. Το ακόλουθο δείγμα κώδικα τροποποιεί τις προεπιλεγμένες aifunc ρυθμίσεις μόνο για την ai.translate κλήση συνάρτησης, μέσω μιας προσαρμοσμένης τιμής θερμοκρασίας. (Η ai.analyze_sentiment κλήση εξακολουθεί να χρησιμοποιεί τις προεπιλεγμένες τιμές, επειδή δεν έχουν οριστεί προσαρμοσμένες τιμές).

# This code uses AI. Always review output for mistakes. 
# Read terms: https://azure.microsoft.com/support/legal/preview-supplemental-terms/.

from synapse.ml.aifunc import Conf

df = pd.DataFrame([
        "Hello! How are you doing today?", 
        "Tell me what you'd like to know, and I'll do my best to help.", 
        "The only thing we have to fear is fear itself."
    ], columns=["text"])

df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)

Προσαρμοσμένα μοντέλα

Για να χρησιμοποιήσετε ένα μοντέλο AI διαφορετικό από το προεπιλεγμένο, μπορείτε να επιλέξετε ένα άλλο μοντέλο που υποστηρίζεται από το Fabric ή να ρυθμίσετε τις παραμέτρους ενός προσαρμοσμένου τελικού σημείου μοντέλου.

Επιλέξτε ένα άλλο υποστηριζόμενο μοντέλο μεγάλης γλώσσας

Επιλέξτε ένα από τα μοντέλα που υποστηρίζονται από το Fabric και ρυθμίστε τις παραμέτρους του χρησιμοποιώντας την model_deployment_name παράμετρο. Μπορείτε να κάνετε αυτήν τη ρύθμιση παραμέτρων με έναν από τους εξής δύο τρόπους:

  • Παγκοσμίως στην aifunc.Conf κατηγορία. Παράδειγμα:
    aifunc.default_conf.model_deployment_name = "<model deployment name>">
  • Ξεχωριστά σε κάθε κλήση συνάρτησης AI:
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(model_deployment_name="<model deployment name>"))

Επιλέξτε ένα άλλο υποστηριζόμενο μοντέλο ενσωμάτωσης

Επιλέξτε ένα από τα μοντέλα που υποστηρίζονται από το Fabric και ρυθμίστε τις παραμέτρους του χρησιμοποιώντας την embedding_deployment_name παράμετρο. Μπορείτε να κάνετε αυτήν τη ρύθμιση παραμέτρων με έναν από τους εξής δύο τρόπους:

  • Παγκοσμίως στην aifunc.Conf κατηγορία. Παράδειγμα:
    aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>">
  • Ξεχωριστά σε κάθε κλήση συνάρτησης AI. Παράδειγμα:
df["similarity"] = df["company"].ai.similarity("Microsoft", conf=Conf(embedding_deployment_name="<embbedding deployment name>"))

Ρύθμιση παραμέτρων τελικού σημείου προσαρμοσμένου μοντέλου

Από προεπιλογή, οι συναρτήσεις AI χρησιμοποιούν το τελικό σημείο Fabric LLM. Μπορείτε επίσης να χρησιμοποιήσετε το δικό σας τελικό σημείο μοντέλου ρυθμίζοντας ένα πρόγραμμα-πελάτη συμβατό με Azure OpenAI ή AsyncOpenAI με το τελικό σημείο και το κλειδί σας. Το παρακάτω παράδειγμα δείχνει πώς μπορείτε να φέρετε τον δικό σας πόρο Azure OpenAI χρησιμοποιώντας aifunc.setup:

from openai import AzureOpenAI

# Example of how to create a custom client:
client = AzureOpenAI(
    api_key="your-api-key",
    azure_endpoint="https://your-openai-endpoint.openai.azure.com/",
    api_version=aifunc.session.api_version,  # Default "2024-10-21"
    max_retries=aifunc.session.max_retries,  # Default: sys.maxsize ~= 9e18
)

aifunc.setup(client)  # Set the client for all functions.

Σημείωμα

Η δοκιμαστική έκδοση του Fabric δεν υποστηρίζει τη μεταφορά των δικών σας πόρων Azure OpenAI για συναρτήσεις AI. Για να συνδέσετε ένα προσαρμοσμένο τελικό σημείο Azure OpenAI, κάντε αναβάθμιση σε εκχωρημένους πόρους F2 (ή υψηλότερους) ή P.