Σημείωση
Η πρόσβαση σε αυτή τη σελίδα απαιτεί εξουσιοδότηση. Μπορείτε να δοκιμάσετε να συνδεθείτε ή να αλλάξετε καταλόγους.
Η πρόσβαση σε αυτή τη σελίδα απαιτεί εξουσιοδότηση. Μπορείτε να δοκιμάσετε να αλλάξετε καταλόγους.
Οι λειτουργίες AI έχουν σχεδιαστεί για να λειτουργούν αμέσως, με το υποκείμενο μοντέλο και τις ρυθμίσεις διαμορφωμένες από προεπιλογή. Ωστόσο, οι χρήστες που επιθυμούν πιο ευέλικτες ρυθμίσεις παραμέτρων μπορούν να προσαρμόσουν τις λύσεις τους με μερικές επιπλέον γραμμές κώδικα.
Σημαντικό
- Οι συναρτήσεις AI προορίζονται για χρήση στο Fabric Runtime 1.3 (Spark 3.5), (Python 3.11) και νεότερες εκδόσεις.
- Εξετάστε τις προϋποθέσεις σε αυτό το άρθρο επισκόπησης, συμπεριλαμβανομένων των εγκαταστάσεων βιβλιοθήκης που απαιτούνται προσωρινά για τη χρήση συναρτήσεων AI.
- Παρόλο που το υποκείμενο μοντέλο μπορεί να χειριστεί πολλές γλώσσες, οι περισσότερες συναρτήσεις AI έχουν βελτιστοποιηθεί για χρήση σε αγγλόφωνα κείμενα.
Σημείωμα
- Αυτό το άρθρο καλύπτει την προσαρμογή των λειτουργιών AI με pandas. Για να προσαρμόσετε τις λειτουργίες AI με το PySpark, ανατρέξτε σε αυτό το άρθρο.
- Δείτε όλες τις λειτουργίες AI σε αυτό το άρθρο επισκόπησης.
Ρυθμίσεις παραμέτρων
Από προεπιλογή, οι λειτουργίες AI τροφοδοτούνται από το ενσωματωμένο τελικό σημείο AI στο Fabric. Οι ρυθμίσεις του μοντέλου μεγάλης γλώσσας (LLM) διαμορφώνονται καθολικά στην aifunc.Conf κλάση. Εάν εργάζεστε με συναρτήσεις AI στα pandas, μπορείτε να χρησιμοποιήσετε την aifunc.Conf κλάση για να τροποποιήσετε ορισμένες ή όλες αυτές τις ρυθμίσεις:
| Παράμετρος | Περιγραφή | Προεπιλεγμένος |
|---|---|---|
concurrencyΠροαιρετικός |
Ένα int που ορίζει τον μέγιστο αριθμό γραμμών για επεξεργασία παράλληλα με ασύγχρονες αιτήσεις στο μοντέλο. Οι υψηλότερες τιμές επιταχύνουν τον χρόνο επεξεργασίας (εάν οι εκχωρημένοι πόροι σας μπορούν να το εξυπηρετήσουν). Μπορεί να ρυθμιστεί έως και 1,000. | 200 |
embedding_deployment_nameΠροαιρετικός |
Μια συμβολοσειρά που ορίζει το όνομα της ανάπτυξης μοντέλου ενσωμάτωσης που τροφοδοτεί τις λειτουργίες AI. | text-embedding-ada-002 |
model_deployment_nameΠροαιρετικός |
Μια συμβολοσειρά που ορίζει το όνομα της ανάπτυξης του μοντέλου γλώσσας που τροφοδοτεί τις λειτουργίες AI. Μπορείτε να επιλέξετε από τα μοντέλα που υποστηρίζονται από το Fabric. | gpt-4.1-mini |
reasoning_effortΠροαιρετικός |
Χρησιμοποιείται από μοντέλα της σειράς gpt-5 για τον αριθμό των διακριτικών συλλογισμού που πρέπει να χρησιμοποιούν. Μπορεί να οριστεί σε ή μια openai.NOT_GIVEN τιμή συμβολοσειράς "ελάχιστη", "χαμηλή", "μεσαία" ή "υψηλή". |
openai.NOT_GIVEN |
seedΠροαιρετικός |
Ένα int που ορίζει τον σπόρο που θα χρησιμοποιηθεί για την απόκριση του υποκείμενου μοντέλου. Η προεπιλεγμένη συμπεριφορά επιλέγει τυχαία μια τιμή φύτου για κάθε γραμμή. Η επιλογή μιας σταθερής τιμής βελτιώνει την αναπαραγωγιμότητα των πειραμάτων σας. | openai.NOT_GIVEN |
temperatureΠροαιρετικός |
Ένας πλωτήρας μεταξύ 0.0 και 1.0 που δηλώνει τη θερμοκρασία του υποκείμενου μοντέλου. Οι υψηλότερες θερμοκρασίες αυξάνουν την τυχαιότητα ή τη δημιουργικότητα των αποτελεσμάτων του μοντέλου. |
0.0 |
timeoutΠροαιρετικός |
Ένα int που ορίζει τον αριθμό των δευτερολέπτων πριν από μια λειτουργία AI εγείρει ένα σφάλμα χρονικού ορίου. Από προεπιλογή, δεν υπάρχει χρονικό όριο. | None |
top_pΠροαιρετικός |
Ένας πλωτήρας μεταξύ 0 και 1. Μια χαμηλότερη τιμή (για παράδειγμα, 0.1) περιορίζει το μοντέλο να λαμβάνει υπόψη μόνο τα πιο πιθανά διακριτικά, καθιστώντας την έξοδο πιο ντετερμινιστική. Μια υψηλότερη τιμή (για παράδειγμα, 0,9) επιτρέπει πιο ποικίλα και δημιουργικά αποτελέσματα, συμπεριλαμβάνοντας ένα ευρύτερο φάσμα διακριτικών. | openai.NOT_GIVEN |
use_progress_barΠροαιρετικός |
Εμφάνιση γραμμής προόδου tqdm για την πρόοδο της λειτουργίας AI σε σχέση με τα δεδομένα εισόδου. Χρησιμοποιεί tqdm κάτω από την κουκούλα. Δυαδική τιμή, η οποία μπορεί να οριστεί σε True ή False. |
True |
verbosityΠροαιρετικός |
Χρησιμοποιείται από μοντέλα της σειράς gpt-5 για μήκος εξόδου. Μπορεί να οριστεί σε ή μια openai.NOT_GIVEN τιμή συμβολοσειράς "χαμηλή", "μεσαία" ή "υψηλή". |
openai.NOT_GIVEN |
Tip
- Εάν η χωρητικότητα ανάπτυξης του μοντέλου σας μπορεί να φιλοξενήσει περισσότερες αιτήσεις, ο ορισμός υψηλότερων τιμών ταυτόχρονης εκτέλεσης μπορεί να επιταχύνει τον χρόνο επεξεργασίας.
Το παρακάτω δείγμα κώδικα δείχνει πώς μπορείτε να παρακάμψετε aifunc.Conf τις ρυθμίσεις καθολικά, ώστε να εφαρμόζονται σε όλες τις κλήσεις συναρτήσεων AI σε μια περίοδο λειτουργίας:
# This code uses AI. Always review output for mistakes.
aifunc.default_conf.temperature = 0.5 # Default: 0.0
aifunc.default_conf.concurrency = 300 # Default: 200
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish")
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Μπορείτε επίσης να προσαρμόσετε αυτές τις ρυθμίσεις για κάθε μεμονωμένη κλήση συνάρτησης. Κάθε συνάρτηση AI αποδέχεται μια προαιρετική conf παράμετρο. Το ακόλουθο δείγμα κώδικα τροποποιεί τις προεπιλεγμένες aifunc ρυθμίσεις μόνο για την ai.translate κλήση συνάρτησης, μέσω μιας προσαρμοσμένης τιμής θερμοκρασίας. (Η ai.analyze_sentiment κλήση εξακολουθεί να χρησιμοποιεί τις προεπιλεγμένες τιμές, επειδή δεν έχουν οριστεί προσαρμοσμένες τιμές).
# This code uses AI. Always review output for mistakes.
from synapse.ml.aifunc import Conf
df = pd.DataFrame([
"Hello! How are you doing today?",
"Tell me what you'd like to know, and I'll do my best to help.",
"The only thing we have to fear is fear itself.",
], columns=["text"])
df["translations"] = df["text"].ai.translate("spanish", conf=Conf(temperature=0.5))
df["sentiment"] = df["text"].ai.analyze_sentiment()
display(df)
Το παρακάτω δείγμα κώδικα δείχνει πώς μπορείτε να ρυθμίσετε τις παραμέτρους του gpt-5 και άλλων μοντέλων συλλογισμού για όλες τις συναρτήσεις.
aifunc.default_conf.model_deployment_name = "gpt-5"
aifunc.default_conf.temperature = 1 # gpt-5 only accepts default value of temperature
aifunc.default_conf.top_p = 1 # gpt-5 only accepts default value of top_p
aifunc.default_conf.verbosity = "low"
aifunc.default_conf.reasoning_effort = "low"
Προσαρμοσμένα μοντέλα
Για να χρησιμοποιήσετε ένα μοντέλο AI διαφορετικό από το προεπιλεγμένο, μπορείτε να επιλέξετε ένα άλλο μοντέλο που υποστηρίζεται από το Fabric ή να ρυθμίσετε τις παραμέτρους ενός προσαρμοσμένου τελικού σημείου μοντέλου.
Επιλέξτε ένα άλλο υποστηριζόμενο μοντέλο μεγάλης γλώσσας
Επιλέξτε ένα από τα μοντέλα που υποστηρίζονται από το Fabric και ρυθμίστε τις παραμέτρους του χρησιμοποιώντας την model_deployment_name παράμετρο. Μπορείτε να κάνετε αυτήν τη ρύθμιση παραμέτρων με έναν από τους εξής δύο τρόπους:
Παγκοσμίως στην
aifunc.Confκατηγορία. Παράδειγμα:aifunc.default_conf.model_deployment_name = "<model deployment name>"Ξεχωριστά σε κάθε κλήση συνάρτησης AI:
df["translations"] = df["text"].ai.translate( "spanish", conf=Conf(model_deployment_name="<model deployment name>"), )
Επιλέξτε ένα άλλο υποστηριζόμενο μοντέλο ενσωμάτωσης
Επιλέξτε ένα από τα μοντέλα που υποστηρίζονται από το Fabric και ρυθμίστε τις παραμέτρους του χρησιμοποιώντας την embedding_deployment_name παράμετρο. Μπορείτε να κάνετε αυτήν τη ρύθμιση παραμέτρων με έναν από τους εξής δύο τρόπους:
Παγκοσμίως στην
aifunc.Confκατηγορία. Παράδειγμα:aifunc.default_conf.embedding_deployment_name = "<embedding deployment name>"Ξεχωριστά σε κάθε κλήση συνάρτησης AI. Παράδειγμα:
df["embedding"] = df["text"].ai.embed( conf=Conf(embedding_deployment_name="<embbedding deployment name>"), )
Ρύθμιση παραμέτρων τελικού σημείου προσαρμοσμένου μοντέλου
Από προεπιλογή, οι λειτουργίες AI χρησιμοποιούν το API τελικού σημείου Fabric LLM για ενοποιημένη χρέωση και εύκολη ρύθμιση.
Μπορείτε να επιλέξετε να χρησιμοποιήσετε το δικό σας τελικό σημείο μοντέλου ρυθμίζοντας ένα πρόγραμμα-πελάτη συμβατό με Azure OpenAI ή OpenAI με το τελικό σημείο και το κλειδί σας. Το παρακάτω παράδειγμα δείχνει πώς μπορείτε να φέρετε τον δικό σας πόρο Microsoft AI Foundry (πρώην Azure OpenAI) χρησιμοποιώντας aifunc.setup:
from openai import AzureOpenAI
# Example to create client for Microsoft AI Foundry OpenAI models
client = AzureOpenAI(
azure_endpoint="https://<ai-foundry-resource>.openai.azure.com/",
api_key="<API_KEY>",
api_version=aifunc.session.api_version, # Default "2025-04-01-preview"
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
Tip
- Μπορείτε να διαμορφώσετε έναν προσαρμοσμένο πόρο AI Foundry για να χρησιμοποιήσετε μοντέλα πέρα από το OpenAI.
Το παρακάτω δείγμα κώδικα χρησιμοποιεί τιμές κράτησης θέσης για να σας δείξει πώς μπορείτε να παρακάμψετε το ενσωματωμένο τελικό σημείο Fabric AI με έναν προσαρμοσμένο πόρο Microsoft AI Foundry για να χρησιμοποιήσετε μοντέλα πέρα από το OpenAI:
Σημαντικό
- Η υποστήριξη για μοντέλα Microsoft AI Foundry περιορίζεται σε μοντέλα που υποστηρίζουν
Chat CompletionsAPI και δέχονταιresponse_formatπαραμέτρους με σχήμα JSON - Η έξοδος μπορεί να διαφέρει ανάλογα με τη συμπεριφορά του επιλεγμένου μοντέλου AI. Εξερευνήστε τις δυνατότητες άλλων μοντέλων με τη δέουσα προσοχή
- Οι λειτουργίες
ai.embedAI που βασίζονται στην ενσωμάτωση καιai.similarityδεν υποστηρίζονται κατά τη χρήση ενός πόρου AI Foundry
from openai import OpenAI
# Example to create client for Azure AI Foundry models
client = OpenAI(
base_url="https://<ai-foundry-resource>.services.ai.azure.com/openai/v1/",
api_key="<API_KEY>",
max_retries=aifunc.session.max_retries, # Default: sys.maxsize ~= 9e18
)
aifunc.setup(client) # Set the client for all functions.
aifunc.default_conf.model_deployment_name = "grok-4-fast-non-reasoning"
Σχετικό περιεχόμενο
Προσαρμόστε τις διαμορφώσεις λειτουργιών AI με το PySpark.
Εντοπίστε το συναίσθημα με
ai.analyze_sentimentτο .Κατηγοριοποίηση κειμένου με
ai.classify.Εξαγωγή οντοτήτων με
ai_extract.Επιδιόρθωση γραμματικής με
ai.fix_grammar.Απαντήστε στις προσαρμοσμένες προτροπές χρήστη με
ai.generate_responseτο .Υπολογίστε ομοιότητα με
ai.similarityτο .Συνοψίστε κείμενο με
ai.summarizeτο .Μετάφραση κειμένου με
ai.translate.Μάθετε περισσότερα σχετικά με το πλήρες σύνολο λειτουργιών AI.
Χάσαμε κάποια δυνατότητα που χρειάζεστε; Προτείνετε το στο φόρουμ Ιδεών Fabric.