Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Este artigo mostra como usar Azure OpenAI no Fabric com o SDK OpenAI Python. Para o processamento distribuído de grandes conjuntos de dados, veja Use Azure OpenAI com SynapseML. Para a abordagem mais simples usando as funções Pandas AI, consulte Use Azure OpenAI com funções de IA.
Pré-requisitos
O runtime padrão não inclui o SDK Python OpenAI, por isso precisas de o instalar.
%pip install -U openai
Criar cliente autenticado com Fabric
Para usar o Azure OpenAI no Fabric, crie um cliente com a autenticação do Fabric:
from synapse.ml.fabric.credentials import get_openai_httpx_sync_client
import openai
client = openai.AzureOpenAI(
http_client=get_openai_httpx_sync_client(),
api_version="2025-04-01-preview",
)
Este cliente gere a autenticação automaticamente quando é executado em notebooks do Fabric. Use este cliente para todas as chamadas API subsequentes.
Finalizações de chat
O exemplo apresentado aqui apresenta operações simples de conclusão de chat. Para referência completa à API, consulte Chat Completions API.
response = client.chat.completions.create(
model="gpt-4.1",
messages=[
{
"role": "user",
"content": """Analyze the following text and return a JSON array of issue insights.
Each item must include:
- issue_brief (1 sentence)
- scenario
- severity (high | medium | low)
- verbatim_quotes (list)
- recommended_fix
Text:
We booked the hotel room in advance for our family trip. The check-in the great however the room service was slow and pool was closed
Return JSON only.
"""
}
],
)
print(f"{response.choices[0].message.content}")
API de Respostas
A API Responses é a abordagem recomendada pela OpenAI para novas implementações. Proporciona melhor qualidade de resposta e melhor gestão de saídas estruturadas. Para referência completa à API, consulte Responses API.
response = client.responses.create(
model="gpt-4.1",
input=[
{
"role": "user",
"content": "Explain quantum computing in simple terms."
}
],
store=False # Fabric LLM endpoint does not support storage
)
print(f"{response.output_text}")
Observação
O endpoint do Fabric LLM não suporta o parâmetro store configurado para True ou o parâmetro previous_response_id.
Incorporações
Um embedding é um formato especial de representação de dados que modelos e algoritmos de machine learning podem facilmente utilizar. Ele contém o significado semântico rico em informações de um texto, representado por um vetor de números de ponto flutuante. A distância entre duas incorporações no espaço vetorial está relacionada à semelhança semântica entre duas entradas originais. Para referência completa à API, veja Embeddings API.
response = client.embeddings.create(
input="The food was delicious and the waiter...",
model="text-embedding-ada-002",
)
print(response.data[0].embedding)
Modelos e preços disponíveis
Para informações sobre modelos disponíveis e taxas de consumo, consulte Taxas de consumo das Ferramentas de Fundição.
Conteúdo relacionado
Documentação de malha
- Use Azure OpenAI com AI Functions para transformações de conjuntos de dados em grande escala no Fabric for Pandas ou PySpark DataFrames
- Use Azure OpenAI com SynapseML para processamento distribuído usando Spark DataFrames sem sobrecarga
- Use o Azure OpenAI com REST API para chamadas REST diretas ao endpoint do LLM
Documentação do SDK Python OpenAI
- OpenAI Python SDK GitHub - Repositório oficial com exemplos e documentação
- API de Completação de Chat - Referência completa da API para completação de chat
- API de Respostas - Referência completa da API para o endpoint de respostas
- API de Embeddings - Referência completa da API para embeddings