Utilize Azure OpenAI no Fabric com Python SDK (versão prévia)

Este artigo mostra como usar Azure OpenAI no Fabric com o SDK OpenAI Python. Para o processamento distribuído de grandes conjuntos de dados, veja Use Azure OpenAI com SynapseML. Para a abordagem mais simples usando as funções Pandas AI, consulte Use Azure OpenAI com funções de IA.

Pré-requisitos

O runtime padrão não inclui o SDK Python OpenAI, por isso precisas de o instalar.

%pip install -U openai

Criar cliente autenticado com Fabric

Para usar o Azure OpenAI no Fabric, crie um cliente com a autenticação do Fabric:

from synapse.ml.fabric.credentials import get_openai_httpx_sync_client
import openai

client = openai.AzureOpenAI(
    http_client=get_openai_httpx_sync_client(),
    api_version="2025-04-01-preview",
)

Este cliente gere a autenticação automaticamente quando é executado em notebooks do Fabric. Use este cliente para todas as chamadas API subsequentes.

Finalizações de chat

O exemplo apresentado aqui apresenta operações simples de conclusão de chat. Para referência completa à API, consulte Chat Completions API.

response = client.chat.completions.create(
    model="gpt-4.1",
    messages=[
        {
            "role": "user",
            "content": """Analyze the following text and return a JSON array of issue insights.

Each item must include:
- issue_brief (1 sentence)
- scenario
- severity (high | medium | low)
- verbatim_quotes (list)
- recommended_fix

Text:
We booked the hotel room in advance for our family trip. The check-in the great however the room service was slow and pool was closed

Return JSON only.
"""
        }
    ],
)
print(f"{response.choices[0].message.content}")

API de Respostas

A API Responses é a abordagem recomendada pela OpenAI para novas implementações. Proporciona melhor qualidade de resposta e melhor gestão de saídas estruturadas. Para referência completa à API, consulte Responses API.

response = client.responses.create(
    model="gpt-4.1",
    input=[
        {
            "role": "user",
            "content": "Explain quantum computing in simple terms."
        }
    ],
    store=False  # Fabric LLM endpoint does not support storage
)
print(f"{response.output_text}")

Observação

O endpoint do Fabric LLM não suporta o parâmetro store configurado para True ou o parâmetro previous_response_id.

Incorporações

Um embedding é um formato especial de representação de dados que modelos e algoritmos de machine learning podem facilmente utilizar. Ele contém o significado semântico rico em informações de um texto, representado por um vetor de números de ponto flutuante. A distância entre duas incorporações no espaço vetorial está relacionada à semelhança semântica entre duas entradas originais. Para referência completa à API, veja Embeddings API.

response = client.embeddings.create(
    input="The food was delicious and the waiter...",
    model="text-embedding-ada-002",
)
print(response.data[0].embedding)

Modelos e preços disponíveis

Para informações sobre modelos disponíveis e taxas de consumo, consulte Taxas de consumo das Ferramentas de Fundição.

Documentação de malha

Documentação do SDK Python OpenAI