Gerar respostas com a API ChatCompletions

Concluído

A API OpenAI ChatCompletions é frequentemente utilizada em modelos e plataformas de IA generativa. Embora a API Responses seja recomendada para desenvolvimento de novos projetos, é provável que encontre cenários em que a API ChatCompletions seja útil para a manutenção do código e da compatibilidade multiplataforma.

Submeter um prompt

A API ChatCompletions utiliza coleções de objetos de mensagem em formato JSON para encapsular prompts:

completion = openai_client.chat.completions.create(
    model="gpt-4o",  # Your model deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "When was Microsoft founded?"}
    ]
)

print(completion.choices[0].message.content)

Manutenção do contexto conversacional

Ao contrário da API Responses , a API ChatCompletins não oferece uma funcionalidade de rastreio de respostas com estado. Para reter o contexto conversacional, deve escrever código para controlar manualmente os prompts e as respostas anteriores.

# Initial messages
conversation_messages=[
    {
        "role": "system",
        "content": "You are a helpful AI assistant that answers questions and provides information."
    }
]

# Add the first user message
conversation_messages.append(
    {"role": "user",
    "content": "When was Microsoft founded?"}
)

# Get a completion
completion = openai_client.chat.completions.create(
    model="gpt-4o",
    messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)

# Append the response to the conversation
conversation_messages.append(
    {"role": "assistant", "content": assistant_text}
)

# Add the next user message
conversation_messages.append(
    {"role": "user",
    "content": "Who founded it?"}
)

# Get a completion
completion = openai_client.chat.completions.create(
    model="gpt-4o",
    messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)

# and so on...

Numa aplicação real, a conversa é provavelmente implementada num ciclo; Assim:

# Initial messages
conversation_messages=[
    {
        "role": "system",
        "content": "You are a helpful AI assistant that answers questions and provides information."
    }
]

# Loop until the user wants to quit
print("Assistant: Enter a prompt (or type 'quit' to exit)")
while True:
    input_text = input('\nYou: ')
    if input_text.lower() == "quit":
        print("Assistant: Goodbye!")
        break

    # Add the user message
    conversation_messages.append(
        {"role": "user",
        "content": input_text}
    )

    # Get a completion
    completion = openai_client.chat.completions.create(
        model="gpt-4o",
        messages=conversation_messages
    )
    assistant_message = completion.choices[0].message.content
    print("\nAssistant:", assistant_message)
    
    # Append the response to the conversation
    conversation_messages.append(
        {"role": "assistant", "content": assistant_message}
    )

A saída deste exemplo é semelhante a esta:

Assistant: Enter a prompt (or type 'quit' to exit)

You: When was Microsoft founded?

Assistant: Microsoft was founded on April 4, 1975 in Albuquerque, New Mexico, USA.

You: Who founded it?

Assistant: Microsoft was founded by Bill Gates and Paul Allen.

You: quit

Assistant: Goodbye!

Cada novo prompt de utilizador e conclusão são adicionados à conversa, e todo o histórico da conversa é submetido em cada turno.

Embora não seja tão completa como a API Responses , a API ChatCompletions está bem estabelecida no ecossistema dos modelos de IA generativa, por isso é útil estar familiarizado com ela.