Antwoorden genereren met de ChatCompletions-API

Voltooid

De OpenAI ChatCompletions-API wordt vaak gebruikt voor generatieve AI-modellen en -platforms. Hoewel de Response-API wordt aanbevolen voor het ontwikkelen van nieuwe projecten, zult u waarschijnlijk scenario's tegenkomen waarin de ChatCompletions-API nuttig is voor codeonderhoud van platformoverschrijdende compatibiliteit.

Een prompt indienen

De ChatCompletions-API maakt gebruik van verzamelingen berichtobjecten in JSON-indeling om prompts in te kapselen:

completion = openai_client.chat.completions.create(
    model="gpt-4o",  # Your model deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "When was Microsoft founded?"}
    ]
)

print(completion.choices[0].message.content)

Gesprekscontext behouden

In tegenstelling tot de Antwoorden-API biedt de ChatCompletins-API geen stateful functie voor het bijhouden van antwoorden. Als u de gesprekscontext wilt behouden, moet u code schrijven om eerdere prompts en antwoorden handmatig bij te houden.

# Initial messages
conversation_messages=[
    {
        "role": "system",
        "content": "You are a helpful AI assistant that answers questions and provides information."
    }
]

# Add the first user message
conversation_messages.append(
    {"role": "user",
    "content": "When was Microsoft founded?"}
)

# Get a completion
completion = openai_client.chat.completions.create(
    model="gpt-4o",
    messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)

# Append the response to the conversation
conversation_messages.append(
    {"role": "assistant", "content": assistant_text}
)

# Add the next user message
conversation_messages.append(
    {"role": "user",
    "content": "Who founded it?"}
)

# Get a completion
completion = openai_client.chat.completions.create(
    model="gpt-4o",
    messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)

# and so on...

In een echte toepassing wordt het gesprek waarschijnlijk geïmplementeerd in een lus; als volgt:

# Initial messages
conversation_messages=[
    {
        "role": "system",
        "content": "You are a helpful AI assistant that answers questions and provides information."
    }
]

# Loop until the user wants to quit
print("Assistant: Enter a prompt (or type 'quit' to exit)")
while True:
    input_text = input('\nYou: ')
    if input_text.lower() == "quit":
        print("Assistant: Goodbye!")
        break

    # Add the user message
    conversation_messages.append(
        {"role": "user",
        "content": input_text}
    )

    # Get a completion
    completion = openai_client.chat.completions.create(
        model="gpt-4o",
        messages=conversation_messages
    )
    assistant_message = completion.choices[0].message.content
    print("\nAssistant:", assistant_message)
    
    # Append the response to the conversation
    conversation_messages.append(
        {"role": "assistant", "content": assistant_message}
    )

De uitvoer van dit voorbeeld ziet er ongeveer als volgt uit:

Assistant: Enter a prompt (or type 'quit' to exit)

You: When was Microsoft founded?

Assistant: Microsoft was founded on April 4, 1975 in Albuquerque, New Mexico, USA.

You: Who founded it?

Assistant: Microsoft was founded by Bill Gates and Paul Allen.

You: quit

Assistant: Goodbye!

Elke nieuwe gebruikersprompt en -voltooiing wordt toegevoegd aan het gesprek en de volledige gespreksgeschiedenis wordt op elke beurt verzonden.

Hoewel de Antwoorden-API niet zo volledig is als de ChatCompletions-API, is deze goed ingeburgerd in het generatieve AI-modelecosysteem, dus het is handig om er vertrouwd mee te zijn.