Antwoorden genereren met de ChatCompletions-API
De OpenAI ChatCompletions-API wordt vaak gebruikt voor generatieve AI-modellen en -platforms. Hoewel de Response-API wordt aanbevolen voor het ontwikkelen van nieuwe projecten, zult u waarschijnlijk scenario's tegenkomen waarin de ChatCompletions-API nuttig is voor codeonderhoud van platformoverschrijdende compatibiliteit.
Een prompt indienen
De ChatCompletions-API maakt gebruik van verzamelingen berichtobjecten in JSON-indeling om prompts in te kapselen:
completion = openai_client.chat.completions.create(
model="gpt-4o", # Your model deployment name
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "When was Microsoft founded?"}
]
)
print(completion.choices[0].message.content)
Gesprekscontext behouden
In tegenstelling tot de Antwoorden-API biedt de ChatCompletins-API geen stateful functie voor het bijhouden van antwoorden. Als u de gesprekscontext wilt behouden, moet u code schrijven om eerdere prompts en antwoorden handmatig bij te houden.
# Initial messages
conversation_messages=[
{
"role": "system",
"content": "You are a helpful AI assistant that answers questions and provides information."
}
]
# Add the first user message
conversation_messages.append(
{"role": "user",
"content": "When was Microsoft founded?"}
)
# Get a completion
completion = openai_client.chat.completions.create(
model="gpt-4o",
messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)
# Append the response to the conversation
conversation_messages.append(
{"role": "assistant", "content": assistant_text}
)
# Add the next user message
conversation_messages.append(
{"role": "user",
"content": "Who founded it?"}
)
# Get a completion
completion = openai_client.chat.completions.create(
model="gpt-4o",
messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)
# and so on...
In een echte toepassing wordt het gesprek waarschijnlijk geïmplementeerd in een lus; als volgt:
# Initial messages
conversation_messages=[
{
"role": "system",
"content": "You are a helpful AI assistant that answers questions and provides information."
}
]
# Loop until the user wants to quit
print("Assistant: Enter a prompt (or type 'quit' to exit)")
while True:
input_text = input('\nYou: ')
if input_text.lower() == "quit":
print("Assistant: Goodbye!")
break
# Add the user message
conversation_messages.append(
{"role": "user",
"content": input_text}
)
# Get a completion
completion = openai_client.chat.completions.create(
model="gpt-4o",
messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("\nAssistant:", assistant_message)
# Append the response to the conversation
conversation_messages.append(
{"role": "assistant", "content": assistant_message}
)
De uitvoer van dit voorbeeld ziet er ongeveer als volgt uit:
Assistant: Enter a prompt (or type 'quit' to exit)
You: When was Microsoft founded?
Assistant: Microsoft was founded on April 4, 1975 in Albuquerque, New Mexico, USA.
You: Who founded it?
Assistant: Microsoft was founded by Bill Gates and Paul Allen.
You: quit
Assistant: Goodbye!
Elke nieuwe gebruikersprompt en -voltooiing wordt toegevoegd aan het gesprek en de volledige gespreksgeschiedenis wordt op elke beurt verzonden.
Hoewel de Antwoorden-API niet zo volledig is als de ChatCompletions-API, is deze goed ingeburgerd in het generatieve AI-modelecosysteem, dus het is handig om er vertrouwd mee te zijn.