Generare risposte con l'API ChatCompletions
L'API OpenAI ChatCompletions viene comunemente usata tra modelli e piattaforme di intelligenza artificiale generativi. Anche se l'API Risposte è consigliata per lo sviluppo di nuovi progetti, è probabile che si verifichino scenari in cui l'API ChatCompletions è utile per la manutenzione del codice della compatibilità multipiattaforma.
Invio di un comando
L'API ChatCompletions usa raccolte di oggetti messaggio in formato JSON per incapsulare le richieste:
completion = openai_client.chat.completions.create(
model="gpt-4o", # Your model deployment name
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "When was Microsoft founded?"}
]
)
print(completion.choices[0].message.content)
Mantenimento del contesto di conversazione
A differenza dell'API Risposte, l'API ChatCompletins non fornisce una funzionalità di rilevamento delle risposte con stato. Per mantenere il contesto di conversazione, è necessario scrivere codice per tenere traccia manualmente di richieste e risposte precedenti.
# Initial messages
conversation_messages=[
{
"role": "system",
"content": "You are a helpful AI assistant that answers questions and provides information."
}
]
# Add the first user message
conversation_messages.append(
{"role": "user",
"content": "When was Microsoft founded?"}
)
# Get a completion
completion = openai_client.chat.completions.create(
model="gpt-4o",
messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)
# Append the response to the conversation
conversation_messages.append(
{"role": "assistant", "content": assistant_text}
)
# Add the next user message
conversation_messages.append(
{"role": "user",
"content": "Who founded it?"}
)
# Get a completion
completion = openai_client.chat.completions.create(
model="gpt-4o",
messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)
# and so on...
In un'applicazione reale, è probabile che la conversazione venga implementata in un ciclo; Così:
# Initial messages
conversation_messages=[
{
"role": "system",
"content": "You are a helpful AI assistant that answers questions and provides information."
}
]
# Loop until the user wants to quit
print("Assistant: Enter a prompt (or type 'quit' to exit)")
while True:
input_text = input('\nYou: ')
if input_text.lower() == "quit":
print("Assistant: Goodbye!")
break
# Add the user message
conversation_messages.append(
{"role": "user",
"content": input_text}
)
# Get a completion
completion = openai_client.chat.completions.create(
model="gpt-4o",
messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("\nAssistant:", assistant_message)
# Append the response to the conversation
conversation_messages.append(
{"role": "assistant", "content": assistant_message}
)
L'output di questo esempio è simile al seguente:
Assistant: Enter a prompt (or type 'quit' to exit)
You: When was Microsoft founded?
Assistant: Microsoft was founded on April 4, 1975 in Albuquerque, New Mexico, USA.
You: Who founded it?
Assistant: Microsoft was founded by Bill Gates and Paul Allen.
You: quit
Assistant: Goodbye!
Ogni nuovo prompt e completamento dell'utente viene aggiunto alla conversazione e l'intera cronologia della conversazione viene inviata a ogni turno.
Anche se non è completamente in primo piano come l'API Risposte , l'API ChatCompletions è ben definita nell'ecosistema di modelli di intelligenza artificiale generativa, quindi è utile acquisire familiarità con esso.