Generare risposte con l'API ChatCompletions

Completato

L'API OpenAI ChatCompletions viene comunemente usata tra modelli e piattaforme di intelligenza artificiale generativi. Anche se l'API Risposte è consigliata per lo sviluppo di nuovi progetti, è probabile che si verifichino scenari in cui l'API ChatCompletions è utile per la manutenzione del codice della compatibilità multipiattaforma.

Invio di un comando

L'API ChatCompletions usa raccolte di oggetti messaggio in formato JSON per incapsulare le richieste:

completion = openai_client.chat.completions.create(
    model="gpt-4o",  # Your model deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "When was Microsoft founded?"}
    ]
)

print(completion.choices[0].message.content)

Mantenimento del contesto di conversazione

A differenza dell'API Risposte, l'API ChatCompletins non fornisce una funzionalità di rilevamento delle risposte con stato. Per mantenere il contesto di conversazione, è necessario scrivere codice per tenere traccia manualmente di richieste e risposte precedenti.

# Initial messages
conversation_messages=[
    {
        "role": "system",
        "content": "You are a helpful AI assistant that answers questions and provides information."
    }
]

# Add the first user message
conversation_messages.append(
    {"role": "user",
    "content": "When was Microsoft founded?"}
)

# Get a completion
completion = openai_client.chat.completions.create(
    model="gpt-4o",
    messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)

# Append the response to the conversation
conversation_messages.append(
    {"role": "assistant", "content": assistant_text}
)

# Add the next user message
conversation_messages.append(
    {"role": "user",
    "content": "Who founded it?"}
)

# Get a completion
completion = openai_client.chat.completions.create(
    model="gpt-4o",
    messages=conversation_messages
)
assistant_message = completion.choices[0].message.content
print("Assistant:", assistant_text)

# and so on...

In un'applicazione reale, è probabile che la conversazione venga implementata in un ciclo; Così:

# Initial messages
conversation_messages=[
    {
        "role": "system",
        "content": "You are a helpful AI assistant that answers questions and provides information."
    }
]

# Loop until the user wants to quit
print("Assistant: Enter a prompt (or type 'quit' to exit)")
while True:
    input_text = input('\nYou: ')
    if input_text.lower() == "quit":
        print("Assistant: Goodbye!")
        break

    # Add the user message
    conversation_messages.append(
        {"role": "user",
        "content": input_text}
    )

    # Get a completion
    completion = openai_client.chat.completions.create(
        model="gpt-4o",
        messages=conversation_messages
    )
    assistant_message = completion.choices[0].message.content
    print("\nAssistant:", assistant_message)
    
    # Append the response to the conversation
    conversation_messages.append(
        {"role": "assistant", "content": assistant_message}
    )

L'output di questo esempio è simile al seguente:

Assistant: Enter a prompt (or type 'quit' to exit)

You: When was Microsoft founded?

Assistant: Microsoft was founded on April 4, 1975 in Albuquerque, New Mexico, USA.

You: Who founded it?

Assistant: Microsoft was founded by Bill Gates and Paul Allen.

You: quit

Assistant: Goodbye!

Ogni nuovo prompt e completamento dell'utente viene aggiunto alla conversazione e l'intera cronologia della conversazione viene inviata a ogni turno.

Anche se non è completamente in primo piano come l'API Risposte , l'API ChatCompletions è ben definita nell'ecosistema di modelli di intelligenza artificiale generativa, quindi è utile acquisire familiarità con esso.