Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo spiega come modificare la versione e le impostazioni del modello nel Generatore di richieste. La versione e le impostazioni del modello possono influire sulle prestazioni e sul comportamento del modello IA generativa.
Versione modello
Puoi modificare la versione del modello selezionando Modello nella parte superiore del generatore di richieste. Il menu a discesa ti consente di selezionare tra i modelli IA generativa che generano risposte alla tua richiesta personalizzata.
Il modello predefinito a partire da novembre 2024 è GPT-4o mini (disponibilità generale o GA). Puoi anche usare il modello più potente GPT-4o (GA) e il modello O1 (anteprima a pagamento). Le versioni secondarie esatte di questi modelli potrebbero cambiare.
L'utilizzo delle richieste in Power Apps o Power Automate consuma crediti AI Builder, mentre l'utilizzo delle richieste in Copilot Studio consuma i messaggi. Altre informazioni in Gestione delle licenze e del credito di AI Builder.
Dettagli modelli
Modello GPT | Status | Regole sulle licenze | Funzionalità | Disponibilità a livello di area |
---|---|---|---|---|
GPT 4o Mini | Disponibilità generale - Modello predefinito | Consuma crediti in Power Apps e Power Automate. Altre informazioni: Guida per le licenze Power Platform | Formazione sui dati fino a dicembre 2023. Il contesto consentiva fino a 128.000 token. | Disponibilità delle funzionalità in base all'area per le richieste |
GPT 4 | Disponibilità generale | Consuma crediti in Power Apps e Power Automate. Altre informazioni: Guida per le licenze Power Platform | GPT 4o ha conoscenze fino a ottobre 2023 e ha una lunghezza del contesto di 128.000 token. | Disponibilità delle funzionalità in base all'area per le richieste |
o1 | Anteprima a pagamento | Consuma crediti in Power Apps e Power Automate. Altre informazioni: Guida alle licenze Power Platform. Il modello o1 consuma 140 crediti per i token di input 1K e 560 crediti per i token di output 1K. Consuma messaggi in Copilot Studio a partire dal 7 aprile. Ulteriori informazioni: Messaggio in Copilot Studio |
o1 ha conoscenze fino a ottobre 2023 e ha una lunghezza del contesto di 128k token. | Disponibilità delle funzionalità in base all'area per le richieste |
Scegli tra il modello basato sulle funzionalità e gli scenari.
Modelli a confronto
Fattori | GPT-4o Mini | GPT-4o | o1 |
---|---|---|---|
Costo | Inferiore, più conveniente | Superiore, prezzo premium | Prezzi premium più elevati (anteprima a pagamento) |
Prestazioni | Buono per la maggior parte delle attività | Superiore per attività complesse | Formato per attività di ragionamento |
Velocità | Elaborazione più rapida | Potrebbe essere più lento a causa della complessità | Più lento poiché ragiona prima di rispondere |
Casi d'uso | Riepilogo, attività di informazione | Elaborazione di immagini e documenti, nonché complesse attività di creazione di contenuti | Attività complesse di analisi e ragionamento dei dati |
Narrativa della decisione
Quando hai bisogno di una soluzione conveniente per attività moderatamente complesse, disponi di risorse computazionali limitate o richiedi un'elaborazione più rapida, scegli GPT-4o Mini. È ideale per progetti con vincoli di budget e applicazioni come l'assistenza clienti o l'analisi efficiente del codice.
Quando hai a che fare con attività multimodali altamente complesse che richiedono prestazioni superiori e analisi dettagliate, scegli GPT-4o. È la scelta migliore per i progetti su larga scala in cui la precisione e le funzionalità avanzate sono fondamentali. Un altro scenario in cui è una scelta migliore è quando si dispone del budget e delle risorse computazionali per supportarla. GPT-4o è anche preferibile per progetti a lungo termine che potrebbero aumentare di complessità nel tempo.
Per i progetti che richiedono capacità di ragionamento avanzate, il modello O1 eccelle. È adatto per scenari che richiedono una sofisticata risoluzione dei problemi e un pensiero critico. Il modello O1 eccelle in ambienti in cui il ragionamento sfumato, il processo decisionale complesso e l'analisi dettagliata sono importanti.
Impostazioni del modello
Puoi accedere al riquadro delle impostazioni selezionando ...>Impostazioni nella parte superiore del generatore di richieste. È anche possibile modificare le seguenti impostazioni:
- Temperatura: temperature inferiori portano risultati prevedibili, mentre valori di Temperature superiori consentono risposte più varie o creative.
- Recupero record: numero di record recuperati per le origini di conoscenza.
- Includi collegamenti nella risposta: quando questa opzione è selezionata, la risposta include le citazioni dei collegamenti per i record recuperati.
Temperatura
Il dispositivo di scorrimento consente di selezionare la temperatura del modello di intelligenza artificiale generativo. Varia tra 0 e 1 e guida il modello di intelligenza artificiale generativa su quanta creatività (1) rispetto alla risposta deterministica (0) dovrebbe fornire.
La temperatura è un parametro che controlla la casualità dell'output generato dal modello di intelligenza artificiale. Una temperatura più bassa si traduce in risultati più prevedibili e conservativi. Per fare un confronto, una temperatura più elevata consente maggiore creatività e diversità nelle risposte. È un modo per ottimizzare l'equilibrio tra casualità e determinismo nell'output del modello.
Per impostazione predefinita, la temperatura è 0, come nei prompt creati in precedenza.
Temperatura | Funzionalità | Utilizzo in |
---|---|---|
0 | Risultati più prevedibili e conservativi. Le risposte sono più coerenti. |
Richieste che richiedono elevata precisione e minore variabilità. |
1 | Più creatività e diversità nelle risposte. Risposte più varie e talvolta più innovative. |
Richieste che creano nuovo contenuto predefinito |
La regolazione della temperatura può influenzare la resa del modello, ma non garantisce un risultato specifico. Le risposte dell'intelligenza artificiale sono intrinsecamente probabilistiche e possono variare anche con la stessa impostazione della temperatura.
Nota
L'impostazione della temperatura non è disponibile per il modello o1, quindi il dispositivo di scorrimento è disabilitato quando si seleziona il modello o1.