Condividi tramite


Domande frequenti su Azure OpenAI

Dati e privacy

Utilizzate i dati della mia azienda per il training di qualche modello?

Azure OpenAI non usa i dati dei clienti per ripetere il training dei modelli. Per altre informazioni, vedere la Guida alla sicurezza, ai dati, alla privacy e alla sicurezza di Azure OpenAI.

Generale

Azure OpenAI supporta le intestazioni API personalizzate? Si accodano intestazioni personalizzate aggiuntive alle richieste API e si verificano errori HTTP 431.

Le API correnti consentono fino a 10 intestazioni personalizzate, che vengono passate attraverso la pipeline e restituite. Attualmente, alcuni clienti hanno superato questo numero di intestazioni, con la generazione di errori HTTP 431. Non esiste alcuna soluzione per questo errore, se non ridurre il volume dell'intestazione. Nelle versioni future dell'API non si passerà più tramite intestazioni personalizzate. Raccomandiamo ai clienti di non dipendere dalle intestazioni personalizzate nelle architetture di sistema future.

Azure OpenAI funziona con la libreria Python più recente rilasciata da OpenAI (versione>=1.0)?

Azure OpenAI è supportato dalla versione più recente della libreria Python OpenAI (versione>=1.0). È tuttavia importante notare che la migrazione della codebase usando openai migrate non è supportata e non funziona con il codice destinato ad Azure OpenAI.

Non riesco a trovare GPT-4 Turbo Preview, dov'è?

GPT-4 Turbo Preview è il modello gpt-4 (1106-preview). Per distribuire questo modello, in Distribuzioni selezionare il modello gpt-4. Per Versione modello selezionare 1106-preview. Per verificare le aree disponibili per questo modello, vedere la pagina dei modelli.

Azure OpenAI supporta GPT-4?

Azure OpenAI supporta i modelli GPT-4 più recenti. Supporta sia GPT-4 che GPT-4-32K.

Come sono le funzionalità di Azure OpenAI rispetto a quelle di OpenAI?

Azure OpenAI offre ai clienti un'intelligenza artificiale basata sul linguaggio avanzata con i modelli OpenAI più recenti con la promessa di sicurezza e aziendale di Azure. OpenAI di Azure sviluppa le API unitamente a OpenAI, garantendo la compatibilità e una transizione uniforme da una all'altra.

Con OpenAI di Azure i clienti accedono alle funzionalità di sicurezza di Microsoft Azure eseguendo gli stessi modelli di OpenAI.

Azure OpenAI supporta le reti virtuali e gli endpoint privati?

Sì, Azure OpenAI supporta le reti virtuali e gli endpoint privati. Per altre informazioni, vedere il materiale sussidiario sulla rete virtuale.

I modelli GPT-4 supportano attualmente l'input dell'immagine?

No, GPT-4 è stato progettato da OpenAI per essere multimodale, ma attualmente sono supportati solo l'input e l'output di testo.

Come si fa a richiedere nuovi casi d'uso?

In precedenza, il processo di aggiunta di nuovi casi d'uso richiedeva ai clienti di fare nuovamente domanda per il servizio. Verrà ora rilasciato un nuovo processo che consente di aggiungere rapidamente nuovi casi d'uso all'uso del servizio. Questo processo segue il processo stabilito per l'accesso limitato in Azure OpenAI. I clienti esistenti possono confermare qui tutti i nuovi casi d'uso. Si noti che questa operazione è necessaria ogni volta che si vuole usare il servizio per un nuovo caso d'uso per il quale non è stata fatta originariamente richiesta.

Quando si provano a usare gli incorporamenti viene visualizzato l'errore "InvalidRequestError: Troppi input. Il numero massimo di input è 16." Com'è possibile risolvere il problema?

Questo errore si verifica in genere quando si tenta di inviare un batch di testo da incorporare in una singola richiesta API come matrice. Attualmente Azure OpenAI supporta solo matrici di incorporamenti con più input per il modello text-embedding-ada-002 versione 2. Questa versione del modello supporta una matrice costituita da un massimo di 16 input per ogni richiesta API. La matrice può avere una lunghezza massima di 8,191 token quando si usa il modello text-embedding-ada-002 (versione 2).

Dove è possibile trovare le informazioni su modi migliori per usare Azure OpenAI e ottenere le risposte desiderate dal servizio?

Vedere l'introduzione all'ingegneria dei prompt. Sebbene questi modelli siano potenti, il loro comportamento è anche molto sensibile ai prompt ricevuti dall’utente. Ciò rende la creazione di una richiesta una competenza importante da sviluppare. Dopo aver completato l'introduzione, vedere l'articolo sui messaggi di sistema.

Quando chiedo a GPT-4 quale modello è in esecuzione, mi dice che è in esecuzione GPT-3. Com'è possibile?

I modelli di Azure OpenAI (incluso GPT-4) non riescono a identificare correttamente il comportamento previsto del modello in esecuzione.

Perché questo avviene?

In definitiva, il modello esegue la stima del token successiva in risposta alla domanda. Il modello non ha alcuna possibilità nativa di eseguire query sulla versione del modello attualmente in esecuzione per rispondere alla domanda. Per rispondere a questa domanda, è sempre possibile passare aDistribuzioni> digestione>di Azure AI Foundry> e consultare la colonna del nome del modello per verificare quale modello è attualmente associato a un determinato nome di distribuzione.

Le domande "Quale modello è in esecuzione?" o "Qual è il modello più recente di OpenAI?" producono risultati di qualità simili per chiedere al modello quale sarà il meteo oggi. Potrebbe restituire il risultato corretto, ma per puro caso. In modo autonomo, il modello non dispone di informazioni reali diverse da quelle che fanno parte del training e dei dati di training. Nel caso di GPT-4, a partire da agosto 2023 i dati di training sottostanti vanno solo fino a settembre 2021. GPT-4 non è stato rilasciato fino a marzo 2023, quindi, a meno che OpenAI non rilasci una nuova versione con dati di training aggiornati o una nuova versione ottimizzata per rispondere a queste domande specifiche, è previsto che GPT-4 risponda che GPT-3 è la versione più recente del modello rilasciato da OpenAI.

Se si vuole aiutare un modello basato su GPT a rispondere in modo accurato alla domanda "quale modello si sta eseguendo?", è necessario fornire tali informazioni al modello tramite tecniche come la progettazione richiesta del messaggio di sistema del modello, la generazione aumentata di recupero (RAG) che è la tecnica usata da Azure OpenAI sui dati in cui up-to-date le informazioni vengono inserite nel messaggio di sistema in fase di query, o tramite l'ottimizzazione , in cui è possibile ottimizzare versioni specifiche del modello per rispondere a tale domanda in un certo modo in base alla versione del modello.

Per altre informazioni su come vengono sottoposti a training i modelli GPT e sul lavoro, è consigliabile guardare il discorso di Andrej Apatia dalla Build 2023 sullo stato di GPT.

Come è possibile ottenere il modello per rispondere in una lingua specifica?

Assicurarsi che il prompt sia chiaro e specifico sul requisito linguistico. Se il problema persiste, è consigliabile aggiungere più contesto o riformulare il prompt per rafforzare l'istruzione del linguaggio.

Prompt di esempio:

  • "Si prega di rispondere in inglese e solo in inglese."
  • "Rispondere alla domanda seguente in inglese: Qual è il tempo come in Fresno?"

Ho chiesto al modello quando la conoscenza è terminata e mi ha dato una risposta diversa da quella presente nella pagina del modello di Azure OpenAI. Com'è possibile?

Si tratta di un comportamento previsto. I modelli non sono in grado di rispondere a domande su se stessi. Se si vuole sapere quando si trova il cutoff delle conoscenze per i dati di training del modello, consultare la pagina dei modelli.

Ho posto al modello una domanda su un fatto accaduto di recente prima del limite delle conoscenze e ha sbagliato la risposta. Com'è possibile?

Si tratta di un comportamento previsto. Per prima cosa non esiste alcuna garanzia che ogni evento recente faccia parte dei dati di training del modello. E anche quando le informazioni fanno parte dei dati di training, senza usare tecniche aggiuntive come Recupero di generazione aumentata (RAG) per aiutare le risposte del modello a verificarsi sempre una possibilità di risposte non in primo piano. Sia Azure OpenAI usano la funzionalità dei dati che Bing Chat usano i modelli OpenAI di Azure combinati con la generazione aumentata di recupero per consentire ulteriori risposte al modello di base.

La frequenza con cui una determinata informazione è apparsa nei dati di training può influire anche sulla probabilità che il modello risponda in un determinato modo.

Chiedere al modello GPT-4 Turbo Preview più recente qualcosa che è cambiato più di recente come "Chi è il primo ministro della Nuova Zelanda?", è probabile che la risposta creata Jacinda Ardern. Tuttavia, chiedendo al modello "Quando Jacinda Ardern si è dimesso da primo ministro?" Tende a fornire una risposta accurata che dimostra la conoscenza dei dati di training almeno fino a gennaio 2023.

Pertanto, anche se è possibile eseguire il probe del modello con domande per indovinare il cutoff delle informazioni sui dati di training, la pagina del modello è la posizione migliore per controllare il cutoff delle conoscenze di un modello.

Dove si accede alle informazioni sui prezzi per i modelli legacy, che non sono più disponibili per le nuove distribuzioni?

Le informazioni sui prezzi legacy sono disponibili tramite un file PDF scaricabile. Per tutti gli altri modelli, consultare la pagina ufficiale dei prezzi.

Come è possibile correggere InternalServerError - 500 - Impossibile creare il completamento perché l'output Unicode generato dal modello non è valido?

È possibile ridurre al minimo l'occorrenza di questi errori riducendo la temperatura dei prompt a meno di 1 e assicurandosi di usare un client con logica di ripetizione dei tentativi. La ripetizione della richiesta comporta spesso una risposta con esito positivo.

Come correggere l'errore del server (500): token speciale imprevisto

Si tratta di un problema noto. È possibile ridurre al minimo l'occorrenza di questi errori riducendo la temperatura dei prompt a meno di 1 e assicurandosi di usare un client con logica di ripetizione dei tentativi. La ripetizione della richiesta comporta spesso una risposta con esito positivo.

Se la riduzione della temperatura a meno di 1 non riduce la frequenza di questo errore, una soluzione alternativa consiste nell'impostare penalità di presenza/frequenza e distorsioni logit sui valori predefiniti. In alcuni casi, può essere utile impostare top_p un valore non predefinito inferiore per incoraggiare il modello a evitare token di campionamento con token di probabilità inferiori.

Sono stati rilevati addebiti associati a chiamate API che non sono state completate con il codice di stato 400. Perché le chiamate API non riuscite generano un addebito?

Se il servizio esegue l'elaborazione, verrà addebitato anche se il codice di stato non riesce (non 200). Esempi comuni di questo tipo sono, un errore 400 a causa di un filtro di contenuto o di un limite di input o di un errore 408 a causa di un timeout. Gli addebiti si verificheranno anche quando viene ricevuto un status 200 oggetto con un finish_reason di content_filter. In questo caso, il prompt non ha avuto problemi, ma è stato rilevato che il completamento generato dal modello viola le regole di filtro dei contenuti che determinano il completamento filtrato. Se il servizio non esegue l'elaborazione, non verrà addebitato alcun addebito. Ad esempio, un errore 401 dovuto all'autenticazione o un errore 429 dovuto al superamento del limite di velocità.

Ottenere l'accesso al Servizio OpenAI di Azure

Come si accede ad Azure OpenAI?

Per accedere alla maggior parte dei modelli Azure OpenAI non è necessario un modulo di registrazione ad accesso limitato. Per altre informazioni, vedere la pagina accesso limitato di Azure OpenAI.

All'account guest è stato concesso l'accesso a una risorsa OpenAI di Azure, ma non è possibile accedere a tale risorsa nel [portale di Azure AI Foundry](https://ai.azure.com/?cid=learnDocs). Come si abilita l'accesso?

Questo comportamento è previsto quando si usa l'esperienza di accesso predefinita per Azure AI Foundry.

Per accedere ad Azure AI Foundry da un account guest a cui è stato concesso l'accesso a una risorsa OpenAI di Azure:

  1. Aprire una sessione privata del browser, quindi passare a https://ai.azure.com.
  2. Anziché immettere immediatamente le credenziali dell'account guest, selezionare Sign-in options
  3. Selezionare ora Accedi a un'organizzazione
  4. Immettere il nome di dominio dell'organizzazione che ha concesso all'account guest l'accesso alla risorsa di Azure OpenAI.
  5. Accedere ora con le credenziali dell'account guest.

A questo momento dovrebbe essere possibile accedere alla risorsa tramite il portale di Azure AI Foundry.

In alternativa, se si è connessi al portale di Azure dal riquadro Panoramica della risorsa OpenAI di Azure, è possibile selezionare Vai ad Azure AI Foundry per accedere automaticamente con il contesto aziendale appropriato.

Altre informazioni e dove porre domande

Dove è possibile leggere gli aggiornamenti più recenti di Azure OpenAI?

Per gli aggiornamenti mensili, vedere la pagina delle novità.

Dove è possibile ottenere il training per iniziare a imparare e sviluppare le proprie competenze in Azure OpenAI?

Scopri la nostra introduzione al corso di formazione su Azure OpenAI.

Dove posso pubblicare domande e vedere le risposte ad altre domande comuni?

Dove si va per il supporto clienti di Azure OpenAI?

È possibile ottenere informazioni su tutte le opzioni di supporto per Azure OpenAI nella guida alle opzioni di supporto e guida.

Modelli e ottimizzazione

Quali sono i modelli disponibili?

Consultare la guida alla disponibilità del modello OpenAI di Azure.

Come sapere in quale area è disponibile un modello?

Per informazioni sulla disponibilità dell'area, vedere la guida alla disponibilità del modello OpenAI di Azure.

Quali sono i contratti di servizio (contratti di servizio) in Azure OpenAI?

È disponibile un contratto di servizio di disponibilità per tutte le risorse e un contratto di servizio di latenza per le distribuzioni gestite con provisioning. Per altre informazioni sul contratto di servizio per il servizio OpenAI di Azure, vedere la pagina Contratti di servizio (SLA) per i servizi online.

Come si abilita l'ottimizzazione? La creazione di un modello personalizzato è disattivata in [Portale di Azure AI Foundry](https://ai.azure.com/?cid=learnDocs).

Per accedere correttamente all'ottimizzazione, è necessario ricoprire il ruolo di Collaboratore OpenAI di Servizi cognitivi. Persino un utente con autorizzazioni di Amministratore del servizio di alto livello avrebbe comunque bisogno di questo account impostato in modo esplicito per accedere all'ottimizzazione. Per altre informazioni, vedere le linee guida per il controllo degli accessi in base al ruolo.

Qual è la differenza tra un modello base e un modello ottimizzato?

Un modello di base è un modello che non è stato personalizzato od ottimizzato per un caso d'uso specifico. I modelli ottimizzati sono versioni personalizzate dei modelli di base, in cui viene eseguito il training dei pesi di un modello in un set univoco di richieste. I modelli ottimizzati consentono di ottenere risultati migliori su un numero maggiore di attività, senza dover fornire esempi dettagliati per l'apprendimento nel contesto come parte della richiesta di completamento. Per altre informazioni, vedere la guida all'ottimizzazione.

Qual è il numero massimo di modelli ottimizzati che è possibile creare?

100

Perché è stata eliminata la distribuzione modello ottimizzata?

Se un modello personalizzato (ottimizzato) viene distribuito per più di 15 giorni durante i quali non vengono effettuati completamenti o chiamate di completamento della chat, la distribuzione viene eliminata automaticamente (e non vengono addebitati ulteriori costi di hosting per tale distribuzione). Il modello personalizzato sottostante rimane disponibile e potrà essere ridistribuito in qualsiasi momento. Per altre informazioni, vedere l'articolo sulle procedure.

Come si distribuisce un modello con l'API REST?

Sono attualmente disponibili due API REST diverse che consentono la distribuzione del modello. Per le funzionalità di distribuzione del modello più recenti, ad esempio la possibilità di specificare una versione del modello durante la distribuzione per modelli come text-embedding-ada-002 Versione 2, usare la chiamata all'API REST Deployments - Create Or Update .

È possibile usare la quota per aumentare il limite massimo di token di un modello?

No, l'allocazione della quota di token al minuto (TPM) non è correlata al limite massimo di token di input di un modello. I limiti dei token di input del modello sono definiti nella tabella dei modelli e non sono interessati dalle modifiche apportate a TPM.

GPT-4 Turbo con Visione

È possibile ottimizzare le funzionalità dell'immagine in GPT-4?

No, al momento non è supportata l'ottimizzazione delle funzionalità di immagine di GPT-4.

È possibile usare GPT-4 per generare immagini?

No, è possibile usare dall-e-3 per generare immagini e gpt-4-vision-preview per comprendere le immagini.

Quale tipo di file è possibile caricare?

Attualmente sono supportati PNG (.png), JPEG (.jpeg e .jpg), WEBP (.webp) e GIF non animate (.gif).

Esiste un limite per le dimensioni dell'immagine che è possibile caricare?

Sì, i caricamenti delle immagini vengono limitati a 20 MB per ogni immagine.

È possibile eliminare un'immagine caricata?

No, l'immagine verrà eliminata automaticamente dopo che è stata elaborata dal modello.

Come funzionano i limiti di velocità per GPT-4 Turbo con Visione?

Le immagini vengono elaborate a livello di token, quindi ogni immagine elaborata viene conteggiata in base al limite di token al minuto (TPM). Vedere la sezione Token immagine della panoramica per informazioni dettagliate sulla formula usata per determinare il numero di token per ogni immagine.

GPT-4 Turbo con Visione può comprendere i metadati delle immagini?

No, il modello non riceve i metadati dell'immagine.

Cosa succede se la mia immagine non è chiara?

Se un'immagine è ambigua o poco chiara, il modello farà del suo meglio per interpretarlo. Tuttavia, i risultati potrebbero essere meno accurati. Una buona regola è che se un essere umano medio non riesce a vedere le informazioni in un'immagine alle risoluzioni utilizzate in modalità bassa/alta risoluzione, allora nemmeno il modello può farlo.

Quali sono le limitazioni note di GPT-4 Turbo con Visione?

Vedere la sezione limitazioni della guida ai concetti relativi a GPT-4 Turbo with Vision.

Continuo a ottenere risposte troncate quando uso modelli di visione GPT-4 Turbo. Perché succede?

Per impostazione predefinita, GPT-4 vision-preview e GPT-4 turbo-2024-04-09 hanno un valore max_tokens pari a 16. A seconda della richiesta, questo valore è spesso troppo basso e può causare risposte troncate. Per risolvere questo problema, passare un valore max_tokens più grande come parte delle richieste API di completamento della chat. Per impostazione predefinita, GPT-4o è 4096 max_tokens.

Assistenti

Archiviare i dati utilizzati nell'API Assistenti?

Sì. A differenza dell'API di completamento della chat, Azure OpenAI Assistenti sono un'API con stato, ovvero conservano i dati. Ci sono due tipi di dati archiviati nell'API Assistenti:

  • Entità statiche: thread, messaggi ed esecuzioni creati durante l'uso degli assistenti.
  • File: caricati durante la configurazione di Assistenti o come parte di un messaggio.

Dove vengono archiviati questi dati?

I dati vengono archiviati in un account di archiviazione gestito da Microsoft sicuro e separato logicamente.

Quanto tempo vengono archiviati questi dati?

Tutti i dati usati vengono mantenuti in questo sistema, a meno che non si eliminino in modo esplicito questi dati. Usare la funzione di eliminazione con l'ID thread del thread da eliminare. La cancellazione dell’esecuzione in Playground di Assistenti non elimina i thread, ma l'eliminazione tramite la funzione di eliminazione non li elenca nella pagina del thread.

È possibile usare un archivio dati personalizzato con Assistenti?

No Attualmente Assistenti supporta solo i file locali caricati nell'archiviazione gestita da Assistenti. Non è possibile usare l'account di archiviazione privato con Assistenti.

La funzionalità Assistenti supporta la crittografia della chiave gestita dal cliente ??

Oggi è supportata la chiave gestita dal cliente per thread e file in Assistenti. Vedere la pagina Novità per le aree disponibili per questa funzionalità.

I dati vengono usati da Microsoft per i modelli di training?

No I dati non vengono usati per Microsoft per i modelli di training. Per altre informazioni, vedere la documentazione sull'intelligenza artificiale responsabile .

Dove vengono archiviati i dati geograficamente?

Gli endpoint di Azure OpenAI Assistenti sono a livello di area e i dati vengono archiviati nella stessa area dell'endpoint. Per altre informazioni, vedere la documentazione sulla residenza dei dati di Azure.

Come vengono addebitati i costi per Assistenti?

  • Costo di inferenza (input e output) del modello di base usato per ogni Assistente (ad esempio gpt-4-0125). Se sono stati creati più Assistenti, verrà addebitato il modello di base associato a ogni Assistente.
  • Se è stato abilitato lo strumento Interprete del codice. Ad esempio, se l'assistente chiama l'interprete del codice contemporaneamente in due thread diversi, verranno create due sessioni dell'interprete del codice, ognuna delle quali verrà addebitata. Ogni sessione è attiva per impostazione predefinita per un'ora, il che significa che si paga questa tariffa solo una volta se l'utente continua a fornire istruzioni all'interprete di codice nello stesso thread per un massimo di un'ora.
  • La ricerca di file viene fatturata in base all'archiviazione vettoriale usata.

Per ulteriori informazioni, vedere la pagina dei prezzi.

Sono previsti prezzi o quote aggiuntivi per l'uso di Assistenti?

No Tutte le quote si applicano all'uso di modelli con Assistenti.

L'API Assistenti supporta i modelli OpenAI non di Azure?

L'API Assistenti supporta solo i modelli di Azure OpenAI.

L'API Assistenti è disponibile a livello generale?

L'API Assistenti è attualmente in anteprima pubblica. Rimanere informati sugli ultimi aggiornamenti dei prodotti visitando regolarmente la nostra pagina Novità .

Quali sono alcuni esempi o altre risorse che è possibile usare per ottenere informazioni sugli Assistenti?

Per informazioni introduttive e sull'uso degli assistenti, vedere gli articoli sulle procedure concettuali. È anche possibile consultare esempi di codice di Azure OpenAI Assistant in GitHub.

Applicazione Web

Come è possibile personalizzare l'app Web pubblicata?

È possibile personalizzare l'app Web pubblicata nel portale di Azure. Il codice sorgente per l'app Web pubblicata è disponibile in GitHub, dove è possibile trovare informazioni sulla modifica del front-end dell'app, nonché istruzioni per la compilazione e la distribuzione dell'app.

L'app Web verrà sovrascritta quando si distribuisce nuovamente l'app dal [portale di Azure AI Foundry](https://ai.azure.com/?cid=learnDocs)?

Il codice dell'app non verrà sovrascritto quando si aggiorna l'app. L'app verrà aggiornata per usare la risorsa OpenAI di Azure, l'indice di Ricerca di intelligenza artificiale di Azure (se si usa Azure OpenAI nei dati) e le impostazioni del modello selezionate nel portale di Azure AI Foundry senza alcuna modifica all'aspetto o alla funzionalità.

Uso dei dati

Che cosa è Azure OpenAI sui dati?

Azure OpenAI sui dati è una funzionalità di Azure OpenAI che consente alle organizzazioni di generare informazioni dettagliate personalizzate, contenuto e ricerche usando le origini dati designate. Funziona con le funzionalità dei modelli OpenAI di Azure OpenAI per fornire risposte più accurate e pertinenti alle query degli utenti in linguaggio naturale. Azure OpenAI sui dati può essere integrato con le applicazioni e i flussi di lavoro esistenti del cliente, offre informazioni dettagliate sugli indicatori di prestazione chiave e può interagire facilmente con gli utenti.

Come è possibile accedere ad Azure OpenAI sui dati?

Tutti i clienti OpenAI di Azure possono usare Azure OpenAI sui dati tramite il portale di Azure AI Foundry e l'API REST.

Quali origini di dati supporta Azure OpenAI sui dati?

Azure OpenAI sui dati supporta l'inserimento da Azure AI Search, Archiviazione BLOB di Azure e il caricamento di file locali. Per altre informazioni su Azure OpenAI sui dati, vedere l'articolo concettuale e la guida introduttiva.

Quanto costa usare Azure OpenAI sui dati?

Quando si usa Azure OpenAI sui propri dati, si sostengono costi quando si usa la Azure AI Search, Archiviazione BLOB di Azure, Servizio app Web di Azure, la ricerca semantica e i modelli OpenAI. Non sono previsti costi aggiuntivi per l'uso della funzionalità "i dati" nel portale di Azure AI Foundry.

Come è possibile personalizzare o automatizzare il processo di creazione dell'indice?

È possibile preparare l'indice manualmente usando uno script fornito in GitHub. L'uso di questo script creerà un indice di Azure AI Search con tutte le informazioni necessarie per utilizzare al meglio i dati, con i documenti suddivisi in blocchi gestibili. Per informazioni dettagliate sull'esecuzione, vedere il file README con il codice di preparazione dei dati.

Come è possibile aggiornare l'indice?

È possibile pianificare un aggiornamento automatico dell'indice o caricare dati aggiuntivi nel contenitore BLOB di Azure e usarli come origine dati quando si crea un nuovo indice. Il nuovo indice includerà tutti i dati del contenitore.

Quali tipi di file supporta Azure OpenAI sui dati?

Per altre informazioni sui tipi di file supportati, vedere Uso dei dati .

L'intelligenza artificiale responsabile è supportata da Azure OpenAI sui dati?

Sì, Azure OpenAI sui dati fa parte di Azure OpenAI e funziona con i modelli disponibili in Azure OpenAI. Le funzionalità di monitoraggio dei contenuti di Azure OpenAI sono ancora valide. Per altre informazioni, vedere la panoramica delle procedure di intelligenza artificiale responsabile per i modelli OpenAI di Azure per indicazioni aggiuntive sull'uso responsabile di Azure OpenAI sui dati.

Esiste un limite di token per il messaggio di sistema?

Sì, il limite di token per il messaggio di sistema è 400. Se il messaggio di sistema è maggiore di 400 token, il resto dei token oltre i primi 400 verrà ignorato. Questa limitazione si applica solo alla funzionalità OpenAI di Azure per i dati.

Azure OpenAI nei dati supporta la chiamata a funzioni?

Azure OpenAI sui dati attualmente non supporta la chiamata a funzioni.

Il linguaggio della query e quello dell'origine dati devono essere gli stessi?

È necessario inviare query nella stessa lingua dei dati. I dati possono trovarsi in qualsiasi linguaggio supportato da Ricerca di intelligenza artificiale di Azure.

Se la ricerca semantica è abilitata per la risorsa di Ricerca intelligenza artificiale di Azure, verrà applicata automaticamente ad Azure OpenAI sui dati nel [portale di Azure AI Foundry](https://ai.azure.com/?cid=learnDocs)?

Quando si seleziona "Azure AI Search" come origine dati, è possibile scegliere di applicare la ricerca semantica. Se si seleziona "Contenitore BLOB di Azure" o "Carica file" come origine dati, è possibile creare l'indice come di consueto. Successivamente, è necessario inserire nuovamente i dati usando l'opzione "Azure AI Search" per selezionare lo stesso indice e applicare la ricerca semantica. Sarà quindi possibile chattare sui vostri dati con la ricerca semantica applicata.

Come è possibile aggiungere incorporamenti vettoriali durante l'indicizzazione dei dati?

Quando si seleziona "Contenitore BLOB di Azure", "Ricerca di intelligenza artificiale di Azure" o "Carica file" come origine dati, è anche possibile selezionare una distribuzione del modello di incorporamento di Ada da usare per l'inserimento dei dati. Verrà creato un indice di Azure AI Search con incorporamenti vettoriali.

Perché la creazione dell'indice ha esito negativo dopo l'aggiunta di un modello di incorporamento?

La creazione dell'indice può non riuscire quando si aggiungono incorporamenti all'indice se il limite di frequenza per la distribuzione del modello di incorporamento di Ada è troppo basso o se si dispone di un set di documenti molto grande. È possibile usare questo script fornito in GitHub per creare l'indice con incorporamenti manualmente.

L'impegno per il copyright del cliente è un provisioning da includere nelle Condizioni del prodotto Microsoft del 1° dicembre 2023 che descrive l'obbligo di Microsoft di difendere i clienti da determinate attestazioni di proprietà intellettuale di terze parti relative al contenuto di output. Se l'oggetto dell'attestazione è Contenuto di output generato da Azure OpenAI (o da qualsiasi altro prodotto coperto che consente ai clienti di configurare i sistemi di sicurezza), per ricevere la copertura, il cliente deve aver implementato tutte le mitigazioni richieste dalla documentazione di Azure OpenAI nell'offerta che ha fornito il contenuto di output. Le mitigazioni necessarie sono documentate qui e aggiornate in modo continuativo. Per i nuovi servizi, le funzionalità, i modelli o i casi d'uso, verranno pubblicati nuovi requisiti CCC e saranno applicati al lancio di tale servizio, funzionalità, modello o caso d'uso. In caso contrario, i clienti avranno sei mesi dal momento della pubblicazione per implementare nuove mitigazioni per mantenere la copertura sotto il CCC. Se un cliente esegue una richiesta, il cliente dovrà dimostrare la conformità ai requisiti pertinenti. Queste mitigazioni sono necessarie per i prodotti coperti che consentono ai clienti di configurare i sistemi di sicurezza, incluso il servizio Azure OpenAI; non influiscono sulla copertura per i clienti che usano altri prodotti coperti.