Condividi tramite


Esercitazione: Usare qualsiasi LLM ONNX in AI Dev Gallery

In questa esercitazione si apprenderà come eseguire qualsiasi modello di linguaggio di grandi dimensioni basato su ONNX tramiteAI Dev Gallery, ovvero un'applicazione Windows open source (disponibile in Microsoft Store) che presenta esempi basati sull'intelligenza artificiale.

Questi passaggi funzionano per qualsiasi LLM nel ONNX Runtime GenAI formato, tra cui:


  1. Aprire l'app AI Dev Gallery .

  2. Passare alla scheda Esempi e scegliere un esempio di testo (ad esempio, "Genera testo" o "Chat").

    Passare alla scheda Esempi e scegliere un esempio di testo

  3. Fare clic sul pulsante Selettore di modelli per visualizzare i modelli disponibili per l'esempio.

    Fare clic sul pulsante Selettore di modelli

  4. Selezionare la scheda Modelli personalizzati da inserire in ONNX LLM.

    Selezionare la scheda Modelli personalizzati


Passaggio 2: Ottenere o convertire un modello ONNX LLM

Per usare un modello in AI Dev Gallery, deve essere nel ONNX Runtime GenAI formato . È possibile:

  • Scaricare un modello pre-convertito:

  • Convertire un modello personalizzato:

    • Fare clic su Open AI Toolkit's Conversion Tool (Apri strumento di conversione di AI Toolkit ) nel selettore di modelli, che avvia l'estensione AI Toolkit in Visual Studio Code.
      • Se non è installato, cercare "AI Toolkit" nel Marketplace delle estensioni di VS Code.
    • Usare AI Toolkit per Visual Studio Code per convertire un modello supportato in ONNX Runtime GenAI formato.

Modelli attualmente supportati per la conversione:

  • DeepSeek R1 Distill Qwen 1.5B
  • Phi 3.5 Mini insegnare
  • Qwen 2.5-1.5B Instruct
  • Llama 3.2 1B Instruct

Annotazioni

La conversione di AI Toolkit è in anteprima e attualmente supporta solo i modelli elencati in precedenza.


  1. Dopo aver creato un modello nel ONNX Runtime GenAI formato, tornare alla AI Dev Gallery del modello.

  2. Fare clic su Aggiungi modello → da disco e specificare il percorso del modello ONNX.

    Aggiungere un modello dal disco in AI Dev Gallery

    Annotazioni

    Se è stato usato lo strumento di conversione di AI Toolkit, il percorso del modello convertito deve seguire questo formato:
    c:/{workspace}/{model_project}/history/{workflow}/model/model.onnx

  3. Dopo l'aggiunta, è ora possibile selezionare il modello e usarlo con gli esempi interattivi.

    Modello personalizzato selezionato e pronto per l'uso in AI Dev Gallery

  4. Facoltativamente, fare clic su Mostra codice sorgente nell'app per visualizzare il codice che esegue il modello.

    Mostra il codice sorgente per l'esempio di modello ONNX selezionato in AI Dev Gallery


Questi LLM ONNX possono essere usati con gli esempi seguenti in AI Dev Gallery:

Testo

  • Genera testo
  • Riepilogare il testo
  • Chat
  • Chat del kernel semantico
  • Controllo grammaticale
  • Testo paraphrase
  • Analizzare il sentiment del testo
  • Moderazione del contenuto
  • Parametri personalizzati
  • Generazione Aumentata dal Recupero

Controlli intelligenti

  • Smart TextBox

Codice

  • Generare codice
  • Spiegare il codice

Passaggi successivi

Dopo aver provato ONNX LLM in AI Dev Gallery, è possibile usare lo stesso approccio nella propria app.

Funzionamento dell'esempio

  • Gli AI Dev Gallery esempi usano OnnxRuntimeGenAIChatClient (dall'SDK) per eseguire il wrapping del ONNX Runtime GenAImodello ONNX.
  • Questo client si collega alle Microsoft.Extensions.AI astrazioni (IChatClient, ChatMessagee così via), in modo da poter lavorare con richieste e risposte in modo naturale e di alto livello.
  • All'interno della factory (OnnxRuntimeGenAIChatClientFactory), l'app garantisce che Windows ML i provider di esecuzione (WinML) siano registrati ed esegua il modello ONNX con la migliore accelerazione hardware disponibile (CPU, GPU o NPU).

Esempio dell'esempio:

// Register WinML execution providers (under the hood)
var catalog = Microsoft.Windows.AI.MachineLearning.ExecutionProviderCatalog.GetDefault();
await catalog.EnsureAndRegisterCertifiedAsync();

// Create a chat client for your ONNX model
chatClient = await OnnxRuntimeGenAIChatClientFactory.CreateAsync(
    @"C:\path\to\your\onnx\model",
    new LlmPromptTemplate
    {
        System = "<|system|>\n{{CONTENT}}<|end|>\n",
        User = "<|user|>\n{{CONTENT}}<|end|>\n",
        Assistant = "<|assistant|>\n{{CONTENT}}<|end|>\n",
        Stop = [ "<|system|>", "<|user|>", "<|assistant|>", "<|end|>"]
    });

// Stream responses into your UI
await foreach (var part in chatClient.GetStreamingResponseAsync(messages, null, cts.Token))
{
    OutputTextBlock.Text += part;
}

Per altre informazioni sull'integrazione di modelli ONNX nelle applicazioni Windows, vedere:


Vedere anche