Come compilare il kernel
L'uso dell’SDK Kernel semantico richiede una configurazione minima. Per iniziare a creare un agente di intelligenza artificiale personalizzato, è sufficiente disporre del pacchetto SDK e di un endpoint per il servizio LLM (Large Language Model). L'SDK usa questo endpoint per connettersi all'LLM ed eseguire i prompt. L'SDK Kernel semantico supporta gli LLM HuggingFace, OpenAI e Azure OpenAI. Per questo esempio si usa Azure OpenAI.
I passaggi per iniziare a usare l’SDK Kernel semantico sono i seguenti:
Installare l'SDK Kernel semantico.
In Visual Studio Code è possibile usare il comando seguente:
dotnet add package Microsoft.SemanticKernel --version 1.30.0Passare al portale di Azure.
Creare una nuova risorsa di Azure OpenAI se non ne è già disponibile una.
Creare una distribuzione per il modello da usare.
Recuperare la chiave e l'endpoint.
Aggiungere la chiave e l'endpoint al servizio generatore del kernel.
using Microsoft.SemanticKernel;
// Populate values from your OpenAI deployment
var modelId = "";
var endpoint = "";
var apiKey = "";
// Create a kernel with Azure OpenAI chat completion
var builder = Kernel.CreateBuilder().AddAzureOpenAIChatCompletion(modelId, endpoint, apiKey);
// Build the kernel
Kernel kernel = builder.Build();
from semantic_kernel import Kernel
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion
# Populate values from your OpenAI deployment
model_id = ""
endpoint = ""
api_key = ""
# Create a kernel and add Azure OpenAI chat completion
kernel = Kernel()
kernel.add_service(
AzureChatCompletion(
deployment_name=model_id,
endpoint=endpoint,
api_key=api_key
)
)
kernel.add_service(chatcompletion)
Negli esercizi seguenti, è possibile esercitarsi nella configurazione del proprio progetto di kernel semantico.