Partager via


Référence API pour les API Phi Silica dans le SDK d’application Windows

Découvrez les nouvelles API Phi Silica d’Intelligence Artificielle (IA) qui seront fournies avec le SDK d’application Windows et qui peuvent être utilisées pour accéder aux modèles de langage de l’appareil (y compris Phi Silica, notre modèle de langage local ajusté par NPU le plus puissant à ce jour) pour le traitement local et la génération de discussions, la résolution de problèmes mathématiques, la génération de code, le raisonnement sur le texte, etc.

Pour plus de détails, consultez la page Phi Silica dans le SDK d’application Windows.

Important

Le canal expérimental du SDK d’application Windows comprend des API et des fonctionnalités qui en sont aux premières phases de développement. Toutes les API du canal expérimental font l’objet de révisions approfondies et de changements cassants et peuvent être supprimées des versions ultérieures à tout moment. Elles ne sont pas prises en charge dans les environnements de production et les applications qui utilisent des fonctionnalités expérimentales ne peuvent pas être publiées dans Microsoft Store.


Espace de noms Microsoft.Windows.AI.Generative

Fournit des API pour le traitement et les réponses locales des invites d’IA génératives sur l’appareil.

Classe Microsoft.Windows.AI.Generative.LanguageModel

public sealed class LanguageModel : System.IDisposable

Représente un objet qui peut interagir avec un modèle de langage local pour générer des réponses à une invite fournie.

Méthode Microsoft.Windows.AI.Generative.LanguageModel.Close

Supprime l’objet et les ressources associées.

Notes

Non implémenté dans C#.

Méthode Microsoft.Windows.AI.Generative.LanguageModel.CreateAsync

public static Windows.Foundation.IAsyncOperation<Microsoft.Windows.AI.Generative.LanguageModel> CreateAsync ();

Crée de manière asynchrone une nouvelle instance de la classe LanguageModel.

Retours

Une nouvelle instance de la classe TextRecognizer.

Méthode Microsoft.Windows.AI.Generative.LanguageModel.GenerateResponseAsync(System.String)

public Windows.Foundation.IAsyncOperation<Microsoft.Windows.AI.Generative.LanguageModelResponse> GenerateResponseAsync (string prompt);

Génère et renvoie une réponse complète pour une seule invite.

Paramètres
prompt

Une invite sous forme de question.

Retours

Une chaîne de réponse et un statut.

Exceptions

ArgumentException : l’invite spécifiée est plus longue que le nombre maximum de jetons que le modèle peut accepter.

Méthode Microsoft.Windows.AI.Generative.LanguageModel.GenerateResponseWithProgressAsync(System.String)

public Windows.Foundation.IAsyncOperationWithProgress<Microsoft.Windows.AI.Generative.LanguageModelResponse, 
string> GenerateResponseWithProgressAsync (string prompt);

Génère et transmet une réponse par l’intermédiaire d’un gestionnaire de progression. Des résultats partiels peuvent être récupérés pendant que la génération est en cours.

Paramètres
prompt

L’invite de la réponse.

Retours

Une chaîne de réponse et un statut.

Le prochain élément de la chaîne de caractères qui est ajouté à la réponse complète au fur et à mesure que le modèle la renvoie. Il s’agit du delta par rapport à la réponse précédente de LanguageModelReponse définie comme le résultat OnProgress.

Exceptions

ArgumentException : l’invite spécifiée est plus longue que le nombre maximum de jetons que le modèle peut accepter.

Notes

Les événements OnProgress se produisent lors de la génération de chaque mot de la réponse.

Méthode Microsoft.Windows.AI.Generative.LanguageModel.IsAvailable

public static bool IsAvailable ();

Permet de savoir si le modèle IA requis est disponible.

Retours

True, si le modèle IA requis est disponible. Dans le cas contraire, la valeur est false.

Méthode Microsoft.Windows.AI.Generative.LanguageModel.MakeAvailableAsync

public static Windows.Foundation.IAsyncOperationWithProgress<Microsoft.Windows.Management.Deployment.PackageDeploymentResult, 
Microsoft.Windows.Management.Deployment.PackageDeploymentProgress> MakeAvailableAsync ();

Garantit que le modèle de langage sous-jacent est installé et disponible pour être utilisé.

Retours

Une action asynchrone avec progression qui renvoie un PackageDeploymentResult à la fin.

Classe Microsoft.Windows.AI.Generative.LanguageModelResponse

public sealed class LanguageModelResponse

Représente une chaîne de réponse et un statut.

Propriété Microsoft.Windows.AI.Generative.LanguageModelResponse.Response

public string Response { get; }

Obtient la chaîne de réponse renvoyée par le modèle de langage en fonction de l’invite fournie.

Valeur de la propriété

La chaîne de réponse renvoyée par le modèle de langage en fonction de l’invite fournie.

Propriété Microsoft.Windows.AI.Generative.LanguageModelResponse.Status

public Microsoft.Windows.AI.Generative.LanguageModelResponseStatus Status { get; }

Obtient le statut de la réponse en fonction de l’invite fournie.

Valeur de la propriété

La chaîne de réponse renvoyée par le modèle de langage en fonction de l’invite fournie.

Notes

Toute valeur autre que Succeeded ou InProgress est considérée comme un échec.

Enum Microsoft.Windows.AI.Generative.LanguageModelResponseStatus

public enum LanguageModelResponseStatus

Spécifie les valeurs possibles du statut de la réponse pour l’invite fournie.

Champs enum

Terminé : 0

La réponse est terminée.

InProgress : 1

La réponse est en cours.

BlockedByPolicy : 2

La réponse est bloquée par un paramètre de stratégie.