Forum aux questions sur l’utilisation des services Azure AI pour les start-ups.
Consultez le cours Generative AI pour les débutants sur GitHub. Il s’agit d’un ensemble d’instructions de 18 leçons qui présente toutes les principales fonctionnalités d’Azure OpenAI et vous montre comment créer des applications avec elles.
Comment puis-je tester rapidement les fonctionnalités d’IA Azure avec une approche faible/sans code ?
Utilisez Azure AI Studio pour tester diverses fonctionnalités d’IA, notamment le déploiement de modèles Azure OpenAI et l’application de services de con mode tente ration.
Différents modèles Azure OpenAI sont limités à différentes régions. Consultez la table de disponibilité du modèle pour obtenir une liste complète.
Comment la sélection de région a-t-elle un impact sur la latence et les performances des services Azure OpenAI ?
L’impact est minimal, sauf si vous utilisez la fonctionnalité de diffusion en continu. La latence de la propre réponse du modèle a un effet beaucoup plus important sur la latence que les différences de région.
Le choix d’utiliser un serveur Azure OpenAI dédié par rapport au plan de paiement à l’utilisation a également un impact plus important sur les performances.
Consultez Gérer le quota de service Azure OpenAI pour comprendre comment fonctionnent les limites de quota et comment les gérer.
Pour les clients qui utilisent le modèle de paiement à l’utilisation (le plus courant), consultez la page Gérer le quota de service Azure OpenAI. Pour les clients qui utilisent un serveur Azure OpenAI dédié, consultez la section quota du guide associé.
Envisagez de combiner plusieurs déploiements Azure OpenAI dans une architecture avancée pour créer un système qui fournit plus de jetons par minute à plus d’utilisateurs.
Quand dois-je utiliser un serveur Azure OpenAI dédié (PTU) au lieu du modèle de paiement à l’utilisation ?
Vous devez envisager de passer du débit de paiement à l’utilisation au débit provisionné lorsque vous avez des exigences de débit bien définies et prévisibles. En règle générale, il s’agit du cas où l’application est prête pour la production ou a déjà été déployée en production et qu’il existe une compréhension du trafic attendu. Les utilisateurs peuvent ainsi prévoir exactement la capacité requise et éviter une facturation non prévue.
Créez un équilibreur de charge pour votre application.
Consultez l’exemple d’équilibrage de charge si vous utilisez le modèle de paiement à l’utilisation. Si vous utilisez un serveur Azure OpenAI dédié, consultez le guide PTU pour plus d’informations sur l’équilibrage de charge.
Comment faire configurer un environnement de développement pour tester des applications Azure OpenAI ?
Créez un déploiement en ligne à l’aide du flux d’invite dans Azure AI Studio. Ensuite, testez-le en plaçant des valeurs dans l’éditeur de formulaire ou l’éditeur JSON.
Consultez le guide des métriques d’évaluation et de surveillance pour obtenir des informations sur le suivi des métriques de risque et de sécurité, ainsi que sur un certain nombre de métriques de qualité de réponse.
Quels outils puis-je utiliser pour surveiller les performances de mes points de terminaison Azure OpenAI ?
Utilisez la fonctionnalité de supervision d’Azure OpenAI Studio. Il fournit des tableaux de bord qui suivent les métriques de performances de vos modèles au fil du temps.
Quelles sont les meilleures pratiques pour déployer des applications OpenAI sur Azure en production ?
Consultez l’architecture de référence de conversation Azure OpenAI pour connaître les meilleures pratiques en matière de déploiement d’une application de conversation standard.
Pouvez-vous fournir des exemples ou des études de cas sur les implémentations réussies d’Azure OpenAI Service ?
Consultez le forum de la communauté technique de l’intelligence artificielle et du Machine Learning .
Pour en savoir plus, consultez Microsoft for Startup.