Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Solo se aplica a:Portal de foundry (clásico). Este artículo no está disponible para el nuevo portal de Foundry.
Obtenga más información sobre el nuevo portal.
Sugerencia
Está disponible una guía rápida alternativa de proyectos de Foundry: Guía rápida: Comienza con Microsoft Foundry (proyectos Foundry).
En este inicio rápido se configura el entorno local para proyectos basados en sitios centrales, se implementa un modelo y se crea un script de chat con seguimiento o evaluable sencillo.
Prerrequisitos
- Suscripción de Azure.
- Proyecto de concentrador existente (o crear uno). Si no es así, considere la posibilidad de usar un inicio rápido de Foundry project.
Configure tu entorno de desarrollo
- Instale los requisitos previos (Python, Azure CLI, inicio de sesión).
- Instale los paquetes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Los distintos tipos de proyectos necesitan distintas versiones de los azure-ai-projects. Mantenga cada proyecto en su propio entorno aislado para evitar conflictos.
Implementar un modelo
- Portal: Inicie sesión, abra el proyecto del hub.
- Catálogo de modelos: seleccione gpt-4o-mini.
- Use este modelo > para aceptar el nombre de implementación predeterminado > implementar.
- Tras tener éxito: abra en el área de juegos para comprobarlo.
Compilación de la aplicación de chat
Cree chat.py con código de ejemplo:
Sugerencia
El código usa el SDK de Azure AI Projects 1.x y no es compatible con Azure AI Projects 2.x. Asegúrese de instalar la versión azure-ai-projects==1.0.0b10 correcta para usarla con el código de este artículo.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Inserte la cadena de conexión del proyecto desde la página de información general del proyecto (copie, reemplace el marcador de posición en el código).
¡Corre!
python chat.py
Agregar plantillas de aviso
Agregue get_chat_response mediante la plantilla mustache (consulte chat-template.py ejemplo) y, a continuación, invoque con mensajes de usuario o contexto.
Vuelva a ejecutar para ver la respuesta plantilla.
Limpieza de recursos
Elimine la implementación o el proyecto una vez finalizado para evitar costos.