Compartir a través de


Inicio rápido: Introducción a Azure AI Foundry

En este inicio rápido, le guiaremos a través de la configuración del entorno de desarrollo local con el SDK de Azure AI Foundry . Escribimos un aviso, lo ejecutamos como parte del código de su aplicación, rastreamos las llamadas LLM que se realizan y ejecutamos una evaluación básica de los resultados del LLM.

Sugerencia

El resto de este artículo muestra cómo usar un proyecto basado en hub. Seleccione Proyecto foundry en la parte superior de este artículo si quiere usar un proyecto Foundry en su lugar.

Prerrequisitos

  • Una suscripción de Azure. Si no tiene una suscripción a Azure, cree una cuenta gratuita antes de empezar.
  • Un proyecto basado en un centro. Si no está familiarizado con Azure AI Foundry y no tiene un proyecto basado en concentrador, seleccione Proyecto Foundry en la parte superior de este artículo para utilizar un Proyecto Foundry en su lugar.

Configure tu entorno de desarrollo

  1. Configuración del entorno de desarrollo

  2. Asegúrese de instalar estos paquetes:

    pip install azure-ai-projects azure-ai-inference azure-identity 
    

Implementar un modelo

Sugerencia

Dado que puede personalizar el panel izquierdo en el portal de Azure AI Foundry, es posible que vea elementos diferentes de los que se muestran en estos pasos. Si no ve lo que busca, seleccione ... Más en la parte inferior del panel izquierdo.

  1. Inicie sesión en Azure AI Foundry.

  2. Seleccione un proyecto basado en hub. Si no tiene un proyecto basado en concentrador, seleccione Proyecto Foundry en la parte superior de este artículo para usar un proyecto Foundry en su lugar.

  3. Seleccione Catálogo de modelos en el panel izquierdo.

  4. Seleccione el modelo gpt-4o-mini en la lista de modelos. Puede usar la barra de búsqueda para encontrarlo.

  5. En la página de detalles del modelo, seleccione Implementar.

    Recorte de pantalla de la página de detalles del modelo con un botón para implementar el modelo.

  6. Deje el nombre de implementación predeterminado. Seleccione Implementar.

  7. Una vez implementado el modelo, seleccione Abrir en el área de juegos para probarlo.

Compilación de la aplicación de chat

Cree un archivo denominado chat.py. Copie y pegue el siguiente código en él.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Inserción de la cadena de conexión

Es necesario contar con la cadena de conexión de tu proyecto para invocar Azure OpenAI en los modelos de Azure AI Foundry desde tu código.

Busque la cadena de conexión en el proyecto de Azure AI Foundry que creó en el inicio rápido del área de juegos de Azure AI Foundry. Abra el proyecto y busque la cadena de conexión en la página Información general.

Recorte de pantalla que muestra la página de información general de un proyecto y la ubicación de la cadena de conexión.

Copie la cadena de conexión y reemplace <your-connection-string-goes-here> en el archivo chat.py.

Ejecución del script de chat

Ejecute el script para ver la respuesta del modelo.

python chat.py

Generación de indicaciones a partir de la entrada del usuario y una plantilla de indicación

El script usa mensajes de entrada y salida codificados de forma rígida. En una aplicación real, tomaría la entrada de una aplicación cliente, generaría un mensaje del sistema con instrucciones internas para el modelo y, a continuación, llamaría al LLM con todos los mensajes.

Vamos a cambiar el script para que tome la entrada de una aplicación cliente y genere un mensaje del sistema mediante una plantilla de indicación.

  1. Quite la última línea del script que imprime una respuesta.

  2. Ahora, defina una función get_chat_response que tome mensajes y contexto, genere un mensaje del sistema mediante una plantilla de indicación y llame a un modelo. Agregue este código al archivo chat.py existente:

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Nota:

    La plantilla de indicación usa el formato Mustache.

    La función get_chat_response podría agregarse fácilmente como una ruta a una aplicación FastAPI o Flask para habilitar la llamada a esta función desde una aplicación web front-end.

  3. Ahora simula el paso de información de una aplicación de front-end a esta función. Agregue el código siguiente al final del archivo chat.py. No dude en jugar con el mensaje y agregar su propio nombre.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

Ejecute el script revisado para ver la respuesta del modelo con esta nueva entrada.

python chat.py

Paso siguiente

En este inicio rápido, usará Azure AI Foundry para:

  • Creación de un proyecto
  • Implementar un modelo
  • Ejecución de una finalización de chat
  • Creación y ejecución de un agente
  • Carga de archivos en el agente

El SDK de Azure AI Foundry está disponible en varios lenguajes, como Python, Java, JavaScript y C#. En este inicio rápido se proporcionan instrucciones para cada uno de estos idiomas.

Sugerencia

El resto de este artículo muestra cómo usar un proyecto Foundry. Seleccione proyecto basado en hub en la parte superior de este artículo si desea usar un proyecto basado en hub en su lugar.

Prerrequisitos

  • Una suscripción de Azure. Si no tiene una suscripción a Azure, cree una cuenta gratuita antes de empezar.
  • Debe ser Propietario de la suscripción para recibir el control de acceso adecuado necesario para usar el proyecto.

Importante

Los elementos marcados (versión preliminar) en este artículo se encuentran actualmente en versión preliminar pública. Esta versión preliminar se ofrece sin acuerdo de nivel de servicio y no se recomienda para las cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas. Para más información, consulte Términos de uso complementarios para las versiones preliminares de Microsoft Azure.

Empezar con un proyecto y un modelo

  1. Inicie sesión en Portal de la Fundición de IA de Azure.

  2. En la página principal, busque y seleccione el modelo gpt-4o .

    Captura de pantalla que muestra cómo empezar a crear un agente en el portal de Azure AI Foundry.

  3. En la página de detalles del modelo, seleccione Usar este modelo.

  4. Rellene un nombre que se usará para el proyecto y seleccione Crear.

  5. Una vez creados los recursos, se encuentra en el área de juegos de chat.

Configuración del entorno

No es necesario instalar el portal de Azure AI Foundry.

Ejecución de una finalización de chat

Las conversaciones por chat son la piedra angular de las aplicaciones de inteligencia artificial. Con finalizaciones de chat, puede enviar una lista de mensajes y obtener una respuesta del modelo.

  1. En el área de juegos de chat, rellene el mensaje y seleccione el botón Enviar .
  2. El modelo devuelve una respuesta en el panel Respuesta .

Chatear con un agente

Los agentes tienen funcionalidades eficaces mediante el uso de herramientas. Empiece por chatear con un agente.

Cuando esté listo para probar un agente, se creará un agente predeterminado para usted automáticamente. Para chatear con este agente:

  1. En el panel izquierdo, seleccione Áreas de juegos.
  2. En la tarjeta de Área de juegos de agentes, seleccione Vamos.
  3. Agregue instrucciones, como "Usted es un asistente de escritura útil".
  4. Comience a hablar con su agente, por ejemplo, "Escriba un poema sobre flores".

Adición de archivos al agente

Ahora vamos a agregar una herramienta de búsqueda de archivos que nos permite realizar la recuperación de conocimientos.

  1. En el panel Configuración del agente, desplácese hacia abajo si es necesario para encontrar Conocimiento.
  2. Selecciona Agregar.
  3. Seleccione Archivos para cargar el archivo product_info_1.md .
  4. Seleccione Seleccionar archivos locales en Agregar archivos.
  5. Seleccione Cargar y guardar.
  6. Cambie las instrucciones de los agentes, como "Usted es un asistente útil y puede buscar información de los archivos cargados".
  7. Haga una pregunta, por ejemplo, "Hola, ¿qué productos de Contoso conoces?"
  8. Para agregar más archivos, seleccione ... en AgentVectorStore y, a continuación, seleccione Administrar.

Limpieza de recursos

Si ya no los necesita, elimine el grupo de recursos asociado al proyecto.

En el portal de Azure AI Foundry, seleccione el nombre del proyecto en la esquina superior derecha. A continuación, seleccione el vínculo del grupo de recursos para abrirlo en Azure Portal. Seleccione el grupo de recursos y, a continuación, seleccione Eliminar. Confirme que desea eliminar el grupo de recursos.

Introducción a la biblioteca cliente de Azure AI Foundry