Поделиться через


Краткое руководство. Начало работы с Майкрософт Foundry (проекты Центра) (классические)

Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry. Дополнительные сведения о новом портале.

Замечание

Ссылки в этой статье могут открывать содержимое в новой документации Майкрософт Foundry вместо классической документации Foundry, которую вы просматриваете в данный момент.

Подсказка

Альтернативное быстрое руководство доступно: Быстрый старт: начало работы с Майкрософт Foundry (проекты Foundry).

В этом кратком руководстве описывается настройка локальной среды для проектов на основе концентраторов, развертывание модели и создание простого скрипта трассировки или оцениваемого чата.

Предпосылки

  • подписка Azure.
  • Существующий концентратор проект (или создайте его). Если нет, рассмотрите возможность использования проекта Foundry для быстрого старта.

Настройка среды разработки

  1. Установите необходимые компоненты (Python, Azure CLI, имя входа).
  2. Установка пакетов:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Для различных типов проектов требуются разные версии azure-ai-projects. Держите каждый проект в собственной изолированной среде, чтобы избежать конфликтов.

Развертывание модели

  1. Портал: войти в портал, открыть проект хаба.
  2. Каталог моделей: выберите gpt-4o-mini.
  3. Используйте эту модель >, чтобы она приняла имя развертывания по умолчанию >.
  4. После успешного выполнения: откройте на игровой площадке, чтобы проверить.

Создание приложения чата

Создайте chat.py с примером кода:

Подсказка

Код использует пакет SDK Azure AI Projects 1.x и несовместим с Azure проектами ИИ 2.x. Установите правильную версию azure-ai-projects==1.0.0b10 для использования с кодом в этой статье.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Вставьте "строка подключения" из раздела "Обзор" вашего проекта (скопируйте, замените заполнитель в коде).

Запуск:

python chat.py

Добавить шаблоны подсказок

Добавьте get_chat_response с помощью шаблона Mustache (см. пример chat-template.py), а затем вызовите с сообщениями пользователя или контекста.

Запустите еще раз, чтобы просмотреть шаблонный ответ.

Очистите ресурсы

Удалите развертывание или проект по завершении, чтобы избежать расходов.

Следующий шаг

Быстрый старт: Начало работы с Foundry (проекты Foundry).