Поделиться через


Оценка моделей и приложений создания ИИ с помощью Azure AI Foundry

Если вы хотите тщательно оценить производительность создаваемых моделей и приложений ИИ при применении к существенному набору данных, можно инициировать процесс оценки. Во время этой оценки модель или приложение тестируются с помощью заданного набора данных, а его производительность количественно измеряется как с математическими метриками, так и с помощью ИИ. Этот запуск оценки предоставляет подробные сведения о возможностях и ограничениях приложения.

Для выполнения этой оценки можно использовать функцию оценки на портале Azure AI Foundry, комплексную платформу, которая предлагает средства и функции для оценки производительности и безопасности модели создания искусственного интеллекта. На портале Azure AI Foundry вы можете регистрировать, просматривать и анализировать подробные метрики оценки.

В этой статье вы узнаете, как создать выполнение оценки для модели или тестового набора данных со встроенными метриками оценки из пользовательского интерфейса Azure AI Foundry. Для повышения гибкости можно установить пользовательский поток оценки и использовать пользовательскую функцию оценки . Вы также можете использовать пользовательскую функцию оценки для выполнения пакетного выполнения без какой-либо оценки.

Предпосылки

  • Тестовый набор данных в одном из следующих форматов: CSV или JSON Lines (JSONL).
  • Подключение Azure OpenAI. Развертывание одной из этих моделей: модель GPT-3.5, модель GPT-4 или модель Davinci. Требуется только при выполнении оценки качества с поддержкой ИИ.

Создание оценки со встроенными метриками оценки

Выполнение оценки позволяет создавать выходные данные метрик для каждой строки данных в тестовом наборе данных. Вы можете выбрать одну или несколько метрик оценки, чтобы оценить выходные данные из различных аспектов. Вы можете создать процесс оценки на страницах каталога оценки или модели в портале Azure AI Foundry. Откроется мастер настройки оценки, показывающий, как запустить выполнение оценки.

На странице оценки

В раскрывающемся меню слева выберите "Оценка>создать новую оценку".

Снимок экрана: кнопка для создания новой оценки.

На странице каталога моделей

  1. В раскрывающемся меню слева выберите каталог моделей.

  2. Перейдите к модели.

  3. Перейдите на вкладку "Тесты".

  4. Выберите "Попробовать с собственными данными". Этот вариант открывает панель оценки модели, где можно провести оценку для выбранной модели.

    Снимок экрана: кнопка

Целевой объект оценки

При запуске оценки на странице "Оценка " сначала необходимо выбрать целевой объект оценки. Указав соответствующий целевой объект оценки, мы можем адаптировать оценку к определенной природе приложения, обеспечивая точность и соответствующие метрики. Мы поддерживаем два типа целевых показателей оценки:

  • Точно настроенная модель: этот выбор оценивает выходные данные, созданные выбранной моделью и определяемым пользователем запросом.
  • Набор данных: выходные данные, созданные моделью, уже находятся в тестовом наборе данных.

Снимок экрана: выбор целевого объекта оценки.

Настройка тестовых данных

При вводе мастера создания оценки можно выбрать из предварительно созданных наборов данных или отправить новый набор данных для оценки. Тестовый набор данных должен иметь созданные моделью выходные данные, которые будут использоваться для оценки. Предварительный просмотр тестовых данных отображается на правой панели.

  • Выберите существующий набор данных: можно выбрать тестовый набор данных из установленной коллекции наборов данных.

    Снимок экрана: параметр выбора тестовых данных при создании новой оценки.

  • Добавьте новый набор данных: отправьте файлы из локального хранилища. Поддерживаются только форматы ФАЙЛОВ CSV и JSONL. Предварительный просмотр тестовых данных отображается на правой панели.

    Снимок экрана: параметр отправки файла, который можно использовать при создании новой оценки.

Настройка условий тестирования

Мы поддерживаем три типа метрик, курируемых корпорацией Майкрософт, для упрощения комплексной оценки приложения:

  • Качество ИИ (СИ) — эти метрики оценивают общее качество и согласованность созданного содержимого. Для того чтобы запустить эти метрики, вам необходимо развертывание модели для их оценки.
  • Качество ИИ (NLP): эти метрики обработки естественного языка (NLP) являются математическими, и они также оценивают общее качество созданного содержимого. Для них часто требуются данные о реальных значениях, но они не требуют развертывания модели для оценки.
  • Метрики риска и безопасности: эти метрики сосредоточены на выявлении потенциальных рисков содержимого и обеспечении безопасности созданного содержимого.

Снимок экрана, на котором показано, как добавить критерии тестирования.

При добавлении критериев тестирования различные метрики будут использоваться в рамках оценки. Вы можете обратиться к таблице для полного списка метрик, для которых мы предлагаем поддержку в каждом сценарии. Дополнительные сведения о определениях метрик и их вычислении см. в разделе "Что такое оценщики?".

Качество ИИ (СИ) Качество ИИ (NLP) Метрики риска и безопасности
Подобие, релевантность, согласованность, fluency, GPT сходства F1 score, ROUGE score, BLEU score, GLEU score, METEOR score (оценочные метрики) Содержимое, связанное с самостоятельной вредом, ненавистное и несправедливое содержимое, насильственное содержимое, сексуальное содержимое, защищенный материал, непрямая атака

При выполнении оценки качества с поддержкой ИИ необходимо указать модель GPT для процесса вычисления или оценки.

Снимок экрана, на котором показана оценочная шкала Лайкерта с метриками качества ИИ (искусственный интеллект), перечисленными в предустановках.

Метрики качества ИИ (NLP) — это математически основанные измерения, которые оценивают производительность приложения. Они часто требуют данных истины для вычисления. ROUGE — это семейство метрик. Для вычисления показателей можно выбрать тип ROUGE. Различные типы метрик ROUGE предлагают способы оценки качества создания текста. ROUGE-N измеряет перекрытие n-граммов между кандидатом и справочными текстами.

Снимок экрана: сходство текста с метриками качества ИИ (NLP), перечисленными в предустановках.

Для оценки риска и безопасности вам не нужно организовывать развертывание. Портал Azure AI Foundry подготавливает модель GPT-4, которая может генерировать оценки степени риска содержания и соответствующие объяснения, чтобы вы могли оценить ваше приложение на предмет потенциальных вредов, связанных с содержанием.

Замечание

Метрики риска и безопасности с поддержкой ИИ размещаются в оценках безопасности Azure AI Foundry и доступны только в следующих регионах: Восточная часть США 2, Центральная Франция, Южная Великобритания, Центральная Швеция.

Снимок экрана, на котором показана метрика Насильственного содержимого, которая является одной из метрик риска и безопасности.

Осторожность

Пользователи, которые ранее управляли развертываниями моделей и выполняли оценки с помощью, oai.azure.comа затем подключены к платформе разработчика Azure AI Foundry, имеют эти ограничения при использовании ai.azure.com:

  • Эти пользователи не могут просматривать свои оценки, созданные с помощью API OpenAI Azure. Чтобы просмотреть эти оценки, они должны вернуться в oai.azure.com.
  • Эти пользователи не могут использовать API OpenAI Azure для выполнения вычислений в Azure AI Foundry. Вместо этого они должны продолжать использовать oai.azure.com для этой задачи. Однако они могут использовать вычислители Azure OpenAI, доступные непосредственно в Azure AI Foundry (ai.azure.com) в параметре для создания оценки набора данных. Возможность тонкой настройки оценки модели не поддерживается, если развертывание является миграцией из Azure OpenAI в Azure AI Foundry.

Для сценария загрузки набора данных и использования собственного хранилища существует несколько требований к конфигурации:

  • Проверка подлинности учетной записи должна осуществляться через Microsoft Entra ID.
  • Хранилище должно быть добавлено в учетную запись. Добавление его в проект приводит к ошибкам службы.
  • Пользователи должны добавить свой проект в учетную запись хранения с помощью управления доступом на портале Azure.

Дополнительные сведения о создании оценок с помощью оценщиков OpenAI в хабе Azure OpenAI см. в статье Как использовать Azure OpenAI в оценке моделей Azure AI Foundry.

Сопоставление данных

Сопоставление данных для оценки. Для каждой добавленной метрики необходимо указать, какие столбцы данных в наборе данных соответствуют входным данным, необходимым в оценке. Различные метрики оценки требуют различных типов входных данных для точных вычислений.

Во время оценки ответ модели оценивается по ключевым входным данным, таким как:

  • Запрос: обязательный для всех метрик.
  • Контекст: необязательно.
  • Эталонные данные: необязательны, но требуются для оценки качества ИИ (NLP).

Эти сопоставления обеспечивают точное выравнивание данных и критериев оценки.

Снимок экрана, отображающий сопоставление запроса, контекста и эталона с входным данным для оценки.

Требования к метрику запросов и ответов

Рекомендации по конкретным требованиям сопоставления данных для каждой метрики см. в этой таблице:

Единица измерения Запрос Ответ Контекст Земля истина
Обоснованность Обязательный: Str Обязательный: Str Обязательный: Str Не применяется
Согласованность Обязательный: Str Обязательный: Str Не применяется Не применяется
Беглость Обязательный: Str Обязательный: Str Не применяется Не применяется
Актуальность Обязательный: Str Обязательный: Str Обязательный: Str Не применяется
Сходство GPT Обязательный: Str Обязательный: Str Не применяется Обязательный: Str
Оценка F1 Не применяется Обязательный: Str Не применяется Обязательный: Str
Оценка BLEU Не применяется Обязательный: Str Не применяется Обязательный: Str
Оценка GLEU Не применяется Обязательный: Str Не применяется Обязательный: Str
ОЦЕНКА МЕТЕОРА Не применяется Обязательный: Str Не применяется Обязательный: Str
Оценка ROUGE Не применяется Обязательный: Str Не применяется Обязательный: Str
Контент, связанный с самоповреждением Обязательный: Str Обязательный: Str Не применяется Не применяется
Ненавистное и несправедливое содержимое Обязательный: Str Обязательный: Str Не применяется Не применяется
Насильственное содержимое Обязательный: Str Обязательный: Str Не применяется Не применяется
Сексуальное содержимое Обязательный: Str Обязательный: Str Не применяется Не применяется
Защищаемый материал Обязательный: Str Обязательный: Str Не применяется Не применяется
Непрямая атака Обязательный: Str Обязательный: Str Не применяется Не применяется
  • Запрос: запрос, запрашивающий конкретные сведения.
  • Ответ: ответ на запрос, созданный моделью.
  • Контекст: источник, на который основан ответ. (Пример: основные документы.)
  • Эталонный ответ: ответ на запрос, составленный человеком, который служит истинным ответом.

Проверка и завершение

После завершения всех необходимых конфигураций можно указать необязательное имя для оценки. Затем можно просмотреть выполнение оценки и выбрать Отправить, чтобы отправить результаты.

Снимок экрана: страница проверки для создания новой оценки.

Тонко настроенная оценка модели

Чтобы создать новую оценку для выбранного развертывания модели, можно использовать модель GPT для создания примеров вопросов или выбрать из установленной коллекции наборов данных.

Снимок экрана, на котором показано, как выбрать источник данных в разделе

Настройка тестовых данных для точно настроенной модели

Настройте тестовый набор данных, используемый для оценки. Этот набор данных отправляется в модель для создания ответов для оценки. У вас есть два варианта настройки тестовых данных:

  • Создание примера вопросов
  • Использование существующего набора данных (или отправка нового набора данных)
Создание примера вопросов

Если у вас нет набора данных, который легко доступен и требуется выполнить оценку с небольшим примером, выберите развертывание модели, которую вы хотите оценить на основе выбранного раздела. Поддерживаются модели Azure OpenAI и другие открытые модели, совместимые с бессерверным развертыванием API, например с моделями семейства Meta Llama и Phi-3.

Этот раздел помогает адаптировать созданное содержимое к интересующей вас области. Запросы и ответы создаются в режиме реального времени, и их можно повторно создать по мере необходимости.

Используйте ваш набор данных

Вы также можете выбрать из установленной коллекции наборов данных или отправить новый набор данных.

Снимок экрана: выбор источника данных и выделения с помощью существующего набора данных.

Выбор метрик оценки

Чтобы настроить критерии тестирования, нажмите кнопку "Далее". При выборе условий добавляются метрики и необходимо сопоставить столбцы набора данных с необходимыми полями для оценки. Эти сопоставления обеспечивают точное выравнивание данных и критериев оценки.

Выбрав нужные критерии теста, можно просмотреть оценку, при необходимости изменить имя оценки, а затем нажмите кнопку "Отправить". Перейдите на страницу оценки, чтобы просмотреть результаты.

Снимок экрана с опцией оценки проверки.

Замечание

Созданный набор данных сохраняется в хранилище BLOB-объектов проекта после создания ознакомительного запуска.

Просмотр и управление вычислителями в библиотеке оценщиков

Сведения и состояние оценщиков можно увидеть в одном месте в библиотеке оценщиков. Вы можете просматривать и управлять оценщиками, курируемыми компанией Майкрософт.

Библиотека вычислителя также включает управление версиями. При необходимости можно сравнить различные версии работы, восстановить предыдущие версии и упростить совместную работу с другими пользователями.

Чтобы использовать библиотеку вычислителя на портале Azure AI Foundry, перейдите на страницу оценки проекта и перейдите на вкладку библиотеки оценки.

Снимок экрана, на котором показана страница выбора оценщиков из библиотеки оценщика.

Чтобы просмотреть дополнительные сведения, можно выбрать имя вычислителя. Вы можете просмотреть имя, описание и параметры, а также проверить все файлы, связанные с оценщиком. Ниже приведены некоторые примеры оценщиков, курируемых корпорацией Майкрософт.

  • Для оценки производительности и качества, курируемых корпорацией Майкрософт, можно просмотреть запрос заметки на странице сведений. Эти запросы можно адаптировать к собственному варианту использования. Измените параметры или критерии в соответствии с вашими данными и целями в пакете SDK для оценки ИИ Azure. Например, можно выбрать Groundedness-Evaluator и проверить файл запроса, который показывает, как мы вычисляем метрику.
  • Для оценщиков рисков и безопасности, курируемых корпорацией Майкрософт, можно увидеть определение метрик. Например, вы можете выбрать "Оценщик контента, связанного с самоповреждением", чтобы узнать, что это означает, и понять, как корпорация Майкрософт определяет уровни серьезности.

Узнайте больше о том, как оценить созданные приложения ИИ: