Получение дополненного поколения с помощью потока запроса Машинное обучение Azure (предварительная версия)

Внимание

Эта функция сейчас доступна в виде общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания. Ее не следует использовать для производственных рабочих нагрузок. Некоторые функции могут не поддерживаться или их возможности могут быть ограничены.

Дополнительные сведения см. в статье Дополнительные условия использования Предварительных версий Microsoft Azure.

Извлечение дополненного поколения (RAG) — это шаблон, который работает с предварительно обученными крупными языковыми моделями (LLM) и собственными данными для создания ответов. Теперь RAG можно внедрять в поток запросов машинного обучения Azure. Сейчас поддержка RAG находится в общедоступной предварительной версии.

В этой статье перечислены некоторые преимущества RAG, техническая информация и описание поддержки RAG в Машинное обучение Azure.

Примечание.

Новые понятия LLM и RAG? Этот видеоролик из презентации Майкрософт предлагает простое объяснение.

Зачем использовать RAG?

Традиционно вы обучаете базовую модель с данными на определенный момент времени, чтобы обеспечить ее эффективность в выполнении конкретных задач и адаптации к нужному домену. Однако иногда необходимо работать с более новыми или более текущими данными. Два подхода могут дополнить базовую модель: тонкой настройкой или дальнейшим обучением базовой модели с новыми данными или RAG, которая использует инженерию запросов для дополнения или руководства моделью в режиме реального времени.

Точное изменение подходит для непрерывной адаптации домена, что позволяет значительно улучшить качество модели, но часто влечет за собой более высокие затраты. И наоборот, RAG предлагает альтернативный подход, позволяя использовать ту же модель, что и подсистема рассудок по новым данным, предоставленным в запросе. Этот метод позволяет обучению в контексте без необходимости дорогостоящих тонкой настройки, что позволяет предприятиям эффективнее использовать LLM.

RAG позволяет предприятиям достичь настраиваемых решений при сохранении релевантности данных и оптимизации затрат. При внедрении RAG компании могут использовать возможности по поводу LLM, используя существующие модели для обработки и создания ответов на основе новых данных. RAG упрощает периодические обновления данных без необходимости точной настройки, упрощая интеграцию LLM с предприятиями.

  • Предоставление дополнительных данных в виде директивы или запроса на LLM
  • Добавление компонента проверки фактов в существующих моделях
  • Обучение модели на актуальных данных без дополнительных затрат на время и затраты, связанные с тонкой настройкой
  • Обучение бизнес-данных

Технический обзор использования RAG для больших языковых моделей (LLM)

В получении информации RAG — это подход, позволяющий использовать возможности LLM с собственными данными. Включение LLM для доступа к пользовательским данным включает следующие действия. Сначала разделяют большие данные на удобные для обработки части. Во-вторых, преобразуйте блоки в формат, доступный для поиска. В-третьих, сохраните преобразованные данные в расположении, позволяющем эффективному доступу. Кроме того, сохраните соответствующие метаданные для цитат или ссылок, когда LLM предоставляет ответы.

Снимок экрана: схема технического обзора llM, который проходит по шагам тряпки.

Давайте рассмотрим схему более подробно.

  • Исходные данные: эти данные существуют в файле или папке на компьютере, файле в облачном хранилище, ресурсе данных Машинного обучения Azure, репозитории Git или базе данных SQL.

  • Блокирование данных: преобразуйте данные в вашем источнике в текстовый формат. Например, документы word или PDF-файлы должны быть открыты и преобразованы в текст. Затем разбейте текст на меньшие части.

  • Преобразование текста в векторы: называется эмбеддингами. Векторы — это числовые представления концепций, преобразованные в числовые последовательности. Такое преобразование упрощает понимание компьютером связей между понятиями.

  • Связи между исходными данными и внедрением. Сохраните эти сведения в виде метаданных на создаваемых блоках. Используйте его, чтобы помочь LLM создавать ссылки при создании ответов.

RAG с Машинное обучение Azure (предварительная версия)

Машинное обучение Azure обеспечивает интеграцию RAG с Azure OpenAI в Microsoft Foundry Models для крупных языковых моделей и векторизации. Он поддерживает Faiss и Поиск ИИ Azure (ранее Cognitive Search) в качестве векторных хранилищ. Она также поддерживает предложения с открытым кодом, инструменты и платформы, такие как LangChain для фрагментирования данных.

Для реализации RAG необходимо выполнить несколько ключевых требований. Во-первых, отформатируйте данные таким образом, чтобы обеспечить эффективный поиск перед отправкой в LLM, что в конечном итоге снижает потребление токенов. Чтобы обеспечить эффективность RAG, регулярно обновляйте данные на периодической основе. Кроме того, возможность оценить выходные данные из LLM с помощью ваших данных позволяет измерять эффективность ваших методов. Машинное обучение Azure не только позволяет легко приступить к работе с этими аспектами, но и позволяет улучшить и создать RAG. предложения Машинное обучение Azure:

  • Примеры запуска сценариев Q&A на основе RAG.
  • Интерфейс пользовательского интерфейса на основе мастера для создания данных и управления ими и их включения в потоки запросов.
  • Возможность измерять и улучшать рабочие процессы RAG, включая создание тестовых данных, автоматическое создание запроса и визуализированные метрики оценки запросов.
  • Расширенные сценарии с дополнительным контролем с помощью новых встроенных компонентов RAG для создания пользовательских конвейеров в записных книжках.
  • Интерфейс кода, который позволяет использовать данные, созданные с помощью открытый код предложений, таких как LangChain.
  • Простая интеграция рабочих процессов RAG в рабочие процессы MLOps с помощью конвейеров и заданий.

Заключение

Машинное обучение Azure позволяет включить RAG в решение ИИ с помощью студии машинного обучения Azure или написания кода с помощью конвейеров машинного обучения Azure. Он предлагает несколько ценных дополнений, таких как возможность измерения и улучшения рабочих процессов RAG, генерацию тестовых данных, автоматическое создание подсказок и визуализацию метрик оценки подсказок. Это позволяет интегрировать рабочие процессы RAG в рабочие процессы MLOps с помощью конвейеров. Вы также можете использовать данные с открытый код предложениями, такими как LangChain.

Следующие шаги

Использование векторных хранилищ с Машинное обучение Azure (предварительная версия)

Создание векторного индекса в потоке запросов Машинное обучение Azure (предварительная версия)