Если вы не можете найти ответы на ваши вопросы в этом документе, и вам по-прежнему нужна помощь в руководстве по поддержке служб искусственного интеллекта Azure. Azure OpenAI является частью служб ИИ Azure.
Данные и конфиденциальность
Используете ли вы данные моей компании для обучения какой-либо из моделей?
Azure OpenAI не использует данные клиента для переобучения моделей. Дополнительные сведения см. в разделе Гид по данным, конфиденциальности и безопасности Azure OpenAI.
Общие
Поддерживает ли Azure OpenAI пользовательские заголовки API? Мы добавим дополнительные пользовательские заголовки к нашим запросам API и видим ошибки сбоя HTTP 431.
Наши текущие API позволяют выполнять до 10 пользовательских заголовков, которые передаются через конвейер и возвращаются. Мы заметили, что некоторые клиенты теперь превышают это число заголовков, что приводит к ошибкам HTTP 431. Для этой ошибки не существует решения, кроме уменьшения объема заголовка. В будущих версиях API мы больше не будем передавать пользовательские заголовки. Мы рекомендуем клиентам не зависеть от пользовательских заголовков в будущих системных архитектурах.
Работает ли Azure OpenAI с последней библиотекой Python, выпущенной OpenAI (версия>=1.0)?
Azure OpenAI поддерживается последним выпуском библиотеки OpenAI Python (версия>=1.0). Однако важно отметить, что миграция используемой базы openai migrate
кода не поддерживается и не будет работать с кодом, предназначенным для Azure OpenAI.
Я не могу найти GPT-4 Turbo Preview, где это?
GPT-4 Turbo Preview — это gpt-4
модель (1106-preview). Чтобы развернуть эту модель, в разделе "Развертывания" выберите gpt-4. Для версии модели выберите 1106-preview. Чтобы проверить, какие регионы доступна эта модель, перейдите на страницу моделей.
Поддерживает ли Azure OpenAI GPT-4?
Azure OpenAI поддерживает последние модели GPT-4. Он поддерживает как GPT-4, так и GPT-4-32K.
Как возможности Azure OpenAI сравниваются с OpenAI?
Служба Azure OpenAI предоставляет клиентам расширенный язык ИИ с помощью моделей OpenAI GPT-3, Codex и DALL-E с обещанием безопасности и предприятия Azure. Azure OpenAI codevelops API с помощью OpenAI, обеспечивая совместимость и плавное переход с одного на другое.
С помощью Azure OpenAI клиенты получают возможности безопасности Microsoft Azure, выполняя те же модели, что и OpenAI.
Поддерживает ли Azure OpenAI виртуальные сети и частные конечные точки?
Да, в рамках служб ИИ Azure Azure OpenAI поддерживает виртуальные сети и частные конечные точки. Дополнительные сведения см. в руководстве по виртуальным сетям служб ИИ Azure.
Поддерживают ли в настоящее время модели GPT-4 входные данные изображения?
Нет, GPT-4 разработан OpenAI для мультимодальных, но в настоящее время поддерживаются только текстовые и выходные данные.
Разделы справки применить к новым вариантам использования?
Ранее процесс добавления новых вариантов использования требовал от клиентов повторного применения к службе. Теперь мы выпускаем новый процесс, позволяющий быстро добавлять новые варианты использования в службу. Этот процесс следует установленному процессу ограниченного доступа в службах ИИ Azure. Существующие клиенты могут подтвердить все и все новые варианты использования здесь. Обратите внимание, что это необходимо в любое время, когда вы хотите использовать службу для нового варианта использования, к которому вы изначально не применялись.
Я пытаюсь использовать внедрение и получил ошибку "InvalidRequestError: Слишком много входных данных. Максимальное число входных данных равно 16". Как это устранить?
Эта ошибка обычно возникает при попытке отправить пакет текста для внедрения в один запрос API в виде массива. В настоящее время Azure OpenAI поддерживает только массивы внедрения с несколькими входными данными для text-embedding-ada-002
модели версии 2. Эта версия модели поддерживает массив, состоящий из до 16 входных данных на запрос API. Массив может содержать до 8 191 токенов длиной при использовании модели text-embedding-ada-002 (версия 2).
Где можно ознакомиться с лучшими способами использования Azure OpenAI для получения ответов, которые я хочу от службы?
Ознакомьтесь с нашим введением, чтобы предложить инженерию. Хотя эти модели являются мощными, их поведение также очень чувствительны к запросам, которые они получают от пользователя. В связи с этим важно развить навыки правильного построения подсказок. После завершения работы с введением ознакомьтесь со статьей о системных сообщениях.
Моя гостевая учетная запись была предоставлена доступ к ресурсу Azure OpenAI, но я не могу получить доступ к этим ресурсам в Azure AI Studio. Разделы справки включить доступ?
Это ожидаемое поведение при использовании интерфейса входа по умолчанию для Azure AI Studio.
Чтобы получить доступ к Azure AI Studio из гостевой учетной записи, которая была предоставлена доступ к ресурсу Azure OpenAI:
- Откройте частный сеанс браузера и перейдите к ней https://ai.azure.com.
- Вместо того чтобы сразу вводить учетные данные гостевой учетной записи, выберите
Sign-in options
- Теперь выберите вход в организацию
- Введите доменное имя организации, предоставив гостевой учетной записи доступ к ресурсу Azure OpenAI.
- Теперь войдите с учетными данными гостевой учетной записи.
Теперь вы сможете получить доступ к ресурсу через Azure AI Studio.
Кроме того, если вы вошли в портал Azure из области обзора ресурса Azure OpenAI, можно выбрать "Перейти в Azure AI Studio", чтобы автоматически войти с соответствующим контекстом организации.
Когда я спрашиваю GPT-4, какую модель она работает, она говорит мне, что она работает GPT-3. Почему это происходит?
Модели Azure OpenAI (включая GPT-4) не могут правильно определить, какая модель выполняется.
Почему так происходит?
В конечном счете, модель выполняет прогнозирование следующего токена в ответ на ваш вопрос. Модель не имеет собственной возможности запрашивать версию модели в настоящее время, чтобы ответить на ваш вопрос. Чтобы ответить на этот вопрос, вы всегда можете перейти к развертываниям> управления>Azure AI Studio>и обратиться к столбцу имени модели, чтобы подтвердить, какая модель в настоящее время связана с заданным именем развертывания.
Вопросы: "Какая модель выполняется?" или "Что такое последняя модель из OpenAI?" создает аналогичные результаты качества, чтобы задать модель, какую погоду будет сегодня. Он может возвращать правильный результат, но чисто по случайности. В собственной модели нет реальных сведений, отличных от того, что было частью своих обучающих и обучающих данных. В случае GPT-4 по состоянию на август 2023 года базовые данные обучения идут только до сентября 2021 года. GPT-4 не был выпущен до марта 2023 года, поэтому запрет на выпуск новой версии с обновленными данными обучения или новую версию, которая настроена для ответа на эти конкретные вопросы, ожидается поведение GPT-4, чтобы ответить на то, что GPT-3 является последним выпуском модели из OpenAI.
Если вы хотите помочь модели на основе GPT точно отвечать на вопрос "Какая модель выполняется?", вам потребуется предоставить эту информацию модели с помощью таких методов, как проектирование системного сообщения модели, извлечение дополненного поколения (RAG), который используется Azure OpenAI на ваших данных, где актуальная информация внедряется в системное сообщение во время запроса, или с помощью точной настройки, где можно точно настроить определенные версии модели, чтобы ответить на этот вопрос определенным образом на основе версии модели.
Чтобы узнать больше о том, как модели GPT обучены и работают, мы рекомендуем смотреть разговор Андрея Карпати из сборки 2023 на состоянии GPT.
Я спросил модель, когда ее знания отрезаны, и она дала мне другой ответ, чем на странице модели Azure OpenAI. Почему это происходит?
Это ожидаемое поведение. Модели не могут отвечать на вопросы о себе. Если вы хотите узнать, когда данные об обучении модели будут отрезаны, ознакомьтесь со страницей моделей.
Я спросил модель вопрос о том, что произошло недавно до отсечения знаний, и он получил ответ неправильно. Почему это происходит?
Это ожидаемое поведение. Во-первых, не гарантируется, что каждое недавнее событие было частью обучающих данных модели. И даже если информация была частью обучающих данных, без использования дополнительных методов, таких как извлечение дополненного поколения (RAG), чтобы помочь поставить ответы модели всегда вероятность возникновения незапланированных ответов. Как Azure OpenAI использует функцию данных, так и чат Bing используют модели Azure OpenAI в сочетании с получением дополненного поколения для дальнейшего реагирования на наземные модели.
Частота появления определенной части информации в обучающих данных также может повлиять на вероятность того, что модель будет реагировать определенным образом.
Спрашивая последнюю модель GPT-4 Turbo Preview о том, что изменилось недавно, как "Кто является премьер-министром Новой Зеландии?", скорее всего, приведет к сфабрикованным ответом Jacinda Ardern
. Тем не менее, спрашивая модель "Когда он Jacinda Ardern
отступил в качестве премьер-министра?" Как правило, дает точный ответ, демонстрирующий обучение знаний о данных, собираемых по крайней мере в январе 2023 года.
Таким образом, хотя можно проверить модель с вопросами, чтобы угадать ее отрезок знаний об обучении, страница модели является лучшим местом для проверки отсечения знаний модели.
Где получить доступ к сведениям о ценах для устаревших моделей, которые больше не доступны для новых развертываний?
Устаревшие сведения о ценах доступны с помощью скачиваемого PDF-файла. Для всех остальных моделей обратитесь на официальную страницу цен.
Разделы справки исправление InternalServerError — 500 — не удалось создать завершение, так как модель вызвала недопустимые выходные данные Юникода?
Вы можете свести к минимуму возникновение этих ошибок, уменьшая температуру запросов до менее 1 и обеспечивая использование клиента с логикой повторных попыток. Повторное презрение к запросу часто приводит к успешному ответу.
Мы заметили расходы, связанные с вызовами API, которые не завершили работу с кодом состояния 400. Почему вызовы API создают плату сбоем?
Если служба выполняет обработку, плата будет взиматься, даже если код состояния не выполнен (не 200). Распространенные примеры этого: ошибка 400 из-за фильтра содержимого или ограничения ввода или ошибки 408 из-за времени ожидания. Плата также будет взиматься при status 200
получении с помощью .finish_reason
content_filter
В этом случае запрос не имеет никаких проблем, но завершение, созданное моделью, было обнаружено нарушение правил фильтрации содержимого, что приводит к фильтрации завершения.
Если служба не выполняет обработку, плата не будет взиматься. Например, ошибка 401 из-за проверки подлинности или ошибки 429 из-за превышения предела скорости.
Получение доступа к Службе OpenAI Azure
Как получить доступ к Azure OpenAI?
Форма регистрации ограниченного доступа не требуется для доступа к большинству моделей Azure OpenAI. Дополнительные сведения см. на странице Ограниченного доступа Azure OpenAI.
Узнайте больше и где задавать вопросы
Где можно ознакомиться с последними обновлениями в Azure OpenAI?
Сведения о ежемесячных обновлениях см. на новой странице.
Где можно получить обучение, чтобы приступить к обучению и построить свои навыки вокруг Azure OpenAI?
Ознакомьтесь с нашим введением в учебный курс Azure OpenAI.
Где можно публиковать вопросы и просматривать ответы на другие распространенные вопросы?
- Мы рекомендуем публиковать вопросы в Microsoft Q&A.
- Кроме того, вы можете публиковать вопросы в Stack Overflow.
Где я иду в службу поддержки клиентов Azure OpenAI?
Azure OpenAI является частью служб ИИ Azure. Вы можете узнать обо всех вариантах поддержки служб ИИ Azure в руководстве по поддержке и вариантам справки.
Модели и тонкой настройки
Какие модели доступны?
Ознакомьтесь с руководством по доступности модели Azure OpenAI.
Где можно узнать, в каком регионе доступна модель?
Сведения о доступности для регионов см. в руководстве по доступности моделей Azure OpenAI.
Что такое соглашения об уровне обслуживания (соглашения об уровне обслуживания) в Azure OpenAI?
Мы предлагаем соглашение об уровне обслуживания доступности для всех ресурсов и соглашение об уровне обслуживания задержки для подготовленных управляемых развертываний. Дополнительные сведения о соглашении об уровне обслуживания для службы Azure OpenAI см . на странице соглашений об уровне обслуживания для веб-служб.
Разделы справки включить точную настройку? Создание настраиваемой модели неактивно в Azure AI Studio.
Чтобы успешно получить доступ к тонкой настройке, необходимо назначить участника OpenAI Cognitive Services. Даже у кого-то с разрешениями высокого уровня администратора службы по-прежнему потребуется явно установить эту учетную запись, чтобы получить доступ к тонкой настройке. Дополнительные сведения см. в руководстве по управлению доступом на основе ролей.
Какова разница между базовой моделью и точно настроенной моделью?
Базовая модель — это модель, которая не была настроена или настроена для конкретного варианта использования. Точно настроенные модели настраиваются в версиях базовых моделей, где вес модели обучен по уникальному набору запросов. Точно настроенные модели позволяют добиться лучших результатов в более широком количестве задач без необходимости предоставлять подробные примеры для обучения в контексте в рамках запроса завершения. Дополнительные сведения см. в нашем руководстве по тонкой настройке.
Что такое максимальное количество настраиваемых моделей, которые можно создать?
100
Почему было удалено мое точно настроенное развертывание модели?
Если в течение более 15 дней развертывается настраиваемая модель (точно настроенная) модель, в течение которой к ней не выполняются вызовы завершения или завершения чата, развертывание автоматически удаляется (и для этого развертывания не взимается дополнительная плата за размещение). Базовая настраиваемая модель остается доступной и может быть развернута в любое время. Чтобы узнать больше, ознакомьтесь с инструкциями.
Разделы справки развернуть модель с помощью REST API?
В настоящее время существуют два разных REST API, которые позволяют развертывать модель. Для последних функций развертывания модели, таких как возможность указывать версию модели во время развертывания для таких моделей, как text-embedding-ada-002 версии 2, используйте вызов REST API создания или обновления .
Можно ли использовать квоту для увеличения максимального предела маркера модели?
Нет, выделение маркеров квоты на минуту (TPM) не связано с максимальным ограничением маркера ввода модели. Ограничения входных маркеров модели определяются в таблице моделей и не влияют на изменения, внесенные в TPM.
GPT-4 Turbo с vision
Можно ли настроить возможности изображения в GPT-4?
Нет, в настоящее время мы не поддерживаем точную настройку возможностей образа GPT-4.
Можно ли использовать GPT-4 для создания образов?
Нет, можно использовать dall-e-3
для создания изображений и gpt-4-vision-preview
понимания изображений.
Какой тип файлов можно отправить?
В настоящее время поддерживается PNG (.png), JPEG (.jpeg и .jpg), WEBP (.webp) и неанимированные GIF (.gif).
Существует ли ограничение на размер изображения, который можно отправить?
Да, мы ограничиваем отправку изображений до 20 МБ на изображение.
Можно ли удалить отправленное изображение?
Нет, мы автоматически удалим образ после его обработки моделью.
Как использовать ограничения скорости для GPT-4 Turbo с работой Визуального зрения?
Мы обрабатываем изображения на уровне маркера, поэтому каждый образ, который мы обрабатываем, учитывается в сторону предела маркеров в минуту (TPM). Дополнительные сведения о формуле, используемой для определения количества маркеров на изображение, см. в разделе "Маркеры изображения".
Может ли GPT-4 Turbo с vision понять метаданные изображения?
Нет, модель не получает метаданные изображения.
Что произойдет, если мой образ неясный?
Если изображение неоднозначно или неясно, модель сделает все возможное, чтобы интерпретировать ее. Однако результаты могут быть менее точными. Хорошим правилом является то, что если средний человек не может видеть сведения на изображении на разрешениях, используемых в режиме низкого/высокого размера, то модель не может либо.
Каковы известные ограничения GPT-4 Turbo с Vision?
Ознакомьтесь с разделом ограничений gPT-4 Turbo с руководством по концепциям визуального зрения.
Я продолжаю получать усеченные ответы, когда я использую модели визуального зрения GPT-4 Turbo. Почему это произошло?
По умолчанию GPT-4 и GPT-4 vision-preview
turbo-2024-04-09
имеют max_tokens
значение 16. В зависимости от запроса это значение часто слишком низко и может привести к усеченным ответам. Чтобы устранить эту проблему, передайте большее max_tokens
значение в рамках запросов API завершения чата. GPT-4o по умолчанию — 4096 max_tokens.
Помощники
Храните ли вы какие-либо данные, используемые в API помощников?
Да. В отличие от API завершения чата, Помощники Azure OpenAI — это API с отслеживанием состояния, то есть он сохраняет данные. Существует два типа данных, хранящихся в API помощников:
- Сущности с отслеживанием состояния: потоки, сообщения и запуски, созданные во время использования помощников.
- Файлы: отправлено во время установки помощников или в рамках сообщения.
Где хранятся эти данные?
Данные хранятся в защищенной управляемой корпорацией Майкрософт учетной записи хранения, которая логически отделена.
Сколько времени хранятся эти данные?
Все используемые данные сохраняются в этой системе, если вы явно не удалите эти данные. Используйте функцию удаления с идентификатором потока, который требуется удалить. Очистка запуска на игровой площадке помощников не удаляет потоки, однако удаление их с помощью функции удаления не будет отображаться на странице потока.
Можно ли использовать собственное хранилище данных для использования с помощниками?
№ В настоящее время Помощники поддерживают только локальные файлы, отправленные в управляемое помощниками хранилище. Вы не можете использовать частную учетную запись хранения с помощниками.
Поддерживает ли Помощники шифрование ключей, управляемых клиентом (CMK)?
Сегодня мы поддерживаем CMK для потоков и файлов в помощниках. См. новую страницу доступных регионов для этой функции.
Используются ли мои данные корпорацией Майкрософт для обучения моделей?
№ Данные не используются для майкрософт, не используемых для обучения моделей. Дополнительные сведения см. в документации по ответственному ИИ.
Где хранятся данные географически?
Конечные точки Azure OpenAI Assistants являются региональными, а данные хранятся в том же регионе, что и конечная точка. Дополнительные сведения см. в документации по месту расположения данных Azure.
Как взимается плата за помощников?
- Затраты на вывод (входные и выходные данные) базовой модели, которую вы используете для каждого помощника (например gpt-4-0125). Если вы создали несколько помощников, вам будет взиматься плата за базовую модель, подключенную к каждому помощнику.
- Если вы включили средство интерпретатора кода. Например, если помощник вызывает интерпретатор кода одновременно в двух разных потоках, это создаст два сеанса интерпретатора кода, каждый из которых будет взиматься. Каждый сеанс по умолчанию активен в течение одного часа, что означает, что вы будете платить только один раз, если пользователь продолжает предоставлять инструкции интерпретатору кода в одном потоке до одного часа.
- Плата за поиск файлов взимается на основе используемого векторного хранилища.
Дополнительные сведения см. на странице цен.
Существует ли дополнительная цена или квота на использование помощников?
№ Все квоты применяются к использованию моделей с помощниками.
Поддерживает ли API Помощников модели, отличные от Azure OpenAI?
API помощников поддерживает только модели Azure OpenAI.
Общедоступен ли API помощников?
API Помощников в настоящее время находится в общедоступной предварительной версии. Будьте в курсе последних обновлений продуктов, регулярно посещая нашу страницу "Новые возможности".
Каковы некоторые примеры или другие ресурсы, которые можно использовать для получения сведений о помощниках?
Дополнительные сведения о начале работы и использовании помощников см. в статьях "Концептуальное" и краткое руководство. Вы также можете ознакомиться с примерами кода Azure OpenAI Assistants на сайте GitHub.
Веб-приложение
Как настроить опубликованное веб-приложение?
Вы можете настроить опубликованное веб-приложение в портал Azure. Исходный код опубликованного веб-приложения доступен на сайте GitHub, где можно найти сведения об изменении внешнего интерфейса приложения, а также инструкции по созданию и развертыванию приложения.
Перезаписывается ли веб-приложение при повторном развертывании приложения из Azure AI Studio?
Код приложения не будет перезаписан при обновлении приложения. Приложение будет обновлено, чтобы использовать ресурс Azure OpenAI, индекс поиска ИИ Azure (если вы используете Azure OpenAI в данных) и параметры модели, выбранные в Azure AI Studio без каких-либо изменений в внешнем виде или функциональности.
Использование данных
Что такое Azure OpenAI в данных?
Azure OpenAI для ваших данных — это функция Azure OpenAI Services, которая помогает организациям создавать настраиваемые аналитические сведения, содержимое и поиск с помощью назначенных источников данных. Он работает с возможностями моделей OpenAI в Azure OpenAI, чтобы обеспечить более точные и соответствующие ответы на запросы пользователей на естественном языке. Azure OpenAI на ваших данных можно интегрировать с существующими приложениями и рабочими процессами клиента, получать аналитические сведения о ключевых показателях производительности и легко взаимодействовать с пользователями.
Как получить доступ к Azure OpenAI на ваших данных?
Все клиенты Azure OpenAI могут использовать Azure OpenAI в данных с помощью Студии ИИ Azure и REST API.
Какие источники данных поддерживают Azure OpenAI?
Azure OpenAI в данных поддерживает прием из службы "Поиск ИИ Azure", Хранилище BLOB-объектов Azure и отправку локальных файлов. Дополнительные сведения об Azure OpenAI см. в концептуальной статье и кратком руководстве.
Сколько стоит использовать Azure OpenAI для ваших данных?
При использовании Azure OpenAI в данных затраты возникают при использовании службы "Поиск ИИ Azure", Хранилище BLOB-объектов Azure, веб-Служба приложений Azure, семантического поиска и моделей OpenAI. Дополнительные затраты на использование функции "ваши данные" в Azure AI Studio отсутствуют.
Как настроить или автоматизировать процесс создания индекса?
Вы можете подготовить индекс самостоятельно с помощью скрипта, предоставленного на сайте GitHub. С помощью этого скрипта будет создан индекс поиска ИИ Azure со всеми сведениями, необходимыми для лучшего использования данных, с документами, разделенными на управляемые блоки. Дополнительные сведения о том, как его запустить, см. в файле README с кодом подготовки данных.
Как обновить индекс?
Вы можете запланировать автоматическое обновление индекса или передать дополнительные данные в контейнер BLOB-объектов Azure и использовать его в качестве источника данных при создании нового индекса. Новый индекс будет содержать все данные в контейнере.
Какие типы файлов поддерживает Azure OpenAI в ваших данных?
Дополнительные сведения о поддерживаемых типах файлов см. в разделе "Использование данных ".
Отвечает ли ИИ, поддерживаемый Azure OpenAI на ваших данных?
Да, Azure OpenAI в данных входит в службу Azure OpenAI и работает с моделями , доступными в Azure OpenAI. Функции фильтрации содержимого и мониторинга злоупотреблений в Azure OpenAI по-прежнему применяются. Дополнительные сведения см. в обзоре методик ответственного искусственного интеллекта для моделей Azure OpenAI и заметки о прозрачности Для Azure OpenAI для получения дополнительных рекомендаций по использованию Azure OpenAI для ваших данных.
Существует ли ограничение маркера в системном сообщении?
Да, ограничение маркера в системном сообщении равно 400. Если системное сообщение имеет более 400 маркеров, остальные маркеры, превышающие первые 400, будут игнорироваться. Это ограничение применяется только к Azure OpenAI в функции данных.
Поддерживает ли Azure OpenAI вызов функции поддержки данных?
Azure OpenAI в данных в настоящее время не поддерживает вызов функции.
Должен ли язык запросов и язык источника данных совпадать?
Запросы должны отправляться на том же языке данных. Данные могут находиться на любом из языков, поддерживаемых поиском ИИ Azure.
Если семантический поиск включен для ресурса поиска ИИ Azure, он будет автоматически применяться к Azure OpenAI на ваших данных в Azure AI Studio?
При выборе "Поиск ИИ Azure" в качестве источника данных можно применить семантический поиск. Если выбрать "Контейнер BLOB-объектов Azure" или "Отправить файлы" в качестве источника данных, можно создать индекс как обычно. После этого вы будете повторно отправлять данные с помощью параметра "Поиск ИИ Azure", чтобы выбрать тот же индекс и применить семантический поиск. Затем вы будете готовы общаться с данными с применением семантического поиска.
Как добавить векторные внедрения при индексировании данных?
При выборе параметра "Контейнер BLOB-объектов Azure", "Поиск ИИ Azure" или "Отправить файлы" в качестве источника данных можно также выбрать развертывание модели внедрения Ada для использования при приеме данных. При этом будет создан индекс поиска ИИ Azure с векторными внедрениями.
Почему сбой создания индекса после добавления модели внедрения?
Создание индекса может завершиться ошибкой при добавлении внедренных в индекс данных, если ограничение скорости развертывания модели внедрения Ada слишком низко или если у вас очень большой набор документов. Этот скрипт можно использовать на сайте GitHub для создания индекса с внедрением вручную.
Обязательство клиента по авторским правам
Разделы справки получить покрытие в соответствии с обязательством клиента об авторских правах?
Обязательство по защите прав клиентов — это подготовка к включению в условия 1 декабря 2023 г., условия продукта Майкрософт, описывающие обязательство корпорации Майкрософт защищать клиентов от определенных утверждений интеллектуальной собственности сторонних производителей, относящихся к выходному содержимому. Если предметом утверждения является выходное содержимое, созданное службой Azure OpenAI (или любым другим защищенным продуктом, который позволяет клиентам настраивать системы безопасности), то для получения покрытия клиент должен реализовать все способы устранения рисков, необходимые документации по Службе Azure OpenAI, в предложении, которое доставляло выходное содержимое. Необходимые меры по устранению рисков описаны здесь и обновляются на постоянной основе. Для новых служб, функций, моделей или вариантов использования новые требования CCC будут размещены и вступают в силу при запуске такой службы, функции, модели или варианта использования. В противном случае клиенты будут иметь шесть месяцев с момента публикации, чтобы реализовать новые способы устранения рисков для поддержания покрытия в рамках CCC. Если клиент тендерирует утверждение, клиенту потребуется продемонстрировать соответствие соответствующим требованиям. Эти способы устранения рисков необходимы для покрытых продуктов, которые позволяют клиентам настраивать системы безопасности, включая Службу Azure OpenAI; они не влияют на покрытие для клиентов, использующих другие охваченные продукты.