Udostępnij za pośrednictwem


Co nowego w usłudze Azure OpenAI w modelach usługi Azure AI Foundry

Ten artykuł zawiera podsumowanie najnowszych wersji i najważniejszych aktualizacji dokumentacji dla usługi Azure OpenAI.

Czerwiec 2025 r.

wydane modele codex-mini i o3-pro

Maj 2025 r.

Funkcja "Generowanie wideo Sora" została wydana (wersja zapoznawcza)

Sora (2025-05-02) to model generowania wideo z platformy OpenAI, który może tworzyć realistyczne i pomysłowe sceny wideo na podstawie instrukcji tekstowych.

Postępuj zgodnie z przewodnikiem Quickstart generowania wideo aby rozpocząć pracę. Aby uzyskać więcej informacji, zobacz Przewodnik po pojęciach dotyczących generowania wideo .

Naświetlanie osłon szybka reakcji

Podświetlanie to funkcja podrzędna osłon poleceń, która zwiększa ochronę przed atakami pośrednimi (osadzonych dokumentów) poprzez oznaczanie dokumentów wejściowych specjalnym formatowaniem wskazującym na niższe zaufanie do modelu. Aby uzyskać więcej informacji, zobacz dokumentację filtru ochrony monitów.

Model routera (wersja zapoznawcza)

Model routingu dla rozwiązania Azure AI Foundry to wdrażalny model czatu sztucznej inteligencji, który automatycznie wybiera najlepszy bazowy model czatu w celu odpowiedzi na dany monit. pl-PL: Aby uzyskać więcej informacji na temat działania modelu routera oraz jego zalet i ograniczeń, zobacz Przewodnik po koncepcjach modelu routera. Aby użyć modelowego routera z interfejsem API uzupełniania, postępuj zgodnie z przewodnikiem.

Kwiecień 2025 r.

Obsługa interfejsu API w czasie rzeczywistym (wersja zapoznawcza) dla usługi WebRTC

Interfejs API czasu rzeczywistego (wersja zapoznawcza) obsługuje teraz usługę WebRTC, umożliwiając przesyłanie strumieniowe audio w czasie rzeczywistym i interakcje z małymi opóźnieniami. Ta funkcja jest idealna w przypadku aplikacji wymagających natychmiastowej opinii, takich jak obsługa klienta na żywo lub interakcyjni asystenci głosowi. Aby uzyskać więcej informacji, zobacz dokumentację interfejsu API czasu rzeczywistego (wersja zapoznawcza).

Wydano GPT-image-1 (wersja zapoznawcza, ograniczony dostęp)

GPT-image-1 (2025-04-15) to najnowszy model generowania obrazów z usługi Azure OpenAI. Oferuje on główne ulepszenia języka DALL-E, w tym:

  • Lepiej odpowiada na dokładne instrukcje.
  • Niezawodnie renderuje tekst.
  • Akceptuje obrazy jako dane wejściowe, co umożliwia nowe możliwości edytowania i zapisywania obrazów.

Żądanie dostępu: aplikacja modelu ograniczonego dostępu

Postępuj zgodnie z instrukcjami generowania obrazów, aby rozpocząć pracę z nowym modelem.

Wydane modele o4-mini i o3

o4-mini modele i o3 są teraz dostępne. Są to najnowsze modele rozumowania z usługi Azure OpenAI, które oferują znacznie ulepszone rozumowanie, jakość i wydajność. Aby uzyskać więcej informacji, zobacz stronę Wprowadzenie do modeli rozumowania.

Wydano GPT-4.1

Dostępne są teraz biblioteki GPT 4.1 i GPT 4.1-nano. Są to najnowsze modele z usługi Azure OpenAI. GPT 4.1 ma limit kontekstu tokenu o wartości 1 miliona. Aby uzyskać więcej informacji, zobacz stronę modeli.

Wydane modele audio gpt-4o

Nowe modele audio obsługiwane przez GPT-4o są teraz dostępne.

  • Modele gpt-4o-transcribe zamiany mowy na gpt-4o-mini-transcribe tekst są wydawane. Użyj tych modeli za pośrednictwem /audio interfejsów API i /realtime .

  • Opublikowano model gpt-4o-mini-tts zamiany tekstu na mowę. Użyj modelu gpt-4o-mini-tts do generowania mowy z tekstu za pośrednictwem /audio API.

Aby uzyskać więcej informacji na temat dostępnych modeli, zobacz dokumentację modeli i wersji.

Marzec 2025 r.

Interfejs API odpowiedzi oraz model podglądu użycia komputera

Responses API to nowy, stanowy interfejs API od Azure OpenAI. Łączy to najlepsze możliwości z API uzupełniania czatów i API asystentów w jednym ujednoliconym środowisku. Interfejs API odpowiedzi dodaje obsługę nowego modelu computer-use-preview, który umożliwia korzystanie z komputera.

computer-use-preview Klienci, którzy mają dostęp do innych modeli ograniczonego dostępu, nadal będą musieli zażądać dostępu dla tego modelu.

Żądanie dostępu: computer-use-preview aplikacja modelu ograniczonego dostępu

Aby uzyskać więcej informacji na temat możliwości modelu i dostępności regionów, zobacz dokumentację modeli.

Animowany plik GIF modelu podglądu użycia komputera zintegrowanego z Playwright.

Kod demonstracyjny integracji dramaturga.

Aprowizowany wyciek (wersja zapoznawcza)

Spillover zarządza fluktuacjami ruchu w aprowizowanych wdrożeniach, przekierowując nadwyżki do wyznaczonego standardowego wdrożenia. Aby dowiedzieć się więcej na temat maksymalizowania wykorzystania wdrożeń aprowizowanych za pomocą funkcji przelewu, zobacz Zarządzanie ruchem przy użyciu funkcji przelewu dla wdrożeń aprowizowanych (wersja zapoznawcza).

Określanie konfiguracji filtrowania zawartości

Oprócz konfiguracji filtrowania zawartości na poziomie wdrożenia udostępniamy również nagłówek żądania, który umożliwia określenie niestandardowej konfiguracji na żądanie dla każdego wywołania interfejsu API. Aby uzyskać więcej informacji, zobacz Używanie filtrów zawartości (wersja zapoznawcza).

Luty 2025 rok

GPT-4.5 (wersja zapoznawcza)

Najnowszy model GPT, który wyróżnia się w różnych zadaniach dotyczących tekstu i obrazów, jest teraz dostępny w usłudze Azure OpenAI.

Aby uzyskać więcej informacji na temat możliwości modelu i dostępności regionów, zobacz dokumentację modeli.

Interfejs API przechowywanych zakończeń

Zapisane uzupełnienia umożliwiają przechwytywanie historii konwersacji z sesji ukończenia czatu do użycia jako zestawy danych na potrzeby ocen i dostrajania.

o3-mini datazone standardowe wdrożenia

o3-mini jest teraz dostępne dla standardowych globalnych wdrożeń oraz standardowych wdrożeń stref danych dla zarejestrowanych klientów z ograniczonym dostępem.

Aby uzyskać więcej informacji, zobacz nasz przewodnik po modelu rozumowania.

gpt-4o mini audio został wydany

Model gpt-4o-mini-audio-preview (2024-12-17) to najnowszy model uzupełniania dźwięku. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący generowania dźwięku.

Model gpt-4o-mini-realtime-preview (2024-12-17) jest najnowszym modelem do przetwarzania dźwięku w czasie rzeczywistym. Modele w czasie rzeczywistym używają tego samego bazowego modelu audio GPT-4o co API uzupełniania, ale są zoptymalizowane pod kątem interakcji audio o niskiej latencji w czasie rzeczywistym. Aby uzyskać więcej informacji, zobacz Szybki start audio w czasie rzeczywistym.

Aby uzyskać więcej informacji na temat dostępnych modeli, zobacz dokumentację modeli i wersji.

Styczeń 2025 r.

o3-mini został wydany

o3-mini (2025-01-31) to najnowszy model rozumowania, oferując ulepszone możliwości rozumowania. Aby uzyskać więcej informacji, zobacz nasz przewodnik po modelu rozumowania.

Dźwiękowe zakończenia GPT-4o

Model gpt-4o-audio-preview jest teraz dostępny dla wdrożeń globalnych w Wschodniej części USA 2 i Szwecji Centralnej. Użyj modelu gpt-4o-audio-preview do generowania dźwięku.

Model gpt-4o-audio-preview wprowadza modalność audio do istniejącego /chat/completions interfejsu API. Model audio rozszerza potencjał aplikacji sztucznej inteligencji w interakcjach tekstowych i głosowych oraz analizie audio. Modalności obsługiwane w gpt-4o-audio-preview modelu obejmują: tekst, dźwięk i tekst + dźwięk. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący generowania dźwięku.

Uwaga / Notatka

Interfejs Realtime API używa tego samego podstawowego modelu audio GPT-4o co API uzupełnień, ale jest zoptymalizowany pod kątem interakcji audio w czasie rzeczywistym z małymi opóźnieniami.

API w czasie rzeczywistym GPT-4o 2024-12-17

gpt-4o-realtime-preview Model w wersji 2024-12-17 jest dostępny dla wdrożeń globalnych w regionach Wschodniego USA 2 i Centralnej Szwecji. Użyj modelu w wersji 2024-12-17 zamiast modelu w wersji 2024-10-01-preview dla interakcji audio w czasie rzeczywistym.

  • Dodano obsługę buforowania monitów dla modelu gpt-4o-realtime-preview.
  • Dodano obsługę nowych głosów. Modele gpt-4o-realtime-preview obsługują teraz następujące głosy: "stop", "ash", "ballada", "koral", "echo", "sage", "shimmer", "verse".
  • Limity szybkości nie są już oparte na połączeniach na minutę. Ograniczanie szybkości jest teraz oparte na RPM (żądania na minutę) i TPM (tokeny na minutę) dla modelu gpt-4o-realtime-preview. Limity przepustowości dla każdego gpt-4o-realtime-preview wdrożenia modelu wynoszą 100 tys. TPM i 1 tys. RPM. W wersji zapoznawczej portal usługi Azure AI Foundry i interfejsy API mogą niedokładnie pokazywać różne limity szybkości. Nawet jeśli spróbujesz ustawić inny limit szybkości, rzeczywisty limit szybkości będzie równy 100K TPM i 1K RPM.

Aby uzyskać więcej informacji, zobacz szybki start audio w czasie rzeczywistym GPT-4o i przewodnik krok po kroku.

Grudzień 2024 r.

Model rozumowania O1 wydany z ograniczonym dostępem

Najnowszy o1 model jest teraz dostępny na potrzeby dostępu do interfejsu API i wdrażania modelu. Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft. Klienci, którzy wcześniej złożyli wniosek i otrzymali dostęp do o1-preview, nie muszą ponownie składać wniosku, ponieważ są automatycznie na liście oczekujących o najnowszy model.

Żądanie dostępu: aplikacja modelu ograniczonego dostępu

Aby dowiedzieć się więcej o zaawansowanych modelach serii o1, zobacz Wprowadzenie do modeli rozumowania serii o1.

Dostępność regionu

Model Rejon
o1
(Wersja: 2024-12-17)
Wschód USA2 (Standard Globalny)
Szwecja Środkowa (Globalny standard)

Dostosowywanie preferencji (wersja zapoznawcza)

Optymalizacja preferencji bezpośrednich (DPO) to nowa technika wyrównania dla dużych modeli językowych, przeznaczona do dostosowywania wag modelu na podstawie preferencji człowieka. W przeciwieństwie do uczenia wzmacniania z opinii człowieka (RLHF), DPO nie wymaga dopasowywania modelu nagrody i używa prostszych danych (preferencji binarnych) do trenowania. Ta metoda jest obliczeniowo lżejsza i szybsza, dzięki czemu jest równie efektywna przy wyrównywaniu, a jednocześnie bardziej wydajna. DPO jest szczególnie przydatne w scenariuszach, w których ważne są subiektywne elementy, takie jak ton, styl lub określone preferencje dotyczące zawartości. Z przyjemnością ogłaszamy publiczną wersję zapoznawczą DPO w usłudze Azure OpenAI, zaczynając od modelu gpt-4o-2024-08-06.

Aby uzyskać szczegółowe informacje na temat dostosowania dostępności regionu modelu, zobacz stronę modeli.

Przechowywane ukończenia i destylacja

Zapisane uzupełnienia umożliwiają przechwytywanie historii konwersacji z sesji ukończenia czatu do użycia jako zestawy danych na potrzeby ocen i dostrajania.

GPT-4o 2024-11-20

gpt-4o-2024-11-20 jest teraz dostępny do wdrożenia zgodnie z globalnym standardem w:

  • Wschodnie stany USA
  • Wschodnie stany USA 2
  • Północno-środkowe stany USA
  • Południowo-środkowe stany USA
  • Zachodnie stany USA
  • Zachodnie stany USA 3
  • Szwecja Środkowa

Nowy typ wdrożenia z aprowizacją w strefie danych

Wdrożenia aprowizowania strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych w strefie danych zdefiniowanej przez firmę Microsoft z najlepszą dostępnością dla każdego żądania. Wdrożenia przydzielone w strefie danych zapewniają zarezerwowaną pojemność przetwarzania modeli dla wysokiej i przewidywalnej przepływności, przy użyciu infrastruktury Azure w określonych strefach danych Microsoft. Wdrożenia aprowizowania strefy danych są obsługiwane w modelach gpt-4o-2024-08-06, gpt-4o-2024-05-13i gpt-4o-mini-2024-07-18 .

Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.

Listopad 2024 r.

Dostrajanie wizji w ogólnej dostępności

Dostrajanie obrazów za pomocą GPT-4o (2024-08-06) jest teraz ogólnie dostępne (GA).

Dostrajanie modelu wizji umożliwia dodawanie obrazów do danych treningowych JSONL. Podobnie jak w przypadku wysyłania jednego lub wielu obrazów jako danych wejściowych do kompletacji czatu, możesz uwzględnić te same typy wiadomości w danych treningowych. Obrazy mogą być udostępniane jako adresy URL lub jako obrazy zakodowane w formacie base64.

Aby uzyskać szczegółowe informacje na temat dostosowania dostępności regionu modelu, zobacz stronę modeli.

NOWE monitorowanie nadużyć sztucznej inteligencji

Wprowadzamy nowe formy monitorowania nadużyć, które wykorzystują LLMs w celu zwiększenia wydajności wykrywania potencjalnie niewłaściwych zastosowań usługi Azure OpenAI i umożliwienia monitorowania nadużyć bez konieczności ręcznego przeglądu monitów i uzupełnień. Dowiedz się więcej, zobacz Monitorowanie nadużyć.

Prompty i uzupełnienia oflagowane za pośrednictwem klasyfikacji zawartości i/lub zidentyfikowane jako część potencjalnie obraźliwego wzorca użytkowania podlegają dodatkowej weryfikacji, aby pomóc potwierdzić analizę systemu i wspomóc decyzje dotyczące działań. Nasze systemy monitorowania nadużyć zostały rozszerzone, aby domyślnie umożliwiać przegląd przez LLM, a przez ludzi, gdy jest to konieczne i właściwe.

Październik 2024 r.

NOWY standardowy typ wdrożenia strefy danych

Standardowe wdrożenia strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI, co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale pozwalają wykorzystać globalną infrastrukturę Azure do dynamicznego kierowania ruchu do centrum danych w strefie danych określonej przez Microsoft z najlepszą dostępnością dla każdego żądania. Standard strefy danych zapewnia wyższe domyślne limity przydziału niż typy wdrożeń opartych na lokalizacji geograficznej platformy Azure. Standardowe wdrożenia strefy danych są obsługiwane w modelach gpt-4o-2024-08-06, gpt-4o-2024-05-13i gpt-4o-mini-2024-07-18 .

Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.

Globalna ogólna dostępność usługi Batch

Usługa Azure OpenAI Global Batch jest teraz powszechnie dostępna.

Interfejs API Azure OpenAI Batch jest przeznaczony do wydajnego przetwarzania zadań na dużą skalę oraz w dużych ilościach. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem kwoty, z docelowym czasem realizacji wynoszącym 24 godziny, przy koszcie o 50% mniejszym niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają odrębny limit tokenów w kolejce, co zapobiega zakłóceniom w Twoich operacjach online.

Najważniejsze przypadki użycia:

  • Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.

  • Generowanie zawartości: Utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.

  • Przegląd dokumentów i podsumowanie: Automatyzowanie przeglądu i podsumowywania długich dokumentów.

  • Automatyzacja obsługi klienta: Obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.

  • Wyodrębnianie i analiza danych: Wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.

  • Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.

  • Marketing i personalizacja: Generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.

Aby uzyskać więcej informacji na temat rozpoczynania pracy z globalnymi wdrożeniami wsadowymi.

o1-preview i o1-mini modele z ograniczonym dostępem

Modele o1-preview i o1-mini są teraz dostępne na potrzeby dostępu do interfejsu API i wdrażania modelu. Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft.

Żądanie dostępu: aplikacja modelu ograniczonego dostępu

Klienci, którzy zostali już zatwierdzeni i mają dostęp do modelu za pośrednictwem platformy z wczesnym dostępem, nie muszą składać ponownie wniosku. Automatycznie zostanie im przyznany dostęp do interfejsu API. Po udzieleniu dostępu należy utworzyć wdrożenie dla każdego modelu.

Obsługa interfejsu API:

Wsparcie dla modeli serii o1 zostało dodane w wersji API 2024-09-01-preview.

Parametr max_tokens został przestarzały i zastąpiony nowym max_completion_tokens parametrem. Modele serii o1 będą działać tylko z parametrem max_completion_tokens .

Dostępność regionów:

Modele są dostępne dla standardowych i globalnych wdrożeń w regionach East US2 i Szwecja Środkowa dla klientów zatwierdzonych.

Nowe API GPT-4o w czasie rzeczywistym do przetwarzania mowy i dźwięku – wersja publiczna do przeglądu.

Azure OpenAI audio GPT-4o jest częścią rodziny modeli GPT-4o, która umożliwia niskie opóźnienia i interakcje konwersacyjne typu "mowa do, mowa z". Interfejs API audio realtime GPT-4o jest przeznaczony do obsługi interakcji konwersacyjnych w czasie rzeczywistym z niskimi opóźnieniami, dzięki czemu doskonale nadaje się do przypadków użycia obejmujących interakcje na żywo między użytkownikiem a modelem, takie jak agenci obsługi klienta, asystenci głosowi i tłumacze w czasie rzeczywistym.

Model gpt-4o-realtime-preview jest dostępny do globalnych wdrożeń w regionach Wschodnie USA 2 i Szwecja Środkowa.

Aby uzyskać więcej informacji, zobacz Przewodnik szybkiego startu audio GPT-4o w czasie rzeczywistym.

Aktualizacje globalne obsługi wsadów

Globalna partia obsługuje teraz GPT-4o (2024-08-06). Aby uzyskać więcej informacji, zobacz globalny przewodnik wprowadzający do przetwarzania wsadowego.

Wrzesień 2024 r.

Aktualizacje środowiska użytkownika programu Azure OpenAI Studio

Od 19 września 2024 r. po przejściu do programu Azure OpenAI Studio nie widzisz już starszej wersji programu Azure OpenAI Studio . W razie potrzeby nadal będzie można wrócić do poprzedniego środowiska przy użyciu przełącznika Przełącz do starego wyglądu na górnym pasku interfejsu użytkownika przez następne kilka tygodni. Jeśli przełączysz się z powrotem do starszego portalu azure AI Foundry, pomoże Ci wypełnić formularz opinii, aby poinformować nas, dlaczego. Aktywnie monitorujemy tę opinię, aby ulepszyć nowe doświadczenie.

Przygotowane wdrożenia GPT-4o z dnia 2024-08-06

GPT-4o 2024-08-06 jest teraz dostępny dla wdrożeń zapewnionych w regionach Wschodnie Wybrzeże USA, Wschodnie Wybrzeże USA 2, Północno-centralne Stany USA i Centralna Szwecja. Jest ona również dostępna dla globalnie udostępnionych wdrożeń.

Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.

NOWY typ wdrożenia aprowizowanego globalnie

Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co typy wdrożeń innych niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalne wdrożenia z przydzieloną pojemnością zapewniają zarezerwowaną pojemność przetwarzania modeli dla wysokiej i przewidywalnej przepustowości, korzystając z globalnej infrastruktury Azure. Globalnie aprowizowane wdrożenia są obsługiwane na modelach gpt-4o-2024-08-06 i gpt-4o-mini-2024-07-18.

Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.

NOWE modele o1-preview i o1-mini dostępne w celu uzyskania ograniczonego dostępu

Modele Azure OpenAI o1-preview i o1-mini zostały zaprojektowane do wykonywania zadań związanych z rozumowaniem i rozwiązywaniem problemów, przy zwiększonym skupieniu i zdolnościach. Modele te poświęcają więcej czasu na przetwarzanie i zrozumienie żądania użytkownika, co czyni je wyjątkowo silnymi w obszarach takich jak nauka, kodowanie i matematyka w porównaniu z poprzednimi iteracjami.

Kluczowe możliwości serii o1

  • Złożone generowanie kodu: możliwość generowania algorytmów i obsługi zaawansowanych zadań kodowania w celu obsługi deweloperów.
  • Zaawansowane rozwiązywanie problemów: idealna opcja dla kompleksowych sesji burzy mózgów i sprostania wielowymiarowym wyzwaniom.
  • Złożone porównanie dokumentów: idealne rozwiązanie do analizowania kontraktów, plików przypadków lub dokumentów prawnych w celu identyfikowania subtelnych różnic.
  • Postępowanie zgodnie z instrukcjami i zarządzanie procesami: Szczególnie skuteczne zarządzanie procesami wymagającymi krótszych kontekstów.

Warianty modelu

  • o1-preview: o1-preview jest najbardziej zaawansowanym modelem w serii o1.
  • o1-mini: o1-mini jest szybszym i tańszym modelem o1 serii.

Wersja modelu: 2024-09-12

Żądanie dostępu: aplikacja modelu ograniczonego dostępu

Ograniczenia

Modele o1 serii są obecnie dostępne w wersji zapoznawczej i nie zawierają niektórych funkcji dostępnych w innych modelach, takich jak interpretacja obrazu i dane wyjściowe ze strukturą, które są dostępne w najnowszym modelu GPT-4o. W przypadku wielu zadań ogólnie dostępne modele GPT-4o mogą być nadal bardziej odpowiednie.

Bezpieczeństwo

Platforma OpenAI wprowadziła dodatkowe środki bezpieczeństwa do o1 modeli, w tym nowe techniki ułatwiające modelom odrzucanie niebezpiecznych żądań. Te postępy sprawiają, że o1 seria jest najbardziej niezawodna.

Dostępność

To o1-preview i o1-mini są dostępne w regionie Wschodnia USA 2 z ograniczonym dostępem za pośrednictwem portalu Azure AI Foundry do wczesnego dostępu. Przetwarzanie danych dla o1 modeli może wystąpić w innym regionie niż w przypadku, gdy są one dostępne do użycia.

Aby wypróbować modele o1-preview i o1-mini w środowisku wczesnego dostępu, jest wymagana rejestracja a dostęp zostanie przyznany na podstawie kryteriów kwalifikowalności Microsoft.

Żądanie dostępu: aplikacja modelu ograniczonego dostępu

Po udzieleniu dostępu należy wykonać następujące kroki:

  1. Przejdź do https://ai.azure.com/resources i wybierz zasób w eastus2 regionie. Jeśli nie masz zasobu usługi Azure OpenAI w tym regionie, musisz go utworzyć.
  2. Po wybraniu eastus2 zasobu Azure OpenAI w lewym górnym panelu w obszarze Place zabaw wybierz pozycję Plac zabaw z wczesnym dostępem (wersja zapoznawcza).

Sierpień 2024 r.

Ustrukturyzowane wyjścia GPT-4o 2024-08-06

Mini wdrożenia przewidziane dla GPT-4o

Mini GPT-4o jest teraz dostępny dla przydzielonych wdrożeń w Kanadzie Wschodniej, Wschodnim Wybrzeżu USA, Wschodnim Wybrzeżu USA 2, Północno-środkowych stanach USA i Szwecji Środkowej.

Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.

Dostosowywanie GPT-4o (publiczna wersja testowa)

Dostrajanie GPT-4o jest teraz dostępne dla usługi Azure OpenAI w publicznej wersji zapoznawczej w północno-środkowych stanach USA i Szwecji Środkowej.

Aby uzyskać więcej informacji, zobacz nasz wpis w blogu.

Nowa wersja zapoznawcza interfejsu API

Wersja 2024-07-01-preview to najnowsza wersja interfejsu API do tworzenia i przetwarzania danych. Zastępuje wersję API 2024-05-01-preview i dodaje obsługę dla:

Aby uzyskać więcej informacji, zobacz dokumentację referencyjną

regionalna dostępność GPT-4o mini

  • GPT-4o mini jest dostępny do wdrożeń standardowych i globalnych w regionach południowo-wschodniego Stanów Zjednoczonych i Środkowej Szwecji.
  • GPT-4o mini jest dostępny dla globalnego wdrożenia wsadowego w regionach Wschodnie stany USA, Szwecja Środkowa i Zachodnie stany USA.

Przewodnik po ocenach

Najnowszy model GPT-4o dostępny na placu zabaw z wczesnym dostępem (wersja zapoznawcza)

6 sierpnia 2024 roku OpenAI ogłosiła najnowszą wersję flagowego modelu 2024-08-06GPT-4o. GPT-4o 2024-08-06 ma wszystkie możliwości poprzedniej wersji, a także:

  • Ulepszona możliwość obsługi złożonych danych wyjściowych ze strukturą.
  • Maksymalna liczba tokenów wyjściowych została zwiększona z 4096 do 16 384.

Klienci platformy Azure mogą przetestować usługę GPT-4o 2024-08-06 już dziś w nowym placu zabaw wczesnego dostępu do usługi Azure AI Foundry (wersja zapoznawcza).

W przeciwieństwie do poprzedniego placu zabaw wczesnego dostępu, plac zabaw wczesnego dostępu portalu Azure AI Foundry (wersja zapoznawcza) nie wymaga posiadania zasobu w określonym regionie.

Uwaga / Notatka

Wezwania i ukończenia wykonywane za pośrednictwem placu zabaw z dostępem wstępnym (wersja zapoznawcza) mogą być przetwarzane w dowolnym regionie Azure OpenAI i obecnie są ograniczone do 10 żądań na minutę na subskrypcję Azure. Ten limit może ulec zmianie w przyszłości.

Monitorowanie nadużyć w usłudze Azure OpenAI jest włączone dla wszystkich użytkowników placu zabaw z wczesnym dostępem, nawet jeśli zatwierdzono ich do modyfikacji; domyślne filtry zawartości są aktywne i nie można ich zmieniać.

Aby przetestować środowisko GPT-4o 2024-08-06, zaloguj się do placu zabaw z wczesnym dostępem do sztucznej inteligencji platformy Azure (wersja zapoznawcza) przy użyciu tego linku.

Globalne wdrożenia wsadowe są teraz dostępne

Interfejs API Azure OpenAI Batch jest przeznaczony do wydajnego przetwarzania zadań na dużą skalę oraz w dużych ilościach. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem kwoty, z docelowym czasem realizacji wynoszącym 24 godziny, przy koszcie o 50% mniejszym niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają odrębny limit tokenów w kolejce, co zapobiega zakłóceniom w Twoich operacjach online.

Najważniejsze przypadki użycia:

  • Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.

  • Generowanie zawartości: Utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.

  • Przegląd dokumentów i podsumowanie: Automatyzowanie przeglądu i podsumowywania długich dokumentów.

  • Automatyzacja obsługi klienta: Obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.

  • Wyodrębnianie i analiza danych: Wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.

  • Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.

  • Marketing i personalizacja: Generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.

Aby uzyskać więcej informacji na temat rozpoczynania pracy z globalnymi wdrożeniami wsadowymi.

Lipiec 2024 r.

GPT-4o mini jest teraz dostępny do dostrajania

Dostrajanie GPT-4o mini jest teraz dostępne w publicznej wersji zapoznawczej w Szwecji Środkowej i w Północno-Środkowych Stanach USA.

Narzędzie Asystentów do Wyszukiwania Plików jest teraz płatne.

Narzędzie do wyszukiwania plików dla Asystentów ma teraz dodatkowe opłaty za użycie. Przejdź na stronę cennika, aby uzyskać więcej informacji.

Mini model GPT-4o dostępny do wdrożenia

GPT-4o mini to najnowszy model Usługi Azure OpenAI ogłoszony po raz pierwszy 18 lipca 2024 r.:

"GPT-4o mini pozwala klientom dostarczać wspaniałe aplikacje po niższych kosztach z oszałamiającą szybkością." GPT-4o mini jest znacznie mądrzejszy niż GPT-3,5 Turbo — uzyskując wynik 82% w ocenie ogromnego wielotaskowego zrozumienia językowego (MMLU) w porównaniu z 70%, przy czym jest o ponad 60% tańszy. Model zapewnia rozszerzone okno kontekstowe 128K i integruje ulepszone wielojęzyczne możliwości GPT-4o, zapewniając wyższą jakość dla języków z różnych części świata.

Model jest dostępny dla wdrożeń standardowych i globalnych w regionie Wschodniego USA.

Aby uzyskać informacje na temat limitu przydziału modelu, zapoznaj się ze stroną kwoty i ograniczeń. Aby uzyskać najnowsze informacje na temat dostępności modelu, odwiedź stronę modeli.

Nowe domyślne zasady filtrowania zawartości odpowiedzialnej sztucznej inteligencji

Nowe domyślne zasady DefaultV2 filtrowania zawartości zapewniają najnowsze środki zaradcze bezpieczeństwa i zabezpieczeń dla serii modeli GPT (tekst), w tym:

  • Osłony przed atakami jailbreakowymi na zapytania użytkowników (filtr).
  • Wykrywanie materiału chronionego w tekście (filtr) podczas ukończeń modelu
  • Wykrywanie materiałów chronionych w kodzie (anotacja) na uzupełnieniach modelu

Chociaż nie ma żadnych zmian w filtrach zawartości dla istniejących zasobów i wdrożeń (domyślne lub niestandardowe konfiguracje filtrowania zawartości pozostają niezmienione), nowe zasoby i wdrożenia GPT będą automatycznie dziedziczyć nowe zasady DefaultV2filtrowania zawartości. Klienci mają możliwość przełączania się między ustawieniami domyślnymi zabezpieczeń i tworzenia niestandardowych konfiguracji filtrowania zawartości.

Aby uzyskać więcej informacji, zapoznaj się z naszą dokumentacją domyślnych zasad bezpieczeństwa.

Nowe wydanie GA API

Wersja 2024-06-01 jest najnowszą wersją GA interfejsu API dla wnioskowania w płaszczyźnie danych. Zastępuje wersję API 2024-02-01 i dodaje obsługę dla:

  • osadzanie encoding_format i dimensions parametry.
  • uzupełnianie czatu i parametry & .

Aby uzyskać więcej informacji, zapoznaj się z naszą dokumentacją referencyjną dotyczącą inferencji płaszczyzny danych.

Rozszerzanie regionów dostępnych dla globalnych standardowych implementacji gpt-4o

GPT-4o jest teraz dostępny dla globalnych standardowych wdrożeń:

  • AustraliaEast
  • Brazylia Południe
  • wschód Kanady
  • eastus
  • eastus2
  • francecentral Git
  • Niemcy Zachodnio-Środkowe
  • japaneast
  • koreacentral
  • northcentralus
  • Norwegia Wschód
  • polandcentral
  • southafricanorth
  • southcentralus
  • południowe Indie
  • swedencentral
  • Szwajcaria Północ
  • uksouth
  • Europa Zachodnia
  • westus
  • westus3

Aby uzyskać informacje na temat standardowego globalnego limitu przydziału, zapoznaj się ze stroną przydziałów i limitów.

Czerwiec 2024 r.

Aktualizacje daty wycofania

  • Zaktualizowano gpt-35-turbo datę wycofania 0301 do nie wcześniej niż 1 października 2024 r.
  • Zaktualizowana data przejścia na emeryturę & 0613 na 1 października 2024.
  • Zaktualizowano datę wycofania gpt-4 i gpt-4-32k 0314 na 1 października 2024 r. oraz datę zakończenia na 6 czerwca 2025 r.

Zapoznaj się z naszym przewodnikiem po wycofywaniu modeli, aby uzyskać najnowsze informacje na temat przestarzałości i wycofywania modeli.

Rozliczenia oparte na tokenach na potrzeby dostrajania

  • Rozliczenia dotyczące dostrajania w usłudze Azure OpenAI są teraz oparte na liczbie tokenów w pliku treningowym — zamiast łącznego czasu uczenia, który upłynął. Może to spowodować znaczne obniżenie kosztów niektórych procesów szkoleniowych i znacznie ułatwia szacowanie kosztów dostosowywania modelu. Aby dowiedzieć się więcej, możesz zapoznać się z oficjalnym ogłoszeniem.

GPT-4o wydany w nowych regionach

  • GPT-4o jest teraz również dostępny w:
    • Szwecja Środkowa dla standardowego wdrożenia regionalnego.
    • Australia Wschodnia, Kanada Wschodnia, Japonia Wschodnia, Korea Centralna, Szwecja Centralna, Szwajcaria Północna i Zachodnie USA 3 na potrzeby aprowizowania wdrożenia.

Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.

Obsługa klucza zarządzanego przez klienta (CMK) dla asystentów

Wątki i pliki w Asystentach teraz obsługują CMK w następującym regionie:

  • Zachodnie stany USA 3

maj 2024

Wdrożenia skonfigurowane dla GPT-4o

gpt-4o Wersja: 2024-05-13 jest dostępna zarówno dla wdrożeń standardowych, jak i aprowizowanych. Wdrożenia modelu aprowizowanego i standardowego akceptują żądania wnioskowania tekstu i obrazy/wizyjne. Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się z macierzą modeli dotyczącą wdrożeń z zastrzeżonymi zasobami.

Asystenci w wersji 2 (wersja zapoznawcza)

Aktualizacja API Asystenta jest teraz publicznie dostępna. Zawiera następujące aktualizacje:

  • Narzędzie wyszukiwania plików i magazyn wektorowy
  • Maksymalna liczba tokenów uzupełniania oraz maksymalna liczba tokenów w monicie na potrzeby zarządzania użyciem tokenów.
  • tool_choice parametr wymuszający użycie określonego narzędzia przez Asystenta. Teraz możesz tworzyć wiadomości z rolą asystenta, aby tworzyć niestandardowe historie konwersacji w wątkach.
  • Obsługa parametrów temperature, top_p, response_format.
  • Obsługa przesyłania strumieniowego i sondowania. Możesz użyć funkcji pomocnika w naszym zestawie SDK języka Python, aby tworzyć uruchomienia i przesyłać strumieniowo odpowiedzi. Dodaliśmy również pomocników SDK do sondowania, aby udostępniać aktualizacje statusu obiektów bez konieczności sondowania.
  • Eksperymentuj z usługą Logic Apps i wywoływaniem funkcji przy użyciu programu Azure OpenAI Studio. Zaimportuj interfejsy API REST zaimplementowane w usłudze Logic Apps jako funkcje, a studio wywołuje funkcję (jako przepływ pracy usługi Logic Apps) automatycznie na podstawie monitu użytkownika.
  • Rozwiązanie AutoGen by Microsoft Research udostępnia platformę konwersacji dla wielu agentów, która umożliwia wygodne tworzenie przepływów pracy modelu dużego języka (LLM) w wielu aplikacjach. Asystenci Azure OpenAI są teraz zintegrowani z AutoGen za pośrednictwem GPTAssistantAgent, nowego eksperymentalnego agenta, który umożliwia płynne dodawanie asystentów do przepływów pracy opartych na wielu agentach. Umożliwia to współpracę wielu asystentów usługi Azure OpenAI, którzy mogą być wyspecjalizowani w zadaniach lub dziedzinach, aby wspólnie rozwiązywać złożone zadania.
  • Obsługa precyzyjnie dostosowanych modeli w następujących regionach
    • Wschodnie stany USA 2
    • Szwecja Środkowa
  • Rozszerzona obsługa regionalna dla:
    • Japonia Wschodnia
    • Południowe Zjednoczone Królestwo
    • Zachodnie stany USA
    • Zachodnie stany USA 3
    • Norwegia wschodnia

Aby uzyskać więcej informacji, zobacz wpis w blogu dotyczący asystentów.

Ogólna dostępność modelu GPT-4o

GPT-4o ("o is for "omni") to najnowszy model z OpenAI uruchomiony 13 maja 2024 r.

  • GPT-4o integruje tekst i obrazy w jednym modelu, umożliwiając mu obsługę wielu typów danych jednocześnie. To podejście multimodalne zwiększa dokładność i szybkość reakcji w interakcjach człowiek-komputer.
  • GPT-4o pasuje do GPT-4 Turbo w języku angielskim i zadaniach kodowania, oferując lepszą wydajność w językach innych niż angielski i w zadaniach przetwarzania obrazów, ustawiając nowe testy porównawcze dla możliwości sztucznej inteligencji.

Aby uzyskać informacje na temat dostępności regionalnej modelu, zobacz stronę modeli.

Globalny standardowy typ wdrożenia (wersja zapoznawcza)

Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co oferty inne niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalny standard zapewnia najwyższy domyślny limit przydziału dla nowych modeli i eliminuje konieczność równoważenia obciążenia w wielu zasobach.

Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.

Dostrajanie aktualizacji

DaLL-E i GPT-4 Turbo Vision GA konfigurowalne filtry zawartości

Twórz niestandardowe filtry zawartości dla wdrożeń DALL-E 2 i 3, GPT-4 Turbo z Vision GA (turbo-2024-04-09) i GPT-4o. Filtrowanie zawartości

Filtr asynchroniczny dostępny dla wszystkich klientów usługi Azure OpenAI

Uruchamianie filtrów asynchronicznie w celu zwiększenia opóźnienia w scenariuszach przesyłania strumieniowego jest teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Filtrowanie zawartości

Osłony szybkiej reakcji

Osłony promptu chronią aplikacje obsługiwane przez modele Azure OpenAI przed dwoma typami ataków: bezpośrednimi (typu jailbreak) i pośrednimi. Ataki pośrednie (nazywane również atakami pośrednimi monitami lub atakami polegającymi na wstrzyknięciu monitów między domenami) są typem ataku na systemy oparte na modelach generacyjnych sztucznej inteligencji, które mogą wystąpić, gdy aplikacja przetwarza informacje, które nie zostały bezpośrednio utworzone przez dewelopera aplikacji lub użytkownika. Filtrowanie zawartości

Wydanie interfejsu API 2024-05-01-preview

Ogólna dostępność modelu GPT-4 Turbo

Najnowsza wersja GA GPT-4 Turbo to:

  • gpt-4 Wersja:turbo-2024-04-09

Jest to zamiennik następujących modeli w wersji zapoznawczej:

  • gpt-4 Wersja:1106-Preview
  • gpt-4 Wersja:0125-Preview
  • gpt-4 Wersja:vision-preview

Różnice między modelami OpenAI a modelami Azure OpenAI GPT-4 Turbo GA

  • Wersja najnowszego 0409 modelu turbo OpenAI obsługuje tryb JSON oraz wywoływanie funkcji dla wszystkich żądań wnioskowania.
  • Najnowsza wersja usługi Azure OpenAI turbo-2024-04-09 nie obsługuje obecnie użycia trybu JSON i wywoływania funkcji przy składaniu zapytań inferencyjnych z wejściem obrazowym (wizja). Żądania wejściowe oparte na tekście (żądania bez image_url i obrazów wbudowanych) obsługują tryb JSON i wywoływanie funkcji.

Różnice względem gpt-4 vision-preview

  • Integracja ulepszeń dotyczących przetwarzania obrazów specyficznych dla sztucznej inteligencji platformy Azure z GPT-4 Turbo Vision nie jest obsługiwana dla gpt-4wersji:turbo-2024-04-09. Obejmuje to optyczne rozpoznawanie znaków (OCR), lokalizowanie obiektów, podpowiedzi wideo oraz ulepszoną obsługę danych z użyciem obrazów.

Ważne

Udoskonalenia wizualne w wersji zapoznawczej, w tym optyczne rozpoznawanie znaków (OCR), kontekstualizacja obiektów, interaktywne wskazówki wideo, zostaną wycofane i nie będą już dostępne po gpt-4 uaktualnieniu wersji vision-preview do turbo-2024-04-09 programu. Jeśli obecnie polegasz na którejkolwiek z tych funkcji w wersji zapoznawczej, ta automatyczna aktualizacja modelu będzie znaczącą zmianą.

Zarządzana dostępność zapewniona przez GPT-4 Turbo

  • gpt-4 Wersja:turbo-2024-04-09 jest dostępna zarówno dla standardowych, jak i zdefiniowanych wdrożeń. Obecnie aprowizowana wersja tego modelu nie obsługuje żądań wnioskowania z wykorzystaniem obrazu/wizji. Aprowidowane wdrożenia tego modelu akceptują tylko wprowadzanie tekstu. Standardowe wdrożenia modeli akceptują zarówno tekstowe, jak i obrazowe/wizyjne żądania inferencji.

Wdrażanie GPT-4 Turbo z Vision GA

Aby wdrożyć model GA z portalu Azure AI Foundry, wybierz GPT-4, a następnie wybierz wersję turbo-2024-04-09 z menu rozwijanego. Domyślna kwota dla modelu gpt-4-turbo-2024-04-09 będzie taka sama jak obecna kwota dla GPT-4-Turbo. Zobacz regionalne limity kwotowe.

Kwiecień 2024 r.

Dostrajanie jest teraz obsługiwane w dwóch nowych regionach Wschodnie USA 2 i Szwajcaria Zachodnia.

Dostrajanie jest teraz dostępne z obsługą:

Wschodnie stany USA 2

  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Szwajcaria Zachodnia

  • babbage-002
  • davinci-002
  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu i obsługi dostrajania w każdym regionie.

Przykłady trenowania czatu wieloturowego

Dostrajanie teraz obsługuje przykłady szkolenia czatów wielozwrotowych.

GPT-4 (0125) jest dostępny dla usługi Azure OpenAI On Your Data

Teraz możesz użyć modelu GPT-4 (0125) za pomocą Azure OpenAI On Your Data w dostępnych regionach.

marzec 2024

Monitorowanie zagrożeń i bezpieczeństwa w usłudze Azure OpenAI Studio

Usługa Azure OpenAI Studio udostępnia teraz pulpit nawigacyjny Zagrożenia i bezpieczeństwo dla każdego z wdrożeń korzystających z konfiguracji filtru zawartości. Służy do sprawdzania wyników działania filtrowania. Następnie możesz dostosować konfigurację filtru, aby lepiej zaspokoić potrzeby biznesowe i spełnić zasady odpowiedzialnej sztucznej inteligencji.

Korzystanie z monitorowania zagrożeń i bezpieczeństwa

Aktualizacje w usłudze Azure OpenAI dotyczące Twoich danych

  • Teraz możesz nawiązać połączenie z wektorową bazą danych Elasticsearch, której będzie używana z usługą Azure OpenAI na Twoich danych.
  • Parametr rozmiaru fragmentu można użyć podczas pozyskiwania danych, aby ustawić maksymalną liczbę tokenów dowolnego fragmentu danych w indeksie.

Ogólna dostępność (GA) API wydana 2024-02-01

Jest to najnowsza wersja GA API i zastępuje ona poprzednią wersję GA. W tej wersji dodano obsługę najnowszych funkcji GA usługi Azure OpenAI, takich jak Whisper, DALLE-3, dostrajanie na danych oraz inne.

Funkcje, które są dostępne w wersji zapoznawczej, takie jak Asystenci, zamiana tekstu na mowę (TTS) i niektóre źródła danych związane z "twoimi danymi", wymagają wersji zapoznawczej interfejsu API. Aby uzyskać więcej informacji, zapoznaj się z naszym przewodnikiem cyklu życia wersji interfejsu API.

Whisper — ogólna dostępność

Model Whisper do konwersji mowy na tekst jest teraz w wersji GA zarówno w REST, jak i w Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.

Wypróbuj Whisper, korzystając z przewodnika Szybki start.

Ogólna dostępność DALL-E 3

Model generowania obrazów DALL-E 3 jest teraz w wersji GA zarówno dla interfejsu REST, jak i języka Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.

Wypróbuj DALL-E 3, korzystając z szybkiego startu.

Nowe regionalne wsparcie dla daLL-E 3

Teraz możesz uzyskać dostęp do DALL-E 3 za pomocą zasobu Azure OpenAI w regionie Azure East US lub AustraliaEast, a także SwedenCentral.

Dezaktualizacje i wycofywanie modeli

Dodaliśmy stronę do monitorowania wycofania i przechodzenia modeli na emeryturę w usłudze Azure OpenAI. Ta strona zawiera informacje o modelach, które są obecnie dostępne, przestarzałe i wycofane.

Interfejs API "2024-03-01-preview" wydany

2024-03-01-preview Ma wszystkie te same funkcje co 2024-02-15-preview i dodaje dwa nowe parametry do osadzania:

  • encoding_format umożliwia określenie formatu generowania osadzeń w elemencie float, lub base64. Wartość domyślna to float.
  • dimensions Umożliwia ustawienie liczby osadzonych danych wyjściowych. Ten parametr jest obsługiwany tylko w przypadku modeli osadzania nowej generacji trzeciej generacji: text-embedding-3-large, text-embedding-3-small. Zazwyczaj większe osadzanie jest droższe z perspektywy zasobów obliczeniowych, pamięci i magazynu. Możliwość dostosowania liczby wymiarów pozwala na lepszą kontrolę całkowitych kosztów i wydajności. Parametr dimensions nie jest obsługiwany we wszystkich wersjach biblioteki języka Python OpenAI 1.x, aby skorzystać z tego parametru, zalecamy uaktualnienie do najnowszej wersji: pip install openai --upgrade.

Jeśli obecnie używasz wersji zapoznawczej interfejsu API do korzystania z najnowszych funkcji, zalecamy zapoznanie się z artykułem dotyczącym cyklu życia wersji interfejsu API, aby śledzić, jak długo będzie obsługiwana bieżąca wersja interfejsu API.

Aktualizacja planów aktualizacji GPT-4-1106-Preview

Uaktualnienie gpt-4 wdrożenia wersji 1106-Preview do gpt-4 wersji 0125-Preview zaplanowane na 8 marca 2024 r. nie odbędzie się. gpt-4 Wdrożenia wersji 1106-Preview i 0125-Preview, ustawione na "Automatyczna aktualizacja do wartości domyślnej" i "Uaktualnienie po wygaśnięciu", zostaną zaktualizowane po wydaniu stabilnej wersji modelu.

Aby uzyskać więcej informacji na temat procesu uaktualniania, zapoznaj się ze stroną modeli.

luty 2024 r.

Dostępny model GPT-3.5-turbo-0125

Ten model ma różne ulepszenia, w tym większą dokładność odpowiedzi w żądanych formatach i poprawkę dla usterki, która spowodowała problem z kodowaniem tekstu w przypadku wywołań funkcji języka innego niż angielski.

Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.

Dostępne modele osadzania trzeciej generacji

  • text-embedding-3-large
  • text-embedding-3-small

OpenAI raportuje, że zarówno duże, jak i małe modele osadzania trzeciej generacji oferują lepszą średnią wydajność pobierania w wielu językach z benchmarkiem MIRACL, zachowując lepszą wydajność w zadaniach anglojęzycznych z benchmarkiem MTEB niż model osadzania tekstu drugiej generacji ada-002.

Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.

Konsolidacja limitów GPT-3.5 Turbo

Aby uprościć migrację między różnymi wersjami modeli GPT-3.5-Turbo (w tym wersją 16k), skonsolidujemy wszystkie limity przydziału GPT-3.5-Turbo do pojedynczej wartości przydziału.

  • Wszyscy klienci, którzy zatwierdzili zwiększony limit przydziału, będą mieli łączny łączny limit przydziału, który odzwierciedla poprzednie wzrosty.

  • Każdy klient, którego bieżące całkowite użycie w wersjach modelu jest mniejsze niż domyślne, domyślnie otrzyma nowy łączny łączny limit przydziału.

Dostępny model GPT-4-0125-preview

Wersja modelu gpt-40125-preview jest teraz dostępna w Azure OpenAI w regionach East US, North Central US i South Central US. Klienci z wdrożeniami wersji gpt-41106-preview zostaną automatycznie uaktualnieni do 0125-preview w najbliższych tygodniach.

Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.

Publiczna wersja zapoznawcza interfejsu API asystentów

Usługa Azure OpenAI obsługuje teraz interfejs API, który napędza modele GPT firmy OpenAI. Asystenci usługi Azure OpenAI (wersja zapoznawcza) umożliwiają tworzenie asystentów sztucznej inteligencji dostosowanych do potrzeb za pomocą niestandardowych instrukcji i zaawansowanych narzędzi, takich jak interpreter kodu i funkcje niestandardowe. Aby dowiedzieć się więcej, zobacz:

OpenAI text to speech voices public preview (Publiczna wersja zapoznawcza tekstu openAI na głosy mowy)

Usługa Azure OpenAI obsługuje teraz interfejsy API zamiany tekstu na mowę za pomocą głosów OpenAI. Pobierz mowę wygenerowaną przez sztuczną inteligencję na podstawie podanego tekstu. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem wprowadzającym i wypróbuj szybki start.

Uwaga / Notatka

Usługa Azure AI Speech obsługuje również głosy tekstu na mowę OpenAI. Aby dowiedzieć się więcej, zobacz przewodnik po głosach zamiany tekstu na mowę w usługach Azure OpenAI lub Azure AI Speech.

Nowe możliwości dostosowywania i obsługa modeli

Nowa regionalna obsługa usługi Azure OpenAI on Your Data

Teraz możesz używać usługi Azure OpenAI On Your Data w następującym regionie świadczenia usługi Azure:

  • Północna Republika Południowej Afryki

Ogólna dostępność usługi Azure OpenAI dla Twoich danych

Grudzień 2023 r.

Azure OpenAI w Twoich danych

  • Pełna obsługa sieci VPN i prywatnego punktu końcowego dla Azure OpenAI w Twoich Danych, w tym obsługa zabezpieczeń dla: kont magazynu, zasobów Azure OpenAI i zasobów usługi wyszukiwania Azure AI.
  • Nowy artykuł dotyczący korzystania z usługi Azure OpenAI w konfiguracji danych przez ochronę danych za pomocą sieci wirtualnych i prywatnych punktów końcowych.

GPT-4 Turbo z funkcją Vision jest już dostępny

GPT-4 Turbo z funkcją Vision na platformie Azure OpenAI jest teraz dostępne w publicznej wersji zapoznawczej. GPT-4 Turbo with Vision to duży model wielomodalny (LMM) opracowany przez openAI, który może analizować obrazy i dostarczać tekstowe odpowiedzi na pytania dotyczące nich. Obejmuje zarówno przetwarzanie języka naturalnego, jak i zrozumienie wizualne. W trybie rozszerzonym możesz użyć funkcji usługi Azure AI Vision , aby wygenerować dodatkowe szczegółowe informacje na podstawie obrazów.

  • Poznaj możliwości biblioteki GPT-4 Turbo z funkcją Vision w środowisku bez kodu, korzystając z platformy Azure OpenAI Playground. Dowiedz się więcej w przewodniku Szybki start.
  • Ulepszenia przetwarzania obrazów przy użyciu biblioteki GPT-4 Turbo z funkcją Vision są teraz dostępne w środowisku Azure OpenAI Playground i obejmują obsługę optycznego rozpoznawania znaków, uziemienia obiektów, obsługi obrazów dla "dodawania danych" i obsługi monitów wideo.
  • Wykonuj wywołania do interfejsu API czatu bezpośrednio, korzystając z REST API.
  • Dostępność regionów jest obecnie ograniczona do SwitzerlandNorth, SwedenCentral, WestUS i AustraliaEast
  • Dowiedz się więcej o znanych ograniczeniach GPT-4 Turbo z funkcją Vision i innych często zadawanych pytaniach.

Listopad 2023

Obsługa nowych źródeł danych w Azure OpenAI na Twoich danych

  • Teraz możesz używać Azure Cosmos DB dla MongoDB vCore oraz adresów URL/adresów internetowych jako źródeł danych, aby przetwarzać swoje dane i rozmawiać z obsługiwanym modelem usługi Azure OpenAI.

GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 wydane

Oba modele to najnowsze wydanie od OpenAI z ulepszonymi mechanizmami śledzenia instrukcji, trybem JSON, reproktywnymi wynikami i równoległym wywoływaniem funkcji.

  • GPT-4 Turbo Preview ma maksymalne okno kontekstowe 128 000 tokenów i może wygenerować 4096 tokenów wyjściowych. Ma najnowsze dane szkoleniowe obejmujące wiedzę do kwietnia 2023 roku. Ten model jest w wersji zapoznawczej i nie jest zalecany do użytku produkcyjnego. Wszystkie wdrożenia tego modelu w wersji zapoznawczej zostaną automatycznie zaktualizowane po udostępnieniu stabilnej wersji.

  • GPT-3.5-Turbo-1106 ma maksymalne okno kontekstowe 16 385 tokenów i może wygenerować 4096 tokenów wyjściowych.

Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się ze stroną modeli.

Modele mają indywidualne przydziały na region.

Publiczna wersja zapoznawcza DALL-E 3

DALL-E 3 to najnowszy model generowania obrazów z platformy OpenAI. Oferuje on ulepszoną jakość obrazu, bardziej złożone sceny i lepszą wydajność podczas renderowania tekstu na obrazach. Oferuje również więcej możliwości ustawienia proporcji. DALL-E 3 jest dostępny za pośrednictwem OpenAI Studio i REST API. Zasób OpenAI musi znajdować się w SwedenCentral regionie świadczenia usługi Azure.

DALL-E 3 zawiera wbudowane przeformułowywanie monitów, aby ulepszyć obrazy, zredukować uprzedzenia i zwiększyć naturalną różnorodność.

Wypróbuj DALL-E 3, korzystając z szybkiego startu.

Odpowiedzialne używanie sztucznej inteligencji

  • Rozszerzona możliwość konfigurowania klientów: wszyscy klienci usługi Azure OpenAI mogą teraz konfigurować wszystkie poziomy ważności (niski, średni, wysoki) dla kategorii nienawiści, przemocy, przemocy, seksualnej i samookaleczenia, w tym filtrowania tylko zawartości o wysokiej ważności. Konfigurowanie filtrów zawartości

  • Poświadczenia zawartości we wszystkich modelach DALL-E: obrazy generowane przez sztuczną inteligencję ze wszystkich modeli DALL-E zawierają teraz poświadczenia cyfrowe, które ujawniają zawartość wygenerowaną przez sztuczną inteligencję. Aplikacje, które wyświetlają zasoby obrazkowe, mogą korzystać z open source SDK Inicjatywy Content Authenticity, aby wyświetlać poświadczenia w obrazach generowanych przez sztuczną inteligencję. Poświadczenia zawartości w usłudze Azure OpenAI

  • Nowe modele RAI

    • Wykrywanie ryzyka jailbreaku: Ataki jailbreaku to żądania użytkowników mające na celu sprowokowanie modelu generatywnej sztucznej inteligencji do wykazywania zachowań, których model został nauczony unikać, lub złamania reguł ustawionych w komunikacie systemowym. Model wykrywania ryzyka związanego z jailbreakiem jest opcjonalny (domyślnie wyłączony) i dostępny w modelu adnotacji i filtrowania. Działa na podstawie poleceń użytkownika.
    • Tekst chronionych materiałów: tekst chroniony materiału opisuje znaną zawartość tekstową (na przykład teksty piosenek, artykuły, przepisy i wybraną zawartość internetową), którą można wydawać za pomocą dużych modeli językowych. Model tekstu chronionego materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu adnotacji i filtrowania. Działa na podstawie wyników LLM.
    • Kod chronionych materiałów: Kod chronionych materiałów opisuje kod źródłowy zgodny z zestawem kodu źródłowego z repozytoriów publicznych, które mogą być generowane przez duże modele językowe bez właściwego podania źródła. Model kodu chronionego materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Działa na podstawie wyników LLM.

    Konfigurowanie filtrów zawartości

  • Bloklisty: Klienci mogą teraz szybko dostosować działanie filtrów treści dla podpowiedzi i zakończeń, tworząc własną bloklistę w swoich filtrach. Niestandardowa lista bloków umożliwia filtrowi podejmowanie akcji na dostosowanej liście wzorców, takich jak określone terminy lub wzorce wyrażeń regularnych. Oprócz niestandardowych list blokad udostępniamy standardową listę wulgaryzmów od Microsoftu (w języku angielskim). Korzystanie z list blokowych

Październik 2023

Nowe modele dostrajania (wersja zapoznawcza)

Azure OpenAI w Twoich danych

  • Nowe parametry niestandardowe służące do określania liczby pobranych dokumentów i ścisłości.
    • Ustawienie surowości ustawia próg do kategoryzowania dokumentów jako istotnych dla zapytań.
    • Ustawienie Wyszukiwanych dokumentów określa liczbę najlepiej ocenianych dokumentów w indeskie danych używanych do generowania odpowiedzi.
  • Stan pozyskiwania/przekazywania danych można zobaczyć w programie Azure OpenAI Studio.
  • Wsparcie dla prywatnych punktów końcowych i sieci VPN dla kontenerów blobów.

Wrzesień 2023

GPT-4

GPT-4 i GPT-4-32k są teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Klienci nie muszą już ubiegać się o listę oczekujących, aby korzystać z modeli GPT-4 i GPT-4-32k (wymagania dotyczące rejestracji ograniczonego dostępu nadal mają zastosowanie do wszystkich modeli Azure OpenAI). Dostępność może się różnić w zależności od regionu. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.

GPT-3.5 Turbo Instrukcja

Usługa Azure OpenAI obsługuje teraz model GPT-3.5 Turbo Instruct. Model ten ma wydajność porównywalną z text-davinci-003 i jest dostępny do użycia z interfejsem API uzupełniania. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.

Whisper publiczna wersja próbna

Usługa Azure OpenAI obsługuje teraz interfejsy API zamiany mowy na tekst wykorzystujące model Whisper firmy OpenAI. Pobierz tekst wygenerowany przez sztuczną inteligencję na podstawie podanego dźwięku mowy. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.

Uwaga / Notatka

Usługa Azure AI Speech obsługuje również model Whisper OpenAI za pomocą interfejsu API transkrypcji wsadowej. Aby dowiedzieć się więcej, sprawdź przewodnik Stwórz transkrypcję zbiorczą. Sprawdź Co to jest model Whisper? aby dowiedzieć się więcej o tym, kiedy używać Azure AI Speech czy Azure OpenAI.

Nowe Regiony

  • Usługa Azure OpenAI jest teraz również dostępna w regionach Szwecja Środkowa i Szwajcaria Północna. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.

Regionalne limity przydziału zwiększają się

  • Zwiększenie maksymalnych domyślnych limitów przydziału dla niektórych modeli i regionów. Migrowanie obciążeń do tych modeli i regionów umożliwi korzystanie z wyższych tokenów na minutę (TPM).

Sierpień 2023

Aktualizacje usługi Azure OpenAI na danych użytkownika (wersja beta)

Lipiec 2023

Obsługa wywoływania funkcji

Zwiększenie osadzania danych wejściowych

Nowe Regiony

  • Usługa Azure OpenAI jest teraz również dostępna w regionach Kanada Wschodnia, Wschodnie stany USA 2, Japonia Wschodnia i Północno-środkowe stany USA. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.

Czerwiec 2023

Korzystanie z usługi Azure OpenAI na własnych danych (wersja zapoznawcza)

  • Usługa Azure OpenAI On Your Data jest teraz dostępna w wersji zapoznawczej, umożliwiając rozmowę z modelami OpenAI, takimi jak GPT-35-Turbo i GPT-4, i odbieranie odpowiedzi na podstawie danych.

Nowe wersje modeli gpt-35-turbo i gpt-4

  • gpt-35-turbo (wersja 0613)
  • gpt-35-turbo-16k (wersja 0613)
  • gpt-4 (wersja 0613)
  • gpt-4-32k (wersja 0613)

Południowe Zjednoczone Królestwo

  • Usługa Azure OpenAI jest teraz dostępna w regionie Południowe Zjednoczone Królestwo. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.

Filtrowanie i adnotacje zawartości (wersja zapoznawcza)

Kwota

Maj 2023

Obsługa zestawów SDK dla Java i JavaScript

Powszechna dostępność funkcji Chat Completion w usłudze Azure OpenAI

  • Ogólna obsługa dostępności dla:
    • Chat Completion API wersja 2023-05-15.
    • Modele GPT-35-Turbo.
    • Seria modeli GPT-4.

Jeśli obecnie używasz interfejsu 2023-03-15-preview API, zalecamy migrację do wersji GA interfejsu 2023-05-15 API. Jeśli obecnie używasz wersji 2022-12-01 interfejsu API, jest ona nadal ogólnie dostępna, ale nie obejmuje najnowszych funkcji uzupełniania czatu.

Ważne

Korzystanie z bieżących wersji modeli GPT-35-Turbo z interfejsem zakończeniowym nadal znajduje się w fazie testowej.

Francja Środkowa

  • Usługa Azure OpenAI jest teraz dostępna w regionie Francja Środkowa. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.

Kwiecień 2023 r.

  • DALL-E 2 — publiczna wersja zapoznawcza. Usługa Azure OpenAI obsługuje teraz interfejsy API generowania obrazów zasilane przez model OpenAI DALL-E 2. Pobierz obrazy generowane przez sztuczną inteligencję na podstawie podanego tekstu opisowego. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.

  • Nieaktywne wdrożenia niestandardowych modeli zostaną usunięte po upływie 15 dni; modele pozostaną dostępne do ponownego wdrożenia. Jeśli dostosowany (dostrojony) model jest wdrażany przez ponad piętnaście (15) dni, w których nie zostaną wykonane żadne wywołania do uzyskania odpowiedzi ani czatu, wdrożenie zostanie automatycznie usunięte (i nie zostaną naliczone żadne dalsze opłaty za utrzymanie tego wdrożenia). Podstawowy dostosowany model pozostanie dostępny i będzie można go ponownie wdrożyć w dowolnym momencie. Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.

Marzec 2023 r.

  • Modele serii GPT-4 są teraz dostępne w wersji zapoznawczej w usłudze Azure OpenAI. Aby zażądać dostępu, istniejący klienci usługi Azure OpenAI mogą zastosować się, wypełniając ten formularz. Te modele są obecnie dostępne w regionach Wschodnie stany USA i Południowo-środkowe stany USA.

  • Nowe API uzupełniania czatu dla modeli GPT-35-Turbo i GPT-4 wydane w wersji zapoznawczej 21 marca. Aby dowiedzieć się więcej, zapoznaj się ze zaktualizowanymi przewodnikami Szybki start i artykułem z instrukcjami.

  • GPT-35-Turbo (wersja zapoznawcza). Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.

  • Zwiększone limity szkolenia do dostrajania: maksymalny rozmiar zadania szkoleniowego (liczba tokenów w pliku szkoleniowym) x (liczba epok) wynosi 2 000 000 000 tokenów dla wszystkich modeli. Zwiększyliśmy również maksymalną liczbę zadań treningowych z 120 do 720 godzin.

  • Dodawanie dodatkowych przypadków użycia do istniejącego dostępu. Wcześniej proces dodawania nowych scenariuszy użycia wymagał od klientów ponownego ubiegania się o usługę. Teraz wprowadzamy nowy proces, który umożliwia szybkie dodawanie nowych scenariuszy użycia do korzystania z usługi. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w usłudze Azure OpenAI. Istniejący klienci mogą potwierdzić wszystkie nowe przypadki użycia w tym miejscu. Należy pamiętać, że jest to wymagane za każdym razem, gdy chcesz korzystać z usługi w przypadku nowego zastosowania, którego wcześniej nie zgłaszałeś.

luty 2023

Nowe funkcje

  • Przykłady wersji zapoznawczej .NET SDK (inference) | Samples
  • Aktualizacja zestawu SDK programu Terraform do obsługi operacji zarządzania usługą Azure OpenAI.
  • Wstawianie tekstu na końcu wypełnienia jest teraz obsługiwane za pomocą parametru suffix.

Aktualizacje

  • Filtrowanie zawartości jest domyślnie włączone.

Nowe artykuły na temat:

Nowy kurs szkoleniowy:

Styczeń 2023 r.

Nowe funkcje

  • Service GA Usługa Azure OpenAI jest teraz ogólnie dostępna.

  • Nowe modele: Dodawanie najnowszego modelu tekstu, text-davinci-003 (Wschodnie stany USA, Europa Zachodnia), text-ada-embeddings-002 (Wschodnie stany USA, Południowo-środkowe stany USA, Europa Zachodnia)

Grudzień 2022

Nowe funkcje

  • Najnowsze modele z platformy OpenAI. Usługa Azure OpenAI zapewnia dostęp do wszystkich najnowszych modeli, w tym serii GPT-3.5.

  • Nowa wersja interfejsu API (2022-12-01). Ta aktualizacja obejmuje kilka żądanych ulepszeń, w tym informacje o użyciu tokenu w odpowiedzi interfejsu API, ulepszone komunikaty o błędach dla plików, wyrównanie do interfejsu OpenAI w zakresie dostrajania struktury danych tworzenia oraz obsługę parametru sufiksu w celu umożliwienia niestandardowego nazewnictwa dostosowanych zadań. ​

  • Wyższe limity żądań na sekundę. 50 dla modeli innych niż Davinci. 20 dla modeli Davinci.

  • Szybsze dostosowywanie wdrożeń. Wdróż zoptymalizowane modele typu Ada i Curie w mniej niż 10 minut.

  • Wyższe limity treningowe: 40 mln tokenów treningowych dla Ada, Babbage i Curie. 10M dla Davinci.

  • Proces składania wniosków o modyfikacje rejestrowania danych dotyczących nadużyć i niewłaściwego użycia oraz ich przeglądu przez ludzi. Obecnie usługa rejestruje dane żądania/odpowiedzi na potrzeby wykrywania nadużyć i nieprawidłowego użycia, aby upewnić się, że te zaawansowane modele nie są nadużywane. Jednak wielu klientów ma ścisłe wymagania dotyczące prywatności i zabezpieczeń danych, które wymagają większej kontroli nad danymi. Aby obsługiwać te przypadki użycia, publikujemy nowy proces dla klientów w celu zmodyfikowania zasad filtrowania zawartości lub wyłączenia rejestrowania nadużyć w przypadku przypadków użycia niskiego ryzyka. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w usłudze Azure OpenAI, a istniejący klienci OpenAI mogą aplikować tutaj.

  • Szyfrowanie klucza zarządzanego przez klienta (CMK). CMK zapewnia klientom większą kontrolę nad zarządzaniem ich danymi w usłudze Azure OpenAI, umożliwiając wykorzystanie własnych kluczy szyfrowania do przechowywania danych szkoleniowych i modeli dostosowanych. Klucze zarządzane przez klienta (CMK), znane także jako własne klucze (BYOK), zapewniają większą elastyczność tworzenia, obracania, wyłączania i odwoływania kontroli dostępu. Możesz również przeprowadzać inspekcję kluczy szyfrowania używanych do ochrony danych. Dowiedz się więcej z naszej dokumentacji dotyczącej szyfrowania danych w spoczynku.

  • Obsługa skrzynki depozytowej

  • Zgodność (SOC-2)

  • Rejestrowanie i diagnostyka za pomocą Azure Resource Health, analizy kosztów, metryk oraz diagnostyki.

  • Ulepszenia programu Studio. Liczne ulepszenia użyteczności przepływu pracy programu Studio, w tym obsługa roli usługi Azure AD w celu kontrolowania, kto w zespole ma dostęp do tworzenia dostosowanych modeli i wdrażania.

Zmiany (powodujące niezgodność)

Dostrajanie żądania tworzenia interfejsu API zostało zaktualizowane w celu dopasowania do schematu interfejsu OpenAI.

Wersje interfejsu API w wersji zapoznawczej:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "hyperparams": { ​
        "batch_size": 4,​
        "learning_rate_multiplier": 0.1,​
        "n_epochs": 4,​
        "prompt_loss_weight": 0.1,​
    }​
}

Interfejs API w wersji 2022-12-01:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "batch_size": 4,​
    "learning_rate_multiplier": 0.1,​
    "n_epochs": 4,​
    "prompt_loss_weight": 0.1,​
}

Filtrowanie zawartości jest domyślnie tymczasowo wyłączone . Moderacja treści Azure funkcjonuje inaczej niż Azure OpenAI. Usługa Azure OpenAI uruchamia filtry zawartości podczas wywołania generacji w celu wykrywania szkodliwej lub obraźliwej zawartości i filtruje je z odpowiedzi. Dowiedz się więcej

Te modele zostaną ponownie włączone w kwartale 2023 r. i będą domyślnie włączone. ​

Akcje klienta

Dalsze kroki

Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.