Ten artykuł zawiera podsumowanie najnowszych wersji i najważniejszych aktualizacji dokumentacji dla usługi Azure OpenAI Service.
Luty 2025 r.
Wdrożenia standardowe strefy danych o3-mini datazone
o3-mini Jest teraz dostępna dla globalnych standardowych wdrożeń strefy danych dla zarejestrowanych klientów z ograniczonym dostępem. Regiony wdrażania w warstwie Standardowa danych są obecnie Stany Zjednoczone tylko regiony.
Aby uzyskać więcej informacji, zobacz nasz przewodnik po modelu rozumowania.
gpt-4o mini audio wydany
Model gpt-4o-mini-audio-preview (2024-12-17) to najnowszy model uzupełniania dźwięku. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący generowania dźwięku.
Model gpt-4o-mini-realtime-preview (2024-12-17) jest najnowszym modelem audio w czasie rzeczywistym. Modele w czasie rzeczywistym używają tego samego bazowego modelu audio GPT-4o jako interfejsu API uzupełniania, ale jest zoptymalizowany pod kątem interakcji audio o małych opóźnieniach i dźwiękach w czasie rzeczywistym. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący audio w czasie rzeczywistym.
Aby uzyskać więcej informacji na temat dostępnych modeli, zobacz dokumentację modeli i wersji.
Styczeń 2025 r.
O3-mini wydany
o3-mini (2025-01-31) to najnowszy model rozumowania, oferując ulepszone możliwości rozumowania. Aby uzyskać więcej informacji, zobacz nasz przewodnik po modelu rozumowania.
Ukończenie dźwięku GPT-4o
Model gpt-4o-audio-preview jest teraz dostępny dla wdrożeń globalnych w regionach Wschodnie stany USA 2 i Szwecja Środkowa. Użyj modelu do generowania gpt-4o-audio-preview dźwięku.
Model gpt-4o-audio-preview wprowadza modalność audio do istniejącego /chat/completions interfejsu API. Model audio rozszerza potencjał aplikacji sztucznej inteligencji w interakcjach tekstowych i głosowych oraz analizie audio. Modalności obsługiwane w gpt-4o-audio-preview modelu obejmują: tekst, dźwięk i tekst + dźwięk. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący generowania dźwięku.
Uwaga
Interfejs API czasu rzeczywistego używa tego samego podstawowego modelu audio GPT-4o co interfejs API uzupełniania, ale jest zoptymalizowany pod kątem interakcji audio w czasie rzeczywistym z małymi opóźnieniami.
Interfejs API czasu rzeczywistego GPT-4o 2024-12-17
gpt-4o-realtime-preview Model w wersji 2024-12-17 jest dostępny dla wdrożeń globalnych w regionach Wschodnie stany USA 2 i Szwecja Środkowa.
gpt-4o-realtime-preview Użyj modelu w wersji 2024-12-17 zamiast gpt-4o-realtime-preview wersji 2024-10-01-preview dla interakcji audio w czasie rzeczywistym.
Dodano obsługę nowych głosów. Modele gpt-4o-realtime-preview obsługują teraz następujące głosy: "stop", "ash", "ballad", "coral", "echo", "sage", "shimmer", "verse".
Limity szybkości nie są już oparte na połączeniach na minutę. Ograniczanie szybkości jest teraz oparte na obr./min (żądania na minutę) i module TPM (tokeny na minutę gpt-4o-realtime-preview ) dla modelu. Limity szybkości dla każdego gpt-4o-realtime-preview wdrożenia modelu to 100K TPM i 1K RPM. W okresie obowiązywania wersji zapoznawczej portal usługi Azure AI Foundry i interfejsy API mogą niedokładnie pokazywać różne limity szybkości. Nawet jeśli spróbujesz ustawić inny limit szybkości, rzeczywisty limit szybkości będzie równy 100K TPM i 1K RPM.
O1 model rozumowania wydany w celu uzyskania ograniczonego dostępu
Najnowszy o1 model jest teraz dostępny na potrzeby dostępu do interfejsu API i wdrażania modelu.
Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft. Klienci, którzy wcześniej zastosowali i otrzymali dostęp do o1-previewusługi , nie muszą ponownie stosować aplikacji, ponieważ są one automatycznie na liście oczekujących dla najnowszego modelu.
Wschodnie stany USA2 (Standardowa globalna) Szwecja Środkowa (Globalny standard)
Dostosowywanie preferencji (wersja zapoznawcza)
Optymalizacja preferencji bezpośrednich (DPO) to nowa technika wyrównania dla dużych modeli językowych, przeznaczona do dostosowywania wag modelu na podstawie preferencji człowieka. W przeciwieństwie do uczenia wzmacniania z opinii człowieka (RLHF), obiekt DPO nie wymaga dopasowania modelu nagrody i używa prostszych danych (preferencji binarnych) do trenowania. Ta metoda jest obliczanie lżejsza i szybsza, dzięki czemu jest równie efektywna w wyrównaniu, a jednocześnie wydajniejsza. Obiekt DPO jest szczególnie przydatny w scenariuszach, w których ważne są subiektywne elementy, takie jak ton, styl lub określone preferencje dotyczące zawartości. Z przyjemnością ogłaszamy publiczną wersję zapoznawczą obiektu DPO w usłudze Azure OpenAI Service, począwszy od gpt-4o-2024-08-06 modelu.
Aby uzyskać szczegółowe informacje na temat dostępności regionu modelu, zobacz stronę modeli.
Przechowywane uzupełnianie i destylacja
Zapisane uzupełnienia umożliwiają przechwytywanie historii konwersacji z sesji ukończenia czatu do użycia jako zestawy danych na potrzeby ocen i dostrajania.
Wdrożenia aprowizowania strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych w strefie danych zdefiniowanej przez firmę Microsoft z najlepszą dostępnością dla każdego żądania. Wdrożenia aprowidowane w strefie danych zapewniają pojemność przetwarzania modeli zarezerwowanych na potrzeby wysokiej i przewidywalnej przepływności przy użyciu infrastruktury platformy Azure w określonych strefach danych firmy Microsoft. Wdrożenia aprowizowania strefy danych są obsługiwane w modelach gpt-4o-2024-08-06, gpt-4o-2024-05-13i gpt-4o-mini-2024-07-18 .
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Listopad 2024 r.
Wizje dostrajania ogólnie dostępne
Dostrajanie obrazów za pomocą GPT-4o (2024-08-06) jest teraz ogólnie dostępne (GA).
Dostrajanie obrazów umożliwia dodawanie obrazów do danych treningowych JSONL. Podobnie jak w przypadku wysyłania jednego lub wielu danych wejściowych obrazów do ukończenia czatu, możesz uwzględnić te same typy komunikatów w danych treningowych. Obrazy mogą być udostępniane jako adresy URL lub jako obrazy zakodowane w formacie base64.
Aby uzyskać szczegółowe informacje na temat dostępności regionu modelu, zobacz stronę modeli.
NOWE monitorowanie nadużyć sztucznej inteligencji
Wprowadzamy nowe formy monitorowania nadużyć, które wykorzystują llMs w celu zwiększenia wydajności wykrywania potencjalnie obraźliwych zastosowań usługi Azure OpenAI i umożliwienia monitorowania nadużyć bez konieczności przeglądu przez człowieka monitów i uzupełniania. Dowiedz się więcej, zobacz Monitorowanie nadużyć.
Monity i uzupełnienia oflagowane za pośrednictwem klasyfikacji zawartości i/lub zidentyfikowane jako część potencjalnie obraźliwego wzorca użytkowania podlegają dodatkowemu procesowi przeglądu, aby ułatwić potwierdzenie analizy systemu i informowanie o decyzjach dotyczących akcji. Nasze systemy monitorowania nadużyć zostały rozszerzone w celu umożliwienia przeglądu przez LLM domyślnie i przez ludzi, gdy jest to konieczne i odpowiednie.
Październik 2024 r.
NOWY standardowy typ wdrożenia strefy danych
Standardowe wdrożenia strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale umożliwiają dynamiczne kierowanie ruchu do centrum danych w strefie danych zdefiniowanej przez firmę Microsoft z najlepszą dostępnością dla każdego żądania. Standard strefy danych zapewnia wyższe domyślne limity przydziału niż typy wdrożeń opartych na lokalizacji geograficznej platformy Azure. Standardowe wdrożenia strefy danych są obsługiwane w modelach gpt-4o-2024-08-06, gpt-4o-2024-05-13i gpt-4o-mini-2024-07-18 .
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Globalna ogólna dostępność usługi Batch
Usługa Azure OpenAI globalna partia jest teraz ogólnie dostępna.
Interfejs API usługi Azure OpenAI Batch jest przeznaczony do wydajnego obsługi zadań przetwarzania dużych i dużych ilości. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem przydziału, z 24-godzinnym planem docelowym, przy mniejszym koszcie 50% niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają oddzielny limit przydziału tokenu w kolejce, co pozwala uniknąć zakłóceń obciążeń online.
Najważniejsze przypadki użycia:
Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.
Generowanie zawartości: utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.
Przegląd dokumentów i podsumowanie: automatyzowanie przeglądu i podsumowania długich dokumentów.
Automatyzacja obsługi klienta: obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.
Wyodrębnianie i analiza danych: wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.
Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.
Marketing i personalizacja: generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.
o1-preview i o1-mini modele z ograniczonym dostępem
Modele o1-preview i o1-mini są teraz dostępne na potrzeby dostępu do interfejsu API i wdrażania modelu.
Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft.
Klienci, którzy zostali już zatwierdzeni i mają dostęp do modelu za pośrednictwem placu zabaw z wczesnym dostępem, nie muszą stosować się ponownie. Automatycznie otrzymasz dostęp do interfejsu API. Po udzieleniu dostępu należy utworzyć wdrożenie dla każdego modelu.
Obsługa interfejsu API:
Obsługa modeli serii o1 została dodana w wersji 2024-09-01-previewinterfejsu API .
Parametr max_tokens został przestarzały i zastąpiony nowym max_completion_tokens parametrem.
Modele serii o1 będą działać tylko z parametrem max_completion_tokens .
Dostępność regionów:
Modele są dostępne dla standardowych i globalnych standardowych wdrożeń w regionach Wschodnie stany USA 2 i Szwecja Środkowa dla zatwierdzonych klientów.
Nowy interfejs API GPT-4o Realtime na potrzeby mowy i audio w publicznej wersji zapoznawczej
Azure OpenAI GPT-4o audio jest częścią rodziny modeli GPT-4o, która obsługuje małe opóźnienia, "mowa w, mowy na out" interakcji konwersacyjnych. Interfejs API audio realtime GPT-4o jest przeznaczony do obsługi interakcji konwersacyjnych w czasie rzeczywistym, małych opóźnień, dzięki czemu doskonale nadaje się do przypadków użycia obejmujących interakcje na żywo między użytkownikiem a modelem, takie jak agenci pomocy technicznej klienta, asystentzy głosowi i tłumacze w czasie rzeczywistym.
Model gpt-4o-realtime-preview jest dostępny dla wdrożeń globalnych w regionach Wschodnie stany USA 2 i Szwecja Środkowa.
Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący dźwięku GPT-4o w czasie rzeczywistym.
Aktualizacje środowiska użytkownika programu Azure OpenAI Studio
Od 19 września 2024 r. po przejściu do programu Azure OpenAI Studio nie widzisz już starszej wersji programu Azure OpenAI Studio . W razie potrzeby nadal będzie można wrócić do poprzedniego środowiska przy użyciu przełącznika Przełącz do starego wyglądu na górnym pasku interfejsu użytkownika przez następne kilka tygodni. Jeśli przełączysz się z powrotem do starszego portalu azure AI Foundry, pomoże Ci wypełnić formularz opinii, aby poinformować nas, dlaczego. Aktywnie monitorujemy tę opinię, aby ulepszyć nowe środowisko.
Wdrożenia aprowizacji GPT-4o 2024-08-06
GPT-4o 2024-08-06 jest teraz dostępny dla wdrożeń aprowizowania w regionach Wschodnie stany USA, Wschodnie stany USA 2, Północno-środkowe stany USA i Szwecja Środkowa. Jest ona również dostępna dla globalnych wdrożeń aprowizowania.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
NOWY typ wdrożenia aprowizowanego globalnie
Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co typy wdrożeń innych niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalne aprowizowanie wdrożeń zapewnia pojemność przetwarzania modelu zarezerwowanego na potrzeby wysokiej i przewidywalnej przepływności przy użyciu globalnej infrastruktury platformy Azure. Globalne wdrożenia aprowizowania są obsługiwane w modelach gpt-4o-2024-08-06 i .gpt-4o-mini-2024-07-18
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
NOWE modele o1-preview i o1-mini dostępne w celu uzyskania ograniczonego dostępu
Usługa Azure OpenAI o1-preview i o1-mini modele zostały zaprojektowane tak, aby rozwiązywać problemy i rozwiązywać problemy pod kątem zwiększonego skupienia i możliwości. Modele te poświęcają więcej czasu na przetwarzanie i zrozumienie żądania użytkownika, co czyni je wyjątkowo silnymi w obszarach takich jak nauka, kodowanie i matematyka w porównaniu z poprzednimi iteracjami.
Kluczowe możliwości serii o1
Złożone generowanie kodu: możliwość generowania algorytmów i obsługi zaawansowanych zadań kodowania w celu obsługi deweloperów.
Zaawansowane rozwiązywanie problemów: idealne rozwiązanie dla kompleksowych sesji burzy mózgów i rozwiązywanie wielowymiarowych wyzwań.
Złożone porównanie dokumentów: idealne rozwiązanie do analizowania kontraktów, plików przypadków lub dokumentów prawnych w celu identyfikowania subtelnych różnic.
Instrukcje następujące i zarządzanie przepływami pracy: Szczególnie skuteczne zarządzanie przepływami pracy wymagającymi krótszych kontekstów.
Warianty modelu
o1-preview: o1-preview jest bardziej zdolny do o1 modeli serii.
o1-mini: o1-mini jest szybszym i tańszym modelem o1 serii.
Modele o1 serii są obecnie dostępne w wersji zapoznawczej i nie zawierają niektórych funkcji dostępnych w innych modelach, takich jak interpretacja obrazu i dane wyjściowe ze strukturą, które są dostępne w najnowszym modelu GPT-4o. W przypadku wielu zadań ogólnie dostępne modele GPT-4o mogą być nadal bardziej odpowiednie.
Bezpieczeństwo
Platforma OpenAI wprowadziła dodatkowe środki bezpieczeństwa do o1 modeli, w tym nowe techniki ułatwiające modelom odrzucanie niebezpiecznych żądań. Te postępy sprawiają, że o1 seria jest najbardziej niezawodna.
Dostępność
Te o1-preview i o1-mini są dostępne w regionie Wschodnie stany USA 2 w celu uzyskania ograniczonego dostępu za pośrednictwem witryny Azure AI Foundry Portal z wczesnym dostępem. Przetwarzanie danych dla o1 modeli może wystąpić w innym regionie niż w przypadku, gdy są one dostępne do użycia.
Aby wypróbować modele o1-preview i o1-mini w rejestracji placu zabaw dla wczesnego dostępu jest wymagany, a dostęp zostanie przyznany na podstawie kryteriów kwalifikowalności firmy Microsoft.
Po wybraniu eastus2 zasobu Azure OpenAI w lewym górnym panelu w obszarze Place zabaw wybierz pozycję Plac zabaw dla wczesnych dostępów (wersja zapoznawcza).
Mini GPT-4o jest teraz dostępny dla wdrożeń aprowizowania w Kanadzie Wschodniej, Wschodnie stany USA, Wschodnie stany USA 2, Północno-środkowe stany USA i Szwecja Środkowa.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Dostrajanie GPT-4o (publiczna wersja zapoznawcza)
Dostrajanie GPT-4o jest teraz dostępne dla usługi Azure OpenAI w publicznej wersji zapoznawczej w północno-środkowych stanach USA i Szwecji Środkowej.
Aby uzyskać więcej informacji, zobacz nasz wpis w blogu.
Nowa wersja zapoznawcza interfejsu API
Wersja 2024-07-01-preview interfejsu API to najnowsza wersja interfejsu API tworzenia i wnioskowania płaszczyzny danych. Zastępuje wersję 2024-05-01-preview interfejsu API i dodaje obsługę:
Najnowszy model GPT-4o dostępny na placu zabaw z wczesnym dostępem (wersja zapoznawcza)
6 sierpnia 2024 roku OpenAI ogłosiła najnowszą wersję flagowego modelu 2024-08-06GPT-4o. GPT-4o 2024-08-06 ma wszystkie możliwości poprzedniej wersji, a także:
Ulepszona możliwość obsługi złożonych danych wyjściowych ze strukturą.
Maksymalna liczba tokenów wyjściowych została zwiększona z 4096 do 16 384.
Klienci platformy Azure mogą przetestować usługę GPT-4o 2024-08-06 już dziś w nowym placu zabaw wczesnego dostępu do usługi Azure AI Foundry (wersja zapoznawcza).
W przeciwieństwie do poprzedniego placu zabaw dla wczesnego dostępu do portalu Azure AI Foundry (wersja zapoznawcza) nie wymaga posiadania zasobu w określonym regionie.
Uwaga
Monity i zakończenia wykonywane za pośrednictwem placu zabaw z wczesnym dostępem (wersja zapoznawcza) mogą być przetwarzane w dowolnym regionie usługi Azure OpenAI i obecnie podlegają limitowi 10 żądań na minutę na subskrypcję platformy Azure. Ten limit może ulec zmianie w przyszłości.
Monitorowanie nadużyć usługi Azure OpenAI jest włączone dla wszystkich użytkowników placu zabaw wczesnego dostępu, nawet jeśli zostały zatwierdzone do modyfikacji; Domyślne filtry zawartości są włączone i nie można ich modyfikować.
Aby przetestować środowisko GPT-4o 2024-08-06, zaloguj się do placu zabaw z wczesnym dostępem do sztucznej inteligencji platformy Azure (wersja zapoznawcza) przy użyciu tego linku.
Globalne wdrożenia wsadowe są teraz dostępne
Interfejs API usługi Azure OpenAI Batch jest przeznaczony do wydajnego obsługi zadań przetwarzania dużych i dużych ilości. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem przydziału, z 24-godzinnym planem docelowym, przy mniejszym koszcie 50% niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają oddzielny limit przydziału tokenu w kolejce, co pozwala uniknąć zakłóceń obciążeń online.
Najważniejsze przypadki użycia:
Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.
Generowanie zawartości: utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.
Przegląd dokumentów i podsumowanie: automatyzowanie przeglądu i podsumowania długich dokumentów.
Automatyzacja obsługi klienta: obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.
Wyodrębnianie i analiza danych: wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.
Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.
Marketing i personalizacja: generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.
Narzędzie do wyszukiwania plików asystentów jest teraz rozliczane
Narzędzie do wyszukiwania plików dla Asystentów ma teraz dodatkowe opłaty za użycie. Przejdź na stronę cennika, aby uzyskać więcej informacji.
Mini model GPT-4o dostępny do wdrożenia
GPT-4o mini to najnowszy model Usługi Azure OpenAI ogłoszony po raz pierwszy 18 lipca 2024 r.:
"GPT-4o mini pozwala klientom dostarczać wspaniałe aplikacje przy niższych kosztach z szybkością płonąc. GPT-4o mini jest znacznie mądrzejszy niż GPT-3,5 Turbo — oceniając 82% na mierzenie ogromnej wielotaskowej usługi Language Understanding (MMLU) w porównaniu z 70% i jest o ponad 60% tańsze.1 Model zapewnia rozszerzone okno kontekstowe 128K i integruje ulepszone wielojęzyczne możliwości GPT-4o, zapewniając większą jakość języków z całego świata."
Model jest obecnie dostępny dla wdrożenia standardowego i globalnego w regionie Wschodnie stany USA.
Nowe domyślne zasady filtrowania zawartości odpowiedzialnej sztucznej inteligencji
Nowe domyślne zasady DefaultV2 filtrowania zawartości zapewniają najnowsze środki zaradcze bezpieczeństwa i zabezpieczeń dla serii modeli GPT (tekst), w tym:
Monituj osłony o ataki jailbreaku na monity użytkownika (filtr),
Wykrywanie materiałów chronionych dla tekstu (filtru) po zakończeniu modelu
Wykrywanie materiałów chronionych dla kodu (adnotacji) podczas uzupełniania modelu
Chociaż nie ma żadnych zmian w filtrach zawartości dla istniejących zasobów i wdrożeń (domyślne lub niestandardowe konfiguracje filtrowania zawartości pozostają niezmienione), nowe zasoby i wdrożenia GPT będą automatycznie dziedziczyć nowe zasady DefaultV2filtrowania zawartości. Klienci mają możliwość przełączania się między ustawieniami domyślnymi zabezpieczeń i tworzenia niestandardowych konfiguracji filtrowania zawartości.
Aby uzyskać więcej informacji, zapoznaj się z naszą dokumentacją domyślnych zasad bezpieczeństwa.
Nowa wersja interfejsu API ogólnie dostępnego
Wersja interfejsu API to najnowsza wersja 2024-06-01 interfejsu API wnioskowania na płaszczyźnie danych ogólnie dostępnej. Zastępuje wersję 2024-02-01 interfejsu API i dodaje obsługę:
osadzanie encoding_format i dimensions parametry.
uzupełnianie czatu logprobs i top_logprobs parametry.
Aby uzyskać więcej informacji, zapoznaj się z dokumentacją referencyjną wnioskowania płaszczyzny danych.
Rozszerzanie regionów dostępnych dla globalnych standardowych wdrożeń biblioteki gpt-4o
Aby uzyskać informacje na temat globalnego limitu przydziału standardowego, zapoznaj się ze stroną limitów przydziału i limitów.
Czerwiec 2024 r.
Aktualizacje daty wycofania
Zaktualizowano gpt-35-turbo datę wycofania 0301 do nie wcześniej niż 1 października 2024 r.
Zaktualizowano gpt-35-turbo datę wycofania i gpt-35-turbo-16k0613 do 1 października 2024 r.
Data wycofania aktualizacji gpt-4 i gpt-4-32k 0314 do 1 października 2024 r. i data wycofania do 6 czerwca 2025 r.
Zapoznaj się z naszym przewodnikiem po wycofaniu modelu, aby uzyskać najnowsze informacje na temat wycofywania i wycofywania modelu.
Rozliczenia oparte na tokenach na potrzeby dostrajania
Rozliczenia dotyczące dostrajania w usłudze Azure OpenAI są teraz oparte na liczbie tokenów w pliku treningowym — zamiast łącznego czasu uczenia, który upłynął. Może to spowodować znaczne obniżenie kosztów niektórych przebiegów treningowych i znacznie ułatwia szacowanie kosztów dostosowywania. Aby dowiedzieć się więcej, możesz zapoznać się z oficjalnym ogłoszeniem.
GPT-4o wydany w nowych regionach
GPT-4o jest teraz również dostępny w:
Szwecja Środkowa dla standardowego wdrożenia regionalnego.
Australia Wschodnia, Kanada Wschodnia, Japonia Wschodnia, Korea Środkowa, Szwecja Środkowa, Szwajcaria Północna i Zachodnie stany USA 3 na potrzeby aprowizowania wdrożenia.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Obsługa klucza zarządzanego przez klienta (CMK) dla asystentów
Wątki i pliki w Asystentach obsługują teraz klucz cmK w następującym regionie:
Zachodnie stany USA 3
Maj 2024 r.
Wdrożenia aprowizacji GPT-4o
gpt-4o Wersja: 2024-05-13 jest dostępna zarówno dla wdrożeń standardowych, jak i aprowizowania. Wdrożenia modelu aprowizowanego i standardowego akceptują żądania wnioskowania obrazów i obrazów.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się z macierzą modeli dla aprowizowania wdrożeń.
Asystenci w wersji 2 (wersja zapoznawcza)
Odświeżanie interfejsu API Asystentów jest teraz publicznie dostępne. Zawiera następujące aktualizacje:
Maksymalna obsługa uzupełniania i maksymalnego tokenu monitu na potrzeby zarządzania użyciem tokenu.
tool_choiceparametr wymuszający użycie określonego narzędzia przez Asystenta.
Teraz możesz tworzyć wiadomości z rolą asystenta, aby tworzyć niestandardowe historie konwersacji w wątkach.
Obsługa przesyłania strumieniowego i sondowania. Możesz użyć funkcji pomocnika w naszym zestawie SDK języka Python, aby tworzyć uruchomienia i przesyłać strumieniowo odpowiedzi. Dodaliśmy również pomocników zestawu SDK sondowania w celu udostępniania aktualizacji stanu obiektu bez konieczności sondowania.
Rozwiązanie AutoGen by Microsoft Research udostępnia platformę konwersacji dla wielu agentów, która umożliwia wygodne tworzenie przepływów pracy modelu dużego języka (LLM) w wielu aplikacjach. Asystenci usługi Azure OpenAI są teraz zintegrowane z rozwiązaniem AutoGen za pośrednictwem usługi GPTAssistantAgent, nowego eksperymentalnego agenta, który umożliwia bezproblemowe dodawanie Asystentów do przepływów pracy wieloagenów opartych na autogenie. Umożliwia to wielu asystentom usługi Azure OpenAI, które mogą być zadaniami lub domenami wyspecjalizowanymi do współpracy i rozwiązywania złożonych zadań.
Obsługa dostosowanych gpt-3.5-turbo-0125modeli w następujących regionach:
Wschodnie stany USA 2
Szwecja Środkowa
Rozszerzona obsługa regionalna dla:
Japan East
Południowe Zjednoczone Królestwo
Zachodnie stany USA
Zachodnie stany USA 3
Norwegia wschodnia
Aby uzyskać więcej informacji, zobacz wpis w blogu dotyczący asystentów.
Ogólna dostępność modelu GPT-4o
GPT-4o ("o is for "omni") to najnowszy model z OpenAI uruchomiony 13 maja 2024 r.
GPT-4o integruje tekst i obrazy w jednym modelu, umożliwiając mu obsługę wielu typów danych jednocześnie. Takie wielomodalne podejście zwiększa dokładność i szybkość reakcji w interakcjach komputerów ludzkich.
GPT-4o pasuje do GPT-4 Turbo w języku angielskim i zadaniach kodowania, oferując lepszą wydajność w językach innych niż angielski i w zadaniach przetwarzania obrazów, ustawiając nowe testy porównawcze dla możliwości sztucznej inteligencji.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zobacz stronę modeli.
Globalny standardowy typ wdrożenia (wersja zapoznawcza)
Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co oferty inne niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalny standard zapewnia najwyższy domyślny limit przydziału dla nowych modeli i eliminuje konieczność równoważenia obciążenia w wielu zasobach.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
DaLL-E i GPT-4 Turbo Vision GA konfigurowalne filtry zawartości
Twórz niestandardowe filtry zawartości dla wdrożeń DALL-E 2 i 3, GPT-4 Turbo z usługą Vision GA (turbo-2024-04-09) i GPT-4o.
Filtrowanie zawartości
Filtr asynchroniczny dostępny dla wszystkich klientów usługi Azure OpenAI
Uruchamianie filtrów asynchronicznie w celu zwiększenia opóźnienia w scenariuszach przesyłania strumieniowego jest teraz dostępne dla wszystkich klientów usługi Azure OpenAI.
Filtrowanie zawartości
Osłony monitów
Monitowanie osłon chroni aplikacje obsługiwane przez modele Usługi Azure OpenAI przed dwoma typami ataków: bezpośrednimi (jailbreak) i atakami pośrednimi. Ataki pośrednie (nazywane również atakami pośrednimi monitami lub atakami polegającymi na wstrzyknięciu monitów między domenami) są typem ataku na systemy oparte na modelach generacyjnych sztucznej inteligencji, które mogą wystąpić, gdy aplikacja przetwarza informacje, które nie zostały bezpośrednio utworzone przez dewelopera aplikacji lub użytkownika.
Filtrowanie zawartości
Jest to zamiennik następujących modeli w wersji zapoznawczej:
gpt-4Wersja:1106-Preview
gpt-4Wersja:0125-Preview
gpt-4Wersja:vision-preview
Różnice między modelami OpenAI i Azure OpenAI GPT-4 Turbo GA
Wersja najnowszego 0409 modelu turbo openAI obsługuje tryb JSON i funkcję wywołującą wszystkie żądania wnioskowania.
Wersja najnowszej wersji turbo-2024-04-09 usługi Azure OpenAI obecnie nie obsługuje korzystania z trybu JSON i wywoływania funkcji podczas wprowadzania żądań wnioskowania przy użyciu danych wejściowych obrazu (vision). Żądania wejściowe oparte na tekście (żądania bez image_url obrazów wbudowanych i wbudowanych) obsługują tryb JSON i wywoływanie funkcji.
Różnice w porównaniu z interfejsem gpt-4 vision-preview
Integracja funkcji przetwarzania obrazów specyficznych dla sztucznej inteligencji platformy Azure z funkcją GPT-4 Turbo z usługą Vision nie jest obsługiwana w wersji gpt-4:turbo-2024-04-09. Obejmuje to optyczne rozpoznawanie znaków (OCR), uziemanie obiektów, monity wideo i ulepszoną obsługę danych za pomocą obrazów.
Ważne
Ulepszenia obrazów w wersji zapoznawczej, w tym optyczne rozpoznawanie znaków (OCR), uziemanie obiektów, monity wideo zostaną wycofane i nie będą już dostępne po gpt-4 uaktualnieniu wersji vision-preview do turbo-2024-04-09programu . Jeśli obecnie korzystasz z dowolnej z tych funkcji w wersji zapoznawczej, to automatyczne uaktualnianie modelu będzie zmianą powodującą niezgodność.
Dostępność zarządzana zaaprowizowana przez GPT-4 Turbo
gpt-4Wersja:turbo-2024-04-09 jest dostępny zarówno w przypadku wdrożeń standardowych, jak i aprowizowania. Obecnie aprowizowana wersja tego modelu nie obsługuje żądań wnioskowania obrazów/obrazów. Aprowidowane wdrożenia tego modelu akceptują tylko wprowadzanie tekstu. Wdrożenia modelu w warstwie Standardowa akceptują żądania wnioskowania tekstu i obrazu/obrazów.
Wdrażanie GPT-4 Turbo z usługą Vision GA
Aby wdrożyć model ga z portalu Azure AI Foundry, wybierz pozycję, a następnie wybierz GPT-4turbo-2024-04-09 wersję z menu rozwijanego. Domyślny limit przydziału gpt-4-turbo-2024-04-09 dla modelu będzie taki sam jak bieżący limit przydziału dla GPT-4-Turbo.
Zobacz regionalne limity przydziału.
Kwiecień 2024 r.
Dostrajanie jest teraz obsługiwane w dwóch nowych regionach Wschodnie stany USA 2 i Szwajcaria Zachodnia
Dostrajanie jest teraz dostępne z obsługą:
Wschodnie stany USA 2
gpt-35-turbo (0613)
gpt-35-turbo (1106)
gpt-35-turbo (0125)
Szwajcaria Zachodnia
babbage-002
davinci-002
gpt-35-turbo (0613)
gpt-35-turbo (1106)
gpt-35-turbo (0125)
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu i obsługi dostrajania w każdym regionie.
Przykłady trenowania czatu wieloetkowego
Dostrajanie obsługuje teraz przykłady trenowania czatów wieloestrojowych.
GPT-4 (0125) jest dostępny dla usługi Azure OpenAI On Your Data
Teraz możesz użyć modelu GPT-4 (0125) w dostępnych regionach za pomocą usługi Azure OpenAI On Your Data.
Marzec 2024 r.
Monitorowanie zagrożeń i bezpieczeństwa w usłudze Azure OpenAI Studio
Usługa Azure OpenAI Studio udostępnia teraz pulpit nawigacyjny Zagrożenia i bezpieczeństwo dla każdego z wdrożeń korzystających z konfiguracji filtru zawartości. Służy do sprawdzania wyników działania filtrowania. Następnie możesz dostosować konfigurację filtru, aby lepiej zaspokoić potrzeby biznesowe i spełnić zasady odpowiedzialnej sztucznej inteligencji.
Teraz możesz nawiązać połączenie z bazą danych wektorów Elasticsearch, która będzie używana z usługą Azure OpenAI Na danych.
Parametr rozmiaru fragmentu można użyć podczas pozyskiwania danych, aby ustawić maksymalną liczbę tokenów dowolnego fragmentu danych w indeksie.
Interfejs API ogólnie dostępnej wersji 2024-02-01
Jest to najnowsza wersja interfejsu API ogólnie dostępnego i jest zamiennikiem poprzedniej 2023-05-15 wersji ogólnie dostępnej. W tej wersji dodano obsługę najnowszych funkcji ga usługi Azure OpenAI, takich jak Whisper, DALLE-3, dostrajanie, na danych i nie tylko.
Funkcje, które są dostępne w wersji zapoznawczej, takie jak Asystenci, zamiana tekstu na mowę (TTS) i niektóre źródła danych "na danych", wymagają wersji interfejsu API w wersji zapoznawczej. Aby uzyskać więcej informacji, zapoznaj się z naszym przewodnikiem cyklu życia wersji interfejsu API.
Szept — ogólna dostępność
Model szeptu mowy do tekstu jest teraz ogólnie dostępny zarówno dla architektury REST, jak i języka Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.
Model generowania obrazów DALL-E 3 jest teraz ogólnie dostępny zarówno dla architektury REST, jak i języka Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.
Teraz możesz uzyskać dostęp do języka DALL-E 3 za pomocą zasobu usługi Azure OpenAI w East US regionie lub AustraliaEast platformy Azure, a także .SwedenCentral
Wycofywanie i wycofywanie modeli
Dodaliśmy stronę do śledzenia wycofywania i wycofywania modeli w usłudze Azure OpenAI Service. Ta strona zawiera informacje o modelach, które są obecnie dostępne, przestarzałe i wycofane.
Interfejs API 2024-03-01-preview wydany
2024-03-01-preview Ma wszystkie te same funkcje co 2024-02-15-preview i dodaje dwa nowe parametry do osadzania:
encoding_format Umożliwia określenie formatu generowania osadzeń w elemecie floatlub base64. Wartość domyślna to float.
dimensions Umożliwia ustawienie liczby osadzonych danych wyjściowych. Ten parametr jest obsługiwany tylko w przypadku modeli osadzania nowej generacji trzeciej generacji: text-embedding-3-large, text-embedding-3-small. Zazwyczaj większe osadzanie jest droższe z perspektywy zasobów obliczeniowych, pamięci i magazynu. Możliwość dostosowania liczby wymiarów umożliwia większą kontrolę nad ogólnym kosztem i wydajnością. Parametr dimensions nie jest obsługiwany we wszystkich wersjach biblioteki języka Python OpenAI 1.x, aby skorzystać z tego parametru, zalecamy uaktualnienie do najnowszej wersji: pip install openai --upgrade.
Jeśli obecnie używasz wersji zapoznawczej interfejsu API do korzystania z najnowszych funkcji, zalecamy zapoznanie się z artykułem dotyczącym cyklu życia wersji interfejsu API, aby śledzić, jak długo będzie obsługiwana bieżąca wersja interfejsu API.
Aktualizacja do planów uaktualniania GPT-4-1106-Preview
Uaktualnienie gpt-4 wdrożenia wersji 1106-Preview do gpt-4 wersji 0125-Preview zaplanowanej na 8 marca 2024 r. nie jest już planowane.
gpt-4 Wdrożenia wersji 1106-Preview i 0125-Preview ustawione na wartość "Automatyczna aktualizacja do wartości domyślnej" i "Uaktualnienie po wygaśnięciu" rozpocznie się uaktualnianie po wydaniu stabilnej wersji modelu.
Aby uzyskać więcej informacji na temat procesu uaktualniania, zapoznaj się ze stroną modeli.
Luty 2024 r.
Dostępny model GPT-3.5-turbo-0125
Ten model ma różne ulepszenia, w tym większą dokładność odpowiedzi w żądanych formatach i poprawkę dla usterki, która spowodowała problem z kodowaniem tekstu w przypadku wywołań funkcji języka innego niż angielski.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Dostępne modele osadzania trzeciej generacji
text-embedding-3-large
text-embedding-3-small
Podczas testowania raporty OpenAI zarówno duże, jak i małe modele osadzania trzeciej generacji oferują lepszą średnią wydajność pobierania w wielu językach z testem porównawczym MIRACL , zachowując jednocześnie lepszą wydajność dla zadań angielskich z testem porównawczym MTEB niż model osadzania tekstu drugiej generacji ada-002.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Konsolidacja przydziałów GPT-3.5 Turbo
Aby uprościć migrację między różnymi wersjami modeli GPT-3.5-Turbo (w tym 16 tys.), skonsolidujemy wszystkie limity przydziału GPT-3.5-Turbo z pojedynczą wartością przydziału.
Wszyscy klienci, którzy zatwierdzili zwiększony limit przydziału, będą mieli łączny łączny limit przydziału, który odzwierciedla poprzednie wzrosty.
Każdy klient, którego bieżące całkowite użycie w wersjach modelu jest mniejsze niż domyślne, domyślnie otrzyma nowy łączny łączny limit przydziału.
Dostępny model GPT-4-0125-preview
Wersja gpt-40125-preview modelu jest teraz dostępna w usłudze Azure OpenAI Service w regionach Wschodnie stany USA, Północno-środkowe stany USA i Południowo-środkowe stany USA. Klienci z wdrożeniami gpt-4 wersji 1106-preview zostaną automatycznie uaktualnioni do 0125-preview wersji w najbliższych tygodniach.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Publiczna wersja zapoznawcza interfejsu API asystentów
Usługa Azure OpenAI obsługuje teraz interfejs API, który obsługuje grupy openAI. Asystenci usługi Azure OpenAI (wersja zapoznawcza) umożliwiają tworzenie asystentów sztucznej inteligencji dostosowanych do potrzeb za pomocą niestandardowych instrukcji i zaawansowanych narzędzi, takich jak interpreter kodu i funkcje niestandardowe. Aby dowiedzieć się więcej, zobacz:
OpenAI text to speech voices public preview (Publiczna wersja zapoznawcza tekstu openAI na głosy mowy)
Usługa Azure OpenAI Obsługuje teraz interfejsy API zamiany tekstu na mowę za pomocą głosów interfejsów OpenAI. Pobierz mowę wygenerowaną przez sztuczną inteligencję na podstawie podanego tekstu. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem przeglądu i wypróbuj przewodnik Szybki start.
Pełna obsługa sieci VPN i prywatnego punktu końcowego dla usługi Azure OpenAI On Your Data, w tym obsługa zabezpieczeń kont magazynu, zasobów usługi Azure OpenAI i zasobów usługi Azure AI usługa wyszukiwania.
Nowy artykuł dotyczący korzystania z usługi Azure OpenAI w konfiguracji danych przez ochronę danych za pomocą sieci wirtualnych i prywatnych punktów końcowych.
GPT-4 Turbo z usługą Vision jest teraz dostępna
Usługa GPT-4 Turbo z usługą Vision w usłudze Azure OpenAI jest teraz dostępna w publicznej wersji zapoznawczej. GPT-4 Turbo with Vision to duży model wielomodalny (LMM) opracowany przez openAI, który może analizować obrazy i dostarczać tekstowe odpowiedzi na pytania dotyczące nich. Obejmuje zarówno przetwarzanie języka naturalnego, jak i zrozumienie wizualne. W trybie rozszerzonym możesz użyć funkcji usługi Azure AI Vision , aby wygenerować dodatkowe szczegółowe informacje na podstawie obrazów.
Poznaj możliwości biblioteki GPT-4 Turbo z funkcją Vision w środowisku bez kodu, korzystając z platformy Azure OpenAI Playground. Dowiedz się więcej w przewodniku Szybki start.
Ulepszenia przetwarzania obrazów przy użyciu biblioteki GPT-4 Turbo z funkcją Vision są teraz dostępne w środowisku Azure OpenAI Playground i obejmują obsługę optycznego rozpoznawania znaków, uziemienia obiektów, obsługi obrazów dla "dodawania danych" i obsługi monitów wideo.
Wykonywać wywołania interfejsu API czatu bezpośrednio przy użyciu interfejsu API REST.
Dostępność regionów jest obecnie ograniczona do SwitzerlandNorth, , SwedenCentralWestUSiAustraliaEast
Dowiedz się więcej o znanych ograniczeniach GPT-4 Turbo z usługą Vision i innymi często zadawanymi pytaniami.
Listopad 2023
Obsługa nowych źródeł danych w usłudze Azure OpenAI na danych
Teraz możesz użyć usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB i adresów URL/adresów internetowych jako źródeł danych, aby pozyskiwać dane i rozmawiać z obsługiwanym modelem usługi Azure OpenAI.
GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 wydany
Oba modele to najnowsza wersja interfejsu OpenAI z ulepszonymi instrukcjami, następującymi instrukcjami: trybem JSON, odtwarzalnymi danymi wyjściowymi i wywoływaniem funkcji równoległych.
GPT-4 Turbo Preview ma maksymalne okno kontekstowe 128 000 tokenów i może wygenerować 4096 tokenów wyjściowych. Ma najnowsze dane szkoleniowe z wiedzą do kwietnia 2023 r. Ten model jest w wersji zapoznawczej i nie jest zalecany do użytku produkcyjnego. Wszystkie wdrożenia tego modelu w wersji zapoznawczej zostaną automatycznie zaktualizowane po udostępnieniu stabilnej wersji.
GPT-3.5-Turbo-1106 ma maksymalne okno kontekstowe 16 385 tokenów i może wygenerować 4096 tokenów wyjściowych.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się ze stroną modeli.
Modele mają własne unikatowe przydziały przydziału dla regionu.
Publiczna wersja zapoznawcza DALL-E 3
DALL-E 3 to najnowszy model generowania obrazów z platformy OpenAI. Oferuje on ulepszoną jakość obrazu, bardziej złożone sceny i lepszą wydajność podczas renderowania tekstu na obrazach. Oferuje również więcej opcji współczynnika proporcji. Język DALL-E 3 jest dostępny za pośrednictwem programu OpenAI Studio i interfejsu API REST. Zasób OpenAI musi znajdować się w SwedenCentral regionie świadczenia usługi Azure.
Język DALL-E 3 zawiera wbudowane ponowne zapisywanie monitów w celu ulepszenia obrazów, zmniejszenia stronniczości i zwiększenia zmienności naturalnej.
Rozszerzona możliwość konfigurowania klientów: wszyscy klienci usługi Azure OpenAI mogą teraz konfigurować wszystkie poziomy ważności (niski, średni, wysoki) dla kategorii nienawiści, przemocy, przemocy, seksualnej i samookaleczenia, w tym filtrowania tylko zawartości o wysokiej ważności.
Konfigurowanie filtrów zawartości
Poświadczenia zawartości we wszystkich modelach DALL-E: obrazy generowane przez sztuczną inteligencję ze wszystkich modeli DALL-E zawierają teraz poświadczenia cyfrowe, które ujawniają zawartość wygenerowaną przez sztuczną inteligencję. Aplikacje, które wyświetlają zasoby obrazów, mogą korzystać z zestawu SDK inicjatywy content authenticity typu open source do wyświetlania poświadczeń w wygenerowanych obrazach sztucznej inteligencji.
Poświadczenia zawartości w usłudze Azure OpenAI
Nowe modele RAI
Wykrywanie ryzyka jailbreaku: Ataki zabezpieczeń systemu to monity użytkowników mające na celu sprowokowanie modelu generowania sztucznej inteligencji do wykazywania zachowań, które zostały wytrenowane w celu uniknięcia lub przerwania reguł ustawionych w komunikacie systemowym. Model wykrywania ryzyka zabezpieczeń systemu jailbreak jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Jest on uruchamiany w monitach użytkownika.
Tekst chronionych materiałów: tekst chroniony materiału opisuje znaną zawartość tekstową (na przykład teksty piosenek, artykuły, przepisy i wybraną zawartość internetową), którą można wydawać za pomocą dużych modeli językowych. Chroniony model tekstu materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Działa on po zakończeniu llM.
Kod chronionych materiałów: Kod chroniony materiału opisuje kod źródłowy zgodny z zestawem kodu źródłowego z repozytoriów publicznych, które mogą być wyprowadzane przez duże modele językowe bez odpowiedniego cytowania repozytoriów źródłowych. Model kodu chronionego materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Działa on po zakończeniu llM.
Listy blokowe: klienci mogą teraz szybko dostosowywać zachowanie filtru zawartości w celu dalszego monitowania i uzupełniania, tworząc niestandardową listę bloków w swoich filtrach. Niestandardowa lista bloków umożliwia filtrowi podejmowanie akcji na dostosowanej liście wzorców, takich jak określone terminy lub wzorce wyrażeń regularnych. Oprócz niestandardowych list bloków udostępniamy listę bloków wulgaryzmów firmy Microsoft (angielski).
Korzystanie z list blokowych
babbage-002 i davinci-002 są teraz dostępne do dostrajania. Te modele zastępują starsze modele ada, babbage, curie i davinci, które były wcześniej dostępne do dostrajania.
Dostępność dostrajania jest ograniczona do niektórych regionów.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Nowe parametry niestandardowe służące do określania liczby pobranych dokumentów i ścisłości.
Ustawienie strictness ustawia próg, aby kategoryzować dokumenty jako istotne dla zapytań.
Ustawienie Pobranych dokumentów określa liczbę dokumentów oceniania z indeksu danych używanego do generowania odpowiedzi.
Stan pozyskiwania/przekazywania danych można zobaczyć w programie Azure OpenAI Studio.
Obsługa prywatnych punktów końcowych i sieci VPN dla kontenerów obiektów blob.
Wrzesień 2023
GPT-4
GPT-4 i GPT-4-32k są teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Klienci nie muszą już ubiegać się o listę oczekującą, aby korzystała z bibliotek GPT-4 i GPT-4-32k (wymagania dotyczące rejestracji ograniczonego dostępu nadal mają zastosowanie do wszystkich modeli usługi Azure OpenAI). Dostępność może się różnić w zależności od regionu.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
GPT-3.5 Turbo Poinstruuj
Usługa Azure OpenAI obsługuje teraz model GPT-3.5 Turbo Instruct. Ten model ma porównywalną wydajność i text-davinci-003 jest dostępny do użycia z interfejsem API uzupełniania.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Szepta publiczna wersja zapoznawcza
Usługa Azure OpenAI Service obsługuje teraz interfejsy API zamiany mowy na tekst obsługiwane przez model Whisper interfejsu OpenAI. Pobierz tekst wygenerowany przez sztuczną inteligencję na podstawie podanego dźwięku mowy. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.
Uwaga
Usługa Azure AI Speech obsługuje również model szeptu openAI za pośrednictwem interfejsu API transkrypcji wsadowej. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Tworzenie transkrypcji wsadowej. Zapoznaj się z tematem Co to jest model Szeptu? aby dowiedzieć się więcej o tym, kiedy używać usługi Azure AI Speech a Azure OpenAI Service.
Nowe regiony
Usługa Azure OpenAI jest teraz również dostępna w regionach Szwecja Środkowa i Szwajcaria Północna.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Regionalne limity przydziału zwiększają się
Zwiększa się do maksymalnych domyślnych limitów przydziału dla niektórych modeli i regionów. Migrowanie obciążeń do tych modeli i regionów umożliwi korzystanie z wyższych tokenów na minutę (TPM).
Sierpień 2023
Aktualizacje usługi Azure OpenAI na własnych danych (wersja zapoznawcza)
Usługa Azure OpenAI jest teraz również dostępna w regionach Kanada Wschodnia, Wschodnie stany USA 2, Japonia Wschodnia i Północno-środkowe stany USA.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Czerwiec 2023
Korzystanie z usługi Azure OpenAI na własnych danych (wersja zapoznawcza)
Usługa Azure OpenAI On Your Data jest teraz dostępna w wersji zapoznawczej, umożliwiając rozmowę z modelami OpenAI, takimi jak GPT-35-Turbo i GPT-4, i odbieranie odpowiedzi na podstawie danych.
Nowe wersje modeli gpt-35-turbo i gpt-4
gpt-35-turbo (wersja 0613)
gpt-35-turbo-16k (wersja 0613)
gpt-4 (wersja 0613)
gpt-4-32k (wersja 0613)
Południowe Zjednoczone Królestwo
Usługa Azure OpenAI jest teraz dostępna w regionie Południowe Zjednoczone Królestwo.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Filtrowanie i adnotacje zawartości (wersja zapoznawcza)
Jak skonfigurować filtry zawartości za pomocą usługi Azure OpenAI Service.
Włącz adnotacje , aby wyświetlić kategorię filtrowania zawartości i informacje o ważności w ramach wywołań uzupełniania i kończenia czatu GPT.
Wersja 2023-05-15interfejsu API uzupełniania czatu.
Modele GPT-35-Turbo.
Seria modeli GPT-4.
Jeśli obecnie używasz interfejsu API, zalecamy migrację do interfejsu 2023-03-15-preview API ogólnie dostępnego 2023-05-15 . Jeśli obecnie używasz wersji interfejsu API, ta wersja 2022-12-01 interfejsu API pozostaje ogólnie dostępna, ale nie obejmuje najnowszych funkcji uzupełniania czatu.
Ważne
Korzystanie z bieżących wersji modeli GPT-35-Turbo z punktem końcowym uzupełniania pozostaje w wersji zapoznawczej.
Francja Środkowa
Usługa Azure OpenAI jest teraz dostępna w regionie Francja Środkowa.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Kwiecień 2023
DALL-E 2 — publiczna wersja zapoznawcza. Usługa Azure OpenAI Service obsługuje teraz interfejsy API generowania obrazów obsługiwane przez model DALL-E 2 platformy OpenAI. Pobierz obrazy generowane przez sztuczną inteligencję na podstawie podanego tekstu opisowego. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.
Nieaktywne wdrożenia niestandardowych modeli zostaną usunięte po upływie 15 dni; modele pozostaną dostępne do ponownego wdrożenia. Jeśli dostosowany (dostrojony) model jest wdrażany przez ponad piętnaście (15) dni, w których nie zostaną wykonane żadne ukończenie ani wywołania czatu, wdrożenie zostanie automatycznie usunięte (i nie zostaną naliczone żadne dalsze opłaty za hosting dla tego wdrożenia). Podstawowy dostosowany model pozostanie dostępny i będzie można go ponownie wdrożyć w dowolnym momencie. Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Marzec 2023
Modele serii GPT-4 są teraz dostępne w wersji zapoznawczej w usłudze Azure OpenAI. Aby zażądać dostępu, istniejący klienci usługi Azure OpenAI mogą zastosować się, wypełniając ten formularz. Te modele są obecnie dostępne w regionach Wschodnie stany USA i Południowo-środkowe stany USA.
GPT-35-Turbo (wersja zapoznawcza). Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Zwiększone limity trenowania do dostrajania: maksymalny rozmiar zadania trenowania (tokeny w pliku treningowym) x (# epok) to 2 miliardy tokenów dla wszystkich modeli. Zwiększyliśmy również maksymalną liczbę zadań treningowych z 120 do 720 godzin.
Dodawanie dodatkowych przypadków użycia do istniejącego dostępu. Wcześniej proces dodawania nowych przypadków użycia wymagał od klientów ponownego zastosowania do usługi. Teraz publikujemy nowy proces, który umożliwia szybkie dodawanie nowych przypadków użycia do korzystania z usługi. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w ramach usług Azure AI.
Istniejący klienci mogą potwierdzić wszystkie nowe przypadki użycia w tym miejscu. Należy pamiętać, że jest to wymagane w dowolnym momencie, w którym chcesz korzystać z usługi w przypadku nowego przypadku użycia, dla którego pierwotnie nie zastosowano.
Ogólna dostępność usługi. Usługa Azure OpenAI jest teraz ogólnie dostępna.
Nowe modele: Dodawanie najnowszego modelu tekstu, text-davinci-003 (Wschodnie stany USA, Europa Zachodnia), text-ada-embeddings-002 (Wschodnie stany USA, Południowo-środkowe stany USA, Europa Zachodnia)
Grudzień 2022
Nowe funkcje
Najnowsze modele z platformy OpenAI. Usługa Azure OpenAI zapewnia dostęp do wszystkich najnowszych modeli, w tym serii GPT-3.5.
Nowa wersja interfejsu API (2022-12-01). Ta aktualizacja obejmuje kilka żądanych ulepszeń, w tym informacje o użyciu tokenu w odpowiedzi interfejsu API, ulepszone komunikaty o błędach dla plików, wyrównanie do interfejsu OpenAI w zakresie dostrajania struktury danych tworzenia oraz obsługę parametru sufiksu w celu umożliwienia niestandardowego nazewnictwa dostosowanych zadań.
Wyższe limity żądań na sekundę. 50 dla modeli innych niż Davinci. 20 dla modeli Davinci.
Szybsze dostosowywanie wdrożeń. Wdróż modele Ada i Curie w czasie poniżej 10 minut.
Wyższe limity treningowe: 40 mln tokenów treningowych dla Ada, Babbage i Curie. 10M dla Davinci.
Proces żądania modyfikacji nadużyć i nieodebranych danych rejestrowania i przeglądu ludzkiego. Obecnie usługa rejestruje dane żądania/odpowiedzi na potrzeby wykrywania nadużyć i nieprawidłowego użycia, aby upewnić się, że te zaawansowane modele nie są nadużywane. Jednak wielu klientów ma ścisłe wymagania dotyczące prywatności i zabezpieczeń danych, które wymagają większej kontroli nad danymi. Aby obsługiwać te przypadki użycia, publikujemy nowy proces dla klientów w celu zmodyfikowania zasad filtrowania zawartości lub wyłączenia rejestrowania nadużyć w przypadku przypadków użycia niskiego ryzyka. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w ramach usług Azure AI, a istniejący klienci openAI mogą zastosować tutaj.
Szyfrowanie klucza zarządzanego przez klienta (CMK). Klucz cmK zapewnia klientom większą kontrolę nad zarządzaniem danymi w usłudze Azure OpenAI, udostępniając własne klucze szyfrowania używane do przechowywania danych szkoleniowych i dostosowanych modeli. Klucze zarządzane przez klienta (CMK), znane także jako własne klucze (BYOK), zapewniają większą elastyczność tworzenia, obracania, wyłączania i odwoływania kontroli dostępu. Możesz również przeprowadzać inspekcję kluczy szyfrowania używanych do ochrony danych.
Dowiedz się więcej z naszej dokumentacji dotyczącej szyfrowania magazynowanych.
Obsługa skrytki
Zgodność SOC-2
Rejestrowanie i diagnostyka za pomocą ustawień usługi Azure Resource Health, analizy kosztów i metryk i diagnostyki.
Ulepszenia programu Studio. Liczne ulepszenia użyteczności przepływu pracy programu Studio, w tym obsługa roli usługi Azure AD w celu kontrolowania, kto w zespole ma dostęp do tworzenia dostosowanych modeli i wdrażania.
Zmiany (powodujące niezgodność)
Dostrajanie żądania tworzenia interfejsu API zostało zaktualizowane w celu dopasowania do schematu interfejsu OpenAI.
Filtrowanie zawartości jest domyślnie tymczasowo wyłączone . Usługa Azure con tryb namiotu ration działa inaczej niż usługa Azure OpenAI. Usługa Azure OpenAI uruchamia filtry zawartości podczas wywołania generacji w celu wykrywania szkodliwej lub obraźliwej zawartości i filtruje je z odpowiedzi.
Dowiedz się więcej
Te modele zostaną ponownie włączone w kwartale 2023 r. i będą domyślnie włączone.
Dołącz do serii meetup, aby tworzyć skalowalne rozwiązania sztucznej inteligencji oparte na rzeczywistych przypadkach użycia z innymi deweloperami i ekspertami.
W tym module dowiesz się, jak inżynieria monitów może pomóc w tworzeniu i dostosowywaniu monitów dotyczących modeli przetwarzania języka naturalnego. Inżynieria promptów obejmuje projektowanie i testowanie różnych promptów w celu optymalizacji wydajności modelu w generowaniu dokładnych i odpowiednich odpowiedzi.