Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ten artykuł zawiera podsumowanie najnowszych wersji i najważniejszych aktualizacji dokumentacji dla usługi Azure OpenAI.
Czerwiec 2025 r.
wydane modele codex-mini i o3-pro
-
codex-mini
io3-pro
są teraz dostępne. Aby dowiedzieć się więcej, zobacz stronę Wprowadzenie do modeli rozumowania
Maj 2025 r.
Funkcja "Generowanie wideo Sora" została wydana (wersja zapoznawcza)
Sora (2025-05-02) to model generowania wideo z platformy OpenAI, który może tworzyć realistyczne i pomysłowe sceny wideo na podstawie instrukcji tekstowych.
Postępuj zgodnie z przewodnikiem Quickstart generowania wideo aby rozpocząć pracę. Aby uzyskać więcej informacji, zobacz Przewodnik po pojęciach dotyczących generowania wideo .
Naświetlanie osłon szybka reakcji
Podświetlanie to funkcja podrzędna osłon poleceń, która zwiększa ochronę przed atakami pośrednimi (osadzonych dokumentów) poprzez oznaczanie dokumentów wejściowych specjalnym formatowaniem wskazującym na niższe zaufanie do modelu. Aby uzyskać więcej informacji, zobacz dokumentację filtru ochrony monitów.
Model routera (wersja zapoznawcza)
Model routingu dla rozwiązania Azure AI Foundry to wdrażalny model czatu sztucznej inteligencji, który automatycznie wybiera najlepszy bazowy model czatu w celu odpowiedzi na dany monit. pl-PL: Aby uzyskać więcej informacji na temat działania modelu routera oraz jego zalet i ograniczeń, zobacz Przewodnik po koncepcjach modelu routera. Aby użyć modelowego routera z interfejsem API uzupełniania, postępuj zgodnie z przewodnikiem.
Kwiecień 2025 r.
Obsługa interfejsu API w czasie rzeczywistym (wersja zapoznawcza) dla usługi WebRTC
Interfejs API czasu rzeczywistego (wersja zapoznawcza) obsługuje teraz usługę WebRTC, umożliwiając przesyłanie strumieniowe audio w czasie rzeczywistym i interakcje z małymi opóźnieniami. Ta funkcja jest idealna w przypadku aplikacji wymagających natychmiastowej opinii, takich jak obsługa klienta na żywo lub interakcyjni asystenci głosowi. Aby uzyskać więcej informacji, zobacz dokumentację interfejsu API czasu rzeczywistego (wersja zapoznawcza).
Wydano GPT-image-1 (wersja zapoznawcza, ograniczony dostęp)
GPT-image-1 (2025-04-15) to najnowszy model generowania obrazów z usługi Azure OpenAI. Oferuje on główne ulepszenia języka DALL-E, w tym:
- Lepiej odpowiada na dokładne instrukcje.
- Niezawodnie renderuje tekst.
- Akceptuje obrazy jako dane wejściowe, co umożliwia nowe możliwości edytowania i zapisywania obrazów.
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Postępuj zgodnie z instrukcjami generowania obrazów, aby rozpocząć pracę z nowym modelem.
Wydane modele o4-mini i o3
o4-mini
modele i o3
są teraz dostępne. Są to najnowsze modele rozumowania z usługi Azure OpenAI, które oferują znacznie ulepszone rozumowanie, jakość i wydajność. Aby uzyskać więcej informacji, zobacz stronę Wprowadzenie do modeli rozumowania.
Wydano GPT-4.1
Dostępne są teraz biblioteki GPT 4.1 i GPT 4.1-nano. Są to najnowsze modele z usługi Azure OpenAI. GPT 4.1 ma limit kontekstu tokenu o wartości 1 miliona. Aby uzyskać więcej informacji, zobacz stronę modeli.
Wydane modele audio gpt-4o
Nowe modele audio obsługiwane przez GPT-4o są teraz dostępne.
Modele
gpt-4o-transcribe
zamiany mowy nagpt-4o-mini-transcribe
tekst są wydawane. Użyj tych modeli za pośrednictwem/audio
interfejsów API i/realtime
.Opublikowano model
gpt-4o-mini-tts
zamiany tekstu na mowę. Użyj modelugpt-4o-mini-tts
do generowania mowy z tekstu za pośrednictwem/audio
API.
Aby uzyskać więcej informacji na temat dostępnych modeli, zobacz dokumentację modeli i wersji.
Marzec 2025 r.
Interfejs API odpowiedzi oraz model podglądu użycia komputera
Responses API to nowy, stanowy interfejs API od Azure OpenAI. Łączy to najlepsze możliwości z API uzupełniania czatów i API asystentów w jednym ujednoliconym środowisku. Interfejs API odpowiedzi dodaje obsługę nowego modelu computer-use-preview
, który umożliwia korzystanie z komputera.
computer-use-preview
Klienci, którzy mają dostęp do innych modeli ograniczonego dostępu, nadal będą musieli zażądać dostępu dla tego modelu.
Żądanie dostępu: computer-use-preview
aplikacja modelu ograniczonego dostępu
Aby uzyskać więcej informacji na temat możliwości modelu i dostępności regionów, zobacz dokumentację modeli.
Kod demonstracyjny integracji dramaturga.
Aprowizowany wyciek (wersja zapoznawcza)
Spillover zarządza fluktuacjami ruchu w aprowizowanych wdrożeniach, przekierowując nadwyżki do wyznaczonego standardowego wdrożenia. Aby dowiedzieć się więcej na temat maksymalizowania wykorzystania wdrożeń aprowizowanych za pomocą funkcji przelewu, zobacz Zarządzanie ruchem przy użyciu funkcji przelewu dla wdrożeń aprowizowanych (wersja zapoznawcza).
Określanie konfiguracji filtrowania zawartości
Oprócz konfiguracji filtrowania zawartości na poziomie wdrożenia udostępniamy również nagłówek żądania, który umożliwia określenie niestandardowej konfiguracji na żądanie dla każdego wywołania interfejsu API. Aby uzyskać więcej informacji, zobacz Używanie filtrów zawartości (wersja zapoznawcza).
Luty 2025 rok
GPT-4.5 (wersja zapoznawcza)
Najnowszy model GPT, który wyróżnia się w różnych zadaniach dotyczących tekstu i obrazów, jest teraz dostępny w usłudze Azure OpenAI.
Aby uzyskać więcej informacji na temat możliwości modelu i dostępności regionów, zobacz dokumentację modeli.
Interfejs API przechowywanych zakończeń
Zapisane uzupełnienia umożliwiają przechwytywanie historii konwersacji z sesji ukończenia czatu do użycia jako zestawy danych na potrzeby ocen i dostrajania.
o3-mini datazone standardowe wdrożenia
o3-mini
jest teraz dostępne dla standardowych globalnych wdrożeń oraz standardowych wdrożeń stref danych dla zarejestrowanych klientów z ograniczonym dostępem.
Aby uzyskać więcej informacji, zobacz nasz przewodnik po modelu rozumowania.
gpt-4o mini audio został wydany
Model gpt-4o-mini-audio-preview
(2024-12-17) to najnowszy model uzupełniania dźwięku. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący generowania dźwięku.
Model gpt-4o-mini-realtime-preview
(2024-12-17) jest najnowszym modelem do przetwarzania dźwięku w czasie rzeczywistym. Modele w czasie rzeczywistym używają tego samego bazowego modelu audio GPT-4o co API uzupełniania, ale są zoptymalizowane pod kątem interakcji audio o niskiej latencji w czasie rzeczywistym. Aby uzyskać więcej informacji, zobacz Szybki start audio w czasie rzeczywistym.
Aby uzyskać więcej informacji na temat dostępnych modeli, zobacz dokumentację modeli i wersji.
Styczeń 2025 r.
o3-mini został wydany
o3-mini
(2025-01-31) to najnowszy model rozumowania, oferując ulepszone możliwości rozumowania. Aby uzyskać więcej informacji, zobacz nasz przewodnik po modelu rozumowania.
Dźwiękowe zakończenia GPT-4o
Model gpt-4o-audio-preview
jest teraz dostępny dla wdrożeń globalnych w Wschodniej części USA 2 i Szwecji Centralnej. Użyj modelu gpt-4o-audio-preview
do generowania dźwięku.
Model gpt-4o-audio-preview
wprowadza modalność audio do istniejącego /chat/completions
interfejsu API. Model audio rozszerza potencjał aplikacji sztucznej inteligencji w interakcjach tekstowych i głosowych oraz analizie audio. Modalności obsługiwane w gpt-4o-audio-preview
modelu obejmują: tekst, dźwięk i tekst + dźwięk. Aby uzyskać więcej informacji, zobacz przewodnik Szybki start dotyczący generowania dźwięku.
Uwaga / Notatka
Interfejs Realtime API używa tego samego podstawowego modelu audio GPT-4o co API uzupełnień, ale jest zoptymalizowany pod kątem interakcji audio w czasie rzeczywistym z małymi opóźnieniami.
API w czasie rzeczywistym GPT-4o 2024-12-17
gpt-4o-realtime-preview
Model w wersji 2024-12-17 jest dostępny dla wdrożeń globalnych w regionach Wschodniego USA 2 i Centralnej Szwecji. Użyj modelu w wersji 2024-12-17 zamiast modelu w wersji 2024-10-01-preview dla interakcji audio w czasie rzeczywistym.
- Dodano obsługę buforowania monitów dla modelu
gpt-4o-realtime-preview
. - Dodano obsługę nowych głosów. Modele
gpt-4o-realtime-preview
obsługują teraz następujące głosy: "stop", "ash", "ballada", "koral", "echo", "sage", "shimmer", "verse". - Limity szybkości nie są już oparte na połączeniach na minutę. Ograniczanie szybkości jest teraz oparte na RPM (żądania na minutę) i TPM (tokeny na minutę) dla modelu
gpt-4o-realtime-preview
. Limity przepustowości dla każdegogpt-4o-realtime-preview
wdrożenia modelu wynoszą 100 tys. TPM i 1 tys. RPM. W wersji zapoznawczej portal usługi Azure AI Foundry i interfejsy API mogą niedokładnie pokazywać różne limity szybkości. Nawet jeśli spróbujesz ustawić inny limit szybkości, rzeczywisty limit szybkości będzie równy 100K TPM i 1K RPM.
Aby uzyskać więcej informacji, zobacz szybki start audio w czasie rzeczywistym GPT-4o i przewodnik krok po kroku.
Grudzień 2024 r.
Model rozumowania O1 wydany z ograniczonym dostępem
Najnowszy o1
model jest teraz dostępny na potrzeby dostępu do interfejsu API i wdrażania modelu.
Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft. Klienci, którzy wcześniej złożyli wniosek i otrzymali dostęp do o1-preview
, nie muszą ponownie składać wniosku, ponieważ są automatycznie na liście oczekujących o najnowszy model.
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Aby dowiedzieć się więcej o zaawansowanych modelach serii o1
, zobacz Wprowadzenie do modeli rozumowania serii o1.
Dostępność regionu
Model | Rejon |
---|---|
o1 (Wersja: 2024-12-17) |
Wschód USA2 (Standard Globalny) Szwecja Środkowa (Globalny standard) |
Dostosowywanie preferencji (wersja zapoznawcza)
Optymalizacja preferencji bezpośrednich (DPO) to nowa technika wyrównania dla dużych modeli językowych, przeznaczona do dostosowywania wag modelu na podstawie preferencji człowieka. W przeciwieństwie do uczenia wzmacniania z opinii człowieka (RLHF), DPO nie wymaga dopasowywania modelu nagrody i używa prostszych danych (preferencji binarnych) do trenowania. Ta metoda jest obliczeniowo lżejsza i szybsza, dzięki czemu jest równie efektywna przy wyrównywaniu, a jednocześnie bardziej wydajna. DPO jest szczególnie przydatne w scenariuszach, w których ważne są subiektywne elementy, takie jak ton, styl lub określone preferencje dotyczące zawartości. Z przyjemnością ogłaszamy publiczną wersję zapoznawczą DPO w usłudze Azure OpenAI, zaczynając od modelu gpt-4o-2024-08-06
.
Aby uzyskać szczegółowe informacje na temat dostosowania dostępności regionu modelu, zobacz stronę modeli.
Przechowywane ukończenia i destylacja
Zapisane uzupełnienia umożliwiają przechwytywanie historii konwersacji z sesji ukończenia czatu do użycia jako zestawy danych na potrzeby ocen i dostrajania.
GPT-4o 2024-11-20
gpt-4o-2024-11-20
jest teraz dostępny do wdrożenia zgodnie z globalnym standardem w:
- Wschodnie stany USA
- Wschodnie stany USA 2
- Północno-środkowe stany USA
- Południowo-środkowe stany USA
- Zachodnie stany USA
- Zachodnie stany USA 3
- Szwecja Środkowa
Nowy typ wdrożenia z aprowizacją w strefie danych
Wdrożenia aprowizowania strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych w strefie danych zdefiniowanej przez firmę Microsoft z najlepszą dostępnością dla każdego żądania. Wdrożenia przydzielone w strefie danych zapewniają zarezerwowaną pojemność przetwarzania modeli dla wysokiej i przewidywalnej przepływności, przy użyciu infrastruktury Azure w określonych strefach danych Microsoft. Wdrożenia aprowizowania strefy danych są obsługiwane w modelach gpt-4o-2024-08-06
, gpt-4o-2024-05-13
i gpt-4o-mini-2024-07-18
.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Listopad 2024 r.
Dostrajanie wizji w ogólnej dostępności
Dostrajanie obrazów za pomocą GPT-4o (2024-08-06) jest teraz ogólnie dostępne (GA).
Dostrajanie modelu wizji umożliwia dodawanie obrazów do danych treningowych JSONL. Podobnie jak w przypadku wysyłania jednego lub wielu obrazów jako danych wejściowych do kompletacji czatu, możesz uwzględnić te same typy wiadomości w danych treningowych. Obrazy mogą być udostępniane jako adresy URL lub jako obrazy zakodowane w formacie base64.
Aby uzyskać szczegółowe informacje na temat dostosowania dostępności regionu modelu, zobacz stronę modeli.
NOWE monitorowanie nadużyć sztucznej inteligencji
Wprowadzamy nowe formy monitorowania nadużyć, które wykorzystują LLMs w celu zwiększenia wydajności wykrywania potencjalnie niewłaściwych zastosowań usługi Azure OpenAI i umożliwienia monitorowania nadużyć bez konieczności ręcznego przeglądu monitów i uzupełnień. Dowiedz się więcej, zobacz Monitorowanie nadużyć.
Prompty i uzupełnienia oflagowane za pośrednictwem klasyfikacji zawartości i/lub zidentyfikowane jako część potencjalnie obraźliwego wzorca użytkowania podlegają dodatkowej weryfikacji, aby pomóc potwierdzić analizę systemu i wspomóc decyzje dotyczące działań. Nasze systemy monitorowania nadużyć zostały rozszerzone, aby domyślnie umożliwiać przegląd przez LLM, a przez ludzi, gdy jest to konieczne i właściwe.
Październik 2024 r.
NOWY standardowy typ wdrożenia strefy danych
Standardowe wdrożenia strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI, co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale pozwalają wykorzystać globalną infrastrukturę Azure do dynamicznego kierowania ruchu do centrum danych w strefie danych określonej przez Microsoft z najlepszą dostępnością dla każdego żądania. Standard strefy danych zapewnia wyższe domyślne limity przydziału niż typy wdrożeń opartych na lokalizacji geograficznej platformy Azure. Standardowe wdrożenia strefy danych są obsługiwane w modelach gpt-4o-2024-08-06
, gpt-4o-2024-05-13
i gpt-4o-mini-2024-07-18
.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Globalna ogólna dostępność usługi Batch
Usługa Azure OpenAI Global Batch jest teraz powszechnie dostępna.
Interfejs API Azure OpenAI Batch jest przeznaczony do wydajnego przetwarzania zadań na dużą skalę oraz w dużych ilościach. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem kwoty, z docelowym czasem realizacji wynoszącym 24 godziny, przy koszcie o 50% mniejszym niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają odrębny limit tokenów w kolejce, co zapobiega zakłóceniom w Twoich operacjach online.
Najważniejsze przypadki użycia:
Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.
Generowanie zawartości: Utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.
Przegląd dokumentów i podsumowanie: Automatyzowanie przeglądu i podsumowywania długich dokumentów.
Automatyzacja obsługi klienta: Obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.
Wyodrębnianie i analiza danych: Wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.
Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.
Marketing i personalizacja: Generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.
Aby uzyskać więcej informacji na temat rozpoczynania pracy z globalnymi wdrożeniami wsadowymi.
o1-preview i o1-mini modele z ograniczonym dostępem
Modele o1-preview
i o1-mini
są teraz dostępne na potrzeby dostępu do interfejsu API i wdrażania modelu.
Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft.
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Klienci, którzy zostali już zatwierdzeni i mają dostęp do modelu za pośrednictwem platformy z wczesnym dostępem, nie muszą składać ponownie wniosku. Automatycznie zostanie im przyznany dostęp do interfejsu API. Po udzieleniu dostępu należy utworzyć wdrożenie dla każdego modelu.
Obsługa interfejsu API:
Wsparcie dla modeli serii o1 zostało dodane w wersji API 2024-09-01-preview
.
Parametr max_tokens
został przestarzały i zastąpiony nowym max_completion_tokens
parametrem.
Modele serii o1 będą działać tylko z parametrem max_completion_tokens
.
Dostępność regionów:
Modele są dostępne dla standardowych i globalnych wdrożeń w regionach East US2 i Szwecja Środkowa dla klientów zatwierdzonych.
Nowe API GPT-4o w czasie rzeczywistym do przetwarzania mowy i dźwięku – wersja publiczna do przeglądu.
Azure OpenAI audio GPT-4o jest częścią rodziny modeli GPT-4o, która umożliwia niskie opóźnienia i interakcje konwersacyjne typu "mowa do, mowa z". Interfejs API audio realtime
GPT-4o jest przeznaczony do obsługi interakcji konwersacyjnych w czasie rzeczywistym z niskimi opóźnieniami, dzięki czemu doskonale nadaje się do przypadków użycia obejmujących interakcje na żywo między użytkownikiem a modelem, takie jak agenci obsługi klienta, asystenci głosowi i tłumacze w czasie rzeczywistym.
Model gpt-4o-realtime-preview
jest dostępny do globalnych wdrożeń w regionach Wschodnie USA 2 i Szwecja Środkowa.
Aby uzyskać więcej informacji, zobacz Przewodnik szybkiego startu audio GPT-4o w czasie rzeczywistym.
Aktualizacje globalne obsługi wsadów
Globalna partia obsługuje teraz GPT-4o (2024-08-06). Aby uzyskać więcej informacji, zobacz globalny przewodnik wprowadzający do przetwarzania wsadowego.
Wrzesień 2024 r.
Aktualizacje środowiska użytkownika programu Azure OpenAI Studio
Od 19 września 2024 r. po przejściu do programu Azure OpenAI Studio nie widzisz już starszej wersji programu Azure OpenAI Studio . W razie potrzeby nadal będzie można wrócić do poprzedniego środowiska przy użyciu przełącznika Przełącz do starego wyglądu na górnym pasku interfejsu użytkownika przez następne kilka tygodni. Jeśli przełączysz się z powrotem do starszego portalu azure AI Foundry, pomoże Ci wypełnić formularz opinii, aby poinformować nas, dlaczego. Aktywnie monitorujemy tę opinię, aby ulepszyć nowe doświadczenie.
Przygotowane wdrożenia GPT-4o z dnia 2024-08-06
GPT-4o 2024-08-06 jest teraz dostępny dla wdrożeń zapewnionych w regionach Wschodnie Wybrzeże USA, Wschodnie Wybrzeże USA 2, Północno-centralne Stany USA i Centralna Szwecja. Jest ona również dostępna dla globalnie udostępnionych wdrożeń.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
NOWY typ wdrożenia aprowizowanego globalnie
Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co typy wdrożeń innych niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalne wdrożenia z przydzieloną pojemnością zapewniają zarezerwowaną pojemność przetwarzania modeli dla wysokiej i przewidywalnej przepustowości, korzystając z globalnej infrastruktury Azure. Globalnie aprowizowane wdrożenia są obsługiwane na modelach gpt-4o-2024-08-06
i gpt-4o-mini-2024-07-18
.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
NOWE modele o1-preview i o1-mini dostępne w celu uzyskania ograniczonego dostępu
Modele Azure OpenAI o1-preview
i o1-mini
zostały zaprojektowane do wykonywania zadań związanych z rozumowaniem i rozwiązywaniem problemów, przy zwiększonym skupieniu i zdolnościach. Modele te poświęcają więcej czasu na przetwarzanie i zrozumienie żądania użytkownika, co czyni je wyjątkowo silnymi w obszarach takich jak nauka, kodowanie i matematyka w porównaniu z poprzednimi iteracjami.
Kluczowe możliwości serii o1
- Złożone generowanie kodu: możliwość generowania algorytmów i obsługi zaawansowanych zadań kodowania w celu obsługi deweloperów.
- Zaawansowane rozwiązywanie problemów: idealna opcja dla kompleksowych sesji burzy mózgów i sprostania wielowymiarowym wyzwaniom.
- Złożone porównanie dokumentów: idealne rozwiązanie do analizowania kontraktów, plików przypadków lub dokumentów prawnych w celu identyfikowania subtelnych różnic.
- Postępowanie zgodnie z instrukcjami i zarządzanie procesami: Szczególnie skuteczne zarządzanie procesami wymagającymi krótszych kontekstów.
Warianty modelu
-
o1-preview
:o1-preview
jest najbardziej zaawansowanym modelem w seriio1
. -
o1-mini
:o1-mini
jest szybszym i tańszym modelemo1
serii.
Wersja modelu: 2024-09-12
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Ograniczenia
Modele o1
serii są obecnie dostępne w wersji zapoznawczej i nie zawierają niektórych funkcji dostępnych w innych modelach, takich jak interpretacja obrazu i dane wyjściowe ze strukturą, które są dostępne w najnowszym modelu GPT-4o. W przypadku wielu zadań ogólnie dostępne modele GPT-4o mogą być nadal bardziej odpowiednie.
Bezpieczeństwo
Platforma OpenAI wprowadziła dodatkowe środki bezpieczeństwa do o1
modeli, w tym nowe techniki ułatwiające modelom odrzucanie niebezpiecznych żądań. Te postępy sprawiają, że o1
seria jest najbardziej niezawodna.
Dostępność
To o1-preview
i o1-mini
są dostępne w regionie Wschodnia USA 2 z ograniczonym dostępem za pośrednictwem portalu Azure AI Foundry do wczesnego dostępu. Przetwarzanie danych dla o1
modeli może wystąpić w innym regionie niż w przypadku, gdy są one dostępne do użycia.
Aby wypróbować modele o1-preview
i o1-mini
w środowisku wczesnego dostępu, jest wymagana rejestracja a dostęp zostanie przyznany na podstawie kryteriów kwalifikowalności Microsoft.
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Po udzieleniu dostępu należy wykonać następujące kroki:
- Przejdź do https://ai.azure.com/resources i wybierz zasób w
eastus2
regionie. Jeśli nie masz zasobu usługi Azure OpenAI w tym regionie, musisz go utworzyć. - Po wybraniu
eastus2
zasobu Azure OpenAI w lewym górnym panelu w obszarze Place zabaw wybierz pozycję Plac zabaw z wczesnym dostępem (wersja zapoznawcza).
Sierpień 2024 r.
Ustrukturyzowane wyjścia GPT-4o 2024-08-06
- Dostępne dla wdrożeń standardowych i globalnych we wszystkich regionach USA i Szwecji Środkowej.
- Ten model dodaje obsługę danych wyjściowych ze strukturą.
Mini wdrożenia przewidziane dla GPT-4o
Mini GPT-4o jest teraz dostępny dla przydzielonych wdrożeń w Kanadzie Wschodniej, Wschodnim Wybrzeżu USA, Wschodnim Wybrzeżu USA 2, Północno-środkowych stanach USA i Szwecji Środkowej.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Dostosowywanie GPT-4o (publiczna wersja testowa)
Dostrajanie GPT-4o jest teraz dostępne dla usługi Azure OpenAI w publicznej wersji zapoznawczej w północno-środkowych stanach USA i Szwecji Środkowej.
Aby uzyskać więcej informacji, zobacz nasz wpis w blogu.
Nowa wersja zapoznawcza interfejsu API
Wersja 2024-07-01-preview
to najnowsza wersja interfejsu API do tworzenia i przetwarzania danych. Zastępuje wersję API 2024-05-01-preview
i dodaje obsługę dla:
- Dodano obsługę Batch API
- Parametry strategii fragmentowania magazynu wektorów
-
max_num_results
że narzędzie wyszukiwania plików powinno generować wynik.
Aby uzyskać więcej informacji, zobacz dokumentację referencyjną
regionalna dostępność GPT-4o mini
- GPT-4o mini jest dostępny do wdrożeń standardowych i globalnych w regionach południowo-wschodniego Stanów Zjednoczonych i Środkowej Szwecji.
- GPT-4o mini jest dostępny dla globalnego wdrożenia wsadowego w regionach Wschodnie stany USA, Szwecja Środkowa i Zachodnie stany USA.
Przewodnik po ocenach
- Nowy wpis w blogu dotyczący rozpoczynania pracy z ocenami modeli. Zalecamy skorzystanie z tego przewodnika w ramach procesu uaktualniania i wycofywania modelu.
Najnowszy model GPT-4o dostępny na placu zabaw z wczesnym dostępem (wersja zapoznawcza)
6 sierpnia 2024 roku OpenAI ogłosiła najnowszą wersję flagowego modelu 2024-08-06
GPT-4o. GPT-4o 2024-08-06
ma wszystkie możliwości poprzedniej wersji, a także:
- Ulepszona możliwość obsługi złożonych danych wyjściowych ze strukturą.
- Maksymalna liczba tokenów wyjściowych została zwiększona z 4096 do 16 384.
Klienci platformy Azure mogą przetestować usługę GPT-4o 2024-08-06
już dziś w nowym placu zabaw wczesnego dostępu do usługi Azure AI Foundry (wersja zapoznawcza).
W przeciwieństwie do poprzedniego placu zabaw wczesnego dostępu, plac zabaw wczesnego dostępu portalu Azure AI Foundry (wersja zapoznawcza) nie wymaga posiadania zasobu w określonym regionie.
Uwaga / Notatka
Wezwania i ukończenia wykonywane za pośrednictwem placu zabaw z dostępem wstępnym (wersja zapoznawcza) mogą być przetwarzane w dowolnym regionie Azure OpenAI i obecnie są ograniczone do 10 żądań na minutę na subskrypcję Azure. Ten limit może ulec zmianie w przyszłości.
Monitorowanie nadużyć w usłudze Azure OpenAI jest włączone dla wszystkich użytkowników placu zabaw z wczesnym dostępem, nawet jeśli zatwierdzono ich do modyfikacji; domyślne filtry zawartości są aktywne i nie można ich zmieniać.
Aby przetestować środowisko GPT-4o 2024-08-06
, zaloguj się do placu zabaw z wczesnym dostępem do sztucznej inteligencji platformy Azure (wersja zapoznawcza) przy użyciu tego linku.
Globalne wdrożenia wsadowe są teraz dostępne
Interfejs API Azure OpenAI Batch jest przeznaczony do wydajnego przetwarzania zadań na dużą skalę oraz w dużych ilościach. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem kwoty, z docelowym czasem realizacji wynoszącym 24 godziny, przy koszcie o 50% mniejszym niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają odrębny limit tokenów w kolejce, co zapobiega zakłóceniom w Twoich operacjach online.
Najważniejsze przypadki użycia:
Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.
Generowanie zawartości: Utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.
Przegląd dokumentów i podsumowanie: Automatyzowanie przeglądu i podsumowywania długich dokumentów.
Automatyzacja obsługi klienta: Obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.
Wyodrębnianie i analiza danych: Wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.
Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.
Marketing i personalizacja: Generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.
Aby uzyskać więcej informacji na temat rozpoczynania pracy z globalnymi wdrożeniami wsadowymi.
Lipiec 2024 r.
GPT-4o mini jest teraz dostępny do dostrajania
Dostrajanie GPT-4o mini jest teraz dostępne w publicznej wersji zapoznawczej w Szwecji Środkowej i w Północno-Środkowych Stanach USA.
Narzędzie Asystentów do Wyszukiwania Plików jest teraz płatne.
Narzędzie do wyszukiwania plików dla Asystentów ma teraz dodatkowe opłaty za użycie. Przejdź na stronę cennika, aby uzyskać więcej informacji.
Mini model GPT-4o dostępny do wdrożenia
GPT-4o mini to najnowszy model Usługi Azure OpenAI ogłoszony po raz pierwszy 18 lipca 2024 r.:
"GPT-4o mini pozwala klientom dostarczać wspaniałe aplikacje po niższych kosztach z oszałamiającą szybkością." GPT-4o mini jest znacznie mądrzejszy niż GPT-3,5 Turbo — uzyskując wynik 82% w ocenie ogromnego wielotaskowego zrozumienia językowego (MMLU) w porównaniu z 70%, przy czym jest o ponad 60% tańszy. Model zapewnia rozszerzone okno kontekstowe 128K i integruje ulepszone wielojęzyczne możliwości GPT-4o, zapewniając wyższą jakość dla języków z różnych części świata.
Model jest dostępny dla wdrożeń standardowych i globalnych w regionie Wschodniego USA.
Aby uzyskać informacje na temat limitu przydziału modelu, zapoznaj się ze stroną kwoty i ograniczeń. Aby uzyskać najnowsze informacje na temat dostępności modelu, odwiedź stronę modeli.
Nowe domyślne zasady filtrowania zawartości odpowiedzialnej sztucznej inteligencji
Nowe domyślne zasady DefaultV2
filtrowania zawartości zapewniają najnowsze środki zaradcze bezpieczeństwa i zabezpieczeń dla serii modeli GPT (tekst), w tym:
- Osłony przed atakami jailbreakowymi na zapytania użytkowników (filtr).
- Wykrywanie materiału chronionego w tekście (filtr) podczas ukończeń modelu
- Wykrywanie materiałów chronionych w kodzie (anotacja) na uzupełnieniach modelu
Chociaż nie ma żadnych zmian w filtrach zawartości dla istniejących zasobów i wdrożeń (domyślne lub niestandardowe konfiguracje filtrowania zawartości pozostają niezmienione), nowe zasoby i wdrożenia GPT będą automatycznie dziedziczyć nowe zasady DefaultV2
filtrowania zawartości. Klienci mają możliwość przełączania się między ustawieniami domyślnymi zabezpieczeń i tworzenia niestandardowych konfiguracji filtrowania zawartości.
Aby uzyskać więcej informacji, zapoznaj się z naszą dokumentacją domyślnych zasad bezpieczeństwa.
Nowe wydanie GA API
Wersja 2024-06-01
jest najnowszą wersją GA interfejsu API dla wnioskowania w płaszczyźnie danych. Zastępuje wersję API 2024-02-01
i dodaje obsługę dla:
- osadzanie
encoding_format
idimensions
parametry. - uzupełnianie czatu i parametry
& .
Aby uzyskać więcej informacji, zapoznaj się z naszą dokumentacją referencyjną dotyczącą inferencji płaszczyzny danych.
Rozszerzanie regionów dostępnych dla globalnych standardowych implementacji gpt-4o
GPT-4o jest teraz dostępny dla globalnych standardowych wdrożeń:
- AustraliaEast
- Brazylia Południe
- wschód Kanady
- eastus
- eastus2
- francecentral Git
- Niemcy Zachodnio-Środkowe
- japaneast
- koreacentral
- northcentralus
- Norwegia Wschód
- polandcentral
- southafricanorth
- southcentralus
- południowe Indie
- swedencentral
- Szwajcaria Północ
- uksouth
- Europa Zachodnia
- westus
- westus3
Aby uzyskać informacje na temat standardowego globalnego limitu przydziału, zapoznaj się ze stroną przydziałów i limitów.
Czerwiec 2024 r.
Aktualizacje daty wycofania
- Zaktualizowano
gpt-35-turbo
datę wycofania 0301 do nie wcześniej niż 1 października 2024 r. - Zaktualizowana data przejścia na emeryturę
& 0613 na 1 października 2024. - Zaktualizowano datę wycofania
gpt-4
igpt-4-32k
0314 na 1 października 2024 r. oraz datę zakończenia na 6 czerwca 2025 r.
Zapoznaj się z naszym przewodnikiem po wycofywaniu modeli, aby uzyskać najnowsze informacje na temat przestarzałości i wycofywania modeli.
Rozliczenia oparte na tokenach na potrzeby dostrajania
- Rozliczenia dotyczące dostrajania w usłudze Azure OpenAI są teraz oparte na liczbie tokenów w pliku treningowym — zamiast łącznego czasu uczenia, który upłynął. Może to spowodować znaczne obniżenie kosztów niektórych procesów szkoleniowych i znacznie ułatwia szacowanie kosztów dostosowywania modelu. Aby dowiedzieć się więcej, możesz zapoznać się z oficjalnym ogłoszeniem.
GPT-4o wydany w nowych regionach
- GPT-4o jest teraz również dostępny w:
- Szwecja Środkowa dla standardowego wdrożenia regionalnego.
- Australia Wschodnia, Kanada Wschodnia, Japonia Wschodnia, Korea Centralna, Szwecja Centralna, Szwajcaria Północna i Zachodnie USA 3 na potrzeby aprowizowania wdrożenia.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Obsługa klucza zarządzanego przez klienta (CMK) dla asystentów
Wątki i pliki w Asystentach teraz obsługują CMK w następującym regionie:
- Zachodnie stany USA 3
maj 2024
Wdrożenia skonfigurowane dla GPT-4o
gpt-4o
Wersja: 2024-05-13
jest dostępna zarówno dla wdrożeń standardowych, jak i aprowizowanych. Wdrożenia modelu aprowizowanego i standardowego akceptują żądania wnioskowania tekstu i obrazy/wizyjne.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się z macierzą modeli dotyczącą wdrożeń z zastrzeżonymi zasobami.
Asystenci w wersji 2 (wersja zapoznawcza)
Aktualizacja API Asystenta jest teraz publicznie dostępna. Zawiera następujące aktualizacje:
- Narzędzie wyszukiwania plików i magazyn wektorowy
- Maksymalna liczba tokenów uzupełniania oraz maksymalna liczba tokenów w monicie na potrzeby zarządzania użyciem tokenów.
-
tool_choice
parametr wymuszający użycie określonego narzędzia przez Asystenta. Teraz możesz tworzyć wiadomości z rolą asystenta, aby tworzyć niestandardowe historie konwersacji w wątkach. - Obsługa parametrów
temperature
,top_p
,response_format
. - Obsługa przesyłania strumieniowego i sondowania. Możesz użyć funkcji pomocnika w naszym zestawie SDK języka Python, aby tworzyć uruchomienia i przesyłać strumieniowo odpowiedzi. Dodaliśmy również pomocników SDK do sondowania, aby udostępniać aktualizacje statusu obiektów bez konieczności sondowania.
- Eksperymentuj z usługą Logic Apps i wywoływaniem funkcji przy użyciu programu Azure OpenAI Studio. Zaimportuj interfejsy API REST zaimplementowane w usłudze Logic Apps jako funkcje, a studio wywołuje funkcję (jako przepływ pracy usługi Logic Apps) automatycznie na podstawie monitu użytkownika.
- Rozwiązanie AutoGen by Microsoft Research udostępnia platformę konwersacji dla wielu agentów, która umożliwia wygodne tworzenie przepływów pracy modelu dużego języka (LLM) w wielu aplikacjach. Asystenci Azure OpenAI są teraz zintegrowani z AutoGen za pośrednictwem
GPTAssistantAgent
, nowego eksperymentalnego agenta, który umożliwia płynne dodawanie asystentów do przepływów pracy opartych na wielu agentach. Umożliwia to współpracę wielu asystentów usługi Azure OpenAI, którzy mogą być wyspecjalizowani w zadaniach lub dziedzinach, aby wspólnie rozwiązywać złożone zadania. - Obsługa precyzyjnie dostosowanych modeli w następujących regionach
- Wschodnie stany USA 2
- Szwecja Środkowa
- Rozszerzona obsługa regionalna dla:
- Japonia Wschodnia
- Południowe Zjednoczone Królestwo
- Zachodnie stany USA
- Zachodnie stany USA 3
- Norwegia wschodnia
Aby uzyskać więcej informacji, zobacz wpis w blogu dotyczący asystentów.
Ogólna dostępność modelu GPT-4o
GPT-4o ("o is for "omni") to najnowszy model z OpenAI uruchomiony 13 maja 2024 r.
- GPT-4o integruje tekst i obrazy w jednym modelu, umożliwiając mu obsługę wielu typów danych jednocześnie. To podejście multimodalne zwiększa dokładność i szybkość reakcji w interakcjach człowiek-komputer.
- GPT-4o pasuje do GPT-4 Turbo w języku angielskim i zadaniach kodowania, oferując lepszą wydajność w językach innych niż angielski i w zadaniach przetwarzania obrazów, ustawiając nowe testy porównawcze dla możliwości sztucznej inteligencji.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zobacz stronę modeli.
Globalny standardowy typ wdrożenia (wersja zapoznawcza)
Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co oferty inne niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalny standard zapewnia najwyższy domyślny limit przydziału dla nowych modeli i eliminuje konieczność równoważenia obciążenia w wielu zasobach.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Dostrajanie aktualizacji
- Dostrajanie GPT-4 jest teraz dostępne w publicznej wersji zapoznawczej.
- Dodano obsługę seed, zdarzeń, pełnych statystyk walidacji i punktów kontrolnych w ramach wydania interfejsu
2024-05-01-preview
API.
DaLL-E i GPT-4 Turbo Vision GA konfigurowalne filtry zawartości
Twórz niestandardowe filtry zawartości dla wdrożeń DALL-E 2 i 3, GPT-4 Turbo z Vision GA (turbo-2024-04-09
) i GPT-4o.
Filtrowanie zawartości
Filtr asynchroniczny dostępny dla wszystkich klientów usługi Azure OpenAI
Uruchamianie filtrów asynchronicznie w celu zwiększenia opóźnienia w scenariuszach przesyłania strumieniowego jest teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Filtrowanie zawartości
Osłony szybkiej reakcji
Osłony promptu chronią aplikacje obsługiwane przez modele Azure OpenAI przed dwoma typami ataków: bezpośrednimi (typu jailbreak) i pośrednimi. Ataki pośrednie (nazywane również atakami pośrednimi monitami lub atakami polegającymi na wstrzyknięciu monitów między domenami) są typem ataku na systemy oparte na modelach generacyjnych sztucznej inteligencji, które mogą wystąpić, gdy aplikacja przetwarza informacje, które nie zostały bezpośrednio utworzone przez dewelopera aplikacji lub użytkownika. Filtrowanie zawartości
Wydanie interfejsu API 2024-05-01-preview
- Aby uzyskać więcej informacji, zobacz cykl życia wersji interfejsu API.
Ogólna dostępność modelu GPT-4 Turbo
Najnowsza wersja GA GPT-4 Turbo to:
-
gpt-4
Wersja:turbo-2024-04-09
Jest to zamiennik następujących modeli w wersji zapoznawczej:
-
gpt-4
Wersja:1106-Preview
-
gpt-4
Wersja:0125-Preview
-
gpt-4
Wersja:vision-preview
Różnice między modelami OpenAI a modelami Azure OpenAI GPT-4 Turbo GA
- Wersja najnowszego
0409
modelu turbo OpenAI obsługuje tryb JSON oraz wywoływanie funkcji dla wszystkich żądań wnioskowania. - Najnowsza wersja usługi Azure OpenAI
turbo-2024-04-09
nie obsługuje obecnie użycia trybu JSON i wywoływania funkcji przy składaniu zapytań inferencyjnych z wejściem obrazowym (wizja). Żądania wejściowe oparte na tekście (żądania bezimage_url
i obrazów wbudowanych) obsługują tryb JSON i wywoływanie funkcji.
Różnice względem gpt-4 vision-preview
- Integracja ulepszeń dotyczących przetwarzania obrazów specyficznych dla sztucznej inteligencji platformy Azure z GPT-4 Turbo Vision nie jest obsługiwana dla
gpt-4
wersji:turbo-2024-04-09
. Obejmuje to optyczne rozpoznawanie znaków (OCR), lokalizowanie obiektów, podpowiedzi wideo oraz ulepszoną obsługę danych z użyciem obrazów.
Ważne
Udoskonalenia wizualne w wersji zapoznawczej, w tym optyczne rozpoznawanie znaków (OCR), kontekstualizacja obiektów, interaktywne wskazówki wideo, zostaną wycofane i nie będą już dostępne po gpt-4
uaktualnieniu wersji vision-preview
do turbo-2024-04-09
programu. Jeśli obecnie polegasz na którejkolwiek z tych funkcji w wersji zapoznawczej, ta automatyczna aktualizacja modelu będzie znaczącą zmianą.
Zarządzana dostępność zapewniona przez GPT-4 Turbo
-
gpt-4
Wersja:turbo-2024-04-09
jest dostępna zarówno dla standardowych, jak i zdefiniowanych wdrożeń. Obecnie aprowizowana wersja tego modelu nie obsługuje żądań wnioskowania z wykorzystaniem obrazu/wizji. Aprowidowane wdrożenia tego modelu akceptują tylko wprowadzanie tekstu. Standardowe wdrożenia modeli akceptują zarówno tekstowe, jak i obrazowe/wizyjne żądania inferencji.
Wdrażanie GPT-4 Turbo z Vision GA
Aby wdrożyć model GA z portalu Azure AI Foundry, wybierz GPT-4
, a następnie wybierz wersję turbo-2024-04-09
z menu rozwijanego. Domyślna kwota dla modelu gpt-4-turbo-2024-04-09
będzie taka sama jak obecna kwota dla GPT-4-Turbo. Zobacz regionalne limity kwotowe.
Kwiecień 2024 r.
Dostrajanie jest teraz obsługiwane w dwóch nowych regionach Wschodnie USA 2 i Szwajcaria Zachodnia.
Dostrajanie jest teraz dostępne z obsługą:
Wschodnie stany USA 2
-
gpt-35-turbo
(0613) -
gpt-35-turbo
(1106) -
gpt-35-turbo
(0125)
Szwajcaria Zachodnia
babbage-002
davinci-002
-
gpt-35-turbo
(0613) -
gpt-35-turbo
(1106) -
gpt-35-turbo
(0125)
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu i obsługi dostrajania w każdym regionie.
Przykłady trenowania czatu wieloturowego
Dostrajanie teraz obsługuje przykłady szkolenia czatów wielozwrotowych.
GPT-4 (0125) jest dostępny dla usługi Azure OpenAI On Your Data
Teraz możesz użyć modelu GPT-4 (0125) za pomocą Azure OpenAI On Your Data w dostępnych regionach.
marzec 2024
Monitorowanie zagrożeń i bezpieczeństwa w usłudze Azure OpenAI Studio
Usługa Azure OpenAI Studio udostępnia teraz pulpit nawigacyjny Zagrożenia i bezpieczeństwo dla każdego z wdrożeń korzystających z konfiguracji filtru zawartości. Służy do sprawdzania wyników działania filtrowania. Następnie możesz dostosować konfigurację filtru, aby lepiej zaspokoić potrzeby biznesowe i spełnić zasady odpowiedzialnej sztucznej inteligencji.
Korzystanie z monitorowania zagrożeń i bezpieczeństwa
Aktualizacje w usłudze Azure OpenAI dotyczące Twoich danych
- Teraz możesz nawiązać połączenie z wektorową bazą danych Elasticsearch, której będzie używana z usługą Azure OpenAI na Twoich danych.
- Parametr rozmiaru fragmentu można użyć podczas pozyskiwania danych, aby ustawić maksymalną liczbę tokenów dowolnego fragmentu danych w indeksie.
Ogólna dostępność (GA) API wydana 2024-02-01
Jest to najnowsza wersja GA API i zastępuje ona poprzednią wersję GA. W tej wersji dodano obsługę najnowszych funkcji GA usługi Azure OpenAI, takich jak Whisper, DALLE-3, dostrajanie na danych oraz inne.
Funkcje, które są dostępne w wersji zapoznawczej, takie jak Asystenci, zamiana tekstu na mowę (TTS) i niektóre źródła danych związane z "twoimi danymi", wymagają wersji zapoznawczej interfejsu API. Aby uzyskać więcej informacji, zapoznaj się z naszym przewodnikiem cyklu życia wersji interfejsu API.
Whisper — ogólna dostępność
Model Whisper do konwersji mowy na tekst jest teraz w wersji GA zarówno w REST, jak i w Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.
Wypróbuj Whisper, korzystając z przewodnika Szybki start.
Ogólna dostępność DALL-E 3
Model generowania obrazów DALL-E 3 jest teraz w wersji GA zarówno dla interfejsu REST, jak i języka Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.
Wypróbuj DALL-E 3, korzystając z szybkiego startu.
Nowe regionalne wsparcie dla daLL-E 3
Teraz możesz uzyskać dostęp do DALL-E 3 za pomocą zasobu Azure OpenAI w regionie Azure East US
lub AustraliaEast
, a także SwedenCentral
.
Dezaktualizacje i wycofywanie modeli
Dodaliśmy stronę do monitorowania wycofania i przechodzenia modeli na emeryturę w usłudze Azure OpenAI. Ta strona zawiera informacje o modelach, które są obecnie dostępne, przestarzałe i wycofane.
Interfejs API "2024-03-01-preview" wydany
2024-03-01-preview
Ma wszystkie te same funkcje co 2024-02-15-preview
i dodaje dwa nowe parametry do osadzania:
-
encoding_format
umożliwia określenie formatu generowania osadzeń w elemenciefloat
, lubbase64
. Wartość domyślna tofloat
. -
dimensions
Umożliwia ustawienie liczby osadzonych danych wyjściowych. Ten parametr jest obsługiwany tylko w przypadku modeli osadzania nowej generacji trzeciej generacji:text-embedding-3-large
,text-embedding-3-small
. Zazwyczaj większe osadzanie jest droższe z perspektywy zasobów obliczeniowych, pamięci i magazynu. Możliwość dostosowania liczby wymiarów pozwala na lepszą kontrolę całkowitych kosztów i wydajności. Parametrdimensions
nie jest obsługiwany we wszystkich wersjach biblioteki języka Python OpenAI 1.x, aby skorzystać z tego parametru, zalecamy uaktualnienie do najnowszej wersji:pip install openai --upgrade
.
Jeśli obecnie używasz wersji zapoznawczej interfejsu API do korzystania z najnowszych funkcji, zalecamy zapoznanie się z artykułem dotyczącym cyklu życia wersji interfejsu API, aby śledzić, jak długo będzie obsługiwana bieżąca wersja interfejsu API.
Aktualizacja planów aktualizacji GPT-4-1106-Preview
Uaktualnienie gpt-4
wdrożenia wersji 1106-Preview do gpt-4
wersji 0125-Preview zaplanowane na 8 marca 2024 r. nie odbędzie się.
gpt-4
Wdrożenia wersji 1106-Preview i 0125-Preview, ustawione na "Automatyczna aktualizacja do wartości domyślnej" i "Uaktualnienie po wygaśnięciu", zostaną zaktualizowane po wydaniu stabilnej wersji modelu.
Aby uzyskać więcej informacji na temat procesu uaktualniania, zapoznaj się ze stroną modeli.
luty 2024 r.
Dostępny model GPT-3.5-turbo-0125
Ten model ma różne ulepszenia, w tym większą dokładność odpowiedzi w żądanych formatach i poprawkę dla usterki, która spowodowała problem z kodowaniem tekstu w przypadku wywołań funkcji języka innego niż angielski.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Dostępne modele osadzania trzeciej generacji
text-embedding-3-large
text-embedding-3-small
OpenAI raportuje, że zarówno duże, jak i małe modele osadzania trzeciej generacji oferują lepszą średnią wydajność pobierania w wielu językach z benchmarkiem MIRACL, zachowując lepszą wydajność w zadaniach anglojęzycznych z benchmarkiem MTEB niż model osadzania tekstu drugiej generacji ada-002.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Konsolidacja limitów GPT-3.5 Turbo
Aby uprościć migrację między różnymi wersjami modeli GPT-3.5-Turbo (w tym wersją 16k), skonsolidujemy wszystkie limity przydziału GPT-3.5-Turbo do pojedynczej wartości przydziału.
Wszyscy klienci, którzy zatwierdzili zwiększony limit przydziału, będą mieli łączny łączny limit przydziału, który odzwierciedla poprzednie wzrosty.
Każdy klient, którego bieżące całkowite użycie w wersjach modelu jest mniejsze niż domyślne, domyślnie otrzyma nowy łączny łączny limit przydziału.
Dostępny model GPT-4-0125-preview
Wersja modelu gpt-4
0125-preview
jest teraz dostępna w Azure OpenAI w regionach East US, North Central US i South Central US. Klienci z wdrożeniami wersji gpt-4
1106-preview
zostaną automatycznie uaktualnieni do 0125-preview
w najbliższych tygodniach.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Publiczna wersja zapoznawcza interfejsu API asystentów
Usługa Azure OpenAI obsługuje teraz interfejs API, który napędza modele GPT firmy OpenAI. Asystenci usługi Azure OpenAI (wersja zapoznawcza) umożliwiają tworzenie asystentów sztucznej inteligencji dostosowanych do potrzeb za pomocą niestandardowych instrukcji i zaawansowanych narzędzi, takich jak interpreter kodu i funkcje niestandardowe. Aby dowiedzieć się więcej, zobacz:
- Pojęcia
- Szczegółowe instrukcje dotyczące języka Python
- Interpreter kodów
- Wywoływanie funkcji
- Model asystentów i dostępność regionów
- Przykłady asystentów
OpenAI text to speech voices public preview (Publiczna wersja zapoznawcza tekstu openAI na głosy mowy)
Usługa Azure OpenAI obsługuje teraz interfejsy API zamiany tekstu na mowę za pomocą głosów OpenAI. Pobierz mowę wygenerowaną przez sztuczną inteligencję na podstawie podanego tekstu. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem wprowadzającym i wypróbuj szybki start.
Uwaga / Notatka
Usługa Azure AI Speech obsługuje również głosy tekstu na mowę OpenAI. Aby dowiedzieć się więcej, zobacz przewodnik po głosach zamiany tekstu na mowę w usługach Azure OpenAI lub Azure AI Speech.
Nowe możliwości dostosowywania i obsługa modeli
Nowa regionalna obsługa usługi Azure OpenAI on Your Data
Teraz możesz używać usługi Azure OpenAI On Your Data w następującym regionie świadczenia usługi Azure:
- Północna Republika Południowej Afryki
Ogólna dostępność usługi Azure OpenAI dla Twoich danych
- Azure OpenAI dla Twoich danych jest teraz ogólnie dostępne.
Grudzień 2023 r.
Azure OpenAI w Twoich danych
- Pełna obsługa sieci VPN i prywatnego punktu końcowego dla Azure OpenAI w Twoich Danych, w tym obsługa zabezpieczeń dla: kont magazynu, zasobów Azure OpenAI i zasobów usługi wyszukiwania Azure AI.
- Nowy artykuł dotyczący korzystania z usługi Azure OpenAI w konfiguracji danych przez ochronę danych za pomocą sieci wirtualnych i prywatnych punktów końcowych.
GPT-4 Turbo z funkcją Vision jest już dostępny
GPT-4 Turbo z funkcją Vision na platformie Azure OpenAI jest teraz dostępne w publicznej wersji zapoznawczej. GPT-4 Turbo with Vision to duży model wielomodalny (LMM) opracowany przez openAI, który może analizować obrazy i dostarczać tekstowe odpowiedzi na pytania dotyczące nich. Obejmuje zarówno przetwarzanie języka naturalnego, jak i zrozumienie wizualne. W trybie rozszerzonym możesz użyć funkcji usługi Azure AI Vision , aby wygenerować dodatkowe szczegółowe informacje na podstawie obrazów.
- Poznaj możliwości biblioteki GPT-4 Turbo z funkcją Vision w środowisku bez kodu, korzystając z platformy Azure OpenAI Playground. Dowiedz się więcej w przewodniku Szybki start.
- Ulepszenia przetwarzania obrazów przy użyciu biblioteki GPT-4 Turbo z funkcją Vision są teraz dostępne w środowisku Azure OpenAI Playground i obejmują obsługę optycznego rozpoznawania znaków, uziemienia obiektów, obsługi obrazów dla "dodawania danych" i obsługi monitów wideo.
- Wykonuj wywołania do interfejsu API czatu bezpośrednio, korzystając z REST API.
- Dostępność regionów jest obecnie ograniczona do
SwitzerlandNorth
,SwedenCentral
,WestUS
iAustraliaEast
- Dowiedz się więcej o znanych ograniczeniach GPT-4 Turbo z funkcją Vision i innych często zadawanych pytaniach.
Listopad 2023
Obsługa nowych źródeł danych w Azure OpenAI na Twoich danych
- Teraz możesz używać Azure Cosmos DB dla MongoDB vCore oraz adresów URL/adresów internetowych jako źródeł danych, aby przetwarzać swoje dane i rozmawiać z obsługiwanym modelem usługi Azure OpenAI.
GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 wydane
Oba modele to najnowsze wydanie od OpenAI z ulepszonymi mechanizmami śledzenia instrukcji, trybem JSON, reproktywnymi wynikami i równoległym wywoływaniem funkcji.
GPT-4 Turbo Preview ma maksymalne okno kontekstowe 128 000 tokenów i może wygenerować 4096 tokenów wyjściowych. Ma najnowsze dane szkoleniowe obejmujące wiedzę do kwietnia 2023 roku. Ten model jest w wersji zapoznawczej i nie jest zalecany do użytku produkcyjnego. Wszystkie wdrożenia tego modelu w wersji zapoznawczej zostaną automatycznie zaktualizowane po udostępnieniu stabilnej wersji.
GPT-3.5-Turbo-1106 ma maksymalne okno kontekstowe 16 385 tokenów i może wygenerować 4096 tokenów wyjściowych.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się ze stroną modeli.
Modele mają indywidualne przydziały na region.
Publiczna wersja zapoznawcza DALL-E 3
DALL-E 3 to najnowszy model generowania obrazów z platformy OpenAI. Oferuje on ulepszoną jakość obrazu, bardziej złożone sceny i lepszą wydajność podczas renderowania tekstu na obrazach. Oferuje również więcej możliwości ustawienia proporcji. DALL-E 3 jest dostępny za pośrednictwem OpenAI Studio i REST API. Zasób OpenAI musi znajdować się w SwedenCentral
regionie świadczenia usługi Azure.
DALL-E 3 zawiera wbudowane przeformułowywanie monitów, aby ulepszyć obrazy, zredukować uprzedzenia i zwiększyć naturalną różnorodność.
Wypróbuj DALL-E 3, korzystając z szybkiego startu.
Odpowiedzialne używanie sztucznej inteligencji
Rozszerzona możliwość konfigurowania klientów: wszyscy klienci usługi Azure OpenAI mogą teraz konfigurować wszystkie poziomy ważności (niski, średni, wysoki) dla kategorii nienawiści, przemocy, przemocy, seksualnej i samookaleczenia, w tym filtrowania tylko zawartości o wysokiej ważności. Konfigurowanie filtrów zawartości
Poświadczenia zawartości we wszystkich modelach DALL-E: obrazy generowane przez sztuczną inteligencję ze wszystkich modeli DALL-E zawierają teraz poświadczenia cyfrowe, które ujawniają zawartość wygenerowaną przez sztuczną inteligencję. Aplikacje, które wyświetlają zasoby obrazkowe, mogą korzystać z open source SDK Inicjatywy Content Authenticity, aby wyświetlać poświadczenia w obrazach generowanych przez sztuczną inteligencję. Poświadczenia zawartości w usłudze Azure OpenAI
Nowe modele RAI
- Wykrywanie ryzyka jailbreaku: Ataki jailbreaku to żądania użytkowników mające na celu sprowokowanie modelu generatywnej sztucznej inteligencji do wykazywania zachowań, których model został nauczony unikać, lub złamania reguł ustawionych w komunikacie systemowym. Model wykrywania ryzyka związanego z jailbreakiem jest opcjonalny (domyślnie wyłączony) i dostępny w modelu adnotacji i filtrowania. Działa na podstawie poleceń użytkownika.
- Tekst chronionych materiałów: tekst chroniony materiału opisuje znaną zawartość tekstową (na przykład teksty piosenek, artykuły, przepisy i wybraną zawartość internetową), którą można wydawać za pomocą dużych modeli językowych. Model tekstu chronionego materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu adnotacji i filtrowania. Działa na podstawie wyników LLM.
- Kod chronionych materiałów: Kod chronionych materiałów opisuje kod źródłowy zgodny z zestawem kodu źródłowego z repozytoriów publicznych, które mogą być generowane przez duże modele językowe bez właściwego podania źródła. Model kodu chronionego materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Działa na podstawie wyników LLM.
Bloklisty: Klienci mogą teraz szybko dostosować działanie filtrów treści dla podpowiedzi i zakończeń, tworząc własną bloklistę w swoich filtrach. Niestandardowa lista bloków umożliwia filtrowi podejmowanie akcji na dostosowanej liście wzorców, takich jak określone terminy lub wzorce wyrażeń regularnych. Oprócz niestandardowych list blokad udostępniamy standardową listę wulgaryzmów od Microsoftu (w języku angielskim). Korzystanie z list blokowych
Październik 2023
Nowe modele dostrajania (wersja zapoznawcza)
gpt-35-turbo-0613
Jest teraz dostępny do dostrajania.babbage-002
idavinci-002
są teraz dostępne do dostrajania. Te modele zastępują starsze modele ada, babbage, curie i davinci, które były wcześniej dostępne do dostrajania.Dostępność dostrajania jest ograniczona do niektórych regionów. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Dostosowane modele mają inne limity przydziału niż modele zwykłe.
Azure OpenAI w Twoich danych
- Nowe parametry niestandardowe służące do określania liczby pobranych dokumentów i ścisłości.
- Ustawienie surowości ustawia próg do kategoryzowania dokumentów jako istotnych dla zapytań.
- Ustawienie Wyszukiwanych dokumentów określa liczbę najlepiej ocenianych dokumentów w indeskie danych używanych do generowania odpowiedzi.
- Stan pozyskiwania/przekazywania danych można zobaczyć w programie Azure OpenAI Studio.
- Wsparcie dla prywatnych punktów końcowych i sieci VPN dla kontenerów blobów.
Wrzesień 2023
GPT-4
GPT-4 i GPT-4-32k są teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Klienci nie muszą już ubiegać się o listę oczekujących, aby korzystać z modeli GPT-4 i GPT-4-32k (wymagania dotyczące rejestracji ograniczonego dostępu nadal mają zastosowanie do wszystkich modeli Azure OpenAI). Dostępność może się różnić w zależności od regionu. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
GPT-3.5 Turbo Instrukcja
Usługa Azure OpenAI obsługuje teraz model GPT-3.5 Turbo Instruct. Model ten ma wydajność porównywalną z text-davinci-003
i jest dostępny do użycia z interfejsem API uzupełniania.
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Whisper publiczna wersja próbna
Usługa Azure OpenAI obsługuje teraz interfejsy API zamiany mowy na tekst wykorzystujące model Whisper firmy OpenAI. Pobierz tekst wygenerowany przez sztuczną inteligencję na podstawie podanego dźwięku mowy. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.
Uwaga / Notatka
Usługa Azure AI Speech obsługuje również model Whisper OpenAI za pomocą interfejsu API transkrypcji wsadowej. Aby dowiedzieć się więcej, sprawdź przewodnik Stwórz transkrypcję zbiorczą. Sprawdź Co to jest model Whisper? aby dowiedzieć się więcej o tym, kiedy używać Azure AI Speech czy Azure OpenAI.
Nowe Regiony
- Usługa Azure OpenAI jest teraz również dostępna w regionach Szwecja Środkowa i Szwajcaria Północna. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Regionalne limity przydziału zwiększają się
- Zwiększenie maksymalnych domyślnych limitów przydziału dla niektórych modeli i regionów. Migrowanie obciążeń do tych modeli i regionów umożliwi korzystanie z wyższych tokenów na minutę (TPM).
Sierpień 2023
Aktualizacje usługi Azure OpenAI na danych użytkownika (wersja beta)
- Teraz możesz wdrożyć usługę Azure OpenAI na Twoich danych w Power Virtual Agents.
- Usługa Azure OpenAI On Your Data obsługuje teraz prywatne punkty końcowe.
- Możliwość filtrowania dostępu do poufnych dokumentów.
- Automatycznie odśwież indeks zgodnie z harmonogramem.
- Opcje wyszukiwania wektorowego i wyszukiwania semantycznego.
- Wyświetlanie historii czatów we wdrożonej aplikacji internetowej
Lipiec 2023
Obsługa wywoływania funkcji
- Usługa Azure OpenAI obsługuje teraz wywołanie funkcji, aby umożliwić pracę z funkcjami w interfejsie API uzupełniania czatów.
Zwiększenie osadzania danych wejściowych
- Usługa Azure OpenAI obsługuje teraz tablice z maksymalnie 16 danymi wejściowymi na żądanie interfejsu API z osadzeniem tekstu-ada-002 w wersji 2.
Nowe Regiony
- Usługa Azure OpenAI jest teraz również dostępna w regionach Kanada Wschodnia, Wschodnie stany USA 2, Japonia Wschodnia i Północno-środkowe stany USA. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Czerwiec 2023
Korzystanie z usługi Azure OpenAI na własnych danych (wersja zapoznawcza)
- Usługa Azure OpenAI On Your Data jest teraz dostępna w wersji zapoznawczej, umożliwiając rozmowę z modelami OpenAI, takimi jak GPT-35-Turbo i GPT-4, i odbieranie odpowiedzi na podstawie danych.
Nowe wersje modeli gpt-35-turbo i gpt-4
- gpt-35-turbo (wersja 0613)
- gpt-35-turbo-16k (wersja 0613)
- gpt-4 (wersja 0613)
- gpt-4-32k (wersja 0613)
Południowe Zjednoczone Królestwo
- Usługa Azure OpenAI jest teraz dostępna w regionie Południowe Zjednoczone Królestwo. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Filtrowanie i adnotacje zawartości (wersja zapoznawcza)
- Jak skonfigurować filtry zawartości za pomocą usługi Azure OpenAI.
- Włącz adnotacje , aby wyświetlić kategorię filtrowania zawartości i informacje o ważności w ramach wywołań uzupełniania i kończenia czatu GPT.
Kwota
- Przydział zapewnia elastyczność w aktywnym zarządzaniu przydzielaniem limitów przepustowości we wdrożeniach w ramach subskrypcji.
Maj 2023
Obsługa zestawów SDK dla Java i JavaScript
- NOWE zestawy SDK usługi Azure OpenAI w wersji zapoznawczej oferują obsługę języków JavaScript i Java.
Powszechna dostępność funkcji Chat Completion w usłudze Azure OpenAI
- Ogólna obsługa dostępności dla:
- Chat Completion API wersja
2023-05-15
. - Modele GPT-35-Turbo.
- Seria modeli GPT-4.
- Chat Completion API wersja
Jeśli obecnie używasz interfejsu 2023-03-15-preview
API, zalecamy migrację do wersji GA interfejsu 2023-05-15
API. Jeśli obecnie używasz wersji 2022-12-01
interfejsu API, jest ona nadal ogólnie dostępna, ale nie obejmuje najnowszych funkcji uzupełniania czatu.
Ważne
Korzystanie z bieżących wersji modeli GPT-35-Turbo z interfejsem zakończeniowym nadal znajduje się w fazie testowej.
Francja Środkowa
- Usługa Azure OpenAI jest teraz dostępna w regionie Francja Środkowa. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Kwiecień 2023 r.
DALL-E 2 — publiczna wersja zapoznawcza. Usługa Azure OpenAI obsługuje teraz interfejsy API generowania obrazów zasilane przez model OpenAI DALL-E 2. Pobierz obrazy generowane przez sztuczną inteligencję na podstawie podanego tekstu opisowego. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.
Nieaktywne wdrożenia niestandardowych modeli zostaną usunięte po upływie 15 dni; modele pozostaną dostępne do ponownego wdrożenia. Jeśli dostosowany (dostrojony) model jest wdrażany przez ponad piętnaście (15) dni, w których nie zostaną wykonane żadne wywołania do uzyskania odpowiedzi ani czatu, wdrożenie zostanie automatycznie usunięte (i nie zostaną naliczone żadne dalsze opłaty za utrzymanie tego wdrożenia). Podstawowy dostosowany model pozostanie dostępny i będzie można go ponownie wdrożyć w dowolnym momencie. Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Marzec 2023 r.
Modele serii GPT-4 są teraz dostępne w wersji zapoznawczej w usłudze Azure OpenAI. Aby zażądać dostępu, istniejący klienci usługi Azure OpenAI mogą zastosować się, wypełniając ten formularz. Te modele są obecnie dostępne w regionach Wschodnie stany USA i Południowo-środkowe stany USA.
Nowe API uzupełniania czatu dla modeli GPT-35-Turbo i GPT-4 wydane w wersji zapoznawczej 21 marca. Aby dowiedzieć się więcej, zapoznaj się ze zaktualizowanymi przewodnikami Szybki start i artykułem z instrukcjami.
GPT-35-Turbo (wersja zapoznawcza). Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Zwiększone limity szkolenia do dostrajania: maksymalny rozmiar zadania szkoleniowego (liczba tokenów w pliku szkoleniowym) x (liczba epok) wynosi 2 000 000 000 tokenów dla wszystkich modeli. Zwiększyliśmy również maksymalną liczbę zadań treningowych z 120 do 720 godzin.
Dodawanie dodatkowych przypadków użycia do istniejącego dostępu. Wcześniej proces dodawania nowych scenariuszy użycia wymagał od klientów ponownego ubiegania się o usługę. Teraz wprowadzamy nowy proces, który umożliwia szybkie dodawanie nowych scenariuszy użycia do korzystania z usługi. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w usłudze Azure OpenAI. Istniejący klienci mogą potwierdzić wszystkie nowe przypadki użycia w tym miejscu. Należy pamiętać, że jest to wymagane za każdym razem, gdy chcesz korzystać z usługi w przypadku nowego zastosowania, którego wcześniej nie zgłaszałeś.
luty 2023
Nowe funkcje
- Przykłady wersji zapoznawczej .NET SDK (inference) | Samples
- Aktualizacja zestawu SDK programu Terraform do obsługi operacji zarządzania usługą Azure OpenAI.
- Wstawianie tekstu na końcu wypełnienia jest teraz obsługiwane za pomocą parametru
suffix
.
Aktualizacje
- Filtrowanie zawartości jest domyślnie włączone.
Nowe artykuły na temat:
Nowy kurs szkoleniowy:
Styczeń 2023 r.
Nowe funkcje
Service GA Usługa Azure OpenAI jest teraz ogólnie dostępna.
Nowe modele: Dodawanie najnowszego modelu tekstu, text-davinci-003 (Wschodnie stany USA, Europa Zachodnia), text-ada-embeddings-002 (Wschodnie stany USA, Południowo-środkowe stany USA, Europa Zachodnia)
Grudzień 2022
Nowe funkcje
Najnowsze modele z platformy OpenAI. Usługa Azure OpenAI zapewnia dostęp do wszystkich najnowszych modeli, w tym serii GPT-3.5.
Nowa wersja interfejsu API (2022-12-01). Ta aktualizacja obejmuje kilka żądanych ulepszeń, w tym informacje o użyciu tokenu w odpowiedzi interfejsu API, ulepszone komunikaty o błędach dla plików, wyrównanie do interfejsu OpenAI w zakresie dostrajania struktury danych tworzenia oraz obsługę parametru sufiksu w celu umożliwienia niestandardowego nazewnictwa dostosowanych zadań.
Wyższe limity żądań na sekundę. 50 dla modeli innych niż Davinci. 20 dla modeli Davinci.
Szybsze dostosowywanie wdrożeń. Wdróż zoptymalizowane modele typu Ada i Curie w mniej niż 10 minut.
Wyższe limity treningowe: 40 mln tokenów treningowych dla Ada, Babbage i Curie. 10M dla Davinci.
Proces składania wniosków o modyfikacje rejestrowania danych dotyczących nadużyć i niewłaściwego użycia oraz ich przeglądu przez ludzi. Obecnie usługa rejestruje dane żądania/odpowiedzi na potrzeby wykrywania nadużyć i nieprawidłowego użycia, aby upewnić się, że te zaawansowane modele nie są nadużywane. Jednak wielu klientów ma ścisłe wymagania dotyczące prywatności i zabezpieczeń danych, które wymagają większej kontroli nad danymi. Aby obsługiwać te przypadki użycia, publikujemy nowy proces dla klientów w celu zmodyfikowania zasad filtrowania zawartości lub wyłączenia rejestrowania nadużyć w przypadku przypadków użycia niskiego ryzyka. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w usłudze Azure OpenAI, a istniejący klienci OpenAI mogą aplikować tutaj.
Szyfrowanie klucza zarządzanego przez klienta (CMK). CMK zapewnia klientom większą kontrolę nad zarządzaniem ich danymi w usłudze Azure OpenAI, umożliwiając wykorzystanie własnych kluczy szyfrowania do przechowywania danych szkoleniowych i modeli dostosowanych. Klucze zarządzane przez klienta (CMK), znane także jako własne klucze (BYOK), zapewniają większą elastyczność tworzenia, obracania, wyłączania i odwoływania kontroli dostępu. Możesz również przeprowadzać inspekcję kluczy szyfrowania używanych do ochrony danych. Dowiedz się więcej z naszej dokumentacji dotyczącej szyfrowania danych w spoczynku.
Obsługa skrzynki depozytowej
Zgodność (SOC-2)
Rejestrowanie i diagnostyka za pomocą Azure Resource Health, analizy kosztów, metryk oraz diagnostyki.
Ulepszenia programu Studio. Liczne ulepszenia użyteczności przepływu pracy programu Studio, w tym obsługa roli usługi Azure AD w celu kontrolowania, kto w zespole ma dostęp do tworzenia dostosowanych modeli i wdrażania.
Zmiany (powodujące niezgodność)
Dostrajanie żądania tworzenia interfejsu API zostało zaktualizowane w celu dopasowania do schematu interfejsu OpenAI.
Wersje interfejsu API w wersji zapoznawczej:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
Interfejs API w wersji 2022-12-01:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
Filtrowanie zawartości jest domyślnie tymczasowo wyłączone . Moderacja treści Azure funkcjonuje inaczej niż Azure OpenAI. Usługa Azure OpenAI uruchamia filtry zawartości podczas wywołania generacji w celu wykrywania szkodliwej lub obraźliwej zawartości i filtruje je z odpowiedzi. Dowiedz się więcej
Te modele zostaną ponownie włączone w kwartale 2023 r. i będą domyślnie włączone.
Akcje klienta
- Skontaktuj się z pomocą techniczną platformy Azure, jeśli chcesz, aby były one włączone dla twojej subskrypcji.
- Zastosuj modyfikacje filtrowania, jeśli chcesz, aby pozostały wyłączone. (Ta opcja będzie dotyczyć tylko przypadków użycia niskiego ryzyka).
Dalsze kroki
Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.