Co nowego w usłudze Azure OpenAI Service
Ten artykuł zawiera podsumowanie najnowszych wersji i najważniejszych aktualizacji dokumentacji dla usługi Azure OpenAI.
Dostrajanie obrazów za pomocą GPT-4o (2024-08-06) jest teraz ogólnie dostępne (GA).
Dostrajanie obrazów umożliwia dodawanie obrazów do danych treningowych JSONL. Podobnie jak w przypadku wysyłania jednego lub wielu danych wejściowych obrazów do ukończenia czatu, możesz uwzględnić te same typy komunikatów w danych treningowych. Obrazy mogą być udostępniane jako adresy URL lub jako obrazy zakodowane w formacie base64.
Aby uzyskać szczegółowe informacje na temat dostępności regionu modelu, zobacz stronę modeli.
Wprowadzamy nowe formy monitorowania nadużyć, które wykorzystują llMs w celu zwiększenia wydajności wykrywania potencjalnie obraźliwych zastosowań usługi Azure OpenAI i umożliwienia monitorowania nadużyć bez konieczności przeglądu przez człowieka monitów i uzupełniania. Dowiedz się więcej, zobacz Monitorowanie nadużyć.
Monity i uzupełnienia oflagowane za pośrednictwem klasyfikacji zawartości i/lub zidentyfikowane jako część potencjalnie obraźliwego wzorca użytkowania podlegają dodatkowemu procesowi przeglądu, aby ułatwić potwierdzenie analizy systemu i informowanie o decyzjach dotyczących akcji. Nasze systemy monitorowania nadużyć zostały rozszerzone w celu umożliwienia przeglądu przez LLM domyślnie i przez ludzi, gdy jest to konieczne i odpowiednie.
Standardowe wdrożenia strefy danych są dostępne w tym samym zasobie usługi Azure OpenAI co wszystkie inne typy wdrożeń usługi Azure OpenAI, ale umożliwiają dynamiczne kierowanie ruchu do centrum danych w strefie danych zdefiniowanej przez firmę Microsoft z najlepszą dostępnością dla każdego żądania. Standard strefy danych zapewnia wyższe domyślne limity przydziału niż typy wdrożeń opartych na lokalizacji geograficznej platformy Azure. Standardowe wdrożenia strefy danych są obsługiwane w modelach gpt-4o-2024-08-06
, gpt-4o-2024-05-13
i gpt-4o-mini-2024-07-18
.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Usługa Azure OpenAI globalna partia jest teraz ogólnie dostępna.
Interfejs API usługi Azure OpenAI Batch jest przeznaczony do wydajnego obsługi zadań przetwarzania dużych i dużych ilości. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem przydziału, z 24-godzinnym planem docelowym, przy mniejszym koszcie 50% niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają oddzielny limit przydziału tokenu w kolejce, co pozwala uniknąć zakłóceń obciążeń online.
Najważniejsze przypadki użycia:
Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.
Generowanie zawartości: utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.
Przegląd dokumentów i podsumowanie: automatyzowanie przeglądu i podsumowania długich dokumentów.
Automatyzacja obsługi klienta: obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.
Wyodrębnianie i analiza danych: wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.
Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.
Marketing i personalizacja: generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.
Aby uzyskać więcej informacji na temat rozpoczynania pracy z globalnymi wdrożeniami wsadowymi.
Modele o1-preview
i o1-mini
są teraz dostępne na potrzeby dostępu do interfejsu API i wdrażania modelu. Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft.
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Klienci, którzy zostali już zatwierdzeni i mają dostęp do modelu za pośrednictwem placu zabaw z wczesnym dostępem, nie muszą stosować się ponownie. Automatycznie otrzymasz dostęp do interfejsu API. Po udzieleniu dostępu należy utworzyć wdrożenie dla każdego modelu.
Obsługa interfejsu API:
Obsługa modeli serii o1 została dodana w wersji 2024-09-01-preview
interfejsu API .
Parametr max_tokens
został przestarzały i zastąpiony nowym max_completion_tokens
parametrem. Modele serii o1 będą działać tylko z parametrem max_completion_tokens
.
Dostępność regionów:
Modele są dostępne dla standardowych i globalnych standardowych wdrożeń w regionach Wschodnie stany USA 2 i Szwecja Środkowa dla zatwierdzonych klientów.
Azure OpenAI GPT-4o audio jest częścią rodziny modeli GPT-4o, która obsługuje małe opóźnienia, "mowa w, mowy na out" interakcji konwersacyjnych. Interfejs API audio realtime
GPT-4o jest przeznaczony do obsługi interakcji konwersacyjnych w czasie rzeczywistym, małych opóźnień, dzięki czemu doskonale nadaje się do przypadków użycia obejmujących interakcje na żywo między użytkownikiem a modelem, takie jak agenci pomocy technicznej klienta, asystentzy głosowi i tłumacze w czasie rzeczywistym.
Model gpt-4o-realtime-preview
jest dostępny dla wdrożeń globalnych w regionach Wschodnie stany USA 2 i Szwecja Środkowa.
Aby uzyskać więcej informacji, zobacz dokumentację audio GPT-4o w czasie rzeczywistym.
Globalna partia obsługuje teraz GPT-4o (2024-08-06). Aby uzyskać więcej informacji, zobacz globalny przewodnik wprowadzający do partii.
19 września po korzystaniu z programu Azure OpenAI Studio zaczniesz domyślnie nie widzieć starszego interfejsu użytkownika studio. W razie potrzeby nadal będzie można wrócić do poprzedniego środowiska przy użyciu przełącznika Przełącz do starego wyglądu na górnym pasku interfejsu użytkownika przez następne kilka tygodni. Jeśli wrócisz do starszego interfejsu użytkownika programu Studio, pomoże Ci wypełnić formularz opinii, aby poinformować nas, dlaczego. Aktywnie monitorujemy tę opinię, aby ulepszyć nowe środowisko.
GPT-4o 2024-08-06 jest teraz dostępny dla wdrożeń aprowizowania w regionach Wschodnie stany USA, Wschodnie stany USA 2, Północno-środkowe stany USA i Szwecja Środkowa. Jest ona również dostępna dla globalnych wdrożeń aprowizowania.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co typy wdrożeń innych niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalne aprowizowanie wdrożeń zapewnia pojemność przetwarzania modelu zarezerwowanego na potrzeby wysokiej i przewidywalnej przepływności przy użyciu globalnej infrastruktury platformy Azure. Globalne wdrożenia aprowizowania są obsługiwane w modelach gpt-4o-2024-08-06
i .gpt-4o-mini-2024-07-18
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
Usługa Azure OpenAI o1-preview
i o1-mini
modele zostały zaprojektowane tak, aby rozwiązywać problemy i rozwiązywać problemy pod kątem zwiększonego skupienia i możliwości. Modele te poświęcają więcej czasu na przetwarzanie i zrozumienie żądania użytkownika, co czyni je wyjątkowo silnymi w obszarach takich jak nauka, kodowanie i matematyka w porównaniu z poprzednimi iteracjami.
- Złożone generowanie kodu: możliwość generowania algorytmów i obsługi zaawansowanych zadań kodowania w celu obsługi deweloperów.
- Zaawansowane rozwiązywanie problemów: idealne rozwiązanie dla kompleksowych sesji burzy mózgów i rozwiązywanie wielowymiarowych wyzwań.
- Złożone porównanie dokumentów: idealne rozwiązanie do analizowania kontraktów, plików przypadków lub dokumentów prawnych w celu identyfikowania subtelnych różnic.
- Instrukcje następujące i zarządzanie przepływami pracy: Szczególnie skuteczne zarządzanie przepływami pracy wymagającymi krótszych kontekstów.
o1-preview
:o1-preview
jest bardziej zdolny doo1
modeli serii.o1-mini
:o1-mini
jest szybszym i tańszym modelemo1
serii.
Wersja modelu: 2024-09-12
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Modele o1
serii są obecnie dostępne w wersji zapoznawczej i nie zawierają niektórych funkcji dostępnych w innych modelach, takich jak interpretacja obrazu i dane wyjściowe ze strukturą, które są dostępne w najnowszym modelu GPT-4o. W przypadku wielu zadań ogólnie dostępne modele GPT-4o mogą być nadal bardziej odpowiednie.
Platforma OpenAI wprowadziła dodatkowe środki bezpieczeństwa do o1
modeli, w tym nowe techniki ułatwiające modelom odrzucanie niebezpiecznych żądań. Te postępy sprawiają, że o1
seria jest najbardziej niezawodna.
Obiekt o1-preview
i o1-mini
są dostępne w regionie Wschodnie stany USA 2 w celu uzyskania ograniczonego dostępu za pośrednictwem placu zabaw z wczesnym dostępem do usługi AI Studio . Przetwarzanie danych dla o1
modeli może wystąpić w innym regionie niż w przypadku, gdy są one dostępne do użycia.
Aby wypróbować modele o1-preview
i o1-mini
w rejestracji placu zabaw dla wczesnego dostępu jest wymagany, a dostęp zostanie przyznany na podstawie kryteriów kwalifikowalności firmy Microsoft.
Żądanie dostępu: aplikacja modelu ograniczonego dostępu
Po udzieleniu dostępu należy wykonać następujące kroki:
- Przejdź do https://ai.azure.com/resources i wybierz zasób w
eastus2
regionie. Jeśli nie masz zasobu usługi Azure OpenAI w tym regionie, musisz go utworzyć. - Po wybraniu
eastus2
zasobu Azure OpenAI w lewym górnym panelu w obszarze Place zabaw wybierz pozycję Plac zabaw dla wczesnych dostępów (wersja zapoznawcza).
- Dostępne dla wdrożeń standardowych i globalnych we wszystkich regionach USA i Szwecji Środkowej.
- Ten model dodaje obsługę danych wyjściowych ze strukturą.
Mini GPT-4o jest teraz dostępny dla wdrożeń aprowizowania w Kanadzie Wschodniej, Wschodnie stany USA, Wschodnie stany USA 2, Północno-środkowe stany USA i Szwecja Środkowa.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Dostrajanie GPT-4o jest teraz dostępne dla usługi Azure OpenAI w publicznej wersji zapoznawczej w północno-środkowych stanach USA i Szwecji Środkowej.
Aby uzyskać więcej informacji, zobacz nasz wpis w blogu.
Wersja 2024-07-01-preview
interfejsu API to najnowsza wersja interfejsu API tworzenia i wnioskowania płaszczyzny danych. Zastępuje wersję 2024-05-01-preview
interfejsu API i dodaje obsługę:
- Dodano obsługę interfejsu API usługi Batch
- Parametry strategii fragmentowania magazynu wektorów
max_num_results
że narzędzie wyszukiwania plików powinno wyświetlić dane wyjściowe.
Aby uzyskać więcej informacji, zobacz dokumentację referencyjną
- GPT-4o mini jest dostępny dla standardowego i globalnego wdrożenia standardowego w regionach Wschodnie stany USA i Szwecja Środkowa.
- GPT-4o mini jest dostępny dla globalnego wdrożenia wsadowego w regionach Wschodnie stany USA, Szwecja Środkowa i Zachodnie stany USA.
- Nowy wpis w blogu dotyczący rozpoczynania pracy z ocenami modeli. Zalecamy skorzystanie z tego przewodnika w ramach procesu uaktualniania i wycofywania modelu.
6 sierpnia 2024 roku OpenAI ogłosiła najnowszą wersję flagowego modelu 2024-08-06
GPT-4o. GPT-4o 2024-08-06
ma wszystkie możliwości poprzedniej wersji, a także:
- Ulepszona możliwość obsługi złożonych danych wyjściowych ze strukturą.
- Maksymalna liczba tokenów wyjściowych została zwiększona z 4096 do 16 384.
Klienci platformy Azure mogą obecnie testować GPT-4o 2024-08-06
w nowym środowisku zabaw z wczesnym dostępem do usługi AI Studio (wersja zapoznawcza).
W przeciwieństwie do poprzedniego placu zabaw z wczesnym dostępem do aplikacji AI Studio (wersja zapoznawcza) nie wymaga posiadania zasobu w określonym regionie.
Uwaga
Monity i zakończenia wykonywane za pośrednictwem placu zabaw z wczesnym dostępem (wersja zapoznawcza) mogą być przetwarzane w dowolnym regionie usługi Azure OpenAI i obecnie podlegają limitowi 10 żądań na minutę na subskrypcję platformy Azure. Ten limit może ulec zmianie w przyszłości.
Monitorowanie nadużyć usługi Azure OpenAI jest włączone dla wszystkich użytkowników placu zabaw wczesnego dostępu, nawet jeśli zostały zatwierdzone do modyfikacji; Domyślne filtry zawartości są włączone i nie można ich modyfikować.
Aby przetestować środowisko GPT-4o 2024-08-06
, zaloguj się do placu zabaw z wczesnym dostępem do sztucznej inteligencji platformy Azure (wersja zapoznawcza) przy użyciu tego linku.
Interfejs API usługi Azure OpenAI Batch jest przeznaczony do wydajnego obsługi zadań przetwarzania dużych i dużych ilości. Przetwarzaj asynchroniczne grupy żądań z oddzielnym limitem przydziału, z 24-godzinnym planem docelowym, przy mniejszym koszcie 50% niż w przypadku globalnego standardu. W przypadku przetwarzania wsadowego zamiast wysyłać jedno żądanie jednocześnie wysyłasz dużą liczbę żądań w jednym pliku. Globalne żądania wsadowe mają oddzielny limit przydziału tokenu w kolejce, co pozwala uniknąć zakłóceń obciążeń online.
Najważniejsze przypadki użycia:
Przetwarzanie danych na dużą skalę: szybko analizuj obszerne zestawy danych równolegle.
Generowanie zawartości: utwórz duże ilości tekstu, takie jak opisy produktów lub artykuły.
Przegląd dokumentów i podsumowanie: automatyzowanie przeglądu i podsumowania długich dokumentów.
Automatyzacja obsługi klienta: obsługa wielu zapytań jednocześnie w celu uzyskania szybszych odpowiedzi.
Wyodrębnianie i analiza danych: wyodrębnianie i analizowanie informacji z ogromnych ilości danych bez struktury.
Zadania przetwarzania języka naturalnego (NLP): wykonaj zadania, takie jak analiza tonacji lub tłumaczenie dużych zestawów danych.
Marketing i personalizacja: generowanie spersonalizowanej zawartości i rekomendacji na dużą skalę.
Aby uzyskać więcej informacji na temat rozpoczynania pracy z globalnymi wdrożeniami wsadowymi.
GPT-4o mini dostrajanie jest teraz dostępne w publicznej wersji zapoznawczej w Szwecji Środkowej i w Północno-środkowych stanach USA.
Narzędzie do wyszukiwania plików dla Asystentów ma teraz dodatkowe opłaty za użycie. Przejdź na stronę cennika, aby uzyskać więcej informacji.
GPT-4o mini to najnowszy model Usługi Azure OpenAI ogłoszony po raz pierwszy 18 lipca 2024 r.:
"GPT-4o mini pozwala klientom dostarczać wspaniałe aplikacje przy niższych kosztach z szybkością płonąc. GPT-4o mini jest znacznie mądrzejszy niż GPT-3,5 Turbo — oceniając 82% na mierzenie ogromnej wielotaskowej usługi Language Understanding (MMLU) w porównaniu z 70% i jest o ponad 60% tańsze.1 Model zapewnia rozszerzone okno kontekstowe 128K i integruje ulepszone wielojęzyczne możliwości GPT-4o, zapewniając większą jakość języków z całego świata."
Model jest obecnie dostępny dla wdrożenia standardowego i globalnego w regionie Wschodnie stany USA.
Aby uzyskać informacje na temat limitu przydziału modelu, zapoznaj się ze stroną Limity przydziału i limitami oraz aby uzyskać najnowsze informacje na temat dostępności modelu, zapoznaj się ze stroną modeli.
Nowe domyślne zasady DefaultV2
filtrowania zawartości zapewniają najnowsze środki zaradcze bezpieczeństwa i zabezpieczeń dla serii modeli GPT (tekst), w tym:
- Monituj osłony o ataki jailbreaku na monity użytkownika (filtr),
- Wykrywanie materiałów chronionych dla tekstu (filtru) po zakończeniu modelu
- Wykrywanie materiałów chronionych dla kodu (adnotacji) podczas uzupełniania modelu
Chociaż nie ma żadnych zmian w filtrach zawartości dla istniejących zasobów i wdrożeń (domyślne lub niestandardowe konfiguracje filtrowania zawartości pozostają niezmienione), nowe zasoby i wdrożenia GPT będą automatycznie dziedziczyć nowe zasady DefaultV2
filtrowania zawartości. Klienci mają możliwość przełączania się między ustawieniami domyślnymi zabezpieczeń i tworzenia niestandardowych konfiguracji filtrowania zawartości.
Aby uzyskać więcej informacji, zapoznaj się z naszą dokumentacją domyślnych zasad bezpieczeństwa.
Wersja interfejsu API to najnowsza wersja 2024-06-01
interfejsu API wnioskowania na płaszczyźnie danych ogólnie dostępnej. Zastępuje wersję 2024-02-01
interfejsu API i dodaje obsługę:
- osadzanie
encoding_format
idimensions
parametry. - uzupełnianie czatu
logprobs
itop_logprobs
parametry.
Aby uzyskać więcej informacji, zapoznaj się z dokumentacją referencyjną wnioskowania płaszczyzny danych.
GPT-4o jest teraz dostępny dla wdrożeń globalnych w warstwie Standardowa:
- australiaeast
- brazilsouth
- canadaeast
- eastus
- eastus2
- francecentral git
- germanywestcentral
- japaneast
- koreacentral
- northcentralus
- norwayeast
- polandcentral
- southafricanorth
- southcentralus
- southindia
- swedencentral
- switzerlandnorth
- uksouth
- westeurope
- westus
- westus3
Aby uzyskać informacje na temat globalnego limitu przydziału standardowego, zapoznaj się ze stroną limitów przydziału i limitów.
- Zaktualizowano
gpt-35-turbo
datę wycofania 0301 do nie wcześniej niż 1 października 2024 r. - Zaktualizowano
gpt-35-turbo
datę wycofania igpt-35-turbo-16k
0613 do 1 października 2024 r. - Data wycofania aktualizacji
gpt-4
igpt-4-32k
0314 do 1 października 2024 r. i data wycofania do 6 czerwca 2025 r.
Zapoznaj się z naszym przewodnikiem po wycofaniu modelu, aby uzyskać najnowsze informacje na temat wycofywania i wycofywania modelu.
- Rozliczenia dotyczące dostrajania w usłudze Azure OpenAI są teraz oparte na liczbie tokenów w pliku treningowym — zamiast łącznego czasu uczenia, który upłynął. Może to spowodować znaczne obniżenie kosztów niektórych przebiegów treningowych i znacznie ułatwia szacowanie kosztów dostosowywania. Aby dowiedzieć się więcej, możesz zapoznać się z oficjalnym ogłoszeniem.
- GPT-4o jest teraz również dostępny w:
- Szwecja Środkowa dla standardowego wdrożenia regionalnego.
- Australia Wschodnia, Kanada Wschodnia, Japonia Wschodnia, Korea Środkowa, Szwecja Środkowa, Szwajcaria Północna i Zachodnie stany USA 3 na potrzeby aprowizowania wdrożenia.
Aby uzyskać najnowsze informacje na temat dostępności modelu, zobacz stronę modele.
Wątki i pliki w Asystentach obsługują teraz klucz cmK w następującym regionie:
- Zachodnie stany USA 3
gpt-4o
Wersja: 2024-05-13
jest dostępna zarówno dla wdrożeń standardowych, jak i aprowizowania. Wdrożenia modelu aprowizowanego i standardowego akceptują żądania wnioskowania obrazów i obrazów.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się z macierzą modeli dla aprowizowania wdrożeń.
Odświeżanie interfejsu API Asystentów jest teraz publicznie dostępne. Zawiera następujące aktualizacje:
- Narzędzie wyszukiwania plików i magazyn wektorowy
- Maksymalna obsługa uzupełniania i maksymalnego tokenu monitu na potrzeby zarządzania użyciem tokenu.
tool_choice
parametr wymuszający użycie określonego narzędzia przez Asystenta. Teraz możesz tworzyć wiadomości z rolą asystenta, aby tworzyć niestandardowe historie konwersacji w wątkach.- Obsługa
temperature
parametrów , ,top_p
response_format
. - Obsługa przesyłania strumieniowego i sondowania. Możesz użyć funkcji pomocnika w naszym zestawie SDK języka Python, aby tworzyć uruchomienia i przesyłać strumieniowo odpowiedzi. Dodaliśmy również pomocników zestawu SDK sondowania w celu udostępniania aktualizacji stanu obiektu bez konieczności sondowania.
- Eksperymentuj z usługą Logic Apps i wywoływaniem funkcji przy użyciu programu Azure OpenAI Studio. Zaimportuj interfejsy API REST zaimplementowane w usłudze Logic Apps jako funkcje, a studio wywołuje funkcję (jako przepływ pracy usługi Logic Apps) automatycznie na podstawie monitu użytkownika.
- Rozwiązanie AutoGen by Microsoft Research udostępnia platformę konwersacji dla wielu agentów, która umożliwia wygodne tworzenie przepływów pracy modelu dużego języka (LLM) w wielu aplikacjach. Asystenci usługi Azure OpenAI są teraz zintegrowane z rozwiązaniem AutoGen za pośrednictwem usługi
GPTAssistantAgent
, nowego eksperymentalnego agenta, który umożliwia bezproblemowe dodawanie Asystentów do przepływów pracy wieloagenów opartych na autogenie. Umożliwia to wielu asystentom usługi Azure OpenAI, które mogą być zadaniami lub domenami wyspecjalizowanymi do współpracy i rozwiązywania złożonych zadań. - Obsługa dostosowanych
gpt-3.5-turbo-0125
modeli w następujących regionach:- Wschodnie stany USA 2
- Szwecja Środkowa
- Rozszerzona obsługa regionalna dla:
- Japan East
- Południowe Zjednoczone Królestwo
- Zachodnie stany USA
- Zachodnie stany USA 3
- Norwegia wschodnia
Aby uzyskać więcej informacji, zobacz wpis w blogu dotyczący asystentów.
GPT-4o ("o is for "omni") to najnowszy model z OpenAI uruchomiony 13 maja 2024 r.
- GPT-4o integruje tekst i obrazy w jednym modelu, umożliwiając mu obsługę wielu typów danych jednocześnie. Takie wielomodalne podejście zwiększa dokładność i szybkość reakcji w interakcjach komputerów ludzkich.
- GPT-4o pasuje do GPT-4 Turbo w języku angielskim i zadaniach kodowania, oferując lepszą wydajność w językach innych niż angielski i w zadaniach przetwarzania obrazów, ustawiając nowe testy porównawcze dla możliwości sztucznej inteligencji.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zobacz stronę modeli.
Wdrożenia globalne są dostępne w tych samych zasobach usługi Azure OpenAI co oferty inne niż globalne, ale umożliwiają korzystanie z globalnej infrastruktury platformy Azure w celu dynamicznego kierowania ruchu do centrum danych z najlepszą dostępnością dla każdego żądania. Globalny standard zapewnia najwyższy domyślny limit przydziału dla nowych modeli i eliminuje konieczność równoważenia obciążenia w wielu zasobach.
Aby uzyskać więcej informacji, zobacz przewodnik dotyczący typów wdrożeń.
- Dostrajanie GPT-4 jest teraz dostępne w publicznej wersji zapoznawczej.
- Dodano obsługę inicjowania, zdarzeń, pełnych statystyk walidacji i punktów kontrolnych w ramach wydania interfejsu
2024-05-01-preview
API.
Twórz niestandardowe filtry zawartości dla wdrożeń DALL-E 2 i 3, GPT-4 Turbo z usługą Vision GA (turbo-2024-04-09
) i GPT-4o. Filtrowanie zawartości
Uruchamianie filtrów asynchronicznie w celu zwiększenia opóźnienia w scenariuszach przesyłania strumieniowego jest teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Filtrowanie zawartości
Monitowanie osłon chroni aplikacje obsługiwane przez modele Usługi Azure OpenAI przed dwoma typami ataków: bezpośrednimi (jailbreak) i atakami pośrednimi. Ataki pośrednie (nazywane również atakami pośrednimi monitami lub atakami polegającymi na wstrzyknięciu monitów między domenami) są typem ataku na systemy oparte na modelach generacyjnych sztucznej inteligencji, które mogą wystąpić, gdy aplikacja przetwarza informacje, które nie zostały bezpośrednio utworzone przez dewelopera aplikacji lub użytkownika. Filtrowanie zawartości
- Aby uzyskać więcej informacji, zobacz cykl życia wersji interfejsu API.
Najnowsza wersja GA GPT-4 Turbo to:
gpt-4
Wersja:turbo-2024-04-09
Jest to zamiennik następujących modeli w wersji zapoznawczej:
gpt-4
Wersja:1106-Preview
gpt-4
Wersja:0125-Preview
gpt-4
Wersja:vision-preview
- Wersja najnowszego
0409
modelu turbo openAI obsługuje tryb JSON i funkcję wywołującą wszystkie żądania wnioskowania. - Wersja najnowszej wersji
turbo-2024-04-09
usługi Azure OpenAI obecnie nie obsługuje korzystania z trybu JSON i wywoływania funkcji podczas wprowadzania żądań wnioskowania przy użyciu danych wejściowych obrazu (vision). Żądania wejściowe oparte na tekście (żądania bezimage_url
obrazów wbudowanych i wbudowanych) obsługują tryb JSON i wywoływanie funkcji.
- Integracja funkcji przetwarzania obrazów specyficznych dla sztucznej inteligencji platformy Azure z funkcją GPT-4 Turbo z usługą Vision nie jest obsługiwana w wersji
gpt-4
:turbo-2024-04-09
. Obejmuje to optyczne rozpoznawanie znaków (OCR), uziemanie obiektów, monity wideo i ulepszoną obsługę danych za pomocą obrazów.
Ważne
Ulepszenia obrazów w wersji zapoznawczej, w tym optyczne rozpoznawanie znaków (OCR), uziemanie obiektów, monity wideo zostaną wycofane i nie będą już dostępne po gpt-4
uaktualnieniu wersji vision-preview
do turbo-2024-04-09
programu . Jeśli obecnie korzystasz z dowolnej z tych funkcji w wersji zapoznawczej, to automatyczne uaktualnianie modelu będzie zmianą powodującą niezgodność.
gpt-4
Wersja:turbo-2024-04-09
jest dostępny zarówno w przypadku wdrożeń standardowych, jak i aprowizowania. Obecnie aprowizowana wersja tego modelu nie obsługuje żądań wnioskowania obrazów/obrazów. Aprowidowane wdrożenia tego modelu akceptują tylko wprowadzanie tekstu. Wdrożenia modelu w warstwie Standardowa akceptują żądania wnioskowania tekstu i obrazu/obrazów.
Aby wdrożyć model ga z poziomu interfejsu użytkownika programu Studio, wybierz GPT-4
pozycję, a następnie wybierz turbo-2024-04-09
wersję z menu rozwijanego. Domyślny limit przydziału gpt-4-turbo-2024-04-09
dla modelu będzie taki sam jak bieżący limit przydziału dla GPT-4-Turbo. Zobacz regionalne limity przydziału.
Dostrajanie jest teraz obsługiwane w dwóch nowych regionach Wschodnie stany USA 2 i Szwajcaria Zachodnia
Dostrajanie jest teraz dostępne z obsługą:
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
babbage-002
davinci-002
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu i obsługi dostrajania w każdym regionie.
Dostrajanie obsługuje teraz przykłady trenowania czatów wieloestrojowych.
Teraz możesz użyć modelu GPT-4 (0125) w dostępnych regionach za pomocą usługi Azure OpenAI On Your Data.
Usługa Azure OpenAI Studio udostępnia teraz pulpit nawigacyjny Zagrożenia i bezpieczeństwo dla każdego z wdrożeń korzystających z konfiguracji filtru zawartości. Służy do sprawdzania wyników działania filtrowania. Następnie możesz dostosować konfigurację filtru, aby lepiej zaspokoić potrzeby biznesowe i spełnić zasady odpowiedzialnej sztucznej inteligencji.
Korzystanie z monitorowania zagrożeń i bezpieczeństwa
- Teraz możesz nawiązać połączenie z bazą danych wektorów Elasticsearch, która będzie używana z usługą Azure OpenAI Na danych.
- Parametr rozmiaru fragmentu można użyć podczas pozyskiwania danych, aby ustawić maksymalną liczbę tokenów dowolnego fragmentu danych w indeksie.
Jest to najnowsza wersja interfejsu API ogólnie dostępnego i jest zamiennikiem poprzedniej 2023-05-15
wersji ogólnie dostępnej. W tej wersji dodano obsługę najnowszych funkcji ga usługi Azure OpenAI, takich jak Whisper, DALLE-3, dostrajanie, na danych i nie tylko.
Funkcje, które są dostępne w wersji zapoznawczej, takie jak Asystenci, zamiana tekstu na mowę (TTS) i niektóre źródła danych "na danych", wymagają wersji interfejsu API w wersji zapoznawczej. Aby uzyskać więcej informacji, zapoznaj się z naszym przewodnikiem cyklu życia wersji interfejsu API.
Model szeptu mowy do tekstu jest teraz ogólnie dostępny zarówno dla architektury REST, jak i języka Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.
Wypróbuj szept, postępując zgodnie z przewodnikiem Szybki start.
Model generowania obrazów DALL-E 3 jest teraz ogólnie dostępny zarówno dla architektury REST, jak i języka Python. Zestawy SDK biblioteki klienta są obecnie nadal dostępne w publicznej wersji zapoznawczej.
Wypróbuj platformę DALL-E 3, korzystając z przewodnika Szybki start.
Teraz możesz uzyskać dostęp do języka DALL-E 3 za pomocą zasobu usługi Azure OpenAI w East US
regionie lub AustraliaEast
platformy Azure, a także .SwedenCentral
Dodaliśmy stronę do śledzenia wycofywania i wycofywania modeli w usłudze Azure OpenAI Service. Ta strona zawiera informacje o modelach, które są obecnie dostępne, przestarzałe i wycofane.
2024-03-01-preview
Ma wszystkie te same funkcje co 2024-02-15-preview
i dodaje dwa nowe parametry do osadzania:
encoding_format
Umożliwia określenie formatu generowania osadzeń w elemeciefloat
lubbase64
. Wartość domyślna tofloat
.dimensions
Umożliwia ustawienie liczby osadzonych danych wyjściowych. Ten parametr jest obsługiwany tylko w przypadku modeli osadzania nowej generacji trzeciej generacji:text-embedding-3-large
,text-embedding-3-small
. Zazwyczaj większe osadzanie jest droższe z perspektywy zasobów obliczeniowych, pamięci i magazynu. Możliwość dostosowania liczby wymiarów umożliwia większą kontrolę nad ogólnym kosztem i wydajnością. Parametrdimensions
nie jest obsługiwany we wszystkich wersjach biblioteki języka Python OpenAI 1.x, aby skorzystać z tego parametru, zalecamy uaktualnienie do najnowszej wersji:pip install openai --upgrade
.
Jeśli obecnie używasz wersji zapoznawczej interfejsu API do korzystania z najnowszych funkcji, zalecamy zapoznanie się z artykułem dotyczącym cyklu życia wersji interfejsu API, aby śledzić, jak długo będzie obsługiwana bieżąca wersja interfejsu API.
Uaktualnienie gpt-4
wdrożenia wersji 1106-Preview do gpt-4
wersji 0125-Preview zaplanowanej na 8 marca 2024 r. nie jest już planowane. gpt-4
Wdrożenia wersji 1106-Preview i 0125-Preview ustawione na wartość "Automatyczna aktualizacja do wartości domyślnej" i "Uaktualnienie po wygaśnięciu" rozpocznie się uaktualnianie po wydaniu stabilnej wersji modelu.
Aby uzyskać więcej informacji na temat procesu uaktualniania, zapoznaj się ze stroną modeli.
Ten model ma różne ulepszenia, w tym większą dokładność odpowiedzi w żądanych formatach i poprawkę dla usterki, która spowodowała problem z kodowaniem tekstu w przypadku wywołań funkcji języka innego niż angielski.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
text-embedding-3-large
text-embedding-3-small
Podczas testowania raporty OpenAI zarówno duże, jak i małe modele osadzania trzeciej generacji oferują lepszą średnią wydajność pobierania w wielu językach z testem porównawczym MIRACL , zachowując jednocześnie lepszą wydajność dla zadań angielskich z testem porównawczym MTEB niż model osadzania tekstu drugiej generacji ada-002.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Aby uprościć migrację między różnymi wersjami modeli GPT-3.5-Turbo (w tym 16 tys.), skonsolidujemy wszystkie limity przydziału GPT-3.5-Turbo z pojedynczą wartością przydziału.
Wszyscy klienci, którzy zatwierdzili zwiększony limit przydziału, będą mieli łączny łączny limit przydziału, który odzwierciedla poprzednie wzrosty.
Każdy klient, którego bieżące całkowite użycie w wersjach modelu jest mniejsze niż domyślne, domyślnie otrzyma nowy łączny łączny limit przydziału.
Wersja gpt-4
0125-preview
modelu jest teraz dostępna w usłudze Azure OpenAI Service w regionach Wschodnie stany USA, Północno-środkowe stany USA i Południowo-środkowe stany USA. Klienci z wdrożeniami gpt-4
wersji 1106-preview
zostaną automatycznie uaktualnioni do 0125-preview
wersji w najbliższych tygodniach.
Aby uzyskać informacje na temat dostępności regionalnej i uaktualnień modelu, zapoznaj się ze stroną modeli.
Usługa Azure OpenAI obsługuje teraz interfejs API, który obsługuje grupy openAI. Asystenci usługi Azure OpenAI (wersja zapoznawcza) umożliwiają tworzenie asystentów sztucznej inteligencji dostosowanych do potrzeb za pomocą niestandardowych instrukcji i zaawansowanych narzędzi, takich jak interpreter kodu i funkcje niestandardowe. Aby dowiedzieć się więcej, zobacz:
- Szybki start
- Pojęcia
- Szczegółowe instrukcje dotyczące języka Python
- Interpreter kodów
- Wywoływanie funkcji
- Model asystentów i dostępność regionów
- Asystenci — dokumentacja języka Python i REST
- Przykłady asystentów
OpenAI text to speech voices public preview (Publiczna wersja zapoznawcza tekstu openAI na głosy mowy)
Usługa Azure OpenAI Obsługuje teraz interfejsy API zamiany tekstu na mowę za pomocą głosów interfejsów OpenAI. Pobierz mowę wygenerowaną przez sztuczną inteligencję na podstawie podanego tekstu. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem przeglądu i wypróbuj przewodnik Szybki start.
Uwaga
Usługa Azure AI Speech obsługuje również tekst OpenAI na głosy mowy. Aby dowiedzieć się więcej, zobacz OpenAI text to speech voices via Azure OpenAI Service or via Azure AI Speech guide (Przewodnik po zamianie mowy za pośrednictwem usługi Azure OpenAI Lub Azure AI Speech ).
Teraz możesz używać usługi Azure OpenAI On Your Data w następującym regionie świadczenia usługi Azure:
- Północna Republika Południowej Afryki
- Usługa Azure OpenAI w danych jest teraz ogólnie dostępna.
- Pełna obsługa sieci VPN i prywatnego punktu końcowego dla usługi Azure OpenAI On Your Data, w tym obsługa zabezpieczeń kont magazynu, zasobów usługi Azure OpenAI i zasobów usługi Azure AI usługa wyszukiwania.
- Nowy artykuł dotyczący bezpiecznego używania usługi Azure OpenAI On Your Data przez ochronę danych za pomocą sieci wirtualnych i prywatnych punktów końcowych.
Usługa GPT-4 Turbo z usługą Vision w usłudze Azure OpenAI jest teraz dostępna w publicznej wersji zapoznawczej. GPT-4 Turbo with Vision to duży model wielomodalny (LMM) opracowany przez openAI, który może analizować obrazy i dostarczać tekstowe odpowiedzi na pytania dotyczące nich. Obejmuje zarówno przetwarzanie języka naturalnego, jak i zrozumienie wizualne. W trybie rozszerzonym możesz użyć funkcji usługi Azure AI Vision , aby wygenerować dodatkowe szczegółowe informacje na podstawie obrazów.
- Poznaj możliwości biblioteki GPT-4 Turbo z funkcją Vision w środowisku bez kodu, korzystając z platformy Azure OpenAI Playground. Dowiedz się więcej w przewodniku Szybki start.
- Ulepszenia przetwarzania obrazów przy użyciu biblioteki GPT-4 Turbo z funkcją Vision są teraz dostępne w środowisku Azure OpenAI Playground i obejmują obsługę optycznego rozpoznawania znaków, uziemienia obiektów, obsługi obrazów dla "dodawania danych" i obsługi monitów wideo.
- Wykonywać wywołania interfejsu API czatu bezpośrednio przy użyciu interfejsu API REST.
- Dostępność regionów jest obecnie ograniczona do
SwitzerlandNorth
, ,SwedenCentral
WestUS
iAustraliaEast
- Dowiedz się więcej o znanych ograniczeniach GPT-4 Turbo z usługą Vision i innymi często zadawanymi pytaniami.
- Teraz możesz użyć usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB i adresów URL/adresów internetowych jako źródeł danych, aby pozyskiwać dane i rozmawiać z obsługiwanym modelem usługi Azure OpenAI.
Oba modele to najnowsza wersja interfejsu OpenAI z ulepszonymi instrukcjami, następującymi instrukcjami: trybem JSON, odtwarzalnymi danymi wyjściowymi i wywoływaniem funkcji równoległych.
GPT-4 Turbo Preview ma maksymalne okno kontekstowe 128 000 tokenów i może wygenerować 4096 tokenów wyjściowych. Ma najnowsze dane szkoleniowe z wiedzą do kwietnia 2023 r. Ten model jest w wersji zapoznawczej i nie jest zalecany do użytku produkcyjnego. Wszystkie wdrożenia tego modelu w wersji zapoznawczej zostaną automatycznie zaktualizowane po udostępnieniu stabilnej wersji.
GPT-3.5-Turbo-1106 ma maksymalne okno kontekstowe 16 385 tokenów i może wygenerować 4096 tokenów wyjściowych.
Aby uzyskać informacje na temat dostępności regionalnej modelu, zapoznaj się ze stroną modeli.
Modele mają własne unikatowe przydziały przydziału dla regionu.
DALL-E 3 to najnowszy model generowania obrazów z platformy OpenAI. Oferuje on ulepszoną jakość obrazu, bardziej złożone sceny i lepszą wydajność podczas renderowania tekstu na obrazach. Oferuje również więcej opcji współczynnika proporcji. Język DALL-E 3 jest dostępny za pośrednictwem programu OpenAI Studio i interfejsu API REST. Zasób OpenAI musi znajdować się w SwedenCentral
regionie świadczenia usługi Azure.
Język DALL-E 3 zawiera wbudowane ponowne zapisywanie monitów w celu ulepszenia obrazów, zmniejszenia stronniczości i zwiększenia zmienności naturalnej.
Wypróbuj platformę DALL-E 3, korzystając z przewodnika Szybki start.
Rozszerzona możliwość konfigurowania klientów: wszyscy klienci usługi Azure OpenAI mogą teraz konfigurować wszystkie poziomy ważności (niski, średni, wysoki) dla kategorii nienawiści, przemocy, przemocy, seksualnej i samookaleczenia, w tym filtrowania tylko zawartości o wysokiej ważności. Konfigurowanie filtrów zawartości
Poświadczenia zawartości we wszystkich modelach DALL-E: obrazy generowane przez sztuczną inteligencję ze wszystkich modeli DALL-E zawierają teraz poświadczenia cyfrowe, które ujawniają zawartość wygenerowaną przez sztuczną inteligencję. Aplikacje, które wyświetlają zasoby obrazów, mogą korzystać z zestawu SDK inicjatywy content authenticity typu open source do wyświetlania poświadczeń w wygenerowanych obrazach sztucznej inteligencji. Poświadczenia zawartości w usłudze Azure OpenAI
Nowe modele RAI
- Wykrywanie ryzyka jailbreaku: Ataki zabezpieczeń systemu to monity użytkowników mające na celu sprowokowanie modelu generowania sztucznej inteligencji do wykazywania zachowań, które zostały wytrenowane w celu uniknięcia lub przerwania reguł ustawionych w komunikacie systemowym. Model wykrywania ryzyka zabezpieczeń systemu jailbreak jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Jest on uruchamiany w monitach użytkownika.
- Tekst chronionych materiałów: tekst chroniony materiału opisuje znaną zawartość tekstową (na przykład teksty piosenek, artykuły, przepisy i wybraną zawartość internetową), którą można wydawać za pomocą dużych modeli językowych. Chroniony model tekstu materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Działa on po zakończeniu llM.
- Kod chronionych materiałów: Kod chroniony materiału opisuje kod źródłowy zgodny z zestawem kodu źródłowego z repozytoriów publicznych, które mogą być wyprowadzane przez duże modele językowe bez odpowiedniego cytowania repozytoriów źródłowych. Model kodu chronionego materiału jest opcjonalny (domyślnie wyłączony) i dostępny w modelu dodawania adnotacji i filtrowania. Działa on po zakończeniu llM.
Listy blokowe: klienci mogą teraz szybko dostosowywać zachowanie filtru zawartości w celu dalszego monitowania i uzupełniania, tworząc niestandardową listę bloków w swoich filtrach. Niestandardowa lista bloków umożliwia filtrowi podejmowanie akcji na dostosowanej liście wzorców, takich jak określone terminy lub wzorce wyrażeń regularnych. Oprócz niestandardowych list bloków udostępniamy listę bloków wulgaryzmów firmy Microsoft (angielski). Korzystanie z list blokowych
gpt-35-turbo-0613
Jest teraz dostępny do dostrajania.babbage-002
idavinci-002
są teraz dostępne do dostrajania. Te modele zastępują starsze modele ada, babbage, curie i davinci, które były wcześniej dostępne do dostrajania.Dostępność dostrajania jest ograniczona do niektórych regionów. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Dostosowane modele mają różne limity przydziału niż zwykłe modele.
- Nowe parametry niestandardowe służące do określania liczby pobranych dokumentów i ścisłości.
- Ustawienie strictness ustawia próg, aby kategoryzować dokumenty jako istotne dla zapytań.
- Ustawienie Pobranych dokumentów określa liczbę dokumentów oceniania z indeksu danych używanego do generowania odpowiedzi.
- Stan pozyskiwania/przekazywania danych można zobaczyć w programie Azure OpenAI Studio.
- Obsługa prywatnych punktów końcowych i sieci VPN dla kontenerów obiektów blob.
GPT-4 i GPT-4-32k są teraz dostępne dla wszystkich klientów usługi Azure OpenAI. Klienci nie muszą już ubiegać się o listę oczekującą, aby korzystała z bibliotek GPT-4 i GPT-4-32k (wymagania dotyczące rejestracji ograniczonego dostępu nadal mają zastosowanie do wszystkich modeli usługi Azure OpenAI). Dostępność może się różnić w zależności od regionu. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Usługa Azure OpenAI obsługuje teraz model GPT-3.5 Turbo Instruct. Ten model ma porównywalną wydajność i text-davinci-003
jest dostępny do użycia z interfejsem API uzupełniania. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
Usługa Azure OpenAI Service obsługuje teraz interfejsy API zamiany mowy na tekst obsługiwane przez model Whisper interfejsu OpenAI. Pobierz tekst wygenerowany przez sztuczną inteligencję na podstawie podanego dźwięku mowy. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.
Uwaga
Usługa Azure AI Speech obsługuje również model szeptu openAI za pośrednictwem interfejsu API transkrypcji wsadowej. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Tworzenie transkrypcji wsadowej. Zapoznaj się z tematem Co to jest model Szeptu? aby dowiedzieć się więcej o tym, kiedy używać usługi Azure AI Speech a Azure OpenAI Service.
- Usługa Azure OpenAI jest teraz również dostępna w regionach Szwecja Środkowa i Szwajcaria Północna. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
- Zwiększa się do maksymalnych domyślnych limitów przydziału dla niektórych modeli i regionów. Migrowanie obciążeń do tych modeli i regionów umożliwi korzystanie z wyższych tokenów na minutę (TPM).
- Teraz możesz wdrożyć usługę Azure OpenAI na danych w agentach power virtual agents.
- Usługa Azure OpenAI On Your Data obsługuje teraz prywatne punkty końcowe.
- Możliwość filtrowania dostępu do poufnych dokumentów.
- Automatycznie odśwież indeks zgodnie z harmonogramem.
- Opcje wyszukiwania wektorowego i wyszukiwania semantycznego.
- Wyświetlanie historii czatów we wdrożonej aplikacji internetowej
- Usługa Azure OpenAI obsługuje teraz wywołanie funkcji, aby umożliwić pracę z funkcjami w interfejsie API uzupełniania czatów.
- Usługa Azure OpenAI obsługuje teraz tablice z maksymalnie 16 danymi wejściowymi na żądanie interfejsu API z osadzeniem tekstu-ada-002 w wersji 2.
- Usługa Azure OpenAI jest teraz również dostępna w regionach Kanada Wschodnia, Wschodnie stany USA 2, Japonia Wschodnia i Północno-środkowe stany USA. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
- Usługa Azure OpenAI On Your Data jest teraz dostępna w wersji zapoznawczej, umożliwiając rozmowę z modelami OpenAI, takimi jak GPT-35-Turbo i GPT-4, i odbieranie odpowiedzi na podstawie danych.
- gpt-35-turbo (wersja 0613)
- gpt-35-turbo-16k (wersja 0613)
- gpt-4 (wersja 0613)
- gpt-4-32k (wersja 0613)
- Usługa Azure OpenAI jest teraz dostępna w regionie Południowe Zjednoczone Królestwo. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
- Jak skonfigurować filtry zawartości za pomocą usługi Azure OpenAI Service.
- Włącz adnotacje , aby wyświetlić kategorię filtrowania zawartości i informacje o ważności w ramach wywołań uzupełniania i kończenia czatu GPT.
- Limit przydziału zapewnia elastyczność aktywnego zarządzania alokacją limitów szybkości we wdrożeniach w ramach subskrypcji.
- NOWE zestawy SDK usługi Azure OpenAI w wersji zapoznawczej oferują obsługę języków JavaScript i Java.
- Ogólna obsługa dostępności dla:
- Wersja
2023-05-15
interfejsu API uzupełniania czatu. - Modele GPT-35-Turbo.
- Seria modeli GPT-4.
- Wersja
Jeśli obecnie używasz interfejsu API, zalecamy migrację do interfejsu 2023-03-15-preview
API ogólnie dostępnego 2023-05-15
. Jeśli obecnie używasz wersji interfejsu API, ta wersja 2022-12-01
interfejsu API pozostaje ogólnie dostępna, ale nie obejmuje najnowszych funkcji uzupełniania czatu.
Ważne
Korzystanie z bieżących wersji modeli GPT-35-Turbo z punktem końcowym uzupełniania pozostaje w wersji zapoznawczej.
- Usługa Azure OpenAI jest teraz dostępna w regionie Francja Środkowa. Sprawdź stronę modeli, aby uzyskać najnowsze informacje na temat dostępności modelu w każdym regionie.
DALL-E 2 — publiczna wersja zapoznawcza. Usługa Azure OpenAI Service obsługuje teraz interfejsy API generowania obrazów obsługiwane przez model DALL-E 2 platformy OpenAI. Pobierz obrazy generowane przez sztuczną inteligencję na podstawie podanego tekstu opisowego. Aby dowiedzieć się więcej, zapoznaj się z przewodnikiem Szybki start.
Nieaktywne wdrożenia niestandardowych modeli zostaną usunięte po upływie 15 dni; modele pozostaną dostępne do ponownego wdrożenia. Jeśli dostosowany (dostrojony) model jest wdrażany przez ponad piętnaście (15) dni, w których nie zostaną wykonane żadne ukończenie ani wywołania czatu, wdrożenie zostanie automatycznie usunięte (i nie zostaną naliczone żadne dalsze opłaty za hosting dla tego wdrożenia). Podstawowy dostosowany model pozostanie dostępny i będzie można go ponownie wdrożyć w dowolnym momencie. Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Modele serii GPT-4 są teraz dostępne w wersji zapoznawczej w usłudze Azure OpenAI. Aby zażądać dostępu, istniejący klienci usługi Azure OpenAI mogą zastosować się, wypełniając ten formularz. Te modele są obecnie dostępne w regionach Wschodnie stany USA i Południowo-środkowe stany USA.
Nowy interfejs API uzupełniania czatu dla modeli GPT-35-Turbo i GPT-4 wydany w wersji zapoznawczej 3/21. Aby dowiedzieć się więcej, zapoznaj się ze zaktualizowanymi przewodnikami Szybki start i artykułem z instrukcjami.
GPT-35-Turbo (wersja zapoznawcza). Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Zwiększone limity trenowania do dostrajania: maksymalny rozmiar zadania trenowania (tokeny w pliku treningowym) x (# epok) to 2 miliardy tokenów dla wszystkich modeli. Zwiększyliśmy również maksymalną liczbę zadań treningowych z 120 do 720 godzin.
Dodawanie dodatkowych przypadków użycia do istniejącego dostępu. Wcześniej proces dodawania nowych przypadków użycia wymagał od klientów ponownego zastosowania do usługi. Teraz publikujemy nowy proces, który umożliwia szybkie dodawanie nowych przypadków użycia do korzystania z usługi. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w ramach usług Azure AI. Istniejący klienci mogą potwierdzić wszystkie nowe przypadki użycia w tym miejscu. Należy pamiętać, że jest to wymagane w dowolnym momencie, w którym chcesz korzystać z usługi w przypadku nowego przypadku użycia, dla którego pierwotnie nie zastosowano.
- Przykłady wersji zapoznawczej zestawu | .NET SDK (wnioskowania)
- Aktualizacja zestawu SDK programu Terraform do obsługi operacji zarządzania usługą Azure OpenAI.
- Wstawianie tekstu na końcu ukończenia jest teraz obsługiwane za pomocą parametru
suffix
.
- Filtrowanie zawartości jest domyślnie włączone.
Nowe artykuły na temat:
Nowy kurs szkoleniowy:
Ogólna dostępność usługi. Usługa Azure OpenAI jest teraz ogólnie dostępna.
Nowe modele: Dodawanie najnowszego modelu tekstu, text-davinci-003 (Wschodnie stany USA, Europa Zachodnia), text-ada-embeddings-002 (Wschodnie stany USA, Południowo-środkowe stany USA, Europa Zachodnia)
Najnowsze modele z platformy OpenAI. Usługa Azure OpenAI zapewnia dostęp do wszystkich najnowszych modeli, w tym serii GPT-3.5.
Nowa wersja interfejsu API (2022-12-01). Ta aktualizacja obejmuje kilka żądanych ulepszeń, w tym informacje o użyciu tokenu w odpowiedzi interfejsu API, ulepszone komunikaty o błędach dla plików, wyrównanie do interfejsu OpenAI w zakresie dostrajania struktury danych tworzenia oraz obsługę parametru sufiksu w celu umożliwienia niestandardowego nazewnictwa dostosowanych zadań.
Wyższe limity żądań na sekundę. 50 dla modeli innych niż Davinci. 20 dla modeli Davinci.
Szybsze dostosowywanie wdrożeń. Wdróż modele Ada i Curie w czasie poniżej 10 minut.
Wyższe limity treningowe: 40 mln tokenów treningowych dla Ada, Babbage i Curie. 10M dla Davinci.
Proces żądania modyfikacji nadużyć i nieodebranych danych rejestrowania i przeglądu ludzkiego. Obecnie usługa rejestruje dane żądania/odpowiedzi na potrzeby wykrywania nadużyć i nieprawidłowego użycia, aby upewnić się, że te zaawansowane modele nie są nadużywane. Jednak wielu klientów ma ścisłe wymagania dotyczące prywatności i zabezpieczeń danych, które wymagają większej kontroli nad danymi. Aby obsługiwać te przypadki użycia, publikujemy nowy proces dla klientów w celu zmodyfikowania zasad filtrowania zawartości lub wyłączenia rejestrowania nadużyć w przypadku przypadków użycia niskiego ryzyka. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w ramach usług Azure AI, a istniejący klienci openAI mogą zastosować tutaj.
Szyfrowanie klucza zarządzanego przez klienta (CMK). Klucz cmK zapewnia klientom większą kontrolę nad zarządzaniem danymi w usłudze Azure OpenAI, udostępniając własne klucze szyfrowania używane do przechowywania danych szkoleniowych i dostosowanych modeli. Klucze zarządzane przez klienta (CMK), znane także jako własne klucze (BYOK), zapewniają większą elastyczność tworzenia, obracania, wyłączania i odwoływania kontroli dostępu. Możesz również przeprowadzać inspekcję kluczy szyfrowania używanych do ochrony danych. Dowiedz się więcej z naszej dokumentacji dotyczącej szyfrowania magazynowanych.
Obsługa skrytki
Zgodność SOC-2
Rejestrowanie i diagnostyka za pomocą ustawień usługi Azure Resource Health, analizy kosztów i metryk i diagnostyki.
Ulepszenia programu Studio. Liczne ulepszenia użyteczności przepływu pracy programu Studio, w tym obsługa roli usługi Azure AD w celu kontrolowania, kto w zespole ma dostęp do tworzenia dostosowanych modeli i wdrażania.
Dostrajanie żądania tworzenia interfejsu API zostało zaktualizowane w celu dopasowania do schematu interfejsu OpenAI.
Wersje interfejsu API w wersji zapoznawczej:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
Interfejs API w wersji 2022-12-01:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
Filtrowanie zawartości jest domyślnie tymczasowo wyłączone . Usługa Azure con tryb namiotu ration działa inaczej niż usługa Azure OpenAI. Usługa Azure OpenAI uruchamia filtry zawartości podczas wywołania generacji w celu wykrywania szkodliwej lub obraźliwej zawartości i filtruje je z odpowiedzi. Dowiedz się więcej
Te modele zostaną ponownie włączone w kwartale 2023 r. i będą domyślnie włączone.
Akcje klienta
- Skontaktuj się z pomocą techniczną platformy Azure, jeśli chcesz, aby były one włączone dla twojej subskrypcji.
- Zastosuj się do filtrowania modyfikacji, jeśli chcesz, aby pozostały wyłączone. (Ta opcja będzie dotyczyć tylko przypadków użycia niskiego ryzyka).
Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.