Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ważne
Elementy oznaczone (wersja zapoznawcza) w tym artykule są obecnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą nie być obsługiwane lub mogą mieć ograniczone możliwości. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.
Z tego artykułu dowiesz się, jak tworzyć wdrożenia modeli usługi Azure OpenAI w portalu usługi Azure AI Foundry.
Usługa Azure OpenAI w usłudze Azure AI Foundry Models oferuje zróżnicowany zestaw modeli z różnymi możliwościami i punktami cenowymi. Podczas wdrażania modeli usługi Azure OpenAI w portalu Azure AI Foundry można korzystać z wdrożeń przy użyciu przepływu monitu lub innego narzędzia. Dostępność modelu różni się w zależności od regionu. Aby dowiedzieć się więcej na temat szczegółów poszczególnych modeli, zobacz Modele usługi Azure OpenAI.
Aby zmodyfikować model usługi Azure OpenAI i wchodzić w interakcje z nim na placu zabaw rozwiązania Azure AI Foundry , najpierw musisz wdrożyć podstawowy model usługi Azure OpenAI w projekcie. Po wdrożeniu modelu i udostępnieniu go w projekcie możesz korzystać z jego punktu końcowego interfejsu API REST tak jak jest lub dostosowywać go do własnych danych i innych składników (wektory, indeksy i inne).
Wymagania wstępne
Subskrypcja platformy Azure z prawidłową formą płatności. Subskrypcje platformy Azure w wersji bezpłatnej lub próbnej nie będą działać. Jeśli nie masz subskrypcji platformy Azure, utwórz płatne konto platformy Azure, aby rozpocząć.
Wdrażanie modelu usługi Azure OpenAI z katalogu modeli
Wykonaj poniższe kroki, aby wdrożyć model usługi Azure OpenAI, taki jak gpt-4o-mini
, do punktu dostępowego czasu rzeczywistego z katalogu modeli portalu Azure AI Foundry:
- Zaloguj się do usługi Azure AI Foundry.
- Jeśli nie jesteś jeszcze w projekcie, wybierz go.
- Wybierz pozycję Katalog modeli w okienku po lewej stronie.
W filtrze Kolekcje wybierz pozycję Azure OpenAI.
Wybierz model, taki jak
gpt-4o-mini
z kolekcji Azure OpenAI.Wybierz pozycję Wdróż , aby otworzyć okno wdrażania.
Wybierz zasób, do którego chcesz wdrożyć model. Jeśli nie masz zasobu, możesz go utworzyć.
Określ nazwę wdrożenia i zmodyfikuj inne ustawienia domyślne w zależności od wymagań.
Wybierz Wdróż.
Zostanie wyświetlona strona szczegółów wdrożenia. Wybierz pozycję Otwórz na placu zabaw.
Wybierz pozycję Wyświetl kod , aby uzyskać przykłady kodu, których można użyć do korzystania z wdrożonego modelu w aplikacji.
Wdrażanie modelu usługi Azure OpenAI z projektu
Możesz też zainicjować wdrożenie, zaczynając od projektu w portalu usługi Azure AI Foundry.
Wskazówka
Ponieważ możesz dostosować okienko po lewej stronie w portalu azure AI Foundry, możesz zobaczyć inne elementy niż pokazano w tych krokach. Jeśli nie widzisz szukanych danych, wybierz pozycję ... Więcej w dolnej części okienka po lewej stronie.
- Przejdź do projektu w portalu usługi Azure AI Foundry.
- Na lewym pasku bocznym projektu przejdź do pozycji Moje zasoby>Modele i punkty końcowe.
- Wybierz + Wdróż model>Wdróż model podstawowy.
- W filtrze Kolekcje wybierz pozycję Azure OpenAI.
- Wybierz model, taki jak
gpt-4o-mini
z kolekcji Azure OpenAI. - Wybierz pozycję Potwierdź , aby otworzyć okno wdrażania.
- Określ nazwę wdrożenia i zmodyfikuj inne ustawienia domyślne w zależności od wymagań.
- Wybierz Wdróż.
- Zostanie wyświetlona strona szczegółów wdrożenia. Wybierz pozycję Otwórz na placu zabaw.
- Wybierz pozycję Wyświetl kod , aby uzyskać przykłady kodu, których można użyć do korzystania z wdrożonego modelu w aplikacji.
Wnioskowanie modelu usługi Azure OpenAI
Aby przeprowadzić wnioskowanie na wdrożonym modelu, możesz użyć środowiska testowego lub próbek kodu. Plac zabaw to internetowy interfejs, który umożliwia interakcję z modelem w czasie rzeczywistym. Za pomocą placu zabaw możesz przetestować model z różnymi monitami i zobaczyć odpowiedzi modelu.
Aby uzyskać więcej przykładów korzystania z wdrożonego modelu w aplikacji, zobacz następujące przewodniki szybkiego startu dotyczące Azure OpenAI.
Regionalne limity dostępności i limitów przydziału modelu
W przypadku modeli usługi Azure OpenAI domyślny limit przydziału dla modeli różni się w zależności od modelu i regionu. Niektóre modele mogą być dostępne tylko w niektórych regionach. Aby uzyskać więcej informacji na temat limitów dostępności i limitów przydziału, zobacz Limity przydziału i limity usługi Azure OpenAI.
Kwota przydziału na wdrażanie i wnioskowanie modelu
W przypadku modeli Azure OpenAI wdrażanie i szacowanie zużywają limit, który jest przypisany do twojej subskrypcji na poziomie regionu oraz modelu, w jednostkach określonych jako tokeny na minutę (TPM). Po zarejestrowaniu się w usłudze Azure AI Foundry otrzymujesz domyślny limit przydziału dla większości dostępnych modeli. Następnie przypisujesz moduł TPM do każdego wdrożenia podczas jego tworzenia, zmniejszając w ten sposób dostępny limit przydziału dla tego modelu według przypisanej kwoty. Możesz nadal tworzyć wdrożenia i przypisywać im moduły TPM do momentu osiągnięcia limitu kwoty.
Po osiągnięciu limitu przydziału jedynym sposobem utworzenia nowych wdrożeń tego modelu jest:
- Zażądaj większego limitu przydziału, przesyłając formularz wniosku o zwiększenie limitu przydziału.
- Dostosuj przydzielony limit przydziału dla innych wdrożeń modelu, aby zwolnić tokeny dla nowych wdrożeń w portalu Azure OpenAI.
Aby dowiedzieć się więcej na temat limitu przydziału, zobacz Limit przydziału usługi Azure AI Foundry i Zarządzanie limitem przydziału usługi Azure OpenAI.
Powiązana zawartość
- Dowiedz się więcej o tym, co można zrobić w usłudze Azure AI Foundry
- Uzyskaj odpowiedzi na często zadawane pytania w artykule Azure AI FAQ (Często zadawane pytania dotyczące sztucznej inteligencji platformy Azure)