Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Ten dokument odnosi się do portalu Microsoft Foundry (klasycznego).
🔄 Przejdź do dokumentacji Microsoft Foundry (nowy), jeśli korzystasz z nowego portalu.
Uwaga / Notatka
Ten dokument odnosi się do portalu Microsoft Foundry (nowy).
Z tego artykułu dowiesz się, jak używać portalu Foundry, aby wdrożyć Model Foundry w zasobie Foundry, w celu wykonania zadań związanych z wnioskowaniem. Modele Foundry obejmują takie jak modele Azure OpenAI, modele Meta Llama oraz inne. Po wdrożeniu modelu Foundry można z nim korzystać przy użyciu narzędzia Foundry Playground i wnioskować go przy użyciu kodu.
W tym artykule użyto modelu Foundry od partnerów i społeczności Llama-3.2-90B-Vision-Instruct na potrzeby ilustracji. Modele od partnerów i społeczności wymagają subskrypcji Azure Marketplace przed wdrożeniem. Z drugiej strony modele Foundry sprzedawane bezpośrednio przez platformę Azure, takie jak Azure Open AI w modelach Foundry, nie mają tego wymogu. Aby uzyskać więcej informacji na temat modeli foundry, w tym regionów, w których są one dostępne do wdrożenia, zobacz Modele rozwiązania Foundry sprzedawane bezpośrednio przez platformę Azure i modele foundry od partnerów i społeczności.
Wymagania wstępne
Aby ukończyć ten artykuł, potrzebujesz:
Subskrypcja platformy Azure z prawidłową formą płatności. Jeśli nie masz subskrypcji platformy Azure, utwórz płatne konto platformy Azure, aby rozpocząć. Jeśli używasz Modeli GitHub, możesz zaktualizować do Modeli Foundry i utworzyć subskrypcję Azure w trakcie tego procesu.
Dostęp do usługi Microsoft Foundry z odpowiednimi uprawnieniami do tworzenia zasobów i zarządzania nimi.
Projekt Microsoft Foundry. Tego rodzaju projekt jest zarządzany w ramach zasobu Foundry.
Modele Foundry od partnerów i społeczności wymagają dostępu do Azure Marketplace, aby tworzyć subskrypcje. Upewnij się, że masz uprawnienia wymagane do subskrybowania ofert modeli. Modele Foundry sprzedawane bezpośrednio przez Azure nie mają tego wymagania.
Wdrażanie modelu
Wdróż model, wykonując następujące kroki w portalu Foundry:
Zaloguj się do usługi Microsoft Foundry. Upewnij się, że przełącznik New Foundry jest wyłączony. Te kroki odnoszą się do rozwiązania Foundry (wersja klasyczna).
Zaloguj się do usługi Microsoft Foundry. Upewnij się, że przełącznik New Foundry jest włączony. Te czynności dotyczą Foundry (new).
Przejdź do sekcji Katalog modeli w portalu Foundry.
Wybierz model i przejrzyj jego szczegóły na karcie modelu. W tym artykule użyto
Llama-3.2-90B-Vision-Instructna potrzeby ilustracji.Wybierz Użyj tego modelu.
W przypadku Foundry Models od partnerów i społeczności należy zasubskrybować Azure Marketplace. To wymaganie dotyczy
Llama-3.2-90B-Vision-Instruct, na przykład. Przeczytaj warunki użytkowania i wybierz pozycję Zgadzam się i Kontynuuj , aby zaakceptować warunki.Uwaga / Notatka
W przypadku Foundry Models sprzedawanych bezpośrednio przez platformę Azure, takich jak model
gpt-4o-miniAzure OpenAI, nie ma potrzeby subskrybowania witryny Azure Marketplace.Skonfiguruj ustawienia wdrożenia. Domyślnie wdrożenie otrzymuje nazwę wdrażanego modelu, ale można zmodyfikować nazwę zgodnie z potrzebami przed wdrożeniem modelu. Później podczas wnioskowania nazwa wdrożenia jest wykorzystana w parametrze
modeldo przekierowania żądań do tego konkretnego wdrożenia modelu. Ta konwencja umożliwia skonfigurowanie określonych nazw wdrożeń modelu.Wskazówka
Każdy model obsługuje różne typy wdrożeń, zapewniając różne gwarancje dotyczące rezydencji danych lub przepływności. Aby uzyskać więcej informacji, zobacz Typy wdrożeń. W tym przykładzie model obsługuje typ wdrożenia Global Standard.
Portal Foundry automatycznie wybiera zasób Foundry skojarzony z projektem jako zasób Connected AI. W razie potrzeby wybierz pozycję Dostosuj , aby zmienić połączenie. Jeśli wdrażasz w ramach typu wdrożenia bezserwerowego interfejsu API , projekt i zasób muszą znajdować się w jednym z obsługiwanych regionów wdrażania modelu.
Wybierz Wdróż. Strona szczegółów wdrożenia modelu zostanie otwarta podczas tworzenia wdrożenia.
Po zakończeniu wdrażania model jest gotowy do użycia. Do interaktywnego testowania modelu można również użyć platformy Foundry Playgrounds .
Wdróż model, wykonując następujące kroki w portalu Foundry:
Zaloguj się do usługi Microsoft Foundry. Upewnij się, że przełącznik New Foundry jest wyłączony. Te kroki odnoszą się do rozwiązania Foundry (wersja klasyczna).
Zaloguj się do usługi Microsoft Foundry. Upewnij się, że przełącznik New Foundry jest włączony. Te czynności dotyczą Foundry (new).
Na stronie głównej portalu Foundry wybierz Odkryj w prawym górnym rogu, a następnie Modele w okienku po lewej stronie.
Wybierz model i przejrzyj jego szczegóły na karcie modelu. W tym artykule użyto
Llama-3.2-90B-Vision-Instructna potrzeby ilustracji.Wybierz pozycję Wdróż>ustawienia niestandardowe , aby dostosować wdrożenie. Alternatywnie możesz użyć domyślnych ustawień wdrażania, wybierając pozycję Wdróż>ustawienia domyślne.
W przypadku Foundry Models od partnerów i społeczności należy zasubskrybować Azure Marketplace. To wymaganie dotyczy
Llama-3.2-90B-Vision-Instruct, na przykład. Przeczytaj warunki użytkowania i wybierz pozycję Zgadzam się i Kontynuuj , aby zaakceptować warunki.Uwaga / Notatka
W przypadku Foundry Models sprzedawanych bezpośrednio przez platformę Azure, takich jak model
gpt-4o-miniAzure OpenAI, nie ma potrzeby subskrybowania witryny Azure Marketplace.Skonfiguruj ustawienia wdrożenia. Domyślnie wdrożenie otrzymuje nazwę wdrażanego modelu, ale można zmodyfikować nazwę zgodnie z potrzebami przed wdrożeniem modelu. Później podczas wnioskowania nazwa wdrożenia jest wykorzystana w parametrze
modeldo przekierowania żądań do tego konkretnego wdrożenia modelu. Ta konwencja umożliwia skonfigurowanie określonych nazw wdrożeń modelu. Wybierz pozycję Wdróż , aby utworzyć wdrożenie.Wskazówka
Każdy model obsługuje różne typy wdrożeń, zapewniając różne gwarancje dotyczące rezydencji danych lub przepływności. Aby uzyskać więcej informacji, zobacz Typy wdrożeń. W tym przykładzie model obsługuje typ wdrożenia Global Standard.
Portal Foundry automatycznie wdraża model w zasobie Foundry skojarzonym z projektem. Projekt i zasób muszą znajdować się w jednym z obsługiwanych regionów wdrażania modelu.
Wybierz Wdróż. Po ukończeniu wdrażania zostaniesz przekierowany do Foundry Playgrounds, gdzie można interaktywnie przetestować model.
Zarządzaj modelami
Istniejące wdrożenia modelu można zarządzać w zasobie przy użyciu portalu Foundry.
Przejdź do sekcji Modele i punkty końcowe w portalu Foundry.
Portal grupuje i przedstawia wdrożenia modeli według zasobu. Wybierz wdrożenie modelu Llama-3.2-90B-Vision-Instruct z sekcji zasobów platformy Foundry. Ta akcja powoduje otwarcie strony wdrożenia modelu.
Istniejące wdrożenia modelu można zarządzać w zasobie przy użyciu portalu Foundry.
Wybierz Build w prawym górnym rogu nawigacji.
Wybierz pozycję Modele w okienku po lewej stronie, aby wyświetlić listę wdrożeń w zasobie.
Przetestuj wdrożenie na placu zabaw
Nowy model można obsługiwać w portalu Foundry przy użyciu piaskownicy. Plac zabaw to internetowy interfejs, który umożliwia interakcję z modelem w czasie rzeczywistym. Użyj placu zabaw, aby przetestować model z różnymi monitami i wyświetlić odpowiedzi modelu.
Na stronie wdrażania modelu wybierz pozycję Otwórz na placu zabaw. Ta akcja otwiera obszar testowy czatu z nazwą Twojego wdrożenia już wybraną.
Wpisz monit i wyświetl dane wyjściowe.
Użyj opcji Wyświetl kod , aby wyświetlić szczegółowe informacje na temat sposobu programowego uzyskiwania dostępu do wdrożenia modelu.
Nowy model można obsługiwać w portalu Foundry przy użyciu piaskownicy. Plac zabaw to internetowy interfejs, który umożliwia interakcję z modelem w czasie rzeczywistym. Użyj placu zabaw, aby przetestować model z różnymi monitami i wyświetlić odpowiedzi modelu.
Z listy wdrożeń wybierz wdrożenie Llama-3.2-90B-Vision-Instruct , aby otworzyć stronę placu zabaw.
Wpisz monit i wyświetl dane wyjściowe.
Wybierz kartę Kod , aby wyświetlić szczegółowe informacje o sposobie programowego uzyskiwania dostępu do wdrożenia modelu.
Wnioskowanie modelu za pomocą kodu
Aby przeprowadzić wnioskowanie we wdrożonym modelu z przykładami kodu, zobacz następujące przykłady:
Aby użyć interfejsu API odpowiedzi z modelami rozwiązania Foundry sprzedawanymi bezpośrednio przez platformę Azure, takimi jak Microsoft AI, DeepSeek i Modele Grok, zobacz Jak wygenerować odpowiedzi tekstowe za pomocą modeli Microsoft Foundry.
Aby użyć interfejsu API odpowiedzi z modelami OpenAI, zobacz Wprowadzenie do interfejsu API odpowiedzi.
Aby użyć interfejsu API zakończeń czatu z modelami sprzedawanymi przez partnerów, takimi jak model Llama wdrożony w tym artykule, zobacz Obsługę modelu zakończeń czatów.
Regionalne limity dostępności i limitów przydziału modelu
W przypadku modeli Foundry, domyślny limit przydziału zależy od modelu i regionu. Niektóre modele mogą być dostępne tylko w niektórych regionach. Aby uzyskać więcej informacji na temat dostępności i limitów przydziału, zobacz Limity dostępności i limity przydziału Azure OpenAI w modelach Microsoft Foundry oraz Limity modelów Microsoft Foundry.
Kwota przydziału na wdrażanie i wnioskowanie modelu
W przypadku modeli foundry wdrażanie i wnioskowanie zużywają limit przydziału, który platforma Azure przypisuje subskrypcji w każdej regionie i dla każdego modelu w jednostkach TPM (tokenów na minutę). Po zarejestrowaniu się w usłudze Foundry otrzymasz domyślny limit przydziału dla większości dostępnych modeli. Następnie należy przypisać moduł TPM do każdego wdrożenia podczas jego tworzenia, co zmniejsza dostępny limit przydziału dla tego modelu. Możesz nadal tworzyć wdrożenia i przypisywać im moduły TPM do momentu osiągnięcia limitu kwoty.
Gdy osiągniesz limit przydziału, możesz utworzyć tylko nowe wdrożenia tego modelu, jeśli:
- Zażądaj większego limitu przydziału, przesyłając formularz wniosku o zwiększenie limitu przydziału.
- Dostosuj przydzieloną kwotę dla innych wdrożeń modelu w portalu Foundry, aby zwolnić tokeny dla nowych wdrożeń.
Aby uzyskać więcej informacji na temat limitu przydziału, zobacz Limity przydziału i limity modeli usługi Microsoft Foundry oraz Zarządzanie limitem przydziału usługi Azure OpenAI.