Udostępnij za pośrednictwem


Eksplorowanie modeli usługi Azure AI Foundry w usłudze Azure Machine Learning

Modele rozwiązania Azure AI Foundry to kompleksowe rozwiązanie do odnajdywania, oceniania i wdrażania zaawansowanych modeli sztucznej inteligencji — niezależnie od tego, czy tworzysz niestandardowy element kopilot, kompilujesz agenta, ulepszasz istniejącą aplikację, czy eksplorujesz nowe możliwości sztucznej inteligencji.

Za pomocą modeli Foundry można wykonywać następujące czynności:

  • Poznaj bogaty katalog nowoczesnych modeli firmy Microsoft, OpenAI, DeepSeek, Hugging Face, Meta i nie tylko.
  • Porównaj i oceń modele obok siebie przy użyciu rzeczywistych zadań i własnych danych.
  • Wdrażaj z ufnością dzięki wbudowanym narzędziom do dostrajania, wglądu i odpowiedzialnej sztucznej inteligencji.
  • Wybierz ścieżkę — przynieś własny model, użyj hostowanego lub bezproblemowo zintegruj się z usługami platformy Azure.
  • Niezależnie od tego, czy jesteś deweloperem, analitykiem danych, czy architektem przedsiębiorstwa, modele foundry zapewniają elastyczność i kontrolę nad tworzeniem rozwiązań sztucznej inteligencji, które są skalowane — bezpiecznie, odpowiedzialnie i szybko.

Usługa Azure AI Foundry oferuje kompleksowy wykaz modeli sztucznej inteligencji. Istnieje ponad 1900 modeli, począwszy od modeli podstawowych, modeli rozumowania, modeli małych języków, modeli wielomodalnych, modeli specyficznych dla domeny, modeli branżowych i innych.

Nasz katalog jest podzielony na dwie główne kategorie:

Zrozumienie rozróżnienia między tymi kategoriami pomaga wybrać odpowiednie modele na podstawie określonych wymagań i celów strategicznych.

Modele sprzedawane bezpośrednio przez platformę Azure

Są to modele, które są hostowane i sprzedawane przez firmę Microsoft zgodnie z warunkami produktu firmy Microsoft. Te modele zostały poddane rygorystycznej ocenie i są głęboko zintegrowane z ekosystemem sztucznej inteligencji platformy Azure. Modele pochodzą od różnych najlepszych dostawców i oferują rozszerzoną integrację, zoptymalizowaną wydajność i bezpośrednią pomoc techniczną firmy Microsoft, w tym umowy dotyczące poziomu usług klasy korporacyjnej (SLA).

Cechy tych modeli bezpośrednich:

  • Oficjalna pomoc techniczna firmy Microsoft
  • Wysoki poziom integracji z usługami i infrastrukturą platformy Azure
  • Obszerne testy porównawcze wydajności i walidacja
  • Przestrzeganie standardów odpowiedzialnej sztucznej inteligencji firmy Microsoft
  • Skalowalność, niezawodność i zabezpieczenia klasy korporacyjnej

Te modele mają również korzyść z aprowizowanej przepływności, co oznacza, że można elastycznie używać limitu przydziału i rezerwacji w ramach dowolnego z tych modeli.

Modele od partnerów i społeczności

Modele te stanowią zdecydowaną większość modeli Foundry AI na platformie Azure. Modele te są dostarczane przez zaufane organizacje zewnętrzne, partnerów, laboratoria badawcze oraz współpracowników społeczności. Te modele oferują wyspecjalizowane i zróżnicowane możliwości sztucznej inteligencji, obejmujące szeroką gamę scenariuszy, branż i innowacji.

Cechy modeli od partnerów i społeczności:

  • Rozwijane i wspierane przez partnerów zewnętrznych oraz uczestników społeczności
  • Szeroki zakres wyspecjalizowanych modeli dostosowanych do niszowych lub szerokich przypadków użycia
  • Zazwyczaj weryfikowane przez samych dostawców z wytycznymi dotyczącymi integracji udostępnianymi przez platformę Azure
  • Innowacje oparte na społeczności i szybka dostępność najnowszych modeli
  • Standardowa integracja sztucznej inteligencji platformy Azure z obsługą i konserwacją zarządzaną przez odpowiednich dostawców

Modele można wdrażać jako opcje wdrożeniowe zarządzalnego lub standardowego środowiska obliczeniowego (płatność za użycie). Dostawca modelu wybiera sposób wdrażania modeli.

Wybieranie między modelami bezpośrednimi a modelami partnerskimi i modelami społeczności

Podczas wybierania modeli z modeli rozwiązania Azure AI Foundry należy wziąć pod uwagę następujące kwestie:

  • Przypadki użycia i wymagania: Modele sprzedawane bezpośrednio przez platformę Azure są idealne w scenariuszach wymagających głębokiej integracji platformy Azure, gwarantowanej pomocy technicznej i umów SLA dla przedsiębiorstw. Modele ekosystemów Azure wykazują się w wyspecjalizowanych przypadkach użycia i scenariuszach napędzanych innowacjami.
  • Oczekiwania dotyczące pomocy technicznej: Modele sprzedawane bezpośrednio przez platformę Azure są wyposażone w niezawodną pomoc techniczną i konserwację zapewnianą przez firmę Microsoft. Te modele są obsługiwane przez ich dostawców, na różnych poziomach umów SLA i struktur pomocy technicznej.
  • Innowacje i specjalizacja: Modele od partnerów i społeczności oferują szybki dostęp do wyspecjalizowanych innowacji i możliwości niszowych często opracowanych przez wiodące laboratoria badawcze i nowych dostawców sztucznej inteligencji.

Kolekcje modeli

Wykaz modeli organizuje modele w różne kolekcje:

  • Modele usługi Azure OpenAI dostępne wyłącznie na platformie Azure: flagowe modele usługi Azure OpenAI dostępne za pośrednictwem integracji z usługą Azure OpenAI w modelach usługi Azure AI Foundry. Firma Microsoft obsługuje te modele i ich użycie zgodnie z warunkami produktu i umową SLA dla usługi Azure OpenAI w modelach usługi Azure AI Foundry.

  • Otwarte modele z hubu Hugging Face: setki modeli z hubu Hugging Face do wnioskowania w czasie rzeczywistym przy użyciu zarządzanych zasobów obliczeniowych. Hugging Face tworzy i utrzymuje modele wymienione w tej kolekcji. Aby uzyskać pomoc, skorzystaj z forum Hugging Face lub Hugging Face support. Dowiedz się więcej w artykule Deploy open models with Azure AI Foundry (Wdrażanie otwartych modeli za pomocą rozwiązania Azure AI Foundry).

Możesz przesłać żądanie dodania modelu do katalogu modeli przy użyciu tego formularza.

Omówienie możliwości wykazu modeli

Wykaz modeli w portalu usługi Azure AI Foundry to centrum do odnajdywania i używania szerokiej gamy modeli do tworzenia generowanych aplikacji sztucznej inteligencji. Wykaz modeli zawiera setki modeli wśród dostawców modeli, takich jak Azure OpenAI, Mistral, Meta, Cohere, NVIDIA i Hugging Face, w tym modele, które szkoli firma Microsoft. Modele od dostawców innych niż Microsoft są produktami innych niż Microsoft, zgodnie z definicją w warunkach produktów firmy Microsoft i podlegają warunkom dostarczonym z modelami.

Możesz wyszukiwać i odnajdywać modele spełniające twoje potrzeby za pomocą wyszukiwania słów kluczowych i filtrów. Katalog modeli oferuje również ranking wydajności modelu i metryki testu porównawczego dla wybranych modeli. Dostęp do nich można uzyskać, wybierając pozycję Przeglądaj ranking i Porównaj modele. Dane porównawcze są również dostępne na karcie Test porównawczy karty modelu.

W filtrach wykazu modeli znajdziesz następujące informacje:

  • Kolekcja: modele można filtrować na podstawie kolekcji dostawcy modelu.
  • Branża: można filtrować modele, które są trenowane na podstawie zestawu danych specyficznych dla branży.
  • Możliwości: można filtrować unikatowe funkcje modelu, takie jak rozumowanie i wywoływanie narzędzi.
  • Opcje wdrażania: można filtrować modele, które obsługują określone opcje wdrażania.
    • Standardowa: ta opcja umożliwia płacenie za wywołanie interfejsu API.
    • Udostępnione: najlepiej nadaje się do oceniania w czasie rzeczywistym w przypadku dużych, spójnych wolumenów.
    • Batch: najlepiej nadaje się do zadań wsadowych zoptymalizowanych pod kątem kosztów, a nie opóźnień. W przypadku wdrożenia wsadowego nie jest zapewniana obsługa placu zabaw.
    • Zarządzane obliczenia: ta opcja umożliwia wdrożenie modelu na maszynie wirtualnej platformy Azure. Będą Państwo obciążeni opłatami za hosting i przetwarzanie.
  • Zadania wnioskowania: modele można filtrować na podstawie typu zadania wnioskowania.
  • Zadania dostrajające: modele można filtrować na podstawie typu zadania dostrajania.
  • Licencje: modele można filtrować na podstawie typu licencji.

Na karcie modelu znajdziesz:

  • Szybkie fakty: na szybki rzut oka zobaczysz kluczowe informacje o modelu.
  • Szczegóły: ta strona zawiera szczegółowe informacje o modelu, w tym opis, informacje o wersji, obsługiwany typ danych itp.
  • Testy porównawcze: znajdziesz metryki testu porównawczego wydajności dla wybranych modeli.
  • Istniejące wdrożenia: jeśli model został już wdrożony, możesz go znaleźć na karcie Istniejące wdrożenia.
  • Licencja: znajdziesz informacje prawne dotyczące licencjonowania modelu.
  • Artefakty: zakładka będzie wyświetlana tylko dla otwartych modeli. Zasoby modelu można wyświetlić i pobrać za pomocą interfejsu użytkownika.

Wdrażanie modelu: zarządzane wdrożenia obliczeniowe i standardowe

Oprócz modeli Azure OpenAI katalog modeli oferuje dwa różne sposoby wdrażania modeli do użycia: zarządzane wdrożenia obliczeniowe i standardowe.

Opcje wdrażania i funkcje dostępne dla każdego modelu różnią się w zależności od opisu w poniższych tabelach. Dowiedz się więcej o przetwarzaniu danych przy użyciu opcji wdrażania.

Możliwości opcji wdrażania modelu

Funkcje Zarządzane obliczenia Wdrożenia standardowe
Doświadczenie wdrażania i fakturowanie Wagi modelu są wdrażane na dedykowanych maszynach wirtualnych z zarządzanymi obliczeniami. Zarządzane zasoby obliczeniowe, które mogą mieć co najmniej jedno wdrożenie, udostępnia interfejs API REST na potrzeby wnioskowania. Opłaty są naliczane za godziny użytkowania rdzeni maszyn wirtualnych, które są wykorzystywane przez wdrożenia. Dostęp do modeli odbywa się za pośrednictwem wdrożenia, które udostępnia interfejs API do korzystania z modelu. Interfejs API zapewnia dostęp do modelu hostowanego i zarządzanego przez firmę Microsoft, w celu przeprowadzenia wnioskowania. Opłaty są naliczane za dane wejściowe i wyjściowe w interfejsach API, zazwyczaj w tokenach. Informacje o cenach są udostępniane przed wdrożeniem.
Uwierzytelnianie interfejsu API Klucze i uwierzytelnianie Microsoft Entra. Tylko klucze.
Bezpieczeństwo zawartości Użyj interfejsów API usługi Azure AI Content Safety Service. Filtry bezpieczeństwa treści Azure AI są dostępne i zintegrowane z interfejsami API do wnioskowania. Filtry bezpieczeństwa zawartości usługi Azure AI są rozliczane oddzielnie.
Izolacja sieci Konfigurowanie sieci zarządzanych dla centrów usługi Azure AI Foundry. Zarządzane zasoby obliczeniowe są zgodne z ustawieniem flagi dostępu do sieci publicznej (PNA) centrum. Aby uzyskać więcej informacji, zobacz sekcję Izolacja sieciowa dla modeli wdrożonych za pośrednictwem standardowych wdrożeń w dalszej części tego artykułu.

Dostępne modele dla obsługiwanych opcji wdrażania

Katalog modeli oferuje dwa różne sposoby wdrażania modeli z katalogu na potrzeby użycia: zarządzane wdrożenia obliczeniowe i standardowe. Opcje wdrażania dostępne dla każdego modelu różnią się; dowiedz się więcej o funkcjach i cechach opcji wdrażania i opcjach dostępnych dla określonych modeli w poniższych tabelach. Dowiedz się więcej o przetwarzaniu danych przy użyciu opcji wdrażania.

Funkcje Zarządzane obliczenia Wdrożenia standardowe
Doświadczenie wdrażania i fakturowanie Wagi modelu są wdrażane w dedykowanych maszynach wirtualnych z zarządzanymi punktami końcowymi online. Zarządzany punkt końcowy online, który może mieć co najmniej jedno wdrożenie, udostępnia interfejs API REST na potrzeby wnioskowania. Opłaty są naliczane za podstawowe godziny maszyny wirtualnej używane przez wdrożenia. Dostęp do modeli odbywa się za pośrednictwem wdrożenia, które udostępnia interfejs API do korzystania z modelu. Interfejs API zapewnia dostęp do modelu hostowanego w centralnej puli procesorów GPU zarządzanej przez firmę Microsoft na potrzeby wnioskowania. Ten tryb dostępu jest określany jako „Modele jako usługa”. Opłaty są naliczane za dane wejściowe i wyjściowe w interfejsach API, zazwyczaj w tokenach; informacje o cenach są udostępniane przed wdrożeniem.
Uwierzytelnianie interfejsu API Uwierzytelnienie kluczy i identyfikatora Microsoft Entra ID Dowiedz się więcej. Tylko klucze.
Bezpieczeństwo zawartości Użyj interfejsów API usługi Azure Content Safety Service. Filtry bezpieczeństwa treści Azure AI są dostępne i zintegrowane z interfejsami API do wnioskowania. Filtry bezpieczeństwa zawartości platformy Azure AI mogą być rozliczane oddzielnie.
Izolacja sieci Zarządzana sieć wirtualna z punktami końcowymi online. Dowiedz się więcej.

Zarządzane obliczenia

Możliwość wdrażania modeli za pomocą zarządzanych obliczeń opiera się na możliwościach platformy usługi Azure Machine Learning w celu umożliwienia bezproblemowej integracji w całym cyklu życia genAIOps (nazywanym czasem LLMOps) szerokiej kolekcji modeli w wykazie modeli.

Diagram przedstawiający cykl życia llMops.

Dostępność modeli wdrażania jako zarządzanych zasobów obliczeniowych

Modele są udostępniane za pośrednictwem rejestrów usługi Azure Machine Learning, które umożliwiają pierwsze podejście uczenia maszynowego do hostowania i dystrybucji zasobów usługi Machine Learning, takich jak wagi modelu, środowiska uruchomieniowe kontenerów do uruchamiania modeli, potoków do oceny i dostrajania modeli i zestawów danych dla testów porównawczych i przykładów. Te rejestry uczenia maszynowego bazują na wysoce skalowalnej i gotowej dla przedsiębiorstw infrastrukturze, która:

Wdrażanie modeli na potrzeby wnioskowania za pomocą zarządzanych zasobów obliczeniowych

Modele dostępne do wdrożenia za pomocą zarządzanych zasobów obliczeniowych można wdrożyć w punktach końcowych online usługi Azure Machine Learning na potrzeby wnioskowania w czasie rzeczywistym lub mogą być używane do wnioskowania wsadowego wsadowego przetwarzania danych. Wdrożenie w zarządzanych obliczeniach wymaga, aby mieć limit przydziału maszyny wirtualnej w subskrypcji platformy Azure dla określonych jednostek SKU potrzebnych do optymalnego uruchomienia modelu. Niektóre modele umożliwiają wdrożenie tymczasowego udostępnionego limitu przydziału na potrzeby testowania modelu. Dowiedz się więcej o wdrażaniu modeli:

Tworzenie aplikacji generacyjnych sztucznej inteligencji przy użyciu zarządzanych zasobów obliczeniowych

Natychmiastowy przepływ oferuje możliwości tworzenia prototypów, eksperymentowania, iterowania i wdrażania aplikacji sztucznej inteligencji. Modele wdrożone przy użyciu zarządzanego środowiska obliczeniowego można używać w usłudze Prompt Flow za pomocą narzędzia Open Model LLM. Można również użyć interfejsu REST API udostępnianego przez zarządzane środowisko obliczeniowe w popularnych narzędziach LLM, takich jak LangChain z rozszerzeniem Azure Machine Learning.

Bezpieczeństwo zawartości dla modeli wdrożonych jako zarządzane zasoby obliczeniowe

Usługa Azure AI Content Safety (AACS) jest dostępna do użycia z modelami wdrożonym w zarządzanych obliczeniach w celu ekranowania różnych kategorii szkodliwych treści, takich jak zawartość seksualna, przemoc, nienawiść i samookaleczenia oraz zaawansowane zagrożenia, takie jak wykrywanie ryzyka zabezpieczeń systemu i wykrywanie tekstu chronionego materiału. Możesz zapoznać się z tym notesem, aby zapoznać się z integracją referencyjną z usługą AACS for Llama 2 lub użyć narzędzia Bezpieczeństwo zawartości (tekst) w temacie Prompt Flow (Monituj przepływ ), aby przekazać odpowiedzi z modelu do usługi AACS na potrzeby kontroli zawartości. Opłaty będą naliczane oddzielnie zgodnie z cennikiem usługi AACS dla takiego użycia.

Wdrożenia w wersji Standardowa ze standardowymi rozliczeniami

Niektóre modele w katalogu modeli można wdrożyć jako standardowe wdrożenia z rozliczeniami w planie Standard; ta metoda wdrażania nazywa się standardowymi wdrożeniami. Modele dostępne za pośrednictwem usługi MaaS są hostowane w infrastrukturze zarządzanej przez firmę Microsoft, co umożliwia dostęp oparty na interfejsie API do modelu dostawcy modelu. Dostęp oparty na interfejsie API może znacznie obniżyć koszt uzyskiwania dostępu do modelu i znacznie uprościć środowisko aprowizacji. Większość modeli MaaS jest wyposażonych w ceny oparte na tokenach.

W jaki sposób modele innych firm są udostępniane w usłudze MaaS?

Diagram przedstawiający cykl usługi wydawcy modelu.

Modele, które są dostępne do wdrożenia jako standardowe wdrożenia z rozliczeniami w warstwie Standardowa, są oferowane przez dostawcę modelu, ale hostowane w infrastrukturze platformy Azure zarządzanej przez firmę Microsoft i dostępne za pośrednictwem interfejsu API. Dostawcy modelu definiują postanowienia licencyjne i określają cenę użycia swoich modeli, podczas gdy usługa Azure Machine Learning Service zarządza infrastrukturą hostingu, udostępnia interfejsy API wnioskowania i działa jako procesor danych dla monitów przesłanych i danych wyjściowych zawartości przez modele wdrożone za pośrednictwem usługi MaaS. Dowiedz się więcej o przetwarzaniu danych dla usługi MaaS w artykule dotyczącym prywatności danych.

Uwaga / Notatka

Subskrypcje dla Dostawcy Rozwiązań w Chmurze (CSP) nie mają opcji zakupu standardowych modeli wdrażania.

Fakturowanie

Środowisko odnajdywania, subskrypcji i użycia dla modeli wdrożonych za pośrednictwem usługi MaaS znajduje się w witrynie Azure AI Foundry Portal i usłudze Azure Machine Learning Studio. Użytkownicy akceptują postanowienia licencyjne dotyczące używania modeli. Informacje o cenach użycia są udostępniane podczas wdrażania.

Modele od dostawców innych niż Microsoft są rozliczane za pośrednictwem witryny Azure Marketplace zgodnie z warunkami użytkowania witryny Microsoft Commercial Marketplace.

Modele firmy Microsoft są rozliczane poprzez liczniki platformy Azure jako usługi konsumpcyjne First Party. Zgodnie z opisem w Warunki Produktu, kupujesz Pierwsze Usługi Konsumpcyjne przy użyciu mierników Azure, ale nie są objęte warunkami usług platformy Azure. Korzystanie z tych modeli podlega podanym postanowieniom licencyjnym.

Dostrajanie modeli

W przypadku modeli, które są dostępne za pośrednictwem usługi MaaS i obsługują dostrajanie, użytkownicy mogą korzystać z hostowanego dostrajania w ramach Standardowej warstwy rozliczeniowej, aby dostosować modele przy użyciu przez nich udostępnionych danych. Aby uzyskać więcej informacji, zobacz dostosowywanie modelu Llama 2 w portalu usługi Azure AI Foundry.

RAG z modelami wdrożonymi jako standardowe wdrożenia

Usługa Azure AI Foundry umożliwia użytkownikom korzystanie z indeksów wektorów i generowania rozszerzonego pobierania. Modele, które można wdrożyć jako wdrożenia standardowe, mogą służyć do generowania osadzania i wnioskowania na podstawie danych niestandardowych w celu wygenerowania odpowiedzi specyficznych dla ich przypadku użycia. Aby uzyskać więcej informacji, zobacz Pobieranie rozszerzonej generacji i indeksów.

Regionalna dostępność ofert i modeli

Standardowe rozliczenia są dostępne tylko dla użytkowników, których subskrypcja platformy Azure należy do konta rozliczeniowego w kraju/regionie, w którym dostawca modelu udostępnił ofertę. Jeśli oferta jest dostępna w odpowiednim regionie, użytkownik musi mieć centrum/projekt w regionie świadczenia usługi Azure, w którym model jest dostępny do wdrożenia lub dostrajania, zgodnie z obowiązującymi przepisami. Aby uzyskać szczegółowe informacje , zobacz Dostępność regionów dla modeli we wdrożeniach standardowych .

Bezpieczeństwo zawartości dla modeli wdrożonych za pośrednictwem wdrożeń standardowych

Ważne

Ta funkcja jest obecnie w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą nie być obsługiwane lub mogą mieć ograniczone możliwości.

Aby uzyskać więcej informacji, zobacz Warunki dodatkowe korzystania z testowych wersji Microsoft Azure.

W przypadku modeli językowych wdrożonych za pośrednictwem bezserwerowego interfejsu API usługa Azure AI implementuje domyślną konfigurację filtrów moderowania tekstu bezpieczeństwa zawartości usługi Azure AI , które wykrywają szkodliwe treści, takie jak nienawiść, samookaleczenia, treści seksualne i brutalne. Aby dowiedzieć się więcej na temat filtrowania zawartości, zobacz Guardrails and controls for Models Sold Directly by Azure (Zabezpieczenia i kontrolki dla modeli sprzedawanych bezpośrednio przez platformę Azure).

Wskazówka

Filtrowanie zawartości nie jest dostępne dla niektórych typów modeli wdrożonych za pośrednictwem bezserwerowego interfejsu API. Te typy modeli obejmują osadzanie modeli i modeli szeregów czasowych.

Filtrowanie treści odbywa się synchronicznie, gdy usługa przetwarza polecenia w celu wygenerowania treści. Opłaty mogą być naliczane oddzielnie zgodnie z cennikiem bezpieczeństwa zawartości usługi Azure AI dla takiego użycia. Filtrowanie zawartości dla poszczególnych punktów końcowych bezserwerowych można wyłączyć:

  • W momencie pierwszego wdrożenia modelu językowego
  • Później, wybierając przełącznik filtrowania zawartości na stronie szczegółów wdrożenia

Załóżmy, że postanawiasz użyć interfejsu API innego niż interfejs API wnioskowania modelu do pracy z modelem wdrożonym za pośrednictwem bezserwerowego interfejsu API. W takiej sytuacji filtrowanie zawartości nie jest włączone, chyba że zostanie zaimplementowane oddzielnie przy użyciu bezpieczeństwa zawartości sztucznej inteligencji platformy Azure.

Aby rozpocząć pracę z bezpieczeństwem zawartości usługi Azure AI, zobacz Szybki start: analizowanie zawartości tekstowej. Jeśli nie używasz filtrowania zawartości podczas pracy z modelami wdrożonym za pośrednictwem bezserwerowego interfejsu API, wystąpi większe ryzyko ujawnienia użytkownikom szkodliwej zawartości.

Izolacja sieciowa dla modeli wdrożonych za pośrednictwem wdrożeń standardowych

Punkty końcowe dla modeli wdrożonych jako wdrożenia standardowe są zgodne z ustawieniem flagi dostępu do sieci publicznej (PNA) obszaru roboczego, w którym istnieje wdrożenie. Aby zabezpieczyć punkt końcowy usługi MaaS, wyłącz flagę PNA w obszarze roboczym. Komunikację przychodzącą z klienta do punktu końcowego można zabezpieczyć przy użyciu prywatnego punktu końcowego dla obszaru roboczego.

Aby ustawić flagę PNA dla obszaru roboczego:

  • Przejdź do portalu Azure.
  • Wyszukaj usługę Azure Machine Learning i wybierz swój obszar roboczy z listy obszarów roboczych.
  • Na stronie Przegląd użyj okienka po lewej stronie, aby przejść do pozycji Ustawienia>Sieć.
  • Na karcie Dostęp publiczny można skonfigurować ustawienia flagi dostępu do sieci publicznej.
  • Zapisz zmiany. Propagacja zmian może potrwać do pięciu minut.

Ograniczenia

  • Jeśli masz obszar roboczy z prywatnym punktem końcowym utworzonym przed 11 lipca 2024 r., nowe punkty końcowe usługi MaaS dodane do tego obszaru roboczego nie będą zgodne z konfiguracją sieci. Zamiast tego należy utworzyć nowy prywatny punkt końcowy dla obszaru roboczego i utworzyć nowe standardowe wdrożenia w obszarze roboczym, aby nowe wdrożenia mogły być zgodne z konfiguracją sieci obszaru roboczego.
  • Jeśli masz obszar roboczy z wdrożeniami usługi MaaS utworzonymi przed 11 lipca 2024 r. i włączysz prywatny punkt końcowy w tym obszarze roboczym, istniejące wdrożenia usługi MaaS nie będą zgodne z konfiguracją sieci obszaru roboczego. Aby wdrożenia standardowe w obszarze roboczym postępowały zgodnie z konfiguracją obszaru roboczego, należy ponownie utworzyć wdrożenia.
  • Obecnie obsługa danych nie jest dostępna dla wdrożeń usługi MaaS w prywatnych obszarach roboczych, ponieważ prywatne obszary robocze mają wyłączoną flagę PNA.
  • Propagowanie dowolnej zmiany konfiguracji sieci (na przykład włączenie lub wyłączenie flagi PNA) może potrwać do pięciu minut.