Udostępnij za pośrednictwem


Omówienie konfiguracji AI i LLM w Microsoft Cloud for Sovereignty (wersja zapoznawcza)

Ważne

Jest to funkcja w wersji zapoznawczej. Informacje te dotyczą funkcji w wersji wstępnej, która może zostać znacznie zmodyfikowana przed jej udostępnieniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.

Organizacje publiczne mogą korzystać z najnowszych technologii AI w chmurze publicznej, zarządzających danymi zgodnie z lokalną zasadami i wymaganiami prawnymi Microsoft Cloud for Sovereignty.

Microsoft Cloud for Sovereignty oferuje dynamikę i elastyczność, zaawansowane funkcje dostosowywania oraz dostęp do najnowszych nowatorów, takich jak Platforma Azure OpenAI, w celu przyspieszenia transformacji cyfrowej i dostarczania istotnych usług publicznych. Umożliwia klientom tworzenie zaufanych obciążeń przekształcania cyfrowego w Microsoft Cloud podczas pomagania spełniania wielu z ich specyficznych zabezpieczeń zgodności i wymogów zasad.

Usługa Azure OpenAI Service umożliwia OpenAI dostęp do zaawansowanych modeli językowych, takich jak GPT-4, GPT-3.5 (ChatGPT), Codex i Serie modeli dołączania. Te podstawowe modele językowe są wstępnie wyszkolone na dużych ilościach danych do wykonywania zadań, takich jak generowanie zawartości, podsumowanie, wyszukiwanie po wyszukaniu języka naturalnego do przetłumaczenia kodu. Klienci mogą używać usługi Azure OpenAI Service w celu uzyskiwania dostępu do wstępnie wyszukanych modeli w celu szybkiego i minimalnego nakładu pracy przy budowaniu aplikacji korzystających z AI, a jednocześnie używając Microsoft Cloud for Sovereignty do wymuszania zgodności, zabezpieczeń i wymagań dotyczących zasad w przypadku formantów skalowania przedsiębiorstwa oraz architektury chmury.

Świadczenia

Do przekazywania danych możesz użyć usług Azure OpenAI:

  • Większa produktywność pracowników dzięki skróceniu czasu potrzebnego na znajdowanie najważniejszych informacji w bazie wiedzy.

  • Zwiększanie zadowolenia użytkowników przez uproszczenie złożonych przepisów i wymagań programowych.

Przykładowe przypadki użycia

Sprawy używania zabezpieczeń są najlepiej zaimplementowane w oparciu o Suwerenną strefę docelową (SLZ). SLZ składa się z hierarchii grupy zarządzania wraz z wspólnymi zasobami platformy w celu ułatwienia tożsamości usług sieciowych, rejestrowania i zarządzania, jak pokazano: Na poniższym diagramie przedstawiono architekturę referencyjną konfiguracji AI i LLM.

Architektura odwołania do konfiguracji AI i LLM.

Główna grupa zarządzania rozwiązania SLZ jest często określana jako strefa docelowa lub strefa docelowa na skali przedsiębiorstwa. Poszczególne subskrypcje, które trafiają do jednej z grup zarządzania podrzędnego pod obiektem nadrzędnym, są często określane mianem stref docelowych aplikacji lub stref docelowych obciążenia. Obciążenia aplikacji można wdrożyć w środowisku SLZ w jednej z czterech domyślnych stref docelowych:

  • Corp (korporacyjna) — obciążenia bez dostępu do Internetu, niepoufne

  • Online — skierowane do Internetu, niepoufne

  • Poufne materiały korporacyjne — nie jest dostępne z Internetu, poufne obciążenia (można korzystać z poufnych zasobów komputerowych)

  • Poufne materiały online — jest dostępne z Internetu, poufne obciążenia (można korzystać z poufnych zasobów komputerowych)

Główna różnica między grupami zarządzania Corp i Online polega na tym, jak obsługują publiczne punkty końcowe. Środowisko Online zezwala na korzystanie z publicznych punktów końcowych, podczas gdy środowisko Corp nie. Dowiedz się więcej o architekturze z SLZ.

W środowisku SLZ należy wdrażać rozwiązania oparte na LLM jako dedykowane obciążenia w ich własnych subskrypcjach w hierarchii grup zarządzania Corp lub Online.

Zalecamy używać środowisko Corp jako bezpieczny standardowy wzorzec do implementowania aplikacji opartych na RAG LLM, takich jak pomocnicy przeznaczonych do użytku w organizacji wewnętrznej. Połączenia ExpressRoro i VPN są wymagane w przypadku wdrożeń Corp w celu uzyskania dostępu do interfejsów API frontu lub interfejsów użytkownika, które łączą się z usługami Azure AI i zapewniają funkcje LLM z powrotem do użytkowników końcowych lub do interfejsów użytkownika.

Aby zaoferować aplikacjom opartym na LLM lub lub RAG, należy użyć stref docelowych obciążenia w hierarchii grup zarządzania online. Należy jednak uzyskać dostęp do wszystkich usług wymaganych do implementacji za pośrednictwem punktów końcowych prywatnych w sieci wirtualnej. Interfejs API lub aplikację sieci Web front end należy dostarczać użytkownikom punkt końcowy lub przez odbiorców końcowych.

W takim przypadku należy chronić publiczne serwera punkt końcowy za pomocą zapory aplikacji sieci Web. Należy także zastosować i skonfigurować odpowiednie usługi DDoS i inne usługi zabezpieczeń. Ta konfiguracja, w zależności od preferencji, może odbywać się centralnie w sieci wirtualnej centrum lub być rozcentralizowana w sieci wirtualnej obciążenia.

Jeśli dane z poufnych stref docelowych należy zintegrować z obciążeniami opartymi na usłudze LLM, procesy transformacji służące do przetwarzania i przechowywania danych w usługach, takich jak usługi Azure AI, takie jak Azure AI Search lub Azure OpenAI, muszą działać w poufnej strefie docelowej. Ponadto te procesy powinny aktywnie filtrować dane i zarządzać nimi, aby zapobiec wysyłaniu poufnych danych, które muszą być szyfrowane w sposób szyfrowany z usługami niekonsekwencjami i obciążeniami. To filtrowanie należy zaimplementować w niestandardowej logice biznesowej dla niestandardowych reguł biznesowych dla niestandardowych liter.

W przypadkach, gdy dane muszą być wykorzystywane, przekształcone i wykorzystywane przez obciążenia oparte na LLM, zaleca się wdrożenie strefy docelowej danych wyrównanej do domen danych. Strefa docelowa danych składa się z kilku warstwy, które umożliwiają dynamikę integracji danych i produktów z danymi, które zawiera.

Można wdrożyć nową strefę docelową danych ze standardowym zestawem usług, co pozwala rozpocząć przetwarzanie i analizowanie danych w strefie docelowej danych. Strefę docelową danych możesz połączyć ze strefą docelową danych LLM i wszystkimi innymi strefami docelowymi danych przy użyciu funkcji peeringu dla sieci wirtualnej. Ten mechanizm pozwala bezpieczne udostępniać dane za pośrednictwem wewnętrznej sieci Azure, jednocześnie osiągnąć obniżenie wydajności i wyższą wydajność w porównaniu z przepływem przez centrum.

W przypadku niektórych implementacji może być wymagane użycie poufnych lub poufnych danych, które wymagają szyfrowania podczas korzystania z poufnego przetwarzania. W tym scenariuszu możesz uruchomić rozwiązań danych opartych na maszynach wirtualnych w obszarach docelowych grupę zarządzania poufną. Niektóre usługi danych PaaS mogą nie być w stanie uruchomić na poufnych maszynach wirtualnych.

Następne kroki