Udostępnij za pośrednictwem


Zabezpieczenia modelu sztucznej inteligencji

Ważna

Ta funkcja jest obecnie dostępna w wersji zapoznawczej i jest dołączona do planu Microsoft Defender dla usług AI. W trakcie korzystania z wersji zapoznawczej nie są naliczane dodatkowe opłaty za skanowanie modelu sztucznej inteligencji. Jednak włączenie planu Defender dla usług AI może wiązać się z kosztami związanymi z funkcjami ochrony przed zagrożeniami. Ciągłe włączenie funkcji skanowania modelu sztucznej inteligencji w ramach Defender dla usług AI nie jest gwarantowane, gdy stanie się ogólnie dostępna, a wymagania dotyczące licencjonowania mogą ulec zmianie. W takim przypadku powiadomienie zostanie wysłane przed wyłączeniem funkcji z opcjami ponownego włączenia jej w ramach odpowiedniej licencji.

W miarę jak organizacje coraz częściej używają modeli sztucznej inteligencji do napędzania automatyzacji, szczegółowych informacji i inteligentnego podejmowania decyzji, zespoły ds. zabezpieczeń potrzebują wglądu i kontroli w celu oceny bezpieczeństwa i zgodności modeli sztucznej inteligencji wprowadzanych do swoich środowisk. Modele te często mają szeroki dostęp do danych i infrastruktury. Bez tych możliwości coraz trudniej jest wymusić standardy wewnętrzne.

Microsoft Defender dla Chmury Defender dla zabezpieczeń sztucznej inteligencji obsługuje skanowanie modeli sztucznej inteligencji. Skanowanie modelu sztucznej inteligencji zapewnia proaktywne wykrywanie niebezpiecznych lub złośliwych artefaktów i stale monitoruje modele pod kątem ryzyka w całym cyklu życia sztucznej inteligencji.

Zabezpieczenia modelu sztucznej inteligencji automatycznie skanują modele sztucznej inteligencji pod kątem zagrożeń bezpieczeństwa, takich jak osadzone złośliwe oprogramowanie, niebezpieczne operatory i ujawnione wpisy tajne, zanim te modele dotrą do środowiska produkcyjnego. Zintegrowana bezpośrednio z Azure Machine Learning i potokami CI/CD, usługa przedstawia wyniki w czasie rzeczywistym i umożliwia podejmowanie naprawczych działań, dzięki czemu zespoły mogą zapobiegać ryzykownym modelom na wczesnym etapie procesu rozwoju.

Korzystając z zabezpieczeń modelu sztucznej inteligencji, zespoły ds. zabezpieczeń mogą skanować niestandardowe modele sztucznej inteligencji przekazywane do obszarów roboczych i rejestrów Azure Machine Learning w celu zidentyfikowania zagrożeń, takich jak osadzone złośliwe oprogramowanie, niebezpieczne operatory i ujawnione wpisy tajne. Defender dla Chmury przedstawia wyniki, zapewniając zespołom wgląd w wyniki zabezpieczeń wraz z ocenami ważności, wskazówkami korygowania i odpowiednimi metadanymi modelu w celu zapewnienia efektywnego klasyfikacji i priorytetyzacji. Deweloperzy mogą również wyzwalać skanowania modeli podczas etapów kompilacji lub wydania przy użyciu narzędzi CLI zintegrowanych z potokami Azure DevOps lub GitHub, co umożliwia skanowanie statyczne i wczesne wykrywanie ryzyka, zanim modele trafią do produkcji.

Wymagania wstępne

  • Musisz mieć subskrypcję Azure, która zawiera modele sztucznej inteligencji zarejestrowane w rejestrach lub przestrzeniach roboczych Azure Machine Learning (Azure Machine Learning).

Uwaga / Notatka

Obszary robocze i rejestry korzystające z łącza prywatnego nie są obsługiwane.

Lokalizowanie wszystkich modeli sztucznej inteligencji w środowisku

  1. Zaloguj się do portalu Azure.

  2. Wyszukaj i wybierz Microsoft Defender dla Chmury.

  3. Wybierz pozycję Cloud Security Explorer.

  4. Wybierz AI i uczenie maszynowe>Modele AI.

    Zrzut ekranu pokazujący, gdzie wybrać modele sztucznej inteligencji z listy rozwijanej w Eksploratorze zabezpieczeń w chmurze.

  5. Wybierz opcję Gotowe.

  6. Wybierz opcję +.

  7. Wybierz Metadane>Metadane modelu AI.

    Zrzut ekranu przedstawiający sposób wybierania opcji

  8. Wybierz Wyszukaj.

W Eksploratorze zabezpieczeń w chmurze są wyświetlane wszystkie modele sztucznej inteligencji w danym środowisku. Możesz wybrać widok szczegółów, aby wyświetlić więcej informacji na temat każdego wybranego modelu.

Lokalizowanie modeli sztucznej inteligencji z wykryciami problemów dotyczących bezpieczeństwa

Użyj Eksploratora zabezpieczeń w chmurze, aby znaleźć modele sztucznej inteligencji, które mają aktywne wyniki zabezpieczeń.

  1. Wykonaj kroki 1–7 z sekcji Lokalizowanie wszystkich modeli sztucznej inteligencji w środowisku .

  2. Wybierz opcję +.

  3. Wybierz pozycję Zalecenia>Wszystkie zalecenia.

    Zrzut ekranu przedstawiający sposób wybierania opcji

  4. Wybierz Wyszukaj.

Eksplorator zabezpieczeń w chmurze wyświetla wszystkie modele sztucznej inteligencji w twoim środowisku, które mają aktywne wyniki zabezpieczeń. Wybierz szczegóły widoku , aby wyświetlić więcej informacji na temat każdego modelu i skojarzonych wyników.

Lokalizowanie wszystkich modeli sztucznej inteligencji w środowisku

Strona Defender Portal Assets zawiera kompleksowy widok wszystkich modeli sztucznej inteligencji w danym środowisku.

  1. Zaloguj się do portalu Microsoft Defender.

  2. Przejdź do Zasoby>Chmura>AI>Modele AI.

    Screenshot pokazujący, jak nawigować do strony zarządzania zasobami w portalach Defendera, na której przedstawiono wszystkie modele sztucznej inteligencji.

  3. Wybierz model AI z zaleceniami.

    Zrzut ekranu przedstawiający modele sztucznej inteligencji, na które wpływa co najmniej jedno zalecenie.

  4. Wybierz pozycję Otwórz stronę zasobu.

    Zrzut ekranu przedstawiający lokalizację przycisku

  5. Wybierz Zalecenia dotyczące zabezpieczeń> odpowiedniego zalecenia.

  6. Należy przejrzeć i skorygować problem z bezpieczeństwem zgodnie z potrzebami.

Rekomendację można również zarządzać w portalu Azure.

Następne kroki