Udostępnij za pośrednictwem


Zabezpieczenia sztucznej inteligencji dla Microsoft 365 Copilot

Sztuczna inteligencja zrewolucjonizowała wiele sektorów, zapewniając bezprecedensowe możliwości i wydajność. Na przykład Microsoft 365 Copilot, nasze narzędzie do produktywności oparte na sztucznej inteligencji, koordynuje duże modele językowe (LLM), zawartość w programach Microsoft Graphs i aplikacje zwiększające produktywność platformy Microsoft 365, takie jak Word, Excel, PowerPoint, Outlook, Teams, SharePoint i inne. Ta integracja zapewnia inteligentną pomoc w czasie rzeczywistym, umożliwiając użytkownikom zwiększenie kreatywności, organizacji zadań i umiejętności.

Klienci chętnie zapoznają się z tymi możliwościami i starannie rozważają ważne aspekty zabezpieczeń, które są z nimi związane. Na podstawie naszych interakcji z klientami, którzy są w podróży transformacji sztucznej inteligencji, rozumiemy, że tematy takie jak bezpieczeństwo danych, prywatność, niezawodność modelu i cyberataki są najważniejsze.

Firma Microsoft rozumie, jak ważne są te zagadnienia, dlatego stosujemy niezawodną strategię ochrony w głębi systemu, aby pomóc chronić narzędzia zwiększające produktywność, takie jak Microsoft 365 Copilot przed zagrożeniami bezpieczeństwa. To wielowarstwowe podejście obejmuje połączenie zaawansowanej analizy zagrożeń, rygorystycznych praktyk w zakresie zabezpieczeń i proaktywnych zabezpieczeń. Na przykład oprócz własnych ćwiczeń z czerwonym zespołem w celu przetestowania Microsoft 365 Copilot zaangażowaliśmy firmę Casaba Security do przetestowania dziewięciu implementacji rozwiązania Copilot w pakiecie produktów Platformy Microsoft 365. Natychmiast rozwiązaliśmy wyniki ich testowania, które koncentrowały się na zidentyfikowaniu 10 najlepszych 10 projektów Open Worldwide Application Security Project (OWASP) dla llm, a także tradycyjnych luk w zabezpieczeniach we wspieraniu infrastruktury aplikacji.

Firma Microsoft podejmuje szeroko zakrojone kroki w celu zapewnienia zgodności Microsoft 365 Copilot z naszymi istniejącymi zobowiązaniami dotyczącymi prywatności, zabezpieczeń i zgodności wobec naszych klientów. Ponieważ technologie sztucznej inteligencji i przypadki użycia nadal ewoluują, nasza praca nigdy nie jest wykonywana: firma Microsoft zobowiązuje się do ciągłego rozwijania ochrony rozwiązania Copilot, uczenia się na podstawie własnego monitorowania i testowania naszych systemów, a także współpracy z klientami, partnerami i szerszą branżą zabezpieczeń.

Ten artykuł zawiera omówienie ogólnego stanu zabezpieczeń firmy Microsoft dla sztucznej inteligencji oraz sposobu współpracy różnych rozwiązań zabezpieczeń firmy Microsoft w celu zabezpieczenia danych i interakcji w Microsoft 365 Copilot i innych aplikacjach sztucznej inteligencji. Zaktualizujemy ten artykuł o nowe informacje o pojawiających się zagrożeniach i innowacjach w rozwiązaniach w miarę ich udostępniania.

Zabezpieczanie Microsoft 365 Copilot

W firmie Microsoft zabezpieczenia to nie tylko priorytet; to podstawa wszystkiego, co robimy. To zobowiązanie obejmuje sztuczną inteligencję: nie tylko pakiet Microsoft Office ds. odpowiedzialnej sztucznej inteligencji jest przewodnikiem po bezpieczeństwie i bezpieczeństwie podczas naszej podróży po sztucznej inteligencji, ale nasza niedawno rozszerzona inicjatywa Bezpieczna przyszłość dodatkowo odzwierciedla nasze zaangażowanie w tworzenie bezpieczniejszego krajobrazu cyfrowego dla wszystkich.

Nasza kompleksowa postawa bezpieczeństwa dla sztucznej inteligencji ma następujące filary:

  • Odpowiedzialne opracowywanie sztucznej inteligencji: firma Microsoft wspiera zasady odpowiedzialnego używania sztucznej inteligencji. Te zasady podkreślają sprawiedliwość, niezawodność i bezpieczeństwo, prywatność i bezpieczeństwo, inkluzywność, przejrzystość i odpowiedzialność w całym cyklu życia sztucznej inteligencji.
  • Najlepsze rozwiązania dotyczące zabezpieczeń: Udostępniamy dostosowane zasoby i najlepsze rozwiązania dla deweloperów, inżynierów i specjalistów ds. zabezpieczeń pracujących z produktami firmy Microsoft AI. Te zasoby pomagają organizacjom zrozumieć i zaimplementować środki zabezpieczeń podczas wdrażania.
  • Cykl życia opracowywania zabezpieczeń ( SDL): Nasze rygorystyczne SDL integruje zagadnienia dotyczące zabezpieczeń w całym procesie opracowywania sztucznej inteligencji. To proaktywne podejście gwarantuje, że luki w zabezpieczeniach są identyfikowane i eliminowane od samego początku.
  • Badania nad zagrożeniami, wykrywanie i ograniczanie ryzyka: aktywnie inwestujemy w strategie wykrywania i eliminowania zagrożeń dla naszych modeli sztucznej inteligencji. Obejmuje to ciągłe monitorowanie luk w zabezpieczeniach i opracowywanie środków zaradczych przeciwko potencjalnym atakom. Microsoft Threat Intelligence, nasza globalna sieć badaczy, monitoruje również krajobraz zagrożeń dla podmiotów zagrożeń i cyberataków, które mogą korzystać z aplikacji sztucznej inteligencji.

Firma Microsoft chroni prywatność, zabezpieczenia i niezawodność funkcji sztucznej inteligencji Microsoft 365 Copilot od etapu wprowadzania danych przez użytkownika po etapie danych wyjściowych systemu. Microsoft 365 Copilot jest zgodny z naszymi istniejącymi zobowiązaniami w zakresie ochrony prywatności, bezpieczeństwa i zgodności, w tym z ogólnym rozporządzeniem o ochronie danych (RODO) i granicą danych Unii Europejskiej (UE). Zgodnie z tymi zobowiązaniami firma Microsoft obsługuje informacje we wszystkich monitach wprowadzonych przy użyciu rozwiązania Copilot, a pobrane dane i wygenerowane odpowiedzi pozostają zabezpieczone jako dane klienta i podlegają naszym umownym wymaganiom dotyczącym obsługi danych.

W poniższych sekcjach opisano sposób, w jaki firma Microsoft zajmuje się różnymi aspektami prywatności, bezpieczeństwa i zgodności, które są ważnymi zagadnieniami klientów dotyczącymi wdrażania Microsoft 365 Copilot.

Zarządzanie kontrolą dostępu i uprawnieniami

Microsoft 365 Copilot uzyskuje dostęp do zasobów w imieniu użytkownika, dzięki czemu może uzyskiwać dostęp tylko do zasobów, do które użytkownik ma już uprawnienia dostępu. Jeśli na przykład użytkownik nie ma dostępu do dokumentu, Microsoft 365 Copilot praca w imieniu użytkownika również nie będzie miała dostępu.

Dane używane do generowania odpowiedzi są przetwarzane przez firmę Microsoft zgodnie z umownymi wymaganiami dotyczącymi obsługi danych, w tym szyfrowaniem podczas przesyłania, ochroną prywatności i zapobieganiem wyciekom danych. Ponadto dane platformy Microsoft 365, w tym dane z programu Microsoft Graph i programu SharePoint, są zgodne z mechanizmami kontroli dostępu i inspekcji.

Microsoft 365 Copilot przestrzega zasad platformy Microsoft 365, Microsoft Entra i Microsoft Purview, które dodatkowo ograniczają dostęp użytkowników i uprawnienia, takie jak bariery informacyjne, dostęp warunkowy i etykiety poufności.

Microsoft 365 Copilot dziedziczy zasady ochrony przed utratą danych (DLP), aby zapobiec eksfiltracji danych odpowiedzi generowanych przez program Copilot. Ponadto zwiększa bezpieczeństwo danych, stosując etykiety poufności do tych odpowiedzi.

Ochrona danych podczas trenowania modelu

Microsoft 365 Copilot używa wstępnie wytrenowanych modeli LLM hostowanych przez firmę Microsoft; nie używa danych klienta do trenowania tych modeli. Ponadto dane monitowania i uziemienia nie są używane do trenowania modeli sztucznej inteligencji i nigdy nie są udostępniane openai ani innym osobom trzecim.

Spełnianie wymagań dotyczących rezydencji danych

Firma Microsoft honoruje zobowiązania dotyczące rezydencji danych zgodnie z opisem w dodatku Microsoft Product Terms and Data Protection Addendum (Postanowienia dotyczące produktów firmy Microsoft i ochrona danych). Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów funkcji Microsoft 365 Copilot od 1 marca 2024 r. W przypadku użytkowników z Unii Europejskiej (UE) firma Microsoft ma dodatkowe zabezpieczenia w celu zapewnienia zgodności z granicą danych UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Wszystkie dane wysyłane do przetwarzania sztucznej inteligencji są szyfrowane zarówno podczas przesyłania, jak i w spoczynku. Aby zapewnić bezpieczeństwo danych w całym cyklu życia przetwarzania, platforma Microsoft 365 korzysta ze zgodnych ze standardem FIPS 140-2 technologii po stronie usługi, które szyfrują zawartość klienta magazynowaną i przesyłaną, w tym funkcję BitLocker, szyfrowanie poszczególnych plików, protokół TLS (Transport Layer Security) 1.2 i zabezpieczenia protokołu internetowego (IPsec).

Wzmacnianie przed wstrzyknięciami monitu

Firma Microsoft używa kombinacji zaawansowanego uczenia maszynowego do filtrowania zawartości w wielu warstwach, rygorystycznych protokołów zabezpieczeń i ciągłego monitorowania. Klasyfikatory iniekcji pośrednich lub wieloskładników wykrywają i blokują wstrzykiwanie monitu w wielu warstwach. Tymczasem mechanizmy obronne, takie jak następujące, pomagają również zminimalizować wpływ ataków iniekcji między monitami (XPIA):

  • Klasyfikatory XPIA są używane do wykrywania i zmniejszania wystąpień XPIA

  • Wymaganie dotyczące akcji i akcji inicjowanych przez użytkownika (inicjowanych przez użytkownika lub zatwierdzonych) dla uprzywilejowanych akcji, które mogą zmieniać lub wysyłać zawartość, na przykład wysyłania wiadomości e-mail

  • Niepotrzebne mechanizmy ruchu wychodzącego danych są usuwane, aby zapobiec eksfiltracji danych

Ponadto w kontekście ataku polegającego na szybkim wstrzyknięciu osoba atakująca może uzyskać dostęp tylko do danych w zakresie, do jakiego użytkownik ma dostęp. Oznacza to, że osoba atakująca jest ograniczona do uprawnień i danych, które użytkownik ma w systemie. To ograniczenie pomaga ograniczyć potencjalne szkody spowodowane atakiem z monitem o wstrzyknięcie do zakresu uprawnień użytkownika.

Przestrzeganie zasad odpowiedzialnej sztucznej inteligencji

Zasady odpowiedzialnej sztucznej inteligencji firmy Microsoft kierują opracowywaniem i używaniem Microsoft 365 Copilot. Na przykład Microsoft 365 Copilot implementuje klasyfikatory, takie jak dostępne w Bezpieczeństwo zawartości platformy Azure AI, i metaprompting, aby zmniejszyć ryzyko szkodliwych, obraźliwych lub brutalnych treści. Microsoft 365 Copilot używa klasyfikatorów opartych na sztucznej inteligencji i filtrów zawartości do oznaczania różnych typów potencjalnie szkodliwej zawartości w monitach użytkownika lub wygenerowanych odpowiedziach. Tymczasem metaprompting prowadzi do zachowania modelu, w tym upewnienia się, że system zachowuje się zgodnie z zasadami sztucznej inteligencji firmy Microsoft i oczekiwaniami użytkowników.

Firma Microsoft stosuje również technologię szybkiej inspekcji i filtry zawartości, aby zapobiec używaniu Microsoft 365 Copilot w przypadku oprogramowania wymuszającego okup i innych ataków opartych na złośliwym oprogramowaniu. Ponadto cykl życia tworzenia zabezpieczeń (SDL) pomaga zabezpieczyć Microsoft 365 Copilot przed zdalnym wykonywaniem kodu. Jednym ze sposobów, w jaki to robimy, jest zapobieganie uruchamianiu przez program Copilot nieograniczonego i niesandboxowanego kodu.

Aby zapobiec zawartości bez planu, Microsoft 365 Copilot implementuje pobieranie rozszerzonej generacji (RAG) przy użyciu dedykowanej semantycznej bazy danych, która może dostarczać informacje o zawartości klientów dzierżawy platformy Microsoft 365. Firma Microsoft stale i uważnie przegląda zmiany poziomu uziemienia odpowiedzi. W przypadku wszelkich zmian wprowadzonych w Microsoft 365 Copilot (w tym monitu, modelu lub orkiestracji) przechwytujemy regresje, które mogą niekorzystnie wpłynąć na użytkownika.

W usłudze Azure AI dostępne są nowe narzędzia , które ułatwiają dalsze ulepszanie tych zabezpieczeń, pomagając deweloperom aplikacji sztucznej inteligencji w tworzeniu bezpieczniejszych aplikacji sztucznej inteligencji.

Firma Microsoft ma wbudowaną ochronę przed generowaniem chronionych treści, która obejmuje pierwszy w branży program zobowiązań w zakresie praw autorskich klientów w celu obrony klientów i zrekompensowania wszelkich niekorzystnych osądów w przypadku pozwu o naruszenie praw autorskich.

Spełnianie wymagań regulacyjnych

Microsoft 365 Copilot spełnia wymagania prawne dotyczące zbierania elektronicznych materiałów dowodowych, rejestrowania inspekcji i przechowywania za pomocą kilku mechanizmów:

  • Zasady przechowywania: komunikaty z Microsoft 365 Copilot są automatycznie uwzględniane w lokalizacji zasad przechowywania o nazwie Czaty usługi Teams i interakcje copilot. Oznacza to, że monity użytkownika i odpowiedzi rozwiązania Copilot mogą być zachowywane i usuwane ze względu na zgodność. Dane z wiadomości Copilot są przechowywane w ukrytym folderze w skrzynce pocztowej użytkownika, który uruchamia program Copilot, który administratorzy zgodności mogą wyszukiwać za pomocą narzędzi zbierania elektronicznych materiałów dowodowych.

  • Rejestrowanie inspekcji: dzienniki inspekcji generowane przez Microsoft 365 Copilot mogą być przechowywane przez maksymalnie 180 dni dla klientów inspekcji (w warstwie Standardowa) i do jednego roku dla posiadaczy licencji Inspekcja (Premium), z możliwością przedłużenia do 10 lat.

  • Zgodność z usługą Microsoft Purview: usługa Microsoft Purview zapewnia zabezpieczenia danych i ochronę zgodności dla generowanych aplikacji sztucznej inteligencji, takich jak Copilot. Usługa Microsoft Purview Data Security Posture Management for AI, obecnie dostępna w wersji zapoznawczej, udostępnia łatwe w użyciu narzędzia graficzne i raporty umożliwiające szybkie uzyskanie wglądu w użycie sztucznej inteligencji w organizacji. Zasady jednym kliknięciem pomagają chronić dane i spełniać wymagania prawne.

  • kontrolki Administracja: administratorzy mogą używać usługi Microsoft Purview do wyświetlania przechowywanych danych i zarządzania nimi, ustawiania zasad przechowywania oraz wyszukiwania zbierania elektronicznych materiałów dowodowych. Opcje usuwania inicjowane przez administratora i użytkownika są dostępne za pośrednictwem usługi Purview.

Często zadawane pytania

Czy wyniki Microsoft 365 Copilot niezawodne?

Chociaż zabezpieczenia firmy Microsoft zapewniają silne ograniczanie zagrożeń przed dezinformacją i naruszeniami zabezpieczeń, podobnie jak w przypadku każdej aplikacji sztucznej inteligencji, odpowiedzi Microsoft 365 Copilot mogą nie zawsze być dokładne. Nadal należy stosować ocenę człowieka, aby sprawdzić te odpowiedzi.

Jak firma Microsoft traktuje moje monity i odpowiedzi?

Firma Microsoft traktuje monity i odpowiedzi, traktując inne, bardziej tradycyjne formy zawartości, takie jak wiadomości e-mail, dokumenty i czaty, a nasze zobowiązania umowne są takie same.

Czy Microsoft 365 Copilot używać moich danych do trenowania modeli sztucznej inteligencji?

Polecenia, odpowiedzi i dane klienta dostępne za pośrednictwem programu Microsoft Graph nie są używane do trenowania podstawowych maszyn llm, w tym tych używanych przez Microsoft 365 Copilot. Ulepszenia produktu są oparte na technikach, takich jak zdarzenia zgłaszane przez klientów i generowanie syntetycznych monitów.

Co należy zrobić, jeśli widzę nieoczekiwaną lub obraźliwą zawartość?

Natychmiast zgłoś dowolną niepokojącą lub podejrzaną zawartość, wybierając przycisk downvote (kciuk w dół) obok monitu o odpowiedź.

Jak mogę uzyskać dostęp do raportu Microsoft 365 Copilot oceny luk w zabezpieczeniach?

Ocenę luk w zabezpieczeniach innych firm Microsoft 365 Copilot można pobrać z portalu zaufania usługi.

Czy firma Microsoft może pomóc w znalezieniu ryzyka w moich aplikacjach sztucznej inteligencji?

Firma Microsoft wydała zestaw narzędzi do identyfikacji ryzyka języka Python do generowania sztucznej inteligencji (PyRIT), struktury automatyzacji otwartego dostępu, która ma na celu umożliwienie specjalistom ds. zabezpieczeń i inżynierom uczenia maszynowego proaktywnego znajdowania zagrożeń we własnych systemach generowania sztucznej inteligencji.

Czy Microsoft 365 Copilot mieć dostęp do danych, których nie mam podczas uziemienia zawartości?

Microsoft 365 Copilot uzyskuje dostęp do zasobów w imieniu użytkownika, dzięki czemu może uzyskiwać dostęp tylko do zasobów, do których masz już uprawnienia dostępu.

Uziemienie odbywa się w kontekście tożsamości, a zapytania dotyczące indeksu semantycznego i wykresu są "obcięte zabezpieczeniami" na podstawie uprawnień do podstawowej zawartości. Ten proces gwarantuje, że tylko autoryzowana zawartość jest uwzględniona w procesie uziemienia.

Jak mogę ograniczyć dane, których mogą używać Microsoft 365 Copilot?

Poniższe kroki mogą pomóc administratorom kontrolować dostęp użytkowników i w związku z tym ograniczyć dane, z których mogą korzystać Microsoft 365 Copilot:

Jak chronić dane i interakcje aplikacji sztucznej inteligencji za pomocą rozwiązań zabezpieczeń firmy Microsoft?

Firma Microsoft zawsze zaleca utworzenie silnych podstaw zabezpieczeń dla twojego przedsiębiorstwa. Strategia zabezpieczeń Zero Trust zapewnia wskazówki dotyczące takiej podstawy, ponieważ traktuje każde żądanie połączenia i zasobu tak, jakby pochodziło z niekontrolowanej sieci i aktora zagrożeń. Niezależnie od tego, skąd pochodzi żądanie i do jakiego zasobu uzyskuje dostęp, użyj zasad Zero Trust.

Nasze kompleksowe rozwiązania w zakresie zabezpieczeń — w tym Microsoft Defender, Entra, Purview i Intune — współpracują ze sobą, aby pomóc w zabezpieczeniu danych i interakcji w Microsoft 365 Copilot i innych aplikacjach sztucznej inteligencji. Te produkty mają możliwości, które umożliwiają Tobie i Twoim zespołom:

  • Identyfikowanie potencjalnych zagrożeń związanych z użyciem sztucznej inteligencji, takich jak wycieki poufnych danych i nieautoryzowany dostęp do aplikacji wysokiego ryzyka

  • Zabezpieczanie aplikacji sztucznej inteligencji i poufnych danych, które przetwarzają lub generują, w tym monitów i odpowiedzi

  • Odpowiedzialne zarządzanie użyciem sztucznej inteligencji przez zachowywanie i rejestrowanie interakcji, wykrywanie naruszeń zasad i badanie zdarzeń

Na przykład niedawno wprowadziliśmy nowe funkcje Microsoft Defender i Purview, które zapewniają specjalnie skompilowane narzędzia zapewniające niezawodne zabezpieczenia i zarządzanie generowanymi aplikacjami sztucznej inteligencji i ich danymi. Ponadto bezproblemowa integracja Microsoft Security Copilot w naszych produktach usprawnia ogólny proces i środowisko dla analityków zabezpieczeń. Dzięki określaniu priorytetów zabezpieczeń i oferowaniu tych zaawansowanych funkcji firma Microsoft umożliwia organizacjom bezpieczne stosowanie korzyści i możliwości zapewnianych przez aplikacje sztucznej inteligencji.

Gdzie należy zgłaszać luki w zabezpieczeniach w Microsoft 365 Copilot i innych aplikacjach sztucznej inteligencji?

Jeśli odkryjesz nowe luki w zabezpieczeniach na dowolnej platformie sztucznej inteligencji, zachęcamy do przestrzegania praktyk odpowiedzialnego ujawniania informacji dla właściciela platformy. Procedura firmy Microsoft (dla Copilot) została wyjaśniona na tej stronie: Microsoft AI Bounty Program.