Wdrażanie odpowiedzialnych i zaufanych zasad sztucznej inteligencji
Sześć kluczowych zasad dotyczących odpowiedzialnej sztucznej inteligencji w firmie Microsoft obejmuje sprawiedliwość, niezawodność i bezpieczeństwo, prywatność i bezpieczeństwo, inkluzywność, przejrzystość i odpowiedzialność. Użyj tych zasad, aby utworzyć odpowiedzialną i godną zaufania sztuczną inteligencję podczas integrowania jej z głównymi produktami i usługami w ramach procesu wdrażania sztucznej inteligencji.
Zasady odpowiedzialnej sztucznej inteligencji
Firma Microsoft zobowiązuje się do zwiększania możliwości praktyk w zakresie odpowiedzialnego używania sztucznej inteligencji.
Sześć kluczowych zasad definiuje odpowiedzialną sztuczną inteligencję:
Sprawiedliwość: systemy sztucznej inteligencji powinny traktować wszystkich w równym stopniu i udostępniać te same zalecenia wszystkim osobom. Sprawiedliwość w systemach sztucznej inteligencji uniemożliwia dyskryminację na podstawie cech osobistych.
Niezawodność i bezpieczeństwo: systemy sztucznej inteligencji muszą działać niezawodnie, bezpiecznie i spójnie w różnych warunkach, aby pomóc w budowaniu zaufania.
Prywatność i bezpieczeństwo: systemy sztucznej inteligencji powinny przestrzegać prywatności i utrzymywać bezpieczeństwo dzięki ochronie prywatnych i poufnych informacji. Powinni również oprzeć się atakom i próbom uszkodzenia lub naruszenia bezpieczeństwa systemu.
Inkluzywność: systemy sztucznej inteligencji powinny wspierać i angażować wszystkich. Inkluzywne praktyki projektowe mogą pomóc deweloperom systemu sztucznej inteligencji zrozumieć potencjalne bariery wykluczenia w produkcie lub usłudze. Inkluzywność sprzyja innowacjom i pomaga w projektowaniu środowisk, które przynoszą korzyści wszystkim.
Przejrzystość: systemy sztucznej inteligencji powinny być przejrzyste i zrozumiałe. Systemy sztucznej inteligencji mogą informować o decyzjach, które mogą głęboko wpływać na życie ludzi, dlatego ważne jest, aby osoby zrozumiały, w jaki sposób system podejmuje te decyzje.
Odpowiedzialność: systemy sztucznej inteligencji i ich deweloperzy powinni być odpowiedzialni i odpowiadać.
Uwzględnij zasady odpowiedzialnego używania sztucznej inteligencji w całej podróży wdrażania sztucznej inteligencji, od strategii i planowania do wdrożenia. Upewnij się, że te zasady są stosowane podczas zabezpieczania inicjatyw sztucznej inteligencji, zarządzania nimi i zarządzania nimi.
Te wskazówki dotyczące wdrażania sztucznej inteligencji zawierają przykłady sposobu używania przewodnika Cloud Adoption Framework dla platformy Azure do implementowania praktyk dotyczących odpowiedzialnej sztucznej inteligencji. Zasady odpowiedzialnej sztucznej inteligencji są zintegrowane ze wskazówkami i zaleceniami w ramach tej podróży wdrażania sztucznej inteligencji.
Znaczenie odpowiedzialnej sztucznej inteligencji
Odpowiedzialne używanie sztucznej inteligencji pomaga ograniczyć następujące zagrożenia:
Niezamierzone konsekwencje: Planowanie i nadzorowanie implementacji odpowiedzialnej sztucznej inteligencji w celu zmniejszenia ryzyka nieprzewidzianych skutków, które mają konsekwencje etyczne.
Zmieniające się zagrożenia: nowe zagrożenia pojawiają się regularnie w miarę rozwoju technologii sztucznej inteligencji. Aby ułatwić eliminowanie tych zagrożeń i wyprzedzać je, przestrzegaj zasad odpowiedzialnej sztucznej inteligencji.
Stronniczość: ograniczenie stronniczość w sztucznej inteligencji może być trudne, ale jest konieczne, aby upewnić się, że systemy sztucznej inteligencji są sprawiedliwe i bezstronne. Skorzystaj z zasad odpowiedzialnego używania sztucznej inteligencji, aby pomóc Ci w rozwiązywaniu problemów.
Technologie wrażliwe: Technologie takie jak rozpoznawanie twarzy mogą być uważane za wrażliwe technologie ze względu na ryzyko podstawowych swobód i praw człowieka. Rozważ implikacje tych technologii, aby upewnić się, że używasz ich w odpowiedzialny sposób.
Ułatwienia platformy Azure
Platforma Microsoft Azure udostępnia szereg narzędzi, usług i zasobów, które ułatwiają tworzenie odpowiedzialnych systemów sztucznej inteligencji.
Używanie bezpieczeństwa zawartości sztucznej inteligencji platformy Microsoft Azure do tworzenia bezpiecznych systemów
Bezpieczeństwo zawartości sztucznej inteligencji platformy Microsoft Azure umożliwia wykrywanie szkodliwej zawartości generowanej przez użytkownika i generowanej przez sztuczną inteligencję w aplikacjach i usługach. Bezpieczeństwo zawartości ułatwia analizowanie wygenerowanej zawartości w aplikacjach sztucznej inteligencji, w tym tekstu i obrazów, w celu zapewnienia, że jest ona bezpieczna i odpowiednia dla użytkowników. Bezpieczeństwo zawartości zapewnia następujące możliwości:
Monitowanie osłon skanuje tekst i dokumenty pod kątem ryzyka ataku wejściowego użytkownika lub jailbreaku w dużym modelu językowym (LLM).
Wykrywanie uziemienia wykrywa, czy odpowiedzi tekstowe llM są uziemione w materiałach źródłowych, które udostępniają użytkownicy.
Wykrywanie materiałów chronionych wykrywa, czy odpowiedzi tekstowe llM zawierają materiały chronione, takie jak tekst chroniony, tekst chroniony, teksty piosenek, artykuły i zawartość internetowa.
Interfejs API kategorii niestandardowych (szybki) definiuje pojawiające się szkodliwe wzorce zawartości i skanuje tekst i obrazy pod kątem dopasowań.
Interfejs API analizowania tekstu analizuje potencjalnie szkodliwą zawartość tekstowa. Zazwyczaj identyfikuje kategorie, takie jak nienawiść, samookaleczenia i treści seksualne lub brutalne.
Interfejs API analizowania obrazu analizuje potencjalną szkodliwą zawartość obrazu. Zazwyczaj identyfikuje kategorie, takie jak nienawiść, samookaleczenia i treści seksualne lub brutalne.
Odpowiedzialne korzystanie ze sztucznej inteligencji w usługach azure AI
Firma Microsoft udostępnia listę informacji o przejrzystości dla usług platformy Azure związanych ze sztuczną inteligencją. Lista zawiera usługi w ramach pakietu usług Azure AI. Aby uzyskać więcej informacji, zobacz Odpowiedzialne używanie sztucznej inteligencji z usługami Azure AI.
Korzystanie z pulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji dla usługi Azure Machine Learning
Jeśli tworzysz systemy za pomocą usługi Azure Machine Learning, możesz użyć pulpitu nawigacyjnego Odpowiedzialne użycie sztucznej inteligencji do oceny systemów sztucznej inteligencji. Pulpit nawigacyjny Odpowiedzialne używanie sztucznej inteligencji udostępnia jeden interfejs, który ułatwia implementowanie zasad odpowiedzialnego używania sztucznej inteligencji. Niektóre funkcje odpowiedzialnej sztucznej inteligencji obejmują:
Analiza danych: Omówienie i eksplorowanie dystrybucji i statystyk zestawu danych.
Przegląd modelu i ocena sprawiedliwości: oceń wydajność modelu i problemy z sprawiedliwością grupy modelu.
Analiza błędów: wyświetl i dowiedz się, jak błędy są dystrybuowane w zestawie danych.
Możliwość interpretacji modelu: informacje o przewidywaniach modelu i sposobie tworzenia poszczególnych i ogólnych przewidywań modelu.
Analiza warunkowa analizy warunkowej: sprawdź, jak zmiany w funkcjach mogą mieć wpływ na przewidywania modelu.
Analiza przyczynowa: użyj danych historycznych, aby wyświetlić skutki przyczynowe cech leczenia w rzeczywistych wynikach.
Odpowiedzialne opracowywanie sztucznej inteligencji
Zasób | opis |
---|---|
Praktyczne narzędzia do tworzenia skutecznych środowisk sztucznej inteligencji (HAX) | Użyj zestawu narzędzi HAX na wczesnym etapie procesu projektowania, aby ułatwić określenie, co robi system sztucznej inteligencji i jak działa. Użyj zestawu narzędzi HAX Dla produktów sztucznej inteligencji przeznaczonych dla użytkowników. |
Wytyczne dotyczące konwersacyjnej sztucznej inteligencji | Projektuj boty w sposób, który zdobywa zaufanie innych, aby pomóc ludziom i społeczeństwu zrealizować ich pełny potencjał. Skorzystaj z tych wytycznych, aby utworzyć bota, który buduje zaufanie do firmy i usługi, którą reprezentuje. |
Wskazówki dotyczące projektowania inkluzywnej sztucznej inteligencji | Skorzystaj z tych wytycznych, aby ułatwić projektowanie sztucznej inteligencji, która jest inkluzywna i dostępna dla wszystkich użytkowników. |
Lista kontrolna dotycząca sprawiedliwości sztucznej inteligencji | Użyj listy kontrolnej sprawiedliwości sztucznej inteligencji, aby określić, czy system sztucznej inteligencji jest sprawiedliwy i nieprzyzwoity. |
Odpowiedzialne używanie sztucznej inteligencji w uczeniu maszynowym | Przejrzyj te zasoby odpowiedzialnej sztucznej inteligencji, jeśli używasz usługi Machine Learning do tworzenia systemów sztucznej inteligencji. |