Udostępnij za pośrednictwem


Odpowiedzialna i zaufana sztuczna inteligencja

Firma Microsoft przedstawia sześć kluczowych zasad dotyczących odpowiedzialnej sztucznej inteligencji: odpowiedzialności, inkluzywności, niezawodności i bezpieczeństwa, sprawiedliwości, przejrzystości i prywatności oraz bezpieczeństwa. Te zasady są niezbędne do tworzenia odpowiedzialnej i zaufanej sztucznej inteligencji, ponieważ przenosi się do głównych produktów i usług. Są one prowadzone przez dwie perspektywy: etyczne i zrozumiałe.

Diagram zasad odpowiedzialnej sztucznej inteligencji.

Etyczne

Z etycznego punktu widzenia sztuczna inteligencja powinna:

  • Bądź uczciwy i inkluzywny w swoich twierdzeń.
  • Bądź odpowiedzialny za swoje decyzje.
  • Nie dyskryminują ani nie utrudniają różnych ras, niepełnosprawności ani środowisk.

W 2017 r. firma Microsoft utworzyła komitet doradczy dotyczący sztucznej inteligencji, etyki i efektów w inżynierii i badaniach (Aether). Główną obowiązkiem komitetu jest doradzanie w kwestiach, technologiach, procesach i najlepszych rozwiązaniach dotyczących odpowiedzialnej sztucznej inteligencji. Aby dowiedzieć się więcej, zobacz Understanding the Microsoft governance model - Aether + Office of Responsible AI (Omówienie modelu ładu firmy Microsoft — Aether + Office of Responsible AI).

Odpowiedzialność

Odpowiedzialność jest podstawowym filarem odpowiedzialnej sztucznej inteligencji. Osoby, które projektują i wdrażają system sztucznej inteligencji, muszą być rozliczane za swoje działania i decyzje, zwłaszcza w miarę postępu w kierunku bardziej autonomicznych systemów.

Organizacje powinny rozważyć ustanowienie wewnętrznego organu przeglądu, który zapewnia nadzór, szczegółowe informacje i wskazówki dotyczące opracowywania i wdrażania systemów sztucznej inteligencji. Te wskazówki mogą się różnić w zależności od firmy i regionu i powinny odzwierciedlać podróż organizacji w zakresie sztucznej inteligencji.

Brak wykluczeń

Inkluzywność nakazuje, aby sztuczna inteligencja uwzględniała wszystkie ludzkie rasy i doświadczenia. Inkluzywne praktyki projektowe mogą pomóc deweloperom zrozumieć i rozwiązać potencjalne bariery, które mogłyby przypadkowo wykluczyć ludzi. Jeśli to możliwe, organizacje powinny używać technologii zamiany mowy na tekst, zamiany tekstu na mowę i rozpoznawania wizualnego, aby umożliwić osobom, które mają zaburzenia słuchu, wzroku i innych.

Niezawodność i bezpieczeństwo

Aby systemy sztucznej inteligencji były zaufane, muszą być niezawodne i bezpieczne. Ważne jest, aby system działał tak, jak został pierwotnie zaprojektowany i aby bezpiecznie reagować na nowe sytuacje. Jego wrodzona odporność powinna opierać się zamierzonemu lub niezamierzonemu manipulowaniu.

Organizacja powinna ustanowić rygorystyczne testy i walidację warunków operacyjnych, aby zapewnić bezpieczne reagowanie systemu na przypadki brzegowe. Należy zintegrować metody testowania A/B i champion/challenger z procesem oceny.

Wydajność systemu sztucznej inteligencji może ulec pogorszeniu w czasie. Organizacja musi ustanowić niezawodny proces monitorowania i śledzenia modeli w celu reaktywnego i proaktywnego mierzenia wydajności modelu (i ponownego trenowania go do modernizacji w razie potrzeby).

Objaśnienie

Wyjaśnienie pomaga analitykom danych, audytorom i osobom podejmującym decyzje biznesowe zapewnić, że systemy sztucznej inteligencji mogą uzasadnić swoje decyzje i sposób, w jaki wyciągają wnioski. Wyjaśnienie pomaga również zapewnić zgodność z zasadami firmy, standardami branżowymi i przepisami rządowymi.

Analityk danych powinien być w stanie wyjaśnić uczestnikowi projektu, w jaki sposób osiągnęli określony poziom dokładności i co wpływało na wynik. Podobnie, aby zapewnić zgodność z zasadami firmy, audytor potrzebuje narzędzia, które weryfikuje model. Osoba podejmująca decyzje biznesowe musi mieć zaufanie, zapewniając przejrzysty model.

Narzędzia do wyjaśnienia

Firma Microsoft opracowała rozwiązanie InterpretML, czyli zestaw narzędzi typu open source, który ułatwia organizacjom osiągnięcie możliwości wyjaśnienia modelu. Obsługuje szklane i czarne modele:

  • Modele ze szkła można interpretować ze względu na ich strukturę. W przypadku tych modeli można wyjaśnić, że maszyna zwiększająca (EBM) udostępnia stan algorytmu na podstawie drzewa decyzyjnego lub modeli liniowych. EBM zapewnia bezstratne wyjaśnienia i jest edytowalny przez ekspertów w dziedzinie domeny.

  • Modele czarnej skrzynki są trudniejsze do zinterpretowania ze względu na złożoną strukturę wewnętrzną, sieć neuronową. Objaśnienia, takie jak lokalne objaśnienia niezależne od modelu (LIME) lub SHapley Add exPlanations (SHAP) interpretują te modele, analizując relację między danymi wejściowymi i wyjściowymi.

Fairlearn to integracja usługi Azure Machine Learning i zestaw narzędzi typu open source dla zestawu SDK oraz graficzny interfejs użytkownika rozwiązania AutoML. Używa on wyjaśnień, aby zrozumieć, co ma wpływ głównie na model, i używa ekspertów domeny do weryfikacji tych wpływów.

Aby dowiedzieć się więcej na temat możliwości wyjaśnienia, zapoznaj się z możliwościami interpretowania modelu w usłudze Azure Machine Learning.

Sprawiedliwość

Sprawiedliwość jest podstawową zasadą etyczną, którą wszyscy ludzie mają na celu zrozumienie i zastosowanie. Ta zasada jest jeszcze ważniejsza, gdy są opracowywane systemy sztucznej inteligencji. Kluczowe kontrole i równowagi muszą upewnić się, że decyzje systemu nie dyskryminują ani nie wyrażają stronniczości wobec grupy lub osoby na podstawie płci, rasy, orientacji seksualnej lub religii.

Firma Microsoft udostępnia listę kontrolną dotycząca sprawiedliwości sztucznej inteligencji , która oferuje wskazówki i rozwiązania dla systemów sztucznej inteligencji. Te rozwiązania są luźno podzielone na pięć etapów: wyobrażanie sobie, prototyp, kompilowanie, uruchamianie i rozwijanie. Każdy etap zawiera listę zalecanych działań due-diligence, które pomagają zminimalizować wpływ niesprawiedliwości w systemie.

Program Fairlearn integruje się z usługą Azure Machine Learning i obsługuje analityków danych i deweloperów, aby ocenić i poprawić sprawiedliwość systemów sztucznej inteligencji. Udostępnia on algorytmy ograniczania niesprawiedliwości i interaktywny pulpit nawigacyjny, który wizualizuje sprawiedliwość modelu. Organizacja powinna używać zestawu narzędzi i ściśle oceniać sprawiedliwość modelu podczas jego budowy. To działanie powinno być integralną częścią procesu nauki o danych.

Dowiedz się, jak ograniczyć niesprawiedliwość w modelach uczenia maszynowego.

Przejrzystość

Osiągnięcie przejrzystości pomaga zespołowi zrozumieć:

  • Dane i algorytmy używane do trenowania modelu.
  • Logika przekształcania zastosowana do danych.
  • Ostatni wygenerowany model.
  • Skojarzone zasoby modelu.

Te informacje zawierają szczegółowe informacje na temat sposobu tworzenia modelu, dzięki czemu zespół może odtworzyć go w sposób przezroczysty. Migawki w obszarach roboczych usługi Azure Machine Learning obsługują przejrzystość przez rejestrowanie lub ponowne trenowanie wszystkich zasobów i metryk związanych z trenowaniem związanych z eksperymentem.

Prywatność i zabezpieczenia

Posiadacz danych jest zobowiązany do ochrony danych w systemie sztucznej inteligencji. Prywatność i bezpieczeństwo są integralną częścią tego systemu.

Dane osobowe muszą być zabezpieczone, a dostęp do niego nie powinien naruszać prywatności osoby fizycznej. Prywatność różnicowa na platformie Azure pomaga chronić i zachowywać prywatność, losując dane i dodając szum, aby ukryć dane osobowe od analityków danych.

Wytyczne dotyczące sztucznej inteligencji dla człowieka

Wytyczne dotyczące projektowania sztucznej inteligencji przez człowieka składają się z 18 zasad, które występują w czterech okresach: początkowo, podczas interakcji, w przypadku błędu i w czasie. Te zasady pomagają organizacji stworzyć bardziej integracyjny i skoncentrowany na człowieku system sztucznej inteligencji.

Początkowo

  • Wyjaśnij, co system może zrobić. Jeśli system sztucznej inteligencji używa lub generuje metryki, ważne jest, aby pokazać je wszystkie i jak są śledzone.

  • Wyjaśnij, jak dobrze system może zrobić to, co robi. Pomóż użytkownikom zrozumieć, że sztuczna inteligencja nie jest całkowicie dokładna. Określ oczekiwania, gdy system sztucznej inteligencji może popełnić błędy.

Podczas interakcji

  • Pokaż kontekstowe istotne informacje. Podaj informacje wizualne związane z bieżącym kontekstem i środowiskiem użytkownika, takie jak pobliskie hotele. Zwróć szczegóły w pobliżu miejsca docelowego i daty.

  • Eliminowanie uprzedzeń społecznych. Upewnij się, że język i zachowanie nie wprowadza niezamierzonych stereotypów ani uprzedzeń. Na przykład funkcja autouzupełniania musi uwzględniać tożsamość płci.

W przypadku błędu

  • Obsługa efektywnego odrzucania. Zapewnienie łatwego mechanizmu ignorowania lub odrzucania niepożądanych funkcji lub usług.
  • Obsługa wydajnej korekty. Zapewnij intuicyjny sposób ułatwiania edytowania, uściślinia lub odzyskiwania.
  • Wyjaśnij, dlaczego system zrobił to, co zrobił. Zoptymalizuj zrozumiałą sztuczną inteligencję, aby oferować szczegółowe informacje na temat asercji systemu sztucznej inteligencji.

W czasie

  • Zapamiętaj ostatnie interakcje. Zachowaj historię interakcji na potrzeby przyszłego dokumentacji.
  • Dowiedz się na podstawie zachowania użytkownika. Personalizuj interakcję na podstawie zachowania użytkownika.
  • Ostrożnie aktualizuj i dostosowuj. Ogranicz zmiany powodujące zakłócenia i aktualizuj na podstawie profilu użytkownika.
  • Zachęcamy do szczegółowej opinii. Zbieraj opinie użytkowników na podstawie interakcji z systemem sztucznej inteligencji.

Zaufana struktura sztucznej inteligencji

Diagram platformy sztucznej inteligencji skoncentrowanej na osobach.

Projektant sztucznej inteligencji

Projektant sztucznej inteligencji tworzy model i odpowiada za:

  • Dryf danych i kontrole jakości. Projektant wykrywa wartości odstające i przeprowadza kontrole jakości danych w celu zidentyfikowania brakujących wartości. Projektant standandaryzuje również dystrybucję, analizuje dane i tworzy przypadek użycia i raporty projektu.

  • Ocena danych w źródle systemu w celu zidentyfikowania potencjalnego tendencyjnia.

  • Projektowanie algorytmów sztucznej inteligencji w celu zminimalizowania uprzedzeń dotyczących danych. Te wysiłki obejmują odkrycie, w jaki sposób kwantowanie, grupowanie i normalizacja (zwłaszcza w tradycyjnych modelach uczenia maszynowego, takich jak oparte na drzewach), może wyeliminować grupy mniejszościowe z danych. Kategoryczny projekt sztucznej inteligencji ponownie powtarza uprzedzenia danych poprzez grupowanie klas społecznych, rasowych i płci w branżach, które opierają się na chronionych informacjach zdrowotnych (PHI) i danych osobowych.

  • Optymalizacja monitorowania i alertów w celu zidentyfikowania wycieku docelowego i wzmocnienia opracowywania modelu.

  • Ustanawianie najlepszych rozwiązań dotyczących raportowania i szczegółowych informacji, które oferują szczegółową wiedzę na temat modelu. Projektant unika metod czarnej skrzynki, które używają znaczenia cech lub wektorów, klastrowania ujednoliconego przybliżenia i projekcji (UMAP), statystyki H Friedmana, efektów cech i powiązanych technik. Metryki identyfikacji pomagają definiować wpływ predykcyjny, relacje i zależności między korelacjami w złożonych i nowoczesnych zestawach danych.

Administrator i funkcjonariusze sztucznej inteligencji

Administrator sztucznej inteligencji i urzędnicy nadzorują sztuczną inteligencję, ład i operacje struktury inspekcji oraz metryki wydajności. Nadzorują również sposób wdrażania zabezpieczeń sztucznej inteligencji i zwrotu firmy z inwestycji. Ich zadania obejmują:

  • Monitorowanie pulpitu nawigacyjnego śledzenia, który ułatwia monitorowanie modelu i łączy metryki modelu dla modeli produkcyjnych. Pulpit nawigacyjny koncentruje się na dokładności, degradacji modelu, dryfu danych, odchyleniach i zmianach szybkości/błędów wnioskowania.

  • Implementowanie elastycznego wdrażania i ponownego wdrażania (najlepiej za pośrednictwem interfejsu API REST), które umożliwia wdrażanie modeli w otwartej, niezależnej architekturze. Architektura integruje model z procesami biznesowymi i generuje wartość pętli opinii.

  • Praca nad tworzeniem ładu modelu i dostępem do ustawiania granic oraz ograniczania negatywnego wpływu biznesowego i operacyjnego. Standardy kontroli dostępu opartej na rolach określają mechanizmy kontroli zabezpieczeń, które zachowują ograniczone środowiska produkcyjne i adres IP.

  • Używanie struktur inspekcji i zgodności sztucznej inteligencji do śledzenia sposobu opracowywania i zmieniania modeli w celu zachowania standardów specyficznych dla branży. Sztuczna inteligencja z możliwością interpretowania i odpowiedzialnego używania sztucznej inteligencji opiera się na miarach możliwości wyjaśnienia, zwięzłych funkcjach, wizualizacjach modeli i języku pionowym w branży.

Użytkownicy biznesowi sztucznej inteligencji

Konsumenci biznesowi sztucznej inteligencji (eksperci biznesowi) zamykają pętlę opinii i zapewniają dane wejściowe dla projektanta sztucznej inteligencji. Predykcyjne podejmowanie decyzji i potencjalne stronniczości mają wpływ na sprawiedliwość i środki etyczne, prywatność i zgodność oraz efektywność biznesową, aby ocenić systemy sztucznej inteligencji. Oto kilka zagadnień dla użytkowników biznesowych:

  • Pętle opinii należą do ekosystemu firmy. Dane pokazujące stronniczość, błędy, szybkość przewidywania i sprawiedliwość modelu ustanawiają zaufanie i równowagę między projektantem sztucznej inteligencji, administratorem i oficerami. Ocena skoncentrowana na człowieku powinna stopniowo ulepszać sztuczną inteligencję w miarę upływu czasu.

    Minimalizacja uczenia się sztucznej inteligencji na podstawie wielowymiarowych, złożonych danych może pomóc w zapobieganiu uprzedzeniom. Ta technika jest nazywana uczeniem mniej niż jeden strzał (LO-shot).

  • Korzystanie z projektowania możliwości interpretacji i narzędzi zapewnia systemy sztucznej inteligencji do odpowiedzialności za potencjalne uprzedzenia. Stronniczość modelu i problemy z uczciwością powinny być oflagowane i przekazywane do systemu wykrywania alertów i anomalii, który uczy się na podstawie tego zachowania i automatycznie rozwiązuje uprzedzenia.

  • Każda wartość predykcyjna powinna być podzielona na poszczególne cechy lub wektory według ważności lub wpływu. Powinna ona dostarczać dokładne wyjaśnienia przewidywania, które można wyeksportować do raportu biznesowego na potrzeby przeglądów inspekcji i zgodności, przejrzystości klientów i gotowości biznesowej.

  • Ze względu na zwiększenie globalnego ryzyka związanego z bezpieczeństwem i prywatnością najlepsze rozwiązania dotyczące rozwiązywania naruszeń danych podczas wnioskowania wymagają przestrzegania przepisów w poszczególnych branżach. Przykłady obejmują alerty dotyczące niezgodności z danymi osobowymi i phi oraz danymi osobowymi lub alerty dotyczące naruszenia przepisów dotyczących bezpieczeństwa narodowego/regionalnego.

Następne kroki

Zapoznaj się z wytycznymi dotyczącymi sztucznej inteligencji, aby dowiedzieć się więcej o odpowiedzialnej sztucznej inteligencji.