Umieszczanie odpowiedzialnych struktur sztucznej inteligencji w działaniu

Ukończone

Jak wspomniano w poprzedniej lekcji, firma Microsoft opracowała i udoskonaliła własny proces wewnętrzny w celu odpowiedzialnego zarządzania sztuczną inteligencją. W tej lekcji wyjaśniono, jak działa ten system zapewniania ładu w rzeczywistej sytuacji. Chociaż każda organizacja potrzebuje własnych unikatowych struktur ładu i procesów przeglądu, uważamy, że nasza struktura wrażliwego użycia może służyć jako przydatny punkt wyjścia. Jednym z wczesnych kroków firmy Microsoft w procesie zapewniania ładu w zakresie odpowiedzialnego używania sztucznej inteligencji było użycie wyzwalacza przeglądu użycia poufnego. Struktura pomogła naszym zespołom wewnętrznym i zespołom dostępnym dla klientów zidentyfikować, kiedy konkretne przypadki użycia wymagają dodatkowych wskazówek.

Struktura wrażliwych przypadków użycia firmy Microsoft

Zgodnie z naszą dokumentacją dotyczącą ładu w zakresie odpowiedzialnego używania sztucznej inteligencji rozważmy scenariusz tworzenia lub wdrażania sztucznej inteligencji "wrażliwego użycia", jeśli należy on do co najmniej jednej z następujących kategorii:

  • Odmowa usług konsekwencji: scenariusz obejmuje użycie sztucznej inteligencji w sposób, który może bezpośrednio spowodować odmowę świadczenia usług lub wsparcia dla osoby fizycznej (na przykład finansowe, mieszkaniowe, ubezpieczeniowe, edukacyjne, zatrudnienie lub usługi opieki zdrowotnej).
  • Ryzyko uszkodzenia: scenariusz obejmuje użycie sztucznej inteligencji w sposób, który może spowodować znaczne ryzyko uszkodzenia fizycznego, emocjonalnego lub psychicznego osoby (na przykład decyzji o życiu lub śmierci w wojskowych, krytycznych dla bezpieczeństwa środowiskach produkcyjnych, kontekstach opieki zdrowotnej, prawie każdym scenariuszu obejmującym dzieci lub inne osoby narażone itd.).
  • Naruszenie praw człowieka: Scenariusz obejmuje wykorzystanie sztucznej inteligencji w sposób, który może spowodować znaczne ograniczenie wolności osobistej, opinii lub wypowiedzi, zgromadzenia lub stowarzyszenia, prywatności itd. (na przykład w organach ścigania lub policji).

Szkolimy naszych pracowników do korzystania z tej struktury w celu określenia, czy przypadek użycia sztucznej inteligencji należy oznaczyć do późniejszego przeglądu — niezależnie od tego, czy jest to sprzedawca pracujący z klientem, czy osoba pracująca nad wewnętrznym rozwiązaniem z zakresu sztucznej inteligencji. Szkolimy także ekspertów ds. odpowiedzialnej sztucznej inteligencji do pełnienia swojej roli jako łączników między pracownikami a centralnymi zespołami ds. ładu.

Proces przeglądu dla wrażliwych przypadków użycia firmy Microsoft

Proces przeglądu poufnych przypadków użycia obejmuje trzy etapy: identyfikację, ocenę i środki zaradcze. Aby lepiej zilustrować ten proces, rzeczywiste badanie przypadku łączy wyjaśnienie każdego kroku. W tym badaniu przypadku klient przyszedł do nas na system rozpoznawania twarzy.

Identyfikator

Jeśli pracownik określi, że przypadek użycia należy do jednej z trzech kategorii (odmowa usług konsekwencji, ryzyko szkody lub naruszenie praw człowieka), zgłasza je. Raportowanie odbywa się za pośrednictwem centralnego narzędzia do przesyłania, a następnie kierowanego do lokalnego eksperta ds. odpowiedzialnej sztucznej inteligencji, osoby odpowiedzialnej za świadomość i zrozumienie zasad, standardów i wskazówek dotyczących odpowiedzialnej sztucznej inteligencji w firmie.

W tym przypadku agencja organów ścigania zwróciła się do nas o opracowanie systemu rozpoznawania twarzy w celu rozszerzenia istniejących metod weryfikacji tożsamości. Scenariusze obejmowały używanie rozpoznawania twarzy do sprawdzania tożsamości kierowców podczas zatrzymywania ruchu, przyspieszenia procesu ewidencjonowania w więzieniach oraz weryfikowania tożsamości więźniów podczas przechodzenia przez obiekt. Pracownik przesłał te trzy przypadki użycia za pośrednictwem centralnego narzędzia do przeglądu odpowiedzialnej sztucznej inteligencji.

Ocena

Ekspert ds. odpowiedzialnej sztucznej inteligencji, pracujący z biurem odpowiedzialnej sztucznej inteligencji i zespołem firmy Microsoft zaangażowanym w przypadek użycia, bada przypadek w celu zebrania odpowiednich faktów, śledzi proces z przewodnikiem w celu oceny wpływu proponowanego systemu na osoby i społeczeństwo oraz przegląda wcześniejsze przypadki w celu ustalenia, czy wskazówki już istnieją w podobnym scenariuszu. Jeśli wcześniejsze wskazówki nie istnieją lub jeśli sprawa wymaga większej wiedzy i oceny, ekspert ds. odpowiedzialnej sztucznej inteligencji przedstawia sprawę grupie roboczej Wrażliwe zastosowania Komitetu Aether.

W tym przypadku rozpoznawania twarzy ekspert ds. odpowiedzialnej sztucznej inteligencji ściśle współpracował z biurem ds. odpowiedzialnej sztucznej inteligencji, zespołami ds. kont i klientami w celu oceny ryzyka. Podjęto decyzję, że wszystkie trzy przypadki muszą być eskalowane do grupy roboczej Aether Sensitive Uses w celu uzyskania dalszych danych wejściowych, ponieważ dotykały co najmniej jednego wrażliwego użycia sztucznej inteligencji.

Czynności zapobiegawcze

Grupa robocza ds. wrażliwego użycia dyskutuje przy udziale różnych grup ekspertów, a następnie udostępnia analizę i rekomendacje dotyczące sposobu obsługi ryzyka skojarzonego z konkretnym przypadkiem użycia. Jeśli sytuacja wymaga dalszej eskalacji, sprawy mogą wzrosnąć aż do samego Komitetu Aether, który bezpośrednio doradza starszemu zespołowi kierowniczemu. Ostatecznie starszy zespół kierowniczy podejmuje decyzje w sprawie nowatorskich spraw o dużym wpływie.

Uwaga

W ramach przeglądu wrażliwych przypadków użycia zalecamy zebranie różnorodnej grupy osób z różnymi doświadczeniami i wiedzą. Ważne jest również stworzenie przestrzeni inkluzywnej, w której każdy czuje się komfortowo dzieląc się swoimi pomysłami i perspektywami.

Po przejrzeniu przypadku ekspert ds. odpowiedzialnej sztucznej inteligencji pracuje z Biurem ds. odpowiedzialnej sztucznej inteligencji w celu udostępnienia zespołowi projektowemu wskazówek dotyczących strategii minimalizacji ryzyka, które są zgodne z naszymi praktykami i zasadami dotyczącymi odpowiedzialnej sztucznej inteligencji. Te strategie minimalizacji ryzyka mogą obejmować środki techniczne, szkolenie pracowników i elementy ładu, a także modyfikacje zakresu projektu. Czasem nasze zespoły otrzymywały rekomendację, aby nie kontynuować pewnych projektów, ponieważ nie mogliśmy dostarczyć ich w sposób zachowujący nasze zasady.

W przypadku użycia grupa robocza Aether Sensitive Używa podejmowania oddzielnych decyzji dla każdego ze scenariuszy. Po starannym rozważeniu ustalili, że nie będziemy wspierać scenariusza patrolowania, aby zidentyfikować "osoby zainteresowane" podczas przystanków drogowych. Ponieważ stan technologii i szerszy ekosystem nie były wystarczająco dojrzałe, aby ograniczyć szkodliwe konsekwencje, gdy technologia działa niedoskonałe, grupa robocza Aether uznała ten scenariusz za przedwczesny przypadek użycia.

Wyjaśniliśmy problemy klientowi i zdecydowali się nie realizować tego scenariusza.

Uwaga

Poparte badaniami: próba identyfikacji osób w niekontrolowanych środowiskach może naruszać prawa człowieka, co powoduje niewłaściwe aresztowania z powodu błędnej identyfikacji. Badania wykazały, że sztuczna inteligencja jest bardziej skłonna do błędu tożsamości kobiet i mniejszości, co może również prowadzić do nieproporcjonalnego zatrzymania tych populacji.1

W przypadku przypadków użycia w obiekcie postanowiliśmy, że możemy wspierać projektowanie i opracowywanie weryfikacji koncepcji, z zabezpieczeniami w celu zapewnienia odpowiedniej kontroli człowieka nad rozwiązaniem, a można ustanowić pętlę dwukierunkowej opinii między klientem a firmą Microsoft. Ważne było również, aby klient zaimplementował program szkoleniowy na potrzeby interakcji personelu z rozwiązaniami i że klient będzie ponownie współpracować z firmą Microsoft w przypadku wdrożeń poza tymi obsługiwanymi scenariuszami.

Ewolucja ładu w zakresie sztucznej inteligencji

Teraz, gdy już wiesz, jak działa nasz proces, ważne jest, aby powtórzyć — jesteśmy na początku opracowywania ładu w zakresie sztucznej inteligencji. Procesy związane ze sztuczną inteligencją szybko ewoluują. W przyszłości planujemy udoskonalenie naszych zasad ładu w miarę dalszego inwestowania w sztuczną inteligencję i zalecamy, aby inne firmy robiły to samo. Każda organizacja musi dostosować swój proces przeglądu na podstawie własnych potrzeb i dojrzałości sztucznej inteligencji, ale mamy nadzieję, że nasz proces może służyć jako przydatny punkt wyjścia.

Teraz podsumujmy całą zdobytą wiedzę, wypełniając test wiedzy.