Omówienie odpowiedzialnej sztucznej inteligencji

Ukończone

W firmie Microsoft opracowywanie oprogramowania sztucznej inteligencji odbywa się zgodnie z zestawem sześciu zasad, mających na celu zapewnienie, że aplikacje AI zapewniają niezwykłe rozwiązania pod kątem trudnych problemów bez jakichkolwiek niezamierzonych negatywnych skutków.

Sprawiedliwość

Systemy sztucznej inteligencji powinny traktować wszystkich ludzi sprawiedliwie. Załóżmy na przykład, że tworzysz model uczenia maszynowego do obsługi aplikacji zatwierdzenia wniosków o pożyczkę dla banku. Model powinien przewidzieć, czy pożyczka powinna zostać zatwierdzona, czy odrzucona bez uprzedzeń. Stronniczość ta może być oparta na płci, pochodzeniu etnicznym lub innych czynnikach, które powodują nieuczciwą przewagę lub wadę dla określonych grup wnioskodawców.

Usługa Azure Machine Learning obejmuje możliwość interpretowania modeli i określania zakresu, w jakim każda z cech danych wpływa na prognozę modelu. Ta funkcja pomaga analitykom danych i deweloperom identyfikować i ograniczać stronniczość modelu.

Innym przykładem jest implementacja odpowiedzialnej sztucznej inteligencji firmy Microsoft z usługą rozpoznawania twarzy, która umożliwia wycofanie funkcji rozpoznawania twarzy, które mogą służyć do wnioskowania stanów emocjonalnych i atrybutów tożsamości. Te możliwości, w przypadku nieprawidłowego użycia, mogą podlegać stereotypom, dyskryminacji lub niesprawiedliwej odmowy usług.

Aby uzyskać więcej szczegółów na temat kwestii związanych z uczciwością, obejrzyj poniższy materiał wideo.

Niezawodność i bezpieczeństwo

Systemy sztucznej inteligencji powinny działać niezawodnie i bezpiecznie. Rozważmy na przykład system oprogramowania oparty na sztucznej inteligencji dla pojazdu autonomicznego; lub model uczenia maszynowego, który diagnozuje objawy pacjenta i zaleca recepty. Brak odpowiedzialności w tego rodzaju systemach może spowodować znaczne ryzyko dla życia ludzkiego.

Tworzenie aplikacji opartych na sztucznej inteligencji musi podlegać rygorystycznym testom i procesom zarządzania wdrażaniem w celu zapewnienia, że działają one zgodnie z oczekiwaniami przed wydaniem.

Aby uzyskać więcej informacji o kwestiach związanych z niezawodnością i bezpieczeństwem, obejrzyj poniższy materiał wideo.

Prywatność i zabezpieczenia

Systemy sztucznej inteligencji powinny być bezpieczne i uwzględniać ochronę prywatności. Modele uczenia maszynowego, na których opierają się systemy sztucznej inteligencji, wykorzystują duże ilości danych mogących zawierać dane osobowe, które muszą być chronione. Nawet po wytrenowanym modelu, a system jest w środowisku produkcyjnym, należy wziąć pod uwagę prywatność i bezpieczeństwo. Ponieważ system używa nowych danych do przewidywania lub podjęcia działań, zarówno dane, jak i decyzje podejmowane z tych danych mogą podlegać obawom dotyczącym prywatności lub bezpieczeństwa.

Aby uzyskać więcej informacji na temat zagadnień związanych z ochroną prywatności i bezpieczeństwem, obejrzyj poniższy materiał wideo.

Brak wykluczeń

Systemy sztucznej inteligencji powinny dawać wszystkim większe możliwości i angażować ludzi. Sztuczna inteligencja powinna zapewniać korzyści wszystkim grupom społecznym, niezależnie od ich zdolności fizycznych, płci, orientacji seksualnej, pochodzenia etnicznego czy innych czynników.

Aby uzyskać więcej szczegółów na temat kwestii związanych z brakiem wykluczeń, obejrzyj poniższy materiał wideo.

Przezroczystość

Systemy sztucznej inteligencji powinny być zrozumiałe. Użytkownicy powinni być w pełni świadomi przeznaczenia systemu, sposobu jego działania oraz ograniczeń, jakich można się spodziewać.

Aby uzyskać więcej szczegółów na temat kwestii związanych z przejrzystością, obejrzyj poniższy materiał wideo.

Odpowiedzialności

Ludzie powinni być odpowiedzialni za systemy sztucznej inteligencji. Projektant i deweloperzy rozwiązań opartych na sztucznej inteligencji powinni działać w ramach zasad ładu i organizacji, które zapewniają, że rozwiązanie spełnia standardy etyczne i prawne, które są jasno zdefiniowane.

Aby uzyskać więcej szczegółów na temat kwestii związanych z odpowiedzialnością, obejrzyj poniższy materiał wideo.

Zasady odpowiedzialnego używania sztucznej inteligencji mogą pomóc zrozumieć niektóre wyzwania stojące przed deweloperami, którzy starają się tworzyć etyczne rozwiązania w zakresie sztucznej inteligencji.

Inne zasoby

Aby zapoznać się z dodatkowymi zasobami, które pomogą wdrożyć zasady odpowiedzialnego używania sztucznej inteligencji, zobacz https://www.microsoft.com/ai/responsible-ai-resources.

Aby zobaczyć te zasady w działaniu, możesz przeczytać o strukturze firmy Microsoft w celu odpowiedzialnego tworzenia systemów sztucznej inteligencji.