Odpowiedzialne rozwiązania z zakresu sztucznej inteligencji
Oparte na zasadach etycznych, które stawiają ludzi na pierwszym miejscu, firma Microsoft jest zaangażowana w rozwój sztucznej inteligencji. Chcemy współpracować z Tobą, aby wspierać to przedsięwzięcie.
Zasady odpowiedzialnego używania sztucznej inteligencji
Podczas implementowania rozwiązań sztucznej inteligencji należy wziąć pod uwagę następujące zasady w rozwiązaniu:
- Sprawiedliwości: Systemy sztucznej inteligencji powinny traktować wszystkie osoby sprawiedliwie.
- Niezawodność i bezpieczeństwo: Systemy sztucznej inteligencji powinny działać niezawodnie i bezpiecznie.
- Prywatność i zabezpieczenia: Systemy sztucznej inteligencji powinny być bezpieczne i przestrzegać prywatności.
- Inkluzywność: Systemy sztucznej inteligencji powinny wspierać wszystkich i angażować ludzi.
- Przejrzystości: Systemy sztucznej inteligencji powinny być zrozumiałe.
- Odpowiedzialność: Osoby powinny być odpowiedzialne za systemy sztucznej inteligencji.
Ustanawianie strategii odpowiedzialnej sztucznej inteligencji
Dowiedz się, jak opracowywać własną strategię i zasady odpowiedzialnego używania sztucznej inteligencji na podstawie wartości organizacji.
Wytyczne dotyczące odpowiedzialnego opracowywania sztucznej inteligencji
Wprowadzenie odpowiedzialnej sztucznej inteligencji w praktyce dzięki tym wytycznym, zaprojektowanym w celu ułatwienia przewidywania i rozwiązywania potencjalnych problemów w całym cyklu życia tworzenia oprogramowania.
- Wskazówki dotyczące interakcji między ludźmi a sztuczną inteligencją
- Wskazówki dotyczące konwersacyjnej sztucznej inteligencji
- Wytyczne dotyczące projektowania inkluzywnego
- Lista kontrolna dotycząca sprawiedliwości sztucznej inteligencji
Datasheets for Datasets
Szablonu- Wskazówki dotyczące inżynierii zabezpieczeń sztucznej inteligencji
Narzędzia odpowiedzialnego używania sztucznej inteligencji
Dostępne są narzędzia ułatwiające deweloperom i analitykom danych zrozumienie, ochronę i kontrolowanie systemów sztucznej inteligencji. Te narzędzia mogą pochodzić z różnych źródeł, w tym usługi Azure Machine Learning, projektów open source i badań.
- Zrozumieć: Systemy sztucznej inteligencji mogą zachowywać się nieoczekiwanie z różnych powodów. Narzędzia programowe mogą ułatwić zrozumienie zachowania systemów sztucznej inteligencji, dzięki czemu można je lepiej dostosować do własnych potrzeb. Przykłady tego typu narzędzia to InterpretML, Analiza błędów i Fairlearn.
- Chronić: Systemy sztucznej inteligencji opierają się na danych. Narzędzia programowe mogą pomóc chronić te dane, zachowując prywatność i zapewniając poufność. Przykładami tego typu narzędzia są poufne obliczenia dla uczenia maszynowego, zestawu narzędzi do ochrony prywatności różnicowej SmartNoise, zestawu narzędzi SEAL Homomorficznego szyfrowania oraz zestawu narzędzi do usuwania identyfikacji danych Presidio.
- Kontroli: Odpowiedzialna sztuczna inteligencja wymaga ładu i kontroli w cyklu programowania. Usługa Azure Machine Learning umożliwia rejestrowanie inspekcji w celu zapewnienia lepszej możliwości śledzenia, pochodzenia i kontroli w celu spełnienia wymagań prawnych. Przykłady obejmują dziennik inspekcji i możliwość śledzenia.
Następne kroki
Aby uzyskać więcej informacji o tworzeniu odpowiedzialnego rozwiązania, odwiedź stronę:
Opinia
https://aka.ms/ContentUserFeedback.
Dostępne już wkrótce: W 2024 r. będziemy stopniowo wycofywać zgłoszenia z serwisu GitHub jako mechanizm przesyłania opinii na temat zawartości i zastępować go nowym systemem opinii. Aby uzyskać więcej informacji, sprawdź:Prześlij i wyświetl opinię dla