Podsumowanie

Ukończone

W tym module omówiliśmy znaczenie instalowania sztucznej inteligencji w odpowiedzialny, etyczny sposób. Omówiliśmy niektóre kroki, które firma Microsoft podejmuje, aby określić priorytety odpowiedzialnej sztucznej inteligencji w nadziei, że nasze doświadczenie może pomóc innym. Zdajemy sobie jednak sprawę, że nie mamy wszystkich odpowiedzi. Każda osoba, firma i region mają własne przekonania i standardy, które powinny być odzwierciedlane na drodze do odpowiedzialnej sztucznej inteligencji. Powinniśmy również uznać, że jako organizacje i społeczeństwo nasze kroki w kierunku odpowiedzialnej sztucznej inteligencji muszą stale ewoluować, aby odzwierciedlać nowe innowacje i wnioski zarówno z naszych błędów, jak i osiągnięć. Wspomniane procesy, narzędzia i zasoby mogą być punktem początkowym, na podstawie którego organizacje mogą tworzyć własne strategie sztucznej inteligencji.

Zapoznanie się z tym modułem powinno zapewnić Ci następujące umiejętności:

  • Opis znaczenia odpowiedzialnego korzystania ze sztucznej inteligencji.
  • Określenie sześciu wytycznych dotyczących odpowiedzialnego tworzenia i używania sztucznej inteligencji.
  • Opis udanych praktyk dotyczących ładu w zakresie odpowiedzialnego używania sztucznej inteligencji.

Użyj tych zasobów, aby dowiedzieć się więcej

Napiwek

Aby otworzyć hiperlink, kliknij prawym przyciskiem myszy i wybierz polecenie Otwórz na nowej karcie lub w oknie. Dzięki temu możesz zobaczyć zasób i łatwo powrócić do modułu.

  • Aby ocenić, w jaki sposób organizacja jest obecnie zaangażowana w praktyki odpowiedzialnej sztucznej inteligencji i które następne kroki należy wykonać, przeczytaj nasz model odpowiedzialnej dojrzałości do sztucznej inteligencji.
  • Aby dowiedzieć się więcej na temat wspólnych inicjatyw branżowych dotyczących odpowiedzialnej sztucznej inteligencji, przeczytaj stronę główną Partnership on AI (Partnerstwo na stronie głównej sztucznej inteligencji).
  • Aby dowiedzieć się więcej o narzędziach firmy Microsoft ułatwiających tworzenie przejrzystych modeli i unikanie uprzedzeń i nieuczciwych wyników, przeczytaj stronę główną pulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji.
  • Aby dowiedzieć się więcej o narzędziach open source do tworzenia sprawiedliwych systemów sztucznej inteligencji, przeczytaj stronę główną FairLearn.
  • Aby dowiedzieć się więcej na temat praktyk projektowania inkluzywnego, przeczytaj stronę główną projektu inkluzywnego firmy Microsoft i podręcznik Inclusive 101.

Informacje

  1. Reuters, "Microsoft odrzucił sprzedaż rozpoznawania twarzy w obawach dotyczących praw człowieka." Joseph Menn, 17 kwietnia 2019.