Podsumowanie

Zakończone

Microsoft i GitHub to liderzy i innowatorzy w przestrzeni sztucznej inteligencji. Jesteśmy zobowiązani do zapewnienia, że systemy sztucznej inteligencji są opracowywane i używane w sposób bezpieczny, godny zaufania i etycznie zdrowy.

Sześć podstawowych zasad kieruje naszym podejściem:

  • Sprawiedliwość
  • Niezawodność i bezpieczeństwo
  • Prywatność i zabezpieczenia
  • Brak wykluczeń
  • Przezroczystość
  • Odpowiedzialność

Naszym celem jest zapewnienie, że systemy sztucznej inteligencji priorytetują ludzi i podtrzymują podstawowe wartości, takie jak sprawiedliwość, niezawodność i przejrzystość.

Zachęcamy również inne organizacje do przyjęcia tych standardów i mamy nadzieję, że dostarczając zasoby takie jak w tym module, możemy pomóc deweloperom w tworzeniu skutecznych, bezpiecznych i przejrzystych rozwiązań sztucznej inteligencji.

Cieszymy się, że możesz rozpocząć własną podróż z użyciem sztucznej inteligencji i zachęcić Cię do podejścia do niego z odpowiedzialnością.

Podsumowując, w tym module omówiliśmy następujące zagadnienia:

  • Zapoznaj się z zasadami odpowiedzialnego użycia sztucznej inteligencji i zastosuj je.
  • Identyfikowanie ograniczeń i ograniczanie ryzyka związanego ze sztuczną inteligencją.
  • Poznaj najlepsze rozwiązania dotyczące zapewniania, że kod generowany przez sztuczną inteligencję jest zgodny ze standardami etycznymi i wymaganiami specyficznymi dla projektu.
  • Rozpoznawanie znaczenia przejrzystości i odpowiedzialności w systemach sztucznej inteligencji w celu budowania zaufania i utrzymania zaufania użytkowników.

Aby uzyskać więcej informacji na temat odpowiedzialnej sztucznej inteligencji, zapoznaj się z następującymi zasobami:

Prześlij opinię

Użyj tego formularza problemu , aby przekazać opinię na temat zawartości lub sugerowane zmiany dla tego modułu Microsoft Learn. GitHub utrzymuje tę zawartość, a członek zespołu przeanalizuje żądanie. Dziękujemy za poświęcenie czasu na ulepszenie naszej zawartości!