Přeskočit na hlavní obsah

Tento prohlížeč se už nepodporuje.

Upgradujte na Microsoft Edge, abyste mohli využívat nejnovější funkce, aktualizace zabezpečení a technickou podporu.

Stáhnout Microsoft Edge Další informace o Internet Exploreru a Microsoft Edgi
Číst v angličtině

Sdílet prostřednictvím

Facebook x.com LinkedIn E-mail

Microsoft AI Red Team

Naučte se chránit AI vaší organizace pomocí pokynů a osvědčených postupů od špičkového týmu Microsoft AI Red Team.

Informace o AI Red Team

Přehled

  • Co je seskupování AI Red a jak Microsoft vytváří bezpečnější AI?

Praktický průvodce

  • Příručka pro vytváření AI Red Teams pro LLMs

Reference

  • Zodpovědné nástroje a postupy umělé inteligence
  • Zodpovědné posouzení dopadu a standardu AI

Příprava

Přehled

  • Open Automation Framework od Microsoftu pro red team generative AI Systems (PyRIT)

Praktický průvodce

  • Průvodce PyRIT

Reference

  • Posouzení rizik umělé inteligence pro techniky STROJOVÉho učení
  • Model sdílené odpovědnosti AI

Principy hrozeb

Praktický průvodce

  • Pokyny k modelování hrozeb pro vývojáře pro systémy ML

Koncepce

  • Taxonomie pro selhání strojového učení

Reference

  • Panel chyb pro útoky na třídění v systémech STROJOVÉho učení

Zkoumání zabezpečených řešení

Koncepce

  • Metodologie bezpečnosti sladění řady jazykových modelů Phi-3

Reference

  • Podnikové zabezpečení a zásady správného řízení pro službu Azure Machine Learning
  • Co je Zabezpečení obsahu Azure AI?
  • Strategie zmírnění škod s využitím Azure AI
  • Monitorování kvality a bezpečnosti nasazených aplikací toku výzvy

Poučení

Školení

  • Školení zabezpečení AI

Přehled

  • Lekce z červeného seskupování 100 generativních produktů AI
cs-cz
Vaše volby ochrany osobních údajů
  • Právní omezení AI
  • Předchozí verze
  • Blog
  • Přispět
  • Ochrana osobních údajů
  • Podmínky použití
  • Ochranné známky
  • © Microsoft 2026