Lompati ke konten utama

Browser ini sudah tidak didukung.

Tingkatkan ke Microsoft Edge untuk memanfaatkan fitur, pembaruan keamanan, dan dukungan teknis terkini.

Unduh Microsoft Edge Informasi selengkapnya tentang Internet Explorer dan Microsoft Edge
Baca dalam bahasa Inggris

Bagikan melalui

Facebook x.com LinkedIn Email

Tim Microsoft AI Red

Pelajari cara melindungi AI organisasi Anda dengan panduan dan praktik terbaik dari Tim Microsoft AI Red terkemuka di industri.

Tentang AI Red Team

Gambaran Umum

  • Apa itu tim AI Red dan bagaimana Microsoft membangun AI yang lebih aman?

Panduan Penggunaan

  • Panduan untuk membangun AI Red Teams untuk LLM

Referensi

  • Alat dan praktik AI yang bertanggung jawab
  • Penilaian standar dan dampak AI yang bertanggung jawab

Menyiapkan

Gambaran Umum

  • Open Automation Framework microsoft ke Red Team Generative AI Systems (PyRIT)

Panduan Penggunaan

  • Panduan Cara PyRIT

Referensi

  • Penilaian Risiko AI untuk Teknisi ML
  • Model tanggung jawab bersama AI

Memahami Ancaman

Panduan Penggunaan

  • Panduan pemodelan ancaman pengembang untuk sistem ML

Konsep

  • Taksonomi untuk kegagalan pembelajaran mesin

Referensi

  • Bug Bar untuk triase serangan pada sistem ML

Menjelajahi solusi aman

Konsep

  • Metodologi untuk keamanan yang menyelaraskan seri model bahasa Phi-3

Referensi

  • Keamanan dan tata kelola perusahaan untuk Azure Machine Learning
  • Apa itu Azure AI Content Safety?
  • Membahayakan strategi mitigasi dengan Azure AI
  • Memantau kualitas dan keamanan aplikasi alur prompt yang disebarkan

Pelajaran

Gambaran Umum

  • Pelajaran dari tim merah 100 produk AI generatif
id-id
Pilihan Privasi Anda
  • Pengelakan AI
  • Versi Sebelumnya
  • Blog
  • Berikan kontribusi
  • Privasi
  • Persyaratan Penggunaan
  • Merek Dagang
  • © Microsoft 2026