Resumé
Dette modul har givet en indledende udforskning af AI-sikkerhedstest, lige fra forståelse af AI-systemers unikke udfordringer til planlægning og udførelse af effektive røde teamingøvelser. I takt med at kunstig intelligens fortsætter med at udvikle sig, skal vores tilgange til sikkerhed og sikkerhed også gøre ai-teamets praksisser vigtige for at bevare integriteten og troværdigheden af AI-løsninger.
Yderligere læsning
Følgende artikler og videopræsentationer indeholder flere oplysninger om Microsofts tilgang til rød AI-teaming.
Azure OpenAI Service – Azure OpenAI-
Azure OpenAI Service-indholdsfiltrering – Azure OpenAI-
Hvordan Microsoft nærmer sig AI Red Teaming-