Naar hoofdinhoud gaan

Deze browser wordt niet meer ondersteund.

Upgrade naar Microsoft Edge om te profiteren van de nieuwste functies, beveiligingsupdates en technische ondersteuning.

Microsoft Edge downloaden Meer informatie over Internet Explorer en Microsoft Edge
Lezen in het Engels

Delen via

Facebook x.com LinkedIn E-mail

Microsoft AI Red Team

Leer hoe u de AI van uw organisatie kunt beveiligen met richtlijnen en best practices van het toonaangevende Microsoft AI Red Team.

Over AI Red Team

Overzicht

  • Wat is AI Red-teaming en hoe Microsoft veiligere AI bouwt?

Instructies

  • Handleiding voor het bouwen van AI Red Teams voor LLM's

Referentie

  • Verantwoorde AI-hulpprogramma's en -procedures
  • Verantwoorde AI-standaard en impactbeoordeling

Voorbereiding

Overzicht

  • Open Automation Framework van Microsoft naar Red Team Ative AI Systems (PyRIT)

Instructies

  • PyRIT-handleiding

Referentie

  • AI-risicoanalyse voor ML-technici
  • Ai-model voor gedeelde verantwoordelijkheid

Inzicht in bedreigingen

Instructies

  • Richtlijnen voor threat modeling voor ontwikkelaars voor ML-systemen

Concept

  • Taxonomie voor machine learning-fouten

Referentie

  • Bug Bar voor het classificeren van aanvallen op ML-systemen

Veilige oplossingen verkennen

Concept

  • Methodologie voor het uitlijnen van de Phi-3-serie taalmodellen

Referentie

  • Bedrijfsbeveiliging en -governance voor Azure Machine Learning
  • Wat is Azure AI Content Safety?
  • Risicobeperkingsstrategieën met Azure AI
  • De kwaliteit en veiligheid van geïmplementeerde promptstroomtoepassingen bewaken

Geleerde lessen

Training

  • AI-beveiligingstraining

Overzicht

  • Lessen van rode teaming 100 generatieve AI-producten
nl-nl
Uw privacykeuzes
  • AI Disclaimer
  • Vorige versies
  • Blog
  • Bijdragen
  • Privacy
  • Gebruiksvoorwaarden
  • Handelsmerken
  • © Microsoft 2025