다음을 통해 공유


신뢰할 수 있는 AI를 위한 Azure AI Foundry

이 문서에서는 신뢰할 수 있는 에이전트를 빌드하고 배포하기 위한 리소스에 대한 개요를 제공합니다. 여기에는 에이전트 수명 주기의 모든 단계에서 제어 및 검사점을 사용하는 엔드 투 엔드 보안, 관찰 가능성 및 거버넌스가 포함됩니다. 권장되는 필수 개발 단계는 Microsoft 책임 AI 표준기반하여 자체 엔지니어링 팀이 따르는 정책 요구 사항을 설정합니다. 표준 콘텐츠의 대부분은 패턴에 따라 팀에 잠재적 콘텐츠 위험을 검색, 보호 및 제어하도록 요청합니다.

Microsoft의 접근 방식은 AI 원칙에 기반한 거버넌스 프레임워크에 의해 인도되며, 이는 제품 요구 사항을 설정하고 "북성"으로 작용합니다. 생성 AI에 대한 비즈니스 사용 사례를 식별할 때 먼저 AI 시스템의 잠재적 위험을 검색하고 평가하여 중요한 포커스 영역을 정확히 파악합니다.

이러한 위험을 식별하면 체계적인 측정을 통해 AI 시스템 내에서 해당 보급을 평가하여 주의가 필요한 영역의 우선 순위를 지정하는 데 도움이 됩니다. 그런 다음 이러한 위험에 대해 모델 및 에이전트 수준에서 적절한 보호를 적용합니다.

마지막으로, 배포 및 운영 준비 상태, 지속적인 거버넌스를 지원하기 위한 모니터링 설정 등 프로덕션의 위험을 관리하기 위한 전략을 검토하여 애플리케이션이 라이브 상태인 후 규정 준수를 보장하고 새로운 위험을 노출합니다.

Microsoft의 RAI 사례에 따라 이러한 권장 사항은 다음 세 단계로 구성됩니다.

  • 배포 전후 에이전트 품질, 안전 및 보안 위험을 검색합니다.
  • 보안 위험, 바람직하지 않은 출력 및 안전하지 않은 작업으로부터 모델 출력 및 에이전트 런타임 수준 모두에서 보호합니다.
  • 추적 및 모니터링 도구 및 규정 준수 통합을 통해 에이전트를 관리합니다.

보안 경고 및 권장 사항

Defender for Cloud 보안 경고 및 권장 사항을 확인하여 위험 + 경고 섹션에서 보안 상태를 개선할 수 있습니다. 보안 경고는 AI 워크로드에서 위협이 식별될 때 Defender for AI Services 계획에서 생성되는 알림입니다. 이러한 경고를 해결하기 위해 Azure Portal 또는 Defender 포털에서 작업을 수행할 수 있습니다.

책임감 있는 AI에 대해 자세히 알아보기