AI 거버넌스를 위한 시스템 적용

완료됨

어떤 거버넌스 접근 방식을 선택하든 촉진해야 하는 몇 가지 모범 사례가 있습니다.

  • 리소스를 사용 가능하게 만들기: 직원들에게는 책임 있는 AI 원칙을 배우고 업무에 통합하기 위한 지침이 필요합니다. 핸드북, 설명서 또는 학습 세션이 여기에 도움이 됩니다.

  • 중앙 집중식 AI 인벤토리 만들기: 조직에서 작동하는 모든 AI 모델 및 시스템 목록을 마련하는 것은 노력의 우선 순위를 지정하고 리소스를 최적화하는 데 중요합니다. 또한 감사 및 규정 준수 테스트를 더 쉽게 만드는 것도 유용합니다.

  • 도구 개발: 조직에서 모든 AI 시스템의 규정 준수를 확인하는 것은 대단히 소모적일 수 있습니다. 이 작업을 자동화하는 도구를 빌드하는 것이 좋습니다. 이러한 도구는 시스템을 모니터링 및 유효성을 검사하고 성능 메트릭 밖으로 이동하는 경우 플래그를 일으킵니다.

더 구체적인 프로세스와 정책은 회사가 타사 시스템을 사용 중인지 사내에서 AI 시스템을 개발 중인지에 따라 달라집니다. Microsoft는 이 요인을 기반으로 회사의 AI 참여 관리에 도움이 되는 권장 사항을 제공했습니다.

타사 AI 시스템

조직이 즉시 사용할 수 있는 타사 AI 솔루션을 활용할 계획이라면 책임 있는 AI에 대한 해당 타사의 노력에 대해 조사하여 조직의 자체 원칙에 맞는지 확인하는 것이 좋습니다.

사용자 지정 AI 솔루션의 경우, 제안 요청서에 조직의 원칙 또는 표준을 포함시키는 것이 좋습니다. 타사 AI 솔루션을 배포하기 전에 시스템을 안전하게 작동하고 모니터링하는 방법에 대한 지침을 만듭니다. 이러한 지침에 대해 직원을 교육하고 준수하고 있는지 확인합니다. 마지막으로 거버넌스 시스템은 AI 시스템이 엄격하게 테스트되었는지 확인해야 합니다.

자사 AI 시스템

조직에서 AI 솔루션을 개발하거나 기존 제품 및 서비스에 AI를 통합하려는 경우 각 팀 역할마다 몇 가지 작업이 있습니다.

윤리적 거버넌스 시스템은 다음을 수행해야 합니다.

  • 특히 민감한 사용 사례의 경우 새 AI 시스템을 릴리스하기 전에 거버넌스 시스템이 새 AI 시스템을 검토하게 하거나 자문을 제공합니다.

  • 또한 AI나 AI 통합 제품 및 서비스를 판매하기 전에 회사의 모든 계층의 직원이 자유롭게 윤리적 우려를 표명하도록 하는 것이 좋습니다.

  • 사례를 분석하고 AI 시스템을 설계, 개발 또는 판매하는 동안 문제가 발생할 경우 위험을 완화하는 지침을 제공합니다.

  • 시간에 따른 모델 드리프트 및 붕괴를 탐지하고 완화하기 위해 AI 시스템을 모니터링하는 프로세스를 만듭니다.

개발자는 다음을 수행해야 합니다.

  • 조직의 윤리 원칙을 반영하여 AI 솔루션을 설계하고 개발하는 데 도움이 될 수 있는 상세하고 철저한 표준 지침을 제공받습니다.

  • 얼굴 인식 또는 생성 AI와 같은 특정 AI 기술에 대한 지침 및 검사 목록을 마련합니다.

외부 이해 관계자의 참여

우리는 AI 사용이 점점 일반화됨에 따라 책임 있는 AI 참여가 민간 부문과 공공 부문의 공동 책임이라고 생각합니다. 기업, 공공 조직, 정부 및 비영리 단체 간의 협업은 모범 사례를 보장하는 동시에 AI의 잠재력을 극대화하여 광범위한 이점을 제공하는 데 매우 중요합니다.

조직은 다양한 방법으로 이러한 집단적 노력에 기여할 수 있습니다. Microsoft는 업계 프로젝트에 참여하고, 정책에 영향을 미치며, 미래의 노동력 및 인력 수요를 해결하고, 전 세계인의 삶을 개선하는 데 우리 기술을 활용할 방법을 고려하는 데 주력해 왔습니다. 예를 들어, Microsoft는 책임 있는 방식의 AI 개발 및 활용에 전념하는 연구자, 비영리 조직, 비정부 조직(NGO)의 그룹인 Partnership on AI(PAI)에 가입했습니다.

다음으로, Microsoft를 예로 사용하여 실제 회사에서 AI 거버넌스 시스템이 작동하는 방식을 살펴보겠습니다.