책임 있는 AI의 의미 준비

완료됨

AI는 우리 시대의 기술을 정의하고 있습니다. AI는 이미 거의 모든 인류의 노력 분야에서 더 빠르고 심오한 진전을 이루고 있으며, 사회의 가장 어려운 과제를 해결하는 데 도움을 주고 있습니다. 예를 들어, AI는 시각 장애가 있는 사용자가 이미지에 대한 설명 텍스트를 생성하여 이미지를 이해하는 데 도움이 될 수 있습니다. 또 다른 예로, AI는 농부들이 증가하는 전 세계 인구를 위해 충분한 식량을 생산하는 데 도움이 될 수 있습니다.

Microsoft는 AI의 계산 지능이 인간의 선천적인 창의성과 독창성을 확장하는 데 사용되어야 한다고 믿습니다. Microsoft의 AI 비전은 모든 개발자에게는 혁신의 능력을, 조직에게는 업계를 혁신하는 능력을, 사람들에게는 사회를 혁신할 능력을 부여하는 것입니다.

AI의 사회적 영향

과거의 모든 위대한 기술 혁신과 마찬가지로 AI 기술도 사회에 광범위한 영향을 미치고, 우리가 보고 싶은 미래에 관한 복잡하고 까다로운 질문을 제기할 것입니다. AI는 업계의 의사 결정, 데이터 보안 및 개인 정보 보호, 직장에서의 성공에 필요한 기술에 영향을 미칩니다. 이러한 미래를 바라보면서 우리는 스스로에게 다음과 같은 질문을 해야 합니다.

  • 개인과 사회에 긍정적인 영향을 주도록 AI 시스템을 설계, 구축, 사용하려면 어떻게 해야 할까요?
  • 근로자들이 AI의 영향에 가장 잘 대비하도록 하려면 어떻게 해야 할까요?
  • 개인 정보를 존중하면서 AI의 혜택을 보려면 어떻게 해야 할까요?

AI에 대한 책임 있는 접근 방식의 중요성

새로운 지능형 기술이 등장하고 사회 전체에 확산되면 그 혜택과 함께 의도하지 않은 예상 못한 결과도 따라옵니다. 일부는 중요한 윤리적 파급 효과와 심각한 피해를 초래할 가능성이 있습니다. 당장은 조직이 미래를 예측할 수 없지만 우리가 세상에 내놓는 기술의 의도하지 않은 결과를 신중한 계획과 감독을 통해 예측하고 완화하기 위해 협력하는 것은 우리의 책임입니다.

위협

AI 기술의 각 혁신은 공동의 책임을 새롭게 상기시켜 줍니다. 예를 들어, 2016년에 Microsoft는 Twitter 사용자와의 상호 작용에서 배울 수 있는 Tay라는 챗봇을 트위터에 출시했습니다. 목표는 챗봇이 인간의 의사 소통과 성격 특성을 더 잘 복제할 수 있도록 하는 것이었습니다. 그러나 24시간 이내에 사용자는 챗봇이 편견이 있는 수사를 배울 수 있다는 것을 깨달았고, 챗봇을 증오 발언을 위한 수단으로 바꾸었습니다. 이 환경은 AI 시스템을 설계할 때 인간의 위협을 고려해야 하는 이유의 한 예입니다.

새로운 위협을 차단하려면 책임 있는 AI에 대한 접근 방식에서 지속적으로 진화해야 합니다. 예를 들어 생성 AI를 사용하면 사람들이 비디오, 이미지 또는 오디오 파일을 만들거나 편집할 수 있고 실제처럼 보일 정도로 신뢰성이 있으므로 미디어 신뢰성을 확인하기가 어렵습니다. 이에 대한 대응으로 Microsoft는 다른 기술 및 뉴스 관련자와 협력하여 딥페이크 관련 조작을 해결하기 위한 기술 표준을 개발하고 있습니다.

참고

Microsoft는 학습 데이터 세트에 영향을 줄 수 있는 새로운 유형의 공격에 대비하기 위해 고급 콘텐츠 필터와 같은 기술을 개발하고 자동 학습 기능을 갖춘 AI 시스템용 감독자를 도입했습니다. Azure AI 서비스 또는 Bing 채팅에서 제공되는 것과 같은 현재 생성 AI 모델은 이러한 인사이트를 기반으로 빌드되었습니다.

편향된 결과

조직이 염두에 두어야 할 또 다른 의도하지 않은 결과는 신중한 계획과 설계가 없을 경우, AI가 사회적 또는 기타 선입견를 강화할 수 있다는 것입니다. 개발자는 학습 데이터나 기계 학습 모델에 편견이 어떻게 유입될 수 있는지 이해하는 것이 중요합니다. 사용자가 학습 데이터를 직접 처리하지 않을 수 있으므로 미리 빌드된 모델에서 이 문제가 만연할 수 있습니다.

예를 들어, 큰 금융 대출 기관과 파트너십을 맺고 대출 승인 위험도 채점 시스템을 개발했다고 해 보겠습니다. 엔지니어는 배포 전에 시스템을 테스트할 때 남성 대출자에 대한 대출만 승인한다는 것을 깨닫습니다. 이 시스템은 과거 고객의 데이터에 대한 교육을 받았기 때문에 대출 담당자의 역사적 성차별적 편견을 재현했습니다. 배포 전에 시스템의 유효성을 검사하면 시스템이 작동하기 전에 문제를 식별하고 해결할 수 있었습니다.

참고

Microsoft의 연구원들은 AI 시스템 내의 바이어스를 탐지하고 줄이는 도구와 기법을 모색하고 있습니다. 미리 빌드된 모델의 유효성은 철저히 검사되지만, 그럼에도 불구하고 현명하게 사용해야 하며 조치를 취하기 전에 항상 결과를 감사해야 합니다.

민감한 사용 사례

의도하지 않은 결과를 완화할 우리의 책임을 보여 주는 또 다른 예는 얼굴 인식과 같은 민감한 기술입니다. 최근 들어 특히 실종 아동 찾기와 같은 사용 사례에서 이 기술의 잠재력을 확인한 법 집행 조직에서 얼굴 인식 기술에 대한 수요가 커지고 있습니다. 그러나 이러한 기술은 기본적인 자유를 위험에 빠뜨릴 수 있다는 것을 알고 있습니다. 예를 들어, 특정 개인을 지속적으로 감시할 수 있습니다. 우리는 정부의 얼굴 인식 기술 사용이 계속 법의 지배를 받도록 하는 등 이러한 기술의 사용에 적절한 경계선을 설정할 책임이 사회에 있다고 믿습니다.

새로운 법률과 규정을 작성해야 하지만, 법과 규정이 AI에 참여하는 동안 우리 모두가 갖는 책임을 대체할 수 있는 것은 아닙니다. 기업, 정부, NGO 및 학술 연구원은 함께 협력하여 민감한 사용 사례를 해결할 수 있습니다.

참고

Microsoft는 얼굴 인식 기술을 사용하여 작업을 관리하는 원칙을 평가하고 개발합니다. 우리가 계속 배우고 고객, 다른 기술 회사, 학계, 시민 사회 및 그 밖의 주체들과 이 문제에 관해 협력하면서 이러한 원칙은 시간이 지남에 따라 진화할 것으로 예상합니다. Microsoft는 책임 있는 AI 사례를 사용하여 이러한 문제를 감지, 방지 및 완화하지만 AI 관련 프로젝트도 모두 이를 고려해야 합니다.

다음으로 책임 있는 AI를 위한 Microsoft의 여섯 가지 지도 원칙을 다른 조직에 적용할 수 있는 방법을 살펴보겠습니다.