다음을 통해 공유


책임 있는 AI FAQ

Microsoft Copilot for Security란? 

보안용 Copilot는 보안 전문가가 위협에 신속하게 대응하고, 기계 속도로 신호를 처리하고, 몇 분 안에 위험 노출을 평가할 수 있도록 지원하는 자연어 AI 기반 보안 분석 도구입니다. 보안 전문가가 조직의 보안을 유지할 수 있도록 플러그 인 및 데이터에서 컨텍스트를 그려 보안 관련 프롬프트에 응답합니다. 사용자는 Copilot for Security에서 유용한 응답을 수집하고 나중에 참조할 수 있도록 핀보드에 고정할 수 있습니다.

Copilot for Security는 무엇을 할 수 있나요? 

보안용 Copilot는 OpenAI 아키텍처의 모든 기능을 제공하며 Microsoft Security의 선도적인 전문 지식, 글로벌 위협 인텔리전스 및 포괄적인 보안 제품에서 개발한 보안 관련 모델과 결합합니다. Copilot for Security는 보안 전문가가 위협을 더 잘 감지하고, 방어를 강화하고, 보안 인시던트에 더 빠르게 대응할 수 있도록 도와줍니다.

Microsoft Copilot for Security는 다음을 통해 보안 작업을 향상시킵니다.

  • 취약성 검색, 위험 우선 순위 지정 및 위협 방지 및 수정을 위한 단계별 권장 사항 제공

  • 인시던트 표시, 규모 평가 및 수정 단계에 대한 권장 사항 제공

  • 이벤트, 인시던트 및 위협을 요약하고 사용자 지정 가능한 보고서 만들기

  • 기본 제공 기능을 통해 보안 전문가 협업 지원

Copilot for Security의 용도는 무엇인가요? 

Copilot for Security는 보안 분석가가 인시던트를 조사 및 해결하고, 보안 이벤트를 요약 및 설명하고, 결과를 이해 관계자와 공유할 수 있도록 돕기 위한 것입니다.  

Copilot for Security는 어떻게 평가되나요? 성능을 측정하는 데 사용되는 메트릭은 무엇인가요? 

Copilot for Security는 릴리스되기 전에 상당한 테스트를 진행합니다. 테스트에는 Copilot for Security가 의도한 용도를 벗어나거나 Microsoft AI 원칙을 지원하지 않는 동작이나 말을 할 수 있는 오류 모드 및 시나리오를 식별하기 위해 제품을 엄격하게 테스트하는 관행인 레드 팀이 포함되었습니다.

이제 릴리스되었으므로 Microsoft에서 시스템을 개선하는 데 사용자 피드백이 중요합니다. Copilot for Security에서 출력을 받을 때마다 피드백을 제공할 수 있습니다. 응답이 부정확하거나 불완전하거나 명확하지 않은 경우 "오프 대상" 및 "보고서" 단추를 사용하여 불쾌한 출력에 플래그를 지정합니다. "확인" 단추를 사용하여 응답이 유용하고 정확한지 확인할 수도 있습니다. 이러한 단추는 모든 Copilot for Security 응답의 맨 아래에 표시되며 피드백은 Microsoft에 직접 전달되어 플랫폼 성능을 개선하는 데 도움이 됩니다.

Security Copilot의 제한 사항은 무엇인가요? 사용자가 시스템을 사용할 때 Copilot for Security의 제한 사항의 영향을 최소화하려면 어떻게 해야 합니까? 

  • 초기 액세스 프로그램은 고객이 Copilot for Security에 미리 액세스하고 플랫폼에 대한 피드백을 제공할 수 있는 기회를 제공하도록 설계되었습니다. 미리 보기 기능은 프로덕션용이 아니며 기능이 제한될 수 있습니다. 

  • AI 기반 기술과 마찬가지로 Copilot for Security도 모든 것을 정확히 처리하지는 못합니다. 그러나 플랫폼에 기본 제공되는 피드백 도구를 사용하여 관찰을 제공하여 응답을 개선할 수 있습니다.  

  • 시스템이 사용자 입력 또는 플러그 인을 통해 최신 데이터를 제공하지 않으면 부실 응답을 생성할 수 있습니다. 최상의 결과를 얻으려면 올바른 플러그 인이 사용하도록 설정되어 있는지 확인합니다.

  • 시스템은 인시던트 조사 및 위협 인텔리전스와 같은 보안 도메인과 관련된 프롬프트에 응답하도록 설계되었습니다. 보안 범위를 벗어난 프롬프트로 인해 정확도와 포괄적성이 부족한 응답이 발생할 수 있습니다.

  • Copilot for Security는 코드를 생성하거나 응답에 코드를 포함할 수 있으며, 신중하게 사용하지 않을 경우 중요한 정보 또는 취약성을 노출할 수 있습니다. 응답이 유효한 것처럼 보이지만 실제로 의미 체계나 구문상 올바르지 않거나 개발자의 의도를 정확하게 반영하지 않을 수 있습니다. 사용자는 적합성을 보장하기 위한 예방 조치를 포함하여 사용자가 독립적으로 생성하지 않은 자료를 사용하여 작성하는 모든 코드와 항상 동일한 예방 조치를 취해야 합니다. 여기에는 엄격한 테스트, IP 검사 및 보안 취약성 확인이 포함됩니다.

  • 공용 코드와 일치: Copilot for Security는 확률적인 방식으로 수행하는 새 코드를 생성할 수 있습니다. 학습 집합의 코드와 일치하는 코드를 생성할 가능성은 낮지만 Copilot for Security 제안에는 학습 집합의 코드와 일치하는 일부 코드 조각이 포함될 수 있습니다. 사용자는 적합성을 보장하기 위한 예방 조치를 포함하여 개발자가 독립적으로 생성하지 않은 자료를 사용하여 작성하는 모든 코드와 항상 동일한 예방 조치를 취해야 합니다. 여기에는 엄격한 테스트, IP 검사 및 보안 취약성 확인이 포함됩니다.

  • 시스템에서는 수십만 문자와 같은 긴 프롬프트를 처리하지 못할 수 있습니다.

  • 플랫폼 사용에는 사용 제한 또는 용량 제한이 적용될 수 있습니다. 프롬프트가 더 짧더라도 플러그 인을 선택하고, API를 호출하고, 응답을 생성하고, 사용자에게 표시하기 전에 확인하는 데 시간이 걸리고(최대 몇 분) 높은 GPU 용량이 필요할 수 있습니다. 

  • 오류를 최소화하려면 프롬프트 지침을 따르는 것이 좋습니다. 

Copilot for Security를 효과적이고 책임감 있게 사용할 수 있는 운영 요소 및 설정은 무엇입니까? 

  • 일상적인 단어를 사용하여 Copilot for Security에서 수행할 작업을 설명할 수 있습니다. 예시:

    • "내 최신 인시던트에 대해 알려주세요" 또는 "이 인시던트 요약"
  • 시스템이 응답을 생성하면 프로세스 로그에서 시스템이 수행하는 단계를 볼 수 있으므로 프로세스와 소스를 다시 확인할 수 있습니다.  

  • 프롬프트가 생성되는 동안 언제든지 프롬프트를 취소, 편집, 다시 실행 또는 삭제할 수 있습니다. 

  • Microsoft에 허용되지 않는 내용을 보고하는 등 응답 품질에 대한 피드백을 제공할 수 있습니다. 

  • 응답을 고정, 공유 및 내보낼 수 있으므로 보안 전문가가 관찰을 공동 작업하고 공유할 수 있습니다. 

  • 관리자는 Copilot for Security에 연결하는 플러그 인을 제어할 수 있습니다.   

  • Copilot for Security에서 작동하는 플러그 인을 선택, 개인 설정 및 관리할 수 있습니다.

  • Copilot for Security는 특정 워크플로를 완료하기 위해 순서대로 실행되는 프롬프트 그룹인 프롬프트 북을 만들었습니다.

Microsoft는 Copilot for Security에 대한 책임 있는 AI에 어떻게 접근하고 있나요?

Microsoft는 책임 있는 AI에 대한 약속을 중요하게 생각합니다. Copilot for Security는 AI 원칙에 따라 개발되고 있습니다. Microsoft는 책임 있는 사용을 권장하는 환경을 제공하기 위해 OpenAI와 협력하고 있습니다. 예를 들어 기본 모델 작업에 대해 OpenAI와 공동 작업을 진행하고 계속 진행합니다. 사용자를 중심에 두도록 Copilot for Security 사용자 환경을 설계했습니다. Microsoft는 유해한 콘텐츠 주석, 운영 모니터링 및 기타 보호 장치와 같은 기능을 통해 오류를 완화하고 오용을 방지하도록 설계된 안전 시스템을 개발했습니다. 초대 전용 초기 액세스 프로그램은 책임 있는 AI에 대한 접근 방식의 일부이기도 합니다. 도구를 광범위하게 사용할 수 있도록 하기 전에 도구를 개선하기 위해 Copilot for Security에 대한 초기 액세스 권한이 있는 사용자의 피드백을 받고 있습니다.

책임 있는 AI는 여정이며, 그 과정에서 시스템을 지속적으로 개선할 것입니다. MICROSOFT는 AI를 더 안정적이고 신뢰할 수 있게 만들기 위해 최선을 다하고 있으며, 여러분의 피드백이 도움이 될 것입니다.

EU AI법을 준수하시나요?

Microsoft는 EU AI 법을 준수하기 위해 최선을 다하고 있습니다. 책임 있는 AI 표준과 내부 거버넌스를 정의, 발전 및 구현하기 위한 다년간의 노력은 준비 태세를 강화했습니다.

Microsoft는 규정 준수의 중요성을 AI 기술에서 신뢰와 안정성의 초석으로 인식하고 있습니다. 우리는 의도적으로 책임 있는 AI를 만들기 위해 최선을 다하고 있습니다. 우리의 목표는 사회로부터 신뢰와 신뢰를 얻는 데 도움이 되는 AI를 개발하고 배포하는 것입니다.

Microsoft의 업무는 공정성, 신뢰성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임과 같은 핵심 원칙에 따라 진행됩니다. Microsoft의 책임 있는 AI 표준은 이러한 6가지 원칙을 취하여 사용할 수 있는 AI에 대한 목표와 요구 사항으로 나눕니다.

Google의 책임 있는 AI 표준은 EU AI 법의 초기 제안을 포함하여 규제 제안과 그 진화를 고려합니다. Microsoft는 책임 있는 AI 표준에 따라 Microsoft Copilot 및 Microsoft Azure OpenAI Service와 같은 AI 공간에서 최신 제품 및 서비스를 개발했습니다. EU AI 법에 따른 최종 요구 사항이 더 자세히 정의됨에 따라 Microsoft는 정책 입안자와 협력하여 규칙의 실현 가능한 구현 및 적용을 보장하고, 규정 준수를 입증하고, 고객 및 기타 이해 관계자와 협력하여 에코시스템 전반에 걸쳐 규정 준수를 지원할 수 있기를 기대합니다.