Preguntas más frecuentes sobre la inteligencia artificial responsable

¿Qué es Microsoft Copilot para seguridad? 

Copilot para seguridad es un lenguaje natural, una herramienta de análisis de seguridad con tecnología de inteligencia artificial que ayuda a los profesionales de seguridad a responder a las amenazas rápidamente, procesar señales a la velocidad de la máquina y evaluar la exposición al riesgo en cuestión de minutos. Dibuja contexto de complementos y datos para responder a mensajes relacionados con la seguridad para que los profesionales de seguridad puedan ayudar a mantener seguras sus organizaciones. Los usuarios pueden recopilar las respuestas que les resulten útiles de Copilot for Security y anclarlas al panel de anclaje para futuras referencias.

¿Qué puede hacer Copilot para seguridad? 

Copilot para seguridad aporta toda la eficacia de la arquitectura openAI y la combina con modelos específicos de seguridad desarrollados por la experiencia líder de Microsoft Security, inteligencia global sobre amenazas y productos de seguridad completos. Copilot para seguridad ayuda a los profesionales de seguridad a detectar mejor las amenazas, reforzar las defensas y responder a los incidentes de seguridad con mayor rapidez.

Microsoft Copilot para seguridad ayuda a impulsar las operaciones de seguridad mediante:

  • Detección de vulnerabilidades, priorización de riesgos y suministro de recomendaciones guiadas para la prevención y corrección de amenazas

  • Exponer incidentes, evaluar su escala y proporcionar recomendaciones para los pasos de corrección

  • Resumen de eventos, incidentes y amenazas, y creación de informes personalizables

  • Ayudar a los profesionales de seguridad a colaborar a través de funcionalidades integradas

¿Qué es el uso previsto de Copilot para seguridad? 

Copilot para seguridad está pensado para ayudar a los analistas de seguridad a investigar y resolver incidentes, resumir y explicar eventos de seguridad y compartir conclusiones con las partes interesadas.  

¿Cómo se evaluó Copilot para seguridad? ¿Qué métricas se usan para medir el rendimiento? 

Copilot para seguridad no realiza pruebas sustanciales antes de su lanzamiento. Las pruebas incluían la formación de equipos rojos, que es la práctica de probar rigurosamente el producto para identificar los modos de error y escenarios que podrían hacer o decir cosas fuera de los usos previstos de Copilot para seguridad o que no admiten los Principios de inteligencia artificial de Microsoft.

Ahora que se ha publicado, los comentarios de los usuarios son fundamentales para ayudar a Microsoft a mejorar el sistema. Tiene la opción de proporcionar comentarios cada vez que reciba resultados de Copilot para seguridad. Cuando una respuesta sea inexacta, incompleta o poco clara, use los botones "Fuera de destino" y "Informe" para marcar cualquier salida objetable. También puede confirmar cuándo las respuestas son útiles y precisas mediante el botón "Confirmar". Estos botones aparecen en la parte inferior de cada respuesta de Copilot para seguridad y sus comentarios van directamente a Microsoft para ayudarnos a mejorar el rendimiento de la plataforma.

¿Cuáles son las limitaciones de Copilot para seguridad? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de Copilot para seguridad al usar el sistema? 

  • El programa de acceso anticipado está diseñado para ofrecer a los clientes la oportunidad de obtener acceso anticipado a Copilot para seguridad y proporcionar comentarios sobre la plataforma. Las características en versión preliminar no están pensadas para su uso en producción y pueden tener una funcionalidad limitada. 

  • Al igual que cualquier tecnología con tecnología de inteligencia artificial, Copilot para seguridad no hace todo bien. Sin embargo, puede ayudar a mejorar sus respuestas proporcionando sus observaciones mediante la herramienta de comentarios, que está integrada en la plataforma.  

  • El sistema podría generar respuestas obsoletas si no se proporcionan los datos más actuales a través de complementos o entradas del usuario. Para obtener los mejores resultados, compruebe que los complementos adecuados están habilitados.

  • El sistema está diseñado para responder a mensajes relacionados con el dominio de seguridad, como la investigación de incidentes y la inteligencia sobre amenazas. Los avisos fuera del ámbito de seguridad pueden dar lugar a respuestas que carecen de precisión y integridad.

  • Copilot para seguridad podría generar código o incluir código en las respuestas, lo que podría exponer información confidencial o vulnerabilidades si no se usa con cuidado. Es posible que las respuestas parezcan válidas, pero que realmente no sean semánticas o sintácticamente correctas o que no reflejen con precisión la intención del desarrollador. Los usuarios siempre deben tomar las mismas precauciones que lo harían con cualquier código que escriban que use el material que los usuarios no originaron de forma independiente, incluidas las precauciones para garantizar su idoneidad. Entre ellas se incluyen pruebas rigurosas, análisis de IP y comprobación de vulnerabilidades de seguridad.

  • Coincidencias con código público: Copilot para seguridad es capaz de generar código nuevo, lo que hace de forma probabilística. Aunque la probabilidad de que genere código que coincida con el código del conjunto de entrenamiento es baja, una sugerencia de Copilot para seguridad podría contener algunos fragmentos de código que coincidan con el código del conjunto de entrenamiento. Los usuarios siempre deben tomar las mismas precauciones que lo harían con cualquier código que escriban que use desarrolladores de materiales que no se originen de forma independiente, incluidas las precauciones para garantizar su idoneidad. Entre ellas se incluyen pruebas rigurosas, análisis de IP y comprobación de vulnerabilidades de seguridad.

  • Es posible que el sistema no pueda procesar mensajes largos, como cientos de miles de caracteres.

  • El uso de la plataforma podría estar sujeto a límites de uso o limitación de capacidad. Incluso con solicitudes más cortas, elegir un complemento, realizar llamadas API, generar respuestas y comprobarlas antes de mostrarlas al usuario puede tardar tiempo (hasta varios minutos) y requerir una alta capacidad de GPU. 

  • Para minimizar los errores, se recomienda a los usuarios que sigan las instrucciones que solicitan

¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable de Copilot para seguridad? 

  • Puede usar palabras diarias para describir lo que quiere que haga Copilot para seguridad. Por ejemplo:

    • "Cuéntame sobre mis últimos incidentes" o "Resumir este incidente".
  • A medida que el sistema genera la respuesta, empieza a ver los pasos que el sistema está realizando en el registro de procesos, lo que proporciona oportunidades para volver a comprobar sus procesos y orígenes.  

  • En cualquier momento durante la formación del mensaje, puede cancelar, editar, volver a ejecutar o eliminar un mensaje. 

  • Puede proporcionar comentarios sobre la calidad de una respuesta, incluida la notificación de cualquier elemento inaceptable a Microsoft. 

  • Las respuestas se pueden anclar, compartir y exportar, lo que ayuda a los profesionales de seguridad a colaborar y compartir observaciones. 

  • Los administradores tienen control sobre los complementos que se conectan a Copilot para seguridad.   

  • Puede elegir, personalizar y administrar complementos que funcionan con Copilot para seguridad.

  • Copilot para seguridad creó promptbooks, que son un grupo de mensajes que se ejecutan en secuencia para completar un flujo de trabajo específico.

¿Cómo se aproxima Microsoft a la inteligencia artificial responsable para Copilot para seguridad?

En Microsoft, nos tomamos muy en serio nuestro compromiso con la inteligencia artificial responsable. Copilot para seguridad se está desarrollando de acuerdo con nuestros principios de inteligencia artificial. Estamos trabajando con OpenAI para ofrecer una experiencia que fomente el uso responsable. Por ejemplo, tenemos y seguiremos colaborando con OpenAI en el trabajo del modelo fundamental. Hemos diseñado la experiencia del usuario de Copilot para seguridad para mantener a los seres humanos en el centro. Hemos desarrollado un sistema de seguridad diseñado para mitigar los errores y evitar el uso incorrecto con elementos como la anotación de contenido perjudicial, la supervisión operativa y otras medidas de seguridad. El programa de acceso anticipado solo para invitación también forma parte de nuestro enfoque de inteligencia artificial responsable. Estamos tomando los comentarios de los usuarios de aquellos con acceso anticipado a Copilot para seguridad para mejorar la herramienta antes de que esté ampliamente disponible.

La inteligencia artificial responsable es un recorrido y mejoraremos continuamente nuestros sistemas a lo largo del proceso. Nos comprometemos a hacer que nuestra inteligencia artificial sea más confiable y confiable, y sus comentarios nos ayudarán a hacerlo.

¿Cumple con la Ley de IA de la UE?

Nos comprometemos a cumplir con la Ley de IA de la UE. Nuestro esfuerzo de varios años para definir, evolucionar e implementar nuestro estándar de inteligencia artificial responsable y gobernanza interna ha refuerza nuestra preparación.

En Microsoft, reconocemos la importancia del cumplimiento normativo como una piedra angular de confianza y confiabilidad en las tecnologías de inteligencia artificial. Nos comprometemos a crear una inteligencia artificial responsable por diseño. Nuestro objetivo es desarrollar e implantar inteligencia artificial que tenga un impacto beneficioso y se gane la confianza de la sociedad.

Nuestro trabajo se guía por un conjunto básico de principios: imparcialidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. El estándar de inteligencia artificial responsable de Microsoft toma estos seis principios y los divide en objetivos y requisitos para la inteligencia artificial que ponemos a disposición.

Nuestro estándar de inteligencia artificial responsable tiene en cuenta las propuestas normativas y su evolución, incluida la propuesta inicial de la Ley de IA de la UE. Hemos desarrollado nuestros productos y servicios más recientes en el espacio de inteligencia artificial, como Microsoft Copilot y Microsoft Azure Servicio OpenAI, en consonancia con nuestro estándar de inteligencia artificial responsable. A medida que los requisitos finales de la Ley de IA de la UE se definen con más detalle, esperamos trabajar con los responsables de la elaboración de directivas para garantizar una implementación y aplicación factibles de las reglas, para demostrar nuestro cumplimiento y para interactuar con nuestros clientes y otras partes interesadas para respaldar el cumplimiento en todo el ecosistema.