Guía de integración y uso responsable de Personalizer
Importante
A partir del 20 de septiembre de 2023, no podrá crear nuevos recursos de Personalizer. El servicio Personalizer se va a retirar el 1 de octubre de 2026.
Microsoft trabaja para ayudar a los clientes a desarrollar e implementar soluciones de forma responsable mediante el Personalizador de Azure AI. Nuestro enfoque fundamentado defiende la voluntad personal y la dignidad teniendo en cuenta el sistema de inteligencia artificial:
- Equidad, confiabilidad y seguridad.
- Privacidad y seguridad.
- Inclusión.
- Transparencia.
- Responsabilidad del usuario.
Estas consideraciones reflejan nuestro compromiso con el desarrollo de inteligencia artificial responsable.
Directrices generales para la integración y principios de uso responsable
Cuando esté a punto para integrar y usar de forma responsable productos o características basados en tecnología de inteligencia artificial, las actividades siguientes le ayudarán a prepararse correctamente:
Comprender lo que puede hacer. Evaluar completamente el potencial de Personalizer para comprender sus funcionalidades y limitaciones. Comprender cómo se comportará en un escenario y contexto concretos mediante pruebas exhaustivas con condiciones y datos reales.
Respetar el derecho de una persona a la privacidad. Recopile datos e información de personas con fines legales y justificables, solamente. Use los datos y la información de los que tenga el consentimiento para usar con este fin.
Obtener revisión legal. Obtenga asesoramiento legal adecuado para revisar Personalizer y el modo de uso en su solución, especialmente si va a usarlo en aplicaciones confidenciales o de alto riesgo. Conozca las restricciones que puede necesitar para trabajar y su responsabilidad para resolver cualquier problema que pueda surgir en el futuro.
Tener un usuario en el bucle. Incluya la supervisión de un usuario como un área de patrones coherente para explorar. Garantizar una supervisión de usuario constante del producto o característica con tecnología de inteligencia artificial. Mantener el papel de los usuarios en la toma de decisiones. Asegúrese de que puede disponer de la intervención de un usuario en tiempo real en la solución para evitar daños y administrar situaciones en las que el sistema de inteligencia artificial no funciona según lo previsto.
Genere confianza con las partes interesadas afectadas. Comunique las ventajas esperadas y los posibles riesgos a las partes interesadas afectadas. Ayude a los usuarios a comprender por qué se necesitan los datos y cómo el uso de los datos les proporcionará ventajas. Describir el control de datos de una manera comprensible.
Creación de un bucle de comentarios de cliente. Proporcione un canal de comentarios que permita a los usuarios notificar problemas con el servicio después de implementarlo. Después de implementar un producto o característica basado en inteligencia artificial, requiere una supervisión y mejora continuas. Es conveniente que implemente cualquier comentario o sugerencia para mejorar. Establecer canales para recopilar preguntas y preocupaciones de las partes interesadas afectadas. Las personas que podrían verse afectadas directa o indirectamente por el sistema son empleados, visitantes y el público general.
Comentarios: localice comentarios de un muestreo diverso de la comunidad durante el proceso de desarrollo y evaluación (por ejemplo, grupos históricamente marginados, personas con discapacidades y trabajadores para la comunidad). Para obtener más información, consulte Jurado de la comunidad.
Estudio de usuario: cualquier recomendación de consentimiento o divulgación debe estar enmarcada en un estudio de usuario. Evalúe la primera experiencia de uso continuo con un ejemplo representativo de la comunidad para validar que las opciones de diseño conducen a una divulgación eficaz. Realice investigaciones de usuarios con enter 10 y 20 miembros de la comunidad (partes interesadas afectadas) para evaluar su comprensión de la información y determinar si se cumplen sus expectativas.
Transparencia y explicación: considere la posibilidad de habilitar y usar la capacidad de explicación de inferencia de Personalizer para comprender mejor qué características desempeñan un papel importante en la elección de decisión de Personalizer en cada llamada a Rank. Esta funcionalidad le permite proporcionar a los usuarios transparencia con respecto a cómo sus datos desempeñaron un papel en la generación de la mejor acción recomendada. Por ejemplo, puede entregar a los usuarios un botón con la etiqueta "¿Por qué estas sugerencias?" que indique qué características principales han desempeñado un rol importante en los resultados de Personalizer. Esta información también se puede usar para comprender mejor qué atributos de datos de los usuarios, contextos y acciones funcionan en favor de la elección de la mejor acción de Personalizer, que está trabajando con él, y que puede tener poco o ningún efecto. Esta funcionalidad también puede proporcionar información sobre los segmentos de usuario y ayudarle a identificar y abordar posibles sesgos.
Uso adverso: considere la posibilidad de establecer un proceso para detectar y actuar sobre manipulaciones malintencionadas. Hay actores que se aprovecharán de la capacidad de los sistemas de aprendizaje automático e inteligencia artificial de aprender a partir del entorno. Con los ataques coordinados, pueden simular de forma artificial patrones de comportamiento que desplazan los datos y los modelos de inteligencia artificial hacia sus objetivos. Si el uso de Personalizer puede influir en decisiones importantes, asegúrese de contar con los medios adecuados para detectar y mitigar este tipo de ataques.
Opción para optar por no recibir: considere la posibilidad de proporcionar un control para que los usuarios opten por no recibir recomendaciones personalizadas. En el caso de estos usuarios, no se llamará a la API Rank de Personalizer desde la aplicación. En su lugar, la aplicación puede usar un mecanismo alternativo para decidir qué acción se realiza. Por ejemplo, al optar por no recibir recomendaciones personalizadas y elegir la acción predeterminada o de la base de referencia, el usuario experimentaría la acción que se realizaría sin la recomendación de Personalizer. Como alternativa, la aplicación puede usar recomendaciones que se basen en medidas agregadas o basadas en el rellenado (por ejemplo, tendencias actuales, diez más populares, etc.).
Su responsabilidad
Todas las directrices de una implementación responsable se basan en que los desarrolladores y las empresas que usan Personalizer son responsables de los efectos del uso de estos algoritmos en la sociedad. Si va a desarrollar una aplicación para que la implemente la organización, debe reconocer su papel y su responsabilidad en cuanto a su funcionamiento y a cómo afecta a los usuarios. Si va a desarrollar una aplicación para que la implemente un tercero, acuerde con ellos quién es responsable en última instancia del comportamiento de la aplicación. Asegúrese de documentar ese reconocimiento.
Preguntas y comentarios
Microsoft actualiza constantemente sus documentos y herramientas para ayudarle a actuar en relación con estas responsabilidades. Nuestro equipo le anima a que proporcione comentarios a Microsoft si cree que hay herramientas, características de productos y documentos adicionales que le ayudarían a implementar estas directrices de uso de Personalizer.
Lecturas recomendadas
- Consulte los seis principios de Microsoft para el desarrollo responsable de la inteligencia artificial publicados en enero de 2018 en el libro titulado The Future Computed.
Pasos siguientes
Comprender cómo la API de Personalizer recibe características: Características: Acción y contexto