Inteligencia artificial responsable
Microsoft está comprometido con el avance de la inteligencia artificial, pero controlada por ciertos principios éticos que pongan a las personas en primer lugar. Queremos asociarnos con usted para respaldar este esfuerzo.
Principios de la inteligencia artificial responsable
Cuando se implementan soluciones de inteligencia artificial, tenga en cuenta los siguientes principios de inteligencia artificial en la solución:
- Equidad: los sistemas de inteligencia artificial deben tratar a todas las personas de la misma forma.
- Confiabilidad y seguridad: los sistemas de inteligencia artificial deben funcionar de forma confiable y segura.
- Privacidad y seguridad: los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad.
- Inclusión: los sistemas de inteligencia artificial deben capacitar a todo el mundo e involucrar a las personas.
- Transparencia: los sistemas de inteligencia artificial deben ser comprensibles.
- Responsabilidad: las personas deben ser responsables de los sistemas de inteligencia artificial.
Establecimiento de una estrategia de IA responsable
Aprenda a desarrollar sus propios principios y estrategia de IA responsable en función de los valores de su organización.
Instrucciones para el desarrollo de la inteligencia artificial de manera responsable
Ponga en práctica la inteligencia artificial responsable con estas directrices diseñadas para ayudarle a prever y abordar posibles problemas que puedan aparecer a lo largo del ciclo de vida de desarrollo de software.
- Directrices para la interacción entre la inteligencia artificial y los humanos
- Directrices para la IA conversacional
- Directrices para el diseño inclusivo
- Lista de comprobación de la equidad de la inteligencia artificial
Datasheets for Datasets
Plantilla- Guía para la ingeniería de seguridad de IA
Herramientas para una inteligencia artificial responsable
Hay herramientas disponibles que pueden ayudar a los desarrolladores y científicos de datos a entender, proteger y controlar los sistemas de inteligencia artificial. Estas herramientas pueden proceder de diversos orígenes, como Azure Machine Learning, proyectos de código abierto e investigación.
- Conocer: los sistemas de inteligencia artificial se pueden comportar de forma inesperada por varios motivos. Las herramientas de software pueden ayudarle a conocer el comportamiento de los sistemas de inteligencia artificial, con el fin de que pueda adaptarlos mejor a sus necesidades. InterpretML, Error Analysis y Fairlearn son ejemplos de este tipo de herramienta.
- Proteger: los sistemas de AI se basan en los datos. Las herramientas de software pueden ayudarle a proteger esos datos, ya que mantienen la privacidad y garantizan la confidencialidad. Entre los ejemplos de este tipo de herramienta se incluyen la computación confidencial para Machine Learning, el kit de herramientas de privacidad diferencial SmartNoise, el kit de herramientas de cifrado homomórfico SEAL y el kit de herramientas de anonimización de datos Presidio.
- Control: La inteligencia artificial responsable necesita gobierno y control a lo largo de todo el ciclo de desarrollo. Azure Machine Learning habilita un registro de auditoría para mejorar la rastreabilidad, el linaje y el control, con el fin de cumplir los requisitos legales. Entre los ejemplos se incluyen el registro de auditoría y la trazabilidad.
Pasos siguientes
Para más información sobre el desarrollo de soluciones responsable, visite: