Consideraciones al trabajar con la inteligencia artificial

Completado

La inteligencia artificial generativa es relativamente nueva para la mayoría de las personas. Las escuelas están tomando decisiones importantes sobre cómo los educadores y los estudiantes deben abordar mejor esta tecnología cambiante.

Directrices y políticas educativas

Antes de usar la inteligencia artificial con los estudiantes, asegúrese de consultar las directrices y políticas de su escuela para determinar su enfoque. Estas políticas pueden incluir:

  • Permisos de guardián para usar la inteligencia artificial generativa
  • Usos aceptables e inaceptables de modelos de IA generativos
  • Requisitos de citas al usar IA generativa
  • Política de honor académico

Al usar una plataforma de inteligencia artificial generativa con estudiantes, asegúrese de proporcionar instrucciones claras sobre lo que es aceptable y lo que no en cada tarea o evaluación. Para obtener más información relativa a las escuelas, consulte el kit de herramientas de inteligencia artificial.

Equidad digital

Los estudiantes con acceso a Internet en casa pueden usar esta poderosa herramienta para tareas y evaluaciones. Los estudiantes que no tengan el mismo acceso a Internet no podrán acceder a la misma herramienta. La brecha digital, o inequidad digital, podría seguir creciendo. Proporcionar oportunidades para usar herramientas de inteligencia artificial generativas en clase garantiza que todos los estudiantes tengan acceso a esta herramienta eficaz. También ayuda a desarrollar aptitudes que mejoren la productividad y eficiencia de un estudiante en la escuela y más allá.

Sesgo y fabricación

Un modelo de lenguaje grande genera nueva información basada en un conjunto de datos aprendido. La información que genera puede ser falsa o inventada. La persona que consume la información es responsable de determinar si la información es cierta, lo que requiere el uso de pensamiento crítico. Copilot en Edge proporciona sitios web para que el usuario lea a parte y, así, comprobar si los resultados de la inteligencia artificial son precisos. Esta característica es un pequeño paso en la forma en que Microsoft apoya el uso responsable de la inteligencia artificial.

Las herramientas de IA generativas pueden generar resultados sesgados. Los resultados sesgados pueden producirse porque muchos modelos de inteligencia artificial se entrenan con conjuntos de datos que proceden principalmente de Occidente. Los algoritmos no siempre tienen en cuenta estos factores importantes. Los resultados de IA que muestran opiniones discriminatorias pueden seguir perpetuando creencias injustas sobre grupos de personas subrepresentados.

Un estudiante está a punto de comenzar una presentación de investigación sobre matemáticos famosos que afectaron al mundo. El educador permitió que la inteligencia artificial se usara en la etapa de generación de ideas de la tarea. El estudiante lanza Microsoft Copilot y escribe la consulta "Crea una lista de 10 matemáticos que hayan logrado un impacto en la sociedad actual. Dame tres oraciones sobre cada matemático". Copilot comienza a generar la lista.

Captura de pantalla de una respuesta de Microsoft Copilot para generar una lista de matemáticos.

De los 10 nombres que generó Copilot, uno era femenino y ninguno era negro o afroamericano. Dado que el estudiante tenía lecciones en clase que le prepararon para este sesgo, entonces responde con otra consulta: "¿Son alguno de estos afroamericanos o negros?" Copilot se disculpa por no incluir la diversidad en la lista original y agrega cinco matemáticos más.

Captura de pantalla de Microsoft Copilot disculpándose y dando ejemplos de más matemáticos de ascendencia negra o afroamericana.

Solucionar el sesgo es un problema persistente en la inteligencia artificial generativa que requiere esfuerzos activos de los desarrolladores. Pensar críticamente y comprobar lo que la inteligencia artificial genera resultados justos sirve para lograr un uso responsable de la inteligencia artificial. Para solucionar este problema, Microsoft se asegura de que el conjunto de datos del que aprende el LLM represente conjuntos de datos inclusivos, además de otras medidas.

Sugerencia

Proporcione comentarios a Copilot sobre una respuesta con el botón de pulgar hacia arriba o hacia abajo al final de la respuesta. Al seleccionar el botón de desplazamiento hacia abajo, se abre una ventana de comentarios en la que puede proporcionar detalles.

Captura de pantalla de los botones de comentarios de Microsoft Copilot al final de una respuesta generada.

Datos y privacidad

Microsoft se compromete a avanzar la inteligencia artificial de forma responsable. Cuando diseñó Copilot, Microsoft creó herramientas de comprobación de hechos en el modelo para incluir los orígenes de los que procede el contenido generado. Los usuarios deben tener en cuenta las directivas de privacidad y datos de las herramientas de inteligencia artificial que usan. Como recordatorio, siempre se debe proteger la información confidencial o privada.