Consideraciones al trabajar con la inteligencia artificial

Completado

La inteligencia artificial generativa es relativamente nueva para la mayoría de las personas. Las escuelas están tomando decisiones importantes sobre cómo los educadores y los estudiantes deben abordar mejor esta tecnología cambiante.

Directrices y políticas educativas

Antes de usar la inteligencia artificial con los estudiantes, asegúrese de consultar las directrices y políticas de su escuela para determinar su enfoque. Estas políticas pueden incluir:

  • Permisos de guardián para usar la inteligencia artificial generativa
  • Usos aceptables e inaceptables de modelos de IA generativos
  • Requisitos de citas al usar IA generativa
  • Política de honor académico

Cuando use una plataforma de inteligencia artificial generativa con aprendices, asegúrese de proporcionar instrucciones claras sobre lo que es aceptable y lo que no está en cada asignación o evaluación. Para obtener más información para las escuelas, consulte el kit de herramientas de inteligencia artificial.

Equidad digital

Los estudiantes con acceso a Internet en casa pueden usar esta poderosa herramienta para tareas y evaluaciones. Los estudiantes que no tengan acceso a Internet no podrán acceder a la misma herramienta. La brecha digital, o inequidad digital, podría seguir creciendo. Proporcionar oportunidades para usar herramientas de inteligencia artificial generativas en clase garantiza que todos los estudiantes tengan acceso a esta herramienta eficaz. También ayuda a desarrollar aptitudes que mejoren la productividad y eficiencia de un estudiante en la escuela y más allá.

Sesgo y fabricación

Un modelo de lenguaje grande genera nueva información basada en un conjunto de datos aprendido. La información que genera puede ser false o lo que se conoce como fabricación. La persona que consume la información es responsable de determinar si la información es cierta, lo que requiere el uso de pensamiento crítico. Copilot en Edge proporciona sitios web para que el usuario lea a parte y, así, comprobar si los resultados de la inteligencia artificial son precisos. Esta característica es un pequeño paso en la forma en que Microsoft apoya el uso responsable de la inteligencia artificial.

Las herramientas de IA generativas pueden generar resultados sesgados. Los resultados sesgados pueden producirse porque muchos modelos de inteligencia artificial se entrenan con conjuntos de datos que proceden principalmente de Occidente. Los algoritmos no siempre tienen en cuenta estos factores importantes. Los resultados de IA que muestran opiniones discriminatorias pueden seguir perpetuando creencias injustas sobre grupos de personas subrepresentados.

Un estudiante está a punto de comenzar una presentación de investigación sobre matemáticos famosos que afectaron al mundo. El educador permite que la inteligencia artificial se use en la parte de ideación de la asignación. El estudiante lanza Microsoft Copilot y escribe la consulta "Crea una lista de 10 matemáticos que hayan logrado un impacto en la sociedad actual. Dame tres oraciones sobre cada matemático". Copilot comienza a generar la lista.

Captura de pantalla de una respuesta de Microsoft Copilot para generar una lista de matemáticos.

De los 10 nombres que Copilot generó, tres eran mujeres y ninguno era negro o afroamericano. Dado que el aprendiz tenía lecciones en la clase que las prepararon para este sesgo, responden con otra pregunta: "¿Alguno de estos afroamericanos o negros?" Copilot genera una lista de cinco matemáticos afroamericanos o negros.

Captura de pantalla de Microsoft Copilot dando ejemplos de más matemáticos de ascendencia negra o afroamericana.

Solucionar el sesgo es un problema persistente en la inteligencia artificial generativa que requiere esfuerzos activos de los desarrolladores. Pensar críticamente y comprobar lo que la inteligencia artificial genera resultados justos sirve para lograr un uso responsable de la inteligencia artificial. Para solucionar este problema, Microsoft se asegura de que el conjunto de datos del que aprende el LLM represente conjuntos de datos inclusivos, además de otras medidas.

Sugerencia

Proporcione comentarios a Copilot sobre una respuesta con el botón de pulgar hacia arriba o hacia abajo al final de la respuesta. Al seleccionar el botón de desplazamiento hacia abajo, se abre una ventana de comentarios en la que puede proporcionar detalles.

Captura de pantalla de los botones de comentarios de Microsoft Copilot al final de una respuesta generada.

Datos y privacidad

Microsoft se compromete a avanzar la inteligencia artificial de forma responsable. Cuando diseñó Copilot, Microsoft creó herramientas de comprobación de hechos en el modelo para incluir los orígenes de los que procede el contenido generado. Los usuarios deben tener en cuenta las directivas de privacidad y datos de las herramientas de inteligencia artificial que usan. Como recordatorio, siempre se debe proteger la información confidencial o privada.