Terminología de Personalizer
Importante
A partir del 20 de septiembre de 2023, no podrá crear nuevos recursos de Personalizer. El servicio Personalizer se va a retirar el 1 de octubre de 2026.
Personalizer utiliza la terminología del aprendizaje de refuerzo. Estos términos se usan en Azure Portal y las API.
Terminología conceptual
Ruta de aprendizaje: puede crear un recurso de Personalizer, denominado bucle de aprendizaje, para todas las partes de la aplicación que pueden beneficiarse de la personalización. Si tiene varias experiencias de personalización, cree un bucle para cada una de ellas.
Modelo: los modelos de Personalizer capturan todos los datos aprendidos acerca del comportamiento del usuario y obtiene los datos de entrenamiento de la combinación de los argumentos que se envían a las llamadas a Rank y a Reward, y con un comportamiento de entrenamiento determinado por la directiva de aprendizaje.
Modo en línea: Comportamiento de aprendizaje predeterminado de Personalizer en el que el bucle de aprendizaje utiliza el aprendizaje automático para compilar el modelo que predice la acción superior para su contenido.
Modo de aprendiz: Comportamiento de aprendizaje que ayuda a arrancar en caliente un modelo de Personalizer para entrenar sin que afecte a las acciones y los resultados de las aplicaciones.
Comportamiento de aprendizaje:
- Modo en línea: Devuelve la mejor acción. El modelo responderá a las llamadas de Rank con la mejor acción y usará las llamadas de Reward para aprender y mejorar sus selecciones a lo largo del tiempo.
- Modo de aprendiz : Aprenda como un aprendiz. El modelo aprenderá mediante la observación del comportamiento del sistema existente. Las llamadas de Rank siempre devuelven la acción predeterminada de la aplicación (línea de base).
Configuración de Personalizer
Personalizer se configura desde Azure Portal.
Recompensas: configure los valores predeterminados para el tiempo de espera de las recompensas, la recompensa predeterminada y la directiva de agregación de recompensa.
Exploración: configure el porcentaje de llamadas a Rank que se usarán para la exploración.
Frecuencia de actualización del modelo: frecuencia con la que se vuelve a entrenar el modelo.
Retención de datos: número de días que merece la pena almacenar los datos. Esto puede afectar a las evaluaciones sin conexión, que se usan para mejorar el bucle de aprendizaje.
Uso de las API Rank y Reward
Rank: Dadas las acciones con características y las características del contexto, use la exploración o la vulnerabilidad de seguridad para devolver la acción superior (elemento de contenido).
Acciones: las acciones son los elementos de contenido, como productos o promociones, entre los que se eligen. Personalizer elige la acción superior (que devolvió el id. de acción de Reward) para mostrar a los usuarios mediante la API Rank.
Context: para proporcionar una clasificación más precisa, especifique información acerca del contexto, como por ejemplo:
- Su usuario.
- El dispositivo en el que están.
- La hora actual.
- Otros datos acerca d la situación actual.
- Datos históricos acerca del usuario o contexto.
Su aplicación específica puede tener otra información de contexto.
Características : una unidad de información acerca de un elemento de contenido o un contexto de usuario. Asegúrese de usar solo las características que estén agregadas. No use horas específicas, id. de usuario u otros datos no agregados como características.
- Una característica de acción son los metadatos sobre el contenido.
- Una característica de contexto son los metadatos sobre el contexto en el que se presenta el contenido.
Exploración: el servicio Personalizer está explorando cuando, en lugar de devolver la mejor acción, elige otra acción para el usuario. El servicio Personalizer evita el desfase, estancamiento y puede adaptarse al comportamiento del usuario en curso mediante la exploración.
Acción que mejor se ha aprendido: el servicio Personalizer usa el modelo actual para decidir la mejor acción según los datos anteriores.
Duración del experimento: La cantidad de tiempo que el servicio Personalizer espera una recompensa, desde el momento en que se realizó la llamada de Rank en el evento.
Eventos inactivos: Un evento inactivo es aquel en el que llamó a Rank, pero no está seguro de que el usuario vea alguna vez el resultado, debido a decisiones de la aplicación cliente. Los eventos inactivos le permiten crear y almacenar resultados de la personalización y, después, decidir descartarlos más adelante sin que ello afecte al modelo de Machine Learning.
Recompensa: una medida de la forma en que el usuario respondió al id. de acción de Reward devuelta por API Rank, en forma de puntuación entre 0 y 1. El valor de 0 a 1 lo establece la lógica de negocios, en función de la forma en que la elección ha ayudado a lograr los objetivos empresariales de personalización. El bucle de aprendizaje no almacena esta recompensa como historial de usuario individual.
Evaluaciones
Evaluaciones sin conexión
Evaluación: una evaluación sin conexión determina la mejor directiva de aprendizaje para el bucle en función de los datos de la aplicación.
Directiva de aprendizaje: la manera en que Personalizer entrena un modelo en cada evento la determinarán algunos parámetros que afectan el funcionamiento de los algoritmos del aprendizaje automático. Un nuevo bucle de aprendizaje se iniciará con una directiva de aprendizaje predeterminada, que puede generar un rendimiento moderado. Cuando ejecuta las evaluaciones, Personalizer crea directivas de aprendizaje nuevas específicamente optimizadas para los casos de uso del bucle. Personalizer tendrá un rendimiento mucho mejor con directivas optimizadas para cada bucle específico, generado durante la evaluación. La directiva de aprendizaje se denomina configuración de aprendizaje en la configuración de modelo y aprendizaje del recurso de Personalizer en Azure Portal.
Evaluaciones del modo de aprendiz
El modo de aprendiz proporciona las siguientes métricas de evaluación:
- Línea base: promedio de recompensa: promedio de recompensas del valor predeterminado de la aplicación (línea base).
- Personalizer: promedio de recompensa: Promedio de recompensas totales que Personalizer puede haber alcanzado.
- Promedio de recompensas acumuladas: Proporción de recompensas de línea de base y de Personalizer, normalizadas con los últimos 1000 eventos.
Pasos siguientes
- Información sobre Ética y uso responsable