Megosztás a következőn keresztül:


A Personalizer tanulási ciklusának konfigurálása

Fontos

2023. szeptember 20-tól nem hozhat létre új Personalizer-erőforrásokat. A Personalizer szolgáltatás 2026. október 1-jén megszűnik.

A szolgáltatáskonfiguráció tartalmazza, hogy a szolgáltatás hogyan kezeli a jutalmakat, milyen gyakran vizsgálja meg a szolgáltatást, milyen gyakran tanítja újra a modellt, és mennyi adatot tárol.

Konfigurálja a tanulási ciklust a Konfiguráció lapon, az Azure Portalon az adott Personalizer-erőforráshoz.

Konfigurációmódosítások tervezése

Mivel néhány konfigurációs módosítás alaphelyzetbe állítja a modellt, érdemes megterveznie a konfiguráció módosításait.

Ha a Apprentice módot tervezi használni, ellenőrizze a Personalizer konfigurációját, mielőtt a Apprentice módra váltana.

A modell alaphelyzetbe állítását tartalmazó beállítások

Az alábbi műveletek a modell újratanítását indítják el az elmúlt 2 napban rendelkezésre álló adatok használatával.

  • Jutalom
  • Feltárás

Az összes adat törléséhez használja a Modell és a Tanulás beállításai lapot.

Jutalmak konfigurálása a visszajelzési ciklushoz

Konfigurálja a szolgáltatást a tanulási ciklus jutalomhasználatához. Az alábbi értékek módosításai visszaállítják az aktuális Personalizer-modellt, és újratanítást hajtanak végre az elmúlt 2 nap adataival.

A visszajelzési ciklus jutalomértékeinek konfigurálása

Érték Cél
Jutalom várakozási ideje Meghatározza, hogy a Personalizer mennyi ideig gyűjt jutalomértékeket egy ranghíváshoz, attól kezdve, hogy a Rang hívás történik. Ez az érték úgy van beállítva, hogy megkérdezi: "Mennyi ideig kell a Personalizer megvárni a jutalomhívásokat?" Az ablak után érkező jutalmak naplózásra kerülnek, de tanulásra nem használhatók.
Alapértelmezett jutalom Ha a Personalizer nem kap jutalomhívást a Rang híváshoz társított Jutalom várakozási idő időszaka alatt, a Personalizer hozzárendeli az alapértelmezett jutalmat. Alapértelmezés szerint, és a legtöbb forgatókönyvben a Default Reward értéke nulla (0).
Jutalom aggregáció Ha több jutalom is érkezik ugyanahhoz a Rank API-híváshoz, a rendszer ezt az összesítési módszert használja: összeg vagy legkorábbi. A legkorábbi érték a kapott legkorábbi pontszámot választja ki, és elveti a többit. Ez akkor hasznos, ha egyedi jutalomra van szüksége az esetleg ismétlődő hívások között.

Az értékek módosítása után mindenképpen válassza a Mentés lehetőséget.

A feltárás konfigurálása a tanulási ciklus alkalmazkodásának engedélyezéséhez

A személyre szabás képes új mintákat felderíteni, és alkalmazkodni a felhasználói viselkedés időbeli változásaihoz úgy, hogy alternatív megoldásokat keres a betanított modell előrejelzése helyett. A feltárási érték határozza meg, hogy a ranghívások hány százaléka fogadható a feltárással.

Az érték módosítása visszaállítja az aktuális Personalizer-modellt, és újratanítást hajt végre az elmúlt 2 nap adataival.

A feltárási érték határozza meg, hogy a ranghívások hány százaléka fogadható a feltárással

Az érték módosítása után mindenképpen válassza a Mentés lehetőséget.

Modellfrissítési gyakoriság konfigurálása a modell betanításához

A modellfrissítés gyakorisága határozza meg a modell betanításának gyakoriságát.

Gyakorisági beállítás Cél
1 perc Az egyperces frissítési gyakoriságok akkor hasznosak, ha egy alkalmazás kódját a Personalizer használatával hibakereséssel , bemutatókkal vagy gépi tanulási szempontok interaktív teszteléséhez használják.
15 perc A magas modellfrissítési gyakoriságok olyan helyzetekben hasznosak, amikor szorosan nyomon szeretné követni a felhasználói viselkedés változásait . Ilyenek például az élő híreken, vírustartalmakon vagy élő terméklicencián futó webhelyek. Ezekben a forgatókönyvekben 15 perces gyakoriságot használhat.
1 óra A legtöbb használati esetben alacsonyabb frissítési gyakoriság érvényes.

A modellfrissítés gyakorisága azt határozza meg, hogy az új Personalizer-modellek milyen gyakran vannak újratanításban.

Az érték módosítása után mindenképpen válassza a Mentés lehetőséget.

Adatmegőrzés

Az adatmegőrzési időszak azt határozza meg, hogy a Personalizer hány napig tárolja az adatnaplókat. A korábbi adatnaplók szükségesek az offline értékelések elvégzéséhez, amelyek a Personalizer hatékonyságának mérésére és a tanulási szabályzat optimalizálására szolgálnak.

Az érték módosítása után mindenképpen válassza a Mentés lehetőséget.

Következő lépések

A modell kezelésének ismertetése