Riepilogo
La proliferazione di contenuti generati dall'utente rende quasi impossibile per i moderatori umani gestire efficacemente le piattaforme online. Tuttavia, a mano a mano che aumenta la quantità di contenuti generati dall'utente, nello stesso modo aumenta l'importanza della sicurezza online.
Microsoft Foundry Content Safety usa modelli di intelligenza artificiale per rilevare automaticamente il linguaggio violento, sessuale, autolesionismo o odioso in tempo reale. Alloca un livello di gravità, in modo che i moderatori umani possano concentrarsi su casi ad alta priorità ed essere esposti a una quantità minore di contenuti anomali. Foundry Content Safety include funzionalità per moderare sia il materiale generato dagli utenti che quello generato dall'intelligenza artificiale.
In questo modulo si è visto come le funzionalità di Foundry Content Safety possano aiutare i marchi di e-commerce, le aziende di gioco e i docenti a fornire spazi più sicuri per gli utenti.