Xbox ha presentato il suo secondo Transparency Report dedicato alla sicurezza dei giocatori, ossia agli investimenti e alle priorità dell'azienda nella materia. Il resoconto mette in evidenza quanto fatto per "aiutare i gamer su più fronti, con dati e informazioni che coprono il periodo luglio-dicembre 2022."
Il rapporto mette in luce le azioni intraprese per moderare i contenuti, che comprendono misure volte a garantire esperienze positive ai giocatori, utilizzando approcci sia proattivi che reattivi. La moderazione proattiva viene considerata un elemento essenziale per la protezione dei giocatori, e Xbox adotta diverse misure per ridurre il rischio di comportamenti dannosi e bloccare contenuti inappropriati prima che vengano resi disponibili.
Gli approcci proattivi includono l'utilizzo di Community Sift, una piattaforma basata sull'intelligenza artificiale e supervisionata da persone, che consente di individuare contenuti offensivi, sia testuali che visivi, in pochi millisecondi. Solo nell'ultimo anno, Community Sift ha analizzato oltre 20 miliardi di interazioni umane su Xbox.
Attualmente ci sono più di tre miliardi di giocatori in tutto il mondo. Le comunità online sono in costante crescita ed è diventato essenziale esercitare un certo controllo, per garantire che alcuni valori come lo spirito di squadra, una sana competizione e l'amicizia non vengano distrutti. Così è importante che gli ambienti di gioco siano sicuri, inclusivi e accoglienti.
Leggiamo quali sono i principali dati emersi dal rapporto:
Le misure proattive sono un fattore chiave per rendere più sicure le esperienze dei giocatori. In questo periodo, l'80% del totale delle implementazioni di Xbox è stato il risultato di sforzi di moderazione proattiva che comprende misure sia automatizzate che eseguite dall'uomo che filtrano i contenuti prima che raggiungano i giocatori. Gli strumenti automatizzati, come Community Sift, operano su testi, video e immagini e catturano i contenuti offensivi in pochi millisecondi. Solo nell'ultimo anno, Community Sift ha valutato 20 miliardi di interazioni umane su Xbox. Le misure proattive hanno inoltre rilevato il 100% delle violazioni degli account, della pirateria, del phishing e degli account fraudolenti/inautentici.
Maggiore attenzione ai contenuti inappropriati. Xbox è consapevole che le esigenze dei giocatori sono in continua evoluzione e prosegue nella valutazione dei feedback da parte loro su ciò che è o non è ammissibile sulla piattaforma, in linea con gli Standard della Community. Nell'ultimo periodo, l'azienda ha esteso la definizione di contenuti volgari, includendo: gesti offensivi, immagini sessuali e umorismo scurrile. Questo tipo di elementi è generalmente considerato di cattivo gusto e inappropriato, in quanto sminuisce l'esperienza di gioco. Il cambiamento di questa politica, insieme ai miglioramenti apportati ai sistemi di classificazione delle immagini, ha portato a un aumento del 450% del blocco di contenuti volgari, di cui il 90,2% è stato moderato in modo proattivo. Queste implementazioni spesso si traducono nella semplice rimozione del contenuto inappropriato, come dimostra l'aumento del 390% di miglioramento nei contenuti.
Prosegue il freno agli account non autentici. La moderazione proattiva di Xbox è aumentata di 16,5 volte rispetto allo stesso periodo dello scorso anno, consentendo così di individuare contenuti e comportamenti negativi prima che raggiungano i giocatori. Il team Xbox Safety ha stanziato più di 7,51 milioni di implementazioni proattive contro gli account non autentici, che rappresentano il 74% delle misure totali nel periodo di riferimento (rispetto al 57% del periodo precedente). Gli account non autentici sono, in linea di massima, profili automatizzati o creati da bot che generano un campo di gioco non equo e possono compromettere le esperienze positive dei giocatori. Xbox prosegue gli investimenti e le innovazioni tecnologiche per consentire ai giocatori di vivere esperienze sicure, positive e stimolanti.