Il più grande studio indipendente sull’odio su TikTok ha scoperto che i video anti-asiatici e filo-nazisti raccolgono milioni di visualizzazioni, spesso utilizzando canzoni pop per eludere i moderatori automatici della piattaforma.
i punti principali:
- Il report di TikTok “Hatescape” è stato il risultato di tre mesi di ricerca
- I ricercatori hanno scoperto che azioni semplici come l’ortografia errata di una parola erano sufficienti per nascondere un video ai moderatori
- Diverse tecniche di dribbling sono incluse nell’app
Un rapporto dell’Institute for Strategic Dialogue (ISD), un centro di ricerca con sede a Londra per combattere l’estremismo, ha affermato che la principale piattaforma sociale è “popolare tra coloro che intendono utilizzare gli spazi online per produrre, diffondere e promuovere l’odio e l’estremismo”.
Il rapporto Hatescape, il risultato di tre mesi di ricerca, ha scoperto che alcuni dei suoi contenuti razzisti o terroristici erano motivati o collegati agli australiani.
Uno dei video che ha raccolto più di due milioni di visualizzazioni include un uomo caucasico che mangia una mazza in un riferimento offensivo agli stereotipi sui cinesi.
Altri video mostrano australiani che appaiono come un uomo in nero o come un ufficiale di polizia durante una “rievocazione” dell’omicidio di George Floyd, la cui morte ha suscitato proteste globali lo scorso anno con il titolo “Black Lives Matter”.
“Questo genere di cose si ripete su tutta la linea”, ha detto l’autore dello studio Kieran O’Connor.
“I commenti qui sotto enfatizzano gli argomenti trattati e come generano situazioni spiacevoli”.
Anche se non sorprende che i gruppi marginali utilizzino piattaforme di social media per pubblicare materiale odioso, gli esperti affermano che TikTok ha generato modi creativi per distribuire contenuti ed evitare le rimozioni automatiche.
Queste stranezze includevano qualcosa di semplice come cambiare la colonna sonora, ma non è ancora chiaro cosa funzioni esattamente.
“TikTok è noto per essere una piattaforma molto difficile da studiare, per una ragione è un nuovo genere e non c’è molta metodologia”, ha affermato Ariel Bogle, analista presso l’International Electronic Policy Center (ICPC).
“È anche guidato da un algoritmo che è rimasto molto misterioso”.
O’Connor ha detto che nel suo campione di 1.030 video – compilato da una libreria di hashtag e frasi comuni pubblicate da gruppi marginali – c’era un contenuto terribile su tutti i tipi di gruppi protetti.
Ha spesso utilizzato video anti-asiatici COVID-19 o altri hashtag non correlati, che secondo O’Connor rendono il contenuto più rilevabile e possono mostrarlo a persone che altrimenti non lo vedrebbero.
Quasi la metà dei video del campione erano materiale filo-nazista e alcuni mostravano filmati della trasmissione in diretta dell’assassino di Christchurch o persone che leggevano direttamente la sua dichiarazione.
Questo contenuto è illegale in molte giurisdizioni e alcuni post potrebbero contenere un collegamento che indirizza gli spettatori a un canale di messaggistica crittografato contenente materiale più estremista.
È stato anche scoperto che TikTok attrae altri tipi marginali come i gruppi anti-transgender o l’ideologia degli uomini che vanno per la loro strada, una propaggine del movimento incel anti-donne.
O’Connoer ha affermato che oltre l’80% dei video era ancora in diretta alla conclusione dello studio, ma ABC è consapevole che da allora la piattaforma li ha cancellati tutti dopo che sono stati segnalati da ISD.
Sebbene TikTok abbia affermato di rimuovere la stragrande maggioranza dei contenuti che violano la sua politica entro 24 ore, molte delle funzionalità utilizzate per eludere i suoi moderatori sono integrate nella piattaforma.
Sia la sig.ra Bogle che l’ISD hanno indicato semplici modi in cui gli utenti evitano la moderazione, come cambiare un carattere in una frase o un nome di account vietati o scrivere in modo errato un hashtag.
Altre tecnologie utilizzavano la funzione “Stitch” o “Duet” dell’app che combinava materiale vietato e nazista con altri video, spuntando in alcuni casi abbastanza da evitare la censura.
“C’è sempre una sorta di gioco del gatto e del topo, con la moderazione di TikTok”, ha detto Bogle.
“Ho anche visto personaggi i cui account sono stati rimossi da TikTok ma sono rimasti sulla piattaforma perché altre persone li hanno appena ricaricati, possibilmente con una colonna sonora diversa”.
TikTok può anche disattivare l’audio dei video che contengono audio che violano le linee guida della community, ma una soluzione efficace è utilizzare i brani dei cataloghi dell’app.
La canzone preferita dei gruppi marginali, secondo Mr. O’Connor, era Little Dark Age degli MGMT.
Anche in primo piano nel campione ISD c’era la persona Gotye che conoscevo e Kate Bush corse su quella collina.
Nessuna di queste canzoni contiene connotazioni estreme.
O’Connor ha affermato che mentre TikTok ha imparato dalle insidie e dagli errori commessi da altre società di social media e la maggior parte dei video segnalati ha avuto un basso coinvolgimento, ha affermato che la società ha bisogno di maggiore trasparenza su come modifica il suo contenuto.
“C’è una lacuna nell’applicazione dell’approccio di TikTok all’odio e all’estremismo… Questo contenuto è stato rimosso, ma in modo incoerente”, ha affermato.
Una portavoce di TikTok ha affermato che i social media apprezzano “molte” le ricerche prodotte da ISD e altre organizzazioni.
“TikTok proibisce categoricamente l’estremismo violento e il comportamento di odio e il nostro team dedicato rimuoverà qualsiasi contenuto di questo tipo in quanto viola le nostre politiche e mina l’esperienza creativa e gioiosa che le persone si aspettano sulla nostra piattaforma”, ha affermato in una nota.
“Apprezziamo molto la nostra collaborazione con ISD e altri la cui ricerca critica sulle sfide a livello di settore aiuta a far progredire il modo in cui implementiamo le nostre politiche per mantenere la nostra piattaforma sicura e accogliente”.
“Nerd televisivo. Ninja di Twitter. Evangelista della birra. Difensore di Internet professionista.”