Il 21 settembre di tre anni fa Stephanie Mistre trovò la figlia quindicenne Marie senza vita, suicida nella sua camera da letto. «Sono passata dalla luce all’oscurità in una frazione di secondo» dice parlando del giorno che ha segnato anche l’inizio della sua battaglia legale contro TikTok. Sette famiglie francesi, tra cui quella della signora Mistre, hanno portato Tiktok in tribunale accusando la piattaforma cinese di non fare abbastanza per rendere l’app un «luogo sicuro» per gli adolescenti. L’accusa è all’algoritmo «progettato per intrappolare gli utenti vulnerabili in vortici di disperazione esclusivamente per profitto».
Dopo il suicidio della figlia la signora Mistre, che vive a Cassis, vicino a Marsiglia, ha scoperto una serie di video che illustravano diversi metodi di suicidio, tutorial e commenti che incoraggiavano gli utenti «ad andare oltre i semplici tentativi di suicidio». È stato l’algoritmo di TikTok a proporre ripetutamente a sua figlia contenuti di questo genere. «Come un lavaggio del cervello. Hanno normalizzato la depressione e l’autolesionismo, trasformandoli in un distorto senso di appartenenza – commenta Mistre, che ha anche denunciato per bullismo cinque compagni di classe e la scuola superiore della figlia per il bullismo subito in classe –. Mettere quest’app nelle mani di un adolescente empatico e sensibile che non sa distinguere cosa è reale da cosa non lo è, è come una bomba a orologeria».
TikTok ribatte che le sue linee guida proibiscono «qualsiasi promozione del suicidio» e che per monitorare i contenuti condivisi impiega 40mila professionisti in tutto il mondo, centinaia dei quali sono moderatori francofoni. L’azienda ha inoltre garantito di indirizzare gli utenti che cercano video correlati al suicidio ai servizi di salute mentale. Ma anche prima di suicidarsi Marie aveva girato diversi video per spiegare la sua decisione, parlando delle difficoltà della sua vita e citando una canzone del gruppo emo-rap della Louisiana “Suicideboys”, molto popolare su TikTok.
«Gli scienziati non hanno ancora stabilito un chiaro legame tra i social media e i problemi di salute mentale»
«Gli scienziati non hanno ancora stabilito un chiaro legame tra i social media e i problemi di salute mentale o i danni psicologici» ragiona Grégoire Borst, professore di psicologia e neuroscienze cognitive dell’Università Paris-Cité. «È molto difficile dimostrare una chiara relazione di causa ed effetto in quest’area» continua Borst sottolineando che nessuno studio suggerisce che TikTok sia più dannoso di app rivali come Snapchat, X, Facebook o Instagram. «Sebbene la maggior parte degli adolescenti utilizzi i social media senza subire danni significativi, i veri rischi – conclude il ricercatore – li corre chi già sta affrontano sfide come il bullismo o l’instabilità familiare. Quando gli adolescenti si sentono già male con se stessi e trascorrono il loro tempo esposti a immagini distorte o a confronti sociali dannosi il loro stato mentale può peggiorare».
L’avvocato delle famiglie: «Nella versione cinese i controlli sono più severi, alcune funzionalità algoritmiche vanno vietate»
L’avvocato Laure Boutron-Marmion, che rappresenta le sette famiglie che hanno dato il via alla causa contro TikTok, sostiene che il loro caso si basa su «prove esaustive» e che l’azienda «non può più nascondersi dietro all’affermazione che non è sua responsabilità perché non crea i contenuti» Boutron-Marmion inoltre ha sottolineato che la versione cinese di TikTok, Douyin, prevede controlli molto più severi sui contenuti per gli utenti più giovani. C’è una “modalità giovani” obbligatoria per gli utenti con meno di 14 anni che limita il tempo trascorso davanti allo schermo a 40 minuti al giorno e fa circolare solo contenuti approvati. in precedenza. L’indagine commissionato dal presidente francese Emmanuel Macron con il contribuito di Borst ha concluso che «alcune funzionalità algoritmiche dovrebbero essere considerate come fonti di dipendenza e vietate da qualsiasi app in Francia». Il rapporto chiede inoltre di limitare l’accesso ai social media ai minori di 15 anni, ma nessuna misura del genere è ancora stata adottata.
La tecnica dell’algospeak per eludere la moderazione dei contenuti
Imran Ahmed, ceo del Center for Countering Digital Hate, ha smentito l’affermazione di TikTok secondo cui oltre il 98,8% dei video dannosi sarebbe stato segnalato e rimosso tra aprile e giugno. Alla domanda sui punti ciechi dei loro sforzi di moderazione, le piattaforme di social media sostengono che gli utenti riescono a eludere la moderazione con un linguaggio ambiguo o allusioni che gli algoritmi fanno fatica a segnalare. Il termine “algospeak” è stato coniato per descrivere tecniche come l’uso di emoji di zebra o di armadillo per parlare di tagliarsi, o dell’emoji della bandiera svizzera come allusione al suicidio. «Queste parole in codice non sono particolarmente sofisticate – sostiene Ahmed . L’unica ragione per cui TikTok non riesce a trovarli quando ricercatori indipendenti, giornalisti e altri ci riescono è perché non sta cercando abbastanza attentamente». Nel 2022 la sua fondazione ha portato avanti uno studio simulando l’esperienza di una ragazza di 13 anni che apre un nuovo profilo su TikTok. «Nel giro di due minuti e mezzo l’algoritmo ha iniziato a suggerire contenuti autolesionistici – ha affermato Ahmed – Dopo otto minuti altri contenuti sui disturbi alimentari. Ogni 39 secondi l’algoritmo ha suggerito dei contenuti dannosi. Perché sa che i contenuti sui disturbi alimentari e sull’autolesionismo creano dipendenza, soprattutto tra le ragazze più giovani».
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link