Le famiglie fanno causa a TikTok dopo il suicidio di un quindicenne

Le famiglie fanno causa a TikTok dopo il suicidio di un quindicenne

In una mossa legale rivoluzionaria, sette famiglie in Francia hanno avviato una causa contro TikTok, sostenendo che la piattaforma non è riuscita a moderare in modo efficace i contenuti dannosi che potrebbero rappresentare un rischio per i minori.

Il caso è stato particolarmente sollecitato dalla tragica esperienza di Stephanie Mistre, la cui figlia si è tolta la vita all’età di 15 anni nel 2021. Mistre sostiene che durante le lotte di sua figlia, TikTok ha costantemente promosso video che esaltavano i metodi di suicidio. “È stato un lavaggio del cervello”, ha affermato, descrivendo come la piattaforma abbia creato un distorto senso di appartenenza tra i giovani utenti normalizzando temi di depressione e autolesionismo.

Azione legale contro TikTok

In una dichiarazione diretta, Mistre ha criticato il gigante dei social media per le sue pratiche: “Agganciano i bambini a contenuti depressivi per tenerli sulla piattaforma, trasformandoli in prodotti di re-engagement redditizi”. Queste accuse costituiscono una parte centrale delle argomentazioni legali contro TikTok, evidenziando preoccupazioni sulla potenziale mercificazione dei giovani vulnerabili.

Nonostante queste gravi accuse, TikTok ha difeso le sue operazioni, sostenendo che le sue linee guida della comunità proibiscono esplicitamente contenuti che promuovono l’autolesionismo e il suicidio. L’azienda ha anche sottolineato di impiegare un team di 40.000 professionisti della fiducia e della sicurezza dedicati al monitoraggio e alla lotta ai contenuti dannosi sulla piattaforma.

Laure Boutron-Marmion, l’avvocato che rappresenta le famiglie, ha sottolineato la solidità del loro caso, sottolineando che è supportato da prove sostanziali. Ha sostenuto che TikTok non può più sottrarsi alla responsabilità affermando di non creare i contenuti con cui interagiscono gli utenti.

Il logo di TikTok
TikTok

Inoltre, Boutron-Marmion ha indicato Douyin, la controparte cinese di TikTok, che presenta una “modalità Giovani” obbligatoria per gli utenti di età inferiore ai 14 anni. “Dimostra che possono moderare i contenuti quando lo desiderano”, ha affermato, evidenziando un contrasto significativo nelle pratiche di moderazione dei contenuti tra le due piattaforme.

Questa causa non è un caso isolato; TikTok ha già affrontato un esame simile in precedenza. A ottobre, una coalizione di 13 stati degli Stati Uniti ha intentato una causa sostenendo che i filtri visivamente accattivanti della piattaforma e la sua funzione di scorrimento automatico contribuiscono a effetti dannosi sulla salute mentale dei bambini, specificamente progettati per sfruttare la loro tendenza all’uso eccessivo.

Mentre questa battaglia legale si svolge, solleva interrogativi critici sulle responsabilità delle aziende di social media nel proteggere i loro utenti più giovani da contenuti potenzialmente dannosi.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *