La
Autoridad Garante de la Competencia y del Mercado (AGCM) de
Italia multó a la plataforma TikTok con 10 millones de euros
(casi 11 millones de dólares) por su
falta de control de contenidos que dejó a los menores sin una protección adecuada.
"La compañía no ha aplicado mecanismos adecuados para monitorear los contenidos publicados en la plataforma, en particular aquellos que pueden
amenazar la seguridad de los menores y personas vulnerables", indicó la institución en un comunicado.
Agregó que "estos
contenidos se vuelven a proponer sistemáticamente a los usuarios
gracias a su algoritmo de evaluación de perfiles, lo que
estimula un uso cada vez mayor de la red social".
En concreto, la AGCM impuso una multa de 10 millones de euros "de forma solidaria" a
tres empresas del grupo Bytedance, en el que se integran la irlandesa TikTok Technology Limited, la británica TikTok Information Tecnologies y la italiana TikTok Italy Srl.
La AGCM dijo que
TikTok no cumplió plenamente con las orientaciones que anunciaron para asegurar que la aplicación
fuera un espacio seguro.
Agregó que contenidos
"potencialmente peligrosos" son promovidos por el sistema de recomendaciones de TikTok.
La viralización de conductas autolesivas
En esa línea la (AGCM) citó el desafío llamado "
la cicatriz francesa", en la que
niños se pellizcan las mejillas con tanta fuerza y durante tanto tiempo que tiene que salir
moretones, pero que incluso puede dejar señales permanentes
. Este
fenómeno es explicado en tutoriales de TikTok, lo que ha generado preocupación entre autoridades educativas y de salud.
Así, en dicha red social durante el 2023 se publicaron
numerosos videos de jóvenes que incurrían en conductas autolesivas en este reto
que se hizo viral, lo que provocó que se iniciara una
investigación.
"La indagación
permitió comprobar la responsabilidad de TikTok en la difusión de contenidos como los relacionados con el desafío de la cicatriz francesa, que pueden
amenazar la seguridad psicofísica de los usuarios, especialmente si son menores y vulnerables", explicó la (AGCM) en su web.
El organismo, que
inició la indagación en marzo de 2023, sostiene que TikTok "
no ha tomado medidas adecuadas para evitar la difusión de dichos contenidos" a pesar de que, en sus directrices de uso, la
compañía asegura que la plataforma es "un espacio seguro".
Además, estos contenidos se difunden a través
"de un sistema de recomendación basado en un
perfil algorítmico de los usuarios que selecciona constantemente qué videos asignar a cada consumidor" con
el objetivo de "aumentar sus interacciones y el tiempo de permanencia en la plataforma".
"Esto provoca
un condicionamiento indebido a los usuarios, a los que se anima a utilizar cada vez más la plataforma", concluye el comunicado de la AGCM, que el año pasado llevó a cabo, con la ayuda de la Unidad Especial Antimonopolio de la Guardia de Finanzas, un registro en la sede italiana de la compañía.
Tras el inicio de las averiguaciones,
TikTok alegó que colaboraría "estrechamente" con las autoridades italianas, y aseguró que no permitían "contenidos que muestren o promuevan actividades y retos peligrosos" y que sus políticas de recomendació
n "ayudan a garantizar la seguridad" de la comunidad.