MADRID, 10 (SERVIMEDIA)
Solo el 2% de los contenidos notificados por el Observatorio Español del Racismo y la Xenofobia (Oberaxe) del Ministerio de Inclusión, Seguridad Social y Migraciones en 2025 fueron retirados en las primeras 24 horas.
Así lo revela el informe de 'Monitorización del discurso de odio en redes sociales: reacción y eficacia de las plataformas' de Inclusión publicado recientemente en el que también se muestra que existe una baja tasa de retirada inmediata de este tipo de contenidos y las plataformas aún tienen "margen de mejora" en la eliminación de esos contenidos.
Además, en el primer semestre de 2025 se detectó, mediante el sistema de monitoreo FARO, cerca de medio millón de contenidos de discurso de odio racista, xenófobo, antisemita, antigitano o islamófobo, al conjunto de las plataformas, muchos de ellos con potencial de constituir delito o infracción. Asimismo, las plataformas en su conjunto retiraron 595 contenidos del total de las 1.809 notificaciones del Oberaxe, es decir, el 33%.
Estos datos evidencian la persistencia del discurso de odio en las principales redes sociales. Por otro lado, el informe expone también la diferencia en la eficacia de retirada de contenidos según la vía de notificación. Las plataformas son más efectivas cuándo se emplea la vía de comunicante fiable ('trusted flagger').
En el primer semestre de 2025, se retiró a través de esta vía el 23% del contenido notificado, y tan solo el 10% se eliminó tras la notificación como usuario normal. Se quitaron 186 notificaciones como usuario normal (10%) y la vía 'trusted flagger' fue empleada este trimestre en 1.623 ocasiones, se eliminaron 409 publicaciones más, lo que supone un 23% adicional.
Así pues, existe la necesidad de fortalecer la denuncia a través de usuario normal y promover su uso por parte de la ciudadanía. Igualmente, otro de los factores determinantes en la eliminación de estos contenidos es la eficacia según la plataforma que sea y sus políticas internas. TikTok destaca con una tasa de retirada de casi el 90% en 2025 y del 69% en 2024.
En cambio, otras plataformas redujeron su eficacia tras cambios en sus políticas de moderación, presentando un "desafío" para garantizar un entorno digital "seguro y respetuoso", argumenta el informe del Oberaxe. Además, este documento fue objeto de debate en la última y reciente reunión entre la ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, y representantes de las principales plataformas digitales (Meta, X, TikTok y Google).
En dicha reunión también se creó un grupo de seguimiento permanente con las grandes plataformas para analizar y monitorizar los discursos de odio en redes sociales de forma periódica. El grupo de trabajo será conjunto entre Inclusión, las plataformas y el propio Oberaxe. También las tecnológicas pusieron en común sus políticas internas para la detección de las campañas de desinformación y del odio en redes.
|