Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Portada
Etiquetas

Meta reduce los errores de moderación tras cambiar su sistema, aunque aumenta el contenido violento en Facebook

Agencias
viernes, 30 de mayo de 2025, 17:40 h (CET)

MADRID, 30 (Portaltic/EP)
Facebook ha registrado un aumento en el contenido de tipo violento y en los comportamientos de acoso en la red social durante el primer trimestre de 2025, a pesar de que ha reducido sus errores de moderación en un 50 por ciento y ha disminuido la cantidad de contenido eliminado por incumplir sus políticas.

La compañía anunció en enero un cambio en su sistema de moderación, con el que dejó de utilizar los verificadores externos para apostar por el programa de las notas de la comunidad. Igualmente, la tecnológica también anunció una serie de medidas para "facilitar la libertad de expresión" y reducir los errores de moderación, con cambios en sus políticas contra el discurso de odio.

Ahora, Meta ha compartido su informe de integridad del primer trimestre de 2025, donde ha mostrado por primera vez cómo han afectado dichos cambios en el sistema de moderación y sus políticas contra los discursos de odio, con consecuencias como ligeros aumentos en el contenido violento y comportamientos de acoso.

En concreto, la compañía ha señalado que ha conseguido reducir los errores de moderación "a la mitad" entre el cuarto trimestre de 2024 y el final del primer trimestre de este año. Estos errores de moderación incluyen la eliminación de contenido que no infringía realmente sus políticas.

Para ello, Meta ha señalado que han empleado medidas como auditar sus sistemas automatizados para hallar dónde se estaban cometiendo más errores de moderación y, tras ello, desactivarlos para mejorar sus resultados. Asimismo, han utilizado señales adicionales para mejorar la precisión de otros clasificadores.

Siguiendo esta línea, también se han elevado los umbrales de los sistemas automatizados de moderación, aumentando la revisión del contenido para asegurar si realmente está violando las políticas de Meta antes de eliminarlo, en algunos casos, "exigiendo múltiples capas de revisión".

En este sentido, Meta ha puntualizado que sus sistemas para gestionar el contenido en sus plataformas "se ha vuelto cada vez más complejos", por lo que trabajan para "encontrar el equilibrio adecuado".

"Si nuestra aplicación es demasiado limitada, corremos el riesgo de pasar por alto contenido potencialmente infractor, mientras que si es demasiado amplia, cometemos demasiados errores, lo que expone a demasiadas personas a medidas de control frustrantes", ha matizado.

AUMENTO EN EL CONTENIDO VIOLENTO Y DE ACOSO
A pesar de esta mejora en los errores de moderación, la compañía ha registrado un "ligero aumento" en la prevalencia de contenido sobre acoso e intimidación en Facebook. Concretamente, el porcentaje de este contenido ha aumentado de 0,07 al 0,08 y se ha debido principalmente a un "aumento repentino en la cantidad de contenido infractor" compartido en marzo.

También se ha registrado un aumento en el contenido violento y gráfico en Facebook, donde ha aumentado del 0,07 por ciento al 0,09 por ciento, debido igualmente a un incremento en la cantidad de contenido infractor compartido.

Por otra parte, en diversas áreas de política, Meta ha observado una disminución en la cantidad de contenido procesado, así como un descenso en la cantidad de "contenido apelado y finalmente restaurado".

REDUCCIÓN EN LA ELIMINACIÓN DE CONTENIDO
En general, con el nuevo sistema de moderación, Meta ha reducido la cantidad de contenido eliminado en sus plataformas durante el primer trimestre de 2025, con casi un tercio menos de contenido eliminado en Facebook e Instagram a nivel por incumplimiento de sus pautas, según ha recogido Wired.

Concretamente, Meta ha eliminado alrededor de un 50 por ciento menos de publicaciones por violar sus reglas de 'spam', un 36 por ciento menos de contenido no apto para niños y cerca de un 29 por ciento menos de publicaciones que representaban conductas de odio.

Con todo ello, Meta ha señalado que planea ampliar su Informe de Cumplimiento de las Normas Comunitarias para incluir métricas sobre sus errores. De esta manera, los usuarios podrán "monitorizar" su progreso en este ámbito.

Noticias relacionadas

El Juzgado Contencioso-Administrativo de Pontevedra ha anulado una factura de 15.600 € que pretendía cobrar la Distribuidora del grupo Naturgy alegando un “fraude eléctrico” que no ha podido demostrar en el juicio. En sentencia firme, UFD Distribución contra el recurso presentado ante la Resolución de la Xunta de Galicia, que daba la razón al titular del contrato de suministro y consideraba nula la refacturación practicada por alegar un ‘fraude eléctrico’ en el contador de electricidad.

Sí, me refiero a ti. A ese que de vez en cuando va a recoger a sus nietos al cole. A esos que están sentados en un banco de un jardín e incluso a los que están echando una partidita de dominó, esperando matar al contrario esos seis dobles que están a la expectativa, mirando de reojo al rival para que no le asesinen esa ficha adversa que todos no sabemos dónde meter cuando nos hunde la suerte en el reparto de fichas. A

La Asociación Mundial de Atletismo (World Athletics) publicó este jueves las conclusiones de un estudio realizado durante los Juegos Olímpicos de Paris 2024 con el objetivo de identificar y proteger a los atletas de los mensajes abusivos enviados a través de las plataformas de las redes sociales, siendo el racismo, con un 18%, y el abuso sexualizado (30%) los principales problemas.
 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto