Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Display
Etiquetas | Herramienta | Inteligencia artificial | Toxicidad | Lenguaje | Políticos

Desarrollan un sistema de inteligencia artificial que analiza la toxicidad en el discurso político

La herramienta, creada por un equipo de la Universidad Politécnica de Valencia, ya se ha utilizado para analizar 10 sesiones de las Cortes Valencianas
Redacción
viernes, 21 de marzo de 2025, 12:12 h (CET)

Un equipo del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) ha desarrollado una metodología con un sistema de inteligencia artificial modular que es capaz de identificar con una mayor precisión la ironía, la crítica mordaz o el sarcasmo para detectar cuándo el lenguaje político cruza el umbral de la toxicidad.


Foto 2


Esta metodología ya se ha puesto a prueba en el análisis de 10 sesiones de Les Corts Valencianes. De estas sesiones se seleccionaron 875 muestras, la mitad de las cuales, 435, tenían una puntuación de toxicidad superior al 50%, lo que implica una mayor probabilidad de toxicidad, mientras que la otra mitad tenía una puntuación de toxicidad inferior al 50%.


Conclusiones en la conferencia internacional ICAART 2025


El equipo de investigadores de VRAIN de la UPV, formado por los miembros del grupo PROS, Antoni Mestre, Joan Fons, Manoli Albert, Vicente Pelechano, y la investigadora del departamento de informática de la Universitat de València, Miriam Gil, junto al investigador de la Università degli Studi del Sannio en Benevento (Italia), Franccesco Malafarina, son los desarrolladores de esta metodología cuyas conclusiones han presentado recientemente. Bajo el título “IA enriquecida en sentimientos para la detección de discursos tóxicos; Un caso de estudio de discursos políticos en Les Corts Valencianes”, el artículo ha sido expuesto en la conferencia internacional de agentes e inteligencia artificial (ICAART) 2025 celebrada en la ciudad de Porto.


Nuevas posibilidades para la moderación automatizada


El estudio, aplicado a intervenciones en Les Corts Valencianes, propone un enfoque innovador que mejora los sistemas tradicionales de detección de discurso tóxico al introducir una “zona de confusión”. En lugar de etiquetar un mensaje como simplemente tóxico o no tóxico, la IA detecta los casos más ambiguos y los somete a un análisis de sentimiento que permite evaluar mejor el tono emocional del discurso”, explica el investigador de VRAIN de la UPV, Antoni Mestre.


Mientras que los resultados, sin la zona de confusión, alcanzan una precisión del 80,35%, cuando se incorpora la capa de análisis de sentimiento a la detección de discursos tóxicos, sobre todo en contextos políticamente cargados y lingüísticamente complejos, como Les Corts, la precisión mejora hasta el 87,89%.


“Nuestro trabajo ofrece una visión más matizada del lenguaje político. Y abre nuevas posibilidades para la moderación automatizada de contenidos y el análisis del debate público con herramientas más sofisticadas y justas. Su aplicación en los parlamentos permitiría a sus presidentes moderar el debate de manera más equitativa y precisa, garantizando un discurso más respetuoso y constructivo”, concluye Antoni Mestre.

Noticias relacionadas

En el ámbito laboral, el 73% de la población considera que las tecnologías digitales más recientes, incluyendo la IA, tendrán un impacto positivo y más de la mitad de la población (un 56%) tiene una opinión positiva sobre el uso de robots e IA, según se desprende de un informe del Observatorio Nacional de Tecnología y Sociedad (ONTSI).

¿Seguro usar OnlyFans? Esta es una pregunta que, en los últimos años, ha dejado de ser marginal para convertirse en una inquietud bastante extendida. Y no es para menos. Solo en 2024, se calcula que OnlyFans alcanzó más de 190 millones de usuarios registrados en todo el mundo, según datos de Statista. Pero con la popularidad también llegan los riesgos. ¿Vale la pena exponerse? ¿Qué tan privada puede ser realmente tu actividad?

¿Crees que tu teléfono es tu fiel compañero? Con la duplicación de pantalla no autorizada, los hackers pueden convertirlo en un agente doble y revelar tus secretos sin ningún esfuerzo. Entre los indicadores de un duplicamiento ilegal se encuentran los ruidos extraños durante las llamadas, la descarga rápida de la batería, la actividad aleatoria de la pantalla o un pico en el consumo de datos.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto