Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Portada
Etiquetas

Alertan de que la Inteligencia Artificial puede acentuar la desigualdad de género

Agencias
jueves, 10 de junio de 2021, 13:43 h (CET)

MADRID, 10 (SERVIMEDIA)


El uso de la Inteligencia Artificial (IA) en el sector público puede implicar algunos riesgos, entre ellos los asociados a la cronificación de la desigualdad de género, según un estudio presentado por la Fundación Alternativas este jueves.


Las conclusiones del trabajo, titulado ‘Inteligencia artificial e igualdad de género; un análisis comparado entre la UE, Suecia y España’, se dieron a conocer en un debate virtual organizado por la fundación y presentado por sus autoras: Ariana Guevara Gómez y Lucía Ortiz de Zárate.


La investigación se llevó a cabo con el objetivo de abordar la adopción y el uso de la IA desde una perspectiva de género para garantizar un uso “democrático” de las nuevas tecnologías que sea respetuoso con los derechos humanos, según destacaron las autoras.


En el estudio se muestra que la IA puede traer cambios en el sector público, entre otros factores, por su capacidad de almacenamiento, manejo y procesamiento de datos, junto al uso de nuevas técnicas. Así, el uso de la IA en el sector permitirá que estas tecnologías realicen tareas que hasta ahora no se le podían atribuir a las máquinas y a más velocidad. Estos cambios transformarán el paradigma administrativo de países que sustituyan sus estructuras burocráticas por estructuras algorítmicas.


En contraposición, entre las desventajas más importantes de una mala adopción de la IA el estudio destaca la perpetuación de sesgos existentes (en algunos casos amplificación), la opacidad algorítmica, la falta de transparencia en los datos, problemas de privacidad y pérdida de empleo. Además, revela que todos estos problemas son peligrosos, en particular, en el caso de las mujeres.


Las dos principales fuentes de discriminación de las mujeres cuando se usa la IA, según indica el estudio son los problemas y sesgos en los datos, y los problemas con el diseño de los algoritmos. En el caso de los datos, la falta de representatividad y los sesgos presentes a la hora de la elaboración que luego quedan registrados son los dos factores a los que prestar atención. En cuanto al diseño de los algoritmos, se debe incluir la perspectiva de género para corregir los sesgos en los datos, según exponen las autoras.


En las conclusiones del estudio se advierte de que “si queremos asegurar que este nuevo paradigma sea sinónimo de progreso y no de retroceso, primero hay que tener en cuenta y resolver diferentes cuestiones, tanto técnicas como sociales”.


Por otro lado, en el trabajo se refleja que España “transita dentro de la senda adecuada en la lucha a favor de la igualdad de género a través del uso de IA”, sin embargo, alerta de que todavía se encuentra lejos de otros países como Suecia.


Noticias relacionadas

El Juzgado Contencioso-Administrativo de Pontevedra ha anulado una factura de 15.600 € que pretendía cobrar la Distribuidora del grupo Naturgy alegando un “fraude eléctrico” que no ha podido demostrar en el juicio. En sentencia firme, UFD Distribución contra el recurso presentado ante la Resolución de la Xunta de Galicia, que daba la razón al titular del contrato de suministro y consideraba nula la refacturación practicada por alegar un ‘fraude eléctrico’ en el contador de electricidad.

Sí, me refiero a ti. A ese que de vez en cuando va a recoger a sus nietos al cole. A esos que están sentados en un banco de un jardín e incluso a los que están echando una partidita de dominó, esperando matar al contrario esos seis dobles que están a la expectativa, mirando de reojo al rival para que no le asesinen esa ficha adversa que todos no sabemos dónde meter cuando nos hunde la suerte en el reparto de fichas. A

La Asociación Mundial de Atletismo (World Athletics) publicó este jueves las conclusiones de un estudio realizado durante los Juegos Olímpicos de Paris 2024 con el objetivo de identificar y proteger a los atletas de los mensajes abusivos enviados a través de las plataformas de las redes sociales, siendo el racismo, con un 18%, y el abuso sexualizado (30%) los principales problemas.
 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto