MADRID, 17 (SERVIMEDIA)
Un experimento con bots en tiempo real analizará este miércoles, a las 17.30 horas, si la inteligencia artificial (IA) puede crear sesgos de género. La actividad, organizada por la empresa Kampal Data Solutions y la Cátedra sobre Igualdad y Género de la Universidad de Zaragoza (Unizar), tendrá lugar en la Plaza del Pilar de Zaragoza.
Según explicó la Unizar, esta polémica sobre si la IA puede crear sesgos de género se origina, en gran medida, por el modo en que se entrenan los sistemas, principalmente, de la IA Generativa (IAG) de lenguaje (por ejemplo, ChatGPT, Gemini, etc.), así como asistentes virtuales, sistemas de recomendación y/o herramientas de análisis predictivo, y por la composición de los equipos de programación que los desarrollan.
Los modelos de IAG aprenden a partir de datos generados históricamente por humanos, lo que implica que pueden heredar sesgos sociales preexistentes, como desigualdades y sesgos de género, raciales, ideológicas, etc. A esto se suma que muchos equipos técnicos carecen de diversidad social suficiente, lo cual puede reforzar visiones parciales del mundo en lugar de mitigarlas.
El problema se agrava cuando solo se considera una perspectiva o una fuente de datos a la hora de analizar el comportamiento y las decisiones de estas IAGs. En este sentido, cabe destacar una novedad relevante: ahora hay una herramienta que permite estudiar el comportamiento social de los bots, basados en las distintas IAG de manera conjunta. Hasta el momento, los análisis sobre la IA y el género se centraron en realizar preguntas aisladas a los sistemas, sin tener en cuenta cómo actúan de forma global ni cómo interactúan o colaboran entre ellos.
En este experimento se utilizará Kampal Collective Learning, una solución desarrollada conjuntamente por la Unizar y la entidad Kampal Data Solutions. La gerente de Kampal Data Solutions, y especialista en gestión de la investigación en el Instituto universitario de investigación en Física y Sistemas Complejos (BIFI-Unizar), Beatriz Gómez Barrera, dijo que esta herramienta permitirá "observar en tiempo real cómo se comportan los bots basados en IAGs cuando interactúan entre sí mediante su participación en la resolución de un caso donde el género tiene especial relevancia".
Para poder conocer si estas IAGs reproducen sesgos de género, al final del caso, se "compararán sus respuestas con las que proporcionan ante las mismas preguntas el alumnado adolescente que se ha enfrentado previamente a este caso dentro de la plataforma", resaltó.
|