Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Portada
Etiquetas

IA+Igual lanza un Libro Blanco para desarrollar un estándar de certificación de IA en el trabajo y evitar sesgos

Agencias
jueves, 7 de agosto de 2025, 14:50 h (CET)

El proyecto IA+Igual ha publicado el Libro Blanco 'Un enfoque practico, ético y normativo para desarrollar un estándar de certificación de IA en el ámbito laboral' con las bases de desarrollo de un estándar de certificación de IA en el ámbito laboral para evitar el impacto de los sesgos.

El documento ha sido elaborado por un equipo de científicos y académicos del Instituto de Ciencias del Dato e Inteligencia Artificial (DATAI) de la Universidad de Navarra, partner académico del proyecto, como han dado a conocer sus impulsores.

Este Libro Blanco, realizado con la información recogida en el análisis empírico de siete algoritmos utilizados en diversos procesos de RRHH y tres casos sobre estrategia de Gobernanza del dato, es una propuesta de actuación sobre el impacto discriminatorio de los sesgos en el ámbito laboral y responde a las recomendaciones de supervisión algorítmica de la UE.

El objetivo principal del Libro Blanco es fomentar el entendimiento y la implementación de la IA en los procesos de gestión de personas, con especial atención a sus implicaciones éticas, legales y organizativas.

El investigador transferencia de DATAI y coautor del Libro Blanco, José Luis Poveda Marina, destaca que "a través de análisis de casos reales, se ilustran los impactos transformadores de estas tecnologías en el ámbito laboral, se lleva a cabo una revisión crítica de las normativas vigentes en materia de privacidad de datos y cumplimiento regulatorio y se plantean desafíos futuros entre ellos, la necesidad de que las soluciones de IA sean escalables, adaptables y sostenibles en un entorno de trabajo dinámico interconectado y en permanente evolución".

IN2, an Altia Company, ha sido la responsable de aportar el conocimiento para la elaboración del contenido técnico del documento. basándose en los análisis de algoritmos, los casos de uso y la experiencia de la compañía.

El equipo de analistas de datos ha desarrollado una metodología que ha ido evolucionando durante el proyecto y que se ha visto completada por la visión multidisciplinar del Consejo Asesor.

El Libro Blanco está dividido en cinco capítulos: IA en el ámbito laboral, marco legal para implantar la IA en el ámbito laboral, investigación empírica de IA aplicada a RRHH, recomendaciones para la certificación de sistemas aplicados a RRHH y retos futuros y conclusiones. Además, incluye un glosario y una completa bibliografía.

Entre los retos planteados en el curso del proyecto, el documento destaca que la transformación que está sufriendo el mercado laboral hace imprescindible por lo que aboga por entender que no toda la innovación tecnológica es neutral ni beneficiosa por defecto; asegurar que la IA se despliega con perspectiva inclusiva, legal y estratégica; y fortalecer la capacidad crítica de las organizaciones en torno al uso de datos y algoritmos.

En el marco de actuación público-privado, insta a reducir las barreras de entrada de la tecnología, evitando que únicamente las grandes empresas puedan implementar IA de forma segura y regulada; fomentar la mejora continúa, ofreciendo un marco normativo que permita avanzar desde niveles básicos de cumplimiento hasta niveles avanzados de gobernanza y transparencia; y construir confianza a todos los niveles, desde los directivos a usuarios, personas candidatas y ciudadanía en general.

En el ámbito legal, aconseja regular modelos auto aprendientes; estandarizar auditorías algorítmicas al considerar urgente establecer criterios técnicos, éticos y jurídicos estandarizados que permitan evaluar comparativamente distintos sistemas certificar su uso y generar confianza en su despliegue; gobernanza del dato en entornos federados y responsabilidad en IA generativa aplicada a RRHH.

SESGOS NO DETECTADOS
Además, entre otras conclusiones, el estudio concluye que hay sesgos no detectados ya que, con el objeto de evitar discriminaciones, las organizaciones eliminan variables cómo género o discapacidad pero esta práctica no garantiza la neutralidad, sino que puede ocultar sesgos implícitos que se mantienen a través de variables correlacionadas.

La investigación señala que existe también una falta de comprensión generalizada sobre cómo los sesgos pueden surgir de forma estructural y cómo deben abordarse y alerta de que la velocidad con la que se produce la transformación digital y las exigencias de competitividad dificultan la realización de evaluaciones de impacto.

Asimismo, añade, la eliminación de variables sensibles en el histórico de datos ha llevado a la invisibilización de colectivos vulnerables y constata una falta de preparación generalizada en el ámbito profesional para evaluar, seleccionar e implementar sistemas de IA, al tiempo que reclama una certificación ética y progresiva adaptada al grado de madurez de cada organización, lo que facilitaría la difusión de una cultura ética desde la base, ofreciendo seguridad jurídica y metodológica a las organizaciones.

Por ello, concluye que existe un triple reto en innovación social: cualificar a los profesionales para el uso ético de la IA, reconocer a los colectivos vulnerables en los datos o impedir que la tecnología agrave la desigualdad o perjudique los ODS.

Noticias relacionadas

El Juzgado Contencioso-Administrativo de Pontevedra ha anulado una factura de 15.600 € que pretendía cobrar la Distribuidora del grupo Naturgy alegando un “fraude eléctrico” que no ha podido demostrar en el juicio. En sentencia firme, UFD Distribución contra el recurso presentado ante la Resolución de la Xunta de Galicia, que daba la razón al titular del contrato de suministro y consideraba nula la refacturación practicada por alegar un ‘fraude eléctrico’ en el contador de electricidad.

Sí, me refiero a ti. A ese que de vez en cuando va a recoger a sus nietos al cole. A esos que están sentados en un banco de un jardín e incluso a los que están echando una partidita de dominó, esperando matar al contrario esos seis dobles que están a la expectativa, mirando de reojo al rival para que no le asesinen esa ficha adversa que todos no sabemos dónde meter cuando nos hunde la suerte en el reparto de fichas. A

La Asociación Mundial de Atletismo (World Athletics) publicó este jueves las conclusiones de un estudio realizado durante los Juegos Olímpicos de Paris 2024 con el objetivo de identificar y proteger a los atletas de los mensajes abusivos enviados a través de las plataformas de las redes sociales, siendo el racismo, con un 18%, y el abuso sexualizado (30%) los principales problemas.
 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto