Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Display
Etiquetas | Inteligencia artificial | Legislación | Unión Europa | CECU | Consumidores
La Federación de consumidores y Usuarios considera que el resultado de las negociaciones europeas sobre el texto final en torno a la inteligencia artificial es decepcionante

​El Reglamento de IA no protegerá adecuadamente a las personas consumidoras, según CECU

|

El pasado viernes, cerca de la medianoche, las instituciones de la UE llegaron, bajo la Presidencia española del Consejo de la Unión Europea, a un acuerdo provisional sobre la primera legislación del mundo sobre la inteligencia artificial. Sin embargo, desde CECU consideramos que el resultado es decepcionante en tanto no se han abordado todos los riesgos que esta tecnología representa para las personas consumidoras.


EuropaPress 5625088 november 2023 china in this photo illustration the european union eu logo


Si bien el texto final del Reglamento de IA aún no ha sido publicado y aún quedan pendientes muchas reuniones técnicas, entendemos que tiene algunos puntos positivos, como la prohibición de la clasificación social, que resultaría demasiado degradante y discriminatoria para las personas consumidoras, o el reconocimiento de ciertos derechos en su favor, como la posibilidad de presentar reclamaciones ante autoridades públicas contra un sistema de IA o de buscar reparación colectiva en caso de daño.


Sin embargo, la ley presenta varias lagunas y fallas desde la perspectiva de protección de las personas consumidoras. Además, se seguirán permitiendo sistemas de inteligencia artificial que puedan identificar y analizar los sentimientos de los consumidores (sistemas de reconocimiento de emociones), lo cual es muy preocupante dado que resultan ser muy invasivos y presentan muchas inexactitudes. Por su parte, el Reglamento de IA se focaliza en gran medida en los sistemas que se consideran de “alto riesgo”, dejando básicamente a muchos sistemas de IA prácticamente sin regulación, como los juguetes integrados con IA o los asistentes virtuales. A su vez, los modelos de IA que se encuentran detrás de sistemas como ChatGPT, que pueden integrarse en una amplia gama de servicios, no estarán adecuadamente regulados. Por ejemplo, no se exigirá que dichos modelos sean auditados por terceros independientes ni estarán sujetos a requisitos de transparencia suficientes como para permitir el escrutinio público.


Por su parte, otros reclamos de la sociedad civil no han sido totalmente atendidos. Así, se han introducido excepciones para permitir el reconocimiento biométrico en espacios de acceso público (en tiempo real y ex post), en contra de la prohibición total que habían recomendado los europarlamentarios el pasado verano. Esto ha sido denunciado por varias organizaciones de la sociedad civil, porque este tipo de tecnología podría dar lugar a la vigilancia masiva biométrica generalizada. Asimismo, lamentamos que estaría permitida la auto evaluación de riesgos por parte de los proveedores e implementadores de sistemas de IA, lo que a nuestro juicio representa un gran debilitamiento de la norma. Por último, si bien se ha incorporado el requisito de de realizar un estudio de impacto de derechos fundamentales, se habría limitado a organismos públicos y entidades privadas que presten servicios de interés general.


Anabel Arias, experta en derechos digital de CECU, sostiene: “El acuerdo provisional sobre el Reglamento de IA al que se habría arribado el pasado viernes tiene algunos puntos positivos (como la posibilidad de reclamar frente a daños) y otros negativos. Sin embargo, en líneas generales las medidas para proteger a las personas consumidoras son decepcionantes. No se abordan suficientemente problemas como las manipulaciones o la discriminación de los sistemas de IA, en tanto muchas cuestiones dependerán excesivamente la buena voluntad de las empresas, lo que sabemos que particularmente en el sector tecnológico no ha venido funcionando. Si bien entendemos que aún faltan muchas reuniones técnicas (por lo que sería más bien un éxito político), en general consideramos que el Reglamento de IA debería haber hecho más para proteger a los consumidores”. 

​El Reglamento de IA no protegerá adecuadamente a las personas consumidoras, según CECU

La Federación de consumidores y Usuarios considera que el resultado de las negociaciones europeas sobre el texto final en torno a la inteligencia artificial es decepcionante
Redacción
lunes, 11 de diciembre de 2023, 10:59 h (CET)

El pasado viernes, cerca de la medianoche, las instituciones de la UE llegaron, bajo la Presidencia española del Consejo de la Unión Europea, a un acuerdo provisional sobre la primera legislación del mundo sobre la inteligencia artificial. Sin embargo, desde CECU consideramos que el resultado es decepcionante en tanto no se han abordado todos los riesgos que esta tecnología representa para las personas consumidoras.


EuropaPress 5625088 november 2023 china in this photo illustration the european union eu logo


Si bien el texto final del Reglamento de IA aún no ha sido publicado y aún quedan pendientes muchas reuniones técnicas, entendemos que tiene algunos puntos positivos, como la prohibición de la clasificación social, que resultaría demasiado degradante y discriminatoria para las personas consumidoras, o el reconocimiento de ciertos derechos en su favor, como la posibilidad de presentar reclamaciones ante autoridades públicas contra un sistema de IA o de buscar reparación colectiva en caso de daño.


Sin embargo, la ley presenta varias lagunas y fallas desde la perspectiva de protección de las personas consumidoras. Además, se seguirán permitiendo sistemas de inteligencia artificial que puedan identificar y analizar los sentimientos de los consumidores (sistemas de reconocimiento de emociones), lo cual es muy preocupante dado que resultan ser muy invasivos y presentan muchas inexactitudes. Por su parte, el Reglamento de IA se focaliza en gran medida en los sistemas que se consideran de “alto riesgo”, dejando básicamente a muchos sistemas de IA prácticamente sin regulación, como los juguetes integrados con IA o los asistentes virtuales. A su vez, los modelos de IA que se encuentran detrás de sistemas como ChatGPT, que pueden integrarse en una amplia gama de servicios, no estarán adecuadamente regulados. Por ejemplo, no se exigirá que dichos modelos sean auditados por terceros independientes ni estarán sujetos a requisitos de transparencia suficientes como para permitir el escrutinio público.


Por su parte, otros reclamos de la sociedad civil no han sido totalmente atendidos. Así, se han introducido excepciones para permitir el reconocimiento biométrico en espacios de acceso público (en tiempo real y ex post), en contra de la prohibición total que habían recomendado los europarlamentarios el pasado verano. Esto ha sido denunciado por varias organizaciones de la sociedad civil, porque este tipo de tecnología podría dar lugar a la vigilancia masiva biométrica generalizada. Asimismo, lamentamos que estaría permitida la auto evaluación de riesgos por parte de los proveedores e implementadores de sistemas de IA, lo que a nuestro juicio representa un gran debilitamiento de la norma. Por último, si bien se ha incorporado el requisito de de realizar un estudio de impacto de derechos fundamentales, se habría limitado a organismos públicos y entidades privadas que presten servicios de interés general.


Anabel Arias, experta en derechos digital de CECU, sostiene: “El acuerdo provisional sobre el Reglamento de IA al que se habría arribado el pasado viernes tiene algunos puntos positivos (como la posibilidad de reclamar frente a daños) y otros negativos. Sin embargo, en líneas generales las medidas para proteger a las personas consumidoras son decepcionantes. No se abordan suficientemente problemas como las manipulaciones o la discriminación de los sistemas de IA, en tanto muchas cuestiones dependerán excesivamente la buena voluntad de las empresas, lo que sabemos que particularmente en el sector tecnológico no ha venido funcionando. Si bien entendemos que aún faltan muchas reuniones técnicas (por lo que sería más bien un éxito político), en general consideramos que el Reglamento de IA debería haber hecho más para proteger a los consumidores”. 

Noticias relacionadas

El primer Congreso Internacional sobre Ciberdelincuencia, CyberCrime Sevilla 2024, tendrá lugar los días 2 y 3 de mayo en el Teatro de la Fundación Cajasol. Este evento organizado conjuntamente por el Ilustre Colegio de Abogados de Sevilla y la Universidad Pablo de Olavide, representa una plataforma única para abordar las amenazas tecnológicas que impactan cada día más a todos los ámbitos de nuestra sociedad.

La Semana Informática 2024, organizada por el Colegio Oficial de Ingeniería Informática de la C. Valenciana (COIICV) y que se ha convertido en el evento de referencia del sector, tiene desde hoy tres jornadas por delante en los que profesionales del ramo reflexionan y debaten sobre los retos y oportunidades que plantea la sociedad digital bajo el lema de esta 19ª edición: ‘Ética digital en la era de la sostenibilidad’. 

Vishal Parmar fundó hace una década VAP Group y dispone de oficinas en la India, Emiratos Árabes Unidos, Hong Kong y Reino Unido un hombre que se define como un emprendedor de retos desde el futuro. Los días 16 y 17 de abril de 2024 se ha celebrado la primera edición del Global Al Show y del Global Blockchain Show en Dubái y VAP Group ha sido el responsable de su organización.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© Diario Siglo XXI. Periódico digital independiente, plural y abierto