Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Display
Etiquetas | Inteligencia artificial | ChatGPT | UNESCO | Protección de Datos
Pide que se actúe para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales

​La Unesco pide la implementación inmediata de un marco ético global sobre la inteligencia artificial

|

Presentación1

La inteligencia artificial, según muestran programas lanzados al mercado recientemente, comporta riesgos para la privacidad y otros derechos de las personas, así como para la democracia, por lo que la Unesco aboga por normas nacionales que establezcan garantías en defensa de los ciudadanos y el ambiente. Imagen: Xataka


PARÍS – Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco ha solicitado la implementación inmediata del marco ético global sobre esa materia. “El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.


La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados miembros en noviembre de 2021, proporciona las garantías necesarias. “Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos traducir los compromisos en acción”, dijo Azoulay.


La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva esta tecnología. Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género, Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.


La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales. Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.


En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales, y se utilizan de forma generalizada.


La recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.


También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.


Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y en el tratamiento de los problemas medioambientales.


Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías.


La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.


Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. 


Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas salvaguardas de IA basadas en la Recomendación.


El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.


Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por “sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que ayuden a distinguir entre lo real y lo artificial”.


Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.


Entre los firmantes de la petición figuraron el magnate de las firmas Space X, Tesla y Twitter, Elon Musk; el cofundador del gigante Apple, Steve Wozniak, y el escritor e historiador israelí Yuval Noah Hariri.


A-E/HM - Fuente: IPS

​La Unesco pide la implementación inmediata de un marco ético global sobre la inteligencia artificial

Pide que se actúe para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales
Redacción
lunes, 3 de abril de 2023, 11:42 h (CET)

Presentación1

La inteligencia artificial, según muestran programas lanzados al mercado recientemente, comporta riesgos para la privacidad y otros derechos de las personas, así como para la democracia, por lo que la Unesco aboga por normas nacionales que establezcan garantías en defensa de los ciudadanos y el ambiente. Imagen: Xataka


PARÍS – Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco ha solicitado la implementación inmediata del marco ético global sobre esa materia. “El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.


La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados miembros en noviembre de 2021, proporciona las garantías necesarias. “Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos traducir los compromisos en acción”, dijo Azoulay.


La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva esta tecnología. Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género, Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.


La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales. Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.


En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales, y se utilizan de forma generalizada.


La recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.


También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.


Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y en el tratamiento de los problemas medioambientales.


Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías.


La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.


Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. 


Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas salvaguardas de IA basadas en la Recomendación.


El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.


Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por “sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que ayuden a distinguir entre lo real y lo artificial”.


Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.


Entre los firmantes de la petición figuraron el magnate de las firmas Space X, Tesla y Twitter, Elon Musk; el cofundador del gigante Apple, Steve Wozniak, y el escritor e historiador israelí Yuval Noah Hariri.


A-E/HM - Fuente: IPS

Noticias relacionadas

El día D ha llegado. A partir de este 19 de abril, empezarán a dejar de funcionar las 440.000 líneas de ADSL, que según los datos de la Comisión Nacional de los Mercados y la Competencia (CNMC), se verán afectadas por el paulatino cierre de las 8.526 centrales de cobre que hay en nuestro país. La mayoría de estas son propiedad de Telefónica, que espera culminar este proceso antes de mayo de 2025.

Los drones han cobrado protagonismo en los titulares de la información internacional, frecuentemente asociados a contextos de guerra. Un ejemplo reciente ha sido el ataque iraní a Israel, donde más de 300 drones han sido empleados en una escalada de tensiones que subraya la capacidad destructiva de estas herramientas. Sin embargo, más alla de su rol en la guerra, los drones tienen una cara mucho más amistosa y útil en una gran variedad de ámbitos profesionales y sociales.

La Facultad de Informática de la Universidad Complutense de Madrid acogerá la octava edición del Big Data Talent organizado por el Big Data International Campus de ENIIT, un Encuentro que se celebrará el 16 de abril y que reunirá a profesionales, estudiantes y empresas líderes en en Big Data, Inteligencia Artificial, AgroTech, HealthTech y Seguridad para explorar las últimas tendencias y oportunidades que ofrece el panorama tecnológico actual.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© Diario Siglo XXI. Periódico digital independiente, plural y abierto