Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Opinión
Etiquetas | Ley | Inteligencia artificial | Unión Europea | Peligros | ChatGPT
El acuerdo logrado en la Unión Europea, en relación con la ley de la IA, es un hito histórico que será aprobado, muy previsiblemente, por el Parlamento y el Consejo Europeos

Los peligros de la inteligencia artificial

|

En principio, está muy bien esta regulación de los usos de la IA, pero persisten numerosos interrogantes. Se ha buscado, con esta ley pionera a nivel mundial, un equilibrio entre los intereses de las empresas y la protección de la privacidad de los ciudadanos y también de su seguridad, en muchos sentidos. Si bien la universalización de la utilización del ChatGPT y de otras tecnologías de inteligencia artificial, por parte de cientos de miles o millones de empresas en todo el mundo, y su uso también por una considerable parte de la población mundial en el presente y el futuro, plantea la necesidad de hacer frente a riesgos evidentes: suplantación de identidades, toda clase de engaños, manipulación de la información y el conocimiento, noticias falsas, robos, terrorismo, delitos cibernéticos, todo tipo de discriminaciones, marginación de clases sociales desfavorecidas, robo de datos de historiales médicos, concentración de poder, delitos falsos, acusaciones falsas, conflictos o guerras provocadas por la inteligencia artificial, etcétera.


Es cierto que para evitar todos estos peligros y otros que, de momento, parece que son imprevisibles, se toman medidas y establecen sanciones en esta nueva ley de IA de la Unión Europea. Pero, pueden ser insuficientes, por varias razones ya expuestas. Por ejemplo, con los sistemas de vigilancia biométrica, no se permitirá la categorización por creencias políticas o el reconocimiento de emociones en el trabajo o en la educación. De hecho, los sistemas biométricos estarán limitados y requerirán autorización judicial. Respecto a los sistemas de Inteligencia Artificial generativa se podrán utilizar con respeto a los derechos de autor.Lo que puede ser objeto de más análisis y argumentaciones es la cuantía de las multas para las empresas, que incumplan las medidas previstas en la citada ley. Habrá multas de 7,5 millones de euros o el 1,5 % del volumen de negocio y también para infracciones más graves y empresas mayores, sanciones que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio. Esto creo que, en muchos casos, no será obstáculo, para que algunas grandes empresas o compañías tecnológicas, prefieran incumplir esta ley, porque los beneficios de hacerlo compensan de sobra la cuantía económica de las sanciones. Es algo que ya está sucediendo en el ámbito de internet y es evidente que con la IA seguimos en el mismo ámbito digital.


Hace falta más transparencia en su regulación, para que no se genere desconfianza y resistencia a su aplicación, en el campo empresarial y también por parte de los ciudadanos. Es necesario que se desarrollen algoritmos imparciales y conjuntos de datos, que respondan a criterios de objetividad. Además, la preocupación por la privacidad y la seguridad de grandes cantidades de datos personales, es algo a garantizar de una forma real y efectiva. En cuanto a los dilemas éticos es preciso inculcar valores éticos a los sistemas de IA, para evitar impactos sociales negativos.

No se debe olvidar que las amenazas para la seguridad de los países son evidentes: auge del armamento autónomo y sin control, estados delincuentes, etc. Si se piensa en la concentración de poder lo que se necesita es descentralización y desarrollo colaborativo de este tipo de tecnología digital.


Además, la dependencia de la IA puede ser inmensa, como ya lo es para muchas personas la de los móviles, y puede conducir a una considerable pérdida de creatividad y capacidad de pensamiento crítico e intuitivo. Se puede producir pérdida de puestos de trabajo y la desigualdad económica incrementarse, con aumento de la brecha salarial y reducción significativa de las oportunidades de movilidad social en los países. Esto afectará especialmente a los trabajadores poco cualificados.

La IA puede causar una disminución de la empatía, las conexiones humanas y las habilidades sociales. La desinformación y la manipulación de la opinión pública, por parte de la Inteligencia Artificial controlada por los poderes fácticos es algo muy probable, si no se impulsan y aprueban medidas eficaces para evitarlo o impedirlo. En todo caso, lo que debe ser esencial es poner en la palestra los valores o prioridades humanas, frente a intereses comerciales de toda clase, que no los toman en consideración y no los respetan. Los Derechos Humanos no son negociables.


Amnistía Internacional ya ha informado y alertado de que sistemas automatizados pueden decidir, si una persona puede recibir prestaciones sociales, atención sanitaria o incluso puede ser acusada falsamente de haber cometido un delito. Estos sistemas pueden ser usados para recortar gastos sociales que son necesarios.

Los peligros de la inteligencia artificial

El acuerdo logrado en la Unión Europea, en relación con la ley de la IA, es un hito histórico que será aprobado, muy previsiblemente, por el Parlamento y el Consejo Europeos
José Manuel López García
lunes, 11 de diciembre de 2023, 09:54 h (CET)

En principio, está muy bien esta regulación de los usos de la IA, pero persisten numerosos interrogantes. Se ha buscado, con esta ley pionera a nivel mundial, un equilibrio entre los intereses de las empresas y la protección de la privacidad de los ciudadanos y también de su seguridad, en muchos sentidos. Si bien la universalización de la utilización del ChatGPT y de otras tecnologías de inteligencia artificial, por parte de cientos de miles o millones de empresas en todo el mundo, y su uso también por una considerable parte de la población mundial en el presente y el futuro, plantea la necesidad de hacer frente a riesgos evidentes: suplantación de identidades, toda clase de engaños, manipulación de la información y el conocimiento, noticias falsas, robos, terrorismo, delitos cibernéticos, todo tipo de discriminaciones, marginación de clases sociales desfavorecidas, robo de datos de historiales médicos, concentración de poder, delitos falsos, acusaciones falsas, conflictos o guerras provocadas por la inteligencia artificial, etcétera.


Es cierto que para evitar todos estos peligros y otros que, de momento, parece que son imprevisibles, se toman medidas y establecen sanciones en esta nueva ley de IA de la Unión Europea. Pero, pueden ser insuficientes, por varias razones ya expuestas. Por ejemplo, con los sistemas de vigilancia biométrica, no se permitirá la categorización por creencias políticas o el reconocimiento de emociones en el trabajo o en la educación. De hecho, los sistemas biométricos estarán limitados y requerirán autorización judicial. Respecto a los sistemas de Inteligencia Artificial generativa se podrán utilizar con respeto a los derechos de autor.Lo que puede ser objeto de más análisis y argumentaciones es la cuantía de las multas para las empresas, que incumplan las medidas previstas en la citada ley. Habrá multas de 7,5 millones de euros o el 1,5 % del volumen de negocio y también para infracciones más graves y empresas mayores, sanciones que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio. Esto creo que, en muchos casos, no será obstáculo, para que algunas grandes empresas o compañías tecnológicas, prefieran incumplir esta ley, porque los beneficios de hacerlo compensan de sobra la cuantía económica de las sanciones. Es algo que ya está sucediendo en el ámbito de internet y es evidente que con la IA seguimos en el mismo ámbito digital.


Hace falta más transparencia en su regulación, para que no se genere desconfianza y resistencia a su aplicación, en el campo empresarial y también por parte de los ciudadanos. Es necesario que se desarrollen algoritmos imparciales y conjuntos de datos, que respondan a criterios de objetividad. Además, la preocupación por la privacidad y la seguridad de grandes cantidades de datos personales, es algo a garantizar de una forma real y efectiva. En cuanto a los dilemas éticos es preciso inculcar valores éticos a los sistemas de IA, para evitar impactos sociales negativos.

No se debe olvidar que las amenazas para la seguridad de los países son evidentes: auge del armamento autónomo y sin control, estados delincuentes, etc. Si se piensa en la concentración de poder lo que se necesita es descentralización y desarrollo colaborativo de este tipo de tecnología digital.


Además, la dependencia de la IA puede ser inmensa, como ya lo es para muchas personas la de los móviles, y puede conducir a una considerable pérdida de creatividad y capacidad de pensamiento crítico e intuitivo. Se puede producir pérdida de puestos de trabajo y la desigualdad económica incrementarse, con aumento de la brecha salarial y reducción significativa de las oportunidades de movilidad social en los países. Esto afectará especialmente a los trabajadores poco cualificados.

La IA puede causar una disminución de la empatía, las conexiones humanas y las habilidades sociales. La desinformación y la manipulación de la opinión pública, por parte de la Inteligencia Artificial controlada por los poderes fácticos es algo muy probable, si no se impulsan y aprueban medidas eficaces para evitarlo o impedirlo. En todo caso, lo que debe ser esencial es poner en la palestra los valores o prioridades humanas, frente a intereses comerciales de toda clase, que no los toman en consideración y no los respetan. Los Derechos Humanos no son negociables.


Amnistía Internacional ya ha informado y alertado de que sistemas automatizados pueden decidir, si una persona puede recibir prestaciones sociales, atención sanitaria o incluso puede ser acusada falsamente de haber cometido un delito. Estos sistemas pueden ser usados para recortar gastos sociales que son necesarios.

Noticias relacionadas

Tal y como Vd, me ha pedido, Sr Sánchez, me he tomado un poco de tiempo para leer (no solo una vez), el contenido de la carta pública que nos ha enviado a todos los españoles el pasado miércoles. Le confieso que más que su contenido, nada atractivo desde el punto de vista literario y de escaso valor político, me interesaba conocer las razones de su insólita decisión de trasladar a los españoles sus dudas existenciales sobre su futuro personal y político.

Con motivo de los feroces ajustes en la economía argentina, una conocida me confesó la otra tarde, muy triste, que no podría viajar a Europa quizá nunca más. Enseguida pensé que personas como ella sólo sufren las consecuencias de su ideología (o de la adoptada por algún sofisma en las campañas electorales de la época), cuando ven tocado su bolsillo.

La campaña de descrédito contra la buena imagen y el honor del presidente del gobierno se ha desatado, de una forma virulenta, estos últimos días y semanas. Parece que se quiere lograr mediante descalificaciones el acoso y derribo de Pedro Sánchez. Según distintos medios de comunicación el inicio de una investigación judicial contra la esposa de Sánchez es un disparate, ya que no existen indicios suficientes para la misma.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© Diario Siglo XXI. Periódico digital independiente, plural y abierto