Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Tecnología

Google está tomando "medidas rápidas" para eliminar resultados inexactos de su función AI Overview, impulsada por Gemini

lunes, 27 de mayo de 2024, 11:36 h (CET)
Google está tomando
MADRID, 27 (Portaltic/EP)
Google ha anunciado que está tomando "medidas rápidas" para eliminar resultados inexactos proporcionados por su función de Inteligencia Artificial (IA) AI Overview, impulsada por Gemini, que recientemente ha recomendado a los usuarios comer piedras como parte de una dieta o echarle pegamento a la pizza.

La firma presentó a Gemini a finales del año pasado como una IA flexible que se puede ejecutar tanto en centros de datos como en dispositivos móviles, motivo por el que se ofrece en tres tamaños diferentes (Ultra, Pro y Nano).

Hace unas semanas, Google presentó novedades para esta herramienta, entre las que se encuentra AI Overview, que ofrece respuestas rápidas con resúmenes creados por IA y que desde entonces está disponible en Estados Unidos.

Esta funcionalidad, que es un experimento de Search Labs, ha reemplazado a la Experiencia generativa de búsqueda (SGE, por sus siglas en inglés), una solución experimental que permitía llevar la IA generativa a la búsqueda de los usuarios para ofrecerles descripciones generales y más enlaces con el objetivo de ofrecer múltiples perspectivas.

Desde su implementación, AI Overview ha generado una serie de respuestas incorrectas que los usuarios que la han probado han compartido en sus redes sociales. Entre ellas, la recomendación de "comer al menos una piedra pequeña al día, según geólogos de la Universidad de Berkeley", según ha compartido la usuaria Kris Kashtanova en su perfil de X.

Otro usuario identificado en esta red social como @heavenred ha señalado que AI Overview le recomendó utilizar pegamento "no tóxico" en una pizza para que el queso se fundiera con la masa.

La compañía ha asegurado que su herramienta genera en gran medida "información de alta calidad" y ha justificado que estas respuestas se deben a "consultas poco comunes", además de que se podrían haber manipulado, en palabras de su portavoz, Meghann Garnsworth, recogidas por The Verge.

Para acabar con las también conocidas como alucinaciones -respuestas que a pesar de parecer coherentes incluyen información sesgada o errónea que no está respaldada por los datos con los que se ha entrenado-, Google está tomando "medidas rápidas" para acabar con estas respuestas.

Asimismo, ha matizado que busca eliminar las descripciones generales de IA en determinadas consultas "cuando corresponda", de acuerdo a sus políticas de contenido. Para ello, utilizará estos ejemplos de respuestas inexactas, con las quetrabajará para desarrollar mejoras "más amplias" en sus sistemas.

Noticias relacionadas

Xiaomi España y el diseñador Pablo Erroz presentan ‘The International Connector Club’

Meredith Whittaker (Signal) a la UE: "Romper el cifrado de extremo a extremo es una propuesta desastrosa"

El 'ransomware' ShrinLocker utiliza BitLoker de Microsoft para cifrar datos corporativos y evitar que sean restaurados

Logitech presenta un 'stylus' para los visores Meta Quest

TikTok ofrece a creadores y anunciantes avatares de IA generativa de personas reales para amplificar su contenido

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris