Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Tecnología

Apple lanza la familia de modelos de lenguaje de código abierto OpenELM para portátiles

jueves, 25 de abril de 2024, 10:43 h (CET)
MADRID, 25 (Portaltic/EP)
Apple ha lanzado la familia Open-source Efficient Language Models ('Modelos de lenguaje eficientes de código abierto'), diseñados para ofrecer resultados precisos en dispositivos como ordenadores portátiles, empleando menos tokens de entrenamiento que otros modelos de Inteligencia Artificial (IA), como OLMo.

Conocida como OpenELM, se trata de una familia que "utiliza una estrategia de escalamiento por capas para asignar parámetros de forma eficiente dentro de cada capa del modelo", por lo que se centra en tareas específicas y permite a los usuarios obtener resultados más precisos.

Esta familia está compuesta por cuatro modelos de lenguaje grande (LLM, por sus siglas en inglés) que se presentan en diferentes tamaños: 270 millones de parámetros, 450 millones, 1.100 millones y 3.000 millones de parámetros.

Cada uno de ellos tiene dos versiones: preentrenamiento ('pre-trained') -una variante genérica entrenada con conjuntos de datos de la biblioteca CoreNet de GitHub- y optimizada ('instruction tuned'), ajustada e instruída para emplearla con propósitos concretos, como se explica en el documento de la investigación publicado en Arxiv.org.

Los investigadores indican que los modelos se han probado en un modelo MacBook Pro con SoC M2 Max, 64 GB de RAM y basado en macOS 14.4.1; así como en un ordenador con CPU Intel i9-13900KF equipada con DDR5-4000 DRAM y GPU NVIDIA RTX 4090 con 24 GB de VRAM.

En sus pruebas, Apple ha descubierto que OpenELM funciona de manera más eficiente que otros LLM similares, como OLMo, desarrollado por Allen Institute for AI, ya que el suyo ofece una mejora del 2,36 por ciento en la precisión y, a la vez, requiere dos veces menos tokens de preentrenamiento.

Finalmente, Apple ha reconocido que OpenELM, cuyo repositorio está en Hugging Face, se ha entrenado con un conjuntos de datos disponibles públicamente y "sin ninguna garantía de seguridad". Esto quiere decir que "existe la posibilidad de que estos modelos produzcan resultados inexactos, dañinos o sesgados".

Noticias relacionadas

El 'shooter' en primera persona XDefiant llegará el 21 de mayo a Xbox, PS5 y PC

Google Fotos trabaja en la función 'Mostrar menos' para aplicarla a rostros concretos en el apartado Recuerdos

Snapchat+ estrenará "pronto" la capacidad de editar conversaciones

Alemania responsabiliza a la Inteligencia rusa de un ciberataque contra los socialdemócratas en 2023

El gestor de contraseñas Bitwarden lanza una 'app' de autentificación multifactor para iOS y Android

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris