El avance TurboQuant de Google sacude acciones de memoria y almacenamiento
Google presentó una nueva serie de algoritmos de compresión que reducen de forma significativa el uso de memoria en modelos de lenguaje, lo que provocó caídas inmediatas en acciones de fabricantes de chips de memoria y almacenamiento.
El conjunto incluye TurboQuant, PolarQuant y Quantized Johnson Lindenstrauss. Estas herramientas actúan sobre el sistema de caché clave valor, utilizado durante la inferencia para almacenar datos frecuentes. En pruebas con modelos abiertos como Gemma y Mistral, TurboQuant redujo el uso de memoria hasta 3 bits sin necesidad de entrenamiento adicional. También logró acelerar hasta ocho veces el cálculo de atención en GPUs Nvidia H100 frente a sistemas sin cuantización.
El anuncio generó inquietud en los mercados sobre una posible reducción en la demanda de hardware de memoria debido a la mayor eficiencia de los sistemas de inteligencia artificial.
El funcionamiento se basa en dos etapas. PolarQuant transforma los vectores tradicionales en coordenadas polares, sustituyendo valores por eje por radio y ángulo. Este método elimina el alto coste de normalización. Luego, Quantized Johnson Lindenstrauss introduce una corrección de error de un bit, proyectando los errores en un espacio de menor dimensión sin aumentar el consumo de memoria.
Google Research señaló que esta técnica resuelve de forma eficiente el problema del uso excesivo de memoria en la cuantización vectorial. Su aplicación podría extenderse a sistemas de búsqueda vectorial a gran escala.
Las acciones del sector reaccionaron con caídas, incluso cuando el Nasdaq 100 avanzaba. SanDisk registró la mayor pérdida, seguida por Micron, Western Digital y Seagate. También retrocedieron fabricantes de equipos como Lam Research y Applied Materials.
Morgan Stanley calificó la innovación como un cambio relevante en los costes del despliegue de inteligencia artificial. Indicó que podría beneficiar a proveedores de nube y plataformas de modelos. Sin embargo, estimó que el impacto a largo plazo en la demanda de hardware será limitado. La tecnología se aplica solo en la inferencia y no reduce la necesidad de entrenamiento. La reducción de costes podría impulsar nuevos usos de la inteligencia artificial.
Google presentará TurboQuant en la conferencia ICLR en Rio de Janeiro entre el 23 y el 27 de abril. PolarQuant será presentado en AISTATS 2026. El proyecto fue desarrollado por Amir Zandieh y Vahab Mirrokni junto con KAIST y la Universidad de Nueva York.
-
16:20
-
16:20
-
16:00
-
15:56
-
15:40
-
15:30
-
15:21
-
15:20
-
15:12
-
15:00
-
14:05
-
14:00
-
13:50
-
13:43
-
13:40
-
13:37
-
13:20
-
13:15
-
13:13
-
12:40
-
12:30
-
12:20
-
12:15
-
12:00
-
11:50
-
11:45
-
11:42
-
11:30
-
11:28
-
11:20
-
11:20
-
11:17
-
11:15
-
11:00
-
11:00
-
10:45
-
10:30
-
10:20
-
10:15
-
10:05
-
10:00
-
09:45
-
09:40
-
09:30
-
09:20
-
09:15
-
09:00
-
08:50
-
08:45
-
08:30
-
08:20
-
08:15
-
08:10
-
08:00
-
07:50
-
07:45
-
07:30
-
07:15
-
07:00
-
18:30
-
18:15
-
18:05
-
17:40
-
17:30
-
17:20
-
16:50