Durante años dimos por sentado que, con los años, las memorias RAM (Random Access Memory/ memoria de acceso aleatorio) –cuya función es almacenar temporalmente el espacio de trabajo de una computadora o dispositivo– serían más rápidas, baratas y más abundantes. Hoy ese supuesto está roto y la culpa es de la inteligencia artificial (IA).
A mayor RAM, más tareas puede ejecutar el equipo de forma fluida, porque ahí se cargan el sistema operativo y las aplicaciones que cualquier usuario utiliza en su dispositivo en ese momento, pero los grandes modelos de lenguaje (LLM por sus cifras en inglés) como ChatGPT, Copilot, Gemini o DeepSeek consumen mucha RAM. Actualmente todos los LLM compiten por esta memoria para entrenarse y mejorar, lo que ha provocado una escasez histórica de estos componentes tan usados en millones de aparatos electrónicos.