Esta Inteligencia Artificial es capaz de funcionar en cualquier PC con Windows 98 y 128 MB de RAM

Lo cierto es que si hoy nos hablan de IA, pensamos en las potentes herramientas de chatbots que nos ayudan en nuestros proyectos y que están en manos de grandes empresas tecnológicas. No es difícil que visualicemos el funcionamiento de las mismas dentro de grandes servidores con tecnología punta, pero… ¿Y si te dijera que puede funcionar en algo muchísimo más pequeño?
Y es que EXO Labs ha conseguido ejecutar Llama AI de Meta de forma experimental en un PC con Windows 98 y 128 GB de RAM. Estas capacidades parecen de risa si las comparamos con los requisitos que podemos necesitar para ejecutar ChatGPT o Copilot. Y lo más importante de este hito es que abre la puerta para inteligencias artificiales en sistemas muchísimo menos potentes o incluso para reciclar los ordenadores de la edad de los dinosaurios.
EXO Labs ha sido el encargado de probar este experimento, concretamente con el modelo Llama 2, y ha funcionado con un Pentium II a 350MHz de velocidad de procesamiento. Incluso con la poca potencia del equipo, el modelo de IA ha podido generar texto a una velocidad de 35,9 tokens por segundo. Si contamos con que este tipo de PC tiene más de 25 años de edad, estamos ante algo realmente sorprendente.
Cómo funciona esta IA en Windows 98
Ya que la potencia es más que limitada por parte del sistema, es el lenguaje el que debe afinarse al máximo para poder trabajar bajo estas limitaciones. Y así fue, porque ha sido todo gracias a la eficiencia del código que se ha utilizado. Desde EXO Labs han optimizado al máximo el código de Llama 2 (Made in Meta), para que se ejecute bajo ciertas condiciones. Lo principal ha sido desarrollar la no dependencia de la aceleración de hardware, por motivos obvios, así como optimizar el uso de la RAM para que no dependa de grandes capacidades de la misma. Lo más importante del experimento es que ha logrado que funcionen modelos de IA en hardware que en teoría está lejos de ser viable hoy en día.
Y es que estamos acostumbrados a que los modelos actuales de IA consuman varios GB de RAM. Mientras que esta versión de Llama 2 consume la octava parte de 1 solo Gygabyte para funcionar. Es posible que hayan encontrado una nueva manera en que la IA funcione en dispositivos que hasta ahora se consideraban fuera de toda lógica.
La importancia del experimento de EXO Labs
No hablamos de este experimento como una simple curiosidad, sino que puede tener resultados prácticos para la industria. Mientras que la dirección principal del mercado avanza hacia cada vez proyectos más grandes, caros y potentes, esta IA demuestra que se puede democratizar -y mucho- el uso de la IA en pequeños equipos domésticos que parecen estar fuera de toda utilidad.
A su vez, hemos de mirar con lupa que tenemos la posibilidad de reciclar ordenadores antiguos, en vez de deshacernos de ellos, para darle una modesta segunda juventud. Todo gracias a modelos de IA que pueden ejecutarse con requisitos casi ínfimos. Que, de paso, puede ayudar al medioambiente con un consumo energético muy inferior al de los dispositivos actuales.