
Un experimento inesperado demostró que no se necesita una supercomputadora para ejecutar modelos de IA. Un equipo logró resultados sorprendentes con un procesador de hace más de 25 años. ¿Cómo es posible? Y más importante aún: ¿qué implica esto para el futuro de la tecnología?
La inteligencia artificial suele asociarse con grandes centros de datos, potentes procesadores y tecnología de última generación. Pero, ¿y si esa imagen está a punto de cambiar? Un reciente experimento logró desafiar todos los límites conocidos, al demostrar que incluso una computadora de los años 90 puede manejar modelos de lenguaje avanzados. La pregunta que muchos se hacen ahora es: ¿hasta dónde puede llegar la IA con tan poco?
El sorprendente rendimiento de una reliquia tecnológica.

En tiempos donde se asume que la inteligencia artificial necesita máquinas potentes y costosas, un experimento realizado con una PC de 1997 está reescribiendo las reglas. El equipo detrás de esta hazaña ejecutó un modelo basado en Llama 2 en una computadora con procesador Pentium II de 350 MHz, tan solo 128 MB de RAM y el clásico Windows 98.
El resultado: una tasa de generación de 39.31 tokens por segundo, utilizando solo 260,000 parámetros. Para lograrlo, los investigadores recurrieron a un enfoque alternativo que optimiza el rendimiento de modelos de lenguaje sin depender de GPU ni de grandes cantidades de memoria.
El proyecto fue liderado por Andrej Karpathy, junto con EXO Labs, una empresa que reúne a ingenieros y científicos de la Universidad de Oxford con el objetivo de democratizar la inteligencia artificial. Lo más impactante del experimento no fue solo que funcionara, sino que lo hiciera de forma eficiente en un entorno que hoy consideraríamos obsoleto.
BitNet: La clave para ejecutar IA en equipos modestos

Detrás de este logro está BitNet, una arquitectura diseñada para reducir radicalmente el tamaño de los modelos mediante el uso de pesos ternarios. Esto no solo hace que los modelos ocupen menos espacio, sino que también permite ejecutarlos directamente desde la CPU, sin necesidad de costosos aceleradores gráficos.
Gracias a esta innovación, se puede trabajar con modelos de 7 mil millones de parámetros que solo requieren 1.38 GB de almacenamiento. EXO Labs afirma que esta arquitectura puede ser hasta un 50% más eficiente que los modelos tradicionales de precisión completa. Incluso es técnicamente posible, según sus estimaciones, correr modelos de 100 mil millones de parámetros en una sola CPU.
Este enfoque puede cambiar por completo la forma en que se distribuye y utiliza la IA, facilitando su implementación en dispositivos cotidianos y eliminando barreras tecnológicas que antes parecían inquebrantables.
El experimento no solo es una prueba de concepto, sino una señal clara de que el acceso a la inteligencia artificial puede volverse más equitativo y universal de lo que jamás imaginamos. Y todo comenzó con una máquina que muchos ya habrían desechado.
Debe estar conectado para enviar un comentario.