Puede sonar a exageración, pero es muy probable que el ordenador que usas en casa hoy en día sea más potente que algunos de los superordenadores que utilizaba la NASA en la década de 1990 .
Y no, esto no es clickbait.
Veamos un ejemplo de la vida real.
En la década de 1990, uno de los sistemas utilizados por la NASA y los centros de investigación se basaba en el Intel Pentium original, lanzado en 1993. Estos procesadores tenían una velocidad de reloj de entre 60 y 66 MHz y podían ejecutar aproximadamente 100 millones de instrucciones por segundo .
En aquel momento, esto se consideraba extremadamente avanzado.
Hoy en día, incluso un ordenador normal puede tener algo como esto:
- Procesador de 3 a 5 GHz
- 6, 8 o más núcleos
- miles de millones de instrucciones por segundo
- GPU capaces de realizar billones de cálculos.
Para que te hagas una idea, una GPU moderna como las de la línea RTX puede alcanzar decenas de teraflops de potencia de cálculo .
En la década de 1990, una supercomputadora completa a menudo apenas se acercaba a esa cifra.
Es decir:
📌 Un único PC moderno para juegos puede superar en rendimiento, en ciertos tipos de cálculos, a máquinas gigantescas que ocupaban habitaciones enteras hace 30 años.
Pero entonces, ¿por qué necesitaba la NASA supercomputadoras?
Porque en aquel entonces no existían procesadores que fueran individualmente potentes .
Para simular el clima, las órbitas espaciales o el diseño de aeronaves, conectaron cientos o miles de CPU que trabajaban conjuntamente .
Hoy en día, gran parte de esa capacidad se ha miniaturizado gracias a décadas de evolución en:
- litografía de chips
- paralelismo en GPU
- arquitecturas multinúcleo
- memoria mucho más rápida
La evolución fue absurda.
Entre 1990 y la actualidad, la capacidad de procesamiento informático se ha multiplicado por millones .
Esto significa que cosas que antes requerían laboratorios gigantes ahora se pueden realizar en casa, como por ejemplo:
- simulaciones físicas
- Renderizado 3D
- inteligencia artificial
- Edición de vídeo 4K
- juegos con trazado de rayos en tiempo real
Lo más curioso de todo
A pesar de todos estos avances, muchas personas utilizan ordenadores más potentes que las máquinas que ayudaron a planificar las misiones espaciales…
…solo para abrir 30 pestañas de Chrome y ver vídeos de YouTube.
¿Y honestamente?
Esto ya dice mucho sobre cuánto ha evolucionado la tecnología.
Preguntas frecuentes:
¿Es cierto que las computadoras domésticas modernas superan a las antiguas supercomputadoras de la NASA? Sí, lo es, y la magnitud de esa diferencia es aún más impresionante de lo que sugiere la afirmación. La Intel Paragon, una de las supercomputadoras más potentes de principios de la década de 1990, ocupaba el espacio de una cancha de tenis, consumía energía suficiente para abastecer a cientos de hogares y costaba decenas de millones de dólares. Un teléfono inteligente de gama media de 2026 supera a esa máquina en velocidad de procesamiento pura. Una PC doméstica moderna con un procesador de última generación no solo supera, sino que aplasta la potencia de cálculo de máquinas que costaban fortunas y requerían equipos enteros de ingenieros para su funcionamiento y mantenimiento. Vivimos en una era de potencia de cálculo sin precedentes en la historia de la humanidad, y la mayoría de las personas usan esa potencia para ver videos y navegar por las redes sociales.
2. ¿Cómo era en la práctica una supercomputadora de la NASA en la década de 1990? Las supercomputadoras de la NASA en la década de 1990 eran máquinas monumentales en todo el sentido de la palabra. La Cray Y-MP, ampliamente utilizada por agencias como la NASA a principios de la década, pesaba toneladas, ocupaba salas enteras con sistemas de refrigeración dedicados y operaba a velocidades medidas en gigaflops: miles de millones de operaciones de coma flotante por segundo. Estas máquinas requerían pisos reforzados, sistemas de energía eléctrica dedicados y equipos de docenas de técnicos especializados que trabajaban por turnos para mantenerlas en funcionamiento. El acceso era extremadamente restringido y controlado: los científicos tenían que programar el tiempo de uso con anticipación, como si reservaran un quirófano. La idea de que cualquier persona común pudiera tener acceso a esta potencia de cálculo se consideraba pura ciencia ficción en aquel entonces.
3. ¿Qué cifras demuestran esta comparación entre los PC modernos y las supercomputadoras antiguas? Las cifras son concretas y verificables. La Cray-2, considerada la supercomputadora más rápida del mundo en 1985, alcanzó un rendimiento máximo de aproximadamente 1,9 gigaflops. Un procesador doméstico básico actual opera fácilmente en el rango de los teraflops, es decir, mil veces más operaciones por segundo. Una tarjeta gráfica para juegos de gama media actual ofrece más de 10 teraflops, lo que equivale a más de cinco mil veces la potencia de la Cray-2. La supercomputadora más rápida del mundo en 1993, la Thinking Machines CM-5, utilizada por la NASA y otros centros científicos, se consideraría absurdamente lenta en comparación con cualquier PC ensamblada hoy con componentes comprados en cualquier tienda de informática.
4. ¿Por qué la evolución de las computadoras ha sido tan rápida en tan solo unas décadas? La respuesta reside en un concepto llamado Ley de Moore, formulada en 1965 por Gordon Moore, cofundador de Intel. Observó que el número de transistores en un chip de silicio se duplicaba aproximadamente cada dos años, manteniendo o reduciendo el costo de producción. Esta duplicación constante de la capacidad dio como resultado una curva de crecimiento exponencial que transformó por completo la electrónica en tan solo unas décadas. Los transistores que en la década de 1970 medían varios micrómetros ahora se fabrican a escala de unos pocos nanómetros; para que se hagan una idea, un cabello humano tiene un grosor de unos 80 000 nanómetros, mientras que los transistores modernos miden menos de 3 nanómetros. Esta miniaturización ha permitido colocar miles de millones de transistores en un chip del tamaño de una uña, multiplicando la capacidad de cálculo de una manera que ningún otro sector tecnológico ha podido replicar.
5. ¿Esta comparación se aplica solo a los procesadores, o también han evolucionado otros componentes de la misma manera? Todos los componentes han evolucionado de forma igualmente impresionante, y en algunos casos incluso más. La RAM de un PC doméstico moderno funciona a velocidades inimaginables para los sistemas de memoria de las supercomputadoras de los años 90. Los sistemas de almacenamiento han evolucionado aún más drásticamente: una unidad SSD NVMe moderna transfiere datos a velocidades que los sistemas de almacenamiento de los años 90 jamás podrían alcanzar, ocupando menos espacio que una baraja de cartas. Las capacidades gráficas son quizás la evolución más visible: los gráficos en tiempo real renderizados por cualquier consola o PC para juegos moderna superan en calidad y velocidad a los mejores sistemas de renderizado científico disponibles en los años 90, que tardaban horas en procesar imágenes simples por ordenador.
6. ¿Cómo utilizó la NASA estas supercomputadoras y qué capacidades tenían en aquel entonces? En la década de 1990, las supercomputadoras de la NASA se utilizaban principalmente para simulaciones matemáticas extremadamente complejas: modelar el comportamiento de fluidos alrededor de naves espaciales, calcular trayectorias para misiones espaciales, realizar simulaciones climáticas y analizar datos de telescopios y sondas espaciales. Tareas que hoy en día un software de simulación ejecuta en minutos en una computadora personal podían tardar días o semanas en estas máquinas. El procesamiento de imágenes del Telescopio Hubble, lanzado en 1990, requería una infraestructura computacional masiva para el análisis y la corrección de imágenes. La ironía reside en que los algoritmos y las técnicas matemáticas desarrolladas por los científicos de la NASA en aquel entonces para aprovechar al máximo estas máquinas limitadas sentaron las bases de gran parte del software científico que se utiliza hasta el día de hoy.
7. ¿Un smartphone actual también supera a las supercomputadoras antiguas? Sí, y por un amplio margen. El procesador de un smartphone actual de gama media procesa miles de millones de operaciones por segundo, tiene acceso a gigabytes de RAM de alta velocidad y ejecuta un sistema operativo completo con sofisticadas capacidades multitarea; todo ello en un dispositivo que cabe en el bolsillo y funciona con una batería pequeña durante horas. La supercomputadora Connection Machine CM-5, utilizada por la NASA y otras agencias en la década de 1990, ocupaba una habitación entera, consumía megavatios de energía y requería refrigeración industrial para funcionar. El procesador del smartphone no solo supera a este equipo en velocidad bruta, sino que lo hace consumiendo una ínfima fracción de la energía, sin necesidad de refrigeración especial y a un coste proporcionalmente miles de millones de veces menor.
8. ¿Por qué siguen existiendo las supercomputadoras si las PC comunes son tan potentes? Porque los problemas que resuelven las supercomputadoras modernas han aumentado en proporción a la potencia de cálculo disponible. Las simulaciones climáticas globales detalladas, el modelado de proteínas para el desarrollo de fármacos, las simulaciones de explosiones nucleares, la predicción meteorológica de alta resolución y el entrenamiento de modelos de inteligencia artificial a gran escala requieren una potencia de cálculo muy superior a la que puede ofrecer cualquier PC doméstica. Las supercomputadoras modernas como Frontier, lanzada en 2022, operan a la escala de exaflops (quintillones de operaciones por segundo), y aun así, los científicos a menudo tienen que esperar para obtener tiempo de procesamiento. La demanda de potencia de cálculo siempre crece hasta llenar la capacidad disponible, independientemente de cuánto aumente dicha capacidad.
9. ¿Continuará esta evolución al mismo ritmo o estamos alcanzando un límite físico? Estamos alcanzando límites físicos reales, y la industria lleva años lidiando con esto. La miniaturización de los transistores se acerca a barreras donde los efectos de la física cuántica comienzan a interferir con el funcionamiento de los chips: transistores tan pequeños que los electrones pueden «saltar» a través de ellos incluso cuando deberían estar bloqueados, provocando errores. La Ley de Moore en su formulación original está perdiendo validez. La respuesta de la industria ha sido innovar en otras dimensiones: chips con múltiples núcleos, arquitecturas apiladas verticalmente en tres dimensiones, procesadores especializados para tareas específicas como la inteligencia artificial y el desarrollo emergente de la computación cuántica. La evolución continuará, pero por caminos diferentes a los de los últimos cincuenta años.
10. ¿Qué nos revela esta comparación sobre cómo utilizamos la potencia informática actual? Nos indica que la mayoría de las personas subutilizan enormemente el equipo que tienen a su disposición. Un ordenador doméstico moderno tiene potencia suficiente para realizar simulaciones científicas que hace treinta años habrían requerido presupuestos gubernamentales, y la mayor parte del tiempo permanece inactivo, esperando el siguiente clic del ratón o la carga del siguiente vídeo. Esto no es necesariamente un problema; de hecho, es una muestra de la democratización y el abaratación de la tecnología. Pero también nos invita a reflexionar sobre las posibilidades que ofrece esta potencia accesible. Creadores de contenido, músicos, desarrolladores de videojuegos independientes, científicos aficionados y emprendedores digitales tienen acceso hoy a herramientas informáticas que organizaciones enteras ni siquiera podían imaginar hace unas décadas. La limitación actual rara vez reside en el hardware, sino en la imaginación y el conocimiento para aprovecharlo.





