José Manuel Alarcón

geek, author, speaker, entrepreneur, web guy

MENÚ - Blog de José Manuel Alarcón

Supercomputación: se acabaron los saltos cuánticos

Soy suscriptor y absoluto devoto de la revista Spectrum del IEEE (Instituto de Ingenieros Eléctricos y Electrónicos). Junto con el Technology Review del MIT (Massachusetts Institute of Technology), es la fuente a seguir si quieres estar al tanto no ya de lo que pasa en el mundo de la tecnología, sino de lo que va a pasar en los próximos años.

Este gráfico está extraído del número de febrero de 2011 y me parece impresionante, no sé a ti:

SuperComputadorIEEESpectrum

Compara la capacidad del mejor super-computador de 1997 con el de una PlayStation 3 aparecida en el mercado de consumo en 2006. Es decir, en solo 9 años un producto de consumo que cualquiera podía tener en su casa igualaba la capacidad de cómputo del mejor supercomputador masivamente paralelo. Por no mencionar sus diferencias en tamaño y energía consumida.

Un gigaflop son mil millones de operaciones de coma flotante por segundo, así que la GPU de una PlayStation 3 es capaz de hacer casi dos mil millones de operaciones de coma flotante en un segundo. Sin embargo, eso no es nada comparado con lo que es capaz de hacer un super-computador actual. El más potente del mundo a día de hoy está en China y su capacidad es de 4.701.000 gigaflops!!! gracias a sus 186.368 núcleos de procesamiento paralelo. Es decir, en 13 años la capacidad de supercomputación se multiplicó por ¡casi 3 millones!. Si vemos la gráfica de evolución de estas capacidades en los últimos años vemos que el crecimiento es mucho más que exponencial.

Estos órdenes de magnitud son difíciles de manejar en la cabeza. Simplemente se nos escapa a cualquiera.

Sin embargo las cosas no van a seguir así por mucho tiempo. El fabuloso artículo que el Spectrum traía en el número de febrero, "The Tops in Flops" (se puede leer entero on-line) describe con bastante detalle las conclusiones a las que llegaron en el estudio realizado por encargo del DARPA acerca de las posibilidades de conseguir un supercomputador exaflop (1018!!!) en 2015. Esto implica multiplicar "sólo" por mil la capacidad actual, algo que al ritmo que ha habido hasta ahora parece que se pudiera conseguir el año que viene, como quien dice...

La conclusión del estudio, sin embargo, es que la fiesta se ha acabado. Salvo que surja una nueva tecnología totalmente disruptiva (quizá los memristores de los que ya he hablado aquí), con la tecnología actual no parece que vayamos a conseguirlo en un horizonte cercano.

En contra de lo que pudiera parecer, la principal barrera es el consumo energético de una de estas máquinas. Esta es otra de las cosas que más me han sorprendido. Uno actual consume entre 4 y 6 Megavatios, lo suficiente para dotar de electricidad a unos 5.000 hogares promedio (de EEUU que consumen más que en Europa). Esto ya es muchísimo, pero es que según los cálculos realizados en el estudio para llegar al exaflop se necesitarían 1,5 Gigavatios, muy elevado, y algo que representa el 0,1% de la capacidad eléctrica completa de EEUU.

El artículo profundiza más en otras barreras existentes y concluye que sí se puede conseguir, pero no desde luego para 2015, sino que se necesitará mucho más tiempo y esfuerzos interdisciplinares para conseguirlo.

Espero que te parezca tan interesante como a mi :-)

Jose M. Alarcon José Manuel Alarcón
Ingeniero industrial y empresario. Fundador de Krasis.com, especialistas en e-learning. Autor de varios libros y cientos de artículos. Gallego de Vigo, amante de la ciencia, la tecnología, la sociología, la música y la lectura.
Descarga GRATIS mi último libro: "Tres Monos, Diez Minutos".
Más sobre mi...

Comentarios (5) -

Tal vez el futuro vaya por el GridComputing?

Ciertamente el gasto sería siendo igualmente monstruoso, o incluso más por la mucho menor optimización. Pero al ser hiper distribuido por todos los nodos, sería menos "visible".

De todas formas, ya en 1997 leia artículos que hablaban del tope de la minituarización y, por ende, la capacidad de procesamiento.

Esperemos que no estén del todo en lo cierto, o que una tecnología emergente permita seguir manteniendo la ley de Moore unas décadas más. Hasta que se despierte Skynet... :)

Responder

Spain José Manuel Alarcón

Yo creo que lo del Grid Computing sigue sus propios derroteros y aunque tiene muchas similitudes con la compuación paralela la tecnología y los paradigmas utilizados son diferentes. Desde luego que la computación distribuida va a seguir abriendo muchas oportunidades de procesamiento y hay proyectos muy interesantes en marcha.

Gracias por el comentario!

Responder

¿Eso de los "saltos cuánticos" va por la computación cuántica?

Siempre intento dar a los informáticos una visión de lo que es la computación cuántica para que vean que realmente aún queda mucho camino pues no se asemeja ni por asomo a la computación normal.

Verás, en un ordenador cuántico, una vez que se hayan realizado las operaciones correspondientes con los qbits, hay que leer el estado de estos. La solución de la simulación no es la lectura del qbit, sino el estado cuántico de ese qbit. Me explico. El estado cuántico de un qbit es por ejemplo 40% de probabilidad de estar en el estado 0 y 60% de estar en el estado 1. Obviamente, el leerlo te da un 0 o un 1. Más concretamente el 40% de las veces que lo leas dará un 0 y el 60% dará un 1. Es decir, si tienes 8 qbits, cada vez que realices la simulación tendrás un resultado distinto 010100011, 11110001, ... ¿Cuál es el resultado de verdad? Pues todos pues tienes que en base a esos resultados obtener con qué probabilidad están en 0 y en 1 cada uno de los qbits. ¿Cuántas medidas necesitas para saber que un qbit está un 40% de las veces en el estado 0 y un 60% de las veces en el estado 1? Pues si haces 100 medidas puedes tener 42 en el estado 0 y 58 en el estado 1. Así que puedes llegar a la conclusión que la probabilidad es de un 42% de estar en el estado 0 y 58% de estar en el estado 1.

Con lo que realmente vas realizando simulación tras simulación cientos o incluso miles de veces para llegar a obtener un resultado que tiene un porcentaje de error. Eso sí, cada simulación es increíblemente rápida pero tienes que repetirla una y otra vez para obtener un resultado fiable. O bueno, tienes una alternativa, en vez de hacer que un único ordenador cuántico haga una simulación 1000 veces, puedes ejecutar esa simulación en 1000 ordenadores cuánticos y hacerlo una única vez.

Tan sólo eso aunque se que en este artículo no se habla de computación cuántica, pero se menciona algo en el título.

Responder

Spain José Manuel Alarcón

Hola José Ignacio:

Pues no, con el título no me refería a la computación cuántica que es harina de otro costal. Era una expresión enfática para señalar el hecho de que hasta ahora se han dado saltos enormes de capacidad en los supercomputadores, pero en breve dejará de pasar. A veces, para refererirse a un cambio abrupto en algo se dice que se ha producido un "Salto cuánmtico" y por ahí iban los tiros.

En cualquier caso gracias por comentar y por tu explicación :-)

Saludos.

Responder

Hola.
Hoy en día teniendo en cuenta que se estan creando centros de datos con CPU+GPUS es probable que sigamos viendo saltos enormes en procesamiento paralelo de datos, pero tal como tu dices no será tan pronunciado como hasta ahora, aunque la ley de moore no deja de sorprendernos.

Hace un año vi un ordenador compuesto por un procesador normalito + 5 GPUS de última generación, además de producir calor era capaz de generar en tiempo real una reconstrucción 3d mejorada de un esqueleto. Bastante impresionante.

Responder

Agregar comentario