viernes, 8 de julio de 2011

¿Qué sabemos del ordenador cuántico?


El ordenador cuántico fue una idea inicialmente teórica que surgió a finales de los años 80, cuando se empezó a vislumbrar la posibilidad de que en unas décadas sería viable operar con las partículas elementales de la naturaleza tomadas de forma independiente.

Como es sabido, el método tradicional de miniaturización de chips ha sido ir fabricando láminas de circuitos integrados cada vez más finas hasta haberse llegado ya al límite de sólo unos pocos átomos de grosor. El problema que se encuentran los fabricantes es que cada vez cuesta más que estas capas sean fiables. Y no por que haya un problema puramente mecánico de que no dispongan de “pinzas” más estrechas, sino porque a esas escalas de micrómetros cada vez se notan más los extraños efectos cuánticos de la materia. No es casualidad que la tasa de fallos en la producción supere ya el 50% y cada vez sea más alta.

Viendo la cercanía del límite físico de la miniaturización de chips, en los años 80 se decidió abordar frontalmente el problema con la filosofía de que si no podemos hacer desaparecer los comportamientos cuánticos al tratar con pocos átomos, intentemos aprovecharlos a nuestro favor. Y en un gran esfuerzo teórico, entre físicos e informáticos se pusieron manos a la obra para desarrollar nuevos paradigmas de computación basados en esa teoría extraña que es la física cuántica, todo ello con el objetivo subyacente de construir una nueva raza de ordenadores.

Las posibilidades que prometía el ordenador cuántico eran enormes: se acabó el álgebra booleana. A partir de ahora, la unidad de información no es el bit, sino el bit cuántico o q-bit, que tiene la propiedad de poder tomar muchos más valores que 0 y 1. Según la partícula atómica que usemos, podemos tener bits con valores -2,-1,0,1,2, por ejemplo. O sea que se acabó el sistema binario, pero esa es la menor de las aportaciones del bit cuántico. La gran contribución es que el bit cuántico, al basarse en las propiedades cuánticas de superposición de realidades, puede almacenar varias informaciones “a la vez”!! Es decir, un mismo bit al ser preguntado de una u otra manera dará diferentes respuestas. Y esto permite realizar trabajos de computación en paralelo de maneras no imaginadas en la computación clásica. Esto es, de forma muy resumida y haciendo grandes aproximaciones, en lo que consiste la computación cuántica.

Los progresos iniciales fueron muy esperanzadores. En pocos años se consiguió juntar unos pocos átomos que reproducían una máquina de Turing completa a escala atómica. Consiguieron sumar bits y hacer puertas lógicas a la menor escala posible, y los que tengan memoria recordarán que se predecía que el ordenador cuántico estaría disponible hacia el año 2010 o 2015.

Bien, pues a partir de ahora lo que vais a leer lo veréis en pocos sitios. Bueno, quizá en la wikipedia y en cualquier libro de divulgación o revistas especializadas. También hay charlas en youtube y en miles de blogs como éste. Pero por lo demás, leeréis en pocos sitios esta predicción: lamentablemente fabricar un ordenador cuántico es inviable. O por lo menos, es inviable si se plantea en la forma descrita unos párrafos más arriba.

La culpa de estas expectativas hay que echársela a los físicos, y aunque la explicación es muy compleja intentaré hacerla comprensible. El problema es que los físicos han entendido mal la teoría cuántica durante más de 80 años. La cuántica sirve estupendamente para hacer cálculos, las fórmulas son correctas y la precisión de los resultados está más allá de cualquier otra medición realizada por el ser humano. Pero se han interpretado mal esos resultados y ello nos ha conducido a hacer predicciones fallidas.

En http://cienciaparatontos.blogspot.com/2011/07/la-cuantica-una-de-las-dos-sacudidas.html describo muy a grandes rasgos en qué consiste la mecánica cuántica. Entre 1925 y 1930, los físicos del momento se encontraron con una teoría que desbordaba la imaginación. Durante años estuvieron buscándole una explicación, y a falta de encontrarla decidieron encerrarse en la finca que Niels Bohr tenía en Copenhague y no salir de allí hasta decidir una interpretación. Bohr probablemente era el físico más influyente del momento (de hecho tuvo varias discusiones con Einstein sobre el significado de la física cuántica que acabó ganando) y además era noble y rico, así que en vez de ir a congresos, organizaba eventos en su finca para discutir los problemas. Bien, pues en 1930 los físicos decidieron aprobar ¡mediante votación! una interpretación formulada por Bohr 3 años antes, que es la que prevalece hasta nuestros días y se sigue enseñando en las facultades de física del mundo. Se conoce como la Interpretación de Copenhague y es la culpable de las falsas promesas sobre el ordenador cuántico.

La Interpretación de Copenhague establece que todas las realidades posibles existen en la naturaleza de forma simultánea y que en el momento de querer obtener alguna medición concreta de algo perturbamos el mundo haciéndole decantarse por una de esas realidades y olvidar todas las demás como si nunca hubieran existido. Esta es la explicación que se propuso a múltiples experimentos que establecen que parece ser que la naturaleza funciona así. Pero los experimentos también establecen que las sillas no están en dos sitios a la vez o que un gato no puede estar simultáneamente vivo y muerto. Es decir, parece que hay un límite de tamaño que marca la frontera entre los dos mundos llamémosles “clásico” y “cuántico”. Esta división de mundos fue lo que quiso ignorar la Interpretación de Copenhague.

En la realidad, ¿qué sucede si juntamos dos partículas cuánticas? que tenemos un sistema cuántico. ¿Y si juntamos 3? que tenemos un sistema cuántico más grande. ¿Pero y si juntamos un millón? pues sucede que nuestro sistema, de tan grande que es, ha alcanzado el tamaño de los objetos clásicos. Las teorías modernas de interpretación de la mecánica cuántica explican que a medida que unos sistemas interaccionan con otros, ellos mismos van cancelando sus posibles realidades cuánticas y el sistema tiende a comportarse de manera clásica. A esto le llaman decoherencia.

Dicho en términos comprensibles: la naturaleza nos está dando mecanismos para construir un bit cuántico. Incluso podemos juntar unos cuantos bits cuánticos para construir una calculadora cuántica. Pero el megabit cuántico no se puede crear: para la naturaleza será siempre el megabit clásico.

5 comentarios:

  1. si es que el que quiera hacer de una cosa pequeña una cosa grande pues está abocado irremediablemente al fracaso, que yo siempre lo digo!

    ResponderEliminar
  2. Supongo que la solución seria que el mundo clásico pudiera interactuar con el mundo cuántico para aprovechar las ventajas que nos ofreceria... ups, es eso una chorradoja?

    Pregunta desde el desconocimiento profundo nueve: podría usarse la cuántica para el transporte y las comunicaciones tipo viaje en el tiempo o teletransporte? O para producir materia a la carta?

    ResponderEliminar
  3. Me has picado el gusanillo de escribir y he escrito otro post comentando estas cosas. Cuidadín, que se empieza así y se acaba arreglando el mundo de verdad

    http://cienciaparatontos.blogspot.com/2011/07/haciendo-de-guru-con-la-cuantica.html

    ResponderEliminar