La frontera cuántica

En mayo de 1981, en una conferencia organizada por el Laboratorio de Ciencias de la Computación del MIT, Richard Feynman '39 describió un dispositivo teórico al que llamó computadora cuántica, que realizaría cálculos aprovechando el extraño comportamiento de la materia a escalas muy pequeñas. Los físicos teóricos adoptaron la idea, demostrando que las computadoras cuánticas podían, en principio, hacer cualquier cosa que las computadoras ordinarias pudieran hacer y argumentando que podrían hacer algunas cosas mucho, mucho más rápido. Sin embargo, durante más de una década, la computación cuántica siguió siendo, para todos menos unos pocos entusiastas, un tema de especulación ociosa.

De izquierda a derecha: profesores Peter Shor, Scott Aaronson y Edward Farhi

Eso cambió espectacularmente en 1994, cuando Peter Shor, PhD ‘85, ahora profesor de matemáticas aplicadas en el MIT, describió un algoritmo cuántico para encontrar los factores primos de un número. Una computadora cuántica que ejecute el algoritmo de Shor podría realizar tareas de factorización que las computadoras de hoy en día no podrían terminar durante la vida del universo. Dado que la dificultad de factorizar números grandes es todo lo que garantiza la seguridad de la mayoría de los sistemas criptográficos modernos, el resto del mundo, y en particular organizaciones como la Agencia de Seguridad Nacional, tuvo que tomar nota. Shor demostró que si se podían construir computadoras cuánticas, habría personas que querrían comprarlas, dice Seth Lloyd, profesor de ingeniería mecánica que estudia la computación cuántica. El algoritmo de Shor constituyó la aplicación asesina que hizo que todo el mundo se interesara.



Aunque probablemente falten décadas para que las computadoras cuánticas de propósito general sean completamente funcionales, el algoritmo de Shor convirtió la computación cuántica en un área de investigación abundante. Hoy, dice Lloyd, la cantidad de investigadores en todo el mundo que trabajan en computación cuántica probablemente ronda los 5.000. Creo que si conseguimos otros 300 miembros en la Sociedad Estadounidense de Física, seremos una división de la Sociedad Estadounidense de Física, dice. Y en todos los aspectos, desde el descubrimiento de nuevos algoritmos hasta la creación de nuevos tipos de computadoras, los investigadores del MIT están en el centro de la refriega.

Posibilidad cuántica

La computación cuántica tiene sus raíces en el misterio central de la física cuántica: que pequeñas partículas de materia pueden habitar en múltiples estados aparentemente excluyentes entre sí al mismo tiempo. Dispare un solo fotón, una partícula de luz, a una barrera con dos rendijas, y pasará a través de ambas rendijas a la vez. Los electrones tienen una propiedad llamada espín, que se puede considerar como una rotación en sentido horario o antihorario, pero un solo electrón puede girar simultáneamente en sentido horario y antihorario. Esta capacidad de estar en más de un estado a la vez, que los físicos llaman superposición, es, como dijo una vez Feynman, imposible, absolutamente imposible, de explicar de una manera clásica. Para hacer las cosas aún más extrañas, si tiene una partícula cuántica que está en varios estados a la vez y realiza alguna medición en ella, instantáneamente se ajusta a solo uno de esos estados. Y cuál de ellos asume que es totalmente aleatorio. (Esa es la base de otra cita famosa de la física: la insistencia de Einstein, contra los dictados de la física cuántica, de que Dios no juega a los dados con el universo).

En informática, la unidad fundamental de información es el bit, que puede tomar uno de dos valores, generalmente expresados ​​como 0 y 1 . Los pioneros de la computación cuántica se dieron cuenta de que, dado que una partícula cuántica puede estar en dos estados a la vez, podría representar 0 y 1 al mismo tiempo. Dos bits cuánticos, o qubits, podrían representar cuatro valores, tres de ellos ocho, cuatro de ellos 16, y así sucesivamente. Un solo cálculo que involucra norte qubits sería como hacer 2 norte cálculos a la vez.

Sin embargo, suponga que tiene ocho qubits, que representan los resultados de 256 cálculos simultáneos. Si realiza una medición en los qubits, la superposición colapsa: cada qubit asume inmediatamente un valor de 0 o 1 . Te queda solo una de las 256 posibilidades iniciales, y esa se elige al azar. ¿Cómo garantizas que es el que quieres?

El primer algoritmo cuántico

Esa es la pregunta que respondió Shor, en lo que sigue siendo el principal resultado en nuestro campo, según Edward Farhi, director del Centro de Física Teórica del MIT, que también investiga la computación cuántica.

Cuando una partícula en superposición asume aleatoriamente un solo estado, lo hace de acuerdo con ciertas probabilidades: con el tiempo, las partículas entrarán en algunos estados con más frecuencia que en otros. Esas probabilidades se pueden representar como una curva que se parece mucho a la cresta de una ola. Resulta que las mismas matemáticas que describen la física de las ondas también describen la física de las probabilidades cuánticas.

Cuando las ondas chocan, interfieren entre sí, ya sea de forma constructiva o destructiva. Si dos crestas se cruzan, el resultado es una cresta más grande; si una cresta se cruza con una depresión, se anulan entre sí. Shor encontró una manera ingeniosa de representar el problema de la factorización con ondas de probabilidad, de modo que las respuestas correctas tenderían a reforzarse unas a otras mientras que las incorrectas esencialmente desaparecerían. El resultado sigue siendo una onda de probabilidad, pero cuando la superposición colapsa, las probabilidades de que obtenga la respuesta correcta son muy altas.

Shor comenzó a trabajar en el algoritmo en 1993, cuando estaba en el centro de investigación Bell Labs de AT&T, después de escuchar una charla sobre computación cuántica de Umesh Vazirani ‘81, profesor de la Universidad de California, Berkeley. No trabajar en eso a tiempo completo, por supuesto, dice. De hecho, no le dije a nadie que estaba trabajando en eso hasta que se me ocurrió.

De hecho, el primer algoritmo cuántico del que Shor habló a alguien, en abril de 1994, fue uno para calcular logaritmos, un problema estrechamente relacionado con la factorización. Di una charla sobre el algoritmo en Bell Labs un martes, dice. Ese sábado, estaba en casa con un fuerte resfriado, y Umesh Vazirani me llamó desde California, muy emocionado, y dijo: 'Escuché que sabes cómo factorizar con una computadora cuántica'. De hecho, lo hizo: en los cuatro intermedios días, había adaptado su algoritmo a ese mismo problema. El Economista Me entrevistó poco después de eso, dice Shor. Pronto recibí toneladas de correos electrónicos sobre el algoritmo y todavía no había escrito el artículo. Cuando dio su primera charla pública sobre el tema en Cornell a principios de mayo, dice, riendo, alguien de la NSA me habló de eso después.

Aprovechamiento de la tecnología de resonancia magnética

Cuando Seth Lloyd llegó al MIT en 1994, había escrito un montón de artículos sobre computación cuántica, dice. Yo y tal vez, como, cinco o seis personas más habíamos estado trabajando en esto antes de 1994. Para Lloyd, el anuncio del algoritmo de Shor tuvo un efecto muy concreto: hizo que fuera mucho más fácil conseguir la titularidad.

Uno de los artículos que Lloyd había publicado, en Ciencias en 1993, propuso el primer diseño factible para una computadora cuántica. Podrías pensar en ello como una taza llena de moléculas, dice. En cada molécula, los qubits estaban representados por diferentes tipos de átomos, y todas las moléculas de la taza realizarían el mismo cálculo al mismo tiempo.

En una investigación separada, el profesor invitado David Cory y Neil Gershenfeld, jefe del Grupo de Física y Medios del Media Lab, demostraron que el diseño de Lloyd se podía realizar utilizando resonancia magnética nuclear (RMN), el fenómeno subyacente a la resonancia magnética. Un poderoso imán alinearía los espines de los átomos que forman las moléculas. Las diferentes frecuencias de ondas de radio podrían colocar algunos de los átomos en superposición y cambiar los giros de otros. Los electrones con espines definidos representarían datos, y los espines en superposición representarían los resultados de múltiples operaciones realizadas con esos datos.

En 1998, Gershenfeld se asoció con Isaac Chuang '90, '91, SM '91, luego en IBM Almaden Research Center en San José, California, y Mark Kubinec de UC Berkeley para construir el primer sistema de computación que usó NMR para ejecutar un cuanto algoritmo. Tenía dos qubits.

En 2000, Chuang regresó al MIT, donde ahora es profesor de física e ingeniería eléctrica e informática. Al año siguiente, él y sus colegas de IBM construyeron una computadora NMR de siete qubit que ejecutó con éxito el algoritmo de Shor por primera vez. Determina que los factores primos de 15 son muy probablemente tres y cinco.

Un problema con la computación cuántica de RMN es que, dado que los qubits están representados por diferentes átomos en una sola molécula, los cálculos más complejos requieren moléculas más complejas. Pero cuanto más grande es la molécula, más fuerte es su campo electromagnético y mayor es la dificultad para distinguir la señal electromagnética producida por un solo átomo. Algunos investigadores están investigando pequeños sensores que pueden leer señales magnéticas de moléculas individuales. Pero Chuang, entre otros, ha recurrido a computadoras cuánticas que utilizan iones atrapados en campos electromagnéticos como qubits, una técnica propuesta en 1995 por investigadores de la Universidad de Innsbruck en Austria.

La computación cuántica con trampa de iones utiliza campos magnéticos giratorios para aislar moléculas individuales y luz láser en lugar de pulsos de radio para cambiar los estados cuánticos de las moléculas. Si bien eso les da a los investigadores un control más preciso sobre los qubits que las técnicas de RMN existentes, también lo exige. Los electrones que orbitan alrededor de un núcleo pueden estar en diferentes estados de energía. Agregue suficiente energía a un electrón y pasará al siguiente nivel de energía; si pierde solo un poco de energía, volverá a bajar. La computación cuántica con trampa de iones requiere mantener los electrones en diferentes estados de energía especificados con precisión. Esto es tan complicado que algunos investigadores comenzaron a considerar si podría haber una computadora cuántica que simplemente permaneciera en su estado de energía más baja.

Un enfoque adiabático

En 2000, los físicos del MIT Edward Farhi y Jeffrey Goldstone, Michael Sipser del departamento de matemáticas y Sam Gutmann de Northeastern, '73, PhD '77, propusieron un nuevo tipo de computadora cuántica, llamada computadora cuántica adiabática, que siempre está en su energía más baja. Expresar. (Los objetos tienden a buscar los estados de energía más bajos que pueden encontrar, por lo que los estados de energía baja tienden a ser más estables que los altos). El artículo no especificó cómo se realizarían los qubits. Pero se basó en el reconocimiento de que las soluciones a los problemas computacionales podrían representarse como los estados de energía más bajos de un sistema físico.

Dos imanes, por ejemplo, tenderán a alinearse entre el polo norte y el polo sur porque se necesita menos energía que unir los polos norte. Por lo tanto, un grupo de imanes colocados arbitrariamente en un tablero comenzará a girar de manera que tantos de ellos como sea posible estén alineados de norte a sur. En teoría, si coloca imanes en el patrón correcto y establece sus orientaciones iniciales de la manera correcta, podría codificar un problema de cálculo. A medida que los imanes giraran para encontrar su orientación de menor energía, convergerían en la solución del problema. La computación cuántica adiabática es similar, pero podría explorar muchas soluciones posibles simultáneamente, ya que usaría qubits en lugar de imanes.

Con la computación cuántica adiabática, un sistema físico mecánico-cuántico se establecería en su estado de energía más bajo, llamado estado fundamental. Inicialmente, el sistema codificaría un problema mucho más simple que el que pretende resolver. Pero con el tiempo, algún parámetro de control del sistema, digamos, la fuerza de su campo electromagnético, cambiaría gradualmente, hasta que el sistema terminara codificando el problema más difícil. Si el cambio se producía con la suficiente lentitud, el sistema permanecería en su estado fundamental, por lo que acabaría representando la solución al problema.

Algunas personas piensan que si tuvieras una computadora cuántica que debiera permanecer en su estado fundamental, digamos, haciéndola muy fría, eso podría hacer que el sistema sea un poco menos propenso a errores, dice Farhi. Porque si siempre tienes frío y siempre estás en el suelo, ese es probablemente un lugar más fácil para estar que en un estado de excitación que tienes que controlar con cuidado.

El problema con el enfoque adiabático es que el sistema tiene que cambiar lentamente para evitar que salte a un estado de mayor energía, y nadie sabe qué tan lento es lo suficientemente lento. Si es infinitamente lento, sabemos que funcionará, dice Farhi. Pero si el sistema tiene que cambiar con demasiada lentitud, no ofrecerá ventajas sobre las computadoras convencionales.

Farhi continúa investigando la cuestión de qué tan rápido puede cambiar un sistema de computación cuántica adiabática, tanto a través del modelado por computadora de sistemas relativamente simples como a través del análisis matemático. Mientras tanto, en 2002, Lloyd y Bill Kaminsky, un estudiante graduado de su grupo, propusieron una forma de realizar una computadora cuántica adiabática utilizando circuitos eléctricos superconductores, en los que el flujo de corriente puede estar en superposición: efectivamente, la corriente fluye en sentido horario y antihorario en una vez. La dirección del flujo de corriente representa el valor de un qubit y la energía total del sistema depende de la dirección del flujo de corriente en los circuitos adyacentes. Cuando se aplica un campo magnético, las corrientes se superponen. Cuando se mide, el sistema entra en su estado de energía más bajo, revelando la respuesta. Dos años después, Lloyd; Wim van Dam, un postdoctorado en el grupo de Farhi; y otros cuatro investigadores de cuatro universidades diferentes demostraron que una computadora cuántica adiabática podría, en principio, realizar cualquier cálculo que una computadora cuántica convencional.

En 2007, una empresa de Burnaby, Columbia Británica, demostró lo que dijo era una computadora cuántica adiabática de 16 qubit que utilizaba circuitos superconductores. A finales de 2008, la empresa D-Wave anunció que había conseguido que el recuento de cúbits llegara a 128. Muchos expertos se han mostrado escépticos, pero en un Naturaleza En un artículo publicado a principios de este año, los investigadores de D-Wave demostraron que su celda de ocho qubits presenta efectos cuánticos. La compañía ha recaudado más de $ 65 millones en fondos y en mayo vendió su primer dispositivo comercial, un D-Wave One de 128 qubit, a Lockheed Martin.

Superando a las supercomputadoras

Parte del problema con demostraciones como la de D-Wave, o incluso con computadoras cuánticas de RMN como la de Chuang, es que los circuitos cuánticos son demasiado simples para realizar cálculos que las computadoras convencionales no pueden. Scott Aaronson, un profesor asociado de ciencias de la computación que, a sus 30 años, es el más joven de los investigadores de computación cuántica de alto perfil del MIT, está tratando de abordar ese problema, como él mismo dice, encontrando a los experimentadores a mitad de camino.

En 2011, Aaronson y su estudiante de posgrado Aleksandr Arkhipov propusieron un experimento que, si funcionaba, realizaría un cálculo que ni siquiera las supercomputadoras más poderosas de la actualidad podrían realizar. Cree que la configuración experimental debería ser mucho más sencilla de construir que una computadora cuántica a gran escala.

El experimento utilizaría una serie de divisores de haz, dispositivos utilizados en redes ópticas para dividir los rayos láser en dos. En 1987, físicos de la Universidad de Rochester descubrieron que si dos fotones llegaban a un divisor de haz exactamente al mismo tiempo, las interacciones de la mecánica cuántica obligarían a ambos a ir hacia la derecha o hacia la izquierda. Nunca, como predeciría la ley de probabilidades, saldrían del divisor de haz en diferentes direcciones.

Aaronson y Arkhipov proponen enrutar un número finito de fotones, digamos 20, a través de una serie de divisores de haz a un conjunto de detectores de luz, digamos unos 400. Calcular la frecuencia con la que diferentes números de fotones llegarían a diferentes detectores probablemente esté más allá la capacidad computacional de todas las computadoras del mundo. Pero, como lo demostraron Aaronson y Arkhipov, también lo es el cálculo de resultados estadísticamente plausibles incluso para un par de docenas de ejecuciones del experimento. Sin embargo, este es un problema que resolverían un par de docenas de ejecuciones exitosas del experimento.

Cuando describieron por primera vez su experimento, Terry Rudolph, un investigador avanzado del grupo de óptica cuántica y ciencia láser del Imperial College de Londres, dijo que tiene el potencial de llevarnos más allá de lo que me gustaría llamar la 'singularidad cuántica', donde lo hacemos la primera cosa cuántica que no podemos hacer en una computadora clásica.

Los físicos experimentales de varias universidades han aceptado el desafío de Aaronson y Arkhipov y confían en que, en un plazo relativamente corto, conseguirán que el experimento funcione con quizás cuatro fotones. Una versión con 20 fotones tardará más, y una computadora cuántica en pleno funcionamiento podría tardar más. Pero cuando finalmente se construya esa computadora y se escriba la historia de su invención, los primeros capítulos estarán tachonados con los nombres de los profesores del MIT.

esconder