Justo cuando parecía subestimada, la computación clásica está volviendo a atacar. IBM ha ideado una manera de simular ordenadores cuánticos que tienen 56 bits cuánticos, o cubits, en un superordenador no cuántico – una tarea que antes se creía imposible. La hazaña mueve los palos de la portería en la lucha por la supremacía cuántica, el esfuerzo por superar a las computadoras clásicas usando las cuánticas.
Antes se aceptaba ampliamente que un ordenador clásico no puede simular más de 49 qubits debido a limitaciones de memoria. La memoria necesaria para las simulaciones aumenta exponencialmente con cada cubit adicional.
Lo más cerca que se había llegado a poner a prueba el límite de 49 bits era una simulación de 45 bits en el Instituto Federal Suizo de Tecnología de Zúrich, que necesitaba 500 terabytes de memoria. La nueva simulación de IBM eleva la suposición al simular 56 qubits con sólo 4,5 terabytes.
La simulación se basa en un truco matemático que permite una representación numérica más compacta de los diferentes arreglos de qubits, conocidos como estados cuánticos.
Una operación de computación cuántica es típicamente representada por una tabla de números que indica lo que se debe hacer a cada cubit para producir un nuevo estado cuántico. En su lugar, los investigadores del Centro de Investigación T. J. Watson de IBM en Yorktown Heights, Nueva York, utilizaron tensores – tablas efectivamente multidimensionales aumentadas con ejes más allá de filas y columnas.
Gracias a los ejes adicionales, se puede introducir mucha más información en unos cuantos tensores, siempre y cuando sepamos escribirla en el lenguaje de los tensores. Los investigadores encontraron una forma de hacer precisamente eso para las operaciones de computación cuántica.
Vergonzosamente paralelos
Al escribir las operaciones en forma tensorial, también descubrieron una manera de dividir la tarea de simulación en lo que ellos llaman trozos «vergonzosamente paralelos», lo que les permitió usar los muchos procesadores de un supercomputador simultáneamente. Esto les ganó el último bit de eficiencia necesario para simular una computadora cuántica de 56 bits.
IBM se ha pasado de la raya «, dice Itay Hen de la Universidad del Sur de California. «Será mucho más difícil para la gente de dispositivos cuánticos exhibir supremacía.»
IBM tiene ahora un ordenador cuántico funcional de 56 bits que vive en su supercomputadora. Pero mientras que eso es una mejora con respecto al récord anterior, Andrew Childs en la Universidad de Maryland dice que no es un gran salto hacia adelante. No creo que estén afirmando que esto vaya a darles una simulación eficiente de sistemas cuánticos en un ordenador clásico «, dice.
Aun así, han subido la apuesta en la carrera por superar a los ordenadores clásicos con sistemas cuánticos. Google dijo anteriormente que estaban en camino de construir un procesador de 49 bits a finales de 2017, pero eso ya no les permitirá alcanzar la supremacía cuántica.
De hecho, Bob Wisnieff, el investigador principal del estudio de IBM, dice que su simulación actual funciona cerca de «mil millones de veces más lento» que las estimaciones teóricas para una computadora cuántica real de 56 cubits.
El equipo de Wisnieff planea experimentar con supercomputadoras cuyos procesadores pueden comunicarse eficazmente entre sí. Esperan poder exprimir unos cuantos más de estos canales de comunicación, lo que ayuda a acelerar el cálculo paralelo necesario para la simulación.
El objetivo de IBM es construir una computadora cuántica que pueda «explorar problemas prácticos» como la química cuántica, dice Wisnieff. Espera comprobar la precisión de las computadoras cuánticas frente a sus simulaciones antes de poner a prueba las computadoras cuánticas reales.
«Quiero ser capaz de escribir algoritmos para los que conozco las respuestas antes de ejecutarlos en una computadora cuántica real «, dice.
Referencia: arxiv.org/abs/1710.05867
Durante más de 50 años, la Ley de Moore ha reinado en forma suprema. La observación de que el número de transistores en un chip de ordenador se duplica aproximadamente cada dos años ha marcado el ritmo de nuestra revolución digital moderna: hacer posible teléfonos inteligentes, ordenadores personales y superordenadores actuales. Pero la Ley de Moore se está ralentizando. E incluso si no lo fuera, algunos de los grandes problemas que los científicos necesitan abordar podrían estar fuera del alcance de los ordenadores convencionales.
Durante los últimos años, los investigadores del Lawrence Berkeley National Laboratory (Berkeley Lab) han estado explorando un tipo drásticamente diferente de arquitectura computacional basada en la mecánica cuántica para resolver algunos de los problemas más difíciles de la ciencia. Con el patrocinio de Laboratory Directed Research and Development (LDRD), han desarrollado algoritmos de optimización y química cuántica, así como procesadores de prototipo superconductores cuánticos. Recientemente, demostraron la viabilidad de su trabajo utilizando estos algoritmos en un procesador cuántico que consta de dos bits cuánticos superconductores para resolver con éxito el problema químico de calcular el espectro energético completo de una molécula de hidrógeno.
Ahora, dos equipos de investigación dirigidos por el personal del Berkeley Lab recibirán fondos del Departamento de Energía (DOE) para aprovechar este impulso. Un equipo recibirá 1,5 millones de dólares en tres años para desarrollar algoritmos novedosos, técnicas de compilación y herramientas de programación que permitirán utilizar plataformas de computación cuántica a corto plazo para el descubrimiento científico en las ciencias químicas. El otro equipo trabajará en estrecha colaboración con estos investigadores para diseñar prototipos de procesadores de cuatro y ocho cubit para calcular estos nuevos algoritmos. Este proyecto tendrá una duración de cinco años y los investigadores recibirán 1,5 millones de dólares para su primer año de trabajo. Para el quinto año, el equipo de hardware espera demostrar un procesador de 64 cubit con control total.
«Algún día, los ordenadores cuánticos universales podrán resolver una amplia gama de problemas, desde el diseño molecular hasta el aprendizaje automático y la ciberseguridad, pero estamos muy lejos de eso. Por lo tanto, la pregunta que nos hacemos actualmente es si existen problemas específicos que podamos resolver con computadoras cuánticas más especializadas», dice Irfan Siddiqi, científico de laboratorio de Berkeley y director fundador del Center for Quantum Coherent Science de la UC Berkeley.
Según Siddiqi, las tecnologías de computación cuántica coherente de hoy en día cuentan con los tiempos de coherencia necesarios, las fidelidades lógicas de operación y las topologías de circuitos para realizar cálculos especializados para la investigación fundamental en áreas como la ciencia molecular y de materiales, la optimización numérica y la física de alta energía. A la luz de estos avances, señala que es el momento de que el DOE explore cómo estas tecnologías pueden integrarse en la comunidad de computación de alto rendimiento. En estos nuevos proyectos, los equipos del Berkeley Lab trabajarán con colaboradores de la industria y el mundo académico para aprovechar estos avances y abordar problemas científicos difíciles relacionados con las misiones del DOE, como el cálculo de la dinámica de los sistemas moleculares y el aprendizaje de máquinas cuánticas.
«Estamos en las primeras etapas de la computación cuántica, como en los años 40 con la computación convencional. Tenemos parte del hardware, ahora tenemos que desarrollar un conjunto robusto de software, algoritmos y herramientas para utilizarlo de manera óptima para resolver problemas científicos realmente difíciles», dice Bert de Jong, que dirige el Grupo de Química Computacional, Materiales y Clima del Laboratorio de Investigación Computacional (CRD) de Berkeley.
Dirigirá un equipo de Algoritmos Cuánticos del DOE formado por investigadores de Berkeley Lab, Harvard, Argonne National Lab y UC Berkeley, centrado en «Algoritmos Cuánticos, Matemáticas y Herramientas de Compilación para Ciencias Químicas».
«La tradición de Berkeley Lab en la ciencia en equipo, así como su proximidad a UC Berkeley y Silicon Valley, lo convierten en un lugar ideal para trabajar en computación cuántica de extremo a extremo», dice Jonathan Carter, Subdirector de Berkeley Lab Computing Sciences. «Tenemos físicos y químicos en el laboratorio que están estudiando la ciencia fundamental de la mecánica cuántica, ingenieros para diseñar y fabricar procesadores cuánticos, así como científicos informáticos y matemáticos para asegurar que el hardware sea capaz de calcular efectivamente la ciencia del DOE».
Carter, Siddiqi y Lawrence Livermore National Laboratory’s Jonathan DuBois liderarán el proyecto de Testbed Simulation (AQuES) Advanced Quantum-Enabled Simulation del DOE.
Desafío de la coherencia cuántica
La clave para construir ordenadores cuánticos que resuelvan problemas científicos fuera del alcance de los ordenadores convencionales es la «coherencia cuántica». Este fenómeno permite esencialmente que los sistemas cuánticos almacenen mucha más información por bit que en las computadoras tradicionales.
En una computadora convencional, los circuitos de un procesador incluyen miles de millones de transistores, pequeños interruptores que se activan mediante señales electrónicas. Los dígitos 1 y 0 se utilizan en binario para reflejar los estados de encendido y apagado de un transistor. Esencialmente, así es como se almacena y procesa la información. Cuando los programadores escriben código de ordenador, un traductor lo transforma en instrucciones binarias (1s y 0s) que un procesador puede ejecutar.
A diferencia de un bit tradicional, un bit cuántico (cubit) puede adquirir propiedades mecánicas cuánticas algo contrarias a la intuición como el entrelazamiento y la superposición. El entrelazamiento cuántico ocurre cuando los pares o grupos de partículas interactúan de tal manera que el estado de cada partícula no puede ser descrito individualmente, sino que el estado debe ser descrito para el sistema como un todo. En otras palabras, las partículas entrelazadas actúan como una unidad. La superposición ocurre cuando una partícula existe en una combinación de dos estados cuánticos simultáneamente.
Por lo tanto, mientras que un bit de ordenador convencional codifica la información como 0 o 1, un cubit puede ser 0,1 o una superposición de estados (tanto 0 como 1 al mismo tiempo). La capacidad de un cubit para existir en múltiples estados significa que, por ejemplo, puede permitir el cálculo de las propiedades químicas y de materiales significativamente más rápido que los ordenadores tradicionales. Y si estos cubits se pueden enlazar o enredar en un ordenador cuántico, los problemas que no se pueden resolver hoy en día con los ordenadores convencionales podrían ser abordados.
Pero sigue siendo un reto conseguir cubits en este estado de coherencia cuántica, donde se pueden aprovechar las propiedades de mecánica cuántica y luego sacar el máximo provecho de ellas cuando están en este estado.
«La computación cuántica es como jugar un juego de ajedrez donde las piezas y el tablero están hechos de hielo. A medida que los jugadores se mueven alrededor de las piezas, los componentes se están derritiendo y mientras más movimientos realices, más rápido se derretirá el juego», dice Carter. «Los cubits pierden coherencia en muy poco tiempo, así que depende de nosotros encontrar el juego de movimientos más útil que podamos hacer.»
Carter señala que el enfoque de Berkeley Lab de codiseñar los procesadores cuánticos en estrecha colaboración con los investigadores que desarrollan algoritmos cuánticos, recopilando técnicas y herramientas de programación será extremadamente útil para responder a esta pregunta.
«Los enfoques computacionales son comunes en la mayoría de los proyectos científicos del Berkeley Lab. A medida que la Ley de Moore se está ralentizando, las nuevas arquitecturas, sistemas y técnicas informáticas se han convertido en una iniciativa prioritaria en Berkeley Lab «, dice Horst Simon, Director Adjunto de Berkeley Lab. «Reconocemos desde el principio cómo la simulación cuántica podría proporcionar un enfoque eficaz a algunos de los problemas computacionales más desafiantes en la ciencia, y me complace ver el reconocimiento de nuestra iniciativa de LDRD a través de esta primera financiación directa. La ciencia de la información cuántica se convertirá en un elemento cada vez más importante de nuestra empresa de investigación en muchas disciplinas».
Debido a que este campo todavía se encuentra en sus primeros días, hay muchos enfoques para construir una computadora cuántica. Los equipos liderados por el Laboratorio de Berkeley estarán investigando ordenadores cuánticos superconductores.
Para diseñar y fabricar la próxima generación de procesadores cuánticos, el equipo de AQuES aprovechará la instalación de circuitos superconductores en el Laboratorio de Nanoelectrónica Cuántica y Nanoelectrónica de UC Berkeley, al tiempo que incorporará la experiencia de los investigadores en las divisiones de Tecnología de Aceleradores y Física Aplicada, Ciencia de Materiales e Ingeniería del Laboratorio de Berkeley. Los equipos de investigación también utilizarán las capacidades únicas de dos instalaciones del DOE: la Molecular Foundry y el National Energy Research Scientific Computing Center (NERSC), ambos ubicados en el Berkeley Lab.
Ampliar en: EurekAlert!
El qubit es la unidad básica de computación cuántica. Así que a los desarrolladores de hardware cuántico obviamente les gusta presumir de cuántos tienen. Aunque algunos afirman tener miles en sus dispositivos, hay un sentimiento muy real de que nadie ha construido ni siquiera uno solo.
Hay un par de cosas diferentes para las que usamos el nombre del qubit. Uno es un qubit físico. La parte física se refiere al hecho de que estos son objetos reales de la vida real. La parte de bits nos dice que estos objetos deberían tener dos posibles estados. Y lo que es para el cuántico, ya que necesitamos manipular los estados de una manera cuántica mecánica.
Cualquier qubit que merezca el nombre también debe tener un ruido extremadamente bajo. La forma en que los manipulamos e interactuamos debería ser casi perfecta. Como un logro de la física experimental, deben estar en la cúspide: Una maravilla de la ciencia y la ingeniería. Aun así, no son suficientemente buenos. Para las ordenadores cuánticos, casi perfecto es casi inútil.
Esto no es más de lo que esperamos de los ordenadores normales. Hay millones de píxeles en tu pantalla, pero te darías cuenta si sólo uno estuviera haciendo algo al azar. Lo mismo es cierto para todos los millones de bits que nadan alrededor en sus programas. Sólo se necesita un valor de conmutación de unos pocos porque están aburridos para que todo se convierta en un sinsentido.
Cuando programamos, a menudo olvidamos que los bits de nuestro ordenador tienen una forma corpórea real. Pensamos en ellos como un concepto abstracto, puro e incorruptible. De lo contrario, el desarrollo de software sería una actividad muy diferente. Los programas cuánticos están diseñados con el mismo grado de perfección en mente. Para ejecutarlos, necesitamos renuncias lógicas: encarnaciones de la idea misma de la información cuántica.
Construir qubits lógicos requiere que domemos la naturaleza de sus primos físicos. Necesitamos corrección de errores cuánticos. Muchas de las partes físicas son reunidas y conducidas a ser más grandes que la suma de sus partes. Cuanto más qubits físicos usemos, mejor será el efecto. El ruido disminuye exponencialmente, hasta que podemos estar seguros de que no ocurrirá ni un solo error durante el cálculo.
Esto no está exento de costes. No debemos pensar en gastar unos pocos cientos de qubits físicos para construir uno solo lógico. Pero si esto significa alcanzar la promesa completa de computación cuántica, valdrá la pena.
El diseño más popular para la corrección de errores cuánticos es el código de superficie. Para el código de superficie más pequeño, se necesitan 17 qubits físicos. Éstos construirían un qubit lógico, pero no con la suficiente complejidad como para hacer algo con él.
Todavía no se ha logrado nada parecido. Para ver por qué, echemos un vistazo a lo que se necesitaría.
Esto es un código de superficie. Los 17 puntos, tanto blancos como negros, son los qubits físicos. Las 24 líneas coloreadas representan un cierto tipo de operación cuántica, la controlada-NO. Para cada par de salidas conectadas, esta operación debería ser posible realizarla de forma limpia y directa.
El principal desafío es conectar todos estos controles-NO. Tener 17 qubits en nuestro procesador cuántico no es suficiente. También necesitamos el conjunto de instrucciones para soportar esta red específica de procesos.
Tener un montón de qubits físicos en una línea son noticias viejas, dos líneas al lado de la otra también es factible. Pero la red 2D de conexiones necesarias para el código de superficie es mucho más difícil.
Aun así, Google promete esto y mucho más para finales de año. Prometieron una red de 7×7 de 49 qubits físicos. Esto sería un gran paso adelante en comparación con otros dispositivos, como la celosía IBM 2×8 de 16 qubits físicos.
El dispositivo IBM tiene suficiente conectividad para hacer un bit lógico a partir de qubits físicos. En los próximos meses harán cosas mucho más geniales, como es de esperar del dispositivo a la vanguardia de su campo. Pero hacer un qubit lógico no será uno de sus logros.
El hecho de que los 49 qubits de Google serán tan revolucionarios hace difícil creer que lo veremos antes de que acabe el año. Los hitos más realistas para este año son un dispositivo de 17 qubit de IBM, y uno de 20 qubit de Google. Ambos tienen suficientes qubits para empezar con el código de superficie. Pero, ¿tienen el diseño correcto? Sólo el tiempo lo dirá.
Quizá no tengamos que esperar mucho tiempo. John Martinis, el encargado de construir los dispositivos cuánticos de Google, dará una charla la próxima semana. El título…
Escalado de errores lógicos de medición con el código de superficie
Los códigos de superficie están en el radar de los gigantes tecnológicos. El primer qubit lógico del mundo se acerca. ¿Ya lo ha gestionado el dispositivo de 20 qubit de Google?
Ampliar en: HACKERMOON
Ingenieros de la Universidad de Nueva Gales del Sur (Australia) han inventado una nueva arquitectura para la computación cuántica, basada en novedosos «qubits de flip-flop», que promete hacer que la fabricación a gran escala de chips cuánticos sea mucho más barata -y más fácil- de lo que se pensaba.
El nuevo diseño del chip, detallado en la revista Nature Communications, permite un procesador cuántico de silicio que puede ampliarse sin necesidad de colocar los átomos con precisión en otros enfoques. Es importante destacar que permite que los bits cuánticos (o «qubits») -la unidad básica de información en un ordenador cuántico- se coloquen a cientos de nanómetros de distancia y permanezcan acoplados.
El diseño fue concebido por un equipo liderado por Andrea Morello, Gerente de Programa en el Centro de Excelencia ARC para Computación Cuántica y Tecnología de la Comunicación (CQC2T) con sede en Sydney, UNSW, quien dijo que la fabricación del nuevo diseño debe estar fácilmente al alcance de la tecnología actual.
El autor principal Guilherme Tosi, investigador asociado del CQC2T, desarrolló el concepto pionero junto con Morello y los coautores Fahd Mohiyaddin, Vivien Schmitt y Stefanie Tenberg del CQC2T, junto con los colaboradores Rajib Rahman y Gerhard Klimeck de la Universidad Purdue en los Estados Unidos.
«Es un diseño brillante, y como muchos saltos conceptuales, es increíble que nadie lo haya pensado antes», dijo Morello.
«Lo que Guilherme y el equipo han inventado es una nueva forma de definir un ‘spin qubit’ que utiliza tanto el electrón como el núcleo del átomo. Crucialmente, este nuevo qubit puede ser controlado usando señales eléctricas, en lugar de señales magnéticas. Las señales eléctricas son significativamente más fáciles de distribuir y localizar en un chip electrónico».
Tosi dijo que el diseño elude un reto que se espera que enfrenten todos los qubits de silicio basados en el spin a medida que los equipos comienzan a construir conjuntos de qubits cada vez más grandes: la necesidad de espaciarlos a una distancia de sólo 10-20 nanómetros, o solo 50 átomos de separación.
«Si están demasiado cerca o demasiado lejos, el ‘entrelazamiento’ entre bits cuánticos -que es lo que hace que las computadoras cuánticas sean tan especiales- no ocurre», dijo Tosi.
Los investigadores de la UNSW ya lideran el mundo en la fabricación de qubits en esta escala, dijo Morello. «Pero si queremos hacer un arsenal de miles o millones de qubits tan cerca, significa que todas las líneas de control, la electrónica de control y los dispositivos de lectura deben fabricarse también en esa escala nanométrica, y con ese paso y esa densidad de electrodos. Este nuevo concepto sugiere otro camino.»
En el otro extremo del espectro se encuentran los circuitos superconductores – perseguidos, por ejemplo, por IBM y Google – y las trampas de iones. Estos sistemas son grandes y fáciles de fabricar, y actualmente están liderando el camino en el número de qubits que pueden ser operados. Sin embargo, debido a sus dimensiones más grandes, a largo plazo pueden enfrentar desafíos cuando intentan ensamblar y operar millones de qubits, como lo requieren los algoritmos cuánticos más útiles.
«Nuestro nuevo enfoque basado en silicio se encuentra justo en el punto ideal», dijo Morello, profesor de ingeniería cuántica de la UNSW. «Es más fácil de fabricar que los dispositivos a escala atómica, pero aún así nos permite colocar un millón de qubits en un milímetro cuadrado».
En el qubit de un solo átomo utilizado por el equipo de Morello, y que aplica el nuevo diseño de Tosi, se cubre un chip de silicio con una capa de óxido de silicio aislante, sobre cuya parte superior se apoya un patrón de electrodos metálicos que funcionan a temperaturas cercanas al cero absoluto y en presencia de un campo magnético muy fuerte.
El núcleo central es un átomo de fósforo, del cual el equipo de Morello ha construido previamente dos qubits funcionales utilizando un electrón y el núcleo del átomo. Estos qubits, tomados individualmente, han demostrado tiempos de coherencia de récord mundial.
El avance conceptual de Tosi es la creación de un tipo de qubit completamente nuevo, utilizando tanto el núcleo como el electrón. En este enfoque, se define un estado «0» cuando el giro del electrón está hacia abajo y el giro del núcleo hacia arriba, mientras que el estado «1» es cuando el giro del electrón está hacia arriba, y el giro nuclear está hacia abajo.
«Lo llamamos el qubit’ flip-flop'», dijo Tosi. «Para operar este qubit, hay que extraer el electrón un poco del núcleo, usando los electrodos de la parte superior. Al hacerlo, también creas un dipolo eléctrico.»
«Este es el punto crucial», añade Morello. «Estos dipolos eléctricos interactúan entre sí a distancias bastante grandes, una buena fracción de un micrón o 1000 nanómetros.
«Esto significa que ahora podemos separar mucho más los qubits de un solo átomo de lo que antes se creía posible», continuó. «Así que hay mucho espacio para intercalar los componentes clásicos clave como interconexiones, electrodos de control y dispositivos de lectura, manteniendo la naturaleza atómica precisa del bit cuántico».
Morello calificó el concepto de Tosi de tan significativo como Bruce Kane, el seminal artículo de 1998 en Nature. Kane, luego investigador asociado senior de la UNSW, se topó con una nueva arquitectura que podría hacer realidad un ordenador cuántico basado en silicio, lo que desencadenaría la carrera de Australia.
«Como en el trabajo de Kane, ésta es una teoría, una propuesta: el qubit aún no se ha construido», dijo Morello. «Tenemos algunos datos experimentales preliminares que sugieren que es totalmente factible, así que estamos trabajando para demostrarlo. Pero creo que esto es tan visionario como el trabajo original de Kane».
La construcción de un ordenador cuántico se ha denominado la «carrera espacial del siglo XXI», un reto difícil y ambicioso con el potencial de entregar herramientas revolucionarias para hacer frente a cálculos que de otro modo serían imposibles, con una plétora de aplicaciones útiles en el sector sanitario, la defensa, las finanzas, la química y el desarrollo de materiales, la depuración de software, el sector aeroespacial y el transporte. Su velocidad y poder radican en el hecho de que los sistemas cuánticos pueden albergar múltiples «superposiciones» de diferentes estados iniciales, y en el espeluznante «enredo» que sólo ocurre a nivel cuántico las partículas fundamentales.
«Se necesitará una gran ingeniería para llevar la computación cuántica a la realidad comercial, y el trabajo que vemos en este extraordinario equipo pone a Australia en el asiento del conductor», dijo Mark Hoffman, Decano de Ingeniería de la UNSW. «Es un gran ejemplo de cómo la UNSW, al igual que muchas de las universidades de investigación más importantes del mundo, se encuentra hoy en el corazón de un sofisticado sistema de conocimiento global que está dando forma a nuestro futuro».
El equipo de la UNSW ha llegado a un acuerdo de 83 millones de dólares australianos entre la UNSW, el gigante de las telecomunicaciones Telstra, el Commonwealth Bank de Australia y los gobiernos de Australia y Nueva Gales del Sur para desarrollar, para el año 2022, un prototipo de circuito integrado cuántico de silicio de 10 bits, el primer paso en la construcción de la primera computadora cuántica del mundo en silicio.
En agosto, los socios lanzaron Silicon Quantum Computing Pty Ltd., la primera empresa de computación cuántica de Australia, para avanzar en el desarrollo y comercialización de las tecnologías únicas del equipo. El Gobierno de Nueva Gales del Sur prometió 8,7 millones de dólares australianos, 25 millones de dólares de los EE. UU., 14 millones de dólares australianos para el Banco del Commonwealth, 10 millones de dólares australianos para Telstra y 25 millones de dólares australianos para el Gobierno federal.
Ampliar en: EurekAlert!
¿Es realmente necesario el entrelazamiento para describir el mundo físico, o es posible tener alguna teoría post-cuántica sin entrelazamiento?
En un nuevo estudio, físicos han probado matemáticamente que cualquier teoría que tenga un límite clásico -es decir, que pueda describir nuestras observaciones del mundo clásico recuperando la teoría clásica bajo ciertas condiciones- debe contener entrelazamientos. Así que a pesar de que el entrelazamiento va en contra de la intuición clásica, el entrelazamiento debe ser una característica inevitable no sólo de la teoría cuántica, sino también de cualquier teoría no clásica, incluso de las que aún están por desarrollar.
Los físicos, Jonathan G. Richens en el Imperial College London y el University College London, John H. Selby en el Imperial College London y la Universidad de Oxford, y Sabri W. Al-Safi en la Universidad de Nottingham Trent, han publicado un artículo estableciendo el entrelazamiento como una característica necesaria de cualquier teoría no clásica en un número reciente de Physical Review Letters.
«La teoría cuántica tiene muchas características extrañas en comparación con la teoría clásica», dijo Richens a Phys. org. «Tradicionalmente estudiamos cómo el mundo clásico emerge del cuántico, pero nos propusimos revertir este razonamiento para ver cómo el mundo clásico da forma al cuántico. Al hacerlo, demostramos que uno de sus rasgos más extraños, el entrelazamiento, no es nada sorprendente. Esto insinúa que gran parte de la aparente extrañeza de la teoría cuántica es una consecuencia inevitable de ir más allá de la teoría clásica, o tal vez incluso una consecuencia de nuestra incapacidad para dejar atrás la teoría clásica».
Aunque la prueba completa es muy detallada, la idea principal detrás de ella es simplemente que cualquier teoría que describa la realidad debe comportarse como una teoría clásica en algún límite. Este requisito parece bastante obvio, pero como muestran los físicos, imparte fuertes restricciones a la estructura de cualquier teoría no clásica.
La teoría cuántica cumple este requisito de tener un límite clásico a través del proceso de decoherencia. Cuando un sistema cuántico interactúa con el entorno externo, el sistema pierde su coherencia cuántica y todo lo que lo hace cuántico. Así que el sistema se vuelve clásico y se comporta como se espera de la teoría clásica.
Aquí, los físicos muestran que cualquier teoría no clásica que recupere la teoría clásica debe contener estados entrelazados. Para demostrarlo, asumen lo contrario: que tal teoría no tiene entrelazamiento. Entonces demuestran que, sin entrelazarse, cualquier teoría que recupere la teoría clásica debe ser la teoría clásica en sí misma, una contradicción de la hipótesis original de que la teoría en cuestión no es clásica. Este resultado implica que la suposición de que tal teoría no tiene entrelazado es falsa, lo que significa que cualquier teoría de este tipo debe tener entrelazado.
Este resultado puede ser sólo el comienzo de muchos otros descubrimientos relacionados, ya que abre la posibilidad de que otros rasgos físicos de la teoría cuántica puedan reproducirse simplemente exigiendo que la teoría tenga un límite clásico. Los físicos anticipan que características como la causalidad de la información, la simetría de bits y la ubicación macroscópica pueden aparecer como resultado de este único requisito. Los resultados también proporcionan una idea más clara de cómo debe ser cualquier teoría futura no clásica, post-cuántica.
«Mis metas futuras serían ver si la no-localidad de Bell también puede derivarse de la existencia de un límite clásico», dijo Richens. «Sería interesante si todas las teorías que reemplazan a la teoría clásica violaran el realismo local. También estoy trabajando para ver si ciertas extensiones de la teoría cuántica (como la interferencia de orden superior) pueden ser descartadas por la existencia de un límite clásico, o si este límite imparte restricciones útiles a estas’ teorías post-cuántico'».
Ampliar en: Jonathan G. Richens, John H. Selby, and Sabri W. Al-Safi. «Entanglement is Necessary for Emergent Classicality in All Physical Theories.» Physical Review Letters. DOI: 10.1103/PhysRevLett.119.080503
Hay un dicho que indica que los datos se expandirán hasta llenar toda la capacidad disponible. Tal vez hace diez o veinte años, era común almacenar programas de software, música MP3, películas y otros archivos, que podáin haber sido recopilados durante años. En los días en que las unidades de disco duro ofrecían unas pocas decenas de gigabytes de almacenamiento, la falta de espacio era casi inevitable.
Ahora que tenemos internet de banda ancha rápida y no pensamos en la descarga de un DVD de 4,7 gigabytes, podemos acumular datos aún más rápidamente. Las estimaciones de la cantidad total de datos almacenados en todo el mundo aumentarán de 4,4 billones de gigabytes en 2013 a 44 billones de gigabytes en 2020. Esto significa que estamos generando un promedio de 15 millones de gigabytes al día. A pesar de que las unidades de disco duro ahora se miden en miles de gigabytes en lugar de decenas, todavía tenemos un problema de almacenamiento.
La investigación y el desarrollo se centran en el desarrollo de nuevos medios de almacenamiento de datos que son más densos y por lo que puede almacenar una mayor cantidad de datos, y hacerlo de una manera más eficiente de la energía. A veces esto implica actualizar técnicas establecidas: recientemente IBM anunció una nueva tecnología de cinta magnética que puede almacenar 25 gigabytes por pulgada cuadrada (una pulgada equivale a 2,54 cm), un nuevo récord mundial para la tecnología de 60 años de edad. Mientras que los actuales discos duros magnéticos o de estado sólido son más densos alrededor de 200 gigabytes por pulgada cuadrada, las cintas magnéticas todavía se utilizan con frecuencia para la copia de seguridad de datos.
Sin embargo, la vanguardia de la investigación de almacenamiento de datos está trabajando a nivel de átomos y moléculas individuales, representando el límite máximo de la miniaturización tecnológica.
Búsqueda de los imanes atómicos
Las tecnologías actuales de almacenamiento de datos magnéticos -las utilizadas en los discos duros tradicionales con platos giratorios, estándar hasta hace unos años y que todavía son comunes hoy en día- se basan en métodos «top-down». Esto implica hacer capas delgadas de una gran pieza de material ferromagnético, cada uno conteniendo muchos dominios magnéticos que se utilizan para contener datos. Cada uno de estos dominios magnéticos está hecho de una gran colección de átomos magnetizados, cuya polaridad magnética es establecida por la cabeza de lectura / escritura del disco duro para representar datos como binarios uno o cero.
Un método «ascendente» alternativo implicaría construir dispositivos de almacenamiento colocando átomos o moléculas individuales uno por uno, cada uno capaz de almacenar un solo bit de información. Los dominios magnéticos conservan su memoria magnética debido a la comunicación entre grupos de átomos magnetizados vecinos.
Los imanes de un solo átomo o de una sola molécula por otro lado no requieren esta comunicación con sus vecinos para retener su memoria magnética. En cambio, el efecto de memoria surge de la mecánica cuántica. Por lo tanto, debido a que los átomos o las moléculas son mucho, mucho más pequeños que los dominios magnéticos actualmente utilizados, y pueden usarse individualmente en lugar de en grupos, pueden ser empacados más estrechamente, lo que podría dar lugar a un enorme aumento en la densidad de datos.
Trabajar con átomos y moléculas como éste no es ciencia ficción. Los efectos de la memoria magnética en imanes de una sola molécula (SMMs) se demostró por primera vez en 1993, y efectos similares para los imanes de átomo único se mostraron en 2016.
Aumentar la temperatura
El problema principal que está en el camino de mover estas tecnologías fuera del laboratorio y en la corriente principal es que todavía no trabajan a temperaturas ambiente. Tanto los átomos individuales como los SMM requieren enfriamiento con helio líquido (a una temperatura de -269 ° C), un recurso costoso y limitado. Así, el esfuerzo de investigación durante los últimos 25 años se ha concentrado en elevar la temperatura a la que se puede observar la histéresis magnética, una demostración del efecto de la memoria magnética. Un objetivo importante es -196 ° C, porque esta es la temperatura que se puede lograr con el nitrógeno líquido, que es abundante y barato.
Tomó 18 años para el primer paso sustancial para elevar la temperatura en la que la memoria magnética es posible en SMMs – un aumento de 10 ° C logrado por los investigadores en California. Pero ahora el equipo de investigación en la Escuela de Química de la Universidad de Manchester ha logrado histéresis magnéticas en un SMM a -213 ° C usando una nueva molécula basada en el elemento de tierras raras disprosio, según se informa en una carta a la revista Nature. Con un salto de 56 ° C, esto está a sólo 17 ° C de la temperatura del nitrógeno líquido.
Usos futuros
Sin embargo, hay otros desafíos. Con el fin de almacenar prácticamente bits individuales de datos, las moléculas deben fijarse a las superficies. Esto se ha demostrado con SMMs en el pasado, pero no para esta última generación de SMMs de alta temperatura. Por otra parte, la memoria magnética en átomos individuales ya se ha demostrado en una superficie.
La prueba definitiva es la demostración de la escritura y la lectura no destructiva de datos en átomos o moléculas individuales. Esto ha sido logrado por primera vez en 2017 por un grupo de investigadores de IBM que demostró el dispositivo de almacenamiento de memoria magnética más pequeño del mundo, construido alrededor de un solo átomo.
Sin embargo, independientemente de si los dispositivos de almacenamiento de un solo átomo o de una sola molécula se vuelven verdaderamente prácticos, los avances en la ciencia fundamental que se están realizando a lo largo de este camino son fenomenales. Las técnicas de química sintética desarrolladas por los grupos que trabajan en SMM ahora nos permiten diseñar moléculas con propiedades magnéticas personalizadas, que tendrán aplicaciones en la computación cuántica e incluso la resonancia magnética.
Ampliar en: The Conversation
Científicos de la Universidad de Maryland han logrado crear el primer ordenador cuántico programable, una característica que no se había conseguido hasta la fecha. El dispositivo, que emplea cinco bits cuánticos o qubits, podría ser escalado hasta alcanzar dimensiones más grandes, según explican los investigadores en un trabajo publicado en Nature, aunque esta posibilidad no ha sido demostrada todavía.
El equipo desarrollado por Shantanu Debnath se basa en una de las arquitecturas cuánticas más antiguas, que fue ideada en 1995 gracias a los trabajos del físico español Juan Ignacio Cirac y el austriaco Peter Zoller. Los bits cuánticos se almacenan en iones atómicos individuales que se encuentran «atrapados» en línea gracias al uso de campos magnéticos y potentes láseres. Los iones se comportan como un pequeño cristal, de manera que se pueden controlar las vibraciones de forma precisa y así provocar que los iones queden entrelazados.
Este entrelazamiento permite el funcionamiento del ordenador cuántico, un dispositivo que, en palabras de Cirac: «resuelve los mismos problemas que los ordenadores usuales, lo que pasa que mucho más rápido». En lugar de utilizar las reglas de los computadores habituales, como ceros y unos, puertas lógicas o combinación de puertas lógicas, funcionan con las normas de la física cuántica. Esto les permite trabajar a mayor velocidad y, sobre todo, resolver problemas con una gran eficiencia. El reto, según explicó Cirac a Hipertextual, es que no existe todavía un ordenador cuántico real, sino que sólo contamos con pequeños prototipos.
Noticia completa en: Ordenador cuántico