Física
Física
Durante más de 50 años, la Ley de Moore ha reinado en forma suprema. La observación de que el número de transistores en un chip de ordenador se duplica aproximadamente cada dos años ha marcado el ritmo de nuestra revolución digital moderna: hacer posible teléfonos inteligentes, ordenadores personales y superordenadores actuales. Pero la Ley de Moore se está ralentizando. E incluso si no lo fuera, algunos de los grandes problemas que los científicos necesitan abordar podrían estar fuera del alcance de los ordenadores convencionales.
Durante los últimos años, los investigadores del Lawrence Berkeley National Laboratory (Berkeley Lab) han estado explorando un tipo drásticamente diferente de arquitectura computacional basada en la mecánica cuántica para resolver algunos de los problemas más difíciles de la ciencia. Con el patrocinio de Laboratory Directed Research and Development (LDRD), han desarrollado algoritmos de optimización y química cuántica, así como procesadores de prototipo superconductores cuánticos. Recientemente, demostraron la viabilidad de su trabajo utilizando estos algoritmos en un procesador cuántico que consta de dos bits cuánticos superconductores para resolver con éxito el problema químico de calcular el espectro energético completo de una molécula de hidrógeno.
Ahora, dos equipos de investigación dirigidos por el personal del Berkeley Lab recibirán fondos del Departamento de Energía (DOE) para aprovechar este impulso. Un equipo recibirá 1,5 millones de dólares en tres años para desarrollar algoritmos novedosos, técnicas de compilación y herramientas de programación que permitirán utilizar plataformas de computación cuántica a corto plazo para el descubrimiento científico en las ciencias químicas. El otro equipo trabajará en estrecha colaboración con estos investigadores para diseñar prototipos de procesadores de cuatro y ocho cubit para calcular estos nuevos algoritmos. Este proyecto tendrá una duración de cinco años y los investigadores recibirán 1,5 millones de dólares para su primer año de trabajo. Para el quinto año, el equipo de hardware espera demostrar un procesador de 64 cubit con control total.
«Algún día, los ordenadores cuánticos universales podrán resolver una amplia gama de problemas, desde el diseño molecular hasta el aprendizaje automático y la ciberseguridad, pero estamos muy lejos de eso. Por lo tanto, la pregunta que nos hacemos actualmente es si existen problemas específicos que podamos resolver con computadoras cuánticas más especializadas», dice Irfan Siddiqi, científico de laboratorio de Berkeley y director fundador del Center for Quantum Coherent Science de la UC Berkeley.
Según Siddiqi, las tecnologías de computación cuántica coherente de hoy en día cuentan con los tiempos de coherencia necesarios, las fidelidades lógicas de operación y las topologías de circuitos para realizar cálculos especializados para la investigación fundamental en áreas como la ciencia molecular y de materiales, la optimización numérica y la física de alta energía. A la luz de estos avances, señala que es el momento de que el DOE explore cómo estas tecnologías pueden integrarse en la comunidad de computación de alto rendimiento. En estos nuevos proyectos, los equipos del Berkeley Lab trabajarán con colaboradores de la industria y el mundo académico para aprovechar estos avances y abordar problemas científicos difíciles relacionados con las misiones del DOE, como el cálculo de la dinámica de los sistemas moleculares y el aprendizaje de máquinas cuánticas.
«Estamos en las primeras etapas de la computación cuántica, como en los años 40 con la computación convencional. Tenemos parte del hardware, ahora tenemos que desarrollar un conjunto robusto de software, algoritmos y herramientas para utilizarlo de manera óptima para resolver problemas científicos realmente difíciles», dice Bert de Jong, que dirige el Grupo de Química Computacional, Materiales y Clima del Laboratorio de Investigación Computacional (CRD) de Berkeley.
Dirigirá un equipo de Algoritmos Cuánticos del DOE formado por investigadores de Berkeley Lab, Harvard, Argonne National Lab y UC Berkeley, centrado en «Algoritmos Cuánticos, Matemáticas y Herramientas de Compilación para Ciencias Químicas».
«La tradición de Berkeley Lab en la ciencia en equipo, así como su proximidad a UC Berkeley y Silicon Valley, lo convierten en un lugar ideal para trabajar en computación cuántica de extremo a extremo», dice Jonathan Carter, Subdirector de Berkeley Lab Computing Sciences. «Tenemos físicos y químicos en el laboratorio que están estudiando la ciencia fundamental de la mecánica cuántica, ingenieros para diseñar y fabricar procesadores cuánticos, así como científicos informáticos y matemáticos para asegurar que el hardware sea capaz de calcular efectivamente la ciencia del DOE».
Carter, Siddiqi y Lawrence Livermore National Laboratory’s Jonathan DuBois liderarán el proyecto de Testbed Simulation (AQuES) Advanced Quantum-Enabled Simulation del DOE.
Desafío de la coherencia cuántica
La clave para construir ordenadores cuánticos que resuelvan problemas científicos fuera del alcance de los ordenadores convencionales es la «coherencia cuántica». Este fenómeno permite esencialmente que los sistemas cuánticos almacenen mucha más información por bit que en las computadoras tradicionales.
En una computadora convencional, los circuitos de un procesador incluyen miles de millones de transistores, pequeños interruptores que se activan mediante señales electrónicas. Los dígitos 1 y 0 se utilizan en binario para reflejar los estados de encendido y apagado de un transistor. Esencialmente, así es como se almacena y procesa la información. Cuando los programadores escriben código de ordenador, un traductor lo transforma en instrucciones binarias (1s y 0s) que un procesador puede ejecutar.
A diferencia de un bit tradicional, un bit cuántico (cubit) puede adquirir propiedades mecánicas cuánticas algo contrarias a la intuición como el entrelazamiento y la superposición. El entrelazamiento cuántico ocurre cuando los pares o grupos de partículas interactúan de tal manera que el estado de cada partícula no puede ser descrito individualmente, sino que el estado debe ser descrito para el sistema como un todo. En otras palabras, las partículas entrelazadas actúan como una unidad. La superposición ocurre cuando una partícula existe en una combinación de dos estados cuánticos simultáneamente.
Por lo tanto, mientras que un bit de ordenador convencional codifica la información como 0 o 1, un cubit puede ser 0,1 o una superposición de estados (tanto 0 como 1 al mismo tiempo). La capacidad de un cubit para existir en múltiples estados significa que, por ejemplo, puede permitir el cálculo de las propiedades químicas y de materiales significativamente más rápido que los ordenadores tradicionales. Y si estos cubits se pueden enlazar o enredar en un ordenador cuántico, los problemas que no se pueden resolver hoy en día con los ordenadores convencionales podrían ser abordados.
Pero sigue siendo un reto conseguir cubits en este estado de coherencia cuántica, donde se pueden aprovechar las propiedades de mecánica cuántica y luego sacar el máximo provecho de ellas cuando están en este estado.
«La computación cuántica es como jugar un juego de ajedrez donde las piezas y el tablero están hechos de hielo. A medida que los jugadores se mueven alrededor de las piezas, los componentes se están derritiendo y mientras más movimientos realices, más rápido se derretirá el juego», dice Carter. «Los cubits pierden coherencia en muy poco tiempo, así que depende de nosotros encontrar el juego de movimientos más útil que podamos hacer.»
Carter señala que el enfoque de Berkeley Lab de codiseñar los procesadores cuánticos en estrecha colaboración con los investigadores que desarrollan algoritmos cuánticos, recopilando técnicas y herramientas de programación será extremadamente útil para responder a esta pregunta.
«Los enfoques computacionales son comunes en la mayoría de los proyectos científicos del Berkeley Lab. A medida que la Ley de Moore se está ralentizando, las nuevas arquitecturas, sistemas y técnicas informáticas se han convertido en una iniciativa prioritaria en Berkeley Lab «, dice Horst Simon, Director Adjunto de Berkeley Lab. «Reconocemos desde el principio cómo la simulación cuántica podría proporcionar un enfoque eficaz a algunos de los problemas computacionales más desafiantes en la ciencia, y me complace ver el reconocimiento de nuestra iniciativa de LDRD a través de esta primera financiación directa. La ciencia de la información cuántica se convertirá en un elemento cada vez más importante de nuestra empresa de investigación en muchas disciplinas».
Debido a que este campo todavía se encuentra en sus primeros días, hay muchos enfoques para construir una computadora cuántica. Los equipos liderados por el Laboratorio de Berkeley estarán investigando ordenadores cuánticos superconductores.
Para diseñar y fabricar la próxima generación de procesadores cuánticos, el equipo de AQuES aprovechará la instalación de circuitos superconductores en el Laboratorio de Nanoelectrónica Cuántica y Nanoelectrónica de UC Berkeley, al tiempo que incorporará la experiencia de los investigadores en las divisiones de Tecnología de Aceleradores y Física Aplicada, Ciencia de Materiales e Ingeniería del Laboratorio de Berkeley. Los equipos de investigación también utilizarán las capacidades únicas de dos instalaciones del DOE: la Molecular Foundry y el National Energy Research Scientific Computing Center (NERSC), ambos ubicados en el Berkeley Lab.
Ampliar en: EurekAlert!
Tesla está desarrollando su propio procesador para inteligencia artificial, destinado a ser utilizado con sus sistemas de autocontrol, en asociación con AMD. Tesla tiene una relación ya existente con Nvidia, cuyas GPU alimentan su sistema de piloto automático, pero este nuevo chip interno podría reducir su dependencia del hardware de procesamiento de IA de terceros.
AMD ayudaría a Tesla con el desarrollo del chip. Aparentemente, el fabricante de autos eléctricos ya ha recibido las primeras muestras del prototipo de su procesador para probar, según el informe. La construcción de un chip específico diseñado enteramente para la conducción autónoma ayudaría a Tesla de varias maneras, incluyendo un mayor control sobre un aspecto clave de su propia cadena de suministro, y el aumento de la eficiencia general del sistema y el rendimiento.
Tesla ha afirmado que sus vehículos de la generación actual tienen todo el hardware y la capacidad de computación a bordo para lograr la autoconducción completa con una actualización de software en el futuro. Pero la compañía también está siempre iterando en su hardware, evitando las actualizaciones tradicionales de los fabricantes tradicionales de automóviles.
El departamento de pilotaje automático de Tesla está a cargo de Jim Keller, que anteriormente había pasado gran parte de su carrera en AMD, y luego en Apple, donde ayudó a diseñar los procesadores internos A4 y A5 de Apple. El papel clave de Keller en la compañía probablemente habría influido en el fabricante de automóviles para que se propusiera adquirir su propio diseño de procesador y alinear más estrechamente sus componentes de software de autocontrol y computación de hardware.
Nikola Tesla fue un inventor brillante y visionario que murió olvidado en gran medida.
Sus contribuciones al mundo fueron enormes, pero la gente todavía recuerda a Edison y Franklin y da Vinci y Bell. Durante décadas, los intentos de honrar a Tesla con un museo de Nueva York (EE.UU.) en Wardenclyffe fracasaron repetidamente. Solo recientemente han dado sus frutos
Aquí están algunas de las contribuciones de Tesla:
– inventó el primer motor de corriente alterna (AC)
– desarrolló la generación de CA y tecnología de transmisión
– creó la bobina Tesla, un transformador de alto voltaje que llegó a ser la génesis del tubo de rayos catódicos, radiotransmisor, radar y muchas otras tecnologías
– inventó la tecnología de rayos X
– inventó los dínamos y el motor de inducción
– inventó la primera radio operativa
– inventó la bombilla de luz fluorescente
– inventó el mando a distancia
– inventó la transmisión inalámbrica de electricidad
– diseñó la primera central hidroeléctrica de las Cataratas del Niágara
En 1887 y 1888, se le concedieron más de 30 patentes por sus invenciones.
Cuando Tesla faclleció en 1943, murió sin dinero y olvidado.
Smalltalk fue la creación de Alan Kay, un verdadero visionario que lideró un equipo brillante en Xerox PARC
Hoy en día, Smalltalk está muy subestimado. Aunque Kay nunca pensó que Smalltalk fuera el foco central de su visión, sigue siendo una poderosa fuerza para el avance de la tecnología de programación. Más de cuatro décadas después, ningún lenguaje de programación ha alcanzado a Smalltalk en términos de simplicidad y elegancia, mínima fricción cognitiva, pureza orientada a objetos, elegante codificación y depuración en vivo, enorme productividad de programador y respeto profesional.
En Slant and StackOverflow, Smalltalk es reverenciado: lee La Sabiduría de la muchedumbre.
Capers Jones de Namcook Analytics ha demostrado la tremenda ventaja de Smalltalk cuando se trata de la productividad de los programadores.
El IDE de codificación en vivo de Smalltalk y el runtime son increíblemente potentes sin la complejidad arcana que se encuentra en los IDEs modernos como Visual Studio, Eclipse y Xcode.
Smalltalk continúa evolucionando y mejorando de manera notable a través del proyecto Pharo. He aquí algunas grandes innovaciones:
– NativeBoost – tener un ensamblador en línea definitivamente no es una característica común en un lenguaje dinámico. NativeBoost ha evolucionado desde entonces a la Interfaz Unificada de Función Extranjera (o UFFI).
– Moose es un conjunto de herramientas de visualización de códigos que contiene muchos medios para visualizar y analizar el código.
– Amber, que utiliza Pharo como lenguaje de referencia, es una fantástica herramienta de programación web de primera línea.
– PharoJS es otra herramienta de programación web excelente.
– Continuations: son una característica maravillosa en el marco web de Seaside.
– Fuel: una forma de serializar objetos vivos y de transportar sus objetos.
– Oz – permite que una imagen manipule otra. Muy bueno para depurar una imagen que se ha bloqueado y no puede abrir/cargar.
– Pharo Launcher te permite gestionar tus imágenes Pharo (lanzar, renombrar, copiar y eliminar) y descargar plantillas de imágenes (es decir, archivos zip) de muchas fuentes diferentes para crear nuevas imágenes a partir de cualquier plantilla.
– SmalltalkHub es el Github de Pharo, pero a diferencia de Github es totalmente open source y todo Smalltalk.
– Phratch es un puerto de Scratch a Pharo – esto es importante porque Scratch ha sido transferido a HTML5 y esto es un esfuerzo para mantener basado en Scratch Smalltalk. Phratch es una plataforma excelente para enseñar a los niños a codificar.
– Shampoo – buen soporte para Pharo en Emacs; puedes reemplazar la GUI Pharo con Emacs y disfrutar de los beneficios de este poderoso editor.
Legado
Como Tesla, Smalltalk tiene un legado maravilloso. Su bella implementación de programación orientada a objetos ha influido directamente en el diseño de casi todos los lenguajes orientados a objetos que usamos hoy en día: Java, Python, C#, PHP, Ruby, Perl, Objective-C, Groovy, Scala, Dart, Erlang, CLOS.
Smalltalk introdujo al mundo a la máquina virtual de lenguajes. (No, no fue el primero, pero fue el más conocido.) Esta es la misma tecnología que soporta Java y. NET.
Smalltalk fue pionera en la recopilación JIT (just-in-time).
De Smalltalk surgió el primer IDE moderno (entorno de desarrollo integrado), que incluía un editor de texto, un navegador de sistemas o clases, un inspector de objetos o propiedades y un depurador.
Smalltalk fue la primera herramienta de lenguaje que soportó programación en vivo y técnicas avanzadas de depuración tales como inspección sobre la marcha y cambios de código durante la ejecución en una forma fácilmente utilizable.
Desde que Smalltalk-80 (en 1980), tenía funciones y clausuras de primera clase que, curiosamente, hacen que Smalltalk sea bastante bueno para la programación funcional. Bastante notable para un lenguaje «puro» orientado a objetos. (¿Cuánto tiempo tardó Java, Python, C# y C++ en obtener esta función?
Smalltalk introdujo el patrón arquitectónico de software MVC (Model-View-Controller).
En gran medida, Smalltalk es responsable de proporcionarnos un desarrollo basado en pruebas (o TDD) y una programación extrema (o XP), que son ambos muy influyentes en las prácticas ágiles estándar de hoy en día.
Smalltalk hizo de «teclear el pato» una palabra familiar. La escritura de tipo de pato es donde la «comprobación de tipo» se aplaza hasta el tiempo de ejecución – cuando se utilizan las capacidades de reflexión para asegurar un comportamiento correcto. Hoy en día, encontramos el mecanografiado de patos en muchos idiomas, incluyendo Java, Python, Go, Groovy, Objective-C y PHP.
Smalltalk ha sido pionera en el desarrollo de bases de datos de objetos de las que GemStone/S es un gran ejemplo.
Smalltalk nos dio el primer navegador de refactoring.
Smalltalk fue fundamental en el desarrollo de la interfaz gráfica de usuario (o GUI) y la interfaz de usuario «lo que ves es lo que obtienes» (WYSIWYG).
La gente no se da cuenta de esto, pero Smalltalk es tan extensible como Lisp! Lee Lisp, Smalltalk, y el Poder de la Simetría. ¿Quién necesita las macros Lisp?
El éxito de Apple debe mucho a Smalltalk. Es verdad!
El objetivo C ha sido la base de macOS e iOS, y el objetivo C es esencialmente un cruce entre C y Smalltalk.
MacOS evolucionó a partir de NeXTStep, que se construyó con el Objetivo-C.
Steve Jobs se inspiró en la GUI y WIMP de Xerox PARC para realinear completamente la estrategia de Apple; la GUI fue una salida directa del trabajo de Smalltalk.
¡Uf! ¡Nikola Tesla habría estado orgullosa!
Ampliar en: Hackernoon
El qubit es la unidad básica de computación cuántica. Así que a los desarrolladores de hardware cuántico obviamente les gusta presumir de cuántos tienen. Aunque algunos afirman tener miles en sus dispositivos, hay un sentimiento muy real de que nadie ha construido ni siquiera uno solo.
Hay un par de cosas diferentes para las que usamos el nombre del qubit. Uno es un qubit físico. La parte física se refiere al hecho de que estos son objetos reales de la vida real. La parte de bits nos dice que estos objetos deberían tener dos posibles estados. Y lo que es para el cuántico, ya que necesitamos manipular los estados de una manera cuántica mecánica.
Cualquier qubit que merezca el nombre también debe tener un ruido extremadamente bajo. La forma en que los manipulamos e interactuamos debería ser casi perfecta. Como un logro de la física experimental, deben estar en la cúspide: Una maravilla de la ciencia y la ingeniería. Aun así, no son suficientemente buenos. Para las ordenadores cuánticos, casi perfecto es casi inútil.
Esto no es más de lo que esperamos de los ordenadores normales. Hay millones de píxeles en tu pantalla, pero te darías cuenta si sólo uno estuviera haciendo algo al azar. Lo mismo es cierto para todos los millones de bits que nadan alrededor en sus programas. Sólo se necesita un valor de conmutación de unos pocos porque están aburridos para que todo se convierta en un sinsentido.
Cuando programamos, a menudo olvidamos que los bits de nuestro ordenador tienen una forma corpórea real. Pensamos en ellos como un concepto abstracto, puro e incorruptible. De lo contrario, el desarrollo de software sería una actividad muy diferente. Los programas cuánticos están diseñados con el mismo grado de perfección en mente. Para ejecutarlos, necesitamos renuncias lógicas: encarnaciones de la idea misma de la información cuántica.
Construir qubits lógicos requiere que domemos la naturaleza de sus primos físicos. Necesitamos corrección de errores cuánticos. Muchas de las partes físicas son reunidas y conducidas a ser más grandes que la suma de sus partes. Cuanto más qubits físicos usemos, mejor será el efecto. El ruido disminuye exponencialmente, hasta que podemos estar seguros de que no ocurrirá ni un solo error durante el cálculo.
Esto no está exento de costes. No debemos pensar en gastar unos pocos cientos de qubits físicos para construir uno solo lógico. Pero si esto significa alcanzar la promesa completa de computación cuántica, valdrá la pena.
El diseño más popular para la corrección de errores cuánticos es el código de superficie. Para el código de superficie más pequeño, se necesitan 17 qubits físicos. Éstos construirían un qubit lógico, pero no con la suficiente complejidad como para hacer algo con él.
Todavía no se ha logrado nada parecido. Para ver por qué, echemos un vistazo a lo que se necesitaría.
Esto es un código de superficie. Los 17 puntos, tanto blancos como negros, son los qubits físicos. Las 24 líneas coloreadas representan un cierto tipo de operación cuántica, la controlada-NO. Para cada par de salidas conectadas, esta operación debería ser posible realizarla de forma limpia y directa.
El principal desafío es conectar todos estos controles-NO. Tener 17 qubits en nuestro procesador cuántico no es suficiente. También necesitamos el conjunto de instrucciones para soportar esta red específica de procesos.
Tener un montón de qubits físicos en una línea son noticias viejas, dos líneas al lado de la otra también es factible. Pero la red 2D de conexiones necesarias para el código de superficie es mucho más difícil.
Aun así, Google promete esto y mucho más para finales de año. Prometieron una red de 7×7 de 49 qubits físicos. Esto sería un gran paso adelante en comparación con otros dispositivos, como la celosía IBM 2×8 de 16 qubits físicos.
El dispositivo IBM tiene suficiente conectividad para hacer un bit lógico a partir de qubits físicos. En los próximos meses harán cosas mucho más geniales, como es de esperar del dispositivo a la vanguardia de su campo. Pero hacer un qubit lógico no será uno de sus logros.
El hecho de que los 49 qubits de Google serán tan revolucionarios hace difícil creer que lo veremos antes de que acabe el año. Los hitos más realistas para este año son un dispositivo de 17 qubit de IBM, y uno de 20 qubit de Google. Ambos tienen suficientes qubits para empezar con el código de superficie. Pero, ¿tienen el diseño correcto? Sólo el tiempo lo dirá.
Quizá no tengamos que esperar mucho tiempo. John Martinis, el encargado de construir los dispositivos cuánticos de Google, dará una charla la próxima semana. El título…
Escalado de errores lógicos de medición con el código de superficie
Los códigos de superficie están en el radar de los gigantes tecnológicos. El primer qubit lógico del mundo se acerca. ¿Ya lo ha gestionado el dispositivo de 20 qubit de Google?
Ampliar en: HACKERMOON
Ingenieros de la Universidad de Nueva Gales del Sur (Australia) han inventado una nueva arquitectura para la computación cuántica, basada en novedosos «qubits de flip-flop», que promete hacer que la fabricación a gran escala de chips cuánticos sea mucho más barata -y más fácil- de lo que se pensaba.
El nuevo diseño del chip, detallado en la revista Nature Communications, permite un procesador cuántico de silicio que puede ampliarse sin necesidad de colocar los átomos con precisión en otros enfoques. Es importante destacar que permite que los bits cuánticos (o «qubits») -la unidad básica de información en un ordenador cuántico- se coloquen a cientos de nanómetros de distancia y permanezcan acoplados.
El diseño fue concebido por un equipo liderado por Andrea Morello, Gerente de Programa en el Centro de Excelencia ARC para Computación Cuántica y Tecnología de la Comunicación (CQC2T) con sede en Sydney, UNSW, quien dijo que la fabricación del nuevo diseño debe estar fácilmente al alcance de la tecnología actual.
El autor principal Guilherme Tosi, investigador asociado del CQC2T, desarrolló el concepto pionero junto con Morello y los coautores Fahd Mohiyaddin, Vivien Schmitt y Stefanie Tenberg del CQC2T, junto con los colaboradores Rajib Rahman y Gerhard Klimeck de la Universidad Purdue en los Estados Unidos.
«Es un diseño brillante, y como muchos saltos conceptuales, es increíble que nadie lo haya pensado antes», dijo Morello.
«Lo que Guilherme y el equipo han inventado es una nueva forma de definir un ‘spin qubit’ que utiliza tanto el electrón como el núcleo del átomo. Crucialmente, este nuevo qubit puede ser controlado usando señales eléctricas, en lugar de señales magnéticas. Las señales eléctricas son significativamente más fáciles de distribuir y localizar en un chip electrónico».
Tosi dijo que el diseño elude un reto que se espera que enfrenten todos los qubits de silicio basados en el spin a medida que los equipos comienzan a construir conjuntos de qubits cada vez más grandes: la necesidad de espaciarlos a una distancia de sólo 10-20 nanómetros, o solo 50 átomos de separación.
«Si están demasiado cerca o demasiado lejos, el ‘entrelazamiento’ entre bits cuánticos -que es lo que hace que las computadoras cuánticas sean tan especiales- no ocurre», dijo Tosi.
Los investigadores de la UNSW ya lideran el mundo en la fabricación de qubits en esta escala, dijo Morello. «Pero si queremos hacer un arsenal de miles o millones de qubits tan cerca, significa que todas las líneas de control, la electrónica de control y los dispositivos de lectura deben fabricarse también en esa escala nanométrica, y con ese paso y esa densidad de electrodos. Este nuevo concepto sugiere otro camino.»
En el otro extremo del espectro se encuentran los circuitos superconductores – perseguidos, por ejemplo, por IBM y Google – y las trampas de iones. Estos sistemas son grandes y fáciles de fabricar, y actualmente están liderando el camino en el número de qubits que pueden ser operados. Sin embargo, debido a sus dimensiones más grandes, a largo plazo pueden enfrentar desafíos cuando intentan ensamblar y operar millones de qubits, como lo requieren los algoritmos cuánticos más útiles.
«Nuestro nuevo enfoque basado en silicio se encuentra justo en el punto ideal», dijo Morello, profesor de ingeniería cuántica de la UNSW. «Es más fácil de fabricar que los dispositivos a escala atómica, pero aún así nos permite colocar un millón de qubits en un milímetro cuadrado».
En el qubit de un solo átomo utilizado por el equipo de Morello, y que aplica el nuevo diseño de Tosi, se cubre un chip de silicio con una capa de óxido de silicio aislante, sobre cuya parte superior se apoya un patrón de electrodos metálicos que funcionan a temperaturas cercanas al cero absoluto y en presencia de un campo magnético muy fuerte.
El núcleo central es un átomo de fósforo, del cual el equipo de Morello ha construido previamente dos qubits funcionales utilizando un electrón y el núcleo del átomo. Estos qubits, tomados individualmente, han demostrado tiempos de coherencia de récord mundial.
El avance conceptual de Tosi es la creación de un tipo de qubit completamente nuevo, utilizando tanto el núcleo como el electrón. En este enfoque, se define un estado «0» cuando el giro del electrón está hacia abajo y el giro del núcleo hacia arriba, mientras que el estado «1» es cuando el giro del electrón está hacia arriba, y el giro nuclear está hacia abajo.
«Lo llamamos el qubit’ flip-flop'», dijo Tosi. «Para operar este qubit, hay que extraer el electrón un poco del núcleo, usando los electrodos de la parte superior. Al hacerlo, también creas un dipolo eléctrico.»
«Este es el punto crucial», añade Morello. «Estos dipolos eléctricos interactúan entre sí a distancias bastante grandes, una buena fracción de un micrón o 1000 nanómetros.
«Esto significa que ahora podemos separar mucho más los qubits de un solo átomo de lo que antes se creía posible», continuó. «Así que hay mucho espacio para intercalar los componentes clásicos clave como interconexiones, electrodos de control y dispositivos de lectura, manteniendo la naturaleza atómica precisa del bit cuántico».
Morello calificó el concepto de Tosi de tan significativo como Bruce Kane, el seminal artículo de 1998 en Nature. Kane, luego investigador asociado senior de la UNSW, se topó con una nueva arquitectura que podría hacer realidad un ordenador cuántico basado en silicio, lo que desencadenaría la carrera de Australia.
«Como en el trabajo de Kane, ésta es una teoría, una propuesta: el qubit aún no se ha construido», dijo Morello. «Tenemos algunos datos experimentales preliminares que sugieren que es totalmente factible, así que estamos trabajando para demostrarlo. Pero creo que esto es tan visionario como el trabajo original de Kane».
La construcción de un ordenador cuántico se ha denominado la «carrera espacial del siglo XXI», un reto difícil y ambicioso con el potencial de entregar herramientas revolucionarias para hacer frente a cálculos que de otro modo serían imposibles, con una plétora de aplicaciones útiles en el sector sanitario, la defensa, las finanzas, la química y el desarrollo de materiales, la depuración de software, el sector aeroespacial y el transporte. Su velocidad y poder radican en el hecho de que los sistemas cuánticos pueden albergar múltiples «superposiciones» de diferentes estados iniciales, y en el espeluznante «enredo» que sólo ocurre a nivel cuántico las partículas fundamentales.
«Se necesitará una gran ingeniería para llevar la computación cuántica a la realidad comercial, y el trabajo que vemos en este extraordinario equipo pone a Australia en el asiento del conductor», dijo Mark Hoffman, Decano de Ingeniería de la UNSW. «Es un gran ejemplo de cómo la UNSW, al igual que muchas de las universidades de investigación más importantes del mundo, se encuentra hoy en el corazón de un sofisticado sistema de conocimiento global que está dando forma a nuestro futuro».
El equipo de la UNSW ha llegado a un acuerdo de 83 millones de dólares australianos entre la UNSW, el gigante de las telecomunicaciones Telstra, el Commonwealth Bank de Australia y los gobiernos de Australia y Nueva Gales del Sur para desarrollar, para el año 2022, un prototipo de circuito integrado cuántico de silicio de 10 bits, el primer paso en la construcción de la primera computadora cuántica del mundo en silicio.
En agosto, los socios lanzaron Silicon Quantum Computing Pty Ltd., la primera empresa de computación cuántica de Australia, para avanzar en el desarrollo y comercialización de las tecnologías únicas del equipo. El Gobierno de Nueva Gales del Sur prometió 8,7 millones de dólares australianos, 25 millones de dólares de los EE. UU., 14 millones de dólares australianos para el Banco del Commonwealth, 10 millones de dólares australianos para Telstra y 25 millones de dólares australianos para el Gobierno federal.
Ampliar en: EurekAlert!
El 31 de agosto de 2017 la empesa SanDisk anunció una tarjeta microSD de gran capacidad de almacenamiento, capaz de introducir 400 GB de datos en ella. ¡Eso es correcto! Una tarjeta de memoria del tamaño de un centavo puede almacenar unas increíbles 40 horas de vídeo 1080p en bruto, algo que era absolutamente incomprensible para los expertos en tecnología hace apenas una década. Pero, ¿es este realmente el límite superior? ¿Hemos llegado a la memoria máxima? ¿O podemos encajar aún más en este pequeño espacio de cinco milímetros cuadrados?
Un problema teórico
Medio centímetro no le da mucho espacio, y los dispositivos que se fabrican para tarjetas microSD no pueden volver a ser utilizados para otra cosa. Esto significa que tendrás que trabajar dentro de estas limitaciones. Por lo general, los fabricantes de tarjetas como SanDisk reducirían el tamaño de sus transistores para que quepan más de ellos en un espacio minúsculo. En 2013 este tamaño era de aproximadamente 19 nm. Una lámina de estos transistores dentro de un espacio de medio centímetro daría 8 GB de espacio de almacenamiento, que era abundante para la mayoría de los dispositivos de consumo a pequeña escala.
Para hacer que más memoria quepa en la misma cantidad de espacio, necesitaría apilar los transistores uno encima del otro, creando capas de transistores que doblarían o cuadruplicarían la cantidad de espacio de almacenamiento disponible. Así es como empezaron a aparecer las tarjetas microSD con capacidades de 32 GB. Llega un momento en el tiempo, sin embargo, donde las cosas se ponen un poco demasiado cómodas y tienes que empezar a comer en el marco para encajar más capas.
En el nivel de 19 nm, se necesitarían ocho capas de transistores para ajustar 64 GB de memoria. Para encajar 400 GB, se necesitarían exactamente cincuenta capas. Aunque esto es teóricamente posible, es extraordinariamente difícil de hacer en un espacio tan reducido.
Cuando no hay otra opción que doblar la apuesta
Ya hemos discutido el hecho de que no es posible cambiar las dimensiones de cada ranura en cada dispositivo para que quepa una tarjeta más grande. La única opción que queda es sumergirse aún más en la tecnología de fabricación de microtransistores. ¡Tenemos que hacerlos más pequeños!
Teóricamente, un transistor podría ser tan pequeño como una sola molécula. El 14 de agosto, hemos conseguido hacer transistores de molécula única que funcionaban de forma sostenible a temperatura ambiente. Debido a que el proceso de hacerlas es tan complicado, no podemos esperar que se conviertan en algo dominante en el futuro, pero presentan una ventana a lo que parece el futuro. Pronto veremos transistores de tan sólo 5 nm.
Recuerde, los transistores caben en un espacio tridimensional, lo que significa que a medida que se hacen más pequeños, también se obtiene más espacio para apilarlos. Esto es lo que debe haber sucedido para que SanDisk sea capaz de crear una tarjeta microSD de 400 GB. Bajo la especificación de transistores de 10 nm disponible para los fabricantes a partir de 2017, puede ajustar 400 GB de memoria utilizando 25 capas de transistores, ahora pueden caber aproximadamente 16 GB por capa.
Con los transistores de 5 nm, podríamos terminar creando tarjetas microSD que se ajusten a un terabyte de memoria, que es aproximadamente donde veo el límite. Puede que no seamos capaces de superar ese nivel y probablemente ni siquiera lo necesitemos en un futuro previsible.
Ampliar en: Maketecheasyer
El mundo actual, que cambia rápidamente debido a «big data», está encapsulado en miles de millones de pequeños objetos magnéticos -bits magnéticos- cada uno de los cuales almacena un bit de datos en unidades de disco magnético. Un grupo de científicos de los Institutos Max Planck de Halle y Dresde han descubierto un nuevo tipo de nano-objeto magnético en un material novedoso que podría servir como un bit magnético con propiedades de invisibilidad para hacer realidad en un futuro próximo una unidad de disco magnético sin partes móviles – una memoria Racetrack.
La mayoría de los datos digitales se almacenan en la nube como bits magnéticos dentro de números masivos de unidades de disco magnético. En las últimas décadas, estos bits magnéticos se han reducido en muchos órdenes de magnitud, llegando a límites donde los límites de estas regiones magnéticas pueden tener propiedades especiales. En algunos materiales especiales estos límites – «paredes de dominio magnético» – pueden ser descritos como topológicos. Lo que esto significa es que se puede pensar que estas paredes tienen un manto mágico especial – lo que los científicos llaman «protección topológica». Una consecuencia importante es que tales paredes magnéticas son más estables a las perturbaciones que los bits magnéticos similares sin protección topológica que se forman en materiales magnéticos convencionales. Así pues, estos objetos magnéticos «topológicos» podrían ser especialmente útiles para almacenar «1»y «0»los elementos básicos de los datos digitales.
Uno de estos objetos es un «esqurmión magnético» que es una pequeña región magnética, tal vez de decenas a cientos de átomos de ancho, separado de una región magnética circundante por una pared de dominio quiral. Hasta hace poco solo se ha encontrado un tipo de esqurmión, el que está rodeado por una pared de dominio quiral que toma la misma forma en todas las direcciones. Pero hanbhabido predicciones de varios otros tipos de esqurmiones que aún no se han observado. En un artículo publicado en Nature, científicos del departamento NISE del Prof. Stuart Parkin en el Instituto Max Planck para la Física de Microestructuras en Halle, Alemania, han encontrado una segunda clase de esquirmiones, lo que se llama «antisesquirmiones», en materiales sintetizados en el Departamento de Química de Estado Sólido del Prof. Claudia Felser en el Instituto Max Planck para CPFS, Dresden, Alemania.
Los científicos de Halle y Dresden han encontrado estos diminutos objetos magnéticos en una clase especial de compuestos magnéticos versátiles llamados Heusler que Claudia Felser y sus colegas han explorado extensamente durante los últimos 20 años. De estos compuestos de Heusler, un pequeño subconjunto tiene la simetría cristalina justa para permitir la posibilidad de formar antiesquirmiones pero no sesquirmiones. Utilizando un microscopio electrónico de transmisión altamente sensible en el Instituto Max Planck para Física de Microestructuras, Halle, que fue especialmente modificado para permitir la detección de pequeños momentos magnéticos, se crearon y detectaron antiesquirmiones sobre una amplia gama de temperaturas y campos magnéticos. Y lo que es más importante, los antiesquirmiones, tanto en arreglos ordenados como en objetos aislados, se podían ver incluso a temperatura ambiente y en campos magnéticos cero.
Las propiedades especiales de ocultación de los esquirmiones los hace de gran interés para una forma radicalmente nueva de memoria de estado sólido – Memoria Racetrak – que fue propuesta por Stuart Parkin hace una década. En Racetrack, los datos digitales están codificados dentro de las paredes del dominio magnético, que se encuentran dentro de cables magnéticos nanoscópicos. Una de las características únicas de Racetrack, que es diferente a todas las demás memorias, es que las paredes se mueven alrededor de los nanocables usando descubrimientos recientes en la espin-orbitrónica. Los pulsos muy cortos de corriente mueven todas las paredes del dominio hacia atrás y hacia adelante a lo largo de los nanocables. Las paredes -las puntas magnéticas- pueden ser leídas y escritas por dispositivos incorporados directamente en los propios nanohilos, eliminando así cualquier pieza mecánica. Las paredes magnéticas protegidas topológicamente son muy prometedoras para las memorias Racetrack.
Por lo tanto, los antisesquirmiones podrían aplicarse a las memorias Racetrack pronto. Yendo incluso más allá de los antiesquirmiones el siguiente objetivo es la realización de una tercera clase de esquirmiones – esquirmiones antiferromagnéticos- que son diminutos objetos magnéticos que realmente no tienen ningún momento magnético neto. Son magnéticamente casi invisibles pero tienen propiedades únicas que los hacen de gran interés.
Ampliar en: Ajaya K. Nayak et al, Magnetic antiskyrmions above room temperature in tetragonal Heusler materials, Nature (2017). DOI: 10.1038/nature23466
¿Es realmente necesario el entrelazamiento para describir el mundo físico, o es posible tener alguna teoría post-cuántica sin entrelazamiento?
En un nuevo estudio, físicos han probado matemáticamente que cualquier teoría que tenga un límite clásico -es decir, que pueda describir nuestras observaciones del mundo clásico recuperando la teoría clásica bajo ciertas condiciones- debe contener entrelazamientos. Así que a pesar de que el entrelazamiento va en contra de la intuición clásica, el entrelazamiento debe ser una característica inevitable no sólo de la teoría cuántica, sino también de cualquier teoría no clásica, incluso de las que aún están por desarrollar.
Los físicos, Jonathan G. Richens en el Imperial College London y el University College London, John H. Selby en el Imperial College London y la Universidad de Oxford, y Sabri W. Al-Safi en la Universidad de Nottingham Trent, han publicado un artículo estableciendo el entrelazamiento como una característica necesaria de cualquier teoría no clásica en un número reciente de Physical Review Letters.
«La teoría cuántica tiene muchas características extrañas en comparación con la teoría clásica», dijo Richens a Phys. org. «Tradicionalmente estudiamos cómo el mundo clásico emerge del cuántico, pero nos propusimos revertir este razonamiento para ver cómo el mundo clásico da forma al cuántico. Al hacerlo, demostramos que uno de sus rasgos más extraños, el entrelazamiento, no es nada sorprendente. Esto insinúa que gran parte de la aparente extrañeza de la teoría cuántica es una consecuencia inevitable de ir más allá de la teoría clásica, o tal vez incluso una consecuencia de nuestra incapacidad para dejar atrás la teoría clásica».
Aunque la prueba completa es muy detallada, la idea principal detrás de ella es simplemente que cualquier teoría que describa la realidad debe comportarse como una teoría clásica en algún límite. Este requisito parece bastante obvio, pero como muestran los físicos, imparte fuertes restricciones a la estructura de cualquier teoría no clásica.
La teoría cuántica cumple este requisito de tener un límite clásico a través del proceso de decoherencia. Cuando un sistema cuántico interactúa con el entorno externo, el sistema pierde su coherencia cuántica y todo lo que lo hace cuántico. Así que el sistema se vuelve clásico y se comporta como se espera de la teoría clásica.
Aquí, los físicos muestran que cualquier teoría no clásica que recupere la teoría clásica debe contener estados entrelazados. Para demostrarlo, asumen lo contrario: que tal teoría no tiene entrelazamiento. Entonces demuestran que, sin entrelazarse, cualquier teoría que recupere la teoría clásica debe ser la teoría clásica en sí misma, una contradicción de la hipótesis original de que la teoría en cuestión no es clásica. Este resultado implica que la suposición de que tal teoría no tiene entrelazado es falsa, lo que significa que cualquier teoría de este tipo debe tener entrelazado.
Este resultado puede ser sólo el comienzo de muchos otros descubrimientos relacionados, ya que abre la posibilidad de que otros rasgos físicos de la teoría cuántica puedan reproducirse simplemente exigiendo que la teoría tenga un límite clásico. Los físicos anticipan que características como la causalidad de la información, la simetría de bits y la ubicación macroscópica pueden aparecer como resultado de este único requisito. Los resultados también proporcionan una idea más clara de cómo debe ser cualquier teoría futura no clásica, post-cuántica.
«Mis metas futuras serían ver si la no-localidad de Bell también puede derivarse de la existencia de un límite clásico», dijo Richens. «Sería interesante si todas las teorías que reemplazan a la teoría clásica violaran el realismo local. También estoy trabajando para ver si ciertas extensiones de la teoría cuántica (como la interferencia de orden superior) pueden ser descartadas por la existencia de un límite clásico, o si este límite imparte restricciones útiles a estas’ teorías post-cuántico'».
Ampliar en: Jonathan G. Richens, John H. Selby, and Sabri W. Al-Safi. «Entanglement is Necessary for Emergent Classicality in All Physical Theories.» Physical Review Letters. DOI: 10.1103/PhysRevLett.119.080503