Durante más de 50 años, la Ley de Moore ha reinado en forma suprema. La observación de que el número de transistores en un chip de ordenador se duplica aproximadamente cada dos años ha marcado el ritmo de nuestra revolución digital moderna: hacer posible teléfonos inteligentes, ordenadores personales y superordenadores actuales. Pero la Ley de Moore se está ralentizando. E incluso si no lo fuera, algunos de los grandes problemas que los científicos necesitan abordar podrían estar fuera del alcance de los ordenadores convencionales.
Durante los últimos años, los investigadores del Lawrence Berkeley National Laboratory (Berkeley Lab) han estado explorando un tipo drásticamente diferente de arquitectura computacional basada en la mecánica cuántica para resolver algunos de los problemas más difíciles de la ciencia. Con el patrocinio de Laboratory Directed Research and Development (LDRD), han desarrollado algoritmos de optimización y química cuántica, así como procesadores de prototipo superconductores cuánticos. Recientemente, demostraron la viabilidad de su trabajo utilizando estos algoritmos en un procesador cuántico que consta de dos bits cuánticos superconductores para resolver con éxito el problema químico de calcular el espectro energético completo de una molécula de hidrógeno.
Ahora, dos equipos de investigación dirigidos por el personal del Berkeley Lab recibirán fondos del Departamento de Energía (DOE) para aprovechar este impulso. Un equipo recibirá 1,5 millones de dólares en tres años para desarrollar algoritmos novedosos, técnicas de compilación y herramientas de programación que permitirán utilizar plataformas de computación cuántica a corto plazo para el descubrimiento científico en las ciencias químicas. El otro equipo trabajará en estrecha colaboración con estos investigadores para diseñar prototipos de procesadores de cuatro y ocho cubit para calcular estos nuevos algoritmos. Este proyecto tendrá una duración de cinco años y los investigadores recibirán 1,5 millones de dólares para su primer año de trabajo. Para el quinto año, el equipo de hardware espera demostrar un procesador de 64 cubit con control total.
«Algún día, los ordenadores cuánticos universales podrán resolver una amplia gama de problemas, desde el diseño molecular hasta el aprendizaje automático y la ciberseguridad, pero estamos muy lejos de eso. Por lo tanto, la pregunta que nos hacemos actualmente es si existen problemas específicos que podamos resolver con computadoras cuánticas más especializadas», dice Irfan Siddiqi, científico de laboratorio de Berkeley y director fundador del Center for Quantum Coherent Science de la UC Berkeley.
Según Siddiqi, las tecnologías de computación cuántica coherente de hoy en día cuentan con los tiempos de coherencia necesarios, las fidelidades lógicas de operación y las topologías de circuitos para realizar cálculos especializados para la investigación fundamental en áreas como la ciencia molecular y de materiales, la optimización numérica y la física de alta energía. A la luz de estos avances, señala que es el momento de que el DOE explore cómo estas tecnologías pueden integrarse en la comunidad de computación de alto rendimiento. En estos nuevos proyectos, los equipos del Berkeley Lab trabajarán con colaboradores de la industria y el mundo académico para aprovechar estos avances y abordar problemas científicos difíciles relacionados con las misiones del DOE, como el cálculo de la dinámica de los sistemas moleculares y el aprendizaje de máquinas cuánticas.
«Estamos en las primeras etapas de la computación cuántica, como en los años 40 con la computación convencional. Tenemos parte del hardware, ahora tenemos que desarrollar un conjunto robusto de software, algoritmos y herramientas para utilizarlo de manera óptima para resolver problemas científicos realmente difíciles», dice Bert de Jong, que dirige el Grupo de Química Computacional, Materiales y Clima del Laboratorio de Investigación Computacional (CRD) de Berkeley.
Dirigirá un equipo de Algoritmos Cuánticos del DOE formado por investigadores de Berkeley Lab, Harvard, Argonne National Lab y UC Berkeley, centrado en «Algoritmos Cuánticos, Matemáticas y Herramientas de Compilación para Ciencias Químicas».
«La tradición de Berkeley Lab en la ciencia en equipo, así como su proximidad a UC Berkeley y Silicon Valley, lo convierten en un lugar ideal para trabajar en computación cuántica de extremo a extremo», dice Jonathan Carter, Subdirector de Berkeley Lab Computing Sciences. «Tenemos físicos y químicos en el laboratorio que están estudiando la ciencia fundamental de la mecánica cuántica, ingenieros para diseñar y fabricar procesadores cuánticos, así como científicos informáticos y matemáticos para asegurar que el hardware sea capaz de calcular efectivamente la ciencia del DOE».
Carter, Siddiqi y Lawrence Livermore National Laboratory’s Jonathan DuBois liderarán el proyecto de Testbed Simulation (AQuES) Advanced Quantum-Enabled Simulation del DOE.
Desafío de la coherencia cuántica
La clave para construir ordenadores cuánticos que resuelvan problemas científicos fuera del alcance de los ordenadores convencionales es la «coherencia cuántica». Este fenómeno permite esencialmente que los sistemas cuánticos almacenen mucha más información por bit que en las computadoras tradicionales.
En una computadora convencional, los circuitos de un procesador incluyen miles de millones de transistores, pequeños interruptores que se activan mediante señales electrónicas. Los dígitos 1 y 0 se utilizan en binario para reflejar los estados de encendido y apagado de un transistor. Esencialmente, así es como se almacena y procesa la información. Cuando los programadores escriben código de ordenador, un traductor lo transforma en instrucciones binarias (1s y 0s) que un procesador puede ejecutar.
A diferencia de un bit tradicional, un bit cuántico (cubit) puede adquirir propiedades mecánicas cuánticas algo contrarias a la intuición como el entrelazamiento y la superposición. El entrelazamiento cuántico ocurre cuando los pares o grupos de partículas interactúan de tal manera que el estado de cada partícula no puede ser descrito individualmente, sino que el estado debe ser descrito para el sistema como un todo. En otras palabras, las partículas entrelazadas actúan como una unidad. La superposición ocurre cuando una partícula existe en una combinación de dos estados cuánticos simultáneamente.
Por lo tanto, mientras que un bit de ordenador convencional codifica la información como 0 o 1, un cubit puede ser 0,1 o una superposición de estados (tanto 0 como 1 al mismo tiempo). La capacidad de un cubit para existir en múltiples estados significa que, por ejemplo, puede permitir el cálculo de las propiedades químicas y de materiales significativamente más rápido que los ordenadores tradicionales. Y si estos cubits se pueden enlazar o enredar en un ordenador cuántico, los problemas que no se pueden resolver hoy en día con los ordenadores convencionales podrían ser abordados.
Pero sigue siendo un reto conseguir cubits en este estado de coherencia cuántica, donde se pueden aprovechar las propiedades de mecánica cuántica y luego sacar el máximo provecho de ellas cuando están en este estado.
«La computación cuántica es como jugar un juego de ajedrez donde las piezas y el tablero están hechos de hielo. A medida que los jugadores se mueven alrededor de las piezas, los componentes se están derritiendo y mientras más movimientos realices, más rápido se derretirá el juego», dice Carter. «Los cubits pierden coherencia en muy poco tiempo, así que depende de nosotros encontrar el juego de movimientos más útil que podamos hacer.»
Carter señala que el enfoque de Berkeley Lab de codiseñar los procesadores cuánticos en estrecha colaboración con los investigadores que desarrollan algoritmos cuánticos, recopilando técnicas y herramientas de programación será extremadamente útil para responder a esta pregunta.
«Los enfoques computacionales son comunes en la mayoría de los proyectos científicos del Berkeley Lab. A medida que la Ley de Moore se está ralentizando, las nuevas arquitecturas, sistemas y técnicas informáticas se han convertido en una iniciativa prioritaria en Berkeley Lab «, dice Horst Simon, Director Adjunto de Berkeley Lab. «Reconocemos desde el principio cómo la simulación cuántica podría proporcionar un enfoque eficaz a algunos de los problemas computacionales más desafiantes en la ciencia, y me complace ver el reconocimiento de nuestra iniciativa de LDRD a través de esta primera financiación directa. La ciencia de la información cuántica se convertirá en un elemento cada vez más importante de nuestra empresa de investigación en muchas disciplinas».
Debido a que este campo todavía se encuentra en sus primeros días, hay muchos enfoques para construir una computadora cuántica. Los equipos liderados por el Laboratorio de Berkeley estarán investigando ordenadores cuánticos superconductores.
Para diseñar y fabricar la próxima generación de procesadores cuánticos, el equipo de AQuES aprovechará la instalación de circuitos superconductores en el Laboratorio de Nanoelectrónica Cuántica y Nanoelectrónica de UC Berkeley, al tiempo que incorporará la experiencia de los investigadores en las divisiones de Tecnología de Aceleradores y Física Aplicada, Ciencia de Materiales e Ingeniería del Laboratorio de Berkeley. Los equipos de investigación también utilizarán las capacidades únicas de dos instalaciones del DOE: la Molecular Foundry y el National Energy Research Scientific Computing Center (NERSC), ambos ubicados en el Berkeley Lab.
Ampliar en: EurekAlert!
La ley de Moore (aunque es una observación, no una ley de la naturaleza) es en parte la responsable del avance increíble de la humanidad durante el siglo XX.
La imagen muestra lo mejor de la electrónica de los 90 del siglo pasado, en su máxima expresión: Un Apple Newton, una videocámara VHS de JVC, un portátil Toshiba, un reloj de pulsera, un teléfono Motorola Dynatac, una cámara de fotos Polaroid y un Walkman. Hoy, todo eso puede hacerse, con mejor calidad y de manera más eficiente desde un teléfono móvil (y además es uno que ya, irónicamente, podríamos considerar obsoleto, el iPhone 4).
Fuente: GIZMODO
La Ley de Moore dice que, más o menos cada dos años, se duplica el número de transistores de un circuito integrado. Hasta ahora se ha cumplido, pero las cosas se están poniendo cada vez más complicadas porque los fabricantes estaban forzando los límites físicos del silicio de los chips. El relevo llega de la mano de IBM y los transistores de nanotubos de carbono. Los primeros procesadores con esta tecnología llegarán en 2020.
Para que haya cada vez más transistores (y por lo tanto más potencia) en el mismo espacio, estos componentes deben ser cada vez de menor tamaño. El transistor basado en silicio más pequeño que hay ahora en el mercado es de 14 nanómetros. Para que la ley empírica formulada por el cofundador de Intel Gordon E. Moore se siga cumpliendo, en 2020 deberían ser de cinco nanómetros, pero el silicio presenta muchos problemas eléctricos a esa escala.
Los nanotubos de carbono son, según IBM, los sustitutos perfectos para el silicio. La tecnología que hay detrás de estos transistores es muy real y, de hecho, está ya en su fase final de desarrollo. IBM logró hacer funcionar el primer transistor de nanotubos de carbono en 1998. Lleva desde entonces afinando esta nueva tecnología, y estará a disposición de los fabricantes de procesadores en 2019.
Fuente: GIZMODO
El profesor Derek McAuley en la Facultad de Ciencias de la Computación en la Universidad de Nottingham, presenta los elementos de diseño de chips y de fabricación que tienen a los diseñadores de chips de hoy en día a «cabezazos» contra las leyes de la física.
McAuley se refiere a la ley de Moore – La observación de Gordon Moore de que en los transistores su capacidad superficial se duplica cada dos años más o menos, que se produce con cada generación de procesadores, con lo que el tamaño de la característico de los componentes de un chip (por ejemplo, transistores y las pistas) tendrán una disminución.
El profesor recuerda el principio de su carrera trabajando en Acorn Computing cuando sus colegas Sophie Wilson y Steve Furber estaban diseñando el procesador ARM. En este punto, todos estaban muy entusiasmados con la tecnología de 3 micras, el tamaño característico del transistor. Hoy la industria lo ha reducido a 28 o 22 nanómetros.
El profesor McAuley indica en la descripción cómo se fabrican los transistores usando materiales semiconductores dopados con iones (materiales p o n) y la ralentización de la ley de Moore. «Cada generación ha requerido mejorar los sistemas ópticos», dice McAuley.
«A medida que los tamaños se hacen más pequeños, en la superficie del transistor pueden caber más iones o átomos del material de dopaje – y como se pone más y más pequeño, el número tiene cada vez menos. Cuando conseguimos cantidades muy pequeñas de átomos, la mecánica cuántica influye en el comportamiento del transistor y la probabilidad de opere correctamente empieza a reducirse «.
McAuley continúa diciendo la predicción de que la ley de Moore se agotará indica esencialmente que los transistores empezarán a hacer lo indeseable con demasiada frecuencia. La corrección de errores se puede utilizar para disminuir algunos de este comportamiento, pero tiene sus límites cuando los errores se vuelven demasiado numerosos.
Todavía hay muchas otras áreas abiertas para el desarrollo, sin embargo, McAuley ve prometedora la innovación de arquitectura y diseño de chips 3D.
Fuente: HPCwire