admin

Categorías

Coobis

Hardware

Un ordenador cuántico para abordar los problemas de la ciencia fundamental

Un ordenador cuántico para abordar los problemas de la ciencia fundamental

Durante más de 50 años, la Ley de Moore ha reinado en forma suprema. La observación de que el número de transistores en un chip de ordenador se duplica aproximadamente cada dos años ha marcado el ritmo de nuestra revolución digital moderna: hacer posible teléfonos inteligentes, ordenadores personales y superordenadores actuales. Pero la Ley de Moore se está ralentizando. E incluso si no lo fuera, algunos de los grandes problemas que los científicos necesitan abordar podrían estar fuera del alcance de los ordenadores convencionales.

Durante los últimos años, los investigadores del  Lawrence Berkeley National Laboratory (Berkeley Lab) han estado explorando un tipo drásticamente diferente de arquitectura computacional basada en la mecánica cuántica para resolver algunos de los problemas más difíciles de la ciencia. Con el patrocinio de Laboratory Directed Research and Development (LDRD), han desarrollado algoritmos de optimización y química cuántica, así como procesadores de prototipo superconductores cuánticos. Recientemente, demostraron la viabilidad de su trabajo utilizando estos algoritmos en un procesador cuántico que consta de dos bits cuánticos superconductores para resolver con éxito el problema químico de calcular el espectro energético completo de una molécula de hidrógeno.

Ahora, dos equipos de investigación dirigidos por el personal del Berkeley Lab recibirán fondos del Departamento de Energía (DOE) para aprovechar este impulso. Un equipo recibirá 1,5 millones de dólares en tres años para desarrollar algoritmos novedosos, técnicas de compilación y herramientas de programación que permitirán utilizar plataformas de computación cuántica a corto plazo para el descubrimiento científico en las ciencias químicas. El otro equipo trabajará en estrecha colaboración con estos investigadores para diseñar prototipos de procesadores de cuatro y ocho cubit para calcular estos nuevos algoritmos. Este proyecto tendrá una duración de cinco años y los investigadores recibirán 1,5 millones de dólares para su primer año de trabajo. Para el quinto año, el equipo de hardware espera demostrar un procesador de 64 cubit con control total.

«Algún día, los ordenadores cuánticos universales podrán resolver una amplia gama de problemas, desde el diseño molecular hasta el aprendizaje automático y la ciberseguridad, pero estamos muy lejos de eso. Por lo tanto, la pregunta que nos hacemos actualmente es si existen problemas específicos que podamos resolver con computadoras cuánticas más especializadas», dice Irfan Siddiqi, científico de laboratorio de Berkeley y director fundador del Center for Quantum Coherent Science de la UC Berkeley.

Según Siddiqi, las tecnologías de computación cuántica coherente de hoy en día cuentan con los tiempos de coherencia necesarios, las fidelidades lógicas de operación y las topologías de circuitos para realizar cálculos especializados para la investigación fundamental en áreas como la ciencia molecular y de materiales, la optimización numérica y la física de alta energía. A la luz de estos avances, señala que es el momento de que el DOE explore cómo estas tecnologías pueden integrarse en la comunidad de computación de alto rendimiento. En estos nuevos proyectos, los equipos del Berkeley Lab trabajarán con colaboradores de la industria y el mundo académico para aprovechar estos avances y abordar problemas científicos difíciles relacionados con las misiones del DOE, como el cálculo de la dinámica de los sistemas moleculares y el aprendizaje de máquinas cuánticas.

«Estamos en las primeras etapas de la computación cuántica, como en los años 40 con la computación convencional. Tenemos parte del hardware, ahora tenemos que desarrollar un conjunto robusto de software, algoritmos y herramientas para utilizarlo de manera óptima para resolver problemas científicos realmente difíciles», dice Bert de Jong, que dirige el Grupo de Química Computacional, Materiales y Clima del Laboratorio de Investigación Computacional (CRD) de Berkeley.

Dirigirá un equipo de Algoritmos Cuánticos del DOE formado por investigadores de Berkeley Lab, Harvard, Argonne National Lab y UC Berkeley, centrado en «Algoritmos Cuánticos, Matemáticas y Herramientas de Compilación para Ciencias Químicas».

«La tradición de Berkeley Lab en la ciencia en equipo, así como su proximidad a UC Berkeley y Silicon Valley, lo convierten en un lugar ideal para trabajar en computación cuántica de extremo a extremo», dice Jonathan Carter, Subdirector de Berkeley Lab Computing Sciences. «Tenemos físicos y químicos en el laboratorio que están estudiando la ciencia fundamental de la mecánica cuántica, ingenieros para diseñar y fabricar procesadores cuánticos, así como científicos informáticos y matemáticos para asegurar que el hardware sea capaz de calcular efectivamente la ciencia del DOE».

Carter, Siddiqi y Lawrence Livermore National Laboratory’s Jonathan DuBois liderarán el proyecto de Testbed Simulation (AQuES) Advanced Quantum-Enabled Simulation del DOE.

Desafío de la coherencia cuántica

La clave para construir ordenadores cuánticos que resuelvan problemas científicos fuera del alcance de los ordenadores convencionales es la «coherencia cuántica». Este fenómeno permite esencialmente que los sistemas cuánticos almacenen mucha más información por bit que en las computadoras tradicionales.

En una computadora convencional, los circuitos de un procesador incluyen miles de millones de transistores, pequeños interruptores que se activan mediante señales electrónicas. Los dígitos 1 y 0 se utilizan en binario para reflejar los estados de encendido y apagado de un transistor. Esencialmente, así es como se almacena y procesa la información. Cuando los programadores escriben código de ordenador, un traductor lo transforma en instrucciones binarias (1s y 0s) que un procesador puede ejecutar.

A diferencia de un bit tradicional, un bit cuántico (cubit) puede adquirir propiedades mecánicas cuánticas algo contrarias a la intuición como el entrelazamiento y la superposición. El entrelazamiento cuántico ocurre cuando los pares o grupos de partículas interactúan de tal manera que el estado de cada partícula no puede ser descrito individualmente, sino que el estado debe ser descrito para el sistema como un todo. En otras palabras, las partículas entrelazadas actúan como una unidad. La superposición ocurre cuando una partícula existe en una combinación de dos estados cuánticos simultáneamente.

Por lo tanto, mientras que un bit de ordenador convencional codifica la información como 0 o 1, un cubit puede ser 0,1 o una superposición de estados (tanto 0 como 1 al mismo tiempo). La capacidad de un cubit para existir en múltiples estados significa que, por ejemplo, puede permitir el cálculo de las propiedades químicas y de materiales significativamente más rápido que los ordenadores tradicionales. Y si estos cubits se pueden enlazar o enredar en un ordenador cuántico, los problemas que no se pueden resolver hoy en día con los ordenadores convencionales podrían ser abordados.

Pero sigue siendo un reto conseguir cubits en este estado de coherencia cuántica, donde se pueden aprovechar las propiedades de mecánica cuántica y luego sacar el máximo provecho de ellas cuando están en este estado.

«La computación cuántica es como jugar un juego de ajedrez donde las piezas y el tablero están hechos de hielo. A medida que los jugadores se mueven alrededor de las piezas, los componentes se están derritiendo y mientras más movimientos realices, más rápido se derretirá el juego», dice Carter. «Los cubits pierden coherencia en muy poco tiempo, así que depende de nosotros encontrar el juego de movimientos más útil que podamos hacer.»

Carter señala que el enfoque de Berkeley Lab de codiseñar los procesadores cuánticos en estrecha colaboración con los investigadores que desarrollan algoritmos cuánticos, recopilando técnicas y herramientas de programación será extremadamente útil para responder a esta pregunta.

«Los enfoques computacionales son comunes en la mayoría de los proyectos científicos del Berkeley Lab. A medida que la Ley de Moore se está ralentizando, las nuevas arquitecturas, sistemas y técnicas informáticas se han convertido en una iniciativa prioritaria en Berkeley Lab «, dice Horst Simon, Director Adjunto de Berkeley Lab. «Reconocemos desde el principio cómo la simulación cuántica podría proporcionar un enfoque eficaz a algunos de los problemas computacionales más desafiantes en la ciencia, y me complace ver el reconocimiento de nuestra iniciativa de LDRD a través de esta primera financiación directa. La ciencia de la información cuántica se convertirá en un elemento cada vez más importante de nuestra empresa de investigación en muchas disciplinas».

Debido a que este campo todavía se encuentra en sus primeros días, hay muchos enfoques para construir una computadora cuántica. Los equipos liderados por el Laboratorio de Berkeley estarán investigando ordenadores cuánticos superconductores.

Para diseñar y fabricar la próxima generación de procesadores cuánticos, el equipo de AQuES aprovechará la instalación de circuitos superconductores en el Laboratorio de Nanoelectrónica Cuántica y Nanoelectrónica de UC Berkeley, al tiempo que incorporará la experiencia de los investigadores en las divisiones de Tecnología de Aceleradores y Física Aplicada, Ciencia de Materiales e Ingeniería del Laboratorio de Berkeley. Los equipos de investigación también utilizarán las capacidades únicas de dos instalaciones del DOE: la Molecular Foundry y el National Energy Research Scientific Computing Center (NERSC), ambos ubicados en el Berkeley Lab.

Ampliar en: EurekAlert!

Los ordenadores cuánticos del futuro podrían ser radiactivos

Para que la revolución de los ordenadores cuánticos pase del sueño a la realidad, se deben cumplir dos condiciones esenciales: obtener un gran número de qubits, los bits cuánticos de información, y protegerlos eficazmente contra el fenómeno de la decoherencia. Si no se logra la primera, los ordenadores convencionales conservarán su supremacía. La segunda, por otra parte, permite ejecutar un algoritmo cuántico, como el de Shor, asegurando una superposición cuántica de estados suficientemente larga.

Esto significa que un chip cuántico debe estar suficientemente aislado del ruido generado por su entorno o que debe ser capaz de resistirlo (por ejemplo, con ordenadores topológicos). Una tercera forma es utilizar códigos de corrección para reducir los errores causados por este ruido. La solución final, si hay una solución, probablemente será una combinación de todas estas técnicas.

El premio Nobel David Wineland explica lo que una de las posibilidades exploradas para las computadoras cuánticas llamada trampas de iones.

Se exploran diferentes enfoques para resolver el problema de la decoherencia utilizando, por ejemplo, circuitos superconductores o qubits transportados por núcleos dentro de cristales de diamante. Cada uno tiene sus propias fortalezas y desventajas. Para manejar un gran número de qubits, también debe garantizarse que las técnicas de fabricación de componentes informáticos cuánticos que funcionan a pequeña escala puedan seguir aplicándose fácilmente a mayor escala.

Una de las vías más interesantes son las trampas de iones que transportan qubits. Utilizando pulsos láser, pueden ser manipulados para escribir y leer información y realizar operaciones computacionales. Un equipo de investigadores estadounidenses acaba de publicar un artículo en arXiv sobre un interesante sistema con iones de bario. Pueden ser enfriados fácilmente a bajas temperaturas con un láser óptico y los qubits transportadas por el espín de los núcleos son resistentes al ruido magnético. Estas dos ventajas hacen posible luchar eficazmente contra la decoherencia y construir chips cuánticos más fácilmente.

Sin embargo, el estudio se centra en el isótopo 133 del bario. Su núcleo es inestable y por lo tanto radioactivo. Además, su esperanza de vida es corta porque su período radioactivo (el tiempo que tarda el número de núcleos de una muestra en reducirse a la mitad por desintegración) es de 10,5 años. Por lo tanto, el Bario 133 no se produce naturalmente y debe fabricarse.

Esto se hizo y los investigadores de la Universidad de California en Los Ángeles pudieron por primera vez enfriar y atrapar iones de bario 133 allanando el camino para las computadoras cuánticas usando este elemento. Quizás los ordenadores del futuro no sólo serán cuánticos, sino también radiactivos…

Ampliar en: FUTURA SCIENCES

Fujitsu desarrolla el primer dispositivo de traducción de voz portátil portátil del mundo

Fujitsu desarrolla el primer dispositivo de traducción de voz portátil portátil del mundoFujitsu ha anunciado el desarrollo del primer dispositivo de traducción de voz portátil y manos libres del mundo, adecuado para tareas en las que las manos de los usuarios están a menudo ocupadas, como en diagnósticos o tratamientos sanitarios.

En los últimos años, con el aumento del número de visitantes a Japón, cada vez más pacientes no japoneses acuden a los hospitales, lo que genera problemas de comunicación en varios idiomas. En 2016, los Laboratorios Fujitsu desarrollaron la tecnología de manos libres que reconoce las voces de las personas y la ubicación de los hablantes, y que cambia automáticamente al lenguaje apropiado sin manipulación física del dispositivo. Ese mismo año, también colaboró con el Hospital de la Universidad de Tokio y el Instituto Nacional de Tecnología de la Información y las Comunicaciones (NICT) para llevar a cabo una prueba de campo de traducción multilingüe del habla en el ámbito médico utilizando tabletas estacionarias.

Basándose en los resultados, en Fujitsu Laboratories aprendieron que, como hay muchas situaciones en las que los proveedores de atención médica tienen las manos ocupadas, como cuando proporcionan atención en una sala de hospital, había una gran necesidad de un dispositivo de traducción de voz portátil que se pudiera utilizarse sin ser tocado físicamente.

Con el fin de ampliar la utilidad de la traducción multilingüe de voz, Fujitsu ha desarrollado el primer dispositivo de traducción de voz compacto, portátil y manos libres del mundo, desarrollando tecnología para diferenciar los altavoces que utilizan pequeños micrófonos omnidireccionales. Esto es posible gracias a una ingeniosa modificación de la forma del canal de sonido y a la mejora de la precisión de la tecnología de detección de voz, altamente resistente al ruido de fondo. Se espera que el uso de este dispositivo reduzca la carga sobre los proveedores de atención médica, cuyas manos a menudo se ven restringidas por otras tareas.

Fujitsu evaluará la eficacia de estos dispositivos de traducción recientemente desarrollados en situaciones sanitarias como parte de un ensayo clínico multilingüe de traducción del habla que se está llevando a cabo conjuntamente con Fujitsu Limited, el Hospital de la Universidad de Tokio y NICT, con los nuevos dispositivos desplegados en noviembre de 2017.

Tesla está trabajando en su propio chip de AI para autoconducción

Tesla está trabajando en su propio chip de AI para autoconducciónTesla está desarrollando su propio procesador para inteligencia artificial, destinado a ser utilizado con sus sistemas de autocontrol, en asociación con AMD. Tesla tiene una relación ya existente con Nvidia, cuyas GPU alimentan su sistema de piloto automático, pero este nuevo chip interno podría reducir su dependencia del hardware de procesamiento de IA de terceros.

AMD ayudaría a Tesla con el desarrollo del chip. Aparentemente, el fabricante de autos eléctricos ya ha recibido las primeras muestras del prototipo de su procesador para probar, según el informe. La construcción de un chip específico diseñado enteramente para la conducción autónoma ayudaría a Tesla de varias maneras, incluyendo un mayor control sobre un aspecto clave de su propia cadena de suministro, y el aumento de la eficiencia general del sistema y el rendimiento.

Tesla ha afirmado que sus vehículos de la generación actual tienen todo el hardware y la capacidad de computación a bordo para lograr la autoconducción completa con una actualización de software en el futuro. Pero la compañía también está siempre iterando en su hardware, evitando las actualizaciones tradicionales de los fabricantes tradicionales de automóviles.

El departamento de pilotaje automático de Tesla está a cargo de Jim Keller, que anteriormente había pasado gran parte de su carrera en AMD, y luego en Apple, donde ayudó a diseñar los procesadores internos A4 y A5 de Apple. El papel clave de Keller en la compañía probablemente habría influido en el fabricante de automóviles para que se propusiera adquirir su propio diseño de procesador y alinear más estrechamente sus componentes de software de autocontrol y computación de hardware.

Auriculares de traducción en tiempo real

La empresa TimeKettle ha diseñado un auricular que traduce del chino hablado al inglés y viceversa en tiempo casi real. Habiendo creado un prototipo funcional (no es vaporware) el fabricante se dirige ahora a Kickstarter para recaudar el dinero para su primera tirada del gadget.

El dispositivo, o más bien los dispositivos, son bastante infalibles: abres la caja, te pones un auricular en el oído y le das el otro a la persona con la que quieres hablar. Se sincronizan automáticamente con una aplicación para teléfonos inteligentes y, a continuación, detectan qué idioma habla cada persona y la traducen a medida que hablan.

En pruebas, funcionó bastante bien – hay un retraso notable, pero el equipo está en proceso de  optimización. Pero eso es prácticamente imposible de evitar en el estado actual de la traducción automática. Y en realidad, el problema es que puedes simplemente poner el dispositivo en tu oído y luego hacer contacto visual con tu pareja y chatear más o menos  de forma normal. Eso es preferible a que los dos miren el teléfono juntos.

En este momento, el sistema es compatible con el chino y el inglés, pero nuevos idiomas pueden ser añadidos a través de una aplicación complementaria.

Se peude ver un vídeo del funcionamiento.

Vídeo musical interpretado por robots

 

En la página web de Nigel Stanford  hay algunos vídeos más sobre cómo hizo las pruebas y ajustes para que todo esto sonara bien: Automatica Robot Tests. Utiliza brazos robóticos industriales, de los de cientos de kilogramos de masa.

Un proyecto europeo aborda los retos de la informática a gran escala

FPGA

Un proyecto paneuropeo ha comenzado este mes para reunir las tecnologías necesarias para la computación a gran escala, abordando el reto clave del uso de la energía.

El proyecto EuroEXA, de 20 millones de euros, ha comenzado este mes reuniendo tres proyectos a gran escala sobre aceleradores FPGA, interconexiones y tecnologías de chip 3D para alcanzar un rendimiento de 1018 operaciones, 10 veces superior al de los superordenadores más rápidos de la actualidad.

El factor limitante para la computación a gran escala es la eficiencia energética, dice el Dr. Dirk Koch de la Universidad de Manchester, que forma parte del proyecto Ecoscale. Señala al superordenador chino Sunway Taihulight como no muy lejos de la exascala, con 10000 núcleos que utilizan 28 MW de potencia para 125 petaflops de rendimiento. Si se considera la exascala, necesitamos 8 veces ese rendimiento, pero esto es más que todo el rendimiento de los 500 mejores superordenadores «, dijo. «Serían más de 85000 núcleos que necesitarían 224 MW de potencia. Son 40000 dólares por hora o 340 millones de dólares al año en EE. UU., y costaría más de 2000 millones de dólares «.

Así que la eficiencia energética es la clave última, y la integración es la clave para el rendimiento, cuanto más se puede hacer en un solo chip mejor «, dijo. Señala que el rendimiento de un FPGA es el doble del de una GPU en un problema específico para una décima parte de la potencia. «Es exactamente a donde queremos ir», dijo. «Eso usaría 40  MW a exascala. Esta es la belleza de los FPGA, que integran más funciones en un solo chip. La gestión de datos es clave. No se mueven los datos para computar, sino que se mueven la computación a los datos, lo que significa reconfigurar la FPGA donde están los datos «.

El mero uso de CPUS y GPU no hará el trabajo y tiene que hacerse con FPGA que necesitarán nuevos modelos de programación. En Manchester estamos trabajando en OpenCL como modelo de programación para módulos configurables que se pueden conectar a un sistema como acelerador HPC «.

Los otros dos proyectos se centran en la interconexión informática de alto rendimiento y el empaquetado de chips en 3D para lograr interconexiones locales más rápidas.

Ampliar en: eeNews

Ford desarrolla la comunicación entre el coche automático y los humanos

Ford desarrolla la comunicación entre el coche automático y los humanos

Junto con el Instituto Tecnológico de Transporte de Virginia, Ford Motor Company está probando un sistema que permite a los vehículos autónomos y a los conductores humanos comunicarse entre sí. Ford utiliza un coche que parece conducir de forma autónoma.

En el tráfico cotidiano, los usuarios de la vía pública se comunican intuitivamente a través de pequeños gestos: un guiño es a menudo suficiente para indicar que la otra persona puede pasar. Este elemento de comunicación falta en los automóviles autónomos. Ford está probando ahora cómo podría ser un «lenguaje de gestos» simple, entre los usuarios de vehículos robóticos y los humanos.

Cuando Daimler envió un Mercedes autónomo a través del tráfico en 2013, una debilidad fundamental de los chóferes electrónicos se hizo evidente: una pareja de ancianos esperaba en un paso de peatones. El Mercedes automático parado permitía al peatón cruzar. Sin embargo, los dos peatones hicieron un gesto para dejar claro que preferirían que el coche fuera el primero en pasar. La computadora a bordo del Mercedes no entendió la pista e insistió en no continuar hasta después de los peatones. La situación de bloqueo sólo podría resolverse tras la intervención del conductor de control humano.

Este problema sigue esperando una solución. Dondequiera que en el mundo los coches autónomos participan en el tráfico normal, estos malentendidos ocurren. Ahora Ford está trabajando con el Instituto Tecnológico de Transporte de Virginia Tech para establecer una interacción entre los humanos y los usuarios electrónicos de la carretera,  proporcionando señales fáciles de entender. «Entender cómo los vehículos autopropulsados pueden operar en el mundo real es la base para el desarrollo de la futura realidad del tráfico», dice John Shutko, Especialista Técnico en Factores Humanos de Ford Motor Company. «Debemos encontrar soluciones al reto de garantizar que en algún momento ningún conductor humano esté al volante. Se trata de cómo sustituir los gestos humanos naturales para garantizar el funcionamiento seguro y eficiente de los vehículos autopropulsados en los espacios públicos».

Inicialmente, los investigadores consideraron la posibilidad de mostrar información textual grande sobre el vehículo, pero esto requeriría que todos los usuarios de la carretera entendieran el mismo idioma. El uso de símbolos fue rechazado porque los nuevos símbolos no son suficientemente reconocidos por los humanos. Al final, experimentaron con señales de luz. Las señales luminosas para el giro y la indicación de los frenos son ya de serie y generalmente aceptadas, por lo que una aplicación lumínica se considera el medio de comunicación más eficaz.

Por ejemplo, un vehículo autopropulsado puede indicar si funciona en modo de conducción autónomo, si desea arrancar o si quiere permanecer parado. Hacia este extremo, Ford colocó una barra de luz en el parabrisas de un vehículo de prueba. Además, se instalaron seis cámaras HD para detectar el comportamiento de otros usuarios de la carretera en una vista panorámica de 360 grados.

Para simular la conducción autónoma sin una persona al volante, los investigadores desarrollaron un traje de camuflaje que oculta a la persona en el asiento del conductor. El traje se parece al asiento de un conductor normal desde el exterior y crea la ilusión de un vehículo autónomo. Esto es esencial para la evaluación de los encuentros reales entre el transportista y otros usuarios de la carretera.

El equipo ha experimentado con tres escenarios de iluminación diferentes para probar los efectos de las siguientes señales del vehículo:

Modo de conducción autónomo: La barra de luces se ilumina constantemente en blanco para indicar que el vehículo se encuentra en modo de conducción autónomo:
Inicio: Luz blanca que parpadea rápidamente para mostrar la aceleración inminente desde un inicio en reposo.
Parada: Dos luces blancas que se mueven lateralmente indican que el vehículo está parando.

La simulación se llevó a cabo con el vehículo de prueba Ford Transit Connect en las carreteras públicas del norte del estado norteamericano de Virginia, donde hay una alta densidad de tráfico y relativamente muchos peatones. A lo largo de una distancia de unos 2500 kilómetros, los investigadores grabaron vídeos y protocolos de las reacciones a los encuentros con peatones, ciclistas y otros vehículos. Se realizaron experimentos en el tráfico urbano, incluso en intersecciones y aparcamientos. Los investigadores utilizarán los datos obtenidos para comprender cómo reaccionan los usuarios de la carretera a las señales de un vehículo autopropulsado.

El fabricante también está trabajando con varias organizaciones de normalización, incluyendo la Organización Internacional de Normalización y SAE, para promover la creación de un estándar industrial. Una interfaz de comunicación visual común que la mayoría de las personas puedan comprender universalmente sería importante para garantizar la integración segura de los vehículos autónomos en los sistemas de transporte existentes.

Ampliar en: eeNews

¿Google está a punto de construir el primer qubit del mundo?

¿Google está a punto de construir el primer qubit del mundo?

El qubit es la unidad básica de computación cuántica. Así que a los desarrolladores de hardware cuántico obviamente les gusta presumir de cuántos tienen. Aunque algunos afirman tener miles en sus dispositivos, hay un sentimiento muy real de que nadie ha construido ni siquiera uno solo.

Hay un par de cosas diferentes para las que usamos el nombre del qubit. Uno es un qubit físico. La parte física se refiere al hecho de que estos son objetos reales de la vida real. La parte de bits nos dice que estos objetos deberían tener dos posibles estados. Y lo que es para el cuántico, ya que necesitamos manipular los estados de una manera cuántica mecánica.

Cualquier qubit que merezca el nombre también debe tener un ruido extremadamente bajo. La forma en que los manipulamos e interactuamos debería ser casi perfecta. Como un logro de la física experimental, deben estar en la cúspide: Una maravilla de la ciencia y la ingeniería. Aun así, no son suficientemente buenos. Para las ordenadores cuánticos, casi perfecto es casi inútil.

Esto no es más de lo que esperamos de los ordenadores normales. Hay millones de píxeles en tu pantalla, pero te darías cuenta si sólo uno estuviera haciendo algo al azar. Lo mismo es cierto para todos los millones de bits que nadan alrededor en sus programas. Sólo se necesita un valor de conmutación de unos pocos porque están aburridos para que todo se convierta en un sinsentido.

Cuando programamos, a menudo olvidamos que los bits de nuestro ordenador tienen una forma corpórea real. Pensamos en ellos como un concepto abstracto, puro e incorruptible. De lo contrario, el desarrollo de software sería una actividad muy diferente. Los programas cuánticos están diseñados con el mismo grado de perfección en mente. Para ejecutarlos, necesitamos renuncias lógicas: encarnaciones de la idea misma de la información cuántica.

Construir qubits lógicos requiere que domemos la naturaleza de sus primos físicos. Necesitamos corrección de errores cuánticos. Muchas de las partes físicas son reunidas y conducidas a ser más grandes que la suma de sus partes. Cuanto más qubits físicos usemos, mejor será el efecto. El ruido disminuye exponencialmente, hasta que podemos estar seguros de que no ocurrirá ni un solo error durante el cálculo.

Esto no está exento de costes. No debemos pensar en gastar unos pocos cientos de qubits físicos para construir uno solo lógico. Pero si esto significa alcanzar la promesa completa de computación cuántica, valdrá la pena.

El diseño más popular para la corrección de errores cuánticos es el código de superficie. Para el código de superficie más pequeño, se necesitan 17 qubits físicos. Éstos construirían un qubit lógico, pero no con la suficiente complejidad como para hacer algo con él.

Todavía no se ha logrado nada parecido. Para ver por qué, echemos un vistazo a lo que se necesitaría.

Esto es un código de superficie. Los 17 puntos, tanto blancos como negros, son los qubits físicos. Las 24 líneas coloreadas representan un cierto tipo de operación cuántica, la controlada-NO. Para cada par de salidas conectadas, esta operación debería ser posible realizarla de forma limpia y directa.

El principal desafío es conectar todos estos controles-NO. Tener 17 qubits en nuestro procesador cuántico no es suficiente. También necesitamos el conjunto de instrucciones para soportar esta red específica de procesos.

Tener un montón de qubits físicos en una línea son noticias viejas, dos líneas al lado de la otra también es factible. Pero la red 2D de conexiones necesarias para el código de superficie es mucho más difícil.
Aun así, Google promete esto y mucho más para finales de año. Prometieron una red de 7×7 de 49 qubits físicos. Esto sería un gran paso adelante en comparación con otros dispositivos, como la celosía IBM 2×8 de 16 qubits físicos.

El dispositivo IBM tiene suficiente conectividad para hacer un bit lógico a partir de qubits físicos. En los próximos meses harán cosas mucho más geniales, como es de esperar del dispositivo a la vanguardia de su campo. Pero hacer un qubit lógico no será uno de sus logros.

El hecho de que los 49 qubits de Google serán tan revolucionarios hace difícil creer que lo veremos antes de que acabe el año. Los hitos más realistas para este año son un dispositivo de 17 qubit de IBM, y uno de 20 qubit de Google. Ambos tienen suficientes qubits para empezar con el código de superficie. Pero, ¿tienen el diseño correcto? Sólo el tiempo lo dirá.

Quizá no tengamos que esperar mucho tiempo. John Martinis, el encargado de construir los dispositivos cuánticos de Google, dará una charla la próxima semana. El título…
Escalado de errores lógicos de medición con el código de superficie
Los códigos de superficie están en el radar de los gigantes tecnológicos. El primer qubit lógico del mundo se acerca. ¿Ya lo ha gestionado el dispositivo de 20 qubit de Google?

Ampliar en: HACKERMOON

IBM está modelando nueva IA a partir del cerebro humano

IBM está modelando nueva IA a partir del cerebro humano

Robots Atentos

Actualmente, las tecnologías de inteligencia artificial (IA) son capaces de exhibir rasgos aparentemente humanos. Algunos son intencionalmente humanoides, y otros realizan tareas que normalmente asociamos estrictamente con la humanidad – la composición de canciones, la enseñanza y el arte visual.

Pero a medida que el campo avanza, las empresas y los desarrolladores están replanteándose la base de la inteligencia artificial examinando nuestra propia inteligencia y cómo podríamos imitarla eficazmente utilizando maquinaria y software. IBM es una de estas compañías, ya que se han embarcado en la ambiciosa búsqueda de enseñar a AI a actuar más como el cerebro humano.

Muchos de los sistemas de aprendizaje de máquinas existentes se construyen en torno a la necesidad de extraer datos de conjuntos de datos. Ya sea que estén resolviendo problemas para ganar un juego de Go o identificando el cáncer de piel a partir de imágenes, esto a menudo sigue siendo cierto. Sin embargo, esta base es limitada y se diferencia del cerebro humano.

Nosotros, como humanos, aprendemos progresivamente. En pocas palabras, aprendemos sobre la marcha. Mientras que adquirimos el conocimiento para extraer a medida que avanzamos, nuestros cerebros se adaptan y absorben la información de manera diferente a como se construyen muchos sistemas artificiales existentes. Además, somos lógicos. Usamos las habilidades de razonamiento y la lógica para resolver problemas, algo que estos sistemas todavía no son fabulosos para lograr.

IBM está buscando cambiar esto. Un equipo de investigación en DeepMind ha creado una red neuronal sintética que supuestamente usa razonamiento racional para completar tareas.

Maquinaria Racional

Al dar a la IA múltiples objetos y una tarea específica,»estamos obligando explícitamente a la red a descubrir las relaciones que existen», dice Timothy Lillicrap, un informático de DeepMind en una entrevista con Science Magazine. En una prueba de la red realizada en junio pasado, se cuestionó sobre una imagen con múltiples objetos. A la red se le preguntó, por ejemplo:»Hay un objeto delante de la cosa azul; ¿tiene la misma forma que la pequeña cosa cian que está a la derecha de la bola de metal gris?»

En esta prueba, la red identificó correctamente el objeto un asombroso 96 por ciento de las veces, en comparación con el insignificante 42 a 77 por ciento que los modelos de aprendizaje de máquinas más tradicionales lograron. La red avanzada era también apta para los problemas de palabra y continúa siendo desarrollada y mejorada. Además de las habilidades de razonamiento, los investigadores están avanzando en la capacidad de la red para prestar atención e incluso crear y almacenar recuerdos.

El futuro del desarrollo de la IA podría acelerarse y expandirse enormemente mediante el uso de este tipo de tácticas, según Irina Rish, miembro del personal de investigación de IBM, en una entrevista con Engadget,»El aprendizaje en redes neuronales es típicamente diseñado y cuesta mucho trabajo crear una arquitectura específica que funcione mejor. Es más o menos un enfoque de ensayo y error… Sería bueno que esas redes se construyeran solas.»

Puede ser atemorizante pensar en la construcción y mejora de las redes de inteligencia artificial, pero si se monitorean, inician y controlan correctamente, esto podría permitir que el campo se expanda más allá de las limitaciones actuales. A pesar de los temores de una toma de control robótica, el avance de las tecnologías de IA podría salvar vidas en el campo médico, permitir a los humanos llegar a Marte, y mucho más.

Ampliar en: futurism

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa