admin

Categorías

Coobis

Física

Física

Detección cuántica no destructiva de un solo fotón

Actualidad Informática. Detección cuántica no destructiva de un solo fotón. Rafael Barzanallana. UMU

Albert Einstein recibió el Premio Nobel por explicar el efecto fotoeléctrico como un proceso de absorción y aniquilación de fotones. Todo detector de un solo fotón aniquila dicho fotón impidiendo medidas repetidas del mismo fotón. Parece imposible diseñar un detector no destructivo de fotones, sin embargo, Andreas Reiserer (Instituto Max Planck de Óptica Cuántica, Garching, Alemania) y dos colegas han logrado lo imposible gracias a acoplar el estado del fotón con un átomo de rubidio-87 atrapado en una cavidad óptica y medir dicho átomo para deducir la presencia del fotón o su ausencia mediante fluorescencia. El nuevo método tiene una eficiencia del 74%, que se puede incrementar utilizando medidas repetidas en sucesión sobre el mismo fotón (dos medidas subirían la eficiencia al 87% y tres medidas hasta el 89%). Se esperan muchas aplicaciones en metrología cuántica, computación cuántica, comunicación cuántica e incluso en la futura web cuántica. El artículo técnico es Andreas Reiserer, Stephan Ritter, Gerhard Rempe, “Nondestructive Detection of an Optical Photon,” Science, AOP 14 Nov 2013 (arXiv:1311.3625 [quant-ph]).

Ampliar en: La Ciencia de la Mula Francis

Antenofobia

Actualidad Informática. Antenofobia. Rafael Barzanallana. UMU

Ya está disponible la última entrega de Pensando Críticamente. En esta ocasión se entrevista a Alberto Nájera, ponente del Escépticos en el Pub del pasado fin de semana. Habla de la antenofobia, de la difícil situación de las personas que tienen una sitomatología que creen está causada por la radiación de emiten las antenas. Una conversación ciertamente didáctica.

Acceder desde el enlace Antenofobia

Nueve de noviembre, día del inventor en honor a Hedy Lamarr

Actualidad Informática. Nueve de noviembre, día del inventor en honor a Hedy Lamarr. Rafael Barzanallana. UMU

El día del inventor se conmemora el nueve de noviembre por ser el cumpleaños de Hedy Lamarr (registrada al nacer con el nombre Hedwig Eva Maria Kiesler), actriz de cine austríaca de los años 30 del pasado siglo. ¿Suena un poco extraño? ¿El día del inventor, conmemorado por el nacimiento de una actriz?

La historia de esta artista e inventora resulta tan fascinante. Hedy empezó a los 16 años sus estudios de ingeniería lo que, para la época, ya era bastante extraño. Si bien era considerada extremadamente inteligente, decidió dejar la carrera y dedicarse a la actuación. Con su talento y su belleza, logró conquistar a un magnate de la industria de las armas, con quien contrajo matrimonio teniendo sólo 19 años.

Hedy, que era totalmente consciente de su inteligencia, aprovechaba cada oportunidad que tenía de compartir con los colegas de su marido para observar y aprender. Y además, entre tanto magnate y cenas de negocios, conoció a figuras históricas como Hitler y Mussolini.

Pronto sería mundialmente famosa por la secuencia de la película comercial Éxtasis, en la que, por espacio de diez minutos, aparece completamente desnuda, primero al borde de un lago, y luego corriendo por la campiña checa. Por dicha escena se la conocería como la primera mujer en la historia del cine que apareciera desnuda en una película comercial.

El matrimonio se volvió tormentoso, y Hedy decidió huir a Estados Unidos a escondidas. Es allí donde tiene la oportunidad de retomar sus estudios de ingeniería, y donde su vida dará un vuelco para destacarse en un área completamente diferente.

Los conocimientos de armas y guerras que había obtenido de su esposo comenzaron a serle útiles: empieza a investigar sobre misiles y torpedos. Ella sabía que era difícil que países en guerra utilizaran misiles dirigidos por radio, ya que las señales de estos serían muy fáciles de interceptar. Resultaba demasiado riesgoso.

Y es aquí donde aparece la chispa, esa iluminación necesaria en la mente del inventor para saltar al estrellato. ¿Qué pasaría si dichas frecuencias pudieran modificarse continuamente? Se complicaría así muchísimo su intercepción.

Basándose en el diseño de una pianola, Hedy Lamarr inventó lo que sería el precursor del Espectro por salto de frecuencia, o una señal de radio que se transmite en forma de varias radiofrecuencias aleatorias, lo que hace que el enemigo que pudiese llegar a interceptar dichas señales sólo obtenga un ruido indescifrable. Después de algunos meses de trabajo, en 1942, Hedy y su nueva pareja, un músico estadounidense llamado George Antheil, obtuvieron la patente de su invención.

La tecnología diseñada por Hedy, que hoy se conoce como «Espectro ensanchado», se sigue utilizando en la actualidad para diversos aparatos electrónicos, de uso tanto militar como civil, principalmente en telecomunicaciones y transmisión de distintos tipos de datos.

Si bien Hedy Lamarr no logró pasar a la historia como una gran actriz, e incluso después de su incursión en la tecnología empezó a desaparecer y terminó su vida (murió el 19 de enero de 2000) de una forma más bien decadente (incluso fue sorprendida robando de tiendas), sin duda su legado ingenieril ha sido importantísimo para el desarrollo de las telecomunicaciones.

Fuente: esceptica

¿Existe algo totalmente impredecible en la naturaleza?

Actualidad Informática. ¿Existe algo totalmente impredecible en la naturaleza?. Rafael Barzanallana. UMU

Antonio Acín (ICFO/ICREA, Barcelona, ??España) y varios colegas responden a esta pregunta en un artículo en Nature Communications que presenta un protocolo cuántico para amplificar la aleatoriedad de los eventos naturales que sean aleatorios para hacerlos completamente aleatorios. El artículo no demuestra que estos eventos existan en la Naturaleza, pero introduce la siguiente dicotomía: o bien nuestro universo es completamente determinista, o bien existen eventos naturales que son totalmente aleatorios. Todo el mundo sabe que la física clásica es totalmente determinista (aunque el caos determinista limita su predictibilidad) y que la física cuántica permite lo aleatorio, aunque ello no implica la existencia de cualquier forma de aleatoriedad en la Naturaleza. El problema de distinguir entre (pseudo)aleatoriedad y aleatoriedad completa puede parecer de interés sólo para los filósofos, pero también es importante desde un punto de vista práctico, pues los bits aleatorios son útiles en muchas aplicaciones (protocolos criptográficos, juegos de azar o simulación numérica de sistemas físicos y biológicos). El artículo técnico es Rodrigo Gallego et al., “Full randomness from arbitrarily deterministic events,” Nature Communications 4: 2654, 30 Oct 2013 (arXiv:1210.6514 [quant-ph]).

En física clásica cualquier aleatoriedad observada un sistema es manifestación de nuestra descripción imperfecta de dicho sistema. En física cuántica todas las predicciones de los resultados de los experimentos se describen en términos probabilísticos (esto llevó a que físicos como Albert Einstein pensaran que es una descripción incompleta de la realidad). Sin embargo, los teoremas de no-go de John Bell implican que las teorías de variables ocultas (que explican la cuántica aludiendo a un mundo subcuántico clásico) son incompatibles con las predicciones de la mecánica cuántica. En concreto, todas las teorías de variables ocultas compatibles con una estructura causal local predicen correlaciones entre los eventos separados un intervalo de tipo espacio que satisfacen las llamadas desigualdades de Bell, pero estas desigualdades son violadas por algunas correlaciones entre partículas cuánticas. Estas correlaciones tienen su origen en la no-localidad de la física cuántica.

Artículo completo en: Francis (th)E mule Science’s News

 

Transistores sinápticos

Actualidad Informática. Transistores sinápticos. Rafael Barzanallana. UMU

No hace falta ser un Watson para darse cuenta de que incluso los mejores superordenadores del mundo son asombrosamente máquinas ineficientes y de alto consumo energético.

Nuestro cerebro tiene más de 86000 millones de neuronas, conectadas por sinapsis que no sólo completan circuitos lógicos innumerables, sino que continuamente se adaptan a los estímulos, mediante el fortalecimiento de algunas conexiones al tiempo que se debilitan las demás. Lo llamamos proceso de aprendizaje, y permite el tipo de procesos computacionales rápidos y altamente eficientes que dan vergüenza a Siri y Blue gene

Los científicos de materiales en la Escuela de Ingeniería y Ciencias Aplicadas (SEAS) de Harvard han creado un nuevo tipo de transistor que imita el comportamiento de una sinapsis. El nuevo dispositivo modula simultáneamente el flujo de información en un circuito y se adapta físicamente a los cambios de señales.

La explotación de las propiedades inusuales de materiales modernos, en el transistor sináptico podría marcar el comienzo de un nuevo tipo de inteligencia artificial: no con algoritmos inteligentes sino mediante la propia arquitectura de un ordenador. Los hallazgos aparecen en la revista Nature Communications.

«Hay un interés extraordinario en la construcción de electrónica de bajo consumo en estos días», dice el investigador principal Shriram Ramanathan, profesor asociado de ciencias de los materiales en SEAS, Harvard. «Históricamente, las personas se han concentrado en la velocidad, pero con la velocidad viene la  disipación de energía. Con la electrónica cada vez más poderosa y omnipresente, podría tener un gran impacto al reducir la cantidad de energía que consumen.»

La mente humana, con toda su potencia de cálculo fenomenal, se ejecuta con aproximadamente 20 vatios de energía (menos de una bombilla del hogar), por lo que ofrece un modelo natural para los ingenieros.

«Hemos demostrado que es realmente análogo de la sinapsis en el cerebro», dice el coautor principal Jian Shi, un becario postdoctoral en SEAS. «Cada vez que una neurona inicia una acción y otra neurona reacciona, la sinapsis entre ellas aumenta la fuerza de su conexión. Y a más rapidez del pico de neuronas cada vez, más fuerte será la conexión sináptica. Esencialmente, se memoriza la acción entre las neuronas.»

En principio, un sistema de integración de millones de diminutos transistores y terminales sinápticas neuronales podría llevar la computación paralela a una nueva era de alto rendimiento ultraeficiente.

Mientras que los iones de calcio y los receptores efectuan un cambio en una sinapsis biológica, la versión artificial logra la mismo plasticidad con iones de oxígeno. Cuando se aplica un voltaje, estos iones se deslizan dentro y fuera de la red cristalina de una película muy delgada (80 nanómetros) de niquelato de samario, que actúa como el canal de sinapsis entre dos terminales de platino «dendrita» «axón» y. La concentración variable de iones en el niquelato aumenta o disminuye su conductancia – es decir, su capacidad para transportar información en una corriente eléctrica – y, al igual que en una sinapsis natural, la fuerza de la conexión depende del retardo de tiempo en el señal eléctrica.

Estructuralmente, el dispositivo consiste en el semiconductor  de niquelato intercalado entre dos electrodos de platino y adyacente a un pequeño depósito de líquido iónico. Un circuito externo multiplexor  convierte el tiempo de retardo en una magnitud de tensión que se aplica al líquido iónico, la creación de un campo eléctrico impulsa los iones ya sea hacia el niquelato o los elimina. Todo el dispositivo, sólo unos cientos de micrones de largo, está integrado en un chip de silicio.

El transistor sináptico ofrece varias ventajas inmediatas sobre los transistores de silicio tradicionales. Para empezar, no se limita al sistema binario de unos y ceros.

«Este sistema cambia su conductancia de una manera analógica, de forma continua, como la composición del material cambia,» explica Shi. «Sería bastante difícil de usar CMOS, la tecnología de circuitos tradicionales, para imitar una sinapsis, porque las sinapsis biológicas reales tienen un número prácticamente ilimitado de posibles estados, no sólo on u off.

El transistor sináptico ofrece otra ventaja: la memoria no volátil, lo que significa que incluso cuando se interrumpe la alimentación, el dispositivo recuerda su estado.

Además, el nuevo transistor es inherentemente eficiente con la energía. El niquelato pertenece a una clase inusual de materiales, llamado sistemas de electrones correlacionados, que pueden sufrir una transición aislante-metal. A una cierta temperatura – o, en este caso, cuando se expone a un campo externo – la conductancia del material cambia de repente.

«Aprovechamos la extrema sensibilidad de este material», dice Ramanathan. «Una muy pequeña excitación le permite obtener una señal grande, por lo que la energía de entrada necesaria para impulsar este cambio es potencialmente muy pequeña. Eso podría traducirse en un gran impulso a la eficiencia energética.»

El sistema niquelato también está bien posicionada para una perfecta integración en los sistemas basados ??en silicio existentes.

«En este trabajo se demuestra la operación a alta temperatura, pero la belleza de este tipo de dispositivo es que el comportamiento del» aprendizaje «es más o menos insensible a la temperatura, y eso es una gran ventaja», dijo Ramanathan.»Podemos operar en cualquier lugar entre la temperatura ambiente hasta por lo menos 160 Celsius.»

Por ahora, las limitaciones se refieren a los desafíos de la síntesis de un sistema de material relativamente inexplorada, y para el tamaño del dispositivo, lo que afecta a su velocidad. «En nuestro dispositivo de prueba de concepto, la constante de tiempo está realmente establecido por nuestra geometría experimental», dijo Ramanathan. «En otras palabras, hacer realmente un dispositivo súper rápido, lo único que tendría que hacer es limitar el líquido y colocar el electrodo de puerta más cerca de él.»

De hecho, Ramanathan y su equipo ya están planeando, con expertos de microfluidos en SEAS, para investigar las posibilidades y los límites de este «ultimate fluidic transistor

También cuenta con una subvención de la Academia Nacional de Ciencias para explorar la integración de transistores en los circuitos sinápticos bioinspirados, con L. Mahadevan, profesor  Lola England de Valpine de Matemática Aplicada,  de biología organicista y evolucionista y profesor de física.

«En SEAS es muy emocionante  establecer que somos capaces de colaborar fácilmente con personas de intereses muy diversos», dice Ramanathan.

Para el científico de materiales, mucha curiosidad deriva de la exploración de las capacidades de los óxidos correlacionados (como el niquelato utilizado en este estudio) a partir de las aplicaciones posibles.

«Hay que crear nuevos instrumentos para poder sintetizar estos nuevos materiales, pero una vez que eres capaz de hacer eso, de verdad tienes un sistema completamente nuevo de material cuyas propiedades son prácticamente inexploradas», dice Ramanathan. «Es muy emocionante tener esos materiales para trabajar, que se sabe muy poco sobre ellos y se tiene la oportunidad de construir conocimiento a partir de cero.»

Esta investigación fue financiada por la National Science Foundation (NSF), Army Research Office’s Multidisciplinary University Research Initiative, y la Air Force Office of Scientific Research..El equipo también se benefició de las instalaciones del Centro de Harvard para sistemas de nanoescala, miembro de la Red de Infraestructura Nacional de Nanotecnología apoyado por la NSF. Sieu D. Ha, un becario postdoctoral en SEAS, fue el coautor principal, coautores adicionales incluyen estudiante graduado Usted Zhou y Frank Schoofs, un exestudiante postdoctoral.

Fuente: Jian Shi, Sieu D. Ha, You Zhou, Frank Schoofs, Shriram Ramanathan. A correlated nickelate synaptic transistor.Nature Communications, 2013; 4 DOI: 10.1038/ncomms3676

Teleportación cuántica de fotones

Actualidad Informática. Teleportación cuántica de fotones. Rafael Barzanallana. UMU

Gracias a una tecnología híbrida, es posible realizar una transmisión muy fiable de bits cuánticos fotónicos, como se ha demostrado en un experimento cuyos resultados han sido analizados cuidadosamente.Mediante el entrelazamiento cuántico de campos de luz separados en el espacio, unos investigadores japoneses y alemanes han conseguido teleportar qubits (bits cuánticos) fotónicos con notable fiabilidad. Esto significa que se ha logrado dar un paso decisivo una década y media después de los primeros experimentos en el campo de la teleportación óptica. El éxito del experimento llevado a cabo en la ciudad japonesa de Tokio es atribuible al uso de una técnica híbrida en la cual se han combinado dos enfoques tecnológicos conceptualmente distintos y que antes se consideraban del todo incompatibles.En la teleportación cuántica se transfieren estados cuánticos arbitrarios desde un emisor, a quien aquí podemos referirnos como Isabel, hasta un receptor, a quien podemos llamar Miguel, que está alejado en el espacio. Esto requiere que Isabel y Miguel inicialmente compartan un estado de entrelazamiento cuántico a través del espacio que les separa, un entrelazamiento cuántico que puede por ejemplo estar en la forma de fotones entrelazados cuánticamente.

La teleportación cuántica es de importancia fundamental para el procesamiento de información cuántica (la base de la computación cuántica) y la comunicación cuántica. Los fotones son particularmente valiosos como portadores de información ideales para la comunicación cuántica, ya que se les puede usar para transmitir señales a la velocidad de la luz. Un fotón puede representar un bit cuántico, al que se llama abreviadamente «qubit» y que es comparable a un dígito binario (bit) de un sistema clásico de procesamiento de información.

Los primeros intentos de teleportar fotones (partículas de luz) individuales fueron realizados por el físico austriaco Anton Zeilinger. Desde entonces, se han realizado varios experimentos relacionados con este concepto. Sin embargo, la teleportación de bits cuánticos fotónicos utilizando métodos convencionales ha demostrado tener limitaciones debido a deficiencias experimentales y dificultades con principios fundamentales.

En la teleportación cuántica determinista de un bit cuántico fotónico, cada qubit que vuela desde la izquierda y hacia dentro del teleportador, sale de éste por el lado derecho y con una pérdida de calidad de tan sólo un 20 por ciento, un valor que no se puede alcanzar bajo condiciones clásicas, o sea sin entrelazamiento cuántico.
Lo que hace que el experimento realizado en Tokio sea tan diferente es el uso de una técnica híbrida. Con su ayuda se ha logrado la teleportación cuántica completamente determinista, y de fiabilidad bastante buena, de qubits fotónicos. La precisión de la transferencia fue de entre un 79 y un 82 por ciento para cuatro qubits diferentes. Además, se teleportaron los qubits con una eficiencia mucho mayor que en experimentos anteriores, incluso con un grado bajo de entrelazamiento cuántico.El concepto de entrelazamiento cuántico fue formulado por primera vez por Erwin Schrödinger, y describe una situación en la que dos sistemas cuánticos, como por ejemplo dos partículas de luz, están en un estado conjunto, por lo que sus comportamientos son mutuamente dependientes a un nivel mayor del que es posible normalmente (bajo condiciones clásicas). En el experimento de Tokio, se consiguió el entrelazamiento continuo mediante la estrategia de entrelazar muchos fotones en «parejas». Los experimentos previos sólo tuvieron un fotón entrelazado cuánticamente con otro fotón, una solución menos eficiente.»El entrelazamiento de fotones funcionó muy bien en el experimento realizado en Tokio, prácticamente al pulsar un botón, tan pronto como el láser se encendía», destaca el profesor Peter van Loock de la Universidad Johannes Gutenberg en Maguncia, Alemania. Como físico teórico, van Loock asesoró a los físicos experimentales del equipo de investigación dirigido por el profesor Akira Furusawa, de la Universidad de Tokio, sobre cómo podían realizar más eficientemente el experimento de teleportación para poder lograr el éxito de la teleportación cuántica. Este entrelazamiento continuo se logró con la ayuda de «luz comprimida».

Fuente: resolviendo.co

El vacío proporciona un terreno sólido para la nueva definición del kilogramo

Actualidad Informática. kg patrón. Rafael Barzanallana. UMU

De todas las unidades estándar actualmente en uso en todo el mundo, el kilogramo – la unidad oficial de la masa en el Sistema Internacional de Unidades (SI) – es el único que todavía se basa en un objeto físico para su definición. Sin embargo, la revisión de esta definición obsoleta requerirá mediciones  precisas que los investigadores aún no son capaces de hacer, dijo Patrick Abbott, del Instituto Nacional de Estándares y Tecnología (NIST) de Gaithersburg (EE.UU.), Md. Abbott presentará una visión general de los esfuerzos actuales en la tecnología del vacío para redefinir el kilogramo en el 60º AVS International Symposium and Exhibition, que se celebró del 27 de octubre al uno de noviembre de 2013, en Long Beach, California.

Abbott también describirá el desarrollo de su equipo del NIST de un nuevo sistema para permitir una comparación directa de un objeto que está siendo intervenido en el vacío a uno fuera de un vacío. «El nuestro es el único proyecto de su tipo en el mundo», dijo Abbott , «y creemos que será fundamental en la difusión precisa del kilogramo redefinido.»

El kilogramo oficial, llamado el Kilogramo Prototipo Internacional (IPK), se almacena en una oficina en las afueras de París, Francia, y ha servido como el estándar al que kilogramos prototipos de todas las naciones se han comparado en los últimos 125 años. Cada pocas décadas, los prototipos nacionales se realizan, por lo general a mano, a Francia, donde se miden contra el IPK. Sin embargo, las discrepancias entre los prototipos nacionales y el modelo oficial han estado aumentando a un ritmo de 0.050 miligramos (mg) cada 100 años. Y nadie sabe por qué.

«En realidad no es claro si el IPK es cada vez más ligero o los prototipos nacionales son cada vez más pesados», dijo Abbott. La pérdida de masa debida al desgaste es poco probable debido a que el IPK casi nunca se saca de su urna. Para hacer frente a estas discrepancias, una asamblea internacional de metrología – los investigadores que estudian la ciencia de la medición – decidió en 2007 dejar de depender del prototipo y redefinir el kilogramo utilizando algo más fiable: una constante de la naturaleza.

Los metrólogos finalmente eligieron la constante de Planck, que describe la relación entre la energía de un fotón y la frecuencia de la luz que emite. Su valor se ha medido con una incertidumbre relativa de entre 30×10^?9 y 35×10^-9. Sin embargo, para asegurar el acuerdo entre el sistema actual y el kilogramo definido en base a la constante de Planck, los investigadores tendrán que mejorar sus mediciones a una incertidumbre relativa de 20×10^-9.Y para obtener mejores mediciones, tendrán la capacidad de realizar la metrología «estado del arte» en el vacío.

Actualmente, los investigadores utilizan dos tipos de experimento para medir la constante de Planck, y ambos requieren vacío. Un método implica la determinación del número de átomos en una esfera de silicio de alta pureza con una masa nominal de un kilogramo. La otra, llamada la balanza watt, mide la constante de una comparación indirecta o «virtual» de energía mecánica a la energía electromagnética. El uso de vacío asegura que no hay contaminación de partículas en el aire y reduce la incertidumbre en algunas de las mediciones que se llevan a cabo con la interferometría láser.

Los investigadores que utilizan el experimento balanza watt en los institutos nacionales de medición alrededor del mundo están trabajando para encontrar los materiales más adecuados para la medición de la constante de Planck con este método. También se está trabajando para encontrar un nivel de vacío que sea lo suficientemente bueno para obtener resultados sin ser demasiado difícil de construir y mantener. Hasta ahora, los investigadores están en condiciones de tener una nueva definición del kilogramo en 2018, dijo Abbott.

Mientras que muchos equipos de todo el mundo trabajan para mejorar las mediciones de la constante de Planck, el grupo de Abbott está mirando más allá de la redefinición y hacia la realización práctica de estas mediciones.

«Cada vez que se produce la redefinición, se requerirá un método robusto para difundir el kilogramo realizado en el vacío a un mundo que funciona en el aire», dijo Abbott. Su grupo trabaja en la creación de un sistema para cerrar la interfaz de vacío /aire usando una técnica de suspensión magnética. La puesta en marcha permitirá una comparación directa entre la masa de un kilogramo estándar en el vacío y la masa de una muestra en la atmósfera de una habitación normal.

Esto se basa en los materiales proporcionados por Instituto Americano de Física , a través de Newswise.


Ordenadores cuánticos, la confianza es buena y la prueba es mejor

Actualidad Informática. Ordenadores cuánticos, la confianza es buena y la prueba es mejor. Rafael Barzanallana. UMU

Un ordenador cuántico puede resolver tareas en las que falla un ordenador clásico. La cuestión de cómo se puede, sin embargo, comprobar la fiabilidad de una computadora cuántica fue respondida recientemente en un experimento en la Universidad de Viena. Las conclusiones se publican en la revista científica Nature Physics.

El aprovechamiento de los fenómenos cuánticos, como la superposición y el entrelazamiento, representa una gran promesa para construir futuros superordenadores utilizando la tecnología cuántica. Una gran ventaja de este tipo de ordenadores cuánticos es que son capaces de realizar una variedad de tareas mucho más rápido que sus homólogos convencionales. El uso de los ordenadores cuánticos para estos fines plantea un reto importante: ¿cómo se pueden verificar los resultados proporcionados por un ordenador cuántico?

Solo recientemente los desarrollos teóricos han proporcionado métodos para poner a prueba un ordenador cuántico sin tener un ordenador cuántico adicional a mano. Un equipo de investigación internacional en torno a Philip Walther en la Universidad de Viena ha demostrado ahora un protocolo nuevo, donde los resultados computacionales cuánticos pueden ser verificadas sin necesidad de utilizar los recursos informáticos cuánticos adicionales.

Trampas para un ordenador cuántico

Con el fin de probar los ordenadores cuánticos los científicos insertaron «trampas» en las tareas. Las trampas son cálculos intermedios cortos de los que el usuario sabe el resultado de antemano. En caso de que el ordenador cuántico no haga su trabajo correctamente la trampa entrega un resultado que difiere del esperado. «De esta manera, el usuario puede verificar el grado de fiabilidad del ordenador cuántico y si realmente lo es», explica Elham Kashefi (Edimburgo) y Joseph Fitzsimons (Singapur),  coautores del artículo. Los más trampas que el usuario se basa en las tareas que el mejor, el usuario puede estar seguro de que el ordenador cuántico hecho, calcula con precisión.

«Hemos diseñado la prueba, de tal manera que el ordenador cuántico no puede distinguir la trampa de sus tareas normales», dice Stefanie Barz (Viena), primer autor del estudio. Este es un requisito importante para garantizar que el ordenador cuántico no es capaz de ajustar el resultado de la prueba. Los investigadores también probaron si el ordenador cuántico realmente recurre a los recursos cuántica. De esta manera, pueden asegurarse de que incluso un ordenador cuántico maliciosamente construido no puede engañar y aceptar resultados erróneos.

Aplicación de la idea con fotones

Para esta primera demostración, los investigadores utilizaron una computadora cuántica óptica, donde las partículas de luz individuales, llamadas fotones, llevan la información. El protocolo demostrado es genérico, pero los ordenadores cuánticos ópticos parece que son ideales para esta tarea. La movilidad de los fotones permite una fácil interacción con el ordenador cuántico. Philip Walther es optimista sobre las perspectivas planteadas por este experimento que muestra mecanismos de control prometedores para futuros ordenadores cuánticos. Y, por otra parte, que podría conducir a nuevas herramientas para sondear los recursos más complejos de la cuántica.

Fuente: Stefanie Barz, Joseph F. Fitzsimons, Elham Kashefi, Philip Walther. Experimental verification of quantum computation. Nature Physics, 2013; DOI:10.1038/nphys2763

La revolucion cuantica documental de Michio Kaku

Discos basados en grafeno

Actualidad Informática. Discos basados en grafeno. Rafael Barzanallana. UMU

Investigadores  de Swinburne University of Technology han demostrado el potencial de un nuevo material para lograr el almacenamiento óptico de la información de forma segura.

En su más reciente artículo de investigación publicado en Scientific Reports, los investigadores Xiangping Li Qiming Zhang, Xi Chen y el profesor Min Gu demostraron el potencial para registrar codificación holográfica en un compuesto de polímero.

«Tradicionalmente, la información se registra como datos binarios en un disco. Si el disco se rompe, la información no se puede recuperar», afirmó el Director del Centro de Micro-Fotónica de Swinburne, el profesor Min Gu. «Este es un importante costo de operación de los centros de datos grandes, que se componen de miles de conjuntos de discos con múltiples copias físicas de los datos El nuevo material permite el desarrollo de super-discos, lo que permitirá a la información ser recuperada, incluso de piezas dañadas.»

El óxido de grafeno es similar al grafeno, descubierto por Andre Geim y Konstantin Novoselov, que recibieron el Premio Nobel 2010 de Física por este descubrimiento revolucionario. El grafeno es muy fuerte, ligero, flexible, casi transparente, y es un excelente conductor del calor y electricidad.  El óxido de grafeno tiene propiedades similares, pero también presenta una propiedad fluorescente fundamental que se puede utilizar en bioimagen y para la grabación óptica multimodo.

Al enfocar  pulsos ultracortos de un haz láser en el polímero de óxido de grafeno, los investigadores crearon un aumento 10-100 veces en el del óxido de grafeno junto con una disminución en su fluorescencia. (El índice de refracción es la medida de la desviación de la luz a medida que pasa a través de un medio.)

«El hecho único de la modulación del índice de refracción gigante, junto a la propiedad de fluorescencia del polímero de óxido de grafeno ofrecen un nuevo mecanismo para la grabación óptica multimodo», dijo el profesor Gu.

Para demostrar la viabilidad de este mecanismo, los investigadores codificaron la imagen de un canguro en un holograma generado por ordenador. Después, el holograma se representa como una grabación en tres dimensiones para el polímero de óxido de grafeno. Los patrones codificados en el holograma no podían ser vistos como una imagen de microscopio normal, pero se pudo recuperar en el modo de difracción.

«El índice de refracción gigante de este material se muestra prometedor para la fusión de almacenamiento de datos con la holografía de para la  codificación segura», dijo el profesor Gu.

«Esta característica interesante no sólo aumenta el nivel de seguridad de almacenamiento, sino que también ayuda a reducir los costos de operación de los centros de datos grandes que dependen de múltiples copias físicas para evitar la pérdida de datos».

Los investigadores afirman que también podría revolucionar la televisión de pantalla plana y tecnología de células solares. «Más importante aún, el grafeno se ha considerado como un reemplazo revolucionario para el silicio, que es la plataforma de tecnologías de la información actuales basados en la electrónica», dijo el Dr. Xiangping Li.

«El índice de refracción gigante descubrimos muestra la promesa del para fusionar la electrónica y la fotónica para la plataforma de la próxima generación de tecnologías de la información. »

Ampliar en:

Fotónica: El grafeno permite detectores de luz en un chip

Nature

 

 

Rafael Barzanallana

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa