Física
Física
Investigadores del Grupo ICN2, en la Universitat Autònoma de Barcelona, realizaron un trabajo internacional, publicado por la revista Nature Nanotechnology, informando que ha producido el primer sistema integrado flexoeléctrico microelectromecánico (MEMS) en silicio.
La revolución de la informática es sinónimo de la búsqueda tradicional de empacar más chips y aumentar la potencia de cálculo. Esta búsqueda se materializa en la famosa «ley de Moore», que predice que el número de transistores por chip se duplica cada dos años y ha sido cierta por muy largo tiempo. Sin embargo, como la ley de Moore se acerca a su límite, una búsqueda en paralelo se está convirtiendo cada vez más importante. Esta última misión es apodada «más de Moore», y su objetivo es añadir nuevas funcionalidades (no sólo a los transistores) dentro de cada chip mediante la integración de materiales inteligentes en la parte superior de la base de silicio ubicua e indispensable.
Entre estos llamados materiales inteligentes, los piezoeléctricos se destacan por su capacidad para convertir una deformación mecánica en una tensión (que puede ser utilizada para captar energía para alimentar a la batería) o, a la inversa, generar una deformación cuando se les aplica un voltaje (que se puede utilizar, por ejemplo, en los ventiladores piezoeléctricos para enfriar el circuito). Sin embargo, la integración de la piezoelectricidad con tecnología de silicio es extremadamente difícil. La gama de materiales piezoeléctricos para elegir es limitada, y los mejores piezoeléctricos son todos los materiales ferroeléctricos basados en plomo, y su toxicidad plantea serias preocupaciones. Además, sus propiedades piezoeléctricas son fuertemente dependientes de la temperatura, lo que dificulta su implementación en el entorno caliente de un procesador de un ordenador, cuya temperatura de la unión puede alcanzar hasta 150 C.
Existe, sin embargo, otra forma de acoplamiento electromecánico que permite a un material polarizarse en respuesta a una flexión mecánica, y por el contrario, se dobla en respuesta a un campo eléctrico. Esta propiedad se llama «flexoelectricidad,» y aunque se conoce desde hace casi medio siglo, se ha ignorado en gran medida debido a que es un efecto relativamente débil de poca importancia práctica a macroescala. Sin embargo, en la nanoescala, la flexoelectricidad puede ser igual o superior que la piezoelectricidad; esto es fácil de entender si tenemos en cuenta que es muy difícil la flexión de algo grueso, pero doblar algo delgado es muy fácil. Además, la flexoelectricidad ofrece muchas propiedades deseables: es una propiedad universal de todos los dieléctricos, lo que significa que no se necesita usar materiales a base de plomo tóxico, y la flexoelectricidad es más lineal e independiente de la temperatura de la piezoelectricidad de un ferroeléctrico.
Investigadores del Instituto Catalán de Nanociencia y Nanotecnología (ICN2), un centro de investigación galardonado como Centro de Excelencia Severo Ochoa en el Campus de la Universidad Autónoma de Barcelona (UAB), en colaboración con la Universidad de Cornell (EE.UU.) y la Universidad de Twente (Países Bajos), han logrado producir el primer sistema del mundo integrado flexoeléctrico microelectromecánico (MEMS) en silicio. Han encontrado que, a nanoescala, se mantienen los atributos deseables de la flexoelectricidad, mientras que la figura de mérito (curvatura de flexión dividido entre campo eléctrico aplicado) de su primer prototipo ya es comparable al de los mejores piezoeléctricos bimorfos. Además, la universalidad de la flexoelectricidad implica que todos los materiales dieléctricos que actualmente se utilizan en la tecnología de transistores también deben ser flexoeléctricos, proporcionando así una ruta elegante a la integración de funcionalidades «inteligentes» electromecánicas dentro de la tecnología de transistores ya existente.
Un papel fabricado con óxido de grafeno cambia de forma ante distintos estímulos (puede incluso “caminar” por una superficie lisa e incluso girar) y podría ser la puerta a nuevos dispositivos inteligentes. Al exponer el material a luz o cuando se calienta ligeramente este material activo se pliega y permite desarrollar sistemas flexibles que cambian de forma. Se cree que podría ser usado en ropa inteligente capaz de cambiar de forma (y de estilo) como respuesta a la temperatura corporal, o a los cambios ambientales. También podría permitir desarrollar paneles solares que se orienten hacia la posición del Sol. O incluso músculos artificiales para robots, sensores capaces de activar dispositivos de seguridad, etc.
El artículo es Jiuke Mu et al., “Origami-inspired active graphene-based paper for programmable instant self-folding walking devices,” Science Advances 01: e1500533, 06 Nov 2015, doi: 10.1126/sciadv.1500533.
Más información divulgativa en César Tomé (Próxima), “Un material inteligente cargado de ideas,” Next, Voz Pópuli, 11 Nov 2015; Mª Victoria S. Nadal, “Un papel de grafeno se mueve y camina solo gracias a la luz y al calor,” Materia, El País, 12 Nov 2015; Sarah Romero, “Mini robots origami hechos con papel de grafeno,” Muy Interesante, 12 Nov 2015.
Ampliar en: La Ciencia de la Mula Francis
Un equipo internacional de físicos ha publicado una investigación innovadora sobre la descomposición de las partículas subatómicas llamadas kaones (mesones K) – que podría cambiar la forma en la que los científicos a entienden la formación del universo. Nicolas Garron, investigador en el Centre of Mathematical Sciences, ha ayudado a diseñar el primer cálculo teórico de cómo el comportamiento de los kaones difiere cuando la materia – cualquier cosa con masa, como el mundo que nos rodea – se intercambia por antimateria – hecha de partículas similares con carga opuesta.
El cálculo del decaimiento de los kaones se llevó a cabo en supercomputadoras, cuyos cálculos habrían tardado 200 M de horas de procesamiento en un ordenador portátil. La velocidad a la que decaen los kaones destaca que a pesar de ser prácticamente idénticos, existe una asimetría entre materia y antimateria. Esto es clave para la comprensión de los físicos del universo, ya que está actualmente aceptado que el universo fue «creado» con partes iguales de materia y antimateria, y, actualmente la materia ha sobrepasado a su contraparte negativa, los dos conjuntos de partículas deben de haberse comportado de manera diferente – por leve que fuera la diferencia.
El trabajo de un Premio Nobel, que se remonta a 1964 mostró por primera vez que la materia y la antimateria son asimétricas, un concepto conocido como violación indirecta CP. En el 2000, se pudo descubrir violación CP directa – un pequeño efecto, que sólo afecta a unas pocas partículas de entre un millón. Ahora,según la investigación publicada, se ha reducido el cálculo aún más, por lo que es la primera predicción teórica de su tipo – en lugar de experimental.
En la actualidad, los resultados experimentales son consistentes con el cálculo teórico. Pero, con el camino ahora listo para para establecer aún más claramente la exactitud del cálculo, se espera que los resultados experimentales pueden no ajustarse a la predicción teórica – lo que significaría que un nuevo mecanismo debe ser responsable de la preponderancia de la materia.
«Los físicos han estado esperando durante más de 40 años este tipo de avance«, dijo Garron. «Suena extraño, pero estamos buscando que el cálculo teórico no coincida con los resultados experimentales, ya que esto significa que hay más en la conducta de estas partículas y nunca lo hemos entendido. El cálculo está en curso con una precisión que está aumentando rápidamente, dejando la posibilidad de que la evidencia de fenómenos nuevos, no descritos por nuestra teoría, sin embargo, puedan ser descubiertos«.
El superordenador en el que se llevó a cabo la investigación se encuentra en diversas instituciones en el Reino Unido y en EE.UU.. El mes pasado, la Universidad de Plymouth acordó una importante actualización de las instalaciones de computación, la mejora de la actual potencia de cálculo por aproximadamente un factor de diez.
«También somos parte de un consorcio de grupos de investigación y compartimos nuestros recursos con Cambridge, Edimburgo, Glasgow, Liverpool, Oxford, Southampton, y las universidades de Swansea. Este es un programa nacional llamado Dirac, que apoya la física de partículas, la astronomía y la cosmología, y ha recibido 15 millones de £ desde 2011. Esta investigación sobre la asimetría materia-antimateria, que desafía seriamente nuestra comprensión actual de la física de partículas, no habría sido posible sin instalaciones de supercomputación«.
Dr. Nicolás Garron es investigador en el Centre of Mathematical Sciences, en la School of Computing, Electronics and Mathematics at Plymouth University.
El trabajo de investigación, titulado Standard Model Prediction for Direct CP Violation in K Decay, ya está disponible para ver en la revista Physical Review Letters.
Tras su uso en algunos televisores de gama alta como por ejemplo Sony, los puntos cuánticos preparan su llegada a los sensores fotográficos. El primero comercializado es de 13 megapíxeles y estará disponible el próximo año.
Actualmente los sensores más comunes en fotografía digitalmóvil son los conocidos como CMOS, tecnología basada en semiconductores de silicio. Gracias a los avances que ha conseguido la empresa InVisage es probable que comiencen a extenderse en las cámaras fotográficas los resultados de sus investigaciones, los sensores de puntos cuánticos, tecnología ya disponible en algunos televisores como por ejemplo Sony. No se trata de mostrar colores y luz, sino de captarlos, tarea más complicada electrónicamente hablando.
La diferencia reside en el proceso de captura y en las características de las nanopartículas, mientras que el resto del dispositivo es similar. En teoría las ventajas que InVisage ha mostrado deberían dar lugar a avances significativos en aspectos fotográficos muy relevantes, como en el rango dinámico y en captación de luz con escenas poco iluminadas. Además, también se mejora la toma de objetos en caos de mucho movimiento.
Investigadores financiados por la Fundación Nacional de Ciencia de Suiza han creado un nuevo componente electrónico que podría reemplazar el almacenamiento flash. Este dispositivo denominado memristor podría utilizarse también para nuevos tipos de equipos.
Dos gigantes de las TIC, Intel y HP, han entrado en una carrera para producir una versión comercial de memristores, un nuevo componente de la electrónica que podría reemplazar algún día a la memoria flash (DRAM) usada en dispositivos de memoria USB, tarjetas SD y discos duros SSD. «Básicamente, los memristores requieren menos energía ya que trabajan con tensiones más bajas«, explica Jennifer Rupp, profesor en el Departamento de Materiales en la ETH Zurich . «Se pueden hacer mucho más pequeños que los módulos de memoria actuales, y por lo tanto ofrecen mucha mayor densidad. Esto significa que pueden almacenar más megabytes de información por milímetro cuadrado.» Pero actualmente los memristores tan solo están en la fase de prototipo.
Computación menos rígida
Junto con su colega químico Markus Kubicek, Jennifer Rupp ha construido un memristor basado en una lámina de perovskita de solo cinco nanómetros de espesor. Y lo interesante es que ha demostrado que el componente tiene tres estados resistivos estables. Como resultado, no sólo puede almacenar el 0 o 1 de un bit estándar, sino también puede ser utilizado para la información codificada por tres estados – el 0, 1 y 2 de un «trit». «Nuestro componente podría por lo tanto también ser útil para un nuevo tipo de TIC que no se base en la lógica binaria, sino en una lógica que proporciona información situada» entre «el y el 1,» continúa Jennifer Rupp. «Esto tiene implicaciones interesantes para lo que se conoce como la lógica difusa, que busca incorporar una forma de incertidumbre en el tratamiento de la información digital. Usted podría describir como la computación menos rígida«.
Otra aplicación potencial es la computación neuromórfica, cuyo objetivo es utilizar componentes electrónicos para reproducir la forma en que las neuronas en el cerebro procesan la información. «Las propiedades de un memristor en un punto dado en el tiempo dependen de lo que ha sucedido antes«, explica Jennifer Rupp. «Esto imita el comportamiento de las neuronas, que sólo transmitir la información una vez que se ha alcanzado un umbral de activación específica«.
En primer lugar, los investigadores de ETH Zurich han caracterizado en gran detalle las formas en las que el componente funciona, mediante la realización de estudios electroquímicos. «Hemos sido capaces de identificar a los portadores de carga eléctrica y entender su relación con los tres estados estables«, explica el investigador. «Este es un conocimiento extremadamente importante para la ciencia de materiales que serán útiles en el perfeccionamiento de la forma en el almacenamiento y operar en la mejora de su eficiencia«.
El cuarto componente
El principio del memristor fue descrito por primera vez en 1971, como el cuarto componente básico de los circuitos electrónicos (junto a resistencias, condensadores e inductancias). Desde la década de 2000, los investigadores han sugerido que ciertos tipos de memoria resistiva podrían actuar como memristores.
Ampliar información en: Memristor chip could lead to faster, cheaper computers
Más información:
El descubrimiento de un campo magnético ‘zurdo’ que impregna el universo podría ayudar a explicar un misterio en pie desde hace tiempo – la ausencia de antimateria cósmica. Los planetas, estrellas, gas y polvo interestelar están casi completamente formados de materia «normal» del tipo que conocemos en la Tierra. Pero la teoría predice que debe haber una cantidad similar de antimateria, como la materia normal, pero con la carga opuesta. Por ejemplo, un antielectrón (un positrón) tiene la misma masa que su homólogo convencional, pero un positivo en lugar de carga negativa.
En 2001 Tanmay Vachaspati en la Universidad Estatal de Arizona (EE.UU.) publicó modelos teóricos para tratar de resolver este rompecabezas, que predicen que el universo entero está lleno de campos magnéticos (helicoidales, en forma de tornillo). Él y su equipo se inspiraron para buscar evidencia de estos campos en los datos del telescopio espacial de la NASA, Fermi de Rayos Gamma (FGST).
Lanzado en 2008, detecta rayos gamma (radiación electromagnética con una longitud de onda más corta que los rayos X) de fuentes muy distantes, como los agujeros negros supermasivos que se encuentran en muchas de las grandes galaxias. Los rayos gamma son sensibles al efecto del campo magnético mientras que viajan a través de un largo camino a la Tierra. Si el campo es helicoidal, se imprimirá un patrón en espiral sobre la distribución de los rayos gamma.
Vachaspati y su equipo ven exactamente este efecto en los datos de FGST, lo que les permite no sólo detectar el campo magnético, sino también medir sus propiedades. Los datos muestran no sólo un campo helicoidal, sino también que hay un exceso zurdo – un descubrimiento fundamental de que por primera vez sugiere el mecanismo preciso que condujo a la ausencia de antimateria.
Por ejemplo, los mecanismos que se producen nanosegundos después del Big Bang, cuando el campo de Higgs dio masas a todas las partículas conocidas, predicen campos zurdos, mientras que los mecanismos basados en las interacciones que se producen incluso antes predicen campos diestros.
Ilustración del mapa del cielo mediante el Telescopio Espacial Fermi de Rayos Gamma (FGST), con la banda central bloqueando los rayos gamma procedentes de la Vía Láctea. Los rayos gamma de diferentes energías están representados por puntos de diferentes colores – puntos rojos representan los lugares de llegada de los rayos gamma muy energéticos, puntos verdes representan una energía inferior, y los puntos azules representan la energía más baja. El nuevo análisis busca patrones en espiral en la distribución de rayos gamma dentro de zonas en el cielo, con rayos gamma de energía más elevada en el centro de la espiral y los rayos gamma de energía inferior más a lo largo de la espiral. Un campo magnético helicoidal en el universo produce un excedente de espirales de un solo tipo – y los datos de FGST muestran un exceso de espirales zurdos. (Crédito: Hiroyuki Tashiro).
Tanto el planeta en que vivimos y su estrella que se componen de materia «normal». A pesar de muchas historias de ciencia ficción, la antimateria parece ser muy rara en la naturaleza. Según Vachaspati, «con este nuevo resultado, tenemos uno de los primeros indicios de que podríamos ser capaces de resolver este misterio».
Este descubrimiento tiene implicaciones amplias, de como un campo magnético cosmológico podría desempeñar un papel importante en la formación de las primeras estrellas y podría sembrar el campo más fuerte que se observa actualmente en galaxias y cúmulos de galaxias.
Fuente: The Daily Galaxy
Estamos llegando a un punto donde los avances de los procesadores hacen que los transistores estén fabricados en tamaños ya cercanos a algunas moléculas, como la hemoglobina de cinco nanómetros. A este ritmo de reducción el comportamiento de los electrones estará sujeto a los efectos cuánticos, causando comportamientos impredecibles y no controlados, lo que sería no apto para un chip.
La tecnología de semiconductores se basa en dos tipos de materiales: los que favorecen el transporte de electrones y los «agujeros». La conducción de corriente en los semiconductores se producen a través del movimiento de los electrones libres y los «agujeros», conocidos colectivamente como portadores de carga.
Ni los átomos de silicio, ni los de germanio (los materiales que se usan en electrónica) en su forma cristalina ceden ni aceptan electrones en su última órbita; por tanto, no permiten la circulación de la corriente eléctrica, es decir, se comportan como materiales aislantes.
Pero, si a la estructura cristalina de uno de esos elementos semiconductores la dopamos añadiéndole una pequeña cantidad de impurezas provenientes de diferentes átomos, se alterará el número de portadores de carga en ella. Cuando un semiconductor dopado contiene en su mayoría huecos libres que se llama «tipo p», y cuando contiene electrones libres en su mayoría se conoce como «de tipo n». Los materiales semiconductores que se utilizan en dispositivos electrónicos se dopan bajo condiciones precisas para el control de la concentración de dopantes y las regiones p y de tipo n. Un solo cristal semiconductor puede tener muchas regiones p y tipo n; los p-n uniones entre estas regiones son responsables del comportamiento electrónico de utilidad.
Un equipo de investigadores ha logrado mostrar que las propiedades de los nanotubos pueden ser manipuladas y preservadas de tal manera que los hagan útiles para su uso en aplicaciones electrónicas. El desarrollo se ha hecho con agrupaciones de nanotubos en lugar de moleculas individuales, pero han logrado transformar los nanotubos en una RAM totalmente funcional.
Decidieron intentar implementar un circuito funcional: una memoria RAM usando nanotubos. Lograron hacer funcionar una RAM estática cuyo rendimiento fue estable durante miles de lecturas y escrituras, todo a temperatura ambiente. Es importante subrayar que no se hizo con nanotubos individuales, cada componente era un conglomerado sin distribuir de nanotubos.
Ampliar en: Hipertextual
Siempre imaginamos dispositivos electrónicos que se fabrican a partir de chips de silicio, con la que los ordenadores almacenan y procesar información en forma de dígitos binarios (ceros y unos) representados por pequeñas cargas eléctricas. Pero no necesariamente tiene que ser de esta manera: Entre las alternativas al silicio están los medios orgánicos tales como el ADN.
La computación de ADN se demostró por primera vez en 1994 por Leonard Adleman, que codificó y se resolvió el problema del viajante, un problema de matemáticas para encontrar la ruta más eficiente para un vendedor, entre ciudades, en su totalidad en el ADN.
EL ácido desoxirribonucleico, ADN, puede almacenar grandes cantidades de información codificada como secuencias de las moléculas, conocidos como nucleótidos, citosina (C), guanina (G), adenina (A), o timina (T). La complejidad y la enorme variación de los códigos genéticos de diferentes especies demuestra cuánta información puede ser almacenada en el ADN, que se codifica mediante CGAT, y esta capacidad puede ser objeto de uso por parte de la informática. Las moléculas de ADN se pueden emplear para procesar la información, utilizando un proceso de unión entre los pares de ADN conocido como hibridación. Esto lleva a cadenas simples de ADN como entrada y produce hebras de ADN a través de transformación como salida.
Desde el experimento de Adleman, muchas «circuitos» basados en ADN se han propuesto para implementar métodos computacionales, tales como la lógica de Boole, fórmulas aritméticas y cálculo de redes neuronales. Llamada programación molecular, este enfoque aplica conceptos y diseños habituales de la computación a escala nanométrica, siendo apropiado para trabajar con el ADN.
En esta «programación» lo que tiene sentido es realmente la bioquímica. Los «programas» creados son en base a la selección de moléculas que interactúan de una manera que logran un resultado específico en el proceso de autoensamblaje de ADN, donde colecciones desordenadas de moléculas espontáneamente interactúan para formar la disposición deseada de filamentos de ADN.
‘Robots’ de ADN
El ADN también se puede utilizar para controlar el movimiento, lo que permite dispositivos basados en la nanomecánica que usan el ADN. Esto se logró por primera vez por Bernard Yurke y sus colegas en 2000, que crearon a partir de hebras de ADN un par de pinzas que se abrían y pellizcaban. Experimentos posteriores, como el de Shelley Wickham y colegas en 2011 y en el laboratorio de Andrew Turberfield en Oxford demostraron que máquinas para caminar nanomoleculares hechas enteramente de ADN, podrían recorrer rutas establecidas.
Una posible aplicación es que un nanorobot caminante de ADN podría progresar a lo largo de pistas de toma de decisiones y dar la señal cuando se alcanza el final de la pista, lo que indica que el cómputo ha terminado. Al igual que los circuitos electrónicos se imprimen en tarjetas de circuitos, las moléculas de ADN se podrían utilizar para imprimir pistas similares dispuestas en árboles de decisión lógicos en un chip de ADN, y las enzimas se utilizarían para controlar la decisión de ramificación a lo largo del árbol, haciendo que el caminante tome una pista u otra.
Los caminantes de ADN también pueden transportar carga molecular, y así podrían ser utilizados para administrar medicamentos dentro del cuerpo.
¿Por qué la computación de ADN?
Entre las muchas características atractivas de las moléculas de ADN, se incluye su tamaño (ancho 2 nm), programabilidad y alta capacidad de almacenamiento – mucho mayor que sus homólogos de silicio. ADN también es versátil, barato y fácil de sintetizar, y la computación con ADN requiere mucha menos energía que los procesadores de silicio eléctricos.
Su desventaja es la velocidad: en la actualidad lleva varias horas para calcular la raíz cuadrada de un número de cuatro dígitos, algo que una computadora tradicional podría calcular en una centésima de segundo. Otro inconveniente es que los circuitos de ADN son de un solo uso, y necesitan ser recreado para ejecutar el mismo cálculo de nuevo.
Quizás la ventaja más grande de ADN a través de circuitos electrónicos es que puede interactuar con su entorno bioquímico. La computación con moléculas implica reconocer la presencia o ausencia de ciertas moléculas, y por lo que una aplicación natural de la informática de ADN es llevar esa capacidad de programación al ámbito de biosensores ambientales o de la entrega de medicamentos y terapias dentro de los organismos vivos.
Programas de ADN ya se han empleado en usos médicos, tales como el diagnóstico de la tuberculosis. Otro uso propuesto es un «programa» nano-biológica por Ehud Shapiro, del Instituto de Ciencia Weizmann en Israel, denominado el «médico de la célula» que se dirige a moléculas cancerígenas. Otros programas de ADN para aplicaciones médicas linfocitos diana (un tipo de glóbulo blanco), que se definen por la presencia o ausencia de ciertos marcadores de células y así se pueden detectar de forma natural con la lógica booleana verdadera/falso. Sin embargo, se requiere más esfuerzo antes de que podamos inyectar drogas inteligentes directamente en los organismos vivos.
El futuro de la computación de ADN
Tomado en términos generales, el cómputo de ADN tiene un enorme potencial de futuro. Su gran capacidad de almacenamiento, bajo coste energético, facilidad de fabricación que explota el poder de autoensamblaje y su fácil afinidad con el mundo natural es una entrada a la informática a escala nanométrica, posiblemente a través de diseños que incorporan ambos componentes moleculares y electrónicas. Desde su creación, la tecnología ha avanzado a gran velocidad, la entrega de diagnósticos en el punto de atención y prueba de concepto de medicamentos inteligentes – aquellos que pueden tomar decisiones de diagnóstico sobre el tipo de terapia para entregar.
Hay muchos desafíos, por supuesto, que hay que abordar de manera que la tecnología puede avanzar desde el concepto de prueba de drogas inteligentes: la fiabilidad de los caminantes de ADN, la solidez del autoensamblaje de ADN, y la mejora de la entrega de fármacos. Pero tras un siglo de investigación la informática tradicional está bien situada para contribuir al desarrollo de la informática de ADN a través de nuevos lenguajes de programación, abstracciones, y técnicas de verificación formal – técnicas que ya han revolucionado el diseño de circuitos de silicio, y puede ayudar a poner en marcha la computación orgánica por el mismo camino.
Fuente: The Conversation
Un profesor ha creado la esfera «mágica» para la transferencia de información. En varios años nuestros ordenadores, nanoantenas y otros tipos de equipos operarán en base a fotones en lugar de electrones. Incluso ahora casi estamos preparados para llevar a cabo este cambio. Si sucede, las esferas pueden llegar a ser uno de los componentes elementales de los nuevos dispositivos fotónicos. Los resultados del estudio fueron publicados en el último número de Scientific Reports, que es parte de Nature Publishing Group.
Las potencialidades de los ordenadores electrónicos convencionales se van a agotar. Durante cuatro décadas, la ley de Moore (según la cual la velocidad del procesador se duplica cada 18 meses) se cumplió debido al aumento de la frecuencia de operación de un solo procesador. Ahora, el mismo al resultado se llega por medio de la computación paralela – contamos con procesadores de doble núcleo, así como de cuatro núcleos. Esto significa que los procesadores de un solo núcleo no son capaces de hacer frente a la velocidad de cálculo exigida; por otra parte, no es posible aumentar esta velocidad más porque la frecuencia de funcionamiento del procesador en computadoras modernas está cerca del límite teórico. También el proceso de multiplicar el número de núcleos tiene fin: los cálculos indican que pronto se llegará al límite. Es por eso que equipos de investigación de todo el mundo están trabajando en la creación de sistemas ópticos súper rápidos, que serían capaces de reemplazar a los ordenadores electrónicas.
Por un lado, estos sistemas deben ser tan pequeños como sea posible. Por otro lado, la radiación óptica tiene su propia escala – la longitud de onda (en el rango visible del espectro es de unos 0.5 micrómetros). Esta escala es demasiado grande para ser implementada en los dispositivos electrónicos modernos con disposición de elementos ultradensa. Para competir con tales dispositivos electrónicos, los sistemas ópticos deben trabajar en escalas mucho más cortas que las longitudes de onda. Estos problemas están comprendidos en el ámbito de una disciplina moderna, llamada «óptica sublongitud de onda» (subwavelength optics). Su objetivo es manipular con la radiación electromagnética en escalas más cortas que su longitud de onda – en otras palabras, hacer cosas, que se consideraban como conceptualmente imposibles en las ópticas tradicionales de lentes y espejos.
Hasta hace poco la óptica sublongitud de onda puso grandes esperanzas en los efectos relacionados con la interacción de la luz con los llamados, plasmones – oscilaciones colectivas del gas de electrones libres en los metales. En el caso de las partículas de metal con tamaños de unos 10 nm las frecuencias de las oscilaciones del gas de electrones caen dentro del rango de la banda óptica. Si una partícula tal se irradia con una onda electromagnética, cuya frecuencia es igual a la de un plasmón, se produce una oscilación de la partícula a la frecuencia de resonancia. En la resonancia, la partícula actúa como un embudo, que «toma» energía de la onda electromagnética del ambiente externo y la convierte en energía de las oscilaciones del gas de electrones. Este proceso puede ir acompañado de una amplia gama de efectos muy interesantes que, en principio, se podrían emplear en diversas aplicaciones.
Por desgracia, la mayor parte de las expectativas relacionadas con la plasmónica no se ha justificado. El hecho es que, incluso muy buenos conductores eléctricos (por ejemplo, cobre o platino) presentan gran resistencia eléctrica cuando la frecuencia de la corriente eléctrica es del mismo orden de magnitud que la de la luz visible. Por lo tanto, como regla general, las oscilaciones de plasmones están fuertemente amortiguadas, y la amortiguación anula los efectos útiles de los que se podría hacer uso.
Es por eso que hace poco, científicos dirigen su atención a materiales dieléctricos con alto índice de refracción. No hay electrones libres en estos materiales porque todos ellos están conectados con sus átomos; y el impacto de la luz no induce corriente de conducción. Al mismo tiempo, la onda electromagnética afecta a los electrones dentro del átomo y los desplaza desde las posiciones de equilibrio. Como resultado, los átomos adquieren momento eléctrico inducido; este proceso se llama «polarización». Cuanto mayor sea el grado de polarización, mayor es el índice de refracción del material. Resultó que cuando una esfera hecha de un material con alto índice de refracción interactúa con la luz, el resultado de esta interacción en gran medida se asemeja a la de resonancia de plasmón anteriormente descrita en metales con una (pero muy importante) excepción: una amplia gama de materiales dieléctricos – a diferencia de los metales – tienen débil amortiguación en las frecuencias ópticas. A menudo usamos esta propiedad de los dieléctricos en nuestra vida cotidiana – por ejemplo, la débil amortiguación en las frecuencias ópticas es la clave para la transparencia del vidrio.
En anteriores trabajos por el profesor Michael Tribelsky (Mikhail Tribel’skii) de la Facultad de Física, MV Lomonosov Moscow State University y la Universidad Estatal de Moscú de Tecnologías de la Información, Radioingeniería y Electrónica MIREA, dio el impulso inicial a la investigación descrita anteriormente. El científico dice: «Si utilizamos el lenguaje de la física cuántica, mientras que hablamos de la excitación de plasmones, podemos decir que un cuanto de luz, los fotones se, convierte en un cuanto de oscilaciones de plasmones. A mediados de los 80 tuve la siguiente idea: ya que todos los procesos en la mecánica cuántica son reversibles, el proceso invertido de la conversión de plasmones a fotón debería existir también. Entonces, llegué a la conclusión de que existe un nuevo tipo de dispersión de la luz. Este fue el caso de hecho. Por otra parte, se le ocurrió que este nuevo tipo de dispersión de la luz tiene muy poco en común con el descrito en todos los libros de texto de dispersión de Rayleigh«. Como resultado, se publicó el artículo «dispersión resonante de la luz por partículas pequeñas,» Tribel’skii MI, Sov. Phys. JETP 59 [2], 534 (1984): http://www.jetp.ac.ru/cgi-bin/dn/e_059_03_0534.pdf . Sin embargo, en 1984 esta obra no podría atraer la atención de los científicos, porque no existían las nanotecnologías todavía. La primera cita de este trabajo se produjo en el año 2004 – exactamente 20 años después de su publicación. Hoy en día, este tipo de dispersión, llamada «anómala», es ampliamente reconocida. Por desgracia, incluso en el caso de la dispersión anómala, una vez más, nos encontramos ante el papel fatal de la disipación. Con el fin de observar la dispersión anómala es necesario el uso de metales con muy débil amortiguación a frecuencias ópticas.
La pregunta muy natural en este caso es: si tomamos la ventaja de la amortiguación débil de los dieléctricos, ¿será la esfera hecha de materiales dieléctricos con alto índice de refracción capaz de demostrar los efectos que no se pueden observar en el caso de resonancias de plasmones en metales con una fuerte amortiguación? Para responder a la pregunta, el laboratorio del profesor Tribelsky (Facultad de Física, MV Lomonosov Moscow State University) inició e una investigación conjunta con colegas franceses y españoles. Los científicos experimentaron con una esfera dieléctrica con un diámetro de aproximadamente 2 cm, hecha de cerámicas especiales, y «enseñada» a redirigir el haz incidente ondas electromagnéticas de una manera deseada. Por otra parte, la direccionalidad de la dispersión se puede controlar y cambió drásticamente simplemente mediante la regulación fina de la frecuencia de la onda incidente.
De acuerdo con la explicación de Tribelsky, esta esfera tiene líneas de resonancia bastante estrechas relacionadas con sus oscilaciones de polarización. En un sentido, es bastante análoga a una esfera de metal, que tiene las frecuencias de resonancia relacionados con las oscilaciones del gas de electrones libres. Cada línea corresponde a la excitación de un modo de oscilación en particular, llamados armónicos o modos parciales. Cada armónico se caracteriza por una dependencia fija entre la intensidad de dispersión y el ángulo de dispersión. Esta dependencia se determina por la naturaleza de un armónico dado. El campo de dispersión total de la esfera es una suma de las contribuciones de todos los (onda parcial) armónicos. Las ondas parciales interfieren entre sí. La anchura estrecha de estas líneas permite excitar modos parciales selectivamente y controlar la interferencia. Esto, a su vez, permite la reorientación de la radiación incidente en la forma deseada. ¡Eso es! Se logra la manipulación controlada con la radiación.
«Sin embargo, ¿por qué hablamos de nanoscalas si el diámetro de la esfera es de aproximadamente 2 cm? Eso es sólo el punto. Prof. Tribelsky dice: «Puedo hablar libremente acerca de la belleza experimental de este trabajo ya que soy un teórico. Acabo de participar en la planificación del experimento, mientras que todo el trabajo experimental difícil ha sido hecho por mis colegas franceses, en cuanto a la belleza experimental de este trabajo, es la siguiente: con la ayuda de la radiación de microondas – similar a la utilizada en un horno – hemos logrado simular en una escala de centímetros todos los procesos que se producen a nanoescala con la luz visible Es ampliamente conocido: si tenemos dos objetos de la misma forma pero de diferentes tamaños y con el mismo índice de refracción, que dispersan las ondas electromagnéticas de la misma manera, siempre que la relación entre las dimensiones lineales objetos de la longitud de onda es la misma para ambos los objetos. Esta fue la idea de nuestros experimentos. Sin embargo, el camino desde la idea de los resultados fue muy difícil. Se bastó para decir que los investigadores lograron separar la señal deseada de fondo cuya amplitud a veces era de 3000 veces más grande (!) que la de la señal«.
Teniendo en cuenta las posibles aplicaciones prácticas de los resultados obtenidos, es importante subrayar que la técnica de fabricación de tales nanoesferas para la manipulación de la radiación infrarroja óptica es cercana, bastante barata y simple. No requiere ningún material «exótico», caro, y / o equipo sofisticado. Además de los equipos ópticos (que, hoy en día, sin embargo, permanecen en la esfera de la realidad virtual), las esferas a nanoescala que se describen en el documento de Tribelsky y coautores pueden ser utilizadas en la amplia gama de diferentes campos: sistemas de telecomunicaciones; registro, procesamiento y almacenamiento de la información; diagnóstico y el tratamiento de diferentes enfermedades incluyendo oncológicas, etc.
Fuente: Michael I. Tribelsky, Jean-Michel Geffrin, Amelie Litman, Christelle Eyraud, Fernando Moreno. Small Dielectric Spheres with High Refractive Index as New Multifunctional Elements for Optical Devices. Scientific Reports, 2015; 5: 12288 DOI: 10.1038/srep12288