Física
Física
¡Tal cantidad es enorme, monstruosa! Exacto, de ahí proviene su significado, tera en griego significa monstruo. Las cantidades que representa un tera son ingentes, enormes, bestiales.
Fuente: El Tao de la Física
Investigadores han encontrado poca evidencia para apoyar la hipótesis de la corona iónica, que ha sido citada como una posible explicación para el exceso de casos de leucemia en áreas próximas a las líneas eléctricas aéreas de alta tensión en el Reino Unido antes de la década de 1980, según ha publicado The Journal of Radiological Protection.
Esta hipótesis se basa en el hecho de que las líneas eléctricas aéreas de alta tensión crean partículas cargadas en el aire circundante por un proceso conocido como ionización.
En ocasiones, estas partículas iónicas, conocidas como corona iónica, pueden ser arrastradas por el viento y se unen a los contaminantes del aire, como los del tráfico o los del tabaco. La hipótesis de la corona iónica sugiere que las tesis de la contaminación cargada eléctricamente tienen más probabilidades de ser retenidas en las vías respiratorias o en los pulmones y que esto podría llevar a efectos graves de salud, incluyendo la leucemia infantil.
Para investigar esta teoría, los investigadores estudiaron a cerca de 7000 niños en Inglaterra y Escocia que se les había diagnosticado leucemia al nacer entre 1968 y 2008, y que, además, vivían a menos de 600 metros de una línea eléctrica aérea de alta tensión.
El resultado no sugiere que la exposición la iónica explicara el patrón de aumento de las tasas de leucemia cerca de las líneas eléctricas aéreas de alta tensión de décadas anteriores.
Dispositivos electrónicos que se disuelven completamente en agua, dejando tras de sí sólo productos finales inocuos, han sido desarrollados por vez primera por investigadores de la Universidad de Illinois en Urbana-Champaign (EE.UU). Los primeros resultados muestran un conjunto completo de los componentes básicos de los circuitos integrados, junto con diversos sensores y actuadores con relevancia para la medicina clínica, incluyendo la mayoría de los más recientes monitores intracraneales en pacientes con lesión cerebral traumática. Es el comienzo de una nueva era de dispositivos que se puede extender desde la electrónica de consumo «verde» a las terapias ‘electroceuticas’, sistemas biomédicos de sensores para hacer su trabajo y que luego desaparezcan.
El grupo de investigación de John A. Rogers en el Departamento de Ciencia de los Materiales e Ingeniería Frederick Seitz está liderando el desarrollo de tales conceptos, junto con todos los materiales necesarios, los diseños de dispositivos y tecnologías de fabricación para aplicaciones más allá del alcances de los semiconductores en las tecnologías disponibles actualmente.
«Nuestros desarrollos más recientes, combinados en dispositivos que abordan los desafíos reales en la medicina clínica y avanzada, y las estrategias de fabricación de alto volumen, sugieren un futuro prometedor para esta nueva clase de tecnología», dijo Rogers. Que presentará su tesis y demás resultados en AVS 61st International Symposium & Exhibition del nueve al 14 noviembre 2014 en Baltimore, Maryland.
Las aplicaciones prácticas podrían incluir: dispositivos bioabsorbibles para reducir infecciones en cirugía. Otros ejemplos son los sistemas implantables temporales, como los monitores eléctricos del cerebro para ayudar a la rehabilitación de lesiones traumáticas o simuladores eléctricos para acelerar el crecimiento de los huesos. Adicionalmente los dispositivos pueden usarse para la administración programada de fármacos.
Después que han cumplido su función, desaparecen a través reabsorción en el cuerpo, eliminando así los dispositivos innecesarios, sin la necesidad de operaciones quirúrgicas adicionales. En cuanto a la electrónica de consumo, la tecnología es muy prometedora para la reducción de la huella ambiental en la próxima generación de dispositivos «verdes».
Fuente: Universidad de Illinois
El diodo azul, una tecnología que casi todos usamos todos los días, obtiene el Premio Nobel de Física 2014. Isamu Akasaki y Hiroshi Amano (Univ. Nagoya, Japón) y Shuji Nakamura (Univ. California, Santa Barbara, EEUU). Seguro que tienes en el bolsillo ahora mismo un dispositivo que usa esta tecnología. Sin lugar a dudas este Premio Nobel de Física 2014 recoge perfectamente el espíritu original de Alfred Nobel.
Anuncio oficial del premio, nota de prensa, información divulgativa e información avanzada
Los diodos emisores de luz (LED) actuales emiten luz entre el infrarrojo y el ultravioleta. Sin embargo, los primeros LED desarrollados en los 1950 y en los 1960 sólo emitían luz entre el infrarrojo y el verde. Los colores azules y ultravioletas parecían imposibles de lograr. A finales de los 1980 se propuso el uso de nitruro de galio (GaN) en dispositivos multicapa (heteroestructuras y pozos cuánticos). La importancia de lograr LED azules era enorme, ya que permitía el desarrollo de fuentes eficientes de luz blanca para iluminación (combinando LED rojos, verdes y azules). Hay que recordar que la iluminación supone entre el 20% y el 30% de nuestro consumo de energía eléctrica.
La emisión de luz por electroluminiscencia se basa en la existencia de una banda prohibida entre las bandas de valencia y conducción en un material semiconductor. Lograr un material cuya emisión de luz sea en el azul es muy difícil porque se requiere una banda prohibida muy grande. Se estudiaron diferentes materiales compuestos (como ZnSe y SiC), pero al final se logró con GaN, un semiconductor de la clase III-V, con estructura cristalina tipo wurtzita. El GaN tiene una banda prohibida de 3,4 eV, que corresponde al ultravioleta.
El gran problema del uso del GaN era fabricar este material con una calidad cristalina adecuada y de forma eficiente. En los 1970 se probaron muchas técnicas sin éxito. Isamu Akasaki desarrolló nuevas técnicas de crecimiento de GaN sobre zafiro usando una capa de AlN. En 1981, en la Universidad de Nagoya, Japón, empezó a colaborar con Hiroshi Amano y en 1986 logró la técnica que le ha permitido obtener el Premio Nobel de Física 2014 (H. Amano et al., “Metalorganic vapor phase epitaxial growth of a high quality GaN film using an AlN buffer layer,” Appl. Phys. Lett. 48: 353, 1986).
Shuji Nakamura (en una empresa privada japonesa) desarrolló un método similar en el que reemplazó la capa de AlN por una fina capa de GaN crecida a baja temperatura (Shuji Nakamura, “GaN Growth Using GaN Buffer Layer,” Japanese Journal of Applied Physics 30: L1705, 1991; Shuji Nakamura et al., “High-Power GaN P-N Junction Blue-Light-Emitting Diodes,” Japanese Journal of Applied Physics 30:L1998, 1991). Nakamura y sus colegas aprovecharon los resultados previos de Akasaki y Amano para desarrollar una técnica de dopado del GaN con Zn (material p) y Mg (material n) para dar lugar a uniones (diodos) pn que emiten luz.
Ampliar en: La Ciencia de la Mula Francis
Una reacción química colateral en la pila es lo que provoca un cambio en la elasticidad del material.
Fuente: El Tao de la Física
Pronto, la capacidad cada vez mayor de los smartphones podría aprovecharse para detectar rayos cósmicos en forma muy similar a como lo hacen observatorios de varios millones de dólares.
Con la adición de una aplicación, los teléfonos con sistema operativo Android, se pueden convertir en detectores de luz para capturar las partículas de rayos cósmicos creados al chocar con la atmósfera de la Tierra.
«Las aplicaciones transforman el teléfono básicamente En un detector de partículas de alta energía», explica Justin Vandenbroucke, de la Universidad de Wisconsin-Madison profesor asistente de física e investigador en el Centro de Astrofísica de Partículas IceCube Wisconsin (WIPAC). «Utiliza los mismos principios que grandes experimentos.»
Los rayos cósmicos son partículas energéticas subatómicas creadas, los científicos piensan, en aceleradores cósmicos como los agujeros negros y las estrellas en explosión. Cuando las partículas chocan en la atmósfera de la Tierra, crean una lluvia de partículas secundarias denominadas muones.
Las cámaras de los teléfonos usan chips de silicio que funcionan a través del efecto fotoeléctrico. Todas las partículas de luz, o fotones, alcanzan un área de silicio y se desencadenan cargas eléctricas. La mismo es cierto para los muones. Cuando un muón golpea el semiconductor que incorpora una cámara del smartphone, se libera la carga eléctrica y crea una huella de píxeles que se puede registrar, almacenar y analizar.
Los rayos cósmicos proceden de fuera de nuestro sistema solar y nuestro planeta está siendo constantemente bombardeado. Sus orígenes siguen confundiendo los astrofísicos, así como las partículas de rayos cósmicos de alta energía que viajan grandes distancias y sus trayectorias se curvan a medida que cruzan los campos magnéticos en el espacio interestelar. Los rayos cósmicos son comunes y confunden frecuentemente observaciones astronómicas en busca de otros fenómenos.
Ampliar en: University of Wisconsin Madison
El IPK (kilogramo patrón internacional de masa) ha sido el estándar para la masa en los últimos 125 años; fue sancionado en la primera Conferencia General de Pesas y Medidas (CGPM) del siete al nueve de septiembre de 1889 en París (Francia). Es probable que sea de los últimos cumpleaños, pues experimentos actuales para redefinir el kilogramo finalizarán en 2018, están relacionados con constantes de masa de origen natural en lugar de un objeto físico.
El IPK está hecho de una aleación de platino (90%) e iridio (10%). Esta mezcla fue elegida porque el platino tiene una alta densidad de modo que el patrón se podría hacer de pequeño volumen y superficie; la adición de iridio mejora la dureza. Tiene una masa fija aproximadamente equivalente a un litro de agua a 4 C, pero su peso varía en función de la gravedad local.
Cuando se fabricó el IPK, también fueron hechas 40 copias de la misma aleación de platino-iridio. Fueron distribuidas para su uso como estándares nacionales para que los científicos no se vieran en la necesidad de volver al IPK (depositado en Sèvres, cerca de París), cada vez que necesitaran una medición precisa de la masa. Estas copias nacionales se comprueban frente al patrón cada 40 años. En la última revisión, en 1989, la desviación máxima era de 50 microgramos. Estos cambios no se tienen plenamente en cuenta y la correspondiente falta de estabilidad de la escala plantea un problema para los científicos. El científico NPL Dr Stuart Davidson comenta que: «Si bien la actual definición del kilogramo es adecuada para el propósito, sabemos que no puede ser perfectamente estable porque todos los artefactos cambiarán su masa con el tiempo, es una preocupación que sabemos que el patrón debe estar cambiando, pero actualmente no hay manera de realmente medir este cambio «.
Dos experimentos están en marcha para redefinir el kilogramo en términos de una constante fundamental. La balanza watt establece el kilogramo con relación a realizaciones cuánticas del voltio y el ohmio, y el experimento Avogadro define un kilogramo en términos de un número fijo de átomos. El concepto de balanza watt fue desarrollado originalmente en el NPL en 1975 por el Dr. Bryan Kibble. NPL trabajó en el desarrollo de la balanza watt hasta 2008, cuando la balanza watt fue trasladado a NRC de Canadá, donde se está produciendo la medición más precisa de la constante de Planck. NPL también lidera un proyecto europeo de investigación para la creación de un vínculo práctico entre los resultados de los nuevos experimentos y la escala masiva de corriente definida por el IPK. Este es un proceso de dos veces, donde la constante de Planck se fijará inicialmente contra la escala actual de masa como se define por el IPK. Después de esto la unidad se realizará por la balanza watt y experimentos Avogadro y la escala de masas tendrán que ser difundidos a partir de estos experimentos que dan cuenta de la unidad en el vacío, a los pesos prácticos en el aire. Esperan completar esta investigación en 2015.
IPK tiene nominalmente incertidumbre cero sobre la escala masiva, se fija frente a ella. Relacionar la escala de forma natural cuando se producen constantes asegurará la estabilidad a largo plazo de la escala, pero, en el corto plazo, aumentará la incertidumbre debido a la incertidumbre en los experimentos de realización. También habrá una incertidumbre adicional de la difusión de la escala de vacío ala aire. Los científicos tienen el objetivo de minimizar estas incertidumbres adicionales a un nivel de alrededor de 3 en 108 que es aproximadamente equivalente a la adición del peso de un grano de arroz al peso total de un coche.
El Dr Stuart Davidson comentó que: «Este aniversario es interesante, ya que muestra cuánto tiempo esta norma para el kilogramo se ha prolongado y por lo tanto lo bueno que fue la elección original de material para el IPK.» El kilogramo es la última unidad metrológica que está vinculada a una cantidad física. A pesar de que el futuro de este patrón es finito, debe estar satisfecho de haber sobrevivido al resto de las unidades del SI.
Fuente: National Physical Laboratory
Físicos de la Universidad de Ginebra (Suiza) han logrado teletransportar el estado cuántico de un fotón a un cristal a más de 25 kilómetros de fibra óptica.
El experimento, llevado a cabo en el laboratorio del profesor Nicolas Gisin, pulveriza el récord anterior de seis kilómetros alcanzado hace diez años por el mismo equipo, UNIGE. El paso de la luz en la materia, utilizando el teletransporte de un fotón a un cristal, muestra que en la física cuántica la composición de una partícula no es importante, sino más bien su estado, ya que este puede existir y persistir fuera de diferencias tan extremas como aquellas que distinguen la luz de la materia. Los resultados obtenidos por Félix Bussières y sus colegas se presentan en la última edición de Nature Photonics.
Los últimos experimentos han permitido comprobar que el estado cuántico de un fotón se puede mantener mientras se transporta a un cristal, sin contacto directo. Uno tiene que imaginar el cristal como un banco de memoria para almacenar la información del fotón; este último se transfiere a través de estas distancias utilizando el efecto de la teleportación.
Más de 25 kilómetros
El experimento no sólo representa un notable logro tecnológico sino también un avance espectacular en las posibilidades continuamente sorprendentes que ofrece la dimensión cuántica. Al tomar la distancia de 25 km de fibra óptica, los físicos de UNIGE han superado significativamente su propio récord de seis kilómetros, distancia alcanzada durante la primera teletransportación a larga distancia alcanzada por el profesor Gisin y su equipo en 2003.
Memoria Después de triangulación
Entonces, ¿qué es exactamente esta prueba de entrelazamiento cuántico y sus propiedades? Se tienen que imaginar dos fotones entrelazados, en otras palabras, dos fotones inextricablemente vinculados en el nivel inferior de sus estados conjuntos. Uno es propulsado a lo largo de una fibra óptica (25 km), pero no el otro, que se envía a un cristal. Es como un juego de billar, con un tercer fotón que golpea el primero que hace desaparecer a los dos. Los científicos miden esta colisión. Pero la información contenida en el tercer fotón no se destruye -por el contrario, encuentra su camino hacia el cristal que también contiene el segundo fotón entrelazado.
Por lo tanto, como Félix Bussières autor principal de esta publicación explica, se observa «que el estado cuántico de los dos elementos de luz, estos dos fotones entrelazados que son como dos hermanos siameses, es un canal que permite a la teletransportación de la luz en la materia» .
A partir de ahí, hay un pequeño paso para concluir que, en física cuántica, el estado tiene prioridad sobre el «vehículo» – en otras palabras, las propiedades cuánticas de un elemento trascienden a las propiedades físicas clásicas. Un paso que tal vez ahora uno puede tomar.
Fuente: Quantum teleportation from a telecom-wavelength photon to a solid-state quantum memory, Nature Photonics, DOI: 10.1038/nphoton.2014.215
La computación en nube consiste en el desplazamiento de almacenamiento y procesamiento de datos del ordenador del usuario a servidores remotos. Puede proporcionar a los usuarios más espacio de almacenamiento y potencia de cálculo y además se puede acceder desde cualquier lugar del mundo en lugar de tener que conectarse a un único escritorio u otro equipo con sus recursos finitos. Sin embargo, algunos observadores han expresado su preocupación por el aumento de las demandas de energía del mantenimiento de los servidores distribuidos y para que estén en marcha y funcionando de forma continua, el portátil de un usuario individual puede ser desconectado cuando no está en uso.
Ahora, al escribir en International Journal of Information Technology, investigadores de la Universidad de Orán, en Argelia, han investigado cómo los sistemas de computación en la nube pueden ser optimizados para el uso de energía y reducir su huella de carbono. Jouhra Dad y Ghalem Belalem del Departamento de Ciencias de la Computación en Orán explican cómo han desarrollado un algoritmo para controlar las máquinas virtuales que se ejecutan en los ordenadores en un entorno de nube, para que el uso de energía de las unidades centrales de procesamiento central (CPU) y la capacidad de memoria (RAM en comparación con el espacio de almacenamiento de disco duro) se pueda reducir en la medida de lo posible sin afectar al rendimiento general.
«El consumo de energía se considera como un problema importante en los sistemas que contienen servidores, centros de datos y nubes de computación», dice el equipo. «Estos recursos siguen consumiendo una gran cantidad de energía y producen emisiones de dióxido de carbono.» El estudio del equipo revela que la virtualización de los procesos y la migración en vivo de máquinas virtuales en el servicio en la nube usando su algoritmo de selección y asignación permite que diferentes herramientas y aplicaciones se consoliden para utilizar menos capacidad de CPU y memoria. Esto a su vez reduce la demanda de energía en los servidores al permitir que varias máquinas virtuales que se ejecutan en un solo cálculo remoto accesible a los usuarios sin comprometer el rendimiento.
Para optimizar el consumo de energía de los centros de datos, el enfoque propuesto se divide en dos fases. La primera es la selección de máquinas virtuales mediante la minimización modificada del algoritmo de migración que toma en consideración la utilización de la CPU y la memoria de trabajo. La solución se basa en recursos físicos con umbrales superior e inferior. La segunda fase es la asignación de las máquinas virtuales migradas que utiliza el problema de la mochila multidimensional modificado. Este algoritmo debe empacar en tantos elementos como sea posible en una «mochila», sin exceder un límite de peso y sin ser forzados a dejar atrás los elementos esenciales al viajar.
Fuente: Dad, J. and Belalem, G. Energy optimisation in cloud computing. Int. J. Information Technology, Communications and Convergence, 2014; Vol. 3, No. 1