admin

Categorías

Coobis

Física

Física

El prefijo tera

Actualidad Informática. El prefijo tera. Rafael Barzanallana

 

En 1960 se acordó la introducción de una nuevo prefijo que acompañaría a cantidades muy grandes: Tera (con el símbolo T) . La palabra tera se asemeja a tetra, que significa en griego 4; indicando que es la cuarta potencia de 1000. Así que tera es un uno seguido de 12 ceros, por definición.

¡Tal cantidad es enorme, monstruosa! Exacto, de ahí proviene su significado, tera en griego significa monstruo. Las cantidades que representa un tera son ingentes, enormes, bestiales.

Sin embargo, ¿Son realmente útiles representaciones tan grandes? Cuando un número es demasiado grande pierde significado para la gente, pues es difícil de comparar con los objetos cotidianos. Puedo imaginarme sin problemas una manzana y mil manzanas, tal vez me pueda costar trabajo pensar en un millón de manzanas; pero un tera de manzanas ¿como imagen lo puedo concebir?
Ejemplos concretos
Pero, ¿donde puedo encontrar estos monstruosas cifras con una aceptación entre los científicos, sin tener que recurrir a la aberración de combinar prefijos en las unidades?. Los ejemplos son varios.
En física, los terahertz (THz) pueden representar ondas electromagnéticas con una longitud de onda entre 0.1 a 1 mm; es decir radiación infrarroja-lejana y las micro-ondas. Hasta hace poco se ha desarrollado tecnologías para explorar esta región semivirgen del espectro electromagnético. Like-a-virgin diría Madona.
Hoy en día, estos rayos-T son tema de moda pues cuentan con la capacidad de penetrar cartón, tela, y piel; en contraste, son absorbidos por hueso y metal; además de brindar un espectro molecular muy característico ideal para identificar sustancias ilícitas (explosivos, drogas, entre otras cosas divertidas). Por lo que este monstruo pueden ser de gran ayuda en sistemas de seguridad.
Por otro lado, la transmisión de datos a esta frecuencia puede hacer que tu celular se comunique 1000 veces más rápido. ¡Olvídate de 3G o 4G!
Ahora, si se trata de almacenamiento informático, los terabyte (TB) equivale a 1 000 gigabytes de almacenamiento. Desde el 2007, la empresa Hitachi presento el primer disco duro de 1 TB. Y recientemente, la empresa Seagate anunció el lanzamiento de discos duros de 8 TB que usan tecnología SMS. Así que tendrás suficiente espacio para tus canciones de banda (puedes tener hasta 2 000 horas de audio con calidad de CD), videojuegos zombies, fotos familiares y tal vez para todas las películas de Rock (¿en cuál van?, ¿Rocky 29?).
Más en concreto el desarrollo de la película animada en 3D Monstruos contra aliens, requirió 100 TB de almacenamiento.
Más aún, en junio del 2008, Cisco Sytem estimo un tráfico de internet de 160 TB/s.
El telescopio espacial Hubble ha colectado más de 100 TB de datos en sus primeros 24 años de observaciones, abril del 2014.
Efectivamente un TB de almacenamiento parece un monstruo de memoria, pero en sí misma es una unidad práctica en la cantidad de información que se maneja en varios sistemas modernos.

Fuente: El Tao de la Física

Dudas sobre si la contaminación ambiental está vinculada entre la leucemia infantil y las líneas eléctricas

Actualidad Informática. Ddudas sobre si la contaminación ambiental está vinculada entre la leucemia infantil y las líneas eléctricas. Rafael Barzanallana

Investigadores han encontrado poca evidencia para apoyar la hipótesis de la corona iónica, que ha sido citada como una posible explicación para el exceso de casos de leucemia en áreas próximas a las líneas eléctricas aéreas de alta tensión en el Reino Unido antes de la década de 1980, según ha publicado The Journal of Radiological Protection.

Esta hipótesis se basa en el hecho de que las líneas eléctricas aéreas de alta tensión crean partículas cargadas en el aire circundante por un proceso conocido como ionización.

En ocasiones, estas partículas iónicas, conocidas como corona iónica, pueden ser arrastradas por el viento y se unen a los contaminantes del aire, como los del tráfico o los del tabaco. La hipótesis de la corona iónica sugiere que las tesis de la contaminación cargada eléctricamente tienen más probabilidades de ser retenidas en las vías respiratorias o en los pulmones y que esto podría llevar a efectos graves de salud, incluyendo la leucemia infantil.

Para investigar esta teoría, los investigadores estudiaron a cerca de 7000 niños en Inglaterra y Escocia que se les había diagnosticado leucemia al nacer entre 1968 y 2008, y que, además, vivían a menos de 600 metros de una línea eléctrica aérea de alta tensión.

El resultado no sugiere que la exposición la iónica explicara el patrón de aumento de las tasas de leucemia cerca de las líneas eléctricas aéreas de alta tensión de décadas anteriores.

Dispositivos electrónicos que se disuelven en agua

Actualidad Informática. Dispositivos electrónicos que se disuelven en agua. Rafael BarzanallanaDispositivos electrónicos que se disuelven completamente en agua, dejando tras de sí sólo productos finales inocuos, han sido desarrollados por vez primera por investigadores de la Universidad de Illinois en Urbana-Champaign (EE.UU). Los primeros resultados muestran un conjunto completo de los componentes básicos de los circuitos integrados, junto con diversos sensores y actuadores con relevancia para la medicina clínica, incluyendo la mayoría de los más recientes monitores intracraneales en pacientes con lesión cerebral traumática. Es el comienzo de una nueva era de dispositivos que se puede extender desde la electrónica de consumo «verde» a las terapias electroceuticas’, sistemas biomédicos de sensores para hacer  su trabajo y que luego desaparezcan.

El grupo de investigación de John A. Rogers en el Departamento de Ciencia de los Materiales e Ingeniería Frederick Seitz está liderando el desarrollo de tales conceptos, junto con todos los materiales necesarios, los diseños de dispositivos y tecnologías de fabricación para aplicaciones más allá del alcances de los semiconductores en las tecnologías disponibles actualmente.

«Nuestros desarrollos más recientes, combinados en dispositivos que abordan los desafíos reales en la medicina clínica y avanzada, y las estrategias de fabricación de alto volumen,  sugieren un futuro prometedor para esta nueva clase de tecnología», dijo Rogers.  Que presentará su tesis y demás resultados en AVS 61st International Symposium & Exhibition del nueve al 14 noviembre 2014 en Baltimore, Maryland.

Las aplicaciones prácticas podrían incluir: dispositivos bioabsorbibles para reducir infecciones en cirugía. Otros ejemplos son los sistemas implantables temporales, como los monitores eléctricos del cerebro para ayudar a la rehabilitación de lesiones traumáticas o simuladores eléctricos para acelerar el crecimiento de los huesos. Adicionalmente los dispositivos pueden usarse para la administración programada de fármacos.

Después que han cumplido su función, desaparecen a través reabsorción en el cuerpo, eliminando así los dispositivos innecesarios, sin la necesidad de operaciones quirúrgicas adicionales. En cuanto a la electrónica de consumo, la tecnología es muy prometedora para la reducción de la huella ambiental en la próxima generación de dispositivos «verdes».

Fuente: Universidad de Illinois

Nobel Física 2014 para Akasaki, Amano y Nakamura por el diodo azul

Actualidad Informática. Nobel Física 2014: Akasaki, Amano y Nakamura por el diodo azul. Rafael Barzanallana

 

El diodo azul, una tecnología que casi todos usamos todos los días, obtiene el Premio Nobel de Física 2014. Isamu Akasaki y Hiroshi Amano (Univ. Nagoya, Japón) y Shuji Nakamura (Univ. California, Santa Barbara, EEUU). Seguro que tienes en el bolsillo ahora mismo un dispositivo que usa esta tecnología. Sin lugar a dudas este Premio Nobel de Física 2014 recoge perfectamente el espíritu original de Alfred Nobel.

Anuncio oficial del premio, nota de prensa, información divulgativa e información avanzada

Los diodos emisores de luz (LED) actuales emiten luz entre el infrarrojo y el ultravioleta. Sin embargo, los primeros LED desarrollados en los 1950 y en los 1960 sólo emitían luz entre el infrarrojo y el verde. Los colores azules y ultravioletas parecían imposibles de lograr. A finales de los 1980 se propuso el uso de nitruro de galio (GaN) en dispositivos multicapa (heteroestructuras y pozos cuánticos). La importancia de lograr LED azules era enorme, ya que permitía el desarrollo de fuentes eficientes de luz blanca para iluminación (combinando LED rojos, verdes y azules). Hay que recordar que la iluminación supone entre el 20% y el 30% de nuestro consumo de energía eléctrica.

La emisión de luz por electroluminiscencia se basa en la existencia de una banda prohibida entre las bandas de valencia y conducción en un material semiconductor. Lograr un material cuya emisión de luz sea en el azul es muy difícil porque se requiere una banda prohibida muy grande. Se estudiaron diferentes materiales compuestos (como ZnSe y SiC), pero al final se logró con GaN, un semiconductor de la clase III-V, con estructura cristalina tipo wurtzita. El GaN tiene una banda prohibida de 3,4 eV, que corresponde al ultravioleta.

El gran problema del uso del GaN era fabricar este material con una calidad cristalina adecuada y de forma eficiente. En los 1970 se probaron muchas técnicas sin éxito. Isamu Akasaki desarrolló nuevas técnicas de crecimiento de GaN sobre zafiro usando una capa de AlN. En 1981, en la Universidad de Nagoya, Japón, empezó a colaborar con Hiroshi Amano y en 1986 logró la técnica que le ha permitido obtener el Premio Nobel de Física 2014 (H. Amano et al., “Metalorganic vapor phase epitaxial growth of a high quality GaN film using an AlN buffer layer,” Appl. Phys. Lett. 48: 353, 1986).

Shuji Nakamura (en una empresa privada japonesa) desarrolló un método similar en el que reemplazó la capa de AlN por una fina capa de GaN crecida a baja temperatura (Shuji Nakamura, “GaN Growth Using GaN Buffer Layer,” Japanese Journal of Applied Physics 30: L1705, 1991; Shuji Nakamura et al., “High-Power GaN P-N Junction Blue-Light-Emitting Diodes,” Japanese Journal of Applied Physics 30:L1998, 1991). Nakamura y sus colegas aprovecharon los resultados previos de Akasaki y Amano para desarrollar una técnica de dopado del GaN con Zn (material p) y Mg (material n) para dar lugar a uniones (diodos) pn que emiten luz.

Ampliar en: La Ciencia de la Mula Francis

¿Por qué rebotan las pilas alcalinas viejas?

Una reacción química colateral en la pila es lo que provoca un cambio en la elasticidad del material.

Una pila alcalina no-recarcable inicia su vida útil usando polvo de zinc mezclado en un gel que contiene un electrolito de hidróxido de potasio; una membrana lo separa del  dióxido de manganeso con el que se hace intercambio de iones para brindar la diferencia de voltaje necesario para nuestros aparatos electrónicos. 
Conforme la batería se descarga el polvo de dióxido de manganeso se  convierte en oxido de manganeso provocando que se formen grumos que van creciendo, el efecto del empaquetamiento de los grumos es el responsable de que reboten las pilas.

Fuente: El Tao de la Física

Máquina Rube Goldberg que funciona a base de un haz de luz

Una compañia japonesa de servicios de internet, Au HIkari, mando crea esta fascinante e intrincada máquina de Rube Goldberg.

La luz atraviesa por lentes, derrite hielo, quema cordones, atraviesa prismas y más para mostrar un interesante comercial.

Transforma un smartphone en un detector de rayos cósmicos

Actualidad Informática. Transforma un smartphone en un detector de rayos cósmicos. Rafael BarzanallanaPronto, la capacidad cada vez mayor de los smartphones podría aprovecharse para detectar rayos cósmicos en forma muy similar a como lo hacen observatorios de varios millones de dólares.

Con la adición de una aplicación, los teléfonos con sistema operativo Android, se pueden convertir en detectores de luz para capturar las partículas de rayos cósmicos creados al chocar con la atmósfera de la Tierra.

«Las aplicaciones transforman el teléfono básicamente En un detector de partículas de alta energía», explica Justin Vandenbroucke, de la Universidad de Wisconsin-Madison profesor asistente de física e investigador en el Centro de Astrofísica de Partículas IceCube Wisconsin (WIPAC). «Utiliza los mismos principios que grandes experimentos.»

Los rayos cósmicos son partículas energéticas subatómicas creadas, los científicos piensan, en aceleradores cósmicos como los agujeros negros y las estrellas en explosión. Cuando las partículas chocan en la atmósfera de la Tierra, crean una lluvia de partículas secundarias denominadas muones.

Las cámaras de los teléfonos usan chips de silicio que funcionan a través del efecto fotoeléctrico. Todas las partículas de luz, o fotones, alcanzan un área de silicio y se desencadenan cargas eléctricas. La mismo es cierto para los muones. Cuando un muón golpea el semiconductor que incorpora una cámara del smartphone, se libera la carga eléctrica y crea una huella de píxeles que se puede registrar, almacenar y analizar.

Los rayos cósmicos proceden de fuera de nuestro sistema solar y nuestro planeta está siendo constantemente bombardeado. Sus orígenes siguen confundiendo los astrofísicos, así como las partículas de rayos cósmicos de alta energía que viajan grandes distancias y sus trayectorias se curvan a medida que cruzan los campos magnéticos en el espacio interestelar. Los rayos cósmicos son comunes y confunden frecuentemente observaciones astronómicas en busca de otros fenómenos.
Ampliar en: University of Wisconsin Madison

125 aniversario del kilogramo, patrón de masa

Actualidad Informática. 125 aniversario del kilogramo, patrón de masa. Rafael Barzanallana

El IPK (kilogramo patrón internacional de masa) ha sido el estándar para la masa en los últimos 125 años; fue sancionado en la primera Conferencia General de Pesas y Medidas (CGPM) del siete al nueve de septiembre de 1889 en París (Francia). Es probable que sea de los últimos cumpleaños, pues experimentos actuales para redefinir el kilogramo finalizarán en 2018,  están relacionados con constantes de masa de origen natural en lugar de un objeto físico.

El IPK está hecho de una aleación de platino (90%) e iridio (10%). Esta mezcla fue elegida  porque el platino tiene una alta densidad de modo que el patrón se podría hacer de pequeño volumen y superficie; la adición de iridio mejora la dureza. Tiene una masa fija aproximadamente equivalente a un litro de agua a 4 C, pero su peso varía en función de la gravedad local.

Cuando se fabricó el IPK, también fueron hechas 40 copias de la misma aleación de platino-iridio. Fueron distribuidas para su uso como estándares nacionales para que los científicos no se vieran en la necesidad de volver al IPK (depositado en Sèvres, cerca de París), cada vez que necesitaran una medición precisa de la masa. Estas copias nacionales se comprueban frente al patrón cada 40 años. En la última revisión, en 1989, la desviación máxima era de 50 microgramos. Estos cambios no se tienen plenamente en cuenta y la correspondiente falta de estabilidad de la escala plantea un problema para los científicos. El científico NPL Dr Stuart Davidson comenta que: «Si bien la actual definición del kilogramo es adecuada para el propósito, sabemos que no puede ser perfectamente estable porque todos los artefactos cambiarán su masa con el tiempo, es una preocupación que sabemos que el patrón debe estar cambiando, pero actualmente no hay manera de realmente medir este cambio «.

Dos experimentos están en marcha para redefinir el kilogramo en términos de una constante fundamental. La balanza watt establece el kilogramo con relación a realizaciones cuánticas del voltio y el ohmio, y el experimento Avogadro define un kilogramo en términos de un número fijo de átomos. El concepto de balanza watt fue desarrollado originalmente en el NPL en 1975 por el Dr. Bryan Kibble. NPL trabajó en el desarrollo de la balanza watt hasta 2008, cuando la balanza watt fue trasladado a NRC de Canadá, donde se está produciendo la medición más precisa de la constante de Planck. NPL también lidera un proyecto europeo de investigación para la creación de un vínculo práctico entre los resultados de los nuevos experimentos y la escala masiva de corriente definida por el IPK. Este es un proceso de dos veces, donde la constante de Planck se fijará inicialmente contra la escala actual de masa como se define por el IPK. Después de esto la unidad se realizará por la balanza watt y experimentos Avogadro y la escala de masas tendrán que ser difundidos a partir de estos experimentos que dan cuenta de la unidad en el vacío, a los pesos prácticos en el aire. Esperan completar esta investigación en 2015.

IPK tiene nominalmente incertidumbre cero sobre la escala masiva, se fija frente a ella. Relacionar la escala de forma natural cuando se producen constantes asegurará la estabilidad a largo plazo de la escala, pero, en el corto plazo, aumentará la incertidumbre debido a la incertidumbre en los experimentos de realización. También habrá una incertidumbre adicional de la difusión de la escala de vacío ala aire. Los científicos tienen el objetivo de minimizar estas incertidumbres adicionales a un nivel de alrededor de 3 en 108 que es aproximadamente equivalente a la adición del peso de un grano de arroz al peso total de un coche.

El Dr Stuart Davidson comentó que: «Este aniversario es interesante, ya que muestra cuánto tiempo esta norma para el kilogramo se ha prolongado y por lo tanto lo bueno que fue la elección original de material para el IPK.» El kilogramo es la última unidad metrológica que está vinculada a una cantidad física. A pesar de que el futuro de este patrón es finito, debe estar satisfecho de haber sobrevivido al resto de las unidades del SI.

Fuente: National Physical Laboratory

Teletransporte de un estado cuántico a 25 km

Actualidad Informática. Teletransporte de un estado cuántico a 25 km. Rafael Barzanallana

Físicos de la Universidad de Ginebra  (Suiza) han logrado teletransportar el estado cuántico de un fotón a un cristal a más de 25 kilómetros de fibra óptica.

El experimento, llevado a cabo en el laboratorio del profesor Nicolas Gisin, pulveriza el récord anterior de seis kilómetros alcanzado hace diez años por el mismo equipo, UNIGE. El paso de la luz en la materia, utilizando el teletransporte de un fotón a un cristal, muestra que en la física cuántica la composición de una partícula no es importante, sino más bien su estado, ya que este puede existir y persistir fuera de diferencias tan extremas como aquellas que distinguen la luz de la materia. Los resultados obtenidos por Félix Bussières y sus colegas se presentan en la última edición de Nature Photonics.

Los últimos experimentos han permitido comprobar que el estado cuántico de un fotón se puede mantener mientras se transporta a un cristal,  sin contacto directo. Uno tiene que imaginar el cristal como un banco de memoria para almacenar la información del fotón; este último se transfiere a través de estas distancias utilizando el efecto de la teleportación.

Más de 25 kilómetros

El experimento no sólo representa un notable logro tecnológico sino también un avance espectacular en las posibilidades continuamente sorprendentes que ofrece la dimensión cuántica. Al tomar la distancia de 25 km de fibra óptica, los físicos de UNIGE han superado significativamente su propio récord de seis kilómetros, distancia alcanzada durante la primera teletransportación a larga distancia alcanzada por el profesor Gisin y su equipo en 2003.

Memoria Después de triangulación

Entonces, ¿qué es exactamente esta prueba de entrelazamiento cuántico y sus propiedades? Se tienen que imaginar dos fotones entrelazados, en otras palabras, dos fotones inextricablemente vinculados en el nivel inferior de sus estados conjuntos. Uno es propulsado a lo largo de una fibra óptica (25 km), pero no el otro, que se envía a un cristal. Es como un juego de billar, con un tercer fotón que golpea el primero que hace desaparecer a los dos. Los científicos miden esta colisión. Pero la información contenida en el tercer fotón no se destruye -por el contrario, encuentra su camino hacia el cristal que también contiene el segundo fotón entrelazado.

Por lo tanto, como Félix Bussières autor principal de esta publicación explica, se observa «que el estado cuántico de los dos elementos de luz, estos dos fotones entrelazados que son como dos hermanos siameses, es un canal que permite a la teletransportación de la luz en la materia» .

A partir de ahí, hay un pequeño paso para concluir que, en física cuántica, el estado tiene prioridad sobre el «vehículo» – en otras palabras, las propiedades cuánticas de un elemento trascienden a las propiedades físicas clásicas. Un paso que tal vez ahora uno puede tomar.

Fuente: Quantum teleportation from a telecom-wavelength photon to a solid-state quantum memory, Nature Photonics, DOI: 10.1038/nphoton.2014.215

Computación en la nube y huella de carbono

Actualidad Informática. Computación en la nube y huella de carbono. Rafael Barzanallana

La computación en nube consiste en el desplazamiento de almacenamiento y procesamiento de datos del ordenador del usuario a servidores remotos. Puede proporcionar a los usuarios más espacio de almacenamiento y potencia de cálculo y además se puede acceder desde cualquier lugar del mundo en lugar de tener que conectarse a un único escritorio u otro equipo con sus recursos finitos. Sin embargo, algunos observadores han expresado su preocupación por el aumento de las demandas de energía del mantenimiento de los servidores distribuidos y para que estén en marcha y funcionando de forma continua, el portátil de un usuario individual puede ser desconectado cuando no está en uso.

Ahora, al escribir en International Journal of Information Technology, investigadores de la Universidad de Orán, en Argelia, han investigado cómo los sistemas de computación en la nube pueden ser optimizados para el uso de energía y reducir su huella de carbono. Jouhra Dad y Ghalem Belalem del Departamento de Ciencias de la Computación en Orán explican cómo han desarrollado un algoritmo para controlar las máquinas virtuales que se ejecutan en los ordenadores en un entorno de nube, para que el uso de energía de las unidades centrales de procesamiento central (CPU) y la capacidad de memoria (RAM en comparación con el espacio de almacenamiento de disco duro) se pueda reducir en la medida de lo posible  sin afectar al rendimiento general.

«El consumo de energía se considera como un problema importante en los sistemas que contienen servidores, centros de datos y nubes de computación», dice el equipo. «Estos recursos siguen consumiendo una gran cantidad de energía y producen emisiones de dióxido de carbono.» El estudio del equipo revela que la virtualización de los procesos y la migración en vivo de máquinas virtuales en el servicio en la nube usando su algoritmo de selección y asignación permite que diferentes herramientas y aplicaciones se consoliden para utilizar menos capacidad de CPU y memoria. Esto a su vez reduce la demanda de energía en los servidores al permitir que varias máquinas virtuales que se ejecutan en un solo cálculo remoto accesible a los usuarios sin comprometer el rendimiento.

Para optimizar el consumo de energía de los centros de datos, el enfoque propuesto se divide en dos fases. La primera es la selección de máquinas virtuales mediante la minimización modificada del algoritmo de migración que toma en consideración la utilización de la CPU y la memoria de trabajo. La solución se basa en recursos físicos con  umbrales superior e inferior. La segunda fase es la asignación de las máquinas virtuales migradas que utiliza el problema de la mochila multidimensional modificado. Este algoritmo debe empacar en tantos elementos como sea posible en una «mochila», sin exceder un límite de peso y sin ser forzados a dejar atrás los elementos esenciales al viajar.

Fuente: Dad, J. and Belalem, G. Energy optimisation in cloud computing. Int. J. Information Technology, Communications and Convergence, 2014; Vol. 3, No. 1

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa