admin

Categorías

Coobis

Física

Física

Procesadores Atom con gráficos y controlador de memoria integrados

Los nuevos procesadores Atom, que llevan la mayoría de ordenadores miniportátiles (netbooks),  integran los gráficos y el controlador de memoria en la CPU «para reducir el consumo energético, facilitar el diseño de sistemas más pequeños y mejorar el rendimiento de los equipos», según informa su fabricante, Intel.

Se trata de tres nuevos chips que funcionan a 1.66 GHz. El N450, para miniportátiles, es de un núcleo. El D410 y el D510 son para equipos de sobremesa. El primero lleva un solo núcleo y el segundo doble núcleo conun mega de memoria caché. La familia Atom estará disponible a partir del 4 de enero.

Atom ha sido fabricado desde cero, asegura el principal fabricante de chips del mundo, pensando en los aparatospequeños y de bajo consumo. El tamaño general, incluido el chipset, «se ha podido miniaturizar aún más gracias a la integración que ha permitido el proceso de fabricación de 45 nanómetros (nm) ya que facilita la creación de unos diseños de menor tamaño, más compactos, reduciendo costes de fabricación y mejorando el rendimiento de los equipos», informa en un comunicado.

Desde que Intel anunció los primeros procesadores Atom para miniportátiles y PC de sobremesa en junio de 2008, la compañía ha distribuido más de 40 millones de chips Atom. Según la consultora ABI Research, se espera que el total de procesadores Atom distribuidos a todos los segmentos siga aumentando hasta los centenares de millones en el 2011.

Intel ya ha cerrado más de 80 contratos para el diseño de mini portátiles con los principales fabricantes de equipos informáticos, entre los que se incluyen ASUS, Acer, Dell, Toshiba, Fujitsu, Lenovo, Samsung y MSI .

Fuente: ElPaís.com

__________________

Enlaces de interés:

Intel y la guerra de los derechos de autor DMR

La Comisión Europea impone a Intel la multa récord de 1060 millones de euros

¡La informática en un garaje! 1971 – 1976

Historia microordenadores. Divulgacion informatica

Ley de Moore. Divulgación electrónica. Rafael Barzanallana

Los límites físicos de la carrera de los megapixeles

Desde Caborian hemos hablado en ocasiones del sinsentido en el que se ha convertido la carrera de los fabricantes por ofrecer más y más megapíxels. Esta semana leemos un interesantísimo artículo en Luminous Landscape acerca de un fenómeno óptico que acaba con esta batalla, al menos en el plano técnico que no siempre sigue el mismo camino que el marketing.

Luminous Landscape cita a su vez a un artículo de Cambridge in Colour acerca de cómo la difracción afecta a la nitidez de las imágenes y cómo esto limita la resolución posible máxima de los sensores. En numerosos artículos técnicos se habla de la difracción sin que mucha gente sepa exactamente lo que es. Un antiguo profesor mío decía que la luz dobla las esquinas, como explicación más sencilla a este fenómeno.

En lo que se refiere a imagen fotográfica, la difracción provoca que un haz de luz, al atravesar un orificio pequeño como el diafragma, se disperse llegando al sensor (o película) no ya como como tal rayo de luz sino que se extiende dando lugar a una mancha que se llama disco de Airy. A medida que cerramos más el diafragma, la luz se dispersa más y el disco de Airy crece emborronando la imagen. Cuando llega a tener un tamaño físico mayor que el de un píxel, simplemente ya no podremos resolver tanto detalle.

difracción_airy

En la página de Cambridge in Colour, existe una sencilla calculadora para saber cuándo la difracción del diafragma está afectando a la nitidez. Introduciendo en ella la resolución y el tamaño –formato- del sensor , la apertura del diafragma, y fijando como límite del círculo de confusión dos píxels, podemos ver cuándo la difracción está afectando a la nitidez de nuestra imagen, y ya no se puede resolver más detalle. A partir de un valor de apertura, cerrar más el diafragma hará que perdamos detalle. Como resumen, el límite que impone este fenómeno para las cámaras DSLR más típicas podría ser el siguiente

  • – Para las cámaras de formato Cuatro Tercios: f:8 para 12mpix
  • – Para las cámaras APS-C con factor de recorte 1,5-1,6: f:11 para 12 mpix, y de f:8 para 15 mpix
  • – Para las cámara con sensor FF: f:16 para 12 mpix y de f:11 para 24mpix

La evolución de la tecnología de los sensores hará sin ninguna duda que ganemos rango dinámico e imágenes limpias de ruido para valores de ISO mayores, pero el límite que fija la difracción para que no se pueda aumentar la resolución de los sensores simplemente no se puede superar, va contra las leyes de la física.

Via | Luminous Landscape

Fuente: CABORIAN

Primer ordenador cuántico universal programable

El primer ordenador cuántico programable ha sido puesto en marcha. Pero los programas de prueba han revelado que quedan muchos obstáculos por salvar hasta que el dispositivo pueda estar listo para el trabajo real.

Anteriormente este año, un equipo en el National Institute of Standards and Technology en Boulder, Colorado construyó un ordenador cuántico capaz de procesar dos bits cuánticos o qubits. Los qubits almacenan más información que el simple “on” y “off” de los bits convencionales,  por lo que un ordenador cuántico sería excelente en tareas como el criptoanálisis.

Tal y como sucede en un ordenador clásico, una serie de puertas lógicas procesan la información -aunque aquí las puertas lógicas son cuánticas.

Por ejemplo, una simple puerta de 1 qubit podría cambiar de “uno” a “cero” y viceversa.

afirma David Hanneke, miembro del equipo. Pero al contrario que las puertas lógicas físicas de un ordenador clásico, las puertas lógicas cuánticas usadas en el dispositivo creado por el equipo están codificadas en pulsos láser.

Triquiñuela lógica.

El dispositivo experimental utiliza iones de berilio para almacenar los qubits en el sentido de que rotan mientras el pulso láser de las puertas cuánticas lleva a cabo operaciones lógicas simples en los qubits. El truco para hacer una puerta lógica cuántica está en diseñar una serie de pulsos láser capaces de manipular los iones de berilio para usarlos en el procesamiento de la información. Entonces otro láser lee los resultados de los cálculos.

Una vez hayamos demostrado que podemos combinar satisfactoriamente muchos componentes de este tipo, nos preguntaremos: ¿qué podemos hacer con esto?

dice Hanneke. Encontraron su respuesta en la teoría computacional cuántica.

Uno de los resultados más interesantes que apareció recientemente sobre la información cuántica fue que puedes hacer cualquier operación cuántica en un número arbitrario de qubits utilizando sólo puertas lógicas de qubits simples o dobles.

dice Hanneke. Aunque ya se han construido puertas de uno y dos qubits y usadas para llevar a cabo algoritmos específicos, nadie ha sido capaz de construir un dispositivo capaz de realizar cualquier rutina cuántica posible. Hasta hoy.

Posibilidades ilimitadas.

En el corazón del dispositivo se encuentra una oblea de aluminio con un patrón de oro que contiene una pequeña trampa electromagnética de 200 micras, dentro de la cual el equipo dispuso cuatro iones – dos de magnesio  dos de berilio. Los iones de magnesio actúan a modo de refrigerante, eliminando  cualquier vibración indeseada de la cadena de iones y manteniendo estabilizado el dispositivo.

Hay infinitas posibilidades para la operación de dos qubits, así que el equipo eligió una selección aleatoria de 160 para demostrar la universalidad del procesador. Cada operación implica utilizar los dos qubits con 31 puertas cuánticas diferentes codificadas en pulsos láser. La mayoría fueron puertas qubit simples, y el pulso necesitado para interactuar con sólo uno de los iones, pero un número reducido requirió el uso de las puertas dobles para “comunicarse” con ambos iones.

Controlando el voltaje en los electrodos de oro de la trampa, el equipo pudo acoplar los iones cuando hace falta una puerta qubit simple y volverlos a acoplar cuando son necesarias las puertas dobles para determinadas operaciones.

No es perfecto

El equipo ejecutó cada uno de los 160 programas 900 veces. Comparando los resultados con las predicciones teóricas fueron capaces de mostrar que el procesador trabajó tal y como estaba planeado. Pero sólo con una precisión del 79%, dice Hanneke.

Cada puerta es precisa en más del 90%, pero cuando las juntas, el conjunto global cae hasta un 79% para una operación dada.

afirma. Esto es debido a que cada uno de los pulsos láser que actúa como puertas varía ligeramente en intensidad.

No son pulsos cuadrados (que cambien de ON a OFF bruscamente) sino que fluctúan.

dice. Y el rayo además tiene que partirse, reflejarse y manipularse de cierta manera antes de utilizarlo, lo cual añade más errores.

Estos errores pueden afectar a los resultados de cálculos más extensos. La fidelidad necesita aumentarse hasta el 99.99% antes de que pueda ser un componente funcional de un ordenador cuántico. Esto se podría hacer mejorando la estabilidad del láser y reduciendo los errores del hardware óptico, dice el equipo.

Si llegamos a esos niveles de precisión, el nuevo chip podría convertirse en una parte integral de un ordenador cuántico práctico. Si tienes una tarea simple y repetitiva puede haber una parte dedicada (del procesador) para hacerla. Pero necesitas partes capaces de hacer de todo. Esto es sólo un dispositivo.

Traducción libre de First universal programmable quantum computer unveiled de New Scientist.

También en PhysOrg.

Francis comentó en su día el desarrollo del primer circuito de dos qubits.

Fuente: migui

Bajo licencia Creative Commons

Adivinar salud
2 Amarre
3 Carta astral
4 Consultas de salud
5 Consultas de trabajo
6 Consultas sobre amor
7 Exoterismo
8 hotel barato barcelona
9 Tarotista
10 Videntes

El ordenador cuántico puede tardar 50 años en desarrollarse

Entrevista a Juan Ignacio Cirac

Trabaja entre láseres y complicadas lentes. A sus 44 años ya tiene el Príncipe de Asturias y se dice que será el primer Nobel español de Física. Incluso la ministra Garmendia lo ha vaticinado. Con asombrosa modestia, asegura que lo que le motiva es la investigación diaria.

Sólo unas decenas de científicos comprenden el alcance de la investigación de Juan Ignacio Cirac. Este físico español es el director del Instituto Max-Planck de Óptica Cuántica en Garching (Alemania). Buena parte de su tiempo lo dedica a construir los primeros prototipos del ordenador del futuro.

Pregunta. ¿Qué es la computación cuántica?
Respuesta. Es una rama nueva de la ciencia que intenta aplicar al cálculo con ordenadores las leyes de la física cuántica, que gobierna el mundo microscópico. Los ordenadores actuales funcionan basados en las leyes de la física clásica. Queremos fabricar ordenadores que puedan hacer cosas más potentes, más rápidas, más eficientes y más seguras.

P. ¿Qué propiedades tendrá este ordenador?
R. Todavía no lo sabemos. En la mayoría de los servicios personales, los ordenadores actuales ya son completos. Entonces, un ordenador cuántico, por el hecho de ir más rápido, tampoco cambiaría nuestras vidas. En cambio, esta tecnología puede ser relevante para los ordenadores de supercomputación, máquinas de grandes dimensiones que hacen cálculos muy complicados.

P. Una de las ventajas de este tipo de ordenadores es que los piratas informáticos no tendrán alternativa…
R. Podemos hacer que dos partículas intercambien información sin que pase por ningún sitio, sin que se envíe nada de una a otra. La física cuántica permite que la información desaparezca de un sitio y aparezca en otro sin pasar por en medio. Por ejemplo, los hackers que estén mirando un correo electrónico no podrán hacer nada.

P. ¿Y se podrán proteger los mensajes?
R. Claro. Como no pasa información de un sitio a otro se podrán encriptar.

P. ¿Existe algún calendario para comercializar estos sistemas?
R. Algunas empresas empiezan a vender sistemas de comunicación segura para cortas distancias. Pero su éxito también requiere tiempo, porque los equipos son muy caros y no existe una necesidad aún para ellos. Hasta que no tengamos la nueva generación de ordenadores cuánticos las criptografías que utilizamos actualmente ya son suficientes. Con todo, hay empresas que venden sistemas criptográficos cuánticos, sistemas de generador con números aleatorios, cosas de este estilo. En cualquier caso, los ordenadores cuánticos tardarán mucho tiempo en desarrollarse, dependiendo de la tecnología. Pueden incluso tardar 50 años. Pero a los que hacemos investigación básica las aplicaciones no nos preocupan, porque la historia siempre ha dicho que lo que habíamos imaginado como aplicación más importante al final es residual.

P. ¿El Premio Nobel es un objetivo?
R. Me siento muy honrado de que la gente hable de esto, pero la verdad es que no es realista. Los criterios que se fijan para dar el Premio Nobel son que la investigación haya tenido un impacto social importante, como el descubrimiento del origen del Universo, o algo así. Yo creo que mi trabajo y el de otros científicos de mi campo está teniendo un impacto exclusivamente científico, por lo que no es tiempo de hablar de Nobel.

Fuente: MADRID+D

__________________

Enlaces relacionados:

El fí­sico español Cirac gana el Príncipe de Asturias de Investigación Científica

Nuevo material que supone avance en la computación cuántica

Resistir los pulsos electromagnéticos

Una de las mayores debilidades de los ejércitos modernos es la dependencia de la electricidad y la electrónica. De hecho ya se ha demostrado que un golpe a la logística de la energía puede asestar el golpe definitivo, pero algo que tienen muy en cuenta a la hora de diseñar dispositivos es la resistencia frente a los pulsos electromagnéticos.

Un pulso electromagnético se produce en una gran explosión, se trata de un campo magnético producido por el efecto Compton en electrones que varía rapidísimamente. Este tipo de campos pueden inducir corrientes en los circuitos electrónicos muy intensas que los destruyen por completo si no están apropiadamente aislados. Sucedería en caso de una explosión nuclear o de un impacto de un asteroide y en frecuencias de hasta 30 kHz.

Durante las numerosas pruebas nucleares llevadas a cabo por Estados Unidos, una de ellas realizada a gran altitud, la Starfish Prime era una bomba nuclear de 1.4 megatones detonada a 400 kilómetros de altura. Produjo un pulso electromagnético tan intenso que hizo saltar por los aires farolas en Hawaii, además de dejar sin luz a miles de hogares, a más de mil kilómetros de distancia. Se observaron además auroras típicas de las regiones polares.

Como dice una de las leyes de Murphy del combate, si hay algo que tiene más puntería que el fuego enemigo es el fuego amigo. Y en el caso de las explosiones nucleares, aunque el efecto devastador de la bola de fuego sea localizado, el pulso electromagnético puede freir cualquier dispositivo electrónico a centenares de kilómetros de distancia. Desde un avión hasta un teléfono. Todo quedaría inutilizado inmediatamente. Sobre este tema aberron escribió un buen artículo en Fogonazos llamado Las bombas del arcoiris.

Artículo compelto en: Migui

Bajo licencia Creative Commons

Medido el campo magnético de la luz en una fibra óptica

James Clerk Maxwell y Heinrich Hertz demostraron teórica y experimentalmente que la luz es una onda electromagnética. En las longitudes de onda ópticas los experimentos han logrado medir solamente la componente eléctrica del campo ya que la componente magnética es muchísimo más débil. Burresi et al. han logrado la primera medida directa de las componentes magnéticas de la luz a la salida de una fibra óptica de vidrio gracias a una sonda metálica nanoestructurada, una especie de microscopio por efecto túnel óptico. La microscopía óptica por campo cercano (SNOM o scanning near-field optical microscopy) permite observar la luz a una distancia menor que una longitud de onda (de dicha luz), es decir, su resolución no está limitada por la difracción de Abbe. Para la luz infrarroja en una fibra óptica, este límite difractivo impide observar la luz en distancias menores de 500 nm. (nanómetros). Gracias a la nueva técnica se han podido observar las características ópticas en la nanoescala de los campos magnéticos en pulsos de luz. Nos lo cuentan Harald Giessen, Ralf Vogelgesang, “Glimpsing the Weak Magnetic Field of Light,” Science 326: 529-530, 23 October 2009, haciéndose eco del artículo técnico de M. Burresi, D. van Oosten, T. Kampfrath, H. Schoenmaker, R. Heideman, A. Leinse, L. Kuipers, “Probing the Magnetic Field of Light at Optical Frequencies,” Science 326: 550-553, 23 October 2009.

El cociente entre la contribución al campo electromagnético de la luz de las componentes eléctrica y magnética por separado es de la constante de estructura fina al cuadrado, aproximadamente 4 órdenes de magnitud. Esta diferencia es tan grande que ha permitido observar experimentalmente la contribución magnética sólo en ondas de radio con una longitud de onda entre centímetros y metros. En el régimen óptico es necesario amplificar la componente magnética de alguna manera. En un metamaterial formado por pequeños anillos resonadores nanométricos (con un área de 100 nm. por 100 nm.) es posible realizar dicha amplificación de los campos magnéticos hasta en 6 órdenes de magnitud. Esta es la técnica que han utilizado Burresi et al. han logrado observar tanto el campo magnético como el eléctrico en una fibra óptica y han comprobado que están desfasados exactamente 90º, como la teoría predice, confirmando que la señal que interpretan como campo magnético realmente lo es.

Noticia completa en: Francis (th)E mule Science’s News
___________________
Enlaces de interés:

Historia de la medida de la velocidad de la luz

Teorías sobre la naturaleza de la luz

Seguridad del estado con un toque de luz

Premio Nobel Física 2009

El científico chino Charles K. Kao (también tiene nacionalidad británica) ha sido galardonado con el Premio Nobel de Física 2009, por sus “extraordinarios logros en materia de transmisión de la luz mediante fibras para la comunicación”. Compartirá el premio con dos científicos estadounidenses, Willard S. Boyle y George E. Smith, quienes han sido premiados por la invención del sensor CCD.

El invento de Boyle y Smith data de hace 40 años. Fue en 1969 cuando crearon el primer sensor CCD, uno de los elementos principales de las cámaras fotográficas digitales. Básicamente, el CCD es el sensor que capta la imagen que queremos fotografiar, gracias a sus diminutas células fotoelétricas. La capacidad de detalle de la cámara fotográfica dependerá del número de células fotoeléctricas de las que disponga el CCD. La teoría inicial fue expuesta por Albert Einstein, razón por la cual fue galardonado por el Nobel en el año 1921. Básicamente, el sensor CCD es el ojo de nuestras cámaras. Ni que decir tiene que la investigación ha crecido exponencialmente gracias al uso de las cámaras digitales, permitiendo posibilidades impensables antes de su creación.

Además, le tecnología desarrollada por ambos científicos tuvo una gran acogida en el ámbito de la astronomía, aumentando la sensibilidad de las anteriores películas fotográficas (un 70% frente a un 2%).

Charles K. Kao, nacido en 1933, es un pionero en el uso de las fibras ópticas en telecomunicaciones. En los sesenta, Charles K. Kao consiguió transmitir luz a 100 kilómetros de distancia gracias a las fibras ópticas, cuando por aquel entonces el máximo que se había conseguido transmitir era de 20 metros. Hoy en día, las fibras ópticas copan todo el sistema de telecomunicaciones, consiguiendo transmitir cualquier vídeo, imagen, sonido o texto, a cualquier parte del planeta, en una porción de segundo. Si pudieramos poner en línea toda la fibra óptica que sostiene el planeta, tendríamos un simple cable de más de mil millones de kilómetros, algo así como lo suficiente para ponerle un cinturón a la Tierra… (¡con 25.000 vueltas!).

Fuente:  EspacioCiencia

____________________

Enlaces relacionados:

Premios Ig Nobel 2009

Un Nobel de Física predice que el fin de la electrónica convencional llegará en diez años

Biografía de Richard Feynman. Fisica

Biografía de Andrei Sakharov. Fisica

Tutoriales y divulgación de Física. Rafael Barzanallana

El control de la energía en los centros de datos

Aunque el 68% de ellos considera la gestión de datos una tarea importante, sólo el 7% de ellos considera imprescindible la medición energética.

Los administradores IT no están prestando suficiente atención al proceso de medición, seguimiento y modelización de uso de la energía en los centros de datos. A menos que los usuarios empiecen a crear cuadros de mando precisos, no serán capaces de reducir los costes de energía.

A pesar de que la gestión de los problemas IT siguen estando “verdes”, los responsables de estos departamentos califican un asunto de poca prioridad todo lo relacionado con la eficiencia energética, según un estudio de Gartner.

Aunque el 68% de los encuestados considera la gestión de datos importante, sólo el 7% de ellos define importante las adquisiciones ambientales dirigidas a reducir costes energéticos.

“Se está produciendo una tendencia curiosa. Si a día de hoy se encuentran disponibles servidores eficientes desde el punto de vista energético, los administradores IT prestan mayor atención a proyectos internos como la consolidación, la virtualización y la racionalización”, explica Rakesh Kumar, vicepresidente de investigación de Gartner.

Al margen de esta aparente falta de preocupación por la medición y el control del uso de la energía, el 63% de los encuestados han confesado que se enfrentarán a problemas relacionados con la capacidad de los centros de datos en los próximos 18 meses.

Más importante aún, el 15% ha confirmado que sus centros se verán obligados a crear nuevos sitios o a restaurar los existentes dentro del próximo año.

Además, el 48% de ellos no considera importante la métrica en la medición de la energía. “Estos indicadores constituyen la base de los costes internos y los programas de eficiencia y lo serán cada vez más en los externos”, apunta Rakesh Kumar.

Con el fin de incluir indicadores, la medición y la modelización de la estrategia verde de un centro de datos IT, Gartner recomienda a los administradores poner en marcha las siguientes recomendaciones:

Elevar la temperatura en el punto de entrada del servidor hasta los 24 grados centígrados pero utilizando sensores para controlar posibles puntos negros, medir los costes energéticos, utilizar SPECpower para llevar a cabo la medición y mejorar la infraestructura existente mediante la consolidación y la virtualización antes de incorporar datos adicionales.

Fuente: siliconnews.es

________________

Enlaces relacionados:

Despilfarro energetico en informatica

La energía es única. Física y pseudociencias. Rafael Barzanallana

Fuentes de alimentación, para PC

Sistema de visión artificial para invidentes para ver utilizando la lengua

Vemos con el cerebro, no con los ojos.” Un nuevo dispositivo permite ver a los invidentes utilizando las terminaciones nerviosas de la superficie de la lengua. Las imágenes de una cámara son enviadas a una matriz de electrodos que se coloca sobre la lengua permitiendo, tras cierto entrenamiento, ver a una persona ciega. BrainPort sustituye los dos millones de nervios ópticos de un ojo por una matriz cuadrada de 400 elecrodos que se coloca sobre la lengua. Cada electrodo genera un pulso eléctrico correspondiente a un promedio de ciertos píxeles en la imagen de una cámara, siendo el blanco un pulso eléctrico fuerte y el negro la ausencia de pulso eléctrico. “Tan fácil como aprender a montar en bicicleta.” Los estudios indican que unos 15 minutos de entrenamiento son suficientes para que una persona invidente logre obtener información espacial de su entorno que le permita moverse y evitar obstáculos. Tras una semana, la mayoría de los sujetos aprenden a encontrar puertas y botones de ascensores, a leer letras y números, y a agarrar vasos o tenedores colocados en una mesa. BrainPort es un sistema de visión para invidentes no invasivo que se sometió a evaluación por el gobierno americano (U.S. Food and Drug Administration) a finales de agosto, por lo que podrá comercializarse a inicios del año próximo, con un precio estimado de 10 mil dólares americanos. Nos lo cuenta Mandy Kendrick ,”Tasting the Light. Device lets the visually impaired “see” with their tongues,” Scientific American, october 2009, pp. 22-24.

Fuente: Francis (th)E mule Science’s News

Wifi y calentamiento de alimentos

¡Sí!, pero necesitas muchísimos fotones para lograrlo. Vamos a explicarlo.

1) La Wi-Fi es un sistema de envío de datos que usa ondas de radio para enviar la información. Estas ondas viajan con una frecuencia alrededor de 2.4 GHz2) Las ondas de radio son un tipo de radiación electromagnética. De acuerdo a la mecánica cuántica, el elemento mínimo de esta radiación es el fotón, el cual porta energía, la cual es inversa a la longitud de onda (lambda). Es decir, en unidades de electrón volts:
Donde h es la constante de Planck y c es la velocidad de la luz en el vacío. Por ejemplo, veamos una tabla de valores de energía por cada fotón, :

Tipo de radiación, longitud de onda (m), Energia respecto a los Rayos X (sin unid.)

Rayos X, 10 e-10, 1,
Luz visible (verde), 530 e-9, 1.89e-4
Horno de microondas o Wi-Fi, 0.125, 8.e-10

la e representa 10 multiplicado por …

Es decir, la energía del horno de microondas y del Wi-Fi es muy, muy pequeña en comparación con la radiación de los Rayos X, los cuales si pueden afectar tejido y hasta el ADN.

3)¿Con tan poca energía como pueden calentar la comida las microondas? Pues bien, estos fotones no están aislados, son muchos los que se emiten en el microondas, estos fotones son justamente capturados por los niveles exteriores las moléculas del agua en los alimentos, y las moléculas se agitan, lo cual causa el aumento de temperatura en la comida. Es decir, alimentos sin agua, poco se calentaran en el horno microondas.

Luego entonces, ¿puedo hacer palomitas de maíz con mi Wi-Fi? Pues si, pero se requieren muchos fotones de tu Wi-Fi para calentar el alimento. Por ejemplo, el horno de microondas
Trasmite millones de fotones por segundo en comparación con el emisor Wi-Fi. De esa pequeña fracción, el cuerpo humano y los alimentos absorben una pequeña fracción. Por lo cual es impráctico (bastante) intentar cocinar con tu Wi-Fi.

Bajo licencia Creative Commons

______________________
Enlaces relacionados:

Apuntes Introduccion a la Informática. Redes y comunicaciones

Dos científicos valientes, contra la ‘sinrazón electromagnética

Móviles y salud. Desmontando mitos

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa