Un equipo de físicos de la Universidad de Toronto (Canadá) liderados por Alex Hayat ha propuesto una forma novedosa y eficiente para aprovechar el fenómeno de la física cuántica conocido como entrelazamiento. El enfoque implicaría la combinación de diodos emisores de luz (LED) con un superconductor para generar fotones entrelazados y podría abrir un rico espectro de una nueva física , así como dispositivos de tecnologías cuánticas, incluidos los ordenadores cuánticos y la comunicación cuántica. El entrelazamiento se produce cuando las partículas se convierten en pares correlacionados para interactuar previsiblemente entre sí , independientemente de lo lejos que están. Mida las propiedades de uno de los miembros del par entrelazado y al instante conocer las propiedades de la otra. Es uno de los aspectos más desconcertantes de la mecánica cuántica, lo que lleva a Einstein a llamarlo » acción fantasmal a distancia».
«Una fuente de luz habitual tal como un LED emite fotones al azar sin ningún tipo de correlaciones», explica Hayat, quien también es Académico en el Instituto Canadiense de Investigaciones Avanzadas. » Hemos demostrado que la generación de entrelazamiento entre los fotones emitidos desde un LED se puede lograr mediante la adición de otro efecto físico peculiar, la superconductividad – una corriente eléctrica sin resistencia en ciertos materiales a bajas temperaturas «.
Este efecto se produce cuando los electrones se enlazan en pares de Cooper. Cuando una capa de dicho material superconductor se coloca en estrecho contacto con una estructura de LED de semiconductores, los pares de Cooper se inyectan en el LED, de modo que los pares de electrones entrelazados crean pares de fotones entrelazados. El efecto, sin embargo, resulta que sólo funciona en LEDs que utilizan regiones activas de nanómetros de espesor – pozos cuánticos.
«Por lo general las propiedades cuánticas aparecen en escalas muy pequeñas – un electrón o un átomo de superconductividad permite que los efectos cuánticos aparezcan en grandes escalas, un componente eléctrico o todo un circuito. Este comportamiento cuántico puede mejorar significativamente la emisión de luz en general, y la emisión de fotones entrelazados en particular», dijo Hayat.
Fuente: University of Toronto
armarios lacados
guardamuebles las palmas
Incineracio animals Barcelona
En octubre de este año se cumplirán diez desde que Andre Geim y Konstantin Novoselov subiesen al repositorio arXiv un artículo que les valdría el premio Nobel en 2010. Se trataba de la primera vez que se obtenía un material de dos dimensiones (2D) con unas propiedades electrónicas muy particulares, el grafeno. Desde entonces se ha convertido en el material de moda del que se esperan múltiples aplicaciones futuras.
Esta moda de los materiales 2D ha provocado que se estudien todo tipo de compuestos a la espera de que alguno dé la sorpresa y tenga alguna peculiaridad en su comportamiento que, entre otras cosas, tenga la capacidad de hacer millonario a su descubridor. Así, por ejemplo, a principios de este año se presentaba en sociedad el borofeno. La revista de ingeniería Spectrum calculaba en junio de 2013 que habría del orden de 100 compuestos con verdaderas posibilidades de conseguirse en 2D.
Y ahí estriba precisamente el problema de los materiales 2D, que son 2D, es decir, que obtenerlos es complejo y manejarlos puede serlo aún más. Lo ideal sería entonces tener un material 3D que se comporte como uno 2D evitando de esta manera estas costosas complicaciones. Y esto es precisamente lo que ha obtenido por primera vez un equipo de investigadores encabezado por Sefaattin Tongay, de la Universidad de California en Berkeley y la Academia China de Ciencias, un material 3D con las propiedades de un material 2D llamado disulfuro de renio (ReS2). Han publicado sus resultados en Nature Communications.
El ReS2 pertenece a una clase de materiales llamados dicalcogenuros de metales de transición (DMT). Con este nombre se agrupan compuestos de fórmula MX2, en los que M es un metal de transición y X un elemento del grupo 16 de la tabla periódica, es decir, oxígeno, azufre, selenio o teluro. Una de las características más interesantes de los DMT-2D es que tienen bandas prohibidas directas, lo que les permite absorber y emitir luz eficientemente y les hace candidatos muy prometedores para ser parte de la próxima generación de materiales usados en optoelectrónica y en células fotovoltaicas.
Sin embargo, estas propiedades tan atractivas de los DMT sólo aparecen en el caso de que estén en forma de monocapa; cuando están en 3D se produce un acoplamiento entre las capas que hace que la banda prohibida sea indirecta, lo que reduce drásticamente sus propiedades ópticas y electrónicas.
Las aplicaciones de un nuevo material 3D que se comporta como una monocapa de 2D es muy probable que comiencen a crecer tan rápidamente como los materiales 2D lo han hecho en la última década. Será muy interesante ver el impacto que tendrá en el futuro de los materiales 2D, incluido el grafeno.
Fuente: néxt
De acuerdo con Intel , 639900 GB de datos se transfiere cada minuto en internet . Eso incluye 204 millones de correos electrónicos, 61141 horas de música, y 277000 conexiones de Facebook . La tarea de mantener internet a este ritmo voraz recae en gran medida en la tecnología de comunicación de datos , que nos ayuda a la transferencia de datos entre sistemas informáticos y dispositivos.
Nuestra necesidad de velocidades de datos más rápidas parece cercana a los límites de nuestra tecnología de comunicaciones de datos actual, pero un descubrimiento reciente de investigadores de IBM es motivo de optimismo añadido. No sólo se estableció un nuevo récord para la transmisión de datos por fibra óptica – batiendo un récord anterior que habían superado el año pasado – lo hicieron utilizando la tecnología y los métodos que muchas personas pensaban que eran anticuados.
Lograron una tasa de datos de 64 Gb/s , que es de alrededor de un 14 por ciento más rápida que su anterior récord y cerca de 2,5 veces más rápida que las capacidades generales de la tecnología actual. Aunque este aumento de velocidad es impresionante por sí solo, este registro de datos también sirve a un propósito más elevado como evidencia tan deseada, que la tecnología de comunicaciones de datos que tenemos ahora todavía tiene algunos años más de vida. » El tema general de la investigación es tratar de explorar los límites de la tecnología de comunicaciones de datos que está siendo utilizada en la actualidad de hoy», dice Dan Kuchta , uno de los investigadores de IBM que trabajaron en este proyecto.
Este hito hace hincapié en la utilidad de continuar con la tecnología actual de varias maneras. La fibra óptica multimodo que utilizan es un cable de relativamente bajo costo que a menudo se encuentra en centros de datos y superordenadores. Estos cables se limitan a 57 metros de longitud , pero Kuchta dice que los enlaces ópticos en los dos últimos sistemas que construyeron eran de menos de 20 metros. Uno de estos sistemas era la supercomputadora Sequoia en el Laboratorio Nacional Lawrence Livermore . Los investigadores también utilizaron la modulación estándar de no retorno a cero ( NRZ ) para enviar los datos. El emparejamiento de los dos permite un tiempo de transmisión especialmente rápida, que es vital en la computación de alto rendimiento.
Antes de esta investigación, algunos expertos creen que las tasas de transferencia que utilizan modulación NRZ se limitarían a 32 Gb/s , peligrosamente cerca del 25 a 28 Gb/s de velocidad a la que gran parte de nuestra tecnología se está ejecutando. Como muchos de nosotros sabemos, las tasas de datos lentas pueden obstaculizar la actividad de los ordenadores, como cuando un vídeo se mantiene parando para cargarse . Si las tasas de transferencia caen demasiado lejos para nuestra tecnología, algunas aplicaciones pueden dejar de funcionar por completo .
Está listo para su comercialización en este momento
La clave para alcanzar la velocidad es aplicando un método de comunicación eléctrica a este proceso óptico. «Están usando la electrónica para ampliar el ancho de banda del láser y ese es el gran paso», dice Stephen E. Ralph , director de Georgia Tech’s Terabit Optical Networking Consortium. Los investigadores emparejaron un láser emisor de superficie de cavidad vertical ( VCSEL ) con un chip de silicio – germanio, hechos a medida de IBM . El VCSEL, también, es un ejemplo de una tecnología de bajo costo con algunas preguntas sobre su futuro. Su ancho de banda de 26 GHz generalmente permitiría llegar a una tasa de alrededor de 44 GB/s , pero el chip de IBM logra más allá de eso.
Al final, todo esto se reduce a un ahorro de costes. Kuchta estima que esta tecnología cuesta alrededor de un tercio de otras opciones que utilizan fibras monomodo
Un equipo de ingenieros de varias universidades ha desarrollado lo que podría ser una solución prometedora para cargar baterías de teléfonos inteligentes en cualquier lugar – sin la necesidad de un cable eléctrico.
Incorporado directamente en una vivienda móvil, el equipo nanogenerador podría capturar y convertir la energía de vibración de una superficie, tal como el asiento del pasajero de un vehículo en movimiento, en energía para el teléfono.»Creemos que este desarrollo podría ser una nueva solución para la creación de la electrónica personal autocargable», dijo Xudong Wang, profesor asistente de ciencia de los materiales e ingeniería en la Universidad de Wisconsin-Madison (EE.UU.).
Wang, el estudiante Yanchao Mao y colaboradores de la Universidad Sun Yat-sen en China, y la Universidad de Minnesota Duluth describieron su dispositivo, un nanogenerador piezoeléctrico mesoporoso, en la revista Advanced Energy Materials.
El nanogenerador se elebora de un material de polímero piezoeléctrico común llamado fluoruro de polivinilideno, o PVDF. Los materiales piezoeléctricos pueden generar electricidad a partir de una fuerza mecánica, a la inversa, también pueden generar una tensión mecánica a partir de un campo eléctrico aplicado.
En lugar de depender de una red o de un campo eléctrico, los investigadores incorporaron nanopartículas de óxido de zinc en una película delgada de PVDF para desencadenar la formación de la fase piezoeléctrica que permite la captura de la energía de vibración. Luego, se graban las nanopartículas de la película, y los poros interconectados resultantes – llamados «mesoporos» debido a su tamaño – hacen que el material de otra manera rígido, se comporte como una esponja.
Ese material esponjoso que es clave para la captura de la energía de vibración. «Cuanto más blando sea el material, más sensible es a pequeñas vibraciones», dice Wang.
El nanogenerador en sí incluye hojas de electrodos delgados en la parte delantera y trasera de la película de polímero mesoporoso, y los investigadores pueden adjuntar esta película suave, flexible a la perfección a las superficies planas, rugosas o con curvas, incluyendo la piel humana. En el caso de un teléfono móvil celular, utiliza el propio peso del teléfono para mejorar su desplazamiento y amplificar su salida eléctrica
El nanogenerador podría convertirse en una parte integral de un dispositivo electrónico y automáticamente la energía capturada de las vibraciones ambientales serviría para alimentar el dispositivo directamente.
Wang dice que la sencillez del proceso de diseño y fabricación de su equipo se puede escalar bien a los ajustes de fabricación más grandes. «Podemos crear propiedades mecánicas sintonizables en la película», dice. «Y también es importante el diseño del dispositivo. Porque nos podemos dar cuenta que con esta estructura, podría llegar a ser posible encender el teléfono o disponer de sistemas de sensores autoalimentados».
Fuente:Universidad de Wisconsin-Madison
Las redes de máquinas a escala nanométrica ofrecen interesantes aplicaciones potenciales en la medicina, la industria, la protección del medio ambiente y la defensa, pero hasta ahora hay un problema: la limitada capacidad de las antenas a nanoescala fabricadas a partir de componentes metálicos tradicionales.
Con antenas hechas de materiales convencionales como el cobre, la comunicación entre nanomáquinas de baja potencia sería virtualmente imposible. Pero mediante el aprovechamiento de las propiedades electrónicas únicas del material conocido como grafeno, los investigadores ahora creen que están en el buen camino para conectar dispositivos alimentados por pequeñas cantidades de energía.
Sobre la base de una red de nido de abeja de átomos de carbono, el grafeno podría generar un tipo de onda de superficie electrónica que permitiría antenas de sólo una micra de largo y de 10 a 100 nanómetros de ancho para hacer el trabajo de antenas mucho más grandes. Mientras que como operan estas nano-antenas aún no se han demostrado, los investigadores dicen que sus modelos matemáticos y las simulaciones muestran que las nano-redes que utilizan el nuevo enfoque son factibles con el material alternativo.
«Estamos explotando la propagación peculiar de los electrones en el grafeno para hacer una pequeña antena que pueda irradiar frecuencias mucho más bajas que las antenas metálicas clásicas del mismo tamaño», dijo Ian Akyildiz, profesor Ken Byers en la Escuela de Ingeniería Eléctrica y Ingeniería Informática en el Instituto de Tecnología de Georgia. «Creemos que esto es sólo el comienzo de un nuevo paradigma de las comunicaciones en red y basada en el uso de grafeno.»
Patrocinado por la Fundación Nacional para la Ciencia, la investigación está programada para ser publicada en la revista IEEE Journal of Selected Areas in Communications (IEEE JSAC). Además de las antenas a nanoescala, los investigadores también están trabajando en transceptores a nanoescala basados ??en el grafeno y los protocolos de transmisión que serían necesarios para la comunicación entre las nanomáquinas.
El desafío es que en las comunicaciones en la escala del micrón, las antenas metálicas tendrían que operar a frecuencias de cientos de terahercios. Si bien esas frecuencias pueden ofrecer ventajas en la velocidad de comunicación, su rango estaría limitado por las pérdidas de propagación a unos pocos micrómetros. Y ellos requieren mucha potencia – más que las nanomáquinas pueden tener.
Akyildiz ha estudiado nanonetworks desde finales de 1990, y llegó a la conclusión de que la comunicación electromagnética tradicional entre estas máquinas podría no ser posible. Pero entonces él y su Ph.D. estudiante, Josep Jornet – quien se graduó en agosto de 2013 y ahora es profesor adjunto en la Universidad Estatal de Nueva York en Buffalo – comenzó a leer acerca de las sorprendentes propiedades del grafeno. Estaban especialmente interesados en cómo se comportan los electrones en las hojas de una sola capa de material.
«Cuando los electrones en el grafeno son excitados por una onda electromagnética entrante, por ejemplo, empiezan a moverse hacia atrás y adelante», explicó Akyildiz. «Debido a las propiedades únicas del grafeno, esta oscilación global de la carga eléctrica se traduce en una onda electromagnética confinada en la parte superior de la capa de grafeno.»
Conocido técnicamente como surface plasmon polariton (SPP) wave, el efecto será permitir que las nano-antenas puedan operar en el extremo inferior del rango de frecuencia de terahercios, entre 0,1 y 10 terahercios – en lugar de al 150 terahertz requerido por las antenas de cobre tradicionales en tamaños nanométricos. Para la transmisión, las ondas de SPP se pueden crear mediante la inyección de electrones en la capa dieléctrica por debajo de la hoja de grafeno.
Los materiales tales como oro, plata y otros metales nobles también pueden apoyar la propagación de las ondas SPP, pero sólo en frecuencias mucho más altas que el grafeno. Los materiales convencionales como el cobre no son compatibles con las ondas.
Al permitir la propagación electromagnética a frecuencias de terahercios inferiores, las ondas SPP requieren menos energía – poniéndolas al alcance de lo que podría ser factible para nanomáquinas operadas por tecnología de recolección de energía por primera vez por Zhong Lin Wang, profesor en Georgia Tech’s School of Materials Science and Engineering.
«Con esta antena, podemos reducir la frecuencia en dos órdenes de magnitud y reducir las necesidades de energía de cuatro órdenes de magnitud», dijo Jornet. «Con el uso de esta antena, creemos que las técnicas de recolección de energía desarrolladas por el Dr. Wang nos daría la energía suficiente para crear un enlace de comunicaciones entre las nanomáquinas.»
Las nanomáquinas en la red de Akyildiz y Jornet Envision incluirían varios componentes integrados. Además de los nanogeneradores de recolección de energía, habría detectores a nanoescala, procesamiento y memoria, las tecnologías que están en desarrollo por otros grupos. La antena y el transceptor de trabajo a nanoescala que se realiza en Georgia Tech permitiría que los dispositivos se comuniquen la información tienen la sensación y el proceso con el mundo exterior.
«Cada uno de estos componentes podría tener una medida a escala nanométrica, pero en total tendríamos una máquina de medición de unos pocos micrómetros», dijo Jornet. «Habría un montón de ventajas y desventajas en el uso y el tamaño de la energía.»
Más allá de dar a las nanomáquinas la capacidad de comunicarse, cientos o miles de conjuntos de antena de transceptor de grafeno podrían ser combinados para ayudar a que los teléfonos celulares y portátiles conectados a internet se comunican más rápido.
«La banda de terahercios puede aumentar las tasas actuales de datos en las redes inalámbricas en más de dos órdenes de magnitud», señaló Akyildiz. «Los tipos de datos en los sistemas celulares actuales son hasta un gigabit por segundo en redes LTE avanzadas o 10 gigabits por segundo en las llamadas ondas milimétricas o sistemas de 60 gigahertz. Esperamos que la transmisión de datos en el orden de los terabits por segundo en la banda de terahertz «.
Las propiedades únicas de grafeno, Akyildiz dice, son fundamentales para esta antena – y otros dispositivos electrónicos en el futuro.
«El grafeno es un nanomaterial muy poderoso que dominará nuestras vidas en el próximo medio siglo», dijo. «La comunidad europea va a apoyar un gran consorcio formado por muchas universidades y empresas con una inversión de mil millones de euros para llevar a cabo la investigación sobre este material.»
Hasta ahora, los investigadores han evaluado numerosos diseños nano-antena utilizando técnicas de modelado y simulación en el laboratorio. El siguiente paso será el de fabricar en realidad una nano-antena y operar utilizando un transceptor también basado en el grafeno.
«Nuestro proyecto muestra que el concepto de nano-antenas basadas ??en el grafeno es factible, sobre todo si se tiene en cuenta los modelos muy precisos de transporte de electrones en el grafeno», dijo Akyildiz. «Quedan muchos retos abiertos, pero este es un primer paso hacia la creación de nanomáquinas avanzada con muchas aplicaciones en los campos biomédicos, ambientales, industriales y militares.»
La investigación descrita aquí fue apoyada por la National Science Foundation bajo el número de concesión CCF-1349828. Las opiniones o conclusiones son las de los autores y no necesariamente reflejan los puntos de vista oficiales de la NSF.
Georgia Institute of Technology (2013, December 12). Graphene-based nano-antennas may enable networks of tiny machines. ScienceDaily.
En la Universidad de Harvard (liderados por Jennifer A. Lewis) han diseñado un nuevo método de fabricación de baterías Li-ion que combina las indudables bondades de la tecnología (existente) de micro-impresión 3D con una nueva «tinta» nanotecnlológica que ellos mismos han desarrollado. Veámoslo con más detalle.
El proceso de fabricación completo consta de cuatro fases que se describen en la imagen inferior y que, a su vez, requieren de cierta preparación previa:
c) Impresión del cátodo. El proceso de preparación y aplicación de esta fase es idéntico al anterior, lo único que se modifica es el material a utilizar, que en este caso es LFP (ferrofosfato de Litio o LiFePO4), muy común en la fabricación de baterías tradicionales de Li-ion.
d) Empaquetado. Última fase del proceso que es perfectamente adaptable al uso de la batería. Puede incluir elementos de conexionado o simplemente aislar la batería con un encapsulado plástico o de cristal.
Una vez finalizado el proceso, la batería se solidifica a temperatura ambiente y está lista para su uso, evitando el tratamiento de alta temperatura que se utiliza en baterías de Li-ion tradicionales. El producto final son microbaterías de Li-ion de 1 mm3 en las primeras pruebas, que es el tamaño aproximado de un grano de arena y unas 1000 veces inferior al volumen de las baterías comerciales más pequeñas que se pueden encontrar en el mercado.
La posibilidad que nos brinda esta tecnología es doble; por un lado puede ofrecer una solución energética excepcional para el desarrollo de nuevos dispositivos microscópicos, como sensores biomédicos o microdrones. Por otro, al ser esta tecnología escalable, abre nuevas posibilidades en el campo del autoconsumo o de las tecnologías móviles.
Ampliar en: Relampo
armarios lacados
guardamuebles las palmas
Incineracio animals Barcelona
Reticare, es la marca de una lámina que, a cambio de un nada módico precio, supuestamente protege a los usuarios de dispositivos con pantallas iluminadas por LED (móviles táctiles, tabletas, etc.) de lo que la propia empresa vendedora califica como “luz tóxica“, unas malvadísimas radiaciones que por lo visto nos van a dejar a todos ciegos. Una afirmación que resulta tremendamente chocante, la verdad. Pero tranquilos: según nos explica también la empresa, el producto está avalado por los trabajos de investigación de un grupo de científicos de la Universidad Complutense de Madrid.
En fin, un aval científico tan impresionante como… bueno, digamos que poco consistente. Lo cuenta muy bien el prestigioso blog Ocularis en esta entrada, de la que reproduzco un par de párrafos:
Voy a intentar resumir tanto artículo con un párrafo. Los ojos trabajan con luz, necesitan la luz para ejercer su función. Es un órgano que está expuesto a la radiación solar en todos los animales, incluidos nosotros. La evolución ha ido adaptando y modificando el órgano para que no se deteriore, como es fácil de suponer. No se ha demostrado que una exposición normal a la luz solar sea perjudicial, y no se ha demostrado que ninguna protección o barrera prevenga de enfermedades oculares. No se ha demostrado que se produzca un deterioro de la retina debido a la luz visible más energética (luz azul), y no se ha demostrado que filtrando esta luz azul prevengamos de daños en la retina. Por otra parte, la luz solar es más intensa y energética que la luz artificial que se originan en pantallas LED. Si con la dosis más alta los filtros no son útiles, con la dosis más baja, la plausibilidad es incluso menor.
Profundizar en más explicaciones sería repetir lo mismo de lo que ya hablé en la serie de las lentes intraoculares amarillas. Pero también hay información en otras webs. Quien quiera leer más sobre el tema recomiendo dos artículos del blog La mentira está ahí fuera, una lectura muy recomendable. En el primero se contraponen las afirmaciones de los vendedores del Reticare con la evidencia científica. En el segundo hacen un análisis del estudio en el que se basa la comercialización del Reticare. El estudio, efectivamente, ofrece serias dudas metodológicas, dudas éticas sobre conflicto de intereses, y por su propio diseño no sirve para dar validez a ningún filtro. De hecho, no se puede hacer ninguna afirmación clínica ni práctica a partir de él.
Vamos, que la hipótesis de partida (lo de la peligrosidad de la “luz tóxica” de los dispositivos) es más que dudosa, y los estudios científicos ni parecen nada sólidos ni realmente tienen nada que ver con el dichoso filtro.
Por su parte, la empresa Reticare ha aportado nuevas evidencias científ… ah, no: ha intentado que Ocularis retire la entrada. Ya saben: a falta de argumentos científicos, exhiben su musculatura legal. Con lo feo que está eso de mandar una carta de un bufete de abogados en vez de un puñado de referencias a estudios serios o, no sé, una felicitación navideña…
En cualquier caso, les remito a las entradas de Ocularis o La mentira está ahí fuera (o a lo que cuenta hoy en Naukas el bueno de Arturo Quirantes) en cuanto a los fundamentos científicos (o más bien la falta de fundamentos científicos) de Reticare. Por mi parte la cuestión que me planteo es la de la participación de la Universidad Complutense. ¿Saben los responsables universitarios que se está empleando su aval de una forma tan… bueno, tan poco consistente? Si no lo saben, ¿es que no verifican, aunque sea mínimamente, quién y para qué emplea ese sello de calidad? Y, si lo saben, ¿no les importa ver su prestigio académico e investigador comprometido de esa manera?
El caso de Reticare y la Complutense no es único, pero sí sintomático. Y quizá va siendo ya hora de que alguien empiece a elaborar un diagnóstico y proponer una cura.
Fuente: La lista de la vergüenza
Autor: Fernando Frías
En poco más de medio siglo de computación el avance en tecnología ha sido gigantesco. Desde que Von Neumann diseñó la arquitectura que lleva su nombre, todos los ordenadores se han construido basados en ella. Gordon Moore estableció la famosa ley que lleva su nombre, la ley de Moore. Según esta ley empírica, cada dos años se duplica el número de transistores en un circuito integrado. Todo esto está basado en la lógica y la física. Y ahí está precisamente uno de los problemas actuales, en la física. En una reciente presentación sobre el esperado chip POWER8, el ponente hizo una broma al respecto: “he preguntado a los físicos y me han confirmado que la física no ha cambiado”. Y es que nos acercamos a la frontera del átomo y no es probable que la ley de Moore se siga cumpliendo.
El otro de los problemas está en la lógica. Como gusta recordar a nuestra presidenta, Virginia Marie “Ginni” Rometty, estamos iniciando la tercera era de la computación. De las tabuladoras pasamos a los ordenadores programables y de ahí a la computación cognitiva. El esfuerzo de programar ordenadores es demasiado costoso, necesitamos otro paradigma, ordenadores que aprendan, computación cognitiva.
¿De dónde podemos aprender? ¿En qué podemos inspirarnos? En el mundo vivo, en la biología.
La neurona, base del sistema nervioso, es un dispositivo muy antiguo. Apareció probablemente en la explosión cámbrica hace la respetable cifra de quinientos millones de años. Es un dispositivo lento comparado con un procesador actual, pero con una gran cantidad de ventajas: conectividad, bajo consumo y plasticidad. El cerebro humano contiene 86000000000 de neuronas que trabajan en paralelo de forma coordinada. Consume apenas 20 watios, lo que una bombilla pequeña (un superordenador muy eficiente como Sequoia de IBM consume siete megawatios, 350000 veces más que el cerebro). Y, sobre todo, tiene plasticidad, aprende.
Fuente: PRIMUM NON NOCERE 2013
Tres investigadores de la Universidad de Tel Aviv han conseguido romper elalgoritmos RSA de 4096 bits. El método de extracción de claves se basa en escuchar con un micrófono los sonidos que realiza la CPU del equipo atacado mientras trabaja con datos codificados.
El procesador central de cada ordenador emite diferentes sonidos que delatan los procesos que se están ejecutando. Al trabajar con datos codificados, el procesador emite sonidos característicos entre los que se pueden reconocer patrones que corresponden a la clave utilizada para la codificación.
Este «lenguaje» involuntario de las CPUs lo provoca su regulador de voltaje al intentar contrarrestar constantemente los cambios de carga. Eso deja una «huella acústica» de alta frecuencia (de entre 10 y 150 KHz) que se puede aislar aplicando diferentes filtros de sonido.
Los científicos israelís han conseguido capturar las frecuencias chivatas con el micrófono de un smartphone dispuesto a 30 cm del equipo atacado, pero también desde una distancia de 4 metros con un sofisticado micrófono direccional. En ambos casos consiguieron romper la clave tras una hora de escucha.
Fuente: elotrolado
alquiler carrozas gran canaria
oferta de viajes a india
regalos de empresa
Desde hace pocos la iluminación de las calles en las fiestas cambió radicalmente. Además del cambio estético, también supuso un importante cambio tecnológico. Las bombillas incandescentes tradicionales fueron sustituidas por bombillas LED (Light Emitting Diode). La bombilla incandescente, es decir, la bombilla de toda la vida, no tiene nada que ver con estas nuevas bombillas LED, ni tampoco su rendimiento energético.
En la bombilla incandescente, la corriente eléctrica pasa por un filamento de wolframio (o tungsteno) extremadamente delgado -su espesor apenas supera una décima de milímetro- y largo -desenrollado mide más de 2 metros-. Debido a la elevada resistencia eléctrica del filamento, éste se calienta hasta alcanzar temperaturas superiores a los 2000 C. Los objetos que se encuentran a esas temperaturas emiten radiación visible, con lo que la bombilla emite luz. Sin embargo, la mayor parte de la radiación que emiten estas bombillas es infrarroja, que nosotros percibimos en forma de calor. De hecho, esa es la principal causa de la ineficiencia de las bombillas incandescentes, en las que sólo el 10% de la energía aportada se transforma en luz, el resto se pierde en forma de calor.
Las bombillas LED son totalmente diferentes y, aunque pueda parecer extraño, su funcionamiento es una consecuencia directa de la física cuántica. Son luces cuánticas. Curiosamente, el mecanismo que explica la emisión de luz en un LED es el opuesto al efecto fotoeléctrico, por el que Einstein recibiera el Premio Nobel en 1921. Si en el efecto fotoeléctrico la aplicación de luz sobre una material metálico induce una corriente eléctrica, en un LED se crea luz al aplicar corriente. Un LED es un diodo, cuyo componente principal es un semiconductor. Cuando la corriente pasa a través del semiconductor los electrones del diodo aumentan su energía pero inmediatamente después vuelven a su estado energético inicial emitiendo un fotón o, lo que es lo mismo, luz. Estas bombillas apenas se calientan, por lo que son extremadamente eficientes. De hecho, consumen unas 10 veces menos que las bombillas incandescentes, y también duran mucho más, unas 100 veces más, de modo que pueden estar encendidas durante más de 10 años ininterrumpidamente sin fundirse.
Las bombillas LED no son un invento reciente. Se conocen desde la década de los 60. Los primeros diodos emitían luz roja, que ahora son tan frecuentes en los aparatos electrónicos que nos rodean por casa. Posteriormente, se desarrollaron los verdes y a finales de los noventa Shuji Nakamura, que en el 2006 fue galardonado con el premio de la Tecnología del Milenio (considerado como el Premio Nobel de la Tecnología), logró obtener diodos azules. Este fue un gran avance, ya que su combinación con los diodos verdes y rojos permitía la obtención de luz blanca, y ampliar enormemente las aplicaciones tecnológicas de los LED.
A pesar de su ineficiencia, hemos estado utilizando las bombillas incandescentes durante más de 100 años. Sin embargo, gracias a la apuesta decidida de Europa por el ahorro energético, su venta ya está prohibida. No es un gran problema, ya que tenemos muchas alternativas: las luces halógenas (que también son incandescentes y, por lo tanto, no muy eficientes), las fluorescentes de bajo consumo y, cómo no, las bombillas LED, que dentro de pocos años, tan pronto bajen algo más su precio, serán las que seguramente iluminen nuestros hogares.
Retomando el debate del derroche energético del alumbrado navideño, en una ciudad como Bilbao sólo se necesitan 125 kW de potencia para alumbrar las más de las 500000 bombillas LED que se han instalado. Considerando que las luces sólo se encienden desde las 18 hasta las 22, y que el precio actual del kW-h ronda los 0.1 euros, ¡el coste diario no supera los 50 euros! No es para tanto, ¿no? En fin, si realmente contribuye a fomentar el optimismo ciudadano en estas Navidades me parece que es asumible. Por supuesto, no siempre ha sido igual. Antes del alumbrado cuántico, cuando se utilizaban las bombillas incandescentes tradicionales, el consumo era unas diez veces mayor.
Fuente: Cuaderno de Cultura Científica