En 1971 un ingeniero eléctrico llamado Leon Chua que tenía cierta inclinación por las matemáticas, se dio cuenta de que la electrónica carecía de fundamentos matemáticos rigurosos, por lo que se propuso derivarlos.
Creía que en el conjunto de componentes básicos para circuitos (compuesto por el clásico trío: resistor, capacitor e inductor) había algo que faltaba.
Para comprobarlo Chua examinó las cuatro magnitudes básicas que definen un circuito eléctrico: carga eléctrica, corriente, flujo magnético y voltaje. Las matemáticas indicaban que con cuatro magnitudes interrelacionadas, deberían aparecer seis clases de relaciones.
La carga eléctrica y la corriente se relacionan entre si por definición, puesto que la segunda es la variación que se da en la primera a lo largo del tiempo.
Lo mismo sucedía con el flujo magnético y el voltaje. Por definición, el voltaje es la variación en el tiempo que experimenta el flujo magnético.
Chua ya tenía dos de las 6 asociaciones posibles, y sabía que otras 3 correspondían a los tres elementos básicos de los circuitos tradicionales:
Un resistor (o resistencia) es un dispositivo que crea un voltaje cuando la corriente pasa a su través.
Un capacitor (o condensador) es un dispositivo que para cierto voltaje dado almacena cierta cantidad de carga.
Un inductor (o bobina) es un dispositivo que crea un flujo magnético cuando es atravesado por una corriente.
La sexta (y desconocida) relación sugería entonces que debería existir un cuarto tipo de dispositivo que relacionase la carga y el flujo magnético. ¿Pero dónde estaba ese dispositivo? No se sabía.
Lo único que pudo hacer Chua entonces fue ponerle nombre (lo bautizó memristor, un cruce entre los términos memory y resistor que podríamos definir como “resistencia con memoria”) y determinar la clase de cosas que este dispositivo podría hacer.
Según él, el memristor debería generar un voltaje a partir de una corriente al igual que hacen las resistencias pero de un modo mucho más complejo y dinámico. Chua imaginó que este eslabón perdido de la electrónica podría “recordar” la corriente que había fluido a su través en instantes pasados.
Su trabajo era teóricamente muy elegante pero indemostrable. ¿Cómo es posible que nadie hubiera visto algo así nunca? No es de extrañar que poco después del nacimiento ideológico del memristor, Chua abándonase el concepto.
Y así permaneció 29 años hasta que Stan Williams (de los Laboratorios Hewlewtt-Packard en Palo Alto, California) creó accidentalmente en el año 2000 el primer dispositivo resistencia-con-memoria.
Williams y su equipo se preguntaban si podría crearse un interruptor rápido de de baja potencia conectando entre si dos diminutas resistencias de dióxido de titanio, de modo que la corriente de una pudiera usarse para – de algún modo – conmutar la resistencia en la otra en forma de encendido y apagado.
Y Williams descubrió que en efecto podía, pero que la resistencia en esta clase de interruptores se comportaba de un modo tan errático que resultaba imposible de predecir empleando modelos convencionales.
Durante tres años Williams no pudo explicar lo que sucedía, y entonces – gracias al chivatazo de un colega – descubrió el trabajo de Leon Chua en 1971. ¡Aquello fue una revelación! Las ecuaciones que Williams había creado para tratar de describir el funcionamiento de sus resistencias interconectadas se parecían muchísimo a las derivadas por Chua en su trabajo teórico.
Además Williams pudo explicar por qué nunca se había visto un memristor con anterioridad. Su efecto depende de movimientos a escala atómica, por lo que solo pude apreciarse cuando se trabaja con dispositivos a nanoescala. En escalas milimétricas, los memristores son esencialmente invisibles.
¿Pero qué es lo que sucedía en las resistencias interconectadas de Williams?
En su estado puro de unidades de repetición compuestas por un átomo de titanio y dos de oxígeno, el dióxido de titanio es semiconductor. Pero si calentamos el material, algunos átomos de oxígeno se van dejando burbujas cargadas eléctricamente que hacen que este comience a comportarse como un metal.
En los interruptores de Williams, la resistencia superior está hecha con un semiconductor puro, y la inferior de un metal deficiente en oxígeno. Cuando se aplica un voltaje al dispositivo, este empuja a las burbujas con carga del metal hacia arriba, lo cual reduce radicalmente la resistencia del semiconductor, convirtiéndole en un verdadero conductor. Cuando se aplica un voltaje en la otra dirección el tiovivo gira en sentido contrario; las burbujas descienden de nuevo a la capa inferior y la resistencia superior vuelve a su estado de semiconductor.
Lo increíble es que cada vez que se desconecta el voltaje, el tiovivo se detiene y la resistencia permanece congelada. Cuando se vuelve a conectar el voltaje, el sistema es capaz de “recordar” en qué punto se encontraba “despertando” en el mismo nivel de resistencia que mostraba antes del apagado.
No hace falta que os diga el potencial de esta tecnología. Imaginaos que podamos remplazar las memorias flash por otras mucho más pequeñas, densas y rápidas (se podría grabar información en unos pocos nanosegundos, empleando apenas unos picojulios de energía) que careciesen de transistores, y que una vez escritas conservaran los datos incluso aunque se les privase de energía. Una nueva treta para que siga cumpliéndose la ley de Moore.
¿Es este el fin de la historia? Si solo hablásemos de un gran avance en componentes electrónicos así sería. Pero es que los memristores parecen tener también la respuesta al modo en que funciona nuestro cerebro.
Si queréis saber cómo, mañana os hablaré de un ser monocelular (un extraño moho baboso llamado Physarum polycephalum) que es capaz de recordar cosas a pesar – lógicamente – de carecer de neuronas. Y por supuesto, también hablaré de las sinapsis en nuestros cerebros y de cómo el flujo de los iones de sodio y potasio a través de las membranas de nuestras neuronas recuerda tremendamente al funcionamiento de los memristores.
¿Marcará este nuevo conocimiento el nacimiento de una nueva era en inteligencia artificial? Solo el tiempo lo dirá.
Información obtenida del artículo Memristor minds: The future of artificial intelligence (autor: Justin Mullins para New Scientist).
Fuente: Maikelnai’s blog
Muchas empresas no son conscientes de su obligación a la hora de cumplir con la legislación sobre tratamiento de residuos electrónicos y seguridad de los mismos. Por ello, Fape (Asociación Española de Fabricantes de Pequeños Electrodomésticos) realiza periódicamente chequeos de los productos que se encuentran en el mercado y en la última revisión ha detectado hasta 18 empresas importadoras o comercializadoras con graves incumplimientos normativos.
Las pequeñas tiendas que venden electrodomésticos también están afectadas por esta normativa, ya que tienen que saber que en el caso de desaparición de la empresa importadora (o si es declarada insolvente), el responsable último de estos productos ilegales será el comercio que proceda a su venta. Por ello, estas tiendas deben tomar las precauciones necesarias para no verse inmersos en responsabilidades que ignoran.
Primeros expedientes sancionadores
Así, las infracciones medioambientales se han denunciado ante las administraciones autonómicas, con competencias en esta materia. Por su lado, para los casos que pueden afectar a la seguridad de las personas por el incumplimiento de normativas técnicas, las denuncias se han interpuesto ante el Ministerio de Industria y el Instituto Nacional de Consumo.
Entre las empresas denunciadas se encuentran las que comercializan marcas como Lavazza, Hyundai, Singer, Melitta, Airlux, Super Chef, Sauna Belt, Beaba, öptima, Magimix, Turbo Plus, Zasprom, Sunny o Masster Plus, entre otras.
Por su parte, las administraciones competentes ya han abierto expedientes sancionadores como fruto de las denuncias y una vez que han realizado las primeras indagaciones.
Fuente: Channelpartners.es
La industria del almacenamiento digital, y sus siempre crecientes necesidades de formatos más densos está de enhorabuena. Científicos de la Universidad de Berkeley en California especializados en física de nuevos materiales han creado un tipo de memoria que no solo almacenará un volumen de datos miles de veces superior al de los actuales chips de silicio, sino que además mantendrá los datos durante miles de millones de años.
Como ya había comentado en este blog, una de las grandes preocupaciones de los conservadores de datos (bibliotecarios) es la amenaza de una era de la oscuridad digital cuando, dentro de unos años, los medios de almacenamiento digital actuales se corrompan y se pierdan sus valiosos datos. Se estima que nuestros actuales discos duros y pendrives tienen una esperanza de vida comprendida entre 10 y 30 años. ¡Muy poco si lo comparamos con el Domesday Book de Guillermo el Conquistador! (Libro, por cierto, escrito en papel vitela).
Pero ahora Alex Zettl y sus colegas, han desarrollado un dispositivo experimental de almacenamiento que consiste en una nanopartícula de hierro (50.000 veces más estrecha que un cabello humano) encerrada en nanotubo de carbono hueco. En presencia de electricidad, la nanopartícula puede lanzarse hacia delante o atrás con gran precisión. Esto crea un sistema de memoria programable que, al igual que los chips de silicio, puede registrar información digital y reproducirla empleando el hardware de computadoras convencional. En el laboratorio y en los estudios, los investigadores mostraron que el dispositivo tenía una increíble capacidad de almacenamiento de 1 terabyte por pulgada cuadrada (6,4516 cm2). Por si fuera poco, el material mostró una estabilidad a la temperatura superior a los mil millones de años.
Su descubrimiento aparecerá publicado en la edición del 10 de junio de la revista ACS’ Nano Letters
Visto en Physorg
Mal momento para Intel, recibiendo malas noticias no sólo en el frente legal sino también en el de la tecnología, la multinacional japonesa Fujitsu acaba de presentar una nueva CPU probablemente la más rapida a nivel mundial.
La firma japonesa reveló su última CPU para superordenadores, en el “foro 2009 de Fujitsu”. Informaron que es capaz de ejecutar 128 mil millones de operaciones por segundo. Esto hace de Fujitsu la primera firma japonesa en una década en conseguir el récord de velocidad de una CPU.
Esta pequeña belleza ha sido conveniente denominada “Venus” un nombre mucho más atractivo que su apodo técnico “SPARC64 VIIIfx.”
Fujitsu dice que su prototipo, todavía en desarrollo, se basa en la tecnología de proceso de 45nm y que tiene ocho núcleos más un regulador integrado de memoria, todo en apenas dos centímetros cuadrados.
Fujitsu, no contento con ir más allá de la velocidad de Intel, también dice que su nueva CPU ofrece ventaja en el consumo de energía.
Transcurrirán varios años para que Fujitsu de con los usos prácticos para Venus, pero Fujitsu dice que es posible el uso de esta CPU en los campos de la investigación farmacéutica, astronomía, predicción de tiempo, la investigación científica y otros.
El gigante japonés de la electrónica también dice que no ha descartado la poisbilidad de adaptación de su CPU a partir del uso en la industria de superordenadores a los usos computacionales del gran público.
Fuente: TheInquirer
1060 millones de euros por abuso de posición dominante. La Comisión Europea ha impuesto a Intel la multa más alta jamás dictaminda por Bruselas.
Según la Comisión, el mayor fabricante de microprocesadores del mundo ofreció grandes descuentos e incluso pagos directos a fabricantes y distribuidores como Dell, HP o Media Markt, para que diesen prioridad a su microchip x86 y dejasen de lado a su principal rival, AMD.
Lo explicaba Neelie Kroes, Comisaria Europea de Competencia: “Intel realizó pagos directos a fabricantes de ordenadores para detener o retrasar el lanzamiento de productos que utilizasen chips de sus rivales, o para limitar su distribución”.
La multa corresponde a la realización de estás prácticas entre 2002 y 2007, aunque según la Comisión, Intel sigue efectuándolas.
Fuente: Euronews
Para aquellas personas que necesiten de un simulador de circuitos de puertas lógicas, no tienen porque buscarse ninguna aplicación para su sistema operativo. Pueden usar Logicly, un simulador de circuitos puertas lógicas online donde pueden crear sus esquemas de puertas lógicas y probar resultados sin necesidad de registros.
Para la creación de los esquemas, simplemente hay que coger los objetos que deseen integrar y arrastrarlos al panel, donde después solo queda interconectar las diferentes entradas y salidas de cada uno de los objetos. Ya sólo queda comprobar el comportamiento del dispositivo de entrada, la bombilla, en función de la complejidad del esquema realizado.
Fuente: GENBETA
Enlace a Logicly
Enlaces relacionados:
El release oficial de Ubuntu 9.04 se realizará el próximo jueves 23 y además de las características que hemos comentado previamente, por primera vez se incluirá el soporte de arquitectura ARM. Se trata de la arquitectura que es la base de muchos dispositivos como los Mobile Internet Devices (MID’s) y también se encuentra en algunos netbooks.
Actualmente hay una batalla que se está llevando a cabo en el mercado low-end de los procesadores, en donde se ha tratado de maximizar el performance con un mínimo consumo de energía. En esta batalla encontramos al procesador Atom de Intel y los sistemas ARM.
En 1985 se introdujo el primer procesador basado en ARM, y hoy en día de los más de mil millones de nuevos teléfonos móviles que se venden cada año, el 98% de ellos utiliza ARM. También se encuentra en los iPods, otros reproductores multimedia portátiles, discos duros, routers y todo tipo de dispositivos de bajo consumo y alta velocidad.
Los procesadores ARM actuales son implementaciones de 32 bits basadas en RISC (Reduced Instrucion Set Computer), esto quiere decir que son procesadores con pocas y sencillas instrucciones que facilitan su diseño interno y permiten hacer más optimizaciones a la hora de compilar aplicaciones o ejecutar su código en el procesador. En comparación, por motivos de compatibilidad, la arquitectura x86 es a ojos de los compiladores una arquitectura CISC (Complex Instruction Set Computer), aunque internamente se ejecuta como RISC, el problema es que a nivel de compilador o programación directa en assembler no se puede llegar a manejar el nivel de detalle de las operaciones RISC que se ejecutarán finalmente en el procesador.
Además los procesadores ARM permiten usar un conjunto de instrucciones que ocupan muy pocos bytes por cada operación, esto se traduce a la larga en un mejor uso del caché de instrucciones y por lo tanto se reduce aun más el consumo de energía.
Linux tiene un diseño multi-arquitectura desde hace años, incluyendo el soporte de ARM, por lo tanto la llegada de Ubuntu 9.04 a ARM es una progresión natural. Ahora con Ubuntu los usuarios tendrán la oportunidad de tener el mismo sistema tanto en sus equipos de escritorio como en los móviles.
El primer Ubuntu sobre ARM fue demostrado hace un año, y se trataba de un port que podía arrancar el sistema y mostrar sólo algunas de las aplicaciones populares (como GIMP). En este momento el soporte es mucho mayor, aunque todavía quedan problemas por resolver con algunas aplicaciones como Java, Mono, y el compilador Fortran G77. Se está trabajando en este tema y se espera que la versión ARM sea tan estable como las versiones i386 y AMD64.
Para los aventureros con equipos ARM, pueden probar el beta de Ubuntu 9.04 para ARM.
Autor: Franco Catrin
Fuente: FayerWayer
Bajo licencia Creative Commons
Científicos de la Universidad de Reading en Reino Unido han creado el primer robot con un cerebro biológico. Se trata de Gordon que con 300000 neuronas de rata cultivadas e implementadas sobre una matriz de sesenta electrodos puede moverse y esquivar obstáculos gracias a estímulos neuronales. El cerebro se encuentra en una unidad especial con temperatura controlada independiente de la unidad del robot, que mediante Bluetooth manda señales de control.
La vida de las neuronas de ratas en un medio rico en nutrientes puede mantenerse a una temperatura constante y responder a los impulsos eléctricos recibidos de los sensores en las ruedas. La información que recoge el pequeño robot mediante sensores, como la distancia entre, objetos la transforma en estímulos que se distribuyen entre las neuronas.
La finalidad del proyecto es para conocer más a fondo las enfermedades neurodegenerativas como el Parkinson o el Alzheimer, pero Ben Whalley, uno de los creadores de Gordon, considera que los resultados pueden utilizarse el día de mañana para mantener las células cerebrales de alguien que va a morir, para cultivarlas y vivir en un robot.
Fuente: FayerWayer
Bajo licencia Creative Commons
Un estudio de Gartner afirma que, en el último año, los ingresos del sector alcanzaron los 255 mil millones de dólares.
La industria mundial de chips ha sufrido una caída del 5,4% en 2008, al registrar ventas de 255 mil millones de dólares. Las cifras pertenecen a la consultora Gartner, que ha estimado el retroceso anual en 14,5 millones de dólares.
“Mientras que las ventas resistieron bastante bien en la primera mitad de 2008, la industria comenzó a caer en el tercer trimestre ante la recesión económica y, para el cuarto trimestre, las condiciones se deterioraron rápidamente, llevando el crecimiento hacia el terreno negativo”, comentó el analista de Gartner, Peter Middleton.
Por decimoséptimo año consecutivo, Intel ha quedado como líder del mercado, con un avance del 13,3% en su cuota. Sin embargo, los ingresos de la compañía cayeron un 0,5% tras el spin off de su negocio de memorias flash NOR. Detrás se ubicaron, en términos de ventas, Samsung Electronics y Toshiba.
El mayor retroceso de 2008 lo sufrió Hynix Semiconductor, con una caída de sus ventas del 34%, seguida por Infineon Technologies (incluyendo a Qimonda), que experimentó un declive del 17%, tal y como reproduce The Wall Street Journal.
Fuente: siliconnews.es
Una cosa interesante del mundo del almacenamiento, es que aunque podamos comprimir varios GigaBytes de datos en el espacio de un juego de barajas/cartas, lo cierto es que aun podemos llegar mucho mas lejos, ya que aun estamos relativamente lejos del tamaño de los átomos en relación a cada bit almacenado.
Sin embargo, una de las tecnologías que promete llegar a la escala de los átomos es la llamada «Memoria Molecular», y ahora un equipo de científicos de Rice University acaba de determinar experimentalmente que una tira de grafito de apenas 10 átomos de ancho puede servir como el elemento básico de una memoria molecular.
Mas específicamente, dicen que es posible almacenar cada bit de información individual en un espacio menor a 10 nanómetros.
Noten que las memorias mas avanzadas de hoy día se fabrican en una técnica que crea trazos de 45nm, y aparte de eso necesitan tres terminales conectadas a cada celda de memoria para funcionar, lo que ocupa mas espacio, mientras que con esta nueva técnica hablamos de solo dos terminales y a 10nm.
Un cálculo rápido a groso modo que acabo de hacer nos indica que este nuevo tipo de memoria deber ver al menos 20 veces mas densa que lo mejor que tenemos hoy día, lo que significa que en el mismo espacio que hoy utilizamos para almacenar una memoria Flash de 512GB sería posible almacenar mas de 10 TeraBytes.
Y como si fuera poco, según los desarrolladores de esta tecnología, la memoria molecular tendrá una vida útil mucho mas larga que memoria del tipo flash, lo que significa que esto abre las puertas a un sistema de respaldo de datos a largo plazo en una tecnología totalmente sólida.
Fuente: eliax para mentes curiosas