Siempre imaginamos dispositivos electrónicos que se fabrican a partir de chips de silicio, con la que los ordenadores almacenan y procesar información en forma de dígitos binarios (ceros y unos) representados por pequeñas cargas eléctricas. Pero no necesariamente tiene que ser de esta manera: Entre las alternativas al silicio están los medios orgánicos tales como el ADN.
La computación de ADN se demostró por primera vez en 1994 por Leonard Adleman, que codificó y se resolvió el problema del viajante, un problema de matemáticas para encontrar la ruta más eficiente para un vendedor, entre ciudades, en su totalidad en el ADN.
EL ácido desoxirribonucleico, ADN, puede almacenar grandes cantidades de información codificada como secuencias de las moléculas, conocidos como nucleótidos, citosina (C), guanina (G), adenina (A), o timina (T). La complejidad y la enorme variación de los códigos genéticos de diferentes especies demuestra cuánta información puede ser almacenada en el ADN, que se codifica mediante CGAT, y esta capacidad puede ser objeto de uso por parte de la informática. Las moléculas de ADN se pueden emplear para procesar la información, utilizando un proceso de unión entre los pares de ADN conocido como hibridación. Esto lleva a cadenas simples de ADN como entrada y produce hebras de ADN a través de transformación como salida.
Desde el experimento de Adleman, muchas «circuitos» basados en ADN se han propuesto para implementar métodos computacionales, tales como la lógica de Boole, fórmulas aritméticas y cálculo de redes neuronales. Llamada programación molecular, este enfoque aplica conceptos y diseños habituales de la computación a escala nanométrica, siendo apropiado para trabajar con el ADN.
En esta «programación» lo que tiene sentido es realmente la bioquímica. Los «programas» creados son en base a la selección de moléculas que interactúan de una manera que logran un resultado específico en el proceso de autoensamblaje de ADN, donde colecciones desordenadas de moléculas espontáneamente interactúan para formar la disposición deseada de filamentos de ADN.
‘Robots’ de ADN
El ADN también se puede utilizar para controlar el movimiento, lo que permite dispositivos basados en la nanomecánica que usan el ADN. Esto se logró por primera vez por Bernard Yurke y sus colegas en 2000, que crearon a partir de hebras de ADN un par de pinzas que se abrían y pellizcaban. Experimentos posteriores, como el de Shelley Wickham y colegas en 2011 y en el laboratorio de Andrew Turberfield en Oxford demostraron que máquinas para caminar nanomoleculares hechas enteramente de ADN, podrían recorrer rutas establecidas.
Una posible aplicación es que un nanorobot caminante de ADN podría progresar a lo largo de pistas de toma de decisiones y dar la señal cuando se alcanza el final de la pista, lo que indica que el cómputo ha terminado. Al igual que los circuitos electrónicos se imprimen en tarjetas de circuitos, las moléculas de ADN se podrían utilizar para imprimir pistas similares dispuestas en árboles de decisión lógicos en un chip de ADN, y las enzimas se utilizarían para controlar la decisión de ramificación a lo largo del árbol, haciendo que el caminante tome una pista u otra.
Los caminantes de ADN también pueden transportar carga molecular, y así podrían ser utilizados para administrar medicamentos dentro del cuerpo.
¿Por qué la computación de ADN?
Entre las muchas características atractivas de las moléculas de ADN, se incluye su tamaño (ancho 2 nm), programabilidad y alta capacidad de almacenamiento – mucho mayor que sus homólogos de silicio. ADN también es versátil, barato y fácil de sintetizar, y la computación con ADN requiere mucha menos energía que los procesadores de silicio eléctricos.
Su desventaja es la velocidad: en la actualidad lleva varias horas para calcular la raíz cuadrada de un número de cuatro dígitos, algo que una computadora tradicional podría calcular en una centésima de segundo. Otro inconveniente es que los circuitos de ADN son de un solo uso, y necesitan ser recreado para ejecutar el mismo cálculo de nuevo.
Quizás la ventaja más grande de ADN a través de circuitos electrónicos es que puede interactuar con su entorno bioquímico. La computación con moléculas implica reconocer la presencia o ausencia de ciertas moléculas, y por lo que una aplicación natural de la informática de ADN es llevar esa capacidad de programación al ámbito de biosensores ambientales o de la entrega de medicamentos y terapias dentro de los organismos vivos.
Programas de ADN ya se han empleado en usos médicos, tales como el diagnóstico de la tuberculosis. Otro uso propuesto es un «programa» nano-biológica por Ehud Shapiro, del Instituto de Ciencia Weizmann en Israel, denominado el «médico de la célula» que se dirige a moléculas cancerígenas. Otros programas de ADN para aplicaciones médicas linfocitos diana (un tipo de glóbulo blanco), que se definen por la presencia o ausencia de ciertos marcadores de células y así se pueden detectar de forma natural con la lógica booleana verdadera/falso. Sin embargo, se requiere más esfuerzo antes de que podamos inyectar drogas inteligentes directamente en los organismos vivos.
El futuro de la computación de ADN
Tomado en términos generales, el cómputo de ADN tiene un enorme potencial de futuro. Su gran capacidad de almacenamiento, bajo coste energético, facilidad de fabricación que explota el poder de autoensamblaje y su fácil afinidad con el mundo natural es una entrada a la informática a escala nanométrica, posiblemente a través de diseños que incorporan ambos componentes moleculares y electrónicas. Desde su creación, la tecnología ha avanzado a gran velocidad, la entrega de diagnósticos en el punto de atención y prueba de concepto de medicamentos inteligentes – aquellos que pueden tomar decisiones de diagnóstico sobre el tipo de terapia para entregar.
Hay muchos desafíos, por supuesto, que hay que abordar de manera que la tecnología puede avanzar desde el concepto de prueba de drogas inteligentes: la fiabilidad de los caminantes de ADN, la solidez del autoensamblaje de ADN, y la mejora de la entrega de fármacos. Pero tras un siglo de investigación la informática tradicional está bien situada para contribuir al desarrollo de la informática de ADN a través de nuevos lenguajes de programación, abstracciones, y técnicas de verificación formal – técnicas que ya han revolucionado el diseño de circuitos de silicio, y puede ayudar a poner en marcha la computación orgánica por el mismo camino.
Fuente: The Conversation
Un profesor ha creado la esfera «mágica» para la transferencia de información. En varios años nuestros ordenadores, nanoantenas y otros tipos de equipos operarán en base a fotones en lugar de electrones. Incluso ahora casi estamos preparados para llevar a cabo este cambio. Si sucede, las esferas pueden llegar a ser uno de los componentes elementales de los nuevos dispositivos fotónicos. Los resultados del estudio fueron publicados en el último número de Scientific Reports, que es parte de Nature Publishing Group.
Las potencialidades de los ordenadores electrónicos convencionales se van a agotar. Durante cuatro décadas, la ley de Moore (según la cual la velocidad del procesador se duplica cada 18 meses) se cumplió debido al aumento de la frecuencia de operación de un solo procesador. Ahora, el mismo al resultado se llega por medio de la computación paralela – contamos con procesadores de doble núcleo, así como de cuatro núcleos. Esto significa que los procesadores de un solo núcleo no son capaces de hacer frente a la velocidad de cálculo exigida; por otra parte, no es posible aumentar esta velocidad más porque la frecuencia de funcionamiento del procesador en computadoras modernas está cerca del límite teórico. También el proceso de multiplicar el número de núcleos tiene fin: los cálculos indican que pronto se llegará al límite. Es por eso que equipos de investigación de todo el mundo están trabajando en la creación de sistemas ópticos súper rápidos, que serían capaces de reemplazar a los ordenadores electrónicas.
Por un lado, estos sistemas deben ser tan pequeños como sea posible. Por otro lado, la radiación óptica tiene su propia escala – la longitud de onda (en el rango visible del espectro es de unos 0.5 micrómetros). Esta escala es demasiado grande para ser implementada en los dispositivos electrónicos modernos con disposición de elementos ultradensa. Para competir con tales dispositivos electrónicos, los sistemas ópticos deben trabajar en escalas mucho más cortas que las longitudes de onda. Estos problemas están comprendidos en el ámbito de una disciplina moderna, llamada «óptica sublongitud de onda» (subwavelength optics). Su objetivo es manipular con la radiación electromagnética en escalas más cortas que su longitud de onda – en otras palabras, hacer cosas, que se consideraban como conceptualmente imposibles en las ópticas tradicionales de lentes y espejos.
Hasta hace poco la óptica sublongitud de onda puso grandes esperanzas en los efectos relacionados con la interacción de la luz con los llamados, plasmones – oscilaciones colectivas del gas de electrones libres en los metales. En el caso de las partículas de metal con tamaños de unos 10 nm las frecuencias de las oscilaciones del gas de electrones caen dentro del rango de la banda óptica. Si una partícula tal se irradia con una onda electromagnética, cuya frecuencia es igual a la de un plasmón, se produce una oscilación de la partícula a la frecuencia de resonancia. En la resonancia, la partícula actúa como un embudo, que «toma» energía de la onda electromagnética del ambiente externo y la convierte en energía de las oscilaciones del gas de electrones. Este proceso puede ir acompañado de una amplia gama de efectos muy interesantes que, en principio, se podrían emplear en diversas aplicaciones.
Por desgracia, la mayor parte de las expectativas relacionadas con la plasmónica no se ha justificado. El hecho es que, incluso muy buenos conductores eléctricos (por ejemplo, cobre o platino) presentan gran resistencia eléctrica cuando la frecuencia de la corriente eléctrica es del mismo orden de magnitud que la de la luz visible. Por lo tanto, como regla general, las oscilaciones de plasmones están fuertemente amortiguadas, y la amortiguación anula los efectos útiles de los que se podría hacer uso.
Es por eso que hace poco, científicos dirigen su atención a materiales dieléctricos con alto índice de refracción. No hay electrones libres en estos materiales porque todos ellos están conectados con sus átomos; y el impacto de la luz no induce corriente de conducción. Al mismo tiempo, la onda electromagnética afecta a los electrones dentro del átomo y los desplaza desde las posiciones de equilibrio. Como resultado, los átomos adquieren momento eléctrico inducido; este proceso se llama «polarización». Cuanto mayor sea el grado de polarización, mayor es el índice de refracción del material. Resultó que cuando una esfera hecha de un material con alto índice de refracción interactúa con la luz, el resultado de esta interacción en gran medida se asemeja a la de resonancia de plasmón anteriormente descrita en metales con una (pero muy importante) excepción: una amplia gama de materiales dieléctricos – a diferencia de los metales – tienen débil amortiguación en las frecuencias ópticas. A menudo usamos esta propiedad de los dieléctricos en nuestra vida cotidiana – por ejemplo, la débil amortiguación en las frecuencias ópticas es la clave para la transparencia del vidrio.
En anteriores trabajos por el profesor Michael Tribelsky (Mikhail Tribel’skii) de la Facultad de Física, MV Lomonosov Moscow State University y la Universidad Estatal de Moscú de Tecnologías de la Información, Radioingeniería y Electrónica MIREA, dio el impulso inicial a la investigación descrita anteriormente. El científico dice: «Si utilizamos el lenguaje de la física cuántica, mientras que hablamos de la excitación de plasmones, podemos decir que un cuanto de luz, los fotones se, convierte en un cuanto de oscilaciones de plasmones. A mediados de los 80 tuve la siguiente idea: ya que todos los procesos en la mecánica cuántica son reversibles, el proceso invertido de la conversión de plasmones a fotón debería existir también. Entonces, llegué a la conclusión de que existe un nuevo tipo de dispersión de la luz. Este fue el caso de hecho. Por otra parte, se le ocurrió que este nuevo tipo de dispersión de la luz tiene muy poco en común con el descrito en todos los libros de texto de dispersión de Rayleigh«. Como resultado, se publicó el artículo «dispersión resonante de la luz por partículas pequeñas,» Tribel’skii MI, Sov. Phys. JETP 59 [2], 534 (1984): http://www.jetp.ac.ru/cgi-bin/dn/e_059_03_0534.pdf . Sin embargo, en 1984 esta obra no podría atraer la atención de los científicos, porque no existían las nanotecnologías todavía. La primera cita de este trabajo se produjo en el año 2004 – exactamente 20 años después de su publicación. Hoy en día, este tipo de dispersión, llamada «anómala», es ampliamente reconocida. Por desgracia, incluso en el caso de la dispersión anómala, una vez más, nos encontramos ante el papel fatal de la disipación. Con el fin de observar la dispersión anómala es necesario el uso de metales con muy débil amortiguación a frecuencias ópticas.
La pregunta muy natural en este caso es: si tomamos la ventaja de la amortiguación débil de los dieléctricos, ¿será la esfera hecha de materiales dieléctricos con alto índice de refracción capaz de demostrar los efectos que no se pueden observar en el caso de resonancias de plasmones en metales con una fuerte amortiguación? Para responder a la pregunta, el laboratorio del profesor Tribelsky (Facultad de Física, MV Lomonosov Moscow State University) inició e una investigación conjunta con colegas franceses y españoles. Los científicos experimentaron con una esfera dieléctrica con un diámetro de aproximadamente 2 cm, hecha de cerámicas especiales, y «enseñada» a redirigir el haz incidente ondas electromagnéticas de una manera deseada. Por otra parte, la direccionalidad de la dispersión se puede controlar y cambió drásticamente simplemente mediante la regulación fina de la frecuencia de la onda incidente.
De acuerdo con la explicación de Tribelsky, esta esfera tiene líneas de resonancia bastante estrechas relacionadas con sus oscilaciones de polarización. En un sentido, es bastante análoga a una esfera de metal, que tiene las frecuencias de resonancia relacionados con las oscilaciones del gas de electrones libres. Cada línea corresponde a la excitación de un modo de oscilación en particular, llamados armónicos o modos parciales. Cada armónico se caracteriza por una dependencia fija entre la intensidad de dispersión y el ángulo de dispersión. Esta dependencia se determina por la naturaleza de un armónico dado. El campo de dispersión total de la esfera es una suma de las contribuciones de todos los (onda parcial) armónicos. Las ondas parciales interfieren entre sí. La anchura estrecha de estas líneas permite excitar modos parciales selectivamente y controlar la interferencia. Esto, a su vez, permite la reorientación de la radiación incidente en la forma deseada. ¡Eso es! Se logra la manipulación controlada con la radiación.
«Sin embargo, ¿por qué hablamos de nanoscalas si el diámetro de la esfera es de aproximadamente 2 cm? Eso es sólo el punto. Prof. Tribelsky dice: «Puedo hablar libremente acerca de la belleza experimental de este trabajo ya que soy un teórico. Acabo de participar en la planificación del experimento, mientras que todo el trabajo experimental difícil ha sido hecho por mis colegas franceses, en cuanto a la belleza experimental de este trabajo, es la siguiente: con la ayuda de la radiación de microondas – similar a la utilizada en un horno – hemos logrado simular en una escala de centímetros todos los procesos que se producen a nanoescala con la luz visible Es ampliamente conocido: si tenemos dos objetos de la misma forma pero de diferentes tamaños y con el mismo índice de refracción, que dispersan las ondas electromagnéticas de la misma manera, siempre que la relación entre las dimensiones lineales objetos de la longitud de onda es la misma para ambos los objetos. Esta fue la idea de nuestros experimentos. Sin embargo, el camino desde la idea de los resultados fue muy difícil. Se bastó para decir que los investigadores lograron separar la señal deseada de fondo cuya amplitud a veces era de 3000 veces más grande (!) que la de la señal«.
Teniendo en cuenta las posibles aplicaciones prácticas de los resultados obtenidos, es importante subrayar que la técnica de fabricación de tales nanoesferas para la manipulación de la radiación infrarroja óptica es cercana, bastante barata y simple. No requiere ningún material «exótico», caro, y / o equipo sofisticado. Además de los equipos ópticos (que, hoy en día, sin embargo, permanecen en la esfera de la realidad virtual), las esferas a nanoescala que se describen en el documento de Tribelsky y coautores pueden ser utilizadas en la amplia gama de diferentes campos: sistemas de telecomunicaciones; registro, procesamiento y almacenamiento de la información; diagnóstico y el tratamiento de diferentes enfermedades incluyendo oncológicas, etc.
Fuente: Michael I. Tribelsky, Jean-Michel Geffrin, Amelie Litman, Christelle Eyraud, Fernando Moreno. Small Dielectric Spheres with High Refractive Index as New Multifunctional Elements for Optical Devices. Scientific Reports, 2015; 5: 12288 DOI: 10.1038/srep12288
Quieren poder escanear en 3D cualquier cosa y tener un clon, quieren que ese clon funcione, quieren que el escáner 3D se encargue de verificar el proceso y corregir errores en caso de que exista, y están cerca de conseguirlo.
Pensando siempre en reducir los costes, no parece que estemos hablando de las impresoras que trabajan con varios materiales y que pueden llegar a 250000 dólares, según vemos en el vídeo:
Ampliar en: wwwhat’s new
Esta es la primera vez que una operación realizada por un robot utilizando la ruta vaginal tanto para la muestra y un trasplante de riñón. La hazaña se llevó a cabo el nueve de julio 2015 en el Hospital de la Universidad de Toulouse (Francia); el donante, vivo, era la hermana de la receptora.
El equipo con sede en Toulouse que está tras esta cirugía no es en primer intento. De hecho, durante una operación llevada a cabo el 13 de mayo, ya habían utilizado un robot para introducir un riñón por la vagina. En ese momento, la mujer había recibido el riñón donado por un hombre. Esta vez, durante la operación llevada a cabo en julio pasado, la extirpación del riñón no solo se ha hecho por vía vaginal en el destinatario, sino también en la donante, su hermana. Las dos mujeres se están bien.
Un comunicado del Hospital Universitario de Toulouse publicado 19 de agosto de 2015 indica que el robot quirúrgico se utilizó por primera vez en Francia en 2001 el Hospital Mondor en Créteil, a continuación, en Tours en el Hospital de la Universidad en 2013. El robot ya se ha utilizado para una cien trasplantes de riñón en India, Estados Unidos y Francia.
Durante la operación realizada por los cirujanos Frederico Sallustro y Nicolas Doumerc, los médicos realizan pequeñas incisiones en el interior de la pared vaginal de cada paciente: no hay ninguna cicatriz visible. Se insertan instrumentos quirúrgicos para llegar al riñón. Una vez que llegan, los cirujanos identifican los vasos sanguíneos que lo alimentan y los cortan. La extracción del riñón, rodeado por gel, se introdujo inmediatamente a la destinataria. Una hora después del trasplante, el órgano trabajó. La donante regresó a su casa en el segundo día y en el cuarto la receptora.
Menos dolor, mejor recuperación y ninguna cicatriz visible
Los beneficios de este tipo de técnica quirúrgica son numerosos: la intervención por el robot Da Vinci disminuye el dolor, el tratamiento después de la cirugía, el riesgo de derrame de líquido linfático y la duración media de la estancia. El desarrollo de esta técnica también podría permitir a los pacientes que no son elegibles para los métodos convencionales para sufrir una operación, por ejemplo, en el caso de obesidad mórbida.
Otros beneficios del procedimiento que se llevó a cabo en Toulouse: menos riesgo de infección, hernia incisional, además de los beneficios estéticos. Beatriz Pérez, de 43 años, que ha recibido el riñón de su hermana Valerie, ya había recibido un trasplante de riñón de un donante fallecido.
El uso de la vagina para un trasplante de riñón no es nueva en el mundo. En marzo, médicos hindúes publicaron los resultados de un estudio de ocho pacientes que recibieron una introducción del riñón por vía vaginal, en vez de laparoscopia. En este artículo publicado en American Journal of Transplantation, describieron el procedimiento utilizado, con éxito en un año de seguimiento, hubo 100% de tasa de supervivencia y la tasa de filtración glomerular un mes y un año fueron similares a los de otras ocho mujeres que habían tenido un trasplante de riñón «clásico». No se requirió analgesia después del tercer día después de la operación en siete de cada ocho mujeres operadas. Por consiguiente, la técnica apareció segura y factible.
Fuente: FUTURA Santé
Google dejó de trabajar con productos de compañías como Cisco y en 2004 decidió crear sus propios servidores y su propia red que cumpliese con todos sus requisitos. Porque hay veces en las que si quieres que algo salga bien tienes que hacerlo tú mismo.
El resultado fue Jupiter, la red de servidores de Google compuesta por 100000 sistemas que supone una gran ventaja frente a la competencia como Microsoft y Amazon; no sólo sirve para sus propios productos sino también para vender servicios en la nube a otras compañías.
Es capaz de mover un petabit por segundo en total (1000000 Gb por segundo). En términos reales eso significa que los 100000 servidores de la red se comunican entre ellos de manera arbitraria a una velocidad de 10 Gb/s.
Fuente: Google Research Blog
No debemos entorpecer el desarrollo de cosas como el software de código abierto, en el que a muchos de los participantes se les remunera por trabajar en el proyecto, pero a muchos otros no y, a pesar de ello, contribuyen de forma gratuita.
El éxito del software libre y de código abierto no cesa de desconcertar a los economistas. ¿Cómo es posible que un software producido en gran medida por voluntarios que no son propietarios del mismo ni obtienen beneficios del código que crean, sea mejor que un software elaborado por desarrolladores que cobran por ello?
La razón más habitual que aducen los que colaboran de forma altruista en estos proyectos de código abierto es que lo hacen por el placer o el disfrute intelectual. Concretamente ofrecen esta respuesta el 44% de los entrevistados en un estudio clásico elaborado por Karim Lakhani y Robert Wolf. La segunda razón más importante consistía en mejorar sus conocimientos. Otra razón ampliamente citada era más normativa o ideológica: los códigos deberían ser abiertos.
Por lo tanto, la gente aporta su tiempo y su esfuerzo de manera gratuita porque creen que es lo correcto, que contribuir es justo, porque ello intensifica su sentimiento de identidad y comunidad, y, sencillamente, porque es divertido.
Ampliar en: XATAKA Ciencia
Licencia CC
Servir una lata de cerveza ya tiene su dificultad: detectar el humano, interactuar con él, coger la lata, abrirla, inclinarla, llevarla… son muchos factores que deben controlarse a la perfección para una tarea aparentemente tan simple, pero nada que los robots actuales no hagan constantemente. El problema es cuando tenemos varios clientes y varios robots sirviendo: tienen que comunicarse entre ellos para que exista un trabajo en grupo que aumente la eficacia del atendimiento.
Es ese el punto en el que más han trabajado, en crear un sistema de comunicación robusto que sincronice acciones consultando el estado de trabajo de cada máquina de forma independiente.
En la demostración se puede ver un sistema de tres robots que pueden trabajar juntos para entregar artículos de forma rápida y precisa en ambientes impredecibles (nada de lineas de producción monótonas). El servir cervezas en una barra hoy puede ayudar a trabajar en hospitales en un futuro, por ejemplo.
Por un lado tenemos un robot principal, el camarero, por otro tenemos dos robots con cuatro ruedas que van a las oficinas para apuntar los pedidos, teniendo siempre en cuenta dónde y cuándo se entregaron anteriormente.
El laboratorio de pruebas era exactamente eso, una barra de bar con tres robots, y el mayor problema, según cuentan sus responsables, es que “el mundo humano está lleno de incertidumbre”.
Ampliar en: wwwhat’s new
Licencia CC
El navegador Chroome, de Google, Se lanzó el dos de septiembre de 2008. Comenzó un ascenso imparable hasta convertirse, según algunas webs de medición como Statcounter en el navegador más utilizado del mundo con más de un 50% de cuota de mercado. Este gráfico animado, desarrollado por Dadaviz, permite ver esa evolución de manera sencilla.