El descubrimiento de un campo magnético ‘zurdo’ que impregna el universo podría ayudar a explicar un misterio en pie desde hace tiempo – la ausencia de antimateria cósmica. Los planetas, estrellas, gas y polvo interestelar están casi completamente formados de materia «normal» del tipo que conocemos en la Tierra. Pero la teoría predice que debe haber una cantidad similar de antimateria, como la materia normal, pero con la carga opuesta. Por ejemplo, un antielectrón (un positrón) tiene la misma masa que su homólogo convencional, pero un positivo en lugar de carga negativa.
En 2001 Tanmay Vachaspati en la Universidad Estatal de Arizona (EE.UU.) publicó modelos teóricos para tratar de resolver este rompecabezas, que predicen que el universo entero está lleno de campos magnéticos (helicoidales, en forma de tornillo). Él y su equipo se inspiraron para buscar evidencia de estos campos en los datos del telescopio espacial de la NASA, Fermi de Rayos Gamma (FGST).
Lanzado en 2008, detecta rayos gamma (radiación electromagnética con una longitud de onda más corta que los rayos X) de fuentes muy distantes, como los agujeros negros supermasivos que se encuentran en muchas de las grandes galaxias. Los rayos gamma son sensibles al efecto del campo magnético mientras que viajan a través de un largo camino a la Tierra. Si el campo es helicoidal, se imprimirá un patrón en espiral sobre la distribución de los rayos gamma.
Vachaspati y su equipo ven exactamente este efecto en los datos de FGST, lo que les permite no sólo detectar el campo magnético, sino también medir sus propiedades. Los datos muestran no sólo un campo helicoidal, sino también que hay un exceso zurdo – un descubrimiento fundamental de que por primera vez sugiere el mecanismo preciso que condujo a la ausencia de antimateria.
Por ejemplo, los mecanismos que se producen nanosegundos después del Big Bang, cuando el campo de Higgs dio masas a todas las partículas conocidas, predicen campos zurdos, mientras que los mecanismos basados en las interacciones que se producen incluso antes predicen campos diestros.
Ilustración del mapa del cielo mediante el Telescopio Espacial Fermi de Rayos Gamma (FGST), con la banda central bloqueando los rayos gamma procedentes de la Vía Láctea. Los rayos gamma de diferentes energías están representados por puntos de diferentes colores – puntos rojos representan los lugares de llegada de los rayos gamma muy energéticos, puntos verdes representan una energía inferior, y los puntos azules representan la energía más baja. El nuevo análisis busca patrones en espiral en la distribución de rayos gamma dentro de zonas en el cielo, con rayos gamma de energía más elevada en el centro de la espiral y los rayos gamma de energía inferior más a lo largo de la espiral. Un campo magnético helicoidal en el universo produce un excedente de espirales de un solo tipo – y los datos de FGST muestran un exceso de espirales zurdos. (Crédito: Hiroyuki Tashiro).
Tanto el planeta en que vivimos y su estrella que se componen de materia «normal». A pesar de muchas historias de ciencia ficción, la antimateria parece ser muy rara en la naturaleza. Según Vachaspati, «con este nuevo resultado, tenemos uno de los primeros indicios de que podríamos ser capaces de resolver este misterio».
Este descubrimiento tiene implicaciones amplias, de como un campo magnético cosmológico podría desempeñar un papel importante en la formación de las primeras estrellas y podría sembrar el campo más fuerte que se observa actualmente en galaxias y cúmulos de galaxias.
Fuente: The Daily Galaxy
Estamos llegando a un punto donde los avances de los procesadores hacen que los transistores estén fabricados en tamaños ya cercanos a algunas moléculas, como la hemoglobina de cinco nanómetros. A este ritmo de reducción el comportamiento de los electrones estará sujeto a los efectos cuánticos, causando comportamientos impredecibles y no controlados, lo que sería no apto para un chip.
La tecnología de semiconductores se basa en dos tipos de materiales: los que favorecen el transporte de electrones y los «agujeros». La conducción de corriente en los semiconductores se producen a través del movimiento de los electrones libres y los «agujeros», conocidos colectivamente como portadores de carga.
Ni los átomos de silicio, ni los de germanio (los materiales que se usan en electrónica) en su forma cristalina ceden ni aceptan electrones en su última órbita; por tanto, no permiten la circulación de la corriente eléctrica, es decir, se comportan como materiales aislantes.
Pero, si a la estructura cristalina de uno de esos elementos semiconductores la dopamos añadiéndole una pequeña cantidad de impurezas provenientes de diferentes átomos, se alterará el número de portadores de carga en ella. Cuando un semiconductor dopado contiene en su mayoría huecos libres que se llama «tipo p», y cuando contiene electrones libres en su mayoría se conoce como «de tipo n». Los materiales semiconductores que se utilizan en dispositivos electrónicos se dopan bajo condiciones precisas para el control de la concentración de dopantes y las regiones p y de tipo n. Un solo cristal semiconductor puede tener muchas regiones p y tipo n; los p-n uniones entre estas regiones son responsables del comportamiento electrónico de utilidad.
Un equipo de investigadores ha logrado mostrar que las propiedades de los nanotubos pueden ser manipuladas y preservadas de tal manera que los hagan útiles para su uso en aplicaciones electrónicas. El desarrollo se ha hecho con agrupaciones de nanotubos en lugar de moleculas individuales, pero han logrado transformar los nanotubos en una RAM totalmente funcional.
Decidieron intentar implementar un circuito funcional: una memoria RAM usando nanotubos. Lograron hacer funcionar una RAM estática cuyo rendimiento fue estable durante miles de lecturas y escrituras, todo a temperatura ambiente. Es importante subrayar que no se hizo con nanotubos individuales, cada componente era un conglomerado sin distribuir de nanotubos.
Ampliar en: Hipertextual
Siempre imaginamos dispositivos electrónicos que se fabrican a partir de chips de silicio, con la que los ordenadores almacenan y procesar información en forma de dígitos binarios (ceros y unos) representados por pequeñas cargas eléctricas. Pero no necesariamente tiene que ser de esta manera: Entre las alternativas al silicio están los medios orgánicos tales como el ADN.
La computación de ADN se demostró por primera vez en 1994 por Leonard Adleman, que codificó y se resolvió el problema del viajante, un problema de matemáticas para encontrar la ruta más eficiente para un vendedor, entre ciudades, en su totalidad en el ADN.
EL ácido desoxirribonucleico, ADN, puede almacenar grandes cantidades de información codificada como secuencias de las moléculas, conocidos como nucleótidos, citosina (C), guanina (G), adenina (A), o timina (T). La complejidad y la enorme variación de los códigos genéticos de diferentes especies demuestra cuánta información puede ser almacenada en el ADN, que se codifica mediante CGAT, y esta capacidad puede ser objeto de uso por parte de la informática. Las moléculas de ADN se pueden emplear para procesar la información, utilizando un proceso de unión entre los pares de ADN conocido como hibridación. Esto lleva a cadenas simples de ADN como entrada y produce hebras de ADN a través de transformación como salida.
Desde el experimento de Adleman, muchas «circuitos» basados en ADN se han propuesto para implementar métodos computacionales, tales como la lógica de Boole, fórmulas aritméticas y cálculo de redes neuronales. Llamada programación molecular, este enfoque aplica conceptos y diseños habituales de la computación a escala nanométrica, siendo apropiado para trabajar con el ADN.
En esta «programación» lo que tiene sentido es realmente la bioquímica. Los «programas» creados son en base a la selección de moléculas que interactúan de una manera que logran un resultado específico en el proceso de autoensamblaje de ADN, donde colecciones desordenadas de moléculas espontáneamente interactúan para formar la disposición deseada de filamentos de ADN.
‘Robots’ de ADN
El ADN también se puede utilizar para controlar el movimiento, lo que permite dispositivos basados en la nanomecánica que usan el ADN. Esto se logró por primera vez por Bernard Yurke y sus colegas en 2000, que crearon a partir de hebras de ADN un par de pinzas que se abrían y pellizcaban. Experimentos posteriores, como el de Shelley Wickham y colegas en 2011 y en el laboratorio de Andrew Turberfield en Oxford demostraron que máquinas para caminar nanomoleculares hechas enteramente de ADN, podrían recorrer rutas establecidas.
Una posible aplicación es que un nanorobot caminante de ADN podría progresar a lo largo de pistas de toma de decisiones y dar la señal cuando se alcanza el final de la pista, lo que indica que el cómputo ha terminado. Al igual que los circuitos electrónicos se imprimen en tarjetas de circuitos, las moléculas de ADN se podrían utilizar para imprimir pistas similares dispuestas en árboles de decisión lógicos en un chip de ADN, y las enzimas se utilizarían para controlar la decisión de ramificación a lo largo del árbol, haciendo que el caminante tome una pista u otra.
Los caminantes de ADN también pueden transportar carga molecular, y así podrían ser utilizados para administrar medicamentos dentro del cuerpo.
¿Por qué la computación de ADN?
Entre las muchas características atractivas de las moléculas de ADN, se incluye su tamaño (ancho 2 nm), programabilidad y alta capacidad de almacenamiento – mucho mayor que sus homólogos de silicio. ADN también es versátil, barato y fácil de sintetizar, y la computación con ADN requiere mucha menos energía que los procesadores de silicio eléctricos.
Su desventaja es la velocidad: en la actualidad lleva varias horas para calcular la raíz cuadrada de un número de cuatro dígitos, algo que una computadora tradicional podría calcular en una centésima de segundo. Otro inconveniente es que los circuitos de ADN son de un solo uso, y necesitan ser recreado para ejecutar el mismo cálculo de nuevo.
Quizás la ventaja más grande de ADN a través de circuitos electrónicos es que puede interactuar con su entorno bioquímico. La computación con moléculas implica reconocer la presencia o ausencia de ciertas moléculas, y por lo que una aplicación natural de la informática de ADN es llevar esa capacidad de programación al ámbito de biosensores ambientales o de la entrega de medicamentos y terapias dentro de los organismos vivos.
Programas de ADN ya se han empleado en usos médicos, tales como el diagnóstico de la tuberculosis. Otro uso propuesto es un «programa» nano-biológica por Ehud Shapiro, del Instituto de Ciencia Weizmann en Israel, denominado el «médico de la célula» que se dirige a moléculas cancerígenas. Otros programas de ADN para aplicaciones médicas linfocitos diana (un tipo de glóbulo blanco), que se definen por la presencia o ausencia de ciertos marcadores de células y así se pueden detectar de forma natural con la lógica booleana verdadera/falso. Sin embargo, se requiere más esfuerzo antes de que podamos inyectar drogas inteligentes directamente en los organismos vivos.
El futuro de la computación de ADN
Tomado en términos generales, el cómputo de ADN tiene un enorme potencial de futuro. Su gran capacidad de almacenamiento, bajo coste energético, facilidad de fabricación que explota el poder de autoensamblaje y su fácil afinidad con el mundo natural es una entrada a la informática a escala nanométrica, posiblemente a través de diseños que incorporan ambos componentes moleculares y electrónicas. Desde su creación, la tecnología ha avanzado a gran velocidad, la entrega de diagnósticos en el punto de atención y prueba de concepto de medicamentos inteligentes – aquellos que pueden tomar decisiones de diagnóstico sobre el tipo de terapia para entregar.
Hay muchos desafíos, por supuesto, que hay que abordar de manera que la tecnología puede avanzar desde el concepto de prueba de drogas inteligentes: la fiabilidad de los caminantes de ADN, la solidez del autoensamblaje de ADN, y la mejora de la entrega de fármacos. Pero tras un siglo de investigación la informática tradicional está bien situada para contribuir al desarrollo de la informática de ADN a través de nuevos lenguajes de programación, abstracciones, y técnicas de verificación formal – técnicas que ya han revolucionado el diseño de circuitos de silicio, y puede ayudar a poner en marcha la computación orgánica por el mismo camino.
Fuente: The Conversation
Un profesor ha creado la esfera «mágica» para la transferencia de información. En varios años nuestros ordenadores, nanoantenas y otros tipos de equipos operarán en base a fotones en lugar de electrones. Incluso ahora casi estamos preparados para llevar a cabo este cambio. Si sucede, las esferas pueden llegar a ser uno de los componentes elementales de los nuevos dispositivos fotónicos. Los resultados del estudio fueron publicados en el último número de Scientific Reports, que es parte de Nature Publishing Group.
Las potencialidades de los ordenadores electrónicos convencionales se van a agotar. Durante cuatro décadas, la ley de Moore (según la cual la velocidad del procesador se duplica cada 18 meses) se cumplió debido al aumento de la frecuencia de operación de un solo procesador. Ahora, el mismo al resultado se llega por medio de la computación paralela – contamos con procesadores de doble núcleo, así como de cuatro núcleos. Esto significa que los procesadores de un solo núcleo no son capaces de hacer frente a la velocidad de cálculo exigida; por otra parte, no es posible aumentar esta velocidad más porque la frecuencia de funcionamiento del procesador en computadoras modernas está cerca del límite teórico. También el proceso de multiplicar el número de núcleos tiene fin: los cálculos indican que pronto se llegará al límite. Es por eso que equipos de investigación de todo el mundo están trabajando en la creación de sistemas ópticos súper rápidos, que serían capaces de reemplazar a los ordenadores electrónicas.
Por un lado, estos sistemas deben ser tan pequeños como sea posible. Por otro lado, la radiación óptica tiene su propia escala – la longitud de onda (en el rango visible del espectro es de unos 0.5 micrómetros). Esta escala es demasiado grande para ser implementada en los dispositivos electrónicos modernos con disposición de elementos ultradensa. Para competir con tales dispositivos electrónicos, los sistemas ópticos deben trabajar en escalas mucho más cortas que las longitudes de onda. Estos problemas están comprendidos en el ámbito de una disciplina moderna, llamada «óptica sublongitud de onda» (subwavelength optics). Su objetivo es manipular con la radiación electromagnética en escalas más cortas que su longitud de onda – en otras palabras, hacer cosas, que se consideraban como conceptualmente imposibles en las ópticas tradicionales de lentes y espejos.
Hasta hace poco la óptica sublongitud de onda puso grandes esperanzas en los efectos relacionados con la interacción de la luz con los llamados, plasmones – oscilaciones colectivas del gas de electrones libres en los metales. En el caso de las partículas de metal con tamaños de unos 10 nm las frecuencias de las oscilaciones del gas de electrones caen dentro del rango de la banda óptica. Si una partícula tal se irradia con una onda electromagnética, cuya frecuencia es igual a la de un plasmón, se produce una oscilación de la partícula a la frecuencia de resonancia. En la resonancia, la partícula actúa como un embudo, que «toma» energía de la onda electromagnética del ambiente externo y la convierte en energía de las oscilaciones del gas de electrones. Este proceso puede ir acompañado de una amplia gama de efectos muy interesantes que, en principio, se podrían emplear en diversas aplicaciones.
Por desgracia, la mayor parte de las expectativas relacionadas con la plasmónica no se ha justificado. El hecho es que, incluso muy buenos conductores eléctricos (por ejemplo, cobre o platino) presentan gran resistencia eléctrica cuando la frecuencia de la corriente eléctrica es del mismo orden de magnitud que la de la luz visible. Por lo tanto, como regla general, las oscilaciones de plasmones están fuertemente amortiguadas, y la amortiguación anula los efectos útiles de los que se podría hacer uso.
Es por eso que hace poco, científicos dirigen su atención a materiales dieléctricos con alto índice de refracción. No hay electrones libres en estos materiales porque todos ellos están conectados con sus átomos; y el impacto de la luz no induce corriente de conducción. Al mismo tiempo, la onda electromagnética afecta a los electrones dentro del átomo y los desplaza desde las posiciones de equilibrio. Como resultado, los átomos adquieren momento eléctrico inducido; este proceso se llama «polarización». Cuanto mayor sea el grado de polarización, mayor es el índice de refracción del material. Resultó que cuando una esfera hecha de un material con alto índice de refracción interactúa con la luz, el resultado de esta interacción en gran medida se asemeja a la de resonancia de plasmón anteriormente descrita en metales con una (pero muy importante) excepción: una amplia gama de materiales dieléctricos – a diferencia de los metales – tienen débil amortiguación en las frecuencias ópticas. A menudo usamos esta propiedad de los dieléctricos en nuestra vida cotidiana – por ejemplo, la débil amortiguación en las frecuencias ópticas es la clave para la transparencia del vidrio.
En anteriores trabajos por el profesor Michael Tribelsky (Mikhail Tribel’skii) de la Facultad de Física, MV Lomonosov Moscow State University y la Universidad Estatal de Moscú de Tecnologías de la Información, Radioingeniería y Electrónica MIREA, dio el impulso inicial a la investigación descrita anteriormente. El científico dice: «Si utilizamos el lenguaje de la física cuántica, mientras que hablamos de la excitación de plasmones, podemos decir que un cuanto de luz, los fotones se, convierte en un cuanto de oscilaciones de plasmones. A mediados de los 80 tuve la siguiente idea: ya que todos los procesos en la mecánica cuántica son reversibles, el proceso invertido de la conversión de plasmones a fotón debería existir también. Entonces, llegué a la conclusión de que existe un nuevo tipo de dispersión de la luz. Este fue el caso de hecho. Por otra parte, se le ocurrió que este nuevo tipo de dispersión de la luz tiene muy poco en común con el descrito en todos los libros de texto de dispersión de Rayleigh«. Como resultado, se publicó el artículo «dispersión resonante de la luz por partículas pequeñas,» Tribel’skii MI, Sov. Phys. JETP 59 [2], 534 (1984): http://www.jetp.ac.ru/cgi-bin/dn/e_059_03_0534.pdf . Sin embargo, en 1984 esta obra no podría atraer la atención de los científicos, porque no existían las nanotecnologías todavía. La primera cita de este trabajo se produjo en el año 2004 – exactamente 20 años después de su publicación. Hoy en día, este tipo de dispersión, llamada «anómala», es ampliamente reconocida. Por desgracia, incluso en el caso de la dispersión anómala, una vez más, nos encontramos ante el papel fatal de la disipación. Con el fin de observar la dispersión anómala es necesario el uso de metales con muy débil amortiguación a frecuencias ópticas.
La pregunta muy natural en este caso es: si tomamos la ventaja de la amortiguación débil de los dieléctricos, ¿será la esfera hecha de materiales dieléctricos con alto índice de refracción capaz de demostrar los efectos que no se pueden observar en el caso de resonancias de plasmones en metales con una fuerte amortiguación? Para responder a la pregunta, el laboratorio del profesor Tribelsky (Facultad de Física, MV Lomonosov Moscow State University) inició e una investigación conjunta con colegas franceses y españoles. Los científicos experimentaron con una esfera dieléctrica con un diámetro de aproximadamente 2 cm, hecha de cerámicas especiales, y «enseñada» a redirigir el haz incidente ondas electromagnéticas de una manera deseada. Por otra parte, la direccionalidad de la dispersión se puede controlar y cambió drásticamente simplemente mediante la regulación fina de la frecuencia de la onda incidente.
De acuerdo con la explicación de Tribelsky, esta esfera tiene líneas de resonancia bastante estrechas relacionadas con sus oscilaciones de polarización. En un sentido, es bastante análoga a una esfera de metal, que tiene las frecuencias de resonancia relacionados con las oscilaciones del gas de electrones libres. Cada línea corresponde a la excitación de un modo de oscilación en particular, llamados armónicos o modos parciales. Cada armónico se caracteriza por una dependencia fija entre la intensidad de dispersión y el ángulo de dispersión. Esta dependencia se determina por la naturaleza de un armónico dado. El campo de dispersión total de la esfera es una suma de las contribuciones de todos los (onda parcial) armónicos. Las ondas parciales interfieren entre sí. La anchura estrecha de estas líneas permite excitar modos parciales selectivamente y controlar la interferencia. Esto, a su vez, permite la reorientación de la radiación incidente en la forma deseada. ¡Eso es! Se logra la manipulación controlada con la radiación.
«Sin embargo, ¿por qué hablamos de nanoscalas si el diámetro de la esfera es de aproximadamente 2 cm? Eso es sólo el punto. Prof. Tribelsky dice: «Puedo hablar libremente acerca de la belleza experimental de este trabajo ya que soy un teórico. Acabo de participar en la planificación del experimento, mientras que todo el trabajo experimental difícil ha sido hecho por mis colegas franceses, en cuanto a la belleza experimental de este trabajo, es la siguiente: con la ayuda de la radiación de microondas – similar a la utilizada en un horno – hemos logrado simular en una escala de centímetros todos los procesos que se producen a nanoescala con la luz visible Es ampliamente conocido: si tenemos dos objetos de la misma forma pero de diferentes tamaños y con el mismo índice de refracción, que dispersan las ondas electromagnéticas de la misma manera, siempre que la relación entre las dimensiones lineales objetos de la longitud de onda es la misma para ambos los objetos. Esta fue la idea de nuestros experimentos. Sin embargo, el camino desde la idea de los resultados fue muy difícil. Se bastó para decir que los investigadores lograron separar la señal deseada de fondo cuya amplitud a veces era de 3000 veces más grande (!) que la de la señal«.
Teniendo en cuenta las posibles aplicaciones prácticas de los resultados obtenidos, es importante subrayar que la técnica de fabricación de tales nanoesferas para la manipulación de la radiación infrarroja óptica es cercana, bastante barata y simple. No requiere ningún material «exótico», caro, y / o equipo sofisticado. Además de los equipos ópticos (que, hoy en día, sin embargo, permanecen en la esfera de la realidad virtual), las esferas a nanoescala que se describen en el documento de Tribelsky y coautores pueden ser utilizadas en la amplia gama de diferentes campos: sistemas de telecomunicaciones; registro, procesamiento y almacenamiento de la información; diagnóstico y el tratamiento de diferentes enfermedades incluyendo oncológicas, etc.
Fuente: Michael I. Tribelsky, Jean-Michel Geffrin, Amelie Litman, Christelle Eyraud, Fernando Moreno. Small Dielectric Spheres with High Refractive Index as New Multifunctional Elements for Optical Devices. Scientific Reports, 2015; 5: 12288 DOI: 10.1038/srep12288
Esta es la primera vez que una operación realizada por un robot utilizando la ruta vaginal tanto para la muestra y un trasplante de riñón. La hazaña se llevó a cabo el nueve de julio 2015 en el Hospital de la Universidad de Toulouse (Francia); el donante, vivo, era la hermana de la receptora.
El equipo con sede en Toulouse que está tras esta cirugía no es en primer intento. De hecho, durante una operación llevada a cabo el 13 de mayo, ya habían utilizado un robot para introducir un riñón por la vagina. En ese momento, la mujer había recibido el riñón donado por un hombre. Esta vez, durante la operación llevada a cabo en julio pasado, la extirpación del riñón no solo se ha hecho por vía vaginal en el destinatario, sino también en la donante, su hermana. Las dos mujeres se están bien.
Un comunicado del Hospital Universitario de Toulouse publicado 19 de agosto de 2015 indica que el robot quirúrgico se utilizó por primera vez en Francia en 2001 el Hospital Mondor en Créteil, a continuación, en Tours en el Hospital de la Universidad en 2013. El robot ya se ha utilizado para una cien trasplantes de riñón en India, Estados Unidos y Francia.
Durante la operación realizada por los cirujanos Frederico Sallustro y Nicolas Doumerc, los médicos realizan pequeñas incisiones en el interior de la pared vaginal de cada paciente: no hay ninguna cicatriz visible. Se insertan instrumentos quirúrgicos para llegar al riñón. Una vez que llegan, los cirujanos identifican los vasos sanguíneos que lo alimentan y los cortan. La extracción del riñón, rodeado por gel, se introdujo inmediatamente a la destinataria. Una hora después del trasplante, el órgano trabajó. La donante regresó a su casa en el segundo día y en el cuarto la receptora.
Menos dolor, mejor recuperación y ninguna cicatriz visible
Los beneficios de este tipo de técnica quirúrgica son numerosos: la intervención por el robot Da Vinci disminuye el dolor, el tratamiento después de la cirugía, el riesgo de derrame de líquido linfático y la duración media de la estancia. El desarrollo de esta técnica también podría permitir a los pacientes que no son elegibles para los métodos convencionales para sufrir una operación, por ejemplo, en el caso de obesidad mórbida.
Otros beneficios del procedimiento que se llevó a cabo en Toulouse: menos riesgo de infección, hernia incisional, además de los beneficios estéticos. Beatriz Pérez, de 43 años, que ha recibido el riñón de su hermana Valerie, ya había recibido un trasplante de riñón de un donante fallecido.
El uso de la vagina para un trasplante de riñón no es nueva en el mundo. En marzo, médicos hindúes publicaron los resultados de un estudio de ocho pacientes que recibieron una introducción del riñón por vía vaginal, en vez de laparoscopia. En este artículo publicado en American Journal of Transplantation, describieron el procedimiento utilizado, con éxito en un año de seguimiento, hubo 100% de tasa de supervivencia y la tasa de filtración glomerular un mes y un año fueron similares a los de otras ocho mujeres que habían tenido un trasplante de riñón «clásico». No se requirió analgesia después del tercer día después de la operación en siete de cada ocho mujeres operadas. Por consiguiente, la técnica apareció segura y factible.
Fuente: FUTURA Santé
¿Cuánto ADN hace falta, entonces, para formar un ser humano? ¿Cuánta información procesa cada ser vivo? Es más, ¿Cuánto ADN en total habrá en el mundo en el que vivimos? Tanto en capacidad de guardar información como en cantidad, las cifras son sencillamente impresionantes.
Supongamos que la tierra es un gran sistema de computación. Esto precisamente es lo que han hecho unos investigadores del centro de Astrobiología y la Universidad de Edimburgo. Todo con la intención de medir cuánto ADN podría haber sobre la faz de la Tierra. Según sus estimaciones, en masa, el ADN existente en nuestro pequeño planeta es de unas 5 por 10 elevado a diez (5×10^10) toneladas de ADN. Es decir, unos 1000 millones de enormes contenedores de carga. Lo que parece muchísimo para algo que mide tan poco que no podemos ver a simple vista. Pero si esta cifra no te impresiona, tal vez lo haga su implicación. Puesto que el ADN es la unidad fundamental de información y su misión es almacenarla procesarla, esto 1000 millones de contenedores suponen una capacidad de unas 5.3 × 10^31 (±3.6 × 10^31) megabases (Mb, que equivalen a un millón de pares de bases).
La cantidad de información almacenada excede cualquier posibilidad de imaginarla. Pero para que nos hagamos una idea, el ADN de la Tierra es unas 10 elevado a las 22 (10^22) veces más rápido procesando que el superordenador más rápido de la Tierra, el Tianhe-2 chino, que cuenta con unos 33.86 PetaFLOPS. Esto supone, en concreto, un poder de computación de unos 10 elevado a 15 (10^15) yottaNOPS. Para quien no lo sepa, yotta significa a su vez 10 elevado a 24 (10^24). Además, necesitaríamos unos 10 elevados a la 21 (10^21) ordenadores como éste para almacenar toda la información que guarda el ADN en total. Aunque hasta ahora se había investigado muchísimo sobre la cantidad de ADN total existente en organismos, es la primera vez que alguien intenta estimar la capacidad en información relacionada con cuánto ADN existe.
Ampliar en: Conocer Ciencia
Científicos de la Universidad de Exeter han descubierto un nuevo método para producir grafeno más barato y fácilmente.
El grafeno es un material formado por el elemento químico carbono (elemento del grupo IV de la tabla periódica, como el silicio y el germanio), puro sin ningún añadido, sus átomos están dispuestos formando un patrón regular con estructura hexagonal, es similar al grafito (otro compuesto de carbono), pero con una estructura de láminas de un átomo de espesor. Una de sus características más destacadas es que es muy ligero, por ejemplo una lámina de un metro cuadrado tiene una masa de tan sólo 0,77 miligramos. A su vez es 200 veces más fuerte que el acero y su densidad es semejante a la de la fibra de carbono, y comparado con el acero es cinco veces más ligero.
Artículo completo en: Blasting.news