Física
Física
Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences.
Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados.
La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable.
Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.
En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general.
Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible.
La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes.
Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar.
El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica.
Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.
[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]
Referencia:
Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107
Fuente: Experientia docet
____________________
Enlaces relacionados:
– Efecto Casimir – Wikipedia, la enciclopedia libre
Es el primer láser de germanio capaz de emitir en longitudes de onda útiles para las comunicaciones ópticas. Es también el primero que opera a temperatura ambiente. Este nuevo láser es muy prometedor para la computación óptica, y además demuestra que los semiconductores de banda prohibida indirecta («indirect-bandgap») pueden producir láseres de uso práctico.
«Este láser está diseñado con una física totalmente nueva», dijo Lionel C. Kimerling del MIT, cuyo Grupo de Investigación de Materiales Electrónicos desarrolló el láser de germanio. Kimerling es profesor Thomas Lord de ciencia de los materiales e ingeniería. El equipo de investigación publicó sus resultados en Optics Letters de enero 2010.
Anteriormente, se creía que los semiconductores banda prohibida indirecta no se podían utilizar para los láseres prácticos. Dentro de los cristales de semiconductores, un electrón excitado se libera y entra en la banda de conducción para que pueda moverse libremente por todo el cristal. Pero ese electrón excitado estará en uno de dos estados: en el primero, se libera energía extra en forma de fotón, en el segundo, la energía adicional se libera de otra manera, calor por ejemplo.
En los materiales de banda prohibida directa, el primero, el estado en que emiten fotones es un estado de menor energía que el segundo estado, en materiales de banda prohibida indirecta, ocurre lo contrario. Y debido a que un electrón excitado podría ocupar el estado de menor energía disponible, entonces tiende a entrar en el estado de emisión de fotones en materiales de banda prohibida directa como el arseniuro de galio, pero no en materiales de banda prohibida indirecta como el germanio.
«En semiconductores de banda prohibida indirecta, hay una discrepancia de cantidad de movimiento entre los electrones de conducción indirecta en los valles y los agujeros en la banda de valencia», dijo el autor principal Jifeng Liu, un asociado postdoctoral que es coautor del artículo con Kimerling, Jurgen Michel, el investigador principal del grupo investigador, y los estudiantes graduados Xiaochen Sun y Rodolfo Camacho Aguilera.
«Desde cualquier transición se necesita conservar el impulso, la emisión de luz no puede suceder en los semiconductores de banda prohibida indirecta a menos que los electrones pasen a conseguir una cantidad adecuada de impulso de las ondas de las vibraciones atómicas en el material, conocidas como fonones, para compensar este desajuste «, dijo Liu.
«Es similar a la situación de los pingüinos a la espera de coger la ola del mar adecuada para saltar sobre un iceberg. Por lo tanto, la emisión de luz en semiconductores de banda prohibida indirecta es muy ineficiente, por lo que estos materiales son considerados inadecuados para los láseres. Históricamente, los científicos han evitado el uso de materiales de banda prohibida indirecta para dispositivos emisores de luz «.
Para el nuevo láser, Liu y sus colaboradores forzaron a los electrones excitados del germanio en el -estado de emisión- del fotón al estado de mayor energía, utilizando dos estrategias comunes para la fabricación de circuitos integrados («chips»).
En el primer enfoque, el grupo dopó germanio con fósforo, que tiene cinco electrones externos, el germanio sólo tiene cuatro. Este electrón extra llenó el estado de menor energía en la banda de conducción, impulsando a los electrones excitados a «desbordarse» en el estado de mayor energíay a emitir fotones.
En la segunda estrategia, el equipo de investigadores «tensó» el germanio, dejando sus átomos un poco más separados de lo que es habitual. Para ello, crecieron el germanio directamente encima de una capa de silicio, lo que redujo la diferencia de energía entre los dos estados, lo que permite a los electrones excitados desbordarse hacia el estado de emisión de fotones en lugar de liberar su energía extra de otra manera.
Por lo tanto, atrajeron a los electrones al estado de emisión de fotones y produjeron un láser con semiconductores de banda prohibida indirecta.
Para la computación óptica, es fundamental desarrollar formas prácticas baratas, para integrar los componentes ópticos y electrónicos en los chips de silicio. Los láseres utilizados actualmente para los sistemas de comunicaciones deben ser construido por separado de materiales caros como el arseniuro de galio y luego injertados en chips de silicio, un proceso que tarda más tiempo y es más costoso que si se construye directamente sobre el propio silicio.
El Germanio, cabe señalar – a diferencia de materiales típicos de láser – es fácil de usar en los actuales procesos de fabricación de chips de silicio. Liu dijo que el germanio y silicio están en el mismo grupo en la tabla periódica y tienen la misma estructura cristalina e igual número de electrones de valencia. «Por lo tanto, el germanio introducido directamente en los chips de silicio no provoca contaminación dopante a los actuales dispositivos de transistores de silicio láser tales como sucede con materiales típicos como el GaAs».
«Hay dos pasos importantes en el desarrollo de esta tecnología», dijo. «En primer lugar, vamos a desarrollar diodos láser de germanio que están directamente alimentados por corriente eléctrica. De hecho, hemos mostrado el año pasado el primer diodo de germanio emisor de luz sobre silicio, por lo que creemos que un diodo láser bombeado eléctricamente se puede lograr con el diseño mejorado de los dispositivos. En segundo lugar, aumentar aún más el nivel de dopaje en el germanio para aumentar su eficiencia. Hemos encontrado algunos buenos métodos para lograr este objetivo, pero no puedo revelarlos todavía, debido a cuestiones de propiedad «.
Fuente: Photonics
________________
Enlaces de interés:
– Hoy, 16 de mayo, se cumplen los 50 años del descubrimiento del láser por Maiman
– Láser – Wikipedia, la enciclopedia libre
– La Tecnología Láser Identifica Billetes Falsificados
– Nuevas pantallas de TV láser
– Las uñas, sistema de almacenamiento óptico
– Apuntes Introducción a la Informática. Periféricos de un ordenador
El 16 de mayo de 1960, Theodore H. Maiman, un científico que trabajaba en los laboratorios de investigación que el excéntrico millonario Howard Hughes poseía en Malibú (California, EE.UU.) observó por primera vez la amplificación de luz por emisión estimulada de radiación, fenómeno cuyas siglas en inglés forman el acrónimo LASER. Publicó el artículo, un columna de exquisita simplicidad, el 6 de agosto de 1960 en la revista Nature, artículo titulado “Stimulated Optical Radiation in Ruby” (radiación óptica estimulada en rubí). El trabajo había sido previamente rechazado en la prestigiosa publicación Physical Review Letters. Nos lo cuenta magistralmente Humberto Michinel Álvarez en ”El láser: 50 años de luz,” Revista Española de Física, Enero-Marzo 2010. Permitidme que extraiga algunos párrrafos de dicho artículo. Obviamente, también nos lo cuentan en muchas otras fuentes, como este Editorial, “Fifty brilliant years,” Nature Materials 9: 369, May 2010.
“El primer láser fue construido con un cristal cilíndrico de rubí sintético de un centímetro de largo, con sus bases espejadas, formando el primer resonador óptico activo de la historia. Para excitar los átomos de cromo del cristal, Maiman usó una lámpara de flash enrollada en espiral en torno al cilindro. Ese diseño simple y compacto le permitió obtener el resultado buscado: emisión de luz roja coherente en forma de pulsos que respondían a los destellos de la lámpara de bombeo. Maiman, quien sorprendentemente no fue galardonado con el Premio Nobel por su hazaña, consiguió con su artículo ganar la partida a numerosos equipos de investigadores que mantenían una intensa competencia para lograr el primer amplificador de microondas por emisión estimulada (MASER) que emitiese luz visible. Sobre todo en los Estados Unidos y en la antigua URSS numerosos grupos de investigación venían investigando contrareloj desde hacía años diferentes diseños de “máser óptico,” con el ánimo de entrar así en la historia de la Física [el cambio de la “M” de máser por la “L” de láser fue propuesto por Gordon Gould].
Con la publicación del trabajo de Maiman en Nature finalizó la carrera por hacer el primer láser. El trabajo previo a Maiman permitió una explosión de resultados desde el primer momento y así fueron desarrollados rápidamente nuevos modelos de láser: He-Ne (1961), Cs (1962), diodo (1962), CO2 (1963), Ar (1964), colorante (1966), excímero (1970), etc. Muchos de estos avances fueron reconocidos con el Premio Nobel de Física como ocurrió a C.H. Townes, N. Basov y A. Prokhorov en 1964, A. Schawlow y N. Bloembergen en 1964 o Z. Alferov y H. Kroemer en 2000.
Información completa en: Francis (th)E mule Science’s News
_____________________________
Enlaces de interés:
– Láser – Wikipedia, la enciclopedia libre
– La Tecnología Láser Identifica Billetes Falsificados
– Nuevas pantallas de TV láser
– Las uñas, sistema de almacenamiento óptico
– Apuntes Introducción a la Informática. Periféricos de un ordenador
Un nuevo tipo de transistor controlado por la sustancia química que proporciona la energía para elmetabolismo de
nuestras células pueda ser un gran paso hacia el diseño de prótesis que puedan ser conectados directamente al sistema nervioso.
Los transistores son los bloques fundamentales de construcción de aparatos electrónicos, por lo que encontrar formas de controlarlos con las señales biológicas podría proporcionar una vía hacia la integración de la electrónica con el cuerpo.
AlAleksandr Noy en el Laboratorio Nacional Lawrence Livermore en California (EE.UU.) y sus colegas optaron por controlar un transistor con adenosina trifosfato (ATP) – el combustible molecular que se encuentra en casi todas las células vivas.
El nuevo transistor se compone de un nanotubo de carbono, que se comporta como un semiconductor, reduciendo la brecha (gap) entre dos electrodos de metal y recubierto con una capa de polímero aislante que sale de la sección central del nanotubo, dejándola expuesta. El dispositivo después se cubre de nuevo, esta vez con una bicapa lipídica similar a las que forman las membranas que rodean las células de nuestro cuerpo.
El equipo aplicó entonces un voltaje a través de los electrodos del transistor y se llenó el dispositivo con una solución que contiene ATP y los iones sodio y potasio.. Esto provocó que una corriente fluya a través de los electrodos – y cuanto mayor era la concentración de ATP, fluía corriente más intensa.
El dispositivo responde de esta manera porque la bicapa lipídica incorpora una proteína que, cuando se expone a ATP, actúa como una bomba de iones, transportando iones de sodio y potasio a través de la membrana.
«La proteína de bomba de iones es un elemento absolutamente fundamental de este dispositivo», dice Noy.» «Cada ciclo, se hidroliza una molécula de ATP y se mueven tres iones de sodio en un sentido y dos iones de potasio en el opuesto.Esto da lugar a una red de bombeo de una carga a través de la membrana hacia el nanotubo.
La acumulación de iones crea un campo eléctrico alrededor de la porción expuesta de los nanotubos semiconductores, aumentando su conductividad en proporción a la intensidad del campo. Cuando el suministro de ATP se reduce, los iones se fugan al otro lado de la membrana y el flujo de corriente a través del transistor cae.
Noy afirma que este es el primer ejemplo de un sistema bioelectrónico realmente integrado. «Espero que este tipo de tecnología pueda usarse para construir interfaces bioelectrónicas para permitir una mejor comunicación entre organismos vivos y máquinas.»
Itamar Willner en la Universidad Hebrea de Jerusalén en Israel piensa que la tecnología es muy prometedora. «La belleza del sistema se refleja en el hecho de que la energía mecánica en la nanoescala [del movimiento de los iones] se transforma en electricidad.» He suggests it could be used to develop sensors to monitor intracellular metabolism. Sugiere que podría ser utilizado para desarrollar sensores para monitorizar el metabolismo intracelular.
Publicado en: Nano Letters, DOI: 10.1021/nl100499x
Los LED avanzan a paso firme quemando sus primeras etapas y los puntos cuánticos (quantum dots) podrían ser los responsables de la siguiente revolución con la iluminación LED. Varias empresas, como QD Vision, ya disponen de productos muy avanzados para la comercialización.
La plataforma de productos Quantum LigthTM, desarrollados por la citada empresa, ofrecen un mayor nivel de saturación del color y brillo que el proporcionado por otras tecnologías y con un consumo de energía aún menor. Se trata de la única tecnología de materiales capaz de emitir, por sí misma, cualquier color dentro la gama del espectro visible.
Los denominados puntos cuánticos son materiales semiconductores de algunos nanómetros de tamaño, como por ejemplo el seleniuro de cadmio. Los mismos se vuelven fluorescentes cuando resultan excitados por los fotones o electrones. Al elegir un material determinado y un cierto tamaño, los investigadores pueden sintonizar con precisión la longitud de onda de la luz emitida y, en consecuencia, el color de la misma.
La tecnología de LCD, por ejemplo, usa retroiluminación de luz blanca que es filtrada para lograr los colores deseados consumiendo hasta 10 veces lo que consumiría una pantalla basada en puntos cuánticos, capaces de emitir luz y color de manera directa.
Los puntos cuánticos también ofrecen interesantes posibilidades en el campo del diseño, al permitir a los fabricantes crear pantallas extremadamente delgadas y flexibles con grandes formatos.
“El principal beneficio de los puntos cuánticos es que es posible conseguir una bombilla realmente eficaz y con una alta calidad en colores“, indicó Vladimir Bulovic, un profesor de ingeniería eléctrica del Organic and Nanostructured Electronics Laboratory, perteneciente al MIT (Massachusetts Institute of Technology).
Según Bulovic, el desarrollo de QD Vision, que estará en el mercado a partir del próximo enero, es el primer dispositivo optoelectrónico basado en la tecnología de los puntos cuánticos que ha pasado a la fase comercial.
Vía ::Tendencias 21 | QD Vision
Fuente: Ison21
Los términos de la licencia Creative Commons que utilizamos puede leerlos en esta página.
«Una biblioteca en un chip» es lo que promete que un equipo de EE.UU. con una técnica para crear diminutas estructuras magnéticas, la nanopuntos. Faltan detalles y el logro sigue siendo distante en el tiempo, pero es un anuncio de una evolución futura prometedora …
A fin de miniaturizar la grabación de la información digital, las nanotecnologías ofrecen muchas vías objeto de estudio en estos momentos. En los EE.UU., el equipo de Jay Narayan, del Departamento de Ciencia de los Materiales e Ingeniería de la Universidad de Carolina del Norte, ha presentado recientemente en una conferencia algunos resultados obtenidos mediante el uso de unas nanoestructuras, llamadas nanopuntos (nanodots en Inglés).
Estos diminutos cristales de nitruro de titanio (TiN), que también contienen hierro y platino son sólo unos seis nanómetros de ancho y con propiedades magnéticas suficiente para almacenar un bit (0 o 1). Como especialista en este campo, el laboratorio ha desarrollado un método especial de fabricación que lleva a la creación de cristales muy puros, formados por epitaxia de haces moleculares (crecimiento de cristales espontánea pero controlado). Estos nanopuntos se crean en una superficie de silicio con técnicas similares a las utilizadas para los actuales circuitos electrónicos.
Creamos nanopuntos magnéticos que pueden almacenar un bit de información en cada uno de ellos resume Jay Narayan, lo que nos permite almacenar más de mil millones de páginas en un chip de una pulgada cuadrada (una pulgada es igual a 2.54 cm). El comportamiento es pobre. Una pulgada cuadrada es aproximadamente 6.5 centímetros cuadrados, y contiene una página, pero ¿cómo, on o sin texto? Sin embargo, mil millones de páginas es mucho. En texto plano, se obtiene el equivalente a unos 500000 diccionarios. Pero en 2008, Google afirmó haber indexado en internet billones de páginas web …
En 2007, un equipo británico de la Universidad de Cambridge hizo uso de nanopuntos, utilizados de diferentes formas para almacenar información en forma de estados magnéticos a escala de nanómetros. Con el uso de estos, los investigadores esperan capacidad mil veces mayores que las logradas con las técnicas actuales.
Los físicos no desesperan y esperan almacenar más información en la escala de unos pocos átomos, por ejemplo, gracias a la magnetorresistencia anisótropa balística (o Bamra). La memoria de nuestros aparatos todavía tiene un amplio margen de evolución …
Fuente: Futura-Techno
_____________________
Enlaces de interés:
– Actualidad informática: Nanotecnología
– Actualidad informática: Sistemas almacenamiento
– Apuntes Informática Aplicada al Trabajo Social. Introducción Hardware
Unas especies animales aparecen y tienen éxito y continúan su evolución, mientras que otras terminan extinguiéndose. Con las tecnologías humanas pasa otro tanto. En el primer caso se debe a la presión del medio y sus variaciones y en el segundo a la presión económica de la competencia y las variaciones del mercado. ¿Llegará la similitud entre seres vivos y tecnología al extremo de encontrar las mismas soluciones a determinados problemas adaptativos? Un estudio publicado en PloS Computational Biology apunta a que sí.
El equipo de investigadores, que incluía neurocientíficos y especialistas en computación de EE.UU., Alemania y Reino Unido, encabezado por Edward Bullmore (Universidad de Cambridge, Reino Unido) ha encontrado las mismas soluciones de diseño para el procesamiento de la información en el cerebro humano, el sistema nervioso de un nemátodo (Caenorhabditis elegans, un gusano redondo) y el microprocesador. El equipo ha estudiado la estructura de las redes de conexiones y ha constatado la existencia de coincidencias sorprendentes.
El equipo de Bullmore usó para el estudio datos que en su mayoría estaban en el dominio público, incluyendo datos de imágenes por resonancia magnética de cerebros humanos, mapas del sistema nervioso del nemátodo y los planos de diseño de un microprocesador estándar. El análisis de estos datos reveló que cerebro, gusano y microchip compartían dos características estructurales básicas.
Por una parte los tres tienen una arquitectura de muñeca rusa, con los mismos patrones repitiéndose una y otra vez a diferentes escalas. Por otra, las tres estructuras siguen la regla de Rent; esta regla, que tiene su origen en el estudio de los circuitos integrados, se usa para describir la relación entre el número de elementos en un área dada y el número de conexiones entre ellos.
Estas similitudes podrían explicarse diciendo que representan la forma más eficiente de cablear (entendiendo por cable indistintamente neuronas o hilos metálicos) una red compleja en un espacio físico limitado, ya sea un cerebro humano tridimensional o un chip de ordenador bidimensional.
Esta relativamente alta complejidad conlleva, paradójicamente, un coste extra en el cableado físico. ¿Cómo podemos hablar entonces de estructuras eficientes? Pues porque hablamos de eficiencia económica (eficiente en costes) en términos de conexiones, lo que no implica necesariamente minimizar los costes de cableado. Los sistemas de procesado de la información tanto biológicos como artificiales pueden evolucionar para optimizar el compromiso entre coste físico y complejidad topológica, lo que resultaría en la aparición de principios similares de diseño modular y económico en diferentes clases de redes neuronales y computacionales.
Dos conclusiones pueden sacarse a raíz de este estudio. La primera es que se pueden aprender cosas interesantes sobre nuestra propia evolución estudiando la forma en que la tecnología se ha desarrollado, además de analizando organismos tan simples como un gusano. La segunda, y una vez más en la historia de la ciencia, el hombre recibe una dosis de humildad al apreciar que ni él ni su cerebro son tan excepcionales como habitualmente cree.
Referencia:
Bassett, D., Greenfield, D., Meyer-Lindenberg, A., Weinberger, D., Moore, S., & Bullmore, E. (2010). Efficient Physical Embedding of Topologically Complex Information Processing Networks in Brains and Computer Circuits PLoS Computational Biology, 6 (4) DOI: 10.1371/journal.pcbi.1000748
Fuente: Experientia docet
¿Hito médico o invasión de privacidad? Un ordenador en un pequeño chip fue aprobadop para la implantación en el brazo de un paciente, el sistema puede acelerar información vital sobre el historial médico de un paciente a los médicos y hospitales en caso de precisar atención urgente. Sin embargo los críticos advierten que podría abrir nuevas formas de poner en peligro la confidencialidad de los registros médicos.
La FDA (Administración Federal de Medicamentos y Alimentos) dijo que Applied Digital Solutions de Delray Beach, Florida (EE.UU.), podría comercializar el VeriChip, un chip de computadora implantable, del tamaño de un grano de arroz, con fines médicos.
Con el pinchazo de una jeringuilla, el microchip se inserta bajo la piel en un procedimiento que dura menos de 20 minutos y no deja puntos de sutura. En silencio y de manera invisible, los chips latentes almacenan un código que libera la información específica del paciente cuando se pasa un escáner sobre él.
Piense en el código UPC (habitual en los productos de consumo). El identificador impreso en un alimento, muestra su nombre y precio en la pantalla del cajero.
El doble uso Chip plantea alarma
El VeriChip no contiene registros médicos, sólo los códigos que se pueden escanear, y procesar en un consultorio médico o en el hospital. Con ese código, los servicios de salud pueden desbloquear el acceso a una base de datos segura que contiene la información médica personal, incluyendo las alergias y tratamientos previos. La base de datos, no el chip, se actualiza con cada visita médica.
Los microchips ya se han implantado en un millón de animales domésticos. Pero el chip de posible doble uso para el seguimiento de los movimientos de personas, así como acelerar la entrega de información médica a los servicios de emergencia, ha suscitado alarma.
«Si las protecciones a la privacidad no se establecen en primer lugar, las consecuencias podrían ser perjudiciales para los pacientes», dijo Emily Stewart, un analista de políticas de privacidad en el Proyecto de Salud.
Para proteger la privacidad del paciente, los dispositivos deben revelar sólo la información médica vital, reacciones de tipo alérgico, tipo de sangre y que son necesarias por los sanitarios para realizar su trabajo, dijo Stewart.
Un gurú de las tecnologías de la información en el Detroit Medical Center, sin embargo, ve los beneficios de los dispositivos y presionará para la inclusión de su centro en un programa piloto VeriChip.
«Uno de los grandes problemas en la atención sanitaria ha sido la situación de los registros médicos. Así que gran parte de ellos todavía está en papel», dijo David Ellis, cofundador de Michigan Electronic Medical Records Initiative.
Información completa en: The World’s Prophecy
Por primera vez se han dado en el LHC colisiones a 7 TeV. En el instante en que sus detectores registran sucesos relacionados con una colisión, los desafíos se mueven desde el reino del hardware y el software, ya que el LHC producirá, literalmente, más datos de lo que podemos manejar. Tenemos que averiguar a lo que aferrarse en tiempo real, y enviarlo a todo el mundo a través de conexiones dedicadas a 10 GBp/s; y la necesidad por parte del extremo receptor de guardarlo de forma segura y llevar a cabo el tipo de análisis que se espera revele una nueva física. Vamos a proporcionar una breve visión a los temas de cómputo creado por el LHC.
Encontrar lo que estamos interesados
El LHC no es sólo excepcional en términos de la energía que puede alcanzar, sino que tiene una muy alta luminosidad, lo que significa que produce colisiones a una velocidad asombrosa. Howard Gordon indicó que las interacciones se llevarán a cabo a un ritmo de 600 millones de eventos por segundo para cada detector. Incluso si tuviéramos la capacidad de guardar los comprobantes de todos ellos (que no), muchos representarían a la física conocida. Srini Rajagopalan, un empleado de Brookhaven que trabaja en el CERN, dijo que de los millones de colisiones que ocurren cada segundo, estaremos almacenando aproximadamente 400 de ellas.
Obviamente, este proceso es un sacrificio muy importante, complicado por el hecho de que estamos esperando para ver las partículas que han sido predichas por las diferentes teorías (lo ideal, nos gustaría también detectar cosas que los teóricos no esperaban). ¿Cómo funciona esto? Un indicio se proporcionó cuando a Stephanie Majewski se le preguntó sobre un modelo para la existencia de dimensiones más allá de nuestro bien conocido universo de cuatro. «Las dimensiones extra nos darán un montón de muones», dijo Majewski, «no podía faltar.» En resumen, la mayoría de cosas que estamos esperando o la esperanza de encontrarlas son el producto de algunas predicciones bastante específicas, y producirán patrones igualmente predecibles de partículas en los detectores (Chris Lee cubrió esto en detalle un poco más).
Rajagopalan describe cómo el software del detector ATLAS, incluyó lo que llamó «filtros de eventos». Básicamente, el software puede determinar el grado en que las partículas y la energía que sale de una colisión coinciden con un patrón que es de esperar que al ser producido por una partícula dada. Estas expectativas pueden basarse tanto en lo que ya hemos visto en partículas conocidas como el quark top, o lo que predice la teoría.
En este momento, el software cuenta con 300 filtros de eventos, pero aparentemente puede manejar hasta 8000, y dar prioridad a cada una de ellos, entonces, por ejemplo, es probable que trate de capturar eventos de más potencial Higgs que los quarks arriba (top).
Estos filtros pueden tener diversos grados de restricciones, lo que significa que se pueden establecer para capturar eventos que son similares a, pero que no se ajustan exactamente a las predicciones. También es posible detectar la superposición parcial entre eventos. Así, por ejemplo, una partícula desconocida podría producir un conjunto de familias como parte de su decaimiento, incluso si no hay un filtro específico para las partículas, el evento puede ser capturado porque se ve un poco como algo que también se desintegra a través de un conjunto similar de partículas.
Esto último es importante en caso de que los teóricos empezaran a proponer ideas mucho después de que el LHC hubiera comenzado la recolección de datos. Cuando Howard Gordon planteó esto, es posible tomar nuevas ideas y compararlas con los modelos existentes para identificar los posibles lugares de solapamiento, y para ir desde allí a los datos primarios y probar contra las predicciones en detalle.
La física computacional
En la interfaz principal de ATLAS para EE.UU., el principal papel de Brookhaven será simplemente almacenar cualquier dato que llegue del evento a través de filtros a medida, y su distribución a diferentes (Tier 2 y 3) lugares de todo el país (Brookhaven también cuenta con una red de 10000 núcleos que llevará a cabo un análisis). Como lo describió Ofer Rind, ya que cada caso es esencialmente independiente, todos ellos se pueden analizar por separado, es un problema «paralelo», en términos de informática.
Como resultado, la comunidad de «física de altas energías» tiene una gran experiencia con la informática en red (grid). «Hemos estado haciendo esto por un tiempo, y con mucho menos dinero», dijo Rind.
Parte de esa potencia de cálculo, simplemente va a convertir los datos en bruto a las identidades de las partículas y las pistas, y otra parte a modelar lo que podría ser similar a una partícula teórica. Pero, a medida que más datos estén disponibles, muchos de los cálculos implican simplemente escanear eventos para determinar qué tanto o ninguno de ellos coincide con las predicciones teóricas. Los usuarios de la red serán capaces de especificar un programa de análisis (entre ellos uno que envíe la tarea), de identificar los datos que deben procesarse, y simplemente establecer el trabajo sobre la marcha. Sobre la base de la prioridad del trabajo, la red usará más tiempo de procesador de repuesto, y luego procesará el software y los datos juntos en las mismas máquinas, lo que permite el análisis a realizar.
En un futuro próximo, este tipo de programas deben comenzar a construir un catálogo de las colisiones que tienen el número correcto, propiedades de correctas de los muones, fotones de la energía correcta, etc, para contener una indicación de algo que es nuevo para la física. Y, una vez se identifican una señal de ruido fuera de la estadística, entonces se podría estar listo para iniciar la actualización del modelo estándar (y, posiblemente, todos de la cosmología).
Fuente: arstechnica