Los Genios de Inglaterra. Los Científicos que Cambiaron el Mundo. Documental que salió en el canal de Tv Channel 4 de Gran Bretaña en el año 2010. Famosos científicos británicos de hoy en día como Stephen Hawking, Richard Dawkins, David Attenborough, Paul Nurse, Robert Winston, Olivia Judson, Jim Al Khalili, Kathy Sykes. Nos hablan de algunos de sus héroes científicos de los cuales se han influenciado para su propio interés en la ciencia.
Capítulo 2
Capítulo 3
Capítulo 4
Samsung acaba de ser multada con 340000 dólares por haber pagado a comentaristas anónimos para que hablasen mal de HTC en foros de Taiwán.
Hace unos meses que se conocieron los detalles sobre una campaña bastante sucia, que iniciada por Samsung, buscaba desprestigiar a HTC en Taiwán, su país natal. Al parecer, la divisón de Samsung en Taiwán contrató en su día a un grupo de estudiantes para que generasen una serie de reviews negativas en Internet sobre el HTC One, tratando así de contrarrestrar las buenas críticas y dañar sus cifras de ventas.
Pues bien, según la Comisión de Comercio Justo de Taiwán, los hechos han quedado probados, por lo que se ha impuesto a Samsung Taiwán una multa de 340000 dólares por difamar a HTC en la red.
No es la primera vez que se multa a la división taiwanesa de Samsung, pero sí parece curioso que el gigante coreano siga permitiendo que ciertas divisiones territoriales utilicen este tipo de prácticas para dañar la imagen de la competencia, sobre todo en sus países de origen y cuando sus números siguen marcando récords de ventas trimestre tras trimestre.
Fuente: ALT1040
Licencia CC
El mundo de la informática está de luto. William Lowe, el creador del primera PC de IBM murió el sábado, 19 de octubre de un ataque al corazón a la edad de 72 años, en Illinois (Estados Unidos). En 1962 , justo después de la secundaria , William Lowe fue contratado por IBM como ingeniero responsable de pruebas de productos . Mientras empresas como Apple o Commodore International comenzaron a vender computadoras personales, IBM estaba interesado en este mercado a finales de 1970 . Sin embargo, el gigante de la informática tenía por norma desarrollar y construir todos los componentes necesarios para crear una máquina . Por ello, el tema había sido discutido con gran inercia, para caer finalmente en el olvido.
No fue sino hasta 1980 que William Lowe revolucionó esta cultura regresó a «casa » con el desafío de construir un equipo para crear un ordenador personal en un año. IBM dio la sorpresa, la primera computadora personal (PC) u ordenador personal, nació el 12 de agosto de 1981. Para tener éxito en la creación de esta máquina en poco tiempo, una vez más, William Lowe se saltó los hábitos del fabricante y buscó los componentes de otros proveedores.
Los inicios de Microsoft y los compatibles PC
Denomnado 5150, este equipo estaba equipado con un procesador Intel 8088 corriendo a 4.77 MHz, 16K RAM ampliable a 255 K. Ejecutaba MS -DOS 1.0, un sistema operativo desenterrado en una muy pequeña compañía llamada Micro-Soft. El 5150 costaba 1565 dólares en aquella época, sin pantalla, el equivalente actual de más de 3200 euros. Con este equipo, la marca IBM apareció por primera vez en su historia en el comercio minorista.
También el PC IBM permitió a Microsoft convertirse en pocos años uno de los gigantes de la informática. Nunca otorgó un acuerdo de exclusividad a IBM, lo que permitió extender el sistema operativo a cualquier equipo compatible. Esto es lo que también benefició a fabricantes de PC’s compatibles, como Dell y Compaq.
Después de haber sido presidente de la división de PC de tres años, Lowe dejó IBM en 1988 para convertirse en vicepresidente de Xerox. En 1991, cambió de campo, entrando fabricante de aviones Gulfstream Aerospace .
BEAUTY OF MATHEMATICS from PARACHUTES.TV on Vimeo.
Magnífica unión visual de las matemáticas con la realidad y como su mismo nombre indica con la belleza.
La cita de Betrand de Russel que le acompaña no podía estar mejor elegida:
«Las matemáticas, se considera con razón que, posee no sólo la verdad, sino la belleza suprema – una belleza fría y austera, sin los magníficos atavíos de la pintura o la música.»
Vídeo de Yann Pineill y Nicolas Lefaucheux
La policía de Manchester detuvo a una serie de personas sospechosas de imprimir armas con una impresora 3D. El miedo pareció instalarse en la Red, cuando finalmente resultaron ser piezas de otro tipo.
A partir de ahí, la información comenzó a expandirse en la Red como la pólvora (nunca mejor dicho), despertando de nuevo el eterno «miedo a la tecnología». Curiosamente, horas después de publicarse la noticia, se desmentía que las piezas encontradas formaran parte de ningún arma de plástico.
La información era publicada por varios periódicos británicos (como The Telegraph), donde se puede leer que la policía de Manchester detenía a una serie de personas, supuestamente relacionadas con el crimen organizado, acusadas de fabricar armas con una impresora 3D. Horas más tarde, después de que la psicosis 3D se expandiera por Internet, se confirmaba que esas piezas encontradas no tenían ninguna relación con una pistola, etc.
Siempre que existe una brecha tecnológica, llegan los miedos, algunos justificados y otros no tanto. A la impresión 3D se le empiezan a colgar los mismos demonios que, por ejemplo, a los videojuegos. Que juegues a Grand Theft Auto no te convierte automáticamente en una persona violenta o que piense seriamente en iniciar su carrera en el mundo del tráfico de drogas. Como siempre, culpamos a la tecnología, cuando el error es humano.
A finales del mes de julio se hablaba de que las impresoras 3D podían perjudicar seriamente la salud, algo que tampoco era del todo cierto. Como vemos, vuelve a repetirse el cuento del «miedo al avance». Está claro que las herramientas adecuadas en las manos equivocadas pueden ser un problema, pero no nos equivoquemos, no culpemos a un objeto que hemos creado, el error siempre es humano.
Ampliar en: ALT1040
Licencia CC
No todas las imágenes tienen las mismas características. Una foto, un plano o un logo requieren de un tratamiento distinto a la hora de manejarlas o almacenarlas. Además, como producto tecnológico que son, están sometidas a los rigores de la tecnología de ese momento, las leyes de mercado, los derechos de autor, y la pericia de quiénes los diseñan.
El formato PNG (Portable Network Graphics) surge como un intento de mejorar al formato GIF (y de paso eludir el copyright al que estaba sometido), que había dado muy buenos resultados para trabajar con dibujos, en un momento en que los ordenadores no eran capaces de manejar imágenes con la misma velocidad que ahora. Como su antecesor, PNG comprime las imágenes con un algoritmo sin pérdida de datos (es decir, recuperamos el dibujo tal como lo almacenamos, luego veremos que esto no tiene por qué ser así), y además es capaz de soportar paletas de colores más grandes e imágenes con más profundidad.
Sin embargo, el JPG es un formato que parte de la compresión JPEG (Joint Photographic Expert Group), un método ingenioso de ahorrar espacio en las imágenes con gran cantidad de colores – como las fotografías- que aprovecha que el ojo humano no es capaz de distinguir variaciones mínimas de color para comprimir con pérdida. Es decir, la trampa consiste en representar con el mismo código de color áreas que formadas por varios colores muy parecidos entre sí.
Voy a intentar explicarlo con un símil. Imaginemos que vamos a una hamburguesería y tomo nota de lo que quieren mis amigos: Cinco hamburguesas completas, una de ellas sin cebolla y otra con mucho pepinillo, dos perritos calientes completos y uno más solo con ketchup. Imaginemos ahora que quiero ahorrarme molestias y pido cinco hamburguesas completas y tres perritos completos. Desde luego he perdido parte de la información deliberadamente, pero me compensa.
La versatilidad de JPG estriba en que es posible comprimir gran cantidad de datos sin que el usuario perciba el cambio. Además, se puede regular esa tasa de compresión. Sin embargo, la compresión JPG da malos resultados para los dibujos, donde lo más recomendables es usar PNG.
Como dije antes, los formatos están sujetos a los vaivenes de la tecnología. Es por ello que el formato JPG, siendo más antiguo que PNG, ha tenido la capacidad de adaptarse a los cambios que exigía el tiempo, como el uso de paletas CMYK -importantísimo para la impresión de calidad- y el uso de metadatos (información adicional como fecha, hora, localización…) que utiliza el formato de datos intercambiable Exif.
Fuente: HABLANDO DE CIENCIA
Autor: Jorge Frías Perles
Licencia CC
Investigadores de la Universidad de York, en Toronto (Canadá), liderados por Nariman Farsad, han creado un sistema para la transmisión de textos mediante señales moleculares, en vez de las convencionales eléctricas, lumínicas o radioeléctricas. Un concepto que copia a la naturaleza la cual, por lo general, utiliza moléculas químicas para hacer comunicar las células o las neuronas. En concreto, el primer mensaje que han conseguido transmitir es el título del himno nacional de Canadá, «O, Canada».
Fuente: Biblumliteraria
De todas las unidades estándar actualmente en uso en todo el mundo, el kilogramo – la unidad oficial de la masa en el Sistema Internacional de Unidades (SI) – es el único que todavía se basa en un objeto físico para su definición. Sin embargo, la revisión de esta definición obsoleta requerirá mediciones precisas que los investigadores aún no son capaces de hacer, dijo Patrick Abbott, del Instituto Nacional de Estándares y Tecnología (NIST) de Gaithersburg (EE.UU.), Md. Abbott presentará una visión general de los esfuerzos actuales en la tecnología del vacío para redefinir el kilogramo en el 60º AVS International Symposium and Exhibition, que se celebró del 27 de octubre al uno de noviembre de 2013, en Long Beach, California.
Abbott también describirá el desarrollo de su equipo del NIST de un nuevo sistema para permitir una comparación directa de un objeto que está siendo intervenido en el vacío a uno fuera de un vacío. «El nuestro es el único proyecto de su tipo en el mundo», dijo Abbott , «y creemos que será fundamental en la difusión precisa del kilogramo redefinido.»
El kilogramo oficial, llamado el Kilogramo Prototipo Internacional (IPK), se almacena en una oficina en las afueras de París, Francia, y ha servido como el estándar al que kilogramos prototipos de todas las naciones se han comparado en los últimos 125 años. Cada pocas décadas, los prototipos nacionales se realizan, por lo general a mano, a Francia, donde se miden contra el IPK. Sin embargo, las discrepancias entre los prototipos nacionales y el modelo oficial han estado aumentando a un ritmo de 0.050 miligramos (mg) cada 100 años. Y nadie sabe por qué.
«En realidad no es claro si el IPK es cada vez más ligero o los prototipos nacionales son cada vez más pesados», dijo Abbott. La pérdida de masa debida al desgaste es poco probable debido a que el IPK casi nunca se saca de su urna. Para hacer frente a estas discrepancias, una asamblea internacional de metrología – los investigadores que estudian la ciencia de la medición – decidió en 2007 dejar de depender del prototipo y redefinir el kilogramo utilizando algo más fiable: una constante de la naturaleza.
Los metrólogos finalmente eligieron la constante de Planck, que describe la relación entre la energía de un fotón y la frecuencia de la luz que emite. Su valor se ha medido con una incertidumbre relativa de entre 30×10^?9 y 35×10^-9. Sin embargo, para asegurar el acuerdo entre el sistema actual y el kilogramo definido en base a la constante de Planck, los investigadores tendrán que mejorar sus mediciones a una incertidumbre relativa de 20×10^-9.Y para obtener mejores mediciones, tendrán la capacidad de realizar la metrología «estado del arte» en el vacío.
Actualmente, los investigadores utilizan dos tipos de experimento para medir la constante de Planck, y ambos requieren vacío. Un método implica la determinación del número de átomos en una esfera de silicio de alta pureza con una masa nominal de un kilogramo. La otra, llamada la balanza watt, mide la constante de una comparación indirecta o «virtual» de energía mecánica a la energía electromagnética. El uso de vacío asegura que no hay contaminación de partículas en el aire y reduce la incertidumbre en algunas de las mediciones que se llevan a cabo con la interferometría láser.
Los investigadores que utilizan el experimento balanza watt en los institutos nacionales de medición alrededor del mundo están trabajando para encontrar los materiales más adecuados para la medición de la constante de Planck con este método. También se está trabajando para encontrar un nivel de vacío que sea lo suficientemente bueno para obtener resultados sin ser demasiado difícil de construir y mantener. Hasta ahora, los investigadores están en condiciones de tener una nueva definición del kilogramo en 2018, dijo Abbott.
Mientras que muchos equipos de todo el mundo trabajan para mejorar las mediciones de la constante de Planck, el grupo de Abbott está mirando más allá de la redefinición y hacia la realización práctica de estas mediciones.
«Cada vez que se produce la redefinición, se requerirá un método robusto para difundir el kilogramo realizado en el vacío a un mundo que funciona en el aire», dijo Abbott. Su grupo trabaja en la creación de un sistema para cerrar la interfaz de vacío /aire usando una técnica de suspensión magnética. La puesta en marcha permitirá una comparación directa entre la masa de un kilogramo estándar en el vacío y la masa de una muestra en la atmósfera de una habitación normal.
Esto se basa en los materiales proporcionados por Instituto Americano de Física , a través de Newswise.
Investigadores de la Universidad Estatal de Carolina del Norte, la Universidad de Carolina del Norte en Chapel Hill y Laser Zentrum Hannover han descubierto que un compuesto de origen natural puede ser incorporado en los procesos de impresión en tres dimensiones (3-D) para crear médica implantes de polímeros no tóxicos. El compuesto es riboflavina, que es conocido como vitamina B2.
«Esto abre la puerta a una gama mucho más amplia de materiales para implantes biocompatibles, que pueden ser utilizados para desarrollar diseños de implantes personalizados utilizando la tecnología de impresión 3-D,» dice el Dr. Roger Narayan, autor principal de un artículo que describe la obra y profesor del servicio de ingeniería biomédica en la NC State y UNC-Chapel Hill (EE.UU.).
Los investigadores de este estudio se centraron en una técnica de impresión 3-D llamada polimerización de dos fotones, ya que esta técnica se puede utilizar para crear objetos pequeños con las características detalladas – tales como andamios para la ingeniería de tejidos, microagujas u otros dispositivos de liberación de fármacos implantables.
La polimerización de dos fotones es una técnica de impresión 3-D para la fabricación de estructuras sólidas a pequeña escala a partir de muchos tipos de precursores líquidos fotorreactivos. Los precursores líquidos contienen químicos que reaccionan a la luz, convirtiendo el líquido en un polímero sólido. Al exponer el precursor líquido al volumen esperado de la luz, la técnica permite a los usuarios para «imprimir» los objetos 3-D.
La polimerización de dos fotones tiene sus inconvenientes, sin embargo. La mayoría de los productos químicos mezclados en los precursores para hacerlos fotorreactivo también son tóxicos, lo que podría ser problemático si las estructuras se utilizan en un implante médico o están en contacto directo con el cuerpo.
Pero ahora los investigadores han determinado que la riboflavina se puede mezclar con un material precursor para que sea fotorreactivo. Y riboflavina es a la vez no tóxica y biocompatible – es una vitamina que se encuentra en todo, desde los espárragos al queso cottage.
Fuente: Alexander K Nguyen, Shaun D Gittard, Anastasia Koroleva, Sabrina Schlie, Arune Gaidukeviciute, Boris N Chichkov, Roger J Narayan. Two-photon polymerization of polyethylene glycol diacrylate scaffolds with riboflavin and triethanolamine used as a water-soluble photoinitiator. Regenerative Medicine, 2013; 8 (6): 725 DOI:10.2217/rme.13.60
Un ordenador cuántico puede resolver tareas en las que falla un ordenador clásico. La cuestión de cómo se puede, sin embargo, comprobar la fiabilidad de una computadora cuántica fue respondida recientemente en un experimento en la Universidad de Viena. Las conclusiones se publican en la revista científica Nature Physics.
El aprovechamiento de los fenómenos cuánticos, como la superposición y el entrelazamiento, representa una gran promesa para construir futuros superordenadores utilizando la tecnología cuántica. Una gran ventaja de este tipo de ordenadores cuánticos es que son capaces de realizar una variedad de tareas mucho más rápido que sus homólogos convencionales. El uso de los ordenadores cuánticos para estos fines plantea un reto importante: ¿cómo se pueden verificar los resultados proporcionados por un ordenador cuántico?
Solo recientemente los desarrollos teóricos han proporcionado métodos para poner a prueba un ordenador cuántico sin tener un ordenador cuántico adicional a mano. Un equipo de investigación internacional en torno a Philip Walther en la Universidad de Viena ha demostrado ahora un protocolo nuevo, donde los resultados computacionales cuánticos pueden ser verificadas sin necesidad de utilizar los recursos informáticos cuánticos adicionales.
Trampas para un ordenador cuántico
Con el fin de probar los ordenadores cuánticos los científicos insertaron «trampas» en las tareas. Las trampas son cálculos intermedios cortos de los que el usuario sabe el resultado de antemano. En caso de que el ordenador cuántico no haga su trabajo correctamente la trampa entrega un resultado que difiere del esperado. «De esta manera, el usuario puede verificar el grado de fiabilidad del ordenador cuántico y si realmente lo es», explica Elham Kashefi (Edimburgo) y Joseph Fitzsimons (Singapur), coautores del artículo. Los más trampas que el usuario se basa en las tareas que el mejor, el usuario puede estar seguro de que el ordenador cuántico hecho, calcula con precisión.
«Hemos diseñado la prueba, de tal manera que el ordenador cuántico no puede distinguir la trampa de sus tareas normales», dice Stefanie Barz (Viena), primer autor del estudio. Este es un requisito importante para garantizar que el ordenador cuántico no es capaz de ajustar el resultado de la prueba. Los investigadores también probaron si el ordenador cuántico realmente recurre a los recursos cuántica. De esta manera, pueden asegurarse de que incluso un ordenador cuántico maliciosamente construido no puede engañar y aceptar resultados erróneos.
Aplicación de la idea con fotones
Para esta primera demostración, los investigadores utilizaron una computadora cuántica óptica, donde las partículas de luz individuales, llamadas fotones, llevan la información. El protocolo demostrado es genérico, pero los ordenadores cuánticos ópticos parece que son ideales para esta tarea. La movilidad de los fotones permite una fácil interacción con el ordenador cuántico. Philip Walther es optimista sobre las perspectivas planteadas por este experimento que muestra mecanismos de control prometedores para futuros ordenadores cuánticos. Y, por otra parte, que podría conducir a nuevas herramientas para sondear los recursos más complejos de la cuántica.
Fuente: Stefanie Barz, Joseph F. Fitzsimons, Elham Kashefi, Philip Walther. Experimental verification of quantum computation. Nature Physics, 2013; DOI:10.1038/nphys2763