No todas las imágenes tienen las mismas características. Una foto, un plano o un logo requieren de un tratamiento distinto a la hora de manejarlas o almacenarlas. Además, como producto tecnológico que son, están sometidas a los rigores de la tecnología de ese momento, las leyes de mercado, los derechos de autor, y la pericia de quiénes los diseñan.
El formato PNG (Portable Network Graphics) surge como un intento de mejorar al formato GIF (y de paso eludir el copyright al que estaba sometido), que había dado muy buenos resultados para trabajar con dibujos, en un momento en que los ordenadores no eran capaces de manejar imágenes con la misma velocidad que ahora. Como su antecesor, PNG comprime las imágenes con un algoritmo sin pérdida de datos (es decir, recuperamos el dibujo tal como lo almacenamos, luego veremos que esto no tiene por qué ser así), y además es capaz de soportar paletas de colores más grandes e imágenes con más profundidad.
Sin embargo, el JPG es un formato que parte de la compresión JPEG (Joint Photographic Expert Group), un método ingenioso de ahorrar espacio en las imágenes con gran cantidad de colores – como las fotografías- que aprovecha que el ojo humano no es capaz de distinguir variaciones mínimas de color para comprimir con pérdida. Es decir, la trampa consiste en representar con el mismo código de color áreas que formadas por varios colores muy parecidos entre sí.
Voy a intentar explicarlo con un símil. Imaginemos que vamos a una hamburguesería y tomo nota de lo que quieren mis amigos: Cinco hamburguesas completas, una de ellas sin cebolla y otra con mucho pepinillo, dos perritos calientes completos y uno más solo con ketchup. Imaginemos ahora que quiero ahorrarme molestias y pido cinco hamburguesas completas y tres perritos completos. Desde luego he perdido parte de la información deliberadamente, pero me compensa.
La versatilidad de JPG estriba en que es posible comprimir gran cantidad de datos sin que el usuario perciba el cambio. Además, se puede regular esa tasa de compresión. Sin embargo, la compresión JPG da malos resultados para los dibujos, donde lo más recomendables es usar PNG.
Como dije antes, los formatos están sujetos a los vaivenes de la tecnología. Es por ello que el formato JPG, siendo más antiguo que PNG, ha tenido la capacidad de adaptarse a los cambios que exigía el tiempo, como el uso de paletas CMYK -importantísimo para la impresión de calidad- y el uso de metadatos (información adicional como fecha, hora, localización…) que utiliza el formato de datos intercambiable Exif.
Fuente: HABLANDO DE CIENCIA
Autor: Jorge Frías Perles
Licencia CC
Investigadores de la Universidad de York, en Toronto (Canadá), liderados por Nariman Farsad, han creado un sistema para la transmisión de textos mediante señales moleculares, en vez de las convencionales eléctricas, lumínicas o radioeléctricas. Un concepto que copia a la naturaleza la cual, por lo general, utiliza moléculas químicas para hacer comunicar las células o las neuronas. En concreto, el primer mensaje que han conseguido transmitir es el título del himno nacional de Canadá, «O, Canada».
Fuente: Biblumliteraria
De todas las unidades estándar actualmente en uso en todo el mundo, el kilogramo – la unidad oficial de la masa en el Sistema Internacional de Unidades (SI) – es el único que todavía se basa en un objeto físico para su definición. Sin embargo, la revisión de esta definición obsoleta requerirá mediciones precisas que los investigadores aún no son capaces de hacer, dijo Patrick Abbott, del Instituto Nacional de Estándares y Tecnología (NIST) de Gaithersburg (EE.UU.), Md. Abbott presentará una visión general de los esfuerzos actuales en la tecnología del vacío para redefinir el kilogramo en el 60º AVS International Symposium and Exhibition, que se celebró del 27 de octubre al uno de noviembre de 2013, en Long Beach, California.
Abbott también describirá el desarrollo de su equipo del NIST de un nuevo sistema para permitir una comparación directa de un objeto que está siendo intervenido en el vacío a uno fuera de un vacío. «El nuestro es el único proyecto de su tipo en el mundo», dijo Abbott , «y creemos que será fundamental en la difusión precisa del kilogramo redefinido.»
El kilogramo oficial, llamado el Kilogramo Prototipo Internacional (IPK), se almacena en una oficina en las afueras de París, Francia, y ha servido como el estándar al que kilogramos prototipos de todas las naciones se han comparado en los últimos 125 años. Cada pocas décadas, los prototipos nacionales se realizan, por lo general a mano, a Francia, donde se miden contra el IPK. Sin embargo, las discrepancias entre los prototipos nacionales y el modelo oficial han estado aumentando a un ritmo de 0.050 miligramos (mg) cada 100 años. Y nadie sabe por qué.
«En realidad no es claro si el IPK es cada vez más ligero o los prototipos nacionales son cada vez más pesados», dijo Abbott. La pérdida de masa debida al desgaste es poco probable debido a que el IPK casi nunca se saca de su urna. Para hacer frente a estas discrepancias, una asamblea internacional de metrología – los investigadores que estudian la ciencia de la medición – decidió en 2007 dejar de depender del prototipo y redefinir el kilogramo utilizando algo más fiable: una constante de la naturaleza.
Los metrólogos finalmente eligieron la constante de Planck, que describe la relación entre la energía de un fotón y la frecuencia de la luz que emite. Su valor se ha medido con una incertidumbre relativa de entre 30×10^?9 y 35×10^-9. Sin embargo, para asegurar el acuerdo entre el sistema actual y el kilogramo definido en base a la constante de Planck, los investigadores tendrán que mejorar sus mediciones a una incertidumbre relativa de 20×10^-9.Y para obtener mejores mediciones, tendrán la capacidad de realizar la metrología «estado del arte» en el vacío.
Actualmente, los investigadores utilizan dos tipos de experimento para medir la constante de Planck, y ambos requieren vacío. Un método implica la determinación del número de átomos en una esfera de silicio de alta pureza con una masa nominal de un kilogramo. La otra, llamada la balanza watt, mide la constante de una comparación indirecta o «virtual» de energía mecánica a la energía electromagnética. El uso de vacío asegura que no hay contaminación de partículas en el aire y reduce la incertidumbre en algunas de las mediciones que se llevan a cabo con la interferometría láser.
Los investigadores que utilizan el experimento balanza watt en los institutos nacionales de medición alrededor del mundo están trabajando para encontrar los materiales más adecuados para la medición de la constante de Planck con este método. También se está trabajando para encontrar un nivel de vacío que sea lo suficientemente bueno para obtener resultados sin ser demasiado difícil de construir y mantener. Hasta ahora, los investigadores están en condiciones de tener una nueva definición del kilogramo en 2018, dijo Abbott.
Mientras que muchos equipos de todo el mundo trabajan para mejorar las mediciones de la constante de Planck, el grupo de Abbott está mirando más allá de la redefinición y hacia la realización práctica de estas mediciones.
«Cada vez que se produce la redefinición, se requerirá un método robusto para difundir el kilogramo realizado en el vacío a un mundo que funciona en el aire», dijo Abbott. Su grupo trabaja en la creación de un sistema para cerrar la interfaz de vacío /aire usando una técnica de suspensión magnética. La puesta en marcha permitirá una comparación directa entre la masa de un kilogramo estándar en el vacío y la masa de una muestra en la atmósfera de una habitación normal.
Esto se basa en los materiales proporcionados por Instituto Americano de Física , a través de Newswise.
Investigadores de la Universidad Estatal de Carolina del Norte, la Universidad de Carolina del Norte en Chapel Hill y Laser Zentrum Hannover han descubierto que un compuesto de origen natural puede ser incorporado en los procesos de impresión en tres dimensiones (3-D) para crear médica implantes de polímeros no tóxicos. El compuesto es riboflavina, que es conocido como vitamina B2.
«Esto abre la puerta a una gama mucho más amplia de materiales para implantes biocompatibles, que pueden ser utilizados para desarrollar diseños de implantes personalizados utilizando la tecnología de impresión 3-D,» dice el Dr. Roger Narayan, autor principal de un artículo que describe la obra y profesor del servicio de ingeniería biomédica en la NC State y UNC-Chapel Hill (EE.UU.).
Los investigadores de este estudio se centraron en una técnica de impresión 3-D llamada polimerización de dos fotones, ya que esta técnica se puede utilizar para crear objetos pequeños con las características detalladas – tales como andamios para la ingeniería de tejidos, microagujas u otros dispositivos de liberación de fármacos implantables.
La polimerización de dos fotones es una técnica de impresión 3-D para la fabricación de estructuras sólidas a pequeña escala a partir de muchos tipos de precursores líquidos fotorreactivos. Los precursores líquidos contienen químicos que reaccionan a la luz, convirtiendo el líquido en un polímero sólido. Al exponer el precursor líquido al volumen esperado de la luz, la técnica permite a los usuarios para «imprimir» los objetos 3-D.
La polimerización de dos fotones tiene sus inconvenientes, sin embargo. La mayoría de los productos químicos mezclados en los precursores para hacerlos fotorreactivo también son tóxicos, lo que podría ser problemático si las estructuras se utilizan en un implante médico o están en contacto directo con el cuerpo.
Pero ahora los investigadores han determinado que la riboflavina se puede mezclar con un material precursor para que sea fotorreactivo. Y riboflavina es a la vez no tóxica y biocompatible – es una vitamina que se encuentra en todo, desde los espárragos al queso cottage.
Fuente: Alexander K Nguyen, Shaun D Gittard, Anastasia Koroleva, Sabrina Schlie, Arune Gaidukeviciute, Boris N Chichkov, Roger J Narayan. Two-photon polymerization of polyethylene glycol diacrylate scaffolds with riboflavin and triethanolamine used as a water-soluble photoinitiator. Regenerative Medicine, 2013; 8 (6): 725 DOI:10.2217/rme.13.60
Un ordenador cuántico puede resolver tareas en las que falla un ordenador clásico. La cuestión de cómo se puede, sin embargo, comprobar la fiabilidad de una computadora cuántica fue respondida recientemente en un experimento en la Universidad de Viena. Las conclusiones se publican en la revista científica Nature Physics.
El aprovechamiento de los fenómenos cuánticos, como la superposición y el entrelazamiento, representa una gran promesa para construir futuros superordenadores utilizando la tecnología cuántica. Una gran ventaja de este tipo de ordenadores cuánticos es que son capaces de realizar una variedad de tareas mucho más rápido que sus homólogos convencionales. El uso de los ordenadores cuánticos para estos fines plantea un reto importante: ¿cómo se pueden verificar los resultados proporcionados por un ordenador cuántico?
Solo recientemente los desarrollos teóricos han proporcionado métodos para poner a prueba un ordenador cuántico sin tener un ordenador cuántico adicional a mano. Un equipo de investigación internacional en torno a Philip Walther en la Universidad de Viena ha demostrado ahora un protocolo nuevo, donde los resultados computacionales cuánticos pueden ser verificadas sin necesidad de utilizar los recursos informáticos cuánticos adicionales.
Trampas para un ordenador cuántico
Con el fin de probar los ordenadores cuánticos los científicos insertaron «trampas» en las tareas. Las trampas son cálculos intermedios cortos de los que el usuario sabe el resultado de antemano. En caso de que el ordenador cuántico no haga su trabajo correctamente la trampa entrega un resultado que difiere del esperado. «De esta manera, el usuario puede verificar el grado de fiabilidad del ordenador cuántico y si realmente lo es», explica Elham Kashefi (Edimburgo) y Joseph Fitzsimons (Singapur), coautores del artículo. Los más trampas que el usuario se basa en las tareas que el mejor, el usuario puede estar seguro de que el ordenador cuántico hecho, calcula con precisión.
«Hemos diseñado la prueba, de tal manera que el ordenador cuántico no puede distinguir la trampa de sus tareas normales», dice Stefanie Barz (Viena), primer autor del estudio. Este es un requisito importante para garantizar que el ordenador cuántico no es capaz de ajustar el resultado de la prueba. Los investigadores también probaron si el ordenador cuántico realmente recurre a los recursos cuántica. De esta manera, pueden asegurarse de que incluso un ordenador cuántico maliciosamente construido no puede engañar y aceptar resultados erróneos.
Aplicación de la idea con fotones
Para esta primera demostración, los investigadores utilizaron una computadora cuántica óptica, donde las partículas de luz individuales, llamadas fotones, llevan la información. El protocolo demostrado es genérico, pero los ordenadores cuánticos ópticos parece que son ideales para esta tarea. La movilidad de los fotones permite una fácil interacción con el ordenador cuántico. Philip Walther es optimista sobre las perspectivas planteadas por este experimento que muestra mecanismos de control prometedores para futuros ordenadores cuánticos. Y, por otra parte, que podría conducir a nuevas herramientas para sondear los recursos más complejos de la cuántica.
Fuente: Stefanie Barz, Joseph F. Fitzsimons, Elham Kashefi, Philip Walther. Experimental verification of quantum computation. Nature Physics, 2013; DOI:10.1038/nphys2763
Hace unos años atrás, construir un computador era la mejor opción para obtener exactamente lo que se quería de hardware, sin tener que gastar una gran cantidad de dinero. Armar su propia PC era el sueño de toda persona que fuese entusiasta de los computadores, y posiblemente muchos lo intentaron.
Todo esto pasó durante el pasado, así qué, ¿aún vale la pena armar tu propio computador hoy en día? ¿es más económico y práctico?
Ya no se arman ordenadores desde cero y ya no se consiguen esos que se les llamaba «clon», que solían ser más económicos. Todo esto ha cambiado solamente porque el mercado es distinto también.
Se puede comprar portátiles o computadores de escritorio, pero usualmente las personas se deciden por las primeras. ¿Por qué? Porque su precio ha bajado considerablemente en los últimos años y porque son más cómodas. Su arquitectura es perfecta para hacer cosas simples, pero también hay unas más potentes que sirven para los gamers más dedicados. Además, su mejor ventaja es que se pueden llevar a todos lados, algo muy importante en esta era donde los dispositivos móviles son la primera opción para los usuarios.
La respuesta es muy subjetiva porque va a depender de cada usuario. Primero hay que tener en cuenta que el usuario debe querer un computador de escritorio para pensar en que quiere armarlo por su cuenta. Después, se debe reflexionar para qué se quiere el PC: ¿es para uso diario, para navegar por Internet y usar Microsoft Word? o, ¿es para un gamer hardcore?
Fuente: gizmología
Autora: Renata Franco
Licencia Creative Commons Atribución-NoComercial 2.5