La memorias cuánticas para cubits de larga duración suelen trabajar a temperaturas criogénicas. Se publica en Science una memoria cuántica de estado sólido que almacena un cubit durante más de 3 horas a una temperatura de 1,2 K (el anterior récord era de 3 minutos a 4,2 K). Lo más sorprendente es que además supera los 39 minutos a temperatura ambiente (298 K); el anterior récord, utilizando un cubit implementado en diamante, era de 2 segundos. Se ha utilizado silicio (28Si) dopado con fósforo (31P) como donor y con boro (B) como aceptor. El artículo técnico es Kamyar Saeedi et al., “Room-Temperature Quantum Bit Storage Exceeding 39 Minutes Using Ionized Donors in Silicon-28,” Science 342: 830-833, 15 Nov 2013. Nos lo cuenta Gabriel Popkin, “Quantum information storage that lasts and lasts,” Science News, 14 Nov 2013.
Ampliar en: La Ciencia de la Mula Francis
Albert Einstein recibió el Premio Nobel por explicar el efecto fotoeléctrico como un proceso de absorción y aniquilación de fotones. Todo detector de un solo fotón aniquila dicho fotón impidiendo medidas repetidas del mismo fotón. Parece imposible diseñar un detector no destructivo de fotones, sin embargo, Andreas Reiserer (Instituto Max Planck de Óptica Cuántica, Garching, Alemania) y dos colegas han logrado lo imposible gracias a acoplar el estado del fotón con un átomo de rubidio-87 atrapado en una cavidad óptica y medir dicho átomo para deducir la presencia del fotón o su ausencia mediante fluorescencia. El nuevo método tiene una eficiencia del 74%, que se puede incrementar utilizando medidas repetidas en sucesión sobre el mismo fotón (dos medidas subirían la eficiencia al 87% y tres medidas hasta el 89%). Se esperan muchas aplicaciones en metrología cuántica, computación cuántica, comunicación cuántica e incluso en la futura web cuántica. El artículo técnico es Andreas Reiserer, Stephan Ritter, Gerhard Rempe, “Nondestructive Detection of an Optical Photon,” Science, AOP 14 Nov 2013 (arXiv:1311.3625 [quant-ph]).
Ampliar en: La Ciencia de la Mula Francis
Los seres humanos siempre han soñado con máquinas para traducir las lenguas de los extranjeros, acaso como ese dispositivo tipo Star Trek que nos permitiría acceder a la comunicación universal. Latraducción automática, de hecho, ya fue un objetivo de los pioneros de la informática en la década de 1940, cuando los ordenadores ocupaban habitaciones enteras.
En 1954, combinando reglas gramaticales y un diccionario bilingüe, un ordenador de IBM tradujo 60 frases rusas al inglés. Concretamente usó 250 pares de palabras de vocabulario y 6 reglas gramaticales. Alguna de las frases que se tradujeron impecablemente fueron, por ejemplo, “Mi pyeryedayem mislyi posryedstvom ryechyi”. Tras el reverberar del IBM 701, por medio de tarjetas perforadas, salió: “Transmitimos pensamientos por medio del habla”.
El logro fue tan celebrado, resultó tan impresionante para todo el mundo, que al director del programa de investigación, Leon Dostert, no le dolieron prendas al pronosticar que en un plazo de cinco años, aproximadamente, la traducción automática constituiría un “hecho acabado.”
Sin embargo, con el transcurrir de los años, los expertos advirtieron que traducir automáticamente entrañaba más obstáculos de lo que parecía. El ordenador no sólo debe aprender las reglas, sino las excepciones; y la traducción no consiste sólo en memorizar y recordar, sino en usar la inteligencia para escoger las palabras correctas entre muchas opciones.
A partir de 1980, los investigadores empezaron a permitir que el ordenador usara la probabilidad estadística para calcular qué palabra o frase de un idioma en concreto era la más oportuna, además de tener en cuenta las reglas lingüísticas explícitas junto con un diccionario. En la década de 1990, el programa Candide de IBM usó el equivalente a 10 años de transcripciones de sesiones del Parlamento de Canadá publicadas en francés y en inglés: unos tres millones de pares de frases.
Empezaba, pues, un salto conceptual, una nueva era llamada traducción estadística automática, lo que permitió que las traducciones a través de un ordenador se volvieran mucho más precisas. Con todo, las buenas traducciones distaban mucho de producirse. Hasta 2006.
Artículo completo en: XATAKA Ciencia
EcoATM es un dispositivo con aspecto de cajero automático en el un gadget viejo, te lo valora automáticamente y te da por él cierto dinero – habitualmente un teléfono móvil, pero puede ser cualquier otro cacharrito electrónico. El canje puede ser en forma de dinero, cupones descuento o incluso te ofrece poder donarlo a tu ONG favorita. Lleva desde 2009 probándose en Estados Unidos, según parece junto a tiendas de electrónica y en centros comerciales.
Teniendo en cuenta que decían hace tiempo que en España hay 4000 millones de euros en móviles abandonados en cajones (dato de Zonzoo, que se dedica a reciclarlos) el invento parece una buena idea. A través de Zonzoo, por ejemplo, por cada terminal viejo te pueden dar entre dos y 200 euros. Los creadores de ecoATM están pensando también en «agrandarlo» para que se puedan cambiar ordenadores y otros cacharros de gran tamaño.
Según Enterpreneur este verano ya había instalados unos 350 cajeros de este tipo en todo Estados Unidos, creciendo a un ritmo de dos más al día – y planeando su expansión internacional.
Fuente: microsiervos
Los discos duros magnéticos actuales pueden guardar nuestros datos durante una década aproximadamente. Los CDs/DVDs teóricamente aguantan un máximo de 30 años, aunque su vida media suele rondar los quince si se guardan correctamente. Pero estas fechas son bastante limitadas y si nos fijamos en los últimos años no parece que vayan a mejorar mucho. Desde que IBM creó sus primeros discos en 1956 se ha aumentado la capacidad de almacenamiento y su eficiencia energética, pero hay algo que no ha cambiado; la vida media de los discos no ha mejorado.
Ahora gracias al trabajo de Jeroen de Vries y sus colaboradores de la Universidad de Twente, Holanda han conseguido un avance muy significativo. Han creado el primer modelo de disco capaz de guardar la información en una escala de tiempo muchísimo mayor, en concreto han testado y experimentado con un disco de un millón de años de vida, e incluso más.
Para conseguir este disco se fijaron en la energía mínima que se necesita para separar un estado de otro. En la energía de potencial necesaria para corromper un dato y convertirlo de un 0 a un 1. En definitiva, estudiaron a través de la Ley de Arrhenius cual es la relación entre la temperatura y la vibración atómica que hace que los datos se pierdan. Para que el disco aguante el millón de años que buscaban, la energía de activación tenía que estar entre 63KbT y 70KbT, valores que con la tecnología actual se pueden perfectamente lograr.
El modelo de disco es simple. Los nanotecnólogos almacenaron los datos en una lineas introducidas en un fino disco de tungsteno cubierto de una capa protectora de nitruro de silicio (Si3N4). Estos materiales fueron elegidos por sus bajos coeficientes de expansión térmica, lo que los hace perfectos para aguantar altas temperaturas. El siguiente paso es guardar la información, códigos QR con líneas de 100nm de ancho y calentarlos para ver como los datos se corrompen.
Según sus cálculos el modelo debería sobrevivir durante una hora a 445 Kelvin para que en condiciones normales el disco aguantara un millón de años. En el experimento el disco aguantó hasta los 848 Kelvin, aunque con graves pérdidas de información. Todo un éxito sin embargo que sobrepasó las expectativas de los propios científicos.
Hoy por hoy el libro de papel sigue siendo el medio más longevo que tenemos para almacenar nuestra cultura e información. Pero con estos nuevos discos magnéticos se nos abre una puerta increíble, una nueva oportunidad para el Proyecto Rosetta y una manera de despreocuparnos porque las futuras generaciones no puedan saber de nosotros. ¿Igualará algún día la escritura magnética a la impresa?
Ref: arxiv.org/abs/1310.2961 : Towards Gigayear Storage Using a Silicon-Nitride/Tungsten Based Medium
Fuente: omicrono
Google ha obtenido una pequeña victoria legal en su enfrentamiento contra la industria editorial de EE.UU. El juez Denny Chin se ha puesto del lado de la empresa tecnológica en su conflicto legal por infracción masiva de derechos de autor.
Chin ha aceptado el argumento usado por Google de su “uso justo” y de los “beneficios públicos significativos” que ofrece el proyecto de biblioteca digital de la compañía. El magistrado considera demás que la publicación de extractos para búsquedas online supone un “uso justo” la ley de derechos de autor de EE.UU. El juez habla de la iniciativa digitalizadora como algo “transformador” para la industria y que podría ayudar a incrementar las ventas de libros en lugar de perjudicarla.
En un principio los autores y editores negociaron con Google en un mismo frente, llegándose a un acuerdo de conciliación en 2008 por el que Google se comprometía a destinar 125 millones de dólares a un fondo que se utilizaría para compensar a los autores de obras protegidas, según recuerda BBC. Sin embargo, en marzo de 2011 el acuerdo fue rechazado por un tribunal de EE.UU, que indicó que Google ejercía un “monopolio de facto” para copiar libros.
En abril Google reveló que había escaneado 30 millones de obras para su proyecto. La sentencia podría marcar un hito importante en el caso después de ocho años y podría suponer un pilar jurídico para otros casos similares.
Fuente: ITespresso.es
En 2011, Google comenzaba a presentar los primeros pasos de Dart, su lenguaje de programación orientada a objetos, que se sumaba a otro intento llamado Go. En octubre del año pasado llegaba el SDK oficial y hoy finalmente está disponible la versión 1.0 de Dart.
Dart es un lenguaje de programación que ya está listo para que los desarrolladores web comiencen a crear aplicaciones basadas en él, y para los más desprevenidos podemos decir que se trata de una propuesta que tiene mucho en común con JavaScript, lo mostraron con Dart Synonym.
En todo caso, y tal como nos lo cuentan los desarrolladores desde el sitio oficial de Dart, se trata de un lenguaje de programación que es sencillo pero potente a la vez, y que ofrece herramientas de trabajo muy robustas y bibliotecas estándar que ya están completas, elementos con los cuales podemos lograr un flujo de trabajo rápido y sin complicaciones, pero que además ofrezca buenos índices de escalabilidad para aquellos proyectos que crezcan. Además, se cuenta con Dart Editor, un IDE (entorno de desarrollo con autocompletado de código, refactoring, debugger, etc), con Dartium (una versión propia de Chromium para realizar las pruebas con su máquina virtual Dart incluída), con dart2js (un traductor de JavaScript) y con Pub (un gestor de paquetes).
Ya que hablamos de dart2js, decir que el traductor permite la ejecución de código Dart en toda clase de navegadores, y que el rendimiento obtenido es muy superior al que se lograba con el en las primeras versiones de Dart, con un código resultante que es un 40 por ciento más pequeño que hace un año atrás. A la par de esto, ya se ve la adopción de Dart en varias compañías de primer nivel como Adobe, drone.io y JetBrains, y en Google ya lo están utilizando para varios de sus proyectos más importantes, como Google Elections.
Fuente: VISUALBETA