Una colaboración de investigación entre la Universidad de Osaka y el Instituto de Ciencia y Tecnología de Nara utilizó por primera vez la microscopía de barrido en túnel (STM) para crear imágenes de superficies laterales atómicamente planas de cristales de silicio 3D. Este trabajo ayuda a los fabricantes de semiconductores a seguir innovando y, al mismo tiempo, produce chips de ordenador más pequeños, rápidos y eficientes energéticamente para ordenadores y teléfonos inteligentes.
Nuestros ordenadores y teléfonos inteligentes están cargados con millones de pequeños transistores. La velocidad de procesamiento de estos dispositivos ha aumentado dramáticamente con el paso del tiempo a medida que aumenta el número de transistores que pueden caber en un solo chip de ordenador. Basado en la Ley de Moore, el número de transistores por chip se duplicará cada dos años, y en esta área parece que se mantiene. Para mantener este ritmo de rápida innovación, los fabricantes de ordenadores están continuamente en busca de nuevos métodos para hacer que cada transistor sea cada vez más pequeño.
Los microprocesadores actuales se fabrican añadiendo patrones de circuitos a las obleas de silicio plano. Una forma novedosa de crear más transistores en el mismo espacio es fabricar estructuras 3D. Los transistores de efecto de campo de tipo aleta (FET) se denominan así porque tienen estructuras de silicio parecidas a las aletas que se extienden hacia el aire, fuera de la superficie del chip. Sin embargo, este nuevo método requiere un cristal de silicio con superficies superiores y laterales perfectamente planas, en lugar de sólo la superficie superior, como ocurre con los dispositivos actuales. El diseño de la próxima generación de chips requerirá nuevos conocimientos sobre las estructuras atómicas de las superficies laterales.
Ahora, investigadores de la Universidad de Osaka y del Instituto de Ciencia y Tecnología de Nara informan que han utilizado STM para visualizar por primera vez la superficie lateral de un cristal de silicio. STM es una técnica poderosa que permite ver la ubicación de los átomos de silicio individuales. Al pasar una punta afilada muy cerca de la muestra, los electrones pueden saltar a través de la separación y crear una corriente eléctrica. El microscopio monitoreó esta corriente y determinó la ubicación de los átomos en la muestra.
«Nuestro estudio es un gran primer paso hacia la evaluación de transistores con resolución atómica diseñada para obtener formas tridimensionales», dice la coautora del estudio Azusa Hattori.
Para hacer que las superficies laterales sean lo más suaves posible, los investigadores primero trataron los cristales con un proceso llamado ataque de iones reactivos. El coautor Hidekazu Tanaka dice: «Nuestra habilidad de mirar directamente las superficies laterales usando STM demuestra que podemos hacer estructuras artificiales en 3D con superficies atómicas casi perfectas».
Ampliar en: Solid State TECHNOLOGY
Los fabricantes de semiconductores disponen hoy en día de una amplia variedad de tecnologías láser que permiten el desarrollo de procesos innovadores de fabricación de semiconductores. Según Yole Développement (Yole), el mercado de los equipos láser crecerá a una tasa de crecimiento del 15% CAGR entre 2016 y 2022 y debería alcanzar más de 4000 millones de dólares para 2022 (excluyendo el marcado). Estas cifras muestran la adopción masiva de tecnologías láser para los procesos de fabricación de semiconductores.
En su último informe titulado Laser Technologies for Semiconductor Manufacturing, la compañía consultora de investigación de mercado y estrategia detalla el estado de esta industria, impulsada principalmente por el troquelado, a través de perforaciones y patrones en PCB flex y PCB HDI, sustratos de CI y procesamiento de dispositivos semiconductores.
El informe de Yole Laser Technologies for Semiconductor Manufacturing proporciona un análisis exhaustivo de los diferentes equipos láser existentes y soluciones de fuentes láser desarrolladas para los pasos del proceso de semiconductores. Se trata de un análisis exhaustivo que resalta el nivel de madurez de cada tipo de láser, basado en una hoja de ruta técnica hasta el año 2022. Con este nuevo informe, los analistas de Yole ofrecen un claro entendimiento de los beneficios de las tecnologías láser y el valor agregado para cada proceso de fabricación.
El informe Laser Technologies for Semiconductor Manufacturing es el primero de una amplia colección de informes que Yole publicará en los próximos meses. Además, su 1st Executive Forum on Laser Technologies, que se lleva a cabo en Shenzhen, China, acogiendo a más de 100 asistentes, la empresa de investigación de mercado y consultoría estratégica «More than Moore» Yole confirma la expansión de sus actividades hacia las soluciones basadas en láser. Tecnologías, hojas de ruta, métricas de mercado, cadena de suministro, panorama competitivo, cuotas de mercado y mucho más. Todos estos temas serán descritos y analizados a fondo en los informes de mercado y tecnología láser de Yole.
Hoy en día, las aplicaciones de láser en la industria de los semiconductores son amplias y diversificadas. Varias tecnologías láser han comenzado a integrarse en los principales procesos de semiconductores, incluyendo el corte por láser, perforación, soldadura/adhesión, despegues, marcado, estampado, marcado, medición, deposición, y control por placas madre. Se utilizan para procesar dispositivos semiconductores, placas de circuito impreso flexibles y HDI, así como en aplicaciones de embalaje IC.
Los controladores de los métodos láser difieren de un paso del proceso a otro. Sin embargo, existen controladores similares y comunes para la aplicabilidad de los láseres a las aplicaciones de procesamiento de semiconductores y PCB. Las tendencias clave que impulsan la aplicabilidad del láser y contribuyen a su crecimiento son:
Sin embargo, la elección del tipo de procesamiento láser más adecuado depende en gran medida del material a procesar, los parámetros de procesamiento y el paso del proceso de fabricación.
El tipo de láser se define por parámetros como la longitud de onda, la emisión de luz UV, verde o IR, por ejemplo, así como la duración del pulso, por ejemplo, nanosegundo, picosegundo o femtosegundo. Los usuarios deben considerar qué longitud de pulso y longitud de onda es la correcta para su etapa de proceso y aplicación en semiconductores.
Los láseres de Nanosegundos son el tipo de láser más comúnmente utilizado en la fabricación de semiconductores y en el procesamiento de PCB, con una cuota de mercado superior al 60%. Les siguen los láseres de picosegundos, CO2 y femtosegundos. En el caso del paso de troquelado, la elección del tipo láser también depende del material y del sustrato a trocear. Para materiales de baja constante dieléctrica (baja k) se utilizan láseres UV de nanosegundos y picosegundos para optimizar la absorción óptica. Los láseres de infrarrojos Picosegundo y femtosegundo se utilizan típicamente para cortar sustratos de vidrio y zafiro, pero no para sustratos de SiC aislantes.
En la perforación, el tipo de láser empleado depende del sustrato. Los láseres UV de Nanosegundo se emplean generalmente en PCB flexibles, mientras que los láseres de CO2 se aplican en gran medida para sustratos de PCB HDI e IC. Sin embargo, para los sustratos de CI, la elección entre láser de CO2 y láser de nanosegundo o picosegundo UV depende de los diámetros de vía. Por debajo de los diámetros de 20 microm, la industria tiende a utilizar láseres UV de picosegundo, que son mucho más caros que los láseres UV de nanosegundo, pero que ofrecen una calidad superior.
En términos generales, el CO2 es la solución láser más barata y rápida y se utiliza en lugar de los láseres de estado sólido de nanosegundos, picosegundos o femtosegundos para cortar en cuadraditos, taladrar, estampar, marcar para aplicaciones que requieren alta potencia y no se preocupan por el daño por calor o la anchura de corte. Sin embargo, el CO2 es limitado cuando se necesitan características pequeñas. Los láseres de Nanosegundos son actualmente la tecnología dominante, pero los láseres de picosegundos y femtosegundos podrían avanzar en el mercado de equipos de corte láser. Sin embargo, la implementación del láser femtosegundo es más compleja y costosa.
El informe láser de Yole proporcionará una visión general completa del equipamiento láser y las fuentes láser utilizadas para cada aplicación de los pasos del procesamiento de semiconductores, junto con un análisis detallado de las tendencias de la tecnología láser y una previsión del mercado. También ofrecerá un análisis detallado del mercado de equipos láser por volumen y valor, su crecimiento para el período 2016-2022, y su desglose por tipo de láser y aplicación de pasos de proceso.
Ampliar en: Solid State TECHNOLOGY
Durante más de 50 años, la Ley de Moore ha reinado en forma suprema. La observación de que el número de transistores en un chip de ordenador se duplica aproximadamente cada dos años ha marcado el ritmo de nuestra revolución digital moderna: hacer posible teléfonos inteligentes, ordenadores personales y superordenadores actuales. Pero la Ley de Moore se está ralentizando. E incluso si no lo fuera, algunos de los grandes problemas que los científicos necesitan abordar podrían estar fuera del alcance de los ordenadores convencionales.
Durante los últimos años, los investigadores del Lawrence Berkeley National Laboratory (Berkeley Lab) han estado explorando un tipo drásticamente diferente de arquitectura computacional basada en la mecánica cuántica para resolver algunos de los problemas más difíciles de la ciencia. Con el patrocinio de Laboratory Directed Research and Development (LDRD), han desarrollado algoritmos de optimización y química cuántica, así como procesadores de prototipo superconductores cuánticos. Recientemente, demostraron la viabilidad de su trabajo utilizando estos algoritmos en un procesador cuántico que consta de dos bits cuánticos superconductores para resolver con éxito el problema químico de calcular el espectro energético completo de una molécula de hidrógeno.
Ahora, dos equipos de investigación dirigidos por el personal del Berkeley Lab recibirán fondos del Departamento de Energía (DOE) para aprovechar este impulso. Un equipo recibirá 1,5 millones de dólares en tres años para desarrollar algoritmos novedosos, técnicas de compilación y herramientas de programación que permitirán utilizar plataformas de computación cuántica a corto plazo para el descubrimiento científico en las ciencias químicas. El otro equipo trabajará en estrecha colaboración con estos investigadores para diseñar prototipos de procesadores de cuatro y ocho cubit para calcular estos nuevos algoritmos. Este proyecto tendrá una duración de cinco años y los investigadores recibirán 1,5 millones de dólares para su primer año de trabajo. Para el quinto año, el equipo de hardware espera demostrar un procesador de 64 cubit con control total.
«Algún día, los ordenadores cuánticos universales podrán resolver una amplia gama de problemas, desde el diseño molecular hasta el aprendizaje automático y la ciberseguridad, pero estamos muy lejos de eso. Por lo tanto, la pregunta que nos hacemos actualmente es si existen problemas específicos que podamos resolver con computadoras cuánticas más especializadas», dice Irfan Siddiqi, científico de laboratorio de Berkeley y director fundador del Center for Quantum Coherent Science de la UC Berkeley.
Según Siddiqi, las tecnologías de computación cuántica coherente de hoy en día cuentan con los tiempos de coherencia necesarios, las fidelidades lógicas de operación y las topologías de circuitos para realizar cálculos especializados para la investigación fundamental en áreas como la ciencia molecular y de materiales, la optimización numérica y la física de alta energía. A la luz de estos avances, señala que es el momento de que el DOE explore cómo estas tecnologías pueden integrarse en la comunidad de computación de alto rendimiento. En estos nuevos proyectos, los equipos del Berkeley Lab trabajarán con colaboradores de la industria y el mundo académico para aprovechar estos avances y abordar problemas científicos difíciles relacionados con las misiones del DOE, como el cálculo de la dinámica de los sistemas moleculares y el aprendizaje de máquinas cuánticas.
«Estamos en las primeras etapas de la computación cuántica, como en los años 40 con la computación convencional. Tenemos parte del hardware, ahora tenemos que desarrollar un conjunto robusto de software, algoritmos y herramientas para utilizarlo de manera óptima para resolver problemas científicos realmente difíciles», dice Bert de Jong, que dirige el Grupo de Química Computacional, Materiales y Clima del Laboratorio de Investigación Computacional (CRD) de Berkeley.
Dirigirá un equipo de Algoritmos Cuánticos del DOE formado por investigadores de Berkeley Lab, Harvard, Argonne National Lab y UC Berkeley, centrado en «Algoritmos Cuánticos, Matemáticas y Herramientas de Compilación para Ciencias Químicas».
«La tradición de Berkeley Lab en la ciencia en equipo, así como su proximidad a UC Berkeley y Silicon Valley, lo convierten en un lugar ideal para trabajar en computación cuántica de extremo a extremo», dice Jonathan Carter, Subdirector de Berkeley Lab Computing Sciences. «Tenemos físicos y químicos en el laboratorio que están estudiando la ciencia fundamental de la mecánica cuántica, ingenieros para diseñar y fabricar procesadores cuánticos, así como científicos informáticos y matemáticos para asegurar que el hardware sea capaz de calcular efectivamente la ciencia del DOE».
Carter, Siddiqi y Lawrence Livermore National Laboratory’s Jonathan DuBois liderarán el proyecto de Testbed Simulation (AQuES) Advanced Quantum-Enabled Simulation del DOE.
Desafío de la coherencia cuántica
La clave para construir ordenadores cuánticos que resuelvan problemas científicos fuera del alcance de los ordenadores convencionales es la «coherencia cuántica». Este fenómeno permite esencialmente que los sistemas cuánticos almacenen mucha más información por bit que en las computadoras tradicionales.
En una computadora convencional, los circuitos de un procesador incluyen miles de millones de transistores, pequeños interruptores que se activan mediante señales electrónicas. Los dígitos 1 y 0 se utilizan en binario para reflejar los estados de encendido y apagado de un transistor. Esencialmente, así es como se almacena y procesa la información. Cuando los programadores escriben código de ordenador, un traductor lo transforma en instrucciones binarias (1s y 0s) que un procesador puede ejecutar.
A diferencia de un bit tradicional, un bit cuántico (cubit) puede adquirir propiedades mecánicas cuánticas algo contrarias a la intuición como el entrelazamiento y la superposición. El entrelazamiento cuántico ocurre cuando los pares o grupos de partículas interactúan de tal manera que el estado de cada partícula no puede ser descrito individualmente, sino que el estado debe ser descrito para el sistema como un todo. En otras palabras, las partículas entrelazadas actúan como una unidad. La superposición ocurre cuando una partícula existe en una combinación de dos estados cuánticos simultáneamente.
Por lo tanto, mientras que un bit de ordenador convencional codifica la información como 0 o 1, un cubit puede ser 0,1 o una superposición de estados (tanto 0 como 1 al mismo tiempo). La capacidad de un cubit para existir en múltiples estados significa que, por ejemplo, puede permitir el cálculo de las propiedades químicas y de materiales significativamente más rápido que los ordenadores tradicionales. Y si estos cubits se pueden enlazar o enredar en un ordenador cuántico, los problemas que no se pueden resolver hoy en día con los ordenadores convencionales podrían ser abordados.
Pero sigue siendo un reto conseguir cubits en este estado de coherencia cuántica, donde se pueden aprovechar las propiedades de mecánica cuántica y luego sacar el máximo provecho de ellas cuando están en este estado.
«La computación cuántica es como jugar un juego de ajedrez donde las piezas y el tablero están hechos de hielo. A medida que los jugadores se mueven alrededor de las piezas, los componentes se están derritiendo y mientras más movimientos realices, más rápido se derretirá el juego», dice Carter. «Los cubits pierden coherencia en muy poco tiempo, así que depende de nosotros encontrar el juego de movimientos más útil que podamos hacer.»
Carter señala que el enfoque de Berkeley Lab de codiseñar los procesadores cuánticos en estrecha colaboración con los investigadores que desarrollan algoritmos cuánticos, recopilando técnicas y herramientas de programación será extremadamente útil para responder a esta pregunta.
«Los enfoques computacionales son comunes en la mayoría de los proyectos científicos del Berkeley Lab. A medida que la Ley de Moore se está ralentizando, las nuevas arquitecturas, sistemas y técnicas informáticas se han convertido en una iniciativa prioritaria en Berkeley Lab «, dice Horst Simon, Director Adjunto de Berkeley Lab. «Reconocemos desde el principio cómo la simulación cuántica podría proporcionar un enfoque eficaz a algunos de los problemas computacionales más desafiantes en la ciencia, y me complace ver el reconocimiento de nuestra iniciativa de LDRD a través de esta primera financiación directa. La ciencia de la información cuántica se convertirá en un elemento cada vez más importante de nuestra empresa de investigación en muchas disciplinas».
Debido a que este campo todavía se encuentra en sus primeros días, hay muchos enfoques para construir una computadora cuántica. Los equipos liderados por el Laboratorio de Berkeley estarán investigando ordenadores cuánticos superconductores.
Para diseñar y fabricar la próxima generación de procesadores cuánticos, el equipo de AQuES aprovechará la instalación de circuitos superconductores en el Laboratorio de Nanoelectrónica Cuántica y Nanoelectrónica de UC Berkeley, al tiempo que incorporará la experiencia de los investigadores en las divisiones de Tecnología de Aceleradores y Física Aplicada, Ciencia de Materiales e Ingeniería del Laboratorio de Berkeley. Los equipos de investigación también utilizarán las capacidades únicas de dos instalaciones del DOE: la Molecular Foundry y el National Energy Research Scientific Computing Center (NERSC), ambos ubicados en el Berkeley Lab.
Ampliar en: EurekAlert!
Fujitsu ha anunciado el desarrollo del primer dispositivo de traducción de voz portátil y manos libres del mundo, adecuado para tareas en las que las manos de los usuarios están a menudo ocupadas, como en diagnósticos o tratamientos sanitarios.
En los últimos años, con el aumento del número de visitantes a Japón, cada vez más pacientes no japoneses acuden a los hospitales, lo que genera problemas de comunicación en varios idiomas. En 2016, los Laboratorios Fujitsu desarrollaron la tecnología de manos libres que reconoce las voces de las personas y la ubicación de los hablantes, y que cambia automáticamente al lenguaje apropiado sin manipulación física del dispositivo. Ese mismo año, también colaboró con el Hospital de la Universidad de Tokio y el Instituto Nacional de Tecnología de la Información y las Comunicaciones (NICT) para llevar a cabo una prueba de campo de traducción multilingüe del habla en el ámbito médico utilizando tabletas estacionarias.
Basándose en los resultados, en Fujitsu Laboratories aprendieron que, como hay muchas situaciones en las que los proveedores de atención médica tienen las manos ocupadas, como cuando proporcionan atención en una sala de hospital, había una gran necesidad de un dispositivo de traducción de voz portátil que se pudiera utilizarse sin ser tocado físicamente.
Con el fin de ampliar la utilidad de la traducción multilingüe de voz, Fujitsu ha desarrollado el primer dispositivo de traducción de voz compacto, portátil y manos libres del mundo, desarrollando tecnología para diferenciar los altavoces que utilizan pequeños micrófonos omnidireccionales. Esto es posible gracias a una ingeniosa modificación de la forma del canal de sonido y a la mejora de la precisión de la tecnología de detección de voz, altamente resistente al ruido de fondo. Se espera que el uso de este dispositivo reduzca la carga sobre los proveedores de atención médica, cuyas manos a menudo se ven restringidas por otras tareas.
Fujitsu evaluará la eficacia de estos dispositivos de traducción recientemente desarrollados en situaciones sanitarias como parte de un ensayo clínico multilingüe de traducción del habla que se está llevando a cabo conjuntamente con Fujitsu Limited, el Hospital de la Universidad de Tokio y NICT, con los nuevos dispositivos desplegados en noviembre de 2017.
Tesla está desarrollando su propio procesador para inteligencia artificial, destinado a ser utilizado con sus sistemas de autocontrol, en asociación con AMD. Tesla tiene una relación ya existente con Nvidia, cuyas GPU alimentan su sistema de piloto automático, pero este nuevo chip interno podría reducir su dependencia del hardware de procesamiento de IA de terceros.
AMD ayudaría a Tesla con el desarrollo del chip. Aparentemente, el fabricante de autos eléctricos ya ha recibido las primeras muestras del prototipo de su procesador para probar, según el informe. La construcción de un chip específico diseñado enteramente para la conducción autónoma ayudaría a Tesla de varias maneras, incluyendo un mayor control sobre un aspecto clave de su propia cadena de suministro, y el aumento de la eficiencia general del sistema y el rendimiento.
Tesla ha afirmado que sus vehículos de la generación actual tienen todo el hardware y la capacidad de computación a bordo para lograr la autoconducción completa con una actualización de software en el futuro. Pero la compañía también está siempre iterando en su hardware, evitando las actualizaciones tradicionales de los fabricantes tradicionales de automóviles.
El departamento de pilotaje automático de Tesla está a cargo de Jim Keller, que anteriormente había pasado gran parte de su carrera en AMD, y luego en Apple, donde ayudó a diseñar los procesadores internos A4 y A5 de Apple. El papel clave de Keller en la compañía probablemente habría influido en el fabricante de automóviles para que se propusiera adquirir su propio diseño de procesador y alinear más estrechamente sus componentes de software de autocontrol y computación de hardware.
Nikola Tesla fue un inventor brillante y visionario que murió olvidado en gran medida.
Sus contribuciones al mundo fueron enormes, pero la gente todavía recuerda a Edison y Franklin y da Vinci y Bell. Durante décadas, los intentos de honrar a Tesla con un museo de Nueva York (EE.UU.) en Wardenclyffe fracasaron repetidamente. Solo recientemente han dado sus frutos
Aquí están algunas de las contribuciones de Tesla:
– inventó el primer motor de corriente alterna (AC)
– desarrolló la generación de CA y tecnología de transmisión
– creó la bobina Tesla, un transformador de alto voltaje que llegó a ser la génesis del tubo de rayos catódicos, radiotransmisor, radar y muchas otras tecnologías
– inventó la tecnología de rayos X
– inventó los dínamos y el motor de inducción
– inventó la primera radio operativa
– inventó la bombilla de luz fluorescente
– inventó el mando a distancia
– inventó la transmisión inalámbrica de electricidad
– diseñó la primera central hidroeléctrica de las Cataratas del Niágara
En 1887 y 1888, se le concedieron más de 30 patentes por sus invenciones.
Cuando Tesla faclleció en 1943, murió sin dinero y olvidado.
Smalltalk fue la creación de Alan Kay, un verdadero visionario que lideró un equipo brillante en Xerox PARC
Hoy en día, Smalltalk está muy subestimado. Aunque Kay nunca pensó que Smalltalk fuera el foco central de su visión, sigue siendo una poderosa fuerza para el avance de la tecnología de programación. Más de cuatro décadas después, ningún lenguaje de programación ha alcanzado a Smalltalk en términos de simplicidad y elegancia, mínima fricción cognitiva, pureza orientada a objetos, elegante codificación y depuración en vivo, enorme productividad de programador y respeto profesional.
En Slant and StackOverflow, Smalltalk es reverenciado: lee La Sabiduría de la muchedumbre.
Capers Jones de Namcook Analytics ha demostrado la tremenda ventaja de Smalltalk cuando se trata de la productividad de los programadores.
El IDE de codificación en vivo de Smalltalk y el runtime son increíblemente potentes sin la complejidad arcana que se encuentra en los IDEs modernos como Visual Studio, Eclipse y Xcode.
Smalltalk continúa evolucionando y mejorando de manera notable a través del proyecto Pharo. He aquí algunas grandes innovaciones:
– NativeBoost – tener un ensamblador en línea definitivamente no es una característica común en un lenguaje dinámico. NativeBoost ha evolucionado desde entonces a la Interfaz Unificada de Función Extranjera (o UFFI).
– Moose es un conjunto de herramientas de visualización de códigos que contiene muchos medios para visualizar y analizar el código.
– Amber, que utiliza Pharo como lenguaje de referencia, es una fantástica herramienta de programación web de primera línea.
– PharoJS es otra herramienta de programación web excelente.
– Continuations: son una característica maravillosa en el marco web de Seaside.
– Fuel: una forma de serializar objetos vivos y de transportar sus objetos.
– Oz – permite que una imagen manipule otra. Muy bueno para depurar una imagen que se ha bloqueado y no puede abrir/cargar.
– Pharo Launcher te permite gestionar tus imágenes Pharo (lanzar, renombrar, copiar y eliminar) y descargar plantillas de imágenes (es decir, archivos zip) de muchas fuentes diferentes para crear nuevas imágenes a partir de cualquier plantilla.
– SmalltalkHub es el Github de Pharo, pero a diferencia de Github es totalmente open source y todo Smalltalk.
– Phratch es un puerto de Scratch a Pharo – esto es importante porque Scratch ha sido transferido a HTML5 y esto es un esfuerzo para mantener basado en Scratch Smalltalk. Phratch es una plataforma excelente para enseñar a los niños a codificar.
– Shampoo – buen soporte para Pharo en Emacs; puedes reemplazar la GUI Pharo con Emacs y disfrutar de los beneficios de este poderoso editor.
Legado
Como Tesla, Smalltalk tiene un legado maravilloso. Su bella implementación de programación orientada a objetos ha influido directamente en el diseño de casi todos los lenguajes orientados a objetos que usamos hoy en día: Java, Python, C#, PHP, Ruby, Perl, Objective-C, Groovy, Scala, Dart, Erlang, CLOS.
Smalltalk introdujo al mundo a la máquina virtual de lenguajes. (No, no fue el primero, pero fue el más conocido.) Esta es la misma tecnología que soporta Java y. NET.
Smalltalk fue pionera en la recopilación JIT (just-in-time).
De Smalltalk surgió el primer IDE moderno (entorno de desarrollo integrado), que incluía un editor de texto, un navegador de sistemas o clases, un inspector de objetos o propiedades y un depurador.
Smalltalk fue la primera herramienta de lenguaje que soportó programación en vivo y técnicas avanzadas de depuración tales como inspección sobre la marcha y cambios de código durante la ejecución en una forma fácilmente utilizable.
Desde que Smalltalk-80 (en 1980), tenía funciones y clausuras de primera clase que, curiosamente, hacen que Smalltalk sea bastante bueno para la programación funcional. Bastante notable para un lenguaje «puro» orientado a objetos. (¿Cuánto tiempo tardó Java, Python, C# y C++ en obtener esta función?
Smalltalk introdujo el patrón arquitectónico de software MVC (Model-View-Controller).
En gran medida, Smalltalk es responsable de proporcionarnos un desarrollo basado en pruebas (o TDD) y una programación extrema (o XP), que son ambos muy influyentes en las prácticas ágiles estándar de hoy en día.
Smalltalk hizo de «teclear el pato» una palabra familiar. La escritura de tipo de pato es donde la «comprobación de tipo» se aplaza hasta el tiempo de ejecución – cuando se utilizan las capacidades de reflexión para asegurar un comportamiento correcto. Hoy en día, encontramos el mecanografiado de patos en muchos idiomas, incluyendo Java, Python, Go, Groovy, Objective-C y PHP.
Smalltalk ha sido pionera en el desarrollo de bases de datos de objetos de las que GemStone/S es un gran ejemplo.
Smalltalk nos dio el primer navegador de refactoring.
Smalltalk fue fundamental en el desarrollo de la interfaz gráfica de usuario (o GUI) y la interfaz de usuario «lo que ves es lo que obtienes» (WYSIWYG).
La gente no se da cuenta de esto, pero Smalltalk es tan extensible como Lisp! Lee Lisp, Smalltalk, y el Poder de la Simetría. ¿Quién necesita las macros Lisp?
El éxito de Apple debe mucho a Smalltalk. Es verdad!
El objetivo C ha sido la base de macOS e iOS, y el objetivo C es esencialmente un cruce entre C y Smalltalk.
MacOS evolucionó a partir de NeXTStep, que se construyó con el Objetivo-C.
Steve Jobs se inspiró en la GUI y WIMP de Xerox PARC para realinear completamente la estrategia de Apple; la GUI fue una salida directa del trabajo de Smalltalk.
¡Uf! ¡Nikola Tesla habría estado orgullosa!
Ampliar en: Hackernoon
El qubit es la unidad básica de computación cuántica. Así que a los desarrolladores de hardware cuántico obviamente les gusta presumir de cuántos tienen. Aunque algunos afirman tener miles en sus dispositivos, hay un sentimiento muy real de que nadie ha construido ni siquiera uno solo.
Hay un par de cosas diferentes para las que usamos el nombre del qubit. Uno es un qubit físico. La parte física se refiere al hecho de que estos son objetos reales de la vida real. La parte de bits nos dice que estos objetos deberían tener dos posibles estados. Y lo que es para el cuántico, ya que necesitamos manipular los estados de una manera cuántica mecánica.
Cualquier qubit que merezca el nombre también debe tener un ruido extremadamente bajo. La forma en que los manipulamos e interactuamos debería ser casi perfecta. Como un logro de la física experimental, deben estar en la cúspide: Una maravilla de la ciencia y la ingeniería. Aun así, no son suficientemente buenos. Para las ordenadores cuánticos, casi perfecto es casi inútil.
Esto no es más de lo que esperamos de los ordenadores normales. Hay millones de píxeles en tu pantalla, pero te darías cuenta si sólo uno estuviera haciendo algo al azar. Lo mismo es cierto para todos los millones de bits que nadan alrededor en sus programas. Sólo se necesita un valor de conmutación de unos pocos porque están aburridos para que todo se convierta en un sinsentido.
Cuando programamos, a menudo olvidamos que los bits de nuestro ordenador tienen una forma corpórea real. Pensamos en ellos como un concepto abstracto, puro e incorruptible. De lo contrario, el desarrollo de software sería una actividad muy diferente. Los programas cuánticos están diseñados con el mismo grado de perfección en mente. Para ejecutarlos, necesitamos renuncias lógicas: encarnaciones de la idea misma de la información cuántica.
Construir qubits lógicos requiere que domemos la naturaleza de sus primos físicos. Necesitamos corrección de errores cuánticos. Muchas de las partes físicas son reunidas y conducidas a ser más grandes que la suma de sus partes. Cuanto más qubits físicos usemos, mejor será el efecto. El ruido disminuye exponencialmente, hasta que podemos estar seguros de que no ocurrirá ni un solo error durante el cálculo.
Esto no está exento de costes. No debemos pensar en gastar unos pocos cientos de qubits físicos para construir uno solo lógico. Pero si esto significa alcanzar la promesa completa de computación cuántica, valdrá la pena.
El diseño más popular para la corrección de errores cuánticos es el código de superficie. Para el código de superficie más pequeño, se necesitan 17 qubits físicos. Éstos construirían un qubit lógico, pero no con la suficiente complejidad como para hacer algo con él.
Todavía no se ha logrado nada parecido. Para ver por qué, echemos un vistazo a lo que se necesitaría.
Esto es un código de superficie. Los 17 puntos, tanto blancos como negros, son los qubits físicos. Las 24 líneas coloreadas representan un cierto tipo de operación cuántica, la controlada-NO. Para cada par de salidas conectadas, esta operación debería ser posible realizarla de forma limpia y directa.
El principal desafío es conectar todos estos controles-NO. Tener 17 qubits en nuestro procesador cuántico no es suficiente. También necesitamos el conjunto de instrucciones para soportar esta red específica de procesos.
Tener un montón de qubits físicos en una línea son noticias viejas, dos líneas al lado de la otra también es factible. Pero la red 2D de conexiones necesarias para el código de superficie es mucho más difícil.
Aun así, Google promete esto y mucho más para finales de año. Prometieron una red de 7×7 de 49 qubits físicos. Esto sería un gran paso adelante en comparación con otros dispositivos, como la celosía IBM 2×8 de 16 qubits físicos.
El dispositivo IBM tiene suficiente conectividad para hacer un bit lógico a partir de qubits físicos. En los próximos meses harán cosas mucho más geniales, como es de esperar del dispositivo a la vanguardia de su campo. Pero hacer un qubit lógico no será uno de sus logros.
El hecho de que los 49 qubits de Google serán tan revolucionarios hace difícil creer que lo veremos antes de que acabe el año. Los hitos más realistas para este año son un dispositivo de 17 qubit de IBM, y uno de 20 qubit de Google. Ambos tienen suficientes qubits para empezar con el código de superficie. Pero, ¿tienen el diseño correcto? Sólo el tiempo lo dirá.
Quizá no tengamos que esperar mucho tiempo. John Martinis, el encargado de construir los dispositivos cuánticos de Google, dará una charla la próxima semana. El título…
Escalado de errores lógicos de medición con el código de superficie
Los códigos de superficie están en el radar de los gigantes tecnológicos. El primer qubit lógico del mundo se acerca. ¿Ya lo ha gestionado el dispositivo de 20 qubit de Google?
Ampliar en: HACKERMOON