Física
Física
Una cosa interesante del mundo del almacenamiento, es que aunque podamos comprimir varios GigaBytes de datos en el espacio de un juego de barajas/cartas, lo cierto es que aun podemos llegar mucho mas lejos, ya que aun estamos relativamente lejos del tamaño de los átomos en relación a cada bit almacenado.
Sin embargo, una de las tecnologías que promete llegar a la escala de los átomos es la llamada «Memoria Molecular», y ahora un equipo de científicos de Rice University acaba de determinar experimentalmente que una tira de grafito de apenas 10 átomos de ancho puede servir como el elemento básico de una memoria molecular.
Mas específicamente, dicen que es posible almacenar cada bit de información individual en un espacio menor a 10 nanómetros.
Noten que las memorias mas avanzadas de hoy día se fabrican en una técnica que crea trazos de 45nm, y aparte de eso necesitan tres terminales conectadas a cada celda de memoria para funcionar, lo que ocupa mas espacio, mientras que con esta nueva técnica hablamos de solo dos terminales y a 10nm.
Un cálculo rápido a groso modo que acabo de hacer nos indica que este nuevo tipo de memoria deber ver al menos 20 veces mas densa que lo mejor que tenemos hoy día, lo que significa que en el mismo espacio que hoy utilizamos para almacenar una memoria Flash de 512GB sería posible almacenar mas de 10 TeraBytes.
Y como si fuera poco, según los desarrolladores de esta tecnología, la memoria molecular tendrá una vida útil mucho mas larga que memoria del tipo flash, lo que significa que esto abre las puertas a un sistema de respaldo de datos a largo plazo en una tecnología totalmente sólida.
Fuente: eliax para mentes curiosas
Una imagen panorámica en blanco y negro, que ha sido «desenterrada» en los archivos de la Universidad de Manchester, muestra una versión de desarrollo del computador pionero que allí fue inventado, conocido como «Baby». Ocupaba una habitación entera con sus imponentes casilleros metálicos del tipo usado en oficinas postales, y su selva de cables.
Menéame
La Máquina Experimental de Pequeña Escala, para citarla según su nombre oficial y completo, ejecutó con éxito su primer programa en el verano de 1948, y abrió el camino a los ordenadores, iPods y teléfonos móviles que tan cotidianos les parecen hoy en día a mucha gente.
Diseñado y construido por Tom Kilburn y Freddie Williams en la Universidad de Manchester, fue el primer computador electrónico digital capaz de almacenar un programa.
No hay fotos del Baby original de Junio de 1948. La imagen panorámica se describe a menudo como una foto de la máquina Baby, pero en realidad muestra una etapa intermedia, en la que comenzaba a parecerse al posterior Mark 1 de la universidad.
La vista panorámica de la máquina fue publicada por primera vez en The Illustrated London News, en Junio de 1949, y en concreto se trata de un mosaico confeccionado con aproximadamente 24 fotos separadas tomadas por Alec Robinson, uno de los miembros del equipo del proyecto. Una anotación en su libreta de apuntes mostró que fueron tomadas el 15 de Diciembre de 1948.
El Baby fue construido utilizando casilleros metálicos de oficina postal, cientos de válvulas o tubos al vacío, y el teclado era una serie de botones e interruptores instalados verticalmente. La salida de datos no era una pantalla, sino que había que leer éstos directamente del frontal de un Tubo de Rayos Catódicos (CRT, por sus siglas en inglés).
En términos modernos, el prototipo Baby tuvo una RAM de sólo 32 «palabras». Cada palabra en la RAM consistía en 32 bits (dígitos binarios), y de esta forma Baby tuvo una cantidad total de memoria de 1024 bits, y una velocidad de cómputo de 1,2 milisegundos por instrucción.
Una capacidad que resulta asombrosamente escasa si la comparamos con dispositivos actuales cotidianos, y además de bolsillo, que son capaces de almacenar millones y millones de veces más información que el Baby original del tamaño de una habitación.
La Universidad de Manchester, la de Cambridge, e instituciones estadounidenses, compitieron con ahínco para construir la primera computadora que almacenara un programa, pero la Universidad de Manchester ganó la carrera, una hazaña que impresionó al mundo y colocó la ciudad al frente de una revolución tecnológica global.
Tom Kilburn fundó y dirigió el Departamento de Ciencias de la Computación en la universidad, el primero en el Reino Unido.
Información adicional en:
* U. Manchester
Fuente: Noticias de la ciencia y la tecnología
Aun con todo el inmenso poder de las computadoras de hoy día, hay al menos un tipo de problemas que ni todas las computadoras del mundo combinadas en una sola puede atacar, y ese es el problema de simular efectos cuánticos. Pero eso está empezando a cambiar…
El problema es que efectos cuánticos (es decir, los efectos de la física que ocurren en las escalas mas inimaginablemente pequeñas, como lo que ocurre entre y dentro de los átomos) tienen la extraña propiedad de que pueden existir en mas de un estado simultáneamente.
Es decir, es como si tuviéramos un bombilla, la cual estuviera encendida y apagada al mismo tiempo, algo que suena ridículo pero que aunque contra-intuitivo, es la manera en que funciona la naturaleza a pequeñas escalas, es decir, un mismo electrón puede estar en dos estados a la misma vez, en dos lugares a la misma vez, en dos estados magnéticos a la misma vez, etc. Y cuando digo dos estados, no solo me refiero a dos, sino que a hasta una infinidad de estos estados simultáneos.
Muchos dirán que esto es solo teoría, pero lo cierto es que esto ha sido comprobado en miles de experimentos durante décadas. Inclusive, la razón por la cual nuestros televisores, celulares, y cientos de otros aparatos domésticos funcionan es precisamente debido a esta singularidad de la naturaleza. Es el famoso «Principio de Superposición», que dice que una misma cosa puede estar en una infinidad de estados simultáneos, hasta que uno interactúe con su información.
Pues sucede, que simular estos estados cuánticos es un gran problema para las computadoras «clásicas» que utilizamos hoy día, ya que estas se basan en una arquitectura binaria, es decir, de 2, en donde cada pedazo (o «bit», que es lo que significa «pedazo» en Inglés) solo puede estar en 1 de 2 posibles estados, en el estado 0 (cero) o el estado 1 (uno), pero nunca ambos a la vez.
En contraste, una computadora cuántica utiliza Qbits, en donde cada Qbit puede estar en «0», o en «1», o «en 0 y 1″.
Eso significa que si una computadora clásica (de «bits») quisiera simular tan solo 2 átomos que tuvieran tan solo 2 estados (digamos 0 y 1), que tal computadora necesitaría darle seguimiento a 4 posibles combinaciones entre esos dos bits, que son 00, 01, 10 y 11. Si tuviéramos 3 átomos, hablamos de 8 combinaciones (000, 001, 010, 011, 100, 101, 110, 111), y si hablamos de tan solo 4 átomos entonces requeriríamos de 16 combinaciones.
Para que tengan una idea, el tan solo almacenar los posibles estados de 24 átomos, que en una computadora clásica requeriría de tan solo 24 bits (o 3 Bytes), en una computadora cuántica se necesitarían 16,777,216 bits, o unos 2 GigaBytes. Es decir, que para que una computadora clásica pueda simular a una cuántica, se necesita almacenar información exponencialmente, o en este caso mas precisamente se necesitan 2N bits para almacenar los estados de N Qbits. Es por eso que en el ejemplo anterior si queremos almacenar los estados de 24 bits, necesitamos de 224 bits, que son 16,777,216 bits.
Y debido a esta exponencialidad, es impráctico poder simular cualquier sistema cuántico de un tamaño útil para obtener resultados, ya que por ejemplo para simular un sistema cuántico con tan solo 256 Qbits, se necesitarían mas bits que la cantidad de fotones visibles en todo el Universo conocido (un número que no cabrían en varias páginas aquí).
Y es aquí en donde llegamos al tema de hoy, Simulación Cuántica.
Sucede que desde el 2002 ya se dieron los primeros pasos para simular efectos cuánticos (y efectos clásicos) con una computadora cuántica. La gran ventaja de esto es que a diferencia de una computadora clásica, una cuántica puede estar en «todos los estados posibles» a la vez, por lo que para simular un sistema de 256 Qbits solo se necesitan 256 Qbits (valga la redundancia).
Hoy día ya se están creando las primeras simulaciones casi prácticas que nos permitirán simular prácticamente cualquier cosa en el futuro, inclusive partes del Universo mismo, idéntico a la película The Matrix.
Inicialmente estos experimentos tienen un fin práctico inmediato, y es el de poder simular complejos materiales sintéticos. Hoy día por ejemplo si alguien tiene una idea de algún novedoso nuevo material, su única opción para «simularlo» es construyendo de alguna manera uno real (un proceso complejo, lento y caro), y después midiendo sus propiedades con todo tipo de herramientas.
Sin embargo, con un simulador cuántico, es posible crear una simulación del objeto en el mundo cuántico, y poder interactuar con el material como si existiera de verdad, lo que aceleraría la creación de nuevos y asombrosos materiales desde una tarea laboriosa que toma años o décadas, a una que tome días o quizás segundos.
Este a propósito es un excelente ejemplo de como todo, incluyendo en este caso la tecnología, avanza no de manera gradual (o lineal), sino que exponencial, pues este tipo de herramientas aceleran tanto la industria, que los nuevos adelantos en sí mismo nos permiten acelerar otras tantas mas de manera exponencial también (como en este caso, la industrias de construcción civil, de arquitectura, la textil, y hasta la de viajes espaciales).
Es esta una razón por la cual tardamos miles de años en crear computadoras, pero tan solo tardamos unas décadas en crear el Internet, unos años en crear celulares, y ya hoy día es casi cada unos cuantos meses que sale algo nuevo y novedoso, y este paso solo continuará acelerándose, hasta que lleguemos a una singularidad, pero ese ya es tema para otro artículo…
A los científicos que quieran mas información sobre esto, consulten este enlace del 2002, y a los que quieran un extracto de desarrollos recientes (y menos técnico), pueden leer este otro articulo recién publicado, el cual me inspiró a escribir este artículo de hoy.
Y como siempre, si disfrutaste de este tema, puedes aprender mucho mas de temas similares y explicados de manera que cualquiera los pueda entender, en mi libro gratuito Máquinas en el Paraíso, cuyo enlace aparece en el encabezado de eliax.
Fuente: Eliax
Morgan Sparks, quien fuera el inventor del primer transistor práctico y utilizable en la historia de la humanidad, ha muerto a los 91 años de edad.
Su creación va más allá de lo convencional, se podría decir que revolucionó lo que en tiempos remotos se conocía como transistor, y gracias a él mucha de la tecnología que hoy disfrutamos existe.
Una triste historia pero, todos tenemos que morir algún día. Al menos Morgan Sparks, pudo vivir una existencia plena, llena de satisfacciones, anécdotas y logros. Desafortunadamente se despidió de este mundo en el transcurso de esta semana.
Adiós a uno de los grandes creadores del siglo 20.
Fuente: The Inquirer
Nace Numonyx, una joint venture formada por Intel y STMicroelectronics, con el propósito de empezar a comercializar memorias de cambio de fase (PCM) a finales de este año.
La compañía está ya empezando a entregar prototipos a los clientes, según ha afirmado su presidente Brian Harrison. “Esperamos comercializarlas este año y generar algunos beneficios”, comentó Harrison. “Faltan uno o dos años para que estén disponibles de una manera amplia en el mercado”.
El que un CEO hable de prototipos y ventas en el corto plazo es un hito para las memorias PCM. Esta tecnología llevaba ya unos años en la fase proverbial de “a unos años de distancia”.
Ya en 2001, Richard Doherty preveía que “podría ser más barata que el flash en un par de años”. En 2002, un ingeniero de memoria flash de Intel decía “estamos haciendo muchos progresos”.
Las memorias de cambio de fase, que utilizan un material cristalino, almacenan información a través de un cambio en su estado físico, en vez de utilizar cargas eléctricas como el flash. Un pequeño electrodo calienta cada celda de la memoria. El estado de la celda depende de la manera en la que ha sido calentada, y por consiguiente representa o el 1 o el 0. Esta dificultad es la que ha hecho que ninguna empresa hubiese podido hasta ahora producirlas de forma comercial.
Este tipo de memorias cuenta con las ventajas de las tecnologías NOR y NAND (NOR se utiliza en los móviles para ejecutar el código y NAND se utiliza como memoria de almacenamiento). Dentro de poco, las memorias PCM sustituirán a las caras RAM, que además consumen más energía, y en unos cuantos años más, podrían incluso ser una alternativa más barata a las flash.
Fuente: The Inquirer
«¿Por qué instalar costosas antenas de telefonía para zonas poco habitadas cuando unos pocos globos pueden transmitir la misma señal?». En el año 2006 apareció este artículo en la prestigiosa revista Wired en la que se hablaba de una firma que intentaba llevar a cabo una descabellada idea de construir una red de globos situados en la Estratosfera, a unos 30 kilómetros sobre la superficie terrestre, para poder ofrecer cobertura inalámbrica en zonas rurales de Dakota del Norte (EEUU).
Esta firma se llamaba Space Data, tiene su sede en Arizona (EEUU), y ha desarollado una tecnología bautizada como ‘SkySite, que convierte estos globos en pequeños satélites repetidores de bajo coste, que se pueden lanzar en apenas 20 minutos, y que ofrecen una cobertura de un radio de miles de kilómetros cuadrados (se asegura aproximadamente lo que cubren unas 40 antenas instaladas en tierra). Space Data lanza al aire unos 10 globos al día en diferentes regiones del Sur de EEUU, puesto que su vida útil no sobrepasa las 24 horas y, tras destruirse en la Estratosfera, los sistemas electrónicos son recuperados. Los globos son hinchados con Hidrógeno alcanzando los dos metros de diámetros, se les adhiere el repetidor en su parte inferior y, simplemente, se les deja ascender libremente. Podéis ver más información en el vídeo que tenéis al final de este post.
Parece que esta tecnología está siendo bastante efectiva. Por ello, Google, que está muy interesado en construirse su propia red de comunicaciones y que está pujando por las licencias de banda ancha inalámbrica en EEUU, parece que quiere contratar, o incluso adquirir completamente, a Space Data. O, al menos, eso asegura este artículo del ‘Wall Street Journal’.
Se asegura en dicho artículo que fuentes cercanas a la compañía prevén que esta tecnología de globos estratosféricos podría cambiar radicalmente el mercado del acceso a la telefonía móvil y a Internet en áreas alejadas.
Fuente: google.dirson.com
En una investigación que puede ser una paso adelante clave para la comunicación cuántica en la vida real — la transmisión de información usando átomos, fotones, u otros objetos cuánticos — los investigadores crearon un experimento en el cual un bit cuántico de información era transportado una distancia de siete metros y almacenado brevemente en una memoria. Esta es la primera vez que tanto el teletransporte como la memoria cuántica, como se conoce a la transferencia de información, se han demostrado en un único experimento.
El experimento fue realizado por científicos de la Universidad de Heidelberg en Alemania, la Universidad de Ciencia y Tecnología de China, y el Instituto Atómico de las Universidades Austriacas en Austria. El trabajo estaba liderado por el Profesor Jian-Wei Pan, físico de la Universidad de Heidelberg.
Un bit cuántico, o qubit, es la unidad de información cuántica más básica. Toma la forma de una configuración particular, o “estado”, de un átomo o fotón. Al contrario que un bit de un ordenador convencional, la pieza más básica de información que puede almacenar un ordenador, los qubits representan la superposición del “0” y “1”, en lugar de ser un 0 o un 1. Además, un qubit no puede ser copiado en el sentido tradicional. Sólo puede ser transferido, sin dejar ninguna traza del original.
El teletransporte cuántico es la forma de transferir un estado cuántico desconocido a una localización lejana sin obtener información sobre el estado en el curso de la transferencia. Cuando se transporta un qubit a lo largo de una distancia, el proceso es notable debido a que el qubit emisor y el receptor no están conectados físicamente de ninguna forma, y no “saben” de la existencia del otro. Pero gracias a un fenómeno conocido como entrelazamiento, un qubit no obstante es capaz de asumir el estado cuántico de otro sin interactuar físicamente con él.
En el presente artículo, descrito en la edición on-line del 20 de enero de Nature Physics, un estado cuántico desconocido de un qubit fotónico se transfirió a una memoria cuántica a través de teletransporte y qudó almacenado entre dos cúmulos de átomos de rubidio. Cada cúmulo contiene aproximadamente un millón de átomos, recolectados mediante una trampa magneto-óptica. El qubit fotónico teletransportado puede ser almacenado en una memoria y leído en apenas ocho microsegundos (millonésimas de segundo) antes de que se pierda su estado.
“Tal interfaz para cartografiar los estados cuánticos de los fotones en los estados cuánticos de la materia, y recuperarlos sin destruir el carácter cuántico de la información almacenada, es una parte esencial para las futuras tecnologías cuánticas”, dijo Pan a PhysOrg.com. “Esto representa un paso adelante importante hacia una conexión escalable y eficiente de redes cuánticas”.
El estado cuántico portado por los qubits fotónicos está codificado en la polarización de los fotones, o en el alineamiento de los campos eléctricos emitidos por los fotones. Cada cúmulo de rubidio codifica la información como un estado de espín colectivo para todos los electrones del cúmulo. Así como otras características inamovibles como la masa y la carga, el espín, o momento angular, en una característica intrínseca de un electrón.
Primero, el grupo de investigación entrelazó el estado de polarización de los fotone sy el estado de espín de los cúmulos de átomos. Este entrelazamiento entonces se explota para teletransportar el estado desconocido de un único qubit fotónico en un qubit atómico a siete metros de distancia. Esto se hace tomando medidas simultáneas de los fotones entrelazados y el fotón que va a ser teletransportado. Tomando estas medidas se entrelazan los dos fotones y y proyecta el estado del segundo fotón sobre el cúmulo de átomos.
Esta configuración tiene algunos problemas serios. La duración de la memoria cuántica es muy corta y la probabilidad de que el fotón sea teletransportado baja. Por tanto, los investigadores dicen que necesitarán “significativas mejoras” antes de que el esquema pueda usarse en aplicaciones prácticas.
Fuente: CienciaKanija
En IEEE Spectrum han puntuado a las empresas relacionadas con las nuevas tecnologías en función de las patentes -y de su importancia- que publicaron a lo largo y ancho del año 2006, el último del que se tienen estadísticas completas.
Para ello han elaborado 9 tablas diferentes teniendo en cuenta el sector concreto al que pertenece cada una de estas compañías, ya sea éste el aerospacial, el del software, la electrónica o las telecomunicaciones.
Partiendo de esa información, he cruzado los datos de todos esos listados y he obtenido que las firmas que más patentes registraron fueron éstas:
Compañía | Nº Patentes |
---|---|
IBM | 3651 |
Hitachi | 3579 |
Matsushita | 2507 |
Samsung Electronics | 2474 |
Hewlett-Packard | 2115 |
Toshiba | 1987 |
Sony | 1970 |
Intel | 1961 |
Fujitsu | 1674 |
Micron Technology | 1617 |
Siemens | 1514 |
Microsoft | 1469 |
Epson | 1212 |
NEC | 1083 |
Philips | 957 |
Infineon Technologies | 942 |
Texas Instruments | 890 |
Alcatel-Lucent | 885 |
Sharp | 856 |
Sun Microsystems | 849 |
Xerox | 807 |
Motorola | 798 |
AT&T | 763 |
Nokia | 744 |
Ricoh | 727 |
Fuente: Abadía Digital
La empresa de servicios tecnológicos EDS quiere ayudar a las empresas y gobiernos a comenzar el año de forma ecológica con la propuesta de ocho formas para reducir el impacto ambiental de la informática en 2008.
La primera opción es cambiar la idea de «aplicación» -o servidor- que tienen muchas empresas. La virtualización de los servidores permite que múltiples aplicaciones operen de forma segura con el mismo servidor físico. «Trasladar la actividad de los servidores del 15-20% de su utilización al 80-90% permite trabajar mejor usando el mismo perfil de energía», defiende EDS.
Otra de las recomendaciones pasa por apagar los servidores que no se usen. «Lo mejor para ahorrar energía es no utilizarla», recalca la compañía, que recuerda que «servidores y discos duros deberían estar encendidos sólo cuando son necesarios, de forma que éstos puedan conectarse directamente en cuanto que un incremento de la demanda lo requiera».
La tercera opción es emplear técnicas de ahorro de energía ya aplicadas hoy en día a los ordenadores portátiles. Cuando la demanda lo permita, las organizaciones «deberían programar los servidores para que funcionen a una velocidad inferior a la normal, con la consiguiente reducción en el consumo de energía», asegura EDS.
Además, -opina-, «las empresas deberían siempre elegir un servidor con el suministro de energía más eficiente disponible conla configuración seleccionada».
Optimizar las aplicaciones que operen desde el centro de datos es otro de los consejos de EDS, ya que «un software ineficiente o que produce poco valor de negocio debería ser reducido, optimizado o eliminado».
El mantenimiento riguroso también es considerado fundamental por la compañía, puesto que los gestores de los centros de datos pueden mejorar la eficiencia de sus capacidades mediante un mantenimiento que asegure que todos los equipamientos están operando al máximo de su eficiencia. «También se puede mejorar la eficiencia mediante la modificación de la distribución y configuración de los equipos para reducir en enfriamiento de los mismos», añade EDS.
Además, los procesadores más veloces permiten aumentar la eficiencia mientras se reduce el uso energético, y prestar atención a las operaciones de las infraestructuras es otra de las claves. «Cuando una empresa se excede en el coste de compra de un servidor, normalmente, y si éste es bueno, la ecuación se inclina a favor de una mayor eficiencia y rigor, algo tan positivo para el medio ambiente como para las cuentas de la empresa», explica la compañía.
Y es que, otra de sus recomendaciones es «invertir en ser verde», puesto que «es importante buscar aplicaciones tecnológicas innovadoras que supongan un considerable impacto tanto para las empresas como para los clientes». Como ejemplo, EDS cita los interrumpores que se apagan automáticamente, que pueden ahorrar hasta un 40% de electricidad, los termostatos programables para normalizar la temperatura cuando se desocupen los edificios, etc.
Finalmente, EDS adelanta que «el mundo verá una explosión de tecnologías de la información que se irán desarrollando según nos movamos a un régimen de menor consumo energético en edificios nuevos y antiguos en los próximos años». «Las ventajas de consumir menos electricidad reducen los costes estructurales y el carbono en la atmósfera, lo que es bueno para el negocio y para el planeta», asevera.
Fuente: Europapress
Desde la creación del primer transistor en 1947 hasta los incorporados en los procesadores de los ordenadores actuales, el tamaño se ha reducido tanto que se ha pasado de los cuatro transistores de una radio de 1950 a los invisibles 820 millones de un procesador Intel de hoy. EFE Esta multinacional recuerda que el primer transistor fue creado hace 60 años (1947) en los Laboratorios Bell y se han convertido en los responsables de que los dispositivos electrónicos funcionen gracias a los procesos básicos de encendido y apagado, base del código binario.
Para acelerar la evolución del transistor, los laboratorios Bell ofrecieron el desarrollo del transistor a cambio del pago de una licencia de 25.000 dólares a 26 compañías, entre las que se encontraban IBM y General Electric.
Con el paso de los años, el tamaño se redujo tanto que hoy día se venden cerca de 10.000.000 billones de transistores al año, una cantidad equivalente a 100 veces el número calculado de hormigas que viven en la Tierra.
La fabricante de chips Intel informó, en una retrospectiva sobre los 60 años del transistor, que el primer procesador para ordenadores personales de la compañía apareció en 1981 con el nombre «Intel 4004» e incorporaba 2.300 transistores.
Hoy día, Intel comercializa procesadores de cuatro núcleos que contienen en su interior transistores del tamaño de 45 nanómetros (un nanómetro es la milmillonésima parte de un metro).
Estos transistores son tan diminutos que un total de 2.000 cabrían en la anchura de un pelo humano y 30 millones cabrían en la anchura de la cabeza de un alfiler de 1,5 milímetros.
La reducción en el tamaño de los transistores y la división por núcleos de los procesadores Intel (los «quad core» trabajan con 4 núcleos), permiten ahorros de tiempo de trabajo en ordenador en torno a un 82 por ciento si codificamos vídeo y en torno a un 96 por ciento si procesamos hojas de cálculo.
Asimismo, según la compañía, los procesadores actuales reducen la cantidad de energía necesaria que los procesadores consumen, despiden menos calor al manejar volúmenes menores de datos y aceleran los procesos de trabajo.
Intel explicó que el proceso de fabricación de un procesador o chip pasa por el análisis de las necesidades del usuario, la determinación del tamaño final de un procesador, la cantidad de transistores a incluir y la creación de la tecnología necesaria para fabricarlos.
En cuanto a su composición, los procesadores están formados por estos diminutos transistores que son insertados en obleas de silicio mediante procesos de fijación con resina.
A esta resina se le imprimen unos patrones, con espacios sellados y protegidos, mediante procesos de grabado óptico por fotolitografía.
Los procesadores son posteriormente bañados con iones para que los transistores insertados en ellos desempeñen las funciones de encendido y apagado que componen el código binario y que hacen funcionar los dispositivos electrónicos.
Finalmente, la oblea de silicio se completa con capas de cobre, se corta y se convierte en un procesador individual, colocado en un ordenador por procesos de encapsulado y proporcionándole protección, energía para funcionar y conexiones con la placa de circuitos del dispositivo.
Fuente: farodevigo.es