En poco más de medio siglo de computación el avance en tecnología ha sido gigantesco. Desde que Von Neumann diseñó la arquitectura que lleva su nombre, todos los ordenadores se han construido basados en ella. Gordon Moore estableció la famosa ley que lleva su nombre, la ley de Moore. Según esta ley empírica, cada dos años se duplica el número de transistores en un circuito integrado. Todo esto está basado en la lógica y la física. Y ahí está precisamente uno de los problemas actuales, en la física. En una reciente presentación sobre el esperado chip POWER8, el ponente hizo una broma al respecto: “he preguntado a los físicos y me han confirmado que la física no ha cambiado”. Y es que nos acercamos a la frontera del átomo y no es probable que la ley de Moore se siga cumpliendo.
El otro de los problemas está en la lógica. Como gusta recordar a nuestra presidenta, Virginia Marie “Ginni” Rometty, estamos iniciando la tercera era de la computación. De las tabuladoras pasamos a los ordenadores programables y de ahí a la computación cognitiva. El esfuerzo de programar ordenadores es demasiado costoso, necesitamos otro paradigma, ordenadores que aprendan, computación cognitiva.
¿De dónde podemos aprender? ¿En qué podemos inspirarnos? En el mundo vivo, en la biología.
La neurona, base del sistema nervioso, es un dispositivo muy antiguo. Apareció probablemente en la explosión cámbrica hace la respetable cifra de quinientos millones de años. Es un dispositivo lento comparado con un procesador actual, pero con una gran cantidad de ventajas: conectividad, bajo consumo y plasticidad. El cerebro humano contiene 86000000000 de neuronas que trabajan en paralelo de forma coordinada. Consume apenas 20 watios, lo que una bombilla pequeña (un superordenador muy eficiente como Sequoia de IBM consume siete megawatios, 350000 veces más que el cerebro). Y, sobre todo, tiene plasticidad, aprende.
Fuente: PRIMUM NON NOCERE 2013
Deja un comentario