¿Cómo se puede llegar a las sorprendentes cifras de que la memoria del cerebro es de 500 petabytes y la capacidad de proceso de un exaflops? Especulando y realizando múltiples supuestos. El resultado es una estimación que puede estar errada en varios órdenes de magnitud. Expongo el razonamiento para que cada cual saque sus conclusiones.
Grandes números.
La primera estimación es la del número de neuronas en el cerebro. El dato más repetido en la red es 10 000 000 000 (10^11). Considero equivalente cerebro y encéfalo (brain en inglés) y que incluye todas las estructuras dentro del cráneo como el cerebelo y el córtex (que solo representa 1/5 parte del cerebro).
El número de sinapsis es también una estimación. Una neurona puede tener hasta 100 000 sinapsis. La media está entre 5 000 y 10 000. Considero para el cálculo 5 000 sinapsis por neurona. El número total de sinapsis, es de 500 000 000 000 000 (10^14*5).
Neuronas Integrate&Fire y neuronas biológicamente realistas.
Las simulaciones utilizan dos tipos de neuronas. La mayoría de ellas usan un modelo Integrate&Fire. Se trata de una neurona sin representación espacial que integra la entrada que proviene de otras neuronas y decide dispararse o no. Es un modelo válido para múltiples casos y el más utilizado. De otro lado están las neuronas biológicamente realistas. Estas usan una representación tridemensional y computan lo que ocurre en cada segmento de la neurona: dendritas, cuerpo y axón. Sus necesidades computacionales son 10 000 veces superiores que las Integrate&Fire.
Estimaciones
El proyecto Blue Brain usa neuronas realistas. Henry Markham estima que la memoria necesaria para simular el cerebro es 500 petabytes y la capacidad de cómputo es de un exaflops. Como se verá, esta es la estimación que considero más realista.
Dharmendra S. Modha ha realizado una simulación con neuronas Integrate&Fire de la que se pueden extrapolar datos. Uno de ellos es que necesita 16 bytes por sinapsis para que la simulación sea operativa. Modha habla solo del córtex y de 10 000 sinapsis por neurona. Su predicción es que se necesitan cuatro petabytes (4 000 000 000 000 000) de memoria y un exaflops (1 000 000.000 000 000 000) de capacidad de proceso. Corregido el dato de memoria, mi primera aproximación es de ocho petabytes:
Se trata de neuronas Integrate&Fire, es decir, de neuronas simplificadas. ¿Podemos simular la expresión de los genes o la proximidad a otras neuronas? No podemos. Dado que las necesidades computacionales son 10 000 mayores en las biológicamente realistas, el cálculo arroja la cifra de: Memoria = 80 exabytes (80 000 000 000 000 000000). Muy lejos de la estimación de Modha y también de la de Markham (aunque solo 160 veces más). Dado que este último ya usa neuronas realistas, considero válida su cifra de:
Memoria = 500 petabytes (500 000 000 000 000 000)
Ampliar en: Sinapsis
Bajo licencia Creative Commons
Deja un comentario