11 noviembre 2009

Cerebros de silicio: de vuelta a la inexactitud

Durante las últimas décadas hemos visto cómo todo lo analógico dejaba paso a lo digital. La capacidad que ofrecen los 1's y 0's de restaurar la señal, de trabajar con ella o de realizar copias exactas sin que se pierda información, han hecho parecer un anacronismo cualquier regreso al mundo analógico.

Pero hete aquí que algo se resiste todavía a la era digital: "El cerebro humano funciona con apenas 20W de potencia, equivalente a una bombilla de bajo consumo. Por contra, un ordenador típico consume entre 300 y 600W y, si quisiéramos construir un robot con un procesador tan inteligente como el de un cerebro humano, un procesador digital que simulase por completo un cerebro, necesitaríamos entre 10 y 20 Mega Watios, el equivalente a una planta hidroeléctrica de tamaño pequeño"

¿La solución? Simular mediante circuitos analógicos, con sus imperfecciones, con sus pérdidas, al imperfecto y analógico cerebro humano, cuyas sinapsis fallan entre un 30 y un 90% de las veces y que, sin embargo, funciona tan bien (y más teniendo en cuenta que 1 error de entre un billón de bits en un ordenador puede ser desastroso). Bajísimo consumo y una gran tolerancia a fallos podrían ser el camino que nos muestra la naturaleza a la hora de desarrollar las nuevas computadoras... analógicas.

Visto en Mind Hacks.

Share/Save/Bookmark

2 comentarios:

sairutsa dijo...

Para ello utilizamos las RNA´s.

Una solución es la regla delta (con su complementaria regla delta generalizada). Ambas son algoritmos de aprendizaje de las RNA´s.

Otra solución son las "redes constructivistas", que permiten la adición de nuevas unidades a la red de aprendizaje (éstas unidades forman las RNA´s).
Para más información:
http://www.e-torredebabel.com/Psicologia/Conexionismo/Conexionismo-ParaExplicarelCerebro.htm

Respecto a la tolerancia a los fallos, tenemos el simulacionísmo (en contraposición a la IA).

;)

Un barquero chiquitito dijo...

La clave es poder simular el cerebro, mediante RNA o no, pero NO en grandes computadoras, como se viene haciendo hasta ahora. Esas grandes computadoras consumen entre 500 y 10.000 veces más energía que un modelo analógico, aunque este último tiene mucho ruido y muchos fallos. Pero como precisamente eso es lo que realmente existe en el cerebro, ruido y fallos, no merecería la pena utilizar una gran computadora que simule también ese ruido cuando lo podemos tener si trabajamos con circuitos analógicos. Esto es lo que propone Kwabena Boahen, de la Universidad de Stanford.