WELCOME INTO THE WORLD OF THE NN

 

Historia de las Redes Neuronales

 

Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. La construcción de máquinas calculadoras que ayuden a resolver de forma automática y rápida determinadas operaciones que resultan tediosas cuando se realizan a mano. En la actualidad existen diversas maneras de realizar procesos similares a los inteligentes humanos,  a los que podemos denominar Inteligencia Artificial (AI).

Las redes neuronales son otra forma de emular otra de las características propias de los humanos. Partiendo que las redes neuronales se fundamentan en el sistema nervioso humano.

Durante la Segunda Guerra Mundial, el gobierno de los Estados unidos construyó el ENIAC. Se trataba de una maquina capaz de calcular tablas de artillería. Era de los primeros ordenadores electrónicos (al   unísono se crearon dos más en Alemania e Inglaterra para fines también   bélicos) basado en tubos de vacío y desprovisto de partes móviles.

 Sala del ENIAC

 

Walter Pitts y Warren McCulloch intentaron explicar en 1943 el funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí podían ejecutar operaciones lógicas. Partiendo del menor suceso psíquico (estimado por ellos): el impulso todo/nada, generado por una célula nerviosa. El bucle "sentidos - cerebro - músculos", mediante la retroalimentacion producirían una reacción positiva si los músculos reducen la diferencia entre una condición percibida por los sentidos y un estado físico impuesto por el cerebro. También definieron la memoria como un conjunto de ondas que  reverberan en un circuito cerrado de neuronas. Actualmente, sabemos que las decisiones conscientes acerca de la verdad de las proposiciones lógicas se producen a un nivel más alto, y quizás participen en ellas millones de células cerebrales.

 

Durante el verano de 1951, Minsky y Edmons montaron la primera máquina de redes neuronales, compuesta básicamente de 300 tubos de vacío y un piloto automático de un bombardero B-24 (en desuso por supuesto). Llamaron a su creación "Sharc", se trataba nada menos que de una red de 40 neuronas artificiales que imitaban el cerebro de una rata. Cada neurona hacia el papel de una posición del laberinto y cuando se activaba daba a entender que la "rata" sabia en que punto del laberinto estaba. Las neuronas que estaban conectadas alrededor de la activada, hacían la función de alternativas que  seguir por el cerebro, la activación de la siguiente neurona, es decir, la elección entre "derecha" o "izquierda" en este caso estaría dada por la fuerza de sus conexiones con la neurona activada. Por ejemplo, la "rata" completaba bien el recorrido eligiendo a partir de la quinta neurona la opción "izquierda" (que correspondería a la sexta), es entonces cuando las conexiones entre la quinta y sexta se hacen más fuertes (dicha conexión)era realizada por el piloto automático), haciendo desde este momento más propensa esta decisión en un futuro.

 

 

 

 

                       ----(Minsky, Marvin)

 

 

 

 

Pero las técnicas Skinnerianas (que eran las que se habían puesto en funcionamiento en esta red neuronal) no

podrían llevar muy lejos a este nuevo engendro, la razón pasa porque esto, en sí, no es inteligencia, pues la red neuronal nunca llegaría a trazar un plan.

 Después de su Red Neuronal, Minsky escribió su tesis doctoral acerca de esta, en ella describía "cerebros mucho mayores", exponiendo que si se realizaba este proyecto a gran escala, con miles o millones de neuronas más y con diferentes sensores y tipos de retroalimentación…la máquina podría ser capaz de razonar, mas el sabia que la realización de esta Red Neuronal era imposible y decidió buscar otra forma de crear inteligencia.

En 1957, Frank Rosenblatt presentó al Perceptron, una red neuronal con aprendizaje supervisado cuya regla de aprendizaje era una modificación de la propuesta por Hebb. La verdad es que el Perceptron fue una buena idea, y es posible que los problemas que obtuvo fuesen provocados mas que nada por el exagerado entusiasmo de su creador.

La era moderna  de las redes neuronales artificiales surge con la técnica de aprendizaje de propagación hacia atrás o Backpropagation. En 1977, James Anderson desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales (neuronas) que sumaban sus entradas. En 1982 John Hopfield presentó un trabajo sobre redes neuronales en la Academia Nacional de las Ciencias; en el cual describe con claridad y rigor matemático una red a la que ha dado su nombre, que viene a ser un variación del Asociador Lineal. En este mismo año la empresa Fujitsu comenzó el desarrollo de computadores pensantes para aplicaciones en  robótica.

En 1985, el Instituto Americano de Física comenzó la reunión anual  Neural Networks for Computing. En 1987 la IEEE celebró su primera conferencia internacional sobre redes neuronales. En este mismo año se formó la International Neural Network Society (INNS) bajo la iniciativa y dirección de Grossberg en USA, Kohonen en Finlandia y Amari en Japón. En 1988, resultó la unión entre la IEEE y de la INNS que produjo la International Joint Conference on Neural Networks. Esta  nueva organización realizó 430 artículos de los cuales 63 estaban enfocados a  una aplicación. La alternativa europea fue la International Conference on Artificial Neural Networks que comenzó su andadura en septiembre de 1981, y actualmente está organizada por la Sociedad Europea de Redes Neuronales. También merece una referencia aparte la reunión anual  Neural Information Processing Systems celebrada en Denver (Colorado) desde 1987, y que probablemente represente el nivel más alto de calidad desde el punto de vista científico.[PRJ98].