IX. COMPUTADORAS NEURONALES

EN CAPÍTULOS anteriores mencionamos que la computación ha tomado un nuevo rumbo, y que se ha empezado a trabajar en la creación de computadoras con habilidades para la solución de los problemas complejos. En este capítulo tenemos tres objetivos: primero, quisiéramos explicar las bases de los modelos de física estadística, que se han introducido con el objeto de describir y entender algunas de las propiedades colectivas de un arreglo de neuronas interconectadas; en segundo lugar, quisiéramos revisar, desde esta nueva perspectiva, algunas características de las memorias asociativas, y por último quisiéramos comentar acerca de algunos progresos que se han hecho en la construcción de redes neuronales artificiales.

MODELO DE VIDRIO DE ESPÍN

PARA REDES NEURONALES

Denominaremos red neuronal a un conjunto compuesto por un número muy grande de neuronas interconectadas. Ahora contamos con las herramientas matemáticas y los conceptos físicos necesarios para introducir el modelo de vidrio de espín para redes neuronales, el cual nos permitirá estudiar algunas de sus propiedades colectivas. Únicamente se requiere hacer algunas simplificaciones, que a continuación mencionamos, a propósito de las neuronas y de sus conexiones.

Aunque existe una gran variedad de formas y especializaciones entre las neuronas, básicamente su función puede resumirse en la generación y envío de señales eléctricas (Figura 48); por lo anterior, tomaremos a cada una de las neuronas como entes con dos estados posibles, ya que pueden estar activas o inactivas. Estas neuronas están en contacto, unas con otras, de manera que reciben señales provenientes de otras neuronas a través de las sinapsis. La interacción entre las neuronas podrá ser excitadora, si incita a la neurona a la actividad, o inhibidora, si tiende a mantenerla en reposo. Finalmente, la red neuronal recibe señales del exterior a través de las células receptoras. De esta manera, cada neurona, promediará las señales que recibe, y si la señal resultante tiene una magnitud mayor que un cierto umbral característico, entonces ajustará su estado emitiendo una señal de respuesta (Figura 49). En caso contrario permanecerá en reposo, esto es, no emitirá ninguna señal de respuesta.

Si aceptamos estas simplificaciones, 1 entonces podemos decir que una red de neuronas interconectadas podría ser descrita por el mismo hamiltoniano introducido en el capítulo anterior, si se escoge el conjunto apropiado de interacciones Jij. De esta manera, sabemos que todas las características que este hamiltoniano predice para los vidrios de espín tienen una contraparte en este modelo para las redes neuronales; en particular, la existencia de un espacio de configuraciones con un gran número de mínimos locales. Y como explicaremos a continuación, esta característica es precisamente que permite que un sistema tan simple como el que hemos descrito sea capaz de almacenar información. La figura 50 muestra un cuadro en el que se establece la analogía entre una red neuronal y un vidrio de espín, y se incluye la traducción entre los términos matemáticos utilizados en la descripción de ambos tipos de sistemas.

Figura 48. Aunque existe una gran variedad de formas y especializaciones entre las neuronas, básicamente su función pueda resumirse con generación y envío de señales eléctricas.

Figura 49. Las hileras de libros de esta figura muestran que los impulsos nerviosos son un evento del tipo todo o nada. Un estímulo si es demasiado débil, no producirá ningún efecto; pero si su "fuerza" está por encima de cierto umbral, entonces se generará un impulso nervioso. Si ahora hacemos el estímulo dos veces más intenso, tendrá el mismo efecto que el anterior.

Físicamente, el hecho de que para una red de neuronas se prediga una energía" con muchos mínimos, se debe a que cada neurona recibe señales provenientes de un número muy grande de otras neuronas, algunas de las cuales pueden ser excitadoras y otras inhibidoras. Sin embargo, la neurona no puede excitarse e inhibirse simultáneamente, por lo que "suma" las señales de entrada. Si la señal total es más fuerte que un cierto umbral, entonces la neurona se excita y emite una señal de respuesta; en caso contrario, la neurona permanece inactiva. De esta manera, podemos decir que siempre habrá un gran número de ''pares frustrados'' de neuronas, debido a que dichos pares no contribuyen a reducir la energía total de la red. 2

La frustración existente en la red ocasiona que haya muchos estados "naturales o de energía mínima. En un momento dado, la evolución hacia uno y otro de estos estados naturales dependerá, en gran medida, del estado neurofisiológico previo (conjunto de los estímulos recibidos, tanto del interior como del exterior del organismo), de la misma manera que nuestro caminante arribará a uno u otro valle dependiendo del lugar donde inició su caminata.

Según este esquema, los procesos de reconocimiento y aprendizaje consisten en lo siguiente. Continuamente nuestro cerebro recibe una gran cantidad de información. Esta información es adquirida a través de las neuronas receptoras (vía nervio óptico, neuronas sensoriales, terminales olfativas, etcétera), y su función es llevar al cerebro a un cierto estado al que llamaremos "estado inicial" (estos estímulos actúan como el helicóptero que traslada al caminante de una región a otra). A partir de ese momento se lleva a cabo un proceso de "relajamiento", por medio del cual el estado del cerebro evoluciona hacia estados cada vez "más naturales", hasta llegar a algún estado cercano de energía mínima; 3 esto es, reconocemos. De esta manera, ciertas imágenes visuales, sensaciones táctiles, sonidos, olores, nos evocan personas, hechos, situaciones; conocimientos adquiridos anteriormente y relacionados de alguna manera con la señal que los "provocó". Mientras esto sucede, las "montañas", "collados", "valles", de nuestro espacio de estados se modifican a través de un proceso continuo de aprendizaje y de ajuste a las condiciones externas, ya que en todo momento estamos interactuando con el medio ambiente y somos retroalimentados por éste. Esto es, el aprendizaje consiste en el proceso por medio del cual las interacciones sinápticas se modifican, de manera que un estado en particular se convierte en un estado de energía mínima, y por lo tanto, en un estado "atractivo".

Figura 50. Esta tabla resume la analogía matemática entre una red de neuronas interconectadas y un vidrio de espín.

Este modelo nos permite tener una visión cualitativa acerca del carácter de los mecanismos relacionados, a nivel global, en los procesos de aprendizaje y remembranza. Sin embargo, aunque en principio es aplicable al cerebro o al sistema nervioso como un todo, en la práctica, si deseamos hacer cálculos matemáticos, es imposible considerar explícitamente las diferencias existentes en la arquitectura de las conexiones neuronales, en una y otra región del sistema nervioso. Por lo anterior, nos encontramos con que para poder tratar matemáticamente este modelo es necesario introducir una especie de "anatomía promedio" con la cual se desprecian estas diferencias. 4 Por otro lado, este modelo puede ser aplicable a regiones grandes de tejido nervioso, por ejemplo a la corteza cerebral. En este caso entenderíamos por estímulos externos, cualquier estímulo proveniente de neuronas ajenas a esta región.

Como explicamos previamente, en los materiales magnéticos el valor de las interacciones no varía como función del tiempo y depende del material mismo. Por el contrario, en el caso de la red neuronal, las interacciones sinápticas dependen de varios factores. A saber: la herencia, el medio ambiente y el aprendizaje. Una parte importante de la investigación a realizar consiste en encontrar de qué manera se determinan estas interacciones, y expresarla matemáticamente en forma de una regla de aprendizaje. Han sido propuestos varios modelos matemáticos para las reglas de aprendizaje, la mayor parte de los cuales son variantes de una regla propuesta por Hebb en 1949. Esta regla nos dice que el cambio en la interacción sináptica entre dos neuronas es proporcional a la correlación entre la actividad de las neuronas pre y postsináptica.

La concepción de la memoria como una propiedad colectiva de una red de neuronas interconectadas, que tiene origen en la frustración, nos proporciona la mejor explicación que tenemos hasta este momento acerca de los procesos de aprendizaje y remembranza, en seres vivos. Por otro lado, ha sido de gran utilidad en la construcción de memoria artificial.

MECANISMOS DE RECONOCIMIENTO

Y APRENDIZAJE

Hasta este momento, hemos logrado ya exponer nuestra tesis acerca de cuál es el mecanismo probable por medio del cual se almacena la información en el cerebro humano (y en general, en el sistema nervioso). Podríamos resumir esta tesis de la siguiente manera: 1) Cada percepción o evocación mental está relacionada con un estado neurofisiológico, en el cual participan, colectivamente, un gran número de neuronas; por lo cual basta con repetir el estado neurofisiológico para evocar la percepción correspondiente. 2) El proceso de evocación mental o remembranza consiste en un proceso de relajamiento, regido por las leyes de la física, en el cual el estado del cerebro evoluciona hacia estados de "energía libre" cada vez menor. 3) La geografía del espacio de estados está determinada por el conjunto de las interacciones sinápticas, y los estados memorizados corresponden a estados de energía mínima. Es por lo anterior que al cerebro "le gusta" encontrarse en dichos estados. 4) El proceso de aprendizaje consiste en el establecimiento de nuevas conexiones sinápticas entre las neuronas, y la modificación funcional o estructural de las ya existentes. De manera que la "geografía" del espacio de estados cambia, con lo cual se crean nuevos mínimos o varía el tamaño de sus cuencas. Esto es, se adquiere nueva información o se refuerza u olvida la ya almacenada. 5) Las conductas no aprendidas, esto es, innatas, reflejas o instintivas, corresponden a conexiones determinadas por la herencia. 6) Las sensaciones son un vehículo utilizado para "colocar" al cerebro en un estado neurofisiológico, a partir del cual se inicia el proceso de relajamiento que lleva a recordar. 7) La estructura del espacio de estados se modifica constantemente, debido a la continua interacción con el medio y a los procesos de ajuste a éste.

Por supuesto que este conjunto de suposiciones no proporciona una explicación a todas las características del funcionamiento de la mente, sino que, más bien, nos proporciona el marco conceptual en el que deberá llevarse a cabo la investigación posterior. Por ejemplo, no nos da explicación alguna acerca del proceso de inferencia, de la diferencia entre las actividades conscientes e inconscientes, del procesamiento explícito de la información que transforma a las sensaciones en percepciones, etcétera. Sin embargo, nos ofrece una explicación cualitativa acerca del tipo de mecanismos que intervienen en los procesos de aprendizaje y remembranza.

VOLVIENDO A LA

MEMORIA HUMANA

Aunque aún quedan muchas dudas por responder, estas ideas son consistentes con la forma en que recordamos. Esto es, con el hecho de que almacenamos información por contenido, y que recordamos y reconocemos mediante el uso de asociaciones de ideas. Para ilustrar lo anterior, podemos divagar y tratar de interpretar algunas situaciones de la vida diaria en términos de estas nuevas ideas. 5 Seguramente al lector se le ocurrirán algunos otros ejemplos importantes.

A veces tenemos recuerdos pasajeros que de pronto "se nos escapan", y pasamos algún tiempo tratando de recordar sin conseguirlo. Esto lo podríamos interpretar como información almacenada en un valle poco profundo, de manera que cualquier otro estímulo funciona como una perturbación que distrae y hace que la idea se pierda (véase la figura 51(a)); lo cual equivale a dar un empujón al caminante lo suficientemente fuerte como para que éste salga del pequeño agujero en el que se encontraba. Un procedimiento que utilizamos a menudo para volver a recordar tales ideas que se nos "acaban de escapar, consiste en tratar de reproducir el ambiente y sensaciones presentes en el momento en que se originó la idea (conversación, posición, etc.), con el objeto de volver a llegar a ella. Lo cual corresponde a tratar de reproducir la "condición inicial" que nos provocó el recuerdo.

En capítulos anteriores mencionamos que el trabajo de recordar explícitamente "todos y cada uno" de los recuerdos que tenemos, es una actividad incompatible con la manera en que almacenamos información. Ahora podemos justificar esta opinión: los seres vivos no almacenamos información de una manera explícita. Lo que hacemos es modificar las interacciones entre las neuronas de manera que ciertos estados neurofisiológicos se vuelven predilectos, con lo que se logra una tendencia natural del organismo a evolucionar hacia ellos. Estos estados se recordarán si la información que llega al cerebro en un momento dado es tal que lo sitúa en un estado lo suficientemente cercano a ellos. Por tanto, aunque cualquier información particular almacenada puede ser recuperada, es imposible recordar todo, ya que no hay manera de garantizar que el estado neurofisiológico del cerebro pasará lo suficientemente cerca de todos y cada uno de los recuerdos, como para ser "atraído" por éstos (habrá recuerdos con cuencas muy pequeñas o de difícil acceso).

Figura 51. Representación esquemática de varios tipos de ideas. a) Una idea que " se escapa" a causa de una perturbación (distracción), debido a que se trata de un valle poco profundo; b) una obsesión estaría caracterizada por tener una cuenca de atracción muy amplia; c) una idea difícil de recordar, debido a que no muchos estados iniciales conducen a ella.

Cualquier información particular "almacenada" en nuestra memoria es en principio recuperable; aunque en muchas ocasiones sea difícil encontrar una ruta de acceso a ella. Cuando no podemos recordar dicha información, el olvido no es un olvido real, sino una falla temporal debida a la incapacidad de encontrar la información en un momento dado. Esto es, no encontramos una "ruta de acceso" a ésta. A veces pasamos un largo periodo tratando de recordar algún dato; tiempo después, la información es recordada súbitamente debido a que continuábamos buscándola a nivel inconsciente.

De igual manera, muchas veces "olvidamos" hechos importantes de nuestra vida, debido a que nos hacen daño. Esto lo hacemos como un mecanismo de defensa ante las frustraciones y situaciones dolorosas. Sin embargo, lo que hacemos no es olvidarlos realmente, sino que perdemos el acceso a dichos recuerdos. Algunas veces es tan difícil el acceso a ellos, que se hace necesario recurrir a técnicas, como el psicoanálisis o la hipnosis, para poder recordarlos. Es por eso que uno de los objetivos del psicoanálisis consiste en recordar, analizar y racionalizar hechos y situaciones que nos causan daño, con el objeto de que sean asimilados a nivel consciente por el individuo, y dejen así de producir ansiedad.

Cuando deseamos aprender algún dato "de memoria", si no existe una correlación natural entre el dato a aprender y nuestros conocimientos, entonces debemos recurrir al uso de reglas mnemotécnicas. Estas reglas consisten en establecer relaciones entre diversas ideas, de manera que se logra una ruta, fácil y conocida, de acceso a cierta información.

En los ancianos se observa la pérdida de la habilidad para memorizar nueva información; sin embargo la memoria antigua, la cual se encuentra bien consolidada, se mantiene intacta. Este fenómeno encuentra una explicación en el hecho de que, debido a la edad, se dificulta la modificación de las eficiencias sinápticas.

Las propiedades de la percepción han sido utilizadas por los psicólogos para explorar la personalidad de los pacientes. Por ejemplo, en el test de Rorschach se presenta al paciente una serie de manchas de tinta, sin significado alguno, y se le pide interpretarlas. Como las manchas carecen de sentido, los individuos se ven obligados a imaginar posibles interpretaciones, y al hacerlo revelan sus conflictos y motivaciones más profundas. Por ejemplo, para el que tiene miedo una sombra puede ser confundida con un hombre al acecho, y para una persona obsesionada por el sexo cualquier forma imprecisa puede cobrar un significado erótico. De igual manera, la libre asociación de ideas constituye una herramienta muy importante en la interpretación de los sueños. En ambos casos, la explicación de estos fenómenos se encuentra en que nuestras obsesiones están relacionadas con muchos aspectos de nuestra vida. Podríamos ver las obsesiones como recuerdos con cuencas de atracción muy amplias, las cuales cubren una gran proporción de los estados posibles, de manera que un gran número de estímulos sensoriales conducen a ellas (véase la figura 51(b)). Esto hace que las obsesiones sean ideas difíciles de apartar de nuestra mente.

También podríamos tratar de reinterpretar con base en estas ideas algunas enfermedades, como la esquizofrenia. En los casos en que se produce un desdoblamiento de la personalidad, esto correspondería, tal vez, a una separación del "espacio de estados", originada por la presencia de una gran barrera; de manera que el acceso de una a otra región sea muy improbable. Esto propicia que sea difícil pasar de una región a otra, y que haya ciertas situaciones concretas que propicien este paso. Asimismo, puesto que algunas drogas modifican temporalmente la transmisión sináptica, tienen como efecto la alteración de la percepción del individuo.

REDES NEURONALES ARTIFICIALES

Algunas personas califican a los modelos de física estadística para redes neuronales de meras metáforas. Sin embargo creemos que se trata de más que una metáfora, ya que se ha demostrado que la frustración puede actuar como un mecanismo que permite el almacenamiento de información en una red constituida por elementos simples, con dos estados posibles, que interactúan entre sí. La prueba más palpable de que esto sucede la constituyen los logros recientes en la construcción de redes neuronales artificiales, acerca de los cuales hablaremos a continuación.

Existen muchas variantes de redes neuronales, también llamadas "modelos conexionistas". Sin embargo, todas tienen una estructura similar: están formadas por un gran número de procesadores simples, ya sea con dos estados posibles o con varios niveles de actividad. 6 Estos elementos están agrupados, de manera que los elementos en un grupo se encuentran interconectados entre sí; por otro lado existen conexiones entre diferentes grupos, o capas. Todas estas conexiones son modificables, con el objeto de que la red presente el comportamiento deseado.

La operación de las redes neuronales consiste de dos etapas, que pueden presentarse solas o combinadas. Estas son: i) la etapa de aprendizaje, 7 durante la cual el valor de las interacciones es variado de acuerdo con la experiencia o "entrenamiento" proporcionado, con base en alguna regla de aprendizaje; y ii) una vez que las conexiones están establecidas, la red debe ser "estimulada" de manera que lleve a cabo el trabajo que uno desea, esto se logra alimentando a la red con un estado inicial, a partir del cual la red procede a encontrar la información deseada.

Además del tipo de computadoras con arquitectura "neuronal", existe la posibilidad de "simular" estas redes mediante el uso de programas que operan en computadoras convencionales. Esto es, se hace un programa en el que se definen los elementos base tipo neurona, y se supone una regla de aprendizaje; esta regla da un valor para las interacciones entre las neuronas, como función de los datos administrados a la máquina. La rapidez de operación y capacidad obtenidas mediante el uso de estos programas son mucho menores que las que se lograrían mediante el uso de una computadora neuronal (red neuronal implementada en circuitería). Sin embargo, aunque estos programas son lentos, dan resultados más satisfactorios que los logrados con algoritmos complicados. Por otro lado, constituyen una opción económica con respecto a las computadoras con arquitectura neuronal, ya que no es necesario comprar una nueva computadora de uso específico.

Un ejemplo concreto de la eficiencia de las redes neuronales nos lo dan los programas cuyo propósito es la conversión de texto escrito a inglés hablado (con ayuda de un sintetizador de voz). En este sentido el idioma inglés presenta un gran reto, ya que aunque cuenta con muchas reglas fonéticas, estas reglas tienen un gran número de excepciones y casos particulares. Por otro lado, lo ideal sería que la computadora "leyese de corrido", lo cual hace que se requiera gran rapidez en el procesamiento de la información. A lo largo de varios años, fue desarrollado un paquete de software (para computadora tradicional) denominado DECtalk. Este sistema, aunque de una gran complejidad, fue capaz de llevar a cabo esta tarea de manera satisfactoria, esto es, con pequeños y ocasionales errores de pronunciación. Recientemente, se creó un nuevo sistema, 8 llamado NETtalk, con el mismo objetivo. En este caso, a sus creadores les tomó menos de tres meses desarrollar, a partir de cero, un sistema que efectuara la misma tarea con una eficiencia similar. Resulta curioso, aunque predecible, que durante la etapa de entrenamiento del sistema éste cometía el mismo tipo de errores que los niños pequeños.

Con respecto a las arquitecturas neuronales, ya han sido patentados varios modelos de éstas. En estas computadoras, cada "neurona" artificial constituye un elemento procesador que funciona independiente y simultáneamente a los demás. Las diferencias principales entre las computadoras tradicionales y las computadoras neuronales se resumen en la figura 52.

EL FUTURO

Como mencionamos en la introducción, la evolución de la ciencia y la técnica en los países capitalistas se ha llevado a cabo bajo las presiones de intereses políticos y económicos, principalmente. Dentro de este contexto, la creación de máquinas pensantes es de primordial importancia, debido a su potencial de comercialización y a su uso con objetivos militares. Podríamos decir que su rango de aplicaciones sería prácticamcnte ilimitado.

    Computadoras Tradicionales Computadoras Neuronales

   

 

Útiles para seguir instrucciones precisas.

 

Útiles para resolver problemas en lo que no es posible dar una receta precisa

   

 

Excelente para efectuar cálculos matemáticos

 

No muy confiables para efectuar cálculos matemáticos.

   

 

Se alimentan con programas; se requiere del uso de algoritmos.

 

Se alimentan con datos; no se requiere del uso de algoritmos.

   

 

No "aprenden "; su desempeño es siempre el mismo.

 

"Aprenden" mediante la inspección de datos; su desempeño mejora con la cantidad de información recibida.

   

 

No toleran errores.

 

Toleran errores.

   

 

No se "equivocan" (si acaso, el que se equivoca es el programador).

 

Pueden equivocarse.

   

 

No usan los datos guardados en su memoria, a menos que éstos sean explícitamente "llamados" por el programa.

 

Usa activamente, toda la información guardada en la memoria.

   

 

Su funcionamiento depende del buen funcionamiento de TODOS sus componentes.

 

Su funcionamiento no se ve alterado por la falla de un pequeño número de sus componentes.

Figura 52. Esta tabla compara las características de las computadoras convencionales y las computadoras neuronales.

Lo anterior ha sido advertido por los gobiernos de los países poderosos, quienes apoyan de manera substancial proyectos institucionales y regionales cuyo propósito es la planeación de la investigación en este campo. Como muestra de lo anterior tenemos que Alemania (oeste) tiene un presupuesto gubernamental de 100 millones de dólares destinados exclusivamente al desarrollo de esta área; Japón tiene un programa llamado fronteras humanas, y la Comunidad Económica Europea ha creado un programa llamado BRAIN (investigación básica en inteligencia adaptativa y neurocomputación). Por otro lado, a finales de 1988 la oficina de tecnología táctica del gobierno de Estados Unidos de América recomendó una inversión federal de casi 400 millones de dólares para investigación y desarrollo de redes neuronales. De igual manera, en estos países se han venido formando asociaciones científicas de investigadores activos y estudiantes interesados en estos proyectos. Estas asociaciones agrupan personas con diversas formaciones profesionales, que incluyen psicólogos, neurobiólogos, matemáticos, computólogos, físicos e ingenieros.

También la iniciativa privada ha dedicado fuertes sumas de dinero para el desarrollo de sus propios proyectos de redes neuronales. Se calcula que para finales de 1988 había ya más de 200 compañías privadas en los Estados Unidos dedicadas a la fabricación de redes neuronales; por otro lado, cualquier revista de computación contiene una larga lista de anuncios relacionados con esta nueva tecnología que evoluciona día a día. Los cambios pequeños en las máquinas se dan mediante un proceso similar al de selección natural. Un fabricante introduce variaciones en su producto que lo hacen más útil o, al menos, más atractivo para el consumidor. Como resultado, el producto gana mercado a los productos elaborados por sus competidores. Estos últimos, para poder subsistir y recuperar mercados, deben innovar su producto introduciendo características análogas o superiores a las de los productos de los otros fabricantes. En este proceso muchas pequeñas compañías, incapaces de incorporar todos los avances tecnológicos, desaparecen. Otras compañías se consolidan y adquieren un lugar importante.

Creemos que bajo toda esta presión, las redes neuronales tendrán un gran impulso en los años que se avecinan (Figura 53), y que esto repercutirá, aún más, en todos los aspectos de nuestra vida. Estas computadoras no substituirán a las computadoras convencionales, sino que las complementarán. De manera que podremos contar con computadoras híbridas, que utilicen uno u otro tipo de computación, dependiendo del problema, o de la parte del problema a resolver. Pero, ¿qué tan lejos nos encontramos de construir máquinas tan poderosas como el cerebro humano?

Figura 53. Se avecina la era de las computadoras neuronales.

El cerebro humano tiene un número de conexiones del orden de 1015, transmite 1016 impulsos eléctricos por segundo; por otro lado, el cerebro de una mosca trabaja enviando 109 señales por segundo. En comparación, la neurocomputadora TRW Mark V tiene 107 interconexiones y envía 1.6 X107 señales por segundo; y los programas de redes neuronales escritos para computadoras personales funcionan típicamente con 30 000 interconexiones que envían 25 000 señales por segundo. Como podemos ver a partir de estas cifras, existe un abismo entre el cerebro humano y las neurocomputadoras.

Aunque la tecnología de este nuevo tipo de computadoras está aún en su infancia, existe un gran entusiasmo y optimismo acerca de su futuro. Sin embargo, se considera muy remota la posibilidad de construir algo equiparable al cerebro humano. Según B. Widrow, director de la Sociedad Internacional de Redes Neuronales e inventor de un dispositivo tipo red neuronal utilizado para líneas de teléfonos de larga distancia, pasarán "más de mil años" antes de que se puedan construir cerebros sintéticos. Y usted, ¿qué cree?

Queremos recalcar que estas suposiciones no son necesariamente únicas, y que han sido escogidas por simplicidad; por lo que modelos más elaborados pueden tomar en cuenta otras aproximaciones que en este caso no hemos considerado.
Las neuronas contribuyen por pares a la energía total del sistema. Entonces, aunque cada neurona haga lo que más le conviene en forma individual, no podrá "tomar una actitud" que satisfaga a todos, y con algunos vecinos quedará bien y con otros no. Es por eso que hablamos de "pares frustrados".
Cercano en el espacio de estados.
Debemos recordar que para hacer cálculos matemáticos debernos conocer el valor de las interacciones Jij
Queremos advertir al lector que las interpretaciones presentes en esta sección no son hipótesis de trabajo, por lo que no son esenciales para "el éxito" de los modelos que hemos introducido.
Como mencionamos anteriormente, existen variaciones del modelo que introdujimos en el capítulo anterior.
Lo cual suple a la programación en una computadora convencional.
Red neuronal similada.