martes, 22 de julio de 2014

Introducción a las Redes Neuronales Artificiales: Características


ESCUELA SUPERIOR POLITÉCNICA AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ

CARRERA  INFORMÁTICA

SEMESTRE SEXTO                         PERÍODO ABR. – AGO. /2014


INTELIGENCIA ARTIFICIAL I


TEMA 3:
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES


AUTORA:
JENNIFER V. LÓPEZ ÁLAVA


FACILITADORA:
ING. HIRAIDA SANTANA


CALCETA,  JULIO 2014



INTRODUCCIÓN
En este capítulo conoceremos acerca de las características de las redes neuronales artificiales, comparándola con las redes neuronales y la computación convencional, definiendo las diferencia entre cada una de ellas y el enfoque que se les da. Además se hará referencia a la historia de las Redes Neuronales Artificiales.

CARACTERÍSTICAS DE LAS REDES DE NEURONAS ARTIFICIALES
Redes Neuronales frente a Redes de Neuronas Artificiales.
Una de las diferencias fundamentales entre los Sistemas Biológicos y las Redes de Neuronas Artificiales es la complejidad de la sinapsis. En los sistemas Biológicos estos puntos de interconexión tienen miles de componentes y de procesos activos de propagación de los impulsos electro-químicos. En cambio, las Redes de Neuronas Artificiales tienen conexiones relativamente simples, en las que, por lo general, se realiza una suma ponderada de las entradas, a la que se le aplica una función de umbral, lo que hace casi ridícula la comparación con la complejidad de las sinapsis biológicas.
Por otro lado, en los Sistemas Biológicos la información se propaga por medio de impulsos electro-químicos que al llegar a las células, dependiendo de us intensidad y de una serie de factores fisiológicos de las neuronas, producirán una serie de reacciones en estas. Éstos impulsos se reciben en cualquier momento, de forma que el funcionamiento de los Sistemas Biológicos se puede calificar como instante de tiempo por lo que producen patrones temporales de forma continua. En cambio, en las Redes de Neuronas Artificiales, los parámetros se actualizan de forma periódica en intervalos de tiempo discretos, y, por lo general, todos a la vez; con lo cual se le presentan los patrones en intervalos de tiempo prefijados, y no los podrá recoger de forma esporádica de su entorno.
Además, las redes de Neuronas tiene la propiedad de poder aprender, a partir de unas pocas presentaciones de patrones. Por el contrario, las Redes de Neuronas Artificiales normalmente convergen muy lentamente, y pueden necesitar de cientos o miles de presentaciones de patrones para llegar a realizar una generalización aceptable.
Redes de Neuronas Artificiales frente a Computación convencional
El poder de proceso de una Red de Neuronas Artificial viene dado por el número de actualizaciones por segundo de sus conexiones; por el contrario, en las máquinas Von Neuman se mide por el número de instrucciones realizadas por segundo, secuencialmente, por un procesador. En las redes de Neuronas Artificiales, durante la fase de aprendizaje se produce el ajuste de los parámetros asociados a las interconexiones entre neuronas. Por tanto, la medida del aprendizaje vendrá asociada a la medida de las interconexiones actualizadas.
Las Redes Neuronales Artificiales también se diferencian de las clásicas arquitecturas paralelas. Primero, los procesadores en una Red de Neuronas Artificiales están masivamente interconectados. Como resultado hay más conexiones que unidades de proceso, en contra de lo que ocurre en las máquinas paralelas clásicas. Por otra parte, las arquitecturas paralelas clásicas tratan de incorporar procesadores comparables en complejidad con los de las máquinas Von Neuman; las Redes de Neuronas Artificiales, en cambio, trasladan el poder computacional a las conexiones, no se necesitan poderosos procesadores.
El enfoque de las Redes de Neuronas Artificiales no requiere identificación de problemas particulares; aun así, las Redes de Neuronas Artificiales tienen dos grandes inconvenientes:
·         El tiempo de aprendizaje de la red no puede ser conocido a priori. No se puede determinar el número de veces que será necesario introducir todo el conjunto de datos para que la red aprenda. En muchos problemas de tiempo real esto puede ser un inconveniente importante. Además, este tiempo no tiene por qué estar en relación con el tamaño del conjunto de aprendizaje. Los conjuntos pequeños pueden requerir muchas pasadas, lo que redundaría en un mayor tiempo de aprendizaje. Por el contrario, los conjuntos grandes pueden contener elementos no significativos y redundantes que hagan que el aprendizaje se produzca rápidamente.
·         El diseño de una red para resolver un problema con éxito puede ser una tarea muy compleja y larga. El método común para diseñar una buena red de neuronas es mediante prueba y error. Esto quiere decir que hasta que una red no ha sido aprendida no puede ser descartada y, lo que es peor, no tiene por qué dar indicios del camino a seguir, lo cual hace del procedimiento algo tedioso y no sistemático.
Las redes pueden ser entrenadas para resolver problemas de forma genérica, y no sólo para memorizar los patrones de entrenamiento, siempre que estos patrones representen adecuadamente el problema. Esta característica es importante y hay que tenerla en cuenta, ya que existen algunos problemas que no pueden ser descritos de forma exhausta mediante ejemplos, y no es posible programar procedimientos para su resolución.
Historia de las Redes de Neuronas Artificiales
Las primeras investigaciones en Redes Neuronales Artificiales datan de principios del siglo XIX, con algunos de los trabajos realizador por Freud en el período del presicoanálisis. La primera implementación de Redes de Neuronas Artificiales fue un dispositivo hidráulico descrito por Russell. Pero no fue hasta la década de los 40, ya en el siglo XX, cuando el estudio de las Redes de Neuronas Artificiales cobró una fuerza que se ha ido incrementando hasta la actualidad, gracias al trabajo de varios científicos brillantes y de los increíbles avances del hardware. Cabe destacar varios científicos que han conseguido que las Redes de Neuronas ocupen el lugar relevante del que gozan actualmente.
Warren McCulloch y Walter Pitts realizaron el primer modelo matemático de unas Redes de Neuronas Artificiales. Este modelo introduce la idea de una función de paso por umbral utilizada posteriormente por muchos modelos como las Redes de Neuronas Artificiales discretas de Hopfield.
Donald Hebb desarrolló posteriormente un procedimiento matemático de aprendizaje. Los estudios de Hebb sobre las neuronas, desarrolla un paradigma de aprendizaje que ahora lleva su nombre –aprendizaje hebbiano-.
Marvin Minsky obtuvo los primero resultados prácticos de Redes Neuronales Articiales. Más tarde, Albert Uttley comenzó a desarrollar nuevos paradigmas de Redes de Neuronas Artificiales, creando una máquina teórica compuesta de informes.
Frank Rosenblatt generalizó el modelo de células de McColluch-Pitts añadiéndole aprendizaje; llamó a este modelo el Perceptron. Primero desarrollo un modelo de dos niveles, que ajustaba los pesos de las conexiones entre los niveles de entrada y salida, en proporción al error entre la salida deseada y la salida obtenida.
Bernard Widrow diseñó una Red Neural Artificial muy similar al Perceptron, llamada Adaptive Linear Element o Adaline. El Adaline de dos niveles, muy parecido al Perceptron, ajusta los pesos entre los niveles de entrada y salida en función del error entre el valor esperado de salida  el obtenido. La diferencia entre los dos modelos es muy pequeña, pero las aplicaciones a las que van dirigidas son muy distintas.
CIERRE
Las Redes Neuronales Artificiales tiene muchas características, comparándola con las Redes Neuronales y con la computación convencional, una de las diferencias fundamentales entre los Sistemas Biológicos y las Redes de Neuronas Artificiales es la complejidad de la sinapsis, debido a que en las Redes de Neuronas Artificiales se utilizan conexiones relativamente simples, en las que, por lo general, se realiza una suma ponderada de las entradas, a la que se le aplica una función de umbral, así mismo, las redes de Neuronas tiene la propiedad de poder aprender, a partir de unas pocas presentaciones de patrones, lo cual no es el caso de las Redes de Neuronas Artificiales que normalmente convergen muy lentamente, y pueden necesitar de cientos o miles de presentaciones de patrones para llegar a realizar una generalización aceptable. Comparada con la Computación convencional el poder de proceso de una Red de Neuronas Artificial viene dado por el número de actualizaciones por segundo de sus conexiones; por el contrario, en las máquinas Von Neuman que se mide por el número de instrucciones realizadas por segundo, secuencialmente, por un procesador. Y, en las redes de Neuronas Artificiales, durante la fase de aprendizaje se produce el ajuste de los parámetros asociados a las interconexiones entre neuronas es decir, la medida del aprendizaje vendrá asociada a la medida de las interconexiones actualizadas.
La historia de las Redes Neuronales Artificial se dice que se iniciaron las primeras investigaciones a principios del siglo XIX, con algunos de los trabajos realizador por Freud y que la primera implementación de Redes de Neuronas Artificiales fue un dispositivo hidráulico, pero no fue hasta en el siglo XX, cuando el estudio de las Redes de Neuronas Artificiales cobró una fuerza que se ha ido incrementando hasta la actualidad,
Contribuciones de McCulloch y Pitts quienes realizaron el primer modelo matemático de unas Redes de Neuronas Artificiales; Hebb que desarrollo un procedimiento matemático de aprendizaje; Minsky, Uttley, Rosenblantt y Widrow son algunos de las personas que desarrollaron trabajos relacionados con las Redes Neuronales Artificiales.
BIBLIOGRAFÍA

Russell, S, y Norving P. 2004. Inteligencia Artificial Un Enfoque Moderno. 2da ed.  Cap. 2. Pág. 37-62.