ESCUELA SUPERIOR POLITÉCNICA
AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ
CARRERA
INFORMÁTICA
SEMESTRE SEXTO PERÍODO ABR. – AGO. /2014
INTELIGENCIA
ARTIFICIAL I
TEMA
3:
INTRODUCCIÓN
A LAS REDES NEURONALES ARTIFICIALES
AUTORA:
JENNIFER
V. LÓPEZ ÁLAVA
FACILITADORA:
ING.
HIRAIDA SANTANA
CALCETA, JULIO 2014
INTRODUCCIÓN
En este capítulo conoceremos
acerca de las características de las redes neuronales artificiales,
comparándola con las redes neuronales y la computación convencional, definiendo
las diferencia entre cada una de ellas y el enfoque que se les da. Además se
hará referencia a la historia de las Redes Neuronales Artificiales.
CARACTERÍSTICAS
DE LAS REDES DE NEURONAS ARTIFICIALES
Redes
Neuronales frente a Redes de Neuronas Artificiales.
Una de las diferencias
fundamentales entre los Sistemas Biológicos y las Redes de Neuronas
Artificiales es la complejidad de la sinapsis. En los sistemas Biológicos estos
puntos de interconexión tienen miles de componentes y de procesos activos de
propagación de los impulsos electro-químicos. En cambio, las Redes de Neuronas
Artificiales tienen conexiones relativamente simples, en las que, por lo
general, se realiza una suma ponderada de las entradas, a la que se le aplica
una función de umbral, lo que hace casi ridícula la comparación con la
complejidad de las sinapsis biológicas.
Por otro lado, en los Sistemas
Biológicos la información se propaga por medio de impulsos electro-químicos que
al llegar a las células, dependiendo de us intensidad y de una serie de
factores fisiológicos de las neuronas, producirán una serie de reacciones en
estas. Éstos impulsos se reciben en cualquier momento, de forma que el
funcionamiento de los Sistemas Biológicos se puede calificar como instante de
tiempo por lo que producen patrones temporales de forma continua. En cambio, en
las Redes de Neuronas Artificiales, los parámetros se actualizan de forma
periódica en intervalos de tiempo discretos, y, por lo general, todos a la vez;
con lo cual se le presentan los patrones en intervalos de tiempo prefijados, y
no los podrá recoger de forma esporádica de su entorno.
Además, las redes de Neuronas
tiene la propiedad de poder aprender, a partir de unas pocas presentaciones de
patrones. Por el contrario, las Redes de Neuronas Artificiales normalmente
convergen muy lentamente, y pueden necesitar de cientos o miles de
presentaciones de patrones para llegar a realizar una generalización aceptable.
Redes
de Neuronas Artificiales frente a Computación convencional
El poder de proceso de una Red
de Neuronas Artificial viene dado por el número de actualizaciones por segundo
de sus conexiones; por el contrario, en las máquinas Von Neuman se mide por el
número de instrucciones realizadas por segundo, secuencialmente, por un
procesador. En las redes de Neuronas Artificiales, durante la fase de
aprendizaje se produce el ajuste de los parámetros asociados a las
interconexiones entre neuronas. Por tanto, la medida del aprendizaje vendrá
asociada a la medida de las interconexiones actualizadas.
Las Redes Neuronales
Artificiales también se diferencian de las clásicas arquitecturas paralelas.
Primero, los procesadores en una Red de Neuronas Artificiales están masivamente
interconectados. Como resultado hay más conexiones que unidades de proceso, en
contra de lo que ocurre en las máquinas paralelas clásicas. Por otra parte, las
arquitecturas paralelas clásicas tratan de incorporar procesadores comparables
en complejidad con los de las máquinas Von Neuman; las Redes de Neuronas
Artificiales, en cambio, trasladan el poder computacional a las conexiones, no
se necesitan poderosos procesadores.
El enfoque de las Redes de
Neuronas Artificiales no requiere identificación de problemas particulares; aun
así, las Redes de Neuronas Artificiales tienen dos grandes inconvenientes:
·
El tiempo de aprendizaje de la red no puede ser
conocido a priori. No se puede determinar el número de veces que será necesario
introducir todo el conjunto de datos para que la red aprenda. En muchos
problemas de tiempo real esto puede ser un inconveniente importante. Además,
este tiempo no tiene por qué estar en relación con el tamaño del conjunto de
aprendizaje. Los conjuntos pequeños pueden requerir muchas pasadas, lo que
redundaría en un mayor tiempo de aprendizaje. Por el contrario, los conjuntos
grandes pueden contener elementos no significativos y redundantes que hagan que
el aprendizaje se produzca rápidamente.
·
El diseño de una red para resolver un problema
con éxito puede ser una tarea muy compleja y larga. El método común para
diseñar una buena red de neuronas es mediante prueba y error. Esto quiere decir
que hasta que una red no ha sido aprendida no puede ser descartada y, lo que es
peor, no tiene por qué dar indicios del camino a seguir, lo cual hace del
procedimiento algo tedioso y no sistemático.
Las redes pueden ser entrenadas
para resolver problemas de forma genérica, y no sólo para memorizar los
patrones de entrenamiento, siempre que estos patrones representen adecuadamente
el problema. Esta característica es importante y hay que tenerla en cuenta, ya
que existen algunos problemas que no pueden ser descritos de forma exhausta
mediante ejemplos, y no es posible programar procedimientos para su resolución.
Historia
de las Redes de Neuronas Artificiales
Las primeras investigaciones en
Redes Neuronales Artificiales datan de principios del siglo XIX, con algunos de
los trabajos realizador por Freud en el período del presicoanálisis. La primera
implementación de Redes de Neuronas Artificiales fue un dispositivo hidráulico
descrito por Russell. Pero no fue hasta la década de los 40, ya en el siglo XX,
cuando el estudio de las Redes de Neuronas Artificiales cobró una fuerza que se
ha ido incrementando hasta la actualidad, gracias al trabajo de varios
científicos brillantes y de los increíbles avances del hardware. Cabe destacar
varios científicos que han conseguido que las Redes de Neuronas ocupen el lugar
relevante del que gozan actualmente.
Warren McCulloch y Walter Pitts
realizaron el primer modelo matemático de unas Redes de Neuronas Artificiales.
Este modelo introduce la idea de una función de paso por umbral utilizada
posteriormente por muchos modelos como las Redes de Neuronas Artificiales
discretas de Hopfield.
Donald Hebb desarrolló
posteriormente un procedimiento matemático de aprendizaje. Los estudios de Hebb
sobre las neuronas, desarrolla un paradigma de aprendizaje que ahora lleva su
nombre –aprendizaje hebbiano-.
Marvin Minsky obtuvo los
primero resultados prácticos de Redes Neuronales Articiales. Más tarde, Albert
Uttley comenzó a desarrollar nuevos paradigmas de Redes de Neuronas
Artificiales, creando una máquina teórica compuesta de informes.
Frank Rosenblatt generalizó el
modelo de células de McColluch-Pitts añadiéndole aprendizaje; llamó a este
modelo el Perceptron. Primero desarrollo un modelo de dos niveles, que ajustaba
los pesos de las conexiones entre los niveles de entrada y salida, en
proporción al error entre la salida deseada y la salida obtenida.
Bernard Widrow diseñó una Red
Neural Artificial muy similar al Perceptron, llamada Adaptive Linear Element o
Adaline. El Adaline de dos niveles, muy parecido al Perceptron, ajusta los
pesos entre los niveles de entrada y salida en función del error entre el valor
esperado de salida el obtenido. La
diferencia entre los dos modelos es muy pequeña, pero las aplicaciones a las
que van dirigidas son muy distintas.
CIERRE
Las
Redes Neuronales Artificiales tiene muchas características, comparándola con
las Redes Neuronales y con la computación convencional, una de las
diferencias fundamentales entre los Sistemas Biológicos y las Redes de Neuronas
Artificiales es la complejidad de la sinapsis, debido a que en las Redes de
Neuronas Artificiales se utilizan conexiones relativamente simples, en las que,
por lo general, se realiza una suma ponderada de las entradas, a la que se le
aplica una función de umbral, así mismo, las redes de Neuronas tiene la
propiedad de poder aprender, a partir de unas pocas presentaciones de patrones,
lo cual no es el caso de las Redes de Neuronas Artificiales que normalmente
convergen muy lentamente, y pueden necesitar de cientos o miles de
presentaciones de patrones para llegar a realizar una generalización aceptable.
Comparada con la Computación convencional el poder de proceso de una Red de
Neuronas Artificial viene dado por el número de actualizaciones por segundo de
sus conexiones; por el contrario, en las máquinas Von Neuman que se mide por el
número de instrucciones realizadas por segundo, secuencialmente, por un
procesador. Y, en las redes de Neuronas Artificiales, durante la fase de
aprendizaje se produce el ajuste de los parámetros asociados a las
interconexiones entre neuronas es decir, la medida del aprendizaje vendrá
asociada a la medida de las interconexiones actualizadas.
La
historia de las Redes Neuronales Artificial se dice que se iniciaron las
primeras investigaciones a principios del siglo XIX, con algunos de los
trabajos realizador por Freud y que la primera implementación de Redes de
Neuronas Artificiales fue un dispositivo hidráulico, pero no fue hasta en el
siglo XX, cuando el estudio de las Redes de Neuronas Artificiales cobró una
fuerza que se ha ido incrementando hasta la actualidad,
Contribuciones
de McCulloch
y Pitts quienes realizaron el primer modelo matemático de unas Redes de Neuronas
Artificiales; Hebb que desarrollo un procedimiento matemático de aprendizaje;
Minsky, Uttley, Rosenblantt y Widrow son algunos de las personas que
desarrollaron trabajos relacionados con las Redes Neuronales Artificiales.
BIBLIOGRAFÍA
Russell,
S, y Norving P. 2004. Inteligencia
Artificial Un Enfoque Moderno. 2da ed.
Cap. 2. Pág. 37-62.

No hay comentarios:
Publicar un comentario