ESCUELA SUPERIOR POLITÉCNICA
AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ
CARRERA
INFORMÁTICA
SEMESTRE SEXTO PERÍODO ABR. – AGO. /2014
INTELIGENCIA
ARTIFICIAL I
TEMA
4:
PERCEPTRÓN
UNICAPA
AUTORA:
FACILITADORA:
ING.
HIRAIDA SANTANA
INTRODUCCIÓN
En
esta investigación se dará a conocer que es el Perceptrón Unicapa, quien fue el
desarrollador y en que regla se basó para hacerlo y los modelos que utilizó,
además, cuáles son sus principales características, su arquitectura, la
dinámica y los pasos como aprende el
perceptrón.
PERCEPTRÓN
UNICAPA
El
perceptrón es una red de alimentación directa, esto es la información fluye
desde la capa de entrada hacia la capa de salida. Fue desarrollado por F.
Rosenblatt hacia final de la década de los cincuenta basándose en la regla de
aprendizaje de hebb y de los modelos de neuronas biológicas de McCulloch y
Pitts.
El
Perceptrón es un clasificador, asigna a un vector de N valores un valor
binario, usando una transformación no lineal. Así cada vector pertenece a una
de las particiones que crea el perceptrón.
El
perceptrón es una máquina de computación universal y tiene la expresividad
equivalente a la lógica binaria ya que podemos crear un perceptrón que tenga el
mismo comportamiento que una función booleana NAND y a partir de esta función
se puede crear cualquier otra función booleana.
El
perceptrón manifiesta aprendizaje al terminar de procesar los pesos de entrada
por un número n de iteraciones llamadas « épocas ».
Algunas
de sus características son:
-
Aprendizaje
Supervisado.
-
Reconocimiento
de patrones sencillos.
-
Clasificación
de patrones linealmente separables.
CARACTERÍTICAS PRINCIPALES DEL PERCEPTRÓN
SIMPLE
-
Sistema
capaz de realizar tareas de clasificación de forma automática.
-
A
partir de un número de ejemplos etiquetados, el sistema determina la ecuación
del plano discriminante.
-
Puede
usarse como neurona dentro de otro tipo de red de neurona artificial.
-
Aprendizaje
supervisado y conexiones en un sólo sentido.
-
Es
reconocido por su capacidad de aprender a reconocer patrones
-
Es
un modelo unidireccional compuesto por dos capas de neuronas.
-
Con
respecto al entrenamiento las neuronas de entrada son discretas y la función de
activación de las de salida es de tipo escalón
ARQUITECTURA DEL PERCEPTRÓN
La función de la primera capa es hacer de sensor, por ella entran las señales a la red. La segunda capa realiza todo el procesamiento. La manera de interconexionar ambas capas es todas con todas esto es, cada neurona de la primera capa está unida con todas las de la segunda capa.
DINÁMICA DEL PERCEPTRÓN
El
funcionamiento para ejecutar un patrón de la red es el siguiente:
1.
Se
establece el patrón de entrada en los sensores, la capa de entrada.
2.
Se
actualizan las neuronas de la capa de Salida.
Las
neuronas de actualizan de la siguiente manera:
-
Sea
el potencial de la neurona i,
-
El
peso asociado a la sinapsis que une la neurona i de la capa actual
y
j de la capa de sensores.
-
El
estado del sensor j
Entonces
Y
el estado de la neurona es o bien la función escalón si las entradas de la red
son binarias o bien la función signo si las entradas son bipolares {-1 ,1}
estadoneuronaJ=
Signo( Sumatorio( Peso(ij)*Estado(j))
APRENDIZAJE DEL PERCEPTRÓN
Los
pasos para que la red aprenda una lista de patrones son los siguientes
1.
Tomar
un patrón al azar de la lista.
2.
Se establece
el patrón de entrada en los sensores, la capa de entrada.
3.
Se
establecen los valores deseados en las neuronas de la capa de salida
4.
Se
actualizan las neuronas de la capa de Salida.
5.
Solicitar
que aprendan todas las sinapsis
6.
Si
las sinapsis han cambiado volver al paso 1
Si no han cambiado la red se ha estabilizado y
paramos.
Las
sinapsis que une las neuronas i, j aprenderá de la siguiente manera:
Sea
•
Ei = el estado de la neurona de la
capa de entrada i,
·
Pij = El peso actual asociado a la
sinapsis que une la neurona i de la capa de entrada y la neurona j de la capa
de salida.
·
Ej = El estado de la neurona de la
capa de salida j
•
Sj = El valor deseado para esa neurona
·
Pijnuevo = El peso Pij actualizado.
•
TASA =Es una constante entre 0 y 1
que indica cuanto aprende la red
·
Pijnuevo = Pij + Tasa*(( Ej - Sj) *Ei)
Hay
que destacar que el perceptrón aprende solo cuando se equivoca al clasificar el
patrón. Si clasifica correctamente el patrón, esto es, entonces con lo que no
hay aprendizaje.
con
i = 1,…, m
·
Neuronas
de entrada son discretas
·
Función
de activación de las neuronas de la capa de salida es de tipo escalón
·
Dispositivo
entrenable: determinar automáticamente los pesos sinápticos que clasifican un
conjunto de patrones etiquetados
Arquitectura (izquierda) y
función de transferencia (derecha) de un perceptrón simple.
El
perceptrón simple tan sólo puede discriminar entre dos clases linealmente
separables.
Ejemplo:
x1 y x2 dos neuronas de entrada, la operación efectuada por el perceptrón
simple consiste en:
es equivalente a
y representa una recta que define la región de decisión
determinada por el perceptrón simple.
Minsky y Papert (1969) trabajo exponiendo las
limitaciones del perceptrón simple, como consecuencia recursos de las redes
neuronales a otros campos de la Inteligencia Artificial
Región
de decisión correspondiente a un perceptrón simple con dos neuronas de entrada
Algoritmo de Aprendizaje
·
Pertenece
al grupo de algoritmos fundamentados en la corrección de errores
·
xr
conjunto de patrones de entrada, r = 1,…, N
·
cr
conjunto de clases verdaderas de dichos patrones, r = 1,…, N
·
Variables
de entrada como las de salida toman dos posibles valores: -1 y +1
·
Actualización
de pesos:
·
Si ante la presentación del r-ésimo patrón la
respuesta que proporciona el perceptrón simple es correcta, no actualizaremos
los pesos
·
Si la respuesta es incorrecta los pesos se
modificarán según la regla de Hebb
La
regla anterior se puede reescribir:
·
A
nivel práctico llegar a un compromiso para el valor del ritmo de aprendizaje, ε
o
Valor
pequeño de ε implica un aprendizaje lento
o
Valor
excesivamente grande de ε puede conducir a oscilaciones excesivas de los pesos
no aconsejables en el proceso de entrenamiento
·
El
proceso de aprendizaje es iterativo
·
Configuración
sináptica inicial con pesos pequeños aleatorios
·
Se presentan los patrones una y otra vez, con
objeto de que los pesos se ajusten iterativamente según la regla anterior:
Evolución de las regiones de
decisión establecidas por el perceptrón simple
Rosenblatt
(1962) demostró que:
ü Si la función a representar es
linealmente separable, el algoritmo anterior siempre converge en un tiempo
finito y con independencia de los pesos de partida
ü Si la función a representar no es
linealmente separable, el proceso de entrenamiento oscilará
El
algoritmo para cuando consigue clasificar correctamente todos los ejemplos.
Puede
ocurrir que línea de discriminación quede muy cerca de las muestras de uno de
los grupos.
CIERRE
Las
redes neuronales se basan en el uso del perceptrón, el perceptrón simple es una
red que hace que la información fluya desde la capa de entrada hacia la capa de
salida, tiene características como que puede ser utilizado como neurona dentro
de otro tipo de red de neurona artificial, tiene un aprendizaje supervisado y
conexiones en un sólo sentido, es
reconocido por su capacidad de aprender a reconocer patrones, entre otras. Este
tipo de red admite valores binarios o bipolares como entrada para los sensores
y los valores de su salida están en el mismo rango que los de entrada.
BIBLIOGRAFÍA
Neural Networks Framework. El
percetrón simple. Formato HTML. Consultado, 03 jul, 2014. Disponible en: http://www.lab.inf.uc3m.es/~a0080630/redes-de-neuronas/perceptron-simple.html
Redes de Neuronas Artificiales.
c2012. Percetrón Simple y Adaline. Formato HTML. Consultado, 03 jul, 2014.
Disponible en: http://www.redes-neuronales.com.es/tutorial-redes-neuronales/el-perceptron-simple.htm
Calderón, M. 2014. Inteligencia
Artificial y sus Aplicaciones. Formato PDF. Consultado, 03 jul, 2014.
Disponible en: http://xe1gqp.org.mx/temas/wp-content/uploads/2014/06/198-XE1GNW-Ines-Introduccion-a-la-inteligencia-artificial-y-sus-aplicaciones-11JUN14.pdf
Larragaña, P; Inza, I; Moujahid,
A. s.f. Tema 8: Redes Neuronales. Universidad del País Vasco. Formato PDF.
Consultado, 03 jul, 2014. Disponible en: http://www.sc.ehu.es/ccwbayes/docencia/mmcc/docs/t8s.pdf








No hay comentarios:
Publicar un comentario