3.1.2.1 Redes con conexiones hacia adelante (feedforward) En las

Anuncio
3.1.2.1 Redes con conexiones hacia adelante (feedforward)
En las redes feedorward todas la señales se propagan hacia delante atreves de
las capas de la red. No existe conexiones hacia atrás (ninguna salida de neuronas
de una capa i se aplica a la entradas de neuronas de capa i-1,i-2,….),y
normalmente auto recurrentes (salida de neurona aplicada a su propi entrada).
Modelos de red propuesta por kohonen denominados LEARNING VECTOR
QUARTIEZER (LVQ) Y TOPOLOGYA RESERVING MAP (TPM) en la que existen
conexiones implícitas muy particulares entre las neuronas de la capa de salida.
Las redes feedforware mas conocidas son:
PERCEPTRON,ADALINE,MADALINE,LINEAR ADAPTIVER
MEMORY,(LAM),DRIVE-REINFORCE, toda ellas son especialmente útiles en
aplicaciones de reconocimiento o clasificación de patrones.
3.2.2.1 Aprendizaje por corrección de error
Consiste en ajustar los pesos de as conexiones de la red en función de a
diferentes entre los vaolres deseados de los obtenidos en la salida de la red
Variación en el peso de la conexión entre neuronas i y j
Y1 :valor de la salida de la neurona i.
dj: valor de la salida deseado para la neurona j.
yj: valor de salida obteniendo en la neurona j.
a: factor de aprendizaje (0<a<1) que regula la velocidad del aprendizaje.
Un ejemplo lo constituye la regla de aprendizaje del perceptron utilizada en el
entrenamiento del mismo desarrollado por Rosenblant.
Un algoritmo muy conocido que mejora al perceptron y permite un aprendizaje
mas rápido y un campo de aplicación mas amplio es el propuesto por widrow
denominado delta o regla del minimo error cuadrado que se aplico en las redesde
adeline con una única neurona de salida y madaline con varias neuronas de
salida.
Widrow y Hoff definieron una función que permitia cuantificar el error global
contenido en el proceso de entrenamiento de la red. Ya que causa mas
información sobre el error cometido y asi mas rápido poder aprender.
Siendo
n: numero de neuronas de salida (en el caso de adeline n=1)
p: numero de información que debe aprender la red.
Aprendizaje por corrección de error lo constituye el denominado regla delta
generalizada o algoritmo de retroprogramacion del error.
Se trata de aplicarla a redes con conexiones hacia delante con capas o niveles
internos u ocultos de neuronas que no tienen relación con el exterior son redes
con capa de entrada, capas ocultas y capas de salida.
Las redes multicapa pueden utilizarse en muchas mas aplicaciones conocidas
perceptron, adeline, madaline. Pero su poseso de aprendizaje es mucho mas
lento. Es deir debe establecer cual va ser su papel en el funcionamiento de la red.
El algoritmo backpropagation se suele utilizar en redes multicapa que presentan
conexiones recurrentes en el fin de que estas redes aprendan la naturaleza
temporal de algunos datos
En el caso de la red BRAINT.STATE-IN-A-BOX el aprendizaje de esta red es sin
supervivion se suele refinar los valores de los pesos de las conexiones mediante
un aprendizaje por corrección de error basado en un adaptación de la regla delta
de widrow-Hoff.
3.5 Caracteristicas de los modelos de redes neuronales mas conocidos
Topologias
Mecanismos de aprendizaje
Tipo de asociacion de la informacion de entrada y salida y la forma de representar
Señaes de entrada/salida
Autores
Descargar