Redes neuronales dinámicas Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Inteligencia Computacional - FICH - UNL Introducción: ¿por qué dinámicas? Inteligencia Computacional - FICH - UNL Introducción: ¿por qué dinámicas? Aproximación 1: entradas desplazadas y(n) = f (x(n)) Inteligencia Computacional - FICH - UNL Introducción: ¿por qué dinámicas? Aproximación 1: entradas desplazadas y(n) = f (x(n)) Aproximación 2: realimentación de las salidas y(n) = f (x(n), y1 (n)) Inteligencia Computacional - FICH - UNL Introducción: ¿por qué dinámicas? Aproximación 1: entradas desplazadas y(n) = f (x(n)) Aproximación 2: realimentación de las salidas y(n) = f (x(n), y1 (n)) Aproximación 3: realimentación de estados internos y(n) = f (x(n), z1 (n)) Inteligencia Computacional - FICH - UNL Introducción: ¿por qué dinámicas? Aproximación 1: entradas desplazadas y(n) = f (x(n)) Aproximación 2: realimentación de las salidas y(n) = f (x(n), y1 (n)) Aproximación 3: realimentación de estados internos y(n) = f (x(n), z1 (n)) Caso general: y(n) = f (x(n), z1 (n), y1 (n)) Inteligencia Computacional - FICH - UNL Clasificación Redes neuronales dinámicas (DNN) • Redes con retardos en el tiempo (TDNN) Inteligencia Computacional - FICH - UNL Clasificación Redes neuronales dinámicas (DNN) • Redes con retardos en el tiempo (TDNN) • Redes recurrentes (RNN) • Redes totalmente recurrentes • Redes parcialmente recurrentes (PRNN) Inteligencia Computacional - FICH - UNL Clasificación Redes neuronales dinámicas (DNN) • Redes con retardos en el tiempo (TDNN) • Redes recurrentes (RNN) • Redes totalmente recurrentes • Redes de Hopfield (memorias asociativas) • Redes de Boltzman (supervisadas) • Teoría de la resonancia adaptativa (ART) • Redes parcialmente recurrentes (PRNN) Inteligencia Computacional - FICH - UNL Clasificación Redes neuronales dinámicas (DNN) • Redes con retardos en el tiempo (TDNN) • Redes recurrentes (RNN) • Redes totalmente recurrentes • Redes de Hopfield (memorias asociativas) • Redes de Boltzman (supervisadas) • Teoría de la resonancia adaptativa (ART) • Redes parcialmente recurrentes (PRNN) • Retropropagación a través del tiempo (BPTT) • Redes de Elman • Redes de Jordan Redes de Hopfield Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Inteligencia Computacional - FICH - UNL Redes de Hopfield Arquitectura Inteligencia Computacional - FICH - UNL Redes de Hopfield Modelo matemático yj (n) = sgn(x) = sgn N X ! wji yi (n − 1) − θj i=1 wji = wij ∀ i 6= j wii = 0 ∀i x > 0 +1 x = 0 yj (n − 1) ··· x < 0 −1 Inteligencia Computacional - FICH - UNL Redes de Hopfield: generalidades • Cada neurona tiene un disparo probabilístico • Conexiones simétricas Inteligencia Computacional - FICH - UNL Redes de Hopfield: generalidades • Cada neurona tiene un disparo probabilístico • Conexiones simétricas • El entrenamiento es no-supervisado Inteligencia Computacional - FICH - UNL Redes de Hopfield: generalidades • Cada neurona tiene un disparo probabilístico • Conexiones simétricas • El entrenamiento es no-supervisado • Puede utilizarse como memoria asociativa Redes de Hopfield Almacenamiento y recuperación Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Inteligencia Computacional - FICH - UNL Entrenamiento (almacenamiento) Dado un conjunto de patrones (memorias fundamentales o datos limpios): X ∗ = x∗k ∈ RN Inteligencia Computacional - FICH - UNL Entrenamiento (almacenamiento) Dado un conjunto de patrones (memorias fundamentales o datos limpios): X ∗ = x∗k ∈ RN Aprendizaje Hebbiano: wji = P 1X ∗ ∗ xkj xki N k=1 Inteligencia Computacional - FICH - UNL Entrenamiento: observaciones • El proceso de entrenamiento NO es iterativo Inteligencia Computacional - FICH - UNL Entrenamiento: observaciones • El proceso de entrenamiento NO es iterativo • wji es mayor cuando las neuronas i y j se tienen que activar juntas (regla de Hebb) Inteligencia Computacional - FICH - UNL Entrenamiento: observaciones • El proceso de entrenamiento NO es iterativo • wji es mayor cuando las neuronas i y j se tienen que activar juntas (regla de Hebb) • La capacidad de almacenamiento está limitada a: Pmax = con un 1 % de error. N 2 ln(N) Inteligencia Computacional - FICH - UNL Prueba (recuperación) Dado un patrón x (incompleto, ruidoso...) se fuerza: y(0) = x Inteligencia Computacional - FICH - UNL Prueba (recuperación) Dado un patrón x (incompleto, ruidoso...) se fuerza: y(0) = x Iteración: 1. j∗ = rnd(N) 2. yj∗ (n) = sgn N P wji yi (n − 1) i=1 3. volver a 1 hasta no observar cambios en las yj Inteligencia Computacional - FICH - UNL Prueba: observaciones • El proceso de recuperación ES iterativo (dinámico) Inteligencia Computacional - FICH - UNL Prueba: observaciones • El proceso de recuperación ES iterativo (dinámico) • En general no se utilizan los θj Inteligencia Computacional - FICH - UNL Prueba: observaciones • El proceso de recuperación ES iterativo (dinámico) • En general no se utilizan los θj • La salida final es y(M) cuando no hay cambios al “recorrer” todas las salidas Inteligencia Computacional - FICH - UNL Prueba: observaciones • El proceso de recuperación ES iterativo (dinámico) • En general no se utilizan los θj • La salida final es y(M) cuando no hay cambios al “recorrer” todas las salidas • Se pueden obtener estados espúreos y oscilaciones... Inteligencia Computacional - FICH - UNL Campos energéticos de Hopfield • Almacenamiento • Recuperación Retropropagación a través del tiempo Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Inteligencia Computacional - FICH - UNL Retropropagación a través del tiempo (BPTT) Arquitectura con recurrencia total x1 (n) y1 (n) x2 (n) y2 (n) Inteligencia Computacional - FICH - UNL Retropropagación a través del tiempo (BPTT) Arquitectura con recurrencia total x1 (n) wI11 wI21 y1 (n) wI12 x2 (n) wI22 y2 (n) Inteligencia Computacional - FICH - UNL Retropropagación a través del tiempo (BPTT) Arquitectura con recurrencia total w11 x1 (n) wI11 wI12 x2 (n) y1 (n) wI21 w21 w12 wI22 y2 (n) w22 Inteligencia Computacional - FICH - UNL Expansión: propagación hacia adelante pura x1 (n) wI11 y1 (n) wI21 wI12 x2 (n) w11 wI22 w21 w12 y2 (n) w22 Redes neuronales con retardos en el tiempo Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Inteligencia Computacional - FICH - UNL Arquitectura de una TDNN Inteligencia Computacional - FICH - UNL TDNN: clasificación espacio-temporal Inteligencia Computacional - FICH - UNL Arquitecturas neuronales de Elman y Jordan Elman Inteligencia Computacional - FICH - UNL Arquitecturas neuronales de Elman y Jordan Jordan