Observar el siguiente video: Convolución Discreta https://www.youtube.com/watch?v=3PflHiLSFzM Ver el siguiente video: Operaciones de Señales discretas https://www.youtube.com/watch?v=axeqEn4kL28 Observar el siguiente video: Entrenamiento de Perceptrón https://www.youtube.com/watch?v=Woe8fXttC6E Tarea Antes de clase Ver el video: “Video 1. El Perceptrón Simple” En un documento Word formular Preguntas y Respuestas con el contenido de los videos. Nombre del archivo: “S5s1_TAC_PaternoM.docx” Cada alumno presenta la tarea en Canvas en “Tarea Antes de Clase”. Saberes previos: ▪ ▪ ▪ ▪ ¿Describir los pasos del AE del SLP? ¿Cuál es la condición para aplicar el AE del SLP? ¿Cuál es la limitación del SLP? ¿Mediante el AE del SLP es posible entrenar la RNA de la compuerta XOR?. Justifique su respuesta. ▪ ¿Cómo se resuelve la limitación del SLP? REDES NEURONALES Y LOGICA DIFUSA Semana 5. Sesión 1: Limitaciones del Perceptrón Profesor Mag. Jose Carlos Benítez Palacios LOGRO DE LA SESIÓN Al finalizar la sesión el estudiante comprueba las limitaciones del SLP en su trabajo de laboratorio. CONTENIDO: 1. 2. 3. 4. 5. SLP Limitaciones del SLP Resolviendo las limitaciones del SLP Tarea en clase Tarea después de clase Datos/Observaciones 1. SLP • El mayor inconveniente del Perceptrón, a pesar del éxito que ha tenido en muchas aplicaciones de clasificación de patrones es la imposibilidad de adaptar los pesos de todas las capas. • En los años en los que se realizó el Perceptrón, los investigadores no fueron capaces de diseñar un algoritmo que propagara las correcciones de los pesos a través de redes multicapa. • La principal limitación funcional del Perceptrón es que una unidad de salida sólo puede clasificar patrones linealmente separables. 1. SLP ▪ Minsky y Papert centraron las críticas al Perceptrón en su publicación Perceptrons (1969). ▪ El libro incluía opiniones negativas sobre la posibilidad de extender el Perceptrón en una herramienta útil en la computación neuronal; por ejemplo para pequeños problemas de clasificación de patrones como el OR era útil, pero para el OR exclusivo (XOR), el Perceptrón es incapaz de resolverlo con éxito. 1. SLP 1. SLP 1. SLP 1. SLP ▪ Afortunadamente para la computación neuronal surgieron nuevas reglas de aprendizaje para redes multicapa y nuevas arquitecturas, entre ellas la más popular Backpropagation, que resolvieron entre otros los problemas de clasificación de patrones no separables linealmente. 2. Limitaciones del SLP ▪ El Perceptrón Multicapa no extrapola bien, es decir, si la red se entrena mal o de manera insuficiente, las salidas pueden ser imprecisas. ▪ La existencia de mínimos locales en la función de error dificulta considerablemente el entrenamiento, pues una vez alcanzado un mínimo el entrenamiento se detiene aunque no se haya alcanzado la tasa de convergencia fijada. 2. Resolviendo las limitaciones del SLP Cuando se cae en un mínimo local sin satisfacer el porcentaje de error permitido se puede considerar: ▪ Cambiar la topología de la red (número de capas y número de neuronas), ▪ Comenzar el entrenamiento con unos pesos iniciales diferentes, ▪ Modificar los parámetros de aprendizaje, ▪ Modificar el conjunto de entrenamiento o ▪ Presentar los patrones en otro orden. 3. Tarea en clase (en equipo con presentación individual) Comprobar la limitación del algoritmo SLP de las FLs: 1. AB 2. A XNOR B 3. A =>(B OR C) 3. Tarea después de clase (en equipo con presentación individual) Comprobar la limitación del algoritmo SLP de las FLs: 1. A(BC) 2. A AND (B=>C) 3. ~A AND(B AND ~C) CIERRE ▪ ▪ ▪ ▪ ¿Describir los pasos del AE del SLP? ¿Cuál es la condición para aplicar el AE del SLP? ¿Cuál es la limitación del SLP? ¿Mediante el AE del SLP es posible entrenar la RNA de la compuerta XOR?. Justifique su respuesta. ▪ ¿Cómo se resuelve la limitación del SLP?