Predicción de tráfico a partir de Redes Neuronales Recurrentes Daniel Bastidas Betanccourt, Gustavo Adolfo Martinez, Hermes Sabogal Rojas Departamento ..., Universidad Jorge Tadeo Lozano Dirección Cra. 4 # 22-61. [email protected], [email protected], [email protected]. Resumen- El artículo está dedicado al uso de redes neuronales recurrentes (RNN) son una clase de redes neuronales que son buenas para modelar datos en serie, como series de tiempo o lenguaje natural. El artículo considera los fundamentos teóricos y metodológicos, consideramos la aplicación de las redes neuronales recurrentes para resolver el problema de identificar y clasificar el trafico vehicular. nuevos tipos de neuronas artificiales. Los más famosos de esta serie son: 1) Neurona recurrente simple 2) Neurona LSTM 3) Neurona GRU Palabras Claves: descriptores, aprendizaje profundo de bolsas de palabras, redes neuronales recurrentes, redes de memoria a corto plazo a largo plazo. I. INTRODUCCIÓN El rápido desarrollo de la tecnología informática moderna ha dado lugar a la aparición de dispositivos informáticos potentes y asequibles que le permiten implementar y ejecutar algoritmos complejos que requieren una potencia informática considerable. Gracias a esto, la implementación práctica de varios métodos de inteligencia artificial ha sido posible, incluidos los métodos efectivos de aprendizaje automático que permiten reemplazar a una persona en varios campos de actividad que requieren un procesamiento monótono de información a largo plazo. La otra cara del progreso tecnológico en esta dirección es el rápido crecimiento del volumen de información acumulada, Como parte de este trabajo, se realizó un análisis de los métodos existentes, el procesamiento y la clasificación tráfico identificando ciertos tipos de acciones en ellos, sin embargo, en este estudio, el trabajo se realizó incidentes de datos abiertos de tráfico de Waze. Con base en los resultados de la investigación, se propuso un enfoque que utiliza una red neuronal recurrente (RNN) con una memoria a largo plazo (LSTM) como clasificador. LSTM RNS, una de las ventajas de las cuales es la capacidad procesamiento de largas secuencias de información. II. METODOLOGÍA En el proceso de investigación de redes neuronales recurrentes, se hizo evidente que trabajan con neuronas artificiales comunes (el modelo McCallock y Pitts): las neuronas comunes parecen "desdibujarse" con el tiempo y pierden su entrenamiento. Esto no permite el uso eficiente de las neuronas ordinarias en redes neuronales recurrentes para tareas de clasificación y, lo más importante, predicción de series de tiempo. Y luego surgió una idea para desarrollar Fig. 1. Recurrent Neural Networks (RNNs) [1]. A. Red neuronal recurrente (RNN) Red neuronal recurrente (RNN): una clase de modelos de aprendizaje automático basados en el uso de condiciones de red anteriores para calcular la corriente. Dichas redes son convenientes para usar en casos donde los datos de entrada de la tarea son una secuencia inestable de valores, como datos de texto, donde el fragmento de texto está representado por un número inestable de oraciones, frases y palabras[2]. Cada carácter en el texto, palabras individuales, signos de puntuación e incluso frases completas, todo esto puede ser un elemento atómico de la secuencia de entrada A pesar de que, en general, el desarrollo de modelos computacionales va de simple a más complejo, un modelo GRU más simple apareció 17 años después que el modelo LSTM. La redacción de la Unidad recurrente cerrada en sí es más general e implica la inclusión de LSTM como un caso especial. Sin embargo, esto no es más que un hecho histórico entretenido. La familia de redes neuronales recurrentes que utilizan filtros (compuertas), gracias a LSTM, se ha desarrollado activamente en las siguientes áreas a lo largo de su historia. III. CONSTRUYENDO UN MODELO SIMPLE Keras tiene tres capas RNN incorporadas: 1. tf.keras.layers.SimpleRNN, un RNN completamente conectado en el que la salida del paso de tiempo anterior debe pasar al siguiente paso. 2. tf.keras.layers.GRU, propuesto por primera vez en el artículo Estudio de frases con códec RNN para traducción automática estadística [4] 3. tf.keras.layers.LSTM, propuesto por primera vez en el artículo Memoria a corto plazo a largo plazo [5] A principios de 2015, Keras presentó las primeras implementaciones reutilizables de código abierto Python y LSTM y GRU. Fig. 3. Esquema Red Neuronal LSTM [8] Una de las variedades de redes es una red neuronal recurrente (RNS, inglés; red neuronal recurrente; RNN) [5]. Los RNS difieren de las redes neuronales artificiales tradicionales por la presencia de retroalimentaciones (tanto dentro como entre capas), lo que permite tener en cuenta los resultados de las iteraciones anteriores al analizar el conjunto actual de valores de entrada. Esta característica le permite hablar sobre la presencia de "Efecto de memoria", que le permite analizar la secuencia de datos de entrada. Dicha red tiene un inconveniente significativo: cuando se trabaja con secuencias largas, el "efecto memoria" es limitado y, a veces, se pierden datos importantes [3]. Fig. 2. RNN Keras [6] IV. ELECCIÓN DE MÉTODOS Para resolver con éxito el problema de reconocer tráfico, es necesario elegir la forma más conveniente de representar los datos de entrada / salida y seleccionar el clasificador óptimo que le permita lograr la mejor precisión de las predicciones. Un descriptor es un vector numérico o binario que describe un punto clave que refleja las características de su entorno, como la forma, el color o la textura. El punto clave, a su vez, se llama cierto punto en la imagen, que caracteriza de manera única la vecindad inmediata de la imagen. [1]. V. CLASIFICADOR LSTM RNN Una red neuronal artificial como ya hemos mencionado anteriormente es un modelo matemático de una red de neuronas biológicas que consiste en una capa de entrada, una capa / capas ocultas y una capa de salida. Cada capa consta de una o más neuronas, que consisten en conjuntos de sinapsis, sumadores, funciones de activación y elementos de umbral. Fig. 4. Marco Propuesto Red Neuronal LSTM [2] VI. DECLARACIÓN DEL PROBLEMA Se supone que inicialmente hay un conjunto limitado de acciones conocidas (clases) y un conjunto marcado de archivos de tráfico, donde cada tráfico contiene un fondo y un objeto que realiza alguna acción, por ejemplo, caminar, lanzar la pelota, etc. El enunciado del problema es aprender a clasificar el tráfico de acuerdo con el criterio de la acción realizada por el objeto, a saber, encontrar la clase de acción más probable en el tráfico [7]. En este articulo, se eligió un enfoque de bajo nivel, porque es mejor que uno de alto nivel para resolver una tarea. Los cálculos en el RNS se pueden descomponer en tres bloques de acuerdo con los parámetros: 1. Desde la entrada a un estado oculto. 2. Del estado latente anterior al estado latente actual. 3. Del estado oculto a la salida. Fig. 6. Entrenamiento Red Neuronal LSTM [8] VII. SOLUCIÓN PRONOSTICO Es claro que las redes de Elman son potencialmente adecuadas para pronosticar (en particular, series de tiempo). Sin embargo, también se sabe que las redes neuronales de distribución directa hacen frente con éxito a esta tarea; sin embargo, no en todos los casos. Como ejemplo, proponemos considerar una de las variaciones más populares del problema de pronóstico: las series de tiempo de pronóstico (. La declaración del problema se reduce a la elección de un arbitrario con N muestras. A continuación, los datos se dividen en tres muestras: capacitación, pruebas y control, y se envían a la entrada de la RNN. El resultado se presentará como el valor de la serie temporal en el momento requerido. El único problema es que solo se puede usar para series de tiempo predichas. En nuestro caso, no todas las métricas son predecibles. En la Figura 7 se muestra un intento de aplicar RNN LSTM para una serie temporal. Fig.7. Curva de precisión y perdida, Fuente Propia VIII. CONCLUSIONES Se puede afirmar que los modelos de redes neuronales recurrentes, recientemente presentados en forma de LSTM y GRU, son algoritmos de aprendizaje automático efectivos y prometedores para una amplia gama de problemas aplicados. REFERENCIAS [1] Y. Zhu, J. Fei and X. He, "A Deep Learning Approach for Intrusion Detection Using Recurrent Neural Networks," A Deep Learning Approach for Intrusion Detection Using Recurrent Neural Networks, vol. 5, no. 2169-3536, pp. 21954 - 21961, 2017. [2] M. I. Sameen and B. Pradhan, "Severity Prediction of Traffic Accidents with Recurrent Neural Networks," MDPI, vol. 1, no. 12, p. 7, 2017. [3] R. Aguilar, "grupo," 1 9 1997. [Online]. Available: http://grupo.us.es/gtocoma/pid/pid10/RedesNeuronales.htm. [Accessed 18 05 2020]. [4] B. v. M. C. G. D. B. F. B. H. S. Y. B. Kyunghyun Cho, "Learning Phrase Representations using RNN EncoderDecoder for Statistical Machine Translation," Cornel University, vol. 1, no. https://arxiv.org/abs/1406.1078, p. 3, 2014. [5] S. Hochreiter, "LONG SHORT-TERM MEMORY," in Neural Computation, Germany, https://www.bioinf.jku.at/publications/older/2604.pdf, 1997, p. 32. [6] "stackoverflow.com," stackoverflow, 3 08 2017. [Online]. Available: https://stackoverflow.com/questions/48817914/how-tobuild-a-recurrent-neural-net-in-keras-where-each-inputgoes-through-a-lay. [Accessed 18 05 2020]. [7] S. P. K. C. D. S. &. Y. L. Zhengping Che, "Recurrent Neural Networks for Multivariate Time Series with Missing Values," 17 04 2018. [Online]. Available: https://www.nature.com/articles/s41598-018-24271-9. [Accessed 18 05 2020]. [8] J. I. GARZÓN, «Cómo usar redes neuronales (LSTM) en la predicción de averías en las máquinas,» 6 11 2018. [En línea]. Available: https://blog.gft.com/es/2018/11/06/comousar-redes-neuronales-lstm-en-la-prediccion-de-averias-enlas-maquinas/. [Último acceso: 18 06 2020]. .