de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. 1 Entorno de operación para la creación de predicciones meteorológicas de Dios Cavero, Fernando. [email protected] Área de Ingeniería Aeroespacial de la Universidad de León Resumen — En este artículo se presenta el sistema computacional ideado en el área de Ingeniería Aeroespacial de la Universidad de León para la realización de predicciones meteorológicas y su posterior publicación. Se exponen los tres pasos principales del proceso, como son la obtención de datos, el desarrollo de las predicciones y el proceso de publicación y acceso a los resultados. En el presente documento se detalla el proceso llevado a cabo hasta dar forma al producto final. Índice de Términos — Asimilación de datos, computación paralela, modelo predicción meteorológica, WRF. meteorológico, NOAA, I. INTRODUCCIÓN Entre los múltiples aspectos que intervienen en la gestión de tráfico aéreo (Air Traffic Management, ATM), la meteorología aeronáutica desempeña un papel esencial. En este contexto surge el entorno de operación de creación de predicciones, que se define como servicio de meteorología digital, que abarca la realización de pronósticos y difusión de los mismos, siendo su finalidad prestar apoyo a las operaciones de aeronaves y abriendo el camino a un sistema ATM con una arquitectura orientada a facilitar servicios meteorológicos donde se aprovechan los datos disponibles, las conexiones aire-tierra y los modernos recursos computacionales para mejorar la seguridad y eficiencia de las operaciones. Se ha potenciado la inclusión de observaciones reales en las simulaciones, optimizado el modelo físico de las mismas, agilizado la generación de escenarios o avanzado en el desarrollado del concepto operacional. La base del servicio es la computación algorítmica de una predicción meteorológica de precisión, en formato digital, y su integración en un sistema de gestión de la información para su divulgación y actualización en tiempo real. El entorno de operación interno que permite ofrecer este servicio está constituido por el clúster de predicción y el servidor encargado de almacenar y ofrecer las predicciones a los suscriptores. Todo el proceso se encuentra automatizado gracias al uso de scripts que se encargan de ejecutar de forma consecutiva los elementos funcionales del servicio, empezando por la recopilación de datos del estado actual de la atmósfera, siguiendo con la realización de las simulaciones mediante modelos contrastados científicamente y finalizando con colocación de los escenarios con las predicciones meteorológicas a disposición de los usuarios del servicio. El sistema ha sido concebido inicialmente para dar soporte a las operaciones de gestión del tráfico aéreo, para lo cual se ha desarrollado todo un concepto de operaciones basado en una unidad central encargada de elaborar las predicciones y escenarios que son distribuidas a los centros de control principales, entre los que se reparten la gestión del espacio aéreo. Cada centro recibe el escenario general de resolución moderada para todo el espacio aéreo de su responsabilidad así como los escenarios de alta resolución que cubren las inmediaciones de cada uno de los aeropuertos existentes en su zona. Estos centros de control son los responsables de transmitir los escenarios a las aeronaves y aeródromos que se encuentren en su zona de responsabilidad Otros posibles campos de aplicación estudiados son: la gestión de emergencias relacionadas con la dispersión de contaminantes o incendios, uso industrial en la previsión de energía eléctrica producida por campos eólicos o el apoyo al transporte marítimo, suministrando predicciones meteorológicas y de oleaje. II. SERVICIO DIGITAL DE METEOROLOGÍA El servicio digital de meteorología está constituido por un conjunto de procesos y aplicaciones que, Área de Ingeniería Aeroespacial de la Universidad de León de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. mediante su funcionamiento conjunto y coordinado, permiten ofrecer un servicio de meteorología digital para ser empleado en la gestión del tráfico aéreo. El sistema puede dividirse en varios elementos funcionales interdependientes, encargados de las tareas de preparación y elaboración de las predicciones y su posterior difusión: - Captación de datos: La elaboración de predicciones meteorológicas mediante métodos numéricos es esencialmente un problema de condiciones iniciales. Es por ello que el primer módulo debe estar destinado a la obtención de datos relativos al estado de la atmósfera en el momento de iniciar la predicción. Para ello resultan vitales los datos procedentes del Global Forecast System, una distribución pública del estado previsto de la atmósfera a nivel global. Esta información global se ve complementada con datos de mayor precisión procedentes de diversas fuentes, entre las que cabe señalar los proporcionados por la red de estaciones de la AEMET o los obtenidos por estaciones propias situadas en las zonas de interés en las que se desea realizar las predicciones con la mayor precisión. Adicionalmente el sistema está preparado también para recibir en tiempo real datos procedentes de aeronaves en la zona gracias a los modernos protocolos de redes digitales para aeronaves. - Elaboración de predicciones: esta aplicación es el corazón funcional del sistema, encargado de recoger las condiciones actuales de la atmósfera y llevar a cabo su propagación en el tiempo mediante modelos y esquemas numéricos de última generación, concretamente mediante el modelo WRF (Weather Research and Forecasting). Dicho modelo ha sido ampliamente empleado y validado para la predicción de todo tipo de fenómenos meteorológicos en las ubicaciones más diversas, incluyendo trabajos en los que específicamente se ha validado su precisión para la predicción meteorológica en la península Ibérica. La simulación se realiza en un entorno de computación paralela que permite conseguir unos tiempos razonables de ejecución dando como salidas escenarios con los valores de un gran número de variables meteorológicas en el dominio simulado. Estas simulaciones se realizan cada hora, con un alcance de dos horas y media y originando archivos de salida con una separación entre sí de media hora. 2 - Creación y almacenamiento escenarios: los escenarios producidos por el modelo WRF contienen un elevado número de variables de interés meteorológico, sin embargo, muchas de ellas resultan de escaso interés para tareas ATM. Es por ello que la siguiente unidad funcional del servicio de meteorología ideado se encarga de, a partir de los archivos de salida del WRF, extraer aquellas variables que resulten de interés y almacenarlas en un nuevo archivo en formato .met, específicamente desarrollado para el servicio ideado. Con esto se consigue aligerar notablemente el tamaño de los archivos y conseguir un formato fácil de interpretar por los clientes. Las predicciones son almacenadas en un servidor para su posterior distribución a través de la red de comunicaciones aeronáutica SWIM, solución que se prevé como más eficaz en el mediolargo plazo para la gestión de datos y servicios en un entorno de red centralizada con múltiples usuarios. - Herramienta visualización de escenarios: Finalmente, el servicio incorpora un visor gráfico que permite visualizar en un entorno Windows los escenarios generados por el WRF y ya convertidos al formato .met. El visor permite navegar a través de los diferentes niveles de altura de cada uno de los escenarios así como entre escenarios sucesivos en el tiempo, igualmente permite mostrar mediante gráficas la evolución de los valores de cada una de las magnitudes para una cierta posición en función de la altura y del tiempo. III. CAPTACIÓN DE DATOS A continuación se incluye una descripción detallada de la manera en que se descargan las predicciones y la información relacionada con las condiciones meteorológicas. Se explica para cada caso el mecanismo de funcionamiento para el almacenamiento y descarga de datos, así como la forma en que se trata la información. A. Datos obtenidos de la NOAA La NOAA (Nacional Oceanic and Atmospheric Administration) es una agencia científica de los Estados Unidos encargada de proporcionar pronósticos meteorológicos, además de preparar cartas de mares y cielos. Área de Ingeniería Aeroespacial de la Universidad de León de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. Para iniciar el proceso de la predicción meteorológica, lo primero que se debe tener en cuenta son las condiciones climatológicas anteriores, por lo tanto, para obtener dichas condiciones, se utilizarán las observaciones que la organización NOAA pone a disposición de los usuarios. El script ejecutado, a través de la llamada al módulo desarrollado en python “obtener_gfs.py”, que se encarga de automatizar el proceso de obtención de archivos meteorológicos de horas pasadas con el fin de realizar las predicciones adecuadamente. Para ello, el script se conecta al servidor FTP de la NOAA y descarga los últimos paquetes de información en formato GRIB disponibles (GRIB es un formato utilizado por institutos meteorológicos de todo el mundo para transportar y manipular datos del tiempo). Posteriormente, estos paquetes GRIB son descomprimidos mediante el módulo Ungrib. B. Datos obtenidos por la estación meteorológica Otro de los métodos disponibles para obtener los datos de las condiciones climatológicas es la utilización de estaciones meteorológicas propias (referenciadas como Station-Met) estratégicamente situadas en el dominio de predicción definido. Cada una de estas estaciones se establece en el terreno y está continuamente tomando medidas de parámetros reales. Toda la información que recopila es posteriormente enviada al clúster para su inclusión en el modelo numérico. La estación se encarga de medir los parámetros de temperatura, presión atmosférica, componentes de viento y las coordenadas geográficas. Para llevar a cabo este proceso se han desarrollado una serie de aplicaciones, destinadas a solucionar las posibles incompatibilidades entre sistemas operativos, la subida de datos en tiempo real y el establecimiento de comunicaciones seguras. IV. EJECUCIÓN DEL MODELO METEOROLÓGICO El proceso de cálculo se repite una vez cada hora y con un alcance de dos horas y media, utilizándose, aproximadamente, unos 30 minutos de tiempo de 3 cálculo en cada ejecución del conjunto de programas. Todo el proceso de ejecución se lleva a cabo en clúster de ordenadores trabajando en paralelo para agilizar los cálculos que se llevan a cabo y así poder obtener las predicciones en un menos tiempo. Su ejecución viene controlada, en cuanto a módulos, por el script “modulos_wrf.py”, y en cuanto a la automatización temporal, por un crontab que inicia la ejecución del script en intervalos de una hora, de forma diaria. En primer lugar se descargan los datos de NOAA, lo cual ya ha sido descrito anteriormente. Posteriormente, se crean los namelist que regularán los módulos WRF a través de plantillas preestablecidas, de forma que sólo datos de tiempos y rutas locales son cambiados a lo largo de las ejecuciones. A continuación, se inicia la ejecución de los módulos de preprocesado. Los parámetros que necesitan se encuentran en el fichero “namelist.wps”. El preprocesado es un conjunto de tres etapas que preparan las bases para los módulos encargados de la simulación propiamente dicha. A. Preprocesado La primera de las mencionadas etapas es “geogrid.exe”. Este módulo tiene el objetivo de, en primer lugar, definir los dominios de la simulación y, posteriormente, interpolar ciertos datos en ella. La definición de los dominios de simulación se hace a través de las columnas de valores de namelist.wps. En primer lugar, se indica el número de dominios que ha de definir el módulo. Este número indicará el número de columnas del valor de variable que lee, de forma que si este número es menor que el de columnas especificadas, las posteriores serán ignoradas. Para dar forma al dominio de simulación, se indica también el nivel en el que se encuentra cada dominio, ya que estos pueden ser telescópicos o encontrarse al mismo nivel, siendo este último caso el que cumple uno de los objetivos del presente proyecto. Esto permite simultanear las predicciones de alta resolución de dos zonas geográficamente alejadas. Asimismo, las dimensiones de los dominios son definidas, con una extensión de: o Dominio 01: 4.5 km por cada celda. Situada en zona norte de España. Área de Ingeniería Aeroespacial de la Universidad de León de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. o Dominio 02: 150 x 150 km, a razón de 1.5 km por cada celda. o Dominio 03: 150 x 150 km, a razón de 1.5 km por cada celda. La relación de tamaños del dominio general al anidado es de 3:1. La razón de que se use esta relación de tamaños de celda es que, si este número es impar, se puede conseguir hacer coincidir los puntos de las celdas de los dominios contenidos en el mayor con los de este. El ratio 3:1 es el que está siendo empleado por haber sido ampliamente estudiado. Esta misma relación es utilizada, además, para los time-steps de cada dominio. Una vez ha concluido la ejecución del módulo geogrid se inicia la de “ungrib.exe”. Su propósito es el de adaptar los datos contenidos en formato GRIB a un formato intermedio apto para el resto de módulos. Está controlado por secciones concretas de “namelist.wps”. No es dependiente del modelo ni de geogrid, por lo que no hace ninguna selección de datos respecto al dominio de interés. Seguidamente, se inicia “metgrid.exe”. Este módulo se encarga de interpolar horizontalmente los datos meteorológicos producidos por ungrib, sobre la malla producida por geogrid. Es dependiente de los tiempos de simulación. El output fruto de este módulo, será usado como input para el siguiente módulo, real. B. Nudging y FDDA A continuación comienza el módulo “obsgrid.exe”. Este módulo es el encargado de adecuar el formato de las observaciones a un formato intermedio, apto para ser utilizado en el proceso de nudging. El nudging es un método que hace que el modelo se aproxime progresivamente hacia las observaciones de las que se dispone, en lo cual se basa el FDDA. En la aproximación FDDA, el estado del modelo se suaviza constantemente cada time-step hacia el estado observado mediante el uso de un término añadido a las ecuaciones, que se basa en las diferencias entre el estado observado y el modelo. El nudging es un modo efectivo y eficiente de reducir los errores del modelo. Algunas de las posibilidades que presenta son asimilar datos tanto sinópticos como asinópticos; realizar controles de calidad para descartar las 4 observaciones que no sean adecuadas; Las observaciones de superficie se adaptan primero al primer nivel del modelo, y luego, las variables ajustadas al nivel más bajo son utilizadas para corregir el modelo con menor peso conforme se acercan al final de la PBL; la forma del terreno también hace que se corrija la influencia de las observaciones, etc. El módulo Obsgrid, se encarga, además de convertir el formato de las observaciones a uno apto para la asimilación, es el de hacer coincidir las observaciones, que inicialmente se encuentran situadas aleatoriamente, con los puntos de la malla utilizados. Esto se realiza interpolando mediante análisis objetivo. Los inputs que necesita el programa son las observaciones, en formato „little_r‟ o „wrf_obs‟, y los modelos, procedentes de los módulos de preprocesado, en formato „.met‟. Los modelos son modificados al aproximar los valores hacia las observaciones. Se utilizarán como inicio en el siguiente módulo, “real.exe”. Uno de los archivos que produce son los “OBS_DOMAIN”, que contienen las observaciones en un formato modificado a partir del little_r standard, de forma que estos puedan ser asimilados por los módulos de WRF, teniendo en cuenta que se han modificado algunas observaciones. Es decir: las observaciones duplicadas, contenidas fuera del dominio sobre el que se ejecuta, y las que no tienen información, o que no han superado los controles de calidad, han sido eliminadas. Las observaciones restantes han sido ordenadas cronológicamente. Su uso se da en el módulo WRF. Se produce un archivo OBS_DOMAIN para cada iteración (que en el caso presente es de un intervalo de tiempo de una hora) y para cada dominio. Sin embargo, estos archivos no pueden ser directamente ingeridos en WRF, sino que necesitan ser concatenados en un solo archivo para cada dominio, siendo totalmente necesario que se presenten en un orden cronológicamente correcto. Para poder asimilar observaciones suficientes, se retrocede dos horas con respecto a la hora de análisis de la simulación. Es por esto que son necesarios archivos met_em que se inicien antes de la hora UTC. Lo mismo pasa con los archivos little_r de las observaciones. De esta manera, se Área de Ingeniería Aeroespacial de la Universidad de León de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. almacena cierto número de predicciones y observaciones en una carpeta, y se van borrando conforme pasa tiempo suficiente para que no sean requeridas por una nueva simulación. C. Inicialización Real.exe es el módulo encargado de la inicialización de los dominios. El uso de de los outputs del preprocesado como input para este módulo es lo que permite considerar que la simulación es del tipo “Real Data Case”. El objetivo principal del módulo es el de leer las condiciones de control de los namelist y generar los archivos que contienen las condiciones iniciales de la simulación. Leyendo la información meteorológica incluida en los archivos que le son proporcionados como input, interpola verticalmente, y crea los archivos que contienen la información sobre las condiciones laterales del dominio mayor. Actualmente, las simulaciones utilizan 38 niveles verticales repartidos de manera heterogénea en altura. Se considera una mayor densidad de niveles conforme la altura respecto al suelo disminuye. En este módulo es en donde se define cada qué período de tiempo se puede obtener un output de la predicción. A lo largo de las todas las horas simuladas, se obtiene un escenario por cada media hora de alcance, a partir de la fecha zulú de inicio, por cada dominio. D. Asimilación variacional de datos Un sistema de asimilación de datos combina toda la información disponible en un margen de tiempo del estado atmosférico con el objetivo de producir una estimación de las condiciones en un momento de análisis especificado. Las fuentes que proporcionan la información necesaria para el análisis son las observaciones, las predicciones previas, los errores de cada uno de ellos y las leyes físicas. La asimilación de datos consiste en ciclos de análisis, en los cuales las observaciones de momentos pasados y actuales se combinan con las variables de un modelo numérico de predicción meteorológica para producir un análisis que mejora la estimación de la predicción. En la asimilación variacional se refinan las estimaciones del estado 5 atmosférico mediante la minimización iterativa de una función de coste predefinida, produciendo una estimación adecuada del estado atmosférico verdadero en el momento del análisis. El sistema de asimilación variacional es en tres dimensiones. Es denominada 3D-Var. Realiza un tratamiento de los siguientes archivos: - First guess: es la predicción usada como punto de inicio para el análisis. Ya que estas predicciones provienen de procesos previos, y no de un ciclo previo de asimilación, el proceso es del tipo “coldstart”. - Background error statistics: archivos de covarianzas de errores. Son calculados a partir de un lote de predicciones de idénticas características producidas a lo largo de un periodo de tiempo largo. - Observaciones: se introducen mediante el proceso OBSPROC, en formato little_r. El análisis incluye incrementos en todos los puntos, incluso en los límites laterales. De forma que se producen diferencias entre las condiciones laterales y las iniciales. Esto se corrige con la ejecución de “update_bc”, que modifica las tendencias en las condiciones laterales para adaptarse al análisis. E. WRF Es el encargado de obtener las predicciones, realizando la integración numérica del modelo, lo que realiza aproximando numéricamente las soluciones a las ecuaciones del modelo. La duración de la simulación es obtenida a partir del “namelist.input”, en la sección “run_”. El resto de especificaciones de tiempo no son utilizadas por este programa sino por Real. Las predicciones toman la cadena de nombre “wrfout_dXX_<date>”, donde XX toma el valor del dominio que contenga, y “date” es una cadena numérica con información acerca de la fecha de la predicción. Otros productos son el “rsl.out” y “rsl.error”, que son logs con la información acerca de la simulación y los tiempos de iteración, y las predicciones. Se genera cada par de logs por cada procesador utilizado. Área de Ingeniería Aeroespacial de la Universidad de León de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. F. Conversión de datos La conversión del formato de las predicciones proveniente de “wrf.exe” a aquel utilizado por el sistema de visualización, se realiza a través de la aplicación wrf2met. Las librerías netCDF permiten la conversión directa de wrf a “.met” evitando el uso de ncdump y sin necesidad de convertirlo a texto en formato ASCII. Estas librerías permiten acceso, tanto para lectura como para escritura, a los archivos de formato netCDF. V. PUBLICACIÓN Y ACCESO A LOS PRODUCTOS En este apartado se describe la gestión interna que hace el sistema de los archivos que contienen la información climatológica. También se explica cómo acceder a los pronósticos publicados por el servicio, y se presenta una herramienta desarrollada con el fin de visualizar las previsiones meteorológicas. A. Proceso de almacenaje de los datos de observación El proceso de almacenar todos los datos de observación se lleva a cabo en el servidor FTP que aloja toda la información. Este ordenador está conectado a través de una red local al máster del clúster donde se realizan las predicciones con el fin de introducir en la base de datos la información generada en el clúster. Los programas Station-Met y Airplane-Met envían vía FTP, los datos de observación a la carpeta /DatosEstacion alojada en el servidor. Hay un script, llamado InsertStationData.py que se encarga de comprobar si hay nuevos datos listos para ser recibidos. En caso de que así sea, dicho script lanza el programa ObsOB, cuya función es la de insertar la nueva información en la base de datos. 6 B. Inserción de datos en el proceso de computación La aplicación ObsDB_Import actúa como puente entre el transmisor meteorológico WXT520 y los datos obtenidos para el modelo meteorológico. Se encarga de preparar la información recibida de Station-Met y almacenada en la base de datos con el fin de que el módulo WRFVar pueda procesarla. Para esto, ObsDB_Import toma la información climatológica de la base de datos y la pasa a formato “little_r”. Los archivos little_r contienen datos de previsión en un formato adecuado para WRFVar. Después de la conversión, el módulo WRFVar utiliza el archivo resultante para incorporar los datos obtenidos en tiempo real al modelo meteorológico. C. Proceso de publicación El ordenador WRF está a cargo de la gestión del proceso de publicación de los escenarios. Es el único ordenador accesible desde el exterior y, como se ha dicho, es donde se encuentra el servidor FTP que almacena los datos meteorológicos. Dispone de un script llamado Publicador.py que se ocupa de detectar si se han recibido datos nuevos y, si es así, lanza Publisher-Met para enviar los escenarios vía DDS. D. ViewerMeteo ViewerMeteo es un programa desarrollado para visualizar las predicciones meteorológicas desarrolladas a través del modelo. Permite cargar un mismo escenario con varios pronósticos en distintos momentos. ViewerMeteo es una evolución del programa de tratamiento de datos meteorológicos desarrollado in-house, que muestra los archivos recibidos a través de DDS cuyos asuntos sean weather_metadata o weather_scenario. El programa tiene la apariencia que se puede ver a continuación: Área de Ingeniería Aeroespacial de la Universidad de León de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas. 7 [5] Parrish, David F., John C. Derber. (1992). The National Meteorological Center's Spectral Statistical-Interpolation Analysis System [6] Yubao Liu. An Observation-Nudging based FDDA scheme for WRF-ARW for mesoscale data assimilation and forecasting. [7] Stauffer, D. R., and N. L. Seaman, 1990. Use of fourdimensional data assimilation in a limited area mesoscale model. Part I: Experiments with synopticscale data. [8] Wrf v3 users guide. http://www.mmm.ucar.edu/wrf/users/docs/user_guide_V3 /ARWUsersGuideV3.pdf Figura 1 Interfaz gráfica del visor de predicciones La ventana donde se cargan las predicciones muestra el mapa del dominio estudiado. En la parte izquierda de la interfaz se puede seleccionar el parámetro que se va a mostrar en la imagen. En una escala de colores se muestran las variaciones del parámetro escogido, entre Presión, Temperatura, Componentes de Viento y Altura. La aplicación permite mostrar una sucesión de predicciones en el tiempo para un mismo dominio, que muestra los cambios meteorológicos previstos para esa zona. Seleccionando cualquier punto del mapa con el ratón, se muestran en la barra inferior de la ventana todos los parámetros climatológicos de ese punto. El programa, además, está conectado al servidor FTP, lo que permite obtener las nuevas predicciones de una manera sencilla y automática. REFERENCIAS [1] Borge, Rafael, Alexandrov, Vassil, del Vas, Juan José, Lumbreras, Julio, Rodríguez, Encarnación. A comprehensive sensitivity analysis of the WRF model for air quality applications over the Iberian Peninsula. [2] Mesinger, F. (2000). The Arakawa approach, horizontal grid, global, and limited-area modeling. En D. A. Randall, General Circulation Model Development: Past, Present and Future. (págs. pp. 373-419). Academic Press. [3] Thunis, R., Galmarini, S., Martilli, A., Clappier, A., Andronopoulos, S., Bartzis, J., et al. (2003). MESOCOM: An inter-comparison exercise of mesoscale flow models applied to an ideal case simulation [4] Naval Research Laboratory. (2003). COAMPS. Model description: General Theory and Equations. Monterey, California. Área de Ingeniería Aeroespacial de la Universidad de León Universidad de León. Aller Juan. Programación de algoritmos usando paralelización. 1 Programación de algoritmos usando paralelización Aller de la Puente, Juan [email protected] Universidad de León Resumen—En el presente documento se darán las pautas básicas e iniciales para abordar el desarrollo software de algoritmos complejos utilizando métodos de paralelización y computación distribuida. Se empleará la librería MPI, soportada por los lenguajes C y JAVA y se analizará el funcionamiento de la misma en entornos Linux. Índice de Términos—C, Desarrollo, JAVA, MPI, Paralelización, Programación. I. INTRODUCCIÓN ESTE DOCUMENTO EXPLICA LA FORMA DE USO DE LA LIBRERÍA MPI EN LENGUAJES C Y JAVA PARA DESARROLLAR SW MEDIANTE ALGORITMOS PARALELIZABLES. MPI o Message Passing Interface (Interfaz de Paso de Mensajes) es un estándar que identifica y define tanto la sintaxis como la semántica de las funciones y procedimientos contenidos en una biblioteca de paso de mensajes. Dicha biblioteca ha sido diseñada para ser usada en programas cuyos algoritmos se presten a la ejecución en sistemas que dispongan de múltiples procesadores o núcleos asociados a estos así como varios hilos de ejecución paralela. El paso de mensajes se emplea en programación concurrente para implementar mecanismos de sincronización entre procesos y así poder permitir la exclusión mutua entre ellos a todos los niveles y ámbitos de la programación. MPI es el estándar o biblioteca que implementa la comunicación entre los nodos que ejecutan un programa o SW concreto dentro de seno de un sistema de memoria distribuida. Las Congreso del Máster en Investigación en Cibernética. implementaciones dentro de MPI se fundamentan en un conjunto de bibliotecas de rutinas divididas en distintas funciones o procedimientos que pueden ser utilizadas en programas escritos en los lenguajes de programación C, C++, Fortran y Ada entre otros. La ventaja de MPI sobre el resto de bibliotecas de paso de mensajes, es que los programas que utilizan MPI son bastante sencillos de portar dentro de unos límites razonables. Otra gran ventaja de MPI sobre otros sistemas con el mismo propósito es que no precisa del uso de memoria compartida debido fundamentalmente a que los datos se envían en forma de mensajes dentro de una jerarquía Maestro-Esclavo (uno o más). Los elementos principales que intervienen en el uso de MPI son el proceso que envía el mensaje, el proceso que lo recibe, y el mensaje propiamente dicho como unidad funcional independiente. Podemos clasificar dos tipos de pasos de mensajes atendiendo a si el proceso que envía dicho mensaje espera a que este sea recibido o no. Se diferenciarán así los pasos de mensajes síncronos y asíncronos. En el paso de mensajes asíncrono, el proceso que envía, no espera a que el mensaje sea recibido por el destinatario si no que inmediatamente después de enviar el mensaje, continúa su ejecución, volviendo a generar un nuevo mensaje si fuera necesario y enviándolo antes de que se haya podido recibir el anterior. De cualquier forma, se suelen emplear buzones, dentro de los cuales se almacenan los mensajes a la espera de que el proceso destinatario los reciba. Si se utiliza este método, el proceso que envía los mensajes se bloquea o se detiene cuando finaliza su ejecución. En el paso de mensajes síncrono, el proceso encargado de enviar el mensaje Universidad de León. Aller Juan. Programación de algoritmos usando paralelización. debe esperar a que el proceso destinatario reciba el mensaje para continuar su ejecución. II. HISTORIA Al diseñarse MPI, se tuvieron muy en cuenta las características principales en las que se base el paso de mensajes, el diseño del estándar MPI fue influido en gran medida por los trabajos hechos por IBM, INTEL, NX/, Express, nCUBE's Vernex, p4 y PARMACS. Otras contribuciones importantes provienen de Zipcode, Chimp, PVM, Chameleon y PICL. El estándar final por el MPI fue presentado en la conferencia de Supercomputación en Noviembre del año 1993. En sistemas con memoria distribuida las rutinas de paso de mensajes se realizan a nivel bajo, por lo que los beneficios de la estandarización son enormes debido a que el grado de conocimiento del programador para realizar este tipo de desarrollos disminuye en sobremanera. La principal ventaja de utilizar un estándar que implemente el paso de mensajes es la capacidad de ser portado así como la gran facilidad de uso. MPI-1 apareció en 1994, el estándar MPI-2 fue lanzado en 1997. III. PRINCIPALES CARACTERÍSTICAS Está estandarizado. Facilidad de Portabilidad: multiprocesadores, multicomputadores, redes… Buenas prestaciones. Gran funcionalidad. Existencia de alternativas libres (mpich, LAM-MPI...). IV. FUNDAMENTOS Congreso del Máster en Investigación en Cibernética. 2 En MPI el número de hilos/hijos o procesos de ejecución se determina antes de la propia ejecución del programa principal, y no se crean procesos adicionales mientras la aplicación se ejecuta; es decir, el número de procesos se define al principio de la ejecución y no se puede modificar. A cada proceso (hilo) se le asigna una variable que se denomina rank, encargada de ordenar y de identificar a cada proceso, en el rango de 0 a p-1, donde p es el número total de procesos que hemos asignado al programa. El control de cada uno de los hilos de ejecución lo realizaremos mediante la variable rank la cual permite determinar que proceso ejecuta determinada porción de código. También se debe definir un comunicator o colección de procesos, estos serán los encargados de enviar los mensajes el uno al otro; el comunicator básico principal se identifica como MPI_COMM_WORLD y se define mediante un macro del lenguaje C. MPI_COMM_WORLD y se encarga de agrupar a todos los procesos activos durante la ejecución de una aplicación. Las llamadas de MPI se dividen en cuatro clases: A. Llamadas utilizadas para inicializar, administrar y finalizar comunicaciones. MPI dispone de 4 funciones básicas, las cuales se utilizan en cualquier desarrollo que utilice dicha librería. Estas funciones son: MPI_Init inicializa la sesión MPI. Es utilizada siempre antes de llamar a cualquier otra función de MPI. Es la encargada de inicializar la librería MPI. MPI_Finalize finaliza la sesión MPI. Siempre será la última llamada a MPI que se realice en un programa que implemente esta librería; será la encargada de liberar la memoria usada por MPI. MPI_Comm_size devuelve el número de procesos asociados a un comunicator. MPI_Comm_rank devuelve el identificador (rank) del proceso actual. Universidad de León. Aller Juan. Programación de algoritmos usando paralelización. B. Llamadas utilizadas para transferir datos entre dos procesos La transferencia de datos entre hilos MPI se realiza utilizando las funciones MPI_Send y MPI_Recv, las cuales devuelven un booleano si tienen éxito o no. MPI_Send permite enviar información de un proceso a otro (emisor). MPI_Recv recibe la información de un proceso (receptor). Dichas funciones son bloqueantes, por lo que el proceso que realiza el envío se bloquea hasta que la operación de comunicación llegue a completarse. Si se quiere usar versiones no bloqueantes se usarán MPI_Isend y MPI_Irecv, respectivamente. Estas funciones son las encargadas de realizar la transferencia pero la finalización se realiza mediante otras funciones: MPI_Test y MPI_Wait. MPI_Wait también es bloqueante y finaliza en el momento en que la operación de envío o recepción se completan. MPI_Test comprueba que la operación de envío o recepción ha finalizado correctamente devolviendo un booleano con el resultado. C. Llamadas utilizadas para transferir datos entre varios procesos MPI dispone de llamadas especiales para la difusión (broadcast), recolección (gather), distribución (scatter) y reducción. Algunos ejemplos de los modos de empleo de estas funciones denominadas especiales serán vistos a continuación. MPI_Barrier realiza operaciones de sincronización. En estas operaciones no existe ninguna clase de intercambio de información, y por lo general, suelen emplearse para dar por finalizada una etapa o step del programa, para verificar que todos los procesos hayan terminado en un momento puntual de la ejecución. MPI_Bcast permite a un proceso enviar una copia de sus datos a otros procesos dentro de un grupo establecido por un comunicator. MPI_Scatter realiza una operación de distribución, en la cual un dato es distribuido en diferentes procesos paralelos. MPI_Gather establece una operación de recolección, sobre la cual los datos son recolectados en el mismo proceso. MPI_Reduce permite que el Congreso del Máster en Investigación en Cibernética. 3 proceso padre recoja datos de otros procesos en un grupo o asociación, para combinarlos en un solo bloque de datos. D. Llamadas utilizadas para crear tipos de datos definidos por el usuario Para generar nuevos tipos de datos se utiliza la función MPI_Type_struct o se puede utilizar la llamada MPI_Pack para empaquetar bloques de datos. V. METODOLOGÍA DE USO En un programa desarrollado con MPI se emplean como mínimo 6 funciones básicas, aunque existen muchas más funciones para otras tareas más avanzadas. Todas empiezan por MPI_ y, por ejemplo, en lenguaje C, están contenidas en la librería: #include "mpi.h", Esta librería contiene las definiciones, macros y prototipos de función necesarios para compilar los programas MPI en lenguaje C. Para inicializar MPI debemos hacer una primera llamada a MPI_Init(); la cual sólo se debe realizar una vez. Esta función inicializa el uso de MPI para que pueda ser usado en el sistema que ejecutará el programa. Para finalizar el uso de MPI y liberar la memoria utilizada por este, realizaremos una llamada a MPI_Finalize(). La función MPI_Finalize() limpia todos los trabajos no finalizados dejados por MPI además de la caché usada por este. Los programas MPI deben ser obligatoriamente inicializados y finalizados en MPI (MPI_Init, MPI_Finalize). Para obtener el identificador de proceso, MPI dispone de la función MPI_Comm_rank(), que devuelve el identificador de un proceso en su segundo argumento. Se emplea con la sintaxis, de forma independiente al lenguaje utilizado: int MPI_Comm_rank(MPI_Comm int* identificador) comunicador, El primer argumento es el comunicador que se le pasa por defecto. El comunicador es básicamente Universidad de León. Aller Juan. Programación de algoritmos usando paralelización. una colección de procesos que pueden enviar mensajes entre sí. Generalmente y en programas sencillos, el único comunicador que se usa es MPI_COMM_WORLD. Viene por defecto en MPI y engloba a todos los procesos que se ejecutan cuando el programa comienza (después del INIT). Para determinar el número de procesos que se ejecutan en MPI se utiliza la función MPI_Comm_size(). Su primer argumento vuelve a ser el comunicador por defecto. En el segundo argumento devuelve el número de procesos pertenecientes al comunicador que se le ha pasado por parámetro. Su sintaxis de uso es: int MPI_Comm_size(MPI_Comm int* numprocs) comunicador, La función MPI_Get_processor_name() devuelve el nombre del hilo de proceso donde se está ejecutando el programa. Tiene un extenso uso en la monitorización de programas en redes heterogéneas. La gestión de mensajes bloqueantes se realiza, principalmente, a través de las funciones MPI_Send() y MPI_Recv(). La primera función envía un mensaje a un hilo determinado. La segunda recibe un mensaje de un hilo. entorno contiene la 1. include <mpi.h> Formato de las funciones: MPI_nombre( parámetros ... ) codigo_error = Inicialización: int MPI_Init() Comunicador: Conjunto de procesos que se intercomunican. Por defecto podemos utilizar MPI_COMM_WORD, que es el comunicador que se usa en programas sencillos que utilizan MPI. Identificación de procesos: MPI_Comm_rank ( MPI_Comm comm , int *rank) Procesos en el comunicador: MPI_Comm_size ( MPI_Comm comm , int *size) Finalización: int MPI_Finalize ( ) nombre, El parámetro nombre es un string con un tamaño igual o mayor a la constante MPI_MAX_PROCESSOR_NAME. En este vector se almacenará el nombre del procesador. El parámetro longnombre informa de la longitud de la cadena obtenida. En MPI el información: Fichero cabecera: Mensajes: Un mensaje estará formado por un cierto número de elementos de un mismo tipo MPI. La sintaxis de dicha función es la siguiente: int MPI_Get_processor_name(char* int* longnombre) 4 TABLA I TIPOS BÁSICOS DE MPI Nombre Tipo MPI_CHAR MPI_SHORT MPI_INT MPI_LONG MPI_UNSIGNED_CHAR MPI_UNSIGNED_SHORT MPI_UNSIGNED MPI_UNSIGNED_LONG MPI_FLOAT MPI_DOUBLE MPI_LONG_DOUBLE MPI_BYTE MPI_PACKET signed char signed short int signed int signed long int unsigned char unsigned short int unsigned int unsigned long int float double long double siguiente 1. El identificador del proceso receptor del mensaje. 2. El identificador del proceso emisor del mensaje. 3. Una etiqueta. 4. Un comunicador. Congreso del Máster en Investigación en Cibernética. Tipos MPI programador. derivados: los construye el Envío de un mensaje a otro proceso: int MPI_Send ( void *posicion_de_memoria , int contador , MPI_Datatype tipo , int destino , int etiqueta , MPI_Comm comunicador ) Universidad de León. Aller Juan. Programación de algoritmos usando paralelización. Recepción de un mensaje de otro proceso: int MPI_Recv ( void *posicion_de_memoria , int contador , MPI_Datatype tipo , int origen , int etiqueta, MPI_Comm comunicador , MPI_Status *estado) El receptor puede emplear MPI_ANY_TAG y/o MPI_ANY_SOURCE RECONOCIMIENTO Expresar mi gratitud a mi tutora de proyecto y a la Universidad de León por formarme y orientarme en la realización de este trabajo. REFERENCIAS Peter Pacheco, “Parallel Programming with MPI” Morgan Kaufmann Publishers (26 Noviembre 1996). [2] Rob H. Bisseling, “Parallel Scientific Computation: A Structured Approach using BSP and MPI”. Oxford University Press, USA (15 Abril 2004). [3] W Gropp, “Using MPI: Portable Parallel Programming with the Message-Passing Interface (Scientific and Engineering Computation)” MIT Press; 2nd Revised edition edition (4 Enero 2000). [1] Congreso del Máster en Investigación en Cibernética. 5 Augmented reality for elderly assistance Álvaro Botas Francisco J. Lera Vicente Matellán Escuela de Ingenierı́as Industrial e Informática de la Universidad de León León, Spain Email: [email protected] Escuela de Ingenierı́as Industrial e Informática de la Universidad de León León, Spain Email: [email protected] Escuela de Ingenierı́as Industrial e Informática de la Universidad de León León, Spain Email: [email protected] Resumen—This article presents a tele-assistance system based on augmented reality for elderly people that is integrated in a mobile platform. This system propose the use of augmented reality for simplifying interaction with its users. The first prototype has been designed to help in medication control for elderly people. In this paper, software architectures is described. The software is based on in ARUCO for the augmented reality interface. It also integrates other related systems in teleassistance such as VoIP, friendly user interface, etc. I. INTRODUCTION In this article, we present a software for assisting caregivers in control of medication of elderly people. One of the major contribution of this paper is the use of augmented reality for daily medical guidelines control. Augmented Reality [8], since now AR, is a live view of a real-world scenario whose elements are augmented by computer-generated information such as sound, video, graphics etc. In our system we overlay virtual graphics to the image captured by the camera. In this case we want to show virtual information over the normal pillbox of a person under treatment. The computer screen of the robot would show a virtual figure overlaying the real world, pointing the correct medication that the patient has to take in a given moment. During the last years many projects have been working in elderly care using new technologies as computers, mobilephones o robotics. AAL (Ambient Assited Living) project [6] or Oasis project [5] are some of them. They try to improve the daily life of elderly people in various fields: working in self confidence, improving security on individuals with medical problems, prevent cases of society isolation or teaching healthy lifestyle, etc. Other project,closes to our goals is PAUTA [4], where they are developing electronic pillboxs that improve the generic box. The problem, from out point of view, is the high cost of this device and the subsequent maintenance. In our solution any pillbox is liable to be modified and used as augmented pillbox. This is the first main contribution, we implements a low cost way to help in daily medication using augmented reality. Our prototype also integrates communication capabilities to assist the person under treatment. We have included VoIP communications both to increase the information provided by the AR system, and to simply allow tele-conferencing. In summary our prototype integrates two different technologies to: 1. Augmented Reality 2. Telepresence Both solutions are integrated in a multi-platform software application based on OpenGL and ArUco library integrated in a Qt interface using as a hardware platform a pair of computers. In summary in this article we presented a new software prototype, where using a simple interface and helped with augmented reality information, a user is able to take the appropriate dose medication. Also a VoIP system was added to improve the application in a teleassistance way. The rest of the paper is organized as follows. In section II, software developed is presented, showing the different layers, from hardware to user, that we have created. In section III, we explain the two different ways to interacts with our prototype. In section IV, we present the prototype built, we show all necessary steps, as a user manual, to get the prototype working. In section V, conclusions and further work, haighlighting the main outlines of our work and how we want to deploy the next phases of our project. II. SOFTWARE DEVELOPMENT This section presents in more detail the software developed. In order to test it we have built a prototype that will be described in section IV. The main module described here is MYRA. MYRA is our interaction architecture whose structure is shown in figure 1. MYRA stands for “Elderly and Augmented Reality” (in Spanish Mayores Y Realidad Aumentada). It has been created at the Cátedra Telefónica - Universidad de León to help and improve the daily lives of elderly people through a toolbox for building AR interfaces. MYRA has been designed following the model-viewcontroller (MVC) paradigm. We decided to use this kind of architecture to let independent modules be included in the system. In this way, any of the modules could be improved without interfering with the others. Model View and Controller is a software architecture whitch isolates the domain logic [12] from input and presentation(GUI), permitting independent development, testing and Working Description We will describe the process of recognition and 3D shape drawn. First, using the OpenCV libraries captured the images of the webcam. Then we process the images to stay with valid markers. These images makes them a preprocessing, such as converting to grayscale, noise removal, thresholding, contour extraction, etc.. In the image 3 we can see how this would be the image after preprocessing. Figura 1: MYRA architecture maintenance of each [13]. On figure 2 we can see basic structure of this paradigm. Figura 3: Preprocessing image Figura 2: MVC diagram Architecture The MYRA architecture is a hierarchical architecture summarized in figure 1. Its three main levels are: Model: base libraries that provide connection with other libraries. Controller: modules to get information from the model layer and to provide information to the interface. View: Interface generation. The Model level groups the software needed to connect to other libraries that MYRA needs, as for instance: OpenCV, Aruco (that use OpenGL) or pjproject libraries. These libraries provide image recognition, augmented reality and VoIP services respectively. The Controller level consists of the mechanisms to get and use data from the model component. The software at the Controller level processes data received from the different subsystems and generates the information to the higher level, that is, to the View component. The View level builds the interface that interacts to users. We use Aruco to adds the augmented information to images, Qt for building the user interfaces and PjProject to add communication capabilities. Once the image is ready, the next step is contours detection. In this process we get is a collection of sets of points on the image. Once we have these, the next step is an approximation made to stay with those polygons shaped ring. If you can find inside another ring, the innermost rule. How to make the capture of the image containing the marker deformation occurs because of the prospect, the next step is a transformation of perspective so that we again have the initial form of the marker. Once we have the marker with the initial approach, we perform a thresholding of the markers by the previous calculation of the histogram. Our next objective is to identify markers. It is also analyzed one at a marker (the images obtained in the previous step), and check if their content corresponds to one of the matrices that are recognizable and valid a valid marker. Use 7x7 matrices of dimensions for the markers, using the 5x5 matrix for coding, filling the outer edge of black squares. For coding matrices, makes use of Hamming codes, identifying the black squares as “ 0” and “ 1”-white, and are treated as binary digits. The bits numbered from left to right, with 0 being the first position. Bits 1 and 3 are used to store data, and 0, 2 and 4 bits for error control. Since there are only two bits for data, then only valid combinations are 4 per row. And are 5 rows, have a maximum of 1024 different encodings, or what is, 1024 different markers. Once obtained the sequence of bits in each row checked for correctness. Performed 4 times, rotating 90 degrees the marker as it does not know the position of the camera. If the sequence is correct, it is considered a marker is detected. With this, draw up the marker we want using OpenGL (or by OpenCV if 2D). Give the value of the origin of coordinates to the central point of the marker detected, and once on it, modified coordinates as the point where we want to draw the figure. Firstly, we achieved an arrow pointing to the marker that corresponds to the day when taking the pill. Consists of a pyramid and a cone. We played with the lights and shadows to add depth and perspective. III. USE CASE We are going to divide in two different situations the posibilities use by MYRA: 1. On first one, as we can see on figure 4 we show the computer a modified pillbox and this shown us the pill to take. Interface As the application has been developed for older people, has ensured that the design is as simple as possible, so that the buttons are very intuitive and does not allow changes that could unconfigure the application to confuse or touching something they should not. The interface built for the prototype is made up by three different modules: Interaction Interface Telepresence Augmented Reality The Presentation module is in charge of showing information to the user. This information is based on the images captured by the system, augmented with information added by the Controller component. The telepresence module is in charge of managing the communications. In the preliminary prototype we are providing just voice calls, using the VoIP stack, which means that the remote user can be on a computer or on a phone. The Augmented Reality module manages the information included in the Presentation interface. Interaction interface Figura 4: MYRA pillbox use 2. On second one, shown on figure 5 the user can only pressing a button call emergencys, and selecting friends or assistance on contacts list call them. Is possible to make calls using the VoIP system to communicate with other MYRA users and also to real phones using MYRA if the account is adapted. In figure 6 we show a snapshot of the interface. We have tried to build an interface easy to use to facilitate the user experience. For this reason only a big frame for images and few buttons are used. The frame, marked as 2 in figure 6, shows the video got from the camera at almost 10 - 20 frames per second. It depends of many parameters as camera used, image quality or way of transmission (Wi-Fi transmitted or direct access). Figura 5: MYRA calls usage Now, we are going to explain each part necessary to run MYRA and how it is integrated in the first version of our prototype. IV. PROTOTYPE In this section we describe the first interface prototype developed integrating all technologies described above. Also, an example of modified pillbox and an explanation of how it works is presented to validate our development. Figura 6: MYRA main window Only four buttons, marked as 1 in the figure 6, are used to interface configuration: parameters as resolution or what kind of AR picture want to be overlayed in the image frame. Another button is the interaction interface help to user. This is going to open other window where a picture indicate us the buttons funcionality and how to use the application. To collect the resolutions have had to use the webcam API v4linux. We can see in figure 7 the kind of AR developed pictures between we can choose. uses the PJSIP (Open Source SIP protocol stack) [11]. Augmented Reality We have decided use ArUco [1] library because its ease integration in our developments. In our interface, when pillbox using our tags is showed to the camera the AR system is activated and a shape is overlaid on the next dose medication. Also a menu it is available to change the picture to show over the pillbox. Pillbox Our system does not need an electronic or specifically designed pillbox. We can use any pillbox with a simple modification: adding a group of CODE’s that has to be printed. It it’s necessary to cover the corresponding moment of the day for the correct dose recognition. In the example of figure 8, we show two different pillbox. In the picture of left side three days (Monday, Saturday, Sunday) are modified to be adapted to our system. Picture in right side has for different daily possible dose marked. We can see up to 4 different shots for each day, so that would correspond with breakfast, lunch, snack and dinner. Figura 7: Pictures between we can choose. In the right side, marked as 3, there are another four buttons: one for the application (the bell) and three for managing the tele-presence system. The bell, when pushed, display a reminder with the lapsed time to the next dose. The other three buttons are used for the tele-presence system. The first one (from top) shows friends list, the next one allows the call to a day-center for elderly and the third one (the one with the cross) calls to the emergency line. The last button closes the application. Configurations have been developed to allow up to 4 times daily, corresponding with breakfast, lunch, snack and dinner. To configurate this, we must go to edit menu, and inside this, to edit times of medication. The picture will be painted on the next take, and pressing the bell we will see the time to take it. The system let us also hang up a call, we can listen a sound and see a new button, Within the menu you can configure the size of the figures, to help the older person to see better visual signals and axis on or off, set numbers (Assistance, friends and emergency VoIP user), daily doses and their corresponding times, user support, etc. Telepresence Our current MYRA implementation can make phone calls using VoIP. A SIP stack was used to implements the VoIP communications. We integrated a modified version of QjSimple by Klaus Darilion distribuited under GPL license 2 [2] in our current implementation . This multiplatform application Figura 8: Simple PillBox So as we explained before, we present a simple recognition system to help a final user to take the daily dose. Using our application MYRA and modifying whatever pillbox anyone can see the next dose. Figura 9: Dose recognition with Augmented Reality In the figure 9 we can see different snapshots of our pillbox and the AR marks, overlaid over the day. This model is the most simply case, with only seven possible cases, the week days. In the left image somebody grab the box and is showed to camera, in the right one, the box is on the table. In both cases the application shows the right medication dose. V. CONCLUSION AND FURTHER WORK This paper describes the development of a cheap telepresence system equipped with an augmented reality system for interaction. The main contribution of our paper is: Software: A program whose name is MYRA used to build a system of medical dose control that includes augmented reality to improve the interaction with the robot and a telepresence system. MYRA has been built using open source libraries. This was a design decision that speed up the development, but also has its drawbacks: we are stuck to particular version of the libraries. The MYRA architecture developed for this project is available for downloading and test. As we presented along the paper, using our prototype it is possible to follow a simple medical guidelines to take the daily pill dose, thanks to help given for augmented reality,with just presenting the pillbox to our robot or to a camera if we use the MYRA computer solution. Also the telepresence system using VoIP, appears as a cheap way to communicate with family, friends or, with many improvements, as possible emergency system. We are currently working on integrating this project into a robotic platform, specifically a turtlebot [10]. Thus, the robot could alert the individual anywhere, so that the robot is able to move around the house independently. In the case of turtlebot, images are collected by the kinect available, instead of a webcam. We can see in the image 10 a turtlebot. Figura 10: Turtlebot. We hope to test the prototype in a real environment in the next months to get a real feedback. ACKNOWLEDGMENT This work has been partially supported by Cátedra de Telefónica - Universidad de León (grant CTULE11-2). R EFERENCIAS [1] Research group, Aplicaciones de la Visión Artificial (A.V.A) Available: http://www.uco.es/investiga/grupos/ava/ [2] QjSimple, [Online]: http://www.ipcom.at/en/telephony/qjsimple/ [3] Juan F. Garcı́a, Francisco J. Rodrı́guez, Vicente Matellán, Camino Fernández.Augmented reality to improve teleoperation of mobile robots. XII Workshop en Agentes Fı́sicos (WAF’2011). Albacete (España),September 2011. [4] Project Pauta, [Online] Available: http://www.proyectopauta.es/. [5] Project Oasis, [Online] Available:http://www.oasis-project.eu/. [6] Project AAL, [Online] Available:http://www.aal-europe.eu/. [7] Project OpenCV, [Online] Available:http://opencv.willowgarage.com/wiki/ [8] Ariel y la Fundación telefónica. Realidad aumentada una nueva lente para ver el mundo [9] Azuma, R., Baillot, Y., Behringer, R., Feiner, S., Julier, S., MacIntyre, B., Recent advances in augmented reality ,IEEE Computer Graphics and Applications, 0272-1716, Volume 21, Issue 6, pp 3447, 2002 [10] Robotic platform turtlebot. Available: http://www.turtlebot.com/ [11] PjSimple, [Online] Available: http://www.pjsip.org/ [12] StarUML 5.0. (2005). StarUML Features [online] Available: http://staruml.sourceforge.net/en/about-3.php [13] Model-view-controller, In Wikipedia, [online] Available: http://en.wikipedia.org/wiki/Model–view–controller Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución. 1 LA LÓGICA BORROSA. HISTORIA Y EVOLUCIÓN Martínez Montoto, Rodrigo [email protected] Universidad de León Resumen— En este artículo se presenta la lógica borrosa, centrándose en su historia y evolución. La lógica borrosa es una teoría que se puede considerar reciente, ya que nació en 1965, año en que su creador Lotfi A. Zadeh presentó a la sociedad sus ideas .Su historia se puede englobar en tres épocas. La primera sería sus antecedentes y su nacimiento, para observar de donde viene la idea en sí. La segunda sería cuando se afianzaron sus ideas, observando cómo tuvo mayor aceptación en Oriente que en Occidente. Y por último la lógica borrosa como una teoría ya aceptada, hablando de cómo esto ha afectado a su evolución. En el presente documento también se presentarán las conclusiones alcanzadas desde una perspectiva personal.1 Índice de Términos—Lógica borrosa, lógica clásica, lógica multivaluada, paradoja de Rusell, principio de incertidumbre. I. INTRODUCCIÓN La lógica borrosa o difusa es una herramienta para incorporar el conocimiento estructurado del ser humano a algoritmos de una forma viable. Se puede decir que el concepto de lógica difusa es utilizado en muchos sentidos y campos. De forma limitada, se puede decir que la lógica difusa es considerada un sistema lógico cuyo objetivo es proveer de la forma de razonamiento humana a otros modelos, haciendo que sea más bien aproximado, frente a lo exacto. Desde un punto de vista más amplio, la lógica difusa se trata como la teoría de conjuntos difusos de clases con limitaciones borrosas. Los métodos de la lógica difusa se pueden utilizar para diseñar sistemas inteligentes con la base del conocimiento expresado en un lenguaje común. Hay muchas aplicaciones en los sistemas inteligentes. No hay prácticamente ningún área de actividades humanas en los que no se haya utilizado o al menos probado estos sistemas. La gran razón de dicha versatilidad es que este método permite el procesamiento simbólico y numérico de información. Los sistemas diseñados y desarrollados con la lógica borrosa como método han demostrado a menudo que son más eficientes que aquellos basados en métodos convencionales o clásicos. La teoría de los conjuntos borrosos es una teoría de conjuntos graduados, “una teoría donde todo es cuestión del grado, o todo tiene elasticidad (Zadeh, 1973)”. El objetivo es tratar con fenómenos complejos que por sí mismos no se pueden analizar mediante un método clásico basado en lógica bivalente o teoría probabilística. Muchos sistemas en la vida real son demasiado complejos o tienen demasiada falta de información para ser susceptibles a un análisis exacto. Incluso cuando los sistemas o conceptos parecen poco sofisticados, la percepción y entendimiento de los sistemas aparentemente poco sofisticados no son simples. Utilizando los conjuntos difusos o las clases que permiten grados intermedios de pertenencia en ellos, abre la posibilidad de analizar dichos sistemas tanto cualitativamente como cuantitavamente, mediante permitir las variables del sistema a un sistema de graduación en los conjuntos borrosos. II. EL CAMINO HACIA LA LÓGICA BORROSA La lógica en general tiene una amplía historia, remontándose sus orígenes a la Grecia Clásica. Se puede considerar como padre de la lógica a Aristóteles, quien introdujo las leyes del conocimiento, que son el sustento de la lógica clásica. Sus tres leyes fundamentales son: Principio de identidad, el cual declara que toda entidad es idéntica a sí misma. Ley de la contradicción, que promulga que una proposición y su negación no pueden ser ambas verdaderas al mismo tiempo. Ley del tercero excluido, la cual promulga que para toda proposición p, o bien la misma p o su negada tiene Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución. que ser verdadera, sin que haya ninguna proposición verdadera entre ellas Es a raíz de esta última ley por la cual nacen muchas diferencias con esa forma de pensamiento. Puede dar lugar a dudas que no haya nada intermedio entre lo que es verdadero y lo que es falso, ya que eso implica la verdad o la no verdad absoluta. Platón fue el primer pensador en poner en duda esto, ya que afirmaba que entre lo verdadero y lo falso existía lo que él llamó la tercera región: los grados de pertenencia. Así se puede considerar que Platón fue pionero a la hora de poner las bases de lo que muchos siglos después sería la lógica borrosa. Haciendo un gran salto en el tiempo, y llegando al S. XVIII, descubrimos a otros grandes pensadores hablando de conceptos similares. George Berkeley y David Hume hablaron del concepto de lo vago, de lo similar, de la ambigüedad, conceptos relacionados con la lógica difusa. También llegaron a la conclusión de que el conocimiento se adquiere a lo largo de las vivencias de nuestra vida. Hume creía en la lógica del sentido común. Immanuel Kant, en ese mismo siglo, pensaba que solo los matemáticos podían proveer definiciones claras, dando a entender que había principios contradictorios que no tenían solución. Un ejemplo que dio Kant fue que la materia se podía dividir infinitas veces, pero que a la vez no se podía dividir infinitamente. En conclusión, se empezó a encontrar principios contradictorios de la lógica clásica, poniendo en duda algunas leyes por las que está se regía. A principios del S. XX se realizan estudios que tienen que ver de alguna manera con la lógica borrosa, pues después fueron inspiración para Zadeh. Bertrand Rusell divulgo la idea de que la lógica crea contradicciones, e hizo un estudio de las vaguedades de lenguaje, cuya conclusión fue que la vaguedad es un grado. Por otra parte Ludwing Wittgenstein hizo un estudio sobre las diferentes acepciones que tiene una misma palabra, desbancando muchos principios de la lógica clásica. Llegó a la conclusión de que una misma palabra se puede utilizar para muchas cosas que tengan algo en común, es decir, que una misma palabra expresa modos y maneras diferentes. Fue en 1920 cuando este sentimiento de que los “fallos” de la lógica clásica se acentuó. Jan Lukasiewicz desarrolló la primera alternativa 2 sistemática a la lógica bi-valuada de Aristóteles. Dicha alternativa es la primera lógica de vaguedades, que describió como una lógica trivalente. Esta fue una de las grandes inspiraciones de Zadeh años después. III. PRIMEROS PASOS E IDEAS DE APOYO DE LA LÓGICA BORROSA A mediados de los años 60, Lotfi A. Zadeh publicó su artículo “Fuzzy sets”, que se publicó en la revista “Information and Control”, exactamente en 1965. Este artículo sentó las bases de lo que más tarde sería la teoría de los conjuntos borrosos. Lotfi A. Zadeh llevaba tiempo estudiando estás ideas, estudiando a otros pensadores que hablaban de grados de pertenencia, y de alternativas a la lógica clásica. Pero sin lugar a dudas su inspiración más importante viene de tres fuentes: La paradoja del conjunto de Russell, el principio de incertidumbre de Heisenberg y la lógica multivaluada de Jan Lukasiewicz. A. La paradoja de Russell Fue descubierta en 1901 por Bertrand Russell. Demuestra que la “naive set theory”, desarrollada por Georg Cantor, nos inducia a una contradicción. La misma paradoja fue descubierta un año antes por Ernst Zermelo, pero no publicó la idea. Tan solo otros profesores de la Universidad de Göttingen reconocen a Ernst su mérito. De acuerdo con la “naive set theory”, cualquier colección de objetos definibles es un conjunto. R es el conjunto de todos los conjuntos que no son miembros de sí mismos. Si R se califica como miembro de sí mismo, eso contradeciría su propia definición de conjunto que contiene todos los conjuntos que no son miembros de sí mismos. Por otra parte, si un conjunto A no es miembro de sí mismo, se le calificaría como miembro de sí mismo por la misma definición. Esta contradicción es la paradoja de Russell. Para entender mejor la paradoja de Russell, se adjunta el siguiente ejemplo. Llamamos a un conjunto “anormal” si es miembro de sí mismo, y “normal” si no lo es. Tomamos entonces el conjunto de todos los cuadrados. Este conjunto no es por sí mismo un cuadrado, por lo que no pertenece al Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución. conjunto de todos los cuadrados, es un conjunto “normal”. Por otro lado si tomamos su conjunto complementario, el de los no cuadrados. Este conjunto es por sí mismo un no-cuadrado, por lo que pertenece a el conjunto de los no-cuadrados, es un conjunto “anormal”. Ahora consideramos el conjunto R, como el conjunto de todos los conjuntos normales. Determinar si R es “normal” o “anormal” es imposible. Si R fuese “normal” estaría comprendido dentro de sí mismo y entonces sería “anormal” Y si fuese “anormal” no estaría comprendido dentro de sí mismo y sería “normal”. La conclusión es que R no es “normal” ni “anormal”, y esto es la paradoja de Russell. B. El principio de incertidumbre de Heisenberg Heisenberg una vez declaro: “Nosotros creemos que obtenemos conocimiento de la teoría de la física, si en todos los casos simples, nosotros podemos juntar las consecuencias experimentales cualitativamente y ver que la teoría no lleva a ninguna contradicción”. Esta idea es una fuente de inspiración para Zadeh. El principio de incertidumbre en sí dice que a nivel nuclear, es imposible conocer al mismo tiempo tales magnitudes como la velocidad y la posición de una partícula, es decir, cuanto más conozcamos una magnitud, menos conoceremos la otra. Por ejemplo, si conocemos la velocidad de una partícula atómica, no podemos conocer su posición. Pero el problema no es que no se conozca una técnica de medición lo suficientemente buena o exacta como para conocer ambas magnitudes, sino que es un problema de la naturaleza del electrón. Esto fue lo que más perturbo a la física y a la filosofía impuestas hasta esa fecha. Más que el principio de incertidumbre en sí, lo que más inspiró a Zadeh de esta teoría fue la forma de pensar de su inventor, y su filosofía de interpretar las cosas. C. La lógica multivaluada de Jan Lukasiewicz Jan Lukasiewicz nació en Polonia en 1878 y el gran trabajo de su vida fue innovar sobre la lógica clásica, el principio de la no contradicción y la ley del tercero excluido. Fue un pionero en la investigación de la lógica multivaluada mediante su la invención de la lógica trivalente. 3 La lógica trivalente es un sistema de lógica no aristotélica, ya que opera en la base de que además de las proposiciones clásicas de verdadero y falso, existe un tercer valor lógico que es la “posibilidad”, y que se puede simbolizar como ½. Para formular su lógica trivalente, además de los principios relativos a 1 y 0, tuvo que formular principios relativos a ½. Los principios que antes eran relativos a 1 y 0, la definición de negación, adicción y multiplicación, son ahora también compatibles con la lógica trivalente, con la diferencia de que sus variables pueden tomar ahora tres valores. Algunas de las leyes de la lógica trivalente son diferentes que en la lógica clásica bivalente, es más, algunas de estas leyes son solo “posibles” en esta lógica. De hecho la exclusión de ciertas leyes hace que en la lógica trivalente no haya antinomias, es decir, no existen paradojas o contradicciones irresolubles. Lukasiewicz propuso una notación completa y nueva, además de un sistema axiomático del cual esperaba que acabase derivando las “matemáticas modernas”. Lukasiewicz también destaca que está lógica tiene más valor teórico que practico, pues él la considera un medio para construir una lógica no aristotélica. Lukasiewicz después de trabajar en su lógica trivalente, exploró el mundo de la lógica multivaluada, pensando en lógicas de cuatro, cinco, o más valores, llegando a la conclusión de que no había un impedimento para acabar en una lógica infinito-valuada. Dicha lógica sería formalizada sobre 1930. El propio Lukasiewicz consideraba a la lógica trivalente y a la infinito-valorada como las más interesantes a razón de sus propiedades. Pero sería la tetravalente la que mejor se adaptaría a los diferentes postulados clásicos. IV. AFIANZANDO LAS NUEVAS IDEAS Como bien se ha dicho antes, en 1965, con la publicación del artículo “Fuzzy sets” de Lotfi A. Zadeh se causó un gran revuelo en el mundo de la ciencia. Había aparecido una nueva teoría que no desbancaba a la teoría clásica, sino que tenía pretensiones de absorberla, considerando a esta parte de sí misma, es decir, se consideró a los conjuntos clásicos como un caso particular dentro de los conjuntos difusos. Este hecho de ir en contra Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución. de lo clásico o de hacer pensar que todo lo hecho y estudiado en base a lo clásico no era más que una particularidad de esta nueva teoría provocó un profundo sentimiento de rechazo ante lo expuesto por Lotfi A. Zadeh. A. El rechazo de la teoría en Occidente y su aceptación asiática En sus principios, por lo ya expuesto, esta teoría provocó un profundo rechazo. En occidente los científicos se negaban a aceptar el estudio del campo de la vaguedad, que permitía manipular conceptos del lenguaje cotidiano, lo que era imposible hasta el momento. En palabras del propio Zadeh: “En Occidente la acogida fue menos positiva. En Asia aceptan que el mundo no es blanco o negro, verdad o mentira. En Occidente todo es A o B”. Esto se puede entender por la cultura que se tiene en occidente y la cultura asiática. La cultura clásica griega es la que impera en el mundo occidental, y es a esta a la que se enfrentan las nuevas ideas. De hecho en Estados Unidos y Europa se llegó a decir que la lógica difusa era una probabilidad disimulada, intentando quitarle importancia y robarle el protagonismo que se merecía. Sin embargo en Asia la aceptación fue casi inmediata, ya que según su cultura no está discutido el poder ser más de una cosa a la vez, por ejemplo, el Yin y el Yang, dicen que lo bueno está ligado a lo malo, de tal manera que una persona puede ser buena y mala a la vez. Cabe decir que el sentimiento de rechazo disminuyó cuando empezó a probar su valía. B. Implementación y profundización de la teoría Zadeh, a pesar del rechazo generalizado, continuaba su estudio de esta teoría. Así en 1968 publica el artículo “Fuzzy Algorithm” y en 1971 vio como sus objetivos se hacían realidad, ya que él tenía intención de crear un formalismo para manejar de forma eficiente la imprecisión del razonamiento humano. Dicho año publicó el articulo “Quantitative Fuzzy Semantics”, que es donde aparecerían por primera vez los elementos formales que dan lugar a la lógica borrosa, a su metodología y la de sus aplicaciones tal y como las conocemos hoy día. 4 Muchos investigadores que se oponían a la lógica difusa empiezan a ver posibilidades de futuro en ella, y algunos se hacen seguidores de Zadeh. Incluso mientras él seguía asentando su teoría, estos científicos se dedicaron a explorar nuevas teorías e ideas basadas en este tipo de lógica. Entre estos nuevos seguidores se pueden destacar a Bellman, Lakoff, Goguen, Smith,… Por ejemplo, Lakoff es uno de los desarrolladores de la Semántica generativa, la lingüística cognitiva y la teoría neural del lenguaje, apoyándose sobre todo en las teorías de Zadeh. Joseph Goguen desarrolló múltiples mejoras en lenguajes de programación también ayudándose de las teorías de la lógica difusa. En 1973, Zadeh acabo de poner los pilares de su lógica difusa. Otro paso importante para esta teoría, fue a principio de los años 70, cuando se crearon varios grupos de investigación en universidades japonesas que hicieron grandes aportaciones a las aplicaciones que se podían conseguir mediante la lógica difusa. Y quizá el paso más importante para acabar de afianzar la lógica difusa, fue en 1974, cuando el británico Ebrahim H. Mamdani demuestra la aplicabilidad de la lógica difusa en el campo del control, ya que desarrolló el primer sistema de control borroso, que regulaba un motor de vapor, que aunque no pudo implementarse hasta 1980 por la falta de capacidad de computo de los ordenadores de la época, dejaba constancia de la aplicabilidad de la lógica borrosa. A partir de este momento, la lógica difusa empieza a tener una mayor aceptación, aunque continuó siendo mayor en Asia, y en especial en Japón. Estados Unidos y Europa, aunque ya estaban tan escépticos frente a esta teoría, no la utilizaban tanto como allí. V. LA LÓGICA BORROSA COMO UNA TEORÍA YA ACEPTADA Después de los grandes avances de los 70, en décadas posteriores, esta teoría fue teniendo más éxito y encontrándose nuevas aplicaciones. En la década de los 80 la investigación se oriento hacía las redes neuronales y su similitud con la lógica borrosa. Estos nuevos sistemas de lógica borrosa lo que hacen es utilizar métodos basados en las redes neuronales para encontrar y optimizar mejor los parámetros del sistema borroso. En la década de los Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución. 90 surge la investigación de los algoritmos genéticos, y la investigación se oriento conseguir sistemas de control muy potentes basándose en la lógica borrosa, las redes neuronales y los algoritmos genéticos, ya que juntando los tres métodos se conseguían herramientas muy buenas para el control. A. La década de los 80 Estos años fueron muy fructíferos en Asia, y otra vez en especial en Japón. En 1986, Yamakawa publicó el articulo “Fuzzy controller hardware system” donde explicaba como implementar un controlador basado en lógica borrosa en un chip integrado. El mayor desarrolló basado en lógica borrosa ha sido, en 1987, cuando la Hitachi utiliza un controlador borroso para el control de tren de Sendai. Fue uno de los sistemas más novedosos inventados por el hombre. Desde entonces el controlador ha mantenido a los trenes en funcionamiento perfectamente. Pero el año 1987 no solo es recordado por el tren de Sendai, sino que se le conoce como el año del “FUZZY BOOM”. Esto es debido a que empezaron a comercializarse multitud de dispositivos basando su funcionamiento en la lógica difusa. Esto ocurrió en Japón, donde se podían y pueden encontrar por ejemplo electrodomésticos funcionando en base a la lógica borrosa, o cámaras fotográficas cuyo estabilizador también se basa en la lógica borrosa. A parte de ese “FUZZY BOOM”, el auge en Japón de la lógica borrosa viene también dado por los trabajos de Michio Sugeno, que reúnen complejos desarrollos matemáticos con aplicaciones tecnológicas de gran importancia. Por esto se puede hablar de “ingeniería difusa”, a parte de la lógica y la tecnología difusa. A raíz de estas investigaciones se empieza a trabajar juntando redes neuronales y lógica borrosa, y más tarde también con algoritmos genéticos. B. Desde los 90 hasta hoy día Desde los 90 hasta hoy día, aunque se ha seguido investigando sobre este teoría y sus aplicaciones, no ha habido tanto auge como en los 80 respecto al número de aplicaciones que se empezaron a desarrollar. Aún así podemos encontrar aplicaciones 5 interesantes como la de 1993, cuando Fuji aplica la lógica borrosa para el control de la inyección química en plantas depuradoras. Entonces se dio un gran paso para la lógica borrosa, creando estrechas relaciones entre el gobierno japonés, las universidades y las industrias, estableciendo proyectos que se llevarían a cabo por el Ministerio de Industria y Comercio (MITI), la Agencia de Ciencia y Tecnología (STA) en conjunto con el Laboratory for International Fuzzy Engineering Research (LIFE). De forma paralela, Sugeno y Tagaki, desarrollan la primera aproximación para construir reglas borrosas a partir de datos de entrenamiento. Esto da lugar a desarrollar de forma más óptima las uniones ya comentadas antes entre lógica borrosa y redes neuronales. También en los 90 entran en juego los algoritmos genéticos y se investiga mucho en juntar lógica difusa, redes neuronales y algoritmos genéticos para crear potentes herramientas. A partir de aquí se puede decir que se va generando un nuevo campo en la computación: la computación flexible, la cual puede ser muy prometedora manejando razonamientos de sentido común y lograr que los ordenadores “razonen” de un modo similar al del ser humano. También se empiezan a utilizar conceptos de la lógica difusa y los conjuntos difusos para resolver problemas de gestión, economía, medicina, biología, ciencias políticas, lingüística,… Hoy día el mayor número de investigadores en este campo se encuentran en China con unos 10.000, y aunque Japón es el abanderado de la lógica borrosa, no tienen hoy día tanta gente trabajando en esto. Según todo lo expuesto, se ve que la mayoría de las investigaciones de la lógica borrosa son en el campo del control, pero actualmente y desde hace unos años, la lógica borrosa se ha empezado a utilizar en otros muchos campos como el reconocimiento de patrones visuales o la identificación de segmentos de ADN. Por último, cabe mencionar que muchos investigadores que actualmente trabajan con la lógica borrosa, dicen que el futuro de Internet, en cuanto a controlar la red, gestionarla o recuperar información, pasa por aplicar estas tecnologías borrosas en estos campos. Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución. VI. CONCLUSIONES La gran conclusión a la que se llega con la realización de esta investigación, es que la lógica borrosa no ha sido aprovechada al máximo de sus posibilidades, aunque cabe decir que hay multitud de aplicaciones, no puedo imaginar las aplicaciones que tendría si hubiese obtenido un apoyo total e incondicional desde el principio de su existencia. Entiendo que pudiese parecer osado el intento de globalizar la lógica clásica, y todos los estudios que conllevaba como una particularidad de la nueva lógica borrosa, pero quizás una mente más abierta del mundo occidental hubiese permitido un desarrollo más rápido y quien sabe en qué punto se encontraría la lógica borrosa hoy día. El apoyo que recibe la lógica borrosa a día de hoy no es tan importante como en décadas pasadas, pero esto puede ser por las nuevas tecnologías que van surgiendo, que absorben la atención de los investigadores. Aunque cabe decir que en Japón sigue teniendo un gran apoyo, siendo incluso un reclamo publicitario. Es típico leer, por ejemplo, en electrodomésticos que funcionan en base a la lógica borrosa. REFERENCIAS [1] Floridi, L. (2004) The philosophy of Computing and Information. Blackwell Publishing. United Kingdom [2] Kecman, V. (2001) Learning and Soft Computing. The MIT press. USA [3] Ross, T. J. (2010) Fuzzy Logic with Engineering Applications. Wiley. USA [4] Lippe, W. M. (2006) Soft Computing. Springer-Verlag. Germany [5] McNeill, F. M.; Thro, E. (1994) Fuzzy Logic a practical approach. AP Professional. USA [6] Ross, T.J.; Booker, J. M.; Parkinson, W. J. (2002) Fuzzy logic and Probability Applications. ASA-SIAM. USA [7] Melin, P.; Castillo, O.; Aguilar, L.T.; Kacprzyk, J. (2007) Foundations of Fuzzy Logic and Soft Computing. Springer-Verlag. Germany Autor Ingeniero técnico industrial, especialidad en electrónica industrial y automática por la Universidad de León. 6 Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. 1 Estado del Arte de la Navegación Aérea asistida por Instrumentos Marcos Ferrero, Mónica. [email protected] Escuela de Ingenierías Industrial e Informática, Universidad de León Resumen—Desde sus orígenes, la aviación cuenta con su principal ventaja: sobrevolar el terreno a gran velocidad. Sin embargo, desde entonces ha sido necesaria la búsqueda de referencias que permitan orientar la aeronave. En un principio, las características más significativas del terreno resolvían el problema; aunque con ciertas limitaciones dependientes de la meteorología. Por ello se han desarrollado sistemas basados en instrumentos que permitan realizar un vuelo o un aterrizaje seguro con visibilidad nula o prácticamente nula. Estos sistemas pueden basarse en instalaciones en tierra, ya sea a lo largo de la ruta a realizar o en el aeropuerto; en sistemas autónomos incorporados en la aeronave; o en satélites; respectivamente, se denominan: radioayudas, sistemas de navegación autónoma o sistemas de posicionamiento por satélites. Estos últimos suscitan mayor interés de estudio y desarrollo. Índice de Términos—Navegación aérea, Radioayudas, Satélite. I. INTRODUCCIÓN El desarrollo de la aviación, desde 1903 cuando los hermanos Wright realizaron el primer vuelo en un avión controlado hasta nuestros días, ha estado permanentemente condicionado por la meteorología. La gran ventaja de la aviación es desplazarse a gran velocidad a través del aire; sin embargo para ello se necesitan unas referencias que permitan al piloto orientarse durante el vuelo. En un primer momento, las referencias que se empleaban eran meramente visuales, es decir, el piloto reconocía desde el aire el terreno sobre el que volaba y de este modo estaba al tanto de su posición en cualquier momento del vuelo. No obstante, la meteorología juega un papel muy importante en la aviación. En condiciones de escasa visibilidad, como puede ser la niebla, estas III Congreso de Cibernética referencias visuales dejan de ser útiles. De manera que se promueve la búsqueda de nuevas alternativas de navegación aérea. II. TIPOS DE NAVEGACIÓN AÉREA Hay diferentes métodos de navegación aérea a través de los cuales se controla el vuelo de una aeronave: A. Navegación Observada Es el método más primitivo y por tanto el más sencillo. El piloto es capaz de conocer la posición en la que se encuentra y la dirección que ha de seguir, mediante la observación del terreno. Como referencias visuales, emplea aspectos geográficos característicos como ríos, carreteras, lagos,... Para operaciones de aproximación, las referencias visuales utilizadas son balizas instaladas en el aeropuerto. El mayor inconveniente de este método es la meteorología, ya que en condiciones adversas, la carencia de visibilidad hace imposible reconocer el terreno; también es difícil identificar el terreno cuando éste no dispone de características relevantes. B. Navegación a Estima Es un método de navegación capaz de calcular, mediante la integración en función del tiempo, la posición actual de la aeronave. Para ello se precisa conocer el punto origen del vuelo, el vector velocidad y el tiempo transcurrido. Este método tiene el inconveniente de que los errores son acumulativos, es decir, un pequeño error en la estimación inicial se convierte en un gran error que aumenta con el tiempo. Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. C. Navegación Asistida por Instrumentos Es un método que, a diferencia de los anteriores, sigue las indicaciones que le proporcionan los equipos de navegación instalados a bordo. Hay diferentes sistemas de instrumentos: unos como el VOR o el ILS, se basan en señales que reciben de estaciones terrestres; otros como el GPS reciben las señales de satélites; y otros son autónomos y no necesitan señales externas, como puede ser el sistema inercial. Fig 1: Sistema de Radioayudas en Ruta ADF/NDB. D. Otros Métodos de Navegación Existen otros métodos menos utilizados como son la navegación astronómica y la navegación aérea Doppler. La astronómica toma de referencia los cuerpos celestes y la navegación aérea Doppler, basada en el "efecto Doppler"1, determina la velocidad y el ángulo de deriva del avión. La navegación asistida por instrumentos es el tipo que se profundiza a lo largo del presente artículo. III. NAVEGACIÓN ASISTIDA POR INSTRUMENTOS Dentro de la navegación asistida por instrumentos hay que distinguir entre los sistemas que se basan en señales de radio (también llamados radioayudas), los sistemas de navegación por satélite y el inercial, que es autónomo. IV. RADIOAYUDAS Las radioayudas nacen en la primera mitad del siglo XX. Existen diversas formas para clasificar estos sistemas. Personalmente, la mejor forma de hacerlo es según su función. 1 El efecto Doppler, llamado así por su progenitor Christian Andreas Doppler, es el cambio de frecuencia de una onda que se produce por el movimiento relativo entre el emisor y el receptor. III Congreso de Cibernética 2 A. Radioayudas en Ruta Guían la aeronave durante el vuelo crucero y la aproximación primaria, debido a que tienen un alcance medio-largo. 1) ADF/NDB: es uno de los sistemas más antiguos que todavía están en uso. Consta de dos equipos: El NDB (Non Directional Beacon) es la estación en tierra, desde la cual se emite una frecuencia entre 200 y 1750 kHz. El ancho de banda varía significativamente en función de la zona del mundo en que se encuentre instalado; por ejemplo en Europa los NDB van desde 255 a 415 kHz y de 519 a 525 kHz. Este ancho de banda se halla en el rango de media frecuencia, con una longitud de onda entre 170 y 1500 m; y con la polarización de la señal vertical. El NDB emite una señal modulada en AM, que indica un código de tres letras de la estación, codificado en código Morse. La señal emitida tiene un alcance entre 46 y 185 km; y aunque el alcance potencial de media frecuencia es mayor, se producen problemas de propagación que limitan el alcance efectivo. Uno de estos problemas es el "efecto fadding", que se produce cuando a una determinada distancia del emisor, el receptor recibe una onda que ha recorrido caminos distintos (una de tierra y otra de cielo); esto origina interferencia destructiva produciendo una señal intermitente, que aparece y desaparece rápidamente. El ADF (Automatic Direction Finder) es el receptor que se encuentra en la aeronave. Los problemas que afectan a este equipo son los cambios de polarización, que se producen al esquivar obstáculos; y las tormentas, que causan cambios estáticos; además del "efecto fadding" como en el NDB. El sistema ADF/NDB funciona con una precisión media de 3 a 5º. El piloto sabe que está sobrevolando esta radioayuda gracias a la existencia de un "cono de silencio", que es una zona sin cobertura en la vertical de la antena del NDB en forma de cono invertido con un ángulo menor a 45º. Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. La señal procedente del NDB se recibe por el ADF y se presenta ante el piloto mediante el RMI (Radio Magnetic Indicator), que indica la dirección a la estación NDB. 2) VOR (VHF Omnidirectional Range): es la ayuda a la navegación de corto alcance establecida por la OACI (Organización de Aviación Civil Internacional) como estándar. El VOR proporciona automáticamente al piloto la dirección entre la aeronave, la estación en tierra del VOR y el norte magnético. Este sistema opera en un ancho de banda comprendido entre 108 y 118 MHz. El transmisor VOR de la estación en tierra emite dos señales de navegación: una de referencia de 30 MHz modulada en FM sobre una subportadora de 9960 Hz y una señal variable en azimut, modulada en AM. La señal de referencia indica el norte magnético y la señal variable la dirección de la aeronave. Además de estas señales de navegación, el VOR también emite un canal de audio con una frecuencia comprendida entre 300 y 3000 Hz, que proporciona información sobre la estación mediante tres letras codificadas en Morse. El receptor VOR a bordo de la aeronave proporciona la información de la posición de la misma, comparando la diferencia de fase entre la señal de referencia, alineada con el norte magnético, y la señal variable en azimut. Fig 2: Sistema de Radioayudas en Ruta VOR, donde (a) Antena VOR y (b) indicador en cabina de la señal del VOR. III Congreso de Cibernética 3 El VOR es un sistema de navegación que define las aerovías entre estaciones VOR. No obstante, también puede utilizarse en maniobras de aproximación, para determinar puntos de espera o rumbos de aproximación, mediante estaciones VOR cercanas a la pista de aterrizaje. El VOR es un sistema capaz de llevar a cabo la navegación en ruta de manera muy precisa, ya que el error medio se encuentra entre 1 y 2º. 3) DME (Distance Measurement Equipment): es un sistema de navegación que proporciona casi continuamente información de distancia entre el avión y la estación en tierra (10 medidas por segundo). Por lo tanto necesita un emisor y un receptor en el equipo de abordo y un transpondedor en la estación en tierra. El funcionamiento de este sistema se basa en preguntas y respuestas entre la aeronave y el equipo de tierra. El equipo de abordo de la aeronave interroga a la estación en tierra mediante una señal de pares de pulsos. Éste le responde con una secuencia de pulsos idéntica pero con un determinado atraso de tiempo (50 microsegundos). Para obtener una aproximación de la distancia entre la aeronave y la estación en tierra, se calcula el tiempo transcurrido desde que la aeronave realiza la pregunta hasta que obtiene la respuesta; a este tiempo hay que restarle los 50 microsegundos del retraso y se divide entre dos debido al espacio recorrido (ida y vuelta). El resultado obtenido hay que dividirlo entre la velocidad de la luz, para así obtener la distancia resultante. La secuencia de pares de pulsos depende del equipo de abordo, por lo que una misma estación en tierra puede responder a más de una aeronave simultáneamente, hasta 100 ó 200 aeronaves. La precisión de un sistema DME se encuentra entre 185 y 926 m. El DME raramente se utiliza solo, sino que suele emplearse casi siempre junto con una ayuda que proporciona información Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. angular, como las vistas recientemente (NDB y VOR). También se puede encontrar junto con el ILS, sustituyendo a las radiobalizas, como se menciona a continuación. B. Radioayudas para el Aterrizaje Guían a la aeronave durante las fases de aproximación final y aterrizaje, debido a su corto alcance. 1) ILS (Instrument Landing System): es el sistema de ayuda para la aproximación final y el aterrizaje normalizado por la OACI para todo el mundo. El ILS proporciona a las aeronaves de dentro de su volumen de cobertura información de guiado acimutal, cenital y de distancia para que el piloto, sin referencias visuales externas, pueda alcanzar un punto de la trayectoria de descenso situado a una altura, denominada altura de decisión. Una vez alcanzada la altura de decisión el piloto decidirá continuar el descenso hacia la pista, para proceder al aterrizaje, en función de si ha establecido referencias visuales con la mencionada pista. Las informaciones de guiado acimutal, cenital y de distancia son proporcionadas por las estaciones trasmisoras denominadas, respectivamente, Localizador (LZ), Senda de Descenso (GP) y Radiobalizas (OM, MM, e IM) ó DME. El localizador es una estación transmisora que tiene por objeto materializar la “superficie de rumbo”, para guiar al avión a lo largo de la prolongación del eje de pista y, en caso de separarse de ésta, indicarle proporcionalmente cuánto está apartado (sector de sensibilidad). La senda de descenso es un transmisor que, de forma análoga al localizador, tiene por objeto materializar la “superficie de descenso” guiando al avión a lo largo de una superficie descendente, de pendiente próxima a los , que pasa por el punto teórico de contacto sobre la pista. Igual que el LZ, también suministra información sobre la separación de la aeronave con respecto a III Congreso de Cibernética 4 esta superficie en un “sector de sensibilidad”. La intersección entre las superficies de rumbo (plano vertical) y de descenso (superficie cónica) materializa la trayectoria de descenso que tiene la forma ideal de una rama de hipérbola. Las frecuencias en las que se transmiten las señales del localizador y de la senda de descenso se encuentran apareadas, es decir, para cada frecuencia del localizador le corresponde una frecuencia de la senda de descenso; y éstas se encuentran comprendidas entre 108 y 118 MHz, y 329 y 335 MHz, respectivamente. Además, el localizador emite una señal periódica modulada en AM por un tono de 1020 Hz, igual que en el caso del VOR y el NDB identifica la estación mediante dos o tres letras codificadas en Morse. Fig 3: Sistema de Radioayudas para el Aterrizaje ILS. Las Radiobalizas (OM, MM, e IM) son transmisores cuyo funcionamiento se basa en activar el receptor correspondiente del avión cuando éste pasa aproximadamente sobre su vertical, e indicar así la distancia hasta el umbral de pista. Para estos fines se puede emplear un DME, sustituyendo las radiobalizas. El indicador de cabina que proporciona al piloto la información necesaria para situarse en la trayectoria de aproximación adecuada es el CDI (Course Deviation Indicator). Este indicador consta de dos agujas, una vertical y otra horizontal para indicar la desviación proporcional a la superficie de rumbo y de descenso, respectivamente. Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. 2) MLS (Microwave Landing System): es un sistema de aterrizaje por microondas, normalizado también por la OACI para operaciones de aproximación y aterrizaje, al igual que el ILS pero más flexible que éste. Proporciona información vertical y horizontal, en una banda de frecuencias comprendidas entre 5031 y 5090 MHz, con la capacidad de proporcionar múltiples sendas de aproximación e información de distancia a la pista. El MLS soluciona alguno de los problemas que tiene el ILS, como puede ser la reflexión de ondas causadas por aeronaves en las calles de rodaje o por otro tipo de obstáculos como montañas o hangares. Además tiene un coste bastante más bajo. Fig 4: Sistemas de Posicionamiento por Satélites. V. S ISTEMAS DE NAVEGACIÓN AUTÓNOMA: NAVEGACIÓN INERCIAL La navegación autónoma es aquella que no depende de equipos externos a la aeronave por lo que no es susceptible a interferencias ni a errores externos. La navegación inercial tiene como finalidad conocer la posición, la velocidad y la actitud de una aeronave. A. Sistemas de Navegación Inercial (INS, Inertial Navigation System) Nacen en la segunda mitad del siglo XX gracias a los avances en computación. Se basan en acelerómetros y giróscopos. Los acelerómetros miden la aceleración lineal y los giróscopos la velocidad de giro de la aeronave III Congreso de Cibernética 5 (guiñada). Como se observa, estos instrumentos no nos indican explícitamente la posición de la aeronave; sin embargo, puede calcularse a partir de la información proporcionada. La velocidad obtenida a través del giróscopo es integrada para obtener la distancia recorrida. El acelerómetro por su parte nos proporciona la aceleración que es la derivada de la velocidad; por lo tanto, integrando dos veces el valor de aceleración se obtiene la posición de la aeronave. Estas operaciones son realizadas con gran rapidez y precisión. VI. SISTEMAS DE POSICIONAMIENTO POR SATÉLITES Los sistemas de navegación que se basan en satélites reciben el nombre genérico de GNSS (Global Navigation Satellite Systems) debido a que su cobertura es mundial. Los más importantes son: GPS (Global Positioning System): sistema estadounidense de origen militar, que empezó a operar a principios de la década de 1980. GLONASS (Global Navigation Satellite System): es el GPS ruso. Sistema de Navegación Galileo: es un futuro sistema GNSS, totalmente civil, de origen europeo y aún en desarrollo. Tiene expectativas de superar al GPS. A continuación, se profundiza un poco más en el GPS debido a que es el más extendido. A. Sistemas de Posicionamiento Global (GPS, Global Positioning System) Es un GNSS que permite determinar la posición de una aeronave en todo el mundo. Sin embargo, no se utiliza para la navegación aérea por sí solo, sino como ayuda secundaria, ya que no es demasiado preciso. Es un sistema compuesto por 24 satélites, dispuestos en órbita a unos 20200 km de la Tierra con trayectorias sincronizadas para cubrir toda la superficie terrestre. El funcionamiento del GPS se basa en el principio matemático de la triangulación, utilizando como mínimo cuatro satélites. Por lo tanto, para calcular la posición de un punto, el GPS recibe las señales y las horas de cada uno de ellos y a partir de estos datos y por triangulación se calcula dicha posición. Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. La navegación actual está sufriendo una revolución tecnológica gracias a los últimos avances y se estima que antes del 2020, se sustituyan casi todos los sistemas basados en navegación por satélite. VII. ÚLTIMOS AVANCES Algunos de los avances tecnológicos más significativos son: los sistemas de navegación integrados, el GPS diferencial y el sistema GALILEO. A. Sistemas de Navegación Integrados En la actualidad, las aeronaves disponen de diversos sistemas de navegación, cada uno de ellos proporciona una estimación diferente sujeta a error. Al integrar los sistemas de navegación se pretende obtener una única estimación minimizando el error. Por ejemplo, el INS y el GPS son complementarios: 1) El INS: Da una estimación continua en el tiempo Su error crece con el tiempo Posee un elevado ancho de banda (KHz) 2) El GPS: Proporciona una medida de alta precisión pero discreta en el tiempo El error está acotado Posee un bajo ancho de banda (Hz) Una forma de funcionamiento de esta integración puede realizarse reseteando el INS cada vez que se obtenga una medida del GPS. No obstante, la medida del GPS tampoco es exacta. Por lo tanto hay que intentar combinar el INS y el GPS de alguna forma que se minimice el error final. Hay dos formas posibles: 1) Loose Integration: Permite tomar las medidas de ambos sistemas y obtener una estimación común Es la forma más simple de integrar INS y GPS No requiere modificar las estimaciones individuales de cada sistema. 2) Tight Integration: Integra directamente las señales de III Congreso de Cibernética 6 entrada al INS y al GPS, es decir, las medidas de los giróscopos, acelerómetros y los observables GPS Es más complejo de desarrollar Se emplea un único algoritmo que integra ambos sistemas Obtiene estimaciones más precisas que el anterior. Ambos casos emplean el "Filtro de Kalman"2 y sus extensiones para desarrollar la integración. La mayor ventaja de los sistemas integrados es la reducción de los costes por el uso de sensores de baja calidad. B. GPS diferencial En la actualidad, ninguno de los sistemas GNSS puede operar como método único de navegación aérea, debido a que ninguno proporciona actualmente integridad, es decir, no proporciona un aviso rápido y automáticamente al piloto en caso de fallo. Por tanto se han desarrollado sistemas complementarios a los GNSS que se denominan Sistemas de Aumento y son: 1) SBAS: son sistemas de aumento basado en satélites auxiliares con funciones específicas para complementar a los GNSS y hacerlos aptos para la navegación en ruta y las aproximaciones a la pista. Algunos de ellos son: WAAS (EEUU), EGNOS (Europa) y MSAS (Japón). 2) GBAS: son sistemas de aumento basados en instalaciones en tierra, de corto alcance y se ocupan de la asistencia en el aterrizaje. Un ejemplo típico es el LAAS, que está en desarrollo. 3) ABAS: son sistemas de aumento basados en instrumentos de abordo. Recogen información de varios instrumentos aeronáuticos y la combinan para monitorizar el estado de los satélites GNSS. Uno de ellos es el RAIM. 2 El ingeniero húngaro Rudolph E. Kalman, desarrolló el Filtro de Kalman para presentárselo a la NASA en 1960 como algoritmo de fusión de sensores para el programa Apollo. Se emplea en la reconstrucción de señales que evolucionan en el tiempo a partir de medidas con ruido. El Filtro de Kalman sólo sirve para sistemas lineales; por eso en navegación se utilizan extensiones no lineales, denominadas Filtro de Extendido de Kalman. Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos. C. Sistema GALILEO Es un GNSS civil desarrollado por la Unión Europea con el fin de evitar la dependencia de los sistemas militares GPS y GLONASS. Todavía no está en el mercado. Es un sistema que presta servicios de autonomía en radionavegación, ubicación en el espacio y será interoperable con los sistemas GPS y GNSS. Proporcionará la ubicación en el espacio en tiempo real con una precisión de metros, debido a que la posición se calcula a partir de varios satélites. Los satélites Galileo estarán en órbitas ligeramente más inclinadas hacia los polos; así los datos serán más exactos en estas regiones donde el GPS pierde precisión. También asegura una disponibilidad continua, excepto en situaciones extremas, en las que informará automáticamente del fallo; este aviso es imprescindible sobre todo en aplicaciones en las que se ve involucrada la seguridad. El uso de este sistema con otros GNSS ofrecerá mayores prestaciones en el mundo entero. En ocasiones se producen interrupciones en el servicio debido a fallos de los satélites, interferencias accidentales, etc.; el sistema GALILEO pretende reducir estos problemas mediante la transmisión de señales suplementarias de radionavegación en diferentes bandas de frecuencia. Se estima que el sistema GALILEO esté disponible a partir del 2014. VIII. CONCLUSIONES Como se observa, el mundo de la navegación aérea tiene un gran futuro por delante, en especial la navegación por satélite. El gran desarrollo tecnológico que han sufrido los teléfonos móviles en los últimos años influye directamente en el progreso de dichos avances, ya que actualmente, los Smartphone, disponibles para cualquier usuario, incorporan gran parte de estos progresos. Por ejemplo, los sistemas de navegación por satélite avanzan a pasos tan agigantados que se prevé que en un futuro próximo tengamos la información de posicionamiento tan a mano como la hora en un reloj de muñeca; esta información se podrá utilizar en diversas aplicaciones. III Congreso de Cibernética 7 Por último, cabe destacar el gran interés estratégico y el empeño de cada territorio en desarrollar su propio sistema global, pero a su vez independiente del resto de los sistemas, con el fin de proporcionar los servicios necesarios y potenciar un mercado basado en esta tecnología. REFERENCIAS [1] C.Busto. "NavegÁrea, Área de Ayudas a la Navegación Aérea y Servidumbres Aeronáuticas. Disponible en: http://www.navegarea.com/ [2] D. Rivass y R. Vázquez. "Navegación Aérea." Disponible en: http://www.aero.us.es/na/ [3] D. Salazar. "Navegación Aérea y Radioayudas." Disponible en: http://nacc.upc.es/ Autor Ingeniería Técnica Aeronáutica, especialidad en Aeromotores. González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos 1 Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos González Fernández, Jaime Universidad de León Resumen— El artículo aborda los estudios teóricos de optimización de trayectorias de aeronaves, para su posterior implementación mediante software informático. Para ello, se desarrollan métodos analíticos que permiten planificar rutas de vuelo en función de las condiciones meteorológicas y la naturaleza de los espacios aéreos. Las rutas de vuelo se optimizan de acuerdo con unos factores fijados por el usuario o compañía. Al poder adecuar modelos atmosféricos existentes a la tarea, se incluyen parámetros de calidad que ayudan al proceso de optimización de trayectorias. Los datos de los vientos se basarán en el modelo libre de predicción meteorológica WRF (Weather Research and Forecasting), ampliamente utilizado por la comunidad científica. Se implementan métodos analíticos, consiguiendo procedimientos complejos que se utilizarán en simulaciones de rutas y modelos meteorológicos. Siguiendo este estudio teórico, se podrá desarrollar un modelo de prueba en el laboratorio que comunique el sistema de optimización de rutas con autopilotos de UAVs. Índice de Términos—trayectoria, optimización, método analítico, sistema continuo, predicción meteorológica, WRF, UAV, autopiloto, planificar. I. INTRODUCCIÓN La finalidad del estudio es realizar el análisis teórico para diseñar trayectorias optimizadas en tiempo real teniendo en cuenta las predicciones meteorológicas obtenidas mediante el sistema WRF (Weather Research and Forecasting). Así, se podrá hacer un mejor cálculo de las variables del vuelo: combustible necesario, máxima carga permitida, etc. En caso de emergencia, también se podrá calcular la máxima autonomía de un avión o el máximo alcance de éste, comparándolo con las distancias a los aeródromos más cercanos. Debido al encarecimiento en el precio de los hidrocarburos, resulta especialmente atractivo el ahorro de combustible gracias al aprovechamiento eficiente del viento, por lo que este proyecto tendrá beneficios para las compañías operadoras en el aspecto económico en particular y para la ecología en general. El avión es un objeto de geometría variable conocida que interacciona con el resto del sistema a través de un conjunto de acciones aerodinámicas, gravitatorias y de contacto (pista). Como consecuencia de esa interacción, el avión desarrolla un movimiento en sus seis grados de libertad a la vez que perturba las condiciones del aire que lo circunda. Por lo tanto, considerando simplificaciones evidentes como la ausencia de elementos móviles en el terreno, el estado del sistema estará completamente definido cuando, en un instante dado, se conozcan: • La posición y la velocidad del centro de masas del avión. • La actitud y la velocidad angular del avión alrededor de su centro de masas. González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos • La geometría del avión. • Posición del mando sobre el sistema propulsivo. • Campo de velocidades en el entorno de estudio. Se desea optimizar la trayectoria de los aviones, es decir, al modo de surcar el aire desde un punto inicial (que se denominará con el subíndice D departure-) hasta un punto final (que se indicarán con A -arrival-). Tanto en el punto D como en el punto A se podrán imponer condiciones sobre las variables de estado, ya sean determinadas o dadas como solución al problema planteado. Generalmente tanto en el punto D como en el A algunas condiciones vendrán dadas mientras que otras podrán seleccionarse para buscar la mejor solución al problema. Así definido, el problema de optimización de trayectorias puede resultar inabordable. Es preciso realizar simplificaciones que, sin hacer perder la validez al ejercicio, permitan obtener resultados aplicables. II. MÉTODO DE RESOLUCIÓN ANALÍTICA A. Análisis Se considera un sistema de vuelo en el cuál no se mantiene constante la velocidad aerodinámica de crucero, sino que ésta puede variar entre un rango de velocidades posibles dentro de la capacidad propulsiva del avión. Se tienen cambios tanto en la aerodinámica del avión como en su sistema de control de empuje. Se considera la altura de vuelo constante a lo largo de toda la trayectoria. En el vuelo sobre los vientos existentes las condiciones de sustentación y resistencia son cambiantes, y por lo tanto de velocidad total . No se consideran cambios de geometría o masas apreciables debido al consumo de combustible o algún otro aspecto operativo. En cuanto a los vientos, se toman estacionarios (tiempos de cambio característicos menores que la duración de la ruta) y sin componente vertical. 2 El piloto puede, a través del conjunto de mandos lateral-longitudinal, dirigir el ángulo de balanceo del avión,(), el empuje de los motores, T(t),y el coeficiente de sustentación, (t). Por lo tanto, (), T(t)y (t)son las variables de control del problema. Las variables de estado son las coordenadas del avión ‘x’, ‘y’, ‘z’, el ángulo de cabeceo, (), la velocidad total del avión y el rumbo de la velocidad aerodinámica, ψ() La dificultad en el cálculo de trayectorias optimizadas depende fundamentalmente de la complejidad del modelo dinámico utilizado para describir el vehículo. En el actual problema, se considera el avión como un punto singular donde se aplican todas las fuerzas, donde se concentra toda la masa, y cuyos momentos de inercia son despreciables. Se permite que el avión pueda balancear. B. Obtención de las ecuaciones de estado El modelo dinámico del movimiento del avión está constituido por dos teoremas fundamentales de la Mecánica Clásica: el teorema de la cantidad de movimiento y el teorema del momento cinético. En nuestro caso, consideramos que nuestra aeronave es una masa puntual y por lo tanto los momentos de inercia son nulos. Utilizaremos únicamente el teorema de la cantidad de movimiento: (1) () Se prestará especial atención a las diferencias en módulo, dirección y sentido de la velocidad aerodinámica y la velocidad total de nuestra aeronave. En aviones no tripulados, en las que las velocidades medias de vuelo son bajas, las velocidades del viento pueden tener una influencia importante en el comportamiento global de nuestro sistema. La virtud radica en saber aprovechar la fuerza del viento de la manera más eficiente posible. En primer lugar, se realiza un esquema en el que se pueda apreciar perfectamente la dirección de la sustentación, la resistencia y el empuje en relación = González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos con la velocidad aerodinámica [1]. Es necesario definir con claridad el sistema de ejes utilizados. Según la mecánica clásica, el sistema inercial se define, bien como un sistema que está en reposo (o en movimiento rectilíneo, uniforme y no rodante) respecto a las estrellas fijas, o bien como un sistema en el que para una masa puntual, es posible aplicar la expresión de fuerza igual a masa por aceleración [2]. En el presente estudio sobre aviones, es más que suficiente considerar como sistema inercial un sistema geocéntrico ligado a las estrellas fijas. El origen del mismo es el centro de la tierra. Utilizaremos el sistema de ejes de horizonte local. El origen de este sistema es el centro de masas del avión. Los ejes , , se toman paralelos a los ejes tierra (descritos anteriormente) que existirían en el punto subavión. En la Fig. 1, se ha representado una condición de vuelo en la que la velocidad aerodinámica tiene el sentido y dirección del eje , con el fin de facilitar la apreciación de los diferentes ángulos y fuerzas. El eje tiene la dirección del centro de masas del avión al centro de la tierra, y sentido opuesto al mismo. El eje es perpendicular al eje , tiene origen en el centro de masas del avión La dirección y el sentido son hacia el norte. El eje resulta de aplicar el producto vectorial × . ) Eje de sustentación nula 3 pero su sentido será el opuesto. Puede que la dirección de la velocidad aerodinámica y el empuje no coincidan, ya que tenemos que tener en cuenta el ángulo de decalaje de los motores, , y el ángulo de ataque . El peso, !, siempre tendrá dirección vertical y su sentido será hacia el centro de la Tierra. El ángulo de resbalamiento, β, se considera siempre 0. Los aviones de estudio se suponen simétricos, por lo que se desprecia la fuerza lateral . En presencia de viento, los vectores de la velocidad total del avión y de la velocidad aerodinámica no coincidirán. En la Fig. 2 se muestran un hipotético estado de vuelo, con el fin de definir los ángulos de interés en el estudio. ( ψ ψ Fig. 2: Esquema de la velocidad total, la velocidad aerodinámica y la velocidad del viento según el sistema de coordenadas " # , $# , %# . Las direcciones y sentidos de los vectores de * interés se han definido de acuerdo con un sistema de coordenadas , , que se mueve con el avión pero mantiene siempre la misma orientación en el espacio. Para simplificar la aplicación de la segunda ley de Newton en el problema, se define un sistema de ecuaciones X’, Y’, Z’ igualmente ortogonal. La ! dirección y sentido de X’ será siempre la de la . El eje Z’ es perpendicular a X’, y velocidad total Fig. 1: Esquema de las fuerzas de vuelo según el plano , . forma un ángulo con el plano & − . El eje Y’ surge como resultado de aplicar el producto En cualquier caso, la sustentación, , siempre vectorial × . La transformación se muestra en será perpendicular a la velocidad aerodinámica del la Fig. 3. avión, . La resistencia, , siempre tendrá la misma dirección que la velocidad aerodinámica, González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos Aplicamos la segunda ley de Newton, utilizando como referencia el eje de coordenadas X’, Y’, Z’. A diferencia de los ejes Tierra, este sistema de coordenadas no es inercial, por lo que tendremos que tener en cuenta las fuerzas de inercia. Según eje & : ∙ , = ) · cos ( − + − ) · cos 2ψ − ψ 3 − · cos ( − ) · cos 2ψ − ψ 3 − · 456( − ) − ! · 456 Según eje : ∙ · ,& = ) · sen( − + − ) − · sen( − ) + · cos ( − ) −! · 9:4 · cos Según eje & : ∙ · ψ&, = ) · cos ( − + − ) · sen 2ψ − ψ 3 − · cos ( − ) · sen 2ψ − ψ 3 +! · 9:4 · 456 && & && (4) En la parte izquierda de la igualdad de las ecuaciones (3) y (4), aparece la derivada respecto al tiempo de los ángulos & y ψ& . Trabajar con estos ángulos resulta complejo. Con el fin de facilitar los cálculos, se realiza un último cambio de sistema de coordenadas. El cambio se realiza de los ejes X’, Y’, Z’ a los ejes X’’, Y’’, Z’’. El eje Y’’ tendrá que estar siempre comprendido en el plano horizontal (paralelo a la superficie de la Tierra). El eje Z’’ estará siempre en el plano perpendicular a la superficie de la Tierra y que contiene a la velocidad total de la aeronave. Para que se mantenga la ortogonalidad, el eje Z’’ tendrá que desviarse respecto de la vertical el ángulo de cabeceo, . X’ y X’’ son coincidentes. De la misma manera que en casos anteriores, una vez definidos X’’ y Z’’, Y’’ es resultado del producto vectorial ′ × ′. El resultado se aprecia en la siguiente figura. & (3) . (2) & 4 & ≡ X′′ Fig. 3: Sistemas de referencia X’, Y’, Z’ y X’’, Y’’, Z’’. Proyectamos las fuerzas respecto del sistema de coordenadas X’, Y’, Z’ en el sistema de coordenadas X’’, Y’’, Z’’, teniendo en cuenta el ángulo φ. Según eje & : (5) ∙ , = ) · cos ( − + − ) · cos 2ψ − ψ 3 − · cos ( − ) · cos 2ψ − ψ 3 + · sen( − ) −! · 456 Según eje && : ∙ · , = +) · =sen( − + − ) · cos + cos ( − + − ) · sen 2ψ − ψ 3 · 456> − · =sen( − ) · cos + cos ( − ) · sen 2ψ − ψ 3 · 456> + · cos ( − ) · cos −! · 9:4 Según eje ′& : ∙ · ψ, = (6) (7) González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos +)[cos ( − + − ) · sen 2ψ − ψ 3 · cos + sen( − + − ) · sen ] −=cos ( − ) · sen 2ψ − ψ 3 · cos + sen( − ) · sen > + · cos ( − ) · sen la velocidad aerodinámica del avión, las direcciones de la velocidad aerodinámica y de la velocidad total de la aeronave coinciden, por lo que se puede realizar la siguiente aproximación: (13) 456(ψ − ψ )~ψ − ψ Atendiendo nuevamente a las variables de control y a las variables de estado, existen seis variables de estado: ‘x’, ‘y’, ‘z’, el ángulo de cabeceo, , la velocidad total del avión y el rumbo de la velocidad aerodinámica, ψ. Las variables de control son tres: ángulo de balanceo del avión,(), el empuje de los motores, T(t),y el coeficiente de sustentación, (t). Puesto que solo tenemos tres ecuaciones de estado, es necesario generan otras tres ecuaciones adicionales que aporten la información necesaria como para calcular las seis variables de estado a partir de las variables de control. C, = ∙ cos · cos ψ D, = ∙ cos · sen ψ E, = ∙ sen 5 (8) (9) (10) C. Simplificaciones En condiciones de vuelo normales, el ángulo de ataque de las aeronaves es pequeño. Además, para maximizar la eficiencia propulsiva, el ángulo de decalaje de los motores también suele tomar valores próximos a 0. Si estos ángulos se encuentran dentro de una adición, se podrán obviar. En caso contrario, realizaremos las siguientes aproximaciones. (11) 456( − )~ − (12) 9:4( − )~1 Si los valores del viento son pequeños respecto de la velocidad de avance de la aeronave o los vientos, aún siendo de gran magnitud, tienen aproximadamente la misma dirección y sentido que (14) 9:4(ψ − ψ )~1 Si los valores de viento vertical son pequeños con respecto a la velocidad de avance de la aeronave, la diferencia entre los ángulos de asiento de la velocidad aerodinámica y la velocidad total es pequeña. Se podrá realizar la siguiente aproximación: (15) 456( − )~ − (16) 9:4( − )~1 D. Fuerzas aerodinámicas y polar parabólica Consideramos que nuestro avión vuela a bajas velocidades, en régimen subsónico incompresible. Se desprecian los efectos del número de mach M sobre los rendimientos aerodinámicos. Los números de Reynolds durante el vuelo son altos (Re del orden de 10I ), por lo que los efectos de la viscosidad están confinados a la zona de la capa límite y la región exterior puede considerarse no viscosa. En nuestro estudio, despreciaremos el efecto de las deflexiones de los mandos de control en la sustentación y la resistencia [2]. 1 (17) = K L M ( ) 2 1 (18) = K L M N ( ) 2 La relación entre la sustentación y la resistencia se denomina eficiencia aerodinámica, E. (19) O= = N E. Adimensionalización de las ecuaciones Con el fin de facilitar los cálculos matemáticos, se procede a adimensionalizar las ecuaciones de González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos estado, realizando sustituciones. )P · ! ) = OQ = P · R S ·! = OQ = 6 · ! ! = T en éstas las siguientes (20) (21) (22) (23) (24) )P: 5VWX5YZ564Z:6Y[. P : \5[:9ZYYZ564Z:6Y[. S :]54Z4569ZYYZ564Z:6Y[. OQ : 5^Z9Z569ZYY5]:Z6áZ9YáCZY. R : \5[:9ZY5í6ZY]54Z569ZY. 6: ^Y9:]59Y]TY. R ̂ R (P · R ) R , = = = = 9 ̂ ̂ 9 ̂ L L P R R = = P, · 9 ̂ 9 P P ̂ R ≡ = = P, · 9 ̂ C Cc = 9 C C ̂ C R (Cc · 9) R C, = = = = ̂ ̂ 9 9 ̂ Cc = = Cc, · R ̂ R F. Condiciones de optimización en sistemas continuos Considérese el sistema continuo cuya evolución en el intervalo N ≤ ≤ e viene dada por [3]: (31) C̅, = ^[̅ C̅ (), Wg (), ] con condiciones finales C̅ (N ) = C̅N conocidas. Las variables de estadoC̅ () se pueden obtener en cada momento a partir de las variables de control W (). Se desea minimizar la función escalar: lm (32) h = ∅(C̅e , e ) + j (C̅ , Wg, k)k ln En las ecuaciones de estado tenemos derivadas respecto del tiempo. Éstas se adimensionalizan con ayuda de la cuerda, c, de la siguiente manera: (25) ̂ = 9 bR (26) ̂ 1 R =9 = 9 b (27) (28) (29) (30) En el caso de los ángulos, no habrá ningún cambio al realizar la adimensionalización. 6 compuesta por una condición terminal, es decir, evaluada en el punto final de la trayectoria, y una condición integral, resultado acumulativo de operaciones sobre las variables de estado, de control y el propio tiempo a lo largo de toda la trayectoria. Así definida, la función de coste puede servir para obtener trayectorias de mínimo tiempo, mínimo consumo, máximo alcance, etc. sin más que definir adecuadamente las funciones ∅ y [4]. El método más conveniente para calcular la función Wg () que minimiza h, y que por lo tanto permite extraer la trayectoria C̅ () óptima, consiste en usar parámetros de influencia (multiplicadores de Lagrange, λg ) para definir una nueva función (el Hamiltoniano, o (C̅ , ug, k)) cuyo cambio diferencial sea nulo para cualquier perturbación en las variables de estado y control, en lo que se conoce como el principio de Pontryagin. (33) o(C̅ , Wg, ) = (C̅ , Wg, ) + λg() ∙ ^ (̅ C̅ , Wg, ) Si se eligen los valores de los multiplicadores adecuadamente, el sistema de ecuaciones puede simplificarse ostensiblemente. La función de coste se puede reescribir adjuntando términos que son idénticamente nulos, de manera que: lm (34) ( ) h = ∅ C̅e , e + j r(C̅ , Wg, ) + λg() ln ∙ =^(̅ C̅ , Wg, ) − C̅, >sk González Fernández, Jaime Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos Realizando la integración por partes, se demuestra que definiendo las funciones de influencia como: to (C̅ , Wg, ) (35) λg,() = − tC̅ t (C̅ , Wg, ) t^ (C̅ , Wg, ) =− − λg() ∙ tC̅ tC̅ u∅(v̅ ,lm ) m (36) con λg,(e ) = − uv̅ m las variaciones en la función de coste se escriben: lm (37) to (C̅ , Wg, k) h = λg(N ) ∙ C̅N + j Wgk tWg ln La condición necesaria parah = hQwx será, por lo tanto, h = 0 para cualquier Wg, lo que implica a lo largo de toda la trayectoria: to (C̅ , Wg, ) (38) = tWg t(C̅ , Wg, ) t^ (C̅ , Wg, ) − − λg() ∙ =0 tWg tWg En resumen, las ecuaciones aportadas permiten resolver el ejercicio de optimización siempre y cuando la complejidad matemática no implique la utilización de métodos de alta carga computacional. Por otra parte, las condiciones de contorno pueden estar divididas entre puntos iniciales y finales (por ejemplo la posición inicial dada y el tiempo final dado). Además, el sistema puede verse sujeto a restricciones que complican aún más la solución. III. CONCLUSIONES Este artículo sienta las bases para desarrollar un software informático capaz de hallar trayectorias optimizadas entre dos puntos. El método de resolución planteado es analítico, pero resulta conveniente el uso de elementos y técnicas numéricas para que el coste computacional sea asequible para los ordenadores convencionales. De esta forma, se podrá aplicar la teoría anteriormente expuesta en tiempo real, logrando resultados sorprendentes. 7 REFERENCIAS [1] Gómez Tierno M.A.; Pérez Cortés M.; Puentes Márquez C.: Mecánica de Vuelo, Escuela Técnica Superior de Ingenieros Aeronáuticos, Universidad Politécnica de Madrid, Madrid. [2] Philips W.F.: Mechanics of flight, John Wiley & Sons, Hoboken, Nueva Jersey. [3] Bellman R.: On a routing problem, Quaterly of Applied Mathematics, 1958, Princeton, Nueva York. [4] Bellman R.: Dynamic Programming, Princeton University Press, 1957, Princeton, Nueva York. Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte 1 Estado del arte de los mapas autoorganizados (SOM) Vega de la Fuente, Miguel [email protected] Laboratorio de Investigación Aeroespacial Universidad de León Resumen—El presente documento pretende llevar a cabo un estudio de la situación actual de los SOM (SelfOrganizating-Map) y sus últimos avances científico-técnicos. Se procederá a desarrollar dos apartados principales, por un lado, una descripción del modelo teórico; por el otro, se explicarán algunos ejemplos del uso actual que se le está dando a estos mapeados, centrándose en un caso concreto de aplicación en una planta de tratamiento de gases. Índice de Términos — Agrupamiento de datos, mapa autoorganizado, supervisión de procesos, visualización de procesos. I. INTRODUCCIÓN El mapa de auto-organización (SOM) ha proporcionado una herramienta potente y útil para la extracción de datos, clasificación, análisis, y visualización. Para un conjunto de datos etiquetados, un SOM es una de las mejores técnicas disponibles para la visualización de la distribución de cada clase en el conjunto general de datos. En una aplicación como ésta, el mapeado SOM muestra cómo los vectores de datos de cada clase se distribuyen en el espacio de altas dimensiones de datos, mediante la transformación de los mismos a un conjunto de datos en un mapeado de dimensiones más pequeñas, conservando sus relaciones topológicas. A pesar de que esta característica del SOM lo hace eficaz para muchas aplicaciones, algunos casos requieren una visualización de estas relaciones entre las distribuciones de las clases, es decir, en qué grado dos distribuciones de clase son similares o diferentes. Un SOM facilita un mapa de vectores de datos, y actualmente se ha conseguido que facilite un mapa de distribución de clases. Otro ejemplo donde la distribución de datos es III Congreso de Cibernética ULE más importante que los puntos con información de los datos individuales, es en la clasificación según el color en fotografía. En este caso, un histograma en 3 dimensiones RGB (Red-Green-Blue) se utiliza generalmente como un vector o matriz con las características de la fotografía. De esta forma, cada fotografía es considerada como una clase, que consta de datos de pixel en el espacio RGB. El SOM también se ha utilizado para representar la distribución de colores en lugar de histogramas. Las aplicaciones del SOM se han extendido a numerosas áreas, como pueden ser la búsqueda web, la bioinformática y las finanzas. A pesar de su creciente importancia, sin embargo, el SOM convencional y la mayor parte de sus extensiones sólo pueden tratar con datos vectorizados. Si se quiere hacer frente a un conjunto de datos no vectorial, entonces uno tiene que distribuir los datos de forma vectorizada por adelantado o modificar el propio SOM para adaptarse al tipo de datos. Por lo tanto, la generalización de la familia SOM es un problema inevitable en el que se describe el algoritmo SOM independientemente del tipo de datos. Se ha conseguido desarrollar un marco general del SOM convencional mediante la adopción de la idea de una red modular, en lo que llamamos un sistema modular de la red SOM (mnSOM). La idea de la mnSOM es simple: cada unidad de vector de la SOM convencional se sustituye por un módulo entrenable funcional tal como una red neuronal. Así, la arquitectura de la mnSOM es un montaje de los módulos funcionales dispuestos en un retículo (fig. 1). Los módulos funcionales pueden ser diseñados para adaptarse a cada aplicación, manteniendo la columna vertebral del algoritmo SOM intacta. Esta estrategia proporciona un alto grado de flexibilidad en el diseño y fiabilidad para los usuarios debido a que el mnSOM permite elegir el módulo funcional que más se adapte a cada caso individual de la gran Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte cantidad de arquitecturas neuronales ya conocidas. Además, esta estrategia permite la capacidad funcional de procesamiento de datos para todas las unidades nodales de la SOM. Así, el mnSOM puede ser utilizado como un conjunto de procesadores de datos después del entrenamiento correspondiente. Ésta es otra ventaja del mnSOM. Fig. 1. Arquitectura de una red mnSOM 2 en particular. Se ha aplicado este método a un problema de datos artificial, el conocido problema de Iris, los datos de Haberman y un problema de datos relacionado con el cáncer. En todos los problemas, los resultados experimentales confirmaron que, como el parámetro de mejora se incrementa, se generan varias configuraciones, en las que el número de límites en términos de matrices-U y planos de componentes podría ser aumentado. Además, se pudo ver que la información relativa fue eficaz en lo que sugiere la posibilidad de detectar el número adecuado de grupos. Finalmente, aunque hubo ciertos problemas con el uso de métodos convencionales para la información relativa de partida, se demostró el potencial del método para la visualización mejorada de los mapas SOM. II. MODELOS ACTUALES El apartado segundo del artículo se encargará de recoger la información encontrada tras la búsqueda en bases de datos científicas. Se ha dividido la siguiente relación de documentos en función de los autores de cada modelo. A. Ryotaro Kamimura Como expone en su publicación [1], se propone un nuevo método teórico-informativo llamado “mejora del aprendizaje” para interpretar la configuración de las redes neuronales competitivas. Cuando se aplica a los mapas SOM, el método tiene como objetivo hacer grupos de datos más fáciles de visualizar en diferentes niveles de detalle. En el método de “mejora del aprendizaje”, los pesos de conexión se modifican para mejorar la capacidad de interpretación de las unidades competitivas, a expensas de los errores de cuantificación en el caso extremo, ya que reducir el error al mínimo no es el principal objetivo de este método. Después de modificar los pesos de conexión, la mejora del aprendizaje puede generar tantas configuraciones de red como sea posible con sólo cambiar el parámetro de nuestra mejora. Una manera útil de combinar la información de las configuraciones de red es extraer varias características comunes a todas las configuraciones, y algunas específicas para otras configuraciones. Además, la información relativa proporciona una guía mediante la cual se puede prestar especial atención a una configuración de red III Congreso de Cibernética ULE Fig. 2. Representación de la matriz-U mejorada B. Dongxiao Niua, Da Liua, Desheng Dash Wu El siguiente artículo del que se va a proceder a hablar [2] desarrolla un sistema SOM que tiene como objetivo llevar a cabo una previsión del precio de la electricidad con un día de antelación. Los precios por hora de la energía en un mercado competitivo son muy volátiles. Por lo tanto es una información clave para ayudar a los productores y compradores que participan en el mercado de la electricidad para preparar sus estrategias de oferta correspondientes, a fin de maximizar sus ganancias y minimizar rendimientos. Es difícil prever todos los precios por hora con un solo modelo para los diferentes comportamientos de los diferentes precios horarios. Tampoco se van a obtener resultados coherentes con 24 modelos diferentes para predecir los precios de cada una de las 24 horas del día. Este trabajo propone una nueva técnica para pronosticar con un día de antelación los precios de Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte la electricidad gracias a una red neuronal SOM y una Máquina de Soporte Vectorial (SVM). La red SOM se utiliza para agrupar los datos de forma automática de acuerdo a su similitud con el fin de resolver el problema de la acumulación de datos insuficientes. Los modelos de regresión para la SVM se basan en las categorías agrupadas del SOM. Los parámetros de los modelos SVM son elegidos por partículas Swarm Optimization (PSO), un algoritmo automático para evitar que la decisión sobre los parámetros del testador sea arbitraria, y así conseguir una mejora de la precisión de los pronósticos. La comparación sugiere que el SOMSVM-PSO tiene un valor considerable en el pronóstico de precios diarios en las zonas de estudio, que fueron Pennsylvania, Nueva Jersey y Maryland, especialmente en el mercado de verano, donde la estimación para los precios máximos es bastante fiable. El modelo SOM se ha aplicado para agrupar los datos automáticamente, y el SVM ha recibido entrenamiento para ser capaz de analizarlos. Se ha demostrado que la agrupación automática de los datos con SOM no sólo evita la deficiencia de las muestras de entrenamiento en el modelado de predicción del precio de la hora de verano, sino que también mejora la capacidad de predecir precios anómalos. La aplicación de los algoritmos PSO evita la arbitrariedad a la hora de que el testador seleccione los parámetros de los modelos, y también garantiza unos resultados aceptables del modelo SVM. El cálculo del experimento indica que el modelo híbrido tiene un mejor rendimiento en la previsión de los precios de verano por hora. Las investigaciones futuras incluyen la comparación de modelos de este enfoque a otros métodos. Fig. 3. Rendimiento del modelo predictivo III Congreso de Cibernética ULE 3 C. M.H. Ghaseminezhad, A. Karami El presente artículo [3] data de 2011. La red neuronal SOM puede ser utilizada para el análisis de grupos preservando al mismo tiempo la estructura de los datos, de tal manera que las entradas similares se almacenan en posiciones cercanas en la capa de salida de la red. Sin embargo, no existía ningún algoritmo que pueda separar grupos automáticamente. En este artículo se presenta un nuevo algoritmo basado en los SOM que automáticamente se encarga de clasificar grupos discretos de datos utilizando un método no supervisado. Dicho método se divide en tres fases: en la primera, se ejecuta un algoritmo llamado "second winner", en el que las neuronas de la capa competitiva de la red encuentran su ubicación inicial en el espacio de la red. En la segunda fase, se emplea un método llamado "bath learning", y al final de dicha etapa, finaliza la formación de la red SOM. Y, por último, en la tercera fase, se completa la agrupación de datos con la eliminación de los enlaces entre las neuronas equivocadas. El presente documento analiza tres casos de datos reales y un ejemplo teórico de datos, para demostrar la efectividad y exactitud del algoritmo. El nuevo SOM hace un trabajo superior de agrupación de datos discontinuos gracias a su estructura flexible, así como a emplear el método “bath learning”. Además, el algoritmo propuesto usa un parámetro de edad para identificar y eliminar las neuronas muertas de la red. Los resultados de la simulación utilizando tanto los datos teóricos no lineales discontinuos, y los tres casos de datos del mundo real, confirmaron la validez del enfoque propuesto. En el caso de los conjuntos de datos del mundo real, la exactitud del método propuesto se midió gracias al número de patrones no asignados y el número de neuronas muertas. En el gráfico que aparece a continuación, Fig. 4, pueden apreciarse las tres fases del algoritmo. Los grupos de datos se muestran con color naranja y las neuronas y sus enlaces se indican con líneas de puntos negros y azules, respectivamente. a) Red neuronal tras la primera fase del algoritmo. b) Red neuronal tras la segunda fase del algoritmo. c) Red neuronal tras la tercera fase del algoritmo. Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte 4 Fig. 4. Representación de las 3 fases del algoritmo D. Yuan-chao Liu, Chong Wu, Ming Liu La siguiente publicación de la que se hablará en este estado del arte [4], habla del uso del método SOM para agrupar información de texto de forma más rápida y eficaz. Los métodos de agrupación de texto sufren cuando se enfrentan al enorme tamaño de los documentos de grandes dimensiones. En este trabajo, se estudió la tecnología de agrupación rápida para información textual empleando el SOM. El objetivo se centra en cómo mejorar la eficiencia del sistema de agrupamiento de texto, a la vez que se mantienen las altas cualidades de agrupación. Para lograr este objetivo, se debe separar el sistema en dos etapas: fuera de línea y en línea. Con el fin de hacer que el sistema de agrupación de texto sea más eficiente, las etapas de extracción de características y cuantificación semántica se realizan fuera de línea. Aunque las neuronas se representan como vectores numéricos en un espacio de altas dimensiones, los documentos se representan como colecciones de algunas palabras clave, lo cual es diferente de muchas obras relacionadas, por lo tanto los requisitos de tiempo y espacio en la etapa fuera de línea pueden aligerarse. Con base en este escenario, se propusieron una serie de técnicas rápidas para la fase de agrupamiento en línea III Congreso de Cibernética ULE incluyendo el cómo proyectar los documentos sobre las capas de salida del SOM, de una manera que el cálculo sea rápido para procesar en tiempo real. Se ha probado el sistema con diferentes conjuntos de datos, y el rendimiento práctico demuestra que el enfoque ha sido muy superior en eficacia de agrupación, mientras que la calidad de agrupamiento es comparable a los métodos tradicionales. En este trabajo, se determinó un algoritmo eficiente de codificación y las habilidades de cálculo de similitudes; además se han desarrollado una serie de técnicas de agrupamiento de texto mediante la combinación con los actuales algoritmos de agrupamiento SOM y los esquemas de codificación. El método presente de codificación que emplea los índices de cuerda fija para representar el documento, y supera a otros métodos, permitiendo realizar el cálculo de similitudes entre los documentos de una manera muy eficiente y precisa. La calidad de la agrupación logra superar significativamente a los modelos vectoriales tradicionales de enfoques basados en el espacio. Se ha demostrado que el algoritmo propuesto puede capturar las principales características del documento original, a la vez que consigue reducir la información redundante en gran medida, por lo tanto la eficiencia de agrupamiento mejora todavía Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte más. El método fue probado ampliamente con numerosos experimentos sobre conjuntos conocidos de datos de referencia y comparados con parámetros exactos experimentales de forma tradicional. E. Ryotaro Kamimura En este trabajo, se propone un nuevo método teórico de la información para simplificar el cálculo de la información y la unificación de varios métodos en un solo marco. El nuevo método se llama “supuesto de información máxima”, y se utiliza para producir representaciones comprensibles en un aprendizaje competitivo, teniendo en cuenta la importancia de las unidades de entrada. En este nuevo método de aprendizaje, partiendo del máximo de datos relativos a las variables de entrada, se puede estimar la información real de dichas unidades de entrada. En este momento, la red competitiva es entrenada con la información estimada de las unidades de entrada. El método se aplica no al aprendizaje competitivo puro, sino al SOM, ya que es más fácil de demostrar visualmente lo bien que el nuevo método puede producir representaciones interpretables. Se ha aplicado este método a tres conocidos conjuntos de datos, a saber, los datos de animales de Kohonen, los datos del corazón de SPECT y los datos de la votación de la base de la máquina de aprendizaje. Con estos datos, se ha logrado producir unas fronteras más claramente delimitadas en las matrices-U que las que hizo el SOM convencional. Además, para todos los datos, los errores producidos por la cuantificación y los errores topográficos que se dan con este método, son inferiores a los convencionales que resultan del SOM. Con todos los datos, se ha demostrado que la información sobre las unidades de entrada se incrementa y, finalmente, se satura a la vez que los parámetros de dispersión se incrementan. Los errores de cuantificación para los tres conjuntos de datos disminuirán a medida que la información se incrementa. Sin embargo, los errores topográficos no están necesariamente sufriendo una disminución a medida que la información se incrementa. Para los tres conjuntos de datos, las matrices-U finales muestran de forma mucho más clara las fronteras de las clases, que reflejan las propiedades de los pesos III Congreso de Cibernética ULE 5 de conexión en las unidades principales de entrada. Aunque este método se limita al aprendizaje competitivo, incluyendo SOM, y la determinación del parámetro de dispersión debería hacerse de foma más clara, el sistema muestra la posibilidad de ser un nuevo modelo de información teórica almacenando la información en diversos componentes de una red. F. Shu-Ling Shieh, I-En Liao El presente artículo [6] pretende ilustrar sobre una de las principales deficiencias del algoritmo SOM, que es la dificultad para usuarios no expertos de interpretar la información de una red de trabajo de este tipo. En el documento, este problema se aborda mediante la introducción de una versión mejorada del método de visualización que consta de tres etapas: (1) calcular un solo vínculo entre neurona y distancia, (2) calcular el número de puntos de datos en cada neurona, y (3) la búsqueda de los límites del grupo. Los resultados muestran que el enfoque propuesto tiene una capacidad elevada para representar con eficacia la distribución de los datos, las distancias entre las neuronas, y el límite del grupo. Los resultados indican que los efectos de visualización del algoritmo propuesto son mejor que la de otros métodos. Por otra parte, este esquema de visualización propuesto no consiste sólo en la comprensión intuitiva y fácil de los resultados de la agrupación, sino también en obtener buenos efectos de visualización de conjuntos de datos sin etiquetar. Un ejemplo de este modelo de visualización puede apreciarse a continuación, en la Fig. 5. Fig. 5. Resultados finales del etiquetado de datos G. Manojit Chattopadhyaya, Pranab K. Danb, Sitanath Mazumdar Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte El uso de mapeados SOM tiene también aplicación en ámbitos de la ciencia, como es en el caso siguiente [7]. La fabricación celular (CM) es un enfoque que precisa flexibilidad en los talleres de trabajo y alta tasa de producción de líneas de flujo. A pesar de que la CM proporciona muchos beneficios en la reducción de tiempos de producción, tiempos de configuración, e inventarios del proceso, el diseño de las CM es un problema complejo y completo. El problema de la formación de las células se basa en la secuencia de operación (datos ordinales). El objetivo del presente trabajo es proponer un enfoque de agrupación visual para la formación de células gracias a la ayuda de un mapa SOM, un algoritmo de red neuronal no supervisado que logra una mejor efectividad de las medidas del grupo celular. El trabajo también ha establecido los criterios de la elección de un tamaño óptimo para la red SOM, basado en los resultados de error de cuantificación, error de la topografía y la medida de la distorsión promedio del propio SOM, generados durante el entrenamiento. Con el fin de evaluar el rendimiento del algoritmo propuesto, se han probado varios de los problemas de referencia disponibles en la literatura. Los resultados muestran que el método propuesto no sólo genera la solución de una forma más precisa, sino también, en algunos casos los resultados producidos son incluso mejores que los resultados reportados anteriormente. La eficacia del método propuesto es también estadísticamente comprobada. H. Francesco Coronaa, Michela Mulasb, Roberto Baratti, Jose A. Romagnoli En este último artículo [8] se entrará un poco más en detalle por interés del tema. En este trabajo se resume y discute la aplicación de la topología de enfoques basados en el modelado y análisis de datos de procesos industriales. Se hace hincapié en la representación de los datos obtenidos con el mapa de auto-organización (SOM). Los métodos se utilizan en la visualización de las mediciones del proceso y la extracción de información relevante mediante la explotación de la estructura topológica de las observaciones. Se describen las ventajas del SOM a la hora de trabajar con datos industriales, en concreto una serie de III Congreso de Cibernética ULE 6 mediciones de procesos de una planta de tratamiento de gases. El objetivo práctico es la identificación de los modos de funcionamiento principales y la localización de las variables de proceso más sensibles, antes de desarrollar una estrategia de control alternativa. Los resultados confirmaron que el sistema SOM es capaz de proporcionar información valiosa y ofrece posibilidades de aplicación directa a otras tareas de supervisión de procesos. Los procesos industriales exhiben una multitud de estados operativos; algunos de ellos son bien conocidos para los operadores de la planta, mientras que otros no pueden ser conocidos y pueden no ser fácilmente detectables. En los procesos industriales continuos, hay varios estados de operación, transiciones, como en los arranques y paradas, además de una gran variedad de fallos y perturbaciones. La detección, análisis y visualización de los estados de un proceso que se conoce como proceso de seguimiento monitorizado. El objetivo derivado del seguimiento del proceso busca construir una representación de un sistema con una serie de mediciones que cuantifican su comportamiento, sin explícitamente asumir cualquier conocimiento a priori de los fenómenos subyacentes. Muy a menudo, la cantidad y calidad de los datos, junto con su alta dimensión, puede ser un factor limitante para el análisis. Por lo tanto, es necesario la disponibilidad de métodos eficaces y robustos que: estructuras existentes en las mediciones. el alcance de la mano. se presenta la información de los estados para los ingenieros y operadores de plantas para el análisis. El conocimiento intuitivo de los estados tiene un valor incalculable para la operación segura de la planta y de confianza los métodos de análisis de datos son necesarios para una supervisión en línea y la estrategia de control. En este trabajo, se discute la implementación y aplicación directa de un sistema para modelar, visualizar y analizar la información codificada en los datos de procesos industriales. El enfoque se Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte basa en un método de aprendizaje de la máquina clásica, el mapa de auto-organización, SOM. El SOM está provisto de un conjunto de herramientas para la visualización de datos eficiente. Por tal motivo, el mapa de auto-organización es de uso frecuente en la etapa exploratoria de análisis de datos. Aquí, los SOM se utilizan como un marco común para la identificación de los estados del proceso y presentar la información recuperada en pantallas que visualizan el proceso de forma simple e intuitiva. El documento está estructurado de la siguiente manera. La parte algorítmica se supervisa en la sección 2. La sección 3 discute la parte experimental y el enfoque ilustra cómo puede ser desarrollado y validado en un problema a gran escala. Las posibilidades de usar el mapa de autoorganización para el modelado de datos de procesos industriales se ilustran mediante el análisis de las mediciones obtenidas a partir de una planta de tratamiento de gases industriales, donde el objetivo es detectar los modos de funcionamiento de una columna desetanizador e identificar las variables más sensibles antes de desarrollar una alternativa estrategia de control. Fig. 6. Ejemplos de datos En esta sección pone de relieve brevemente dos clases de técnicas estándar para el modelado de las estructuras presentes en las observaciones de grandes dimensiones. 7 formados por observaciones similares. Fig. 7. Aprendizaje del modelo SOM 2) Matrices de distancia. Visualizan en el SOM las distancias entre todos los prototipos y sus vecinos más cercanos. Las distancias se codifican en niveles de gris o colores y cada unidad de la matriz se tiñe con el color asociado a una distancia de media sobre los vecinos. Fig 8 (a). Fig. 8. Visualización SOM 3) Aplicación a un caso industrial. Los métodos estudiados se aplican sobre un conjunto de mediciones de un proceso industrial a gran escala. El problema consiste en investigar el comportamiento operacional de una planta industrial de fraccionamiento de gas, a partir de una serie de mediciones del proceso tomadas en tiempo real. La planta consta de desetanizador, despropanizador y desbutanizador, aunque solo se analiza en este caso el primero de los tres. El desetanizador separa el etano de la corriente de alimentación de nafta ligera. El objetivo es producir tanto etano como sea posible. Con respecto a la pérdida de etano en la parte inferior, la dirección de la planta sugiere la definición de tres modos de funcionamiento principales para la unidad: de los datos mediante la proyección de todas las observaciones en sub-espacios significativos con baja dimensionalidad; el 1,8-2,0%. de los datos, pero reducen la cantidad de observaciones, agrupándolos de acuerdo a la similitud. 1) Métodos para la agrupación de datos. Tienen por objeto reducir la cantidad de datos mediante la agrupación de las observaciones en grupos debajo del l 1,8%. Las dos condiciones anormales tienen unas repercusiones económicas directas e importantes. 4) Exploración de datos. El mapa resultante se compone de una matriz de 70 x 24 de vectores prototipo de 16 dimensiones, que corresponden a III Congreso de Cibernética ULE encima del 2,0%. Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte una selección de 15 variables del proceso, más el indicador de estado. La solidez del SOM permite su aplicación directa en los datos puros que también incluyen los valores perdidos y valores atípicos. 8 CONCLUSIONES En este estado del arte de los mapas autoorganizados se ha llevado a cabo una lectura de una serie de artículos de actualidad, y resumido de la forma más coherente posible, con el fin de conocer de una manera más concreta el funcionamiento y estado de desarrollo de los mismos. III. REFERENCIAS [1] Fig. 9. Visualización SOM y matriz-U La estructura de la agrupación de los datos ha sido analizada utilizando la matriz U, que se basa en las distancias entre cada vector prototipo del SOM y sus vecinos inmediatos. Una forma común de visualizarlo consiste en una proyección inicial de todas las distancias sobre un eje de colores y la pantalla posterior con marcadores de colores entre cada nodo. La visualización permite reconocer claramente la presencia de tres grupos bien separados de prototipos. Para obtener una caracterización cuantitativa de la agrupación, los prototipos del SOM deben ser considerados como un conjunto de datos reducido y modelado con un algoritmo de agrupamiento estándar. La búsqueda de patrones en posiciones parecidas en estos dos planos de los componentes permite visualizar la dependencia entre la composición del etano y el indicador de temperatura. Como resumen de las condiciones operativas del desetanizador, se pueden extraer las siguientes consideraciones: corresponden con las operaciones del etano de la zona alta, normal y baja. alrededor del 70% del tiempo, durante el invierno, la columna no cumplía las especificaciones de impurezas, mientras que en el caso de verano esta situación se reduce al 36%. La variación estacional se debe principalmente a una capacidad limitada de refrigeración en verano. En términos de composición del etano sólo durante el 14% y 25% del tiempo total del proceso está dentro del rango definido como normal durante el invierno y verano, respectivamente. III Congreso de Cibernética ULE R. Kamimura. Information-theoretic enhancement learning and its application to visualization of selforganizing maps. Neurocomputing 73(13–15), pp. 26422664. 2010. [2] D. Niu, D. Liu and D. D. Wu. A soft computing system for day-ahead electricity price forecasting. Applied Soft Computing 10(3), pp. 868-875. 2010. [3] M. H. Ghaseminezhad and A. Karami. A novel selforganizing map (SOM) neural network for discrete groups of data clustering. Applied Soft Computing 11(4), pp. 3771-3778. 2011. [4] Y. Liu, C. Wu and M. Liu. Research of fast SOM clustering for text information. Expert Syst. Appl. 38(8), pp. 9325-9333. 2011. [5] R. Kamimura. Supposed maximum information for comprehensible representations in SOM. Neurocomputing 74(7), pp. 1116-1134. 2011. [6] S. Shieh and I. Liao. A new approach for data clustering and visualization using self-organizing maps. Expert Syst. Appl. (0), 2012. [7] M. Chattopadhyay, P. K. Dan and S. Mazumdar. Application of visual clustering properties of self organizing map in machine–part cell formation. Applied Soft Computing 12(2), pp. 600-610. 2012. [8] F. Corona, M. Mulas, R. Baratti and J. A. Romagnoli. On the topological modeling and analysis of industrial process data using the SOM. Comput. Chem. Eng. 34(12), pp. 2022-2032. 2010. Autores Escrito por: Miguel Vega de la Fuente Ingeniero Técnico Aeronáutico, becario en el Laboratorio de Investigación Aeroespacial Universidad de León 2012 Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS. 1 Desarrollo de programas de control para el robot Turtlebot sobre ROS (robot operating system) Casado, F. [email protected] Universidad de León Resumen—La autonomía de los robots móviles reside en la capacidad de navegación por un entorno acotado y conocido. Al igual que un ser humano cuando se encuentra en una ciudad, busca referencias en el entorno que le ayuden a localizar su situación en el plano y así planificar la ruta para alcanzar su destino. Haciendo uso del entorno de desarrollo ROS y las herramientas que proporciona se ha realizado la navegación autónoma del robot Turtlebot, así como el desarrollo de programas de control, entre los que destaca el seguimiento de objetos de una tonalidad. Índice de Términos—navegación autónoma, turtlebot, ros, slam. I. INTRODUCCIÓN El principal problema de la robótica móvil es conocer la localización dentro del entorno. El robot usa un mapa del entorno, construido empleando métodos SLAM (Simultaneous Localization And Mapping), para la planificación de la ruta hasta su destino. Para esto necesita conocer su posición dentro del entorno, para lo que se emplean métodos probabilísticos como el AMCL (Adaptive Monte Carlo Localization). Estos métodos, incluidos en ROS [1] (Robot Operating System), se han empleado para realizar la navegación autónoma del robot Turtlebot [2]. En la actualidad están comenzando a aparecer los robots asistentes en las tareas domesticas, el ejemplo mas extendido de esto es el Roomba de iRobot, aunque su funcionamiento es mucho más simple en cuanto a navegación. El entorno de desarrollo de programas de control para robots ROS se ha convertido en sus tres años de vida en una de las herramientas más empleadas y con expectativas de futuro. Desarrollada por el equipo de expertos en diseño de robots Willow Garage [3]. Se plantea como un estándar en programación de robots y actualmente da soporte a un gran número de robots. II. HERRAMIENTAS Y METODOLOGÍA A continuación se hace una pequeña descripción de las herramientas y la metodología empleada. A. ROS El entorno de desarrollo ROS es un middleware que proporciona un nivel de abstracción, haciendo transparente la interacción entre el programador y el robot. Se encarga de las comunicaciones y gestión de procesos intermedios. Su gran éxito radica en que se trata de software de código abierto con licencia BSD (Berkeley Software Distribution). La versión empleada de este software ha sido Electric. B. Turtlebot Este robot se compone básicamente de, un robot iRobot Create, una cámara Microsoft Kinect, un laptop y una estructura de soporte. En la Fig. 1 se muestra una fotografía del Turtlebot. Fig. 1 Partes del Turtlebot Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS. El iRobot Create (A) es un robot dedicado a fines educativos y de investigación. Constituye la base móvil del Turtlebot. La cámara Microsoft Kinect (B) es el sensor principal del robot, capta imágenes y profundidad de la escena. El cerebro y centro de comunicaciones del robot reside en el laptop ASUS 1215N (C). El software del que dispone es el sistema operativo Ubuntu y el entorno de desarrollo ROS. La estructura de soporte (D) es la que une y da soporte a los elementos anteriores. C. Metodología Se ha comenzado por una aclimatación al entorno de desarrollo ROS. En ros.org se encuentran una serie de tutoriales dedicados a la familiarización con este entorno de desarrollo (http://www.ros.org/wiki/ROS/Tutorials), enfocados al futuro desarrollador de programas de control de robots sobre ROS. Estos siguen una progresión didáctica, por lo que se deben realizar siguiendo su orden. Adquiridos los conocimientos básicos, aportados por los tutoriales, sobre el entorno de desarrollo se ha continuado con la realización de una serie de programas, progresivamente más complejos, hasta llegar a la realización de la navegación autónoma. En el desarrollo de los programas de control se ha empleado el simulador Gazebo [4], incluido en el software ROS, para las pruebas previas antes de pasar a su ejecución en el Turtlebot. En la Fig. 2 se puede ver una captura del simulador Gazebo con el modelo del Turtlebot. Fig. 2 Simulador Gazebo 2 III. TRABAJO REALIZADO En el wiki del grupo de robótica de la Universidad de león se ha ido realizando de forma simultánea con el trabajo de laboratorio, un artículo [5] del cual se ha extraído gran parte de la información, en el cual se encuentra todo el proceso descrito minuciosamente, el código de los programas descritos y vídeos demostrativos. A. Instalación de ROS El entorno de desarrollo ROS solo tiene soporte oficial para el sistema operativo Ubuntu, por lo que para su instalación se requerirá de un computador provisto de este sistema operativo. En ros.org se encuentra un apartado dedicado al robot Turtlebot (http://www.ros.org/wiki/Robots/TurtleBot). Allí se puede encontrar toda la información necesaria para la instalación y configuración de ROS. También se encuentran los tutoriales de puesta en marcha del robot y de las aplicaciones de muestra para el Turtlebot incluidas en ROS. B. Primer programa (Vuelta al mundo) Al estilo del “hola mundo”, el primer programa que se realiza cuando se encara un nuevo lenguaje de programación, se ha realizado “vuelta al mundo”. Se trata de un sencillo programa de inmersión en este entorno, que simplemente hace avanzar al robot describiendo un círculo. Ha servido de toma de contacto con el sistema de publicación de mensajes, en ROS llamados topics. El topic publicado corresponde con el de velocidad, para el movimiento del robot. C. Segundo programa (Golpea y escapa) Al tratarse también de un programa introductorio su funcionamiento es muy sencillo. El robot avanza en línea recta hasta que su paragolpes impacta con un obstáculo, momento en el cual hace un pequeño retroceso y gira un ángulo de magnitud y sentido aleatorios. Ha servido de toma de contacto con el sistema de suscripción a topics. Además de publicar en el topic de velocidad, para el movimiento del robot, esta suscrito al topic en el que publica el sensor del paragolpes del robot. D. Tercer programa (Toro loco) Este programa, a diferencia de los anteriores, incorpora un comportamiento autónomo, es decir, Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS. toma una serie de decisiones en función de las imágenes capturadas por la cámara. Cuando la cámara capta una cierta concentración de píxeles de tonalidad roja, dentro del rango de actuación, comienza un seguimiento de ese objeto, hasta hacer esa concentración de píxeles el valor medio del rango. Se detiene el seguimiento cuando la concentración de píxeles de tonalidad roja en la imagen se sale del rango de actuación. En la Fig. 3 se puede ver la imagen procesada, que el programa emplea para hacer el seguimiento: 3 ROS. Aun así se requiere de todos los conocimientos adquiridos sobre el entorno de desarrollo ROS en la realización de los programas anteriores, sobre todo cuando surge alguna complicación. La primera operación que se debe realizar antes de acometer la navegación autónoma, es la determinación del error cometido por los sensores de movimiento del robot para su corrección. Estos sensores, odómetro y giroscopio, son los encargados de cuantificar el movimiento del robot para determinar su posición, que debe ser lo más aproximada a la real. El entorno de trabajo del robot ha sido el laboratorio F6 de la escuela de ingenierías industrial e informática de la Universidad de León. En la Fig. 4 se puede ver el mapa de este entorno, capturado usando el package GMapping [6] contenido en ROS y visualizado con la herramienta de ROS rviz. Fig. 3 Imagen procesada para el seguimiento de objetos de tonalidad roja. Se hace uso de un filtro que elimina los pixeles aislados o pequeñas regiones de esta tonalidad que pueden aparecer en la imagen. Para la calibración de la tonalidad del objeto a seguir se deben ajustar los intervalos de los canales RGB, modificando los valores de los parámetros correspondientes en el archivo de configuración. También puede ajustarse el rango o porcentaje de píxeles del objeto respecto a la imagen (mínimo, medio y máximo), que dependerá del tamaño del objeto a seguir. Así como la ganancia de velocidad de giro y avance, para hacer que la respuesta del robot sea más rápida o más lenta. A mayor velocidad de reacción es más inestable, hay oscilación en torno al punto de equilibrio. E. Navegación autónoma No puede considerarse como un programa desarrollado, ya que se ha hecho uso de los programas, llamados packages, proporcionados por Fig. 4 Mapa del entrono de trabajo, obtenido empleando SLAM GMapping es un método que aplica SLAM. Se obtiene un mapa 2D de ocupación de rejilla del entorno, a través de la captura simultánea de los movimientos del robot y la lectura del sensor de obstáculos. Habitualmente este sensor es un laser, pero en el caso del Turtlebot se trata de la nube 3D de puntos obtenida por el sensor de profundidad de la cámara Kinect transformada a una lectura 2D de ocupación. Para la localización del robot dentro del entorno de trabajo haciendo uso del mapa se emplea el Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS. 4 método probabilístico AMCLa. Básicamente consiste en un filtro de partículas que reduce la incertidumbre de la posición real del robot en el entorno, haciendo uso de la lectura del sensor de obstáculos. En la Fig. 5 puede verse la nube de puntos que rodean el modelo del robot, zona de incertidumbre de localización. Fig. 6 Ruta seguida por el Turtlebot, línea verde, hasta su destino. Fig. 5 Zona de incertidumbre de localización, nube de puntos rojos. A mediada que el robot se desplaza por el entorno y obtiene más datos del sensor de obstáculo, esta zona de incertidumbre se reduce hasta hacerse prácticamente coincidente con la posición del robot. Para la indicación de la posición inicial estimada sobre el mapa, que requiere como semilla este método probabilístico, se emplea la herramienta de visualización e interacción rviz. Al igual que para la indicación del punto de destino sobre el mapa. La planificación de la ruta a seguir para alcanzar el destino se realiza empleando el package de ROS move_base. Busca el camino mas corto para alcanzar el destino evitando los obstáculos del entorno presentes en el mapa. También puede evitar obstáculos no incluidos en el mapa, lo cual puede implicar un nuevo cálculo de la ruta. En la Fig. 6 puede verse sobre impresionada sobre el mapa la ruta seguida por el robot. El robot se detendrá al alcanzar su destino, o si no encuentra una ruta para poder llegar al destino marcado se detendrá y enviará un mensaje de error, avisando que le es imposible alcanzar el destino. a Descrito por Dieter Fox, experto en robótica alemán y profesor en el Departamento de Ciencias de la Computación e Ingeniería de la Universidad de Washington, en Seattle. IV. DISCUSIÓN DEL RESULTADO El principal objetivo planteado por este trabajo, navegación autónoma del robot Turtlebot empleando el entorno de desarrollo ROS, se ha alcanzado con unos resultados satisfactorios. La influencia del error, por pequeño que sea, de los sensores de movimiento del robot, odómetro y giroscopio, es muy grande en la determinación de la posición real del robot. Los métodos empleados corrigen esto usando las lecturas del sensor de obstáculos, ajustando la posición más a la realidad. El programa desarrollado de seguimiento de objetos de una tonalidad determinada presenta una alta sensibilidad a los cambios de iluminación o sombras del entorno, por lo que solo estaría indicado para la aplicación en un entorno con una iluminación uniforme y constante. También se han desarrollado otros dos programas con intención meramente didáctica. El entorno de desarrollo para programas de control de robots ROS es una herramienta versátil y potente, que hace accesible la programación de robots a cualquiera con conocimientos de programación, sin necesidad de ser un experto en el campo de la robótica. V. CONCLUSIONES Y TRABAJOS FUTUROS Actualmente puede considerarse solventada la navegación autónoma en los robots móviles, aunque Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS. con ciertas limitaciones y algo torpe, en comparación con cómo realiza esta tarea un ser humano. La navegación empleando los métodos citados se limita a entornos cerrados. Este trabajo se ha basado en la navegación empleando mapas de ocupación del entorno en 2D. Una opción de futuro es la creación de mapas 3D del entorno, que proporcionaran datos más precisos del entorno, que seguramente reduzca la incertidumbre en la localización, mejore la planificación de rutas y la evitación de obstáculos no incluidos en el mapa. REFERENCIAS [1] Willow Garage. ROS. , 2012 Available from: http://www.ros.org/wiki/. [2] Willow Garage. Turtlebot. , 2012 Available from: http://turtlebot.com/. [3] Willow Garage. Willow Garage. , 2012 Available from: http://www.willowgarage.com/. [4] Gazebo. Gazebo. , 2012 Available from: http://gazebosim.org/. [5] F. CASADO GARCÍA. Fernando-TFM-ROS02. , 2012 Available from: http://robotica.unileon.es/mediawiki/index.php/FernandoTFM-ROS02. [6] G. GRISETTI, C. STACHNISS and W. BURGARD. GMapping. , 2006 Available from: http://openslam.org/. Fernando Casado es ingeniero industrial por la Universidad de León. Para más información visitar: http://fcg.adamelo.es. 5 Universidad de León. Prego López. Estudio de mercado. 1 Estudio de viabilidad de la implantación de una nave industrial dedicada a la fabricación de muebles de madera Prego López, Zeltia [email protected] Universidad de León, Escuela de Ingenierías Industrial, Informática y Aeronáutica Resumen—Este artículo trata sobre el estudio de la situación actual del mercado de muebles de madera en España y el análisis de un caso práctico de factibilidad para el establecimiento de una nave industrial dedicada a la fabricación de muebles de madera en la ciudad de Ponferrada. Después de desarrollar el estudio de viabilidad técnica y el estudio de viabilidad económica, este trabajo ha concluido que es viable debido a los valores obtenidos para la TIR (Tasa Interna de Retorno), VAN (Valor Actual Neto), IPC (Índice de Costo Beneficio) y la recuperación de la inversión. Después de hacer un profundo estudio y análisis de cuál es la situación actual de esta industria en España, queda en evidencia que la única posibilidad de éxito es la exportación de los muebles fabricados en España al exterior, ya que es la única opción rentable para ganar invirtiendo en este negocio. Índice de Términos—Abell, fuerzas de Porter, muebles de madera. I. INTRODUCCIÓN El estudio que se está tratando aplica de manera básica y fundamental la teoría de “Las cinco fuerzas de Porter” [1] y el “Modelo de Abell” [2][3] para hacer un profundo análisis del mercado en el que la fábrica de muebles de madera (del caso práctico desarrollado más adelante) se pretende introducir, determinando así su viabilidad técnica y económica. Por tanto se hace un estudio del mercado del mueble de madera centrado en la zona Norte de España, ya que la ubicación de la nave del caso práctico se encuentra en el Polígono Industrial de Montearenas, en Ponferrada. El estudio de viabilidad a realizar abarca tres áreas, se realizarán por lo tanto un estudio del mercado en el que se pretende introducir el negocio, un estudio de viabilidad técnica para escoger el proceso productivo más adecuado, y por último un estudio de viabilidad económica para saber si finalmente todo lo analizado con anterioridad es viable económicamente y si resulta rentable. III Congreso de Cibernética II. ESTUDIO DE MERCADO A. Mercado Internacional de Madera Una de las premisas claves en el mercado internacional actual de la madera es la optimización máxima de los recursos, sin embargo pese a las inversiones en I+D+i para obtener especies modificadas genéticamente, no es posible a día de hoy una explotación a gran escala. Con lo cual se hace indispensable diseñar un proceso productivo en el que se aprovechen al máximo posible los desperdicios, haciendo el proceso más eficiente [4]. En 2003 Europa, América del Norte y Asia representaron el 56, 26 y 11% respectivamente, del valor de las exportaciones mundiales de productos madereros [5]. La producción de muebles de madera está concentrada en EEUU, Italia, China, Polonia, Malasia y Alemania, representando éstos más del 50% de la misma en 2010, siendo China el principal exportador de muebles de madera [6]. El consumo mundial anual de madera es de unos 4.100 millones de metros cúbicos, del que el 44% es industrializado, siendo en su mayoría maderas de coníferas. Los principales proveedores de este tipo de madera son Canadá, EEUU, Rusia y Suecia [5]. Se prevé para los próximos años que se produzca un incremento de la demanda de productos forestales que deberá ser satisfecha por los propios mercados internos o mediante importaciones, teniendo siempre en cuenta las restricciones ambientales y el Protocolo de Kyoto [7]. B. Mercado Nacional de Muebles de Madera Dentro de España este mercado está concentrado en unas cuantas Comunidades Autónomas, ocupando los primeros puestos la Universidad de León. Prego López. Estudio de mercado. Comunidad Valenciana, Cataluña, Galicia, Andalucía y Madrid. De la totalidad de empresas que forman el sector mobiliario en España, unas 12.000, el 89% son empresas con menos de 20 empleados. La facturación del sector fue durante el año 2010 de 5.183 millones de euros, siendo una de las características de este sector su fuerte orientación exportadora, principalmente a países como Francia y Portugal [8]-[9]. Si se hace un análisis de la actividad dentro de la industria de la madera de Castilla y León, al estar la nave objeto de estudio del caso práctico en esta Comunidad Autónoma, nos encontramos con que el 5,8% de las empresas del sector están ahí, estando situados en el puesto nº7 del ranking español [10]. C. Distrito Industrial Existen agrupaciones como la Asociación de Fabricantes de Muebles y Afines de la Comunidad de Madrid (AFAMID), Confederación Española de Empresarios de Madera (CONFEMADERA), Asociación Nacional de Industriales y Exportadores de Muebles de España (ANIEME)… entre otras muchas, que surgieron con el fin de realizar determinadas acciones de forma colectiva, principalmente representar y defender los derechos de sus asociados. Gracias a estas asociaciones se facilita la difusión del conocimiento reduciendo los costes de acceso a la información especializada. D. Delimitación de la Industria Este apartado se desarrolla en base al modelo de Abell, identificando los límites de la industria, para ver lo competitivo que es el entorno. El “Modelo de Abell” [2]-[3] nos dice que hay tres dimensiones a tener en cuenta, las cuales son clientes, funciones y tecnologías. Para la dimensión de los clientes se escoge el criterio geográfico, ya que además de fabricar para el propio país, básicamente se pretende exportar el producto (se divide entonces en: local, regional, nacional e internacional). La segunda dimensión, la de las funciones, se estructura atendiendo a los posibles usos de los muebles (de interior de estilo “infantil” o “adulto”, de oficina ó de exterior). Por último la tercera dimensión, la tecnología, es importante para poder acceder a economías de escala (se divide en: artesanal, semi-artesanal, semi-automatizada y automatizada). III Congreso de Cibernética 2 E. Cliente potencial Cabe destacar que la fábrica forma parte del ya mencionado ANIEME (Asociación Nacional de Industriales y Exportadores de Muebles de España). Si hasta ahora los principales destinos de los muebles españoles eran Francia, Portugal, Alemania o Reino Unido, ahora en este estudio se pretende abrir puertas a los EEUU, un cliente potencial, ya que en este país las importaciones de muebles representan cerca del 25% del consumo nacional, que representan cerca de 11.000 millones de dólares anuales, y que tiene una tendencia a ir incrementándose en el futuro [11]. F. Competencia Los principales competidores de la fábrica de muebles de madera del caso práctico, situada en Ponferrada (León), son aquellas empresas situadas en la zona Norte de España, las cuales se recogen en la Tabla I. G. Proveedores Las principales empresas proveedoras para nuestra fábrica son aquellas que se dedican a la fabricación de planchas de madera y que además están situadas en la zona norte española, mercado en el que compite la empresa del caso práctico analizado; las cuales se resumen en la Tabla II, ordenadas por cercanía a la ciudad de Ponferrada. H. Fuerzas competitivas básicas En este apartado se desarrolla el modelo de “Las cinco fuerzas de Porter” [1] aplicado a la industria de los muebles de madera. A continuación se analizan las cinco fuerzas centrándonos en nuestra situación. -Intensidad de la competencia: Actualmente el modelo organizativo que está dejando obsoletos a todos los demás es el de acceder a economías de escala, dejando así fuera a las PYMES (99,8% de las empresas nacionales) que no pueden adaptarse [12]. La competencia nacional en el sector se reparte según muestra la Fig.1 [13]. El mercado de muebles se puede decir que va ligado al sector inmobiliario, con lo que se ha visto afectado por la crisis de la vivienda en España. Universidad de León. Prego López. Estudio de mercado. 3 TABLA I COMPETIDORES ORDENADOS POR CERCANÍA Fabricante empresa competidora Provincia TABLA II PROVEEDORES ORDENADOS POR CERCANÍA. Municipio km C.P. Vicmas, S.L. León Riego de la Vega 71’5 24794 Cosman Fábrica de muebles, S.L. Ourense Coles 167 32152 Muebles Mobilar A Coruña A Coruña 211 15002 Ikea, S.L. Asturias Colloto 219 33010 Siero 245 Fabricante empresa proveedora Provincia Municipio Distancia (km) C.P. 157 27765 167 32005 Grupo Villapol, S.A. Lugo Trabad Trabada Maderas Soto, S.A. Ourense Camino Mondragón Alistonados Asturias, S.A. Asturias Turónn 196 33610 Maderas Siero, S.A. Asturias Siero 219 33188 Maderas Ángel Suárez, S.L. Asturias Cangas de Onís Oní 269 33556 Pontevedra Villagarcía agarcía Arousa 298 36600 del Muebles Moblerone, S.L. Asturias 33199 Eclipse Diseño, S.A. Valladolid Cigales 246 47270 Muebles Fecama, S.L. Pontevedra A Estrada 274 36680 Mobiliario Eurobur, S.L. Burgos El Valle de Mena 371 09001 COMAPA, S.L. Cantabria Ontaneda 340 39680 Móstoles Industrial, S.A. (MOINSA) Madrid Móstoles 392 28935 Internacional Elaborados Maestu, S.L. Vitoria Vitoria 398 01080 Muebles Duero, S.L. Soria Los Rábanos 420 42191 Manufacturas Nicolás, S.L. Navarra Viana 437 31230 Danona, Soc. Cooperativa (Grupo Mondragón) Guipúzcoa Azpeitia 462 20730 Tablev, S.A. Vizcaya Bedia 439 48390 Indubrik 2000, S.L. Guipúzcoa Soraluce 447 20590 Lola Glamour, S.L. Soria Almazán 469 42200 Sarrimad, S.L. Teruel Sarrión 798 44460 Manufacturas Alco. S.A. Navarra Vera de Bidasoa 522 31780 Fustes Güell, S.L. Barcelona Sant Esteve Sesrovires 874 08635 Fábrica de muebles Mariano Campoy, S.A. Barcelona El Papiol 879 08754 Atecma, S.L. Barcelona Rubí 882 08191 Troqueles Rubio, S.L. Barcelona Josep Plá 899 08020 Maderas Redondo, S.L. J. Resto; 23,06% Por ello la exportación a día de hoy es una de las mejores opciones. -Competidores Competidores potenciales: Debido al cambio en la mentalidad del comprador el cual busca una decoración acorde con los tiempos que corren, multinacionales como Ikea están haciéndose con el monopolio de la industria. de Andalucía; 14,83% Cataluña; 16,47% Murcia; 4% Castilla y León; 5,80% Galicia; 7,45% Castilla-La Mancha; 6% Comunidad Valenciana; 13,39% Madrid; 9% Estas multinacionales se basan en el diseño propio y en productos muy económicos. Fig.1 EMPRESAS DEL SECTOR EN ESPAÑA, POR CC.AA, EN EL AÑO 2010 Las pequeñas empresas tienen que optar por la fórmula de las franquicias para poder subsistir a esta guerra de precios. En resumen, una especialización marcada y una oferta diferenciada son dos claves para poderr avanzar dentro de este mar de multinacionales, las cuales ofrecen menores precios y mayor variedad [14]. -Productos Productos sustitutivos: Existe la amenaza de sustitución de nuestros muebles por otros fabricados con tecnologías modernas e innovadoras generada por la segmentación de la demanda (hierro, plástico, mármol, plástico plá inyectado…), los cuales cubren la misma III Congreso de Cibernética Universidad de León. n. Prego López. Estudio de mercado. necesidad que los muebles de madera [15]. -Poder Poder negociador de los proveedores: El proveedor con gran poder de negociación es el de la madera ya que suministra la materia prima básica, siendo fundamental la calidad idad de la misma para obtener ventajas competitivas por diferenciación [15]. -Poder Poder negociador de los clientes: Al haber aumentado considerablemente la cantidad de empresas en el sector, esto se traduce en un gran poder negociador de los compradores. Así mismo, hay empresas que también son clientes, como El Corte Inglés, Conforama…que al adquirir grandes cantidades de muebles y ser preferidos por el cliente final como centro de compra, tienen un alto poder negociador con la fábrica de muebles que les suministra stra el mobiliario de venta al público [15]. III. ESTUDIO DE VIABILIDAD TÉCNICA El caso práctico consiste en estudiar el resultado de implantar una fábrica de muebles de madera, que además dispone de sala de exposición y venta al público; todo esto se proyectaa sobre una nave ya construida en la que se rediseñan las dependencias interiores para aprovechar el espacio de manera óptima. A. Distribución La distribución elegida es la “Distribución en Línea”, de tal forma que las máquinas herramientas y demás elementos de producción están dispuestos de tal forma que los materiales siguen siempre la misma ruta, como se indica en la Fig.2: Materia Prima Operaciones del Proceso Producto Terminado 4 de las fases del proceso (detalladas en la Tabla Ta III) de la manera más rápida y efectiva posible. TABLA III FASES DEL PROCESO DE PRODUCCIÓN FASE DESCRIPCIÓN 1 Diseño del mueble y prototipos 2 Recepción y almacenamiento de materias primas 3 Secado de la madera 4 Aserrado, Alistonado y mecanizado de madera 5 Pre-encolado 6 Montaje, incluyendo encolado 7 Barnizado (acabado) 8 Montaje de acabados 9 Embalaje y empaquetado individual. Formación de palés 10 Apilar. Expedición 11 Operaciones auxiliares En la Tabla IV se hace un desglose de dicha dic maquinaria, indicando las unidades que se estiman indispensables, y todas ellas se distribuirán en la nave según la distribución en línea de la Fig.2. D. Impacto Ambiental Según la Ley 11/2003, de 8 de abril, de Prevención Ambiental de Castilla y León, dentro den de los tres regímenes que se definen, nuestra fábrica de muebles de madera está sometida a “Licencia Ambiental”, debido a que causa un impacto moderado. Además, según el Real Decreto Legislativo 1/2008, de 11 de enero, por el que se aprueba el texto refundido fundido de la Ley de Evaluación de Impacto Ambiental de proyectos (capítulo 1, Artículo 3), no es necesaria la realización de un estudio de impacto ambiental [17]. [1 IV. ESTUDIO DE VIABILIDAD ECONÓMICA Fig.2 DISTRIBUCIÓN EN LÍNEA B. Proceso El proceso se divide en 11 operaciones operaci básicas desglosadas en la Tabla III [16]. C. Maquinaria Para poder llevar adelante una fábrica de muebles de madera es necesario disponer de toda la maquinaria necesaria para desarrollar cada una III Congreso de Cibernética En el presente caso práctico se ha hecho una estimación de la inversión inicial, la cual se recoge en la Tabla V.. Para ello se va a estimar que se constituye la nave como sociedad anónima. Además habrá que abonar el coste del terreno y el de la nave al estar ésta ya construida. A todo esto se añaden una serie de costes c relacionados que habrá que tener en cuenta a la hora de estimar la inversión inicial. Universidad de León. Prego López. Estudio de mercado. 5 TABLA V INVERSIÓN INICIAL TABLA IV MAQUINARIA FASE 1 Maquinaria Tipo UDS. --- --- INVERSIÓN INICIAL EQUIPOS AUXILIARES PARTIDA ----- Constitución de nueva sociedad 60.000 1.811.175 CANTIDAD (€) 2 --- --- ----- Terreno 3 Horno o estufa de secado 1 ----- Nave 1.261.998,5 4 Cepillo devastador 2 ----- Instalaciones (incluidas en la nave) Curvadora 2 ----- Maquinaria 393.156,17 Tupí 2 ----- Gastos Generales 458.423 Horno o estufa de secado 1 ----- Ingeniería 150.000 Sierra de corte transversal 2 Extractor de polvo Sierra para cortar al hilo 2 Extractor de polvo Impuestos 652.358 Cepillo de acabado 2 ----- Permisos 224.392 Moldeadora 2 ----- Otros 150.000 Torno 2 ----- Sierra circular 2 Extractor de polvo Sierra de cinta (sin fin) 2 Extractor de polvo Copiadora-Fresadora 2 ----- Fresadora rotativa 2 ----- Taladradora 2 ----- Escopleadora 2 ----- Cinceladora 2 ----- Lijadora de banda 2 Extractor de polvo Lijadora de cantos 2 Extractor de polvo 5 Encoladora de cantos 2 ----- 6 Pistola encoladora 2 Compresor Túnel de secado 1 ----- Lijadora 1 Extractor de polvo Pulidora 1 Extractor de polvo 7 Robot de barnizado 1 Dep. Barniz. Extractor de vapor Horno de secado 1 ----- 8 1 Luz telescópica 9 Mesa de inspección de calidad Embaladora 1 ----- 10 Robot paletizador 1 ----- 11 --- --- ----- TOTAL 5.161.502,67 Se trabaja de lunes a viernes 8 horas al día en dos turnos, con un horario de 7:00 a.m. a 15:00 p.m. y de 15:00 p.m. a 23:00 p.m. Con estos datos se obtienen un total de 255 días laborables al año. Además, se tiene una producción diaria de 5 muebles para venta nacional y 20 para venta internacional, esto supone 6.375 muebles/año, que con un precio unitario de venta al público de 1.300€, se obtienen un total de cobros de 8.287.500€ anuales. -Pagos: En este punto se incluyen los pagos resumidos en la Tabla VI. B. Financiación La fábrica pedirá un préstamo al banco de 7.000.000€ a pagar en 15 años, 6,67%/año, con un tipo de interés efectivo anual de 2,75%, resultando todo esto en un gasto financiero fijo de 659.166,67 € durante los 15 primeros años de actividad de los 20 años de vida útil que se le estima al proyecto. C. VAN (Valor Actual Neto) A. Presupuesto de pagos y cobros -Cobros: Los ingresos anuales se deben únicamente a la venta de muebles de madera en el mercado. En esta fábrica se trabaja todos los días del año excluyendo los festivos del calendario laboral (no más de 14 días). III Congreso de Cibernética Este dato nos proporciona el dinero que se gana con el proyecto actualizado a día de hoy, pudiendo deducirse por consiguiente que dicho proyecto es rentable siempre y cuando el VAN obtenido tenga un valor positivo, a mayor VAN más rentable resulta, por lo que si hubieran diferentes propuestas se escogería aquella con mayor VAN. Para este proyecto se ha obtenido un VAN de valor 8.989.785,28 €. Universidad de León. Prego López. Estudio de mercado. TABLA VI GASTOS FIJOS ANUALES DE LA EMPRESA PAGOS ANUALES Concepto Precio total (€) Personal 796.800 Seguros e impuestos de personal 239.040 Transporte terrestre 25.350 Transporte marítimo 254.808 Madera 4.202.636,64 Consumibles 46.641,82 Electricidad 59.924,11 Higiene, seguridad y prevención de riesgos 7.800,34 Mantenimiento de maquinaria 1.467,92 6 invertida. El ICB del proyecto tiene un valor de 2,7416. G. Análisis de Sensibilidad Los dos factores más importantes a tener en cuenta en este apartado son el precio unitario de venta del mueble, y el precio de adquisición de la madera de roble. Respecto del precio de venta del mueble de madera se obtiene que el proyecto será rentable siempre y cuando el precio unitario no sea inferior a 1.079,31 € como se aprecia en la Fig.3. 17500000 5.634.468,83 € 12500000 D. TIR (Tasa Interna de Rendimiento) Este valor se corresponde con la tasa de actualización que anula al VAN, por lo tanto el valor del TIR (expresado en %), expresa la rentabilidad del proyecto, y al igual que el VAN, ante varias alternativas se debe elegir aquella con un mayor valor del TIR. Además, para saber si el cliente aceptará el proyecto según sus criterios de rentabilidad mínimos, el TIR debe de ser mayor que la tasa de actualización impuesta por el cliente, en caso contrario debe desaconsejarse la realización del proyecto. En este caso el TIR ha dado un valor de 30,083%, siendo la tasa de actualización impuesta por el cliente del 8%. 7500000 2500000 -2500000 -7500000 Fig.3 VAN - PRECIO DE VENTA DEL MUEBLE DE MADERA Por otro lado, respecto del precio de adquisición de la tonelada métrica de madera de roble, una subida importante de su coste pondría en serio peligro el negocio ya que la inversión que se hace en madera de roble supone un 74,59% de los gastos anuales de la empresa, por lo que el negocio dejaría de ser rentable para precios superiores a los 884,081€ por tonelada métrica (actualmente el precio de la madera dura aserrada está en un valor de 655,9€/Tm) como se aprecia en la Fig.4. E. PR (Periodo de Recuperación) 9500000 Con este dato se puede conocer cuánto tiempo es necesario para ver compensada la inversión inicial. Es importante tener en cuenta que este dato no es indicativo de rentabilidad, sino que solamente expresa liquidez, y evidentemente interesa que sea lo menor posible ya que implica que el negocio genera beneficios de manera temprana. Para este proyecto el PR tiene un valor de 4 años. F. ICB (Índice de Coste Beneficio) Este dato nos indica la eficacia de los fondos invertidos estableciendo cuántas unidades monetarias ganamos por cada unidad monetaria III Congreso de Cibernética 4500000 -500000 -5500000 -10500000 -15500000 Fig.4 VAN - PRECIO ADQUISICIÓN DE LA MADERA DE ROBLE V. CONCLUSIONES El caso práctico propuesto resulta altamente rentable ya que el VAN obtenido es muy superior a cero, Universidad de León. Prego López. Estudio de mercado. 7 Fig.5-MILLONES € - EXPORTACIÓN DE MUEBLE ESPAÑOL LOS ÚLTIMOS AÑOS concretamente 8.989.785,28 €, y además la rentabilidad de este proyecto que nos expresa la TIR corresponde al 30,083% (mucho mayor que la tasa de descuento del 8% exigible por la empresa) con lo cual resulta muy atractivo el proyecto para su ejecución. El periodo de recuperación de la inversión inicial es relativamente corto, es de 4 años frente a los 20 años de vida estimada inicial del proyecto. Además se tiene un ICB del 2,7416, es decir, que por cada euro invertido en el proyecto ganamos 2,7416 €. Por último, del análisis de la sensibilidad deducimos que el proyecto seguiría siendo rentable aún modificando considerablemente el precio de venta del mueble de madera, siempre que éste no fuera inferior a los 1.079,31 €. Sin embargo debemos tener en cuenta un factor decisivo en la rentabilidad de este proyecto, y es que el precio de adquisición de la madera de roble materia prima es crucial, éste no puede tener una subida desmesurada ya que sino el proyecto sería inviable, nunca debe superar los 884,081 € / Tm. Por tanto, por todo lo mencionado anteriormente, se considera que la opción de montar una fábrica de muebles de madera en el Polígono Industrial de Montearenas de Ponferrada es viable y con buenas perspectivas. A pesar de estas cifras, hay que tener cuidado ya que debido a la crisis, desde hace unos años el sector se ha visto afectado, así según ANIEME en III Congreso de Cibernética 2009 [18] la exportación descendió un 16,4% y la importación un 27%. En 2010 [19] la exportación subió un 0,9% y la importación aumentó un 19,7%. Mientras que en 2011 [20] la exportación incrementó en 0,6% descendiendo un 9,9% la importación. Además se vio aumentada la exportación a países con mercados emergente como son Qatar e India (un 54,7% y un 42,8% respectivamente de aumento de ventas).Como conclusión hay que tener cuidado de invertir en un mercado en el que la crisis ha afectado tan notablemente, y que se está recuperando, pero muy lentamente, ya que aunque haya habido mejora en los dos últimos años, sigue estando muy por debajo del nivel de actividad de hace algunos años, como se observa en el gráfico de la Fig.5. VI. LÍNEAS FUTURAS Los cálculos económicos realizados para estudiar el resultado de la implantación de una fábrica de muebles de madera en Ponferrada, en la situación actual del mercado nacional de esta industria han sido realizados a partir de unos datos de partida fijos, con lo que están dotados de una cierta incertidumbre, ya que representan previsiones, mientras que el futuro es incierto y dinámico. En proyectos de vida útil corta se pueden suponer constantes valores como la tasa de inflación, tasa de impuestos, precio de adquisición de la madera dura aserrada de roble o el precio de venta al público del mueble de madera, pero como Universidad de León. Prego López. Estudio de mercado. se ha dicho antes, éste es un proyecto de 20 años, es decir, de vida larga, y las variaciones sobre las previsiones iniciales producen divergencias enormes que pueden alterar sustancialmente la rentabilidad del proyecto. Por lo tanto se propone realizar un estudio teniendo en cuenta este riesgo de variabilidad en la rentabilidad al ser éste un proyecto de vida larga (20 años), y se puede hacer comparando varios proyectos con iguales valores de rentabilidad, analizando qué alternativa es más probable que alcance la rentabilidad prevista. REFERENCIAS [1] Guerras Martín, L.A.; Navas López, J.E.; (2010) La Dirección Estratégica de la Empresa. Teoría y Aplicaciones. Cuarta Edición. Thomson, Civitas. [2] Abell, D. F. (1980); Defining the business: The starting point of strategic planning. Prentice Hall; Englewood Cliffs (EUA). [3] Prats Planagumà, Lluís; Guia Julve, Jaume; La destinación como sistema local de innovación: un modelo para la ventaja competitiva sostenible. Disponible en: “http://fama2.us.es :8080/turismo/turismonet1/e conomia%20del% 20turismo/demanda%20turistica/destination%20as%20 a%20local%20system%20of%20innovation.pdf”. [4] Departamento económico y social. Agricultura mundial: hacia los años 2015/2030, Food and Agriculture Organization (FAO).Disponible en: “http://www.fao.org/DOCREP/004/Y3557S/y3557s10. htm”. [5] Hashiramoto, O.; Castano J. y Johnson S.; Departamento de montes (2004). El nuevo panorama mundial del comercio de productos madereros (FAO).Disponible en: “http://www. fao.org/docrep/008/y5918s/ y5918s05.htm”. [6] CSIL-Centro Studi Industria Leggera. Disponible en: “http://www.cs ilmilano.it/”. [7] Instrumento de Ratificación del Protocolo de Kyoto al Convenio Marco de las Naciones Unidas sobre el Cambio Climático, hecho en Kyoto el 11 de diciembre de 1997. Disponible en: “http://noticias.juridi cas.com/base_datos /Admin/ir111297-je.html”. [8] (2011). Cierre del ejercicio 2010 en el sector español de fabricación de muebles. Disponible en: “http://acomza.comercioaragon.com/?cat =3 87”. [9] (2012). La exportación española de muebles cierra el ejercicio 2010 con signo positivo. Disponible en: “http://www.feriahabitatvalencia .com/noticias/fichanoticia.aspx?id=280”. [10] CONFEMADERA (2006). Datos del sector de la madera en España. Disponible en: “http://ww w.aemcm.net/archivos/infsectori al2_06.pdf”. III Congreso de Cibernética 8 [11] (2001). Estudio muebles Durango. Disponible en: “https://docs.google.com/viewer?a=v&q=ca che:A5c0gOCqRPgJ:www.contactopyme.gob.mx/estud ios/docs/estudio_mueble_durango.doc+las+importacion es+de+EEUU+de+muebles+25 %25&hl=es&gl=es&pid=bl&srcid=ADGEESjM8f4Bpt zaWAgra1Zy-li8IaSc3GJImZZXqgRB tp40XhdKtnf AZp5nXGGi1xmE2Cl4m41rPSFb YuT69GeX6G4URGcftFlKTcjm9Wa6ZWE2n MisFZIWF_NEk9dNVHB6nyBM2wd&sig=AHIEtbRu IsTyNocPjVe7vZ3O6Ba1AP85DA”. [12] CONFEMADERA (2012). Industria y Tecnología. Disponible en: “http://www.confem adera.es/industriay-tecnologia”. [13] Ministerio de Industria, Turismo y Comercio (2010). Presentación Sectorial. Sector Muebles. Disponible en: “http://www.minetur.gob.es/esES/IndicadoresyEstadisticas/Presentaciones%20sectoria les/MUEBLES.PDF”. [14] (2011). Sector Mobiliario: la clave está en la especialización. Disponible en: “http://www.to rmo.com/sectores/315/Sector_Mobiliario _la_cl ave_esta_en_la_especializacion.htm”. [15] Renau Piqueras, Juan José. Análisis Externo: Entorno específico o competitivo. Disponible en: “http://www.uv.es/~dromero/documentosD EI/AUXIMOBLE-resolucion.pdf”. [16] Instituto Tecnológico del Mueble, Madera, Embalaje y Afines (AIDIMA); (2009) Guía de mejores técnicas disponibles para el sector de fabricación de Muebles de Madera. Comunitat Valenciana. Disponible en: “http://www.cma.gv a.es/web/indice.aspx?nodo=64583&idioma=C”. [17] Real Decreto Legislativo 1/2008, de 11 de enero. Disponible en: “http://noticias.juridicas. com/base_datos/Admin/rdleg1-2008.html”. [18] (2009). El mueble español cierra el ejercicio 2009 con un descenso de 16,4% de sus exportaciones. Disponible en: “http://www.n oticiashabitat.com/2010/el-muebleespanol-cierra-el-ejercicio-2009-con-un-descenso-de164-de-sus-exportaciones/”. [19] (2011). La exportación española de muebles cierra el ejercicio 2010 con signo positivo. Disponible en: “http://www.noticiashabitat.com /2011/la-exportacionespanola-de-muebles-cie rra-el-ejercicio-2010-consigno-positivo”. [20] (2011). La exportación de muebles españoles se incrementa un 0,6% en el ejercicio 2011. Disponible en: “http://noticias.infurma.es/asoci acion/laexportacion-de-muebles-espanoles-se-incrementa-un06-en-el-ejercicio-2011/3193”. Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE TECNOLOGÍAS DE CONTROL PARA LA SUPERVISIÓN ENERGÉTICA EN LA UNIVERSIDAD DE LEÓN Del Canto Masa, Carlos Javier Dpto. de Ingeniería Eléctrica y de Sistemas y Automática. Universidad de León. Edificio tecnológico de Ingenierías. Campus de Vegazana. 24071 LEON. E-mail: [email protected] Resumen En este artículo se presenta el sistema de supervisión de energía eléctrica implantado en la Universidad de León. Este sistema se basa en una estructura de triple capa en la que la capa servidor adquiere datos de una red de medidores eléctricos instalados en los diferentes edificios del campus. En la capa intermedia se almacenan y procesan los datos, y en la capa cliente se encuentran los equipos finales que supervisan el sistema vía Internet. En el presente documento se presentan algunos resultados correspondientes a la utilización del sistema de supervisión a lo largo del año 2011, además de las nuevas herramientas desarrolladas. Palabras Clave: Energía eléctrica, eficiencia energética, supervisión remota, triple capa, minería de datos, optimización de potencia. I. INTRODUCCIÓN Durante los últimos cinco años, el consumo energético del país se ha incrementado de una forma muy cuantiosa. En el caso de la energía eléctrica, y a pesar de la actual crisis económica, la demanda se ha incrementado en más de un 30%, dato muy por encima de las previsiones. Estos datos han llevado a un gran número de empresas, tanto del sector secundario como del sector terciario, a apostar por una política de eficiencia energética, llevando a cabo acciones que fomenten el ahorro y evitando emisiones excesivas de CO2 y otras sustancias contaminantes. Para llevar a cabo esta política es necesario dotar a la empresa de una infraestructura de equipos de medida y supervisión, necesaria para la adquisición, almacenamiento y posterior explotación de los datos eléctricos. En la actualidad estos sistemas son escasos e ineficientes ya que se centran únicamente en las variables implicadas en la facturación y, con frecuencia, este registro se realiza a velocidades de muestreo bajas, lo que implica pérdida de información relativa a la dinámica del sistema. Además, la supervisión generalmente considera cada edificio de forma independiente y emplea para ello sistemas cerrados de tipo propietario poco flexibles, causando que cualquier ampliación en el sistema sea difícil de llevar a cabo. Por esta razón, el sistema de supervisión energética de la Universidad de León se ha diseñado utilizando tecnologías estándar y huyendo, en la medida de lo posible del software propietario, lo que garantiza su carácter abierto, escalable y flexible. La plataforma tecnológica de este sistema se basa en una arquitectura de triple capa (capa cliente – capa intermedia – capa servidor) en la que el cliente puede acceder a través de Internet. Además, en este sistema se han incorporado herramientas tradicionales de supervisión (visualización, optimización, comparación, etc.), así como herramientas avanzadas. Estas herramientas pueden basarse en técnicas estadísticas o de minería de datos que ayuden a proporcionar una mejor comprensión del sistema, a tomar decisiones o incluso a predecir consumos futuros. El grupo SUPRESS del área de sistemas y automática de la Universidad de León ha realizado un modelo de estudio de la energía eléctrica en la Universidad a través del sistema de supervisión energética. Este modelo de estudio está constituido por algunas tareas tales como la minería de datos de las magnitudes eléctricas en cada punto de facturación, la supervisión de los consumos a través de Mapas AutoOrganizados (SOM), el estudio de la tarificación energética en la Universidad de León o el desarrollo de herramientas que faciliten la supervisión y la predicción de los consumos eléctricos. Las herramientas desarrolladas se utilizan para determinar la curva de carga, optimizar las potencias a contratar, observar picos o caídas de tensión, comparar los consumos de varios edificios en un mismo período horario, detectar fallos y cortes de suministro, predecir consumos futuros, verificar facturas, etc. Este artículo se estructura de la siguiente manera: en la sección 2 se describe el sistema de medida de energía eléctrica de la Universidad de León. El apartado 3 detalla la arquitectura de supervisión desarrollada. A continuación, en el apartado 4 se presentan 1 Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE Fig. 1 Vista aérea de los edificios del Campus de la Universidad de León las herramientas de supervisión que incorpora el sistema. En el apartado 5 se exponen una serie de resultados experimentales obtenidos con las herramientas desarrolladas. Finalmente, se enumeran las conclusiones en el apartado 6. II. SISTEMA DE MEDIDA Y SUPERVISIÓN DE ENERGÍA ELÉCTRICA EN LA ULE La Universidad de León se compone de un conjunto de edificios que se enmarcan dentro del sector terciario, destinados a prestar servicios docentes, de investigación o de apoyo (cafeterías, centros de procesamiento de datos, publicaciones, etc.). En la Fig. 1 se puede observar como este conjunto de edificios se distribuyen por toda la ciudad de León constituyendo distintas zonas. Observando la Tabla 1 se puede apreciar que el Campus dispone de 30 edificios, organizados en 13 puntos de acometida eléctrica que coinciden con los puntos de facturación. De los 13 puntos de acometida, 8 se realizan en media tensión (MT 21 kV) y cinco en baja (BT 400 V). Estas acometidas suministran energía eléctrica a uno o varios edificios del Campus, previa transformación de MT a BT a través de transformadores eléctricos en los casos que se requiere. En cada edificio del Campus se ha instalado un equipo de medida a la entrada del suministro de energía eléctrica y, en algunos casos, se han instalado equipos de medida en determinadas zonas del edificio. Estos equipos son de distintos fabricantes, modelos y gama dependiendo de la función que desempeñan. Algunos equipos solamente se destinan a la medición de variables eléctricas, mientras que otros de más alta gama incorporan el software necesario para la adquisición y supervisión de las mismas. Las variables medidas por estos equipos son las básicas (tensión y corriente) y complementarias (potencia activa, reactiva, factor de potencia, energía, armónicos, distorsión armónica, etc.). Punto Facturación Etiqueta Edificio facturación P1 E1 CRAI-TIC E2 Radio Universitaria P2 E30 Ciencias Económicas E3 Industriales e Informática E4 Aulario E5 Tecnológico P3 E17 Ciencias de la Actividad Física E18 Pabellón Deportivo E19 Frontón E6 Filosofía y Letras E7 Derecho P4 E8 Enfermería E9 Ciencias del Trabajo E10 Clínica Veterinaria E11 Veterinaria E12 Cafetería I P5 E13 Ciencias Biológicas E14 Servicios E15 Desarrollo Ganadero E16 Animalario E20 Biblioteca San Isidoro P6 E21 Sucursal Bancaria E22 Cafetería II P7 E23 Instituto Molecular P8 E24 Complejo Agrícolas P9 E25 Colegio Mayor P10 E26 Complejo Rectorado P11 E27 Complejo la Serna P12 E28 Minas P13 E29 Centro de Idiomas Tabla 1 Listado de los edificios del Campus de la Universidad de León. A continuación se enumeran los distintos equipos de medida utilizados: Medidores Nexus 1252 (Electroindustries/GaugeTech): Este equipo es un medidor de alta precisión que no solo mide las variables eléctricas, sino que además permite realizar un análisis de las mismas. Almacena picos, cortes, fluctuaciones y otros factores que facilitan el análisis de la calidad de la energía. Posee 4 puertos serie RS-485 con la posibilidad de conmutar uno de ellos por un puerto serie RS-232. También tiene un puerto Ethernet que le permite funcionar como pasarela entre ambas redes. Debido a las características del equipo, normalmente se utiliza como medidor de energía para un mismo punto de facturación. Medidores CM 4000 (Schneider Electric): Este equipo es un medidor de alta gama que puede realizar una evaluación de la calidad de la energía en base a un análisis entre armónicos. Además detecta la dirección de las perturbaciones. También incorpora interfaz de comunicaciones RS-485 y Ethernet, lo que le permite funcionar como pasarela entre ambas redes al igual que el medidor anterior. 2 Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE Pasarela EGX 300 (Schneider Electric): Este equipo es una pasarela de RS485 a TCP/IP que puede tener hasta 32 dispositivos conectados. Tiene una memoria interna de 512 Mb para registro de datos y no necesita un software de supervisión, puesto que consta de un servidor web mediante el cual se puede realizar una supervisión de las variables adquiridas por los equipos conectados a la pasarela. Pasarela EGX 100 (Schneider Electric): Este modelo tiene características similares a la Pasarela EGX 300 pero necesita de un software para realizar la supervisión de las variables adquiridas por los equipos conectados a la pasarela. No tiene memoria interna. Medidores Shark 100 (Electroindustries/GaugeTech): Este equipo realiza solamente funciones de medida eléctrica. Como interfaces de comunicación tiene un puerto serie RS-485 y un puerto de infrarrojos para lectura y/o programación remota desde un PC. Una de sus ventajas es su bajo coste, y sus principales aplicaciones son las medidas en el nivel secundario de distribución. Medidores PM 800 (Schneider Electric): Este modelo tiene unas capacidades de medición de gran rendimiento entre las que se destacan las magnitudes básicas de tensión y corrientes, valores THD y armónicos de tensiones y corrientes de forma individual para cada fase. La deslocalización geográfica de los distintos edificios del campus hace que sea necesaria la utilización de una red de comunicaciones que interconecte los distintos medidores. Este bus de campo está formado por diversos segmentos de red, los cuales se diferencian en el soporte físico que utilizan. Estos segmentos son de dos clases: Ethernet y serie RS-485. Los segmentos RS-485 enlazan medidores próximos entre sí (como mucho unos 300 metros), mientras que los segmentos Ethernet permiten interconectar los equipos que se encuentran más alejados. Los modelos Shark 100 y PM 800 conforman los segmentos serie, mientras que los modelos Nexus 1252, CM 4000 y EGX 100 y 300, que poseen interfaz de comunicaciones Ethernet, se conectan directamente a los segmentos de red Ethernet realizando una labor de pasarela entre las dos clases de segmentos. El bus de campo hace uso de la red de área local (LAN) que la Universidad de León posee en todos sus edificios. El objetivo es aprovechar los recursos disponibles y minimizar las tareas de cableado del bus. Dentro de esta red LAN, basada en el estándar Fig. 2 Esquema eléctrico. Universidad de León. Fig. 3 Red de comunicaciones. Universidad de León. Ethernet, se ha definido una red de área local virtual (VLAN) independiente, destinada únicamente al sistema de supervisión, la cual permite comunicar entre sí los medidores eléctricos de todos los edificios. Gracias a la red VLAN es posible separar segmentos lógicos dentro de la red LAN de la Universidad y se evita intercambiar información directamente con otros segmentos dedicados a otros fines como la secretaria virtual, el profesorado, etc. La red VLAN es configurable mediante software, muy flexible y garantiza la escalabilidad del sistema de supervisión. Para agregar nuevos medidores, simplemente es necesario indicar la pertenencia de un nuevo segmento de red a la VLAN. El esquema de conexionado eléctrico de los medidores y su estructura de red se han representado en las Figuras 2 y 3. III. ARQUITECTURA DE SUPERVISIÓN La arquitectura elegida para el sistema de supervisión energética en los edificios de la Universidad de León se basa en una estructura de triple capa. Esta estructura consiste en una modificación de la tradicional arquitectura cliente-servidor que incorpora una capa intermedia constituida por el sistema que gestiona la información adquirida por la capa servidor. En la Figura 4 se representa gráficamente la arquitectura de supervisión del sistema de energía eléctrica, que se describe a continuación. La Capa Servidor está formada por el sistema de medida eléctrica descrito en el apartado 2 y por el 3 Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE evita posibles fallos en la transmisión de información y otorga fiabilidad al sistema de adquisición. La Capa Intermedia está constituida por tres servidores, el servidor de almacenamiento, el servidor de explotación de datos y el servidor web. El servidor de almacenamiento es el encargado de almacenar los datos tomados por el servidor de adquisición. Está constituido por una base de datos y por un sistema gestor (SGBD), de tipo Microsoft SQL Server. Se pueden distinguir 3 tipos de almacenes de información diferentes dentro de este servidor: Fig. 4 Arquitectura de Supervisión. Universidad de León. servidor de adquisición de datos. Este servidor es el encargado de la toma de datos procedentes de todos los medidores eléctricos y su almacenamiento de forma ordenada en la capa intermedia. Para este propósito se ejecuta un servicio de adquisición de datos desarrollado en C que registra los datos de los medidores eléctricos utilizando el protocolo Modbus. Este protocolo se basa en una arquitectura maestro/esclavo en la que el maestro realiza peticiones a los esclavos, respondiendo estos a las peticiones del maestro. Además Modbus es un protocolo abierto. El servicio de adquisición de datos actúa como maestro Modbus realizando peticiones a los esclavos según el periodo de muestreo (normalmente 1 minuto). Una vez recibidos los datos, los envía hacia el servidor de almacenamiento de la capa intermedia donde se van insertando siguiendo el patrón FIFO (First in, First Out), es decir, que la primera muestra de datos recibida procedente de los medidores es la primera en ser insertada en la base de datos. Tanto en la conexión con los medidores como con el servidor de almacenamiento se ha implementado una redundancia software de forma que el servicio de adquisición realiza una reconexión automática en el caso de que se pierda la conectividad con los equipos. De forma complementaria, también se realizan hasta 3 intentos en las peticiones y en las inserciones en el caso de no recibir la correspondiente respuesta una vez transcurrido un cierto tiempo de espera. Esto Almacén de datos, donde se guardan los datos eléctricos procedentes de los medidores. Almacén de conocimiento, donde residen los resultados de los métodos del análisis masivo de datos que lleva a cabo el servidor de explotación. Almacén de parámetros, donde se guardan los parámetros de configuración del sistema de supervisión (direcciones físicas de los medidores en el bus de campo, periodo de muestreo, etc.). La base de datos se encuentra estructurada en un conjunto de tablas relacionado con los edificios por medio de un identificador. Esto permite acceder a los datos y a los parámetros de un edificio concreto. Otro elemento a destacar son las tareas programadas que se ejecutan de forma automática según el tiempo indicado. Alguna de estas tareas consiste en realizar llamadas al módulo de explotación para iniciar el análisis de datos o en realizar copias de seguridad. Por último, el sistema gestor controla cualquier acceso a la base de datos como las inserciones realizadas por el servicio de adquisición para que los datos se almacenen de una forma ordenada. Este sistema gestiona también las selecciones y búsqueda de información. El servidor de análisis de datos es el equipo encargado de ejecutar el módulo de explotación para obtener el conocimiento que hay implícito en los datos del sistema de energía eléctrica. Este módulo consta de dos servicios diferentes: Servicio de preprocesado, que se debe ejecutar en primer lugar para realizar un tratamiento de las muestras erróneas o vacantes. Servicio de modelado, dedicado a la búsqueda de patrones de comportamiento eléctrico y a la predicción de consumos por medio de métodos estadísticos y de minería de datos. Estos servicios se han desarrollado mediante la utilización del software Matlab®, ampliamente usado en tareas de minería de datos. 4 Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE Fig. 5 Herramienta de supervisión tradicional. Fig. 6 Herramienta de optimización. El servidor web es el equipo cuya función es publicar la información a través de Internet para que un usuario remoto pueda acceder a las diversas herramientas de supervisión. Este servidor se encuentra en una subred conocida como zona desmilitarizada (DMZ), separada por un router, de la red de uso interno de la Universidad de León. Se basa en un Windows 2003IIS 6.0. ciona mediante el slider de la parte superior izquierda, y el periodo de visualización se selecciona mediante los controles de la parte inferior izquierda. Además, la aplicación dispone de un modo que permite comparar los consumos de distintos edificios (hasta un máximo de cuatro) para el mismo periodo de tiempo. La aplicación también dispone de una herramienta para generar facturas en Excel para determinados edificios y los típicos botones de limpiar gráfica, guardar gráfica y sostener gráfica. La Capa de cliente contiene las interfaces de control que se presentará a los analistas. La arquitectura del sistema permite a cualquier ordenador con acceso a Internet ser utilizado para la supervisión. Hay varias aplicaciones desarrolladas para visualizar los datos y los modelos de los datos eléctricos. Las tecnologías utilizadas para desarrollar las interfaces gráficas son HTML, PHP, LabVIEW y Processing. El funcionamiento de esta herramienta se basa en realizar peticiones a la base de datos (servidor de almacenamiento) generando una cadena sql que contiene las variables seleccionadas, el identificador del edificio y los tiempos inicial y final del intervalo seleccionado. Herramientas de supervisión avanzada. IV. HERRAMIENTAS DE SUPERVISIÓN DESARROLLADAS En este apartado se describen dos de las herramientas desarrolladas para supervisar y optimizar el consumo de energía eléctrica en la Universidad de León. Estas herramientas se pueden clasificar en dos grandes grupos que se describirán a continuación, supervisión tradicional y supervisión avanzada. Herramientas de supervisión tradicional. Este tipo de herramientas permiten visualizar en forma de gráficos la evolución temporal de las variables eléctricas implicadas en el sistema. La herramienta de supervisión tradicional desarrollada para este trabajo (Fig. 5) se ha implementado mediante la utilización del software Matlab. Mediante esta herramienta se puede visualizar de una forma muy sencilla la evolución de la potencia activa, potencia reactiva, energía activa y energía reactiva en cualquier edificio de la Universidad de León para un periodo de tiempo determinado. El edificio se selec- Este tipo de herramientas utilizan técnicas estadísticas y de minería de datos para extraer la información. Se pueden dividir en tres grupos: Herramientas de comparación. Utilizan técnicas como los Mapas Autoorganizados (SOM) o el kmeans para organizar los edificios en diferentes grupos, en función de sus perfiles eléctricos. Herramientas de predicción. Se han desarrollado herramientas para la predicción del consumo en edificios a corto (1-6 horas) y a medio plazo (días). El objetivo fundamental de la predicción a corto plazo es determinar qué transformadores interconectados necesitan prepararse para entrar en funcionamiento. En el caso de la predicción a medio plazo, la idea fundamental es poder determinar el consumo en los días siguiente con el fin de estimar la potencia que va a ser necesaria en una determinada situación. Herramientas de optimización. Dentro de este grupo se encuadra la herramienta desarrollada para este trabajo (Fig. 6), implementada mediante la plataforma Matlab. Esta herramienta utiliza los datos de las 5 Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE (a) Potencia Pico (b) Potencia Llano (c) Potencia Valle Fig. 7 Evolución de las potencias durante el año 2010. Instituto Molecular (P7). facturas de la compañía de los últimos 12 meses para calcular el punto óptimo de potencia contratada (pico, llano y valle) a partir de las curvas potencia-coste. Además, esta herramienta también calcula la potencia óptima en el caso de que la compañía establezca la siguiente restricción: . (1) El funcionamiento de la herramienta consiste en calcular y minimizar las curvas potencia-coste, evaluando las mismas para potencias comprendidas entre 1 y 1000 kW. La adquisición de los datos de las facturas se puede realizar de dos formas, la primera consiste en introducir de forma manual las potencias registradas por los maxímetros y los precios de los términos de potencia de cada periodo, la segunda consiste en adquirir los datos desde una hoja de Excel diseñada para este propósito. Si se selecciona la adquisición de los datos desde hoja de Excel, se debe seleccionar el punto de facturación para el cual se quiere realizar el estudio mediante el menú de la parte superior. V. RESULTADOS EXPERIMENTALES El punto de facturación eléctrico de la Universidad de León escogido para el análisis mediante la utilización de las herramientas desarrolladas, ha sido el Instituto Molecular (P7). Este edificio se ha seleccionado debido a la gran diferencia que hay entre la potencia contratada y la consumida para cada uno de los periodos en el año 2010, tal y como se puede observar en la Figura 7. Este punto de facturación se atiene a una tarifa 3.1 A (alta tensión 3 periodos) con una potencia contratada de 200 kW para cada uno de los periodos. En la Figura 7 se puede observar la evolución de las potencias registradas por los maxímetros de la compañía (línea azul con cuadros rojos), de la potencia contratada (línea azul con rombos) y de los máximos y mínimos sin penalización establecidos por la compañía (líneas roja y morada). La potencia registrada en los periodos llanos y pico permanece prácticamente constante en el rango 50-70 kW los 12 meses del año, siendo unos 100 kW inferior al mínimo sin penalización. En el periodo valle, la potencia permanece constante en unos 50 kW los 12 meses del año, lo que hace que aumente la diferencia con el mínimo sin penalización establecido por la compañía. A la vista de estos gráficos es fácil deducir que la potencia contratada en este punto de facturación no es correcta por lo que es necesario ajustarla utilizando la herramienta de optimización desarrollada. La Figura 8 muestra el resultado de aplicar la herramienta de optimización al punto de facturación Instituto molecular utilizando los datos de las facturas del año 2010. Para este propósito se han ordenado las potencias registradas por los maxímetros de la compañía y los precios de potencia, para cada uno de los tres periodos, en una tabla de Excel desde la cual, la herramienta adquirirá los datos. La Tabla 2 muestra las potencias óptimas calculadas por la aplicación. Pp=Pll=Pv 68 kW Ppico 68 kW Pllano 70 kW Pvalle 48 kW Tabla 2 Potencias óptimas. Instituto molecular. Como se puede observar, la potencia contratada en los tres periodos es muy superior a la potencia óptima, lo que indica que la potencia está desajustada. La cuantía económica que se pagó en el año 2010 por el término de potencia en el punto de facturación Instituto Molecular, con una potencia contratada de 200 kW, fue de 7091,86 €, y la que se hubiera pagado en el caso de contratar la potencia óptima (68 kW) habría sido de 2650,11 €, por lo que, en el año 2010, el ahorro conseguido sería de 4441,75 €. A la hora de realizar un ajuste de potencia en cualquier punto de facturación utilizando esta herramienta, se debe tener en cuenta el aumento o disminución de la carga que se puede producir en los edificios conectados a ese punto, ya que la herramienta de optimización solamente tiene en cuenta los meses pasados y no los meses futuros. Para este propósito se puede utilizar una herramienta de supervisión tradicional, como la desarrollada en este trabajo (Figura 5), para visualizar y comparar la carga de varios días cercanos a la fecha en la que se realiza el ajuste. 6 Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE en cierta medida, el aumento o disminución de la carga en el punto de facturación analizado. Para este propósito se puede modificar la herramienta implantando una red de aprendizaje no supervisado como el SOM cuyo propósito sea aprender de los datos pasados. Referencias [1] Domínguez, M., Fuertes, J., Díaz, I., Cuadrado, A., Alonso, S. y Morán, A. (2011). “Analysis of electric power consumption using self organizing maps.” In 18th IFAC World Congress. Milan. Fig. 8 Herramienta de optimización de la potencia contratada. Instituto Molecular (P7). VI. CONCLUSIONES La implantación de tecnologías de control para la supervisión de energía eléctrica es un tópico que aun no está muy desarrollado en la sociedad actual. Debido a la actual crisis económica y a las nuevas políticas de eficiencia energética, poco a poco, las empresas e instituciones se están decantando por implantar estas tecnologías para racionalizar el consumo eléctrico. En este trabajo se ha propuesto una arquitectura de supervisión abierta basada en una estructura de triple capa que huye de arquitecturas propietarias cerradas. La capa servidor está formada por medidores eléctricos que se encuentran deslocalizados geográficamente e intercambian información utilizando el estándar Modbus. La capa intermedia de almacenamiento no sólo registra los valores medidos, sino que los explota extrayendo conocimiento sobre el sistema con el objetivo de mejorar la eficiencia energética. La capa cliente, en la que se localizan los equipos finales de supervisión, maneja las herramientas suministradas por la capa intermedia no sólo de forma local, sino a través de Internet. El sistema de supervisión propuesto se ha implantado en la Universidad de León. Mediante la utilización de las herramientas desarrolladas, la Universidad ha conseguido optimizar la potencia contratada de todos sus puntos de facturación obteniendo ahorros importantes en el término de potencia. También se ha conseguido trasladar carga a horarios en los que el precio de la energía es menor mediante la utilización de la herramienta de supervisión tradicional. [2] Domínguez, M., Reguera P., Fuertes, J.J., Díaz, I. y Cuadrado, A.A. (2007). “Internet-based remote supervisión of industrial processes using self organizing maps.” Engineering Applications of Artificial Intelligence, 20(6), pp. 757-765. [3] Eckerson, W.W. (1995). “Three tier client /server architectures: Achieving scalability, performance, and efficiency in client/server applications.” Open Information Systems, 3(20), pp. 4650. [4] European Parliament (2010). “Directive 2010/31/EU of the European Parliament and the Council of 19 may 2010 on the energy performance of buildings (recast).” Official Journal of the European Union, 53(L153) [5] Fuertes, J.J., Domínguez, M., Alonso, S., Prada, M.A., Morán, Antonio y Barrientos, P. (2011). “Sistema de supervisión de energía eléctrica en la Universidad de León”. [6] Gershenfeld, N., Samouhos, S. y Nordman, B. (2010). “Intelligent infrastructure for energy efficiency.” Science, 327(5969), pp. 1086-1088. [7] Kohonen, T. (2001). Self-Organizing Maps. Springer-Verlag New York, Inc., Secaucus, NJ, USA, 3rd ed. ISBN 3-5406-7921-9. [8] Mathworks (2007). Matlab User Manual. [9] Red Eléctrica de España (2011). http://www.ree.es/ [10] Schneider Electric (2011). http://www.schneider-electric.com Como líneas futuras a este trabajo se puede añadir inteligencia a la herramienta de optimización para que no solo tenga en cuenta los datos pasados, sino que aprenda de los mismos para que pueda predecir, 7 El sistema MQL, el mecanizado ecológico Octavio M. Pereira Neto Universidad de León Email: [email protected] Resumen—El objetivo de este artículo es exponer lo que se conoce como mecanizado con MQL (mínima cantidad de lubricación), las innovaciones más importantes que hay en la actualidad sobre esta técnica, además de las investigaciones más interesantes realizadas con dicho sistema sobre materiales de difícil maquinabilidad entre los que se encuentran materiales como las superaleaciones (titanio y níquel), aceros dúctiles de bajo carbono, aceros inoxidables, aceros templados y aleaciones de aluminio mecanizadas a alta velocidad. I. I NTRODUCCIÓN La creciente preocupación por el medioambiente a nivel mundial es una realidad. Por ello los gobiernos de los países desarrollados cada vez son más estrictos con la normativa medioambiental (en España RD 259/1998 del 29 de septiembre [1]) llevando al sector industrial a buscar técnicas de eficiencia energética, el uso sostenible de los recursos naturales y reducción de los desechos derivados de la fabricación de productos. Además, dada la alta competitividad existente es necesario, además de ser ecológico, ser económicamente viable. Por estas razones los últimos años en el mundo del mecanizado se intenta caminar hacia lo que se denomina como mecanizado ecológico. Estos pasos van en la dirección de disminuir el uso de aceites minerales y sus emulsiones como fluidos de corte en el mecanizado ya que el coste de dichos fluidos puede ser de hasta el 17 % del coste total de fabricación [2] y el uso de este tipo de aceites en los operarios puede causar problemas respiratorios como asma, neumonía hipersensible, pérdida de función pulmonar u otras enfermedades como la irritación, acné o cáncer de piel [3]. La cantidad consumida actualmente por la Unión Europea asciende a 320.000 Toneladas/año [4]. Además, el coste de tratamiento de estos residuos en la Unión Europea y Estados Unidos ronda entre 2 y 4 veces el precio de compra del aceite y en caso de no ser tratados apropiadamente contaminan agua, suelos, manantiales... y por lo tanto acaban llegando a la cadena alimenticia [5]. En los últimos años ha habido avances en técnicas como el mecanizado en seco y el mecanizado criogénico en las cuales se suprime cualquier uso de aceite o emulsión consiguiendo resultados aceptables en muchos de los ensayos realizados. La problemática al utilizar estas técnicas surge al intentar mecanizar materiales de difícil maquinabilidad a alta velocidad como pueden ser las superaleaciones las cuales a pesar de sus buenas propiedades mecánicas generalmente tienen una baja conductividad térmica, alta resistencia y una alta capacidad calorífica que se traducen en unas fuerzas de corte excesivas, altas temperaturas de corte, un desgaste excesivo de las herramientas e incluso una peor calidad superficial. Por ello, una técnica intermedia es lo que se conoce como MQL (mínima cantidad de lubricación) con la que se combinan algunos de los beneficios del mecanizado en seco junto con algunas de las ventajas del mecanizado con fluidos de corte, avanzando así hacia una fabricación sostenible. opn Mayo 15, 2012 II. E L MECANIZADO CON MQL El mecanizado con MQL, también conocido como “near dry machining”, es una técnica de refrigeración en la que se combina el poder refrigerante del aire con la acción lubricante del aceite [6]. Para ello se utiliza como fluido de corte una mezcla de aire comprimido con la cantidad estrictamente necesaria de aceite en forma de gotas produciendo un aerosol el cual es pulverizado sobre la zona de corte. El rango de aceite utilizado suele estar entre 10 y 100 ml/h, es decir, se utiliza hasta 4200 veces menos aceite que si se mecanizase con taladrina. En cuanto al aceite, las presiones utilizadas normalmente oscilan entre 0,4 y 0,8 MPa, aunque hay casos en los que se ha llegado a utilizar 10 MPa [7]. Las principales ventajas del MQL frente a otras técnicas de refrigeración son [8] [9] [10] [11] [12]: Drástica disminución del uso de fluidos de corte. Reducción de costes en comparación al uso de taladrina. Aumento de la higiene industrial. Oportunidad de utilizar fluidos biodegradables como pueden ser los aceites vegetales. Mejora del proceso de fabricación en comparación con el mecanizado en seco. Una estabilidad térmica avanzada. Mejor lubricación que con la taladrina. Las virutas salen completamente limpias pudiendo ser recicladas directamente. El ajuste de la mezcla aire/aceite es fácil de controlar. Los principales componentes para montar un sistema MQL son un compresor de aire, un depósito para el aceite, un sistema de control de caudal, tubos y las boquillas para pulverizar la mezcla [13]. Este sistema puede ser utilizado de forma externa, del mismo modo que se aplica la taladrina, o utilizarlo de forma interna donde el aerosol entra por dentro de la herramienta (Fig.1). La elección de un sistema u otro dependen principalmente de la operación a realizar aunque hay otros factores a tener en cuenta como el mantenimiento, el tipo de herramientas de las que se dispone o la facilidad de control del caudal [14]. importante a tener en cuenta es la dirección del aerosol. Al utilizar MQL externo, en torneado las posibilidades de colocación de la boquilla son dos, dirigiendo el aerosol hacia la cara de desprendimiento o hacia la cara de incidencia de la herramienta (Fig. 3). Los estudios realizados en este sentido mostraron que para que el aerosol penetre de forma eficiente en la zona de interacción entre la pieza y la herramienta, la boquilla ha de ser dirigida hacia la superficie de incidencia. En cambio, si ésta es dirigida hacia la cara de desprendimiento los resultados obtenidos son muy similares a los que se obtienen con el mecanizado en seco, lo que indica que el aerosol no llega a alcanzar la zona de interacción [6]. En el caso del fresado, también las posibilidades son dos, colocarla a 45o ó 135o respecto a la dirección de avance (Fig. 4). Los ensayos realizados demostraron que a 45o la vida de la herramienta se ve disminuida frente a los 135o debido a que las turbulencias originadas en la proximidad de la herramienta envían el aceite fuera de la zona de corte no consiguiendo la acción simultánea de la lubricación y refrigeración y además la viruta eliminada interfiere entre el aerosol y la herramienta [1]. Figura 1. Sistemas MQL. (a) Interno [15], (b) Externo [16]. Los métodos de mezclado del aire y el aceite se pueden realizar de dos formas. La primera, conocida como MQL de un canal, el aerosol es formado en una cámara de mezclado fuera de la boquilla y posteriormente transportado a la zona de corte por una sola vía (Fig. 2b). En cambio, lo que se conoce como MQL de dos canales, el aceite y el aire van por dos tubos separados y se mezclan formando el aerosol dentro de la boquilla (Fig. 2a). La ventaja de usar el MQL de dos canales frente al de uno es la reducción de la neblina creada en la zona de corte al dirigir el aerosol hacia ella [6]. La efectividad del MQL principalmente depende de la capacidad que tiene el aerosol para llegar a la zona de interacción entre la pieza y la herramienta, con lo que un parámetro Figura 3. Posiciones de la boquilla en el torno [6]. (a) Superficie de Desprendimiento, (b) Superficie de Incidencia. Figura 2. Métodos de mezclado [6]. (a) 2-canales, (b) 1- canal. [16]. Figura 4. Posiciones de boquilla en la fresadora [1]. En cambio, si se utiliza MQL interno, al tornear hay ensayos realizados en los que se demuestra que colocando un adaptador a la salida comercial del portaherramientas para que el aerosol salga de forma oblicua el uso de aceite puede disminuir hasta 0,5 ml/h con la misma efectividad que si utilizasen 15 ml/h con la salida comercial (Fig. 5) [7]. En la fresadora, el aerosol viaja por dentro del husillo hasta que sale por el centro de la fresa hacia la zona de corte; concretamente en el fresado de alta velocidad dadas las velocidades angulares que se manejan, las gotas de aceite del aerosol corren el riesgo de ser separadas de la mezcla debido a las fuerzas centrífugas generadas en su interior quedando adheridas en las paredes del tubo, lo que implica que el volumen de aceite enviado hacia la zona de corte disminuye, reduciéndose así la vida de herramienta también. Para ello lo recomendable es colocar rodamientos entre el tubo interior por el que viaja el aerosol y el husillo, de esta manera el tubo permanecerá inmóvil y el aerosol no correrá ningún peligro de sufrir un centrifugado antes de salir por la fresa (Fig. 6) [17]. III. I NNOVACIONES EN LOS SISTEMAS MQL Generalmente las líneas de investigación en cuanto a innovaciones en el propio sistema MQL siguen principalmente tres líneas: Variación de la temperatura del aerosol. Modificación del aire como gas portador. Modificación del tipo de fluido de corte utilizado. III-A. Variación de la temperatura del aerosol Para variar la temperatura del aerosol lo que se hace normalmente es disminuir la temperatura del aire. Las formas de conseguirlo son varias, entre las que caben destacar dos. Figura 6. Esquema de salida aerosol en fresadora con MQL interno. [17]. La primera es el método “COD” con el cual gracias a una modificación hecha en el portaherramientas se consigue una expansión adiabática en la salida de la boquilla consiguiendo temperaturas de 0o C (Fig. 7) [18]. La otra forma de conseguir enfriar el aire utilizado en el MQL es con el “CAMQL” en el cual se instala en el sistema convencional una máquina frigorífica compuesta por un sistema refrigerador de vapor-compresión y un sistema de refrigeración semiconductor. El primer sistema se diseña con el fin de reducir la temperatura del agua que será utilizada posteriormente para absorber el calor de las termopilas del sistema semiconductor. Este último está compuesto por dichas termopilas a las cuales se las suministra corriente continua consiguiendo que su energía calorífica sea transferida de un lado a otro debido al efecto Peltier. El agua enfriada circula por la parte superior e inferior de los absorbedores de calor llevándose el calor del lado caliente de la termopila. La pared del enfriador al estar en contacto con la parte fría de la termopila se mantiene a una temperatura extremadamente baja. El aire comprimido, después de pasar a través del intercambiador de calor entra en el enfriador donde se enfría intercambiando el calor con la paredes del enfriador. Finalmente, el aire ya enfriado sale hacia la boquilla donde será mezclado con el aceite para formar el aerosol. La temperatura del aire se puede controlar variando la corriente que pasa por las termopilas y/o modificando la presión del aire (Fig. 8) [19]. III-B. Modificación del aire como gas portador Como sustitutos del aire en los sistemas MQL habitualmente se utiliza nitrógeno o agua. Con los demás gases, a la hora Figura 5. Salidas del MQL interno en torno. (a) Salida comercial, (b) Salida oblicua [7]. Figura 7. Modificación de portaherramientas para sistema “COD” [18]. Figura 8. Esquema de máquina frigorífica para “CAMQL” (1) Depósito de agua. (2) Sistema refrigerador vapor- compresión. (3) Bomba de agua. (4) Compresor. (5) Filtro. (6) secador. (7) intercambiador de calor. (8) Caja de control. (9) Sistema refrigerador semiconductor. (10) termopila. (11) absorbedor de calor. (12) Enfriador. (13) caudalímetro. (14) manómetro. (15) boquilla. [19] Figura 10. Sistema “MWD” [21]. III-C. de sustituirlos por el aire hay que tener muy en cuenta el material a mecanizar debido a que un gas puede ser beneficioso para el mecanizado de un material pero contraproducente para otro, bien por su conductividad térmica o por su “capacidad lubricante”. El ejemplo más claro ocurre con el oxígeno en el cual en ensayos con aceros S45 reduce las fuerzas de corte además de lograr un buen acabado superficial [20] pero en cambio al utilizarlo en el mecanizado de aluminio hace que haya unas fuerzas mayores [21]. Cuando el aire es sustituido por nitrógeno, los mejores resultados se obtienen enfriándolo a -10o C llegando, en el caso del titanio, a aumentar la vida de herramienta 1,93 veces frente al MQL con nitrógeno sin enfriar [22]. La utilización del agua como portador del aceite se basa principalmente en la diferencia de densidades que existe entre el aceite y el agua, ya que se forman gotas de agua recubiertas externamente con una capa de aceite. La forma de obtener este tipo de gotas se logra mediante dos métodos. El primero es conocido como método “OoW” y las gotas se forman gracias a una boquilla especial en la cual se realiza la mezcla por efecto Venturi (Fig. 9) [23]. El segundo método, conocido como “MWD” se diferencia del anterior en que el aerosol en vez de formarse en la boquilla primero se forman las gotas de agua con aceite en un depósito y posteriormente son conducidas a la zona de corte por el método de MQL de un canal. La forma en que estas gotas se forman es por condensación y para ello primero se vaporiza el agua en un contenedor a 243 KPa. Seguidamente, este vapor presurizado es inyectado dentro de otro depósito a presión atmosférica lleno de aceite y debido al cambio de presión, el vapor saturado a medida que se va dispersando por el aceite se va condensando formando pequeñas gotas de aceite (Fig. 10) [21]. Figura 9. Boquilla del sistema “Oow” [23]. Modificación del fluido de corte Los estudios realizados en cuanto a la modificación del fluido de corte en los sistemas MQL a día de hoy son escasos pero de muy diversa índole. Por un lado están aquellos en los que se sigue trabajando con aceites minerales y sintéticos, que en un tiempo no muy lejano quedarán obsoletos debido principalmente al impacto ambiental que producen dichos aceites. Y por otro lado está la tendencia actual por la que se debe seguir investigando, que son aquellos ensayos en los que se estudia la viabilidad de la utilización de aceites biodegradables. Del primer caso cabe destacar, desde el punto de vista de intentar reproducir lo mismo con aceites biodegradables, un estudio en el que se logra un “aceite multifunción” con el que se logra además de mecanizar con el sistema MQL lubricar los rodamientos del husillo, las guías de deslizamiento de la mesa y el sistema hidráulico [24]. En relación al uso de aceites biodegradables, generalmente en los sistemas MQL se suelen utilizar aceite de colza o canola [4] [23] [25]. Un estudio a destacar en el uso de otros aceites vegetales es el realizado con aceite de palma en el que se obtienen menores pares de fuerza en la herramienta e incluso un ligero desgaste menor del flanco de ésta que si se utilizase el MQL con aceite sintético [26]. IV. E L MECANIZADO DE MATERIALES DE DIFÍCIL MAQUINABILIDAD CON MQL Los materiales que comúnmente se conocen como de difícil maquinabilidad son aquellos que durante su mecanizado generan un desgaste excesivo de la herramienta, altas temperaturas de corte, presentan dificultad en la formación de la viruta, excesivas fuerzas de corte y/o una pobre calidad superficial [13]. Principalmente pertenecen a este grupo las aleaciones de titanio, níquel y algunas aleaciones ferrosas, cuyo consumo cada vez es mayor en sectores como el aeroespacial, sanitario, químico o de la construcción (Fig. 11) [27]. El aluminio aunque generalmente no se considera de difícil maquinabilidad, esto cambia totalmente cuando se trata de mecanizarlo a alta velocidad ya que al tener una buena plasticidad tienen tendencia a la formación de filo recrecido (BUE) que a su vez disminuye la vida de herramienta provocando una baja calidad superficial y el consecuente aumento de fuerzas de corte [28]. Este material se utiliza principalmente en el sector IV-C. Figura 11. Consumo de superaleaciones por sectores [27]. aeronáutico debido a su gran ligereza, su resistencia mecánica y su resistencia a la corrosión. IV-A. Aleaciones de titanio Los diversos ensayos realizados con MQL sobre titanio arrojan resultados bastante satisfactorios. Por ejemplo, en cuanto al taladrado convencional las temperaturas alcanzadas son de 600o C que están dentro del rango en el que el titanio no pierde sus propiedades mecánicas para su posterior utilización [29] [30]. En taladrados a alta velocidad también se tiene demostrado que las fuerzas y temperaturas eran muy parecidas al uso de taladrina, pero con el consiguiente ahorro de lubricante [26]. En lo referente a fresados cabe destacar que si se aplica el sistema MQL con otro sistema paralelo de aire enfriado a -15o C la mejoría en cuanto a calidad superficial y desgaste son importantes [31], pero fresar a alta velocidad la temperatura tiene que ser controlada de forma más drástica. Por ello es necesario utilizar MQL con el gas portador enfriado en vez de un sistema de MQL con aire enfriado en paralelo. El estudio de MQL con nitrógeno a -10o C demostraba que la vida de herramienta frente a otros sistemas era superior[22]. IV-B. Aleaciones de níquel Las aleaciones que habitualmente se ensayan para comprobar la viabilidad del MQL sobre este material es la aleación R Al utilizar el sistema MQL conocida como Inconel 718. con este material hay que tener en cuenta el caudal de aceite utilizado. La cantidad óptima es 50 ml/h porque aunque con el uso de otros caudales la diferencia en cuanto a rugosidad superficial es pequeña a la larga acaba produciendo una mayor deformación del flanco de la herramienta y la formación del filo recrecido (BUE) [32]. En cuanto al cambio de gas portador este es uno de los casos en los que se debe tener en cuenta la conductividad térmica del gas ya que si es menor que la del aire, se obtendrán peores resultados debido al aumento de temperaturas que se pueden producir en la zona de corte [33]. Aleaciones ferrosas de difícil maquinabilidad Bajo esta denominación están agrupados los aceros dúctiles de bajo contenido en carbono (0,02 %<C<0,3 %), aceros inoxidables y aceros templados. Al aplicar el sistema MQL al mecanizado de aceros dúctiles de bajo contenido en carbono se consigue una reducción del 10 % respecto al uso de taladrina y consecuentemente también se consigue una reducción del desgaste del flanco debido a que hay una menor tendencia a las adhesiones y al filo recrecido (BUE) [8]. En cuanto la mecanizado con MQL de aceros inoxidables cabe destacar el estudio realizado sobre AISI-304 (acero inoxidable austenítico) en el cual se comprueba que en el torneado con herramienta motorizada hay una velocidad de corte óptima (250 m/min) en la cual hay un equilibrio entre la capacidad de enfriamiento por el corte en vacío y la capacidad calorífica del rozamiento al mecanizar. La diferencia entre el mecanizado con MQL y el mecanizado en seco en estas condiciones puede llegar a ser de 45o C [34]. Del mecanizado de aceros templados con el sistema MQL el estudio más relevante es en el fresado a alta velocidad de AISI-D2 en el cual se obtuvieron mejores resultados frente al uso de taladrina debido a la fatiga térmica a la que era sometida la herramienta con ésta [35]. IV-D. Aleaciones de aluminio Con el mecanizado de aleaciones de aluminio con MQL se obtienen resultados muy similares al uso de taladrina en cuanto a la vida de herramienta, fuerzas de corte y calidad superficial [36] [37] [38]. Respecto a la calidad superficial hay que tener especial cuidado con la adhesión de aluminio en la herramienta ya que juega un papel importante debido a que según avanza la herramienta marca la superficie mecanizada y en alta velocidad incluso el material adherido llega a desprenderse de la herramienta quedando pegado a la pieza [38]. V. C ONCLUSIÓN En este artículo se ha hecho un breve repaso sobre el sistema MQL, sus innovaciones y su viabilidad en el mecanizado de materiales de difícil maquinabilidad. El sistema de refrigeración MQL como alternativa al mecanizado con taladrina es la línea más factible de seguir para la erradicación del uso de aceites derivados del petróleo y conseguir prácticamente un mecanizado con nulo impacto ambiental. También hay que resaltar la importancia de la utilización de este sistema en cuanto a reducción de costes de fabricación ya que en muchos de los casos no sólo se gana en ahorro de lubricante, tratamientos de residuos, limpieza de viruta para su reciclado y ahorro energético sino también en el desgaste de herramientas que representan entre un 2 % y 4 % del coste total de la pieza y hay casos en los que se llega a duplicar su vida útil. Por lo que sólo contando con el ahorro del lubricante y en herramientas, se está hablando de una reducción del coste de fabricación de hasta un 21 %. R EFERENCIAS [1] L.N. López de Lacalle, C. Angulo, A. Lamikiz, and J.A. Sánchez. Experimental and numerical investigation of the effect of spray cutting fluids in high speed milling. Journal of Materials Processing Technology, 172(1):11 – 15, 2006. [2] F. Klocke and G. Eisenblätter. Dry cutting. CIRP Annals - Manufacturing Technology, 46(2):519 – 526, 1997. [3] Kyung-Hee Park, Jorge Olortegui-Yume, Moon-Chul Yoon, and Patrick Kwon. A study on droplets and their distribution for minimum quantity lubrication (mql). International Journal of Machine Tools and Manufacture, 50(9):824 – 833, 2010. [4] S.A. Lawal, I.A. Choudhury, and Y. Nukman. Application of vegetable oil-based metalworking fluids in machining ferrous metals—a review. International Journal of Machine Tools and Manufacture, 52(1):1 – 12, 2012. [5] Y.M. Shashidhara and S.R. Jayaram. Vegetable oils as a potential cutting fluid—an evolution. Tribology International, 43(5–6):1073 – 1081, 2010. [6] A. Attanasio, M. Gelfi, C. Giardini, and C. Remino. Minimal quantity lubrication in turning: Effect on tool wear. Wear, 260(3):333 – 338, 2006. [7] Toshiyuki Obikawa, Yasuhiro Kamata, Yuki Asano, Kousuke Nakayama, and Andrew W. Otieno. Micro-liter lubrication machining of inconel 718. International Journal of Machine Tools and Manufacture, 48(15):1605 – 1612, 2008. [8] M.M.A. Khan, M.A.H. Mithu, and N.R. Dhar. Effects of minimum quantity lubrication on turning aisi 9310 alloy steel using vegetable oil-based cutting fluid. Journal of Materials Processing Technology, 209(15–16):5573 – 5583, 2009. [9] Vishal S. Sharma, Manu Dogra, and N.M. Suri. Cooling techniques for improved productivity in turning. International Journal of Machine Tools and Manufacture, 49(6):435 – 453, 2009. [10] T. Aoyama, Y. Kakinuma, M. Yamashita, and M. Aoki. Development of a new lean lubrication system for near dry machining process. CIRP Annals - Manufacturing Technology, 57(1):125 – 128, 2008. [11] V.N. Gaitonde, S.R. Karnik, and J. Paulo Davim. Selection of optimal mql and cutting conditions for enhancing machinability in turning of brass. Journal of Materials Processing Technology, 204(1–3):459 – 464, 2008. [12] G. Byrne, D. Dornfeld, and B. Denkena. Advancing cutting technology. CIRP Annals - Manufacturing Technology, 52(2):483 – 507, 2003. [13] A. Shokrani, V. Dhokia, and S.T. Newman. Environmentally conscious machining of difficult-to-machine materials with regard to cutting fluids. International Journal of Machine Tools and Manufacture, (0):–, 2012. [14] V. P. Astakhov. Ecological machining: near dry machining. Mechanics of machining: FEM simulation machining, pages 195–223, 2009. [15] Toshiyuki Obikawa, Yuki Asano, and Yasuhiro Kamata. Computer fluid dynamics analysis for efficient spraying of oil mist in finish-turning of inconel 718. International Journal of Machine Tools and Manufacture, 49(12–13):971 – 978, 2009. [16] N.R. Dhar, M. Kamruzzaman, and Mahiuddin Ahmed. Effect of minimum quantity lubrication (mql) on tool wear and surface roughness in turning aisi-4340 steel. Journal of Materials Processing Technology, 172(2):299 – 304, 2006. [17] T. and Aoyama. Development of a mixture supply system for machining with minimal quantity lubrication. CIRP Annals - Manufacturing Technology, 51(1):289 – 292, 2002. [18] Toshiyuki Obikawa, Yasuhiro Kamata, and Jun Shinozuka. High-speed grooving with applying mql. International Journal of Machine Tools and Manufacture, 46(14):1854 – 1861, 2006. [19] Y. Su, N. He, L. Li, A. Iqbal, M.H. Xiao, S. Xu, and B.G. Qiu. Refrigerated cooling air cutting of difficult-to-cut materials. International Journal of Machine Tools and Manufacture, 47(6):927 – 933, 2007. [20] S. Min, I. Inasaki, S. Fujimura, T. Wada, S. Suda, and T. Wakabayashi. A study on tribology in minimal quantity lubrication cutting. CIRP Annals - Manufacturing Technology, 54(1):105 – 108, 2005. [21] T. Wakabayashi, S. Suda, I. Inasaki, K. Terasaka, Y. Musha, and Y. Toda. Tribological action and cutting performance of mql media in machining of aluminum. CIRP Annals - Manufacturing Technology, 56(1):97 – 100, 2007. [22] Y. Su, N. He, L. Li, and X.L. Li. An experimental investigation of effects of cooling/lubrication conditions on tool wear in high-speed end milling of ti-6al-4v. Wear, 261(7–8):760 – 766, 2006. [23] F. Itoigawa, T.H.C. Childs, T. Nakamura, and W. Belluco. Effects and mechanisms in minimal quantity lubrication machining of an aluminum alloy. Wear, 260(3):339 – 344, 2006. [24] S. Suda, T. Wakabayashi, I. Inasaki, and H. Yokota. Multifunctional application of a synthetic ester to machine tool lubrication based on mql machining lubricants. CIRP Annals - Manufacturing Technology, 53(1):61 – 64, 2004. [25] P.S Sreejith and B.K.A Ngoi. Dry machining: Machining of the future. Journal of Materials Processing Technology, 101(1–3):287 – 291, 2000. [26] E.A. Rahim and H. Sasahara. A study of the effect of palm oil as mql lubricant on high speed drilling of titanium alloys. Tribology International, 44(3):309 – 317, 2011. [27] E.O. and Ezugwu. Key improvements in the machining of difficult-tocut aerospace superalloys. International Journal of Machine Tools and Manufacture, 45(12–13):1353 – 1367, 2005. [28] Q. Luo, G. Robinson, M. Pittman, M. Howarth, W.-M. Sim, M.R. Stalley, H. Leitner, R. Ebner, D. Caliskanoglu, and P.Eh. Hovsepian. Performance of nano-structured multilayer pvd coating tialn/vn in dry high speed milling of aerospace aluminium 7010-t7651. Surface and Coatings Technology, 200(1–4):123 – 127, 2005. [29] G. Le Coz, M. Marinescu, A. Devillez, D. Dudzinski, and L. Velnom. Measuring temperature of rotating cutting tools: Application to mql drilling and dry milling of aerospace alloys. Applied Thermal Engineering, 36(0):434 – 441, 2012. [30] N. Corduan, T. Himbart, G. Poulachon, M. Dessoly, M. Lambertin, J. Vigneau, and B. Payoux. Wear mechanisms of new tool materials for ti-6ai-4v high performance machining. CIRP Annals - Manufacturing Technology, 52(1):73 – 76, 2003. [31] S.M. Yuan, L.T. Yan, W.D. Liu, and Q. Liu. Effects of cooling air temperature on cryogenic machining of ti–6al–4v alloy. Journal of Materials Processing Technology, 211(3):356 – 362, 2011. [32] M.Z.A. Yazid, C.H. CheHaron, J.A. Ghani, G.A. Ibrahim, and A.Y.M. Said. Surface integrity of inconel 718 when finish turning with pvd coated carbide tool under mql. Procedia Engineering, 19(0):396 – 401, 2011. [33] Y. Kamata and T. Obikawa. High speed mql finish-turning of inconel 718 with different coated tools. Journal of Materials Processing Technology, 192–193(0):281 – 286, 2007. [34] A. Hosokawa, T. Ueda, R. Onishi, R. Tanaka, and T. Furumoto. Turning of difficult-to-machine materials with actively driven rotary tool. CIRP Annals - Manufacturing Technology, 59(1):89 – 92, 2010. [35] M.C. Kang, K.H. Kim, S.H. Shin, S.H. Jang, J.H. Park, and C. Kim. Effect of the minimum quantity lubrication in high-speed end-milling of aisi d2 cold-worked die steel (62 hrc) by coated carbide tools. Surface and Coatings Technology, 202(22–23):5621 – 5624, 2008. [36] Durval U Braga, Anselmo E Diniz, Gilberto W.A Miranda, and Nivaldo L Coppini. Using a minimum quantity of lubricant (mql) and a diamond coated tool in the drilling of aluminum–silicon alloys. Journal of Materials Processing Technology, 122(1):127 – 138, 2002. [37] H.A. Kishawy, M. Dumitrescu, E.-G. Ng, and M.A. Elbestawi. Effect of coolant strategy on tool performance, chip morphology and surface quality during high-speed machining of a356 aluminum alloy. International Journal of Machine Tools and Manufacture, 45(2):219 – 227, 2005. [38] P.S. and Sreejith. Machining of 6061 aluminium alloy with mql, dry and flooded lubricant conditions. Materials Letters, 62(2):276 – 278, 2008. Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. 1 Sistema de control Fuzzy y simulación de un electrofiltro Paredes Menéndez, Jairo [email protected] Universidad de León, Escuela de Ingenierías Industrial, Informática y Aeronáutica Resumen—Este artículo quiere ser una contribución al problema de mejorar la producción de energía eléctrica a través de conseguir una mayor eficiencia en uno de los elementos básicos de cada estación de energía de combustión. Un sistema de electrofiltro es el principal método de separación de las cenizas utilizadas en este tipo de central eléctrica. Un mejor control de este sistema debe permitir una reducción de costes y una extensión de su esperanza de vida. Con el fin de alcanzar este objetivo, se construye un modelo de simulación para un sistema de electrofiltro con un controlador de retroalimentación difusa. El rendimiento del sistema se estudia y se compara con un controlador PID tradicional para ver los resultados. Índice de Términos—Electrofiltro, fuzzy, lógica borrosa, modelado, Simulink. I. INTRODUCCIÓN En la industria se emplean numerosos sistemas de limpieza de partículas en los gases emitidos [7]. En este artículo nos centraremos en el sistema de limpieza de partículas sólidas por electrofiltración. Estos sistemas poseen un alto consumo dentro de la instalación donde se utilizan ya que deben aplicar altos voltajes para su correcto funcionamiento que pueden llegar hasta los 55 kV o mayores dependiendo de la potencia instalada. Asimismo representan un consumo de potencia en la instalación que ronda el 1 ‰ y que depende de la potencia total instalada tanto en la central termoeléctrica donde estén instalados como de la potencia total instalada en los electrofiltros [6][8]. Para disminuir en la medida de lo posible el consumo del sistema de limpieza de partículas sólidas se propone un control mediante lógica borrosa debido a que el correcto funcionamiento del mismo depende de diversas variables que se caracterizan por un comportamiento conjunto no lineal que puede ser capturado mejor por este tipo de sistemas. III Congreso de Cibernética II. FUNCIONAMIENTO A. Fenómeno de la electrofiltración Teniendo un electrodo emisor en el punto intermedio de dos placas paralelas conectadas a tierra y al que se le aplica un alto voltaje en tensión continua se produce un campo eléctrico que va desde la superficie del electrodo emisor, normalmente un alambre, hacia la superficie de las placas colectoras, que poseen un gran tamaño. La intensidad del campo eléctrico creado es mayor cuanto más cerca estemos del electrodo de descarga donde se produce el efecto corona por el cual el gas se ioniza generando iones positivos y negativos. Los primeros los atrapa el electrodo de descarga y los de signo negativo cruzan el espacio existente hasta llegar a los colectores [1]. Durante esta transición chocan contra las partículas sólidas de los humos que poseían una dirección perpendicular al campo eléctrico. Estas partículas se quedan cargadas negativamente y cambian la dirección viéndose atraídas por la superficie colectora, esta velocidad se conoce como velocidad de migración la cual es mayor que la velocidad que poseía la partícula y por eso consigue cambiar su dirección [2]-[5]. Las partículas llegan entonces a la superficie colectora donde entran en contacto con ella adhiriéndose y transfiriéndole su carga. B. Precipitador electrostático El precipitador electrostático o electrofiltro se compone de dos placas metálicas situadas de forma paralela para producir una calle por la que circule el flujo de los humos a tratar. Estas placas pueden tener dimensiones que alcancen los 15 metros de alto por 5 de ancho. En el centro de esta calle se encuentra suspendido un electrodo de alambre que emite cargas eléctricas hacia las placas metálicas anteriormente citadas, también conocidas como colectores [9]-[11]. Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. 2 Para mejorar el rendimiento se construye un campo o grupo de electrofiltros en serie los cuales se introducen en una carcasa. Cada etapa tiene una capacidad de recolección de partículas (dependiendo de la superficie y la tensión) del 80%. Por ello un precipitador de 3 etapas en el que en cada etapa se escapa el 20% de partículas el rendimiento conjunto es de 99,2%. Quiere decir que las partículas no recolectadas no alcanzan el 1%. eléctrica de signo negativo. Al tener las placas (conectadas a tierra y aisladas del resto del circuito) una carga positiva atraen a las partículas anteriormente citadas y produce la acumulación de las mismas en la superficie de la placa colectora. Para desprender al colector de las partículas adheridas se realiza un golpeo cíclico que provoca la caída del material a una tolva inferior. Fig. 1: EFECTIVIDAD DE CADA ETAPA EN LA ELECTROFILTRACIÓN Fig. 3: PROCESO DE CARGA-RECOLECCIÓN-DESCARGA DE LAS PARTÍCULAS La alta tensión que se le aplica a las placas viene dada por un transformador elevador de tensión y un circuito de control que regula de manera automática y total el funcionamiento del sistema dependiendo de las necesidades de limpieza que este requiera. La tensión de alimentación de las placas es continua utilizando un puente rectificador de diodos para transformar la corriente alterna del circuito de control en corriente continua y de valor elevado. El ciclo de limpieza no es lineal debido a que presenta discontinuidades, que recaen y/o dependen sobretodo de la carga de combustible que tengamos en la caldera (que dará un volumen o caudal proporcional de humos a tratar) y del nivel de opacidad deseada (Nfinal), el cual es fijado por las políticas medioambientales y que depende de la tensión aplicada (V), de la opacidad inicial (Ninicial), de la distancia entre el electrodo y las placas (d), del tiempo de permanencia de los humos dentro del campo eléctrico (t) o su velocidad y del radio de la partícula (R) como se muestra a continuación [14]. Es importante establecer la tensión correcta aplicada para alcanzar el punto crítico de tensión, en el cual, se produce la máxima descarga eléctrica sin que se produzca la ionización completa del aire, que provocaría la ruptura del dieléctrico y por lo tanto un cortocircuito eléctrico que perjudica la limpieza de los humos. = (1) C. Lógica Fuzzy Fig. 2: ESQUEMA ELÉCTRICO DE UN PRECIPITADOR Esta tensión aplicada a los electrodos ioniza las partículas sólidas en las que genera una carga III Congreso de Cibernética El control PID es una aproximación a una función de control (desconocida) mediante la minimización de un error a través de tres parámetros básicos de la señal: P (proporcional); el error actual, I (integral); los errores acumulados y D (derivativa); la predicción de los errores futuros o de cambio. A falta de conocimiento sobre la función de control, esa es la aproximación generalista propuesta. Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. Los sistemas de control borroso se basan en el conocimiento del experto sobre el proceso. A falta de conocimiento sobre la función de control, intentan simular el conjunto de reglas que un experto humano utiliza para mantener el proceso bajo control. Para simular ese conjunto de reglas utilizan términos lingüísticos graduados del lenguaje natural modelizados mediante conjuntos borrosos o fuzzy, que se caracterizan por un grado de pertenencia de los elementos a un conjunto que varía de forma continua de 0 a 1, y no tomando únicamente valores discretos 0 y 1 que es la característica básica de los conjuntos clásicos o crisp. Las reglas por las que se rigen estos sistemas son del tipo “Si P es pequeño entonces Q es grande”. Con esto se consigue que las respuestas sean más suaves al no tener que discriminar entre un estado u otro, ya que cuando nos encontramos en valores de entrada que están en la frontera entre un nivel de salida u otro, puede hacer variar al circuito de forma drástica, lo que puede generar que, aún alcanzando el equilibrio buscado, esté generando un sobre consumo al estar “saltando” de un valor de salida a otro [21]. Con la lógica borrosa conseguimos suavizar esos cambios en la variable de salida con lo que conseguimos un mejor control además de ofrecer una salida de forma más veloz y precisa. Representa conceptos borrosos de las variables pero que transmiten una información, aunque imprecisa, con gran capacidad de resumir información. El sistema de lógica borrosa se compone generalmente de tres partes internas. Una de ellas es el fuzzyficador, que transforma las variables físicas del circuito a un valor lingüístico entendible por el conjunto borroso y asignándole un grado de pertenencia. Otra parte la componen las reglas que delimitan los valores de las variables de entrada y salida y la relación entre ambas. Por último nos encontramos el defuzzyficador, cuya función es traducir las órdenes de los elementos anteriores dadas en valor lingüístico a un valor físico para que sean entendibles por el resto del circuito, en nuestro caso el electrofiltro [20]. III Congreso de Cibernética 3 Fig. 4: PARTES DE UN SISTEMA FUZZY III. JUSTIFICACIÓN DE LA SOLUCIÓN ADOPTADA Se propone el uso de un sistema basado en lógica borrosa ya que los electrofiltros, muy comúnmente utilizados en centrales termoeléctricas y en cualquier proceso de combustión que requiera limpieza de humos emitidos, tienen un elevado consumo que puede alcanzar los 35-55 kV dependiendo de las dimensiones del volumen o caudal de gases a limpiar a plena carga (o de la potencia de la central termoeléctrica) y del número de placas y la superficie colectora que posean. El sistema actual de control se basa en generación de impulsos que controlan el disparo de los tiristores en el lado de baja tensión del transformador, donde la corriente a tratar es alterna y de bajo valor, permitiendo así que los componentes de control no tengan que trabajar a elevadas tensiones. Durante el periodo en el que se alcanza el régimen permanente de trabajo, que en una central de combustión puede tratarse de varias horas, el sistema es muy dinámico, produciendo altas variaciones que serán mejor controladas por un sistema basado en lógica borrosa que disminuirá los saltos producidos en la variable de salida provocando notables mejoras en la velocidad de respuesta del sistema y disminuyendo de esta manera notablemente la potencia consumida por el sistema de electrofiltración de ceniza. IV. DESCRIPCIÓN DEL SISTEMA A. Variables de control Como variables más importantes en este proceso nos encontramos con: El volumen de gases que pasarán por el campo de electrofiltros, la opacidad obtenida de los humos a la salida de la chimenea y la velocidad de disparo de los tiristores. El volumen de gases será proporcional a la carga de combustible que posea la caldera, por ello utilizaremos esta segunda variable. Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. Nos encontramos con la variable de salida del circuito que es el nivel de voltaje a aplicar en cada momento y el cual controlaremos por la velocidad de disparo de los tiristores. Esta salida dependerá del nivel de carga en la caldera y de la opacidad instantánea. Se le dará mayor peso en la creación de las reglas para el funcionamiento del sistema a la variable de opacidad instantánea ya que el nivel de carga en caldera puede ser muy elevado pudiendo tener un error mínimo entre el set point u opacidad deseada y la opacidad real medida en la salida de la chimenea. Además el sistema debe responder rápidamente a los errores de opacidad ya que esta define en mayor medida el nivel de tensión a aplicar en cada instante. A continuación vemos una tabla de doble entrada en la que tenemos las dos variables citadas anteriormente y como variable de salida la velocidad de disparo de los tiristores [15]-[19]. 4 El resultado de las reglas que unen las anteriores variables y describen el comportamiento del sistema es el mostrado a continuación donde puede verse cómo varía la salida, representada por una superficie, en función de las dos variables de entrada: Fig. 8: SUPERFICIE QUE RELACIONA LAS VARIABLES Vemos cómo posee mayor pendiente la variable opacidad, como se ha explicado anteriormente tiene mayor impacto sobre la velocidad de disparo que la carga en caldera debido a que el combustible introducido en la caldera tardará un tiempo en quemarse y por ello el caudal de humos a limpiar no aumentará de forma instantánea mientras que la opacidad medida es el valor instantáneo dado en la salida de la chimenea [13]. Figura 5: TABLA DE RELACIÓN ENTRE VARIABLES A continuación vemos la función de pertenencia de las tres variables: B. Cálculo de la función de transferencia del electrofiltro Para realizar la simulación de un electrofiltro en Simulink es necesario realizar el cálculo de la función de transferencia del electrofiltro. Dado el circuito de la figura 2 se extraen las siguientes ecuaciones: Ecuación del lado de baja tensión y alta tensión: = Ó ! = ! (2) + + ! " (3) " Ecuación de la relación de transformación: # Figs. 6: FUNCIONES DE PERTENENCIA DE LAS DOS VARIABLES DE ENTRADA III Congreso de Cibernética (4) " De unir las ecuaciones (1) (2) y (3) resulta: Fig. 7: FUNCIONES DE PERTENENCIA DE LA VARIABLE DE SALIDA = Ó Ó = = (5) + + $%&'()& )(*)*% + ! (6) Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. $%&'()& $&'(,-./&0(Ó. = )(*)*% + ! /( (%/* + 1 ! (7) Siendo VALIMENTACIÓN=U sin (ωt) resulta la ecuación: $%&'()& 456 7 = )(*)*% + /( (%/* ! $ + 1! (8) 7 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% % VELOCIDAD DE DISPARO % CARGA CALDERA ERROR DE OPACIDAD Fig. 11: SEÑAL DEL CONTROLADOR BORROSO C. Circuito simulado con Simulink El circuito que controlará el sistema se implementa con Simulink. Como set point del sistema ponemos un 20% de opacidad deseada, esta señal llega a un comparador que resta a este valor el de opacidad que da el sensor. Este sensor se rige por la fórmula expresada anteriormente (1) ya que depende de la tensión aplicada y de la opacidad instantánea. El resultado de esta comparación es la señal de error de opacidad que junto con el nivel de carga en la caldera determinan las variables de entrada del controlador borroso, el cual como hemos visto antes con las reglas y las funciones de pertenencia determina la velocidad de disparo oportuna en cada instante. Esta señal de velocidad llega a un actuador y posteriormente al electrofiltro, el cual con el circuito visto anteriormente, el cual cumple la ecuación 8, genera una tensión de salida. El esquema se adjunta a continuación: Fig. 9: CIRCUITO MODELADO EN SIMULINK IV. CONCLUSIONES OBTENIDOS Y RESULTADOS Del circuito anterior obtenemos las siguientes señales: Asimismo e implementando el mismo sistema anterior con un controlador PID obtenemos la siguiente señal en el controlador ante la misma entrada representada en la figura 10. Fig. 12: RESPUESTA DEL CONTROLADOR PID Podemos observar cómo para una misma señal del comparador los sistemas responden y se comportan de manera diferente. El sistema PID (figura 12) presenta periodos de establecimiento en la velocidad de disparo de mayor valor así como sobre oscilaciones aunque no demasiado grandes y además el rango de trabajo es mucho mayor, teniendo valores de velocidad de disparo desde el 0% hasta el 80%. Esto se traduce en que la tensión de salida será mucho más elevada en con el controlador PID. Para los mismos valores de entrada el sistema implementado con un controlador borroso presenta una menor variación de la velocidad de disparo, mucho más estable a lo largo del tiempo y rápida a los cambios, teniendo un régimen de trabajo desde el 0,05% hasta el 0,227%. Lo que se traduce en un consumo mucho menor por parte del electrofiltro. Esto se traduce a un menor consumo de potencia en los electrofiltros que veremos a continuación: Fig. 10: SEÑAL DEL COMARADOR III Congreso de Cibernética Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. Fig. 13: COMPARATIVA DEL SISTEMA PID Y SISTEMA DIFUSO En relación con las anteriores variables y para los mismos valores vemos como el sistema durante el arranque presenta mayores picos de tensión en el sistema PID donde alcanza casi los 6 kV mientras que el sistema borroso no supera los 3 kV. Esto se traduce en una reducción del consumo durante el régimen transitorio de aproximadamente el 50% de potencia instantánea. Respecto a la potencia media durante el régimen transitorio tenemos que aproximadamente el sistema borroso consume cerca de un 40% menos de lo que consume el sistema PID. En el régimen permanente ambos sistemas presentan similares periodos de repetición de las señales. La tensión media para un periodo es en el controlador Fuzzy de 1,69 kV mientras que en el sistema de control PID es de 8,29 kV. Esto implica un ahorro del consumo de casi el 80% durante el régimen permanente. Estos valores están lejos del valor de tensión máximo instalado en los electrofiltros (55kV) debido a que el error de opacidad, del cual depende este valor, es muy pequeño. Como conclusión y según los datos anteriores vemos como el nuevo sistema de control tiene un consumo mucho menor tanto en régimen transitorio como en régimen permanente. Además no es tan brusco a los cambios, cumpliendo así con lo pronosticado. Respecto a la velocidad de respuesta esta es más o menos similar en ambos sistemas de control. En el régimen permanente el sistema borroso es capaz de trabajar casi 5 veces menos obteniendo el mismo resultado lo que se traduce en un menor desgaste de los componentes (tiristores, electrodos, placas, transformador, etc.). Con este sistema no se presentan mejoras respecto a los intervalos de limpieza de los golpeadores ya que estos tienen el mismo sistema de control por temporizador [12]. En la actualidad en España el precio medio del MWh es de 47,65 € (a día 19/05/2012 según III Congreso de Cibernética 7 www.ree.es). Consumiendo un sistema actual de limpieza electrostático unos 1 MWh para una central térmica de 1.175 MWh de potencia instalada, vemos que a plena carga consumen los electrofiltros 47.65 € en una hora. Con el sistema mejorado con un control borroso pasaremos a un consumo de 0,24 MWh que traducido a euros son 11,57 € en una hora a plena carga. Aparte del ahorro de 36,08 € cada hora que funcionen a plena carga también vemos disminuido el porcentaje de potencia que los campos de electrofiltros consumen para la misma central anterior que con el controlador borroso estaría rondando el 0,23 ‰ de la potencia total instalada en la central (muy lejos del 1 ‰ en el que rondaba). REFERENCIAS [1] K. Darby (1981); Criteria for designing electrostatic precipitators (pg. 191-200). Birmingham (England). [2] Charles Eyraud (1993); Gas cleaning by electrostatic precipitation. 6th World Filtration Congress. Lyon (France). [3] Daniel Golub (1987); Electroadsorption of bacteria on porous carbón and graphite electrodes (pg 175-182) (Israel). [4] Trent Harkin (2012) Using multiobjective optimization in the design of CO2 capture systems for retrofit to coal power stations (pg 228-235) Melbourne (Australia). [5] K. Reijnen (1984); Gas cleaning at high temperatures and high pressures (pg 81-111) (Netherlands). [6] Ismael Prieto; Precipitadores electrostáticos utilizados en centrales termoeléctricas. Disponible en “http://ocw.uniovi.es/file.php/13/1C_C12757_0910/04 _GT08_Precipitador_electrostatico.pdf”. [7] Eliminación de partículas. Disponible en “http://libros.redsauce.net/CentralesTermicas/PDFs/32 CT.pdf”. [8] Luis Cañadas Serrano (2008); Tecnologías de depuración de partículas. Jornadas sobre tecnologías aplicadas al sector energético. Disponible en “http://www.uca.es/catedra/eon/actividadescatedra/jorn adas_catedra/i_jornadas_catedra_eon_2008/02122008depuracion-de-particulas.pdf.”. [9] James H. Tumer (1999). Precipitadores electrostáticos. Disponible en “http://www.docstoc.com/docs/7866261/Cap%C3%A Dtulo-3---Precipitadores-electrost%C3%A1ticos-(626kb-7-11-02)”. [10] Luciano Raúl Disante (2006). Precipitadores electrostáticos. Disponible en “http://www.frsn.utn.edu.ar/frsn/departamentos/mecani ca/subircat/images/232/Precipitadores%20Electrostatic os.pdf”. Universidad de León. Paredes Menéndez. Simulación de un electrofiltro. [11] Eliminación de partículas (parte III). Universidad de Castilla la Mancha. Disponible en “http://www.uclm.es/profesorado/jvillasenor/esp/contat m/tema1-pto4.pdf”. [12] Ángel Luis Orille Fernández. Centrales eléctricas (1993). Universidad Politécnica de Cataluña. [13] Antonio Moreno. Aprendizaje automático (1994). Universidad Politécnica de Cataluña. [14] Federico Dios Otín. Campos electromagnéticos (1998). Escuela superior de Ingeniería de Telecomunicaciones de Barcelona. [15] Alicia Arce Rubio. Manual de Simulink (2009). Escuela superior de Ingenieros de Sevilla. Departamento de Ingeniería de sistemas y automática. [16] José Ángel Acosta Rodríguez. Manual de introducción a Simulink (2004). Universidad de Sevilla. [17] Adolfo Anta Martinez. Matlab & Simulink (2000). Universidad Pontificia Comillas. Departamento de electrónica y automática. [18] Henry Antonio Mendiburu Díaz. Gestión dinámica de proyectos mediante lógica Fuzzy (2008). Foro internacional de Voces Expertas para integrar tecnología y negocios en un mundo global. (México). Disponible en “http://www.liceus.com/cgibin/ac/pu/Gestion%20Proyectos%20mediante%20Logi ca%20Fuzzy.pdf”. [19] Andrés Rugeles Vargas. Diseño de un controlador difuso a través de la herramienta Fuzzy de Matlab. Disponible en “http://www.google.es/url?sa=t&rct=j&q=&esrc=s&so urce=web&cd=1&ved=0CFQQFjAA&url=http%3A% 2F%2Frcientificas.uninorte.edu.co%2Findex.php%2Fi ngenieria%2Farticle%2Fdownload%2F868%2F512&ei =f0e5T_jaIYjDhAep0cHUCA&usg=AFQjCNGd9IyBl STW5R5hBAaQgVlCribmg&sig2=dxzJRuknNy9fCTONgt5ybQ”. [20] J. Galindo Gómez. Conjuntos y Sistemas Difusos. Universidad de Málaga. Disponible en “http://www.lcc.uma.es/~ppgg/FSS/FSS7.pdf”. [21] Adolfo Rodríguez de Soto y Jorge Casillas. Control Fuzzy (2008). Departamento de Ingeniería mecánica, informática y aeroespacial. Universidad de León. [21] Pedro Fernández Díez. Eliminación de partículas (2008). Disponible en “http://libros.redsauce.net /CentralesTermicas/PDFs/32CT.pdf” III Congreso de Cibernética 7 CONSIDERACIONES PARA LA MODELACIÓN SÍSMICA DE EDIFICACIONES Javier Dı́az Lorca Universidad de León España [email protected] Abstract—Los grandes avances experimentados en los diversos ámbitos cientı́ficos relacionados con el fenómeno sı́smico y su tratamiento en las edificaciones, se encuentran claramente caracterizados por la incertidumbre inherente al propio fenómeno sı́smico. A esta incertidumbre deben añadirse otras, que no por menos determinantes deben ser obviadas, como son ; simplificaciones en los planteamientos analı́ticos, comportamiento de los materiales, materialización de las construcciones, limitaciones en los softwares utilizados y error humano, por citar algunas de las más importantes. Un claro ejemplo de la diversidad de criterios, fruto de esta incertidumbre, queda reflejado en los diferentes planteamientos normativos existentes. El estudio y tratamiento del fenómeno sı́smico en las edificaciones puede ser considerado desde un punto de vista cibernético, tomando como planta la edificación, como señal de entrada perturbadora el sismo , como medios de control y actuación los sistemas de disipación y absorción de energı́a estática y dinámica con los que las modernas edificaciones pueden diseñarse, y como respuesta, los esfuerzos y deformaciones . En este artı́culo se mostrará un breve resumen de los factores de incertidumbre que caracterizan el fenómeno sı́smico y se analizarán los principales mecanismos de disipación y absorción de energı́a. I. I NTRODUCTION La modelación, diseño y construcción de las edificaciones en zonas catalogadas de acción sı́smica se encuentran sometidas a una gran problemática, resultado de la magnitud en la incertidumbre del fenómeno sı́smico. Ya en una edificación normal, sin fenómeno sı́smico, las acciones externas que actúan sobre ella resultado de la climatologı́a , deben ser cuidadosamente tratadas para conseguir un eficaz equilibrio entre los esfuerzos que dichas acciones le transmiten y la respuesta resistente que la estructura debe alcanzar 1 . En la mayorı́a de códigos y normas 2 , dicha problemática de incertidumbre se resuelve con la aplicación de códigos de seguridad, resultando diseños en la mayorı́a de los casos sobredimensionados, pero seguros ante la respuesta a estas acciones. No podemos comparar, en lo que a magnitud de esfuerzos ser refiere , los transmitidos por el viento y nieve, con los de un fenómeno sı́smico, es por ello que el nivel de 1 Código Técnico de la Edificación , Documento Básico SE-AE. la norma NCSE-02, se puede encontrar más información relacionada con el tratamiento en las edificaciones de los coeficientes de seguridad según la Norma Española. 2 En aproximación que debe ser conseguido en la modelación, requiere de una mayor exigencia , al objeto de hacer recaer en los coeficientes de seguridad el mı́nimo protagonismo posible. No existen dos terremotos, en lo que a señal sı́smica de respuesta se refiere, ni dos edificaciones , en cuanto a comportamiento resistente , iguales, es por ello que resulta prácticamente imposible caracterizar de forma exacta un fenómeno sı́smico para un proyecto concreto. Dos claros ejemplos de esta dificultad los encontramos en México (1985) y el Kobe-Japón (1995), donde las fuerzas sı́smicas transmitidas a las estructuras sobrepasaron en una magnitud tan elevada las previstas en su modelación, que tuvieron que ser modificados todos los reglamentos y normativas. Ni tal siquiera los poderosos software modernos, basados en elementos finitos, son capaces de predecir con exactitud el comportamiento estructural ante fenómenos sı́smicos. Supongamos que partimos de una señal adecuada, lo cual como se comentó anteriormente es prácticamente imposible de conseguir, ¿ qué problemáticas tendrı́amos ?, en primer lugar el material. La mayorı́a de las edificaciones están construidas de hormigón armado. El hormigón armado es un material que por su proceso de elaboración comportar una gran diversidad entre los valores de sus propiedades fı́sico - quı́mico - resistentes, utilizadas en el diseño y los realmente conseguidos en obra. Un exhaustivo control en todo el proceso de elaboración ayudarı́a a minorar estas diferencias, no sin un importante encarecimiento , lo cual le hace poco confiable a esta práctica. Además el hormigón armado, por su naturaleza, es un material caracterizado por un comportamiento resistentemente irregular , al fundamentar su respuesta ante esfuerzos de tracción a la interacción dúctil - frágil, según la cuantı́a conseguida y la disposición del acero en su interior. Otra importante problemática que me gustarı́a tratar, reside en las diversas interacciones, existentes en una edificación. Algunas de las principales interacciones que caracterizan las edificaciones serı́an; interacción suelo-cimentación [8], [9] , columna- cimentación, columna-viga , y muro-marco. Sobre las interacciones anteriormente citadas recae gran parte del comportamiento resistente y de deformación de un ed- ificio, condicionando para un mismo fenómeno, respuestas que pueden ir desde el comportamiento elástico al colapso, pasando por un comportamiento plástico, que suele ser el deseado. Una fase esencial en el proceso de diseño, es la estrategia de cálculo utilizada. En el libro [2], se desarrollan los principales métodos de cálculo sı́smico tradicionales , adentrándose en los más modernos basados en el balance de energı́a, ası́ como el planteamiento de soluciones estructurales innovadoras. Una tendencia común, aceptada en la mayorı́a de las normas internacionales, es el empleo de modelos simplificados para el estudio de estructuras, si bien éstas deben cumplir una serie de requisitos ; limitación de alturas, regularidad geométrica en planta y elevación, uniformidad de rigidez en cada planta ası́ como entre las distintas plantas de la edificación, excentricidad limitada entre el centro de masas y torsión y regularidad mecánica, por citar las principales. El factor determinante a la hora de plantear un análisis sı́smico reside, debido a su dificultad, en conseguir el comportamiento plástico de forma que no se llegue al colapso de la estructura , evitando la pérdida de vidas humanas y ocasionar daños estructurales asumibles económicamente. En [3] se lleva a cabo un interesante tratamiento del análisis sismorresistente en edificios, donde a un amplio planteamiento teórico analı́tico del fenmeno, se acompañan los programas de modelación bajo el software SAP 2000. Termino esta introducción haciendo referencia a uno de los aspectos estructuras que dı́a a dı́a esta cobrando mayor importancia y donde se centran actualmente la mayorı́a de las investigaciones, los disipadores de energı́a. La totalidad de la energı́a que entra en una edificación a causa de un fenómeno sı́smico, es transformada en Energı́a de Edificación, Energı́a Potencial, Energı́a Cinética y Energı́a Adicional. Los diseños conservadores se fundamentan en priorizar la Energı́a de Edificación sobre el resto , representando alrededor del 97% del total. De esta forma los mecanismos que el edificio debe activar para absorber y disipar la energı́a son principalmente su inercia y su masa. La participación en la ecuaciones de energı́as, de las Energı́as Potencial y Cinética, tiene especial importancia entre los segundos 2 y 12 segundos del fenómeno 3 . Si la edificación se encuentra en una ubicación sı́smica caracterizada por sismos de larga o mediana duración ( 80-60 segundos) , y no disponemos de medios de disipación alternativos, es el edificio el que soporta el 100% de la energı́a a partir del segundo 12, con bastante probabilidad de colapsar. Es por ello que en zonas donde se caracterizan sismos de larga duración, deben disponerse en el diseño sistemas de disipación de energı́a. January 1, 2012 II. LA ENTRADA: SE ÑAL S ÍSMICA Seguramente el factor de incertidumbre más determinante de todos es la señal sı́smica. La determinación de las cargas en una estructura ubicada en zona no sı́smica se lleva a cabo con relativa fiabilidad conociendo su ubicación geográfica. Los registros oficiales de viento y nieve nos permiten modelar las acciones con gran exactitud, limitándose la aplicación de coeficientes de seguridad a pequeñas incertidumbres, debidas principalmente al error en la repetitividad de los fenómenos y a los propios materiales. Existen tres métodos para el tratamiento y modelación de la señal sı́smica a utilizar en una modelación de una estructura, anı́lisis por Tiempo Historia , anı́lisis por Espectro de Respuesta y análisis estático. El cálculo directo Tiempo Historia mediante registro por acelerogramas nos da la respuesta aceleración versus tiempo, de un sistema sometido a un determinado terremoto. Fig. 1. Acelerograma tı́pico Para poder proyectar una estructura eficazmente mediante el uso de señales Tiempo Historia, necesitarı́amos una gran cantidad de registros caracterı́sticos de la zona objeto de estudio, implicando un esfuerzo de cálculo enorme, justificado exclusivamente para estructuras de gran responsabilidad y singularidad. La solución pasa por modelar bajo la condición de Espectros de Respuesta. Dentro de los Espectros de respuesta utilizados en los diseños, existe una clasificación condicionada por el método de modelación elegido, ası́, están los llamados Espectros de Respuesta Elásticos y los Espectros de Respuesta Ineslásticos adoptados por los distintos códigos. mds 3 En [10], pag 93-96, se muestran unos interesantes gráficos resultado del trabajo de investigación, donde se puede apreciar la distribución de energı́a sı́smica. En todos ellos se observa el importante papel disipador protagonizado por la Energı́a Potencial y Cinética durante los primeros 12 segundos del sismo. Fig. 2. Ejemplo de Espectros de respuesta adoptados por diversos Códigos Los Espectros inelásticos son obtenidos a partir de los elásticos, una vez se aplican unos coeficientes reductores de respuesta, a través de los cuales obtenemos las fuerzas sı́smicas probables para un edificio, con capacidad de alcanzar comportamiento plástico, de forma que se causen daños estructurales y económicos asumibles . de criterios en la aplicacin de estos importantes coeficientes realizados en cada norma y lo trascendente de su repercusión sobre el proyecto final. III. LA PLANTA : EL EDIFICIO Y CONDICIONES DE CONTORNO A. EL EDIFICIO Un Espectro de Respuesta Elástico, para una determinada región, representan la envolvente de los valores máximos de respuesta para un conjunto de sismos similares a los esperables en dicha región , según diferentes periodos de vibración. El método de cálculo llevado a cabo con estos espectros es conocido como análisis modal espectral. Resulta especialmente interesante centrar la atención, en los ya mencionados coeficientes reductores de respuesta, abreviados en la mayorı́a de normas con la letra R. La responsabilidad en la determinación de estos coeficientes por parte del proyectista es muy alta, yo dirı́a la mayor del proyecto. Es por ello que la decisión en muchos casos adoptada, puede ser derivada de una postura radicalmente conservadora o arriesgada , sin tener capacidad de discernir de la pertinencia de los valores que aplica o sin conocer muchas veces lo adecuada de la respuesta del edificio proyectado. El objeto de interés, nuestra Planta, en un análisis sı́smico está conformado por la edificación y sus condiciones de contorno. Como edificación debemos entender todos y cada uno de los elementos estructurales que la constituyen ası́ como su particular disposición en planta y altura, y como condiciones de contorno la interacción suelo estructura y edificaciones próximas, en caso de que el sismo pueda motivar la colisión con ellas. La habilidad del proyectista reside en diseñar los elementos estructurales con el nivel de eficacia resistente compatible con las deformaciones admisibles dentro de una cantidad de trabajo estructural admisible. Al objeto de comprender y en que medida los factores de diseño participan en la respuesta sı́smica del edificio, nada mejor que analizar cada uno de los miembros de la ecuación de equilibrio diámico del sistema: [M ][v̈(t)] + [C][v̇(t)] + [K][v(t)] = [P (T )] Conocedores de este importante dilema, el tratamiento que ya se hace desde las diversas normas es muy variado. Ası́ la norma Española, NCSE-02, admite una postura conservadora, utilizando métodos elásticos de proyecto sismorresistentes basados en resistencias, es decir, en espectros elásticos donde se prioriza como respuesta la absorción a la disipación de energı́a. Seguramente el moderado carácter de la actividad sı́smica de nuestro Paı́s admita este planteamiento , pero en otros Paı́ses de marcada actividad sı́smica; Perú, Ecuador, Colombia, Japón y Venezuela,4 por citar algunos, este tipo de planteamientos serı́an inviables económica y técnicamente. Existen multitud de interesantes trabajos llevados a cabo por prestigiosos investigadores al objeto de diseñar un método de cálculo de los coeficientes reductores de respuesta. Sirva como resumen de todos ellos el estudio llevado a cabo por [6]. Algunos de los factores a la hora de considerar el valor del coeficiente reductor R son ; las irregularidades en planta y en elevación. En [1], se lleva a cabo un exhaustivo estudio para el cálculo del coeficientes reductores sobre la consideración de estos factores. Concluyo este apartado, citando a [7], donde se hace un interesante estudio comparativo en relación a la aplicación del coeficiente reductor en las principales normativas sismorresistentes ; Eurocódigo 8, UBC 97, IBC 2003, NZBC Japanese Building Standard Law 2004, NCSE-02 y Norma CONVENIN 1756-98, donde como conclusión final destaca la diversidad 4 Perú E.030-2006, Ecuador CEC.2000-2000,Colombia NSR.98-1998 y Venezuela COVENIN 1756.98-2001 (1) La ecuación que acabamos de indicar representa la ley dinámica de sistemas con múltiples grados de libertad bajo cargas generales. El primer término valora la respuesta como fuerza inercial, que toda masa genera ante una acción de aceleración externa que trata de desplazarla en un determinado sentido. Los métodos de estudio aplicados en prácticamente todas las normas, admiten la simplificación de la edificación por masas puntuales, de forma que la masas , desglosada por pisos, es concentrada en el centro de masas de cada planta. El proyectista, en coordinación con los responsables de materializar el proyecto, debe distribuir las masas por planta, de forma que en un margen muy limitado, todas los centros de masas deben ser coincidentes en la misma vertical, reduciendo con ello los cortantes por torsión en las plantas del edificio. Los forjados deben modelizarse como diafragmas rı́gidos, de forma que los grados de libertad por planta quedan reducidos a tres, los dos contenidos en el plano de la planta y el giro sobre eje vertical a ella. Además, las fuerzas de inercia que el terremoto induce en cada forjado de la estructura están aplicadas en el centro de masas de dicho forjado, como se indicará más adelante cuando hablemos de rigidez. Si alguna fuerza de inercia que actúa por encima de un determinado forjado no pasa por el centro de esfuerzos cortantes de dicha planta, inducirá en ella esfuerzos de torsión. Es muy importante destacar la diferente condición de colapso que representan sobre la estructura los esfuerzos cortantes y flectores. Los esfuerzos flectores se caracterizan por un colapso dúctil, mientras los cortantes lo hacen en colapso frágil, y por tanto indeseable, por lo cual debemos conseguir en el diseño de la estructura, minimizar al máximo los esfuerzos cortantes secundarios fruto del diseño y/o construcción imperfecta. El segundo término representa el amortiguamiento de la estructura. Si la edificación careciera de amortiguamiento, ésta, una vez excitada, osciları́a indefinidamente con su frecuencia natural y amplitud constante al representar un sistema conservativo. El amortiguamiento trata de disipar energı́a , ası́ la presencia de estas fuerzas conforman un mecanismo por el cual la energı́a mecánica del sistema, energı́a cinética y potencial, se transforman en calor. Tal vez por comodidad de cálculo, el amortiguamiento en las edificaciones adopta un planteamiento basado en el mecanismo de disipación viscosa, al igual que las fuerzas de fricción producen sobre un cuerpo 5 . En este sentido, debemos diferenciar entre estructuras sobreamortiguadas, con amortiguamiento crı́tico y subamortiguadas. El amortiguamiento crı́tico viene dado bajo la expresión √ (2) Ccr = 2 km Siendo k la rigidez y m la masa de la estructura. En las estructuras con amortiguamiento crı́tico y sobreamortiguadas, la magnitud del desplazamiento decrece exponencialmente sin oscilación en el tiempo, hasta hacerse cero, mientras que en las subamortiguadas esta reducción del desplazamiento es oscilatoria con amplitud de vibración descendente y no periódica, manteniendo las oscilaciones en intervalos de tiempo iguales. En las estructuras reales, el valor del coeficiente de amortiguamiento es considerablemente menor que el amortiguamiento crı́tico, fluctuando generalmente entre un 2% y un 20%, de este valor. La consideración del amortiguamiento en el estudio del problema sı́smico, lo complica considerablemente. El amortiguamiento, debido a su reducido valor en las estructuras reales, no afecta prácticamente a la frecuencia natural y modos normales, por lo que puede despreciarse para su cálculo 6 . Fig. 3. por ejemplo, el método de integración paso a paso 7 , utilizado en caso de un sistema no lineal. El tercer término de la ecuación de equilibrio dinámico, tal vez sea el más amigable y cercano, por cuento representa la fuerza de oposición al desplazamiento que un elemento manifiesta en función de su rigidez. En todos los planteamientos analı́ticos que se hacen del problema dinámico, se representa mediante un resorte con una constante de rigidez [K], cuyo valor viene dado por la relación entre la magnitud de la fuerza aplicada y el desplazamiento resultante. Existen tres tipos de resorte 8 , duro , lineal y blando. Independientemente que podamos suponer que el comportamiento de una estructura se corresponda con uno u otro tipo de resorte, lo limitado de la magnitud de los desplazamientos de las estructuras dan lugar a que en todos los casos se idealice su comportamiento a una caracterı́stica lineal , común para todos ellos. Fig. 4. Concluye [3], en su capı́tulo 12, con una interesante apunte en base a la cual se justifica el empleo o no del término de amortiguamiento en la expresión del equilibrio dinámico del sistema, “ sabiendo que en la mayorı́a de las estructuras las amortiguaciones modales están en intervalos de 2% al 10 %, y tomando en consideración el tipo de estructuras y los materiales empleados , podemos dar valores a las razones de amortiguamiento modales. ” . Con estas razones calculamos la matriz de amortiguamiento [C],la cual se necesita explı́citamente cuando la respuesta dinámica se obtiene por algún procedimiento analı́tico distinto de superposición modal, 5 En [3] capı́tulo 2, se lleva a cabo un detallado estudio del comportamiento estructural de los sistemas con amortiguamiento. 6 En [3] captulo 12, se tratara el estudio analı́tico de un edificio simple con amortiguamiento Efecto del amortiguamiento sobre vibración libre Tipos Resorte K: (a) duro, (b) lineal y (c) blando De todos los términos presentes en la ecuación del equilibrio dinámico de una estructura sometida a fenómeno sı́smico, la matriz de rigidez [K], es común a cualquier estructura, esté o no sometida a fenómeno sı́smico. Un término ki,j , de esta matriz representa la fuerza que es necesario aplicar en el grado de libertad i, para provocar una deformación según la dirección del grado de libertad j, manteniendo el resto de grados de libertad nulos. Su valor depende de los módulos de elasticidad (Ei ), inercias (Ii ), condiciones de contorno y longitud (Li ) de los elementos estructurales que componen la edificación. Como se comentó 7 Para comprender mejor este método de cálculo , se puede consultar [3] captulo 6, y más concretamente el punto 6.4 8 ver capı́tulo 1, [3] anteriormente, la modelación de las plantas en los edificios con fenómeno sı́smico se define mediante diafragmas rı́gidos, de forma que los elementos de las matriz de rigidez estarán compuestos, por rigideces a la torsión y rigideces laterales. El proyectista, en la distribución de las rigideces , debe conseguir que los centros de masas y los centros de rigidez estén lo más próximos posibles, reduciendo los esfuerzos secundarios debido a cortantes adicionales en los pilares a causa de la torsión, limitando con ello los esfuerzos y las deformaciones a valores admisibles según la norma aplicada. Otro aspecto que debe considerarse a la hora de analizar la rigidez de una edificación es lo que se conoce como fenémeno P − ∆ 9 . A efectos prácticos, el fenómeno P − ∆, condiciona la necesidad de proveer a la edificación de una reserva de rigidez lateral. Su importancia puede llegar a suponer, si la reserva inercial no es suficiente en el diseño de la edificación, el colapso irreversible durante la fase plástica de deformación, en la cual sabemos que se diseñan la mayorı́a de las edificaciones modernas. La parte derecha de la ecuación de equilibrio dinámico de la estructura [P(T)], representa las fuerzas inducidas al sistema mediante la señal sı́smica , tema que ya fue tratado en el apartado anterior. B. CONDICIONES DE CONTORNO En la mayorı́a de las modelizaciones de edificaciones sometidas a fenómenos sı́smicos, los puntos de contacto de la edificación con el suelo a través de la cimentación se definen como empotrados. Apenas existen normas donde se considere la flexibilidad del suelo, y con ello los importantes efectos que sobre los periodos, frecuencia y formas de vibración representan, y consecuentemente, sobre la magnitud de las fuerzas sı́smicas. Este ámbito de trabajo representa una de los mayores focos de interés para los investigadores en la actualidad, postulándose como uno de los campos de mayor evolución en el futuro inmediato 10 . Como quedo reflejado en el Abstract, uno de los objetivos de este trabajo consiste en dejar en evidencia los principales focos de incertidumbre en material de modelización del fenómeno sı́smico, es por ello que podemos considerar la interacción suelo estructura y el tratamiento que de ella se hace en las principales normativas, como uno de los mayores ámbitos de incertidumbre del problema. Un tratamiento con rigor en relación a este asunto requerirı́a un trabajo exclusivo. Invito a la lectura de [8] y [9], para comprender el alcance de mis afirmaciones. En estos trabajos, el autor, sobre la modelización de ejemplos , refleja la diversidad de resultados en esfuerzos y desplazamientos, en relación a considerar o no el efecto interacción. Sirva a modo de resumen indicar que, 9 En [2], pag 290, se hace un estudio detallado de este fenómeno. [8] cap. 1, se puede analizar el gran reto investigador que queda por delante en materia relativa a la modelización suelo - estructura. 10 En como concluye el autor, la consideración de la flexibilidad de la cimentación a causa de la modelización con la interacción suelo-estructura, supone por ejemplo, bajo análisis espectral y sismo a 0o , un aumento de los desplazamientos de las plantas de un 28%, una reducción de las fuerzas axiales de hasta un 24%, una reducción de las fuerzas cortantes de un 17% y una reducción de momentos flectores de un 5%, en relación al modelo empotrado de rigidez infinita . Los modelos de interacción en base a los cuales el autor [8] y [9] lleva a cabo su análisis son ; BARKAN, LLICHEV, SANGSIAN y NORMA RUSA, y como puede ser observado en las conclusiones del trabajo, las diferencias en cuanto a los resultados entre los propios modelos puede llegar a ser significativa, incidiendo en la idea de incertidumbre a la cual me referı́a al inicio . IV. LA RESPUESTA: ELEMENTOS DE ABSORCI ÓN Y DISIPACI ÓN Las estructuras deben diseñarse con la resistencia suficiente para que sea capaz de desarrollar las fuerzas restauradoras que neutralicen las fuerzas inerciales ocasionadas por el fenómeno sı́smico. Cuando utilizamos un Espectro Elástico figura 2, como señal de entrada, se asume que estas fuerzas restauradoras deben limitarse a el rango elástico y lineal. Si la respuesta de la estructura, a causa del valor de las fuerzas inerciales, supera este lı́mite elástico, el rango del valor de las fuerzas respuesta, a partir de este momento, adopta una tendencia constante, independientemente de qué valor adopten las fuerzas inerciales, por lo que la fuerza como parámetro deja de ser adecuado para caracterizar la respuesta resistente. Fig. 5. Sistemas de respuesta lineal y respuesta elasto-plástica Los métodos de proyecto basados en una caracterización de la acción sı́smica mediante fuerzas obtenidas en un sistema elástico, como lo es el método análisis modal espectral , se corresponden con los pioneros códigos sı́smicos surgidos durante la década de los años 20. El primer código sı́smico se implantó en Japón 11 , basado en modelización de las fuerzas sı́smicas como un porcentaje del peso de la edificación . El 11 A raı́z del gran trauma social que supuso el terremoto de Nobi , Japón en 1891, con un total de 7000 muertos, Japón desarrolló en 1924 el primer Código Sı́smico del mundo , ” Código de Construcción Urbana”. Terremoto de Tokachi-oki 1969, marco un punto de inflexión importante en la concepción de la modelización sı́smica de las edificaciones en Japón, al observar la diversidad de comportamiento resistente que habı́an manifestado edificios calculados con los mismos códigos y parámetros, bajo las mismas condiciones estructurales y de contorno. Este hecho motivó la orientación del problema sı́smico hacia el estudio del comportamiento dúctil de los edificios, considerando seriamente la ductilidad como nuevo parámetro a intervenir en la ecuación de equilibrio dinámico del fenómeno sı́smico. En 1957, se introdujo en EE.UU en el Código del SEAOC ( Structural Engineers Association of California) el concepto de ductilidad. Actualmente está reconocido, por toda la comunidad cientı́fica, la inviabilidad económica para diseñar edificios que mantengan una respuesta exclusivamente en rango elástico ante un fenómeno sı́smico severo. Los métodos de diseño elásticos basados en resistencia, todavı́a actualmente utilizados aunque con importantes limitaciones, no permiten modelizar soluciones sismorresistentes avanzadas, tales como el empleo de disipadores de energı́a , aislamiento de base , etcétera. Es de esperar en un futuro próximo, la irrupción de grandes logros en la investigación sismorresistentes, que proporcionen nuevas herramientas fiables de diseño con objeto de garantizar un mejor comportamiento por desempeño de las edificaciones 12 . La energı́a descargada por un fenómeno sı́smico, debe ser absorbida y dispersada por la edificación (la planta ). Básicamente existen dos métodos de diseño a la hora de dar tratamiento a la energı́a entrante; métodos basados en conferir a la estructura la rigidez y resistencia necesaria para absorber y disipar la energı́a bajo un comportamiento lineal de sus elementos constituyentes, y métodos basados en alcanzar, en parte de sus componentes, un comportamiento plástico localizado. A su vez, en este segundo método, podemos encontrar dos técnicas de trabajo; definir los elementos básicos resistentes de una estructura, pilares y columnas, de capacidad inelástica localizada o complementar esta capacidad inelástica con elementos suplementarios expresamente diseñados para ejercer una función absorbente y disipadora de energı́a. La ecuación que gobierna el comportamiento energético de un edificio bajo el efecto dinámico de una acción perturbadora externa, está definida de la siguiente forma: E = Ek + Es + Eh + Ed (3) 12 En [10] se lleva a cabo un interesante trabajo de investigación en relación a los Sistemas Pasivos de disipación de energı́a en las edificaciones, dando un tratamiento teórico y matemático de ellos, donde ya de deja en evidencia mejoras importantes en la respuesta sismorresistentes de los edificios provistos de estos tipos de técnicas siendo, E, la energı́a total entrante en el sistema,Ek , la energı́a absoluta cinética ,Es , energı́a de deformación elástica recuperable, Eh , energı́a irrecuperable disipada por el sistema mediante su capacidad inelástica fundamentalmente y Ed , la energı́a disipada por elementos disipadores suplementarios en caso de su existencia. A través del aislamiento sı́smico, reducimos la energı́a entrante, limitando con ello los requerimientos en resistencia y rigidez por parte de la estructura, llegando incluso a evitar la respuesta inelástica y con ello los grandes daños y costos en reparación. La capacidad de absorción por aislamiento está limitada por energı́a, con lo cual el factor tiempo es determinante , por tanto, en sismos de larga duración , la edificación debe proveerse de dispositivos suplementarios para colaborar con la estructura en la disipación y absorción de energı́a, y con ello limitar los importantes daños que en esta situación pueden llegar a producirse. Para esta función de aislamiento y absorción suplementaria disponemos de cuatro técnicas; sistemas activos, pasivos, semiactivos e hı́bridos. Centrándonos en los sistemas pasivos , utilizados mayoritariamente en la actualidad, los principales serı́an, los histéricos y los viscoelásticos [4]. Es obligado hacer una breve referencia a los Sistemas Activos, Semi-Activos e Hı́bridos. Los sistemas activos contrarrestan los efectos del sismo directamente mediante actuadores. La gran demanda de energı́a requerida para estos sistemas ante un sismo severo y la complejidad de sus algoritmos de control, los convierte en sistemas poco robustos .Los sistemas hı́bridos y semiactivos, surgen ante la necesidad de dar respuesta en una banda amplia de frecuencias con menor consumo energético. Los sistemas hı́bridos son muy similares a los activos, pero se complementan con la intervención de sistemas pasivos que permiten reducir la elevada demanda energética de estos. Los semiactivos, emplean dispositivos pasivos, sin consumo energético, permitı́endoles modificar sus propiedades resistentes controlandolas en tiempo real mediante actuadores con bajo consumo energético . En [5], se lleva a cabo un completo estado del arte relativo a los Sistemas Activos, Semi-Activos e Hı́bridos. Se muestran a continuación unos sencillos esquemas donde se comparan los elementos esenciales que conforman un sistema de control convencional, pasivo y activo. Fig. 6. Estructura convencional de respuesta sı́smica ocasiones las decisiones por parte del proyectista tiendan a orientarse a posturas conservadoras, sin suponer garantı́a real de seguridad en el diseño. Fig. 7. Estructura pasiva de respuesta sı́smica Fig. 8. Estructura activa de respuesta sı́smica Las principales ventajas de los sistemas activos sobre los pasivos residen en su mayor efectividad y menor sensibilidad a las condiciones locales del suelo, caracterizadas en la interacción suelo estructura. Los Sistemas Activos presentan algunos inconvenientes que en muchas ocasiones los hacen inviables en las edificaciones modernas como son su elevado coste y dependencia de las fuentes de alimentación energética del edificio. Su control a través de múltiples sensores y actuadores plantea un serio problema de dinámica compleja, que debe ser tratado con complicados algoritmos difı́ciles de aplicar ante una situación real. Las principales lı́neas de investigación actualmente se concentran en este tipo de dispositivos, estudiando su mejor tratamiento a situaciones reales de forma práctica y económica. V. CONCLUSIONES El presente artı́culo ha tratado de mostrar de forma genérica, los elementos básicos que han de ser considerados a la hora de afrontar el diseño y proyecto de un edificio susceptible de experimentar la acción de un fenómeno sı́smico. El grado de certidumbre que con el diseño a través de los sistemas tradicionales de modelación de edificaciones sı́smicas se consigue, está en relación inversa con la adecuación de respuesta ante el daño y el comportamiento estructural resistente. A nivel normativo, el grado de diversidad en el tratamiento de los distintos aspectos que gobiernan el proyecto de una edificación sometida a fenómenos sı́smico, muchos de los cuales han sido tratados en este artı́culo, no hacen más que dejar en evidencia la disparidad de criterio y gran desconocimiento que todavı́a existe sobre el fenómeno. La responsabilidad en las decisiones, de forma especialmente destacada, recaen en los proyectistas , quienes deben interpretar las normativas para conseguir edificaciones capaces de dar una respuesta resistente y eficaz de los edificios, todo ello a un coste asumible. Este compromiso y el grado de incertidumbre existentes , motivan que en muchas Existe un gran panorama investigador en muchos de los distintos ámbitos que rodean el fenómenos sı́smico y las edificaciones a él sometidas. Yo me quedarı́a, como principales ámbitos de investigación, con la mejora de los dispositivos de control y tratamiento de la señal sı́smica, la modelización de sistemas interacción suelo estructura, que como queda mencionado en el artı́culo , son varios las teorı́as existentes en este sentido pero dispares en resultados cuando se aplican en un modelo [8] y [9]. Como último punto de interés relativo a la investigacón, querrı́a destacar los dispositivos y sistemas de absorción y disipación de energı́a. He pretendido , espero haberlo conseguido, al tratar este tema, dejar en evidencia el carácter cibernético que la disposición de dispositivos disipadores de energı́a representa en las estructuras. Seguramente este último tema representa en la actualidad los mayores esfuerzos investigadores del fenómeno, y que mejor que concluir el artı́culo fusionando los conceptos cibernético e investigación dada la coyuntura en la que el artı́culo ha sido elaborado R EFERENCES [1] Aguilar Falcon R., Análisis Sı́smico de Edificios, Ed. Centro de Investigaciones Cientı́ficas , Escuela Politécnica del Ejercito, pg 33-61, 2010. [2] Benavent Climent, A. 2010., Estructuras Sismorresistentes, Ed. Maia, 2010. [3] Paz , M. and William L. 2003, Structural Dynamics : Theory and Computation. 5ł ed , Ed. Kluwer Academic Publishers, 2003. [4] Shin, J.,2008, Seismic Desing of Structures with Viscous Dampers International Trainning Programs for Seismic Design of Buildings Structures. NCREE-NSC,USA.2007. [5] Spencer, R.J.and Soong, T.T.(1999), New Aplications and Development of Active, Semi-Active and Hybrid Control Techniques for Seismic and Non Seismic Vibration in the U.S.A, Proceeding of International Post SMIRT, Conference Seminar on Seismic Isolation, Passive Energy Disipation and Active Control of Vibration of Structures , Cheju, Korea, 1999. [6] Ulloa L. and Santana G. 2004, “Código Sı́smico de Costa Rica Versión 2002, Factores de Reducción de Resistencia por Ductilidad, Revista Ingenierı́a. Universidad de Costa Rica”. 4(1,2),15-30 , San José de Costa Rica. [7] Vielma Pérez, J.C. 2008, Caracterización del Comportamiento Sı́smico de edificios de Hormigón Armado Mediante la Respuesta No Lineal, Ed. Universidad Politécnica de Cataluña,Cap 4 pg 62-78, 2008. [8] Villarreal Castro, G. 2006, Interacción Sı́smica Suelo-Estructura en Edificaciones con Zapata Aislada, Ed. Escuela Ingenierı́a Civil Universidad Privada de Antenor Orrego ( UPAO), Perú. [9] Villarreal Castro, G. 2007, Interacción Suelo-Estructura en Edificios Altos, Ed. Escuela Ingenierı́a Civil Universidad Privada de Antenor Orrego ( UPAO), Perú. [10] Villarreal, G. and Oviedo,R. 2009, Edificaciones con Disipadores de Energı́a, Ed. Escuela Ingenierı́a Civil Universidad Privada de Antenor Orrego ( UPAO), Perú. Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. 1 Evolución de los sistemas de supervisión del desgaste de las herramientas de corte. Heras, Álvaro. [email protected] Universidad de León Resumen— El estado de una herramienta de corte es un factor importante a tener en cuenta en cualquier proceso de mecanizado, al igual que los costes adicionales que se producen por los componentes desechados, la rotura de la máquina y los tiempos de inactividad no programados de la herramienta en uso. Se han desarrollado varios métodos y dispositivos de supervisión de los niveles de desgaste en la herramienta de corte durante su funcionamiento, con el fin de reducir los costes anteriormente mencionados. Este trabajo presenta una revisión de algunos de los métodos más importantes que se han empleado en la vigilancia de las condiciones de la herramienta, prestando especial atención a la forma en que las señales recogidas por los sensores se han aprovechado y utilizado en el desarrollo de los sistemas de vigilancia de las condiciones de la herramienta (TCMSs). Índice de Términos—Desgaste de la herramienta, fuerzas de corte, emisión acústica, temperatura de la herramienta, supervisión del proceso. I. INTRODUCCIÓN Las industrias manufactureras han logrado un ahorro de costes y mejoras de la productividad con la creación de fábricas mínimamente tripuladas. En los procesos de fabricación que implican operaciones de corte de metales, como es el caso del mecanizado automático con máquinas de control numérico computado, se han concentrado en los procedimientos de cambio de herramientas cuando fuera necesario. Entre finales de los 80 y principios de los 90 se ha observado un cambio de la vieja práctica de cambiar las herramientas de forma periódica, a la viabilidad usar los procedimientos basados en el control del desgaste en los bordes de corte de la herramienta a través de la implementación de mecanismos de de inspección de la adaptación o desgaste de la herramienta. Premio Colombiano de Informática ACIS 2011 Tradicionalmente, una herramienta se cambiaba para satisfacer los nuevos requisitos del proceso (por ejemplo, diferente geometría de la herramienta o distinto material) o para satisfacer un tipo de corte (desbaste, acabado y perfilado). En la actualidad se realiza una compleja supervisión del estado de la herramienta para determinar el momento óptimo de desgaste en el que esta debe ser cambiada y aprovechar de esta forma su vida útil al máximo. La razón de esto es principalmente debido a que el desgaste de la herramienta es un fenómeno complejo que se manifiesta de formas diferentes y variadas, y es por ello que si se cambia la herramienta de forma periódica, alguna veces puede que se haya desgastado más de lo deseado, y otras veces puede que nos deshagamos de ella en buenas condiciones. II. FORMAS DE DESGASTE DE LA HERRAMIENTA DURANTE EL CORTE DE METALES. El desgaste de la herramienta de corte se puede clasificar de varias formas: • Desgaste adhesivo: asociado a la deformación del plano de corte. • Desgaste abrasivo: por partículas duras en la acción de corte. • Desgaste por fricción: que ocurren a temperaturas elevadas. • Fractura: se pica o rompe debido a la fatiga. Los procesos de desgaste de las herramientas ocurren en combinación con el modo de desgaste predominante, el cual depende de las condiciones de corte, la pieza de trabajo, el material de la herramienta y la geometría de la herramienta. Para una herramienta de corte dada y un material para la pieza, la forma de desgaste de la herramienta puede depender exclusivamente de las condiciones Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. de corte, principalmente de la velocidad de corte, del espesor de la viruta y una combinación de los mecanismos de desgaste antes mencionadas. A velocidades de corte bajas, la herramienta se desgasta por el redondeo del punto de corte. Cuando la velocidad de corte aumenta los cambios y el desgaste son debidos a un flujo plástico en la punta de la herramienta. La formación de cráteres en la herramienta depende en mayor medida de la temperatura de corte más que de la velocidad de corte. Las diversas formas del patrón de desgaste del filo y la velocidad de corte predominante se muestran en la figura. 1 para una operación de torneado. Las formas de desgaste más usuales que se producen en las herramientas de corte se identifican a como los principales tipos de desgaste de la herramienta en el mecanizado de metals mediante un punto único, estos puntos únicos son la punta, el flanco, la muesca y el cráter del desgaste. La figura 2 muestra cómo estas características de desgaste se puede medir en un proceso de torneado mediante la aplicación apropiada de los criterios de la Organización de Normas Internacionales. El desgaste de la punta o redondeo de los bordes se produce a través del desgaste por abrasión en los bordes principales de la herramienta de corte como resultado del aumento del ángulo de ataque negativo. El desgaste de la punta puede depender totalmente de las condiciones de corte aplicadas al filo de la herramienta perdido a través de deformaciones plásticas o elásticas. A altas velocidades de corte, el borde se deforma plásticamente y puede dar lugar a la perdida de toda la punta, figuras 1a y 2b. Las melladuras y roturas del filo se producen durante las pausas periódicas acumuladas en el filo durante cortes discontinuos con la herramienta frágil y por la fatiga térmica. El desgaste del flanco surge debido al desgaste abrasivo y adhesivo de la acción de la fricción intensa de las dos superficies en contacto, es decir, la cara de desprendimiento de la herramienta de corte y la superficie recién formada de la pieza de trabajo. El desgaste del flanco conduce a un deterioro de la calidad de la superficie de la pieza, un aumento de área de contacto y un incremento de la generación de calor (Figuras 1b y 2c). La forma del desgaste de las muescas de la herramienta determinan la profundidad de la línea Premio Colombiano de Informática ACIS 2011 2 de corte (Fig. 2b y c). El desgaste de la muesca puede conducir a la abrasión de las capas superficiales acelerada por las reacciones de oxidación o químicas, y esto puede dar lugar al fallo o fractura de la herramienta. Los resultados del desgaste del cráter son una combinación de altas temperaturas de corte y cizallamiento de por tensiones elevadas, esto crea un cráter en la cara de incidencia a cierta distancia de los bordes de la herramienta, cuantificado por la profundidad y el área de sección transversal (Fig. 1c). Unas graves profundidades del cráter pueden desencadenar el desprendimiento catastrófico del punto de corte (Fig. 1d). Fig. 1. Formas de desgaste de la herramienta de corte de mecanizado ortogonal. Fig. 2. Las características tradicionales de las mediciones de desgaste de la herramienta de torneado. Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. III. REQUISITOS DE UN SISTEMA DE SUPERVISIÓN DEL ESTADO DE LAS HERRAMIENTAS. Un sistema de supervisión del mecanizado abarca el seguimiento de la máquina, la dinámica del proceso de corte, las herramientas de corte y la pieza de trabajo para asegurar un rendimiento óptimo de los sistemas. La herramienta condiciona cómo debe ser la supervisión en consecuencia con los siguientes usos: 1. Fallos en el avanzado sistema de detección para el corte y máquinas herramienta. 2. Comprobar y garantizar la estabilidad proceso de mecanizado. 3. Mantener la tolerancia de mecanizado sobre la pieza de trabajo a límites aceptables, proporcionando una compensación de los desplazamientos de la herramienta debidos al desgaste de esta. 4. Evitar causar daños a la máquina herramienta. La ausencia de un TCMS puede generar el excesivo de despegue de la herramienta, tolerancias inexactas, estrías y acabado irregular de la superficie de la pieza, llevando con el tiempo a la máquina herramienta y sus periféricos a daños que producen gastos innecesarios. Muchas investigaciones se han llevado a cabo sobre el desarrollo de TCMS fiables. Hay varios factores que han impedido el avance en el desarrollo de TCMSs incluyendo la elección inadecuada de las señales del sensor y su utilización. Hay dificultades en el diseño de TCMSs que tengan en cuenta las fuentes de ruido. Normalmente, la mayoría de los procesos de corte de metal se pueden clasificar por tener una o más de las siguientes características: 1. Comportamiento caótico debido a la heterogeneidad del material de la pieza. 2. Sensibilidad de los parámetros del proceso a las condiciones de corte. 3. Relación no lineal de los parámetros del proceso con el desgaste de la herramienta. La información engañosa surge fácilmente como perturbaciones de cualquiera de las fuentes mencionadas y plantean un problema práctico, el cual limita la precisión y el control del proceso de Premio Colombiano de Informática ACIS 2011 3 corte. Es fundamental lograr un alto grado de fiabilidad para diagnosticar la condición de la herramienta manteniendo un nivel suficiente de precisión. Cuando suceden perturbaciones inesperadas, un TCMS debería ser capaz de diagnosticar e identificar la avería, y posiblemente aislar o responder con medidas correctivas dentro de un tiempo de respuesta prescrito. A lo largo de la historia se han ido utilizando una combinación de imagen y sonido y se ha realizado la vigilancia de las condiciones de la herramienta (CTM). Es imposible desarrollar sensores que imiten exactamente la intervención de un operador humano, ya que este es subjetivo y flexible, pero inexacto. Este problema se ha evitado mediante el uso de parámetros descriptivos del proceso de corte que muestran sensibilidad a desgaste de la herramienta, lo que evita la necesidad de un sensor único. Los avances en el diseño de sensores han logrado la recopilación de información del proceso de corte que permite realizar mediciones adecuadas. Una gran variedad de los parámetros del proceso en el mecanizado puede utilizarse para predecir el estado de la herramienta de corte. Los parámetros de medición más relacionados con el desgaste de la herramienta son los siguientes: • Emisión acústica. • Temperatura de la herramienta. • Las fuerzas de corte (estáticas y dinámicas). • Vibración característica (las señales de aceleración). • Diversos métodos como las mediciones ultrasónicas y ópticas, la calidad del acabado superficial de la pieza, dimensiones de la pieza, análisis de tensión / deformación y el motor del husillo actual. IV. EMISIÓN ACÚSTICA (AE). Durante el mecanizado de la pieza de trabajo, esta se somete a una deformación plástica considerable debido al empuje de la herramienta a través de ella. Dentro de las zonas de deformación (movimientos de dislocación), la energía de deformación se libera porque los enlaces entre los átomos metálicos son perturbados. Esta energía liberada se conoce comúnmente como emisión acústica. Otras fuentes de AE son las Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. transformaciones de fase, los mecanismos de fricción (contacto entre la herramienta y la pieza) y la formación de grietas o fracturas. Choi [6] fusionó la AE y las fuerzas de corte en su intento de desarrollar un TCMS en tiempo real para operaciones de torneado. Utilizó placas de carburo de tungsteno un primer conjunto de placas ranuradas por electroerosión por hilo para acelerar la fractura, el segundo conjunto fue soldado a la pieza de trabajo para inducir la rotura de la herramienta. Los datos recogidos fueron analizados mediante un rápido algoritmo de bloquepromediado para las características y los patrones indicatives de fractura de la herramienta, y demostró la aparición de una gran explosión de la AE en la rotura de la herramienta. Kakade [7] utilizó el análisis de AE para predecir el desgaste de la herramienta y la forma de la viruta en una operación de fresado seleccionando los parámetros de AE (tiempo de subida, duración de la operación, la frecuencia y la tasa de operaciones) y los registró simultáneamente con la longitud de la región del correspondiente flanco de desgaste medido en los intervalos seleccionados. Concluyó que entre las señales de AE se podían distinguir las acciones de corte de una herramienta afilada, desgastada o rota. Blum y Inasaki [8] llevaron a cabo pruebas de corte experimentales para determinar la influencia del desgaste del flanco en la generación de señales de AE. Los experimentos se efectuaron y se registraron las AE y las fuerzas de corte de forma simultánea para la herramienta en la región anterior al filo y la punta de las placas de corte insertadas. El análisis implicó el estudio de los efectos de las condiciones de corte sobre las características de AE seleccionadas y el desgaste del flanco de la herramienta. La inspección de las gráficas obtenidas para la AE/fuerzas de corte y el desgaste del flanco a varias velocidades de corte mostró una correlación indispensable de la AE en modo de desgaste del flanco. Ellos concluyeron que la extracción de dicha información de la señal de AE es difícil. Moriwaki y Tobito [9] propusieron un método basado en la medición de la AE y el análisis para la estimación de vida de la herramienta con recubrimientos. El principio fundamental concebido para la estimación de vida de la herramienta con recubrimientos fue que, durante el Premio Colombiano de Informática ACIS 2011 4 desgaste progresivo de la herramienta, se producen cambios de material desde una capa de sustrato a otra de la herramienta y emiten señales de AE que pueden ser supervisadas para determinar su vida útil. La AE y desgaste de la herramienta (el flanco y el cráter) se midieron junto con la rugosidad de la superficie. Los valores RMS para la señal de la AE registrada y los valores de desgaste (etapas inicial, media y superior de desgaste de la herramienta) se graficaron en la misma escala de comparación. La inspección de las gráficas presentadas indicó una fuerte correlación entre la AE y la amplitud RMS de desgaste de la herramienta, lo que aumenta con la progresión del desgaste. Los datos recogidos se aplicaron a un sistema de reconocimiento de patrones, y asi, midiendo la AE emitida desde los revestimientos especialmente tratados de una herramienta de corte, fue posible identificar y predecir la vida útil de la herramienta. Roget [10] llevó a cabo pruebas de mecanizado en las cuales las señales de la AE detectadas a partir de la operación de corte se utilizaron para predecir el estado de la herramienta de corte. Llegaron a la conclusion de que esa tarea sólo puede realizarse con éxito en condiciones específicas y limitadas. Usando sensores de AE hechos a la medida , se llevaron a cabo pruebas de corte en torneado y fresado a aceros aleados. Se llevó a cabo una comparación de las curvas registradas de la AE y el desgaste medido del flanco, y mostraron una notable similitud con las tres fases diferentes características representadas en las gráficas del desgaste–tiempo y las de tiempo–AE. Ellos extendieron su método para la identificación de rotura de la herramienta utilizando una operación de fresado y sus conclusiones finales fueron que la AE proporciona una información suficiente de los cambios de las condiciones del corte, la rotura y el desgaste de la herramienta. Durante el corte de metales, se genera una pequeña AE en comparación con la gran AE que se genera cuando se produce una rotura de la herramienta. El énfasis en cualquier TCMS sería generalmente el desgaste de la herramienta en lugar de la fractura de la misma, la AE no es un indicador de desgaste de la herramienta adecuado para aplicaciones de control, pero podría ser utilizada con Buenos resultados en la detección de rotura de la punta de la herramienta en centros de Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. mecanizado. Un inconveniente de la aplicación de la AE como un indicador del desgaste de la herramienta es que sus señales son más sensibles a las variaciones en las condiciones de corte y al ruido, que a la condición de la herramienta en sí. La AE sólo sirve como un método adicional de detección para lograr una mayor fiabilidad en un TCM. V. TEMPERATURA DE LA PUNTA DE LA HERRAMIENTA / LOS BORDES DE CORTE. En el corte de metal se genera una cantidad significativa de calor. Las altas temperaturas resultantes alrededor de los bordes de la herramienta de corte tiene una influencia directa sobre el desgaste de la herramienta de corte, son resultado de la fricción entre la viruta y la herramienta de corte, y también que entre la herramienta de corte y la superficie recién formada. El coeficiente de fricción entre la herramienta y la viruta varía considerablemente debido a los cambios en la velocidad de corte y al ángulo de inclinación resultante a altas presiones. La eliminación del calor generado se hace a través de la viruta, la pieza de trabajo y / o la herramienta. A medida que la distribución de la temperatura deja de ser uniforme, saber la cantidad exacta de calor que se transfiere a través de la herramienta no es sencillo. Sin embargo, se cree que la cantidad de calor eliminado o conducida a través de la viruta es aproximadamente el 90% del calor total generado, lo que implica que menos del 10% del calor es absorbido o dispersado a través de la herramienta y material de la pieza. Sarwar [11] desarrolló un sistema de imagen térmica para aplicaciones de corte de metal. Los datos de imagen térmica obtenidos mostraron que era posible cumplir el requisito de corte ortogonal. El trabajo adicional estaba en curso para extender el modelo y dar cabida a la naturaleza transitoria del de campo temperaturas durante las condiciones de corte dinámicas. Lin [5] en su intento de medir la temperatura de la herramienta de corte en línea durante un proceso de fresado ideo una relación inversa entre el tiempo real de la herramienta y la temperatura de la interfaz de la pieza de trabajo. El modelo diseñado se puso a Premio Colombiano de Informática ACIS 2011 5 prueba mediante la aplicación de una entrada de flujo de calor conocido y verificado la salida inversa. Los gráficos de la temperatura real de la fuente de calor y la estimada por el método propuesto mostraron desviaciones. Se procedió a probar el modelo con más calor de llama para verificar principalmente la incertidumbre en la medición de temperatura de un cuerpo en movimiento de calor. El principal inconveniente de este método parece ser la influencia de las mediciones de temperatura usando este modelo de las propiedades térmicas de la pieza de trabajo y el material de utillaje, y el pirómetro empleado tenía un rango de medida limitada de 0-500 °C. El conocimiento detallado de las propiedades térmicas del material de la pieza, como su densidad, la difusión térmica y la conductividad térmica se considera crucial para la realización de este método. Radulescu y Kapoor [12] diseñaron y probaron un modelo de análisis de predicción de la temperatura en un campo de la herramienta para su uso durante el corte continuo e interrumpido. Las pruebas mostraron que el modelado de la temperatura de la interfaz herramienta-viruta concuerda con las pruebas experimentales. Raman [13] propusó y desarrolló un modelo matemático para la medición de la temperatura de la herramienta durante el corte de basado en el control remote de sensores de termopar (RTS). La credibilidad del método mintió en el hecho de que la distribución de temperatura en el interfaz herramienta-viruta tenía una relación única característica entre la temperatura de la herramienta-viruta y la temperatura de termopar. El cambio de la temperatura del proceso de corte se determinó observando el comportamiento de la temperatura en el resto de la herramienta (disipador) a las variaciones en la fuente de la temperatura (punta de la herramienta). Una vez que el comportamiento entre el disipador y las temperaturas de origen se había establecido fue posible estimar durante la producción la temperatura del interfaz de la herramienta basada en la respuesta del termopar. Llegó a la conclusión de que el análisis matemático realizado fue bastante adecuado para RST, pero era más necesario un análisis para mejorar la técnica, ya que estaba todavía en su fase inicial de desarrollo. Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. Stephenson y Ali [14] llevaron a cabo estudios sobre los efectos de la temperatura en la herramienta en procesos de corte interrumpido de metal e informó de los resultados teóricos y experimentales. Las temperaturas medidas para una serie de condiciones de mecanizado resultaron depender de dos factores principales: • Longitud de los ciclos de corte. • Longitud del intervalo entre los ciclos de refrigeración. En general, las mediciones de temperatura suelen ser menores cuando el corte es interrumpido ocasionalmente que cuando el corte es continuo bajo las mismas condiciones de corte. Chow y Wright [15] idearon un método para la medición en línea de la temperatura del interfaz herramienta-viruta en un proceso torneado utilizando un termopar estándar insertado en la parte inferior del inserto de la herramienta. Los experimentos se realizaron a partir de los datos prácticos de corte que se recogieron para su comparación con las temperaturas del interfaz y poder predecirlas a partir de un modelo teórico. El análisis de los resultados obtenidos y verificados demostró que un aumento en el desgaste de la herramienta resultó debido a un incremento en la temperatura de corte. Llegaron a la conclusión de que los aumentos de la temperatura fueron principalmente debidos al desgaste de la herramienta, lo cual podría ser utilizado para efectuar la TCM durante el corte de metales. Kitagawa [16] presentó lo que podría ser considerado como el método experimental más interesante de la medición de la temperatura de las herramientas de corte en el filo. Se construyó un termopar de propósito especial a partir de los principios básicos usando dos puntas de carburo y un cristal de cuarzo para el aislamiento. Al cambiar la posición de salida del alambre de los circuitos implicados, afirmó que era possible medir la temperatura de interfaz en cualquier parte de la cara del flanco de la herramienta (es decir, los bordes de corte). Para validar este diseño, se llevaron a cabo una serie de cortes de prueba usando herramientas de corte con insertos afilaos y otros teóricamente gastados de forma artificial. De los análisis y las discusiones posteriores, se establecieron las dependencias de los tipos de cambio de temperatura Premio Colombiano de Informática ACIS 2011 6 en la longitud del flanco de desgaste para los cortes interrumpidos y continuos. Shaw [17] citó la complejidad de cualquier intento de predecir la temperatura de la cara significativa de la herramienta, ya que desafía las soluciones exactas. El propuso y evaluó una solución aproximada basada en el principio de trasladar la fuente de calor. Para aplicaciones prácticas, tales como el TCM en línea, la supervisión por termopar parece ser la única manera digna para medir la temperatura en el interfaz de la pieza-herramienta, pero no se puede obtener una medición directa de la distribución de temperatura en la cara de desprendimiento. Los anteriores intentos de medir la temperatura del filo de corte han demostrado ser excepcionalmente difíciles debido a la falta de acceso directo a la zona de corte. Este parámetro del proceso, aunque tengamos indicador de desgaste de una herramienta adecuada y deseable, es extremadamente difícil de medir con precisión para aplicaciones en línea como en la MTC, debido a la falta de acceso a la zona de corte. VI. LAS FUERZAS DE CORTE (DINÁMICA Y ESTÁTICA). Está ampliamente establecido que la variación en la fuerza de corte puede correlacionarse con el desgaste de la herramienta. En la práctica, la aplicación e interpretación de este parámetro ha sido diversa, se concentró con más esfuerzo en el estudio de la característica dinámica de la señal de fuerza de corte y la interpretación de su relación con los niveles de desgaste de las herramientas. Los TCMSs basados en la fuerza que suelen funcionar de forma independiente de los niveles de fuerza absoluta, miden el cambio relativo de la fuerza que se presenta cuando se utilize una herramienta nueva o cuando se rompe. Los experimentos han demostrado que las tres components de la fuerza de corte (Fig.3) responden de manera diferente a las diferentes formas de desgaste que ocurren en la herramienta. Por ejemplo, la fuerza de alimentación (Fx o Ff) es insensible al desgaste del cráter, mientras que las fuerzas de alimentación y radial (Fy o Fr) pueden Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. estar más influenciadas por desgaste de la herramienta que la fuerza del corte principal (Fz o Ft). Dimla [18,25] llevó a cabo una investigación experimental extensa y elaborada en el desarrollo de un sistema de supervisión en línea del desgaste de la herramienta para las operaciones de torneado de metales usando las mediciones de las fuerzas de corte, fusionadas con las vibraciones. El desgaste breve pero acumulado de los elementos de la herramienta, poco a poco la llevaban a un fallo catastrófico, esto se observó mejor en el dominio de la frecuencia, con ciertas frecuencias que correlacionan excepcionalmente con los cambios de fuerza dinámica. En general, el flanco y el desgaste de la punta se establecieron como mejores indicadores del desgaste de la herramienta que la mella de desgaste. Fig. 3. Componentes de la fuerza de corte en una herramienta de un solo punto durante el giro. Bayramoglu y Düngel [19] presentaron una investigación sistemática sobre el uso de las relaciones de fuerzas de corte en la CTM para operaciones de torneado. Los resultados demostraron que dos de las relaciones de fuerza eran particularmente sensibles al desgaste del flanco acumulado, lo que demuestra su potencial para aplicarlo en operaciones TCM. Lister [1] analizó la estructura de poder de las fuerzas de corte dinámico e informó de un incremento del nivel de energía en las bandas de frecuencia que llevaba la herramienta. Los resultados dieron a luz un fuerte indicador de la dependencia de la fuerza dinámica en la reducción de desgaste de la herramienta aunque no de una tendencia general. Premio Colombiano de Informática ACIS 2011 7 Fig. 4. Amplitud de la fuerza - tiempo (condiciones fijas de corte). Ravindra [2] desarrolló un modelo matemático para la estimación del desgaste de la herramienta que implicó la realización de experimentos de torneado en los que se estudió la progresión del desgaste y de las fuerzas de corte modelados por un método de análisis de regresión múltiple. Los experimentos indicaron que la tendencia al desgaste se propagaba al incrementar la velocidad de corte, y la aparición de inflexiones en las curvas de las plantillas de desgaste indican que hay un mecanismo predominante térmicamente controlado. Los diagramas tiempo-desgate y desgaste-fuerza parecían apoyar sus proposiciones, de las que concluyó que los experimentos habían proporcionado una prueba vital de una buena correlación entre el desgaste de los flancos y las fuerzas radiales de corte. Marques y Mesquita [20] investigaron la relación entre el desgaste sinterizado de las herramientas de corte de acero a alta velocidad y las fuerzas de corte asociadas. Los modelos teóricos utilizados consideraban independiente la influencia del flanco y el desgaste del cráter, y también la fuerza de abolladura (efecto de herramienta sin filo). Los tipos de pruebas realizadas consistieron en cortes de corta duración para establecer la relación entre fuerza-desgaste, y de más corta duración para observer la influencia progresiva de desgaste de las fuerzas. Ellos informaron de una buena correlación entre los resultados experimentales y teóricos. Kim y Lee [21] llevaron a cabo la modelización de las fuerzas de corte dinámico y los datos experimentales de prueba fueron reunidos y comparados con las predicciones de los modelos teóricos. Existía una buena concordancia entre los límites teóricos de la estabilidad y los datos experimentales. Sin embargo, en el rango de corte baja velocidad, se observó un deterioro entre los resultados del modelo y la experimentación, un Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. hecho que se atribuye al efecto de incorporarlo hasta el borde. Yao y otros [22] y, Yao y Fang [23] investigaron lo que describieron como un completo TCMS que incluía la medición del desgaste de los flanco mayor y menor, el cráter, y la punta, basada en el análisis de las fuerzas de corte dinámicas. Se seleccionaron ocho parámetros que describen las características desgaste deseadas. Se llevo a cabo un análisis disperso basado en medias móviles autoregresivas. Dos bandas de frecuencias distintas se obtuvieron en los tres ejes asociados con un mecanismo de tasa de desgaste de una cierta clase: una banda de baja frecuencia 0.5-1 Hz y una banda superior 2.6-3.5 kHz. Estas tendencias estaban de acuerdo con los valores de desgaste recogidos, por lo tanto, indispensable como sistema de supervisión del desgaste. El grado de variabilidad evidente en las fuerzas de corte en procesos de mecanizado requiere que algunas estimaciones de las fuerzas estáticas y dinámicas de corte sean conocidas. Las fuerzas de corte estáticas son necesarias para permitir que la velocidad de corte en la superficie el material de la pieza se mantenga dentro de la potencia disponible de la máquina herramienta. La medición de las fuerzas estáticas de corte o la fluctuación de sus componentes podrían proporcionar información valiosa sobre el comportamiento estático del proceso de corte. La naturaleza del proceso de corte es tal que no puede considerarse como algo "sin desviaciones y estable”. Las articulaciones, los acoplamientos de la máquina herramienta y los cambios en las condiciones de corte conducen a fluctuaciones en los componentes de las fuerzas estáticas. Es difícil predecir las condiciones bajo las cuales ocurre o seleccionar las condiciones de corte necesarias para corregir este fenómeno. Por lo tanto, para obtener una indicación de las fluctuaciones del sistema, las fuerzas dinámicas que necesitan ser conocidas y las estimaciones se obtienen directamente o se calculan como la componente de la frecuencia dependiente de las fuerzas de corte estáticas, como se muestra en la fig. 4. Premio Colombiano de Informática ACIS 2011 8 VII. VIBRACIÓN CARACTERÍSTICA (LAS SEÑALES DE ACELERACIÓN). Las vibraciones se producen por variaciones cíclicas en los componentes dinámicos de las fuerzas de corte. Las vibraciones mecánicas en general, son el resultado de movimientos ondulatorios periódicos. La naturaleza de la señal de vibración derivada del proceso de corte de metal es tal que incorpora las facetas de tipos libres, forzados, periódicas y al azar de las vibraciones. La medición directa de la vibración es difícil de lograr, debido a la complejidad de determinar su rasgo característico, el modo de vibración, ya que es dependiente de la frecuencia. El-Wardany [26] investigó el uso de las características de la vibración característica en la supervision en línea del desgaste y la rotura de la herramienta durante el taladrado. La vibración característica es sensible al desgaste de las herramientas, se identificaron en el tiempo (cociente del valor absoluto de la media y la curtosis) y los dominios de frecuencia (espectros de energía y la relación de cepstra). Los resultados experimentales mostraron que los valores de curtosis aumentan drásticamente con la rotura de la broca, mientras que el análisis de frecuencia reveló picos agudos que indican la rotura del taladro. Mediante la combinación de ambas técnicas, es posible diseñar un sistema de vigilancia eficaz de taladro. Yao [27] investigó la detección y la estimación del desgaste de las gargantas en el borde de corte de menor importancia de la herramienta mediante el control de la vibración característica. Su análisis mostró que la dispersión de la orientación de la fuerza de corte y la vibración eran sensibles a la longitud de desgaste de las gargantas con dos periodos: uno a una frecuencia muy baja, 200 Hz y el otro a una frecuencia alta 10000 kHz. Rotberg [28,29] estaba interesado en el análisis de la vibración característica para la predicción del estado de la herramienta durante el corte interrumpido. El énfasis estaba en la entrada de la herramienta de fresado y las condiciones de salida. Se llevaron a cabo experimentos en la cara de fresado y se midió el desgaste el flanco consiguiente y el cráter. La inspección de los gráficos indica que la señal de vibración fue un indicador adecuado de desgaste de la herramienta, ya que demuestra un cambio considerable durante la vida de la Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. herramienta. Tambien see centró en la vigilancia del desgaste de herramienta con la vibración como la señal principal. El análisis se realizó mediante dos modelos básicos caracterizados por sus señales características: baja frecuencia y alta frecuencia. Llegó a la conclusión de que su análisis mostró ciertas características peculiares y universales que son producto de las señales de vibración y que podrían ser aprovechadas en el desarrollo de un TCMS ya que tienen una buena correlación con el desgaste de la herramienta. La interrelación entre las señales de vibración y las fuerzas de corte determina la naturaleza dinámica del proceso de corte, haciendo atractiva la utilización de estos parámetros de proceso en el desarrollo de TCMSs. VIII. DIVERSOS DETECTORES Y MÉTODOS. Generalmente hablando, otras variedades de sensores han sido empleados en varios intentos de predicción, seguimiento o mediciones de los parámetros de proceso de desgaste de la herramienta en un proceso de corte de metal. Estos métodos caen principalmente en las siguientes categorías: • Métodos ópticos. • Medición de tensión / deformación. • Métodos basados en la medición de la dimensión de la pieza. • Medición de la calidad del acabado superficial. • Métodos de ultrasonidos. A. Métodos ópticos. Martin [5] resume en una revisión los métodos ópticos que han sido propuestos para las mediciones de desgaste de la herramienta, estos métodos fueron los siguientes: • Láser de medición del acabado superficial. • Fotodiodos utilizados en la medición de la luz reflejada desde el borde de corte. • Fotocélula de fibra óptica para la medición de la reflectancia de las zonas desgastadas y sin uso del flanco de la herramienta. Premio Colombiano de Informática ACIS 2011 9 Claramente, ninguno de estos métodos es aplicable en un escenario TCMS, es difícil lograr incluirles en el proceso de medición de desgaste de herramientas. La determinación del desgaste de la herramienta a partir de imágenes procesadas de la herramienta de corte ha sido perseguida durante más de tres décadas. En esencia, una imagen de la herramienta es capturada y mostrada en una pantalla de televisión, y luego se analiza para proporcionar información sobre el patrón de desgaste o la cantidad de desgaste acumulado. Kurada y Bradley [3] presentan una revisión del principio básico, instrumentación y sistemas varios de procesamiento de imagen involucrados en el desarrollo de una visión basada en TCMS. Oguamanam [30], Du [31] y Cuppini [32] llevaron a cabo la aplicación de este método. En Oguamanam el sistema de visión artificial se utiliza para fines de supervisión. Para cualquier imagen dada, se extrajeron cinco características de la imagen y se utilizaron para clasificar el estado de la herramienta. Algoritmos informáticos amplios de procesamiento de imágenes se han desarrollado para capturar la imagen, segmentarla y luego identificar el estado de la herramienta de la imagen digitalizada. Du por el contrario trató de idear un método óptico en línea utilizando un sensor óptico "fuera de la plataforma” para detectar las condiciones de la herramienta. El sensor fue conocido por la captura de la imagen de los bordes de la herramienta y la conversión de la imagen en píxeles para el tratamiento por ordenador. El perfil de la herramienta obtenida podía ser filtrado y representado por una matriz de números para la comparación con la del perfil de la herramienta maestra. Las técnicas antes mencionadas son inflexibles, caras, y no puede ser aplicada realmente en línea. Shiraishi [4] a través de varios años de investigación y su experiencia, cito que los métodos ópticos basados en TCM están plagados de inexactitudes altas y no son fiables. B. Mediciones de la tensión / deformación. Noori-Khajavi y Komanduri [33] han usado entre otros sensores, sensores de tensión en su estudio de la correlación de los parámetros del desgaste en el proceso de taladrado. Las señales registradas se analizaron tanto en el tiempo y los Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. dominios de frecuencia, pero la correlación significativa del desgaste del taladrado sólo se podría lograr en el dominio de la frecuencia. Lee [24] propusó otro método basado en análisis de esfuerzos de carga en tres dimensiones. Ellos combinaron el análisis de tensión FEA y detallaron los filos de corte y las puntas de las herramientas afiladas y gastadas, con esto concluyeron que era posible predecir el modo y la ubicación del fallo de la herramienta. C. Dimensión de la pieza de trabajo. El-Gomayel y Bregger [31] propuso un método para la vigilancia del desgaste de la herramienta basándose en las mediciones de la desviación de la pieza. Ellos emplearon dos sondas electromagnéticas en los lados opuestos de la pieza de trabajo de tal manera que las ondas electromagnéticas podían fluir desde la sonda al metal permitiendo mediciones exactas del diámetro de la pieza. Los incrementos en el diámetro de la pieza fueron utilizados como un criterio desgaste de herramientas que requieren un procedimiento de calibración elaborada. Los resultados se vieron afectados por varios factores como vibraciones, deformaciones y defectos de alineación. Llegaron a la conclusión de que aunque su modelo podría medir el desgaste de la herramienta por minuto, no podía cuantificarlo (es decir, distinguir el desgaste de la punta y el desgaste del flanco). D. Magnetismo. Jetley y Gollajesse [34] propusieron la magnetización de los insertos de herramientas y, a continuación, el control de la reducción del flujo de campo magnético que llevaba la herramienta. Se diseñó un estudio preliminar de investigación que implique el uso de taladros magnetizados y se implementó con el fin de validar su metodología. Llegaron a la conclusión de que era posible predecir con exactitud el final de vida de la herramienta o fractura "en línea" mediante la observación del flujo magnético, y el sistema era rentable con potencial para su aplicación en la mayoría de los entornos de corte de metales. E. Métodos de ultrasonido. Abu-Zahra y Nayfeh [35] desarrollaron un método normalizado de la señal ultrasónica basado en la calidad y el análisis para el control del Premio Colombiano de Informática ACIS 2011 10 desgaste de herramientas para operaciones de torneado. Deliberadamente diseñaron un portaherramientas donde acomodar el transductor ultrasónico que se utilizó para medir desgaste gradual del flanco y la punta. El análisis consistió en comparar las formas de onda registradas sin desgaste y se utiliza con insertos de desgaste acumulado. La inspección de los resultados mostró una buena correlación entre los valores medidos de desgaste y el cambio absoluto en las ondas ultrasónicas. El desarrollo del sistema requiere un porta-herramientas especial, ellos reconocieron que para la comercialización se requiere una herramienta más versátil para el acoplamiento del transductor que le permita adaptarse a los diversos portaherramientas y a la geometría de los insertos. IX. TCMS EL DESARROLLO DE UNA PERSPECTIVA DE LOS SENSORES DE SEÑALES. La precisión y la tolerancia en una pieza de trabajo terminado se pueden determinar por desviaciones en el punto de corte de los movimientos requeridos de trabajo entre la herramienta y la pieza de trabajo. El proceso de selección de parámetros para el desarrollo de un TCMS tiene que tener en cuenta, la robustez, fiabilidad y aplicabilidad de las señales de los sensores, deben ajustarse a los siguientes criterios: • Fácil de medir. • Tienen un elevado ratio de detección de señales a ruido, aunque podría mejorarse mediante la aplicación de filtros RC. • Consistente sensibilidad al desgaste. • Requieren un mínimo de instrumentos periféricos para su aprovechamiento. Diferentes operaciones de mecanizado requieren diferentes velocidades de corte, mientras que el corte puede ser continuo (varias horas) o interrumpido (pocos segundos). Las malas condiciones de corte dar lugar a un aumento de las fuerzas, las energías y la temperatura de la herramienta lo que resulta una mayor tasa de desgaste de herramientas. El corte a alta velocidad Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. de avance provoca un aumento de la temperatura sobre la cara de la herramienta resultante y aumenta el desgaste cráter. A bajas velocidades, se forman los filos de aportación. Es difícil predecir exactamente la magnitud de las fuerzas de corte a velocidades de corte específicas. X. SENSORES FUSIÓN-SINERGIA DE INTEGRACIÓN DE LA SEÑAL. Los sensores para el seguimiento de procesos de ingeniería están diseñados generalmente para medir un parámetro deseado (por ejemplo, los acelerómetros) y luego lo correlacionan con el proceso pertinente (por ejemplo, vibración caracteristica). Durante la medición, la magnitud particular es tal que el principal componente de la señal tiene la determinación de la distorsión de algún tipo (ruido). Si la cantidad de ruido en la señal es alta, entonces en la magnitud a medir se obtiene una correlación significativa con la cantidad deseada, pero si es baja lo contrario es cierto. La fusión de sensores combina el ruido dominante con las facetas de probabilidad mediocre (similar o contradictoria) de las señales individuales para obtener un mejor resultado. La elección de un tipo de sensor adecuado así como el punto de aplicación está íntimamente relacionado con estar en un lugar adecuado donde la señal especificada tiene la mayor concentración y mejor reproducibilidad. La información procedente de varios sensores diferentes tiene que ser recogida e integrada en estas señales de fiabilidad variable. La fusión de sensores tiene los siguientes fines: • Realza la riqueza de la información del nivel de desgaste subyacente contenida en cada señal. • Aumenta la fiabilidad del proceso de seguimiento ya que la pérdida de sensibilidad en una señal puede ser compensada por otra. El uso de la señal de un solo sensor en el desarrollo de un TCMS no reconoce la naturaleza compleja y diversa del proceso de corte. Cuando los sensores se fusionan, los requisitos de la tarea son normalmente determinar la estructura de los datos resultantes fusionados. El Premio Colombiano de Informática ACIS 2011 11 método competitivo de fusión de datos sería beneficioso en un TCMS con variables múltiples porque cuando las señales de los diversos sensores se fusionan, se refuerzan o contradicen con cada señal de sensor individual. Si todas las señales de los sensores están orientadas a medir el mismo parámetro, como por ejemplo el desgaste de la herramienta, entonces si los diversos informes de un patrón de comportamiento son similares al nivel de aumento del desgaste de la herramienta, se desarrolla un aumento de la confianza en el parámetro de interés (el desgaste). Si los sensores reportan valores diferentes, tiene que ser establecida una razón para la discrepancia. La fusión de sensores complementarios extrae las diferencias relativas de los sensores para aumentar las ventajas, al tiempo que cubre las desventajas de los sensores individuales. La decisión en cuanto a que señal del sensor se necesita y cuántos utilizar en un TCMS es realmente una decisión difícil de hacer. Una consideración es el costo del éxito de aprovechar cualquier señal del sensor elegido. En caso de interferencia con los procesos de mecanizado, por ejemplo una herramienta con un voladizo exagerado, los efectos de tal exageración deben ser conocidos en las señales dinámicas. XI. CONCLUSIONES. Se ha llevado a cabo la evaluación de la adecuación y la sensibilidad de los parámetros de procesos más utilizados para desgaste de la herramienta, y su aplicación potencial para el éxito en línea del TCM, basado en la facilidad de utilización y la fiabilidad. Claramente, las fuerzas de corte (estática y dinámica) y la vibración (aceleración) se consideran los parámetros más ampliamente aplicables. Deben ser conocidos los avances y la sofisticación creciente de la tecnología de la instrumentación empleada para que las mediciones de estos parámetros sean viables, prácticas, rentables, robustas, fáciles de montar y tener el tiempo de respuesta rápida necesaria para indicar los cambios de la supervisión en línea. El estudio también sugiere que los TCMSs más desarrollados no han tenido éxito práctico Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. primordialmente por que la información del sensor era inadecuada y los modelos del proceso de mecanizado que se han utilizado no reflejan satisfactoriamente la complejidad del proceso. Se trata de desarrollar un sistema que pueda ser empleado en el control sistemático y diagnosticar las condiciones de corte de las herramientas tales como los niveles de desgaste, astillado y / o fractura, mediante el aprendizaje y la identificación de los estados de la herramienta, y por lo tanto reconocer y localizar los escenarios de fallo de las herramientas. La mejora de los TCMS es necesaria para dar cabida a la naturaleza compleja y diversa de la operación de corte de metal. REFERENCIAS [1] P.M. Lister. On-line measurement of tool wear. Ph.D. thesis, Manufacturing and Machine Tools Division, Department of Mechanical Engineering, UMIST, Manchester, UK, 1993. [2] H.V. Ravindra, Y.G. Srinivasa, R. Krishnamurthy, Modelling of tool wear based on cutting forces in turning,Wear 169 (1993) 25–32. [3] S. Kurada, C. Bradley, A review of machine vision sensors for tool condition monitoring, Computers in Industry 34 (1) (1997) 55–72. [4] M. Shiraishi, Scope of in-process measurement, monitoring and control techniques in machining processes—Part 1: Inprocess techniques for tools, Precision Engineering 10 (4) (1988) 179–189. [5] K.F. Martin, J.A. Brandon, R.I. Grosvenor, A. Owen, A comparison of in-process tool wear measurement methods in turning, in: Proceedings International 26th MATADOR Conference, Manchester, UK, 1986, pp. 289–296. [6] D. Choi, W.T. Kwon, C.N. Chu, Real-time monitoring of tool fracture in turning using sensor fusion, International Journal of Advanced Manufacturing Technology 15 (5) (1999) 305–310. [7] S. Kakade, L. Vijayaraghavan, R. Krishnamurthy, In-process tool wear and chip-form monitoring in face milling operation using acoustic emission, Journal of Material Processing Technology 44 (1994) 207–214. [8] T. Blum, I. Inasaki, A study on acoustic emission from the orthogonal cutting process, ASME Trans. Journal of Engineering for Industry 112 (3) (1990) 203–211. [9] T. Moriwaki, M. Tobito, A new approach to automatic detection of life of coated tool based on acoustic emission measurement, ASME Trans. Journal of Engineering for Industry 112 (3) (1990) 212–218. [10] J. Roget, P. Souquet, N. Gsib, Application of acoustic emission to the automatic monitoring of tool condition during machining, ASNDT Materials Evaluation 46 (1988) 225–229. [11] M. Sarwar, J. Li, R. Penlington, W. Ahmed, Development of thermal imaging systems for metal cutting applications, in: Proceedings Advanced Manufacturing Processes Systems Premio Colombiano de Informática ACIS 2011 12 and Technologies Conference (AMPST ’96), Bradford, UK, 1996, pp. 361–369. [12] R. Radulescu, S.G. Kapoor, An analytical model for prediction of tool temperature fields during continuous and interrupted cutting, ASME Trans. Journal of Engineering for Industry 116 (2) (1994) 135–143. [13] S. Raman, A. Shaikh, P.H. Cohen, A mathematical model for tool temperature sensing, ASME Computational Methods in Materials Processing, PED 61 (1992) 181–193. [14] D.A. Stephenson, A. Ali, Tool temperatures in interrupted metal cutting, Winter Annual Meeting of the ASME, PED 43 (1990) 261–281. [15] J.G. Chow, P.K. Wright, On-line estimation of tool/chip interface temperatures for a turning operation, ASME Trans. Journal of Engineering for Industry 110 (1988) 56–64. [16] T. Kitagawa, K. Maekawa, T. Shirakashi, E. Usui, Analytical prediction of flank wear of carbide tools in turning plain carbon steels (Part 1), Bull. Japan Soc. Precision Engineering 22 (4) (1988) 263–269. [17] M.C. Shaw, Temperature in cutting, ASME Proceedings Symposium on Thermal Aspects in Manufacturing 30 (1988) 133–143. [18] D.E. Dimla Snr, Tool wear monitoring using cutting force measurements, in: 15th NCMR: Advances in Manufacturing Technology XIII, University of Bath, 6–8 September, 1999, pp. 33–37. [19] M. Bayramoglu, U¨ . Du¨ngel, A systematic investigation on the use of force ratios in tool condition monitoring for turning operations, Trans. Institute of Measurement and Control 20 (2) (1998) 92–97. [20] M.J.M. Marques, R.M.D. Mesquita, Monitoring the wear of sintered high-speed steel tools, Journal of Material Processing Technology 25 (1991) 195–213. [21] J.S. Kim, B.H. Lee, An analytical model of dynamic cutting forces in chatter vibration, International Journal of Machine Tools and Manufacture 31 (3) (1991) 371–381. [22] Y. Yao, X.D. Fang, G. Arndt, Comprehensive tool wear estimation in finish-machining via multivariate timeseries analysis of 3-D cutting forces, Annals of the CIRP 39 (1) (1990) 57–60. [23] Y. Yao, X.D. Fang, Modelling of multivariate time series for tool wear estimation in finish-turning, International Journal of Machine Tools and Manufacture 32 (4) (1992) 495–508. [24] L.C. Lee, K.Y. Lam, X.D. Liu, Characterisation of tool wear and failure, Journal of Materials Processing Technology 40 (1994) 143–153. [25] D.E. Dimla Snr, P.M. Lister, On-line metal cutting tool condition monitoring—I: Force and vibration analyses, International Journal of Machine Tools and Manufacture 40 (5) (2000) 739–768. [26] T.I. El-Wardany, D. Gao, M.A. Elbestawi, Tool condition monitoring in drilling using vibration signature analysis, International Journal of Machine Tools and Manufacture 36 (6) (1996) 687–711. [27] Y. Yao, X.D. Fang, G. Arndt, On-line estimation of groove wear in the minor cutting edge for finish machining, Annals of the CIRP 40 (1) (1991) 41–44. [28] J. Rotberg, S. Braun, E. Lenz, Mechanical signature analysis in interrupted cutting, Annals of the CIRP 36 (1) (1987) 249–252. [29] J. Rotberg, S. Braun, E. Lenz, Vibration generation models for cutting tool monitoring, Diagnostics, Vehicle Dynamics Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas. and Special Topics—ASME Design Engineering Division 18 (5) (1989) 1–6. [30] D.C.D. Oguamanam, H. Raafat, S.M. Taboun, A machine vision system for wear monitoring and breakage detection of single-point cutting tools, Computers in Industrial Engineering 26 (3) (1994) 575–598. [31] R. Du, B. Zhang, W. Hungerford, T. Pryor, Tool condition monitoring and compensation in finish turning using optical sensor, ASME Symposium Mechatronics, PED 63 (1993) 245–251. [32] D. Cuppini, G. D’Enrrico, G. Rutelli, Tool image processing with application to unmanned metal-cutting, a computer vision system for wear sensing and failure detection, SPIE 701 (1986) 416–422. [33] A. Noori-Khajavi, R. Komanduri, Frequency and time domain analyses of sensor signals in drilling—I. Correlation with drill wear, International Journal of Machine Tools and Manufacture 35 (6) (1995) 775–793. [34] S.K. Jetley, A. Gollajesse, Measuring tool wear using magnetism, in: Proceedings: Japan–USA Symposium Flexible Automation—A Pacific Rim Conference, July 11– 18, Kobe, Japan, 1994, pp. 345–347. [35] N.H. Abu-Zahra, T.H. Nayfeh, Calibrated method for ultrasonic on-line monitoring of gradual wear during turning operations, International Journal of Machine Tools and Manufacture 37 (10) (1997) 1475–1484. Premio Colombiano de Informática ACIS 2011 13 Universidad de León. Prego López. Estudio de mercado automovilístico. 1 Estudio de mercado sobre la viabilidad de un concesionario y taller de turismos. Prego López, Nerea [email protected] Universidad de León: Facultad de ingeniería industrial e informática. Resumen— Este proyecto se llevó a cabo con el objetivo principal de evaluar cuál es la situación actual del mercado del automóvil en España. Así que hemos realizado un estudio de mercado y un estudio de viabilidad técnica y económica. Nuestro proyecto se encuentra en un polígono industrial llamado "Río do Pozo", que está en Narón, A Coruña. Se han estudiado todos los posibles competidores principales en esa zona, clientes y proveedores. El siguiente paso fue el análisis de la viabilidad económica, en la que hemos calculado una serie de valores económicos como el VAN, TIR, etc. Después de considerar todos estos factores, llegamos a la conclusión de que es muy arriesgado probar suerte con este tipo de negocio en España en estos momentos. Índice de Términos—estudio de mercado, sector automovilístico. I. INTRODUCCIÓN El presente proyecto está destinado al estudio y análisis del mercado automovilístico en España. El peticionario nos encarga este estudio para conocer cuál sería la situación actual de este mercado, y así tener datos suficientes para decidir si seguir adelante o no con su idea de implantar un taller y concesionario de turismos en una nave situada en el polígono industrial Río do Pozo en Narón, A Coruña. II. ESTUDIO DE MERCADO Para comenzar este estudio, lo primero que hemos tenido que hacer ha sido un estudio del mercado automovilístico a nivel internacional. Remontándonos al año 2005, en ese año China se convirtió en el segundo mercado automovilístico más importante del mundo, por delante incluso de Japón, creciendo las ventas un 15% ese año. Eso sí, EEUU seguía manteniéndose en un inalcanzable primer puesto en este mercado. Sin embargo en poco tiempo la crisis llegó a este mercado, con la subida de los precios del petróleo III Congreso de cibernética y del acero, y la ralentización de la demanda, la venta de automóviles se empezó a ver seriamente afectada a partir de ese año. Sin embargo, datos más recientes apuntan a que Rusia se convertirá en el líder de este mercado hacia el año 2015. A nivel nacional es obligado decir que la industria del automóvil ha sido clave en la industrialización de España y un pilar básico para nuestra economía. Sin embargo, este sector se ha visto muy afectado estos últimos años por la crisis, disminuyendo enormemente la demanda y las matriculaciones. Sin embargo, esta crisis no ha afectado de igual manera a todas las marcas de automóviles ni a todas las clases de vehículos. El sector menos afectado es el que se dedica a la producción de turismos, representando en el año 2008 un 76% de la producción total. Además, en ese mismo año las únicas marcas de turismos que no experimentan ninguna bajada en su producción son Volkswagen y Daimier Chrysler, aunque sí disminuyó su número de matriculaciones. Como balance general de la situación en España, en 2008 las matriculaciones de vehículos disminuyeron un 29,7% respecto al año 2007. Pero la situación continuó empeorando el año siguiente, en 2009, en cuyo primer trimestre la marca más vendida fue Citröen, pero acusando un descenso en las matriculaciones de un 41,9% respecto del mismo período del año 2008. Por último y ya hablando de datos más actuales, a principios de enero de 2011 se vendieron un 23% menos de coches que en el año 2010. [1] A. Distrito industrial. FACONAUTO(Federación de Asociaciones de Concesionarios de la Automoción) es la patronal que integra las asociaciones de concesionarios Universidad de León. Prego López. Estudio de mercado automovilístico. oficiales de las marcas automovilísticas presentes en el mercado español. FACONAUTO, a nivel nacional, es miembro de pleno derecho de la Confederación Española de Organizaciones Empresariales(CEOE), de la Confederación Española de Pequeñas y Medianas Empresas(CEPYME), de la Confederación Española del Comercio(CEC) y del Foro de Automoción, cúpula empresarial que representa al sector de la automoción español ante el gobierno y las administraciones públicas y trata de promover las mejores condiciones de competitividad para las empresas del sector. A nivel europeo, FACONAUTO es miembro de ICDP (International Car Distribution Programme), entidad que colabora con la Comisión Europea, los Fabricantes de automóviles y vehículos industriales y las Redes de Distribución mediante un Programa de investigación y seguimiento continuo de la distribución, venta y postventa en el Sector de la Automoción. [2] B. Competidores potenciales. Los principales competidores potenciales serán todos aquellos concesionarios ubicados en las áreas más próximas al nuestro, el cual está situado en Narón. Justo en los alrededores más próximos apenas existe competencia. Sin embargo si nos distanciamos un poco más analizando la provincia entera de A Coruña, veremos que hay bastantes empresas ya instaladas trabajando ya en este sector. A continuación, a modo resumen mencionamos algunos de los concesionarios de primeras marcas de automóviles que trabajan en la provincia de A Coruña : Alfa Romeo, Fiat, Ford, Honda, Audi, Citroën, BMW, Cadillac, Chevrolet, ChryslerLancia, Land Rover, Mazda, Mercedes, Mini, Mitsubishi, Nissan, Opel, Peugeot, Renault, Saab, Smart, Seat, Skoda, Ssangyong, Subaru, Suzuki, Toyota, Volkswagen, Volvo, etc. [3] C. Clientes y proveedores potenciales. Los clientes potenciales serán todos aquellos habitantes de los alrededores de Narón, y, siendo optimistas y suponiendo que estarán dispuestos a desplazarse una cierta distancia, podemos considerar también como clientes potenciales a los III Congreso de cibernética 2 habitantes ubicados también en toda la provincia de A Coruña. Como proveedores, tras realizar una pequeña investigación en toda la geografía española, hemos llegado a la conclusión de que nuestra empresa dispondrá de proveedores de todo tipo sin ningún problema, estando éstos distribuidos de forma uniforme por toda España. Pero, es también interesante analizar la distribución de las fábricas de vehículos (listos ya para su venta) por marcas, puesto que nuestra empresa pretende vender turismos ya fabricados, y no fabricarlos. [4]-[5]. Para ello es muy ilustrativo el siguiente mapa: Fig.1-DISTRIBUCIÓN DE FABRICANTES DE COCHES EN ESPAÑA. D. Fuerzas competitivas de Porter. 1) Intensidad de la competencia. En función de las marcas de automóvil y según datos recogidos por la ANFAC, las matriculaciones de turismos en España este último año 2011 han sido mayoritariamente de las marcas Seat, Volkswagen y Ford, como podemos ver en la Fig.2. 64058 63670 71608 64928 58236 59198 73524 39666 38967 Volkswagen Ford Citroën Seat Audi Toyota Nissan Opel Renault Peugeot 38134 Fig. 2-MATRICULACIONES DE TURISMOS EN ESPAÑA EN 2011 Universidad de León. Prego López. Estudio de mercado automovilístico. En la Fig.3 podemos destacar que los segmentos más solicitados en el mercado español durante el año 2011 fueron el pequeño (27,2%) y el mediobajo (28,5%). 4602 55604 9153 32566 30659 14156 2456 13899 7051 219786 84650 103165 230312 Micro Pequeño Medio-bajo Medio-alto Deportivo Ejecutivo Lujo Monov.pequeño Monov.grande TT pequeño TT medio TT grande TT lujo Fig.3-MATRICULACIONES DE TURISMOS POR CLASES EN 2011. Por último, mencionar que comparando los datos de matriculaciones del 2011 con los del 2010, en la Fig.4 vemos que los únicos tipos de vehículos que no han disminuido sus matriculaciones durante el 2011 son los de lujo (+83,1%), los Todo terreno pequeños (+22,2%) y los Monovolúmenes grandes (+11,3%). [6]-[7]. 100 80 60 40 20 0 -20 -40 3 2) Competidores potenciales. Tras todo lo analizado anteriormente, hemos llegado a la conclusión de que nuestros principales competidores serán empresas españolas situadas en la zona de la provincia de A Coruña, y de forma menos significativa, la zona centro y norte de España. Por lo tanto, para determinar qué clase de concesionario queremos construir, debemos analizar los datos del apartado anterior. Desde nuestra ubicación en Narón (A Coruña) tenemos una relativa cercanía con distintos proveedores (tanto de automóviles como de recambios o materiales), lo malo es que no tenemos muy buena situación para la distribución, pero no es un gran problema puesto que nuestros principales compradores serán los clientes locales y no tenemos pensado exportar. La ventaja de montar este tipo de negocio, es que vamos a trabajar con marcas de automóviles ya conocidas y afianzadas con una buena reputación en el mercado, por lo que los principales proveedores serán conocidos también y con muchos años de experiencia en el mercado. Del apartado anterior, vemos que nuestros principales competidores a nivel nacional previsiblemente serán las marcas Seat, Volkswagen y Ford, por tener el mayor número de matriculaciones durante el último año 2011. 3) Productos sustitutivos. En el sector automovilístico, que es el que nos ocupa, existen numerosos productos sustitutivos, por ejemplo las motocicletas, bicicletas, transporte Micro público, etc. De todos ellos, los más usados por 83,1 Pequeño los consumidores para sustituir el turismo Medio-bajo particular son las motos y sobre todo el transporte Medio-alto público. De estos dos mencionados, el último es el Deportivo más popular, puesto que es el medio más Ejecutivo económico de viajar. Debemos mencionar que en España el 10,5% de la población utiliza el autobús Lujo 22,2 como su medio de transporte principal. 11,3 Monov.peq. Cada día más se fomenta el uso del transporte -1,3 Monov.grande -20,6 -16,1 público, que, aunque no supone un gran peligro TT peq. -5,4 para nuestra industria, debemos tener en cuenta TT medio que en los últimos años muchas ciudades están -20 -15,3 -16,8 -20,3 TT grande reivindicando el abuso del uso del coche y los -33,9 -32,8 TT lujo problemas que conllevan en relación a contaminación y aparcamiento público. Por ello la Fig. 4- VARIACIÓN PORCENTUAL EN LAS MATRICULACIONES DE TURISMOS POR CLASES(ESPAÑA,2011) gente está empezando a utilizar transporte público para acceder a las zonas más transitadas de las III Congreso de cibernética Universidad de León. Prego López. Estudio de mercado automovilístico. 4 -Número de proveedores: En el sector del automóvil no existen muchos proveedores por lo que éstos tienen alto poder de negociación ya que a las empresas les interesa que los proveedores fabriquen solamente para ellos. -Coste de cambio de proveedor: Las piezas que suministran los proveedores a los fabricantes de coches son modelos únicos diseñados por la propia empresa, modelos que no posee la competencia, para ello hay que adaptar las instalaciones de los proveedores para poder fabricar esas piezas exclusivas. -Que no existan productos sustitutivos: Esto no sucede en este sector, los proveedores no tienen que competir con otros proveedores, solo tienen que suministrar las piezas bajo las especificaciones que le ha dado la empresa -La empresa no supone un cliente importante: En este sector el poder de negociación del proveedor es bajo ya que los clientes que tienen (los fabricantes) son siempre clientes importantísimos ya que solo trabajan para ellos. -Posibilidad de integración aguas abajo: Cuando el proveedor principal puede convertirse en un nuevo competidor esta posibilidad representa una amenaza real para la empresa -El producto que venden es importante para el comprador: En este sector la evolución de los proveedores está vinculada a la marcha del sector y por eso serán propensos a aplicar condiciones de suministro razonables. -Número de clientes: En este sector del automóvil lo general es que el poder de negociación lo tengan las empresas ya que distribuyen a través de sus propias redes que son los concesionarios e imponen sus precios sin alternativa. -Posibilidad de integración aguas arriba: Este hecho no es habitual en el sector del automóvil ya que el cliente va al concesionario y éste se encarga de que el cliente adquiera el vehículo. -Rentabilidad de los clientes: En este sector no es habitual que esto suceda pero en el caso de que un cliente realice un pedido considerable sí que se puede llegar a un acuerdo con la empresa para disminuir costes de compra. -Coste de cambio de proveedor para el cliente: Esto no sucede en el sector del automóvil porque los clientes son finales, los propios consumidores. -Peso de nuestro suministro sobre ventas del cliente: Los clientes estarán menos dispuestos a rebajar nuestros precios en la medida que nuestros suministros representen un porcentaje pequeño de sus costes y viceversa. Aunque esto no sucede en las empresas fabricantes de coches. -Productos estándares o no diferenciados: El poder de negociación del cliente en este aspecto en el sector del automóvil es casi nulo ya que todas las empresas ofrecen productos diferenciados. -El producto no es importante para la calidad del producto del comprador: En este caso el cliente depende mucho del proveedor ya que son productos de alto precio y según las prestaciones que elija el cliente tendrá que recurrir a una marca u a otra. -El comprador tiene información total: Para realizar la compra de un vehículo el cliente requiere toda la información posible del producto. Los fabricantes de coches facilitan toda la información a través de la publicidad y de la información que ofrecen los propios concesionarios. 5) Poder negociador de clientes. Los compradores compiten en el sector forzando la bajada de precios o más servicios y haciendo que los competidores compitan entre ellos. Su poder sobre el sector es mayor o menor en base a los siguientes elementos [8]: III. ESTUDIO DE VIABILIDAD TÉCNICA En este estudio de viabilidad técnica lo que vamos a hacer es estudiar las posibilidades de éxito al implantar un taller y concesionario de turismos en una nave ya construida. ciudades y las autoridades cada vez más procuran dificultar el acceso en vehículo a esas zonas para fomentar el uso del autobús [8]. 4) Poder negociador de proveedores. En este apartado hablamos de las amenazas que con su actuación pueden introducir los proveedores en las expectativas del sector. Un grupo de proveedores es poderoso si se da alguna de las siguientes circunstancias [8]: III Congreso de cibernética Universidad de León. Prego López. Estudio de mercado automovilístico. A. Trabajo del taller. Tras analizar detenidamente la situación, se ha llegado a la conclusión de que la mejor distribución de las máquinas en la zona de taller es la distribución funcional, la cual consiste en colocar juntos el mismo tipo de máquina en la misma zona del taller, ya que en nuestro taller se van a reparar vehículos, y no a fabricarlos [9]. La maquinaria a utilizar en ese taller será la necesaria para realizar las funciones de reparación mecánica, eléctrica, carrocería, pintura, reparación de radiadores y reparación de los equipos de inyección [10]. Además, el personal del taller debe estar especializado en todos los tipos de reparaciones de turismos descritas anteriormente [11]. B. Impacto ambiental. A raíz del hecho de que en nuestra nave se van a llevar a cabo tareas de reparación de automóviles, nuestro proyecto deberá cumplir con una serie de normas y leyes destinadas a la protección del medio ambiente. Las leyes a tener en cuenta las mencionamos a continuación: -Ley 1/1995, de 2 de enero, de protección ambiental de Galicia [12]. -Decreto 133/2008, de 12 de junio, por el que se regula la evaluación de incidencia ambiental en Galicia [13]. -Real Decreto 679/2006, de 2 de junio, por el que se regula la gestión de los aceites industriales usados [14]. -Real Decreto 833/1988, de 20 de julio, por el que se aprueba el reglamento para la ejecución de la Ley 20/1986, Básica de residuos tóxicos y peligrosos [15]. -Decreto 174/2005, de 9 de junio, por el que se regula el régimen jurídico de la producción y gestión de residuos y el registro general de productores y gestores de residuos de Galicia [16]. IV. ESTUDIO DE VIABILIDAD ECONÓMICA. A. Estimación de la inversión inicial. La estimación inicial del capital necesario para la inversión inicial es el reflejado a continuación: III Congreso de cibernética 5 Tabla I ESTIMACIONES ECONÓMICAS DEL PROYECTO. PARTIDA COSTE(€/año) Maquinaria, herramientas y adaptación del local como taller (700 m2) Vado permanente Coste de alquiler de la nave Coste de apertura Constitución de la sociedad anónima Permisos Seguro Otros materiales de producción (trapos, brocas, aceite, gasolina…) Otros gastos TOTAL 250.000 € 5.000 € 24.000 € 3.500 € 60.000 € 300.000 € 12.000 € 15.000 € 200.000 € 869.500 € Esta gran inversión sería necesaria solo el primer año de ejercicio de la empresa, de esa fecha en adelante el gasto sería menor pues no habría que pagar determinados permisos y licencias, maquinarias, adaptación de las instalaciones…todo eso forman parte únicamente de los gastos iniciales. B. Presupuesto de pagos y cobros. 1) Ingresos anuales estimados. En España disponemos de 14 días festivos al año, por lo tanto los días laborables anuales, descontando los sábados, los domingos (que nuestra empresa no los trabaja) y los festivos, son un total de 255. Vamos a suponer que los electromecánicos de los talleres, son capaces de reparar al día 10 vehículos con averías leves, y 12 vehículos con averías más laboriosas a la semana, es decir, 2,4 al día. Además, vamos a estimar unas ventas anuales medias de 25 automóviles nuevos y 60 automóviles de segunda mano. Con estos datos, poniendo un precio medio de 300 € por avería leve y de 1.000 € por avería más seria, y precio medio de 20.000 € por vehículo nuevo y de 10.000 € por vehículo de segunda mano, calculamos los ingresos anuales por reparaciones y ventas de: Tabla II ESTIMACIÓN ECONÓMICA DE INGRESOS DEL PROYECTO. Concepto Cantidad año Ingreso Reparación averías leves Reparación averías serias Automóviles nuevos vendidos Automóviles de 2ª mano vendidos TOTAL 2.550 612 25 765.000 € 612.000 € 500.000 € 60 600000 € 2477000 € Universidad de León. Prego López. Estudio de mercado automovilístico. -Sueldos. Un cálculo estimado del gasto correspondiente a los sueldos de los empleados del taller, recepcionista, comerciales, administrativos…etc asciende a aproximadamente 314.160 € al año. -Otros gastos. En este apartado podemos incluir los gastos del alquiler mensual de la nave, del material de oficina, del seguro de la empresa, los gastos de seguridad social de las nóminas, IRPF…e impuestos varios. Esta estimación asciende a aproximadamente 165.000 €. C. Financiación. El ingreso inicial de la empresa, por los cálculos estimados anteriormente, debe ser de 869.500 €, por lo tanto deberemos pedir una financiación de 1.000.000 €, a pagar en 8 años con un tipo de interés efectivo anual del 2,75%(27.500 €). 1) Inflación y tasa de actualización. La inflación interanual ha caído 1,3% en enero de este año 2012, hasta el 2%, según el indicador adelantado del índice de precios de consumo (IPC) publicado por el Instituto Nacional de Estadística (INE). Se trata de la tasa más baja desde agosto de 2010, cuando el IPC fue del 1,8% [19]. Además, para el presente año 2012 vamos a aplicar una tasa de impuestos del 18,5% y una tasa de actualización del 10%. Por último mencionar que vamos a suponer constantes los ingresos y los III Congreso de cibernética 4,2 4,3 3 3,1 3,3 2 2,4 1 ene-11 ene-09 ene-08 ene-07 ene-06 ene-05 0,8 ene-10 2,3 ene-12 3,7 ene-04 5 4 3 2 1 0 ene-03 -Electricidad. Suponemos un horario de trabajo en la empresa de 8:00 h hasta las 22:00 h (12 horas/día). Por lo tanto, contrataremos una tarifa eléctrica diurna sin discriminación horaria. La tarifa elegida es la tarifa 3.1 A de alta tensión., para potencias contratadas de 450 KW y tres períodos horarios [17]-[18]. Tras realizar una serie de cálculos y aplicar al valor obtenido un incremento porcentual en concepto del impuesto de la electricidad y otro del IVA, obtenemos como resultado un gasto anual en electricidad de aproximadamente 54.600 €. gastos a lo largo de los 10 años de horizonte del proyecto. ene-02 2) Gastos anuales estimados. 6 Fig. 5- EVOLUCIÓN DE LA INFLACIÓN EN ESPAÑA. D. Resultados. Durante los próximos 10 años, que es el horizonte estimado inicialmente para nuestra inversión, tras realizar una serie de cálculos, hemos obtenido que el movimiento de fondos actualizado en el año 10 será de 481.381,78 € aproximadamente. Con todos los datos calculados en el movimiento de fondos a lo largo de esos 10 años, vamos a calcular una serie de valores económicos muy representativos. El primero de ellos es el VAN(Valor Actual Neto), que nos da un valor de 7.047.135,03 € aproximadamente. Esto a grandes rasgos quiere decir que, al ser mayor que cero, se considera que el proyecto es rentable, pues representa el dinero ganado a lo largo de esos 10 años. El segundo valor importante que hemos calculado es el TIR(Tasa Interna de Rendimiento), que nos da un valor de 155,63%. Este valor corresponde a la tasa de actualización para la cual el VAN vale cero e indica la rentabilidad del proyecto, el cual es un valor muy subjetivo. El tercer concepto es el de período de recuperación de la inversión inicial, que tras calcularlo nos da 1 año. Por último, el ICB(Índice de Coste Beneficio), cuyo valor obtenido es de 9,11. Este término es muy útil para visualizar las ganancias obtenidas, es decir, cuántas unidades monetarias se ganan por cada una de las invertidas. V. CONCLUSIONES. Tras analizar el sector del automóvil en España llegamos a la conclusión de que es un sector que Universidad de León. Prego López. Estudio de mercado automovilístico. se establece con el paso de los años, las empresas que actúan en él hoy en día son empresas que tienen una larguísima vida en el sector, con los años se estabilizan y crean una imagen de marca imposible de copiar o eliminar. Es un caso excepcional que una empresa abandone este sector debido a las altas barreras de salida que supone, por eso las empresas esperan hasta el último momento confiando en que su suerte cambie, todo con tal de no abandonar el sector. Una salida se debería siempre a una crisis empresarial que ha desembocado en una quiebra. Es muy difícil vender los activos fijos por su gran especialización, estamos hablando de materias primas con un alto coste de adquisición y fabricadas y diseñadas para una sola empresa, por lo que la dificultad para no perder dinero en la salida es enorme. Aquellas empresas que tengan intención de entrar en el sector tendrán tantas barreras de ingreso que deberán intentarlo únicamente si van a implantar una revolución innovadora y siempre respaldado por una multinacional extranjera del sector, por lo contrario es casi imposible el ingreso en el sector. Al ser un mercado oligopolista, es decir, que se trata de un mercado dominado por un pequeño número de vendedores, la nueva empresa se verá devorada por la competencia y las ventajas competitivas que poseen gracias a los años de trabajo en el sector. En resumen, atendiendo a la situación del mercado que acabamos de analizar, no es recomendable una entrada en este sector, a priori la mejor manera de entrar es a través de fusiones y adquisiciones con las empresas que ya actúan en el mercado. Por otro lado, atendiendo a los valores obtenidos a partir de todos los cálculos realizados, vemos que obtenemos un Índice de Coste Beneficio (ICB) de 9,11. Este valor es muy elevado. Otro dato importante es el período de recuperación de la inversión, que es de 1 año, teniendo en cuenta que el horizonte de vida del proyecto lo hemos estimado de 10 años, resultaría muy rentable, dado que empezaríamos a obtener beneficios a partir del primer año de la inversión. Otro dato a tener en cuenta es el TIR, cuyo valor para nuestro proyecto de estudio es de 155,63% aproximadamente. Teniendo en cuenta III Congreso de cibernética 7 que este valor representa la rentabilidad del proyecto, vemos que ésta se puede augurar muy buena pasados esos 10 años. De hecho, para conocerla hemos calculado el VAN, y el valor obtenido al final de esos 10 años de ejercicio ha sido de 7.047.135,03 €, un valor verdaderamente alto tras 10 años de trabajo. Así que la conclusión sacada tras analizar la situación del mercado, tras analizar los datos obtenidos no tenemos nada más que decir que los datos económicos son muy buenos, pero está el inconveniente de que se trata de un sector ya muy afianzado en el mercado y existen fuertes barreras de entrada. REFERENCIAS. [1] “China es ya el segundo mercado mundial de automóviles, sólo por detrás de EEUU” (2006) disponible en: www.elmundo.es [2] “El congreso de la patronal de concesionarios calienta motores” disponible en: http://www.autopos.es/2012/01/12/el-congreso-de-lapatronal-de-concesionarios-faconauto-calienta-motores/ [3] “Red de concesionarios por provincia” disponible en: http://www.cochesyconcesionarios.com/redconcesionarios/provincias/concesionarioscoruna,A.html [4] “Lista de proveedores de recambios para automóviles” disponible en: http://material-y-equipamientotransporte.europages.es/guia-empresas/did-equip06/hc06240K/cc-ESP/Espana/Recambios-paraautomoviles.html [5] “Lista de proveedores de vehículos de ocasión” disponible en: http://vehiculos-materialtransporte.europages.es/guia-empresas/did-06/hc06212/cc-ESP/Espana/Vehiculos-de-ocasion.html [6] “Matriculaciones de turismos en España” disponible en: http://blog.cofike.com/2011/10/07/matriculacionesespana-tercer-trimestre-2011/ [7] “Datos matriculaciones turismos” disponible en: http://www.anfac.com/imren/turisOCT10.pdf [8] “Núcleo competitivo de Porter” disponible en: http://www.ecobachillerato.com/temasecem/porter/alba. htm [9] Buccella, Jorge María con la colaboración de López, Daniel Alfredo; (2004). ”Apuntes de procesos productivos II” disponible en: http://tecnologia.mendoza.edu.ar/trabajos_profesores/bu scella-control/proceso_productivos.pdf [10] Comunidad de Madrid; (2009). ”Quiero montar un taller de automóviles” disponible en: http://www.madrid.org/cs/Satellite?blobcol=urldata&bl obheader=application%2Fpdf&blobheadername1=Cont entDisposition&blobheadervalue1=filename%3DCuaderno 22.pdf&blobkey=id&blobtable=MungoBlobs&blobwhe re=1220477767834&ssbinary=true Universidad de León. Prego López. Estudio de mercado automovilístico. [11] Consejería de Economía. Departamento de Estadística; (1993). ”Estudios y análisis: Análisis del Sector de talleres de reparación de vehículos en la comunidad de Madrid” disponible en: http://www.madrid.org/iestadis/fijas/informes/descarga/ an_sectortalleres.pdf [12] “Ley 1/1995, de 2 de enero, de Protección Ambiental de Galicia.” disponible en: http://noticias.juridicas.com/base_datos/CCAA/ga-l11995.html [13] “Decreto 133/2008, de 12 de junio, por el que se regula la evaluación de incidencia ambiental en Galicia.” disponible en: http://www.xunta.es/Doc/Dog2008.nsf/FichaContenido/ 2C81A?OpenDocument [14] “Real Decreto 679/2006, de 2 de junio, por el que se regula la gestión de los aceites industriales usados.” disponible en: http://noticias.juridicas.com/base_datos/Admin/rd6792006.html [15] “Real Decreto 833/1988, de 20 de julio, por el que se aprueba, el Reglamento para la ejecución de la Ley 20/1986, Básica de Residuos Tóxicos y Peligrosos” disponible en: http://noticias.juridicas.com/base_datos/Admin/rd8331988.html [16] “Decreto 174/2005, de 9 de junio, por el que se regula el régimen jurídico de la producción y gestión de residuos y el Registro General de Productores y Gestores de Residuos de Galicia” disponible en: http://noticias.juridicas.com/base_datos/CCAA/gad174-2005.html [17] (2005).”Tarifación eléctrica 05” disponible en:http://www.mcgrawhill.es/bcv/guide/capitulo/8448147197.pdf [18] Azofra Castroviejo, José Fernando; Azofra Rojo, Diego; (2011). ”Estudio de las tarifas eléctricas vigentes a partir del 1 de enero de 2011” disponible en: http://sie.fer.es/esp/Asesorias/Eficiencia_Energetica/Est udios_Documentacion/Estudio_Nuevas_Tarifas_Electri cas_Vigentes_partir_1_abril_2011/webFile_14932.htm [19]Evolución anual del IPC disponible en: http://www.rtve.es/noticias/20120229/inflacionadelantada-se-mantiene-2-febrero/502581.shtml III Congreso de cibernética 8 Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. 1 Los sensores inalámbricos y las redes en la agricultura Álvaro Fernández Martínez [email protected] Universidad de León Resumen— Debido al avance en las tecnologías y la reducción en el tamaño de los componentes, los sensores se están utilizando en casi todos los ámbitos de la vida. La agricultura es uno de esos dominios donde los sensores y sus redes se utilizan con éxito para obtener numerosos beneficios. La selección de sensores y su eficaz utilización para resolver los problemas agrícolas ha sido una tarea ardua para los usuarios novatos, debido a la falta de información en la literatura. El objetivo de este trabajo es revisar la necesidad de sensores inalámbricos en la agricultura, la tecnología WSN (Red Inalámbrica de Sensores) y sus aplicaciones en diferentes aspectos de la agricultura e informar de los marcos existentes y sistemas en el ámbito de la agricultura. Índice de Términos—Actuadores, agromática, redes, sensores. I. INTRODUCCIÓN La agricultura ha desempeñado un papel clave en el desarrollo de la civilización humana. Debido a la creciente demanda de alimentos, la gente está tratando de poner un esfuerzo extra y técnicas especiales para multiplicar la producción de alimentos. Agromática o agro-informática es el termino que se refiere a la disciplina que hace uso de las herramientas informáticas para optimizar los beneficios de la explotación del sector agropecuario, proporcionando nuevas herramientas de apoyo, para áreas tan diversas como, por ejemplo, la docencia, la investigación, la extensión, la producción y el proceso de toma de decisiones. A nivel mundial, se ha realizado un importante número de trabajos teórico-prácticos multidisciplinarios relacionados con este tema, que de una u otra forma refuerzan la idea sobre la diversidad de campos que esta nueva disciplina puede impulsar en los sectores productivos. El uso de diferentes tecnologías para una agricultura es uno de esos esfuerzos. Aparte del uso de las tecnologías científicas en la agricultura, la tecnología de la información está siendo ejercida en gran medida en este ámbito. Las tecnologías como la navegación por satélite, redes de sensores, computación grid, etc. están apoyando dicho dominio para mejorar la vigilancia, monitorización y capacidad de decisión. El uso de sensores y sus redes está apoyando las prácticas agrícolas en una dirección muy positiva. Para los sensores usados en la agricultura hay muchas terminologías, como Agricultura de Precisión (AP), la agricultura inteligente, Tecnología Tasa Variable (VRT), Agricultura de GPS (Sistema de Posicionamiento Global), Ganadería por pulgada, Agricultura de información intensiva, etc. pero el concepto subyacente en todos ellos es el mismo. Los avances de las tecnologías ha reducido el tamaño de los sensores hasta tal punto que pueden ser utilizados en una variedad enorme de los dominios de la vida humana. Debido a la importancia de la tecnología de sensores, varios temas relacionados con los sensores y sus redes se encuentran en investigación. La restricción de energía, potencia de cálculo limitada, pequeña memoria y la seguridad de los datos son algunas de las cuestiones de fondo de las redes de sensores para que los investigadores propongan varias soluciones. El objetivo de este trabajo es revisar la necesidad de sensores inalámbricos en diferentes aspectos de Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. la agricultura. El resto de este artículo se organiza de la siguiente manera: en el siguiente capítulo, vamos a presentar la importancia de los sensores en la agricultura. En el capítulo III, se introducirán la tecnología de sensores y sus redes. De sensores inalámbricos y actuadores de aplicación de redes en la agricultura será discutido en el capítulo IV. En el capítulo V se discutirá el marco del sistema de disposición propuesto para la agricultura seguida de las conclusiones en el último capítulo. II. LA IMPORTANCIA DE LOS SENSORES EN LA AGRICULTURA Los sensores se utilizan para recoger información sobre los atributos físicos y ambientales, mientras que los actuadores se emplean para reaccionar a ellos y a tener control sobre las situaciones. La información acumulada de los sensores que caracterizan el objeto o el medio ambiente y se utilizan para identificar a las personas, la ubicación, los objetos y sus estados es conocida como contexto. La adquisición de contexto proporciona una valiosa contribución en situaciones de modelado que tienen variedad de atributos variables en el tiempo. La agricultura plantea varios requisitos que son los siguientes: 1. Recolección de clima, los cultivos e información del suelo. 2. Seguimiento de la tierra distribuida. 3. Múltiples cultivos en una sola tierra. 4. Precisar la diferente cantidad de fertilizantes o agua que necesitan partes desiguales de una parcela. 5. Diversos requerimientos de cultivos destinados a diferentes climas y condiciones del suelo. 6. Las soluciones proactivas en lugar de soluciones reactivas. Requisitos arriba mencionados implican la aplicación y procesamiento paralelo y distribuido a realizar. Además, los sensores y actuadores inalámbricos están obligados a recoger los datos necesarios y de reaccionar ante diferentes situaciones. Para tomar la decisión hay que disponer de la 2 información procesada en lugar de datos no tratados del sensor. Para hacer frente a tales requisitos, los sensores inalámbricos, actuadores y sus redes se presentan como un fuerte candidato para el desarrollo de un sistema para la adquisición de contexto (entorno), la presentación de los datos adquiridos a sistemas remotos de apoyo a las decisiones y por lo tanto proveer un ambiente controlado para tomar una decisión. Algunos de estos sensores miden la humedad, la temperatura, la presión atmosférica, la velocidad del viento, la dirección del viento, etc. (ver Tabla I). III. LA TECNOLOGÍA DE SENSORES INALÁMBRICOS Y REDES La utilización de sensores se está convirtiendo posiblemente en un hecho en casi todos los ámbitos de la vida debido al avance de la tecnología y la reducción de tamaño. Un sensor es un dispositivo que tiene la capacidad para medir los atributos físicos y convertirlos en señales para el observador. Los sensores son parte de la naturaleza y muchas de las capacidades de detección están disponibles en los organismos vivos en forma de bio-sensores. Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. La Red Inalámbrica de Sensores (WSN) está compuesta por varios componentes llamados 'nodos' (Fig. 1). Los nodos son dispositivos inteligentes que se utilizan para recoger los datos. Una red de sensores tiene tres funciones básicas: (1) Detección (2) Comunicación y (3) Cálculo usando hardware, software y algoritmos. Los nodos se encargan de realizar varias funciones. Los nodos distribuidos que recopilan la información se llama nodo de origen (fuente), mientras que el nodo que reúne la información de todo nodo de origen se denomina nodo sumidero y a veces nodo de pasarela. El nodo sumidero podría tener potencia de cálculo relativamente alta. Un nodo fuente también funciona como un nodo de enrutamiento debido a la exigencia de enrutamiento de múltiples saltos. La Red de Sensores y Actuadores Inalámbricos (WSAN en inglés) es una variante de WSN que tiene un tipo adicional de componente que es un actuador. La inclusión del actuador aumenta la capacidad de WSN de monitoreo para el control. A. Tecnologías de la comunicación Las tecnologías inalámbricas de comunicación, como ZigBee, Bluetooth, Wibree y WiFi son parte de varios trabajos de investigación basados en redes de sensores. Estas tecnologías tienen diferentes capacidades y propiedades en las que se complementan. La tecnología de la comunicación inalámbrica ZigBee (IEEE 802.15.4) es preferible a otras tecnologías para el desarrollo de la red de sensores inalámbricos, debido a su bajo coste y bajo consumo de energía. Se introdujo en mayo de 2003 y opera en la banda 2.4 GHz, a nivel mundial. Hay 16 canales de ZigBee con un ancho de banda de 5 MHz cada uno en la banda de 2,4 GHz. 3 B. Arquitectura del nodo sensor inalámbrico El nodo de sensor inalámbrico es una unidad básica de la red de sensores inalámbricos. Se compone de 4 módulos básicos, incluyendo el módulo sensor/actuador, el módulo de comunicación, el módulo de procesamiento/cálculo y módulo de potencia (Fig. 2). La memoria externa es un módulo opcional que puede ser necesario en caso de requisitos de almacenamiento de datos para la toma de decisiones a nivel local. Su diseño requiere de muchas consideraciones, como la conservación de energía, la escalabilidad, el tamaño, ubicación, etc. El modulo de sensores/actuadores proporciona interfaces para transductores y actuadores. Algunos ejemplos de los nombres de sensores disponibles en el mercado: MICAz, MICA2DOT, MICA2, Imote2, TelosB, IRIS y Cricket. El procesador / microcontrolador, la memoria, la banda de frecuencia de trabajo, sensores compatibles, rango de transmisión y el tamaño son algunos de los principales atributos de un nodo sensor que lo hacen preferible a otros. Los microcontroladores juegan un papel vital, ya que proporcionan potencia de cálculo para la toma local de decisiones y la agregación de datos, gestión de la energía a través de métodos de suspensión e hibernación, etc. Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. ATMega128L es el microcontrolador más común debido a su baja demanda de potencia, con varios modos de sueño, la memoria flash, el almacenamiento eficiente y la compatibilidad con prácticamente todo el código TinyOS. La agricultura genera unos requerimientos específicos que se presentan en el siguiente capítulo. Debido a los requisitos especiales, los nodos sensores son también especialmente diseñados manteniendo la robustez, la ubicación, el apoyo de una fuente alternativa de batería, etc. C. Redes de sensores inalámbricos Basándose en el concepto flexible y autónomo de las redes de sensores inalámbricas, se han creado oportunidades para las áreas que requieren de aplicaciones sensores remotos y de actuación para optimizar los resultados. Sin embargo, la tecnología de redes de sensores inalámbricos plantea muchas cuestiones que necesitan ser manejadas para la viabilidad a largo plazo de los sistemas desarrollados. Cuestiones como el consumo de energía para el funcionamiento autónomo de los nodos sensores, nombrar temas de diseño y desarrollo, incluyendo los protocolos de comunicación, y la implementación. Sin embargo, en el contexto de nuestro estudio se describen los problemas que son críticos para la aplicación de WSN en el dominio de la agricultura. En muchos casos, el cultivo se lleva a cabo en fincas tan grandes (varios cientos de hectáreas) y pueden implicar una diferente naturaleza, tierra, recursos y microclimas. Los nodos de sensores que se colocan en un entorno abierto y no controlado plantean varios problemas de implementación y de diseño, algunos de los principales de ellos, como a continuación: 1) El consumo de energía: Cada nodo sensor colocado en una red de sensores inalámbricos tiene la responsabilidad de la detección de eventos, procesamiento y transmisión de datos. En el caso de la red multi-punto, un nodo tiene la responsabilidad adicional de enrutamiento de datos también. Cada una de las acciones antes mencionadas requiere de energía 4 para realizarse. Un nodo es generalmente equipado con una fuente de energía finita y limitada, por ejemplo pilas alcalinas o células de litio. Por lo tanto, el tiempo de vida de un nodo sensor depende en gran medida de su vida útil. Mediante la aplicación de una estrategia adecuada de gestión de energía en hardware y software, la duración de la batería puede extenderse varios meses más. Por otra parte, el uso de fuentes de energía renovables como la solar o la energía cinética podría ser adoptado cuando una solución costosa más ligera pueda compensar en favor de una vida más larga de nodos de sensores. Por otra parte, en el caso de las tierras agrícolas, estos sensores podrían ser sustituidos periódicamente por el cambio de la batería ya que su ubicación y acceso está por lo general bien definido. 2) La adquisición de datos: Con los datos de cada muestra, procesada y transmitida, la energía se gasta. Una colección de datos eficiente y optimizada y una frecuencia de muestreo son necesarias ser programadas para que no sólo los datos relevantes y útiles sean capturados, sino solo los relevantes. Por el contrario, la adquisición de datos continuamente causará gran cantidad de paquetes que se transmiten y esto agota la energía de la batería rápidamente. En la agricultura, la velocidad de muestreo para la adquisición de datos no es generalmente alta. Sin embargo, podría hacerse ajustable basada en el medio ambiente, tipo de cultivo y de los recursos. Como se mencionó en el capítulo III.A, varias tecnologías de transmisión inalámbricas están disponibles para su uso. Una estrategia de transmisión de datos también se podría considerar de modo que se realicen menores transmisiones, conservando así la energía. Esto puede incluir el almacenamiento local de datos en los nodos sensores y transmisión inteligente de datos, por ejemplo los valores añadidos o sólo los modificados, etc. Además, la aplicación de opciones como el modo de suspensión puede ser ejercida con el fin de activar los emisores sólo cuando sea Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. necesario. También para tener enlaces de comunicación fiables, los nodos de sensor debe ser colocada lo más cerca entre sí para garantizar la fiabilidad de comunicación multi-punto. 3) Tolerancia a fallos: Nodos de sensores que se colocan en exteriores son propensos a daños físicos bloqueos, e interferencias. Para mantener la fiabilidad de un WSN, el fallo de un nodo sensor no debe afectar a la tarea global de la red. El uso redundante de nodos de sensores, la reorganización de la red de sensores y las regiones superpuestas de sensores, etc son algunas de las técnicas empleadas para aumentar la tolerancia a fallos y fiabilidad de la red. 4) Tamaño y ubicación del sensor: El tamaño del nodo de sensor debe ser pequeño y adecuado para su uso. El nodo debe ser encapsulado en una carcasa de protección por lo que es resistente a los factores ambientales como el calor y la lluvia, y el mal manejo/uso de humanos o animales. 5) La colocación del sensor: La colocación del nodo de sensor es un tema importante en relación con el diseño de la red, los algoritmos, topologías a utilizar, y los parámetros que se detectan. Tiene que ser cuidadosamente diseñado y ejecutado con inteligencia, para que una WSN pueda establecer que funcionan de forma fiable y autónoma. La colocación de los sensores debe ser tal que toda el área esté cubierto y los sensores estén situados en una posición y altura a fin de medir los parámetros sin obstáculos. Por ejemplo, los sensores de luz deben colocarse a una altura a fin de evitar el bloqueo de las hojas de las plantas. El nivel de agua y sensores de humedad, por otro lado, deben colocarse lo suficientemente cerca del suelo para las mediciones precisas. Los fuertes vientos y las corrientes de agua pueden desviar los sensores de las posiciones deseadas, por lo que es importante montar los accesorios apropiados para apoyar a los nodos. IV. APLICACIONES Y EJEMPLOS La utilización de sensores, actuadores y su red en el campo de la agricultura se encuentra en etapas avanzadas. WSN y WSAN están en uso con diferentes tecnologías, relacionadas informática y la computación grid. 5 con la Los servicios agrícolas como el riego, la fertilización, la fumigación con insecticidas/fungicidas y la vigilancia de pastos son tratados en este capítulo. La horticultura también se tiene en cuenta debido a su importancia. A. El riego El riego se define como la aplicación artificial de agua en terrenos agrícolas y se considera como uno de los componentes más importantes de la agricultura. La escasez de agua en varias zonas instiga a la necesidad del uso adecuado del agua debe ser proporcionada únicamente a aquellos lugares donde sea necesario y en cantidad necesaria. Los diferentes métodos de riego están en su uso como el riego por goteo, riego por aspersión, etc. para hacer frente con el problema del desperdicio de agua con los métodos tradicionales como el riego por inundación, riego por surcos, etc. Existe un sistema de riego automático remoto probado en España [7]. El área se divide en regiones. Cada región se monitoriza con un controlador independiente. Están interconectas entre sí y con el controlador central a través de red WLAN. Los resultados mostraron una conservación del agua significativa, es decir, hasta 30-60%. También hay otras técnicas como una red inalámbrica de adquisición de datos para recoger datos sobre el clima con la humedad del suelo para el riego inteligente en Portugal [8]. A partir de un nivel de humedad, comenzaba el riego. B. La fertilización Los fertilizantes se utilizan para aumentar la fertilidad del suelo que afecta directamente al crecimiento de las plantas y la calidad de los alimentos. Existen diversas formas de fertilización usadas como la radiodifusión, la difusión manual y la pulverización. La aplicación óptima de fertilizante es una tarea difícil y requiere Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. capacidades de detección. Los investigadores han presentado diferentes soluciones para la fertilización adecuada. S. Cugati, W. Miller y J. Schueller [9], construyeron un aplicador de fertilizantes automatizado que consiste en la entrada, apoyo a las decisiones y los módulos de salida, utilizando la tecnología GPS, los sensores en tiempo real y la tecnología Bluetooth. El módulo de entrada se utiliza para proporcionar valores de los datos GPS y los sensores al sistema de soporte de decisiones (DSS), que calcula la cantidad óptima y el patrón de propagación de fertilizantes basados en tiempo real de sensores de adquisición de datos a través de módulos de comunicación Bluetooth. Los cálculos DSS fueron utilizados para regular la frecuencia de aplicación de fertilizantes. Otro sistema [10] consiste en un sensor mecánico montado en la parte delantera de tractor que se utiliza para medir la densidad de la cosecha y así estimar la aplicación de nitrógeno dentro del campo. J. He, J. Wang, D. He, J. Dong, Y. Wang [11] desarrollaron el uso la red LAN inalámbrica con sensores de protocolo IEEE 802.11 (WiFi) y un servidor de análisis de GPS. Los sensores se utilizan para adquirir datos en tiempo real de la humedad del suelo, conductividad, temperatura, pH, la temperatura del aire, humedad, concentración de CO2, iluminación, etc. El sistema fue diseñado con la estructura navegador/servidor para proporcionar una alta interactividad. Las pruebas y experimentos llevados a cabo incluían tres factores: nitrógeno, fósforo y potasio (NPK). C. El control de plagas Las estrategias de manejo de plagas agrícolas y la búsqueda de productos han sido durante mucho tiempo arduas tareas. El mayor énfasis se mantuvo en el desarrollo de nuevos productos efectivos capaces de remplazar el producto viejo tóxico por otro no perjudicial para el medio ambiente. El control de plagas puede ser más sostenible cuando las prácticas agrícolas son más compatibles con los sistemas ecológicos. Las redes de sensores 6 se han utilizado también para superar los problemas de hongos y virus. Por ejemplo, Aline Baggio [12] desarrolló un proyecto para hacer frente a la enfermedad en el cultivo de patata, Phytophtora. Se utiliza sensores para detectar la humedad y temperatura. El seguimiento de estos dos parámetros ayudó a reducir la enfermedad. Las enfermedades de las plantas ocurren muy a menudo en parcelas de cultivo y requieren la aplicación de fungicidas con usos no uniformes sobre todo la parcela. D. La vigilancia de los pastos Z. Butler, Corke P. Peterson, R. y D. Rus [13] desarrollaron un algoritmo de vallado virtual para controlar rebaño de vacas. Un collar inteligente que consiste en un receptor GPS, una PDA, una tarjeta de memoria flash WiFi para WLAN y un amplificador de audio con el altavoz se utiliza para cada vaca. La ubicación de los animales se verifica a través del GPS en relación con la valla virtual. En caso de acercarse a la valla virtual, un sonido se genera para llevar los animales dentro del perímetro del vallado. Otra investigación [14] fue el diseño de hardware robusto que podría ser utilizado al aire libre para el modelado de cada animal y el comportamiento de la manada. Se utiliza el sensor para monitorizar el comportamiento animal como dormir, el pastoreo, rumia, etc. Este tipo de análisis de comportamiento en combinación el movimiento que realizan podría ser utilizado para la relación madre-cría, así como las tendencias en el comportamiento de rebaño. La vigilancia del ganado es una tarea importante, pero plantea varios desafíos, como la atenuación de radio causada por el cuerpo de los animales, la movilidad de éstos, etc. E. La horticultura La horticultura trata con el cultivo, producción, distribución y uso de las flores, frutas, plantas ornamentales, de invernadero, etc. Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. W. Zhang, G. Kantor y S. Singh [15] utilizaron en su estudio una red de sensores para monitorizar la temperatura del aire, humedad, luz ambiental, la humedad del suelo y la temperatura. Eso les ayudó en el análisis de la actual situación del vivero de plantas. Esta red también puede ayudar en la búsqueda de enfermedades de las plantas. 1) Los invernaderos: La vigilancia del medio ambiente y el control de los invernaderos es crucial ya que no es dependiente de los agentes naturales. D. Kolokotsa, Saridakis G., Dalamagkidis K., S. Dolianitis y Kaliakatsos I. [16] desarrollaron un entorno inteligente en interiores y un sistema de gestión de energía para invernaderos. La iluminación interior del invernadero, la temperatura, la humedad relativa, la concentración de CO2 y la temperatura exterior fueron monitorizados. Se desarrollaron dos controladores de lógica difusa, que consta de P difusa (proporcional) y PD (proporcional-derivativo) de control utilizando unos puntos de ajuste interiores concretos. Como actuadores de salida gestionaban unidades de calefacción, cortinas controladas por motor, iluminación artificial, botellas de CO2 y válvulas de nebulización de agua. 2) La viticultura: El ejemplo más destacado fue en el que R. Beckwith, D. Teibel y P. Bowen [17] aplicaron en su estudio una red de sensores inalámbricos de 65 nodos multi-punto en un viñedo de 6 meses. La información recogida se utilizó para hacer frente a los daños del fuerte calor y las heladas, dos de los parámetros más importantes en la producción de vino. V. MARCOS DEL SISTEMA No hay un organismo estándar que proporcione la metodología estándar para el desarrollo de sensores basados en sistemas agrícolas de adquisición de datos para el modelado y la toma de decisiones. Varios grupos de investigación están trabajando de forma independiente y el desarrollo de estos sistemas que utilizan tecnologías estándar bajo la terminología de Agricultura de Precisión. La Organización para la Alimentación y la Agricultura de las Naciones Unidas (FAO) está realizando una de las actividades de normalización 7 trabajando para apoyar el desarrollo de su contexto modelado a través de la ontología. VI. CONCLUSIONES La agricultura tiene un ámbito muy amplio en el que el potencial del uso de WSN y WSAN es muy alto. Se ha presentado una revisión de varias soluciones y esfuerzos en el campo de la agricultura. Los principales puntos acerca de la aplicación de estas tecnologías son: 1. Las soluciones son demasiado complejas de implementar y requiere un apoyo técnico importante. 2. El elevado coste está presente en su implementación. 3. La falta de solución generalizada a los distintos servicios y los problemas. Cada uno crea su solución en vez de hacerlo en conjunto. 4. La mayoría de trabajos de investigación son descritos a nivel teórico y en entornos muy controlados. REFERENCIAS [1] E. Capella. “La enseñanza de la Agromática”. Disponible en: www.mag.go.cr/congreso_agronomico_xi/a50-6907I_223.pdf [2] J.R. BARRETT, D.D. Jones. “Knowledge Systems Development in U.S. Agriculture”. Expert Systems With Applications, Vol. 4, pp. 45-51, 1992 [3] R. Doluschitz, W.E. Schmisseur. “Expert Systems: Applications to Agriculture and Farm Management”. Computers and Electronics in Agriculture, 2 (1988), pp. 173182 Elsevier Science Publishers B.V., Amsterdam [4] Aqeel-ur-Rehman, et al., “A review of wireless sensors and networks' applications in agriculture”, Comput. Stand. Interfaces (2011) [5] H. Auernhammer, J. Frisch. “Mobile Agricultural BUSSystem -LBS, Standardization and State of the Art”. Computers and Electronics in Agriculture, 14 (Elsevier 1996) pp. 333-338 [6] M. Neunteufel. “Modelling food and agricultural systems. A state-of-the-art study”. Food Policy, Volume 4, Issue 2, May 1979, pp. 87-94 Ejemplos y aplicaciones Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura. [7] M. Damas, A.M. Prados, F. Gómez, G. Olivares, “HidroBus system: fieldbus for integrated management of extensive areas of irrigated land”, Microprocessors andMicrosystems 25 (3) (2001) 177–184. [8] R. Morais, A. Valente, C. Serôdio, “A wireless sensor network for smart irrigation and environmental monitoring”, EFITA/WCCA Joint Congress on IT in Agriculture, Portugal, 2005, pp. 845–850. [9] S. Cugati, W. Miller, J. Schueller, “Automation concepts for the variable rate fertilizer applicator for tree farming”, The Proceedings of the 4th European Conference in Precision Agriculture, Berlin, Germany, 2003, pp. 14–19. [10] D. Ehlert, J. Schmerler,U. Voelker, “Variable rate nitrogen fertilisation of winter wheat based on a crop density sensor”, Precision Agriculture 5 (3) (2004) 263–273. [11] J. He, J. Wang, D. He, J. Dong, Y. Wang, “The design and implementation of aintegrated optimal fertilization decision support system”, Mathematical and Computer Modelling (in press). [12] A. Baggio, “Wireless sensor networks in precision agriculture”, ACM Workshop Real-World Wireless Sensor Networks, Stockholm, Sweden, 2005. [13] Z. Butler, P. Corke, R. Peterson, D. Rus, “Virtual fences for controlling cows”, The 2004 IEEE International Conference on Robotics and Automation (ICRA), New Orleans, LA, 2004, pp. 4429–4436. [14] T. Wark, P. Corke, P. Sikka, L. Klingbeil, Y. Guo, C. Crossman, P. Valencia, D. Swain, G. Bishop-Hurley, “Transforming agriculture through pervasive wireless sensor Networks”, IEEE Pervasive Computing (2007) 50–57. [15] W. Zhang, G. Kantor, S. Singh, “Integrated wireless sensor/actuator networks in an agricultural application”, 2nd ACM International Conference on Embedded Networked Sensor Systems, 2004, p. 317. [16] D. Kolokotsa, G. Saridakis, K. Dalamagkidis, S. Dolianitis, I. Kaliakatsos, “Development of an intelligent indoor environment and energy management system for greenhouses”, Energy Conversion and Management 51 (1) (2010) 155–168. [17] R. Beckwith, D. Teibel, P. Bowen, “Report from the field: results from an agricultural wireless sensor network”, 29th Annual IEEE International Conference on Local Computer Networks, Tampa, FL, USA, 2004, pp. 471–478. Autor Ingeniero en Informática por la Universidad de León. 8 Métodos de clustering para el análisis de subpoblaciones de relevancia biológica. Eloy Garcı́a Escuela de ingenierias Industrial, Informática y Aeronautica (EIIA) Universidad de León. León, España. Email: [email protected] Abstract— Las técnicas de minerı́a de datos han proporcionado una poderosa arma a investigadores de distintos campos para poder realizar estudios sobre las subpoblaciones contituyentes de los grandes conjutos de datos que se manejan. Ası́, técnicas de clasificación supervisada y no supervisada han sido puestas en práctica en campos como la biológia, la medicina o la veterinaria. El actual trabajo presenta una recopilación de los métodos de clustering (clasificación no supervidada) más comunes utilizados en ramas como al citometrı́a de flujo, la genética o el análisis de subpoblaciones desarrollado en otras ramas. I. I NTRODUCTION Los métodos asistidos por ordenador han ofrecido a distintas ramas de la ciencia la oportunidad de generar grandes cantidades de datos y poder trabajar fácilmente con ellos. Estos conjuntos de datos (o datasets) pueden ser analizados mediante técnicas de Minerı́a de Dados y Machine Learning para agrupar el conjunto en pequeños grupos o clusters los cuales, en muchas ocasiones, pueden ser analizados como subpoblaciones que agrupan determinados tipo de caracterı́sticas con un particular interés. La biologia o la medicina son algunos de los campos que se pueden ver más beneficiados de ellos. Los nuevos métodos estadı́sticos ayudan a caracterizar agrupaciones genéticas de alto interés. La citologia de flujo, disciplina utilizada para analizar poblaciones de células o de microorganismos, adopta un gran número de técnicas para analizar subpoblaciones celulares que van desde la hematologia hasta la inmunologı́a, pasando por el estudio de distintos tipos de enfermedades como puede ser la leucemia y su comportamiento en las células. Partiendo de una población inicial, un conjunto estadı́stico de datos, en las disciplinas anteriores, como en otras muchas, interesa analizar la posible composición de ella y dividirla en subpoblaciones constituyentes que presenten una mayor relevancia. En muchas ocasiones, la cantidad de posibles subconjuntos constituyentes no es un hecho conocido a priori, lo cual hace que se convierta en un problema candidato perfercto para la utilización de técnicas de Minerı́a de Datos, como los métodos de clustering. El objetivo del análisis de clustering es obtener frecuencias y resúmenes estadı́sticos de los subgrupos obtenidos después de dividir los datos en dichos subconjuntos, pudiendo obtener estadı́sticas fiables. Hay distintos acercamientos a los métodos de clustering que pueden ser utilizados potencialmente, pero algunas opciones pueden resultar ser mas apropiados que otros. Por supuesto, este es un hecho que los investigadores de estos campo, y de otros muchos, estan reconociendo. Con lo cual, dichos métodos se están poniendo en práctica para obtener, no sólo un análisis de subpoblaciones estadı́sticas, sino tambien para hallar en ellas un consistente significado biológico. En este trabajo se realizará un repaso de las principales técnicas de clustering utilizadas, ası́ como la metodologia de trabajo utilizada, principalmente en los campos expuestos. II. E STUDIOS PRELIMINARES . A DQUISICI ÓN DE DATOS Y EVALUACI ÓN . En cualquiera de las ramas cientı́ficas mencionada hasta ahora, biologı́a, genética o citometria de flujo, se pueden llegar a trabajar con grandes cantidades de datos, ya se trate de datos de dinámica celular, tamaño o forma de heterogéneas de las mı́smas o, incluso de datos o expresiones genéticas. Frecuentemente, el número de descriptores utilizados suele ser muy grande. Según el método por el cual se desarrolle la adquisición de los datos, estos pueden hallarse plagados de problemas para los procesos comunes de clustering. Los problemas tı́picos comprenden desde outliers, ruido o colinealidad entre los descriptores escogidos hasta datos (biológicamente) anómalos o una debil estructura de los conjuntos. Sin embargo la presencia de estos problemas no debe ser tomada como signo de problemas en los datos. Como se ha dicho, el objetivo del análisis de clustering es obtener frecuencias y resúmenes estadı́sticos de los subgrupos obtenidos despues de particionar los datos. Habiendo obtenido los datos, en primer lugar se tratarı́a de eliminar los outliers, dado que estos pueden afectar a los resultados del clustering. Sin embargo, en determinados casos, puede ser dificil determinar si un evento se trata de un auténtico outlier o si, por el contrario, se trata de un genuino evento. Muchas veces se añade la dificultad de la multidimensionalidad de los datos, de modo que se requieren algoritmos especı́ficos que detecten estos datos anómalos[2]. Los conjuntos de datos suelen ser examinado para hallar los extremos o datos irrealizables o no realistas, los cuales afectarı́an a los resultados finales del clustering. La vulnerabilidad de algunos métodos de clustering a los outliers, como puede ser el caso del K-means que tiende a agrupar estos puntos en clusters pequeños, de poco eventos, pueden ser utilizados para localizarlos y eliminarlos. De este modo, como un primer paso preliminar, se puede aplicar el algoritmo sobre los datos puros, sin previo tratamiento de estos. La solución obtenida serı́a examinada para conseguir eliminar los clusters más pequeños, que supodrı́an aquellos sobre los que se localizan los outliers, y que, frecuentemente, contendrı́an valores medios extremos. También existen otros algoritmos que pueden encargarse de ruidos y outliers, como por ejemplo el clustering basado en modelos[6]. La transformación de los datos, puede ser necesario antes de aplicar los métodos de agrupación, especialmente si las variables tienen una alta asimetria estadı́stica, que puede ser detectable mediante simples descripciones estadistica de las variables o por la evaluación de sus histogramas. Del mismo modo se han de tener en cuenta aquellas que posean valores superiores a las demás. En un proceso de clustering, aquellas variables de menor valor pueden ser infravaloradas mientras de las de valores más grandes pueden dominar el proceso, haciendo recomendable un “estandarización” de las variables (según sea el caso), llevándolas a toda ellas a una escala similar. Los datos que se obtienen mediante determinados conjuntos de medios asistidos por ordenador, se pueden caracterizar por tener un gran número de variables y, en ocasiones, por la redundancia de estas. Esta redundancia proviene del hecho de que algunas de las distintas variables contenga información similar o unas sean derivadas de otras. Por ello se hace deseable reducir el número de variables antes de someter los datos a cualquier algoritmo de clustering, tanto para reducir la dimensionalidad de los descriptores como para eliminar la redundancia entre ellas. Del mismo modo, no todas las variables contribuyen igual a definir la estuctura de los clusters. La selección incorrecta de las variables puede producir una solución pobre, y tampoco es una tarea sencilla hacer una elección apropiada de estas. Una combinación de conocimiento subjetivo, tanto del conocimiento del investigador sobre la materia como de las técnicas, y un conjunto de métodos estadı́sticos suelen ser aplicados en este paso del procedimiento. Por lo general, un simple análisis entre las correlaciones de las variables suele valer para hallar aquellas que representan datos redundantes o que se encuentran altamente relacionadas. Existen diversas propuestas para poder analizar las variables mediante distintos tipos de clustering, de modo que se pueda seleccionar el subconjnto más adecuado y que mejor describa la estructura de los clusters. Algunos investigadores utilizan el Análisis de Componentes Principales (PCA) como una herramienta para reducir la dimensionalidad. El PCA remplaza las variables del conjunto de datos multivariantes por un conjunto no correlacionado de variables derivadas, denominadas componetes principales y que son combiación lineal de las variables iniciales. Con el conjunto de componentes principales se puede observar cuales de ellos contienen la mayor varianza, pudiendose tomar únicamente estos y reduciendo, de este modo la dimensionalidad del conjunto. Sin embargo, el uso del PCA, tal como critican diversos autores[1], no mantiene la posible estructura de los clusters, aunque para otros investigadores se trata de una herramienta de gran valor para la exploración de datos y la selección de las variables[7], [8], [9]. III. III-A. M ÉTODOS DE C LUSTERING Cálculo de la matriz de distancias. Los procesos de clustering presentan un gran número de elecciones entre los investigadores. Cualquier método puede ser utilizado para evaluar las clases constituyentes de una gran población estadı́stica y casi cualquiera de ellos se pueden llevar a cabo para la búsqueda de subpoblaciones. Sin embargo no todas pueden obtener los mismos resultados y, de ese modo, resultan más convenientes unos métodos que otros. De hecho, antes de llevar a cabo el clustering normalmente es necesario realizar un paso preliminar para generar una matriz de distancias entre observaciones. Estas distancias proporcionan una medida de la proximidad entre ellas. Algunos de estos métodos son desarrollados utilizando distancias euclideas[10], [11], pero puede ser probable que de este modo no se consiga informacion que puede ser conseguida mediante otras métricas, incluso deberı́a ser realizada una comparación con los resultados que se pueden obtener de la valoración de otros tipos de distancias tipo Manhattan o Mahalanobis[12]. La elección de la métrica a utilizar llega a ser tan importante como la elección del algoritmo de clustering. La métrica utilizada para generar la matriz de distancias definirá la geometrı́a de los clusters encontrados, de modo que estos podrı́an diferir de los clusters reales. Una distancia Euclı́dea desarrolla una geometrı́a esférica al ser aplicado un algoritmo como el kmeans (lo cual suele ser extraño encontrar para subpoblaciones de citometrı́a de flujo), mientras que una distancia de Manhattan producirı́a clusters de estructura elipsoidal. Otros, como los algoritmos de clustering jerárquico utilizan directamente las distancias para hacer las asociaciones. Suele resultar interesante hacer una comparación entre las distintas métricas, y elegir la más adecuada, que siempre vendrá basada en el tipo de datos que se tengan y el contexto del clustering[12]. III-B. Técnicas de Clustering. Las técnicas de clustering son el paso principal en la búsqueda de subpoblaciones. Este se ve claramente influido por el número de descriptores que se hallan tomado al igual que por la pureza de los datos que se disponga. Como con cualquier técnica estadistica, es de esperar que los datos cumplan con una serie de requisitos para poder aplicar algoritmos de clustering. A demas de ello, un determinado tipo de datos puede responder mejor a un algoritmo concreto y, de igual modo, un algoritmo puede resultar bueno en un caso mientras que con otro conjunto de datos, en otra rama de la ciencia, puede producir un resultado pobre. Existe una gran variedad de posibilidades y la cuestión no es aplicar un método tanto como hayar la mejor elección para un tipo particular de datos. Los métodos de clusterin básicos pueden ser divididos, a grosso modo, entre particionales y jerárquicos. En este apartado se desarrollaran algunos de los métodos que componen estas grandes familias, pero se incluiran otros dos grupos, que bien podı́an llamarse también de partición, pero que debido a sus particularidades se ha decidido tratarlas a parte. III-B.1. Métodos de partición o no jerárquicos.: En la mayorı́a de los métodos de partición, el número final de clusters que han de ser desarrollados, k, es decidido por el investigador antes de realizar el proceso de partición. Los algoritmos comienzan asignando las observaciones a los k grupos y recalculando la pertenencia de los eventos a cada cluster de una manera iterativa y buscando la partición óptima de los datos. El mas popular y sencillo de los metodos de partición es el algoritmo de k-medias (k-means). La eleción inicial de número de clusters, a demás de tratrarse de un algoritmo sensible a ruido y a los outliers o que puede tender a converger en óptimos locales, son algunos de los inconvenientes de los que padece este método. Existen versiones más robustas, e incluso computacionalmente más eficaces, de dicho algoritmo en diversos paquetes estadisticos. Del mismo modo, también hay variantes que pretenden un acercamiento a hallar una solución global, como puede ser el algoritmo Modified Global K-means (MGKM)[13]. Por contra, esta variante, tiene un mayor tiempo de coste computacional. La tendencia que puede tener el k-means hacia los mı́nimos locales suele venir determinada por los valores iniciales al repartir los k-centroides. Los algoritmos genéticos (GAs) pueden solventar esa situación. Ya, por si sólos, pueden ser utilizados para determinar las subpoblaciones constituyentes del conjunto de datos inicial con buenos resultados para tender hacia óptimos globales. Sin embargo, entre sus problemas se cuentan, no solo la elección inicial del número de poblaciones, k, sino que también el conjunto de datos inicial ha de ser relativamente pequeño y de baja dimensión, a demás se han de tener en cuenta las definiciones de la probabilidad de mutación, el tamaño de la población de cromosomas o el número de generaciones, necesarias para el desarrollo de los GA, los cuales puede hacer que los algoritmos conlleven un gran coste computacional hasta converger al óptimo global. Los estudios que combinan k-means con algoritmos genéticos incluyen, entre otros, el algoritmo Incremental Genetic K-means Algorithm (IGKA)[14]. Se trata de una combinación hı́brida que tiende hacia un óptimo global mas rápidamente que utilizando únicamente los genéticos y sin la sensibilidad a la elección de los valores iniciales que tiene el k-means. Otra opción en la búsqueda de subpoblaciones es el uso de la versión borrosa del k-means, Fuzzy C-Means (FCM)[15], o el Fuzzy Clusterin by Local approximations of Membership (FLAME)[16]. En ambos, los datos son asignados a los clusters indicando un grado porcentual de pertenencia asociado a cada cluster. Sin embargo difieren en el esquema utilizado para determinar la contribución de cada punto a la media del grupo. En el FCM, el valor de pertenencia a un conjunto es proporcional a su similaridad con la media de dicho clustrer y su contribución a esta está basada en ese grado de pertenencia. El grado es ajustado iterativamente dependiendo de la varianza del sistema. Al igual que ocurrı́a con el k-means, los clusters proporcionados por el FCM son inestables y se ven considerablemente influidos por los parámetros de los valores iniciales de los centroides e, igualmente, el número de clusters debe ser especificado a priori. A diferencia, FLAME calcula la pertenencia a un conjunto en función de sus vecinos cercanos, lo cual reduce el impacto del ruido sobre los clusters solución y se puede clasificar un outlier a partir de la definición de un umbral el cual, si es superado, devolverı́a el valor a un cluster dedicado exclusivamente a estos. FLAME produce grupos estables. Los clusters hallados mediante estas técnicas, generalmente un gran número de pequeñas agrupaciones, ha de ser unido mediante algún criterio predefinido, que será tratado en apartados posteriores, para identificar el número óptimo de subpoblaciones incluidas en el grupo inicial. III-B.2. Métodos jerárquicos: A diferencia de los métodos de partición que, se podrı́a decir, actúan a un único nivel, los métodos jerarquicos pueden ser entendidos como un proceso comprendido en varios pasos a distintos niveles a los cuales se encuentran asociados los datos. Existen dos grandes familias en los métodos jerárquico. Estos pueden ser divisivos, partiendo de la población inicial que esta sea fragmentada en distintos clusters por métodos iterativos, o aglomerativos, que asumiendo la asociación de un evento a un cluster singleton, estos sean unidos sucesivamente según algún criterior hasta alcanzar un único cluster de población. Estos procesos que generan jerarquias entre los clusters pueden ser dibujados en un árbol o dendrograma. Es un método muy utilizado en la búsqueda de subpoblaciones, no tanto como sistema para poder hallarlas sino porque permite visualizar y describir las relaciones existentes entre los datos del conjunto y los clusters que pueden ir conformando. Un estudio preliminar del dendrograma de los datos puede ayudar a determinar el número de clases constituyentes de una población. Existen gran cantidad de procedimientos algorı́tmicos que producen un clustering jerárquico, algunos tan sencillos como a traves de la unión de los vecinos cercanos (single linkage) o teniendo en cuenta la distancia entre los vecinos más lejanos (complete linkage) hasta completar el dendrograma. El método UPGMA, que puede verse comumente en estudios sobre población genética, tiene en cuenta la distancia promedio entre todos los pares para producir las uniones (Average linkage). Por último cabe nombrar el método de Ward, que minimiza el error cuadrático medio del análisis de varianza (ANOVA) entre dos clusters, para terminar de nombrar los métodos más comunes y apropiados de este tipo de clustering. Hay que tenern en cuenta que los cálculos de las matrices de distancias entre los datos que propiciarán la unión entre ellos requieren un alto coste computacional, con lo cual no siempre es posible realizar un método jeráquico, como ocurre con ejemplos en citometria de flujo donde los conjuntos pueden contener decenas o cientos de miles de datos. III-B.3. Métodos Multi-Step.: El proceso Multi-Step o multi-paso (también conocido como Two-Step Cluster[17]) es un método que pretende conseguir la ventaja de ambos procesos anteriores, sobretodo cuando el segundo método tiene requerimentos impracticables desde el punto de vista computacional, como puede ser en el caso de los jerárquicos. En este modelo se trata de desarrollar en primer lugar un proceso de partición (como por ejemplo, mediante k-means) que produzca un gran número de clusters y que estos sean unidos en subsiguientes pasos mediante un proceso jerárquico permitiendo, de este modo, la visualización de las relaciones existentes mediante un dendrograma[18], [17], [8]. El primer paso puede ser utilizado para identificar outliers o clusters especiales, permitiendo continuar en el segundo paso con un óptimo conjunto de clusters. III-B.4. Métodos basados en modelos.: Los métodos basados en modelos parten de asumir que una población se encuentra formada de una mezcla de distintas subpoblaciones. Con estos métodos se tratan de solventar distintos problema como la elección del modelo más adecuado y la elección del algoritmo de clustering, ası́ como de tener que predefinir el número de clusters existentes desde un principio o eliminar outliers. Utilizando métodos de probabilidad máxima, como el algoritmo Expectation-Maximitation (EM) se busca la optimización del modelo. Es común encontrar estos algoritmos aplicados para la búsqueda de poblaciones de mezclas Gausianas, sobretodo en hematologia u otros campos cercanos a la citometria de flujo, en donde se obtienen buenos resultados. Este tipo de métodos funciona bien para conjuntos de datos pequeños o moderados. Sus requerimientos en grandes conjuntos son computacionalmente caros. Sin embargo, para trabajar con un gran número de eventos, los métodos basados en modelos también pueden utilizarse como un segundo paso de los métodos multi-step, obtieniendo buenos resultados[19], [20]. Por otro lado, el método de conglomeración bayesiano basado en Cadenas de Markov de Monte Carlo, es frecuentemente usado para estudios de estructura genética poblacional. Estimando la distribución a posteriori de coeficientes asociados a cada individuo, que se corresponden a los distintos subgrupos en los que éste puede clasificarse, el valor esperado de la distribución a posteriori provee una estimación de la proporción que el genoma de un individuo tiene o comparte con los distintos subgrupos. III-B.5. Redes neuronales.: Las redes neuronales, o neural networks (NN), estan basadas libremente en el comportamiento biológico de las neuronas cerebrales y tratan de emular sus métodos de aprendizajes para establecer patrones. Una red puede ser considerada como una colección de nodos interconectados cuyas conexiones dependen de unos pesos que varı́an a medida que la red “aprende”. En particular existen dos grandes algoritmos, basados en redes neuronales, utilizados para el reconocimiento de subpoblaciones. Uno de ellos se conoce como Mapas autoorganizados (Self-Organizing Maps, SOM[21]) y el otro se trata de la Teorı́a de Resonancia Adaptativa (ART). Los mapas autoorganizados, o mapas de Kohonen, se tratan de un tipo particular de red en que los datos multivariantes tienen una salida generalmente bidimensional de nodos no conectados entre sı́ que forma un mapa de la actuación de las neuronas salida. Los casos con salida similar se encuentran dibujados en regiones cercanas de la red neuronal; de este modo vecindad viene a representar similaridad. Una función de kernel, la cual define las región de influencia (o vecindad) para un vector de entrada, distingue los SOM del k-means. Los mapas autoorganizados constituyen un método de conglomeración similar a los métodos no jerárquicos, en donde los grupos que se forman se ubican espacialmente sobre la estructura de la red definida. Sin embargo estos son robustos a ruidos y outliers, dependiendo de la distancia métrica y la función de vecindad usadas. Al igual que los K-means, los mapas pueden producen soluciones no óptimas si los pesos iniciales para las interconexiones de las neuronas no son elegidos apropiadamente. Del mismo modo hay que definir el número de nodos de la capa de salida. La convergencia es controlada por los parámetros de aprendizaje y su función de vecindad. Existen distintas variantes de los mapas auto-organizados que conllevan la representación de los datos en una estructura de árbol. Ası́ se nombrarán tres: el Self-Organising Tree Algoritm (SOTA)[22]; Dynamically Growing Sel-Organising Tree(DGSOT) algortithm[23]; y, más recientemente se ha presentado el Growing Hierachical Tree SOM (GHT-SOM)[24]. Estos algoritmos combinan las ventajas de las redes neuronales, como pueden ser la velocidad y la robustez de estas, y las del clústerin jerárquico, como el hecho de no necesitar conocer a priori el número de clases o una salida que puede ser representada en forma de árbol. SOTA conforma un árbol binario, mientras DGSOT estructura un árbol cuya rama se es capaz de dividirse en n. GHTSOM representa un árborl triangular donde cada nodo es un SOM de tres neuronas conectadas Estos tres algoritmos difieren de los metodos jerárquicos tı́picos en su modo de adaptación y en la estructura de crecimiento de su dendrograma. Por otra parte, a diferencia de otros modelos de redes neuronales donde se puede encontrar el problema entre la plasticidad, es decir permitir que la red aprenda nuevos patrones, y la estabilidad del aprendizaje, que estos patrones puedan ser retenidos o recordado, el método ART soluciona dicho problema mediante un mecanismo de realimentación entre las neuronas. Cuando a la red se le presenta un patrón de entrada este se hace resonar con los prototipos de las categorı́as conocidas por la red. Si el patrón entra en resonancia con alguna clase se le asociar a esta. En caso de que el patrón nuevo no entre en resonancia con ninguna clase se pueden dar dos situaciones: si la red posee una capa de salida estática entrará en saturación dado que no podrá crear una nueva clase para el patrón presentado ni puede asignarlo a una clase existente; pero, en caso de que la red posea una capa de salida dinámica se crear una nueva clase para dicho patrón sin afectar a las clases ya existentes. Existe una variante del método ART, conocida como Realtime Adaptive Clustering (RTAC), utilizada con éxito en hematologı́a y citometrı́a de flujo[25], campos en los cuales también pueden verse aplicaciones de los mapas de Kohonen. Sin embargo, los SOMs y todas sus variantes aquı́ presentadas, es más común encontrarlas en tratamientos de expresiones genéticas[22]. III-C. Número de clusters y validación. Como se ha indicado previamente, raramente se conoce a priori el número de subpoblaciones que conforman un conjunto. Por supuesto, experimentos previos, un examen preliminar de los datos o el uso de conjuntos de entrenamiento puede ser usado para fijar el número de cluster a para una determinada situación. Sin embargo, la estimación subjetiva del número de clusters no debe ser infravalorada. La experiencia del investigador puede resulta de gran utilidad a la hora de identificar patrones reales o posibles outliers, a demás de posibles valores potenciales de los clusters Por otra parte, existen diversos metodos estadı́sticos que pueden resultar de utilidad a la hora de estimar el óptimo número de clusters en un conjunto. Estos métodos en ocasiones pueden ser utilizados incluyéndose en los algoritmos de clustering de modo que el número de iteraciones de este se detenga cuando se alcance un determinado valor. Muchas veces, estos mı́smos métodos estadisticos pueden utilizarse para validar el conjunto de clusters. En primer lugar ha de quedar claro que la estabilidad de los cluster ha de ser probada. Un clustering de buena calidad ha de proporcionar conjuntos compatos y tan separados como sea posible, a demás de ser estables, es decir, que la solución sea consistente ante la presencia de perturbaciones. Por último, y dado el tema que se está tratando en este articulo, los clusters hallados han de poseer un significado en el campo de estudio. De nada vale hacer una partición de los datos si estos no representan un subconjunto cuyas caracterı́sticas se diferencien y tengan un significado biológico distinto a las del resto del conjunto. Entre las posibles estadı́sticas a utilizar para hallar el número optimo de clusters se puede nombre el criterio SAW (Silhouette Average Width criterion), el coeficiente Γ de Hubert o el ı́ndice de Dunn. Las variaciones que pueden aparecer al presentar estos criterios con respecto al número de clusters, mostrándose como gráficas de picos y valles, dan una idea sobre el número de subpoblaciones óptimas que se pueden hallar. Los metodos basados en modelos, por el contrario, tratan de optimizar funciones de criterio como el de infererencia bayesiana (BIC) para hayar el número óptimo de subconjuntos. Sin embargo, muchos investigadores en técnicas de clustering consideran que pueden ser métodos para obtener una aproximación pero que resulta imposible determinar cuál es el número correcto de poblaciones constituyentes. Del mismo modo que se pueden comparar los resultados del clustering puede utilizarse en ajuste del ı́ndice de Rand o el coeficiente Γ de Hubert para valorar dos algoritmos distintos. Como se ha dicho, el método seleccionado para la hallar correctamente las subpoblaciones dependera de los datos de que se disponga. La mejor opción para validar los resultados de un clustering serı́a, por supuesto, que estos fueran comparados con una clasificación estandar del conjunto, lo cual no siempre es posible. IV. C ONCLUSION Las técnicas de clustering suponen una poderosa herramienta para el analisis de poblaciones. Muchos investigadores de distintos campos las utilizan para agrupar sus datos en búsqueda de subpoblaciones de particular interés. No hacer falta decir que determinadas búsquedas dentro de la biologia o la medicina pueden suponer un gran avance en la comprensión de determinadas enfermedades o en sus tratamientos. La búsqueda de una subpoblación relevante en genética puede trazar nuevos caminos para las terapias génicas o cambios en los modelos utilizados para combatir el cander o la leucemia. En este trabajo se han tratado de representar las principales técnicas de agrupamiento de datos, de un modo ligero, que se pueden suelen utilizar en estas búsquedas. No obstante, aunque la utilización de dichas técnicas en los campos nombrados supongan un gran avance en la comprensión el tratamiento de los datos, los avances que se generen en las mismas técnicas reprecutiran de un modo mayor, y positivo, en dichas ramas de la ciencia. Sobretodo, el actual trabajo se ha centrado en los métodos de clasificación no supervisados. Muchos de los investigadores citados en estas páginas, despues de alcanzar la comprensión de los patrones que rigen las subpoblaciones de interés, están utilizando la clasificación supervisada. Ya hay estudios que utilizan algoritmos tan sencillos como el k-vecinos próximos (k-nn) o más complejos como el Support Vector Machine (SVM), incluso obteniendo mejores resultados que con los métodos expuestos. R EFERENCES [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [22] K. Y. Yeung and W. L.Ruzzo, Principal component analysis for clustering gene expression data. Bioinformatics, pages 763-774, 2001. P. Filzmoser, R. G. Garret and C. Reimann, Multivariate outlier detection in exploration geochemistry. Comp. Geosci., pages 579-587, 2005 F. Martı́nez-Pastor, E. Jorge Tizado, J. Julian Garde et. al., Statistical Series:Opportunities and challenges of sperm motility subpopulation analysis. Theriogenology 75, page 783-795, 2011. G. Kerr, H. J. Ruskin, M. Crane and P. Doolan, Techniques for clustering gene expression data. Computers in Biology and Medicine 38, pages 283-293, 2008. J. Lakoumentas, J. Drakos, M. Karakantza et al., Bayesian clustering of flow cytometry data for the diagnosis of B-Chronic Lymphocytic Leukemia. Journal of Biomedical Informatics 42, pages 251-261, 2009. C. Fraley and A. Raftery, Model-based clustering, discriminant analysis, and density estimation. J. Am. Stat. Assoc., pages 611-632, 2002. J. Dorado, I. Molina, A. Muñoz-Serrano and M. Hidalgo, Identification of sperm subpopulations with defined motility characteristics in ejaculates from Florida goats. Theriogenology, pages 795-804, 2010. F. Martinez-Pastor, V. Garcia-Macias, M. Alvarez et al., Sperm subpopulations in Iberian red deer epididymal sperm and their changes through the cryopreservation process. Biol. Reprod., pages 316-327, 2005. I. Nuñez-Martinez, J. Moran and F. Peña, A three-step statistical procedure to identify sperm kinematic subpopulations in canine ejaculates: after cryopreservation. Reprod. Domest. Anim., pages 408-415, 2006. A. Quintero-Moreno, J. Miro, T. Rigau and J. E. Rodriguez-Gil, Identification of sperm subpopulations with specific motility characteristics in stallion ejaculates. Theriogenology, pages 973-990, 2003. A. Quintero-Moreno, T. Rigau and J. E. Rodriguez-Gil, Regression analyses and motile sperm subpopulation estructure study as improving tools in boar semen quality analysis. Theriogenology, pages 673-990, 2004. R. Xu and D. Wunsch, Survey of clustering algorithms. IEEE Trans. Neural Netw., pages 645-678, 2005. A. M. Bagirov and K. Mardaneh, Modified Global k-means algorithm for clustering in gene expression data set. WISB, Australian Comp. Soc, Inc., pages 23-28, 2006. Y. Lu, S. Lu, F. Fotouhi et. al., Incremental genetic k-means algorithm and its application in gene expression data analysis. BMC Bioinformatics 5, 2004. D. Dembele and P. Kastner, Fuzzy c-means method for clustering microarray data. Bioinformatics 19, pages 973-980, 2003. L. Fu and E. Medico, FLAME. A novel fuzzy clustering method for the analysis of DNA microarray data. BMC Bioinformatics 8, 2007. I. N. Martinez, J. M. Moran and F. J. Peña, Two-step cluster procedure agter principal component analysis identifies sperm subpopulations in canin ejaculates and its relation to cryoresistance. J. Androl., pages 596-603, 2006. T. Abaigar, W. Holt, W. Harrison and G. del Barrio, Sperm subpopulations in boar (Sus scrofa) an gazelle (Gazella dama mhorr) semen as revealed by pattern analysis of computer assited motility assessment.. Biol. Reprod. , pages 32-41, 1999. C. Fraley and A. E.Raftery, How many clusters? Which clustering method? Answer via model-based cluster analysis. Comput. J, 1998. J. Handl, J. Knowles and D. B. Kell, Computational cluster validation in post-genomic data analysis. Bioinformatics, 2005. T. Kohonen, The self-organizing map. Proc. IEEE 78,1990. P. Tamayo, D. Slonim, J. Mesirov, Q. Zhu et. al., Interpreting patterns of gene expression with self organizing maps: methods and application to hematopoietic differentiation. Proc. Natl. Acad. Sci USA 96,1999. J. Herrero, A. Valencia and J. Dopazo, A hierachical unsupervised growing neural network for clustering gene expression patterns. Bioinformatics 17, pages 126-136, 2001. [23] F. Luo, L. Khan, F. Bastani et. al., A dynamically growing selforganizing tree (DGSOT) for hierarchical clustering gene expression profiles. Bioinformatics 20, 2004 [24] A. Forti and G. L. Foresti, Growing hierachical tree SOM: an unsupervised neural network with dynamic topology. Neural Networks 19, 2006. [25] L. Fu, M. Yang, R. Brylan and N Benson, Real-time adaptive clustering of flow cytometric data Pattern Recognit, pages 365-373, 1993. Universidad de León. Gil. Andrés, Warm air moving system. Warm air moving system; an evolved idea of the Trombe wall. A. Gil* Universidad de León Abstract—Trombe wall is a passive solar heating system but in this research we will try to turn it into an active system automating the air movement process. This new system is developed over an Arduino micro controller and connected with the environment with two temperature sensors and a light sensor. This information captured is used to control a fan, which enhances the air current inside the wall, and a servo motor moving a gate that opens and closes the air circuit. A specific program has been written for this project in order to satisfy all the situations that can occur. We will comment all theses points during the paper. Keywords— Trombe wall, assisted Trombe wall, Renewable energy. I. INTRODUCTION In recent years there has been a resurgence of interest in developing renewable energy power systems in both developed and developing countries. There is a global desire to diversify fuel sources, reduce dependence on fossil fuel import and mitigate volatile fuel costs. The need to mitigate climate change by reducing greenhouse gas emissions- specifically, carbon dioxide [1]. Photovoltaic and renewable energies are growing at a much faster pace than the rest of the economy in Europe and worldwide. This and the dramatic oil price increases in 2005 have led to a remarkable re-evaluation of the renewable energy sector by politics and financing institutions. * Corresponding author. Tel.: +34 649357213; E-mail address: [email protected] Despite the fact that there are still discrepancies between the European Union and the USA, as to how to deal with climate change, renewable energies will play an important role for the implementation of the Kyoto Protocol and the worldwide introduction of tradable Green Certificates. Apart from the electricity sector, renewable energy sources for the generation of heat and the use of environment friendly biofuels for the transport sector will become more and more important in the future [2]. Renewable energy has the potential to play an important role in providing energy with sustainability to the vast populations in developing countries who as yet have no access to clean energy [3]. About energies we do not know exactly where is the future. The notion of a “hydrogen economy” is moving beyond the realm of scientists and engineers and into the lexicon of political and business leaders. Interest in hydrogen, the simplest and most abundant element in the universe, is also rising due to technical advances in fuel cells — the potential successors to batteries in portable electronics, power plants, and the internal combustion engine [4]. We want to focus this paper in a specific renewable energy system called Trombe wall. A simple definition can be as follows: A wall with high thermal mass used to store solar energy passively in a solar home. The wall absorbs solar energy and transfers it to the space behind the wall by means of radiation and by convection currents moving through spaces under, in front of, and on top of the wall [5]. This research describes how to perform an autonomous and evolved Trombe wall. Universidad de León. Gil. Andrés, Warm air moving system. II. MATERIALS AND METHODS A. How a Trombe Wall works Passive solar heating systems incorporate the solar collection and storage into the building structure and distribute the heat by natural means. A type of passive solar home heating system was developed by Trombe and Michel at the C.N.R.S. laboratories in France in the 1960s. The system is today commonly called the Trombe wall [6]. Fig. 1. Schematic diagram of Trombe wall with DC fan for winter heating. The Trombe wall (Fig. 1) incorporates the use of a North facing vertical wall with a glass cover (South facing in the Northern Hemisphere). The wall also forms part of the structural support for the building. Solar energy passes through the glass cover and is absorbed on the darkened wall surface. This energy is "trapped", in a way similar to the heat in a greenhouse, as glass is opaque to thermal radiation. The wall, which is usually of brick or concrete construction, stores that heat and conducts it to the living area. Heat is transferred from the back face of the wall to the room by convection and radiation. Vents are located at the bottom and top of the wall. Cooler room air, drawn through the bottom vents, is heated as it passes up the duct and then delivered into the room through the top vents. This convective heat transfer--called "thermocirculation"--provides a direct heat path to the room, whilst the heat conducted through the wall exhibits a thermal delay. Ideally these two heat paths could be matched to provide comfortable living conditions throughout the day [6]. 2 For winter heating, the winter air vents are periodically opened while the summer air vents are always closed. The system sucks the indoor air from the bottom winter air vent, then vents into the room through the top winter air vent. The airflow in the air duct, which is driven by thermosiphon and an optional DC fan (without or with DC fan), removes heat from both the glass panel and the blackened wall. Then, through the top winter air vent, the warmed air is mixed in the room and enters the bottom air vent at last. Undesired reverse airflow during night can be prevented by the periodical open of vents [7]. B. The Idea As we have said in the introduction, we will try to perform an autonomous and evolved Trombe Wall. Autonomous means that it can work by it self in all possible situations previously programmed. Evolved means working with assisted air current (air moved with a DC fan). But the idea in this research differs from the typical idea of a Trombe wall. We will use the concepts of a Trombe wall and apply them to a sunroom. This means that the mass of warm air is higher and we do not have natural convection air current. With our prototype we will try to move a warm mass of air from a sunroom to a room inside the house. With this research we will try to analyze if this assistance provides better yields to the global system and how well this amount of air can be moved inside the house. C. The prototype The design for this research consists of a mechanism that can be embedded in the upper part of a wall. This mechanism has quadrangular boxshape. It is 13 cm high, 13 cm wide and, for this design, it is 30 cm deep but it should fit with the depth of the wall. This “box” has a fan inside. The fan is responsible for moving the warm air mass form the sunroom to the inner room. The fan will try to enhance the natural air current circulation. The box has a gate in order to open and close the hole and let the air current circulate. This gate is commanded by the servo motor. Universidad de León. Gil. Andrés, Warm air moving system. As we will explain later, the gate and the fan are communicated with the environment with two temperature sensors, one light sensor and the microcontroller Arduino commands every action and decision of the system. The electrical scheme (Fig. 2) shows the connections between sensors, Arduino and actuators. 3 microcontroller on the board is programmed using the Arduino programming language (based on Wiring) and the Arduino development environment (based on Processing)[8]. We have used the model Arduino UNO. The Arduino Uno is a microcontroller board based on the ATmega328. It has 14 digital input/output pins (6 of which can be used as PWM outputs), another 6 as analogue inputs, a 16 MHz crystal oscillator, a USB connection, a power jack, an ICSP header, and a reset button [8]. Subsequently, we will describe all the other elements of the circuit, the most important ones being servomotor, temperature and light sensors and the fan. E. Servo motor A Servo is a small device that has an output shaft. This shaft can be placed in specific angular positions by sending the servo a coded signal. As long as the coded signal exists on the input line, the servo will maintain the angular position of the shaft. As the coded signal changes, the angular position of the shaft changes too [9]. In our prototype the Servo executes the actions of opening and closing the gate of the model. The gate is open when the outside temperature is higher than the inside temperature and should be close in the opposite case, letting the free circulation air current or not. Fig. 2. Electrical scheme of the prototype. D. Arduino. The microcontroler To carry out the experiment we have selected Arduino as a micro controller and brain of the system. Arduino is an open-source electronics prototyping platform based on flexible, easy-to-use hardware and software. Arduino can sense the environment by receiving input from a variety of sensors and can affect its surroundings by controlling lights, motors, and other actuators. The F. Temperature Sensor Our system communicates with the environment using 3 sensors. Two of them are temperature sensor and these inform us about the temperature inside the building as well as outside. The model selected for the design is LM35. The LM35 series is made up of precision integrated-circuit temperature sensors whose output voltage is linearly proportional to the Celsius (Centigrade) temperature. The LM35 does not require any external calibration or trimming to provide typical accuracies of ±¼°C at room temperature and ±¾°C over a full -55 to +150°C temperature range and 0.5°C accuracy guaranteed (at +25°C) [10]. These sensors are connected to the analogue Universidad de León. Gil. Andrés, Warm air moving system. entries of the microcontroller and let the system run when the temperature outdoors is higher than the temperature indoors. Otherwise the system could not run G. Light Sensor The other sensor used in this design is a common LDR (Light Dependent Resistors), but it can be known by many names. These names include the photoresistor, photo resistor, photoconductor, photoconductive cell, or simply the photocell. It is a resistor whose resistance decreases with increasing incident light intensity. For the design the LDR is programmed to let the system works during the daylight but it must be off at night, no matter the temperature in both sides of the house. H. The Fan For this project a new version of fan is going to be used. Our model has 15 blades that increase the air current yield (32.5-78 CFM, cubic feet per minute), compared to a normal one with fewer blades, and can work with a low level of noise (9dB-15dB). This is very important for the project. Those values depend on the voltage applied every instant, since the fan can work between 7 and 12 V. This range of voltage will be used to control the r.p.m. of the fan. I. Program Description The program has been written in Arduino language. Basically the program tries to command all the possible situations previously stipulated. The basic states or possibilities proposed are: A. The system works in daylight. B. The system works when the temperature outdoors is higher than the temperature indoors. C. The gate will be opened when A. and B. agree with each other. Otherwise it will be closed. D. The fan is activated when A, B, C agree with each other. All the states of the system have been 4 implemented as functions. For example, open gate is a function and fan-activated is another one. In each function all the sensors are read in order to refresh the environment variables and execute the corresponding actions. The fan function has been implemented in order to adjust the velocity of the rotor to the temperature gradient, i.e. higher temperature differences mean higher velocity of the fan. Open and close gate functions send and electrical signal to the servo motor, positioning the rotor in 0 degrees and 90 degrees. J. Assembling all the components. Once everything is ready and the program is working properly, all parts must be matched and the prototype assembled. The box-shape structure has been made with methacrylate and the fan has been installed in the middle of the structure. The light and temperature sensors are located with long wires outside the house (in the sunroom) trough the hole in the wall. The other temperature sensor is located inside de house. The servomotor in placed inside de box structure and close to one side in order to minimize the interruptions over the air current. The servomotor will move the gate that is going to be placed inside the house. Arduino micro controller and the other elements of the circuit are placed in a new board and adjust to one side of the box. The next step is to settle the structure inside the hole in the wall and connect the power source. III. RESULT By developing this project we have realized that the theoretical idea can be implemented into a physical reality. The prototype works by itself without any problem, overcoming all the situations that it has been programmed for. We have demonstrated that the program is reliable and stable. The micro controller can interact perfectly with the environment with the help of the three sensors. All actions are executed according to the Universidad de León. Gil. Andrés, Warm air moving system. variable states previously configured. It has been shown that, by using this system, the warm air in the sunroom is moved into the house, heating the space inside. This increases the temperature of the room in some degrees, depending on the temperature gradient between both spaces. There are also problems such as the optimum fan speed and the fan’s energy consumption, which need further research. IV. CONCLUSION AND FUTURE WORKS Once several weeks have passed since the installation of the prototype we can conclude that the result is successful. In further research we will try create an interface and a network between the system and a PC or Smartphone with the purpose of controlling the system with a portable gadget anywhere and anytime. Additionally, we are considering the installation of solar cells to avoid the power consumption and make it self-sustaining. V. ACKNOWLEDGMENTS This work has been supported by Universidad de León. 5 [3] J.P Painuly, Barriers to renewable energy penetration; a framework for analysis, Renewable Energy, Volume 24, Issue 1, September 2001, Pages 73-89, ISSN 0960-1481, 10.1016/S0960-1481(00)00186-5. Available: http://www.sciencedirect.com/science/article/pii/S09601 48100001865 [4] Seth Dunn, Hydrogen futures: toward a sustainable energy system, International Journal of Hydrogen Energy, Volume 27, Issue 3, March 2002, Pages 235264, ISSN 0360-3199, 10.1016/S0360-3199(01)001318. Available: http://www.sciencedirect.com/science/article/pii/S03603 19901001318 [5] Specialty Expressions: Trombe wall. Available: http://www.websters-onlinedictionary.org/definitions/Trombe+wall?cx=partnerpub-0939450753529744%3Av0qd01tdlq&cof=FORID%3A9&ie=UTF8&q=Trombe+wall&sa=Search#906 [6] A. Akbarzadeh, W.W.S. Charters, D.A. Lesslie, Thermocirculation characteristics of a Trombe wall passive test cell, Solar Energy, Volume 28, Issue 6, 1982, Pages 461-468, ISSN 0038-092X, 10.1016/0038092X(82)90317-6. Available: http://www.sciencedirect.com/science/article/pii/003809 2X82903176 [7] Ji Jie, Yi Hua, Pei Gang, Jiang Bin, He Wei, Study of PV-Trombe wall assisted with DC fan, Building and Environment, Volume 42, Issue 10, October 2007, Pages 3529-3539, ISSN 0360-1323, 10.1016/j.buildenv.2006.10.038. Available: http://www.sciencedirect.com/science/article/pii/S03601 32306003428 [8] Arduino Definition. Available: http://www.arduino.cc/ [9] Servo motor. Available: http://www.seattlerobotics.org/guide/servos.html VI. REFERENCES [1] A. Adamantiades, I. Kessides, Nuclear power for sustainable development: Current status and future prospects, Energy Policy, Volume 37, Issue 12, December 2009, Pages 5149-5166, ISSN 0301-4215, 10.1016/j.enpol.2009.07.052. Available: http://www.sciencedirect.com/science/article/pii/S03014 21509005436 [2] Arnulf Jäger-Waldau, Photovoltaics and renewable energies in Europe, Renewable and Sustainable Energy Reviews, Volume 11, Issue 7, September 2007, Pages 1414-1437, ISSN 1364-0321, 10.1016/j.rser.2005.11.001. Available: http://www.sciencedirect.com/science/article/pii/S13640 32105001218 [10] LM35 Precision Centigrade Temperature Sensor. Available: http://www.ti.com/product/lm35#feature Universidad de León Alonso, Ismael Aplicaciones Móviles Software móvil Universitario Alonso Juan, Ismael Universidad de León León, España Resumen — Los avances en el uso de las tecnologías móviles permiten a los estudiantes acceder a toda la información de sus estudios a través de los dispositivos móviles, sin necesidad de usar un ordenador. Como consecuencia surge la necesidad de estudiar estas tecnologías y desarrollar aplicaciones que acerquen aun más la Universidad a los estudiantes. INTRODUCCIÓN Los teléfonos móviles son usados por casi todos los estudiantes a día de hoy. Es difícil encontrar alguien sin un teléfono con acceso a internet. De aquí parte el estudio de los tres principales sistemas operativos usados en los teléfonos móviles, iOS, Android y Windows Phone [1]. A través del cual se estudia qué sistema es más potente y cual mas fácil para el desarrollo de software. Las aplicaciones móviles dan una funcionalidad extraordinaria a los propios dispositivos, gracias a estas aplicaciones, los usuarios pueden enviar mensajes, leer noticias y acceder a nuevos servicios creados por los desarrolladores de software móvil. También esto se ha extendido a las Universidades, desde retrasmitir las clases por internet y luego su posterior descarga vida iTunes, hasta tener aplicaciones propias de las Universidades en las que se pueden acceder a las notas, apuntes o ver las noticas de la Universidad [2]. uso. Esto hace que algunas de ellas sean poco intuitivas a la hora de querer realizar alguna acción. Las empresas que se dedican al desarrollo de aplicaciones para los bancos, están haciendo un gran esfuerzo en mejorar el aspecto de la accesibilidad y la facilidad de uso de ellas. I. II. FÁCILES DE USAR A. Aplicaciones Universitarias Las aplicaciones móviles se caracterizan por la facilidad de uso, su accesibilidad y por último su contenido. En las aplicaciones para Universidades, el usuario (alumno) tiene que intuir el funcionamiento de la aplicación según lo que necesite en ese momento sin tener que pararse a pensar más de un segundo para elegir el camino. B. Aplicaciones Comercio o Servicios Bancarios Las aplicaciones de servicios bancarios integran una gran cantidad de funciones a realizar, siendo una prioridad la seguridad del cliente antes que la facilidad de III. SISTEMAS PARA UNA APLICACIÓN El desarrollo de una aplicación varía mucho entre el sistema operativo que vaya a usarlo. Android, en el cual hay que tener unos conocimientos de Java, conocer el sistema operativo Android y sus dispositivos, dista mucho de realizar la misma aplicación para Windows Phone, cuyo lenguaje es C# o para iOS, cuyo lenguaje de programación es Objetive-C y su uso se limita sólo a iPhone, iPad o iPod Cada teléfono móvil tiene una distribución diferente de sus capas de abstracción [3] y por lo tanto de su forma de programación. IV. APLICACIÓN PARA LA UNIVERSIDAD DE LEÓN La realización de una aplicación móvil para la Universidad de León tiene que contener todos los servicios necesarios para los estudiantes a los cuales pueden acceder a través de un ordenador. Esta información tiene que ser accesible y fácil de usar, y en el caso de poseer algún tipo de pago o reserva, tiene que poseer una cierta seguridad para garantizar el pago y los datos del cliente. Los estudiantes reclaman en sus Smartphone el acceso directo a sus asignaturas matriculadas, así como toda la información de dichas asignaturas. También el calendario de exámenes, acceso de los servicios de apuntes online, visualización de notas, avisos a la hora de una nueva publicación de una nota, noticias de la propia universidad, acceso a las instalaciones deportivas, etc. III Congreso de Cibernética Universidad de León Alonso, Ismael Parte de estas necesidades han sido creadas en una aplicación para iPhone llamada iULE [4]. Las nuevas necesidades que surgen este año, serán puestas en esa misma aplicación con una nueva actualización [5]. Pero no sólo los alumnos pueden optar por los servicios que proporcionan las nuevas tecnologías, y los Smartphone. También los profesores encuentran la necesidad de publicar sus clases en vídeo, a través de plataformas de educación como iTunes University, de tal manera que un contenido de una hora de clase termina siendo más compacto y añadiendo más materia para el alumno, ya que éste puede visualizar la clase todas las veces que quiera a través de su portátil o teléfono móvil. A. Estudiantes Las aplicaciones móviles Universitarias son usadas por los estudiantes si con ellas se ofrecen todos los servicios de la Universidad a los estudiantes. Para la Universidad de León la aplicación utilizada carece de acceso a la reserva de las instalaciones deportivas, faltan las últimas titulaciones, noticias de la universidad y algunos servicios más. B. Formación online Universidades como Stanford ofrecen sus titulaciones a las personas que quieran aprender sin optar a tener el título, pueden optar a un certificado, visualizando sus clases online y realizando los ejercicios y tareas asignadas por el profesor, el cual también corregirá los ejercicios. Este tipo de formación cada vez se está implantando en más universidades, aportando a los profesores dar en menos tiempo más cantidad de materia y al alumno poder ver sus clases una y otra vez. mejora se ve imprescindible para una Universidad de calidad como es la Universidad de León. También se ve necesario añadir ventajas al alumno con las clases grabadas y publicadas en alguna plataforma universitaria ya sea de acceso público o de acceso privado sólo para alumnos de la Universidad de León, para no quedarse rezagada la universidad en las nuevas tecnologías. A. Erasmus La Universidad de León, al ser una universidad de Erasmus por excelencia, también le sería necesario tener una propia aplicación para estudiantes Erasmus con sus necesidades, lugares de interés, información para la realización de sus trámites, etc. Así tendrían toda la información mas cerca y de fácil uso día a día. B. Profesores y personal investigador La Universidad de León cuenta con personal investigador que tiene unas necesidades muy diferentes a la de los estudiantes, al igual que los profesores. Éstos carecen de alguna aplicación que les acerque la propia Universidad a sus móviles. Una aplicación en la cual pudieran gestionar su agenda, poner las notas a los alumnos, revisar las dudas de ellos, etc. REFERENCIAS [1] [2] [3] [4] UNIVERSIDAD DE LEÓN Para la Universidad de León se propone mejorar la aplicación existente añadiendo las titulaciones de grado, másteres, noticias, acceso a las reservas de las instalaciones deportivas. Proceso en el cual se está realizando el proyecto de fin de este máster. Este tipo de V. [5] [6] I.Alonso, “Introduccion al Hardware y desarrollo de Software para SmartPhone” Investigacion en Cibernetica. Universidad de León, Febrero 2012. Aplicaciones en AppStore como son: Uva, Carlos III, Universidad de Granada, Universidad de Alicante. I.Alonso“Introduccion al Hardware y al desarrollod e Software para SmartPhone” en el apartado, capas de Abstraccion. G. Rodrigez, J. Alfonso, I.Alonso “iULE Aplicacion para la Universidad de León” Proyecto de fin de carrera. Universidad de León. Junio 2011. I.Alonso “iULE Actualizacion y mejoras” Proyecto de fin de master de cibernetica. Universidad de León. Julio 2012 García, S. (2009) Consideraciones para el Desarrollo de Aplicaciones Móviles. Disponible en : http://www.slideshare.net/soreygarcia/consideraciones-basicaspara-el-desarrollo III Congreso de Cibernética