Entorno de operación para la creación de predicciones

Anuncio
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
1
Entorno de operación para la creación de
predicciones meteorológicas
de Dios Cavero, Fernando.
[email protected]
Área de Ingeniería Aeroespacial de la Universidad de León
Resumen — En este artículo se presenta el sistema
computacional ideado en el área de Ingeniería Aeroespacial de
la Universidad de León para la realización de predicciones
meteorológicas y su posterior publicación. Se exponen los tres
pasos principales del proceso, como son la obtención de datos,
el desarrollo de las predicciones y el proceso de publicación y
acceso a los resultados. En el presente documento se detalla el
proceso llevado a cabo hasta dar forma al producto final.
Índice de Términos — Asimilación de datos,
computación paralela, modelo
predicción meteorológica, WRF.
meteorológico,
NOAA,
I. INTRODUCCIÓN
Entre los múltiples aspectos que intervienen en la
gestión de tráfico aéreo (Air Traffic Management,
ATM), la meteorología aeronáutica desempeña un
papel esencial. En este contexto surge el entorno de
operación de creación de predicciones, que se
define como servicio de meteorología digital, que
abarca la realización de pronósticos y difusión de
los mismos, siendo su finalidad prestar apoyo a las
operaciones de aeronaves y abriendo el camino a un
sistema ATM con una arquitectura orientada a
facilitar servicios meteorológicos donde se
aprovechan los datos disponibles, las conexiones
aire-tierra y los modernos recursos computacionales
para mejorar la seguridad y eficiencia de las
operaciones. Se ha potenciado la inclusión de
observaciones reales en las simulaciones,
optimizado el modelo físico de las mismas,
agilizado la generación de escenarios o avanzado en
el desarrollado del concepto operacional. La base
del servicio es la computación algorítmica de una
predicción meteorológica de precisión, en formato
digital, y su integración en un sistema de gestión de
la información para su divulgación y actualización
en tiempo real.
El entorno de operación interno que permite ofrecer
este servicio está constituido por el clúster de
predicción y el servidor encargado de almacenar y
ofrecer las predicciones a los suscriptores. Todo el
proceso se encuentra automatizado gracias al uso de
scripts que se encargan de ejecutar de forma
consecutiva los elementos funcionales del servicio,
empezando por la recopilación de datos del estado
actual de la atmósfera, siguiendo con la realización
de las simulaciones mediante modelos contrastados
científicamente y finalizando con colocación de los
escenarios con las predicciones meteorológicas a
disposición de los usuarios del servicio.
El sistema ha sido concebido inicialmente para dar
soporte a las operaciones de gestión del tráfico
aéreo, para lo cual se ha desarrollado todo un
concepto de operaciones basado en una unidad
central encargada de elaborar las predicciones y
escenarios que son distribuidas a los centros de
control principales, entre los que se reparten la
gestión del espacio aéreo. Cada centro recibe el
escenario general de resolución moderada para todo
el espacio aéreo de su responsabilidad así como los
escenarios de alta resolución que cubren las
inmediaciones de cada uno de los aeropuertos
existentes en su zona. Estos centros de control son
los responsables de transmitir los escenarios a las
aeronaves y aeródromos que se encuentren en su
zona de responsabilidad
Otros posibles campos de aplicación estudiados son:
la gestión de emergencias relacionadas con la
dispersión de contaminantes o incendios, uso
industrial en la previsión de energía eléctrica
producida por campos eólicos o el apoyo al
transporte marítimo, suministrando predicciones
meteorológicas y de oleaje.
II. SERVICIO DIGITAL DE METEOROLOGÍA
El servicio digital de meteorología está constituido
por un conjunto de procesos y aplicaciones que,
Área de Ingeniería Aeroespacial de la Universidad de León
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
mediante su funcionamiento conjunto y coordinado,
permiten ofrecer un servicio de meteorología digital
para ser empleado en la gestión del tráfico aéreo.
El sistema puede dividirse en varios elementos
funcionales interdependientes, encargados de las
tareas de preparación y elaboración de las
predicciones y su posterior difusión:
- Captación de datos: La elaboración de
predicciones meteorológicas mediante métodos
numéricos es esencialmente un problema de
condiciones iniciales. Es por ello que el primer
módulo debe estar destinado a la obtención de datos
relativos al estado de la atmósfera en el momento de
iniciar la predicción. Para ello resultan vitales los
datos procedentes del Global Forecast System, una
distribución pública del estado previsto de la
atmósfera a nivel global. Esta información global se
ve complementada con datos de mayor precisión
procedentes de diversas fuentes, entre las que cabe
señalar los proporcionados por la red de estaciones
de la AEMET o los obtenidos por estaciones
propias situadas en las zonas de interés en las que se
desea realizar las predicciones con la mayor
precisión. Adicionalmente el sistema está preparado
también para recibir en tiempo real datos
procedentes de aeronaves en la zona gracias a los
modernos protocolos
de redes digitales para
aeronaves.
- Elaboración de predicciones: esta aplicación es el
corazón funcional del sistema, encargado de recoger
las condiciones actuales de la atmósfera y llevar a
cabo su propagación en el tiempo mediante modelos
y esquemas numéricos de última generación,
concretamente mediante el modelo WRF (Weather
Research and Forecasting). Dicho modelo ha sido
ampliamente empleado y validado para la
predicción de todo tipo de fenómenos
meteorológicos en las ubicaciones más diversas,
incluyendo trabajos en los que específicamente se
ha validado su precisión para la predicción
meteorológica en la península Ibérica. La
simulación se realiza en un entorno de computación
paralela que permite conseguir unos tiempos
razonables de ejecución dando como salidas
escenarios con los valores de un gran número de
variables meteorológicas en el dominio simulado.
Estas simulaciones se realizan cada hora, con un
alcance de dos horas y media y originando archivos
de salida con una separación entre sí de media hora.
2
- Creación y almacenamiento escenarios: los
escenarios producidos por el modelo WRF
contienen un elevado número de variables de interés
meteorológico, sin embargo, muchas de ellas
resultan de escaso interés para tareas ATM. Es por
ello que la siguiente unidad funcional del servicio
de meteorología ideado se encarga de, a partir de los
archivos de salida del WRF, extraer aquellas
variables que resulten de interés y almacenarlas en
un nuevo archivo en formato .met, específicamente
desarrollado para el servicio ideado. Con esto se
consigue aligerar notablemente el tamaño de los
archivos y conseguir un formato fácil de interpretar
por los clientes. Las predicciones son almacenadas
en un servidor para su posterior distribución a través
de la red de comunicaciones aeronáutica SWIM,
solución que se prevé como más eficaz en el mediolargo plazo para la gestión de datos y servicios en
un entorno de red centralizada con múltiples
usuarios.
- Herramienta visualización de escenarios:
Finalmente, el servicio incorpora un visor gráfico
que permite visualizar en un entorno Windows los
escenarios generados por el WRF y ya convertidos
al formato .met. El visor permite navegar a través
de los diferentes niveles de altura de cada uno de los
escenarios así como entre escenarios sucesivos en el
tiempo, igualmente permite mostrar mediante
gráficas la evolución de los valores de cada una de
las magnitudes para una cierta posición en función
de la altura y del tiempo.
III. CAPTACIÓN DE DATOS
A continuación se incluye una descripción detallada
de la manera en que se descargan las predicciones y
la información relacionada con las condiciones
meteorológicas. Se explica para cada caso el
mecanismo
de
funcionamiento
para
el
almacenamiento y descarga de datos, así como la
forma en que se trata la información.
A. Datos obtenidos de la NOAA
La NOAA (Nacional Oceanic and Atmospheric
Administration) es una agencia científica de los
Estados Unidos encargada de proporcionar
pronósticos meteorológicos, además de preparar
cartas de mares y cielos.
Área de Ingeniería Aeroespacial de la Universidad de León
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
Para iniciar el proceso de la predicción
meteorológica, lo primero que se debe tener en
cuenta son las condiciones climatológicas
anteriores, por lo tanto, para obtener dichas
condiciones, se utilizarán las observaciones que la
organización NOAA pone a disposición de los
usuarios.
El script ejecutado, a través de la llamada al módulo
desarrollado en python “obtener_gfs.py”, que se
encarga de automatizar el proceso de obtención de
archivos meteorológicos de horas pasadas con el fin
de realizar las predicciones adecuadamente. Para
ello, el script se conecta al servidor FTP de la
NOAA y descarga los últimos paquetes de
información en formato GRIB disponibles (GRIB es
un formato utilizado por institutos meteorológicos
de todo el mundo para transportar y manipular datos
del tiempo).
Posteriormente, estos paquetes GRIB son
descomprimidos mediante el módulo Ungrib.
B. Datos obtenidos por la estación meteorológica
Otro de los métodos disponibles para obtener los
datos de las condiciones climatológicas es la
utilización de estaciones meteorológicas propias
(referenciadas como Station-Met) estratégicamente
situadas en el dominio de predicción definido.
Cada una de estas estaciones se establece en el
terreno y está continuamente tomando medidas de
parámetros reales. Toda la información que recopila
es posteriormente enviada al clúster para su
inclusión en el modelo numérico.
La estación se encarga de medir los parámetros de
temperatura, presión atmosférica, componentes de
viento y las coordenadas geográficas.
Para llevar a cabo este proceso se han desarrollado
una serie de aplicaciones, destinadas a solucionar
las posibles incompatibilidades entre sistemas
operativos, la subida de datos en tiempo real y el
establecimiento de comunicaciones seguras.
IV. EJECUCIÓN DEL MODELO METEOROLÓGICO
El proceso de cálculo se repite una vez cada hora y
con un alcance de dos horas y media, utilizándose,
aproximadamente, unos 30 minutos de tiempo de
3
cálculo en cada ejecución del conjunto de
programas.
Todo el proceso de ejecución se lleva a cabo en
clúster de ordenadores trabajando en paralelo para
agilizar los cálculos que se llevan a cabo y así poder
obtener las predicciones en un menos tiempo.
Su ejecución viene controlada, en cuanto a
módulos, por el script “modulos_wrf.py”, y en
cuanto a la automatización temporal, por un crontab
que inicia la ejecución del script en intervalos de
una hora, de forma diaria.
En primer lugar se descargan los datos de NOAA,
lo cual ya ha sido descrito anteriormente.
Posteriormente, se crean los namelist que regularán
los módulos WRF a través de plantillas
preestablecidas, de forma que sólo datos de tiempos
y rutas locales son cambiados a lo largo de las
ejecuciones. A continuación, se inicia la ejecución
de los módulos de preprocesado. Los parámetros
que necesitan se encuentran en el fichero
“namelist.wps”. El preprocesado es un conjunto de
tres etapas que preparan las bases para los módulos
encargados de la simulación propiamente dicha.
A. Preprocesado
La primera de las mencionadas etapas es
“geogrid.exe”. Este módulo tiene el objetivo de, en
primer lugar, definir los dominios de la simulación
y, posteriormente, interpolar ciertos datos en ella.
La definición de los dominios de simulación se hace
a través de las columnas de valores de namelist.wps.
En primer lugar, se indica el número de dominios
que ha de definir el módulo. Este número indicará el
número de columnas del valor de variable que lee,
de forma que si este número es menor que el de
columnas especificadas, las posteriores serán
ignoradas. Para dar forma al dominio de simulación,
se indica también el nivel en el que se encuentra
cada dominio, ya que estos pueden ser telescópicos
o encontrarse al mismo nivel, siendo este último
caso el que cumple uno de los objetivos del presente
proyecto. Esto permite simultanear las predicciones
de alta resolución de dos zonas geográficamente
alejadas. Asimismo, las dimensiones de los
dominios son definidas, con una extensión de:
o Dominio 01: 4.5 km por cada celda. Situada
en zona norte de España.
Área de Ingeniería Aeroespacial de la Universidad de León
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
o Dominio 02: 150 x 150 km, a razón de 1.5
km por cada celda.
o Dominio 03: 150 x 150 km, a razón de 1.5
km por cada celda.
La relación de tamaños del dominio general al
anidado es de 3:1. La razón de que se use esta
relación de tamaños de celda es que, si este número
es impar, se puede conseguir hacer coincidir los
puntos de las celdas de los dominios contenidos en
el mayor con los de este. El ratio 3:1 es el que está
siendo empleado por haber sido ampliamente
estudiado. Esta misma relación es utilizada, además,
para los time-steps de cada dominio.
Una vez ha concluido la ejecución del módulo
geogrid se inicia la de “ungrib.exe”. Su propósito es
el de adaptar los datos contenidos en formato GRIB
a un formato intermedio apto para el resto de
módulos. Está controlado por secciones concretas
de “namelist.wps”. No es dependiente del modelo ni
de geogrid, por lo que no hace ninguna selección de
datos respecto al dominio de interés.
Seguidamente, se inicia “metgrid.exe”. Este módulo
se encarga de interpolar horizontalmente los datos
meteorológicos producidos por ungrib, sobre la
malla producida por geogrid. Es dependiente de los
tiempos de simulación. El output fruto de este
módulo, será usado como input para el siguiente
módulo, real.
B. Nudging y FDDA
A continuación comienza el módulo “obsgrid.exe”.
Este módulo es el encargado de adecuar el formato
de las observaciones a un formato intermedio, apto
para ser utilizado en el proceso de nudging.
El nudging es un método que hace que el modelo se
aproxime progresivamente hacia las observaciones
de las que se dispone, en lo cual se basa el FDDA.
En la aproximación FDDA, el estado del modelo se
suaviza constantemente cada time-step hacia el
estado observado mediante el uso de un término
añadido a las ecuaciones, que se basa en las
diferencias entre el estado observado y el modelo.
El nudging es un modo efectivo y eficiente de
reducir los errores del modelo.
Algunas de las posibilidades que presenta son
asimilar datos tanto sinópticos como asinópticos;
realizar controles de calidad para descartar las
4
observaciones que no sean adecuadas; Las
observaciones de superficie se adaptan primero al
primer nivel del modelo, y luego, las variables
ajustadas al nivel más bajo son utilizadas para
corregir el modelo con menor peso conforme se
acercan al final de la PBL; la forma del terreno
también hace que se corrija la influencia de las
observaciones, etc.
El módulo Obsgrid, se encarga, además de convertir
el formato de las observaciones a uno apto para la
asimilación, es el de hacer coincidir las
observaciones, que inicialmente se encuentran
situadas aleatoriamente, con los puntos de la malla
utilizados. Esto se realiza interpolando mediante
análisis objetivo.
Los inputs que necesita el programa son las
observaciones, en formato „little_r‟ o „wrf_obs‟, y
los modelos, procedentes de los módulos de
preprocesado, en formato „.met‟. Los modelos son
modificados al aproximar los valores hacia las
observaciones. Se utilizarán como inicio en el
siguiente módulo, “real.exe”.
Uno de los archivos que produce son los
“OBS_DOMAIN”, que contienen las observaciones
en un formato modificado a partir del little_r
standard, de forma que estos puedan ser asimilados
por los módulos de WRF, teniendo en cuenta que se
han modificado algunas observaciones. Es decir: las
observaciones duplicadas, contenidas fuera del
dominio sobre el que se ejecuta, y las que no tienen
información, o que no han superado los controles de
calidad, han sido eliminadas. Las observaciones
restantes han sido ordenadas cronológicamente. Su
uso se da en el módulo WRF.
Se produce un archivo OBS_DOMAIN para cada
iteración (que en el caso presente es de un intervalo
de tiempo de una hora) y para cada dominio. Sin
embargo, estos archivos no pueden ser directamente
ingeridos en WRF, sino que necesitan ser
concatenados en un solo archivo para cada dominio,
siendo totalmente necesario que se presenten en un
orden cronológicamente correcto.
Para poder asimilar observaciones suficientes, se
retrocede dos horas con respecto a la hora de
análisis de la simulación. Es por esto que son
necesarios archivos met_em que se inicien antes de
la hora UTC. Lo mismo pasa con los archivos
little_r de las observaciones. De esta manera, se
Área de Ingeniería Aeroespacial de la Universidad de León
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
almacena cierto número de predicciones y
observaciones en una carpeta, y se van borrando
conforme pasa tiempo suficiente para que no sean
requeridas por una nueva simulación.
C. Inicialización
Real.exe es el módulo encargado de la inicialización
de los dominios. El uso de de los outputs del
preprocesado como input para este módulo es lo que
permite considerar que la simulación es del tipo
“Real Data Case”.
El objetivo principal del módulo es el de leer las
condiciones de control de los namelist y generar los
archivos que contienen las condiciones iniciales de
la
simulación.
Leyendo
la
información
meteorológica incluida en los archivos que le son
proporcionados como input, interpola verticalmente,
y crea los archivos que contienen la información
sobre las condiciones laterales del dominio mayor.
Actualmente, las simulaciones utilizan 38 niveles
verticales repartidos de manera heterogénea en
altura. Se considera una mayor densidad de niveles
conforme la altura respecto al suelo disminuye.
En este módulo es en donde se define cada qué
período de tiempo se puede obtener un output de la
predicción. A lo largo de las todas las horas
simuladas, se obtiene un escenario por cada media
hora de alcance, a partir de la fecha zulú de inicio,
por cada dominio.
D. Asimilación variacional de datos
Un sistema de asimilación de datos combina toda la
información disponible en un margen de tiempo del
estado atmosférico con el objetivo de producir una
estimación de las condiciones en un momento de
análisis especificado. Las fuentes que proporcionan
la información necesaria para el análisis son las
observaciones, las predicciones previas, los errores
de cada uno de ellos y las leyes físicas.
La asimilación de datos consiste en ciclos de
análisis, en los cuales las observaciones de
momentos pasados y actuales se combinan con las
variables de un modelo numérico de predicción
meteorológica para producir un análisis que mejora
la estimación de la predicción. En la asimilación
variacional se refinan las estimaciones del estado
5
atmosférico mediante la minimización iterativa de
una función de coste predefinida, produciendo una
estimación adecuada del estado atmosférico
verdadero en el momento del análisis.
El sistema de asimilación variacional es en tres
dimensiones. Es denominada 3D-Var. Realiza un
tratamiento de los siguientes archivos:
- First guess: es la predicción usada como punto de
inicio para el análisis. Ya que estas predicciones
provienen de procesos previos, y no de un ciclo
previo de asimilación, el proceso es del tipo “coldstart”.
- Background error statistics: archivos de
covarianzas de errores. Son calculados a partir de
un lote de predicciones de idénticas características
producidas a lo largo de un periodo de tiempo largo.
- Observaciones: se introducen mediante el proceso
OBSPROC, en formato little_r.
El análisis incluye incrementos en todos los puntos,
incluso en los límites laterales. De forma que se
producen diferencias entre las condiciones laterales
y las iniciales. Esto se corrige con la ejecución de
“update_bc”, que modifica las tendencias en las
condiciones laterales para adaptarse al análisis.
E. WRF
Es el encargado de obtener las predicciones,
realizando la integración numérica del modelo, lo
que realiza aproximando numéricamente las
soluciones a las ecuaciones del modelo.
La duración de la simulación es obtenida a partir del
“namelist.input”, en la sección “run_”. El resto de
especificaciones de tiempo no son utilizadas por
este programa sino por Real.
Las predicciones toman la cadena de nombre
“wrfout_dXX_<date>”, donde XX toma el valor del
dominio que contenga, y “date” es una cadena
numérica con información acerca de la fecha de la
predicción.
Otros productos son el “rsl.out” y “rsl.error”, que
son logs con la información acerca de la simulación
y los tiempos de iteración, y las predicciones. Se
genera cada par de logs por cada procesador
utilizado.
Área de Ingeniería Aeroespacial de la Universidad de León
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
F. Conversión de datos
La conversión del formato de las predicciones
proveniente de “wrf.exe” a aquel utilizado por el
sistema de visualización, se realiza a través de la
aplicación wrf2met.
Las librerías netCDF permiten la conversión directa
de wrf a “.met” evitando el uso de ncdump y sin
necesidad de convertirlo a texto en formato ASCII.
Estas librerías permiten acceso, tanto para lectura
como para escritura, a los archivos de formato
netCDF.
V. PUBLICACIÓN Y ACCESO A LOS PRODUCTOS
En este apartado se describe la gestión interna que
hace el sistema de los archivos que contienen la
información climatológica. También se explica
cómo acceder a los pronósticos publicados por el
servicio, y se presenta una herramienta desarrollada
con el fin de visualizar las previsiones
meteorológicas.
A. Proceso de almacenaje de los datos de
observación
El proceso de almacenar todos los datos de
observación se lleva a cabo en el servidor FTP que
aloja toda la información.
Este ordenador está conectado a través de una red
local al máster del clúster donde se realizan las
predicciones con el fin de introducir en la base de
datos la información generada en el clúster.
Los programas Station-Met y Airplane-Met envían
vía FTP, los datos de observación a la carpeta
/DatosEstacion alojada en el servidor. Hay un
script, llamado InsertStationData.py que se encarga
de comprobar si hay nuevos datos listos para ser
recibidos. En caso de que así sea, dicho script lanza
el programa ObsOB, cuya función es la de insertar
la nueva información en la base de datos.
6
B. Inserción de datos en el proceso de
computación
La aplicación ObsDB_Import actúa como puente
entre el transmisor meteorológico WXT520 y los
datos obtenidos para el modelo meteorológico.
Se encarga de preparar la información recibida de
Station-Met y almacenada en la base de datos con el
fin de que el módulo WRFVar pueda procesarla.
Para esto, ObsDB_Import toma la información
climatológica de la base de datos y la pasa a
formato “little_r”. Los archivos little_r contienen
datos de previsión en un formato adecuado para
WRFVar.
Después de la conversión, el módulo WRFVar
utiliza el archivo resultante para incorporar los
datos obtenidos en tiempo real al modelo
meteorológico.
C. Proceso de publicación
El ordenador WRF está a cargo de la gestión del
proceso de publicación de los escenarios. Es el
único ordenador accesible desde el exterior y, como
se ha dicho, es donde se encuentra el servidor FTP
que almacena los datos meteorológicos.
Dispone de un script llamado Publicador.py que se
ocupa de detectar si se han recibido datos nuevos y,
si es así, lanza Publisher-Met para enviar los
escenarios vía DDS.
D. ViewerMeteo
ViewerMeteo es un programa desarrollado para
visualizar
las
predicciones
meteorológicas
desarrolladas a través del modelo. Permite cargar un
mismo escenario con varios pronósticos en distintos
momentos.
ViewerMeteo es una evolución del programa de
tratamiento de datos meteorológicos desarrollado
in-house, que muestra los archivos recibidos a
través
de
DDS
cuyos
asuntos
sean
weather_metadata o weather_scenario. El programa
tiene la apariencia que se puede ver a continuación:
Área de Ingeniería Aeroespacial de la Universidad de León
de Dios Cavero, Fernando. Entorno de operación para la creación de predicciones meteorológicas.
7
[5] Parrish, David F., John C. Derber. (1992). The National
Meteorological Center's Spectral Statistical-Interpolation
Analysis System
[6] Yubao Liu. An Observation-Nudging based FDDA
scheme for WRF-ARW for mesoscale data assimilation
and forecasting.
[7] Stauffer, D. R., and N. L. Seaman, 1990. Use of fourdimensional data assimilation in a limited area
mesoscale model. Part I: Experiments with synopticscale data.
[8] Wrf v3 users guide.
http://www.mmm.ucar.edu/wrf/users/docs/user_guide_V3
/ARWUsersGuideV3.pdf
Figura 1 Interfaz gráfica del visor de predicciones
La ventana donde se cargan las predicciones
muestra el mapa del dominio estudiado. En la parte
izquierda de la interfaz se puede seleccionar el
parámetro que se va a mostrar en la imagen. En una
escala de colores se muestran las variaciones del
parámetro escogido, entre Presión, Temperatura,
Componentes de Viento y Altura. La aplicación
permite mostrar una sucesión de predicciones en el
tiempo para un mismo dominio, que muestra los
cambios meteorológicos previstos para esa zona.
Seleccionando cualquier punto del mapa con el
ratón, se muestran en la barra inferior de la ventana
todos los parámetros climatológicos de ese punto.
El programa, además, está conectado al servidor
FTP, lo que permite obtener las nuevas predicciones
de una manera sencilla y automática.
REFERENCIAS
[1] Borge, Rafael, Alexandrov, Vassil, del Vas, Juan José,
Lumbreras,
Julio,
Rodríguez,
Encarnación.
A
comprehensive sensitivity analysis of the WRF model for
air quality applications over the Iberian Peninsula.
[2] Mesinger, F. (2000). The Arakawa approach, horizontal
grid, global, and limited-area modeling. En D. A. Randall,
General Circulation Model Development: Past, Present
and Future. (págs. pp. 373-419). Academic Press.
[3] Thunis, R., Galmarini, S., Martilli, A., Clappier, A.,
Andronopoulos, S., Bartzis, J., et al. (2003). MESOCOM:
An inter-comparison exercise of mesoscale flow models
applied to an ideal case simulation
[4] Naval Research Laboratory. (2003). COAMPS. Model
description: General Theory and Equations. Monterey,
California.
Área de Ingeniería Aeroespacial de la Universidad de León
Universidad de León. Aller Juan. Programación de algoritmos usando paralelización.
1
Programación de algoritmos usando paralelización
Aller de la Puente, Juan
[email protected]
Universidad de León

Resumen—En el presente documento se darán las pautas
básicas e iniciales para abordar el desarrollo software de
algoritmos complejos utilizando métodos de paralelización y
computación distribuida. Se empleará la librería MPI,
soportada por los lenguajes C y JAVA y se analizará el
funcionamiento de la misma en entornos Linux.
Índice de Términos—C, Desarrollo, JAVA, MPI,
Paralelización, Programación.
I. INTRODUCCIÓN
ESTE DOCUMENTO EXPLICA LA FORMA DE USO DE LA
LIBRERÍA MPI EN LENGUAJES C Y JAVA PARA
DESARROLLAR
SW MEDIANTE ALGORITMOS
PARALELIZABLES.
MPI o Message Passing Interface (Interfaz de
Paso de Mensajes) es un estándar que identifica y
define tanto la sintaxis como la semántica de las
funciones y procedimientos contenidos en una
biblioteca de paso de mensajes. Dicha biblioteca ha
sido diseñada para ser usada en programas cuyos
algoritmos se presten a la ejecución en sistemas que
dispongan de múltiples procesadores o núcleos
asociados a estos así como varios hilos de ejecución
paralela.
El paso de mensajes se emplea en programación
concurrente para implementar mecanismos de
sincronización entre procesos y así poder permitir la
exclusión mutua entre ellos a todos los niveles y
ámbitos de la programación.
MPI es el estándar o biblioteca que implementa la
comunicación entre los nodos que ejecutan un
programa o SW concreto dentro de seno de un
sistema
de
memoria
distribuida.
Las
Congreso del Máster en Investigación en Cibernética.
implementaciones dentro de MPI se fundamentan
en un conjunto de bibliotecas de rutinas divididas en
distintas funciones o procedimientos que pueden ser
utilizadas en programas escritos en los lenguajes de
programación C, C++, Fortran y Ada entre otros. La
ventaja de MPI sobre el resto de bibliotecas de paso
de mensajes, es que los programas que utilizan MPI
son bastante sencillos de portar dentro de unos
límites razonables.
Otra gran ventaja de MPI sobre otros sistemas con
el mismo propósito es que no precisa del uso de
memoria compartida debido fundamentalmente a
que los datos se envían en forma de mensajes dentro
de una jerarquía Maestro-Esclavo (uno o más).
Los elementos principales que intervienen en el
uso de MPI son el proceso que envía el mensaje, el
proceso que lo recibe, y el mensaje propiamente
dicho como unidad funcional independiente.
Podemos clasificar dos tipos de pasos de
mensajes atendiendo a si el proceso que envía dicho
mensaje espera a que este sea recibido o no. Se
diferenciarán así los pasos de mensajes síncronos y
asíncronos.
En el paso de mensajes asíncrono, el proceso que
envía, no espera a que el mensaje sea recibido por el
destinatario si no que inmediatamente después de
enviar el mensaje, continúa su ejecución, volviendo
a generar un nuevo mensaje si fuera necesario y
enviándolo antes de que se haya podido recibir el
anterior. De cualquier forma, se suelen emplear
buzones, dentro de los cuales se almacenan los
mensajes a la espera de que el proceso destinatario
los reciba. Si se utiliza este método, el proceso que
envía los mensajes se bloquea o se detiene cuando
finaliza su ejecución. En el paso de mensajes
síncrono, el proceso encargado de enviar el mensaje
Universidad de León. Aller Juan. Programación de algoritmos usando paralelización.
debe esperar a que el proceso destinatario reciba el
mensaje para continuar su ejecución.
II.
HISTORIA
Al diseñarse MPI, se tuvieron muy en cuenta las
características principales en las que se base el paso
de mensajes, el diseño del estándar MPI fue influido
en gran medida por los trabajos hechos por IBM,
INTEL, NX/, Express, nCUBE's Vernex, p4 y
PARMACS. Otras contribuciones importantes
provienen de Zipcode, Chimp, PVM, Chameleon y
PICL.
El estándar final por el MPI fue presentado en la
conferencia de Supercomputación en Noviembre
del año 1993.
En sistemas con memoria distribuida las rutinas
de paso de mensajes se realizan a nivel bajo, por lo
que los beneficios de la estandarización son
enormes debido a que el grado de conocimiento del
programador para realizar este tipo de desarrollos
disminuye en sobremanera. La principal ventaja de
utilizar un estándar que implemente el paso de
mensajes es la capacidad de ser portado así como la
gran facilidad de uso. MPI-1 apareció en 1994, el
estándar MPI-2 fue lanzado en 1997.
III. PRINCIPALES CARACTERÍSTICAS

Está estandarizado.

Facilidad de Portabilidad:
multiprocesadores, multicomputadores,
redes…

Buenas prestaciones.

Gran funcionalidad.

Existencia de alternativas libres (mpich,
LAM-MPI...).
IV. FUNDAMENTOS
Congreso del Máster en Investigación en Cibernética.
2
En MPI el número de hilos/hijos o procesos de
ejecución se determina antes de la propia ejecución
del programa principal, y no se crean procesos
adicionales mientras la aplicación se ejecuta; es
decir, el número de procesos se define al principio
de la ejecución y no se puede modificar. A cada
proceso (hilo) se le asigna una variable que se
denomina rank, encargada de ordenar y de
identificar a cada proceso, en el rango de 0 a p-1,
donde p es el número total de procesos que hemos
asignado al programa. El control de cada uno de los
hilos de ejecución lo realizaremos mediante la
variable rank la cual permite determinar que
proceso ejecuta determinada porción de código.
También se debe definir un comunicator o
colección de procesos, estos serán los encargados de
enviar los mensajes el uno al otro; el comunicator
básico
principal
se
identifica
como
MPI_COMM_WORLD y se define mediante un
macro del lenguaje C. MPI_COMM_WORLD y se
encarga de agrupar a todos los procesos activos
durante la ejecución de una aplicación.
Las llamadas de MPI se dividen en cuatro clases:
A. Llamadas utilizadas para inicializar,
administrar y finalizar comunicaciones.
MPI dispone de 4 funciones básicas, las cuales se
utilizan en cualquier desarrollo que utilice dicha
librería. Estas funciones son:
MPI_Init inicializa la sesión MPI. Es utilizada
siempre antes de llamar a cualquier otra función de
MPI. Es la encargada de inicializar la librería MPI.
MPI_Finalize finaliza la sesión MPI. Siempre será
la última llamada a MPI que se realice en un
programa que implemente esta librería; será la
encargada de liberar la memoria usada por MPI.
MPI_Comm_size devuelve el número de procesos
asociados a un comunicator.
MPI_Comm_rank devuelve el identificador (rank)
del proceso actual.
Universidad de León. Aller Juan. Programación de algoritmos usando paralelización.
B. Llamadas utilizadas para transferir datos entre
dos procesos
La transferencia de datos entre hilos MPI se realiza
utilizando las funciones MPI_Send y MPI_Recv, las
cuales devuelven un booleano si tienen éxito o no.
MPI_Send permite enviar información de un
proceso a otro (emisor). MPI_Recv recibe la
información de un proceso (receptor). Dichas
funciones son bloqueantes, por lo que el proceso
que realiza el envío se bloquea hasta que la
operación de comunicación llegue a completarse. Si
se quiere usar versiones no bloqueantes se usarán
MPI_Isend y MPI_Irecv, respectivamente. Estas
funciones son las encargadas de realizar la
transferencia pero la finalización se realiza
mediante otras funciones: MPI_Test y MPI_Wait.
MPI_Wait también es bloqueante y finaliza en el
momento en que la operación de envío o recepción
se completan. MPI_Test comprueba que la
operación de envío o recepción ha finalizado
correctamente devolviendo un booleano con el
resultado.
C. Llamadas utilizadas para transferir datos entre
varios procesos
MPI dispone de llamadas especiales para la difusión
(broadcast), recolección (gather), distribución
(scatter) y reducción. Algunos ejemplos de los
modos de empleo de estas funciones denominadas
especiales serán vistos a continuación. MPI_Barrier
realiza operaciones de sincronización. En estas
operaciones no existe ninguna clase de intercambio
de información, y por lo general, suelen emplearse
para dar por finalizada una etapa o step del
programa, para verificar que todos los procesos
hayan terminado en un momento puntual de la
ejecución. MPI_Bcast permite a un proceso enviar
una copia de sus datos a otros procesos dentro de un
grupo establecido por un comunicator. MPI_Scatter
realiza una operación de distribución, en la cual un
dato es distribuido en diferentes procesos paralelos.
MPI_Gather
establece
una operación
de
recolección, sobre la cual los datos son recolectados
en el mismo proceso. MPI_Reduce permite que el
Congreso del Máster en Investigación en Cibernética.
3
proceso padre recoja datos de otros procesos en un
grupo o asociación, para combinarlos en un solo
bloque de datos.
D. Llamadas utilizadas para crear tipos de datos
definidos por el usuario
Para generar nuevos tipos de datos se utiliza la
función MPI_Type_struct o se puede utilizar la
llamada MPI_Pack para empaquetar bloques de
datos.
V. METODOLOGÍA DE USO
En un programa desarrollado con MPI se emplean
como mínimo 6 funciones básicas, aunque existen
muchas más funciones para otras tareas más
avanzadas. Todas empiezan por MPI_ y, por
ejemplo, en lenguaje C, están contenidas en la
librería:
#include "mpi.h",
Esta librería contiene las definiciones, macros y
prototipos de función necesarios para compilar los
programas MPI en lenguaje C.
Para inicializar MPI debemos hacer una primera
llamada a MPI_Init(); la cual sólo se debe realizar
una vez. Esta función inicializa el uso de MPI para
que pueda ser usado en el sistema que ejecutará el
programa. Para finalizar el uso de MPI y liberar la
memoria utilizada por este, realizaremos una
llamada
a
MPI_Finalize().
La
función
MPI_Finalize() limpia todos los trabajos no
finalizados dejados por MPI además de la caché
usada por este. Los programas MPI deben ser
obligatoriamente inicializados y finalizados en MPI
(MPI_Init, MPI_Finalize).
Para obtener el identificador de proceso, MPI
dispone de la función MPI_Comm_rank(), que
devuelve el identificador de un proceso en su
segundo argumento. Se emplea con la sintaxis, de
forma independiente al lenguaje utilizado:
int
MPI_Comm_rank(MPI_Comm
int* identificador)
comunicador,
El primer argumento es el comunicador que se le
pasa por defecto. El comunicador es básicamente
Universidad de León. Aller Juan. Programación de algoritmos usando paralelización.
una colección de procesos que pueden enviar
mensajes entre sí. Generalmente y en programas
sencillos, el único comunicador que se usa es
MPI_COMM_WORLD. Viene por defecto en MPI y
engloba a todos los procesos que se ejecutan cuando
el programa comienza (después del INIT).
Para determinar el número de procesos que se
ejecutan en MPI se utiliza la función
MPI_Comm_size(). Su primer argumento vuelve a
ser el comunicador por defecto. En el segundo
argumento devuelve el número de procesos
pertenecientes al comunicador que se le ha pasado
por parámetro. Su sintaxis de uso es:
int
MPI_Comm_size(MPI_Comm
int* numprocs)
comunicador,
La función MPI_Get_processor_name() devuelve el
nombre del hilo de proceso donde se está
ejecutando el programa. Tiene un extenso uso en la
monitorización de programas en redes heterogéneas.
La gestión de mensajes bloqueantes se realiza,
principalmente, a través de las funciones
MPI_Send() y MPI_Recv(). La primera función
envía un mensaje a un hilo determinado. La
segunda recibe un mensaje de un hilo.
entorno
contiene
la
1. include <mpi.h>
Formato de las funciones:
MPI_nombre( parámetros ... )
codigo_error
=
Inicialización: int MPI_Init()
Comunicador: Conjunto de procesos que se
intercomunican. Por defecto podemos utilizar
MPI_COMM_WORD, que es el comunicador que
se usa en programas sencillos que utilizan MPI.
Identificación de procesos: MPI_Comm_rank (
MPI_Comm comm , int *rank)
Procesos en el comunicador: MPI_Comm_size (
MPI_Comm comm , int *size)
Finalización: int MPI_Finalize ( )
nombre,
El parámetro nombre es un string con un tamaño
igual
o
mayor
a
la
constante
MPI_MAX_PROCESSOR_NAME. En este vector
se almacenará el nombre del procesador. El
parámetro longnombre informa de la longitud de la
cadena obtenida.
En MPI el
información:
Fichero cabecera:
Mensajes: Un mensaje estará formado por un cierto
número de elementos de un mismo tipo MPI.
La sintaxis de dicha función es la siguiente:
int MPI_Get_processor_name(char*
int* longnombre)
4
TABLA I
TIPOS BÁSICOS DE MPI
Nombre
Tipo
MPI_CHAR
MPI_SHORT
MPI_INT
MPI_LONG
MPI_UNSIGNED_CHAR
MPI_UNSIGNED_SHORT
MPI_UNSIGNED
MPI_UNSIGNED_LONG
MPI_FLOAT
MPI_DOUBLE
MPI_LONG_DOUBLE
MPI_BYTE
MPI_PACKET
signed char
signed short int
signed int
signed long int
unsigned char
unsigned short int
unsigned int
unsigned long int
float
double
long double
siguiente
1. El identificador del proceso receptor del
mensaje.
2. El identificador del proceso emisor del
mensaje.
3. Una etiqueta.
4. Un comunicador.
Congreso del Máster en Investigación en Cibernética.
Tipos MPI
programador.
derivados:
los
construye
el
Envío de un mensaje a otro proceso: int MPI_Send
( void *posicion_de_memoria , int contador ,
MPI_Datatype tipo , int destino , int etiqueta ,
MPI_Comm comunicador )
Universidad de León. Aller Juan. Programación de algoritmos usando paralelización.
Recepción de un mensaje de otro proceso:
int MPI_Recv ( void *posicion_de_memoria , int
contador , MPI_Datatype tipo , int origen , int
etiqueta, MPI_Comm comunicador , MPI_Status
*estado)
El receptor puede emplear MPI_ANY_TAG y/o
MPI_ANY_SOURCE
RECONOCIMIENTO
Expresar mi gratitud a mi tutora de proyecto y a
la Universidad de León por formarme y orientarme
en la realización de este trabajo.
REFERENCIAS
Peter Pacheco, “Parallel Programming with MPI”
Morgan Kaufmann Publishers (26 Noviembre 1996).
[2]
Rob H. Bisseling, “Parallel Scientific Computation:
A Structured Approach using BSP and MPI”.
Oxford University Press, USA (15 Abril 2004).
[3]
W Gropp, “Using MPI: Portable Parallel
Programming with the Message-Passing Interface
(Scientific and Engineering Computation)” MIT Press;
2nd Revised edition edition (4 Enero 2000).
[1]
Congreso del Máster en Investigación en Cibernética.
5
Augmented reality for elderly assistance
Álvaro Botas
Francisco J. Lera
Vicente Matellán
Escuela de Ingenierı́as
Industrial e Informática
de la Universidad de León
León, Spain
Email: [email protected]
Escuela de Ingenierı́as
Industrial e Informática
de la Universidad de León
León, Spain
Email: [email protected]
Escuela de Ingenierı́as
Industrial e Informática
de la Universidad de León
León, Spain
Email: [email protected]
Resumen—This article presents a tele-assistance system based
on augmented reality for elderly people that is integrated in a mobile platform. This system propose the use of augmented reality
for simplifying interaction with its users. The first prototype has
been designed to help in medication control for elderly people.
In this paper, software architectures is described. The software is
based on in ARUCO for the augmented reality interface. It also
integrates other related systems in teleassistance such as VoIP,
friendly user interface, etc.
I.
INTRODUCTION
In this article, we present a software for assisting caregivers
in control of medication of elderly people. One of the major
contribution of this paper is the use of augmented reality for
daily medical guidelines control.
Augmented Reality [8], since now AR, is a live view
of a real-world scenario whose elements are augmented by
computer-generated information such as sound, video, graphics etc. In our system we overlay virtual graphics to the image
captured by the camera.
In this case we want to show virtual information over the
normal pillbox of a person under treatment. The computer
screen of the robot would show a virtual figure overlaying the
real world, pointing the correct medication that the patient has
to take in a given moment.
During the last years many projects have been working in
elderly care using new technologies as computers, mobilephones o robotics. AAL (Ambient Assited Living) project [6] or
Oasis project [5] are some of them. They try to improve the
daily life of elderly people in various fields: working in self
confidence, improving security on individuals with medical
problems, prevent cases of society isolation or teaching healthy
lifestyle, etc.
Other project,closes to our goals is PAUTA [4], where they
are developing electronic pillboxs that improve the generic
box. The problem, from out point of view, is the high cost of
this device and the subsequent maintenance. In our solution
any pillbox is liable to be modified and used as augmented
pillbox. This is the first main contribution, we implements a
low cost way to help in daily medication using augmented
reality.
Our prototype also integrates communication capabilities
to assist the person under treatment. We have included VoIP
communications both to increase the information provided by
the AR system, and to simply allow tele-conferencing. In
summary our prototype integrates two different technologies
to:
1. Augmented Reality
2. Telepresence
Both solutions are integrated in a multi-platform software
application based on OpenGL and ArUco library integrated
in a Qt interface using as a hardware platform a pair of
computers.
In summary in this article we presented a new software
prototype, where using a simple interface and helped with
augmented reality information, a user is able to take the
appropriate dose medication. Also a VoIP system was added
to improve the application in a teleassistance way.
The rest of the paper is organized as follows. In section II,
software developed is presented, showing the different layers,
from hardware to user, that we have created. In section III, we
explain the two different ways to interacts with our prototype.
In section IV, we present the prototype built, we show all necessary steps, as a user manual, to get the prototype working.
In section V, conclusions and further work, haighlighting the
main outlines of our work and how we want to deploy the
next phases of our project.
II.
SOFTWARE DEVELOPMENT
This section presents in more detail the software developed.
In order to test it we have built a prototype that will be
described in section IV. The main module described here is
MYRA.
MYRA is our interaction architecture whose structure is
shown in figure 1. MYRA stands for “Elderly and Augmented
Reality” (in Spanish Mayores Y Realidad Aumentada). It has
been created at the Cátedra Telefónica - Universidad de León
to help and improve the daily lives of elderly people through
a toolbox for building AR interfaces.
MYRA has been designed following the model-viewcontroller (MVC) paradigm. We decided to use this kind of
architecture to let independent modules be included in the
system. In this way, any of the modules could be improved
without interfering with the others.
Model View and Controller is a software architecture whitch
isolates the domain logic [12] from input and presentation(GUI), permitting independent development, testing and
Working Description
We will describe the process of recognition and 3D shape
drawn.
First, using the OpenCV libraries captured the images of
the webcam. Then we process the images to stay with valid
markers. These images makes them a preprocessing, such as
converting to grayscale, noise removal, thresholding, contour
extraction, etc..
In the image 3 we can see how this would be the image
after preprocessing.
Figura 1: MYRA architecture
maintenance of each [13]. On figure 2 we can see basic
structure of this paradigm.
Figura 3: Preprocessing image
Figura 2: MVC diagram
Architecture
The MYRA architecture is a hierarchical architecture summarized in figure 1. Its three main levels are:
Model: base libraries that provide connection with other
libraries.
Controller: modules to get information from the model
layer and to provide information to the interface.
View: Interface generation.
The Model level groups the software needed to connect to
other libraries that MYRA needs, as for instance: OpenCV,
Aruco (that use OpenGL) or pjproject libraries. These libraries provide image recognition, augmented reality and VoIP
services respectively.
The Controller level consists of the mechanisms to get and
use data from the model component. The software at the
Controller level processes data received from the different
subsystems and generates the information to the higher level,
that is, to the View component.
The View level builds the interface that interacts to users.
We use Aruco to adds the augmented information to images,
Qt for building the user interfaces and PjProject to add
communication capabilities.
Once the image is ready, the next step is contours detection.
In this process we get is a collection of sets of points on the
image. Once we have these, the next step is an approximation
made to stay with those polygons shaped ring. If you can find
inside another ring, the innermost rule.
How to make the capture of the image containing the marker
deformation occurs because of the prospect, the next step is a
transformation of perspective so that we again have the initial
form of the marker. Once we have the marker with the initial
approach, we perform a thresholding of the markers by the
previous calculation of the histogram.
Our next objective is to identify markers. It is also analyzed
one at a marker (the images obtained in the previous step), and
check if their content corresponds to one of the matrices that
are recognizable and valid a valid marker.
Use 7x7 matrices of dimensions for the markers, using the 5x5
matrix for coding, filling the outer edge of black squares. For
coding matrices, makes use of Hamming codes, identifying
the black squares as “ 0” and “ 1”-white, and are treated as
binary digits.
The bits numbered from left to right, with 0 being the first
position. Bits 1 and 3 are used to store data, and 0, 2 and 4
bits for error control. Since there are only two bits for data,
then only valid combinations are 4 per row. And are 5 rows,
have a maximum of 1024 different encodings, or what is, 1024
different markers.
Once obtained the sequence of bits in each row checked for
correctness. Performed 4 times, rotating 90 degrees the marker
as it does not know the position of the camera. If the sequence
is correct, it is considered a marker is detected. With this, draw
up the marker we want using OpenGL (or by OpenCV if 2D).
Give the value of the origin of coordinates to the central
point of the marker detected, and once on it, modified coordinates as the point where we want to draw the figure.
Firstly, we achieved an arrow pointing to the marker that
corresponds to the day when taking the pill. Consists of a
pyramid and a cone.
We played with the lights and shadows to add depth and
perspective.
III.
USE CASE
We are going to divide in two different situations the
posibilities use by MYRA:
1. On first one, as we can see on figure 4 we show the
computer a modified pillbox and this shown us the pill
to take.
Interface
As the application has been developed for older people, has
ensured that the design is as simple as possible, so that the
buttons are very intuitive and does not allow changes that could
unconfigure the application to confuse or touching something
they should not.
The interface built for the prototype is made up by three
different modules:
Interaction Interface
Telepresence
Augmented Reality
The Presentation module is in charge of showing information to the user. This information is based on the images
captured by the system, augmented with information added
by the Controller component. The telepresence module is in
charge of managing the communications. In the preliminary
prototype we are providing just voice calls, using the VoIP
stack, which means that the remote user can be on a computer
or on a phone. The Augmented Reality module manages the
information included in the Presentation interface.
Interaction interface
Figura 4: MYRA pillbox use
2. On second one, shown on figure 5 the user can only
pressing a button call emergencys, and selecting friends
or assistance on contacts list call them.
Is possible to make calls using the VoIP system to
communicate with other MYRA users and also to real
phones using MYRA if the account is adapted.
In figure 6 we show a snapshot of the interface. We have
tried to build an interface easy to use to facilitate the user
experience. For this reason only a big frame for images and
few buttons are used.
The frame, marked as 2 in figure 6, shows the video got from
the camera at almost 10 - 20 frames per second. It depends
of many parameters as camera used, image quality or way of
transmission (Wi-Fi transmitted or direct access).
Figura 5: MYRA calls usage
Now, we are going to explain each part necessary to run
MYRA and how it is integrated in the first version of our
prototype.
IV.
PROTOTYPE
In this section we describe the first interface prototype
developed integrating all technologies described above. Also,
an example of modified pillbox and an explanation of how it
works is presented to validate our development.
Figura 6: MYRA main window
Only four buttons, marked as 1 in the figure 6, are used
to interface configuration: parameters as resolution or what
kind of AR picture want to be overlayed in the image frame.
Another button is the interaction interface help to user. This
is going to open other window where a picture indicate us the
buttons funcionality and how to use the application. To collect
the resolutions have had to use the webcam API v4linux. We
can see in figure 7 the kind of AR developed pictures between
we can choose.
uses the PJSIP (Open Source SIP protocol stack) [11].
Augmented Reality
We have decided use ArUco [1] library because its ease
integration in our developments. In our interface, when pillbox
using our tags is showed to the camera the AR system is
activated and a shape is overlaid on the next dose medication.
Also a menu it is available to change the picture to show over
the pillbox.
Pillbox
Our system does not need an electronic or specifically
designed pillbox. We can use any pillbox with a simple
modification: adding a group of CODE’s that has to be printed.
It it’s necessary to cover the corresponding moment of the day
for the correct dose recognition.
In the example of figure 8, we show two different pillbox. In
the picture of left side three days (Monday, Saturday, Sunday)
are modified to be adapted to our system. Picture in right side
has for different daily possible dose marked. We can see up to
4 different shots for each day, so that would correspond with
breakfast, lunch, snack and dinner.
Figura 7: Pictures between we can choose.
In the right side, marked as 3, there are another four buttons:
one for the application (the bell) and three for managing the
tele-presence system.
The bell, when pushed, display a reminder with the lapsed
time to the next dose. The other three buttons are used for the
tele-presence system. The first one (from top) shows friends
list, the next one allows the call to a day-center for elderly and
the third one (the one with the cross) calls to the emergency
line. The last button closes the application.
Configurations have been developed to allow up to 4 times
daily, corresponding with breakfast, lunch, snack and dinner.
To configurate this, we must go to edit menu, and inside this,
to edit times of medication. The picture will be painted on the
next take, and pressing the bell we will see the time to take
it.
The system let us also hang up a call, we can listen a sound
and see a new button,
Within the menu you can configure the size of the figures,
to help the older person to see better visual signals and axis on
or off, set numbers (Assistance, friends and emergency VoIP
user), daily doses and their corresponding times, user support,
etc.
Telepresence
Our current MYRA implementation can make phone calls
using VoIP. A SIP stack was used to implements the VoIP
communications. We integrated a modified version of QjSimple by Klaus Darilion distribuited under GPL license 2 [2] in
our current implementation . This multiplatform application
Figura 8: Simple PillBox
So as we explained before, we present a simple recognition
system to help a final user to take the daily dose. Using our
application MYRA and modifying whatever pillbox anyone
can see the next dose.
Figura 9: Dose recognition with Augmented Reality
In the figure 9 we can see different snapshots of our pillbox
and the AR marks, overlaid over the day. This model is the
most simply case, with only seven possible cases, the week
days. In the left image somebody grab the box and is showed
to camera, in the right one, the box is on the table. In both
cases the application shows the right medication dose.
V.
CONCLUSION AND FURTHER WORK
This paper describes the development of a cheap telepresence system equipped with an augmented reality system
for interaction.
The main contribution of our paper is:
Software: A program whose name is MYRA used to
build a system of medical dose control that includes
augmented reality to improve the interaction with the
robot and a telepresence system.
MYRA has been built using open source libraries. This was
a design decision that speed up the development, but also
has its drawbacks: we are stuck to particular version of the
libraries. The MYRA architecture developed for this project
is available for downloading and test.
As we presented along the paper, using our prototype it is
possible to follow a simple medical guidelines to take the daily
pill dose, thanks to help given for augmented reality,with just
presenting the pillbox to our robot or to a camera if we use the
MYRA computer solution. Also the telepresence system using
VoIP, appears as a cheap way to communicate with family,
friends or, with many improvements, as possible emergency
system.
We are currently working on integrating this project into a
robotic platform, specifically a turtlebot [10]. Thus, the robot
could alert the individual anywhere, so that the robot is able to
move around the house independently. In the case of turtlebot,
images are collected by the kinect available, instead of a
webcam.
We can see in the image 10 a turtlebot.
Figura 10: Turtlebot.
We hope to test the prototype in a real environment in the
next months to get a real feedback.
ACKNOWLEDGMENT
This work has been partially supported by Cátedra de
Telefónica - Universidad de León (grant CTULE11-2).
R EFERENCIAS
[1] Research group, Aplicaciones de la Visión Artificial (A.V.A) Available:
http://www.uco.es/investiga/grupos/ava/
[2] QjSimple, [Online]: http://www.ipcom.at/en/telephony/qjsimple/
[3] Juan F. Garcı́a, Francisco J. Rodrı́guez, Vicente Matellán, Camino
Fernández.Augmented reality to improve teleoperation of mobile robots. XII Workshop en Agentes Fı́sicos (WAF’2011). Albacete (España),September 2011.
[4] Project Pauta, [Online] Available: http://www.proyectopauta.es/.
[5] Project Oasis, [Online] Available:http://www.oasis-project.eu/.
[6] Project AAL, [Online] Available:http://www.aal-europe.eu/.
[7] Project OpenCV, [Online] Available:http://opencv.willowgarage.com/wiki/
[8] Ariel y la Fundación telefónica. Realidad aumentada una nueva lente para
ver el mundo
[9] Azuma, R., Baillot, Y., Behringer, R., Feiner, S., Julier, S., MacIntyre,
B., Recent advances in augmented reality ,IEEE Computer Graphics and
Applications, 0272-1716, Volume 21, Issue 6, pp 3447, 2002
[10] Robotic platform turtlebot. Available: http://www.turtlebot.com/
[11] PjSimple, [Online] Available: http://www.pjsip.org/
[12] StarUML 5.0. (2005). StarUML Features [online] Available:
http://staruml.sourceforge.net/en/about-3.php
[13] Model-view-controller,
In
Wikipedia,
[online]
Available:
http://en.wikipedia.org/wiki/Model–view–controller
Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución.
1
LA LÓGICA BORROSA. HISTORIA Y
EVOLUCIÓN
Martínez Montoto, Rodrigo
[email protected]
Universidad de León
Resumen— En este artículo se presenta la lógica borrosa,
centrándose en su historia y evolución. La lógica borrosa es
una teoría que se puede considerar reciente, ya que nació en
1965, año en que su creador Lotfi A. Zadeh presentó a la
sociedad sus ideas .Su historia se puede englobar en tres
épocas. La primera sería sus antecedentes y su nacimiento,
para observar de donde viene la idea en sí. La segunda sería
cuando se afianzaron sus ideas, observando cómo tuvo mayor
aceptación en Oriente que en Occidente. Y por último la
lógica borrosa como una teoría ya aceptada, hablando de
cómo esto ha afectado a su evolución. En el presente
documento también se presentarán las conclusiones
alcanzadas desde una perspectiva personal.1
Índice de Términos—Lógica borrosa, lógica
clásica, lógica multivaluada, paradoja de Rusell,
principio de incertidumbre.
I. INTRODUCCIÓN
La lógica borrosa o difusa es una herramienta
para incorporar el conocimiento estructurado del ser
humano a algoritmos de una forma viable.
Se puede decir que el concepto de lógica difusa
es utilizado en muchos sentidos y campos. De
forma limitada, se puede decir que la lógica difusa
es considerada un sistema lógico cuyo objetivo es
proveer de la forma de razonamiento humana a
otros modelos, haciendo que sea más bien
aproximado, frente a lo exacto. Desde un punto de
vista más amplio, la lógica difusa se trata como la
teoría de conjuntos difusos de clases con
limitaciones borrosas. Los métodos de la lógica
difusa se pueden utilizar para diseñar sistemas
inteligentes con la base del conocimiento expresado
en un lenguaje común. Hay muchas aplicaciones en
los sistemas inteligentes. No hay prácticamente
ningún área de actividades humanas en los que no
se haya utilizado o al menos probado estos sistemas.
La gran razón de dicha versatilidad es que este
método permite el procesamiento simbólico y
numérico de información. Los sistemas diseñados y
desarrollados con la lógica borrosa como método
han demostrado a menudo que son más eficientes
que aquellos basados en métodos convencionales o
clásicos.
La teoría de los conjuntos borrosos es una teoría
de conjuntos graduados, “una teoría donde todo es
cuestión del grado, o todo tiene elasticidad (Zadeh,
1973)”. El objetivo es tratar con fenómenos
complejos que por sí mismos no se pueden analizar
mediante un método clásico basado en lógica
bivalente o teoría probabilística. Muchos sistemas
en la vida real son demasiado complejos o tienen
demasiada falta de información para ser
susceptibles a un análisis exacto. Incluso cuando los
sistemas o conceptos parecen poco sofisticados, la
percepción y entendimiento de los sistemas
aparentemente poco sofisticados no son simples.
Utilizando los conjuntos difusos o las clases que
permiten grados intermedios de pertenencia en
ellos, abre la posibilidad de analizar dichos sistemas
tanto cualitativamente como cuantitavamente,
mediante permitir las variables del sistema a un
sistema de graduación en los conjuntos borrosos.
II. EL CAMINO HACIA LA LÓGICA BORROSA
La lógica en general tiene una amplía historia,
remontándose sus orígenes a la Grecia Clásica. Se
puede considerar como padre de la lógica a
Aristóteles, quien introdujo las leyes del
conocimiento, que son el sustento de la lógica
clásica. Sus tres leyes fundamentales son: Principio
de identidad, el cual declara que toda entidad es
idéntica a sí misma. Ley de la contradicción, que
promulga que una proposición y su negación no
pueden ser ambas verdaderas al mismo tiempo. Ley
del tercero excluido, la cual promulga que para toda
proposición p, o bien la misma p o su negada tiene
Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución.
que ser verdadera, sin que haya ninguna proposición
verdadera entre ellas
Es a raíz de esta última ley por la cual nacen
muchas diferencias con esa forma de pensamiento.
Puede dar lugar a dudas que no haya nada
intermedio entre lo que es verdadero y lo que es
falso, ya que eso implica la verdad o la no verdad
absoluta. Platón fue el primer pensador en poner en
duda esto, ya que afirmaba que entre lo verdadero y
lo falso existía lo que él llamó la tercera región: los
grados de pertenencia. Así se puede considerar que
Platón fue pionero a la hora de poner las bases de lo
que muchos siglos después sería la lógica borrosa.
Haciendo un gran salto en el tiempo, y llegando
al S. XVIII, descubrimos a otros grandes
pensadores hablando de conceptos similares.
George Berkeley y David Hume hablaron del
concepto de lo vago, de lo similar, de la
ambigüedad, conceptos relacionados con la lógica
difusa. También llegaron a la conclusión de que el
conocimiento se adquiere a lo largo de las vivencias
de nuestra vida. Hume creía en la lógica del sentido
común. Immanuel Kant, en ese mismo siglo,
pensaba que solo los matemáticos podían proveer
definiciones claras, dando a entender que había
principios contradictorios que no tenían solución.
Un ejemplo que dio Kant fue que la materia se
podía dividir infinitas veces, pero que a la vez no se
podía dividir infinitamente. En conclusión, se
empezó a encontrar principios contradictorios de la
lógica clásica, poniendo en duda algunas leyes por
las que está se regía.
A principios del S. XX se realizan estudios que
tienen que ver de alguna manera con la lógica
borrosa, pues después fueron inspiración para
Zadeh. Bertrand Rusell divulgo la idea de que la
lógica crea contradicciones, e hizo un estudio de las
vaguedades de lenguaje, cuya conclusión fue que la
vaguedad es un grado. Por otra parte Ludwing
Wittgenstein hizo un estudio sobre las diferentes
acepciones que tiene una misma palabra,
desbancando muchos principios de la lógica clásica.
Llegó a la conclusión de que una misma palabra se
puede utilizar para muchas cosas que tengan algo en
común, es decir, que una misma palabra expresa
modos y maneras diferentes.
Fue en 1920 cuando este sentimiento de que los
“fallos” de la lógica clásica se acentuó. Jan
Lukasiewicz desarrolló la primera alternativa
2
sistemática a la lógica bi-valuada de Aristóteles.
Dicha alternativa es la primera lógica de
vaguedades, que describió como una lógica
trivalente. Esta fue una de las grandes inspiraciones
de Zadeh años después.
III. PRIMEROS PASOS E IDEAS DE APOYO DE
LA LÓGICA BORROSA
A mediados de los años 60, Lotfi A. Zadeh
publicó su artículo “Fuzzy sets”, que se publicó en
la revista “Information and Control”, exactamente
en 1965. Este artículo sentó las bases de lo que más
tarde sería la teoría de los conjuntos borrosos. Lotfi
A. Zadeh llevaba tiempo estudiando estás ideas,
estudiando a otros pensadores que hablaban de
grados de pertenencia, y de alternativas a la lógica
clásica. Pero sin lugar a dudas su inspiración más
importante viene de tres fuentes: La paradoja del
conjunto de Russell, el principio de incertidumbre
de Heisenberg y la lógica multivaluada de Jan
Lukasiewicz.
A. La paradoja de Russell
Fue descubierta en 1901 por Bertrand Russell.
Demuestra que la “naive set theory”, desarrollada
por Georg Cantor, nos inducia a una contradicción.
La misma paradoja fue descubierta un año antes por
Ernst Zermelo, pero no publicó la idea. Tan solo
otros profesores de la Universidad de Göttingen
reconocen a Ernst su mérito.
De acuerdo con la “naive set theory”, cualquier
colección de objetos definibles es un conjunto. R es
el conjunto de todos los conjuntos que no son
miembros de sí mismos. Si R se califica como
miembro de sí mismo, eso contradeciría su propia
definición de conjunto que contiene todos los
conjuntos que no son miembros de sí mismos. Por
otra parte, si un conjunto A no es miembro de sí
mismo, se le calificaría como miembro de sí mismo
por la misma definición. Esta contradicción es la
paradoja de Russell.
Para entender mejor la paradoja de Russell, se
adjunta el siguiente ejemplo. Llamamos a un
conjunto “anormal” si es miembro de sí mismo, y
“normal” si no lo es. Tomamos entonces el conjunto
de todos los cuadrados. Este conjunto no es por sí
mismo un cuadrado, por lo que no pertenece al
Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución.
conjunto de todos los cuadrados, es un conjunto
“normal”. Por otro lado si tomamos su conjunto
complementario, el de los no cuadrados. Este
conjunto es por sí mismo un no-cuadrado, por lo
que pertenece a el conjunto de los no-cuadrados, es
un conjunto “anormal”. Ahora consideramos el
conjunto R, como el conjunto de todos los
conjuntos normales. Determinar si R es “normal” o
“anormal” es imposible. Si R fuese “normal” estaría
comprendido dentro de sí mismo y entonces sería
“anormal” Y si fuese “anormal” no estaría
comprendido dentro de sí mismo y sería “normal”.
La conclusión es que R no es “normal” ni
“anormal”, y esto es la paradoja de Russell.
B. El principio de incertidumbre de Heisenberg
Heisenberg una vez declaro: “Nosotros creemos
que obtenemos conocimiento de la teoría de la
física, si en todos los casos simples, nosotros
podemos juntar las consecuencias experimentales
cualitativamente y ver que la teoría no lleva a
ninguna contradicción”. Esta idea es una fuente de
inspiración para Zadeh.
El principio de incertidumbre en sí dice que a
nivel nuclear, es imposible conocer al mismo
tiempo tales magnitudes como la velocidad y la
posición de una partícula, es decir, cuanto más
conozcamos una magnitud, menos conoceremos la
otra. Por ejemplo, si conocemos la velocidad de una
partícula atómica, no podemos conocer su posición.
Pero el problema no es que no se conozca una
técnica de medición lo suficientemente buena o
exacta como para conocer ambas magnitudes, sino
que es un problema de la naturaleza del electrón.
Esto fue lo que más perturbo a la física y a la
filosofía impuestas hasta esa fecha.
Más que el principio de incertidumbre en sí, lo
que más inspiró a Zadeh de esta teoría fue la forma
de pensar de su inventor, y su filosofía de
interpretar las cosas.
C. La lógica multivaluada de Jan Lukasiewicz
Jan Lukasiewicz nació en Polonia en 1878 y el
gran trabajo de su vida fue innovar sobre la lógica
clásica, el principio de la no contradicción y la ley
del tercero excluido. Fue
un pionero en la
investigación de la lógica multivaluada mediante su
la invención de la lógica trivalente.
3
La lógica trivalente es un sistema de lógica no
aristotélica, ya que opera en la base de que además
de las proposiciones clásicas de verdadero y falso,
existe un tercer valor lógico que es la “posibilidad”,
y que se puede simbolizar como ½. Para formular
su lógica trivalente, además de los principios
relativos a 1 y 0, tuvo que formular principios
relativos a ½. Los principios que antes eran
relativos a 1 y 0, la definición de negación, adicción
y multiplicación, son ahora también compatibles
con la lógica trivalente, con la diferencia de que sus
variables pueden tomar ahora tres valores.
Algunas de las leyes de la lógica trivalente son
diferentes que en la lógica clásica bivalente, es más,
algunas de estas leyes son solo “posibles” en esta
lógica. De hecho la exclusión de ciertas leyes hace
que en la lógica trivalente no haya antinomias, es
decir, no existen paradojas o contradicciones
irresolubles.
Lukasiewicz propuso una notación completa y
nueva, además de un sistema axiomático del cual
esperaba que acabase derivando las “matemáticas
modernas”. Lukasiewicz también destaca que está
lógica tiene más valor teórico que practico, pues él
la considera un medio para construir una lógica no
aristotélica.
Lukasiewicz después de trabajar en su lógica
trivalente, exploró el mundo de la lógica
multivaluada, pensando en lógicas de cuatro, cinco,
o más valores, llegando a la conclusión de que no
había un impedimento para acabar en una lógica
infinito-valuada. Dicha lógica sería formalizada
sobre 1930. El propio Lukasiewicz consideraba a la
lógica trivalente y a la infinito-valorada como las
más interesantes a razón de sus propiedades. Pero
sería la tetravalente la que mejor se adaptaría a los
diferentes postulados clásicos.
IV. AFIANZANDO LAS NUEVAS IDEAS
Como bien se ha dicho antes, en 1965, con la
publicación del artículo “Fuzzy sets” de Lotfi A.
Zadeh se causó un gran revuelo en el mundo de la
ciencia. Había aparecido una nueva teoría que no
desbancaba a la teoría clásica, sino que tenía
pretensiones de absorberla, considerando a esta
parte de sí misma, es decir, se consideró a los
conjuntos clásicos como un caso particular dentro
de los conjuntos difusos. Este hecho de ir en contra
Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución.
de lo clásico o de hacer pensar que todo lo hecho y
estudiado en base a lo clásico no era más que una
particularidad de esta nueva teoría provocó un
profundo sentimiento de rechazo ante lo expuesto
por Lotfi A. Zadeh.
A. El rechazo de la teoría en Occidente y su
aceptación asiática
En sus principios, por lo ya expuesto, esta teoría
provocó un profundo rechazo. En occidente los
científicos se negaban a aceptar el estudio del
campo de la vaguedad, que permitía manipular
conceptos del lenguaje cotidiano, lo que era
imposible hasta el momento.
En palabras del propio Zadeh: “En Occidente la
acogida fue menos positiva. En Asia aceptan que el
mundo no es blanco o negro, verdad o mentira. En
Occidente todo es A o B”. Esto se puede entender
por la cultura que se tiene en occidente y la cultura
asiática. La cultura clásica griega es la que impera
en el mundo occidental, y es a esta a la que se
enfrentan las nuevas ideas. De hecho en Estados
Unidos y Europa se llegó a decir que la lógica
difusa era una probabilidad disimulada, intentando
quitarle importancia y robarle el protagonismo que
se merecía.
Sin embargo en Asia la aceptación fue casi
inmediata, ya que según su cultura no está discutido
el poder ser más de una cosa a la vez, por ejemplo,
el Yin y el Yang, dicen que lo bueno está ligado a lo
malo, de tal manera que una persona puede ser
buena y mala a la vez.
Cabe decir que el sentimiento de rechazo
disminuyó cuando empezó a probar su valía.
B. Implementación y profundización de la teoría
Zadeh, a pesar del rechazo generalizado,
continuaba su estudio de esta teoría. Así en 1968
publica el artículo “Fuzzy Algorithm” y en 1971 vio
como sus objetivos se hacían realidad, ya que él
tenía intención de crear un formalismo para manejar
de forma eficiente la imprecisión del razonamiento
humano. Dicho año publicó el articulo
“Quantitative Fuzzy Semantics”, que es donde
aparecerían por primera vez los elementos formales
que dan lugar a la lógica borrosa, a su metodología
y la de sus aplicaciones tal y como las conocemos
hoy día.
4
Muchos investigadores que se oponían a la
lógica difusa empiezan a ver posibilidades de futuro
en ella, y algunos se hacen seguidores de Zadeh.
Incluso mientras él seguía asentando su teoría, estos
científicos se dedicaron a explorar nuevas teorías e
ideas basadas en este tipo de lógica. Entre estos
nuevos seguidores se pueden destacar a Bellman,
Lakoff, Goguen, Smith,… Por ejemplo, Lakoff es
uno de los desarrolladores de la Semántica
generativa, la lingüística cognitiva y la teoría neural
del lenguaje, apoyándose sobre todo en las teorías
de Zadeh. Joseph Goguen desarrolló múltiples
mejoras en lenguajes de programación también
ayudándose de las teorías de la lógica difusa.
En 1973, Zadeh acabo de poner los pilares de su
lógica difusa. Otro paso importante para esta teoría,
fue a principio de los años 70, cuando se crearon
varios grupos de investigación en universidades
japonesas que hicieron grandes aportaciones a las
aplicaciones que se podían conseguir mediante la
lógica difusa. Y quizá el paso más importante para
acabar de afianzar la lógica difusa, fue en 1974,
cuando el británico Ebrahim H. Mamdani
demuestra la aplicabilidad de la lógica difusa en el
campo del control, ya que desarrolló el primer
sistema de control borroso, que regulaba un motor
de vapor, que aunque no pudo implementarse hasta
1980 por la falta de capacidad de computo de los
ordenadores de la época, dejaba constancia de la
aplicabilidad de la lógica borrosa.
A partir de este momento, la lógica difusa
empieza a tener una mayor aceptación, aunque
continuó siendo mayor en Asia, y en especial en
Japón. Estados Unidos y Europa, aunque ya estaban
tan escépticos frente a esta teoría, no la utilizaban
tanto como allí.
V. LA LÓGICA BORROSA COMO UNA
TEORÍA YA ACEPTADA
Después de los grandes avances de los 70, en
décadas posteriores, esta teoría fue teniendo más
éxito y encontrándose nuevas aplicaciones. En la
década de los 80 la investigación se oriento hacía
las redes neuronales y su similitud con la lógica
borrosa. Estos nuevos sistemas de lógica borrosa lo
que hacen es utilizar métodos basados en las redes
neuronales para encontrar y optimizar mejor los
parámetros del sistema borroso. En la década de los
Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución.
90 surge la investigación de los algoritmos
genéticos, y la investigación se oriento conseguir
sistemas de control muy potentes basándose en la
lógica borrosa, las redes neuronales y los algoritmos
genéticos, ya que juntando los tres métodos se
conseguían herramientas muy buenas para el
control.
A. La década de los 80
Estos años fueron muy fructíferos en Asia, y otra
vez en especial en Japón. En 1986, Yamakawa
publicó el articulo “Fuzzy controller hardware
system” donde explicaba como implementar un
controlador basado en lógica borrosa en un chip
integrado.
El mayor desarrolló basado en lógica borrosa ha
sido, en 1987, cuando la Hitachi utiliza un
controlador borroso para el control de tren de
Sendai. Fue uno de los sistemas más novedosos
inventados por el hombre. Desde entonces el
controlador ha mantenido a los trenes en
funcionamiento perfectamente. Pero el año 1987 no
solo es recordado por el tren de Sendai, sino que se
le conoce como el año del “FUZZY BOOM”. Esto
es debido a que empezaron a comercializarse
multitud de dispositivos basando su funcionamiento
en la lógica difusa. Esto ocurrió en Japón, donde se
podían y pueden encontrar por ejemplo
electrodomésticos funcionando en base a la lógica
borrosa, o cámaras fotográficas cuyo estabilizador
también se basa en la lógica borrosa.
A parte de ese “FUZZY BOOM”, el auge en
Japón de la lógica borrosa viene también dado por
los trabajos de Michio Sugeno, que reúnen
complejos desarrollos matemáticos con aplicaciones
tecnológicas de gran importancia. Por esto se puede
hablar de “ingeniería difusa”, a parte de la lógica y
la tecnología difusa. A raíz de estas investigaciones
se empieza a trabajar juntando redes neuronales y
lógica borrosa, y más tarde también con algoritmos
genéticos.
B. Desde los 90 hasta hoy día
Desde los 90 hasta hoy día, aunque se ha seguido
investigando sobre este teoría y sus aplicaciones, no
ha habido tanto auge como en los 80 respecto al
número de aplicaciones que se empezaron a
desarrollar. Aún así podemos encontrar aplicaciones
5
interesantes como la de 1993, cuando Fuji aplica la
lógica borrosa para el control de la inyección
química en plantas depuradoras. Entonces se dio un
gran paso para la lógica borrosa, creando estrechas
relaciones entre el gobierno japonés, las
universidades y las industrias, estableciendo
proyectos que se llevarían a cabo por el Ministerio
de Industria y Comercio (MITI), la Agencia de
Ciencia y Tecnología (STA) en conjunto con el
Laboratory for International Fuzzy Engineering
Research (LIFE).
De forma paralela, Sugeno y Tagaki, desarrollan
la primera aproximación para construir reglas
borrosas a partir de datos de entrenamiento. Esto da
lugar a desarrollar de forma más óptima las uniones
ya comentadas antes entre lógica borrosa y redes
neuronales. También en los 90 entran en juego los
algoritmos genéticos y se investiga mucho en juntar
lógica difusa, redes neuronales y algoritmos
genéticos para crear potentes herramientas.
A partir de aquí se puede decir que se va
generando un nuevo campo en la computación: la
computación flexible, la cual puede ser muy
prometedora manejando razonamientos de sentido
común y lograr que los ordenadores “razonen” de
un modo similar al del ser humano. También se
empiezan a utilizar conceptos de la lógica difusa y
los conjuntos difusos para resolver problemas de
gestión, economía, medicina, biología, ciencias
políticas, lingüística,… Hoy día el mayor número
de investigadores en este campo se encuentran en
China con unos 10.000, y aunque Japón es el
abanderado de la lógica borrosa, no tienen hoy día
tanta gente trabajando en esto.
Según todo lo expuesto, se ve que la mayoría de
las investigaciones de la lógica borrosa son en el
campo del control, pero actualmente y desde hace
unos años, la lógica borrosa se ha empezado a
utilizar en otros muchos campos como el
reconocimiento de patrones visuales o la
identificación de segmentos de ADN. Por último,
cabe mencionar que muchos investigadores que
actualmente trabajan con la lógica borrosa, dicen
que el futuro de Internet, en cuanto a controlar la
red, gestionarla o recuperar información, pasa por
aplicar estas tecnologías borrosas en estos campos.
Universidad de León. Martínez Montoto, Rodrigo. La lógica borrosa. Historia y evolución.
VI. CONCLUSIONES
La gran conclusión a la que se llega con la
realización de esta investigación, es que la lógica
borrosa no ha sido aprovechada al máximo de sus
posibilidades, aunque cabe decir que hay multitud
de aplicaciones, no puedo imaginar las aplicaciones
que tendría si hubiese obtenido un apoyo total e
incondicional desde el principio de su existencia.
Entiendo que pudiese parecer osado el intento de
globalizar la lógica clásica, y todos los estudios que
conllevaba como una particularidad de la nueva
lógica borrosa, pero quizás una mente más abierta
del mundo occidental hubiese permitido un
desarrollo más rápido y quien sabe en qué punto se
encontraría la lógica borrosa hoy día.
El apoyo que recibe la lógica borrosa a día de
hoy no es tan importante como en décadas pasadas,
pero esto puede ser por las nuevas tecnologías que
van surgiendo, que absorben la atención de los
investigadores. Aunque cabe decir que en Japón
sigue teniendo un gran apoyo, siendo incluso un
reclamo publicitario. Es típico leer, por ejemplo, en
electrodomésticos que funcionan en base a la lógica
borrosa.
REFERENCIAS
[1] Floridi, L. (2004) The philosophy of Computing and
Information. Blackwell Publishing. United Kingdom
[2] Kecman, V. (2001) Learning and Soft Computing. The
MIT press. USA
[3] Ross, T. J. (2010) Fuzzy Logic with Engineering
Applications. Wiley. USA
[4] Lippe, W. M. (2006) Soft Computing. Springer-Verlag.
Germany
[5] McNeill, F. M.; Thro, E. (1994) Fuzzy Logic a practical
approach. AP Professional. USA
[6] Ross, T.J.; Booker, J. M.; Parkinson, W. J. (2002) Fuzzy
logic and Probability Applications. ASA-SIAM. USA
[7] Melin, P.; Castillo, O.; Aguilar, L.T.; Kacprzyk, J. (2007)
Foundations of Fuzzy Logic and Soft Computing.
Springer-Verlag. Germany
Autor
Ingeniero técnico industrial, especialidad en electrónica
industrial y automática por la Universidad de León.
6
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
1
Estado del Arte de la Navegación Aérea asistida por
Instrumentos
Marcos Ferrero, Mónica.
[email protected]
Escuela de Ingenierías Industrial e Informática, Universidad de León
Resumen—Desde sus orígenes, la aviación cuenta con su
principal ventaja: sobrevolar el terreno a gran velocidad. Sin
embargo, desde entonces ha sido necesaria la búsqueda de
referencias que permitan orientar la aeronave. En un principio,
las características más significativas del terreno resolvían el
problema; aunque con ciertas limitaciones dependientes de la
meteorología. Por ello se han desarrollado sistemas basados en
instrumentos que permitan realizar un vuelo o un aterrizaje
seguro con visibilidad nula o prácticamente nula. Estos
sistemas pueden basarse en instalaciones en tierra, ya sea a lo
largo de la ruta a realizar o en el aeropuerto; en sistemas
autónomos incorporados en la aeronave; o en satélites;
respectivamente, se denominan: radioayudas, sistemas de
navegación autónoma o sistemas de posicionamiento por
satélites. Estos últimos suscitan mayor interés de estudio y
desarrollo.
Índice de Términos—Navegación aérea, Radioayudas,
Satélite.
I. INTRODUCCIÓN
El desarrollo de la aviación, desde 1903 cuando
los hermanos Wright realizaron el primer vuelo en
un avión controlado hasta nuestros días, ha estado
permanentemente
condicionado
por
la
meteorología.
La gran ventaja de la aviación es desplazarse
a gran velocidad a través del aire; sin embargo para
ello se necesitan unas referencias que permitan al
piloto orientarse durante el vuelo.
En un primer momento, las referencias que se
empleaban eran meramente visuales, es decir, el
piloto reconocía desde el aire el terreno sobre el que
volaba y de este modo estaba al tanto de su posición
en cualquier momento del vuelo.
No obstante, la meteorología juega un papel muy
importante en la aviación. En condiciones de escasa
visibilidad, como puede ser la niebla, estas
III Congreso de Cibernética
referencias visuales dejan de ser útiles. De manera
que se promueve la búsqueda de nuevas alternativas
de navegación aérea.
II. TIPOS DE NAVEGACIÓN AÉREA
Hay diferentes métodos de navegación aérea a
través de los cuales se controla el vuelo de una
aeronave:
A. Navegación Observada
Es el método más primitivo y por tanto el más
sencillo. El piloto es capaz de conocer la posición
en la que se encuentra y la dirección que ha de
seguir, mediante la observación del terreno. Como
referencias visuales, emplea aspectos geográficos
característicos como ríos, carreteras, lagos,... Para
operaciones de aproximación, las referencias
visuales utilizadas son balizas instaladas en el
aeropuerto. El mayor inconveniente de este método
es la meteorología, ya que en condiciones adversas,
la carencia de visibilidad hace imposible reconocer
el terreno; también es difícil identificar el terreno
cuando éste no dispone de características relevantes.
B. Navegación a Estima
Es un método de navegación capaz de calcular,
mediante la integración en función del tiempo, la
posición actual de la aeronave. Para ello se precisa
conocer el punto origen del vuelo, el vector
velocidad y el tiempo transcurrido. Este método
tiene el inconveniente de que los errores son
acumulativos, es decir, un pequeño error en la
estimación inicial se convierte en un gran error que
aumenta con el tiempo.
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
C. Navegación Asistida por Instrumentos
Es un método que, a diferencia de los anteriores,
sigue las indicaciones que le proporcionan los
equipos de navegación instalados a bordo. Hay
diferentes sistemas de instrumentos: unos como el
VOR o el ILS, se basan en señales que reciben de
estaciones terrestres; otros como el GPS reciben las
señales de satélites; y otros son autónomos y no
necesitan señales externas, como puede ser el
sistema inercial.
Fig 1: Sistema de Radioayudas en Ruta ADF/NDB.
D. Otros Métodos de Navegación
Existen otros métodos menos utilizados como
son la navegación astronómica y la navegación
aérea Doppler. La astronómica toma de referencia
los cuerpos celestes y la navegación aérea Doppler,
basada en el "efecto Doppler"1, determina la
velocidad y el ángulo de deriva del avión.
La navegación asistida por instrumentos es el
tipo que se profundiza a lo largo del presente
artículo.
III. NAVEGACIÓN ASISTIDA POR INSTRUMENTOS
Dentro de la navegación asistida por
instrumentos hay que distinguir entre los sistemas
que se basan en señales de radio (también llamados
radioayudas), los sistemas de navegación por
satélite y el inercial, que es autónomo.
IV. RADIOAYUDAS
Las radioayudas nacen en la primera mitad del
siglo XX. Existen diversas formas para clasificar
estos sistemas. Personalmente, la mejor forma de
hacerlo es según su función.
1
El efecto Doppler, llamado así por su progenitor Christian Andreas
Doppler, es el cambio de frecuencia de una onda que se produce por el
movimiento relativo entre el emisor y el receptor.
III Congreso de Cibernética
2
A. Radioayudas en Ruta
Guían la aeronave durante el vuelo crucero y la
aproximación primaria, debido a que tienen un
alcance medio-largo.
1) ADF/NDB: es uno de los sistemas más
antiguos que todavía están en uso. Consta de
dos equipos:
El NDB (Non Directional Beacon) es la
estación en tierra, desde la cual se emite una
frecuencia entre 200 y 1750 kHz. El ancho
de banda varía significativamente en función
de la zona del mundo en que se encuentre
instalado; por ejemplo en Europa los NDB
van desde 255 a 415 kHz y de 519 a 525
kHz. Este ancho de banda se halla en el
rango de media frecuencia, con una longitud
de onda entre 170 y 1500 m; y con la
polarización de la señal vertical.
El NDB emite una señal modulada en
AM, que indica un código de tres letras de la
estación, codificado en código Morse. La
señal emitida tiene un alcance entre 46 y 185
km; y aunque el alcance potencial de media
frecuencia es mayor, se producen problemas
de propagación que limitan el alcance
efectivo. Uno de estos problemas es el
"efecto fadding", que se produce cuando a
una determinada distancia del emisor, el
receptor recibe una onda que ha recorrido
caminos distintos (una de tierra y otra de
cielo); esto origina interferencia destructiva
produciendo una señal intermitente, que
aparece y desaparece rápidamente.
El ADF (Automatic Direction Finder) es
el receptor que se encuentra en la aeronave.
Los problemas que afectan a este equipo son
los cambios de polarización, que se
producen al esquivar obstáculos; y las
tormentas, que causan cambios estáticos;
además del "efecto fadding" como en el
NDB.
El sistema ADF/NDB funciona con una
precisión media de 3 a 5º. El piloto sabe que
está sobrevolando esta radioayuda gracias a
la existencia de un "cono de silencio", que es
una zona sin cobertura en la vertical de la
antena del NDB en forma de cono invertido
con un ángulo menor a 45º.
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
La señal procedente del NDB se recibe
por el ADF y se presenta ante el piloto
mediante el RMI (Radio Magnetic
Indicator), que indica la dirección a la
estación NDB.
2) VOR (VHF Omnidirectional Range):
es la ayuda a la navegación de corto alcance
establecida por la OACI (Organización de
Aviación
Civil
Internacional) como
estándar.
El VOR proporciona automáticamente al
piloto la dirección entre la aeronave, la
estación en tierra del VOR y el norte
magnético.
Este sistema opera en un ancho de banda
comprendido entre 108 y 118 MHz.
El transmisor VOR de la estación en
tierra emite dos señales de navegación: una
de referencia de 30 MHz modulada en FM
sobre una subportadora de 9960 Hz y una
señal variable en azimut, modulada en AM.
La señal de referencia indica el norte
magnético y la señal variable la dirección de
la aeronave.
Además de estas señales de navegación,
el VOR también emite un canal de audio con
una frecuencia comprendida entre 300 y
3000 Hz, que proporciona información sobre
la estación mediante tres letras codificadas
en Morse.
El receptor VOR a bordo de la aeronave
proporciona la información de la posición de
la misma, comparando la diferencia de fase
entre la señal de referencia, alineada con el
norte magnético, y la señal variable en
azimut.
Fig 2: Sistema de Radioayudas en Ruta VOR, donde (a)
Antena VOR y (b) indicador en cabina de la señal del
VOR.
III Congreso de Cibernética
3
El VOR es un sistema de navegación que
define las aerovías entre estaciones VOR.
No obstante, también puede utilizarse en
maniobras de aproximación,
para
determinar puntos de espera o rumbos de
aproximación, mediante estaciones VOR
cercanas a la pista de aterrizaje.
El VOR es un sistema capaz de llevar a
cabo la navegación en ruta de manera muy
precisa, ya que el error medio se encuentra
entre 1 y 2º.
3) DME
(Distance
Measurement
Equipment): es un sistema de navegación
que proporciona casi continuamente
información de distancia entre el avión y la
estación en tierra (10 medidas por segundo).
Por lo tanto necesita un emisor y un receptor
en el equipo de abordo y un transpondedor
en la estación en tierra.
El funcionamiento de este sistema se basa
en preguntas y respuestas entre la aeronave y
el equipo de tierra. El equipo de abordo de la
aeronave interroga a la estación en tierra
mediante una señal de pares de pulsos. Éste
le responde con una secuencia de pulsos
idéntica pero con un determinado atraso de
tiempo (50 microsegundos).
Para obtener una aproximación de la
distancia entre la aeronave y la estación en
tierra, se calcula el tiempo transcurrido
desde que la aeronave realiza la pregunta
hasta que obtiene la respuesta; a este tiempo
hay que restarle los 50 microsegundos del
retraso y se divide entre dos debido al
espacio recorrido (ida y vuelta). El resultado
obtenido hay que dividirlo entre la velocidad
de la luz, para así obtener la distancia
resultante.
La secuencia de pares de pulsos depende
del equipo de abordo, por lo que una misma
estación en tierra puede responder a más de
una aeronave simultáneamente, hasta 100 ó
200 aeronaves.
La precisión de un sistema DME se
encuentra entre 185 y 926 m.
El DME raramente se utiliza solo, sino
que suele emplearse casi siempre junto con
una ayuda que proporciona información
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
angular, como las vistas recientemente
(NDB y VOR). También se puede encontrar
junto con el ILS, sustituyendo a las
radiobalizas, como se menciona a
continuación.
B. Radioayudas para el Aterrizaje
Guían a la aeronave durante las fases de
aproximación final y aterrizaje, debido a su corto
alcance.
1) ILS (Instrument Landing System): es
el sistema de ayuda para la aproximación
final y el aterrizaje normalizado por la OACI
para todo el mundo.
El ILS proporciona a las aeronaves de
dentro de su volumen de cobertura
información de guiado acimutal, cenital y de
distancia para que el piloto, sin referencias
visuales externas, pueda alcanzar un punto
de la trayectoria de descenso situado a una
altura, denominada altura de decisión. Una
vez alcanzada la altura de decisión el piloto
decidirá continuar el descenso hacia la pista,
para proceder al aterrizaje, en función de si
ha establecido referencias visuales con la
mencionada pista.
Las informaciones de guiado acimutal,
cenital y de distancia son proporcionadas
por las estaciones trasmisoras denominadas,
respectivamente, Localizador (LZ), Senda
de Descenso (GP) y Radiobalizas (OM,
MM, e IM) ó DME.
El localizador es una estación transmisora
que tiene por objeto materializar la
“superficie de rumbo”, para guiar al avión a
lo largo de la prolongación del eje de pista y,
en caso de separarse de ésta, indicarle
proporcionalmente cuánto está apartado
(sector de sensibilidad).
La senda de descenso es un transmisor
que, de forma análoga al localizador, tiene
por objeto materializar la “superficie de
descenso” guiando al avión a lo largo de una
superficie descendente, de pendiente
próxima a los , que pasa por el punto
teórico de contacto sobre la pista. Igual que
el LZ, también suministra información sobre
la separación de la aeronave con respecto a
III Congreso de Cibernética
4
esta superficie en un “sector de
sensibilidad”.
La intersección entre las superficies de
rumbo (plano vertical) y de descenso
(superficie cónica) materializa la trayectoria
de descenso que tiene la forma ideal de una
rama de hipérbola.
Las frecuencias en las que se transmiten
las señales del localizador y de la senda de
descenso se encuentran apareadas, es decir,
para cada frecuencia del localizador le
corresponde una frecuencia de la senda de
descenso;
y
éstas
se
encuentran
comprendidas entre 108 y 118 MHz, y 329 y
335 MHz, respectivamente. Además, el
localizador emite una señal periódica
modulada en AM por un tono de 1020 Hz,
igual que en el caso del VOR y el NDB
identifica la estación mediante dos o tres
letras codificadas en Morse.
Fig 3: Sistema de Radioayudas para el Aterrizaje ILS.
Las Radiobalizas (OM, MM, e IM) son
transmisores cuyo funcionamiento se basa
en activar el receptor correspondiente del
avión cuando éste pasa aproximadamente
sobre su vertical, e indicar así la distancia
hasta el umbral de pista.
Para estos fines se puede emplear un
DME, sustituyendo las radiobalizas.
El indicador de cabina que proporciona al
piloto la información necesaria para situarse
en la trayectoria de aproximación adecuada
es el CDI (Course Deviation Indicator). Este
indicador consta de dos agujas, una vertical
y otra horizontal para indicar la desviación
proporcional a la superficie de rumbo y de
descenso, respectivamente.
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
2) MLS (Microwave Landing System):
es un sistema de aterrizaje por microondas,
normalizado también por la OACI para
operaciones de aproximación y aterrizaje, al
igual que el ILS pero más flexible que éste.
Proporciona
información
vertical
y
horizontal, en una banda de frecuencias
comprendidas entre 5031 y 5090 MHz, con
la capacidad de proporcionar múltiples
sendas de aproximación e información de
distancia a la pista.
El MLS soluciona alguno de los
problemas que tiene el ILS, como puede ser
la reflexión de ondas causadas por aeronaves
en las calles de rodaje o por otro tipo de
obstáculos como montañas o hangares.
Además tiene un coste bastante más bajo.
Fig 4: Sistemas de Posicionamiento por Satélites.
V. S ISTEMAS DE NAVEGACIÓN AUTÓNOMA:
NAVEGACIÓN INERCIAL
La navegación autónoma es aquella que no
depende de equipos externos a la aeronave por lo
que no es susceptible a interferencias ni a errores
externos. La navegación inercial tiene como
finalidad conocer la posición, la velocidad y la
actitud de una aeronave.
A. Sistemas de Navegación Inercial (INS,
Inertial Navigation System)
Nacen en la segunda mitad del siglo XX gracias
a los avances en computación.
Se basan en acelerómetros y giróscopos. Los
acelerómetros miden la aceleración lineal y los
giróscopos la velocidad de giro de la aeronave
III Congreso de Cibernética
5
(guiñada). Como se observa, estos instrumentos no
nos indican explícitamente la posición de la
aeronave; sin embargo, puede calcularse a partir de
la información proporcionada.
La velocidad obtenida a través del giróscopo es
integrada para obtener la distancia recorrida. El
acelerómetro por su parte nos proporciona la
aceleración que es la derivada de la velocidad; por
lo tanto, integrando dos veces el valor de
aceleración se obtiene la posición de la aeronave.
Estas operaciones son realizadas con gran rapidez y
precisión.
VI. SISTEMAS DE POSICIONAMIENTO POR SATÉLITES
Los sistemas de navegación que se basan en
satélites reciben el nombre genérico de GNSS
(Global Navigation Satellite Systems) debido a que
su cobertura es mundial. Los más importantes son:
GPS (Global Positioning System): sistema
estadounidense de origen militar, que empezó a
operar a principios de la década de 1980.
GLONASS (Global Navigation
Satellite
System): es el GPS ruso.
Sistema de Navegación Galileo: es un futuro
sistema GNSS, totalmente civil, de origen europeo
y aún en desarrollo. Tiene expectativas de superar al
GPS.
A continuación, se profundiza un poco más en el
GPS debido a que es el más extendido.
A. Sistemas de Posicionamiento Global (GPS,
Global Positioning System)
Es un GNSS que permite determinar la posición
de una aeronave en todo el mundo. Sin embargo, no
se utiliza para la navegación aérea por sí solo, sino
como ayuda secundaria, ya que no es demasiado
preciso.
Es un sistema compuesto por 24 satélites,
dispuestos en órbita a unos 20200 km de la Tierra
con trayectorias sincronizadas para cubrir toda la
superficie terrestre.
El funcionamiento del GPS se basa en el
principio matemático de la triangulación, utilizando
como mínimo cuatro satélites. Por lo tanto, para
calcular la posición de un punto, el GPS recibe las
señales y las horas de cada uno de ellos y a partir de
estos datos y por triangulación se calcula dicha
posición.
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
La navegación actual está sufriendo una
revolución tecnológica gracias a los últimos avances
y se estima que antes del 2020, se sustituyan casi
todos los sistemas basados en navegación por
satélite.
VII. ÚLTIMOS AVANCES
Algunos de los avances tecnológicos más
significativos son: los sistemas de navegación
integrados, el GPS diferencial y el sistema
GALILEO.
A. Sistemas de Navegación Integrados
En la actualidad, las aeronaves disponen de
diversos sistemas de navegación, cada uno de ellos
proporciona una estimación diferente sujeta a error.
Al integrar los sistemas de navegación se pretende
obtener una única estimación minimizando el error.
Por ejemplo, el INS y el GPS son complementarios:
1) El INS:
 Da una estimación continua en el
tiempo
 Su error crece con el tiempo
 Posee un elevado ancho de banda
(KHz)
2) El GPS:
 Proporciona una medida de alta
precisión pero discreta en el tiempo
 El error está acotado
 Posee un bajo ancho de banda (Hz)
Una forma de funcionamiento de esta integración
puede realizarse reseteando el INS cada vez que se
obtenga una medida del GPS. No obstante, la
medida del GPS tampoco es exacta. Por lo tanto hay
que intentar combinar el INS y el GPS de alguna
forma que se minimice el error final. Hay dos
formas posibles:
1) Loose Integration:
 Permite tomar las medidas de ambos
sistemas y obtener una estimación
común
 Es la forma más simple de integrar
INS y GPS
 No requiere modificar las estimaciones
individuales de cada sistema.
2) Tight Integration:
 Integra directamente las señales de
III Congreso de Cibernética
6
entrada al INS y al GPS, es decir, las
medidas
de
los
giróscopos,
acelerómetros y los observables GPS
 Es más complejo de desarrollar
 Se emplea un único algoritmo que
integra ambos sistemas
 Obtiene estimaciones más precisas que
el anterior.
Ambos casos emplean el "Filtro de Kalman"2 y
sus extensiones para desarrollar la integración.
La mayor ventaja de los sistemas integrados es la
reducción de los costes por el uso de sensores de
baja calidad.
B. GPS diferencial
En la actualidad, ninguno de los sistemas GNSS
puede operar como método único de navegación
aérea, debido a que ninguno proporciona
actualmente integridad, es decir, no proporciona un
aviso rápido y automáticamente al piloto en caso de
fallo.
Por tanto se han desarrollado sistemas
complementarios a los GNSS que se denominan
Sistemas de Aumento y son:
1)
SBAS: son sistemas de aumento
basado en satélites auxiliares con funciones
específicas para complementar a los GNSS y
hacerlos aptos para la navegación en ruta y las
aproximaciones a la pista. Algunos de ellos
son: WAAS (EEUU), EGNOS (Europa) y
MSAS (Japón).
2)
GBAS: son sistemas de aumento
basados en instalaciones en tierra, de corto
alcance y se ocupan de la asistencia en el
aterrizaje. Un ejemplo típico es el LAAS, que
está en desarrollo.
3)
ABAS: son sistemas de aumento
basados en instrumentos de abordo. Recogen
información
de
varios
instrumentos
aeronáuticos y la combinan para monitorizar el
estado de los satélites GNSS. Uno de ellos es el
RAIM.
2
El ingeniero húngaro Rudolph E. Kalman, desarrolló el Filtro de Kalman
para presentárselo a la NASA en 1960 como algoritmo de fusión de sensores
para el programa Apollo. Se emplea en la reconstrucción de señales que
evolucionan en el tiempo a partir de medidas con ruido. El Filtro de Kalman
sólo sirve para sistemas lineales; por eso en navegación se utilizan extensiones
no lineales, denominadas Filtro de Extendido de Kalman.
Escuela de Ingenierías Industrial e Informática. Marcos, Mónica. Navegación Aérea asistida por Instrumentos.
C. Sistema GALILEO
Es un GNSS civil desarrollado por la Unión
Europea con el fin de evitar la dependencia de los
sistemas militares GPS y GLONASS. Todavía no
está en el mercado.
Es un sistema que presta servicios de autonomía
en radionavegación, ubicación en el espacio y será
interoperable con los sistemas GPS y GNSS.
Proporcionará la ubicación en el espacio en tiempo
real con una precisión de metros, debido a que la
posición se calcula a partir de varios satélites.
Los satélites Galileo estarán en órbitas
ligeramente más inclinadas hacia los polos; así los
datos serán más exactos en estas regiones donde el
GPS pierde precisión.
También asegura una disponibilidad continua,
excepto en situaciones extremas, en las que
informará automáticamente del fallo; este aviso es
imprescindible sobre todo en aplicaciones en las
que se ve involucrada la seguridad.
El uso de este sistema con otros GNSS ofrecerá
mayores prestaciones en el mundo entero.
En ocasiones se producen interrupciones en el
servicio debido a fallos de los satélites,
interferencias accidentales, etc.; el sistema
GALILEO pretende reducir estos problemas
mediante la transmisión de señales suplementarias
de radionavegación en diferentes bandas de
frecuencia.
Se estima que el sistema GALILEO esté
disponible a partir del 2014.
VIII. CONCLUSIONES
Como se observa, el mundo de la navegación
aérea tiene un gran futuro por delante, en especial la
navegación por satélite.
El gran desarrollo tecnológico que han sufrido
los teléfonos móviles en los últimos años influye
directamente en el progreso de dichos avances, ya
que actualmente, los Smartphone, disponibles para
cualquier usuario, incorporan gran parte de estos
progresos.
Por ejemplo, los sistemas de navegación por
satélite avanzan a pasos tan agigantados que se
prevé que en un futuro próximo tengamos la
información de posicionamiento tan a mano como
la hora en un reloj de muñeca; esta información se
podrá utilizar en diversas aplicaciones.
III Congreso de Cibernética
7
Por último, cabe destacar el gran interés
estratégico y el empeño de cada territorio en
desarrollar su propio sistema global, pero a su vez
independiente del resto de los sistemas, con el fin de
proporcionar los servicios necesarios y potenciar un
mercado basado en esta tecnología.
REFERENCIAS
[1] C.Busto. "NavegÁrea, Área de Ayudas a la Navegación
Aérea y Servidumbres Aeronáuticas. Disponible en:
http://www.navegarea.com/
[2] D. Rivass y R. Vázquez. "Navegación Aérea." Disponible
en: http://www.aero.us.es/na/
[3] D. Salazar. "Navegación Aérea y Radioayudas."
Disponible en: http://nacc.upc.es/
Autor
Ingeniería Técnica Aeronáutica, especialidad en Aeromotores.
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
1
Estudio de optimización de trayectorias
basado en métodos analíticos y
servicios meteorológicos
González Fernández, Jaime
Universidad de León
Resumen— El artículo aborda los estudios teóricos de
optimización de trayectorias de aeronaves, para su posterior
implementación mediante software informático. Para ello, se
desarrollan métodos analíticos que permiten planificar rutas de
vuelo en función de las condiciones meteorológicas y la
naturaleza de los espacios aéreos. Las rutas de vuelo se
optimizan de acuerdo con unos factores fijados por el usuario
o compañía. Al poder adecuar modelos atmosféricos
existentes a la tarea, se incluyen parámetros de calidad que
ayudan al proceso de optimización de trayectorias. Los datos
de los vientos se basarán en el modelo libre de predicción
meteorológica WRF (Weather Research and Forecasting),
ampliamente utilizado por la comunidad científica. Se
implementan métodos analíticos, consiguiendo procedimientos
complejos que se utilizarán en simulaciones de rutas y
modelos meteorológicos. Siguiendo este estudio teórico, se
podrá desarrollar un modelo de prueba en el laboratorio que
comunique el sistema de optimización de rutas con autopilotos
de UAVs.
Índice de Términos—trayectoria, optimización, método
analítico, sistema continuo, predicción meteorológica, WRF,
UAV, autopiloto, planificar.
I. INTRODUCCIÓN
La finalidad del estudio es realizar el análisis
teórico para diseñar trayectorias optimizadas en
tiempo real teniendo en cuenta las predicciones
meteorológicas obtenidas mediante el sistema WRF
(Weather Research and Forecasting). Así, se podrá
hacer un mejor cálculo de las variables del vuelo:
combustible necesario, máxima carga permitida,
etc. En caso de emergencia, también se podrá
calcular la máxima autonomía de un avión o el
máximo alcance de éste, comparándolo con las
distancias a los aeródromos más cercanos. Debido
al encarecimiento en el precio de los hidrocarburos,
resulta especialmente atractivo el ahorro de
combustible gracias al aprovechamiento eficiente
del viento, por lo que este proyecto tendrá
beneficios para las compañías operadoras en el
aspecto económico en particular y para la ecología
en general.
El avión es un objeto de geometría variable
conocida que interacciona con el resto del sistema a
través de un conjunto de acciones aerodinámicas,
gravitatorias y de contacto (pista). Como
consecuencia de esa interacción, el avión desarrolla
un movimiento en sus seis grados de libertad a la
vez que perturba las condiciones del aire que lo
circunda.
Por lo tanto, considerando simplificaciones
evidentes como la ausencia de elementos móviles
en el terreno, el estado del sistema estará
completamente definido cuando, en un instante
dado, se conozcan:
• La posición y la velocidad del centro de
masas del avión.
• La actitud y la velocidad angular del avión
alrededor de su centro de masas.
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
• La geometría del avión.
• Posición del mando sobre el sistema
propulsivo.
• Campo de velocidades en el entorno de
estudio.
Se desea optimizar la trayectoria de los aviones,
es decir, al modo de surcar el aire desde un punto
inicial (que se denominará con el subíndice D departure-) hasta un punto final (que se indicarán
con A -arrival-). Tanto en el punto D como en el
punto A se podrán imponer condiciones sobre las
variables de estado, ya sean determinadas o dadas
como
solución
al
problema
planteado.
Generalmente tanto en el punto D como en el A
algunas condiciones vendrán dadas mientras que
otras podrán seleccionarse para buscar la mejor
solución al problema.
Así definido, el problema de optimización de
trayectorias puede resultar inabordable. Es preciso
realizar simplificaciones que, sin hacer perder la
validez al ejercicio, permitan obtener resultados
aplicables.
II. MÉTODO DE RESOLUCIÓN ANALÍTICA
A. Análisis
Se considera un sistema de vuelo en el cuál no se
mantiene constante la velocidad aerodinámica de
crucero, sino que ésta puede variar entre un rango
de velocidades posibles dentro de la capacidad
propulsiva del avión. Se tienen cambios tanto en la
aerodinámica del avión como en su sistema de
control de empuje. Se considera la altura de vuelo
constante a lo largo de toda la trayectoria.
En el vuelo sobre los vientos existentes las
condiciones de sustentación y resistencia son
cambiantes, y por lo tanto de velocidad total . No
se consideran cambios de geometría o masas
apreciables debido al consumo de combustible o
algún otro aspecto operativo.
En cuanto a los vientos, se toman estacionarios
(tiempos de cambio característicos menores que la
duración de la ruta) y sin componente vertical.
2
El piloto puede, a través del conjunto de mandos
lateral-longitudinal, dirigir el ángulo de balanceo
del avión,(), el empuje de los motores, T(t),y el
coeficiente de sustentación, (t). Por lo tanto,
(), T(t)y
(t)son las variables de control del
problema. Las variables de estado son las
coordenadas del avión ‘x’, ‘y’, ‘z’, el ángulo de
cabeceo, (), la velocidad total del avión y el
rumbo de la velocidad aerodinámica, ψ()
La dificultad en el cálculo de trayectorias
optimizadas depende fundamentalmente de la
complejidad del modelo dinámico utilizado para
describir el vehículo. En el actual problema, se
considera el avión como un punto singular donde se
aplican todas las fuerzas, donde se concentra toda la
masa, y cuyos momentos de inercia son
despreciables. Se permite que el avión pueda
balancear.
B. Obtención de las ecuaciones de estado
El modelo dinámico del movimiento del avión
está constituido por dos teoremas fundamentales de
la Mecánica Clásica: el teorema de la cantidad de
movimiento y el teorema del momento cinético. En
nuestro caso, consideramos que nuestra aeronave es
una masa puntual y por lo tanto los momentos de
inercia son nulos. Utilizaremos únicamente el
teorema de la cantidad de movimiento:
(1)
()
Se prestará especial atención a las diferencias en
módulo, dirección y sentido de la velocidad
aerodinámica y la velocidad total de nuestra
aeronave. En aviones no tripulados, en las que las
velocidades medias de vuelo son bajas, las
velocidades del viento pueden tener una influencia
importante en el comportamiento global de nuestro
sistema. La virtud radica en saber aprovechar la
fuerza del viento de la manera más eficiente
posible.
En primer lugar, se realiza un esquema en el que
se pueda apreciar perfectamente la dirección de la
sustentación, la resistencia y el empuje en relación
=
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
con la velocidad aerodinámica [1]. Es necesario
definir con claridad el sistema de ejes utilizados.
Según la mecánica clásica, el sistema inercial se
define, bien como un sistema que está en reposo (o
en movimiento rectilíneo, uniforme y no rodante)
respecto a las estrellas fijas, o bien como un sistema
en el que para una masa puntual, es posible aplicar
la expresión de fuerza igual a masa por aceleración
[2]. En el presente estudio sobre aviones, es más que
suficiente considerar como sistema inercial un
sistema geocéntrico ligado a las estrellas fijas. El
origen del mismo es el centro de la tierra.
Utilizaremos el sistema de ejes de horizonte local.
El origen de este sistema es el centro de masas del
avión. Los ejes , , se toman paralelos a los
ejes tierra (descritos anteriormente) que existirían
en el punto subavión.
En la Fig. 1, se ha representado una condición de
vuelo en la que la velocidad aerodinámica tiene el
sentido y dirección del eje , con el fin de facilitar
la apreciación de los diferentes ángulos y fuerzas.
El eje tiene la dirección del centro de masas del
avión al centro de la tierra, y sentido opuesto al
mismo. El eje es perpendicular al eje , tiene
origen en el centro de masas del avión La dirección
y el sentido son hacia el norte. El eje resulta de
aplicar el producto vectorial × .
)
Eje de
sustentación nula
3
pero su sentido será el opuesto. Puede que la
dirección de la velocidad aerodinámica y el empuje
no coincidan, ya que tenemos que tener en cuenta el
ángulo de decalaje de los motores, , y el ángulo de
ataque . El peso, !, siempre tendrá dirección
vertical y su sentido será hacia el centro de la
Tierra. El ángulo de resbalamiento, β, se considera
siempre 0. Los aviones de estudio se suponen
simétricos, por lo que se desprecia la fuerza lateral
.
En presencia de viento, los vectores de la
velocidad total del avión y de la velocidad
aerodinámica no coincidirán. En la Fig. 2 se
muestran un hipotético estado de vuelo, con el fin
de definir los ángulos de interés en el estudio.
( ψ
ψ
Fig. 2: Esquema de la velocidad total, la velocidad
aerodinámica y la velocidad del viento según el sistema de
coordenadas " # , $# , %# .
Las direcciones y sentidos de los vectores de
* interés se han definido de acuerdo con un sistema
de coordenadas , , que se mueve con el avión
pero mantiene siempre la misma orientación en el
espacio.
Para simplificar la aplicación de la segunda ley de
Newton en el problema, se define un sistema de
ecuaciones X’, Y’, Z’ igualmente ortogonal. La
!
dirección y sentido de X’ será siempre la de la
. El eje Z’ es perpendicular a X’, y
velocidad total Fig. 1: Esquema de las fuerzas de vuelo según el plano , .
forma un ángulo con el plano & − . El eje Y’
surge como resultado de aplicar el producto
En cualquier caso, la sustentación, , siempre
vectorial × . La transformación se muestra en
será perpendicular a la velocidad aerodinámica del
la Fig. 3.
avión, . La resistencia, , siempre tendrá la
misma dirección que la velocidad aerodinámica,
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
Aplicamos la segunda ley de Newton, utilizando
como referencia el eje de coordenadas X’, Y’, Z’. A
diferencia de los ejes Tierra, este sistema de
coordenadas no es inercial, por lo que tendremos
que tener en cuenta las fuerzas de inercia.
Según eje & :
∙ , = ) · cos ( − + − )
· cos 2ψ − ψ 3
− · cos ( − ) · cos 2ψ − ψ 3
− · 456( − ) − ! · 456
Según eje :
∙ · ,& = ) · sen( − + − )
− · sen( − ) + · cos ( − )
−! · 9:4 · cos Según eje & :
∙ · ψ&, =
) · cos ( − + − ) · sen 2ψ − ψ 3
− · cos ( − ) · sen 2ψ − ψ 3
+! · 9:4 · 456
&& &
&&
(4)
En la parte izquierda de la igualdad de las
ecuaciones (3) y (4), aparece la derivada respecto al
tiempo de los ángulos & y ψ& . Trabajar con estos
ángulos resulta complejo. Con el fin de facilitar los
cálculos, se realiza un último cambio de sistema de
coordenadas. El cambio se realiza de los ejes X’,
Y’, Z’ a los ejes X’’, Y’’, Z’’. El eje Y’’ tendrá que
estar siempre comprendido en el plano horizontal
(paralelo a la superficie de la Tierra). El eje Z’’
estará siempre en el plano perpendicular a la
superficie de la Tierra y que contiene a la velocidad
total de la aeronave. Para que se mantenga la
ortogonalidad, el eje Z’’ tendrá que desviarse
respecto de la vertical el ángulo de cabeceo, . X’ y
X’’ son coincidentes. De la misma manera que en
casos anteriores, una vez definidos X’’ y Z’’, Y’’ es
resultado del producto vectorial ′ × ′. El
resultado se aprecia en la siguiente figura.
& (3)
.
(2)
&
4
& ≡ X′′
Fig. 3: Sistemas de referencia X’, Y’, Z’ y X’’, Y’’, Z’’.
Proyectamos las fuerzas respecto del sistema de
coordenadas X’, Y’, Z’ en el sistema de
coordenadas X’’, Y’’, Z’’, teniendo en cuenta el
ángulo φ.
Según eje & :
(5)
∙ , =
) · cos ( − + − )
· cos 2ψ − ψ 3
− · cos ( − ) · cos 2ψ − ψ 3
+ · sen( − )
−! · 456
Según eje && :
∙ · , =
+) · =sen( − + − ) · cos + cos ( − + − )
· sen 2ψ − ψ 3 · 456>
− · =sen( − ) · cos + cos ( − )
· sen 2ψ − ψ 3 · 456>
+ · cos ( − ) · cos −! · 9:4
Según eje ′& :
∙ · ψ, =
(6)
(7)
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
+)[cos ( −
+ − )
· sen 2ψ − ψ 3 · cos + sen( − + − ) · sen ]
−=cos ( − ) · sen 2ψ − ψ 3
· cos + sen( − ) · sen >
+ · cos ( − ) · sen la velocidad aerodinámica del avión, las direcciones
de la velocidad aerodinámica y de la velocidad total
de la aeronave coinciden, por lo que se puede
realizar la siguiente aproximación:
(13)
456(ψ − ψ )~ψ − ψ
Atendiendo nuevamente a las variables de control
y a las variables de estado, existen seis variables de
estado: ‘x’, ‘y’, ‘z’, el ángulo de cabeceo, , la
velocidad total del avión y el rumbo de la
velocidad aerodinámica, ψ. Las variables de
control son tres: ángulo de balanceo del
avión,(), el empuje de los motores, T(t),y el
coeficiente de sustentación, (t). Puesto que solo
tenemos tres ecuaciones de estado, es necesario
generan otras tres ecuaciones adicionales que
aporten la información necesaria como para calcular
las seis variables de estado a partir de las variables
de control.
C, = ∙ cos · cos ψ
D, = ∙ cos · sen ψ
E, = ∙ sen 5
(8)
(9)
(10)
C. Simplificaciones
En condiciones de vuelo normales, el ángulo de
ataque de las aeronaves es pequeño. Además, para
maximizar la eficiencia propulsiva, el ángulo de
decalaje de los motores también suele tomar valores
próximos a 0. Si estos ángulos se encuentran dentro
de una adición, se podrán obviar. En caso contrario,
realizaremos las siguientes aproximaciones.
(11)
456( − )~ −
(12)
9:4( − )~1
Si los valores del viento son pequeños respecto de
la velocidad de avance de la aeronave o los vientos,
aún
siendo
de
gran
magnitud,
tienen
aproximadamente la misma dirección y sentido que
(14)
9:4(ψ − ψ )~1
Si los valores de viento vertical son pequeños con
respecto a la velocidad de avance de la aeronave, la
diferencia entre los ángulos de asiento de la
velocidad aerodinámica y la velocidad total es
pequeña. Se podrá realizar la siguiente
aproximación:
(15)
456( − )~ − (16)
9:4( − )~1
D. Fuerzas aerodinámicas y polar parabólica
Consideramos que nuestro avión vuela a bajas
velocidades, en régimen subsónico incompresible.
Se desprecian los efectos del número de mach M
sobre los rendimientos aerodinámicos. Los números
de Reynolds durante el vuelo son altos (Re del
orden de 10I ), por lo que los efectos de la
viscosidad están confinados a la zona de la capa
límite y la región exterior puede considerarse no
viscosa.
En nuestro estudio, despreciaremos el efecto de
las deflexiones de los mandos de control en la
sustentación y la resistencia [2].
1
(17)
= K L M
( )
2
1
(18)
= K L M
N ( )
2
La relación entre la sustentación y la resistencia
se denomina eficiencia aerodinámica, E.
(19)
O= =
N
E. Adimensionalización de las ecuaciones
Con el fin de facilitar los cálculos matemáticos, se
procede a adimensionalizar las ecuaciones de
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
estado, realizando
sustituciones.
)P · !
) =
OQ
= P · R S ·!
=
OQ
= 6 · !
!
= T
en
éstas
las
siguientes
(20)
(21)
(22)
(23)
(24)
)P: 5VWX5YZ564Z:6Y[.
P : \5[:9ZYYZ564Z:6Y[.
S :]54Z4569ZYYZ564Z:6Y[.
OQ : 5^Z9Z569ZYY5]:Z6áZ9YáCZY.
R : \5[:9ZY5í6ZY]54Z569ZY.
6: ^Y9:]59Y]TY.
R
̂ R (P · R ) R
, =
=
=
=
9
̂ ̂ 9
̂
L
L
P
R
R
=
= P, ·
9
̂ 9
P
P
̂
R
≡
=
= P, · 9
̂ C
Cc = 9
C C ̂ C R (Cc · 9) R
C, =
=
=
=
̂ ̂ 9
9
̂
Cc
=
= Cc, · R ̂ R
F. Condiciones de optimización en sistemas
continuos
Considérese el sistema continuo cuya evolución
en el intervalo N ≤ ≤ e viene dada por [3]:
(31)
C̅, = ^[̅ C̅ (), Wg (), ]
con condiciones finales C̅ (N ) = C̅N conocidas.
Las variables de estadoC̅ () se pueden obtener en
cada momento a partir de las variables de control
W ().
Se desea minimizar la función escalar:
lm
(32)
h = ∅(C̅e , e ) + j (C̅ , Wg, k)k
ln
En las ecuaciones de estado tenemos derivadas
respecto del tiempo. Éstas se adimensionalizan con
ayuda de la cuerda, c, de la siguiente manera:
(25)
̂ = 9
bR
(26)
̂
1
R
=9
=
9
b
(27)
(28)
(29)
(30)
En el caso de los ángulos, no habrá ningún
cambio al realizar la adimensionalización.
6
compuesta por una condición terminal, es decir,
evaluada en el punto final de la trayectoria, y una
condición integral, resultado acumulativo de
operaciones sobre las variables de estado, de control
y el propio tiempo a lo largo de toda la trayectoria.
Así definida, la función de coste puede servir para
obtener trayectorias de mínimo tiempo, mínimo
consumo, máximo alcance, etc. sin más que definir
adecuadamente las funciones ∅ y [4].
El método más conveniente para calcular la
función Wg () que minimiza h, y que por lo tanto
permite extraer la trayectoria C̅ () óptima, consiste
en usar parámetros de influencia (multiplicadores de
Lagrange, λg ) para definir una nueva función (el
Hamiltoniano, o (C̅ , ug, k)) cuyo cambio diferencial
sea nulo para cualquier perturbación en las variables
de estado y control, en lo que se conoce como el
principio de Pontryagin.
(33)
o(C̅ , Wg, ) = (C̅ , Wg, ) + λg() ∙ ^ (̅ C̅ , Wg, )
Si se eligen los valores de los multiplicadores
adecuadamente, el sistema de ecuaciones puede
simplificarse ostensiblemente. La función de coste
se puede reescribir adjuntando términos que son
idénticamente nulos, de manera que:
lm
(34)
(
)
h = ∅ C̅e , e + j r(C̅ , Wg, ) + λg()
ln
∙ =^(̅ C̅ , Wg, ) − C̅, >sk
González Fernández, Jaime
Estudio de optimización de trayectorias basado en métodos analíticos y servicios meteorológicos
Realizando la integración por partes, se demuestra
que definiendo las funciones de influencia como:
to (C̅ , Wg, )
(35)
λg,() = −
tC̅
t (C̅ , Wg, )
t^ (C̅ , Wg, )
=−
− λg() ∙
tC̅
tC̅
u∅(v̅
,lm )
m
(36)
con
λg,(e ) = −
uv̅ m
las variaciones en la función de coste se escriben:
lm
(37)
to (C̅ , Wg, k)
h = λg(N ) ∙ C̅N + j
Wgk
tWg
ln
La condición necesaria parah = hQwx será, por lo
tanto, h = 0 para cualquier Wg, lo que implica a lo
largo de toda la trayectoria:
to (C̅ , Wg, )
(38)
=
tWg
t(C̅ , Wg, )
t^ (C̅ , Wg, )
−
− λg() ∙
=0
tWg
tWg
En resumen, las ecuaciones aportadas permiten
resolver el ejercicio de optimización siempre y
cuando la complejidad matemática no implique la
utilización de métodos de alta carga computacional.
Por otra parte, las condiciones de contorno pueden
estar divididas entre puntos iniciales y finales (por
ejemplo la posición inicial dada y el tiempo final
dado). Además, el sistema puede verse sujeto a
restricciones que complican aún más la solución.
III. CONCLUSIONES
Este artículo sienta las bases para desarrollar un
software informático capaz de hallar trayectorias
optimizadas entre dos puntos. El método de
resolución planteado es analítico, pero resulta
conveniente el uso de elementos y técnicas
numéricas para que el coste computacional sea
asequible para los ordenadores convencionales. De
esta forma, se podrá aplicar la teoría anteriormente
expuesta en tiempo real, logrando resultados
sorprendentes.
7
REFERENCIAS
[1] Gómez Tierno M.A.; Pérez Cortés M.; Puentes Márquez
C.: Mecánica de Vuelo, Escuela Técnica Superior de
Ingenieros Aeronáuticos, Universidad Politécnica de
Madrid, Madrid.
[2] Philips W.F.: Mechanics of flight, John Wiley & Sons,
Hoboken, Nueva Jersey.
[3] Bellman R.: On a routing problem, Quaterly of Applied
Mathematics, 1958, Princeton, Nueva York.
[4] Bellman R.: Dynamic Programming, Princeton University
Press, 1957, Princeton, Nueva York.
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
1
Estado del arte de los mapas autoorganizados (SOM)
Vega de la Fuente, Miguel
[email protected]
Laboratorio de Investigación Aeroespacial
Universidad de León

Resumen—El presente documento pretende llevar a cabo
un estudio de la situación actual de los SOM (SelfOrganizating-Map) y sus últimos avances científico-técnicos.
Se procederá a desarrollar dos apartados principales, por un
lado, una descripción del modelo teórico; por el otro, se
explicarán algunos ejemplos del uso actual que se le está
dando a estos mapeados, centrándose en un caso concreto de
aplicación en una planta de tratamiento de gases.
Índice de Términos — Agrupamiento de datos, mapa
autoorganizado, supervisión de procesos, visualización de
procesos.
I. INTRODUCCIÓN
El mapa de auto-organización (SOM) ha
proporcionado una herramienta potente y útil para
la extracción de datos, clasificación, análisis, y
visualización. Para un conjunto de datos
etiquetados, un SOM es una de las mejores técnicas
disponibles para la visualización de la distribución
de cada clase en el conjunto general de datos. En
una aplicación como ésta, el mapeado SOM muestra
cómo los vectores de datos de cada clase se
distribuyen en el espacio de altas dimensiones de
datos, mediante la transformación de los mismos a
un conjunto de datos en un mapeado de
dimensiones más pequeñas, conservando sus
relaciones topológicas. A pesar de que esta
característica del SOM lo hace eficaz para muchas
aplicaciones, algunos casos requieren una
visualización de estas relaciones entre las
distribuciones de las clases, es decir, en qué grado
dos distribuciones de clase son similares o
diferentes. Un SOM facilita un mapa de vectores de
datos, y actualmente se ha conseguido que facilite
un mapa de distribución de clases.
Otro ejemplo donde la distribución de datos es
III Congreso de Cibernética ULE
más importante que los puntos con información de
los datos individuales, es en la clasificación según
el color en fotografía. En este caso, un histograma
en 3 dimensiones RGB (Red-Green-Blue) se utiliza
generalmente como un vector o matriz con las
características de la fotografía. De esta forma, cada
fotografía es considerada como una clase, que
consta de datos de pixel en el espacio RGB. El
SOM también se ha utilizado para representar la
distribución de colores en lugar de histogramas.
Las aplicaciones del SOM se han extendido a
numerosas áreas, como pueden ser la búsqueda
web, la bioinformática y las finanzas. A pesar de su
creciente importancia, sin embargo, el SOM
convencional y la mayor parte de sus extensiones
sólo pueden tratar con datos vectorizados. Si se
quiere hacer frente a un conjunto de datos no
vectorial, entonces uno tiene que distribuir los datos
de forma vectorizada por adelantado o modificar el
propio SOM para adaptarse al tipo de datos. Por lo
tanto, la generalización de la familia SOM es un
problema inevitable en el que se describe el
algoritmo SOM independientemente del tipo de
datos. Se ha conseguido desarrollar un marco
general del SOM convencional mediante la
adopción de la idea de una red modular, en lo que
llamamos un sistema modular de la red SOM
(mnSOM). La idea de la mnSOM es simple: cada
unidad de vector de la SOM convencional se
sustituye por un módulo entrenable funcional tal
como una red neuronal. Así, la arquitectura de la
mnSOM es un montaje de los módulos funcionales
dispuestos en un retículo (fig. 1). Los módulos
funcionales pueden ser diseñados para adaptarse a
cada aplicación, manteniendo la columna vertebral
del algoritmo SOM intacta. Esta estrategia
proporciona un alto grado de flexibilidad en el
diseño y fiabilidad para los usuarios debido a que el
mnSOM permite elegir el módulo funcional que
más se adapte a cada caso individual de la gran
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
cantidad de arquitecturas neuronales ya conocidas.
Además, esta estrategia permite la capacidad
funcional de procesamiento de datos para todas las
unidades nodales de la SOM. Así, el mnSOM puede
ser utilizado como un conjunto de procesadores de
datos después del entrenamiento correspondiente.
Ésta es otra ventaja del mnSOM.
Fig. 1. Arquitectura de una red mnSOM
2
en particular. Se ha aplicado este método a un
problema de datos artificial, el conocido problema
de Iris, los datos de Haberman y un problema de
datos relacionado con el cáncer. En todos los
problemas,
los
resultados
experimentales
confirmaron que, como el parámetro de mejora se
incrementa, se generan varias configuraciones, en
las que el número de límites en términos de
matrices-U y planos de componentes podría ser
aumentado. Además, se pudo ver que la
información relativa fue eficaz en lo que sugiere la
posibilidad de detectar el número adecuado de
grupos.
Finalmente, aunque hubo ciertos problemas con el
uso de métodos convencionales para la información
relativa de partida, se demostró el potencial del
método para la visualización mejorada de los mapas
SOM.
II. MODELOS ACTUALES
El apartado segundo del artículo se encargará de
recoger la información encontrada tras la búsqueda
en bases de datos científicas. Se ha dividido la
siguiente relación de documentos en función de los
autores de cada modelo.
A. Ryotaro Kamimura
Como expone en su publicación [1], se propone
un nuevo método teórico-informativo llamado
“mejora del aprendizaje” para interpretar la
configuración de las redes neuronales competitivas.
Cuando se aplica a los mapas SOM, el método tiene
como objetivo hacer grupos de datos más fáciles de
visualizar en diferentes niveles de detalle. En el
método de “mejora del aprendizaje”, los pesos de
conexión se modifican para mejorar la capacidad de
interpretación de las unidades competitivas, a
expensas de los errores de cuantificación en el caso
extremo, ya que reducir el error al mínimo no es el
principal objetivo de este método. Después de
modificar los pesos de conexión, la mejora del
aprendizaje puede generar tantas configuraciones de
red como sea posible con sólo cambiar el parámetro
de nuestra mejora. Una manera útil de combinar la
información de las configuraciones de red es extraer
varias características comunes a todas las
configuraciones, y algunas específicas para otras
configuraciones. Además, la información relativa
proporciona una guía mediante la cual se puede
prestar especial atención a una configuración de red
III Congreso de Cibernética ULE
Fig. 2. Representación de la matriz-U mejorada
B. Dongxiao Niua, Da Liua, Desheng Dash Wu
El siguiente artículo del que se va a proceder a
hablar [2] desarrolla un sistema SOM que tiene
como objetivo llevar a cabo una previsión del precio
de la electricidad con un día de antelación.
Los precios por hora de la energía en un mercado
competitivo son muy volátiles. Por lo tanto es una
información clave para ayudar a los productores y
compradores que participan en el mercado de la
electricidad para preparar sus estrategias de oferta
correspondientes, a fin de maximizar sus ganancias
y minimizar rendimientos. Es difícil prever todos
los precios por hora con un solo modelo para los
diferentes comportamientos de los diferentes
precios horarios. Tampoco se van a obtener
resultados coherentes con 24 modelos diferentes
para predecir los precios de cada una de las 24 horas
del día. Este trabajo propone una nueva técnica para
pronosticar con un día de antelación los precios de
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
la electricidad gracias a una red neuronal SOM y
una Máquina de Soporte Vectorial (SVM). La red
SOM se utiliza para agrupar los datos de forma
automática de acuerdo a su similitud con el fin de
resolver el problema de la acumulación de datos
insuficientes. Los modelos de regresión para la
SVM se basan en las categorías agrupadas del
SOM. Los parámetros de los modelos SVM son
elegidos por partículas Swarm Optimization (PSO),
un algoritmo automático para evitar que la decisión
sobre los parámetros del testador sea arbitraria, y así
conseguir una mejora de la precisión de los
pronósticos. La comparación sugiere que el SOMSVM-PSO tiene un valor considerable en el
pronóstico de precios diarios en las zonas de
estudio, que fueron Pennsylvania, Nueva Jersey y
Maryland, especialmente en el mercado de verano,
donde la estimación para los precios máximos es
bastante fiable.
El modelo SOM se ha aplicado para agrupar los
datos automáticamente, y el SVM ha recibido
entrenamiento para ser capaz de analizarlos. Se ha
demostrado que la agrupación automática de los
datos con SOM no sólo evita la deficiencia de las
muestras de entrenamiento en el modelado de
predicción del precio de la hora de verano, sino que
también mejora la capacidad de predecir precios
anómalos. La aplicación de los algoritmos PSO
evita la arbitrariedad a la hora de que el testador
seleccione los parámetros de los modelos, y también
garantiza unos resultados aceptables del modelo
SVM. El cálculo del experimento indica que el
modelo híbrido tiene un mejor rendimiento en la
previsión de los precios de verano por hora. Las
investigaciones futuras incluyen la comparación de
modelos de este enfoque a otros métodos.
Fig. 3. Rendimiento del modelo predictivo
III Congreso de Cibernética ULE
3
C. M.H. Ghaseminezhad, A. Karami
El presente artículo [3] data de 2011. La red
neuronal SOM puede ser utilizada para el análisis
de grupos preservando al mismo tiempo la
estructura de los datos, de tal manera que las
entradas similares se almacenan en posiciones
cercanas en la capa de salida de la red. Sin embargo,
no existía ningún algoritmo que pueda separar
grupos automáticamente. En este artículo se
presenta un nuevo algoritmo basado en los SOM
que automáticamente se encarga de clasificar
grupos discretos de datos utilizando un método no
supervisado. Dicho método se divide en tres fases:
en la primera, se ejecuta un algoritmo llamado
"second winner", en el que las neuronas de la capa
competitiva de la red encuentran su ubicación
inicial en el espacio de la red. En la segunda fase, se
emplea un método llamado "bath learning", y al
final de dicha etapa, finaliza la formación de la red
SOM. Y, por último, en la tercera fase, se completa
la agrupación de datos con la eliminación de los
enlaces entre las neuronas equivocadas. El presente
documento analiza tres casos de datos reales y un
ejemplo teórico de datos, para demostrar la
efectividad y exactitud del algoritmo.
El nuevo SOM hace un trabajo superior de
agrupación de datos discontinuos gracias a su
estructura flexible, así como a emplear el método
“bath learning”. Además, el algoritmo propuesto
usa un parámetro de edad para identificar y eliminar
las neuronas muertas de la red. Los resultados de la
simulación utilizando tanto los datos teóricos no
lineales discontinuos, y los tres casos de datos del
mundo real, confirmaron la validez del enfoque
propuesto. En el caso de los conjuntos de datos del
mundo real, la exactitud del método propuesto se
midió gracias al número de patrones no asignados y
el número de neuronas muertas.
En el gráfico que aparece a continuación, Fig. 4,
pueden apreciarse las tres fases del algoritmo. Los
grupos de datos se muestran con color naranja y las
neuronas y sus enlaces se indican con líneas de
puntos negros y azules, respectivamente. a) Red
neuronal tras la primera fase del algoritmo. b) Red
neuronal tras la segunda fase del algoritmo. c) Red
neuronal tras la tercera fase del algoritmo.
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
4
Fig. 4. Representación de las 3 fases del algoritmo
D. Yuan-chao Liu, Chong Wu, Ming Liu
La siguiente publicación de la que se hablará en
este estado del arte [4], habla del uso del método
SOM para agrupar información de texto de forma
más rápida y eficaz.
Los métodos de agrupación de texto sufren
cuando se enfrentan al enorme tamaño de los
documentos de grandes dimensiones. En este
trabajo, se estudió la tecnología de agrupación
rápida para información textual empleando el SOM.
El objetivo se centra en cómo mejorar la eficiencia
del sistema de agrupamiento de texto, a la vez que
se mantienen las altas cualidades de agrupación.
Para lograr este objetivo, se debe separar el sistema
en dos etapas: fuera de línea y en línea. Con el fin
de hacer que el sistema de agrupación de texto sea
más eficiente, las etapas de extracción de
características y cuantificación semántica se
realizan fuera de línea.
Aunque las neuronas se representan como
vectores numéricos en un espacio de altas
dimensiones, los documentos se representan como
colecciones de algunas palabras clave, lo cual es
diferente de muchas obras relacionadas, por lo tanto
los requisitos de tiempo y espacio en la etapa fuera
de línea pueden aligerarse. Con base en este
escenario, se propusieron una serie de técnicas
rápidas para la fase de agrupamiento en línea
III Congreso de Cibernética ULE
incluyendo el cómo proyectar los documentos sobre
las capas de salida del SOM, de una manera que el
cálculo sea rápido para procesar en tiempo real. Se
ha probado el sistema con diferentes conjuntos de
datos, y el rendimiento práctico demuestra que el
enfoque ha sido muy superior en eficacia de
agrupación, mientras que la calidad de
agrupamiento es comparable a los métodos
tradicionales.
En este trabajo, se determinó un algoritmo
eficiente de codificación y las habilidades de
cálculo de similitudes; además se han desarrollado
una serie de técnicas de agrupamiento de texto
mediante la combinación con los actuales
algoritmos de agrupamiento SOM y los esquemas
de codificación. El método presente de codificación
que emplea los índices de cuerda fija para
representar el documento, y supera a otros métodos,
permitiendo realizar el cálculo de similitudes entre
los documentos de una manera muy eficiente y
precisa. La calidad de la agrupación logra superar
significativamente a los modelos vectoriales
tradicionales de enfoques basados en el espacio. Se
ha demostrado que el algoritmo propuesto puede
capturar las principales características del
documento original, a la vez que consigue reducir la
información redundante en gran medida, por lo
tanto la eficiencia de agrupamiento mejora todavía
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
más. El método fue probado ampliamente con
numerosos experimentos sobre conjuntos conocidos
de datos de referencia y comparados con parámetros
exactos experimentales de forma tradicional.
E. Ryotaro Kamimura
En este trabajo, se propone un nuevo método
teórico de la información para simplificar el cálculo
de la información y la unificación de varios
métodos en un solo marco. El nuevo método se
llama “supuesto de información máxima”, y se
utiliza
para
producir
representaciones
comprensibles en un aprendizaje competitivo,
teniendo en cuenta la importancia de las unidades
de entrada. En este nuevo método de aprendizaje,
partiendo del máximo de datos relativos a las
variables de entrada, se puede estimar la
información real de dichas unidades de entrada. En
este momento, la red competitiva es entrenada con
la información estimada de las unidades de entrada.
El método se aplica no al aprendizaje competitivo
puro, sino al SOM, ya que es más fácil de demostrar
visualmente lo bien que el nuevo método puede
producir representaciones interpretables. Se ha
aplicado este método a tres conocidos conjuntos de
datos, a saber, los datos de animales de Kohonen,
los datos del corazón de SPECT y los datos de la
votación de la base de la máquina de aprendizaje.
Con estos datos, se ha logrado producir unas
fronteras más claramente delimitadas en las
matrices-U que las que hizo el SOM convencional.
Además, para todos los datos, los errores
producidos por la cuantificación y los errores
topográficos que se dan con este método, son
inferiores a los convencionales que resultan del
SOM.
Con todos los datos, se ha demostrado que la
información sobre las unidades de entrada se
incrementa y, finalmente, se satura a la vez que los
parámetros de dispersión se incrementan. Los
errores de cuantificación para los tres conjuntos de
datos disminuirán a medida que la información se
incrementa. Sin embargo, los errores topográficos
no están necesariamente sufriendo una disminución
a medida que la información se incrementa. Para los
tres conjuntos de datos, las matrices-U finales
muestran de forma mucho más clara las fronteras de
las clases, que reflejan las propiedades de los pesos
III Congreso de Cibernética ULE
5
de conexión en las unidades principales de entrada.
Aunque este método se limita al aprendizaje
competitivo, incluyendo SOM, y la determinación
del parámetro de dispersión debería hacerse de
foma más clara, el sistema muestra la posibilidad de
ser un nuevo modelo de información teórica
almacenando la información en diversos
componentes de una red.
F. Shu-Ling Shieh, I-En Liao
El presente artículo [6] pretende ilustrar sobre una
de las principales deficiencias del algoritmo SOM,
que es la dificultad para usuarios no expertos de
interpretar la información de una red de trabajo de
este tipo. En el documento, este problema se aborda
mediante la introducción de una versión mejorada
del método de visualización que consta de tres
etapas: (1) calcular un solo vínculo entre neurona y
distancia, (2) calcular el número de puntos de datos
en cada neurona, y (3) la búsqueda de los límites del
grupo. Los resultados muestran que el enfoque
propuesto tiene una capacidad elevada para
representar con eficacia la distribución de los datos,
las distancias entre las neuronas, y el límite del
grupo. Los resultados indican que los efectos de
visualización del algoritmo propuesto son mejor que
la de otros métodos. Por otra parte, este esquema de
visualización propuesto no consiste sólo en la
comprensión intuitiva y fácil de los resultados de la
agrupación, sino también en obtener buenos efectos
de visualización de conjuntos de datos sin etiquetar.
Un ejemplo de este modelo de visualización
puede apreciarse a continuación, en la Fig. 5.
Fig. 5. Resultados finales del etiquetado de datos
G. Manojit Chattopadhyaya, Pranab K. Danb,
Sitanath Mazumdar
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
El uso de mapeados SOM tiene también
aplicación en ámbitos de la ciencia, como es en el
caso siguiente [7].
La fabricación celular (CM) es un enfoque que
precisa flexibilidad en los talleres de trabajo y alta
tasa de producción de líneas de flujo. A pesar de
que la CM proporciona muchos beneficios en la
reducción de tiempos de producción, tiempos de
configuración, e inventarios del proceso, el diseño
de las CM es un problema complejo y completo. El
problema de la formación de las células se basa en
la secuencia de operación (datos ordinales). El
objetivo del presente trabajo es proponer un
enfoque de agrupación visual para la formación de
células gracias a la ayuda de un mapa SOM, un
algoritmo de red neuronal no supervisado que logra
una mejor efectividad de las medidas del grupo
celular. El trabajo también ha establecido los
criterios de la elección de un tamaño óptimo para la
red SOM, basado en los resultados de error de
cuantificación, error de la topografía y la medida de
la distorsión promedio del propio SOM, generados
durante el entrenamiento. Con el fin de evaluar el
rendimiento del algoritmo propuesto, se han
probado varios de los problemas de referencia
disponibles en la literatura. Los resultados muestran
que el método propuesto no sólo genera la solución
de una forma más precisa, sino también, en algunos
casos los resultados producidos son incluso mejores
que los resultados reportados anteriormente. La
eficacia del método propuesto es también
estadísticamente comprobada.
H. Francesco Coronaa, Michela Mulasb, Roberto
Baratti, Jose A. Romagnoli
En este último artículo [8] se entrará un poco más
en detalle por interés del tema.
En este trabajo se resume y discute la aplicación
de la topología de enfoques basados en el modelado
y análisis de datos de procesos industriales. Se hace
hincapié en la representación de los datos obtenidos
con el mapa de auto-organización (SOM). Los
métodos se utilizan en la visualización de las
mediciones del proceso y la extracción de
información relevante mediante la explotación de la
estructura topológica de las observaciones. Se
describen las ventajas del SOM a la hora de trabajar
con datos industriales, en concreto una serie de
III Congreso de Cibernética ULE
6
mediciones de procesos de una planta de
tratamiento de gases. El objetivo práctico es la
identificación de los modos de funcionamiento
principales y la localización de las variables de
proceso más sensibles, antes de desarrollar una
estrategia de control alternativa. Los resultados
confirmaron que el sistema SOM es capaz de
proporcionar información valiosa y ofrece
posibilidades de aplicación directa a otras tareas de
supervisión de procesos.
Los procesos industriales exhiben una multitud de
estados operativos; algunos de ellos son bien
conocidos para los operadores de la planta, mientras
que otros no pueden ser conocidos y pueden no ser
fácilmente detectables. En los procesos industriales
continuos, hay varios estados de operación,
transiciones, como en los arranques y paradas,
además de una gran variedad de fallos y
perturbaciones.
La
detección,
análisis
y
visualización de los estados de un proceso que se
conoce como proceso de seguimiento monitorizado.
El objetivo derivado del seguimiento del proceso
busca construir una representación de un sistema
con una serie de mediciones que cuantifican su
comportamiento, sin explícitamente asumir
cualquier conocimiento a priori de los fenómenos
subyacentes. Muy a menudo, la cantidad y calidad
de los datos, junto con su alta dimensión, puede ser
un factor limitante para el análisis. Por lo tanto, es
necesario la disponibilidad de métodos eficaces y
robustos que:
estructuras existentes en las mediciones.
el alcance de la mano.
se presenta la información de los estados para los
ingenieros y operadores de plantas para el análisis.
El conocimiento intuitivo de los estados tiene un
valor incalculable para la operación segura de la
planta y de confianza los métodos de análisis de
datos son necesarios para una supervisión en línea y
la estrategia de control.
En este trabajo, se discute la implementación y
aplicación directa de un sistema para modelar,
visualizar y analizar la información codificada en
los datos de procesos industriales. El enfoque se
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
basa en un método de aprendizaje de la máquina
clásica, el mapa de auto-organización, SOM. El
SOM está provisto de un conjunto de herramientas
para la visualización de datos eficiente. Por tal
motivo, el mapa de auto-organización es de uso
frecuente en la etapa exploratoria de análisis de
datos. Aquí, los SOM se utilizan como un marco
común para la identificación de los estados del
proceso y presentar la información recuperada en
pantallas que visualizan el proceso de forma simple
e intuitiva. El documento está estructurado de la
siguiente manera. La parte algorítmica se supervisa
en la sección 2. La sección 3 discute la parte
experimental y el enfoque ilustra cómo puede ser
desarrollado y validado en un problema a gran
escala. Las posibilidades de usar el mapa de autoorganización para el modelado de datos de procesos
industriales se ilustran mediante el análisis de las
mediciones obtenidas a partir de una planta de
tratamiento de gases industriales, donde el objetivo
es detectar los modos de funcionamiento de una
columna desetanizador e identificar las variables
más sensibles antes de desarrollar una alternativa
estrategia de control.
Fig. 6. Ejemplos de datos
En esta sección pone de relieve brevemente dos
clases de técnicas estándar para el modelado de las
estructuras presentes en las observaciones de
grandes dimensiones.
7
formados por observaciones similares.
Fig. 7. Aprendizaje del modelo SOM
2) Matrices de distancia. Visualizan en el SOM
las distancias entre todos los prototipos y sus
vecinos más cercanos. Las distancias se codifican
en niveles de gris o colores y cada unidad de la
matriz se tiñe con el color asociado a una distancia
de media sobre los vecinos. Fig 8 (a).
Fig. 8. Visualización SOM
3) Aplicación a un caso industrial. Los métodos
estudiados se aplican sobre un conjunto de
mediciones de un proceso industrial a gran escala.
El
problema consiste en investigar
el
comportamiento operacional de una planta
industrial de fraccionamiento de gas, a partir de una
serie de mediciones del proceso tomadas en tiempo
real. La planta consta de desetanizador,
despropanizador y desbutanizador, aunque solo se
analiza en este caso el primero de los tres.
El desetanizador separa el etano de la corriente de
alimentación de nafta ligera. El objetivo es producir
tanto etano como sea posible. Con respecto a la
pérdida de etano en la parte inferior, la dirección de
la planta sugiere la definición de tres modos de
funcionamiento principales para la unidad:
de los datos mediante la proyección de todas las
observaciones en sub-espacios significativos con
baja dimensionalidad;
el 1,8-2,0%.
de los datos, pero reducen la cantidad de
observaciones, agrupándolos de acuerdo a la
similitud.
1) Métodos para la agrupación de datos. Tienen
por objeto reducir la cantidad de datos mediante la
agrupación de las observaciones en grupos
debajo del l 1,8%.
Las dos condiciones anormales tienen unas
repercusiones económicas directas e importantes.
4) Exploración de datos. El mapa resultante se
compone de una matriz de 70 x 24 de vectores
prototipo de 16 dimensiones, que corresponden a
III Congreso de Cibernética ULE
encima del 2,0%.
Laboratorio de Investigación Aeroespacial. Vega de la Fuente. Estado del arte
una selección de 15 variables del proceso, más el
indicador de estado. La solidez del SOM permite su
aplicación directa en los datos puros que también
incluyen los valores perdidos y valores atípicos.
8
CONCLUSIONES
En este estado del arte de los mapas
autoorganizados se ha llevado a cabo una lectura de
una serie de artículos de actualidad, y resumido de
la forma más coherente posible, con el fin de
conocer de una manera más concreta el
funcionamiento y estado de desarrollo de los
mismos.
III.
REFERENCIAS
[1]
Fig. 9. Visualización SOM y matriz-U
La estructura de la agrupación de los datos ha
sido analizada utilizando la matriz U, que se basa en
las distancias entre cada vector prototipo del SOM y
sus vecinos inmediatos. Una forma común de
visualizarlo consiste en una proyección inicial de
todas las distancias sobre un eje de colores y la
pantalla posterior con marcadores de colores entre
cada nodo. La visualización permite reconocer
claramente la presencia de tres grupos bien
separados de prototipos. Para obtener una
caracterización cuantitativa de la agrupación, los
prototipos del SOM deben ser considerados como
un conjunto de datos reducido y modelado con un
algoritmo de agrupamiento estándar. La búsqueda
de patrones en posiciones parecidas en estos dos
planos de los componentes permite visualizar la
dependencia entre la composición del etano y el
indicador de temperatura.
Como resumen de las condiciones operativas del
desetanizador, se pueden extraer las siguientes
consideraciones:
corresponden con las operaciones del etano de la
zona alta, normal y baja.
alrededor del 70% del tiempo, durante el invierno,
la columna no cumplía las especificaciones de
impurezas, mientras que en el caso de verano esta
situación se reduce al 36%. La variación estacional
se debe principalmente a una capacidad limitada de
refrigeración en verano. En términos de
composición del etano sólo durante el 14% y 25%
del tiempo total del proceso está dentro del rango
definido como normal durante el invierno y verano,
respectivamente.
III Congreso de Cibernética ULE
R. Kamimura. Information-theoretic enhancement
learning and its application to visualization of selforganizing maps. Neurocomputing 73(13–15), pp. 26422664. 2010.
[2] D. Niu, D. Liu and D. D. Wu. A soft computing system for
day-ahead electricity price forecasting. Applied Soft
Computing 10(3), pp. 868-875. 2010.
[3] M. H. Ghaseminezhad and A. Karami. A novel selforganizing map (SOM) neural network for discrete groups
of data clustering. Applied Soft Computing 11(4), pp.
3771-3778. 2011.
[4] Y. Liu, C. Wu and M. Liu. Research of fast SOM
clustering for text information. Expert Syst. Appl. 38(8),
pp. 9325-9333. 2011.
[5] R. Kamimura. Supposed maximum information for
comprehensible representations in SOM. Neurocomputing
74(7), pp. 1116-1134. 2011.
[6] S. Shieh and I. Liao. A new approach for data clustering
and visualization using self-organizing maps. Expert Syst.
Appl. (0), 2012.
[7] M. Chattopadhyay, P. K. Dan and S. Mazumdar.
Application of visual clustering properties of self
organizing map in machine–part cell formation. Applied
Soft Computing 12(2), pp. 600-610. 2012.
[8] F. Corona, M. Mulas, R. Baratti and J. A. Romagnoli. On
the topological modeling and analysis of industrial
process data using the SOM. Comput. Chem. Eng. 34(12),
pp. 2022-2032. 2010.
Autores
Escrito por:
Miguel Vega de la Fuente
Ingeniero Técnico Aeronáutico, becario en el Laboratorio de
Investigación Aeroespacial
Universidad de León
2012
Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS.
1
Desarrollo de programas de control para el robot
Turtlebot sobre ROS (robot operating system)
Casado, F.
[email protected]
Universidad de León

Resumen—La autonomía de los robots móviles reside en
la capacidad de navegación por un entorno acotado y
conocido. Al igual que un ser humano cuando se encuentra en
una ciudad, busca referencias en el entorno que le ayuden a
localizar su situación en el plano y así planificar la ruta para
alcanzar su destino. Haciendo uso del entorno de desarrollo
ROS y las herramientas que proporciona se ha realizado la
navegación autónoma del robot Turtlebot, así como el
desarrollo de programas de control, entre los que destaca el
seguimiento de objetos de una tonalidad.
Índice de Términos—navegación autónoma, turtlebot,
ros, slam.
I. INTRODUCCIÓN
El principal problema de la robótica móvil es
conocer la localización dentro del entorno. El robot
usa un mapa del entorno, construido empleando
métodos SLAM (Simultaneous Localization And
Mapping), para la planificación de la ruta hasta su
destino. Para esto necesita conocer su posición
dentro del entorno, para lo que se emplean métodos
probabilísticos como el AMCL (Adaptive Monte
Carlo Localization). Estos métodos, incluidos en
ROS [1] (Robot Operating System), se han
empleado para realizar la navegación autónoma del
robot Turtlebot [2].
En la actualidad están comenzando a aparecer los
robots asistentes en las tareas domesticas, el
ejemplo mas extendido de esto es el Roomba de
iRobot, aunque su funcionamiento es mucho más
simple en cuanto a navegación.
El entorno de desarrollo de programas de control
para robots ROS se ha convertido en sus tres años
de vida en una de las herramientas más empleadas y
con expectativas de futuro. Desarrollada por el
equipo de expertos en diseño de robots Willow
Garage [3]. Se plantea como un estándar en
programación de robots y actualmente da soporte a
un gran número de robots.
II. HERRAMIENTAS Y METODOLOGÍA
A continuación se hace una pequeña descripción
de las herramientas y la metodología empleada.
A. ROS
El entorno de desarrollo ROS es un middleware
que proporciona un nivel de abstracción, haciendo
transparente la interacción entre el programador y el
robot. Se encarga de las comunicaciones y gestión
de procesos intermedios. Su gran éxito radica en
que se trata de software de código abierto con
licencia BSD (Berkeley Software Distribution). La
versión empleada de este software ha sido Electric.
B. Turtlebot
Este robot se compone básicamente de, un robot
iRobot Create, una cámara Microsoft Kinect, un
laptop y una estructura de soporte. En la Fig. 1 se
muestra una fotografía del Turtlebot.
Fig. 1 Partes del Turtlebot
Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS.
El iRobot Create (A) es un robot dedicado a fines
educativos y de investigación. Constituye la base
móvil del Turtlebot.
La cámara Microsoft Kinect (B) es el sensor
principal del robot, capta imágenes y profundidad
de la escena.
El cerebro y centro de comunicaciones del robot
reside en el laptop ASUS 1215N (C). El software
del que dispone es el sistema operativo Ubuntu y el
entorno de desarrollo ROS.
La estructura de soporte (D) es la que une y da
soporte a los elementos anteriores.
C. Metodología
Se ha comenzado por una aclimatación al entorno
de desarrollo ROS. En ros.org se encuentran una
serie de tutoriales dedicados a la familiarización con
este
entorno
de
desarrollo
(http://www.ros.org/wiki/ROS/Tutorials), enfocados
al futuro desarrollador de programas de control de
robots sobre ROS. Estos siguen una progresión
didáctica, por lo que se deben realizar siguiendo su
orden.
Adquiridos los conocimientos básicos, aportados
por los tutoriales, sobre el entorno de desarrollo se
ha continuado con la realización de una serie de
programas, progresivamente más complejos, hasta
llegar a la realización de la navegación autónoma.
En el desarrollo de los programas de control se ha
empleado el simulador Gazebo [4], incluido en el
software ROS, para las pruebas previas antes de
pasar a su ejecución en el Turtlebot. En la Fig. 2 se
puede ver una captura del simulador Gazebo con el
modelo del Turtlebot.
Fig. 2 Simulador Gazebo
2
III. TRABAJO REALIZADO
En el wiki del grupo de robótica de la
Universidad de león se ha ido realizando de forma
simultánea con el trabajo de laboratorio, un artículo
[5] del cual se ha extraído gran parte de la
información, en el cual se encuentra todo el proceso
descrito minuciosamente, el código de los
programas descritos y vídeos demostrativos.
A. Instalación de ROS
El entorno de desarrollo ROS solo tiene soporte
oficial para el sistema operativo Ubuntu, por lo que
para su instalación se requerirá de un computador
provisto de este sistema operativo. En ros.org se
encuentra un apartado dedicado al robot Turtlebot
(http://www.ros.org/wiki/Robots/TurtleBot). Allí se
puede encontrar toda la información necesaria para
la instalación y configuración de ROS. También se
encuentran los tutoriales de puesta en marcha del
robot y de las aplicaciones de muestra para el
Turtlebot incluidas en ROS.
B. Primer programa (Vuelta al mundo)
Al estilo del “hola mundo”, el primer programa
que se realiza cuando se encara un nuevo lenguaje
de programación, se ha realizado “vuelta al
mundo”. Se trata de un sencillo programa de
inmersión en este entorno, que simplemente hace
avanzar al robot describiendo un círculo.
Ha servido de toma de contacto con el sistema de
publicación de mensajes, en ROS llamados topics.
El topic publicado corresponde con el de velocidad,
para el movimiento del robot.
C. Segundo programa (Golpea y escapa)
Al tratarse también de un programa introductorio
su funcionamiento es muy sencillo. El robot avanza
en línea recta hasta que su paragolpes impacta con
un obstáculo, momento en el cual hace un pequeño
retroceso y gira un ángulo de magnitud y sentido
aleatorios.
Ha servido de toma de contacto con el sistema de
suscripción a topics. Además de publicar en el topic
de velocidad, para el movimiento del robot, esta
suscrito al topic en el que publica el sensor del
paragolpes del robot.
D. Tercer programa (Toro loco)
Este programa, a diferencia de los anteriores,
incorpora un comportamiento autónomo, es decir,
Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS.
toma una serie de decisiones en función de las
imágenes capturadas por la cámara.
Cuando la cámara capta una cierta concentración
de píxeles de tonalidad roja, dentro del rango de
actuación, comienza un seguimiento de ese objeto,
hasta hacer esa concentración de píxeles el valor
medio del rango. Se detiene el seguimiento cuando
la concentración de píxeles de tonalidad roja en la
imagen se sale del rango de actuación. En la Fig. 3
se puede ver la imagen procesada, que el programa
emplea para hacer el seguimiento:
3
ROS. Aun así se requiere de todos los
conocimientos adquiridos sobre el entorno de
desarrollo ROS en la realización de los programas
anteriores, sobre todo cuando surge alguna
complicación.
La primera operación que se debe realizar antes
de acometer la navegación autónoma, es la
determinación del error cometido por los sensores
de movimiento del robot para su corrección. Estos
sensores, odómetro y giroscopio, son los encargados
de cuantificar el movimiento del robot para
determinar su posición, que debe ser lo más
aproximada a la real.
El entorno de trabajo del robot ha sido el
laboratorio F6 de la escuela de ingenierías industrial
e informática de la Universidad de León. En la Fig.
4 se puede ver el mapa de este entorno, capturado
usando el package GMapping [6] contenido en ROS
y visualizado con la herramienta de ROS rviz.
Fig. 3 Imagen procesada para el seguimiento de objetos de
tonalidad roja.
Se hace uso de un filtro que elimina los pixeles
aislados o pequeñas regiones de esta tonalidad que
pueden aparecer en la imagen.
Para la calibración de la tonalidad del objeto a
seguir se deben ajustar los intervalos de los canales
RGB, modificando los valores de los parámetros
correspondientes en el archivo de configuración.
También puede ajustarse el rango o porcentaje de
píxeles del objeto respecto a la imagen (mínimo,
medio y máximo), que dependerá del tamaño del
objeto a seguir. Así como la ganancia de velocidad
de giro y avance, para hacer que la respuesta del
robot sea más rápida o más lenta. A mayor
velocidad de reacción es más inestable, hay
oscilación en torno al punto de equilibrio.
E. Navegación autónoma
No puede considerarse como un programa
desarrollado, ya que se ha hecho uso de los
programas, llamados packages, proporcionados por
Fig. 4 Mapa del entrono de trabajo, obtenido empleando
SLAM
GMapping es un método que aplica SLAM. Se
obtiene un mapa 2D de ocupación de rejilla del
entorno, a través de la captura simultánea de los
movimientos del robot y la lectura del sensor de
obstáculos. Habitualmente este sensor es un laser,
pero en el caso del Turtlebot se trata de la nube 3D
de puntos obtenida por el sensor de profundidad de
la cámara Kinect transformada a una lectura 2D de
ocupación.
Para la localización del robot dentro del entorno
de trabajo haciendo uso del mapa se emplea el
Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS.
4
método probabilístico AMCLa. Básicamente
consiste en un filtro de partículas que reduce la
incertidumbre de la posición real del robot en el
entorno, haciendo uso de la lectura del sensor de
obstáculos. En la Fig. 5 puede verse la nube de
puntos que rodean el modelo del robot, zona de
incertidumbre de localización.
Fig. 6 Ruta seguida por el Turtlebot, línea verde, hasta su
destino.
Fig. 5 Zona de incertidumbre de localización, nube de
puntos rojos.
A mediada que el robot se desplaza por el entorno
y obtiene más datos del sensor de obstáculo, esta
zona de incertidumbre se reduce hasta hacerse
prácticamente coincidente con la posición del robot.
Para la indicación de la posición inicial estimada
sobre el mapa, que requiere como semilla este
método probabilístico, se emplea la herramienta de
visualización e interacción rviz. Al igual que para la
indicación del punto de destino sobre el mapa.
La planificación de la ruta a seguir para alcanzar
el destino se realiza empleando el package de ROS
move_base. Busca el camino mas corto para
alcanzar el destino evitando los obstáculos del
entorno presentes en el mapa. También puede evitar
obstáculos no incluidos en el mapa, lo cual puede
implicar un nuevo cálculo de la ruta. En la Fig. 6
puede verse sobre impresionada sobre el mapa la
ruta seguida por el robot.
El robot se detendrá al alcanzar su destino, o si no
encuentra una ruta para poder llegar al destino
marcado se detendrá y enviará un mensaje de error,
avisando que le es imposible alcanzar el destino.
a
Descrito por Dieter Fox, experto en robótica alemán y profesor en el
Departamento de Ciencias de la Computación e Ingeniería de la Universidad
de Washington, en Seattle.
IV. DISCUSIÓN DEL RESULTADO
El principal objetivo planteado por este trabajo,
navegación autónoma del robot Turtlebot
empleando el entorno de desarrollo ROS, se ha
alcanzado con unos resultados satisfactorios. La
influencia del error, por pequeño que sea, de los
sensores de movimiento del robot, odómetro y
giroscopio, es muy grande en la determinación de la
posición real del robot. Los métodos empleados
corrigen esto usando las lecturas del sensor de
obstáculos, ajustando la posición más a la realidad.
El programa desarrollado de seguimiento de
objetos de una tonalidad determinada presenta una
alta sensibilidad a los cambios de iluminación o
sombras del entorno, por lo que solo estaría
indicado para la aplicación en un entorno con una
iluminación uniforme y constante. También se han
desarrollado otros dos programas con intención
meramente didáctica.
El entorno de desarrollo para programas de
control de robots ROS es una herramienta versátil y
potente, que hace accesible la programación de
robots a cualquiera con conocimientos de
programación, sin necesidad de ser un experto en el
campo de la robótica.
V. CONCLUSIONES Y TRABAJOS FUTUROS
Actualmente puede considerarse solventada la
navegación autónoma en los robots móviles, aunque
Universidad de León. Casado, F. Desarrollo de programas de control para el Turtlebot sobre ROS.
con ciertas limitaciones y algo torpe, en
comparación con cómo realiza esta tarea un ser
humano. La navegación empleando los métodos
citados se limita a entornos cerrados.
Este trabajo se ha basado en la navegación
empleando mapas de ocupación del entorno en 2D.
Una opción de futuro es la creación de mapas 3D
del entorno, que proporcionaran datos más precisos
del entorno, que seguramente reduzca la
incertidumbre en la localización, mejore la
planificación de rutas y la evitación de obstáculos
no incluidos en el mapa.
REFERENCIAS
[1] Willow Garage. ROS. , 2012 Available from:
http://www.ros.org/wiki/.
[2] Willow Garage. Turtlebot. , 2012 Available from:
http://turtlebot.com/.
[3] Willow Garage. Willow Garage. , 2012 Available from:
http://www.willowgarage.com/.
[4] Gazebo.
Gazebo.
,
2012
Available
from:
http://gazebosim.org/.
[5] F. CASADO GARCÍA. Fernando-TFM-ROS02. , 2012
Available
from:
http://robotica.unileon.es/mediawiki/index.php/FernandoTFM-ROS02.
[6] G. GRISETTI, C. STACHNISS and W. BURGARD.
GMapping. , 2006 Available from: http://openslam.org/.
Fernando Casado es ingeniero industrial por la Universidad
de León. Para más información visitar: http://fcg.adamelo.es.
5
Universidad de León. Prego López. Estudio de mercado.
1
Estudio de viabilidad de la implantación de una nave
industrial dedicada a la fabricación de muebles de
madera
Prego López, Zeltia
[email protected]
Universidad de León, Escuela de Ingenierías Industrial, Informática y Aeronáutica
Resumen—Este artículo trata sobre el estudio de la
situación actual del mercado de muebles de madera en
España y el análisis de un caso práctico de factibilidad para
el establecimiento de una nave industrial dedicada a la
fabricación de muebles de madera en la ciudad de
Ponferrada. Después de desarrollar el estudio de viabilidad
técnica y el estudio de viabilidad económica, este trabajo ha
concluido que es viable debido a los valores obtenidos para
la TIR (Tasa Interna de Retorno), VAN (Valor Actual Neto),
IPC (Índice de Costo Beneficio) y la recuperación de la
inversión. Después de hacer un profundo estudio y análisis
de cuál es la situación actual de esta industria en España,
queda en evidencia que la única posibilidad de éxito es la
exportación de los muebles fabricados en España al exterior,
ya que es la única opción rentable para ganar invirtiendo en
este negocio.
Índice de Términos—Abell, fuerzas de Porter,
muebles de madera.
I.
INTRODUCCIÓN
El estudio que se está tratando aplica de manera
básica y fundamental la teoría de “Las cinco
fuerzas de Porter” [1] y el “Modelo de Abell” [2][3] para hacer un profundo análisis del mercado
en el que la fábrica de muebles de madera (del
caso práctico desarrollado más adelante) se
pretende introducir, determinando así su
viabilidad técnica y económica.
Por tanto se hace un estudio del mercado del
mueble de madera centrado en la zona Norte de
España, ya que la ubicación de la nave del caso
práctico se encuentra en el Polígono Industrial de
Montearenas, en Ponferrada.
El estudio de viabilidad a realizar abarca tres
áreas, se realizarán por lo tanto un estudio del
mercado en el que se pretende introducir el
negocio, un estudio de viabilidad técnica para
escoger el proceso productivo más adecuado, y
por último un estudio de viabilidad económica
para saber si finalmente todo lo analizado con
anterioridad es viable económicamente y si resulta
rentable.
III Congreso de Cibernética
II.
ESTUDIO DE MERCADO
A. Mercado Internacional de Madera
Una de las premisas claves en el mercado
internacional actual de la madera es la
optimización máxima de los recursos, sin
embargo pese a las inversiones en I+D+i para
obtener especies modificadas genéticamente, no
es posible a día de hoy una explotación a gran
escala. Con lo cual se hace indispensable diseñar
un proceso productivo en el que se aprovechen al
máximo posible los desperdicios, haciendo el
proceso más eficiente [4].
En 2003 Europa, América del Norte y Asia
representaron el 56, 26 y 11% respectivamente,
del valor de las exportaciones mundiales de
productos madereros [5].
La producción de muebles de madera está
concentrada en EEUU, Italia, China, Polonia,
Malasia y Alemania, representando éstos más del
50% de la misma en 2010, siendo China el
principal exportador de muebles de madera [6].
El consumo mundial anual de madera es de
unos 4.100 millones de metros cúbicos, del que el
44% es industrializado, siendo en su mayoría
maderas de coníferas. Los principales proveedores
de este tipo de madera son Canadá, EEUU, Rusia
y Suecia [5].
Se prevé para los próximos años que se
produzca un incremento de la demanda de
productos forestales que deberá ser satisfecha por
los propios mercados internos o mediante
importaciones, teniendo siempre en cuenta las
restricciones ambientales y el Protocolo de Kyoto
[7].
B. Mercado Nacional de Muebles de Madera
Dentro de España este mercado está
concentrado en unas cuantas Comunidades
Autónomas, ocupando los primeros puestos la
Universidad de León. Prego López. Estudio de mercado.
Comunidad Valenciana, Cataluña, Galicia,
Andalucía y Madrid. De la totalidad de empresas
que forman el sector mobiliario en España, unas
12.000, el 89% son empresas con menos de 20
empleados. La facturación del sector fue durante
el año 2010 de 5.183 millones de euros, siendo
una de las características de este sector su fuerte
orientación exportadora, principalmente a países
como Francia y Portugal [8]-[9].
Si se hace un análisis de la actividad dentro de
la industria de la madera de Castilla y León, al
estar la nave objeto de estudio del caso práctico en
esta Comunidad Autónoma, nos encontramos con
que el 5,8% de las empresas del sector están ahí,
estando situados en el puesto nº7 del ranking
español [10].
C. Distrito Industrial
Existen agrupaciones como la Asociación de
Fabricantes de Muebles y Afines de la Comunidad
de Madrid (AFAMID), Confederación Española
de Empresarios de Madera (CONFEMADERA),
Asociación
Nacional
de
Industriales
y
Exportadores
de
Muebles
de
España
(ANIEME)… entre otras muchas, que surgieron
con el fin de realizar determinadas acciones de
forma colectiva, principalmente representar y
defender los derechos de sus asociados.
Gracias a estas asociaciones se facilita la
difusión del conocimiento reduciendo los costes
de acceso a la información especializada.
D. Delimitación de la Industria
Este apartado se desarrolla en base al modelo de
Abell, identificando los límites de la industria,
para ver lo competitivo que es el entorno.
El “Modelo de Abell” [2]-[3] nos dice que hay
tres dimensiones a tener en cuenta, las cuales son
clientes, funciones y tecnologías. Para la
dimensión de los clientes se escoge el criterio
geográfico, ya que además de fabricar para el
propio país, básicamente se pretende exportar el
producto (se divide entonces en: local, regional,
nacional e internacional).
La segunda
dimensión, la de las funciones, se estructura
atendiendo a los posibles usos de los muebles (de
interior de estilo “infantil” o “adulto”, de oficina ó
de exterior). Por último la tercera dimensión, la
tecnología, es importante para poder acceder a
economías de escala (se divide en: artesanal,
semi-artesanal,
semi-automatizada
y
automatizada).
III Congreso de Cibernética
2
E. Cliente potencial
Cabe destacar que la fábrica forma parte del ya
mencionado ANIEME (Asociación Nacional de
Industriales y Exportadores de Muebles de
España).
Si hasta ahora los principales destinos de los
muebles españoles eran Francia, Portugal,
Alemania o Reino Unido, ahora en este estudio se
pretende abrir puertas a los EEUU, un cliente
potencial, ya que en este país las importaciones de
muebles representan cerca del 25% del consumo
nacional, que representan cerca de 11.000
millones de dólares anuales, y que tiene una
tendencia a ir incrementándose en el futuro [11].
F. Competencia
Los principales competidores de la fábrica de
muebles de madera del caso práctico, situada en
Ponferrada (León),
son aquellas empresas
situadas en la zona Norte de España, las cuales se
recogen en la Tabla I.
G. Proveedores
Las principales empresas proveedoras para
nuestra fábrica son aquellas que se dedican a la
fabricación de planchas de madera y que además
están situadas en la zona norte española, mercado
en el que compite la empresa del caso práctico
analizado; las cuales se resumen en la Tabla II,
ordenadas por cercanía a la ciudad de Ponferrada.
H. Fuerzas competitivas básicas
En este apartado se desarrolla el modelo de “Las
cinco fuerzas de Porter” [1] aplicado a la industria
de los muebles de madera. A continuación se
analizan las cinco fuerzas centrándonos en nuestra
situación.
-Intensidad de la competencia: Actualmente el
modelo organizativo que está dejando obsoletos a
todos los demás es el de acceder a economías de
escala, dejando así fuera a las PYMES (99,8% de
las empresas nacionales) que no pueden adaptarse
[12].
La competencia nacional en el sector se reparte
según muestra la Fig.1 [13].
El mercado de muebles se puede decir que va
ligado al sector inmobiliario, con lo que se ha
visto afectado por la crisis de la vivienda en
España.
Universidad de León. Prego López. Estudio de mercado.
3
TABLA I
COMPETIDORES ORDENADOS POR CERCANÍA
Fabricante
empresa
competidora
Provincia
TABLA II
PROVEEDORES ORDENADOS POR CERCANÍA.
Municipio
km
C.P.
Vicmas, S.L.
León
Riego de la
Vega
71’5
24794
Cosman Fábrica
de
muebles,
S.L.
Ourense
Coles
167
32152
Muebles
Mobilar
A Coruña
A Coruña
211
15002
Ikea, S.L.
Asturias
Colloto
219
33010
Siero
245
Fabricante
empresa
proveedora
Provincia
Municipio
Distancia
(km)
C.P.
157
27765
167
32005
Grupo
Villapol,
S.A.
Lugo
Trabad
Trabada
Maderas
Soto, S.A.
Ourense
Camino
Mondragón
Alistonados
Asturias,
S.A.
Asturias
Turónn
196
33610
Maderas
Siero, S.A.
Asturias
Siero
219
33188
Maderas
Ángel
Suárez, S.L.
Asturias
Cangas de Onís
Oní
269
33556
Pontevedra
Villagarcía
agarcía
Arousa
298
36600
del
Muebles
Moblerone, S.L.
Asturias
33199
Eclipse Diseño,
S.A.
Valladolid
Cigales
246
47270
Muebles
Fecama, S.L.
Pontevedra
A Estrada
274
36680
Mobiliario
Eurobur, S.L.
Burgos
El Valle de
Mena
371
09001
COMAPA,
S.L.
Cantabria
Ontaneda
340
39680
Móstoles
Industrial, S.A.
(MOINSA)
Madrid
Móstoles
392
28935
Internacional
Elaborados
Maestu, S.L.
Vitoria
Vitoria
398
01080
Muebles Duero,
S.L.
Soria
Los
Rábanos
420
42191
Manufacturas
Nicolás, S.L.
Navarra
Viana
437
31230
Danona,
Soc.
Cooperativa
(Grupo
Mondragón)
Guipúzcoa
Azpeitia
462
20730
Tablev, S.A.
Vizcaya
Bedia
439
48390
Indubrik
2000, S.L.
Guipúzcoa
Soraluce
447
20590
Lola Glamour,
S.L.
Soria
Almazán
469
42200
Sarrimad,
S.L.
Teruel
Sarrión
798
44460
Manufacturas
Alco. S.A.
Navarra
Vera
de
Bidasoa
522
31780
Fustes Güell,
S.L.
Barcelona
Sant
Esteve
Sesrovires
874
08635
Fábrica
de
muebles
Mariano
Campoy, S.A.
Barcelona
El Papiol
879
08754
Atecma, S.L.
Barcelona
Rubí
882
08191
Troqueles
Rubio, S.L.
Barcelona
Josep Plá
899
08020
Maderas
Redondo,
S.L.
J.
Resto;
23,06%
Por ello la exportación a día de hoy es una de
las mejores opciones.
-Competidores
Competidores potenciales: Debido al cambio
en la mentalidad del comprador el cual busca una
decoración acorde con los tiempos que corren,
multinacionales como Ikea están haciéndose con
el monopolio de la industria.
de
Andalucía;
14,83%
Cataluña;
16,47%
Murcia; 4%
Castilla
y León;
5,80%
Galicia;
7,45%
Castilla-La
Mancha;
6%
Comunidad
Valenciana;
13,39%
Madrid; 9%
Estas multinacionales se basan en el diseño
propio y en productos muy económicos.
Fig.1 EMPRESAS DEL SECTOR EN ESPAÑA, POR CC.AA, EN EL AÑO
2010
Las pequeñas empresas tienen que optar por la
fórmula de las franquicias para poder subsistir a
esta guerra de precios. En resumen, una
especialización marcada y una oferta diferenciada
son dos claves para poderr avanzar dentro de este
mar de multinacionales, las cuales ofrecen
menores precios y mayor variedad [14].
-Productos
Productos sustitutivos: Existe la amenaza de
sustitución de nuestros muebles por otros
fabricados con tecnologías modernas e
innovadoras generada por la segmentación de la
demanda (hierro, plástico, mármol, plástico
plá
inyectado…), los cuales cubren la misma
III Congreso de Cibernética
Universidad de León.
n. Prego López. Estudio de mercado.
necesidad que los muebles de madera [15].
-Poder
Poder negociador de los proveedores: El
proveedor con gran poder de negociación es el de
la madera ya que suministra la materia prima
básica, siendo fundamental la calidad
idad de la misma
para obtener ventajas competitivas por
diferenciación [15].
-Poder
Poder negociador de los clientes: Al haber
aumentado considerablemente la cantidad de
empresas en el sector, esto se traduce en un gran
poder negociador de los compradores. Así mismo,
hay empresas que también son clientes, como El
Corte Inglés, Conforama…que al adquirir grandes
cantidades de muebles y ser preferidos por el
cliente final como centro de compra, tienen un
alto poder negociador con la fábrica de muebles
que les suministra
stra el mobiliario de venta al
público [15].
III.
ESTUDIO DE VIABILIDAD
TÉCNICA
El caso práctico consiste en estudiar el resultado
de implantar una fábrica de muebles de madera,
que además dispone de sala de exposición y venta
al público; todo esto se proyectaa sobre una nave
ya construida en la que se rediseñan las
dependencias interiores para aprovechar el espacio
de manera óptima.
A. Distribución
La distribución elegida es la “Distribución en
Línea”, de tal forma que las máquinas
herramientas y demás elementos de producción
están dispuestos de tal forma que los materiales
siguen siempre la misma ruta, como se indica en
la Fig.2:
Materia Prima
Operaciones del Proceso
Producto Terminado
4
de las fases del proceso (detalladas en la Tabla
Ta III)
de la manera más rápida y efectiva posible.
TABLA III
FASES DEL PROCESO DE PRODUCCIÓN
FASE
DESCRIPCIÓN
1
Diseño del mueble y prototipos
2
Recepción y almacenamiento de materias primas
3
Secado de la madera
4
Aserrado, Alistonado y mecanizado de madera
5
Pre-encolado
6
Montaje, incluyendo encolado
7
Barnizado (acabado)
8
Montaje de acabados
9
Embalaje y empaquetado individual. Formación de palés
10
Apilar. Expedición
11
Operaciones auxiliares
En la Tabla IV se hace un desglose de dicha
dic
maquinaria, indicando las unidades que se estiman
indispensables, y todas ellas se distribuirán en la
nave según la distribución en línea de la Fig.2.
D. Impacto Ambiental
Según la Ley 11/2003, de 8 de abril, de
Prevención Ambiental de Castilla y León, dentro
den
de los tres regímenes que se definen, nuestra
fábrica de muebles de madera está sometida a
“Licencia Ambiental”, debido a que causa un
impacto moderado.
Además, según el Real Decreto Legislativo
1/2008, de 11 de enero, por el que se aprueba el
texto refundido
fundido de la Ley de Evaluación de
Impacto Ambiental de proyectos (capítulo 1,
Artículo 3), no es necesaria la realización de un
estudio de impacto ambiental [17].
[1
IV.
ESTUDIO DE VIABILIDAD
ECONÓMICA
Fig.2 DISTRIBUCIÓN EN LÍNEA
B. Proceso
El proceso se divide en 11 operaciones
operaci
básicas
desglosadas en la Tabla III [16].
C. Maquinaria
Para poder llevar adelante una fábrica de
muebles de madera es necesario disponer de toda
la maquinaria necesaria para desarrollar cada una
III Congreso de Cibernética
En el presente caso práctico se ha hecho una
estimación de la inversión inicial, la cual se
recoge en la Tabla V.. Para ello se va a estimar que
se constituye la nave como sociedad anónima.
Además habrá que abonar el coste del terreno y el
de la nave al estar ésta ya construida. A todo esto
se añaden una serie de costes
c
relacionados que
habrá que tener en cuenta a la hora de estimar la
inversión inicial.
Universidad de León. Prego López. Estudio de mercado.
5
TABLA V
INVERSIÓN INICIAL
TABLA IV
MAQUINARIA
FASE
1
Maquinaria
Tipo
UDS.
---
---
INVERSIÓN INICIAL
EQUIPOS
AUXILIARES
PARTIDA
-----
Constitución de nueva sociedad
60.000
1.811.175
CANTIDAD (€)
2
---
---
-----
Terreno
3
Horno o estufa de secado
1
-----
Nave
1.261.998,5
4
Cepillo devastador
2
-----
Instalaciones
(incluidas en la nave)
Curvadora
2
-----
Maquinaria
393.156,17
Tupí
2
-----
Gastos Generales
458.423
Horno o estufa de secado
1
-----
Ingeniería
150.000
Sierra de corte transversal
2
Extractor de polvo
Sierra para cortar al hilo
2
Extractor de polvo
Impuestos
652.358
Cepillo de acabado
2
-----
Permisos
224.392
Moldeadora
2
-----
Otros
150.000
Torno
2
-----
Sierra circular
2
Extractor de polvo
Sierra de cinta (sin fin)
2
Extractor de polvo
Copiadora-Fresadora
2
-----
Fresadora rotativa
2
-----
Taladradora
2
-----
Escopleadora
2
-----
Cinceladora
2
-----
Lijadora de banda
2
Extractor de polvo
Lijadora de cantos
2
Extractor de polvo
5
Encoladora de cantos
2
-----
6
Pistola encoladora
2
Compresor
Túnel de secado
1
-----
Lijadora
1
Extractor de polvo
Pulidora
1
Extractor de polvo
7
Robot de barnizado
1
Dep. Barniz.
Extractor de vapor
Horno de secado
1
-----
8
1
Luz telescópica
9
Mesa de inspección de
calidad
Embaladora
1
-----
10
Robot paletizador
1
-----
11
---
---
-----
TOTAL
5.161.502,67
Se trabaja de lunes a viernes 8 horas al día en
dos turnos, con un horario de 7:00 a.m. a 15:00
p.m. y de 15:00 p.m. a 23:00 p.m. Con estos datos
se obtienen un total de 255 días laborables al año.
Además, se tiene una producción diaria de 5
muebles para venta nacional y 20 para venta
internacional, esto supone 6.375 muebles/año, que
con un precio unitario de venta al público de
1.300€, se obtienen un total de cobros de
8.287.500€ anuales.
-Pagos: En este punto se incluyen los pagos
resumidos en la Tabla VI.
B. Financiación
La fábrica pedirá un préstamo al banco de
7.000.000€ a pagar en 15 años, 6,67%/año, con un
tipo de interés efectivo anual de 2,75%, resultando
todo esto en un gasto financiero fijo de
659.166,67 € durante los 15 primeros años de
actividad de los 20 años de vida útil que se le
estima al proyecto.
C. VAN (Valor Actual Neto)
A. Presupuesto de pagos y cobros
-Cobros: Los ingresos anuales se deben
únicamente a la venta de muebles de madera en el
mercado.
En esta fábrica se trabaja todos los días del año
excluyendo los festivos del calendario laboral (no
más de 14 días).
III Congreso de Cibernética
Este dato nos proporciona el dinero que se gana
con el proyecto actualizado a día de hoy, pudiendo
deducirse por consiguiente que dicho proyecto es
rentable siempre y cuando el VAN obtenido tenga
un valor positivo, a mayor VAN más rentable
resulta, por lo que si hubieran diferentes
propuestas se escogería aquella con mayor VAN.
Para este proyecto se ha obtenido un VAN de
valor 8.989.785,28 €.
Universidad de León. Prego López. Estudio de mercado.
TABLA VI
GASTOS FIJOS ANUALES DE LA EMPRESA
PAGOS ANUALES
Concepto
Precio total (€)
Personal
796.800
Seguros e impuestos de personal
239.040
Transporte terrestre
25.350
Transporte marítimo
254.808
Madera
4.202.636,64
Consumibles
46.641,82
Electricidad
59.924,11
Higiene, seguridad y prevención de
riesgos
7.800,34
Mantenimiento de maquinaria
1.467,92
6
invertida. El ICB del proyecto tiene un valor de
2,7416.
G. Análisis de Sensibilidad
Los dos factores más importantes a tener en
cuenta en este apartado son el precio unitario de
venta del mueble, y el precio de adquisición de la
madera de roble.
Respecto del precio de venta del mueble de
madera se obtiene que el proyecto será rentable
siempre y cuando el precio unitario no sea inferior
a 1.079,31 € como se aprecia en la Fig.3.
17500000
5.634.468,83 €
12500000
D. TIR (Tasa Interna de Rendimiento)
Este valor se corresponde con la tasa de
actualización que anula al VAN, por lo tanto el
valor del TIR (expresado en %), expresa la
rentabilidad del proyecto, y al igual que el VAN,
ante varias alternativas se debe elegir aquella con
un mayor valor del TIR.
Además, para saber si el cliente aceptará el
proyecto según sus criterios de rentabilidad
mínimos, el TIR debe de ser mayor que la tasa de
actualización impuesta por el cliente, en caso
contrario debe desaconsejarse la realización del
proyecto.
En este caso el TIR ha dado un valor de
30,083%, siendo la tasa de actualización impuesta
por el cliente del 8%.
7500000
2500000
-2500000
-7500000
Fig.3 VAN - PRECIO DE VENTA DEL MUEBLE DE MADERA
Por otro lado, respecto del precio de adquisición
de la tonelada métrica de madera de roble, una
subida importante de su coste pondría en serio
peligro el negocio ya que la inversión que se hace
en madera de roble supone un 74,59% de los
gastos anuales de la empresa, por lo que el
negocio dejaría de ser rentable para precios
superiores a los 884,081€ por tonelada métrica
(actualmente el precio de la madera dura aserrada
está en un valor de 655,9€/Tm) como se aprecia
en la Fig.4.
E. PR (Periodo de Recuperación)
9500000
Con este dato se puede conocer cuánto tiempo
es necesario para ver compensada la inversión
inicial. Es importante tener en cuenta que este
dato no es indicativo de rentabilidad, sino que
solamente expresa liquidez, y evidentemente
interesa que sea lo menor posible ya que implica
que el negocio genera beneficios de manera
temprana. Para este proyecto el PR tiene un valor
de 4 años.
F. ICB (Índice de Coste Beneficio)
Este dato nos indica la eficacia de los fondos
invertidos estableciendo cuántas unidades
monetarias ganamos por cada unidad monetaria
III Congreso de Cibernética
4500000
-500000
-5500000
-10500000
-15500000
Fig.4 VAN - PRECIO ADQUISICIÓN DE LA MADERA DE ROBLE
V.
CONCLUSIONES
El caso práctico propuesto resulta altamente
rentable ya que el VAN obtenido es muy superior
a cero,
Universidad de León. Prego López. Estudio de mercado.
7
Fig.5-MILLONES € - EXPORTACIÓN DE MUEBLE ESPAÑOL LOS ÚLTIMOS AÑOS
concretamente 8.989.785,28 €, y además la
rentabilidad de este proyecto que nos expresa la
TIR corresponde al 30,083% (mucho mayor que
la tasa de descuento del 8% exigible por la
empresa) con lo cual resulta muy atractivo el
proyecto para su ejecución.
El periodo de recuperación de la inversión
inicial es relativamente corto, es de 4 años frente a
los 20 años de vida estimada inicial del proyecto.
Además se tiene un ICB del 2,7416, es decir,
que por cada euro invertido en el proyecto
ganamos 2,7416 €.
Por último, del análisis de la sensibilidad
deducimos que el proyecto seguiría siendo
rentable aún modificando considerablemente el
precio de venta del mueble de madera, siempre
que éste no fuera inferior a los 1.079,31 €.
Sin embargo debemos tener en cuenta un factor
decisivo en la rentabilidad de este proyecto, y es
que el precio de adquisición de la madera de roble
materia prima es crucial, éste no puede tener una
subida desmesurada ya que sino el proyecto sería
inviable, nunca debe superar los 884,081 € / Tm.
Por tanto, por todo lo mencionado
anteriormente, se considera que la opción de
montar una fábrica de muebles de madera en el
Polígono Industrial de Montearenas de
Ponferrada es viable y con buenas perspectivas.
A pesar de estas cifras, hay que tener cuidado ya
que debido a la crisis, desde hace unos años el
sector se ha visto afectado, así según ANIEME en
III Congreso de Cibernética
2009 [18] la exportación descendió un 16,4% y la
importación un 27%. En 2010 [19] la exportación
subió un 0,9% y la importación aumentó un
19,7%.
Mientras que en 2011 [20] la exportación
incrementó en 0,6% descendiendo un 9,9% la
importación. Además se vio aumentada la
exportación a países con mercados emergente
como son Qatar e India (un 54,7% y un 42,8%
respectivamente de aumento de ventas).Como
conclusión hay que tener cuidado de invertir en un
mercado en el que la crisis ha afectado tan
notablemente, y que se está recuperando, pero
muy lentamente, ya que aunque haya habido
mejora en los dos últimos años, sigue estando
muy por debajo del nivel de actividad de hace
algunos años, como se observa en el gráfico de la
Fig.5.
VI.
LÍNEAS FUTURAS
Los cálculos económicos realizados para
estudiar el resultado de la implantación de una
fábrica de muebles de madera en Ponferrada, en la
situación actual del mercado nacional de esta
industria han sido realizados a partir de unos datos
de partida fijos, con lo que están dotados de una
cierta incertidumbre, ya que representan
previsiones, mientras que el futuro es incierto y
dinámico. En proyectos de vida útil corta se
pueden suponer constantes valores como la tasa de
inflación, tasa de impuestos, precio de adquisición
de la madera dura aserrada de roble o el precio de
venta al público del mueble de madera, pero como
Universidad de León. Prego López. Estudio de mercado.
se ha dicho antes, éste es un proyecto de 20 años,
es decir, de vida larga, y las variaciones sobre las
previsiones iniciales producen divergencias
enormes que pueden alterar sustancialmente la
rentabilidad del proyecto.
Por lo tanto se propone realizar un estudio
teniendo en cuenta este riesgo de variabilidad en
la rentabilidad al ser éste un proyecto de vida
larga (20 años), y se puede hacer comparando
varios proyectos con iguales valores de
rentabilidad, analizando qué alternativa es más
probable que alcance la rentabilidad prevista.
REFERENCIAS
[1] Guerras Martín, L.A.; Navas López, J.E.; (2010) La
Dirección Estratégica de la Empresa. Teoría y
Aplicaciones. Cuarta Edición. Thomson, Civitas.
[2] Abell, D. F. (1980); Defining the business: The starting
point of strategic planning. Prentice Hall; Englewood
Cliffs (EUA).
[3] Prats Planagumà, Lluís; Guia Julve, Jaume; La
destinación como sistema local de innovación: un
modelo para la ventaja competitiva sostenible.
Disponible
en:
“http://fama2.us.es
:8080/turismo/turismonet1/e
conomia%20del%
20turismo/demanda%20turistica/destination%20as%20
a%20local%20system%20of%20innovation.pdf”.
[4] Departamento económico y social. Agricultura
mundial: hacia los años 2015/2030, Food and
Agriculture Organization (FAO).Disponible en:
“http://www.fao.org/DOCREP/004/Y3557S/y3557s10.
htm”.
[5] Hashiramoto, O.; Castano J. y Johnson S.;
Departamento de montes (2004). El nuevo panorama
mundial del comercio de productos madereros
(FAO).Disponible
en:
“http://www.
fao.org/docrep/008/y5918s/ y5918s05.htm”.
[6] CSIL-Centro Studi Industria Leggera. Disponible en:
“http://www.cs ilmilano.it/”.
[7] Instrumento de Ratificación del Protocolo de Kyoto al
Convenio Marco de las Naciones Unidas sobre el
Cambio Climático, hecho en Kyoto el 11 de diciembre
de 1997. Disponible en: “http://noticias.juridi
cas.com/base_datos /Admin/ir111297-je.html”.
[8] (2011). Cierre del ejercicio 2010 en el sector español
de fabricación de muebles. Disponible en:
“http://acomza.comercioaragon.com/?cat =3 87”.
[9] (2012). La exportación española de muebles cierra el
ejercicio 2010 con signo positivo. Disponible en:
“http://www.feriahabitatvalencia .com/noticias/fichanoticia.aspx?id=280”.
[10] CONFEMADERA (2006). Datos del sector de la
madera en España. Disponible en: “http://ww
w.aemcm.net/archivos/infsectori al2_06.pdf”.
III Congreso de Cibernética
8
[11] (2001). Estudio muebles Durango. Disponible en:
“https://docs.google.com/viewer?a=v&q=ca
che:A5c0gOCqRPgJ:www.contactopyme.gob.mx/estud
ios/docs/estudio_mueble_durango.doc+las+importacion
es+de+EEUU+de+muebles+25
%25&hl=es&gl=es&pid=bl&srcid=ADGEESjM8f4Bpt
zaWAgra1Zy-li8IaSc3GJImZZXqgRB
tp40XhdKtnf
AZp5nXGGi1xmE2Cl4m41rPSFb
YuT69GeX6G4URGcftFlKTcjm9Wa6ZWE2n
MisFZIWF_NEk9dNVHB6nyBM2wd&sig=AHIEtbRu
IsTyNocPjVe7vZ3O6Ba1AP85DA”.
[12] CONFEMADERA (2012). Industria y Tecnología.
Disponible en: “http://www.confem adera.es/industriay-tecnologia”.
[13] Ministerio de Industria, Turismo y Comercio (2010).
Presentación Sectorial. Sector Muebles. Disponible en:
“http://www.minetur.gob.es/esES/IndicadoresyEstadisticas/Presentaciones%20sectoria
les/MUEBLES.PDF”.
[14] (2011). Sector Mobiliario: la clave está en la
especialización.
Disponible
en:
“http://www.to
rmo.com/sectores/315/Sector_Mobiliario
_la_cl
ave_esta_en_la_especializacion.htm”.
[15] Renau Piqueras, Juan José. Análisis Externo: Entorno
específico
o
competitivo.
Disponible
en:
“http://www.uv.es/~dromero/documentosD
EI/AUXIMOBLE-resolucion.pdf”.
[16] Instituto Tecnológico del Mueble, Madera, Embalaje y
Afines (AIDIMA); (2009) Guía de mejores técnicas
disponibles para el sector de fabricación de Muebles de
Madera. Comunitat Valenciana. Disponible en:
“http://www.cma.gv
a.es/web/indice.aspx?nodo=64583&idioma=C”.
[17] Real Decreto Legislativo 1/2008, de 11 de enero.
Disponible
en:
“http://noticias.juridicas.
com/base_datos/Admin/rdleg1-2008.html”.
[18] (2009). El mueble español cierra el ejercicio 2009 con
un descenso de 16,4% de sus exportaciones. Disponible
en: “http://www.n oticiashabitat.com/2010/el-muebleespanol-cierra-el-ejercicio-2009-con-un-descenso-de164-de-sus-exportaciones/”.
[19] (2011). La exportación española de muebles cierra el
ejercicio 2010 con signo positivo. Disponible en:
“http://www.noticiashabitat.com /2011/la-exportacionespanola-de-muebles-cie
rra-el-ejercicio-2010-consigno-positivo”.
[20] (2011). La exportación de muebles españoles se
incrementa un 0,6% en el ejercicio 2011. Disponible
en:
“http://noticias.infurma.es/asoci
acion/laexportacion-de-muebles-espanoles-se-incrementa-un06-en-el-ejercicio-2011/3193”.
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE
TECNOLOGÍAS DE CONTROL PARA LA SUPERVISIÓN
ENERGÉTICA EN LA UNIVERSIDAD DE LEÓN
Del Canto Masa, Carlos Javier
Dpto. de Ingeniería Eléctrica y de Sistemas y Automática. Universidad de León. Edificio tecnológico de
Ingenierías. Campus de Vegazana. 24071 LEON.
E-mail: [email protected]
Resumen
En este artículo se presenta el sistema de supervisión
de energía eléctrica implantado en la Universidad de
León. Este sistema se basa en una estructura de
triple capa en la que la capa servidor adquiere datos
de una red de medidores eléctricos instalados en los
diferentes edificios del campus. En la capa intermedia se almacenan y procesan los datos, y en la capa
cliente se encuentran los equipos finales que supervisan el sistema vía Internet. En el presente documento
se presentan algunos resultados correspondientes a
la utilización del sistema de supervisión a lo largo
del año 2011, además de las nuevas herramientas
desarrolladas.
Palabras Clave: Energía eléctrica, eficiencia energética, supervisión remota, triple capa, minería de datos, optimización de potencia.
I. INTRODUCCIÓN
Durante los últimos cinco años, el consumo energético del país se ha incrementado de una forma muy
cuantiosa. En el caso de la energía eléctrica, y a pesar
de la actual crisis económica, la demanda se ha incrementado en más de un 30%, dato muy por encima
de las previsiones. Estos datos han llevado a un gran
número de empresas, tanto del sector secundario
como del sector terciario, a apostar por una política
de eficiencia energética, llevando a cabo acciones
que fomenten el ahorro y evitando emisiones excesivas de CO2 y otras sustancias contaminantes. Para
llevar a cabo esta política es necesario dotar a la
empresa de una infraestructura de equipos de medida
y supervisión, necesaria para la adquisición, almacenamiento y posterior explotación de los datos eléctricos.
En la actualidad estos sistemas son escasos e ineficientes ya que se centran únicamente en las variables
implicadas en la facturación y, con frecuencia, este
registro se realiza a velocidades de muestreo bajas, lo
que implica pérdida de información relativa a la
dinámica del sistema. Además, la supervisión generalmente considera cada edificio de forma independiente y emplea para ello sistemas cerrados de tipo
propietario poco flexibles, causando que cualquier
ampliación en el sistema sea difícil de llevar a cabo.
Por esta razón, el sistema de supervisión energética
de la Universidad de León se ha diseñado utilizando
tecnologías estándar y huyendo, en la medida de lo
posible del software propietario, lo que garantiza su
carácter abierto, escalable y flexible.
La plataforma tecnológica de este sistema se basa en
una arquitectura de triple capa (capa cliente – capa
intermedia – capa servidor) en la que el cliente puede
acceder a través de Internet. Además, en este sistema
se han incorporado herramientas tradicionales de
supervisión (visualización, optimización, comparación, etc.), así como herramientas avanzadas. Estas
herramientas pueden basarse en técnicas estadísticas
o de minería de datos que ayuden a proporcionar una
mejor comprensión del sistema, a tomar decisiones o
incluso a predecir consumos futuros.
El grupo SUPRESS del área de sistemas y automática de la Universidad de León ha realizado un modelo
de estudio de la energía eléctrica en la Universidad a
través del sistema de supervisión energética. Este
modelo de estudio está constituido por algunas tareas
tales como la minería de datos de las magnitudes
eléctricas en cada punto de facturación, la supervisión de los consumos a través de Mapas AutoOrganizados (SOM), el estudio de la tarificación
energética en la Universidad de León o el desarrollo
de herramientas que faciliten la supervisión y la predicción de los consumos eléctricos.
Las herramientas desarrolladas se utilizan para determinar la curva de carga, optimizar las potencias a
contratar, observar picos o caídas de tensión, comparar los consumos de varios edificios en un mismo
período horario, detectar fallos y cortes de suministro, predecir consumos futuros, verificar facturas, etc.
Este artículo se estructura de la siguiente manera: en
la sección 2 se describe el sistema de medida de
energía eléctrica de la Universidad de León. El apartado 3 detalla la arquitectura de supervisión desarrollada. A continuación, en el apartado 4 se presentan
1
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE
Fig. 1 Vista aérea de los edificios del Campus de la
Universidad de León
las herramientas de supervisión que incorpora el
sistema. En el apartado 5 se exponen una serie de
resultados experimentales obtenidos con las herramientas desarrolladas. Finalmente, se enumeran las
conclusiones en el apartado 6.
II. SISTEMA DE MEDIDA Y
SUPERVISIÓN DE ENERGÍA
ELÉCTRICA EN LA ULE
La Universidad de León se compone de un conjunto
de edificios que se enmarcan dentro del sector terciario, destinados a prestar servicios docentes, de investigación o de apoyo (cafeterías, centros de procesamiento de datos, publicaciones, etc.). En la Fig. 1 se
puede observar como este conjunto de edificios se
distribuyen por toda la ciudad de León constituyendo
distintas zonas.
Observando la Tabla 1 se puede apreciar que el
Campus dispone de 30 edificios, organizados en 13
puntos de acometida eléctrica que coinciden con los
puntos de facturación. De los 13 puntos de acometida, 8 se realizan en media tensión (MT 21 kV) y
cinco en baja (BT 400 V). Estas acometidas suministran energía eléctrica a uno o varios edificios del
Campus, previa transformación de MT a BT a través
de transformadores eléctricos en los casos que se
requiere. En cada edificio del Campus se ha instalado un equipo de medida a la entrada del suministro
de energía eléctrica y, en algunos casos, se han instalado equipos de medida en determinadas zonas del
edificio. Estos equipos son de distintos fabricantes,
modelos y gama dependiendo de la función que
desempeñan. Algunos equipos solamente se destinan
a la medición de variables eléctricas, mientras que
otros de más alta gama incorporan el software necesario para la adquisición y supervisión de las mismas.
Las variables medidas por estos equipos son las básicas (tensión y corriente) y complementarias (potencia
activa, reactiva, factor de potencia, energía, armónicos, distorsión armónica, etc.).
Punto Facturación Etiqueta
Edificio
facturación
P1
E1
CRAI-TIC
E2
Radio Universitaria
P2
E30
Ciencias Económicas
E3
Industriales e Informática
E4
Aulario
E5
Tecnológico
P3
E17
Ciencias de la Actividad Física
E18
Pabellón Deportivo
E19
Frontón
E6
Filosofía y Letras
E7
Derecho
P4
E8
Enfermería
E9
Ciencias del Trabajo
E10
Clínica Veterinaria
E11
Veterinaria
E12
Cafetería I
P5
E13
Ciencias Biológicas
E14
Servicios
E15
Desarrollo Ganadero
E16
Animalario
E20
Biblioteca San Isidoro
P6
E21
Sucursal Bancaria
E22
Cafetería II
P7
E23
Instituto Molecular
P8
E24
Complejo Agrícolas
P9
E25
Colegio Mayor
P10
E26
Complejo Rectorado
P11
E27
Complejo la Serna
P12
E28
Minas
P13
E29
Centro de Idiomas
Tabla 1 Listado de los edificios del Campus de la
Universidad de León.
A continuación se enumeran los distintos equipos de
medida utilizados:

Medidores Nexus 1252 (Electroindustries/GaugeTech): Este equipo es un medidor de alta precisión que no solo mide las
variables eléctricas, sino que además permite realizar un análisis de las mismas. Almacena picos, cortes, fluctuaciones y otros factores que facilitan el análisis de la calidad de
la energía. Posee 4 puertos serie RS-485 con
la posibilidad de conmutar uno de ellos por
un puerto serie RS-232. También tiene un
puerto Ethernet que le permite funcionar
como pasarela entre ambas redes. Debido a
las características del equipo, normalmente
se utiliza como medidor de energía para un
mismo punto de facturación.

Medidores CM 4000 (Schneider Electric):
Este equipo es un medidor de alta gama que
puede realizar una evaluación de la calidad
de la energía en base a un análisis entre armónicos. Además detecta la dirección de las
perturbaciones. También incorpora interfaz
de comunicaciones RS-485 y Ethernet, lo
que le permite funcionar como pasarela entre ambas redes al igual que el medidor anterior.
2
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE

Pasarela EGX 300 (Schneider Electric):
Este equipo es una pasarela de RS485 a
TCP/IP que puede tener hasta 32 dispositivos conectados. Tiene una memoria interna
de 512 Mb para registro de datos y no necesita un software de supervisión, puesto que
consta de un servidor web mediante el cual
se puede realizar una supervisión de las variables adquiridas por los equipos conectados a la pasarela.

Pasarela EGX 100 (Schneider Electric):
Este modelo tiene características similares a
la Pasarela EGX 300 pero necesita de un
software para realizar la supervisión de las
variables adquiridas por los equipos conectados a la pasarela. No tiene memoria interna.

Medidores Shark 100 (Electroindustries/GaugeTech): Este equipo realiza solamente funciones de medida eléctrica. Como
interfaces de comunicación tiene un puerto
serie RS-485 y un puerto de infrarrojos para
lectura y/o programación remota desde un
PC. Una de sus ventajas es su bajo coste, y
sus principales aplicaciones son las medidas
en el nivel secundario de distribución.

Medidores PM 800 (Schneider Electric):
Este modelo tiene unas capacidades de medición de gran rendimiento entre las que se
destacan las magnitudes básicas de tensión y
corrientes, valores THD y armónicos de tensiones y corrientes de forma individual para
cada fase.
La deslocalización geográfica de los distintos edificios del campus hace que sea necesaria la utilización
de una red de comunicaciones que interconecte los
distintos medidores. Este bus de campo está formado
por diversos segmentos de red, los cuales se diferencian en el soporte físico que utilizan. Estos segmentos son de dos clases: Ethernet y serie RS-485. Los
segmentos RS-485 enlazan medidores próximos entre
sí (como mucho unos 300 metros), mientras que los
segmentos Ethernet permiten interconectar los equipos que se encuentran más alejados. Los modelos
Shark 100 y PM 800 conforman los segmentos serie,
mientras que los modelos Nexus 1252, CM 4000 y
EGX 100 y 300, que poseen interfaz de comunicaciones Ethernet, se conectan directamente a los segmentos de red Ethernet realizando una labor de pasarela entre las dos clases de segmentos.
El bus de campo hace uso de la red de área local
(LAN) que la Universidad de León posee en todos
sus edificios. El objetivo es aprovechar los recursos
disponibles y minimizar las tareas de cableado del
bus. Dentro de esta red LAN, basada en el estándar
Fig. 2 Esquema eléctrico. Universidad de León.
Fig. 3 Red de comunicaciones. Universidad de León.
Ethernet, se ha definido una red de área local virtual
(VLAN) independiente, destinada únicamente al
sistema de supervisión, la cual permite comunicar
entre sí los medidores eléctricos de todos los edificios. Gracias a la red VLAN es posible separar segmentos lógicos dentro de la red LAN de la Universidad y se evita intercambiar información directamente
con otros segmentos dedicados a otros fines como la
secretaria virtual, el profesorado, etc.
La red VLAN es configurable mediante software,
muy flexible y garantiza la escalabilidad del sistema
de supervisión. Para agregar nuevos medidores, simplemente es necesario indicar la pertenencia de un
nuevo segmento de red a la VLAN. El esquema de
conexionado eléctrico de los medidores y su estructura de red se han representado en las Figuras 2 y 3.
III. ARQUITECTURA DE
SUPERVISIÓN
La arquitectura elegida para el sistema de supervisión
energética en los edificios de la Universidad de León
se basa en una estructura de triple capa. Esta estructura consiste en una modificación de la tradicional
arquitectura cliente-servidor que incorpora una capa
intermedia constituida por el sistema que gestiona la
información adquirida por la capa servidor. En la
Figura 4 se representa gráficamente la arquitectura de
supervisión del sistema de energía eléctrica, que se
describe a continuación.
La Capa Servidor está formada por el sistema de
medida eléctrica descrito en el apartado 2 y por el
3
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE
evita posibles fallos en la transmisión de información
y otorga fiabilidad al sistema de adquisición.
La Capa Intermedia está constituida por tres servidores, el servidor de almacenamiento, el servidor de
explotación de datos y el servidor web.
El servidor de almacenamiento es el encargado de
almacenar los datos tomados por el servidor de adquisición. Está constituido por una base de datos y
por un sistema gestor (SGBD), de tipo Microsoft
SQL Server. Se pueden distinguir 3 tipos de almacenes de información diferentes dentro de este servidor:
Fig. 4 Arquitectura de Supervisión. Universidad de
León.
servidor de adquisición de datos. Este servidor es el
encargado de la toma de datos procedentes de todos
los medidores eléctricos y su almacenamiento de
forma ordenada en la capa intermedia. Para este propósito se ejecuta un servicio de adquisición de datos
desarrollado en C que registra los datos de los medidores eléctricos utilizando el protocolo Modbus. Este
protocolo se basa en una arquitectura maestro/esclavo en la que el maestro realiza peticiones a
los esclavos, respondiendo estos a las peticiones del
maestro. Además Modbus es un protocolo abierto.
El servicio de adquisición de datos actúa como maestro Modbus realizando peticiones a los esclavos según el periodo de muestreo (normalmente 1 minuto).
Una vez recibidos los datos, los envía hacia el servidor de almacenamiento de la capa intermedia donde
se van insertando siguiendo el patrón FIFO (First in,
First Out), es decir, que la primera muestra de datos
recibida procedente de los medidores es la primera en
ser insertada en la base de datos.
Tanto en la conexión con los medidores como con el
servidor de almacenamiento se ha implementado una
redundancia software de forma que el servicio de
adquisición realiza una reconexión automática en el
caso de que se pierda la conectividad con los equipos. De forma complementaria, también se realizan
hasta 3 intentos en las peticiones y en las inserciones
en el caso de no recibir la correspondiente respuesta
una vez transcurrido un cierto tiempo de espera. Esto

Almacén de datos, donde se guardan los datos eléctricos procedentes de los medidores.

Almacén de conocimiento, donde residen los
resultados de los métodos del análisis masivo de datos que lleva a cabo el servidor de
explotación.

Almacén de parámetros, donde se guardan
los parámetros de configuración del sistema
de supervisión (direcciones físicas de los
medidores en el bus de campo, periodo de
muestreo, etc.).
La base de datos se encuentra estructurada en un
conjunto de tablas relacionado con los edificios por
medio de un identificador. Esto permite acceder a los
datos y a los parámetros de un edificio concreto. Otro
elemento a destacar son las tareas programadas que
se ejecutan de forma automática según el tiempo
indicado. Alguna de estas tareas consiste en realizar
llamadas al módulo de explotación para iniciar el
análisis de datos o en realizar copias de seguridad.
Por último, el sistema gestor controla cualquier acceso a la base de datos como las inserciones realizadas
por el servicio de adquisición para que los datos se
almacenen de una forma ordenada. Este sistema
gestiona también las selecciones y búsqueda de información.
El servidor de análisis de datos es el equipo encargado de ejecutar el módulo de explotación para obtener
el conocimiento que hay implícito en los datos del
sistema de energía eléctrica. Este módulo consta de
dos servicios diferentes:

Servicio de preprocesado, que se debe ejecutar en primer lugar para realizar un tratamiento de las muestras erróneas o vacantes.

Servicio de modelado, dedicado a la búsqueda de patrones de comportamiento eléctrico y a la predicción de consumos por medio de métodos estadísticos y de minería de
datos.
Estos servicios se han desarrollado mediante la utilización del software Matlab®, ampliamente usado en
tareas de minería de datos.
4
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE
Fig. 5 Herramienta de supervisión tradicional.
Fig. 6 Herramienta de optimización.
El servidor web es el equipo cuya función es publicar
la información a través de Internet para que un usuario remoto pueda acceder a las diversas herramientas
de supervisión. Este servidor se encuentra en una
subred conocida como zona desmilitarizada (DMZ),
separada por un router, de la red de uso interno de la
Universidad de León. Se basa en un Windows 2003IIS 6.0.
ciona mediante el slider de la parte superior izquierda, y el periodo de visualización se selecciona mediante los controles de la parte inferior izquierda.
Además, la aplicación dispone de un modo que permite comparar los consumos de distintos edificios
(hasta un máximo de cuatro) para el mismo periodo
de tiempo. La aplicación también dispone de una
herramienta para generar facturas en Excel para determinados edificios y los típicos botones de limpiar
gráfica, guardar gráfica y sostener gráfica.
La Capa de cliente contiene las interfaces de control
que se presentará a los analistas. La arquitectura del
sistema permite a cualquier ordenador con acceso a
Internet ser utilizado para la supervisión. Hay varias
aplicaciones desarrolladas para visualizar los datos y
los modelos de los datos eléctricos. Las tecnologías
utilizadas para desarrollar las interfaces gráficas son
HTML, PHP, LabVIEW y Processing.
El funcionamiento de esta herramienta se basa en
realizar peticiones a la base de datos (servidor de
almacenamiento) generando una cadena sql que contiene las variables seleccionadas, el identificador del
edificio y los tiempos inicial y final del intervalo
seleccionado.
Herramientas de supervisión avanzada.
IV. HERRAMIENTAS DE
SUPERVISIÓN DESARROLLADAS
En este apartado se describen dos de las herramientas
desarrolladas para supervisar y optimizar el consumo
de energía eléctrica en la Universidad de León. Estas
herramientas se pueden clasificar en dos grandes
grupos que se describirán a continuación, supervisión
tradicional y supervisión avanzada.
Herramientas de supervisión tradicional.
Este tipo de herramientas permiten visualizar en
forma de gráficos la evolución temporal de las variables eléctricas implicadas en el sistema. La herramienta de supervisión tradicional desarrollada para
este trabajo (Fig. 5) se ha implementado mediante la
utilización del software Matlab. Mediante esta herramienta se puede visualizar de una forma muy
sencilla la evolución de la potencia activa, potencia
reactiva, energía activa y energía reactiva en cualquier edificio de la Universidad de León para un
periodo de tiempo determinado. El edificio se selec-
Este tipo de herramientas utilizan técnicas estadísticas y de minería de datos para extraer la información.
Se pueden dividir en tres grupos:
Herramientas de comparación. Utilizan técnicas
como los Mapas Autoorganizados (SOM) o el kmeans para organizar los edificios en diferentes grupos, en función de sus perfiles eléctricos.
Herramientas de predicción. Se han desarrollado
herramientas para la predicción del consumo en edificios a corto (1-6 horas) y a medio plazo (días). El
objetivo fundamental de la predicción a corto plazo
es determinar qué transformadores interconectados
necesitan prepararse para entrar en funcionamiento.
En el caso de la predicción a medio plazo, la idea
fundamental es poder determinar el consumo en los
días siguiente con el fin de estimar la potencia que va
a ser necesaria en una determinada situación.
Herramientas de optimización. Dentro de este grupo
se encuadra la herramienta desarrollada para este
trabajo (Fig. 6), implementada mediante la plataforma Matlab. Esta herramienta utiliza los datos de las
5
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE
(a) Potencia Pico
(b) Potencia Llano
(c) Potencia Valle
Fig. 7 Evolución de las potencias durante el año 2010. Instituto Molecular (P7).
facturas de la compañía de los últimos 12 meses para
calcular el punto óptimo de potencia contratada (pico, llano y valle) a partir de las curvas potencia-coste.
Además, esta herramienta también calcula la potencia
óptima en el caso de que la compañía establezca la
siguiente restricción:
.
(1)
El funcionamiento de la herramienta consiste en
calcular y minimizar las curvas potencia-coste, evaluando las mismas para potencias comprendidas entre
1 y 1000 kW. La adquisición de los datos de las facturas se puede realizar de dos formas, la primera
consiste en introducir de forma manual las potencias
registradas por los maxímetros y los precios de los
términos de potencia de cada periodo, la segunda
consiste en adquirir los datos desde una hoja de Excel
diseñada para este propósito. Si se selecciona la adquisición de los datos desde hoja de Excel, se debe
seleccionar el punto de facturación para el cual se
quiere realizar el estudio mediante el menú de la
parte superior.
V. RESULTADOS EXPERIMENTALES
El punto de facturación eléctrico de la Universidad
de León escogido para el análisis mediante la utilización de las herramientas desarrolladas, ha sido el
Instituto Molecular (P7). Este edificio se ha seleccionado debido a la gran diferencia que hay entre la
potencia contratada y la consumida para cada uno de
los periodos en el año 2010, tal y como se puede
observar en la Figura 7.
Este punto de facturación se atiene a una tarifa 3.1 A
(alta tensión 3 periodos) con una potencia contratada
de 200 kW para cada uno de los periodos. En la Figura 7 se puede observar la evolución de las potencias
registradas por los maxímetros de la compañía (línea
azul con cuadros rojos), de la potencia contratada
(línea azul con rombos) y de los máximos y mínimos
sin penalización establecidos por la compañía (líneas
roja y morada). La potencia registrada en los periodos llanos y pico permanece prácticamente constante
en el rango 50-70 kW los 12 meses del año, siendo
unos 100 kW inferior al mínimo sin penalización. En
el periodo valle, la potencia permanece constante en
unos 50 kW los 12 meses del año, lo que hace que
aumente la diferencia con el mínimo sin penalización
establecido por la compañía. A la vista de estos gráficos es fácil deducir que la potencia contratada en
este punto de facturación no es correcta por lo que es
necesario ajustarla utilizando la herramienta de optimización desarrollada.
La Figura 8 muestra el resultado de aplicar la herramienta de optimización al punto de facturación Instituto molecular utilizando los datos de las facturas del
año 2010. Para este propósito se han ordenado las
potencias registradas por los maxímetros de la compañía y los precios de potencia, para cada uno de los
tres periodos, en una tabla de Excel desde la cual, la
herramienta adquirirá los datos. La Tabla 2 muestra
las potencias óptimas calculadas por la aplicación.
Pp=Pll=Pv
68 kW
Ppico
68 kW
Pllano
70 kW
Pvalle
48 kW
Tabla 2 Potencias óptimas. Instituto molecular.
Como se puede observar, la potencia contratada en
los tres periodos es muy superior a la potencia óptima, lo que indica que la potencia está desajustada. La
cuantía económica que se pagó en el año 2010 por el
término de potencia en el punto de facturación Instituto Molecular, con una potencia contratada de 200
kW, fue de 7091,86 €, y la que se hubiera pagado en
el caso de contratar la potencia óptima (68 kW) habría sido de 2650,11 €, por lo que, en el año 2010, el
ahorro conseguido sería de 4441,75 €.
A la hora de realizar un ajuste de potencia en cualquier punto de facturación utilizando esta herramienta, se debe tener en cuenta el aumento o disminución
de la carga que se puede producir en los edificios
conectados a ese punto, ya que la herramienta de
optimización solamente tiene en cuenta los meses
pasados y no los meses futuros. Para este propósito
se puede utilizar una herramienta de supervisión
tradicional, como la desarrollada en este trabajo (Figura 5), para visualizar y comparar la carga de varios
días cercanos a la fecha en la que se realiza el ajuste.
6
Universidad de León. Del Canto Masa C.J. Tecnologías de Control para la Supervisión Energética en la ULE
en cierta medida, el aumento o disminución de la
carga en el punto de facturación analizado. Para este
propósito se puede modificar la herramienta implantando una red de aprendizaje no supervisado como el
SOM cuyo propósito sea aprender de los datos pasados.
Referencias
[1] Domínguez, M., Fuertes, J., Díaz, I., Cuadrado,
A., Alonso, S. y Morán, A. (2011). “Analysis of
electric power consumption using self organizing maps.” In 18th IFAC World Congress. Milan.
Fig. 8 Herramienta de optimización de la potencia
contratada. Instituto Molecular (P7).
VI. CONCLUSIONES
La implantación de tecnologías de control para la
supervisión de energía eléctrica es un tópico que aun
no está muy desarrollado en la sociedad actual. Debido a la actual crisis económica y a las nuevas políticas de eficiencia energética, poco a poco, las empresas e instituciones se están decantando por implantar
estas tecnologías para racionalizar el consumo eléctrico.
En este trabajo se ha propuesto una arquitectura de
supervisión abierta basada en una estructura de triple
capa que huye de arquitecturas propietarias cerradas.
La capa servidor está formada por medidores eléctricos que se encuentran deslocalizados geográficamente e intercambian información utilizando el estándar
Modbus. La capa intermedia de almacenamiento no
sólo registra los valores medidos, sino que los explota extrayendo conocimiento sobre el sistema con el
objetivo de mejorar la eficiencia energética. La capa
cliente, en la que se localizan los equipos finales de
supervisión, maneja las herramientas suministradas
por la capa intermedia no sólo de forma local, sino a
través de Internet. El sistema de supervisión propuesto se ha implantado en la Universidad de León.
Mediante la utilización de las herramientas desarrolladas, la Universidad ha conseguido optimizar la
potencia contratada de todos sus puntos de facturación obteniendo ahorros importantes en el término de
potencia. También se ha conseguido trasladar carga a
horarios en los que el precio de la energía es menor
mediante la utilización de la herramienta de supervisión tradicional.
[2] Domínguez, M., Reguera P., Fuertes, J.J., Díaz,
I. y Cuadrado, A.A. (2007). “Internet-based remote supervisión of industrial processes using
self organizing maps.” Engineering Applications
of Artificial Intelligence, 20(6), pp. 757-765.
[3] Eckerson, W.W. (1995). “Three tier client /server
architectures: Achieving scalability, performance, and efficiency in client/server applications.” Open Information Systems, 3(20), pp. 4650.
[4] European Parliament (2010). “Directive
2010/31/EU of the European Parliament and the
Council of 19 may 2010 on the energy performance of buildings (recast).” Official Journal of
the European Union, 53(L153)
[5] Fuertes, J.J., Domínguez, M., Alonso, S., Prada,
M.A., Morán, Antonio y Barrientos, P. (2011).
“Sistema de supervisión de energía eléctrica en
la Universidad de León”.
[6] Gershenfeld, N., Samouhos, S. y Nordman, B.
(2010). “Intelligent infrastructure for energy efficiency.” Science, 327(5969), pp. 1086-1088.
[7] Kohonen, T. (2001). Self-Organizing Maps.
Springer-Verlag New York, Inc., Secaucus, NJ,
USA, 3rd ed. ISBN 3-5406-7921-9.
[8] Mathworks (2007). Matlab User Manual.
[9] Red Eléctrica de España (2011).
http://www.ree.es/
[10] Schneider Electric (2011).
http://www.schneider-electric.com
Como líneas futuras a este trabajo se puede añadir
inteligencia a la herramienta de optimización para
que no solo tenga en cuenta los datos pasados, sino
que aprenda de los mismos para que pueda predecir,
7
El sistema MQL, el mecanizado ecológico
Octavio M. Pereira Neto
Universidad de León
Email: [email protected]
Resumen—El objetivo de este artículo es exponer lo que
se conoce como mecanizado con MQL (mínima cantidad de
lubricación), las innovaciones más importantes que hay en la
actualidad sobre esta técnica, además de las investigaciones más
interesantes realizadas con dicho sistema sobre materiales de
difícil maquinabilidad entre los que se encuentran materiales
como las superaleaciones (titanio y níquel), aceros dúctiles de
bajo carbono, aceros inoxidables, aceros templados y aleaciones
de aluminio mecanizadas a alta velocidad.
I.
I NTRODUCCIÓN
La creciente preocupación por el medioambiente a nivel
mundial es una realidad. Por ello los gobiernos de los países
desarrollados cada vez son más estrictos con la normativa
medioambiental (en España RD 259/1998 del 29 de septiembre
[1]) llevando al sector industrial a buscar técnicas de eficiencia
energética, el uso sostenible de los recursos naturales y reducción de los desechos derivados de la fabricación de productos.
Además, dada la alta competitividad existente es necesario,
además de ser ecológico, ser económicamente viable. Por estas
razones los últimos años en el mundo del mecanizado se
intenta caminar hacia lo que se denomina como mecanizado
ecológico. Estos pasos van en la dirección de disminuir el uso
de aceites minerales y sus emulsiones como fluidos de corte
en el mecanizado ya que el coste de dichos fluidos puede ser
de hasta el 17 % del coste total de fabricación [2] y el uso de
este tipo de aceites en los operarios puede causar problemas
respiratorios como asma, neumonía hipersensible, pérdida de
función pulmonar u otras enfermedades como la irritación,
acné o cáncer de piel [3]. La cantidad consumida actualmente
por la Unión Europea asciende a 320.000 Toneladas/año [4].
Además, el coste de tratamiento de estos residuos en la Unión
Europea y Estados Unidos ronda entre 2 y 4 veces el precio de
compra del aceite y en caso de no ser tratados apropiadamente
contaminan agua, suelos, manantiales... y por lo tanto acaban
llegando a la cadena alimenticia [5]. En los últimos años ha
habido avances en técnicas como el mecanizado en seco y el
mecanizado criogénico en las cuales se suprime cualquier uso
de aceite o emulsión consiguiendo resultados aceptables en
muchos de los ensayos realizados. La problemática al utilizar
estas técnicas surge al intentar mecanizar materiales de difícil
maquinabilidad a alta velocidad como pueden ser las superaleaciones las cuales a pesar de sus buenas propiedades mecánicas generalmente tienen una baja conductividad térmica, alta
resistencia y una alta capacidad calorífica que se traducen en
unas fuerzas de corte excesivas, altas temperaturas de corte,
un desgaste excesivo de las herramientas e incluso una peor
calidad superficial. Por ello, una técnica intermedia es lo que
se conoce como MQL (mínima cantidad de lubricación) con
la que se combinan algunos de los beneficios del mecanizado
en seco junto con algunas de las ventajas del mecanizado
con fluidos de corte, avanzando así hacia una fabricación
sostenible.
opn
Mayo 15, 2012
II.
E L MECANIZADO CON MQL
El mecanizado con MQL, también conocido como “near
dry machining”, es una técnica de refrigeración en la que se
combina el poder refrigerante del aire con la acción lubricante
del aceite [6]. Para ello se utiliza como fluido de corte una
mezcla de aire comprimido con la cantidad estrictamente
necesaria de aceite en forma de gotas produciendo un aerosol
el cual es pulverizado sobre la zona de corte. El rango de
aceite utilizado suele estar entre 10 y 100 ml/h, es decir, se
utiliza hasta 4200 veces menos aceite que si se mecanizase
con taladrina. En cuanto al aceite, las presiones utilizadas
normalmente oscilan entre 0,4 y 0,8 MPa, aunque hay casos
en los que se ha llegado a utilizar 10 MPa [7]. Las principales
ventajas del MQL frente a otras técnicas de refrigeración son
[8] [9] [10] [11] [12]:
Drástica disminución del uso de fluidos de corte.
Reducción de costes en comparación al uso de taladrina.
Aumento de la higiene industrial.
Oportunidad de utilizar fluidos biodegradables como pueden ser los aceites vegetales.
Mejora del proceso de fabricación en comparación con
el mecanizado en seco.
Una estabilidad térmica avanzada.
Mejor lubricación que con la taladrina.
Las virutas salen completamente limpias pudiendo ser
recicladas directamente.
El ajuste de la mezcla aire/aceite es fácil de controlar.
Los principales componentes para montar un sistema MQL
son un compresor de aire, un depósito para el aceite, un
sistema de control de caudal, tubos y las boquillas para
pulverizar la mezcla [13]. Este sistema puede ser utilizado
de forma externa, del mismo modo que se aplica la taladrina,
o utilizarlo de forma interna donde el aerosol entra por dentro
de la herramienta (Fig.1). La elección de un sistema u otro
dependen principalmente de la operación a realizar aunque
hay otros factores a tener en cuenta como el mantenimiento,
el tipo de herramientas de las que se dispone o la facilidad de
control del caudal [14].
importante a tener en cuenta es la dirección del aerosol.
Al utilizar MQL externo, en torneado las posibilidades de
colocación de la boquilla son dos, dirigiendo el aerosol hacia
la cara de desprendimiento o hacia la cara de incidencia de la
herramienta (Fig. 3). Los estudios realizados en este sentido
mostraron que para que el aerosol penetre de forma eficiente
en la zona de interacción entre la pieza y la herramienta, la
boquilla ha de ser dirigida hacia la superficie de incidencia. En
cambio, si ésta es dirigida hacia la cara de desprendimiento los
resultados obtenidos son muy similares a los que se obtienen
con el mecanizado en seco, lo que indica que el aerosol no
llega a alcanzar la zona de interacción [6]. En el caso del
fresado, también las posibilidades son dos, colocarla a 45o ó
135o respecto a la dirección de avance (Fig. 4). Los ensayos
realizados demostraron que a 45o la vida de la herramienta se
ve disminuida frente a los 135o debido a que las turbulencias
originadas en la proximidad de la herramienta envían el aceite
fuera de la zona de corte no consiguiendo la acción simultánea
de la lubricación y refrigeración y además la viruta eliminada
interfiere entre el aerosol y la herramienta [1].
Figura 1.
Sistemas MQL. (a) Interno [15], (b) Externo [16].
Los métodos de mezclado del aire y el aceite se pueden
realizar de dos formas. La primera, conocida como MQL de
un canal, el aerosol es formado en una cámara de mezclado
fuera de la boquilla y posteriormente transportado a la zona
de corte por una sola vía (Fig. 2b). En cambio, lo que se
conoce como MQL de dos canales, el aceite y el aire van por
dos tubos separados y se mezclan formando el aerosol dentro
de la boquilla (Fig. 2a). La ventaja de usar el MQL de dos
canales frente al de uno es la reducción de la neblina creada
en la zona de corte al dirigir el aerosol hacia ella [6].
La efectividad del MQL principalmente depende de la capacidad que tiene el aerosol para llegar a la zona de interacción
entre la pieza y la herramienta, con lo que un parámetro
Figura 3. Posiciones de la boquilla en el torno [6].
(a) Superficie de Desprendimiento, (b) Superficie de Incidencia.
Figura 2. Métodos de mezclado [6]. (a) 2-canales, (b) 1- canal. [16].
Figura 4. Posiciones de boquilla en la fresadora [1].
En cambio, si se utiliza MQL interno, al tornear hay ensayos
realizados en los que se demuestra que colocando un adaptador
a la salida comercial del portaherramientas para que el aerosol
salga de forma oblicua el uso de aceite puede disminuir hasta
0,5 ml/h con la misma efectividad que si utilizasen 15 ml/h con
la salida comercial (Fig. 5) [7]. En la fresadora, el aerosol viaja
por dentro del husillo hasta que sale por el centro de la fresa
hacia la zona de corte; concretamente en el fresado de alta
velocidad dadas las velocidades angulares que se manejan, las
gotas de aceite del aerosol corren el riesgo de ser separadas
de la mezcla debido a las fuerzas centrífugas generadas en
su interior quedando adheridas en las paredes del tubo, lo
que implica que el volumen de aceite enviado hacia la zona
de corte disminuye, reduciéndose así la vida de herramienta
también. Para ello lo recomendable es colocar rodamientos
entre el tubo interior por el que viaja el aerosol y el husillo,
de esta manera el tubo permanecerá inmóvil y el aerosol no
correrá ningún peligro de sufrir un centrifugado antes de salir
por la fresa (Fig. 6) [17].
III.
I NNOVACIONES EN LOS SISTEMAS MQL
Generalmente las líneas de investigación en cuanto a innovaciones en el propio sistema MQL siguen principalmente tres
líneas:
Variación de la temperatura del aerosol.
Modificación del aire como gas portador.
Modificación del tipo de fluido de corte utilizado.
III-A.
Variación de la temperatura del aerosol
Para variar la temperatura del aerosol lo que se hace
normalmente es disminuir la temperatura del aire. Las formas
de conseguirlo son varias, entre las que caben destacar dos.
Figura 6. Esquema de salida aerosol en fresadora con MQL interno. [17].
La primera es el método “COD” con el cual gracias a una
modificación hecha en el portaherramientas se consigue una
expansión adiabática en la salida de la boquilla consiguiendo
temperaturas de 0o C (Fig. 7) [18].
La otra forma de conseguir enfriar el aire utilizado en
el MQL es con el “CAMQL” en el cual se instala en el
sistema convencional una máquina frigorífica compuesta por
un sistema refrigerador de vapor-compresión y un sistema de
refrigeración semiconductor. El primer sistema se diseña con
el fin de reducir la temperatura del agua que será utilizada
posteriormente para absorber el calor de las termopilas del
sistema semiconductor. Este último está compuesto por dichas
termopilas a las cuales se las suministra corriente continua
consiguiendo que su energía calorífica sea transferida de un
lado a otro debido al efecto Peltier. El agua enfriada circula
por la parte superior e inferior de los absorbedores de calor
llevándose el calor del lado caliente de la termopila. La pared
del enfriador al estar en contacto con la parte fría de la termopila se mantiene a una temperatura extremadamente baja. El
aire comprimido, después de pasar a través del intercambiador
de calor entra en el enfriador donde se enfría intercambiando
el calor con la paredes del enfriador. Finalmente, el aire ya
enfriado sale hacia la boquilla donde será mezclado con el
aceite para formar el aerosol. La temperatura del aire se puede
controlar variando la corriente que pasa por las termopilas y/o
modificando la presión del aire (Fig. 8) [19].
III-B.
Modificación del aire como gas portador
Como sustitutos del aire en los sistemas MQL habitualmente
se utiliza nitrógeno o agua. Con los demás gases, a la hora
Figura 5. Salidas del MQL interno en torno.
(a) Salida comercial, (b) Salida oblicua [7].
Figura 7. Modificación de portaherramientas para sistema “COD” [18].
Figura 8. Esquema de máquina frigorífica para “CAMQL” (1) Depósito de
agua. (2) Sistema refrigerador vapor- compresión. (3) Bomba de agua.
(4) Compresor. (5) Filtro. (6) secador. (7) intercambiador de calor. (8) Caja
de control. (9) Sistema refrigerador semiconductor. (10) termopila.
(11) absorbedor de calor. (12) Enfriador. (13) caudalímetro.
(14) manómetro. (15) boquilla. [19]
Figura 10. Sistema “MWD” [21].
III-C.
de sustituirlos por el aire hay que tener muy en cuenta el
material a mecanizar debido a que un gas puede ser beneficioso
para el mecanizado de un material pero contraproducente para
otro, bien por su conductividad térmica o por su “capacidad
lubricante”. El ejemplo más claro ocurre con el oxígeno en el
cual en ensayos con aceros S45 reduce las fuerzas de corte
además de lograr un buen acabado superficial [20] pero en
cambio al utilizarlo en el mecanizado de aluminio hace que
haya unas fuerzas mayores [21].
Cuando el aire es sustituido por nitrógeno, los mejores
resultados se obtienen enfriándolo a -10o C llegando, en el caso
del titanio, a aumentar la vida de herramienta 1,93 veces frente
al MQL con nitrógeno sin enfriar [22].
La utilización del agua como portador del aceite se basa
principalmente en la diferencia de densidades que existe entre
el aceite y el agua, ya que se forman gotas de agua recubiertas
externamente con una capa de aceite. La forma de obtener este
tipo de gotas se logra mediante dos métodos. El primero es
conocido como método “OoW” y las gotas se forman gracias a
una boquilla especial en la cual se realiza la mezcla por efecto
Venturi (Fig. 9) [23]. El segundo método, conocido como
“MWD” se diferencia del anterior en que el aerosol en vez de
formarse en la boquilla primero se forman las gotas de agua
con aceite en un depósito y posteriormente son conducidas
a la zona de corte por el método de MQL de un canal. La
forma en que estas gotas se forman es por condensación y
para ello primero se vaporiza el agua en un contenedor a
243 KPa. Seguidamente, este vapor presurizado es inyectado
dentro de otro depósito a presión atmosférica lleno de aceite y
debido al cambio de presión, el vapor saturado a medida que
se va dispersando por el aceite se va condensando formando
pequeñas gotas de aceite (Fig. 10) [21].
Figura 9. Boquilla del sistema “Oow” [23].
Modificación del fluido de corte
Los estudios realizados en cuanto a la modificación del
fluido de corte en los sistemas MQL a día de hoy son escasos
pero de muy diversa índole. Por un lado están aquellos en los
que se sigue trabajando con aceites minerales y sintéticos, que
en un tiempo no muy lejano quedarán obsoletos debido principalmente al impacto ambiental que producen dichos aceites. Y
por otro lado está la tendencia actual por la que se debe seguir
investigando, que son aquellos ensayos en los que se estudia
la viabilidad de la utilización de aceites biodegradables. Del
primer caso cabe destacar, desde el punto de vista de intentar
reproducir lo mismo con aceites biodegradables, un estudio
en el que se logra un “aceite multifunción” con el que se
logra además de mecanizar con el sistema MQL lubricar los
rodamientos del husillo, las guías de deslizamiento de la mesa
y el sistema hidráulico [24]. En relación al uso de aceites
biodegradables, generalmente en los sistemas MQL se suelen
utilizar aceite de colza o canola [4] [23] [25]. Un estudio a
destacar en el uso de otros aceites vegetales es el realizado
con aceite de palma en el que se obtienen menores pares de
fuerza en la herramienta e incluso un ligero desgaste menor del
flanco de ésta que si se utilizase el MQL con aceite sintético
[26].
IV.
E L MECANIZADO DE MATERIALES DE DIFÍCIL
MAQUINABILIDAD CON MQL
Los materiales que comúnmente se conocen como de difícil
maquinabilidad son aquellos que durante su mecanizado generan un desgaste excesivo de la herramienta, altas temperaturas
de corte, presentan dificultad en la formación de la viruta,
excesivas fuerzas de corte y/o una pobre calidad superficial
[13]. Principalmente pertenecen a este grupo las aleaciones de
titanio, níquel y algunas aleaciones ferrosas, cuyo consumo
cada vez es mayor en sectores como el aeroespacial, sanitario,
químico o de la construcción (Fig. 11) [27].
El aluminio aunque generalmente no se considera de difícil
maquinabilidad, esto cambia totalmente cuando se trata de mecanizarlo a alta velocidad ya que al tener una buena plasticidad
tienen tendencia a la formación de filo recrecido (BUE) que a
su vez disminuye la vida de herramienta provocando una baja
calidad superficial y el consecuente aumento de fuerzas de
corte [28]. Este material se utiliza principalmente en el sector
IV-C.
Figura 11. Consumo de superaleaciones por sectores [27].
aeronáutico debido a su gran ligereza, su resistencia mecánica
y su resistencia a la corrosión.
IV-A.
Aleaciones de titanio
Los diversos ensayos realizados con MQL sobre titanio
arrojan resultados bastante satisfactorios. Por ejemplo, en
cuanto al taladrado convencional las temperaturas alcanzadas
son de 600o C que están dentro del rango en el que el
titanio no pierde sus propiedades mecánicas para su posterior
utilización [29] [30]. En taladrados a alta velocidad también
se tiene demostrado que las fuerzas y temperaturas eran muy
parecidas al uso de taladrina, pero con el consiguiente ahorro
de lubricante [26]. En lo referente a fresados cabe destacar que
si se aplica el sistema MQL con otro sistema paralelo de aire
enfriado a -15o C la mejoría en cuanto a calidad superficial y
desgaste son importantes [31], pero fresar a alta velocidad la
temperatura tiene que ser controlada de forma más drástica.
Por ello es necesario utilizar MQL con el gas portador enfriado
en vez de un sistema de MQL con aire enfriado en paralelo.
El estudio de MQL con nitrógeno a -10o C demostraba que la
vida de herramienta frente a otros sistemas era superior[22].
IV-B.
Aleaciones de níquel
Las aleaciones que habitualmente se ensayan para comprobar la viabilidad del MQL sobre este material es la aleación
R Al utilizar el sistema MQL
conocida como Inconel 718.
con este material hay que tener en cuenta el caudal de aceite
utilizado. La cantidad óptima es 50 ml/h porque aunque con
el uso de otros caudales la diferencia en cuanto a rugosidad
superficial es pequeña a la larga acaba produciendo una mayor
deformación del flanco de la herramienta y la formación del
filo recrecido (BUE) [32]. En cuanto al cambio de gas portador
este es uno de los casos en los que se debe tener en cuenta
la conductividad térmica del gas ya que si es menor que la
del aire, se obtendrán peores resultados debido al aumento de
temperaturas que se pueden producir en la zona de corte [33].
Aleaciones ferrosas de difícil maquinabilidad
Bajo esta denominación están agrupados los aceros dúctiles de bajo contenido en carbono (0,02 %<C<0,3 %), aceros
inoxidables y aceros templados.
Al aplicar el sistema MQL al mecanizado de aceros dúctiles
de bajo contenido en carbono se consigue una reducción del
10 % respecto al uso de taladrina y consecuentemente también
se consigue una reducción del desgaste del flanco debido a que
hay una menor tendencia a las adhesiones y al filo recrecido
(BUE) [8].
En cuanto la mecanizado con MQL de aceros inoxidables
cabe destacar el estudio realizado sobre AISI-304 (acero
inoxidable austenítico) en el cual se comprueba que en el
torneado con herramienta motorizada hay una velocidad de
corte óptima (250 m/min) en la cual hay un equilibrio entre la
capacidad de enfriamiento por el corte en vacío y la capacidad
calorífica del rozamiento al mecanizar. La diferencia entre
el mecanizado con MQL y el mecanizado en seco en estas
condiciones puede llegar a ser de 45o C [34].
Del mecanizado de aceros templados con el sistema MQL
el estudio más relevante es en el fresado a alta velocidad de
AISI-D2 en el cual se obtuvieron mejores resultados frente
al uso de taladrina debido a la fatiga térmica a la que era
sometida la herramienta con ésta [35].
IV-D.
Aleaciones de aluminio
Con el mecanizado de aleaciones de aluminio con MQL se
obtienen resultados muy similares al uso de taladrina en cuanto
a la vida de herramienta, fuerzas de corte y calidad superficial
[36] [37] [38]. Respecto a la calidad superficial hay que tener
especial cuidado con la adhesión de aluminio en la herramienta
ya que juega un papel importante debido a que según avanza
la herramienta marca la superficie mecanizada y en alta
velocidad incluso el material adherido llega a desprenderse
de la herramienta quedando pegado a la pieza [38].
V.
C ONCLUSIÓN
En este artículo se ha hecho un breve repaso sobre el sistema
MQL, sus innovaciones y su viabilidad en el mecanizado de
materiales de difícil maquinabilidad. El sistema de refrigeración MQL como alternativa al mecanizado con taladrina es la
línea más factible de seguir para la erradicación del uso de
aceites derivados del petróleo y conseguir prácticamente un
mecanizado con nulo impacto ambiental.
También hay que resaltar la importancia de la utilización de
este sistema en cuanto a reducción de costes de fabricación
ya que en muchos de los casos no sólo se gana en ahorro de
lubricante, tratamientos de residuos, limpieza de viruta para
su reciclado y ahorro energético sino también en el desgaste
de herramientas que representan entre un 2 % y 4 % del coste
total de la pieza y hay casos en los que se llega a duplicar su
vida útil. Por lo que sólo contando con el ahorro del lubricante
y en herramientas, se está hablando de una reducción del coste
de fabricación de hasta un 21 %.
R EFERENCIAS
[1] L.N. López de Lacalle, C. Angulo, A. Lamikiz, and J.A. Sánchez. Experimental and numerical investigation of the effect of spray cutting fluids
in high speed milling. Journal of Materials Processing Technology,
172(1):11 – 15, 2006.
[2] F. Klocke and G. Eisenblätter. Dry cutting. CIRP Annals - Manufacturing Technology, 46(2):519 – 526, 1997.
[3] Kyung-Hee Park, Jorge Olortegui-Yume, Moon-Chul Yoon, and Patrick
Kwon. A study on droplets and their distribution for minimum
quantity lubrication (mql). International Journal of Machine Tools and
Manufacture, 50(9):824 – 833, 2010.
[4] S.A. Lawal, I.A. Choudhury, and Y. Nukman. Application of vegetable
oil-based metalworking fluids in machining ferrous metals—a review.
International Journal of Machine Tools and Manufacture, 52(1):1 – 12,
2012.
[5] Y.M. Shashidhara and S.R. Jayaram. Vegetable oils as a potential
cutting fluid—an evolution. Tribology International, 43(5–6):1073 –
1081, 2010.
[6] A. Attanasio, M. Gelfi, C. Giardini, and C. Remino. Minimal quantity
lubrication in turning: Effect on tool wear. Wear, 260(3):333 – 338,
2006.
[7] Toshiyuki Obikawa, Yasuhiro Kamata, Yuki Asano, Kousuke Nakayama,
and Andrew W. Otieno. Micro-liter lubrication machining of inconel 718. International Journal of Machine Tools and Manufacture,
48(15):1605 – 1612, 2008.
[8] M.M.A. Khan, M.A.H. Mithu, and N.R. Dhar. Effects of minimum
quantity lubrication on turning aisi 9310 alloy steel using vegetable
oil-based cutting fluid. Journal of Materials Processing Technology,
209(15–16):5573 – 5583, 2009.
[9] Vishal S. Sharma, Manu Dogra, and N.M. Suri. Cooling techniques
for improved productivity in turning. International Journal of Machine
Tools and Manufacture, 49(6):435 – 453, 2009.
[10] T. Aoyama, Y. Kakinuma, M. Yamashita, and M. Aoki. Development
of a new lean lubrication system for near dry machining process. CIRP
Annals - Manufacturing Technology, 57(1):125 – 128, 2008.
[11] V.N. Gaitonde, S.R. Karnik, and J. Paulo Davim. Selection of optimal
mql and cutting conditions for enhancing machinability in turning of
brass. Journal of Materials Processing Technology, 204(1–3):459 – 464,
2008.
[12] G. Byrne, D. Dornfeld, and B. Denkena. Advancing cutting technology.
CIRP Annals - Manufacturing Technology, 52(2):483 – 507, 2003.
[13] A. Shokrani, V. Dhokia, and S.T. Newman. Environmentally conscious
machining of difficult-to-machine materials with regard to cutting fluids.
International Journal of Machine Tools and Manufacture, (0):–, 2012.
[14] V. P. Astakhov. Ecological machining: near dry machining. Mechanics
of machining: FEM simulation machining, pages 195–223, 2009.
[15] Toshiyuki Obikawa, Yuki Asano, and Yasuhiro Kamata. Computer fluid
dynamics analysis for efficient spraying of oil mist in finish-turning of
inconel 718. International Journal of Machine Tools and Manufacture,
49(12–13):971 – 978, 2009.
[16] N.R. Dhar, M. Kamruzzaman, and Mahiuddin Ahmed. Effect of
minimum quantity lubrication (mql) on tool wear and surface roughness
in turning aisi-4340 steel. Journal of Materials Processing Technology,
172(2):299 – 304, 2006.
[17] T. and Aoyama. Development of a mixture supply system for machining
with minimal quantity lubrication. CIRP Annals - Manufacturing
Technology, 51(1):289 – 292, 2002.
[18] Toshiyuki Obikawa, Yasuhiro Kamata, and Jun Shinozuka. High-speed
grooving with applying mql. International Journal of Machine Tools
and Manufacture, 46(14):1854 – 1861, 2006.
[19] Y. Su, N. He, L. Li, A. Iqbal, M.H. Xiao, S. Xu, and B.G. Qiu. Refrigerated cooling air cutting of difficult-to-cut materials. International
Journal of Machine Tools and Manufacture, 47(6):927 – 933, 2007.
[20] S. Min, I. Inasaki, S. Fujimura, T. Wada, S. Suda, and T. Wakabayashi.
A study on tribology in minimal quantity lubrication cutting. CIRP
Annals - Manufacturing Technology, 54(1):105 – 108, 2005.
[21] T. Wakabayashi, S. Suda, I. Inasaki, K. Terasaka, Y. Musha, and Y. Toda.
Tribological action and cutting performance of mql media in machining
of aluminum. CIRP Annals - Manufacturing Technology, 56(1):97 –
100, 2007.
[22] Y. Su, N. He, L. Li, and X.L. Li. An experimental investigation of
effects of cooling/lubrication conditions on tool wear in high-speed end
milling of ti-6al-4v. Wear, 261(7–8):760 – 766, 2006.
[23] F. Itoigawa, T.H.C. Childs, T. Nakamura, and W. Belluco. Effects and
mechanisms in minimal quantity lubrication machining of an aluminum
alloy. Wear, 260(3):339 – 344, 2006.
[24] S. Suda, T. Wakabayashi, I. Inasaki, and H. Yokota. Multifunctional
application of a synthetic ester to machine tool lubrication based on
mql machining lubricants. CIRP Annals - Manufacturing Technology,
53(1):61 – 64, 2004.
[25] P.S Sreejith and B.K.A Ngoi. Dry machining: Machining of the future.
Journal of Materials Processing Technology, 101(1–3):287 – 291, 2000.
[26] E.A. Rahim and H. Sasahara. A study of the effect of palm oil as
mql lubricant on high speed drilling of titanium alloys. Tribology
International, 44(3):309 – 317, 2011.
[27] E.O. and Ezugwu. Key improvements in the machining of difficult-tocut aerospace superalloys. International Journal of Machine Tools and
Manufacture, 45(12–13):1353 – 1367, 2005.
[28] Q. Luo, G. Robinson, M. Pittman, M. Howarth, W.-M. Sim, M.R.
Stalley, H. Leitner, R. Ebner, D. Caliskanoglu, and P.Eh. Hovsepian.
Performance of nano-structured multilayer pvd coating tialn/vn in dry
high speed milling of aerospace aluminium 7010-t7651. Surface and
Coatings Technology, 200(1–4):123 – 127, 2005.
[29] G. Le Coz, M. Marinescu, A. Devillez, D. Dudzinski, and L. Velnom.
Measuring temperature of rotating cutting tools: Application to mql drilling and dry milling of aerospace alloys. Applied Thermal Engineering,
36(0):434 – 441, 2012.
[30] N. Corduan, T. Himbart, G. Poulachon, M. Dessoly, M. Lambertin,
J. Vigneau, and B. Payoux. Wear mechanisms of new tool materials for
ti-6ai-4v high performance machining. CIRP Annals - Manufacturing
Technology, 52(1):73 – 76, 2003.
[31] S.M. Yuan, L.T. Yan, W.D. Liu, and Q. Liu. Effects of cooling air
temperature on cryogenic machining of ti–6al–4v alloy. Journal of
Materials Processing Technology, 211(3):356 – 362, 2011.
[32] M.Z.A. Yazid, C.H. CheHaron, J.A. Ghani, G.A. Ibrahim, and A.Y.M.
Said. Surface integrity of inconel 718 when finish turning with pvd
coated carbide tool under mql. Procedia Engineering, 19(0):396 – 401,
2011.
[33] Y. Kamata and T. Obikawa. High speed mql finish-turning of inconel 718
with different coated tools. Journal of Materials Processing Technology,
192–193(0):281 – 286, 2007.
[34] A. Hosokawa, T. Ueda, R. Onishi, R. Tanaka, and T. Furumoto. Turning
of difficult-to-machine materials with actively driven rotary tool. CIRP
Annals - Manufacturing Technology, 59(1):89 – 92, 2010.
[35] M.C. Kang, K.H. Kim, S.H. Shin, S.H. Jang, J.H. Park, and C. Kim.
Effect of the minimum quantity lubrication in high-speed end-milling of
aisi d2 cold-worked die steel (62 hrc) by coated carbide tools. Surface
and Coatings Technology, 202(22–23):5621 – 5624, 2008.
[36] Durval U Braga, Anselmo E Diniz, Gilberto W.A Miranda, and Nivaldo L Coppini. Using a minimum quantity of lubricant (mql) and a
diamond coated tool in the drilling of aluminum–silicon alloys. Journal
of Materials Processing Technology, 122(1):127 – 138, 2002.
[37] H.A. Kishawy, M. Dumitrescu, E.-G. Ng, and M.A. Elbestawi. Effect
of coolant strategy on tool performance, chip morphology and surface
quality during high-speed machining of a356 aluminum alloy. International Journal of Machine Tools and Manufacture, 45(2):219 – 227,
2005.
[38] P.S. and Sreejith. Machining of 6061 aluminium alloy with mql, dry
and flooded lubricant conditions. Materials Letters, 62(2):276 – 278,
2008.
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
1
Sistema de control Fuzzy y simulación de un
electrofiltro
Paredes Menéndez, Jairo
[email protected]
Universidad de León, Escuela de Ingenierías Industrial, Informática y Aeronáutica
Resumen—Este artículo quiere ser una contribución al
problema de mejorar la producción de energía eléctrica a
través de conseguir una mayor eficiencia en uno de los
elementos básicos de cada estación de energía de
combustión. Un sistema de electrofiltro es el principal
método de separación de las cenizas utilizadas en este tipo
de central eléctrica. Un mejor control de este sistema debe
permitir una reducción de costes y una extensión de su
esperanza de vida. Con el fin de alcanzar este objetivo, se
construye un modelo de simulación para un sistema de
electrofiltro con un controlador de retroalimentación difusa.
El rendimiento del sistema se estudia y se compara con un
controlador PID tradicional para ver los resultados.
Índice de Términos—Electrofiltro, fuzzy, lógica
borrosa, modelado, Simulink.
I. INTRODUCCIÓN
En la industria se emplean numerosos sistemas
de limpieza de partículas en los gases emitidos
[7]. En este artículo nos centraremos en el sistema
de limpieza de partículas sólidas por
electrofiltración.
Estos sistemas poseen un alto consumo dentro
de la instalación donde se utilizan ya que deben
aplicar altos voltajes para su correcto
funcionamiento que pueden llegar hasta los 55 kV
o mayores dependiendo de la potencia instalada.
Asimismo representan un consumo de potencia
en la instalación que ronda el 1 ‰ y que depende
de la potencia total instalada tanto en la central
termoeléctrica donde estén instalados como de la
potencia total instalada en los electrofiltros [6][8].
Para disminuir en la medida de lo posible el
consumo del sistema de limpieza de partículas
sólidas se propone un control mediante lógica
borrosa debido a que el correcto funcionamiento
del mismo depende de diversas variables que se
caracterizan por un comportamiento conjunto no
lineal que puede ser capturado mejor por este tipo
de sistemas.
III Congreso de Cibernética
II. FUNCIONAMIENTO
A. Fenómeno de la electrofiltración
Teniendo un electrodo emisor en el punto
intermedio de dos placas paralelas conectadas a
tierra y al que se le aplica un alto voltaje en
tensión continua se produce un campo eléctrico
que va desde la superficie del electrodo emisor,
normalmente un alambre, hacia la superficie de
las placas colectoras, que poseen un gran tamaño.
La intensidad del campo eléctrico creado es mayor
cuanto más cerca estemos del electrodo de
descarga donde se produce el efecto corona por el
cual el gas se ioniza generando iones positivos y
negativos. Los primeros los atrapa el electrodo de
descarga y los de signo negativo cruzan el espacio
existente hasta llegar a los colectores [1].
Durante esta transición chocan contra las
partículas sólidas de los humos que poseían una
dirección perpendicular al campo eléctrico. Estas
partículas se quedan cargadas negativamente y
cambian la dirección viéndose atraídas por la
superficie colectora, esta velocidad se conoce
como velocidad de migración la cual es mayor
que la velocidad que poseía la partícula y por eso
consigue cambiar su dirección [2]-[5]. Las
partículas llegan entonces a la superficie colectora
donde entran en contacto con ella adhiriéndose y
transfiriéndole su carga.
B. Precipitador electrostático
El precipitador electrostático o electrofiltro se
compone de dos placas metálicas situadas de
forma paralela para producir una calle por la que
circule el flujo de los humos a tratar. Estas placas
pueden tener dimensiones que alcancen los 15
metros de alto por 5 de ancho. En el centro de esta
calle se encuentra suspendido un electrodo de
alambre que emite cargas eléctricas hacia las
placas metálicas anteriormente citadas, también
conocidas como colectores [9]-[11].
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
2
Para mejorar el rendimiento se construye un
campo o grupo de electrofiltros en serie los cuales
se introducen en una carcasa. Cada etapa tiene
una capacidad de recolección de partículas
(dependiendo de la superficie y la tensión) del
80%. Por ello un precipitador de 3 etapas en el
que en cada etapa se escapa el 20% de partículas
el rendimiento conjunto es de 99,2%. Quiere decir
que las partículas no recolectadas no alcanzan el
1%.
eléctrica de signo negativo. Al tener las placas
(conectadas a tierra y aisladas del resto del
circuito) una carga positiva atraen a las partículas
anteriormente citadas y produce la acumulación
de las mismas en la superficie de la placa
colectora. Para desprender al colector de las
partículas adheridas se realiza un golpeo cíclico
que provoca la caída del material a una tolva
inferior.
Fig. 1: EFECTIVIDAD DE CADA ETAPA EN LA
ELECTROFILTRACIÓN
Fig. 3: PROCESO DE CARGA-RECOLECCIÓN-DESCARGA DE LAS
PARTÍCULAS
La alta tensión que se le aplica a las placas
viene dada por un transformador elevador de
tensión y un circuito de control que regula de
manera automática y total el funcionamiento del
sistema dependiendo de las necesidades de
limpieza que este requiera. La tensión de
alimentación de las placas es continua utilizando
un puente rectificador de diodos para transformar
la corriente alterna del circuito de control en
corriente continua y de valor elevado.
El ciclo de limpieza no es lineal debido a que
presenta discontinuidades, que recaen y/o
dependen sobretodo de la carga de combustible
que tengamos en la caldera (que dará un volumen
o caudal proporcional de humos a tratar) y del
nivel de opacidad deseada (Nfinal), el cual es
fijado por las políticas medioambientales y que
depende de la tensión aplicada (V), de la opacidad
inicial (Ninicial), de la distancia entre el electrodo
y las placas (d), del tiempo de permanencia de los
humos dentro del campo eléctrico (t) o su
velocidad y del radio de la partícula (R) como se
muestra a continuación [14].
Es importante establecer la tensión correcta
aplicada para alcanzar el punto crítico de tensión,
en el cual, se produce la máxima descarga
eléctrica sin que se produzca la ionización
completa del aire, que provocaría la ruptura del
dieléctrico y por lo tanto un cortocircuito eléctrico
que perjudica la limpieza de los humos.
=
(1)
C. Lógica Fuzzy
Fig. 2: ESQUEMA ELÉCTRICO DE UN PRECIPITADOR
Esta tensión aplicada a los electrodos ioniza las
partículas sólidas en las que genera una carga
III Congreso de Cibernética
El control PID es una aproximación a una
función de control (desconocida) mediante la
minimización de un error a través de tres
parámetros básicos de la señal: P (proporcional);
el error actual, I (integral); los errores acumulados
y D (derivativa); la predicción de los errores
futuros o de cambio. A falta de conocimiento
sobre la función de control, esa es la aproximación
generalista propuesta.
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
Los sistemas de control borroso se basan en el
conocimiento del experto sobre el proceso. A falta
de conocimiento sobre la función de control,
intentan simular el conjunto de reglas que un
experto humano utiliza para mantener el proceso
bajo control. Para simular ese conjunto de reglas
utilizan términos lingüísticos graduados del
lenguaje natural modelizados mediante conjuntos
borrosos o fuzzy, que se caracterizan por un grado
de pertenencia de los elementos a un conjunto que
varía de forma continua de 0 a 1, y no tomando
únicamente valores discretos 0 y 1 que es la
característica básica de los conjuntos clásicos o
crisp.
Las reglas por las que se rigen estos sistemas
son del tipo “Si P es pequeño entonces Q es
grande”.
Con esto se consigue que las respuestas sean
más suaves al no tener que discriminar entre un
estado u otro, ya que cuando nos encontramos en
valores de entrada que están en la frontera entre
un nivel de salida u otro, puede hacer variar al
circuito de forma drástica, lo que puede generar
que, aún alcanzando el equilibrio buscado, esté
generando un sobre consumo al estar “saltando”
de un valor de salida a otro [21].
Con la lógica borrosa conseguimos suavizar
esos cambios en la variable de salida con lo que
conseguimos un mejor control además de ofrecer
una salida de forma más veloz y precisa.
Representa conceptos borrosos de las variables
pero que transmiten una información, aunque
imprecisa, con gran capacidad de resumir
información. El sistema de lógica borrosa se
compone generalmente de tres partes internas.
Una de ellas es el fuzzyficador, que transforma
las variables físicas del circuito a un valor
lingüístico entendible por el conjunto borroso y
asignándole un grado de pertenencia. Otra parte la
componen las reglas que delimitan los valores de
las variables de entrada y salida y la relación entre
ambas.
Por último nos encontramos el defuzzyficador,
cuya función es traducir las órdenes de los
elementos anteriores dadas en valor lingüístico a
un valor físico para que sean entendibles por el
resto del circuito, en nuestro caso el electrofiltro
[20].
III Congreso de Cibernética
3
Fig. 4: PARTES DE UN SISTEMA FUZZY
III. JUSTIFICACIÓN DE LA SOLUCIÓN
ADOPTADA
Se propone el uso de un sistema basado en
lógica borrosa ya que los electrofiltros, muy
comúnmente
utilizados
en
centrales
termoeléctricas y en cualquier proceso de
combustión que requiera limpieza de humos
emitidos, tienen un elevado consumo que puede
alcanzar los 35-55 kV dependiendo de las
dimensiones del volumen o caudal de gases a
limpiar a plena carga (o de la potencia de la
central termoeléctrica) y del número de placas y la
superficie colectora que posean.
El sistema actual de control se basa en
generación de impulsos que controlan el disparo
de los tiristores en el lado de baja tensión del
transformador, donde la corriente a tratar es
alterna y de bajo valor, permitiendo así que los
componentes de control no tengan que trabajar a
elevadas tensiones.
Durante el periodo en el que se alcanza el
régimen permanente de trabajo, que en una central
de combustión puede tratarse de varias horas, el
sistema es muy dinámico, produciendo altas
variaciones que serán mejor controladas por un
sistema basado en lógica borrosa que disminuirá
los saltos producidos en la variable de salida
provocando notables mejoras en la velocidad de
respuesta del sistema y disminuyendo de esta
manera notablemente la potencia consumida por
el sistema de electrofiltración de ceniza.
IV. DESCRIPCIÓN DEL SISTEMA
A. Variables de control
Como variables más importantes en este
proceso nos encontramos con: El volumen de
gases que pasarán por el campo de electrofiltros,
la opacidad obtenida de los humos a la salida de la
chimenea y la velocidad de disparo de los
tiristores. El volumen de gases será proporcional a
la carga de combustible que posea la caldera, por
ello utilizaremos esta segunda variable.
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
Nos encontramos con la variable de salida del
circuito que es el nivel de voltaje a aplicar en cada
momento y el cual controlaremos por la velocidad
de disparo de los tiristores. Esta salida dependerá
del nivel de carga en la caldera y de la opacidad
instantánea. Se le dará mayor peso en la creación
de las reglas para el funcionamiento del sistema a
la variable de opacidad instantánea ya que el nivel
de carga en caldera puede ser muy elevado
pudiendo tener un error mínimo entre el set point
u opacidad deseada y la opacidad real medida en
la salida de la chimenea. Además el sistema debe
responder rápidamente a los errores de opacidad
ya que esta define en mayor medida el nivel de
tensión a aplicar en cada instante. A continuación
vemos una tabla de doble entrada en la que
tenemos las dos variables citadas anteriormente y
como variable de salida la velocidad de disparo de
los tiristores [15]-[19].
4
El resultado de las reglas que unen las anteriores
variables y describen el comportamiento del
sistema es el mostrado a continuación donde
puede verse cómo varía la salida, representada por
una superficie, en función de las dos variables de
entrada:
Fig. 8: SUPERFICIE QUE RELACIONA LAS VARIABLES
Vemos cómo posee mayor pendiente la variable
opacidad, como se ha explicado anteriormente
tiene mayor impacto sobre la velocidad de disparo
que la carga en caldera debido a que el
combustible introducido en la caldera tardará un
tiempo en quemarse y por ello el caudal de humos
a limpiar no aumentará de forma instantánea
mientras que la opacidad medida es el valor
instantáneo dado en la salida de la chimenea [13].
Figura 5: TABLA DE RELACIÓN ENTRE VARIABLES
A continuación vemos la función de pertenencia
de las tres variables:
B. Cálculo de la función de transferencia del
electrofiltro
Para realizar la simulación de un electrofiltro en
Simulink es necesario realizar el cálculo de la
función de transferencia del electrofiltro. Dado el
circuito de la figura 2 se extraen las siguientes
ecuaciones:
Ecuación del lado de baja tensión y alta tensión:
= Ó
!
= !
(2)
+
+
!
"
(3)
"
Ecuación de la relación de transformación:
#
Figs. 6: FUNCIONES DE PERTENENCIA DE LAS DOS VARIABLES
DE ENTRADA
III Congreso de Cibernética
(4)
"
De unir las ecuaciones (1) (2) y (3) resulta:
Fig. 7: FUNCIONES DE PERTENENCIA DE LA VARIABLE DE
SALIDA
=
Ó
Ó
= = (5)
+
+
$%&'()&
)(*)*% +
!
(6)
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
$%&'()&
$&'(,-./&0(Ó.
= )(*)*% +
!
/( (%/* + 1 !
(7)
Siendo VALIMENTACIÓN=U sin (ωt) resulta la
ecuación:
$%&'()&
456 7
= )(*)*% +
/( (%/*
! $
+ 1!
(8)
7
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
% VELOCIDAD DE DISPARO
% CARGA CALDERA
ERROR DE OPACIDAD
Fig. 11: SEÑAL DEL CONTROLADOR BORROSO
C. Circuito simulado con Simulink
El circuito que controlará el sistema se
implementa con Simulink. Como set point del
sistema ponemos un 20% de opacidad deseada,
esta señal llega a un comparador que resta a este
valor el de opacidad que da el sensor. Este sensor
se rige por la fórmula expresada anteriormente (1)
ya que depende de la tensión aplicada y de la
opacidad instantánea. El resultado de esta
comparación es la señal de error de opacidad que
junto con el nivel de carga en la caldera
determinan las variables de entrada del
controlador borroso, el cual como hemos visto
antes con las reglas y las funciones de pertenencia
determina la velocidad de disparo oportuna en
cada instante. Esta señal de velocidad llega a un
actuador y posteriormente al electrofiltro, el cual
con el circuito visto anteriormente, el cual cumple
la ecuación 8, genera una tensión de salida. El
esquema se adjunta a continuación:
Fig. 9: CIRCUITO MODELADO EN SIMULINK
IV. CONCLUSIONES
OBTENIDOS
Y
RESULTADOS
Del circuito anterior obtenemos las siguientes
señales:
Asimismo e implementando el mismo sistema
anterior con un controlador PID obtenemos la
siguiente señal en el controlador ante la misma
entrada representada en la figura 10.
Fig. 12: RESPUESTA DEL CONTROLADOR PID
Podemos observar cómo para una misma señal
del comparador los sistemas responden y se
comportan de manera diferente.
El sistema PID (figura 12) presenta periodos de
establecimiento en la velocidad de disparo de
mayor valor así como sobre oscilaciones aunque
no demasiado grandes y además el rango de
trabajo es mucho mayor, teniendo valores de
velocidad de disparo desde el 0% hasta el 80%.
Esto se traduce en que la tensión de salida será
mucho más elevada en con el controlador PID.
Para los mismos valores de entrada el sistema
implementado con un controlador borroso
presenta una menor variación de la velocidad de
disparo, mucho más estable a lo largo del tiempo
y rápida a los cambios, teniendo un régimen de
trabajo desde el 0,05% hasta el 0,227%. Lo que se
traduce en un consumo mucho menor por parte
del electrofiltro.
Esto se traduce a un menor consumo de
potencia en los electrofiltros que veremos a
continuación:
Fig. 10: SEÑAL DEL COMARADOR
III Congreso de Cibernética
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
Fig. 13: COMPARATIVA DEL SISTEMA PID Y SISTEMA DIFUSO
En relación con las anteriores variables y para
los mismos valores vemos como el sistema
durante el arranque presenta mayores picos de
tensión en el sistema PID donde alcanza casi los 6
kV mientras que el sistema borroso no supera los
3 kV. Esto se traduce en una reducción del
consumo durante el régimen transitorio de
aproximadamente el 50% de potencia instantánea.
Respecto a la potencia media durante el régimen
transitorio tenemos que aproximadamente el
sistema borroso consume cerca de un 40% menos
de lo que consume el sistema PID.
En el régimen permanente ambos sistemas
presentan similares periodos de repetición de las
señales. La tensión media para un periodo es en el
controlador Fuzzy de 1,69 kV mientras que en el
sistema de control PID es de 8,29 kV. Esto
implica un ahorro del consumo de casi el 80%
durante el régimen permanente. Estos valores
están lejos del valor de tensión máximo instalado
en los electrofiltros (55kV) debido a que el error
de opacidad, del cual depende este valor, es muy
pequeño.
Como conclusión y según los datos anteriores
vemos como el nuevo sistema de control tiene un
consumo mucho menor tanto en régimen
transitorio como en régimen permanente. Además
no es tan brusco a los cambios, cumpliendo así
con lo pronosticado. Respecto a la velocidad de
respuesta esta es más o menos similar en ambos
sistemas de control. En el régimen permanente el
sistema borroso es capaz de trabajar casi 5 veces
menos obteniendo el mismo resultado lo que se
traduce en un menor desgaste de los componentes
(tiristores, electrodos, placas, transformador, etc.).
Con este sistema no se presentan mejoras respecto
a los intervalos de limpieza de los golpeadores ya
que estos tienen el mismo sistema de control por
temporizador [12].
En la actualidad en España el precio medio del
MWh es de 47,65 € (a día 19/05/2012 según
III Congreso de Cibernética
7
www.ree.es). Consumiendo un sistema actual de
limpieza electrostático unos 1 MWh para una
central térmica de 1.175 MWh de potencia
instalada, vemos que a plena carga consumen los
electrofiltros 47.65 € en una hora. Con el sistema
mejorado con un control borroso pasaremos a un
consumo de 0,24 MWh que traducido a euros son
11,57 € en una hora a plena carga. Aparte del
ahorro de 36,08 € cada hora que funcionen a plena
carga también vemos disminuido el porcentaje de
potencia que los campos de electrofiltros
consumen para la misma central anterior que con
el controlador borroso estaría rondando el 0,23 ‰
de la potencia total instalada en la central (muy
lejos del 1 ‰ en el que rondaba).
REFERENCIAS
[1] K. Darby (1981); Criteria for designing electrostatic
precipitators (pg. 191-200). Birmingham (England).
[2] Charles Eyraud (1993); Gas cleaning by electrostatic
precipitation. 6th World Filtration Congress. Lyon
(France).
[3] Daniel Golub (1987); Electroadsorption of bacteria on
porous carbón and graphite electrodes (pg 175-182)
(Israel).
[4] Trent Harkin (2012) Using multiobjective optimization
in the design of CO2 capture systems for retrofit to
coal power stations (pg 228-235) Melbourne
(Australia).
[5] K. Reijnen (1984); Gas cleaning at high temperatures
and high pressures (pg 81-111) (Netherlands).
[6] Ismael Prieto; Precipitadores electrostáticos utilizados
en
centrales
termoeléctricas.
Disponible
en
“http://ocw.uniovi.es/file.php/13/1C_C12757_0910/04
_GT08_Precipitador_electrostatico.pdf”.
[7]
Eliminación de partículas. Disponible en
“http://libros.redsauce.net/CentralesTermicas/PDFs/32
CT.pdf”.
[8]
Luis Cañadas Serrano (2008); Tecnologías de
depuración de partículas. Jornadas sobre tecnologías
aplicadas al sector energético. Disponible en
“http://www.uca.es/catedra/eon/actividadescatedra/jorn
adas_catedra/i_jornadas_catedra_eon_2008/02122008depuracion-de-particulas.pdf.”.
[9] James H. Tumer (1999). Precipitadores electrostáticos.
Disponible
en
“http://www.docstoc.com/docs/7866261/Cap%C3%A
Dtulo-3---Precipitadores-electrost%C3%A1ticos-(626kb-7-11-02)”.
[10]
Luciano Raúl Disante (2006). Precipitadores
electrostáticos.
Disponible
en
“http://www.frsn.utn.edu.ar/frsn/departamentos/mecani
ca/subircat/images/232/Precipitadores%20Electrostatic
os.pdf”.
Universidad de León. Paredes Menéndez. Simulación de un electrofiltro.
[11] Eliminación de partículas (parte III). Universidad de
Castilla
la
Mancha.
Disponible
en
“http://www.uclm.es/profesorado/jvillasenor/esp/contat
m/tema1-pto4.pdf”.
[12] Ángel Luis Orille Fernández. Centrales eléctricas
(1993). Universidad Politécnica de Cataluña.
[13] Antonio Moreno. Aprendizaje automático (1994).
Universidad Politécnica de Cataluña.
[14] Federico Dios Otín. Campos electromagnéticos
(1998). Escuela superior de Ingeniería de
Telecomunicaciones de Barcelona.
[15] Alicia Arce Rubio. Manual de Simulink (2009).
Escuela superior de Ingenieros de Sevilla.
Departamento de Ingeniería de sistemas y automática.
[16] José Ángel Acosta Rodríguez. Manual de introducción
a Simulink (2004). Universidad de Sevilla.
[17] Adolfo Anta Martinez. Matlab & Simulink (2000).
Universidad Pontificia Comillas. Departamento de
electrónica y automática.
[18] Henry Antonio Mendiburu Díaz. Gestión dinámica de
proyectos mediante lógica Fuzzy (2008). Foro
internacional de Voces Expertas para integrar
tecnología y negocios en un mundo global. (México).
Disponible
en
“http://www.liceus.com/cgibin/ac/pu/Gestion%20Proyectos%20mediante%20Logi
ca%20Fuzzy.pdf”.
[19] Andrés Rugeles Vargas. Diseño de un controlador
difuso a través de la herramienta Fuzzy de Matlab.
Disponible
en
“http://www.google.es/url?sa=t&rct=j&q=&esrc=s&so
urce=web&cd=1&ved=0CFQQFjAA&url=http%3A%
2F%2Frcientificas.uninorte.edu.co%2Findex.php%2Fi
ngenieria%2Farticle%2Fdownload%2F868%2F512&ei
=f0e5T_jaIYjDhAep0cHUCA&usg=AFQjCNGd9IyBl
STW5R5hBAaQgVlCribmg&sig2=dxzJRuknNy9fCTONgt5ybQ”.
[20] J. Galindo Gómez. Conjuntos y Sistemas Difusos.
Universidad
de
Málaga.
Disponible
en
“http://www.lcc.uma.es/~ppgg/FSS/FSS7.pdf”.
[21] Adolfo Rodríguez de Soto y Jorge Casillas. Control
Fuzzy (2008). Departamento de Ingeniería mecánica,
informática y aeroespacial. Universidad de León.
[21] Pedro Fernández Díez. Eliminación de partículas
(2008). Disponible en “http://libros.redsauce.net
/CentralesTermicas/PDFs/32CT.pdf”
III Congreso de Cibernética
7
CONSIDERACIONES PARA LA MODELACIÓN
SÍSMICA DE EDIFICACIONES
Javier Dı́az Lorca
Universidad de León
España
[email protected]
Abstract—Los grandes avances experimentados en los diversos
ámbitos cientı́ficos relacionados con el fenómeno sı́smico y su
tratamiento en las edificaciones, se encuentran claramente caracterizados por la incertidumbre inherente al propio fenómeno
sı́smico. A esta incertidumbre deben añadirse otras, que no por
menos determinantes deben ser obviadas, como son ; simplificaciones en los planteamientos analı́ticos, comportamiento de
los materiales, materialización de las construcciones, limitaciones
en los softwares utilizados y error humano, por citar algunas
de las más importantes. Un claro ejemplo de la diversidad
de criterios, fruto de esta incertidumbre, queda reflejado en
los diferentes planteamientos normativos existentes. El estudio
y tratamiento del fenómeno sı́smico en las edificaciones puede
ser considerado desde un punto de vista cibernético, tomando
como planta la edificación, como señal de entrada perturbadora
el sismo , como medios de control y actuación los sistemas de
disipación y absorción de energı́a estática y dinámica con los que
las modernas edificaciones pueden diseñarse, y como respuesta,
los esfuerzos y deformaciones . En este artı́culo se mostrará un
breve resumen de los factores de incertidumbre que caracterizan
el fenómeno sı́smico y se analizarán los principales mecanismos
de disipación y absorción de energı́a.
I. I NTRODUCTION
La modelación, diseño y construcción de las edificaciones
en zonas catalogadas de acción sı́smica se encuentran
sometidas a una gran problemática, resultado de la magnitud
en la incertidumbre del fenómeno sı́smico. Ya en una
edificación normal, sin fenómeno sı́smico, las acciones
externas que actúan sobre ella resultado de la climatologı́a
, deben ser cuidadosamente tratadas para conseguir un
eficaz equilibrio entre los esfuerzos que dichas acciones le
transmiten y la respuesta resistente que la estructura debe
alcanzar 1 . En la mayorı́a de códigos y normas 2 , dicha
problemática de incertidumbre se resuelve con la aplicación
de códigos de seguridad, resultando diseños en la mayorı́a de
los casos sobredimensionados, pero seguros ante la respuesta
a estas acciones.
No podemos comparar, en lo que a magnitud de esfuerzos
ser refiere , los transmitidos por el viento y nieve, con
los de un fenómeno sı́smico, es por ello que el nivel de
1 Código
Técnico de la Edificación , Documento Básico SE-AE.
la norma NCSE-02, se puede encontrar más información relacionada
con el tratamiento en las edificaciones de los coeficientes de seguridad según
la Norma Española.
2 En
aproximación que debe ser conseguido en la modelación,
requiere de una mayor exigencia , al objeto de hacer recaer en
los coeficientes de seguridad el mı́nimo protagonismo posible.
No existen dos terremotos, en lo que a señal sı́smica
de respuesta se refiere, ni dos edificaciones , en cuanto a
comportamiento resistente , iguales, es por ello que resulta
prácticamente imposible caracterizar de forma exacta un
fenómeno sı́smico para un proyecto concreto. Dos claros
ejemplos de esta dificultad los encontramos en México
(1985) y el Kobe-Japón (1995), donde las fuerzas sı́smicas
transmitidas a las estructuras sobrepasaron en una magnitud
tan elevada las previstas en su modelación, que tuvieron
que ser modificados todos los reglamentos y normativas. Ni
tal siquiera los poderosos software modernos, basados en
elementos finitos, son capaces de predecir con exactitud el
comportamiento estructural ante fenómenos sı́smicos.
Supongamos que partimos de una señal adecuada, lo cual
como se comentó anteriormente es prácticamente imposible
de conseguir, ¿ qué problemáticas tendrı́amos ?, en primer
lugar el material. La mayorı́a de las edificaciones están
construidas de hormigón armado. El hormigón armado es
un material que por su proceso de elaboración comportar
una gran diversidad entre los valores de sus propiedades
fı́sico - quı́mico - resistentes, utilizadas en el diseño y los
realmente conseguidos en obra. Un exhaustivo control en
todo el proceso de elaboración ayudarı́a a minorar estas
diferencias, no sin un importante encarecimiento , lo cual
le hace poco confiable a esta práctica. Además el hormigón
armado, por su naturaleza, es un material caracterizado por
un comportamiento resistentemente irregular , al fundamentar
su respuesta ante esfuerzos de tracción a la interacción dúctil
- frágil, según la cuantı́a conseguida y la disposición del
acero en su interior.
Otra importante problemática que me gustarı́a tratar, reside
en las diversas interacciones, existentes en una edificación.
Algunas de las principales interacciones que caracterizan las
edificaciones serı́an; interacción suelo-cimentación [8], [9] ,
columna- cimentación, columna-viga , y muro-marco. Sobre las interacciones anteriormente citadas recae gran parte
del comportamiento resistente y de deformación de un ed-
ificio, condicionando para un mismo fenómeno, respuestas
que pueden ir desde el comportamiento elástico al colapso,
pasando por un comportamiento plástico, que suele ser el
deseado.
Una fase esencial en el proceso de diseño, es la estrategia
de cálculo utilizada. En el libro [2], se desarrollan los
principales métodos de cálculo sı́smico tradicionales ,
adentrándose en los más modernos basados en el balance de
energı́a, ası́ como el planteamiento de soluciones estructurales
innovadoras. Una tendencia común, aceptada en la mayorı́a
de las normas internacionales, es el empleo de modelos
simplificados para el estudio de estructuras, si bien éstas
deben cumplir una serie de requisitos ; limitación de alturas,
regularidad geométrica en planta y elevación, uniformidad de
rigidez en cada planta ası́ como entre las distintas plantas de
la edificación, excentricidad limitada entre el centro de masas
y torsión y regularidad mecánica, por citar las principales. El
factor determinante a la hora de plantear un análisis sı́smico
reside, debido a su dificultad, en conseguir el comportamiento
plástico de forma que no se llegue al colapso de la estructura
, evitando la pérdida de vidas humanas y ocasionar daños
estructurales asumibles económicamente. En [3] se lleva a
cabo un interesante tratamiento del análisis sismorresistente en
edificios, donde a un amplio planteamiento teórico analı́tico
del fenmeno, se acompañan los programas de modelación
bajo el software SAP 2000.
Termino esta introducción haciendo referencia a uno de
los aspectos estructuras que dı́a a dı́a esta cobrando mayor
importancia y donde se centran actualmente la mayorı́a de las
investigaciones, los disipadores de energı́a. La totalidad de la
energı́a que entra en una edificación a causa de un fenómeno
sı́smico, es transformada en Energı́a de Edificación, Energı́a
Potencial, Energı́a Cinética y Energı́a Adicional. Los diseños
conservadores se fundamentan en priorizar la Energı́a de
Edificación sobre el resto , representando alrededor del 97%
del total. De esta forma los mecanismos que el edificio debe
activar para absorber y disipar la energı́a son principalmente
su inercia y su masa. La participación en la ecuaciones de
energı́as, de las Energı́as Potencial y Cinética, tiene especial
importancia entre los segundos 2 y 12 segundos del fenómeno
3
. Si la edificación se encuentra en una ubicación sı́smica
caracterizada por sismos de larga o mediana duración (
80-60 segundos) , y no disponemos de medios de disipación
alternativos, es el edificio el que soporta el 100% de la
energı́a a partir del segundo 12, con bastante probabilidad
de colapsar. Es por ello que en zonas donde se caracterizan
sismos de larga duración, deben disponerse en el diseño
sistemas de disipación de energı́a.
January 1, 2012
II. LA ENTRADA: SE ÑAL S ÍSMICA
Seguramente el factor de incertidumbre más determinante
de todos es la señal sı́smica. La determinación de las cargas
en una estructura ubicada en zona no sı́smica se lleva a cabo
con relativa fiabilidad conociendo su ubicación geográfica.
Los registros oficiales de viento y nieve nos permiten modelar
las acciones con gran exactitud, limitándose la aplicación de
coeficientes de seguridad a pequeñas incertidumbres, debidas
principalmente al error en la repetitividad de los fenómenos
y a los propios materiales.
Existen tres métodos para el tratamiento y modelación de la
señal sı́smica a utilizar en una modelación de una estructura,
anı́lisis por Tiempo Historia , anı́lisis por Espectro de
Respuesta y análisis estático. El cálculo directo Tiempo
Historia mediante registro por acelerogramas nos da la
respuesta aceleración versus tiempo, de un sistema sometido
a un determinado terremoto.
Fig. 1.
Acelerograma tı́pico
Para poder proyectar una estructura eficazmente mediante
el uso de señales Tiempo Historia, necesitarı́amos una gran
cantidad de registros caracterı́sticos de la zona objeto de
estudio, implicando un esfuerzo de cálculo enorme, justificado
exclusivamente para estructuras de gran responsabilidad y
singularidad. La solución pasa por modelar bajo la condición
de Espectros de Respuesta. Dentro de los Espectros de
respuesta utilizados en los diseños, existe una clasificación
condicionada por el método de modelación elegido, ası́, están
los llamados Espectros de Respuesta Elásticos y los Espectros
de Respuesta Ineslásticos adoptados por los distintos códigos.
mds
3 En [10], pag 93-96, se muestran unos interesantes gráficos resultado del
trabajo de investigación, donde se puede apreciar la distribución de energı́a
sı́smica. En todos ellos se observa el importante papel disipador protagonizado
por la Energı́a Potencial y Cinética durante los primeros 12 segundos del
sismo.
Fig. 2.
Ejemplo de Espectros de respuesta adoptados por diversos Códigos
Los Espectros inelásticos son obtenidos a partir de los
elásticos, una vez se aplican unos coeficientes reductores
de respuesta, a través de los cuales obtenemos las fuerzas
sı́smicas probables para un edificio, con capacidad de
alcanzar comportamiento plástico, de forma que se causen
daños estructurales y económicos asumibles .
de criterios en la aplicacin de estos importantes coeficientes
realizados en cada norma y lo trascendente de su repercusión
sobre el proyecto final.
III. LA PLANTA : EL EDIFICIO Y CONDICIONES DE
CONTORNO
A. EL EDIFICIO
Un Espectro de Respuesta Elástico, para una determinada
región, representan la envolvente de los valores máximos
de respuesta para un conjunto de sismos similares a los
esperables en dicha región , según diferentes periodos de
vibración. El método de cálculo llevado a cabo con estos
espectros es conocido como análisis modal espectral.
Resulta especialmente interesante centrar la atención, en
los ya mencionados coeficientes reductores de respuesta,
abreviados en la mayorı́a de normas con la letra R. La
responsabilidad en la determinación de estos coeficientes
por parte del proyectista es muy alta, yo dirı́a la mayor
del proyecto. Es por ello que la decisión en muchos casos
adoptada, puede ser derivada de una postura radicalmente
conservadora o arriesgada , sin tener capacidad de discernir de
la pertinencia de los valores que aplica o sin conocer muchas
veces lo adecuada de la respuesta del edificio proyectado.
El objeto de interés, nuestra Planta, en un análisis sı́smico
está conformado por la edificación y sus condiciones de
contorno. Como edificación debemos entender todos y cada
uno de los elementos estructurales que la constituyen ası́
como su particular disposición en planta y altura, y como
condiciones de contorno la interacción suelo estructura y
edificaciones próximas, en caso de que el sismo pueda
motivar la colisión con ellas.
La habilidad del proyectista reside en diseñar los elementos
estructurales con el nivel de eficacia resistente compatible
con las deformaciones admisibles dentro de una cantidad de
trabajo estructural admisible. Al objeto de comprender y en
que medida los factores de diseño participan en la respuesta
sı́smica del edificio, nada mejor que analizar cada uno de
los miembros de la ecuación de equilibrio diámico del sistema:
[M ][v̈(t)] + [C][v̇(t)] + [K][v(t)] = [P (T )]
Conocedores de este importante dilema, el tratamiento que
ya se hace desde las diversas normas es muy variado. Ası́ la
norma Española, NCSE-02, admite una postura conservadora,
utilizando métodos elásticos de proyecto sismorresistentes
basados en resistencias, es decir, en espectros elásticos donde
se prioriza como respuesta la absorción a la disipación de
energı́a. Seguramente el moderado carácter de la actividad
sı́smica de nuestro Paı́s admita este planteamiento , pero en
otros Paı́ses de marcada actividad sı́smica; Perú, Ecuador,
Colombia, Japón y Venezuela,4 por citar algunos, este tipo de
planteamientos serı́an inviables económica y técnicamente.
Existen multitud de interesantes trabajos llevados a cabo
por prestigiosos investigadores al objeto de diseñar un método
de cálculo de los coeficientes reductores de respuesta. Sirva
como resumen de todos ellos el estudio llevado a cabo
por [6]. Algunos de los factores a la hora de considerar el
valor del coeficiente reductor R son ; las irregularidades en
planta y en elevación. En [1], se lleva a cabo un exhaustivo
estudio para el cálculo del coeficientes reductores sobre la
consideración de estos factores.
Concluyo este apartado, citando a [7], donde se hace un
interesante estudio comparativo en relación a la aplicación del
coeficiente reductor en las principales normativas sismorresistentes ; Eurocódigo 8, UBC 97, IBC 2003, NZBC Japanese
Building Standard Law 2004, NCSE-02 y Norma CONVENIN
1756-98, donde como conclusión final destaca la diversidad
4 Perú
E.030-2006, Ecuador CEC.2000-2000,Colombia NSR.98-1998 y
Venezuela COVENIN 1756.98-2001
(1)
La ecuación que acabamos de indicar representa la ley
dinámica de sistemas con múltiples grados de libertad bajo
cargas generales.
El primer término valora la respuesta como fuerza inercial,
que toda masa genera ante una acción de aceleración externa
que trata de desplazarla en un determinado sentido. Los
métodos de estudio aplicados en prácticamente todas las
normas, admiten la simplificación de la edificación por
masas puntuales, de forma que la masas , desglosada por
pisos, es concentrada en el centro de masas de cada planta.
El proyectista, en coordinación con los responsables de
materializar el proyecto, debe distribuir las masas por planta,
de forma que en un margen muy limitado, todas los centros
de masas deben ser coincidentes en la misma vertical,
reduciendo con ello los cortantes por torsión en las plantas
del edificio. Los forjados deben modelizarse como diafragmas
rı́gidos, de forma que los grados de libertad por planta
quedan reducidos a tres, los dos contenidos en el plano de
la planta y el giro sobre eje vertical a ella. Además, las
fuerzas de inercia que el terremoto induce en cada forjado de
la estructura están aplicadas en el centro de masas de dicho
forjado, como se indicará más adelante cuando hablemos de
rigidez. Si alguna fuerza de inercia que actúa por encima de
un determinado forjado no pasa por el centro de esfuerzos
cortantes de dicha planta, inducirá en ella esfuerzos de torsión.
Es muy importante destacar la diferente condición de
colapso que representan sobre la estructura los esfuerzos
cortantes y flectores. Los esfuerzos flectores se caracterizan
por un colapso dúctil, mientras los cortantes lo hacen en
colapso frágil, y por tanto indeseable, por lo cual debemos
conseguir en el diseño de la estructura, minimizar al máximo
los esfuerzos cortantes secundarios fruto del diseño y/o
construcción imperfecta.
El segundo término representa el amortiguamiento de la
estructura. Si la edificación careciera de amortiguamiento,
ésta, una vez excitada, osciları́a indefinidamente con su
frecuencia natural y amplitud constante al representar un
sistema conservativo. El amortiguamiento trata de disipar
energı́a , ası́ la presencia de estas fuerzas conforman un
mecanismo por el cual la energı́a mecánica del sistema,
energı́a cinética y potencial, se transforman en calor.
Tal vez por comodidad de cálculo, el amortiguamiento en las
edificaciones adopta un planteamiento basado en el mecanismo
de disipación viscosa, al igual que las fuerzas de fricción
producen sobre un cuerpo 5 . En este sentido, debemos diferenciar entre estructuras sobreamortiguadas, con amortiguamiento
crı́tico y subamortiguadas. El amortiguamiento crı́tico viene
dado bajo la expresión
√
(2)
Ccr = 2 km
Siendo k la rigidez y m la masa de la estructura. En las
estructuras con amortiguamiento crı́tico y sobreamortiguadas,
la magnitud del desplazamiento decrece exponencialmente
sin oscilación en el tiempo, hasta hacerse cero, mientras que
en las subamortiguadas esta reducción del desplazamiento
es oscilatoria con amplitud de vibración descendente y
no periódica, manteniendo las oscilaciones en intervalos
de tiempo iguales. En las estructuras reales, el valor del
coeficiente de amortiguamiento es considerablemente menor
que el amortiguamiento crı́tico, fluctuando generalmente
entre un 2% y un 20%, de este valor. La consideración
del amortiguamiento en el estudio del problema sı́smico,
lo complica considerablemente. El amortiguamiento, debido
a su reducido valor en las estructuras reales, no afecta
prácticamente a la frecuencia natural y modos normales, por
lo que puede despreciarse para su cálculo 6 .
Fig. 3.
por ejemplo, el método de integración paso a paso 7 , utilizado
en caso de un sistema no lineal.
El tercer término de la ecuación de equilibrio dinámico,
tal vez sea el más amigable y cercano, por cuento
representa la fuerza de oposición al desplazamiento que
un elemento manifiesta en función de su rigidez. En
todos los planteamientos analı́ticos que se hacen del problema
dinámico, se representa mediante un resorte con una constante
de rigidez [K], cuyo valor viene dado por la relación entre
la magnitud de la fuerza aplicada y el desplazamiento
resultante. Existen tres tipos de resorte 8 , duro , lineal y
blando. Independientemente que podamos suponer que el
comportamiento de una estructura se corresponda con uno
u otro tipo de resorte, lo limitado de la magnitud de los
desplazamientos de las estructuras dan lugar a que en todos
los casos se idealice su comportamiento a una caracterı́stica
lineal , común para todos ellos.
Fig. 4.
Concluye [3], en su capı́tulo 12, con una interesante apunte
en base a la cual se justifica el empleo o no del término de
amortiguamiento en la expresión del equilibrio dinámico del
sistema, “ sabiendo que en la mayorı́a de las estructuras las
amortiguaciones modales están en intervalos de 2% al 10
%, y tomando en consideración el tipo de estructuras y los
materiales empleados , podemos dar valores a las razones
de amortiguamiento modales. ” . Con estas razones calculamos la matriz de amortiguamiento [C],la cual se necesita
explı́citamente cuando la respuesta dinámica se obtiene por
algún procedimiento analı́tico distinto de superposición modal,
5 En [3] capı́tulo 2, se lleva a cabo un detallado estudio del comportamiento
estructural de los sistemas con amortiguamiento.
6 En [3] captulo 12, se tratara el estudio analı́tico de un edificio simple con
amortiguamiento
Efecto del amortiguamiento sobre vibración libre
Tipos Resorte K: (a) duro, (b) lineal y (c) blando
De todos los términos presentes en la ecuación del
equilibrio dinámico de una estructura sometida a fenómeno
sı́smico, la matriz de rigidez [K], es común a cualquier
estructura, esté o no sometida a fenómeno sı́smico. Un
término ki,j , de esta matriz representa la fuerza que es
necesario aplicar en el grado de libertad i, para provocar
una deformación según la dirección del grado de libertad j,
manteniendo el resto de grados de libertad nulos. Su valor
depende de los módulos de elasticidad (Ei ), inercias (Ii ),
condiciones de contorno y longitud (Li ) de los elementos
estructurales que componen la edificación. Como se comentó
7 Para comprender mejor este método de cálculo , se puede consultar [3]
captulo 6, y más concretamente el punto 6.4
8 ver capı́tulo 1, [3]
anteriormente, la modelación de las plantas en los edificios
con fenómeno sı́smico se define mediante diafragmas rı́gidos,
de forma que los elementos de las matriz de rigidez estarán
compuestos, por rigideces a la torsión y rigideces laterales.
El proyectista, en la distribución de las rigideces , debe
conseguir que los centros de masas y los centros de rigidez
estén lo más próximos posibles, reduciendo los esfuerzos
secundarios debido a cortantes adicionales en los pilares a
causa de la torsión, limitando con ello los esfuerzos y las
deformaciones a valores admisibles según la norma aplicada.
Otro aspecto que debe considerarse a la hora de analizar
la rigidez de una edificación es lo que se conoce como
fenémeno P − ∆ 9 . A efectos prácticos, el fenómeno P − ∆,
condiciona la necesidad de proveer a la edificación de una
reserva de rigidez lateral. Su importancia puede llegar a
suponer, si la reserva inercial no es suficiente en el diseño de
la edificación, el colapso irreversible durante la fase plástica
de deformación, en la cual sabemos que se diseñan la mayorı́a
de las edificaciones modernas.
La parte derecha de la ecuación de equilibrio dinámico
de la estructura [P(T)], representa las fuerzas inducidas al
sistema mediante la señal sı́smica , tema que ya fue tratado
en el apartado anterior.
B. CONDICIONES DE CONTORNO
En la mayorı́a de las modelizaciones de edificaciones
sometidas a fenómenos sı́smicos, los puntos de contacto de la
edificación con el suelo a través de la cimentación se definen
como empotrados. Apenas existen normas donde se considere
la flexibilidad del suelo, y con ello los importantes efectos
que sobre los periodos, frecuencia y formas de vibración
representan, y consecuentemente, sobre la magnitud de las
fuerzas sı́smicas. Este ámbito de trabajo representa una de
los mayores focos de interés para los investigadores en la
actualidad, postulándose como uno de los campos de mayor
evolución en el futuro inmediato 10 .
Como quedo reflejado en el Abstract, uno de los objetivos
de este trabajo consiste en dejar en evidencia los principales
focos de incertidumbre en material de modelización del
fenómeno sı́smico, es por ello que podemos considerar la
interacción suelo estructura y el tratamiento que de ella se
hace en las principales normativas, como uno de los mayores
ámbitos de incertidumbre del problema. Un tratamiento con
rigor en relación a este asunto requerirı́a un trabajo exclusivo.
Invito a la lectura de [8] y [9], para comprender el alcance
de mis afirmaciones. En estos trabajos, el autor, sobre la
modelización de ejemplos , refleja la diversidad de resultados
en esfuerzos y desplazamientos, en relación a considerar o no
el efecto interacción. Sirva a modo de resumen indicar que,
9 En
[2], pag 290, se hace un estudio detallado de este fenómeno.
[8] cap. 1, se puede analizar el gran reto investigador que queda por
delante en materia relativa a la modelización suelo - estructura.
10 En
como concluye el autor, la consideración de la flexibilidad de
la cimentación a causa de la modelización con la interacción
suelo-estructura, supone por ejemplo, bajo análisis espectral y
sismo a 0o , un aumento de los desplazamientos de las plantas
de un 28%, una reducción de las fuerzas axiales de hasta un
24%, una reducción de las fuerzas cortantes de un 17% y
una reducción de momentos flectores de un 5%, en relación
al modelo empotrado de rigidez infinita .
Los modelos de interacción en base a los cuales el autor
[8] y [9] lleva a cabo su análisis son ; BARKAN, LLICHEV,
SANGSIAN y NORMA RUSA, y como puede ser observado
en las conclusiones del trabajo, las diferencias en cuanto a
los resultados entre los propios modelos puede llegar a ser
significativa, incidiendo en la idea de incertidumbre a la cual
me referı́a al inicio .
IV. LA RESPUESTA: ELEMENTOS DE ABSORCI ÓN
Y DISIPACI ÓN
Las estructuras deben diseñarse con la resistencia suficiente
para que sea capaz de desarrollar las fuerzas restauradoras
que neutralicen las fuerzas inerciales ocasionadas por el
fenómeno sı́smico. Cuando utilizamos un Espectro Elástico
figura 2, como señal de entrada, se asume que estas fuerzas
restauradoras deben limitarse a el rango elástico y lineal. Si
la respuesta de la estructura, a causa del valor de las fuerzas
inerciales, supera este lı́mite elástico, el rango del valor de
las fuerzas respuesta, a partir de este momento, adopta una
tendencia constante, independientemente de qué valor adopten
las fuerzas inerciales, por lo que la fuerza como parámetro
deja de ser adecuado para caracterizar la respuesta resistente.
Fig. 5.
Sistemas de respuesta lineal y respuesta elasto-plástica
Los métodos de proyecto basados en una caracterización de
la acción sı́smica mediante fuerzas obtenidas en un sistema
elástico, como lo es el método análisis modal espectral ,
se corresponden con los pioneros códigos sı́smicos surgidos
durante la década de los años 20. El primer código sı́smico se
implantó en Japón 11 , basado en modelización de las fuerzas
sı́smicas como un porcentaje del peso de la edificación . El
11 A raı́z del gran trauma social que supuso el terremoto de Nobi , Japón
en 1891, con un total de 7000 muertos, Japón desarrolló en 1924 el primer
Código Sı́smico del mundo , ” Código de Construcción Urbana”.
Terremoto de Tokachi-oki 1969, marco un punto de inflexión
importante en la concepción de la modelización sı́smica
de las edificaciones en Japón, al observar la diversidad de
comportamiento resistente que habı́an manifestado edificios
calculados con los mismos códigos y parámetros, bajo las
mismas condiciones estructurales y de contorno. Este hecho
motivó la orientación del problema sı́smico hacia el estudio
del comportamiento dúctil de los edificios, considerando
seriamente la ductilidad como nuevo parámetro a intervenir
en la ecuación de equilibrio dinámico del fenómeno sı́smico.
En 1957, se introdujo en EE.UU en el Código del SEAOC (
Structural Engineers Association of California) el concepto
de ductilidad.
Actualmente está reconocido, por toda la comunidad
cientı́fica, la inviabilidad económica para diseñar edificios
que mantengan una respuesta exclusivamente en rango
elástico ante un fenómeno sı́smico severo. Los métodos de
diseño elásticos basados en resistencia, todavı́a actualmente
utilizados aunque con importantes limitaciones, no permiten
modelizar soluciones sismorresistentes avanzadas, tales como
el empleo de disipadores de energı́a , aislamiento de base ,
etcétera.
Es de esperar en un futuro próximo, la irrupción de grandes
logros en la investigación sismorresistentes, que proporcionen
nuevas herramientas fiables de diseño con objeto de garantizar
un mejor comportamiento por desempeño de las edificaciones
12
.
La energı́a descargada por un fenómeno sı́smico, debe
ser absorbida y dispersada por la edificación (la planta ).
Básicamente existen dos métodos de diseño a la hora de
dar tratamiento a la energı́a entrante; métodos basados en
conferir a la estructura la rigidez y resistencia necesaria
para absorber y disipar la energı́a bajo un comportamiento
lineal de sus elementos constituyentes, y métodos basados en
alcanzar, en parte de sus componentes, un comportamiento
plástico localizado. A su vez, en este segundo método,
podemos encontrar dos técnicas de trabajo; definir los
elementos básicos resistentes de una estructura, pilares y
columnas, de capacidad inelástica localizada o complementar
esta capacidad inelástica con elementos suplementarios
expresamente diseñados para ejercer una función absorbente
y disipadora de energı́a. La ecuación que gobierna el
comportamiento energético de un edificio bajo el efecto
dinámico de una acción perturbadora externa, está definida
de la siguiente forma:
E = Ek + Es + Eh + Ed
(3)
12 En [10] se lleva a cabo un interesante trabajo de investigación en relación
a los Sistemas Pasivos de disipación de energı́a en las edificaciones, dando
un tratamiento teórico y matemático de ellos, donde ya de deja en evidencia
mejoras importantes en la respuesta sismorresistentes de los edificios provistos
de estos tipos de técnicas
siendo, E, la energı́a total entrante en el sistema,Ek , la
energı́a absoluta cinética ,Es , energı́a de deformación elástica
recuperable, Eh , energı́a irrecuperable disipada por el sistema
mediante su capacidad inelástica fundamentalmente y Ed , la
energı́a disipada por elementos disipadores suplementarios
en caso de su existencia. A través del aislamiento sı́smico,
reducimos la energı́a entrante, limitando con ello los
requerimientos en resistencia y rigidez por parte de la
estructura, llegando incluso a evitar la respuesta inelástica
y con ello los grandes daños y costos en reparación. La
capacidad de absorción por aislamiento está limitada por
energı́a, con lo cual el factor tiempo es determinante , por
tanto, en sismos de larga duración , la edificación debe
proveerse de dispositivos suplementarios para colaborar
con la estructura en la disipación y absorción de energı́a,
y con ello limitar los importantes daños que en esta
situación pueden llegar a producirse. Para esta función
de aislamiento y absorción suplementaria disponemos de
cuatro técnicas; sistemas activos, pasivos, semiactivos e
hı́bridos. Centrándonos en los sistemas pasivos , utilizados
mayoritariamente en la actualidad, los principales serı́an, los
histéricos y los viscoelásticos [4].
Es obligado hacer una breve referencia a los Sistemas
Activos, Semi-Activos e Hı́bridos.
Los sistemas activos contrarrestan los efectos del sismo
directamente mediante actuadores. La gran demanda de
energı́a requerida para estos sistemas ante un sismo severo y
la complejidad de sus algoritmos de control, los convierte en
sistemas poco robustos .Los sistemas hı́bridos y semiactivos,
surgen ante la necesidad de dar respuesta en una banda
amplia de frecuencias con menor consumo energético. Los
sistemas hı́bridos son muy similares a los activos, pero
se complementan con la intervención de sistemas pasivos
que permiten reducir la elevada demanda energética de
estos. Los semiactivos, emplean dispositivos pasivos, sin
consumo energético, permitı́endoles modificar sus propiedades
resistentes controlandolas en tiempo real mediante actuadores
con bajo consumo energético .
En [5], se lleva a cabo un completo estado del arte relativo
a los Sistemas Activos, Semi-Activos e Hı́bridos. Se muestran
a continuación unos sencillos esquemas donde se comparan
los elementos esenciales que conforman un sistema de control
convencional, pasivo y activo.
Fig. 6.
Estructura convencional de respuesta sı́smica
ocasiones las decisiones por parte del proyectista tiendan a
orientarse a posturas conservadoras, sin suponer garantı́a real
de seguridad en el diseño.
Fig. 7.
Estructura pasiva de respuesta sı́smica
Fig. 8.
Estructura activa de respuesta sı́smica
Las principales ventajas de los sistemas activos sobre los
pasivos residen en su mayor efectividad y menor sensibilidad
a las condiciones locales del suelo, caracterizadas en la
interacción suelo estructura. Los Sistemas Activos presentan
algunos inconvenientes que en muchas ocasiones los hacen
inviables en las edificaciones modernas como son su elevado
coste y dependencia de las fuentes de alimentación energética
del edificio. Su control a través de múltiples sensores y
actuadores plantea un serio problema de dinámica compleja,
que debe ser tratado con complicados algoritmos difı́ciles
de aplicar ante una situación real. Las principales lı́neas
de investigación actualmente se concentran en este tipo de
dispositivos, estudiando su mejor tratamiento a situaciones
reales de forma práctica y económica.
V. CONCLUSIONES
El presente artı́culo ha tratado de mostrar de forma genérica,
los elementos básicos que han de ser considerados a la hora
de afrontar el diseño y proyecto de un edificio susceptible
de experimentar la acción de un fenómeno sı́smico. El grado
de certidumbre que con el diseño a través de los sistemas
tradicionales de modelación de edificaciones sı́smicas se
consigue, está en relación inversa con la adecuación de
respuesta ante el daño y el comportamiento estructural
resistente.
A nivel normativo, el grado de diversidad en el tratamiento
de los distintos aspectos que gobiernan el proyecto de una
edificación sometida a fenómenos sı́smico, muchos de los
cuales han sido tratados en este artı́culo, no hacen más
que dejar en evidencia la disparidad de criterio y gran
desconocimiento que todavı́a existe sobre el fenómeno. La
responsabilidad en las decisiones, de forma especialmente
destacada, recaen en los proyectistas , quienes deben
interpretar las normativas para conseguir edificaciones
capaces de dar una respuesta resistente y eficaz de los
edificios, todo ello a un coste asumible. Este compromiso y
el grado de incertidumbre existentes , motivan que en muchas
Existe un gran panorama investigador en muchos de
los distintos ámbitos que rodean el fenómenos sı́smico y
las edificaciones a él sometidas. Yo me quedarı́a, como
principales ámbitos de investigación, con la mejora de los
dispositivos de control y tratamiento de la señal sı́smica,
la modelización de sistemas interacción suelo estructura,
que como queda mencionado en el artı́culo , son varios las
teorı́as existentes en este sentido pero dispares en resultados
cuando se aplican en un modelo [8] y [9]. Como último
punto de interés relativo a la investigacón, querrı́a destacar
los dispositivos y sistemas de absorción y disipación de
energı́a. He pretendido , espero haberlo conseguido, al tratar
este tema, dejar en evidencia el carácter cibernético que la
disposición de dispositivos disipadores de energı́a representa
en las estructuras. Seguramente este último tema representa
en la actualidad los mayores esfuerzos investigadores del
fenómeno, y que mejor que concluir el artı́culo fusionando
los conceptos cibernético e investigación dada la coyuntura
en la que el artı́culo ha sido elaborado
R EFERENCES
[1] Aguilar Falcon R., Análisis Sı́smico de Edificios, Ed. Centro de Investigaciones Cientı́ficas , Escuela Politécnica del Ejercito, pg 33-61, 2010.
[2] Benavent Climent, A. 2010., Estructuras Sismorresistentes, Ed. Maia,
2010.
[3] Paz , M. and William L. 2003, Structural Dynamics : Theory and
Computation. 5ł ed , Ed. Kluwer Academic Publishers, 2003.
[4] Shin, J.,2008, Seismic Desing of Structures with Viscous Dampers International Trainning Programs for Seismic Design of Buildings Structures.
NCREE-NSC,USA.2007.
[5] Spencer, R.J.and Soong, T.T.(1999), New Aplications and Development of
Active, Semi-Active and Hybrid Control Techniques for Seismic and Non
Seismic Vibration in the U.S.A, Proceeding of International Post SMIRT,
Conference Seminar on Seismic Isolation, Passive Energy Disipation and
Active Control of Vibration of Structures , Cheju, Korea, 1999.
[6] Ulloa L. and Santana G. 2004, “Código Sı́smico de Costa Rica Versión
2002, Factores de Reducción de Resistencia por Ductilidad, Revista
Ingenierı́a. Universidad de Costa Rica”. 4(1,2),15-30 , San José de Costa
Rica.
[7] Vielma Pérez, J.C. 2008, Caracterización del Comportamiento Sı́smico
de edificios de Hormigón Armado Mediante la Respuesta No Lineal, Ed.
Universidad Politécnica de Cataluña,Cap 4 pg 62-78, 2008.
[8] Villarreal Castro, G. 2006, Interacción Sı́smica Suelo-Estructura en Edificaciones con Zapata Aislada, Ed. Escuela Ingenierı́a Civil Universidad
Privada de Antenor Orrego ( UPAO), Perú.
[9] Villarreal Castro, G. 2007, Interacción Suelo-Estructura en Edificios
Altos, Ed. Escuela Ingenierı́a Civil Universidad Privada de Antenor
Orrego ( UPAO), Perú.
[10] Villarreal, G. and Oviedo,R. 2009, Edificaciones con Disipadores de
Energı́a, Ed. Escuela Ingenierı́a Civil Universidad Privada de Antenor
Orrego ( UPAO), Perú.
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
1
Evolución de los sistemas de supervisión del
desgaste de las herramientas de corte.
Heras, Álvaro.
[email protected]
Universidad de León
Resumen— El
estado de una herramienta de
corte es un factor importante a tener en cuenta en cualquier
proceso de mecanizado, al igual que los costes adicionales que
se producen por los componentes desechados, la rotura de la
máquina y los tiempos de inactividad no programados de la
herramienta en uso. Se han desarrollado varios métodos y
dispositivos de supervisión de los niveles de desgaste en la
herramienta de corte durante su funcionamiento, con el fin de
reducir los costes anteriormente mencionados. Este trabajo
presenta una revisión de algunos de los métodos más
importantes que se han empleado en la vigilancia de las
condiciones de la herramienta, prestando especial atención a
la forma en que las señales recogidas por los sensores se han
aprovechado y utilizado en el desarrollo de los sistemas de
vigilancia de las condiciones de la herramienta (TCMSs).
Índice de Términos—Desgaste de la herramienta,
fuerzas de corte, emisión acústica, temperatura de la
herramienta, supervisión del proceso.
I. INTRODUCCIÓN
Las industrias manufactureras han logrado un
ahorro de costes y mejoras de la productividad con
la creación de fábricas mínimamente tripuladas.
En los procesos de fabricación que implican
operaciones de corte de metales, como es el caso del
mecanizado automático con máquinas de control
numérico computado, se han concentrado en los
procedimientos de cambio de herramientas cuando
fuera necesario. Entre finales de los 80 y principios
de los 90 se ha observado un cambio de la vieja
práctica de cambiar las herramientas de forma
periódica, a la viabilidad usar los procedimientos
basados en el control del desgaste en los bordes de
corte de la herramienta a través de la
implementación de mecanismos de de inspección de
la adaptación o desgaste de la herramienta.
Premio Colombiano de Informática ACIS 2011
Tradicionalmente, una herramienta se cambiaba
para satisfacer los nuevos requisitos del proceso
(por ejemplo, diferente geometría de la herramienta
o distinto material) o para satisfacer un tipo de corte
(desbaste, acabado y perfilado).
En la actualidad se realiza una compleja
supervisión del estado de la herramienta para
determinar el momento óptimo de desgaste en el
que esta debe ser cambiada y aprovechar de esta
forma su vida útil al máximo. La razón de esto es
principalmente debido a que el desgaste de la
herramienta es un fenómeno complejo que se
manifiesta de formas diferentes y variadas, y es por
ello que si se cambia la herramienta de forma
periódica, alguna veces puede que se haya
desgastado más de lo deseado, y otras veces puede
que nos deshagamos de ella en buenas condiciones.
II. FORMAS DE DESGASTE DE LA
HERRAMIENTA DURANTE EL CORTE DE
METALES.
El desgaste de la herramienta de corte se puede
clasificar de varias formas:
• Desgaste
adhesivo:
asociado
a
la
deformación del plano de corte.
• Desgaste abrasivo: por partículas duras en la
acción de corte.
• Desgaste por
fricción:
que ocurren a
temperaturas elevadas.
• Fractura: se pica o rompe debido a la fatiga.
Los procesos de desgaste de las herramientas
ocurren en combinación con el modo de desgaste
predominante, el cual depende de las condiciones de
corte, la pieza de trabajo, el material de la
herramienta y la geometría de la herramienta.
Para una herramienta de corte dada y un material
para la pieza, la forma de desgaste de la herramienta
puede depender exclusivamente de las condiciones
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
de corte, principalmente de la velocidad de corte,
del espesor de la viruta y una combinación de los
mecanismos de desgaste antes mencionadas. A
velocidades de corte bajas, la herramienta se
desgasta por el redondeo del punto de corte. Cuando
la velocidad de corte aumenta los cambios y el
desgaste son debidos a un flujo plástico en la punta
de la herramienta. La formación de cráteres en la
herramienta depende en mayor medida de la
temperatura de corte más que de la velocidad de
corte. Las diversas formas del patrón de desgaste
del filo y la velocidad de corte predominante se
muestran en la figura. 1 para una operación de
torneado. Las formas de desgaste más usuales que
se producen en las herramientas de corte se
identifican a como los principales tipos de desgaste
de la herramienta en el mecanizado de metals
mediante un punto único, estos puntos únicos son la
punta, el flanco, la muesca y el cráter del desgaste.
La figura 2 muestra cómo estas características de
desgaste se puede medir en un proceso de
torneado mediante la aplicación apropiada de los
criterios de la Organización de Normas
Internacionales.
El desgaste de la punta o redondeo de los bordes
se produce a través del desgaste por abrasión en los
bordes principales de la herramienta de corte como
resultado del aumento del ángulo de ataque
negativo. El desgaste de la punta puede depender
totalmente de las condiciones de corte aplicadas al
filo de la herramienta perdido a través de
deformaciones plásticas o elásticas. A altas
velocidades de corte, el borde se deforma
plásticamente y puede dar lugar a la perdida de toda
la punta, figuras 1a y 2b. Las melladuras y roturas
del filo se producen durante las pausas periódicas
acumuladas en el filo durante cortes discontinuos
con la herramienta frágil y por la fatiga térmica.
El desgaste del flanco surge debido al desgaste
abrasivo y adhesivo de la acción de la fricción
intensa de las dos superficies en contacto, es decir,
la cara de desprendimiento de la herramienta de
corte y la superficie recién formada de la pieza de
trabajo. El desgaste del flanco conduce a un
deterioro de la calidad de la superficie de la pieza,
un aumento de área de contacto y un incremento de
la generación de calor (Figuras 1b y 2c).
La forma del desgaste de las muescas de la
herramienta determinan la profundidad de la línea
Premio Colombiano de Informática ACIS 2011
2
de corte (Fig. 2b y c). El desgaste de la muesca
puede conducir a la abrasión de las capas
superficiales acelerada por las reacciones de
oxidación o químicas, y esto puede dar lugar al fallo
o fractura de la herramienta.
Los resultados del desgaste del cráter son
una combinación de altas temperaturas de corte y
cizallamiento de por tensiones elevadas, esto crea
un cráter en la cara de incidencia a cierta distancia
de los bordes de la herramienta, cuantificado por la
profundidad y el área de sección transversal (Fig.
1c). Unas graves profundidades del cráter pueden
desencadenar el desprendimiento catastrófico del
punto de corte (Fig. 1d).
Fig. 1. Formas de desgaste de la herramienta de corte de mecanizado
ortogonal.
Fig. 2. Las características tradicionales de las mediciones de desgaste de
la herramienta de torneado.
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
III. REQUISITOS DE UN SISTEMA DE
SUPERVISIÓN DEL ESTADO DE LAS
HERRAMIENTAS.
Un sistema de supervisión del mecanizado
abarca el seguimiento de la máquina, la dinámica
del proceso de corte, las herramientas de corte y la
pieza de trabajo para asegurar un rendimiento
óptimo de los sistemas. La herramienta condiciona
cómo debe ser la supervisión en consecuencia con
los siguientes usos:
1. Fallos en el avanzado sistema de detección
para el corte y máquinas herramienta.
2. Comprobar y garantizar la estabilidad
proceso de mecanizado.
3. Mantener la tolerancia de mecanizado sobre
la pieza de trabajo a límites aceptables,
proporcionando una compensación de los
desplazamientos de la herramienta debidos
al desgaste de esta.
4. Evitar causar daños a la máquina
herramienta.
La ausencia de un TCMS puede generar el
excesivo de despegue de la herramienta, tolerancias
inexactas, estrías y acabado irregular de la
superficie de la pieza, llevando con el tiempo a la
máquina herramienta y sus periféricos a daños que
producen gastos innecesarios.
Muchas investigaciones se han llevado a cabo
sobre el desarrollo de TCMS fiables. Hay varios
factores que han impedido el avance en el desarrollo
de TCMSs incluyendo la elección inadecuada de las
señales del sensor y su utilización. Hay dificultades
en el diseño de TCMSs que tengan en cuenta las
fuentes de ruido. Normalmente, la mayoría de los
procesos de corte de metal se pueden clasificar por
tener una o más de las siguientes características:
1. Comportamiento caótico debido a la
heterogeneidad del material de la pieza.
2. Sensibilidad de los parámetros del proceso a
las condiciones de corte.
3. Relación no lineal de los parámetros del
proceso con el desgaste de la herramienta.
La información engañosa surge fácilmente como
perturbaciones de cualquiera de las fuentes
mencionadas y plantean un problema práctico, el
cual limita la precisión y el control del proceso de
Premio Colombiano de Informática ACIS 2011
3
corte. Es fundamental lograr un alto grado de
fiabilidad para diagnosticar la condición de la
herramienta manteniendo un nivel suficiente de
precisión. Cuando
suceden
perturbaciones
inesperadas, un TCMS debería ser capaz de
diagnosticar e identificar la avería, y posiblemente
aislar o responder con medidas correctivas dentro
de un tiempo de respuesta prescrito.
A lo largo de la historia se han ido utilizando una
combinación de imagen y sonido y se ha realizado
la vigilancia de las condiciones de la herramienta
(CTM). Es imposible desarrollar sensores que
imiten exactamente la intervención de un operador
humano, ya que este es subjetivo y flexible, pero
inexacto. Este problema se ha evitado mediante el
uso de parámetros descriptivos del proceso de corte
que muestran sensibilidad a desgaste de la
herramienta, lo que evita la necesidad de un sensor
único. Los avances en el diseño de sensores han
logrado la recopilación de información del proceso
de corte que permite realizar mediciones adecuadas.
Una gran variedad de los parámetros del proceso
en el mecanizado puede utilizarse para predecir el
estado de la herramienta de corte. Los parámetros
de medición más relacionados con el desgaste de la
herramienta son los siguientes:
• Emisión acústica.
• Temperatura de la herramienta.
• Las fuerzas de corte (estáticas y dinámicas).
• Vibración característica (las señales de
aceleración).
• Diversos métodos como las mediciones
ultrasónicas y ópticas, la calidad del acabado
superficial de la pieza, dimensiones de la
pieza, análisis de tensión / deformación y el
motor del husillo actual.
IV. EMISIÓN ACÚSTICA (AE).
Durante el mecanizado de la pieza de trabajo,
esta se somete a una deformación plástica
considerable debido al empuje de la herramienta a
través de ella. Dentro de las zonas de deformación
(movimientos de dislocación), la energía de
deformación se libera porque los enlaces entre los
átomos metálicos son perturbados. Esta energía
liberada se conoce comúnmente como emisión
acústica. Otras fuentes de AE son las
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
transformaciones de fase, los mecanismos de
fricción (contacto entre la herramienta y la pieza) y
la formación de grietas o fracturas.
Choi [6] fusionó la AE y las fuerzas de corte en
su intento de desarrollar un TCMS en tiempo real
para operaciones de torneado. Utilizó placas de
carburo de tungsteno un primer conjunto de placas
ranuradas por electroerosión por hilo para acelerar
la fractura, el segundo conjunto fue soldado a la
pieza de trabajo para inducir la rotura de la
herramienta. Los datos recogidos fueron analizados
mediante un rápido algoritmo de bloquepromediado para las características y los patrones
indicatives de fractura de la herramienta, y
demostró la aparición de una gran explosión de la
AE en la rotura de la herramienta.
Kakade [7] utilizó el análisis de AE para predecir
el desgaste de la herramienta y la forma de la viruta
en una operación de fresado seleccionando los
parámetros de AE (tiempo de subida, duración de la
operación, la frecuencia y la tasa de operaciones) y
los registró simultáneamente con la longitud de la
región del correspondiente flanco de desgaste
medido en los intervalos seleccionados. Concluyó
que entre las señales de AE se podían distinguir las
acciones de corte de una herramienta afilada,
desgastada o rota.
Blum y Inasaki [8] llevaron a cabo pruebas de
corte experimentales para determinar la influencia
del desgaste del flanco en la generación de señales
de AE. Los experimentos se efectuaron y se
registraron las AE y las fuerzas de corte de forma
simultánea para la herramienta en la región anterior
al filo y la punta de las placas de corte insertadas. El
análisis implicó el estudio de los efectos de las
condiciones de corte sobre las características de AE
seleccionadas y el desgaste del flanco de la
herramienta. La inspección de las gráficas obtenidas
para la AE/fuerzas de corte y el desgaste del flanco
a varias velocidades de corte mostró una correlación
indispensable de la AE en modo de desgaste del
flanco. Ellos concluyeron que la extracción de dicha
información de la señal de AE es difícil.
Moriwaki y Tobito [9] propusieron un método
basado en la medición de la AE y el análisis para la
estimación de vida de la herramienta con
recubrimientos.
El
principio
fundamental
concebido para la estimación de vida de la
herramienta con recubrimientos fue que, durante el
Premio Colombiano de Informática ACIS 2011
4
desgaste progresivo de la herramienta, se producen
cambios de material desde una capa de sustrato a
otra de la herramienta y emiten señales de AE que
pueden ser supervisadas para determinar su vida
útil. La AE y desgaste de la herramienta (el flanco y
el cráter) se midieron junto con la rugosidad de la
superficie. Los valores RMS para la señal de la AE
registrada y los valores de desgaste (etapas inicial,
media y superior de desgaste de la herramienta) se
graficaron en la misma escala de comparación. La
inspección de las gráficas presentadas indicó una
fuerte correlación entre la AE y la amplitud RMS de
desgaste de la herramienta, lo que aumenta con la
progresión del desgaste. Los datos recogidos se
aplicaron a un sistema de reconocimiento de
patrones, y asi, midiendo la AE emitida desde los
revestimientos especialmente tratados de una
herramienta de corte, fue posible identificar
y predecir la vida útil de la herramienta.
Roget [10] llevó a cabo pruebas de mecanizado
en las cuales las señales de la AE detectadas a partir
de la operación de corte se utilizaron para predecir
el estado de la herramienta de corte. Llegaron a la
conclusion de que esa tarea sólo puede realizarse
con éxito en condiciones específicas y limitadas.
Usando sensores de AE hechos a la medida , se
llevaron a cabo pruebas de corte en torneado y
fresado a aceros aleados. Se llevó a cabo una
comparación de las curvas registradas de la AE y el
desgaste medido del flanco, y mostraron una
notable similitud con las tres fases diferentes
características representadas en las gráficas del
desgaste–tiempo y las de tiempo–AE. Ellos
extendieron su método para la identificación de
rotura de la herramienta utilizando una operación de
fresado y sus conclusiones finales fueron que la AE
proporciona una información suficiente de los
cambios de las condiciones del corte, la rotura y
el desgaste de la herramienta.
Durante el corte de metales, se genera una
pequeña AE en comparación con la gran AE que se
genera cuando se produce una rotura de la
herramienta. El énfasis en cualquier TCMS sería
generalmente el desgaste de la herramienta en lugar
de la fractura de la misma, la AE no es un indicador
de desgaste de la herramienta adecuado para
aplicaciones de control, pero podría ser utilizada
con Buenos resultados en la detección de rotura de
la punta de la herramienta en centros de
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
mecanizado. Un inconveniente de la aplicación de
la AE como un indicador del desgaste de la
herramienta es que sus señales son más sensibles a
las variaciones en las condiciones de corte y al
ruido, que a la condición de la herramienta en sí.
La AE sólo sirve como un método adicional de
detección para lograr una mayor fiabilidad en un
TCM.
V. TEMPERATURA DE LA PUNTA DE LA
HERRAMIENTA / LOS BORDES DE CORTE.
En el corte de metal se genera una cantidad
significativa de calor. Las altas temperaturas
resultantes alrededor de los bordes de la
herramienta de corte tiene una influencia directa
sobre el desgaste de la herramienta de corte, son
resultado de la fricción entre la viruta y la
herramienta de corte, y también que entre la
herramienta de corte y la superficie recién formada.
El coeficiente de fricción entre la herramienta y la
viruta varía considerablemente debido a los cambios
en la velocidad de corte y al ángulo de inclinación
resultante a altas presiones. La eliminación del calor
generado se hace a través de la viruta, la pieza de
trabajo y / o la herramienta. A medida que la
distribución de la temperatura deja de ser uniforme,
saber la cantidad exacta de calor que se transfiere a
través de la herramienta no es sencillo. Sin
embargo, se cree que la cantidad de calor eliminado
o conducida a través de la viruta es
aproximadamente el 90% del calor total generado,
lo que implica que menos del 10% del calor es
absorbido o dispersado a través de la herramienta y
material de la pieza.
Sarwar [11] desarrolló un sistema de imagen
térmica para aplicaciones de corte de metal. Los
datos de imagen térmica obtenidos mostraron que
era posible cumplir el requisito de corte ortogonal.
El trabajo adicional estaba en curso para extender el
modelo y dar cabida a la naturaleza transitoria del
de campo temperaturas durante las condiciones de
corte dinámicas.
Lin [5] en su intento de medir la temperatura de
la herramienta de corte en línea durante un proceso
de fresado ideo una relación inversa entre el tiempo
real de la herramienta y la temperatura de la interfaz
de la pieza de trabajo. El modelo diseñado se puso a
Premio Colombiano de Informática ACIS 2011
5
prueba mediante la aplicación de una entrada de
flujo de calor conocido y verificado la salida
inversa. Los gráficos de la temperatura real de la
fuente de calor y la estimada por el método
propuesto mostraron desviaciones. Se procedió a
probar el modelo con más calor de llama para
verificar principalmente la incertidumbre en la
medición de temperatura de un cuerpo en
movimiento de calor. El principal inconveniente de
este método parece ser la influencia de las
mediciones de temperatura usando este modelo de
las propiedades térmicas de la pieza de trabajo y el
material de utillaje, y el pirómetro empleado tenía
un rango de medida limitada de 0-500 °C. El
conocimiento detallado de las propiedades térmicas
del material de la pieza, como su densidad, la
difusión térmica y la conductividad térmica se
considera crucial para la realización de este método.
Radulescu y Kapoor [12] diseñaron y probaron un
modelo de análisis de predicción de la temperatura
en un campo de la herramienta para su uso durante
el corte continuo e interrumpido. Las pruebas
mostraron que el modelado de la temperatura de la
interfaz herramienta-viruta concuerda con las
pruebas experimentales.
Raman [13] propusó y desarrolló un modelo
matemático para la medición de la temperatura de la
herramienta durante el corte de basado en el control
remote de sensores de termopar (RTS). La
credibilidad del método mintió en el hecho de que
la distribución de temperatura en el interfaz
herramienta-viruta tenía una relación única
característica entre la temperatura de la
herramienta-viruta y la temperatura de termopar. El
cambio de la temperatura del proceso de corte se
determinó observando el comportamiento de la
temperatura en el resto de la herramienta
(disipador) a las variaciones en la fuente de la
temperatura (punta de la herramienta). Una vez que
el comportamiento entre el disipador y las
temperaturas de origen se había establecido fue
posible estimar durante la producción la
temperatura del interfaz de la herramienta basada en
la respuesta del termopar. Llegó a la conclusión de
que el análisis matemático realizado fue bastante
adecuado para RST, pero era más necesario un
análisis para mejorar la técnica, ya que estaba
todavía en su fase inicial de desarrollo.
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
Stephenson y Ali [14] llevaron a cabo estudios
sobre los efectos de la temperatura en la
herramienta en procesos de corte interrumpido de
metal e informó de los resultados teóricos y
experimentales.
Las
temperaturas
medidas
para una serie de condiciones de mecanizado
resultaron depender de dos factores principales:
• Longitud de los ciclos de corte.
• Longitud del intervalo entre los ciclos de
refrigeración.
En general, las mediciones de temperatura suelen
ser menores cuando el corte es interrumpido
ocasionalmente que cuando el corte es continuo
bajo las mismas condiciones de corte.
Chow y Wright [15] idearon un método para la
medición en línea de la temperatura del interfaz
herramienta-viruta en un proceso torneado
utilizando un termopar estándar insertado en la
parte inferior del inserto de la herramienta. Los
experimentos se realizaron a partir de los datos
prácticos de corte que se recogieron para su
comparación con las temperaturas del interfaz y
poder predecirlas a partir de un modelo teórico. El
análisis de los resultados obtenidos y verificados
demostró que un aumento en el desgaste de la
herramienta resultó debido a un incremento en la
temperatura de corte. Llegaron a la conclusión de
que los aumentos de la temperatura fueron
principalmente debidos al desgaste de la
herramienta, lo cual podría ser utilizado para
efectuar la TCM durante el corte de metales.
Kitagawa [16] presentó lo que podría ser
considerado como el método experimental más
interesante de la medición de la temperatura de las
herramientas de corte en el filo. Se construyó un
termopar de propósito especial a partir de los
principios básicos usando dos puntas de carburo y
un cristal de cuarzo para el aislamiento. Al cambiar
la posición de salida del alambre de los circuitos
implicados, afirmó que era possible medir la
temperatura de interfaz en cualquier parte de la cara
del flanco de la herramienta (es decir, los bordes de
corte). Para validar este diseño, se llevaron a cabo
una serie de cortes de prueba usando herramientas
de corte con insertos afilaos y otros teóricamente
gastados de forma artificial. De los análisis y las
discusiones posteriores, se establecieron las
dependencias de los tipos de cambio de temperatura
Premio Colombiano de Informática ACIS 2011
6
en la longitud del flanco de desgaste para los cortes
interrumpidos y continuos.
Shaw [17] citó la complejidad de cualquier
intento de predecir la temperatura de la cara
significativa de la herramienta, ya que desafía las
soluciones exactas. El propuso y evaluó una
solución aproximada basada en el principio de
trasladar la fuente de calor.
Para aplicaciones prácticas, tales como el TCM
en línea, la supervisión por termopar parece ser la
única manera digna para medir la temperatura en el
interfaz de la pieza-herramienta, pero no se puede
obtener una medición directa de la distribución de
temperatura en la cara de desprendimiento. Los
anteriores intentos de medir la temperatura del filo
de corte han demostrado ser excepcionalmente
difíciles debido a la falta de acceso directo a la zona
de corte. Este parámetro del proceso, aunque
tengamos indicador de desgaste de una herramienta
adecuada y deseable, es extremadamente difícil de
medir con precisión para aplicaciones en línea
como en la MTC, debido a la falta de acceso a la
zona de corte.
VI. LAS FUERZAS DE CORTE (DINÁMICA
Y ESTÁTICA).
Está ampliamente establecido que la variación
en la fuerza de corte puede correlacionarse con el
desgaste de la herramienta. En la práctica, la
aplicación e interpretación de este parámetro ha
sido diversa, se concentró con más esfuerzo en el
estudio de la característica dinámica de la señal
de fuerza de corte y la interpretación de su relación
con los niveles de desgaste de las herramientas.
Los TCMSs basados en la fuerza que suelen
funcionar de forma independiente de los niveles
de fuerza absoluta, miden el cambio relativo de la
fuerza que se presenta cuando se utilize una
herramienta nueva o cuando se rompe. Los
experimentos han demostrado que las tres
components de la fuerza de corte (Fig.3) responden
de manera diferente a las diferentes formas de
desgaste que ocurren en la herramienta. Por
ejemplo, la fuerza de alimentación (Fx o Ff) es
insensible al desgaste del cráter, mientras que las
fuerzas de alimentación y radial (Fy o Fr) pueden
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
estar más influenciadas por desgaste de la
herramienta que la fuerza del corte principal (Fz o
Ft).
Dimla [18,25] llevó a cabo una investigación
experimental extensa y elaborada en el desarrollo
de un sistema de supervisión en línea del desgaste
de la herramienta para las operaciones de torneado
de metales usando las mediciones de las fuerzas de
corte, fusionadas con las vibraciones. El desgaste
breve pero acumulado de los elementos de la
herramienta, poco a poco la llevaban a un fallo
catastrófico, esto se observó mejor en el dominio de
la frecuencia, con ciertas frecuencias que
correlacionan excepcionalmente con los cambios de
fuerza dinámica. En general, el flanco y el desgaste
de la punta se establecieron como mejores
indicadores del desgaste de la herramienta que la
mella de desgaste.
Fig. 3. Componentes de la fuerza de corte en una herramienta de un solo
punto durante el giro.
Bayramoglu y Düngel [19] presentaron una
investigación sistemática sobre el uso de las
relaciones de fuerzas de corte en la CTM para
operaciones de torneado.
Los resultados
demostraron que dos de las relaciones de fuerza
eran particularmente sensibles al desgaste del flanco
acumulado, lo que demuestra su potencial para
aplicarlo en operaciones TCM.
Lister [1] analizó la estructura de poder de las
fuerzas de corte dinámico e informó de un
incremento del nivel de energía en las bandas de
frecuencia que llevaba la herramienta. Los
resultados dieron a luz un fuerte indicador de la
dependencia de la fuerza dinámica en la reducción
de desgaste de la herramienta aunque no de una
tendencia general.
Premio Colombiano de Informática ACIS 2011
7
Fig. 4. Amplitud de la fuerza - tiempo (condiciones fijas de corte).
Ravindra [2] desarrolló un modelo matemático
para la estimación del desgaste de la herramienta
que implicó la realización de experimentos de
torneado en los que se estudió la progresión del
desgaste y de las fuerzas de corte modelados por un
método de análisis de regresión múltiple. Los
experimentos indicaron que la tendencia al desgaste
se propagaba al incrementar la velocidad de corte, y
la aparición de inflexiones en las curvas de las
plantillas de desgaste indican que hay un
mecanismo predominante térmicamente controlado.
Los diagramas tiempo-desgate y desgaste-fuerza
parecían apoyar sus proposiciones, de las que
concluyó
que
los
experimentos
habían
proporcionado una prueba vital de una buena
correlación entre el desgaste de los flancos y las
fuerzas radiales de corte.
Marques y Mesquita [20] investigaron la relación
entre el desgaste sinterizado de las herramientas de
corte de acero a alta velocidad y las fuerzas de corte
asociadas. Los modelos teóricos utilizados
consideraban independiente la influencia del flanco
y el desgaste del cráter, y también la fuerza de
abolladura (efecto de herramienta sin filo). Los
tipos de pruebas realizadas consistieron en cortes de
corta duración para establecer la relación entre
fuerza-desgaste, y de más corta duración para
observer la influencia progresiva de desgaste de las
fuerzas. Ellos informaron de una buena correlación
entre los resultados experimentales y teóricos.
Kim y Lee [21] llevaron a cabo la modelización
de las fuerzas de corte dinámico y los datos
experimentales de prueba fueron reunidos y
comparados con las predicciones de los modelos
teóricos. Existía una buena concordancia entre los
límites teóricos de la estabilidad y los datos
experimentales. Sin embargo, en el rango de corte
baja velocidad, se observó un deterioro entre los
resultados del modelo y la experimentación, un
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
hecho que se atribuye al efecto de incorporarlo
hasta el borde.
Yao y otros [22] y, Yao y Fang [23]
investigaron lo que describieron como un completo
TCMS que incluía la medición del desgaste de los
flanco mayor y menor, el cráter, y la punta, basada
en el análisis de las fuerzas de corte dinámicas. Se
seleccionaron ocho parámetros que describen las
características desgaste deseadas. Se llevo a cabo un
análisis disperso basado en medias móviles
autoregresivas. Dos bandas de frecuencias distintas
se obtuvieron en los tres ejes asociados con un
mecanismo de tasa de desgaste de una cierta clase:
una banda de baja frecuencia 0.5-1 Hz y una banda
superior 2.6-3.5 kHz. Estas tendencias estaban de
acuerdo con los valores de desgaste recogidos, por
lo tanto, indispensable como sistema de supervisión
del desgaste.
El grado de variabilidad evidente en las fuerzas
de corte en procesos de mecanizado requiere que
algunas estimaciones de las fuerzas estáticas y
dinámicas de corte sean conocidas. Las fuerzas de
corte estáticas son necesarias para permitir que la
velocidad de corte en la superficie el material de la
pieza se mantenga dentro de la potencia disponible
de la máquina herramienta. La medición de las
fuerzas estáticas de corte o la fluctuación de sus
componentes podrían proporcionar información
valiosa sobre el comportamiento estático del
proceso de corte. La naturaleza del proceso de corte
es tal que no puede considerarse como algo "sin
desviaciones y estable”. Las articulaciones, los
acoplamientos de la máquina herramienta y los
cambios en las condiciones de corte conducen a
fluctuaciones en los componentes de las fuerzas
estáticas. Es difícil predecir las condiciones bajo las
cuales ocurre o seleccionar las condiciones de corte
necesarias para corregir este fenómeno. Por lo tanto,
para obtener una indicación de las fluctuaciones del
sistema, las fuerzas dinámicas que necesitan ser
conocidas y las estimaciones se obtienen
directamente o se calculan como la componente de
la frecuencia dependiente de las fuerzas de corte
estáticas, como se muestra en la fig. 4.
Premio Colombiano de Informática ACIS 2011
8
VII. VIBRACIÓN CARACTERÍSTICA (LAS
SEÑALES DE ACELERACIÓN).
Las vibraciones se producen por variaciones
cíclicas en los componentes dinámicos de las
fuerzas de corte. Las vibraciones mecánicas en
general, son el resultado de movimientos
ondulatorios periódicos. La naturaleza de la señal de
vibración derivada del proceso de corte de metal es
tal que incorpora las facetas de tipos libres,
forzados, periódicas y al azar de las vibraciones. La
medición directa de la vibración es difícil de lograr,
debido a la complejidad de determinar su rasgo
característico, el modo de vibración, ya que es
dependiente de la frecuencia.
El-Wardany [26] investigó el uso de las
características de la vibración característica en la
supervision en línea del desgaste y la rotura de la
herramienta durante el taladrado. La vibración
característica es sensible al desgaste de las
herramientas, se identificaron en el tiempo (cociente
del valor absoluto de la media y la curtosis) y los
dominios de frecuencia (espectros de energía y la
relación de cepstra). Los resultados experimentales
mostraron que los valores de curtosis aumentan
drásticamente con la rotura de la broca, mientras
que el análisis de frecuencia reveló picos agudos
que indican la rotura del taladro. Mediante la
combinación de ambas técnicas, es posible diseñar
un sistema de vigilancia eficaz de taladro.
Yao [27] investigó la detección y la estimación
del desgaste de las gargantas en el borde de corte de
menor importancia de la herramienta mediante el
control de la vibración característica. Su análisis
mostró que la dispersión de la orientación de la
fuerza de corte y la vibración eran sensibles a la
longitud de desgaste de las gargantas con dos
periodos: uno a una frecuencia muy baja, 200 Hz y
el otro a una frecuencia alta 10000 kHz.
Rotberg [28,29] estaba interesado en el análisis
de la vibración característica para la predicción del
estado de la herramienta durante el corte
interrumpido. El énfasis estaba en la entrada de la
herramienta de fresado y las condiciones de salida.
Se llevaron a cabo experimentos en la cara de
fresado y se midió el desgaste el flanco consiguiente
y el cráter. La inspección de los gráficos indica que
la señal de vibración fue un indicador adecuado de
desgaste de la herramienta, ya que demuestra un
cambio considerable durante la vida de la
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
herramienta. Tambien see centró en la vigilancia del
desgaste de herramienta con la vibración como la
señal principal. El análisis se realizó mediante dos
modelos básicos caracterizados por sus señales
características: baja frecuencia y alta frecuencia.
Llegó a la conclusión de que su análisis mostró
ciertas características peculiares y universales que
son producto de las señales de vibración y que
podrían ser aprovechadas en el desarrollo de un
TCMS ya que tienen una buena correlación con el
desgaste de la herramienta.
La interrelación entre las señales de vibración y
las fuerzas de corte determina la naturaleza
dinámica del proceso de corte, haciendo atractiva la
utilización de estos parámetros de proceso en el
desarrollo de TCMSs.
VIII. DIVERSOS DETECTORES Y
MÉTODOS.
Generalmente hablando, otras variedades de
sensores han sido empleados en varios intentos de
predicción, seguimiento o mediciones de los
parámetros de proceso de desgaste de la
herramienta en un proceso de corte de metal. Estos
métodos caen principalmente en las siguientes
categorías:
• Métodos ópticos.
• Medición de tensión / deformación.
• Métodos basados en la medición de la
dimensión de la pieza.
• Medición de la calidad del acabado
superficial.
• Métodos de ultrasonidos.
A. Métodos ópticos.
Martin [5] resume en una revisión los métodos
ópticos que han sido propuestos para las mediciones
de desgaste de la herramienta, estos métodos fueron
los siguientes:
• Láser de medición del acabado superficial.
• Fotodiodos utilizados en la medición de la
luz reflejada desde el borde de corte.
• Fotocélula de fibra óptica para la medición
de la reflectancia de las zonas desgastadas y
sin uso del flanco de la herramienta.
Premio Colombiano de Informática ACIS 2011
9
Claramente, ninguno de estos métodos es
aplicable en un escenario TCMS, es difícil lograr
incluirles en el proceso de medición de desgaste de
herramientas.
La determinación del desgaste de la herramienta
a partir de imágenes procesadas de la herramienta
de corte ha sido perseguida durante más de tres
décadas. En esencia, una imagen de la herramienta
es capturada y mostrada en una pantalla de
televisión, y luego se analiza para proporcionar
información sobre el patrón de desgaste o la
cantidad de desgaste acumulado. Kurada y Bradley
[3] presentan una revisión del principio básico,
instrumentación y sistemas varios de procesamiento
de imagen involucrados en el desarrollo de una
visión basada en TCMS. Oguamanam [30], Du [31]
y Cuppini [32] llevaron a cabo la aplicación de este
método. En Oguamanam el sistema de visión
artificial se utiliza para fines de supervisión. Para
cualquier imagen dada, se extrajeron cinco
características de la imagen y se utilizaron para
clasificar el estado de la herramienta. Algoritmos
informáticos amplios de procesamiento de imágenes
se han desarrollado para capturar la imagen,
segmentarla y luego identificar el estado de la
herramienta de la imagen digitalizada. Du por el
contrario trató de idear un método óptico en línea
utilizando un sensor óptico "fuera de la plataforma”
para detectar las condiciones de la herramienta. El
sensor fue conocido por la captura de la imagen de
los bordes de la herramienta y la conversión de la
imagen en píxeles para el tratamiento por
ordenador. El perfil de la herramienta obtenida
podía ser filtrado y representado por una matriz de
números para la comparación con la del perfil de la
herramienta
maestra.
Las
técnicas
antes
mencionadas son inflexibles, caras, y no puede ser
aplicada realmente en línea.
Shiraishi [4] a través de varios años de
investigación y su experiencia, cito que los métodos
ópticos basados en TCM están plagados de
inexactitudes altas y no son fiables.
B. Mediciones de la tensión / deformación.
Noori-Khajavi y Komanduri [33] han usado
entre otros sensores, sensores de tensión en su
estudio de la correlación de los parámetros del
desgaste en el proceso de taladrado. Las señales
registradas se analizaron tanto en el tiempo y los
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
dominios de frecuencia, pero la correlación
significativa del desgaste del taladrado sólo se
podría lograr en el dominio de la frecuencia.
Lee [24] propusó otro método basado en análisis
de esfuerzos de carga en tres dimensiones. Ellos
combinaron el análisis de tensión FEA y detallaron
los filos de corte y las puntas de las herramientas
afiladas y gastadas, con esto concluyeron que era
posible predecir el modo y la ubicación del fallo de
la herramienta.
C. Dimensión de la pieza de trabajo.
El-Gomayel y Bregger [31] propuso un método
para la vigilancia del desgaste de la herramienta
basándose en las mediciones de la desviación de la
pieza.
Ellos
emplearon
dos
sondas
electromagnéticas en los lados opuestos de la pieza
de trabajo de tal manera que las ondas
electromagnéticas podían fluir desde la sonda al
metal permitiendo mediciones exactas del diámetro
de la pieza. Los incrementos en el diámetro de la
pieza fueron utilizados como un criterio desgaste de
herramientas que requieren un procedimiento de
calibración elaborada. Los resultados se vieron
afectados por varios factores como vibraciones,
deformaciones y defectos de alineación. Llegaron a
la conclusión de que aunque su modelo podría
medir el desgaste de la herramienta por minuto, no
podía cuantificarlo (es decir, distinguir el desgaste
de la punta y el desgaste del flanco).
D. Magnetismo.
Jetley y Gollajesse [34] propusieron la
magnetización de los insertos de herramientas y, a
continuación, el control de la reducción del flujo de
campo magnético que llevaba la herramienta. Se
diseñó un estudio preliminar de investigación que
implique el uso de taladros magnetizados y se
implementó con el fin de validar su metodología.
Llegaron a la conclusión de que era posible predecir
con exactitud el final de vida de la herramienta o
fractura "en línea" mediante la observación del flujo
magnético, y el sistema era rentable con potencial
para su aplicación en la mayoría de los entornos de
corte de metales.
E. Métodos de ultrasonido.
Abu-Zahra y Nayfeh [35] desarrollaron un
método normalizado de la señal ultrasónica basado
en la calidad y el análisis para el control del
Premio Colombiano de Informática ACIS 2011
10
desgaste de herramientas para operaciones de
torneado.
Deliberadamente
diseñaron
un
portaherramientas donde acomodar el transductor
ultrasónico que se utilizó para medir desgaste
gradual del flanco y la punta. El análisis consistió
en comparar las formas de onda registradas sin
desgaste y se utiliza con insertos de desgaste
acumulado. La inspección de los resultados mostró
una buena correlación entre los valores medidos de
desgaste y el cambio absoluto en las ondas
ultrasónicas. El desarrollo del sistema requiere un
porta-herramientas especial, ellos reconocieron que
para la comercialización se requiere una
herramienta más versátil para el acoplamiento del
transductor que le permita adaptarse a los diversos
portaherramientas y a la geometría de los insertos.
IX. TCMS EL DESARROLLO DE UNA
PERSPECTIVA DE LOS SENSORES DE
SEÑALES.
La precisión y la tolerancia en una pieza de
trabajo terminado se pueden determinar por
desviaciones en el punto de corte de los
movimientos requeridos de trabajo entre la
herramienta y la pieza de trabajo.
El proceso de selección de parámetros para el
desarrollo de un TCMS tiene que tener en cuenta, la
robustez, fiabilidad y aplicabilidad de las señales de
los sensores, deben ajustarse a los siguientes
criterios:
• Fácil de medir.
• Tienen un elevado ratio de detección de
señales a ruido, aunque podría mejorarse
mediante la aplicación de filtros RC.
• Consistente sensibilidad al desgaste.
• Requieren un mínimo de instrumentos
periféricos para su aprovechamiento.
Diferentes operaciones de mecanizado requieren
diferentes velocidades de corte, mientras que el
corte puede ser continuo (varias horas) o
interrumpido (pocos segundos). Las malas
condiciones de corte dar lugar a un aumento de las
fuerzas, las energías y la temperatura de la
herramienta lo que resulta una mayor tasa de
desgaste de herramientas. El corte a alta velocidad
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
de avance provoca un aumento de la temperatura
sobre la cara de la herramienta resultante y aumenta
el desgaste cráter. A bajas velocidades, se forman
los filos de aportación. Es difícil predecir
exactamente la magnitud de las fuerzas de corte a
velocidades de corte específicas.
X. SENSORES FUSIÓN-SINERGIA DE
INTEGRACIÓN DE LA SEÑAL.
Los sensores para el seguimiento de procesos de
ingeniería están diseñados generalmente para medir
un parámetro deseado (por ejemplo, los
acelerómetros) y luego lo correlacionan con el
proceso pertinente (por ejemplo, vibración
caracteristica). Durante la medición, la magnitud
particular es tal que el principal componente de la
señal tiene la determinación de la distorsión de
algún tipo (ruido). Si la cantidad de ruido en la
señal es alta, entonces en la magnitud a medir se
obtiene una correlación significativa con la cantidad
deseada, pero si es baja lo contrario es cierto. La
fusión de sensores combina el ruido dominante con
las facetas de probabilidad mediocre (similar o
contradictoria) de las señales individuales para
obtener un mejor resultado.
La elección de un tipo de sensor adecuado así
como el punto de aplicación está íntimamente
relacionado con estar en un lugar adecuado donde la
señal especificada tiene la mayor concentración y
mejor reproducibilidad. La información procedente
de varios sensores diferentes tiene que ser recogida
e integrada en estas señales de fiabilidad variable.
La fusión de sensores tiene los siguientes fines:
• Realza la riqueza de la información del nivel
de desgaste subyacente contenida en cada
señal.
• Aumenta la fiabilidad del proceso de
seguimiento ya que la pérdida de
sensibilidad en una señal puede ser
compensada por otra.
El uso de la señal de un solo sensor en el
desarrollo de un TCMS no reconoce la naturaleza
compleja y diversa del proceso de corte.
Cuando los sensores se fusionan, los requisitos
de la tarea son normalmente determinar la
estructura de los datos resultantes fusionados. El
Premio Colombiano de Informática ACIS 2011
11
método competitivo de fusión de datos sería
beneficioso en un TCMS con variables múltiples
porque cuando las señales de los diversos sensores
se fusionan, se refuerzan o contradicen con cada
señal de sensor individual. Si todas las señales de
los sensores están orientadas a medir el mismo
parámetro, como por ejemplo el desgaste de la
herramienta, entonces si los diversos informes de un
patrón de comportamiento son similares al nivel de
aumento del desgaste de la herramienta, se
desarrolla un aumento de la confianza en el
parámetro de interés (el desgaste). Si los sensores
reportan valores diferentes, tiene que ser establecida
una razón para la discrepancia. La fusión de
sensores complementarios extrae las diferencias
relativas de los sensores para aumentar las ventajas,
al tiempo que cubre las desventajas de los sensores
individuales.
La decisión en cuanto a que señal del sensor se
necesita y cuántos utilizar en un TCMS es
realmente una decisión difícil de hacer. Una
consideración es el costo del éxito de aprovechar
cualquier señal del sensor elegido. En caso de
interferencia con los procesos de mecanizado, por
ejemplo una herramienta con un voladizo
exagerado, los efectos de tal exageración deben ser
conocidos en las señales dinámicas.
XI. CONCLUSIONES.
Se ha llevado a cabo la evaluación de la
adecuación y la sensibilidad de los parámetros de
procesos más utilizados para desgaste de la
herramienta, y su aplicación potencial para el éxito
en línea del TCM, basado en la facilidad de
utilización y la fiabilidad. Claramente, las fuerzas
de corte (estática y dinámica) y la vibración
(aceleración) se consideran los parámetros más
ampliamente aplicables. Deben ser conocidos los
avances y la sofisticación creciente de la tecnología
de la instrumentación empleada para que las
mediciones de estos parámetros sean viables,
prácticas, rentables, robustas, fáciles de montar y
tener el tiempo de respuesta rápida necesaria para
indicar los cambios de la supervisión en línea.
El estudio también sugiere que los TCMSs más
desarrollados no han tenido éxito práctico
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
primordialmente por que la información del sensor
era inadecuada y los modelos del proceso de
mecanizado que se han utilizado no reflejan
satisfactoriamente la complejidad del proceso.
Se trata de desarrollar un sistema que pueda ser
empleado en el control sistemático y diagnosticar
las condiciones de corte de las herramientas tales
como los niveles de desgaste, astillado y / o
fractura, mediante el aprendizaje y la identificación
de los estados de la herramienta, y por lo tanto
reconocer y localizar los escenarios de fallo de las
herramientas. La mejora de los TCMS es necesaria
para dar cabida a la naturaleza compleja y diversa
de la operación de corte de metal.
REFERENCIAS
[1] P.M. Lister. On-line measurement of tool wear. Ph.D. thesis,
Manufacturing and Machine Tools Division, Department of
Mechanical Engineering, UMIST, Manchester, UK, 1993.
[2] H.V. Ravindra, Y.G. Srinivasa, R. Krishnamurthy,
Modelling of tool wear based on cutting forces in
turning,Wear 169 (1993) 25–32.
[3] S. Kurada, C. Bradley, A review of machine vision sensors
for tool condition monitoring, Computers in Industry 34 (1)
(1997) 55–72.
[4] M. Shiraishi, Scope of in-process measurement, monitoring
and control techniques in machining processes—Part 1: Inprocess techniques for tools, Precision Engineering 10 (4)
(1988) 179–189.
[5] K.F. Martin, J.A. Brandon, R.I. Grosvenor, A. Owen, A
comparison of in-process tool wear measurement methods in
turning, in: Proceedings International 26th MATADOR
Conference, Manchester, UK, 1986, pp. 289–296.
[6] D. Choi, W.T. Kwon, C.N. Chu, Real-time monitoring of
tool fracture in turning using sensor fusion, International
Journal of Advanced Manufacturing Technology 15 (5)
(1999) 305–310.
[7] S. Kakade, L. Vijayaraghavan, R. Krishnamurthy, In-process
tool wear and chip-form monitoring in face milling operation
using acoustic emission, Journal of Material Processing
Technology 44 (1994) 207–214.
[8] T. Blum, I. Inasaki, A study on acoustic emission from the
orthogonal cutting process, ASME Trans. Journal of
Engineering for Industry 112 (3) (1990) 203–211.
[9] T. Moriwaki, M. Tobito, A new approach to automatic
detection of life of coated tool based on acoustic emission
measurement, ASME Trans. Journal of Engineering for
Industry 112 (3) (1990) 212–218.
[10] J. Roget, P. Souquet, N. Gsib, Application of acoustic
emission to the automatic monitoring of tool condition
during machining, ASNDT Materials Evaluation 46 (1988)
225–229.
[11] M. Sarwar, J. Li, R. Penlington, W. Ahmed, Development of
thermal imaging systems for metal cutting applications, in:
Proceedings Advanced Manufacturing Processes Systems
Premio Colombiano de Informática ACIS 2011
12
and Technologies Conference (AMPST ’96), Bradford, UK,
1996, pp. 361–369.
[12] R. Radulescu, S.G. Kapoor, An analytical model for
prediction of tool temperature fields during continuous and
interrupted cutting, ASME Trans. Journal of Engineering for
Industry 116 (2) (1994) 135–143.
[13] S. Raman, A. Shaikh, P.H. Cohen, A mathematical model for
tool temperature sensing, ASME Computational Methods in
Materials Processing, PED 61 (1992) 181–193.
[14] D.A. Stephenson, A. Ali, Tool temperatures in interrupted
metal cutting, Winter Annual Meeting of the ASME, PED 43
(1990) 261–281.
[15] J.G. Chow, P.K. Wright, On-line estimation of tool/chip
interface temperatures for a turning operation, ASME Trans.
Journal of Engineering for Industry 110 (1988) 56–64.
[16] T. Kitagawa, K. Maekawa, T. Shirakashi, E. Usui, Analytical
prediction of flank wear of carbide tools in turning plain
carbon steels (Part 1), Bull. Japan Soc. Precision Engineering
22 (4) (1988) 263–269.
[17] M.C. Shaw, Temperature in cutting, ASME Proceedings
Symposium on Thermal Aspects in Manufacturing 30 (1988)
133–143.
[18] D.E. Dimla Snr, Tool wear monitoring using cutting force
measurements, in: 15th NCMR: Advances in Manufacturing
Technology XIII, University of Bath, 6–8 September, 1999,
pp. 33–37.
[19] M. Bayramoglu, U¨ . Du¨ngel, A systematic investigation on
the use of force ratios in tool condition monitoring for
turning operations, Trans. Institute of Measurement and
Control 20 (2) (1998) 92–97.
[20] M.J.M. Marques, R.M.D. Mesquita, Monitoring the wear of
sintered high-speed steel tools, Journal of Material
Processing Technology 25 (1991) 195–213.
[21] J.S. Kim, B.H. Lee, An analytical model of dynamic cutting
forces in chatter vibration, International Journal of Machine
Tools and Manufacture 31 (3) (1991) 371–381.
[22] Y. Yao, X.D. Fang, G. Arndt, Comprehensive tool wear
estimation in finish-machining via multivariate timeseries
analysis of 3-D cutting forces, Annals of the CIRP 39 (1)
(1990) 57–60.
[23] Y. Yao, X.D. Fang, Modelling of multivariate time series for
tool wear estimation in finish-turning, International Journal
of Machine Tools and Manufacture 32 (4) (1992) 495–508.
[24] L.C. Lee, K.Y. Lam, X.D. Liu, Characterisation of tool wear
and failure, Journal of Materials Processing Technology 40
(1994) 143–153.
[25] D.E. Dimla Snr, P.M. Lister, On-line metal cutting tool
condition monitoring—I: Force and vibration analyses,
International Journal of Machine Tools and Manufacture 40
(5) (2000) 739–768.
[26] T.I. El-Wardany, D. Gao, M.A. Elbestawi, Tool condition
monitoring in drilling using vibration signature analysis,
International Journal of Machine Tools and Manufacture 36
(6) (1996) 687–711.
[27] Y. Yao, X.D. Fang, G. Arndt, On-line estimation of groove
wear in the minor cutting edge for finish machining, Annals
of the CIRP 40 (1) (1991) 41–44.
[28] J. Rotberg, S. Braun, E. Lenz, Mechanical signature analysis
in interrupted cutting, Annals of the CIRP 36 (1) (1987)
249–252.
[29] J. Rotberg, S. Braun, E. Lenz, Vibration generation models
for cutting tool monitoring, Diagnostics, Vehicle Dynamics
Universidad de León. Heras Álvaro. Sistemas de supervisión del desgaste de las herramientas.
and Special Topics—ASME Design Engineering Division 18
(5) (1989) 1–6.
[30] D.C.D. Oguamanam, H. Raafat, S.M. Taboun, A machine
vision system for wear monitoring and breakage detection of
single-point cutting tools, Computers in Industrial
Engineering 26 (3) (1994) 575–598.
[31] R. Du, B. Zhang, W. Hungerford, T. Pryor, Tool condition
monitoring and compensation in finish turning using optical
sensor, ASME Symposium Mechatronics, PED 63 (1993)
245–251.
[32] D. Cuppini, G. D’Enrrico, G. Rutelli, Tool image processing
with application to unmanned metal-cutting, a computer
vision system for wear sensing and failure detection, SPIE
701 (1986) 416–422.
[33] A. Noori-Khajavi, R. Komanduri, Frequency and time
domain analyses of sensor signals in drilling—I. Correlation
with drill wear, International Journal of Machine Tools and
Manufacture 35 (6) (1995) 775–793.
[34] S.K. Jetley, A. Gollajesse, Measuring tool wear using
magnetism, in: Proceedings: Japan–USA Symposium
Flexible Automation—A Pacific Rim Conference, July 11–
18, Kobe, Japan, 1994, pp. 345–347.
[35] N.H. Abu-Zahra, T.H. Nayfeh, Calibrated method for
ultrasonic on-line monitoring of gradual wear during turning
operations, International Journal of Machine Tools and
Manufacture 37 (10) (1997) 1475–1484.
Premio Colombiano de Informática ACIS 2011
13
Universidad de León. Prego López. Estudio de mercado automovilístico.
1
Estudio de mercado sobre la viabilidad de un
concesionario y taller de turismos.
Prego López, Nerea
[email protected]
Universidad de León: Facultad de ingeniería industrial e informática.
Resumen— Este proyecto se llevó a cabo con el
objetivo principal de evaluar cuál es la situación actual del
mercado del automóvil en España. Así que hemos realizado
un estudio de mercado y un estudio de viabilidad técnica y
económica. Nuestro proyecto se encuentra en un polígono
industrial llamado "Río do Pozo", que está en Narón, A
Coruña. Se han estudiado todos los posibles competidores
principales en esa zona, clientes y proveedores. El siguiente
paso fue el análisis de la viabilidad económica, en la que
hemos calculado una serie de valores económicos como el
VAN, TIR, etc. Después de considerar todos estos factores,
llegamos a la conclusión de que es muy arriesgado probar
suerte con este tipo de negocio en España en estos
momentos.
Índice de Términos—estudio de mercado, sector
automovilístico.
I. INTRODUCCIÓN
El presente proyecto está destinado al estudio y
análisis del mercado automovilístico en España.
El peticionario nos encarga este estudio para
conocer cuál sería la situación actual de este
mercado, y así tener datos suficientes para decidir
si seguir adelante o no con su idea de implantar un
taller y concesionario de turismos en una nave
situada en el polígono industrial Río do Pozo en
Narón, A Coruña.
II. ESTUDIO DE MERCADO
Para comenzar este estudio, lo primero que
hemos tenido que hacer ha sido un estudio del
mercado automovilístico a nivel internacional.
Remontándonos al año 2005, en ese año China se
convirtió en el segundo mercado automovilístico
más importante del mundo, por delante incluso de
Japón, creciendo las ventas un 15% ese año. Eso
sí, EEUU seguía manteniéndose en un
inalcanzable primer puesto en este mercado. Sin
embargo en poco tiempo la crisis llegó a este
mercado, con la subida de los precios del petróleo
III Congreso de cibernética
y del acero, y la ralentización de la demanda, la
venta de automóviles se empezó a ver seriamente
afectada a partir de ese año.
Sin embargo, datos más recientes apuntan a que
Rusia se convertirá en el líder de este mercado
hacia el año 2015.
A nivel nacional es obligado decir que la
industria del automóvil ha sido clave en la
industrialización de España y un pilar básico para
nuestra economía. Sin embargo, este sector se ha
visto muy afectado estos últimos años por la
crisis, disminuyendo enormemente la demanda y
las matriculaciones. Sin embargo, esta crisis no ha
afectado de igual manera a todas las marcas de
automóviles ni a todas las clases de vehículos. El
sector menos afectado es el que se dedica a la
producción de turismos, representando en el año
2008 un 76% de la producción total. Además, en
ese mismo año las únicas marcas de turismos que
no experimentan ninguna bajada en su producción
son Volkswagen y Daimier Chrysler, aunque sí
disminuyó su número de matriculaciones. Como
balance general de la situación en España, en 2008
las matriculaciones de vehículos disminuyeron un
29,7% respecto al año 2007. Pero la situación
continuó empeorando el año siguiente, en 2009,
en cuyo primer trimestre la marca más vendida
fue Citröen, pero acusando un descenso en las
matriculaciones de un 41,9% respecto del mismo
período del año 2008. Por último y ya hablando de
datos más actuales, a principios de enero de 2011
se vendieron un 23% menos de coches que en el
año 2010. [1]
A. Distrito industrial.
FACONAUTO(Federación de Asociaciones de
Concesionarios de la Automoción) es la patronal
que integra las asociaciones de concesionarios
Universidad de León. Prego López. Estudio de mercado automovilístico.
oficiales de las marcas automovilísticas presentes
en el mercado español.
FACONAUTO, a nivel nacional, es miembro de
pleno derecho de la Confederación Española de
Organizaciones Empresariales(CEOE), de la
Confederación Española de Pequeñas y Medianas
Empresas(CEPYME), de la Confederación
Española del Comercio(CEC) y del Foro de
Automoción, cúpula empresarial que representa al
sector de la automoción español ante el gobierno y
las administraciones públicas y trata de promover
las mejores condiciones de competitividad para
las empresas del sector.
A nivel europeo, FACONAUTO es miembro de
ICDP
(International
Car
Distribution
Programme), entidad que colabora con la
Comisión
Europea,
los
Fabricantes
de
automóviles y vehículos industriales y las Redes
de Distribución mediante un Programa de
investigación y seguimiento continuo de la
distribución, venta y postventa en el Sector de la
Automoción. [2]
B. Competidores potenciales.
Los principales competidores potenciales serán
todos aquellos concesionarios ubicados en las
áreas más próximas al nuestro, el cual está situado
en Narón. Justo en los alrededores más próximos
apenas existe competencia. Sin embargo si nos
distanciamos un poco más analizando la provincia
entera de A Coruña, veremos que hay bastantes
empresas ya instaladas trabajando ya en este
sector.
A continuación, a modo resumen mencionamos
algunos de los concesionarios de primeras marcas
de automóviles que trabajan en la provincia de A
Coruña : Alfa Romeo, Fiat, Ford, Honda, Audi,
Citroën,
BMW,
Cadillac,
Chevrolet,
ChryslerLancia, Land Rover, Mazda, Mercedes,
Mini, Mitsubishi, Nissan, Opel, Peugeot, Renault,
Saab, Smart, Seat, Skoda, Ssangyong, Subaru,
Suzuki, Toyota, Volkswagen, Volvo, etc. [3]
C. Clientes y proveedores potenciales.
Los clientes potenciales serán todos aquellos
habitantes de los alrededores de Narón, y, siendo
optimistas y suponiendo que estarán dispuestos a
desplazarse una cierta distancia, podemos
considerar también como clientes potenciales a los
III Congreso de cibernética
2
habitantes ubicados también en toda la provincia
de A Coruña.
Como proveedores, tras realizar una pequeña
investigación en toda la geografía española,
hemos llegado a la conclusión de que nuestra
empresa dispondrá de proveedores de todo tipo
sin ningún problema, estando éstos distribuidos de
forma uniforme por toda España. Pero, es también
interesante analizar la distribución de las fábricas
de vehículos (listos ya para su venta) por marcas,
puesto que nuestra empresa pretende vender
turismos ya fabricados, y no fabricarlos. [4]-[5].
Para ello es muy ilustrativo el siguiente mapa:
Fig.1-DISTRIBUCIÓN DE FABRICANTES DE COCHES EN
ESPAÑA.
D. Fuerzas competitivas de Porter.
1) Intensidad de la competencia.
En función de las marcas de automóvil y según
datos
recogidos
por la ANFAC,
las
matriculaciones de turismos en España este último
año 2011 han sido mayoritariamente de las marcas
Seat, Volkswagen y Ford, como podemos ver en
la Fig.2.
64058
63670
71608
64928
58236
59198
73524
39666
38967
Volkswagen
Ford
Citroën
Seat
Audi
Toyota
Nissan
Opel
Renault
Peugeot
38134
Fig. 2-MATRICULACIONES DE TURISMOS EN ESPAÑA EN 2011
Universidad de León. Prego López. Estudio de mercado automovilístico.
En la Fig.3 podemos destacar que los segmentos
más solicitados en el mercado español durante el
año 2011 fueron el pequeño (27,2%) y el mediobajo (28,5%).
4602
55604
9153
32566
30659
14156
2456
13899
7051
219786
84650
103165
230312
Micro
Pequeño
Medio-bajo
Medio-alto
Deportivo
Ejecutivo
Lujo
Monov.pequeño
Monov.grande
TT pequeño
TT medio
TT grande
TT lujo
Fig.3-MATRICULACIONES DE TURISMOS POR CLASES EN 2011.
Por último, mencionar que comparando los
datos de matriculaciones del 2011 con los del
2010, en la Fig.4 vemos que los únicos tipos de
vehículos que no han disminuido sus
matriculaciones durante el 2011 son los de lujo
(+83,1%), los Todo terreno pequeños (+22,2%) y
los Monovolúmenes grandes (+11,3%). [6]-[7].
100
80
60
40
20
0
-20
-40
3
2) Competidores potenciales.
Tras todo lo analizado anteriormente, hemos
llegado a la conclusión de que nuestros principales
competidores serán empresas españolas situadas
en la zona de la provincia de A Coruña, y de
forma menos significativa, la zona centro y norte
de España. Por lo tanto, para determinar qué clase
de concesionario queremos construir, debemos
analizar los datos del apartado anterior. Desde
nuestra ubicación en Narón (A Coruña) tenemos
una relativa cercanía con distintos proveedores
(tanto de automóviles como de recambios o
materiales), lo malo es que no tenemos muy buena
situación para la distribución, pero no es un gran
problema puesto que nuestros principales
compradores serán los clientes locales y no
tenemos pensado exportar. La ventaja de montar
este tipo de negocio, es que vamos a trabajar con
marcas de automóviles ya conocidas y afianzadas
con una buena reputación en el mercado, por lo
que los principales proveedores serán conocidos
también y con muchos años de experiencia en el
mercado.
Del apartado anterior, vemos que nuestros
principales competidores a nivel nacional
previsiblemente serán las marcas Seat,
Volkswagen y Ford, por tener el mayor número de
matriculaciones durante el último año 2011.
3) Productos sustitutivos.
En el sector automovilístico, que es el que nos
ocupa, existen numerosos productos sustitutivos,
por ejemplo las motocicletas, bicicletas, transporte
Micro
público, etc. De todos ellos, los más usados por
83,1
Pequeño
los consumidores para sustituir el turismo
Medio-bajo
particular son las motos y sobre todo el transporte
Medio-alto
público. De estos dos mencionados, el último es el
Deportivo
más popular, puesto que es el medio más
Ejecutivo
económico de viajar. Debemos mencionar que en
España el 10,5% de la población utiliza el autobús
Lujo
22,2
como su medio de transporte principal.
11,3
Monov.peq.
Cada día más se fomenta el uso del transporte
-1,3
Monov.grande
-20,6 -16,1
público,
que, aunque no supone un gran peligro
TT peq.
-5,4
para nuestra industria, debemos tener en cuenta
TT medio
que en los últimos años muchas ciudades están
-20
-15,3
-16,8 -20,3
TT grande
reivindicando el abuso del uso del coche y los
-33,9
-32,8
TT lujo
problemas que conllevan en relación a
contaminación y aparcamiento público. Por ello la
Fig. 4- VARIACIÓN PORCENTUAL EN LAS MATRICULACIONES
DE TURISMOS POR CLASES(ESPAÑA,2011)
gente está empezando a utilizar transporte público
para acceder a las zonas más transitadas de las
III Congreso de cibernética
Universidad de León. Prego López. Estudio de mercado automovilístico.
4
-Número de proveedores: En el sector del
automóvil no existen muchos proveedores por lo
que éstos tienen alto poder de negociación ya que
a las empresas les interesa que los proveedores
fabriquen solamente para ellos.
-Coste de cambio de proveedor: Las piezas que
suministran los proveedores a los fabricantes de
coches son modelos únicos diseñados por la
propia empresa, modelos que no posee la
competencia, para ello hay que adaptar las
instalaciones de los proveedores para poder
fabricar esas piezas exclusivas.
-Que no existan productos sustitutivos: Esto no
sucede en este sector, los proveedores no tienen
que competir con otros proveedores, solo tienen
que
suministrar
las
piezas
bajo
las
especificaciones que le ha dado la empresa
-La empresa no supone un cliente importante:
En este sector el poder de negociación del
proveedor es bajo ya que los clientes que tienen
(los
fabricantes)
son
siempre
clientes
importantísimos ya que solo trabajan para ellos.
-Posibilidad de integración aguas abajo:
Cuando el proveedor principal puede convertirse
en un nuevo competidor esta posibilidad
representa una amenaza real para la empresa
-El producto que venden es importante para el
comprador: En este sector la evolución de los
proveedores está vinculada a la marcha del sector
y por eso serán propensos a aplicar condiciones de
suministro razonables.
-Número de clientes: En este sector del
automóvil lo general es que el poder de
negociación lo tengan las empresas ya que
distribuyen a través de sus propias redes que son
los concesionarios e imponen sus precios sin
alternativa.
-Posibilidad de integración aguas arriba: Este
hecho no es habitual en el sector del automóvil ya
que el cliente va al concesionario y éste se encarga
de que el cliente adquiera el vehículo.
-Rentabilidad de los clientes: En este sector no
es habitual que esto suceda pero en el caso de que
un cliente realice un pedido considerable sí que se
puede llegar a un acuerdo con la empresa para
disminuir costes de compra.
-Coste de cambio de proveedor para el cliente:
Esto no sucede en el sector del automóvil porque
los clientes son finales, los propios consumidores.
-Peso de nuestro suministro sobre ventas del
cliente: Los clientes estarán menos dispuestos a
rebajar nuestros precios en la medida que nuestros
suministros representen un porcentaje pequeño de
sus costes y viceversa. Aunque esto no sucede en
las empresas fabricantes de coches.
-Productos estándares o no diferenciados: El
poder de negociación del cliente en este aspecto
en el sector del automóvil es casi nulo ya que
todas
las
empresas
ofrecen
productos
diferenciados.
-El producto no es importante para la calidad
del producto del comprador: En este caso el
cliente depende mucho del proveedor ya que son
productos de alto precio y según las prestaciones
que elija el cliente tendrá que recurrir a una marca
u a otra.
-El comprador tiene información total: Para
realizar la compra de un vehículo el cliente
requiere toda la información posible del producto.
Los fabricantes de coches facilitan toda la
información a través de la publicidad y de la
información
que
ofrecen
los
propios
concesionarios.
5) Poder negociador de clientes.
Los compradores compiten en el sector
forzando la bajada de precios o más servicios y
haciendo que los competidores compitan entre
ellos. Su poder sobre el sector es mayor o menor
en base a los siguientes elementos [8]:
III. ESTUDIO DE VIABILIDAD TÉCNICA
En este estudio de viabilidad técnica lo que
vamos a hacer es estudiar las posibilidades de
éxito al implantar un taller y concesionario de
turismos en una nave ya construida.
ciudades y las autoridades cada vez más procuran
dificultar el acceso en vehículo a esas zonas para
fomentar el uso del autobús [8].
4) Poder negociador de proveedores.
En este apartado hablamos de las amenazas que
con su actuación pueden introducir los
proveedores en las expectativas del sector. Un
grupo de proveedores es poderoso si se da alguna
de las siguientes circunstancias [8]:
III Congreso de cibernética
Universidad de León. Prego López. Estudio de mercado automovilístico.
A. Trabajo del taller.
Tras analizar detenidamente la situación, se ha
llegado a la conclusión de que la mejor
distribución de las máquinas en la zona de taller es
la distribución funcional, la cual consiste en
colocar juntos el mismo tipo de máquina en la
misma zona del taller, ya que en nuestro taller se
van a reparar vehículos, y no a fabricarlos [9].
La maquinaria a utilizar en ese taller será la
necesaria para realizar las funciones de reparación
mecánica, eléctrica, carrocería, pintura, reparación
de radiadores y reparación de los equipos de
inyección [10].
Además, el personal del taller debe estar
especializado en todos los tipos de reparaciones de
turismos descritas anteriormente [11].
B. Impacto ambiental.
A raíz del hecho de que en nuestra nave se van a
llevar a cabo tareas de reparación de automóviles,
nuestro proyecto deberá cumplir con una serie de
normas y leyes destinadas a la protección del
medio ambiente.
Las leyes a tener en cuenta las mencionamos a
continuación:
-Ley 1/1995, de 2 de enero, de protección
ambiental de Galicia [12].
-Decreto 133/2008, de 12 de junio, por el que se
regula la evaluación de incidencia ambiental en
Galicia [13].
-Real Decreto 679/2006, de 2 de junio, por el
que se regula la gestión de los aceites industriales
usados [14].
-Real Decreto 833/1988, de 20 de julio, por el
que se aprueba el reglamento para la ejecución de
la Ley 20/1986, Básica de residuos tóxicos y
peligrosos [15].
-Decreto 174/2005, de 9 de junio, por el que se
regula el régimen jurídico de la producción y
gestión de residuos y el registro general de
productores y gestores de residuos de Galicia [16].
IV. ESTUDIO DE VIABILIDAD
ECONÓMICA.
A. Estimación de la inversión inicial.
La estimación inicial del capital necesario para
la inversión inicial es el reflejado a continuación:
III Congreso de cibernética
5
Tabla I
ESTIMACIONES ECONÓMICAS DEL PROYECTO.
PARTIDA
COSTE(€/año)
Maquinaria, herramientas y adaptación
del local como taller (700 m2)
Vado permanente
Coste de alquiler de la nave
Coste de apertura
Constitución de la sociedad anónima
Permisos
Seguro
Otros materiales de producción (trapos,
brocas, aceite, gasolina…)
Otros gastos
TOTAL
250.000 €
5.000 €
24.000 €
3.500 €
60.000 €
300.000 €
12.000 €
15.000 €
200.000 €
869.500 €
Esta gran inversión sería necesaria solo el
primer año de ejercicio de la empresa, de esa
fecha en adelante el gasto sería menor pues no
habría que pagar determinados permisos y
licencias, maquinarias, adaptación de las
instalaciones…todo eso forman parte únicamente
de los gastos iniciales.
B. Presupuesto de pagos y cobros.
1) Ingresos anuales estimados.
En España disponemos de 14 días festivos al
año, por lo tanto los días laborables anuales,
descontando los sábados, los domingos (que
nuestra empresa no los trabaja) y los festivos, son
un total de 255.
Vamos a suponer que los electromecánicos de
los talleres, son capaces de reparar al día 10
vehículos con averías leves, y 12 vehículos con
averías más laboriosas a la semana, es decir, 2,4 al
día. Además, vamos a estimar unas ventas anuales
medias de 25 automóviles nuevos y 60
automóviles de segunda mano.
Con estos datos, poniendo un precio medio de
300 € por avería leve y de 1.000 € por avería más
seria, y precio medio de 20.000 € por vehículo
nuevo y de 10.000 € por vehículo de segunda
mano, calculamos los ingresos anuales por
reparaciones y ventas de:
Tabla II
ESTIMACIÓN ECONÓMICA DE INGRESOS DEL PROYECTO.
Concepto
Cantidad año
Ingreso
Reparación averías leves
Reparación averías serias
Automóviles
nuevos
vendidos
Automóviles de 2ª mano
vendidos
TOTAL
2.550
612
25
765.000 €
612.000 €
500.000 €
60
600000 €
2477000 €
Universidad de León. Prego López. Estudio de mercado automovilístico.
-Sueldos.
Un cálculo estimado del gasto correspondiente a
los sueldos de los empleados del taller,
recepcionista, comerciales, administrativos…etc
asciende a aproximadamente 314.160 € al año.
-Otros gastos.
En este apartado podemos incluir los gastos del
alquiler mensual de la nave, del material de
oficina, del seguro de la empresa, los gastos de
seguridad social de las nóminas, IRPF…e
impuestos varios. Esta estimación asciende a
aproximadamente 165.000 €.
C. Financiación.
El ingreso inicial de la empresa, por los cálculos
estimados anteriormente, debe ser de 869.500 €,
por lo tanto deberemos pedir una financiación de
1.000.000 €, a pagar en 8 años con un tipo de
interés efectivo anual del 2,75%(27.500 €).
1) Inflación y tasa de actualización.
La inflación interanual ha caído 1,3% en enero
de este año 2012, hasta el 2%, según el indicador
adelantado del índice de precios de consumo
(IPC) publicado por el Instituto Nacional de
Estadística (INE). Se trata de la tasa más baja
desde agosto de 2010, cuando el IPC fue del 1,8%
[19].
Además, para el presente año 2012 vamos a
aplicar una tasa de impuestos del 18,5% y una tasa
de actualización del 10%. Por último mencionar
que vamos a suponer constantes los ingresos y los
III Congreso de cibernética
4,2
4,3
3
3,1
3,3
2
2,4
1
ene-11
ene-09
ene-08
ene-07
ene-06
ene-05
0,8
ene-10
2,3
ene-12
3,7
ene-04
5
4
3
2
1
0
ene-03
-Electricidad.
Suponemos un horario de trabajo en la empresa
de 8:00 h hasta las 22:00 h (12 horas/día). Por lo
tanto, contrataremos una tarifa eléctrica diurna sin
discriminación horaria. La tarifa elegida es la
tarifa 3.1 A de alta tensión., para potencias
contratadas de 450 KW y tres períodos horarios
[17]-[18].
Tras realizar una serie de cálculos y aplicar al
valor obtenido un incremento porcentual en
concepto del impuesto de la electricidad y otro del
IVA, obtenemos como resultado un gasto anual en
electricidad de aproximadamente 54.600 €.
gastos a lo largo de los 10 años de horizonte del
proyecto.
ene-02
2) Gastos anuales estimados.
6
Fig. 5- EVOLUCIÓN DE LA INFLACIÓN EN ESPAÑA.
D. Resultados.
Durante los próximos 10 años, que es el
horizonte estimado inicialmente para nuestra
inversión, tras realizar una serie de cálculos,
hemos obtenido que el movimiento de fondos
actualizado en el año 10 será de 481.381,78 €
aproximadamente.
Con todos los datos calculados en el
movimiento de fondos a lo largo de esos 10 años,
vamos a calcular una serie de valores económicos
muy representativos.
El primero de ellos es el VAN(Valor Actual
Neto), que nos da un valor de 7.047.135,03 €
aproximadamente. Esto a grandes rasgos quiere
decir que, al ser mayor que cero, se considera que
el proyecto es rentable, pues representa el dinero
ganado a lo largo de esos 10 años.
El segundo valor importante que hemos
calculado es el TIR(Tasa Interna de Rendimiento),
que nos da un valor de 155,63%. Este valor
corresponde a la tasa de actualización para la cual
el VAN vale cero e indica la rentabilidad del
proyecto, el cual es un valor muy subjetivo.
El tercer concepto es el de período de
recuperación de la inversión inicial, que tras
calcularlo nos da 1 año.
Por último, el ICB(Índice de Coste Beneficio),
cuyo valor obtenido es de 9,11. Este término es
muy útil para visualizar las ganancias obtenidas,
es decir, cuántas unidades monetarias se ganan
por cada una de las invertidas.
V. CONCLUSIONES.
Tras analizar el sector del automóvil en España
llegamos a la conclusión de que es un sector que
Universidad de León. Prego López. Estudio de mercado automovilístico.
se establece con el paso de los años, las empresas
que actúan en él hoy en día son empresas que
tienen una larguísima vida en el sector, con los
años se estabilizan y crean una imagen de marca
imposible de copiar o eliminar.
Es un caso excepcional que una empresa
abandone este sector debido a las altas barreras de
salida que supone, por eso las empresas esperan
hasta el último momento confiando en que su
suerte cambie, todo con tal de no abandonar el
sector. Una salida se debería siempre a una crisis
empresarial que ha desembocado en una quiebra.
Es muy difícil vender los activos fijos por su gran
especialización, estamos hablando de materias
primas con un alto coste de adquisición y
fabricadas y diseñadas para una sola empresa, por
lo que la dificultad para no perder dinero en la
salida es enorme.
Aquellas empresas que tengan intención de
entrar en el sector tendrán tantas barreras de
ingreso que deberán intentarlo únicamente si van a
implantar una revolución innovadora y siempre
respaldado por una multinacional extranjera del
sector, por lo contrario es casi imposible el
ingreso en el sector.
Al ser un mercado oligopolista, es decir, que se
trata de un mercado dominado por un pequeño
número de vendedores, la nueva empresa se verá
devorada por la competencia y las ventajas
competitivas que poseen gracias a los años de
trabajo en el sector.
En resumen, atendiendo a la situación del
mercado que acabamos de analizar, no es
recomendable una entrada en este sector, a priori
la mejor manera de entrar es a través de fusiones y
adquisiciones con las empresas que ya actúan en
el mercado.
Por otro lado, atendiendo a los valores
obtenidos a partir de todos los cálculos realizados,
vemos que obtenemos un Índice de Coste
Beneficio (ICB) de 9,11. Este valor es muy
elevado. Otro dato importante es el período de
recuperación de la inversión, que es de 1 año,
teniendo en cuenta que el horizonte de vida del
proyecto lo hemos estimado de 10 años, resultaría
muy rentable, dado que empezaríamos a obtener
beneficios a partir del primer año de la inversión.
Otro dato a tener en cuenta es el TIR, cuyo
valor para nuestro proyecto de estudio es de
155,63% aproximadamente. Teniendo en cuenta
III Congreso de cibernética
7
que este valor representa la rentabilidad del
proyecto, vemos que ésta se puede augurar muy
buena pasados esos 10 años. De hecho, para
conocerla hemos calculado el VAN, y el valor
obtenido al final de esos 10 años de ejercicio ha
sido de 7.047.135,03 €, un valor verdaderamente
alto tras 10 años de trabajo.
Así que la conclusión sacada tras analizar la
situación del mercado, tras analizar los datos
obtenidos no tenemos nada más que decir que los
datos económicos son muy buenos, pero está el
inconveniente de que se trata de un sector ya muy
afianzado en el mercado y existen fuertes barreras
de entrada.
REFERENCIAS.
[1]
“China es ya el segundo mercado mundial de
automóviles, sólo por detrás de EEUU” (2006)
disponible en: www.elmundo.es
[2] “El congreso de la patronal de concesionarios calienta
motores” disponible en:
http://www.autopos.es/2012/01/12/el-congreso-de-lapatronal-de-concesionarios-faconauto-calienta-motores/
[3] “Red de concesionarios por provincia” disponible en:
http://www.cochesyconcesionarios.com/redconcesionarios/provincias/concesionarioscoruna,A.html
[4] “Lista de proveedores de recambios para automóviles”
disponible en: http://material-y-equipamientotransporte.europages.es/guia-empresas/did-equip06/hc06240K/cc-ESP/Espana/Recambios-paraautomoviles.html
[5] “Lista de proveedores de vehículos de ocasión”
disponible en: http://vehiculos-materialtransporte.europages.es/guia-empresas/did-06/hc06212/cc-ESP/Espana/Vehiculos-de-ocasion.html
[6] “Matriculaciones de turismos en España” disponible en:
http://blog.cofike.com/2011/10/07/matriculacionesespana-tercer-trimestre-2011/
[7] “Datos matriculaciones turismos” disponible en:
http://www.anfac.com/imren/turisOCT10.pdf
[8] “Núcleo competitivo de Porter” disponible en:
http://www.ecobachillerato.com/temasecem/porter/alba.
htm
[9] Buccella, Jorge María con la colaboración de López,
Daniel Alfredo; (2004). ”Apuntes de procesos
productivos II” disponible en:
http://tecnologia.mendoza.edu.ar/trabajos_profesores/bu
scella-control/proceso_productivos.pdf
[10] Comunidad de Madrid; (2009). ”Quiero montar un
taller de automóviles” disponible en:
http://www.madrid.org/cs/Satellite?blobcol=urldata&bl
obheader=application%2Fpdf&blobheadername1=Cont
entDisposition&blobheadervalue1=filename%3DCuaderno
22.pdf&blobkey=id&blobtable=MungoBlobs&blobwhe
re=1220477767834&ssbinary=true
Universidad de León. Prego López. Estudio de mercado automovilístico.
[11] Consejería de Economía. Departamento de Estadística;
(1993). ”Estudios y análisis: Análisis del Sector de
talleres de reparación de vehículos en la comunidad de
Madrid” disponible en:
http://www.madrid.org/iestadis/fijas/informes/descarga/
an_sectortalleres.pdf
[12] “Ley 1/1995, de 2 de enero, de Protección Ambiental
de Galicia.” disponible en:
http://noticias.juridicas.com/base_datos/CCAA/ga-l11995.html
[13] “Decreto 133/2008, de 12 de junio, por el que se regula
la evaluación de incidencia ambiental en Galicia.”
disponible en:
http://www.xunta.es/Doc/Dog2008.nsf/FichaContenido/
2C81A?OpenDocument
[14] “Real Decreto 679/2006, de 2 de junio, por el que se
regula la gestión de los aceites industriales usados.”
disponible en:
http://noticias.juridicas.com/base_datos/Admin/rd6792006.html
[15] “Real Decreto 833/1988, de 20 de julio, por el que se
aprueba, el Reglamento para la ejecución de la Ley
20/1986, Básica de Residuos Tóxicos y Peligrosos”
disponible en:
http://noticias.juridicas.com/base_datos/Admin/rd8331988.html
[16] “Decreto 174/2005, de 9 de junio, por el que se regula
el régimen jurídico de la producción y gestión de
residuos y el Registro General de Productores y
Gestores de Residuos de Galicia” disponible en:
http://noticias.juridicas.com/base_datos/CCAA/gad174-2005.html
[17] (2005).”Tarifación eléctrica 05” disponible
en:http://www.mcgrawhill.es/bcv/guide/capitulo/8448147197.pdf
[18] Azofra Castroviejo, José Fernando; Azofra Rojo,
Diego; (2011). ”Estudio de las tarifas eléctricas vigentes
a partir del 1 de enero de 2011” disponible en:
http://sie.fer.es/esp/Asesorias/Eficiencia_Energetica/Est
udios_Documentacion/Estudio_Nuevas_Tarifas_Electri
cas_Vigentes_partir_1_abril_2011/webFile_14932.htm
[19]Evolución anual del IPC disponible en:
http://www.rtve.es/noticias/20120229/inflacionadelantada-se-mantiene-2-febrero/502581.shtml
III Congreso de cibernética
8
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
1
Los sensores inalámbricos y las redes en la
agricultura
Álvaro Fernández Martínez
[email protected]
Universidad de León
Resumen— Debido al avance en las tecnologías y la
reducción en el tamaño de los componentes, los sensores se
están utilizando en casi todos los ámbitos de la vida. La
agricultura es uno de esos dominios donde los sensores y
sus redes se utilizan con éxito para obtener numerosos
beneficios. La selección de sensores y su eficaz utilización
para resolver los problemas agrícolas ha sido una tarea
ardua para los usuarios novatos, debido a la falta de
información en la literatura.
El objetivo de este trabajo es revisar la necesidad de
sensores inalámbricos en la agricultura, la tecnología WSN
(Red Inalámbrica de Sensores) y sus aplicaciones en
diferentes aspectos de la agricultura e informar de los
marcos existentes y sistemas en el ámbito de la agricultura.
Índice de Términos—Actuadores, agromática, redes,
sensores.
I. INTRODUCCIÓN
La agricultura ha desempeñado un papel clave en
el desarrollo de la civilización humana. Debido a la
creciente demanda de alimentos, la gente está
tratando de poner un esfuerzo extra y técnicas
especiales para multiplicar la producción de
alimentos.
Agromática o agro-informática es el termino que
se refiere a la disciplina que hace uso de las
herramientas informáticas para optimizar los
beneficios de la explotación del sector
agropecuario, proporcionando nuevas herramientas
de apoyo, para áreas tan diversas como, por
ejemplo, la docencia, la investigación, la extensión,
la producción y el proceso de toma de decisiones. A
nivel mundial, se ha realizado un importante
número
de
trabajos
teórico-prácticos
multidisciplinarios relacionados con este tema, que
de una u otra forma refuerzan la idea sobre la
diversidad de campos que esta nueva disciplina
puede impulsar en los sectores productivos.
El uso de diferentes tecnologías para una
agricultura es uno de esos esfuerzos. Aparte del uso
de las tecnologías científicas en la agricultura, la
tecnología de la información está siendo ejercida en
gran medida en este ámbito. Las tecnologías como
la navegación por satélite, redes de sensores,
computación grid, etc. están apoyando dicho
dominio para mejorar la vigilancia, monitorización
y capacidad de decisión.
El uso de sensores y sus redes está apoyando las
prácticas agrícolas en una dirección muy positiva.
Para los sensores usados en la agricultura hay
muchas terminologías, como Agricultura de
Precisión (AP), la agricultura inteligente,
Tecnología Tasa Variable (VRT), Agricultura de
GPS (Sistema de Posicionamiento Global),
Ganadería por pulgada, Agricultura de información
intensiva, etc. pero el concepto subyacente en todos
ellos es el mismo.
Los avances de las tecnologías ha reducido el
tamaño de los sensores hasta tal punto que pueden
ser utilizados en una variedad enorme de los
dominios de la vida humana. Debido a la
importancia de la tecnología de sensores, varios
temas relacionados con los sensores y sus redes se
encuentran en investigación. La restricción de
energía, potencia de cálculo limitada, pequeña
memoria y la seguridad de los datos son algunas de
las cuestiones de fondo de las redes de sensores
para que los investigadores propongan varias
soluciones.
El objetivo de este trabajo es revisar la necesidad
de sensores inalámbricos en diferentes aspectos de
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
la agricultura. El resto de este artículo se organiza
de la siguiente manera: en el siguiente capítulo,
vamos a presentar la importancia de los sensores en
la agricultura. En el capítulo III, se introducirán la
tecnología de sensores y sus redes. De sensores
inalámbricos y actuadores de aplicación de redes en
la agricultura será discutido en el capítulo IV. En el
capítulo V se discutirá el marco del sistema de
disposición propuesto para la agricultura seguida de
las conclusiones en el último capítulo.
II. LA IMPORTANCIA DE LOS SENSORES EN LA
AGRICULTURA
Los sensores se utilizan para recoger información
sobre los atributos físicos y ambientales, mientras
que los actuadores se emplean para reaccionar a
ellos y a tener control sobre las situaciones. La
información acumulada de los sensores que
caracterizan el objeto o el medio ambiente y se
utilizan para identificar a las personas, la ubicación,
los objetos y sus estados es conocida como
contexto. La adquisición de contexto proporciona
una valiosa contribución en situaciones de
modelado que tienen variedad de atributos variables
en el tiempo.
La agricultura plantea varios requisitos que son
los siguientes:
1. Recolección de clima, los cultivos e
información del suelo.
2. Seguimiento de la tierra distribuida.
3. Múltiples cultivos en una sola tierra.
4. Precisar la diferente cantidad de fertilizantes o
agua que necesitan partes desiguales de una parcela.
5. Diversos requerimientos de cultivos
destinados a diferentes climas y condiciones del
suelo.
6. Las soluciones proactivas en lugar de
soluciones reactivas.
Requisitos arriba mencionados implican la
aplicación y procesamiento paralelo y distribuido a
realizar. Además, los sensores y actuadores
inalámbricos están obligados a recoger los datos
necesarios y de reaccionar ante diferentes
situaciones.
Para tomar la decisión hay que disponer de la
2
información procesada en lugar de datos no tratados
del sensor.
Para hacer frente a tales requisitos, los sensores
inalámbricos, actuadores y sus redes se presentan
como un fuerte candidato para el desarrollo de un
sistema para la adquisición de contexto (entorno), la
presentación de los datos adquiridos a sistemas
remotos de apoyo a las decisiones y por lo tanto
proveer un ambiente controlado para tomar una
decisión. Algunos de estos sensores miden la
humedad, la temperatura, la presión atmosférica, la
velocidad del viento, la dirección del viento, etc.
(ver Tabla I).
III. LA TECNOLOGÍA DE SENSORES INALÁMBRICOS Y
REDES
La utilización de sensores se está convirtiendo
posiblemente en un hecho en casi todos los ámbitos
de la vida debido al avance de la tecnología y la
reducción de tamaño. Un sensor es un dispositivo
que tiene la capacidad para medir los atributos
físicos y convertirlos en señales para el observador.
Los sensores son parte de la naturaleza y muchas de
las capacidades de detección están disponibles en
los organismos vivos en forma de bio-sensores.
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
La Red Inalámbrica de Sensores (WSN) está
compuesta por varios componentes llamados 'nodos'
(Fig. 1). Los nodos son dispositivos inteligentes que
se utilizan para recoger los datos. Una red de
sensores tiene tres funciones básicas: (1) Detección
(2) Comunicación y (3) Cálculo usando hardware,
software y algoritmos. Los nodos se encargan de
realizar varias funciones. Los nodos distribuidos
que recopilan la información se llama nodo de
origen (fuente), mientras que el nodo que reúne la
información de todo nodo de origen se denomina
nodo sumidero y a veces nodo de pasarela. El nodo
sumidero podría tener potencia de cálculo
relativamente alta. Un nodo fuente también
funciona como un nodo de enrutamiento debido a la
exigencia de enrutamiento de múltiples saltos.
La Red de Sensores y Actuadores Inalámbricos
(WSAN en inglés) es una variante de WSN que
tiene un tipo adicional de componente que es un
actuador. La inclusión del actuador aumenta la
capacidad de WSN de monitoreo para el control.
A. Tecnologías de la comunicación
Las tecnologías inalámbricas de comunicación,
como ZigBee, Bluetooth, Wibree y WiFi son parte
de varios trabajos de investigación basados en redes
de sensores. Estas tecnologías tienen diferentes
capacidades y propiedades en las que se
complementan.
La tecnología de la comunicación inalámbrica
ZigBee (IEEE 802.15.4) es preferible a otras
tecnologías para el desarrollo de la red de sensores
inalámbricos, debido a su bajo coste y bajo
consumo de energía. Se introdujo en mayo de 2003
y opera en la banda 2.4 GHz, a nivel mundial. Hay
16 canales de ZigBee con un ancho de banda de 5
MHz cada uno en la banda de 2,4 GHz.
3
B. Arquitectura del nodo sensor inalámbrico
El nodo de sensor inalámbrico es una unidad
básica de la red de sensores inalámbricos. Se
compone de 4 módulos básicos, incluyendo el
módulo
sensor/actuador,
el
módulo
de
comunicación, el módulo de procesamiento/cálculo
y módulo de potencia (Fig. 2).
La memoria externa es un módulo opcional que
puede ser necesario en caso de requisitos de
almacenamiento de datos para la toma de decisiones
a nivel local. Su diseño requiere de muchas
consideraciones, como la conservación de energía,
la escalabilidad, el tamaño, ubicación, etc.
El modulo de sensores/actuadores proporciona
interfaces para transductores y actuadores. Algunos
ejemplos de los nombres de sensores disponibles en
el mercado: MICAz, MICA2DOT, MICA2, Imote2,
TelosB, IRIS y Cricket.
El procesador / microcontrolador, la memoria, la
banda de frecuencia de trabajo, sensores
compatibles, rango de transmisión y el tamaño son
algunos de los principales atributos de un nodo
sensor que lo hacen preferible a otros.
Los microcontroladores juegan un papel vital, ya
que proporcionan potencia de cálculo para la toma
local de decisiones y la agregación de datos, gestión
de la energía a través de métodos de suspensión e
hibernación, etc.
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
ATMega128L es el microcontrolador más común
debido a su baja demanda de potencia, con varios
modos de sueño, la memoria flash, el
almacenamiento eficiente y la compatibilidad con
prácticamente todo el código TinyOS.
La agricultura genera unos requerimientos
específicos que se presentan en el siguiente
capítulo. Debido a los requisitos especiales, los
nodos sensores son también especialmente
diseñados manteniendo la robustez, la ubicación, el
apoyo de una fuente alternativa de batería, etc.
C. Redes de sensores inalámbricos
Basándose en el concepto flexible y autónomo de
las redes de sensores inalámbricas, se han creado
oportunidades para las áreas que requieren de
aplicaciones sensores remotos y de actuación para
optimizar los resultados. Sin embargo, la tecnología
de redes de sensores inalámbricos plantea muchas
cuestiones que necesitan ser manejadas para la
viabilidad a largo plazo de los sistemas
desarrollados. Cuestiones como el consumo de
energía para el funcionamiento autónomo de los
nodos sensores, nombrar temas de diseño y
desarrollo, incluyendo los protocolos
de
comunicación, y la implementación.
Sin embargo, en el contexto de nuestro estudio se
describen los problemas que son críticos para la
aplicación de WSN en el dominio de la agricultura.
En muchos casos, el cultivo se lleva a cabo en
fincas tan grandes (varios cientos de hectáreas) y
pueden implicar una diferente naturaleza, tierra,
recursos y microclimas. Los nodos de sensores que
se colocan en un entorno abierto y no controlado
plantean varios problemas de implementación y de
diseño, algunos de los principales de ellos, como a
continuación:
1) El consumo de energía: Cada nodo sensor
colocado en una red de sensores inalámbricos
tiene la responsabilidad de la detección de
eventos, procesamiento y transmisión de datos.
En el caso de la red multi-punto, un nodo
tiene
la
responsabilidad
adicional
de
enrutamiento de datos también. Cada una de las
acciones antes mencionadas requiere de energía
4
para realizarse. Un nodo es generalmente
equipado con una fuente de energía finita y
limitada, por ejemplo pilas alcalinas o células de
litio.
Por lo tanto, el tiempo de vida de un nodo
sensor depende en gran medida de su vida útil.
Mediante la aplicación de una estrategia
adecuada de gestión de energía en hardware y
software, la duración de la batería puede
extenderse varios meses más.
Por otra parte, el uso de fuentes de energía
renovables como la solar o la energía cinética
podría ser adoptado cuando una solución costosa
más ligera pueda compensar en favor de una vida
más larga de nodos de sensores.
Por otra parte, en el caso de las tierras
agrícolas, estos sensores podrían ser sustituidos
periódicamente por el cambio de la batería ya
que su ubicación y acceso está por lo general
bien definido.
2) La adquisición de datos: Con los datos de
cada muestra, procesada y transmitida, la energía
se gasta. Una colección de datos eficiente y
optimizada y una frecuencia de muestreo son
necesarias ser programadas para que no sólo los
datos relevantes y útiles sean capturados, sino
solo los relevantes.
Por el contrario, la adquisición de datos
continuamente causará gran cantidad de paquetes
que se transmiten y esto agota la energía de la
batería rápidamente. En la agricultura, la
velocidad de muestreo para la adquisición de
datos no es generalmente alta. Sin embargo,
podría hacerse ajustable basada en el medio
ambiente, tipo de cultivo y de los recursos.
Como se mencionó en el capítulo III.A,
varias tecnologías de transmisión inalámbricas
están disponibles para su uso. Una estrategia de
transmisión de datos también se podría
considerar de modo que se realicen menores
transmisiones, conservando así la energía. Esto
puede incluir el almacenamiento local de datos
en los nodos sensores y transmisión inteligente
de datos, por ejemplo los valores añadidos o sólo
los modificados, etc.
Además, la aplicación de opciones como el
modo de suspensión puede ser ejercida con el fin
de activar los emisores sólo cuando sea
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
necesario. También para tener enlaces de
comunicación fiables, los nodos de sensor debe
ser colocada lo más cerca entre sí para garantizar
la fiabilidad de comunicación multi-punto.
3) Tolerancia a fallos: Nodos de sensores que se
colocan en exteriores son propensos a daños físicos
bloqueos, e interferencias. Para mantener la
fiabilidad de un WSN, el fallo de un nodo sensor no
debe afectar a la tarea global de la red. El uso
redundante de nodos de sensores, la reorganización
de la red de sensores y las regiones superpuestas de
sensores, etc son algunas de las técnicas empleadas
para aumentar la tolerancia a fallos y fiabilidad de
la red.
4) Tamaño y ubicación del sensor: El tamaño del
nodo de sensor debe ser pequeño y adecuado para
su uso. El nodo debe ser encapsulado en una carcasa
de protección por lo que es resistente a los factores
ambientales como el calor y la lluvia, y el mal
manejo/uso de humanos o animales.
5) La colocación del sensor: La colocación del
nodo de sensor es un tema importante en relación
con el diseño de la red, los algoritmos, topologías a
utilizar, y los parámetros que se detectan. Tiene que
ser cuidadosamente diseñado y ejecutado con
inteligencia, para que una WSN pueda establecer
que funcionan de forma fiable y autónoma.
La colocación de los sensores debe ser tal que toda
el área esté cubierto y los sensores estén situados en
una posición y altura a fin de medir los parámetros
sin obstáculos.
Por ejemplo, los sensores de luz deben colocarse a
una altura a fin de evitar el bloqueo de las hojas de
las plantas. El nivel de agua y sensores de humedad,
por otro lado, deben colocarse lo suficientemente
cerca del suelo para las mediciones precisas. Los
fuertes vientos y las corrientes de agua pueden
desviar los sensores de las posiciones deseadas, por
lo que es importante montar los accesorios
apropiados para apoyar a los nodos.
IV. APLICACIONES Y EJEMPLOS
La utilización de sensores, actuadores y su red en
el campo de la agricultura se encuentra en etapas
avanzadas. WSN y WSAN están en uso con
diferentes tecnologías, relacionadas
informática y la computación grid.
5
con
la
Los servicios agrícolas como el riego, la
fertilización,
la
fumigación
con
insecticidas/fungicidas y la vigilancia de pastos son
tratados en este capítulo. La horticultura también se
tiene en cuenta debido a su importancia.
A. El riego
El riego se define como la aplicación artificial de
agua en terrenos agrícolas y se considera como uno
de los componentes más importantes de la
agricultura. La escasez de agua en varias zonas
instiga a la necesidad del uso adecuado del agua
debe ser proporcionada únicamente a aquellos
lugares donde sea necesario y en cantidad necesaria.
Los diferentes métodos de riego están en su uso
como el riego por goteo, riego por aspersión, etc.
para hacer frente con el problema del desperdicio de
agua con los métodos tradicionales como el riego
por inundación, riego por surcos, etc.
Existe un sistema de riego automático remoto
probado en España [7]. El área se divide en
regiones. Cada región se monitoriza con un
controlador independiente. Están interconectas entre
sí y con el controlador central a través de red
WLAN. Los resultados mostraron una conservación
del agua significativa, es decir, hasta 30-60%.
También hay otras técnicas como una red
inalámbrica de adquisición de datos para recoger
datos sobre el clima con la humedad del suelo para
el riego inteligente en Portugal [8]. A partir de un
nivel de humedad, comenzaba el riego.
B. La fertilización
Los fertilizantes se utilizan para aumentar la
fertilidad del suelo que afecta directamente al
crecimiento de las plantas y la calidad de los
alimentos. Existen diversas formas de fertilización
usadas como la radiodifusión, la difusión manual y
la pulverización. La aplicación óptima de
fertilizante es una tarea difícil y requiere
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
capacidades de detección. Los investigadores han
presentado
diferentes
soluciones
para
la
fertilización adecuada.
S. Cugati, W. Miller y J. Schueller [9],
construyeron un aplicador de fertilizantes
automatizado que consiste en la entrada, apoyo a las
decisiones y los módulos de salida, utilizando la
tecnología GPS, los sensores en tiempo real y la
tecnología Bluetooth. El módulo de entrada se
utiliza para proporcionar valores de los datos GPS y
los sensores al sistema de soporte de decisiones
(DSS), que calcula la cantidad óptima y el patrón de
propagación de fertilizantes basados en tiempo real
de sensores de adquisición de datos a través de
módulos de comunicación Bluetooth. Los cálculos
DSS fueron utilizados para regular la frecuencia de
aplicación de fertilizantes.
Otro sistema [10] consiste en un sensor mecánico
montado en la parte delantera de tractor que se
utiliza para medir la densidad de la cosecha y así
estimar la aplicación de nitrógeno dentro del campo.
J. He, J. Wang, D. He, J. Dong, Y. Wang [11]
desarrollaron el uso la red LAN inalámbrica con
sensores de protocolo IEEE 802.11 (WiFi) y un
servidor de análisis de GPS. Los sensores se utilizan
para adquirir datos en tiempo real de la humedad
del suelo, conductividad, temperatura, pH, la
temperatura del aire, humedad, concentración de
CO2, iluminación, etc. El sistema fue diseñado con
la estructura navegador/servidor para proporcionar
una alta interactividad. Las pruebas y experimentos
llevados a cabo incluían tres factores: nitrógeno,
fósforo y potasio (NPK).
C. El control de plagas
Las estrategias de manejo de plagas agrícolas y la
búsqueda de productos han sido durante mucho
tiempo arduas tareas. El mayor énfasis se mantuvo
en el desarrollo de nuevos productos efectivos
capaces de remplazar el producto viejo tóxico por
otro no perjudicial para el medio ambiente.
El control de plagas puede ser más sostenible
cuando las prácticas agrícolas son más compatibles
con los sistemas ecológicos. Las redes de sensores
6
se han utilizado también para superar los problemas
de hongos y virus.
Por ejemplo, Aline Baggio [12] desarrolló un
proyecto para hacer frente a la enfermedad en el
cultivo de patata, Phytophtora. Se utiliza sensores
para detectar la humedad y temperatura. El
seguimiento de estos dos parámetros ayudó a
reducir la enfermedad.
Las enfermedades de las plantas ocurren muy a
menudo en parcelas de cultivo y requieren la
aplicación de fungicidas con usos no uniformes
sobre todo la parcela.
D. La vigilancia de los pastos
Z. Butler, Corke P. Peterson, R. y D. Rus [13]
desarrollaron un algoritmo de vallado virtual para
controlar rebaño de vacas. Un collar inteligente que
consiste en un receptor GPS, una PDA, una tarjeta
de memoria flash WiFi para WLAN y un
amplificador de audio con el altavoz se utiliza para
cada vaca. La ubicación de los animales se verifica
a través del GPS en relación con la valla virtual. En
caso de acercarse a la valla virtual, un sonido se
genera para llevar los animales dentro del perímetro
del vallado.
Otra investigación [14] fue el diseño de hardware
robusto que podría ser utilizado al aire libre para el
modelado de cada animal y el comportamiento de la
manada. Se utiliza el sensor para monitorizar el
comportamiento animal como dormir, el pastoreo,
rumia, etc. Este tipo de análisis de comportamiento
en combinación el movimiento que realizan podría
ser utilizado para la relación madre-cría, así como
las tendencias en el comportamiento de rebaño.
La vigilancia del ganado es una tarea importante,
pero plantea varios desafíos, como la atenuación de
radio causada por el cuerpo de los animales, la
movilidad de éstos, etc.
E. La horticultura
La horticultura trata con el cultivo, producción,
distribución y uso de las flores, frutas, plantas
ornamentales, de invernadero, etc.
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
W. Zhang, G. Kantor y S. Singh [15] utilizaron en
su estudio una red de sensores para monitorizar la
temperatura del aire, humedad, luz ambiental, la
humedad del suelo y la temperatura. Eso les ayudó
en el análisis de la actual situación del vivero de
plantas. Esta red también puede ayudar en la
búsqueda de enfermedades de las plantas.
1) Los invernaderos: La vigilancia del medio
ambiente y el control de los invernaderos es crucial
ya que no es dependiente de los agentes naturales.
D. Kolokotsa, Saridakis G., Dalamagkidis K., S.
Dolianitis y Kaliakatsos I. [16] desarrollaron un
entorno inteligente en interiores y un sistema de
gestión de energía para invernaderos. La
iluminación interior del invernadero, la temperatura,
la humedad relativa, la concentración de CO2 y la
temperatura exterior fueron monitorizados. Se
desarrollaron dos controladores de lógica difusa,
que consta de P difusa (proporcional) y PD
(proporcional-derivativo) de control utilizando unos
puntos de ajuste interiores concretos. Como
actuadores de salida gestionaban unidades de
calefacción, cortinas controladas por motor,
iluminación artificial, botellas de CO2 y válvulas de
nebulización de agua.
2) La viticultura: El ejemplo más destacado fue en
el que R. Beckwith, D. Teibel y P. Bowen [17]
aplicaron en su estudio una red de sensores
inalámbricos de 65 nodos multi-punto en un viñedo
de 6 meses. La información recogida se utilizó para
hacer frente a los daños del fuerte calor y las
heladas, dos de los parámetros más importantes en
la producción de vino.
V. MARCOS DEL SISTEMA
No hay un organismo estándar que proporcione la
metodología estándar para el desarrollo de sensores
basados en sistemas agrícolas de adquisición de
datos para el modelado y la toma de decisiones.
Varios grupos de investigación están trabajando de
forma independiente y el desarrollo de estos
sistemas que utilizan tecnologías estándar bajo la
terminología de Agricultura de Precisión.
La Organización para la Alimentación y la
Agricultura de las Naciones Unidas (FAO) está
realizando una de las actividades de normalización
7
trabajando para apoyar el desarrollo de su contexto
modelado a través de la ontología.
VI. CONCLUSIONES
La agricultura tiene un ámbito muy amplio en el
que el potencial del uso de WSN y WSAN es muy
alto. Se ha presentado una revisión de varias
soluciones y esfuerzos en el campo de la
agricultura. Los principales puntos acerca de la
aplicación de estas tecnologías son:
1. Las soluciones son demasiado complejas de
implementar y requiere un apoyo técnico
importante.
2. El elevado coste está presente en su
implementación.
3. La falta de solución generalizada a los
distintos servicios y los problemas. Cada
uno crea su solución en vez de hacerlo en
conjunto.
4. La mayoría de trabajos de investigación son
descritos a nivel teórico y en entornos muy
controlados.
REFERENCIAS
[1] E. Capella. “La enseñanza de la Agromática”. Disponible
en:
www.mag.go.cr/congreso_agronomico_xi/a50-6907I_223.pdf
[2] J.R. BARRETT, D.D. Jones. “Knowledge Systems
Development in U.S. Agriculture”. Expert Systems With
Applications, Vol. 4, pp. 45-51, 1992
[3] R. Doluschitz, W.E. Schmisseur. “Expert Systems:
Applications to Agriculture and Farm Management”.
Computers and Electronics in Agriculture, 2 (1988), pp. 173182 Elsevier Science Publishers B.V., Amsterdam
[4] Aqeel-ur-Rehman, et al., “A review of wireless sensors
and networks' applications in agriculture”, Comput. Stand.
Interfaces (2011)
[5] H. Auernhammer, J. Frisch. “Mobile Agricultural BUSSystem -LBS, Standardization and State of the Art”.
Computers and Electronics in Agriculture, 14 (Elsevier 1996)
pp. 333-338
[6] M. Neunteufel. “Modelling food and agricultural systems.
A state-of-the-art study”. Food Policy, Volume 4, Issue 2,
May 1979, pp. 87-94
Ejemplos y aplicaciones
Universidad de León. Fernández Martínez, Álvaro. Los sensores inalámbricos y las redes en la agricultura.
[7] M. Damas, A.M. Prados, F. Gómez, G. Olivares,
“HidroBus system: fieldbus for integrated management of
extensive areas of irrigated land”, Microprocessors
andMicrosystems 25 (3) (2001) 177–184.
[8] R. Morais, A. Valente, C. Serôdio, “A wireless sensor
network for smart irrigation and environmental monitoring”,
EFITA/WCCA Joint Congress on IT in Agriculture,
Portugal, 2005, pp. 845–850.
[9] S. Cugati, W. Miller, J. Schueller, “Automation concepts
for the variable rate fertilizer applicator for tree farming”, The
Proceedings of the 4th European Conference in Precision
Agriculture, Berlin, Germany, 2003, pp. 14–19.
[10] D. Ehlert, J. Schmerler,U. Voelker, “Variable rate
nitrogen fertilisation of winter wheat based on a crop density
sensor”, Precision Agriculture 5 (3) (2004) 263–273.
[11] J. He, J. Wang, D. He, J. Dong, Y. Wang, “The design
and implementation of aintegrated optimal fertilization
decision support system”, Mathematical and
Computer Modelling (in press).
[12] A. Baggio, “Wireless sensor networks in precision
agriculture”, ACM Workshop Real-World Wireless Sensor
Networks, Stockholm, Sweden, 2005.
[13] Z. Butler, P. Corke, R. Peterson, D. Rus, “Virtual fences
for controlling cows”, The
2004 IEEE International Conference on Robotics and
Automation (ICRA), New Orleans, LA, 2004, pp. 4429–4436.
[14] T. Wark, P. Corke, P. Sikka, L. Klingbeil, Y. Guo, C.
Crossman, P. Valencia, D. Swain, G. Bishop-Hurley,
“Transforming agriculture through pervasive wireless sensor
Networks”, IEEE Pervasive Computing (2007) 50–57.
[15] W. Zhang, G. Kantor, S. Singh, “Integrated wireless
sensor/actuator networks in an agricultural application”, 2nd
ACM International Conference on Embedded Networked
Sensor Systems, 2004, p. 317.
[16] D. Kolokotsa, G. Saridakis, K. Dalamagkidis, S.
Dolianitis, I. Kaliakatsos, “Development of an intelligent
indoor environment and energy management system for
greenhouses”, Energy Conversion and Management 51 (1)
(2010) 155–168.
[17] R. Beckwith, D. Teibel, P. Bowen, “Report from the
field: results from an agricultural wireless sensor network”,
29th Annual IEEE International Conference on Local
Computer Networks, Tampa, FL, USA, 2004, pp. 471–478.
Autor
Ingeniero en Informática por la Universidad de León.
8
Métodos de clustering para el análisis de
subpoblaciones de relevancia biológica.
Eloy Garcı́a
Escuela de ingenierias Industrial,
Informática y Aeronautica (EIIA)
Universidad de León.
León, España.
Email: [email protected]
Abstract— Las técnicas de minerı́a de datos han proporcionado
una poderosa arma a investigadores de distintos campos para
poder realizar estudios sobre las subpoblaciones contituyentes
de los grandes conjutos de datos que se manejan. Ası́, técnicas
de clasificación supervisada y no supervisada han sido puestas en
práctica en campos como la biológia, la medicina o la veterinaria.
El actual trabajo presenta una recopilación de los métodos de
clustering (clasificación no supervidada) más comunes utilizados
en ramas como al citometrı́a de flujo, la genética o el análisis de
subpoblaciones desarrollado en otras ramas.
I.
I NTRODUCTION
Los métodos asistidos por ordenador han ofrecido a distintas ramas de la ciencia la oportunidad de generar grandes
cantidades de datos y poder trabajar fácilmente con ellos.
Estos conjuntos de datos (o datasets) pueden ser analizados
mediante técnicas de Minerı́a de Dados y Machine Learning
para agrupar el conjunto en pequeños grupos o clusters los
cuales, en muchas ocasiones, pueden ser analizados como subpoblaciones que agrupan determinados tipo de caracterı́sticas
con un particular interés.
La biologia o la medicina son algunos de los campos que
se pueden ver más beneficiados de ellos. Los nuevos métodos
estadı́sticos ayudan a caracterizar agrupaciones genéticas de
alto interés. La citologia de flujo, disciplina utilizada para
analizar poblaciones de células o de microorganismos, adopta
un gran número de técnicas para analizar subpoblaciones
celulares que van desde la hematologia hasta la inmunologı́a,
pasando por el estudio de distintos tipos de enfermedades
como puede ser la leucemia y su comportamiento en las
células.
Partiendo de una población inicial, un conjunto estadı́stico
de datos, en las disciplinas anteriores, como en otras muchas,
interesa analizar la posible composición de ella y dividirla
en subpoblaciones constituyentes que presenten una mayor
relevancia. En muchas ocasiones, la cantidad de posibles
subconjuntos constituyentes no es un hecho conocido a priori,
lo cual hace que se convierta en un problema candidato
perfercto para la utilización de técnicas de Minerı́a de Datos,
como los métodos de clustering.
El objetivo del análisis de clustering es obtener frecuencias
y resúmenes estadı́sticos de los subgrupos obtenidos después
de dividir los datos en dichos subconjuntos, pudiendo obtener
estadı́sticas fiables. Hay distintos acercamientos a los métodos
de clustering que pueden ser utilizados potencialmente, pero
algunas opciones pueden resultar ser mas apropiados que otros.
Por supuesto, este es un hecho que los investigadores de
estos campo, y de otros muchos, estan reconociendo. Con
lo cual, dichos métodos se están poniendo en práctica para
obtener, no sólo un análisis de subpoblaciones estadı́sticas,
sino tambien para hallar en ellas un consistente significado
biológico.
En este trabajo se realizará un repaso de las principales
técnicas de clustering utilizadas, ası́ como la metodologia de
trabajo utilizada, principalmente en los campos expuestos.
II.
E STUDIOS PRELIMINARES . A DQUISICI ÓN DE DATOS Y
EVALUACI ÓN .
En cualquiera de las ramas cientı́ficas mencionada hasta
ahora, biologı́a, genética o citometria de flujo, se pueden llegar
a trabajar con grandes cantidades de datos, ya se trate de
datos de dinámica celular, tamaño o forma de heterogéneas
de las mı́smas o, incluso de datos o expresiones genéticas.
Frecuentemente, el número de descriptores utilizados suele ser
muy grande.
Según el método por el cual se desarrolle la adquisición de
los datos, estos pueden hallarse plagados de problemas para
los procesos comunes de clustering. Los problemas tı́picos
comprenden desde outliers, ruido o colinealidad entre los
descriptores escogidos hasta datos (biológicamente) anómalos
o una debil estructura de los conjuntos. Sin embargo la
presencia de estos problemas no debe ser tomada como signo
de problemas en los datos.
Como se ha dicho, el objetivo del análisis de clustering es
obtener frecuencias y resúmenes estadı́sticos de los subgrupos
obtenidos despues de particionar los datos.
Habiendo obtenido los datos, en primer lugar se tratarı́a
de eliminar los outliers, dado que estos pueden afectar a
los resultados del clustering. Sin embargo, en determinados
casos, puede ser dificil determinar si un evento se trata de
un auténtico outlier o si, por el contrario, se trata de un
genuino evento. Muchas veces se añade la dificultad de la
multidimensionalidad de los datos, de modo que se requieren
algoritmos especı́ficos que detecten estos datos anómalos[2].
Los conjuntos de datos suelen ser examinado para hallar
los extremos o datos irrealizables o no realistas, los cuales
afectarı́an a los resultados finales del clustering.
La vulnerabilidad de algunos métodos de clustering a los
outliers, como puede ser el caso del K-means que tiende a
agrupar estos puntos en clusters pequeños, de poco eventos,
pueden ser utilizados para localizarlos y eliminarlos. De este
modo, como un primer paso preliminar, se puede aplicar el
algoritmo sobre los datos puros, sin previo tratamiento de
estos. La solución obtenida serı́a examinada para conseguir
eliminar los clusters más pequeños, que supodrı́an aquellos
sobre los que se localizan los outliers, y que, frecuentemente,
contendrı́an valores medios extremos.
También existen otros algoritmos que pueden encargarse de
ruidos y outliers, como por ejemplo el clustering basado en
modelos[6].
La transformación de los datos, puede ser necesario antes
de aplicar los métodos de agrupación, especialmente si las
variables tienen una alta asimetria estadı́stica, que puede ser
detectable mediante simples descripciones estadistica de las
variables o por la evaluación de sus histogramas.
Del mismo modo se han de tener en cuenta aquellas que
posean valores superiores a las demás. En un proceso de clustering, aquellas variables de menor valor pueden ser infravaloradas mientras de las de valores más grandes pueden dominar
el proceso, haciendo recomendable un “estandarización” de las
variables (según sea el caso), llevándolas a toda ellas a una
escala similar.
Los datos que se obtienen mediante determinados conjuntos
de medios asistidos por ordenador, se pueden caracterizar por
tener un gran número de variables y, en ocasiones, por la
redundancia de estas. Esta redundancia proviene del hecho de
que algunas de las distintas variables contenga información
similar o unas sean derivadas de otras. Por ello se hace
deseable reducir el número de variables antes de someter los
datos a cualquier algoritmo de clustering, tanto para reducir
la dimensionalidad de los descriptores como para eliminar la
redundancia entre ellas.
Del mismo modo, no todas las variables contribuyen igual
a definir la estuctura de los clusters. La selección incorrecta
de las variables puede producir una solución pobre, y tampoco
es una tarea sencilla hacer una elección apropiada de estas.
Una combinación de conocimiento subjetivo, tanto del
conocimiento del investigador sobre la materia como de las
técnicas, y un conjunto de métodos estadı́sticos suelen ser
aplicados en este paso del procedimiento. Por lo general, un
simple análisis entre las correlaciones de las variables suele
valer para hallar aquellas que representan datos redundantes o
que se encuentran altamente relacionadas.
Existen diversas propuestas para poder analizar las variables
mediante distintos tipos de clustering, de modo que se pueda
seleccionar el subconjnto más adecuado y que mejor describa
la estructura de los clusters.
Algunos investigadores utilizan el Análisis de Componentes
Principales (PCA) como una herramienta para reducir la
dimensionalidad. El PCA remplaza las variables del conjunto
de datos multivariantes por un conjunto no correlacionado
de variables derivadas, denominadas componetes principales
y que son combiación lineal de las variables iniciales.
Con el conjunto de componentes principales se puede
observar cuales de ellos contienen la mayor varianza, pudiendose tomar únicamente estos y reduciendo, de este modo la
dimensionalidad del conjunto. Sin embargo, el uso del PCA,
tal como critican diversos autores[1], no mantiene la posible
estructura de los clusters, aunque para otros investigadores se
trata de una herramienta de gran valor para la exploración de
datos y la selección de las variables[7], [8], [9].
III.
III-A.
M ÉTODOS DE C LUSTERING
Cálculo de la matriz de distancias.
Los procesos de clustering presentan un gran número de
elecciones entre los investigadores. Cualquier método puede
ser utilizado para evaluar las clases constituyentes de una gran
población estadı́stica y casi cualquiera de ellos se pueden llevar
a cabo para la búsqueda de subpoblaciones. Sin embargo no
todas pueden obtener los mismos resultados y, de ese modo,
resultan más convenientes unos métodos que otros.
De hecho, antes de llevar a cabo el clustering normalmente
es necesario realizar un paso preliminar para generar una
matriz de distancias entre observaciones. Estas distancias
proporcionan una medida de la proximidad entre ellas. Algunos de estos métodos son desarrollados utilizando distancias
euclideas[10], [11], pero puede ser probable que de este modo
no se consiga informacion que puede ser conseguida mediante
otras métricas, incluso deberı́a ser realizada una comparación
con los resultados que se pueden obtener de la valoración de
otros tipos de distancias tipo Manhattan o Mahalanobis[12].
La elección de la métrica a utilizar llega a ser tan importante
como la elección del algoritmo de clustering. La métrica utilizada para generar la matriz de distancias definirá la geometrı́a
de los clusters encontrados, de modo que estos podrı́an diferir
de los clusters reales. Una distancia Euclı́dea desarrolla una
geometrı́a esférica al ser aplicado un algoritmo como el kmeans (lo cual suele ser extraño encontrar para subpoblaciones
de citometrı́a de flujo), mientras que una distancia de Manhattan producirı́a clusters de estructura elipsoidal. Otros, como
los algoritmos de clustering jerárquico utilizan directamente
las distancias para hacer las asociaciones.
Suele resultar interesante hacer una comparación entre las
distintas métricas, y elegir la más adecuada, que siempre
vendrá basada en el tipo de datos que se tengan y el contexto
del clustering[12].
III-B.
Técnicas de Clustering.
Las técnicas de clustering son el paso principal en la
búsqueda de subpoblaciones. Este se ve claramente influido
por el número de descriptores que se hallan tomado al igual
que por la pureza de los datos que se disponga. Como con
cualquier técnica estadistica, es de esperar que los datos cumplan con una serie de requisitos para poder aplicar algoritmos
de clustering.
A demas de ello, un determinado tipo de datos puede
responder mejor a un algoritmo concreto y, de igual modo,
un algoritmo puede resultar bueno en un caso mientras que
con otro conjunto de datos, en otra rama de la ciencia, puede
producir un resultado pobre.
Existe una gran variedad de posibilidades y la cuestión no
es aplicar un método tanto como hayar la mejor elección para
un tipo particular de datos.
Los métodos de clusterin básicos pueden ser divididos,
a grosso modo, entre particionales y jerárquicos. En este
apartado se desarrollaran algunos de los métodos que
componen estas grandes familias, pero se incluiran otros dos
grupos, que bien podı́an llamarse también de partición, pero
que debido a sus particularidades se ha decidido tratarlas a
parte.
III-B.1. Métodos de partición o no jerárquicos.: En la
mayorı́a de los métodos de partición, el número final de
clusters que han de ser desarrollados, k, es decidido por el
investigador antes de realizar el proceso de partición. Los
algoritmos comienzan asignando las observaciones a los k
grupos y recalculando la pertenencia de los eventos a cada
cluster de una manera iterativa y buscando la partición óptima
de los datos.
El mas popular y sencillo de los metodos de partición es el
algoritmo de k-medias (k-means). La eleción inicial de número
de clusters, a demás de tratrarse de un algoritmo sensible
a ruido y a los outliers o que puede tender a converger en
óptimos locales, son algunos de los inconvenientes de los que
padece este método.
Existen versiones más robustas, e incluso computacionalmente más eficaces, de dicho algoritmo en diversos paquetes estadisticos. Del mismo modo, también hay variantes
que pretenden un acercamiento a hallar una solución global, como puede ser el algoritmo Modified Global K-means
(MGKM)[13]. Por contra, esta variante, tiene un mayor tiempo
de coste computacional.
La tendencia que puede tener el k-means hacia los mı́nimos
locales suele venir determinada por los valores iniciales al
repartir los k-centroides.
Los algoritmos genéticos (GAs) pueden solventar esa
situación. Ya, por si sólos, pueden ser utilizados para determinar las subpoblaciones constituyentes del conjunto de
datos inicial con buenos resultados para tender hacia óptimos
globales. Sin embargo, entre sus problemas se cuentan, no
solo la elección inicial del número de poblaciones, k, sino que
también el conjunto de datos inicial ha de ser relativamente
pequeño y de baja dimensión, a demás se han de tener en
cuenta las definiciones de la probabilidad de mutación, el
tamaño de la población de cromosomas o el número de
generaciones, necesarias para el desarrollo de los GA, los
cuales puede hacer que los algoritmos conlleven un gran coste
computacional hasta converger al óptimo global.
Los estudios que combinan k-means con algoritmos
genéticos incluyen, entre otros, el algoritmo Incremental
Genetic K-means Algorithm (IGKA)[14]. Se trata de una
combinación hı́brida que tiende hacia un óptimo global mas
rápidamente que utilizando únicamente los genéticos y sin la
sensibilidad a la elección de los valores iniciales que tiene el
k-means.
Otra opción en la búsqueda de subpoblaciones es el uso de
la versión borrosa del k-means, Fuzzy C-Means (FCM)[15],
o el Fuzzy Clusterin by Local approximations of Membership
(FLAME)[16].
En ambos, los datos son asignados a los clusters indicando
un grado porcentual de pertenencia asociado a cada cluster.
Sin embargo difieren en el esquema utilizado para determinar
la contribución de cada punto a la media del grupo. En el
FCM, el valor de pertenencia a un conjunto es proporcional a
su similaridad con la media de dicho clustrer y su contribución
a esta está basada en ese grado de pertenencia. El grado
es ajustado iterativamente dependiendo de la varianza del
sistema.
Al igual que ocurrı́a con el k-means, los clusters proporcionados por el FCM son inestables y se ven considerablemente influidos por los parámetros de los valores iniciales de
los centroides e, igualmente, el número de clusters debe ser
especificado a priori.
A diferencia, FLAME calcula la pertenencia a un conjunto
en función de sus vecinos cercanos, lo cual reduce el impacto
del ruido sobre los clusters solución y se puede clasificar
un outlier a partir de la definición de un umbral el cual,
si es superado, devolverı́a el valor a un cluster dedicado
exclusivamente a estos. FLAME produce grupos estables.
Los clusters hallados mediante estas técnicas, generalmente
un gran número de pequeñas agrupaciones, ha de ser unido
mediante algún criterio predefinido, que será tratado en
apartados posteriores, para identificar el número óptimo de
subpoblaciones incluidas en el grupo inicial.
III-B.2. Métodos jerárquicos: A diferencia de los métodos
de partición que, se podrı́a decir, actúan a un único nivel, los
métodos jerarquicos pueden ser entendidos como un proceso
comprendido en varios pasos a distintos niveles a los cuales
se encuentran asociados los datos.
Existen dos grandes familias en los métodos jerárquico.
Estos pueden ser divisivos, partiendo de la población inicial
que esta sea fragmentada en distintos clusters por métodos
iterativos, o aglomerativos, que asumiendo la asociación de
un evento a un cluster singleton, estos sean unidos sucesivamente según algún criterior hasta alcanzar un único cluster de
población.
Estos procesos que generan jerarquias entre los clusters
pueden ser dibujados en un árbol o dendrograma. Es un
método muy utilizado en la búsqueda de subpoblaciones, no
tanto como sistema para poder hallarlas sino porque permite
visualizar y describir las relaciones existentes entre los datos
del conjunto y los clusters que pueden ir conformando.
Un estudio preliminar del dendrograma de los datos puede
ayudar a determinar el número de clases constituyentes de una
población.
Existen gran cantidad de procedimientos algorı́tmicos que
producen un clustering jerárquico, algunos tan sencillos como
a traves de la unión de los vecinos cercanos (single linkage) o
teniendo en cuenta la distancia entre los vecinos más lejanos
(complete linkage) hasta completar el dendrograma.
El método UPGMA, que puede verse comumente en estudios sobre población genética, tiene en cuenta la distancia
promedio entre todos los pares para producir las uniones
(Average linkage). Por último cabe nombrar el método de
Ward, que minimiza el error cuadrático medio del análisis
de varianza (ANOVA) entre dos clusters, para terminar de
nombrar los métodos más comunes y apropiados de este tipo
de clustering.
Hay que tenern en cuenta que los cálculos de las matrices
de distancias entre los datos que propiciarán la unión entre
ellos requieren un alto coste computacional, con lo cual no
siempre es posible realizar un método jeráquico, como ocurre
con ejemplos en citometria de flujo donde los conjuntos
pueden contener decenas o cientos de miles de datos.
III-B.3. Métodos Multi-Step.: El proceso Multi-Step o
multi-paso (también conocido como Two-Step Cluster[17])
es un método que pretende conseguir la ventaja de ambos
procesos anteriores, sobretodo cuando el segundo método
tiene requerimentos impracticables desde el punto de vista
computacional, como puede ser en el caso de los jerárquicos.
En este modelo se trata de desarrollar en primer lugar un
proceso de partición (como por ejemplo, mediante k-means)
que produzca un gran número de clusters y que estos sean
unidos en subsiguientes pasos mediante un proceso jerárquico
permitiendo, de este modo, la visualización de las relaciones
existentes mediante un dendrograma[18], [17], [8].
El primer paso puede ser utilizado para identificar outliers
o clusters especiales, permitiendo continuar en el segundo
paso con un óptimo conjunto de clusters.
III-B.4. Métodos basados en modelos.: Los métodos basados en modelos parten de asumir que una población se
encuentra formada de una mezcla de distintas subpoblaciones.
Con estos métodos se tratan de solventar distintos problema
como la elección del modelo más adecuado y la elección del
algoritmo de clustering, ası́ como de tener que predefinir el
número de clusters existentes desde un principio o eliminar
outliers.
Utilizando métodos de probabilidad máxima, como el algoritmo Expectation-Maximitation (EM) se busca la optimización del modelo. Es común encontrar estos algoritmos
aplicados para la búsqueda de poblaciones de mezclas Gausianas, sobretodo en hematologia u otros campos cercanos a
la citometria de flujo, en donde se obtienen buenos resultados.
Este tipo de métodos funciona bien para conjuntos de
datos pequeños o moderados. Sus requerimientos en grandes
conjuntos son computacionalmente caros. Sin embargo, para
trabajar con un gran número de eventos, los métodos basados
en modelos también pueden utilizarse como un segundo paso
de los métodos multi-step, obtieniendo buenos resultados[19],
[20].
Por otro lado, el método de conglomeración bayesiano
basado en Cadenas de Markov de Monte Carlo, es
frecuentemente usado para estudios de estructura genética
poblacional. Estimando la distribución a posteriori de
coeficientes asociados a cada individuo, que se corresponden
a los distintos subgrupos en los que éste puede clasificarse,
el valor esperado de la distribución a posteriori provee una
estimación de la proporción que el genoma de un individuo
tiene o comparte con los distintos subgrupos.
III-B.5. Redes neuronales.: Las redes neuronales, o neural
networks (NN), estan basadas libremente en el comportamiento biológico de las neuronas cerebrales y tratan de emular
sus métodos de aprendizajes para establecer patrones. Una
red puede ser considerada como una colección de nodos
interconectados cuyas conexiones dependen de unos pesos que
varı́an a medida que la red “aprende”.
En particular existen dos grandes algoritmos, basados en
redes neuronales, utilizados para el reconocimiento de subpoblaciones. Uno de ellos se conoce como Mapas autoorganizados (Self-Organizing Maps, SOM[21]) y el otro se trata de
la Teorı́a de Resonancia Adaptativa (ART).
Los mapas autoorganizados, o mapas de Kohonen, se tratan
de un tipo particular de red en que los datos multivariantes
tienen una salida generalmente bidimensional de nodos no
conectados entre sı́ que forma un mapa de la actuación de las
neuronas salida. Los casos con salida similar se encuentran
dibujados en regiones cercanas de la red neuronal; de este
modo vecindad viene a representar similaridad. Una función
de kernel, la cual define las región de influencia (o vecindad)
para un vector de entrada, distingue los SOM del k-means.
Los mapas autoorganizados constituyen un método de conglomeración similar a los métodos no jerárquicos, en donde
los grupos que se forman se ubican espacialmente sobre la
estructura de la red definida. Sin embargo estos son robustos
a ruidos y outliers, dependiendo de la distancia métrica y la
función de vecindad usadas.
Al igual que los K-means, los mapas pueden producen
soluciones no óptimas si los pesos iniciales para las interconexiones de las neuronas no son elegidos apropiadamente.
Del mismo modo hay que definir el número de nodos de
la capa de salida. La convergencia es controlada por los
parámetros de aprendizaje y su función de vecindad.
Existen distintas variantes de los mapas auto-organizados
que conllevan la representación de los datos en una estructura
de árbol. Ası́ se nombrarán tres: el Self-Organising Tree
Algoritm (SOTA)[22]; Dynamically Growing Sel-Organising
Tree(DGSOT) algortithm[23]; y, más recientemente se ha presentado el Growing Hierachical Tree SOM (GHT-SOM)[24].
Estos algoritmos combinan las ventajas de las redes neuronales, como pueden ser la velocidad y la robustez de estas,
y las del clústerin jerárquico, como el hecho de no necesitar
conocer a priori el número de clases o una salida que puede
ser representada en forma de árbol. SOTA conforma un árbol
binario, mientras DGSOT estructura un árbol cuya rama se
es capaz de dividirse en n. GHTSOM representa un árborl
triangular donde cada nodo es un SOM de tres neuronas
conectadas
Estos tres algoritmos difieren de los metodos jerárquicos
tı́picos en su modo de adaptación y en la estructura de
crecimiento de su dendrograma.
Por otra parte, a diferencia de otros modelos de redes
neuronales donde se puede encontrar el problema entre la plasticidad, es decir permitir que la red aprenda nuevos patrones,
y la estabilidad del aprendizaje, que estos patrones puedan
ser retenidos o recordado, el método ART soluciona dicho
problema mediante un mecanismo de realimentación entre las
neuronas.
Cuando a la red se le presenta un patrón de entrada este
se hace resonar con los prototipos de las categorı́as conocidas
por la red. Si el patrón entra en resonancia con alguna clase se
le asociar a esta. En caso de que el patrón nuevo no entre en
resonancia con ninguna clase se pueden dar dos situaciones: si
la red posee una capa de salida estática entrará en saturación
dado que no podrá crear una nueva clase para el patrón
presentado ni puede asignarlo a una clase existente; pero, en
caso de que la red posea una capa de salida dinámica se crear
una nueva clase para dicho patrón sin afectar a las clases ya
existentes.
Existe una variante del método ART, conocida como Realtime Adaptive Clustering (RTAC), utilizada con éxito en
hematologı́a y citometrı́a de flujo[25], campos en los cuales
también pueden verse aplicaciones de los mapas de Kohonen.
Sin embargo, los SOMs y todas sus variantes aquı́ presentadas, es más común encontrarlas en tratamientos de expresiones genéticas[22].
III-C.
Número de clusters y validación.
Como se ha indicado previamente, raramente se conoce
a priori el número de subpoblaciones que conforman un
conjunto. Por supuesto, experimentos previos, un examen
preliminar de los datos o el uso de conjuntos de entrenamiento
puede ser usado para fijar el número de cluster a para una
determinada situación. Sin embargo, la estimación subjetiva
del número de clusters no debe ser infravalorada. La experiencia del investigador puede resulta de gran utilidad a la hora
de identificar patrones reales o posibles outliers, a demás de
posibles valores potenciales de los clusters
Por otra parte, existen diversos metodos estadı́sticos que
pueden resultar de utilidad a la hora de estimar el óptimo
número de clusters en un conjunto. Estos métodos en ocasiones pueden ser utilizados incluyéndose en los algoritmos
de clustering de modo que el número de iteraciones de este
se detenga cuando se alcance un determinado valor. Muchas
veces, estos mı́smos métodos estadisticos pueden utilizarse
para validar el conjunto de clusters.
En primer lugar ha de quedar claro que la estabilidad de los
cluster ha de ser probada. Un clustering de buena calidad ha
de proporcionar conjuntos compatos y tan separados como sea
posible, a demás de ser estables, es decir, que la solución sea
consistente ante la presencia de perturbaciones. Por último, y
dado el tema que se está tratando en este articulo, los clusters
hallados han de poseer un significado en el campo de estudio.
De nada vale hacer una partición de los datos si estos no
representan un subconjunto cuyas caracterı́sticas se diferencien
y tengan un significado biológico distinto a las del resto del
conjunto.
Entre las posibles estadı́sticas a utilizar para hallar el
número optimo de clusters se puede nombre el criterio SAW
(Silhouette Average Width criterion), el coeficiente Γ de Hubert o el ı́ndice de Dunn.
Las variaciones que pueden aparecer al presentar estos
criterios con respecto al número de clusters, mostrándose como
gráficas de picos y valles, dan una idea sobre el número de
subpoblaciones óptimas que se pueden hallar.
Los metodos basados en modelos, por el contrario, tratan
de optimizar funciones de criterio como el de infererencia
bayesiana (BIC) para hayar el número óptimo de subconjuntos.
Sin embargo, muchos investigadores en técnicas de clustering consideran que pueden ser métodos para obtener una
aproximación pero que resulta imposible determinar cuál es
el número correcto de poblaciones constituyentes.
Del mismo modo que se pueden comparar los resultados del
clustering puede utilizarse en ajuste del ı́ndice de Rand o el
coeficiente Γ de Hubert para valorar dos algoritmos distintos.
Como se ha dicho, el método seleccionado para la hallar
correctamente las subpoblaciones dependera de los datos de
que se disponga.
La mejor opción para validar los resultados de un clustering
serı́a, por supuesto, que estos fueran comparados con una
clasificación estandar del conjunto, lo cual no siempre es
posible.
IV.
C ONCLUSION
Las técnicas de clustering suponen una poderosa herramienta para el analisis de poblaciones. Muchos investigadores
de distintos campos las utilizan para agrupar sus datos en
búsqueda de subpoblaciones de particular interés. No hacer
falta decir que determinadas búsquedas dentro de la biologia o
la medicina pueden suponer un gran avance en la comprensión
de determinadas enfermedades o en sus tratamientos.
La búsqueda de una subpoblación relevante en genética
puede trazar nuevos caminos para las terapias génicas o
cambios en los modelos utilizados para combatir el cander
o la leucemia.
En este trabajo se han tratado de representar las principales
técnicas de agrupamiento de datos, de un modo ligero, que se
pueden suelen utilizar en estas búsquedas. No obstante, aunque
la utilización de dichas técnicas en los campos nombrados
supongan un gran avance en la comprensión el tratamiento de
los datos, los avances que se generen en las mismas técnicas
reprecutiran de un modo mayor, y positivo, en dichas ramas
de la ciencia.
Sobretodo, el actual trabajo se ha centrado en los métodos
de clasificación no supervisados. Muchos de los investigadores
citados en estas páginas, despues de alcanzar la comprensión
de los patrones que rigen las subpoblaciones de interés, están
utilizando la clasificación supervisada. Ya hay estudios que
utilizan algoritmos tan sencillos como el k-vecinos próximos
(k-nn) o más complejos como el Support Vector Machine
(SVM), incluso obteniendo mejores resultados que con los
métodos expuestos.
R EFERENCES
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[22]
K. Y. Yeung and W. L.Ruzzo, Principal component analysis for clustering gene expression data. Bioinformatics, pages 763-774, 2001.
P. Filzmoser, R. G. Garret and C. Reimann, Multivariate outlier detection
in exploration geochemistry. Comp. Geosci., pages 579-587, 2005
F. Martı́nez-Pastor, E. Jorge Tizado, J. Julian Garde et. al., Statistical
Series:Opportunities and challenges of sperm motility subpopulation
analysis. Theriogenology 75, page 783-795, 2011.
G. Kerr, H. J. Ruskin, M. Crane and P. Doolan, Techniques for clustering
gene expression data. Computers in Biology and Medicine 38, pages
283-293, 2008.
J. Lakoumentas, J. Drakos, M. Karakantza et al., Bayesian clustering
of flow cytometry data for the diagnosis of B-Chronic Lymphocytic
Leukemia. Journal of Biomedical Informatics 42, pages 251-261, 2009.
C. Fraley and A. Raftery, Model-based clustering, discriminant analysis,
and density estimation. J. Am. Stat. Assoc., pages 611-632, 2002.
J. Dorado, I. Molina, A. Muñoz-Serrano and M. Hidalgo, Identification
of sperm subpopulations with defined motility characteristics in ejaculates from Florida goats. Theriogenology, pages 795-804, 2010.
F. Martinez-Pastor, V. Garcia-Macias, M. Alvarez et al., Sperm subpopulations in Iberian red deer epididymal sperm and their changes through
the cryopreservation process. Biol. Reprod., pages 316-327, 2005.
I. Nuñez-Martinez, J. Moran and F. Peña, A three-step statistical procedure to identify sperm kinematic subpopulations in canine ejaculates:
after cryopreservation. Reprod. Domest. Anim., pages 408-415, 2006.
A. Quintero-Moreno, J. Miro, T. Rigau and J. E. Rodriguez-Gil, Identification of sperm subpopulations with specific motility characteristics
in stallion ejaculates. Theriogenology, pages 973-990, 2003.
A. Quintero-Moreno, T. Rigau and J. E. Rodriguez-Gil, Regression
analyses and motile sperm subpopulation estructure study as improving
tools in boar semen quality analysis. Theriogenology, pages 673-990,
2004.
R. Xu and D. Wunsch, Survey of clustering algorithms. IEEE Trans.
Neural Netw., pages 645-678, 2005.
A. M. Bagirov and K. Mardaneh, Modified Global k-means algorithm
for clustering in gene expression data set. WISB, Australian Comp.
Soc, Inc., pages 23-28, 2006.
Y. Lu, S. Lu, F. Fotouhi et. al., Incremental genetic k-means algorithm
and its application in gene expression data analysis. BMC Bioinformatics 5, 2004.
D. Dembele and P. Kastner, Fuzzy c-means method for clustering
microarray data. Bioinformatics 19, pages 973-980, 2003.
L. Fu and E. Medico, FLAME. A novel fuzzy clustering method for the
analysis of DNA microarray data. BMC Bioinformatics 8, 2007.
I. N. Martinez, J. M. Moran and F. J. Peña, Two-step cluster procedure
agter principal component analysis identifies sperm subpopulations in
canin ejaculates and its relation to cryoresistance. J. Androl., pages
596-603, 2006.
T. Abaigar, W. Holt, W. Harrison and G. del Barrio, Sperm subpopulations in boar (Sus scrofa) an gazelle (Gazella dama mhorr) semen as
revealed by pattern analysis of computer assited motility assessment..
Biol. Reprod. , pages 32-41, 1999.
C. Fraley and A. E.Raftery, How many clusters? Which clustering
method? Answer via model-based cluster analysis. Comput. J, 1998.
J. Handl, J. Knowles and D. B. Kell, Computational cluster validation
in post-genomic data analysis. Bioinformatics, 2005.
T. Kohonen, The self-organizing map. Proc. IEEE 78,1990.
P. Tamayo, D. Slonim, J. Mesirov, Q. Zhu et. al., Interpreting patterns
of gene expression with self organizing maps: methods and application
to hematopoietic differentiation. Proc. Natl. Acad. Sci USA 96,1999.
J. Herrero, A. Valencia and J. Dopazo, A hierachical unsupervised
growing neural network for clustering gene expression patterns. Bioinformatics 17, pages 126-136, 2001.
[23] F. Luo, L. Khan, F. Bastani et. al., A dynamically growing selforganizing tree (DGSOT) for hierarchical clustering gene expression
profiles. Bioinformatics 20, 2004
[24] A. Forti and G. L. Foresti, Growing hierachical tree SOM: an unsupervised neural network with dynamic topology. Neural Networks 19,
2006.
[25] L. Fu, M. Yang, R. Brylan and N Benson, Real-time adaptive clustering
of flow cytometric data Pattern Recognit, pages 365-373, 1993.
Universidad de León. Gil. Andrés, Warm air moving system.
Warm air moving system; an evolved idea of the
Trombe wall.
A. Gil*
Universidad de León
Abstract—Trombe wall is a passive solar heating
system but in this research we will try to turn it into
an active system automating the air movement
process. This new system is developed over an
Arduino micro controller and connected with the
environment with two temperature sensors and a
light sensor. This information captured is used to
control a fan, which enhances the air current inside
the wall, and a servo motor moving a gate that
opens and closes the air circuit. A specific program
has been written for this project in order to satisfy
all the situations that can occur. We will comment
all theses points during the paper.
Keywords— Trombe wall, assisted Trombe wall,
Renewable energy.
I.
INTRODUCTION
In recent years there has been a resurgence of
interest in developing renewable energy power
systems in both developed and developing
countries. There is a global desire to diversify fuel
sources, reduce dependence on fossil fuel import
and mitigate volatile fuel costs. The need to
mitigate climate change by reducing greenhouse
gas emissions- specifically, carbon dioxide [1].
Photovoltaic and renewable energies are growing
at a much faster pace than the rest of the economy
in Europe and worldwide. This and the dramatic
oil price increases in 2005 have led to a
remarkable re-evaluation of the renewable energy
sector by politics and financing institutions.
*
Corresponding author. Tel.: +34 649357213;
E-mail address: [email protected]
Despite the fact that there are still discrepancies
between the European Union and the USA, as to
how to deal with climate change, renewable
energies will play an important role for the
implementation of the Kyoto Protocol and the
worldwide introduction of tradable Green
Certificates. Apart from the electricity sector,
renewable energy sources for the generation of
heat and the use of environment friendly biofuels
for the transport sector will become more and
more important in the future [2].
Renewable energy has the potential to play an
important role in providing energy with
sustainability to the vast populations in developing
countries who as yet have no access to clean
energy [3].
About energies we do not know exactly where is
the future. The notion of a “hydrogen economy” is
moving beyond the realm of scientists and
engineers and into the lexicon of political and
business leaders. Interest in hydrogen, the simplest
and most abundant element in the universe, is also
rising due to technical advances in fuel cells — the
potential successors to batteries in portable
electronics, power plants, and the internal
combustion engine [4].
We want to focus this paper in a specific
renewable energy system called Trombe wall. A
simple definition can be as follows: A wall with
high thermal mass used to store solar energy
passively in a solar home. The wall absorbs solar
energy and transfers it to the space behind the wall
by means of radiation and by convection currents
moving through spaces under, in front of, and on
top of the wall [5].
This research describes how to perform an
autonomous and evolved Trombe wall.
Universidad de León. Gil. Andrés, Warm air moving system.
II.
MATERIALS AND METHODS
A. How a Trombe Wall works
Passive solar heating systems incorporate the
solar collection and storage into the building
structure and distribute the heat by natural means.
A type of passive solar home heating system was
developed by Trombe and Michel at the C.N.R.S.
laboratories in France in the 1960s. The system is
today commonly called the Trombe wall [6].
Fig. 1. Schematic diagram of Trombe wall with DC fan for
winter heating.
The Trombe wall (Fig. 1) incorporates the use of
a North facing vertical wall with a glass cover
(South facing in the Northern Hemisphere). The
wall also forms part of the structural support for
the building. Solar energy passes through the glass
cover and is absorbed on the darkened wall
surface. This energy is "trapped", in a way similar
to the heat in a greenhouse, as glass is opaque to
thermal radiation. The wall, which is usually of
brick or concrete construction, stores that heat and
conducts it to the living area. Heat is transferred
from the back face of the wall to the room by
convection and radiation. Vents are located at the
bottom and top of the wall. Cooler room air, drawn
through the bottom vents, is heated as it passes up
the duct and then delivered into the room through
the top vents. This convective heat transfer--called
"thermocirculation"--provides a direct heat path to
the room, whilst the heat conducted through the
wall exhibits a thermal delay. Ideally these two
heat paths could be matched to provide
comfortable living conditions throughout the day
[6].
2
For winter heating, the winter air vents are
periodically opened while the summer air vents are
always closed. The system sucks the indoor air
from the bottom winter air vent, then vents into the
room through the top winter air vent. The airflow
in the air duct, which is driven by thermosiphon
and an optional DC fan (without or with DC fan),
removes heat from both the glass panel and the
blackened wall. Then, through the top winter air
vent, the warmed air is mixed in the room and
enters the bottom air vent at last. Undesired
reverse airflow during night can be prevented by
the periodical open of vents [7].
B. The Idea
As we have said in the introduction, we will try
to perform an autonomous and evolved Trombe
Wall. Autonomous means that it can work by it
self in all possible situations previously
programmed. Evolved means working with
assisted air current (air moved with a DC fan).
But the idea in this research differs from the
typical idea of a Trombe wall. We will use the
concepts of a Trombe wall and apply them to a
sunroom. This means that the mass of warm air is
higher and we do not have natural convection air
current. With our prototype we will try to move a
warm mass of air from a sunroom to a room inside
the house.
With this research we will try to analyze if this
assistance provides better yields to the global
system and how well this amount of air can be
moved inside the house.
C. The prototype
The design for this research consists of a
mechanism that can be embedded in the upper part
of a wall. This mechanism has quadrangular boxshape. It is 13 cm high, 13 cm wide and, for this
design, it is 30 cm deep but it should fit with the
depth of the wall. This “box” has a fan inside. The
fan is responsible for moving the warm air mass
form the sunroom to the inner room. The fan will
try to enhance the natural air current circulation.
The box has a gate in order to open and close the
hole and let the air current circulate. This gate is
commanded by the servo motor.
Universidad de León. Gil. Andrés, Warm air moving system.
As we will explain later, the gate and the fan are
communicated with the environment with two
temperature sensors, one light sensor and the
microcontroller Arduino commands every action
and decision of the system.
The electrical scheme (Fig. 2) shows the
connections between sensors, Arduino and
actuators.
3
microcontroller on the board is programmed using
the Arduino programming language (based on
Wiring)
and
the
Arduino
development
environment (based on Processing)[8].
We have used the model Arduino UNO. The
Arduino Uno is a microcontroller board based on
the ATmega328. It has 14 digital input/output pins
(6 of which can be used as PWM outputs), another
6 as analogue inputs, a 16 MHz crystal oscillator, a
USB connection, a power jack, an ICSP header,
and a reset button [8].
Subsequently, we will describe all the other
elements of the circuit, the most important ones
being servomotor, temperature and light sensors
and the fan.
E. Servo motor
A Servo is a small device that has an output
shaft. This shaft can be placed in specific angular
positions by sending the servo a coded signal. As
long as the coded signal exists on the input line,
the servo will maintain the angular position of the
shaft. As the coded signal changes, the angular
position of the shaft changes too [9].
In our prototype the Servo executes the actions of
opening and closing the gate of the model. The
gate is open when the outside temperature is
higher than the inside temperature and should be
close in the opposite case, letting the free
circulation air current or not.
Fig. 2. Electrical scheme of the prototype.
D. Arduino. The microcontroler
To carry out the experiment we have selected
Arduino as a micro controller and brain of the
system.
Arduino is an open-source electronics
prototyping platform based on flexible, easy-to-use
hardware and software. Arduino can sense the
environment by receiving input from a variety of
sensors and can affect its surroundings by
controlling lights, motors, and other actuators. The
F. Temperature Sensor
Our system communicates with the environment
using 3 sensors. Two of them are temperature
sensor and these inform us about the temperature
inside the building as well as outside. The model
selected for the design is LM35.
The LM35 series is made up of precision
integrated-circuit temperature sensors whose
output voltage is linearly proportional to the
Celsius (Centigrade) temperature. The LM35 does
not require any external calibration or trimming to
provide typical accuracies of ±¼°C at room
temperature and ±¾°C over a full -55 to +150°C
temperature range and 0.5°C accuracy guaranteed
(at +25°C) [10].
These sensors are connected to the analogue
Universidad de León. Gil. Andrés, Warm air moving system.
entries of the microcontroller and let the system
run when the temperature outdoors is higher than
the temperature indoors. Otherwise the system
could not run
G. Light Sensor
The other sensor used in this design is a
common LDR (Light Dependent Resistors), but it
can be known by many names. These names
include the photoresistor, photo resistor,
photoconductor, photoconductive cell, or simply
the photocell. It is a resistor whose resistance
decreases with increasing incident light intensity.
For the design the LDR is programmed to let the
system works during the daylight but it must be off
at night, no matter the temperature in both sides of
the house.
H. The Fan
For this project a new version of fan is going to
be used. Our model has 15 blades that increase the
air current yield (32.5-78 CFM, cubic feet per
minute), compared to a normal one with fewer
blades, and can work with a low level of noise
(9dB-15dB). This is very important for the project.
Those values depend on the voltage applied every
instant, since the fan can work between 7 and 12
V. This range of voltage will be used to control the
r.p.m. of the fan.
I. Program Description
The program has been written in Arduino
language. Basically the program tries to command
all the possible situations previously stipulated.
The basic states or possibilities proposed are:
A. The system works in daylight.
B. The system works when the temperature
outdoors is higher than the temperature
indoors.
C. The gate will be opened when A. and B.
agree with each other. Otherwise it will
be closed.
D. The fan is activated when A, B, C agree
with each other.
All the states of the system have been
4
implemented as functions. For example, open gate
is a function and fan-activated is another one. In
each function all the sensors are read in order to
refresh the environment variables and execute the
corresponding actions.
The fan function has been implemented in order
to adjust the velocity of the rotor to the
temperature gradient, i.e. higher temperature
differences mean higher velocity of the fan.
Open and close gate functions send and
electrical signal to the servo motor, positioning the
rotor in 0 degrees and 90 degrees.
J. Assembling all the components.
Once everything is ready and the program is
working properly, all parts must be matched and
the prototype assembled.
The box-shape structure has been made with
methacrylate and the fan has been installed in the
middle of the structure.
The light and temperature sensors are located
with long wires outside the house (in the sunroom)
trough the hole in the wall. The other temperature
sensor is located inside de house.
The servomotor in placed inside de box structure
and close to one side in order to minimize the
interruptions over the air current. The servomotor
will move the gate that is going to be placed inside
the house.
Arduino micro controller and the other elements
of the circuit are placed in a new board and adjust
to one side of the box.
The next step is to settle the structure inside the
hole in the wall and connect the power source.
III. RESULT
By developing this project we have realized that
the theoretical idea can be implemented into a
physical reality. The prototype works by itself
without any problem, overcoming all the situations
that it has been programmed for. We have
demonstrated that the program is reliable and
stable. The micro controller can interact perfectly
with the environment with the help of the three
sensors. All actions are executed according to the
Universidad de León. Gil. Andrés, Warm air moving system.
variable states previously configured.
It has been shown that, by using this system, the
warm air in the sunroom is moved into the house,
heating the space inside. This increases the
temperature of the room in some degrees,
depending on the temperature gradient between
both spaces.
There are also problems such as the optimum
fan speed and the fan’s energy consumption,
which need further research.
IV. CONCLUSION AND FUTURE WORKS
Once several weeks have passed since the
installation of the prototype we can conclude that
the result is successful.
In further research we will try create an interface
and a network between the system and a PC or
Smartphone with the purpose of controlling the
system with a portable gadget anywhere and
anytime.
Additionally, we are considering the installation
of solar cells to avoid the power consumption and
make it self-sustaining.
V. ACKNOWLEDGMENTS
This work has been supported by Universidad de
León.
5
[3] J.P Painuly, Barriers to renewable energy penetration; a
framework for analysis, Renewable Energy, Volume 24,
Issue 1, September 2001, Pages 73-89, ISSN 0960-1481,
10.1016/S0960-1481(00)00186-5. Available:
http://www.sciencedirect.com/science/article/pii/S09601
48100001865
[4] Seth Dunn, Hydrogen futures: toward a sustainable
energy system, International Journal of Hydrogen
Energy, Volume 27, Issue 3, March 2002, Pages 235264, ISSN 0360-3199, 10.1016/S0360-3199(01)001318. Available:
http://www.sciencedirect.com/science/article/pii/S03603
19901001318
[5] Specialty Expressions: Trombe wall. Available:
http://www.websters-onlinedictionary.org/definitions/Trombe+wall?cx=partnerpub-0939450753529744%3Av0qd01tdlq&cof=FORID%3A9&ie=UTF8&q=Trombe+wall&sa=Search#906
[6] A. Akbarzadeh, W.W.S. Charters, D.A. Lesslie,
Thermocirculation characteristics of a Trombe wall
passive test cell, Solar Energy, Volume 28, Issue 6,
1982, Pages 461-468, ISSN 0038-092X, 10.1016/0038092X(82)90317-6. Available:
http://www.sciencedirect.com/science/article/pii/003809
2X82903176
[7] Ji Jie, Yi Hua, Pei Gang, Jiang Bin, He Wei, Study of
PV-Trombe wall assisted with DC fan, Building and
Environment, Volume 42, Issue 10, October 2007, Pages
3529-3539,
ISSN
0360-1323,
10.1016/j.buildenv.2006.10.038.
Available:
http://www.sciencedirect.com/science/article/pii/S03601
32306003428
[8] Arduino Definition. Available: http://www.arduino.cc/
[9] Servo motor. Available:
http://www.seattlerobotics.org/guide/servos.html
VI.
REFERENCES
[1] A. Adamantiades, I. Kessides, Nuclear power for
sustainable development: Current status and future
prospects, Energy Policy, Volume 37, Issue 12,
December 2009, Pages 5149-5166, ISSN 0301-4215,
10.1016/j.enpol.2009.07.052. Available:
http://www.sciencedirect.com/science/article/pii/S03014
21509005436
[2] Arnulf Jäger-Waldau, Photovoltaics and renewable
energies in Europe, Renewable and Sustainable Energy
Reviews, Volume 11, Issue 7, September 2007, Pages
1414-1437,
ISSN
1364-0321,
10.1016/j.rser.2005.11.001.
Available:
http://www.sciencedirect.com/science/article/pii/S13640
32105001218
[10] LM35 Precision Centigrade Temperature Sensor.
Available: http://www.ti.com/product/lm35#feature
Universidad de León
Alonso, Ismael
Aplicaciones Móviles
Software móvil Universitario
Alonso Juan, Ismael
Universidad de León
León, España
Resumen — Los avances en el uso de las tecnologías móviles
permiten a los estudiantes acceder a toda la información de sus
estudios a través de los dispositivos móviles, sin necesidad de
usar un ordenador. Como consecuencia surge la necesidad de
estudiar estas tecnologías y desarrollar aplicaciones que
acerquen aun más la Universidad a los estudiantes.
INTRODUCCIÓN
Los teléfonos móviles son usados por casi todos los
estudiantes a día de hoy. Es difícil encontrar alguien sin
un teléfono con acceso a internet. De aquí parte el estudio
de los tres principales sistemas operativos usados en los
teléfonos móviles, iOS, Android y Windows Phone [1].
A través del cual se estudia qué sistema es más potente y
cual mas fácil para el desarrollo de software. Las
aplicaciones
móviles
dan
una
funcionalidad
extraordinaria a los propios dispositivos, gracias a estas
aplicaciones, los usuarios pueden enviar mensajes, leer
noticias y acceder a nuevos servicios creados por los
desarrolladores de software móvil. También esto se ha
extendido a las Universidades, desde retrasmitir las clases
por internet y luego su posterior descarga vida iTunes,
hasta tener aplicaciones propias de las Universidades en
las que se pueden acceder a las notas, apuntes o ver las
noticas de la Universidad [2].
uso. Esto hace que algunas de ellas sean poco intuitivas a
la hora de querer realizar alguna acción. Las empresas
que se dedican al desarrollo de aplicaciones para los
bancos, están haciendo un gran esfuerzo en mejorar el
aspecto de la accesibilidad y la facilidad de uso de ellas.
I.
II.
FÁCILES DE USAR
A. Aplicaciones Universitarias
Las aplicaciones móviles se caracterizan por la
facilidad de uso, su accesibilidad y por último su
contenido. En las aplicaciones para Universidades, el
usuario (alumno) tiene que intuir el funcionamiento de la
aplicación según lo que necesite en ese momento sin
tener que pararse a pensar más de un segundo para elegir
el camino.
B. Aplicaciones Comercio o Servicios Bancarios
Las aplicaciones de servicios bancarios integran una
gran cantidad de funciones a realizar, siendo una
prioridad la seguridad del cliente antes que la facilidad de
III.
SISTEMAS PARA UNA APLICACIÓN
El desarrollo de una aplicación varía mucho entre el
sistema operativo que vaya a usarlo. Android, en el cual
hay que tener unos conocimientos de Java, conocer el
sistema operativo Android y sus dispositivos, dista
mucho de realizar la misma aplicación para Windows
Phone, cuyo lenguaje es C# o para iOS, cuyo lenguaje de
programación es Objetive-C y su uso se limita sólo a
iPhone, iPad o iPod
Cada teléfono móvil tiene una distribución diferente
de sus capas de abstracción [3] y por lo tanto de su forma
de programación.
IV.
APLICACIÓN PARA LA UNIVERSIDAD DE LEÓN
La realización de una aplicación móvil para la
Universidad de León tiene que contener todos los
servicios necesarios para los estudiantes a los cuales
pueden acceder a través de un ordenador. Esta
información tiene que ser accesible y fácil de usar, y en el
caso de poseer algún tipo de pago o reserva, tiene que
poseer una cierta seguridad para garantizar el pago y los
datos del cliente.
Los estudiantes reclaman en sus Smartphone el acceso
directo a sus asignaturas matriculadas, así como toda la
información de dichas asignaturas. También el calendario
de exámenes, acceso de los servicios de apuntes online,
visualización de notas, avisos a la hora de una nueva
publicación de una nota, noticias de la propia
universidad, acceso a las instalaciones deportivas, etc.
III Congreso de Cibernética
Universidad de León
Alonso, Ismael
Parte de estas necesidades han sido creadas en una
aplicación para iPhone llamada iULE [4]. Las nuevas
necesidades que surgen este año, serán puestas en esa
misma aplicación con una nueva actualización [5].
Pero no sólo los alumnos pueden optar por los
servicios que proporcionan las nuevas tecnologías, y los
Smartphone. También los profesores encuentran la
necesidad de publicar sus clases en vídeo, a través de
plataformas de educación como iTunes University, de tal
manera que un contenido de una hora de clase termina
siendo más compacto y añadiendo más materia para el
alumno, ya que éste puede visualizar la clase todas las
veces que quiera a través de su portátil o teléfono móvil.
A. Estudiantes
Las aplicaciones móviles Universitarias son usadas
por los estudiantes si con ellas se ofrecen todos los
servicios de la Universidad a los estudiantes. Para la
Universidad de León la aplicación utilizada carece de
acceso a la reserva de las instalaciones deportivas, faltan
las últimas titulaciones, noticias de la universidad y
algunos servicios más.
B. Formación online
Universidades como Stanford ofrecen sus titulaciones
a las personas que quieran aprender sin optar a tener el
título, pueden optar a un certificado, visualizando sus
clases online y realizando los ejercicios y tareas
asignadas por el profesor, el cual también corregirá los
ejercicios. Este tipo de formación cada vez se está
implantando en más universidades, aportando a los
profesores dar en menos tiempo más cantidad de materia
y al alumno poder ver sus clases una y otra vez.
mejora se ve imprescindible para una Universidad de
calidad como es la Universidad de León. También se ve
necesario añadir ventajas al alumno con las clases
grabadas y publicadas en alguna plataforma universitaria
ya sea de acceso público o de acceso privado sólo para
alumnos de la Universidad de León, para no quedarse
rezagada la universidad en las nuevas tecnologías.
A. Erasmus
La Universidad de León, al ser una universidad de
Erasmus por excelencia, también le sería necesario tener
una propia aplicación para estudiantes Erasmus con sus
necesidades, lugares de interés, información para la
realización de sus trámites, etc. Así tendrían toda la
información mas cerca y de fácil uso día a día.
B. Profesores y personal investigador
La Universidad de León cuenta con personal
investigador que tiene unas necesidades muy diferentes a
la de los estudiantes, al igual que los profesores. Éstos
carecen de alguna aplicación que les acerque la propia
Universidad a sus móviles. Una aplicación en la cual
pudieran gestionar su agenda, poner las notas a los
alumnos, revisar las dudas de ellos, etc.
REFERENCIAS
[1]
[2]
[3]
[4]
UNIVERSIDAD DE LEÓN
Para la Universidad de León se propone mejorar la
aplicación existente añadiendo las titulaciones de grado,
másteres, noticias, acceso a las reservas de las
instalaciones deportivas. Proceso en el cual se está
realizando el proyecto de fin de este máster. Este tipo de
V.
[5]
[6]
I.Alonso, “Introduccion al Hardware y desarrollo de Software
para SmartPhone” Investigacion en Cibernetica. Universidad de
León, Febrero 2012.
Aplicaciones en AppStore como son: Uva, Carlos III,
Universidad de Granada, Universidad de Alicante.
I.Alonso“Introduccion al Hardware y al desarrollod e Software
para SmartPhone” en el apartado, capas de Abstraccion.
G. Rodrigez, J. Alfonso, I.Alonso “iULE Aplicacion para la
Universidad de León” Proyecto de fin de carrera. Universidad
de León. Junio 2011.
I.Alonso “iULE Actualizacion y mejoras” Proyecto de fin de
master de cibernetica. Universidad de León. Julio 2012
García, S. (2009) Consideraciones para el Desarrollo de
Aplicaciones
Móviles.
Disponible
en
:
http://www.slideshare.net/soreygarcia/consideraciones-basicaspara-el-desarrollo
III Congreso de Cibernética
Descargar