REVISTA_ II_vol8.indd - universidad santo tomas de bucaramanga

Anuncio
DIRECTIVOS
Fr. Faustino Corchuelo Alfaro, O.P.
Rector
Fr. Guillermo León Villa Hincapié O.P.
Vicerrector Académico
Fr. Guillermo León Villa Hincapié O.P.
Decano División de Ingenierías y
Arquitectura
Fr. José Rodrigo Arias Duque O.P.
Vicerrector Administrativo-Financiero
EDITOR
Luis Ómar Sarmiento Álvarez, MSc, PhD(c)
COMITÉ EDITORIAL
Luis Ómar Sarmiento Álvarez, M.Sc.
Universidad Santo Tomás,
Bucaramanga, Colombia
Juliana Puello Méndez, M.Sc.
Universidad Santo Tomás,
Bucaramanga, Colombia
Fredy Humberto Vera Rivera, M.Sc.
Universidad Santo Tomás,
Bucaramanga, Colombia
Julio Roberto Pinzón Joya, Ph.D.
Universidad Santo Tomás,
Bucaramanga, Colombia
Alberto González Salvador, Ph.D.
Universidad Politécnica de Valencia,
España
José Millet Roig, Ph.D.
Universidad Politécnica de Valencia,
España
Arturo Plata Gómez, Ph.D.
Universidad Industrial de Santander,
Colombia
CORRECCIÓN ORTOGRÁFICA
Y DE ESTILO
Ciro Antonio Rozo Gauta
IMPRESIÓN
Distrigraf
PERIODICIDAD
PRODUCCIÓN CREATIVA
Departamento de Publicaciones
Directora Dpto. Publicaciones
C.P. Luz Marina Manrique Cáceres
Diseño y Diagramación
Pub. Luis Alberto Barbosa Jaime
Semestral
© Universidad Santo Tomás
ISSN 1692 - 1798
COMITÉ CIENTÍFICO
Yudy Natalia Flórez Ordóñez, Ph.D.
Universidad Santo Tomás,
Bucaramanga, Colombia
Rolando Enrique Guzmán López, Ph.D.
Universidad Santo Tomás,
Bucaramanga, Colombia
Sonia Hernández Rueda, Ph.D.
Universidad Santo Tomás,
Bucaramanga, Colombia
Leonardo Acevedo Duarte, Ph.D.
Universidad Santo Tomás,
Bucaramanga, Colombia
Elías de los Reyes, Ph.D.
Universidad Politécnica de Valencia, España
Francisco Morant Anglada
Universidad Politécnica de Valencia, España
José Ma. Blanco Triana, Ph.D.
Politecnico di Torino, Italia.
Héctor Esteban González
Universidad Politécnica de Valencia, España
Juan Carlos Guerri Cebolleda
Universidad Politécnica de Valencia, España
Oscar Elías Herrera Bedoya, Ph.D.
Universidad Sergio Arboleda, Colombia
La revista ITECKNE ha sido aceptata en los siguientes índices bibliograficos y bases bibliograficas:
•
•
•
•
Índice Bibliográfico Nacional - PUBLINDEX
Sistema regional de información en línea para revistas científicas de América Latina, el Caribe, España y Portugal. - LATINDEX
EBSCO Publishing
Índice Actualidad Iberoamericana - CIT
Cada artículo es responsabilidad de su autor y no refleja la posición de la revista. Se autoriza la reproducción de los artículos siempre y
cuando se cite al autor y la revista Iteckne. Agradecemos el envío de una copia de la reproducción a esta dirección: Universidad Santo
Tomás, Facultades de Ingeniería.
Carrera 18 No. 9-27 Servicio al Cliente Iteckne Teléfono: + 57 7 6800801 Ext. 1411- 1421 Fax: 6800801 Ext. 1346
E-mail: [email protected] - [email protected]
Bucaramanga - Santander
Contenido
Revista ITECKNE Vol 8 Nº 2 julio - diciembre de 2011
Editorial.......................................................................................................................................................................117
ARTÍCULOS DE INVESTIGACIÓN E INNOVACIÓN
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de
optimización de sistemas de manufactura y modelación de eventos discretos
Proposal for the improvement of the Lean Manufacture Methodology by optimization
of manufacture systems and discrete event modeling............................................................................................119
Frank Nicolás Delgado Moreno,Eliseo Gallo
Desarrollo de un modelo heurístico para la optimización en el manejo de material en
estibas en una bodega
Development of a heuristic model to optimize the handling of material
in pallets in a warehouse...........................................................................................................................................132
Laura Manotas Romero, Diana Ramírez Ríos
Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC
Liquid Packaging Process: Modeling with Petri Nets and Simulation with LabVIEW and DSC.............................147
Miguel Ángel Trigos Martínez, Jair Leandro Landínez Salazar
Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos
Model for inventory optimization using genetic algorithms...................................................................................156
César Hernando Valencia Niño, Silvia Nathalia Cáceres Quijano
Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos
Multi-criteria ABC Classification: Types of Criteria and their effects on Weights Assignment.............................163
Carlos Alberto Castro Zuluaga, Jaime Andrés Castro Urrego, Mario César Vélez Gallego
Diseño y Elaboración de las Tecnologías de Inspección Basadas en Herramientas de Limpieza
para el Registro y Análisis de los Parámetros de Operación en Líneas de Transporte de Hidrocarburos
Design and Elaboration of the Inspection Technologies Based on Cleaning Tools for Registration
and Analysis of the Operation Parameters in Hydrocarbon Pipelines...................................................................171
Mario Alberto Quintero, Hernán Alfonso Garnica, Sergio Quintero, Humberto Zambrano Medina,
Ely Dannier V. Niño
Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión
Algorithm for generating interpretable fuzzy controllers: an application to a pressure process..........................177
Juan Antonio Contreras Montes, David Javier Muñoz Aldana
Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial
para un robot móvil
Planning of paths and trajectories by genetic algorithms and potential fields for a mobile robot......................183
Diego A. Tibaduiza Burgos, Roberto Martínez Ángel, Jaime G. Barrero Pérez
Validación de la herramienta CellGis para simular propagación de ondas de radio en redes
de telefonía celular
Validation of the CellGis tool to simulate radiowave propagation in cellular networks........................................193
Aura Liliana Beltrán Blanco, Celso Andrés Forero F., Homero Ortega Boada, César Camilo Rodríguez S.
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión
Effective representation of physiological dynamics by fuzzy rough set: a review.................................................204
Diana Alexandra Orrego Metaute, Edilson Delgado Trejos
ARTÍCULOS DE DISCUSIÓN ACADEMICA
Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I
Image Processing on Windows CE using the processor ArMV 4I............................................................................216
Jorge Andrés Álvarez Triana, José Armando Fernández Gallego
Diseño e implementación de un repositorio de componentes software para soportar
el desarrollo de software empresarial – caso: División de Servicios de Información
de la Universidad Industrial de Santander
Design and implementation of a software component repository as a support for the development
of business software - Case: Information Services at Universidad Industrial de Santander..............................223
Fernando Antonio Rojas Morales, Fredy Humberto Vera Rivera......
Instrucciones a los autores Revista ITECKNE...........................................................................................................234
Instructions to the authors, Iteckne Journal.............................................................................................................237
La revista ITECKNE es una publicación de la División de Ingenierías de la Universidad Santo Tomás, Seccional de Bucaramanga, integrada
por las Facultades de Ingeniería de Telecomunicaciones, Ingeniería Mecatrónica, Ingeniería Industrial y Química Ambiental. Actualmente
la Revista está indexada en el Índice Bibliográfico Nacional Publindex y en el Sistema Regional de Información en Línea para Revistas
Científicas de América Latina, el Caribe, España y Portugal LATINDEX, y ha sido aceptada en el sistema de bases de datos de EBSCO (Fuente Académica). Su objetivo es la divulgación de los resultados científicos y tecnológicos de las investigaciones que se realizan en su seno,
y en otras universidades a nivel nacional e internacional. La revista cuenta con la participación de diversos investigadores nacionales e internacionales, por esta razón recibe contribuciones en idiomas Español e Inglés. La revista ITECKNE está dirigida a estudiantes, docentes e
investigadores interesados en las áreas en las que se inscribe cada una de las publicaciones. La revista aceptará preferiblemente artículos
de investigación e innovación con un alto nivel de calidad, y también aceptará artículos cortos y reportes de caso.
Editorial
La presente edición de la Revista ITECKNE Innovación e Investigación en Ingeniería, es la primera de la Universidad Santo Tomás, Bucaramanga en estar incluida en las bases de datos de EBSCO según
convenio firmado con esa entidad el pasado mes de agosto. Entre los
beneficios de indizar nuestra Revista en las bases de datos de EBSCO,
está la apertura de una opción de visibilidad que incrementa la difusión y las consultas y posibilita las citas a los artículos. Este logro apoya el cumplimiento de uno de los objetivos de la Revista, con el que se
busca que la literatura científica publicada en ella se difunda eficaz y
rápidamente en la región, consolidándola a nivel internacional.
Desde inicios del año 2011, la Revista ITECKNE ha estado preparándose para ser presentada a nuevas indexaciones internacionales.
Es así como se han incorporado cambios para cumplir con las exigencias planteadas por la Red de Revistas Científicas de América Latina,
el Caribe, España y Portugal, que conforman el Sistema de Información Científica REDALYC.
REDALYC clasifica en tres grupos los criterios que debe cumplir una
revista, relacionados con criterios básicos, criterios de calidad editorial y criterios editoriales (disponibles en http://redalyc.uaemex.mx/)
que resumo a continuación y que, a su vez, caracterizan a la presente
y a la anterior edición de la Revista ITECKNE.
En el primer grupo, compuesto por 12 criterios básicos considerados por REDALYC como indispensables, se encuentra: la antigüedad
mínima y los números editados con periodicidad regular y sin retraso;
el contenido científico en el cual al menos el 75% de las colaboraciones publicadas en cada fascículo deben ser resultados originales
producto de investigaciones científicas; la revisión por pares realizada
bajo la modalidad de doble ciego, el proceso de dictamen exige anonimato y descripción detallada del proceso; todo artículo postulado
para publicación debe ser original e inédito y no estar postulado para
publicación simultáneamente en otras revistas; cumplimiento de periodicidad, incluir pie de imprenta, fechas de recepción y aceptación;
datos de identificación en portada como título completo, número de
ISSN, volumen y número, fecha de edición, e indicar los meses que cubre el número editado. Para cumplir a cabalidad con estas exigencias,
el Comité Editorial de la Revista ITECKNE, no publica a partir de este
número, la lista de árbitros con el fin de cumplir con la exigencia de
que el proceso de dictaminación sea completamente anónimo.
En el segundo grupo, compuesto por 27 parámetros relacionados
con criterios de calidad editorial, e incorporados en la revista ITECKNE, se encuentra: datos de identificación en portada en donde compruebe la existencia de un consejo editorial con nombre completo de
cada miembro, objetivo de la publicación, cobertura temática, periodo
que abarca en meses la publicación, normas de elaboración de las referencias bibliográficas, listado del registro en sistemas de indexación
o bases de datos y condiciones bajo las que se reservan los derechos
de distribución de contenidos; datos de la institución editora: mención
visible de la institución editora, ciudad, país, dirección postal, dirección electrónica, teléfono y/o fax; tabla de contenido o índice con título
completo en el idioma original y traducción al inglés de cada una de
las colaboraciones, nombre completo de los autores de cada artículo
y página de inicio de cada artículo; mención de la institución de adscripción y país donde se localiza la institución de adscripción de cada
uno de los autores y mención del correo electrónico al menos de uno
de los autores de cada artículo; identificación de los contenidos de
cada artículo, y resumen y palabras clave de todos y cada uno de los
artículos en el idioma original del trabajo y en inglés; identificación
del artículo mediante membrete bibliográfico en la página inicial de
todos los artículos que incluya: nombre de la Revista o ISSN, volumen
y número, periodo que cubre la edición, indicar meses y años, páginas
que abarca el artículo, fecha de recepción de cada artículo y fecha de
aceptación/publicación de cada artículo.
En un tercer grupo se hallan los criterios editoriales, también incorporados en el presente número de la Revista ITECKNE. Se encuentra:
mención del directorio completo de la revista, editor, editores adjuntos,
corrector, traductor y diseñador; indicar la filiación institucional de los
miembros del consejo editorial, indicado el país; mención explícita de
la participación de evaluadores externos en el proceso de dictamen;
indicar explícitamente el público al que se dirige la revista; incluir las
instrucciones a los autores en inglés; homogeneidad de los fascículos
en cuanto a número de artículos publicados; verificar que las referencias bibliográficas sean acordes con lo indicado en las instrucciones
a los autores, identificar el artículo mediante membrete bibliográfico
en páginas interiores donde se incluya: Nombre de la revista o ISSN,
volumen y número, periodo que cubre la edición indicando meses y
años, nombre de los autores, identificar prácticas editoriales científicas como el sistema OJS; sistemas de indexación y bases de datos
que declara la revista. Respecto al empleo del sistema Open Journal
System, la Revista ITECKNE lidera la implementación del sistema y se
espera entre en marcha a mediados del 2012.
Para que una revista sea aceptada por REDALYC se deben cumplir
todos y cada uno de los criterios básicos y al menos 20 criterios generales. He ahí el reto que el Comité Editorial de la revista ITECKNE ha
decidido asumir.
Luis Omar Sarmiento Álvarez, PhD (c)
Editor
[email protected]
Propuesta del mejoramiento de la metodología de
Manufactura Esbelta por medio de optimización
de sistemas de manufactura y modelación de
eventos discretos
Frank Nicolás Delgado Moreno
Magíster en Ciencias de Sistemas de Manufactura,
Tecnológico de Monterrey, México.
Magíster en Ciencias de sistemas de Calidad y Productividad.
Tecnológico de Monterrey, México.
Líder, Investigador Grupo CAYPRO, Universidad Santo Tomás
Bucaramanga, Colombia
[email protected]
Eliseo Gallo
Doctor Management Information Systems,
Universidad del Turabo Puerto Rico,
Investigador Grupo SIGMMA, Universidad Santo Tomás Bucaramanga, Colombia
[email protected]
Resumen- La competitividad internacional ha obligado
a las empresas de todos los países a evolucionar continuamente en los procesos de mejoramiento continuo
con el fin de mejorar la calidad de los procesos y productos y reducir los costos que implican; la metodología de
manufactura esbelta ha sido en los últimos años a nivel
internacional una de las principales metodologías para
la reducción de costos, por esta razón a través del tiempo ha tenido un mejoramiento continuo para las exigencias contemporáneas, tecnológicas, regionales y tipos
de empresa; la presente propuesta se realiza con el fin
de mejorar la metodología de Manufactura Esbelta al incorporar aspectos financieros, modelación de sistemas
de manufactura y simulación con el fin de adaptarla a
empresas de alta variabilidad en sus productos y procesos como son las pequeñas y medianas empresas en la
Ciudad de Bucaramanga.
I. INTRODUCCIÓN
La metodología Esbelta es la principal metodología utilizada por las empresas de Manufactura
en el Mundo, (Ver Fig. 1).
FIG. 1. PRINCIPALES METODOLOGÍAS DE MEJORAMIENTO UTILIZADAS EN
MANUFACTURA EN EL MUNDO
Palabras clave- Manufactura Esbelta, Simulación, Modelación de Sistemas de Manufactura, EBIT, ROI
Abstract- The international competition has forced
companies from all countries to be continually evolving
process of continuous improvement in order to improve the quality of processes and products and reduce
the costs they involve, the methodology of lean manufacturing has been in recent years at international level one of the main methods for reducing costs, for this
reason over time has had a continuous improvement
to contemporary demands, technological, regional and
business types, this proposal is carried out to improve
the methodology of incorporating lean manufacturing to
financial, manufacturing systems modeling and simulation in order to adapt to business of high variability in
their products and processes such as small and medium
enterprises in the city of Bucaramanga.
Keywords- Lean Manufacturing, Simulatión Manufacturing Systems Modeling, EBIT, R
Fuente: Manufacturing performance institute citado en Piuzzi, (2009)
La Fig. 1. Muestra la Metodología Lean como la
principal metodología en Mejoramiento continuo
utilizada en el mundo, La metodología Lean es implementada en diferentes empresas con resultados
verificables y comprobables como (Dailey, 2003):
• Reducción de costos de fabricación entre un
30 a 50%
• Reducción de inventarios de materia prima,
producto terminado, producto en proceso en
más del 80%
Recibido: 20/08/2011/ Aceptado: 18/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
120
•
•
•
•
•
•
•
•
•
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
mejoramientos sobre la metodología lean han
aumentado los beneficios de resultado en las
aplicaciones de la metodología de acuerdo a las
necesidades de las empresas que están sujetas
a variables financieras, logísticas, de producción y
posiciones estratégicas limitadas lo cual se transforma en necesidad de adaptar la metodología a
las necesidades de las empresas según la región
del mundo.
Mejora de la calidad del servicio para los
clientes
Reducción de los tiempos de atraso
Mejora calidad de productos y servicios
Reducción de tiempo de mano de obra, y aumento de la productividad
Aumento en la eficiencia y uso de los equipos
e instalaciones de planta
Altos rendimientos
Sistema más flexible para responder a los
cambios
Disminución de desperdicios o despilfarros
Aumento del flujo de caja por aumento en frecuencia de despachos y cobros
II. PRINCIPALES METODOLOGÍAS DE
MANUFACTURA ESBELTA
En Estados Unidos algunas de las principales
metodologías utilizadas en Manufactura Esbelta,
son la “Metodología de Tapping”, Tapping (2002);
la Metodología de Nigel Wood, Wood. (2004), y
en México la “Metodología de Rosalba Sánchez”,
Sánchez, (2005); estas tres Metodologías fueron
comparadas en cuanto a beneficios y ventajas
ofrecidas por cada respectiva metodología obtuvo
la Tabla I
Por los anteriores beneficios registrados por la
Metodología Lean, los investigadores en la línea de
mejoramiento continuo han desarrollado un continuo mejoramiento sobre esta Metodología;los
TABLA I
SELECCIÓN DE LA METODOLOGÍA DE DE MANUFACTURA ESBELTA
Fuente: Los Autores
En la Tabla I se muestra la comparación entre
las diferentes metodologías de Manufactura esbelta utilizadas en Países como México y Estados
Unidos; la Metodología de Sánchez muestra ser la
más completa de las tres metodologías, por esta
razón se tomó como base para adaptar al sistema
manufacturero con alta variabilidad en los proce-
sos y productos de pequeñas y medianas empresas de la Ciudad de Bucaramanga
A. Metodología de Rosalba Sánchez
Sánchez, (2005) divide la metodología en tres
fases, la Fase de preparación, Fase de Análisis y
Fase de implementación. (Ver Figura 2)
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y
modelación de eventos discretos - Delgado Gallo
121
Fig. 2 METODOLOGÍA DE ROSALBA SÁNCHEZ (SÁNCHEZ, 2005)
Fuente: Metodología integral de Implantación del un sistema de Manufactura Esbelta Sánchez (2005)
La Figura 2 muestra el esquema de la metodología dividida en las tres fases anteriormente
nombradas; las fases están divididas en pasos
interiores. (Sánchez, 2005).
III. METODOLOGÍA PROPUESTA
Según Cruz y Ramírez (2008), la Metodología
de Manufactura Esbelta es desconocida para la
Mayoría de los sectores empresariales; los sectores empresariales en Colombia están limitados
a aplicar normas ISO, (International Organization
for Standarization) estas normas permiten que un
producto o servicio tenga un estándar de calidad
para ser aceptado en un mercado, cuando un producto es aceptado en un mercado no se garantiza
productividad ni competitividad ni calidad ni mejoras financieras, (Hurtado, et al. 2009).
Las ganancias en productividad y competitividad están registradas en beneficios anteriormente nombrados; pero estos beneficios no han
sido alcanzados por la mayoría de empresas en la
ciudad de Bucaramanga por el desconocimiento
de este tipo de Metodologías como Manufactura
esbelta o la incorrecta aplicación de ellas; por
esta razón se propone la siguiente metodología
adecuada para las necesidades empresariales en
ciudades donde este tipo de metodologías es des-
conocido o no se ha introducido adecuadamente
lo que afecta los resultados de la Metodología.
La metodología conserva los aspectos importantes de la metodología de Sánchez. (2005),
pero fueron incluidos tres pasos que los autores
consideran importantes para la aplicación de la
metodología de Manufactura Esbelta; estos pasos
incluidos son: Simulación del Estado actual, Optimización del sistema de Manufactura, Simulación
del Estado Futuro.
La inclusión de los pasos anteriores se basa
en solucionar los siguientes problemas detectados por observación en diferentes empresas de
la ciudad de Bucaramanga; estos problemas son:
• Desconocimiento de la Metodología de Manufactura Esbelta
• Desconocimiento de los Beneficios de la aplicación de la Metodología
• Desconfianza por indebida aplicación previa
de conceptos o de herramientas de otro tipo
de filosofías
• Desconfianza respecto a los resultados de la
implementación de la Metodología
• Ausencia de aplicación de Optimización de
sistemas de Manufactura
122
•
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
Ausencia de Competitividad y productividad
en sistemas de Manufactura.
Con el enfoque de resolver los anteriores problemas se propone el siguiente Modelo de Implementación de Manufactura Esbelta. (Ver Fig. 3).
Fig. 3. MODIFICACIÓN POR EL AUTOR DEL MODELO DE IMPLEMENTACIÓN DE LA METODOLOGÍA INTEGRAL
DE IMPLANTACIÓN DEL UN SISTEMA DE MANUFACTURA ESBELTA DE SÁNCHEZ.
Fuente: Los Autores
La Figura 3 muestra los pasos de la Metodología de Sánchez (2005), con la inclusión de los
tres pasos adicionales propuestos en la presente
investigación; estos pasos son: Simulación del Estado Actual, Modelación del Sistema de Manufactura y Simulación final de resultados.
El paso de Simulación del Estado Actual muestra al equipo de aplicación de la Metodología de
Manufactura Esbelta el comportamiento real del
estado actual del sistema; la simulación evidencia
por medio de los objetivos y métricas el estado
real en el que se encuentra la empresa; las simulaciones a través de software de simulación como
promodel evitan costos operacionales y apoyan la
toma de decisiones previa a una decisión final sobre los resultados del mapa de estado futuro de
la metodología lean, igualmente es un amigable
entendimiento del estado actual de la empresa.
(Ver Fig.4).
Fig. 4. IDENTIFICACIÓN DE LAS ÁREAS PARA SIMULACIÓN DEL MAPA DEL ESTADO ACTUAL DEL FLUJO DE VALOR
Fuente: Los Autores
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y
modelación de eventos discretos - Delgado Gallo
La Fig. 4 Muestra un esquema del mapa del
estado actual de flujo de valor de un Proceso crítico previamente seleccionado; el numeral 1 refleja
la logística externa de la empresa con relación al
producto, el tópico No. 2 indica la cadena de flujo
123
de Valor del producto crítico seleccionado según
la filosofía de Manufactura Esbelta y el tópico No.
3 indica algunas de las métricas que son objetivos
de estudio de la metodología de manufactura esbelta, (Ver Fig.5).
Fig. 5. IDENTIFICACIÓN DE LAS ÁREAS DE SIMULACIÓN EN SOFTWARE EN EVENTOS DISCRETOS
DEL MAPA DEL ESTADO ACTUAL DEL FLUJO DE VALOR
Fuente: “A Functional Modeling and Discrete Event Simulation based approach to understand the Lean Manufacturing System”, Valles, Nathan, y Viswanathan”.
( 2005)
La Fig. 5 muestra la distribución de la logística
externa tópico 1, la cadena de flujo de valor en
tópico 2 y algunas métricas de resultados en el
tópico 3 como: entrega de órdenes a tiempo, órde-
nes retrasadas y nivel de servicio; los resultados
específicos de las operaciones de la cadena de
valor son representados a través del software de
eventos discretos (Ver Fig. 6).
Fig. 6. DESCRIPCIÓN DE DATOS DE RESULTADOS DE LA SIMULACIÓN DE MANUFACTURA
ESBELTA EN UN SOFTWARE DE SIMULACIÓN DE EVENTOS DISCRETOS
Fuente: “A Functional Modeling and Discrete Event Simulation based approach to understand the Lean Manufacturing System, Valles, Nathan, y Viswanathan”.
(2005). La Fig. 6 muestra la descripción de algunos datos de resultados en una simulación de eventos discretos, los datos de resultados dependen de los
objetivos y métricas del proyecto.
124
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
El paso agregado de Modelación del sistema
de Manufactura, se basa en agregar herramientas que tengan como objetivo optimizar el proceso
de manufactura y las operaciones de producción
(Asking y standridge 1993); algunas de estas herramientas son:
• Programación de Operaciones
Líneas de ensamble (Métodos de Balanceo).
• RPW por sus siglas en inglés “Ranked positional weight” Clasificación por peso posicional
• Variabilidad en Tiempos de desempeño
• Programación de la producción en sistemas
orientados al proceso
• Flujo
• Secuenciación de tareas – Modelos Mixtos
• Tecnología de Grupos / Manufactura Celular
• Algoritmo de ordenamiento binario
•
La programación de operaciones tiene
como objetivo calcular la organización de
las celdas de manufactura que permita el
flujo de una pieza como la metodología de
manufactura esbelta requiere; la heurística de clasificación de peso posicional optimiza las celdas de manufactura para facilitar el flujo de una pieza; esta heurística
construye una sola sucesión de la siguiente forma:
Se define el “peso posicional” de la tarea j como
PW ( j ) = tj + ∑r∈S(j) tr .
S (j) = es el conjunto de sucesores de la tarea j
t(j). = Tarea j actual
∑r∈S(j) tr = Sumatoria del conjunto de tareas sucesoras de tj
PW (j) es medida en tiempos de ciclo y el rango de
operación de la variable es: t(j) a(t(j)+∑r∈S(j)tr ). Ver
Fig.7
Fig. 7. EsquEma dE los pasos dE la clasificación dE EstacionEs por pEso posicional
Fuente: Los Autores
La Figura 7. Muestra un ejemplo de la secuenciación de la clasificación de peso posicional; el
resultado es la optimización de las celdas de Manufactura.
Las celdas de Manufactura dependen de la
confiabilidad de cumplir con la demanda de los
clientes; para cumplir con esta razón se introduce la séptima ley de Aleatoriedad con respecto
a la Confiabilidad de las celdas de la siguiente
forma:
E(sk) = ∑jϵSktj
Var(sk) = ∑jϵSk σ2j
El tiempo promedio de la tarea j es tj; sj2 la variancia del tiempo de procesamiento de la tarea j. Un
ejemplo de los pasos del cálculo de la confiabilidad
de las celdas de Manufactura se muestra en la Fig. 8
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y
modelación de eventos discretos - Delgado Gallo
125
Fig. 8. ESQUEMA DE LOS PASOS DEL CÁLCULO DE LA CONFIABILIDAD DE LAS CELDAS
DE MANUFACTURA QUE FORMAN PARTE DE LA CADENA DE VALOR
Fuente: Los Autores
En la Figura 8. se muestra un ejemplo de la
obtención de confiabilidad de las celdas a través
de la aplicación de variabilidad en tiempos de desempeño.
La programación de la producción en sistemas
orientados al proceso con la secuenciación de
los modelos mixtos tiene como objetivo secuenciar las tareas de los productos cuando estos son
productos con diferentes tiempos de ciclo donde
se encarga de Minimizar la máxima desviación de
asignar la carga de trabajo promedio en el cuello
de botella.
j (i) el tipo de artículo colocado en el i-ésimo
lugar; Un ejemplo de esta aplicación se observa
en la Figura 9.
Fig. 9. PROGRAMACIÓN DE PRODUCCIÓN CON PRODUCTOS MIxTOS
Fuente: Los Autores
126
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
La Figura 9. Muestra el proceso para obtener la
secuenciación optimizada de los productos mixtos
en una línea de producción, esta herramienta apoya directamente el balanceo realizado con herramientas como heijunka en Manufactura Esbelta.
Tecnología de Grupos tiene como objetivo Analizar los principios de formación de grupos con
respecto de tareas hacia máquinas y detectar los
grupos de productos por proceso; el Algoritmo de ordenamiento binario optimiza la formación de grupos
por medio de los siguientes pasos:
•
1. Ordenar los renglones: asignar el valor 2N-k
a la columna k, sumar los valores obtenidos
para evaluar cada renglón. Ordenar los renglones en orden no creciente
• 2. Ordenar columnas: asignar el valor 2N-k al
renglón k, evaluar cada columna. Ordenar
las columnas en orden no creciente.
Un ejemplo de la aplicación del algoritmo binario es presentado a continuación. (Ver Fig. 10)
Fig. 10. ORDENAMIENTO DE TAREAS RESPECTO A PROCESOS.
Fuente: Los Autores
La Figura 10 muestra la acomodación ideal de
las máquinas en grupos según el proceso de la
parte; esta acomodación apoya optimización de
las celdas de manufactura dentro de la metodología de Manufactura Esbelta.
Los pasos incorporados a la Metodología de
Sánchez optimizan el sistema de Manufactura
acompañando a los planes Kaizen.
El paso de Optimización de los sistemas de
manufactura incorporado dentro de la metodolo-
gía de Manufactura Esbelta se introduce debido
a la necesidad de conocer el estado previo de las
líneas, recursos, distribución, asignación y maquinas como apoyo a la introducción de las herramientas de la Manufactura Esbelta. El paso de
simulación de los resultados finales en software
de eventos discretos hace visibles los resultados
de la implementación simulada de la metodología
de Manufactura Esbelta (Ver Fig.11).
Fig. 11. ANÁLISIS ESTADÍSTICO DE UN PRODUCTO MEDIANTE SIMULACIÓN EN PROMODEL DE UN MODELO DE MANUFACTURA ESBELTA
Fuente: “A Statistical Analysis Using Simulation On a Lean Manufacturing Model”, Ho Kok Hoe / K. Muthusamy (2010).
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y
modelación de eventos discretos - Delgado Gallo
La Fig.11 muestra la representación de los
valores finales de la simulación del estado futuro
de la implementación de la metodología de Manufactura esbelta; estos valores pueden variar de
acuerdo a las métricas del objetivo de la aplicación de la Metodología de Manufactura Esbelta y
de las herramientas utilizadas en la Metodología;
eEl resultado final muestra los indicadores de tamaño de lote, tipo de pieza, sistemas de producción, proceso de la cadena de valor, Herramientas
de mejora continua, Beneficios, costo, capacidades, tipos de piezas, Numero de Operarios.
La incorporación de los anteriores pasos a la
metodología de Manufactura esbelta optimizan
los procesos productivos de manufactura y disminuyen el tiempo de entrega al cliente; disminuir
el tiempo de entrega al cliente es uno de los enfoques de la Calidad (Lindsay y Evans 2005); por
otra parte utilizar la simulación amigable de un
127
programa de eventos discretos como Promodel
facilita la comprensión del procedimiento de la
mejora continua implementada.
El paso Optimización del sistema de Manufactura consiste en realizar mejoras en el sistema actual de manufactura con base en teorías y conceptos de modelación de sistemas de Manufactura,
este paso permite entregar un sistema optimizado y esbelto a los planes de acción de KAIZEN;
el paso simulación final de resultados, permite al
equipo de aplicación de la Manufactura Esbelta
el estado final en tiempo real del sistema incluidas todas las mejoras realizadas durante la implementación.
Con los anteriores pasos explicados, la Metodología propuesta para la actual investigación
adaptada a las necesidades del entorno regional
se presenta a continuación.
FASE DE PREPARACIÓN
•
•
•
Paso 1 Compromiso con la Manufactura Esbelta
Paso 2 Selección de flujo de Valor a Analizar
Paso 3 Aprender acerca de la Manufactura Esbelta
•
•
•
•
•
•
Paso 4 Definición de los Objetivos
Paso 5 Análisis de la Demanda
Paso 6 Análisis Financiero
Paso 7 Análisis del Estado Actual
Paso 8 Simulación del Estado Actual
Paso 9 Diseño del Estado Futuro
FASE DE ANÁLISIS
FASE DE IMPLEMENTACIÓN
•
•
•
•
Paso 10 Optimización del Sistema de Manufactura
Paso 11 Plan de Acción
Paso 12 Simulación Final de resultados
Paso 13 Perfección
Los pasos de la Metodología se explican a continuación
1) Paso 1: compromiso con la manufactura esbelta
Con previa capacitación de los integrantes del
equipo de Manufactura Esbelta, se deben seguir
los siguientes pasos:
a) Nombramiento del líder del proyecto y los
miembros del equipo Esbelto
b) Anunciar el proyecto de Implantación de la
Manufactura Esbelta; el líder del proyecto junto
con los miembros del equipo deben transmitir a
todos los integrantes de la empresa el comienzo
del desarrollo del proyecto.
c) Reconocimiento del piso de taller; tanto el
líder del proyecto como los integrantes del grupo
deben analizar los aspectos de operaciones y procesos del sistema basados en la observación.
2) Paso 2: selección del flujo de valor
La selección del Flujo de valor consiste en
identificar la cadena de valor crítica que más afecta los procesos de transformación de la empresa.
Para la selección de la cadena de flujo de valor
128
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
se utilizan comúnmente dos métodos: el Análisis
Producto-Cantidad o el análisis Producto-Ruta.
El Análisis Producto Cantidad se determina por
la clasificación y jerarquización de los productos
según la cantidad de producción requerida, para
realizar el análisis producto cantidad se realizan
los siguientes pasos:
a) Clasificar los tipos de producto
b) Determinar la cantidad de cada producto
c) Determinar el porcentaje correspondiente a
cada cantidad
d) Determinar el porcentaje acumulado de los
productos
e) Seleccionar el 80% de los productos o procesos que presentan algún tipo de problema.
El análisis de producto ruta asocia los productos con rutas iguales o similares; al asociar los
productos por rutas iguales o similares aparecen
cantidades correspondientes
3) Paso 3: Aprender acerca de la Manufactura
Esbelta
Este paso define las cualidades y habilidades
que deben poseer los involucrados directamente
en el proyecto de Manufactura Esbelta; para fortalecer las capacidades y habilidades del personal
involucrado se deben seguir 5 pasos.
a) Definir los atributos que debe tener un involucrado de implementación de Manufactura
Esbelta
b) Identificar los niveles actuales en capacidades y habilidades que se encuentran los miembros del equipo.
c) Elaborar un plan de entrenamiento
d) Evaluar la efectividad del entrenamiento
4) Paso 4. Definición de los objetivos
La definición de los objetivos debe ir enfocada
a los siguientes aspectos:
• Caso del Negocio: identificación de la problemática del negocio
• Declaración del valor: determinar qué se quiere alcanzar con la implementación
• Requerimientos claves: determinar los requerimientos claves para alcanzar las mejoras
• Métricas: determinar las métricas claves para
alcanzar los requerimientos
•
Estado Ideal: definir los factores claves de
una cadena de valor “Esbelta” que se desean
mejorar durante la implementación
5) Paso 5. Análisis de la demanda
El análisis de la demanda prepara al encargado de producción de hacer los arreglos necesarios
para cumplir con la demanda del cliente; para el
análisis de la demanda se deben seguir los siguientes pasos:
a) Determinar la demanda actual de los productos de la cadena de Valor
Para determinar la demanda del estado actual
se pueden utilizar el cálculo de la demanda por
pronóstico o la demanda del año anterior.
• Demanda por pronóstico: Para cálculo de la
demanda por pronóstico se pueden utilizar los
siguientes métodos: Método cualitativo, método
de proyección histórica o los métodos Causales.
• Demanda del año anterior: Se utiliza la demanda del año anterior y se ajusta a través del
tiempo. Para apoyar la demanda del año anterior se utiliza el cálculo del taktime; el taktime
es una palabra alemana que significa ritmo; el
taktime se calcula de la siguiente forma:
“Taktime = Tiempo Total Disponible/Demanda
del Producto”
El taktime muestra al ritmo que deben trabajar
todas las estaciones de trabajo para cumplir con
la demanda del cliente.
6) paso 6. Análisis financiero
Sánchez, (2005) propone que análisis financiero está basado sobre “El retorno de los activos
claves”; para el análisis financiero se requieren
cumplir con los siguientes pasos: Obtener la información financiera y calcular el retorno de activos
claves; cada uno de estos pasos se explica a continuación:
a) Obtener la información Financiera:
La información financiera se basa en conocer
los siguientes aspectos:
• Ingresos anuales de la cadena de valor
• Desglose de los costos de la cadena de Valor.
• Es el valor resultante de restar ingresos
menos costos o EBIT (Ganancias antes
de intereses e impuestos, por sus siglas
en inglés).
• EBIT= Ingresos – Costos
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y
modelación de eventos discretos - Delgado Gallo
b) Cálculo del retorno de activos claves: Calcular el retorno de activos claves, incluye obtener la
información correspondiente a tres indicadores,
estos indicadores son:
• Ingresos anuales: Depende de amplitud de la
utilización de las maquinarias para cumplir
con las demandas.
• Ganancias antes de Intereses e impuestos:
Este indicador será representado por el EBIT,
visto anteriormente.
• Retorno de activos claves: representa ganancia antes de intereses e impuestos dividida
sobre el total de los activos anuales.
129
7) Paso 7. Análisis del estado actual
El análisis del Estado actual se enfoca al comportamiento del sistema de Manufactura basado en
los datos recopilados; estos datos son Reza (2007):
• Tiempo de Ciclo
• Tiempo de Preparación
• Disponibilidad
• Numero de Operarios
• Tamaño de lote
• Tamaño del inventario en proceso.
Los anteriores datos impactan en las métricas
de la Metodología según los objetivos del proyecto; las métricas son presentadas en la Tabla II.
TABLA II
INSTRUMENTO DEL NIVEL DE ALCANCE DE LA IMPLEMENTACIÓN DE LA FILOSOFÍA DE MANUFACTURA
ESBELTA EN LAS FASES DE APLICACIÓN DE LOS INDICADORES.
Fuente: Adaptada de Nivel de alcance de implementación del estatus de la Manufactura Esbelta antes y después de KPIS. ( Mohammad et, al., 2009).
La Tabla II muestra los nueve indicadores que
miden el estado de la empresa en cada etapa;
cada uno de estos indicadores está medido en
unidades correspondientes que aparecen en la
columna de nombre “Unidad”, estas unidades
están escritas en la Tabla en forma de símbolos,
estos símbolos se describen a continuación:
$: pesos colombianos; Dpm: Defectos por millón
Unidad: Unidades de producto;M2: Metros cuadrados; M: Metros lineales; Mins: Minutos
La columna RAG, (Red, Ámbar, Green) que por
sus siglas en el idioma español significa rojo, anaranjado y verde, Identifica visualmente el estado
del indicador en cada nivel (Mohammad et al.,
2009), el estado Rojo significa que el estado del
indicador es grave y no funciona adecuadamente, el estado anaranjado significa que el problema es de atención y se puede mejorar aún más,
el estado verde significa que el indicador trabaja
aceptablemente y favorece a todo el sistema. Este
instrumento de medición es aplicado en cada fase
de investigación.
8) Paso 8. Simulación del estado actual Este paso se
explico en las Fig.8 y Fig.9
9) Paso 9. Diseño del estado futuro
El diseño del estado futuro consiste en la
determinación de los desperdicios del sistema actual
de manufactura (Ver Tabla III) y el procedimiento
para eliminarlos.
La Tabla III Muestra los 7 principales desperdicios
de un sistema de manufactura discreto y la forma de
eliminarlo.
130
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131
TABLA III
LOS 7 DESPERDICIOS TÍPICOS EN LOS PROCESOS DE PRODUCCIÓN CONTROLADOS POR LA METODOLOGÍA DE MANUFACTURA ESBELTA
Fuente: Coutin, 2005.
10) Paso 10. Optimización del sistema de manufactura Este paso se describió en las figuras 7,
8, 9,10.
11) Paso 11. Plan de acción consiste en implementar las herramientas de la Manufactura esbelta y optimización del sistema de Manufactura de
acuerdo a un evento Específico.
12) Paso 12. Simulación final de resultados.
Muestra dinámicamente el comportamiento ideal
del sistema teniendo en cuenta las mejoras previamente realizadas en los pasos anteriores. (Ver
fig.11).
13) Paso 13 perfección: Representa el Mejoramiento continuo donde se continúa analizando el
sistema, comenzando nuevamente con un Mapa
del Estado Actual direccionado hacia las nuevas
metas y objetivos de la Empresa.
CONCLUSIONES
La metodología de manufactura Esbelta es
usada en países industrializados como Estados
Unidos y México para eliminar desperdicios y reducir costos.
La Manufactura Esbelta es una Metodología
que debe ser actualizada a través de las exigencias tecnológicas e industriales contemporáneas.
Debido a la alta variabilidad en procesos y productos de las pequeñas y medianas empresas la
Metodología de manufactura Esbelta debe ser
adaptada a este tipo de Variabilidad; la Optimización y modelación de sistemas de Manufactura
apoyan a reducir la variabilidad de los procesos en
los productos.
La simulación de eventos discretos aplicados
a la metodología de Manufactura Esbelta permite observar el comportamiento de las decisiones
tomadas para Desarrollar el estado futuro ideal.
La simulación es la herramienta adecuada
para solucionar problemas de secuenciación de
productos mixtos en líneas de producción donde
influirá la aplicación de la Manufactura Esbelta.
La Manufactura Esbelta requiere de procesos
estandarizados en gestión de Calidad en documentos de control de demandas e inventarios
para optimización de los resultados en tiempo y
precisión.
REFERENCIAS
[1]
Askin, R. and . Standridge, C. (1993). Modeling
and Analysis of Manufacturing Systems, Wiley
[2]
Cardoza, G. (2009). Implementación de Manufactura Esbelta para el flujo de materia prima en
una nueva nave industrial de la industria médica. Tesis.
[3]
Coutin, C. (2003). “Lean Manufacturing”. Recuperado el 19 de agosto de 20011, de http://scholar.google.com.mx/scholar?hl=es&lr=&q=cach
e:FzIro2G55gkJ:www.aciq-cv.com/varios/leanmanufacturing.doc+MANUFACTURA+ESBELTA.l
[4]
Dailey, K. (2003). The lean manufacturing pocket handbook, editorial DW Publishing. Estados
Unidos.
Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y
modelación de eventos discretos - Delgado Gallo
[5]
Ho Kok, H. and Muthusamy, K. (2010). A Statistical Analysis Using Simulation On a Lean Manufacturing Model,
[6]
Mohammad, A. & Hazrulnizamm (2009), The
level of achievement of lean manufacturing implementation status before and after the development of KPIs at an aerospace manufacturing
company.
[7]
Piuzzi, G. (2008). Reto global e incertidumbre en
las cadenas de suministro. VII simposio internacional de Logística y Supply chain. Caracas. Venezuela.
[8]
Sánchez, .R. (2005) Metodología Integral de la
implantación del sistema de Manufactura Esbelta. Rosalba Sánchez. (2005)
[9]
Tapping, D. Luyster, T. & Shuker, T. (2002) “Value Stream Management, eight step to planning,
mapping, and sustaining lean improvements”.
Productivity Press.
[10] Valles, D. Nathan, J. y Viswanathan, V. (2005).
A Functional Modeling and Discrete Event Simulation based approach to understand the Lean
Manufacturing.
131
Desarrollo de un modelo heurístico para la
optimización en el manejo de material en estibas
en una bodega
Laura Manotas Romero
Ingeniería Industrial,
Universidad del Norte, Barranquilla
Investigador Jr. FCIMEC, Fundación Centro de Investigación en
Modelación Empresarial del Caribe
Barranquilla, Colombia
[email protected]
Diana Ramírez Ríos
MSc en Ingeniería Industrial
Universidad del Norte, Barranquilla
Directora Científica FCIMEC, Fundación Centro de Investigación
en Modelación Empresarial del Caribe
Barranquilla, Colombia
[email protected]
Resumen— Los problemas enfocados en las bodegas
siempre se han caracterizado porque dependen del tipo
de negocio que fue analizado. Algunas empresas tienen
zonas de cuarentena en sus bodegas y otras no. Algunas
tienen out-and-back picking, y otras hacen picking en
un solo recorrido para diferentes ítems. Algunas industrias tienen zonas de adelante, otras poseen zonas de
almacenamiento a granel, zonas de producto retenido
y de producto rechazado. En general, la optimización de
las bodegas es realizada según todas las características
mencionadas. En la presente investigación se desarrolló una heurística que fue adaptada con los supuestos
y criterios de la regla del cube-per-order para la optimización de asignación de espacios unida con algunas de
las bases para la optimización de picking, en el que la
distancia de la ruta es importante pero no la ruta en sí.
La aplicación fue realizada sobre un ejemplo de bodega,
con base a la información suministrada por una empresa del sector industrial, en donde el aspecto crítico detectado consistía en conocer la posición óptima de las
diferentes áreas y de los productos en las estanterías
disponibles en la bodega. Todo esto, de acuerdo con las
capacidades de las estanterías y las características de
los diferentes tipos de productos que se van a almacenar. El objetivo que se persigue es el de minimizar la distancia total recorrida en un periodo de tiempo evaluado,
sujeto a restricciones de espacio y asignación. Se mostrará entonces la mejoría significativa en la eficiencia
de una bodega de material en estibas dada la aplicación
de la heurística desarrollada.
adapted from the cube-per-order index rule for slotting
optimization merged with some of the picking optimization techniques, where the route distance is important
but not the route itself. The application was made to
over an warehouse, based on the information provided
by a industrial company, where the critical aspect was
to know the optimal position of the different areas and
the products in the racks that the warehouse have, taking into account the capacities of the racks and the
characteristics that certain type of products have. The
objective was to minimize the total distance travelled in
a specific period of time, taking into account capacity
and assignment restrictions. It will be shown the significant improvement in the efficiency of a warehouse
of material in pallet, given the application of heuristics
developed.
Palabras clave— Bodegas, optimización en asignación
de espacios y en picking, regla del índice cube-per-order.
Abstract— Warehousing problems have always been
characterized depending on the type of businesses that
is analyzed. Some businesses have quarantine zones in
their warehouses, other don’t have. Some have out-andback picking, others do picking for different items at the
same time. Some industries have forward areas, bulk
storage areas, retained products areas and rejected products areas. In general, the optimization of warehouses
is done depending on all of the characteristics mentioned above. In this research paper, a heuristic has been
Keywords— Warehousing, slotting and picking optimization, cube-per-order index rule.
I. INTRODUCCIÓN
En las empresas modernas de hoy en día, dedicadas al control de bodegas y manejo de inventarios, se puede visualizar como su negocio gira
en torno a mantener los tiempos de ciclo de cada
orden mucho más cortos y lograr el despacho
oportuno del producto al cliente. Así mismo, toda
empresa desea aumentar sus utilidades y una de
las maneras en que puede hacerlo es por medio
de la reducción de los costos asociados a estos
procesos. En una bodega, para poder reducir los
costos es necesario observarlo desde dos puntos
de vista, el de optimizar el proceso de Picking y el
optimizar las actividades de recibo de las órdenes.
Sin embargo, de acuerdo con los estimados de
la industria, el proceso de Picking representa más
del 60% de los costos de operación de una bodega [1] y algunos autores hablan de un 55% [2].
Recibido: 01/09/2011/ Aceptado: 15/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
Con estas estadísticas se afirma, a nivel general,
que este es uno de los procesos más laboriosos y
costosos que existe en cualquier bodega. Así que
optimizar las operaciones de Picking le garantiza
una mayor rentabilidad a la bodega, dado que se
ahorrarán la mayoría de sus costos de operación.
Para optimizar el proceso de Picking, algunos
autores se enfocan en encontrar la mínima distancia entre las rutas que tienen que hacer los
montacargas al recoger la mercancía de los estantes y llevarla al punto de despacho, tomando
como base el Problema del Agente Viajero [3].
Otros autores van más allá y se preocupan, primero, por optimizar el diseño de la bodega y luego
por minimizar las distancias asociadas a las rutas
de la operación de Picking [4]. Para todos los diferentes casos, es necesario tener en cuenta que
para cada tipo de negocio hay un manejo distinto. Sin embargo, en este estudio se presentan los
distintos casos implementados, con el fin de analizar la optimización que se hará en una bodega
de material almacenado en estibas con base en
información suministrada por una empresa del
sector industrial, con el fin de lograr una mayor
productividad.
133
Viajero), y en el pasado se utilizaban algoritmos genéticos, colonias de hormiga, simulado,
entre otras meta heurísticas para resolver este
problema. Estas entregaban buenos resultados, pero no eran fácilmente aplicables en la
práctica. En [5] se desarrolló un modelo de
optimización que se resuelve con un modelo
recursivo de programación de la producción y
de almacenamiento de acuerdo al control de
sistemas. El problema estudiado en este artículo es la secuencia y toma de decisiones en
Picking según un sistema multipasillo y una
ubicación compleja de los ítems a recoger. A
continuación se presenta la Fig. 1 en donde se
muestra el modelo de almacén con el que se
trabajó en esta investigación:
FIG. 1. MODELO DE ALMACÉN
II. ESTADO DEL ARTE
Fuente: (SHUHUA & YANZHU, 2009) Pág. 990
A. Optimización en Picking (Picking optimization)
La automatización de las bodegas y los sistemas de recibimiento de mercancía ha creado la
necesidad de crear algoritmos computarizados
para soportar las decisiones de programación de
Picking y de vehículos en los muelles de recepción
y distribución de mercancía en las bodegas. Estos
algoritmos deben minimizar las distancias recorridas por las grúas al momento de recoger los productos en el Picking.
Los objetivos hoy día de los problemas de Order Picking están enfocados a eliminar la intervención humana en los procesos de recolección
de productos en las estanterías. Existen 3 problemas de interés en este ámbito: 1) Asignación de
recursos, 2) Generación de un Order Picking para
cada grúa o vehículo interno dentro del almacén,
y 3) Planeación del reabastecimiento de las áreas
de reserva a las áreas de Picking.
Un problema de Order Picking se reduce a trabajar un problema de TSP (Problema del Agente
El modelo desarrollado consiste en el siguiente
procedimiento:
• Obtener todas las tareas del día respectivo
mediante el sistema de información de almacenamiento (Warehouse managment system).
• Detallar todas las tareas a realizar. Esto es
ubicar espacialmente todos los puntos a los
cuales debe visitar la grúa de recolección de
productos.
• Ejecutar el algoritmo para solucionar el problema del agente viajero o TSP.
• Analizar los resultados del algoritmo.
• Seleccionar la grúa para realizar el recorrido.
• Después que realiza el recorrido de la ruta, la
grúa vuelve a su posición inicial.
• Para este modelo, las condiciones básicas del
almacén eran:
• Consiste en tres canales, 4 estantes y una
grúa que puede operar por los lados de cada
canal.
134
•
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
Los estantes son rectangulares. Las grúas se
pueden mover en sentido horizontal y vertical
al mismo tiempo. Las coordenadas de los estantes toman como punto cero la esquina inferior izquierda.
• Existen una variedad de ítems en el sistema.
• La demanda es fija y conocida, y no está relacionada a los otros ítems.
• La aceleración y desaceleración de las grúas
es lineal.
Básicamente el algoritmo se basa en escoger
puntos aleatorios y calcular su distancia. Inmediatamente esto lo compara con los recorridos que ya
se han generados, y si es mejor actualiza el sistema. Es importante destacar que el algoritmo es eficiente porque no guarda todas las respuestas sino
solamente las que son mejores que las anteriores.
El algoritmo desarrollado en [6] utiliza el algoritmo de Colonia de Hormigas como la metodología para encontrar una solución óptima al
problema de minimizar la ruta en un proceso de
Picking. En su trabajo analizan las características
de trabajo para estanterías de almacenamiento
fijas en una bodega automatizada. Principalmente se busca optimizar las estrategias de Picking
para poder mejorar el rendimiento (throughput)
de la bodega. Teniendo todo esto en cuenta y de
acuerdo a los requerimientos de las operaciones
de Picking en una bodega con una solo hilera, se
construye un modelo matemático con múltiples
restricciones que buscan minimizar el tiempo de
viaje en ruta. Se hicieron simulaciones computacionales para validar el modelo propuesto y los resultados demuestran superioridad en cuanto a su
capacidad de búsqueda y rapidez en la entrega de
resultados, que satisface la demanda de trabajo
de media y alta escala.
Otro algoritmo, conocido como Pick-Path Optimization en [3] utiliza la heurística para resolver el
problema TSP, pero hace una versión más sencilla
de la misma, ya que le agrega algunas restricciones que limita el número de posibles soluciones.
El limitante de este algoritmo es que no garantiza encontrar la solución óptima que se daría por
la heurística original, sin embargo, la solución es
mucho más práctica porque se adapta a las reglas
y configuración de las bodegas, en general. El objetivo que se debe minimizar es la distancia total
recorrida y para ello, se hace una configuración de
la bodega como una red de posiciones de almacenamiento. El algoritmo es programado en Java y el
programa permite:
• Describir el mapa de la bodega (en una hoja
de Excel)
• Entregar una lista de localizaciones de almacenamiento a ser visitados
• Especificar el tipo de viajes permitidos para la
bodega (restricciones)
• Especificar los grupos de direcciones que se
pueden visitar en la operación de Picking.
B. Optimización en asignación de espacios
(slotting optimization)
En [7] se presenta un problema interesante
que es el proceso de selección de los productos en
las áreas de Picking, con mínimas distancias. J. L
Heskett propuso un algoritmo heurístico llamado
Cube-per-order (CPO), que presenta una solución a
la localización de ítems en la bodega con el fin de
minimizar los costos involucrados en el tiempo de
espera para la selección de los productos de una
orden recibida.
CPO es un criterio para la colocación de stock
en un almacén de distribución a fin de minimizar
el costo de la mano de obra asociados con montaje de elementos del stock en la bodega para satisfacer los pedidos de los clientes.
Conceptualmente hablando, el tipo de distribución de la bodega en discusión es el presentado a
continuación en la Fig. 2. La bodega está dividida en
la zona de reserva. Estos almacenes guardan una
variedad de ítems, y los clientes pueden realizar una
orden con cualquier combinación de productos.
FIG. 2. ZONAS DE LA BODEGA
Fuente: (KALLINA & LYNN, 1976)
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
Cuando una orden de un ítem es recibida, un
operador con un montacargas va desde el almacén en donde se encuentra el artículo y regresa
al área de despacho de pedidos. Este proceso es
llamado “recoger una orden”.
Dependiendo del diseño del almacén, la carga
del ítem y la distribución normal de los productos
con respecto a una orden, se pueden emplear una
serie de formas o disciplinas para recoger los productos en una bodega. Para el uso de la regla en
cuestión se tendrán en cuenta las dos siguientes
disciplinas básicas: primero, la selección de cada
ítem ida y vuelta (out-and-back), usada donde las
órdenes de productos que se van a recoger son
en grandes cantidades, o donde todo el trabajo es
sacado con un montacargas cuya capacidad de
carga es de un solo ítem por viaje para llevarlo a
la zona de despacho; y segundo, Picking routing
(ruteo), en este caso varios ítems de una orden
son recogidos en un solo viaje de la bodega hasta
que el medio de transportación tenga la capacidad completa.
La clave del costo variable en el proceso de
recolección de una orden es el tiempo en el que
incurre el operador del montacargas en sus recogidas. Se asume que con cualquiera de las dos
disciplinas expuestas, la velocidad promedio de
este vehículo es igual para todas las órdenes.
Asimismo, se asume que los ítems que se van a
recoger tienen un volumen, peso y configuración
geométrica lo suficientemente parecida que estos
factores no afectan el tiempo que se requiere para
levantar el ítem. De lo anterior se deduce, por
tanto, que en la disciplina out-and-back el costo
de recoger un ítem dado es directamente proporcional a la distancia desde el área de despacho
donde está la orden a la ubicación del ítem en la
bodega. En el caso de la disciplina Picker routing,
el tiempo total del operario en un viaje se puede
distribuir a través de todos los elementos recogidos, entonces el tiempo dado a cada elemento de
la orden será proporcional a la distancia de este
con el área de despacho del pedido. Estos tiempos pueden ser promediados a través de todos
los viajes realizados por el operador durante un
periodo de tiempo para llegar a un costo promedio
de recogida del producto. Una vez más, se deduce
que el costo promedio de un ítem es proporcional
a la distancia entre el área de despacho del pedido y la ubicación del ítem en la bodega.
135
Así, con el fin de analizar los costos variables
para recoger basta con concentrarse en la configuración geométrica del área de la bodega. En la
Figura 2 se divide el área de la bodega en zonas.
En la práctica, estas zonas se ajustan a las características físicas (pasillos y bahías) de la bodega
real. En promedio, la distancia desde la zona de
despacho de la orden hasta un lugar cualquiera
en la Zona 2 es el doble que la distancia a un lugar
cualquiera en la Zona 1, y así.
Otro aspecto importante de este tipo de problemas que no ha sido mencionado hasta el momento es la posibilidad de tener pronósticos de la
demanda para cada ítem en la bodega. Además,
incluso asumida esta demanda es bien sabido
con certeza, que si la demanda tiene un comportamiento claramente estacional entonces un factor adicional para considerar es el apropiado horizonte de tiempo sobre el cual se debe encontrar
la solución del costo mínimo.
Regla del índice Cube-Per-Order CPO
A razón de enfocarse en la reducción del costo
de recoger una orden, se deben hacer las siguientes suposiciones:
• Se ha determinado un horizonte de tiempo
sobre el cual se desea minimizar el costo de
recoger una orden.
• Sobre este horizonte de tiempo, la demanda
del cliente para cada ítem de la bodega es
conocido con certeza, tanto la cantidad que
debe ser despachada como el número de órdenes que van a ser recibidas.
• Se ha determinado la demanda diaria máxima del inventario que se debe mantener en la
bodega para cada ítem, y adecuar el espacio
total de la bodega para que se ajuste a esta
cantidad específica (la demanda diaria determinada puede ser diferente para diferentes
ítems).
Con estas suposiciones, el problema es ubicar
los ítems en la bodega para así minimizar el costo
variable de recoger una orden; de igual manera
se minimiza la distancia total de los recorridos del
montacargas durante el horizonte de tiempo seleccionado.
Estos son en general cuatro factores determinantes del costo: compatibilidad, complementariedad, popularidad y espacio. Los ítems compatibles son aquellos que pueden ser almacenados
136
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
uno al lado del otro sin temor a alguna contaminación o daño, así entonces los ítems incompatibles, como por ejemplo, un caso muy común
sería la comida y gasolina, deben ser almacenados en lugares no adyacentes. Los ítems complementarios son aquellos que frecuentemente son
demandados simultáneamente por el cliente en
la misma orden, como sería el caso en los supermercados del espagueti y salsa de tomate, y estos deben estar ubicados cerca uno del otro. Los
ítems populares, en términos del promedio de
recogidas por día, deben estar localizados cerca
del área de despacho, ya que estos ítems tienen
el mayor número de viajes hacia su ubicación.
Este criterio parece ser el más recomendado
para la ubicación de stock. Finalmente, es recomendable que los ítems que requieren el menor
espacio en la bodega estén ubicados más cerca
del área de despacho.
Claramente, estos cuatro criterios, en general, no pueden ser introducidos simultáneamente, y es necesario mucho esfuerzo. Primero, se
asume que todos los ítems de la bodega son
compatibles. Luego, se asume que hay grupos
de ítems de alta complementariedad que se
combinan en clases para formar nuevos “ítems”
en el listado maestro de la bodega. Estos nuevos ítems pueden o no remplazar totalmente
los ítems individuales para convertirse en clases, según el grado de complementariedad. Con
esto, se puede especificar los pasos que involucran la implementación de la regla del índice
CPO, que establece un intercambio cuantitativo
entre los dos objetivos de ubicar los ítems que
ocupan menos espacio cerca de la zona de despacho, y también los ítems que son más populares.
Los siguientes pasos involucran nada más
que una secuencia de tabulación de datos y cálculos aritméticos simples.
1) Preparar un diagrama a escala de toda la
bodega, según la ubicación de los pasillos,
áreas de almacenamiento y otras características físicas significativas que afecten los
movimientos de los montacargas, como los
obstáculos, paredes interiores y demás. Se
indicará la capacidad de cada zona de almacenamiento entre pasillos, expresada en
pies cúbicos, metros cúbicos o número de
paletas, según sea más conveniente.
2) Dividir el área de la bodega conceptualmente en zonas que representan distintas
distancias promedio hacia la zona de despacho, y tenga en cuenta las zonas en el
diagrama a escala. Además, la capacidad
de cada zona debe ser tabulada.
3) Hacer un listado de todos los ítems que son
llevados a esa bodega. En la columna siguiente, registrar el volumen requerido para
almacenar la unidad más pequeña que se
pueda embalar de cada ítem de una orden
que un cliente pueda pedir.
4) Para cada ítem, registrar el pronóstico del
número esperado de órdenes a ser recibidas en un horizonte de tiempo, y el número
de unidades esperadas para despachar.
Se asume que cada orden para un ítem
representa una recogida (si se espera que
ocurra frecuentemente que se deba ir a
recoger más de una vez en una orden, entonces se remplaza la orden estimada del
ítem por una estimación del número total
de recogidas).
5) Calcular y registrar por separado para cada
ítem el número promedio de unidades por
pedido, el número promedio de volumen de
almacenamiento requerido por cada pedido y el número promedio de órdenes que
se reciben en un día de envíos durante el
horizonte de tiempo. Los dos últimos números se multiplican con el número de días establecido como el objetivo máximo de días
de demanda para obtener la cantidad de
espacio del área de la bodega a ser apartadas para cada ítem. El índice CPO es la
relación de este último número y el promedio de pedidos por día de envío. (Esta definición del índice indica una compensación
de lo cuantitativo e intuitivo entre espacio y
popularidad. Más directamente, el índice se
define como el producto de la meta de días
de demanda y el espacio de almacenamiento promedio por pedido).
6) Todos los ítems están ahora ordenados según su índice CPO, el ítem con el menor índice comienza de primero. De este ranking,
depende el diseño del área de la bodega.
Los ítems con menor índice son colocados
en la zona 1 y así sucesivamente cada vez
más lejos de la zona de despacho.
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
La regla CPO es fácil de implementar, tanto
en términos de tiempo y el nivel de mano de obra
requerida. También tiene una gran flexibilidad a
condiciones cambiantes. Una observación empírica hecha es que la regla CPO, con frecuencia, es
que el rendimiento de la bodega es muy diferente
de los obtenidos por la aplicación del criterio de la
popularidad o el espacio. Además, se puede esperar que el diseño de la bodega de la regla difiera
en cierta medida del diseño real en existencia. En
determinadas situaciones la aplicabilidad del índice de CPO puede ser reforzada por cambios específicos en la configuración del área de la bodega.
C. Optimización de diseño en planta (layout
optimization)
Para el diseño del Order Picking Area, se tienen otros algoritmos que trabajan el esquema
completo del diseño de la bodega, según la información del espacio disponible y definición de las
áreas de operación y las estanterías con las que
se cuentan para la bodega:
En [8] se estudiaron las interacciones entre las
políticas de ruteo y el diseño del área de Picking
por medio de simulación. Sin embargo, no desarrolló una metodología de diseño. En su estudio,
encontró que la influencia de la posición de depósito en distancias de ruta es menor al 6% y si
hay más de 15 picks por ruta, ésta cae por debajo
del 1%.
En [9] se estudió el impacto del diseño del
área de Picking por medio de los estimados en la
distancia de ruta en diseño de un solo bloque.
En [10] se desarrolló un modelo capaz de encontrar la mejor estructura de diseño para el área
de Picking, por medio de la formulación de un
modelo matemático no lineal, basándose en las
características de dos políticas distintas de operación. Sus resultados les llevaron a concluir que el
número de hileras óptimas depende fuertemente
de la capacidad del área de almacenamiento y de
la lista de Picking. Aun cuando fue una contribución importante, su modelo se limita a diseños de
un solo bloque.
En el [11] se presentó un modelo analítico
para el diseño en planta del área de Picking en
sistemas de picker-to-part de nivel bajo mediante
el índice cube-per-order (COI), explicado en la pasada sección, basándose en reglas de asignación
aleatoria de espacios. Los autores presentan una
137
fórmula que relaciona el número óptimo de hileras con los parámetros principales que afectan el
diseño de planta, los cuales son: la longitud de
las hileras de Picking, el número de paradas de
Picking por viaje y la forma del diagrama de Pareto basado en el COI. También tienen en cuenta el
incremento en el valor esperado de distancias de
viaje que surge de la adopción de un número no
óptimo de hileras.
En [12] estudiaron bodegas que consisten
en dos bloques con el depósito localizado entre
ambos bloques en la cabecera de la hilera cruzada media. El modelo que presentan se basa en
la asignación óptima del espacio de almacenamiento, mediante la estrategia ABC y en la minimización del tiempo promedio de ruta de Picking,
en el que al mismo tiempo se mantenga cierto
nivel de espacio de almacenamiento. En su estudio consideran dos tipos de diseño, uno que
tiene el espacio disponible fijo y el otro que no
lo tiene fijo. Para cada situación presentan una
formulación matemática y heurística para resolverla.
En [4] se estudian modelos de múltiples hileras y número de bloques. Los autores presentan
un método revertido para optimizar el diseño del
área de Picking e introducen un estimado estadístico para la distancia total promedio con el
fin de poder minimizarla. Presentan un modelo
analítico y lo validan por medio de simulación.
En este modelo, ellos consideran la operación de
Picking manual, en el que los operadores recorren la bodega y recogen los ítems y los llevan a
su ruta. La estructura del área está compuesta
por hileras de Picking que tienen estanterías en
ambos lados y en donde los operadores tienen la
posibilidad de recoger material de ambos lados.
En este modelo existen por lo menos dos hileras
cruzadas (una en el frente y otra en la parte de
atrás) y en esas hileras no se tienen puntos de
Picking.
III. DESCRIPCIÓN DEL PROBLEMA y
FORMULACIÓN DEL MODELO MATEMÁTICO
Para este modelo se tienen en cuenta que la
política de asignación de espacios es aleatoria
siguiendo una distribución uniforme y se tienen
en reglas de asignación de rutas que limitan el
espacio de soluciones. Para lo anterior, se asume
que los operadores recorren las hileras por toda la
138
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
mitad de la hilera, evitando congestión de operadores y también recogen los productos sin tener
que utilizar un mecanismo de levantamiento de
carga.
Se debe analizar de qué manera están organizados los productos, en este caso se tomará
que las estanterías de la bodega están organizadas por familias de producto, los cuales se
encuentran paletizados (en estibas). Por otro
lado, se debe evaluar si los espacios están organizados de acuerdo a la cantidad de producto
en rotación, es decir, si se tiene en cuenta su popularidad; esto, versus el volumen que se puede
manejar por estiba, por lo que se debe revisar
la asignación óptima de los espacios en bodega,
basados en la popularidad y el volumen que el
producto maneja.
Como ya se mencionó anteriormente, se tomará el caso de una bodega en la que los estantes están sectorizados por tipo de producto
y también por estado, que puede ser: Cuarentena, Aprobado, Rechazado, Retenido, en Alistamiento. El estado de Cuarentena es establecido
cuando el producto no ha sido inspeccionado
previamente, por lo que se le realizan pruebas
para poder ubicarlo en las estanterías y así evitar
la contaminación del resto de los materiales de
la bodega; una vez el material pasa satisfactoriamente las pruebas de control de calidad, se
le coloca el sello de Aprobado y es trasladado a
la estantería correspondiente; si el producto no
pasa las pruebas de control de calidad, entonces
será ubicado en la zona de producto Rechazado
o Retenido según sea el caso; a la zona de Alistamiento, solo pasan los productos por requerimiento del área de producción y que estén en la
zona de Aprobado. La cantidad de zonas asignadas en la bodega, depende indispensablemente
de las necesidades de la empresa. Para el caso
en estudio se tendrán en cuenta las cuatro zonas
anteriormente mencionadas, y una quinta zona
que se tomará como área de Alistamiento, en
donde se ubicarán las estibas según los pedidos
requeridos y donde solo pasará material que ha
estado en el área de Aprobado, para luego salir
de la bodega hacia Producción, como se mencionó anteriormente. Cabe destacar que las zonas
deben estar claramente señalizadas, y para el
caso de que se maneje material con rigurosos
controles de calidad, por el tipo de producto, se
debe además ubicar la estiba en la zona correspondiente según los resultados de las pruebas
de muestreo, se debe colocar una etiqueta o señalización distintiva de que el producto fue asignado para x área, esto es de vital importancia
para el personal que maneja la bodega.
Para el caso de este tipo de bodegas y dadas
todas las condiciones anteriormente establecidas, el método más adecuado a partir del cual
se puede empezar desarrollar para organizar
los productos de la bodega de la mejor manera es la regla Cube-Per-Order. Se debe tener en
cuenta que este método no se ajusta de manera
exacta, por lo que hay que tener en cuenta ciertas variaciones para que su aplicabilidad sea
viable, por ello, se ha combinado para lograr
una optimización en el Picking, para el cual se
tienen en cuenta las distancias, principalmente.
La optimización del diseño de la bodega se tiene como referencia, sin embargo, no se tuvo en
cuenta por el mismo hecho de que normalmente las bodegas ya tienen fija sus estanterías, la
cantidad de hileras, y demás.
El modelo que se ha desarrollado debe indicar la posición óptima de las zonas en las
estanterías para que se reduzca el tiempo de
Picking. Este modelo se aplica a empresas que
tienen un Picking out-and-back, lo que significa que no se necesita la ruta óptima de recogida de los pedidos sino más bien un arreglo
óptimo de estanterías asignadas a cada tipo de
producto con el fin de minimizar la distancia de
los recorridos, según las capacidades en las estanterías, de acuerdo con el siguiente modelo
matemático.
IV. DESCRIPCIÓN DEL PROBLEMA y
FORMULACIÓN DEL MODELO MATEMÁTICO
A. Variables:
B. Parámetros:
uit= Cantidad de estibas del producto i que ingresan a bodega en el periodo t.
capj= Capacidad de la estantería j.
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
zit= Cantidad de estibas del producto i que salen de la bodega en el periodo t.
dej= Distancia desde la entrada a la estantería j.
djl= Distancia desde la estantería j a la estantería l.
daj = Distancia de zona de alistamiento ubicada en la estantería j a la salida.
139
5. Distancias recorridas por los productos i=1,
… , 12 que se mueven de la zona de Alistamiento
a la salida.
E. Sujeto a:
La capacidad de los estantes asignados a la
zona de Aprobado debe ser mayor o igual a la cantidad de producto que i que ingresa a dicha zona
en un periodo de tiempo t.
pik= Proporción del producto i a ingresar en estado k.
C. Conjuntos:
Familias de productos i = 1, … , 12
Estanterías j = 1, … , 25 ι⊆ J, ι≠j
Estados en bodega, estos dependerán del
número de zonas que se definan, para este
caso sería entonces:
1(en cuarentena), 2(retenido), 3(rechazado),
4(aprobado) y 5(en alistamiento)
Periodos de tiempo, se define la unidad de
tiempo en la que será más conveniente evaluar
t=1, … , (semestres)
D. Modelo matemático (Zmin):
La capacidad de los estantes asignados a la
zona de Cuarentena debe ser mayor o igual a la
cantidad de producto que ingresa en esta zona en
un periodo de tiempo t.
La capacidad de los estantes asignados a la
zona de Alistamiento debe ser mayor o igual a la
cantidad de producto que sale de la bodega por
requerimiento del área de producción en un periodo de tiempo t.
Esta restricción implica que cada producto solo
va a tener asignado una ubicación a la vez.
Cada producto debe tener una posición asignada.
La función objetivo se compone de las siguientes partes:
1. Distancias recorridas por los productos i=1,
… , 12 que entran directamente al estante j donde
se encuentra la zona de Aprobado en un periodo
de tiempo t.
2. Distancias recorridas por los productos i=1,
… , 12 que entran directamente a Cuarentena.
3. Distancias recorridas por los productos i=1,
… , 12 que se mueven de la zona de Cuarentena a
la zona de Aprobado, Retenido o Rechazado.
4. Distancias recorridas por los productos i=1,
… , 12 que se mueven de la zona de Aprobado a la
zona de Alistamiento.
Cada zona, solo va a tener asignado un estante
a la vez.
Cada zona debe tener un estante asignado.
V. DESARROLLO DE LA hEURÍSTICA
Los pedidos que entran con mayor frecuencia
son aquellos que necesitan estar cerca de la entrada y aquellos que salen más frecuentemente
necesitan estar cerca de la salida. En una típica
bodega se maneja el siguiente flujo de producto
clasificados por estado del producto que se muestra en la Fig. 3:
140
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
FIG. 3. DIAGRAMA DE FLUJO DEL MATERIAL EN BODEGA
Q: En CUARENTENA; AP: APROBADO; AL: EN ALISTAMIENTO;
RT: RETENIDO; RE: RECHAZADO
FIG. 4. DIVISIÓN DE LA BODEGA EN ZONAS
– · –Zona de entrada
· · · · · · · Zona de salida
De acuerdo a este diagrama de la Fig. 3, se
detectan dos zonas de importancia: La zona de
entrada y la zona de salida. El arreglo dependerá entonces de la cantidad de flujo de producto que transita de una estantería a otra. Por
lo tanto, la heurística contempla la división de
la bodega en zonas, como lo hace el procedimiento cube-per-order, sin embargo, a diferencia de este último, se trabajará la importancia
relativa según el flujo de estibas por producto, divididos en la cantidad que sale versus la
cantidad que entra. Entonces, se hablará de
dos subgrupos: zonas de salida y zonas de entrada. En cada subgrupo están delimitados las
zonas 1, 2 y 3 que va de mayor cercanía a la
salida o la entrada, tal como se muestra en la
Fig. 4.
Procedimiento:
PASO 1: Levantar un plano de la bodega
y dividirlo en zonas, para clasificarlas en las
dos zonas mencionadas. Todas las estanterías deben estar asignadas en ambos tipos de
zonas.
PASO 2: Calcular las capacidades de las
zonas.
PASO 3: Calcular el número de estibas que
ingresan y salen de bodega por familia de
producto en un periodo de máximo mantenimiento de inventario, esto se puede hacer mediante la determinación de la demanda diaria
del producto, y multiplicarla por el número de
días que se maneja de inventario.
PASO 4: Hacer dos listados, uno para los
productos que salen y otro para los que entran, en el que se ordenan de mayor a menor
y para el listado de los productos que entran,
indicar con valor de 1 si el producto entra a
cuarentena y 0 si no entra.
PASO 5: Asignar los productos en las zonas
de entrada y salida, de acuerdo con el ordenamiento sugerido en el listado y respetando las
capacidades de cada zona. En la asignación
de zonas de salida, se debe primero colocar
la zona de alistamiento antes de asignar los
productos en las estanterías.
PASO 6: De acuerdo con las zonas se hace
un listado específico en estanterías, se asignan los productos a las estanterías, según la
coherencia del listado de entradas con el de
salidas.
PASO 7: Evaluar función objetivo inicial
PASO 8: Aleatoriamente seleccionar 2 zonas e intercambiarlos.
PASO 9: Evaluar función objetivo con las
modificaciones.
PASO 10: Si el valor es menor al anterior, ir
al paso 11, de lo contrario regresar al paso 8,
sin modificar la solución anterior.
PASO 11: Seleccionar solución mejorada e
ir al paso 8.
PASO 12: El criterio de salida estaría establecido por el porcentaje de cambio entre
un arreglo y otro. Se detiene el procedimiento,
una vez el porcentaje de cambio se haya mostrado poco significativo en arreglos seguidos.
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
VI. APLICACIÓN DEL MODELO
DESARROLLADO PARA EL CASO DE UNA
EMPRESA DEL SECTOR INDUSTRIAL
•
•
A. Datos de Entrada
En la bodega de material expuesta se manejan 5
estados de los productos, como se mostró en la Fig.
3. De manera general se debe tener cuenta:
• Porcentaje de producto que entra a Aprobado o
a Cuarentena.
• En caso de entrar a Cuarentena, número de días
que permanece este estado hasta ser ubicado
en Aprobado, Retenido o Rechazado.
• Restricciones de incompatibilidad entre un producto y otro, es decir, x producto específico debe
estar separado de y producto por políticas de la
empresa.
• Porcentaje de material Rechazado y Retenido según las estadísticas.
• Si se sabe que todos los productos deben pasar
por el área de Alistamiento para salir de la bodega, entonces, especificar cuánto demoran en
esta área.
Establecer si existen algunas restricciones de movilidad de las áreas. Esto puede ser porque algunos
estantes están adecuados especialmente para recibir cierto tipo de producto.
• Dado que para que un producto salga tiene que
pasar por el área de Alistamiento, se tomará esta
como el área de Salida.
• Como se mencionó anteriormente, para adaptar el modelo de CPO a la bodega, se tendrá en
cuenta que cada estiba es una orden debido a
su modelo de Picking, out-and-back.
• Finalmente, las unidades a manejar son en metros y en estibas.
• Aplicándolo a las condiciones de la bodega ejemplo se tienen los siguientes detalles para empezar:
Existen 12 familias de productos que maneja la
empresa, de los cuales no se tendrán en cuenta las
familias 3 y 8 debido a que no hacen parte del material manejado en dicha bodega.
• Los productos manejan un porcentaje de entradas directas a Cuarentena muy parecido al 70%
según información estadística. Y luego permanecerá en esta área en un periodo no superior a 3
días.
•
•
•
•
•
141
De los lotes recibidos no más del 3% resulta
Rechazado y no más del 2% Retenido.
Como ya se sabe todos los productos deben
pasar por el área de Alistamiento antes de salir de la bodega para responder a un pedido. Y
no demoran más de 2 días en esta área.
La zona de cuarentena debe estar ubicada en
las estanterías del centro, ya que de esta zona
se dirigen hacia el resto de los estantes las
estibas.
La estantería de alistamiento es la única fija
en toda la bodega. El área de alistamiento
debe estar ubicado en cierto estante debido a
que ésta estantería está especialmente adecuada para el recibo de las órdenes
El área de Rechazado y Retenido deben estar
juntas y en un área de la bodega donde puedan ser encerradas ya solo personal autorizado tiene acceso a esta área. Para entrar se
necesita orden de Calidad y para retirar algún
material se necesita orden de Jefe de Bodega
y de Calidad.
Existen dos áreas de Cuarentena, ya que ciertos productos tienen incompatibilidad.
Se procede entonces a desarrollar los pasos
con la información suministrada.
B. Aplicación del Modelo Desarrollado
PASO 1: En los siguientes diagramas (Fig. 5 y
6) se muestran las zonas de entrada y las zonas
de salida subdivididas.
FIG. 5. ZONA DE ENTRADA
FIG. 6. ZONA DE SALIDA
142
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
PASO 2: Según las zonas establecidas la capacidad asignada sería la siguiente que se muestra
en la Tabla I para las entradas y en la Tabla II para
las salidas:
TABLA I ZONA DE ENTRADA
ZONA
Capacidad Porcentaje (%)
Estantes
1
1000
35
A, B, C, H, N,
O, P
2
956
34
D, E, I, J, K, Q, R
F, G, M, S
3
888
31
Total
2844
100
TABLA II ZONA DE SALIDA
ZONA
Capacidad Porcentaje (%)
Estantes
1
1030
36
I, J, K, O, P, Q
2
834
29
C, D, H, L, N, R
3
980
34
A, B, E, F, G,
M, S
Total
2844
100
La zona 2 en este caso tiene menor capacidad
debido a la distribución de las estanterías en el
espacio de la bodega.
Para la zona de salida, se tiene como centro el
área de alistamiento debido a que pasa salir de
la bodega, todos los materiales deben pasar por
esta área.
PASO 3: A continuación se presenta la información detallada de cada línea y zona de la bodega
en la Tabla III.
Se tiene la demanda diaria (Dd.) de cada línea
(L) (unidad: Estibas).
• Tiempo máximo de inventario (T. máx.): tiempo
máximo que dura una estiba en la bodega. Esto
indica para cuanto tiempo tienen inventario programado para cierto producto (unidad: días).
• Capacidad teórica (Cap. Th.): según la demanda diaria y el tiempo máximo de inventario se
obtiene esta capacidad, que indica cuanto debería ser la capacidad asignada en la bodega
(unidad: Estibas).
• Capacidad asignada (Cap. A): según los estantes asignados en la bodega (unidad: Estibas).
• Delta (Δ): indica cuanto por encima o por debajo tiene la cantidad asignada con respecto
a la teórica. Un porcentaje negativo indica que
la capacidad asignada es inferior a la teórica y
un porcentaje positivo indica lo contrario.
•
%Q: porcentaje de producto que normalmente
va directamente hacia Cuarentena.
• %R: porcentaje de producto que normalmente
va directamente hacia el área de Rechazado
por problemas de calidad para ser devuelto al
proveedor.
• %Rt: porcentaje de producto que normalmente va directamente hacia el área de Retenido
esperando confirmación de Calidad para asignarlo como rechazado o aprobado, debido a
que existen anomalías y no hay pruebas suficientes de laboratorio para asignarlo directamente a alguna de las dos zonas mencionadas.
Con respecto a las áreas de la bodega, se identificaran de la siguiente forma:
• a: Alistamiento
• q: Cuarentena
• q2: zona de Cuarentena en la que sólo pueden colocarse los productos 4, 5 y 7
• r: Rechazado
• rt: Retenido
TABLA III Información de cada línea y zona de la bodega
L
Dd.
T
máx.
Cap.
Th.
Cap. A.
Δ
%Q
%R
% Rt
1
0,5
365
183
176
-4%
70%
5%
2%
2
0,8
180
137
128
-6%
70%
5%
2%
4
0,6
150
88
84
-5%
100%
5%
2%
5
3
60
185
204
10%
100%
5%
2%
6
5
90
458
400
-13%
70%
5%
2%
7
49
8
390
432
11%
100%
5%
2%
9
0,4
365
159
160
1%
70%
5%
2%
10
0,7
180
127
112
-12%
70%
5%
2%
11
1,0
180
181
200
10%
70%
5%
2%
12
3,1
90
282
324
15%
70%
5%
2%
a
69
1,5
103
90
-12%
-
-
-
q
48
5
238
108
-55%
-
-
-
q2
49
3
148
162
9%
-
-
-
r
1
180
123
140
14%
-
-
-
rt
1
60
41
40
-3%
-
-
-
Fuente: información empresa 2009
PASO 4: Se realiza el listado de productos en
orden de importancia según su demanda:
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
1) Entradas:
En este caso, como todas las líneas entran
en algún porcentaje a cuarentena directamente,
entonces la asignación de 1 y 0 no es necesaria
pues entonces todas las líneas serian 0. A continuación se muestra en la Tabla IV el total de estibas por línea:
TABLA IV Listado de productos en orden de importancia según
el número de entradas
ENTRADAS
Línea
Estibas totales/Línea
7
17777
2
6
1857
3
12
1145
4
5
1127
5
11
368
6
2
278
7
10
258
8
4
215
9
1
183
10
9
159
1
2) Salidas:
Para el caso de las salidas, se puede observar
en la Tabla V que la mayoría de las posiciones se
conservan. La posición 7 y 8 se encuentran invertidas, al igual que la posición 9 y 10.
Tabla V Listado de productos en orden de importancia según
el número de salidas
SALIDAS
143
que ésta nos indica la demanda real que tiene la
empresa según las ordenes de pedido que recibe.
PASO 5: Asignación de líneas de productos a
estanterías según zonas 1, 2 y 3.
1) Entradas (desde Cuarentena):
Se toma las entradas únicamente desde cuarentena ya que el número de entradas hacia esta
zona es más significativa que a las estanterías.
A partir de esto se puede tener un punto de referencia que puede ser modificado, una vez se
tengan las líneas ubicadas en los estantes.
Al realizar el acomodamiento para las líneas que
van desde Cuarentena a los estantes quedaría de la
siguiente manera como se muestra en la Tabla VI:
TABLA VI Ubicación de las líneas en los estantes desde Cuarentena
Estante
Línea
A
12
B
12
C
q2
D
6
E
10
F
1
H
2, 10, 1
I
2
J
a, 6
K
6, 12
N
1, 11
O
11
P
6
Línea
Estibas totales/Línea
Q
q
1
7
10429
R
9
2
6
1560
S
3, 9
3
12
801
4
5
638
5
11
306
Para el caso de entradas desde la Cuarentena
q2 se tiene la siguiente información en la Tabla VII
como resultado:
TABLA VII Ubicación de las líneas en los estantes desde Cuarentena q2
6
10
162
7
2
157
8
1
9
4
10
9
Estante
Línea
154
A
7
127
B
7
112
C
q2
D
7
E
4
N
5
O
5
P
7
En este caso se tomará el orden de entrada
como el orden general de los productos ya que
esta información es de mayor confiabilidad, según el manejo de la información que se tiene en
la empresa. Sin embargo, normalmente, sería
preferible utilizar la información de Salida, ya
144
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
2) Salidas (desde Alistamiento):
Para el caso de las salidas, se toma de manera
general los movimientos desde los estantes hasta
la zona de alistamiento. Las líneas quedarían ubicadas de la siguiente forma como se muestra en
la Tabla VIII:
TABLA VIII Ubicación de las líneas en los estantes desde la salida
Estante
Línea
A
8, 9, d
B
1
C
q2
D
5
E
1, 9
F
9
G
2, 10, r, rt
H
6, 12
I
6
J
a, 7
K
7
L
12
M
11, 12
N
1, 2, 4, 11, 12, 6
O
6
P
7
Q
q
R
5
S
1, 4, 11
Líneas
Entradas q2
Salidas
A
12
7
8, 9, d
B
12
7
1
C
q2
q2
q2
D
6
7
5
E
10
4
1, 9
F
1
9, r
G
2, r, rt
H
1, 2, 10
6, 12
I
2
6
J
a, 6
a
7
12
M
11, 12
N
1, 11
5
1, 2, 4, 6, 11, 12
O
11
7
6
P
6
Q
Q
7
R
9
5
S
3, 9
1, 4, 11
q
q
TABLA x Ubicación de las líneas en los estantes
TABLA Ix Comparación entre análisis de zonas
Entradas q
6, 12
L
Al cruzar la información obtenida, y después de
evaluar distancias en las posiciones, se tiene el
siguiente resultado final mostrado en la Tabla x:
PASO 6: Se realiza una comparación entre las
ubicaciones resultantes de cada uno de los análisis, entradas y salidas. Comparándolos se obtiene
la Tabla Ix:
Estante
K
a, 7
Estante
Línea
A
8, 9, d
B
1
C
q2
D
5
E
1, 9
F
9, r
G
2, 10, r, rt
H
6, 12
I
6
J
a, 7
K
7
L
12
M
11, 12
N
1, 2, 4, 6, 11, 12
O
6
P
7
Q
q
R
5
S
1, 4, 11
A través del uso de la heurística establecida
se obtuvieron los siguientes resultados:
Distancia total en el año 2009:
Total distancia 2009 (km): 2.971
Y la distancia total obtenida utilizando los
pasos anteriormente descritos fue:
Total distancia (km): 1.738
Es decir, 41% menos de distancia recorrida
que la obtenida en el 2009 con las ubicaciones
actuales.
Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez
La aplicación de este método resultó de gran
ayuda ya que las diferencias obtenidas en distancias recorridas es considerablemente alta, de
esta manera se utilizan los recursos para el almacenamiento de una manera más eficiente y se reducen costos.
VII. CONCLUSIONES
En el proceso de Picking, los objetivos que se
persiguen son varios: aumentar productividad,
aumentar asertividad y disminuir los tiempos de
ciclo. La productividad se expresa en número de
producto recogido por unidad de tiempo. La asertividad se refiere al porcentaje de embarques que
le llegan correctamente al cliente y esto generalmente se logra por medio de un sistema riguroso
de control. El tiempo de ciclo se refiere al tiempo
desde que la orden fue ingresada al sistema hasta que esta haya sido despachada.
Por otro lado, para mejorar la asignación de espacios en una bodega, los expertos recomiendan
utilizar los espacios de mayor acceso para aquellos
productos que tienen alta rotación. Incluso, se habla de tener esos productos cerca de las bandas
trasportadoras o de rápido acceso en las hileras
con el fin de minimizar la operación de Picking.
También se recomienda que los productos que se
distribuyen juntos se almacenen juntos y aquellos
productos muy grandes o pesados colocarlos en
espacios donde no se corra el riesgo de accidente
para los operadores de Picking y almacenamiento.
Para el caso estudiado y mediante una generalización para las empresas, se considera que el
sistema óptimo de posicionamiento de las zonas
en estanterías tiene que ver con la optimización
tanto del espacio como la del picking. Por lo tanto
una mezcla de las distancias con la popularidad del
producto se convierte en una optimización de recorridos en la bodega. Conocidas las restricciones
existentes y subdividiéndolas en zonas de mayor a
menor cercanía de las salidas y de las entradas,
fue posible obtener un arreglo coherente y adecuado para este tipo de bodegas. Los resultados generados demuestran el potencial de esta heurística
que pretende para un futuro ser una de gran alcance para muchas otras aplicaciones, con resultados
que para la empresa se traducen en ganancia.
El objetivo principal de esta heurística es lograr
una mayor organización de los productos al inte-
145
rior de una bodega. A partir de esto y dependiendo
de la eficiencia de los resultados obtenidos, esta
mejora tendrá como consecuencia una mejor trazabilidad de los productos, una disminución de
los tiempos y movimientos, mayor facilidad al momento de la ubicación, es decir, cambio en todos
los procesos vitales en todo el sistema de almacenamiento.
Reconocimientos
Este artículo es el resultado de un proyecto
patrocinado por el Instituto Colombiano para el
Desarrollo en Ciencia y Tecnología “Francisco José
de Caldas” (COLCIENCIAS) con el Centro de Investigación en Modelación empresarial del CaribeFCIMEC, No. 25947.
REFERENCIAS
[1]
COLLINS, K. (2008). Best Practices for Picking in
Warehouses and Distribution Centers. Recuperado el 22 de Febrero de 2010, de: http://www.
smartturn.com/forums/blogs/kevin-collins/11best-practices-picking-warehouses-distributioncenters.html
[2]
DE KOSTER, R., LE-DUC, T., & ROODBERGEN, K.
J. (2007). Design and Control of Warehouse Picking: A Literature Review. European Journal of
Operational Research , 182, 481–501.
[3]
BARTHOLDI III, J. J., & SUBRAMANIAN, S. (2007).
Pick-path optimization. Recuperado el 25 de
Febrero de 2010, de: http://www2.isye.gatech.
edu/~jjb/wh/apps/pickpath/pickpath.html
[4]
ROODBERGEN, K. J., SHARP, G. P., & F.A., I.
(2008). Designing the layout structure of manual order picking areas in warehouses. Recuperado el 25 de Febrero de 2010, de: http://
www.entrepreneur.com/tradejournals/article/
print/187011547.html
[5]
SHUHUA, M., & YANZHU, H. (2009). Research on
the Order Picking Optimization Problem of the
Automated Warehouse. 2009 Chinese Control
and Decision Conference (págs. 990-994). IEEE.
[6]
TANG, H., & LI, M. (2009). An Improved Ant Colony Algorithm Algorithm for Order Picking Optimization Problem in Automated Warehouse. En
Fuzzy Information and Engineering Volume 2
(Vol. 62, págs. 1537-1547). SPRINGER-VERLAG.
146
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146
[7]
KALLINA, C., & LYNN, J. (1976). Application of the
Cube-per-order index rule for stock location in a
distribution warehouse. Interfaces , 7 (1), 37-46.
[8]
PETERSEN, C. (1997). An evaluation of order
picking routing policies. International Journal of
Operations & Production Management , 17 (11),
1098-1111.
[9]
HALL, R. (1993). Distance approximations for
routing manual pickers in a warehouse. IEEE
Transactions , 25 (4), 76-87.
[10] ROODBERGEN, K., & VIS, I. (2006). A model for
warehouse layout. IEEE Transactions , 38 (10),
799-811.
[11] CARON, F., MARCHET, G., & PEREGO, A. (2000).
Optimal layout in low-level picker-to-part systems.
International Journal of Production Research ,
38 (1), 101 – 117.
[12] LE-DUC, T., & DE KOSTER, R. (2005). Layout Optimization for class-based storage strategy warehouses. En R. DE KOSTER, & W. DELFMANN, Supply chain management: European perspectives
(págs. 198-222). Copenhagen: Copenhagen Business School Press.
Sistema de Envasado de Líquidos Modelado con
Redes de Petri y Simulado con LabVIEW y DSC
Miguel Ángel Trigos Martínez
PhD (c) en Automática y Robótica
Centro de Automática y Robótica Universidad Politécnica de Madrid - España Docente Tiempo Completo,
Investigador Grupo de Aplicaciones Mecatrónicas,
Universidad Santo Tomás, Bucaramanga, Colombia
[email protected]
Jair Leandro Landínez Salazar
Ingeniero Mecatrónico
Universidad Santo Tomás Bucaramanga, Colombia
[email protected]
Resumen— En las últimas décadas los grupos de investigación, han utilizado las herramientas de simulación
para validar sus desarrollos, antes de hacer pruebas
reales, los resultados son bastante aceptables y dan o
no autorización para continuar en un proyecto. herramientas de software para simulación existen muchas,
pero se busca utilizar LabVIEW y DSC debido a que su
ambiente de programación es amigable y muy utilizado
en la automática. El trabajo mostrado a continuación,
consiste en el desarrollo de una aplicación enfocada hacia el Diagnóstico y Detección de Fallos, mediante la implementación de un algoritmo sistemático, construido
con la herramienta de modelado conocida como “Redes
de Petri (RdP)”, donde el objetivo principal es realizar
un aporte en el ámbito de la seguridad industrial, para
evitar pérdidas económicas, evaluadas en daños a los
equipos y, lo más importante, preservar la integridad
física de los operarios humanos. El contenido muestra
e ilustra la simulación de un Proceso de Envasado de
Líquidos y la implementación de su Diagnosticador mediante las RdP, con la finalidad de evaluar el comportamiento normal y de fallo ofrecido por el proceso. Se diseña una plataforma e interface de comunicación hombre
máquina, en la cual se lleva a cabo la monitorización,
control y supervisión On-line del sistema planteado.
fault behavior offered by the process. Designing a communication platform and man machine interface, which
is carried out monitoring, control and supervising system of way on-line.
Palabras clave— Redes de Petri, Sistema híbrido, Simulación, Diagnóstico de Fallos, Diagnosticador, LabVIEW,
Máquinas de Estado, Diagramas de Bloques.
Abstract— In recent decades, research groups, have
been using simulation tools to validate their development, before actual testing, the results are quite acceptable and give permission or not to continue a project.
Simulation software tools there are many, but we are
using LabVIEW and DSC (National Instruments) because
its programming environment is friendly and widely used
in the automatic. The work shown below, is the development of an application focused on the fault diagnosis,
by implementing a systematic algorithm, builted using
the modeling tool known as “Petri Nets (MOP)”, which
the main target is to make a contribution in the field of
industrial safety, avoiding economic losses, estimated
in damage to equipment and most important to preserve
the physical integrity of human operators. The content
illustrates the simulation in LabVIEW of a liquid packaging process and the implementation of their diagnoser
using Petri Nets, in order to evaluate the normal and
Keywords— Petri Nets,hybrid System, Simulation, Fault
diagnosis, Diagnoser,LabVIEW, State Machine, Bloque
Diagrams
I. INTRODUCCIÓN
La creación y desarrollo de herramientas de
software y plataformas de simulación, han mostrado uno de los grandes avances de la era tecnológica, en donde los conocimientos, planteamientos teóricos y modelos matemáticos, antes de ser
llevados al campo real, pueden ser simulados y
sometidos a diferentes pruebas para comprobar
y definir su alcance, parámetros de fiabilidad, estabilidad y respuesta ante diferentes elementos,
que pueden percibirse en un ambiente físico. De
esta forma, se crea una predicción de cómo un
proceso puede comportarse en condiciones normales o de exigencia, antes de implementarse.
Las fábricas y los grupos de investigación, realizan grandes esfuerzos en hacer que los procesos
sean, cada vez, más seguros y confiables, donde
la seguridad esté enmarcada entre la parte económica y la seguridad de los operarios. En lo económico es importante reducir los costos por paradas
de mantenimiento y las pérdidas que acarrean el
incumplimiento en los plazos de entrega, y la seguridad de los operarios.
La simulación aquí expuesta, sirve para validar
el algoritmo de diagnóstico de fallos de sistemas
híbridos, publicado en [4] [5]. Como herramienta
de modelado en la investigación se usan las Redes de Petri (RdP), de las cuales en la actualidad,
no se encuentran desarrollos implementados en
LabVIEW.
Recibido: 07/08/2011/ Aceptado: 12/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155
148
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155
Como herramienta se emplea el software
LabVIEW y Datalogging and Supervisory Control
(DSC) de National Instruments, en LabVIEW se
emula el modelo de una planta de envasado de
líquidos. El DSC es utilizado como herramienta
de supervisión On-line. Todo es representado
en el ambiente gráfico de LabVIEW, el modelo de RdP observa la evolución del proceso en
condiciones de operación normal y también, la
respuesta del diagnosticador de fallos, ante la
presencia de transiciones de fallo, que provoca
la generación de alarmas. La aplicación cumple
las funciones de un sistema SCADA, es una interfaz hombre máquina, la cual permite al operario interactuar y mantenerse informado de los
sucesos ocurridos en el proceso.
En la parte inicial del artículo, sección 2, se
dan a conocer los conceptos fundamentales de
las RdP Híbridas, el algoritmo de diagnóstico
de fallos y LabVIEW y DSC, los cuales son necesarias en el entendimiento del algoritmo de
diagnóstico de fallos. En la sección 3, se describe de forma general el proceso de envasado
de líquidos y en la sección 4, se presenta la
herramienta de simulación y supervisión, LabVIEW y DSC respectivamente, observándose el
modelo de RdP del proceso y el diagnosticador.
En la sección 5, se enuncia la conclusión del
trabajo realizado, se exalta su gran aporte en
la utilización del LabVIEW como una excelente
alternativa de representación de las Redes de
Petri.
II. CONCEPTOS BÁSICOS
A. Redes de Petri.
Los conceptos de Redes de Petri Híbridas
(RdPH) presentados aquí, están basado en los
conceptos definidos [1]. Para profundizar los
conceptos de RdP consultar [1] y [2] y [3].
B. Diagnóstico de Fallos de Sistemas Híbridos.
En el trabajo previo de [5], se inicia el diagnóstico de fallos de SED’s, posteriormente, se
usa para el diagnóstico de fallos Intermitentes
y se pasa a su implementación en Sistemas
Híbridos. A continuación se presenta, el resumen del proceso de construcción del modelo y
diagnosticador, el cual puede ser conocido en
detalle en [4].
C. Algoritmo de Construcción del Modelo y
Diagnosticador
El sistema general está compuesto de varios
subsistemas, distribuidos según la naturaleza de
las señales que lo integran, sean discretas, continuas o híbridas.
a- Clasificación del sistema general H en subsistemas. H=H1 υ H2 υ... υHn , n es el número de
subsistemas que componen el sistema.
b- Realizar el modelo de RdP de cada uno de
los elementos que componen los diferentes subsistemas.Qi= (Pi,Ti,I,O,M0).
c- Realizar la operación de integración;
Representar en un modelo de
RdP el comportamiento del SED’s,
d- Llevar a cabo el refinamiento del modelo de
cada uno de los subsistemas. Qi= (Pi,Ti,I,O,). El
refinamiento se realiza basado en la construcción
de la tabla de integración de M sensores del sistema,
.
d- Construcción del diagnosticador. Es una
RdP Diagnosticadora,Gd=(Pd ,Td ,I,O,p0 ,t0 ,tend )Para
la construcción del diagnosticador se definen las
siguientes funciones:
Función de Asignación de Nivel LA: P0 x ∆ x T *
→∆,P∈P0, l∈∆, y s∈ℓ (Q,p). LA Asigna el nivel l sobre s comenzando sobre p y siguiendo la dinámica
de Q siguiendo a (1):
(1)
Función de Expansión de Fallo. EF:RNxFi→RF ,
donde RN es rama de comportamiento normal, y para cada fallo Fi, EF asigna una
rama de fallo respectiva. El diagnosticador
Gbtendrá tantas ramas como fallos más
uno, ver (2).
(2)
representa el número total de ramas del
diagnosticador.
y
son las ramas de comportamiento normal y de fallo respectivamente.
Diagnosticabilidad. Una RdP es diagnosticable
en relación de la distribución de fallos si se cumple
Equ.3:
Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez
Donde :
(3)
σ es la secuencia de transiciones observables,
por lo tanto la RdP que representa el modelo del
sistema, es diagnosticable si en un numero finito de transiciones observables ésta alcanza un
marcado de fallo M(pi ). Solo el M(pfi ) o con otra
marca de fallo M(pfk ) se puede identificar un fallo
de mayor orden o un fallo critico. Para profundizar
en el algoritmo de diagnóstico de fallos, se puede
consultar [5].
LabVIEW y DSC
LabVIEW es un lenguaje de programación gráfico “lenguaje G”, tiene diversas aplicaciones en la
academia y la industria, sin conocer previamente el
uso de LabVIEW con las RdP. Si se busca profundizar los conceptos en LabVIEW, consultar [9].
Datalogging and Supervisory Control (DSC):
Ofrece herramientas y características para el desarrollo de sistemas distribuidos de monitoreo y
control. Este módulo permite la construcción de
aplicaciones de registro de datos y creación de
alarmas. Facilita la creación de las interfaces hombre-máquina y acciones supervisoras o de control,
sistemas SCADA y visión de tendencias en tiempo
real e históricos de datos además de opciones de
seguridad para las aplicaciones. Para mejorar los
conceptos en DSC ver [10].
III. SIMULACIÓN DEL PROCESO DE
ENVASADO DE LÍQUIDOS EN LABVIEW
A continuación se describe el Proceso de Envasado de Líquidos y la dinámica que define su comportamiento. Posteriormente se detalla la técnica
de programación utilizada para el desarrollo de
la herramienta de simulación y el diagnosticador
con RdP, construidos en LabVIEW.
Basado en el enfoque de [4], el sistema híbrido
es separado en las dinámica continua y discreta,
con esto se puede interpretar mejor el funcionamiento del proceso.
Dinámica Continua
Está compuesta de tres variables fundamentales del sistema global, las cuales están divididas en
subsistemas: El Subsistema de Control de temperatura, Subsistema de Control de pH y Subsistema
149
de Control de Nivel. La parte continua del proceso
cuenta con un tanque, alimentado por dos líquidos
(A) y (B) respectivamente, el llenado del tanque corresponde a establecer un nivel de mezcla indicado y conseguir las características de pH deseables,
dicha mezcla es calentada por un sistema de inyección de vapor, hasta lograr las condiciones de
temperatura apropiadas del liquido a envasar.
Para las acciones de control, se cuenta con dos
válvulas alimentadoras de líquido y una válvula de
inyección de vapor. Para medir las variables se utiliza un sensor de temperatura, un sensor de nivel y un
sensor de pH. Cada variable es controlada de manera independiente por su respectivo controlador.
Dinámica Discreta
Consta de los siguientes componentes: Banda
transportadora, la cual es movida por un motor M,
válvula de llenado de líquido Vll, sensor de llagada
de botella para envasado BP, Sensor de llenado de
botellas LL y controlador C. En el funcionamiento del
sistema, asumimos que el líquido del tanque está en
óptimas condiciones y que siempre existen botellas
en la parte inicial de la banda transportadora.
En el inicio del sistema de envasado el motor de
la banda hace que las botellas se desplacen hasta
el lugar de envasado, el sensor BP detecta la botella
y por consiguiente el motor de la banda se detiene.
La válvula Vll de llenado se abre, cuando la botella
está llena el sensor de llenado LL informa este suceso y se cierra la válvula de llenado Vll, una vez
esta secuencia de funcionamiento normal se haya
cumplido, se puede retirar la botella para que sea
almacenada, como se puede observar se trata de
un proceso secuencial y repetitivo que actúa indefinidamente. En la Fig. 1 se ilustra un esquema general que comprende el sistema de envasado.
FIG. 1. SISTEMA DE ENVASADO DE LÍQUIDOS
Fuente: Autor del proyecto
150
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155
La construcción de la plataforma, se aborda de tal forma que se pueda observar a manera general cuáles fueron los pasos y metodología propuesta para la implementación
de las RdP en el entorno LabVIEW. La Fig. 2,
ilustra el diagrama secuencial que sigue la
estructura de programación concentrándose
en la interfaz que contiene el Diagnosticador.
FIG. 2. DIAGRAMA SECUENCIAL Y ESTRUCTURA DE PROGRAMACIÓN
Fuente: Autor del proyecto
IV. SIMULACIÓN LABVIEW
La plataforma cuenta con un panel principal,
que permite al usuario tener acceso a la aplicación. La simulación se lleva a cabo de manera
cíclica, en donde el proceso de envasado transcurre de manera automática y el operario sólo
puede intervenir cuando desee simular el conjunto de fallos, para evaluar el desempeño del
Diagnosticador; la plataforma “Liquid Packaging Process Sim.VI” es la estructura principal,
de la cual se desprenden las demás ventanas
(interfaces) de simulación, ver Fig. 3.
Previo a la metodología implementada, se
muestra un panorama global de la relación entre los VI’s elaborados, si se observa el árbol de
jerarquía se aprecia la comunicación de cada
subVI y el flujo de datos, entre las diferentes interfaces que permite su interacción, ver Fig. 4.
Con el objetivo de dar un enfoque hacia
la implementación de la RdP en LabVIEW, se
considerará sólo la ventana de programación
(diagrama de bloques). Esta interfaz de usuario
recibe el nombre de Auto_DPN.VI, en ella se observa y analiza el comportamiento normal y de
fallo del sistema, mediante el monitoreo de las
señales de campo (continuas/discretas), que
representan a cada elemento que interviene en
el proceso. El diagnosticador realiza la supervisión on-line de los estados de cada uno de los
subsistemas de la planta.
Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez
FIG. 3. PLATAFORMA DE SIMULACIÓN
151
y bajos), para monitorear las lecturas de los sensores, luego se crean las señales de control sobre
los actuadores del sistema, que definen las condiciones de operación.
En una secuencia “Stacked Sequence”
se
realiza en su estado “0” la creación e inicialización
de las variables, que el sistema controla y manipula en la simulación, en el estado “1”, el cual con-
Fuente: Autor del proyecto
FIG. 4. ÁRBOL DE JERARQUÍA
Fuente: Autor del proyecto
Descripción General. Para la construcción del
panel principal Auto_DPN.VI, se debe emular las
señales de campo que representan el comportamiento del proceso, para ello se emplea una estructura de programación enfocada hacia la creación, registro y generación de eventos, mediante
una máquina de estados principal, dos secundarias para el control de eventos y la manipulación
de alarmas del sistema. Para esta tarea se emplean los “User Events”
, esto permite ejecutar
eventos en paralelo, pero da prioridad única a un
evento en particular. Para controlar la comunicación y flujo de datos en las máquinas de estado,
se usa un semáforo dentro del bucle principal.
,
Este semáforo recibe el nombre de “Busy”
representando un retardo en milisegundos en el
evento anterior. Una vez el evento principal se ejecuta el siguiente evento es disparado, tomando el
lugar de evento principal. Este comportamiento
emula el funcionamiento de una RdP, que realiza
la activación y/o disparo de eventos, que ocurre
cuando ciertas condiciones son ciertas. Los pasos
a seguir son:
Creación e Inicialización de Variables y Máquinas de Estado
En primer lugar se platean las señales de campo de cada subsistema (representado como altos
tiene una estructura “While”
, se desarrolla la
máquina de estados principal y secuencial cuya
programación es basada en condicionales “Case
, comparadores, compuertas lógiStructures”
cas y la intervención del semáforo “Busy”. Aquí se
generan y disparan los eventos. Adicionalmente a
la máquina de estados principal, se implementan
dos máquinas de estados adicionales para registro y librería de eventos. Una ejecuta acciones de
control y la otra es dedicada a identificar las señales de alarma, presentes en el sistema de comunicación con el DSC. La máquina de estados
principal y la auxiliar interactúan continuamente e
intercambian información, según el flujo de datos
demarcado por el semáforo, que provoca la evolución del algoritmo.
Eventos del Sistema Normal y de Fallo
En la programación se definen dos subconjuntos para la creación de eventos de usuario
, destinados a condicio“Create User Event”
nes normales y a condiciones de simulación de
fallos, para validar el algoritmo de diagnóstico en
los subsistemas continuos y discreto. Para que un
evento se cumpla, debe ser creado y registrado en
un módulo dinámico “Register for Events”
,y
adicionalmente cumplir con las condicionales establecidos para su generación en “Generate User
Events”
. Los eventos son ejecutados en la segunda máquina de estados, elaborada mediante
, donde se determina la
una “Event Structure”
acción que se debe tomar en la simulación.
En la Fig. 5, se observa la distribución de la
creación de eventos de usuario, se tiene un conjunto de diez eventos para la construcción de la simulación del proceso con su comportamiento normal, atendiendo a cada uno de los subsistemas
donde se controla el incremento y decremento de
los valores de Temperatura, Ph, Nivel y los efectos para la acción de la banda transportadora, la
152
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155
detección de botellas y el llenado de las mismas;
este grupo de eventos fue denominado como “Liquid Packaging Process Simulation Model” (Índice
1 de la Fig. 5).
Para la simulación de uno de los fallos en el
mismo, se construyen dos grupos de eventos,
cada uno representa un tipo de dinámica en particular. Se tiene un conjunto de cuatro eventos denominado “Fault Simulation for Discrete System”
(Índice 2 de la Fig. 5), quien determina los eventos
de fallo para el subsistema discreto y un conjunto
para la ejecución de fallos para los subsistemas
continuos, representador por: “Fault Simulation
for the Tank Level Sub-System”, “Fault Simulation
for Ph Sub-System” y “Fault Simulation for Temperature Sub-System” con seis eventos de fallo.
(Índice 3 de la Fig. 5).
FIG. 5. CREACIÓN Y REGISTRO DE EVENTOS
Fuente: Autor del proyecto
C. Diagnosticador y Comunicación con el Módulo DSC
En el diagnóstico On-line, el Auto_DPN.VI interactúa con diferentes SubVI’s creados en DSC
de LabVIEW, estos representan de manera gráfica el modelo de la RdPD de cada subsistema
que se desea analizar; los subVI’s creados son:
Subsistemas continuos PN_TempSystem.VI
,
PN_PhSystem.VI
, PN_LevelSystem.VI
DPN_Conveyor.VI
y para la dinámica discreta
, y
. Los SubVI’s efectúan comuDPN_Lovalve.VI
nicación constante con las máquinas de estado,
para realizar la tarea de: actualizar los valores en
la red, identificar las transiciones disparadas, lugares actuales de la simulación de la RdP Diagnosticadora y activar en la red las ramas de fallo
del diagnosticador, en el caso donde el operario
efectué la inducción de un fallo al sistema, por
medio del disparo de las transiciones de fallo y
el alcance de lugares de fallo. Toda esta labor interactiva muestra instantáneamente las inciden-
Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez
cias ocurridas en el proceso mediante alarmas
que indican la detección y aislamiento del fallo.
En la aplicación se observa el funcionamiento y
evolución del diagnosticador, interactuando con
los subsistemas que lo componen, y al mismo
tiempo es posible lanzar de manera individual
cada red, para una visualización específica de
cada sistema.
Los siguientes fallos son evaluados en el diagnosticador: En el subsistema discreto: La rama de
fallo de atascamiento en abierto o atascamiento
en cerrado de la válvula de salida de liquido, {F1
- [AA],[AC]}, la rama de fallo de encendido o apagado del motor de la banda transportadora, {F2 [MOn],[MOff]}. En el subsistema continuo: Rama
de fallo de encendido y apagado de la caldera
para el control de Temperatura, {F3 - [FC-Off],[FCOn]}, rama de fallo de atascamiento en abierto o
en cerrado de la válvula de suministro de líquido
(B) para el control de Ph {F4 - [AA],[AC]}, y rama
de fallo de atascamiento en abierto o cerrado de
la válvula del paso del líquido (A) y el control de
nivel en el tanque F5 - [AA],[AC]}
D. Diagnosticador y Comunicación con el
Módulo DSC
Para dar una mejor ilustración de la metodología, se presenta la creación de un evento del
conjunto de “User Events”. El evento “Min Level
from Tank” es el evento encargado de realizar el
llenado del tanque principal con el líquido (A), a
través de abrir la válvula de nivel, hasta alcanzar el set-point (90Lts).
La acción es programada mediante un nodo
de sumatoria del valor de nivel, el cual se actualiza en cada instante y está sometido a ciertos
condicionales, que mediante una combinación
de compuertas lógicas, cambia de estado “true”
a “false” de la estructura, que genera un evento, ver Fig. 6. Cuando el evento es disparado y
el semáforo “Busy” controla el tráfico en ejecución, el flujo de programación pasa a la segunda máquina de estados, donde la acción del
evento es ejecutada y desarrolla “Event Structure”, así mismo, recurre al bloque de registro
y verifica qué evento del registro es ejecutado,
de esta forma se ejecuta y da lugar a la secuencia programada que corresponde al llenado del
tanque. (Comportamiento normal del subsistema de nivel).
153
FIG. 6. MIN LEVEL FROM TANK (USER EVENT)
Fuente: Autor del proyecto
Al continuar con el ejemplo, se presenta la creación y ejecución de uno de los eventos de fallo, que
se evalúan en el subsistema de nivel “Fault [AC],
Valve A/ Filling Tank”], el fallo representa el atascamiento en cerrado de la válvula del líquido (A), que
controla el nivel tanque. Los rangos de nivel máximo
y mínimo del tanque son: 90L y 20L. El evento de
fallo de atascamiento en cerrado, ocurre cuando el
nivel de líquido se encuentra por debajo de 20L y
la acción de control para la activación de la válvula no se ejecuta; el evento es también relacionado
con el llenado de las botellas, esto se debe a que
el nivel del tanque decrece hasta su valor mínimo,
a medida que el tanque se vacía con el llenar de
las botellas. La acción es realizada en el nodo de
decremento que disminuye el valor del nivel por debajo del valor mínimo permisible y genera el fallo.
Cuando el fallo ocurre, la secuencia registrada en
la máquina de estados auxiliar, dispara la transición
de fallo del diagnosticador, ver Fig. 7.
FIG. 7. FAULT [AC], VALVE A/ FILLING TANK
Fuente: Autor del proyecto
154
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155
Cuando el evento de fallo alcanza el estado
“enable”, la interfaz comunica con el correspondiente VI creado en el módulo DSC, la red
evoluciona y entra en la tercera máquina de
control de alarmas, ver Fig. 8, que identifica en
un “Clúster” el síntoma producido y después de
una conversión en “Array” envía un mensaje de
advertencia en pantalla. El cuadro de alarmas
para eventos de fallo en el Subsistema de nivel
para la rama F5, se presenta junto con la RdPD
del subsistema, ver Fig. 9.
FIG. 8. MÁQUINA DE ALARMAS
Fuente: Autor del proyecto
FIG. 9. RDPD SUBSISTEMA DE NIVEL (ESTADO DE FALLO)
Fuente: Autor del proyecto
V. CONCLUSIÓN
En este trabajo se ha abordado el tema de simulación de Redes de Petri mediante LabVIEW. Se
presenta el proceso de simulación de un modelo y
diagnosticador, aplicado a un proceso de envasado
de líquidos. Se puede visualizar en el ambiente gráfico, el comportamiento normal y de fallo del proceso. Esta aplicación en LabVIEW es un resultado
Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez
innovador, debido a que se puede construir las Redes de Petri, mediante una estructura programática
que emula las señales de campo del proceso y la
utilización de disparo de eventos en LabVIEW, Este
proceso es metodológico y paso a paso, se indica
como interactuar simulación con una herramienta
tipo SCADA, que da lugar a un nuevo uso de las plataformas en automatización con LabVIEW. El buen
abordaje de la herramienta en LabVIEW, sirvió para
desarrollar la aplicación mostrada en [6].
REFERENCIAS
[1]
R. David and H. Alla, “Discrete, Continuous and
Hybrid Petri Nets” . Springer, Verlaj Berlin Hidelberg.. 2005.
[2]
T. Murata, J. Yim, H. Yin and O. Wolfson, “PetriNet Model and Minimum Cycle Time for Updating
Moving Objects Database,” International Journal of Computer Systems Science & Engineering,
Vol.21, No.3, pp.211 - 217, May 2006
[3]
Silva M., “Unforced continuous Petri Nets and
positive systems” IEEE Control Syst Soc”ANIPLA,
Springer-Verlag Berlin - 2003.
[4]
Trigos M., Barrientos, A., Del Cerro, J. and López,
H., “Modelling and Fault Diagnosis by means
of Petri Nets. Unmanned Aerial Vehicle Application”, Book Petri Nets, Theory and Applications,
pp 353-378 Editorial IN-TECH Austria. Disponible
en
“http://www.sciyo.com/books/show/title/
petri-nets-applications”, 2009.
[5]
Trigos M., García, E., “Faults Diagnosis and Modeling of the Liquid Packaging Process. A Research Based on Petri Nets” Proceeding from
the 10th International Conference of Robotics &
Automation IEEE, Hanoi – Vietnam, 2008.
[6]
Trigos, M., García, E., Modelado y Diagnóstico de
Fallos por Medio de Redes de Petri de un Sistema de Envasado de Líquidos, Congreso Latinoamericano de Control Automático 2008 – Mérida Venezuela. 2008
[7]
Trigos, M., Garcia, E., “Petri Nets Used for Intermittent Faults Diagnosis and Modeling of Discrete Event Systems”, SAFEPROCESS 09, Barcelona
- Spain
[8]
Trigos, M., Méndez, D., García, J., Barrientos, A.,
Del Cerro, J., “Diseño e Implementación de la
Instrumentación para la Lectura de Variables Críticas en Aeronaves no Tripuladas (UAS)”, Congre-
155
so Latinoamericano de Control Automático ACCA
2010, Santiago – Chile.
[9]
National Instruments, ‘User manual LabVIEW 9.0’, Austin- Texas. USA, Disponible en:
http://digital.ni.com/
worldwide/latam.nsf/
main?readform.
[10] National Instruments, ‘User manual DSC 9.0’,
Austin- Texas. USA, Disponible en: http://digital.
ni.com/ worldwide/latam.nsf/main?readform
Modelo de optimización en la gestión de
inventarios mediante algoritmos genéticos
César hernando Valencia Niño
D.Sc.(c) da Engenharia Elétrica
Pontifícia Universidade Católica do Rio de Janeiro
Investigador Grupo GRAM
Universidad Santo Tomás USTA
Bucaramanga, Colombia
[email protected]
Silvia Nathalia Cáceres Quijano
M.Sc.(c) da Engenharia de Produção
Universidade Federal do Rio de Janeiro
Pesquisadora Programa de Engenharia de Produção Instituto
Alberto Luiz Coimbra - COPPE
Rio de Janeiro, Brasil
[email protected]
Resumen— Este artículo presenta el diseño de un Algoritmo Genético (AG) que permita optimizar la gestión
de inventarios en las cadenas de suministros y minimizar el Efecto Bullwhip, para esto, fueron considerados
los costos de depósito, distribución y fabricación del
producto además del costo individual de los elementos
que serán pedidos. La cadena utilizada en la simulación
contiene 5 niveles:cliente, minorista, depósito, distribuidor y fábrica, así las cantidades para cada par fueron
consideradas para ser evaluadas por el AG en el mejor
cromosoma. Adicionalmente, fue utilizado el modelo de
coeficientes BMN para generar la función de evaluación
de los cromosomas escogidos por el AG y así satisfacer
las restricciones consideradas en el modelo.
tarios o desabastecimiento (BullwhipEffect).De
esta forma, diferentes organizaciones compiten
hoy para mejorar tiempos, administrar eficientemente cantidades y desarrollar soluciones mediantediversos modelos con resultados que reducen entre otros el BullwhipEffect; en este artículo
el modelo seleccionado para ser aplicado mezcla
dos propiedades, los coeficientes BMN utilizados
en los sistemas de generación de potencia y la posibilidad de incluir respuestas que sean resultado
de procesos evolutivos.
De este modo, el algoritmo de selección de la
mejor respuesta está inspirado en el principio de
la evolución de las especies, o programación conocida como Algoritmos Genéticos, que permite
evaluar un extenso espacio de búsqueda y encontrar respuestas viables uóptimas segúnel tipo de
restricciones que sean utilizadas; en la literatura
fueron encontrados modelos desarrollados conla
misma inspiración [1] y con resultados evaluados
por los autores como satisfactorios. No obstante,
la mezcla con coeficientes BMN para ser adaptados en cantidades de inventarios no presento ningún resultado.
En la segunda parte será presentada la formulación del problema, en la tercera parte el modelo
del algoritmo genético, en la cuarta parte los experimentos realizados y,finalmente,los resultados
obtenidos.
Palabras clave— Algoritmos Genéticos, Efecto Bullwhip, Optimización de Inventarios y Coeficientes Bmn.
Abstract— This paper presents the design of a genetic
algorithm (GA) that optimizes inventory management
in supply chains. They were considered warehousing,
distribution, and manufacturing product costs, plus the
cost of individual items to be ordered. The string used in
the simulation contains 5 levels, being: customer, retail,
warehouse, distributor and factory. The amounts of each
pair were considered to be evaluated by the GA in the
best chromosome. Additionally the BMN coefficients
model was used to generate the evaluation function of
chromosomes selected by the GA and satisfies the constraints considered in the model.
Keywords— Genetic Algorithms, Bullwhip Effect, Supply
Chain Optimization and BMN Coefficients.
I. INTRODUCCIÓN
En búsqueda de la maximización del lucro en
las empresas y la minimización del tiempo necesario para realizar los procesos en las cadenas de suministros, la gestión de inventarios es
determinante;así, las cantidades de elementos
que serán pedidas dependen de los tiempos y
los cambios en los estándares de consumo de
los clientes para generar fluctuaciones que consiguen producir distorsiones como exceso de inven-
II. FORMULACIÓN DEL PROBLEMA
El efecto látigo (también conocido como Bullwhip Effect o Efecto Forrester). Es un fenómeno importante en el estudio de las cadenas de
distribución porque tiene consecuencias sobre la
eficiencia del flujo de materiales en las cadenas
de suministros. En [2] se marca el inicio del con-
Recibido: 02/08/2011/ Aceptado: 31/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162
Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos - Valencia, Cáceres
cepto de compartir informaciones en la gestión de
la cadena de suministros. Las informaciones así
como los pedidos, se propagan con mayor volatilidad cuando se asciende en el nivel de la cadena
de distribución (y/o suministros). En [3] llamaron
este fenómeno de efecto “Bullwhip” o Efecto látigo.
Según [4], el Efecto látigo es el producto de la
falta de coordinación en el desempeño en la cadena de suministros y una inadecuada gestión de
inventarios, que ocurre cuando en cada nivel de
la cadena optimiza apenas su propio objetivo sin
considerar su impacto en la cadena entera.
La reducción del efecto látigo puede ser clasificada en 3 tipos de iniciativas:
• Alterar el proceso físico de producción, almacenamiento y transporte de los materiales.
• Compartir informaciones para el planeamiento en cada etapa de la cadena logística.
• Control de los efectos de las políticas comerciales para que no conlleven el flujo de la cadena al efecto látigo.
Tabla I.
Estrategiasde reducción do Efecto Látigo [5
Mejora del
proceso
logístico
Compartir
Informaciones
Reducción del
efecto de
políticas
comerciales
Forrester
(1958)
Lee et al.
(1997)
Simchi-Levi
et al. (2000)
Agilización
del tratamiento de
los pedidos
Formación
de lotes de
compra y de
producción
Reducción
del tiempo
de reabastecimiento
Mejora en
la calidad
de los datos
Formaciónde
Procesaacuerdos
estratégicos.
miento de
las variaciones en la
Reducción de
la incertidemanda
dumbre
Ajuste de
los inventarios
Variaciones
de precio
Racionamiento
Reducción de
la variabilidad
Según la Tabla 1, como una posible alternativa
será utilizado el enfoque de Lee, formar lotes de
compra y de producción y procesar las variaciones
en la demanda.
En la propuesta de este artículo se busca desarrollar los siguientes objetivos:
• Generar un Modelo de Optimización de Inventarios para organizar los pedidos consi-
•
•
157
derados los tiempos y las variaciones en la
demanda.
Utilizar un Algoritmo Genético para encontrar
la mejor configuración de respuesta.
Realizar pruebas del modelo con demanda
fija y variable.
III. MODELO MEDIANTE AG
Para ser realizado el modelado del problema
se estableció como objetivo disminuir el costo
total de los inventarios a ser pedidos, para evitar
tener costos altos por exceso de inventarios o desabastecimiento, para ello fueron utilizadas las
ecuaciones de [6].
A. Costos considerados en el modelo
En la Tabla II, son presentados los costos y cantidades que serán considerados para obtener el
mínimo costo posible, donde el índice i representa
el nivel de origen y j el nivel de destino.
Tabla II
Costos y Cantidades. Adaptado de [6]
Costos y Cantidades
Símbolo
•
Costo de depósito de la mercancía
Cantidad de elementos.
Costo individual de cada unidad
CEM i(t)
QEEi(t)
CIEi(t)
•
Costo de unidades anteriores
Cantidad de órdenes anteriores
Costo de la orden de unidad anterior
CUAi(t)
QOAi(t)
COAi(t)
•
Costo de elementos a ser pedidos
Cantidad de elementos
Costo individual de cada unidad
CEPi(t)
QEP ij(t)
CIP i(t)
•
Costo de distribución
Costo de envío de i para j
Costo por unidad
Cantidad de unidades distribuidas de i para j
Capacidad de carga
Costo por la distribución de la carga de i para j
CDi(t)
CEij(t)
CUDi(t)
QUD ij(t)
•
Costo de fabricación
Cantidad de demanda de i para j
Costo de producción por unidad.
CC i(t)
CPDij(t)
CF i(t)
QDij(t)
CPU i(t)
En la Figura 1 es presentada la configuración
con los 5 niveles utilizada en el modelado, también son presentados los 4 costos que generan el
costo total que se ha de minimizar.
FIG. 1. 5 nivElEs dEl modElo utilizado.
En la Ecuación 1 es presentado el costo de depósito de la mercancía.
158
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162
CEMi(t) = OEEi(t)*CIEi(t)
(1)
En la Ecuación 2 es presentado el costo de las
órdenes anteriores.
CUAi(t) = QOAi(t)*COAi(t)
(2)
En la ecuación 3 es presentado el costo de los
elementos que van a ser pedidos.
CEPi(t) = QEPi(t)*CIPi(t)
(3)
CDi(t) =
[(CEij(t)+CUDi(t))*QUDij(t)]
+[(QUDi(t)/CCi(t))*CPDi(t)]
(4)
En la ecuación 4 es presentado el costo de distribución para etapa de la cadena.
En la ecuación 5 es presentado el costo de fabricación.
CFi(t) = QDij(t)*CPUi(t)
(10)
(5)
En las ecuaciones 6, 7, 8 y 9 son presentados los costos individuales de cada punto de la
cadena siendo ellos minorista, depósito, distribuidor y fábrica respectivamente.
C1(t) = CEM1(t)+CUA1(t)+CEP1(t)
(6)
C2(t) =
CEM2(t)+CUA2(t)+CEP2(t)+CD2(t)
(7)
C3(t) =
CEM3(t)+CUA3(t)+CEP3(t)+CD3(t)
(8)
La matriz de la ecuación 11 representa el conjunto de coeficiente BMN, que en las columnas y
filas tiene las mismas variables que generan una
diagonal de ceros, en los otros valores son incluidos los coeficientes de pérdidas entre cada par
de niveles del modelo, dichos coeficientes son
obtenidos del histórico del comportamiento del
sistema, en tiempo anteriores a la utilización de
este modelo.
C. Diseño del algoritmo genético
Los algoritmos genéticos son una técnica de
búsqueda local que también es utilizada en optimización, con inspiración en el principio de la evolución de las especies y la supervivencia del más
apto, para este trabajo fue ejecutado el diagrama
de flujo de la Figura 2, considerados operadores
genéticos como cruzamiento y mutación.
FIG. 2. diagrama dE flujo utilizado
C4(t) = CEM4(t)+CUA4(t)+CEP4(t)+ (9)
CD4(t)+CF4(t)
B. Coeficientes Bmn
Los coeficientes [7] BMN inicialmente utilizados para relacionar pérdidas con penalidades dentro de los modelos matemáticos de
sistemas de transmisión de energía[8,9], son
empleados en este trabajo para proporcionar
una herramienta que permita obtener las “pérdidas” del sistema en la función de salida del
modelo.
Estos son un conjunto de coeficientes, en
forma matricial, cada línea y columna de la matriz corresponde a un punto de origen-destino
así todas las etapas de la cadena son agrupadas.
La representación utilizada genera un cromosoma con las siguientes características:
Tabla III
Representación utilizada
QEEi(t)
QEPij(t)
QUDij(t)
QDij(t)
Donde el primer Gen del cromosoma está compuesto por la cantidad de elementos en el depósi-
Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos - Valencia, Cáceres
to, el segundo Gen tendrá 3 elementos que son
la cantidad de elementos a ser pedidos de una
etapa para otra, el tercer Gen contendrá 3 elementos que son las cantidades distribuidas de
una etapa para otra y finalmente el cuarto Gen
tendrá la cantidad de elementos a ser fabricados.
En la decodificación para obtener la solución
real, fue implementada una función en Matlab®
que considera los coeficientes utilizados y la mejor respuesta encontrada por el algoritmo genético [11, 12].
Como función de evaluación fue utilizada la
ecuación 11, que genera el costo total C(t) en un
tiempo t.
C(t) = C1(t) + C2(t) + C3(t)+ C4(t)
(11)
El proceso de selección que es determinante
en el algoritmo genético fue realizado mediante
la ruleta, donde las porciones son proporcionales
a la aptitud de los cromosomas según como es
presentado en la Figura 3.
FIG. 3. rulEta dE sElEcción dE la población inicial
159
IV. ExPERIMENTOS REALIZADOS
Los experimentos realizados pretenden obtener la mejor configuración del AG para alcanzar
la mejor respuesta con el menor esfuerzo computacional, se estableció una configuración básica que consiguió cumplir el objetivo y sobre esta
fueron realizados los cambios para determinar la
influencia de cada parámetro, las configuraciones
fueron las indicadas en la Tabla IV.
Tabla IV
Configuraciones utilizadas
Parámetros
C1
C2
C3
C4
C5
Tamaño de la
población
10
50
50
50
50
Tipo de cruzamiento
SP
SP
SP
TP
H
Tasa de cruzamiento
0.8
0.8
0.4
0.8
0.8
Tipo de mutación
U
U
U
U
U
Tasa de mutación
0,05
0.05
0.05
0.05
0.2
Número de generaciones
100
40
100
60
60
Total de individuos
1x103
2x103
5x103
3x103
3x103
Donde SP significa fue que utilizado cruzamiento de un solo punto, TP de dos puntos y h
que fue utilizado cruzamiento Heurístico, U significa que el tipo de mutación fue uniforme.
V. RESULTADOS OBTENIDOS
Como operadores genéticos fueron utilizados
los dos principales, cruzamiento que fue realizado
en diferentes tasas y tipos y la mutación también
fue realizada en diferentes tasas y de tipo uniforme.
La inicialización de la población fue aleatoria
para mantener la diversidad de cromosomas en
el universo de respuestas [13], para dicha inicialización no se utilizó ningún tipo de semilla que
seleccionara una región búsqueda especial.
Los parámetros y criterios de parada, cambiaron para los diferentes experimentos realizados
[14, 15], en los resultados obtenidos son presentados los diversos valores y tipos de configuración
utilizados.
Para la evaluación del algoritmo propuesto fueron seleccionados valores para la demanda fija y
demanda variable basados en los históricos de
100 semanas atrás, la Figura 4 presenta el comportamiento de los valores escogidos.
FIG. 4. rulEta dE sElEcción dE la población inicial
160
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162
A. Tasa de demanda fija
FIG. 9. RESULTADO CONFIGURACIÓN 5 – TASA FIJA
A continuación son presentados los resultados
para las 5 configuraciones establecidas para una
demanda fija, en ellas está incluido el comportamiento de las respuestas en las generaciones y la
media de dichas respuestas.
FIG. 5. RESULTADO CONFIGURACIÓN 1 – TASA FIJA
Tabla V
Resultados de costos para Tasa Fija
FIG. 6. RESULTADO CONFIGURACIÓN 2 – TASA FIJA
FIG. 7. RESULTADO CONFIGURACIÓN 3 – TASA FIJA
Configuración
Mejor
Media
1
3607.06
11364.75
2
3596.09
3603.90
3
3602.36
63936.83
4
3598.17
6598.35
5
3598.71
3674.74
Los resultados presentados en el comportamiento del algoritmo obedecen a un problema
de minimización de costos totales mediante la
configuración adecuada de los elementos almacenados y elementos pedidos, para cada configuración se presentan en la parte superior el comportamiento para cada generación se resalta que
con la evolución de los individuos generados los
costos son menores.
B. Tasa de demanda variable
A continuación son presentados los resultados
para las 5 configuraciones establecidas para una
tasa de demanda variable, en ellas son presentadas el comportamiento de las respuestas en las
generaciones y la media de dichas respuestas.
FIG. 8. RESULTADO CONFIGURACIÓN 4 – TASA FIJA
FIG. 10. RESULTADO CONFIGURACIÓN 1 – TASA VARIABLE
Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos - Valencia, Cáceres
Resultado de costos para Tasa Variable
FIG. 11. RESULTADO CONFIGURACIÓN 2 – TASA VARIABLE
FIG. 12. RESULTADO CONFIGURACIÓN 3 – TASA VARIABLE
FIG. 13. RESULTADO CONFIGURACIÓN 4 – TASA VARIABLE
FIG. 14. RESULTADO CONFIGURACIÓN 5 – TASA VARIABLE
Tabla VI
161
Configuración
Mejor
Media
1
34488.80
55575.21
2
27497.10
31059.45
3
29910.32
126690.21
4
26884.24
29337.81
5
26757.12
35012.23
VI. CONCLUSIONES
La utilización de los algoritmos genéticos en la
optimización de la gestión de inventarios género
disminución de los costos de operación, así como
la regularización de las órdenes cuando la demanda fue variable, en las simulaciones realizadas se
obtuvo el mejor resultado mediante el cruzamiento heurístico, un número mayor en la población
inicial fue más determinante que un número mayor de generaciones para encontrar la mejor respuesta, mediante la utilización de los coeficientes
Bmn se generó una penalización en los tiempos
de atraso “lead time” en la entrega de pedidos
lo que podría entenderse como una penalización
“Soft” para el AG.
El modelo que se tomó como referencia presentaba costos totales antes de ser utilizado el AG
de USD 4567 para la tasa de demanda fija y de
USD 33245 para la tase de demanda variable, es
posible comparar estos resultados con los mejores obtenidos y apreciar la optimización realizada
por el AG reflejada en la disminución de costos
totales, todo esto consideradas las restricciones
impuestas al modelo para que no existan desabastecimiento o exceso de inventarios para cada
nivel de la cadena utilizada, además de las penalidades establecidas por los coeficientes Bmn.
El tiempo total de simulación fue de 100 semanas, así es posible considerar las fluctuaciones para la tasa variable y la estanqueidad para
la tasa fija.
Como trabajo futuro se espera configurar el
modelo propuesto como un Algoritmo Genético
Paralelo, para mejorar los resultados ya obtenidos, así que la utilización de nuevos operadores
genéticos que mantienen la integridad de la información genética en el cruzamiento como el “Ring
Crossover” así como el “Arithmetic Crossover”.
162
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162
REFERENCIAS
[1]
J.VonNeuman, «The Theory of Self-Reproducing
Automata», University of Illinois Press, Urbana,
1996.
[2]
J. Forrester, «Industrial Dynamics», Harvard Business Review. Boston, n. 36, Julio-Agosto 1958.
[3]
L. H. Lee, V. Padmanabhan y S. Whang, «Information Distortion in a Supply Chain: The Bullwhip
Effect», Management Science, Vol. 50, No. 12,
Diciembre 2004.
[4]
S. Chopra y P. Meindl, «Gerenciamento da Cadeia de Suprimentos – Estratégica, Planejamento e Operação», São Paulo: Prentice Hall, 2003.
[5]
J. P. P. Dias, 2003, «Gestão dos estoques numa
cadeia de distribuição com sistema de reposição
automática e ambiente colaborativo», Disertación de Maestría – Programa de Post-graduación
enIngenieríade Producción Escuela Politécnica
de la Universidad de San Pablo.
[6]
J. Lu, P. Humphreys, R. McIvor, y L. Maguire,
«Employing Genetic Algorithms to minimise the
Bullwhip Effect in an online efficient-responsive
supply chain», en 2009 IEEE/INFORMS International Conference on Service Operations, Logistics and Informatics, Chicago, IL, USA, 2009, pp.
117-122.
[7]
E. Hill y W. Stevenson, «A New Method of Determining Loss Coefficients», IEEE Transactions on
Power Apparatus and Systems, vol. 87, no. 7, pp.
1548-1553, Jul. 1968.
[8]
G. Kumaran y V. S. R. K. Mouly, «Using evolutionary computation to solve the economic load
dispatch problem», en Proceedings of the 2001
Congress on Evolutionary Computation (IEEE
Cat. No.01TH8546), Seoul, South Korea, pp.
296-301.
[9]
H. Happ, «Optimal Power Dispatch», IEEE Transactions on Power Apparatus and Systems, vol.
93, no. 3, pp. 820-830, May. 1974.
[10] LanshunNie, xiaofeixu, y Dechen Zhan, «Collaborative Planning in Supply Chains by Lagrangian
Relaxation and Genetic Algorithms», en 2006
6th World Congress on Intelligent Control and Automation, Dalian, China, 2006, pp. 7258-7262.
[11] P. Radhakrishnan, V. M. Prasad, y M. R. Gopalan,
«Genetic Algorithm Based Inventory Optimization
Analysis in Supply Chain Management», en 2009
IEEE International Advance Computing Conference, Patiala, India, 2009, pp. 418-422.
[12] J. Lu, P. Humphreys, R. McIvor, y L. Maguire,
«Employing genetic algorithms to minimise the
bullwhip effect in a supply chain», en 2007 IEEE
International Conference on Industrial Engineering and Engineering Management, Singapore,
2007, pp. 1527-1531.
[13] R. Perumalsamy y J. Natarajan, «Predictive
analytics using Genetic Algorithm for efficient
supply chain inventory optimization», in 2010
Second International conference on Computing,
Communication and Networking Technologies,
Karur, India, 2010, pp. 1-8.
[14] W. Jianhua y H. xianfeng, «A hybrid genetic algorithm for agile supply chain scheduling optimization», en 2010 2nd International Conference on
Future Computer and Communication, Wuhan,
China, 2010, pp. V1-396-V1-400.
[15] N. P. Joseph y G. Radhamani, «Determining Robust Solutions in Supply Chain Using Genetic Algorithm», en 2010 International Conference on
Data Storage and Data Engineering, Bangalore,
India, 2010, pp. 275-277.
Clasificación ABC Multicriterio: Tipos de Criterios
y Efectos en la Asignación de Pesos
Carlos Alberto Castro Zuluaga
M.Sc. en Ingeniería Industrial, Universidad de los Andes
Docente Tiempo Completo, Universidad EAFIT
Investigador Grupo de Investigación en Gestión de Producción y
Logística, Universidad EAFIT
Medellín, Colombia
[email protected]
Mario César Vélez Gallego
PhD. in Industrial and Systems Engineering,
Florida International University
MSc. in Industrial and Systems Engineering,
Georgia Institute of Technology
Docente Tiempo Completo, Universidad EAFIT
Investigador Grupo de Investigación en Gestión de Producción y
Logística, Universidad EAFIT Medellín, Colombia
[email protected]
Jaime Andrés Castro Urrego
Estudiante de Ingeniería de Producción,
Universidad EAFIT Medellin, Colombia
[email protected]
Resumen— Tradicionalmente la clasificación ABC es
realizada en las empresas con el objetivo de definir e implementar una política de control de inventarios a todos
los productos pertenecientes a una misma categoría. La
clasificación de los productos en categorías se realiza
de acuerdo a su importancia o relevancia por algún tipo
de criterio, que normalmente es el consumo o utilización
anual (para materias primas o repuestos) o la demanda
o las ventas anuales (para productos terminados), utilizando para esto el bien conocido principio de Pareto.
Sin embargo, en ocasiones es altamente recomendable
y necesario hacer uso de criterios adicionales que permitan realizar una diferenciación más efectiva de las
existencias. Por ello, este artículo presenta una recopilación de criterios útiles para realizar la clasificación
ABC del inventario, describe en qué consiste cada uno
y cómo puede ser medido. Adicionalmente se muestra
un ejemplo de un escenario crítico de una clasificación
ABC con tres criterios, en donde de acuerdo a los pesos
asignados a cada uno y de las características de los productos incluidos en el proceso de clasificación, se pierde la validez de algún criterio en el análisis.
Palabras clave— Clasificación ABC, Gestión de Inventarios, Análisis Multicriterio
Abstract— ABC classification is traditionally performed
in companies in order to define and implement an inventory control policy for all the products within the same
category. The classification of products into categories
is done according to their importance or relevance for
some kind of criteria, usually the consumption or annual
usage (for raw materials or spare parts) or demand or
annual sales (for finished goods) using the well-know
Pareto´s principle. however, sometimes it is highly recommended and necessary to use additional criteria in
order to make a more effective differentiation of stocks.
Therefore, this paper presents a collection of useful criteria for ABC classification; describes its meaning and
how it must be measured. Additionally, an example of a
critical stage of a classification ABC with three criteria,
shows that depending on the weights assigned and the
characteristics of the products included in the classification process, the validity of some criteria are lost in
the analysis.
Keywords— ABC Classification, Inventory Management;
Multi criteria analysis
I. INTRODUCCIÓN
En todas las empresas existen procesos de
toma de decisiones que involucran una gran cantidad de productos o servicios. Este tipo de decisiones, según proceso de planeación que se lleve a
cabo, debe realizarse para familias de productos
o productos individuales que afectarán la planeación de producción, el abastecimiento, la distribución, el almacenamiento o la programación, áreas
fundamentales dentro de cualquier organización.
Uno de los procesos más importantes y más
complejos que existe es el control y la gestión de
los inventarios, debido a que de este dependerá
en gran medida el correcto funcionamiento de
los procesos anteriormente mencionados, ya que
independiente del tamaño de la empresa existen
cientos o miles de ítems que deben ser monitoreados y controlados con el propósito de conocer
sus existencias, ubicaciones, estado y demás información que es esencial para lograr realizar almacenamientos eficientes, planes de producción
factibles, programas de producción reales, abastecimientos oportunos y distribuciones efectivas.
Todo lo anterior finalmente va encaminado a lograr de manera superior las metas que una em-
Recibido: 18/08/2011/ Aceptado: 28/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170
164
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170
presa tiene en relación con los niveles de servicio
y los costos.
Dada la gran cantidad de referencias (entre
materias primas, repuestos, producto en proceso
y producto terminado) que tienen que administrar
en un sistema de control y gestión de inventarios
dentro de una empresa, sería demasiado costoso y poco práctico establecer esquemas de monitoreo y control de forma individual. En su lugar,
la práctica más común a nivel industrial es la de
agregar referencias por grupos de familias y aplicar políticas de control iguales a todo el grupo.
La forma comúnmente utilizada para realizar
este tipo de clasificaciones es la denominada clasificación ABC, la cual se realiza de forma independiente para materias primas (o repuestos) y
para productos terminados.
El enfoque tradicional de la clasificación ABC
consiste en organizar todos los ítems de manera
descendente según el criterio de consumo
o utilización anual (para materias primas o
repuestos) o de demanda o ventas anuales (para
productos terminados), ambas medidas en pesos
al año. Lo anterior implica que para las materias
primas y los repuestos el valor del criterio para
cada ítem se calcula como el consumo anual de
cada materia prima multiplicado por su costo
de compra, mientras que para los productos
terminados se calcula como la demanda (o
ventas) al año por su costo variable de fabricación
(en el caso de un productor) o de compra (para
un comercializador). De esta manera se espera
que una cantidad reducida de ítems que se
encuentran en la parte superior de la clasificación
serán parte del grupo A, y requerirán la mayor
atención por parte de la gerencia; la mayor
cantidad de ítems que se encuentran en la parte
inferior de la clasificación son asignados al grupo
C y requerirán una mínima atención de la gerencia
y la cantidad restante de ítems hará parte del
grupo B y requirien mediana atención [1].
La clasificación de los diferentes ítems que
maneja una compañía en un grupo reducido de
categorías, es un análisis simple de entender y
fácil de utilizar por la mayoría de los encargados
de los inventarios en una organización, pero este
análisis está limitado a un solo criterio como se
mencionó anteriormente, que es ampliamente reconocido que según el tipo de ítems o de industria
en donde se realice el análisis, existe una gran
cantidad de criterios que deben ser incluidos en
el análisis, con el propósito de realizar una mejor
clasificación. Cuando un análisis ABC incluye dos
o más criterios, este problema es llamado Clasificación ABC Multicriterio (MCABC por sus siglas
en inglés), el cual es un problema ampliamente
estudiado en la literatura, pero poco estudiado
en lo relacionado con los criterios utilizados, sus
características y la problemática en algunos enfoques con la asignación de pesos a los criterios
empleados en el análisis.
El objetivo de este artículo es presentar una
clasificación y una caracterización de los principales criterios utilizados en la MCABC, y desarrollar
un ejemplo para ilustrar cómo la selección de los
criterios y la asignación de pesos es una etapa crítica en este proceso de clasificación. Una asignación incorrecta de los pesos puede hacer incluso
que alguno de los criterios incluidos en el análisis no tenga ningún efecto en el resultado final.
El resto del artículo se encuentra estructurado en
cinco secciones. Esta introducción es seguida por
una revisión de la literatura en lo relacionado con
la Clasificación ABC Multicriterio. En la sección 3
se muestran los principales criterios que se incluyen en este tipo de problemas y sus características. En la sección 4 se realiza un ejemplo donde
se muestra la problemática sobre la asignación
de pesos en la clasificación ABC Multicriterio. El
artículo finaliza con algunos comentarios y conclusiones en la sección 5.
II. REVISIÓN DE LA LITERATURA
La clasificación tradicional de los artículos
de una compañía en un número reducido de
categorías es una implementación de la famosa
observación de Pareto sobre la distribución
desigual de la riqueza a nivel nacional [2]:
la mayor parte de la riqueza nacional es
controlada por unos pocos y la mayor parte de
la población controla sólo una pequeña porción
de la riqueza.
El principio de Pareto enunciado anteriormente
puede ser utilizado en una gran cantidad de áreas
gerenciales [3]. En relación al área de gestión
y control de inventarios, el análisis de Pareto
sugiere que no todos los ítems en el inventario de
una empresa deben ser controlados igual, por lo
que los ítems más importantes (grupo A) deben
Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos - Castro, Vélez, Castro
ser controlados y monitoreados con sistemas de
control de inventario más sofisticados que los
utilizados para ítems menos importantes que se
encuentran en el grupo B; y que los ítems del
grupo C se deben controlar más fácilmente en
comparación con los ítems del grupo B [1].
El análisis ABC clásico enunciado anteriormente ha sido cuestionado por algunos autores [4],
debido principalmente a que la importancia y la
atención prestada desde la gerencia a cada ítem
depende de un único criterio a la hora de realizar
la clasificación, sabiendo que en algunas oportunidadeshay características y atributos que deberían ser considerados y posiblemente afectan su
importancia. Considere, por ejemplo, un repuesto
vital para el funcionamiento de una máquina, el
cual es fundamental dentro del proceso productivo de una empresa, pero que sea muy económico
y con un consumo anual moderado. Sin duda, este
repuesto requeriría de una atención mayor por
parte de la gerencia si en la clasificación se hubiera considerado la criticidad del ítem y no sólo
su consumo o utilización en términos monetarios.
Cuando el análisis ABC incluye dos o más
criterios, en la literatura científica el problema
es denominado Clasificación Multicriterio
del Inventario (MCIC o MCABC) Análisis
ABC Multiciriterio (por sus siglas en inglés,
respectivamente), el cual ha sido tratado
por varios autores. En los primeros trabajos
sobre el problema [4,5] se planteó una
metodología con dos criterios para el análisis
ABC por medio de una matriz cruzada tabular.
Desafortunadamente, de acuerdo con algunos
autores [6], la metodología se vuelve complicada
y difícil de manejar, cuando tres o más criterios
se incluyen en el análisis.
Otros métodos más recientes empleados
para resolver el problema MCABC incluyen: el
Análisis Multivariado de Clusters, en el que
ítems con características y atributos similares se
agrupan para su análisis y posterior clasificación
[7]; Proceso Analítico Jerárquico (AHP por
sus siglas en inglés), en el cual se obtiene
una única medida escalar de la importancia
de los ítems del inventario para su posterior
clasificación con base en el resultado obtenido
[6-8]; utilización de metaheurísticos, como los
algoritmos genéticos [9] y las redes neuronales
artificiales [8,10] aplicados a la clasificación
165
ABC multivariada y, recientemente, la
optimización lineal ponderada [11-14] ,
enfoque muy similar al concepto de Análisis
Envolvente de Datos (DEA por sus siglas en
inglés) y la clasificación por medio de la lógica
fuzzy [15]. Finalmente, hay investigaciones
que combinan métodos, donde se aplica el
método ABC con multicriterio y la matriz de
adquisición/índice de rotación, su utilización
depende de la situación concreta de la
aplicación [16].
Hasta donde se pudo constatar en la
revisión de la literatura no se encontró
ninguna publicación en la cual se caractericen
y clasifiquen los criterios más utilizados en la
clasificación ABC multicriterio. Tampoco se
pudo encontrar un análisis sobre el impacto
de las diferentes formas de asignar los pesos
a los criterios en el resultado final de la
clasificación
III. CRITERIOS PARA LA CLASIFICACIÓN ABC
Con base en la revisión de la literatura que
se llevó a cabo se construyó una matriz de criterios (Tabla I) en la que se determina cuáles
son algunos de los criterios más usados en el
tratamiento del problema MCIC, su unidad de
medida y para qué tipo de ítems aplica (señalados con una x), ya sea para materias primas,
repuestos o para productos terminados, se diferencia la clasificación que se puede hacer de
estos últimos desde el punto de vista del fabricante y del distribuidor.
El criterio de demanda/ventas anuales hace
referencia a la cantidad de unidades físicas que
fueron demandadas del producto durante el último año, por ello sólo es utilizado para clasificar
productos terminados por parte de fabricantes o
distribuidores. Por su parte, el consumo/utilización anual se basa en el total de unidades que
fueron solicitadas desde el sistema productivo
hacia el almacén, por lo cual este criterio sólo es
tenido en cuenta para clasificar materias primas
y repuestos.
El criterio de inventario promedio corresponde
a la media de unidades físicas que se mantuvieron en inventario durante todo el año para cada
ítem. Este criterio es aplicable para realizar la clasificación de todo tipo de ítems: materias primas,
166
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170
repuestos y productos terminados (tanto para productores como para comercializadores).
El costo unitario se basa en el costo total que
representa cada unidad del ítem, habida cuenta
del costo de producción (para productos terminados en el almacén del fabricante) o de compra
(para materias primas, repuestos y productos terminados en el almacén del comercializador); este
criterio es aplicable para todos los tipos de ítems
considerados en la matriz.
TABLA I
Matriz de Criterios para la clasificación ABC
x
x
x
x
x
x
x
x
m3/unidad
x
x
x
x
Criticidad
0, 1, 2, 3, 4, 5
x
x
Costo Anual del
Inventario
$/año
x
x
x
x
Costo Anual Demanda/Ventas
$/año
x
x
Costo Anual Consumo/Utilización
$/año
x
x
Tiempo de Entrega
unidades de
tiempo
x
x
Tiempo de Producción por lote
unidades de
tiempo
Escasez
1, 2, 3, 4, 5
x
x
Durabilidad
1, 2, 3, 4, 5
x
x
Sustituibilidad
1, 2, 3, 4, 5
x
x
Reparabilidad
1, 2, 3, 4, 5
Número de Proveedores
Cantidad
Almacenabilidad
1, 2, 3, 4, 5
x
Tamaño de lote
Unidades
x
Repuestos
x
Materias Primas
Comercializadora
Salida
Fabricante
Entrada
Criterios
Unidad de
Medida
Demanda/ Ventas Anual
unidades/año
Consumo/ Utilización Anual
unidades/año
x
x
Inventario Promedio
unidades/año
x
Costo Unitario
$/unidad
Volumen
Fuente: Autores
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
Así mismo, el criterio de volumen se refiere al
espacio que ocupa una unidad de cada ítem dentro del almacén y es aplicable a la clasificación
ABC que se realice de cualquiera de los tipos de
ítem listados en la Tabla 1, pues es entendible que
si un producto ocupa gran cantidad de espacio en
el almacén, el encargado de controlar los inventarios desee tener mayor control de las existencias
de dicho producto, de modo que no se ocupe más
espacio del realmente requerido y no se restrinja
la cantidad de unidades que se puede mantener
de las demás referencias.
La criticidad se encuentra estrechamente relacionada con el costo de faltantes del ítem [9]
y se representa en una escala de 1 a 5, donde 5
implica un alto costo de faltantes y una alta importancia del ítem para el correcto desempeño del
sistema productivo, por ello este criterio sólo es
tenido en cuenta para clasificar materias primas
y repuestos.
El costo anual del inventario se basa en el costo total que implicó tener dicho ítem en el almacén
durante el último año, habida cuenta del costo de
pedir, de mantener y de oportunidad. Por lo tanto, este criterio de clasificación es aplicable tanto
para materias primas y repuestos, como para producto terminado.
El criterio de costo anual de demanda/ventas,
tiene en cuenta el producto entre la demanda/
ventas anuales y el costo unitario de cada ítem.
Este criterio es aplicable para clasificar sólo producto terminado y es uno de los más usados en
la clasificación ABC tradicional. El costo anual de
consumo/utilización es el equivalente al criterio
anterior aplicado a materias primas y repuestos,
diferenciándose en que se basa en el producto entre el consumo/utilización anual y el costo
unitario, este criterio es utilizado frecuentemente
para clasificar los ítems que se encuentran como
entrada al sistema productivo.
Por otro lado, los criterios de tiempo de entrega
y tiempo de producción por lote tienen en cuenta
el tiempo que transcurre desde que se libera la
orden de compra de un ítem hasta que este se
encuentra en las instalaciones de la compañía
(para el primer criterio) y el tiempo que transcurre
desde que se comienza a producir un lote de Q
unidades hasta que éste se encuentra fabricado
en su totalidad (para el segundo criterio).
Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos - Castro, Vélez, Castro
La escasez es medida en una escala de 1 a
5 y se basa en la dificultad que implica para la
compañía adquirir o comprar un ítem; este criterio es de gran importancia para aquellos ítems
que son importados. Por su parte, el criterio de
durabilidad se refiere a la longitud de tiempo
que un ítem permanece en condiciones útiles y
debe ser medido en una escala de 1 a 5, donde
5 implica que el producto tiene un período muy
corto de vida útil; la medición de este criterio
debe realizarse en esta escala para permitir que
a la hora de clasificar los productos, los ítems
que tengan mayor valor en el criterio sean los
más importantes en el proceso de control de inventarios.
El criterio de sustituibilidad es útil cuando
se tienen ítems que al presentar faltantes en el
inventario pueden ser sustituidos por otros sin
generar cambios significativos en el sistema
productivo. Este criterio es medido en una escala de 1 a 5 en la que los productos que tienen
muchos sustitutos en el almacén toman un valor
de 1, mientras que los productos que no tienen
sustitutos toman un valor de 5. Igualmente, el
criterio de reparabilidad se basa en la existencia de ítems que al presentar faltantes pueden
ser reparados y reutilizados; aquellos productos
que pueden ser reparados rápidamente toman
un valor de 1 y los productos que no pueden ser
reparados toman un valor de 5.
El número de proveedores de un ítem indica
la cantidad de compañías que lo fabrican y de
las cuales se puede obtener dicho bien. Mientras
más pequeña sea esta cantidad, mayor importancia tomará la realización de un control estricto sobre las existencias del ítem. Por otra parte, la almacenabilidad indica el nivel de peligro
o dificultad en el almacenamiento de un ítem,
por ello en una escala de 1 a 5, los productos
que presenten mayores dificultades o peligro en
el proceso de manejo de materiales tomarán un
valor de 5. Finalmente, el criterio del tamaño de
lote se refiere a la cantidad mínima de unidades
que por restricciones físicas o económicas se
pueden pedir al proveedor o se pueden fabricar.
Aunque de acuerdo a la revisión de la literatura los anteriores criterios son los mayormente
utilizados para realizar la clasificación ABC en el
inventario de una compañía, existen otros criterios que pueden ser utilizados en empresas de
167
acuerdo a la particularidad de sus productos y
procesos y de las características que el encargado de controlar los inventarios considera importantes.
IV. CONSIDERACIONES y EJEMPLO
ILUSTRATIVO DE LA CLASIFICACIÓN ABC
MULTICRITERIO
Las diferentes propuestas para dar solución
al problema de la Clasificación ABC Multicriterio,
tienen un elemento común y es la utilización de
pesos o ponderaciones a los diferentes criterios,
con el fin de lograr identificar mediante algún método o modelo, qué artículos son más importantes que otros, medidos con dos o más criterios.
Estos pesos o ponderaciones se pueden establecer ya sea de forma objetiva, mediante la utilización de algún modelo matemático, como, por
ejemplo, el caso de las propuestas que utilizan
optimización; o darlas de forma subjetiva a partir
de la experiencia de los encargados del manejo
de los inventarios en las empresas, como es el
caso de las propuestas que utilizan lógica fuzzy
para clasificar los diferentes ítems del inventario
en pocas categorías, en donde los conocimientos y la experiencia de estas personas son muy
importantes para lograr obtener clasificaciones
que consideren varios criterios a la vez.
Cualquiera sea la forma de establecer dichas
ponderaciones, es importante considerar los
efectos que pueden tener estas ponderaciones
en dicha clasificación, aspectos poco tratados
por aquellos que han realizado propuestas para
este tipo se problema y que fueron mencionados
en la sección 2.
Con el propósito de mostrar algunas precauciones que se deben considerar cuando se realiza una Clasificación ABC Multicriterio se elaboró
un ejemplo de un escenario crítico en el que es
posible observar que de no tener cuidado con
los criterios seleccionados, con los valores que
toman los ítems en cada uno de ellos y con las
ponderaciones dadas a los diferentes criterios,
es posible que alguno de los criterios empleados
pierdan importancia y, por lo tanto, validez a la
hora de realizar la clasificación ABC. Para ello se
emplearon 20 ítems con los valores de demanda, costo unitario y lead time que se muestran
en la Tabla II.
168
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170
TABLA II
Datos Iniciales del ejemplo
donde:
yij = es el valor del criterio j-ésimo para el i-ésimo ítem en inventario.
ITEM
DEMANDA
COSTO UNITARIO
LEAD TIME
A
80
422
6
B
514
54,07
7
C
19
0,65
6
D
2442
16,11
4
E
650
4,61
4
F
128
0,63
5
G
2500
1,2
6
H
4
22,05
3
I
25
5,01
5
J
2232
2,48
1
K
2
4,78
1
L
1
38,03
6
M
6
9,01
2
N
12
25,89
1
O
101
59,5
5
I
P
715
20,78
6
S
Q
1
2,93
1
H
0,001
R
35
1
3
R
S
1
28,88
4
M
T
4
29,86
1
Fuente: Elaboración Propia
Al realizar una clasificación ABC Multicriterio es necesario normalizar la información para
cada uno de los valores mostrados en la Tabla
II, ya que los diferentes criterios utilizan unidades de medida que no son comparables ni operables entre ellas (ver Tabla 1 para las unidades
de medida de los diferentes criterios) como,
por ejemplo, semanas y unidades como es el
caso del lead time y la demanda. Así mediante
la ecuación (1) se obtienen valores normalizados [(yn)]ij), entre 0 y 1 de todos los datos de la
Tabla I, los cuales se encuentran positivamente
relacionados, esto es, los valores mayores (es
decir, 1 o cercanos a 1) son de gran importancia, mientras los valores menores (cero o cercanos a cero) son menos importantes. Los resultados de la obtención de los valores normalizados
se muestran en la Tabla III.
(1)
TABLA III
Datos Normalizados, Puntaje total por ítem y clasificación Final
ÍTEM DEMANDA
COSTO
UNITARIO
LEAD
TIME
PUNT.
CLAS.
TOTAL
A
0,032
1,000
0,833 0,624
A
G
1,000
0,001
0,833 0,614
A
D
0,977
0,037
0,500 0,504
A
B
0,205
0,127
1,000 0,450
A
P
0,286
0,048
0,833 0,393
A
L
0,000
0,089
0,833 0,313
A
J
0,893
0,004
0,000 0,296
A
O
0,040
0,140
0,667 0,286
A
C
0,007
0,000
0,833 0,286
A
E
0,260
0,009
0,500 0,259
A
F
0,051
0,000
0,667 0,243
B
0,010
0,010
0,667 0,233
B
0,000
0,067
0,500 0,192
B
0,051
0,333 0,131
C
0,014
0,001
0,333 0,118
C
0,002
0,020
0,167 0,064
C
T
0,001
0,069
0,000 0,023
C
N
0,004
0,060
0,000 0,021
C
K
0,000
0,010
0,000 0,003
C
Q
0,000
0,005
0,000 0,002
C
Fuente: Elaboración Propia
La calificación o puntaje total obtenido por
cada ítem (organizado de mayor a menor), se
muestra en la columna 5 de la Tabla III, se obtiene
por medio de la ecuación (2):
(2)
Donde ynijes el valor normalizado del ítem i-ésimo con respecto al criterio j-ésimo y wj es el peso
asignado al criterio j, bajo la restricción de que:
(3)
Aplicado el principio de Pareto de forma similar
a como se hizo en [11-14], pero sobre la columna
de puntaje total, se obtuvo la clasificación obser-
Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos - Castro, Vélez, Castro
vada en la sexta columna de la Tabla III, mediante pesos similares en los tres criterios (0,33 para
demanda y costo y 0,34 para el lead time). Estos
pesos fueron establecidos de esta forma con el
propósito de ejemplificar algunas precauciones
que deben tenerse al utilizar varios criterios en
una calificación del inventario, y pueden ser definidos de forma diferente según la experiencia de
las personas encargadas de la gestión y el control
de los inventarios.
Supóngase ahora que existen únicamente 2
productos (ítems P y R), con lead timemuy altos
(por ejemplo 200 unidades de tiempo) los cuales
fueron cambiados y resaltados en la Tabla IV. Los
resultados obtenidos para este caso se muestran
en la Tabla IV.
TABLA IV
Datos Modificados y Nueva Clasificación
ÍTEM
DEMANDA
COSTO
UNITARIO
LEAD
TIME
NUEVA
CLAS.
CLAS.
INICIAL
P
715
20,78
200
A
A
A
80
422
6
A
A
R
35
1
200
A
C
D
2442
16,11
4
A
A
G
2500
1,2
6
A
A
J
2232
2,48
1
B
A
B
514
54,07
7
B
A
E
650
4,61
4
B
A
O
101
59,5
5
B
A
L
1
38,03
6
B
A
S
1
28,88
4
C
B
F
128
0,.63
5
C
B
C
T
4
29,86
1
C
N
12
25,89
1
C
C
H
4
22,05
1
C
C
I
25
5,01
5
C
B
C
19
0,65
6
C
A
M
6
9,01
2
C
C
K
2
4,78
1
C
C
Q
1
2,93
1
C
C
Fuente: Elaboración Propia
Es evidente cómo al tener ítems con valores
extremos en alguno de los criterios hace que la
clasificación se altere significativamente. Así, por
ejemplo, el número de artículos tipo A pasó de 10
a 5, es decir, una reducción del 50%; los ítems
tipo B pasaron de 3 a 5, o sea un incremento del
169
67%, mientras que los ítems tipo C se incrementaron en un 42%
Desde el punto de vista de cambios de categoría, se puede observar que el 50% de los ítems
que hace parte del análisis cambió de categoría,
es decir, artículos tipo A se convirtieron en artículos B o C; artículos B se volvieron artículos A o
C; o artículos C se transformaron en artículos A o
B. El restante 50% permanecieron igual. Esto demuestra que la magnitud de los valores asignados
a los diferentes criterios tiene un alto impacto en
las clasificación de los artículos bajo un enfoque
mulcriterio, por lo que es un factor que debe considerarse en este tipo de análisis.
Es posible observar cómo un artículo con las
característica del ítem R (baja demanda y bajo
costo) pueda fácilmente convertirse en un artículo tipo A (como evidentemente ocurrió) cuando otra característica (en este caso el tiempo de
entrega) tenga valores extremos muy altos, hace
que los otros dos criterios pierdan completamente su validez. Este mismo comportamiento puede
observarse en artículos como el ítem C y el ítem
B, pero a la inversa; es decir, pasaron de clasificaciones superiores a clasificaciones inferiores,
aunque tengan características que a primera vista
los ubique como artículos importantes dentro de
la organización.
Finalmente, este tipo de efectos y contradicciones se presentan con algunas enfoques y propuestas, al asignar pesos o ponderaciones a los
diferentes criterios, lo que hace que los demás
criterios incluidos en el análisis pierdan validez,
al establecer valores muy bajos en unos criterios
y un valor muy alto en uno solo, para dar resultados casi idénticos a clasificaciones ABC de un
solo criterio.
V. CONCLUSIONES
Se realizó una caracterización de los principales criterios tenidos en cuenta a la hora de realizar
una clasificación ABC del inventario, en la cual se
pudo observar cómo la decisión de qué criterios
utilizar para dividir los productos en categorías dependerá de la particularidad de la empresa y de
los productos que se desee clasificar, ya sea materias primas, repuestos o productos terminados,
ya que no todos los criterios pueden (ni deben)
aplicarse en todos los casos. Así mismo, se identi-
170
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170
ficó que es necesario tener cuidado con la forma
como se mide un criterio, ya que de esto dependerá el orden en que se deba hacer la clasificación:
se toma como más importantes los productos con
mayor magnitud o los productos que toman menor valor en el criterio, es decir, con una relación
positiva. En caso de tener relaciones negativas,
es necesario convertir esta relación a una positiva
mediante la expresión 1-yij.
En una clasificación ABC Multicriterio se identificó que pueden existir escenarios críticos en los
que es necesario hacer un análisis cuidadoso de
la información para realizar la clasificación de manera adecuada, ya que es posible que un producto
llegue a tener valores demasiado altos (o demasiado bajos) en los diferentes criterios utilizados
o ponderaciones tales que absorban toda la importancia del mismo y ocasione una degeneración
en la clasificación de una parte de los productos,
sin importar los valores que estos tomen en otros
criterios. Cuando esto suceda, el encargado de la
toma de decisiones debe reconsiderar los criterios
que deben incluirse en la clasificación del inventario, los límites de clasificación que utilice y los
pesos que asigne a cada uno de dichos criterios.
Finalmente, se debe señalar que aunque existe gran variedad de métodos para realizar una
clasificación ABC Multicriterio, su utilidad en la
industria disminuirá en la medida en que su complejidad se incremente; ya que a pesar de ofrecer
buenas soluciones al problema, es esencial recordar que mientras más sencilla sea su implementación por parte de quien toma las decisiones en
una compañía, mayor será el éxito en la puesta en
práctica de este tipo de herramientas.
[5]
B. E. Flores and D. C. Whybark, “Implementing multiple
criteria ABC analysis,” Journal of Operations Management, vol. 7, no. 1-2, pp. 79-85, Oct. 1987.
[6]
F. Y. Partovi and J. Burton, “Using the Analytic Hierarchy Process for ABC Analysis,” International Journal of
Operations & Production Management, vol. 13, no. 9,
pp. 29-44, 1993.
[7]
R. Ernst and M. A. Cohen, “Operations related groups
(ORGs): A clustering procedure for production/inventory systems,” Journal of Operations Management, vol.
9, no. 4, pp. 574-598, 1990.
[8]
F. Y. Partovi and M. Anandarajan, “Classifying inventory using an artificial neural network approach,” Computers & Industrial Engineering, vol. 41, no. 4, pp. 389404, Feb. 2002.
[9]
H. Altay Guvenir, “Multicriteria inventory classification
using a genetic algorithm,” European Journal of Operational Research, vol. 105, no. 1, pp. 29-37, Feb. 1998.
[10]
Q. Lei, J. Chen, and Q. Zhou, “Multiple Criteria Inventory Classification Based on Principal Components
Analysis and Neural Network,” Methods, pp. 10581063, 2005.
[11]
R. Ramanathan, “ABC inventory classification with
multiple-criteria using weighted linear optimization,”
Computers & Operations Research, vol. 33, no. 3, pp.
695-700, Mar. 2006.
[12]
P. Zhou and L. Fan, “A note on multi-criteria ABC inventory classification using weighted linear optimization,”
European journal of operational research, vol. 182, no.
3, pp. 1488–1491, 2007.
[13]
A. Hadi-Vencheh, “An improvement to multiple criteria ABC inventory classification,” European Journal of
Operational Research, vol. 201, no. 3, pp. 962-965,
Mar. 2010.
[14]
W. Ng, “A simple classifier for multiple criteria ABC
analysis,” European Journal of Operational Research,
vol. 177, no. 1, pp. 344-353, Feb. 2007.
[15]
C. Chu, G. Liang, and C. Liao, “Controlling inventory
by combining ABC analysis and fuzzy classification,”
Computers & Industrial Engineering, vol. 55, no. 4, pp.
841-851, Nov. 2008.
[16]
O. Parada, “Un enfoque multicriterio para la toma de
decisiones en la gestión de inventarios,” Revista Cuadernos de Administración, Vol. 22 No. 38, pp. 169187, enero-junio de 2009.
REFERENCIAS
[1]
E. Silver, D. F. Pyke, and R. Peterson, Inventory Management and Production Planning and Scheduling,
Third Edit. New York: Wiley, 1998.
[2]
V. Pareto, Mannual of Political Economy (English translation). New York: A. M. Kelley Publishers, 1971.
[3]
P. Swamidass, Encuclopedia of Production and Manufacturing Management. Norwell, MA: Kluwer Academic
Publishers, 2000.
[4]
B. Flores and C. Whybark, “Multi Criteria ABC Analysis,” International Journal of Operations and Production Management, vol. 6, no. 3, pp. 38-46, 1986.
Diseño y Elaboración de las Tecnologías de
Inspección Basadas en herramientas de Limpieza
para el Registro y Análisis de los Parámetros
de Operación en Líneas de Transporte de
hidrocarburos
Mario Alberto Quintero
Ing. Electrónico, Universidad Industrial de Santander
Investigador, Corporación para la Investigación
de la Corrosión CIC
Bucaramanga, Colombia
[email protected]
humberto Zambrano Medina
Ing. Electrónico, Universidad Industrial de Santander,
Investigador, Corporación para la Investigación
de la Corrosión CIC
Bucaramanga, Colombia
[email protected]
hernán Alfonso Garnica
M.Sc.(c) en Física, Universidad Industrial de Santander,
Corporación para la Investigación de la Corrosión CIC,
Investigador Grupo FITEK,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Ely Dannier V. Niño
MSc en Física, Universidad Industrial de Santander
Docente Tiempo Completo, Investigador Grupo GINTEP,
Universidad Pontificia Bolivariana UPB,
Investigador Grupo FITEK,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Sergio Quintero
Técnico Electromecánico,
Unidades Tecnológicas de Santander UTS, Técnico,
Corporación para la Investigación de la Corrosión CIC
Bucaramanga, Colombia
[email protected]
Resumen— En este artículo se presenta el diseño y construcción de una herramienta inteligente (pig o marrano)
que permite la medición de parámetros de operación de
tuberías para transporte de hidrocarburos y que registra
señales asociadas a su dinámica de movimiento dentro
de la línea de transporte. El marrano está concebido
para ser utilizado de modo regular por el operador, para
aprovechar principalmente corridas rutinarias de limpieza. La herramienta recoge datos a bajo costo y el análisis de los mismos aporta al operador información valiosa sobre la evolución de la tubería, el grado de residuos,
la presencia de posibles daños geométricos (defectos)
e información sobre los parámetros operacionales. Esta
información puede integrarse al plan de mantenimiento,
lo cual permitirá una mejor toma de decisiones y ayudará a obtener un panorama de riesgos gracias al control
de los cambios que experimenta la línea con el tiempo.
Palabras clave— herramienta Inteligente, Inspección
en Línea, Marrano de Líneas de Transporte.
Abstract— This article presents the design and construction of an intelligent tool (pig), which allows the
measurement pipelines operation parameters for transportation of hydrocarbons and records signals associated with its dynamic movement within the transmission
line. The pig is designed to be used on a regular basis
by the operator, drawing mainly runs routine cleaning.
The tool collects data at low cost and analysis of the
same operator brings to valuable information on developments in the pipeline, the degree of waste, the presence of potential damage geometry (defects) and in-formation on operational parameters. This information can be
integrated into the maintenance plan, which will enable
better decision making and help to get an overview of
risk control thanks to the changes in the line over time.
Keywords— Tool Smart, Inline Inspection, Pigging.
I. INTRODUCCIÓN
Las empresas transportadoras de hidrocarburos tienen como prioridad asegurar la correcta
operación de las líneas de transporte. Con este fin
implementan rigurosos programas de diagnóstico
y mantenimiento que les permite identificar, controlar y mitigar las principales amenazas a la integridad de la infraestructura, entre las cuales se
encuentra la amenaza por corrosión en líneas de
transporte [1], [2]. En términos generales, las tecnologías de Inspección Inteligente son considera-
Recibido: 24/05/2011/ Aceptado: 02/08/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176
172
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176
das las herramientas más eficaces para evaluar la
integridad mecánica en las tuberías de transporte
de hidrocarburos y son herramientas esenciales
en la elaboración de los planes de mantenimiento
y mitigación de la amenaza por corrosión [3]. En
Colombia, hay aproximadamente 12 mil kilómetros de líneas que pueden ser inspeccionadas con
herramientas inteligentes [4].
Las herramientas de inspección inteligente disponibles comercialmente y fabricadas exclusivamente por países industrializados representa para
la industria local altos costos de inversión que dificulta el acceso a estas tecnologías y limitan la periodicidad en su uso. La Corporación para la Investigación de la Corrosión, a través de su interacción
con la industria petrolera, ha identificado esta necesidad y propuso el desarrollo de una herramienta
de diagnóstico general previo a una inspección especializada, que es utilizada en el país para evaluar
la corrosión interna en la infraestructura petrolera.
En este trabajo se describe la construcción de
una herramienta geométrica (marrano) que permite la medición de parámetros de operación y que
registra señales asociadas a posibles anomalias
geométricas dentro de la línea [5]. El marrano está
concebido para ser utilizado de modo regular por
el operador, al aprovechar principalmente corridas
rutinarias de limpieza; se puede usar como herramienta semi-inteligente, herramienta de limpieza o
herramienta geométrica; que permite, en sus diferentes configuraciones, reunir información valiosa
sobre las tendencias de limpieza de las líneas en
intervalos determinados de tiempo, la formación de
depósitos de parafina, los riesgos de taponamiento
de las tuberías, el avance y la eficiencia de la limpieza a lo largo de una secuencia de marraneo, los
parámetros de operación y las condiciones de flujo [6]. La herramienta desarrollada juega un papel
clave en el seguimiento de tendencias geométricas
y operacionales como parte de los procesos de preinspección para evaluación de la viabilidad de un
proceso de marraneo con tecnología más sofisticada como MFL o ultrasonido [7].
Esta información podrá integrarse en el plan
de mantenimiento, lo cual permitirá la toma de
decisiones y ayudará a obtener un panorama de
riesgos gracias al control de los cambios que sufre
la línea con el tiempo [8]. Por tal motivo, con esta
herramienta los servicios prestados, a diferencia
de lo que ocurre actualmente con el mercado de
herramientas instrumentadas, no son de carácter
puntual sino de seguimiento y control a través de
los años.
II. DESCRIPCIÓN ExPERIMENTAL
A. Descripción de la herramienta
La herramienta es un dispositivo unidireccional
constituido por un cuerpo, copas, discos, sensores
de distancia (odómetros), sensores de presión diferencial, sensores de deformación (flexómetros) y
sensores de temperatura. En la Fig. 1 se muestra
un esquema general de la herramienta y en la Fig.
2 se presenta el diagrama virtual del diseño de la
herramienta. En la Tabla 1 se muestra los parámetros más relevantes que se tuvieron en cuenta en
el diseño de la herramienta, se consideró que el
dispositivo soporta condiciones extremas al interior
de la tubería, como altas presiones y temperaturas,
cambios bruscos de temperatura, vibraciones, deformaciones de la línea, cambios de dirección por
las curvas presentes en el trayecto, cambios de nivel, cambios de espesores, rotaciones y la agresividad del fluido transportado en la línea.
FIG. 1. ESQUEMA GENERAL DE LA HERRAMIENTA
Fuente: Los autores
FIG. 2. DIAGRAMA VIRTUAL DE LA HERRAMIENTA
Fuente: Los autores
Diseño y Elaboración de las Tecnologías de Inspección Basadas en herramientas de Limpieza para el Registro y Análisis de los Parámetros
de Operación en Líneas de Transporte de hidrocarburos - Quintero, Zambrano, Garnica, Niño, Quintero
TABLA I
Parámetros generales de diseño
Parámetro
Entorno
Modo de Inspección
Detalle
Líneas de transporte
de hidrocarburos
Por medio de raspadores
de limpieza
Diámetro tuberías
>12 Pulgadas
Sensores
Presión Absoluta
Presión Diferencial
Temperatura del fluido
Tiempo de corrida
>4 horas
Presión de Operación
1200 psi
Presión Máxima de
Operación
2500 psi
Presión de Diseño
3000 psi
Temperatura Máxima
de Operación
65 oC
Fuente: Los autores
En la Fig. 3 se presentan los distintos módulos que constituyen el sistema electrónico de la
herramienta inteligente. El módulo de control está
basado en un microcontrolador que constituye el
cerebro del sistema y administra los demás módulos. El módulo de acondicionamiento de señal se
encarga de filtrar y digitalizar las señales análogas provenientes de los sensores, para su almacenamiento posterior en el módulo de memoria [9],
[10]. Los datos almacenados son sincronizados
con la fecha y hora entregada por el módulo de
tiempo y con la información de distancia recorrida entregada por el módulo de posicionamiento
(odómetro).
B. Proceso de desarrollo de dispositivos, módulos y banco de pruebas
Inicialmente, se realizó la selección, el acondicionamiento y la validación de tecnologías, lo
cual permitió conocer el desempeño de sensores
de diferentes sensibilidades y rangos.
Se seleccionaron las tecnologías para el procesamiento digital de señales en tiempo real
que permitieran implementar los filtros digitales,
realizar la estadística y comprimir la información
antes de guardarla en memoria.
La etapa de desempeño en laboratorio de
la tecnología en desarrollo, se fundamenta en
la creación de bancos de pruebas con defectos
inducidos en diferentes configuraciones geométricas, como se muestran en Fig. 4. El banco de
pruebas evalúa los arreglos de sensores y determina patrones de defectos que permiten modelar matemáticamente el fenómeno y estandarizar la identificación.
Esta etapa implicó la construcción del hardware electrónico para la adquisición y procesamiento de las señales entregadas por los
sensores, el desarrollo del software embebido
encargado de gestionar la herramienta prototipo
y el análisis computacional que permitan caracterizar y graficar las señales entregadas por los
sensores.
Se finaliza la construcción de los dispositivos
prototipos con el estudio mecánico de las estructuras metálicas, tipo encapsulados, que permite
articular y proteger la tecnología dentro de la herramienta de limpieza [11].
FIG. 4. BANCO DE PRUEBAS MODULOS MECÁNICOS
FIG. 3. ESQUEMA DE MÓDULOS ELECTRÓNICOS DE LA HERRAMIENTA
Fuente: Los autores
173
Fuente: Los autores
174
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176
C. Sensores
La búsqueda y selección de tecnologías
para medir las distintas variables de interés
en la herramienta PIG se realizó siguiendo los
parámetros de diseño mencionados anteriormente. Se debe recordar que para realizar un
diagnóstico geométrico eficaz de la tubería, se
requiere correlacionar la información de variables como presión, temperaturas, deformación
distancia y diámetro, además de la comparación entre las mismas a través de una matriz.
A continuación se describe el trabajo realizado
en la selección de la tecnología correspondiente para cada variable a evaluar y se discuten
los detalles más relevantes en selección e implementación.
1) Sensores de presión
Los factores más importantes considerados
en la selección del sensor de presión se muestran en la Tabla 2. Para las condiciones de trabajo requeridas, se seleccionó un transductor
de presión basado en principios piezoeléctricos que le confiere una alta resolución y mayor
estabilidad al transcurrir el tiempo.
TABLA II
Parámetros de operación para la presión
Características de Operación
Valor
Rango de presión
Hasta 2000 psi
Precisión
+/- 0.5% de la
Escala
Condiciones de trabajo
Buena tolerancia a
ambientes corrosivos
Disponibilidad
Alta y de fácil adquisición
en el mercado.
Acondicionamien
to de señal
Modular, preferible
mente
encapsulado.
Sensibilidad
0.5 a 1 psi.
Fuente: Los autores
2) Sensores de temperatura
Dadas las condiciones de trabajo, se seleccionó para la aplicación un sensor de temperatura tipo semiconductor. Este sensor tiene
muy buenas características relacionadas con
la robustez, tamaño reducido, alta precisión,
acondicionamiento de señal simplificado y
bajo costo. En la Fig. 5 se muestra el modo de
instalación del sensor dentro de la cápsula mecánica con el fin de mantenerlo protegido de la
corrosión y de las altas presiones.
FIG. 5. SENSORES ENCAPSULADOS Y EMPOTRADOS
Fuente: Los autores
3) Sensores Odómetros
Los odometros juegan un papel fundamental en la localización longitudinal de las anomalías detectadas en la tubería. La tecnología
seleccionada para el cálculo de la distancia
está basada en sensores magnéticos. Los
odómetros están constituidos por ruedas que
entran en contacto con la tubería donde se
instalan los sensores magnéticos de “efecto
hall” que envían una serie de pulsos por cada
rotación de la rueda, en la Fig. 6 se muestra
el esquema del odómetro utilizado en la herramienta. El software incorporado en el módulo
de control se encarga de convertir estos pulsos
en distancia recorrida.
Este módulo requiere un gran procesamiento de software para poder calcular en todo momento la distancia recorrida por la herramienta
inteligente. Existen ciertos factores que afectan
la exactitud de los sensores de distancia e inducen errores en el cálculo del desplazamiento
lineal real de la herramienta. Las principales
fuentes de error son el desgaste del material
en las ruedas por la fricción y la rotación de la
herramienta dentro de la tubería; razón por la
cual en la herramienta incorpora como mínimo
dos odómetros los cuales proveen redundancia de información que facilita el análisis de
tendencias dinámicas.
Por último, para verificar las condiciones de
adherencia entre la superficie de la rueda y las
diversas superficies de la tubería, se ubicaron
elementos que modificaron el coeficiente de
Diseño y Elaboración de las Tecnologías de Inspección Basadas en herramientas de Limpieza para el Registro y Análisis de los Parámetros
de Operación en Líneas de Transporte de hidrocarburos - Quintero, Zambrano, Garnica, Niño, Quintero
fricción y se implementaron modificaciones sobre la superficie del tubo, se simuló de este
modo las variaciones que se presentan durante una corrida regular de una herramienta de
tal tipo.
175
FIG. 7. ESQUEMA DEL MÓDULO DE SENSORES DE LA HERRAMIENTA
FIG. 6. ESQUEMA DEL ODÓMETRO
Fuente: Los autores
FIG. 8. PERFIL DE PRESIÓN EN CORRIDA REAL (PRESIÓN [PSI] VS
Fuente: Los autores
III. RESULTADOS y DISCUSIÓN
Para la evaluación de las tecnologías se
implementaron dos módulos; uno validado en
una línea real y el otro en el laboratorio [12].
Las tecnologías seleccionadas para la medición de presión, temperatura y distancia fueron
implementadas y evaluadas en el laboratorio.
Con un software especializado de modelamiento, se realizó el diseño y posteriormente la
construcción de los encapsulados mecánicos,
que permiten proteger la tecnología incorporada en el marrano de limpieza [9]-[12].
El proceso de validación del desempeño de
la tecnología en condiciones reales, se realizó
en dos pruebas de 24 horas cada una, en una
línea de transporte tipo poliducto de 80km de
recorrido de la empresa colombiana de petróleos ECOPETROL.
En la Fig. 7 se aprecia el esquema del montaje final del ensamble mecánico y del módulo
que contiene la cápsula de parámetros operacionales en la herramienta de limpieza.
En la Fig. 8 se presenta el perfil de presión
en función de la distancia recorrida registrado
por la herramienta en condiciones reales [13]
y en la Fig. 9 se aprecia el estado final de la
herramienta después de la corrida real.
DISTACIA [M])
Fuente: Los autores
FIG. 9. ESTADO FINAL DE LA HERRAMIENTA EVALUADA EN UN POLIDUCTO
DE ECOPETROL
Fuente: Los autores
Estas pruebas comprobaron la repetibilidad y
confiabilidad de las medidas, pues permitieron obtener perfiles detallados de temperatura y presión
de la tubería en función de la distancia recorrida y
el tiempo [11]-[13]. A su vez, se pudo corroborar
la robustez de la herramienta para soportar altas
presiones y vibraciones. La información obtenida
en la inspección se constituye en una herramienta
valiosa para el cálculo de la vida útil de la tubería
y detección de anormalidades críticas entre otras
[13], [14].
176
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176
IV. CONCLUSIONES
La tecnología desarrollada permite obtener información de la tubería a partir de la evaluación de
tendencias geométricas y operacionales esenciales en la viabilidad de una inspección de la línea
con tecnologías especializadas. Con un posterior
refinamiento de la herramienta se permitirá identificar problemas de corrosión localizada, identificar
zonas de alto riesgo de ruptura, definir acciones en
los planes de aseguramiento de la integridad de los
sistemas de transporte y optimizar modelos matemáticos de simulación.
La herramienta desarrollada y evaluada en una
línea real permite la medición de parámetros de
operación y anomalias geométricas en función de la
distancia recorrida. El marrano C.I.C está concebido
para ser utilizado de modo regular por el operador,
al aprovechar principalmente corridas rutinarias
de limpieza. De este modo los servicios prestados,
a diferencia de lo que ocurre actualmente con el
mercado de herramientas instrumentadas, no son
de carácter puntual sino de seguimiento y control a
través de los años. La herramienta recogerá datos
a bajo costo y el análisis de los mismos aportará al
operador información valiosa sobre el estado de la
tubería, entre estos, el grado de residuos, posibles
daños geométricos y parámetros operacionales.
Esta información que podrá integrarse en el plan
de mantenimiento, permitirá la toma de decisiones y ayudará a obtener un panorama de riesgos
gracias al seguimiento de los cambios que sufre la
línea con el tiempo.
A su vez, la herramienta suministra información
valiosa antes de implementar técnicas de inspección costosas como una corrida de inspección inteligente con ultrasonidos o MFL, lo cual faculta al
operador para modificar esas condiciones como
requisito previo a la inspección inteligente y la detección y dimensionamiento de daños geométricos.
La herramienta tiene características modulares
que le confieren gran flexibilidad, ésta es una de
sus ventajas competitivas en el mercado.
del proyecto: Tecnologías PIG para la Calibración
Interna y la Medida de Parámetros de Operación
en Líneas de Transporte de Hidrocarburos.
REFERENCIAS
[1]
ASME B 31.8 gas transmisión and distribution piping
systems.
[2]
ASME B 31.4 pipeline transportation systems for liquid
hidrocarbons and other liquid´s.
[3]
The Pipeline Pigging Course. In: Pipeline Pigging & Integrity Management Conference, Clarion, 2003.
[4]
Programa para el Manejo de la Corrosión Interna y
Prototipo de Marrano Inyector del Sistema de Transporte de Gas Ballena-Barrancabermeja de Centragás
S.A. Proyecto cofinanciado por el SENA para el sector
gas, Corporación para la Investigación de la Corrosión,
Jun 2004.
[5]
Managing System Integrity for Hazardous Liquid Pipelines. In: API Standard. First Edition, p. 1160, Nov 2001.
[6]
Specifications and requirements for intelligent pig inspection of pipelines, In: Pipeline Operator Forum, Version 3.2, Ene 2005.
[7]
Pipeline Safety: Pipeline Integrity Management in High
Consequence Areas Proposed Rule, 49 CFR Part. DOT,
2003, p. 192 – 195.
[8]
In-Line Nondestructive Inspection of Pipelines, In:
NACE International Publication. 35100.
[9]
Automatic Data Acquisition System For Offshore Oil Pipeline Magnetic Flux Leakage On-Line Inspection, Tao
Jin Peiwen, Shangai Jiao Tong University/Journal of the
Japan Petroleum Institute, 2005.
[10]
Integrated Visualization for Geometry PIG Data.pdf,
Bok Dong Kim Kyungpook National University, Daegu,
South Korea, Department of Computer Engineering,
Korea Gas Corporation, 426-790 Ansan, South Korea,
2006.
[11]
Advances in Line Inspection Technology for Pipeline
Integrity, Jeff Sutherland, BJ services, 2000.
[12]
R. Worthingham T. Morrison, N.S. Mangat and G. Desjardins. Bayesian Estimates Of Measurement Error For
In-Line Inspection And Field Tools Proceeds of IPC. International Pipeline Conference 2002. Calgary, Alberta, Canada.
[13]
Desarrollo de una herramienta para determinar las
pérdidas de presión interna en líneas de transporte
de hidrocarburos a través del uso de sensores electromecánicos, orden de servicio 511956 entre el CIC y el
ICP, diciembre de 2007.
[14]
Assessment and analysis of pipeline buckles, Inessa L
Yablonskikh et. al., PPSA Aberdeen Seminar 2007.
Agradecimientos
Los autores agradecen al Instituto Colombiano del Petroleo – ICP y a la Viceprecidencia de
Tranportes de la Empresa Colombiana de Petróleo - ECOPETROL, por el apoyo y las facilidades
prestadas durante la prueba piloto, al Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnología – COLCIENCIAS, por el apoyo financiero
Algoritmo para generación de Controladores
Difusos Interpretables. Aplicación a un proceso de
presión
Juan Antonio Contreras Montes
PhD. en Ciencias Técnicas
Líder Grupo de Investigación en Control,
Comunicaciones y Diseño Naval,
Escuela Naval Almirante Padilla ENAP
Cartagena, Colombia
[email protected]
David Javier Muñoz Aldana
Ingeniero Electrónico
Investigador Grupo de Investigación en Control,
Comunicaciones y Diseño Naval,
Escuela Naval Almirante Padilla ENAP
Cartagena, Colombia
[email protected]
Resumen— En este artículo se presenta una novedosa
metodología para la generación de controladores difusos tipo singleton a partir de datos experimentales de
entrada y salida. Se describe una técnica para construcción de las reglas difusas mediante funciones de pertenencia triangulares, con interpolación en 0.5, para la
partición de los antecedentes; mínimos cuadrados para
el ajuste de los consecuentes tipo singleton y operadores tipo promedio ponderado, en vez de operadores tipo
t-norma. El aspecto más promisorio de la propuesta consiste en la obtención del modelo, o controlador difuso,
sin sacrificar su interpretabilidad ni recurrir a otras técnicas de inteligencia artificial. Para llevar a cabo el entrenamiento del controlador difuso se utilizó el sistema
de presión del sistema didáctico en control de procesos
de Lab-Volt, modelo 6090. Los datos de entrenamiento
fueron tomados de una experiencia realizada con un
control PI.
reglas, operadores lógicos empleados, forma y
distribución de los consecuentes, entre otros . El
gran número de parámetros requeridos para obtener un modelo difuso ha dificultado el desarrollo
de una técnica única de modelación, especialmente en el caso de identificación borrosa a partir
de datos experimentales de entrada y salida.
Una de las primeras propuestas para diseño
automático de sistemas difusos a partir de los
datos es la propuesta por Wang [1]. Sugeno y
Yasukawa [2] propusieron una metodología para
identificación de parámetros de modelos difusos
mediante consecuentes tipo singletons, pero requiere de muchas reglas y presenta una pobre capacidad de descripción.
Una técnica comúnmente empleada son los
algoritmos de agrupamiento difuso, siendo los
métodos de Fuzzy C-Means [3], el de GustafsonKessel [4] y sus variantes Nauck y Kruse [5] [6]
los más empleados. Una metodología interesante
para extraer reglas a partir de los datos en un marco de integridad lingüística es presentada por Espinosa y Vandewalle [7]. Sala [8].[9] introdujo una
técnica novedosa basada en el error de inferencia
para aproximar funciones con partición suma 1
con conjuntos triangulares, lo cual es un aporte
importante a la interpretabilidad de los modelos
difusos; Díez et al. [10] proponen variaciones a
los algoritmos de agrupamiento para mejorar la
interpretabilidad y descubrir estructuras afines locales en los modelos difusos obtenidos. Paiva y
Dourado [11] presentan un modelo generado por
medio del entrenamiento de una red neuro-difusa
implementado en dos fases: en la primera fase,
se obtiene la estructura del modelo con un algoritmo clustering substractivo, lo cual permite extraer
las reglas a partir de datos de entrada y salida;
Palabras clave— identificación difusa, interpretabilidad, controlador difuso, sistema de presión.
Abstract— A novel approach for the development of linguistically interpretable fuzzy singleton models from experimental data is proposed. The proposed methodology
uses triangular sets with 0.5 interpolations. Averaging
operator, instead of T-norm operator, is used for combining fuzzy rules. Singleton consequents are employed
and least square method is used to adjust the consequents. The most promissory aspect in our proposal
consists in achieving model without sacrificing the fuzzy
system interpretability. The real-world applicability of
the proposed approach is demonstrated by application
to a pressure control using the LabVolt Process Control
Training System (6090).
Keywords— fuzzy identification, interpretability, fuzzy
controller, process pressure.
I. INTRODUCCIÓN
La construcción de modelos difusos involucra
la selección y sintonización de varios parámetros
como: forma y distribución de las funciones de
pertenencia de las variables de entrada, base de
Recibido: 29/08/2011/ Aceptado: 09/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182
178
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182
en la segunda fase, se realiza la sintonización de
los parámetros del modelo mediante una red neuronal que emplea retropropagación, pero impone
restricciones en el ajuste de los parámetros y en
la fusión de las funciones de pertenencia con el
fin de garantizar la interpretabilidad del modelo
resultante.
La metodología empleada para mostrar la obtención de controladores difusos tipo singleton
a partir de datos experimentales de entrada y
salida es presentada en dos fases: inicialmente
se describe el método de identificación difusa,
que indica la estructura empleada para el modelo difuso a obtener, así como el algoritmo de
identificación; en la segunda fase, se presenta
una aplicación en la cual se genera un controlador difuso a partir de datos experimentales de
entrada y salida tomados de un proceso de presión de líquidos regulado por un controlador PI.
El objetivo de esta segunda fase no es remplazar
al controlador PI con un controlador difuso sino
mostrar cómo la técnica de identificación difusa
presentada permite generar un controlador a partir de datos experimentales de entrada y salida.
De esta manera, será posible construir controladores a partir de datos generados por el control
realizado por un experto humano, por ejemplo, y
entonces disponer de parámetros (consecuentes
singleton, funciones de pertenencia, y otros) que
puedan ser ajustados para mejorar el desempeño del mismo
II. IDENTIFICACIÓN DIFUSA
A. Estructura del modelo difuso
En la búsqueda de un equilibrio entre la aproximación numérica y la interpretabilidad del sistema difuso resultante se consideran los criterios siguientes para la selección de los parámetros [12]
• Funciones de Pertenencia
La partición de los universos de las variables
de entrada en el proceso de aprendizaje se hace
con conjuntos triangulares normalizados con solapamiento específico de 0.5. Las funciones de pertenencia triangulares permiten la reconstrucción
del valor lingüístico en el mismo valor numérico,
luego de aplicar un método de concreción [13];
además, el solapamiento en 0.5 asegura que los
soportes de los conjuntos difusos sean diferentes.
Los conjuntos difusos generados para la variable de salida son tipo singleton.
•
Distribución de las Funciones de Pertenencia
Los conjuntos difusos triangulares de las variables de entrada se distribuyen uniformemente en
cada universo respectivo de manera tal que cada
uno de los elementos de los universos de discurso
de cada variable debe pertenecer, al menos, a un
conjunto difuso.
• Operadores
Para la combinación de los antecedentes se
emplea un operador de combinación de la clase
OWA, cuya denominación obedece a sus siglas en
inglés (Ordered Weighted Averaging operators)
• Método de Inferencia
El método de inferencia empleado está dado
por
(1)
donde
(2)
es el grado de la salida de la j-ésima regla de
un sistema difuso tipo Mamdani, f(x(i)) es la función que aproxima a la función real de salida,
es el valor del singleton correspondiente a la regla
j,
son los conjuntos difusos del antecedente de
la regla j activada, y L corresponde al número de
reglas activadas. El grado de salida de cada regla
se calcula mediante un operador de combinación
de la lógica borrosa de la clase promedio ponderado.
B. Algoritmo de identificación difusa
El algoritmo para generación de sistemas difusos interpretables a partir de los datos se basa en
la minimización del error de inferencia. El usuario
sólo debe introducir los datos de las variables de
entrada y salida y el algoritmo ejecuta las siguientes acciones:
• Determina los rangos de cada variable
• Distribuye las funciones de pertenencia en los
universos de cada variable de entrada
• Ubica los consecuentes tipo singleton en el
espacio de salida
• Determina las reglas y
Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión - Contreras, Muñoz
•
Ajusta la ubicación de los consecuentes y emplea mínimos cuadrados, para minimizar el
error de aproximación.
El algoritmo se detiene cuando se ha alcanzado una métrica de error menor a la requerida por
el usuario o cuando el número de conjuntos difusos por variable de entrada es mayor a 9, para no
afectar la interpretabilidad del modelo difuso obtenido [7]. La distribución de las funciones de pertenencia en cada universo de entrada se hace de
manera uniforme para garantizar que la partición
resultante sea suma 1; es decir, la suma de los
grados de pertenencia de un dato en una variable
de entrada será siempre igual a 1.
Dado una colección de datos experimentales de
entrada y salida
, donde
179
inicio y final del universo coincidan sus vértices, con valor de pertenencia uno, con sus
vértices izquierdo y derecho respectivamente, como se aprecia en la figura 2. Se inicia
con n = 2 conjuntos triangulares.
FIG. 2. PARTICIÓN TRIANGULAR SUMA 1. A) PARTICIÓN INICIAL, N =2; B)
PARTICIÓN CON N = 5
, con
es el vector de entrada p-dimensional
e y(i)es el vector unidimensional de
salida, el algoritmo de identificación difusa ejecuta los siguiente pasos
a. Organización del conjunto de p variables de entrada y una variable de salida, cada una con N
datos.
d. Cálculo de los consecuentes singletons mediante el empleo del método de mínimos cuadrados. La ecuación (5) puede expresarse de
la forma
(3)
FIG 1. ORGANIZACIÓN DEL CONJUNTO DE DATOS
donde
(4)
b. Determinación de los rangos de los universos
de cada variable de acuerdo con los valores
máximos y mínimos de los datos asociados , .
c. Distribución de las funciones de pertenencia
triangulares sobre cada universo. Se tiene
como condición general que el vértice con
valor de pertenencia uno (valor modal) cae
en el centro de la región cubierta por la función de pertenencia mientras que los otros
dos vértices, con valor de pertenencia iguales a cero, caen en los centros de las dos
regiones vecinas. Para poder aproximar eficientemente los extremos inferior y superior
de una función representada por los datos,
es necesario que en la partición triangular
las funciones de pertenencia que cubren el
La ecuación (3) puede expresarse en forma
matricial como Y= Wθ+E, donde Y representa los
valores de salida reales, Wθ representa la salida
del modelo difuso, siendo W es la matriz de grados de pertenencia obtenida de (4) y θ el vector de
consecuentes, y E es el error de aproximación que
debe ser minimizado. Es decir:
(5)
Empleando la norma del error cuadrático se
tiene
(6)
180
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182
La solución a este problema de mínimos cuadrados está dada por
(7)
de donde se obtiene
(8)
controlador de velocidad de la bomba, la cual es
regulada con voltaje de corriente directa de 0 a 5
voltios, proveniente del PIC, que es el controlador
de presión, el cual actualmente en un controlador
PI que será remplazado por el controlador difuso;
PT es el transmisor de presión, que fue calibrado en el rango de [0, 5] voltios para los rangos
mínimo y máximo de presión. C1 es el tanque de
almacenamiento.
FIG. 3. SISTEMA DE CONTROL DE PROCESO DE PRESIÓN
Esta solución es válida si (W T W) es no singular,
lo que quiere decir que todas las reglas deben recibir suficiente excitación durante el entrenamiento. En la práctica esto no es siempre posible, por
lo que es recomendable recurrir a la aplicación de
mínimos cuadrados recursivos, para garantizar
que la adaptación sólo afecte las reglas excitadas
e. Validación del modelo mediante el método de
inferencia descrito por (1), donde
es el valor
del singleton correspondiente a la regla j.
f. Terminar si la medida del error cuadrático medio MSE es menor a una medida previamente
establecida ó si el número de conjuntos por variable de entrada es mayor a 9. De otra manera, incrementar en 1 el número n de conjuntos
de la variable de entrada y volver al paso c).
Con el algoritmo descrito se consigue un modelo difuso interpretable que sólo se requiere del
ajuste de los parámetros del consecuente, que
son tipo singleton, lo que disminuye el tiempo de
entrenamiento. La precisión del modelo obtenido
es determinada empleando una métrica de error
(error cuadrático medio). Es posible lograr una
mayor aproximación (“ajuste fino”) si al finalizar el
proceso mencionado se aplica el método del gradiente descendiente para ajustar la ubicación de
los valores modales de los conjuntos triangulares
del antecedente, se conserva la partición suma
1 y, por lo tanto la interpretabilidad del sistema,
como explica Espinosa et al. [7].
III. APLICACIÓN y VALIDACIÓN DEL MéTODO
PROPUESTO
Se ha utilizado el sistema didáctico en control
de procesos de Lab-Volt, modelo 6090. El montaje se muestra en la Figura 3, donde HV son las
válvulas de operación manual; FI es un indicador
de caudal de área variable (rotámetro); SC es el
Se utilizará el algoritmo de identificación difusa para generar un modelo o controlador difuso
que emule la acción del controlador PI implementado en el proceso de control de presión. Inicialmente se desarrolló una experiencia, mediante un
controlador PI con banda proporcional del 30% y
un Ti de 0.05 min/rpt. Los datos utilizados para
el entrenamiento son mostrados en la figura 4.
Posteriormente se realizó otra experiencia con variaciones diferentes de la señal de referencia para
tomar los datos que se emplearon para la validación, los cuales se muestran en la Figura 5.
FIG. 4. DATOS DE ENTRENAMIENTO. A) VOLTAJE APLICADO A LA BOMBA --;
B) REFERENCIA ▬; C) SALIDA DE PRESIÓN ─
Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión - Contreras, Muñoz
FIG. 5. DATOS DE VALIDACIÓN. A) VOLTAJE APLICADO A LA BOMBA --; B)
REFERENCIA ▬; C) SALIDA DE PRESIÓN ─
Se utilizaron como entradas al sistema difuso:
las variables error actual e(k), con rango de [-5, 5]
y salida de presión actual y(k), con rango [0, 5]; y
como salida el voltaje aplicado a la bomba u(k),
con rango [0, 5]. El controlador difuso obtenido
tiene tres conjuntos triangulares por variables de
entrada; por lo tanto, tiene seis consecuentes tipo
singleton, ubicados en [1.9215 8.677 13.4661
-7.01 -5.22 -4.05]. Los tres primeros singletons
pertenecen a la variable lingüística e(k) y tienen
como etiquetas: negativo, cero y positivo; los tres
siguientes pertenecen a la variable lingüística y(k)
y tienen como etiquetas: bajo, medio y alto. Los
conjuntos lingüístico generados son mostrados en
la Figura 6.
181
y
Los consecuentes tipo singleton toman valores
que van de un mínimo de -7.0100 a un máximo
de +13.4661. Los valores negativos se deben etiquetar como valores bajos de voltaje aplicado a
la bomba.
La Figura 7 muestra el desempeño del controlador difuso, aplicado al proceso de presión.
FIG. 7. ACCIÓN DEL CONTROLADOR DIFUSO. A) VOLTAJE APLICADO A LA
BOMBA --; B) REFERENCIA ▬; C) SALIDA DE PRESIÓN ─
FIG. 6. PARTICIONES DIFUSAS DE LAS VARIABLES DE ENTRARA ERROR
E(K) Y PRESIÓN Y(K).
IV. CONCLUSIONES
El error cuadrático medio alcanzado en el entrenamiento fue de 0.0342 y en el proceso de validación fue de 0.04879.
La salida del controlador difuso está dada por
Y=Wθ, donde
Se presenta un método para la identificación
de sistemas a partir de datos experimentales de
entrada y salida, mediante modelos difusos interpretables con ajuste de parámetros consecuentes
tipo singleton mediante mínimos cuadrados. El
método no requiere del empleo de otras técnicas
de inteligencia artificial para su entrenamiento y
aprende de manera sencilla la acción desempeñada por otro controlador o por un operador humano.
El empleo de consecuentes tipo singleton no
afecta la interpretabilidad del modelo difuso ya
que éstos pueden ser etiquetados de acuerdo con
su ubicación en el espacio de salida y con asignaciones de clara comprensión para un operador
182
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182
humano. Por ser un procedimiento matemático,
sin restricciones, el ajuste por mínimos cuadrados puede ubicar los consecuentes por fuera del
espacio de salida sin que esto afecte la interpretabilidad.
REFERENCIAS
[1]
Wang, L-x, Mendel, J.M., “Generating fuzzy rules by
learning form examples”, IEEE Transactions on Systems, Man and Cybernetics, vol. 22, No 6, pp. 14141427. 1992.
[2]
Sugeno, M., Yasukawa, T., “A fuzzy logic based approach to qualitative modeling”. Transactions on Fuzzy
Systems, vol. 1, No. 1, pp. 7-31. 1993
[3]
Bezdek J. C. (1987). Pattern recognition with Fuzzy Objective Function Algorithms. Ed. Plenum Press.
[4]
Guztafson E. E., Kessel W. C. Fuzzy Clustering with a
Fuzzy Covariance Matrix. IEEE CDC, San Diego, California, pp. 503 – 516.1979.
[5]
Nauck, D., Kruse, R., “Nefclass - a neuro-fuzzy approach for the classification of data”, In Proceedings
of the Symposium on Applied Computing, 1995.
[6]
Nauck, D., Kruse, R., “Neuro-fuzzy systems for function approximation”. Fuzzy Sets and System. 101(2),
pp. 261-271. Jan. 1999.
[7]
Espinosa, J., Vandewalle, J., “Constructing fuzzy models with linguistic integrity form numerical data-afreli
algorithm”, IEEE Trans. Fuzzy Systems, vol. 8, pp. 591
– 600, Oct. 2000.
[8]
Sala, A. (1998). Validación y Aproximación Funcional
en Sistemas de Control Basados en Lógica Borrosa.
Universidad Politécnica de Valencia. Tesis Doctoral.
[9]
Sala, A., Albertos, P., Inference error minimisation:
fuzzy modelling of ambiguous functions. Fuzzy Sets
and Systems, 121 (2001) pp. 95 – 111. 2001
[10]
Díez J. L., Navarro J. L., Sala A. (2004). Algoritmos de
Agrupamiento en la Identificación de Modelos Borrosos. RIAI: Revista Iberoamericana de Automática e Informática Industrial.
[11]
Paiva, R. P., Dourado, A., “Interpretability and learning in neuro-fuzzy systems”, Fuzzy Sets and System.
147(2004), pp. 17-38. 2004.
[12]
Contreras, J., Misa, R., Paz, J., Building Interpretable
Fuzzy Systems: A New Methodology. In proceedings
of Electronics, Robotics and Automotive Mechanics
Conference CERMA 2006. IEEE Computer Society. Pp.:
172-178. Nov. 2006
[13]
Pedriycz, W. Why Triangular Membership Functions?,
IEEE Trans. Fuzzy Sets and System, vol. 64, pp.21-30,
1994.
Planeamiento de caminos y trayectorias mediante
algoritmos genéticos y campos de potencial para
un robot móvil
Diego A. Tibaduiza Burgos
MSc. en Ingeniería área Electrónica,
Universidad Industrial de Santander
Investigador Grupo CEMOS,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Jaime G. Barrero Pérez
MSc. en Potencia eléctrica,
Universidad Industrial de Santander
Docente Tiempo Completo, Investigador Grupo CEMOS,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Roberto Martínez Ángel
PhD en Ingeniería
Universidad Industrial de Santander
Docente Emérito, Investigador Grupo CEMOS,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Resumen— El planeamiento de caminos y la generación
de trayectorias son dos aspectos relevantes al momento
de dotar a un robot móvil de independencia para su movimiento en un espacio de trabajo. La utilidad de estas
técnicas radica en la inclusión de variables como el tipo
de sensores usados, la configuración física del robot y
su entorno, este último, puede ser fijo o cambiante entre otros aspectos, con las cuales es posible obtener
soluciones que brindan robustez al trabajo de dotar de
autonomía a los robots.
algorithms for obtaining the paths. For the evaluation
of the strategies was designed a platform that include
an artificial vision system, wireless communication and
mobile robots with differential configuration.
En este artículo se presentan dos algoritmos para el
planeamiento de caminos en un robot móvil de configuración diferencial, aunque como se verá es posible generalizarse a otras configuraciones. La primera de estas
técnicas está basada en una emulación de la metodología conocida como campos de potencial y la segunda
hace uso de los algoritmos genéticos para la obtención
de los caminos. En la evaluación de las estrategias planteadas se muestran los resultados de la implementación en software basadas en un entorno físico en el que
interactúan un sistema de visión artificial, transmisión
inalámbrica y uso de robots móviles tipo diferencial.
La robótica es un campo de amplias perspectivas para el desarrollo industrial que en un tiempo
relativamente corto, podría permitir a los países en
desarrollo apropiarse de técnicas que los hagan
más competitivos. En este sentido las universidades por medio de sus centros de investigación juegan un papel importante tanto en el desarrollo de
prototipos como de algoritmos. De manera general,
a nivel industrial, el concepto de robot se aplica en
mayor medida a los robots manipuladores que desde hace ya varios años realizan tareas en procesos
repetitivos que demuestran su eficacia en aspectos
tales como precisión, funcionamiento ininterrumpido y manejo de cargas de gran peso.
Otro tipo de robots un poco menos conocido pero cuya presencia y uso van en aumento,
lo constituyen los robots móviles autoguiados o
como son conocidos por sus siglas en inglés AGV
[1] [2] [3], los cuales son, entre muchas aplicaciones [4], capaces de mover elementos de gran
peso dentro de un entorno que puede ser cambiante.
Palabras clave— algoritmos genéticos, campos de potencial, planeamiento de caminos, robots móviles.
Abstract— The path planning and the trajectory generation are two important aspects for provide autonomy to
a mobile robot. Adding variables as the type of sensors
used, the physical configuration of the robot and its environment either fixed or changing and other is possible to
provide robust solutions that work to provide autonomy
to the robots. This article presents two algorithms for
path planning in a mobile robot with differential configuration, although as will be shown can be generalized
to other configurations. The first of these techniques is
based on an emulation of the methodology known as
potential fields and the second makes use of genetic
Keywords— Genetic algorithms, potential fields, path
planning, mobile robots.
I. INTRODUCCIÓN
Recibido: 01/09/2011/ Aceptado: 10/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192
184
IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192
En este artículo se presentan los resultados
obtenidos en una tesis de maestría [6], en la que
se implementaron dos algoritmos para el planeamiento de trayectorias de un robot móvil en
un ambiente cambiante. En esta plataforma se
en encuentra otro robot, el obstáculo móvil y la
presencia de varios obstáculos fijos. El objetivo
es llevar al móvil desde el punto origen hasta el
punto destino dentro del área de trabajo y evitar
todo tipo de colisiones. El lazo de realimentación
lo constituye una cámara de video que permite
determinar en todo instante la posición de los dos
robots y la de los obstáculos estacionarios.
II. PLANEAMIENTO DE TRAyECTORIAS
Una de las tareas más importantes en robótica móvil es el planeamiento de la trayectoria, ya
que esta le confiere al robot la capacidad de movimiento autónomo para ejecutar sus tareas.
La programación del movimiento del robot se
descompone en dos partes: el planeamiento de
caminos y la de trayectorias.
El planeamiento de caminos consiste en generar una ruta libre de colisiones en un ambiente con
obstáculos y su optimización con base en algún
criterio. El planeamiento puede realizarse off-line
cuando el ambiente es estático, es decir, cuando
el espacio de trabajo permanece sin variaciones
para toda la trayectoria, mientras que cuando el
espacio de trabajo cambia continuamente y obliga
al algoritmo a generar respuestas ante estos cambios la planificación debe realizarse on-line.
La planeación de trayectorias consiste en fijar
el movimiento de un robot móvil a lo largo de un
camino planeado. Existen numerosos métodos
para la planeación del movimiento de un robot
móvil en ambientes estacionarios, pero pocos se
han desarrollado para planeamiento del movimiento on-line en un escenario variante o en un
terreno desconocido. En este artículo se describen dos algoritmos para planeamiento on-line,
uno de ellos basado en algoritmos genéticos y el
otro en campos de potencial.
A.
Algoritmos genéticos
Los algoritmos genéticos forman parte de lo
que se conoce como inteligencia artificial, y están
fundamentados en la teoría de la evolución. Esta
se basa en los mecanismos de selección que uti-
liza la naturaleza, en donde los individuos más
fuertes de una población son los que sobreviven.
De la genética se sabe que la manera mediante la
cual estas adaptaciones al medio se transmiten
de un individuo a su descendencia son los genes;
los cuales son una estructura biológica que contiene información acerca del medio y las habilidades desarrolladas por sus ancestros.
La implementación de un algoritmo genético
simple implica tener presente características tales como la reproducción, cruce y mutación.
Para realizar estas etapas el algoritmo debe
ser codificado en cadenas que se llaman cromosomas, cada una conformada por elementos característicos denominados genes.
• Codificación
Si se piensa en una trayectoria, lo primero que
se debe realizar es acotarla en términos de sus
componentes fundamentales (genes). Para lograr
esta tarea se debe definir una codificación binaria, de forma tal que permita ordenar, como cromosomas, cualidades tales como su dirección en
el plano cartesiano y la distancia que le tomaría
para ir de un punto a otro.
Los cromosomas escogidos [16][17],[19] representan: monotonía de la trayectoria en x y y:
cromosoma a; dirección: cromosoma β; y distancia: cromosoma δ. La estrategia de codificación
de los genes para los cromosomas es la que se
observa en la Tabla I.
TABLA I
Codificación de cromosomas
Cromosoma
Codificación
Característica que representa
a
0
Monótono en x (Mx)
1
Monótono en Y (MY)
00
Vertical para Mx y horizontal para MY
01
Diagonal superior para Mx
Diagonal izquierda para
MY
10
Horizontal para Mx
Vertical para MY
11
Diagonal Inferior para Mx
Diagonal derecha para MY
β
δ
Según ecuación (1)
Fuente: [6],[17] y [19]
El número de genes del cromosoma δ, está
dado por la ecuación (1).
Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza,
Barrero, Martínez
1+ log2 N = GenesCromosomaˍδ
(1)
Donde N es el número de celdas que representen el territorio a cubrir por el robot móvil. Cada
pareja dirección-distancia, representa pasos de
distancia variable (parejas β - δ).
Cuando el cromosoma de dirección es codificado en “00” el cromosoma δ puede ser positivo o
negativo, es decir, el primer gen de este cromosoma es 0 para positivo o 1 para negativo.
Si es positivo y el individuo es Mx representará
una vertical positiva hacia arriba seguida de una
diagonal superior derecha, si es negativo representará una vertical hacia abajo seguida de una
diagonal inferior derecha.
Si es positivo y el individuo es MY representará
una horizontal positiva hacia la derecha seguida
de una diagonal inferior derecha, si es negativo
representará una horizontal negativa hacia la izquierda seguida de una diagonal inferior izquierda. La Figuras 1 y 2 muestran la distribución de
cada cromosoma.
FIG. 1. EJEMPLO DE TRAYECTORIA CODIFICADA
Fuente: [6], [19]
FIG. 2. MÉTODO DE CRUCE
Fuente: [6], [19]
185
B. Campos de Potencial
Esta metodología ha sido ampliamente aplicada en robótica durante varios años con éxito
[5],[6],[8-13]. Esencialmente, esta metodología
trata a todos los elementos del área de trabajo
como elementos sometidos a fuerzas de atracción y de repulsión.
El objetivo o punto de llegada se considera
como una carga o el polo de un imán con polaridad contraria a la del móvil, es decir, que tiene
una fuerza de atracción, mientras que los obstáculos se comportan como cargas o imanes de
igual polaridad que generan, por tanto, fuerzas de
repulsión. Con esta definición del área de trabajo,
se procede a llevar al móvil sobre el escenario según un gradiente hacia el objetivo y evita los obstáculos [13].
Normalmente esta metodología se realiza con
funciones que involucran el uso de funciones
gradientes, las cuales hay que programar en el
momento de su utilización y que deben estar de
acuerdo con las características propias de la aplicación. Como se verá la metodología que se propone en este artículo es una forma alternativa de
generar campos de potencial de manera simple y
de gran utilidad y que puede ser adaptable tanto
al planeamiento on-line como al off-line, sin necesidad de realizar cambios significativos en la programación, pues únicamente va a depender de
las coordenadas actuales o instantáneas de los
obstáculos. En este trabajo la obtención de las coordenadas sólo se va a ver afectada por el tiempo
de actualización de los datos obtenidos del procesamiento de las imágenes mediante el algoritmo
de visión artificial.
Para su implementación, es necesario tener en
cuenta las siguientes consideraciones:
• Existe una “discretización” del terreno.
• Cada punto de la pista se considera afectado
por un valor numérico que indica la relación
de este con el punto de llegada. De esta manera cada celda definida posee un potencial
que determina si la trayectoria puede pasar o
no por allí.
• De acuerdo a la distribución numérica asignada, la trayectoria se hace de acuerdo a un
potencial descendente
• El algoritmo puede ser on-line si se actualizan periódicamente los valores detectados,
186
IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192
por ejemplo, en esta investigación por una
cámara o puede ser off-line si se posee la información de la ubicación de los obstáculos
al comienzo del programa, con lo cual sólo va
a ser necesario generar un camino, sin tener
que revisar si algún obstáculo ha entrado en
la trayectoria planeada.
• El algoritmo es ajustable al área de trabajo.
Con esto se trata de generar algo de robustez
lo cual permite usar el mismo programa para
diferentes tamaños de pista. En este caso el
área de trabajo quedaría definida por las características del sistema de visión tales como
altura de la cámara y lentes usados.
En el caso de planeamiento on-line, la velocidad de actualización del algoritmo va a depender
del tiempo que demore la actualización de los datos de la pista, es decir, el tiempo de respuesta del
algoritmo de visión. También dependerá tanto del
lenguaje usado como de la velocidad de procesamiento del computador.
De manera general es posible realizar la implementación de esta metodología en 4 etapas. La
primera consiste en discretizar en una matriz el
área de trabajo y por tanto definir cada elemento
de la matriz como un espacio físico en la aplicación real, en esta etapa se ubican adicionalmente en la matriz elementos tales como obstáculos,
ubicación inicial del móvil y ubicación final, ver
Figura 3.
Como paso siguiente se genera el potencial
para el punto de llegada, para esto se empieza a
llenar la matriz de forma radial de tal forma que
si por ejemplo al punto de llegada se le asigna el
valor de “0” los elementos adjuntos en la matriz
tendrán un valor de “1”, los siguientes “2” y así
sucesivamente como se muestra en la Tabla II.
se usaron para rellenar el campo para el punto de
llegada (Tabla III).
TABLA III
Campo de potencial alrededor de un obstáculo
49
49
49
49
49
49
50
50
50
49
49
50
200
50
49
49
50
50
50
49
49
49
49
49
49
Fuente[6]
Para incluir los obstáculos es necesario tener
en cuenta las siguientes características:
El obstáculo posee un área efectiva propia de
sus dimensiones, a través de la cual no se puede
realizar una trayectoria porque habría colisión. En
el caso de la Tabla 3 el obstáculo se representa
con el número “200”.
Cuando el obstáculo tiene una forma irregular
se debe considerar una zona de riesgo (ver Tabla
3) para impedir que en el cálculo de la trayectoria
exista una trayectoria que pueda ocasionar una
colisión.
Otro tipo de zona de riesgo muy frecuente se
presenta cuando dos obstáculos están muy cerca
uno del otro. Existe la posibilidad de que el algoritmo genere una trayectoria que pase por entre los
obstáculos, sin tener en cuenta que las dimensiones del móvil no permitan realizar esta operación.
Si se desea que el móvil no se salga de un área
determinada, se deben definir como obstáculos
las orillas de la zona. En la Figura 3 se muestra
un ejemplo en el que se tiene la presencia de un
solo obstáculo.
FIG. 3. VISTA GENERAL DEL ÁREA DE TRABAJO
TABLA II
Potencial alrededor del punto de llegada
3
3
3
3
3
3
3
3
2
2
2
2
2
3
3
2
1
1
1
2
3
3
2
1
0
1
2
3
3
2
1
1
1
2
3
3
2
2
2
2
2
3
3
3
3
3
3
3
3
Fuente:[6]
Posteriormente se procede a ubicar los obstáculos en la matriz, para esto se usan valores diferentes y muy grandes en comparación a los que
Fuente:[6]
Finalmente, el movimiento se hace al mover el
móvil desde el punto de inicio al punto de llegada
y se evalúa cuál elemento de la matriz a su alrededor posee la menor magnitud.
Para probar esta estrategia, se desarrolló una
plataforma de pruebas, ver Figura 4, en la que se
Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza,
Barrero, Martínez
involucraron 2 robots móviles tipo diferencial [18],
ver Figura 5, uno de ellos para realizar el planeamiento y el otro utilizado como obstáculo y cuyo
movimiento se programó de manera aleatoria sobre el área de trabajo.
FIG. 4. PLATAFORMA DE PRUEBAS
Fuente:[6]
FIG. 5. ROBOTS MÓVILES USADOS
Las imágenes captadas por la cámara son digitalizadas mediante una tarjeta de compresión de video PCI de 32 bits DFG/Compress y posteriormente procesadas mediante un algoritmo de visión
artificial, el cual permite determinar la posición de
cada objeto dentro de la pista. Estas coordenadas
son enviadas a los algoritmos de planificación
para el cálculo de las trayectorias.
• Método basado en Color
Los algoritmos de detección y segmentación de
movimiento basados en el reconocimiento del color,
distinguen el color de los objetos de interés presentes en la escena para realizar su segmentación.
Se implementaron dos modelos de color el
xyY y HLS [14] para realizar la detección [6], [15],
[20]. La principal razón para elegir estos modelos radica en que tanto la información cromática
como la de brillo son separadas en componentes
distintas, lo cual hace a estos modelos robustos
ante los cambios de iluminación que se presenten en el escenario. Además, al realizar detección
solamente en las componentes que contienen la
información cromática, el tiempo en la segmentación disminuye, lo cual disminuye también el tiempo total de procesamiento.
De manera general la metodología para el cálculo de los objetos en la escena se muestra en la
Figura 7.
FIG. 7. DIAGRAMA DE FLUJO PARA EL ALGORITMO DE COLOR
Fuente:[6]
La plataforma usada es de madera y fue pintada con color negro mate para evitar brillos o sombras que puedan dar falsas lecturas al algoritmo
de visión artificial (ver Figura 6).
FIG. 6. VISTA DEL ÁREA DE TRABAJO
Fuente:[6]
Para determinar la posición y orientación de
los robots y los obstáculos se utilizó una cámara
ubicada dos metros por encima de la plataforma
de madera para cubrir todo el entorno de trabajo.
187
Fuente:[6]
188
IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192
•
-Comunicación
La trayectoria calculada con los algoritmos
de planificación de trayectorias son codificadas
para su envío al móvil mediante radiofrecuencia
[6],[18]. Se usan paquetes de 8 bits, 3 para definir la dirección y 8 para definir la distancia movilizada (ver Tabla IV).
FIG. 9. CAMINO ExITOSO SIN ZONAS DE RIESGO EN LOS OBSTÁCULOS
III. RESULTADOS OBTENIDOS
A continuación se presentan algunos de los resultados obtenidos mediante los algoritmos desarrollados y que fueron ejecutados en la plataforma
de pruebas.
A. Planeamiento con Algoritmos Genéticos
En las Figuras 8, 9 y 10 se presenta una serie
de trayectorias generadas por el Algoritmo Genético con 3 obstáculos en diferentes posiciones y
con diferentes tamaños de matriz para la emulación del área física de trabajo.
Fuente:[6],[19]
FIG. 10. CAMINO ExITOSO CON GRILLA DE 32 CELDAS, CONSIDERANDO
ZONAS DE RIESGO, GENERACIÓN 205
TABLA IV
Codificación para el envío por radiofrecuencia
Byte
Descripción
000xxxxx
Horizontal derecha
001xxxxx
Diagonal inferior derecha
010xxxxx
Vertical inferior
011xxxxx
Diagonal inferior izquierda
100xxxxx
Horizontal izquierda
B. Planeamiento con Campos de Potencial
101xxxxx
Diagonal superior izquierda
110xxxxx
Vertical superior
111xxxxx
Diagonal superior derecha
Para el algoritmo de campos de potencial se
presenta en las Figuras 11, 12 y 13 los resultados
al incrementar el número de los obstáculos desde
1 hasta 6. En este caso el tamaño del área de trabajo se mantuvo constante.
Fuente:[6]
FIG. 8. CAMINO ExITOSO SIN ZONAS DE RIESGO EN LOS OBSTÁCULOS,
GENERACIÓN 20
Fuente:[6],[19]
Fuente:[6],[19]
FIG. 11. ALGORITMO DE CAMPOS DE POTENCIAL CON UN OBSTÁCULO
Fuente:[6]
Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza,
Barrero, Martínez
FIG. 12. ALGORITMO DE CAMPOS DE POTENCIAL CON TRES OBSTÁCULOS
Fuente:[6]
FIG. 13. ALGORITMO DE CAMPOS DE POTENCIAL CON SEIS OBSTÁCULOS
189
el número de generaciones y el tiempo de cálculo
computacional. Esta relación permite usar el algoritmo genético en escenarios on-line para permitir
una respuesta adecuada que permita al móvil responder ante cambios en el espacio de trabajo. En
este sentido, encontrar la mejor trayectoria suele
requerir en algunos casos de elevados tiempos de
procesado (del orden de minutos), mientras que
campos de potencial requiere siempre el mismo
tiempo de procesado para una configuración de
espacio de trabajo definida.
Finalmente, para realizar una comparación
entre las trayectorias obtenidas con los dos algoritmos se muestra en la Figura 14 el resultado
de los algoritmos para una configuración con tres
obstáculos. Como puede observarse, ambos algoritmos logran ir de la posición de inicio a la posición final esquivando los obstáculos. La diferencia
radica en el número de pasos definidos para llegar al objetivo, en este caso en particular campos
de potencial presenta una trayectoria más corta.
FIG. 14. PLANEAMIENTO CON LOS DOS ALGORITMOS PARA UNAS MISMAS
CONDICIONES DE ENTORNO (EN ROJO: CAMPOS DE POTENCIAL, EN
NEGRO: ALGORITMOS GENÉTICOS)
Fuente:[6]
C. Análisis comparativo de los algoritmos
Como pudo apreciarse en las Figuras anteriores, ambos algoritmos permiten realizar el planeamiento de trayectorias de manera satisfactoria. Al
comparar las dos técnicas se pueden resaltar los
siguientes aspectos, el primero de ellos tiene que
ver con la repetitividad de la trayectoria obtenida.
Este aspecto es bastante relevante puesto que,
por ejemplo, para el caso de un área de trabajo estática es posible obtener siempre la misma
trayectoria mediante el algoritmo de campos de
potencial acá presentado, mientras que con algoritmos genéticos dada la aleatoriedad del proceso
se tienen resultados diferentes cada vez que se
calcula la trayectoria con los mismos parámetros
de entrada. El resultado, a su vez, depende de la
configuración que se defina en los parámetros
del algoritmo genético, obteniéndose trayectorias
aceptables en diferentes números de generaciones para cada ejecución del programa.
Otro aspecto relevante corresponde al tiempo
de cálculo de la trayectoria. En el caso del algoritmo genético se debe buscar un equilibrio entre
Fuente:[6]
IV. TIEMPO DE LATENCIA
Puesto que los algoritmos planteados para el
caso de los entornos dinámicos recalculan la trayectoria de acuerdo a los cambios que se encuentren en el espacio de trabajo, es importante, para
mostrar la viabilidad de su implementación, tener
en cuenta los tiempos de procesamiento tanto del
sistema de visión artificial como el de los algorit-
190
IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192
mos de transmisión inalámbrica serial, ver Tablas
V, VI y VII.
Los datos de la Tabla V, VI y VII fueron obtenidos mediante un PC con las siguientes características:
Sistema Operativo: Microsoft Windows xP Profesional versión 2002.
Procesador: Pentium 4 de 1.50 Ghz.
Memoria RAM: 256 MB.
Para valorar los tiempos de ejecución de los
programas basados en algoritmos genéticos y en
campos de potencial en encontrar una trayectoria
aceptable antes de su envío al robot móvil, se realizaron once ejecuciones de los algoritmos bajo
las mismas condiciones. Las Tablas VI y VII muestran estos tiempos.
TABLA V
Tiempo de latencia del sistema de visión artificial
Método
Correlación
Tiempo
de latencia (s)
xyy
Gradientes
xyy
hLS
hLS
xyy
hLS
Adquisición
0.0735
0.0735
0.0735
0.0735
0.0735
0.0735
Procesamiento
0.8108
0.3018
0.9926
0.1661
0.7742
0.3000
Total
0.8821
0.3748
1.0643
0.2429
0.8515
0.3712
Fuente:[6],[20]
TABLA VI
Tiempos computacionales para el a.g.
TIEMPO POR GENERACIÓN EN SEGUNDOS
TIEMPO TOTAL PARA OBTENER UNA RESPUESTA ÓPTIMA EN
SEGUNDOS
0.054
9.2
0.0071
4.3
0.0069
2
0.0067
4.7
0.0058
12.2
0.0063
5.1
0.0078
0.8
0.0076
4.6
0.0063
9.6
0.0065
7.9
0.0062
11.2
Fuente:[6],[19]
TABLA VII
Tiempos computacionales para campos de potencial
TIEMPO TOTAL PARA OBTENER UNA RESPUESTA
ÓPTIMA EN SEGUNDOS
3.2
Fuente:[6]
Como puede verse en las Tablas, los tiempos
de cálculo son relativamente altos y según la apli-
cación podrían detectar a tiempo si hay algún obstáculo en la trayectoria y recalcularla para llevar al
móvil a su objetivo final.
V. CONCLUSIONES
Los algoritmos implementados, presentan
buenos resultados en la búsqueda de trayectorias
libres de colisión en un ambiente de trabajo previamente definido. Para esto la plataforma desa-
Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza,
Barrero, Martínez
rrollada y el algoritmo de visión jugaron un papel
fundamental permitiendo comprobar que físicamente es posible implementar estos algoritmos
y trabajar con ellos de manera on-line y off-line
como se mostró con los tiempos de latencia.
El planeamiento con algoritmos genéticos
dados su función de coste y la forma como se
codifica la trayectoria brinda excelentes resultados aunque estos no siempre se obtienen en
la misma generación. Debido a su naturaleza
aleatoria, el número de iteraciones necesarios
para encontrar una solución no sólo es diferente,
incluso para el mismo escenario, sino impredecible, razón por la cual esta técnica no sería la
más adecuada, especialmente si la velocidad del
obstáculo móvil es elevada.
Por otra parte, el planeamiento de trayectorias basado en campos de potencial es una alternativa sencilla y eficiente, que aunque, en esta
investigación, no usó métodos de optimización
para encontrar la mejor trayectoria, si permite
por su simplicidad una rápida y fácil implementación. Únicamente es necesario asignar unos
pesos a toda el área de trabajo para seguir las
celdas con valores numéricos más pequeños y
encontrar el punto de llegada.
Es posible ejecutar el programa de planeamiento de trayectorias de campos de potencial
para ambientes estáticos o para ambientes dinámicos, lo único que cambia en el algoritmo es
la velocidad en la actualización de los datos y la
velocidad del procesamiento por parte de los
sensores.
El tamaño de la pista, el número de obstáculos, el punto de inicio y de llegada son ajustables
en ambos algoritmos, lo que los hace más robustos y adaptables a cualquier terreno 2D.
El usar zonas de riesgo en ambos algoritmos
permitió que las trayectorias obtenidas manejaran una distancia con respecto a los obstáculos
para evitar choques. La trayectoria obtenida en
los dos algoritmos depende básicamente de la
definición de las zonas de riesgo y del tamaño
del móvil.
Es posible hacer que cada elemento de la
matriz represente un área dentro de la pista, así
como también para el caso de terrenos pequeños hacer que cada coordenada (x,y) corresponda a un elemento de la matriz.
191
Cada vez que se evalúa hacia dónde se va a
realizar el siguiente movimiento el algoritmo arroja la dirección para poder ser enviada al móvil
donde se interpretará y se ejecutará.
REFERENCIAS
[1]
Corecon AGV Systems. Disponible: http://www.coreconagvs.com/index.php. Consultada: Septiembre 30
de 2011.
[2]
AMERDEN Inc. Disponible http://amerden.com/index.html. Consultada: Septiembre 30 de 2011
[3]
Robótica de Servicios. Disponible: http://www.roboticadeservicios.com/robots_transporte.html. Consultada: Septiembre 30 de 2011.
[4]
BBC News. Disponible: http://www.bbc. co.uk/
news/10344849. Consultada: Septiembre 30 de
2011.
[5]
D.A. Tibaduiza, M. Anaya. “Campos de Potencial aplicados al planeamiento de caminos en robots móviles”. Revista de Ingeniería. Vol. 1 No. 3, Ene 2007.
[6]
D.A. Tibaduiza. “Planeamiento de Trayectorias de un
robot móvil”. Trabajo de investigación de maestría.
Directores: R. M. ´Ángel, J. Barrero. Universidad Industrial de Santander. 2006.
[7]
Anibal Ollero Baturone, Robótica, Manipuladores y robots móviles. Alfaomega, Marcombo, 2001.
[8]
R. Daily, D.M. Bevly. “Harmonic potential field path
planning for high speed vehicles”. Proceedings of
American Control Conference, 2008. Seatle, WA. ISSN:
0743-1619.
[9]
C.W. Warren. “Global path planning using artificial potential fields”. Proceedings of IEEE International Conference on Robotics and Automation, 1989. Pp. 316319. ISBN: 0-8186-1938-4.
[10]
H. xiaoxi. “Path Planning Based on Grid-Potential
Fields”. Proceedings of International Conference on
Computer Science and Software Engineering. 2008.
Pp. 1114-1116.
[11]
Paul A. Vallejos, Javier Ruiz-del-Solar, Alan Duvost.
“Cooperative Strategy using Dynamic Role Assignment
and Potential Fields Path Planning”. Proceedings of the
1st IEEE Latin American Robotics Symposium – LARS
2004, Mexico City, Mexico. October 28 – 29, 2004.
[12]
Laue, T., Röfer, T. (2005). Behavior Architecture for Autonomous Mobile Robots Based on Potential Fields”.
In: 8th International Workshop on RoboCup 2004 (Robot World Cup SoccerGames and Conferences), Lecture Notes in Artificial Intelligence. Springer, im Erscheinen.
192
IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192
[13]
D.A. Tibaduiza, N. Chio. “Metodologías de campos de
potencial para el planeamiento de trayectorias de Robots Móviles”. Revista Colombiana de Computación,
2008. Vol. 9. No. 2. Pp. 104-120.
[14]
G. Pajares, J. De la Cruz. “Visión por Computador: Imágenes Digitales y Aplicaciones”. Editorial Alfaomega.
2002
[15]
D.A. Tibaduiza, R.M Ángel, Y. D. Amaya, J. Ruiz. “Localización Dinámica de Móviles y Obstáculos para Aplicaciones en Robótica”. Revista Colombiana de Computación. Vol. 8 No. 1. Pp. 93-120.
[16]
K. Suguihara, J. Smith. “Genetic Algorithms for Adaptative motion planning of an autonomous mobile robot”.
Proceedings of IEEE International Symposium on Computational Intelligence in Robotics and Automation.
1997.
[17]
K. Suguihara, J. Smith. “Genetic Algorithms for Adaptative Planning of Path and Trajectory of a Mobile Robot
in 2D Terrain”. IEICE Transactions on Information and
Systems. Vol. E82-D No. 1 pp. 309-317. 1999.
[18]
C. H. Torres, E. Y. Mendoza. Control de dos móviles en
un entorno dinámico. Trabajo de grado, Directores:
R. M. Ángel, D.A. Tibaduiza. Universidad Industrial de
Santander. 2006.
[19]
O. Navas, J. N. Ortiz. Algoritmos genéticos aplicados al
planeamiento de trayectorias de un robot móvil. Trabajo de grado. Directores: R.M. Ángel, D.A. Tibaduiza.
Universidad Industrial de Santander, 2006.
[20]
Y. Amaya, J. Ruiz. Localización Dinámica de Móviles y
Obstáculos para Aplicaciones en Robótica. Trabajo de
grado. Directores: R.M. Ángel, D.A. Tibaduiza. Universidad Industrial de Santander, 2005.
Validación de la herramienta CellGis para simular
propagación de ondas de radio en redes de
telefonía celular
Aura Liliana Beltrán Blanco
Ingeniera Electrónica
Universidad Industrial de Santander
Investigadora grupo RadioGIS UIS
Bucaramanga, Colombia
[email protected]
homero Ortega Boada
Ph.D. of Engineering Sciences
Kyiv International University of Civil Aviation, Ucrania,
Profesor Titular Universidad Industrial de Santander
Bucaramanga, Colombia
[email protected]
Celso Andrés Forero F.
M.Sc.(c) Ingeniería área electrónica
Universidad Industrial de Santander
Investigador grupo RadioGIS UIS
Bucaramanga, Colombia
[email protected]
César Camilo Rodríguez S.
M.Sc.(c) Ingeniería área electrónica
Universidad Industrial de Santander
Investigador grupo RadioGIS UIS
Bucaramanga, Colombia
[email protected]
Resumen— Una de las principales necesidades, actualmente en Colombia, tiene lugar en el proceso de planeación de redes inalámbricas, por lo cual mediante el
proyecto Gisgerram se busca crear un servicio de telecomunicaciones que permita la planificación de redes
de antenas celulares a través de un servidor remoto. Sin
embargo, para poder lograrlo es necesaria primero la
verificación de las herramientas que serán usadas para
este servicio. Dentro de este macroproyecto se desarrolló el CellGis, en este artículo se describe la validación
de dicha herramienta en la región andina, mediante la
ejecución de campañas de medición real de potencia en
4 zonas de Bucaramanga, y el contraste con las simulaciones arrojadas por CellGis con el fin de analizar el funcionamiento del simulador de radiopropagación con el
algoritmo AndinoUis implementado, lo cual permitió la
deducción de falencias. De esta forma, se realizaron las
modificaciones necesarias para la correcta utilización
del patrón de radiación, mediante las mediciones se determinaron algunos efectos que el algoritmo no tiene en
cuenta, de forma que en trabajos futuros se puedan programar e implementar nuevos algoritmos que incluyan
dichos factores. Paralelamente, se tomaron mediciones
de radiación no ionizante en diferentes zonas de Bucaramanga, y posteriormente se verificaron los valores obtenidos con las normas que regulan la exposición con el
fin de comprobar su debido cumplimiento.
this article describes the validation of that tool in the andina region, measurement campaigns were conducted
in 4 bucaramanga’s zones, and by comparing them with
the simulations in cellgis ,the functioning of the stimulator of the radio propagation was analyzed with the implemented andinouis algorithm, where the shortcomings
were detected and the adjustments were made through
plugin-improvements, so that the algorithms which include the described factors could be programmed and
implemented in future assignments, radiation measurements were conducted in some bucaramanga’s zones,
then the values obtained were were checked with the
rules governing the exposure, with the purpose of to verifying its compliance.
Palabras clave— CellGis, Modelo de Propagación AndinoUIS, Radiación no Ionizante, Radio propagación, Servicio de Telecomunicaciones.
Abstract— One of the principal needs nowadays in colombia is in the field of wireless network planning, given
this situation the gisgerram project has the aim to create a telecommunications service that allows network
planning from cellular antennas via a remote server,
however to be able to achieve this, it is necessary first
to verify the tools that will be used for this service. cellgis was developed within this macro-project , therefore,
Keywords— CellGis, Non-Ionizing Radiation, Propagation Model AndinoUIS, Radio propagation, Telecommunication Service.
INTRODUCCIÓN
Este artículo está motivado por un trabajo
realizado con el fin de implementar correctamente un algoritmo del modelo de propagación
AndinoUIS, desarrollado por el grupo RadioGis
de la Universidad Industrial de Santander [1],
[2], sobre la herramienta de planeación de redes
de radio denominada CellGis, desarrollada por el
grupo I2T de la Universidad ICESI [3]. El modelo
es un aporte a las simulaciones que se realizan
en las ciudades ubicadas en la región Andina, caracterizadas por un relieve montañoso. CellGis es
una herramienta que exige la implementación en
Java de los algoritmos para los modelos de propagación. Para el caso del modelo AndinoUIS, la
implementación en Java se describe en [4], cuyo
Recibido: 25/06/2011/ Aceptado: 04/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203
194
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203
trabajo referenciado no presenta una validación
completa con mediciones reales. Por esta razón,
se busca no sólo describir el modelo AndinoUIS,
su implementación sobre CellGis, sino también
su validación en una red real gracias al apoyo del
operador TIGO. Finalmente, se comprueba la viabilidad de usar el Algoritmo AndinoUIS dentro de
la herramienta CellGis.
La importancia de este trabajo es independiente de CellGis, ya que el algoritmo propuesto
puede implementarse en cualquier otra herramienta de simulación de radiopropagación. Se
describe el modelo AndinoUis, de igual forma,
se demuestra su validez y se brindan resultados
que reflejan lo que puede esperarse de su implementación para simular la radiopropagación en
ciudades con relieve ondulado como ocurre en la
región andina.
II. hERRAMIENTA CELLGIS
CellGis es una herramienta desarrollada en
el lenguaje Java y basada en Sistemas de Información Geográfica (GIS), que permite probar e
introducir diversos modelos de radiopropagación
para la simulación de coberturas de potencia
a partir de información geográfica que se carga digitalmente en un GIS. Es un sistema para
planificación de redes celulares que brinda al
usuario la posibilidad de generar un archivo de
proyecto con la configuración de la red celular.
Es totalmente transportable entre plataformas y
equipos donde esté instalado el sistema, ocupa
muy poco espacio en disco debido al uso del estándar ZIP16 que comprime los datos, y reduce
el tamaño de los archivos que genera. Durante
dos años, se ha trabajado en el proyecto CellGis,
la herramienta incorpora manejador de cartografía avanzado. Igualmente, se ha incorporado un
algoritmo para la estimación de niveles de radiación no ionizante, según la norma ITU-T K.52.
El principal objetivo de la aplicación es permitir al usuario crear una o varias redes de transmisores de comunicación inalámbrica representadas como puntos ubicados sobre un mapa; para
luego, por medio de algoritmos especiales que
representa a los modelos de propagación, predecir el nivel de señal originado por esta(s) red(es),
y desplegar los resultados gráficamente (Figura
1) o en forma de archivo.
FIG. 1. INTERFAZ HERRAMIENTA CELLGIS
EL MODELO ANDINOUIS
El modelo de propagación AndinoUIS es un
aporte del grupo RadioGis en cooperación con
el grupo I2T que combina el modelo COST231,
una modificación del modelo Walfisch-Ikegami
y elementos de la Teoría de Difracción Uniforme
(UTD) para tener en cuenta fenómenos particulares detectados en ciudades ubicadas en terreno
con ondulaciones, característico de ciudades de
la región andina. El nivel de predicción dado por el
modelo COST231-Walfisch-Ikegami es mejorado
según parámetros adicionales que consideran los
fenómenos de Difracción en la propagación establecidos en la Recomendación P. 526 de la Unión
Internacional de Telecomunicaciones (ITU).
A. Formulación del modelo AndinoUIS
Al igual que el COST231-Walfisch-Ikegami, el
modelo AndinoUis distingue entre situaciones de
línea de vista (LOS) y sin línea de vista (NLOS) [2].
•
Caso de LOS: En este caso la frecuencia y la
distancia son los parámetros importantes al
momento de calcular las pérdidas en el espacio libre, las distancias a considerar deben ser
mayores a 20m (d es expresada en Km y f en
MHz).
L(dB)=42.6+26log(d)+20log(f)
•
Caso de NLOS: En este caso el modelo tiene
en cuenta pérdidas por espacio libre (Lo),
pérdidas por difracción de múltiples filos de
cuchillo antes del techo del último edificio
(Lmsd), pérdidas ocasionadas por el techo
del último edificio y un proceso de dispersión
Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega,
Forero, Rodríguez
ocurrido a esta altura (Lrts) y pérdidas por difracción en los cruces de calles (Lcv).
195
La formulación UTD está dada por:
Lb=L0+Lrts+Lmsd para Lrts+Lmsd>0
En las pérdidas por espacio Libre (Lo) sólo es
relevante la frecuencia de transmisión y la distancia mínima entre transmisor-receptor.
B. Difracción de Convergencia de Vías:
Una convergencia de vías corresponde al área
de intercepción de dos calles/ carreras en un entorno urbano o un entorno formado por un conjunto de esquinas (Figura 2), el número de esquinas
lo determina la forma de la vía. Existen dos formas
básicas que son en forma de cruz (cuatro esquinas) o en forma de T (dos esquinas).
FIG 2. CONVERGENCIA DE VÍAS
eUTD: Magnitud de campo en el punto receptor
e0: Magnitud de campo de la fuente
S1: Distancia fuente a la esquina de difracción
S2: Distancia de esquina de difracción a punto
receptor
k: Número de onda
D║┴: Coeficiente de difracción.
La Teoría de la Difracción Uniforme proporciona una herramienta efectiva para predecir la
difracción en las convergencias de vías. Sin embargo, su implementación sólo se logra en programas de predicción basados en el trazado de
rayos (ray-tracing) como por ejemplo, el CRC- Predicts, dentro del modelo AndinoUis no puede ser
implementado a cabalidad. Por esta razón en el
desarrollo del modelo AndinoUis se establece un
replanteamiento de la forma básica de la formulación UTD, al considerar que se cuenta con una
herramienta de planificación que maneja base de
datos tipo Raster y que no se trabaja con determinado tipo de información como por ejemplo, las
propiedades eléctricas del material de construcción de los edificios.
Con esto se define:
Fuente [2].
Para modelar el comportamiento de la señal
en dichas áreas, se parte del análisis de Difracción en esquinas establecido por la Teoría de Difracción Uniforme (UTD), como se observa en la
Figura 3. En esta figura se evidencia la geometría
que se tiene en cuenta para los cálculos del campo en el punto receptor.
FIG. 3. GEOMETRÍA BÁSICA DE DIFRACCIÓN EN ESQUINAS
Fuente [2]
C. Moldeamiento del terreno
Para realizar el modelamiento de un entorno
debemos tener en cuenta la disposición de los
obstáculos a lo largo de las trayectorias o rutas
de la línea directa entre transmisor y receptor,
se caracteriza de la mejor manera el impacto
que ocasiona en factor del desvanecimiento
de la magnitud de la señal. Para calcular las
pérdidas que ocasionan dichos obstáculos, se
suele idealizar su forma. En la radiopropagación
existen dos técnicas muy conocidas que son:
Difracción por filos de cuchillo y Difracción por
cilindros.
• Modelamiento del terreno mediante el Método de Difracción por Filo de Cuchillos:
196
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203
En esta aproximación, el obstáculo ya sea un
edificio o una prolongación del terreno (i.e. colina), es aproximado a un filo de cuchillo, es decir,
el obstáculo es considerado como media pantalla
absorbente, tal como se muestra en la Figura 4. El
mecanismo de difracción en este tipo de elementos representa un caso particular de la difracción
por filos y esquinas.
FIG. 4. MÉTODO DE DIFRACCIÓN POR FILOS DE CUCHILLO
en un error significativo. Por tanto, se plantea la
aplicación de la difracción por múltiple filo de
cuchillos y se referencian las alturas de los obstáculos respecto al receptor, aplicándolas en el
modelo Andino UIS, quien presenta variaciones
en las fórrmulas del modelo COST231-WalfischIkegami, quien fue planteado basándose en la
aplicación de la difracción por filos de cuchillo
[2].
IV. DESCRIPCIÓN DEL PROCESO DE
VALIDACIÓN DE CELLGIS
Fuente [2]
Existen varias aproximaciones de filos de cuchillos, entre ellas se destaca el método de Deygout,
la corrección de Causebrook y el método de Giovanelli [6]. Sin embargo, para calcular las pérdidas por propagación sobre un entorno de terreno
irregular, se suele emplear análisis de difracción
múltiple mediante la Integral para Múltiples Filos
de Cuchillos Difractores, empleada también en
el desarrollo de otros modelos de propagación,
por ejemplo, el modelo Walfisch-Bertoni y el ya
mencionado modelo COST231-Walfisch-Ikegami
[7],[8].
D. Consideraciones planteadas por el Modelo
Andino UIS
Las características de la topografía presente
en nuestra región conduce al algoritmo a tener
en cuenta las irregularidades del terreno. Los
sistemas Outdoor de microceldas diseñados
para zonas urbanas poseen radios de cobertura
menor de un km de distancia y al ubicarnos en
una zona urbana, encontramos una densidad
de edificios bastante considerable, a esto se
le suma las características del terreno, lo que
representa obstáculos entre la línea de vista
(LOS) del transmisor y el receptor.
Al considerar lo anterior se puede decir que
la predicción de las pérdidas de propagación
son establecidas por una altura promedio de los
obstáculos como se establece en los análisis
presentados por Lee en donde se plantea que
las variaciones de terreno dentro de un área
menor a un km puede ser omitidas sin incurrir
Los procesos de validación son sistemas de
aseguramiento de la calidad mediante los cuales se demuestra si un proceso conduce a resultados consistentes dentro de las especificaciones predeterminadas. El proceso de validación
se lleva a cabo mediante sub-procesos:
Se inicia con las actividades de pre-validación las cuales consisten en la recopilación de
la información relacionada con el proceso, se
determina la instrumentación que se va a utilizar y luego se define la metodología aplicada.
Posteriormente se efectúa el desarrollo de
la validación, durante esta fase se recopilan las
muestras de niveles de potencia y se obtienen
las simulaciones respectivas para poder hacer
los análisis correspondientes.
Finalmente se da un concepto de aceptación
o rechazo, así como conclusiones y las recomendaciones, para realizar ajustes en caso de
que exista la necesidad.
V. ACTIVIDADES DE PRE-VALIDACIÓN y
DEFINICIÓN DE VARIABLES DE INTERéS
A. Selección de la instrumentación medición
espectro
En las campañas de medición realizada se
hace uso de diferente instrumentación:
Para las dos primeras zonas se dispuso del
equipo de Drive Test con el que cuenta la Universidad Industrial de Santander que está compuesto por: Analizador de Espectros R&S ZVL6,
receptor GPS, par de antenas omnidireccionales modelo HG1911U-PRO con 11 [dBi], generador de señales ROHDE&SCHWARZ. Como se
visualiza en la Figura 5.
Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega,
Forero, Rodríguez
FIG. 5. EQUIPOS DE MEDICIÓN
Sin embargo, con el fin de minimizar errores
en los valores, y gracias al apoyo de la empresa TIGO, se trazaron dos rutas más con software de alta calidad prestados por la empresa.
B. Metodología de medición espectro
•
•
•
•
Se basa en las recomendaciones UIT y IEEE.
Selección de Equipos: Se basó tanto en la
facilidad de su préstamo como en la necesidad de medición requerida.
Elección de las zonas: Para las dos primeras zonas medidas, debido a que se genera
la señal en la banda de telefonía móvil, se
requirieron zonas en donde al generar la
seña existiera las características necesarias para que la antena irradie de forma correcta. Para la zona 3 y 4 se hizo basados
en la información de antenas Tigo suministradas por la empresa. Para la elección de
zonas se tienen en cuenta variables como:
accesibilidad, disponibilidad de datos de la
antena transmisora, tipo de terreno, entre
otras.
Definición del Plan de Medición: Se seleccionan los parámetros más relevantes para
el Drive Test a realizar como cantidad de
estaciones a medir, Frecuencia Central,
Span, RVW, otros.
Ejecución de la campaña de medición: Se
realiza la instalación y conexión de equipos
en el vehículo, luego la revisión de carga de
batería de los instrumentos y finalmente a
la ejecución de las mediciones como tal.
197
C. Variables de Interés
Entre el transmisor y el receptor, el canal inalámbrico se modela mediante varios parámetros
claves, los que tienen relevancia en este trabajo
son: tipo de terreno, climatología de la zona, altura de las antenas, obstáculos, PIRE, patrón de
radiación de las antenas, entorno topográfico. La
altura de los obstáculos en función de la posición
del receptor es el parámetro que implica que la
primera zona de Fresnel sea o no obstruida, de
esto depende que existan o no pérdidas considerables en la intensidad de campo.
Según los análisis presentados por Lee, las
variaciones del terreno dentro de un área menor a un km pueden ser omitidas sin incurrir en
grandes rangos de errores. Así, las áreas han sido
previamente seleccionadas de manera que cumplan con las características necesarias para poner a prueba la efectividad de la herramienta con
el modelo AndinoUis. Se seleccionaron para ello
zonas urbanas sobre colinas, zonas de densidad
urbana con clara definición de convergencias de
vías, aledañas a parques y con gran arborización,
entre otras.
VI. DESARROLLO DE LA VALIDACIÓN
A. Mediciones de espectro en la banda de
telefonía
En este tópico se tiene gran interés por tener
datos confiables de los resultados obtenidos de
una medición, mitigar los errores que puedan existir en la toma de la medida y garantizar la repetitividad de la variable en cuestión. Por lo tanto, para
eliminar los efectos de desvanecimientos rápidos
se determina el nivel de señal recibido mediante
el promedio de al menos dos mediciones sobre
un mismo sector en diferente día y horario.
El sistema completo es compuesto por 4 estaciones base ubicadas en puntos específicos de la
Ciudad de Bucaramanga: San Francisco, La Concordia, Sotomayor y el Prado abarcando diferentes
tipos de terreno. A lo largo de las dos primeras zonas se genera una señal portadora, por medio de
un generador de señales a una frecuencia dada,
dentro de la banda de telefonía y con determinada potencia, conectado a una antena que servirá
de transmisora, al mismo tiempo, en un vehículo
dotado con el analizador de espectros y una an-
198
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203
tena receptora se hace un recorrido con el fin
de capturar la señal en diferentes sitios. Con
la información aportada por el operador de telefonía móvil TIGO de las antenas ubicadas en
algunos sectores de Bucaramanga, se realizó
un estudio en otros dos sectores de la ciudad
en la banda de telefonía del operador.
Es importante tener en cuenta que los valores arrojados por el analizador de espectros
no pueden ser contrastados directamente con
las simulaciones que se realizan, pues el dato
que se toma del analizador ya ha pasado tanto
por la antena como por el cable que conecta
dicha antena al analizador, y nuestro interés radica en conocer la potencia antes de la antena
receptora. Por lo tanto, es necesario aplicar la
siguiente aproximación:
Para generar la simulación deben crearse los
enlaces o sites, en los cuales debemos aportar información de las alturas tanto de la antera transmisora como receptora. Posteriormente, se crean
los sectores pertenecientes a cada site, cada sector nos pedirá el pire en [dBm], la frecuencia en
[MHZ], es decir, un sector contiene la información
del transmisor. Posteriormente se adiciona un
site, es decir se selecciona el lugar donde será localizada la estación base.
Para planificar correctamente las redes de
celular mediante Cellgis es necesario contar con
gran cantidad de información específica de las antenas, como lo son altura de la antena, altura de
la torre, referencia de la antena, pire, ganancia,
azimut y tilt, entre otras.
FIG. 6. VISUALIZACIÓN DEL VALOR DE POTENCIA
Valor real = Valor medido - Ganancia antena
+ Pédidas del cable
En una fase previa de caracterización de las
antenas y de los cables utilizados se generó
una tabla de correspondencia entre frecuencia
y pérdidas de cable. Para la banda de telefonía
móvil se encontró que dichas pérdidas son de
0,47 [dB]. La ganancia de la antena que debe
tenerse en cuenta al momento de realizar el
cálculo del enlace en nuestro caso fue de 11
[dBi]. Para las zonas 3 y 4 en donde se midieron las antenas de Tigo, lo relevante eran las
pérdidas In Car (por el uso de un auto) de 6
[dBm].
B. Simulación de espectro
Las simulaciones se efectúan sobre un mapa
ráster de la ciudad de Bucaramanga de tipo
ASCII. CellGis cuenta por defecto un patrón de
radiación Isotrópico, que modela una antena
ideal que radia potencia con ganancia unitaria
uniforme en todas las direcciones, sin embargo,
se sabe que las antenas utilizadas en la práctica no son isotrópicas, por lo cual se decidió
mejorar la versión con que se inició el proyecto y realizar una modificación para integrar el
patrón de radiación de la antena. Tal como se
muestra en la Figura 6, la interfaz gráfica de
CellGis en su parte inferior izquierda, muestra
las coordenadas en unidades UTM-Bogotá y la
potencia en el punto.
Para el proyecto fueron usados dos patrones
de radiación diferente de la siguiente forma:
• San Francisco y La Concordia: Antena Omnidireccional
• Sotomayor y El Prado: Antena de Polarización
Cruz 65 referencia 742 212/ APx18 de Kathrein Mobilcom Brasil.
Así se crearon modelos de los dos tipos de antenas que se usaron en este proyecto en forma de
un archivo de 360 filas por 90 columnas en el que
cada celda tiene información específica.
El análisis que se describe a continuación se
soportó en dos tipos de simulaciones, una con
el patrón de antena que viene por defecto en el
CellGis (Isotrópica) y otra con el patrón real de la
antena. Esto con el fin de comprobar que el AndinoUis presenta mejores resultados en la práctica
que los descritos en trabajos anteriores
C. Análisis
Se realiza el análisis comparativo tanto gráfico
como estadístico de los resultados de la cobertu-
Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega,
Forero, Rodríguez
ra generada en las respectivas simulaciones y las
mediciones tomadas. El modelo de propagación
se experimentó en las frecuencias de la banda de
telefonía móvil, alrededor de 1900 [MHz], por ser
la banda de TIGO. La cantidad de muestras recolectadas tanto en simulación como en mediciones
de campo son bastante extensas, por esta razón
sólo se comentan los datos más relevantes y los
que surgen de su análisis. Se utilizaron cerca de
10.104 puntos de medición, cada medición ejecutada en dos diferentes jornadas.
Para cada uno de los sectores se realiza un
estudio estadístico que implica un análisis de
varianza. En este caso el estudio realizado es el
ANOVA mediante el cual se puede corroborar si los
valores obtenidos experimentalmente y los simulados varían significativamente, de igual forma se
procedió a obtener la diferencia entre las mediciones y las simulaciones. El análisis ANOVA para las
4 zonas arrojó resultados similares que corroboró
las capacidades de la herramienta CellGis para simular niveles de potencia en la zona andina, mediante el algoritmo AndinoUis.
• Con el fin de valorar el efecto de la implementación de los patrones de radiación desarrollada en este trabajo, se realizaron validaciones de dos tipos:
• Validación tipo 1: se usa el patrón de radiación que trae el CellGis por defecto, es decir,
Isotrópico.
• Validación tipo 2: Se usa el patrón real de la
antena introducido como parte del trabajo desarrollado.
1) Zona 1 San Francisco:
Es importante destacar que una de las características propias de la zona y las 5 rutas realizadas para este Barrio, fue contar con condiciones
topográficas casi uniformes (terreno semiplano),
casi todo el trayecto contaba con Línea de Vista
(LOS) hacia la estación Base BS1, debido a la
poca presencia de edificios, es un sector de gran
recurrencia pues encontramos cerca una iglesia y
lugares públicos. En esta primer zona se trabajó
con una señal controlada, emitida por un generador de señales ubicado en la azotea de un edificio
de 5 pisos, la frecuencia de la portadora seleccionada es 1.9 Ghz con una potencia de 25 dBm.
Fueron usadas las antenas omnidireccionales. La
antena es modelo HG1911U-PRO, de propiedad
199
de RadioGis y presenta el patrón de radiación
mostrado en la Figura 7.
FIG. 7. ZONA SAN FRANCISCO. PATRÓN DE RADIACIÓN
Para la validación de tipo 1, estadísticamente
se encontró una diferencia máxima entre mediciones y simulación de 49,04 [dBm] y una diferencia promedio de 14,69 [dBm]. Estos valores nos
indican que la simulación no cumple su objetivo,
ni se modela de forma correcta el canal inalámbrico. En el caso de la validación tipo 2, se obtuvo
una alta similitud entre resultados de simulación
y de mediciones como se observa en la Figura 8.
Al comparar la validación tipo 1 con la validación
tipo 2, mediante desviaciones estándar, se pasa
de un error del 84,454% a uno de 4,331%, lo que
representa una mejora que además valida el funcionamiento de la herramienta con el algoritmo
AndinoUis en esta zona. La desviación estándar
en este proyecto cobra gran importancia, ya que
representa el alejamiento de los datos tanto de
medición como de simulación con respecto a su
valor medio. La diferencia entre las desviaciones
de los datos de medición y los de simulación con
la validación tipo 2, es de 0,265 con lo que se
demuestra la eficacia del algoritmo.
FIG. 8. ZONA SAN FRANCISCO. VALIDACIÓN TIPO 2
Resulta importante destacar que en validación
tipo 2 se obtuvo un coeficiente de correlación de
0,951, lo cual ratifica que se tiene una correla-
200
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203
ción positiva alta entre los resultados de simulación y de mediciones. La diferencia promedio
entre las mediciones y las simulaciones es de
2,765 [dBm].
2) Zona 2 La Concordia:
Esta zona fue seleccionada porque es un sitio
de gran concurrencia, y por tener diversos sitios
de comercio, por tanto, tenemos público expuesto a niveles de potencia por condiciones laborales, el barrio es un poco más pequeño que la
zona 1, también el terreno que se buscaba para
esta zona era más irregular y edificado. se contaba con trayectos tanto de línea de vista, como
sin línea de vista hacia la estación Base BS2 con
el fin de ver que tan acertado es el simulador
en ambos casos. También se genera la señal, el
generador ubicado en la terraza de un sexto piso,
la frecuencia de la portadora es 1.914 [Mhz] con
una potencia de 20 [dBm]. Al igual que en la
zona anterior se hizo uso de las antenas omnidireccionales, por lo cual el patrón de radiación es
exactamente el mismo.
Para la validación tipo 1, se puede resaltar el
hecho de que los valores de la simulación distan
significativamente de los datos experimentales,
por lo cual es claro que éste tipo de simulación
con antena isotrópica no es la más adecuada
para éste fin. Estadísticamente se obtiene la máxima diferencia de 68,99 [dBm] y un promedio de
37,90[dBm], valores inaceptables en términos de
planificación celular. En el caso de la validación
de tipo 2, se encontró, en términos generales, una
similitud entre mediciones y simulación. De todas
formas se encontraron puntos donde la diferencia
es un poco más notoria que en otros. En este sentido, cabe aclarar que la zona la Concordia, donde
se realizaron las mediciones, incluye rutas con terreno bastante irregular. Además, entre la antena
trasmisora y la antena receptora se presentaron
algunos edificios de alturas variables. Sin embargo, la tendencia de la simulación va acorde a la
de las mediciones realizadas. Los resultados se
aprecian en la Figura 9.
Estadísticamente la correlación entre las simulaciones y las mediciones es de 0,934, lo que
significa que ambas series de datos tienen una
relación muy estrecha con lo cual se reconfirma el
adecuado desempeño del CellGis con el algoritmo
AndinoUIS y la implementación realizada del patrón de radiación de la antena.
3) Zona 3 Sotomayor:
Zona caracterizada por tener lugares sensibles como el Colegio San Pedro y una Iglesia muy
cercanos a la antena, por eso se decidió elegirla
como punto de medida, además un importante
criterio es la densidad de árboles que se encuentran en la zona, de forma que se pueda mirar si la
herramienta está apta para ésta clase de regiones o no, también las rutas cercanas a la estación
base cuentan con varios cruces de vías; sin duda
alguna, la mayor de las características que se quería abordar en esta zona era el tráfico de automóviles. De igual manera, se destaca por su condición parcial de NLOS hacia BS3, ya que sólo sobre
un tramo del trayecto existía línea de vista. Esta
zona corresponde a Sotomayor, en esta ocasión
no se genera señal, sino se hace el estudio con
los datos que se tienen de las antenas Tigo, uno
de los factores que se tuvo en cuenta para elegir
cual zona medir, se basó en el hecho de tener lugares sensibles cercanos a la antena. El software
utilizado se llama TEMS Investigation 11.0.3 Data
Collection perteneciente a la empresa Tigo, el cual
se complementa con un celular especialmente
adaptado a la herramienta y un Gps usado para
geo-referenciar la posición. La interfaz de la herramienta podemos visualizarla en la figura 10.
FIG.9. ZONA LA CONCORDIA. VALIDACIÓN TIPO 2
FIGURA 10. SOFTWARE TEMS INVESTIGATION 11.0.3
Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega,
Forero, Rodríguez
En esta tercera zona se hizo uso de una antena
referencia 742 212/ APx18 de Kathrein MOBILCOM BRASIL, la cual presenta un patrón de radiación visualizado en la Figura 11.
FIG. 11. ZONA SOTOMAYOR. PATRÓN DE RADIACIÓN
201
La tendencia de los resultados, sigue la curva de las mediciones reales. Basándose en el
coeficiente de correlación que fue hallado para
el área de Sotomayor de 0,931, se puede constatar la buena correlación existente entre valores
de mediciones y simulación. Aunque la diferencia máxima o delta máximo que se encontró en
el contraste de cada estación es de 8,76 [dBm],
cabe aclarar que este valor pertenece sólo a una
de las estaciones.
FIG. 12. ZONA SOTO MAYOR. VALIDACIÓN TIPO 1
FIG. 13. ZONA SOTO MAYOR. VALIDACIÓN TIPO 2
Como se ha notado en zonas anteriores, en el
caso de validación de tipo 1, en este sector según muestra la Figura 12, la simulación con antena isotrópica tampoco funciona, ni cobra validez
en la ejecución de simulación, este hecho se evidencia en un error de 221%, se encontraron diferencias hasta de 56,25[dBm] entre los resultados
de las mediciones y de la simulación.
La representación de los datos en la Figura 13
para la validación de tipo 2, permite contemplar la
tendencia que tanto valores experimentales como
simulados presentan para corroborar que los datos de la simulación son cercanos a los alcanzados con las mediciones. En términos estadísticos
el error entre las desviaciones estándar de ambas
cantidades es del 10,101% que en comparación
con las tres zonas anteriores es más grande, pero
que en general un error del 10% en desviaciones
de simulación es aceptable, de acuerdo a la complejidad de un canal inalámbrico real.
4) Zona 4 El Prado:
Es un lugar de alta densidad residencial, pues
existe una gran cantidad de edificios a lo largo de
todo el recorrido, sin embargo la antena o radio
base se encuentra ubicada en la parte superior
de uno de los edificios más altos. En la última región se hace uso de otro sector cubierto por Tigo.
Se eligió por la forma de sus calles, es decir, es
una zona en la que la cuadrícula de calles y carreras está perfectamente definida, prototipo que se
usará para saber si los niveles de señal mejoran
frente a estas situaciones, adicionalmente es un
lugar de alta densidad residencial. En la gran mayoría de ruta se cuenta con (LOS), para este caso
el patrón de radiación es el mismo que se utiliza
en el sector 3.
202
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203
En el caso de validación de tipo 1, el coeficiente de correlación hallado es de -0,293 que
demuestra que no existe una buena correlación
entre los datos prácticos y los valores simulados.
Y, al igual que en las tres zonas anteriores la disimilitud entre las mediciones llega hasta los 51,39
[dBm]. En el caso de validación de tipo 2, se obtuvieron los resultados que se aprecian en la Figura
14, se puede distinguir de forma clara la semejanza entre los datos. En donde el coeficiente de
correlación obtenido es de 0.972, lo cual refleja
la muy buena relación que existe entre las simulaciones y mediciones, lo que se conoce como correlación fuerte.
FIG. 14. ZONA EL PRADO. VALIDACIÓN TIPO 2
tación y/o árboles a sus alrededores, lo cual genera una dispersión que no es contemplada por
el modelo AndinoUIS ni en otros modelos disponibles en CellGis.
La presencia de automóviles en los lugares de
medición influye directamente en los valores obtenidos, pues ellos reflejan la señal, sin embargo
los problemas que puedan causar esta fuente de
error son inevitables.
Los estudios realizados en las 4 zonas satisfacen todos los indicadores estadísticos, de forma favorable para determinar que la herramienta
está en condiciones de realizar planificación celular.
Se recomienda realizar mejoras al Modelo AndinoUis de forma que tenga en cuenta los materiales de los diferentes edificios, la temperatura o
condiciones climáticas y la presencia de árboles.
De forma que tenga un aporte directo en la exactitud de la predicción de los niveles de señal, de
forma que el error sea aún menor.
REFERENCIAS
[1]
GARCÍA Alexis, ORTEGA Homero, CARREÑO Yair. Desarrollo del modelo de propagación Andino-UIS. Revista
GTI Vol. 4. No 8, pp: 29 - 38 . Bucaramanga, Colombia.
Enero – Abril. 2005. ISSN 1657-8236.
[2]
CARREÑO Yair. Tesis de Grado: Desarrollo del Modelo
de propagación AndinoUIS, UIS, Bucaramanga, 2005.
[3]
C. Ardila. “Herramienta de planificación celular CellGis, Manual del usuario. Universidad ICESI”. Disponible en: http://CellGis.net/downloads.
[4]
SOLANO, Jhon Camilo, JAIMES Leonardo Andrés. Implementación en Java del modelo de propagación andinoUIS® para planificación y análisis de redes celulares sobre CellGis. Tesis de grado. 2008.
[5]
GARCÍA A, Paolo, ORTEGA B., Homero, NAVARRO C.,
Andrés, RODRÍGUEZ A., Alexys. Efectos del terreno en
la propagación electromagnética en entornos urbanos
sobre la región andina usando el modelo Cost 231.Walfisch-Ikegami y herramientas de planificación basadas
en GIS. Revista electrónica No. 1. SISTEMAS & TELEMÁTICA. Disponible en: http://bibliotecadigital. icesi.edu.
co/biblioteca_digital/bitstream/item/387/1/agarciahortega-anavarro-arodriguez_efectos-propag.pdf
[6]
MURILLO, Juan. Fórmulas de Radiopropagación en Decibelios. Sevilla, España.
[7]
CARREÑO L., Yair I, GARCÍA A, Paolo, y ORTEGA B.,
Homero. Mejoramiento en la predicción de pérdidas
CONCLUSIONES
Mediante la correcta implementación del patrón de radiación de la antena, en CellGis se ha
podido demostrar que el Modelo AndinoUIS resulta apropiado para simulaciones de radiopropagación en ciudades ubicadas en terreno montañoso
como es el caso de la Región Andina, que presenta niveles de correlación superiores a 0,9 entre
resultados de medición y de simulación.
El contraste gráfico de niveles de potencia en
comparación con los valores dados por la simulación arroja en algunas rutas resultados más
óptimos que para otras zonas, este hecho radica
tanto en el desnivel de terreno, como en los cruces de las calles, puesto que el modelo obtiene el
mayor error en sitios en donde convergen las calles, sin embargo en todos los casos mencionados
presenta mejores resultados que otros modelos
conocidos.
En el barrio Sotomayor, se evidencian algunas
diferencias notables en ciertos puntos de la ruta,
como consecuencia de la alta densidad de vege-
Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega,
Forero, Rodríguez
de Potencia en sistemas de comunicación móviles
TDMA/IS-136 para entornos andinos mediante el uso
del modelo COST231-Walfisch-Ikegami, campañas de
medidas y el Cellview®. Universidad Industrial de Santander, Escuela de Ingenierías Eléctrica, Electrónica y
Telecomunicaciones, Grupo de Investigación en Radiocomunicaciones - RadioGIS, Bucaramanga-Colombia,
Septiembre de 2004
[8]
COST 231 Final report, Digital Mobile Radio: COST 231
View on the Evolution Towards 3rd Generation Systems, P. 134-140, Commission of the European Communities and COST Telecommunications, Brussels,
1999.
[9]
GALLO, Fideligna, PRIETO, Martha I, GARCÍA A, Paolo,
y ORTEGA B., Homero. Análisis y Comprobación de los
Niveles de Densidad de Potencia en las Inmediaciones de una Celda Sectorizada en un Entorno Andino
Utilizando Sistemas de Información Geográfica (GIS)
Y MatLab, Universidad del Valle en convenio con la
Universitaria de Investigación y Desarrollo – Grupo
Maxwell-UDI en Cooperación con el Grupo RadioGISUIS, Departamento de Ingeniería Electrónica, Bucaramanga-Colombia, Septiembre de 2004.
[10]
FORERO, Celso Andrés. Implementación de Servicio
en Telecomunicaciones para Apoyo a la Gestión del
Espectro Radioeléctrico.
203
Representación efectiva de dinámicas fisiológicas
mediante fuzzy rough set: una revisión
Diana Alexandra Orrego Metaute
Especialista en Automatización,
Universidad Pontificia Bolivariana
Docente Tiempo Completo, Investigador Grupo MIRP,
Instituto Tecnológico Metropolitano
Medellín, Colombia
[email protected]
Edilson Delgado Trejos
PhD en Ingeniería con línea de investigación en Automática,
Universidad Nacional de Colombia
Académico Investigador, líder Grupo MIRP,
Instituto Tecnológico Metropolitano
Medellín, Colombia
[email protected]
Resumen—Los sistemas biomédicos de última generación registran en intervalos cortos de tiempo la dinámica fisiológica mediante grandes bases de datos. La
interpretación adecuada de la información difícilmente
puede hacerse por la experticia de un sólo médico, por
lo tanto la toma de decisiones se basa sólo en algunas
variables seleccionadas. La representación efectiva de
variables fisiológicas mediante fuzzy rough set tipo 1
puede ser aplicada para caracterizar y extraer la información relevante de la dinámica fisiológica; sin embargo, estas técnicas poseen el problema de la complejidad de sus algoritmos y alto costo computacional; por
lo tanto, se requiere aplicar técnicas de fuzzy rough
set tipo 2, asociadas a métodos axiomáticos a través
de operadores de aproximación difusa baja y alta como
conceptos primitivos para generar un sistema de reducción de dimensiones con tendencia a la disminución
de costo computacional en aplicaciones de ingeniería
biomédica. En este artículo se presenta la revisión del
estado del arte sobre representación efectiva de dinámicas fisiológicas mediante fuzzy rough set, con el fin
de determinar la capacidad que poseen este tipo de técnicas para ser incluidas en procedimientos automáticos
de toma de decisiones que apoyen el concepto clínico
de un especialista.
engineering applications. This article reviews the state
of the art of effective representation of physiological dynamics using fuzzy rough set, in order to determine the
ability of these techniques to be included in automatic
decision making procedures that support the clinical
opinion of a specialist.
Palabras clave— Conjuntos Difusos/Aproximados, Dinámica Fisiológica, Reducción de Dimensiones, Representación Efectiva, Extracción/Selección de características.
Abstract— The latest generation of biomedical systems record at short time intervals the physiological
dynamic in large databases. The correct interpretation
of the information is difficult to obtain by the expertise of a single physician, so the decision is based only
on some selected variables. Effective representation of
physiological variables by fuzzy Rough Set type 1 can be
applied to characterize and extract relevant information
from physiological dynamics, however the disadvantages of these techniques are the complexity of their algorithms and the high computational cost, therefore it
is necessary to apply fuzzy rough set type 2 techniques
, associated with axiomatic methods through low and
high diffuse approximation operators as primitive concepts for generating a dimension reduction system with
a tendency to lower computational cost in biomedical
Keywords— Fuzzy/Rough Sets, Physiological Dynamics,
Dimensionality Reduction, Intrinsic Representation,
Feature Extraction/Selection.
I. INTRODUCCIÓN
Los prototipos de última generación en biomédica permiten mostrar en línea una cantidad enorme de datos por paciente que describen o simulan los múltiples procesos fisiológicos del cuerpo
humano, con el propósito de ser una herramienta
para el diagnóstico y tratamiento médico [1]. Todos estos procesos son fenómenos complejos,
que se acompañan o manifiestan mediante señales que reflejan su naturaleza y actividad, pueden
ser de diversos tipos: desde señales bioquímicas,
como hormonas y neurotransmisores, hasta registros de señales bioeléctricas, como electroencefalografía (EEG), fonocardiografía (FCG) o
electrocardiografía (ECG), o mediciones biofísicas
como presión arterial y temperatura, entre otros
[2]. La caracterización de la dinámica fisiológica
como señales normales o patológicas ha permitido el diseño de sistemas expertos de diagnóstico
que soportan la decisión médica, debido a que
generalmente la decisión está basada sólo en la
experticia del especialista [3]. Sin embargo, en la
mayoría de los procesos de caracterización de la
dinámica fisiológica se contemplan amplios conjuntos de características que conllevan al empleo
de grandes recursos computacionales, así como
en los posteriores de procesamiento y clasificación de los datos [4].
Recibido: 13/08/2011/ Aceptado: 10/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado
La universalidad de las bases de datos fisiológicas de alta dimensión ha ayudado al desarrollo de importantes investigaciones en el análisis
de características, para obtener conjuntos de
variables de representación que aportan la información relevante y redundante del sistema en
relación con la inferencia de estados fisiológicos
funcionales [5]. En el aprendizaje estadístico, el
espacio de representación característico es definido como una dimensionalidad que contiene
todos los posibles valores que pueda tomar el patrón, representado por un vector aleatorio, el cual
puede ser visto como un punto n-dimensional,
con el objetivo de representar el conjunto total de
señales de entrenamiento en un espacio donde
alguna métrica minimice la distancia entre patrones de una misma clase y maximice la distancia
entre los de diferente clase [6]. En este contexto,
la reducción de dimensiones busca encontrar la
mejor representación de patrones de alta dimensión, que permita obtener un conjunto alterno y
compacto con la menor dimensión posible, optimizando una función de evaluación específica en
el espacio resultante y regida por una medida de
relevancia (estadística, geométrica, informativa o
discriminante) encargada de dirigir el contexto de
representación [7]. En particular, la reducción de
dimensiones puede obtenerse por diferentes técnicas que generalmente se han agrupado en selección y extracción de características [8]. En este
sentido, la teoría de conjuntos difusos propuesta
por Zadeh [9] en 1965 (FST), la cual es una extensión de la noción de conjuntos clásica para modelar la incertidumbre en términos de clasificación
de membrecía, permite evaluar los subconjuntos
usando una función, o métricas de evaluación,
con el fin de seleccionar las más importantes derivadas de las clases de decisión [10]. Un sistema
básico difuso incluye elementos como fusificador,
reglas, motor de inferencia y desfusificador. La
teoría de conjuntos Rough (RST) propuesta por
Pawlak [11], es un método de selección de características nuevo donde se preserva la semántica
de las funciones, lo cual permite analizar los hechos ocultos de los datos sin necesitar información adicional, como umbrales o conocimiento de
expertos, para obtener un subconjunto denominado “reducto” con las características originales de
mayor información. La aplicación de RST sólo se
puede realizar sobre conjuntos de datos con valores de tipo real, por lo tanto es necesario realizar
205
una discretización previa de los datos, generando
como resultado la pérdida de información [9]. La
teoría de conjuntos rough, complementada con la
teoría de conjuntos difusos, da lugar a un nuevo
método de selección de características denominado “Fuzzy Rough Set” (FRS) [12] en el que ambas
teorías, a pesar de relacionarse, son diferentes.
Esta técnica híbrida genera aproximaciones rough
de conjuntos difusos por medio de relaciones de
similaridad o particiones difusas. Adicionalmente,
ofrece alto grado de flexibilidad, soluciones robustas y herramientas avanzadas para la selección
de características en el análisis de datos [13].
Actualmente, las investigaciones en el campo de
FRS se han centrado en ambientes difusos tipo
1, lo cual no permite modelar la incertidumbre de
manera directa ya que se caracteriza por funciones de membrecía clásicas, donde se presentan
dificultades en la modelación de incertidumbres
comunes para la dinámica fisiológica por la falta
de fronteras discriminantes en las clases y falta
de información [14]. Los FRS tipo 2 introducen
intervalos, parámetros y conjuntos difusos para
describir la función de membrecía incierta del
conjunto difuso tipo 1, mediante la adopción de
conjuntos rough [15].
Este artículo presenta una revisión sobre espacios de representación efectiva de la dinámica
fisiológica logrados mediante fuzzy rough set con
el fin de precisar la frontera del estado del arte
de temas relacionados con el entrenamiento de
procesos automáticos orientado a la reducción de
dimensiones en sistemas de soporte de diagnóstico clínico automático.
II. ESPACIOS DE REPRESENTACIÓN
CARACTERÍSTICA
Sobre la dinámica fisiológica se debe realizar
un proceso de estimación de atributos, o características, que permitan la extracción de la información intrínseca embebida en los estados funcionales determinados por los cambios presentados
en las señales que se usan para el diagnóstico de
cada caso particular [7]. En algunas ocasiones, el
espacio resultante está compuesto por un número alto de dimensiones, lo cual se traduce en una
representación fisiológica muy compleja, que a
veces puede estar conectada con el sentido clínico o simplemente puede ser tomada como un espacio de representación abstracta (por ejemplo,
206
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215
coeficientes wavelet, índices fractales, indicadores estadísticos, entre otros) [16].
A. Estimación de parámetros
Al proceso de atribución de una descripción
paramétrica a un objeto se denomina estimación de parámetros, este proceso es una parte
importante del procesamiento o tratamiento de
datos y se basa en la regularidad estadística de
una gran cantidad de muestras [17]. El grado de
confianza del intervalo indica la probabilidad de
ocurrencia de los valores estimados en él. Así, en
este método de estimación es necesario saber la
regularidad de distribución de las muestras, de lo
contrario, las hipótesis acerca de ellas y la evaluación del grado de incertidumbre serán erróneas,
reduciendo la confiabilidad del método [18].
B. Procesamiento de datos
1) Normalización
En muchas situaciones prácticas un diseño
es confrontado con los valores que no expresan
lo mismo en ciertos rangos dinámicos [19]. Así,
las características con un gran número de valores, pueden tener una gran influencia en el costo
de su función de las características con valores
pequeños, aunque esto no necesariamente es reflejado en el diseño del clasificador [20]. Un procedimiento comúnmente usado es la normalización
estadística, expresada en función de la media y la
desviación estándar [7].
2) Remoción de valores atípicos
Los datos atípicos, también conocidos como
outliers, son las observaciones que parecen tener un comportamiento distinto, o haber sido generados de forma diferente [21]. Cuando existe
más de un dato atípico en la muestra, es posible
que se presenten efectos de enmascaramiento, en el cual dichas observaciones se ocultan
entre sí [22]. Los datos atípicos pueden ser detectados bajo dos diferentes perspectivas, bien
sea de manera univariada o multivariada [23].
Calcular medidas robustas de decentralización
y dispersión mediante el cálculo de la mediana
o la mediana de las desviaciones absolutas con
respecto a la mediana, lo cual es una medida robusta de dispersión, permite detectar de forma
univariada la presencia de datos atípicos [7]. Adicionalmente, existen diferentes formas de comprobar la homogeneidad de la muestra, la cual
refleja si los datos se separan mucho, o por el
contrario se concentran alrededor de la media,
mediante el análisis del coeficiente de kurtosis.
Este coeficiente permite medir la relación entre
la variabilidad de las desviaciones y la desviación
media. La detección de datos atípicos de forma
multivariada se realiza mediante una técnica de
maximizar y minimizar el coeficiente de kurtosis
de los datos proyectados [21] y [24].
3) Verificación de la normalidad
Muchas de las técnicas de análisis multivariado están basadas en modelos paramétricos, por
lo tanto, existen claras restricciones en cuanto
al tipo de distribución a la que dichas variables
deben aproximarse [25]. Por otra parte, es también importante asegurar la homogeneidad de la
muestra, mediante el análisis de la posible presencia de valores atípicos debidos a errores de
medida u otras causas de heterogeneidad [26].
Es necesario realizar la verificación de la normalidad de los datos mediante el juicio sobre la estructura Gaussiana de los datos, a partir del análisis de los histogramas y de la respectiva prueba
de hipótesis [27]. La división de valores que toman las variables aleatorias en rangos de alguna
vecindad genera diferentes clases de representación, de las cuales la más conocida corresponde al diagrama del número de observaciones en
función de la localización de cada rango de la
variable aleatoria, conocida como histograma.
Sin embargo, la cantidad de intervalos de agrupación dependen del volumen de la muestra [7].
4) Distribución intraclases
Si la prueba de verificación de la distribución
da como resultado el rechazo de la hipótesis de
normalidad, entonces se deben tomar medidas
para transformar la observación de tal manera
que pueda cumplirse la aceptación de la hipótesis
sobre la normalidad de los datos intraclase [28].
En este sentido el análisis de los histogramas
puede ayudar a sugerir alguna forma de acomodación de los datos. Inicialmente se puede partir
de un conjunto de posibles transformaciones [29].
En tareas asociadas al proceso de bioseñales, es
común el empleo de la distribución logarítmica
normal. Después de realizar la transformación,
se debe realizar de nuevo la prueba de verificación, se toma aquella transformación que permita
aceptar la hipótesis de normalidad intraclase, o
bien, aquella que más se aproxime [7].
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado
III. REDUCCIÓN DE DIMENSIONES.
Con el objetivo de reducir dimensiones y así
evitar el incremento exponencial del número de
muestras fisiológicas necesarias para el entrenamiento de un sistema automático inteligente,
es requerida la etapa de extracción/selección de
características para obtener el espacio de representación característica [30]. Por lo tanto, es importante tener presente el concepto de “maldición
de la dimensionalidad” [7] en el cual se describe
el problema que enfrentan los métodos de aprendizaje, donde aumentar el número de características conlleva a un incremento exponencial en el
número de objetos de entrenamiento, es decir,
a medida que aumenta la dimensionalidad, las
características del conjunto de datos de entrada
tienden a ser demasiado dispersos para entrenar
los algoritmos de aprendizaje de forma eficiente
y se requieren muchas más muestras de entrenamiento [31]. Es por esto que las técnicas de
reducción de dimensiones permiten transformar
conjuntos de datos de grandes dimensiones en
conjuntos de dimensiones más pequeñas, para
mejorar el procesamiento de datos y revelar la estructura oculta que ayudan en la comprensión y visualización de la dinámica física o fisiológica [32].
En los últimos años ha crecido el interés en
las investigaciones relacionadas con reducción
de dimensiones para encontrar un método que
permita disminuir el número de variables de representación usando la información contenida
dentro del conjunto original de los datos y que
preserve el significado de las características relevantes. La técnica RST puede ser usada como una
herramienta para descubrir la dependencia de los
datos y minimizar el número de características
contenidas en el conjunto de datos sin utilizar información adicional, pero requiere de una discretización de los datos antes de aplicar el método, ya
que el método no diferencia datos de valor discreto de los de valor real [33]. Como resultado se han
propuesto extensiones al método RST basados en
relaciones de similaridad y tolerancia. La técnica
FRS (Fuzzy Rough Set) fue propuesta como una
extensión del método RST donde se encapsulan
los conceptos de vaguedad mediante conjuntos
difusos y duplicados, tomando conjuntos rough
relacionados pero de diferente valor (discreto o
real), los cuales se producen como consecuencia
de la incertidumbre en el conocimiento [31].
207
1) Extracción de características
En la extracción de características todas las
variables son utilizadas y los datos se transforman de un espacio de dimensión alta a uno de
dimensión baja, conservando la mayor parte de
información deseada y optimizando la dirección
del mapeo [8]. Esta transformación puede ser una
combinación de las variables originales de forma
lineal o no lineal, supervisado o no supervisado
[34] .La extracción de características permite mejorar el ancho de banda de los datos de entrada
para un mejor desempeño en el clasificador al
proporcionar un conjunto de características relevantes con mínima redundancia [35].
La literatura de extracción de características
reporta dos grupos de técnicas: lineales y no lineales, siendo las primeras más comunes y adecuados en la reducción de datos de estructura
lineal [36] y [32], como Análisis de Componentes
Principales (PCA) [37] y Escalamiento Multidimensional (MDS) [38] mientras las segundas como
Embebimiento Lineal Local (LLE) [39] e Isomap
(Mapeo Isométrico de Caracter) [40] preservan
las medidas de distancia cuando se mapean los
datos a un espacio de dimensión reducida. Sin
embargo, estos métodos tienden a destruir la semántica fundamental de las características después de la reducción, como pasa en los métodos
basados en transformaciones, y en otros casos requieren información adicional acerca del conjunto
de datos dado para la umbralización, como pasa
en los métodos basados en entropía [41].
De acuerdo con lo expuesto en la Fig. 1, las
técnicas lineales comúnmente usadas para extracción de características son [42]: Análisis de
Componentes Principales (PCA) [43], Análisis Discriminante Lineal (LDA) [44], Análisis de Componentes independientes (ICA) [45].
FIG. 1. DIAGRAMA EN BLOQUES: ExTRACCIÓN DE CARCTERÍSTICAS
Fuente: Autor del proyecto
208
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215
PCA y LDA son los métodos más utilizados
para extracción de características en la mayoría
de aplicaciones de reconocimiento de patrones,
sin perder la información de varianza en los datos de entrada [46]. Originalmente LDA fue desarrollado para aprendizaje supervisado, y para
una mayor eficacia en la separabilidad de clases,
especialmente para encontrar la función óptima
discriminante lineal en problemas de clasificación, mientras PCA determinada la información
relevante para la representación de clases mediante una base ortogonal, lo cual es adecuado
para análisis de datos gausianos, sin embargo,
cuando se presentan distribuciones de datos
no gausianas, el método es deficiente. En conclusión, la aplicación de LDA es limitado cuando
el número de muestras por clase es pequeño,
mientras en PCA se limita cuando el conjunto
de entrenamiento presenta un gran número de
muestras [47].
A diferencia de LDA y PCA, ICA puede ser considerado como una generalización del estándar
PCA, el cual se caracteriza por la independencia
estadística sobre los componentes extraídos y
no tiene restricción de ortogonalidad. ICA ha sido
de gran aplicación para la separación de fuentes
estadísticamente independientes y la extracción
de características en el análisis de datos de tipo
no gausianos [48]. ICA es también una técnica
de reducción de características redundantes que
asegura que la información mutua entre los canales de salida filtrada es cero [49]. ICA y PCA
siguen siendo modelos lineales, lo que los hace
inadecuados para describir datos de distribución
compleja y no lineal. Por este motivo, otras técnicas son propuestas en la literatura cuando la
naturaleza de los datos es compleja y son afectados por operadores no lineales. Kernel ICA es
una técnica que contiene un mapeo de núcleo
no lineal apto para características que describen
procesos no lineales. Kernel ICA no es la “Kernelización” de un algoritmo ICA existente, sino un
método nuevo sobre medidas de dependencia
basadas en Kernel [50]. Este método ha sido ampliamente aplicado en procesamiento de imágenes para descubrir los vectores fundamentales
de la formación ellas, y son usados como modelos temporales para extracción de características
de imágenes de prueba, las cuales son completamente diferentes de las de formación [51]. Otro
método muy popular reportado en la literatura
para el reconocimiento facial es denominado
Fisherface, el cual usa inicialmente PCA para reducir la dimensión del espacio de características
original para N-c (donde N es el número de muestras totales de entrenamiento y c es el número
de clases) y luego aplica LDA para reducir la dimensión a d (d ≤ c). En el proceso de transformación, la componente de proyección más pequeña
c-1 es descartada, lo que puede implicar pérdida
de información discriminante y la etapa basada
en PCA no puede garantizar la transformación de
la información intraclase, puesto que la matriz
de dispersión podría ser no singular [52]. Un método más sistemático propuesto es RDA (Análisis
Discriminante Regularizado), el cual trata de obtener estimaciones más confiables mediante la
corrección de la distorsión de los valores propios,
usando un método de regularización tipo riesgo
[53]. PDA (Análisis Discriminante Penalizado) es
otra versión regularizada de LDA, cuyo objetivo
es, además de superar el problema del tamaño
de muestras pequeñas, suavizar los coeficientes
de vectores discriminantes que mejoren la interpretación [54].
PCA, LDA, RDA y PDA, clasificados como métodos de una dimensión, no son aptos para escalonamiento en aplicaciones con altas dimensiones,
debido a las largas matrices de covarianza con
un número relativamente pequeño de muestras
de entrenamiento, que dificultan una evaluación
más precisa de la matriz [55]. Como una solución
a este problema se propone el método de Análisis de Componentes Principales de 2 Dimensiones 2DPCA, basado en matrices bidimensionales
en lugar de vectores de una dimensión [56]. A
diferencia de PCA, 2DPCA posee una matriz de
covarianzas mucho más pequeña, además de la
rapidez para calcular los vectores propios derivados de dicha matriz para la caracterización de los
datos [57]. Partiendo de los resultados exitosos
de la aplicación de 2DPCA, se propuso 2DLDA
como un Análisis Discriminante Lineal basado en
vectores y en matrices, que permiten evaluar la
matriz de covarianzas con precisión y reducir el
costo computacional. Sin embargo, 2DLDA asume el mismo nivel de tipicidad de cada muestra
para la correspondiente clase [58]. Actualmente
se propone el nuevo método F2DLDA (2DLDA Difuso), basado en los criterios discriminantes 2D
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado
fisherface y la teoría de conjuntos difusos, para
calcular el grado de membrecía de la matriz utilizando el algoritmo FKNN (k-vecino más cercano
difuso) que produce el correspondiente grado de
pertenencia a una clase [59].
2) Selección de características
La selección de características es usada para
identificar y remover las variables que no contribuyen al proceso de clasificación (información
redundante e irrelevante) [60]. Este proceso es
descrito en [61] como la obtención de un subconjunto de características estimado mediante una
función de evaluación, que se compara constantemente con el anterior hasta obtener el mejor de
ellos por medio del criterio de parada. Mediante
la validación se verifica la calidad que satisface
las condiciones del proceso.
Como se describe en la Fig. 2, la selección de
características se compone de diferentes familias
de técnicas que pueden agruparse en tres métodos de acuerdo con el procedimiento de generación de subconjuntos y a la función de evaluación
[62]: completos, que examinan todas las posibles
combinaciones de N características (2N combinaciones), los cuales son muy costosos computacionalmente pero el éxito de estas técnicas es que
aseguran el hallazgo del subconjunto óptimo, a diferencia de los heurísticos que hacen una evaluación parcial (N2 combinaciones), pero mejoran la
velocidad de procesamiento ya que el espacio de
búsqueda es menor, y los aleatorios que realizan
una búsqueda a partir de todo el espacio posible
(2N combinaciones), con la diferencia de que usa
una regla aleatoria de acuerdo a unas condiciones
iniciales, las cuales podrían encontrar el subconjunto requerido sin procesar todo el espacio de
posibilidades, pero el éxito depende fuertemente
de las condiciones iniciales. Los resultados de los
últimos dos métodos no aseguran la obtención
del mejor subconjunto de características, pero sí
del más adecuado según los requerimientos establecidos [61]. De acuerdo con la función de evaluación se conocen 3 grupos: embebidos, filtros y
wrapper. Los métodos embebidos hacen parte integral de un predictor específico o dependen de la
función de evaluación como lo hacen los árboles
de decisión (DT) [63], redes neuronales (NN) [64]
y mapas auto-organizativos (SOM) [65]. Los filtros
[62] son completamente independientes a la función del clasificador, pero requieren de medidas
209
de evaluación para determinar el mejor subconjunto (e.g., distancia, información, dependencia,
consistencia, entre otros), mientras los wrapper
[66] para su proceso de selección utilizan como
medida la tasa de error del clasificador, incluyendo el costo computacional debido a la estrategia
de clasificación usada. En estos tres métodos se
obtienen generalmente mejores resultados que
en los basados en la generación de subconjuntos,
pero el costo computacional sigue siendo representativo [67].
FIG. 2. DIAGRAMA EN BLOQUES: SELECCIÓN DE CARACTERÍSTICAS
Fuente: Autor del proyecto
En general, la literatura reporta diferentes técnicas de selección de características que incluyen
algoritmos de búsqueda óptima como Branch and
Bound y de Búsqueda Exhaustiva [68], sin embargo, son limitados al número de características, ya
que el costo computacional aumenta de forma exponencial al número de variables. Las estrategias
de búsqueda secuencial como SFS (Sequential
Forward Selection) y SBS (Sequential BackwardSelection) logran el mejor subconjunto de características de acuerdo con un numero características
preestablecido pero no permiten la reselección de
ellas [69]. El algoritmo “Plus-L-Minus-R” [70] aplica una búsqueda secuencial más compleja para
dar solución a este problema pero se limita por
la dificultad de seleccionar los valores adecuados
de L y R. A partir de SFS y SBS se evoluciona a
las técnicas SFFS (Sequential Forward Floating
Selection) y SBFS (Sequential Backward Floating
Selection) que permiten la reselección de características incluidas o removidas, mejoran el costo
computacional de una forma aceptable [8]. Otras
técnicas robustas han sido investigadas recientemente como Algoritmos Genéticos (GAs) [71],
Neuro-fuzzy [72], Relief [73], Markov Blanquet [74],
basados en condicionales de dependencia, independencia y relevancia, pero son algoritmos que
210
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215
aún no han sido muy desarrollados y presentan
un rendimiento muy bajo según datos de la vida
real [75].
VI. FUZZy ROUGh SET SOBRE ESPACIOS DE
REPRESENTACIÓN
La teoría de conjuntos difusos fue propuesta
por Zadeh en 1965 [76], como un método para
modelar la incertidumbre en términos de clasificación de membresía, el cual fue nombrado como
lógica difusa tipo 1 [77]. Un sistema difuso consta
de una interfaz de fusificación para transformar
los datos convencionales ingresados por el operador en conjuntos difusos tipo 1, luego un sistema
de inferencia usa los conjuntos difusos además
de la base del conocimiento para hacer inferencias por medio de un método de razonamiento, y
finalmente, una interface de desfusificación traduce la información difusa a la información convencional [78]. La función de membresía tipo 1 es
totalmente bivaluada [79], y sus formas convencionales pueden ser triangular, trapezoidal, gausiana, entre otras, además no permiten caracterizar incertidumbres lingüísticas, es decir, modelar
directamente clases de incertidumbre con base
en reglas como el lenguaje natural de diferentes
significados o medidas tomadas en entornos ruidosos [80], como es el caso del entorno derivado
de la dinámica fisiológica. Si para una función de
membresía tipo 1 como la de la Fig. 3, se fusifica
nuevamente, entonces se obtiene una función de
membresía tipo 2, en este caso toma valores diferentes que no son ponderados de la misma función de membresía tipo 1, por lo tanto, se puede
asignar una distribución de la amplitud en todos
los puntos [78].
FIG. 3. FUNCIÒN DE MEMBRESIA TIPO 2.
Fuente: Hanbook of Granular Computing [78]
Los sistemas difusos tipo 2, como se describe en la Fig. 4, reducen al mínimo los efectos de
la incertidumbre [81], son muy útiles en circunstancias donde es difícil determinar una función
de membresía exacta y presentan incertidumbre
en la medición. Los tipo 1 son utilizados recientemente en la industria para aplicaciones de control
[82]. La evolución hacia los sistemas difusos tipo
2 ha tomado más tiempo de lo esperado debido al
costo computacional que requieren los algoritmos
en ambientes de tiempo real [83]. La literatura reciente ha concluido que los sistemas difusos tipo
1 son basados en lógica convencional (numérica,
alfanumérica y binaria), mientras los tipo 2 se basan en lógica difusa, que proporcionan un mejor
modelo para la incertidumbre inherente al problema y robustez [84].
FIG. 4. SISTEMA DIFUSO TIPO 2.
Fuente: Autor del proyecto
La teoría de conjuntos rough (RST por sus siglas
en inglés), inicialmente propuesta por Pawlak en
1982, es un método matemático para el tratamiento de la incertidumbre, vaguedad e imprecisión en
el análisis de datos. Su éxito fundamentalmente se
debe a la exploración de patrones ocultos embebidos en la base de datos sin demandar información
adicional como umbrales o conocimiento de expertos. Dado un conjunto de datos con valores de atributos discretizados (entendiéndose como discretizados a la traducción de valores reales a nominales
o simbólicos), la RST permite encontrar un subconjunto dentro de los atributos originales que aportan
la mayor información. Sin embargo, presentan limitaciones en el manejo de características ubicadas
en la escala de los reales [85]. Convertir a difuso los
valores reales y crear un nuevo conjunto de datos
con valores simbólicos antes de aplicar RST como
método para reducir dimensiones ha sido una solución a dicha limitación, pero presenta considerables
pérdidas de información [86].
En los últimos años, las investigaciones en FRS
(Fuzzy Rough Set) se han centrado principalmente sobre todas las derivaciones que pueden surgir
sobre conjuntos difusos. En [87] se propone un
método que integra un algoritmo de inducción de
reglas difusas denominado Quick Reduct, donde
mediante técnicas FRS le realiza la selección de
características mediante la función de dependencia. Sin embargo, el algoritmo no es convergente
en muchas bases de datos reales debido a su po-
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado
bre criterio de finalización y el crecimiento exponencial de la complejidad computacional [88]. En
[89], Tsang et al., establecen las bases sólidas de
la matemática para la reducción de características
FRS. Adicionalmente, se propone un algoritmo basado en la matriz de discernibilidad para calcular
todos los posibles subconjuntos de características
relevantes, pero la validación es muy restringida y
no se reportan resultados sobre bases de datos
reales, como son las bases de datos de funcionamiento fisiológico. En [90], Maji et al., proponen
un método basado en FRS usando el concepto
de f-información en espacios de aproximaciones
difusas, encontrando las características no redundantes y relevantes de conjuntos de datos en la
escala de los reales. En [85] Wu et al., proponen
el concepto de conjuntos fuzzy rough generalizado a entornos fuzzy tipo 2 para la reducción de
características. Adicionalmente, desarrollaron el
algoritmo “IT2 fuzzy-rough QuickReduct”, el cual
utiliza la función de dependencia para seleccionar las características que se pueden agregar al
candidato de reducción actual. El algoritmo termina cuando la adición de cualquier característica
restante no aumenta el grado de dependencia del
fuzzy rough tipo 2. La demostración fue lograda
mediante un ejemplo de un sistema de información donde la reducción de características genera diferentes resultados cuando se compara con
fuzzy rough set convencional, donde el grado de
dependencia disminuye para fuzzy rough tipo 2
por el uso de reglas condicionales sobre el amplio
conjunto de características.
V. CONCLUSIONES
La dinámica fisiológica representada mediante señales biomédicas (e.g. ECG, FCG, EEG, EMG,
entre otros) son de alta complejidad y al momento
de caracterizar su dinámica se requiere de espacios de representación de alta dimensión, lo que
implica el uso de grandes recursos computacionales para su procesamiento, almacenamiento y
transmisión. Aunque los sistemas modernos de
cómputo, debido a su alto rendimiento, permiten
analizar cantidades grandes de datos en espacios
de dimensiones altas, cuando el número de características se incrementa, resultan inconvenientes
que requieren ser tratados para asegurar el buen
rendimiento del sistema automático. El aumento
en el número de dimensiones del espacio de ca-
211
racterísticas es originado, entre otras cosas, por
las exigencias de calidad y precisión en la representación de los estados funcionales, teniendo
en cuenta que la complejidad crece exponencialmente a medida que se adicionan dimensiones;
de acuerdo con esto, el problema se relaciona
con el aumento significativo del tiempo de ejecución de los algoritmos y el exagerado costo en
los estudios. En este sentido, reducir el número
de dimensiones del espacio de representación,
a través de un método basado en la extracción
y selección de características, que contenga información de expertos mediante la inclusión de
conjuntos difusos para distinguir aquellas variables que ofrezcan mayor capacidad discriminante, sin afectar negativamente la precisión de
clasificación, puede llegar a reducir hasta en un
amplio porcentaje los costos de procesamiento y
en general costos económicos a sectores hospitalarios o de ámbito industrial que usan este tipo
de aplicaciones.
Las teorías de conjuntos rough y conjuntos
fuzzy han demostrado tener un buen funcionamiento cuando se crea un híbrido entre ellas,
de forma que se aprovechan las bondades inherentes de ambas técnicas, surgiendo el método
Fuzzy Rough Set (FRS). Esta nueva técnica proporciona medios de reducción de dimensiones
para valores simbólicos y reales utilizando medidas de similaridad. Los conjuntos fuzzy rough
reúnen los conceptos relacionados pero distintos de imprecisión e indistinguibilidad debidas al
ruido provocado por la incertidumbre natural del
conocimiento.
En este artículo se presentó una revisión del
estado del arte basado en el estudio de la hibridación de los métodos fuzzy set y rough set para
la selección de características con el objetivo de
modelar la vaguedad y duplicidad como resultado de la incertidumbre en el conocimiento de la
dinámica fisiológica. Aunque los algoritmos de
reducción de dimensiones basados en técnicas
fuzzy rough set tipo 2 poseen el problema de
ser altamente costosos desde el punto de vista computacional y son difícilmente traducibles
a un lenguaje nominal o simbólico, se puede
obtener mediante técnicas de fuzzy rough sets
tipo 2, asociadas a métodos axiomáticos a través de operadores de aproximación fuzzy baja y
alta como conceptos primitivos, para generar un
212
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215
sistema de reducción de dimensiones con tendencia a la disminución de costo computacional
para aplicaciones en ingeniería biomédica.
REFERENCIAS
[1]
A. López and C. Vázquez, “Algoritmo de compresión
para la señal de pulso arterial periférico,” Universidad,
Ciencia y Tecnología, vol. 9, no. 34, pp. 75-79, Junio
2005.
[2]
D. Sánchez, “Procesado y transmisión de señales biomédicas para el diagnóstico de trastornos y enfermedades del sueño,” Universidad de Cádiz, Tesis Doctoral 2008.
[3]
M. Imhoff, R. Fried, U. Gather, and V. Lanius, “Dimension Reduction for Physiological Variables Using Graphical Modeling,” in AMIA 2003 Symposium Proceedings, Germany, 2003, pp. 313-317.
[4]
[5]
J. H. Rivera, G. Castellanos, and J. S. Mejía, “Selección
efectiva de características para bioseñales utlizando
el analisis de componentes principales,” Scientia et
Technica, vol. 13, no. 34, pp. 127-131, May 2007.
L. xie and J. Li, “A Novel Feature Extraction Method
Assembled with PCA and ICA for Network Intrusion Detection,” in International Forum on Computer ScienceTechnology and Applications, vol. 3, Chongqing, 2009,
pp. 31-34, 25-27.
[6]
K. Hongfa and C. Yongguang, “An Interpolation Technique Based on Grey Relational Theory,” The Journal of
Grey System, vol. 18, no. 1, pp. 79-83, 2006.
[7]
E. Delgado, G. Castellanos, and M. Vallverdú, Análisis
de Relevancia en Espacios de Representación Orientado al Soporte de Diagnóstico: Aplicaciones en la
Dinámica Cardíaca. Manizales: Ediciones Universidad
Nacional de Colombia, 2009, vol. I.
[8]
L. Zhang, Y. Zhong, B. Huang, J. Gong, and P. Li, “Dimensionality Reduction Based on Clonal Selection for
Hyperspectral Imagery,” IEEE Transactions on Geoscience and Remote Sensing, vol. 45, no. 12, pp. 41724186, Dec 2007.
[13]
D. Dubois and H. Prade, “Rough fuzzy sets and fuzzy
rough sets,” International Journal of General Systems,
vol. 17, no. 2 y 3, pp. 191–209, 1990.
[14]
D. Dubois and H. Prade, Fuzzy sets and systems:
theory and applications, Mathematics in Science and
engineering. New York: ACADEMIC PRESS, INC, 1980,
vol. 144.
[15]
D. Chen and S. Zhao, “Local reduction of decision system with fuzzy rough sets,” Fuzzy Sets and Systems,
vol. 161, no. 13, pp. 1871–1883, Jul. 2010.
[16]
E. Delgado, F. A. Sepúlveda, S. Röthlisberger, and G.
Castellanos, “The Rademacher Complexity Model over
Acoustic Features for Improving Robustness in Hypernasal Speech Detection. Volume. Editors: Ni,” in Computers and Simulation in Modern Science. UK: WSEAS
Press, University of Cambridge, 2011, pp. 130-135.
[17]
T. Wagner, “Nonparametric estimates of probability
densities,” Information Theory, IEEE Transactions on,
vol. 21, no. 4, pp. 438- 440, Jul 1975.
[18]
B. xia, D. Hong, and K. Hongfa, “Study on Grey Parameter Estimation Approach of Small Samples,” in Grey
Systems and Intelligent Services, 2009. GSIS 2009.,
Nov.2009, pp. 311-315.
[19]
D. C. Caccia, D. Percival, M. J. Cannon, R. Gary, and
J. B. Bassingthwaighte, “Analyzing exact fractal time
series: evaluating dispersional analysis and rescaled
range methods,” Physica A: Statistical and Theoretical
Physics, vol. 246, no. 3-4, pp. 609-632, December
1997.
[20]
J. B. Bassingthwaighte and G. M. Raymond, “Evaluating rescaled range analysys for time series,” Annals of
Biomedical Engineering, vol. 22, no. 4, pp. 432-444,
July 1994.
[21]
D. Peña and F. J. Prieto, “Multivariate Outlier Detection
and Robust Covariance Matrix Estimation,” Technometrics, vol. 43, no. 3, pp. 286-310, Aug. 2001.
[22]
A. C. Rencher, Methods of Multivariate Analysis. , 2nd
ed. New York: Wiley Series in Probability and Statistics,
2002.
[9]
L. A. Zadeh, “FuzzySets,” Information and Control, vol.
8, pp. 338-353, 1965.
[23]
D. Peña, Análisis de datos multivariantes.: Mc Graw
Hill, 2002.
[10]
L. Zadeh, “Probability measures of fuzzy events,” J.
Math. Anal. Appl., vol. 23, pp. 421–427, 1968.
[24]
[11]
Z. Pawlak, Rough Sets, Theoretical Aspects of Reasoning About Data. Netherlands: Kluwer Academic Publishers, 1991.
Z. M. Bokal and R.B. Sinitsyn, “Nonparametric method
for estimating spoken language sound multivariate
probability density function,” in Microwaves, Radar
and Remote Sensing Symposium, 2008. MRRS 2008,
Kiev , Sept. 2008, pp. 170-171, 22-24.
[25]
[12]
Y. Y. Yao, “A Comparative Study of Fuzzy Sets and
Rough Sets,” Information Sciences, vol. 109, no. 1-4,
pp. 227-242, 1998.
V. Babovic, M. Keijzer, and M. Stefansson, “Chaos
theory, optimal embedding and evolutionary algorithms,” Tech. Rep. TR-9800463, Danish Technical Research Council (STVF), January 2001.
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado
[26]
[27]
[28]
[29]
[30]
[31]
[32]
[33]
[34]
213
290, pp. 2323-2326, Dec. 2000.
M. L. Petrovich and M. I. Davidovich, Estimación Estadística y Prueba de Hipótesis en el Computador (Rus).
Moscú: Finansy i Statistika, 1989.
[40]
L. Baringhaus and N. Henze, “Limit Distributions for
Measures of Multivariate Skewness and Kurtosis Based on Projections,” Journal of Multivariate Analysis,
vol. 38, no. 1, pp. 51–69, July 1991.
J. Tenenbaum, V. de Silva, and J. Langford, “A Global
Geometric Framework for Nonlinear Dimensionality
Reduction,” Science, vol. 290, pp. 2319-2323, Dec.
2000.
[41]
F. S. Tsai, “Dimensionality reduction techniques for
blog visualization,” Expert Systems with Applications,
vol. 38, no. 3, pp. 2766–2773, 2011.
[42]
N. Kwak, C. Kim, and H. Kim, “Dimensionality reduction based on ICA for regression problems,” Neurocomputing, vol. 71, no. 13-15, pp. 2596-2603, August
2008.
[43]
I. Joliffe, Principal Component Analysis, Second edition
ed. New York: Springer-Verlag, 1986.
[44]
A. Hyvarinen, J. Karhunen, and E. Oja, Independent
component analysis. Canada: John Wiley & Sons,
2001.
[45]
K. Fukunaga, Introduction to Statistical Pattern Recognition, 2nd ed.: Academic Press, 1990.
[46]
A. H. Sahoolizadeh, B. Z. Heidari, and C. H. Dehghani,
“A New Face Recognition Method using PCA, LDA and
Neural Network,” International Journal of Electrical
and Electronics Engineering, vol. 2, no. 8, pp. 507512, 2008.
[47]
L. H. Chan, S. H. Salleh, and C. M. Ting, “PCA, LDA and
neural network for face identification,” in Industrial
Electronics and Applications, ICIEA 2009. 4th IEEE
Conference on, xi’an, May. 2009., pp. 1256-1259, 2527.
[48]
M. Soo Park, J. H. Na, and J. Y. Cho, “PCA-based Feature Extraction using Class Information,” in Systems,
Man and Cybernetics, 2005 IEEE International Conference on, vol. 1, Oct. 2005., pp. 341- 345.
[49]
W. Jiao and Y. Chang, “Fault diagnosis of rotor systems
Using ICA Based Feature Extraction ,” in Proceedings
of the 2009 IEEE International Conference on Robotics and Biomimetics, Dec. 2009. , pp. 1286-1291.
[50]
W. Liao and J. Jiang, “Image Feature Extraction based
on Kernel ICA,” in Image and Signal Processing, 2008.
CISP ‘08. Congress on, vol. 2, Sanya, May. 2008., pp.
763-767.
K. Umayahara and Y. Nakamori, “N-dimensional views
in fuzzy data analysis,” in Intelligent Processing Systems1997. ICIPS ‘97. 1997 IEEE International Conference on, vol. 1, Oct. 1997., pp. 54-57.
T. W. Anderson and Bahadur R. R., “Classification Into
Two Multivariate Normal Distributions With Different
Covariance Matrices,” The Annals of Mathematical
Statistics, vol. 33, no. 2, pp. 420–431, 1962.
E. Delgado, A. Perera, M. Vallverdú, P. Caminal, and
G. Castellanos, “Dimensionality reduction oriented
toward the feature visualization for ischemia detection,” IEEE Transactions on Information Technology in
Biomedicine, vol. 13, no. 4, pp. 590-598, Mar. 2009.
R. Jensen and Q. Shen, “Semantics-Preserving Dimensionality Reduction: Rough and Fuzzy-Rough-Based
Approaches,” IEEE Transactions On Knowledge and
Data Engineering, vol. 16, no. 12, pp. 1457-1471, Dec.
2004.
F. S. Tsai and K. L. Chan, “Dimensionality Reduction
Techniques for Data Exploration,” in Information, Communications & Signal Processing, 2007 6th International Conference on, Dec. 2007, pp. 1-5, 10-13.
G. Hu and S. Yuemei, “An Attribute Reduction Method
based on Fuzzy-Rough Sets Theories,” in First International Workshop on Education Technology and Computer Science, vol. 3, China, Mar. 2009., pp. 828-831.
I.K Sethi, “Entropy nets: from decision trees to neural
networks,” Proceedings of the IEEE, vol. 78, no. 10, pp.
1605-1613, Oct. 1990.
[35]
I. Guyon, S. Gunn, M. Nikravesh, and L. A. Zadeh, Feature Extraction Foundations and Applications. Netherlands: Springer-Verlag, 2006.
[36]
D. Gering. (2002., Apr. ) Linear and Nonlinear Data Dimensionality Reduction. [Online]. http://people.csail.
mit.edu/gering/
[37]
K. Pearson, “On lines and planes of closest fit to systems of points in space,” Philosophical Magazine, vol.
2, no. 6, pp. 559-572, 1901.
[51]
F.R. Bach and M.I. Jordan, “Kernel Independent Component Analysis,” Journal of Machine Learning Research, vol. 3, pp. 1-48., 2002.
[38]
T. Cox and M. Cox, Multidimensional Scaling, Second
Edition ed. New York: Chapman & Hall, 2001.
[52]
[39]
S. T. Roweis and Saul L. K., “Nonlinear Dimensionality
Reduction by Locally Linear Embedding,” Science, vol.
W. Yang, L. Zhang, and C. Sun, “Fuzzy 2DLDA for Face
Recognition,” in Pattern Recognition, 2009. CCPR
2009, Chinese Conference on, Nov. 2009., pp. 1-4,
4-6.
214
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215
[53]
J.H. Friedman, “Regularized discriminant analysis,” Journal of the American Statistical Association, vol. 84,
no. 405, pp. 165–175., Mar. 1989.
[66]
R. Kohav and G.H. John, “Wrappers for Feature Subset
Selection,” Artificial Intelligence, vol. 97, pp. 273-324,
May. 1997.
[54]
J. Yang, D. Zhang, A. F. Frangi, and J. Yang, “Two-dimensional PCA: a new approach to appearance-based
face representation and recognition,” Pattern Analysis
and Machine Intelligence, IEEE Transactions on, vol.
26, no. 1, pp. 131-137, Jan. 2004.
[67]
M. Blachnik, W. Duch, A. Kachel, and J. Biesiada, “Feature Selection for Supervised Classification: A Kolmogorov-Smirnov Class Correlation-Based Filter,” in AIMeth Series 2009, Symposium On Method of Artificial
Intelligence, Gliwice, Nov.2009, pp. 18-19.
[55]
H. Kong et al., “Generalized 2D principal component
analysis,” in Neural Networks, 2005. IJCNN ‘05. Proceedings. 2005 IEEE International Joint Conference
on, vol. 1, Jul. 2005., pp. 108- 113.
[68]
P. A. Devijver and J. Kittler, Pattern Recognition: A Statistical Aproach, Prmera edición ed.: Englrwood Cliffs:
Pretince Hall, 1982.
[56]
L. Wang, x. Wang, x. Zhang, and J. Feng, “The equivalence of two-dimensional PCA to line-based PCA,”
Pattern Recognition Letters, vol. 26, no. 1, pp. 57-60,
January 2005.
[69]
D. W. Aha and R. L. Bankert, “A Comparative Evaluation
of Sequential Feature Selection Algorithms,” in Learning from data: artificial intelligence and statistics V.
New York: Springer Verlag, 1996., ch. 19, pp. 199-206.
[57]
J. Yang and L. Chengjun, “Horizontal and Vertical 2DPCA-Based Discriminant Analysis for Face Verification
on a Large-Scale Database,” Information Forensics
and Security, IEEE Transactions on, vol. 2, no. 4, pp.
781-792, Dec. 2007.
[70]
P. Pudil, J. Novovicova, and J. Kittle, “Floating Search
Methods in Feature Selection,” Pattern Recognition
Letters, vol. 15, no. 11, pp. 1,119-1,125, Nov. 1994.
[71]
W.S. Zheng, J.H. Lai, and Z. Li Stan, “1D-LDA vs. 2DLDA: when is vector-based linear discriminant analysis
better than matrix-based,” Pattern Recognition, vol.
41, no. 7, pp. 2156–2172, 2008.
M. Kudo and J. Sklansky, “Comparison of Algorithms
that Selects Features for Pattern Classifiers,” Pattern
Recognition, vol. 33, no. 1, pp. 25-41, Jan. 2000.
[72]
W. Yan, x. Yan, L. Zhang , and C. Sun, “Feature extraction based on fuzzy 2DLDA,” Neurocomputing, vol. 73,
no. 10-12, pp. 1556–1561, Jun. 2010.
S. K. Pal, R. K. De, and J. Basak, “Unsupervised Feature Evaluation: A Neuro-Fuzzy Approach,” IEEE Trans.
Neural Network, vol. 11, no. 2, pp. 366-376, Mar.
2000.
[73]
K. Kira and L. Rendell, “A practical Approach to Feature Selection,” in Proc. Ninth Int’l. Workshop Machine
Learning, San Francisco, 1992., pp. 249-256.
[74]
D. Koller and M. Sahami, “Towards Optimal Feature
Selection,” in Proc. 13th Int’l. Conf. Machine Learning,
1996, pp. 284-292.
[75]
P. Mitra, P. Murthy, and S. K. Pal, “Unsupervised feature selection using feature similarity,” IEEE Transactions On Pattern Analysis And Machine Intelligente,
vol. 24, no. 6, pp. 301-312, Jun. 2002.
[76]
L. A. Zadeh, “FuzzySets,” Information and Control, vol.
8, pp. 338-353, 1965.
[77]
K. Jaber, R. Abdullah, and N.A. Rashid, “A framework
for decision tree-based method to index data from large protein sequence databases,” in Biomedical Engineering and Sciences (IECBES), 2010 IEEE EMBS Conference on, Kuala Lumpur, Nov.2011, pp. 120-125.
Z. Wang, Q. Wang, M Bai, Z. Chen, and Z. Sun, “Further
exploration on relationship between crisp sets and
fuzzy sets,” in Computer and Automation Engineering
(ICCAE), 2010 The 2nd International Conference on,
vol. 2, 2010, pp. 609-613.
[78]
I.K Sethi, “Entropy nets: from decision trees to neural
networks,” Proceedings of the IEEE, vol. 78, no. 10, pp.
1605-1613, Oct. 1990.
W. Pedricz, A. Skowron, and V. Kreinovich, Handbook
of Granular Computing. England: A Jhon Wiley & Sons,
2008.
[79]
L. Zehua, J. Hai, and Y. Pingpeng, “The Theory of Triangle Type-2 Fuzzy Sets,” in Computer and Information
Technology, 2009. CIT ‘09. Ninth IEEE International
Conference on, Oct. 2009, pp. 57-62, 11-14.
[58]
[59]
[60]
C. Deisy, B. Subbulakshmi, S. Baskar, and N. Ramaraj, “Efficient Dimensionality Reduction Approaches
for Feature Selection,” in International Conference
on Computational Intelligence and Multimedia Applications, vol. 2, Sivakasi, Tamil Nadu, Dec. 2007, pp.
121-127.
[61]
M. Dash and H. Liu, “Feature Selection for Classification,” Intelligent Data Analysis: An Internat. J., vol. 1,
no. 1, pp. 131-156, 1997.
[62]
M. Dash and H. Liu, “Consistency-based search in feature selection,” Artificial Intelligence, vol. 151, no. 1-2,
pp. 155-176, Dec. 2003.
[63]
[64]
[65]
T. Kohonen, Self-Organizing Maps, Third Edition ed.
Berlin: Springer, 1995.
Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado
[80]
J.M. Mendel and Wu Hongwei, “Type-2 Fuzzistics for
Symmetric Interval Type-2 Fuzzy Sets: Part 1, Forward
Problems,” Fuzzy Systems, IEEE Transactions on , vol.
14, no. 6, pp. 781-792, Dec. 2006.
[81]
J.M. Mendel, “Type-2 fuzzy sets and systems: An overview.,” IEEE Comput. Intell. Mag., vol. 2, no. 1, pp. 20–
29., Feb. 2007.
[82]
H. Hagras, “Type-2 FLCs: A New Generation of Fuzzy
Controllers ,” Computational Intelligence Magazine,
IEEE , vol. 2, no. 1, pp. 30-43, Feb. 2007.
[83]
J.M. Mendel, R.I. John, and Liu Feilong, “On using type1 fuzzy set mathematics to derive interval type-2 fuzzy
logic systems,” in Fuzzy Information Processing Society, 2005. NAFIPS 2005. Annual Meeting of the North
American, 2005, pp. 528- 533.
[84]
K. W. Reed, “Type-1 And Type-2 Fuzzy Systems For
Detecting Visitors In An Uncertain Environment,” Dissertations, Academic, University of Missouri, Columbia , Computer engineering, Columbia, Tesis Maestria
2009.
[85]
H. Wu, H. Wu, and J. Luo, “An Interval Type-2 Fuzzy
Rough Set Model for Attribute Reduction,” IEEE Transactions on Fuzzy System, vol. 17, no. 2, pp. 301-315,
2009.
[86]
E. C. Tsang, D. Chen, D. S. Yeung, x. Z. Wang, and J. W.
Lee, “Attributes Reduction Using Fuzzy Rough Sets,”
IEEE Transactions On Fuzzy Systems, vol. 16, no. 5, pp.
1130-1141, 2008.
[87]
R. Jensen and Q. Shen, “Fuzzy-Rough Sets for descriptive Dimensionality Reduction,” in Fuzzy Systems, IEEE
International Conference, Honolulu, HI , USA , 2002,
pp. 29-34.
[88]
R. B. Bhatt and M. Gopa, “On fuzzy-rough sets approach to feature selection,” Pattern Recognition Letters,
vol. 26, no. 7, pp. 965-975, May 2005.
[89]
G. C. Tsang, C. Degang, E. C. Tsang, J. W. Lee, and D. S.
Yeung, “On attributes reduction with fuzzy rough sets,”
in IEEE Conferences, vol. 3, 2005, pp. 2775-2780.
[90]
P. Maji and S. K. Pal, “Feature Selection Using F-information Measures in Fuzzy Approximation Spaces,”
IEEE Transaction on Knowledge and data Engineering,
vol. 22, no. 6, pp. 854-867, Jun. 2010.
215
Procesamiento de imágenes bajo Windows CE
utilizando el procesador ARMv 4I
Jorge Andrés Álvarez Triana
Ing. Biomédico, Universidad Antonio Nariño
Docente Tiempo Completo, Investigador Grupo GEPRO,
Universidad Antonio Nariño UAN Ibagué, Colombia
[email protected]
José Armando Fernández Gallego
MSc. Automatización Industrial,
Universidad Nacional de Colombia sede Manizales
Docente Tiempo Completo, Investigador Grupo GEPRO,
Universidad Antonio Nariño UAN Ibagué, Colombia
[email protected]
Resumen— En este artículo se presenta una metodología para el desarrollo de aplicaciones en dispositivos
embebidos y móviles para el procesamiento digital de
imágenes. Se muestra un ejemplo de desarrollo de una
máscara sobel para detección de bordes aplicada sobre
la imagen de Lena en el dispositivo Zeus Epic 520 que
cuenta con el procesador ARMV4I con sistema operativo Windows CE.
de trabajo con diferentes leyes de operación y que
necesariamente para su programación requieren
de un nuevo compilador que pueda traducir el
lenguaje C/C++ a su respectivo conjunto de instrucciones. Dado que cada fabricante posee una
forma diferente de configuración del compilador,
de sus dispositivos, su interfaz e interconexión
con su plataforma de desarrollo puede llegar a ser
confuso la forma de emprender una implementación con éxito en este nuevo sistema. En este
artículo se presenta la metodología utilizada para
programar el procesador ARMV 4I mediante el
compilador Embedded Visual C++ 4.0 para aplicaciones bajo Windows CE 5.
Palabras clave— Dispositivo embebido, Procesador
ARMv 4I, procesamiento de imágenes, Windows CE.
Abstract— This paper presents a methodology for the
design of applications in embedded and mobile dispositives for digital image processing. Shows an example
of design using a sobel mask for edge detection on the
image of Lena in the dispositive Zeus Epic 520 which
count with ARMv 4I processor with Windows CE operative system.
Keywords— Embedded dispositive, ARMv 4I processor,
Image processing, Windows CE.
I. INTRODUCCIÓN
Actualmente los sistemas de cómputo utilizan
procesadores programados en lenguaje C/C++
como un estándar adoptado en la industria con
el que se abre la posibilidad de utilizar códigos de
programación en diferentes arquitecturas de dispositivos mediante el compilador apropiado para
cada uno. Como una primera etapa natural para
un programador es realizar sus desarrollos en lenguaje C/C++ con compiladores para Windows o
Linux, con los que es posible realizar cada una de
las funciones implementadas a nivel de hardware
con éxito, hasta este momento es transparente
para el desarrollador la forma exacta en que los
datos van a ser manipulados por el procesador.
Cuando se requiere desarrollar aplicaciones
en una arquitectura diferente a la de un PC convencional, es necesario ahora centrarse en el conocimiento de la arquitectura del nuevo dispositivo, debido a que este es ahora un nuevo espacio
II. MATERIALES y MéTODOS
A. Sistemas Embebidos
Son dispositivos de propósito específico y dedicado, a diferencia de un PC convencional son
diseñados para ejecutar un número disminuido
de operaciones [1]. Estos sistemas se caracterizan por su tamaño reducido, su bajo consumo de
potencia y su bajo costo.
En [1] el autor explica las diferencias específicas con un sistema de cómputo convencional con
los siguientes argumentos:
• Generalmente son de costo reducido
• La mayoría poseen restricciones de tiemporeal
• Existen múltiples arquitecturas de procesadores (MIPS, ARM, PowerPC y otros) cuyas características varían según la aplicación específica del sistema embebido (procesamiento de
imágenes, transmisión de datos, entre otros)
• Poseen recursos limitados de memoria RAM,
ROM u otros dispositivos de Entrada /Salida
Recibido: 04/08/2011/ Aceptado: 10/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222
Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I - Álvarez, Fernández
(E/S) en comparación con una computadora
tipo PC
• Un sistema embebido es diseñado desde dos
perspectivas, hardware y software, habida
cuenta su aplicación específica.
Este tipo de sistemas suele imponer límites de
interacción con el usuario o restringirlo con la finalidad de evitar las modificaciones al sistema base.
a). Arquitectura
Los sistemas embebidos son implementados
en una sola tarjeta y en esta se encuentran contenidos los recursos necesarios y suficientes para
su funcionamiento, tales como memoria RAM, microprocesador y puertos de comunicación, entre
otros. Ver Fig. 2. La mayoría de estos recursos no
son ampliables; y si existe la posibilidad no son de
fácil acceso al usuario del común a excepción de
los conectores y buses de datos que suministra el
fabricante.
b). Procesadores integrados
Frecuentemente los sistemas embebidos tienen microprocesadores - integrados denominados SOC por sus siglas en inglés system on chip.
Los procesadores tipo SOC poseen integrados
componentes controladores DRAM, USART, UART,
ETHERNET, PCI, y otros. La arquitectura habitual
de los procesadores SOC es de tipo RISC por sus
siglas en inglés reduced Instruction set computer,
la cual puede apreciarse en la Fig. 1.
Fig. 1. ARQUITECTURA DE PROCESADOR SOC TIPO RISC TOMADO DE [1]
2)
3)
4)
5)
217
quitectura lo que dicta las pautas, normas y
recursos disponibles para tal fin.
La comprensión del kernel o sistema operativo del dispositivo es fundamental, ya que
incluidas dentro de este se encuentran disponibles las librerías necesarias para el manejo de imágenes; junto a estas es necesario
revisar las incluidas por el fabricante. Si las
librerías no son eficientes al aprovechar los
recursos del sistema y consumen mayor tiempo máquina del esperado es necesario utilizar herramientas básicas del lenguaje C/C++
apoyadas por la base matemática de las técnicas del procesamiento digital de imágenes.
Es necesario entender las limitaciones del
sistema tanto en software como en hardware
para aprovechar al máximo los recursos disponibles.
El conocimiento de las herramientas de desarrollo es fundamental ya que estas difieren
de las estándar siendo específicas para el dispositivo. El fabricante suele proporcionar los
kits estándar de desarrollo que se encargan
de enlazar la herramienta de desarrollo junto
con las librerías del dispositivo y su procesador.
Es preciso un patrón de comparación de los
resultados obtenidos contra una herramienta
de software especializada en procesamiento
digital de imágenes o librería para compiladores C/C++ estándar para realizar el ajuste
finó de algoritmos.
III. LIMITACIONES DEL SISTEMA
A. Procesador ARMv 4I
B. Metodología
La secuencia metodológica ordenada por pasos para el desarrollo de aplicaciones en procesamiento digital de imágenes en sistemas embebidos debe ser:
1) Al abordar la programación de cualquier sistema embebido es el conocimiento de su ar-
Este procesador tiene una arquitectura tipo
RISC de 32 bits y preparado para trabajar en ambientes industriales.
Dentro las limitaciones del procesador ARMv
4I [1] se tienen:
1) Punto flotante
Su arquitectura es diseñada para aplicaciones
móviles y embebidas optimizada para operaciones con valores enteros, pero no tiene soporte
para operaciones de punto flotante [2], [3], [4],
aunque es capaz de emularlas mediante instrucciones ilegales. Para utilizar este tipo de operacio-
218
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222
nes el compilador C/C++ envía órdenes al procesador para que haga uso del emulador interno de
operaciones punto flotante, lo que puede llevar a
errores inesperados por exceso de operaciones
ilegales y desborde de pila si existe exceso de datos de este tipo.
2) Velocidad
La velocidad establecida para el reloj de este
procesador es 520 MHz. El procesamiento en
tiempo real es limitado por esta velocidad y las
aplicaciones robustas deben ser puntuales, precisas y eficientes. Es recomendable no hacer uso
de gran cantidad de variables flotantes para no
aumentar el tiempo de respuesta.
necesaria la instalación de Microsoft Active Sync
3.75 o superior.
Puede realizarse sincronización por medio de
conexión Ethernet / LAN, vía bluethoot y vía USB.
El programa hace uso del protocolo IP v4 en su
versión 3.75, donde el host es Windows xP y el
cliente es Windows CE permitiendo importar y
exportar datos entre los dos sistemas. Microsoft
Active Sync se encarga de la compatibilidad entre archivos debido a que las cabeceras de los
mismos son distintas en Windows xP y Windows
CE [10].
B. Windows CE 5
Características como bajo consumo de potencia e integración en una sola placa son propias
de los sistemas embebidos. El sistema ZEUS
EPIC 520 de la empresa Eurotech cumple con
estos lineamientos básicos y posee características necesarias y suficientes de procesamiento y
velocidad.
Este dispositivo posee un procesador ARMv 4I
como el usado por celulares, GPS y Tablet PC.
Cuenta con una memoria RAM de 256 MB en
board, memoria flash 64MB, 256kB de memoria
RAM de respaldo con batería y un socket para
memorias SD y MMC. A nivel video y gráficos ostenta un controlador para su respectiva pantalla
táctil, un controlador de captura rápida de video
y controlador de video de salida VGA. Interfaces
de comunicación entrada salida como Ethernet,
RS 232, RS 422, RS 485, USB 1.1 y soporte para
modem wireless [5]. En la Fig. 2 se muestra el
diseño esquemático del dispositivo.
Dentro de las limitaciones para esta versión
embebida de Windows encontramos:
1) Módulos
Windows CE 5 a diferencia de las versiones
para PC convencional está constituido por módulos, la inclusión de estos varía según el fabricante del dispositivo en donde está instalado. Así el
fabricante del sistema podría prescindir de funciones necesarias para el procesamiento gráfico y
otras funciones requeridas.
2) Procesos
Windows CE 5 es multitarea, cada proceso ejecutado tiene un límite de 32 MB y restringe los
recursos disponibles para la aplicación que va a
desarrollar [6], [7], [8].
3) Actualización del sistema
La forma de actualización del sistema requiere
escribir la memoria Flash o Flash NAND. Si este
proceso se realiza de forma incorrecta se corre el
riesgo de inutilizar el dispositivo [9].
IV. SINCRONIZACIÓN WINDOWS CE 5 –
WINDOWS xP
Al desarrollar una aplicación para cualquier
dispositivo embebido es necesario sincronizar datos entre el sistema de desarrollo y el dispositivo
sobre el cual se programa.
Para el caso del software de desarrollo Embedded Visual C++ la sincronización de datos es
puntual a la versión del software requiriendo de
Windows xP o inferior mínimo Windows 2000. Es
V. DISPOSITIVO DE DESARROLLO
Fig. 2. DISEÑO ESQUEMÁTICO DEL DISPOSITIVO EMBEBIDO
ZEUS EPIC 520
Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I - Álvarez, Fernández
VI. SOFTWARE DE DESARROLLO
Al desarrollar una aplicación para un dispositivo embebido es necesaria la instalación del set
estándar de desarrollo, por su sigla en inglés SDK,
proporcionadas por el fabricante. El software de
desarrollo debe ser capaz de interpretar el SDK y
permitir seleccionarlo de una lista.
A. Embedded Visual C++
Este software de desarrollo está orientado a
aplicaciones móviles o embebidas. Su interfaz
gráfica es semejante a la de Visual C++ 6.0, enfocada a la programación en el API (Aplicativo de
interfaz de programación) de Windows CE en sus
diferentes versiones, sin dejar de lado el desarrollo estándar C++.
1) Configuración del software
El programa puede configurarse desde el
menú Tools. Los submenús necesarios para la
configuración son los siguientes:
a) Menú Options
Muestra diferentes opciones organizadas por
pestañas como se muestra en la Fig. 3. Entre las
cuales encontramos configuración del editor, tabulaciones, ajuste (debug), compatibilidad, descarga (download), construir (build), directorios,
espacio de trabajo, macros y forma. Donde las
pestañas fundamentales para la configuración
son descarga, directorios y espacio de trabajo.
Fig. 3. CUADRO DE DIÁLOGO DEL MENÚ OPCIONES
219
torio es necesario una vez creado un proyecto ir
al menú proyecto (Project) pestaña enlace (link) e
incluir los nombres de los módulos de librería .lib
en la opción Object/library modules.
La pestaña descarga (download) permite administrar que datos propios del ejecutable son enviados al dispositivo y cambiar el tiempo de espera
para detectar la sincronización con el dispositivo.
En la pestaña espacio de trabajo (workspace)
encontramos las opciones que nos permiten vigilar el programa mientras corre en modo ajuste
(debug). Las esenciales son salida (output) que
visualiza lo compilado y posibles errores, observar
(watch) que permite vigilar la variables, memoria
(memory) que permite ver recursos disponibles y
en cola (call stack) que permite vigilar el estado
de pila. La importancia de estas opciones radica
en la limitación de recursos que se tiene por parte
del dispositivo por lo cual es imperioso vigilar y observar para prevenir y corregir errores.
b) Menú Configurar director de plataforma
(configure Platform Manager)
Desde este menú es posible administrar los
dispositivos instalados por el SDK del fabricante
así como los emuladores de pocket PC o de Windows CE, que permiten configurar el método de
sincronización con el dispositivo. Es recomendable ajustarlo a Microsoft Active Sync y hacer el
test de sincronización.
B. Proyecto en Embedded Visual C++.
Como es tradición en los ambientes de trabajo
de Microsoft visual studio para ejecutar el código
es necesario crear un nuevo proyecto, la diferencia radica en la posibilidad de elegir el procesador
con el cual se desea trabajar [10] en este caso
particular el procesador ARMv 4I ver Fig.4.
Fig. 4. CUADRO DE DIÁLOGO NUEVO PROYECTO
La pestaña directorios permite enlazar librerías y los SDK al procesador y plataforma de desarrollo. Los enlaces se logran al escribir la ruta
del directorio que contiene los archivos necesarios según sea el tipo incluir (include), librerías (library), origen (source) o ejecutable. Para enlazar
librerías además de especificar las rutas de direc-
220
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222
También posee la alternativa de elegir una
plantilla de aplicación previamente configurada, o elegir una guía de configuración de la
aplicación. Aunque venga previamente configurado o se utilice la guía de configuración es
recomendable configurarlo manualmente como
se ha descrito anteriormente.
Una vez creado el proyecto podemos seleccionar el SDK, procesador y dispositivo a utilizar
desde la barra de herramientas configuración
de WCE, dentro de esta barra encontramos dos
modos de compilación / ejecución; un modo
ajuste (Debug) y un modo (lanzamiento) (release). El modo ajuste (debug) compila y ejecuta
conjuntamente el embedded visual C++ con
el dispositivo. El modo lanzamiento (release)
ejecuta totalmente el código en el dispositivo y
este sirve para guardar en la memoria del dispositivo él ejecutable.
C. Punto de entrada Winmain en Windows
CE.
A diferencia de C/C++ estándar donde se utiliza la función main en el compilador embedded
visual c++ es necesario utilizar Winmain. Los
parámetros de esta función son definidos por el
sistema operativo y son universales para todas
las clases de arquitectura de Windows. Cada
parámetro pasa al sistema operativo como código de salida. Winmain se encarga de traducir
y trasladar mensajes, y de cargar los aceleradores internos de Windows para ejecutar procedimientos de ventana. [7], [8] y [10].
D. Portabilidad del código
El código no es portable ni compatible con
otras versiones del mismo, por ejemplo un código escrito para la versión 5 puede no ser ejecutado en la versión 6.
La portabilidad del código entre procesadores asumiendo la misma versión de Windows y
los mismos contenidos, depende que sean de
la misma familia o compatibles, por ejemplo un
código compilado con un procesador ARMv 4I
no es portable a un procesador x86, pero si es
compatible con un ARMv 4T.
E. Archivo ejecutable
El archivo .exe generado por el compilador es
descargado al sistema de ficheros del dispositi-
vo. La permanencia del mismo depende del dispositivo en sí; para el caso del ZEUS EPIC 520
[5], [10] este es guardado en directorio raíz a la
parte de ficheros en RAM, por lo que al cortar
la alimentación del dispositivo el ejecutable se
pierde. Esto se soluciona mediante la entrada
que posee el dispositivo para memorias externas SD o USB que retengan los datos de forma
permanente. Para caso de dispositivos móviles
como Pocket PC o teléfonos móviles es guardado en la memoria removible del dispositivo.
VII. LECTURA y ESCRITURA DE LA
CABECERA DEL FORMATO BMP
Las librerías contenidas en Windows CE para
carga de imágenes son poco eficientes a nivel
velocidad por lo tanto es necesario utilizar un
métodos alternativos de carga como lo es leer
la imagen directamente desde un buffer binario.
Durante este trabajo es utilizado el formato BMP;
formato de archivo básico usado para imágenes
digitales en Windows. Este es soportado por la
mayoría de versiones de Windows.
El formato BMP es compuesto por:
1) Cabecera de archivo.
2) Cabecera de mapa de bits
3) Tabla de color
4) Datos crudos de la imagen.
La cabecera del archivo mostrada en la Figura 4 es formada por los primeros 14 bytes.
Donde los primeros dos bytes indican el tipo del
archivo que pueden ser en formato hexadecimal
(4D42) ó en ASCII (BM). Los siguientes cuatro
bytes indican el tamaño del archivo, seguidos
de dos bytes reservados. Los bytes restantes
dan un valor offset a los datos de imagen [6].
La cabecera de mapa de bits es conformada
por 40 bytes mostrados en la Figura 4 b). Inicia con el tamaño de la cabecera siempre de
40 seguida del tamaño de la imagen en alto y
ancho; si el valor del alto es un número negativo significa que la imagen está invertida o fue
almacenada de abajo hacia arriba. El siguiente
campo contiene los planos de color donde 1 es
representa imágenes blanco y negro, y 3 para
imágenes de color RGB. Los siguientes 2 bytes
Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I - Álvarez, Fernández
indican los bits por pixel, por ejemplo, 8 es para
256 niveles de grises. El campo que corresponde a compresión activa la compresión si está
en uno y desactiva en cero. Los siguientes dos
campos expresan la resolución horizontal y vertical, están medidos en pixeles por metro. Por
último los dos campos relacionados con color
ayudan a descomprimir e interpretar los colores
junto con la tabla de color [11].
Fig 5. ESTRUCTURA DE LA TRAMA DE DATOS DE LAS CABECERAS DEL
FORMATO BMP. A) CABECERA DE ARCHIVO, B) CABECERA DE MAPA DE
BITS [6]
221
Fig. 6. MÁSCARAS DE SOBEL VERTICAL Y HORIZONTAL
La fig. 6 muestra la matriz I que representa la imagen de entrada suponiendo que es de
3x3. Las ecuaciones 1 y 2 muestran como se
calculan los gradientes Gmx y Gmy [12], [13].
Fig. 7. MATRIZ I QUE REPRESENTA LA IMAGEN DE ENTRADA
1.
Más allá de las cabeceras se cuenta con la
tabla de color, que funciona reasignando un valor de entrada a un valor de color.
La parte final de la trama corresponde a los
datos almacenados de la imagen en la extensión BMP, datos que deben ser interpretados
con la tabla de color.
Para aumentar la velocidad de procesamiento, la lectura del archivo se realiza con la función fopen para la carga del archivo y fread con
su respectiva cabecera <commctrl.h>.
Para escritura se utiliza la función fopen con
la bandera w para escribir un nuevo archivo y
adicionalmente se utiliza fwrite para agregar
nuevos datos a la trama del archivo [11].
VIII. RESULTADOS
En el dispositivo de desarrollo se realizó
un ejercicio de implementación con el filtro de
SOBEL que se muestra en la Fig. 6. Las ecuaciones utilizadas para obtener el valor total del
gradiente son (1) y (2). En donde las operaciones básicas desarrolladas son suma, resta potenciación y radicación al procesar los datos
obtenidos por medio de la memoria flash y la
memoria del programa.
2.
3.
Para obtener el gradiente total de salida se
utiliza la ecuación 3 donde Gp es la imagen del
gradiente total calculado [12], [13].
La Fig.8 muestra la imagen de entrada I y
las imágenes de salida Gmx, Gmy y Gp con 8
bits de resolución en escala de grises y con 8
bits de resolución. En el primer cuadrante se
muestra la imagen de entrada Lenna en formato BMP; en el segundo y tercer cuadrante
se muestra el resultado de aplicar el operador
sobel vertical y horizontal. La imagen del cuarto cuadrante muestra el resultado final de la
implementación del filtro sobel mediante C/
C++ que hace uso del embedded visual C++
para el sistema embebido Zeus Epic 520 con
procesador ARMv 4I.
222
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222
Fig. 8. RESULTADO DE APLICAR EL OPERADOR SOBEL SOBRE LA IMAGEN
EN EL DISPOSITIVO ZEUS EPIC 520
total conocimiento de la herramienta utilizada y su
respectivo entorno de desarrollo.
REFERENCIAS
Los datos de salida del filtro deben ajustarse a
la resolución máxima de 8 bits.
El tiempo empleado por el dispositivo al leer,
detectar bordes y escribir la imagen de salida en
formato BMP fue de 1,89 s.
xI. CONCLUSIONES
Los sistemas de procesamiento actuales de
tipo embebido cuentan con una arquitectura limitada y diferente a los sistemas de cómputo
tradicional, las implementaciones en esta nueva
arquitectura deben estar soportadas por el estudio previo del sistema donde se quiere realizar
el procesamiento de los datos con el objetivo de
conocer sus herramientas y limitaciones propias.
Antes de elegir un dispositivo embebido es una tarea fundamental conocer la aplicación específica
que se quiere realizar, el entorno de trabajo donde
se alojará el dispositivo y las garantías de programación tales como librerías, programas de sincronización y desarrollo que garanticen un acompañamiento al programador al emprender su tarea.
En el ejemplo de aplicación que se muestra
en este artículo se recopila no solamente la realización de una máscara espacial a una imagen,
sino una tarea de investigación y documentación
previa que debe seguirse al momento de programar una arquitectura embebida. El filtro de sobel
implementado no cuenta con limitaciones numéricas de procesamiento y su resultado es el mismo que se obtendría con otro sistema de procesamiento clásico, este resultado se logra con el
[1]
C. Hallinan,”Embedded Linux primer”, Prentice hall,
september 2006, capítulo 2.
[2]
ARMv 5 Reference manual, ARM ltda, 2005 disponible
en http://infocenter. arm.com/help/index.jsp?topic=/
com.arm.doc.ddi0100i/index.html, 2007 copyrigth.
[3]
Devian, “ArmEabiPort”, disponible en http://wiki.debian.org/ArmEabiPort, capítulo 4.
[4]
ARM,“Procedure Call Standard for the ARM® Architecture”, ARM IHI 0042D, current through ABI release
2.08, October 2009.
[5]
ARCOM, “ZEUS Windows CE Development kit Manual”,
2001 ARCOM.
[6]
Microsoft msdn, “Windows CE 5.0”, disponible
en
http://msdn.microsoft.
com/enus/library/
gg144991%28v= WinEmbedded.0%29.aspx, 2011
Microsoft.
[7]
S.Phung, “Profesional Windows CE 6.0”, Wiley Publishing inc, 2009.
[8]
S. Pavlov, P. Belevsky, “Windows CE 6.0 Fundamentals”, Microsoft Press. 1998.
[9]
Microsoft msdn, “Platform builder Users Guide Windows CE 5.0”, disponible en http://msdn.microsoft.
com/en-us/library/aa448756.aspx, 2011 Microsoft.
[10]
P. González, “Manual básico de Embedded Visual C++
4.0”, Universidad de Oviedo, 2004.
[11]
D. Phillips, “Image processing in C”, “2nd ed. R&D Publications, 2000, pp 7-21 , pp 47 -56.
[12]
W. K. Pratt, “digital image procesing”, Wiley-Interscience Publication,JOHN WILEY & SONS, INC, 3th edition,
pp 453 – 454.
[13]
Q. Ying-Donga, C. Cheng-Songa, C. San-Benb, L. JinQuana,” A fast subpixel edge detection method using
Sobel–Zernike moments operator”, Image and Vision
Computing 23, 2005, pp 11–17.
Diseño e implementación de un repositorio de
componentes software para soportar el desarrollo
de software empresarial – caso: División de
Servicios de Información de la Universidad
Industrial de Santander
Fernando Antonio Rojas Morales
M. Sc. en Ciencias Computacionales,
Universidad Industrial de Santander
Docente Tiempo Completo, Investigador Grupo GIIB,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Robinson Delgado Rojas
M. Sc.(c) Ingeniería de Sistemas e Informática,
Universidad Industrial de Santander
Ing. Diseño y Desarrollo,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Fredy humberto Vera Rivera
M. Sc. Ingeniería de Sistemas e Informática,
Universidad Industrial de Santander
Docente Tiempo Completo, Universidad Santo Tomás,
Investigador Grupo UNITEL, Universidad Santo Tomás USTA
Bucaramanga, Colombia
[email protected]
Resumen— El modelo de desarrollo basado en componentes es un nuevo paradigma de desarrollo que
permite la implementación de sistemas rápidamente,
a partir de componentes de software previamente desarrollados. El repositorio de componentes es la pieza
principal de este modelo de desarrollo ya que permite
la administración, selección, identificación, cualificación y ensamblaje de componentes de software.
En este artículo se explica el modelo de desarrollo, y
cómo se diseñará un repositorio de componentes para
dar soporte al proceso de desarrollo de software empresarial. Para el diseño se tendrán en cuenta todos los
requerimientos funcionales y no funcionales que debe
contemplar un repositorio de componentes, que soporte el modelo de desarrollo basado en componentes.
La implementación de este repositorio se aplicará a la
División de Servicios de Información DSI, de la Universidad Industrial de Santander UIS, como mejora al modelo de desarrollo allí implantado, para optimizar este
modelo de desarrollo por componentes, ya que con el
repositorio se permite disminuir los tiempos de búsqueda, selección e identificación de los componentes.
Además de mejorar los tiempos de respuesta de atención a las solicitudes de mantenimiento y desarrollo
que allí se generan, ya que las demoras se disminuyen
al máximo al obtener e identificar de forma rápida los
componentes que deben ser revisados o integrados en
los sistemas solicitados. También se elimina el desarrollo de componentes de forma repetida y descontrolada por la falta de la herramienta que permita monitorear y centralizar los componentes desarrollados.
Palabras clave— Componentes, Ingeniería de Software
basada en componentes, Repositorio de componentes.
Abstract— The component-based development model
is a new paradigm of development that allows the implementation of systems quickly, starting of software
components developed previously. The component’s
repository is the main tool of this development model
since it allows the administration, selection, identification and assembly of software components.
In this paper the development model will be explained, as well as the design of a component’s repository
to give support to the development process of business software. For this design all the functional and
non-functional requirements having component´s repository and giving support to components-based development model will be taken into account.
The deployment of this repository will be applied to Information Services Division of Universidad Industrial
de Santander UIS in order to improve the development
model implanted here, optimizing this development
components model. This repository can decrease times of searching, selection, and identification of
components. Besides, it shortens response times of
attention to the maintenance requirements and the
development that these generate. This is due to the
fact that the delays decrease to the maximum by getting and identifying quickly the components that it
would be verified or integrated in the requested systems. Also, it eliminates the development of repeated
and not controlled components due to the lack of a
tool that allows overlook and centralizes the components developed.
Keywords— Component, Component – Based Software Engineering, Component’s Repository.
Recibido: 11/06/2011/ Aceptado: 23/09/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233
224
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233
I. INTRODUCCIÓN
El modelo de desarrollo basado en componentes es una clase de enfoque que permite el desarrollo de software mediante la existencia de componentes de software preexistentes. Este enfoque
conlleva grandes cambios en el ciclo de vida [1].
Entre las ventajas del modelo de desarrollo basado en componentes se encuentran la mejora en la
producción de software y la disminución del costo
de desarrollo, además de disminuir el tiempo de
mantenimiento y pruebas [2].
Ya que los componentes son piezas de software independientes, con una lógica de negocios
e interfaces bien definidas para el acceso a sus
funcionalidades, se puede pensar en el desarrollo
de software como la creación y ensamble de estos componentes, pero para ello es indispensable
contar con una herramienta que permita almacenar, catalogar, seleccionar y ensamblar los componentes de interés para el desarrollador [3].
En la División de Servicios de Información se
cuenta con un grupo considerable de componentes desarrollados pero no se tiene una herramienta que permita la adecuada implementación del
modelo de desarrollo. Por ello se plantea la construcción de un repositorio de componentes que
optimice el modelo de desarrollo de la DSI.
Para la implementación de este repositorio se
han llevado a cabo varias etapas de carácter obligatorio que permiten identificar las funcionalidades requeridas por la DSI en el repositorio. Etapas
como la obtención de los requerimientos de la DSI
para implantación del repositorio, funcionalidades
que debe prestar el repositorio en el modelo de
desarrollo, además de contar con algunas restricciones propias del modelo de desarrollo de la DSI.
Para ello se debe identificar el modelo del dominio, capturar los requerimientos de dicho modelo,
elegir la arquitectura de software, construcción y
población del repositorio entre otras [4].
A continuación se explicará brevemente la metodología utilizada durante el desarrollo de la propuesta.
II. METODOLOGÍA
Para el diseño e implementación de un repositorio de componentes que permita dar soporte
al modelo de Desarrollo Basado en Componentes
CBD (Component-Based Development), es necesario conocer plenamente los requerimientos de este paradigma de desarrollo. Para ello
se ha realizado un estudio del modelo de desarrollo y su funcionamiento dentro de la División
de Servicios de Información, ya que éste será
implementado para dar soporte a esta empresa
de desarrollo de software.
Como primera medida se ha recolectado la
mayor información posible acerca de los procedimientos y falencias del modelo implementado
allí, de este estudio particular y el conocimiento acerca del modelo de desarrollo basado en
componentes nace un problema que se debe
considerar.
A. Problema de investigación
Debido a que el modelo de desarrollo de software de la División de Servicios de información
es el CBD y no cuenta con una herramienta que
permita la administración de los componentes
desarrollados que pueden ser utilizados en el
proceso, nace un problema que debe ser resuelto y es el siguiente:
¿Cómo optimizar la disposición de componentes implementados para mejorar el proceso de
desarrollo de software en la División de Servicios
de Información?
Como parte de la solución de este problema
surge la necesidad de un sistema que permita,
además de la centralización de los componentes
desarrollados, acciones como consultar, seleccionar e identificar componentes que puedan ser
integrados en el desarrollo de un nuevo sistema
software.
Para determinar la forma de satisfacer las necesidades y/o falencias del modelo de desarrollo
de software implementado en la DSI, se debe realizar algunas preguntas que permitan desglosar el
problema planteado.
B. ¿Cómo identificar los componentes que
cumplen con los requerimientos del desarrollador para su reutilización?
Para identificar un componente debidamente
es necesario definir las características relevantes
de este, y así crear su ficha de especificación para
que el desarrollador pueda utilizarla para la plena
identificación del componente requerido.
Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso:
División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera
C. ¿Qué alternativas de arquitectura se pueden
utilizar para el desarrollo del repositorio de
componentes reutilizables?
B.
225
El Repositorio de componentes
A continuación se detallará en el modelo de
desarrollo, la importancia del repositorio de componentes, sus funcionalidades y beneficios.
El reposito de componentes es herramienta
que permite buscar, hallar y administrar los componentes de software que se utilizarán para el
desarrollo de una nueva aplicación de negocios
[5]. Un repositorio de componentes debe soportar algunas actividades principales del modelo
de desarrollo CBD, tales como: búsqueda, selección, verificación y almacenamiento [5].
En la actualidad existen varios repositorios
de componentes, algunos de carácter gubernamental y otros comerciales, como el CRECOR,
GIRO y +1Reuse Repository, entre otros [2] [6]
[7]. Estos ofrecen algunas funcionalidades, de
las que se esperan de un repositorio de componentes, pero no cuentan con algunas funcionalidades que pueden ser importantes para
empresas que desarrollan y utilizan dichos
componentes, a diferencia de la mayoría de
empresas que desarrollan componentes y son
creados en su mayoría para utilización o integración por terceros. Entre algunas de estas
funcionalidades se pueden observar la búsqueda o identificación por medio de la estructura
de datos o tablas que toca el componente en la
base de datos, otra funcionalidad importante
es la de poder observar un componente en funcionamiento desde el repositorio mismo, ya que
éste permite eliminar cualquier duda acerca del
componente elegido.
En la construcción de un repositorio se debe
tener en cuenta definir la forma de búsqueda de
componentes en el repositorio, es decir, definir
el sistema de congruencia entre los parámetros
de búsqueda y la metadata del componente.
También definir las funciones que se van a permitir ejecutar desde el repositorio, además de
información que se va a visualizar y grabar en el
momento del registro del componente.
A. El Proceso de Desarrollo Basado en Componentes (CBD)
C. Funcionalidades Principales de un Repositorio de componentes.
El proceso de desarrollo basado en componentes permite elevar la eficiencia del proceso mismo de desarrollo de componentes. Este
proceso puede dividirse en 2 grandes áreas
[5], enfocadas básicamente a la producción de
componentes, y a la utilización de los mismos
dentro del repositorio para la integración de
nuevos sistemas.
Algunas principales funcionalidades que debe
contemplar un repositorio de componentes son:
1) Búsqueda
Esta actividad hace referencia a encontrar dentro de un espacio o un conjunto de componentes
aquel que provea las funcionalidades requeridas
por el sistema que se desarrolla.
Es necesario definir la estructura que se utilizará para la construcción del repositorio, ya que
de ella depende la relación entre los componentes registrados y el sistema repositorio.
D. ¿Qué estructura de datos se debe crear con
el fin de implementar un repositorio de componentes funcional y completo?
Para implementar un repositorio que cumpla
las expectativas y requerimientos de la División,
se debe diseñar una estructura de datos que
contemple todos estos requerimientos y funcionalidades exigidas, de tal forma que pueda
integrarse al modelo de desarrollo de la DSI y
permitir la solución de la problemática allí evidenciada.
E. ¿Cómo se debe especificar un componente
de software para permitir su plena identificación?
Para especificar un componente de software
se debe luego de definir un procedimiento de especificación, registrar su ficha en el repositorio
y permitir la consulta de dicha ficha por el desarrollador con el fin de facilitar la identificación o
rechazo del componente.
A continuación se definirán algunos conceptos básicos acerca del modelo de desarrollo CBD
y su herramienta principal.
III. REPOSITORIO DE COMPONENTES –
GENERALIDADES
226
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233
2) Selección.
Los componentes candidatos son hallados, de
ellos se toma el que mejor se acomode a los requerimientos y funcionalidades.
3) Verificación
Esta actividad podría ser parte de la selección
del componente, ya que contempla actividades de
pruebas de funcionalidad del componente separado del sistema.
4) Almacenamiento.
Cuando un componente es terminado y está
debidamente probado, este debe poder registrarse en el repositorio, para hacer parte de él, para
ello debe registrarse también la metadata del
componente junto con su ficha de especificación.
D. Elección de la Arquitectura
En la actualidad existen varias arquitecturas
que pueden adoptarse para el diseño de un repositorio de componentes, entre ellas se tienen:
modelo-vista-controlador, Arquitectura por capas
y Arquitectura orientada a servicios (SOA) [8]. De
la elección de la arquitectura depende el funcionamiento y la forma de interacción entre los diferentes subsistemas del repositorio, además de la
interacción del usuario y el repositorio en sí.
E. Beneficios
Entre los principales beneficios del modelo de
desarrollo basado en componentes se tienen la
economía en el tiempo de desarrollo, tiempo para
pruebas, tiempo de mantenimiento y la mejora en
la calidad del software desarrollado, todas estas
debido al desarrollo anticipado y reutilización de
software que permite probar y utilizar software
una sola vez y ser implementado en varios sistemas con la plena seguridad de su correcto funcionamiento.
Se explicará detalladamente cómo se implementó el repositorio de componentes para la División de Servicios de Información de la Universidad
Industrial de Santander.
IV. DISEñO E IMPLEMENTACIÓN DEL
REPOSITORIO DE COMPONENTES UIS
Se explicará en detalle los pasos y requerimientos que se tuvieron en cuenta para el diseño y desarrollo del repositorio de componentes requerido
por la División de Servicios de Información de la
Universidad Industrial de Santander UIS. Sección
encargada del mantenimiento y desarrollo de todos los sistemas informáticos académicos y administrativos institucionales.
A. Adquisición de requerimientos
Para la División de Servicios de Información
de la Universidad Industrial de Santander es de
vital importancia que el repositorio de componentes cumpla con una serie de funcionalidades
que permitan optimizar el proceso de desarrollo basado en componentes allí implementado,
para ello es importante definir algunos requerimientos que este repositorio debe contemplar.
Para obtener estos requerimientos es importante tener en cuenta la experticia del grupo de desarrolladores de software de la DSI con el fin de
obtener información acerca de qué y cómo debe
hacerse para obtener información del componente y qué datos son realmente relevantes en
el momento del registro. Adicionalmente, se tiene en cuenta algunos parámetros que si bien no
permiten la flexibilidad del sistema, si agilizan
el procedimiento de registro y búsquedas. Entre ellos se tienen la utilización de atributos de
tipo string en vez de tablas de descripciones, y
el uso de campos redundantes para consultas
por personas con diferente conocimiento de la
programación (tablas – entidades).
Entre ellas están las funcionalidades propias
de un repositorio de componentes: almacenamiento, búsqueda, selección e identificación de
componentes, pero adicionalmente se desean
algunas funcionalidades y adaptaciones propias de la DSI, que no permiten la implementación de un repositorio del mercado, por ello,
se recomienda el desarrollo e implantación de
un repositorio propio que implemente las funcionalidades requeridas y que adicionalmente
proporcione estas funcionalidades particulares
propias del modelo de desarrollo de la DSI. Uno
de los aspectos que se debe tener en cuenta
en el desarrollo del repositorio es la posibilidad de ver en funcionamiento el componente al
momento de su selección. Además, por política de la DSI, no se registrarán en el repositorio
componentes de diferentes casas de desarrollo,
sólo se almacenarán componentes desarrollados por la DSI.
Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso:
División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera
B. Funcionalidades y/o servicios
Dado que es un buen sistema, uno que sea
útil, aprovechable, fiable, flexible, accesible y disponible [11], y que el repositorio de componentes
de software de la DSI posea estas características,
se definieron las funcionalidades y servicios del
repositorio de componentes para la División de
Servicios de Información servicios las que se consideran propias de un repositorio de componentes
típico: registro, almacenamiento, búsqueda y selección de componentes [1], [9]. Adicionalmente
se contemplan otras funcionalidades que hacen
de este repositorio la herramienta ideal para ser
utilizada por los desarrolladores de la DSI, entre
las principales se encuentra la opción de observar
el componente en funcionamiento desde el repositorio con el fin de disipar cualquier duda acerca
de su funcionamiento. También se desea almacenar información acerca de cómo implementar el
componente o como se hace el llamado desde el
sistema en desarrollo. Para permitir la fiabilidad,
accesibilidad y disponibilidad del repositorio, se
han seguido algunos estándares de programación
y desarrollo establecidos por la DSI como la elaboración de prototipos de desarrollo para plasmar
los requerimientos en un modelo y ser validados
por el personal encargado de la DSI.
C. Definición de la arquitectura
La selección de la arquitectura es importante,
ya que se define cómo funcionará el repositorio internamente, es decir, cómo permitirá interactuar al
usuario con sus funcionalidades y la estructura de
la base de datos. La Ingeniería de Software Basada
en Componentes (CBSE: Component-Based Software Engineering), define varias arquitecturas que
pueden utilizarse en aplicaciones de desarrollo de
software. Para el caso particular de la DSI, se tomará el mismo modelo arquitectónico implementado
para el desarrollo de los componentes, es la arquitectura por capas [8], ya que esta estructura es la
básica del desarrollo de aplicación en JAVA EE5,
tecnología adoptada por la División de Servicios de
Información, estándar en el cual se planteará el desarrollo del repositorio de componentes.
Las aplicaciones Java EE5 constan de tres capas principales: La cliente, la del servidor Java EE,
que se subdivide en dos: la web y de lógica del
negocio y, la de información empresarial, como se
muestra en la Fig. 1.
FIG. 1. ARQUITECTURA POR CAPAS
Fuente: SUN MICROSYSTEM, The Java EE5 tutorial. 2008
227
228
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233
D. Beneficios del repositorio
El repositorio de componentes es pieza fundamental en la ingeniería de software basada en
componentes, ya que permite la centralización,
unificación de los componentes y optimización en
los tiempos de búsqueda, selección y pruebas de
los componentes.
En el proceso de desarrollo de software implementado en la DSI no se cuenta con un repositorio de componentes, razón por la cual la búsqueda
e identificación de componentes requería de una
buena cantidad de tiempo y no garantizaba la identificación ni existencia real de un componente, ya
sea por la falta de documentación o por el desarrollo descontrolado de componentes causado por la
necesidad del componente sin desarrollar aún.
Los beneficios que traerá el desarrollo de componentes en el modelo de desarrollo de DSI son:
Mejora en los tiempos de búsqueda, selección
e identificación de componentes, mejora en los
tiempo de desarrollo, ya que no se tendrán que
desarrollar nuevos componentes por no encontrarse en un sitio centralizado, mejora en los tiempos de pruebas, ya que las pruebas dedicadas a
los componentes no deben hacerse nuevamente,
ya que están debidamente probados, mejora la
calidad de software, ya que los desarrollados son
implementados por las personas que saben de la
lógica del negocio, se optimiza el tiempo de mantenimiento, ya que se mejora la documentación
de los componentes y se unifica la utilización de
componentes debido a la unicidad de los mismos.
E. Estructura de datos
Para el desarrollo de un repositorio de componentes se deben tener en cuenta las especificaciones y requerimientos definidos para él. El
modelo de datos o estructura diseñada debe soportar las funcionalidades definidas y permitir la
administración de los componentes. Para el desarrollo del repositorio de componentes de la DSI se
diseñó el modelo de datos que muestra la Fig. 2.
El prototipo de repositorio para la División de
Servicios de Información contempla las funciones para las que fue concebido, entre las restricciones establecidas figura el almacenamiento de
componentes desarrollados sólo por la DSI, el desarrollo de componentes en el estándar JAVA EE5 y
la documentación requerida del componente que
se contempla en la metadata o en la información
para búsqueda e identificación del componente.
Dentro del prototipo se contemplan búsquedas por nombre de la tabla en el modelo de
datos, entidades relacionadas, funcionalidad y
autor entre otras. Adicionalmente se registrará
información relacionada con la implementación
del componente.
FIG. 2. ESTRUCTURA DE DATOS DEL REPOSITORIO DE COMPONENTES DSI
Fuente: Autor del proyecto
Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso:
División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera
F.
229
Esta información permitirá su plena identificación e integración por parte del desarrollador que lo
consulte. Los atributos o datos de la especificación
se definen según los parámetros definidos para
búsqueda, identificación y selección del componente, además de otra información de importancia
que se desee guardar desde el mismo momento de
registrarlo en el repositorio de componentes.
Especificación del componente
La especificación de componente es una
parte importante en el modelo de desarrollo,
ya que permite la plena identificación del componente, además de guardar la información
relevante del mismo dentro del repositorio de
componentes.
TABLA I
ficha de especificación definida para los componentes desarrollados por la división de servicios de información de la UIS
FICHA DE ESPECIFICACIÓN DEL COMPONENTE
NOMBRE
DESCRIPCIÓN
Nombre del componente
FEChA:
Fecha de
creación
VERSIÓN
1.0
Descripción breve del componente, qué hace, las funcionalidades que maneja, domino de aplicación al cual pertenece.
ESPECIFICACIÓN DE IMPLEMENTACIÓN
TIPO VISUALIZACIÓN
Tecnología en la cual fue implementado el componente, junto con sus versiones.
INTERFAZ
Nombre de la interfaz que define los servicios del componente.
SERVICIOS
Define la signatura de los servicios que presta el componente.
SERVICIOS EAR
Define la signatura de los servicios que presta el componente en un ear.
FUENTE DE DATOS
Define el archivo donde se encuentra el data source del componente.
PRECONDICIONES
Definen los requisitos que se deben cumplir antes de entrar a utilizar el componente.
POSTCONDICIONES
Definen los requisitos que se deben cumplir después de utilizar el componente.
ESPECIFICACIÓN NO FUNCIONAL
GRADO DE
REUTILIZACIÓN
Es el puntaje obtenido por el componente en el análisis de reutilización realizado en el modelo de selección de componentes.
DISTRIBUCIÓN
Define la forma como se debe instalar y utilizar el componente en las plataformas soportadas.
ESPECIFICACIÓN DE IDENTIFICACIÓN
TABLAS
Define las estructuras de datos que están involucradas en el proceso.
ENTIDADES
Define las entidades relacionadas directamente con la lógica del componente.
PALABRAS CLAVE
Define o relaciona las palabras que identificarán el componente con los criterios de búsqueda.
SISTEMA
Sistema bajo el cual el componente fue desarrollado, y por lo cual pertenece su lógica de negocio.
FUNCIONALIDAD
Define las funcionalidades realizadas por el componente (INSERT, UPDATE).
AUTOR
Nombre de la persona que desarrolló de componente.
Fuente: Autor del proyecto
230
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233
En una ficha de especificación pueden distinguirse varios tipos de atributos, cada uno puede
agruparse según su función dentro del proceso de
desarrollo, es así que pueden observarse atributos
de identificación del componente como nombre,
firma, versión y descripción general, entre otros.
También se distinguen atributos orientados a la
búsqueda y selección, atributos como palabras
clave, autor, funcionalidades, entidades u objetos
relacionados con el componente entre otros.
Además existen otros atributos que sirven para
documentación complementaria del componente,
como precondiciones y postcondiciones del componente o arquitectura de desarrollo del mismo.
Cabe anotar que para algunos desarrolladores ciertos atributos pueden pertenecer a varios
de estos tipos o por el contrario pertenecer a otro
tipo del que se especificó en este documento.
G. Implementación del repositorio
Para la implementación de este repositorio, se
debe tener en cuenta los pasos o actividades anteriores que permiten plasmar las funcionalidades
y requerimientos demandados por la División de
Servicios de Información. Estas funcionalidades
o actividades que debe realizar el desarrollador
o programador en el repositorio de componentes
se ilustran mejor en el modelo de caso de uso
que se muestra en la Fig. 4.
Fig. 4. MODELO DE CASO DE USO DEL REPOSITORIO DE COMPONENTES DSI
Fuente: Autor del proyecto
Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso:
División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera
Para la implementación del repositorio se definen algunos EJB´s que permitirán agrupar las funcionalidades y/o actividades que se podrán ejecutar en el repositorio, entre los que se encuentran:
Registro, búsqueda, selección y reportes entre
otros, cada una de estos EJB posee funcionalidades propias de su lógica, por ejemplo el EJB de
búsqueda cuenta con métodos o funciones de
consulta, comparación, consistencia, visualización, inspección y recuperación.
Existe diferencia entre inspeccionar y recuperar, ya que recuperar consiste en identificar y extraer según el criterio de concordancia, e inspeccionar no requiere criterio predefinido [6].
Para las funciones de registro se decide agrupar los componentes en 2 grandes familias que
son componentes con interfaz y Componentes de
servicios o de recuperación de información.
H. Interface de usuario
La interfaz de usuario permite la interacción
con el repositorio de componentes, que habilita las opciones implementadas según el rol del
usuario.
En esta interfaz el usuario podrá acceder a
sus funciones principales como el registro del
componente, situación en la cual deberá diligenciar la ficha de especificación del componente
diseñada especialmente para identificación de
cada componente. Adicionalmente podrá consultar los componentes, al acceder a ellos inicialmente por medio de una consulta de criterios de
selección, entonces, podrá observar las propiedades y funcionalidades de cada componente mostrado como resultado de la consulta. El repositorio
de componentes permite que el implementador
observe toda la información de cada uno de los
componentes mostrados por la consulta con el fin
de permitir al desarrollador identificar plenamente el componente adecuado para su sistema en
desarrollo.
Entre la información que el implementador o
desarrollador puede visualizar de un componente se encuentran los datos de implementación,
como interfaces, servicios y tipos de componentes, además se pueden observar datos no funcionales y de selección e identificación como entidades, funcionalidad, tablas y autor, entre otros.
Ahora se presenta en la Fig. 5, la interface
principal de consulta, donde el desarrollador podrá elegir los criterios de búsqueda para realizar
la consulta en el repositorio de componentes.
Fig. 5. INTERFAZ DE USUARIO PARA CONSULTA DE COMPONENTES
Fuente: Autor del proyecto
231
232
I.
ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233
Registro de componentes
Antes del registro del componente se debe
determinar qué componentes deben ir en el repositorio, esto se hace por medio de los criterios
de reusabilidad que nos entregan una calificación del componente [4][8], la cual nos permite
determinar si el componente como tal cuanta
con un alto grado de reusabilidad. Para el registro y almacenamiento de cada componente en el
repositorio es indispensable contar con los datos
básicos de la ficha de especificación exigida por
el repositorio para el registro, ya que esta información será utilizada para su posterior identificación, además se debe contar con los archivos
fundamentales del componente, estos archivos
para el caso
particular de los componentes seleccionados
por la División de Servicios de Información (EJB),
estos archivos son:
1) JAR de Entidades
Archivo que contiene el mapeo de las entidades – estructura de datos.
2) JAR de Servicios
Archivo donde se implementa o escriben los
métodos o funciones que se ofrecen al usuario,
estas funciones deben estar claramente documentadas.
3) JAR de interfaz de usuario
En este archivo de distribución, se implementan las diferentes interfaces de usuario que el
componente mostrará al usuario en el momento
de su ejecución, es de notar que no todos los componentes requieren interfaces, ya que algunos de
ellos ofrecen el retorno de información no visible
para el usuario final, es decir, retornan objetos
con información que será tomada por otro proceso o componente.
4) EAR de servicios
Los EAR o “Enterprise Archives” son básicamente los JAR servicios empaquetados con archivos META-INF, esto debido a la estructura del Java
Application Server” que requiere dicha estructura
para su reconocimiento.
5) Datasource.xml Verificación
Los archivos de este tipo definen la conexión
con la base de datos, es decir, contienen la información del usuario, servidor y base de datos para
establecer la conexión.
J.
Búsqueda y selección de componentes
Para la consulta dentro del repositorio se contemplan varias áreas de búsqueda, para definir
estas áreas, se tuvo en cuenta la distribución y
conocimiento de las personas involucradas directamente en el proceso de desarrollo, es así
como para algunas personas es importante la
funcionalidad misma del componente, para otras
es de mayor relevancia las entidades u objetos
que se tocan en la lógica del negocio del componente. Para el personal de la DSI la información
puede variar según su función dentro del modelo, por ello algunas personas tienen cierto conocimiento con el cual deben hacer las búsquedas,
como conocimiento de la estructura de la base
de datos, pero no de la forma en que fueron denominados dichos objetos en el proceso de mapeo. Igualmente sucede con las funcionalidades
y palabras clave de búsquedas definidas para
cada componente.
Según todos estos requisitos, se definieron
varios patrones de búsqueda que pueden ser
seleccionados por el desarrollador en el momento de consultar el repositorio en busca de algún
componente que cumpla con las funcionalidades
deseadas, entre los patrones de búsqueda se
encuentran palabras clave, funcionalidad, entidades, tablas, autor, sistema y tipo de componente, entre otros. Todos estos contemplados en
el diseño del repositorio.
Luego que el desarrollador selecciona los
patrones de búsqueda y ejecuta la consulta, el
repositorio visualiza al desarrollador la lista de
componentes que cumplen con uno o más criterios seleccionados. De esta lista el desarrollador podrá acceder a la información completa del
componente con el fin de identificar completamente las funcionalidades del mismo y así elegir
o descartar dicho componente. Si el desarrollador desea podrá hacer uso de la funcionalidad
de prueba del componente, con la cual podrá ver
el componente en funcionamiento, con el fin de
descartar cualquier duda acerca del funcionamiento.
V. CONCLUSIONES
De este trabajo se obtuvo el diseño de un repositorio de componentes que permite dar soporte
al modelo de desarrollo basado en componentes
Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso:
División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera
implementado por la División de Servicios de Información de la Universidad Industrial de Santander, este trabajo fue elaborado por miembros del
Grupo de Investigación en Ingeniería Biomédica
de la Universidad - GIIB. El desarrollo de este repositorio se basó prácticamente en suplir las necesidades del modelo de desarrollo de la DSI, y
de mejorar sustancialmente algunas falencias del
modelo consecuencia de la falta del repositorio de
componentes.
La estructura de almacenamiento fue implementada en el motor de base de datos Informix
Dinamic Server 11.5, y sus interfaces al usuario
en ambiente gráfico para facilitar su utilización y
navegabilidad.
Como trabajos futuros se recomienda revisar
los procedimientos de la DSI relacionados directamente con el modelo de desarrollo en donde se
defina la utilización obligatoria del repositorio en
la implementación de los sistemas allí desarrollados, y el desarrollo de los componentes por las
áreas de la DSI que conozcan la lógica del negocio sobre la cual debe funcionar el componente,
áreas como académica, recursos humanos y financiera, entre otras.
REFERENCIAS
[1]
Ivica Crnkovic, Michael Chaudron, Stig Larson. Component-Based Development Process and Component
Lifecycle. Sweden. 2006.
[2]
Jihyun Lee, Jinsam Kim, and Gyu-Sang Shin. Faciliting
Reuse of software components using repository Technology. Republic of Korea. 2003.
[3]
Clemens Szyperski, Component Software: Beyond
Object-Oriented Programming. Addison-Wesley. 1998
[4]
James Petro, Michael E. Fotta and David B. Weisman.
Model-Based Reuse Repository – Concepts and Experience. 1995.
[5]
Jung Eun Cha, Young-Jung Yang, Mun-Sub Song and
Hang Gon Kim. Design and Implementation of component repository for supporting the component based development process. Software Engineering Department, Electronic and Telecomunications Research
Institute and Dept. of Computer Engineering, Catholic
University of Deagu. Korea 2001.
[6]
Hernández Díez Carmen, Laguna Serrano Miguel A,
García Peñalvo Francisco J. La biblioteca de Reutilización GIRO. España
233
[7]
Jiang Guo. Research Associate. Monterey - Luqi. Department of computer Science. Monterey. A Survey of
Software Reuse Repositories. USA.
[8]
Vera R, Freddy H. Rojas, Fernando. Artículo. Propuesta
de un proceso de desarrollo de componentes software
reutilizables. Revista Gerencia Tecnológica Informática. Volumen 7 – Numero 19. Diciembre de 2008.
[9]
Minder Chen, Edgar H. Sibley. Using a CASE Based Repository for Systems Integration. George Mason University. IEEE 1991.
[10]
SUN MICROSYSTEM, The Java EE5 tutorial. 2008.
[11]
STEVENS Perdita, POOLEY Rob. Utilización de UML en
ingeniería del Software con Objetos y Componentes.
PERSON Addison Wesley. 2ª. ed. Madrid, 2007.
Instrucciones a los autores
Revista ITECKNE
Instrucciones Generales
•
•
•
•
•
•
•
•
•
•
•
•
Los trabajos se aceptan para la publicación previo proceso de revisión de su calidad académica y científica.
Todo artículo postulado para publicación debe ser original o inédito, y no puede estar postulado para publicación simultáneamente en otras revistas. En la página web de la Revista Iteckne se halla disponible la
declaración de originalidad y cesión de derechos, que los autores deberán diligenciar y enviar al Comité
Editorial, junto con el artículo. La revista Iteckne requiere a los autores que concedan la propiedad de sus
derechos de autor, para que su artículo y materiales sean reproducidos, publicados, editados, fijados,
comunicados y transmitidos públicamente en cualquier forma o medio, así como su distribución en el
número de ejemplares que se requieran y su comunicación pública, en cada una de sus modalidades,
incluida su puesta a disposición del público a través de medios electrónicos, ópticos o de otra cualquier
tecnología, para fines exclusivamente científicos, culturales, de difusión y sin fines de lucro.
El Comité Editorial hace una primera evaluación, después de la cual, el trabajo puede ser rechazado sin
evaluación adicional o se acepta para la evaluación de los pares académicos externos. Por lo anterior, no
se asegura a los autores la publicación inmediata de dicho artículo. La decisión de rechazar un trabajo
es definitiva e inapelable.
Los trabajos pueden ser rechazados en esta primera evaluación porque no cumplen con los requisitos de
redacción, presentación, estructura o no son suficientemente originales y/o pertinentes con la publicación a editar. Los trabajos que son aceptados en esta primera etapa, son enviados a los pares académicos externos (árbitros) expertos en el área respectiva, cuyas identidades no serán conocidas por el autor
y, a su vez, los pares evaluadores tampoco conocerá la(s) identidad(es) del(los) autor(es).
Si el trabajo es aceptado, pero con la recomendación de hacer modificaciones, se le devolverá al (los)
autor(es) junto con las recomendaciones de los árbitros para que preparen una nueva versión corregida
para lo cual disponen del tiempo que le indique el Comité Editorial. Los autores deben remitir la nueva versión con una carta física o correo electrónico en la que expliquen detalladamente los cambios efectuados,
de acuerdo con las recomendaciones recibidas. El Editor junto con el Comité Editorial determinarán su
aceptación, considerando el concepto de los evaluadores y las correcciones realizadas por el(los) autor(es).
La lista de todos los árbitros se publicará en la revista, como miembros de un Comité de Árbitros, sin
anunciar el artículo calificado. Los árbitros realizarán la evaluación de acuerdo al formato correspondiente establecido por la revista y sólo serán publicados los artículos que superen en la calificación cualitativa
en la escala de 1 a 50, 35 puntos.
En todos los casos se comunicarán a los autores los resultados del proceso de evaluación con los argumentos que sustenten la decisión del Comité Editorial y/o el Comité de Arbitraje.
Un árbitro podrá calificar dos (2) artículos de diferentes autores al tiempo, de igual forma un artículo podrá ser calificado por dos árbitros diferentes, ya sean internos, nacionales o internacionales.
Los integrantes del Comité Editorial y Comité de Arbitraje, no deberán evaluar sus propios productos, en
caso tal que actúen como autores dentro de la misma publicación.
Los trabajos no publicados serán archivados como artículos rechazados o en proceso de aceptación.
La dirección de la revista ITECKNE no se responsabiliza por el contenido de los artículos, ni por su publicación en otros medios. El contenido de cada artículo es responsabilidad exclusiva de su(s) autor(es) y
no compromete a la Universidad.
Los artículos deberán ser enviados en medio magnético (extensión .doc) a la siguiente dirección física
y/o correo electrónico.
Revista ITECKNE
División de Ingenierías
Universidad Santo Tomás
Carrera 18 Nº 9-27
Bucaramanga, Colombia
Tel: +57 7 6800801 Ext. 1421
e-mail: [email protected]
Forma de Presentación de los Artículos.
La presentación de cada publicación estará de acuerdo con el diseño básico de la línea Editorial. Deberá
mantener, entre otros aspectos, la congruencia entre el contenido y el público al que va dirigida. Todos los
documentos postulantes a ser publicados deberán tener las partes requeridas y cumplir con los apartados
descritos a continuación:
De las partes del documento
El documento debe contener:
• Titulo
• Autor (es)
• Resumen
• Abstract
• Palabras clave
• Keywords
•
•
•
•
•
•
Introducción
Contenido del documento
Conclusiones
Apéndice(s)
Agradecimientos
Bibliografía
De la redacción
Para lograr un buen estilo se recomienda respetar rigurosamente la sintaxis, la ortografía y las reglas gramaticales pertinentes. Se debe redactar en forma impersonal (la forma impersonal corresponde a la forma
reflexiva, por ejemplo: se hace, se define, se definió, se contrastó). El trabajo debe estar exento de errores
dactilográficos, ortográficos, gramaticales y de redacción. Para resaltar, puede usarse letra cursiva o negrilla.
De la Puntuación
• Después de punto seguido se deja un espacio; y de punto aparte una interlínea.
• Los dos puntos se escriben inmediatamente después de la palabra, seguidos de un espacio y el texto
comienza con minúsculas.
De los requerimientos físicos del artículo
A continuación se presentan apartados de cumplimiento general en el desarrollo del artículo:
• El tamaño de la página será carta, con márgenes superior e inferior de 20 mm; izquierdo y derecho
de 25 mm.
• El documento se desarrollará en dos columnas con separación central de 4,3 mm (ver plantilla revista
Iteckne).
• El diseño de encabezado y pie de página debe estar a un centímetro de la hoja.
• El contenido del documento debe desarrollarse a espacio sencillo, dejando una línea cada vez que se
desea iniciar un párrafo.
• El texto del contenido del artículo se formalizará con tipo de fuente Arial tamaño 10.
• La numeración del documento se iniciará desde la Nomenclatura en caso de existir una, hasta las
conclusiones del documento. Los agradecimientos, apéndices y referencias bibliográficas, no son consideradas como Secciones numeradas del documento.
•
Las tablas deberán llevar numeración continua, comenzando en Tabla I., referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la tabla con tabulación
central, en tipo de letra Arial, tamaño 8. (Ver plantilla revista Iteckne).
• Las Figuras deberán llevar numeración continua, comenzando en Fig. 1. referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la figura, con tabulación central, en tipo de letra Arial, tamaño 8. Nótese que "Fig." se ha escrito abreviada y hay doble
espacio antes del texto.
• Las figuras incluidas en el contenido del artículo deben ser originales, suficientemente claras, para
facilitar la edición de la revista.
• Todas las figuras deben ser enviadas por separado en formato jpg con una resolución entre 240 y 300
dpi (puntos por pulgada).
• Las tablas y figuras del documento, deberán ir referenciadas (Fuente: xxx) en el cuerpo del artículo.
Dicha referencia debe ir en letra Arial tamaño 7, en la parte inferior de la figura o tabla, tabulado a la
izquierda.
• Las columnas de la última página deben ser concluidas con un largo igual o simétrico.
• Las referencias ubicadas al final del documento, deberán ir enumeradas consecutivamente (Número
entre corchetes [1], y con el siguiente formato (Ver plantilla revista Iteckne):
Artículos de revistas científicas
Autor(es), Nombre de la publicación, Título de la revista, Volumen, Número, páginas y año. Deben
ir en fuente Arial, Tamaño 7.
Ejemplo: J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution
system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988.
Libros
Autor, Nombre del libro, Edición, Editorial, Año, páginas.
Ejemplo: E. Clarke, Circuit Analysis of AC Power Systems, vol. I. New York: Wiley, 1950, p. 81.
• En cuanto a las abreviaturas y símbolos, deben utilizarse solo abreviaturas estándar, evitando
utilizarlas en el título y el resumen. Se deben colocar al inicio del artículo en la parte de NOMENCLATURA. El término completo representado por la abreviatura debe preceder dicha abreviatura o nomenclatura. En caso de no existir la parte de NOMENCLATURA, el término completo
representado por la abreviatura deberá aparecer la primera vez que aparece la abreviatura en
el cuerpo del texto, a menos que se trate de una unidad.
• Las viñetas usadas para señalización especial, será el punto, de fuente Symbol y tamaño 8.
• Los artículos deben contener el día de recepción del artículo y el día de aceptación por parte del
Comité Editorial.
• En caso de que los artículos contengan fórmulas matemáticas, deben estar digitadas en fuente
Arial 10, mediante el Microsoft Editor de ecuaciones.
• El diseño de la revista debe contener leyenda bibliográfica en cada uno de los artículos y en la
portada de la revista.
• El artículo deberá tener un mínimo de 4 caras de hoja y un máximo de 20 caras de hoja de contenido, en el formato establecido por la revista.
De las referencias bibliográficas
• Para citar referencias Bibliográficas ver la plantilla de la revista Iteckne. Se recomienda a los autores
tener 15 referencias como mínimo de bibliografía consultada.
INSTRUCTIONS TO ThE AUThORS,
ITECKNE JOURNAL
General instructions
•
The articles are accepted for publication after their academic and scientific quality have been reviewed.
•
All articles postulated for publication must be original or unpublished, and cannot be postulated for publication simultaneously in other journals. The declaration of originality and copyright assignment is available in
the Iteckne Journal webpage. The authors must sign it and send it to the Publishing Committee, along with
the article. The Iteckne journal requires the authors to grant the property of their author’s rights, so that their
article and materials are reproduced, published, edited, fixed, communicated and publicly transmitted in any
form or means, as well as their distribution in any required number of units and their public communication,
in each of their modalities, including putting them at the disposal of the public through electronic, optical or
any other means of technology, for exclusively scientific, cultural, broadcasting and nonprofit aims.
•
The Publishing Committee makes a first evaluation, after which the work can be rejected without any additional evaluation or accepted for evaluation of the external academic pairs. The previous statement does not
assure the immediate publication of the article. The decision to reject a work is definitive and unquestionable.
•
The works can be rejected in this first evaluation because they do not fulfill the writing requirements, presentation, structure or are not original enough and/or pertinent with the publication to be published. The works
that are accepted in this first stage are sent to the external academic peers (referees) experts in the respective area, whose identities will not be known by the author and, similarly, the evaluating peers will not know
the identity/ies of the author /s.
•
If the work is accepted, but with the recommendation to make modifications, it will be given back to the
author/s along with the recommendations from the referees so that he/they prepare a new corrected version
within the time indicated by the Publishing Committee. The authors must send the new version with a physical
letter or an e-mail in which they explain in detail the changes made, in accordance with the received recommendations. The Publisher along with the Publishing Committee will determine its acceptance, considering
the concept of the evaluators and the corrections made by the author/s.
•
The list of all the referees will be published in the journal, as members of a Referees Committee, without
announcing the described article. The referees will carry out the evaluation according to the corresponding
format established by the journal and they will only publish the articles with over 35 points in the qualitative
qualification scale from 1 to 50.
•
The authors will always be informed about the results of the process of evaluation that sustain the decision of
the Publishing Committee and/or the Referees.
•
An academic peer (referee) will be able to grade two (2) articles by different authors at once; similarly, an
article can be graded by two different referees, which can be internal, national or international.
•
The members of the Publishing and Referees Committees must not evaluate their own products, in case they
act like authors within the same publication.
•
The non-published works will be filed as rejected articles or articles in process of acceptance.
•
The editorial board of the ITECKNE journal does not take responsibility for the content of the articles, nor for
their publication in other means. The content of each article is exclusive responsibility of their authors and
not the University’s.
•
The articles must be sent electronically (extension .doc) to the following physical address and/or e-mail
Revista ITECKNE
División de Ingenierías
Universidad Santo Tomás
Carrera 18 N 9-27
Bucaramanga, Colombia
Tel: +57 7 6800801 Ext. 1421
e-mail: [email protected]
Presentation of Articles
The presentation of each publication will be in agreement with the basic design of the Publishing line. It must
maintain, among others aspects, congruence between the content and the audience at which it is aimed. All the
documents sent for publication must fulfill what it is described below:
Concerning the parts of the document.
The document must contain:
• Title
• Author/s
• Summary
• Abstract
• Key words Keywords
• Introduction
•
•
•
•
•
Content of the document
Conclusions
Appendix (s)
Acknowledgements
Bibliography
Concerning the writing.
In order to obtain a good style it is recommended to respect the syntax, spelling and grammar rules rigorously.
The article must be written in impersonal form (it corresponds to the passive form, for example: it is done, it is
defined, it was defined, it was contrasted). The work must be free of typing, orthographic, grammar and writing
errors. Italics or bold type can be used to highlight.
Concerning the punctuation.
• Leave one space after a period; and start a new line after a full-stop.
• Colons are written immediately after the word, followed by a space and the text begins with small letters.
Concerning the physical requirements of the article.
Sections of general fulfillment in the development of the article are mentioned below:
• The article must be written on letter size paper/format, with top and bottom margins of 20 mm; left and right,
25 mm.
• The document must be in two-column format with a central space of 4.3 mm (see template in Iteckne journal).
• The design of the header and footer must be of 1 centimeter.
• The content of the document must be written on single space, leaving a line when starting a new paragraph.
• The font must be Arial 10.
• The document numbering must begin with the Nomenclature, if there is one, and end with the conclusions
of the document. The acknowledgements, appendices and bibliographical references, are not considered as
numbered sections in the document.
• The tables will take continuous numbering, beginning with Table I., referencing afterwards their title, in all
caps, located at the top part of the table with center tab, in Arial 8. (see template in Iteckne journal).
• The Figures will take continuous numbering, beginning with Fig 1. referencing afterwards their title, in all caps,
located at the top part of the figure with center tab, in Arial 8. Note that " Fig." has been written abbreviated
and with double space before the text.
• The figures in the content of the article must be original, clear enough to facilitate the edition of the journal.
• Every Figure and Table included in the paper must be referred to from the text (Source: xxx). These references
must go in Arial 7, in the lower part of the figure or table, left tab.
• The columns in the last page must have an equal or symmetrical length.
• The references located at the end of the paper, must be numbered consecutively (Number between square
brackets [1], and with the following format (see template in Iteckne journal):
Articles for scientific journals:
Author/s, Name of the publication, Title of the journal, Volume, Number, pages and year. They must go in
Arial 7.
Example: J.F. Fuller, E.F. Fuchs, and K.J. Roesler, “Influence of harmonics on to power distribution system
protection,” IEEE Trans. Power Delivery, bowl. 3, no.2, pp. 549-557, Apr. 1988.
Books:
Author, Name of the book, Edition, Editorial, Year, pages.
Example: E. Clarke, Circuit Analysis of AC Power Systems, bowl. I. New York: Wiley, 1950, P. 81.
• As for the abbreviations and symbols, only standard abbreviations must be used, avoiding using them in the
title and the summary. They must be placed at the beginning of the article in the NOMENCLATURE part. The
complete term represented by the abbreviation must precede this abbreviation or nomenclature. If there is
no NOMENCLATURE, the complete term represented by the abbreviation must appear in the text the first time
it’s written, unless it is a unit.
• The bullet points used for special signaling must be in Symbol source size 8.
• The articles must contain the day of reception of the article and the day of acceptance by the Publishing
Committee.
• In case the articles contain mathematical formulas, they must appear in Arial 10, written with the Microsoft
equation editor.
• The design of the journal must contain bibliographic entries in each one of the articles and on the cover.
• The article must have a minimum of 4 pages and a maximum of 20 pages, in the format established by the
journal.
Concerning the bibliographical references.
To mention Bibliographical references, see the Iteckne journal template. It is recommended for the authors to
have a minimum of 15 references of checked bibliography, as the main policy of the journal is research and this
way, we would be promoting research among the authors of the publications for the ITECKNE journal.
La Revista ITECKNE, Vol. 8 No. 2, se terminó de
imprimir en el mes de enero de 2012 en los talleres
Distrigraf, de Bucaramanga, Colombia.
El tiraje consta de 300 revistas.
Descargar