DIRECTIVOS Fr. Faustino Corchuelo Alfaro, O.P. Rector Fr. Guillermo León Villa Hincapié O.P. Vicerrector Académico Fr. Guillermo León Villa Hincapié O.P. Decano División de Ingenierías y Arquitectura Fr. José Rodrigo Arias Duque O.P. Vicerrector Administrativo-Financiero EDITOR Luis Ómar Sarmiento Álvarez, MSc, PhD(c) COMITÉ EDITORIAL Luis Ómar Sarmiento Álvarez, M.Sc. Universidad Santo Tomás, Bucaramanga, Colombia Juliana Puello Méndez, M.Sc. Universidad Santo Tomás, Bucaramanga, Colombia Fredy Humberto Vera Rivera, M.Sc. Universidad Santo Tomás, Bucaramanga, Colombia Julio Roberto Pinzón Joya, Ph.D. Universidad Santo Tomás, Bucaramanga, Colombia Alberto González Salvador, Ph.D. Universidad Politécnica de Valencia, España José Millet Roig, Ph.D. Universidad Politécnica de Valencia, España Arturo Plata Gómez, Ph.D. Universidad Industrial de Santander, Colombia CORRECCIÓN ORTOGRÁFICA Y DE ESTILO Ciro Antonio Rozo Gauta IMPRESIÓN Distrigraf PERIODICIDAD PRODUCCIÓN CREATIVA Departamento de Publicaciones Directora Dpto. Publicaciones C.P. Luz Marina Manrique Cáceres Diseño y Diagramación Pub. Luis Alberto Barbosa Jaime Semestral © Universidad Santo Tomás ISSN 1692 - 1798 COMITÉ CIENTÍFICO Yudy Natalia Flórez Ordóñez, Ph.D. Universidad Santo Tomás, Bucaramanga, Colombia Rolando Enrique Guzmán López, Ph.D. Universidad Santo Tomás, Bucaramanga, Colombia Sonia Hernández Rueda, Ph.D. Universidad Santo Tomás, Bucaramanga, Colombia Leonardo Acevedo Duarte, Ph.D. Universidad Santo Tomás, Bucaramanga, Colombia Elías de los Reyes, Ph.D. Universidad Politécnica de Valencia, España Francisco Morant Anglada Universidad Politécnica de Valencia, España José Ma. Blanco Triana, Ph.D. Politecnico di Torino, Italia. Héctor Esteban González Universidad Politécnica de Valencia, España Juan Carlos Guerri Cebolleda Universidad Politécnica de Valencia, España Oscar Elías Herrera Bedoya, Ph.D. Universidad Sergio Arboleda, Colombia La revista ITECKNE ha sido aceptata en los siguientes índices bibliograficos y bases bibliograficas: • • • • Índice Bibliográfico Nacional - PUBLINDEX Sistema regional de información en línea para revistas científicas de América Latina, el Caribe, España y Portugal. - LATINDEX EBSCO Publishing Índice Actualidad Iberoamericana - CIT Cada artículo es responsabilidad de su autor y no refleja la posición de la revista. Se autoriza la reproducción de los artículos siempre y cuando se cite al autor y la revista Iteckne. Agradecemos el envío de una copia de la reproducción a esta dirección: Universidad Santo Tomás, Facultades de Ingeniería. Carrera 18 No. 9-27 Servicio al Cliente Iteckne Teléfono: + 57 7 6800801 Ext. 1411- 1421 Fax: 6800801 Ext. 1346 E-mail: [email protected] - [email protected] Bucaramanga - Santander Contenido Revista ITECKNE Vol 8 Nº 2 julio - diciembre de 2011 Editorial.......................................................................................................................................................................117 ARTÍCULOS DE INVESTIGACIÓN E INNOVACIÓN Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos Proposal for the improvement of the Lean Manufacture Methodology by optimization of manufacture systems and discrete event modeling............................................................................................119 Frank Nicolás Delgado Moreno,Eliseo Gallo Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega Development of a heuristic model to optimize the handling of material in pallets in a warehouse...........................................................................................................................................132 Laura Manotas Romero, Diana Ramírez Ríos Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC Liquid Packaging Process: Modeling with Petri Nets and Simulation with LabVIEW and DSC.............................147 Miguel Ángel Trigos Martínez, Jair Leandro Landínez Salazar Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos Model for inventory optimization using genetic algorithms...................................................................................156 César Hernando Valencia Niño, Silvia Nathalia Cáceres Quijano Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos Multi-criteria ABC Classification: Types of Criteria and their effects on Weights Assignment.............................163 Carlos Alberto Castro Zuluaga, Jaime Andrés Castro Urrego, Mario César Vélez Gallego Diseño y Elaboración de las Tecnologías de Inspección Basadas en Herramientas de Limpieza para el Registro y Análisis de los Parámetros de Operación en Líneas de Transporte de Hidrocarburos Design and Elaboration of the Inspection Technologies Based on Cleaning Tools for Registration and Analysis of the Operation Parameters in Hydrocarbon Pipelines...................................................................171 Mario Alberto Quintero, Hernán Alfonso Garnica, Sergio Quintero, Humberto Zambrano Medina, Ely Dannier V. Niño Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión Algorithm for generating interpretable fuzzy controllers: an application to a pressure process..........................177 Juan Antonio Contreras Montes, David Javier Muñoz Aldana Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil Planning of paths and trajectories by genetic algorithms and potential fields for a mobile robot......................183 Diego A. Tibaduiza Burgos, Roberto Martínez Ángel, Jaime G. Barrero Pérez Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular Validation of the CellGis tool to simulate radiowave propagation in cellular networks........................................193 Aura Liliana Beltrán Blanco, Celso Andrés Forero F., Homero Ortega Boada, César Camilo Rodríguez S. Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión Effective representation of physiological dynamics by fuzzy rough set: a review.................................................204 Diana Alexandra Orrego Metaute, Edilson Delgado Trejos ARTÍCULOS DE DISCUSIÓN ACADEMICA Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I Image Processing on Windows CE using the processor ArMV 4I............................................................................216 Jorge Andrés Álvarez Triana, José Armando Fernández Gallego Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander Design and implementation of a software component repository as a support for the development of business software - Case: Information Services at Universidad Industrial de Santander..............................223 Fernando Antonio Rojas Morales, Fredy Humberto Vera Rivera...... Instrucciones a los autores Revista ITECKNE...........................................................................................................234 Instructions to the authors, Iteckne Journal.............................................................................................................237 La revista ITECKNE es una publicación de la División de Ingenierías de la Universidad Santo Tomás, Seccional de Bucaramanga, integrada por las Facultades de Ingeniería de Telecomunicaciones, Ingeniería Mecatrónica, Ingeniería Industrial y Química Ambiental. Actualmente la Revista está indexada en el Índice Bibliográfico Nacional Publindex y en el Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal LATINDEX, y ha sido aceptada en el sistema de bases de datos de EBSCO (Fuente Académica). Su objetivo es la divulgación de los resultados científicos y tecnológicos de las investigaciones que se realizan en su seno, y en otras universidades a nivel nacional e internacional. La revista cuenta con la participación de diversos investigadores nacionales e internacionales, por esta razón recibe contribuciones en idiomas Español e Inglés. La revista ITECKNE está dirigida a estudiantes, docentes e investigadores interesados en las áreas en las que se inscribe cada una de las publicaciones. La revista aceptará preferiblemente artículos de investigación e innovación con un alto nivel de calidad, y también aceptará artículos cortos y reportes de caso. Editorial La presente edición de la Revista ITECKNE Innovación e Investigación en Ingeniería, es la primera de la Universidad Santo Tomás, Bucaramanga en estar incluida en las bases de datos de EBSCO según convenio firmado con esa entidad el pasado mes de agosto. Entre los beneficios de indizar nuestra Revista en las bases de datos de EBSCO, está la apertura de una opción de visibilidad que incrementa la difusión y las consultas y posibilita las citas a los artículos. Este logro apoya el cumplimiento de uno de los objetivos de la Revista, con el que se busca que la literatura científica publicada en ella se difunda eficaz y rápidamente en la región, consolidándola a nivel internacional. Desde inicios del año 2011, la Revista ITECKNE ha estado preparándose para ser presentada a nuevas indexaciones internacionales. Es así como se han incorporado cambios para cumplir con las exigencias planteadas por la Red de Revistas Científicas de América Latina, el Caribe, España y Portugal, que conforman el Sistema de Información Científica REDALYC. REDALYC clasifica en tres grupos los criterios que debe cumplir una revista, relacionados con criterios básicos, criterios de calidad editorial y criterios editoriales (disponibles en http://redalyc.uaemex.mx/) que resumo a continuación y que, a su vez, caracterizan a la presente y a la anterior edición de la Revista ITECKNE. En el primer grupo, compuesto por 12 criterios básicos considerados por REDALYC como indispensables, se encuentra: la antigüedad mínima y los números editados con periodicidad regular y sin retraso; el contenido científico en el cual al menos el 75% de las colaboraciones publicadas en cada fascículo deben ser resultados originales producto de investigaciones científicas; la revisión por pares realizada bajo la modalidad de doble ciego, el proceso de dictamen exige anonimato y descripción detallada del proceso; todo artículo postulado para publicación debe ser original e inédito y no estar postulado para publicación simultáneamente en otras revistas; cumplimiento de periodicidad, incluir pie de imprenta, fechas de recepción y aceptación; datos de identificación en portada como título completo, número de ISSN, volumen y número, fecha de edición, e indicar los meses que cubre el número editado. Para cumplir a cabalidad con estas exigencias, el Comité Editorial de la Revista ITECKNE, no publica a partir de este número, la lista de árbitros con el fin de cumplir con la exigencia de que el proceso de dictaminación sea completamente anónimo. En el segundo grupo, compuesto por 27 parámetros relacionados con criterios de calidad editorial, e incorporados en la revista ITECKNE, se encuentra: datos de identificación en portada en donde compruebe la existencia de un consejo editorial con nombre completo de cada miembro, objetivo de la publicación, cobertura temática, periodo que abarca en meses la publicación, normas de elaboración de las referencias bibliográficas, listado del registro en sistemas de indexación o bases de datos y condiciones bajo las que se reservan los derechos de distribución de contenidos; datos de la institución editora: mención visible de la institución editora, ciudad, país, dirección postal, dirección electrónica, teléfono y/o fax; tabla de contenido o índice con título completo en el idioma original y traducción al inglés de cada una de las colaboraciones, nombre completo de los autores de cada artículo y página de inicio de cada artículo; mención de la institución de adscripción y país donde se localiza la institución de adscripción de cada uno de los autores y mención del correo electrónico al menos de uno de los autores de cada artículo; identificación de los contenidos de cada artículo, y resumen y palabras clave de todos y cada uno de los artículos en el idioma original del trabajo y en inglés; identificación del artículo mediante membrete bibliográfico en la página inicial de todos los artículos que incluya: nombre de la Revista o ISSN, volumen y número, periodo que cubre la edición, indicar meses y años, páginas que abarca el artículo, fecha de recepción de cada artículo y fecha de aceptación/publicación de cada artículo. En un tercer grupo se hallan los criterios editoriales, también incorporados en el presente número de la Revista ITECKNE. Se encuentra: mención del directorio completo de la revista, editor, editores adjuntos, corrector, traductor y diseñador; indicar la filiación institucional de los miembros del consejo editorial, indicado el país; mención explícita de la participación de evaluadores externos en el proceso de dictamen; indicar explícitamente el público al que se dirige la revista; incluir las instrucciones a los autores en inglés; homogeneidad de los fascículos en cuanto a número de artículos publicados; verificar que las referencias bibliográficas sean acordes con lo indicado en las instrucciones a los autores, identificar el artículo mediante membrete bibliográfico en páginas interiores donde se incluya: Nombre de la revista o ISSN, volumen y número, periodo que cubre la edición indicando meses y años, nombre de los autores, identificar prácticas editoriales científicas como el sistema OJS; sistemas de indexación y bases de datos que declara la revista. Respecto al empleo del sistema Open Journal System, la Revista ITECKNE lidera la implementación del sistema y se espera entre en marcha a mediados del 2012. Para que una revista sea aceptada por REDALYC se deben cumplir todos y cada uno de los criterios básicos y al menos 20 criterios generales. He ahí el reto que el Comité Editorial de la revista ITECKNE ha decidido asumir. Luis Omar Sarmiento Álvarez, PhD (c) Editor [email protected] Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos Frank Nicolás Delgado Moreno Magíster en Ciencias de Sistemas de Manufactura, Tecnológico de Monterrey, México. Magíster en Ciencias de sistemas de Calidad y Productividad. Tecnológico de Monterrey, México. Líder, Investigador Grupo CAYPRO, Universidad Santo Tomás Bucaramanga, Colombia [email protected] Eliseo Gallo Doctor Management Information Systems, Universidad del Turabo Puerto Rico, Investigador Grupo SIGMMA, Universidad Santo Tomás Bucaramanga, Colombia [email protected] Resumen- La competitividad internacional ha obligado a las empresas de todos los países a evolucionar continuamente en los procesos de mejoramiento continuo con el fin de mejorar la calidad de los procesos y productos y reducir los costos que implican; la metodología de manufactura esbelta ha sido en los últimos años a nivel internacional una de las principales metodologías para la reducción de costos, por esta razón a través del tiempo ha tenido un mejoramiento continuo para las exigencias contemporáneas, tecnológicas, regionales y tipos de empresa; la presente propuesta se realiza con el fin de mejorar la metodología de Manufactura Esbelta al incorporar aspectos financieros, modelación de sistemas de manufactura y simulación con el fin de adaptarla a empresas de alta variabilidad en sus productos y procesos como son las pequeñas y medianas empresas en la Ciudad de Bucaramanga. I. INTRODUCCIÓN La metodología Esbelta es la principal metodología utilizada por las empresas de Manufactura en el Mundo, (Ver Fig. 1). FIG. 1. PRINCIPALES METODOLOGÍAS DE MEJORAMIENTO UTILIZADAS EN MANUFACTURA EN EL MUNDO Palabras clave- Manufactura Esbelta, Simulación, Modelación de Sistemas de Manufactura, EBIT, ROI Abstract- The international competition has forced companies from all countries to be continually evolving process of continuous improvement in order to improve the quality of processes and products and reduce the costs they involve, the methodology of lean manufacturing has been in recent years at international level one of the main methods for reducing costs, for this reason over time has had a continuous improvement to contemporary demands, technological, regional and business types, this proposal is carried out to improve the methodology of incorporating lean manufacturing to financial, manufacturing systems modeling and simulation in order to adapt to business of high variability in their products and processes such as small and medium enterprises in the city of Bucaramanga. Keywords- Lean Manufacturing, Simulatión Manufacturing Systems Modeling, EBIT, R Fuente: Manufacturing performance institute citado en Piuzzi, (2009) La Fig. 1. Muestra la Metodología Lean como la principal metodología en Mejoramiento continuo utilizada en el mundo, La metodología Lean es implementada en diferentes empresas con resultados verificables y comprobables como (Dailey, 2003): • Reducción de costos de fabricación entre un 30 a 50% • Reducción de inventarios de materia prima, producto terminado, producto en proceso en más del 80% Recibido: 20/08/2011/ Aceptado: 18/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 120 • • • • • • • • • ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 mejoramientos sobre la metodología lean han aumentado los beneficios de resultado en las aplicaciones de la metodología de acuerdo a las necesidades de las empresas que están sujetas a variables financieras, logísticas, de producción y posiciones estratégicas limitadas lo cual se transforma en necesidad de adaptar la metodología a las necesidades de las empresas según la región del mundo. Mejora de la calidad del servicio para los clientes Reducción de los tiempos de atraso Mejora calidad de productos y servicios Reducción de tiempo de mano de obra, y aumento de la productividad Aumento en la eficiencia y uso de los equipos e instalaciones de planta Altos rendimientos Sistema más flexible para responder a los cambios Disminución de desperdicios o despilfarros Aumento del flujo de caja por aumento en frecuencia de despachos y cobros II. PRINCIPALES METODOLOGÍAS DE MANUFACTURA ESBELTA En Estados Unidos algunas de las principales metodologías utilizadas en Manufactura Esbelta, son la “Metodología de Tapping”, Tapping (2002); la Metodología de Nigel Wood, Wood. (2004), y en México la “Metodología de Rosalba Sánchez”, Sánchez, (2005); estas tres Metodologías fueron comparadas en cuanto a beneficios y ventajas ofrecidas por cada respectiva metodología obtuvo la Tabla I Por los anteriores beneficios registrados por la Metodología Lean, los investigadores en la línea de mejoramiento continuo han desarrollado un continuo mejoramiento sobre esta Metodología;los TABLA I SELECCIÓN DE LA METODOLOGÍA DE DE MANUFACTURA ESBELTA Fuente: Los Autores En la Tabla I se muestra la comparación entre las diferentes metodologías de Manufactura esbelta utilizadas en Países como México y Estados Unidos; la Metodología de Sánchez muestra ser la más completa de las tres metodologías, por esta razón se tomó como base para adaptar al sistema manufacturero con alta variabilidad en los proce- sos y productos de pequeñas y medianas empresas de la Ciudad de Bucaramanga A. Metodología de Rosalba Sánchez Sánchez, (2005) divide la metodología en tres fases, la Fase de preparación, Fase de Análisis y Fase de implementación. (Ver Figura 2) Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos - Delgado Gallo 121 Fig. 2 METODOLOGÍA DE ROSALBA SÁNCHEZ (SÁNCHEZ, 2005) Fuente: Metodología integral de Implantación del un sistema de Manufactura Esbelta Sánchez (2005) La Figura 2 muestra el esquema de la metodología dividida en las tres fases anteriormente nombradas; las fases están divididas en pasos interiores. (Sánchez, 2005). III. METODOLOGÍA PROPUESTA Según Cruz y Ramírez (2008), la Metodología de Manufactura Esbelta es desconocida para la Mayoría de los sectores empresariales; los sectores empresariales en Colombia están limitados a aplicar normas ISO, (International Organization for Standarization) estas normas permiten que un producto o servicio tenga un estándar de calidad para ser aceptado en un mercado, cuando un producto es aceptado en un mercado no se garantiza productividad ni competitividad ni calidad ni mejoras financieras, (Hurtado, et al. 2009). Las ganancias en productividad y competitividad están registradas en beneficios anteriormente nombrados; pero estos beneficios no han sido alcanzados por la mayoría de empresas en la ciudad de Bucaramanga por el desconocimiento de este tipo de Metodologías como Manufactura esbelta o la incorrecta aplicación de ellas; por esta razón se propone la siguiente metodología adecuada para las necesidades empresariales en ciudades donde este tipo de metodologías es des- conocido o no se ha introducido adecuadamente lo que afecta los resultados de la Metodología. La metodología conserva los aspectos importantes de la metodología de Sánchez. (2005), pero fueron incluidos tres pasos que los autores consideran importantes para la aplicación de la metodología de Manufactura Esbelta; estos pasos incluidos son: Simulación del Estado actual, Optimización del sistema de Manufactura, Simulación del Estado Futuro. La inclusión de los pasos anteriores se basa en solucionar los siguientes problemas detectados por observación en diferentes empresas de la ciudad de Bucaramanga; estos problemas son: • Desconocimiento de la Metodología de Manufactura Esbelta • Desconocimiento de los Beneficios de la aplicación de la Metodología • Desconfianza por indebida aplicación previa de conceptos o de herramientas de otro tipo de filosofías • Desconfianza respecto a los resultados de la implementación de la Metodología • Ausencia de aplicación de Optimización de sistemas de Manufactura 122 • ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 Ausencia de Competitividad y productividad en sistemas de Manufactura. Con el enfoque de resolver los anteriores problemas se propone el siguiente Modelo de Implementación de Manufactura Esbelta. (Ver Fig. 3). Fig. 3. MODIFICACIÓN POR EL AUTOR DEL MODELO DE IMPLEMENTACIÓN DE LA METODOLOGÍA INTEGRAL DE IMPLANTACIÓN DEL UN SISTEMA DE MANUFACTURA ESBELTA DE SÁNCHEZ. Fuente: Los Autores La Figura 3 muestra los pasos de la Metodología de Sánchez (2005), con la inclusión de los tres pasos adicionales propuestos en la presente investigación; estos pasos son: Simulación del Estado Actual, Modelación del Sistema de Manufactura y Simulación final de resultados. El paso de Simulación del Estado Actual muestra al equipo de aplicación de la Metodología de Manufactura Esbelta el comportamiento real del estado actual del sistema; la simulación evidencia por medio de los objetivos y métricas el estado real en el que se encuentra la empresa; las simulaciones a través de software de simulación como promodel evitan costos operacionales y apoyan la toma de decisiones previa a una decisión final sobre los resultados del mapa de estado futuro de la metodología lean, igualmente es un amigable entendimiento del estado actual de la empresa. (Ver Fig.4). Fig. 4. IDENTIFICACIÓN DE LAS ÁREAS PARA SIMULACIÓN DEL MAPA DEL ESTADO ACTUAL DEL FLUJO DE VALOR Fuente: Los Autores Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos - Delgado Gallo La Fig. 4 Muestra un esquema del mapa del estado actual de flujo de valor de un Proceso crítico previamente seleccionado; el numeral 1 refleja la logística externa de la empresa con relación al producto, el tópico No. 2 indica la cadena de flujo 123 de Valor del producto crítico seleccionado según la filosofía de Manufactura Esbelta y el tópico No. 3 indica algunas de las métricas que son objetivos de estudio de la metodología de manufactura esbelta, (Ver Fig.5). Fig. 5. IDENTIFICACIÓN DE LAS ÁREAS DE SIMULACIÓN EN SOFTWARE EN EVENTOS DISCRETOS DEL MAPA DEL ESTADO ACTUAL DEL FLUJO DE VALOR Fuente: “A Functional Modeling and Discrete Event Simulation based approach to understand the Lean Manufacturing System”, Valles, Nathan, y Viswanathan”. ( 2005) La Fig. 5 muestra la distribución de la logística externa tópico 1, la cadena de flujo de valor en tópico 2 y algunas métricas de resultados en el tópico 3 como: entrega de órdenes a tiempo, órde- nes retrasadas y nivel de servicio; los resultados específicos de las operaciones de la cadena de valor son representados a través del software de eventos discretos (Ver Fig. 6). Fig. 6. DESCRIPCIÓN DE DATOS DE RESULTADOS DE LA SIMULACIÓN DE MANUFACTURA ESBELTA EN UN SOFTWARE DE SIMULACIÓN DE EVENTOS DISCRETOS Fuente: “A Functional Modeling and Discrete Event Simulation based approach to understand the Lean Manufacturing System, Valles, Nathan, y Viswanathan”. (2005). La Fig. 6 muestra la descripción de algunos datos de resultados en una simulación de eventos discretos, los datos de resultados dependen de los objetivos y métricas del proyecto. 124 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 El paso agregado de Modelación del sistema de Manufactura, se basa en agregar herramientas que tengan como objetivo optimizar el proceso de manufactura y las operaciones de producción (Asking y standridge 1993); algunas de estas herramientas son: • Programación de Operaciones Líneas de ensamble (Métodos de Balanceo). • RPW por sus siglas en inglés “Ranked positional weight” Clasificación por peso posicional • Variabilidad en Tiempos de desempeño • Programación de la producción en sistemas orientados al proceso • Flujo • Secuenciación de tareas – Modelos Mixtos • Tecnología de Grupos / Manufactura Celular • Algoritmo de ordenamiento binario • La programación de operaciones tiene como objetivo calcular la organización de las celdas de manufactura que permita el flujo de una pieza como la metodología de manufactura esbelta requiere; la heurística de clasificación de peso posicional optimiza las celdas de manufactura para facilitar el flujo de una pieza; esta heurística construye una sola sucesión de la siguiente forma: Se define el “peso posicional” de la tarea j como PW ( j ) = tj + ∑r∈S(j) tr . S (j) = es el conjunto de sucesores de la tarea j t(j). = Tarea j actual ∑r∈S(j) tr = Sumatoria del conjunto de tareas sucesoras de tj PW (j) es medida en tiempos de ciclo y el rango de operación de la variable es: t(j) a(t(j)+∑r∈S(j)tr ). Ver Fig.7 Fig. 7. EsquEma dE los pasos dE la clasificación dE EstacionEs por pEso posicional Fuente: Los Autores La Figura 7. Muestra un ejemplo de la secuenciación de la clasificación de peso posicional; el resultado es la optimización de las celdas de Manufactura. Las celdas de Manufactura dependen de la confiabilidad de cumplir con la demanda de los clientes; para cumplir con esta razón se introduce la séptima ley de Aleatoriedad con respecto a la Confiabilidad de las celdas de la siguiente forma: E(sk) = ∑jϵSktj Var(sk) = ∑jϵSk σ2j El tiempo promedio de la tarea j es tj; sj2 la variancia del tiempo de procesamiento de la tarea j. Un ejemplo de los pasos del cálculo de la confiabilidad de las celdas de Manufactura se muestra en la Fig. 8 Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos - Delgado Gallo 125 Fig. 8. ESQUEMA DE LOS PASOS DEL CÁLCULO DE LA CONFIABILIDAD DE LAS CELDAS DE MANUFACTURA QUE FORMAN PARTE DE LA CADENA DE VALOR Fuente: Los Autores En la Figura 8. se muestra un ejemplo de la obtención de confiabilidad de las celdas a través de la aplicación de variabilidad en tiempos de desempeño. La programación de la producción en sistemas orientados al proceso con la secuenciación de los modelos mixtos tiene como objetivo secuenciar las tareas de los productos cuando estos son productos con diferentes tiempos de ciclo donde se encarga de Minimizar la máxima desviación de asignar la carga de trabajo promedio en el cuello de botella. j (i) el tipo de artículo colocado en el i-ésimo lugar; Un ejemplo de esta aplicación se observa en la Figura 9. Fig. 9. PROGRAMACIÓN DE PRODUCCIÓN CON PRODUCTOS MIxTOS Fuente: Los Autores 126 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 La Figura 9. Muestra el proceso para obtener la secuenciación optimizada de los productos mixtos en una línea de producción, esta herramienta apoya directamente el balanceo realizado con herramientas como heijunka en Manufactura Esbelta. Tecnología de Grupos tiene como objetivo Analizar los principios de formación de grupos con respecto de tareas hacia máquinas y detectar los grupos de productos por proceso; el Algoritmo de ordenamiento binario optimiza la formación de grupos por medio de los siguientes pasos: • 1. Ordenar los renglones: asignar el valor 2N-k a la columna k, sumar los valores obtenidos para evaluar cada renglón. Ordenar los renglones en orden no creciente • 2. Ordenar columnas: asignar el valor 2N-k al renglón k, evaluar cada columna. Ordenar las columnas en orden no creciente. Un ejemplo de la aplicación del algoritmo binario es presentado a continuación. (Ver Fig. 10) Fig. 10. ORDENAMIENTO DE TAREAS RESPECTO A PROCESOS. Fuente: Los Autores La Figura 10 muestra la acomodación ideal de las máquinas en grupos según el proceso de la parte; esta acomodación apoya optimización de las celdas de manufactura dentro de la metodología de Manufactura Esbelta. Los pasos incorporados a la Metodología de Sánchez optimizan el sistema de Manufactura acompañando a los planes Kaizen. El paso de Optimización de los sistemas de manufactura incorporado dentro de la metodolo- gía de Manufactura Esbelta se introduce debido a la necesidad de conocer el estado previo de las líneas, recursos, distribución, asignación y maquinas como apoyo a la introducción de las herramientas de la Manufactura Esbelta. El paso de simulación de los resultados finales en software de eventos discretos hace visibles los resultados de la implementación simulada de la metodología de Manufactura Esbelta (Ver Fig.11). Fig. 11. ANÁLISIS ESTADÍSTICO DE UN PRODUCTO MEDIANTE SIMULACIÓN EN PROMODEL DE UN MODELO DE MANUFACTURA ESBELTA Fuente: “A Statistical Analysis Using Simulation On a Lean Manufacturing Model”, Ho Kok Hoe / K. Muthusamy (2010). Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos - Delgado Gallo La Fig.11 muestra la representación de los valores finales de la simulación del estado futuro de la implementación de la metodología de Manufactura esbelta; estos valores pueden variar de acuerdo a las métricas del objetivo de la aplicación de la Metodología de Manufactura Esbelta y de las herramientas utilizadas en la Metodología; eEl resultado final muestra los indicadores de tamaño de lote, tipo de pieza, sistemas de producción, proceso de la cadena de valor, Herramientas de mejora continua, Beneficios, costo, capacidades, tipos de piezas, Numero de Operarios. La incorporación de los anteriores pasos a la metodología de Manufactura esbelta optimizan los procesos productivos de manufactura y disminuyen el tiempo de entrega al cliente; disminuir el tiempo de entrega al cliente es uno de los enfoques de la Calidad (Lindsay y Evans 2005); por otra parte utilizar la simulación amigable de un 127 programa de eventos discretos como Promodel facilita la comprensión del procedimiento de la mejora continua implementada. El paso Optimización del sistema de Manufactura consiste en realizar mejoras en el sistema actual de manufactura con base en teorías y conceptos de modelación de sistemas de Manufactura, este paso permite entregar un sistema optimizado y esbelto a los planes de acción de KAIZEN; el paso simulación final de resultados, permite al equipo de aplicación de la Manufactura Esbelta el estado final en tiempo real del sistema incluidas todas las mejoras realizadas durante la implementación. Con los anteriores pasos explicados, la Metodología propuesta para la actual investigación adaptada a las necesidades del entorno regional se presenta a continuación. FASE DE PREPARACIÓN • • • Paso 1 Compromiso con la Manufactura Esbelta Paso 2 Selección de flujo de Valor a Analizar Paso 3 Aprender acerca de la Manufactura Esbelta • • • • • • Paso 4 Definición de los Objetivos Paso 5 Análisis de la Demanda Paso 6 Análisis Financiero Paso 7 Análisis del Estado Actual Paso 8 Simulación del Estado Actual Paso 9 Diseño del Estado Futuro FASE DE ANÁLISIS FASE DE IMPLEMENTACIÓN • • • • Paso 10 Optimización del Sistema de Manufactura Paso 11 Plan de Acción Paso 12 Simulación Final de resultados Paso 13 Perfección Los pasos de la Metodología se explican a continuación 1) Paso 1: compromiso con la manufactura esbelta Con previa capacitación de los integrantes del equipo de Manufactura Esbelta, se deben seguir los siguientes pasos: a) Nombramiento del líder del proyecto y los miembros del equipo Esbelto b) Anunciar el proyecto de Implantación de la Manufactura Esbelta; el líder del proyecto junto con los miembros del equipo deben transmitir a todos los integrantes de la empresa el comienzo del desarrollo del proyecto. c) Reconocimiento del piso de taller; tanto el líder del proyecto como los integrantes del grupo deben analizar los aspectos de operaciones y procesos del sistema basados en la observación. 2) Paso 2: selección del flujo de valor La selección del Flujo de valor consiste en identificar la cadena de valor crítica que más afecta los procesos de transformación de la empresa. Para la selección de la cadena de flujo de valor 128 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 se utilizan comúnmente dos métodos: el Análisis Producto-Cantidad o el análisis Producto-Ruta. El Análisis Producto Cantidad se determina por la clasificación y jerarquización de los productos según la cantidad de producción requerida, para realizar el análisis producto cantidad se realizan los siguientes pasos: a) Clasificar los tipos de producto b) Determinar la cantidad de cada producto c) Determinar el porcentaje correspondiente a cada cantidad d) Determinar el porcentaje acumulado de los productos e) Seleccionar el 80% de los productos o procesos que presentan algún tipo de problema. El análisis de producto ruta asocia los productos con rutas iguales o similares; al asociar los productos por rutas iguales o similares aparecen cantidades correspondientes 3) Paso 3: Aprender acerca de la Manufactura Esbelta Este paso define las cualidades y habilidades que deben poseer los involucrados directamente en el proyecto de Manufactura Esbelta; para fortalecer las capacidades y habilidades del personal involucrado se deben seguir 5 pasos. a) Definir los atributos que debe tener un involucrado de implementación de Manufactura Esbelta b) Identificar los niveles actuales en capacidades y habilidades que se encuentran los miembros del equipo. c) Elaborar un plan de entrenamiento d) Evaluar la efectividad del entrenamiento 4) Paso 4. Definición de los objetivos La definición de los objetivos debe ir enfocada a los siguientes aspectos: • Caso del Negocio: identificación de la problemática del negocio • Declaración del valor: determinar qué se quiere alcanzar con la implementación • Requerimientos claves: determinar los requerimientos claves para alcanzar las mejoras • Métricas: determinar las métricas claves para alcanzar los requerimientos • Estado Ideal: definir los factores claves de una cadena de valor “Esbelta” que se desean mejorar durante la implementación 5) Paso 5. Análisis de la demanda El análisis de la demanda prepara al encargado de producción de hacer los arreglos necesarios para cumplir con la demanda del cliente; para el análisis de la demanda se deben seguir los siguientes pasos: a) Determinar la demanda actual de los productos de la cadena de Valor Para determinar la demanda del estado actual se pueden utilizar el cálculo de la demanda por pronóstico o la demanda del año anterior. • Demanda por pronóstico: Para cálculo de la demanda por pronóstico se pueden utilizar los siguientes métodos: Método cualitativo, método de proyección histórica o los métodos Causales. • Demanda del año anterior: Se utiliza la demanda del año anterior y se ajusta a través del tiempo. Para apoyar la demanda del año anterior se utiliza el cálculo del taktime; el taktime es una palabra alemana que significa ritmo; el taktime se calcula de la siguiente forma: “Taktime = Tiempo Total Disponible/Demanda del Producto” El taktime muestra al ritmo que deben trabajar todas las estaciones de trabajo para cumplir con la demanda del cliente. 6) paso 6. Análisis financiero Sánchez, (2005) propone que análisis financiero está basado sobre “El retorno de los activos claves”; para el análisis financiero se requieren cumplir con los siguientes pasos: Obtener la información financiera y calcular el retorno de activos claves; cada uno de estos pasos se explica a continuación: a) Obtener la información Financiera: La información financiera se basa en conocer los siguientes aspectos: • Ingresos anuales de la cadena de valor • Desglose de los costos de la cadena de Valor. • Es el valor resultante de restar ingresos menos costos o EBIT (Ganancias antes de intereses e impuestos, por sus siglas en inglés). • EBIT= Ingresos – Costos Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos - Delgado Gallo b) Cálculo del retorno de activos claves: Calcular el retorno de activos claves, incluye obtener la información correspondiente a tres indicadores, estos indicadores son: • Ingresos anuales: Depende de amplitud de la utilización de las maquinarias para cumplir con las demandas. • Ganancias antes de Intereses e impuestos: Este indicador será representado por el EBIT, visto anteriormente. • Retorno de activos claves: representa ganancia antes de intereses e impuestos dividida sobre el total de los activos anuales. 129 7) Paso 7. Análisis del estado actual El análisis del Estado actual se enfoca al comportamiento del sistema de Manufactura basado en los datos recopilados; estos datos son Reza (2007): • Tiempo de Ciclo • Tiempo de Preparación • Disponibilidad • Numero de Operarios • Tamaño de lote • Tamaño del inventario en proceso. Los anteriores datos impactan en las métricas de la Metodología según los objetivos del proyecto; las métricas son presentadas en la Tabla II. TABLA II INSTRUMENTO DEL NIVEL DE ALCANCE DE LA IMPLEMENTACIÓN DE LA FILOSOFÍA DE MANUFACTURA ESBELTA EN LAS FASES DE APLICACIÓN DE LOS INDICADORES. Fuente: Adaptada de Nivel de alcance de implementación del estatus de la Manufactura Esbelta antes y después de KPIS. ( Mohammad et, al., 2009). La Tabla II muestra los nueve indicadores que miden el estado de la empresa en cada etapa; cada uno de estos indicadores está medido en unidades correspondientes que aparecen en la columna de nombre “Unidad”, estas unidades están escritas en la Tabla en forma de símbolos, estos símbolos se describen a continuación: $: pesos colombianos; Dpm: Defectos por millón Unidad: Unidades de producto;M2: Metros cuadrados; M: Metros lineales; Mins: Minutos La columna RAG, (Red, Ámbar, Green) que por sus siglas en el idioma español significa rojo, anaranjado y verde, Identifica visualmente el estado del indicador en cada nivel (Mohammad et al., 2009), el estado Rojo significa que el estado del indicador es grave y no funciona adecuadamente, el estado anaranjado significa que el problema es de atención y se puede mejorar aún más, el estado verde significa que el indicador trabaja aceptablemente y favorece a todo el sistema. Este instrumento de medición es aplicado en cada fase de investigación. 8) Paso 8. Simulación del estado actual Este paso se explico en las Fig.8 y Fig.9 9) Paso 9. Diseño del estado futuro El diseño del estado futuro consiste en la determinación de los desperdicios del sistema actual de manufactura (Ver Tabla III) y el procedimiento para eliminarlos. La Tabla III Muestra los 7 principales desperdicios de un sistema de manufactura discreto y la forma de eliminarlo. 130 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 119 - 131 TABLA III LOS 7 DESPERDICIOS TÍPICOS EN LOS PROCESOS DE PRODUCCIÓN CONTROLADOS POR LA METODOLOGÍA DE MANUFACTURA ESBELTA Fuente: Coutin, 2005. 10) Paso 10. Optimización del sistema de manufactura Este paso se describió en las figuras 7, 8, 9,10. 11) Paso 11. Plan de acción consiste en implementar las herramientas de la Manufactura esbelta y optimización del sistema de Manufactura de acuerdo a un evento Específico. 12) Paso 12. Simulación final de resultados. Muestra dinámicamente el comportamiento ideal del sistema teniendo en cuenta las mejoras previamente realizadas en los pasos anteriores. (Ver fig.11). 13) Paso 13 perfección: Representa el Mejoramiento continuo donde se continúa analizando el sistema, comenzando nuevamente con un Mapa del Estado Actual direccionado hacia las nuevas metas y objetivos de la Empresa. CONCLUSIONES La metodología de manufactura Esbelta es usada en países industrializados como Estados Unidos y México para eliminar desperdicios y reducir costos. La Manufactura Esbelta es una Metodología que debe ser actualizada a través de las exigencias tecnológicas e industriales contemporáneas. Debido a la alta variabilidad en procesos y productos de las pequeñas y medianas empresas la Metodología de manufactura Esbelta debe ser adaptada a este tipo de Variabilidad; la Optimización y modelación de sistemas de Manufactura apoyan a reducir la variabilidad de los procesos en los productos. La simulación de eventos discretos aplicados a la metodología de Manufactura Esbelta permite observar el comportamiento de las decisiones tomadas para Desarrollar el estado futuro ideal. La simulación es la herramienta adecuada para solucionar problemas de secuenciación de productos mixtos en líneas de producción donde influirá la aplicación de la Manufactura Esbelta. La Manufactura Esbelta requiere de procesos estandarizados en gestión de Calidad en documentos de control de demandas e inventarios para optimización de los resultados en tiempo y precisión. REFERENCIAS [1] Askin, R. and . Standridge, C. (1993). Modeling and Analysis of Manufacturing Systems, Wiley [2] Cardoza, G. (2009). Implementación de Manufactura Esbelta para el flujo de materia prima en una nueva nave industrial de la industria médica. Tesis. [3] Coutin, C. (2003). “Lean Manufacturing”. Recuperado el 19 de agosto de 20011, de http://scholar.google.com.mx/scholar?hl=es&lr=&q=cach e:FzIro2G55gkJ:www.aciq-cv.com/varios/leanmanufacturing.doc+MANUFACTURA+ESBELTA.l [4] Dailey, K. (2003). The lean manufacturing pocket handbook, editorial DW Publishing. Estados Unidos. Propuesta del mejoramiento de la metodología de Manufactura Esbelta por medio de optimización de sistemas de manufactura y modelación de eventos discretos - Delgado Gallo [5] Ho Kok, H. and Muthusamy, K. (2010). A Statistical Analysis Using Simulation On a Lean Manufacturing Model, [6] Mohammad, A. & Hazrulnizamm (2009), The level of achievement of lean manufacturing implementation status before and after the development of KPIs at an aerospace manufacturing company. [7] Piuzzi, G. (2008). Reto global e incertidumbre en las cadenas de suministro. VII simposio internacional de Logística y Supply chain. Caracas. Venezuela. [8] Sánchez, .R. (2005) Metodología Integral de la implantación del sistema de Manufactura Esbelta. Rosalba Sánchez. (2005) [9] Tapping, D. Luyster, T. & Shuker, T. (2002) “Value Stream Management, eight step to planning, mapping, and sustaining lean improvements”. Productivity Press. [10] Valles, D. Nathan, J. y Viswanathan, V. (2005). A Functional Modeling and Discrete Event Simulation based approach to understand the Lean Manufacturing. 131 Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega Laura Manotas Romero Ingeniería Industrial, Universidad del Norte, Barranquilla Investigador Jr. FCIMEC, Fundación Centro de Investigación en Modelación Empresarial del Caribe Barranquilla, Colombia [email protected] Diana Ramírez Ríos MSc en Ingeniería Industrial Universidad del Norte, Barranquilla Directora Científica FCIMEC, Fundación Centro de Investigación en Modelación Empresarial del Caribe Barranquilla, Colombia [email protected] Resumen— Los problemas enfocados en las bodegas siempre se han caracterizado porque dependen del tipo de negocio que fue analizado. Algunas empresas tienen zonas de cuarentena en sus bodegas y otras no. Algunas tienen out-and-back picking, y otras hacen picking en un solo recorrido para diferentes ítems. Algunas industrias tienen zonas de adelante, otras poseen zonas de almacenamiento a granel, zonas de producto retenido y de producto rechazado. En general, la optimización de las bodegas es realizada según todas las características mencionadas. En la presente investigación se desarrolló una heurística que fue adaptada con los supuestos y criterios de la regla del cube-per-order para la optimización de asignación de espacios unida con algunas de las bases para la optimización de picking, en el que la distancia de la ruta es importante pero no la ruta en sí. La aplicación fue realizada sobre un ejemplo de bodega, con base a la información suministrada por una empresa del sector industrial, en donde el aspecto crítico detectado consistía en conocer la posición óptima de las diferentes áreas y de los productos en las estanterías disponibles en la bodega. Todo esto, de acuerdo con las capacidades de las estanterías y las características de los diferentes tipos de productos que se van a almacenar. El objetivo que se persigue es el de minimizar la distancia total recorrida en un periodo de tiempo evaluado, sujeto a restricciones de espacio y asignación. Se mostrará entonces la mejoría significativa en la eficiencia de una bodega de material en estibas dada la aplicación de la heurística desarrollada. adapted from the cube-per-order index rule for slotting optimization merged with some of the picking optimization techniques, where the route distance is important but not the route itself. The application was made to over an warehouse, based on the information provided by a industrial company, where the critical aspect was to know the optimal position of the different areas and the products in the racks that the warehouse have, taking into account the capacities of the racks and the characteristics that certain type of products have. The objective was to minimize the total distance travelled in a specific period of time, taking into account capacity and assignment restrictions. It will be shown the significant improvement in the efficiency of a warehouse of material in pallet, given the application of heuristics developed. Palabras clave— Bodegas, optimización en asignación de espacios y en picking, regla del índice cube-per-order. Abstract— Warehousing problems have always been characterized depending on the type of businesses that is analyzed. Some businesses have quarantine zones in their warehouses, other don’t have. Some have out-andback picking, others do picking for different items at the same time. Some industries have forward areas, bulk storage areas, retained products areas and rejected products areas. In general, the optimization of warehouses is done depending on all of the characteristics mentioned above. In this research paper, a heuristic has been Keywords— Warehousing, slotting and picking optimization, cube-per-order index rule. I. INTRODUCCIÓN En las empresas modernas de hoy en día, dedicadas al control de bodegas y manejo de inventarios, se puede visualizar como su negocio gira en torno a mantener los tiempos de ciclo de cada orden mucho más cortos y lograr el despacho oportuno del producto al cliente. Así mismo, toda empresa desea aumentar sus utilidades y una de las maneras en que puede hacerlo es por medio de la reducción de los costos asociados a estos procesos. En una bodega, para poder reducir los costos es necesario observarlo desde dos puntos de vista, el de optimizar el proceso de Picking y el optimizar las actividades de recibo de las órdenes. Sin embargo, de acuerdo con los estimados de la industria, el proceso de Picking representa más del 60% de los costos de operación de una bodega [1] y algunos autores hablan de un 55% [2]. Recibido: 01/09/2011/ Aceptado: 15/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez Con estas estadísticas se afirma, a nivel general, que este es uno de los procesos más laboriosos y costosos que existe en cualquier bodega. Así que optimizar las operaciones de Picking le garantiza una mayor rentabilidad a la bodega, dado que se ahorrarán la mayoría de sus costos de operación. Para optimizar el proceso de Picking, algunos autores se enfocan en encontrar la mínima distancia entre las rutas que tienen que hacer los montacargas al recoger la mercancía de los estantes y llevarla al punto de despacho, tomando como base el Problema del Agente Viajero [3]. Otros autores van más allá y se preocupan, primero, por optimizar el diseño de la bodega y luego por minimizar las distancias asociadas a las rutas de la operación de Picking [4]. Para todos los diferentes casos, es necesario tener en cuenta que para cada tipo de negocio hay un manejo distinto. Sin embargo, en este estudio se presentan los distintos casos implementados, con el fin de analizar la optimización que se hará en una bodega de material almacenado en estibas con base en información suministrada por una empresa del sector industrial, con el fin de lograr una mayor productividad. 133 Viajero), y en el pasado se utilizaban algoritmos genéticos, colonias de hormiga, simulado, entre otras meta heurísticas para resolver este problema. Estas entregaban buenos resultados, pero no eran fácilmente aplicables en la práctica. En [5] se desarrolló un modelo de optimización que se resuelve con un modelo recursivo de programación de la producción y de almacenamiento de acuerdo al control de sistemas. El problema estudiado en este artículo es la secuencia y toma de decisiones en Picking según un sistema multipasillo y una ubicación compleja de los ítems a recoger. A continuación se presenta la Fig. 1 en donde se muestra el modelo de almacén con el que se trabajó en esta investigación: FIG. 1. MODELO DE ALMACÉN II. ESTADO DEL ARTE Fuente: (SHUHUA & YANZHU, 2009) Pág. 990 A. Optimización en Picking (Picking optimization) La automatización de las bodegas y los sistemas de recibimiento de mercancía ha creado la necesidad de crear algoritmos computarizados para soportar las decisiones de programación de Picking y de vehículos en los muelles de recepción y distribución de mercancía en las bodegas. Estos algoritmos deben minimizar las distancias recorridas por las grúas al momento de recoger los productos en el Picking. Los objetivos hoy día de los problemas de Order Picking están enfocados a eliminar la intervención humana en los procesos de recolección de productos en las estanterías. Existen 3 problemas de interés en este ámbito: 1) Asignación de recursos, 2) Generación de un Order Picking para cada grúa o vehículo interno dentro del almacén, y 3) Planeación del reabastecimiento de las áreas de reserva a las áreas de Picking. Un problema de Order Picking se reduce a trabajar un problema de TSP (Problema del Agente El modelo desarrollado consiste en el siguiente procedimiento: • Obtener todas las tareas del día respectivo mediante el sistema de información de almacenamiento (Warehouse managment system). • Detallar todas las tareas a realizar. Esto es ubicar espacialmente todos los puntos a los cuales debe visitar la grúa de recolección de productos. • Ejecutar el algoritmo para solucionar el problema del agente viajero o TSP. • Analizar los resultados del algoritmo. • Seleccionar la grúa para realizar el recorrido. • Después que realiza el recorrido de la ruta, la grúa vuelve a su posición inicial. • Para este modelo, las condiciones básicas del almacén eran: • Consiste en tres canales, 4 estantes y una grúa que puede operar por los lados de cada canal. 134 • ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 Los estantes son rectangulares. Las grúas se pueden mover en sentido horizontal y vertical al mismo tiempo. Las coordenadas de los estantes toman como punto cero la esquina inferior izquierda. • Existen una variedad de ítems en el sistema. • La demanda es fija y conocida, y no está relacionada a los otros ítems. • La aceleración y desaceleración de las grúas es lineal. Básicamente el algoritmo se basa en escoger puntos aleatorios y calcular su distancia. Inmediatamente esto lo compara con los recorridos que ya se han generados, y si es mejor actualiza el sistema. Es importante destacar que el algoritmo es eficiente porque no guarda todas las respuestas sino solamente las que son mejores que las anteriores. El algoritmo desarrollado en [6] utiliza el algoritmo de Colonia de Hormigas como la metodología para encontrar una solución óptima al problema de minimizar la ruta en un proceso de Picking. En su trabajo analizan las características de trabajo para estanterías de almacenamiento fijas en una bodega automatizada. Principalmente se busca optimizar las estrategias de Picking para poder mejorar el rendimiento (throughput) de la bodega. Teniendo todo esto en cuenta y de acuerdo a los requerimientos de las operaciones de Picking en una bodega con una solo hilera, se construye un modelo matemático con múltiples restricciones que buscan minimizar el tiempo de viaje en ruta. Se hicieron simulaciones computacionales para validar el modelo propuesto y los resultados demuestran superioridad en cuanto a su capacidad de búsqueda y rapidez en la entrega de resultados, que satisface la demanda de trabajo de media y alta escala. Otro algoritmo, conocido como Pick-Path Optimization en [3] utiliza la heurística para resolver el problema TSP, pero hace una versión más sencilla de la misma, ya que le agrega algunas restricciones que limita el número de posibles soluciones. El limitante de este algoritmo es que no garantiza encontrar la solución óptima que se daría por la heurística original, sin embargo, la solución es mucho más práctica porque se adapta a las reglas y configuración de las bodegas, en general. El objetivo que se debe minimizar es la distancia total recorrida y para ello, se hace una configuración de la bodega como una red de posiciones de almacenamiento. El algoritmo es programado en Java y el programa permite: • Describir el mapa de la bodega (en una hoja de Excel) • Entregar una lista de localizaciones de almacenamiento a ser visitados • Especificar el tipo de viajes permitidos para la bodega (restricciones) • Especificar los grupos de direcciones que se pueden visitar en la operación de Picking. B. Optimización en asignación de espacios (slotting optimization) En [7] se presenta un problema interesante que es el proceso de selección de los productos en las áreas de Picking, con mínimas distancias. J. L Heskett propuso un algoritmo heurístico llamado Cube-per-order (CPO), que presenta una solución a la localización de ítems en la bodega con el fin de minimizar los costos involucrados en el tiempo de espera para la selección de los productos de una orden recibida. CPO es un criterio para la colocación de stock en un almacén de distribución a fin de minimizar el costo de la mano de obra asociados con montaje de elementos del stock en la bodega para satisfacer los pedidos de los clientes. Conceptualmente hablando, el tipo de distribución de la bodega en discusión es el presentado a continuación en la Fig. 2. La bodega está dividida en la zona de reserva. Estos almacenes guardan una variedad de ítems, y los clientes pueden realizar una orden con cualquier combinación de productos. FIG. 2. ZONAS DE LA BODEGA Fuente: (KALLINA & LYNN, 1976) Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez Cuando una orden de un ítem es recibida, un operador con un montacargas va desde el almacén en donde se encuentra el artículo y regresa al área de despacho de pedidos. Este proceso es llamado “recoger una orden”. Dependiendo del diseño del almacén, la carga del ítem y la distribución normal de los productos con respecto a una orden, se pueden emplear una serie de formas o disciplinas para recoger los productos en una bodega. Para el uso de la regla en cuestión se tendrán en cuenta las dos siguientes disciplinas básicas: primero, la selección de cada ítem ida y vuelta (out-and-back), usada donde las órdenes de productos que se van a recoger son en grandes cantidades, o donde todo el trabajo es sacado con un montacargas cuya capacidad de carga es de un solo ítem por viaje para llevarlo a la zona de despacho; y segundo, Picking routing (ruteo), en este caso varios ítems de una orden son recogidos en un solo viaje de la bodega hasta que el medio de transportación tenga la capacidad completa. La clave del costo variable en el proceso de recolección de una orden es el tiempo en el que incurre el operador del montacargas en sus recogidas. Se asume que con cualquiera de las dos disciplinas expuestas, la velocidad promedio de este vehículo es igual para todas las órdenes. Asimismo, se asume que los ítems que se van a recoger tienen un volumen, peso y configuración geométrica lo suficientemente parecida que estos factores no afectan el tiempo que se requiere para levantar el ítem. De lo anterior se deduce, por tanto, que en la disciplina out-and-back el costo de recoger un ítem dado es directamente proporcional a la distancia desde el área de despacho donde está la orden a la ubicación del ítem en la bodega. En el caso de la disciplina Picker routing, el tiempo total del operario en un viaje se puede distribuir a través de todos los elementos recogidos, entonces el tiempo dado a cada elemento de la orden será proporcional a la distancia de este con el área de despacho del pedido. Estos tiempos pueden ser promediados a través de todos los viajes realizados por el operador durante un periodo de tiempo para llegar a un costo promedio de recogida del producto. Una vez más, se deduce que el costo promedio de un ítem es proporcional a la distancia entre el área de despacho del pedido y la ubicación del ítem en la bodega. 135 Así, con el fin de analizar los costos variables para recoger basta con concentrarse en la configuración geométrica del área de la bodega. En la Figura 2 se divide el área de la bodega en zonas. En la práctica, estas zonas se ajustan a las características físicas (pasillos y bahías) de la bodega real. En promedio, la distancia desde la zona de despacho de la orden hasta un lugar cualquiera en la Zona 2 es el doble que la distancia a un lugar cualquiera en la Zona 1, y así. Otro aspecto importante de este tipo de problemas que no ha sido mencionado hasta el momento es la posibilidad de tener pronósticos de la demanda para cada ítem en la bodega. Además, incluso asumida esta demanda es bien sabido con certeza, que si la demanda tiene un comportamiento claramente estacional entonces un factor adicional para considerar es el apropiado horizonte de tiempo sobre el cual se debe encontrar la solución del costo mínimo. Regla del índice Cube-Per-Order CPO A razón de enfocarse en la reducción del costo de recoger una orden, se deben hacer las siguientes suposiciones: • Se ha determinado un horizonte de tiempo sobre el cual se desea minimizar el costo de recoger una orden. • Sobre este horizonte de tiempo, la demanda del cliente para cada ítem de la bodega es conocido con certeza, tanto la cantidad que debe ser despachada como el número de órdenes que van a ser recibidas. • Se ha determinado la demanda diaria máxima del inventario que se debe mantener en la bodega para cada ítem, y adecuar el espacio total de la bodega para que se ajuste a esta cantidad específica (la demanda diaria determinada puede ser diferente para diferentes ítems). Con estas suposiciones, el problema es ubicar los ítems en la bodega para así minimizar el costo variable de recoger una orden; de igual manera se minimiza la distancia total de los recorridos del montacargas durante el horizonte de tiempo seleccionado. Estos son en general cuatro factores determinantes del costo: compatibilidad, complementariedad, popularidad y espacio. Los ítems compatibles son aquellos que pueden ser almacenados 136 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 uno al lado del otro sin temor a alguna contaminación o daño, así entonces los ítems incompatibles, como por ejemplo, un caso muy común sería la comida y gasolina, deben ser almacenados en lugares no adyacentes. Los ítems complementarios son aquellos que frecuentemente son demandados simultáneamente por el cliente en la misma orden, como sería el caso en los supermercados del espagueti y salsa de tomate, y estos deben estar ubicados cerca uno del otro. Los ítems populares, en términos del promedio de recogidas por día, deben estar localizados cerca del área de despacho, ya que estos ítems tienen el mayor número de viajes hacia su ubicación. Este criterio parece ser el más recomendado para la ubicación de stock. Finalmente, es recomendable que los ítems que requieren el menor espacio en la bodega estén ubicados más cerca del área de despacho. Claramente, estos cuatro criterios, en general, no pueden ser introducidos simultáneamente, y es necesario mucho esfuerzo. Primero, se asume que todos los ítems de la bodega son compatibles. Luego, se asume que hay grupos de ítems de alta complementariedad que se combinan en clases para formar nuevos “ítems” en el listado maestro de la bodega. Estos nuevos ítems pueden o no remplazar totalmente los ítems individuales para convertirse en clases, según el grado de complementariedad. Con esto, se puede especificar los pasos que involucran la implementación de la regla del índice CPO, que establece un intercambio cuantitativo entre los dos objetivos de ubicar los ítems que ocupan menos espacio cerca de la zona de despacho, y también los ítems que son más populares. Los siguientes pasos involucran nada más que una secuencia de tabulación de datos y cálculos aritméticos simples. 1) Preparar un diagrama a escala de toda la bodega, según la ubicación de los pasillos, áreas de almacenamiento y otras características físicas significativas que afecten los movimientos de los montacargas, como los obstáculos, paredes interiores y demás. Se indicará la capacidad de cada zona de almacenamiento entre pasillos, expresada en pies cúbicos, metros cúbicos o número de paletas, según sea más conveniente. 2) Dividir el área de la bodega conceptualmente en zonas que representan distintas distancias promedio hacia la zona de despacho, y tenga en cuenta las zonas en el diagrama a escala. Además, la capacidad de cada zona debe ser tabulada. 3) Hacer un listado de todos los ítems que son llevados a esa bodega. En la columna siguiente, registrar el volumen requerido para almacenar la unidad más pequeña que se pueda embalar de cada ítem de una orden que un cliente pueda pedir. 4) Para cada ítem, registrar el pronóstico del número esperado de órdenes a ser recibidas en un horizonte de tiempo, y el número de unidades esperadas para despachar. Se asume que cada orden para un ítem representa una recogida (si se espera que ocurra frecuentemente que se deba ir a recoger más de una vez en una orden, entonces se remplaza la orden estimada del ítem por una estimación del número total de recogidas). 5) Calcular y registrar por separado para cada ítem el número promedio de unidades por pedido, el número promedio de volumen de almacenamiento requerido por cada pedido y el número promedio de órdenes que se reciben en un día de envíos durante el horizonte de tiempo. Los dos últimos números se multiplican con el número de días establecido como el objetivo máximo de días de demanda para obtener la cantidad de espacio del área de la bodega a ser apartadas para cada ítem. El índice CPO es la relación de este último número y el promedio de pedidos por día de envío. (Esta definición del índice indica una compensación de lo cuantitativo e intuitivo entre espacio y popularidad. Más directamente, el índice se define como el producto de la meta de días de demanda y el espacio de almacenamiento promedio por pedido). 6) Todos los ítems están ahora ordenados según su índice CPO, el ítem con el menor índice comienza de primero. De este ranking, depende el diseño del área de la bodega. Los ítems con menor índice son colocados en la zona 1 y así sucesivamente cada vez más lejos de la zona de despacho. Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez La regla CPO es fácil de implementar, tanto en términos de tiempo y el nivel de mano de obra requerida. También tiene una gran flexibilidad a condiciones cambiantes. Una observación empírica hecha es que la regla CPO, con frecuencia, es que el rendimiento de la bodega es muy diferente de los obtenidos por la aplicación del criterio de la popularidad o el espacio. Además, se puede esperar que el diseño de la bodega de la regla difiera en cierta medida del diseño real en existencia. En determinadas situaciones la aplicabilidad del índice de CPO puede ser reforzada por cambios específicos en la configuración del área de la bodega. C. Optimización de diseño en planta (layout optimization) Para el diseño del Order Picking Area, se tienen otros algoritmos que trabajan el esquema completo del diseño de la bodega, según la información del espacio disponible y definición de las áreas de operación y las estanterías con las que se cuentan para la bodega: En [8] se estudiaron las interacciones entre las políticas de ruteo y el diseño del área de Picking por medio de simulación. Sin embargo, no desarrolló una metodología de diseño. En su estudio, encontró que la influencia de la posición de depósito en distancias de ruta es menor al 6% y si hay más de 15 picks por ruta, ésta cae por debajo del 1%. En [9] se estudió el impacto del diseño del área de Picking por medio de los estimados en la distancia de ruta en diseño de un solo bloque. En [10] se desarrolló un modelo capaz de encontrar la mejor estructura de diseño para el área de Picking, por medio de la formulación de un modelo matemático no lineal, basándose en las características de dos políticas distintas de operación. Sus resultados les llevaron a concluir que el número de hileras óptimas depende fuertemente de la capacidad del área de almacenamiento y de la lista de Picking. Aun cuando fue una contribución importante, su modelo se limita a diseños de un solo bloque. En el [11] se presentó un modelo analítico para el diseño en planta del área de Picking en sistemas de picker-to-part de nivel bajo mediante el índice cube-per-order (COI), explicado en la pasada sección, basándose en reglas de asignación aleatoria de espacios. Los autores presentan una 137 fórmula que relaciona el número óptimo de hileras con los parámetros principales que afectan el diseño de planta, los cuales son: la longitud de las hileras de Picking, el número de paradas de Picking por viaje y la forma del diagrama de Pareto basado en el COI. También tienen en cuenta el incremento en el valor esperado de distancias de viaje que surge de la adopción de un número no óptimo de hileras. En [12] estudiaron bodegas que consisten en dos bloques con el depósito localizado entre ambos bloques en la cabecera de la hilera cruzada media. El modelo que presentan se basa en la asignación óptima del espacio de almacenamiento, mediante la estrategia ABC y en la minimización del tiempo promedio de ruta de Picking, en el que al mismo tiempo se mantenga cierto nivel de espacio de almacenamiento. En su estudio consideran dos tipos de diseño, uno que tiene el espacio disponible fijo y el otro que no lo tiene fijo. Para cada situación presentan una formulación matemática y heurística para resolverla. En [4] se estudian modelos de múltiples hileras y número de bloques. Los autores presentan un método revertido para optimizar el diseño del área de Picking e introducen un estimado estadístico para la distancia total promedio con el fin de poder minimizarla. Presentan un modelo analítico y lo validan por medio de simulación. En este modelo, ellos consideran la operación de Picking manual, en el que los operadores recorren la bodega y recogen los ítems y los llevan a su ruta. La estructura del área está compuesta por hileras de Picking que tienen estanterías en ambos lados y en donde los operadores tienen la posibilidad de recoger material de ambos lados. En este modelo existen por lo menos dos hileras cruzadas (una en el frente y otra en la parte de atrás) y en esas hileras no se tienen puntos de Picking. III. DESCRIPCIÓN DEL PROBLEMA y FORMULACIÓN DEL MODELO MATEMÁTICO Para este modelo se tienen en cuenta que la política de asignación de espacios es aleatoria siguiendo una distribución uniforme y se tienen en reglas de asignación de rutas que limitan el espacio de soluciones. Para lo anterior, se asume que los operadores recorren las hileras por toda la 138 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 mitad de la hilera, evitando congestión de operadores y también recogen los productos sin tener que utilizar un mecanismo de levantamiento de carga. Se debe analizar de qué manera están organizados los productos, en este caso se tomará que las estanterías de la bodega están organizadas por familias de producto, los cuales se encuentran paletizados (en estibas). Por otro lado, se debe evaluar si los espacios están organizados de acuerdo a la cantidad de producto en rotación, es decir, si se tiene en cuenta su popularidad; esto, versus el volumen que se puede manejar por estiba, por lo que se debe revisar la asignación óptima de los espacios en bodega, basados en la popularidad y el volumen que el producto maneja. Como ya se mencionó anteriormente, se tomará el caso de una bodega en la que los estantes están sectorizados por tipo de producto y también por estado, que puede ser: Cuarentena, Aprobado, Rechazado, Retenido, en Alistamiento. El estado de Cuarentena es establecido cuando el producto no ha sido inspeccionado previamente, por lo que se le realizan pruebas para poder ubicarlo en las estanterías y así evitar la contaminación del resto de los materiales de la bodega; una vez el material pasa satisfactoriamente las pruebas de control de calidad, se le coloca el sello de Aprobado y es trasladado a la estantería correspondiente; si el producto no pasa las pruebas de control de calidad, entonces será ubicado en la zona de producto Rechazado o Retenido según sea el caso; a la zona de Alistamiento, solo pasan los productos por requerimiento del área de producción y que estén en la zona de Aprobado. La cantidad de zonas asignadas en la bodega, depende indispensablemente de las necesidades de la empresa. Para el caso en estudio se tendrán en cuenta las cuatro zonas anteriormente mencionadas, y una quinta zona que se tomará como área de Alistamiento, en donde se ubicarán las estibas según los pedidos requeridos y donde solo pasará material que ha estado en el área de Aprobado, para luego salir de la bodega hacia Producción, como se mencionó anteriormente. Cabe destacar que las zonas deben estar claramente señalizadas, y para el caso de que se maneje material con rigurosos controles de calidad, por el tipo de producto, se debe además ubicar la estiba en la zona correspondiente según los resultados de las pruebas de muestreo, se debe colocar una etiqueta o señalización distintiva de que el producto fue asignado para x área, esto es de vital importancia para el personal que maneja la bodega. Para el caso de este tipo de bodegas y dadas todas las condiciones anteriormente establecidas, el método más adecuado a partir del cual se puede empezar desarrollar para organizar los productos de la bodega de la mejor manera es la regla Cube-Per-Order. Se debe tener en cuenta que este método no se ajusta de manera exacta, por lo que hay que tener en cuenta ciertas variaciones para que su aplicabilidad sea viable, por ello, se ha combinado para lograr una optimización en el Picking, para el cual se tienen en cuenta las distancias, principalmente. La optimización del diseño de la bodega se tiene como referencia, sin embargo, no se tuvo en cuenta por el mismo hecho de que normalmente las bodegas ya tienen fija sus estanterías, la cantidad de hileras, y demás. El modelo que se ha desarrollado debe indicar la posición óptima de las zonas en las estanterías para que se reduzca el tiempo de Picking. Este modelo se aplica a empresas que tienen un Picking out-and-back, lo que significa que no se necesita la ruta óptima de recogida de los pedidos sino más bien un arreglo óptimo de estanterías asignadas a cada tipo de producto con el fin de minimizar la distancia de los recorridos, según las capacidades en las estanterías, de acuerdo con el siguiente modelo matemático. IV. DESCRIPCIÓN DEL PROBLEMA y FORMULACIÓN DEL MODELO MATEMÁTICO A. Variables: B. Parámetros: uit= Cantidad de estibas del producto i que ingresan a bodega en el periodo t. capj= Capacidad de la estantería j. Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez zit= Cantidad de estibas del producto i que salen de la bodega en el periodo t. dej= Distancia desde la entrada a la estantería j. djl= Distancia desde la estantería j a la estantería l. daj = Distancia de zona de alistamiento ubicada en la estantería j a la salida. 139 5. Distancias recorridas por los productos i=1, … , 12 que se mueven de la zona de Alistamiento a la salida. E. Sujeto a: La capacidad de los estantes asignados a la zona de Aprobado debe ser mayor o igual a la cantidad de producto que i que ingresa a dicha zona en un periodo de tiempo t. pik= Proporción del producto i a ingresar en estado k. C. Conjuntos: Familias de productos i = 1, … , 12 Estanterías j = 1, … , 25 ι⊆ J, ι≠j Estados en bodega, estos dependerán del número de zonas que se definan, para este caso sería entonces: 1(en cuarentena), 2(retenido), 3(rechazado), 4(aprobado) y 5(en alistamiento) Periodos de tiempo, se define la unidad de tiempo en la que será más conveniente evaluar t=1, … , (semestres) D. Modelo matemático (Zmin): La capacidad de los estantes asignados a la zona de Cuarentena debe ser mayor o igual a la cantidad de producto que ingresa en esta zona en un periodo de tiempo t. La capacidad de los estantes asignados a la zona de Alistamiento debe ser mayor o igual a la cantidad de producto que sale de la bodega por requerimiento del área de producción en un periodo de tiempo t. Esta restricción implica que cada producto solo va a tener asignado una ubicación a la vez. Cada producto debe tener una posición asignada. La función objetivo se compone de las siguientes partes: 1. Distancias recorridas por los productos i=1, … , 12 que entran directamente al estante j donde se encuentra la zona de Aprobado en un periodo de tiempo t. 2. Distancias recorridas por los productos i=1, … , 12 que entran directamente a Cuarentena. 3. Distancias recorridas por los productos i=1, … , 12 que se mueven de la zona de Cuarentena a la zona de Aprobado, Retenido o Rechazado. 4. Distancias recorridas por los productos i=1, … , 12 que se mueven de la zona de Aprobado a la zona de Alistamiento. Cada zona, solo va a tener asignado un estante a la vez. Cada zona debe tener un estante asignado. V. DESARROLLO DE LA hEURÍSTICA Los pedidos que entran con mayor frecuencia son aquellos que necesitan estar cerca de la entrada y aquellos que salen más frecuentemente necesitan estar cerca de la salida. En una típica bodega se maneja el siguiente flujo de producto clasificados por estado del producto que se muestra en la Fig. 3: 140 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 FIG. 3. DIAGRAMA DE FLUJO DEL MATERIAL EN BODEGA Q: En CUARENTENA; AP: APROBADO; AL: EN ALISTAMIENTO; RT: RETENIDO; RE: RECHAZADO FIG. 4. DIVISIÓN DE LA BODEGA EN ZONAS – · –Zona de entrada · · · · · · · Zona de salida De acuerdo a este diagrama de la Fig. 3, se detectan dos zonas de importancia: La zona de entrada y la zona de salida. El arreglo dependerá entonces de la cantidad de flujo de producto que transita de una estantería a otra. Por lo tanto, la heurística contempla la división de la bodega en zonas, como lo hace el procedimiento cube-per-order, sin embargo, a diferencia de este último, se trabajará la importancia relativa según el flujo de estibas por producto, divididos en la cantidad que sale versus la cantidad que entra. Entonces, se hablará de dos subgrupos: zonas de salida y zonas de entrada. En cada subgrupo están delimitados las zonas 1, 2 y 3 que va de mayor cercanía a la salida o la entrada, tal como se muestra en la Fig. 4. Procedimiento: PASO 1: Levantar un plano de la bodega y dividirlo en zonas, para clasificarlas en las dos zonas mencionadas. Todas las estanterías deben estar asignadas en ambos tipos de zonas. PASO 2: Calcular las capacidades de las zonas. PASO 3: Calcular el número de estibas que ingresan y salen de bodega por familia de producto en un periodo de máximo mantenimiento de inventario, esto se puede hacer mediante la determinación de la demanda diaria del producto, y multiplicarla por el número de días que se maneja de inventario. PASO 4: Hacer dos listados, uno para los productos que salen y otro para los que entran, en el que se ordenan de mayor a menor y para el listado de los productos que entran, indicar con valor de 1 si el producto entra a cuarentena y 0 si no entra. PASO 5: Asignar los productos en las zonas de entrada y salida, de acuerdo con el ordenamiento sugerido en el listado y respetando las capacidades de cada zona. En la asignación de zonas de salida, se debe primero colocar la zona de alistamiento antes de asignar los productos en las estanterías. PASO 6: De acuerdo con las zonas se hace un listado específico en estanterías, se asignan los productos a las estanterías, según la coherencia del listado de entradas con el de salidas. PASO 7: Evaluar función objetivo inicial PASO 8: Aleatoriamente seleccionar 2 zonas e intercambiarlos. PASO 9: Evaluar función objetivo con las modificaciones. PASO 10: Si el valor es menor al anterior, ir al paso 11, de lo contrario regresar al paso 8, sin modificar la solución anterior. PASO 11: Seleccionar solución mejorada e ir al paso 8. PASO 12: El criterio de salida estaría establecido por el porcentaje de cambio entre un arreglo y otro. Se detiene el procedimiento, una vez el porcentaje de cambio se haya mostrado poco significativo en arreglos seguidos. Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez VI. APLICACIÓN DEL MODELO DESARROLLADO PARA EL CASO DE UNA EMPRESA DEL SECTOR INDUSTRIAL • • A. Datos de Entrada En la bodega de material expuesta se manejan 5 estados de los productos, como se mostró en la Fig. 3. De manera general se debe tener cuenta: • Porcentaje de producto que entra a Aprobado o a Cuarentena. • En caso de entrar a Cuarentena, número de días que permanece este estado hasta ser ubicado en Aprobado, Retenido o Rechazado. • Restricciones de incompatibilidad entre un producto y otro, es decir, x producto específico debe estar separado de y producto por políticas de la empresa. • Porcentaje de material Rechazado y Retenido según las estadísticas. • Si se sabe que todos los productos deben pasar por el área de Alistamiento para salir de la bodega, entonces, especificar cuánto demoran en esta área. Establecer si existen algunas restricciones de movilidad de las áreas. Esto puede ser porque algunos estantes están adecuados especialmente para recibir cierto tipo de producto. • Dado que para que un producto salga tiene que pasar por el área de Alistamiento, se tomará esta como el área de Salida. • Como se mencionó anteriormente, para adaptar el modelo de CPO a la bodega, se tendrá en cuenta que cada estiba es una orden debido a su modelo de Picking, out-and-back. • Finalmente, las unidades a manejar son en metros y en estibas. • Aplicándolo a las condiciones de la bodega ejemplo se tienen los siguientes detalles para empezar: Existen 12 familias de productos que maneja la empresa, de los cuales no se tendrán en cuenta las familias 3 y 8 debido a que no hacen parte del material manejado en dicha bodega. • Los productos manejan un porcentaje de entradas directas a Cuarentena muy parecido al 70% según información estadística. Y luego permanecerá en esta área en un periodo no superior a 3 días. • • • • • 141 De los lotes recibidos no más del 3% resulta Rechazado y no más del 2% Retenido. Como ya se sabe todos los productos deben pasar por el área de Alistamiento antes de salir de la bodega para responder a un pedido. Y no demoran más de 2 días en esta área. La zona de cuarentena debe estar ubicada en las estanterías del centro, ya que de esta zona se dirigen hacia el resto de los estantes las estibas. La estantería de alistamiento es la única fija en toda la bodega. El área de alistamiento debe estar ubicado en cierto estante debido a que ésta estantería está especialmente adecuada para el recibo de las órdenes El área de Rechazado y Retenido deben estar juntas y en un área de la bodega donde puedan ser encerradas ya solo personal autorizado tiene acceso a esta área. Para entrar se necesita orden de Calidad y para retirar algún material se necesita orden de Jefe de Bodega y de Calidad. Existen dos áreas de Cuarentena, ya que ciertos productos tienen incompatibilidad. Se procede entonces a desarrollar los pasos con la información suministrada. B. Aplicación del Modelo Desarrollado PASO 1: En los siguientes diagramas (Fig. 5 y 6) se muestran las zonas de entrada y las zonas de salida subdivididas. FIG. 5. ZONA DE ENTRADA FIG. 6. ZONA DE SALIDA 142 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 PASO 2: Según las zonas establecidas la capacidad asignada sería la siguiente que se muestra en la Tabla I para las entradas y en la Tabla II para las salidas: TABLA I ZONA DE ENTRADA ZONA Capacidad Porcentaje (%) Estantes 1 1000 35 A, B, C, H, N, O, P 2 956 34 D, E, I, J, K, Q, R F, G, M, S 3 888 31 Total 2844 100 TABLA II ZONA DE SALIDA ZONA Capacidad Porcentaje (%) Estantes 1 1030 36 I, J, K, O, P, Q 2 834 29 C, D, H, L, N, R 3 980 34 A, B, E, F, G, M, S Total 2844 100 La zona 2 en este caso tiene menor capacidad debido a la distribución de las estanterías en el espacio de la bodega. Para la zona de salida, se tiene como centro el área de alistamiento debido a que pasa salir de la bodega, todos los materiales deben pasar por esta área. PASO 3: A continuación se presenta la información detallada de cada línea y zona de la bodega en la Tabla III. Se tiene la demanda diaria (Dd.) de cada línea (L) (unidad: Estibas). • Tiempo máximo de inventario (T. máx.): tiempo máximo que dura una estiba en la bodega. Esto indica para cuanto tiempo tienen inventario programado para cierto producto (unidad: días). • Capacidad teórica (Cap. Th.): según la demanda diaria y el tiempo máximo de inventario se obtiene esta capacidad, que indica cuanto debería ser la capacidad asignada en la bodega (unidad: Estibas). • Capacidad asignada (Cap. A): según los estantes asignados en la bodega (unidad: Estibas). • Delta (Δ): indica cuanto por encima o por debajo tiene la cantidad asignada con respecto a la teórica. Un porcentaje negativo indica que la capacidad asignada es inferior a la teórica y un porcentaje positivo indica lo contrario. • %Q: porcentaje de producto que normalmente va directamente hacia Cuarentena. • %R: porcentaje de producto que normalmente va directamente hacia el área de Rechazado por problemas de calidad para ser devuelto al proveedor. • %Rt: porcentaje de producto que normalmente va directamente hacia el área de Retenido esperando confirmación de Calidad para asignarlo como rechazado o aprobado, debido a que existen anomalías y no hay pruebas suficientes de laboratorio para asignarlo directamente a alguna de las dos zonas mencionadas. Con respecto a las áreas de la bodega, se identificaran de la siguiente forma: • a: Alistamiento • q: Cuarentena • q2: zona de Cuarentena en la que sólo pueden colocarse los productos 4, 5 y 7 • r: Rechazado • rt: Retenido TABLA III Información de cada línea y zona de la bodega L Dd. T máx. Cap. Th. Cap. A. Δ %Q %R % Rt 1 0,5 365 183 176 -4% 70% 5% 2% 2 0,8 180 137 128 -6% 70% 5% 2% 4 0,6 150 88 84 -5% 100% 5% 2% 5 3 60 185 204 10% 100% 5% 2% 6 5 90 458 400 -13% 70% 5% 2% 7 49 8 390 432 11% 100% 5% 2% 9 0,4 365 159 160 1% 70% 5% 2% 10 0,7 180 127 112 -12% 70% 5% 2% 11 1,0 180 181 200 10% 70% 5% 2% 12 3,1 90 282 324 15% 70% 5% 2% a 69 1,5 103 90 -12% - - - q 48 5 238 108 -55% - - - q2 49 3 148 162 9% - - - r 1 180 123 140 14% - - - rt 1 60 41 40 -3% - - - Fuente: información empresa 2009 PASO 4: Se realiza el listado de productos en orden de importancia según su demanda: Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez 1) Entradas: En este caso, como todas las líneas entran en algún porcentaje a cuarentena directamente, entonces la asignación de 1 y 0 no es necesaria pues entonces todas las líneas serian 0. A continuación se muestra en la Tabla IV el total de estibas por línea: TABLA IV Listado de productos en orden de importancia según el número de entradas ENTRADAS Línea Estibas totales/Línea 7 17777 2 6 1857 3 12 1145 4 5 1127 5 11 368 6 2 278 7 10 258 8 4 215 9 1 183 10 9 159 1 2) Salidas: Para el caso de las salidas, se puede observar en la Tabla V que la mayoría de las posiciones se conservan. La posición 7 y 8 se encuentran invertidas, al igual que la posición 9 y 10. Tabla V Listado de productos en orden de importancia según el número de salidas SALIDAS 143 que ésta nos indica la demanda real que tiene la empresa según las ordenes de pedido que recibe. PASO 5: Asignación de líneas de productos a estanterías según zonas 1, 2 y 3. 1) Entradas (desde Cuarentena): Se toma las entradas únicamente desde cuarentena ya que el número de entradas hacia esta zona es más significativa que a las estanterías. A partir de esto se puede tener un punto de referencia que puede ser modificado, una vez se tengan las líneas ubicadas en los estantes. Al realizar el acomodamiento para las líneas que van desde Cuarentena a los estantes quedaría de la siguiente manera como se muestra en la Tabla VI: TABLA VI Ubicación de las líneas en los estantes desde Cuarentena Estante Línea A 12 B 12 C q2 D 6 E 10 F 1 H 2, 10, 1 I 2 J a, 6 K 6, 12 N 1, 11 O 11 P 6 Línea Estibas totales/Línea Q q 1 7 10429 R 9 2 6 1560 S 3, 9 3 12 801 4 5 638 5 11 306 Para el caso de entradas desde la Cuarentena q2 se tiene la siguiente información en la Tabla VII como resultado: TABLA VII Ubicación de las líneas en los estantes desde Cuarentena q2 6 10 162 7 2 157 8 1 9 4 10 9 Estante Línea 154 A 7 127 B 7 112 C q2 D 7 E 4 N 5 O 5 P 7 En este caso se tomará el orden de entrada como el orden general de los productos ya que esta información es de mayor confiabilidad, según el manejo de la información que se tiene en la empresa. Sin embargo, normalmente, sería preferible utilizar la información de Salida, ya 144 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 2) Salidas (desde Alistamiento): Para el caso de las salidas, se toma de manera general los movimientos desde los estantes hasta la zona de alistamiento. Las líneas quedarían ubicadas de la siguiente forma como se muestra en la Tabla VIII: TABLA VIII Ubicación de las líneas en los estantes desde la salida Estante Línea A 8, 9, d B 1 C q2 D 5 E 1, 9 F 9 G 2, 10, r, rt H 6, 12 I 6 J a, 7 K 7 L 12 M 11, 12 N 1, 2, 4, 11, 12, 6 O 6 P 7 Q q R 5 S 1, 4, 11 Líneas Entradas q2 Salidas A 12 7 8, 9, d B 12 7 1 C q2 q2 q2 D 6 7 5 E 10 4 1, 9 F 1 9, r G 2, r, rt H 1, 2, 10 6, 12 I 2 6 J a, 6 a 7 12 M 11, 12 N 1, 11 5 1, 2, 4, 6, 11, 12 O 11 7 6 P 6 Q Q 7 R 9 5 S 3, 9 1, 4, 11 q q TABLA x Ubicación de las líneas en los estantes TABLA Ix Comparación entre análisis de zonas Entradas q 6, 12 L Al cruzar la información obtenida, y después de evaluar distancias en las posiciones, se tiene el siguiente resultado final mostrado en la Tabla x: PASO 6: Se realiza una comparación entre las ubicaciones resultantes de cada uno de los análisis, entradas y salidas. Comparándolos se obtiene la Tabla Ix: Estante K a, 7 Estante Línea A 8, 9, d B 1 C q2 D 5 E 1, 9 F 9, r G 2, 10, r, rt H 6, 12 I 6 J a, 7 K 7 L 12 M 11, 12 N 1, 2, 4, 6, 11, 12 O 6 P 7 Q q R 5 S 1, 4, 11 A través del uso de la heurística establecida se obtuvieron los siguientes resultados: Distancia total en el año 2009: Total distancia 2009 (km): 2.971 Y la distancia total obtenida utilizando los pasos anteriormente descritos fue: Total distancia (km): 1.738 Es decir, 41% menos de distancia recorrida que la obtenida en el 2009 con las ubicaciones actuales. Desarrollo de un modelo heurístico para la optimización en el manejo de material en estibas en una bodega - Manotas, Ramírez La aplicación de este método resultó de gran ayuda ya que las diferencias obtenidas en distancias recorridas es considerablemente alta, de esta manera se utilizan los recursos para el almacenamiento de una manera más eficiente y se reducen costos. VII. CONCLUSIONES En el proceso de Picking, los objetivos que se persiguen son varios: aumentar productividad, aumentar asertividad y disminuir los tiempos de ciclo. La productividad se expresa en número de producto recogido por unidad de tiempo. La asertividad se refiere al porcentaje de embarques que le llegan correctamente al cliente y esto generalmente se logra por medio de un sistema riguroso de control. El tiempo de ciclo se refiere al tiempo desde que la orden fue ingresada al sistema hasta que esta haya sido despachada. Por otro lado, para mejorar la asignación de espacios en una bodega, los expertos recomiendan utilizar los espacios de mayor acceso para aquellos productos que tienen alta rotación. Incluso, se habla de tener esos productos cerca de las bandas trasportadoras o de rápido acceso en las hileras con el fin de minimizar la operación de Picking. También se recomienda que los productos que se distribuyen juntos se almacenen juntos y aquellos productos muy grandes o pesados colocarlos en espacios donde no se corra el riesgo de accidente para los operadores de Picking y almacenamiento. Para el caso estudiado y mediante una generalización para las empresas, se considera que el sistema óptimo de posicionamiento de las zonas en estanterías tiene que ver con la optimización tanto del espacio como la del picking. Por lo tanto una mezcla de las distancias con la popularidad del producto se convierte en una optimización de recorridos en la bodega. Conocidas las restricciones existentes y subdividiéndolas en zonas de mayor a menor cercanía de las salidas y de las entradas, fue posible obtener un arreglo coherente y adecuado para este tipo de bodegas. Los resultados generados demuestran el potencial de esta heurística que pretende para un futuro ser una de gran alcance para muchas otras aplicaciones, con resultados que para la empresa se traducen en ganancia. El objetivo principal de esta heurística es lograr una mayor organización de los productos al inte- 145 rior de una bodega. A partir de esto y dependiendo de la eficiencia de los resultados obtenidos, esta mejora tendrá como consecuencia una mejor trazabilidad de los productos, una disminución de los tiempos y movimientos, mayor facilidad al momento de la ubicación, es decir, cambio en todos los procesos vitales en todo el sistema de almacenamiento. Reconocimientos Este artículo es el resultado de un proyecto patrocinado por el Instituto Colombiano para el Desarrollo en Ciencia y Tecnología “Francisco José de Caldas” (COLCIENCIAS) con el Centro de Investigación en Modelación empresarial del CaribeFCIMEC, No. 25947. REFERENCIAS [1] COLLINS, K. (2008). Best Practices for Picking in Warehouses and Distribution Centers. Recuperado el 22 de Febrero de 2010, de: http://www. smartturn.com/forums/blogs/kevin-collins/11best-practices-picking-warehouses-distributioncenters.html [2] DE KOSTER, R., LE-DUC, T., & ROODBERGEN, K. J. (2007). Design and Control of Warehouse Picking: A Literature Review. European Journal of Operational Research , 182, 481–501. [3] BARTHOLDI III, J. J., & SUBRAMANIAN, S. (2007). Pick-path optimization. Recuperado el 25 de Febrero de 2010, de: http://www2.isye.gatech. edu/~jjb/wh/apps/pickpath/pickpath.html [4] ROODBERGEN, K. J., SHARP, G. P., & F.A., I. (2008). Designing the layout structure of manual order picking areas in warehouses. Recuperado el 25 de Febrero de 2010, de: http:// www.entrepreneur.com/tradejournals/article/ print/187011547.html [5] SHUHUA, M., & YANZHU, H. (2009). Research on the Order Picking Optimization Problem of the Automated Warehouse. 2009 Chinese Control and Decision Conference (págs. 990-994). IEEE. [6] TANG, H., & LI, M. (2009). An Improved Ant Colony Algorithm Algorithm for Order Picking Optimization Problem in Automated Warehouse. En Fuzzy Information and Engineering Volume 2 (Vol. 62, págs. 1537-1547). SPRINGER-VERLAG. 146 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 132 - 146 [7] KALLINA, C., & LYNN, J. (1976). Application of the Cube-per-order index rule for stock location in a distribution warehouse. Interfaces , 7 (1), 37-46. [8] PETERSEN, C. (1997). An evaluation of order picking routing policies. International Journal of Operations & Production Management , 17 (11), 1098-1111. [9] HALL, R. (1993). Distance approximations for routing manual pickers in a warehouse. IEEE Transactions , 25 (4), 76-87. [10] ROODBERGEN, K., & VIS, I. (2006). A model for warehouse layout. IEEE Transactions , 38 (10), 799-811. [11] CARON, F., MARCHET, G., & PEREGO, A. (2000). Optimal layout in low-level picker-to-part systems. International Journal of Production Research , 38 (1), 101 – 117. [12] LE-DUC, T., & DE KOSTER, R. (2005). Layout Optimization for class-based storage strategy warehouses. En R. DE KOSTER, & W. DELFMANN, Supply chain management: European perspectives (págs. 198-222). Copenhagen: Copenhagen Business School Press. Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC Miguel Ángel Trigos Martínez PhD (c) en Automática y Robótica Centro de Automática y Robótica Universidad Politécnica de Madrid - España Docente Tiempo Completo, Investigador Grupo de Aplicaciones Mecatrónicas, Universidad Santo Tomás, Bucaramanga, Colombia [email protected] Jair Leandro Landínez Salazar Ingeniero Mecatrónico Universidad Santo Tomás Bucaramanga, Colombia [email protected] Resumen— En las últimas décadas los grupos de investigación, han utilizado las herramientas de simulación para validar sus desarrollos, antes de hacer pruebas reales, los resultados son bastante aceptables y dan o no autorización para continuar en un proyecto. herramientas de software para simulación existen muchas, pero se busca utilizar LabVIEW y DSC debido a que su ambiente de programación es amigable y muy utilizado en la automática. El trabajo mostrado a continuación, consiste en el desarrollo de una aplicación enfocada hacia el Diagnóstico y Detección de Fallos, mediante la implementación de un algoritmo sistemático, construido con la herramienta de modelado conocida como “Redes de Petri (RdP)”, donde el objetivo principal es realizar un aporte en el ámbito de la seguridad industrial, para evitar pérdidas económicas, evaluadas en daños a los equipos y, lo más importante, preservar la integridad física de los operarios humanos. El contenido muestra e ilustra la simulación de un Proceso de Envasado de Líquidos y la implementación de su Diagnosticador mediante las RdP, con la finalidad de evaluar el comportamiento normal y de fallo ofrecido por el proceso. Se diseña una plataforma e interface de comunicación hombre máquina, en la cual se lleva a cabo la monitorización, control y supervisión On-line del sistema planteado. fault behavior offered by the process. Designing a communication platform and man machine interface, which is carried out monitoring, control and supervising system of way on-line. Palabras clave— Redes de Petri, Sistema híbrido, Simulación, Diagnóstico de Fallos, Diagnosticador, LabVIEW, Máquinas de Estado, Diagramas de Bloques. Abstract— In recent decades, research groups, have been using simulation tools to validate their development, before actual testing, the results are quite acceptable and give permission or not to continue a project. Simulation software tools there are many, but we are using LabVIEW and DSC (National Instruments) because its programming environment is friendly and widely used in the automatic. The work shown below, is the development of an application focused on the fault diagnosis, by implementing a systematic algorithm, builted using the modeling tool known as “Petri Nets (MOP)”, which the main target is to make a contribution in the field of industrial safety, avoiding economic losses, estimated in damage to equipment and most important to preserve the physical integrity of human operators. The content illustrates the simulation in LabVIEW of a liquid packaging process and the implementation of their diagnoser using Petri Nets, in order to evaluate the normal and Keywords— Petri Nets,hybrid System, Simulation, Fault diagnosis, Diagnoser,LabVIEW, State Machine, Bloque Diagrams I. INTRODUCCIÓN La creación y desarrollo de herramientas de software y plataformas de simulación, han mostrado uno de los grandes avances de la era tecnológica, en donde los conocimientos, planteamientos teóricos y modelos matemáticos, antes de ser llevados al campo real, pueden ser simulados y sometidos a diferentes pruebas para comprobar y definir su alcance, parámetros de fiabilidad, estabilidad y respuesta ante diferentes elementos, que pueden percibirse en un ambiente físico. De esta forma, se crea una predicción de cómo un proceso puede comportarse en condiciones normales o de exigencia, antes de implementarse. Las fábricas y los grupos de investigación, realizan grandes esfuerzos en hacer que los procesos sean, cada vez, más seguros y confiables, donde la seguridad esté enmarcada entre la parte económica y la seguridad de los operarios. En lo económico es importante reducir los costos por paradas de mantenimiento y las pérdidas que acarrean el incumplimiento en los plazos de entrega, y la seguridad de los operarios. La simulación aquí expuesta, sirve para validar el algoritmo de diagnóstico de fallos de sistemas híbridos, publicado en [4] [5]. Como herramienta de modelado en la investigación se usan las Redes de Petri (RdP), de las cuales en la actualidad, no se encuentran desarrollos implementados en LabVIEW. Recibido: 07/08/2011/ Aceptado: 12/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155 148 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155 Como herramienta se emplea el software LabVIEW y Datalogging and Supervisory Control (DSC) de National Instruments, en LabVIEW se emula el modelo de una planta de envasado de líquidos. El DSC es utilizado como herramienta de supervisión On-line. Todo es representado en el ambiente gráfico de LabVIEW, el modelo de RdP observa la evolución del proceso en condiciones de operación normal y también, la respuesta del diagnosticador de fallos, ante la presencia de transiciones de fallo, que provoca la generación de alarmas. La aplicación cumple las funciones de un sistema SCADA, es una interfaz hombre máquina, la cual permite al operario interactuar y mantenerse informado de los sucesos ocurridos en el proceso. En la parte inicial del artículo, sección 2, se dan a conocer los conceptos fundamentales de las RdP Híbridas, el algoritmo de diagnóstico de fallos y LabVIEW y DSC, los cuales son necesarias en el entendimiento del algoritmo de diagnóstico de fallos. En la sección 3, se describe de forma general el proceso de envasado de líquidos y en la sección 4, se presenta la herramienta de simulación y supervisión, LabVIEW y DSC respectivamente, observándose el modelo de RdP del proceso y el diagnosticador. En la sección 5, se enuncia la conclusión del trabajo realizado, se exalta su gran aporte en la utilización del LabVIEW como una excelente alternativa de representación de las Redes de Petri. II. CONCEPTOS BÁSICOS A. Redes de Petri. Los conceptos de Redes de Petri Híbridas (RdPH) presentados aquí, están basado en los conceptos definidos [1]. Para profundizar los conceptos de RdP consultar [1] y [2] y [3]. B. Diagnóstico de Fallos de Sistemas Híbridos. En el trabajo previo de [5], se inicia el diagnóstico de fallos de SED’s, posteriormente, se usa para el diagnóstico de fallos Intermitentes y se pasa a su implementación en Sistemas Híbridos. A continuación se presenta, el resumen del proceso de construcción del modelo y diagnosticador, el cual puede ser conocido en detalle en [4]. C. Algoritmo de Construcción del Modelo y Diagnosticador El sistema general está compuesto de varios subsistemas, distribuidos según la naturaleza de las señales que lo integran, sean discretas, continuas o híbridas. a- Clasificación del sistema general H en subsistemas. H=H1 υ H2 υ... υHn , n es el número de subsistemas que componen el sistema. b- Realizar el modelo de RdP de cada uno de los elementos que componen los diferentes subsistemas.Qi= (Pi,Ti,I,O,M0). c- Realizar la operación de integración; Representar en un modelo de RdP el comportamiento del SED’s, d- Llevar a cabo el refinamiento del modelo de cada uno de los subsistemas. Qi= (Pi,Ti,I,O,). El refinamiento se realiza basado en la construcción de la tabla de integración de M sensores del sistema, . d- Construcción del diagnosticador. Es una RdP Diagnosticadora,Gd=(Pd ,Td ,I,O,p0 ,t0 ,tend )Para la construcción del diagnosticador se definen las siguientes funciones: Función de Asignación de Nivel LA: P0 x ∆ x T * →∆,P∈P0, l∈∆, y s∈ℓ (Q,p). LA Asigna el nivel l sobre s comenzando sobre p y siguiendo la dinámica de Q siguiendo a (1): (1) Función de Expansión de Fallo. EF:RNxFi→RF , donde RN es rama de comportamiento normal, y para cada fallo Fi, EF asigna una rama de fallo respectiva. El diagnosticador Gbtendrá tantas ramas como fallos más uno, ver (2). (2) representa el número total de ramas del diagnosticador. y son las ramas de comportamiento normal y de fallo respectivamente. Diagnosticabilidad. Una RdP es diagnosticable en relación de la distribución de fallos si se cumple Equ.3: Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez Donde : (3) σ es la secuencia de transiciones observables, por lo tanto la RdP que representa el modelo del sistema, es diagnosticable si en un numero finito de transiciones observables ésta alcanza un marcado de fallo M(pi ). Solo el M(pfi ) o con otra marca de fallo M(pfk ) se puede identificar un fallo de mayor orden o un fallo critico. Para profundizar en el algoritmo de diagnóstico de fallos, se puede consultar [5]. LabVIEW y DSC LabVIEW es un lenguaje de programación gráfico “lenguaje G”, tiene diversas aplicaciones en la academia y la industria, sin conocer previamente el uso de LabVIEW con las RdP. Si se busca profundizar los conceptos en LabVIEW, consultar [9]. Datalogging and Supervisory Control (DSC): Ofrece herramientas y características para el desarrollo de sistemas distribuidos de monitoreo y control. Este módulo permite la construcción de aplicaciones de registro de datos y creación de alarmas. Facilita la creación de las interfaces hombre-máquina y acciones supervisoras o de control, sistemas SCADA y visión de tendencias en tiempo real e históricos de datos además de opciones de seguridad para las aplicaciones. Para mejorar los conceptos en DSC ver [10]. III. SIMULACIÓN DEL PROCESO DE ENVASADO DE LÍQUIDOS EN LABVIEW A continuación se describe el Proceso de Envasado de Líquidos y la dinámica que define su comportamiento. Posteriormente se detalla la técnica de programación utilizada para el desarrollo de la herramienta de simulación y el diagnosticador con RdP, construidos en LabVIEW. Basado en el enfoque de [4], el sistema híbrido es separado en las dinámica continua y discreta, con esto se puede interpretar mejor el funcionamiento del proceso. Dinámica Continua Está compuesta de tres variables fundamentales del sistema global, las cuales están divididas en subsistemas: El Subsistema de Control de temperatura, Subsistema de Control de pH y Subsistema 149 de Control de Nivel. La parte continua del proceso cuenta con un tanque, alimentado por dos líquidos (A) y (B) respectivamente, el llenado del tanque corresponde a establecer un nivel de mezcla indicado y conseguir las características de pH deseables, dicha mezcla es calentada por un sistema de inyección de vapor, hasta lograr las condiciones de temperatura apropiadas del liquido a envasar. Para las acciones de control, se cuenta con dos válvulas alimentadoras de líquido y una válvula de inyección de vapor. Para medir las variables se utiliza un sensor de temperatura, un sensor de nivel y un sensor de pH. Cada variable es controlada de manera independiente por su respectivo controlador. Dinámica Discreta Consta de los siguientes componentes: Banda transportadora, la cual es movida por un motor M, válvula de llenado de líquido Vll, sensor de llagada de botella para envasado BP, Sensor de llenado de botellas LL y controlador C. En el funcionamiento del sistema, asumimos que el líquido del tanque está en óptimas condiciones y que siempre existen botellas en la parte inicial de la banda transportadora. En el inicio del sistema de envasado el motor de la banda hace que las botellas se desplacen hasta el lugar de envasado, el sensor BP detecta la botella y por consiguiente el motor de la banda se detiene. La válvula Vll de llenado se abre, cuando la botella está llena el sensor de llenado LL informa este suceso y se cierra la válvula de llenado Vll, una vez esta secuencia de funcionamiento normal se haya cumplido, se puede retirar la botella para que sea almacenada, como se puede observar se trata de un proceso secuencial y repetitivo que actúa indefinidamente. En la Fig. 1 se ilustra un esquema general que comprende el sistema de envasado. FIG. 1. SISTEMA DE ENVASADO DE LÍQUIDOS Fuente: Autor del proyecto 150 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155 La construcción de la plataforma, se aborda de tal forma que se pueda observar a manera general cuáles fueron los pasos y metodología propuesta para la implementación de las RdP en el entorno LabVIEW. La Fig. 2, ilustra el diagrama secuencial que sigue la estructura de programación concentrándose en la interfaz que contiene el Diagnosticador. FIG. 2. DIAGRAMA SECUENCIAL Y ESTRUCTURA DE PROGRAMACIÓN Fuente: Autor del proyecto IV. SIMULACIÓN LABVIEW La plataforma cuenta con un panel principal, que permite al usuario tener acceso a la aplicación. La simulación se lleva a cabo de manera cíclica, en donde el proceso de envasado transcurre de manera automática y el operario sólo puede intervenir cuando desee simular el conjunto de fallos, para evaluar el desempeño del Diagnosticador; la plataforma “Liquid Packaging Process Sim.VI” es la estructura principal, de la cual se desprenden las demás ventanas (interfaces) de simulación, ver Fig. 3. Previo a la metodología implementada, se muestra un panorama global de la relación entre los VI’s elaborados, si se observa el árbol de jerarquía se aprecia la comunicación de cada subVI y el flujo de datos, entre las diferentes interfaces que permite su interacción, ver Fig. 4. Con el objetivo de dar un enfoque hacia la implementación de la RdP en LabVIEW, se considerará sólo la ventana de programación (diagrama de bloques). Esta interfaz de usuario recibe el nombre de Auto_DPN.VI, en ella se observa y analiza el comportamiento normal y de fallo del sistema, mediante el monitoreo de las señales de campo (continuas/discretas), que representan a cada elemento que interviene en el proceso. El diagnosticador realiza la supervisión on-line de los estados de cada uno de los subsistemas de la planta. Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez FIG. 3. PLATAFORMA DE SIMULACIÓN 151 y bajos), para monitorear las lecturas de los sensores, luego se crean las señales de control sobre los actuadores del sistema, que definen las condiciones de operación. En una secuencia “Stacked Sequence” se realiza en su estado “0” la creación e inicialización de las variables, que el sistema controla y manipula en la simulación, en el estado “1”, el cual con- Fuente: Autor del proyecto FIG. 4. ÁRBOL DE JERARQUÍA Fuente: Autor del proyecto Descripción General. Para la construcción del panel principal Auto_DPN.VI, se debe emular las señales de campo que representan el comportamiento del proceso, para ello se emplea una estructura de programación enfocada hacia la creación, registro y generación de eventos, mediante una máquina de estados principal, dos secundarias para el control de eventos y la manipulación de alarmas del sistema. Para esta tarea se emplean los “User Events” , esto permite ejecutar eventos en paralelo, pero da prioridad única a un evento en particular. Para controlar la comunicación y flujo de datos en las máquinas de estado, se usa un semáforo dentro del bucle principal. , Este semáforo recibe el nombre de “Busy” representando un retardo en milisegundos en el evento anterior. Una vez el evento principal se ejecuta el siguiente evento es disparado, tomando el lugar de evento principal. Este comportamiento emula el funcionamiento de una RdP, que realiza la activación y/o disparo de eventos, que ocurre cuando ciertas condiciones son ciertas. Los pasos a seguir son: Creación e Inicialización de Variables y Máquinas de Estado En primer lugar se platean las señales de campo de cada subsistema (representado como altos tiene una estructura “While” , se desarrolla la máquina de estados principal y secuencial cuya programación es basada en condicionales “Case , comparadores, compuertas lógiStructures” cas y la intervención del semáforo “Busy”. Aquí se generan y disparan los eventos. Adicionalmente a la máquina de estados principal, se implementan dos máquinas de estados adicionales para registro y librería de eventos. Una ejecuta acciones de control y la otra es dedicada a identificar las señales de alarma, presentes en el sistema de comunicación con el DSC. La máquina de estados principal y la auxiliar interactúan continuamente e intercambian información, según el flujo de datos demarcado por el semáforo, que provoca la evolución del algoritmo. Eventos del Sistema Normal y de Fallo En la programación se definen dos subconjuntos para la creación de eventos de usuario , destinados a condicio“Create User Event” nes normales y a condiciones de simulación de fallos, para validar el algoritmo de diagnóstico en los subsistemas continuos y discreto. Para que un evento se cumpla, debe ser creado y registrado en un módulo dinámico “Register for Events” ,y adicionalmente cumplir con las condicionales establecidos para su generación en “Generate User Events” . Los eventos son ejecutados en la segunda máquina de estados, elaborada mediante , donde se determina la una “Event Structure” acción que se debe tomar en la simulación. En la Fig. 5, se observa la distribución de la creación de eventos de usuario, se tiene un conjunto de diez eventos para la construcción de la simulación del proceso con su comportamiento normal, atendiendo a cada uno de los subsistemas donde se controla el incremento y decremento de los valores de Temperatura, Ph, Nivel y los efectos para la acción de la banda transportadora, la 152 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155 detección de botellas y el llenado de las mismas; este grupo de eventos fue denominado como “Liquid Packaging Process Simulation Model” (Índice 1 de la Fig. 5). Para la simulación de uno de los fallos en el mismo, se construyen dos grupos de eventos, cada uno representa un tipo de dinámica en particular. Se tiene un conjunto de cuatro eventos denominado “Fault Simulation for Discrete System” (Índice 2 de la Fig. 5), quien determina los eventos de fallo para el subsistema discreto y un conjunto para la ejecución de fallos para los subsistemas continuos, representador por: “Fault Simulation for the Tank Level Sub-System”, “Fault Simulation for Ph Sub-System” y “Fault Simulation for Temperature Sub-System” con seis eventos de fallo. (Índice 3 de la Fig. 5). FIG. 5. CREACIÓN Y REGISTRO DE EVENTOS Fuente: Autor del proyecto C. Diagnosticador y Comunicación con el Módulo DSC En el diagnóstico On-line, el Auto_DPN.VI interactúa con diferentes SubVI’s creados en DSC de LabVIEW, estos representan de manera gráfica el modelo de la RdPD de cada subsistema que se desea analizar; los subVI’s creados son: Subsistemas continuos PN_TempSystem.VI , PN_PhSystem.VI , PN_LevelSystem.VI DPN_Conveyor.VI y para la dinámica discreta , y . Los SubVI’s efectúan comuDPN_Lovalve.VI nicación constante con las máquinas de estado, para realizar la tarea de: actualizar los valores en la red, identificar las transiciones disparadas, lugares actuales de la simulación de la RdP Diagnosticadora y activar en la red las ramas de fallo del diagnosticador, en el caso donde el operario efectué la inducción de un fallo al sistema, por medio del disparo de las transiciones de fallo y el alcance de lugares de fallo. Toda esta labor interactiva muestra instantáneamente las inciden- Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez cias ocurridas en el proceso mediante alarmas que indican la detección y aislamiento del fallo. En la aplicación se observa el funcionamiento y evolución del diagnosticador, interactuando con los subsistemas que lo componen, y al mismo tiempo es posible lanzar de manera individual cada red, para una visualización específica de cada sistema. Los siguientes fallos son evaluados en el diagnosticador: En el subsistema discreto: La rama de fallo de atascamiento en abierto o atascamiento en cerrado de la válvula de salida de liquido, {F1 - [AA],[AC]}, la rama de fallo de encendido o apagado del motor de la banda transportadora, {F2 [MOn],[MOff]}. En el subsistema continuo: Rama de fallo de encendido y apagado de la caldera para el control de Temperatura, {F3 - [FC-Off],[FCOn]}, rama de fallo de atascamiento en abierto o en cerrado de la válvula de suministro de líquido (B) para el control de Ph {F4 - [AA],[AC]}, y rama de fallo de atascamiento en abierto o cerrado de la válvula del paso del líquido (A) y el control de nivel en el tanque F5 - [AA],[AC]} D. Diagnosticador y Comunicación con el Módulo DSC Para dar una mejor ilustración de la metodología, se presenta la creación de un evento del conjunto de “User Events”. El evento “Min Level from Tank” es el evento encargado de realizar el llenado del tanque principal con el líquido (A), a través de abrir la válvula de nivel, hasta alcanzar el set-point (90Lts). La acción es programada mediante un nodo de sumatoria del valor de nivel, el cual se actualiza en cada instante y está sometido a ciertos condicionales, que mediante una combinación de compuertas lógicas, cambia de estado “true” a “false” de la estructura, que genera un evento, ver Fig. 6. Cuando el evento es disparado y el semáforo “Busy” controla el tráfico en ejecución, el flujo de programación pasa a la segunda máquina de estados, donde la acción del evento es ejecutada y desarrolla “Event Structure”, así mismo, recurre al bloque de registro y verifica qué evento del registro es ejecutado, de esta forma se ejecuta y da lugar a la secuencia programada que corresponde al llenado del tanque. (Comportamiento normal del subsistema de nivel). 153 FIG. 6. MIN LEVEL FROM TANK (USER EVENT) Fuente: Autor del proyecto Al continuar con el ejemplo, se presenta la creación y ejecución de uno de los eventos de fallo, que se evalúan en el subsistema de nivel “Fault [AC], Valve A/ Filling Tank”], el fallo representa el atascamiento en cerrado de la válvula del líquido (A), que controla el nivel tanque. Los rangos de nivel máximo y mínimo del tanque son: 90L y 20L. El evento de fallo de atascamiento en cerrado, ocurre cuando el nivel de líquido se encuentra por debajo de 20L y la acción de control para la activación de la válvula no se ejecuta; el evento es también relacionado con el llenado de las botellas, esto se debe a que el nivel del tanque decrece hasta su valor mínimo, a medida que el tanque se vacía con el llenar de las botellas. La acción es realizada en el nodo de decremento que disminuye el valor del nivel por debajo del valor mínimo permisible y genera el fallo. Cuando el fallo ocurre, la secuencia registrada en la máquina de estados auxiliar, dispara la transición de fallo del diagnosticador, ver Fig. 7. FIG. 7. FAULT [AC], VALVE A/ FILLING TANK Fuente: Autor del proyecto 154 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 147 - 155 Cuando el evento de fallo alcanza el estado “enable”, la interfaz comunica con el correspondiente VI creado en el módulo DSC, la red evoluciona y entra en la tercera máquina de control de alarmas, ver Fig. 8, que identifica en un “Clúster” el síntoma producido y después de una conversión en “Array” envía un mensaje de advertencia en pantalla. El cuadro de alarmas para eventos de fallo en el Subsistema de nivel para la rama F5, se presenta junto con la RdPD del subsistema, ver Fig. 9. FIG. 8. MÁQUINA DE ALARMAS Fuente: Autor del proyecto FIG. 9. RDPD SUBSISTEMA DE NIVEL (ESTADO DE FALLO) Fuente: Autor del proyecto V. CONCLUSIÓN En este trabajo se ha abordado el tema de simulación de Redes de Petri mediante LabVIEW. Se presenta el proceso de simulación de un modelo y diagnosticador, aplicado a un proceso de envasado de líquidos. Se puede visualizar en el ambiente gráfico, el comportamiento normal y de fallo del proceso. Esta aplicación en LabVIEW es un resultado Sistema de Envasado de Líquidos Modelado con Redes de Petri y Simulado con LabVIEW y DSC - Trigos, Landínez innovador, debido a que se puede construir las Redes de Petri, mediante una estructura programática que emula las señales de campo del proceso y la utilización de disparo de eventos en LabVIEW, Este proceso es metodológico y paso a paso, se indica como interactuar simulación con una herramienta tipo SCADA, que da lugar a un nuevo uso de las plataformas en automatización con LabVIEW. El buen abordaje de la herramienta en LabVIEW, sirvió para desarrollar la aplicación mostrada en [6]. REFERENCIAS [1] R. David and H. Alla, “Discrete, Continuous and Hybrid Petri Nets” . Springer, Verlaj Berlin Hidelberg.. 2005. [2] T. Murata, J. Yim, H. Yin and O. Wolfson, “PetriNet Model and Minimum Cycle Time for Updating Moving Objects Database,” International Journal of Computer Systems Science & Engineering, Vol.21, No.3, pp.211 - 217, May 2006 [3] Silva M., “Unforced continuous Petri Nets and positive systems” IEEE Control Syst Soc”ANIPLA, Springer-Verlag Berlin - 2003. [4] Trigos M., Barrientos, A., Del Cerro, J. and López, H., “Modelling and Fault Diagnosis by means of Petri Nets. Unmanned Aerial Vehicle Application”, Book Petri Nets, Theory and Applications, pp 353-378 Editorial IN-TECH Austria. Disponible en “http://www.sciyo.com/books/show/title/ petri-nets-applications”, 2009. [5] Trigos M., García, E., “Faults Diagnosis and Modeling of the Liquid Packaging Process. A Research Based on Petri Nets” Proceeding from the 10th International Conference of Robotics & Automation IEEE, Hanoi – Vietnam, 2008. [6] Trigos, M., García, E., Modelado y Diagnóstico de Fallos por Medio de Redes de Petri de un Sistema de Envasado de Líquidos, Congreso Latinoamericano de Control Automático 2008 – Mérida Venezuela. 2008 [7] Trigos, M., Garcia, E., “Petri Nets Used for Intermittent Faults Diagnosis and Modeling of Discrete Event Systems”, SAFEPROCESS 09, Barcelona - Spain [8] Trigos, M., Méndez, D., García, J., Barrientos, A., Del Cerro, J., “Diseño e Implementación de la Instrumentación para la Lectura de Variables Críticas en Aeronaves no Tripuladas (UAS)”, Congre- 155 so Latinoamericano de Control Automático ACCA 2010, Santiago – Chile. [9] National Instruments, ‘User manual LabVIEW 9.0’, Austin- Texas. USA, Disponible en: http://digital.ni.com/ worldwide/latam.nsf/ main?readform. [10] National Instruments, ‘User manual DSC 9.0’, Austin- Texas. USA, Disponible en: http://digital. ni.com/ worldwide/latam.nsf/main?readform Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos César hernando Valencia Niño D.Sc.(c) da Engenharia Elétrica Pontifícia Universidade Católica do Rio de Janeiro Investigador Grupo GRAM Universidad Santo Tomás USTA Bucaramanga, Colombia [email protected] Silvia Nathalia Cáceres Quijano M.Sc.(c) da Engenharia de Produção Universidade Federal do Rio de Janeiro Pesquisadora Programa de Engenharia de Produção Instituto Alberto Luiz Coimbra - COPPE Rio de Janeiro, Brasil [email protected] Resumen— Este artículo presenta el diseño de un Algoritmo Genético (AG) que permita optimizar la gestión de inventarios en las cadenas de suministros y minimizar el Efecto Bullwhip, para esto, fueron considerados los costos de depósito, distribución y fabricación del producto además del costo individual de los elementos que serán pedidos. La cadena utilizada en la simulación contiene 5 niveles:cliente, minorista, depósito, distribuidor y fábrica, así las cantidades para cada par fueron consideradas para ser evaluadas por el AG en el mejor cromosoma. Adicionalmente, fue utilizado el modelo de coeficientes BMN para generar la función de evaluación de los cromosomas escogidos por el AG y así satisfacer las restricciones consideradas en el modelo. tarios o desabastecimiento (BullwhipEffect).De esta forma, diferentes organizaciones compiten hoy para mejorar tiempos, administrar eficientemente cantidades y desarrollar soluciones mediantediversos modelos con resultados que reducen entre otros el BullwhipEffect; en este artículo el modelo seleccionado para ser aplicado mezcla dos propiedades, los coeficientes BMN utilizados en los sistemas de generación de potencia y la posibilidad de incluir respuestas que sean resultado de procesos evolutivos. De este modo, el algoritmo de selección de la mejor respuesta está inspirado en el principio de la evolución de las especies, o programación conocida como Algoritmos Genéticos, que permite evaluar un extenso espacio de búsqueda y encontrar respuestas viables uóptimas segúnel tipo de restricciones que sean utilizadas; en la literatura fueron encontrados modelos desarrollados conla misma inspiración [1] y con resultados evaluados por los autores como satisfactorios. No obstante, la mezcla con coeficientes BMN para ser adaptados en cantidades de inventarios no presento ningún resultado. En la segunda parte será presentada la formulación del problema, en la tercera parte el modelo del algoritmo genético, en la cuarta parte los experimentos realizados y,finalmente,los resultados obtenidos. Palabras clave— Algoritmos Genéticos, Efecto Bullwhip, Optimización de Inventarios y Coeficientes Bmn. Abstract— This paper presents the design of a genetic algorithm (GA) that optimizes inventory management in supply chains. They were considered warehousing, distribution, and manufacturing product costs, plus the cost of individual items to be ordered. The string used in the simulation contains 5 levels, being: customer, retail, warehouse, distributor and factory. The amounts of each pair were considered to be evaluated by the GA in the best chromosome. Additionally the BMN coefficients model was used to generate the evaluation function of chromosomes selected by the GA and satisfies the constraints considered in the model. Keywords— Genetic Algorithms, Bullwhip Effect, Supply Chain Optimization and BMN Coefficients. I. INTRODUCCIÓN En búsqueda de la maximización del lucro en las empresas y la minimización del tiempo necesario para realizar los procesos en las cadenas de suministros, la gestión de inventarios es determinante;así, las cantidades de elementos que serán pedidas dependen de los tiempos y los cambios en los estándares de consumo de los clientes para generar fluctuaciones que consiguen producir distorsiones como exceso de inven- II. FORMULACIÓN DEL PROBLEMA El efecto látigo (también conocido como Bullwhip Effect o Efecto Forrester). Es un fenómeno importante en el estudio de las cadenas de distribución porque tiene consecuencias sobre la eficiencia del flujo de materiales en las cadenas de suministros. En [2] se marca el inicio del con- Recibido: 02/08/2011/ Aceptado: 31/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162 Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos - Valencia, Cáceres cepto de compartir informaciones en la gestión de la cadena de suministros. Las informaciones así como los pedidos, se propagan con mayor volatilidad cuando se asciende en el nivel de la cadena de distribución (y/o suministros). En [3] llamaron este fenómeno de efecto “Bullwhip” o Efecto látigo. Según [4], el Efecto látigo es el producto de la falta de coordinación en el desempeño en la cadena de suministros y una inadecuada gestión de inventarios, que ocurre cuando en cada nivel de la cadena optimiza apenas su propio objetivo sin considerar su impacto en la cadena entera. La reducción del efecto látigo puede ser clasificada en 3 tipos de iniciativas: • Alterar el proceso físico de producción, almacenamiento y transporte de los materiales. • Compartir informaciones para el planeamiento en cada etapa de la cadena logística. • Control de los efectos de las políticas comerciales para que no conlleven el flujo de la cadena al efecto látigo. Tabla I. Estrategiasde reducción do Efecto Látigo [5 Mejora del proceso logístico Compartir Informaciones Reducción del efecto de políticas comerciales Forrester (1958) Lee et al. (1997) Simchi-Levi et al. (2000) Agilización del tratamiento de los pedidos Formación de lotes de compra y de producción Reducción del tiempo de reabastecimiento Mejora en la calidad de los datos Formaciónde Procesaacuerdos estratégicos. miento de las variaciones en la Reducción de la incertidemanda dumbre Ajuste de los inventarios Variaciones de precio Racionamiento Reducción de la variabilidad Según la Tabla 1, como una posible alternativa será utilizado el enfoque de Lee, formar lotes de compra y de producción y procesar las variaciones en la demanda. En la propuesta de este artículo se busca desarrollar los siguientes objetivos: • Generar un Modelo de Optimización de Inventarios para organizar los pedidos consi- • • 157 derados los tiempos y las variaciones en la demanda. Utilizar un Algoritmo Genético para encontrar la mejor configuración de respuesta. Realizar pruebas del modelo con demanda fija y variable. III. MODELO MEDIANTE AG Para ser realizado el modelado del problema se estableció como objetivo disminuir el costo total de los inventarios a ser pedidos, para evitar tener costos altos por exceso de inventarios o desabastecimiento, para ello fueron utilizadas las ecuaciones de [6]. A. Costos considerados en el modelo En la Tabla II, son presentados los costos y cantidades que serán considerados para obtener el mínimo costo posible, donde el índice i representa el nivel de origen y j el nivel de destino. Tabla II Costos y Cantidades. Adaptado de [6] Costos y Cantidades Símbolo • Costo de depósito de la mercancía Cantidad de elementos. Costo individual de cada unidad CEM i(t) QEEi(t) CIEi(t) • Costo de unidades anteriores Cantidad de órdenes anteriores Costo de la orden de unidad anterior CUAi(t) QOAi(t) COAi(t) • Costo de elementos a ser pedidos Cantidad de elementos Costo individual de cada unidad CEPi(t) QEP ij(t) CIP i(t) • Costo de distribución Costo de envío de i para j Costo por unidad Cantidad de unidades distribuidas de i para j Capacidad de carga Costo por la distribución de la carga de i para j CDi(t) CEij(t) CUDi(t) QUD ij(t) • Costo de fabricación Cantidad de demanda de i para j Costo de producción por unidad. CC i(t) CPDij(t) CF i(t) QDij(t) CPU i(t) En la Figura 1 es presentada la configuración con los 5 niveles utilizada en el modelado, también son presentados los 4 costos que generan el costo total que se ha de minimizar. FIG. 1. 5 nivElEs dEl modElo utilizado. En la Ecuación 1 es presentado el costo de depósito de la mercancía. 158 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162 CEMi(t) = OEEi(t)*CIEi(t) (1) En la Ecuación 2 es presentado el costo de las órdenes anteriores. CUAi(t) = QOAi(t)*COAi(t) (2) En la ecuación 3 es presentado el costo de los elementos que van a ser pedidos. CEPi(t) = QEPi(t)*CIPi(t) (3) CDi(t) = [(CEij(t)+CUDi(t))*QUDij(t)] +[(QUDi(t)/CCi(t))*CPDi(t)] (4) En la ecuación 4 es presentado el costo de distribución para etapa de la cadena. En la ecuación 5 es presentado el costo de fabricación. CFi(t) = QDij(t)*CPUi(t) (10) (5) En las ecuaciones 6, 7, 8 y 9 son presentados los costos individuales de cada punto de la cadena siendo ellos minorista, depósito, distribuidor y fábrica respectivamente. C1(t) = CEM1(t)+CUA1(t)+CEP1(t) (6) C2(t) = CEM2(t)+CUA2(t)+CEP2(t)+CD2(t) (7) C3(t) = CEM3(t)+CUA3(t)+CEP3(t)+CD3(t) (8) La matriz de la ecuación 11 representa el conjunto de coeficiente BMN, que en las columnas y filas tiene las mismas variables que generan una diagonal de ceros, en los otros valores son incluidos los coeficientes de pérdidas entre cada par de niveles del modelo, dichos coeficientes son obtenidos del histórico del comportamiento del sistema, en tiempo anteriores a la utilización de este modelo. C. Diseño del algoritmo genético Los algoritmos genéticos son una técnica de búsqueda local que también es utilizada en optimización, con inspiración en el principio de la evolución de las especies y la supervivencia del más apto, para este trabajo fue ejecutado el diagrama de flujo de la Figura 2, considerados operadores genéticos como cruzamiento y mutación. FIG. 2. diagrama dE flujo utilizado C4(t) = CEM4(t)+CUA4(t)+CEP4(t)+ (9) CD4(t)+CF4(t) B. Coeficientes Bmn Los coeficientes [7] BMN inicialmente utilizados para relacionar pérdidas con penalidades dentro de los modelos matemáticos de sistemas de transmisión de energía[8,9], son empleados en este trabajo para proporcionar una herramienta que permita obtener las “pérdidas” del sistema en la función de salida del modelo. Estos son un conjunto de coeficientes, en forma matricial, cada línea y columna de la matriz corresponde a un punto de origen-destino así todas las etapas de la cadena son agrupadas. La representación utilizada genera un cromosoma con las siguientes características: Tabla III Representación utilizada QEEi(t) QEPij(t) QUDij(t) QDij(t) Donde el primer Gen del cromosoma está compuesto por la cantidad de elementos en el depósi- Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos - Valencia, Cáceres to, el segundo Gen tendrá 3 elementos que son la cantidad de elementos a ser pedidos de una etapa para otra, el tercer Gen contendrá 3 elementos que son las cantidades distribuidas de una etapa para otra y finalmente el cuarto Gen tendrá la cantidad de elementos a ser fabricados. En la decodificación para obtener la solución real, fue implementada una función en Matlab® que considera los coeficientes utilizados y la mejor respuesta encontrada por el algoritmo genético [11, 12]. Como función de evaluación fue utilizada la ecuación 11, que genera el costo total C(t) en un tiempo t. C(t) = C1(t) + C2(t) + C3(t)+ C4(t) (11) El proceso de selección que es determinante en el algoritmo genético fue realizado mediante la ruleta, donde las porciones son proporcionales a la aptitud de los cromosomas según como es presentado en la Figura 3. FIG. 3. rulEta dE sElEcción dE la población inicial 159 IV. ExPERIMENTOS REALIZADOS Los experimentos realizados pretenden obtener la mejor configuración del AG para alcanzar la mejor respuesta con el menor esfuerzo computacional, se estableció una configuración básica que consiguió cumplir el objetivo y sobre esta fueron realizados los cambios para determinar la influencia de cada parámetro, las configuraciones fueron las indicadas en la Tabla IV. Tabla IV Configuraciones utilizadas Parámetros C1 C2 C3 C4 C5 Tamaño de la población 10 50 50 50 50 Tipo de cruzamiento SP SP SP TP H Tasa de cruzamiento 0.8 0.8 0.4 0.8 0.8 Tipo de mutación U U U U U Tasa de mutación 0,05 0.05 0.05 0.05 0.2 Número de generaciones 100 40 100 60 60 Total de individuos 1x103 2x103 5x103 3x103 3x103 Donde SP significa fue que utilizado cruzamiento de un solo punto, TP de dos puntos y h que fue utilizado cruzamiento Heurístico, U significa que el tipo de mutación fue uniforme. V. RESULTADOS OBTENIDOS Como operadores genéticos fueron utilizados los dos principales, cruzamiento que fue realizado en diferentes tasas y tipos y la mutación también fue realizada en diferentes tasas y de tipo uniforme. La inicialización de la población fue aleatoria para mantener la diversidad de cromosomas en el universo de respuestas [13], para dicha inicialización no se utilizó ningún tipo de semilla que seleccionara una región búsqueda especial. Los parámetros y criterios de parada, cambiaron para los diferentes experimentos realizados [14, 15], en los resultados obtenidos son presentados los diversos valores y tipos de configuración utilizados. Para la evaluación del algoritmo propuesto fueron seleccionados valores para la demanda fija y demanda variable basados en los históricos de 100 semanas atrás, la Figura 4 presenta el comportamiento de los valores escogidos. FIG. 4. rulEta dE sElEcción dE la población inicial 160 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162 A. Tasa de demanda fija FIG. 9. RESULTADO CONFIGURACIÓN 5 – TASA FIJA A continuación son presentados los resultados para las 5 configuraciones establecidas para una demanda fija, en ellas está incluido el comportamiento de las respuestas en las generaciones y la media de dichas respuestas. FIG. 5. RESULTADO CONFIGURACIÓN 1 – TASA FIJA Tabla V Resultados de costos para Tasa Fija FIG. 6. RESULTADO CONFIGURACIÓN 2 – TASA FIJA FIG. 7. RESULTADO CONFIGURACIÓN 3 – TASA FIJA Configuración Mejor Media 1 3607.06 11364.75 2 3596.09 3603.90 3 3602.36 63936.83 4 3598.17 6598.35 5 3598.71 3674.74 Los resultados presentados en el comportamiento del algoritmo obedecen a un problema de minimización de costos totales mediante la configuración adecuada de los elementos almacenados y elementos pedidos, para cada configuración se presentan en la parte superior el comportamiento para cada generación se resalta que con la evolución de los individuos generados los costos son menores. B. Tasa de demanda variable A continuación son presentados los resultados para las 5 configuraciones establecidas para una tasa de demanda variable, en ellas son presentadas el comportamiento de las respuestas en las generaciones y la media de dichas respuestas. FIG. 8. RESULTADO CONFIGURACIÓN 4 – TASA FIJA FIG. 10. RESULTADO CONFIGURACIÓN 1 – TASA VARIABLE Modelo de optimización en la gestión de inventarios mediante algoritmos genéticos - Valencia, Cáceres Resultado de costos para Tasa Variable FIG. 11. RESULTADO CONFIGURACIÓN 2 – TASA VARIABLE FIG. 12. RESULTADO CONFIGURACIÓN 3 – TASA VARIABLE FIG. 13. RESULTADO CONFIGURACIÓN 4 – TASA VARIABLE FIG. 14. RESULTADO CONFIGURACIÓN 5 – TASA VARIABLE Tabla VI 161 Configuración Mejor Media 1 34488.80 55575.21 2 27497.10 31059.45 3 29910.32 126690.21 4 26884.24 29337.81 5 26757.12 35012.23 VI. CONCLUSIONES La utilización de los algoritmos genéticos en la optimización de la gestión de inventarios género disminución de los costos de operación, así como la regularización de las órdenes cuando la demanda fue variable, en las simulaciones realizadas se obtuvo el mejor resultado mediante el cruzamiento heurístico, un número mayor en la población inicial fue más determinante que un número mayor de generaciones para encontrar la mejor respuesta, mediante la utilización de los coeficientes Bmn se generó una penalización en los tiempos de atraso “lead time” en la entrega de pedidos lo que podría entenderse como una penalización “Soft” para el AG. El modelo que se tomó como referencia presentaba costos totales antes de ser utilizado el AG de USD 4567 para la tasa de demanda fija y de USD 33245 para la tase de demanda variable, es posible comparar estos resultados con los mejores obtenidos y apreciar la optimización realizada por el AG reflejada en la disminución de costos totales, todo esto consideradas las restricciones impuestas al modelo para que no existan desabastecimiento o exceso de inventarios para cada nivel de la cadena utilizada, además de las penalidades establecidas por los coeficientes Bmn. El tiempo total de simulación fue de 100 semanas, así es posible considerar las fluctuaciones para la tasa variable y la estanqueidad para la tasa fija. Como trabajo futuro se espera configurar el modelo propuesto como un Algoritmo Genético Paralelo, para mejorar los resultados ya obtenidos, así que la utilización de nuevos operadores genéticos que mantienen la integridad de la información genética en el cruzamiento como el “Ring Crossover” así como el “Arithmetic Crossover”. 162 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 156 - 162 REFERENCIAS [1] J.VonNeuman, «The Theory of Self-Reproducing Automata», University of Illinois Press, Urbana, 1996. [2] J. Forrester, «Industrial Dynamics», Harvard Business Review. Boston, n. 36, Julio-Agosto 1958. [3] L. H. Lee, V. Padmanabhan y S. Whang, «Information Distortion in a Supply Chain: The Bullwhip Effect», Management Science, Vol. 50, No. 12, Diciembre 2004. [4] S. Chopra y P. Meindl, «Gerenciamento da Cadeia de Suprimentos – Estratégica, Planejamento e Operação», São Paulo: Prentice Hall, 2003. [5] J. P. P. Dias, 2003, «Gestão dos estoques numa cadeia de distribuição com sistema de reposição automática e ambiente colaborativo», Disertación de Maestría – Programa de Post-graduación enIngenieríade Producción Escuela Politécnica de la Universidad de San Pablo. [6] J. Lu, P. Humphreys, R. McIvor, y L. Maguire, «Employing Genetic Algorithms to minimise the Bullwhip Effect in an online efficient-responsive supply chain», en 2009 IEEE/INFORMS International Conference on Service Operations, Logistics and Informatics, Chicago, IL, USA, 2009, pp. 117-122. [7] E. Hill y W. Stevenson, «A New Method of Determining Loss Coefficients», IEEE Transactions on Power Apparatus and Systems, vol. 87, no. 7, pp. 1548-1553, Jul. 1968. [8] G. Kumaran y V. S. R. K. Mouly, «Using evolutionary computation to solve the economic load dispatch problem», en Proceedings of the 2001 Congress on Evolutionary Computation (IEEE Cat. No.01TH8546), Seoul, South Korea, pp. 296-301. [9] H. Happ, «Optimal Power Dispatch», IEEE Transactions on Power Apparatus and Systems, vol. 93, no. 3, pp. 820-830, May. 1974. [10] LanshunNie, xiaofeixu, y Dechen Zhan, «Collaborative Planning in Supply Chains by Lagrangian Relaxation and Genetic Algorithms», en 2006 6th World Congress on Intelligent Control and Automation, Dalian, China, 2006, pp. 7258-7262. [11] P. Radhakrishnan, V. M. Prasad, y M. R. Gopalan, «Genetic Algorithm Based Inventory Optimization Analysis in Supply Chain Management», en 2009 IEEE International Advance Computing Conference, Patiala, India, 2009, pp. 418-422. [12] J. Lu, P. Humphreys, R. McIvor, y L. Maguire, «Employing genetic algorithms to minimise the bullwhip effect in a supply chain», en 2007 IEEE International Conference on Industrial Engineering and Engineering Management, Singapore, 2007, pp. 1527-1531. [13] R. Perumalsamy y J. Natarajan, «Predictive analytics using Genetic Algorithm for efficient supply chain inventory optimization», in 2010 Second International conference on Computing, Communication and Networking Technologies, Karur, India, 2010, pp. 1-8. [14] W. Jianhua y H. xianfeng, «A hybrid genetic algorithm for agile supply chain scheduling optimization», en 2010 2nd International Conference on Future Computer and Communication, Wuhan, China, 2010, pp. V1-396-V1-400. [15] N. P. Joseph y G. Radhamani, «Determining Robust Solutions in Supply Chain Using Genetic Algorithm», en 2010 International Conference on Data Storage and Data Engineering, Bangalore, India, 2010, pp. 275-277. Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos Carlos Alberto Castro Zuluaga M.Sc. en Ingeniería Industrial, Universidad de los Andes Docente Tiempo Completo, Universidad EAFIT Investigador Grupo de Investigación en Gestión de Producción y Logística, Universidad EAFIT Medellín, Colombia [email protected] Mario César Vélez Gallego PhD. in Industrial and Systems Engineering, Florida International University MSc. in Industrial and Systems Engineering, Georgia Institute of Technology Docente Tiempo Completo, Universidad EAFIT Investigador Grupo de Investigación en Gestión de Producción y Logística, Universidad EAFIT Medellín, Colombia [email protected] Jaime Andrés Castro Urrego Estudiante de Ingeniería de Producción, Universidad EAFIT Medellin, Colombia [email protected] Resumen— Tradicionalmente la clasificación ABC es realizada en las empresas con el objetivo de definir e implementar una política de control de inventarios a todos los productos pertenecientes a una misma categoría. La clasificación de los productos en categorías se realiza de acuerdo a su importancia o relevancia por algún tipo de criterio, que normalmente es el consumo o utilización anual (para materias primas o repuestos) o la demanda o las ventas anuales (para productos terminados), utilizando para esto el bien conocido principio de Pareto. Sin embargo, en ocasiones es altamente recomendable y necesario hacer uso de criterios adicionales que permitan realizar una diferenciación más efectiva de las existencias. Por ello, este artículo presenta una recopilación de criterios útiles para realizar la clasificación ABC del inventario, describe en qué consiste cada uno y cómo puede ser medido. Adicionalmente se muestra un ejemplo de un escenario crítico de una clasificación ABC con tres criterios, en donde de acuerdo a los pesos asignados a cada uno y de las características de los productos incluidos en el proceso de clasificación, se pierde la validez de algún criterio en el análisis. Palabras clave— Clasificación ABC, Gestión de Inventarios, Análisis Multicriterio Abstract— ABC classification is traditionally performed in companies in order to define and implement an inventory control policy for all the products within the same category. The classification of products into categories is done according to their importance or relevance for some kind of criteria, usually the consumption or annual usage (for raw materials or spare parts) or demand or annual sales (for finished goods) using the well-know Pareto´s principle. however, sometimes it is highly recommended and necessary to use additional criteria in order to make a more effective differentiation of stocks. Therefore, this paper presents a collection of useful criteria for ABC classification; describes its meaning and how it must be measured. Additionally, an example of a critical stage of a classification ABC with three criteria, shows that depending on the weights assigned and the characteristics of the products included in the classification process, the validity of some criteria are lost in the analysis. Keywords— ABC Classification, Inventory Management; Multi criteria analysis I. INTRODUCCIÓN En todas las empresas existen procesos de toma de decisiones que involucran una gran cantidad de productos o servicios. Este tipo de decisiones, según proceso de planeación que se lleve a cabo, debe realizarse para familias de productos o productos individuales que afectarán la planeación de producción, el abastecimiento, la distribución, el almacenamiento o la programación, áreas fundamentales dentro de cualquier organización. Uno de los procesos más importantes y más complejos que existe es el control y la gestión de los inventarios, debido a que de este dependerá en gran medida el correcto funcionamiento de los procesos anteriormente mencionados, ya que independiente del tamaño de la empresa existen cientos o miles de ítems que deben ser monitoreados y controlados con el propósito de conocer sus existencias, ubicaciones, estado y demás información que es esencial para lograr realizar almacenamientos eficientes, planes de producción factibles, programas de producción reales, abastecimientos oportunos y distribuciones efectivas. Todo lo anterior finalmente va encaminado a lograr de manera superior las metas que una em- Recibido: 18/08/2011/ Aceptado: 28/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170 164 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170 presa tiene en relación con los niveles de servicio y los costos. Dada la gran cantidad de referencias (entre materias primas, repuestos, producto en proceso y producto terminado) que tienen que administrar en un sistema de control y gestión de inventarios dentro de una empresa, sería demasiado costoso y poco práctico establecer esquemas de monitoreo y control de forma individual. En su lugar, la práctica más común a nivel industrial es la de agregar referencias por grupos de familias y aplicar políticas de control iguales a todo el grupo. La forma comúnmente utilizada para realizar este tipo de clasificaciones es la denominada clasificación ABC, la cual se realiza de forma independiente para materias primas (o repuestos) y para productos terminados. El enfoque tradicional de la clasificación ABC consiste en organizar todos los ítems de manera descendente según el criterio de consumo o utilización anual (para materias primas o repuestos) o de demanda o ventas anuales (para productos terminados), ambas medidas en pesos al año. Lo anterior implica que para las materias primas y los repuestos el valor del criterio para cada ítem se calcula como el consumo anual de cada materia prima multiplicado por su costo de compra, mientras que para los productos terminados se calcula como la demanda (o ventas) al año por su costo variable de fabricación (en el caso de un productor) o de compra (para un comercializador). De esta manera se espera que una cantidad reducida de ítems que se encuentran en la parte superior de la clasificación serán parte del grupo A, y requerirán la mayor atención por parte de la gerencia; la mayor cantidad de ítems que se encuentran en la parte inferior de la clasificación son asignados al grupo C y requerirán una mínima atención de la gerencia y la cantidad restante de ítems hará parte del grupo B y requirien mediana atención [1]. La clasificación de los diferentes ítems que maneja una compañía en un grupo reducido de categorías, es un análisis simple de entender y fácil de utilizar por la mayoría de los encargados de los inventarios en una organización, pero este análisis está limitado a un solo criterio como se mencionó anteriormente, que es ampliamente reconocido que según el tipo de ítems o de industria en donde se realice el análisis, existe una gran cantidad de criterios que deben ser incluidos en el análisis, con el propósito de realizar una mejor clasificación. Cuando un análisis ABC incluye dos o más criterios, este problema es llamado Clasificación ABC Multicriterio (MCABC por sus siglas en inglés), el cual es un problema ampliamente estudiado en la literatura, pero poco estudiado en lo relacionado con los criterios utilizados, sus características y la problemática en algunos enfoques con la asignación de pesos a los criterios empleados en el análisis. El objetivo de este artículo es presentar una clasificación y una caracterización de los principales criterios utilizados en la MCABC, y desarrollar un ejemplo para ilustrar cómo la selección de los criterios y la asignación de pesos es una etapa crítica en este proceso de clasificación. Una asignación incorrecta de los pesos puede hacer incluso que alguno de los criterios incluidos en el análisis no tenga ningún efecto en el resultado final. El resto del artículo se encuentra estructurado en cinco secciones. Esta introducción es seguida por una revisión de la literatura en lo relacionado con la Clasificación ABC Multicriterio. En la sección 3 se muestran los principales criterios que se incluyen en este tipo de problemas y sus características. En la sección 4 se realiza un ejemplo donde se muestra la problemática sobre la asignación de pesos en la clasificación ABC Multicriterio. El artículo finaliza con algunos comentarios y conclusiones en la sección 5. II. REVISIÓN DE LA LITERATURA La clasificación tradicional de los artículos de una compañía en un número reducido de categorías es una implementación de la famosa observación de Pareto sobre la distribución desigual de la riqueza a nivel nacional [2]: la mayor parte de la riqueza nacional es controlada por unos pocos y la mayor parte de la población controla sólo una pequeña porción de la riqueza. El principio de Pareto enunciado anteriormente puede ser utilizado en una gran cantidad de áreas gerenciales [3]. En relación al área de gestión y control de inventarios, el análisis de Pareto sugiere que no todos los ítems en el inventario de una empresa deben ser controlados igual, por lo que los ítems más importantes (grupo A) deben Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos - Castro, Vélez, Castro ser controlados y monitoreados con sistemas de control de inventario más sofisticados que los utilizados para ítems menos importantes que se encuentran en el grupo B; y que los ítems del grupo C se deben controlar más fácilmente en comparación con los ítems del grupo B [1]. El análisis ABC clásico enunciado anteriormente ha sido cuestionado por algunos autores [4], debido principalmente a que la importancia y la atención prestada desde la gerencia a cada ítem depende de un único criterio a la hora de realizar la clasificación, sabiendo que en algunas oportunidadeshay características y atributos que deberían ser considerados y posiblemente afectan su importancia. Considere, por ejemplo, un repuesto vital para el funcionamiento de una máquina, el cual es fundamental dentro del proceso productivo de una empresa, pero que sea muy económico y con un consumo anual moderado. Sin duda, este repuesto requeriría de una atención mayor por parte de la gerencia si en la clasificación se hubiera considerado la criticidad del ítem y no sólo su consumo o utilización en términos monetarios. Cuando el análisis ABC incluye dos o más criterios, en la literatura científica el problema es denominado Clasificación Multicriterio del Inventario (MCIC o MCABC) Análisis ABC Multiciriterio (por sus siglas en inglés, respectivamente), el cual ha sido tratado por varios autores. En los primeros trabajos sobre el problema [4,5] se planteó una metodología con dos criterios para el análisis ABC por medio de una matriz cruzada tabular. Desafortunadamente, de acuerdo con algunos autores [6], la metodología se vuelve complicada y difícil de manejar, cuando tres o más criterios se incluyen en el análisis. Otros métodos más recientes empleados para resolver el problema MCABC incluyen: el Análisis Multivariado de Clusters, en el que ítems con características y atributos similares se agrupan para su análisis y posterior clasificación [7]; Proceso Analítico Jerárquico (AHP por sus siglas en inglés), en el cual se obtiene una única medida escalar de la importancia de los ítems del inventario para su posterior clasificación con base en el resultado obtenido [6-8]; utilización de metaheurísticos, como los algoritmos genéticos [9] y las redes neuronales artificiales [8,10] aplicados a la clasificación 165 ABC multivariada y, recientemente, la optimización lineal ponderada [11-14] , enfoque muy similar al concepto de Análisis Envolvente de Datos (DEA por sus siglas en inglés) y la clasificación por medio de la lógica fuzzy [15]. Finalmente, hay investigaciones que combinan métodos, donde se aplica el método ABC con multicriterio y la matriz de adquisición/índice de rotación, su utilización depende de la situación concreta de la aplicación [16]. Hasta donde se pudo constatar en la revisión de la literatura no se encontró ninguna publicación en la cual se caractericen y clasifiquen los criterios más utilizados en la clasificación ABC multicriterio. Tampoco se pudo encontrar un análisis sobre el impacto de las diferentes formas de asignar los pesos a los criterios en el resultado final de la clasificación III. CRITERIOS PARA LA CLASIFICACIÓN ABC Con base en la revisión de la literatura que se llevó a cabo se construyó una matriz de criterios (Tabla I) en la que se determina cuáles son algunos de los criterios más usados en el tratamiento del problema MCIC, su unidad de medida y para qué tipo de ítems aplica (señalados con una x), ya sea para materias primas, repuestos o para productos terminados, se diferencia la clasificación que se puede hacer de estos últimos desde el punto de vista del fabricante y del distribuidor. El criterio de demanda/ventas anuales hace referencia a la cantidad de unidades físicas que fueron demandadas del producto durante el último año, por ello sólo es utilizado para clasificar productos terminados por parte de fabricantes o distribuidores. Por su parte, el consumo/utilización anual se basa en el total de unidades que fueron solicitadas desde el sistema productivo hacia el almacén, por lo cual este criterio sólo es tenido en cuenta para clasificar materias primas y repuestos. El criterio de inventario promedio corresponde a la media de unidades físicas que se mantuvieron en inventario durante todo el año para cada ítem. Este criterio es aplicable para realizar la clasificación de todo tipo de ítems: materias primas, 166 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170 repuestos y productos terminados (tanto para productores como para comercializadores). El costo unitario se basa en el costo total que representa cada unidad del ítem, habida cuenta del costo de producción (para productos terminados en el almacén del fabricante) o de compra (para materias primas, repuestos y productos terminados en el almacén del comercializador); este criterio es aplicable para todos los tipos de ítems considerados en la matriz. TABLA I Matriz de Criterios para la clasificación ABC x x x x x x x x m3/unidad x x x x Criticidad 0, 1, 2, 3, 4, 5 x x Costo Anual del Inventario $/año x x x x Costo Anual Demanda/Ventas $/año x x Costo Anual Consumo/Utilización $/año x x Tiempo de Entrega unidades de tiempo x x Tiempo de Producción por lote unidades de tiempo Escasez 1, 2, 3, 4, 5 x x Durabilidad 1, 2, 3, 4, 5 x x Sustituibilidad 1, 2, 3, 4, 5 x x Reparabilidad 1, 2, 3, 4, 5 Número de Proveedores Cantidad Almacenabilidad 1, 2, 3, 4, 5 x Tamaño de lote Unidades x Repuestos x Materias Primas Comercializadora Salida Fabricante Entrada Criterios Unidad de Medida Demanda/ Ventas Anual unidades/año Consumo/ Utilización Anual unidades/año x x Inventario Promedio unidades/año x Costo Unitario $/unidad Volumen Fuente: Autores x x x x x x x x x x x x x x x Así mismo, el criterio de volumen se refiere al espacio que ocupa una unidad de cada ítem dentro del almacén y es aplicable a la clasificación ABC que se realice de cualquiera de los tipos de ítem listados en la Tabla 1, pues es entendible que si un producto ocupa gran cantidad de espacio en el almacén, el encargado de controlar los inventarios desee tener mayor control de las existencias de dicho producto, de modo que no se ocupe más espacio del realmente requerido y no se restrinja la cantidad de unidades que se puede mantener de las demás referencias. La criticidad se encuentra estrechamente relacionada con el costo de faltantes del ítem [9] y se representa en una escala de 1 a 5, donde 5 implica un alto costo de faltantes y una alta importancia del ítem para el correcto desempeño del sistema productivo, por ello este criterio sólo es tenido en cuenta para clasificar materias primas y repuestos. El costo anual del inventario se basa en el costo total que implicó tener dicho ítem en el almacén durante el último año, habida cuenta del costo de pedir, de mantener y de oportunidad. Por lo tanto, este criterio de clasificación es aplicable tanto para materias primas y repuestos, como para producto terminado. El criterio de costo anual de demanda/ventas, tiene en cuenta el producto entre la demanda/ ventas anuales y el costo unitario de cada ítem. Este criterio es aplicable para clasificar sólo producto terminado y es uno de los más usados en la clasificación ABC tradicional. El costo anual de consumo/utilización es el equivalente al criterio anterior aplicado a materias primas y repuestos, diferenciándose en que se basa en el producto entre el consumo/utilización anual y el costo unitario, este criterio es utilizado frecuentemente para clasificar los ítems que se encuentran como entrada al sistema productivo. Por otro lado, los criterios de tiempo de entrega y tiempo de producción por lote tienen en cuenta el tiempo que transcurre desde que se libera la orden de compra de un ítem hasta que este se encuentra en las instalaciones de la compañía (para el primer criterio) y el tiempo que transcurre desde que se comienza a producir un lote de Q unidades hasta que éste se encuentra fabricado en su totalidad (para el segundo criterio). Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos - Castro, Vélez, Castro La escasez es medida en una escala de 1 a 5 y se basa en la dificultad que implica para la compañía adquirir o comprar un ítem; este criterio es de gran importancia para aquellos ítems que son importados. Por su parte, el criterio de durabilidad se refiere a la longitud de tiempo que un ítem permanece en condiciones útiles y debe ser medido en una escala de 1 a 5, donde 5 implica que el producto tiene un período muy corto de vida útil; la medición de este criterio debe realizarse en esta escala para permitir que a la hora de clasificar los productos, los ítems que tengan mayor valor en el criterio sean los más importantes en el proceso de control de inventarios. El criterio de sustituibilidad es útil cuando se tienen ítems que al presentar faltantes en el inventario pueden ser sustituidos por otros sin generar cambios significativos en el sistema productivo. Este criterio es medido en una escala de 1 a 5 en la que los productos que tienen muchos sustitutos en el almacén toman un valor de 1, mientras que los productos que no tienen sustitutos toman un valor de 5. Igualmente, el criterio de reparabilidad se basa en la existencia de ítems que al presentar faltantes pueden ser reparados y reutilizados; aquellos productos que pueden ser reparados rápidamente toman un valor de 1 y los productos que no pueden ser reparados toman un valor de 5. El número de proveedores de un ítem indica la cantidad de compañías que lo fabrican y de las cuales se puede obtener dicho bien. Mientras más pequeña sea esta cantidad, mayor importancia tomará la realización de un control estricto sobre las existencias del ítem. Por otra parte, la almacenabilidad indica el nivel de peligro o dificultad en el almacenamiento de un ítem, por ello en una escala de 1 a 5, los productos que presenten mayores dificultades o peligro en el proceso de manejo de materiales tomarán un valor de 5. Finalmente, el criterio del tamaño de lote se refiere a la cantidad mínima de unidades que por restricciones físicas o económicas se pueden pedir al proveedor o se pueden fabricar. Aunque de acuerdo a la revisión de la literatura los anteriores criterios son los mayormente utilizados para realizar la clasificación ABC en el inventario de una compañía, existen otros criterios que pueden ser utilizados en empresas de 167 acuerdo a la particularidad de sus productos y procesos y de las características que el encargado de controlar los inventarios considera importantes. IV. CONSIDERACIONES y EJEMPLO ILUSTRATIVO DE LA CLASIFICACIÓN ABC MULTICRITERIO Las diferentes propuestas para dar solución al problema de la Clasificación ABC Multicriterio, tienen un elemento común y es la utilización de pesos o ponderaciones a los diferentes criterios, con el fin de lograr identificar mediante algún método o modelo, qué artículos son más importantes que otros, medidos con dos o más criterios. Estos pesos o ponderaciones se pueden establecer ya sea de forma objetiva, mediante la utilización de algún modelo matemático, como, por ejemplo, el caso de las propuestas que utilizan optimización; o darlas de forma subjetiva a partir de la experiencia de los encargados del manejo de los inventarios en las empresas, como es el caso de las propuestas que utilizan lógica fuzzy para clasificar los diferentes ítems del inventario en pocas categorías, en donde los conocimientos y la experiencia de estas personas son muy importantes para lograr obtener clasificaciones que consideren varios criterios a la vez. Cualquiera sea la forma de establecer dichas ponderaciones, es importante considerar los efectos que pueden tener estas ponderaciones en dicha clasificación, aspectos poco tratados por aquellos que han realizado propuestas para este tipo se problema y que fueron mencionados en la sección 2. Con el propósito de mostrar algunas precauciones que se deben considerar cuando se realiza una Clasificación ABC Multicriterio se elaboró un ejemplo de un escenario crítico en el que es posible observar que de no tener cuidado con los criterios seleccionados, con los valores que toman los ítems en cada uno de ellos y con las ponderaciones dadas a los diferentes criterios, es posible que alguno de los criterios empleados pierdan importancia y, por lo tanto, validez a la hora de realizar la clasificación ABC. Para ello se emplearon 20 ítems con los valores de demanda, costo unitario y lead time que se muestran en la Tabla II. 168 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170 TABLA II Datos Iniciales del ejemplo donde: yij = es el valor del criterio j-ésimo para el i-ésimo ítem en inventario. ITEM DEMANDA COSTO UNITARIO LEAD TIME A 80 422 6 B 514 54,07 7 C 19 0,65 6 D 2442 16,11 4 E 650 4,61 4 F 128 0,63 5 G 2500 1,2 6 H 4 22,05 3 I 25 5,01 5 J 2232 2,48 1 K 2 4,78 1 L 1 38,03 6 M 6 9,01 2 N 12 25,89 1 O 101 59,5 5 I P 715 20,78 6 S Q 1 2,93 1 H 0,001 R 35 1 3 R S 1 28,88 4 M T 4 29,86 1 Fuente: Elaboración Propia Al realizar una clasificación ABC Multicriterio es necesario normalizar la información para cada uno de los valores mostrados en la Tabla II, ya que los diferentes criterios utilizan unidades de medida que no son comparables ni operables entre ellas (ver Tabla 1 para las unidades de medida de los diferentes criterios) como, por ejemplo, semanas y unidades como es el caso del lead time y la demanda. Así mediante la ecuación (1) se obtienen valores normalizados [(yn)]ij), entre 0 y 1 de todos los datos de la Tabla I, los cuales se encuentran positivamente relacionados, esto es, los valores mayores (es decir, 1 o cercanos a 1) son de gran importancia, mientras los valores menores (cero o cercanos a cero) son menos importantes. Los resultados de la obtención de los valores normalizados se muestran en la Tabla III. (1) TABLA III Datos Normalizados, Puntaje total por ítem y clasificación Final ÍTEM DEMANDA COSTO UNITARIO LEAD TIME PUNT. CLAS. TOTAL A 0,032 1,000 0,833 0,624 A G 1,000 0,001 0,833 0,614 A D 0,977 0,037 0,500 0,504 A B 0,205 0,127 1,000 0,450 A P 0,286 0,048 0,833 0,393 A L 0,000 0,089 0,833 0,313 A J 0,893 0,004 0,000 0,296 A O 0,040 0,140 0,667 0,286 A C 0,007 0,000 0,833 0,286 A E 0,260 0,009 0,500 0,259 A F 0,051 0,000 0,667 0,243 B 0,010 0,010 0,667 0,233 B 0,000 0,067 0,500 0,192 B 0,051 0,333 0,131 C 0,014 0,001 0,333 0,118 C 0,002 0,020 0,167 0,064 C T 0,001 0,069 0,000 0,023 C N 0,004 0,060 0,000 0,021 C K 0,000 0,010 0,000 0,003 C Q 0,000 0,005 0,000 0,002 C Fuente: Elaboración Propia La calificación o puntaje total obtenido por cada ítem (organizado de mayor a menor), se muestra en la columna 5 de la Tabla III, se obtiene por medio de la ecuación (2): (2) Donde ynijes el valor normalizado del ítem i-ésimo con respecto al criterio j-ésimo y wj es el peso asignado al criterio j, bajo la restricción de que: (3) Aplicado el principio de Pareto de forma similar a como se hizo en [11-14], pero sobre la columna de puntaje total, se obtuvo la clasificación obser- Clasificación ABC Multicriterio: Tipos de Criterios y Efectos en la Asignación de Pesos - Castro, Vélez, Castro vada en la sexta columna de la Tabla III, mediante pesos similares en los tres criterios (0,33 para demanda y costo y 0,34 para el lead time). Estos pesos fueron establecidos de esta forma con el propósito de ejemplificar algunas precauciones que deben tenerse al utilizar varios criterios en una calificación del inventario, y pueden ser definidos de forma diferente según la experiencia de las personas encargadas de la gestión y el control de los inventarios. Supóngase ahora que existen únicamente 2 productos (ítems P y R), con lead timemuy altos (por ejemplo 200 unidades de tiempo) los cuales fueron cambiados y resaltados en la Tabla IV. Los resultados obtenidos para este caso se muestran en la Tabla IV. TABLA IV Datos Modificados y Nueva Clasificación ÍTEM DEMANDA COSTO UNITARIO LEAD TIME NUEVA CLAS. CLAS. INICIAL P 715 20,78 200 A A A 80 422 6 A A R 35 1 200 A C D 2442 16,11 4 A A G 2500 1,2 6 A A J 2232 2,48 1 B A B 514 54,07 7 B A E 650 4,61 4 B A O 101 59,5 5 B A L 1 38,03 6 B A S 1 28,88 4 C B F 128 0,.63 5 C B C T 4 29,86 1 C N 12 25,89 1 C C H 4 22,05 1 C C I 25 5,01 5 C B C 19 0,65 6 C A M 6 9,01 2 C C K 2 4,78 1 C C Q 1 2,93 1 C C Fuente: Elaboración Propia Es evidente cómo al tener ítems con valores extremos en alguno de los criterios hace que la clasificación se altere significativamente. Así, por ejemplo, el número de artículos tipo A pasó de 10 a 5, es decir, una reducción del 50%; los ítems tipo B pasaron de 3 a 5, o sea un incremento del 169 67%, mientras que los ítems tipo C se incrementaron en un 42% Desde el punto de vista de cambios de categoría, se puede observar que el 50% de los ítems que hace parte del análisis cambió de categoría, es decir, artículos tipo A se convirtieron en artículos B o C; artículos B se volvieron artículos A o C; o artículos C se transformaron en artículos A o B. El restante 50% permanecieron igual. Esto demuestra que la magnitud de los valores asignados a los diferentes criterios tiene un alto impacto en las clasificación de los artículos bajo un enfoque mulcriterio, por lo que es un factor que debe considerarse en este tipo de análisis. Es posible observar cómo un artículo con las característica del ítem R (baja demanda y bajo costo) pueda fácilmente convertirse en un artículo tipo A (como evidentemente ocurrió) cuando otra característica (en este caso el tiempo de entrega) tenga valores extremos muy altos, hace que los otros dos criterios pierdan completamente su validez. Este mismo comportamiento puede observarse en artículos como el ítem C y el ítem B, pero a la inversa; es decir, pasaron de clasificaciones superiores a clasificaciones inferiores, aunque tengan características que a primera vista los ubique como artículos importantes dentro de la organización. Finalmente, este tipo de efectos y contradicciones se presentan con algunas enfoques y propuestas, al asignar pesos o ponderaciones a los diferentes criterios, lo que hace que los demás criterios incluidos en el análisis pierdan validez, al establecer valores muy bajos en unos criterios y un valor muy alto en uno solo, para dar resultados casi idénticos a clasificaciones ABC de un solo criterio. V. CONCLUSIONES Se realizó una caracterización de los principales criterios tenidos en cuenta a la hora de realizar una clasificación ABC del inventario, en la cual se pudo observar cómo la decisión de qué criterios utilizar para dividir los productos en categorías dependerá de la particularidad de la empresa y de los productos que se desee clasificar, ya sea materias primas, repuestos o productos terminados, ya que no todos los criterios pueden (ni deben) aplicarse en todos los casos. Así mismo, se identi- 170 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 163 - 170 ficó que es necesario tener cuidado con la forma como se mide un criterio, ya que de esto dependerá el orden en que se deba hacer la clasificación: se toma como más importantes los productos con mayor magnitud o los productos que toman menor valor en el criterio, es decir, con una relación positiva. En caso de tener relaciones negativas, es necesario convertir esta relación a una positiva mediante la expresión 1-yij. En una clasificación ABC Multicriterio se identificó que pueden existir escenarios críticos en los que es necesario hacer un análisis cuidadoso de la información para realizar la clasificación de manera adecuada, ya que es posible que un producto llegue a tener valores demasiado altos (o demasiado bajos) en los diferentes criterios utilizados o ponderaciones tales que absorban toda la importancia del mismo y ocasione una degeneración en la clasificación de una parte de los productos, sin importar los valores que estos tomen en otros criterios. Cuando esto suceda, el encargado de la toma de decisiones debe reconsiderar los criterios que deben incluirse en la clasificación del inventario, los límites de clasificación que utilice y los pesos que asigne a cada uno de dichos criterios. Finalmente, se debe señalar que aunque existe gran variedad de métodos para realizar una clasificación ABC Multicriterio, su utilidad en la industria disminuirá en la medida en que su complejidad se incremente; ya que a pesar de ofrecer buenas soluciones al problema, es esencial recordar que mientras más sencilla sea su implementación por parte de quien toma las decisiones en una compañía, mayor será el éxito en la puesta en práctica de este tipo de herramientas. [5] B. E. Flores and D. C. Whybark, “Implementing multiple criteria ABC analysis,” Journal of Operations Management, vol. 7, no. 1-2, pp. 79-85, Oct. 1987. [6] F. Y. Partovi and J. Burton, “Using the Analytic Hierarchy Process for ABC Analysis,” International Journal of Operations & Production Management, vol. 13, no. 9, pp. 29-44, 1993. [7] R. Ernst and M. A. Cohen, “Operations related groups (ORGs): A clustering procedure for production/inventory systems,” Journal of Operations Management, vol. 9, no. 4, pp. 574-598, 1990. [8] F. Y. Partovi and M. Anandarajan, “Classifying inventory using an artificial neural network approach,” Computers & Industrial Engineering, vol. 41, no. 4, pp. 389404, Feb. 2002. [9] H. Altay Guvenir, “Multicriteria inventory classification using a genetic algorithm,” European Journal of Operational Research, vol. 105, no. 1, pp. 29-37, Feb. 1998. [10] Q. Lei, J. Chen, and Q. Zhou, “Multiple Criteria Inventory Classification Based on Principal Components Analysis and Neural Network,” Methods, pp. 10581063, 2005. [11] R. Ramanathan, “ABC inventory classification with multiple-criteria using weighted linear optimization,” Computers & Operations Research, vol. 33, no. 3, pp. 695-700, Mar. 2006. [12] P. Zhou and L. Fan, “A note on multi-criteria ABC inventory classification using weighted linear optimization,” European journal of operational research, vol. 182, no. 3, pp. 1488–1491, 2007. [13] A. Hadi-Vencheh, “An improvement to multiple criteria ABC inventory classification,” European Journal of Operational Research, vol. 201, no. 3, pp. 962-965, Mar. 2010. [14] W. Ng, “A simple classifier for multiple criteria ABC analysis,” European Journal of Operational Research, vol. 177, no. 1, pp. 344-353, Feb. 2007. [15] C. Chu, G. Liang, and C. Liao, “Controlling inventory by combining ABC analysis and fuzzy classification,” Computers & Industrial Engineering, vol. 55, no. 4, pp. 841-851, Nov. 2008. [16] O. Parada, “Un enfoque multicriterio para la toma de decisiones en la gestión de inventarios,” Revista Cuadernos de Administración, Vol. 22 No. 38, pp. 169187, enero-junio de 2009. REFERENCIAS [1] E. Silver, D. F. Pyke, and R. Peterson, Inventory Management and Production Planning and Scheduling, Third Edit. New York: Wiley, 1998. [2] V. Pareto, Mannual of Political Economy (English translation). New York: A. M. Kelley Publishers, 1971. [3] P. Swamidass, Encuclopedia of Production and Manufacturing Management. Norwell, MA: Kluwer Academic Publishers, 2000. [4] B. Flores and C. Whybark, “Multi Criteria ABC Analysis,” International Journal of Operations and Production Management, vol. 6, no. 3, pp. 38-46, 1986. Diseño y Elaboración de las Tecnologías de Inspección Basadas en herramientas de Limpieza para el Registro y Análisis de los Parámetros de Operación en Líneas de Transporte de hidrocarburos Mario Alberto Quintero Ing. Electrónico, Universidad Industrial de Santander Investigador, Corporación para la Investigación de la Corrosión CIC Bucaramanga, Colombia [email protected] humberto Zambrano Medina Ing. Electrónico, Universidad Industrial de Santander, Investigador, Corporación para la Investigación de la Corrosión CIC Bucaramanga, Colombia [email protected] hernán Alfonso Garnica M.Sc.(c) en Física, Universidad Industrial de Santander, Corporación para la Investigación de la Corrosión CIC, Investigador Grupo FITEK, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Ely Dannier V. Niño MSc en Física, Universidad Industrial de Santander Docente Tiempo Completo, Investigador Grupo GINTEP, Universidad Pontificia Bolivariana UPB, Investigador Grupo FITEK, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Sergio Quintero Técnico Electromecánico, Unidades Tecnológicas de Santander UTS, Técnico, Corporación para la Investigación de la Corrosión CIC Bucaramanga, Colombia [email protected] Resumen— En este artículo se presenta el diseño y construcción de una herramienta inteligente (pig o marrano) que permite la medición de parámetros de operación de tuberías para transporte de hidrocarburos y que registra señales asociadas a su dinámica de movimiento dentro de la línea de transporte. El marrano está concebido para ser utilizado de modo regular por el operador, para aprovechar principalmente corridas rutinarias de limpieza. La herramienta recoge datos a bajo costo y el análisis de los mismos aporta al operador información valiosa sobre la evolución de la tubería, el grado de residuos, la presencia de posibles daños geométricos (defectos) e información sobre los parámetros operacionales. Esta información puede integrarse al plan de mantenimiento, lo cual permitirá una mejor toma de decisiones y ayudará a obtener un panorama de riesgos gracias al control de los cambios que experimenta la línea con el tiempo. Palabras clave— herramienta Inteligente, Inspección en Línea, Marrano de Líneas de Transporte. Abstract— This article presents the design and construction of an intelligent tool (pig), which allows the measurement pipelines operation parameters for transportation of hydrocarbons and records signals associated with its dynamic movement within the transmission line. The pig is designed to be used on a regular basis by the operator, drawing mainly runs routine cleaning. The tool collects data at low cost and analysis of the same operator brings to valuable information on developments in the pipeline, the degree of waste, the presence of potential damage geometry (defects) and in-formation on operational parameters. This information can be integrated into the maintenance plan, which will enable better decision making and help to get an overview of risk control thanks to the changes in the line over time. Keywords— Tool Smart, Inline Inspection, Pigging. I. INTRODUCCIÓN Las empresas transportadoras de hidrocarburos tienen como prioridad asegurar la correcta operación de las líneas de transporte. Con este fin implementan rigurosos programas de diagnóstico y mantenimiento que les permite identificar, controlar y mitigar las principales amenazas a la integridad de la infraestructura, entre las cuales se encuentra la amenaza por corrosión en líneas de transporte [1], [2]. En términos generales, las tecnologías de Inspección Inteligente son considera- Recibido: 24/05/2011/ Aceptado: 02/08/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176 172 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176 das las herramientas más eficaces para evaluar la integridad mecánica en las tuberías de transporte de hidrocarburos y son herramientas esenciales en la elaboración de los planes de mantenimiento y mitigación de la amenaza por corrosión [3]. En Colombia, hay aproximadamente 12 mil kilómetros de líneas que pueden ser inspeccionadas con herramientas inteligentes [4]. Las herramientas de inspección inteligente disponibles comercialmente y fabricadas exclusivamente por países industrializados representa para la industria local altos costos de inversión que dificulta el acceso a estas tecnologías y limitan la periodicidad en su uso. La Corporación para la Investigación de la Corrosión, a través de su interacción con la industria petrolera, ha identificado esta necesidad y propuso el desarrollo de una herramienta de diagnóstico general previo a una inspección especializada, que es utilizada en el país para evaluar la corrosión interna en la infraestructura petrolera. En este trabajo se describe la construcción de una herramienta geométrica (marrano) que permite la medición de parámetros de operación y que registra señales asociadas a posibles anomalias geométricas dentro de la línea [5]. El marrano está concebido para ser utilizado de modo regular por el operador, al aprovechar principalmente corridas rutinarias de limpieza; se puede usar como herramienta semi-inteligente, herramienta de limpieza o herramienta geométrica; que permite, en sus diferentes configuraciones, reunir información valiosa sobre las tendencias de limpieza de las líneas en intervalos determinados de tiempo, la formación de depósitos de parafina, los riesgos de taponamiento de las tuberías, el avance y la eficiencia de la limpieza a lo largo de una secuencia de marraneo, los parámetros de operación y las condiciones de flujo [6]. La herramienta desarrollada juega un papel clave en el seguimiento de tendencias geométricas y operacionales como parte de los procesos de preinspección para evaluación de la viabilidad de un proceso de marraneo con tecnología más sofisticada como MFL o ultrasonido [7]. Esta información podrá integrarse en el plan de mantenimiento, lo cual permitirá la toma de decisiones y ayudará a obtener un panorama de riesgos gracias al control de los cambios que sufre la línea con el tiempo [8]. Por tal motivo, con esta herramienta los servicios prestados, a diferencia de lo que ocurre actualmente con el mercado de herramientas instrumentadas, no son de carácter puntual sino de seguimiento y control a través de los años. II. DESCRIPCIÓN ExPERIMENTAL A. Descripción de la herramienta La herramienta es un dispositivo unidireccional constituido por un cuerpo, copas, discos, sensores de distancia (odómetros), sensores de presión diferencial, sensores de deformación (flexómetros) y sensores de temperatura. En la Fig. 1 se muestra un esquema general de la herramienta y en la Fig. 2 se presenta el diagrama virtual del diseño de la herramienta. En la Tabla 1 se muestra los parámetros más relevantes que se tuvieron en cuenta en el diseño de la herramienta, se consideró que el dispositivo soporta condiciones extremas al interior de la tubería, como altas presiones y temperaturas, cambios bruscos de temperatura, vibraciones, deformaciones de la línea, cambios de dirección por las curvas presentes en el trayecto, cambios de nivel, cambios de espesores, rotaciones y la agresividad del fluido transportado en la línea. FIG. 1. ESQUEMA GENERAL DE LA HERRAMIENTA Fuente: Los autores FIG. 2. DIAGRAMA VIRTUAL DE LA HERRAMIENTA Fuente: Los autores Diseño y Elaboración de las Tecnologías de Inspección Basadas en herramientas de Limpieza para el Registro y Análisis de los Parámetros de Operación en Líneas de Transporte de hidrocarburos - Quintero, Zambrano, Garnica, Niño, Quintero TABLA I Parámetros generales de diseño Parámetro Entorno Modo de Inspección Detalle Líneas de transporte de hidrocarburos Por medio de raspadores de limpieza Diámetro tuberías >12 Pulgadas Sensores Presión Absoluta Presión Diferencial Temperatura del fluido Tiempo de corrida >4 horas Presión de Operación 1200 psi Presión Máxima de Operación 2500 psi Presión de Diseño 3000 psi Temperatura Máxima de Operación 65 oC Fuente: Los autores En la Fig. 3 se presentan los distintos módulos que constituyen el sistema electrónico de la herramienta inteligente. El módulo de control está basado en un microcontrolador que constituye el cerebro del sistema y administra los demás módulos. El módulo de acondicionamiento de señal se encarga de filtrar y digitalizar las señales análogas provenientes de los sensores, para su almacenamiento posterior en el módulo de memoria [9], [10]. Los datos almacenados son sincronizados con la fecha y hora entregada por el módulo de tiempo y con la información de distancia recorrida entregada por el módulo de posicionamiento (odómetro). B. Proceso de desarrollo de dispositivos, módulos y banco de pruebas Inicialmente, se realizó la selección, el acondicionamiento y la validación de tecnologías, lo cual permitió conocer el desempeño de sensores de diferentes sensibilidades y rangos. Se seleccionaron las tecnologías para el procesamiento digital de señales en tiempo real que permitieran implementar los filtros digitales, realizar la estadística y comprimir la información antes de guardarla en memoria. La etapa de desempeño en laboratorio de la tecnología en desarrollo, se fundamenta en la creación de bancos de pruebas con defectos inducidos en diferentes configuraciones geométricas, como se muestran en Fig. 4. El banco de pruebas evalúa los arreglos de sensores y determina patrones de defectos que permiten modelar matemáticamente el fenómeno y estandarizar la identificación. Esta etapa implicó la construcción del hardware electrónico para la adquisición y procesamiento de las señales entregadas por los sensores, el desarrollo del software embebido encargado de gestionar la herramienta prototipo y el análisis computacional que permitan caracterizar y graficar las señales entregadas por los sensores. Se finaliza la construcción de los dispositivos prototipos con el estudio mecánico de las estructuras metálicas, tipo encapsulados, que permite articular y proteger la tecnología dentro de la herramienta de limpieza [11]. FIG. 4. BANCO DE PRUEBAS MODULOS MECÁNICOS FIG. 3. ESQUEMA DE MÓDULOS ELECTRÓNICOS DE LA HERRAMIENTA Fuente: Los autores 173 Fuente: Los autores 174 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176 C. Sensores La búsqueda y selección de tecnologías para medir las distintas variables de interés en la herramienta PIG se realizó siguiendo los parámetros de diseño mencionados anteriormente. Se debe recordar que para realizar un diagnóstico geométrico eficaz de la tubería, se requiere correlacionar la información de variables como presión, temperaturas, deformación distancia y diámetro, además de la comparación entre las mismas a través de una matriz. A continuación se describe el trabajo realizado en la selección de la tecnología correspondiente para cada variable a evaluar y se discuten los detalles más relevantes en selección e implementación. 1) Sensores de presión Los factores más importantes considerados en la selección del sensor de presión se muestran en la Tabla 2. Para las condiciones de trabajo requeridas, se seleccionó un transductor de presión basado en principios piezoeléctricos que le confiere una alta resolución y mayor estabilidad al transcurrir el tiempo. TABLA II Parámetros de operación para la presión Características de Operación Valor Rango de presión Hasta 2000 psi Precisión +/- 0.5% de la Escala Condiciones de trabajo Buena tolerancia a ambientes corrosivos Disponibilidad Alta y de fácil adquisición en el mercado. Acondicionamien to de señal Modular, preferible mente encapsulado. Sensibilidad 0.5 a 1 psi. Fuente: Los autores 2) Sensores de temperatura Dadas las condiciones de trabajo, se seleccionó para la aplicación un sensor de temperatura tipo semiconductor. Este sensor tiene muy buenas características relacionadas con la robustez, tamaño reducido, alta precisión, acondicionamiento de señal simplificado y bajo costo. En la Fig. 5 se muestra el modo de instalación del sensor dentro de la cápsula mecánica con el fin de mantenerlo protegido de la corrosión y de las altas presiones. FIG. 5. SENSORES ENCAPSULADOS Y EMPOTRADOS Fuente: Los autores 3) Sensores Odómetros Los odometros juegan un papel fundamental en la localización longitudinal de las anomalías detectadas en la tubería. La tecnología seleccionada para el cálculo de la distancia está basada en sensores magnéticos. Los odómetros están constituidos por ruedas que entran en contacto con la tubería donde se instalan los sensores magnéticos de “efecto hall” que envían una serie de pulsos por cada rotación de la rueda, en la Fig. 6 se muestra el esquema del odómetro utilizado en la herramienta. El software incorporado en el módulo de control se encarga de convertir estos pulsos en distancia recorrida. Este módulo requiere un gran procesamiento de software para poder calcular en todo momento la distancia recorrida por la herramienta inteligente. Existen ciertos factores que afectan la exactitud de los sensores de distancia e inducen errores en el cálculo del desplazamiento lineal real de la herramienta. Las principales fuentes de error son el desgaste del material en las ruedas por la fricción y la rotación de la herramienta dentro de la tubería; razón por la cual en la herramienta incorpora como mínimo dos odómetros los cuales proveen redundancia de información que facilita el análisis de tendencias dinámicas. Por último, para verificar las condiciones de adherencia entre la superficie de la rueda y las diversas superficies de la tubería, se ubicaron elementos que modificaron el coeficiente de Diseño y Elaboración de las Tecnologías de Inspección Basadas en herramientas de Limpieza para el Registro y Análisis de los Parámetros de Operación en Líneas de Transporte de hidrocarburos - Quintero, Zambrano, Garnica, Niño, Quintero fricción y se implementaron modificaciones sobre la superficie del tubo, se simuló de este modo las variaciones que se presentan durante una corrida regular de una herramienta de tal tipo. 175 FIG. 7. ESQUEMA DEL MÓDULO DE SENSORES DE LA HERRAMIENTA FIG. 6. ESQUEMA DEL ODÓMETRO Fuente: Los autores FIG. 8. PERFIL DE PRESIÓN EN CORRIDA REAL (PRESIÓN [PSI] VS Fuente: Los autores III. RESULTADOS y DISCUSIÓN Para la evaluación de las tecnologías se implementaron dos módulos; uno validado en una línea real y el otro en el laboratorio [12]. Las tecnologías seleccionadas para la medición de presión, temperatura y distancia fueron implementadas y evaluadas en el laboratorio. Con un software especializado de modelamiento, se realizó el diseño y posteriormente la construcción de los encapsulados mecánicos, que permiten proteger la tecnología incorporada en el marrano de limpieza [9]-[12]. El proceso de validación del desempeño de la tecnología en condiciones reales, se realizó en dos pruebas de 24 horas cada una, en una línea de transporte tipo poliducto de 80km de recorrido de la empresa colombiana de petróleos ECOPETROL. En la Fig. 7 se aprecia el esquema del montaje final del ensamble mecánico y del módulo que contiene la cápsula de parámetros operacionales en la herramienta de limpieza. En la Fig. 8 se presenta el perfil de presión en función de la distancia recorrida registrado por la herramienta en condiciones reales [13] y en la Fig. 9 se aprecia el estado final de la herramienta después de la corrida real. DISTACIA [M]) Fuente: Los autores FIG. 9. ESTADO FINAL DE LA HERRAMIENTA EVALUADA EN UN POLIDUCTO DE ECOPETROL Fuente: Los autores Estas pruebas comprobaron la repetibilidad y confiabilidad de las medidas, pues permitieron obtener perfiles detallados de temperatura y presión de la tubería en función de la distancia recorrida y el tiempo [11]-[13]. A su vez, se pudo corroborar la robustez de la herramienta para soportar altas presiones y vibraciones. La información obtenida en la inspección se constituye en una herramienta valiosa para el cálculo de la vida útil de la tubería y detección de anormalidades críticas entre otras [13], [14]. 176 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 171 - 176 IV. CONCLUSIONES La tecnología desarrollada permite obtener información de la tubería a partir de la evaluación de tendencias geométricas y operacionales esenciales en la viabilidad de una inspección de la línea con tecnologías especializadas. Con un posterior refinamiento de la herramienta se permitirá identificar problemas de corrosión localizada, identificar zonas de alto riesgo de ruptura, definir acciones en los planes de aseguramiento de la integridad de los sistemas de transporte y optimizar modelos matemáticos de simulación. La herramienta desarrollada y evaluada en una línea real permite la medición de parámetros de operación y anomalias geométricas en función de la distancia recorrida. El marrano C.I.C está concebido para ser utilizado de modo regular por el operador, al aprovechar principalmente corridas rutinarias de limpieza. De este modo los servicios prestados, a diferencia de lo que ocurre actualmente con el mercado de herramientas instrumentadas, no son de carácter puntual sino de seguimiento y control a través de los años. La herramienta recogerá datos a bajo costo y el análisis de los mismos aportará al operador información valiosa sobre el estado de la tubería, entre estos, el grado de residuos, posibles daños geométricos y parámetros operacionales. Esta información que podrá integrarse en el plan de mantenimiento, permitirá la toma de decisiones y ayudará a obtener un panorama de riesgos gracias al seguimiento de los cambios que sufre la línea con el tiempo. A su vez, la herramienta suministra información valiosa antes de implementar técnicas de inspección costosas como una corrida de inspección inteligente con ultrasonidos o MFL, lo cual faculta al operador para modificar esas condiciones como requisito previo a la inspección inteligente y la detección y dimensionamiento de daños geométricos. La herramienta tiene características modulares que le confieren gran flexibilidad, ésta es una de sus ventajas competitivas en el mercado. del proyecto: Tecnologías PIG para la Calibración Interna y la Medida de Parámetros de Operación en Líneas de Transporte de Hidrocarburos. REFERENCIAS [1] ASME B 31.8 gas transmisión and distribution piping systems. [2] ASME B 31.4 pipeline transportation systems for liquid hidrocarbons and other liquid´s. [3] The Pipeline Pigging Course. In: Pipeline Pigging & Integrity Management Conference, Clarion, 2003. [4] Programa para el Manejo de la Corrosión Interna y Prototipo de Marrano Inyector del Sistema de Transporte de Gas Ballena-Barrancabermeja de Centragás S.A. Proyecto cofinanciado por el SENA para el sector gas, Corporación para la Investigación de la Corrosión, Jun 2004. [5] Managing System Integrity for Hazardous Liquid Pipelines. In: API Standard. First Edition, p. 1160, Nov 2001. [6] Specifications and requirements for intelligent pig inspection of pipelines, In: Pipeline Operator Forum, Version 3.2, Ene 2005. [7] Pipeline Safety: Pipeline Integrity Management in High Consequence Areas Proposed Rule, 49 CFR Part. DOT, 2003, p. 192 – 195. [8] In-Line Nondestructive Inspection of Pipelines, In: NACE International Publication. 35100. [9] Automatic Data Acquisition System For Offshore Oil Pipeline Magnetic Flux Leakage On-Line Inspection, Tao Jin Peiwen, Shangai Jiao Tong University/Journal of the Japan Petroleum Institute, 2005. [10] Integrated Visualization for Geometry PIG Data.pdf, Bok Dong Kim Kyungpook National University, Daegu, South Korea, Department of Computer Engineering, Korea Gas Corporation, 426-790 Ansan, South Korea, 2006. [11] Advances in Line Inspection Technology for Pipeline Integrity, Jeff Sutherland, BJ services, 2000. [12] R. Worthingham T. Morrison, N.S. Mangat and G. Desjardins. Bayesian Estimates Of Measurement Error For In-Line Inspection And Field Tools Proceeds of IPC. International Pipeline Conference 2002. Calgary, Alberta, Canada. [13] Desarrollo de una herramienta para determinar las pérdidas de presión interna en líneas de transporte de hidrocarburos a través del uso de sensores electromecánicos, orden de servicio 511956 entre el CIC y el ICP, diciembre de 2007. [14] Assessment and analysis of pipeline buckles, Inessa L Yablonskikh et. al., PPSA Aberdeen Seminar 2007. Agradecimientos Los autores agradecen al Instituto Colombiano del Petroleo – ICP y a la Viceprecidencia de Tranportes de la Empresa Colombiana de Petróleo - ECOPETROL, por el apoyo y las facilidades prestadas durante la prueba piloto, al Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnología – COLCIENCIAS, por el apoyo financiero Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión Juan Antonio Contreras Montes PhD. en Ciencias Técnicas Líder Grupo de Investigación en Control, Comunicaciones y Diseño Naval, Escuela Naval Almirante Padilla ENAP Cartagena, Colombia [email protected] David Javier Muñoz Aldana Ingeniero Electrónico Investigador Grupo de Investigación en Control, Comunicaciones y Diseño Naval, Escuela Naval Almirante Padilla ENAP Cartagena, Colombia [email protected] Resumen— En este artículo se presenta una novedosa metodología para la generación de controladores difusos tipo singleton a partir de datos experimentales de entrada y salida. Se describe una técnica para construcción de las reglas difusas mediante funciones de pertenencia triangulares, con interpolación en 0.5, para la partición de los antecedentes; mínimos cuadrados para el ajuste de los consecuentes tipo singleton y operadores tipo promedio ponderado, en vez de operadores tipo t-norma. El aspecto más promisorio de la propuesta consiste en la obtención del modelo, o controlador difuso, sin sacrificar su interpretabilidad ni recurrir a otras técnicas de inteligencia artificial. Para llevar a cabo el entrenamiento del controlador difuso se utilizó el sistema de presión del sistema didáctico en control de procesos de Lab-Volt, modelo 6090. Los datos de entrenamiento fueron tomados de una experiencia realizada con un control PI. reglas, operadores lógicos empleados, forma y distribución de los consecuentes, entre otros . El gran número de parámetros requeridos para obtener un modelo difuso ha dificultado el desarrollo de una técnica única de modelación, especialmente en el caso de identificación borrosa a partir de datos experimentales de entrada y salida. Una de las primeras propuestas para diseño automático de sistemas difusos a partir de los datos es la propuesta por Wang [1]. Sugeno y Yasukawa [2] propusieron una metodología para identificación de parámetros de modelos difusos mediante consecuentes tipo singletons, pero requiere de muchas reglas y presenta una pobre capacidad de descripción. Una técnica comúnmente empleada son los algoritmos de agrupamiento difuso, siendo los métodos de Fuzzy C-Means [3], el de GustafsonKessel [4] y sus variantes Nauck y Kruse [5] [6] los más empleados. Una metodología interesante para extraer reglas a partir de los datos en un marco de integridad lingüística es presentada por Espinosa y Vandewalle [7]. Sala [8].[9] introdujo una técnica novedosa basada en el error de inferencia para aproximar funciones con partición suma 1 con conjuntos triangulares, lo cual es un aporte importante a la interpretabilidad de los modelos difusos; Díez et al. [10] proponen variaciones a los algoritmos de agrupamiento para mejorar la interpretabilidad y descubrir estructuras afines locales en los modelos difusos obtenidos. Paiva y Dourado [11] presentan un modelo generado por medio del entrenamiento de una red neuro-difusa implementado en dos fases: en la primera fase, se obtiene la estructura del modelo con un algoritmo clustering substractivo, lo cual permite extraer las reglas a partir de datos de entrada y salida; Palabras clave— identificación difusa, interpretabilidad, controlador difuso, sistema de presión. Abstract— A novel approach for the development of linguistically interpretable fuzzy singleton models from experimental data is proposed. The proposed methodology uses triangular sets with 0.5 interpolations. Averaging operator, instead of T-norm operator, is used for combining fuzzy rules. Singleton consequents are employed and least square method is used to adjust the consequents. The most promissory aspect in our proposal consists in achieving model without sacrificing the fuzzy system interpretability. The real-world applicability of the proposed approach is demonstrated by application to a pressure control using the LabVolt Process Control Training System (6090). Keywords— fuzzy identification, interpretability, fuzzy controller, process pressure. I. INTRODUCCIÓN La construcción de modelos difusos involucra la selección y sintonización de varios parámetros como: forma y distribución de las funciones de pertenencia de las variables de entrada, base de Recibido: 29/08/2011/ Aceptado: 09/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182 178 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182 en la segunda fase, se realiza la sintonización de los parámetros del modelo mediante una red neuronal que emplea retropropagación, pero impone restricciones en el ajuste de los parámetros y en la fusión de las funciones de pertenencia con el fin de garantizar la interpretabilidad del modelo resultante. La metodología empleada para mostrar la obtención de controladores difusos tipo singleton a partir de datos experimentales de entrada y salida es presentada en dos fases: inicialmente se describe el método de identificación difusa, que indica la estructura empleada para el modelo difuso a obtener, así como el algoritmo de identificación; en la segunda fase, se presenta una aplicación en la cual se genera un controlador difuso a partir de datos experimentales de entrada y salida tomados de un proceso de presión de líquidos regulado por un controlador PI. El objetivo de esta segunda fase no es remplazar al controlador PI con un controlador difuso sino mostrar cómo la técnica de identificación difusa presentada permite generar un controlador a partir de datos experimentales de entrada y salida. De esta manera, será posible construir controladores a partir de datos generados por el control realizado por un experto humano, por ejemplo, y entonces disponer de parámetros (consecuentes singleton, funciones de pertenencia, y otros) que puedan ser ajustados para mejorar el desempeño del mismo II. IDENTIFICACIÓN DIFUSA A. Estructura del modelo difuso En la búsqueda de un equilibrio entre la aproximación numérica y la interpretabilidad del sistema difuso resultante se consideran los criterios siguientes para la selección de los parámetros [12] • Funciones de Pertenencia La partición de los universos de las variables de entrada en el proceso de aprendizaje se hace con conjuntos triangulares normalizados con solapamiento específico de 0.5. Las funciones de pertenencia triangulares permiten la reconstrucción del valor lingüístico en el mismo valor numérico, luego de aplicar un método de concreción [13]; además, el solapamiento en 0.5 asegura que los soportes de los conjuntos difusos sean diferentes. Los conjuntos difusos generados para la variable de salida son tipo singleton. • Distribución de las Funciones de Pertenencia Los conjuntos difusos triangulares de las variables de entrada se distribuyen uniformemente en cada universo respectivo de manera tal que cada uno de los elementos de los universos de discurso de cada variable debe pertenecer, al menos, a un conjunto difuso. • Operadores Para la combinación de los antecedentes se emplea un operador de combinación de la clase OWA, cuya denominación obedece a sus siglas en inglés (Ordered Weighted Averaging operators) • Método de Inferencia El método de inferencia empleado está dado por (1) donde (2) es el grado de la salida de la j-ésima regla de un sistema difuso tipo Mamdani, f(x(i)) es la función que aproxima a la función real de salida, es el valor del singleton correspondiente a la regla j, son los conjuntos difusos del antecedente de la regla j activada, y L corresponde al número de reglas activadas. El grado de salida de cada regla se calcula mediante un operador de combinación de la lógica borrosa de la clase promedio ponderado. B. Algoritmo de identificación difusa El algoritmo para generación de sistemas difusos interpretables a partir de los datos se basa en la minimización del error de inferencia. El usuario sólo debe introducir los datos de las variables de entrada y salida y el algoritmo ejecuta las siguientes acciones: • Determina los rangos de cada variable • Distribuye las funciones de pertenencia en los universos de cada variable de entrada • Ubica los consecuentes tipo singleton en el espacio de salida • Determina las reglas y Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión - Contreras, Muñoz • Ajusta la ubicación de los consecuentes y emplea mínimos cuadrados, para minimizar el error de aproximación. El algoritmo se detiene cuando se ha alcanzado una métrica de error menor a la requerida por el usuario o cuando el número de conjuntos difusos por variable de entrada es mayor a 9, para no afectar la interpretabilidad del modelo difuso obtenido [7]. La distribución de las funciones de pertenencia en cada universo de entrada se hace de manera uniforme para garantizar que la partición resultante sea suma 1; es decir, la suma de los grados de pertenencia de un dato en una variable de entrada será siempre igual a 1. Dado una colección de datos experimentales de entrada y salida , donde 179 inicio y final del universo coincidan sus vértices, con valor de pertenencia uno, con sus vértices izquierdo y derecho respectivamente, como se aprecia en la figura 2. Se inicia con n = 2 conjuntos triangulares. FIG. 2. PARTICIÓN TRIANGULAR SUMA 1. A) PARTICIÓN INICIAL, N =2; B) PARTICIÓN CON N = 5 , con es el vector de entrada p-dimensional e y(i)es el vector unidimensional de salida, el algoritmo de identificación difusa ejecuta los siguiente pasos a. Organización del conjunto de p variables de entrada y una variable de salida, cada una con N datos. d. Cálculo de los consecuentes singletons mediante el empleo del método de mínimos cuadrados. La ecuación (5) puede expresarse de la forma (3) FIG 1. ORGANIZACIÓN DEL CONJUNTO DE DATOS donde (4) b. Determinación de los rangos de los universos de cada variable de acuerdo con los valores máximos y mínimos de los datos asociados , . c. Distribución de las funciones de pertenencia triangulares sobre cada universo. Se tiene como condición general que el vértice con valor de pertenencia uno (valor modal) cae en el centro de la región cubierta por la función de pertenencia mientras que los otros dos vértices, con valor de pertenencia iguales a cero, caen en los centros de las dos regiones vecinas. Para poder aproximar eficientemente los extremos inferior y superior de una función representada por los datos, es necesario que en la partición triangular las funciones de pertenencia que cubren el La ecuación (3) puede expresarse en forma matricial como Y= Wθ+E, donde Y representa los valores de salida reales, Wθ representa la salida del modelo difuso, siendo W es la matriz de grados de pertenencia obtenida de (4) y θ el vector de consecuentes, y E es el error de aproximación que debe ser minimizado. Es decir: (5) Empleando la norma del error cuadrático se tiene (6) 180 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182 La solución a este problema de mínimos cuadrados está dada por (7) de donde se obtiene (8) controlador de velocidad de la bomba, la cual es regulada con voltaje de corriente directa de 0 a 5 voltios, proveniente del PIC, que es el controlador de presión, el cual actualmente en un controlador PI que será remplazado por el controlador difuso; PT es el transmisor de presión, que fue calibrado en el rango de [0, 5] voltios para los rangos mínimo y máximo de presión. C1 es el tanque de almacenamiento. FIG. 3. SISTEMA DE CONTROL DE PROCESO DE PRESIÓN Esta solución es válida si (W T W) es no singular, lo que quiere decir que todas las reglas deben recibir suficiente excitación durante el entrenamiento. En la práctica esto no es siempre posible, por lo que es recomendable recurrir a la aplicación de mínimos cuadrados recursivos, para garantizar que la adaptación sólo afecte las reglas excitadas e. Validación del modelo mediante el método de inferencia descrito por (1), donde es el valor del singleton correspondiente a la regla j. f. Terminar si la medida del error cuadrático medio MSE es menor a una medida previamente establecida ó si el número de conjuntos por variable de entrada es mayor a 9. De otra manera, incrementar en 1 el número n de conjuntos de la variable de entrada y volver al paso c). Con el algoritmo descrito se consigue un modelo difuso interpretable que sólo se requiere del ajuste de los parámetros del consecuente, que son tipo singleton, lo que disminuye el tiempo de entrenamiento. La precisión del modelo obtenido es determinada empleando una métrica de error (error cuadrático medio). Es posible lograr una mayor aproximación (“ajuste fino”) si al finalizar el proceso mencionado se aplica el método del gradiente descendiente para ajustar la ubicación de los valores modales de los conjuntos triangulares del antecedente, se conserva la partición suma 1 y, por lo tanto la interpretabilidad del sistema, como explica Espinosa et al. [7]. III. APLICACIÓN y VALIDACIÓN DEL MéTODO PROPUESTO Se ha utilizado el sistema didáctico en control de procesos de Lab-Volt, modelo 6090. El montaje se muestra en la Figura 3, donde HV son las válvulas de operación manual; FI es un indicador de caudal de área variable (rotámetro); SC es el Se utilizará el algoritmo de identificación difusa para generar un modelo o controlador difuso que emule la acción del controlador PI implementado en el proceso de control de presión. Inicialmente se desarrolló una experiencia, mediante un controlador PI con banda proporcional del 30% y un Ti de 0.05 min/rpt. Los datos utilizados para el entrenamiento son mostrados en la figura 4. Posteriormente se realizó otra experiencia con variaciones diferentes de la señal de referencia para tomar los datos que se emplearon para la validación, los cuales se muestran en la Figura 5. FIG. 4. DATOS DE ENTRENAMIENTO. A) VOLTAJE APLICADO A LA BOMBA --; B) REFERENCIA ▬; C) SALIDA DE PRESIÓN ─ Algoritmo para generación de Controladores Difusos Interpretables. Aplicación a un proceso de presión - Contreras, Muñoz FIG. 5. DATOS DE VALIDACIÓN. A) VOLTAJE APLICADO A LA BOMBA --; B) REFERENCIA ▬; C) SALIDA DE PRESIÓN ─ Se utilizaron como entradas al sistema difuso: las variables error actual e(k), con rango de [-5, 5] y salida de presión actual y(k), con rango [0, 5]; y como salida el voltaje aplicado a la bomba u(k), con rango [0, 5]. El controlador difuso obtenido tiene tres conjuntos triangulares por variables de entrada; por lo tanto, tiene seis consecuentes tipo singleton, ubicados en [1.9215 8.677 13.4661 -7.01 -5.22 -4.05]. Los tres primeros singletons pertenecen a la variable lingüística e(k) y tienen como etiquetas: negativo, cero y positivo; los tres siguientes pertenecen a la variable lingüística y(k) y tienen como etiquetas: bajo, medio y alto. Los conjuntos lingüístico generados son mostrados en la Figura 6. 181 y Los consecuentes tipo singleton toman valores que van de un mínimo de -7.0100 a un máximo de +13.4661. Los valores negativos se deben etiquetar como valores bajos de voltaje aplicado a la bomba. La Figura 7 muestra el desempeño del controlador difuso, aplicado al proceso de presión. FIG. 7. ACCIÓN DEL CONTROLADOR DIFUSO. A) VOLTAJE APLICADO A LA BOMBA --; B) REFERENCIA ▬; C) SALIDA DE PRESIÓN ─ FIG. 6. PARTICIONES DIFUSAS DE LAS VARIABLES DE ENTRARA ERROR E(K) Y PRESIÓN Y(K). IV. CONCLUSIONES El error cuadrático medio alcanzado en el entrenamiento fue de 0.0342 y en el proceso de validación fue de 0.04879. La salida del controlador difuso está dada por Y=Wθ, donde Se presenta un método para la identificación de sistemas a partir de datos experimentales de entrada y salida, mediante modelos difusos interpretables con ajuste de parámetros consecuentes tipo singleton mediante mínimos cuadrados. El método no requiere del empleo de otras técnicas de inteligencia artificial para su entrenamiento y aprende de manera sencilla la acción desempeñada por otro controlador o por un operador humano. El empleo de consecuentes tipo singleton no afecta la interpretabilidad del modelo difuso ya que éstos pueden ser etiquetados de acuerdo con su ubicación en el espacio de salida y con asignaciones de clara comprensión para un operador 182 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 177 - 182 humano. Por ser un procedimiento matemático, sin restricciones, el ajuste por mínimos cuadrados puede ubicar los consecuentes por fuera del espacio de salida sin que esto afecte la interpretabilidad. REFERENCIAS [1] Wang, L-x, Mendel, J.M., “Generating fuzzy rules by learning form examples”, IEEE Transactions on Systems, Man and Cybernetics, vol. 22, No 6, pp. 14141427. 1992. [2] Sugeno, M., Yasukawa, T., “A fuzzy logic based approach to qualitative modeling”. Transactions on Fuzzy Systems, vol. 1, No. 1, pp. 7-31. 1993 [3] Bezdek J. C. (1987). Pattern recognition with Fuzzy Objective Function Algorithms. Ed. Plenum Press. [4] Guztafson E. E., Kessel W. C. Fuzzy Clustering with a Fuzzy Covariance Matrix. IEEE CDC, San Diego, California, pp. 503 – 516.1979. [5] Nauck, D., Kruse, R., “Nefclass - a neuro-fuzzy approach for the classification of data”, In Proceedings of the Symposium on Applied Computing, 1995. [6] Nauck, D., Kruse, R., “Neuro-fuzzy systems for function approximation”. Fuzzy Sets and System. 101(2), pp. 261-271. Jan. 1999. [7] Espinosa, J., Vandewalle, J., “Constructing fuzzy models with linguistic integrity form numerical data-afreli algorithm”, IEEE Trans. Fuzzy Systems, vol. 8, pp. 591 – 600, Oct. 2000. [8] Sala, A. (1998). Validación y Aproximación Funcional en Sistemas de Control Basados en Lógica Borrosa. Universidad Politécnica de Valencia. Tesis Doctoral. [9] Sala, A., Albertos, P., Inference error minimisation: fuzzy modelling of ambiguous functions. Fuzzy Sets and Systems, 121 (2001) pp. 95 – 111. 2001 [10] Díez J. L., Navarro J. L., Sala A. (2004). Algoritmos de Agrupamiento en la Identificación de Modelos Borrosos. RIAI: Revista Iberoamericana de Automática e Informática Industrial. [11] Paiva, R. P., Dourado, A., “Interpretability and learning in neuro-fuzzy systems”, Fuzzy Sets and System. 147(2004), pp. 17-38. 2004. [12] Contreras, J., Misa, R., Paz, J., Building Interpretable Fuzzy Systems: A New Methodology. In proceedings of Electronics, Robotics and Automotive Mechanics Conference CERMA 2006. IEEE Computer Society. Pp.: 172-178. Nov. 2006 [13] Pedriycz, W. Why Triangular Membership Functions?, IEEE Trans. Fuzzy Sets and System, vol. 64, pp.21-30, 1994. Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil Diego A. Tibaduiza Burgos MSc. en Ingeniería área Electrónica, Universidad Industrial de Santander Investigador Grupo CEMOS, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Jaime G. Barrero Pérez MSc. en Potencia eléctrica, Universidad Industrial de Santander Docente Tiempo Completo, Investigador Grupo CEMOS, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Roberto Martínez Ángel PhD en Ingeniería Universidad Industrial de Santander Docente Emérito, Investigador Grupo CEMOS, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Resumen— El planeamiento de caminos y la generación de trayectorias son dos aspectos relevantes al momento de dotar a un robot móvil de independencia para su movimiento en un espacio de trabajo. La utilidad de estas técnicas radica en la inclusión de variables como el tipo de sensores usados, la configuración física del robot y su entorno, este último, puede ser fijo o cambiante entre otros aspectos, con las cuales es posible obtener soluciones que brindan robustez al trabajo de dotar de autonomía a los robots. algorithms for obtaining the paths. For the evaluation of the strategies was designed a platform that include an artificial vision system, wireless communication and mobile robots with differential configuration. En este artículo se presentan dos algoritmos para el planeamiento de caminos en un robot móvil de configuración diferencial, aunque como se verá es posible generalizarse a otras configuraciones. La primera de estas técnicas está basada en una emulación de la metodología conocida como campos de potencial y la segunda hace uso de los algoritmos genéticos para la obtención de los caminos. En la evaluación de las estrategias planteadas se muestran los resultados de la implementación en software basadas en un entorno físico en el que interactúan un sistema de visión artificial, transmisión inalámbrica y uso de robots móviles tipo diferencial. La robótica es un campo de amplias perspectivas para el desarrollo industrial que en un tiempo relativamente corto, podría permitir a los países en desarrollo apropiarse de técnicas que los hagan más competitivos. En este sentido las universidades por medio de sus centros de investigación juegan un papel importante tanto en el desarrollo de prototipos como de algoritmos. De manera general, a nivel industrial, el concepto de robot se aplica en mayor medida a los robots manipuladores que desde hace ya varios años realizan tareas en procesos repetitivos que demuestran su eficacia en aspectos tales como precisión, funcionamiento ininterrumpido y manejo de cargas de gran peso. Otro tipo de robots un poco menos conocido pero cuya presencia y uso van en aumento, lo constituyen los robots móviles autoguiados o como son conocidos por sus siglas en inglés AGV [1] [2] [3], los cuales son, entre muchas aplicaciones [4], capaces de mover elementos de gran peso dentro de un entorno que puede ser cambiante. Palabras clave— algoritmos genéticos, campos de potencial, planeamiento de caminos, robots móviles. Abstract— The path planning and the trajectory generation are two important aspects for provide autonomy to a mobile robot. Adding variables as the type of sensors used, the physical configuration of the robot and its environment either fixed or changing and other is possible to provide robust solutions that work to provide autonomy to the robots. This article presents two algorithms for path planning in a mobile robot with differential configuration, although as will be shown can be generalized to other configurations. The first of these techniques is based on an emulation of the methodology known as potential fields and the second makes use of genetic Keywords— Genetic algorithms, potential fields, path planning, mobile robots. I. INTRODUCCIÓN Recibido: 01/09/2011/ Aceptado: 10/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192 184 IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192 En este artículo se presentan los resultados obtenidos en una tesis de maestría [6], en la que se implementaron dos algoritmos para el planeamiento de trayectorias de un robot móvil en un ambiente cambiante. En esta plataforma se en encuentra otro robot, el obstáculo móvil y la presencia de varios obstáculos fijos. El objetivo es llevar al móvil desde el punto origen hasta el punto destino dentro del área de trabajo y evitar todo tipo de colisiones. El lazo de realimentación lo constituye una cámara de video que permite determinar en todo instante la posición de los dos robots y la de los obstáculos estacionarios. II. PLANEAMIENTO DE TRAyECTORIAS Una de las tareas más importantes en robótica móvil es el planeamiento de la trayectoria, ya que esta le confiere al robot la capacidad de movimiento autónomo para ejecutar sus tareas. La programación del movimiento del robot se descompone en dos partes: el planeamiento de caminos y la de trayectorias. El planeamiento de caminos consiste en generar una ruta libre de colisiones en un ambiente con obstáculos y su optimización con base en algún criterio. El planeamiento puede realizarse off-line cuando el ambiente es estático, es decir, cuando el espacio de trabajo permanece sin variaciones para toda la trayectoria, mientras que cuando el espacio de trabajo cambia continuamente y obliga al algoritmo a generar respuestas ante estos cambios la planificación debe realizarse on-line. La planeación de trayectorias consiste en fijar el movimiento de un robot móvil a lo largo de un camino planeado. Existen numerosos métodos para la planeación del movimiento de un robot móvil en ambientes estacionarios, pero pocos se han desarrollado para planeamiento del movimiento on-line en un escenario variante o en un terreno desconocido. En este artículo se describen dos algoritmos para planeamiento on-line, uno de ellos basado en algoritmos genéticos y el otro en campos de potencial. A. Algoritmos genéticos Los algoritmos genéticos forman parte de lo que se conoce como inteligencia artificial, y están fundamentados en la teoría de la evolución. Esta se basa en los mecanismos de selección que uti- liza la naturaleza, en donde los individuos más fuertes de una población son los que sobreviven. De la genética se sabe que la manera mediante la cual estas adaptaciones al medio se transmiten de un individuo a su descendencia son los genes; los cuales son una estructura biológica que contiene información acerca del medio y las habilidades desarrolladas por sus ancestros. La implementación de un algoritmo genético simple implica tener presente características tales como la reproducción, cruce y mutación. Para realizar estas etapas el algoritmo debe ser codificado en cadenas que se llaman cromosomas, cada una conformada por elementos característicos denominados genes. • Codificación Si se piensa en una trayectoria, lo primero que se debe realizar es acotarla en términos de sus componentes fundamentales (genes). Para lograr esta tarea se debe definir una codificación binaria, de forma tal que permita ordenar, como cromosomas, cualidades tales como su dirección en el plano cartesiano y la distancia que le tomaría para ir de un punto a otro. Los cromosomas escogidos [16][17],[19] representan: monotonía de la trayectoria en x y y: cromosoma a; dirección: cromosoma β; y distancia: cromosoma δ. La estrategia de codificación de los genes para los cromosomas es la que se observa en la Tabla I. TABLA I Codificación de cromosomas Cromosoma Codificación Característica que representa a 0 Monótono en x (Mx) 1 Monótono en Y (MY) 00 Vertical para Mx y horizontal para MY 01 Diagonal superior para Mx Diagonal izquierda para MY 10 Horizontal para Mx Vertical para MY 11 Diagonal Inferior para Mx Diagonal derecha para MY β δ Según ecuación (1) Fuente: [6],[17] y [19] El número de genes del cromosoma δ, está dado por la ecuación (1). Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza, Barrero, Martínez 1+ log2 N = GenesCromosomaˍδ (1) Donde N es el número de celdas que representen el territorio a cubrir por el robot móvil. Cada pareja dirección-distancia, representa pasos de distancia variable (parejas β - δ). Cuando el cromosoma de dirección es codificado en “00” el cromosoma δ puede ser positivo o negativo, es decir, el primer gen de este cromosoma es 0 para positivo o 1 para negativo. Si es positivo y el individuo es Mx representará una vertical positiva hacia arriba seguida de una diagonal superior derecha, si es negativo representará una vertical hacia abajo seguida de una diagonal inferior derecha. Si es positivo y el individuo es MY representará una horizontal positiva hacia la derecha seguida de una diagonal inferior derecha, si es negativo representará una horizontal negativa hacia la izquierda seguida de una diagonal inferior izquierda. La Figuras 1 y 2 muestran la distribución de cada cromosoma. FIG. 1. EJEMPLO DE TRAYECTORIA CODIFICADA Fuente: [6], [19] FIG. 2. MÉTODO DE CRUCE Fuente: [6], [19] 185 B. Campos de Potencial Esta metodología ha sido ampliamente aplicada en robótica durante varios años con éxito [5],[6],[8-13]. Esencialmente, esta metodología trata a todos los elementos del área de trabajo como elementos sometidos a fuerzas de atracción y de repulsión. El objetivo o punto de llegada se considera como una carga o el polo de un imán con polaridad contraria a la del móvil, es decir, que tiene una fuerza de atracción, mientras que los obstáculos se comportan como cargas o imanes de igual polaridad que generan, por tanto, fuerzas de repulsión. Con esta definición del área de trabajo, se procede a llevar al móvil sobre el escenario según un gradiente hacia el objetivo y evita los obstáculos [13]. Normalmente esta metodología se realiza con funciones que involucran el uso de funciones gradientes, las cuales hay que programar en el momento de su utilización y que deben estar de acuerdo con las características propias de la aplicación. Como se verá la metodología que se propone en este artículo es una forma alternativa de generar campos de potencial de manera simple y de gran utilidad y que puede ser adaptable tanto al planeamiento on-line como al off-line, sin necesidad de realizar cambios significativos en la programación, pues únicamente va a depender de las coordenadas actuales o instantáneas de los obstáculos. En este trabajo la obtención de las coordenadas sólo se va a ver afectada por el tiempo de actualización de los datos obtenidos del procesamiento de las imágenes mediante el algoritmo de visión artificial. Para su implementación, es necesario tener en cuenta las siguientes consideraciones: • Existe una “discretización” del terreno. • Cada punto de la pista se considera afectado por un valor numérico que indica la relación de este con el punto de llegada. De esta manera cada celda definida posee un potencial que determina si la trayectoria puede pasar o no por allí. • De acuerdo a la distribución numérica asignada, la trayectoria se hace de acuerdo a un potencial descendente • El algoritmo puede ser on-line si se actualizan periódicamente los valores detectados, 186 IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192 por ejemplo, en esta investigación por una cámara o puede ser off-line si se posee la información de la ubicación de los obstáculos al comienzo del programa, con lo cual sólo va a ser necesario generar un camino, sin tener que revisar si algún obstáculo ha entrado en la trayectoria planeada. • El algoritmo es ajustable al área de trabajo. Con esto se trata de generar algo de robustez lo cual permite usar el mismo programa para diferentes tamaños de pista. En este caso el área de trabajo quedaría definida por las características del sistema de visión tales como altura de la cámara y lentes usados. En el caso de planeamiento on-line, la velocidad de actualización del algoritmo va a depender del tiempo que demore la actualización de los datos de la pista, es decir, el tiempo de respuesta del algoritmo de visión. También dependerá tanto del lenguaje usado como de la velocidad de procesamiento del computador. De manera general es posible realizar la implementación de esta metodología en 4 etapas. La primera consiste en discretizar en una matriz el área de trabajo y por tanto definir cada elemento de la matriz como un espacio físico en la aplicación real, en esta etapa se ubican adicionalmente en la matriz elementos tales como obstáculos, ubicación inicial del móvil y ubicación final, ver Figura 3. Como paso siguiente se genera el potencial para el punto de llegada, para esto se empieza a llenar la matriz de forma radial de tal forma que si por ejemplo al punto de llegada se le asigna el valor de “0” los elementos adjuntos en la matriz tendrán un valor de “1”, los siguientes “2” y así sucesivamente como se muestra en la Tabla II. se usaron para rellenar el campo para el punto de llegada (Tabla III). TABLA III Campo de potencial alrededor de un obstáculo 49 49 49 49 49 49 50 50 50 49 49 50 200 50 49 49 50 50 50 49 49 49 49 49 49 Fuente[6] Para incluir los obstáculos es necesario tener en cuenta las siguientes características: El obstáculo posee un área efectiva propia de sus dimensiones, a través de la cual no se puede realizar una trayectoria porque habría colisión. En el caso de la Tabla 3 el obstáculo se representa con el número “200”. Cuando el obstáculo tiene una forma irregular se debe considerar una zona de riesgo (ver Tabla 3) para impedir que en el cálculo de la trayectoria exista una trayectoria que pueda ocasionar una colisión. Otro tipo de zona de riesgo muy frecuente se presenta cuando dos obstáculos están muy cerca uno del otro. Existe la posibilidad de que el algoritmo genere una trayectoria que pase por entre los obstáculos, sin tener en cuenta que las dimensiones del móvil no permitan realizar esta operación. Si se desea que el móvil no se salga de un área determinada, se deben definir como obstáculos las orillas de la zona. En la Figura 3 se muestra un ejemplo en el que se tiene la presencia de un solo obstáculo. FIG. 3. VISTA GENERAL DEL ÁREA DE TRABAJO TABLA II Potencial alrededor del punto de llegada 3 3 3 3 3 3 3 3 2 2 2 2 2 3 3 2 1 1 1 2 3 3 2 1 0 1 2 3 3 2 1 1 1 2 3 3 2 2 2 2 2 3 3 3 3 3 3 3 3 Fuente:[6] Posteriormente se procede a ubicar los obstáculos en la matriz, para esto se usan valores diferentes y muy grandes en comparación a los que Fuente:[6] Finalmente, el movimiento se hace al mover el móvil desde el punto de inicio al punto de llegada y se evalúa cuál elemento de la matriz a su alrededor posee la menor magnitud. Para probar esta estrategia, se desarrolló una plataforma de pruebas, ver Figura 4, en la que se Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza, Barrero, Martínez involucraron 2 robots móviles tipo diferencial [18], ver Figura 5, uno de ellos para realizar el planeamiento y el otro utilizado como obstáculo y cuyo movimiento se programó de manera aleatoria sobre el área de trabajo. FIG. 4. PLATAFORMA DE PRUEBAS Fuente:[6] FIG. 5. ROBOTS MÓVILES USADOS Las imágenes captadas por la cámara son digitalizadas mediante una tarjeta de compresión de video PCI de 32 bits DFG/Compress y posteriormente procesadas mediante un algoritmo de visión artificial, el cual permite determinar la posición de cada objeto dentro de la pista. Estas coordenadas son enviadas a los algoritmos de planificación para el cálculo de las trayectorias. • Método basado en Color Los algoritmos de detección y segmentación de movimiento basados en el reconocimiento del color, distinguen el color de los objetos de interés presentes en la escena para realizar su segmentación. Se implementaron dos modelos de color el xyY y HLS [14] para realizar la detección [6], [15], [20]. La principal razón para elegir estos modelos radica en que tanto la información cromática como la de brillo son separadas en componentes distintas, lo cual hace a estos modelos robustos ante los cambios de iluminación que se presenten en el escenario. Además, al realizar detección solamente en las componentes que contienen la información cromática, el tiempo en la segmentación disminuye, lo cual disminuye también el tiempo total de procesamiento. De manera general la metodología para el cálculo de los objetos en la escena se muestra en la Figura 7. FIG. 7. DIAGRAMA DE FLUJO PARA EL ALGORITMO DE COLOR Fuente:[6] La plataforma usada es de madera y fue pintada con color negro mate para evitar brillos o sombras que puedan dar falsas lecturas al algoritmo de visión artificial (ver Figura 6). FIG. 6. VISTA DEL ÁREA DE TRABAJO Fuente:[6] Para determinar la posición y orientación de los robots y los obstáculos se utilizó una cámara ubicada dos metros por encima de la plataforma de madera para cubrir todo el entorno de trabajo. 187 Fuente:[6] 188 IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192 • -Comunicación La trayectoria calculada con los algoritmos de planificación de trayectorias son codificadas para su envío al móvil mediante radiofrecuencia [6],[18]. Se usan paquetes de 8 bits, 3 para definir la dirección y 8 para definir la distancia movilizada (ver Tabla IV). FIG. 9. CAMINO ExITOSO SIN ZONAS DE RIESGO EN LOS OBSTÁCULOS III. RESULTADOS OBTENIDOS A continuación se presentan algunos de los resultados obtenidos mediante los algoritmos desarrollados y que fueron ejecutados en la plataforma de pruebas. A. Planeamiento con Algoritmos Genéticos En las Figuras 8, 9 y 10 se presenta una serie de trayectorias generadas por el Algoritmo Genético con 3 obstáculos en diferentes posiciones y con diferentes tamaños de matriz para la emulación del área física de trabajo. Fuente:[6],[19] FIG. 10. CAMINO ExITOSO CON GRILLA DE 32 CELDAS, CONSIDERANDO ZONAS DE RIESGO, GENERACIÓN 205 TABLA IV Codificación para el envío por radiofrecuencia Byte Descripción 000xxxxx Horizontal derecha 001xxxxx Diagonal inferior derecha 010xxxxx Vertical inferior 011xxxxx Diagonal inferior izquierda 100xxxxx Horizontal izquierda B. Planeamiento con Campos de Potencial 101xxxxx Diagonal superior izquierda 110xxxxx Vertical superior 111xxxxx Diagonal superior derecha Para el algoritmo de campos de potencial se presenta en las Figuras 11, 12 y 13 los resultados al incrementar el número de los obstáculos desde 1 hasta 6. En este caso el tamaño del área de trabajo se mantuvo constante. Fuente:[6] FIG. 8. CAMINO ExITOSO SIN ZONAS DE RIESGO EN LOS OBSTÁCULOS, GENERACIÓN 20 Fuente:[6],[19] Fuente:[6],[19] FIG. 11. ALGORITMO DE CAMPOS DE POTENCIAL CON UN OBSTÁCULO Fuente:[6] Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza, Barrero, Martínez FIG. 12. ALGORITMO DE CAMPOS DE POTENCIAL CON TRES OBSTÁCULOS Fuente:[6] FIG. 13. ALGORITMO DE CAMPOS DE POTENCIAL CON SEIS OBSTÁCULOS 189 el número de generaciones y el tiempo de cálculo computacional. Esta relación permite usar el algoritmo genético en escenarios on-line para permitir una respuesta adecuada que permita al móvil responder ante cambios en el espacio de trabajo. En este sentido, encontrar la mejor trayectoria suele requerir en algunos casos de elevados tiempos de procesado (del orden de minutos), mientras que campos de potencial requiere siempre el mismo tiempo de procesado para una configuración de espacio de trabajo definida. Finalmente, para realizar una comparación entre las trayectorias obtenidas con los dos algoritmos se muestra en la Figura 14 el resultado de los algoritmos para una configuración con tres obstáculos. Como puede observarse, ambos algoritmos logran ir de la posición de inicio a la posición final esquivando los obstáculos. La diferencia radica en el número de pasos definidos para llegar al objetivo, en este caso en particular campos de potencial presenta una trayectoria más corta. FIG. 14. PLANEAMIENTO CON LOS DOS ALGORITMOS PARA UNAS MISMAS CONDICIONES DE ENTORNO (EN ROJO: CAMPOS DE POTENCIAL, EN NEGRO: ALGORITMOS GENÉTICOS) Fuente:[6] C. Análisis comparativo de los algoritmos Como pudo apreciarse en las Figuras anteriores, ambos algoritmos permiten realizar el planeamiento de trayectorias de manera satisfactoria. Al comparar las dos técnicas se pueden resaltar los siguientes aspectos, el primero de ellos tiene que ver con la repetitividad de la trayectoria obtenida. Este aspecto es bastante relevante puesto que, por ejemplo, para el caso de un área de trabajo estática es posible obtener siempre la misma trayectoria mediante el algoritmo de campos de potencial acá presentado, mientras que con algoritmos genéticos dada la aleatoriedad del proceso se tienen resultados diferentes cada vez que se calcula la trayectoria con los mismos parámetros de entrada. El resultado, a su vez, depende de la configuración que se defina en los parámetros del algoritmo genético, obteniéndose trayectorias aceptables en diferentes números de generaciones para cada ejecución del programa. Otro aspecto relevante corresponde al tiempo de cálculo de la trayectoria. En el caso del algoritmo genético se debe buscar un equilibrio entre Fuente:[6] IV. TIEMPO DE LATENCIA Puesto que los algoritmos planteados para el caso de los entornos dinámicos recalculan la trayectoria de acuerdo a los cambios que se encuentren en el espacio de trabajo, es importante, para mostrar la viabilidad de su implementación, tener en cuenta los tiempos de procesamiento tanto del sistema de visión artificial como el de los algorit- 190 IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192 mos de transmisión inalámbrica serial, ver Tablas V, VI y VII. Los datos de la Tabla V, VI y VII fueron obtenidos mediante un PC con las siguientes características: Sistema Operativo: Microsoft Windows xP Profesional versión 2002. Procesador: Pentium 4 de 1.50 Ghz. Memoria RAM: 256 MB. Para valorar los tiempos de ejecución de los programas basados en algoritmos genéticos y en campos de potencial en encontrar una trayectoria aceptable antes de su envío al robot móvil, se realizaron once ejecuciones de los algoritmos bajo las mismas condiciones. Las Tablas VI y VII muestran estos tiempos. TABLA V Tiempo de latencia del sistema de visión artificial Método Correlación Tiempo de latencia (s) xyy Gradientes xyy hLS hLS xyy hLS Adquisición 0.0735 0.0735 0.0735 0.0735 0.0735 0.0735 Procesamiento 0.8108 0.3018 0.9926 0.1661 0.7742 0.3000 Total 0.8821 0.3748 1.0643 0.2429 0.8515 0.3712 Fuente:[6],[20] TABLA VI Tiempos computacionales para el a.g. TIEMPO POR GENERACIÓN EN SEGUNDOS TIEMPO TOTAL PARA OBTENER UNA RESPUESTA ÓPTIMA EN SEGUNDOS 0.054 9.2 0.0071 4.3 0.0069 2 0.0067 4.7 0.0058 12.2 0.0063 5.1 0.0078 0.8 0.0076 4.6 0.0063 9.6 0.0065 7.9 0.0062 11.2 Fuente:[6],[19] TABLA VII Tiempos computacionales para campos de potencial TIEMPO TOTAL PARA OBTENER UNA RESPUESTA ÓPTIMA EN SEGUNDOS 3.2 Fuente:[6] Como puede verse en las Tablas, los tiempos de cálculo son relativamente altos y según la apli- cación podrían detectar a tiempo si hay algún obstáculo en la trayectoria y recalcularla para llevar al móvil a su objetivo final. V. CONCLUSIONES Los algoritmos implementados, presentan buenos resultados en la búsqueda de trayectorias libres de colisión en un ambiente de trabajo previamente definido. Para esto la plataforma desa- Planeamiento de caminos y trayectorias mediante algoritmos genéticos y campos de potencial para un robot móvil - Tibaduiza, Barrero, Martínez rrollada y el algoritmo de visión jugaron un papel fundamental permitiendo comprobar que físicamente es posible implementar estos algoritmos y trabajar con ellos de manera on-line y off-line como se mostró con los tiempos de latencia. El planeamiento con algoritmos genéticos dados su función de coste y la forma como se codifica la trayectoria brinda excelentes resultados aunque estos no siempre se obtienen en la misma generación. Debido a su naturaleza aleatoria, el número de iteraciones necesarios para encontrar una solución no sólo es diferente, incluso para el mismo escenario, sino impredecible, razón por la cual esta técnica no sería la más adecuada, especialmente si la velocidad del obstáculo móvil es elevada. Por otra parte, el planeamiento de trayectorias basado en campos de potencial es una alternativa sencilla y eficiente, que aunque, en esta investigación, no usó métodos de optimización para encontrar la mejor trayectoria, si permite por su simplicidad una rápida y fácil implementación. Únicamente es necesario asignar unos pesos a toda el área de trabajo para seguir las celdas con valores numéricos más pequeños y encontrar el punto de llegada. Es posible ejecutar el programa de planeamiento de trayectorias de campos de potencial para ambientes estáticos o para ambientes dinámicos, lo único que cambia en el algoritmo es la velocidad en la actualización de los datos y la velocidad del procesamiento por parte de los sensores. El tamaño de la pista, el número de obstáculos, el punto de inicio y de llegada son ajustables en ambos algoritmos, lo que los hace más robustos y adaptables a cualquier terreno 2D. El usar zonas de riesgo en ambos algoritmos permitió que las trayectorias obtenidas manejaran una distancia con respecto a los obstáculos para evitar choques. La trayectoria obtenida en los dos algoritmos depende básicamente de la definición de las zonas de riesgo y del tamaño del móvil. Es posible hacer que cada elemento de la matriz represente un área dentro de la pista, así como también para el caso de terrenos pequeños hacer que cada coordenada (x,y) corresponda a un elemento de la matriz. 191 Cada vez que se evalúa hacia dónde se va a realizar el siguiente movimiento el algoritmo arroja la dirección para poder ser enviada al móvil donde se interpretará y se ejecutará. REFERENCIAS [1] Corecon AGV Systems. Disponible: http://www.coreconagvs.com/index.php. Consultada: Septiembre 30 de 2011. [2] AMERDEN Inc. Disponible http://amerden.com/index.html. Consultada: Septiembre 30 de 2011 [3] Robótica de Servicios. Disponible: http://www.roboticadeservicios.com/robots_transporte.html. Consultada: Septiembre 30 de 2011. [4] BBC News. Disponible: http://www.bbc. co.uk/ news/10344849. Consultada: Septiembre 30 de 2011. [5] D.A. Tibaduiza, M. Anaya. “Campos de Potencial aplicados al planeamiento de caminos en robots móviles”. Revista de Ingeniería. Vol. 1 No. 3, Ene 2007. [6] D.A. Tibaduiza. “Planeamiento de Trayectorias de un robot móvil”. Trabajo de investigación de maestría. Directores: R. M. ´Ángel, J. Barrero. Universidad Industrial de Santander. 2006. [7] Anibal Ollero Baturone, Robótica, Manipuladores y robots móviles. Alfaomega, Marcombo, 2001. [8] R. Daily, D.M. Bevly. “Harmonic potential field path planning for high speed vehicles”. Proceedings of American Control Conference, 2008. Seatle, WA. ISSN: 0743-1619. [9] C.W. Warren. “Global path planning using artificial potential fields”. Proceedings of IEEE International Conference on Robotics and Automation, 1989. Pp. 316319. ISBN: 0-8186-1938-4. [10] H. xiaoxi. “Path Planning Based on Grid-Potential Fields”. Proceedings of International Conference on Computer Science and Software Engineering. 2008. Pp. 1114-1116. [11] Paul A. Vallejos, Javier Ruiz-del-Solar, Alan Duvost. “Cooperative Strategy using Dynamic Role Assignment and Potential Fields Path Planning”. Proceedings of the 1st IEEE Latin American Robotics Symposium – LARS 2004, Mexico City, Mexico. October 28 – 29, 2004. [12] Laue, T., Röfer, T. (2005). Behavior Architecture for Autonomous Mobile Robots Based on Potential Fields”. In: 8th International Workshop on RoboCup 2004 (Robot World Cup SoccerGames and Conferences), Lecture Notes in Artificial Intelligence. Springer, im Erscheinen. 192 IITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 183 - 192 [13] D.A. Tibaduiza, N. Chio. “Metodologías de campos de potencial para el planeamiento de trayectorias de Robots Móviles”. Revista Colombiana de Computación, 2008. Vol. 9. No. 2. Pp. 104-120. [14] G. Pajares, J. De la Cruz. “Visión por Computador: Imágenes Digitales y Aplicaciones”. Editorial Alfaomega. 2002 [15] D.A. Tibaduiza, R.M Ángel, Y. D. Amaya, J. Ruiz. “Localización Dinámica de Móviles y Obstáculos para Aplicaciones en Robótica”. Revista Colombiana de Computación. Vol. 8 No. 1. Pp. 93-120. [16] K. Suguihara, J. Smith. “Genetic Algorithms for Adaptative motion planning of an autonomous mobile robot”. Proceedings of IEEE International Symposium on Computational Intelligence in Robotics and Automation. 1997. [17] K. Suguihara, J. Smith. “Genetic Algorithms for Adaptative Planning of Path and Trajectory of a Mobile Robot in 2D Terrain”. IEICE Transactions on Information and Systems. Vol. E82-D No. 1 pp. 309-317. 1999. [18] C. H. Torres, E. Y. Mendoza. Control de dos móviles en un entorno dinámico. Trabajo de grado, Directores: R. M. Ángel, D.A. Tibaduiza. Universidad Industrial de Santander. 2006. [19] O. Navas, J. N. Ortiz. Algoritmos genéticos aplicados al planeamiento de trayectorias de un robot móvil. Trabajo de grado. Directores: R.M. Ángel, D.A. Tibaduiza. Universidad Industrial de Santander, 2006. [20] Y. Amaya, J. Ruiz. Localización Dinámica de Móviles y Obstáculos para Aplicaciones en Robótica. Trabajo de grado. Directores: R.M. Ángel, D.A. Tibaduiza. Universidad Industrial de Santander, 2005. Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular Aura Liliana Beltrán Blanco Ingeniera Electrónica Universidad Industrial de Santander Investigadora grupo RadioGIS UIS Bucaramanga, Colombia [email protected] homero Ortega Boada Ph.D. of Engineering Sciences Kyiv International University of Civil Aviation, Ucrania, Profesor Titular Universidad Industrial de Santander Bucaramanga, Colombia [email protected] Celso Andrés Forero F. M.Sc.(c) Ingeniería área electrónica Universidad Industrial de Santander Investigador grupo RadioGIS UIS Bucaramanga, Colombia [email protected] César Camilo Rodríguez S. M.Sc.(c) Ingeniería área electrónica Universidad Industrial de Santander Investigador grupo RadioGIS UIS Bucaramanga, Colombia [email protected] Resumen— Una de las principales necesidades, actualmente en Colombia, tiene lugar en el proceso de planeación de redes inalámbricas, por lo cual mediante el proyecto Gisgerram se busca crear un servicio de telecomunicaciones que permita la planificación de redes de antenas celulares a través de un servidor remoto. Sin embargo, para poder lograrlo es necesaria primero la verificación de las herramientas que serán usadas para este servicio. Dentro de este macroproyecto se desarrolló el CellGis, en este artículo se describe la validación de dicha herramienta en la región andina, mediante la ejecución de campañas de medición real de potencia en 4 zonas de Bucaramanga, y el contraste con las simulaciones arrojadas por CellGis con el fin de analizar el funcionamiento del simulador de radiopropagación con el algoritmo AndinoUis implementado, lo cual permitió la deducción de falencias. De esta forma, se realizaron las modificaciones necesarias para la correcta utilización del patrón de radiación, mediante las mediciones se determinaron algunos efectos que el algoritmo no tiene en cuenta, de forma que en trabajos futuros se puedan programar e implementar nuevos algoritmos que incluyan dichos factores. Paralelamente, se tomaron mediciones de radiación no ionizante en diferentes zonas de Bucaramanga, y posteriormente se verificaron los valores obtenidos con las normas que regulan la exposición con el fin de comprobar su debido cumplimiento. this article describes the validation of that tool in the andina region, measurement campaigns were conducted in 4 bucaramanga’s zones, and by comparing them with the simulations in cellgis ,the functioning of the stimulator of the radio propagation was analyzed with the implemented andinouis algorithm, where the shortcomings were detected and the adjustments were made through plugin-improvements, so that the algorithms which include the described factors could be programmed and implemented in future assignments, radiation measurements were conducted in some bucaramanga’s zones, then the values obtained were were checked with the rules governing the exposure, with the purpose of to verifying its compliance. Palabras clave— CellGis, Modelo de Propagación AndinoUIS, Radiación no Ionizante, Radio propagación, Servicio de Telecomunicaciones. Abstract— One of the principal needs nowadays in colombia is in the field of wireless network planning, given this situation the gisgerram project has the aim to create a telecommunications service that allows network planning from cellular antennas via a remote server, however to be able to achieve this, it is necessary first to verify the tools that will be used for this service. cellgis was developed within this macro-project , therefore, Keywords— CellGis, Non-Ionizing Radiation, Propagation Model AndinoUIS, Radio propagation, Telecommunication Service. INTRODUCCIÓN Este artículo está motivado por un trabajo realizado con el fin de implementar correctamente un algoritmo del modelo de propagación AndinoUIS, desarrollado por el grupo RadioGis de la Universidad Industrial de Santander [1], [2], sobre la herramienta de planeación de redes de radio denominada CellGis, desarrollada por el grupo I2T de la Universidad ICESI [3]. El modelo es un aporte a las simulaciones que se realizan en las ciudades ubicadas en la región Andina, caracterizadas por un relieve montañoso. CellGis es una herramienta que exige la implementación en Java de los algoritmos para los modelos de propagación. Para el caso del modelo AndinoUIS, la implementación en Java se describe en [4], cuyo Recibido: 25/06/2011/ Aceptado: 04/10/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203 194 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203 trabajo referenciado no presenta una validación completa con mediciones reales. Por esta razón, se busca no sólo describir el modelo AndinoUIS, su implementación sobre CellGis, sino también su validación en una red real gracias al apoyo del operador TIGO. Finalmente, se comprueba la viabilidad de usar el Algoritmo AndinoUIS dentro de la herramienta CellGis. La importancia de este trabajo es independiente de CellGis, ya que el algoritmo propuesto puede implementarse en cualquier otra herramienta de simulación de radiopropagación. Se describe el modelo AndinoUis, de igual forma, se demuestra su validez y se brindan resultados que reflejan lo que puede esperarse de su implementación para simular la radiopropagación en ciudades con relieve ondulado como ocurre en la región andina. II. hERRAMIENTA CELLGIS CellGis es una herramienta desarrollada en el lenguaje Java y basada en Sistemas de Información Geográfica (GIS), que permite probar e introducir diversos modelos de radiopropagación para la simulación de coberturas de potencia a partir de información geográfica que se carga digitalmente en un GIS. Es un sistema para planificación de redes celulares que brinda al usuario la posibilidad de generar un archivo de proyecto con la configuración de la red celular. Es totalmente transportable entre plataformas y equipos donde esté instalado el sistema, ocupa muy poco espacio en disco debido al uso del estándar ZIP16 que comprime los datos, y reduce el tamaño de los archivos que genera. Durante dos años, se ha trabajado en el proyecto CellGis, la herramienta incorpora manejador de cartografía avanzado. Igualmente, se ha incorporado un algoritmo para la estimación de niveles de radiación no ionizante, según la norma ITU-T K.52. El principal objetivo de la aplicación es permitir al usuario crear una o varias redes de transmisores de comunicación inalámbrica representadas como puntos ubicados sobre un mapa; para luego, por medio de algoritmos especiales que representa a los modelos de propagación, predecir el nivel de señal originado por esta(s) red(es), y desplegar los resultados gráficamente (Figura 1) o en forma de archivo. FIG. 1. INTERFAZ HERRAMIENTA CELLGIS EL MODELO ANDINOUIS El modelo de propagación AndinoUIS es un aporte del grupo RadioGis en cooperación con el grupo I2T que combina el modelo COST231, una modificación del modelo Walfisch-Ikegami y elementos de la Teoría de Difracción Uniforme (UTD) para tener en cuenta fenómenos particulares detectados en ciudades ubicadas en terreno con ondulaciones, característico de ciudades de la región andina. El nivel de predicción dado por el modelo COST231-Walfisch-Ikegami es mejorado según parámetros adicionales que consideran los fenómenos de Difracción en la propagación establecidos en la Recomendación P. 526 de la Unión Internacional de Telecomunicaciones (ITU). A. Formulación del modelo AndinoUIS Al igual que el COST231-Walfisch-Ikegami, el modelo AndinoUis distingue entre situaciones de línea de vista (LOS) y sin línea de vista (NLOS) [2]. • Caso de LOS: En este caso la frecuencia y la distancia son los parámetros importantes al momento de calcular las pérdidas en el espacio libre, las distancias a considerar deben ser mayores a 20m (d es expresada en Km y f en MHz). L(dB)=42.6+26log(d)+20log(f) • Caso de NLOS: En este caso el modelo tiene en cuenta pérdidas por espacio libre (Lo), pérdidas por difracción de múltiples filos de cuchillo antes del techo del último edificio (Lmsd), pérdidas ocasionadas por el techo del último edificio y un proceso de dispersión Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega, Forero, Rodríguez ocurrido a esta altura (Lrts) y pérdidas por difracción en los cruces de calles (Lcv). 195 La formulación UTD está dada por: Lb=L0+Lrts+Lmsd para Lrts+Lmsd>0 En las pérdidas por espacio Libre (Lo) sólo es relevante la frecuencia de transmisión y la distancia mínima entre transmisor-receptor. B. Difracción de Convergencia de Vías: Una convergencia de vías corresponde al área de intercepción de dos calles/ carreras en un entorno urbano o un entorno formado por un conjunto de esquinas (Figura 2), el número de esquinas lo determina la forma de la vía. Existen dos formas básicas que son en forma de cruz (cuatro esquinas) o en forma de T (dos esquinas). FIG 2. CONVERGENCIA DE VÍAS eUTD: Magnitud de campo en el punto receptor e0: Magnitud de campo de la fuente S1: Distancia fuente a la esquina de difracción S2: Distancia de esquina de difracción a punto receptor k: Número de onda D║┴: Coeficiente de difracción. La Teoría de la Difracción Uniforme proporciona una herramienta efectiva para predecir la difracción en las convergencias de vías. Sin embargo, su implementación sólo se logra en programas de predicción basados en el trazado de rayos (ray-tracing) como por ejemplo, el CRC- Predicts, dentro del modelo AndinoUis no puede ser implementado a cabalidad. Por esta razón en el desarrollo del modelo AndinoUis se establece un replanteamiento de la forma básica de la formulación UTD, al considerar que se cuenta con una herramienta de planificación que maneja base de datos tipo Raster y que no se trabaja con determinado tipo de información como por ejemplo, las propiedades eléctricas del material de construcción de los edificios. Con esto se define: Fuente [2]. Para modelar el comportamiento de la señal en dichas áreas, se parte del análisis de Difracción en esquinas establecido por la Teoría de Difracción Uniforme (UTD), como se observa en la Figura 3. En esta figura se evidencia la geometría que se tiene en cuenta para los cálculos del campo en el punto receptor. FIG. 3. GEOMETRÍA BÁSICA DE DIFRACCIÓN EN ESQUINAS Fuente [2] C. Moldeamiento del terreno Para realizar el modelamiento de un entorno debemos tener en cuenta la disposición de los obstáculos a lo largo de las trayectorias o rutas de la línea directa entre transmisor y receptor, se caracteriza de la mejor manera el impacto que ocasiona en factor del desvanecimiento de la magnitud de la señal. Para calcular las pérdidas que ocasionan dichos obstáculos, se suele idealizar su forma. En la radiopropagación existen dos técnicas muy conocidas que son: Difracción por filos de cuchillo y Difracción por cilindros. • Modelamiento del terreno mediante el Método de Difracción por Filo de Cuchillos: 196 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203 En esta aproximación, el obstáculo ya sea un edificio o una prolongación del terreno (i.e. colina), es aproximado a un filo de cuchillo, es decir, el obstáculo es considerado como media pantalla absorbente, tal como se muestra en la Figura 4. El mecanismo de difracción en este tipo de elementos representa un caso particular de la difracción por filos y esquinas. FIG. 4. MÉTODO DE DIFRACCIÓN POR FILOS DE CUCHILLO en un error significativo. Por tanto, se plantea la aplicación de la difracción por múltiple filo de cuchillos y se referencian las alturas de los obstáculos respecto al receptor, aplicándolas en el modelo Andino UIS, quien presenta variaciones en las fórrmulas del modelo COST231-WalfischIkegami, quien fue planteado basándose en la aplicación de la difracción por filos de cuchillo [2]. IV. DESCRIPCIÓN DEL PROCESO DE VALIDACIÓN DE CELLGIS Fuente [2] Existen varias aproximaciones de filos de cuchillos, entre ellas se destaca el método de Deygout, la corrección de Causebrook y el método de Giovanelli [6]. Sin embargo, para calcular las pérdidas por propagación sobre un entorno de terreno irregular, se suele emplear análisis de difracción múltiple mediante la Integral para Múltiples Filos de Cuchillos Difractores, empleada también en el desarrollo de otros modelos de propagación, por ejemplo, el modelo Walfisch-Bertoni y el ya mencionado modelo COST231-Walfisch-Ikegami [7],[8]. D. Consideraciones planteadas por el Modelo Andino UIS Las características de la topografía presente en nuestra región conduce al algoritmo a tener en cuenta las irregularidades del terreno. Los sistemas Outdoor de microceldas diseñados para zonas urbanas poseen radios de cobertura menor de un km de distancia y al ubicarnos en una zona urbana, encontramos una densidad de edificios bastante considerable, a esto se le suma las características del terreno, lo que representa obstáculos entre la línea de vista (LOS) del transmisor y el receptor. Al considerar lo anterior se puede decir que la predicción de las pérdidas de propagación son establecidas por una altura promedio de los obstáculos como se establece en los análisis presentados por Lee en donde se plantea que las variaciones de terreno dentro de un área menor a un km puede ser omitidas sin incurrir Los procesos de validación son sistemas de aseguramiento de la calidad mediante los cuales se demuestra si un proceso conduce a resultados consistentes dentro de las especificaciones predeterminadas. El proceso de validación se lleva a cabo mediante sub-procesos: Se inicia con las actividades de pre-validación las cuales consisten en la recopilación de la información relacionada con el proceso, se determina la instrumentación que se va a utilizar y luego se define la metodología aplicada. Posteriormente se efectúa el desarrollo de la validación, durante esta fase se recopilan las muestras de niveles de potencia y se obtienen las simulaciones respectivas para poder hacer los análisis correspondientes. Finalmente se da un concepto de aceptación o rechazo, así como conclusiones y las recomendaciones, para realizar ajustes en caso de que exista la necesidad. V. ACTIVIDADES DE PRE-VALIDACIÓN y DEFINICIÓN DE VARIABLES DE INTERéS A. Selección de la instrumentación medición espectro En las campañas de medición realizada se hace uso de diferente instrumentación: Para las dos primeras zonas se dispuso del equipo de Drive Test con el que cuenta la Universidad Industrial de Santander que está compuesto por: Analizador de Espectros R&S ZVL6, receptor GPS, par de antenas omnidireccionales modelo HG1911U-PRO con 11 [dBi], generador de señales ROHDE&SCHWARZ. Como se visualiza en la Figura 5. Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega, Forero, Rodríguez FIG. 5. EQUIPOS DE MEDICIÓN Sin embargo, con el fin de minimizar errores en los valores, y gracias al apoyo de la empresa TIGO, se trazaron dos rutas más con software de alta calidad prestados por la empresa. B. Metodología de medición espectro • • • • Se basa en las recomendaciones UIT y IEEE. Selección de Equipos: Se basó tanto en la facilidad de su préstamo como en la necesidad de medición requerida. Elección de las zonas: Para las dos primeras zonas medidas, debido a que se genera la señal en la banda de telefonía móvil, se requirieron zonas en donde al generar la seña existiera las características necesarias para que la antena irradie de forma correcta. Para la zona 3 y 4 se hizo basados en la información de antenas Tigo suministradas por la empresa. Para la elección de zonas se tienen en cuenta variables como: accesibilidad, disponibilidad de datos de la antena transmisora, tipo de terreno, entre otras. Definición del Plan de Medición: Se seleccionan los parámetros más relevantes para el Drive Test a realizar como cantidad de estaciones a medir, Frecuencia Central, Span, RVW, otros. Ejecución de la campaña de medición: Se realiza la instalación y conexión de equipos en el vehículo, luego la revisión de carga de batería de los instrumentos y finalmente a la ejecución de las mediciones como tal. 197 C. Variables de Interés Entre el transmisor y el receptor, el canal inalámbrico se modela mediante varios parámetros claves, los que tienen relevancia en este trabajo son: tipo de terreno, climatología de la zona, altura de las antenas, obstáculos, PIRE, patrón de radiación de las antenas, entorno topográfico. La altura de los obstáculos en función de la posición del receptor es el parámetro que implica que la primera zona de Fresnel sea o no obstruida, de esto depende que existan o no pérdidas considerables en la intensidad de campo. Según los análisis presentados por Lee, las variaciones del terreno dentro de un área menor a un km pueden ser omitidas sin incurrir en grandes rangos de errores. Así, las áreas han sido previamente seleccionadas de manera que cumplan con las características necesarias para poner a prueba la efectividad de la herramienta con el modelo AndinoUis. Se seleccionaron para ello zonas urbanas sobre colinas, zonas de densidad urbana con clara definición de convergencias de vías, aledañas a parques y con gran arborización, entre otras. VI. DESARROLLO DE LA VALIDACIÓN A. Mediciones de espectro en la banda de telefonía En este tópico se tiene gran interés por tener datos confiables de los resultados obtenidos de una medición, mitigar los errores que puedan existir en la toma de la medida y garantizar la repetitividad de la variable en cuestión. Por lo tanto, para eliminar los efectos de desvanecimientos rápidos se determina el nivel de señal recibido mediante el promedio de al menos dos mediciones sobre un mismo sector en diferente día y horario. El sistema completo es compuesto por 4 estaciones base ubicadas en puntos específicos de la Ciudad de Bucaramanga: San Francisco, La Concordia, Sotomayor y el Prado abarcando diferentes tipos de terreno. A lo largo de las dos primeras zonas se genera una señal portadora, por medio de un generador de señales a una frecuencia dada, dentro de la banda de telefonía y con determinada potencia, conectado a una antena que servirá de transmisora, al mismo tiempo, en un vehículo dotado con el analizador de espectros y una an- 198 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203 tena receptora se hace un recorrido con el fin de capturar la señal en diferentes sitios. Con la información aportada por el operador de telefonía móvil TIGO de las antenas ubicadas en algunos sectores de Bucaramanga, se realizó un estudio en otros dos sectores de la ciudad en la banda de telefonía del operador. Es importante tener en cuenta que los valores arrojados por el analizador de espectros no pueden ser contrastados directamente con las simulaciones que se realizan, pues el dato que se toma del analizador ya ha pasado tanto por la antena como por el cable que conecta dicha antena al analizador, y nuestro interés radica en conocer la potencia antes de la antena receptora. Por lo tanto, es necesario aplicar la siguiente aproximación: Para generar la simulación deben crearse los enlaces o sites, en los cuales debemos aportar información de las alturas tanto de la antera transmisora como receptora. Posteriormente, se crean los sectores pertenecientes a cada site, cada sector nos pedirá el pire en [dBm], la frecuencia en [MHZ], es decir, un sector contiene la información del transmisor. Posteriormente se adiciona un site, es decir se selecciona el lugar donde será localizada la estación base. Para planificar correctamente las redes de celular mediante Cellgis es necesario contar con gran cantidad de información específica de las antenas, como lo son altura de la antena, altura de la torre, referencia de la antena, pire, ganancia, azimut y tilt, entre otras. FIG. 6. VISUALIZACIÓN DEL VALOR DE POTENCIA Valor real = Valor medido - Ganancia antena + Pédidas del cable En una fase previa de caracterización de las antenas y de los cables utilizados se generó una tabla de correspondencia entre frecuencia y pérdidas de cable. Para la banda de telefonía móvil se encontró que dichas pérdidas son de 0,47 [dB]. La ganancia de la antena que debe tenerse en cuenta al momento de realizar el cálculo del enlace en nuestro caso fue de 11 [dBi]. Para las zonas 3 y 4 en donde se midieron las antenas de Tigo, lo relevante eran las pérdidas In Car (por el uso de un auto) de 6 [dBm]. B. Simulación de espectro Las simulaciones se efectúan sobre un mapa ráster de la ciudad de Bucaramanga de tipo ASCII. CellGis cuenta por defecto un patrón de radiación Isotrópico, que modela una antena ideal que radia potencia con ganancia unitaria uniforme en todas las direcciones, sin embargo, se sabe que las antenas utilizadas en la práctica no son isotrópicas, por lo cual se decidió mejorar la versión con que se inició el proyecto y realizar una modificación para integrar el patrón de radiación de la antena. Tal como se muestra en la Figura 6, la interfaz gráfica de CellGis en su parte inferior izquierda, muestra las coordenadas en unidades UTM-Bogotá y la potencia en el punto. Para el proyecto fueron usados dos patrones de radiación diferente de la siguiente forma: • San Francisco y La Concordia: Antena Omnidireccional • Sotomayor y El Prado: Antena de Polarización Cruz 65 referencia 742 212/ APx18 de Kathrein Mobilcom Brasil. Así se crearon modelos de los dos tipos de antenas que se usaron en este proyecto en forma de un archivo de 360 filas por 90 columnas en el que cada celda tiene información específica. El análisis que se describe a continuación se soportó en dos tipos de simulaciones, una con el patrón de antena que viene por defecto en el CellGis (Isotrópica) y otra con el patrón real de la antena. Esto con el fin de comprobar que el AndinoUis presenta mejores resultados en la práctica que los descritos en trabajos anteriores C. Análisis Se realiza el análisis comparativo tanto gráfico como estadístico de los resultados de la cobertu- Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega, Forero, Rodríguez ra generada en las respectivas simulaciones y las mediciones tomadas. El modelo de propagación se experimentó en las frecuencias de la banda de telefonía móvil, alrededor de 1900 [MHz], por ser la banda de TIGO. La cantidad de muestras recolectadas tanto en simulación como en mediciones de campo son bastante extensas, por esta razón sólo se comentan los datos más relevantes y los que surgen de su análisis. Se utilizaron cerca de 10.104 puntos de medición, cada medición ejecutada en dos diferentes jornadas. Para cada uno de los sectores se realiza un estudio estadístico que implica un análisis de varianza. En este caso el estudio realizado es el ANOVA mediante el cual se puede corroborar si los valores obtenidos experimentalmente y los simulados varían significativamente, de igual forma se procedió a obtener la diferencia entre las mediciones y las simulaciones. El análisis ANOVA para las 4 zonas arrojó resultados similares que corroboró las capacidades de la herramienta CellGis para simular niveles de potencia en la zona andina, mediante el algoritmo AndinoUis. • Con el fin de valorar el efecto de la implementación de los patrones de radiación desarrollada en este trabajo, se realizaron validaciones de dos tipos: • Validación tipo 1: se usa el patrón de radiación que trae el CellGis por defecto, es decir, Isotrópico. • Validación tipo 2: Se usa el patrón real de la antena introducido como parte del trabajo desarrollado. 1) Zona 1 San Francisco: Es importante destacar que una de las características propias de la zona y las 5 rutas realizadas para este Barrio, fue contar con condiciones topográficas casi uniformes (terreno semiplano), casi todo el trayecto contaba con Línea de Vista (LOS) hacia la estación Base BS1, debido a la poca presencia de edificios, es un sector de gran recurrencia pues encontramos cerca una iglesia y lugares públicos. En esta primer zona se trabajó con una señal controlada, emitida por un generador de señales ubicado en la azotea de un edificio de 5 pisos, la frecuencia de la portadora seleccionada es 1.9 Ghz con una potencia de 25 dBm. Fueron usadas las antenas omnidireccionales. La antena es modelo HG1911U-PRO, de propiedad 199 de RadioGis y presenta el patrón de radiación mostrado en la Figura 7. FIG. 7. ZONA SAN FRANCISCO. PATRÓN DE RADIACIÓN Para la validación de tipo 1, estadísticamente se encontró una diferencia máxima entre mediciones y simulación de 49,04 [dBm] y una diferencia promedio de 14,69 [dBm]. Estos valores nos indican que la simulación no cumple su objetivo, ni se modela de forma correcta el canal inalámbrico. En el caso de la validación tipo 2, se obtuvo una alta similitud entre resultados de simulación y de mediciones como se observa en la Figura 8. Al comparar la validación tipo 1 con la validación tipo 2, mediante desviaciones estándar, se pasa de un error del 84,454% a uno de 4,331%, lo que representa una mejora que además valida el funcionamiento de la herramienta con el algoritmo AndinoUis en esta zona. La desviación estándar en este proyecto cobra gran importancia, ya que representa el alejamiento de los datos tanto de medición como de simulación con respecto a su valor medio. La diferencia entre las desviaciones de los datos de medición y los de simulación con la validación tipo 2, es de 0,265 con lo que se demuestra la eficacia del algoritmo. FIG. 8. ZONA SAN FRANCISCO. VALIDACIÓN TIPO 2 Resulta importante destacar que en validación tipo 2 se obtuvo un coeficiente de correlación de 0,951, lo cual ratifica que se tiene una correla- 200 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203 ción positiva alta entre los resultados de simulación y de mediciones. La diferencia promedio entre las mediciones y las simulaciones es de 2,765 [dBm]. 2) Zona 2 La Concordia: Esta zona fue seleccionada porque es un sitio de gran concurrencia, y por tener diversos sitios de comercio, por tanto, tenemos público expuesto a niveles de potencia por condiciones laborales, el barrio es un poco más pequeño que la zona 1, también el terreno que se buscaba para esta zona era más irregular y edificado. se contaba con trayectos tanto de línea de vista, como sin línea de vista hacia la estación Base BS2 con el fin de ver que tan acertado es el simulador en ambos casos. También se genera la señal, el generador ubicado en la terraza de un sexto piso, la frecuencia de la portadora es 1.914 [Mhz] con una potencia de 20 [dBm]. Al igual que en la zona anterior se hizo uso de las antenas omnidireccionales, por lo cual el patrón de radiación es exactamente el mismo. Para la validación tipo 1, se puede resaltar el hecho de que los valores de la simulación distan significativamente de los datos experimentales, por lo cual es claro que éste tipo de simulación con antena isotrópica no es la más adecuada para éste fin. Estadísticamente se obtiene la máxima diferencia de 68,99 [dBm] y un promedio de 37,90[dBm], valores inaceptables en términos de planificación celular. En el caso de la validación de tipo 2, se encontró, en términos generales, una similitud entre mediciones y simulación. De todas formas se encontraron puntos donde la diferencia es un poco más notoria que en otros. En este sentido, cabe aclarar que la zona la Concordia, donde se realizaron las mediciones, incluye rutas con terreno bastante irregular. Además, entre la antena trasmisora y la antena receptora se presentaron algunos edificios de alturas variables. Sin embargo, la tendencia de la simulación va acorde a la de las mediciones realizadas. Los resultados se aprecian en la Figura 9. Estadísticamente la correlación entre las simulaciones y las mediciones es de 0,934, lo que significa que ambas series de datos tienen una relación muy estrecha con lo cual se reconfirma el adecuado desempeño del CellGis con el algoritmo AndinoUIS y la implementación realizada del patrón de radiación de la antena. 3) Zona 3 Sotomayor: Zona caracterizada por tener lugares sensibles como el Colegio San Pedro y una Iglesia muy cercanos a la antena, por eso se decidió elegirla como punto de medida, además un importante criterio es la densidad de árboles que se encuentran en la zona, de forma que se pueda mirar si la herramienta está apta para ésta clase de regiones o no, también las rutas cercanas a la estación base cuentan con varios cruces de vías; sin duda alguna, la mayor de las características que se quería abordar en esta zona era el tráfico de automóviles. De igual manera, se destaca por su condición parcial de NLOS hacia BS3, ya que sólo sobre un tramo del trayecto existía línea de vista. Esta zona corresponde a Sotomayor, en esta ocasión no se genera señal, sino se hace el estudio con los datos que se tienen de las antenas Tigo, uno de los factores que se tuvo en cuenta para elegir cual zona medir, se basó en el hecho de tener lugares sensibles cercanos a la antena. El software utilizado se llama TEMS Investigation 11.0.3 Data Collection perteneciente a la empresa Tigo, el cual se complementa con un celular especialmente adaptado a la herramienta y un Gps usado para geo-referenciar la posición. La interfaz de la herramienta podemos visualizarla en la figura 10. FIG.9. ZONA LA CONCORDIA. VALIDACIÓN TIPO 2 FIGURA 10. SOFTWARE TEMS INVESTIGATION 11.0.3 Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega, Forero, Rodríguez En esta tercera zona se hizo uso de una antena referencia 742 212/ APx18 de Kathrein MOBILCOM BRASIL, la cual presenta un patrón de radiación visualizado en la Figura 11. FIG. 11. ZONA SOTOMAYOR. PATRÓN DE RADIACIÓN 201 La tendencia de los resultados, sigue la curva de las mediciones reales. Basándose en el coeficiente de correlación que fue hallado para el área de Sotomayor de 0,931, se puede constatar la buena correlación existente entre valores de mediciones y simulación. Aunque la diferencia máxima o delta máximo que se encontró en el contraste de cada estación es de 8,76 [dBm], cabe aclarar que este valor pertenece sólo a una de las estaciones. FIG. 12. ZONA SOTO MAYOR. VALIDACIÓN TIPO 1 FIG. 13. ZONA SOTO MAYOR. VALIDACIÓN TIPO 2 Como se ha notado en zonas anteriores, en el caso de validación de tipo 1, en este sector según muestra la Figura 12, la simulación con antena isotrópica tampoco funciona, ni cobra validez en la ejecución de simulación, este hecho se evidencia en un error de 221%, se encontraron diferencias hasta de 56,25[dBm] entre los resultados de las mediciones y de la simulación. La representación de los datos en la Figura 13 para la validación de tipo 2, permite contemplar la tendencia que tanto valores experimentales como simulados presentan para corroborar que los datos de la simulación son cercanos a los alcanzados con las mediciones. En términos estadísticos el error entre las desviaciones estándar de ambas cantidades es del 10,101% que en comparación con las tres zonas anteriores es más grande, pero que en general un error del 10% en desviaciones de simulación es aceptable, de acuerdo a la complejidad de un canal inalámbrico real. 4) Zona 4 El Prado: Es un lugar de alta densidad residencial, pues existe una gran cantidad de edificios a lo largo de todo el recorrido, sin embargo la antena o radio base se encuentra ubicada en la parte superior de uno de los edificios más altos. En la última región se hace uso de otro sector cubierto por Tigo. Se eligió por la forma de sus calles, es decir, es una zona en la que la cuadrícula de calles y carreras está perfectamente definida, prototipo que se usará para saber si los niveles de señal mejoran frente a estas situaciones, adicionalmente es un lugar de alta densidad residencial. En la gran mayoría de ruta se cuenta con (LOS), para este caso el patrón de radiación es el mismo que se utiliza en el sector 3. 202 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 193 - 203 En el caso de validación de tipo 1, el coeficiente de correlación hallado es de -0,293 que demuestra que no existe una buena correlación entre los datos prácticos y los valores simulados. Y, al igual que en las tres zonas anteriores la disimilitud entre las mediciones llega hasta los 51,39 [dBm]. En el caso de validación de tipo 2, se obtuvieron los resultados que se aprecian en la Figura 14, se puede distinguir de forma clara la semejanza entre los datos. En donde el coeficiente de correlación obtenido es de 0.972, lo cual refleja la muy buena relación que existe entre las simulaciones y mediciones, lo que se conoce como correlación fuerte. FIG. 14. ZONA EL PRADO. VALIDACIÓN TIPO 2 tación y/o árboles a sus alrededores, lo cual genera una dispersión que no es contemplada por el modelo AndinoUIS ni en otros modelos disponibles en CellGis. La presencia de automóviles en los lugares de medición influye directamente en los valores obtenidos, pues ellos reflejan la señal, sin embargo los problemas que puedan causar esta fuente de error son inevitables. Los estudios realizados en las 4 zonas satisfacen todos los indicadores estadísticos, de forma favorable para determinar que la herramienta está en condiciones de realizar planificación celular. Se recomienda realizar mejoras al Modelo AndinoUis de forma que tenga en cuenta los materiales de los diferentes edificios, la temperatura o condiciones climáticas y la presencia de árboles. De forma que tenga un aporte directo en la exactitud de la predicción de los niveles de señal, de forma que el error sea aún menor. REFERENCIAS [1] GARCÍA Alexis, ORTEGA Homero, CARREÑO Yair. Desarrollo del modelo de propagación Andino-UIS. Revista GTI Vol. 4. No 8, pp: 29 - 38 . Bucaramanga, Colombia. Enero – Abril. 2005. ISSN 1657-8236. [2] CARREÑO Yair. Tesis de Grado: Desarrollo del Modelo de propagación AndinoUIS, UIS, Bucaramanga, 2005. [3] C. Ardila. “Herramienta de planificación celular CellGis, Manual del usuario. Universidad ICESI”. Disponible en: http://CellGis.net/downloads. [4] SOLANO, Jhon Camilo, JAIMES Leonardo Andrés. Implementación en Java del modelo de propagación andinoUIS® para planificación y análisis de redes celulares sobre CellGis. Tesis de grado. 2008. [5] GARCÍA A, Paolo, ORTEGA B., Homero, NAVARRO C., Andrés, RODRÍGUEZ A., Alexys. Efectos del terreno en la propagación electromagnética en entornos urbanos sobre la región andina usando el modelo Cost 231.Walfisch-Ikegami y herramientas de planificación basadas en GIS. Revista electrónica No. 1. SISTEMAS & TELEMÁTICA. Disponible en: http://bibliotecadigital. icesi.edu. co/biblioteca_digital/bitstream/item/387/1/agarciahortega-anavarro-arodriguez_efectos-propag.pdf [6] MURILLO, Juan. Fórmulas de Radiopropagación en Decibelios. Sevilla, España. [7] CARREÑO L., Yair I, GARCÍA A, Paolo, y ORTEGA B., Homero. Mejoramiento en la predicción de pérdidas CONCLUSIONES Mediante la correcta implementación del patrón de radiación de la antena, en CellGis se ha podido demostrar que el Modelo AndinoUIS resulta apropiado para simulaciones de radiopropagación en ciudades ubicadas en terreno montañoso como es el caso de la Región Andina, que presenta niveles de correlación superiores a 0,9 entre resultados de medición y de simulación. El contraste gráfico de niveles de potencia en comparación con los valores dados por la simulación arroja en algunas rutas resultados más óptimos que para otras zonas, este hecho radica tanto en el desnivel de terreno, como en los cruces de las calles, puesto que el modelo obtiene el mayor error en sitios en donde convergen las calles, sin embargo en todos los casos mencionados presenta mejores resultados que otros modelos conocidos. En el barrio Sotomayor, se evidencian algunas diferencias notables en ciertos puntos de la ruta, como consecuencia de la alta densidad de vege- Validación de la herramienta CellGis para simular propagación de ondas de radio en redes de telefonía celular - Beltrán, Ortega, Forero, Rodríguez de Potencia en sistemas de comunicación móviles TDMA/IS-136 para entornos andinos mediante el uso del modelo COST231-Walfisch-Ikegami, campañas de medidas y el Cellview®. Universidad Industrial de Santander, Escuela de Ingenierías Eléctrica, Electrónica y Telecomunicaciones, Grupo de Investigación en Radiocomunicaciones - RadioGIS, Bucaramanga-Colombia, Septiembre de 2004 [8] COST 231 Final report, Digital Mobile Radio: COST 231 View on the Evolution Towards 3rd Generation Systems, P. 134-140, Commission of the European Communities and COST Telecommunications, Brussels, 1999. [9] GALLO, Fideligna, PRIETO, Martha I, GARCÍA A, Paolo, y ORTEGA B., Homero. Análisis y Comprobación de los Niveles de Densidad de Potencia en las Inmediaciones de una Celda Sectorizada en un Entorno Andino Utilizando Sistemas de Información Geográfica (GIS) Y MatLab, Universidad del Valle en convenio con la Universitaria de Investigación y Desarrollo – Grupo Maxwell-UDI en Cooperación con el Grupo RadioGISUIS, Departamento de Ingeniería Electrónica, Bucaramanga-Colombia, Septiembre de 2004. [10] FORERO, Celso Andrés. Implementación de Servicio en Telecomunicaciones para Apoyo a la Gestión del Espectro Radioeléctrico. 203 Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión Diana Alexandra Orrego Metaute Especialista en Automatización, Universidad Pontificia Bolivariana Docente Tiempo Completo, Investigador Grupo MIRP, Instituto Tecnológico Metropolitano Medellín, Colombia [email protected] Edilson Delgado Trejos PhD en Ingeniería con línea de investigación en Automática, Universidad Nacional de Colombia Académico Investigador, líder Grupo MIRP, Instituto Tecnológico Metropolitano Medellín, Colombia [email protected] Resumen—Los sistemas biomédicos de última generación registran en intervalos cortos de tiempo la dinámica fisiológica mediante grandes bases de datos. La interpretación adecuada de la información difícilmente puede hacerse por la experticia de un sólo médico, por lo tanto la toma de decisiones se basa sólo en algunas variables seleccionadas. La representación efectiva de variables fisiológicas mediante fuzzy rough set tipo 1 puede ser aplicada para caracterizar y extraer la información relevante de la dinámica fisiológica; sin embargo, estas técnicas poseen el problema de la complejidad de sus algoritmos y alto costo computacional; por lo tanto, se requiere aplicar técnicas de fuzzy rough set tipo 2, asociadas a métodos axiomáticos a través de operadores de aproximación difusa baja y alta como conceptos primitivos para generar un sistema de reducción de dimensiones con tendencia a la disminución de costo computacional en aplicaciones de ingeniería biomédica. En este artículo se presenta la revisión del estado del arte sobre representación efectiva de dinámicas fisiológicas mediante fuzzy rough set, con el fin de determinar la capacidad que poseen este tipo de técnicas para ser incluidas en procedimientos automáticos de toma de decisiones que apoyen el concepto clínico de un especialista. engineering applications. This article reviews the state of the art of effective representation of physiological dynamics using fuzzy rough set, in order to determine the ability of these techniques to be included in automatic decision making procedures that support the clinical opinion of a specialist. Palabras clave— Conjuntos Difusos/Aproximados, Dinámica Fisiológica, Reducción de Dimensiones, Representación Efectiva, Extracción/Selección de características. Abstract— The latest generation of biomedical systems record at short time intervals the physiological dynamic in large databases. The correct interpretation of the information is difficult to obtain by the expertise of a single physician, so the decision is based only on some selected variables. Effective representation of physiological variables by fuzzy Rough Set type 1 can be applied to characterize and extract relevant information from physiological dynamics, however the disadvantages of these techniques are the complexity of their algorithms and the high computational cost, therefore it is necessary to apply fuzzy rough set type 2 techniques , associated with axiomatic methods through low and high diffuse approximation operators as primitive concepts for generating a dimension reduction system with a tendency to lower computational cost in biomedical Keywords— Fuzzy/Rough Sets, Physiological Dynamics, Dimensionality Reduction, Intrinsic Representation, Feature Extraction/Selection. I. INTRODUCCIÓN Los prototipos de última generación en biomédica permiten mostrar en línea una cantidad enorme de datos por paciente que describen o simulan los múltiples procesos fisiológicos del cuerpo humano, con el propósito de ser una herramienta para el diagnóstico y tratamiento médico [1]. Todos estos procesos son fenómenos complejos, que se acompañan o manifiestan mediante señales que reflejan su naturaleza y actividad, pueden ser de diversos tipos: desde señales bioquímicas, como hormonas y neurotransmisores, hasta registros de señales bioeléctricas, como electroencefalografía (EEG), fonocardiografía (FCG) o electrocardiografía (ECG), o mediciones biofísicas como presión arterial y temperatura, entre otros [2]. La caracterización de la dinámica fisiológica como señales normales o patológicas ha permitido el diseño de sistemas expertos de diagnóstico que soportan la decisión médica, debido a que generalmente la decisión está basada sólo en la experticia del especialista [3]. Sin embargo, en la mayoría de los procesos de caracterización de la dinámica fisiológica se contemplan amplios conjuntos de características que conllevan al empleo de grandes recursos computacionales, así como en los posteriores de procesamiento y clasificación de los datos [4]. Recibido: 13/08/2011/ Aceptado: 10/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215 Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado La universalidad de las bases de datos fisiológicas de alta dimensión ha ayudado al desarrollo de importantes investigaciones en el análisis de características, para obtener conjuntos de variables de representación que aportan la información relevante y redundante del sistema en relación con la inferencia de estados fisiológicos funcionales [5]. En el aprendizaje estadístico, el espacio de representación característico es definido como una dimensionalidad que contiene todos los posibles valores que pueda tomar el patrón, representado por un vector aleatorio, el cual puede ser visto como un punto n-dimensional, con el objetivo de representar el conjunto total de señales de entrenamiento en un espacio donde alguna métrica minimice la distancia entre patrones de una misma clase y maximice la distancia entre los de diferente clase [6]. En este contexto, la reducción de dimensiones busca encontrar la mejor representación de patrones de alta dimensión, que permita obtener un conjunto alterno y compacto con la menor dimensión posible, optimizando una función de evaluación específica en el espacio resultante y regida por una medida de relevancia (estadística, geométrica, informativa o discriminante) encargada de dirigir el contexto de representación [7]. En particular, la reducción de dimensiones puede obtenerse por diferentes técnicas que generalmente se han agrupado en selección y extracción de características [8]. En este sentido, la teoría de conjuntos difusos propuesta por Zadeh [9] en 1965 (FST), la cual es una extensión de la noción de conjuntos clásica para modelar la incertidumbre en términos de clasificación de membrecía, permite evaluar los subconjuntos usando una función, o métricas de evaluación, con el fin de seleccionar las más importantes derivadas de las clases de decisión [10]. Un sistema básico difuso incluye elementos como fusificador, reglas, motor de inferencia y desfusificador. La teoría de conjuntos Rough (RST) propuesta por Pawlak [11], es un método de selección de características nuevo donde se preserva la semántica de las funciones, lo cual permite analizar los hechos ocultos de los datos sin necesitar información adicional, como umbrales o conocimiento de expertos, para obtener un subconjunto denominado “reducto” con las características originales de mayor información. La aplicación de RST sólo se puede realizar sobre conjuntos de datos con valores de tipo real, por lo tanto es necesario realizar 205 una discretización previa de los datos, generando como resultado la pérdida de información [9]. La teoría de conjuntos rough, complementada con la teoría de conjuntos difusos, da lugar a un nuevo método de selección de características denominado “Fuzzy Rough Set” (FRS) [12] en el que ambas teorías, a pesar de relacionarse, son diferentes. Esta técnica híbrida genera aproximaciones rough de conjuntos difusos por medio de relaciones de similaridad o particiones difusas. Adicionalmente, ofrece alto grado de flexibilidad, soluciones robustas y herramientas avanzadas para la selección de características en el análisis de datos [13]. Actualmente, las investigaciones en el campo de FRS se han centrado en ambientes difusos tipo 1, lo cual no permite modelar la incertidumbre de manera directa ya que se caracteriza por funciones de membrecía clásicas, donde se presentan dificultades en la modelación de incertidumbres comunes para la dinámica fisiológica por la falta de fronteras discriminantes en las clases y falta de información [14]. Los FRS tipo 2 introducen intervalos, parámetros y conjuntos difusos para describir la función de membrecía incierta del conjunto difuso tipo 1, mediante la adopción de conjuntos rough [15]. Este artículo presenta una revisión sobre espacios de representación efectiva de la dinámica fisiológica logrados mediante fuzzy rough set con el fin de precisar la frontera del estado del arte de temas relacionados con el entrenamiento de procesos automáticos orientado a la reducción de dimensiones en sistemas de soporte de diagnóstico clínico automático. II. ESPACIOS DE REPRESENTACIÓN CARACTERÍSTICA Sobre la dinámica fisiológica se debe realizar un proceso de estimación de atributos, o características, que permitan la extracción de la información intrínseca embebida en los estados funcionales determinados por los cambios presentados en las señales que se usan para el diagnóstico de cada caso particular [7]. En algunas ocasiones, el espacio resultante está compuesto por un número alto de dimensiones, lo cual se traduce en una representación fisiológica muy compleja, que a veces puede estar conectada con el sentido clínico o simplemente puede ser tomada como un espacio de representación abstracta (por ejemplo, 206 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215 coeficientes wavelet, índices fractales, indicadores estadísticos, entre otros) [16]. A. Estimación de parámetros Al proceso de atribución de una descripción paramétrica a un objeto se denomina estimación de parámetros, este proceso es una parte importante del procesamiento o tratamiento de datos y se basa en la regularidad estadística de una gran cantidad de muestras [17]. El grado de confianza del intervalo indica la probabilidad de ocurrencia de los valores estimados en él. Así, en este método de estimación es necesario saber la regularidad de distribución de las muestras, de lo contrario, las hipótesis acerca de ellas y la evaluación del grado de incertidumbre serán erróneas, reduciendo la confiabilidad del método [18]. B. Procesamiento de datos 1) Normalización En muchas situaciones prácticas un diseño es confrontado con los valores que no expresan lo mismo en ciertos rangos dinámicos [19]. Así, las características con un gran número de valores, pueden tener una gran influencia en el costo de su función de las características con valores pequeños, aunque esto no necesariamente es reflejado en el diseño del clasificador [20]. Un procedimiento comúnmente usado es la normalización estadística, expresada en función de la media y la desviación estándar [7]. 2) Remoción de valores atípicos Los datos atípicos, también conocidos como outliers, son las observaciones que parecen tener un comportamiento distinto, o haber sido generados de forma diferente [21]. Cuando existe más de un dato atípico en la muestra, es posible que se presenten efectos de enmascaramiento, en el cual dichas observaciones se ocultan entre sí [22]. Los datos atípicos pueden ser detectados bajo dos diferentes perspectivas, bien sea de manera univariada o multivariada [23]. Calcular medidas robustas de decentralización y dispersión mediante el cálculo de la mediana o la mediana de las desviaciones absolutas con respecto a la mediana, lo cual es una medida robusta de dispersión, permite detectar de forma univariada la presencia de datos atípicos [7]. Adicionalmente, existen diferentes formas de comprobar la homogeneidad de la muestra, la cual refleja si los datos se separan mucho, o por el contrario se concentran alrededor de la media, mediante el análisis del coeficiente de kurtosis. Este coeficiente permite medir la relación entre la variabilidad de las desviaciones y la desviación media. La detección de datos atípicos de forma multivariada se realiza mediante una técnica de maximizar y minimizar el coeficiente de kurtosis de los datos proyectados [21] y [24]. 3) Verificación de la normalidad Muchas de las técnicas de análisis multivariado están basadas en modelos paramétricos, por lo tanto, existen claras restricciones en cuanto al tipo de distribución a la que dichas variables deben aproximarse [25]. Por otra parte, es también importante asegurar la homogeneidad de la muestra, mediante el análisis de la posible presencia de valores atípicos debidos a errores de medida u otras causas de heterogeneidad [26]. Es necesario realizar la verificación de la normalidad de los datos mediante el juicio sobre la estructura Gaussiana de los datos, a partir del análisis de los histogramas y de la respectiva prueba de hipótesis [27]. La división de valores que toman las variables aleatorias en rangos de alguna vecindad genera diferentes clases de representación, de las cuales la más conocida corresponde al diagrama del número de observaciones en función de la localización de cada rango de la variable aleatoria, conocida como histograma. Sin embargo, la cantidad de intervalos de agrupación dependen del volumen de la muestra [7]. 4) Distribución intraclases Si la prueba de verificación de la distribución da como resultado el rechazo de la hipótesis de normalidad, entonces se deben tomar medidas para transformar la observación de tal manera que pueda cumplirse la aceptación de la hipótesis sobre la normalidad de los datos intraclase [28]. En este sentido el análisis de los histogramas puede ayudar a sugerir alguna forma de acomodación de los datos. Inicialmente se puede partir de un conjunto de posibles transformaciones [29]. En tareas asociadas al proceso de bioseñales, es común el empleo de la distribución logarítmica normal. Después de realizar la transformación, se debe realizar de nuevo la prueba de verificación, se toma aquella transformación que permita aceptar la hipótesis de normalidad intraclase, o bien, aquella que más se aproxime [7]. Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado III. REDUCCIÓN DE DIMENSIONES. Con el objetivo de reducir dimensiones y así evitar el incremento exponencial del número de muestras fisiológicas necesarias para el entrenamiento de un sistema automático inteligente, es requerida la etapa de extracción/selección de características para obtener el espacio de representación característica [30]. Por lo tanto, es importante tener presente el concepto de “maldición de la dimensionalidad” [7] en el cual se describe el problema que enfrentan los métodos de aprendizaje, donde aumentar el número de características conlleva a un incremento exponencial en el número de objetos de entrenamiento, es decir, a medida que aumenta la dimensionalidad, las características del conjunto de datos de entrada tienden a ser demasiado dispersos para entrenar los algoritmos de aprendizaje de forma eficiente y se requieren muchas más muestras de entrenamiento [31]. Es por esto que las técnicas de reducción de dimensiones permiten transformar conjuntos de datos de grandes dimensiones en conjuntos de dimensiones más pequeñas, para mejorar el procesamiento de datos y revelar la estructura oculta que ayudan en la comprensión y visualización de la dinámica física o fisiológica [32]. En los últimos años ha crecido el interés en las investigaciones relacionadas con reducción de dimensiones para encontrar un método que permita disminuir el número de variables de representación usando la información contenida dentro del conjunto original de los datos y que preserve el significado de las características relevantes. La técnica RST puede ser usada como una herramienta para descubrir la dependencia de los datos y minimizar el número de características contenidas en el conjunto de datos sin utilizar información adicional, pero requiere de una discretización de los datos antes de aplicar el método, ya que el método no diferencia datos de valor discreto de los de valor real [33]. Como resultado se han propuesto extensiones al método RST basados en relaciones de similaridad y tolerancia. La técnica FRS (Fuzzy Rough Set) fue propuesta como una extensión del método RST donde se encapsulan los conceptos de vaguedad mediante conjuntos difusos y duplicados, tomando conjuntos rough relacionados pero de diferente valor (discreto o real), los cuales se producen como consecuencia de la incertidumbre en el conocimiento [31]. 207 1) Extracción de características En la extracción de características todas las variables son utilizadas y los datos se transforman de un espacio de dimensión alta a uno de dimensión baja, conservando la mayor parte de información deseada y optimizando la dirección del mapeo [8]. Esta transformación puede ser una combinación de las variables originales de forma lineal o no lineal, supervisado o no supervisado [34] .La extracción de características permite mejorar el ancho de banda de los datos de entrada para un mejor desempeño en el clasificador al proporcionar un conjunto de características relevantes con mínima redundancia [35]. La literatura de extracción de características reporta dos grupos de técnicas: lineales y no lineales, siendo las primeras más comunes y adecuados en la reducción de datos de estructura lineal [36] y [32], como Análisis de Componentes Principales (PCA) [37] y Escalamiento Multidimensional (MDS) [38] mientras las segundas como Embebimiento Lineal Local (LLE) [39] e Isomap (Mapeo Isométrico de Caracter) [40] preservan las medidas de distancia cuando se mapean los datos a un espacio de dimensión reducida. Sin embargo, estos métodos tienden a destruir la semántica fundamental de las características después de la reducción, como pasa en los métodos basados en transformaciones, y en otros casos requieren información adicional acerca del conjunto de datos dado para la umbralización, como pasa en los métodos basados en entropía [41]. De acuerdo con lo expuesto en la Fig. 1, las técnicas lineales comúnmente usadas para extracción de características son [42]: Análisis de Componentes Principales (PCA) [43], Análisis Discriminante Lineal (LDA) [44], Análisis de Componentes independientes (ICA) [45]. FIG. 1. DIAGRAMA EN BLOQUES: ExTRACCIÓN DE CARCTERÍSTICAS Fuente: Autor del proyecto 208 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215 PCA y LDA son los métodos más utilizados para extracción de características en la mayoría de aplicaciones de reconocimiento de patrones, sin perder la información de varianza en los datos de entrada [46]. Originalmente LDA fue desarrollado para aprendizaje supervisado, y para una mayor eficacia en la separabilidad de clases, especialmente para encontrar la función óptima discriminante lineal en problemas de clasificación, mientras PCA determinada la información relevante para la representación de clases mediante una base ortogonal, lo cual es adecuado para análisis de datos gausianos, sin embargo, cuando se presentan distribuciones de datos no gausianas, el método es deficiente. En conclusión, la aplicación de LDA es limitado cuando el número de muestras por clase es pequeño, mientras en PCA se limita cuando el conjunto de entrenamiento presenta un gran número de muestras [47]. A diferencia de LDA y PCA, ICA puede ser considerado como una generalización del estándar PCA, el cual se caracteriza por la independencia estadística sobre los componentes extraídos y no tiene restricción de ortogonalidad. ICA ha sido de gran aplicación para la separación de fuentes estadísticamente independientes y la extracción de características en el análisis de datos de tipo no gausianos [48]. ICA es también una técnica de reducción de características redundantes que asegura que la información mutua entre los canales de salida filtrada es cero [49]. ICA y PCA siguen siendo modelos lineales, lo que los hace inadecuados para describir datos de distribución compleja y no lineal. Por este motivo, otras técnicas son propuestas en la literatura cuando la naturaleza de los datos es compleja y son afectados por operadores no lineales. Kernel ICA es una técnica que contiene un mapeo de núcleo no lineal apto para características que describen procesos no lineales. Kernel ICA no es la “Kernelización” de un algoritmo ICA existente, sino un método nuevo sobre medidas de dependencia basadas en Kernel [50]. Este método ha sido ampliamente aplicado en procesamiento de imágenes para descubrir los vectores fundamentales de la formación ellas, y son usados como modelos temporales para extracción de características de imágenes de prueba, las cuales son completamente diferentes de las de formación [51]. Otro método muy popular reportado en la literatura para el reconocimiento facial es denominado Fisherface, el cual usa inicialmente PCA para reducir la dimensión del espacio de características original para N-c (donde N es el número de muestras totales de entrenamiento y c es el número de clases) y luego aplica LDA para reducir la dimensión a d (d ≤ c). En el proceso de transformación, la componente de proyección más pequeña c-1 es descartada, lo que puede implicar pérdida de información discriminante y la etapa basada en PCA no puede garantizar la transformación de la información intraclase, puesto que la matriz de dispersión podría ser no singular [52]. Un método más sistemático propuesto es RDA (Análisis Discriminante Regularizado), el cual trata de obtener estimaciones más confiables mediante la corrección de la distorsión de los valores propios, usando un método de regularización tipo riesgo [53]. PDA (Análisis Discriminante Penalizado) es otra versión regularizada de LDA, cuyo objetivo es, además de superar el problema del tamaño de muestras pequeñas, suavizar los coeficientes de vectores discriminantes que mejoren la interpretación [54]. PCA, LDA, RDA y PDA, clasificados como métodos de una dimensión, no son aptos para escalonamiento en aplicaciones con altas dimensiones, debido a las largas matrices de covarianza con un número relativamente pequeño de muestras de entrenamiento, que dificultan una evaluación más precisa de la matriz [55]. Como una solución a este problema se propone el método de Análisis de Componentes Principales de 2 Dimensiones 2DPCA, basado en matrices bidimensionales en lugar de vectores de una dimensión [56]. A diferencia de PCA, 2DPCA posee una matriz de covarianzas mucho más pequeña, además de la rapidez para calcular los vectores propios derivados de dicha matriz para la caracterización de los datos [57]. Partiendo de los resultados exitosos de la aplicación de 2DPCA, se propuso 2DLDA como un Análisis Discriminante Lineal basado en vectores y en matrices, que permiten evaluar la matriz de covarianzas con precisión y reducir el costo computacional. Sin embargo, 2DLDA asume el mismo nivel de tipicidad de cada muestra para la correspondiente clase [58]. Actualmente se propone el nuevo método F2DLDA (2DLDA Difuso), basado en los criterios discriminantes 2D Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado fisherface y la teoría de conjuntos difusos, para calcular el grado de membrecía de la matriz utilizando el algoritmo FKNN (k-vecino más cercano difuso) que produce el correspondiente grado de pertenencia a una clase [59]. 2) Selección de características La selección de características es usada para identificar y remover las variables que no contribuyen al proceso de clasificación (información redundante e irrelevante) [60]. Este proceso es descrito en [61] como la obtención de un subconjunto de características estimado mediante una función de evaluación, que se compara constantemente con el anterior hasta obtener el mejor de ellos por medio del criterio de parada. Mediante la validación se verifica la calidad que satisface las condiciones del proceso. Como se describe en la Fig. 2, la selección de características se compone de diferentes familias de técnicas que pueden agruparse en tres métodos de acuerdo con el procedimiento de generación de subconjuntos y a la función de evaluación [62]: completos, que examinan todas las posibles combinaciones de N características (2N combinaciones), los cuales son muy costosos computacionalmente pero el éxito de estas técnicas es que aseguran el hallazgo del subconjunto óptimo, a diferencia de los heurísticos que hacen una evaluación parcial (N2 combinaciones), pero mejoran la velocidad de procesamiento ya que el espacio de búsqueda es menor, y los aleatorios que realizan una búsqueda a partir de todo el espacio posible (2N combinaciones), con la diferencia de que usa una regla aleatoria de acuerdo a unas condiciones iniciales, las cuales podrían encontrar el subconjunto requerido sin procesar todo el espacio de posibilidades, pero el éxito depende fuertemente de las condiciones iniciales. Los resultados de los últimos dos métodos no aseguran la obtención del mejor subconjunto de características, pero sí del más adecuado según los requerimientos establecidos [61]. De acuerdo con la función de evaluación se conocen 3 grupos: embebidos, filtros y wrapper. Los métodos embebidos hacen parte integral de un predictor específico o dependen de la función de evaluación como lo hacen los árboles de decisión (DT) [63], redes neuronales (NN) [64] y mapas auto-organizativos (SOM) [65]. Los filtros [62] son completamente independientes a la función del clasificador, pero requieren de medidas 209 de evaluación para determinar el mejor subconjunto (e.g., distancia, información, dependencia, consistencia, entre otros), mientras los wrapper [66] para su proceso de selección utilizan como medida la tasa de error del clasificador, incluyendo el costo computacional debido a la estrategia de clasificación usada. En estos tres métodos se obtienen generalmente mejores resultados que en los basados en la generación de subconjuntos, pero el costo computacional sigue siendo representativo [67]. FIG. 2. DIAGRAMA EN BLOQUES: SELECCIÓN DE CARACTERÍSTICAS Fuente: Autor del proyecto En general, la literatura reporta diferentes técnicas de selección de características que incluyen algoritmos de búsqueda óptima como Branch and Bound y de Búsqueda Exhaustiva [68], sin embargo, son limitados al número de características, ya que el costo computacional aumenta de forma exponencial al número de variables. Las estrategias de búsqueda secuencial como SFS (Sequential Forward Selection) y SBS (Sequential BackwardSelection) logran el mejor subconjunto de características de acuerdo con un numero características preestablecido pero no permiten la reselección de ellas [69]. El algoritmo “Plus-L-Minus-R” [70] aplica una búsqueda secuencial más compleja para dar solución a este problema pero se limita por la dificultad de seleccionar los valores adecuados de L y R. A partir de SFS y SBS se evoluciona a las técnicas SFFS (Sequential Forward Floating Selection) y SBFS (Sequential Backward Floating Selection) que permiten la reselección de características incluidas o removidas, mejoran el costo computacional de una forma aceptable [8]. Otras técnicas robustas han sido investigadas recientemente como Algoritmos Genéticos (GAs) [71], Neuro-fuzzy [72], Relief [73], Markov Blanquet [74], basados en condicionales de dependencia, independencia y relevancia, pero son algoritmos que 210 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215 aún no han sido muy desarrollados y presentan un rendimiento muy bajo según datos de la vida real [75]. VI. FUZZy ROUGh SET SOBRE ESPACIOS DE REPRESENTACIÓN La teoría de conjuntos difusos fue propuesta por Zadeh en 1965 [76], como un método para modelar la incertidumbre en términos de clasificación de membresía, el cual fue nombrado como lógica difusa tipo 1 [77]. Un sistema difuso consta de una interfaz de fusificación para transformar los datos convencionales ingresados por el operador en conjuntos difusos tipo 1, luego un sistema de inferencia usa los conjuntos difusos además de la base del conocimiento para hacer inferencias por medio de un método de razonamiento, y finalmente, una interface de desfusificación traduce la información difusa a la información convencional [78]. La función de membresía tipo 1 es totalmente bivaluada [79], y sus formas convencionales pueden ser triangular, trapezoidal, gausiana, entre otras, además no permiten caracterizar incertidumbres lingüísticas, es decir, modelar directamente clases de incertidumbre con base en reglas como el lenguaje natural de diferentes significados o medidas tomadas en entornos ruidosos [80], como es el caso del entorno derivado de la dinámica fisiológica. Si para una función de membresía tipo 1 como la de la Fig. 3, se fusifica nuevamente, entonces se obtiene una función de membresía tipo 2, en este caso toma valores diferentes que no son ponderados de la misma función de membresía tipo 1, por lo tanto, se puede asignar una distribución de la amplitud en todos los puntos [78]. FIG. 3. FUNCIÒN DE MEMBRESIA TIPO 2. Fuente: Hanbook of Granular Computing [78] Los sistemas difusos tipo 2, como se describe en la Fig. 4, reducen al mínimo los efectos de la incertidumbre [81], son muy útiles en circunstancias donde es difícil determinar una función de membresía exacta y presentan incertidumbre en la medición. Los tipo 1 son utilizados recientemente en la industria para aplicaciones de control [82]. La evolución hacia los sistemas difusos tipo 2 ha tomado más tiempo de lo esperado debido al costo computacional que requieren los algoritmos en ambientes de tiempo real [83]. La literatura reciente ha concluido que los sistemas difusos tipo 1 son basados en lógica convencional (numérica, alfanumérica y binaria), mientras los tipo 2 se basan en lógica difusa, que proporcionan un mejor modelo para la incertidumbre inherente al problema y robustez [84]. FIG. 4. SISTEMA DIFUSO TIPO 2. Fuente: Autor del proyecto La teoría de conjuntos rough (RST por sus siglas en inglés), inicialmente propuesta por Pawlak en 1982, es un método matemático para el tratamiento de la incertidumbre, vaguedad e imprecisión en el análisis de datos. Su éxito fundamentalmente se debe a la exploración de patrones ocultos embebidos en la base de datos sin demandar información adicional como umbrales o conocimiento de expertos. Dado un conjunto de datos con valores de atributos discretizados (entendiéndose como discretizados a la traducción de valores reales a nominales o simbólicos), la RST permite encontrar un subconjunto dentro de los atributos originales que aportan la mayor información. Sin embargo, presentan limitaciones en el manejo de características ubicadas en la escala de los reales [85]. Convertir a difuso los valores reales y crear un nuevo conjunto de datos con valores simbólicos antes de aplicar RST como método para reducir dimensiones ha sido una solución a dicha limitación, pero presenta considerables pérdidas de información [86]. En los últimos años, las investigaciones en FRS (Fuzzy Rough Set) se han centrado principalmente sobre todas las derivaciones que pueden surgir sobre conjuntos difusos. En [87] se propone un método que integra un algoritmo de inducción de reglas difusas denominado Quick Reduct, donde mediante técnicas FRS le realiza la selección de características mediante la función de dependencia. Sin embargo, el algoritmo no es convergente en muchas bases de datos reales debido a su po- Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado bre criterio de finalización y el crecimiento exponencial de la complejidad computacional [88]. En [89], Tsang et al., establecen las bases sólidas de la matemática para la reducción de características FRS. Adicionalmente, se propone un algoritmo basado en la matriz de discernibilidad para calcular todos los posibles subconjuntos de características relevantes, pero la validación es muy restringida y no se reportan resultados sobre bases de datos reales, como son las bases de datos de funcionamiento fisiológico. En [90], Maji et al., proponen un método basado en FRS usando el concepto de f-información en espacios de aproximaciones difusas, encontrando las características no redundantes y relevantes de conjuntos de datos en la escala de los reales. En [85] Wu et al., proponen el concepto de conjuntos fuzzy rough generalizado a entornos fuzzy tipo 2 para la reducción de características. Adicionalmente, desarrollaron el algoritmo “IT2 fuzzy-rough QuickReduct”, el cual utiliza la función de dependencia para seleccionar las características que se pueden agregar al candidato de reducción actual. El algoritmo termina cuando la adición de cualquier característica restante no aumenta el grado de dependencia del fuzzy rough tipo 2. La demostración fue lograda mediante un ejemplo de un sistema de información donde la reducción de características genera diferentes resultados cuando se compara con fuzzy rough set convencional, donde el grado de dependencia disminuye para fuzzy rough tipo 2 por el uso de reglas condicionales sobre el amplio conjunto de características. V. CONCLUSIONES La dinámica fisiológica representada mediante señales biomédicas (e.g. ECG, FCG, EEG, EMG, entre otros) son de alta complejidad y al momento de caracterizar su dinámica se requiere de espacios de representación de alta dimensión, lo que implica el uso de grandes recursos computacionales para su procesamiento, almacenamiento y transmisión. Aunque los sistemas modernos de cómputo, debido a su alto rendimiento, permiten analizar cantidades grandes de datos en espacios de dimensiones altas, cuando el número de características se incrementa, resultan inconvenientes que requieren ser tratados para asegurar el buen rendimiento del sistema automático. El aumento en el número de dimensiones del espacio de ca- 211 racterísticas es originado, entre otras cosas, por las exigencias de calidad y precisión en la representación de los estados funcionales, teniendo en cuenta que la complejidad crece exponencialmente a medida que se adicionan dimensiones; de acuerdo con esto, el problema se relaciona con el aumento significativo del tiempo de ejecución de los algoritmos y el exagerado costo en los estudios. En este sentido, reducir el número de dimensiones del espacio de representación, a través de un método basado en la extracción y selección de características, que contenga información de expertos mediante la inclusión de conjuntos difusos para distinguir aquellas variables que ofrezcan mayor capacidad discriminante, sin afectar negativamente la precisión de clasificación, puede llegar a reducir hasta en un amplio porcentaje los costos de procesamiento y en general costos económicos a sectores hospitalarios o de ámbito industrial que usan este tipo de aplicaciones. Las teorías de conjuntos rough y conjuntos fuzzy han demostrado tener un buen funcionamiento cuando se crea un híbrido entre ellas, de forma que se aprovechan las bondades inherentes de ambas técnicas, surgiendo el método Fuzzy Rough Set (FRS). Esta nueva técnica proporciona medios de reducción de dimensiones para valores simbólicos y reales utilizando medidas de similaridad. Los conjuntos fuzzy rough reúnen los conceptos relacionados pero distintos de imprecisión e indistinguibilidad debidas al ruido provocado por la incertidumbre natural del conocimiento. En este artículo se presentó una revisión del estado del arte basado en el estudio de la hibridación de los métodos fuzzy set y rough set para la selección de características con el objetivo de modelar la vaguedad y duplicidad como resultado de la incertidumbre en el conocimiento de la dinámica fisiológica. Aunque los algoritmos de reducción de dimensiones basados en técnicas fuzzy rough set tipo 2 poseen el problema de ser altamente costosos desde el punto de vista computacional y son difícilmente traducibles a un lenguaje nominal o simbólico, se puede obtener mediante técnicas de fuzzy rough sets tipo 2, asociadas a métodos axiomáticos a través de operadores de aproximación fuzzy baja y alta como conceptos primitivos, para generar un 212 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215 sistema de reducción de dimensiones con tendencia a la disminución de costo computacional para aplicaciones en ingeniería biomédica. REFERENCIAS [1] A. López and C. Vázquez, “Algoritmo de compresión para la señal de pulso arterial periférico,” Universidad, Ciencia y Tecnología, vol. 9, no. 34, pp. 75-79, Junio 2005. [2] D. Sánchez, “Procesado y transmisión de señales biomédicas para el diagnóstico de trastornos y enfermedades del sueño,” Universidad de Cádiz, Tesis Doctoral 2008. [3] M. Imhoff, R. Fried, U. Gather, and V. Lanius, “Dimension Reduction for Physiological Variables Using Graphical Modeling,” in AMIA 2003 Symposium Proceedings, Germany, 2003, pp. 313-317. [4] [5] J. H. Rivera, G. Castellanos, and J. S. Mejía, “Selección efectiva de características para bioseñales utlizando el analisis de componentes principales,” Scientia et Technica, vol. 13, no. 34, pp. 127-131, May 2007. L. xie and J. Li, “A Novel Feature Extraction Method Assembled with PCA and ICA for Network Intrusion Detection,” in International Forum on Computer ScienceTechnology and Applications, vol. 3, Chongqing, 2009, pp. 31-34, 25-27. [6] K. Hongfa and C. Yongguang, “An Interpolation Technique Based on Grey Relational Theory,” The Journal of Grey System, vol. 18, no. 1, pp. 79-83, 2006. [7] E. Delgado, G. Castellanos, and M. Vallverdú, Análisis de Relevancia en Espacios de Representación Orientado al Soporte de Diagnóstico: Aplicaciones en la Dinámica Cardíaca. Manizales: Ediciones Universidad Nacional de Colombia, 2009, vol. I. [8] L. Zhang, Y. Zhong, B. Huang, J. Gong, and P. Li, “Dimensionality Reduction Based on Clonal Selection for Hyperspectral Imagery,” IEEE Transactions on Geoscience and Remote Sensing, vol. 45, no. 12, pp. 41724186, Dec 2007. [13] D. Dubois and H. Prade, “Rough fuzzy sets and fuzzy rough sets,” International Journal of General Systems, vol. 17, no. 2 y 3, pp. 191–209, 1990. [14] D. Dubois and H. Prade, Fuzzy sets and systems: theory and applications, Mathematics in Science and engineering. New York: ACADEMIC PRESS, INC, 1980, vol. 144. [15] D. Chen and S. Zhao, “Local reduction of decision system with fuzzy rough sets,” Fuzzy Sets and Systems, vol. 161, no. 13, pp. 1871–1883, Jul. 2010. [16] E. Delgado, F. A. Sepúlveda, S. Röthlisberger, and G. Castellanos, “The Rademacher Complexity Model over Acoustic Features for Improving Robustness in Hypernasal Speech Detection. Volume. Editors: Ni,” in Computers and Simulation in Modern Science. UK: WSEAS Press, University of Cambridge, 2011, pp. 130-135. [17] T. Wagner, “Nonparametric estimates of probability densities,” Information Theory, IEEE Transactions on, vol. 21, no. 4, pp. 438- 440, Jul 1975. [18] B. xia, D. Hong, and K. Hongfa, “Study on Grey Parameter Estimation Approach of Small Samples,” in Grey Systems and Intelligent Services, 2009. GSIS 2009., Nov.2009, pp. 311-315. [19] D. C. Caccia, D. Percival, M. J. Cannon, R. Gary, and J. B. Bassingthwaighte, “Analyzing exact fractal time series: evaluating dispersional analysis and rescaled range methods,” Physica A: Statistical and Theoretical Physics, vol. 246, no. 3-4, pp. 609-632, December 1997. [20] J. B. Bassingthwaighte and G. M. Raymond, “Evaluating rescaled range analysys for time series,” Annals of Biomedical Engineering, vol. 22, no. 4, pp. 432-444, July 1994. [21] D. Peña and F. J. Prieto, “Multivariate Outlier Detection and Robust Covariance Matrix Estimation,” Technometrics, vol. 43, no. 3, pp. 286-310, Aug. 2001. [22] A. C. Rencher, Methods of Multivariate Analysis. , 2nd ed. New York: Wiley Series in Probability and Statistics, 2002. [9] L. A. Zadeh, “FuzzySets,” Information and Control, vol. 8, pp. 338-353, 1965. [23] D. Peña, Análisis de datos multivariantes.: Mc Graw Hill, 2002. [10] L. Zadeh, “Probability measures of fuzzy events,” J. Math. Anal. Appl., vol. 23, pp. 421–427, 1968. [24] [11] Z. Pawlak, Rough Sets, Theoretical Aspects of Reasoning About Data. Netherlands: Kluwer Academic Publishers, 1991. Z. M. Bokal and R.B. Sinitsyn, “Nonparametric method for estimating spoken language sound multivariate probability density function,” in Microwaves, Radar and Remote Sensing Symposium, 2008. MRRS 2008, Kiev , Sept. 2008, pp. 170-171, 22-24. [25] [12] Y. Y. Yao, “A Comparative Study of Fuzzy Sets and Rough Sets,” Information Sciences, vol. 109, no. 1-4, pp. 227-242, 1998. V. Babovic, M. Keijzer, and M. Stefansson, “Chaos theory, optimal embedding and evolutionary algorithms,” Tech. Rep. TR-9800463, Danish Technical Research Council (STVF), January 2001. Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado [26] [27] [28] [29] [30] [31] [32] [33] [34] 213 290, pp. 2323-2326, Dec. 2000. M. L. Petrovich and M. I. Davidovich, Estimación Estadística y Prueba de Hipótesis en el Computador (Rus). Moscú: Finansy i Statistika, 1989. [40] L. Baringhaus and N. Henze, “Limit Distributions for Measures of Multivariate Skewness and Kurtosis Based on Projections,” Journal of Multivariate Analysis, vol. 38, no. 1, pp. 51–69, July 1991. J. Tenenbaum, V. de Silva, and J. Langford, “A Global Geometric Framework for Nonlinear Dimensionality Reduction,” Science, vol. 290, pp. 2319-2323, Dec. 2000. [41] F. S. Tsai, “Dimensionality reduction techniques for blog visualization,” Expert Systems with Applications, vol. 38, no. 3, pp. 2766–2773, 2011. [42] N. Kwak, C. Kim, and H. Kim, “Dimensionality reduction based on ICA for regression problems,” Neurocomputing, vol. 71, no. 13-15, pp. 2596-2603, August 2008. [43] I. Joliffe, Principal Component Analysis, Second edition ed. New York: Springer-Verlag, 1986. [44] A. Hyvarinen, J. Karhunen, and E. Oja, Independent component analysis. Canada: John Wiley & Sons, 2001. [45] K. Fukunaga, Introduction to Statistical Pattern Recognition, 2nd ed.: Academic Press, 1990. [46] A. H. Sahoolizadeh, B. Z. Heidari, and C. H. Dehghani, “A New Face Recognition Method using PCA, LDA and Neural Network,” International Journal of Electrical and Electronics Engineering, vol. 2, no. 8, pp. 507512, 2008. [47] L. H. Chan, S. H. Salleh, and C. M. Ting, “PCA, LDA and neural network for face identification,” in Industrial Electronics and Applications, ICIEA 2009. 4th IEEE Conference on, xi’an, May. 2009., pp. 1256-1259, 2527. [48] M. Soo Park, J. H. Na, and J. Y. Cho, “PCA-based Feature Extraction using Class Information,” in Systems, Man and Cybernetics, 2005 IEEE International Conference on, vol. 1, Oct. 2005., pp. 341- 345. [49] W. Jiao and Y. Chang, “Fault diagnosis of rotor systems Using ICA Based Feature Extraction ,” in Proceedings of the 2009 IEEE International Conference on Robotics and Biomimetics, Dec. 2009. , pp. 1286-1291. [50] W. Liao and J. Jiang, “Image Feature Extraction based on Kernel ICA,” in Image and Signal Processing, 2008. CISP ‘08. Congress on, vol. 2, Sanya, May. 2008., pp. 763-767. K. Umayahara and Y. Nakamori, “N-dimensional views in fuzzy data analysis,” in Intelligent Processing Systems1997. ICIPS ‘97. 1997 IEEE International Conference on, vol. 1, Oct. 1997., pp. 54-57. T. W. Anderson and Bahadur R. R., “Classification Into Two Multivariate Normal Distributions With Different Covariance Matrices,” The Annals of Mathematical Statistics, vol. 33, no. 2, pp. 420–431, 1962. E. Delgado, A. Perera, M. Vallverdú, P. Caminal, and G. Castellanos, “Dimensionality reduction oriented toward the feature visualization for ischemia detection,” IEEE Transactions on Information Technology in Biomedicine, vol. 13, no. 4, pp. 590-598, Mar. 2009. R. Jensen and Q. Shen, “Semantics-Preserving Dimensionality Reduction: Rough and Fuzzy-Rough-Based Approaches,” IEEE Transactions On Knowledge and Data Engineering, vol. 16, no. 12, pp. 1457-1471, Dec. 2004. F. S. Tsai and K. L. Chan, “Dimensionality Reduction Techniques for Data Exploration,” in Information, Communications & Signal Processing, 2007 6th International Conference on, Dec. 2007, pp. 1-5, 10-13. G. Hu and S. Yuemei, “An Attribute Reduction Method based on Fuzzy-Rough Sets Theories,” in First International Workshop on Education Technology and Computer Science, vol. 3, China, Mar. 2009., pp. 828-831. I.K Sethi, “Entropy nets: from decision trees to neural networks,” Proceedings of the IEEE, vol. 78, no. 10, pp. 1605-1613, Oct. 1990. [35] I. Guyon, S. Gunn, M. Nikravesh, and L. A. Zadeh, Feature Extraction Foundations and Applications. Netherlands: Springer-Verlag, 2006. [36] D. Gering. (2002., Apr. ) Linear and Nonlinear Data Dimensionality Reduction. [Online]. http://people.csail. mit.edu/gering/ [37] K. Pearson, “On lines and planes of closest fit to systems of points in space,” Philosophical Magazine, vol. 2, no. 6, pp. 559-572, 1901. [51] F.R. Bach and M.I. Jordan, “Kernel Independent Component Analysis,” Journal of Machine Learning Research, vol. 3, pp. 1-48., 2002. [38] T. Cox and M. Cox, Multidimensional Scaling, Second Edition ed. New York: Chapman & Hall, 2001. [52] [39] S. T. Roweis and Saul L. K., “Nonlinear Dimensionality Reduction by Locally Linear Embedding,” Science, vol. W. Yang, L. Zhang, and C. Sun, “Fuzzy 2DLDA for Face Recognition,” in Pattern Recognition, 2009. CCPR 2009, Chinese Conference on, Nov. 2009., pp. 1-4, 4-6. 214 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 204 - 215 [53] J.H. Friedman, “Regularized discriminant analysis,” Journal of the American Statistical Association, vol. 84, no. 405, pp. 165–175., Mar. 1989. [66] R. Kohav and G.H. John, “Wrappers for Feature Subset Selection,” Artificial Intelligence, vol. 97, pp. 273-324, May. 1997. [54] J. Yang, D. Zhang, A. F. Frangi, and J. Yang, “Two-dimensional PCA: a new approach to appearance-based face representation and recognition,” Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol. 26, no. 1, pp. 131-137, Jan. 2004. [67] M. Blachnik, W. Duch, A. Kachel, and J. Biesiada, “Feature Selection for Supervised Classification: A Kolmogorov-Smirnov Class Correlation-Based Filter,” in AIMeth Series 2009, Symposium On Method of Artificial Intelligence, Gliwice, Nov.2009, pp. 18-19. [55] H. Kong et al., “Generalized 2D principal component analysis,” in Neural Networks, 2005. IJCNN ‘05. Proceedings. 2005 IEEE International Joint Conference on, vol. 1, Jul. 2005., pp. 108- 113. [68] P. A. Devijver and J. Kittler, Pattern Recognition: A Statistical Aproach, Prmera edición ed.: Englrwood Cliffs: Pretince Hall, 1982. [56] L. Wang, x. Wang, x. Zhang, and J. Feng, “The equivalence of two-dimensional PCA to line-based PCA,” Pattern Recognition Letters, vol. 26, no. 1, pp. 57-60, January 2005. [69] D. W. Aha and R. L. Bankert, “A Comparative Evaluation of Sequential Feature Selection Algorithms,” in Learning from data: artificial intelligence and statistics V. New York: Springer Verlag, 1996., ch. 19, pp. 199-206. [57] J. Yang and L. Chengjun, “Horizontal and Vertical 2DPCA-Based Discriminant Analysis for Face Verification on a Large-Scale Database,” Information Forensics and Security, IEEE Transactions on, vol. 2, no. 4, pp. 781-792, Dec. 2007. [70] P. Pudil, J. Novovicova, and J. Kittle, “Floating Search Methods in Feature Selection,” Pattern Recognition Letters, vol. 15, no. 11, pp. 1,119-1,125, Nov. 1994. [71] W.S. Zheng, J.H. Lai, and Z. Li Stan, “1D-LDA vs. 2DLDA: when is vector-based linear discriminant analysis better than matrix-based,” Pattern Recognition, vol. 41, no. 7, pp. 2156–2172, 2008. M. Kudo and J. Sklansky, “Comparison of Algorithms that Selects Features for Pattern Classifiers,” Pattern Recognition, vol. 33, no. 1, pp. 25-41, Jan. 2000. [72] W. Yan, x. Yan, L. Zhang , and C. Sun, “Feature extraction based on fuzzy 2DLDA,” Neurocomputing, vol. 73, no. 10-12, pp. 1556–1561, Jun. 2010. S. K. Pal, R. K. De, and J. Basak, “Unsupervised Feature Evaluation: A Neuro-Fuzzy Approach,” IEEE Trans. Neural Network, vol. 11, no. 2, pp. 366-376, Mar. 2000. [73] K. Kira and L. Rendell, “A practical Approach to Feature Selection,” in Proc. Ninth Int’l. Workshop Machine Learning, San Francisco, 1992., pp. 249-256. [74] D. Koller and M. Sahami, “Towards Optimal Feature Selection,” in Proc. 13th Int’l. Conf. Machine Learning, 1996, pp. 284-292. [75] P. Mitra, P. Murthy, and S. K. Pal, “Unsupervised feature selection using feature similarity,” IEEE Transactions On Pattern Analysis And Machine Intelligente, vol. 24, no. 6, pp. 301-312, Jun. 2002. [76] L. A. Zadeh, “FuzzySets,” Information and Control, vol. 8, pp. 338-353, 1965. [77] K. Jaber, R. Abdullah, and N.A. Rashid, “A framework for decision tree-based method to index data from large protein sequence databases,” in Biomedical Engineering and Sciences (IECBES), 2010 IEEE EMBS Conference on, Kuala Lumpur, Nov.2011, pp. 120-125. Z. Wang, Q. Wang, M Bai, Z. Chen, and Z. Sun, “Further exploration on relationship between crisp sets and fuzzy sets,” in Computer and Automation Engineering (ICCAE), 2010 The 2nd International Conference on, vol. 2, 2010, pp. 609-613. [78] I.K Sethi, “Entropy nets: from decision trees to neural networks,” Proceedings of the IEEE, vol. 78, no. 10, pp. 1605-1613, Oct. 1990. W. Pedricz, A. Skowron, and V. Kreinovich, Handbook of Granular Computing. England: A Jhon Wiley & Sons, 2008. [79] L. Zehua, J. Hai, and Y. Pingpeng, “The Theory of Triangle Type-2 Fuzzy Sets,” in Computer and Information Technology, 2009. CIT ‘09. Ninth IEEE International Conference on, Oct. 2009, pp. 57-62, 11-14. [58] [59] [60] C. Deisy, B. Subbulakshmi, S. Baskar, and N. Ramaraj, “Efficient Dimensionality Reduction Approaches for Feature Selection,” in International Conference on Computational Intelligence and Multimedia Applications, vol. 2, Sivakasi, Tamil Nadu, Dec. 2007, pp. 121-127. [61] M. Dash and H. Liu, “Feature Selection for Classification,” Intelligent Data Analysis: An Internat. J., vol. 1, no. 1, pp. 131-156, 1997. [62] M. Dash and H. Liu, “Consistency-based search in feature selection,” Artificial Intelligence, vol. 151, no. 1-2, pp. 155-176, Dec. 2003. [63] [64] [65] T. Kohonen, Self-Organizing Maps, Third Edition ed. Berlin: Springer, 1995. Representación efectiva de dinámicas fisiológicas mediante fuzzy rough set: una revisión - Orrego, Delgado [80] J.M. Mendel and Wu Hongwei, “Type-2 Fuzzistics for Symmetric Interval Type-2 Fuzzy Sets: Part 1, Forward Problems,” Fuzzy Systems, IEEE Transactions on , vol. 14, no. 6, pp. 781-792, Dec. 2006. [81] J.M. Mendel, “Type-2 fuzzy sets and systems: An overview.,” IEEE Comput. Intell. Mag., vol. 2, no. 1, pp. 20– 29., Feb. 2007. [82] H. Hagras, “Type-2 FLCs: A New Generation of Fuzzy Controllers ,” Computational Intelligence Magazine, IEEE , vol. 2, no. 1, pp. 30-43, Feb. 2007. [83] J.M. Mendel, R.I. John, and Liu Feilong, “On using type1 fuzzy set mathematics to derive interval type-2 fuzzy logic systems,” in Fuzzy Information Processing Society, 2005. NAFIPS 2005. Annual Meeting of the North American, 2005, pp. 528- 533. [84] K. W. Reed, “Type-1 And Type-2 Fuzzy Systems For Detecting Visitors In An Uncertain Environment,” Dissertations, Academic, University of Missouri, Columbia , Computer engineering, Columbia, Tesis Maestria 2009. [85] H. Wu, H. Wu, and J. Luo, “An Interval Type-2 Fuzzy Rough Set Model for Attribute Reduction,” IEEE Transactions on Fuzzy System, vol. 17, no. 2, pp. 301-315, 2009. [86] E. C. Tsang, D. Chen, D. S. Yeung, x. Z. Wang, and J. W. Lee, “Attributes Reduction Using Fuzzy Rough Sets,” IEEE Transactions On Fuzzy Systems, vol. 16, no. 5, pp. 1130-1141, 2008. [87] R. Jensen and Q. Shen, “Fuzzy-Rough Sets for descriptive Dimensionality Reduction,” in Fuzzy Systems, IEEE International Conference, Honolulu, HI , USA , 2002, pp. 29-34. [88] R. B. Bhatt and M. Gopa, “On fuzzy-rough sets approach to feature selection,” Pattern Recognition Letters, vol. 26, no. 7, pp. 965-975, May 2005. [89] G. C. Tsang, C. Degang, E. C. Tsang, J. W. Lee, and D. S. Yeung, “On attributes reduction with fuzzy rough sets,” in IEEE Conferences, vol. 3, 2005, pp. 2775-2780. [90] P. Maji and S. K. Pal, “Feature Selection Using F-information Measures in Fuzzy Approximation Spaces,” IEEE Transaction on Knowledge and data Engineering, vol. 22, no. 6, pp. 854-867, Jun. 2010. 215 Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I Jorge Andrés Álvarez Triana Ing. Biomédico, Universidad Antonio Nariño Docente Tiempo Completo, Investigador Grupo GEPRO, Universidad Antonio Nariño UAN Ibagué, Colombia [email protected] José Armando Fernández Gallego MSc. Automatización Industrial, Universidad Nacional de Colombia sede Manizales Docente Tiempo Completo, Investigador Grupo GEPRO, Universidad Antonio Nariño UAN Ibagué, Colombia [email protected] Resumen— En este artículo se presenta una metodología para el desarrollo de aplicaciones en dispositivos embebidos y móviles para el procesamiento digital de imágenes. Se muestra un ejemplo de desarrollo de una máscara sobel para detección de bordes aplicada sobre la imagen de Lena en el dispositivo Zeus Epic 520 que cuenta con el procesador ARMV4I con sistema operativo Windows CE. de trabajo con diferentes leyes de operación y que necesariamente para su programación requieren de un nuevo compilador que pueda traducir el lenguaje C/C++ a su respectivo conjunto de instrucciones. Dado que cada fabricante posee una forma diferente de configuración del compilador, de sus dispositivos, su interfaz e interconexión con su plataforma de desarrollo puede llegar a ser confuso la forma de emprender una implementación con éxito en este nuevo sistema. En este artículo se presenta la metodología utilizada para programar el procesador ARMV 4I mediante el compilador Embedded Visual C++ 4.0 para aplicaciones bajo Windows CE 5. Palabras clave— Dispositivo embebido, Procesador ARMv 4I, procesamiento de imágenes, Windows CE. Abstract— This paper presents a methodology for the design of applications in embedded and mobile dispositives for digital image processing. Shows an example of design using a sobel mask for edge detection on the image of Lena in the dispositive Zeus Epic 520 which count with ARMv 4I processor with Windows CE operative system. Keywords— Embedded dispositive, ARMv 4I processor, Image processing, Windows CE. I. INTRODUCCIÓN Actualmente los sistemas de cómputo utilizan procesadores programados en lenguaje C/C++ como un estándar adoptado en la industria con el que se abre la posibilidad de utilizar códigos de programación en diferentes arquitecturas de dispositivos mediante el compilador apropiado para cada uno. Como una primera etapa natural para un programador es realizar sus desarrollos en lenguaje C/C++ con compiladores para Windows o Linux, con los que es posible realizar cada una de las funciones implementadas a nivel de hardware con éxito, hasta este momento es transparente para el desarrollador la forma exacta en que los datos van a ser manipulados por el procesador. Cuando se requiere desarrollar aplicaciones en una arquitectura diferente a la de un PC convencional, es necesario ahora centrarse en el conocimiento de la arquitectura del nuevo dispositivo, debido a que este es ahora un nuevo espacio II. MATERIALES y MéTODOS A. Sistemas Embebidos Son dispositivos de propósito específico y dedicado, a diferencia de un PC convencional son diseñados para ejecutar un número disminuido de operaciones [1]. Estos sistemas se caracterizan por su tamaño reducido, su bajo consumo de potencia y su bajo costo. En [1] el autor explica las diferencias específicas con un sistema de cómputo convencional con los siguientes argumentos: • Generalmente son de costo reducido • La mayoría poseen restricciones de tiemporeal • Existen múltiples arquitecturas de procesadores (MIPS, ARM, PowerPC y otros) cuyas características varían según la aplicación específica del sistema embebido (procesamiento de imágenes, transmisión de datos, entre otros) • Poseen recursos limitados de memoria RAM, ROM u otros dispositivos de Entrada /Salida Recibido: 04/08/2011/ Aceptado: 10/11/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222 Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I - Álvarez, Fernández (E/S) en comparación con una computadora tipo PC • Un sistema embebido es diseñado desde dos perspectivas, hardware y software, habida cuenta su aplicación específica. Este tipo de sistemas suele imponer límites de interacción con el usuario o restringirlo con la finalidad de evitar las modificaciones al sistema base. a). Arquitectura Los sistemas embebidos son implementados en una sola tarjeta y en esta se encuentran contenidos los recursos necesarios y suficientes para su funcionamiento, tales como memoria RAM, microprocesador y puertos de comunicación, entre otros. Ver Fig. 2. La mayoría de estos recursos no son ampliables; y si existe la posibilidad no son de fácil acceso al usuario del común a excepción de los conectores y buses de datos que suministra el fabricante. b). Procesadores integrados Frecuentemente los sistemas embebidos tienen microprocesadores - integrados denominados SOC por sus siglas en inglés system on chip. Los procesadores tipo SOC poseen integrados componentes controladores DRAM, USART, UART, ETHERNET, PCI, y otros. La arquitectura habitual de los procesadores SOC es de tipo RISC por sus siglas en inglés reduced Instruction set computer, la cual puede apreciarse en la Fig. 1. Fig. 1. ARQUITECTURA DE PROCESADOR SOC TIPO RISC TOMADO DE [1] 2) 3) 4) 5) 217 quitectura lo que dicta las pautas, normas y recursos disponibles para tal fin. La comprensión del kernel o sistema operativo del dispositivo es fundamental, ya que incluidas dentro de este se encuentran disponibles las librerías necesarias para el manejo de imágenes; junto a estas es necesario revisar las incluidas por el fabricante. Si las librerías no son eficientes al aprovechar los recursos del sistema y consumen mayor tiempo máquina del esperado es necesario utilizar herramientas básicas del lenguaje C/C++ apoyadas por la base matemática de las técnicas del procesamiento digital de imágenes. Es necesario entender las limitaciones del sistema tanto en software como en hardware para aprovechar al máximo los recursos disponibles. El conocimiento de las herramientas de desarrollo es fundamental ya que estas difieren de las estándar siendo específicas para el dispositivo. El fabricante suele proporcionar los kits estándar de desarrollo que se encargan de enlazar la herramienta de desarrollo junto con las librerías del dispositivo y su procesador. Es preciso un patrón de comparación de los resultados obtenidos contra una herramienta de software especializada en procesamiento digital de imágenes o librería para compiladores C/C++ estándar para realizar el ajuste finó de algoritmos. III. LIMITACIONES DEL SISTEMA A. Procesador ARMv 4I B. Metodología La secuencia metodológica ordenada por pasos para el desarrollo de aplicaciones en procesamiento digital de imágenes en sistemas embebidos debe ser: 1) Al abordar la programación de cualquier sistema embebido es el conocimiento de su ar- Este procesador tiene una arquitectura tipo RISC de 32 bits y preparado para trabajar en ambientes industriales. Dentro las limitaciones del procesador ARMv 4I [1] se tienen: 1) Punto flotante Su arquitectura es diseñada para aplicaciones móviles y embebidas optimizada para operaciones con valores enteros, pero no tiene soporte para operaciones de punto flotante [2], [3], [4], aunque es capaz de emularlas mediante instrucciones ilegales. Para utilizar este tipo de operacio- 218 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222 nes el compilador C/C++ envía órdenes al procesador para que haga uso del emulador interno de operaciones punto flotante, lo que puede llevar a errores inesperados por exceso de operaciones ilegales y desborde de pila si existe exceso de datos de este tipo. 2) Velocidad La velocidad establecida para el reloj de este procesador es 520 MHz. El procesamiento en tiempo real es limitado por esta velocidad y las aplicaciones robustas deben ser puntuales, precisas y eficientes. Es recomendable no hacer uso de gran cantidad de variables flotantes para no aumentar el tiempo de respuesta. necesaria la instalación de Microsoft Active Sync 3.75 o superior. Puede realizarse sincronización por medio de conexión Ethernet / LAN, vía bluethoot y vía USB. El programa hace uso del protocolo IP v4 en su versión 3.75, donde el host es Windows xP y el cliente es Windows CE permitiendo importar y exportar datos entre los dos sistemas. Microsoft Active Sync se encarga de la compatibilidad entre archivos debido a que las cabeceras de los mismos son distintas en Windows xP y Windows CE [10]. B. Windows CE 5 Características como bajo consumo de potencia e integración en una sola placa son propias de los sistemas embebidos. El sistema ZEUS EPIC 520 de la empresa Eurotech cumple con estos lineamientos básicos y posee características necesarias y suficientes de procesamiento y velocidad. Este dispositivo posee un procesador ARMv 4I como el usado por celulares, GPS y Tablet PC. Cuenta con una memoria RAM de 256 MB en board, memoria flash 64MB, 256kB de memoria RAM de respaldo con batería y un socket para memorias SD y MMC. A nivel video y gráficos ostenta un controlador para su respectiva pantalla táctil, un controlador de captura rápida de video y controlador de video de salida VGA. Interfaces de comunicación entrada salida como Ethernet, RS 232, RS 422, RS 485, USB 1.1 y soporte para modem wireless [5]. En la Fig. 2 se muestra el diseño esquemático del dispositivo. Dentro de las limitaciones para esta versión embebida de Windows encontramos: 1) Módulos Windows CE 5 a diferencia de las versiones para PC convencional está constituido por módulos, la inclusión de estos varía según el fabricante del dispositivo en donde está instalado. Así el fabricante del sistema podría prescindir de funciones necesarias para el procesamiento gráfico y otras funciones requeridas. 2) Procesos Windows CE 5 es multitarea, cada proceso ejecutado tiene un límite de 32 MB y restringe los recursos disponibles para la aplicación que va a desarrollar [6], [7], [8]. 3) Actualización del sistema La forma de actualización del sistema requiere escribir la memoria Flash o Flash NAND. Si este proceso se realiza de forma incorrecta se corre el riesgo de inutilizar el dispositivo [9]. IV. SINCRONIZACIÓN WINDOWS CE 5 – WINDOWS xP Al desarrollar una aplicación para cualquier dispositivo embebido es necesario sincronizar datos entre el sistema de desarrollo y el dispositivo sobre el cual se programa. Para el caso del software de desarrollo Embedded Visual C++ la sincronización de datos es puntual a la versión del software requiriendo de Windows xP o inferior mínimo Windows 2000. Es V. DISPOSITIVO DE DESARROLLO Fig. 2. DISEÑO ESQUEMÁTICO DEL DISPOSITIVO EMBEBIDO ZEUS EPIC 520 Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I - Álvarez, Fernández VI. SOFTWARE DE DESARROLLO Al desarrollar una aplicación para un dispositivo embebido es necesaria la instalación del set estándar de desarrollo, por su sigla en inglés SDK, proporcionadas por el fabricante. El software de desarrollo debe ser capaz de interpretar el SDK y permitir seleccionarlo de una lista. A. Embedded Visual C++ Este software de desarrollo está orientado a aplicaciones móviles o embebidas. Su interfaz gráfica es semejante a la de Visual C++ 6.0, enfocada a la programación en el API (Aplicativo de interfaz de programación) de Windows CE en sus diferentes versiones, sin dejar de lado el desarrollo estándar C++. 1) Configuración del software El programa puede configurarse desde el menú Tools. Los submenús necesarios para la configuración son los siguientes: a) Menú Options Muestra diferentes opciones organizadas por pestañas como se muestra en la Fig. 3. Entre las cuales encontramos configuración del editor, tabulaciones, ajuste (debug), compatibilidad, descarga (download), construir (build), directorios, espacio de trabajo, macros y forma. Donde las pestañas fundamentales para la configuración son descarga, directorios y espacio de trabajo. Fig. 3. CUADRO DE DIÁLOGO DEL MENÚ OPCIONES 219 torio es necesario una vez creado un proyecto ir al menú proyecto (Project) pestaña enlace (link) e incluir los nombres de los módulos de librería .lib en la opción Object/library modules. La pestaña descarga (download) permite administrar que datos propios del ejecutable son enviados al dispositivo y cambiar el tiempo de espera para detectar la sincronización con el dispositivo. En la pestaña espacio de trabajo (workspace) encontramos las opciones que nos permiten vigilar el programa mientras corre en modo ajuste (debug). Las esenciales son salida (output) que visualiza lo compilado y posibles errores, observar (watch) que permite vigilar la variables, memoria (memory) que permite ver recursos disponibles y en cola (call stack) que permite vigilar el estado de pila. La importancia de estas opciones radica en la limitación de recursos que se tiene por parte del dispositivo por lo cual es imperioso vigilar y observar para prevenir y corregir errores. b) Menú Configurar director de plataforma (configure Platform Manager) Desde este menú es posible administrar los dispositivos instalados por el SDK del fabricante así como los emuladores de pocket PC o de Windows CE, que permiten configurar el método de sincronización con el dispositivo. Es recomendable ajustarlo a Microsoft Active Sync y hacer el test de sincronización. B. Proyecto en Embedded Visual C++. Como es tradición en los ambientes de trabajo de Microsoft visual studio para ejecutar el código es necesario crear un nuevo proyecto, la diferencia radica en la posibilidad de elegir el procesador con el cual se desea trabajar [10] en este caso particular el procesador ARMv 4I ver Fig.4. Fig. 4. CUADRO DE DIÁLOGO NUEVO PROYECTO La pestaña directorios permite enlazar librerías y los SDK al procesador y plataforma de desarrollo. Los enlaces se logran al escribir la ruta del directorio que contiene los archivos necesarios según sea el tipo incluir (include), librerías (library), origen (source) o ejecutable. Para enlazar librerías además de especificar las rutas de direc- 220 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222 También posee la alternativa de elegir una plantilla de aplicación previamente configurada, o elegir una guía de configuración de la aplicación. Aunque venga previamente configurado o se utilice la guía de configuración es recomendable configurarlo manualmente como se ha descrito anteriormente. Una vez creado el proyecto podemos seleccionar el SDK, procesador y dispositivo a utilizar desde la barra de herramientas configuración de WCE, dentro de esta barra encontramos dos modos de compilación / ejecución; un modo ajuste (Debug) y un modo (lanzamiento) (release). El modo ajuste (debug) compila y ejecuta conjuntamente el embedded visual C++ con el dispositivo. El modo lanzamiento (release) ejecuta totalmente el código en el dispositivo y este sirve para guardar en la memoria del dispositivo él ejecutable. C. Punto de entrada Winmain en Windows CE. A diferencia de C/C++ estándar donde se utiliza la función main en el compilador embedded visual c++ es necesario utilizar Winmain. Los parámetros de esta función son definidos por el sistema operativo y son universales para todas las clases de arquitectura de Windows. Cada parámetro pasa al sistema operativo como código de salida. Winmain se encarga de traducir y trasladar mensajes, y de cargar los aceleradores internos de Windows para ejecutar procedimientos de ventana. [7], [8] y [10]. D. Portabilidad del código El código no es portable ni compatible con otras versiones del mismo, por ejemplo un código escrito para la versión 5 puede no ser ejecutado en la versión 6. La portabilidad del código entre procesadores asumiendo la misma versión de Windows y los mismos contenidos, depende que sean de la misma familia o compatibles, por ejemplo un código compilado con un procesador ARMv 4I no es portable a un procesador x86, pero si es compatible con un ARMv 4T. E. Archivo ejecutable El archivo .exe generado por el compilador es descargado al sistema de ficheros del dispositi- vo. La permanencia del mismo depende del dispositivo en sí; para el caso del ZEUS EPIC 520 [5], [10] este es guardado en directorio raíz a la parte de ficheros en RAM, por lo que al cortar la alimentación del dispositivo el ejecutable se pierde. Esto se soluciona mediante la entrada que posee el dispositivo para memorias externas SD o USB que retengan los datos de forma permanente. Para caso de dispositivos móviles como Pocket PC o teléfonos móviles es guardado en la memoria removible del dispositivo. VII. LECTURA y ESCRITURA DE LA CABECERA DEL FORMATO BMP Las librerías contenidas en Windows CE para carga de imágenes son poco eficientes a nivel velocidad por lo tanto es necesario utilizar un métodos alternativos de carga como lo es leer la imagen directamente desde un buffer binario. Durante este trabajo es utilizado el formato BMP; formato de archivo básico usado para imágenes digitales en Windows. Este es soportado por la mayoría de versiones de Windows. El formato BMP es compuesto por: 1) Cabecera de archivo. 2) Cabecera de mapa de bits 3) Tabla de color 4) Datos crudos de la imagen. La cabecera del archivo mostrada en la Figura 4 es formada por los primeros 14 bytes. Donde los primeros dos bytes indican el tipo del archivo que pueden ser en formato hexadecimal (4D42) ó en ASCII (BM). Los siguientes cuatro bytes indican el tamaño del archivo, seguidos de dos bytes reservados. Los bytes restantes dan un valor offset a los datos de imagen [6]. La cabecera de mapa de bits es conformada por 40 bytes mostrados en la Figura 4 b). Inicia con el tamaño de la cabecera siempre de 40 seguida del tamaño de la imagen en alto y ancho; si el valor del alto es un número negativo significa que la imagen está invertida o fue almacenada de abajo hacia arriba. El siguiente campo contiene los planos de color donde 1 es representa imágenes blanco y negro, y 3 para imágenes de color RGB. Los siguientes 2 bytes Procesamiento de imágenes bajo Windows CE utilizando el procesador ARMv 4I - Álvarez, Fernández indican los bits por pixel, por ejemplo, 8 es para 256 niveles de grises. El campo que corresponde a compresión activa la compresión si está en uno y desactiva en cero. Los siguientes dos campos expresan la resolución horizontal y vertical, están medidos en pixeles por metro. Por último los dos campos relacionados con color ayudan a descomprimir e interpretar los colores junto con la tabla de color [11]. Fig 5. ESTRUCTURA DE LA TRAMA DE DATOS DE LAS CABECERAS DEL FORMATO BMP. A) CABECERA DE ARCHIVO, B) CABECERA DE MAPA DE BITS [6] 221 Fig. 6. MÁSCARAS DE SOBEL VERTICAL Y HORIZONTAL La fig. 6 muestra la matriz I que representa la imagen de entrada suponiendo que es de 3x3. Las ecuaciones 1 y 2 muestran como se calculan los gradientes Gmx y Gmy [12], [13]. Fig. 7. MATRIZ I QUE REPRESENTA LA IMAGEN DE ENTRADA 1. Más allá de las cabeceras se cuenta con la tabla de color, que funciona reasignando un valor de entrada a un valor de color. La parte final de la trama corresponde a los datos almacenados de la imagen en la extensión BMP, datos que deben ser interpretados con la tabla de color. Para aumentar la velocidad de procesamiento, la lectura del archivo se realiza con la función fopen para la carga del archivo y fread con su respectiva cabecera <commctrl.h>. Para escritura se utiliza la función fopen con la bandera w para escribir un nuevo archivo y adicionalmente se utiliza fwrite para agregar nuevos datos a la trama del archivo [11]. VIII. RESULTADOS En el dispositivo de desarrollo se realizó un ejercicio de implementación con el filtro de SOBEL que se muestra en la Fig. 6. Las ecuaciones utilizadas para obtener el valor total del gradiente son (1) y (2). En donde las operaciones básicas desarrolladas son suma, resta potenciación y radicación al procesar los datos obtenidos por medio de la memoria flash y la memoria del programa. 2. 3. Para obtener el gradiente total de salida se utiliza la ecuación 3 donde Gp es la imagen del gradiente total calculado [12], [13]. La Fig.8 muestra la imagen de entrada I y las imágenes de salida Gmx, Gmy y Gp con 8 bits de resolución en escala de grises y con 8 bits de resolución. En el primer cuadrante se muestra la imagen de entrada Lenna en formato BMP; en el segundo y tercer cuadrante se muestra el resultado de aplicar el operador sobel vertical y horizontal. La imagen del cuarto cuadrante muestra el resultado final de la implementación del filtro sobel mediante C/ C++ que hace uso del embedded visual C++ para el sistema embebido Zeus Epic 520 con procesador ARMv 4I. 222 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 216 - 222 Fig. 8. RESULTADO DE APLICAR EL OPERADOR SOBEL SOBRE LA IMAGEN EN EL DISPOSITIVO ZEUS EPIC 520 total conocimiento de la herramienta utilizada y su respectivo entorno de desarrollo. REFERENCIAS Los datos de salida del filtro deben ajustarse a la resolución máxima de 8 bits. El tiempo empleado por el dispositivo al leer, detectar bordes y escribir la imagen de salida en formato BMP fue de 1,89 s. xI. CONCLUSIONES Los sistemas de procesamiento actuales de tipo embebido cuentan con una arquitectura limitada y diferente a los sistemas de cómputo tradicional, las implementaciones en esta nueva arquitectura deben estar soportadas por el estudio previo del sistema donde se quiere realizar el procesamiento de los datos con el objetivo de conocer sus herramientas y limitaciones propias. Antes de elegir un dispositivo embebido es una tarea fundamental conocer la aplicación específica que se quiere realizar, el entorno de trabajo donde se alojará el dispositivo y las garantías de programación tales como librerías, programas de sincronización y desarrollo que garanticen un acompañamiento al programador al emprender su tarea. En el ejemplo de aplicación que se muestra en este artículo se recopila no solamente la realización de una máscara espacial a una imagen, sino una tarea de investigación y documentación previa que debe seguirse al momento de programar una arquitectura embebida. El filtro de sobel implementado no cuenta con limitaciones numéricas de procesamiento y su resultado es el mismo que se obtendría con otro sistema de procesamiento clásico, este resultado se logra con el [1] C. Hallinan,”Embedded Linux primer”, Prentice hall, september 2006, capítulo 2. [2] ARMv 5 Reference manual, ARM ltda, 2005 disponible en http://infocenter. arm.com/help/index.jsp?topic=/ com.arm.doc.ddi0100i/index.html, 2007 copyrigth. [3] Devian, “ArmEabiPort”, disponible en http://wiki.debian.org/ArmEabiPort, capítulo 4. [4] ARM,“Procedure Call Standard for the ARM® Architecture”, ARM IHI 0042D, current through ABI release 2.08, October 2009. [5] ARCOM, “ZEUS Windows CE Development kit Manual”, 2001 ARCOM. [6] Microsoft msdn, “Windows CE 5.0”, disponible en http://msdn.microsoft. com/enus/library/ gg144991%28v= WinEmbedded.0%29.aspx, 2011 Microsoft. [7] S.Phung, “Profesional Windows CE 6.0”, Wiley Publishing inc, 2009. [8] S. Pavlov, P. Belevsky, “Windows CE 6.0 Fundamentals”, Microsoft Press. 1998. [9] Microsoft msdn, “Platform builder Users Guide Windows CE 5.0”, disponible en http://msdn.microsoft. com/en-us/library/aa448756.aspx, 2011 Microsoft. [10] P. González, “Manual básico de Embedded Visual C++ 4.0”, Universidad de Oviedo, 2004. [11] D. Phillips, “Image processing in C”, “2nd ed. R&D Publications, 2000, pp 7-21 , pp 47 -56. [12] W. K. Pratt, “digital image procesing”, Wiley-Interscience Publication,JOHN WILEY & SONS, INC, 3th edition, pp 453 – 454. [13] Q. Ying-Donga, C. Cheng-Songa, C. San-Benb, L. JinQuana,” A fast subpixel edge detection method using Sobel–Zernike moments operator”, Image and Vision Computing 23, 2005, pp 11–17. Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander Fernando Antonio Rojas Morales M. Sc. en Ciencias Computacionales, Universidad Industrial de Santander Docente Tiempo Completo, Investigador Grupo GIIB, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Robinson Delgado Rojas M. Sc.(c) Ingeniería de Sistemas e Informática, Universidad Industrial de Santander Ing. Diseño y Desarrollo, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Fredy humberto Vera Rivera M. Sc. Ingeniería de Sistemas e Informática, Universidad Industrial de Santander Docente Tiempo Completo, Universidad Santo Tomás, Investigador Grupo UNITEL, Universidad Santo Tomás USTA Bucaramanga, Colombia [email protected] Resumen— El modelo de desarrollo basado en componentes es un nuevo paradigma de desarrollo que permite la implementación de sistemas rápidamente, a partir de componentes de software previamente desarrollados. El repositorio de componentes es la pieza principal de este modelo de desarrollo ya que permite la administración, selección, identificación, cualificación y ensamblaje de componentes de software. En este artículo se explica el modelo de desarrollo, y cómo se diseñará un repositorio de componentes para dar soporte al proceso de desarrollo de software empresarial. Para el diseño se tendrán en cuenta todos los requerimientos funcionales y no funcionales que debe contemplar un repositorio de componentes, que soporte el modelo de desarrollo basado en componentes. La implementación de este repositorio se aplicará a la División de Servicios de Información DSI, de la Universidad Industrial de Santander UIS, como mejora al modelo de desarrollo allí implantado, para optimizar este modelo de desarrollo por componentes, ya que con el repositorio se permite disminuir los tiempos de búsqueda, selección e identificación de los componentes. Además de mejorar los tiempos de respuesta de atención a las solicitudes de mantenimiento y desarrollo que allí se generan, ya que las demoras se disminuyen al máximo al obtener e identificar de forma rápida los componentes que deben ser revisados o integrados en los sistemas solicitados. También se elimina el desarrollo de componentes de forma repetida y descontrolada por la falta de la herramienta que permita monitorear y centralizar los componentes desarrollados. Palabras clave— Componentes, Ingeniería de Software basada en componentes, Repositorio de componentes. Abstract— The component-based development model is a new paradigm of development that allows the implementation of systems quickly, starting of software components developed previously. The component’s repository is the main tool of this development model since it allows the administration, selection, identification and assembly of software components. In this paper the development model will be explained, as well as the design of a component’s repository to give support to the development process of business software. For this design all the functional and non-functional requirements having component´s repository and giving support to components-based development model will be taken into account. The deployment of this repository will be applied to Information Services Division of Universidad Industrial de Santander UIS in order to improve the development model implanted here, optimizing this development components model. This repository can decrease times of searching, selection, and identification of components. Besides, it shortens response times of attention to the maintenance requirements and the development that these generate. This is due to the fact that the delays decrease to the maximum by getting and identifying quickly the components that it would be verified or integrated in the requested systems. Also, it eliminates the development of repeated and not controlled components due to the lack of a tool that allows overlook and centralizes the components developed. Keywords— Component, Component – Based Software Engineering, Component’s Repository. Recibido: 11/06/2011/ Aceptado: 23/09/2011/ ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233 224 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233 I. INTRODUCCIÓN El modelo de desarrollo basado en componentes es una clase de enfoque que permite el desarrollo de software mediante la existencia de componentes de software preexistentes. Este enfoque conlleva grandes cambios en el ciclo de vida [1]. Entre las ventajas del modelo de desarrollo basado en componentes se encuentran la mejora en la producción de software y la disminución del costo de desarrollo, además de disminuir el tiempo de mantenimiento y pruebas [2]. Ya que los componentes son piezas de software independientes, con una lógica de negocios e interfaces bien definidas para el acceso a sus funcionalidades, se puede pensar en el desarrollo de software como la creación y ensamble de estos componentes, pero para ello es indispensable contar con una herramienta que permita almacenar, catalogar, seleccionar y ensamblar los componentes de interés para el desarrollador [3]. En la División de Servicios de Información se cuenta con un grupo considerable de componentes desarrollados pero no se tiene una herramienta que permita la adecuada implementación del modelo de desarrollo. Por ello se plantea la construcción de un repositorio de componentes que optimice el modelo de desarrollo de la DSI. Para la implementación de este repositorio se han llevado a cabo varias etapas de carácter obligatorio que permiten identificar las funcionalidades requeridas por la DSI en el repositorio. Etapas como la obtención de los requerimientos de la DSI para implantación del repositorio, funcionalidades que debe prestar el repositorio en el modelo de desarrollo, además de contar con algunas restricciones propias del modelo de desarrollo de la DSI. Para ello se debe identificar el modelo del dominio, capturar los requerimientos de dicho modelo, elegir la arquitectura de software, construcción y población del repositorio entre otras [4]. A continuación se explicará brevemente la metodología utilizada durante el desarrollo de la propuesta. II. METODOLOGÍA Para el diseño e implementación de un repositorio de componentes que permita dar soporte al modelo de Desarrollo Basado en Componentes CBD (Component-Based Development), es necesario conocer plenamente los requerimientos de este paradigma de desarrollo. Para ello se ha realizado un estudio del modelo de desarrollo y su funcionamiento dentro de la División de Servicios de Información, ya que éste será implementado para dar soporte a esta empresa de desarrollo de software. Como primera medida se ha recolectado la mayor información posible acerca de los procedimientos y falencias del modelo implementado allí, de este estudio particular y el conocimiento acerca del modelo de desarrollo basado en componentes nace un problema que se debe considerar. A. Problema de investigación Debido a que el modelo de desarrollo de software de la División de Servicios de información es el CBD y no cuenta con una herramienta que permita la administración de los componentes desarrollados que pueden ser utilizados en el proceso, nace un problema que debe ser resuelto y es el siguiente: ¿Cómo optimizar la disposición de componentes implementados para mejorar el proceso de desarrollo de software en la División de Servicios de Información? Como parte de la solución de este problema surge la necesidad de un sistema que permita, además de la centralización de los componentes desarrollados, acciones como consultar, seleccionar e identificar componentes que puedan ser integrados en el desarrollo de un nuevo sistema software. Para determinar la forma de satisfacer las necesidades y/o falencias del modelo de desarrollo de software implementado en la DSI, se debe realizar algunas preguntas que permitan desglosar el problema planteado. B. ¿Cómo identificar los componentes que cumplen con los requerimientos del desarrollador para su reutilización? Para identificar un componente debidamente es necesario definir las características relevantes de este, y así crear su ficha de especificación para que el desarrollador pueda utilizarla para la plena identificación del componente requerido. Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera C. ¿Qué alternativas de arquitectura se pueden utilizar para el desarrollo del repositorio de componentes reutilizables? B. 225 El Repositorio de componentes A continuación se detallará en el modelo de desarrollo, la importancia del repositorio de componentes, sus funcionalidades y beneficios. El reposito de componentes es herramienta que permite buscar, hallar y administrar los componentes de software que se utilizarán para el desarrollo de una nueva aplicación de negocios [5]. Un repositorio de componentes debe soportar algunas actividades principales del modelo de desarrollo CBD, tales como: búsqueda, selección, verificación y almacenamiento [5]. En la actualidad existen varios repositorios de componentes, algunos de carácter gubernamental y otros comerciales, como el CRECOR, GIRO y +1Reuse Repository, entre otros [2] [6] [7]. Estos ofrecen algunas funcionalidades, de las que se esperan de un repositorio de componentes, pero no cuentan con algunas funcionalidades que pueden ser importantes para empresas que desarrollan y utilizan dichos componentes, a diferencia de la mayoría de empresas que desarrollan componentes y son creados en su mayoría para utilización o integración por terceros. Entre algunas de estas funcionalidades se pueden observar la búsqueda o identificación por medio de la estructura de datos o tablas que toca el componente en la base de datos, otra funcionalidad importante es la de poder observar un componente en funcionamiento desde el repositorio mismo, ya que éste permite eliminar cualquier duda acerca del componente elegido. En la construcción de un repositorio se debe tener en cuenta definir la forma de búsqueda de componentes en el repositorio, es decir, definir el sistema de congruencia entre los parámetros de búsqueda y la metadata del componente. También definir las funciones que se van a permitir ejecutar desde el repositorio, además de información que se va a visualizar y grabar en el momento del registro del componente. A. El Proceso de Desarrollo Basado en Componentes (CBD) C. Funcionalidades Principales de un Repositorio de componentes. El proceso de desarrollo basado en componentes permite elevar la eficiencia del proceso mismo de desarrollo de componentes. Este proceso puede dividirse en 2 grandes áreas [5], enfocadas básicamente a la producción de componentes, y a la utilización de los mismos dentro del repositorio para la integración de nuevos sistemas. Algunas principales funcionalidades que debe contemplar un repositorio de componentes son: 1) Búsqueda Esta actividad hace referencia a encontrar dentro de un espacio o un conjunto de componentes aquel que provea las funcionalidades requeridas por el sistema que se desarrolla. Es necesario definir la estructura que se utilizará para la construcción del repositorio, ya que de ella depende la relación entre los componentes registrados y el sistema repositorio. D. ¿Qué estructura de datos se debe crear con el fin de implementar un repositorio de componentes funcional y completo? Para implementar un repositorio que cumpla las expectativas y requerimientos de la División, se debe diseñar una estructura de datos que contemple todos estos requerimientos y funcionalidades exigidas, de tal forma que pueda integrarse al modelo de desarrollo de la DSI y permitir la solución de la problemática allí evidenciada. E. ¿Cómo se debe especificar un componente de software para permitir su plena identificación? Para especificar un componente de software se debe luego de definir un procedimiento de especificación, registrar su ficha en el repositorio y permitir la consulta de dicha ficha por el desarrollador con el fin de facilitar la identificación o rechazo del componente. A continuación se definirán algunos conceptos básicos acerca del modelo de desarrollo CBD y su herramienta principal. III. REPOSITORIO DE COMPONENTES – GENERALIDADES 226 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233 2) Selección. Los componentes candidatos son hallados, de ellos se toma el que mejor se acomode a los requerimientos y funcionalidades. 3) Verificación Esta actividad podría ser parte de la selección del componente, ya que contempla actividades de pruebas de funcionalidad del componente separado del sistema. 4) Almacenamiento. Cuando un componente es terminado y está debidamente probado, este debe poder registrarse en el repositorio, para hacer parte de él, para ello debe registrarse también la metadata del componente junto con su ficha de especificación. D. Elección de la Arquitectura En la actualidad existen varias arquitecturas que pueden adoptarse para el diseño de un repositorio de componentes, entre ellas se tienen: modelo-vista-controlador, Arquitectura por capas y Arquitectura orientada a servicios (SOA) [8]. De la elección de la arquitectura depende el funcionamiento y la forma de interacción entre los diferentes subsistemas del repositorio, además de la interacción del usuario y el repositorio en sí. E. Beneficios Entre los principales beneficios del modelo de desarrollo basado en componentes se tienen la economía en el tiempo de desarrollo, tiempo para pruebas, tiempo de mantenimiento y la mejora en la calidad del software desarrollado, todas estas debido al desarrollo anticipado y reutilización de software que permite probar y utilizar software una sola vez y ser implementado en varios sistemas con la plena seguridad de su correcto funcionamiento. Se explicará detalladamente cómo se implementó el repositorio de componentes para la División de Servicios de Información de la Universidad Industrial de Santander. IV. DISEñO E IMPLEMENTACIÓN DEL REPOSITORIO DE COMPONENTES UIS Se explicará en detalle los pasos y requerimientos que se tuvieron en cuenta para el diseño y desarrollo del repositorio de componentes requerido por la División de Servicios de Información de la Universidad Industrial de Santander UIS. Sección encargada del mantenimiento y desarrollo de todos los sistemas informáticos académicos y administrativos institucionales. A. Adquisición de requerimientos Para la División de Servicios de Información de la Universidad Industrial de Santander es de vital importancia que el repositorio de componentes cumpla con una serie de funcionalidades que permitan optimizar el proceso de desarrollo basado en componentes allí implementado, para ello es importante definir algunos requerimientos que este repositorio debe contemplar. Para obtener estos requerimientos es importante tener en cuenta la experticia del grupo de desarrolladores de software de la DSI con el fin de obtener información acerca de qué y cómo debe hacerse para obtener información del componente y qué datos son realmente relevantes en el momento del registro. Adicionalmente, se tiene en cuenta algunos parámetros que si bien no permiten la flexibilidad del sistema, si agilizan el procedimiento de registro y búsquedas. Entre ellos se tienen la utilización de atributos de tipo string en vez de tablas de descripciones, y el uso de campos redundantes para consultas por personas con diferente conocimiento de la programación (tablas – entidades). Entre ellas están las funcionalidades propias de un repositorio de componentes: almacenamiento, búsqueda, selección e identificación de componentes, pero adicionalmente se desean algunas funcionalidades y adaptaciones propias de la DSI, que no permiten la implementación de un repositorio del mercado, por ello, se recomienda el desarrollo e implantación de un repositorio propio que implemente las funcionalidades requeridas y que adicionalmente proporcione estas funcionalidades particulares propias del modelo de desarrollo de la DSI. Uno de los aspectos que se debe tener en cuenta en el desarrollo del repositorio es la posibilidad de ver en funcionamiento el componente al momento de su selección. Además, por política de la DSI, no se registrarán en el repositorio componentes de diferentes casas de desarrollo, sólo se almacenarán componentes desarrollados por la DSI. Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera B. Funcionalidades y/o servicios Dado que es un buen sistema, uno que sea útil, aprovechable, fiable, flexible, accesible y disponible [11], y que el repositorio de componentes de software de la DSI posea estas características, se definieron las funcionalidades y servicios del repositorio de componentes para la División de Servicios de Información servicios las que se consideran propias de un repositorio de componentes típico: registro, almacenamiento, búsqueda y selección de componentes [1], [9]. Adicionalmente se contemplan otras funcionalidades que hacen de este repositorio la herramienta ideal para ser utilizada por los desarrolladores de la DSI, entre las principales se encuentra la opción de observar el componente en funcionamiento desde el repositorio con el fin de disipar cualquier duda acerca de su funcionamiento. También se desea almacenar información acerca de cómo implementar el componente o como se hace el llamado desde el sistema en desarrollo. Para permitir la fiabilidad, accesibilidad y disponibilidad del repositorio, se han seguido algunos estándares de programación y desarrollo establecidos por la DSI como la elaboración de prototipos de desarrollo para plasmar los requerimientos en un modelo y ser validados por el personal encargado de la DSI. C. Definición de la arquitectura La selección de la arquitectura es importante, ya que se define cómo funcionará el repositorio internamente, es decir, cómo permitirá interactuar al usuario con sus funcionalidades y la estructura de la base de datos. La Ingeniería de Software Basada en Componentes (CBSE: Component-Based Software Engineering), define varias arquitecturas que pueden utilizarse en aplicaciones de desarrollo de software. Para el caso particular de la DSI, se tomará el mismo modelo arquitectónico implementado para el desarrollo de los componentes, es la arquitectura por capas [8], ya que esta estructura es la básica del desarrollo de aplicación en JAVA EE5, tecnología adoptada por la División de Servicios de Información, estándar en el cual se planteará el desarrollo del repositorio de componentes. Las aplicaciones Java EE5 constan de tres capas principales: La cliente, la del servidor Java EE, que se subdivide en dos: la web y de lógica del negocio y, la de información empresarial, como se muestra en la Fig. 1. FIG. 1. ARQUITECTURA POR CAPAS Fuente: SUN MICROSYSTEM, The Java EE5 tutorial. 2008 227 228 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233 D. Beneficios del repositorio El repositorio de componentes es pieza fundamental en la ingeniería de software basada en componentes, ya que permite la centralización, unificación de los componentes y optimización en los tiempos de búsqueda, selección y pruebas de los componentes. En el proceso de desarrollo de software implementado en la DSI no se cuenta con un repositorio de componentes, razón por la cual la búsqueda e identificación de componentes requería de una buena cantidad de tiempo y no garantizaba la identificación ni existencia real de un componente, ya sea por la falta de documentación o por el desarrollo descontrolado de componentes causado por la necesidad del componente sin desarrollar aún. Los beneficios que traerá el desarrollo de componentes en el modelo de desarrollo de DSI son: Mejora en los tiempos de búsqueda, selección e identificación de componentes, mejora en los tiempo de desarrollo, ya que no se tendrán que desarrollar nuevos componentes por no encontrarse en un sitio centralizado, mejora en los tiempos de pruebas, ya que las pruebas dedicadas a los componentes no deben hacerse nuevamente, ya que están debidamente probados, mejora la calidad de software, ya que los desarrollados son implementados por las personas que saben de la lógica del negocio, se optimiza el tiempo de mantenimiento, ya que se mejora la documentación de los componentes y se unifica la utilización de componentes debido a la unicidad de los mismos. E. Estructura de datos Para el desarrollo de un repositorio de componentes se deben tener en cuenta las especificaciones y requerimientos definidos para él. El modelo de datos o estructura diseñada debe soportar las funcionalidades definidas y permitir la administración de los componentes. Para el desarrollo del repositorio de componentes de la DSI se diseñó el modelo de datos que muestra la Fig. 2. El prototipo de repositorio para la División de Servicios de Información contempla las funciones para las que fue concebido, entre las restricciones establecidas figura el almacenamiento de componentes desarrollados sólo por la DSI, el desarrollo de componentes en el estándar JAVA EE5 y la documentación requerida del componente que se contempla en la metadata o en la información para búsqueda e identificación del componente. Dentro del prototipo se contemplan búsquedas por nombre de la tabla en el modelo de datos, entidades relacionadas, funcionalidad y autor entre otras. Adicionalmente se registrará información relacionada con la implementación del componente. FIG. 2. ESTRUCTURA DE DATOS DEL REPOSITORIO DE COMPONENTES DSI Fuente: Autor del proyecto Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera F. 229 Esta información permitirá su plena identificación e integración por parte del desarrollador que lo consulte. Los atributos o datos de la especificación se definen según los parámetros definidos para búsqueda, identificación y selección del componente, además de otra información de importancia que se desee guardar desde el mismo momento de registrarlo en el repositorio de componentes. Especificación del componente La especificación de componente es una parte importante en el modelo de desarrollo, ya que permite la plena identificación del componente, además de guardar la información relevante del mismo dentro del repositorio de componentes. TABLA I ficha de especificación definida para los componentes desarrollados por la división de servicios de información de la UIS FICHA DE ESPECIFICACIÓN DEL COMPONENTE NOMBRE DESCRIPCIÓN Nombre del componente FEChA: Fecha de creación VERSIÓN 1.0 Descripción breve del componente, qué hace, las funcionalidades que maneja, domino de aplicación al cual pertenece. ESPECIFICACIÓN DE IMPLEMENTACIÓN TIPO VISUALIZACIÓN Tecnología en la cual fue implementado el componente, junto con sus versiones. INTERFAZ Nombre de la interfaz que define los servicios del componente. SERVICIOS Define la signatura de los servicios que presta el componente. SERVICIOS EAR Define la signatura de los servicios que presta el componente en un ear. FUENTE DE DATOS Define el archivo donde se encuentra el data source del componente. PRECONDICIONES Definen los requisitos que se deben cumplir antes de entrar a utilizar el componente. POSTCONDICIONES Definen los requisitos que se deben cumplir después de utilizar el componente. ESPECIFICACIÓN NO FUNCIONAL GRADO DE REUTILIZACIÓN Es el puntaje obtenido por el componente en el análisis de reutilización realizado en el modelo de selección de componentes. DISTRIBUCIÓN Define la forma como se debe instalar y utilizar el componente en las plataformas soportadas. ESPECIFICACIÓN DE IDENTIFICACIÓN TABLAS Define las estructuras de datos que están involucradas en el proceso. ENTIDADES Define las entidades relacionadas directamente con la lógica del componente. PALABRAS CLAVE Define o relaciona las palabras que identificarán el componente con los criterios de búsqueda. SISTEMA Sistema bajo el cual el componente fue desarrollado, y por lo cual pertenece su lógica de negocio. FUNCIONALIDAD Define las funcionalidades realizadas por el componente (INSERT, UPDATE). AUTOR Nombre de la persona que desarrolló de componente. Fuente: Autor del proyecto 230 ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233 En una ficha de especificación pueden distinguirse varios tipos de atributos, cada uno puede agruparse según su función dentro del proceso de desarrollo, es así que pueden observarse atributos de identificación del componente como nombre, firma, versión y descripción general, entre otros. También se distinguen atributos orientados a la búsqueda y selección, atributos como palabras clave, autor, funcionalidades, entidades u objetos relacionados con el componente entre otros. Además existen otros atributos que sirven para documentación complementaria del componente, como precondiciones y postcondiciones del componente o arquitectura de desarrollo del mismo. Cabe anotar que para algunos desarrolladores ciertos atributos pueden pertenecer a varios de estos tipos o por el contrario pertenecer a otro tipo del que se especificó en este documento. G. Implementación del repositorio Para la implementación de este repositorio, se debe tener en cuenta los pasos o actividades anteriores que permiten plasmar las funcionalidades y requerimientos demandados por la División de Servicios de Información. Estas funcionalidades o actividades que debe realizar el desarrollador o programador en el repositorio de componentes se ilustran mejor en el modelo de caso de uso que se muestra en la Fig. 4. Fig. 4. MODELO DE CASO DE USO DEL REPOSITORIO DE COMPONENTES DSI Fuente: Autor del proyecto Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera Para la implementación del repositorio se definen algunos EJB´s que permitirán agrupar las funcionalidades y/o actividades que se podrán ejecutar en el repositorio, entre los que se encuentran: Registro, búsqueda, selección y reportes entre otros, cada una de estos EJB posee funcionalidades propias de su lógica, por ejemplo el EJB de búsqueda cuenta con métodos o funciones de consulta, comparación, consistencia, visualización, inspección y recuperación. Existe diferencia entre inspeccionar y recuperar, ya que recuperar consiste en identificar y extraer según el criterio de concordancia, e inspeccionar no requiere criterio predefinido [6]. Para las funciones de registro se decide agrupar los componentes en 2 grandes familias que son componentes con interfaz y Componentes de servicios o de recuperación de información. H. Interface de usuario La interfaz de usuario permite la interacción con el repositorio de componentes, que habilita las opciones implementadas según el rol del usuario. En esta interfaz el usuario podrá acceder a sus funciones principales como el registro del componente, situación en la cual deberá diligenciar la ficha de especificación del componente diseñada especialmente para identificación de cada componente. Adicionalmente podrá consultar los componentes, al acceder a ellos inicialmente por medio de una consulta de criterios de selección, entonces, podrá observar las propiedades y funcionalidades de cada componente mostrado como resultado de la consulta. El repositorio de componentes permite que el implementador observe toda la información de cada uno de los componentes mostrados por la consulta con el fin de permitir al desarrollador identificar plenamente el componente adecuado para su sistema en desarrollo. Entre la información que el implementador o desarrollador puede visualizar de un componente se encuentran los datos de implementación, como interfaces, servicios y tipos de componentes, además se pueden observar datos no funcionales y de selección e identificación como entidades, funcionalidad, tablas y autor, entre otros. Ahora se presenta en la Fig. 5, la interface principal de consulta, donde el desarrollador podrá elegir los criterios de búsqueda para realizar la consulta en el repositorio de componentes. Fig. 5. INTERFAZ DE USUARIO PARA CONSULTA DE COMPONENTES Fuente: Autor del proyecto 231 232 I. ITECKNE Vol. 8 Número 2 • ISSN 1692 - 1798 • Diciembre 2011 • 223 - 233 Registro de componentes Antes del registro del componente se debe determinar qué componentes deben ir en el repositorio, esto se hace por medio de los criterios de reusabilidad que nos entregan una calificación del componente [4][8], la cual nos permite determinar si el componente como tal cuanta con un alto grado de reusabilidad. Para el registro y almacenamiento de cada componente en el repositorio es indispensable contar con los datos básicos de la ficha de especificación exigida por el repositorio para el registro, ya que esta información será utilizada para su posterior identificación, además se debe contar con los archivos fundamentales del componente, estos archivos para el caso particular de los componentes seleccionados por la División de Servicios de Información (EJB), estos archivos son: 1) JAR de Entidades Archivo que contiene el mapeo de las entidades – estructura de datos. 2) JAR de Servicios Archivo donde se implementa o escriben los métodos o funciones que se ofrecen al usuario, estas funciones deben estar claramente documentadas. 3) JAR de interfaz de usuario En este archivo de distribución, se implementan las diferentes interfaces de usuario que el componente mostrará al usuario en el momento de su ejecución, es de notar que no todos los componentes requieren interfaces, ya que algunos de ellos ofrecen el retorno de información no visible para el usuario final, es decir, retornan objetos con información que será tomada por otro proceso o componente. 4) EAR de servicios Los EAR o “Enterprise Archives” son básicamente los JAR servicios empaquetados con archivos META-INF, esto debido a la estructura del Java Application Server” que requiere dicha estructura para su reconocimiento. 5) Datasource.xml Verificación Los archivos de este tipo definen la conexión con la base de datos, es decir, contienen la información del usuario, servidor y base de datos para establecer la conexión. J. Búsqueda y selección de componentes Para la consulta dentro del repositorio se contemplan varias áreas de búsqueda, para definir estas áreas, se tuvo en cuenta la distribución y conocimiento de las personas involucradas directamente en el proceso de desarrollo, es así como para algunas personas es importante la funcionalidad misma del componente, para otras es de mayor relevancia las entidades u objetos que se tocan en la lógica del negocio del componente. Para el personal de la DSI la información puede variar según su función dentro del modelo, por ello algunas personas tienen cierto conocimiento con el cual deben hacer las búsquedas, como conocimiento de la estructura de la base de datos, pero no de la forma en que fueron denominados dichos objetos en el proceso de mapeo. Igualmente sucede con las funcionalidades y palabras clave de búsquedas definidas para cada componente. Según todos estos requisitos, se definieron varios patrones de búsqueda que pueden ser seleccionados por el desarrollador en el momento de consultar el repositorio en busca de algún componente que cumpla con las funcionalidades deseadas, entre los patrones de búsqueda se encuentran palabras clave, funcionalidad, entidades, tablas, autor, sistema y tipo de componente, entre otros. Todos estos contemplados en el diseño del repositorio. Luego que el desarrollador selecciona los patrones de búsqueda y ejecuta la consulta, el repositorio visualiza al desarrollador la lista de componentes que cumplen con uno o más criterios seleccionados. De esta lista el desarrollador podrá acceder a la información completa del componente con el fin de identificar completamente las funcionalidades del mismo y así elegir o descartar dicho componente. Si el desarrollador desea podrá hacer uso de la funcionalidad de prueba del componente, con la cual podrá ver el componente en funcionamiento, con el fin de descartar cualquier duda acerca del funcionamiento. V. CONCLUSIONES De este trabajo se obtuvo el diseño de un repositorio de componentes que permite dar soporte al modelo de desarrollo basado en componentes Diseño e implementación de un repositorio de componentes software para soportar el desarrollo de software empresarial – caso: División de Servicios de Información de la Universidad Industrial de Santander - Rojas, Delgado, Vera implementado por la División de Servicios de Información de la Universidad Industrial de Santander, este trabajo fue elaborado por miembros del Grupo de Investigación en Ingeniería Biomédica de la Universidad - GIIB. El desarrollo de este repositorio se basó prácticamente en suplir las necesidades del modelo de desarrollo de la DSI, y de mejorar sustancialmente algunas falencias del modelo consecuencia de la falta del repositorio de componentes. La estructura de almacenamiento fue implementada en el motor de base de datos Informix Dinamic Server 11.5, y sus interfaces al usuario en ambiente gráfico para facilitar su utilización y navegabilidad. Como trabajos futuros se recomienda revisar los procedimientos de la DSI relacionados directamente con el modelo de desarrollo en donde se defina la utilización obligatoria del repositorio en la implementación de los sistemas allí desarrollados, y el desarrollo de los componentes por las áreas de la DSI que conozcan la lógica del negocio sobre la cual debe funcionar el componente, áreas como académica, recursos humanos y financiera, entre otras. REFERENCIAS [1] Ivica Crnkovic, Michael Chaudron, Stig Larson. Component-Based Development Process and Component Lifecycle. Sweden. 2006. [2] Jihyun Lee, Jinsam Kim, and Gyu-Sang Shin. Faciliting Reuse of software components using repository Technology. Republic of Korea. 2003. [3] Clemens Szyperski, Component Software: Beyond Object-Oriented Programming. Addison-Wesley. 1998 [4] James Petro, Michael E. Fotta and David B. Weisman. Model-Based Reuse Repository – Concepts and Experience. 1995. [5] Jung Eun Cha, Young-Jung Yang, Mun-Sub Song and Hang Gon Kim. Design and Implementation of component repository for supporting the component based development process. Software Engineering Department, Electronic and Telecomunications Research Institute and Dept. of Computer Engineering, Catholic University of Deagu. Korea 2001. [6] Hernández Díez Carmen, Laguna Serrano Miguel A, García Peñalvo Francisco J. La biblioteca de Reutilización GIRO. España 233 [7] Jiang Guo. Research Associate. Monterey - Luqi. Department of computer Science. Monterey. A Survey of Software Reuse Repositories. USA. [8] Vera R, Freddy H. Rojas, Fernando. Artículo. Propuesta de un proceso de desarrollo de componentes software reutilizables. Revista Gerencia Tecnológica Informática. Volumen 7 – Numero 19. Diciembre de 2008. [9] Minder Chen, Edgar H. Sibley. Using a CASE Based Repository for Systems Integration. George Mason University. IEEE 1991. [10] SUN MICROSYSTEM, The Java EE5 tutorial. 2008. [11] STEVENS Perdita, POOLEY Rob. Utilización de UML en ingeniería del Software con Objetos y Componentes. PERSON Addison Wesley. 2ª. ed. Madrid, 2007. Instrucciones a los autores Revista ITECKNE Instrucciones Generales • • • • • • • • • • • • Los trabajos se aceptan para la publicación previo proceso de revisión de su calidad académica y científica. Todo artículo postulado para publicación debe ser original o inédito, y no puede estar postulado para publicación simultáneamente en otras revistas. En la página web de la Revista Iteckne se halla disponible la declaración de originalidad y cesión de derechos, que los autores deberán diligenciar y enviar al Comité Editorial, junto con el artículo. La revista Iteckne requiere a los autores que concedan la propiedad de sus derechos de autor, para que su artículo y materiales sean reproducidos, publicados, editados, fijados, comunicados y transmitidos públicamente en cualquier forma o medio, así como su distribución en el número de ejemplares que se requieran y su comunicación pública, en cada una de sus modalidades, incluida su puesta a disposición del público a través de medios electrónicos, ópticos o de otra cualquier tecnología, para fines exclusivamente científicos, culturales, de difusión y sin fines de lucro. El Comité Editorial hace una primera evaluación, después de la cual, el trabajo puede ser rechazado sin evaluación adicional o se acepta para la evaluación de los pares académicos externos. Por lo anterior, no se asegura a los autores la publicación inmediata de dicho artículo. La decisión de rechazar un trabajo es definitiva e inapelable. Los trabajos pueden ser rechazados en esta primera evaluación porque no cumplen con los requisitos de redacción, presentación, estructura o no son suficientemente originales y/o pertinentes con la publicación a editar. Los trabajos que son aceptados en esta primera etapa, son enviados a los pares académicos externos (árbitros) expertos en el área respectiva, cuyas identidades no serán conocidas por el autor y, a su vez, los pares evaluadores tampoco conocerá la(s) identidad(es) del(los) autor(es). Si el trabajo es aceptado, pero con la recomendación de hacer modificaciones, se le devolverá al (los) autor(es) junto con las recomendaciones de los árbitros para que preparen una nueva versión corregida para lo cual disponen del tiempo que le indique el Comité Editorial. Los autores deben remitir la nueva versión con una carta física o correo electrónico en la que expliquen detalladamente los cambios efectuados, de acuerdo con las recomendaciones recibidas. El Editor junto con el Comité Editorial determinarán su aceptación, considerando el concepto de los evaluadores y las correcciones realizadas por el(los) autor(es). La lista de todos los árbitros se publicará en la revista, como miembros de un Comité de Árbitros, sin anunciar el artículo calificado. Los árbitros realizarán la evaluación de acuerdo al formato correspondiente establecido por la revista y sólo serán publicados los artículos que superen en la calificación cualitativa en la escala de 1 a 50, 35 puntos. En todos los casos se comunicarán a los autores los resultados del proceso de evaluación con los argumentos que sustenten la decisión del Comité Editorial y/o el Comité de Arbitraje. Un árbitro podrá calificar dos (2) artículos de diferentes autores al tiempo, de igual forma un artículo podrá ser calificado por dos árbitros diferentes, ya sean internos, nacionales o internacionales. Los integrantes del Comité Editorial y Comité de Arbitraje, no deberán evaluar sus propios productos, en caso tal que actúen como autores dentro de la misma publicación. Los trabajos no publicados serán archivados como artículos rechazados o en proceso de aceptación. La dirección de la revista ITECKNE no se responsabiliza por el contenido de los artículos, ni por su publicación en otros medios. El contenido de cada artículo es responsabilidad exclusiva de su(s) autor(es) y no compromete a la Universidad. Los artículos deberán ser enviados en medio magnético (extensión .doc) a la siguiente dirección física y/o correo electrónico. Revista ITECKNE División de Ingenierías Universidad Santo Tomás Carrera 18 Nº 9-27 Bucaramanga, Colombia Tel: +57 7 6800801 Ext. 1421 e-mail: [email protected] Forma de Presentación de los Artículos. La presentación de cada publicación estará de acuerdo con el diseño básico de la línea Editorial. Deberá mantener, entre otros aspectos, la congruencia entre el contenido y el público al que va dirigida. Todos los documentos postulantes a ser publicados deberán tener las partes requeridas y cumplir con los apartados descritos a continuación: De las partes del documento El documento debe contener: • Titulo • Autor (es) • Resumen • Abstract • Palabras clave • Keywords • • • • • • Introducción Contenido del documento Conclusiones Apéndice(s) Agradecimientos Bibliografía De la redacción Para lograr un buen estilo se recomienda respetar rigurosamente la sintaxis, la ortografía y las reglas gramaticales pertinentes. Se debe redactar en forma impersonal (la forma impersonal corresponde a la forma reflexiva, por ejemplo: se hace, se define, se definió, se contrastó). El trabajo debe estar exento de errores dactilográficos, ortográficos, gramaticales y de redacción. Para resaltar, puede usarse letra cursiva o negrilla. De la Puntuación • Después de punto seguido se deja un espacio; y de punto aparte una interlínea. • Los dos puntos se escriben inmediatamente después de la palabra, seguidos de un espacio y el texto comienza con minúsculas. De los requerimientos físicos del artículo A continuación se presentan apartados de cumplimiento general en el desarrollo del artículo: • El tamaño de la página será carta, con márgenes superior e inferior de 20 mm; izquierdo y derecho de 25 mm. • El documento se desarrollará en dos columnas con separación central de 4,3 mm (ver plantilla revista Iteckne). • El diseño de encabezado y pie de página debe estar a un centímetro de la hoja. • El contenido del documento debe desarrollarse a espacio sencillo, dejando una línea cada vez que se desea iniciar un párrafo. • El texto del contenido del artículo se formalizará con tipo de fuente Arial tamaño 10. • La numeración del documento se iniciará desde la Nomenclatura en caso de existir una, hasta las conclusiones del documento. Los agradecimientos, apéndices y referencias bibliográficas, no son consideradas como Secciones numeradas del documento. • Las tablas deberán llevar numeración continua, comenzando en Tabla I., referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la tabla con tabulación central, en tipo de letra Arial, tamaño 8. (Ver plantilla revista Iteckne). • Las Figuras deberán llevar numeración continua, comenzando en Fig. 1. referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la figura, con tabulación central, en tipo de letra Arial, tamaño 8. Nótese que "Fig." se ha escrito abreviada y hay doble espacio antes del texto. • Las figuras incluidas en el contenido del artículo deben ser originales, suficientemente claras, para facilitar la edición de la revista. • Todas las figuras deben ser enviadas por separado en formato jpg con una resolución entre 240 y 300 dpi (puntos por pulgada). • Las tablas y figuras del documento, deberán ir referenciadas (Fuente: xxx) en el cuerpo del artículo. Dicha referencia debe ir en letra Arial tamaño 7, en la parte inferior de la figura o tabla, tabulado a la izquierda. • Las columnas de la última página deben ser concluidas con un largo igual o simétrico. • Las referencias ubicadas al final del documento, deberán ir enumeradas consecutivamente (Número entre corchetes [1], y con el siguiente formato (Ver plantilla revista Iteckne): Artículos de revistas científicas Autor(es), Nombre de la publicación, Título de la revista, Volumen, Número, páginas y año. Deben ir en fuente Arial, Tamaño 7. Ejemplo: J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988. Libros Autor, Nombre del libro, Edición, Editorial, Año, páginas. Ejemplo: E. Clarke, Circuit Analysis of AC Power Systems, vol. I. New York: Wiley, 1950, p. 81. • En cuanto a las abreviaturas y símbolos, deben utilizarse solo abreviaturas estándar, evitando utilizarlas en el título y el resumen. Se deben colocar al inicio del artículo en la parte de NOMENCLATURA. El término completo representado por la abreviatura debe preceder dicha abreviatura o nomenclatura. En caso de no existir la parte de NOMENCLATURA, el término completo representado por la abreviatura deberá aparecer la primera vez que aparece la abreviatura en el cuerpo del texto, a menos que se trate de una unidad. • Las viñetas usadas para señalización especial, será el punto, de fuente Symbol y tamaño 8. • Los artículos deben contener el día de recepción del artículo y el día de aceptación por parte del Comité Editorial. • En caso de que los artículos contengan fórmulas matemáticas, deben estar digitadas en fuente Arial 10, mediante el Microsoft Editor de ecuaciones. • El diseño de la revista debe contener leyenda bibliográfica en cada uno de los artículos y en la portada de la revista. • El artículo deberá tener un mínimo de 4 caras de hoja y un máximo de 20 caras de hoja de contenido, en el formato establecido por la revista. De las referencias bibliográficas • Para citar referencias Bibliográficas ver la plantilla de la revista Iteckne. Se recomienda a los autores tener 15 referencias como mínimo de bibliografía consultada. INSTRUCTIONS TO ThE AUThORS, ITECKNE JOURNAL General instructions • The articles are accepted for publication after their academic and scientific quality have been reviewed. • All articles postulated for publication must be original or unpublished, and cannot be postulated for publication simultaneously in other journals. The declaration of originality and copyright assignment is available in the Iteckne Journal webpage. The authors must sign it and send it to the Publishing Committee, along with the article. The Iteckne journal requires the authors to grant the property of their author’s rights, so that their article and materials are reproduced, published, edited, fixed, communicated and publicly transmitted in any form or means, as well as their distribution in any required number of units and their public communication, in each of their modalities, including putting them at the disposal of the public through electronic, optical or any other means of technology, for exclusively scientific, cultural, broadcasting and nonprofit aims. • The Publishing Committee makes a first evaluation, after which the work can be rejected without any additional evaluation or accepted for evaluation of the external academic pairs. The previous statement does not assure the immediate publication of the article. The decision to reject a work is definitive and unquestionable. • The works can be rejected in this first evaluation because they do not fulfill the writing requirements, presentation, structure or are not original enough and/or pertinent with the publication to be published. The works that are accepted in this first stage are sent to the external academic peers (referees) experts in the respective area, whose identities will not be known by the author and, similarly, the evaluating peers will not know the identity/ies of the author /s. • If the work is accepted, but with the recommendation to make modifications, it will be given back to the author/s along with the recommendations from the referees so that he/they prepare a new corrected version within the time indicated by the Publishing Committee. The authors must send the new version with a physical letter or an e-mail in which they explain in detail the changes made, in accordance with the received recommendations. The Publisher along with the Publishing Committee will determine its acceptance, considering the concept of the evaluators and the corrections made by the author/s. • The list of all the referees will be published in the journal, as members of a Referees Committee, without announcing the described article. The referees will carry out the evaluation according to the corresponding format established by the journal and they will only publish the articles with over 35 points in the qualitative qualification scale from 1 to 50. • The authors will always be informed about the results of the process of evaluation that sustain the decision of the Publishing Committee and/or the Referees. • An academic peer (referee) will be able to grade two (2) articles by different authors at once; similarly, an article can be graded by two different referees, which can be internal, national or international. • The members of the Publishing and Referees Committees must not evaluate their own products, in case they act like authors within the same publication. • The non-published works will be filed as rejected articles or articles in process of acceptance. • The editorial board of the ITECKNE journal does not take responsibility for the content of the articles, nor for their publication in other means. The content of each article is exclusive responsibility of their authors and not the University’s. • The articles must be sent electronically (extension .doc) to the following physical address and/or e-mail Revista ITECKNE División de Ingenierías Universidad Santo Tomás Carrera 18 N 9-27 Bucaramanga, Colombia Tel: +57 7 6800801 Ext. 1421 e-mail: [email protected] Presentation of Articles The presentation of each publication will be in agreement with the basic design of the Publishing line. It must maintain, among others aspects, congruence between the content and the audience at which it is aimed. All the documents sent for publication must fulfill what it is described below: Concerning the parts of the document. The document must contain: • Title • Author/s • Summary • Abstract • Key words Keywords • Introduction • • • • • Content of the document Conclusions Appendix (s) Acknowledgements Bibliography Concerning the writing. In order to obtain a good style it is recommended to respect the syntax, spelling and grammar rules rigorously. The article must be written in impersonal form (it corresponds to the passive form, for example: it is done, it is defined, it was defined, it was contrasted). The work must be free of typing, orthographic, grammar and writing errors. Italics or bold type can be used to highlight. Concerning the punctuation. • Leave one space after a period; and start a new line after a full-stop. • Colons are written immediately after the word, followed by a space and the text begins with small letters. Concerning the physical requirements of the article. Sections of general fulfillment in the development of the article are mentioned below: • The article must be written on letter size paper/format, with top and bottom margins of 20 mm; left and right, 25 mm. • The document must be in two-column format with a central space of 4.3 mm (see template in Iteckne journal). • The design of the header and footer must be of 1 centimeter. • The content of the document must be written on single space, leaving a line when starting a new paragraph. • The font must be Arial 10. • The document numbering must begin with the Nomenclature, if there is one, and end with the conclusions of the document. The acknowledgements, appendices and bibliographical references, are not considered as numbered sections in the document. • The tables will take continuous numbering, beginning with Table I., referencing afterwards their title, in all caps, located at the top part of the table with center tab, in Arial 8. (see template in Iteckne journal). • The Figures will take continuous numbering, beginning with Fig 1. referencing afterwards their title, in all caps, located at the top part of the figure with center tab, in Arial 8. Note that " Fig." has been written abbreviated and with double space before the text. • The figures in the content of the article must be original, clear enough to facilitate the edition of the journal. • Every Figure and Table included in the paper must be referred to from the text (Source: xxx). These references must go in Arial 7, in the lower part of the figure or table, left tab. • The columns in the last page must have an equal or symmetrical length. • The references located at the end of the paper, must be numbered consecutively (Number between square brackets [1], and with the following format (see template in Iteckne journal): Articles for scientific journals: Author/s, Name of the publication, Title of the journal, Volume, Number, pages and year. They must go in Arial 7. Example: J.F. Fuller, E.F. Fuchs, and K.J. Roesler, “Influence of harmonics on to power distribution system protection,” IEEE Trans. Power Delivery, bowl. 3, no.2, pp. 549-557, Apr. 1988. Books: Author, Name of the book, Edition, Editorial, Year, pages. Example: E. Clarke, Circuit Analysis of AC Power Systems, bowl. I. New York: Wiley, 1950, P. 81. • As for the abbreviations and symbols, only standard abbreviations must be used, avoiding using them in the title and the summary. They must be placed at the beginning of the article in the NOMENCLATURE part. The complete term represented by the abbreviation must precede this abbreviation or nomenclature. If there is no NOMENCLATURE, the complete term represented by the abbreviation must appear in the text the first time it’s written, unless it is a unit. • The bullet points used for special signaling must be in Symbol source size 8. • The articles must contain the day of reception of the article and the day of acceptance by the Publishing Committee. • In case the articles contain mathematical formulas, they must appear in Arial 10, written with the Microsoft equation editor. • The design of the journal must contain bibliographic entries in each one of the articles and on the cover. • The article must have a minimum of 4 pages and a maximum of 20 pages, in the format established by the journal. Concerning the bibliographical references. To mention Bibliographical references, see the Iteckne journal template. It is recommended for the authors to have a minimum of 15 references of checked bibliography, as the main policy of the journal is research and this way, we would be promoting research among the authors of the publications for the ITECKNE journal. La Revista ITECKNE, Vol. 8 No. 2, se terminó de imprimir en el mes de enero de 2012 en los talleres Distrigraf, de Bucaramanga, Colombia. El tiraje consta de 300 revistas.