DIRECTIVOS Fr. Faustino Corchuelo Alfaro, O.P. Rector Fr. Guillermo León Villa Hincapié, O.P. Vicerrector Académico Fr. Fernando Cajicá Gamboa, O.P. Decano División de Ingenierías y Arquitectura Fr. José Rodrigo Arias Duque, O.P. Vicerrector Administrativo-Financiero CORRECCIÓN ORTOGRÁFICA Y DE ESTILO Ciro Antonio Rozo Gauta Departamento de Publicaciones Directora Dpto. Publicaciones C.P. Luz Marina Manrique Cáceres Diseño y Diagramación Pub. Luis Alberto Barbosa Jaime Yudy Natalia Flórez Ordóñez, Ph.D. Coordinadora editorial Lizeth Johanna Alvarado Rueda, M.Sc. COMITÉ EDITORIAL Rudy Cepeda Gómez, Ph.D Universidad Santo Tomás Bucaramanga, Colombia Carlos Vicente Rizzo Sierra, Ph.D Universidad Santo Tomás Bucaramanga, Colombia Yudy Natalia Flórez Ordóñez, Ph.D Universidad Santo Tomás Bucaramanga, Colombia Catalina Tobón Zuluaga, Ph.D Instituto Tecnológico Metropolitano Medellín, Colombia Gilma Granados Oliveros, Ph.D Instituto de Investigaciones en Materiales. Universidad Nacional Autonoma de México-UNAM Ángel Alberich Bayarri, Ph.D Grupo Hospitalario Quirón Valencia, España Héctor Esteban Gonzales, Ph.D Universidad Politécnica de Valencia Valencia, España Distrigraf PERIODICIDAD PRODUCCIÓN CREATIVA EDITOR IMPRESIÓN Semestral © Universidad Santo Tomás ISSN 1692 - 1798 ISSN DIGITAL 2339 - 3483 COMITÉ CIENTÍFICO Liliana del Pilar Castro Molano, Ph.D Universidad Santo Tomás Bucaramanga, Colombia Leonor Yamile Vargas Méndez, Ph.D Universidad Santo Tomás Bucaramanga, Colombia Nelson Jair castellanos Márquez, Ph.D Universidad Santo Tomás Bucaramanga, Colombia Ramón Gutiérrez Castrejón, Ph.D Instituto de Ingeniería, UNAM, México Alberto Gonzales Salvador, Ph.D Universidad Politécnica de Valencia, España Mónica Karel Huerta, Ph.D Universidad Simón Bolívar, Venezuela Javier Baliosian de Lazzari, Ph.D Universidad de la Republica, Uruguay Cesar Dario Guerrero, Ph.D Universidad Autónoma de Bucaramanga Bucaramanga, Colombia La revista ITECKNE ha sido aceptata en los siguientes índices bibliograficos y bases bibliograficas: • • • • Índice Bibliográfico Nacional - PUBLINDEX Sistema regional de información en línea para revistas científicas de América Latina, el Caribe, España y Portugal. - LATINDEX EBSCO Publishing Índice Actualidad Iberoamericana - CIT Cada artículo es responsabilidad de su autor y no refleja la posición de la revista. Se autoriza la reproducción de los artículos siempre y cuando se cite al autor y la revista Iteckne. Agradecemos el envío de una copia de la reproducción a esta dirección: Universidad Santo Tomás, Facultades de Ingeniería. Carrera 18 No. 9-27 Servicio al Cliente Iteckne Teléfono: + 57 7 6800801 Ext. 1411- 1421 Fax: 6800801 Ext. 1346 E-mail: [email protected] - [email protected] Bucaramanga - Santander Contenido Revista ITECKNE Vol 10 Nº 1 enero - junio de 2013 Editorial...........................................................................................................................................................................5 Yudy Natalia Flórez Ordóñez ARTÍCULOS DE INVESTIGACIÓN E INNOVACIÓN Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de puntos codificado Method to the extraction of control points based to the phase estimate of a coded dot pattern for camera calibration...................................................................................................................................................7 Andrés Leonardo González Gómez, Alexánder Ballesteros Díaz, Jaime Enrique Meneses Fonseca, Jaury León Téllez Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis Síntesis y caracterización de películas delgadas de Tio2 dopadas con cobre para ser usadas en fotocatálisis.............................................................................................................................................................16 Carlos Enrique Díaz-Uribe, Fernando Martínez Ortega, William Andrés Vallejo Lozada Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final Nonleptonic Bc decays, radial and excited charmonium mesons in the final state................................................21 Juan Carlos Barrios Ávila, José Herman Muñoz Ñungo, José David Sanabria Gómez Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable AISI-SAE 304 Study of the effect of a gaseous atmosphere of ammonia in a component of a catalytic reactor manufactured of an AISI type 304 stainless steel ....................................................................................................27 Carlos Alberto López C Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados Methodology for Real-Time Parameter Estimation Through Kalman Filter and Least-Squares..............................37 Víctor Alfonso Ortiz Bravo, Edwin Andrés Quintero Salazar, Manuel Antonio Nieto Arias Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano Decision Support System for Multifractal Analysis of the Human Genome.............................................................45 Martha Eliana Mendoza Becerra, Adrián Fernando Martínez Molina, Carlos Alberto Cobos Lozada Alba Viviana Camayo Otero, Émber Ubéimar Martínez Flor Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift Comparative analysis and kinetic model for photobioreactors hydrodynamic airlift...............................................57 Félix Fabián Cortés Conde, Édisson Mateo Gómez Espinosa, Diego Rubio Fernández Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones Optimization and Classification of EMG Signals Through Pattern Recognition Methods........................................67 Cristhian Manuel Durán Acevedo, Aylen Lisset Jaimes Mogollón Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones Architecture for the Video on Demand service deployment on IPTV, based on Interactivity and Recommender Systems...................................................................................................................77 Diego Fabián Durán Dorado, José Arciniegas Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España Influence of environmental factors on e-procurement adoption process in furniture industry in Spain...............90 Alba Soraya Aguilar-Jiménez Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya Data Provenance Validation for the LAGO stations Sierra Negra and Chacaltaya................................................104 Luis A. Núñez, Christian Andrés Sarmiento Cano, Fernando Quiñónez Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control.........................113 Amalia Dávila Gómez, Paula Andrea Ortiz Valencia, Alejandro Peña Palacio, Edilson Delgado Trejos ARTÍCULOS DE REVISIÓN BIBLIOGRÁFICA Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas Influence of Boron in the mechanical properties of Bainitic steels.......................................................................128 Karol Felipe Rodríguez Galeano Instrucciones a los autores Revista ITECKNE...........................................................................................................137 Instructions to the authors, Iteckne Journal.............................................................................................................140 La revista ITECKNE es una publicación de la División de Ingenierías y Arquitectura de la Universidad Santo Tomás, Seccional de Bucaramanga, integrada por las Facultades de Ingeniería de Telecomunicaciones, Ingeniería Mecatrónica, Ingeniería Industrial y Química Ambiental. Actualmente la Revista está indexada en el Índice Bibliográfico Nacional Publindex y en el Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal LATINDEX, y ha sido aceptada en el sistema de bases de datos de EBSCO (Fuente Académica). Su objetivo es la divulgación de los resultados científicos y tecnológicos de las investigaciones que se realizan en su seno, y en otras universidades a nivel nacional e internacional. La revista cuenta con la participación de diversos investigadores nacionales e internacionales, por esta razón recibe contribuciones en idiomas Español e Inglés. La revista ITECKNE está dirigida a estudiantes, docentes e investigadores interesados en las áreas en las que se inscribe cada una de las publicaciones. La revista aceptará preferiblemente artículos de investigación e innovación con un alto nivel de calidad, y también aceptará artículos cortos y reportes de caso. Editorial La divulgación de resultados de nuevos conocimientos derivados de investigación aporta al fortalecimiento de la comunidad científica, es principalmente insumo para futuras investigaciones, contribuye al mejoramiento de la calidad del ejercicio docente y profesional y, de igual manera, ha permitido dinamizar los procesos de construcción de conocimiento en los diversos niveles de educación mediante la lectura y discusión de los mismos. Este último punto sin llegar a realizar una apreciación de manera general se ha fortalecido en los niveles de educación superior dejándose un poco más limitado el uso de esta estrategia en la educación básica y media. Consciente de la importancia de la publicación de resultados, la revista ITECKNE, Innovación e Investigación en Ingeniería, desde su creación en el año 2002 trabaja constantemente para ser un medio de divulgación y referente para investigadores en el área de Ingeniería de Telecomunicaciones, Ingeniería Mecatrónica, Ingeniería Industria y Química Ambiental. Como editora de la Revista ITECKNE continuaré trabajando en el posicionamiento y la visibilidad de la revista en Bases de Datos nacionales e internacionales, además es un objetivo prioritario en el plan de gestión de los comités científico y editorial de la Revista y un compromiso con nuestros autores y lectores. La calidad de las publicaciones repercute en la divulgación y apropiación de la revista dentro de la comunidad científica, por esta razón edición tras edición se fortalece el equipo de árbitros quienes mediante su experticia aportan a seleccionar artículos de reconocido impacto. Invito a leer esta décimo primera edición de la revista ITECKNE, la cual presenta una colección de doce artículos resultados de investigación y dos artículos de revisión de gran interés para la comunidad académica. A nuestros lectores, autores y colaboradores, un agradecimiento muy especial en el crecimiento de ITECKNE. Yudy Natalia Flórez Ordóñez [email protected] Editor Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de puntos codificado Method to the extraction of control points based to the phase estimate of a coded dot pattern for camera calibration Andrés Leonardo González Gómez Especialista en Telecomunicaciones Universidad Pontificia Bolivariana Estudiante de Maestría en Telemática, Investigador Grupo GINCAP, Universidad Autónoma de Bucaramanga UNAB Bucaramanga, Colombia [email protected] Jaime Enrique Meneses Fonseca PhD. Sciences Pour L’ingenieur Université de Franche Comté Profesor Titular, Director Grupo GOTS, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Alexánder Ballesteros Díaz Estudiante de Física Universidad Industrial de Santander, Investigador Grupo GOTS, Universidad Industrial de Santander UIS Bucaramanga, Colombia [email protected] Jaury León Téllez MSc. en Física Universidad Industrial de Santander, Director Grupo GINCAP, Universidad Autónoma de Bucaramanga UNAB Bucaramanga, Colombia [email protected] Resumen— Con el método de Zhang para la calibración de una cámara, se propone un método con el cual sea posible realizar la estimación de parámetros intrínsecos de la cámara, basado en el cálculo de la fase de un patrón de puntos codificado. El método propuesto requiere un patrón pseudo periódico de puntos negros equiespaciados que matemáticamente se pueden representar como dos sistemas ortogonales de franjas. Debido a la distribución espacial regular de los puntos en todo el plano, es posible obtener la posición de un punto con base en la distribución de fase, con precisión subpixel. La relación entre la posición 3D de los puntos y su correspondiente posición en la imagen resultante se realiza sin intervención alguna del usuario. Es posible debido a que el patrón de puntos tiene cada una de sus posiciones codificadas en una secuencia binaria pseudo aleatoria. Evaluaciones experimentales demuestran que calcular la posición espacial de un punto con el método basado en la fase es más robusto al ruido que el método basado en cálculos de intensidad. De igual forma, el cálculo de las posiciones de los puntos a partir de la fase es menos sensible a variaciones de focalización e iluminación del patrón. dots that mathematically can be represented by two orthogonal fringe systems. Due to regular distribution, control point positions are obtained with subpixel accuracy from their phase distributions. The correspondences between 3D control points and their resulting image positions are realized without user intervention. This is possible because the control points in the pattern have their positions encrypted with a pseudorandom binary sequence. Experiments have shown that phase based procedure for extracting control point positions is much more robust to noise than intensity based approach. Palabras clave— Calibración de cámaras, Extracción de fase, Transformada de Fourier. Abstract— Inspired by Zhang’s method on camera calibration, a phase based approach to the estimation of features points is proposed. The proposed method requires a pseudo periodic pattern of equispaced black Keywords— Camera calibration, phase extraction, Fourier Transform. I. INTRODUCCIÓN Una cámara realiza la transformación de coordenadas reales del mundo 3D en una imagen plana 2D. La calibración de la cámara consiste en calcular los parámetros asociados con esta transformación. Este proceso es esencial cuando se requiere extraer información métrica de las imágenes. Una correcta calibración hace posible medir con precisión distancias mediante la imagen de una cámara o formas 3D del mundo real con un dispositivo de medida topográfico que posee integrada una o más cámaras. En el proceso de Recibido: 06/08/2012/ Aceptado: 16/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15 8 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15 calibración se identifican dos etapas claramente: El modelamiento y la optimización. El modelo matemático de la cámara consiste en una aproximación del comportamiento físico y óptico del sensor mediante un conjunto de parámetros. La segunda etapa del proceso de calibración de la cámara está relacionada con el uso de métodos de optimización para la estimación de esos parámetros. Aunque existen varios modelos para la cámara, en este trabajo se usa el modelo de cámara proyectiva, conocido como “modelo pinhole”. De la literatura consultada sobre el uso de tal modelo, se obtiene una idea sobre la eficiencia de la calibración de la cámara en diferentes situaciones. El método de Tsai [1] ampliamente utilizado en el pasado, ilustra un proceso clásico de calibración basado en la medida de coordenadas 3D de puntos, los cuales son llamados puntos de control, en un patrón no plano y tomado un sistema coordenado fijo de referencia. Salvi [2] compara diferentes modelos de cámaras propuestos desde 1982 a 1998, para demostrar que el método de Tsai es el de mejor desempeño, siempre que los datos de entrada sean determinados con alta precisión. El método de Zhang [3], el cual no es evaluado por Salvi, utiliza imágenes de un plano que tiene adherido un patrón en intensidad específico (cuadros blancos y negros), capturadas por la cámara en diferentes posiciones y orientaciones. Sun [4] compara los métodos de Tsai, Zhang and Heikkilä; y concluye que el modelo que emplea un sistema coordenado fijo, como el modelo de Tsai, puede obtener alta precisión siempre que los datos de entrada sean determinados con bajo error. Esto quiere decir que el método requiere de medidas 3D precisas. Por el contrario, el procedimiento de calibración con un plano, empleado en el método de Zhang no requiere un diseño espacial específico ni las coordenadas precisas de un punto. Sun logró calibrar la cámara desplazando el patrón plano con la mano en diferentes posiciones y orientaciones, como se propone en el método de Zhang, y obtuvo mejores resultados que con los otros métodos. Sin embargo, una desventaja significativa del método de Zhang es que requiere de la intervención del usuario para que defina el área de interés sobre cada una de las imágenes del plano. Este procedimiento representa un significativo consumo de tiempo y un inconveniente para los usuarios, especialmente para quiienes no están familiarizados con la visión por computador [5]. Los puntos de control en el método de Zhang hacen parte de la imagen de alto contraste de un patrón adherido a una superficie plana. Patrones como tableros de ajedrez (blanco y negro) [6] y círculos [5] son comúnmente usados junto con estrategias clásicas de detección de bordes, esquinas y centros geométricos. En todos los casos, los errores en las coordenadas de los puntos están determinados por el nivel de ruido y contraste de las imágenes. De igual forma, la distorsión introducida por las aberraciones geométricas de las lentes y la distorsión debida a la perspectiva de proyección introducen errores determinísticos en el cálculo de las coordenadas de los puntos de control. En este artículo se presenta una estrategia para la determinación de las coordenadas de los puntos de control basado en un procedimiento de extracción de fase espacial de un patrón de puntos impresos sobre un plano. El patrón de puntos 2D es un código pseudo periódico de puntos negros equiespaciados que matemáticamente se pueden representar como un patrón ortogonal de franjas con dos distribuciones de fase ortogonales. Debido a la ubicación regular, la posición de cada punto se obtiene con una precisión subpixel a partir de su distribución de fase. La relación entre las coordenadas reales 3D y sus coordenadas resultantes en la imagen 2D se realiza sin la intervención del usuario, incluso en casos donde no se alcanza a observar todo el código de puntos completo en la imagen. Esto es posible porque las coordenadas reales de cada punto están codificadas por una secuencia binaria pseudo aleatoria generada por un registro lineal con retroalimentación de longitud N=15. II. PATRÓN PSEUDO PERIÓDICO La Fig. 1 muestra el modelo del patrón de puntos empleado en el proceso de calibración. El patrón consiste en un código pseudo periódico de puntos (PPP) negros equiespaciados. En trabajos anteriores [7-9], se empleó un PPP para determinar las coordenadas 3D de un objeto en el espacio con precisión subpixel. Como se demostró en [10], la transformada de Fourier de un PPP posee un grupo de lóbulos ortogonales que corresponden a dos patrones periódicos ortogonales con sus respectivas distribuciones de Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de puntos codificado – González, Meneses, Ballesteros, León fase. La posición central de cada punto se puede calcular con resolución subpixel, al interpolar la distribución de fase 2D. El PPP fue inicialmente usado en sistemas de visión estéreo? con el fin de determinar la posición global de un sensor láser 3D portátil, se logra cerca de 33 micrómetros de resolución para un campo transversal efectivo de 60cm x 60cm [9]. Fig. 2. (a) RETROALIMENTACIÓN DE DESPLAZAMIENTO LINEAL; (b) SECUENCIA BINARIA PSEUDO ALEATORIA Fig. 1. PATRÓN DE PUNTOS PSEUDOPERIÓDICO Fuente: Autores del proyecto El patrón sobre el plano tiene una distribución espacial de puntos negros y puntos ausentes (vacíos) que cubren todo el plano. Esos puntos ausentes hacen que el patrón sea pseudo-periódico y su distribución espacial codifica la posición espacial 2D de cada uno de los puntos. Este diseño de codificación se obtiene mediante una secuencia binaria pseudo aleatoria (SBPR) generada por un registro lineal con retroalimentación (RLR). Un RLR de N registros con un Or-Exclusivo (XOR) como función lineal produce una secuencia periódica máxima de 2N – 1 palabras de longitud N. La Fig. 2 (a) muestra un RLR de N=3. La compuerta XOR provee la retroalimentación del registro que desplaza los bits de izquierda a derecha. La secuencia máxima consta de todas las palabras posibles excepto “000”. La Fig. 2 (b) muestra la secuencia máxima formada por 7 palabras posibles, en binario y decimal, iniciando desde “111” y la SBPR final formada por 7 bits: “1110100”. Debido al registro de desplazamiento lineal, las palabras sucesivas en la SBPR comparten necesariamente N-1 bits consecutivos con sus vecinos inmediatos. Cada palabra posee una posición única dentro de la secuencia completa. Fuente: Autores del proyecto De esta forma, es posible recuperar el valor de la palabra al agrupar los N bits consecutivos en la SBPR. Mediante esta técnica en el patrón plano representado en la Fig. 1, un punto negro representa un bit de valor “1” y un “0” es representado por un espacio blanco ó punto ausente. Un punto negro posee N vecinos horizontales hacia la derecha, que al agruparlos define una palabra. La posición de la palabra en la SBPR determina la coordenada horizontal absoluta del punto inicial en el plano que contiene el patrón. La coordenada vertical de un punto se obtiene al introducir desplazamientos horizontales conocidos a la secuencia de puntos de la línea horizontal anterior. De esta manera, al identificar el corrimiento introducido a una línea se determina su coordenada vertical. La influencia de puntos ausentes en la distribución de fase se puede reducir al ubicar M líneas horizontales sin puntos ausentes entre dos secuencias consecutivas. La Fig. 1. muestra un patrón de 135x91 puntos con M=1 y N=15. La secuencia máxima en la SBPR resultante tiene 32767 bits. Un algoritmo simple de optimización fue diseñado para recuperar la 9 10 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15 secuencia de 135 bits con el menor número de “0” ó puntos ausentes. El patrón fue construido de la siguiente manera: se determinan 135 bits de la SBPR que conforman la primera fila, la segunda es una secuencia de puntos negros sin código, la tercera se obtiene al desplazar horizontalmente hacia la derecha en un bit la secuencia de la fila 1, la cuarta es una secuencia de puntos sin código, la quinta se obtiene al desplazar horizontalmente hacia la derecha en dos posiciones la tercera fila. De esta manera las filas impares poseen corrimientos sucesivos de 1,2,3, etc. III. RECUPERACIÓN DE LA POSICIÓN DE LOS PUNTOS Como se menciona en la sección 2, el PPP se puede describir matemáticamente como una distribución regular ortogonal: donde I0 hace referencia a la intensidad, ak a la amplitud del armónico de orden k y φ a la distribución de fase. Si el PPP es capturado por una cámara con un lente libre de distorsión y en condiciones telecéntricas entonces la distribución de fase es una función lineal de la posición. Sin embargo, debido a la distorsión geométrica y a la perspectiva de proyección, la cámara recupera una distribución de fase no lineal. La Fig. 3, muestra una imagen invertida en escala de gris del PPP de la Fig. 1, y su respectiva transformada de Fourier. Fig. 3. (a) NEGATIVO DE LA IMAGEN DEL PPP MOSTRADO EN LA FIG. 1; (b) TRANSFORMADA DE FOURIER Fuente: Autores del proyecto Las distribuciones de fase φ1 y φ2 pueden ser calculadas con el método de la transformada de Fourier [10]. Los subindexes 1 y 2 en (1) representan las dos direcciones ortogonales del PPP que puede ser observado en el contenido frecuencial, Fig.3. (b). Seleccionado el filtro adecuado para separar el primer armónico en la dirección 1 y 2, y procesada la transformada inversa de Fourier de cada imagen filtrada, se obtienen dos distribuciones complejas. La fase de dichas distribuciones complejas puede ser calculada con la función arcotangente y corresponde a las fases discontinuas φ1 y φ2, de acuerdo con el método de transformada de Fourier. Debido al uso de la función arcotangente, las fases calculadas poseen discontinuidades de ±2π, que tradicionalmente son eliminadas y se adiciona de manera apropiada 2πn, n es una función entera en escalón. La Fig. 5, muestra un corte de la distribución de fase discontinua φ1 del PPP de la Fig. 3(a) a lo largo de una fila de puntos blancos y los valores de intensidad de la imagen en niveles de gris, en la misma fila. De acuerdo a esta figura, las discontinuidades ±π se ubican en mínimos de intensidad y los valores de fase discontinua de cero se localizan en los máximos de intensidad o centro Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de puntos codificado – González, Meneses, Ballesteros, León Fig. 4. DISTRIBUCIÓN DE FASE EN (a) DIRECCIÓN 1 Y (b) DIRECCIÓN 2 IV. MODELO DE LA CÁMARA El método de Zhang usa el modelo de cámara “pinhole” para relacionar las coordenadas 3D del mundo real con las de la imagen 2D en el plano de la cámara. La relación matemática entre los puntos reales y los de la imagen se realiza a través de cuatro transformaciones, mediante las coordenadas del mundo real (Xw,Yw,Zw), las coordenadas de la cámara (Xc,Yc,Zc), las coordenadas de la imagen sin distorsión (xu,yu), las coordenadas de la imagen distorsionada (xd,yd) y las coordenadas en pixeles (u,v) sobre la imagen. Estos sistemas coordenados son mostrados en la Fig. 6. Fig. 5. FASE DISCONTINUA E INTENSIDAD DE LA IMAGEN INVERTIDA A LO LARGO DE LA DIRECCIÓN A – A’ EN LA FIG. 3(a) Fuente: Autores del proyecto Fuente: Autores del proyecto de los puntos blancos. Los valores de cero de la fase discontinua corresponden a valores enteros de 2π en la fase continua. Así, los puntos de intersección de las curvas de nivel de las fases continuas para valores de φ1=2πN1 y φ2=2πN2 que se muestran en la Fig. 4 (a) y (b) respectivamente determinan las coordenadas X y Y de cada punto de control en el PPP, definido por los valores enteros N1 y N2. De este modo, un sistema de coordenadas con valores enteros N1 y N2 se usa para identificar cada punto de control en el PPP. El origen de este sistema coordenado se localiza en la esquina superior izquierda del PPP y los puntos se incrementan ordenadamente para valores de N1 y N2 en las direcciones 1 y 2 respectivamente. Fig. 6. MODELO “PINHOLE” PARA LA CÁMARA Fuente: Autores del proyecto La primera transformación entre las coordenadas reales (Xw,Yw,Zw) y las coordenadas de la cámara (Xc,Yc,Zc), se realizacon la posición y orientación de la cámara, expresada por los parámetros extrínsecos R y t, así: 11 12 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15 R es una matriz 3x3 de rotación y t es un vector de translación. Las otras tres transformaciones desde las coordenadas de la cámara (Xc,Yc,Zc) a coordenadas pixel (u,v) son controladas por la configuración interna de la cámara definida en (3) y (4). La transformación entre las coordenadas de la imagen sin distorsiones (xu,yu) y las coordenadas de la imagen distorsionada (xd,yd) es controlada por la fórmula matemática que define las distorsiones geométricas de la lente empleada para formar la imagen. La fórmula más usada para distorsiones radiales y tangenciales es: Así, los parámetros intrínsecos son: el centro de la imagen (xo,yo); las focales de la lente en pixeles a lo largo del eje X y Y, fx y fy; el parámetro de inclinación γ de los ejes de la cámara y cinco coeficientes de distorsión de la imagen, kc. En el método de Zhang, el plano de calibración es ubicado en varias orientaciones y se asume que para los puntos de control Zw=0. Por lo tanto, un punto de control y su imagen están relacionados por: Donde ri denota la columna i de la matriz de rotación R. La transformación entre las coordenadas sin distorsión y distorsionadas se determina con (5). El objetivo de un procedimiento de calibración es determinar los parámetros intrínsecos y extrínsecos de la cámara, estimando la matriz homográfica H. Para cada imagen del patrón se determinan por tratamiento de imágenes las coordenadas en pixeles de los puntos de control, vector m. Como se conocen las dimensiones métricas del patrón empleado, se asume que para cada punto de control se conoce el vector M. Un procedimiento de optimización es empleado para estimar H. La función usada en el proceso de optimización es usualmente el error métrico entre las coordenadas de los puntos de control calculadas por tratamiento digital de imágenes (ui , vi) y las coor: denadas estimadas V. PROCEDIMIENTO EXPERIMENTAL Una serie de seis imágenes del PPP mostrado en la Fig. 1 fueron capturadas con una cámara CCD de resolución 640x480 pixeles y longitud focal 16mm. El PPP tiene 135x91 puntos y un periodo espacial de 2.824mm en ambas direcciones. En la Fig. 7 se puede observar una de las imágenes experimentales. Las imágenes son invertidas en niveles de gris con el fin de hacer coincidir el centro de los puntos con la intercepción de las curvas de nivel a valores 2πN de las fases en las direcciones 1 y 2. A. Recuperación de las coordenadas de los puntos de control En muchas aplicaciones de análisis de datos que involucran la trasformada rápida de Fourier (FFT), usualmente se emplea un filtro antes de aplicar la FFT para reducir las discontinuidades en los bordes de la imagen. Se aplicó la ventana Hanning para las imágenes adquiridas y un filtro Gaussiano se usó en el método de la FFT para extraer las distribuciones de fase. La Fig. 8 muestra las curvas de nivel realizadas a valores enteros de 2π en las fases φ1 y φ2. Las intersecciones entre las curvas de nivel determinan la posición de los puntos con una resolu- Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de puntos codificado – González, Meneses, Ballesteros, León ción subpixel. Las curvas de nivel se dibujaron sobre la imagen de entrada para verificar el posicionamiento de las intersecciones sobre los puntos de control. Una vez se han identificado las coordenadas de los puntos, se determina el nivel de gris del punto en la imagen de entrada y se le asocian valores de bit “1” o “0”. Agrupando N=15 vecinos horizontales se determina la posición de la palabra en la SBPR y así se calcula las coordenadas horizontales N1 de cada punto. Las coordenadas verticales N2 se determinan al comparar dos filas consecutivas de código y determinar el corrimiento horizontal ente ellas. Conocidos N1 y N2 y multiplicándola por el periodo espacial del patrón de puntos se calcula Xw y Yw de cada punto de control. Las coordenadas de cada punto de control (ui , vi) y sus posiciones espaciales en milímetro definen las coordenadas (Xwi,Ywi,Zwi=0) que son empleadas en el proceso de optimización. A partir de valores iniciales de los parámetros intrínsecos y extrínsecos y las coordenadas (Xwi,Ywi,Zwi=0) de los puntos se calculan las code acuerdo a (2), (3) ordenadas en pixeles y (4). Fig. 7. IMAGEN EXPERIMENTAL DEL PPP 13 B. Evaluación de parámetro intrínsecos y extrínsecos de la cámara La función de error (6) es evaluada y minimizada para estimar los mejores parámetros de la cámara. “Camera Calibration Toolbox for Matlab” [11] es un software disponible en Internet que emplea el método de optimización Levenberg-Marquardt y usado para calibrar cámaras a partir de patrones ajedrezados blanco y negro. El software fue modificado para determinar los parámetros de la cámara a partir de las coordenadas calculadas del patrón de puntos. Los valores encontrados para los parámetros intrínsecos se muestran en la Tabla 1. Tradicionalmente para calcular el error introducido en el cálculo de los parámetros se determina el diagrama de error de reproyección. Una vez se han optimizado los parámetros finales se emplean estos valores y las coordenadas en milímetros de cada punto de control, (Xwi,Ywi,Zwi=0), para determinar las coordenadas en pixeles estimadas sobre la imagen, . La diferencia con los valores de las coordenadas calculadas de cada punto con la información de fase, (ui , vi) define el error de reproyección. La Fig. 9 muestra la nube de puntos de control donde el sistema coordenado corresponde a errores en X y Y en pixeles. El rango de valores se encuentra entre ±0.4 pixeles para cada eje, con una desviación estándar de 0.07837 en X y 0.07637 en Y. Las seis imágenes adquiridas del PPP proveen cerca de 27191 puntos de control. Tabla I. PARÁMETROS INTRíNSECOS CALCULADOS - Fuente: Autores del proyecto Fig. 8. VISTA AMPLIADA DE LAS CURVAS DE NIVEL DE LAS FASES CONTINUAS EN LAS DIRECCIONES 1 Y 2 fx 1525.27 fy 1528.16 xo 336.54 yo 287.70 g 0 kc -0.41498 0.38277 Fuente: Autores del proyecto Fuente: Autores del proyecto -0.00124 -0.0005 0 14 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15 Fig. 9. ERROR DE REPROYECCIÓN DEL PPP Fig 11. INFLUENCIA DEL RUIDO EN EL ERROR DE REPROYECCIÓN Fuente: Autores del proyecto C. Errores de reproyección Con el fin de comparar la precisión del método propuesto, los mismos parámetros se calcularon usando el método tradicional que emplea como patrón un plano ajedrezado (blanco y negro). El patrón ajedrezado contiene 77x10=770 puntos de control. La Fig. 10 muestra los errores de reproyección calculados de 10 imágenes adquiridas del plano ajedrezado. De igual forma el rango de valores se encuentra entre ±0.4 para los dos ejes pero con una desviación estándar de 0.1151 pixeles en dirección X y 0.1063 pixeles en dirección Y, que indica más dispersión del error. Por otra parte, con el propósito de evaluar el rendimiento ante ruido del PPP y el patrón ajedrezado, se agregó ruido gaussiano de media cero y desviación estándar variable entre 0.001 a 0.007 niveles de gris. La Fig. 11 muestra el error de reproyección para diferentes niveles de ruido. Por lo tanto, el procedimiento basado en la fase para extraer la posición de los puntos es mucho más robusto al ruido que el método basado en intensidades. Fig 10. ERROR DE REPROYECCIÓN DEL PATRÓN AJEDREZADO Fuente: Autores del proyecto Fuente: Autores del proyecto VI. CONCLUSIONES En este artículo se propuso un método para la extracción de puntos de control en la calibración de cámaras basado en la extracción de la fase de un patrón de puntos impreso en un plano. El patrón 2D es un código pseudo periódico de puntos negros equiespaciados, que matemáticamente se pueden representar por dos sistemas de franjas ortogonales. Debido a la distribución regular de los puntos negros sobre el plano, la posición de cada punto se puede calcular con precisión subpixel. La relación entre la posición 3D de un punto sobre el plano y su correspondiente posición sobre la imagen se calcula sin intervención del usuario, aun cuando no todos los puntos del plano se puedan ver en la imagen final. Esto es posible porque el patrón de puntos tiene sus posiciones codificadas en una secuencia pseudo aleatoria generada por un registro lineal con retroalimentación. La verificación experimental permite concluir que el procedimiento para calcular la posición de los puntos basado en la extracción de la fase es más robusto al ruido que el método basado en los valores de intensidad. De igual forma, aunque la desfocalización de la imagen afecta los armónicos superiores del patrón de puntos; siempre que no se desfocalise lo suficiente para afectar el primer armónico, la fase se puede calcular sin inconvenientes en situaciones de deslocalización debido a la distribución periódica. En este método el cálculo de la fase se afecta menos por desfocalización que en el método basado en intensidades y provee una alternativa para calibrar cámaras de buen rendimiento. Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de puntos codificado – González, Meneses, Ballesteros, León AGRADECIMIENTOS La investigación fue apoyada por la Vicerrectoría de Investigaciones y extensión de la Universidad Industrial de Santander, Colombia (Proyecto No. 5184: Posicionamiento global de alta resolución a campo extendido por visión estéreo: Aplicaciones en metrología óptica). [5] X. Meng and Z. Hu, “A new easy camera calibration technique based on circular points,” Patt. Recognition 36, 1155 – 1164(2003). [6] L. Krüger and C. Wöhler, “Accurate chequerboard corner localisation for camera calibration,” Patt. Recognition Letters, 32,1428–1435 (2011). [7] J. A. Galeano, P. Sandoz, E. Gaiffe, S. Launay, L. Robert, M. Jacquot, F. Hirchaud, J.-L. Prétet, C. Mougin, “Position-referenced microscopy for live cell culture monitoring,” Biomed. Opt. Express 12, 1307-1318(2011). REFERENCIAS [1] R. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-self TV camera lenses,” IEEE J. Robot. Autom. RA-3, 323–344 (1997). [8] N. Arias, P. Sandoz, J. Meneses, M. Suárez, T. Gharbi, “3D localization of a labeled target by means of a stereo vision configuration with subvoxel resolution,” Opt. Express 18, 24152 - 24162(2010). [2] J. Salvi, X. Armangué, and J. Batlle, “A Comparative review of camera calibrating methods with accuracy evaluation,” Pattern Recognit. 35(7), 1617–1635 (2002). [9] [3] Z. Zhang, “A flexible new technique for camera calibration,” IEEE Trans. Pattern Anal. Mach. Intell. 22, 1330–1334 (2000). N. Arias, N. Meneses, J. Meneses, T. Gharbi, “A handheld 3D laser scanning with global positioning system of subvoxel precision,” J. Phys.: Conf. Ser. 274, 012068 (2011). [10] W. Sun and J. Cooperstock, “An empirical evaluation of factors influencing camera calibration accuracy using three publicly available techniques,” Mach. Vis. Appl. 17, 51–67 (2006). M. Takeda and K. Mutoh, “Fourier transform profilometry for the automatic measurement of 3-D object shapes,” Appl. Opt. 22, 3977-3982 (1983). [11] J. Bouguet, “Camera Calibration ToolBox for Matlab,” in http://www.vision.caltech.edu/bouguetj/calib_doc/ index.html. [4] 15 Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis Síntesis y caracterización de películas delgadas de Tio2 dopadas con cobre para ser usadas en fotocatálisis Carlos Enrique Díaz-Uribe Dr. Química Universidad Industrial de Santander Docente Tiempo Completo, Investigador Grupo de Investigación en Fisicoquímica Aplicada y Estudios Ambientales, Laboratorio de Fotoquímica y Fotobiología, Universidad del Atlántico Barranquilla, Colombia [email protected] William Andrés Vallejo Lozada Dr. Ciencias Químicas Universidad Nacional Docente Tiempo Completo, Investigador Grupo de Investigación en Fisicoquímica Aplicada y Estudios Ambientales, Laboratorio de Fotoquímica y Fotobiología, Universidad del Atlántico Barranquilla, Colombia [email protected] Fernando Martínez Ortega Dr. Chimie Université de Poitiers, Docente Tiempo Completo, Investigador Centro de Investigaciones en Catálisis. Universidad Industrial de Santander Bucaramanga, Colombia [email protected] Abstract— In this work we studied the influence of incorporation of copper into TiO2 thin films on structural, optical and surface properties of TiO2 thin films. The as-grown TiO2 was synthesized by sol gel method using titanium isopropoxide, and the TiO2 thin films were deposited by spin coating method. TiO2 copper-doped (Cu:TiO2) was synthesized by impregnation method using Cu(NO3).H2O as source of Cu(II), the Cu:TiO2 thin films were deposited by spin coating method. The properties of the compounds obtained were evaluated by measurements of X-ray diffraction (XRD) and diffuse reflectance. The XRD results showed that Cu doping change the crystalline phase radio of the films, XRD pattern of TiO2 indicated that films grow with anatase structute, while Cu:TiO2 thin films presented a polycrystalline mixture of anatase/rutile. Reflectance analysis indicated that TiO2 presents an energy band gap of 3.25 eV and the Cu:TiO2 presents a shift-red of the band gap to 2,9 eV. The results suggest that doping with copper improved the harvesting of the TiO2 to visible radiation. Keywords— TiO2, Photocatalysis, metal doping, X-Ray, Diffuse Reflectance. I. INTRODUCTION Nowadays the uncontrolled growth of the population increases both the water consumption and the amount of pollutants in the water resources; water treatment is an important research topic around the world. The development of mechanisms of water treatment is a necessity because water is not a renewable resource [1]. In the last decades, advanced oxidation processes (AOPs) have presented different kinds of methodologies for remediation of water and heterogeneous photocatalysis have become a promising method for purification. In this field Titanium oxide (TiO2) is one of the most important photocatalytic materials. There currently exists a better understanding and improvement of catalytic reactions, which is a main driving force for surface investigations on TiO2. However, two drawbacks limit the practical application of TiO2 technology: (a) it is effective only under ultraviolet irradiation (λ < 380 nm) and (b) the low-quantum efficiency of this process [2]. To solve these, different methodologies have been used: sensitization with organic dyes, natural and synthetic [3], metal ion implantation [4] nobel metal loading [5], metal ion doping [6], anion doping [7], composite semiconductors [8]. All of these present both advantages and drawbacks, however, metal ion doping is one of Recibido: 19/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 16 - 20 Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis – Díaz, Vallejo, Martínez the most promising because it shifts the TiO2 responses towards longer wavelengths and an enhanced photoactivity is obtained from incorporation of metallic dopants. These advantages can be explained because a dopant ion acts as an electron trap or hole trap; this could prolong the lifetime of the generated charge carriers, resulting in an enhancement of photocatalytic activity [9, 10]. The ionic metallic doping could be done through different ways such as hydrotermal precipitation [11], sol-gel [12], chemical vapor deposition [13], impregnation method [14] and sputtering [15]. The impregantion method has proven to be convenient for the modification of TiO2 due to its low cost of implementation, the low synthesis temperatures, and because it easily allows the coating large areas. In this work, we studied the influence of incorporation of Cu into TiO2 on its structural, optical properties. II. EXPERIMENTAL A. Materials synthesis The as-grown TiO2 Thin films were synthesized by the sol-gel method for the as-grown TiO2 synthesis, the titanium isopropoxide [Ti(OC2H5)4] was used as reagent, ethanol (CH3CH2OH) and water were used as solvent and nitric acid (HNO3) was used as buffer. The molar ratio was [CH3CH2OH:H2O:HNO3:Ti(OC2H5)4] 55:1,5:0,3:1 respectively. The Cu:TiO2 powder was obtained by adding copper (II) nitrate and titanium tetrachloride as source of copper and titanium respectively; furthermore, HCl was used as a buffer solution, a solution of cetyltrimethyl ammonium bromide (CATBr) was used as surfactant and water-ethanol mix was used as solvent in the following molar ratio [Ti:CATBr:HCl:H20:EtO:Cu] 1:0,16:1,7:1,7:20:0,025 respectively. The asgrown TiO2 and the Cu:TiO2 thin films were deposited on the substrates from a coating solution by spin-coating technique in a nitrogen atmosphere. The substrates coated with films were annealed at 450ºC for 1 hour in air. =0,15406nm) for operating at a 30 kV voltage with a current of 20 mA. The optical properties of the as-grown TiO2 and the Cu:TiO2 thin films were studied through diffuse reflectance measurements. The diffuse reflectance absorption spectrum of the as-grown TiO2 and the Cu:TiO2 thin films were measured using a Lambda 4 Perkin Elmer spectrophotometer equipped with an integrating sphere. Kubelka–Munk model and analysis based on differential reflection spectra were used to independently determine the energies of the fundamental optical transitions. FT-IR spectra (KBr) of the compounds were recorded on a Bruker Tensor 27 spectrometer in the spectrum region of 3500-500 cm-1. III. RESULTS AND DISCUSSION A. Diffuse transmittance measurements The optical properties of the as-grown TiO2 thin film and Cu:TiO2 thin films were determined from diffuse reflectance measurements in the range of 200–800 nm. Fig. 1(a) shows the diffuse reflectance spectra of the as-grown TiO2 thin films, The results indicate that about 70% of the visible radiation is reflected in the visible range (after 350nm). Furthermore, a sharp absorption edge is observed near to the 340 nm, indicating the good crystallinity and a low defect density near to the band edge. This behavior is typical of thin films of TiO2 [16]. The results of diffuse reflectance spectra were analyzed with Kubelka-Munk remission function, given by the equation below [17]: Where Rα is the reflectance and F(Rα) is proportional to the constant absorption of the material, an indicative of the absorbance of the sample in a particular wavelength. The optical band gap of the films was determined by extrapolating the linear portion of the (αhv)2 versus hv plot on the x-axis [18]. B. Characterization of materials synthesized The X-ray powder diffraction (XRD) patterns were recorded in X-ray powder diffractometer (MSAL-XDII) using Kα radiation of the Cu (λ Where Eg is the band gap energy and A is a constant depending on the transition probability. 17 18 Fig. 1. (a) DIFFUSE SPECTRA OF THE THIN FILMS. (b) (αHυ)1/2 VS. Hυ SPECTRA INDICATING THE VALUE OF EG FOR TiO2 AND CU:TiO2 THIN FILMS ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 16 - 20 result is according to XRD measurements presented afterwards. The results also show a shift of absorption band edge towards visible region upon doping TiO2 with copper, Cu:TiO2 thin films present a band gap energy of 2,9 eV. These results suggest that copper could be incorporated into the crystalline TiO2network modifying its band structure and therefore its electrical properties. According to the optical results, it can be assumed that Cu-doping onto TiO2 may enhance the visible-light absorption and it could improve the photocatalytic activity of TiO2. B. XRD measurements Fig.1(b) shows the (αhv)2 versus hv for the as grown TiO2 thin films and Cu:TiO2 thin films Fig. 2. XRD PATTER OF TiO2 THIN FILMS DEPOSITED BY SOL-GEL METHOD, TiO2 CU-DOPED AND JCSPD-ANATASE REFERENCE. It is observed that the band gap of as-grown TiO2 thin film was 3,25 eV, which corresponds to the typical value of energy of the anatase TiO2; this Fig. 2 shows experimental XRD pattern corresponding to as-grown TiO2 thin films and the Cu:TiO2 thin films deposited on soda lime glass substrates by spin coating. The XRD measurements show that as-grown TiO2 thin films were polycrystalline and present only one crystalline phase corresponding to the anatase phase (Fig. 1 includes a JCPDS-#071-1166 pattern of reference), the pattern of as-grown TiO2 thin films presents different planes of growth and all diffraction signals correspond to the anatase-pattern indicating that only one crystalline phase is present. Furthermore, XRD results showed that the as-grown TiO2 thin films grow in a preferential orientation in the crystalline plane (110), typical of the anatase phase. These results could occur due to the method used to obtain the compound, according to other reports [19]. Fig. 2 also shows the XRD pattern of the Cu:TiO2. The diffraction pattern shows three additional diffraction signals at 2θ=27,9, 2θ=37,9, 2θ=42,4, 2θ=56,9; these reflections can be associated with the planes (110), (101), (111) and (220) respectively. These crystalline planes can be associated with the rutile phase (JCPDS #0211276); this happens because the rutile phase is thermodynamically the most stable crystalline phase and it possesses the highest density with a compact atomic structure. The presence of Cu is a disadvantage for the formation of the metastable anatase phase and so the rutile growth can occur [20]. Furthermore, not a signal associated with CuO or compund of Cu is observed, indicating that the compound could be amorfous or that it could be incorporated in the crystalline network of the doped TiO2. However, the change in the way of the crystalline growth indicates that the Cu parti- Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis – Díaz, Vallejo, Martínez cipates in the growth of the TiO2 and it could be incorporated in the crystalline network of the final compoud according to other reports. This assertion is comfirmed for optical results [21]. Fig. 3. IR-SPECTRA OF THE AS-GROWN TiO2 AND CU:TiO2 THIN FILMS ped with copper presents a red-shift of the transmittance spectra increasing the absorption of the photocatalyst in the visible region. The band gap increased by about 12% from 3.25 eV TiO2 to 2,9 eV TiO2 doped with copper. The XRD analysis showed that TiO2 grows in the anatase phase while thin films of TiO2 doped with copper present a polycrystalline mixture of anatase, rutile, and brookite. Results indicated that TiO2 doped with copper can be used as an active photocatalyst in a visible range of the electromagnetic spectra. ACKNOWLEDGEMENTS Authors are grateful to the Laboratory of XRD in the Parque Tecnológico Guatiguará of the Universidad Industrial de Santander, Bucaramanga, Colombia. REFERENCES C. IR measurements Fig. 3 shows the IR-spectra of the as-grown TiO2 films annealed at 500°C. The chemical bonding of the powders was scrutinized by correlating the developed peaks in the spectrum to the vibration or stretching of various functional groups. Results show two strong absorption signals in the frequency region of 429,1 cm-1 and 734,7 cm-1 corresponds to Ti-O-Ti bonding and indicates the formation of a titanium oxide network [22], furthermore, a broad band at 3400 cm-1 is observed, which is characteristic of associated hydroxyl groups (absorbed molecular water), weakly chemisorbed and disappearing at temperatures of 200°C; a corresponding weak bending vibration band at near 1630 cm-1 is also observed [23]. Finally, fig 3 shows the IR spectra of the Cu:TiO2 thin films. In these spectra the intensity of the signals of TiO2 decrease significantly, indicating that water has been desorbed and not a signal associated to the stretching mode of Cu-O is detected, which demonstrates that copper could have been incorporated into the TiO2 network as proved by the optical results. III. CONCLUSIONS Thin films of TiO2 were doped with copper and the optical and structural properties were investigated. The optical results indicated that TiO2 do- [1] K. Nakata, A. Fujishima. TiO2 photocatalysis: Design and Applications. Journal of Photochemistry and Photobiology C: Photochemistry Reviews 13 (2012) 169– 189. [2] U. Diebold. The Surface Science of titanium dioxide. Surface science reports 48 (2003) 53229. [3] C.C. Chen, C.S. Lu, Y.C. Chung, J.L. Jan. UV light induced photodegradation of malachite green on TiO2 nanoparticles. Journal of Hazardous Materials, Volume 141, Issue 3, 22 March 2007, Pages 520-528. [4] H. Yamashita, M. Harada, J. Misaka, H. Nakao, M. Takeuchi, M. Anpo. Application of ion beams for preparation of TiO2 thin film photocatalysts operatable under visible light irradiation: Ionassisted deposition and metal ion-implantation. Nuclear Instruments and Methods in Physics Research Section B: Beam Interactions with Materials and Atoms 206 (2003) 889-892. [5] X. Li, Z. Zhuang, W. Li, H. Pan. Photocatalytic reduction of CO2 over noble metal-loaded and nitrogen-doped mesoporous TiO2. Applied Catalysis A: General 429–430 (2012) 31-38. [6] Y. Gurkan, E. Kasapbasi, Ze.Cinar. Enhanced solar photocatalytic activity of TiO2 by selenium(IV) ion-doping: Characterization and DFT modeling of the surface. Chemical Engineering Journal, 214 (2013) 34-44. 19 20 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 16 - 20 [7] Y. Chen, X. Cao, B. Lin, B. Gao. Origin of the visible-light photoactivity of NH3-treated TiO2: Effect of nitrogen doping and oxygen vacancies. Applied Surface Science, 264 (2013) 845-852. [15] W. Zhang, Y. Li, S. Zhu, F. Wang. Copper doping in titanium oxide catalyst film prepared by dc reactive magnetron sputtering. Catalysis Today, 93– 95 (2004) 589-594. [8] S. Chin, E. Park, M. Kim, G. Bae, J. Jurng. Synthesis and visible light photocatalytic activity of transition metal oxide (V2O5) loading on TiO2 via a chemical vapor condensation method. Materials Letters 75 (2012) 57-60. [16] C. Tsai, H. Hsi, T. Kuo, Y. Chang, J. Liou. Preparation of Cu-Doped TiO2 Photocatalyst with Thermal Plasma Torch for Low-Concentration Mercury Removal. Aerosol and Air Quality Research doi: 10.4209/aaqr.2012.07.0196. In press. [9] A. Zajac, M. Radecka, M. Jasinski, K.A. Michalow, M. Rekas, E. Kusior, K. Zakrzewsk, A. Heel, T. Graule, K. Kowalski. Influence of Cr on structural and optical properties of TiO2:Cr nanopowders prepared by flame spray synthesis. Journal of Power Sources 194 (2009) 104–111. [17] P. Pongwan, B. Inceesungvorn, K. Wetchakun, S. Phanichphant, N. Wetchakun. Highly Efficient Visible-Light-Induced Photocatalytic Activity of Fe-doped TiO2 Nanoparticles. Engineering Journal. DOI:10.4186/ej.2012.16.3.143. in press. [10] S. Ghasemi, S. Rahimnejad, S. R. Setayesh, S. Rohani, M.R. Gholami. Transition metal ions effect on the properties and photocatalytic activity of nanocrystalline TiO2 prepared in an ionic liquid. Journal of Hazardous Materials 172 (2009) 1573–1578. [11] H. Dang, X. Dong, Y. Dong, Y. Zhang, S. Hampshire. TiO2 nanotubes coupled with nano-Cu(OH)2 for highly efficient photocatalytic hydrogen production. International Journal of Hydrogen Energy 38 (2013) 2126-2135. [12] K. Wilke, H.D. Breuer. The influence of transition metal doping on the physical and photocatalytic properties of titania. J. Photochem. Photobiol. A: Chem. 121 (1999) 49–53. [13] H.A. Foster, D.W. Sheel, P. Sheel, P. Evans, S. Varghese, N. Rutschke, H.M. Yates. Antimicrobial activity of titania/silver and titania/copper films prepared by CVD. Journal of Photochemistry and Photobiology A: Chemistry 216 (2010) 283-289 [14] U.G. Akpan, B.H. Hameed. The advancements in sol–gel method of doped-TiO2 photocatalysts. Applied Catalysis A: General 375 (2010) 1–11. [18] J. Tauc (F. Abeles ed.), Optical Properties of Solids, North-Holland (1972). 19-92. [19] A. Cesnovar, P. Paunovic, A. Grozdanov, P. Makreski, E. Fidancevska. Preparation of nanocrystalline TiO2 by sol-gel method using titanium tetraisopropoxide (TTIP). Advanced Natural Science: Theory & Applications 01/2012; 1(2):133142. [20] A. K. Ray, S. M. Tracey, B. McQuillin, S. N. B. Hodgson, IEEE Proc. Sc., Meas. Technol. 147(6), 301 (2000). [21] B. Xu, L. Dong, Y. Chen, J. Chem. Soc., Faraday Trans. 94 (13) (1998) 1905. [22] M. Burgos, M. Langlet. The sol-gel transformation of TIPT coatings: a FTIR study. Thin Solid Films Vol. 349 (1999) 19. [23] P. M. Kumar, S. Badrinarayanan, M. Sastry. Nanocrystalline TiO2 studied by optical, FTIR and X-ray photoelectron spectroscopy: correlation to presence of surface states. Thin Solid Films 358 (2000) 122-130. Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final Nonleptonic Bc decays, radial and excited charmonium mesons in the final state Juan Carlos Barrios Ávila Lic. en Matemáticas y Física MSc. en Física, Universidad Industrial de Santander Docente Medio Tiempo, Universidad Santo Tomás Bucaramanga, Investigador Grupo GIRG, Universidad Industrial de Santander Bucaramanga, Colombia [email protected] José David Sanabria Gómez Lic. Matemáticas y física MSc. y Dr. en Física , Centro de Investigación y de Estudios avanzados del IPN, México, Docente Tiempo Completo, Investigador Grupo GIRG, Universidad Industrial de Santander Bucaramanga, Colombia [email protected] José Herman Muñoz Ñungo Lic. Matemáticas y física Msc en Física, Universidad de Antioquia Dr. en Física , Centro de Investigación y de Estudios avanzados del Ipn, México, Docente Tiempo Completo, Rector Universidad del Tolima Ibague, Colombia [email protected] Resumen— En el presente trabajo se muestra parte del estudio del decaimiento no leptónico del mesón Bc, considerado un mesón pseudoescalar o vectorial excitado radialmente (n = 2) en el estado final, se asume la hipótesis de factorización y utiliza el modelo de quarks ISGW2. El procedimiento para obtener los anchos de decaimiento de los procesos B → P,P , B → P,V, donde B es un mesón pesado, P es un mesón seudoescalar 1S0 y V es un mesón vectorial 3S1. Se logró medir las fracciones de decaimientos para los procesos PP y PV, se graficaron los anchos de decaimientos versus los factores de forma que provee el modelo de quarks ISGW, variando estos últimos de un 5 a un 150% de su valor original, para analizar qué implicaciones tiene en el ancho de decaimiento medido. Este estudio muestra una perspectiva y herramienta fundamental en el campo de la física de partículas, ya que los resultados encontrados no han sido calculados (o no se encuentra información de dichos cálculos), y pueden servir como herramienta para conocer algunos elementos relevantes del modelo estándar y del decaimiento no leptónico de un mesón. Palabras clave— Fracciones de decaimiento, factores de forma, constantes de decaimiento. Abstract—This paper shows part of the study of non-leptonic decay of Bc meson, pseudoscalar meson or considering a radially excited vector (n = 2) in the final state, assuming factorization hypothesis and using the quark model ISGW2. In this paper we present in detail the procedure to obtain the decay widths of the processes B → P, P, B → P, V, where B is a heavy meson, pseudoscalar meson P is a V 1S0 and 3S1 vector meson is. It was possible to measure fractions of decays to PP and PV processes, were plotted versus decay widths form factors pro- viding ISGW the quark model, the latter varying from 5 to 150% of its original value, to analyze what implications does this have on the measured decay width. This study shows a perspective and fundamental tool in the field of particle physics, since the results are unpublished, and can serve as a tool to know some relevant elements of the standard model and the non leptonic decay of a meson. Keywords— Fractions of decays, widths form factors, decay constants. I. INTRODUCCIÓN El Modelo Estándar [1] (M. E.) explica las relaciones entre las partículas elementales y las interacciones conocidas. Los leptones y quarks son partículas elementales, dado que no poseen estructura interna.Las partículas que tienen estructura interna se denominan hadrones (constituidos por quarks), bariones cuando están formadas por tres quarks o tres antiquarks, o mesones cuando están constituidas por un quark y un antiquark. Hay seis leptones (electrón, muón, tau, neutrino del electrón, neutrino del muón y neutrino del tau) y seis quarks (quark up (u) quark down (d), quark charm (c), quark strange (s), quark bottom (b) y quark top (t)). Los quarks tienen una propiedad llamada color y cada uno puede presentar tres colores (rojo, verde y azul). A cada partícula le corresponde una antipartícula, que (en general) tiene el mismo espín y la misma masa, pero di- Recibido: 13/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26 22 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26 ferente carga (aunque algunas partículas neutras son idénticas a sus antipartículas). Los procesos de decaimiento del quark Bc se pueden dividir en tres clases: a) se puede presentar una transición del tipo b → q (q = c, u), en la que el quark c¯ actúa como espectador; b) también se puede tener otra transición del tipo c → q (q = s,d), en la que el quark b es espectador y, c) se puede tener una aniquilación entre el quark b y c¯. Aunque el espacio de fase de las transiciones del tipo b) es más pequeño que el de la transición a), los decaimientos dados por transiciones del quark b proporcionan alrededor del 70 % del ancho de decaimiento del mesón Bc mientras que los decaimientos dados por transiciones del quark c y los de aniquilación débil sólo aportan el 20 % y el 10%, respectivamente [1]. Por esta razón, sólo se considerarán aquellos en que decae el quark b. En este trabajo se presenta el caso particular de mesones excitados radialmente para el caso de decaimientos no leptónicos (o hadrónicos) de uno a dos cuerpos del mesón Bc, en el marco del modelo relativista de quarks ISGW2 [2]. Es decir, se obtienen las fracciones de decaimiento de los procesos Bc → M1M2, donde M1 ó M2 es un mesón excitado radialmente (n=2). La razón por la cual se ha elegido estudiar el decaimiento del mesón Bc, es fundamentalmente por estar compuesto de dos quarks pesados y, además ha sido muy poco estudiado incluidos los estados excitados radialmente para n = 2 y, por otro lado, hay pocos datos reportados en Particle Data Group [3]. El cálculo de fracciones de decaimiento se realizó a nivel árbol, mediante hipótesis de factorización y con el modelo de quarks no relativista de Isgur-ScoraGrinstein y Wise (ISGW2), el cual permite escribir y calcular los elementos de matriz < M1|Jμ|B > para las transiciones Bc → η(2s) y Bc → ψ(2s). II. HAMILTONIANO Y FACTORES DE FORMA En este trabajo, se consideraron solo contribuciones de operadores corriente–corriente a nivel árbol, no se incluyeron diagramas de pingüino1 . El hamiltoniano es efectivo para el decaimiento no leptónico 1 Se espera que las contribuciones al ancho de decaimiento del decaimiento no leptónico de dos cuerpos Bc de diagramas de árbol sea mayor que el que se obtiene del diagrama de pingüino. Bc → M1(2s)M2 , donde M1(2s) denota un mesón excitado radialmente hc (21S0) o ψ(23S1), y M2 es un mesón pseudoescalar (P) o vector (V), despreciados los operadores de pingüino QCD, está dado por [4]: donde GF es la constante de Fermi, Vij son los es una notación corta para las factores CKM, y c1,2 son los coeficicorrientes V – A entes de Wilson. La amplitud del decaimiento Bc → M1(2s)M2 está dada por: donde λ son los factores de CKM y <Oi> es el elemento de matriz de los operadores locales de cuatro – quarks. En el marco de referencia de la factorización de Naïve, se asume que estos elementos de matriz se pueden aproximar a: donde Jn es la corriente débil. Así, el elemento de matriz hadrónico de un operador de cuatro – quarks se puede escribir como el producto de una constante de decaimiento y factores de forma [5]. Los coeficientes de Wilson se relacionan con los coeficientes de QCD por la expresión: En este trabajo se asume el límite para Nc muy grande, de modo que a1 ≈ c1 y a2 ≈ c2 para µ ≈ m2b (algunos trabajos que también han asumido esta aproximación [6],[7],[8]). Se calcularon los factores de forma mediante el modelo de quarks ISGW2[2] para los elementos hadrónicos <ηc|Jµ|Bc> y <ψc|Jµ|Bc>. Es bien conocido que este modelo de quarks, es una versión relativista mejorada del modelo ISGW, el cual incluye las limitaciones impuestas por la simetría de quark pesado, las correcciones relativistas a los elementos de Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final – Barrios, Sanabria matriz de la corriente del vector axial y el potencial efectivo interquark y factores de forma polinomial más realista. Se espera que un tratamiento no relativista del decaimiento del mesón Bc con mesones charmonium radialmente excitados proporcionen una información más confiable[3] porque ambos quarks son pesados y estos decaimientos permiten las transiciones b → c La parametrización de las transiciones Bc → ηc y Bc →ψc esta dada por [2]: son los cuadrimomentos donde es la de los mesones Bc ηc y ψc respectivamente, polarización del mesón ψc y f+,f-,f,a+,a- son los factores de forma. • A. Factores de forma para la transición Bc → ηc Los factores de forma f+ y f- para la transición Bc → ηc en el modelo ISGW2[2] son: donde : Los valores del parámetro b, el cual es una corrección relativista a la función de onda hiperfina en el modelo ISGW2, está dada en [2]. es el momento transferido, es el máximo momento transferido, es la masa hiperfina promedio, es la suma de las masas de los quarks constituyentes del mesón X, es una escala en el modelo de quarks. El momento transferido q2 es una constante para decaimiento no leptónico de dos . En la cuerpos Bc → ηc M, y es igual a Tabla I [9] , mostramos los valores de los factores de formas f+ y f- en el momento transferido en el modelo ISGW2. B. FACTORES DE FORMA PARA LA TRANSICIÓN Bc →ψc Los factores de forma f, g, a± están dados en el modelo ISGW2 [2] por: 23 24 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26 β2,τ,r2, y ω están dadas por las ecuaciones (5,6 y 7) respectivamente, sustituidos η y ψ. El factor 0,899 es una corrección relativista para los elementos de matriz de la corriente vector axial en el modelo ISGW2[2]. III. VALORES NUMÉRICOS Y ANÁLISIS Para obtener los anchos de decaimientos para el decaimiento leptónico y no leptónico de mesones charmonios excitados radialmente en el estado final, se toman los valores de la masa de los mesones de PDG[3] y los siguientes valores numéricos: • Factores de CKM[3]: |Vcb|=40.6x10-3, |Vub|=0.97425,|Vcs|=1.023,|Vus|=0.2252, |Vcd|=0.230 • Masa de quarks en (GeV) [3]: mb=5,2, mc=1,82, ms=0,55, mu= md=0,33. • Coeficientes QCD: a1=1.14, a2=-0,2 [3] • Constantes de decaimientos en (Gev) [3]: • • Los parámetro β (en GeV) del modelo ISGW2 [2]: τBc=0.4333x10-2 [s], es el tiempo de vida media del mesón Bc [2] Las expresiones para el ancho de decaimiento de dos cuerpos no leptónicos Bc → M1(2s)M2, donde M1(2s)= ηc (21S0), ψ(23S1) y M2 =P,V,A(3P1) bien conocidos en la literatura[9]. En la Tabla II se presentan las predicciones de los anchos de decaimientos de βψ =0.62 En las Tablas I y II se muestran los anchos de decaimientos no leptónicos de uno a dos cuerpos de comparados con el trabajo de otros autores para mesones excitados radialmente en estado final [9] y sin excitación radial basados en el modelo de quarks relativista [4]. Se obtuvieron valores numéricos de esos anchos de decaimientos con los valores de los coeficientes QCD a1,a2, los resultados obtenidos en algunos casos coinciden bastante con los otros trabajos, sin embargo también se observan algunas diferencias entre algunos de los valores que se lograron y el de las referencias indicadas en las Tablas I y II. Se puede observar que en la Tabla II, los valores favorecidos por CKM para los modos: tienen anchos de decaimientos del orden de entre 10−5 − 10−7, estos decaimientos son del tipo , o más explícitamente (VV,VA). Esos anchos se podrían medir en los experimentos que se realizan en los grandes aceleradores de partículas. Para el modo Bc → ηca1(1260), donde a1(1260) es un mesón axial, se encontró que la fracción de decaimiento favorecido por CKM es del orden de 10−5 y es más pequeño que [9]. De hecho tiene dos contribucioEl decaimiento nes: con emisión externa W (proporcional al coeficiente QCD a1) y con emisión interna W (proporcional al coeficiente QCD a2, el cual es negativo). Los factores de forma de esas transiciones se obtienen del modelo ISGW2. Es importante notar que los términos de interferencia en los modos son positivos porque a2 es positivo, interferencia constructiva. La mayor fuente de incertidumbre para las fracciones de decaimientos del proceso provienen de los parámetros con los cuales son una corrección relativista de la función de onda en el modelo ISGW2, los coeficientes de la QCD a2(cuando ) y las constantes de acoplamiento . Las fuentes dominantes de 25 Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final – Barrios, Sanabria error provienen de y la constante de decai- miento GeV [10]. Por otro parte, TABLA II ANCHOS DE DECAIMIENTO DEL MESÓN BC→ M1(2S)M2 POR EMISIÓN DONDE M1,2 =P,V,A,A′,T,P(2S),V(2S)[9] EXTERNA, el decaimiento , con M = son muy sensibles a las constantes de acoplamiento GeV [10]. TABLA I. ANCHOS DE DECAIMIENTO DEL MESÓN Bc→ M1(2s)M2 POR EMISIÓN EXTERNA, DONDE M2 =PP,P,V,PA′.[9] Fuente: Autor del proyecto Los decaimientos que aparecen en las Tablas I y II, para estados no excitados fueron obtenidos de las referencia [12],[13],[14]. Uno de los objetivos del artículo de investigación era determinar la sensibilidad de los resultados obtenidos variando los parámetros del modelo ISGW2 [4], bajo esa premisa se realizaron las gráficas de los anchos de decaimientos para los modos y . la Fig. 1, muesPara el proceso tra que el ancho de decaimiento depende casi exclusivamente del factor de forma f+, dado que a pesar que los dos factores de forma variaron entre 0.5 y 1.5 veces su valor, el ancho de decaimiento mostró una variación entre +0,4 y +0, 5 órdenes de magnitud (en escala logarítmica en base 10) lo que significa que ese decaimiento es 7 veces más probable cuando existe la mencionada variación del valor del factor de forma, lo que significa que el ancho de decaimiento no es muy sensible a estas variaciones[9] Fuente: Autor del proyecto Fig. 1. ANCHOS DE DECAIMIENTOS VS FACTORES DE FORMA f+,f- , PROCESO , EN EL QUE LOS FACTORES DE FORMA SUFREN UNA VARIACIÓN DEL 100% (CON VALOR CENTRAL IGUAL AL CALCULADO EN ESTE TRABAJO) PARA DETERMINAR LA SENSIBILIDAD DE LOS RESULTADOS OBTENIDOS AL USAR EL MODELO ISGW2 26 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26 IV. CONCLUSIONES [2] Se calcularon las fracciones de decaimiento en los proceso no leptónicos del mesón Bc en mesones pseudoescalares y vectoriales excitados radialmente en el estado final, mediante el modelo de quarks ISGW2, donde los elementos de la matriz hadrónica Nathan Isgur and Daryl Scora, Semileptonic B and D decays in the quark model: An update. Phys. Rev. D 52, 2783 (1995). [3] Review Particle Physics, Particle Data Group. PARTICLE PHYSICS BOOKLET 37, 105-123 (2010). [4] Bediaga and J.H. Muñoz, Production of radially excited charmonium mesons in two-body nonleptonic Bc decays. arXiv: 1102.2190 26, 110744 (2011). [5] Z.Luo and J.L. Rosner, Factorization in color-favored B-meson decays to charm. Phys. Rev.D 64, 094001 (2001). [6] G. Calderón, J.H. Muñoz and C.E. Vera, Nonleptonic two-body B decays including axial-vector mesons in the final state. Phys. Rev. D 76, 074019 (2007). [7] V. Laporta and G. Nardulli, Nonleptonic B decays to axial-vector mesons and factorization. Phys. Rev.D 74, 054035 (2006). [8] C.E Thomas, Nonleptonic weak decays of B to Ds and D mesons. Phys. Rev. D 73, 054016 (2006). [9] J.C Barrios Ávila, “Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final”, Tesis de Maestría, Universidad Industrial de Santander UIS, 2012. que introducen el decaimiento ( ) en dos cuerpos ligeros de alta energía; que son factorizados y expresados en términos de factores de forma y constantes de decaimiento.[9] En las Tablas I y II se observaron los resultados obtenidos para las fracciones de decaimiento del mesón Bc realizados por otros autores [13], [14],[15] con las que se pueden hacer comparaciones con los resultados obtenidos mediante el uso del modelo ISGW2. En la hipótesis de factorización[16] del modelo ISGW se encuentra que las mayores fuentes de error están constituidas por las constantes de decaimiento (dominante),la masa de los quarks, los factores de forma f+, a+, etc. Es importante, por lo tanto, obtener valores más precisos para estos, hecho que está íntimamente relacionado con un mejor conocimiento de los mesones. El aporte de este trabajo se encuentra en que dada la poca información en la literatura con respecto al estudio del mesón Bc en estado excitado radialmente, los resultados encontrados pueden dar aportes importantes al estudio de decaimientos del mesón Bc y, a su vez, es un escenario propicio para evaluar el modelo estándar. Es conveniente indicar las dificultades que se encontraron a la hora de hacer comparaciones de los resultados que se lograron medir en el presente estudio, ya que se cuenta con muy poca información en la literatura especializada del estudio del mesón BC, se recomienda consultar el trabajo de investigación [9], para una visión mejorada de estos resultados. Finalmente, vale la pena mencionar que obtener anchos de decaimientos para estados excitados radialmente permita dilucidar si hay variaciones importantes en esas fracciones de decaimientos con respecto al caso no excitado radialmente. REFERENCIAS [1] G. Buchal, A. J. Buras and M. E. Lautenbacher, Weak decays beyond leading logarithms. Rev. Mod. Phys 68, 4 (1996). [10] H. Cheng and C. Chua, Hadronic charmless B decays B → AP . Phys. Rev.D 69, 074025 (2007). [11] R.C Verma and Avinash Sharma, Quark diagram analysis of weak hadronic decays of the Bc meson. Phys. Rev.D 65, 114007 (2002). [12] P. Colangelo and F. De Fazio, Using heavy quark spin symmetry in semileptonic Bc decays. Phys. Rev. D 61, 034012 (2000). [13] D. Ebert, R. N. Faustov and V. O. Galkin, Nonleptonic decays of meson Bc. Phys. Rev. D 68, 094020 (2003). [14] Hui-feng Fu, Yue Jiang, C. S. Kim and Guo-Li Wang, Probing Non-leptonic Two-body Decays of Bc meson. Arxiv 11, 025399 (2011). [15] A.Kumar, P.C Vinodkumar, Properties of Bc meson. Jour.Phys. 66, 5 (May 2006). [16] Beneke, QCD factorization for exclusive non-leptonic B-meson decays,general arguments and the case of heavy D light final states. Nucl. Phys. B 591, 313 (2000). Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable AISI-SAE 304 Study of the effect of a gaseous atmosphere of ammonia in a component of a catalytic reactor manufactured of an AISI type 304 stainless steel Carlos Alberto López C. Ms. C en Gestión Tecnológica, Universidad Pontificia Bolivariana Director de Proyectos, Investigador Grupo Procesos Metalmecánicos Eco-eficientes Corporación Eco-eficiente Medellín, Colombia [email protected] Resumen— Algunos procesos industriales se realizan bajo exigentes condiciones para los equipos debido a que en distintas ocasiones involucran estados estresantes y agresivos para los materiales como son algunas variables de operación referidas a altas temperaturas y presiones de operación y contacto con sustancias corrosivas, por lo cual se pueden generar importantes daños o fallas catastróficas en los mismos, con las consiguientes pérdidas económicas debido a su prematuro reemplazo, a costosas reparaciones y el lucro cesante por las paradas obligatorias. Se presenta el estudio de un acero inoxidable AISI tipo 304 con el cual fue construida una cápsula interna de dos intercambiadores en serie por donde circulan los gases de proceso y que alberga un catalizador para la reacción de producción de NH3 (Amoniaco) en un reactor catalítico empleado en una planta de producción de fertilizantes. Este equipo opera a condiciones bastante exigentes como son temperaturas en el rango de los 427o C y 566o C, una presión de 4200 Psi. y se encuentra en contacto con gases de síntesis como H2, el N2, el CH4 y el NH3, entre otros. Este equipo ha estado en servicio por cerca de 30 años, del cual se tomó una muestra para evaluar su condición actual por medio de diferentes ensayos mecánicos y metalúrgicos como composición química, metalografía, microscopía óptica de barrido (SEM) y estereoscopía. El resultado del análisis concluyó que el material sufrió el fenómeno de nitruración en un determinado espesor; se encontró además la presencia de numerosas grietas y precipitación de carburos. Se hace como parte de la evaluación, una serie de recomendaciones para el empleo de un determinado tipo de material para la construcción de un nuevo equipo de producción. Palabras clave— Acero inoxidable, amoniaco, nitrógeno, nitruración, agrietamiento, precipitación en límites de granos. Abstract— Some industrial processes are conducted under stringent conditions for the materials due to that in several opportunities, it is involved stressful states for materials like some work variables related to high temperatures and pressures and corrosive substances. Also, sometimes a combination of the above factors may lead to affect the integrity of the equipment, which can generate significant damage or catastrophic failure of equipment or its components, with consequent economic losses generated due to the replacement of these, to expensive repairs and lost profits for the stops on the production floor. This paper presents the study of AISI type 304 stainless steel which was built an internal capsule or basket that corresponds to two exchangers arranged in series where process gases circulate, which contains a catalyst, that give the reaction necessary to produce NH3 (ammonia) in a catalytic reactor plant used in fertilizer production. This equipment operates quite demanding conditions such as temperatures in the range of 427o C and 566o C, an operating pressure of 4200 psi. Furthermore, it is in contact with synthesis gas as H2, N2, CH4 and NH3, among others. This equipment has been in service for about 30 years, from which sample was taken to assess their current status through various metallurgical and mechanical tests like chemical composition, metallography, optical microscopy (SEM), X-Ray and stereoscopy. The result of analysis led to the conclusions that the material suffered the phenomenon known as nitriding at a given thickness, also found the presence of numerous cracks and precipitation of carbides. It is done as part of the evaluation, a number of recommendations for the use of a particular type of material for the construction of new production equipment. Keywords— Stainless Steel, ammonia, nitrogen, nitriding, cracking, carbides precipitation. I. INTRODUCCIÓN El acero inoxidable AISI 304 es normalmente empleado como material de construcción de equi- Recibido: 12/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36 28 pos como los convertidores o reactores catalíticos que procesan amoniaco y otros gases de síntesis como el Nitrógeno, el Hidrógeno y el CH4, entre otros, los cuales son empleados en la industria de procesamiento de abonos y fertilizantes, ya que es normal que los procesos en este tipo de industrias se dan a temperaturas altas, muchas veces mayores a 450o C, donde su contenido de Cromo de al menos 18% y Níquel del 8%, le confieren una adecuada resistencia a la corrosión en estas condiciones [1]. La formación de una capa de Nitruros (Nitruración) es un procedimiento que se realiza en diversos materiales como el hierro, el acero y otras aleaciones para mejorar propiedades superficiales, lo que se da por la formación de dos capas, una de las cuales es un compuesto de nitruros de hierro y la otra es la llamada capa de difusión [2]. Un objetivo de formar estas capas es incrementar la dureza del material y proporcionarle de esta forma una mayor resistencia. El espesor de las diferentes capas es contralado por los parámetros de nitrurado como el contenido de Nitrógeno y la composición química del material, no obstante en los equipos que se procesan gases de síntesis que contienen Nitrógeno y amoniaco, se puede presentar el fenómeno de nitruración sin ningún control que puede afectar negativamente las propiedades de los materiales. Diversos estudios han mostrado que la nitruración por gas de aceros inoxidables austeníticos a temperaturas convencionales de 500o C a 650o C resulta en la formación de nitruros de Cromo que puede conducir a un deterioro de las propiedades de corrosión, aunque se incrementa significativamente la resistencia al desgaste, por lo que se han llevado a cabo diversas aproximaciones para reducir la formación de estos nitruros en estos materiales y en el rango de temperatura mencionado [3]. La muestra estudiada, la cual se observa en la Fig. 1, corresponde a una pieza que fue extraída de un espaciador perteneciente a los elementos internos de una canasta o cápsula de un equipo denominado reactor catalítico, el cual se encuentra en el interior del lecho de este último, por lo que se desea diagnosticar el estado de esta pieza referido principalmente a si presenta una posible nitruración u otras indicaciones y sus posibles mecanismos de generación. La ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36 muestra del espaciador de la canasta del reactor catalítico se encuentra sometida a diferentes condiciones de proceso que conducen a suponer que el material pudo haber presentado un proceso de nitruración, ya que se encuentra sometido a gases de síntesis, entre los cuales se encuentran el Nitrógeno y el Amoniaco a temperaturas que favorecen este tipo de fenómeno como es el rango entre 427oC y 566oC. Es de observar que este equipo ha operado por cerca de 30 años. II. MUESTRAS PARA LOS DISTINTOS ENSAYOS En la inspección visual realizada a la muestra antes de proceder con su seccionamiento para las distintas pruebas de laboratorio, se pudo apreciar la presencia de grietas en diversos puntos y discontinuidades en los bordes en cierta forma similares a lo observado con una lámina de acero cuando presenta una delaminación por la inclusión de una impureza como el óxido, como se observa en la Fig. 1. Fig. 1. EN LA MUESTRA RECIBIDA PARA ESTUDIO SE APRECIAN GRIETAS Y DISCONTINUIDAD EN LOS BORDES DE ESTA Fuente: Autor del artículo La muestra fue seccionada en diversas partes para los distintos ensayos realizados: • Composición química • Metalografía • Microscopía óptica de barrido (SEM) • Estereoscopio Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable AISI-SAE 304 – López III. ENSAYOS Y RESULTADOS A. Composición química Ensayo realizado en Espectrómetro de Emisión Óptica Marca Shimadzu, Modelo OES 5500, mediante el Estándar de Verificación NBS 1264A. Dado que al cortar las muestras para los distintos ensayos se apreciaba una especie de división en esta, dando la impresión de que estuviera conformada por al menos dos diferentes aceros (se asemejaba a la vista que se tiene en una zona afectada por el calor donde se aprecia la coalescencia del metal base con el metal de aporte, pero diferenciándose entre ellas). Para el ensayo de composición química estas dos zonas de la muestra se denominaron “Acero Superficial” y “Acero Central” con los siguientes resultados, como se expone en las Tablas I y II respectivamente. Por la composición química reportada, el material corresponde a un acero inoxidable AISI tipo 304, aunque en la composición nominal el Níquel se encuentra entre el 8%-10.5% y lo encontrado es de 7.244% para el caso de la muestra marcada como “acero superficial”, ya que la correspondiente al “acero central”, si corresponde con la composición nominal. TABLA II. RESULTADOS DEL ANÁLISIS QUíMICO MUESTRA “ACERO CENTRAL” ELEMENTO MUESTRA: ACERO SUPERFICIAL 100712 - 16 Carbono (C) 0.056 Silicio (Si) 0.639 Manganeso (Mn) 0.982 Azufre (S) 0.013 Fósforo (P) 0.035 Niquel (Ni) 8.656 Cromo (Cr) 18.771 Molibdeno (Mo) 0.102 Aluminio (Al) 0.000 Cobre (Cu) 0.110 Titanio (Ti) 0.007 Vanadio (V) 0.059 La composición se da en porcentaje en peso. Fuente: Autor del artículo Carbono (C) 0.006 Silicio (Si) 0.622 Manganeso (Mn) 1.036 Azufre (S) 0.014 La muestra luego de cortada exhibía una apariencia de estar conformada por dos materiales, lo cual se trató de verificar al tratar de laminar esta para determinar su posibilidad de separación con este proceso. Lo anterior no ocurrió, pero se observó algo inusual en un material como el acero inoxidable tipo 304 y lo que aparecía como la “capa externa”, se resquebrajó lo que indica que podía tener una dureza superior a la región interna, dando muestras de una notable fragilización como se aprecia en la fig. 2. La reacción con los fluidos del proceso, que afectan el material, es evidente porque el acero se descarburó de 0.056% a 0.006%C y todos los otros elementos también disminuyeron en la matriz de la capa externa incluidos el cromo y el níquel, que entraron a formar compuestos. Fósforo (P) 0.014 Fig. 2. MUESTRA LAMINADA QUE EXHIBE FRAGILIZACIÓN DEL MATERIAL TABLA I. RESULTADOS DEL ANÁLISIS QUíMICO MUESTRA “ACERO SUPERFICIAL” ELEMENTO MUESTRA: ACERO SUPERFICIAL 100712 - 15 Niquel (Ni) 7.244 Cromo (Cr) 17.699 Molibdeno (Mo) 0.014 Aluminio (Al) 0.000 Cobre (Cu) 0.067 Titanio (Ti) 0.008 Vanadio (V) 0.051 La composición se da en porcentaje en peso. Fuente: Autor del artículo Fuente: Autor del artículo 29 30 B. Observación con el microscopio estéreo En la Fig. 3 Se observa una fotografía tomada con el microscopio estéreo de la probeta en estado pulida para el ensayo metalográfico, con la norma ASTM E3-01 Standard Practice for Preparation of Metallographic Specimens, donde se aprecia que el material presenta dos capas claramente diferenciadas, lo que indica que se pudo haber presentado una posible afectación de la zona más externa de un tono más claro (que en la fotomicrografías corresponden a la zona oscura). Lo anterior coincide con lo mostrado en la Fig. 2 con la zona fragilizada luego de la laminación de la muestra para el ensayo de composición química, donde se trató de corroborar que fueran dos materiales, induciendo su separación por medio del proceso de laminación. También se observan algunas grietas en el extremo superior izquierdo. Fig. 3. VISTA EN EL MICROSCOPIO ESTÉREO DE LA PROBETA PULIDA QUE MUESTRA DOS ZONAS CLARAMENTE DIFERENCIADAS ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36 cluso en la zona central el material está fragilizado porque esa morfología de límites de grano indica que el material está altamente «sensibilizado». Fig. 4. ZONA CENTRAL DE TONO MÁS CLARO. MATRIZ AUSTENíTICA (AUMENTOS: 200X) Fuente: Autor del artículo En la Fig.5, correspondiente a la zona más oscura, se encuentran numerosas grietas de distinto tamaño y en algunos puntos, forma especies de redes. Esta zona está completamente degradada, si la central está sensibilizada, está ya está fracturada y degradada químicamente porque el ataque para fines metalográficos la oscurece completamente, indicación de que está fuertemente debilitada en sus resistencia química y anticorrosiva. Fig. 5. ZONA MÁS OSCURA DE LA MUESTRA (PARTE EXTERNA), QUE EXHIBE UN CONSIDERABLE NÚMERO DE GRIETAS EN ALGUNOS PUNTOS FORMANDO UNA ESPECIE DE RED. (AUMENTOS: 200X) Fuente: Autor del artículo C. Resultados del ensayo de metalografía El material recibido se cortó para análisis y se embebió en baquelita, probeta que fue pulida a grado espejo para luego ser atacada con Cloruro de Hierro y Nital al 2%, de acuerdo a la norma ASTM E3-01 Standard Practice for Preparation of Metallographic Specimens. Se realizó observación al microscopio y se registraron todos aquellos aspectos de más relevancia. En la Fig. 4 se aprecia, la zona más clara de la probeta, la presencia de una gran cantidad de precipitados, que por la composición química del material, pueden tratarse de carburos o nitruros de Cromo en una matriz austenítica, o sea, que in- Fuente: Autor del artículo La Fig. 6, exhibe un contraste entre la zona más clara con respecto a la más oscura, muestra que se trata de un mismo material al poderse observar la continuidad entre una y otra de los límites de grano y observándose la presencia de precipitados en estos. Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable AISI-SAE 304 – López Fig. 6. INTERFAZ ENTRE LAS DOS ZONAS CLARAMENTE DIFERENCIADAS EN LA MUESTRA ANALIZADA . SE APRECIA LA CONTINUIDAD EN LOS LíMITES DE GRANO (AUMENTOS: 500X) Fig. 8. FOTOGRAFíA TOMADA CON EL MICROSCOPIO ELECTRÓNICO DE BARRIDO QUE MUESTRA LA GRAN CANTIDAD DE PRECIPITADOS, PRESUMIBLEMENTE, DE CARBUROS Y/O NITRUROS DE CROMO EN LOS LíMITES DE GRANO Y LA GRAN AFECTACIÓN DE LA ZONA OSCURA, LA CUAL PRESENTA UNA APARIENCIA BASTANTE IRREGULAR. (AUMENTOS: 250X) Fuente: Autor del artículo La Fig. 7 muestra que el material se encuentra con presencia de maclas en algunos puntos en la región más clara, mientras que en la zona más oscura se observan numerosas grietas. Fig. 7. EN ESTA REGIÓN DE LA MUESTRA SE OBSERVA UN BUEN CONTRASTE ENTRE LA ZONA OSCURA MÁS AFECTADA Y LA ZONA MÁS CLARA. SE APRECIAN NUMEROSAS GRIETAS, PRINCIPALMENTE EN LA ZONA OSCURA Y EN EL MATERIAL SE OBSERVAN MACLAS, LAS CUALES, EN ESTE CASO, PUEDEN DEBERSE AL CRECIMIENTO DE GRANO POR AFECTACIÓN TÉRMICA DEL MATERIAL, ES DECIR, POR HABER ESTADO SOMETIDO A DETERMINADAS TEMPERATURAS DURANTE UN DETERMINADO PERIODO DE TIEMPO. (AUMENTOS: 500X) Fuente: Autor del artículo D. Resultados del ensayo SEM (microscopio electrónico de barrido) Con el empleo del microscopio electrónico de barrido se muestran con un mayor grado de detalle las indicaciones en el material, como se ve en la Fig. 8 con los precipitados, presumiblemente, de carburos o nitruros de Cromo y la forma irregular que presenta la muestra en la región más oscura que indica una fuerte afectación del material. Fuente: Autor del artículo Con un aumento de 2000X se pueden observar los precipitados en los límites de grano del material, como es exhibido en la Fig. 9. Fig. 9. PRECIPITADOS EN LA MUESTRA, TANTO EN LA ZONA MÁS OSCURA, COMO EN LA ZONA MÁS CLARA. (AUMENTOS: 2000X) Fuente: Autor del artículo En la Fig. 10 se muestra la composición química tomada con el EDS (Energy-Dispersive X-Ray Spectroscopy), la cual da como resultado una capa rica en Nitrógeno, donde este elemento alcanza una composición del 9.97%, al igual que un contenido de Cromo del 37.22%. Lo anterior puede indicar también que al tener esta zona un contenido alto en Cromo y en Nitrógeno en la forma de precipitados, la región adyacente sufrió un empobrecimiento del Cromo, por lo que se produce el efecto de volverse magnético el material. 31 32 Fig. 10. COMPOSICIÓN QUíMICA TOMADA CON EL EDS DEL ESPECTRÓMETRO DE EMISIÓN ÓPTICA EN LA ZONA ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36 Fig. 11. COMPOSICIÓN QUíMICA EN LA ZONA DE UN TONO MÁS CLARO Fuente: Autor del artículo Fuente: Autor del artículo La Fig. 11 muestra que no se identificó Nitrógeno en la zona que se ha denominado en este informe como más clara y además se mide un contenido de Cromo del 19.07%, el cual está acorde con la composición química reportada, al igual que el Níquel. Un perfil de composición química realizado con el EDS, del SEM presentado en la Fig. 12 muestra que en las gráficas a y b se puede observar que la zona más oscura presenta una mayor concentración del nivel de Nitrógeno (Fig. 12a, representado por la cantidad de puntos blancos). En la Fig. 12b se aprecia que desde la superficie y hasta unos 150 micrómetros, el contenido de Nitrógeno es mayor. En la fig. 12c, se aprecia que igualmente esta zona es más rica en Cromo. Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable AISI-SAE 304 – López En la Fig. 12d se observa que la zona clara es más rica en Fe que en la zona más oscura. Lo anteriores hechos corroboran que la zona más oscura se encuentran las mayores cantidades de precipitados formados por Nitrógeno (nitruros) y de Cromo. Fig. 12. PERFIL DE COMPOSICIÓN QUíMICA REALIZADO CON EL EDS, DEL SEM D. El contenido de Hierro (Fe) es menor hasta los 150 micrómetros desde la superficie de la muestra, indica su empobrecimiento por la posible combinación con el Cromo o el Nitrógeno para la formación de los precipitados observados en los límites de grano de la muestra analizada A. Concentración del Nitrógeno representado por una mayor cantidad de puntos blancos en la parte superior (zona más oscura de la muestra estudiada) En la Fig. 13 se observa el perfil de microdureza Vickers tomado a la muestra desde la parte externa de la misma, pudiéndose observar que la dureza disminuye desde la superficie a medida que aumenta la profundidad. En los primeros puntos de la superficie se tiene un valor de 660 HV y este disminuye de una forma regular hasta una profundidad aproximada de 1600 micrómetros (1.6 mm.) con un valor de dureza de 360 HV. En este punto presenta una caída apreciable hasta 250 HV. Fig. 13. PERFIL DE MICRODUREZA MEDIDO DESDE LA SUPERFICIE DE LA MUESTRA. CARGA= 200 GR. REALIZADO BAJO LA NORMA NTC 3923 (1996-08-21) “MATERIALES METÁLICOS. ENSAYO DE DUREZA. ENSAYO VICKERS. PARTE 2. HV 0,2 A HV 5 B. La presencia de Nitrógeno en la muestra es más alta hasta aproximadamente los 150 micrómetros, lo que indica la presencia de una capa nitrurada sobre el material Fuente: Autor del artículo C. La presencia de Cromo es mayor hasta los 150 micrómetros e indica la precipitación de este elemento en alguna forma de carburos o nitruros de Cromo La descripción anterior corresponde con los estudios encontrados en la literatura, [2], [3], [4], [5], [6], sobre el efecto del amoniaco en el acero inoxidable de fabricación del equipo, el cual por acción de la temperatura y la presión, conduce a que el Nitrógeno se difunda hacia el material para 33 34 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36 formar una capa dura y frágil que varía en espesor principalmente de acuerdo con el tiempo de exposición a estas condiciones. Esto se corrobora con lo observado en las Fig. 2, 3 y 12a y 12b donde se muestran diversos aspectos, como una capa frágil, dos capas diferenciadas en el material y el incremento en el contenido de Nitrógeno. IV. ANÁLISIS Y CONCLUSIONES Algunos estudios han determinado que en atmósferas de amoniaco se forma una capa frágil no metálica compuesta por nitruros de Hierro expuesta a la descomposición del amoniaco a temperaturas por encima de 400oC y se ha observado que su máxima acción destructiva se encuentra entre los 550oC y 750oC. Se ha podido observar en los materiales sometidos a estas condiciones la aparición de numerosas grietas [4]. También es importante tener en cuenta que se ha determinado a través de la experimentación de diversos materiales, incluidos los aceros inoxidables, que la temperatura de exposición influye en el espesor de la capa nitrurada, en el aumento de la dureza, así como a la propensión a la aparición de grietas, cuando se está sometido a una atmósfera con amoniaco [5]. El amoniaco es un producto químico ampliamente utilizado por diversos tipos de industrias como en la producción de fertilizantes y ácido nítrico, entre otros, donde a condiciones ambientales los aceros inoxidables poseen una buena resistencia a este compuesto tanto en forma líquida como gaseosa, pero este tiene el efecto de formar una capa nitrurada sobre estos por encima de temperaturas de 450oC, que lleva a la fragilización del material, así como la posibilidad de generar grietas y cuando se encuentra bajo presión, este fenómeno puede ocurrir o iniciar a temperaturas aún más bajas, cerca de los 350oC. También se da que debido a la alta reactividad del Cromo con el Nitrógeno, puede ser preferencialmente consumido, pudiendo dejar en la superficie del material una matriz más rica en la aleación Hierro-Níquel el cual, a su vez, puede ser más susceptible a la corrosión [6]. También se reporta en la literatura que el amoniaco es reconocido como una sustancia dañina para los materiales de construcción de los equipos para su procesamiento bajo ciertas condiciones de altas temperaturas y presiones, ya que se puede disociar en Nitrógeno atómico e Hidrógeno atómico, donde el primero puede conducir a la formación de una capa nitrurada, mientras el Hidrógeno atómico puede causar descarburación y aún sin presurizar puede inducir la formación de una capa de nitruración por encima de 450oC y si el amoniaco se encuentra presurizado, causa nitruración y consecuentemente fragilización a temperaturas por encima de 350oC [7]. Los aceros inoxidables son comúnmente empleados en aplicaciones donde se requiera buena resistencia mecánica y contra la corrosión. Para el caso de los convertidores de amoniaco, estos normalmente operan a temperaturas entre los 500oC y 600oC, donde los materiales de construcción del equipo, se encuentran expuestos a gases de síntesis, los cuales son, por lo general, una mezcla de Nitrógeno, Hidrógeno y un porcentaje comúnmente de entre 5% y 6% de amoniaco gaseoso (NH3). Los aceros inoxidables empleados para la canasta que contiene el catalizador son propensos a sufrir de degradación por nitruración durante el servicio. En este tipo de aplicaciones, las aleaciones basadas en Hierro pueden desarrollar una capa superficial frágil no metálica compuesta por nitruros de Hierro (Fe2N), que puede conducir a que toda la pieza pueda ser susceptible de fragilización. En diversos estudios se ha reportado que ciertos aceros inoxidables son más resistentes a las condiciones de trabajo de los convertidores de amoniaco, pero también pueden estar propensos a la nitruración bajo las condiciones de operación. Uno de los efectos es la formación de una capa externa nitrurada que contiene precipitados de nitruro en los límites de grano [8]. Las condiciones reportadas del equipo donde se encontraba ubicada la muestra y por los procesos que realiza, donde las temperaturas se encuentran en un rango de 288oC y 566oC y la presión es de 4200 Psi., más el hecho del procesamiento de los gases de síntesis, entre los cuales se encuentran el Amoniaco, Nitrógeno e Hidrogeno y los resultados de los distintos ensayos, donde se muestra una capa con un mayor valor de dureza en la zona externa, mientras en la zona central presenta una dureza menor, más lo mostrado en la Fig. 5 con la fragilización del material cuando se sometió a laminación, así como en los resultados de la composición química, lo observado en las Fig. 10, 12a y 12b que muestran Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable AISI-SAE 304 – López un mayor contenido de Nitrógeno en una capa de aproximadamente 1.6mm., medida desde la superficie, conducen a establecer que el material de la muestra analizada sufrió un proceso de difusión de Nitrógeno por ataque del amoniaco que forma una capa nitrurada frágil con el espesor aproximado mencionado antes. El Nitrógeno puede encontrarse en la capa nitrurada al formar precipitados de nitruros de cromo (Cr2N), o de Hierro (Fe2N), dada la gran afinidad del Cromo para unirse con el Nitrógeno y también en parte con el Hierro, lo cual ha sido corroborado para aceros inoxidables con contenidos de Cromo superiores al 12% [8], lo que puede resultar en un empobrecimiento del Cromo del material adyacente a la capa nitrurada que causa que el material se vuelva magnético, como efectivamente se pudo comprobar con la muestra analizada en este trabajo y donde además, esta capa, por estar conformada por precipitados de nitruros que son frágiles y duros, posee estas mismas características. Los precipitados de nitruros poseen una alta temperatura de disolución, por lo cual a las condiciones de operación del reactor catalítico, estos no se pueden disolver, formándose por lo tanto la capa nitrurada dura y frágil observada en la muestra, la cual además presenta ya numerosas grietas. V. OBSERVACIONES Y RECOMENDACIONES El amoniaco a altas temperaturas posee un gran potencial para formar una capa nitrurada en los metales, al igual que a altas presiones se pueden formar compuestos corrosivos y en algunas aleaciones presentarse el agrietamiento por corrosión bajo tensión [9]. En general, con el amoníaco (NH3) e hidróxido de amonio (NH4OH), los aceros inoxidables han demostrado una buena resistencia a todas las concentraciones y hasta el punto de ebullición, solo que se encuentran algunos con mejores resistencias a estas condiciones de operación que otros [10]. Las inestabilidades metalúrgicas como la recristalización, el envejecimiento, la precipitación de fase intermetálica, entre otras, pueden ocurrir en un material cuando se encuentra sometido a ciertas condiciones como por ejemplo esfuerzos, temperaturas elevadas y factores ambientales [11]. De acuerdo con la literatura técnica, para tratar de reducir la degradación del material por efectos de la capa de nitruración que se forma en un medio ambiente de amoniaco a temperaturas alrededor de 350oC – 600oC, más la influencia de la presión en el equipo (en este caso 4200 Psi.), se pueden seguir las siguientes recomendaciones: Emplear aceros estabilizados con niobio y titanio para fijar el carbono y evitar la formación de carburos de cromo. En su lugar, se forman nitruros de Niobio y de Titanio, lo cual retrasa la degradación del acero en algún grado [12]. Solo que para un tiempo de servicio prolongado, se puede de todas formas presentar la situación de generarse de nuevo precipitados de nitruros de Cromo u otros y la degradación del material por el agotamiento del Niobio y el Titanio. Por la anterior razón es preferible seleccionar un acero con una mayor resistencia a la nitruración y al hacer una revisión de la literatura se encuentra que para el trabajo en convertidores de amoniaco que operan a temperaturas entre 500oC y 600oC, se obtiene que materiales con más altos contenidos de Níquel y más bajos de Cromo, son más adecuados para tales condiciones. De acuerdo con el punto anterior, se presenta que un material adecuado para las condiciones del reactor catalítico donde se encontraba ubicada la muestra en estudio, puede ser el acero inoxidable AISI-SAE 330, el cual es una aleación Níquel-Cromo (34-37% Níquel, 17-20% Cromo, 0.08% Carbono) [13], que es apropiado para temperaturas por encima de 900oC. [8]. En general, para la selección de materiales para este tipo de aplicaciones se deben considerar aspectos como la resistencia a la corrosión, resistencia mecánica, conducción del calor y además los costos, por lo cual seleccionar un material adecuado a las condiciones de servicio puede ser bastante complejo en algunos casos [14]. En este caso, la recomendación es emplear aceros inoxidables con contenidos de Níquel preferiblemente entre 30% y 40% y en todo caso inferiores al 80 %, que han mostrado ser los más resistentes. Los inoxidables 309, 310 y 314 también han mostrado buen comportamiento a la degradación por nitruración en los ambientes con amoniaco descritos anteriormente, pero menor que el acero 330 y mejor que los aceros inoxidables 321 y 347 estabilizados con Niobio y Titanio [8]. 35 36 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36 Otra razón principal por la cual son usados los aceros inoxidables, es por sus propiedades a altas temperaturas como resistencia a la oxidación y resistencia mecánica, donde el Cromo es uno de los elementos que contribuyen a obtener estas importantes propiedades [15]. Un acero inoxidable como el 304, que presenta precipitados de nitruros de Cromo o de Hierro, puede tratarse térmicamente con un recocido de disolución a 1100oC, lo cual podría conducir a la eliminación de una buena parte de estos nitruros, pero esto no se puede asegurar al 100%. Además, para el caso de la muestra examinada, se encuentra la presencia de numerosas grietas, las cuales ya no podrían ser eliminadas. Aparte de las recomendaciones anteriores referidas a la selección de aceros para las condiciones de operación, se recomienda, de acuerdo con las posibles dificultades de acceso y de parada de este tipo de equipo, diseñar un plan de inspección que permita monitorear la posible formación de una capa de nitruración a lo largo del tiempo, especialmente cuando el tiempo de servicio es prolongado. REFERENCIAS [1] [2] [3] [4] Singh, R., Swaminathan, J. Paswan,S., Rajinikanth, V. and Chattoraj, I. “Investigations on high temperature corrosion of wire enameling oven”, Engineering Failure Analysis, No. 18, pp. 1375– 1387, 2011. Jessner, P., Danoix, R., Hannoyer, B. and Danoix, F. “Investigations of the nitrided subsurface layers of a Fe–Cr-model alloy”, Ultramicroscopy, No. 109, pp. 530–534, 2009. Peng, D.Q., Kim, T.H., Chung, J.H. and Park, J.K. “Development of nitride-layer of AISI 304 austenitic stainless steel during high-temperature ammonia gas-nitriding”, Applied Surface Science, No. 256, pp. 7522–7529, 2010. Moran J.J., Mihalisin, J.R. and Skinner, E.N. “Behavior of stainless steel and other engineering alloys in hot ammonia atmospheres”, National association of corrosion engineers, pp. 115-119, 1961. [5] Marsh, Hands D. Nitriding of steel. “A very detailed German study of the nitriding of structural steels in ammonia synthesis service”, Plant operation progress, pp. 152-159, 1982. [6] De Sanctis, O., Gómez L., Pellegri, N. and Durfi, A. “Behavior in hot ammonia atmosphere of SiO2coated stainless steels produced by a sol-gel procedure”, Surface and Coatings Technology, No. 70, pp. 251-255, 1995. [7] Shaikh,H., Subba Rao, R.V., George, R.P., Anita T. and Khatak, H.S. “Corrosion failures of AISI type 304 stainless steel in a fertilizer plant”, Engineering Failure Analysis, No. 10, pp. 329–339, 2003. [8] Kain, Vivekanand, Gupta, Vipul K. and De K., Pranab. “Embrittlement Cracking of a Stabilized Stainless Steel Wire Mesh in an Ammonia Converter”, Prediction, Industrial Developments and Evaluation, pp. 411-420, 2008. [9] Committee of stainless steel producers. American iron and steel institute. Stainless steel in ammonia production, 1978, pp. 1-22. [10] ASM Handbook, Volume 1, Properties and Selection: Irons, Steels, and High Performance Alloys, 1997, p. 2122. [11] Wulpi J. Donald. Understanding how components fail. ASM International, 2nd ed., 1999, p. 234. [12] Smith, William F. and Ashemi, Javad. Foundations of materials science and engineering, 2006, pp. 751-753. [13] ASM Handbook, Materials Selection and Design, 9th ed., Vol. 20, 1997, p. 363. [14] ASM Handbook, Failure Analysis and Prevention, 9th ed., Vol. 11, 1986, p. 628. [15] Atlas Specialty Metals. Technical Handbook of Stainless Steel, 2003, p. 15. Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados Methodology for Real-Time Parameter Estimation Through Kalman Filter and Least-Squares Víctor Alfonso Ortiz Bravo Ingeniero Electrónico, Universidad Tecnológica de Pereira Investigador Grupo de Investigación en Ingeniería Electrónica, Universidad Tecnológica de Pereira, Colombia [email protected] Manuel Antonio Nieto Arias Ingeniero Electrónico, Universidad Tecnológica de Pereira Investigador Grupo de Investigación en Ingeniería Electrónica, Universidad Tecnológica de Pereira, Colombia [email protected] Edwin Andrés Quintero Salazar MSc. En Instrumentación Física, Universidad Tecnológica de Pereira Director del Programa de Ingeniería Electrónica Director del Grupo de Investigación en Astroingeniería Alfa Orión, Universidad Tecnológica de Pereira, Colombia [email protected] Resumen— En este artículo se presenta una metodología para la estimación en tiempo real de parámetros de sistemas dinámicos lineales desconocidos, mediante el filtrado de Kalman y el método de estimación por mínimos cuadrados. Los algoritmos resultantes de la aplicación de la metodología propuesta son implementados en tiempo real sobre un procesador digital de señales (DSP, por sus siglas en inglés) referencia TMS320F2812 de la marca Texas Instruments©. Con el objetivo de evaluar la efectividad del método, se adelantó la estimación de una planta dinámica de segundo orden con comportamiento de filtro pasa bajos estable, simulada mediante un circuito electrónico que contiene amplificadores operacionales, que maniobran bajo condiciones de laboratorio que generan una alta perturbación en las funciones que identifican la entrada y la salida. Estas señales son adquiridas por el procesador digital de señales mediante el convertidor Análogo-Digital (A/D) embebido en el mismo, con el fin de implementar en tiempo real el algoritmo de identificación de parámetros planteado en la metodología. Finalmente, se obtuvo la función de transferencia estimada del sistema con errores de 0,0019% en la frecuencia de corte, 10,34% en el sobre impulso, y 14,28%en el tiempo de establecimiento; lo cual evidencia la efectividad de la implementación en tiempo real de la estrategia de estimación planteada. Palabras clave— Estimación de parámetros, filtro de Kalman, identificación de sistemas, mínimos cuadrados, procesador digital de señales, procesamiento en tiempo real. Abstract— This paper presents a methodology for realtime estimation of the parameters of unknown nonlinear dynamic systems by Kalman filtering and the least squares estimation method. The algorithms resulting from the application of the proposed methodology are implemented in real time on a TMS320F2812 digital signal processor (DSP) from Texas Instruments©. In order to evaluate the effectiveness of the method, estimation of a dynamic plant second order filter with stable low-pass behavior, simulated by an electronic circuit containing operational amplifiers, operating under laboratory conditions that generate a high disturbance in the input and output functions was performed. These signals are acquired by the digital signal processor via its embedded analogue-digital (A/D) converter, to implement the real-time parameter identification algorithm proposed in the methodology. Finally, we obtained the estimated transfer function of the system with an error of 0.0019% in the cutoff frequency, 10.34% in the overshoot, and 14.28% in the settling time, demonstrating the effectiveness of the real-time implementation of the estimation strategy proposed. Keywords— Estimation of parameters, Kalman filter, system identification, least squares, digital signal processor, real time processing. I. INTRODUCCIÓN En el campo de la ingeniería, a la hora de implementar las técnicas establecidas por la teoría de control moderna, uno de los aspectos que dificultan esta tarea consiste en el desconocimiento Recibido: 26/02/2013/ Aceptado: 19/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44 38 de los parámetros que definen la dinámica de los sistemas que se desean controlar. Generalmente, con el objetivo de solventar esta dificultad, se recurre a la aplicación de estrategias que, a partir de la observación de la respuesta presentada por el sistema frente a una excitación dada, arrojan una estimación de las variables y del modelo matemático que identifican la planta; como es el caso de método de estimación de parámetros por mínimos cuadrados. Sin embargo, debido a que las señales de entrada y salida del sistema en la gran mayoría de las aplicaciones son altamente afectadas por el ruido, los parámetros arrojados por la estimación varían sustancialmente con respecto a los realmente presentes en la planta. Lo cual hace necesario la implementación de filtros que permitan minimizar los efectos indeseados causados por las perturbaciones externas ajenas a las señales involucradas en el sistema. Una estrategia muy utilizada consiste en el filtro de Kalman, el cual actualmente se encuentra en un sinnúmero de aplicaciones tales como el modelamiento de espacio de estados [1], procesamiento de datos biomecánicos [2], estimación de sistemas de control de tráfico [3], control de posición en interferometría láser [4], filtrado de señales de acelerómetros y giroscopios [5] y control de bombas centrífugas de agua [6], entre otros. Si bien la aplicación de las estrategias descritas anteriormente suministra una estimación aceptable del sistema objeto de estudio, la implementación de los algoritmos demanda sistemas robustos de procesamiento, lo cual pone en riesgo la operación en tiempo real del estimador cuando se desea modelar sistemas dinámicos en plena operación. Por esta razón al realizar una revisión exhaustiva del estado del arte, se encuentran estrategias encaminadas a la implementación en tiempo real del filtro de Kalman, como las que se presentan en [7]. Un ejemplo claro de la situación se observa en las notas de aplicación del procesador digital de señales TMS320F2812 de la marca Texas Instruments© [8], en las cuales se encuentran documentos técnicos dedicados a la implementación en tiempo real de estrategias de control que involucran el filtro de Kalman, aunque sin contemplar la estimación de los parámetros del sistema. Este escenario pone de manifiesto la necesidad de desarrollar sistemas que estimen los parámetros de sistemas desconocidos mediante ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44 el método de mínimos cuadrados, que minimice los efectos indeseados causados por el ruido, con la capacidad de operar en tiempo real sobre sistemas embebidos. En el presente artículo se propone una metodología para la estimación en tiempo real de parámetros de sistemas dinámicos lineales mediante el método de mínimos cuadrados y el Filtro de Kalman. Con el fin de evaluar la metodología propuesta, se realizó la identificación de una planta de segundo orden implementando en tiempo real los algoritmos desarrollados en el procesador digital de señales TMS320F2812 de la marca Texas Instruments©. II. MATERIALES Y MÉTODOS A. Identificación de los parámetros del sistema Uno de los requisitos que exige el diseño de los controladores clásicos consiste en conocer, con algún grado de certeza, el comportamiento del sistema que se va a controlar, es decir, en términos de su modelo matemático, los parámetros de la función de transferencia. Sin embargo, en la gran mayoría de las aplicaciones de la teoría de control, es poca la información con la que se cuenta acerca del sistema, razón por la cual un problema frecuente en ingeniería consiste en establecer y aplicar técnicas que permitan determinar los parámetros que intervienen en el comportamiento del mismo. Algunas de las técnicas para la construcción de los modelos están basadas en la observación de la dinámica del sistema en tiempo pasado y actual. Las metodologías basadas en este principio se clasifican como adaptativas [9] y generalmente dan origen a algoritmos recursivos para su implementación [10]. En la Fig. 1 se presenta la configuración típica de un sistema de estimación adaptativa. Como se observa, el proceso de estimación se adelanta en línea con la operación del sistema, por lo cual es necesario que esta tarea se realice en tiempo real, de tal forma que la estimación siga el ritmo de la dinámica de la planta. En este punto es donde los sistemas electrónicos embebidos de procesamiento (como el DSP utilizado en este proyecto), presentan gran versatilidad, pues permiten dedicar el 100% de los recursos disponibles a la tarea de estimación. Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados – Ortiz, Nieto, Quintero Fig.1. DIAGRAMA DE BLOQUES DE UN SISTEMA DE ESTIMACIÓN PARA CONTROL ADAPTATIVO P(t): Matriz de covarianza λ(t): Factor de olvido y(t): Salida del sistema El factor de olvido puede ser variable en el tiempo de acuerdo a las características de la planta. Sin embrago, generalmente se establece como una constante entre 0,9 y 0,99. Para este proyecto en particular, se estableció en 0,98, incluida esta ponderación a la muestra anterior, que permite de esta manera “olvidar” las muestras más antiguas [10]. B. Filtrado Fuente: Los autores Estimación por Mínimos Cuadrados Recursivos El método de estimación por mínimos cuadrados es uno de los más populares y utilizados actualmente en aplicaciones prácticas. Consiste en calcular los parámetros reales del sistema, de tal forma que la suma de los cuadrados de las diferencias entre los valores observados y calculados multiplicados por un número, que mide la amplitud del error, sea mínimo. Este método es fácilmente programable debido a su recursividad, es decir, aprovecha parte de los cálculos realizados en un paso anterior para la obtención del siguiente [11], situación que lo convierte en relativamente fácil de implementar en un sistema embebido, razón por la cual es el propuesto en la presente metodología. El algoritmo para la estimación de parámetros por mínimos cuadrados recursivos puede resumirse en el conjunto de ecuaciones (1) a (3). Donde: Parámetros estimados de la planta φ(t): Vector de regresión (entradas y salidas de la planta) Si bien el método de estimación por mínimos cuadrados ofrece una muy buena aproximación a los valores reales de los parámetros de la planta, su implementación sobre sistemas reales exige que las señales de entrada y salida, a partir de las cuales se realiza la estimación, estén prácticamente libres de las afectaciones causadas por el ruido. Esta situación hace imprescindible la aplicación de procedimientos de filtrado que suavicen las señales de entrada y salida del sistema, para de esta manera obtener parámetros estimados con errores bajos. Filtro de Kalman El filtro de Kalman es esencialmente un conjunto de ecuaciones matemáticas que implementan un estimador tipo predictor–corrector, que es óptimo en el sentido que minimiza el error estimado de la covarianza. Desde el momento de su introducción, el filtro de Kalman ha sido sujeto de investigación permanente. Esta situación, en adición a los avances en la computación digital, ha propiciado una evolución del filtro hasta hacerlo muy práctico, pero relativamente simple y robusto. Para la eliminación en tiempo real del ruido presente en las señales del sistema que se desea estimar, la metodología descrita en el presente documento propone implementación del filtro de Kalman en un procesador digital de señales. El filtro de Kalman estima el estado del proceso en una muestra y después obtiene la realimentación en forma de mediciones con ruido aditivo. Las ecuaciones del filtro de Kalman se clasifican en dos grupos: ecuaciones de actualización de tiempo y de actualización de mediciones. Las primeras son responsables de proyectar hacia adelante (en el tiempo) el estado actual, y es- 39 40 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44 timaciones de error y covarianza para obtener los estimados a priori del siguiente paso. Las ecuaciones de actualización de medida pueden ser vistas como ecuaciones correctoras. De hecho, el algoritmo final de estimación reúne los algoritmos de predicción-corrección para la resolución de problemas numéricos [12]. A continuación se presentan los conjuntos de ecuaciones descritos anteriormente. Ecuaciones de actualización de tiempo: Fig. 2. DIAGRAMA DE BLOQUES DEL ALGORITMO PARA LA IMPLEMENTACIÓN DEL ESTIMADOR POR MíNIMOS CUADRADOS Ecuaciones de actualización de mediciones: Donde: Proyección del estado hacia adelante (estimación) Proyección de la covarianza del error hacia adelante Kk: Ganancia de Kalman Actualización del valor estimado con la medición zk Pk: Actualización de la covarianza del error C. Algoritmos La metodología propone la construcción de dos algoritmos independientes: algoritmo de mínimos cuadrados y algoritmo para el filtro de Kalman. A continuación se describen detalladamente cada uno de ellos. Algoritmo para la estimación de parámetros por mínimos cuadrados. Como ya se mencionó anteriormente, el algoritmo de mínimos cuadrados permite encontrar el modelo matemático de la planta física. Para realizar la estimación se requieren dos señales: la señal de referencia que se le aplica a la entrada del sistema y la salida del mismo. Con esta información, el algoritmo arroja como resultado la función de transferencia estimada [13]. El diagrama de bloques de este algoritmo se presenta en la Fig. 2. Fuente: Los autores Algoritmo para la aplicación del filtro de Kalman El filtro de Kalman se encarga de estimar los estados del sistema y de eliminar el ruido aleatorio presente. Para lograr este objetivo, es necesario el modelo de espacio de estados, el cual se obtiene al ejecutar el algoritmo de estimación de mínimos cuadrados presentado en la Fig. 2. Además de lo anterior, también se requiere de la referencia de entrada de la planta; para de esta manera entregar como salida del algoritmo los estados estimados y la señal filtrada [14], [15]. En la Fig. 3 se presenta el diagrama de flujo del algoritmo para la aplicación del filtro de Kalman. Fig. 3. DIAGRAMA DE FLUJO DEL ALGORITMO PARA LA IMPLEMENTACIÓN DEL FILTRO DE KALMAN Fuente: Los autores Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados – Ortiz, Nieto, Quintero D. Implementación en tiempo real sobre un procesador digital de señales (DSP) Para la implementación en tiempo real sobre un procesador digital de señales de los algoritmos propuestos por la metodología planteada en el presente artículo, y presentados en la Fig. 3, se establecen las siguientes actividades: • Generar una señal escalón unitario mediante la salida analógica del DSP. Esta señal es utilizada como fuente de excitación para el sistema que se va a identificar. • La respuesta presentada por el sistema frente a esta excitación es adquirida por el DSP mediante su módulo de conversión análogodigital (A/D). • Esta señal de respuesta es estimada al interior del DSP por el algoritmo de mínimos cuadrados, y, a partir del modelo matemático obtenido, se aplica el algoritmo de filtrado de Kalman que optimiza la caracterización al minimizar las afectaciones causadas por el ruido. • Finalmente, el DSP suministra los coeficientes del modelo de la planta obtenidos al ejecutar el procedimiento de estimación. La implementación de la metodología propuesta permite obtener un modelo preciso de la planta en aplicaciones en las cuales no se posee información acerca del comportamiento de la misma. Además, gracias a la aplicación del filtro de Kalman, se logra eliminar cualquier tipo de interferencia de naturaleza aleatoria presente en las señales o en el interior del sistema. III. RESULTADOS Con el fin de verificar la efectividad de la metodología propuesta, los algoritmos de estimación de parámetros por mínimos cuadrados y de filtro de Kalman, fueron implementados en tiempo real sobre un DSP, con el fin de modelar una planta de segundo orden excitada mediante un escalón unitario. El procesador digital de señales utilizado fue el DSPTMS320F2812 de la marca Texas Instruments©, el cual se configura desde el software de desarrollo Code Composer Studio© (CCS)V3.1 [16]. El sistema que se va a estimar consiste en una planta de segundo orden cuya función de transferencia se describe mediante la ecuación (9). En la Fig. 4 es posible observar el diagrama de Bode para la magnitud, construido en el entorno de desarrollo integrado Matlab©, a partir de la función de transferencia teórica del sistema. Allí es posible observar que la planta se comporta como un filtro pasa bajos de segundo orden con una frecuencia de corte (ωc) de 5,1962 rad/s y un factor de amortiguamiento (ξ) de 0,4994, el cual origina un sobre impulso de 1,25 dB en 2,64 rad/s. Por otra parte, la Fig. 5 presenta la respuesta al escalón de la planta, evidenciándose un sobre impulso alrededor del 16%, y un tiempo de establecimiento de 1,5s aproximadamente; lo cual permite concluir que se trata de un sistema estable. Fig. 4. DIAGRAMA DE BODE DE LA FUNCIÓN TEÓRICA DEL SISTEMA ESTIMADO Fuente: Los autores La realización del sistema se efectuó mediante un circuito electrónico que contiene amplificadores operacionales[17]. El diagrama esquemático del circuito montado se muestra en la Fig. 6. Así, mismo, la Fig. 7 presenta la respuesta al escalón visualizada en el osciloscopio del laboratorio. Fig. 5. RESPUESTA TEÓRICA DEL SISTEMA AL ESCALÓN UNITARIO Fuente: Los autores 41 42 Fig. 6. DIAGRAMA ESQUEMÁTICO DEL CIRCUITO MONTADO PARA LA REALIZACIÓN DE LA PLANTA OBJETO DE IDENTIFICACIÓN ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44 análogo-digital. En ella se observa una gran afectación en la señal debida a la presencia del ruido y al muestreo propio de la digitalización. Esta imagen fue obtenida en el software CodeComposer Studio© (CCS)V3.1, a partir de la lectura de los datos almacenados en ciertas posiciones específicas de memoria del DSP. Fig. 7. RESPUESTA AL ESCALÓN DE LA REALIZACIÓN ELECTRÓNICA DEL SISTEMA. COMO SE OBSERVA, EL OSCILOSCOIPIO SE ECUENTRA AJUSTADO EN ESCALA DE 500MV/DIV EN TENSIÓN Y 5 S/DIV EN TIEMPO Fuente: Los autores Fig. 8. SEÑAL DE SALIDA DEL SISTEMA ADQUIRIDA CON EL DSP Fuente: Los autores Fuente: Los autores Las señales de entrada y salida de la planta montada son llevadas al DSP descrito anteriormente con el fin de adelantar la estimación de parámetros mediante el método de mínimos cuadrados y el filtrado de Kalman. En la Fig. 8 se presenta la respuesta presentada por el sistema frente a la excitación de tipo escalón, adquirida por el DSP mediante su módulo de conversión Una vez aplicado el filtro de Kalman en el DSP, la respuesta al escalón presentada en la Fig. 8 se transforma en la señal que se ilustra en la Fig. 9. Claramente se observa una disminución bastante considerable del ruido, lo cual permite obtener mejores resultados al aplicar el algoritmo de estimación de parámetros por mínimos cuadrados. Posterior a la aplicación del filtro de Kalman, el DSP ejecuta el algoritmo para la estimación de los parámetros del sistema mediante el método de mínimos cuadrados. La función de transferencia arrojada por el proceso de estimación está dada por la ecuación (10). Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados – Ortiz, Nieto, Quintero Fig. 9. SEÑAL DE SALIDA DEL SISTEMA UNA VEZ APLICADO EL FILTRO DE KALMAN Si bien el resultado de la estimación para la frecuencia de corte en el sistema objeto estudio (ver Tabla I) presentó un error muy bajo, no ocurrió así para el factor de amortiguamiento y el tiempo de establecimiento. Es posible atribuir esta situación a la relativa simplicidad del método de mínimos cuadrados. Sin embargo, la metodología propuesta es extrapolable a otros métodos de caracterización de sistemas, los cuales, unidos al filtrado de Kalman, podrían arrojar valores mucho más precisos; esto sin contar las innumerables ventajas que ofrece la implementación en tiempo real. AGRADECIMIENTOS Fuente: Los autores Finalmente, en la Tabla I se presentan los parámetros obtenidos al aplicar la metodología de estimación en tiempo real sobre la planta realizada con componentes electrónicos, y los valores teóricos deducidos a partir de la función de transferencia ideal del sistema, presentada en la ecuación (9). TABLA I. Los autores manifiestan sus agradecimientos al Grupo de Investigación en Ingeniería Electrónica de la Universidad Tecnológica de Pereira por facilitar sus instalaciones, materiales y equipos de laboratorio con el fin de validar la metodología propuesta. REFERENCIAS [1] R. Merwe, Sigma-Point Kalman Filters for Probabilistic Inference in Dynamic State-Space Models, Oregon Health & Science University, 2004. Disponible: http:// speech.bme.ogi.edu/publications/ps/merwe04.pdf [2] A. M. Sabatini, “Real-time Kalman Filter Applied to Biomechanical Data for State Estimation and NumericalDifferentiation”, Medical, Biological Engineering & Computation, No. 43, pp. 2-10, Mar. 2003. [3] Y. Wang and M. Papagiorgiou, “Real-time Freeway Traffic State Estimation based on Extended Kalman Filter: a General Approach”, Transportation Research Part B, No. 39, pp. 141-167, May. 2005. [4] T. Park, S. Choi, C. Han and Y Lee, “Real-time Precision Displacement Measurement Interferometer using the Robust Discrete time Kalman Filter”, Optics & Laser Technology, No. 37, pp. 229-234, Sep. 2005. [5] C. Kownacki, “Optimization Approach to Adapt Kalman Filters for the Real-time Application of Accelerometer and Gyroscope Signals’ Filtering”, Digital Signal Processing, No. 21, pp. 131-140, Oct. 2011. [6] O. I. Kiselichnik and M. Bodson, “Nonsensor Control of Centrifugal Water Pump with Asynchronous ElectricDrive Motor Based on Extended Kalman Filter”, Russian Electrical Engineering, Vol. 82, No. 2, pp. 69-75 Sep. 2011. [7] G. Evensen, “The Ensemble Kalman Filter: Theoretical Formulation and Practical Implementation”, Ocean Dynamics, No. 53, pp. 343-367, Apr. 2003. RESPUESTA AL ESCALÓN DE LA REALIZACIÓN ELECTRÓNICA DEL SISTEMA Sistema Teórico Estimación Error (%) Frecuencia de corte (ωc) (rad/s) 5,1962 5,1963 0,00192448 Factor de amortigua miento (ξ) 0,4994 0,7063 41,4297157 Sobre impulso (V) 1,16 1,04 10,3448276 Tiempo de establecimiento (s) 1,4 1,6 14,2857143 Fuente: Los autores IV. CONCLUSIONES La metodología presentada en este artículo demostró que es posible integrar el algoritmo de estimación de parámetros mediante mínimos cuadrados con el filtro de Kalman, con el fin de construir un sistema de identificación en tiempo real de fácil montaje. Esta propuesta facilita en gran medida el diseño de sistemas modernos de control para plantas dinámicas, ya que permite estimar las características del sistema de manera precisa al reducir las perturbaciones debidas al ruido presentes en las señales. 43 44 [8] ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44 Texas Instruments, “Sensorless Control with Kalman Filter on TMS320 Fixed-Point DSP”, TMS320F2812 Digital Signal Processor Application Notes. Disponible: http://www.ti.com/lit/an/ bpra057/bpra057.pdf [9] F. R. Rubio, M. J. López, Control Adaptativo y Robusto. Universidad de Sevilla, 1996, pp. 27-44. [10] L. Ljung, System Identification Theory for the User, 2nd ed., Prentice Hall, 1999, pp. 361-382. [11] J. V. Bobál, J. Bohm, J. Fessl and J. Machácek, DigitalSelf-tuning Controllers, Springer, 2005, pp. 26-50. [12] S. Haykin, Kalman Filtering and Neural Networks, Wiley-Interscience, 2001, pp. 1-21. [13] P. S. Maybeck, Stochastic Models, Estimation and Control, 1979. Disponible: http://www.cs.unc.edu/~ welch/kalman/ Consultado el 23 de febrero de 2012. [14] G. Evenses, Ensemble Kalman Filter: theoretical Formulation and Practical Implementation. 2003. [15] J. G. Díaz, A. M. Mejía y F. Arteaga, “Aplicación de los Filtros de Kalman a Sistemas de Control”. Revista INGENIERÏA UC, Vol. 8, No 1, pp. 1-18, Jun. 2001. [16] Texas Instruments, “TMS320F2812 Digital Signal Processor Data Sheet”. Disponible: http://www.ti.com/ lit/ds/ sprs174t/sprs174t.pdf Consultado el 10 de octubre de 2012. [17] L. E. Avendaño. Sistemas Electrónicos Analógicos un Enfoque Matricial. Universidad Tecnológica de Pereira, 2007, pp. 104-108. Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano Decision Support System for Multifractal Analysis of the Human Genome Martha Eliana Mendoza Becerra Ph.D. (c) en Ingeniería de Sistemas y Computación, Universidad Nacional de Colombia M.Sc. en Informática, Universidad Industrial de Santander Docente Titular Tiempo Completo, Investigador Grupo de I+D en Tecnologías de la Información (GTI), Universidad del Cauca, Popayán, Colombia [email protected] Alba Viviana Camayo Otero Ingeniera de Sistemas, Universidad del Cauca Auxiliar de Investigación en el Grupo de I+D en Tecnologías de la Información (GTI), Universidad del Cauca Popayán, Colombia [email protected] Adrián Fernando Martínez Molina Ingeniero de Sistemas, Universidad del Cauca Auxiliar de Investigación en el Grupo de I+D en Tecnologías de la Información (GTI), Universidad del Cauca Popayán, Colombia [email protected] Émber Ubéimar Martínez Flor M.Sc. (c) en Ingeniería de Sistemas, Universidad del Valle Docente Asociado Tiempo Completo, Investigador Grupo BIMAC, Universidad del Cauca, Popayán, Colombia [email protected] Carlos Alberto Cobos Lozada Ph.D. (c) en Ingeniería de Sistemas y Computación, Universidad Nacional de Colombia M.Sc. en Informática, Universidad Industrial de Santander Docente Titular Tiempo Completo, Coordinador del Grupo de I+D en Tecnologías de la Información (GTI), Universidad del Cauca, Popayán, Colombia [email protected] Resumen— En este artículo se presenta el modelo de datos multidimensional de dos data marts que forman parte de un Sistema de Soporte a la Toma de Decisiones en el área de la Genómica, el cual está basado en tecnologías de Bodegas de datos y OLAP. El primer data mart está relacionado con el “Análisis de unidades de información”, que permite almacenar y consultar información sobre las unidades de información (Exón o Intrón) en la estructura de un gen, el orden y la posición inicial y final de las unidades de información. El segundo data mart llamado “Análisis fractal” permite almacenar y consultar información sobre los genes, por ejemplo, el número de unidades de información y longitud del gen, y medidas adicionales obtenidas del análisis fractal realizadas por una investigación previa. Finalmente, se presentan los problemas durante el proceso de cargue de datos y el modelado de los datos, junto con las soluciones planteadas a los mismos, y algunas interfaces de la herramienta desarrollada. Palabras clave— Bodegas de Datos, OLAP, Bioinformática. Proceso ETL. Abstract— This paper presents the data model of two multidimensional data marts that are part of a Decision Support System in the genomics’ area, which is based on data warehousing and OLAP technologies. The first data mart is related to the “Units information analysis”, which can store and retrieve information about units information (Exon or Intron) in a gene structure, the order, and the start and end position of information units. The second data mart called “fractal analysis” allows you to store and retrieve information about genes, for example, the number of information units and length of the gene, and measurements obtained by previews fractal analysis research. Finally, this paper presents the problems during the extraction, transformation and loading data process and data modeling, together with the proposed solutions to them, and some interfaces of the developed tool. Keywords— Date warehouse, OLAP, Bioinformatics, ETL process. I. INTRODUCCIÓN En el año de 1990 se dio inicio al proyecto del genoma humano, un esfuerzo coordinado por el departamento de energía de los Estados Unidos y los institutos nacionales de salud de Japón, Francia y Alemania, entre otros [1]. Para suplir la necesidad de almacenar las secuencias y anotaciones generadas por este proyecto y realizar análisis Recibido: 13/12/2012/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 46 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 posteriores sobre estos datos, se usaron bases de datos como el GenBank (Base de datos pública de secuencias de nucleótidos y proteínas) [2], la Base de Datos de Secuencias de Nucleótidos del Laboratorio Europeo de Biología Molecular [3] y el Banco de Datos de DNA de Japón [4], entre otras. Estas bases de datos, denominadas Bases de Datos Biológicas, comúnmente almacenan los datos en un archivo de texto plano, donde se guardan además de la secuencias de nucleótidos o proteínas, anotaciones, descripciones textuales, y atributos, entre otros, referentes a un organismo. Cada uno de los valores almacenados son organizados de forma tabular y contiene etiquetas o delimitadores que indican el inicio o fin de un conjunto de valores relacionados. Sin embargo, desde el punto de vista de las ciencias de la computación o la informática, esta forma de almacenar los datos corresponde con una base de datos no estructurada lo que dificulta el procesamiento y la búsqueda de información específica. Las desventajas que presenta un sistema de gestión de datos basado en archivos planos son evidentes y se encuentran ampliamente discutidos por la comunidad científica, sin embargo, muchas de las bases de datos biológicas mantienen este enfoque. Esto obliga a los investigadores a generar aplicaciones específicas para la recuperación, limpieza, procesamiento y análisis de la información, tareas que generalmente demandan alta capacidad de cómputo. Las investigaciones que se realizan en el área de la genómica, por lo general, empiezan con la descarga de las secuencias de nucleótidos y proteínas en archivos de texto plano. Posteriormente, se realizan los análisis requeridos por la investigación especifica y se genera un conjunto de datos que se almacenan por lo regular en archivos de texto plano y en algunas ocasiones en bases de datos relacionales; estos datos generados son luego analizados -generalmente en hojas de cálculo y por medio de un proceso manual, repetitivo y que requiere de mucho tiempo- para comprobar las hipótesis definida en cada investigación. Al siguir este proceso general de gestión de datos, se pueden destacar tres problemas principales: (i) No se cuenta con un almacenamiento estructurado que permita centralizar la gran cantidad de archivos planos que se tienen y los datos que estos contienen, (ii) en un entorno de archivos planos no unificados, es difícil manejar los posibles errores de consistencia en los campos de los archivos provenientes del GenBank, y (iii) basados en esos archivos planos, se dificulta la tarea de encontrar relaciones o asociaciones entre las variables involucradas y contar con una herramienta que represente gráficamente los datos. En un esfuerzo interinstitucional por entender ciertas particularidades del genoma humano, en el año 2004 se formuló el proyecto “Análisis Multifractal del Genoma Humano para la Búsqueda de Regularidades con Significado Biológico y una Contribución a la Generación de Biotecnología de la Información” (AMGH), que fue ejecutado por el Grupo de Biología Molecular, Ambiental y del Cáncer (BIMAC) y el Grupo de I+D en Tecnologías de la Información (GTI) de la Universidad del Cauca [5], en asocio con la Universidad del Valle, Universidad de Cantabria (Santander, España) y Triesta Sciences (India) Pvt. Ltd. (Bangalore, India/Menlo Park, California). En este proyecto (AMGH) se aplicaron diferentes técnicas y herramientas de Bioinformática y de Geometría Fractal para la construcción de un modelo teórico, no lineal e “integrativo” que explica cómo se estructura y funciona el genoma humano (ver principales resultados del proyecto en [6] y [7]). Este estudio se adelantó a partir de la información del genoma humano publicada en el GenBank [2, 5] y la gestión de datos también se basó en archivos planos, heredando de esta forma los problemas mencionados previamente. En este artículo se presenta una solución computacional original para el almacenamiento y análisis de los datos biológicos generados en el proyecto de investigación AMGH. Para resolver los tres problemas previamente mencionados en el marco del proyecto AMGH, se desarrolló un sistema de soporte a la toma de decisiones (DSS, por sus siglas en inglés, Decision Support Systems) que permite a los investigadores del proyecto analizar los datos desde una perspectiva multidimensional. Para el desarrollo del DSS se modeló una bodega de datos que centraliza, homogeniza y unifica las diversas fuentes de datos y se adaptó una herramienta de procesamiento analítico en línea (OLAP, por sus siglas en inglés, On Line Analytical Processing) para obtener una mejor y más versátil forma de visualizar y explorar los datos generados en el proyecto AMGH. Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez, Cobos Para el desarrollo de la bodega de datos se realizó inicialmente el proceso de extracción, transformación y carga (ETL, por sus siglas en inglés, Extraction, Transform and Load). La extracción se realizó tomando los archivos planos generados en el proyecto AMGH, luego estos archivos fueron depurados, integrados y cargados en un mismo repositorio (la bodega de datos). Esta bodega fue procesada y convertida en un cubo multidimensional; el cual es accedido, visualizado y analizado por parte de los investigadores a través de una herramienta OLAP adaptada. Los investigadores usan esta herramienta para encontrar relaciones y estadísticas importantes en los datos de una forma mucho más sencilla, clara y flexible; evitando realizar los procesos manuales y repetitivos que se debían realizar sin la solución planteada en este artículo. A continuación, en la sección 2 se presentan algunos trabajos relacionados con el uso de bodegas de datos en bioinformática. Luego, en la sección 3 se presenta los aspectos más relevantes sobre el modelado y la presentación de los datos. Posteriormente en la sección 4, se comentan los problemas que se presentaron en el desarrollo de la investigación con sus respectivas soluciones. En la sección 5 se muestran algunas características de la herramienta OLAP y por último se presentan las conclusiones y algunas recomendaciones que pueden ser útiles para proyectos futuros de DSS que se realicen en el área de la bioinformática. II. TRABAJOS RELACIONADOS En el contexto bioinformático cuando se habla de bodegas de datos, se hace referencia a bases de datos unificadas (Unified databases) o integradas, pero no de una bodega de datos “real”, Por lo anterior, es difícil encontrar en bioinformática el uso de una metodológica reconocida de bodegas de datos o verdaderos modelos multidimensionales, estos últimos conformados por tablas de hechos, medidas y dimensiones, características comunes de las bodegas de datos. Es importante tener en cuenta que una bodega de datos permite almacenar e integrar datos desde múltiples fuentes y permite a usuarios de alto nivel ejecutar consultas y análisis de dichos datos desde diferentes perspectivas (múltiples dimensiones o multidimensionalidad) [8] [9], sin tener que acceder a las fuentes originales. Para lograr lo anterior, en el desarrollo de una bodega de datos se hace especial énfasis en la homogenización de los datos [10], lo que implica que los datos cargados desde las diversas fuentes son transformados mediante un mapeo a un formato único y estándar antes de ser físicamente almacenados. Adicionalmente, durante este proceso se pueden llevar a cabo el filtrado, la validación y, de ser necesario, la modificación de datos obtenidos de las fuentes originales [11] [12]. También es importante tener claro que el análisis multidimensional de los datos en la bodega de datos es una característica clave para diferenciarla del concepto de base de datos unificada, ya que estas últimas no lo permiten y utilizan sentencias SQL estándar (structured query language) para mostrar resultados a los usuarios. A continuación se presentan algunos de los proyectos de genómica más representativos donde se han usado bases de datos unificadas y bodegas de datos. Un sistema de bodegas de datos para analizar familias de proteínas (DWARF, por sus siglas en inglés, A data warehouse system for analyzing protein families) [13], propone una base de datos unificada e integrada desde la perspectiva relacional, en lugar de una bodega de datos multidimensional. Este sistema integra datos acerca de las secuencias, estructuras y anotaciones funcionales de las familias de proteínas. Los modelos relacionales asociados a este sistema se componen de tres grandes secciones, representadas en entidades asociadas a la proteína, la estructura de la proteína y la secuencia de la proteína, es decir, esta base de datos unificada relaciona familias de proteínas y permite evaluar sus relaciones entre secuencia, estructura y función. Una bodega de datos bioinformática integrada (ATLAS, A data warehouse for integrative bioinformatics) [14], es un sistema que presenta una base de datos unificada de datos biológicos. ATLAS almacena e integra secuencias biológicas, interacciones moleculares, información de homología (estudio comparativo de los seres vivos), anotaciones funcionales de genes y ontologías biológicas, El sistema busca proporcionar datos integrados desde diferentes fuentes heterogéneas, así como una infraestructura de software para la investigación y el desarrollo de la bioinformática. 47 48 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 Bodega de datos genéticos (GEWARE, por sus siglas en inglés, Genetic Data Warehouse) [15], es una bodega de datos que soporta grandes volúmenes de datos provenientes de experimentos y estudios que buscan el análisis de expresiones de genes. GEWARE almacena centralizadamente datos de expresiones junto con una variedad de anotaciones hechas previamente por investigadores con el objeto de soportar diferentes formas de análisis. GEWARE permite gran flexibilidad en el análisis de los datos basado en un modelo de datos multidimensional donde los datos son almacenados en varias tablas de hechos las cuales están asociadas con múltiples dimensiones jerárquicas que describen las anotaciones en los genes, muestras, experimentos y métodos de procesamiento. Las anotaciones son integradas y almacenadas de una forma genérica basada en una plantilla y vocabulario predefinido. El sistema cuenta con varios métodos de análisis, entre ellos el análisis de grupos de genes, de grupos de experimentos y de matrices de expresiones. Este sistema es totalmente operacional y soporta el desarrollo de varios proyectos de investigación. En la Tabla I se realiza una comparación de estos proyectos, teniendo en cuenta el manejo de los principales conceptos del modelado multidimensional en bodegas de datos. de hechos” o “dimensiones”, los cuales son característicos del modelo multidimensional de las bodegas de datos. En GEWARE se observa el uso de conceptos relacionados con el modelo dimensional de bodega de datos, pero los modelos generados almacenan información clínica de los pacientes y no de secuencias de ADN, como es el caso de la investigación en AMGH, además estos modelos no se presentan en un modelo dimensional estándar, lo que los hace difíciles de entender. III. MODELADO DE DATOS El desarrollo del DSS en el marco del proyecto AMGH, se centró en dos objetivos principales, el primero, permitir al investigador seleccionar el número de unidades de información que desea analizar, por estructura, visualizar a qué cromosomas, genes ó familias (tipos) de genes pertenecen esas estructuras y, finalmente, poder organizar en un orden ascendente o descendente las longitudes de las unidades de información (Exón o Intrón). Para lograr lo anterior se modeló un Data Mart denominado Análisis de Unidades de Información (ver Fig. 1). Fig. 1. MODELO DIMENSIONAL ANÁLISIS UNIDADES DE INFORMACIÓN TABLA I. CRITERIOS COMPARACIÓN TRABAJOS RELACIONADOS ATLAS DWARF GEWARE Modelo de datos Base de datos relacional Base de datos relacional Esquema estrella no estándar Dimensiones No se mencionan No se mencionan Si existen Tabla de Hechos No se mencionan No se mencionan Si existen Medidas No existen No existen Existen, pero no se pueden identificar Data Mart No existen No existen Existen, pero no se pueden identificar Información Interacciones moleculares Proteínas Pacientes clínicos y Experimentos médicos Fuente: Autores del proyecto Como se puede apreciar, en ATLAS y DWARF se usa el término bodega de datos para describir bases de datos unificadas (o centralizadas), ya que los modelos de datos que presentan son modelos relacionales, y no utilizan los conceptos de “tablas Fuente: Autores del proyecto El segundo objetivo, permitir clasificar en rangos (band) una medida resultante de la investigación, la cual es obtenida por cada estructura y consultar dentro de cada uno de esos rangos las longitudes, número de unidades de información, sus porcentajes por gen y sus estructuras, además calcular el número D (valor que corresponde al análisis fractal realizado al gen por los investigadores del proyecto AMGH [6]) por familia de Genes. Este segundo objetivo se modeló en el Data Mart denominado Análisis Fractal (ver Fig. 2). Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez, Cobos Este modelo se explica con mayor detalle (Ver Fig. 3, debido a que presenta un caso especial de modelado multidimensional. En el modelo se aprecia que todas las dimensiones presentan una clave sustituta. La dimensión gen contiene un campo de descripción, unos campos que determinan el inicio y el fin del gen en la secuencia, la hebra donde se encuentra el gen y la familia y subfamilia a la que pertenece. En la dimensión cromosoma se encuentra el organismo analizado y la división a la que pertenece y una descripción. La dimensión estructura contiene información acerca de la función molecular de dicha estructura, el número de unidades de información y un arreglo en el que se visualiza cada una de las unidades de información que conforman la estructura. La dimensión Band, contiene en términos generales, los intervalos y rangos de análisis de interés para los investigadores Fig. 2. MODELO DIMENSIONAL ANÁLISIS FRACTAL La Tabla de hechos Análisis fractal tiene una granularidad definida por estructura, y presenta como medidas: el número de unidades de información (#UI), simetría y longitud de la estructura (size). Las medidas porcentaje de número de unidades de información (%gen#UI’s) y porcentaje de longitud del gen (%gen_size), son relevantes al clasificar una de las medidas calculadas por los investigadores de AMGH, en intervalos y rangos. Además, la Tabla de hechos almacena otras medidas calculadas en el proyecto AMGH que no se muestran dado a una política de reserva sobre algunos resultados de la investigación [6]. IV. PROBLEMAS PRESENTADOS EN EL DESARROLLO DE LA INVESTIGACIÓN Los DSS están diseñados para tener en cuenta los sistemas operacionales (en este caso los archivos generados por las aplicaciones de cálculo fractal de AMGH), por lo tanto, para satisfacer las necesidades del proyecto, se presentaron algunos retos importantes, relacionados con: el proceso ETL, el diseño y construcción de la bodega de datos y la presentación de los datos. A. Problemas en el proceso ETL Fuente: Autores del proyecto Fig. 3. DATA MART ANÁLISIS FRACTAL Fuente: Autores del proyecto El proceso ETL para esta investigación presentó algunas particularidades no soportadas por las herramientas de ETL tradicionales (transformaciones por medio de operadores básicos). Para poblar la bodega de datos no se utilizó como fuente de datos directa el GENBANK [2], debido a que los investigadores de AMGH obtenían la información de este repositorio público y realizaban diferentes procesos sobre estos datos, entre los que se encuentra la aplicación de técnicas de minería de datos. Por lo tanto, los datos fueron extraídos y cargados a la bodega de datos directamente desde los archivos generados por los investigadores de AMGH. Debido a que el grupo de investigadores de AMGH realizó una limpieza exhaustiva de los datos del GENBANK (el porcentaje de los datos usados que presentaban error o ruido era insignificante), se presentaron pocos errores en el momento del cargue de los archivos proporcionados por los investigadores. Para resolver estos errores fue necesario realizar un análisis de los archivos de datos de los repositorios públicos basado en conceptos presentados en el taller de bases de datos: “Issues in Biological Databases (DBiBD) en el 2005 titula- 49 50 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 do “Una clasificación de los artefactos biológicos” [16]. En este estudio se presenta la naturaleza de los errores que se pueden presentar en estos archivos públicos y la razón por la cual no pueden ser cargados directamente en una base de datos unificada o en una bodega de datos. De acuerdo a la clasificación proporcionada en este estudio se encontraron dos tipos de errores que se presentaron durante el cargue de datos estos son: • Se detectaron veintidós (22) registros erróneos de 29.200, con respecto a las descripciones de los genes en la dimensión gen. Dos de estos errores se relacionaron con abreviaturas y los 20 restantes con homónimos. Un homónimo se presenta cuando una o más secuencias diferentes reciben el mismo nombre, uno de los factores por lo que esto puede ocurrir es la existencia de secuencias que son comunes en diferentes organismos. El problema con las abreviaturas se presenta cuando la abreviatura de una secuencia puede ser igual a muchas otras, por ejemplo, una secuencia denominada como GK, puede referirse a GLYCEROL KINASES, GLUTAMITE KINASES o GUANYLATE KINASES, entre otras. La presencia de homónimos y abreviaturas causa problemas en la identificación de secuencias y la búsqueda de palabras clave. Este tipo de error, hace referencia a un error de integridad referencial, que se presentó porque el archivo de origen sólo tenía las columnas de nombre del gen y descripción. Como un gen puede tener el mismo nombre, en el primer campo se podía encontrar varias veces el mismo nombre, esto hacía que al realizar la comparación no se lograra obtener un identificador único al cual asignarle la descripción. Para solucionar este problema, se reconstruyó el archivo que contenía las descripciones adicionándole el identificador del gen, que es único, de esta forma la comparación se podía hacer por ese identificador único. • Otro error encontrado en los datos fue la violación de la estructura de la secuencia, encontrando entidades que no correspondían a la estructura lógica de una secuencia, por ejemplo, la estructura de la secuencia debe tener un número impar de unidades de información, al iniciar y finalizar el exón; si se encuentra un registro que no cumpla con estas características, se tiene un registro erróneo, por lo cual los registros que presentaron este error fueron eliminados. B. Problemas en el modelado de la solución Dimensión Rango (Tabla de Hechos Análisis Fractal): Para los investigadores de AMGH, es relevante generar intervalos y rangos de análisis dentro de los intervalos, de acuerdo a una variable establecida. Estos intervalos y rangos de análisis son seleccionados bajo criterios propios de los investigadores y a partir de estos se clasifica la variable de interés. Al realizar el modelado de este requerimiento se presentaron algunas limitantes. A nivel teórico se encuentra parte de la solución a este problema de modelado, pero en la práctica las herramientas no soportan este caso de modelado. Ralph Kimball [17], plantea para este caso de modelado una Tabla que permite la generación de reportes, de acuerdo a unos rangos de valores definidos por el usuario final, mostrando como ejemplo los saldos de las cuentas en una entidad bancaria (Ver Tabla II). En la Fig. 4, se presenta el modelo dimensional que permite que este tipo de consultas se pueda realizar [18]: TABLA II. EJEMPLO DE UN REPORTE POR INTERVALO Número de Cuentas 45.678 36.788 11.775 2.566 477 Rango de Saldo 0 - 1.000 1.001 - 2.000 2.001 – 5.000 5.001 – 10.000 10.001 y más Fuente: Adaptado de [18] Fig. 4. DIMENSIÓN BAND Fuente: Tomado de [18] Total de Saldos $10.222.543 $45.777.216 $31.553.884 $22.438.287 $8.336.728 Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez, Cobos En la solución propuesta por Kimball (ver Fig. 4), puede verse una particularidad: la Tabla que permite definir los rangos, no está asociada a la Tabla de hechos, lo cual se evidencia por la ausencia de una llave foránea en la Tabla de hechos, lo que involucra realizar un cruce entre la Tabla BAND DEFINITION y el hecho PRIMARY MONTH ENDING BALANCE, mediante el uso de un par de cruces de menor que y mayor que [18]. Esta solución no puede ser utilizada en herramientas de modelado dimensional, ya que en estas herramientas no se permite realizar una consulta que involucre una Tabla de hechos con una dimensión que no esté asociada a dicha Tabla. En la Tabla III se muestra una alternativa de solución que toma como ejemplo la dimensión fecha. En ella se muestra la forma como se definen las diferentes agrupaciones que pueden existir para realizar los análisis, en este caso se puede agrupar la información por meses, por trimestres o por años, por medio de unos campos identificadores, que permiten agrupar la información según sea requerido, gracias a que asigna a cada fecha un conjunto de identificadores que permiten saber a qué mes, qué trimestre y qué año pertenece una fecha. De esta forma si se desea consultar los meses, lo que debe hacerse es agrupar por el identificador de mes, teniendo en cuenta que todos los registros que contengan el mismo identificador pertenecen al mismo mes [19]. en una mejor forma de manejar los intervalos que se usaron para el proyecto AMGH. Pero para aplicar este concepto se tuvo que tener en cuenta que los intervalos de análisis deben ser variables y no fijos como en el caso de la fecha (un año siempre tiene 365 días o 366 días en caso de los bisiestos). En la Fig. 5 y en la Fig. 6, se puede observar que el intervalo que va de cero a uno puede dividirse de dos formas diferentes y que el intervalo con diez particiones contiene al que tiene veinte, igual que un trimestre contiene meses, por lo tanto, los intervalos fueron definidos de forma similar a como se hace en la dimensión fecha. Para modelar los intervalos en la bodega de datos se usó la dimensión Band (ver Fig. 3), que contiene el valor del límite inferior y superior para la división más pequeña en cada intervalo, y el concepto que se usa para agrupar (similar a los meses, semestres y trimestre en la dimensión fecha). Además, un atributo que permite ordenar estas divisiones y un atributo para nombrar cada división de forma comprensible para el usuario final. Fig. 5. INTERVALO DE 0 A 1 DIVIDIDO EN 10 Fuente: Autor del proyecto Fig. 6. INTERVALO DE 0 A 1 DIVIDIDO EN 20 TABLA III. EJEMPLO DATOS DIMENSIÓN FECHA Fecha Mes Trimestre Año Nombre Mes Nombre Trimestre 02/01/2005 1 1 2005 Ene Trim_1 12/01/2005 1 1 2005 Ene Trim_1 10/02/2005 2 1 2005 Feb Trim_1 22/02/2005 2 1 2005 Feb Trim_1 22/04/2005 4 2 2005 Abr Trim_2 18/05/2005 5 2 2005 May Trim_2 20/06/2005 6 2 2005 Jun Trim_2 01/07/2005 7 3 2005 Jul Trim_3 04/11/2005 11 4 2005 Nov Trim_4 Fuente: Autor del proyecto La forma como en la dimensión de fecha se manejan este tipo de agrupaciones, se convirtió Fuente: Autor del proyecto Para crear la Tabla de la dimensión Band, se recomienda seguir los siguientes pasos: • Revisar cuáles son las agrupaciones y divisiones que se consideran relevantes para la investigación y listarlas, por intervalos de análisis y divisiones requeridas para cada uno de los intervalos. • Determinar cuál es la división más pequeña que se pueda tener, o lo que es igual el máximo número de partes en que será dividido el intervalo más pequeño que se pueda tener en los intervalos de análisis. Esto determina el incremento más pequeño que se puede tener. • Generar un conjunto de valores para la dimensión de la siguiente manera: se inicia desde el 51 52 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 • menor valor posible (en este caso es 0), incrementar de acuerdo al valor resultante de la división que se realizó con anterioridad, para obtener así el siguiente valor hasta llegar al máximo valor requerido (en este caso 50). En resumen, al generar este conjunto de datos lo que se obtiene es el intervalo de mayor granularidad (más detalle). Estos valores son los que agrupados de diferentes formas permiten definir los intervalos y rangos de análisis. Con esta información se construyen las columnas de la dimensión, de acuerdo a los valores superior e inferior de cada división y los identificadores que permitan realizar las diferentes agrupaciones. C. Problemas en la presentación de datos Se presentaron algunos inconvenientes en el momento de la presentación de los datos al usuario en la herramienta OLAP tradicional, ya que las consultas que solicitaban el grupo de investigadores, eran consultas especializadas, atípicas a las consultas realizadas en una bodega de datos tradicional. Los problemas presentados en la adaptación de la herramienta OLAP y las soluciones implementadas fueron las siguientes: • Problemas Relacionados con los Filtros. Los filtros requeridos por los investigadores implicaban la capacidad de mostrar automáticamente valores que estén por encima o por debajo de un valor definido por el usuario, o la clasificación en rangos de las medidas, seleccionado un intervalo y el número de partes en las que se quiere dividir dicho intervalo. Para dar solución a este problema se adicionó funcionalidad a la aplicación creando los filtros por medio de una página que contenía las consultas MDX (MultiDimensional eXpressions) para realizar los filtros y que permitía que estos pudieran ser parametrizados. • Problemas Relacionados con el Graficador. Las gráficas solicitadas requerían seleccionar las columnas que se deseaban graficar y el eje para cada una de las variables, sin embargo, los graficadores OLAP tradicionales no presentan estas opciones, las opciones gráficas se limitan a generar histogramas, tortas, líneas de relación, entre otros gráficos. Todas estas gráficas muestran únicamente la relación de dimensiones con- • tra medidas, pero algunas de las consultas requeridas por los investigadores requerían gráficas de relaciones de medidas contra medidas. La solución a este problema consistió en: 1) adicionar un graficador externo (Open Flash Chart) a la herramienta OLAP tradicional usada (jpivot de Pentaho [20]), 2)dar la libertad de seleccionar columnas (atributos) que se deseaban graficar y los ejes de estas variables, y 3) usar consultas MDX parametrizadas en los filtros. Otro problema se presentó debido a que las dimensiones de los datos en una bodega de datos tradicional son típicamente cadenas de caracteres (por ejemplo: descripciones y nombres) mientras que en AMGH se tenían algunos valores numéricos y las herramientas OLAP los convertían automáticamente en cadenas de caracteres. Esto hacía que el visor les asignara un orden alfabético, cambiando el orden de presentación de los datos en los reportes. Para solucionar esto se adicionó una cantidad apropiada de ceros a la izquierda a estos valores, y de esta forma se logró conservar el orden numérico. V. HERRAMIENTA OLAP El DSS propuesto en este artículo, se implementó en una suite Open Source, para el desarrollo de proyectos de inteligencia de negocios llamada Pentaho [20], debido a requerimientos de los investigadores del proyecto AMGH y a que en este tipo de comunidades académicas se utilizan herramientas Open Source para facilitar la publicación y distribución del conocimiento generado. A continuación se muestran algunas interfaces (screenshots) de una consulta sobre el data mart de Análisis Fractal y algunas gráficas producto de las consultas. En la Fig. 8 se muestra una consulta que permite visualizar los genes clasificados en rangos y según sus unidades de información y sus longitudes. Al lado izquierdo de esta figura se puede observar el uso de filtros estándar (Cromosoma y Número de partes) y no estándar, para el manejo de los intervalos (dimensión Band). Al lado derecho superior se encuentra la barra de herramientas típica de un visor OLAP y en la parte central los datos del reporte solicitado al data mart. Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez, Cobos Fig. 7. CONSULTA ANÁLISIS FRACTAL Fuente: Autor del proyecto En la Fig. 9 se muestra una gráfica con las unidades de información de todo el genoma humano expresado en el conteo de la medida fractal D (establecida por los investigadores AMGH) contra los genes clasificados en rangos. Finalmente, en la Fig. 10 se muestra una alternativa de visualización para el data mart Análisis fractal, donde los investigadores encuentran un conjunto de filtros que les permiten seleccionar un intervalo, dividirlo en un número de partes de acuerdo a su criterio, dicha selección es graficada contra las diferentes medidas del data mart para todos de los cromosomas simultáneamente, teniendo también la posibilidad de agregar o quitar cromosomas a la grafica. VI. CONCLUSIONES En la revisión de los trabajos relacionados con los objetivos del presente trabajo se encontraron limitaciones a nivel de modelado y en las herramientas OLAP existentes para tratar datos bioinformáticos. El desarrollo del DSS presentado en este artículo muestra una alternativa viable para centralizar, almacenar y visualizar los datos provenientes del proyecto AMGH y se convierte en un referente para el uso de estas tecnologías en el área. Además, evidencia la necesidad de realizar más investigaciones que permitan acceder a soluciones de bodega de datos y OLAP en estos nuevos dominios de aplicación. Las herramientas OLAP, deberían considerar ampliar el rango de posibilidades en cuanto a los análisis gráficos, permitiendo funcionalidades tales como: graficar medidas contra medidas y dar flexibilidad y facilidad a los usuarios de poder seleccionar las columnas que desean graficar. Facilidades que se incluyeron en el proyecto y mostraron su potencialidad. Además, ofrecer una mayor cobertura de funciones estadísticas para aplicar sobre los datos de la bodega de datos en el momento de la consulta. Esto permitiría entregar una mejor solución a las necesidades gráficas de este tipo de proyectos. 53 54 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 Fig. 8. RANGO VS. NÚMERO DE UNIDADES DE INFORMACIÓN TOTALES Fuente: Autor del proyecto Fig. 9. CROMOSOMAS VS 4 MEDIDAS Fuente: Autor del proyecto La solución planteada en esta investigación para modelar intervalos y rangos de estos intervalos, es una aproximación importante en el área de modelamiento multidimensional de datos, ya que permite obtener los resultados esperados por los investigadores aplicando conceptos de modelado ya existentes. Este trabajo puede ser una alternativa de solución para todos aquellos campos de aplicación (no solo en bioinformática) en los que sea una variable importante para los análisis de los usuarios, el manejo de intervalos y rangos de los mismos. Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez, Cobos Los datos que se encuentran en el contexto biológico poseen particularidades que acarrean problemas y errores propios del área y no se encuentran reportados actualmente en la literatura tradicional de bodega de datos. Por lo anterior, es preciso tener en cuenta que para llevar a cabo un proceso exitoso de ETL en esta área, se deben entender los posibles errores que pueden llegar a presentar los datos de la fuente de datos -estos generalmente creados y almacenados en los repositorios públicos-, para mitigar el impacto que estos errores pueden llegar a tener en las consultas que arroje posteriormente la bodega de datos. VII. TRABAJO FUTURO Ampliar el modelo actual al añadir nuevos atributos y medidas en la dimensión cromosoma que permitirá ubicar los genes con sus estructuras en un lugar determinado de los cromosomas y poder observar si existe alguna regularidad entre la posición de los genes, su función y su valor D. También añadir a la dimensión gen un atributo sobre oncogenes que permita observar con ayuda de la clasificación del valor D si existe alguna regularidad, información de interés para los investigadores del área. La adición de nuevas dimensiones y tablas de hechos que completen el modelo biológico, como proteína, estructura de la proteína, Alus, repeats, la inclusión de la secuencia del gen, genoma y todas las posibles tablas de hechos que se puedan llegar a derivar, para de esta forma establecer que otras limitaciones a nivel de diseño e implementación se pueden presentar teniendo en cuenta las particularidades de análisis de los datos del área de la Bioinformática. Extender el modelado de intervalos y rangos de estos intervalos, para hacerlo más dinámico, es decir, que permita que los intervalos y sus rangos puedan cambiar constantemente de acuerdo al criterio del investigador y la correspondiente implementación de una herramienta OLAP que permita visualizar adecuadamente estos intervalos. dad del Valle. Se utilizaron recursos suministrados y financiados por COLCIENCIAS bajo el proyecto código 1103-12-16765. REFERENCIAS [1] BERIS. (2012, July 2012). Human Genome Project Information. Available: http://www.ornl.gov/sci/techresources/Human_Genome/home.shtml [2] GenBank. (2012, Septiembre de 2012). GenBank Overview. Available: http://www.ncbi.nlm.nih.gov/genbank/ [3] EMBL. (2012, September 2012). European Molecular Biology Laboratory. Available: http://www.embl.org/ [4] DDBJ. (2012, October 2012). DNA Data Bank of Japan. Available: http://www.ddbj.nig.ac.jp/ [5] P. Vélez, “Propuesta para la participación en la convocatoria nacional para el concurso de proyectos de investigación programa nacional de biotecnología “Análisis Multifractal del Genoma Humano para la Búsqueda de Regularidades con Significado Biológico y una Contribución a la Generación de Biotecnología de la Información”,” Universidad del Cauca 2004. [6] P. Moreno, et al., “The human genome: a multifractal analysis,” BMC Genomics, Vol. 12, p. 506, 2011. [7] P. E. Vélez, et al., “The Caenorhabditis elegans genome: a multifractal analysis,” Genetics and Molecular Research, Vol. 9, pp. 949-965, 2010. [8] D. Florescu, et al., “Database techniques for the WorldWide Web: a survey,” SIGMOD Rec., Vol. 27, pp. 59-74, 1998. [9] S. B. Davidson, et al., “Challenges in integrating biological data sources,” J Comput Biol, Vol. 2, pp. 557-72, 1995. [10] W. Sujansky, “Heterogeneous database integration in biomedicine,” Comput. Biomed. Res., Vol. 34, pp. 285298, 2001. [11] S. B. Davidson, et al., “K2/Kleisli and GUS: experiments in integrated access to genomic data sources,” IBM Syst. J., vol. 40, pp. 512-531, 2001. [12] J. Hammer and M. Schneider, “Genomics Algebra: A New, Integrating Data Model, Language, and Tool for Processing and Querying Genomic Information,” presented at the 1st Biennial Conf. on Innovative Data Systems Research (CIDR), 2002. [13] M. Fischer, et al., “DWARF--a data warehouse system for analyzing protein families,” BMC Bioinformatics, vol. 7, p. 495, 2006. AGRADECIMIENTOS El trabajo presentado en este artículo conto con la asesoría y apoyo del grupo de investigación BIMAC y GTI de la Universidad del Cauca y el grupo de investigación en Bioinformática de la Universi- 55 56 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56 [14] S. P. Shah, et al., “Atlas - a data warehouse for integrative bioinformatics,” BMC Bioinformatics, vol. 6, p. 34, 2005. [15] T. Kirsten, et al. (2004, Septiembre de 2012). A Data Warehouse for Multidimensional Gene Expression Analysis. Available: http://www.izbi.uni-leipzig.de/ izbi/Working%20Paper/2004/01_geware.pdf [16] J. L. Y. Koh, et al., “A Classification of Biological Data Artifacts,” presented at the ICDT Workshop on Database Issues in Biological Databases (DBiBD), Edinburgh, Scotland, UK, 2005. [17] R. Kimball, et al., The Data Warehouse Lifecycle Toolkit: Expert Methods for Designing, Developing and Deploying Data Warehouses with CD Rom: John Wiley & Sons, Inc., 1998. [18] R. Kimball and M. Ross, The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling: John Wiley & Sons, Inc., 2002. [19] C. Imhoff, et al., Mastering Data Warehouse Design: Relational and Dimensional Techniques: Wiley, 2003. [20] Pentaho. (2012, July 2012). Pentaho - Powerful Analytics Made Easy Available: http://www.pentaho.com/ Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift Comparative analysis and kinetic model for photobioreactors hydrodynamic airlift Félix Fabián Cortés Conde Ingeniero Químico, Investigador Grupo BIOTECNOLOGíA Fundación Universidad de América Bogotá D.C, Colombia [email protected] Diego Rubio Fernández MSc. en Ciencias, Universidad Nacional de Colombia Docente Tiempo Completo, Investigador Grupo BIOTECNOLOGíA, Fundación Universidad de América Bogotá D.C, Colombia [email protected] Édisson Mateo Gómez Espinosa Ingeniero Químico, Investigador Grupo BIOTECNOLOGíA Fundación Universidad de América Bogotá D.C, Colombia [email protected] Resumen— En las últimas décadas se han investigado nuevas fuentes de energía renovable, siendo las microalgas una de las preferidas, debido a su alta producción de biomasa, utilizada en la elaboración de biocombustibles de segunda generación como bioetanol, biohidrógeno y biodiesel. Las microalgas se cultivan en recipientes especializados llamados reactores, en los cuales se controlan las condiciones de cultivo para obtener la máxima producción de biomasa. A partir de datos experimentales se han generado modelos matemáticos, que predicen el comportamiento que ocurre en el interior de los biorreactores, para realizar mejoras en el diseño y predecir las condiciones óptimas del cultivo y obtener una buena productividad. Se analizaron modelos hidrodinámicos de tres fases para establecer cuál de los modelos analizados predice de manera eficiente el comportamiento hidrodinámico a lo largo del biorreactor. Posteriormente se analizaron modelos de crecimiento de microorganismos fotosintetisantes en fotobiorreactores para acoplar el crecimiento de las microalgas a la hidrodinámica desarrollada en la primera parte de la investigación y concluir con la simulación de un fotobiorreactor tipo Airlift. Palabras clave— Biorreactores Airlift, Hidrodinámica, Fotobiorreactor, Microalgas, Simulación, Abstract— In recent decades new sources of renewable energy has been investigated, being algae a favorite because of its high biomass production, used in the development of second generation biofuels as bioethanol, biohydrogen and biodiesel. The algae are grown in specialized containers called reactors, which controls the culture conditions for maximum production of biomass. From experimental data were generated mathematical models, which predict the behavior that occurs inside the bioreactor, for improvements in the design and pre- dict the optimum conditions of culture to obtain a good productivity. Three phase hydrodynamic models were analyzed in order to establish which model predicts efficiently hydrodynamic behavior along the bioreactor. Then models of growth of microorganism in photobioreactors for coupling the growth of microalgae to hydrodynamics developed in the first part of the research and conclude with a simulation of the Airlift photobioreactor. Keywords— Airlift Bioreactors, hydrodynamic, microalgae, photobioreactor, simulation. I. INTRODUCCIÓN Las microalgas tienen un gran potencial biotecnológico para la producción de sustancias valiosas, utilizadas principalmente en las industrias farmacéuticas, cosméticas y de biocombustibles, la última es la de mayor interés en investigaciones recientemente, debido a que presenta una fuente de energía renovable ambientalmente amigable en comparación con las energía tradicionales que se han empleado en las últimas décadas tales como el carbón y el petróleo [1] [2]. Para el cultivo de las microalgas existen equipos especializados llamados reactores los cuales pueden dividirse en reactores agitados mecánicamente y reactores agitados neumáticamente, entre los agitados mecánicamente se encuentran el reactor Batch, y en los agitados neumáticamente están la columna de burbujeo y el Reactor Airlift (ALR). Se considera que el reactor Airlift es uno Recibido: 06/03/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66 58 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66 de los más utilizados, por sus claras ventajas frente a otros reactores, entre las cuales están una mejor capacidad de transferencia de masa, mayores velocidades superficiales gas-líquido, se puede conseguir patrones de flujo bien definidos, mejor rentabilidad, mínimo riesgo de contaminación, posibilidad simple y altamente efectiva de fluidización de los sólidos generación de esfuerzos cortantes bajos y uniformes lo que ayuda al crecimiento celular sin dañar o estresar al microorganismo.[3][4] Los Reactores Airlift (ALR) se dividen en cuatro secciones bien definidas que son: el Top, la base, el Dowcomer o canal de descenso y el Riser o canal de ascenso como se presenta en la Fig. 1. Fig. 1. ESQUEMA DEL FOTOBIORREACTOR AIRLIFT tobiorreactor como son: la velocidad del líquido, la velocidad del gas Holdup (Retención del gas) y la velocidad del sólido cuando se tiene en cuenta una tercera fase. Por otra parte en las últimas décadas se han utilizado software de tipo comercial para la simulación de procesos químicos, debido a sus claras ventajas frente a los datos experimentales, uno de estos factores es la reducción de costos a la hora de encontrar soluciones a problemas de procesos de producción; en este caso al cultivo de microalgas para fotobiorreactores [5] [6] [7]. El objetivo de este artículo es establecer el mejor modelo, que prediga el comportamiento en el interior de un fotobiorreactor Airlift, específicamente; la hidrodinámica y la tasa de crecimiento. Para esto se analizaron tres modelos hidrodinámicos para sistemas de tres fases y dos modelos cinéticos para el crecimiento de las microalgas y se acoplaron estos dos fenómenos para concluir la simulación del fotobiorreactor Airlift. II. DESARROLLO DEL ARTÍCULO Simulación de reactores Airlift de tres fases gas-líquido-sólido Muchos autores explican el comportamiento hidrodinámico de los sistemas Airlift de tres fases a partir de modelos hidrodinámicos de dos fases. Los modelos propuestos por Livingston y WenJang se basaron en el modelo predictivo de Chisti (1988) para determinar la velocidad de circulación interna del líquido en el Riser y Downcomer utilizado “(1)”, y asumida la fase líquida y la fase sólida como una fase seudo-homogénea. Para ello es necesario considerar que la densidad media de la fase líquida y la fase sólida es uniforme a lo largo de todo el reactor. Fuente: Sierra, J., Ruiz, S. Evaluación de un fotobioreactor a escala banco para el cultivo de microalgas y la generación de biomasa. 2012. Además existen parámetros que se deben tener en cuenta para comprender los fenómenos hidrodinámicos que ocurren en el interior del fo- Donde εR y εD son las retenciones del gas en el Riser y Downcomer, respectivamente. Sin embargo, el modelo hidrodinámico de tres fases propuesto por García Calvo se desarrolla a Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez partir de balances de energía para determinar la disipación energética producida por la interacción de la fase gaseosa con la fase líquida y las pérdidas de fricción producidas por la interacción del sólido con las paredes del reactor. Los parámetros más importantes para caracterizar la dinámica de fluidos en los reactores de tres fases son la retención del gas en el canal de ascenso y descenso, la velocidad de circulación del líquido en el canal de descenso y la distribución de los sólidos, debido a que el modelo propuesto por García Calvo es pertinente mantener una velocidad de gas crítica para conservar una suspensión homogénea de los sólidos dentro del reactor [8]. A. Modelo hidrodinámico propuesto por Livingston y Zhang para sistemas de tres fases Este modelo considera que un sistema Airlift de tres fases consta de dos secciones transversales, una determinada por el Riser y la otra por la base o cima del ALR . Debido a la diferencia de secciones entre estas dos zonas, las velocidades de arrastre del líquido son diferentes en cada una de ellas, lo que provoca distintas densidades efectivas en la mezcla líquido-sólido [9]. Como en muchos modelos para sistemas bifásicos, la expresión matemática del modelo se obtiene al identificr las pérdidas de energía debido a la fricción que ejerce el líquido con las paredes del reactor y a la energía de disipación provocada en la interfase gas-líquido. El modelo propuesto por Livingston (1993) es una extensión del modelo propuesto por Chisti (1988) expuesto en “(1)”, donde se le añaden variables influyentes tales como la retención del sólido, la densidad de la fase seudo-homogénea, la viscosidad de la fase seudo-homogénea y la fracción de sólido en el tubo ya que estas corrigen el efecto de la presencia de la tercera fase sólida en el tanque. Las ecuaciones que modifican el modelo de Chisti son: Donde εR y εD son las retenciones del gas en el Riser y Downcomer, respectivamente, εSR y εSD son las retenciones del sólido en el Riser y Downcomer, respectivamente. B. Modelo hidrodinámico propuesto por WenJang Lu y Shyh-Jye Hwang para sistemas de tres fases con partículas de baja densidad y carga de sólidos (1994) El modelo matemático propuesto por WenJang y Shyh Hwang proponen un modelo predictivo para calcular la retención de los sólidos y la velocidad de circulación del líquido considerada la formación de una fase seudo homogénea entre la fase sólida y la fase líquida. Al realizar los balances de energía en las diferentes zonas del reactor (Canal de ascenso y canal de descenso) se obtiene la expresión general para calcular la velocidad de circulación del líquido en el Downcomer, consideradas las pérdidas de fricción provocadas por las interacción del sólidos con las paredes del sistema y las pérdidas de energía provocadas por expansión isotérmica del gas en el líquido [10] [11]. Donde los coeficientes KT y KB son los coeficientes de pérdida por fricción en la cima y base del reactor, respectivamente, y las constantes de fricción en el Riser y en el Downcomer KR y KB, se calculan por medio “(6)” y “(7)”. Donde f es el factor de fricción, LR y LD son las longitudes del Riser y Downcomer, respectivamente, dR y dD son los diámetros del Riser y Downcomer, respectivamente. Al interactuar la fase líquida y la fase sólida en el ALR , las propiedades reológicas del fluido como la densidad y la viscosidad se ven afectadas 59 60 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66 al formar una fase seudo-homogénea dentro del reactor. Para esto es necesario calcular la densidad de la fase seudo-homogénea mediante “(8)” y la viscosidad de la fase seudo-homogénea con “(9)”, la cual es una correlación propuesta por Oliver (1961): • Densidad de la fase seudo-homogénea 1) Balance de energía planteado por García Calvo (1988) • Dado que al mantener una fase solida suspendida en el reactor, la combinación entre la fase sólida y la fase líquida genera una fase seudo-homogénea donde es necesario calcular la densidad de la mezcla por medio de “(11)” y “(12)”. Viscosidad (correlación propuesta por Oliver (1961) C. Modelo hidrodinámico para sistemas de tres fases con altas cargas de sólidos para los ALR propuesto por García Calvo (1999) El modelo propuesto por García Calvo describe el comportamiento hidrodinámico en tres fases (sólido-líquido-gas) para reactores Airlift. Fue desarrollado a partir de balances de energía donde se tienen en cuenta la disipación de energía en la interfase gas-líquido y las pérdidas de energía debido a la fricción entre el sólido y las paredes del sistema. El modelo predice la velocidad de circulación del líquido y del sólido, la retención del gas y la distribución de los sólidos dentro del reactor [12]. Para desarrollar el modelo es necesario establecer las siguientes características: • El balance asume diferentes fases seudo-homogéneas tanto en el Riser como en el Downcomer, para esto es necesario tener en cuenta las diferentes concentraciones de sólidos en ambas secciones del reactor. • La densidad del Downcomer es igual a la densidad del líquido, ya que todas las partículas sólidas están el Riser. • El modelo no asume la presencia de gas en el Downcomer, se considera el comportamiento de gas en el Riser similar al de una columna de burbujeo (UD(1-εSD)=uLD) D. Simulación de la parte biológica del fotobiorreactor Para la determinación de la tasa de crecimiento de las microalgas en el reactor, se investigó sobre modelos que predicen el crecimiento a partir de expresiones matemáticas, los cuales tienen en cuenta fenómenos como son; la fotosíntesis, la irradiación, los ciclos de luz y oscuridad, la eficiencia cuántica, la concentración de nutrientes. De los modelos estudiados se seleccionó dos modelos específicamente para determinar el crecimiento de las microalgas en los fotobiorreactores, debido a la cantidad de modelos existentes en la literatura, uno de ellos es el modelo de Molina Grima (1994) y el otro Wu y Merchuck (2001), los cuales predicen eficientemente el comportamiento de las microalgas “Isochrysis galbana” y “Porphyridium Sp” respectivamente. III. ANÁLISIS DE RESULTADOS Para analizar el comportamiento hidrodinámico del fotobiorreactor Airlift fue necesario realizar la comparación de los modelos propuestos por Livingston (1993), Wen-Jang (1994) y García Calvo (1999), donde se observó que los modelos de Livingston y Wen-Jang son predictivos para densidades y concentraciones de sólidos bajas, debido a que necesita grandes cantida- Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez des de gas para mantener una distribución homogénea del sólido y no obstruya la entrada de gas en la base del reactor. Sin embargo, al ser extensiones del modelo bifásico de Chisti, los modelos de Livingston y Wen-Jang son poco predictivos ya que ignoran las condiciones en las que se producen los atascos en los reactores Airlift. Al desarrollar el modelo hidrodinámico planteado por García Calvo, se observó que el modelo es capaz de determinar los diferentes regímenes de flujo y soporta grandes cargas de sólidos, pues necesita pequeñas cantidades de gas para mantener una distribución de sólidos dentro del reactor. Para interpretar la hidrodinámica en un Fotobiorreactor Airlift es necesario calcular la retención del sólido y la distribución de los sólidos en un sistema inorgánico, como las perlas de vidrio, para entender cómo es el comportamiento del reactor Airlift con una tercera fase que circula en el interior y de cómo se afecta la velocidad del líquido y de gas en las diferentes zonas del reactor. El método iterativo utilizado para la resolución del problema fue un Newton Raphson Multivariable para calcular la velocidad superficial del líquido en el Downcomer, la velocidad lineal del líquido cuando R=0 y la retención del gas en el Riser. Para desarrollar el modelo propuesto por García Calvo (1999) fue necesario utilizar las correlaciones de Koide (1984) para determinar la velocidad de sedimentación de la partícula al emplear como medio sólido las perlas de vidrio con diámetros de partícula de 1.5 y 3.5mm para mantener una buena distribución de los sólidos dentro del TP - ALR (Reactor Airlift de tres fases) La Fig. 2 presenta la relación entre la concentración del sólido respecto a la retención del gas en el Riser; se observa que al aumentar el caudal de gas la retención del gas en el Riser aumentan, debido a que se generan una mayor cantidad de burbujas las cuales adquieren movimientos oscilatorios que provocan un régimen turbulento, indicado para romper las burbujas, pues maximiza de esta manera la transferencia de masa entre la fase gaseosa y líquida, y genera un mezclado homogéneo de gas en el reactor. Fig. 2. PRESENTACIÓN GRÁFICA ENTRE LA RETENCIÓN DEL GAS EN EL RISER RESPECTO A LAS CONCENTRACIONES DE SÓLIDO Fuente: Autores del proyecto E. Modelo de Molina Grima (1994) Se basó en una parte experimental y una parte teórica, este modelo predice de manera satisfactoria la tasa de crecimiento de organismos fotosintéticos, debido a que incluye un factor determinante como es la concentración de luz, presente en el interior del fotobiorreactor. Se toman como variables dependientes de la luz; el ángulo de incidencia y la distancia recorrida [13]. El modelo también tiene en cuenta la concentración de biomasa presente en el biorreactor, ya que al aumentar de manera acelerada se puede presentar el fenómeno de atenuación de la luz. La ventaja de este modelo comparado con los otros modelos, es que incluye una parte experimental, la cual se utiliza para calcular las constantes que se puede emplear para cada especie de microalgas y por consiguiente, la simulación del crecimiento. Fig. 3. PERFILES DE LUZ EN EL INTERIOR DE UN RECIPIENTE CILíNDRICO. LAS UNIDADES DEL ÁNGULO DE INCIDENCIA ESTÁN DADAS EN GRADOS SEXAGESIMALES Fuente: Autores del proyecto 61 62 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66 Al realizar la simulación se obtuvo la Fig. 3, donde se presenta la cantidad de luz incidente en el interior del reactor, utilizado el modelo propuesto por Ever (1990) [14] en el cual pone como variable dependiente el ángulo de incidencia, vemos cómo al aumentar la distancia de penetración de la luz al interior del reactor se presenta el fenómeno de atenuación de la luz. Por consiguiente, en el interior del reactor tan sólo el 61% de la cantidad de luz total llega a este punto presentándose, de esta manera, intervalos de tiempo con alta intensidad y baja intensidad de luz, que hacen que se presenten ciclos de luz y oscuridad. Al presentarse estos ciclos de luz y oscuridad se evita la foto-inhibición celular que es uno de los fenómenos que se desea evitar, debido a que ocasiona el estancamiento del crecimiento y en algunos casos la muerte celular. cionar la irradiación, la dinámica de fluidos y la cantidad de biomasa producida. Estos tres estados se presentan en la Fig. 5; el primero X1 o fase abierta, cuando el PSF se encuentra libre de fotones y apto para recibir fotones; el segundo X2 o fase activa, cuando él PSF es activado por la absorción de un fotón; y, por último, X3 o estado foto-inhibido cuando hay un exceso en el número de fotones presentes en el PSF que ocasionan foto-inhibición [16]. Fig. 5. ESTRUCTURA DE LOS TRES ESTADOS DEL MODELO DE WU Y MERCHUK Fig. 4. CURVA DE CRECIMIENTO DE LAS MICROALGAS “ISOCHRYSIS GALBANA” VARIANDO LAS CANTIDADES DE IRRADIACIÓN Fuente: J.C. Merchuk. A model integrating fluid dynamics in photosynthesis and photoinhibition processes. Chemical Engineering Science. 2001 Fuente: Autores del proyecto La Fig. 4 representa el crecimiento celular, cuando el cultivo está expuesto a ciertas cantidades de luz expresadas en cuantos de energía, esta curva permite determinar la cantidad de luz necesaria, para tener el crecimiento máximo de las microalgas y de esta manera obtener una productividad alta en el interior del fotobiorreactor. F. Modelo de Wu y Merchuck (2001)) Se basó principalmente en los supuestos de Eilers y Peeters (1988) [15]; consiste en el supuesto de centros activos que son estados celulares según la capacidad de absorción de fotones; al conjunto de los estados se les denomina como Fábrica Fotosintética PSF y es considerada como uno de los conceptos más importantes para rela- Este modelo tiene en cuenta la interacción de variables importantes como son: la disponibilidad de la luz, el proceso de fotosíntesis, la fotoinhibición y la dinámica de fluidos. En la Fig. 6 se puede observar, como la tasa de crecimiento es afectada por la cantidad de PFD o Photon Flux Density que es una medida de la cantidad de irradiación lumínica que alcanza el cultivo. Tomando como referencia un tiempo de luz de 45 segundos, se observa que a valores bajos de PFD , el crecimiento es negativo debido a que no existe suficiente energía que supla las necesidades básicas de las microalgas. Por consiguiente, la producción de biomasa es baja. Cuando el valor de irradiación PFD está entre los 550 y 1000 PFD, existe un crecimiento positivo, en el cual se ve beneficiada la duplicación celular, pero cuando excede estos valores, se presenta el factor de foto inhibición como se ve en la curva con 2000 PFD. Este aspecto también ha sido relacionado con aspectos de la geometría de los fotobiorreactores Airlift y tubulares, y se ha constituido en un aspecto importante para su diseño y modelamiento. Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez FIG. 6. DIFERENTES TASAS DE CRECIMIENTO EN UN FOTOBIORREACTOR AIRLIFT DE TUBOS CONCÉNTRICOS, A DISTINTOS VALORES DE PFD Fuente: Autores del proyecto Al comparar los dos modelos de crecimiento específicos para fotobiorreactores, se tomaron como criterios de selección la variedad de microalgas de cultivo, el desarrollo matemático, el porcentaje de error, variables de entrada, variables de estado y variables de salida. El modelo de Molina Grima (1994) tiene ventajas sobre el modelo de Wu y Merchuck (2001), debido a que el modelo de Molina Grima (1994) puede predecir el crecimiento para cualquier clase de microalgas, por la utilización de un cálculo experimental, el desarrollo matemático es sencillo y no se requiere determinar valores difíciles experimentales para su parametrización, su porcentaje de error no supera el 10% y otra clara ventaja es la poca cantidad de variables de entrada, estado y salida, este modelo es la mejor opción para predecir el crecimiento en el interior del fotobiorreactor. G. Simulación hidrodinámica de un Fotobiorreactor Airlift Para desarrollar el modelamiento hidrodinámico de un Fotobiorreactor Airlift se utilizó el modelo propuesto por García Calvo (1999) para el sistema de tres fases (sólido, líquido, gas) en los Reactores Airlift. Este modelo es una extensión del modelo de dos fases propuesto por García Calvo (1989). Este se desarrolló a partir de balances de energía para determinar la energía de disipación en la interfase gas-líquido y las pérdidas por fricción que ejerce el fluido con las paredes del sistema. Los parámetros hidrodinámicos más importantes para predecir el modelo son: la velocidad de circulación del líquido y del sólido, la retención del gas y la distribución de los sólidos dentro del reactor. Este modelo es el más completo en comparación con otros reportados en la literatura, ya que es el único capaz de identificar las fronteras entre los diferentes regímenes de flujo y soporta grandes cargas de sólidos, al obtener un aumento en la producción de biomasa requerida para la extracción de lípidos u otras moléculas de alto valor agregado. Para predecir el comportamiento de cultivo de microalgas en un reactor Airlift, es necesario determinar los parámetros hidrodinámicos más importantes para mantener un ambiente óptimo para la producción de biomasa, estos parámetros son: la retención del sólido en el Riser y Downcomer, la retención del gas en el Riser y la velocidad superficial del líquido en el Downcomer. En el caso de cultivos microalgales los IL- ALR (Reactores Airlift de Lazo Interno) proporcionan las condiciones necesarias para que las células fotosintéticas puedan desarrollarse a partir de una exposición adecuada de luz, facilita la absorción de nutrientes debido al mezclado homogéneo que produce la interacción del gas con la fase líquida, produce bajos esfuerzos de corte originado por el movimiento oscilatorio producido por la agitación del líquido. La Fig.7 presenta la variación entre la velocidad del gas en el Riser, la concentración de biomasa producida por la microalga y la retención del gas en el Riser, se demuestra que al aumentar el caudal de gas y la concentración de biomasa, la retención de gas en el Riser aumenta debido a que se genera una mayor cantidad de burbujas, las cuales son las encargadas de incrementar la concentración de gas en la fase líquida, para generar una mayor producción de biomasa, debido a que el microorganismo tiene una mayor facilidad de encontrar los nutrientes suspendidos en el líquido provocado por el flujo heterogéneo. Fig. 7. RETENCIÓN DEL GAS EN EL RISER RESPECTO A LA VELOCIDAD DEL GAS PARA CULTIVOS MICROALGALES Fuente: Autores del proyecto 63 64 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66 Analizado el comportamiento como se observa en la Fig. 8, la retención del sólido en el Riser en función de la velocidad del gas en el Riser, es preciso demostrar que al aumentar la velocidad del gas, la retención del sólido disminuye ya que al aumentar la velocidad del líquido en el Riser, la remoción del sólido suspendido es mayor, ya que el flujo líquido se lleva el sólido hacia el Downcomer, para dar como resultado una mayor distribución de los sólidos y aumentar, de esta manera, el área de flujo entre la fase sólida y la fase líquida. Gracias a esto la velocidad de salida del líquido en el Riser aumenta al maximizar la transferencia de masa entre la fase gaseosa y la fase líquida y provocar un mezclado homogéneo dentro del reactor. Fig. 8. RETENCIÓN DEL SÓLIDO EN EL RISER RESPECTO A LA VELOCIDAD DE GAS EN EL RISER EN CULTIVOS MICROALGALES Fuente: Autores del proyecto Para obtener una mayor productividad en fotobiorreactores se debe considerar los siguientes aspectos: • Hidrodinámica: determina los patrones de flujo del sistema; se prefiere un régimen turbulento, que permite un mezclado más homogéneo del sistema, lo cual mejora la transferencia de masa y facilita, de esta manera, la absorción de nutrientes y de energía lumínica en el sistema. • Irradiación: la calidad y cantidad de la irradiación más específicamente entre longitudes de onda entre 400 - 700nm(PAR) y 1000 µE/m2s PFD, estos valores varían con respecto a la especie de microorganismo, permiten una eficiencia cuántica cercana a 1, que es la óptima para el proceso de fotosíntesis, se evita, de esta manera, el proceso de fotoinhibición (destrucción de las proteínas de la membrana celular) e incrementar así la duplicación celular. • Distribución de la luz: es un parámetro difícil de controlar debido a la complejidad del fenómeno de la luz; ya que vincula muchos factores como: ángulo de incidencia, cantidad de PFD, efectos de refracción, propagación y difracción, atenuación de la luz debido a la concentración de Biomasa, Fuentes de luz, reflexión y dispersión y Fotoquímica. Apéndice: Unidades del sistema MKSA La Tabla. I, presenta las abreviaturas de los modelos hidrodinámicos y de los modelos cinéticos utilizados en el Fotobiorreactor Airlift: IV. CONCLUCIONES AGRADECIMIENTOS Los modelos de crecimiento de microalgas se basan en expresiones matemáticas complejas, que simulan el crecimiento del cultivo a partir de procesos matemáticos y tiene como principal variable la luz en el caso de cultivos de tipo fotoautotrófico o fotoheterotrófico, debido a que este es el principal factor que limita el crecimiento de las microalgas. Por consiguiente, los modelos simulan el crecimiento y controlan las variables de estado como: temperatura, pH, concentración de nutrientes y concentración de luz que existe en el medio de cultivo. Los autores reconocen y agradecen todo el apoyo, conocimiento y tiempo brindado por el departamento de investigación de la Fundación Universidad de América, nuestro director Diego Rubio, el Ingeniero Juan Sandoval y el Ingeniero Jaime Arturo Calvache, quienes fueron el soporte a lo largo de este trabajo. A todas las personas especialmente a la profesora Colombia Vivas, que formó parte del proceso y desarrollo de este trabajo con su talento humano y solidaridad, brindándonos generosamente su conocimiento y experiencia. 65 Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez TABLA I. ABREVIATURAS Magnitud física Unidades Nombre Símbolo Nombre Símbolo Altura del Líquido en el Riser H Metros m Área Transversal del Downcomer AD Metro cuadrado m2 Área Transversal del Riser AR Metro cuadrado m2 Coeficiente de Absorción de Biomasa Ka - - Coeficiente de Absorción de Luz Kc - - Coeficiente de Absorción de Pigmentos en Relación con los Pigmentos Totales Y'P Metro Cuadrado/gramo Coeficiente de Dispersión Gas-Líquido Hdis Metros Concentración de Pigmentos Fotosintéticos XP Metro Cuadrado/gramo Coordenada Radial R - Densidad del Gas ρG Kilogramo/metro cubico Kg/m3 Densidad del Líquido ρL Kilogramo/metro cubico Kg/m3 Diámetro del Downcomer dD Metros m Diámetro del Riser dR Metros m Pérdida de fricción en el Base KB - - Pérdida de fricción en el Top KT - - Presión Ejercida en la Base del Reactor PT Pascales Retención del gas en el Riser εR - - Retención del gas en el Downcomer εD - - Retención del Solido εS - - Retención del Solido en la fase seudo-homogénea εH - - Unidades derivadas MKSA Uslip Velocidad de Escape de la Burbuja de Gas en el Líquido REFERENCIAS Metro/segundo m2/g m m2/g - Pas m/s do Solanum Tuberosum, Bogotá, Tesis Ingeniería Química, Universidad de América, Facultad de Ingeniería, Departamento de Ingeniería Química, 2009. [1] M.Y ChistI, Airlift Bioreactors, Applied Elsevier Science, U.S.A, 1989. [2] Wang Si-Jing y Zhong Jian J. Bioreactor Engineering, Bioprocessing for Value-Added Products from Renewable Resources, 1st. Ed, Elsevier Science. p. 161-170. 2007. [5] ARTURO CALVACHE, Jaime A, Simulación de Bioreactores Airlift, Tesis de Maestría, Facultad de Ingeniería Química, Universidad Nacional de Colombia, 2002. [3] Y. Chisti y M. Moo-young, Bioreactor, Encyclopedia of Physical Science and Technology. 3 Ed., Elsevier Science. p. 248-255. 2002. [6] MERCHUK, J.C, Bioreactor Airlift Reactor. Encyclopedia of Bioprocess Technology. 2002. [4] HUERFANO, Guillermo, Diseño y Simulación de un Reactor Airlift para la Producción de Alcohol Etílico con ---Saccharomyces Cerevisiae Utilizan- [7] MERCHUK, J.C, y SIEGEL M.H., Air-Lift Reactors in Chemical and Biological Technology, Journal of Chemical Technology and Biotechnology, Vol. 41, No 2, pp. 105-120. 1988. 66 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66 [8] GARCíA, E. RODRíGUEZ A., A Fluid Dynamic Model for Three-Phase Airlift Reactors, Chemical Engineering Science, vol.54, pp. 2359-2370.1999. [9] DIAZ, Ricardo M, Estudio del Flujo en Reactores con Tres Fases por Simulación, Tesis Doctoral, Facultad de Ciencias Químicas, Departamento de Ciencia de los Materiales e Ingeniería Metalúrgica, Madrid, 2001. [10] HWANG, S. J. y WEN, J. L., Liquid Velocity and Gas Hold Up in Three Phase Internal Loop Airlift Reactors with Low Density, Chemical Engineering Science, Vol. 50, No 8, pp. 1301-1310. 1995. [11] CHENG, Y. L. y HWANG, S. J., Gas Hold Up and Liquid Velocity in Three Phase Internal Loop Airlift reactors, Chemical Engineering Science, Vol. 52, No 8, pp. 3949-3860. 1997. [12] GARCíA, E. y TOBAJAS M., Hydrodynamics and Mass Transfer Prediction in a Three-Phase Airlift Reactor for Marine Sediment Biotreatment, Chemical, Engineering Science, vol. 54, p 53475354. 1999. [13] MOLINA G. E, GARCíA C, SÁNCHEZ, J., Mathematical Model of Microalgal Growth in Light Limited Chemostat Cultures, Journal chemical Technology and Biotechnology, pp. 167-173. 1994. [14] EVER, E. G., A model for Light-limited continuous cultures: Growth, shading, and maintenance, Biotechnology and Bioengineering, Vol. 38, pp. 254-259. 1990. [15] EILERS P.H. Y PETEERS J.C., A model for the relationship between light intensity and the rate of photosynthesis in phytoplankton, Ecological modeling, Vol. 42, pp. 199-215. 1988. [16] WU X. y MERCHUK J.C. A model integrating fluid dynamics in photosynthesis and photoinhibition processes, Chemical Engineering Science. Vol. 56, pp. 3527-3538. 2001. Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones Optimization and Classification of EMG Signals Through Pattern Recognition Methods Cristhian Manuel Durán Acevedo PhD. en Ingeniería Electrónica, URV-UPC Sistemas Multisensoriales y Reconocimiento de Patrones. Automatización y Control. Hardware DSP Docente Tiempo Completo, Investigador Grupo GISM Universidad de Pamplona Pamplona, Colombia [email protected] Aylen Lisset Jaimes Mogollón M. Sc(c) Controles Industriales, Universidad de Pamplona. Docente Cátedra, Investigador Grupo GISM, Universidad de Pamplona Pamplona, Colombia [email protected] Resumen— Este artículo presenta un estudio basado en la optimización de la respuesta de un electromiógrafo a través de algunas técnicas utilizadas para el tratamiento, análisis y procesamiento de señales electromiográficas superficiales, con el fin de proporcionar una herramienta útil como estrategia para el diagnóstico y pronóstico de cuadro clínico de enfermedades musculares (Por ejemplo, para pacientes con pie caído). Abstract— This paper presents a study based on the response optimization of an electromyograph through processing techniques for the analysis of surface electromyographic signals, in order to provide a useful tool as a strategy for the diagnosis and prognosis of clinical symptoms of muscle diseases (e.g. for patients with foot drop). The patients were previously diagnosed by physiatrists, seven of them were healthy and five showed foot drop neuropathy. A set of electromyographic signals were acquired and stored during the movement of dorsiflexion in the supine position from the tibialis anterior muscle in each of patients. Then, these signals were processed with feature extraction techniques and pattern recognition methods for their classification. Los datos fueron obtenidos a partir de la información de pacientes que fueron diagnosticados previamente por fisiatras, de los cuales 7 eran sanos y 5 pacientes mostraron neuropatía de pie caído. Un conjunto de señales electromiográficas fueron adquiridas y almacenadas durante el movimiento de dorsiflexión en una posición supina a partir del músculo tibial anterior en cada paciente. Luego estas señales fueron procesadas mediante técnicas de extracción característica y métodos de reconocimiento de patrones para la clasificación de las mismas. Para el pre-procesamiento de las señales electromiográficas se emplearon métodos en tiempo y frecuencia, como la transformada de Fourier y, a su vez, técnicas como el Análisis de Componentes Principales (PCA) y redes neuronales artificiales (es decir, MLP y PNN), que permiten representar en forma gráfica los resultados obtenidos en un plano bidimensional y mejorar de esta forma el porcentaje de clasificación. Los resultados obtenidos describen un sistema electromiógrafo, el cual fue optimizado mediante la implementación de métodos de reconocimiento de patrones, se alcanzó un porcentaje de acierto de hasta el 100 % en la clasificación de señales EMG por medio de electrodos superficiales. Palabras clave— EMG, FFT, MLP, PCA, pie caído, PNN. Regarding the data preprocessing of electromyographic signals, methods of time and frequency such as Fourier Transform and Principal Component Analysis (PCA) and Artificial Neural Networks (i.e. MLP and PNN) were used to represent graphically in a two-dimensional plane the results obtained and thus to improve the classification percentage. The results describe an electromyography, which was optimized with pattern recognition methods, achieving a success rate of 100% in the classification of EMG signals, via surface electrodes. Keywords— EMG, FFT, MLP, PCA, foot drop, PNN. I. INTRODUCCIÓN La electromiografía es una metodología de registro y análisis de la actividad bioeléctrica del músculo esquelético, orientada al diagnóstico de las enfermedades neuromusculares. Estos sistemas han evolucionado paralelamente al conocimiento de las propiedades de la energía eléctrica Recibido: 13/08/2012/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76 68 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76 y al desarrollo de la tecnología eléctrica y electrónica. A mediados del siglo XX se introdujo el primer equipo comercial de electromiografía para uso médico, basado en circuitos electrónicos analógicos. El desarrollo posterior de la tecnología digital ha permitido disponer de sistemas expertos controlados por microprocesadores, cada vez, más fiables y potentes para captar, representar, almacenar, analizar y clasificar las señales mioeléctricas [1]. El avance de las nuevas tecnologías de la información y la comunicación puede conducir en un futuro próximo a la aplicación de desarrollos de inteligencia artificial que faciliten la clasificación automática de señales así como sistemas expertos de apoyo al diagnóstico electromiográfico [2]. El objetivo del presente artículo es optimizar la respuesta de un electromiógrafo con electrodos de superficie, utilizado en pacientes con pie caído a través de técnicas de procesamiento de datos y métodos de reconocimiento de patrones para la clasificación de medidas. A. Concepto de Unidades Motoras Las unidades motoras ó motoneuronas son las encargadas de transmitir los impulsos nerviosos y llevarlos hasta el músculo, las cuales son controladas, a su vez, por centros nerviosos superiores que regulan la respuesta motriz. Los axones de las motoneuronas parten desde la medula espinal y llegan hasta las fibras musculares. Cada axón poco antes de conectar con estas fibras se divide y ramifica en muchos terminales, cada uno de los cuales contacta con una fibra a través de una estructura llamada “Placa Motora “[3]. En la Fig. 1 se observa al conjunto formado por una motoneurona y las fibras musculares que inerva se le llama “Unidad Motora” (U.M). B. Reclutamiento de las unidades motoras 1) Reclutamiento espacial Se aplica por la ley de Henneman (1965). El reclutamiento está ordenado por el principio del tamaño o “size principle”. Las primeras motoneuronas reclutadas son las motoneuronas de tamaño pequeño. Son las que tienen igualmente la velocidad de conducción más débil y que desarrollarán la tensión muscular más baja [4] y [5]. 2) Reclutamiento temporal Se trata de la suma temporal: un músculo responde mediante una sacudida a un impulso, si un siguiente impulso surgiera suficientemente rápido, la sacudida sería superior (hay suma). II. MÉTODOS EXPERIMENTALES La Fig. 2. muestra un diagrama en bloques estructurado de tal manera que se puede seguir un orden y un análisis desde el músculo del paciente hasta el tratamiento de la señal. Está compuesto por: • Captación de la señal (sensores). • Acondicionamiento (amplificadores). • Conversor análogo digital (tarjeta de adquisición de datos) • Procesamiento (PC). Fig. 2 DIAGRAMA EN BLOQUES DEL SISTEMA Fig. 1 UNIDAD MOTORA FISIOLOGICAMENTE Fuente: [Online]. Available http://www.pucpr.edu/marc/facultad/asantiago/anatomia/Muscular.htm#slide0033.htm Fuente: Autores del proyecto 69 Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes A. Muestras B. Materiales El conjunto de medidas realizadas fueron obtenidas a partir de una muestra de 12 personas, con el apoyo y valoración de los Fisiatras: Dr. Ómar Albarracín Acosta, Universidad de Pamplona y el Dr. Larry Rubio de la Fundación Médico Preventiva-Pamplona, previamente tratados y diagnosticados en estas entidades. En la Tabla I, se muestran algunas de sus características. Se registró la actividad del músculo tibial anterior proveniente de contracciones isométricas; habida cuenta que la MCV es la mayor fuerza que es capaz de desarrollar el sistema nervioso y muscular. Se indicó a los pacientes realizar la mayor fuerza de forma voluntaria, durante un tiempo de cuatro segundos, digitalizadas a una frecuencia de muestreo (fs) de 10 kHz con el “Sistema Registrador Electromiográfico de Superficie”, ver Fig. 3 [6]. Se utilizaron electrodos superficiales ubicados según normativa SENIAM (Surface ElectroMyoGraphy for the Non-Invasive Assessment of Muscles), se indica que deben ser colocados a 1/3 en la línea entre la punta del peroné y la punta del maléolo medial, mostrado en la Fig. 4 [7]. TABLA I. Género (M-masculino/ F-femenino) Edad (años) Peso (kg) Estatura (cm) Estado (S-sano/L-lesionado) A M 36 75 170 S B M 32 80 180 S 70 170 S 12 42 130 S E F 22 58 165 S F 19 50 159 S M 12 43 145 S 1 M 37 69 166 L 2 F 40 62 164 L 3 F 49 58 160 L 5 F M 73 63 Fuente: Autor del proyecto 75 63 157 156 L L Accidente en carro 4 Caída F G Explosión minas 23 M Caída de escaleras M FIG. 3 SISTEMA REGISTRADOR ELECTROMIOGRÁFICO DE SUPERFICIE Cirugía C D Lesión Paciente CARACTERíSTICAS DE LOS PACIENTES REGISTRADOS Fuente: Autores del proyecto En la Tabla II se describen los parámetros entre los cuales depende en gran medida el funcionamiento del equipo EMG. TABLA II. PARÁMETROS REGISTRADOR EMG Rango de Frecuencia 10-500Hz CMRR 120 dB Rango de Ruido 0-20 Hz Rango de Amplitud 100µV -20 mV Ganancia total 1001 Fuente: Autores del proyecto 70 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76 Fig.. 4 UBICACIÓN DE ELECTRODOS SEGÚN NORMATIVA SENIAM 2) Centralización de datos Ajusta las señales a una escala adecuada. En las Fig. 5 y Fig. 6 se observan las señales obtenidas al haber aplicado la técnica de centrado de datos, el cual es una normalización donde a cada una de las columnas se le resta su valor medio. Es decir, toda medida es descrita por variables de media nula. Fig.. 5 SEÑAL ORIGINAL SIN NORMALIZAR Fuente: [Online]. Available: http://www.seniam.org La señal fue registrada en un ordenador, donde fue monitoreada constantemente y luego almacenada para posteriormente realizar el análisis respectivo. El software utilizado para la adquisición y análisis de datos fue el Matlab R2009a. C. Protocolo de medición En todos los pacientes se siguió el mismo protocolo de medición. Para la adquisición de cada una de las muestras se emplearon las siguientes pautas: 1) No se aplicaron lociones ni cremas sobre el área de análisis un día antes de realizar la prueba. Fuente: Autores del proyecto Fig. 6 SEÑAL CON CENTRADO DE DATOS 2) Se acomodaron en una posición supina. 3) La zona donde se localizaron los electrodos estaba debidamente depilada. 4) Se limpió la piel con alcohol antiséptico. 5) A continuación se localizaron los electrodos. 6) Se finalizó con el test Clínico. En total se adquirieron 60 muestras y por cada paciente se realizaron 5 repeticiones. D. Tratamiento de los datos 1) Pre-procesamiento El pre-procesamiento prepara los datos para su extracción. La toma de datos del sensor implica una entrada de información innecesaria que hace lento el procesamiento y dificulta la extracción, en esta sección se hace una primera selección de la información al eliminar componentes de ruido principalmente. Fuente: Autores del proyecto 3) Extracción característica con Transformada de Fourier El análisis de frecuencia es la forma más utilizada para describir las principales características de los registros de actividad eléctrica continua en señales fisiológicas como el patrón por interferencia del electromiograma, aunque también han sido utilizados otros parámetros obtenidos en el dominio del tiempo, como los llamados “turns” y la amplitud total. Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes El análisis de frecuencia representa, en realidad, la cantidad de actividad como un continuo en un conjunto de frecuencias. 4) Procesamiento de datos Para el procesamiento de cada una de las señales obtenidas por el sistema EMG, depende directamente de los procedimientos realizados durante el pre-procesamiento, de esto obedecerá el éxito en los resultados. Este es el motivo del cuidadoso análisis que se realizó a cada una de las etapas. Las fases que implica el correcto procesamiento de las señales electromiográficas se presentan a continuación: A. Reducción de la Dimensionalidad Cuando se recoge la información de una muestra de datos, lo más frecuente es tomar el mayor número posible de variables. Sin embargo, si tomamos demasiadas variables sobre un conjunto de objetos, por ejemplo 20 variables, tendremos que considerar 180 posibles coeficientes de correlación. Evidentemente, en este caso es difícil visualizar relaciones entre las variables. Otro problema que se presenta es la fuerte correlación que muchas veces se presenta entre las variables: si tomamos demasiadas variables, lo normal es que estén relacionadas o que midan lo mismo bajo distintos puntos de vista. Se hace necesario, pues, reducir el número de variables. Es importante resaltar el hecho de que el concepto de mayor información se relaciona con el de mayor variabilidad o varianza. Cuanto mayor sea la variabilidad de los datos (varianza) se considera que existe mayor información. sigmoidal es un aproximador universal de cualquier función continua en un conjunto compacto. Las redes neuronales MLP pueden trabajar como cualquier clasificador no lineal o como una función de regresión [12], [13] y [14]. D. Red neuronal probabilística (PNN) Esta red es muy utilizada en problemas de clasificación. La red consta de dos capas, una primera red de neuronas de base radial con un número de neuronas igual al número de vectores de entrenamiento, y una capa competitiva de un conjunto de neuronas cuyo número es igual al número de categorías consideradas en el problema de clasificación. Cada neurona de base radial (de la capa de entrada) almacena como pesos uno de los vectores de entrenamiento [15] y [16]. III. RESULTADOS A. Estudio de la señal En la Fig. 7 se ilustra la respuesta de una señal electromiográfica sin ningún tipo de procesamiento. Puede apreciarse que aunque es una señal electromiográfica típica no se puede establecer un punto de referencia para su interpretación, es decir, si se desea tomar diferentes muestras se observa que nunca parten de un mismo punto (línea base), por ello la necesidad de realizar un centrado de datos, permitiendo así una mejor visualización y análisis. Fig. 7. SEÑAL ELECTROMIOGRÁFICA SIN PROCESAR (LíNEA BASE 3 VOLTIOS DC DE AMPLITUD) B. Análisis PCA (Análisis de Componentes Principales) El método PCA permite reducir, representar y extraer información relevante del conjunto de datos y al mismo tiempo para ver si se pueden determinar agrupaciones (“clúster”) espontáneas entre las diferentes medidas realizadas previamente. [9], [10] y [11]. C. Red perceptron multicapa (MLP) La red neuronal MLP está construida usando nodos que se parecen a un sistema de circuitos biológicos neuronales. Se ha demostrado que una red MLP con una capa oculta y la función Fuente: Autores del proyecto En la Fig. 8 se observa que la señal ya tiene un centrado de datos pues es un factor primordial para su posterior interpretación y procesado. 71 72 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76 Fig. 8. SEÑAL ELECTROMIOGRÁFICA APLICADO CENTRADO DE DATOS (LíNEA BASE APROX. O VOLTIOS DC DE AMPLITUD) Para la interpretación de la Fig. 9 y de la Fig. 10, se tiene en cuenta las características físicas de la persona. En estos casos las señales se identifican por su forma, es decir, se califica la señal. En éstas se observan tres fases. • Primera fase: Reposo: el tejido muscular es eléctricamente silencioso. No existen amplitudes significativas. • Segunda fase: Contracción: cuando el músculo se contrae voluntariamente, la actividad comienza a aparecer. A medida que la contracción aumenta, más y más fibras musculares producen potenciales de acción hasta que aparece un grupo desordenado de dichos potenciales de tasas y amplitudes variables (patrón de interferencia y reclutamiento completo) con la contracción total. • Tercera fase: Reposo: la señal vuelve a disminuir en amplitud, el músculo se relaja. Fuente: Autores del proyecto Se efectuaron varios registros cuantitativos en contracción isométrica (la longitud del músculo no cambia durante la contracción), durante 4 segundos. A continuación, tal y como se observa en la Fig.9, se presenta una señal típica electromiográfica de un paciente normal. Fig 9 SEÑAL ELECTROMIOGRÁFICA PACIENTE SANO Fuente: Autor del proyecto En la Fig. 10 se ilustra la respuesta de una señal adquirida en las mismas condiciones pero de un paciente con cuadro clínico pie caído. Fig. 10 SEÑAL ORIGINAL-CENTRADO DE DATOS Según la interpretación médica se infiere que el paciente presenta un músculo en estado normal (ver Fig. 8), se observó una señal con sus tres fases normales durante la contracción, igualmente los valores de amplitud se encuentran dentro de los estándares (amplitud de 3mV). En la Fig. 9 el paciente presenta un músculo totalmente anormal, anestésico, está desconectado. Se observó una línea base de valor 0V. No presentó reclutamiento, amplitud 0V, contracciones nulas. Para este paciente las amplitudes de la señal están por debajo de los 100 µV, su reclutamiento es muy bajo, lo cual conlleva a inferir un diagnóstico de debilidad muscular. B. Características Frecuenciales Fuente: Autores del proyecto Las señales electromiográficas presentan un contenido espectral que puede dar una idea del músculo. En la Tabla III se describen las características en frecuencia y amplitud de las señales más relevantes tomadas de los pacientes en estudio. Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes TABLA III. Fig. 11 ESPECTRO DE FOURIER, PACIENTE SANO CARACTERíSTICAS EN AMPLITUD Y FRECUENCIA Características Amplitud (mv) Frecuencia (khz) Paciente A B C D E F G 1 2 3 4 5 Máx. pico Amplitud EMG 1.768 Máx. pico Amplitud Fourier 0.7743 Frecuencia Fourier 0.164 Máx. pico Amplitud EMG 2.137 Máx. pico Amplitud Fourier 1.219 Frecuencia Fourier 0.291 Máx. pico Amplitud EMG 2.655 Máx. pico Amplitud Fourier 1.18 Frecuencia Fourier 0.241 Máx. pico Amplitud EMG 2.554 Máx. pico Amplitud Fourier 0.7857 Frecuencia Fourier 0.663 Máx. pico Amplitud EMG 2.368 Máx. pico Amplitud Fourier 0.7969 Frecuencia Fourier 0.007 Máx. pico Amplitud EMG 1.363 Máx. pico Amplitud Fourier 0.6925 Frecuencia Fourier 0.368 Máx. pico Amplitud EMG 2.193 Máx. pico Amplitud Fourier 0.9502 Frecuencia Fourier 0.245 Máx. pico Amplitud EMG 0.01073 Máx. pico Amplitud Fourier 0.05394 Frecuencia Fourier 0.241 Máx. pico Amplitud EMG 0.2705 Máx. pico Amplitud Fourier 0.1007 Frecuencia Fourier 0.31 Máx. pico Amplitud EMG 0.7203 Máx. pico Amplitud Fourier 0.258 Frecuencia Fourier 0.007 Máx. pico Amplitud EMG 0.3623 Máx. pico Amplitud Fourier 0.1872 Frecuencia Fourier 0.089 Máx. pico Amplitud EMG 0.5155 Máx. pico Amplitud Fourier 0.08768 Frecuencia Fourier 0.196 Fuente: Autores del proyecto En las gráficas se presenta un espectro de Fourier, que corresponde a 0.5 segundos de una señal de un paciente sano, (ver Fig. 11) y un paciente con lesión (ver Fig. 12). Fuente: Autores del proyecto Fig. 12 ESPECTRO DE FOURIER, PACIENTE LESIONADO Fuente: Autores del proyecto Al comparar las características frecuenciales (ver Fig. 13) entre un paciente sano y otro paciente con la lesión, se observa que el espectro del paciente sano (onda con mayor amplitud) posee mayor valor frecuencial y mayor valor de amplitud que el espectro del paciente lesionado (onda menor amplitud); según las gráficas obtenidas del paciente sano (Ver Fig. 11), el mayor valor de frecuencia oscila de 0 a 1000 Hz, mientras que en el paciente con lesión (ver Fig. 12) fluctúa de 0 a 500 Hz. De estos comportamientos se puede explicar que cuando se realiza una contracción voluntaria, las primeras unidades motoras en activarse son las de contracciones lentas resistentes a la fatiga. A medida que aumenta la fuerza, se activan las unidades motoras que están compuestas de fibras rápidas resistentes a la fatiga y después se activan las compuestas de fibras de contracción rápida y rápidamente fatigables; dicho de otra forma, a medida que aumenta el nivel de 73 74 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76 fuerza ejercida durante la contracción muscular, se produce un aumento del número de unidades motoras activadas, observable por aumento de la amplitud (reclutamiento espacial) y, por otra, se produce también un aumento de la frecuencia de disparo de las motoneuronas (reclutamiento temporal). Tales requerimientos condicionan la morfología y las características de las ondas EMG, explicable por los cambios bioquímicos a nivel del músculo, quiere esto decir que el músculo ante un esfuerzo creciente, responde a través de la señal eléctrica de dos formas: a) un aumento de la activación de nuevas fibras musculares, o reclutamiento espacial; b) aumento de la frecuencia de pulsaciones de las unidades motoras o reclutamiento temporal. Para el espectro del paciente con lesión, se observa que en un principio la amplitud aumenta y hay una disminución de la descarga, con la aparición de una “onda lenta”, relacionada de una manera significativa con el comienzo de una sensación de fatiga local, con la sensación de dolor y con la incapacidad del sujeto para mantener la tensión proyectada. Fig. 14. RESULTADO ANÁLISIS DE COMPONENTES PRINCIPALES Fuente: Autores del proyecto En la Fig. 15, se presenta el mismo proceso, pero visto en proyecciones sobre los componentes principales. Fig. 15. RESULTADO DEL ANÁLISIS DE COMPONENTES PRINCIPALESPROYECCIONES Fig. 13 COMPARACIÓN ESPECTROS DE FOURIER, PACIENTE SANO VS. PACIENTE LESIONADO Fuente: Autores del proyecto Fuente: Autores del proyecto Para aplicar el método de PCA se tomó un grupo completo de pacientes sanos y lesionados con el objetivo de obtener un resultado investigativo previo de la respuesta y utilidad que éste puede ofrecer. En la Fig. 14, se observa un primer resultado, del cual podemos resaltar que se pude distinguir los pacientes sanos de los lesionados, así como las muestras de cada uno. Para el caso de señales EMG, PCA es un método útil para la distinción y discriminación de medidas a través de “cluster” de pacientes sanos y pacientes con lesión. Como primer resultado los pacientes que presentaron el cuadro clínico de pie caído se ubican en un solo sector del plano y tienen tendencia a la línea cero, se espera que al realizar un diagnóstico del proceso evolutivo de un paciente éste se ubique más a la izquierda del plano, interpretado una leve mejoría, si es el caso. Los datos obtenidos del sistema fueron llevados a una hoja de cálculo con el fin de buscar un fundamento matemático que contribuyera a relacionar las variables tratadas. 75 Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes En la Fig. 16 se presenta una gráfica en donde se observa los valores numéricos de frecuencia de cada paciente y en la Fig. 17. Se da a conocer respecto a su amplitud. Fig. 16. VALORES FRECUANCIALES DE CADA PACIENTE TABLA IV. CLASIFICACIÓN DE MEDIDAS Número de categorías Caso de Clasificación Red MLP Red PNN 12 Todos los pacientes 40 % 80 % 60 % 94,3 % 64 % 68 % 100 % 100 % 7 5 2 Pacientes sanos Pacientes lesionados Pacientes en buen estado y lesionados Fuente: Autores del proyecto En la mayoría de los casos se obtiene una mejor respuesta con la red PNN. Fuente: Autores del proyecto Fig. 17. VALORES DE AMPLITUD DE CADA PACIENTE Fuente: Autores del proyecto Podemos entonces inferir que al realizar un análisis paralelo con respecto a los resultados PCA, efectivamente existe una relación entre la amplitud y frecuencia de la hoja de datos respecto a los resulatdos obtenidos de PCA, ya que las señales se ubican en el plano según sus rangos de amplitud y frecuencia. C. Clasificación de medidas En la Tabla IV se observa cada una de las respuestas de clasificación del conjunto de 60 medidas y 12 categorías, por medio de redes neuronales, donde se realizaron diferentes agrupaciones con el objetivo de determinar el porcentaje de acierto en la clasificación. IV. CONCLUSIONES A través de la Transformada de Fourier se logró obtener una característica relevante en el conjunto de datos y en la respuesta de las señales emitidas por los pacientes lesionados y sin lesión. El empleo de la técnica de reconocimiento PCA demuestra ser una herramienta útil con mayor profundidad y precisión para el estudio de las señales EMG, y además sirve de soporte empírico y metódico qque logra discriminar las muestras de los pacientes saludables con respecto a los afectados. Con la técnica de discriminación PCA, se logró clasificar las muestras de los pacientes según el nivel de complejidad de la enfermedad. Las redes neuronales son apropiadas para resolver problemas de clasificación, en este caso la red PNN demostró una amplia eficiencia en cuanto a la velocidad de respuesta y sobre todo en el alto porcentaje de acierto en la discriminación de todas las categorías. El sistema EMG junto con las técnicas expuestas en el presente artículo, demuestra que puede ser utilizado ampliamente y con gran efectividad como herramienta de diagnóstico para identificar enfermedades neuromusculares en las personas. AGRADECIMIENTOS Los autores reconocen y agradecen las contribuciones del grupo de Investigación Sistemas 76 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76 Multisensoriales y Reconocimiento de Patrones de la Universidad de Pamplona. REFERENCIAS [1] R.N. Khushaba, S. Kodagoda, M. Takruri, G. Dissanayake, “Toward improved control of prosthetic fingers using surface electromyogram (EMG) signals” Expert Systems with Applications, Vol. 39, Issue 12, pp.10731-10738, September 2012. [2] K. K. Jung, J. W. Kim, H.K. Lee, S.B. Chung, K.H. Eom, “EMG pattern classification using spectral estimation and neural network” 2007, SICE Annual Conference pp. 1108 – 1111. [3] [4] T. Doherty, Z. Simmons, B. O’Connel, K. Felice, R. Conwit, K. Ming Chan, T. Komori, T. Brown, D. Stashuk, and W. Brown “Methods for Estimating the Numbers of Motor Units in Human Muscles”, 1995, Journal of Clinical Neurophysiology, Vol.12, pp.:565-84. A. Hamilton-Wright, D.W. Stashuk, “Physiologically based simulation of clinical EMG Signals”, 2005, Biomedical Engineering, IEEE Transactions on, Vol.: 52, Issue: 2, pp. 171 – 183. [9] D. R. Rogers, T. Dawn. Isaac. M, “EMG-based muscle fatigue assessment during dynamic contractions using principal component analysis” Journal of Electromyography and Kinesiology, Vol. 21, Issue 5, pp.811-818, October 2011. [10] K. Kiatpanichagij, N. Afzulpurkar, “Use of supervised discretization with PCA in wavelet packet transformation-based surface electromyogram classification”, 2009, Biomedical Signal Processing and Control, Vol. 4, Issue 2 pp.127–138, April 2009. [11] S.Park, J.H.Na, J.Y.Choi, “PCA-based feature extraction using class information Myoung, Systems”, Man and Cybernetics, 2005 IEEE International Conference on, Vol.: 1, pp. 341 – 345. [12] I.B.V. Da Silva, P.J.L, Adeodato, “PCA and Gaussian noise in MLP neural network training improve generalization in problems with small and unbalanced data sets” 2011, Neural Networks (IJCNN), The 2011 International Joint Conference , pp. 2664 – 2669. [5] G. Cometti, Métodos modernos de musculación, Editorial Paidotribo, cuarta edición, 2005. [13] W. Yu, H. Yamaguchi, H.Yokoi, M. Maruishi, Y.Mano, Y.Kakazu, “EMG automatic switch for FES control for hemiplegics using artificial neural network”, Robotics and Autonomous Systems, Vol. 40, Issues 2–3, pp. 213-224, 31 Aug 2002. [6] C. Durán, A. Jaimes, “Diseño de un registrador electromiográfico de superficie para cuantificar unidades motoras en la enfermedad del pie Caído” Revista: Revista Colombiana de Tecnologías de Avanzada, Vol 2, No. 1, pp. 57 – 62, 2010. [14] Y.l Özbay, G. Tezel,” A new method for classification of ECG arrhythmias using neural network with adaptive activation function”, Digital Signal Processing, Vol. 20, Issue 4, pp. 1040-1049, July 2010. [7] Normativa SENIAM (Surface ElectroMyoGraphy for the Non-Invasive Assessment of Muscles, online, Available, http://www.seniam. org//. [8] M. Reaz, M. Hussain, F. Mohd-Yasin. “Techniques of EMG signal analysis; Detection, processing, classification and applications”, Biological Procedures, Vol.8, 1, pp.163, 2006. [15] K. Liang, W.Chen. “Fast adaptive PNN-based thresholding algorithms, Pattern Recognition”, Vol. 36, Issue 12, pp. 2793-2804, December 2003. [16] H.C.Dubey, Nandita, A.K. Tiwari, “Blind modulation classification based on MLP and PNN, 2012 in Engineering and Systems (SCES), Students Conference, pp: 1-6. Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones Architecture for the Video on Demand service deployment on IPTV, based on Interactivity and Recommender Systems Diego Fabián Durán Dorado Ingeniero en Electrónica y Telecomunicaciones, Universidad del Cauca Estudiante Maestría en Ingeniería Telemática, Universidad del Cauca Investigador Grupo GIT, Universidad del Cauca Popayán, Colombia [email protected] José Arciniegas Profesor titular, Departamento de Telemática, Universidad del Cauca Investigador Grupo GIT, Universidad del Cauca Popayán, Colombia [email protected] Resumen— En este artículo se presenta una alternativa de solución arquitectónica para el despliegue y soporte del servicio de VoD (Video bajo Demanda) de contenidos de televisión en IPTV (Televisión sobre el Protocolo de Internet). Esta alternativa integra el soporte de los servicios interactivos wikis, chat, blogs, y sistemas de recomendaciones con enfoques basados en contenido, colaborativos e híbridos. La arquitectura se describe en diferentes vistas así: de despliegue, de componentes y dinámica a partir de un escenario específico. A diferencia de otras arquitecturas, la solución presentada facilita la convergencia en un entorno de televisión, de estándares y tecnologías abiertas de la Web 2.0 como los Servicios Web (Web Services), REST (Transferencia de Estado Representacional) y XML (Lenguaje de Marcas Extensible), lo cual es acorde con la tendencia actual en la Web de permitir la interoperabilidad entre aplicaciones software independientes. Un grupo de pruebas sobre un prototipo de la arquitectura permitió concluir que es posible obtener un buen rendimiento en cuanto a tiempos de respuesta en un entorno web real durante situaciones de estrés. En cuanto al ancho de banda, el servicio puede desplegar toda la funcionalidad sobre las velocidades de acceso ofrecidas en la actualidad, considerando que la arquitectura está diseñada para redes no gestionadas, por lo que no se asegura QoS. Services, REST (Representational State Transfer) and XML (Extensible Markup Language), which is consistent with the current trend on the Web to allow interoperability between independent software applications. From a set of tests concluded that it is possible to obtain a good performance in terms of response times in a real web during stress situations. As to bandwidth, the service can display all of the functionality on access speeds currently offered, considering that the architecture is designed to unmanaged networks therefore not assured QoS. Palabras clave— Arquitectura, Interactividad, IPTV Recomendaciones, VoD. Abstract—This paper presents an alternative architectural solution for the deployment and support of the VoD (Video on Demand) service for television content on IPTV (Internet Protocol Television). This alternative integrates support of interactive services like wikis, chat, blogs and recommender systems with item based approaches, collaborative and hybrid. The architecture is described in different views like this: deployment, components and dynamic, based on a specific scenario. Unlike other architectures, this solution facilitates the convergence of standards and open technologies of Web 2.0 like Web Keywords— Architecture, Interactivity, IPTV, Recommender, VoD. I. INTRODUCCIÓN A través del servicio de VoD (Video bajo Demanda) de IPTV (Televisión sobre Protocolo IP), los usuarios pueden elegir sus productos desde una lista o catálogo en la que pueden encontrar información relacionada, seleccionar el contenido de su interés, descargarlo y visualizarlo en un televisor analógico o digital, o un computador [1]. Con el tiempo, la cantidad de contenidos aumentó y los problemas propios de la tecnología y de usabilidad aparecieron causados por la saturación de información. Entre ellos: retardos por cambio de canal [2], baja probabilidad de encontrar contenidos de interés para los usuarios [3]-[5], categorización de contenidos insuficiente para gustos variados y específicos [3]-[8], y debido a sugerencias de usabilidad de televisión digital [9], la cantidad de información presentada en pantalla es reducida y los contenidos pueden perder visibilidad. Debido a la experiencia negativa de los usuarios Recibido: 03/08/2012/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 78 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 causadas por estos problemas [3], es necesaria la implementación de estrategias para faciliten el acceso a información personalizada que corresponda a las preferencias de cada persona [10]. De forma general, el intercambio de información especializada es la tendencia en IPTV [1]. Esto demostrado en entornos como el social [11] (Social TV), el comercial (tCommerce) [12], y el gobierno (tGovernment) [13], en los que el intercambio de conocimiento producido por la interacción entre usuarios se lleva a cabo a través de conjuntos de aplicaciones y servicios interactivos de apoyo. Para buscar soluciones a los problemas anteriores, se presenta una propuesta arquitectónica que integra servicios interactivos y sistemas de recomendaciones como apoyo al servicio de VoD sobre una red no gestionada. La arquitectura tiene en cuenta la cadena de negocio actual de IPTV [14], las tecnologías y protocolos disponibles en la Web 2.0 y las técnicas de filtrado de información de los sistemas de recomendaciones [15]. El trabajo está basado en las experiencias obtenidas en el laboratorio de TDi (Televisión Digital Interactiva) de la Universidad del Cauca (Colombia) en el marco del proyecto ST-CAV [16], [17] (Servicios de T-Learning para el soporte de Comunidades Académicas Virtuales), no sólo en el campo de IPTV sino también en el de la Televisión Digital Terrestre y Móvil; y en el laboratorio de TDi de la Universidad de Vigo -España- donde se investigó y profundizó de forma parcial lo relacionado con los sistemas de recomendaciones. II. CONTEXTO A continuación se definen aspectos importantes en los que se enmarca este trabajo y los conceptos más relevantes relacionados con el marco teórico de esta investigación. A. IPTV El Open IPTV Forum contempla la prestación de servicios de IPTV tanto en redes gestionadas como en no gestionadas. En general, es un conjunto de servicios multimedia (televisión, video, audio, texto, gráficos y datos) distribuido por una red IP. Sobre una red gestionada debe poseer calidad de servicio, seguridad, interactividad y fiabilidad. Sobre una red no gestionada no se asegura calidad de servicio [18]. B. VoD Servicio de IPTV que permite a los usuarios elegir contenidos de televisión (programas y películas, entre otros) desde una EPG (Guía Electrónica de Programación) [18]. C. Servicios Interactivos En el marco del presente trabajo, se refiere a servicios que fomentan la interacción entre el usuario y el sistema de VoD. Pueden clasificarse en dos tipos así: 1) asociados y 2) no asociados al contenido. Los asociados extienden la información presentada en cada contenido o se refieren específicamente a uno en particular. Los no asociados no necesariamente extienden la información tratada en un contenido. Ejemplo del primer tipo es el servicio de “valoraciones” que permite al usuario calificar la calidad de un contenido. Esta calificación se llamará en adelante como DOI (Grado de Interés). En el segundo tipo se encuentran servicios que están de acuerdo a la tendencia de la Web 2.0 como: chat, noticas, foros y wikis, entre otros, y sirven para la circulación de información y generación colaborativa de conocimiento. D. Sistemas de Recomendaciones En el contexto de la televisión, son herramientas que generan sugerencias de contenidos de televisión a partir de las preferencias y opiniones de los usuarios. Son útiles durante el proceso de filtrado de la gran cantidad de contenidos disponibles y asistir a los usuarios en la búsqueda y recuperación de información. En cuanto a su forma de operar, se definen en la literatura tres enfoques que son los más utilizados actualmente en el entorno de la televisión digital: los basados en contenido, colaborativos e híbridos. Los sistemas basados en contenido sugieren al usuario nuevos contenidos en función de su semejanza con otros que le han interesado en el pasado. Los sistemas colaborativos predicen el DoI de un usuario por un contenido con base en los gustos y opiniones de otros usuarios con intereses similares. Con el fin de obtener mejores recomendaciones, los sistemas híbridos explotan las ventajas de los otros enfoques y sobrellevan sus desventajas debido a su naturaleza complementaria [19]. Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones – Durán, Arciniegas E. TVAnytime Especificación en la que participan algunas de las organizaciones más relevantes de la industria de creación y difusión de contenidos multimedia, que normaliza un formato de datos común para describir contenidos audiovisuales genéricos, instancias concretas de los programas, perfiles de usuario, información de segmentación de contenido y mecanismos para referenciar los programas con independencia de su localización y hora de emisión [20]. III. TRABAJOS RELACIONADOS En [21] se propone una arquitectura para el servicio de VoD compuesta principalmente por un arreglo de nodos cuyo objetivo es atender la masiva demanda en IPTV. Para ello, se realizan copias de cada contenido en los nodos de una manera dinámica y se obtiene así una solución escalable para mejorar el uso del ancho de banda. Sin embargo, la arquitectura está enfocada en la distribución de flujos (streamming) por la red, y no se considera el despliegue de servicios interactivos, sistemas de recomendaciones u otras herramientas de apoyo importantes para mejorar la experiencia del usuario. En [19] se desarrolla una metodología basada en la utilización de técnicas de inferencia de conocimiento de la web semántica para elaborar recomendaciones personalizadas y automáticas de contenidos de televisión. El objetivo de la metodología es descubrir relaciones semánticas entre las preferencias de los usuarios y los contenidos disponibles. Aunque esto implica ampliar la gama de recomendaciones, el sistema tiene un enfoque basado en contenido, por lo que pueden presentarse problemas de sobre-especialización. Este consiste en la recomendación sólo de contenidos similares entre sí y dejar de lado otros que podrían interesar. Es posible reducir sus efectos a través de la implementación de un enfoque híbrido. En [22] se define una arquitectura y la implementación de un sistema de IPTV que permite compartir archivos multimedia. La arquitectura se centra en cubrir aspectos como la presentación de los archivos, el control de ejecución (adelantar, retroceder, pausar) y la adhesión de descripciones (de texto). La arquitectura se basa en el estándar IMS (Sub Sistema Multimedia IP) y se añade un conjunto de funciones adicionales a las básicas de IMS. Este diseño dificulta su escalabilidad y convergencia con los Web Services, en caso de añadir servicios y aplicaciones de apoyo. En [3] se describen los sistemas de recomendaciones de contenidos de televisión basados en filtrado colaborativo y en contenido para sistemas de VoD en IPTV. Este trabajo resalta la importancia de las recomendaciones en entornos con abundancia de información y pretende dar solución a los problemas asociados a la ineficiencia en la búsqueda de un contenido de interés para el usuario en catálogos grandes. En los trabajos relacionados no se considera el uso de herramientas de apoyo para el acceso e intercambio de información entre usuarios como servicios interactivos y sistemas de recomendaciones en el servicio básico de VoD. Por otra parte, las arquitecturas descritas dificultan la convergencia de los estándares y tecnologías abiertas de la Web 2.0 como los Servicios Web (Web Services), REST (Transferencia de Estado Representacional) y XML (Lenguaje de Marcas Extensible), cuyo uso es acorde a la tendencia en la Web de permitir la interoperabilidad entre aplicaciones software independiente de la plataforma en la que están instalados. IV. ARQUITECTURA ESTÁTICA La arquitectura estática del sistema está conformada por dos vistas: la de “Despliegue” y la de “Nodos y componentes”. La primera, brinda una idea general del funcionamiento del servicio y la segunda explica en detalle cada uno de los nodos que conforman la arquitectura, sus componentes y funciones. Entre los criterios de diseño de la arquitectura están: • Es importante que sea posible la modificación de componentes sin afectar el funcionamiento del sistema y que a pesar de la gran carga computacional necesaria para cada proceso, el sistema se comporte eficazmente. • La organización de nodos obedece a la cadena de negocio de IPTV actual. • La arquitectura está orientada a los servicios y obedece a los principios de REST, por lo que cada servicio interactivo se concibe como un 79 80 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 • recurso que puede ser consumido a través de peticiones GET y POST. Se considera un entorno IP no gestionado, por lo que los nodos de la arquitectura se interconectan a través de Internet. A. Vista de despliegue En la Fig. 1 se presenta la vista de despliegue de la arquitectura, en la que se delimitan claramente el “Proveedor de contenidos”, el “Proveedor de servicios” y el “Cliente”. Cada uno de los nodos se describe en la Fig. 1. orientada a servicios REST con intercambio de mensajes JSON (Notación de Objeto JavaScript). 3) En el Cliente a. STB IPTV Se instalan funciones JavaScript que se encargan de monitorear la actividad del usuario. Además, a través de su navegador permite el despliegue y navegación a través del servicio de VoD. En condiciones ideales, este dispositivo debe interpretar JavaScript, CSS (Hojas de estilo en Cascada) y HTML (Lenguaje de Marcado de Hipertexto). 1) En el Proveedor de contenidos B. Vista de Nodos y Componentes a. Información de los contenidos Esta base de datos contiene la meta-información de los contenidos. Por ejemplo: Título, actores, sinopsis y palabras clave, entre otras. b. Perfiles de usuario Esta base de datos contiene la información de cada usuario. c. Servidor de Contenidos Se encarga de tener disponibles los contenidos que se transmiten por el canal IP. d. Recomendador Relaciona la información de los contenidos y los perfiles de usuario a través de algoritmos de filtrado para generar recomendaciones. Aunque el enfoque utilizado para el desarrollo del presente trabajo es basado en contenido, la arquitectura permite el uso de otros como colaborativo o híbrido. En la Fig. 2 se muestra la vista en nodos y componentes de la arquitectura. Cada componente representa una unidad de software ejecutable. Las tareas de cada componente se describen a continuación. 2) En el Proveedor de Servicio de VoD a. Servidor de Aplicación de IPTV Contiene la aplicación de IPTV que se despliega en la pantalla del cliente y se encarga de coordinar interfaces, catálogos, contenidos, servicios interactivos y recomendaciones que componen el entorno de VoD. Además, monitorea la actividad de usuario para coleccionar información referente a sus gustos y utilizarla en la generación de recomendaciones. b. Servidor de Servicios interactivos Se encarga de recibir peticiones por parte del Servidor de Aplicación de IPTV generadas por el uso de los servicios interactivos por parte del usuario. Este nodo obedece a una arquitectura 1) En el Servidor de Contenidos a. Repositorio de Contenidos Encargado de almacenar y poner a disposición para su consumo, los contenidos que hacen parte del conjunto del servicio de Video bajo demanda. 2) En el Servidor de Bases de Datos a. Información de los Contenidos Esta base de datos contiene la meta-información de los contenidos. Por ejemplo: CRID (Identificador de Referencia de Contenido), título, actores, sinopsis, palabras clave, entre otras. Dependiendo del enfoque del sistema de recomendaciones, la información puede estar organizada en bases de datos relacionales o formalizada en una ontología que extrae las clases e instancias de la base de conocimiento OWL (Lenguajes de Ontologías Web). En cualquiera de los casos, la información responde a la especificación TVAnytime, que permite describir de manera ordenada cada contenido detalladamente y posibilita hallar de manera eficaz correlaciones entre ellos al momento de realizar recomendaciones. b. Perfiles de usuario Esta base de datos contiene la información de cada usuario. En este contexto, contiene 4 tipos de información relevantes. El primero son las “Características demográficas” que abarcan datos como: sexo, edad, profesión, estado civil o núme- Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones – Durán, Arciniegas Fig 1. VISTA DE DESPLIEGUE DE LA ARQUITECTURAFUENTE: LOS AUTORES Fuente: los autores Fig. 2. VISTA EN NODOS Y COMPONENTES DE LA ARQUITECTURA Fuente: lols autores ro de hijos; e información contextual como la localización del usuario, el horario en que prefiere ver televisión y el historial de visionado. El segundo, son “Matrices de valoraciones” que contiene el historial de DOI que el usuario ha asignado a cada contenido. El tercer tipo de información es una “Matriz de interactividad” que contiene información implícita registrada por el sistema mientras el usuario utiliza los servicios interactivos. Esta depende de los servicios ofrecidos y puede ser: tiempo de uso, con qué otros usuarios lo utiliza y qué tipo de contenido ve mientras lo usa, entre otros. Finalmente, el cuarto tipo de información es una estructura perfil-ontología, en la cual el perfil del usuario está referido a todas las clases de la ontología (en caso de usarla) para conocer así sus preferencias. c. BD de Servicios Interactivos Contiene la información que manejan los servicios interactivos. Si el servicio es el chat, por ejemplo, contiene todos los mensajes, qué usuario los introdujo, la hora y fecha, entre otros. O si es valoraciones, registra los DOI, la fecha y el usuario que los generó. 81 82 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 3) En el Servidor de Servicios Interactivos 6) En el STB IPTV a. Servicios Interactivos Encargado del soporte de los servicios interactivos. De acuerdo a REST y la actividad del usuario, pone los servicios interactivos a disposición para que sean consumidos como un recurso a través de peticiones GET y POST. De acuerdo a esto, registra o consulta información en la BD de Servicios Interactivos y envía respuestas a la Aplicación de IPTV en forma de mensajes JSON. Cada servicio interactivo que pertenece a esta componente, tiene su propio URI (Uniform Resource Identifier). a. Navegador Web Navegador Web con el cual vienen equipados los STB y permite el despliegue y navegación por la aplicación. 4) En el Recomendador a. Filtro Basado en Contenido Utiliza un algoritmo de filtrado basado en contenido sobre la información de los perfiles de usuario para recomendar a cada persona contenidos similares a los que le interesaron en el pasado. b. Filtro Colaborativo Utiliza un algoritmo de filtrado colaborativo basado en vecinos cercanos sobre la información del perfil de cada usuario para realizar recomendaciones de contenidos que interesaron a usuarios similares. c. Agente Híbrido Encargado de aplicar criterios de decisión para definir qué contenidos harán parte de la lista de recomendaciones. Esta puede estar compuesta por contenidos generados por el filtrado basado en contenido, el colaborativo o un porcentaje de cada uno. 5) En el Servidor de Aplicación de IPTV a. Monitor de Usuario Registra la actividad del usuario y almacena información relevante en las BD Perfiles de Usuario y BD de Servicios Interactivos b. Aplicación IPTV Organiza la información en interfaces que serán presentadas al usuario en pantalla. Según la actividad, obtiene información de contenidos y usuarios, además, envía peticiones GET y POST a los Servicios interactivos y desglosa los mensajes JSON recibidos para incorporarlos en las interfaces. Por otro lado, según la demanda de cada usuario, envía peticiones de contenidos al Servidor de Contenidos y los despliega en pantalla. V. ARQUITECTURA DINÁMICA Una manera de ver la relación dinámica entre los componentes de la arquitectura es mediante un diagrama de secuencia. Para ello se ha seleccionado el siguiente escenario: un usuario accede al servicio de VoD, luego califica la calidad de un contenido a través del servicio de valoraciones, finalmente el sistema realiza el proceso para generar recomendaciones (ver Fig. 3). El flujo de información inicia cuando el Usuario introduce la dirección URL de la Aplicación IPTV. La Aplicación IPTV realiza la petición de la información de los contenidos a la base de datos Información de Contenidos a través de sentencias SQL. Ahora la aplicación se despliega a través del navegador. El Usuario desea utilizar el servicio de valoraciones, por lo que la Aplicación IPTV realiza su invocación a través de peticiones GET, su URL y puerto a Servicios Interactivos. Los Servicios Interactivos realizan la petición de la información relacionada con el servicio de valoraciones a la base de datos BD de Servicios Interactivos a través de sentencias SQL. Esta información es recibida por la Aplicación IPTV en forma de mensajes JSON, que son desglosados y mostrados en pantalla a través de las interfaces gráficas. Con la navegación e interacción del usuario en el servicio, la información (de contenidos y servicios) presentada en pantalla se actualiza dinámicamente haciendo uso de JavaScript y Ajax (JavaScript y XML Asíncronos). Por ejemplo, si hay una nueva valoración de otro usuario, la nueva valoración promedio debe actualizarse. Cuando el Usuario realiza la valoración, el Monitor de Usuario registra el valor en la BD de Servicios Interactivos para que sea tenido en cuenta en los próximos usos y en la BD perfiles de Usuario para coleccionar información referente a sus gustos y realizar recomendaciones posteriormente. Para generar recomendaciones, el Filtro Basado en Contenido ejecuta algoritmos de filtrado sobre la información registrada en BD Perfiles de Usuario para generar una lista de recomendaciones, que posteriormente se registra en la BD Perfiles de Usuario. Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones – Durán, Arciniegas Fig. 3. DIAGRAMA DE SECUANCIAS QUE RELACIONA LOS COMPONENTES A PARTIR DE UN ESCENARIO ESPECíFICO Fuente: los autores def GET(self, args): class recomendaciones: http://servidor:puerto/recomendaciones/?idusuario=1 idusuario = web.input(‘idusuario’).idusuario VI. PROTOTIPO A continuación se describe un prototipo de arquitectura que menciona lenguajes, plataformas, metodologías, tecnologías y protocolos utilizados y demuestra la interoperabilidad y convergencia que permite la arquitectura. A. Servicios Interactivos Este componente fue desarrollado en lenguaje Python en el entorno Eclipse en Linux. Para una buena configuración del entorno de desarrollo, es necesaria la instalación de: complemento Pydev para Eclipse, librerías Python de desarrollo, librerías de networking Python web.py y gevent, además del paquete de índice Python Greenlet. La aplicación es creada como un proyecto PyDev y se elige Python como intérprete. Según los principios de REST, en este componente se define cada servicio interactivo al especificar para él una URI. En el siguiente fragmento de código se define el servicio de recomendaciones, para el cual se ha especificado su URI. El servicio es consumido por la Aplicación IPTV mediante una petición GET que incluye datos como el Id del usuario para el cual se requiere consultar la lista de recomendaciones. Con los datos recuperados a partir del URI puede definirse la lógica del servicio, por ejemplo para realizar consultas en bases de datos. B. El Sistema de Recomendaciones Es un sistema de recomendaciones basado en contenido, resultado de la adaptación de la metodología propuesta en [19]. Las características de dicho trabajo utilizadas en el presente estudio son: se basa en los DOI dados por cada usuario a cada contenido a través del servicio de valoraciones; los contenidos están organizados y formalizados en una ontología OWL, basada en la clasificación por “Géneros” de la norma TVAnytime en la que las clases hoja son los géneros; cada contenido está definido como individuo de varias clases hoja con dos propiedades de tipo Datype llamadas CRID y Título. Como resultado del presente estudio, algunas características relacionadas con los contenidos – además relevantes para generar recomendaciones – pueden definirse dentro de la ontología con una clasificación diferente a la de los géneros. En este caso, la característica “Director” está formalizada en la ontología OWL como una clase hoja y sus individuos son los contenidos en los que ha sido director. Igual que como ocurre 83 84 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 con los géneros, cada individuo de cada director tiene las propiedades CRID y Título. En la Fig. 4, se presenta un fragmento de la clasificación por géneros de ontología desarrollada en la herramienta Protégé [23]. Aquí, la película Titanic tiene CRID igual a 005 y es individuo de la clase hoja Aventura (Adventure). En pro de las recomendaciones, también pertenece a las clases hoja Desastre (Disaster) y Drama Clásico (Classical drama). Así mismo, en la Fig. 5 se observa un fragmento de la clasificación por director, en la que la película Titanic es un individuo de la clase hoja James Cameron. Para generar las recomendaciones, primero se realiza el cálculo del nivel de interés de las clases hoja del género y director para cada Usuario. Fig. 4. FRAGMENTO DE LA CLASIFICACIÓN POR GÉNERO DE LA ONTOLOGíA DESARROLLADA EN PROTÉGÉ Fuente: los autores Fig. 5. FRAGMENTO DE LA CLASIFICACIÓN POR DIRECTOR DE LA ONTOLOGíA DESARROLLADA EN PROTÉGÉ La lista de recomendaciones está compuesta por los contenidos pertenecientes a las clases hoja con mayor DOI para un usuario. Se propone enriquecer la ontología con más características de clasificación como: “Actor principal”, “País”, “Año”, “Actores de reparto”, entre otros. De esta manera, se generan sugerencias basadas en los gustos de cada usuario y variadas en cuanto a temática, se soluciona así el problema de sobre-especialización de los sistemas de recomendaciones basados en contenido. C. Información de los contenidos La información de los contenidos es de dos tipos: meta-información y ontología OWL. La meta-información (CRID, Título, Sinopsis y actores, entre otros) es la que se presenta en pantalla cuando el usuario navega por los catálogos y está registrada en una base de datos relacional. La ontología OWL se utiliza para clasificar los contenidos según su género y otras características, como se indica en la sección VI-A. La ontología se especifica en un documento de texto plano con extensión OWL generado por Protégé. Este documento es consultado por otros componentes de la arquitectura para generar recomendaciones. Un fragmento de este documento se muestra a continuación, donde se especifica el género (Adventure) y CRID (005) de la película Titanic. <Adventure rdf:ID=”Adventure_2”> <Title rdf:datatype=”http://www.w3.org/2001/ XMLSchema#string” >Titanic</Title> Fuente: los autores Para esto, se promedian los DOI de todos los contenidos que pertenecen a una clase hoja, por medio de la expresión: <CRID rdf:datatype=”http://www.w3.org/2001/ XMLSchema#string” >005</CRID> </Adventure> donde DOI px(Cp) es el nivel de interés del usuario con perfil px por la clase hoja Cp, N es el total de contenidos que pertenecen a la clase hoja Cp y DOI px(Pi) es el DOI del usuario con perfil px por el contenido Pi. D. Perfiles de Usuario Esta información está organizada en bases de datos relacionales. Además de almacenar información demográfica (Nombre, edad y género, entre otros) contiene información en una Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones – Durán, Arciniegas estructura denominada perfil-ontología que modela los gustos del usuario relacionándolo con cada contenido y cada clase hoja de la ontología. En la Fig. 6 se presenta un fragmento de información perfil-ontología, donde está registrado el DOI asignado por diferentes usuarios a diferentes contenidos. Se puede observar que el usuario con Id 1 ha valorado el contenido con CRID 005 (Titanic) con un DOI igual a 5 y el 003 (Locos de ira) con un DOI igual a 3. Fig. 6. FRAGMENTO DE INFORMACIÓN PERFIL-ONTOLOGíA QUE RELACIONA CADA PERFIL Y SUS DOI POR CADA CONTENIDO Fuente: los autores Los datos presentados en la Fig. 6 son utilizados para calcular el DOI de cada usuario por cada una de las clases hoja de la ontología a través de (1). En la Fig. 7 se presenta un fragmento de información perfil-ontología donde está registrado el DOI de cada usuario por cada una de las clases hoja de la clasificación por género. Aquí, el usuario con id 1 presenta un DOI por la clase hoja Desastre (Disaster) igual a 5 y por la clase hoja Aventura (Adventure) un DOI igual a 3. Se infiere que este usuario presenta un mayor interés por el género Desastre que por Aventura. Además, no ha valorado contenidos clasificados en el género Detective, por lo que no se puede inferir conclusión alguna. Fig. 7. FRAGMENTO DE INFORMACIÓN PERFIL-ONTOLOGíA DONDE SE RELACIONA CADA PERFIL Y SUS DOI POR CADA CLASE HOJA DE LA ONTO- LOGíA EN LA CLASIFICCIÓN POR GÉNERO Fuente: los autores En la Fig. 8 se presenta otro fragmento perfilontología donde está registrado el DOI de cada usuario por las clases hoja de la clasificación por director. Fig. 8. FRAGMENTO DE INFORMACIÓN PERFIL-ONTOLOGíA DONDE SE RELACIONA CADA PERFIL Y SUS DOI POR CADA CLASE HOJA DE LA ONTOLOGíA EN LA CLASIFICCIÓN POR DIRECTOR Fuente: los autores E. Filtro Basado en Contenido Este componente está desarrollado en lenguaje Java debido a la disponibilidad de librerías disponibles para la consulta de ontologías. Consulta en la BD Perfiles de Usuario los datos de la Fig. 6 y consulta la ontología haciendo uso del framework Jena [25] para descubrir a qué clases hoja pertenece cada contenido valorado. Después aplica (1) para obtener el DOI del usuario por las clases hoja de la ontología. Así se obtiene la información presentada en la Fig. 7 y Fig. 8. A partir de estos datos, se infiere el interés de cada usuario por los géneros, los directores y otras características que puedan ser formalizadas en la ontología y generar la lista de recomendaciones final. Por ejemplo, según la información presentada en la Fig. 7 y Fig. 8, se infiere que los contenidos recomendados deben ser en mayor proporción del género Desastre, menor de Aventura, y ninguna de Comedia. Así mismo, se pueden recomendar contenidos dirigidos por James Cameron y ninguno por Sylvester Stallone. F. Aplicación IPTV Este componente se desarrolló en el entorno de desarrollo Netbeans bajo la tecnología Java JSP. Las interfaces se definieron en HTML, añadiéndole dinámica a través de JavaScript, específicamente con la librería Jquery. Para mostrar información dinámica, es necesario realizar el consumo de los servicios interactivos a través de peticiones GET y POST. Debido a que JavaScript está del lado del cliente, y las peticiones a los servicios interactivos están del lado del servidor, es necesario el uso de técnicas AJAX para invocar Servlets que realicen las peticiones directamente. Por ejemplo, para la validación a través de usuario y contraseña primero se hace la invocación de un Servlet así: 85 86 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 $.ajax({ url : “/vod/ValidaServlet”, data: “login=”+login+”&password=”+password, type : “GET”, cache : true, La Fig. 10 muestra la interfaz que presenta el servicio interactivo del chat. La Fig. 11 muestra la interfaz del servicio de recomendaciones. Fig. 10. INTERFAZ QUE PRESENTA EL SERVICIO INTERACTIVO DE CHAT success : function(response) {} }) El servlet realiza la petición GET al componente de Servicios Interactivos, especificando el URI del servicio encargado de la validación de usuarios: response=rc.get(“http://”+servidor+”:”+puerto+”/ validacion/?login=”+login+”&password=”+passwo rd); Las respuestas enviadas por el componente de Servicios interactivos tienen formato JSON, por lo que es necesario desglosarlas para recuperar la información útil que será presentada en pantalla. Para esto se hace uso de Jquery: Var respuesta Fuente: los autores Fig. 11. INTERFAZ QUE PRESENTA EL SERVICIO DE RECOMENDACIONES = jQuery.parseJSON(response); exito =respuesta.exito; nombre = respuesta.Nombre; idusuario=respuesta.id; VII. APLICACIÓN FINAL DE USUARIO A continuación se describe de forma general el uso de la aplicación de usuario. Una vez el usuario ingresa el URI de la aplicación a través del navegador Web, debe ingresar los datos de autenticación: usuario y contraseña. Si los datos de autenticación son correctos, se notifica que el usuario se ha autenticado correctamente. La Fig. 9 muestra la interfaz del prototipo que presenta la organización de servicios, catálogos y reproducción de contenidos. Fig. 9. INTERFAZ DEL PROTOTIPO QUE PRESENTA LA ORGANIZACIÓN DE SERVICIOS, CATÁLOGOS Y REPRODUCCIÓN DE CONTENIDO Fuente: los autores VIII. PRUEBAS SOBRE EL PROTOTIPO A. Entorno de pruebas Para la realización de pruebas, se configuró una red como la mostrada en la Fig. 12. Un equipo es el servidor de la Aplicación IPTV, otro es el encargado de generar tráfico IP en la red con la herramienta Ostinato, otro es el monitor encargado de capturar datos con Wireshark, y el último es el cliente que realiza el consumo de la aplicación y obtiene datos de tiempo de respuesta con Jmeter. Con esta configuración, se realizó un conjunto de pruebas de rendimiento y de ancho de banda sobre el prototipo de la arquitectura propuesta. B. Pruebas de Rendimiento Fuente: los autores Se realizó dos pruebas de estrés relacionadas con el rendimiento del sistema con el fin de pre- Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones – Durán, Arciniegas decir su tiempo de respuesta frente a un conjunto de peticiones GET de acuerdo a los principios de REST. Al hacer uso de la herramienta Jmeter, se configuraron las pruebas de la siguiente manera: 1) se simuló un grupo de 50 usuarios que al tiempo realizaron 3 peticiones GET cada uno; 2) se simuló un grupo de 100 usuarios que al tiempo realizaron 3 peticiones GET cada uno. Fig. 12. CONFIGURACIÓN DE LA RED PARA PRUEBAS Fuente: los autores Para las dos pruebas se configuró Jmeter de tal forma que las tres peticiones consistieron en validación, petición de los mensajes del chat y petición de la lista de recomendaciones. El análisis de los resultados obtenidos con Jmeter se hace calculando un intervalo de confianza con un nivel de 95%, suponiendo una distribución Normal de la población. Los datos de la primera prueba se presentan en la Fig. 13. Fig. 13. RESULTADOS DE RENDIMIENTO CON JMETER el cual define los límites entre los que se espera una respuesta del servidor para una cantidad de usuarios que realiza peticiones de forma simultánea. donde: tiempo promedio de respuesta TP= 270 ms; Z0,95=1,96; desviación estándar D=64,57; número de muestras n =12.000. Al remplazar los valores en (2) se obtuvo el intervalo de confianza: [268,8447; 271,1553] en milisegundos. En la segunda prueba y con un procedimiento como el anterior, se obtiene un intervalo de confianza: [550,6053; 553,3946] en milisegundos. Según los resultados, el uso de los principios de REST en la arquitectura permite la implementación de servicios interactivos que bajo situaciones de estrés presentan un buen rendimiento, si se tiene en cuenta los límites relacionados con el tiempo de respuesta de una aplicación web [26]: 1 segundo es el límite en el cual el usuario siente que navega libremente sin esperar demasiado una respuesta del servidor. C. Pruebas de Ancho de Banda Sobre el terminal de monitoreo se hizo un análisis de ancho de banda, con los datos de paquetes capturados por la herramienta Wireshark. La Fig. 14 corresponde al ancho de banda generado por la validación, petición de los mensajes de chat, y petición de la lista de recomendaciones. Se observa que se realiza un consumo periódico de ancho de banda de aproximadamente 80 Kbps que equivale al 2% de la velocidad del enlace (5 Mbps). La periodicidad es generada por la comunicación continua entre el cliente y el servidor, con el fin de establecer una actualización continua de información en servicios como el chat o las valoraciones promedio. Fig. 14. ANCHO DE BANDA UTILIZADO POR EL USO DE LOS SERVICIOS INTERACTIVOS Fuente: los autores En la primera prueba, el servidor respondió a los 50 hilos con un rendimiento de 181,7 peticiones por segundo. Así mismo, el tiempo promedio para recibir una respuesta del servidor es de 270 milisegundos, realizándose un total de 12000 peticiones GET. Con los datos de la Fig. 13, se calcula un intervalo de confianza determinado por (2), Fuente: los autores 87 88 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89 La Fig. 15 muestra la relación entre el ancho de banda total de la red, el ancho de banda utilizado por otros servicios aparte de la Aplicación IPTV y el utilizado cuando se reproduce un contenido en la aplicación. Se observa que la reproducción del contenido utiliza casi la totalidad del ancho de banda disponible, mientras se reduce el utilizado por otros servicios. Este resultado no se obtendrá siempre que se reproduzca un contenido en la Aplicación IPTV, debido a que está diseñada para una red no gestionada que no asegura QoS. Es decir, en algunas situaciones el ancho de banda de otros servicios hará que se reduzca el de la Aplicación IPTV en un entorno Web real. Fig. 15. ANCHO DE BANDA UTILIZADO POR LA REPRODUCCIÓN DE UN CONTENIDO Fuente: los autopres IX. CONCLUSIONES La arquitectura para el soporte del servicio de VoD apoyada en interactividad y sistemas de recomendaciones provee aportes en el área de la telemática como la convergencia de tecnologías, técnicas, protocolos, lenguajes y plataformas como Java, HTML, Python, JSON, REST y OWL, para ofrecer servicios de la web 2.0 en el contexto de VoD en IPTV. Además permite: el despliegue de servicios de apoyo, por ejemplo valoraciones, chat y recomendaciones con el fin de mejorar la experiencia del usuario en el uso del servicio de VoD; y la generación de conocimiento colaborativo en torno a un contexto específico, en este caso el cine. Con el objetivo de generar recomendaciones más acertadas, posibilita el uso de servicios que permiten coleccionar información acerca de las preferencias de los usuarios. Por ejemplo, a través de la actividad en el chat, es posible inferir un porcentaje del nivel de interés de un usuario por un contenido sin que éste tenga que especificarlo a través del servicio de valoraciones. Debido a que existe el riesgo de que se afecte la privacidad de los usuarios, es necesario el uso de un mecanismo por medio del cual se acepten los términos de dicha inferencia. Esta arquitectura puede utilizarse en entornos comerciales de demanda de películas y series de televisión. Desde el punto de vista académico, puede dar soporte a Comunidades Académicas Virtuales, en las que los miembros pueden generar y compartir contenidos educativos e intercambiar y construir conocimiento sobre un tema específico. El prototipo del servicio se validó a través de pruebas de rendimiento y ancho de banda en el Laboratorio de Televisión Digital de la Universidad del Cauca en un entorno controlado del canal. Como resultados, se estimó que en un escenario real el sistema podría responder a las peticiones de los usuarios de forma rápida en situaciones de estrés (elevado número de peticiones simultáneas). Esto, debido al uso de los principios de REST en la arquitectura, definidos para un consumo mínimo de recursos. De la prueba de ancho de banda, se encontró un comportamiento acorde al de un servicio sobre una red no gestionada: no se asegura QoS. AGRADECIMIENTOS Este proyecto se desarrolló con el apoyo de la Universidad del Cauca-Colombia, los proyectos STCAV (Servicios de t-Learning para el Soporte de una Comunidad Académica Virtual), GESTV (Plataforma de Gestión para un Sistema de t-Learning), Redauti y el grupo de investigación del Laboratorio de Televisión Digital de Vigo-España. REFERENCIAS [1] J. Hjelm, Why IPTV?, Interactivity, Technologies and Services. UK: Wiley, 2008, p. 358. [2] F. Moumtadi, M. Escobar, R. Argota, y S. Landeros, “Reducción del retardo en el cambio de canal en servicios IPTV,” Ingeniería, Investigación y Tecnología, vol. 9, No. 3, pp. 217–229, Ene. 2008. [3] R. Turrin and P. Cremonesi, “Recommender Systems for Interactive TV,” 8th European Conference on Interactive TV and Video Tutorial, Jun. 2010. [4] S. Vogl, P. Halbmayer, and C. Lichtenberger, “Media Space Navigator: Navigating Video Content on IPTV Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de Recomendaciones – Durán, Arciniegas [15] B. Sarwar, G. Karypis, J. Konstan, and J. Riedl, “ItemBased Collaborative Filtering Recommendation,” Proceedings of the 10th international conference on World Wide Web, pp. 285-295, May 2005. [16] W. Campo, G. Chanchí, y J. Arciniegas, “Arquitectura para el Soporte de Comunidades Académicas Virtuales en Ambientes de TDi”, Universidad del Cauca, Colombia, 2010. [17] Proyecto ST-CAV, disponible en: http://www.unicauca. edu.co/stcav/. Consultado el 1 de Julio de 2012. [18] J. Lloret, M. García, F. Boronat, “IPTV: la televisión por Internet”, Editorial Vértice, Málaga, España, 2008, p. 230. [19] Y., Blanco, Propuesta Metodológica para el Razonamiento Semántico en Sistemas de Recomendación Personalizada y Automática. Vigo, España: Universidad de Vigo, 2007. [20] M. Björkman, L. Aroyo, M. Bellekens, T. Dekker, E. Loef and R. Pulles, “Personalised Home Media Centre Using Semantically Enriched TV-Anytime Content,” 4th European Conference on Interactive Television (EuroITV-06), pp. 165-173, May 2006. [21] X. Li, L. Xie, and G. Liu, “Study of VOD Server Architecture with the Array of the Balanced Nodes in Storage and Networks,” Frontier of Computer Science and Technology (FCST), 2010 Fifth International Conference, pp. 214-218, Aug. 2010. [22] O. Friedrich, R. Seeliger, A. Al-Hezmi, C. Riede, and S. Arbanowski, “ Prototyping Interactive and Personalized IPTV-Services on Top of Open IMS Infrastructures,” 8th European Conference on Interactive TV and Video, pp. 204-208, Jun. 2010. [23] The Protégé Ontology Editor and knowledge Acquisition System. Disponible: http://protege.stanford.edu. Consultado el 1 de Julio de 2012. [24] UK Government Digital Television. Disponiblehttp:// www.digitaltelevision. gov.uk. Consultado el 1 de Julio de 2012. Python Programming Language. Disponible: http:// www.python.org/. Consultado el 1 de Julio de 2012. [25] Apache Jena. Disponible: http://jena.apache.org/. Consultado el 1 de Julio de 2012. G. Held, Understanding IPTV. New York: Auerbach publications, 2007, p. 189. [26] J. Nielsen, Usability Engineering. San Francisco, USA: Morgan Kaufman, 1994. Portals,” Lecture Notes in Computer Science, vol. 5066, pp. 248-252, Jul. 2008. [5] [6] [7] [8] [9] [10] C. Zheng and Z. Ming, “An efficient video similarity search strategy for video-on-demand systems,” Broadband Network & Multimedia Technology, IC-BNMT ‘09. 2nd IEEE International Conference, pp. 174-178, Oct. 2009. C. Tan, G. Chang, X. Wang, and C. Zhu, “An EPG Recommender Framework with Information Exchange between Users,” Hybrid Intelligent Systems, HIS ‘09, ninth International Conference, vol. 2, pp. 453-456, Aug. 2009. B. Xiao, J. Yan, X. Guo, and L. Leung, “IPTV: User Behavior Analysis,” Management and Service Science, 2009. MASS ‘09. International Conference, pp. 1-4, Sep. 2009. M. Ahmad, J. Qadir, N. Rehman, A. Baig, and H. Majeed, “Prediction-based channel zapping latency reduction techniques for IPTV systems — A survey,” Emerging Technologies, 2009. ICET 2009. International Conference, pp. 466-470, Oct. 2009. M. Kim, S. Min Ko, J. Mun, G. Ji, and M. Jung, “A USABILITY STUDY ON PERSONALIZED EPG (PEPG) UI OF DIGITAL TV,” LECTURE NOTES IN COMPUTER SCIENCE, vol. 4552, pp. 892-901, jul. 2007. Y. Xue and Q. Gong, “Study on Internet Recommendation System of Collaborative Filtering Based on Scatter Diference,” Computer, Mechatronics, Control and Electronic Engineering (CMCE), International Conference, vol. 1, pp. 160-163, Aug. 2010. [11] K. Lee, K. Cho, and W. Ryu, “Social TV Service: A case study,” Consumer Electronics (ICCE), IEEE International Conference, pp. 287-288, Jan. 2011. [12] E. Kim and S. Ko, “Investigating User Adoption of Tcommerce,” Computers, Networks, Systems and Industrial Engineering (CNSI), First ACIS/JNU International conference, pp. 95-99, May. 2011. [13] [14] 89 Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España Influence of environmental factors on e-procurement adoption process in furniture industry in Spain Alba Soraya Aguilar-Jiménez PhD. Integración de las Tecnologías de Información en las Organizaciones, Universidad Politécnica de Valencia (España) Docente Tiempo Completo, Investigadora Grupo GEETIC, Universidad Pontificia Bolivariana Bucaramanga, Colombia [email protected] Resumen— Este estudio examina los factores del entorno empresarial, asociados con la adopción de innovaciones TIC para el aprovisionamiento electrónico en pequeñas y medianas empresas. La comprobación empírica se llevó a cabo a partir de información suministrada por e-business w@tch de un grupo de 120 empresas del sector del mueble en España. Se empleó en el análisis de asociación por medio de Tablas de contingencia para encontrar relación estadísticamente significativa entre la presión externa recibida de los proveedores para adoptar determinadas TIC y la ubicación geográfica de los principales proveedores con el nivel de adopción de innovaciones TIC para el aprovisionamiento. Palabras clave— Adopción de innovaciones, tecnologías de información y comunicaciones, influencia de proveedores, pyme, industria del mueble, aprovisionamiento electrónico. Abstract— This study examines external factors, associated with the adoption of ICT innovations for electronic procurement in SMEs. The empirical test was conducted based on information supplied by e-business w@ tch survey on a group of 120 companies in the furniture industry in Spain. It was used in association analysis, basing on contingency tables that found statistically significant relationship between pressure received from external suppliers to adopt ICT, and the geographic location of the main suppliers with the level of adoption of ICT innovations for procurement. Keywords— Adoption of innovations, information and communications technologies, suppliers influence, SME, furniture industry, e-procurement. I. INTRODUCCIÓN Tradicionalmente el proceso de compras se ha limitado al uso del teléfono, correo electróni- co, fax o EDI (Intercambio electrónico de datos Electronic Data Interchange), pero las compras a través de Internet han abierto un nuevo mundo a empresas y proveedores, que ofrecen numerosas herramientas que ayudan a realizar todo tipo de actividades de aprovisionamiento. El concepto de “e-procurement” (aprovisionamiento electrónico), entendido como la realización de actividades operativas y estratégicas asociadas a los procesos de aprovisionamiento en las empresas y sus relaciones con proveedores, empleando para ello Tecnologías de información y comunicación (en adelante TIC) e Internet [1], está cobrando fuerza en empresas de diferentes tamaños. Las organizaciones, cada vez, dan más importancia al uso de TIC e Internet en el proceso de compras pues encuentran una cantidad enorme de beneficios potenciales ya que permiten mejorar los flujos de información entre empresas y, a su vez, aumentar la cooperación y disminuir los costes y el tiempo de las transacciones y se mejora con ello las relaciones entre proveedores y clientes [2]. Las ventajas más conocidas del uso del aprovisionamiento electrónico apuntan a la reducción de tiempos, costes y carga administrativa, así como a la mejora de las relaciones entre proveedores y clientes y conformación de redes, e incluso hay quienes aseguran que tiene una influencia directa en la mejora de resultados financieros [2], [3], [4], [5], [6], [7], [8], [9], [10] Recibido: 26/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar Sin embargo, si bien las ventajas de la adopción del e-procurement (en adelante se utilizará como sinónimo de aprovisionamiento electrónico) son más que conocidas, no todas las empresas pueden esperar obtener los mismos beneficios ya que estos pueden ser de diferentes tipos y depender de múltiples factores y, por tanto, el proceso de adopción de las TIC debe estar acorde a sus condiciones particulares y a las exigencias del entorno. Pequeñas y medianas empresas cada vez son más conscientes de la importancia de invertir en TIC, más aún si estas inversiones redundan en beneficios tangibles [11]. Para el caso del aprovisionamiento electrónico, si bien se han identificado beneficios estratégicos, operacionales y de oportunidad [6], siguen existiendo barreras que inhiben este proceso de adopción [12], [13], [14], e incluso hay estudios que resaltan la existencia de inhibidores del uso de las TIC en diferentes contextos empresariales [12], [13], [15], [16], [17], [18]. Algunos de los autores [19], [20], [21], [22], [23], [24], consideran que la adopción de TIC sigue el proceso de cualquier otra innovación dentro de una empresa. Este proceso de difusión de innovaciones, entendidas como las prácticas u objetos percibidos como nuevos por un individuo o grupo de individuos, ha sido ampliamente estudiado por Everett Rogers [25] y busca explicar la manera como las personas, los grupos, las organizaciones, comunidades y sociedades adoptan una innovación de cualquier tipo. El proceso de difusión de innovaciones sigue una curva en forma de “S” en función de la velocidad de adopción y el número de adoptantes, y explica claramente cómo nuevas ideas y productos se distribuyen, y por qué otros muy buenos no logran hacerlo o no permanecen el tiempo necesario para tener éxito [25]. De acuerdo con este planteamiento, los recursos de TIC son herramientas que apoyan el proceso de transformación organizacional, y son considerados innovaciones que deben ser difundidas gradualmente en las empresas al pasar por unas etapas predefinidas; lo que hace que estas propuestas evolutivas consideren todo tipo de tecnologías, desde hardware, hasta software, bases de datos y redes; como parte del proceso. Este planteamiento se condensa de manera explícita en el “modelo teórico para la adopción de innova- ciones TIC para el aprovisionamiento empresarial” propuesto por Aguilar-Jiménez [1], y se emplea como base para analizar el proceso de adopción del e-procurement en el presente estudio. Este fenómeno ha sido ampliamente estudiado desde diversas perspectivas, contextos y modelos teóricos [19], [20], [22], [23], [26], [27], [28], que permite identificar aspectos comunes que influyen en la toma de decisiones en relación a la adopción de innovaciones de TIC. En España, las pequeñas y medianas empresas (pymes1) cada vez tienen mayor acceso a las TIC y muestran un notable interés hacia su incorporación, sin embargo, es evidente que la adopción de innovaciones TIC para soportar procesos de aprovisionamiento es un proceso progresivo en el que influyen diversos aspectos. Este grupo de empresas no sólo tienen características diferentes entre sí, sino necesidades específicas y disponibilidad de recursos generalmente limitada, razón por la cual el análisis de los aspectos que influyen adopción de innovaciones de TIC en las empresas para soportar actividades de aprovisionamiento, debe estar adaptado a sus condiciones particulares. Este análisis es un tema que ha llamado la atención de diferentes autores en todo el mundo, quienes han estudiado este proceso en diferentes contextos [4], [6], [7], [14]. Este interés particular se refleja en estudios tempranos realizados principalmente en Estados Unidos, como es el caso del análisis de la adopción de EDI realizado por Iacovou et al. [29] o de factores de influencia en el aprovisionamiento electrónico realizado por Heckman [30], pero que, cada vez más, despiertan el interés científico como lo demuestran los estudios de los últimos años ya no sólo en Estados Unidos sino en países de Europa y Asia [14], [31], [32], [33], [34], [35], [36], [37], [38], [39], [40], [41], [42], [43], [44]. Estos estudios en general evidencian de una parte la existencia de aspectos de diversos tipos que influyen en que las empresas tomen la decisión de invertir en TIC, y de otra parte el hecho de que empresas de todos los sectores, 1 El acrónimo PYME (Pequeña y Mediana Empresa) ha sufrido un proceso de lexicalización que lo ha convertido en un nombre común. La última edición del Diccionario de la RAE la califica como sustantivo femenino con el significado de “empresa mercantil, industrial, etc., compuesta por un número reducido de trabajadores, y con un moderado volumen de facturación”. El plural de este sustantivo es pymes. www.rae.es. Septiembre 30 de 2010. 91 92 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 tamaños y países cada vez son más conscientes de la importancia del uso de estas TIC en sus actividades y comunicaciones diarias, así como de formar parte de redes virtuales. Sin embargo, pese a ser un tópico ampliamente estudiado a nivel internacional, en España todavía hay mucho por explorar, no sólo a nivel de la adopción de innovaciones de TIC en el aprovisionamiento empresarial, sino enmarcado en la realidad de la pyme española de sectores industriales específicos. En este orden de ideas, el presente trabajo busca identificar, a nivel teórico y con ayuda de fuentes de información secundarias, los aspectos del entorno empresarial que inciden en el proceso de adopción de innovaciones TIC en actividades de aprovisionamiento, en pequeñas y medianas empresas en España del sector de fabricación del mueble. II. LAS TIC EN EL APROVISIONAMIENTO EMPRESARIAL DE PYMES Desde la irrupción de Internet, las pymes como el resto de empresas, se han visto inmersas en una nueva realidad en la que el uso de TIC juega un papel preponderante en el posicionamiento en los mercados, con sus consecuentes efectos en la competitividad y rentabilidad esperada, situación que las ha llevado a desarrollar nuevos modelos de negocio basados en estrategias fundamentadas en torno a ineludibles inversiones en tecnología. El fenómeno de las TIC en la evolución del negocio electrónico especialmente en grandes empresas norteamericanas y europeas ha sido ampliamente tratado por diversos autores [45], [46], [47], [48] y, aunque no son muchos los que han adaptado sus modelos de investigación a condiciones particulares, por ejemplo, a las pymes, sectores industriales o ámbitos territoriales específicos, no por ello se puede negar o afirmar que sus resultados sean válidos en cualquier contexto empresarial analizado. Según Grandon y Pearson [49], los beneficios del comercio electrónico no son solamente para las grandes empresas, las pymes pueden también beneficiarse de él, adicionalmente creen que su adopción puede “nivelar el campo de juego” con las grandes empresas, para proporcionar independencia espacial y temporal y facilitar la comunicación [49]. En la actualidad las Pymes han descubierto que pueden utilizar el formato universal de la tecnología de Internet para obtener muchos de los beneficios asociados con el intercambio electrónico de datos con clientes y proveedores, sin necesidad de realizar costosas inversiones en equipos informáticos, software y asistencia técnica especializada [48], lo que vincula cada vez más a las pymes al mundo del negocio electrónico. En lo que se refiere a la gestión de la cadena de suministro, Internet sirve de soporte al desarrollo conjunto de un producto, pasando por la identificación y desarrollo de los proveedores o e-procurement, la gestión de la demanda, logística y en general de los diversos procesos y sistemas empresariales [50]. Sin embargo, si bien el uso de Internet en la gestión de compras se ha desarrollado rápidamente al crear una gran variedad de aplicaciones para apoyar los procesos de aprovisionamiento en la empresa [51], el e-procurement no ha sido suficientemente difundido y adoptado de manera homogénea en empresas de diferentes tamaños y sectores industriales. Las empresas españolas, y en especial las Pymes han reaccionado a las alteraciones del entorno asociadas al uso de TIC en forma desigual entre ellas, situándolas en desventaja en cuanto a los efectos de su uso en la competitividad [23]. El uso de las TIC y en especial de Internet en actividades de aprovisionamiento ha desencadenado una revolución importante en las relaciones entre empresas (Business to Business - B2B) y proveedores, sin embargo el grado de asimilación de dichas tecnologías aún es incipiente especialmente en pymes españolas, las cuales en muchos casos aún realizan sus compras por métodos tradicionales o se encuentran en etapas tempranas de adopción [5], [8], [23], [52], [53], [54]. La dinámica de adopción de TIC en el negocio electrónico ha sido caracterizada como un proceso evolutivo por el que las empresas deben pasar de manera gradual y que usualmente van desde niveles iniciales asociados con un primer acercamiento de la empresa a los recursos ofrecidos por Internet, hasta niveles avanzados de transformación organizacional basada en la red [27], [53], [55], [56], [57]. Para Rogers [25], el éxito de la adopción de una tecnología se encuentra en la naturaleza misma de la innovación, y define la innovación Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar como una idea, práctica u objeto que es percibido como nuevo por un individuo o unidad de adopción. Así pues, este proceso de adopción de innovaciones TIC implica una transformación empresarial que obliga a las pymes a recorrer un camino que las conduzca a la adopción paulatina de innovaciones tecnológicas; proceso cuyo éxito depende de factores internos y externos a la empresa, así como de una adecuada planeación y ejecución de las inversiones en TIC, de sus características y su estrategia de negocio electrónico particular. III. MODELO DE INVESTIGACIÓN E HIPÓTESIS Teniendo en cuenta que no es posible incluir todos los aspectos potenciales que afectan la adopción de innovaciones TIC en actividades de aprovisionamiento electrónico en las empresas, la selección de los aspectos se basó en una exhaustiva revisión teórica tanto del uso de TIC y la comprensión de las actividades asociadas al proceso de aprovisionamiento electrónico, como del proceso de adopción de innovaciones de TIC y el tamaño de las empresas. En consecuencia, este estudio pretende analizar el efecto de aspectos del entorno en el proceso de adopción de innovaciones TIC en actividades de aprovisionamiento electrónico en pymes españolas. Según el marco TOE (Technology-OrganizationEnvironment framework) [58], los factores que afectan la toma de decisiones de organización en materia de innovación tecnológica se pueden agrupar en tres bloques contextuales que son: el tecnológico, el organizacional y el entorno, los cuales están relacionados con la intención de una empresa de adoptar o no una nueva tecnología, así como el impacto en el rendimiento en relación con la asimilación de las TIC en sus procesos de negocio. Según Tornatzky y Fleischer [58], en el entorno empresarial existen factores que pueden influir en el proceso de toma de decisiones asociadas con las TIC, los cuales están relacionados con las características de la industria, la disponibilidad y coste de personal capacitado, cambios en la demanda del mercado, presión de parte de competidores innovadores o de las relaciones clienteproveedor, presión del mercado o de la industria, acceso a proveedores de servicios tecnológicos, relaciones gubernamentales, normas y reglamentos, por mencionar algunos ejemplos. En consecuencia, el modelo de investigación que se presenta en la Fig. 1, sugiere la existencia de aspectos del entorno que están relacionados con el proceso de adopción de innovaciones TIC en el aprovisionamiento empresarial, entendiendo este proceso dentro del concepto de “rapidez de adopción de innovaciones (innovativeness)” de la teoría de difusión de innovaciones de Rogers [25]. Fig. 1. MODELO TEÓRICO PARA LA INVESTIGACIÓN EN RELACIÓN A LOS ASPECTOS DEL ENTORNO EMPRESARIAL Fuente: Autor del proyecto basado en Aguilar-Jiménez [1] Es decir, la decisión de una empresa de adoptar o no una nueva tecnología y, para el caso particular, de adoptar o no innovaciones de TIC para soportar los procesos de aprovisionamiento, puede ser afectada por aspectos del entorno. En consecuencia, y a partir del marco TOE [58], se configuran las hipótesis de investigación asociadas a cada uno de estos aspectos. Como puede apreciarse en la Fig. 1, dentro del contexto externo se pueden identificar aspectos determinantes para la actividad innovadora lo que lleva a identificar variables y plantear hipótesis desde una perspectiva teórica y de acuerdo al entorno particular asociado al aprovisionamiento en las Pymes. A. Variable “Nivel de adopción de innovaciones de TIC en el aprovisionamiento empresarial” La variable dependiente Nivel de adopción de innovaciones de TIC en el aprovisionamiento empresarial fue definida según el modelo propuesto en Aguilar-Jiménez que fue desarrollado específicamente para analizar “la adopción de innovaciones TIC para el aprovisionamiento empresarial o 93 94 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 e-procurement” [1]. Este modelo plantea la existencia de tres niveles que permiten categorizar las empresas según su nivel de adopción TIC para soportar actividades de aprovisionamiento y cada uno de estos niveles está asociado a una determinada combinación de aspectos asociados a las actividades basadas en TIC que realizan las empresas para aprovisionarse, y que determinan el momento evolutivo en que se encuentra una organización [1]. Las empresas clasificadas como Pioneras son aquellas que ya han adoptado y emplean las TIC para realizar actividades de aprovisionamiento empresarial. Las Seguidoras, pese al probable escepticismo inicial, una vez conocidos los beneficios de las TIC en el aprovisionamiento muestran interés por aceptar y emplear las posibilidades ofrecidas en sus procesos de compra y han empezado a emplearlas. Finalmente, las Rezagadas pueden haber realizado pequeñas inversiones TIC, son muy escépticas a las innovaciones por lo que no presentan perspectivas reales cercanas para emplear las TIC en sus procesos de aprovisionamiento, ya que no las consideran necesarias para permanecer en los mercados [1]. B. Variable el subsector industrial al que pertenece la empresa Un primer aspecto que puede ejercer influencia en las decisiones TIC de las empresas es el hecho de pertenecer a determinada industria, especialmente en el contexto de las Pymes, dado que muchas veces estas empresas tienden a tener menos recursos para aumentar su base de conocimiento interno sobre las actuales tendencias tecnológicas y su evolución, por lo que tienden a dejarse influenciar por la dinámica de las empresas del sector y confiar en sus contrapartes para su propia toma de decisiones[15]. En el contexto de la adopción de las TIC, el efecto de la industria es considerado por algunos autores como variable de control [14], [39], [59], mientras que otros la consideran un aspecto del entorno, pero en el sentido de la presión que pueden recibir las empresas de clientes o proveedores [60]. El marco teórico TOE por su parte considera las características de la industria, junto con la estructura del mercado como un aspecto del entorno [58]. El efecto de la industria no sólo ha sido estudiado desde el punto de vista de los aspectos influyentes, sino desde el punto de vista del proceso de adopción de las TIC. Daniel et al.[56] consideran que el hecho de pertenecer a una etapa u otra de adopción del comercio electrónico depende de aspectos contextuales como la industria a la que pertenece la empresa. Para el caso particular del presente estudio, el efecto de la industria como tal no se puede probar en sentido estricto, dado que las empresas objeto de estudio pertenecen a un mismo sector industrial. Esto mismo sucede en el estudio realizado por Zhu [46], quien analiza el efecto del subsector industrial en el valor de las capacidades de comercio electrónico y la infraestructura TIC en las empresas del sector de comercio minorista. Así pues, el éxito en el uso de las TIC en el sector, no depende solamente de las iniciativas de las empresas fabricantes de muebles, sino que está directamente relacionado con los avances en materia de e-commerce en proveedores y comerciantes. En consecuencia, dado que el modelo fue elaborado para un sector industrial específico, como es el sector del mueble, el efecto del subsector al que pertenece una empresa no se tendrá en cuenta. C. Variable ubicación geográfica de proveedores Dentro del contexto del entorno, otro aspecto que ha sido estudiado por diversos autores en el área de la adopción de las TIC, es la distancia geográfica de los mercados. Con el uso de las TIC las empresas más pequeñas pueden llegar a alcanzar mercados más amplios y operar internacionalmente incluso con recursos limitados [24]. Diversos autores sugieren la importancia del uso de las TIC en la mejora de relaciones con clientes y consideran el alcance global de la empresa y el mercado objetivo de la empresa como aspecto de influencia en la toma de decisiones TIC [39], [61], [62]. Si bien es cierto que el uso de medios electrónicos en las transacciones comerciales reducen las barreras comerciales relacionadas con la distancia, según varios estudios, la distancia parece Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar ser aún un importante obstáculo al comercio electrónico [63]. Asimilado este concepto al caso del aprovisionamiento electrónico y habida cuenta que el uso de las TIC favorece las relaciones con clientes y proveedores, parece claro que si la distancia y ubicación geográfica de los clientes es un aspecto de influencia para la adopción del comercio electrónico, por analogía, en el caso del aprovisionamiento electrónico probablemente se pueda esperar el mismo efecto si se analiza la ubicación geográfica de los proveedores. Si bien la ubicación geográfica de proveedores no es una variable que aparezca en estudios teóricos anteriores en el sentido estricto, si es un aspecto importante en relación con el proceso de aprovisionamiento empresarial y debe tenerse en cuenta en este análisis. Es decir, aunque la ubicación geográfica de proveedores no es analizada como aspecto de influencia en el comercio electrónico con proveedores, parece interesante tenerlo en cuenta como una adaptación del efecto de la ubicación geográfica del mercado en la adopción del comercio electrónico con clientes, de lo cual si existen evidencias teóricas. En este sentido consideraremos que su efecto de la ubicación geográfica de proveedores en la adopción de innovaciones TIC para el aprovisionamiento se puede asimilar al efecto de la ubicación geográfica de clientes en el comercio electrónico, lo que da lugar a la hipótesis de trabajo: Hipótesis: La ubicación geográfica de los proveedores está relacionada con el nivel de adopción de innovaciones de TIC para apoyar actividades de aprovisionamiento empresarial. D. Variable presión externa recibida de los proveedores para adoptar determinadas TIC A partir de la revisión teórica se puede extraer que una de las principales razones para que las empresas, en especial las Pymes, adopten TIC tales como EDI, es la presión recibida de parte de sus socios comerciales [29], [49], especialmente si existen relaciones de dependencia con los proveedores o si estos tienen alto poder de negociación [64], [65], varios autores consideran la presión externa como un aspecto de potencial influencia en la adopción de innovaciones de las TIC [14], [17], [31], [39], [61], [63], [66], [67], [68], [69], [70]. Esta presión recibida por parte de los socios comerciales en algunos casos es entendida como presión competitiva [24], [49], o efecto de la industria [60], e involucra factores relacionados con la competencia, el entorno social, la dependencia de otras empresas que usan comercio electrónico, la industria o incluso el gobierno [49]. Para el caso particular del aprovisionamiento electrónico, esta variable es entendida como el grado de presión de parte de proveedores, para que una empresa adopte una nueva tecnología. Este aspecto parece ser particularmente importante en las relaciones empresa-proveedor, ya que su efecto en la adopción las TIC ha resultado ser significativo en estudios anteriores [14], [39], [64], por lo que se considera pertinente proponer una hipótesis que recoja este fenómeno, la cual se define como: Hipótesis: Las empresas que han experimentado presión de sus proveedores para adaptar soluciones TIC, tienden a estar más avanzadas en términos de adopción de innovaciones de las TIC para apoyar actividades de aprovisionamiento. E. Variable preparación de proveedores y clientes en el uso de e-business Estudios anteriores sugieren la importancia que tiene para una empresa, la adecuada preparación tecnológica de sus socios comerciales (clientes y proveedores). Con relación a la adopción del negocio electrónico, autores como Jones et al. [12] o Zhu et al. [69] la consideran como una barrera importante y un aspecto determinante para la adopción del negocio electrónico, mientras que Chwelos et al. [64] creen que es un aspecto que está directamente relacionado con la intención de las empresas de usar aplicaciones EDI. La utilidad de una innovación tecnológica aumenta en la medida que más empresas la adoptan [70], y la adopción requiere sistemas compatibles y una preparación tecnológica que facilite su implementación por parte de empresas y socios comerciales [39], [61]. Así pues, para obtener mejores beneficios y sacar más provecho del uso de las TIC en las relaciones con clientes y proveedores, es necesario que exista cierto nivel de homogeneidad en la preparación tecnológica de las empresas que buscan realizar negocios por vía electrónica. 95 96 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 En consecuencia, la decisión de una empresa de adoptar las TIC para soportar su proceso de aprovisionamiento puede estar influenciada por el grado de preparación de sus socios comerciales actuales o potenciales [12], [28], [34], [35], [39], [61], [64], [66], [69], [70], preparación que no sólo se refiere a la infraestructura TIC disponible, sino a nivel de preparación de sus procesos y del personal para realizar actividades de negocio electrónico y compartir información comercial. Este aspecto, entonces, da origen a una nueva hipótesis: Las empresas que consideran que no usan más intensivamente el negocio electrónico porque creen que sus proveedores y clientes no están preparados para ello, tienden a estar menos avanzadas en términos de adopción de innovaciones de las TIC para apoyar actividades de aprovisionamiento empresarial. IV. METODOLOGÍA DE INVESTIGACIÓN A. Fuente de datos Para la comprobación empírica del modelo se empleó la información recolectada por E-business W@tch, que es una iniciativa europea puesta en práctica y desarrollada por EMPIRICA –institución de investigación localizada en Bonn, Alemania–. En concreto, se ha empleado la encuesta sobre negocio electrónico e-business W@tch 2007 [71], la cual ofrece información relevante en relación al uso del negocio electrónico a nivel general, y del aprovisionamiento electrónico a nivel particular. La base de datos e-business W@tch ha sido usada en versiones anteriores en investigaciones relacionadas con el tema de estudio [33], [48]. Así pues, habida cuenta que el uso de información secundaria se justifica por razones de naturaleza económica, metodológica, del entorno y de las empresas [72] y que la información contenida en esta base de datos ofrece información relevante en relación al uso del negocio electrónico a nivel general, y del aprovisionamiento electrónico a nivel particular, se decidió emplear esta base de datos para probar el modelo propuesto teóricamente. No se ha tomado información más reciente dado que la encuesta dejó de realizarse en el año 2007 justamente2, sin embargo, dada la naturaleza del fenómeno que se pretende analizar y la robustez y seriedad de los datos recolectados, se considera viable el uso de estos datos con fines académicos. La población de este trabajo se limita al sector del mueble en España y la constituyen todas aquellas empresas de diez o más empleados y menos de 250, que realizan su actividad principal en este sector. La encuesta se desarrolla a nivel empresarial, esto es, los datos se recogen centrándose en la empresa (en lugar de en sus establecimientos), definiéndose empresa como una organización de uno o más establecimientos que consta de una unidad legal [71]. La muestra de este estudio la constituyen 120 empresas de las cuales el 86,6% (103 empresas) son pequeñas empresas y el 13,4% restante (16 empresas) son medianas. Los subsectores CNAE3 estudiados, según la clasificación de 1993 vigente en 2007 son: 36.12 (fabricación de muebles de oficina y establecimientos comerciales), 36.13 (fabricación de muebles de cocina y baño) y 36.14 (fabricación de otros muebles) [71]. El trabajo de campo lo llevó a cabo la empresa IPSOS, y las encuestas se realizaron de forma telefónica, mediante tecnología asistida por ordenador (Computer-Aided Telephone Interviewing – CATI). La persona a la que iba dirigido el cuestionario era normalmente el responsable de las TIC, y para las empresas que no contaban con este cargo, se entrevistó al gerente, y cada entrevista se realizó en un promedio de 20 minutos 24 segundos [71]. Estructuralmente esta encuesta se divide en siete módulos que sistematizan la información específica en relación a la adopción de las TIC en el negocio electrónico y específicamente en actividades de aprovisionamiento electrónico. Las preguntas seleccionadas para el estudio, fueron tanto aquellas específicas de e-procurement como las que, por su carácter genérico, pueden referirse al negocio electrónico con proveedores, 2 El observatorio sectorial e-Business Watch funcionó en el marco de un contrato entre la Comisión Europea, la Dirección General de Industria y Comercio y Empirica GmbH y estuvo en funcionamiento hasta el año 2007. http://ec.europa.eu/enterprise/ archives/e-business-watch/about/sectoral_ebiz.htm 3 Clasificación Nacional de Actividades Económicas en España – CNAE. www.ine.es 97 Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar y a partir de ellas se definieron las variables que conforman el modelo. En cuanto a la escala de medida de estas variables seleccionadas, son categóricas especialmente dicotómicas. B. Análisis estadístico El análisis del modelo teórico requiere la comprobación de hipótesis relacionales, es decir, hipótesis que enuncian una posible relación entre dos o más variables y su intensidad pero sin especificar la dirección de la relación [73], por lo que se hace indispensable recurrir a métodos estadísticos que permitan identificar esta relación. En el caso particular, habida cuenta que las variables disponibles son cualitativas de naturaleza binaria, para analizar el comportamiento de una variable con respecto a otra se acudió al uso de tablas de contingencia, que son tabulaciones cruzadas de dos variables categóricas o no métricas en las que las entradas son las frecuencias de respuesta que caen en cada celda de la matriz [74]. En consecuencia, uno de los test aplicados en este caso fue el V de Cramer, que es una medida de asociación basada en la chi-cuadrado, que puede ser aplicado a Tablas de contingencia de cualquier tamaño y adopta valores entre 0 -para el caso de inexistencia de relación- y 1 -para cuando si existe relación- [75]. Ya que las variables son no métricas, no paramétricas, se puede recurrir también al análisis de correlaciones de Spearman, adecuado para variables de tipo nominal y ordinal [75]. El coeficiente de correlación Spearman (rs), puede variar de -1 (asociación o relación negativa perfecta) a +1 (asociación o relación positiva perfecta) pasando por 0 (no relación). Tanto -1 como +1 son igualmente fuertes pero con interpretaciones opuestas desde altamente negativa hasta altamente positiva [76]. Dadas las limitaciones asociadas al hecho que la información empírica no fue recolectada específicamente para analizar la adopción de innovaciones de las TIC en el aprovisionamiento empresarial, sino el negocio electrónico en general, se identificó la pertinencia de cada una de las preguntas en relación a las variables del modelo y se excluyeron aquellas que, por no estar relacionadas, no servían para medir ninguna variable. En cuanto a la variable dependiente, la pertenencia a cada uno de los tres niveles de adopción dependía de si las empresas contaban con tecnologías como identificación por radio frecuencia, si realizaba pedidos en línea, si compartían información con proveedores, si contaban con tecnologías de intercambio electrónico de datos con proveedores y el tipo de formato empleado. En definitiva, el análisis bivariado se realizó entre la variable dependiente Nivel de adopción de innovaciones TIC para el aprovisionamiento electrónico[1], y las variables independientes: Ubicación de los proveedores, Presión de los proveedores y Preparación de proveedores y clientes en el uso del e-business, que dieron como resultado los coeficientes de asociación V de Cramer y los coeficientes de correlación Ro de Spearman que se detallan en la Tabla 1 y en la Fig. 2. TABLA I. COEFICIENTES DE CORRELACIÓN ENTRE VARIABLES Adopción de innovaciones TIC en el aprovisionamiento empresarial Ro de Spearman V de Cramer E2_Ubicación de proveedores .197* .177 E3_Presión de proveedores .233* .264** E4_Preparación_proveedores_clientes .99 .168 ** La correlación es significativa al nivel 0,01 * La correlación es significativa al nivel 0,05 Fuente: Autor del proyecto con base en datos procesados en SPSS V19 Fig. 2. RELACIÓN CON EL NIVEL DE ADOPCIÓN DE INNOVACIONES TIC PARA EL APROVISIONAMIENTO EMPRESARIAL ** La correlación es significativa al nivel 0,01 * La correlación es significativa al nivel 0,05 Fuente: Autor del proyecto A partir de la información presentada en la Tabla 1 y Figura. 2, es posible identificar que sólo se encontró asociación de las variables “Presión de los proveedores” y “Ubicación geográfica de pro- 98 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 veedores” con la variable dependiente. Es decir, no hay evidencia estadística que permita afirmar que la preparación de proveedores y clientes en el uso de las TIC para apoyar procesos de negocio estén relacionados con el nivel de adopción de innovaciones TIC en el aprovisionamiento empresarial, contrario a lo que sucede con la presión ejercida y la ubicación de proveedores para la adopción de innovaciones TIC para soportar procesos de negocio, variables con la cuales si se evidencia relación. V. DISCUSIÓN DE RESULTADOS Es necesario recordar que el estudio se basó en los resultados de la encuesta realizada por ebusiness W@tch para el sector del mueble en España, estudio que si bien no fue efectuado específicamente con el objetivo de analizar el proceso de adopción de innovaciones de las TIC en actividades de aprovisionamiento empresarial, sí incluye información relevante del proceso de adopción del negocio electrónico a nivel general. Esta condición permite, por medio de una investigación exploratoria, hacer una primera identificación del conjunto de variables externas con potencial explicativo del fenómeno de adopción de innovaciones de las TIC en el aprovisionamiento empresarial y poder así obtener información para llevar a cabo una investigación más completa en el contexto particular. En cuanto a las características generales de la muestra, el 86,6% son pequeñas (entre 10 y 49 empleados) y 13,4% medianas (entre 50 y 249 empleados), en su mayoría enfocadas al mercado nacional y sólo un 5% de empresas se enfoca principalmente al mercado de exportación. Con respecto a la variable que mide la ubicación geográfica de proveedores, esta variable no está soportada teóricamente en el sentido estricto, sino que es una variable adaptada del “efecto de la ubicación del mercado” [39], [61], [62]. La relación encontrada en este con el Ro de Spearman es estadísticamente significativa al 5%, y permite suponer que así como la ubicación geográfica de clientes está relacionada con la adopción del comercio electrónico, también la ubicación geográfica de proveedores puede estar relacionada con la adopción de innovaciones TIC para el aprovisionamiento, lo cual tiene sentido tenidas en cuenta las posibilidades que ofrecen las TIC para acercar a clientes y proveedores en un mismo entorno virtual, en que las distancias geográficas ya no son una limitante. Si bien para una variable categórica no tiene sentido hablar de relación positiva o negativa, por las características de esta variable el resultado puede significar que a mayor distancia geográfica con los proveedores mayor tendencia a adoptar las TIC para el aprovisionamiento empresarial. El segundo aspecto analizado es la presión externa ejercida por los proveedores para que las empresas adopten determinadas TIC. Esta variable mostró relación estadísticamente significativa con la variable dependiente (tanto con el V de Cramer como con el Ro de Spearman), lo que indica que las empresas que han sentido algún tipo de presión externa suelen estar en niveles superiores de adopción de las TIC. Este resultado es coherente con investigaciones anteriores en la adopción de e-procurement [31] o de sistemas EDI [29], [64], [65], y respalda la afirmación de que los procesos de cooperación y coordinación entre partners requieren del uso de tecnologías de información para potenciar sus resultados, lo que conlleva a que las empresas recomienden su uso a sus partners [14]. En este sentido, es probable que los proveedores de alguna manera puedan, si no presionar, al menos motivar a las empresas a usar tecnologías que faciliten y soporten sus comunicaciones, más aún si los proveedores involucrados cuentan con poder de negociación importante. En todo caso, hay que tener en cuenta de una parte que sólo 3 empresas afirman expresamente haber recibido este tipo de presión de sus proveedores, y de otra parte que las materias primas del sector del mueble (textiles, colas, pinturas, barnices y en su mayoría tableros y madera), no son inputs estandarizados ni usualmente comercializadas por medios electrónicos, por lo que para posibles generalizaciones este resultado debe tomarse con cautela. El último aspecto analizado fue el grado de preparación de socios comerciales para la adopción de innovaciones TIC para el aprovisionamiento, el cual no resultó tener relación estadísticamente significativa con la variable dependiente. Es decir, las empresas que consideran que no usan más intensivamente el negocio electrónico porque creen Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar que los socios comerciales no están preparados para ello, no necesariamente tienden a estar más avanzadas en términos de adopción de innovaciones de TIC para apoyar actividades de aprovisionamiento empresarial. Teóricamente la preparación de socios comerciales es un aspecto determinante en la adopción de las TIC tal como se evidencia en diversas investigaciones [12], [28], [34], [35], [39], [61], [64], [66], [69], [70], ya que requiere acciones conducentes a facilitar el intercambio automatizado de información, sin embargo, el hecho de no evidenciarse relación puede estar asociado a que la percepción de falta de preparación de clientes es generalizada, debido a la poca difusión de las TIC en el sector del mueble, así como a las características propias de las materias primas que compran las empresas o la complejidad de la categorización y la codificación industrial [71], lo que conlleva a que las empresas prefieran realizar sus compras por métodos tradicionales. Estos resultados fueron presentados a expertos de la industria del mueble en España [77], [78] quienes afirman que no es extraño este comportamiento dado que aunque las empresas cuenten con herramientas tecnológicas usan de manera intensiva el papel como medio de comunicación. Una posible explicación a este fenómeno puede ser que las empresas no adoptan las TIC porque no lo consideran necesario, no conocen sus beneficios o no se sienten preparadas para usarlas, creando un bucle del que sólo se puede salir gracias a las decididas inversiones de las empresas pioneras. Este resultado está en la misma línea del realizado por Hernández-Ortega y Serrano-Cinca [44], que consideran que las empresas no están dispuestas a adoptar las TIC a menos que su entorno así lo demande, mientras que el resto de agentes del entorno argumenta la misma justificación. Este limitado uso de las TIC en los procesos de compra ya se ha identificado en trabajos anteriores con empresas de diferentes sectores, que encuentran evidencias empíricas que les permite afirmar de una parte que no son precisamente las materias primas las que suelen comprarse por medios electrónicos, sino otro tipo de insumos no productivos, y de otra parte que si bien las empresas pueden contar con tecnología e-procurement, ésta se emplea más para intercambiar informa- ción de cualquier tipo con proveedores que para realizar compras electrónicas [41]. Adicionalmente, con respecto al sector del mueble en España, se ha comprobado que aunque las empresas cuenten con herramientas TIC básicas para comunicarse con proveedores, éstas no se utilizan y en su lugar se emplean soportes en papel [77], por lo que no es de extrañar que el uso de las TIC no esté suficientemente generalizado en el sector, lo que ha condicionado su adopción a lo largo de toda la cadena de suministro, y las empresas que han incorporado las TIC no necesariamente hacen uso estratégico de ellas [65]. Pese a lo anterior, vale la pena resaltar que, dadas las limitaciones de la encuesta, el grado de preparación de clientes y proveedores para adoptar TIC en procesos de negocio se mide a través de la percepción subjetiva de la persona que responde la encuesta, por lo que los resultados deben tomarse con cautela. Finalmente, vale la pena resaltar que si bien el modelo se analizó con base en datos empíricos del año 2007, dado que las variables analizadas no están en función del tiempo, se considera que los resultados son válidos para conocer la situación particular del sector en un momento específico. Adicionalmente, la robustez y calidad de los datos permitió probar de manera adecuada el modelo, lo que se constituye en un aporte valioso a la teoría de adopción de innovaciones TIC, que abren importantes oportunidades para la realización de futuros estudios que permitan replicar el modelo en otros sectores y en condiciones diferentes de la economía. VI. CONCLUSIONES Como resultado del presente estudio, el cual pretendía examinar los factores del entorno empresarial, asociados con la adopción de innovaciones TIC para el aprovisionamiento empresarial en pequeñas y medianas empresas, se encontró en primer lugar, relación estadísticamente significativa entre el nivel de adopciones de las TIC en actividades de aprovisionamiento empresarial y la presión externa ejercida por los proveedores así como con su ubicación geográfica. La relación identificada con la presión externa de proveedores sugiere que empresas que han sentido algún tipo de presión externa suelen estar 99 100 en niveles superiores de adopción de innovaciones TIC de e-procurement. Este resultado pueda dar origen a futuros estudios que permitan comprobar el nivel de influencia de los proveedores con poder de negociación importante. La relación encontrada con la ubicación geográfica de los proveedores permite suponer que así como la ubicación geográfica de clientes puede llegar a afectar la adopción de comercio electrónico, también la ubicación geográfica de proveedores puede estar relacionada con la adopción de innovaciones TIC para soportar el aprovisionamiento empresarial, lo cual tiene sentido según las posibilidades que ofrecen las TIC para acercar a clientes y proveedores en un mismo entorno virtual, en que las distancias geográficas ya no son una limitante No se encontraron evidencias empíricas que permitan identificar posible relación con la preparación de clientes y proveedores para el nivel de adopción de innovaciones TIC en el aprovisionamiento empresarial. Esta falta de evidencia relacional puede ser debida a aspectos como las características de las empresas del sector y la forma como se relacionan a lo largo de la cadena de suministro, la penetración de las TIC en el sector del mueble o la dinámica propia de las TIC, que ofrecen, cada vez, mayor facilidad de acceso por parte de las Pymes no sólo en cuestión de coste, sino de confiabilidad, sencillez y posibilidades ofrecidas. Así como a factores metodológicos como las características de las preguntas empleadas, la subjetividad de las respuestas asociada a la percepción de quién responde o la selección de la muestra entre otros posibles. Finalmente, el artículo presenta un modelo teórico validado para un grupo de empresas de un sector específico y en un momento determinado en el tiempo, razón por la cual se considera valiosa la realización de nuevos estudios que permitan de una parte confirmar las relaciones encontradas con el nivel de adopción de innovaciones TIC en el aprovisionamiento empresarial, y de otra parte demostrar si efectivamente hay o no relación entre las variables cuya relación no se pudo comprobar, o incluso si existen otros aspectos que no fueron considerados en el presente estudio y que pueden complementar el modelo para el contexto empresarial específico. ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 REFERENCIAS [1] A. S. Aguilar-Jiménez, Las tecnologías de información en pymes manufactureras. Procesos de adopción y factores de influencia. Primera. Editorial Académica Española, 2011. [2] D. Servera y I. Gil, «Tecnologías de la información y la comunicación en la gestión logística», Distribución y Consumo, No. 98, pp. 67-82, 2008. [3] J. M. Torrecilla, «Las estrategias operativas de la empresa. El tiempo como factor competitivo», Economía Industrial, n.o 330, 1999. [4] L. De-Boer, J. Harink, y G. Heijboer, «A Conceptual Model for Assessing the Impact of Electronic Procurement», European Journal of purchasing & supply management, No. 8, pp. 25-33, 2000. [5] J. R. De La Torre, M. Herias, F. San Nicolás, y P. Herrera, «Las Pymes y el mercado digital», Navarra, 2001, pp. 153-176. [6] M. Attaran, «The Coming Age of Online Procurement», Industrial Management & Data System, vol. 101, No. 4, pp. 177-180, 2001. [7] B. Heywood, M. Barton, y C. Heywood, e-Procurement. Managing Successful E-procurement Implementation. London: Financial Times. Prentice Hall. Pearson Education Limited, 2002. [8] B. A. Wagner, I. Fillis, y U. Jhohansson, «E-Business and E-supply Strategy in Small and Medium Sized Business (SMEs)», Supply Chain Management: An International Journal, Vol. 8, No. 4, pp. 343-354, 2003. [9] S. R. Croom y A. Brandon-Jones, «Impact of E-procurement: Experiences from Implementation in the UK Public Sector», Journal of purchasing & supply chain management, No. 13, pp. 294-303, 2007. [10] F. Hernández, J. Tafur, y M. Palacios, «Sistema e-procurement: propuesta de un business case como soporte de toma de decisión. E-procurement system: a business case proposal to support decision making», en XII Congreso de Ingeniería de Organización. 2nd International Conference on Industrial Engineering and Industrial Management, 2008. [11] I. Diéguez Castrillón, A. I. Gueimonde, y A. I. Sinde, «Gestión de recursos humanos, organización del trabajo y nuevas tecnologías: sus vínculos con los resultados.», Valencia, 2006. [12] P. Jones, P. Beynon-Davies, y E. Muir, «Ebusiness Barriers to Growth Within the SME Sector», Journal of Systems & Information Technology, vol. 7, No. 1, pp. 1-26, 2003. [13] J. Hartley, M. Lane, y E. Duplaga, «Exploring the Barriers to the Adoption of E-auctions for Sourcing», Inter- Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar national Journal of operations & production management, vol. 26, No. 2, pp. 202-221, 2006. [14] [15] T. Teo, S. Lin, y K. Lai, «Adopters and Non-adopters of E-procurement in Singapore: An empirical study», Omega - The International Journal of Management Science, No. 37, pp. 972-987, 2009. P. Chau, «Inhibitors to EDI Adoption in Small Business: An Empirical Investigation», Journal of Electronic Commerce Research, Vol. 2, No. 2, pp. 78-88, 2001. [16] M. Frohlich, «E-Integration in the Supply Chain: Barriers and Performance», Decision Sciences, vol. 33, No. 4, pp. 537-556, 2002. [17] A. Pranato, J. McKay, y P. Marshall, «Exploring the Perceptions of Inhibitors and Drivers of E-business Progression Among SMEs at Different Stages of E-business Maturity», European Conference on Information Systems, 2004. 101 [28] J. M. Cepeda Pérez y M. Á. Plaza Mejía, «Aspectos interorganizacionales de intercambio electrónico de documentos», Revista Dirección y Organización, No. 31, pp. 68-80, feb. 2005. [29] C. Iacovou, I. Benbasat, y A. Dexter, «Electronic Data Interchange and Small Organizations: Adoption and Impact of Technology», MIS Quarterly, vol. 19, No. 4, pp. 465-485, dic. 1995. [30] R. Heckman, «Organizing and Managing Supplier Relationships in Information Technology Procurement», International Journal of Information Management, vol. 19, pp. 141-155, 1999. [31] J. K. Chan y M. K. Lee, «SME E-Procurement Adoption in Hong Kong - The Roles of Power, Trust and Value», Hong Kong, 2003. [32] A. Ordanini, Information Technology and Small Businesses. Antecedents and Consequences of Technology Adoption. Edward Elgar Publishing Limeted, 2006. [18] J. M. Láñez, «Los marketplaces en España», iWorld, 01jul-2002. . [33] [19] C. Gibson y R. Nolan, «Managing the Four Stages of EDP Growth», Harvard Business Review, vol. 76, No. 88, 1974. R. Batenburg, «E-procurement Adoption by European Firms: A Quantitative Analysis», Journal of Purchasing & Supply Management, No. 13, pp. 182-192, 2007. [34] R. Nolan, D. C. Croson, y K. Seger, «The Stages Theory: A Framework for IT adoption and Organizational Learning». Harvard Business School, 19-mar-1993. E. Prier y C. McCue, «E-procurement Adoption in Local Governments of the United States», Government Procurement, pp. 12-31, feb. 2007. [35] F. Wu, G. A. Zsidisin, y A. D. Ross, «Antecedents and Outcomes of E-Procurement Adoption: An Integrative Model», IEEE Transactions on Engineering Management, vol. 54, n.o 3, pp. 576-587, 2007. [36] A. Gunasekaran y E. Ngai, «Adoption of E-procurement in Hong Kong: An Empirical Research», International Journal of Production Economics, n.o 113, pp. 159175, 2008. [37] K. Arbin, «The Structure of Determinants of Individual Adoption and Use of E-ordering Systems», Human Systems Management, n.o 27, pp. 143-159, 2008. [38] M. Rahim, «Identifying Factors Affecting Acceptance of E-procurement Systems: An Initial Qualitative Study at an Australian City Council», 10th International-Business-Information-Management-Association Conference, vol. 3, pp. 219-229, 2008. [39] A. Soares-Aguiar y A. Palma-dos-Reis, «Why do firms adopt E-Procurement Systems? Using Logistic Regression to Empirical Test a Conceptual Model», IEEE Transactions on Engineering Management, vol. 55, n.o 1, feb. 2008. [40] G. Vaidyanathan y S. Devaraj, «The Role of Quality in E-procurement Performance: An Empirical Analysis», Journal of Operations Management, No. 26, pp. 407425, 2008. [20] [21] A. Pranato, J. McKay, y P. Marshall, «Frameworks to Support E-business Growth Strategy», Slovenia, 2001, pp. 1254-1263. [22] J. J. Anaya y S. Polanco, Innovación y mejora de procesos logísticos. Análisis, diagnóstico e implantación de sistemas logísticos. Madrid: ESIC - Téciman, 2005. [23] M. Calvo y Z. González, «Análisis de las tecnologías de información que emplean las pymes», en in Modelos de Rasch en Administración de Empresas, Santa Cruz de Tenerife: FYDE-Caja Canarias, 2006, pp. 38-48. [24] B. Ramdani y P. Kawaiek, «SME Adoption of Enterprise Systems in the Northwest of England: An Environmental, Technological, and Organizational Perspective», en in IFIP International Federation for Information Processing, Manchester: Organizational Dynamics of Technology-Based Innovation: Diversifying the Research Agenda, 2007, pp. 409-430. [25] E. Rogers, Diffusion of Innovations, vol. Quinta edición. Free Press, 2003. [26] R. Nolan, «Information Technology Management from 1960-2000», Harvard Business School, 2001. [27] T. Teo y Y. Pian, «A Model for Web Adoption», Information & Management, vol. 41, pp. 457-468, 2004. 102 [41] [42] [43] [44] ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103 A. Gunasekaran, R. McGaughey, E. Ngai, y B. Rai, «EProcurement Adoption in the Southcoast SMEs», International Journal of Production Economics, No. 122, pp. 161-175, 2009. B. Hernández-Ortega, J. Jiménez-Martínez, y M. J. Martín-DeHoyos, «The Effect of Experience on Web Procurement. An Intersectorial Analysis of Small Firms», International Journal of Entrepreneurial Behaviour & Research, vol. 15, No. 1, pp. 7-24, 2009. M. Kaliannan, M. Raman, y M. Dorasamy, «E-Procurement Adoption in the Malaysian Public Sector: Organizational Perspectives», en Enterprise Distributed Object Computing Conference Workshops, EDOCW 2009.13th, 2009, pp. 189-194. B. Hernández-Ortega y C. Serrano-Cinca, «Qué induce a las empresas a adoptar facturación electrónica? Efecto de las percepciones y del entorno competitivo», Universia Business review, n.o 24, pp. 96-121, 2009. [45] R. Amit y C. Zott, «Value Creation in E-Business», Strategic Management Journal,, vol. 22, pp. 493-529, 2001. [46] K. Zhu, K. Kraemer, S. Xu, y J. Dedrick, «Information Technology Payoff in E-business Environments: An International Perspective on Value Creation of E-business in the Financial Services Industry», Journal of Management Information Systems, vol. 21, No. 1, pp. 17-54, 2004. [54] A. Constanzo A., «El comercio B2B cada vez más presente en las Pyme», N-Economía, Madrid, jul. 2008. [55] S. Nambisan y Y.-M. Wang, «Readblocks to Web Technology Adoption?», Communications of the ACM, vol. 42, n.o 1, ene. 1999. [56] E. Daniel, H. Wilson, y A. Myer, «Adoption of E-Commerce by SMEs in the UK. Towards a Stage Model», International Small Business Journal, vol. 20, No. 3, pp. 253-270, 2002. [57] J. G. Cegarra Navarro, J. Alonso Martínez, y A. F. Monreal Garres, «Influencia del uso de las tecnologías de internet en el capital estructural», Investigaciones Europeas de Dirección y Economía de la Empresa, vol. 12, No. 3, pp. 217-228, 2006. [58] L. Tornatzky y M. Fleischer, The Processes of Technological Innovation. Lexington Books, 1990. [59] T. Ravichandran y C. Lertwongsatien, «Effect of Information Systems Resources and Capabilities on Firm Performance: A Resource-Based Perspective», Journal of Management Information Systems, vol. 21, No.4, pp. 237-276, 2005. [60] K. Kuan y P. Chau, «A Perception-Based Model for EDI Adoption in Small Business Using a TechnologyOganization-Environment Framework», Information & Management, No. 38, pp. 507-521, 2001. [61] E. Gide y M. Wu, «A Study of E-commerce Business Satisfaction Model to Measure E-commerce Success in Service SMEs», International Journal of Electronic Customer Relationship Management, vol. 1, No. 3, pp. 307-325, 2007. [47] K. Zhu y K. Kraemer, «Post-Adoption Variations in Usage and Value of E-business by Organizations: Cross-Country Evidence From the Retail Industry», Information Systems Research, vol. 16, No. 1, pp. 61-84, mar. 2005. [48] P. Soto-Acosta, «Análisis de la creación de valor en el negocio electrónico a partir de la teoría de recursos y capacidades», Tesis Doctoral. Universidad de Murcia., Murcia, 2006. [62] E. Grandon y M. Pearson, «Electronic Commerce Adoption: An Empirical Study of Small and Medium US Business», Information & Management, vol. 42, pp. 197216, abr. 2004. L. Kaewkitipong y D. Brown, «Adoption and Evaluation of E-business in Thai SMEs: A Process Perspective», en Americas Conference on Information Systems (AMCIS), 2008. [63] H. Hollenstein y M. W”rter, «The Decision to Adopt Internet-Based E-commerce. An Empirical Analysis Based on Swiss Firm-Level Data», en 15TH Biennial Conference of the international telecommunications society (ITS) - Connecting societies and markets: Communication technology, policy and impacts, 2004. [49] [50] S. Pires y L. E. Carretero, Gestión de la cadena de suministros. Mc Graw Hill, 2007. [51] R. Lancioni, M. Smith, y T. Oliva, «The rol of the Internet in Supply Chain Management», Industrial Marketing Management, n.o 29, pp. 45-56, 2000. [64] P. Chwelos, I. Benbasat, y A. Dexter, «Empirical Test of an EDI Adoption Model», Information Systems Research, vol. 12, No. 3, pp. 304-321, 2001. [52] A. Cater-Steel, «Steps to Internet Adoption Success: A Study of Four Small Regional Organisations», Australasian Journal of Information Systems, vol. 11, No.2, may 2004. [65] [53] F. Alonso y G. Fitzgerald, «Theoretical Approaches to Study SMEs eBusiness Progression», Journal of Computing and Information Technology - CIT 13, vol. 2, pp. 123136, 2005. D. L. González-Bañales, M. G. Leyva Alanís, y J. A. Gutiérrez Reyes, «Datamining aplicado para el diagnóstico de la incorporación las TIC en las micro y pequeñas empresas», presentado en IV Congreso Iberoamericano de Soporte al Conocimiento con la tecnología. Las TIC, herramienta clave para la innovación y el crecimiento sostenible, Bucaramanga, Colombia, 2012. Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar [66] J. Mehrtens, P. Cragg, y A. Mills, «A Model of Internet Adoption by SMEs», Information & Management, No. 39, pp. 165-176, 2001. [67] M. Caldeira y J. Ward, «Using Resource-Based Theory to Interpret the Successful Adoption and Use of Information Systems & Technology in Manufacturing Small and Medium Sized Enterprises», en Global Co-Operation in the New Millennium - The 9th European Conference on Information Systems, 2001. [68] [69] P. Chau y K.-L. Hui, «Determinants of Small Business EDI Adoption: An Empirical Investigation», Journal of Organizational Computing and Electronic Commerce, vol. 11,No. 4, pp. 229-252, 2001. K. Zhu, K. Kraemer, y S. Xu, «A Cross-Country Study of Electronic Business Adoption Using the Technology-Organization-Environment Framework», en Twenty-third International Conference on Information Systems, 2002. 103 [72] I. Grande Esteban, «Fuentes de información para la investigación. Las bases de datos», en in Metodología para la investigación en marketing y dirección de empresas, Madrid: Pirámide, 1999, pp. 95-123. [73] F. Sarabia, «Definición del tema a investigar», en in Metodología de la investigación en dirección de empresas, Madrid: Pirámide, 1999, pp. 69-94. [74] J. J. Hair, R. Anderson, R. Tatham, y W. Black, Análisis multivariante, vol. 5. Madrid: Pearson, Prentice Hall, 2004. [75] S. Miquel, E. Bigné, J.-P. Lévy, A. Cuenca, y M. J. Miquel, Investigación de Mercados. Madrid: Mc Graw Hill, 1997. [76] G. Morgan, N. Leech, G. Gloeckner, y K. Barrett, SPSS for Introductory Statistics, Use and Interpretation, vol. second. London: Lawrence Erlbaum Associates Publishers, 2004. [70] G. Premkumar, «A Meta-Analysis of Research on Information Technology Implementation in Small Business», Journal of Organizational Computing and Electronic Commerce, vol. 13, No. 2, pp. 91-121, 2003. [77] J. Solana, Entrevista personal. Resultados del proyecto de Modelado de Redes de Empresas del Centre de Difusió Tecnológica de la Fusta i el Moble de Catalunya. 2009. [71] European Commission, «e-Business W@tch Survey 2007. Diseño y Metodología». 2008. [78] M. J. Núñez, Entrevista personal. Desarrollos TIC en el sector de la madera y el mueble en Valencia - AIDIMA. 2010. Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya Data Provenance Validation for the LAGO stations Sierra Negra and Chacaltaya Luis A. Núñez PhD. en Física, Profesor Emérito, Investigador Grupo GIRG, Escuela de Física, Facultad de Ciencias, Universidad Industrial de Santander UIS, Bucaramanga, Colombia, y Departamento de Física, Facultad de Ciencias, Universidad de los Andes, Mérida, Venezuela, e Investigador de la Colaboración LAGO. [email protected] Fernando Quiñónez PhD. en Física, Docente Tiempo Completo, Investigador Grupo SIGMMA, Facultad de Ingeniería Industrial, Universidad Santo Tomás USTA, Bucaramanga, Colombia, e Investigador de la Colaboración LAGO, Universidad Industrial de Santander, e Investigador de la Colaboración ATLAS, Pontificia Universidad Católica de Chile. [email protected] Christian Andrés Sarmiento Cano Físico, Universidad Industrial de Santander UIS, Estudiante de Maestría, Investigador Grupo GIRG, Escuela de Física, Facultad de Ciencias, Universidad Industrial de Santander UIS, Bucaramanga, Colombia, e Investigador de la Colaboración LAGO. [email protected] Resumen— Este trabajo muestra los resultados obtenidos luego de validar la calidad (linaje) de los datos registrados para la búsqueda de explosiones de rayos gamma en el marco de la colaboración LAGO. Para este propósito se analizaron las marcas de GPS en los datos recolectados por los detectores ubicados en las estaciones de Sierra Negra (México) y Chacaltaya (Bolivia). Durante esta validación se encontraron inconsistencias entre la frecuencia de detección esperada, y la frecuencia de detección registrada por el sistema de adquisición de los datos LAGO durante los años 2006 hasta el 2009 en Sierra Negra, y desde el 2008 hasta el 2011 en Chacaltaya. Luego se propone una solución para poder realizar el análisis de estos datos recolectados, se rescatan las partes que presentan la frecuencia de detección óptima, catalogándolos en listas de tipo ROOT-C++ que se han llamado “listas de buenos datos recolectados (GRDL)”. Se da una receta de uso de las GRDL para que los futuros investigadores puedan hacer análisis sobre los datos LAGO buenos. Finalmente, hacemos una búsqueda de explosiones de rayos gamma sobre los datos LAGO buenos, utilizado el método de los excesos. Palabras clave— LAGO: Large Aperture Gamma-RayBurst Observatory.GPS: Global Positioning System. GRDL: Good Recollected Data Lists. GRB: Gamma Ray Bursts. Abstract— Some results on the search of Gamma Ray Burst from the LAGO Collaboration are presented. These are obtained after validating the quality (provenance) of the data recorded at two LAGO installation (Sierra Negra (Mexico) andChacaltaya Bolivia). We analyze the GPS marks at data collected. During this validation process we have found inconsistencies between the expected detection rate and the one recorded by the acquisition system. This was found at SierranNegra in 2008 and at Chacaltaya from 2006 to 2009. Then, we propose an strategy to perform the analysis of the data collected in order to recover those parts with optimum detection frequency. Next, we label them in ROOT-C++ format as Good Run Data List (GRDL). In order to perform a more correct data analysis at LAGO repositories, a GRDL recipe is provided. Finally, do a search for gamma-ray bursts on the validated data, by using the method of the excesses. Keywords— LAGO: Large Aperture Gamma-Ray-Burst Observatory. GPS: Global Positioning System. GRDL: Good Recollected Data Lists. GRB: Gamma RayBursts. I. INTRODUCCIÓN Las explosiones de rayos gamma (GRB), provenientes del espacio exterior (galáctico y/o extragaláctico) están entre los fenómenos más energéticos del universo. Estas GRB fueron descubiertas en los años 60 por satélites militares estadounidenses encargados de rastrear actividad de posibles ensayos nucleares de sus Recibido: 27/02/2013/ Aceptado: 14/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112 Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento países enemigos. Las GRB llegan a al planeta Tierra como haces de fotones muy energéticos (E>1 keV) que ocurren pocas veces al día y en períodos muy cortos de tiempo (0,1s - 100 s). El modelo más aceptado para explicarlos, tiene su origen en la hipótesis de que son originados en explosiones estelares, ver [1],[2], y las referencias allí citadas. Hasta el día de hoy, el mayor aporte al conocimiento de las GRB ha provenido de observaciones de telescopios satelitales (HETE, INTEGRAL, Swift y GLAST, ahora Fermi Gamma-Ray Space Telescope). Al aumentar la energía de los fotones su flujo disminuye como una ley de potencias y las superficies que ofrecen los detectores satelitales se hacen imprácticas. Por ello, el espectro en energía de esos destellos se conoce bien a bajas energías, pero se tiene muy poca información sobre las regiones de altas energías (>1 GeV). Esto ha cambiado con la operación del Telescopio Espacial Fermi [3], pero aún así, los costos de las observaciones satelitales son aún elevados [4]. Para aumentar el área de registro se ha comenzado a instalar detectores terrestres. Estos observatorios complementan y refrendan la información obtenida por los satélites. Un ejemplo de ello puede verse en la observación simultánea de emisiones gamma en las galaxias M82 AND NGC 253 por el Telescopio Espacial Fermi y la colaboración HESS [5], [6], [7]. La llegada al detector de las cascadas de partículas de alta energía de eventos candidatos a GRB, provenientes desde dentro y fuera de nuestra galaxia, nos puede dar información sobre cómo está formado el universo mediante campos magnéticos galácticos, nubes gaseosas densas y agujeros negros, a los cuales se les conoce como aceleradores cósmicos. Para resolver el misterio de los orígenes de los GRB, se debe tener una capacidad de detección de fotones y neutrinos en tierra para poder resolver el rompecabezas de si el fotón viene de un electrón dispersado o desde el decaimiento de un pión[8], [9]. Es muy difícil detectar neutrinos que detectar fotones, en ese sentido, se empieza a atacar el problema de la determinación de los orígenes de los GRB, desde su lado más factible, i.e. detectar fotones. 105 Luego se quiere contar el número de fotones que llegan a los foto-multiplicadores contenidos en cada Detector Cherenkov de Agua (WCD) a lo largo de la serie del tiempo. En América hay dos macro iniciativas de observatorios gamma: el Observatorio Pierre Auger y el Proyecto HAWC (High-Altitude Water Cherenkov Observatory [10]). El Observatorio Pierre Auger[11], cuenta con 24 telescopios de fluorescencia UV y 1600 WCD que cubre una superficie de recolección de datos de 16000m2. Sin embargo, su ubicación a 1400msnm limita su eficiencia para la detección de los GRB más energéticos a causa de la absorción atmosférica [12]. El proyecto HAWC tendrá 300 WCD en total con 4 PMT/WCD que cubrirán un área de 12556m2, y estarán ubicados a una altura de 4100msnm, habrá un sistema de aislamiento óptico entre cada tanque para reducir la tasa de ruido entre tanques. Los tanques Cherenkov en HAWC son tanques de acero corrugado de 4m de alto y 7.3m de diámetro. Otra iniciativa de medir GRB en América Latina es la colaboración LAGO (Large Aperture Gamma-Ray-Burst Observatory). LAGO reúne científicos de Venezuela, Colombia, Ecuador, Perú, Bolivia, México, Guatemala y Argentina y apunta a instalar detectores de GRB en cada uno de estos países. La colaboración LAGO inició la toma de datos hacia el año 2006 en Sierra Negra (SN) y en 2008 en Chacaltaya (CHA). Durante este tiempo se han recolectado aproximadamente 2 TB de datos que corresponden a 1600 días de recolección entre las dos estaciones. El buen funcionamiento de los instrumentos de recolección es lo que garantiza la veracidad de los resultados que se puedan obtener luego de analizar los datos. Por lo tanto, se hace necesario revisar minuciosamente los datos y así validar la calidad de su linaje (o proveniencia). Para comprender la importancia del experimento LAGO en el estudio de fotones de alta energía es importante resaltar que un área efectiva de detección de 20m2 que opera en Chacaltaya a 5200msnm, es suficiente para equiparar la sensibilidad instrumental de la superficie del experimento Pierre Auger[13] con 16000m2, esto se puede observar en la Fig. 1. 106 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112 Fig.1. RELACIÓN ENTRE LA ALTURA Y EL ÁREA NECESARIA PARA LA DETECCIÓN DE FOTONES DE ALTA ENERGíA, COMO SE OBSERVA, 20M2 OPERANDO EN CHACALTAYA ES SUFICIENTE PARA EQUIPARAR LA SENSIBILIDAD INSTRUMENTAL DE LA SUPERFICIE DEL EXPERIMENTO PIERRE AUGER Fuente: Colaboración LAGO II. DATOS LAGO LAGO empieza a adquirir datos mediante sus dos detectores más antiguos SN y CHA en 2006 y 2009 respectivamente. En los principios de la colaboración, cada quien empezaba a analizar los datos creyendo, de manera inocente, que ellos estaban bien tomados. En algunos casos las personas encargadas de la adquisición de los datos, eran las mismas encargadas de analizarlos, luego ellos sabían que en conjunto de datos estaban defectuosos y, por ende, no los consideraban en sus análisis, ó corregían partes de los datos en sus análisis sin socializarlo con el resto de científicos de la colaboración. No quedaba registro para que otros miembros de la colaboración estuvieran conscientes de la deficiencia de los datos en algunos lapsos de tiempo. Más tarde al crecer la colaboración, se empezaron a sumar científicos a LAGO, muchos novatos y otros más especializados en analizar datos que en tomar experimentalmente los mismos. Antes de empezar a hacer algoritmos sofisticados de búsqueda de GRB, se han planteado las preguntas: ¿Estarán bien tomados estos datos? ¿Vamos a considerar los errores sistemáticos conservadoramente? Y fue hasta ese entonces en que seempezó a dar cuenta de ciertas inconsistencias que presentaban los datos. Los estudios realizados en [14] encontraron tres posibles candidatos a GRB en los datos tomados entre el año 2006 y 2009 en la estación de SN. Sin embargo, dejan claro que hasta entonces no se ha podido verificar (por métodos estadísticos) una detección de fotones de alta energía en superficie terrestre provenientes de GRB. Además, proponen estudios detallados para confirmar o descartar dicho hallazgo. A partir del 2010 comienza la instalación de la red de Repositorios LAGODATOS [15], [16], y [17]. Esta propuesta se basa en desarrollar una infraestructura repositorio de datos que utilicen DSpace. A este software de código abierto, se le han realizado adaptaciones con el fin de convertirlo en la herramienta capaz de preservar los datos de la colaboración. LAGODATOS funciona actualmente en un servidor principal en el nodo de la Universidad Industrial de Santander, el cual se encarga de catalogar y almacenar los datos adquiridos en cada nodo del sistema. Actualmente se tienen disponibles 14385 archivos de las instalaciones de Chacaltaya y Sierra Negra. El acceso a los datos y la posibilidad de incorporar algoritmos inteligentes para hallar posibles GRB en los datos registrados, más allá de emprender su búsqueda a través la identificación de excesos respecto a la media, ha impulsado a la comunidad a preguntarse sobre la calidad de los datos medidos en estas dos instalaciones. Garantizar la calidad y vigilar el linaje de los datos es indispensable para un experimento que involucra el registro distribuido e independiente de un volumen significativo de datos[18]. Este trabajo evalúa la calidad de los datos almacenados en el repositorio LAGODATOS e identifica cuáles segmentos de esos datos pueden ser analizados en la búsqueda de señales de GRB. El análisis iniciará por revisar la continuidad en la toma de datos por parte de las estaciones de Sierra Negra (SN) y Chacaltaya (CHA). Seguidamente, se seleccionará los archivos que cumplan con las condiciones mínimas para ser analizados y luego revisar el funcionamiento de la etiqueta de tiempo del GPS (Global Position System) que aparece en los datos tomados. Finalmente, se buscará excesos en la tasa de conteos de los datos mediante el método de los excesos, que será explicado en la Sección III. A continuación se describe la forma como se detecta la radiación, el instrumento utilizado, y la digitalización de los datos adquiridos por estas estaciones. Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento 107 A. Detector Cherenkov de Agua B. Digitalización de la Señal Los detectores Cherenkov de agua, WCD, usados en el proyecto LAGO son tanques con una geometría cilíndrica con un foto-multiplicador (PMT) en el centro de la tapa superior. Este instrumento contiene varios recubrimientos. El más exterior es opaco y es el encargado de aislar la luz visible. El más interno es de un material conocido como tyvek el cual es altamente difusivo y reflectante; lo que permite a las partículas que ingresan al tanque propagarse y rebotar hasta llegar al PMT, ver Fig. 2. La entrada de una partícula al tanque produce radiación tipo Cherenkov que es captada por el PMT el cual está conectado a una placa electrónica llamada LS, (Local Station). Esta placa está compuesta por una tarjeta madre principal o board y cinco pequeñas tarjetas interconectadas entre sí, ver Fig. 4. Fig.4. ESQUEMA DE LA ESTACIÓN LOCAL, LS, USADA POR LOS DETECTORES DE LAGO. LAS TARJETAS QUE COMPONEN EL DISPOSITIVOS SON LAS SIGUIENTES: CONTROLADOR LOCAL (CPU), MARCADOR DE TIEMPO (TG), ETHERNET (ETH), CONEXIONES ELECTRÓNICAS (FG) Y CONTROL LENTO (SC) Fig.2. ESQUEMA DE UN DETECTOR CHERENKOV DE AGUA. EL TRAZO AZUL REPRESENTA UN RAYO CÓSMICO QUE LLEGA AL TANQUE Y LOS AMARILLOS SON LAS POSIBLES TRAYECTORIAS DE LOS FOTONES GENERADOS POR RADIACIÓN CHERENKOV Tomado de [20] Fuente: Autores El PMT es un dispositivo de alta sensibilidad que usa el efecto fotoeléctrico para generar un flujo de corriente, en función de un número de fotones incidentes. Consta de un fotocátodo donde se producen electrones que se aceleran por una serie de electrodos, o dinodos, conectados a una serie de diferencias de potencial en cascada, ver Fig. 3. Estos electrones, al llegar al último dinodo, denominado ánodo, se convierten en un pulso de tensión[19]. Fig.3. ESQUEMA DE AMPLIFICACIÓN DE LA SEÑAL ENTRANTE EN UN PMT Fuente: Autores Los objetivos de este dispositivo son, por un lado controlar el PMT y, por el otro, adquirir, digitalizar, establecer el tiempo de exposición para la adquisición y enviar a un computador el conteo de señales producidas en el tanque. El proceso se realiza a una frecuencia de muestreo de 40Mhz y los histogramas son generados en función de la unidad de digitalización FADC, (Flash Analog-toDigital Converter) de 10 bits [19]. Finalmente, la LS permite dos protocolos de adquisición calib y DAQ. El calib genera dos histogramas uno tipo pico y otro tipo carga, a partir de un mínimo de energía o umbral deseado. Además, el DAQ produce conteos para cuatro umbrales de energía diferentes y se le asigna una etiqueta de tiempo (año, mes, día, hora) a cada archivo de pulsos registrados. Este último protocolo es el usado por SN y CHA. C. Caracterización de los Datos LAGO Para iniciar con la caracterización de los datos recolectados por LAGO, es necesario enumerar algunas especificaciones técnicas de CHA y SN. En el año 2006 se inició el montaje del arreglo de detectores en SN a 4650msnm, el cual contempló cuatro tanques de 4m2 de área efectiva. Los detectores ubicados en SN tienen instalados PMT de 5 pulgadas modelo EMI 9030A. Cada tanque, independiente de la altura, está lleno solo 108 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112 120cm para, de esta manera, asegurar el decaimiento del fotón en un par electrón - positrón en el tanque[21]. Los umbrales de energía usados para la generación de los datos dependen de las características del PMT, y en el caso de SN [14] son: Fig.5. ARCHIVO USUAL DE DATOS QUE RECOLECTA Y GENERA EN LA ESTACIÓN DE SN. COMO SE PUEDE APRECIAR EN ESTE EJEMPLO SE MUESTRAN 3 PMT CONECTADOS EN EL CANAL 1 (COLUMNAS 1 A 4), EN EL CANAL 2 (COLUMNAS 5 A 8) Y EN EL CANAL 5 (COLUMNAS 17 A 20). LAS COLUMNAS DONDE SE VEN CEROS, SON PORQUE ALLí NO HAY NADA CONECTADO 1) umbral 1: para partículas con energías 0≤E<15 MeV, 2) umbral 2: para partículas con energías 15≤E<150 MeV, 3) umbral 3: para partículas con energías 150≤E<600 MeV, 4) umbral 4: reservado para fallas de la electrónica. Por otro lado, la estación Chacaltaya a 5200msnm cuenta con tres tanques detectores, dos de 4m2 de área efectiva, y uno de 2m2, cada uno con un PMT de 8 pulgadas tipo 9353 KB. En este caso los umbrales de energía tienen los siguientes valores: 1) umbral 1: para partículas con energías 0≤E<5 MeV, 2) umbral 2: para partículas con energías 5≤E<10 MeV, 3) umbral 3: para partículas con energías 10≤E<50 MeV, 4) umbral 4: reservado para fallas de la electrónica. Un ejemplo de los datos recolectados en SN y generados por la LS se puede ver en la Fig. 5, donde se aprecian 25 columnas, 24 de ellas dedicadas a almacenar los conteos generados en los diferentes umbrales y la columna 25 destinada a la marca de tiempo o GPS (Global Position System). Es importante señalar que a la LS se le pueden conectar 3 PMT y cada uno de ellos en dos modos, alta y baja tensión. Además, cada conexión ocupa 4 columnas, que corresponden a los 4 umbrales de energía respectivos. En el caso específico de la estación de SN los 3 PMT están conectados por alta tensión, por lo cual en la Fig. 5 se observan 12 columnas con ceros. Por otra parte, aunque los datos recolectados en la estación de CHA son digitalizados por la misma LS las conexiones a ésta se distribuyeron de otra forma. En este caso, se encuentran conectados a la LS 3 PMT por alta tensión y uno de estos por baja tensión. Adicionalmente, se encuentra conectado por una de las entradas de baja tensión un detector de centelleo, la última entrada se encuentra desconectada por presencia de fallas. Finalmente, en estos datos se genera una línea cada 5m, es decir, 200 líneas/s, lo que da 720000 líneas/h. III. VALIDACIÓN DEL LINAJE DE LOS DATOS Y BÚSQUEDA DE GRB Aquí se muestra el análisis realizado sobre los datos descritos en la sección II. Se Inicia con la validación de los datos, posteriormente se describe el algoritmo usado para la búsqueda de GRB en los datos de la colaboración y finalmente se examina otra metodología que se podría usar en análisis futuros. Los fallos en la digitalización de los conteos se deben a la LS y son generados principalmente por perturbaciones electromagnéticas externas. Típicamente tormentas eléctricas, las cuales se observan como pulsos invertidos u oscilaciones en el voltaje. Como se observó, los datos tienen una columna destinada al tiempo la cual está dada por una marca de GPS que cambia cada segundo, como se había dicho antes, se toman datos cada 5 ms, entonces habrá 200 líneas donde debe aparecer la misma marca de GPS (una marcas/s). Luego de adquirir datos durante una hora se encuentran 3600 marcas/h, ver sección II. Por lo tanto, un archivo ideal debe contener 720000 líneas y tener 3600 marcas diferentes de GPS. Una forma de verificar que la digitalización de los datos se ha realizado correctamente es revisar este com- Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento portamiento. Un histograma de frecuencias de un archivo de comportamiento óptimo, es decir, con 720000 líneas, donde se genera una línea cada 5 ms, con 3600 marcas de GPS diferentes, que cambian cada 200 líneas, se puede ver en la Fig.6. Fig.6. HISTOGRAMA DE FRECUENCIAS DE LAS MARCAS DE GPS PRESENTES EN UN ARCHIVO IDEAL DE UNA HORA DE ADQUISICIÓN en esa determinada marca de GPS. Si se devuelve false continúa hacia la siguiente marca de GPS. La validación fue hecha sobre la totalidad de los datos de SN y CHA albergados en el repositorio de datos de la colaboración LAGODATOS. Dr obtuvo histogramas que dejaron ver el comportamiento anual de la adquisición de los datos y así, saber en cuáles regiones el análisis puede ser más fructífero. Luego de realizar dicho análisis se encontró que en la estación de SN los datos recolectados entre los años 2006 a 2008 (Fig. 7 a Fig. 9) y parte de 2009 (Fig.10) tienen una frecuencia de marcas entre 128 y 256 marcas/s, lo cual muestra que la adquisición no funcionó como se esperaba. Fig.7. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2006 Para dicho fin, se hizo un programa en ROOT/ C++ [22], [23], [24] que cuenta el número de repeticiones que tiene cada marca de GPS, si la frecuencia de la marca de GPS es igual a 200 Hz, entonces etiquetamos dicha línea y damos cuenta de ella en una lista de buenos datos recolectados GRDL. Estas GRDL son clases de C++ y se pueden ver en [25]. Para acceder a alguna de estas clases, por ejemplo, si el usuario quiere trabajar con la GRDL de SN del 2009, debe utilizar la clase de la siguiente forma: Fig.8. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2007 … //inside a for that iterates over each //acquisition of adetermined file. GRLSN2009 objeto(); if(objeto.HasGoodRecollectedDataList( “NombreDeArchivo.root”, gps) == true )DoAnalysis(); elsecontinue; } En el anterior ejemplo de código, se crea una instancia de la clase GRLSN2009 mediante el objeto al que se ha llamado objeto y luego se llama al método Has Good Recollected Data List que recibe dos argumentos, el primero es el nombre del archivo tipo root, y el segundo es la variable que da cuenta de la marca del GPS. Had Good Recollected Data List devuelve true si en esa marca de GPS existen 200 adquisiciones, de lo contrario devuelve false. Si se devuelve true la función DoAnalysis() es llamada, ésta es una función que contiene el análisis que se le quiere hacer a los datos 109 Fig.9. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2008 110 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112 Fig.10. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2009 aunque aún hay gran cantidad de frecuencias de marcas de GPS entre 0 y 200. Fig.13. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2010 Lo mismo sucedió en la estación de CHA en el año 2008 y parte de 2009 (Fig.11 y Fig.12). Se ve que hay marcas en todos los valores posibles entre 0 y 256, lo que es una clara muestra de irregularidad en la adquisición de los datos. Fig.14. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2011 Fig.11. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2008 Fig.15. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2012 Fig.12. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2009 Por otra parte, durante parte del 2009 en SN (Fig.10) y entre 2010 a 2012 (Fig.13-15) en Chacaltaya, gran parte de los datos muestran el comportamiento esperado, lo cual les da un factor de confiabilidad a estos datos al momento de realizar búsquedas de un fenómeno tan fino como los GRB. Como se observa el número de líneas que tiene un comportamiento irregular ha disminuido, Aquí se puede apreciar la verdadera importancia de las GRDL, ya que sólo tienen en cuenta los datos con frecuencia de 200 marcas/s, por lo tanto, el analizador que utilice estas GRDL va a poder implementar el mismo algoritmo sobre todos los segundos de adquisición de los datos de la colaboración LAGO y podrá asumir errores sistemáticos conservadoramente. Con estas GRDL se hizo una búsqueda preliminar con el método de los excesos [14], con este método se buscan regiones donde ocurren excesos, siendo este: Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento 111 AGRADECIMIENTOS Con ns igual al número de cuentas en un segundo, el promedio de todas las cuentas en una hora, y σh es la desviación estándar de las cuentas en una hora. Una cuenta es el número de destellos gamma en determinada conexión y en determinado umbral que mide el PMT. La idea es encontrar regiones de tiempo continuas en los datos en donde el exceso sea mayor o igual a 3.0. Luego de realizar nuestro análisis sobre las GRDL de todos los años en SN y en CHA, no se encontró ninguna adquisición (5 ms) con el exceso requerido, por lo tanto, no se encontró ningún candidato a GRB. En futuros análisis se podrían aplicar algoritmos más avanzados sobre las GRDL, entre ellos redes neuronales artificiales (ANN), árboles de decisión acelerada (BDT) y Matriz de co-ocurrencia, entre otros, para ello se necesitan variables cinemáticas sobre las cuales se puedan realizar cortes. También sería bueno hacer una revisión de los registros de GRB de los satélites de la NASA y calcular si estos GRB pueden llegar los detectores en tierra de LAGO. IV. CONCLUSIONES La importancia de esta revisión está dada por la necesidad de mejorar día a día la recolección de datos, pues en este caso son ellos los que validan o derogan algún hallazgo realizado con los WCD. Las GRDL que se crearon en este trabajo serán de gran utilidad para los futuros analizadores que quieran trabajar sobre los datos de la colaboración LAGO. Tal y como se mencionó arriba, no se encontraron señales que dieran cuenta de GRB en los datos analizados. La dificultad de encontrar este tipo de señales en observatorios terrestres ha sido reportada previamente. Se recalca la necesidad de tener GRDL de los nuevos datos que la colaboración LAGO vaya obteniendo. Sería excelente si se automatizara la validación de los datos, de manera tal que se supiera qué datos están buenos o malos, incluso antes de guardarlos en disco de manera permanente. Los autores agradecen el apoyo financiero de la Vicerrectoría de Investigación y Extensión de la Universidad Industrial de Santander a través del proyecto VIE5541. También agradecen al grupo GIRG por permitir usar el servidor Mac Pro Obatala. Fernando Quiñónez, agradece también a la Vicerrectoría Académica de la Universidad Industrial de Santander, por el soporte financiero al inicio del proyecto que generó este artículo, también agradece a la Universidad Santo Tomás por el apoyo financiero. REFERENCIAS [1] P. Sommers and S. Westerhoff, «Cosmic ray astronomy,» New Journal of Physics, vol. 11, nº 5, p. 055004, 2009. [2] F. Halzen, «The Search for the Sources of the Cosmic Rays One Century after their Discovery,» de Proceedings of XVI International Symposium on Very High Energy Cosmic Ray Interactions, Batavia, Il, USA, 2010. [3] http://www-glast.stanford.edu. [4] J. Hinton, «Ground-based gamma-ray astronomy with Cherenkov telescopes,» New Journal of Physics, p. 055005, 2009. [5] http://www.mpi-hd.mpg.de/hfm/HESS/. [6] Colaboración HESS, «Detection of Gamma Rays from a Starburst Galaxy,» Science, vol. 326, No. 5956, pp. 1080-108, 2009. [7] Colaboración Fermi, «Detection of Gamma Ray Emission from Starburst Galaxies M82 and NGC 253 with the Large Area Telescope on Fermi,» The Astrophysical Journal Letters, Vol. 709, No. 2, p. L152, 2010. [8] W. Baade and B. Zwicky, «On Super-Novae,» de Proceedings of the National and Academic Sciences of the USA, Washington, 1934. [9] W. Baade and F. Zwicky, «Remarks on Super-Novae and Cosmic Rays,» Physical Review, vol. 46, pp. 76-77, 1934. [10] http://hawc.umd.edu/. [11] http://www.auger.org. [12] P. Mantsch, «The Pierre Auger Observatory progress and first results,» de Proceedings 29th ICRC 2005 , Pune, India, 2006. [13] Colaboración LAGO, «The Large Aperture GRB Observatory,» ArXiv e-prints, p. 0906.0816, 2009. 112 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112 [14] Grajales, «Búsqueda de GRB en Sierra Negra,» de Facultad de Ciencias Físico Matemáticas. Benemérita Universidad Autónoma de Puebla, Puebla, México, 2010. [15] http://halley.uis.edu.co/LAGOVirtual/. [16] R. Camacho, R. Chacón, G. Díaz, C. Guada, V. Hamar, H. Hoeger, A. Melfo, L.A. Núñez, Y. Pérez, C. Quintero, M. Rosales y R. Torrens, «LAGOVirtual. A Collaborative Environment for the Large Aperture GRB Observatory,» de Proceedings of the Second EELA-2 Conference, Choroní, Venezuela, 2009. [17] [18] [19] L.A. Núñez, L. A. Torres, R. Torréns-Heeren, y E. Barrios-Hernandez, «Implementación de un Repositorio de Datos Científicos usando Dspace,» e-colabora http:// publicaciones.renata.edu.co/index.php/RCEC, vol. 1, pp. 101-117, 2011. L. Moreau, P. Groth, S. Miles, J. Vazquez-Salceda, J. Ibbotson, S. Jiang, S. Munroe, O. Rana, A. Schreiber, V. Tan, and L. Varga, «The provenance of electronic data,» Communications of the ACM, Vol. 51, No. 4, 2008. M. Suárez y L. Núñez, «Instalación de un detector Cherenkov de agua para la detección de trazas de rayos cósmicos a 956 metros sobre el nivel del mar,» de Escuela de Física, Univeridad Industrial de Santander, Bucaramanga, Colombia, 2011. [20] A. Velarde and R. Ticona and P. Miranda, «PROYECTO LAGO BOLIVIA,» Revista Boliviana de Física, vol. 15, nº 15, pp. 32-38, 2009. [21] P. Allison and others, «Observing muon decays in water Cherenkov detectors at the Pierre Auger Observatory,» de Proceedings of the 29th ICRC, Pune, India, 2005. [22] R. Brun and F. Rademakers, «ROOT: An object oriented data analysis framework,» Nuclear Instruments and Methods in physics research., vol. A389, pp. 81-86, 1997. [23] B. Stroustrup, The C++ Programming Language, Boston, MA, USA: Addison-Wesley Longman Publishing Co., Inc., 2000. [24] http://code.google.com/p/lago-grdl/source/browse/ #svn%2Ftrunk%2FGRDLGenerators. [25] https://sites.google.com/site/lagogrdl/. Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control Stochastic or Complex Dynamics with Missing Data: A Review on Control Amalia Dávila Gómez Esp. Docencia Investigativa, FUNLAM Docente TC, Investigadora Grupo TecnoeInfo, Fundación Universitaria Luis Amigó -FUNLAM, Medellín, Colombia [email protected] Alejandro Peña Palacio PhD en Ingeniería, UPB Docente TC, Investigador Grupo GIMSC, Escuela de Ingeniería de Antioquia Medellín, Colombia [email protected] Paula Andrea Ortiz Valencia MSc en Ingeniería Automática, UPB Docente TC, Facultad de Ingenierías, Investigador GAE, Instituto Tecnológico Metropolitano ITM, Medellín, Colombia. [email protected] Edilson Delgado Trejos PhD en Ingeniería LI Automática, Universidad Nacional de Colombia Investigador Lab. MIRP, Instituto Tecnológico Metropolitano ITM, Medellín, Colombia. [email protected] Resumen— El control de procesos con dinámica estocástica o compleja es exitoso siempre y cuando se pueda estimar un modelo que se ajuste bien al comportamiento, sin embargo, esta suposición pierde validez en aplicaciones donde la información del sistema es reducida o incompleta, muy comunes en ambientes reales de la industria. La literatura presenta diferentes esquemas de control, siendo los modelos neuro-difusos los que reportan mejor desempeño. Estos modelos conjugan la capacidad de adaptación que tienen las redes neuronales con la robustez de los motores de inferencia que tiene la lógica difusa, para modelar el conocimiento de expertos mediante reglas de aprendizaje, identificar dinámicas complejas y aumentar la adaptabilidad del sistema a perturbaciones que en la práctica tienden a ser de naturaleza estocástica sumado, a veces, que la información del sistema sea restringida. Este artículo presenta una revisión sobre dificultades y soluciones derivadas del control de sistemas estocásticos o complejos con información incompleta. Se revisan las estructuras de control cuando la dinámica del sistema presenta vaguedad en los datos, la evolución hacia técnicas adaptativas, y el desempeño de las redes neuro-difusas ante procesos estocásticos o complejos con incertidumbre en los datos. De forma preliminar se establece que el control de este tipo de sistemas debe estar compuesto por modelos híbridos soportados en rutinas de optimización y análisis probabilístico que garanticen el tratamiento de las incertidumbres sin afectar el desempeño de las estructuras de control y la consistencia en la precisión. Abstract— Control theory for processes with stochastic or complex dynamics has a successful performance as long as a model can be adjusted to the system behavior, although for real applications in the industry, where data can be reduced or incomplete, this statement may not be true. Different control schemes have been proposed and the literature reports promising results with neural fuzzy models. These models combine the adaptability of neural networks with the robust inference of fuzzy logic, in order to model expert knowledge by learning rules, identify complex dynamics and enhance the control adaptability when stochastic disturbances are present, which sometimes cause incomplete system data. This paper presents a review on the difficulties and solutions related to the control of stochastic or complex systems with incomplete data. This study, initially, discusses the control structures when the system data present notable uncertainty levels. Next, different adaptive control schemes are presented, and finally, nonlinear and stochastic control approaches based on neural fuzzy systems are reviewed. Thereby, in a preliminary way, this review establishes that a system under the conditions mentioned above should be controlled by hybrid models supported on probabilistic routines and optimization procedures in order to appropriately consider the stochastic disturbances and the uncertainty levels without reducing the control performance and yielding consistent accuracy. Palabras clave— Control adaptativo, sistemas estocásticos, redes neuronales, lógica difusa, modelos neurodifusos, información incompleta. Keywords— Adaptive control, stochastic systems, neural networks, fuzzy Logic, neuro-fuzzy models, incomplete system data. Recibido: 08/11/2012/ Aceptado: 31/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 114 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 I. INTRODUCCIÓN Los sistemas de control prestan una atención importante hacia los procesos dinámicos, aun a los que por razones particulares adoptan naturaleza estocástica, debido a que la mayoría de sistemas pueden entrar en episodios de comportamiento inesperado y no lineal [1]. Por ejemplo, en muchas industrias existen condiciones tan adversas que ocasionan altas pérdidas de información [2] y que los sistemas embebidos adquieran naturaleza estocástica [3]. En algunos casos, estos asuntos llegan a impedir la automatización de procesos que pueden involucrar alto riesgo para la salud de los operarios [4] o acciones que manualmente son difíciles de lograr con exactitud [5]. También puede ocurrir que el modelo del sistema en un momento dado no corresponda al inicial y esto ocasione fallas o variaciones no deseadas en los procesos [6]. En este sentido, la literatura reciente deja ver una progresiva tendencia hacia la inteligencia computacional, a través de modelos híbridos basados en redes neuronales [7] y lógica difusa [8] para la identificación autoajustable y el control multi-objetivo de procesos, a partir sólo de las entradas y las salidas del sistema [9]. Uno de los aspectos más atractivos y conocidos de los sistemas expertos es que evita la necesidad de rigurosos modelos matemáticos mediante una base de conocimiento que posee información de uno o más expertos en el área específica [10], de forma que expresiones analíticas muy complejas pueden ser remplazadas por descripciones lingüísticas auto explicadas en la estrategia de control [11]. Las nuevas tendencias sugieren combinar estratégicamente estas técnicas de inteligencia artificial con esquemas de control tradicionales [7], puesto que la industria actual necesita sistemas de control con memoria, capacidad de respuesta ante eventos inesperados, parámetros autoajustables y decisiones automáticas soportadas por bases de conocimiento dinámicas [12]. En este contexto, se ha incrementado el interés por los modelos neuro-difusos, y las principales razones son: a) el buen desempeño de las redes neuronales; b) la integración del conocimiento de expertos; y c) Las ventajas de extraer conocimiento a partir del conjunto de datos bajo el formato de reglas [13]. Así, los modelos difusos pueden ser adaptables o fijos [14] y se pueden combinar fácilmente con modelos bien conocidos de aprendiza- je neuronal que reportan buen desempeño, entre ellos: redes de mapas auto-organizativos (SOM), Redes de Hopfield y aprendizaje por cuantificación vectorial (LVQ) [9]. Una combinación neurodifusa que ha ganado popularidad es el Sistema de Inferencia Neuronal Difuso Adaptativo (ANFIS) [15], que por su sistema de inferencia provee un mecanismo intuitivo y de alto nivel para representar el conocimiento mediante relaciones difusas de aprendizaje [16]. Aunque es conocido el buen desempeño de los modelos neuronales, difusos y neuro-difusos en aplicaciones automáticas, se presentan fuertes restricciones cuando se requiere implementar la identificación y control en sistemas cuyas perturbaciones le inducen dinámica estocástica [17] y más cuando no se cuenta con todos los datos, dada la dificultad de observar y seguir todos los estados operacionales [18]. En este artículo se presenta una revisión sobre las dificultades y soluciones derivadas del control de sistemas estocásticos o complejos cuando la dinámica del proceso presenta vaguedad en los datos. Se busca principalmente determinar los campos que aún quedan abiertos en esta área del conocimiento, a fin de inquietar hacia nuevas investigaciones que logren soluciones fácilmente adoptables por el sector industrial. Este estudio se presenta en el marco del proyecto de investigación PM10204, financiado por el ITM de Medellín. II. SISTEMAS ESTOCÁSTICOS CON INFORMACIÓN INCOMPLETA: PERSPECTIVA DE CONTROL Los sistemas estocásticos tienen una dinámica regida por patrones de comportamiento que aparte de contener cambios inesperados son variantes en el tiempo [2]. Todas las estrategias de modelado y control para este tipo de sistemas hacen hincapié en el análisis de la incertidumbre, porque en la medida en que un sistema se vuelve más complejo, también se hace más difícil el gobierno de su dinámica, por el incremento de la incertidumbre de cada variable [18]. Es así como el error de medición acumulada, las interacciones inciertas entre los subsistemas, y demás aspectos que incrementan la incertidumbre de un sistema, dificultan las tareas de modelado y control de procesos que de forma global adoptan patrones de comportamiento estocástico [19]. Aunque las incertidumbres provienen de diferentes fuentes, usualmente comparten Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado características comunes, algunas son de naturaleza no lineal y otras de naturaleza estocástica [20]. Además, es frecuente que se involucren las siguientes causas: a) falta de claridad y conocimiento de los datos que surgen a partir del modelado y/o control, b) vaguedad en la transmisión y procesamiento de la información [18], c) vaguedad de los datos que proviene de la baja resolución de sensores o medición inapropiada [21], y d) la naturaleza estocástica del entorno que dificulta el análisis global del sistema [1]. En general, la teoría de control estocástico funciona bien siempre y cuando un modelo estocástico estándar esté disponible para ser ajustado, sin embargo, esta suposición puede no ser válida en aplicaciones de procesamiento con información reducida [22]. Así, la teoría general de control puede garantizar el rendimiento del sistema mediante la aplicación de un modelo matemático relativamente preciso de incertidumbre [23], pero limitaciones relacionadas al acceso completo de los datos hacen difícil la tarea en aplicaciones reales, donde las condiciones adversas pueden inducir patrones de comportamiento estocástico [18]. Numerosos métodos han surgido en los últimos años para el tratamiento de dinámicas de alta complejidad sobre modelos estocásticos. Por ejemplo, en [24] se propone un algoritmo híbrido inteligente de generación y asignación de espacios de probabilidad, donde luego de ser analizado el historial de los datos, se demuestra mediante ejemplos numéricos que el error no excede el 1.9% para diferentes configuraciones de parámetros del algoritmo, verificándose así su robustez y efectividad. Así también, el filtro de Kalman extendido, ampliamente usado para la estimación de ruidos aleatorios, en [25] es implementado exitosamente en aplicaciones de administración de energía dentro de un sistema de redes estocásticas, se obtienen errores de estimación del estado de la carga alrededor del 0.6%. Sin embargo, el rendimiento de este tipo de técnicas puede verse seriamente afectado frente a las limitaciones que producen las incertidumbres y la ausencia de datos, tales como: fallas numéricas, mala la calibración de los parámetros, vago seguimiento de la referencia real y alta sensibilidad a la incertidumbre de ganancia, información, estimación y escalamiento, según se describe en el estudio reportando en [21]. 115 Los sistemas de control difuso han demostrado su capacidad para manejar incertidumbres mediante el mapeo de datos inciertos a un dominio lingüístico, y la fácil integración con las bondades de la computación neuronal para mejorar su rendimiento [26], sin embargo, la expresión lingüística puede no ser suficiente para mantener adecuadamente el desempeño del control frente a perturbaciones que inducen naturaleza estocástica al sistema, de manera que métodos de inferencia difusa, como Mamdani y Takagi Sugeno (TS) [16], no siempre aseguran resultados favorables bajo entornos estocásticos con información incompleta [27]. En [26], se observa mediante simulaciones de Monte Carlo que la integración de rutinas probabilísticas, para el análisis de incertidumbre, permite reducir el error en el 50%. La perspectiva de control de los sistemas estocásticos con información incompleta cuenta con una variedad de métodos alternativos que han sido reportados en la literatura con buenos resultados de desempeño. Tal es el caso del Sistema Wavelet Probabilístico (PWS), presentado en [28], el cual se propone para modelar e identificar sistemas dinámicos desconocidos con naturaleza estocástica y datos incompletos. El PWS usa una función wavelet de 3 dominios que hace un balance entre probabilidad, tiempo y frecuencia, para lograr un esquema de modelado robusto cuando la información de los datos es pobre, pues supera al sistema wavelet (WS) tradicional en ambientes de dinámica estocástica y datos ruidosos. Los resultados para diferentes experimentos, se presentan en términos del error cuadrático medio (MSE) y se destaca que el error de identificación logrado con el PWS, oscila en la mitad del que se logra para el WS tradicional y es aún menor que el obtenido con una red neuronal de base radial (RBF). En particular, para uno de los experimentos, los resultados de MSE fueron: 71.48, 114.06 y 317.67 para PWS, WS y RBF, respectivamente. En [29] se propone una variación del teorema de Wonham para implementar un sistema de control óptimo por realimentación, considerado el problema de regulación estocástica para sistemas lineales con ruido dependiente de control y de estado. La validación sobre un sistema con información incompleta perturbado por ruido gaussiano arrojó mejores resultados que los obtenidos en sistemas con información completa. Desde otra perspecti- 116 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 va, el problema de las relaciones de preferencia difusa con información incompleta es estudiado en [30], con mínimos cuadrados para la toma de decisiones. Mediante la transformación entre la relación de preferencia multiplicativa y difusa, se desarrolló un modelo de mínimos cuadrados para obtener el vector de prioridad colectiva entre las relaciones de preferencia incompletas en máquinas de toma de decisión múltiple. A fin de comparar, se extendió el modelo a casos de preferencia difusa con información completa mediante máquinas de toma de decisión simple y múltiple, encontrándose que el método propuesto es factible y efectivo. Fig. 1. PERSPECTIVA DE CONTROL PARA SISTEMAS ESTOCÁSTICOS CON INFORMACIÓN INCOMPLETA Fuente: Autor del proyecto De acuerdo con la revisión presentada en esta sección, la Fig. 1 ilustra de manera general la perspectiva de control de sistemas estocásticos con información incompleta, donde aún quedan abiertas oportunidades de investigación al observar la importancia de analizar la incertidumbre inherente del proceso, o inducida por el entorno, mediante rutinas probabilísticas. Asimismo, la inclusión de un sistema de representación adaptativa (e.g., computación neuronal) y un dominio lingüístico amplio y suficiente que facilite el mapeo de datos inciertos. Desde el punto de vista de la aplicación, en términos de la viabilidad para ejecutar computacionalmente las técnicas, se resalta la necesidad de integrar los métodos de inteligencia computacional con procedimientos híbridos de representación y toma de decisiones en una plataforma conjunta, a fin de contrarrestar la ausencia de datos y la naturaleza estocástica de las interacciones de los subsistemas, al integrar además meta-algoritmos de optimización para disminuir el costo de cómputo. III. ESQUEMAS ADAPTATIVOS PARA EL CONTROL DE SISTEMAS COMPLEJOS La evolución de la teoría de control ha logrado el desarrollo de técnicas, tanto de identificación auto-regulable como adaptativas mediante herramientas de cómputo [31]. El concepto adaptativo surge cuando se incorporan a la máquina, de forma estructural, habilidades humanas para la toma de decisiones, y en este contexto, se diseña un controlador cuyos parámetros son ajustados continuamente frente a los cambios en la dinámica del proceso, de forma que puede ser de dos tipos: directo e indirecto [32]. La mayoría de los esquemas adaptativos de control se han aplicado como extensiones de la técnica convencional PID [33]. De forma que los procedimientos involucrados en la sintonización automática de cada uno de los parámetros del controlador hacen parte de las rutinas que convierten un esquema de control clásico en control adaptativo [34] y fueron desarrollados originalmente para resolver los inconvenientes surgidos en procesos complejos que tienden a cambiar sus condiciones operativas a través del tiempo y a veces de manera inesperada [35]. La Fig. 2 presenta una perspectiva general de control adaptativo para sistemas complejos como resultado de la revisión de este tema en la literatura que se presenta a continuación. La literatura reporta diferentes esquemas de control adaptativo para sistemas dinámicos complejos que consideran el enfoque desde la inteligencia computacional. Un estudio presentado en [36] propone ajustar el modelo de referencia de un controlador descentralizado mediante rutinas adaptativas y modos deslizantes aplicados a un sistema MIMO no lineal. Este diseño toma en cuenta la capacidad de aproximación universal que tienen los sistemas borrosos Takagi - Sugeno (TS). 117 Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado Fig. 2. PERSPECTIVA DE CONTROL ADAPTATIVO PARA SISTEMAS COMPLEJOS TABLA I. DESEMPEÑO DE UN CONTROLADOR CLÁSICO Y MODERNO Controlador PID RLS-SM difuso MSE 0.798 0.0026 Fuente: Basado en el estudio presentado en [37] Fuente: Autor del proyecto De manera experimental, se presenta la ventaja de no requerir conocimiento previo del límite superior del término de incertidumbre y, de forma analítica, el sistema de control difuso en lazo cerrado demuestra ser globalmente estable en el sentido de que todas las señales implicadas están delimitadas con errores de seguimiento que convergen a cero. De igual manera, en [37] se presenta el diseño de un controlador basado en Lógica Difusa Adaptativa (AFL) y Modos Deslizantes (SM), el cual es entrenado con la técnica de Mínimos Cuadrados Recursivos (RLS). El problema de la variación de parámetros es resuelto con el controlador adaptativo y se utiliza un regulador interno PI para lograr que el control de velocidad de un motor de inducción, con un torque de carga de 5 Nm, sea realizado por medio de las corrientes de estator y no mediante la variación de los voltajes. Adicionalmente, se usó el modelo del motor en las coordenadas de flujo orientado del rotor para comprobar la eficiencia del controlador, así como el error cuadrático medio (MSE) para comparar el desempeño entre un controlador PID convencional y el controlador difuso RLS-SM. Los resultados obtenidos se muestran en la Tabla I. Es importante anotar que los esquemas adaptativos también han experimentado progresos importantes en el procesamiento de señales derivadas de sistemas complejos como los fisiológicos (señales electrocardiográficas y los potenciales evocados cerebrales, entre otros) y en aplicaciones a sistemas de telecomunicaciones [38]. Sin embargo, las aplicaciones sobre procedimientos autoajustables para estrategias de control de sistemas dinámicos complejos cada vez son más frecuentes, aun cuando las perturbaciones pueden llegar a adoptar naturaleza estocástica [39]. En [40] se presenta un estudio desde dos perspectivas de adaptación para estrategias de control con varianza mínima generalizada de dos grados de libertad (GMV2DOF). El primero es desde el modelo del proceso, donde se utiliza un estimador de mínimos cuadrados con algoritmos recursivos para el diseño del autoajuste directo; y el segundo utiliza una técnica difusa Mamdani para la programación de parámetros GMV2DOF basada en interpretaciones analíticas y físicas de la robustez del sistema. Se demostró que existen ventajas con la programación difusa cuando se requiere adaptar el sistema de control a procesos complejos desconocidos. En otro estudio expuesto en [41], se diseña un controlador adaptativo difuso soportado en la técnica backstepping para el control de temperatura de una clase de reactores con tanque agitado continuo (CSTRs), los cuales son sistemas fuertemente inestables. Se utiliza la lógica difusa para estimar las condiciones de concentración dependientes y otros parámetros del sistema que tienen alto nivel de incertidumbre. Los resultados muestran que el sistema controlado en lazo cerrado se lleva a un estado de operación asintóticamente estable y el error de aproximación por perturbación externa es mínimo. Un trabajo inspirado por la alta complejidad embebida en los datos de carga eléctrica es descrito en [42], donde se presenta una combinación de esquemas difusos adaptativos, redes de mapas auto-organizativos (SOM), también llamadas 118 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 redes de Kohonen, y sistemas de regresión por vectores de soporte (SVR), con el fin de obtener simultáneamente altos niveles de precisión e interpretabilidad en la predicción de la carga eléctrica. El éxito de este modelo consistió en la inclusión de una base comprensible de conocimiento humano, y la construcción de una función de pertenencia difusa homogénea para cada subgrupo. Adicionalmente, se mostró una comparación con diferentes modelos matemáticos y se probó la eficiencia del desempeño con datos reales, donde los resultados confirmaron la validez del método propuesto. Desde hace tres décadas, se ha tenido reporte del buen impacto en procesos industriales de los Sistemas Auto-Ajustables (SAA) y Sistemas Adaptativos con Modelo de Referencia (SAMR) [43]. Los SAA fueron propuestos conceptualmente en [44], y establecidos experimentalmente en [45], donde el autoajuste se basa en el conocimiento del modelo para adaptarse a los cambios mediante procedimientos recursivos asociados a los parámetros del proceso. Sin embargo, el principal inconveniente es que la estabilidad no puede ser asegurada de manera global. En los últimos años, esta técnica ha sido combinada con otros métodos de identificación basados en mínimos cuadrados recursivos (RLS), obteniéndose notables niveles de desempeño en términos de precisión, sensibilidad y tiempo de autoajuste ante procesos estacionarios, dinámicas con cambios abruptos y seguimiento de referencias móviles [46]. En la Tabla II se observa la comparación entre los tiempos de ejecución bajo las mismas condiciones de cómputo para los métodos RLS, RLS no lineal (NLRLS) y RLS de sensibilidad reducida (RS-RLS). TABLA II. TIEMPOS DE EJECUCIÓN PARA RLS, NL-RLS Y RS-RLS Escenario/Tiempo (ms) Estacionario RLS NL-RLS RS-RLS 18.9 14.5 25.4 Cambios abruptos 19.6 15.2 26.2 Referencias móviles 22.5 17.5 28.1 Fuente: Basado en el estudio presentado en [46] De manera alternativa, los SAMR se basan en que el comportamiento del proceso sea idéntico a un modelo de referencia. Así, cuando existe una diferencia entre la entrada y la salida, el mecanismo de adaptación intenta minimizarla con el ajuste de los parámetros del regulador, tal y como se propone en [47], permitiendo que el sistema responda de forma apropiada ante perturbaciones inesperadas variables en el tiempo. En el contexto de sistemas complejos, la literatura reporta numerosos trabajos basados en técnicas SAA y SAMR, mediante estructuras híbridas con rutinas modernas de inteligencia computacional, donde se reportan soluciones promisorias para el control de sistemas no lineales inestables, en ambientes que además inducen apreciables niveles de incertidumbre [33], [48]. Por su parte, los esquemas de Control Adaptivo de Modelo Múltiple (MMAC) han ganado un buen lugar de preferencia en aplicaciones sobre procesos complejos. La teoría de MMAC establece que un sistema complejo desconocido puede llegar a ser la combinación de un conjunto finito de sistemas lineales invariantes en el tiempo, de manera que el ajuste a las respuestas no lineales del sistema real podría lograrse mediante la inclusión de un modelo de incertidumbre acotado, aditivo o multiplicativo. En [49] se presenta un estudio donde se analizan esquemas MMAC y se establece que si el número de modelos es suficientemente grande y está uniformemente distribuido en el espacio de parámetros, el método ofrece una respuesta rápida y precisa. Asimismo, diferentes procedimientos son propuestos para lograr buenos resultados usando un número de modelos significativamente pequeño. Sin embargo, las aplicaciones reales en la industria, donde los sistemas dinámicos tienden a ser considerablemente complejos, exigen que el número de modelos se incremente si se quiere sostener un desempeño favorable en términos de identificación y control del proceso. De acuerdo con la revisión de los trabajos mencionados en esta sección y desde el punto de vista de la aplicación orientada a la viabilidad para ejecutar computacionalmente las técnicas, es importante resaltar que los sistemas complejos, por sus características dinámicas, requieren ser controlados mediante esquemas adaptativos que dependen fuertemente de la eficiencia de las técnicas de autoajuste que optimizan los parámetros del controlador. Esta es la razón por la que muchos de los esfuerzos reportados en la literatura reciente, se concentran en la obtención de rutinas de optimización que ofrezcan una convergencia de autoajuste cada vez más rápida, consistente y de mínimo costo operacional y computacional, Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado pues buscan máximo rendimiento en términos de precisión y sensibilidad, para su aplicación en tiempo real. IV. MODELOS NEURO-DIFUSOS PARA EL CONTROL DE SISTEMAS COMPLEJOS CON INCERTIDUMBRE Ya es bien conocido en la literatura que las redes neuronales, debido a la capacidad de adaptación de sus elementos procesales (i.e., neuronas), están dotadas de una dinámica que constantemente cambia para ajustarse a nuevas condiciones, mediante procedimientos basados en iteraciones que conforman la etapa de entrenamiento [9], [7]. Se han propuesto diferentes modelos híbridos que combinan las fortalezas de las redes neuronales y la lógica difusa (i.e., modelos neurodifusos) para el control de sistemas complejos que incluyen apreciables niveles de incertidumbre, debido a la facilidad que tienen para combinar el razonamiento difuso con el manejo de información incierta [50], [51]. Es, por tanto, que los modelos neuro-difusos son entendidos en la literatura como una herramienta potente que posee los méritos de bajo nivel para el aprendizaje, junto a la potencia de cálculo de las redes neuronales, además del pensamiento de alto nivel, similar al humano, que ofrece el razonamiento lógico de las técnicas difusas [52]. En orden de controlar sistema complejos cuando existen niveles de incertidumbre en los parámetros de operación, en [53] se propone un esquema de control neuronal difuso adaptativo por modos deslizantes enriquecido con rutinas auto-organizativas. En este esquema, la fase de entrenamiento estructural posee la habilidad de generar y eliminar en línea las reglas difusas requeridas para lograr la estructura neuronal óptima, y la fase de entrenamiento paramétrico ajusta los pesos de interconexión de la red neuronal a fin de lograr un desempeño de aproximación favorable. El entrenamiento paramétrico es basado en funciones de Lyapunov, de forma que se pueda garantizar la estabilidad del sistema. De manera similar, en [54] se aborda el diseño y análisis de un sistema de control adaptativo neuro-difuso robusto para la sincronización de sistemas caóticos con incertidumbre. El sistema propuesto se compone de una etapa de identificación lograda por una red neuro-difusa (NFN) de cuatro capas y un 119 controlador supervisado que concentra su esfuerzo en atenuar los efectos del error de aproximación. El identificador NFN es también el regulador principal utilizado para la valoración en línea de las incertidumbres compuestas. Este estudio resuelve los problemas relacionados con la convergencia de la red y la estabilidad de la sincronización adaptativa mediante el método directo de Lyapunov, bajo la suposición de que el estado del sistema principal genera las trayectorias de referencia, a pesar de la incertidumbre que se embebe en la dinámica operativa del sistema. Otros estudios se concentran en una de las tareas más exigentes que tiene la ingeniería de control, relacionada con el diseño efectivo de controladores robustos en tiempo real para sistemas complejos de múltiples entradas y múltiples salidas (MIMO), especialmente cuando se requieren mecanismos de reacción rápida frente a perturbaciones externas fuertes con altos niveles de incertidumbre. En la Fig. 3, se ilustra el enfoque presentado en [55], donde se propone un esquema de control neurodifuso adaptativo (AFNC) basado en un algoritmo de aprendizaje genético con redes neuro-difusas (G-FNN) para la identificación y control de un sistema MIMO no lineal. Fig. 3. ESTRUCTURA DE CONTROL NEURO-DIFUSA PARA SISTEMAS COMPLEJOS CON INCERTIDUMBRE Fuente: Basado en el estudio presentado en [55] El controlador de la Fig. 3 cuenta con las siguientes características: a) estructura neuronal difusa auto-organizativa, i.e., las reglas pueden ser generadas o borradas de manera automática; b) capacidad de aprendizaje en línea para aplicaciones sobre sistemas MIMO no lineales con incertidumbre; c) velocidad de aprendizaje rápida; d) control adaptativo; e) control robusto con estabilidad global establecida según el método de Lyapunov. Este estudio concluyó que los mo- 120 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 delos neuro-difusos adaptativos ofrecen una tasa de convergencia rápida y demuestran capacidad suficiente para manejar los errores de modelado y perturbaciones externas en sistemas no lineales con incertidumbre. De manera complementaria, en [56] se toma el mismo enfoque de la estructura mostrada en la Fig. 3, pero en este caso se consideran los sistemas complejos de una entrada y una salida (SISO) con incertidumbre, y se propone la implementación de un controlador difuso adaptativo por modos deslizantes (AFSMC). El procedimiento basado en lógica difusa se usa para aproximar la función del sistema complejo desconocido y el algoritmo AFSMC se diseña para usarse como técnica de control. De acuerdo con la teoría de Lyapunov, se establece una función continua para eliminar la acción del ruido de la señal de control. La simplicidad de este método facilita su implementación y, en general, el esquema de control garantiza la estabilidad asintótica global si todas las señales son uniformemente acotadas. Los resultados de este estudio dejan ver que el AFSMC supera notablemente en términos de rendimiento al controlador por modos deslizantes tradicional. Otro estudio reportado en [57], presenta el esquema de un control difuso de estructura variable por modos deslizantes con el objetivo de regular la velocidad de un motor en las unidades de un filtro de ventilación, el cual se caracteriza por su alta no linealidad, variabilidad en el tiempo y naturaleza multivariable compleja. Los resultados de este estudio muestran el buen desempeño del esquema propuesto de control a este tipo de sistemas en términos de robustez en la estabilidad lograda, como en los apropiados márgenes conseguidos en la respuesta transitoria. En [58], otro estudio analiza la viabilidad de los controladores basados en Sistemas de Inferencia Neuro-Difusa Adaptativa (ANFIS) para el control de sistemas complejos con incertidumbre, y han encontrado que estos sistemas tienen la capacidad de dividir los datos en grupos para incrementar el nivel de adhesión a ellos y producir mayor poder de adaptación, velocidades de respuesta más rápidas, y una mayor precisión y robustez ante perturbaciones inesperadas. Adicionalmente a esto, la literatura reporta numerosos estudios que proponen derivaciones o extensiones de la estructura de control presentada en la Fig. 3, donde se destaca la forma en que los modelos neuro-difusos son potenciados con el poder de optimización que tienen los algoritmos genéticos [59]. En [60], por ejemplo, se presenta la integración de un Algoritmo Genético de forma Reducida (RGA) con un Controlador Neuro-difuso de Adaptación Indirecta, en un sólo algoritmo denominado RIAFC y aplicado a sistemas complejos con incertidumbre. Se incluye una función de ajuste en el RGA para sintonizar los parámetros en línea y evaluar la estabilidad del sistema en lazo cerrado, además de incorporarse un controlador supervisado en el RIAFC para garantizar que los estados del sistema sean limitados a la región estable. Los resultados confirman la factibilidad y aplicabilidad del método propuesto en aplicaciones reales, como la ventaja de incluir mecanismos de optimización tan potentes como son los algoritmos genéticos. De acuerdo con los estudios revisados en esta sección, numerosas aplicaciones de control han sido propuestas mediante modelos neuro-difusos en sistemas complejos con incertidumbre para obtener diferentes grados de eficiencia. Como un primer aspecto, es importante mencionar que respecto a otras técnicas de control, las ventajas de los modelos neuro-difusos son evidentes si se considera que ya no es requerida la obtención precisa de modelos matemáticos del proceso, además de contar con la posibilidad de incluir el conocimiento de expertos en la ley de control [61]. Un segundo aspecto a considerar tiene que ver con las dificultades que tienen los modelos neurodifusos para lograr el autoajuste adecuado de sus parámetros, puesto que los procedimientos de auto-sintonización aún reportan problemas para la inicialización de los parámetros de operación, o en algunos casos, la velocidad de aprendizaje y adaptación es muy lenta en relación con la velocidad del proceso a controlar. Visto de una manera general, se puede decir que el mal ajuste de los parámetros puede reducir la flexibilidad y la capacidad de procesamiento numérico del controlador, convirtiendo el sistema en ineficiente o redundante. En particular, si los parámetros relacionados con el número de capas ocultas o el número de reglas difusas son muy grandes, se vuelve prohibitiva la implementación del sistema en tiempo real, por lo que no habría ningún interés desde la industria para este tipo de soluciones. Como tercer y último aspecto de esta sección, es importante notar la resaltable capacidad que tienen los modelos neuro-difusos para capturar la dinámica Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado directa e inversa de los procesos complejos, con incertidumbres y variantes en el tiempo; además de demostrar alta versatilidad y robustez para las operaciones de control. Sin embargo, desde el punto de vista de la aplicación orientada a la viabilidad de cómputo para ejecutar las técnicas, no siempre es fácil recolectar la suficiente información de un sistema complejo con incertidumbres, para la fase de entrenamiento de las redes, desde el mismo lugar de operación cuando el ambiente industrial es adverso, además de la dificultad asociada a la complejidad de procesamiento que exige contener en un conjunto reducido de expresiones lingüísticas todas las variaciones posibles de un proceso real. Por esto el diseño de estrategias para entrenar efectivamente sistemas neurodifusos con conjuntos reducidos y no balanceados de datos, es un campo que sigue abierto en la literatura. V. MODELOS NEURO-DIFUSOS PARA SISTEMAS ESTOCÁSTICOS CON INFORMACIÓN INCOMPLETA Las redes neuronales han sido usadas para un gran número de aplicaciones en control de sistemas que presentan respuesta estocástica cuando son sometidos a determinadas condiciones de entrada, y muchas de esas aplicaciones dependen de la estabilidad de la misma red [62], [63], [64], [65]. Tomado en cuenta que los sistemas reales son generalmente afectados por una cantidad considerable de perturbaciones externas, es muy importante tomar en cuenta los efectos estocásticos para asegurar las condiciones de estabilidad de las redes neuronales, incluido los efectos de retardo por transmisión [66], [67]. De otra parte, los sistemas de control automático han recibido contribuciones importantes de procedimientos basados en modelos difusos, los cuales tienen como objetivo alcanzar mejores niveles de precisión, dimensionalidad y simplicidad en la estructura de los sistemas no lineales. Comparado con los modelos matemáticos convencionales, la ventaja de los modelos difusos consiste en tener la posibilidad de construirlos con el mínimo esfuerzo matemático derivado del sistema, además de la capacidad que tienen para aproximarse a una clase amplia de sistemas no lineales [16]. Como se ha comentado en secciones anteriores de esta revisión, el concepto de incorporar lógica difusa 121 dentro de una red neuronal ha crecido y se ha popularizado en los temas de investigación por su buen desempeño y amplio rango de aplicabilidad [68], [69], [70]. Sin embargo, se ha demostrado que ciertas perturbaciones estocásticas (e.g., del tipo de Ornstein-Uhlenbeck con reversión a la media) podrían desestabilizar este tipo de redes [20], por lo que se ha propuesto analizar las propiedades de pasividad del sistema en orden de determinar los márgenes de estabilidad [71], [72]. La presencia de factores inevitables, como es el error de modelado, aparición inesperada de perturbaciones externas y la fluctuación de parámetros durante la implementación física, inducen a las redes neuronales incertidumbres y variaciones en los componentes, que afectan considerablemente la pasividad del sistema completo. En este sentido, con el fin de analizar la incertidumbre que puede llegar a ser inducida en una red neuronal, se han propuesto procedimientos simples que consisten en asumir parámetros en ciertos intervalos [73], [74]. Es importante resaltar que la teoría de pasividad fue originada del análisis de circuitos y se ha convertido en una herramienta útil para analizar la estabilidad de los sistemas [75]. El análisis de pasividad de los modelos de control neuro-difuso ha sido ampliamente discutido en varios trabajos de la literatura [76], [77], [78]. La extensión de este análisis para aplicaciones que involucran ausencia de información o incertidumbres en las variables estocásticas con retrasos es estudiado en [79], donde dichas incertidumbres se asumen acotadas en conjuntos compactos dados y las redes neuro-difusas usan una función de activación generalizada que descarta presunciones de acotamiento, monotonía y diferenciabilidad. Se propone la construcción de un funcional LyapunovKrasovskii propio y la combinación del método de la matriz libremente ponderada con técnicas de análisis estocástico, en orden de obtener nuevas condiciones de pasividad dependiente de los retardos y en función de desigualdades matriciales lineales (LMIs), lo cual puede ser resuelto mediante paquetes numéricos estándar. Los resultados reportan que una red neuronal difusa estocástica con incertidumbres satisface la condición de pasividad dependiente de retardos robustamente hasta una cota superior permitida de τ= 0.9897, la cual es menos conservativa que otras reportadas en la literatura. Un estudio presentado en [80] discute el tratamiento de la estabilidad glo- 122 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 bal y exponencial de la incertidumbre estocástica mediante modelos neuro-difusos Takagi-Sugeno, donde se explota el poder que tienen las redes para representar los modelos variantes en el tiempo y a partir del enfoque Lyapunov-Krasovskii se obtienen las condiciones de estabilidad. También se incluyen técnicas basadas en LMIs para demostrar la exactitud de los resultados teóricos. Este estudio deja abierto el caso de múltiples variables con tiempo de retardo, incluido tanto los retrasos discretos y distribuidos, como los efectos ocasionados en términos de estabilidad. En [81] se aplican modelos neuro-difusos a cadenas de suministro inmersas en un ambiente estocástico, donde a pesar que la información es reducida o algunas veces incompleta, se logra un pronóstico realista en relación con los costos y presupuestos, así como el menor número de suministro de la cadena de valor respecto a la demanda. Este método ofrece resultados que sugieren su aplicación a casos reales y aun puede ampliarse para la consideración de múltiples productos con más canales de información o considerarse un mayor número de variables por aproximaciones neurodifusas para lograr mayor fidelidad en el modelo. Otro estudio se presenta en [82], donde se implementa un método denominado Red Neuronal Difusa Estocástica (SFNN), el cual está formado por un algoritmo genético a fin de obtener soluciones al problema de la relación entre la cantidad y la calidad del agua en un depósito, dado que no existen muchas técnicas para este tipo de optimización y se presentan limitaciones en relación al acceso completo de la información, promoviendo otra cantidad de limitaciones operativas. El modelo propuesto fue probado para diferentes funciones recursivas y la optimización fue llevada a cabo usando 6 diferentes SFNN, lo cual permitió mejoras potenciales en la calidad del agua a través de medios de control hidráulico. Esta técnica basada en SFNN ya había sido propuesta en [83], donde fue definida como un modelo neuro-difuso entrenado estocásticamente, que puede alcanzar soluciones “quasi” óptimas, e intenta superar los inconvenientes involucrados en el trabajo con los modelos de programación dinámica estocástica. Las incertidumbres inducidas por la información incompleta son tratadas mediante la probabilidad condicional de los eventos difusos. Los resultados mostraron la viabilidad del uso de las SFNN y las bondades que ofrecen en términos de optimiza- ción. Finalmente, en esta revisión vale la pena destacar el buen desempeño que ofrecen las redes ANFIS con análisis de frontera estocástica (ANFIS-SFA), las cuales son recomendadas para aplicaciones reales donde están involucrados problemas de complejidad, ambigüedad, vaguedad en los datos, dinámica estocástica y componentes difusas, que con frecuencia dificultan los procesos de control. Un estudio reportado en [84], presenta una adaptación del método ANFIS-SFA para el análisis del comportamiento y predicción del consumo de gas natural a largo plazo. Se entrenan los datos con ANFIS, mediante seis modelos distintos basados en diferentes entradas y se comparan los modelos con respecto a la media del error absoluto porcentual. Se usa un modelo auto-regresivo para proyectar el Producto Interno Bruto (PIB) y la población para el período 20082015. Estos datos proyectados se utilizan como entrada del modelo ANFIS y el SFA se usa para examinar el comportamiento del consumo de gas en años anteriores y establecer tendencias para los años próximos. En este estudio se resalta el enfoque ANFIS-SFA, el cual demuestra su capacidad para manejar la complejidad, la incertidumbre y el azar en un sistema estocástico. Los sistemas reales obedecen a una dinámica multivariada e interactuante, que fácilmente es influenciada, perturbada o integrada por incertidumbres de diversas clases, las cuales inducen naturaleza estocástica al proceso global y algunas veces llegan a afectar la completitud de los datos. De acuerdo con la revisión presentada en esta sección, los modelos neuro-difusos cuentan con las características dinámicas suficientes para superar los inconvenientes inherentes a la dinámica estocástica de los sistemas que además no cuentan con información completa de sus variables de proceso. En general, los modelos neurodifusos ofrecen una gran flexibilidad para optimizar diferentes tipos de funciones recursivas, dado que las reglas de decisión difusa y los parámetros de relación entre ellas pueden tomarse desde una gama amplia de posibilidades. Adicionalmente, la literatura reporta numerosas formas en que estos modelos pueden ser potenciados al integrar otros esquemas derivados del análisis estadístico, evolutivo o de la teoría de información. La Fig. 4 presenta el esquema de un modelo de inferencia neuro-difuso, el cual permite intuir ventajas rela- Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado cionadas con el enorme potencial en aplicaciones de control estocástico para sistemas con información incompleta. Entre las principales ventajas, se pueden destacar la adaptabilidad, flexibilidad, robustez y facilidad matemática, en tareas que exijan el desarrollo de soluciones en el marco de una fácil implementación. Sin embargo, desde el punto de vista de la aplicación orientada a la viabilidad para ejecutar computacionalmente las técnicas quedan muchos campos abiertos en la literatura, en relación con la optimización de la topología del modelo o del mismo proceso de entrenamiento. Fig. 4. MODELO DE INFERENCIA NEURO-DIFUSO Fuente: Basado en el estudio presentado en [84] VI. CONCLUSIONES Y RECOMENDACIONES En la práctica se ha vuelto frecuente encontrar sistemas cuyo entorno de operación induce fuertes perturbaciones de naturaleza compleja o estocástica, donde resulta afectada de manera considerable la observabilidad de todos los estados. En este artículo se presenta una revisión sobre el control de sistemas estocásticos o complejos con información incompleta, donde se destaca la necesidad de crear nuevos modelos que permitan mejorar el manejo de la incertidumbre cuando los datos son reducidos o incompletos. De acuerdo con las tendencias de la literatura en sistemas de control, este tipo de sistemas puede soportarse en las bondades que ofrecen las redes neurodifusas, en orden de asegurar el seguimiento de dinámicas pre-establecidas, dada la robustez que aportan los motores de inferencia difusa y la ca- 123 pacidad de adaptación que tienen las redes neuronales. En este sentido, se resaltó la tendencia actual de integrar en una plataforma conjunta los métodos de inteligencia computacional, con procedimientos híbridos de representación, optimización y toma de decisiones, a fin de contrarrestar la ausencia de datos y la naturaleza estocástica de las interacciones de los subsistemas. Aunque desde el punto de vista de la aplicación, se resaltan dificultades importantes relacionadas con la complejidad de procesamiento, donde se abren nuevas oportunidades de investigación orientadas a obtener mayor viabilidad de cómputo para la ejecución de las técnicas. La revisión sobre esquemas adaptativos de control para sistemas complejos identificó que la mayoría de las técnicas son en alguna medida derivaciones o extensiones del esquema de control convencional PID, donde predominan las aplicaciones híbridas por modos deslizantes. Debido a que estos esquemas dependen fuertemente de la eficiencia de las técnicas de autoajuste, las cuales optimizan los parámetros del controlador, se percibe la necesidad de aumentar los esfuerzos investigativos enfocados al mejoramiento de estas técnicas, buscando facilidades de implementación en tiempo real sin comprometer los niveles de precisión y robustez. La revisión presentada sobre modelos neurodifusos permitió resaltar su capacidad para capturar la dinámica directa e inversa de procesos complejos, con incertidumbres y variantes en el tiempo; además de demostrar alta versatilidad y robustez para diversas aplicaciones de control. También se detectaron las dificultades que tienen estos modelos para lograr el autoajuste óptimo de sus parámetros, puesto que los procedimientos de auto-sintonización siguen reportando problemas respecto a criterios adecuados de inicialización. Este inconveniente algunas veces provoca que la velocidad de aprendizaje y adaptación sea muy lenta en relación con la velocidad del proceso a controlar. Al enfocar la revisión de los modelos neurodifusos hacia sistemas estocásticos con información incompleta, se destaca la facilidad con que estos modelos pueden ser altamente potenciados a partir de la integración con otros esquemas de procesamiento, e.g., para aprovechar las ventajas que ofrece el análisis estadístico, evolutivo o la 124 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 teoría de información, a fin de estructurar soluciones más robustas y confiables, aunque no siempre pueda asegurarse la fácil implementación. En general, se puede concluir de la literatura, que los modelos neuro-difusos cuentan con las características dinámicas suficientes para superar los inconvenientes inherentes a la dinámica estocástica, en sistemas que además pueden tener el inconveniente de no contar con la información completa de sus variables de proceso. [9] I. S. Baruch, R. Beltran, J. L. Olivares and J. M. Flores, “A fuzzy-neural multi-model for nonlinear systems identification and control,” Fuzzy Sets and Systems, Vol. 159, No. 20, pp. 2650-2667, Oct. 2008. [10] J. Sanz, A. Fernández, H. Bustince and F. Herrera, “A genetic tuning to improve the performance of Fuzzy Rule-Based Classification Systems with Interval-Valued Fuzzy Sets: Degree of ignorance and lateral position,” International Journal of Approximate Reasoning, Vol. 52, No. 6, pp. 751-766, Sep. 2011. [11] V. Novák, “Reasoning about mathematical fuzzy logic and its future,” Fuzzy Sets and Systems, Vol. 192, No. 1, pp. 25-44, Apr. 2012. [12] N. R. Abburi and U. S. Dixit, “A knowledge-based system for the prediction of surface roughness in turning process,” Robotics and Computer-Integrated Manufacturing, Vol. 22, No. 4, pp. 363-372, Aug. 2006. [13] F. Villada, E. García and J. D. Molina, “Electricity Price Forecasting using Neuro-Fuzzy Networks,” Información Tecnológica, Vol. 22, No. 6, pp. 111-120, 2011. [14] P. M. Marusak, “Advantages of an easy to design fuzzy predictive algorithm in control systems of nonlinear chemical reactors,” Applied Soft Computing, Vol. 9, No. 3, pp. 1111-1125, Jun. 2009. [15] L. Naderloo, R. Alimardani, M. Omid, F. Sarmadian, P. Javadikia, M. Y. Torabi, and F. Alimardani, “Application of ANFIS to predict crop yield based on different energy inputs,” Measurement, Vol. 45, No. 6, pp. 14061413, Jul. 2012. [16] T. Takagi and M. Sugeno “Fuzzy identification of systems and its application to modeling and control,” IEEE Transactions on Systems, Man, and Cybernetics, Vol. 15, No. 1, pp. 116-132, Jan. 1985. [17] A. Zhang, “Robust Reliable Fuzzy Control for Uncertain Markovian Jump Singular Systems,” in Proc. 5th Int. Conf. Fuzzy Systems and Knowledge Discovery (FSKD’08), Vol. 1, pp. 406-410, Oct. 2008. [18] H. X. Li and Z. Liu, “A Probabilistic Fuzzy Logic System: learning in the stochastic environment with incomplete dynamics,” in Proc. 2009 IEEE Int. Conf. Systems, Man and Cybernetics (SMC’09), pp. 383-388. [19] S. Ushida, “Control performance improvements due to fluctuations in dynamics of stochastic control systems,” in Proc. 50th IEEE Conf. on Decision and Control and European Control Conf. (CDC-ECC’11), pp. 1430-1436, 2011. [20] H. Yang and L. Sheng, “Robust stability of uncertain stochastic fuzzy cellular neural networks,” Neurocomputing, Vol. 73, No. 1-3, pp. 133–138, Dec. 2009. [21] T. Shibata, “The impacts of uncertainties in a real op- AGRADECIMIENTOS Este artículo se presenta en el marco del proyecto de investigación PM10204, financiado por el Instituto Tecnológico Metropolitano –ITM de Medellín. REFERENCIAS [1] W. H. Gao and F. Q. Deng, “Parameter-dependent robust stability for nonlinear distributed delay stochastic systems with polytopic-type uncertainties,” in Proc. 2009 Conference on Machine Learning and Cybernetics, Vol. 6, pp. 3684-3689. [2] A. Hossain, Z. A. Choudhury and S. Suyut, “Statistical Process Control of an Industrial Process in Real Time,” IEEE Transactions on Industry Applications, Vol. 32, No. 2, pp. 243-249, Apr. 1996. [3] P. Liu and H. Li, “Approximation of stochastic processes by T-S fuzzy systems,” Fuzzy Sets and Systems, Vol. 155, No. 2, pp. 215-235, Oct. 2005. [4] A. Toola, “The safety of process automation,” Automatica, Vol. 29, No. 2, pp. 541-548, Mar. 1993. [5] J. C. Rodríguez-Gamboa, E. S. Albarracín and E. Delgado-Trejos, “Quality Control Through Electronic Nose System,” in Modern Approaches to Quality Control, A. B. Eldin, Ed., Rijeka Croatia: InTech, 2011, pp. 505-522. [6] K. L. Hsieh, L. I. Tong and M. C. wang, “The application of control chart for defects and defect clustering in IC manufacturing based on fuzzy theory,” Expert Systems with Applications, Vol.32, No. 3, pp. 765-776, Apr. 2007. [7] R. Del-Hoyo, B. Del-Brío, N. Medrano and J. Fernández, “Computational intelligence tools for next generation quality of service management,” Neurocomputing, Vol. 72, No. 16-18, pp. 3631-3639, Oct. 2009. [8] Y. V. Pehlivanoglu and O. Baysal, “Vibrational genetic algorithm enhanced with fuzzy logic and neural networks,” Aerospace Science and Technology, Vol. 14, No. 1, pp. 56-64, 2012. Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado tions model under incomplete information,” European Journal of Operational Research, Vol. 187, No. 3, pp. 1368-1379, Jun. 2008. 125 tions, Vol. 39, No. 2, pp. 219-232, Apr. 2000. [34] Y. Lim, R. Venugopal and A. G. Ulsoy, “Auto-tuning and adaptive control of sheet metal forming,” Control Engineering Practice, VOL. 20, No. 2, pp. 156-164, Feb. 2012. [35] R. Hoskinson, K. Van den Doel and S. Fels, “Realtime adaptive control of modal synthesis,” in Proc. 2003 Conf. on New Interfaces for Musical Expression (NIME’03), pp. 99-103. [22] S. K. Mitter, “Filtering and stochastic control: A historical perspective,” IEEE Control Systems, Vol. 16, No. 3, pp. 67-76, Jun. 1996. [23] P. Dorato, “A historical review of robust control,” IEEE Control Systems Magazine, Vol. 7, No. 2, pp. 44-47, Apr. 1987. [24] J. Zhou and B. Liu, “New stochastic models for capacitated location-allocation problem,” Computers & Industrial Engineering, Vol. 45, No. 1, pp. 111-125, Jun. 2003. [36] H. Gu, T. Zhang and Q. Shen, “Decentralized model reference adaptive sliding mode control based on fuzzy model,” Journal of Systems Engineering and Electronics, Vol. 17, No. 1, pp. 182-186, Mar. 2006. [25] L. Xu, J. Wang and Q. Chen, “Kalman filtering state of charge estimation for battery management system based on a stochastic fuzzy neural network battery model,” Energy Conversion and Management, Vol. 53, No. 1, pp. 33-39, Jan. 2012. [37] S. Sánchez and E. Giraldo, “Speed control of induction motor using fuzzy recursive least squares technique,” Revista Tecno Lógicas, Vol. 2008, No. 21, pp. 99-111, Dec. 2008. [26] H. Li, and Z. Liu, “A Probabilistic Neural-Fuzzy Learning System for Stochastic Modeling,” IEEE Transactions on Fuzzy Systems, Vol. 16, No. 4, pp. 898-908, Aug. 2008. [38] D. S. Brito, E. Aguiar, F. Lucena, R. C. S. Freire, Y. Yasuda and A. K. Barros, “Influence of low frequency noise in adaptive estimation using the LMS algorithm,” Signal Processing, Vol. 89, No. 5, pp. 933-940, 2009. [27] Z. Chen, L. Zhao and K. Lee, “Environmental risk assessment of offshore produced water discharges using a hybrid fuzzy-stochastic modeling approach,” Environmental Modelling & Software, Vol. 25, No. 6, pp. 782–792, Jun. 2010. [39] Z. Cao, Q. Mu, L. Hu, Y. Liu and L. Xuan, “Improve the loop frequency of liquid crystal adaptive optics by concurrent control technique,” Optics Communications, Vol. 283, No. 6, pp. 946-950, Mar. 2010. [40] A. S. Silveira, J. E. N. Rodríguez and A. A. R. Coelho, “Robust design of a 2-DOF GMV controller: A direct self-tuning and fuzzy scheduling approach,” ISA Transactions, Vol. 51, No. 1, pp. 13-21, Jan. 2012. [41] F. Carravetta and G. Mavelli, “Suboptimal stochastic linear feedback control of linear systems with state-and control-dependent noise: The incomplete information case,” Automatica, Vol. 43, No. 5, pp. 751-757, May. 2007. S. Salehi and M. Shahrokhi, “Adaptive fuzzy backstepping approach for temperature control of continuous stirred tank reactors,” Fuzzy Sets and Systems, Vol. 160, No. 12, pp. 1804-1818, Jun. 2009. [42] Z. W. Gong, “Least-square method to priority of the fuzzy preference relations with incomplete information,” International Journal of Approximate Reasoning, Vol. 46, No. 2, pp. 258-264, Feb. 2008. J. Che, J. Wang and G. Wang, “An adaptive fuzzy combination model based on self-organizing map and support vector regression for electric load forecasting,” Energy, Vol. 37, No. 1, pp. 657-664, Jan. 2012. [43] K. J. Åström, “Theory and applications of adaptive control –A survey,” Automatica, Vol. 19, No. 5, pp. 471486, Sep. 1983. [44] R. E. Kalman, “Design of a self-optimizing control system,” Transactions of the American Society of Mechanical Engineers, Vol. 80, pp. 468–478, Sep. 1958. [45] K. J. Åström and B. Wittenmark, “On self-tuning regulators,” Automatica, vol. 9, no. 2, pp.185-199, Mar. 1973. [46] A. Navia and R. Díaz, “Adaptive sigmoidal plant identification using reduced sensitivity recursive least squares,” Signal Processing, Vol. 91, No. 4, pp. 1066-1070, Apr. 2011. [28] [29] [30] Z. Liu, H. X. Li, and Y. Zhang, “A Probabilistic Wavelet System for Stochastic and Incomplete Data-Based Modeling,” IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, Vol. 38, No. 2, pp. 310-319, Apr. 2008. [31] V. A. Akpan and G. D. Hassapis, “Nonlinear model identification and adaptive model predictive control using neural networks,” ISA Transactions, Vol. 50, No. 2, pp. 177-194, Apr. 2011. [32] G. Stein and G. N. Saridis, “A parameter-adaptive control technique,” Automatica, Vol. 5, No. 6, pp. 731739, Nov. 1969. [33] K. K. Tan, T. H. Lee and X. Jiang, “Robust on-line relay automatic tuning of PID control systems,” ISA Transac- 126 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127 [47] W. Wang and B. Tang, “A fuzzy adaptive method for intelligent control,” Expert Systems with Application, Vol. 16, No. 1, pp. 43-48, Jan. 1999. [48] B. F. Wu, L. S. Ma, J. W. Perng and H. I. Chin, “Absolute stability analysis in uncertain static fuzzy control systems with the parametric robust Popov criterion,” in Proc. 2008 IEEE Int. Conf. Fuzzy Systems (FUZZIEEE’08), pp. 1325-1330. [59] J. Javadi-Moghaddam and A. Bagheri, “An adaptive neuro-fuzzy sliding mode based genetic algorithm control system for under water remotely operated vehicle,” Expert Systems with Applications, Vol. 37, No. 1, pp. 647-660, Jan. 2010. [60] Y. G. Leu, Y. W. Wang and I. H. Li, “RGA-based on line tuning of BMF fuzzy-neural networks for adaptive control of uncertain nonlinear systems,” Neurocomputing, Vol. 72, No. 10-12, pp. 2636-2642, Jun. 2009. [61] M. Landín, R. C. Rowe and P. York, “Advantages of neurofuzzy logic against conventional experimental design and statistical analysis in studying and developing direct compression formulations,” European Journal of Pharmaceutical Sciences, Vol. 38, No. 4, pp. 325331, Nov. 2009. [49] K. S. Narendra and Z. Han, “Location of models in multiple-model based adaptive control for improved performance,” in Proc. 2010 American Control Conference (ACC’10), pp. 117-122. [50] H. Han, C. Y. Su and Y. Stepanenko, “Adaptive control of a class of nonlinear systems with nonlinearly parameterized fuzzy approximators,” IEEE Transactions on Fuzzy Systems, Vol. 9, No. 2, pp. 315-323, Apr. 2001. [62] A. Loria and A. Zavala, “Adaptive tracking control of chaotic systems with applications to synchronization,” IEEE Transactions on Circuits and Systems I, Regular Papers, Vol. 54, No. 9, pp. 2019-2029, Sep. 2007. T. Ensari and S. Arik, “New results for robust stability of dynamical neural networks with discrete time delays,” Expert Systems with Applications, Vol. 37, No. 8, pp. 5925-5930, Aug. 2010. [63] Y. G. Leu, W. Y. Wang and T. T. Lee, “Robust adaptive fuzzy-neural controllers for uncertain nonlinear systems,” IEEE Transactions on Robotics and Automation, Vol. 15, No. 5, pp. 805-817, Oct. 1999. H. Shao, “Novel delay-dependent stability results for neural networks with time-varying delays,” Circuits, Systems, and Signal Processing, Vol. 29, No. 4, pp. 637-647, Aug. 2010. [64] F. O. Souza, and R. M. Palhares, “Interval time-varying delay stability for neural networks,” Neurocomputing, Vol. 73, No. 13-15, pp. 2789-2792, Aug. 2010. [65] J. Tian and X. Zhou, “Improved asymptotic stability criteria for neural networks with interval time-varying delay,” Expert Systems with Applications, VOL. 37, No. 12, pp. 7251-7525, Dec. 2010. [66] S. Blythe, X. Mao and X. Liao, “Stability of stochastic delay neural networks,” Journal of the Franklin Institute, Vol. 338, No. 4, pp. 481-495, Jul. 2001. [51] [52] [53] [54] C. F. Hsu, “Self-organizing adaptive fuzzy neural control for a class of nonlinear systems,” IEEE Transactions on Neural Networks, Vol. 18, No. 4, pp. 1232-1241, Jul. 2007. C. S. Chen and H. H. Chen, “Robust adaptive neuralfuzzy-network control for the synchronization of uncertain chaotic systems,” Nonlinear Analysis: Real World Applications, Vol. 10, No. 3, pp. 1466-1479, Jun. 2009. [55] Y. Gao and M. J. Er, “Online adaptive fuzzy neural identification and control of a class of MIMO nonlinear systems,” IEEE Transactions on Fuzzy Systems, Vol. 11, No. 4, pp. 462-477, Aug. 2003. [67] H. Huang and J. Cao, “Exponential stability analysis of uncertain stochastic neural networks with multiple delays,” Nonlinear Analysis: Real World Applications, Vol. 8, No. 2, pp. 646-653, Apr. 2007. [56] S. Wang, L. Hou, L. Dong and H. Xiao, “Adaptive fuzzy sliding mode control of uncertain nonlinear SISO systems,” Procedia Engineering - International Conference on Advances in Engineering, Vol. 24, pp. 33-37, 2011. [68] T. W. Huang, “Exponential stability of fuzzy cellular neural networks with distributed delays,” Physics Letters A, Vol. 351, No. 1-2, pp. 48-52, Feb. 2006. [69] B. Liu and P. Shi, “Delay-range-dependent stability for fuzzy BAM neural networks with time-varying delays,” Physics Letters A, Vol. 373, No. 21, pp. 1830-1838, May. 2009. [70] X. Y. Lou and B. T. Cui, “Robust asymptotic stability of uncertain fuzzy BAM neural networks with time-varying delays,” Fuzzy Sets and Systems, Vol. 158, No. 24, pp. 2746-2756, Dec. 2007. [71] H. Li, B. Chen, C. Lin and Q. Zhou, “Mean square exponential stability of stochastic fuzzy Hopfield neural [57] [58] Y. Wang, J. Song and B. Zhang, “Fuzzy Sliding-Mode Variable Structure Control for Fan Filter Units’ Motor Speed Regulation System,” Procedia Engineering – CEIS2011, Vol. 15, pp. 969-973, Aug. 2011. A. Meharrar, M. Tioursi, M. Hatti and A. Boudghéne, “A variable speed wind generator maximum power tracking based on adaptative neuro-fuzzy inference system,” Expert Systems with Applications, Vol. 38, No. 6, pp. 7659-7664, Jun. 2011. Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado networks with discrete and distributed time-varying delays,” Neurocomputing, Vol. 72, No. 7-9, pp. 20172023, Mar. 2009. [72] L. Sheng, M. Gao and H. Yang, “Delay-dependent robust stability for uncertain stochastic fuzzy Hopfield neural networks with time-varying delays,” Fuzzy Sets and Systems, Vol. 160, No. 24, pp. 3503-3517, Dec. 2009. [73] Z. Shu and J. Lam, “Global exponential estimates of stochastic interval neural networks with discrete and distributed delays,” Neurocomputing, Vol. 71, No. 1315, pp. 2950-2963, Ago. 2008. [74] W. Su and Y. Chen, “Global robust exponential stability analysis for stochastic interval neural networks with time-varying delays,” Communications in Nonlinear Science and Numerical Simulation, Vol. 14, No. 5, pp. 2293-2300, May. 2009. [75] W. Lin and C. I. Byrnes, “Passivity and absolute stabilization of a class of discrete-time nonlinear systems,” Automatica, Vol. 31, No. 2, pp. 263-267, Feb. 1995. [76] X. W. Liu, “Passivity analysis of uncertain fuzzy delayed systems,” Chaos, Solitons and Fractals, Vol. 34, No. 3, pp. 833-838, Nov. 2007. [77] J. Liang, Z. Wang and X. Liu, “Robust passivity and passification of stochastic fuzzy time-delay systems,” Information Sciences, Vol. 180, No. 9, pp. 1725-1737, May. 2010. [78] J. Fu, H. Zhang, T. Ma and Q. Zhang, “On passivity analysis for stochastic neural networks with interval time-varying delay,” Neurocomputing, Vol. 73, No. 4-6, pp. 795-801, Jan. 2010. 127 [79] P. Balasubramaniam and G. Nagamani, “Global robust passivity analysis for stochastic fuzzy interval neural networks with time-varying delays,” Expert Systems with Applications, Vol. 39, No. 1, pp. 732-742, Jan. 2012. [80] M. Syed-Ali and P. Balasubramaniam, “Exponential stability of uncertain stochastic fuzzy BAM neural networks with time-varying delays,” Neurocomputing, Vol. 72, No. 4-6, pp. 1347-1354, Jan. 2009. [81] A. T. Gumus and A. F. Guneri, “A multi-echelon inventory management framework for stochastic and fuzzy supply chains,” Expert Systems with Applications, Vol. 36, No. 3, pp. 5565–5575, Apr. 2009. [82] P. Chaves and T. Kojiri “Deriving reservoir operational strategies considering water quantity and quality objectives by stochastic fuzzy neural networks,” Advances in Water Resources, Vol. 30, No. 5, pp. 13291341, May. 2007. [83] P. Chaves, T. Kojiri and T. Hori, “Stochastic Operation for Multi-purpose Reservoir Using Neuro-Fuzzy Systems,” Annuals of Disas. Prev. Res. Inst., No. 48B, 14pp., 2005. [84] A. Azadeh, S.M. Asadzadeh, M. Saberi, V. Nadimi, A. Tajvidi and M. Sheikalishahi, “A Neuro-fuzzy-stochastic frontier analysis approach for long-term natural gas consumption forecasting and behavior analysis: The cases of Bahrain, Saudi Arabia, Syria, and UAE,” Applied Energy, vol. 88, No. 11, pp. 3850-3859, Nov. 2011. Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica Influence of Boron in the mechanical properties of Bainitic steels Karol Felipe Rodríguez Galeano Ingeniero Mecánico, Universidad Nacional de Colombia Estudiante de Maestría en Ingeniería – materiales y procesos Universidad Nacional de Colombia Bogotá, Colombia. [email protected] Resumen— En las últimas décadas se han hecho importantes desarrollos en equipos industriales de calentamiento y enfriamiento como hornos y muflas, entre otros, que los hacen muy estables y permiten hacer incrementos y decrementos de temperatura de una forma muy controlada y precisa; por esto se ha permitido hacer estudios sobre materiales que necesitan de ciertos parámetros para adquirirlos, mediante procesos térmicos y mecánicos combinados como es el caso de los aceros bainíticos. Hoy se investiga sobre este tipo de aceros, variándole porcentajes de aleantes como lo es el boro y observar cómo varían sus propiedades mecánicas con cada cambio, lo que permite caracterizarlos y dar una fuerte base a las industrias para que utilicen nuevos materiales que tengan menos procesos de fabricación, para que sean más económicos y menos hostiles con el medio ambiente. En el presente artículo se caracteriza la microestructura bainitica y se tienen en cuenta los cambios de distintas propiedades que son de suma relevancia industrial respecto al cambio de la cantidad de Boro presente, algunas de estas propiedades son el esfuerzo de fluencia, el esfuerzo último a la tensión, la deformación de ingeniería cuando estos materiales son sometidos a tensión y una comparación con los aceros perliticos, los cuales representan una parte importante de aplicaciones industriales. Palabras Clave— aceros bainíticos, boro, propiedades mecánicas. ABSTRACT— In the last decades there have been important developments in industrial equipment of heating and cooling such as are furnaces, muffles, among others, making them very stable and allowing to make temperature increases and decreases in a controlled and precise way; which is why they studies about parameters needed to acquire special materials have allowed, by combined thermal and mechanical processes such as the bainitic steels. Today it continues to research this type of steel, changing alloys percentages and watching how they can make mechanical properties vary, thus allowing to characterize and provide a strong basis for industries using new materials that have less manufacturing processes, and being more economical and less hostile to the environment. In this article bainite microstructure is characterized and takes into account the changes of properties that are of great industrial importance regarding the change of the amount of boron present, some of these properties are the yield stress, ultimate stress to stress, the engineering strain when these materials are subjected to strain and a comparison with pearlitic steels, which represent a significant part of industrial applications for steel. Keywords— bainitic steels, boron, mechanical properties. I. INTRODUCCIÓN Los aceros bainíticos representan hoy en día una gran opción para remplazar en varias aplicaciones a los aceros de alta aleación, debido a su relativo bajo costo y a que presentan mejores propiedades mecánicas como lo es la tenacidad y la dureza, aparte de esto tienen una estructura más fina que los aceros perlíticos a base de partículas diminutas de Cementita en una matriz ferrítica por este motivo exhiben una interesante combinación de resistencia y ductilidad. [1]. Sin embargo, en muchos lugares se obtienen estos aceros con combinaciones de ferroaleantes que, a su vez, pueden tener boro presente, el cual permite aumentar sensiblemente la templabilidad de los aceros al carbono de baja aleación. [2]. Existe gran variedad de aceros bainíticos: de alto carbono, con alta soldabilidad; aceros Recibido: 29/11/2012/ Aceptado: 01/06/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136 Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez de alta resistencia, que compiten con los templados y revenidos; aceros resistentes a altas temperaturas, usados en las centrales nucleares; aceros inoculados en los cuales, la bainita nuclea al interior de los granos de austenita produciéndose una microestructura resistente a la propagación de grietas y otros. La microestructura de los aceros de alta resistencia está compuesta de ferrita bainítica, martensita y austenita retenida. Su templabilidad puede ser mejorada al añadir a su composición de manganeso, cromo y níquel. Generalmente presentan una gran concentración en silicio que evita la formación de cementíta. [3]. Este tipo de aceros no solo tiene aplicaciones en usos científicos o aeronáuticos, Los aceros bainíticos con bajo contenido de carbono y series de manganeso han sido ampliamente usados en muchos campos de la industria para reducir costos y obtener entre otros un fácil procesamiento, alta templabilidad y buenas propiedades mecánicas [34][35], haciéndolos óptimos para industrias que tengan que ver con piezas sometidas a desgaste y en construcción de rieles para medios de transporte ferroviario. II. BAINITA Los aceros y las fundiciones nodulares, en estado bainítico, son familias de aleaciones de Fe-C que permiten obtener una amplia gama de propiedades mecánicas. Este hecho ha incentivado el estudio de la reacción bainítica y sus aplicaciones dirigidas a la sustitución de aceros altamente aleados para la fabricación de componentes de maquinaria en los que se requiere alta resistencia a la tracción y capacidad de absorber energía de impacto. [4]. Adicionalmente, las microestructuras bainiticas han encontrado aplicación en sistemas donde se requiere resistencia al desgaste, ya sea asociado a fenómenos de rodadura y deslizamiento, como es el caso del contacto rueda-riel. [5]. La microestructura de la bainita consiste en listones o placas nucleados en los límites de grano austenítico, al igual que en las transformaciones de fase difusivas. El paquete bainítico está conformado por listones o placas (subunidades micro-estructurales) paralelos como se puede observar en la Fig. 1. 129 Fig. 1. EVOLUCIÓN DE UNA PLUMA BAINíTICA EN FUNCIÓN DEL TIEMPO. [4] El estudio de la transformación bainítica se ha visto limitado algunas veces debido al tamaño de las unidades micro-estructurales, ya que la placa observada en el microscopio óptico es en realidad una pluma bainítica formada por varias subunidades; este tamaño reducido se debe principalmente a las temperaturas de transformación, que afectan la difusión del carbono, y a la precipitación de películas de cementíta en los límites entre las subunidades, que impiden su crecimiento. [6]. La complejidad de la microestructura bainítica ha dado lugar a la existencia de multitud de terminologías para representar su morfología, lo que ha conducido a cierta confusión. [7]. Se denomina ferrita bainítica (αb) a la fase ferrita cuando se encuentra en forma de subunidad de bainita. Las subunidades de ferrita bainítica pueden contener partículas de cementíta en su interior, que da lugar a la denominada bainita inferior. Si, por el contrario, la ferrita bainítica está libre de partículas de cementíta, la microestructura bainítica se denomina bainita superior. La bainita superior se forma a mayores temperaturas que la inferior. [8]. Fig. 2. ESQUEMA DE BAINITA SUPERIOR Y BAINITA INFERIOR [8] 130 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136 Fig. 3. A) MICROGRAFíA DE LUZ QUE MUESTRA POLEAS DE BAINITA INFERIOR EN UNA ALEACIÓN FE-0.3C-4CR WT% PARCIALMENTE TRANSFORMADA (395°C). EL GRABADO LUMINOSO MUESTRA UNA MATRIZ DE FASE MARTENSíTICA de la temperatura y no de la composición química, en los aceros de baja aleación tiene la forma [15]. B) CORRESPONDIENTE A UN MICROSCOPIO DE TRANSMISIÓN DE ELECTRONES QUE MUESTRA SUBUNIDADES DE BAINITA INFERIOR [1] La morfología de placa tiende a formarse a bajas temperaturas y a altas concentraciones de carbono y, en general, cuando la austenita madre presenta alta resistencia. [1]. De igual manera, el espesor de placa es un importante parámetro en la caracterización de la ferrita bainítica, pues su afinamiento da lugar a un aumento simultáneo de resistencia y tenacidad en el material. Es sabido que el espesor de placa disminuye con la temperatura de transformación. [10]-[11]. En particular, Parker [12] ha encontrado la siguiente dependencia: Donde ue es el espesor de la subunidad de la ferrita bainítica y T la temperatura en K. En los estudios de Singh y Bhadeshia, es la resistencia de la austenita la principal responsable del valor del espesor de placa de la ferrita bainítica αb. [13]. Para poder obtener la transformación bainítica, se necesita de ciertas condiciones termodinámicas, desde el punto de vista teórico y de acuerdo con Bhadeshia [14], las condiciones termodinámicas que se deben cumplir para la transformación bainítica son: Nucleación Crecimiento La función GN, también denominada función universal de nucleación, debido a que depende T es la temperatura en grados Kelvin La bainita es un micro constituyente que se obtiene mediante procesos de transformación isotérmica, generalmente a temperaturas entre 200 y 300°C. Sin embargo, para acelerar la transformación de este elemento se adicionan aleantes como el aluminio y el cobalto [31], en concentraciones inferiores al 2% dentro de la composición química del acero [32]-[33]. Por encontrarse entre una transformación difusional (ferrita/perlita) y otra adifusional (martensíta), la bainita conserva características de ambas. Así su nucleación tiene lugar bajo condiciones de para equilibrio, solo el carbono difunde, y el crecimiento es completamente adifusional, tipo martensítico. Cuando un núcleo crece, lo hace con una morfología acicular, para poder acomodar la deformación plástica inducida en la austenita, una vez que el crecimiento de una aguja/placa de ferrita bainítica termina, el exceso de Carbono que pueda tener se difunde a la austenita vecina, de forma tal que la siguiente placa ha de crecer a partir de una austenita enriquecida en Carbono. Esto ocurrirá siempre y cuando la concentración de carbono no supere un valor límite teórico denominado curva [3]. Que representa el límite de concentración de carbono de la austenita por encima del cual no puede tener lugar una transformación adifusional. [8]. Debido a la saturación de carbono en la austenita, existe posibilidad de saturación de cementíta desde la austenita enriquecida. Sin embargo, esta precipitación característica de la bainita común, resulta perjudicial por su efecto fragilizante y se ha descubierto que puede ser evitada por la adición de Si en cantidades adecuadas, por ejemplo 1.5% Si [1]-[16]. Para la aplicación óptima de los aceros bainíticos, estos se encuentren libres de carburos con el fin de obtener una microestructura que contenga placas de ferrita y austenita retenida, que elimina comportamientos no deseables a temperatura ambiente como lo sería el fragilizante dado por la presencia de cementíta. Esta Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez precipitación de cementíta durante la transformación bainítica puede evitarse al alear el acero con silicio en cantidades de un 1,5% aproximadamente. El silicio presenta muy baja solubilidad en la cementíta y retrasa el crecimiento de la misma en la austenita residual tras la formación de bainita. [17]. El carbono expulsado como consecuencia de la formación de la ferrita bainítica enriquecerá la austenita residual, produciéndose así su estabilización hasta la temperatura ambiente. El resultado es una microestructura formada por placas muy finas de ferrita bainítica separadas por regiones de austenita enriquecidas en carbono. Una microestructura de estas características es ideal desde muchos puntos de vista; en primer lugar, el acero tendrá una alta resistencia a la fractura por clivaje. Por otro lado, existe la posibilidad de mejorar, simultáneamente, la resistencia y la tenacidad debido al tamaño de grano ultrafino de las placas de ferrita bainítica y al efecto de transformación inducida por deformación plástica. Sin embargo, a pesar de todas estas ventajas, la microestructura de ferrita bainítica-austenita no satisface en algunas ocasiones todas sus expectativas. Ello se debe a la inestabilidad de la austenita cuando se presenta en la microestructura en forma de grandes bloques atrapados entre los haces de bainita. [14]-[18]. 131 Fig. 4. TENACIDAD Y DUCTILIDAD MEJORADAS DE VARILLAS AUSTENIZADAS QUE SE COMPARAN CON VARILLAS TEMPLADAS Y REVENIDAS DE IGUAL DUREZA. [20] Fig. 5. COMPARACIÓN ENTRE EL MÉTODO DE AUSTENIZADO Y EL DE TEMPLADO Y REVENIDO PARA UN ACERO [21] III. PROCESO DE ADQUISICIÓN DE LA BAINITA El austenizado es un proceso de tratamiento térmico desarrollado para obtener una estructura que es 100% bainita. Este se logra calentando primero la pieza de la temperatura de austenización propia, seguida de un rápido enfriamiento en un baño de sal mantenido en el intervalo de bainita (generalmente entre 400 y 800°F). La pieza se deja en el baño hasta que se completa la transformación a bainita. La comparación de las propiedades mecánicas desarrolladas por el austenizado y por el método de temple y revenido suele hacerse a la misma dureza o resistencia. La superioridad del austenizado destaca en tales propiedades como reducción de área en tensión, resistencia al impacto y la prueba del combado lento. [19]. Este proceso tiene un inconveniente y es que son ideales las secciones que pueden enfriarse con suficiente rapidez para evitar la transforma- 132 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136 ción a perlita, en el intervalo de temperatura de 900 a 1200°F ; por tanto, la mayoría de las aplicaciones industriales han sido secciones de espesor menor a ½ pulgada que puede incrementarse un poco con el empleo de aceros aleados, pero entonces el tiempo para terminar la transformación a bainita puede ser excesivo. En los casos de la martensíta o de la ferrita Widmanstätten, y debido al bajo coeficiente de difusión del hierro a las temperaturas de la transformación bainítica, la deformación involucra un movimiento coordinado de átomos que, mediante una deformación homogénea, conforman la nueva red, existiendo una correspondencia de red entre la nueva fase y la fase de origen. De acuerdo con esto, mediante técnicas de alta resolución. [16]-[22]-[23]. Se ha mostrado que los átomos sustitucionales como Mn, Si, Ni, Mo y Cr quedan “congelados” en sus posiciones originales tras la transformación bainítica. IV. PROPIEDADES MECÁNICAS En cuanto a la fluencia, la bainita presenta un mejor comportamiento que la perlita y la ferrita proeutectoide y es superada por la martensíta. Sin embargo, debido a que la martensíta generalmente se utiliza en estado revenido, estas dos microestructuras pueden ser similares con respecto a la resistencia a la fluencia. Aún mas, cuando se obtiene bainita de baja temperatura, de 120°C a 200°C, el espesor de las placas llega a ser tan pequeño, que la mezcla de esta bainita con la austenita retenida puede proporcionar durezas de 600 HV, como fue mostrado por algunos autores. [24]. Si tenemos en cuenta que a la ductilidad se le sumaría la energía que puede soportar al impacto, la bainita presenta un mejor comportamiento con respecto a la perlita y a la martensíta revenida, gracias al tamaño de las placas bainíticas y al menor tamaño de los carburos que presenta con respecto a la martensíta revenida. [25]. En la bainita hay que destacar que la inferior (baja temperatura en la fundición nodular) presenta una mayor tenacidad que la bainita superior (alta temperatura), a pesar de que también tiene una mayor resistencia a la fluencia. Esto puede ser atribuido al menor tamaño de los paquetes y de las placas, los cuales tienen un cambio mayor en la orientación entre sus límites que incrementa el obstáculo tanto al movimiento de las dislocaciones como a la propagación de las grietas. [26]. Se debe tomar en cuenta si la austenita está en forma de películas o bloques; la austenita en bloques afecta desfavorablemente la resistencia a la fluencia y la tenacidad, mientras que en forma de películas mejora el comportamiento en estas mismas propiedades. [27]. Al contar con un adecuado control del tamaño de grano austenítico y del ancho de los paquetes de subunidades, incluso la bainita superior podría presentar una mayor tenacidad que la martensíta revenida del mismo nivel de resistencia. [28]. V. ACEROS BAINÍTICOS Y ESTUDIOS SOBRE LA INFLUENCIA DEL BORO El boro ha sido utilizado como elemento aleante que aumenta la templabilidad en aceros de baja aleación y, a su vez, cuando se agrega en cantidades sumamente pequeñas, que al ser comparadas con otros elementos aleantes serían despreciables, incrementa de forma considerable la dureza de los aceros. López – Chipres [37] en su escrito, dice que según la naturaleza dual del átomo de boro en la austenita y su entorno, este se puede encontrar en posición sustitucional o intersticial, si el átomo tiene suficiente energía, puede pasar de una posición sustitucional a una intersticial con lo que podrá difundir más rápidamente; esta teoría es complementada por los estudios realizados por Wang [38], los cuales hablan de difusión intersticial del boro porque los resultados obtenidos con este elemento se pueden asemejar a los resultados obtenidos en la difusión del carbono. El principal efecto del boro es la inhibición de la ferrita en el límite de grano austenítico, pues facilita la formación de bainita y martensíta y proporciona de esta forma la templabilidad del acero, este efecto es debido al hecho que la segregación del boro hacia los límites de grano de la austenita disminuye la energía interfacial al reducir los sitios preferenciales para la nucleación de la ferrita [39], de todas formas si la cantidad de boro es muy alta se supera fácilmente el límite de solubilidad con lo cual se formarían boruros en los límites de grano que favorecen la nucleación de ferrita [40]. Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez La segregación del Boro hacia los límites de grano de la austenita en los aceros bainíticos modifica sus características termodinámicas y da lugar a un ablandamiento de la austenita a trabajar en caliente [41]. Estudios realizados por Stumpf [42] y Song [43] sobre la fluencia en caliente en aceros, muestran que el pico de tensión y el pico de deformación en las curvas de fluencia tiene tendencia a disminuir a medida que se aumenta el contenido de boro. Hay estudios en los cuales se hacen comparaciones de los aceros bainíticos aleados con boro respecto a los aceros perlíticos, en los cuales se muestra cómo varían las propiedades mecánicas como la resistencia ultima y el esfuerzo de fluencia entre otros. La Tabla I muestra un incremento de 399 MPa (36%) en la resistencia última, 485 MPa (77%) de incremento en el esfuerzo de fluencia y 1.7% (15% relativo) en la deformación, ubicando a los aceros bainíticos en un mayor escalafón respecto a los aceros perlíticos, dándoles muchos campos de aplicación. TABLA I. TABLA COMPARATIVA DE PROPIEDADES MECÁNICAS RELEVANTES ENTRE ACERO PERLíTICO CONTRA ACERO BAINíTICO J6 [44] Propiedades mecanicas Acero perlitico Acero Bainitico J6 Esfuerzo Último (MPa) 1114 1513 Esfuerzo de Fluencia (MPa) 624 1109 Elongación (100%) 11.1 12.8 Tenacidad de Fractura Ki (MPa) 95 150 Fig. 6. CURVA ESFUERZO VS. DEFORMACIÓN DE UN ACERO BAINíTICO ALEADO CON BORO (LíNEA ROJA) Y UN ACERO PERLíTICO (LíNEA AZUL) [44] Miihkinen y Edmonds [50]-[51] realizaron investigaciones sobre dos aceros bainíticos con alto contenido en Silicio, de composición nóminas Fe0,2C-2Si-3Mn y Fe-0,4C-2Si-4Ni en porcentaje en 133 peso, ambas aleaciones presentaban niveles de resistencia y tenacidad cercano a los de los aceros comerciales martensíticos de alta resistencia cuando se trataban isotérmicamente a las temperaturas de transformación bainítica. Aunque este tipo de aleaciones se hicieron con fines netamente académicos y no con algún enfoque industrial. Hay otros trabajos en los cuales se ha variado los porcentajes de boro dentro de aceros bainíticos, analizan cambios relevantes en las propiedades mecánicas, este es el caso de Dian [45], el cual evalúa el crecimiento del esfuerzo de fluencia, el esfuerzo último y la elongación y los cuales son notorios en las Figuras 7,8 y 9 Fig 7, 8 y 9. VARIACIÓN DE LAS PROPIEDADES MECÁNICAS CON RESPECTO A LOS CONTENIDOS DE BORO [45] 134 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136 Otro trabajo que vale la pena mencionar es el realizado por Bedolla [46], en el cual analiza la variación de las propiedades mecánicas de aceros aleados con boro respecto a dos medios de enfriamiento (aire y agua), en este trabajo muestra que las estructuras bainíticas fueron generadas a raíz del enfriamiento al aire después del proceso de laminación, mientras que en el acero enfriado en agua predominó la presencia de martensita, por otro lado, el boro mostró un efecto favorable en la formación de bainita superior y se concluyó que la mejor combinación de propiedades mecánicas se obtuvo cuando el acero presentó 76 ppm de boro y un enfriamiento al aire, el cual obtuvo valores de esfuerzo máximo de 830MPa, esfuerzo de fluencia de 750MPa, 15% de elongación y una dureza promedio de 40HRc. Fig 10 y 11. PROPIEDADES MECÁNICAS DEL ACERO ENFRIADO AL AIRE Y ENFRIADO EN AGUA EN FUNCIÓN DEL CONTENIDO DE BORO [46] de bainita de 20 a 100nm de espesor [29]. Con el desarrollo de estos nuevos aceros se pueden alcanzar valores en la energía de impacto Charpy entre 24-44 J, además, en ensayos de tensión se obtienen esfuerzos entre 1600 a 1800Mpa. [26]. La nanoestructura bainítica es diseñada para evitar la formación de cementíta, la cual es muy estable debido a las adiciones de manganeso [30]. En la actualidad aún se hacen estudios sobre aceros superbainíticos, nuevas estructuras y mejora de propiedades mecánicas por medio de tecnologías de punta aplicadas a este tipo de materiales, es el caso de la investigación de un grupo de posdoctores en la Universidad de Cambridge. Se han desarrollado aceros bainíticos libres de carburos y altos en carbono (0.8%) que por mantenimiento isotérmico a temperaturas muy bajas (125 – 300ºC) durante periodos de tiempo razonables a escala industrial, dan lugar a una estructura mixta de ferrita-bainítica, excepcionalmente fina (20-80nm), y austenita retenida. La finura de la microestructura junto con la alta fracción de ferrita-bainítica presente (≈80%) confieren al material de unas propiedades mecánicas nunca antes conseguidas en aceros de este tipo. Esfuerzo de fluencia = 2.5GPa, KIC=45MPa√m, HV30= 650. En la actualidad, estos aceros se utilizan para la fabricación de blindajes, rodamientos y componentes de cajas de cambios sometidos a grandes esfuerzos [47]-[48]-[49]. REFERENCIAS En los últimos tiempos ha surgido una nueva clase de aceros bainíticos libres de carburos, conocidos como aceros nanoestructurados, formados a bajas temperaturas de transformación de bainita, para obtener materiales con subunidades [1] H. K. D. H. Bhadeshia. Bainite in Steels: Transformations, Micostructure and Poperties - 2nd Edition. Published by the Institute of Materials. Publication Date March 2001. [2] http://www.zerneri.com/espanol/aboro.htm. [3] Cristian Viáfara y Juan Manuel Vélez. Transformación Bainítica en aleaciones Fe-C. Ingeniería y Ciencia, ISSN. Septiembre de 2005. [4] H.K.D.H. Bhadeshia. Bainite in Steels: Transformations, Microstructure and Properties, The Institute of Materials, 16-199 (1992). [5] C.C. Viáfara, M.I. Castro, J.M. Vélez y A. Toro. Unlubricated Sliding Wear of Pearlitic and Bainitic Steels, Wear, 259, 411-416 (2005). Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez [6] F.B. Pickering. The estructure and Properties of Bainite in Steels, Symposium: Transformation and Hardenability in Steels, 1967. [7] Bramfitt B L, Speer J G. Steels Alloys with Lower Bainite Microstructures for Use in Railroad Cars and Track. Federal Railroad Administration. 2002. [8] Mauricio Alejandro Sierra Cetina. Obtención y evaluación de las propiedades mecánicas del acero bainítico Fe-0.32C-1.45Si- 1.97Mn1.26Cr-0.26Mo-0.10V aleado con Boro. BOGOTÁ, D.C. 2011. [9] H K D H Bhadeshia, D V Edmonds. Metals Science. 17 (1983) 411-419. [10] CHESTER, N. A. y BHADESHIA, H. K. D. H. (1997) Phys. IV France 7, Colloque C5: C5-41 – C5-46. [11] CHANG, L. C. y BHADESHIA, H. K. D. H. (1995) Mat. Sci. and Tech., 11: 874-881. [12] PARKER, S. V. (1997) Tesis Doctoral. Universidad de Cambridge. [13] SINGH, S. B. y BHADESHIA, H. K. D. H. (1998) Mat. Sci. and Eng. A245: 72-79. [14] H K D H Bhadeshia, D V Edmonds. Metals Science. 17 (1983) 411-419. [15] H K D H Bhadeshia, D V Edmonds. Metals Science. 17 (1983) 420-425. [16] H K D H Bhadeshia, A R Waugh. Acta Metals. 30 (1982) 775-784. [17] S.J. Matas y R.F. Hehemann, Trans. Metall. Soc. AIME 221 (1961).] [V.T.T. Mihkinen y D.V. Edmonds, Mater. Sci. Technol. 3 (1987) 411-449. [18] H.K.D.H. Bhadeshia, Mater. Sci. Technol. 15 (1999). [19] Sydney H. Avner. Introducción a la Metalurgia Física. Segunda Edición. McGraw Hill. México. 1988. [20] Research Laboratory, U.S. Steel Corporation. 135 [23] STARK, I., SMITH, G. D. W. y BHADESHIA, H. K. D. H. (1987) Phase Transformations’ 87. Ed. por G. W. Lorimer., The Institute of Metals, Cambridge: 211- 215. [24] C. García-Mateo, F.G, Caballero y H.K.D.H. Bhadeshia. Low Temperature Bainite, International Conference on Martensitic Transformations (ICOMAT ’02), Helsinki, Finland, 2002. [25] H. Sierra. Aceros de Construcción Mecánica, de Herramientas e Inoxidables y Pautas para su selección, Universidad Nacional de Colombia, Medellín, 110-125 (2000). [26] F.B. Pickering. Th estructure and Properties of Bainite in Steels, Symposium: Transformation and Hardenability in Steels, 1967. [27] B.J.P. Sandvik y H.P. Nevalainen. StructureProperty Relationships in Commercial Low-Alloy Bainitic-Austenitic Steel With High Strength, Met. June, 213-20 (1981). [28] J.P. Naylor y P.R. Krahe. The effect Of the Bainite Packet Size on Toughness, Met. Trans. 5, 16991701 (1974). [29] M.N. Yoozbashi, S. Yazdani. Mechanical properties of nanostructured, low temperature bainitic steel designed using a thermodynamic model. Materials Science and Engineering A 527 [2010] 3200–3205. [30] C.M. Amey, H. Huang, P.E.J. Rivera-Díaz-del-Castillo, Distortion in 100Cr6 and nanostructured bainite, Materials and Design 35 [2012] 66–71. [31] F.C. Zhang, T.S. Wang, P. Zhang, C.L. Zheng, B. Lv, M. Zhang and Y.Z. Zheng. A novel method for the development of a low-temperature bainitic microstructure in the surface layer of low-carbon steel. Scripta Materialia 59 [2008] 294–296. [32] Lihe Qian , Qian Zhou, Fucheng Zhang, Jiangying Meng, Ming Zhang, Yuan Tian. Microstructure and mechanical properties of a low carbon carbide-free bainitic steel co-alloyed with Al and Si. Materials and Design 39 [2012] 264–268. [21] Suiting the heat treatment to the job; a simple discussion of the problems of heat treatment. Carnegie-Illinois Steel Corporation. United States Steel. 1946. [33] I. Mejía, A. Bedolla-Jacuindea, C. Maldonado, J.M. Cabrerab,c. Hot ductility behavior of a low carbon advanced high strength steel [AHSS] microalloyed with boron. Materials Science and Engineering A 528 [2011] 4468–4474. [22] STARK, I., SMITH, G. D. W. y BHADESHIA, H. K. D. H. (1990) Met. Trans A, Vol 21: 837-844. [34] WANG Yong-wei , FENG Chun , XU Feng-yun , BAI Bing-zhe , FANG Hong-sheng. Influence of Nb on 136 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136 Microstructure and Property of Low-Carbon MnSeries Air-Cooled Bainitic Steel. JOURNAL OF IRON AND STEEL RESEARCH, INTERNXfIONAL. 2010, 17[1]: 49-53. [42] STUMPF, W., BANKS, K. The hot working characteristics of a boron bearing and a conventional low carbon steel. Materials Science and Engineering, 2006, pp. 86-94. [35] ZHANG Han. BAI Bing-zhe , FANG Hong-sheng. A Mn-Series of Oil-Quenched Super-Strength Bainitic Steel With High Hardenability. JOURNAL OF IRON AND STEEL RESEARCH, INTERNATIONAL. 2010. 17[5]: 38-43 [43] SONG, S.H. Effect of Boron on the hot ductility of 2.25Cr1Mo steel. Materials Science and Engineering, 2003. [36] M. Naderia, M. Ketabchia, M. Abbasia, W. Bleck. Analysis of microstructure and mechanical properties of different boron and non-boron alloyed steels after being hot stamped. Procedia Engineering 10 [2011] 460–465. [44] AGLAN, H.A. Mechanical and fracture behavior of bainitic rail steels. Materials Process Technology. 2004, pags 268 – 274. [45] DIAN, F. Effect of boron on the microstructure and mechanics properties of cold rolled multiphase steels. 2011. [37] LÓPEZ-CHIPRES, E. [et al.] Hot flow behavior of boron microalloyed steels. Materials Science and Engineering, 2008, págs. 49-55. [46] BEDOLLA, J.A. High resistance boron treated steels for railways applications. Materials Science and Technology. 2009. Vol. 25. No. 3. [38] WANG, W., ZHANG, S., HE, X. Diffusion of boron in alloys. Acta Metalurgia, Vol 43, 1994, pags. 1693-1699. [47] C Garcia – Mateo, H K D H Bhadeshia, Material Science and Engineering. 378 (2004) 289 – 292. [39] BRAMFITT, BRUCE L., BENSCOTER, ARLON O. Metallographer’s Guide. Practices and Procedures for Irons and Steels. ASM International, 2002. [48] F.G. Caballero, H.K.D.H. Bhadeshia, K.J.A. Mawella, D.G. Jones y P. Brown. Mater. Scien. Tech.18 (2002) 279. [40] PORTER, D.A., EASTERLING, K.E. Phase Transformations in Metals and Alloys. Nelson Thorners, 1992. [41] BRAMFITT, B.L., SPEER, J.G. A Perspective on the Morphology of Bainite. Metallurgical Transactions A, Vol. 21A, 1990, págs. 817-829. [49] C. García-Mateo, F.G. Caballero , H. K. D. H. Bhadeshia. ISIJ Int. 43 (2003). 1238. [50] V.T.T, Miihkinen y D.V. Edmonds, Mater. Sci. Technol. 3 (1987) 422-431. [51] V.T.T, Miihkinen y D.V. Edmonds, Mater. Sci. Technol. 3 (1987) 432-440. Instrucciones a los autores Revista ITECKNE Instrucciones Generales • Los artículos deberán ser enviados en formato digital al correo electrónico e-mail: [email protected] trabajos se aceptan para la publicación previo proceso de revisión de su calidad académica y científica. • Todo artículo postulado para publicación debe ser original o inédito, y no puede estar postulado para publicación simultáneamente en otras revistas. En la página web de la Revista Iteckne se halla disponible la declaración de originalidad y cesión de derechos, que los autores deberán diligenciar y enviar al Comité Editorial, junto con el artículo. La revista Iteckne requiere a los autores que concedan la propiedad de sus derechos de autor, para que su artículo y materiales sean reproducidos, publicados, editados, fijados, comunicados y transmitidos públicamente en cualquier forma o medio, así como su distribución en el número de ejemplares que se requieran y su comunicación pública, en cada una de sus modalidades, incluida su puesta a disposición del público a través de medios electrónicos, ópticos o de otra cualquier tecnología, para fines exclusivamente científicos, culturales, de difusión y sin fines de lucro. • El Comité Editorial hace una primera evaluación, después de la cual, el trabajo puede ser rechazado sin evaluación adicional o se acepta para la evaluación de los pares académicos externos. Por lo anterior, no se asegura a los autores la publicación inmediata de dicho artículo. La decisión de rechazar un trabajo es definitiva e inapelable. • Los trabajos pueden ser rechazados en esta primera evaluación porque no cumplen con los requisitos de redacción, presentación, estructura o no son suficientemente originales y/o pertinentes con la publicación a editar. Los trabajos que son aceptados en esta primera etapa, son enviados a los pares académicos externos (árbitros) expertos en el área respectiva, cuyas identidades no serán conocidaspor el autor y, a su vez, los pares evaluadores tampoco conocerá la(s) identidad(es) del(los) autor(es). • Si el trabajo es aceptado, pero con la recomendación de hacer modificaciones, se le devolverá al (los) autor(es) junto con las recomendaciones de los árbitros para que preparen una nueva versión corregida para lo cual disponen del tiempo que le indique el Comité Editorial. Los autores deben remitir la nueva versión con una carta física o correo electrónico en la que expliquen detalladamente los cambios efectuados, de acuerdo con las recomendaciones recibidas. El Editor junto con el Comité Editorial determinarán su aceptación, considerando el concepto de los evaluadores y las correcciones realizadas por el(los) autor(es). • Los árbitros realizarán la evaluación de acuerdo al formato correspondiente establecido por la revista y sólo serán publicados los artículos que superen en la calificación cualitativa en la escala de 1 a 50, 35 puntos. • En todos los casos se comunicarán a los autores los resultados del proceso de evaluación con los argumentos que sustenten la decisión del Comité Editorial y/o el Comité de Arbitraje. • Un árbitro podrá calificar dos (2) artículos de diferentes autores al tiempo, de igual forma un artículo podrá ser calificado por dos árbitros diferentes, ya sean internos, nacionales o internacionales. • Los integrantes del Comité Editorial y Comité de Arbitraje, no deberán evaluar sus propios productos, en caso tal que actúen como autores dentro de la misma publicación. • Los trabajos no publicados serán archivados como artículos rechazados o en proceso de aceptación. • La dirección de la revista ITECKNE no se responsabiliza por el contenido de los artículos, ni por su publicación en otros medios. El contenido de cada artículo es responsabilidad exclusiva de su(s) autor(es) y no compromete a la Universidad. 138 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 137 - 139 Forma de Presentación de los Artículos. Todos los documentos postulantes a ser publicados deberán tener las partes requeridas y cumplir con los apartados descritos a continuación: De las partes del documento El documento debe contener: Titulo, Title, Autor (es), Resumen, Palabras clave, Abstract, Keywords, Introducción, Contenido del documento, Conclusiones, Apéndice(s), Agradecimientos, Bibliografía De la redacción Para lograr un buen estilo se recomienda respetar rigurosamente la sintaxis, la ortografía y las reglas gramaticales pertinentes. Se debe redactar en forma impersonal (la forma impersonal corresponde a la forma reflexiva, por ejemplo: se hace, se define, se definió, se contrastó). El trabajo debe estar exento de errores dactilográficos, ortográficos, gramaticales y de redacción. Para resaltar, puede usarse letra cursiva o negrilla. De la Puntuación • Después de punto seguido se deja un espacio; y de punto aparte una interlínea. • Los dos puntos se escriben inmediatamente después de la palabra, seguidos de un espacio y el textocomienza con minúsculas. De los requerimientos físicos del artículo: (ver plantilla revista ITECKNE) • El tamaño de la página será carta, con márgenes superior e inferior de 20 mm; izquierdo y derecho de 25 mm. El documento se desarrollará en dos columnas con separación central de 4,3 mm. • El diseño de encabezado y pie de página debe estar a un centímetro de la hoja. • El contenido del documento debe desarrollarse a espacio sencillo, dejando una línea cada vez que se desea iniciar un párrafo. • El texto del contenido del artículo se formalizará con tipo de fuente Arial tamaño 10. • La numeración del documento se iniciará desde la Nomenclatura en caso de existir una, hasta las conclusiones del documento. Los agradecimientos, apéndices y referencias bibliográficas, no son consideradas como Secciones numeradas del documento. • Las tablas deberán llevar numeración continua, comenzando en Tabla I., referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la tabla con tabulacióncentral, en tipo de letra Arial, tamaño 8. (Ver plantilla revista Iteckne). • Las Figuras deberán llevar numeración continua, comenzando en Fig. 1. referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la figura, con tabulación central, en tipo de letra Arial, tamaño 8. Nótese que “Fig.” se ha escrito abreviada y hay doble espacio antes del texto. • Las figuras incluidas en el contenido del artículo deben ser originales, suficientemente claras, para facilitar la edición de la revista. • Todas las figuras deben ser enviadas por separado en formato jpg con una resolución entre 240 y 300 dpi (puntos por pulgada). • Las tablas y figuras del documento, deberán ir referenciadas en el cuerpo del artículo. Dicha referencia debe ir en letra Arial tamaño 7, en la parte inferior de la figura o tabla, tabulado a la izquierda. • Las columnas de la última página deben ser concluidas con un largo igual o simétrico. • Las referencias ubicadas al final del documento (mínimo 15), según el formato IEEE. Deberán ir enumeradas consecutivamente (Número entre corchetes [1], y con el siguiente formato: Instrucciones a los autores Revista ITECKNE 139 Artículos de revistas científicas Autor(es), Nombre de la publicación, Título de la revista, Volumen, Número, páginas y año. Deben ir en fuente Arial, Tamaño 7. Ejemplo: J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988. Libros Autor, Nombre del libro, Edición, Editorial, Año, páginas. Ejemplo: E. Clarke, Circuit Analysis of AC Power Systems, vol. I. New York: Wiley, 1950, p. 81. • En cuanto a las abreviaturas y símbolos, deben utilizarse solo abreviaturas estándar, evitando utilizarlas en el título y el resumen. El término completo representado por la abreviatura debe preceder dicha abreviatura o nomenclatura. • Las viñetas usadas para señalización especial, será el punto, de fuente Symbol y tamaño 8. • En caso de que los artículos contengan fórmulas matemáticas, deben estar digitadas en fuente Arial 10, mediante el editor de ecuaciones de Microsoft. • El artículo deberá tener un mínimo de 4 caras de hoja y un máximo de 10 caras de hoja de contenido, en el formato establecido por la revista. Instructions to the authors, ITECKNE Journal General instructions • The articles must be sent in digital format to the following email address: [email protected]. Their academic and scientific quality will be reviewed prior to being accepted for publication. • The articles are accepted for publication after their academic and scientific quality have been reviewed. • All articles postulated for publication must be original or unpublished, and cannot be postulated for publication simultaneously in other journals. The declaration of originality and copyright assignment is available in the Iteckne Journal webpage. The authors must sign it and send it to the Publishing Committee, along with the article. The Iteckne journal requires the authors to grant the property of their author’s rights, so that their article and materials are reproduced, published, edited, fixed, communicated and publicly transmitted in any form or means, as well as their distribution in any required number of units and their public communication, in each of their modalities, including putting them at the disposal of the public through electronic, optical or any other means of technology, for exclusively scientific, cultural, broadcasting and nonprofit aims. • The Publishing Committee makes a first evaluation, after which the work can be rejected without any additional evaluation or accepted for evaluation of the external academic pairs. The previous statement does not assure the immediate publication of the article. The decision to reject a work is definitive and unquestionable. • The works can be rejected in this first evaluation because they do not fulfill the writing requirements, presentation, and structure or are not original enough and/or pertinent with the publication to be published. The works that are accepted in this first stage are sent to the external academic peers (referees) experts in the respective area, whose identities will not be known by the author and, similarly, the evaluating peers will not know the identity/ies of the author /s. • If the work is accepted, but with the recommendation to make modifications, it will be given back to the author/s along with the recommendations from the referees so that he/they prepare a new corrected version within the time indicated by the Publishing Committee. The authors must send the new version with a physical letter or an e-mail in which they explain in detail the changes made, in accordance with the received recommendations. The Publisher along with the Publishing Committee will determine its acceptance, considering the concept of the evaluators and the corrections made by the author/s. • The referees will carry out the evaluation according to the corresponding format established by the journal and they will only publish the articles with over 35 points in the qualitative qualification scale from 1 to 50. • The authors will always be informed about the results of the process of evaluation that sustain the decision of the Publishing Committee and/or the Referees. • An academic peer (referee) will be able to grade two (2) articles by different authors at once; similarly, an article can be graded by two different referees, which can be internal, national or international. • The members of the Publishing and Referees Committees must not evaluate their own products, in case they act like authors within the same publication. • The non-published works will be filed as rejected articles or articles in process of acceptance. • The editorial board of the ITECKNE journal does not take responsibility for the content of the articles, nor for their publication in other means. The content of each article is exclusive responsibility of their authors and not the University’s. Instructions to the authors, ITECKNE Journal 141 Presentation of Articles All articles applying to be published must have the requirements described below: Concerning the parts of the document The document must contain: Title, Author/s, Summary, Abstract, Keywords, Introduction, Content of the document, Conclusions, Appendix (s) Acknowledgements, Bibliography Concerning the writing In order to obtain a good style it is recommended to respect the syntax, spelling and grammar rules rigorously. The article must be written in impersonal form (it corresponds to the passive form, for example: it is done, it is defined, it was defined, it was contrasted). The work must be free of typing, orthographic, grammar and writing errors. Italics or bold type can be used to highlight. Concerning the punctuation • Leave one space after a period; and start a new line after a full-stop. • Colons are written immediately after the word, followed by a space and the text begins with small letters. Concerning the physical requirements of the article: (see template from ITECKNE magazine) • The article must be written on letter size paper/format, with top and bottom margins of 20 mm; left and right, 25 mm. • The document must be in two-column format with a central space of 4.3 mm (see template in Iteckne journal). • The design of the header and footer must be of 1 centimeter. • The content of the document must be written on single space, leaving a line when starting a new paragraph. • The font must be Arial 10. • The document numbering must begin with the Nomenclature, if there is one, and end with the conclusions of the document. The acknowledgements, appendices and bibliographical references, are not considered as numbered sections in the document. • The tables will take continuous numbering, beginning with Table I., referencing afterwards their title, in all caps, located at the top part of the table with center tab, in Arial 8. (see template in Iteckne journal). • The Figures will take continuous numbering, beginning with Fig 1. referencing afterwards their title, in all caps, located at the top part of the figure with center tab, in Arial 8. Note that " Fig." has been written abbreviated and with double space before the text. • The figures in the content of the article must be original, clear enough to facilitate the edition of the journal. • Every Figure and Table included in the paper must be referred to from the text (Source: XXX). These references must go in Arial 7, in the lower part of the figure or table, left tab. • The columns in the last page must have an equal or symmetrical length. • The references located at the end of the paper, must be numbered consecutively (Number between square brackets [1], and with the following format (see template in Iteckne journal): 142 ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 140 - 142 Articles for scientific journals: Author/s, Name of the publication, Title of the journal, Volume, Number, pages and year. They must go in Arial 7. Example: J.F. Fuller, E.F. Fuchs, and K.J. Roesler, “Influence of harmonics on to power distribution system protection,” IEEE Trans. Power Delivery, bowl. 3, no.2, pp. 549-557, Apr. 1988. Books: Author, Name of the book, Edition, Editorial, Year, pages. Example: E. Clarke, Circuit Analysis of AC Power Systems, bowl. I. New York: Wiley, 1950, P. 81. • As for the abbreviations and symbols, only standard abbreviations must be used, avoiding using them in the title and the summary. The complete term represented by the abbreviation must precede this abbreviation or nomenclature. • The bullet points used for special signaling must be in Symbol source size 8. • In case the articles contain mathematical formulas, they must appear in Arial 10, written with the Microsoft equation editor. • The article must have a minimum of 4 pages and a maximum of 20 pages, in the format established by the journal. La Revista ITECKNE, Vol. 10 No. 1, se terminó de imprimir en el mes de julio de 2013 en los talleres Distrigraf, de Bucaramanga, Colombia. El tiraje consta de 300 revistas.