REVISTA_ I_vol10.indd - universidad santo tomas de bucaramanga

Anuncio
DIRECTIVOS
Fr. Faustino Corchuelo Alfaro, O.P.
Rector
Fr. Guillermo León Villa Hincapié, O.P.
Vicerrector Académico
Fr. Fernando Cajicá Gamboa, O.P.
Decano División de Ingenierías y
Arquitectura
Fr. José Rodrigo Arias Duque, O.P.
Vicerrector Administrativo-Financiero
CORRECCIÓN ORTOGRÁFICA Y DE
ESTILO
Ciro Antonio Rozo Gauta
Departamento de Publicaciones
Directora Dpto. Publicaciones
C.P. Luz Marina Manrique Cáceres
Diseño y Diagramación
Pub. Luis Alberto Barbosa Jaime
Yudy Natalia Flórez Ordóñez, Ph.D.
Coordinadora editorial
Lizeth Johanna Alvarado Rueda, M.Sc.
COMITÉ EDITORIAL
Rudy Cepeda Gómez, Ph.D
Universidad Santo Tomás
Bucaramanga, Colombia
Carlos Vicente Rizzo Sierra, Ph.D
Universidad Santo Tomás
Bucaramanga, Colombia
Yudy Natalia Flórez Ordóñez, Ph.D
Universidad Santo Tomás
Bucaramanga, Colombia
Catalina Tobón Zuluaga, Ph.D
Instituto Tecnológico Metropolitano
Medellín, Colombia
Gilma Granados Oliveros, Ph.D
Instituto de Investigaciones en Materiales.
Universidad Nacional Autonoma de México-UNAM
Ángel Alberich Bayarri, Ph.D
Grupo Hospitalario Quirón
Valencia, España
Héctor Esteban Gonzales, Ph.D
Universidad Politécnica de Valencia
Valencia, España
Distrigraf
PERIODICIDAD
PRODUCCIÓN CREATIVA
EDITOR
IMPRESIÓN
Semestral
© Universidad Santo Tomás
ISSN 1692 - 1798
ISSN DIGITAL 2339 - 3483
COMITÉ CIENTÍFICO
Liliana del Pilar Castro Molano, Ph.D
Universidad Santo Tomás
Bucaramanga, Colombia
Leonor Yamile Vargas Méndez, Ph.D
Universidad Santo Tomás
Bucaramanga, Colombia
Nelson Jair castellanos Márquez, Ph.D
Universidad Santo Tomás
Bucaramanga, Colombia
Ramón Gutiérrez Castrejón, Ph.D
Instituto de Ingeniería, UNAM, México
Alberto Gonzales Salvador, Ph.D
Universidad Politécnica de Valencia, España
Mónica Karel Huerta, Ph.D
Universidad Simón Bolívar, Venezuela
Javier Baliosian de Lazzari, Ph.D
Universidad de la Republica, Uruguay
Cesar Dario Guerrero, Ph.D
Universidad Autónoma de Bucaramanga
Bucaramanga, Colombia
La revista ITECKNE ha sido aceptata en los siguientes índices bibliograficos y bases bibliograficas:
•
•
•
•
Índice Bibliográfico Nacional - PUBLINDEX
Sistema regional de información en línea para revistas científicas de América Latina, el Caribe, España y Portugal. - LATINDEX
EBSCO Publishing
Índice Actualidad Iberoamericana - CIT
Cada artículo es responsabilidad de su autor y no refleja la posición de la revista. Se autoriza la reproducción de los artículos siempre y
cuando se cite al autor y la revista Iteckne. Agradecemos el envío de una copia de la reproducción a esta dirección: Universidad Santo
Tomás, Facultades de Ingeniería.
Carrera 18 No. 9-27 Servicio al Cliente Iteckne Teléfono: + 57 7 6800801 Ext. 1411- 1421 Fax: 6800801 Ext. 1346
E-mail: [email protected] - [email protected]
Bucaramanga - Santander
Contenido
Revista ITECKNE Vol 10 Nº 1 enero - junio de 2013
Editorial...........................................................................................................................................................................5
Yudy Natalia Flórez Ordóñez
ARTÍCULOS DE INVESTIGACIÓN E INNOVACIÓN
Método para la extracción de puntos de control en la calibración de una cámara basado
en la estimación de la fase de un patrón de puntos codificado
Method to the extraction of control points based to the phase estimate of a coded dot pattern
for camera calibration...................................................................................................................................................7
Andrés Leonardo González Gómez, Alexánder Ballesteros Díaz, Jaime Enrique Meneses Fonseca,
Jaury León Téllez
Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis
Síntesis y caracterización de películas delgadas de Tio2 dopadas con cobre para ser usadas
en fotocatálisis.............................................................................................................................................................16
Carlos Enrique Díaz-Uribe, Fernando Martínez Ortega, William Andrés Vallejo Lozada
Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente
en el estado final
Nonleptonic Bc decays, radial and excited charmonium mesons in the final state................................................21
Juan Carlos Barrios Ávila, José Herman Muñoz Ñungo, José David Sanabria Gómez
Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor
catalítico fabricado en acero inoxidable AISI-SAE 304
Study of the effect of a gaseous atmosphere of ammonia in a component of a catalytic reactor
manufactured of an AISI type 304 stainless steel ....................................................................................................27
Carlos Alberto López C
Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman
y Mínimos Cuadrados
Methodology for Real-Time Parameter Estimation Through Kalman Filter and Least-Squares..............................37
Víctor Alfonso Ortiz Bravo, Edwin Andrés Quintero Salazar, Manuel Antonio Nieto Arias
Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano
Decision Support System for Multifractal Analysis of the Human Genome.............................................................45
Martha Eliana Mendoza Becerra, Adrián Fernando Martínez Molina, Carlos Alberto Cobos Lozada
Alba Viviana Camayo Otero, Émber Ubéimar Martínez Flor
Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift
Comparative analysis and kinetic model for photobioreactors hydrodynamic airlift...............................................57
Félix Fabián Cortés Conde, Édisson Mateo Gómez Espinosa, Diego Rubio Fernández
Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones
Optimization and Classification of EMG Signals Through Pattern Recognition Methods........................................67
Cristhian Manuel Durán Acevedo, Aylen Lisset Jaimes Mogollón
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en
Interactividad y Sistemas de Recomendaciones
Architecture for the Video on Demand service deployment on IPTV, based on
Interactivity and Recommender Systems...................................................................................................................77
Diego Fabián Durán Dorado, José Arciniegas
Factores del entorno que influyen en la adopción de e-procurement en empresas
de la industria del mueble en España
Influence of environmental factors on e-procurement adoption process in furniture industry in Spain...............90
Alba Soraya Aguilar-Jiménez
Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya
Data Provenance Validation for the LAGO stations Sierra Negra and Chacaltaya................................................104
Luis A. Núñez, Christian Andrés Sarmiento Cano, Fernando Quiñónez
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control.........................113
Amalia Dávila Gómez, Paula Andrea Ortiz Valencia, Alejandro Peña Palacio, Edilson Delgado Trejos
ARTÍCULOS DE REVISIÓN BIBLIOGRÁFICA
Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas
Influence of Boron in the mechanical properties of Bainitic steels.......................................................................128
Karol Felipe Rodríguez Galeano
Instrucciones a los autores Revista ITECKNE...........................................................................................................137
Instructions to the authors, Iteckne Journal.............................................................................................................140
La revista ITECKNE es una publicación de la División de Ingenierías y Arquitectura de la Universidad Santo Tomás, Seccional de Bucaramanga, integrada por las Facultades de Ingeniería de Telecomunicaciones, Ingeniería Mecatrónica, Ingeniería Industrial y Química Ambiental. Actualmente la Revista está indexada en el Índice Bibliográfico Nacional Publindex y en el Sistema Regional de Información en
Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal LATINDEX, y ha sido aceptada en el sistema de bases de
datos de EBSCO (Fuente Académica). Su objetivo es la divulgación de los resultados científicos y tecnológicos de las investigaciones que
se realizan en su seno, y en otras universidades a nivel nacional e internacional. La revista cuenta con la participación de diversos investigadores nacionales e internacionales, por esta razón recibe contribuciones en idiomas Español e Inglés. La revista ITECKNE está dirigida a
estudiantes, docentes e investigadores interesados en las áreas en las que se inscribe cada una de las publicaciones. La revista aceptará
preferiblemente artículos de investigación e innovación con un alto nivel de calidad, y también aceptará artículos cortos y reportes de caso.
Editorial
La divulgación de resultados de nuevos conocimientos derivados
de investigación aporta al fortalecimiento de la comunidad científica,
es principalmente insumo para futuras investigaciones, contribuye al
mejoramiento de la calidad del ejercicio docente y profesional y, de
igual manera, ha permitido dinamizar los procesos de construcción
de conocimiento en los diversos niveles de educación mediante la lectura y discusión de los mismos. Este último punto sin llegar a realizar
una apreciación de manera general se ha fortalecido en los niveles de
educación superior dejándose un poco más limitado el uso de esta
estrategia en la educación básica y media.
Consciente de la importancia de la publicación de resultados, la
revista ITECKNE, Innovación e Investigación en Ingeniería, desde su
creación en el año 2002 trabaja constantemente para ser un medio
de divulgación y referente para investigadores en el área de Ingeniería
de Telecomunicaciones, Ingeniería Mecatrónica, Ingeniería Industria
y Química Ambiental. Como editora de la Revista ITECKNE continuaré
trabajando en el posicionamiento y la visibilidad de la revista en Bases
de Datos nacionales e internacionales, además es un objetivo prioritario en el plan de gestión de los comités científico y editorial de la
Revista y un compromiso con nuestros autores y lectores.
La calidad de las publicaciones repercute en la divulgación y
apropiación de la revista dentro de la comunidad científica, por esta
razón edición tras edición se fortalece el equipo de árbitros quienes
mediante su experticia aportan a seleccionar artículos de reconocido impacto.
Invito a leer esta décimo primera edición de la revista ITECKNE, la
cual presenta una colección de doce artículos resultados de investigación y dos artículos de revisión de gran interés para la comunidad
académica. A nuestros lectores, autores y colaboradores, un agradecimiento muy especial en el crecimiento de ITECKNE.
Yudy Natalia Flórez Ordóñez
[email protected]
Editor
Método para la extracción de puntos de control
en la calibración de una cámara basado en la
estimación de la fase de un patrón de puntos
codificado
Method to the extraction of control points based to the phase
estimate of a coded dot pattern for camera calibration
Andrés Leonardo González Gómez
Especialista en Telecomunicaciones
Universidad Pontificia Bolivariana
Estudiante de Maestría en Telemática, Investigador Grupo
GINCAP, Universidad Autónoma de Bucaramanga UNAB
Bucaramanga, Colombia
[email protected]
Jaime Enrique Meneses Fonseca
PhD. Sciences Pour L’ingenieur
Université de Franche Comté
Profesor Titular, Director Grupo GOTS,
Universidad Industrial de Santander UIS Bucaramanga, Colombia
[email protected]
Alexánder Ballesteros Díaz
Estudiante de Física
Universidad Industrial de Santander, Investigador Grupo GOTS,
Universidad Industrial de Santander UIS
Bucaramanga, Colombia
[email protected]
Jaury León Téllez
MSc. en Física
Universidad Industrial de Santander, Director Grupo GINCAP,
Universidad Autónoma de Bucaramanga UNAB
Bucaramanga, Colombia
[email protected]
Resumen— Con el método de Zhang para la calibración
de una cámara, se propone un método con el cual sea
posible realizar la estimación de parámetros intrínsecos de la cámara, basado en el cálculo de la fase de
un patrón de puntos codificado. El método propuesto
requiere un patrón pseudo periódico de puntos negros
equiespaciados que matemáticamente se pueden representar como dos sistemas ortogonales de franjas.
Debido a la distribución espacial regular de los puntos
en todo el plano, es posible obtener la posición de un
punto con base en la distribución de fase, con precisión
subpixel. La relación entre la posición 3D de los puntos y
su correspondiente posición en la imagen resultante se
realiza sin intervención alguna del usuario. Es posible
debido a que el patrón de puntos tiene cada una de sus
posiciones codificadas en una secuencia binaria pseudo
aleatoria. Evaluaciones experimentales demuestran que
calcular la posición espacial de un punto con el método
basado en la fase es más robusto al ruido que el método basado en cálculos de intensidad. De igual forma,
el cálculo de las posiciones de los puntos a partir de la
fase es menos sensible a variaciones de focalización e
iluminación del patrón.
dots that mathematically can be represented by two
orthogonal fringe systems. Due to regular distribution,
control point positions are obtained with subpixel accuracy from their phase distributions. The correspondences between 3D control points and their resulting image
positions are realized without user intervention. This is
possible because the control points in the pattern have
their positions encrypted with a pseudorandom binary
sequence. Experiments have shown that phase based
procedure for extracting control point positions is much
more robust to noise than intensity based approach.
Palabras clave— Calibración de cámaras, Extracción de
fase, Transformada de Fourier.
Abstract— Inspired by Zhang’s method on camera calibration, a phase based approach to the estimation of
features points is proposed. The proposed method requires a pseudo periodic pattern of equispaced black
Keywords— Camera calibration, phase extraction,
Fourier Transform.
I. INTRODUCCIÓN
Una cámara realiza la transformación de coordenadas reales del mundo 3D en una imagen
plana 2D. La calibración de la cámara consiste en
calcular los parámetros asociados con esta transformación. Este proceso es esencial cuando se
requiere extraer información métrica de las imágenes. Una correcta calibración hace posible medir con precisión distancias mediante la imagen
de una cámara o formas 3D del mundo real con
un dispositivo de medida topográfico que posee
integrada una o más cámaras. En el proceso de
Recibido: 06/08/2012/ Aceptado: 16/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15
8
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15
calibración se identifican dos etapas claramente:
El modelamiento y la optimización. El modelo matemático de la cámara consiste en una aproximación del comportamiento físico y óptico del sensor
mediante un conjunto de parámetros. La segunda etapa del proceso de calibración de la cámara
está relacionada con el uso de métodos de optimización para la estimación de esos parámetros.
Aunque existen varios modelos para la cámara, en este trabajo se usa el modelo de cámara
proyectiva, conocido como “modelo pinhole”. De
la literatura consultada sobre el uso de tal modelo, se obtiene una idea sobre la eficiencia de la calibración de la cámara en diferentes situaciones.
El método de Tsai [1] ampliamente utilizado en el
pasado, ilustra un proceso clásico de calibración
basado en la medida de coordenadas 3D de puntos, los cuales son llamados puntos de control, en
un patrón no plano y tomado un sistema coordenado fijo de referencia. Salvi [2] compara diferentes modelos de cámaras propuestos desde 1982
a 1998, para demostrar que el método de Tsai es
el de mejor desempeño, siempre que los datos
de entrada sean determinados con alta precisión.
El método de Zhang [3], el cual no es evaluado
por Salvi, utiliza imágenes de un plano que tiene
adherido un patrón en intensidad específico (cuadros blancos y negros), capturadas por la cámara
en diferentes posiciones y orientaciones. Sun [4]
compara los métodos de Tsai, Zhang and Heikkilä;
y concluye que el modelo que emplea un sistema
coordenado fijo, como el modelo de Tsai, puede
obtener alta precisión siempre que los datos de
entrada sean determinados con bajo error. Esto
quiere decir que el método requiere de medidas
3D precisas. Por el contrario, el procedimiento de
calibración con un plano, empleado en el método de Zhang no requiere un diseño espacial específico ni las coordenadas precisas de un punto.
Sun logró calibrar la cámara desplazando el patrón plano con la mano en diferentes posiciones
y orientaciones, como se propone en el método
de Zhang, y obtuvo mejores resultados que con
los otros métodos. Sin embargo, una desventaja
significativa del método de Zhang es que requiere
de la intervención del usuario para que defina el
área de interés sobre cada una de las imágenes
del plano. Este procedimiento representa un significativo consumo de tiempo y un inconveniente
para los usuarios, especialmente para quiienes
no están familiarizados con la visión por computador [5].
Los puntos de control en el método de Zhang
hacen parte de la imagen de alto contraste de un
patrón adherido a una superficie plana. Patrones
como tableros de ajedrez (blanco y negro) [6] y
círculos [5] son comúnmente usados junto con
estrategias clásicas de detección de bordes, esquinas y centros geométricos. En todos los casos,
los errores en las coordenadas de los puntos están determinados por el nivel de ruido y contraste de las imágenes. De igual forma, la distorsión
introducida por las aberraciones geométricas de
las lentes y la distorsión debida a la perspectiva
de proyección introducen errores determinísticos
en el cálculo de las coordenadas de los puntos de
control. En este artículo se presenta una estrategia para la determinación de las coordenadas de
los puntos de control basado en un procedimiento de extracción de fase espacial de un patrón de
puntos impresos sobre un plano. El patrón de puntos 2D es un código pseudo periódico de puntos
negros equiespaciados que matemáticamente se
pueden representar como un patrón ortogonal de
franjas con dos distribuciones de fase ortogonales. Debido a la ubicación regular, la posición de
cada punto se obtiene con una precisión subpixel
a partir de su distribución de fase. La relación entre las coordenadas reales 3D y sus coordenadas
resultantes en la imagen 2D se realiza sin la intervención del usuario, incluso en casos donde no
se alcanza a observar todo el código de puntos
completo en la imagen. Esto es posible porque las
coordenadas reales de cada punto están codificadas por una secuencia binaria pseudo aleatoria
generada por un registro lineal con retroalimentación de longitud N=15.
II. PATRÓN PSEUDO PERIÓDICO
La Fig. 1 muestra el modelo del patrón de
puntos empleado en el proceso de calibración.
El patrón consiste en un código pseudo periódico
de puntos (PPP) negros equiespaciados. En trabajos anteriores [7-9], se empleó un PPP para
determinar las coordenadas 3D de un objeto en
el espacio con precisión subpixel. Como se demostró en [10], la transformada de Fourier de
un PPP posee un grupo de lóbulos ortogonales
que corresponden a dos patrones periódicos ortogonales con sus respectivas distribuciones de
Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de
puntos codificado – González, Meneses, Ballesteros, León
fase. La posición central de cada punto se puede
calcular con resolución subpixel, al interpolar la
distribución de fase 2D. El PPP fue inicialmente
usado en sistemas de visión estéreo? con el fin
de determinar la posición global de un sensor láser 3D portátil, se logra cerca de 33 micrómetros
de resolución para un campo transversal efectivo
de 60cm x 60cm [9].
Fig. 2. (a) RETROALIMENTACIÓN DE DESPLAZAMIENTO LINEAL; (b) SECUENCIA BINARIA PSEUDO ALEATORIA
Fig. 1. PATRÓN DE PUNTOS PSEUDOPERIÓDICO
Fuente: Autores del proyecto
El patrón sobre el plano tiene una distribución
espacial de puntos negros y puntos ausentes (vacíos) que cubren todo el plano. Esos puntos ausentes hacen que el patrón sea pseudo-periódico
y su distribución espacial codifica la posición espacial 2D de cada uno de los puntos.
Este diseño de codificación se obtiene mediante una secuencia binaria pseudo aleatoria
(SBPR) generada por un registro lineal con retroalimentación (RLR). Un RLR de N registros con
un Or-Exclusivo (XOR) como función lineal produce una secuencia periódica máxima de 2N – 1
palabras de longitud N.
La Fig. 2 (a) muestra un RLR de N=3. La
compuerta XOR provee la retroalimentación del
registro que desplaza los bits de izquierda a derecha. La secuencia máxima consta de todas las
palabras posibles excepto “000”. La Fig. 2 (b)
muestra la secuencia máxima formada por 7 palabras posibles, en binario y decimal, iniciando
desde “111” y la SBPR final formada por 7 bits:
“1110100”. Debido al registro de desplazamiento lineal, las palabras sucesivas en la SBPR comparten necesariamente N-1 bits consecutivos
con sus vecinos inmediatos. Cada palabra posee
una posición única dentro de la secuencia completa.
Fuente: Autores del proyecto
De esta forma, es posible recuperar el valor
de la palabra al agrupar los N bits consecutivos
en la SBPR. Mediante esta técnica en el patrón
plano representado en la Fig. 1, un punto negro
representa un bit de valor “1” y un “0” es representado por un espacio blanco ó punto ausente. Un punto negro posee N vecinos horizontales
hacia la derecha, que al agruparlos define una
palabra. La posición de la palabra en la SBPR
determina la coordenada horizontal absoluta del
punto inicial en el plano que contiene el patrón.
La coordenada vertical de un punto se obtiene
al introducir desplazamientos horizontales conocidos a la secuencia de puntos de la línea horizontal anterior. De esta manera, al identificar el
corrimiento introducido a una línea se determina
su coordenada vertical. La influencia de puntos
ausentes en la distribución de fase se puede reducir al ubicar M líneas horizontales sin puntos
ausentes entre dos secuencias consecutivas. La
Fig. 1. muestra un patrón de 135x91 puntos con
M=1 y N=15. La secuencia máxima en la SBPR
resultante tiene 32767 bits. Un algoritmo simple
de optimización fue diseñado para recuperar la
9
10
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15
secuencia de 135 bits con el menor número de
“0” ó puntos ausentes. El patrón fue construido de la siguiente manera: se determinan 135
bits de la SBPR que conforman la primera fila,
la segunda es una secuencia de puntos negros
sin código, la tercera se obtiene al desplazar
horizontalmente hacia la derecha en un bit la
secuencia de la fila 1, la cuarta es una secuencia de puntos sin código, la quinta se obtiene
al desplazar horizontalmente hacia la derecha
en dos posiciones la tercera fila. De esta manera las filas impares poseen corrimientos sucesivos de 1,2,3, etc.
III. RECUPERACIÓN DE LA POSICIÓN DE LOS
PUNTOS
Como se menciona en la sección 2, el PPP se
puede describir matemáticamente como una distribución regular ortogonal:
donde I0 hace referencia a la intensidad, ak
a la amplitud del armónico de orden k y φ a la
distribución de fase. Si el PPP es capturado por
una cámara con un lente libre de distorsión y en
condiciones telecéntricas entonces la distribución de fase es una función lineal de la posición.
Sin embargo, debido a la distorsión geométrica y
a la perspectiva de proyección, la cámara recupera una distribución de fase no lineal. La Fig. 3,
muestra una imagen invertida en escala de gris
del PPP de la Fig. 1, y su respectiva transformada
de Fourier.
Fig. 3. (a) NEGATIVO DE LA IMAGEN DEL PPP MOSTRADO EN LA
FIG. 1; (b) TRANSFORMADA DE FOURIER
Fuente: Autores del proyecto
Las distribuciones de fase φ1 y φ2 pueden
ser calculadas con el método de la transformada de Fourier [10]. Los subindexes 1 y 2 en (1)
representan las dos direcciones ortogonales
del PPP que puede ser observado en el contenido frecuencial, Fig.3. (b). Seleccionado el filtro
adecuado para separar el primer armónico en la
dirección 1 y 2, y procesada la transformada inversa de Fourier de cada imagen filtrada, se obtienen dos distribuciones complejas. La fase de
dichas distribuciones complejas puede ser calculada con la función arcotangente y corresponde a las fases discontinuas φ1 y φ2, de acuerdo
con el método de transformada de Fourier.
Debido al uso de la función arcotangente,
las fases calculadas poseen discontinuidades
de ±2π, que tradicionalmente son eliminadas y
se adiciona de manera apropiada 2πn, n es una
función entera en escalón. La Fig. 5, muestra un
corte de la distribución de fase discontinua φ1
del PPP de la Fig. 3(a) a lo largo de una fila de
puntos blancos y los valores de intensidad de la
imagen en niveles de gris, en la misma fila. De
acuerdo a esta figura, las discontinuidades ±π
se ubican en mínimos de intensidad y los valores de fase discontinua de cero se localizan en
los máximos de intensidad o centro
Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de
puntos codificado – González, Meneses, Ballesteros, León
Fig. 4. DISTRIBUCIÓN DE FASE EN (a) DIRECCIÓN 1 Y (b) DIRECCIÓN 2
IV. MODELO DE LA CÁMARA
El método de Zhang usa el modelo de cámara
“pinhole” para relacionar las coordenadas 3D del
mundo real con las de la imagen 2D en el plano de
la cámara. La relación matemática entre los puntos reales y los de la imagen se realiza a través
de cuatro transformaciones, mediante las coordenadas del mundo real (Xw,Yw,Zw), las coordenadas de la cámara (Xc,Yc,Zc), las coordenadas de la
imagen sin distorsión (xu,yu), las coordenadas de
la imagen distorsionada (xd,yd) y las coordenadas
en pixeles (u,v) sobre la imagen. Estos sistemas
coordenados son mostrados en la Fig. 6.
Fig. 5. FASE DISCONTINUA E INTENSIDAD DE LA IMAGEN INVERTIDA A LO
LARGO DE LA DIRECCIÓN A – A’ EN LA FIG. 3(a)
Fuente: Autores del proyecto
Fuente: Autores del proyecto
de los puntos blancos. Los valores de cero de
la fase discontinua corresponden a valores enteros de 2π en la fase continua. Así, los puntos de intersección de las curvas de nivel de las fases continuas para valores de φ1=2πN1 y φ2=2πN2 que se
muestran en la Fig. 4 (a) y (b) respectivamente
determinan las coordenadas X y Y de cada punto de control en el PPP, definido por los valores
enteros N1 y N2. De este modo, un sistema de
coordenadas con valores enteros N1 y N2 se usa
para identificar cada punto de control en el PPP. El
origen de este sistema coordenado se localiza en
la esquina superior izquierda del PPP y los puntos
se incrementan ordenadamente para valores de
N1 y N2 en las direcciones 1 y 2 respectivamente.
Fig. 6. MODELO “PINHOLE” PARA LA CÁMARA
Fuente: Autores del proyecto
La primera transformación entre las coordenadas reales (Xw,Yw,Zw) y las coordenadas de la cámara (Xc,Yc,Zc), se realizacon la posición y orientación de la cámara, expresada por los parámetros
extrínsecos R y t, así:
11
12
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15
R es una matriz 3x3 de rotación y t es un vector de translación. Las otras tres transformaciones desde las coordenadas de la cámara (Xc,Yc,Zc)
a coordenadas pixel (u,v) son controladas por la
configuración interna de la cámara definida en (3)
y (4).
La transformación entre las coordenadas de la
imagen sin distorsiones (xu,yu) y las coordenadas
de la imagen distorsionada (xd,yd) es controlada
por la fórmula matemática que define las distorsiones geométricas de la lente empleada para
formar la imagen. La fórmula más usada para distorsiones radiales y tangenciales es:
Así, los parámetros intrínsecos son: el centro de la imagen (xo,yo); las focales de la lente
en pixeles a lo largo del eje X y Y, fx y fy; el parámetro de inclinación γ de los ejes de la cámara
y cinco coeficientes de distorsión de la imagen,
kc. En el método de Zhang, el plano de calibración es ubicado en varias orientaciones y se
asume que para los puntos de control Zw=0. Por
lo tanto, un punto de control y su imagen están
relacionados por:
Donde ri denota la columna i de la matriz de
rotación R. La transformación entre las coordenadas sin distorsión y distorsionadas se determina con (5). El objetivo de un procedimiento
de calibración es determinar los parámetros intrínsecos y extrínsecos de la cámara, estimando la matriz homográfica H. Para cada imagen
del patrón se determinan por tratamiento de
imágenes las coordenadas en pixeles de los
puntos de control, vector m. Como se conocen
las dimensiones métricas del patrón empleado,
se asume que para cada punto de control se
conoce el vector M. Un procedimiento de optimización es empleado para estimar H. La función usada en el proceso de optimización es
usualmente el error métrico entre las coordenadas de los puntos de control calculadas por tratamiento digital de imágenes (ui , vi) y las coor:
denadas estimadas
V. PROCEDIMIENTO EXPERIMENTAL
Una serie de seis imágenes del PPP mostrado
en la Fig. 1 fueron capturadas con una cámara
CCD de resolución 640x480 pixeles y longitud focal 16mm. El PPP tiene 135x91 puntos y un periodo espacial de 2.824mm en ambas direcciones.
En la Fig. 7 se puede observar una de las imágenes experimentales. Las imágenes son invertidas
en niveles de gris con el fin de hacer coincidir el
centro de los puntos con la intercepción de las
curvas de nivel a valores 2πN de las fases en las
direcciones 1 y 2.
A. Recuperación de las coordenadas de los
puntos de control
En muchas aplicaciones de análisis de datos
que involucran la trasformada rápida de Fourier
(FFT), usualmente se emplea un filtro antes de
aplicar la FFT para reducir las discontinuidades
en los bordes de la imagen. Se aplicó la ventana Hanning para las imágenes adquiridas y
un filtro Gaussiano se usó en el método de la
FFT para extraer las distribuciones de fase. La
Fig. 8 muestra las curvas de nivel realizadas a
valores enteros de 2π en las fases φ1 y φ2. Las
intersecciones entre las curvas de nivel determinan la posición de los puntos con una resolu-
Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de
puntos codificado – González, Meneses, Ballesteros, León
ción subpixel. Las curvas de nivel se dibujaron
sobre la imagen de entrada para verificar el
posicionamiento de las intersecciones sobre
los puntos de control. Una vez se han identificado las coordenadas de los puntos, se determina el nivel de gris del punto en la imagen de
entrada y se le asocian valores de bit “1” o “0”.
Agrupando N=15 vecinos horizontales se determina la posición de la palabra en la SBPR y así
se calcula las coordenadas horizontales N1 de
cada punto. Las coordenadas verticales N2 se
determinan al comparar dos filas consecutivas
de código y determinar el corrimiento horizontal
ente ellas. Conocidos N1 y N2 y multiplicándola
por el periodo espacial del patrón de puntos se
calcula Xw y Yw de cada punto de control.
Las coordenadas de cada punto de control
(ui , vi) y sus posiciones espaciales en milímetro
definen las coordenadas (Xwi,Ywi,Zwi=0) que son
empleadas en el proceso de optimización. A
partir de valores iniciales de los parámetros intrínsecos y extrínsecos y las coordenadas
(Xwi,Ywi,Zwi=0) de los puntos se calculan las code acuerdo a (2), (3)
ordenadas en pixeles
y (4).
Fig. 7. IMAGEN EXPERIMENTAL DEL PPP
13
B. Evaluación de parámetro intrínsecos y extrínsecos de la cámara
La función de error (6) es evaluada y minimizada para estimar los mejores parámetros
de la cámara. “Camera Calibration Toolbox for
Matlab” [11] es un software disponible en Internet que emplea el método de optimización
Levenberg-Marquardt y usado para calibrar
cámaras a partir de patrones ajedrezados
blanco y negro. El software fue modificado
para determinar los parámetros de la cámara a
partir de las coordenadas calculadas del patrón de puntos. Los valores encontrados para
los parámetros intrínsecos se muestran en la
Tabla 1. Tradicionalmente para calcular el error
introducido en el cálculo de los parámetros se
determina el diagrama de error de reproyección. Una vez se han optimizado los parámetros finales se emplean estos valores y las coordenadas en milímetros de cada punto de
control, (Xwi,Ywi,Zwi=0), para determinar las coordenadas en pixeles estimadas sobre la imagen,
. La diferencia con los valores de las
coordenadas calculadas de cada punto con la
información de fase, (ui , vi) define el error de
reproyección. La Fig. 9 muestra la nube de
puntos de control donde el sistema coordenado corresponde a errores en X y Y en pixeles.
El rango de valores se encuentra entre ±0.4
pixeles para cada eje, con una desviación estándar de 0.07837 en X y 0.07637 en Y. Las
seis imágenes adquiridas del PPP proveen
cerca de 27191 puntos de control.
Tabla I.
PARÁMETROS INTRíNSECOS CALCULADOS
-
Fuente: Autores del proyecto
Fig. 8. VISTA AMPLIADA DE LAS CURVAS DE NIVEL DE LAS FASES CONTINUAS EN LAS DIRECCIONES 1 Y 2
fx
1525.27
fy
1528.16
xo
336.54
yo
287.70
g
0
kc
-0.41498
0.38277
Fuente: Autores del proyecto
Fuente: Autores del proyecto
-0.00124
-0.0005
0
14
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 7 - 15
Fig. 9. ERROR DE REPROYECCIÓN DEL PPP
Fig 11. INFLUENCIA DEL RUIDO EN EL ERROR DE REPROYECCIÓN
Fuente: Autores del proyecto
C. Errores de reproyección
Con el fin de comparar la precisión del método
propuesto, los mismos parámetros se calcularon
usando el método tradicional que emplea como
patrón un plano ajedrezado (blanco y negro). El
patrón ajedrezado contiene 77x10=770 puntos
de control. La Fig. 10 muestra los errores de reproyección calculados de 10 imágenes adquiridas
del plano ajedrezado. De igual forma el rango de
valores se encuentra entre ±0.4 para los dos ejes
pero con una desviación estándar de 0.1151 pixeles en dirección X y 0.1063 pixeles en dirección Y,
que indica más dispersión del error.
Por otra parte, con el propósito de evaluar el
rendimiento ante ruido del PPP y el patrón ajedrezado, se agregó ruido gaussiano de media cero y
desviación estándar variable entre 0.001 a 0.007
niveles de gris. La Fig. 11 muestra el error de reproyección para diferentes niveles de ruido. Por lo tanto, el procedimiento basado en la fase para extraer
la posición de los puntos es mucho más robusto al
ruido que el método basado en intensidades.
Fig 10. ERROR DE REPROYECCIÓN DEL PATRÓN AJEDREZADO
Fuente: Autores del proyecto
Fuente: Autores del proyecto
VI. CONCLUSIONES
En este artículo se propuso un método para la
extracción de puntos de control en la calibración
de cámaras basado en la extracción de la fase de
un patrón de puntos impreso en un plano. El patrón 2D es un código pseudo periódico de puntos
negros equiespaciados, que matemáticamente se
pueden representar por dos sistemas de franjas
ortogonales. Debido a la distribución regular de
los puntos negros sobre el plano, la posición de
cada punto se puede calcular con precisión subpixel. La relación entre la posición 3D de un punto sobre el plano y su correspondiente posición
sobre la imagen se calcula sin intervención del
usuario, aun cuando no todos los puntos del plano
se puedan ver en la imagen final. Esto es posible
porque el patrón de puntos tiene sus posiciones
codificadas en una secuencia pseudo aleatoria
generada por un registro lineal con retroalimentación. La verificación experimental permite concluir
que el procedimiento para calcular la posición de
los puntos basado en la extracción de la fase es
más robusto al ruido que el método basado en los
valores de intensidad. De igual forma, aunque la
desfocalización de la imagen afecta los armónicos
superiores del patrón de puntos; siempre que no
se desfocalise lo suficiente para afectar el primer
armónico, la fase se puede calcular sin inconvenientes en situaciones de deslocalización debido
a la distribución periódica. En este método el cálculo de la fase se afecta menos por desfocalización que en el método basado en intensidades y
provee una alternativa para calibrar cámaras de
buen rendimiento.
Método para la extracción de puntos de control en la calibración de una cámara basado en la estimación de la fase de un patrón de
puntos codificado – González, Meneses, Ballesteros, León
AGRADECIMIENTOS
La investigación fue apoyada por la Vicerrectoría de Investigaciones y extensión de la Universidad Industrial de Santander, Colombia (Proyecto
No. 5184: Posicionamiento global de alta resolución a campo extendido por visión estéreo: Aplicaciones en metrología óptica).
[5]
X. Meng and Z. Hu, “A new easy camera calibration
technique based on circular points,” Patt. Recognition 36, 1155 – 1164(2003).
[6]
L. Krüger and C. Wöhler, “Accurate chequerboard corner localisation for camera calibration,” Patt. Recognition Letters, 32,1428–1435 (2011).
[7]
J. A. Galeano, P. Sandoz, E. Gaiffe, S. Launay, L. Robert,
M. Jacquot, F. Hirchaud, J.-L. Prétet, C. Mougin, “Position-referenced microscopy for live cell culture monitoring,” Biomed. Opt. Express 12, 1307-1318(2011).
REFERENCIAS
[1]
R. Tsai, “A versatile camera calibration technique for
high-accuracy
3D machine vision
metrology using off-the-self TV camera lenses,”
IEEE J. Robot. Autom. RA-3, 323–344 (1997).
[8]
N. Arias, P. Sandoz, J. Meneses, M. Suárez, T. Gharbi,
“3D localization of a labeled target by means of a stereo vision configuration with subvoxel resolution,” Opt.
Express 18, 24152 - 24162(2010).
[2]
J. Salvi, X. Armangué, and J. Batlle, “A Comparative review of camera calibrating methods with accuracy evaluation,” Pattern Recognit. 35(7), 1617–1635 (2002).
[9]
[3]
Z. Zhang, “A flexible new technique for camera calibration,” IEEE Trans. Pattern Anal. Mach. Intell. 22,
1330–1334 (2000).
N. Arias, N. Meneses, J. Meneses, T. Gharbi, “A handheld 3D laser scanning with global positioning system of subvoxel precision,” J. Phys.: Conf. Ser. 274,
012068 (2011).
[10]
W. Sun and J. Cooperstock, “An empirical evaluation of
factors influencing camera calibration accuracy using
three publicly available techniques,” Mach. Vis. Appl.
17, 51–67 (2006).
M. Takeda and K. Mutoh, “Fourier transform profilometry for the automatic measurement of 3-D object
shapes,” Appl. Opt. 22, 3977-3982 (1983).
[11]
J. Bouguet, “Camera Calibration ToolBox for Matlab,”
in http://www.vision.caltech.edu/bouguetj/calib_doc/
index.html.
[4]
15
Synthesis and characterization of Tio2 thin films
doped with copper to be used in photocatalysis
Síntesis y caracterización de películas delgadas de Tio2
dopadas con cobre para ser usadas en fotocatálisis
Carlos Enrique Díaz-Uribe
Dr. Química Universidad Industrial de Santander
Docente Tiempo Completo, Investigador Grupo de Investigación
en Fisicoquímica Aplicada y Estudios Ambientales, Laboratorio
de Fotoquímica y Fotobiología, Universidad del Atlántico
Barranquilla, Colombia
[email protected]
William Andrés Vallejo Lozada
Dr. Ciencias Químicas Universidad Nacional
Docente Tiempo Completo, Investigador Grupo de Investigación
en Fisicoquímica Aplicada y Estudios Ambientales, Laboratorio
de Fotoquímica y Fotobiología, Universidad del Atlántico
Barranquilla, Colombia
[email protected]
Fernando Martínez Ortega
Dr. Chimie Université de Poitiers, Docente Tiempo Completo,
Investigador Centro de Investigaciones en Catálisis.
Universidad Industrial de Santander
Bucaramanga, Colombia
[email protected]
Abstract— In this work we studied the influence of incorporation of copper into TiO2 thin films on structural,
optical and surface properties of TiO2 thin films. The
as-grown TiO2 was synthesized by sol gel method using
titanium isopropoxide, and the TiO2 thin films were deposited by spin coating method. TiO2 copper-doped
(Cu:TiO2) was synthesized by impregnation method using
Cu(NO3).H2O as source of Cu(II), the Cu:TiO2 thin films
were deposited by spin coating method. The properties
of the compounds obtained were evaluated by measurements of X-ray diffraction (XRD) and diffuse reflectance. The XRD results showed that Cu doping change the
crystalline phase radio of the films, XRD pattern of TiO2
indicated that films grow with anatase structute, while
Cu:TiO2 thin films presented a polycrystalline mixture of
anatase/rutile. Reflectance analysis indicated that TiO2
presents an energy band gap of 3.25 eV and the Cu:TiO2
presents a shift-red of the band gap to 2,9 eV. The results suggest that doping with copper improved the harvesting of the TiO2 to visible radiation.
Keywords— TiO2, Photocatalysis, metal doping, X-Ray,
Diffuse Reflectance.
I. INTRODUCTION
Nowadays the uncontrolled growth of the population increases both the water consumption and
the amount of pollutants in the water resources;
water treatment is an important research topic
around the world. The development of mechanisms of water treatment is a necessity because
water is not a renewable resource [1]. In the last
decades, advanced oxidation processes (AOPs)
have presented different kinds of methodologies for remediation of water and heterogeneous photocatalysis have become a promising
method for purification. In this field Titanium
oxide (TiO2) is one of the most important photocatalytic materials. There currently exists a
better understanding and improvement of catalytic reactions, which is a main driving force
for surface investigations on TiO2. However,
two drawbacks limit the practical application
of TiO2 technology: (a) it is effective only under
ultraviolet irradiation (λ < 380 nm) and (b) the
low-quantum efficiency of this process [2]. To
solve these, different methodologies have been
used: sensitization with organic dyes, natural
and synthetic [3], metal ion implantation [4]
nobel metal loading [5], metal ion doping [6],
anion doping [7], composite semiconductors
[8]. All of these present both advantages and
drawbacks, however, metal ion doping is one of
Recibido: 19/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 16 - 20
Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis – Díaz, Vallejo, Martínez
the most promising because it shifts the TiO2
responses towards longer wavelengths and an
enhanced photoactivity is obtained from incorporation of metallic dopants. These advantages
can be explained because a dopant ion acts as
an electron trap or hole trap; this could prolong
the lifetime of the generated charge carriers, resulting in an enhancement of photocatalytic activity [9, 10]. The ionic metallic doping could be
done through different ways such as hydrotermal precipitation [11], sol-gel [12], chemical vapor deposition [13], impregnation method [14]
and sputtering [15]. The impregantion method
has proven to be convenient for the modification
of TiO2 due to its low cost of implementation,
the low synthesis temperatures, and because it
easily allows the coating large areas.
In this work, we studied the influence of incorporation of Cu into TiO2 on its structural, optical properties.
II. EXPERIMENTAL
A. Materials synthesis
The as-grown TiO2 Thin films were synthesized by the sol-gel method for the as-grown TiO2
synthesis, the titanium isopropoxide [Ti(OC2H5)4]
was used as reagent, ethanol (CH3CH2OH) and
water were used as solvent and nitric acid
(HNO3) was used as buffer. The molar ratio was
[CH3CH2OH:H2O:HNO3:Ti(OC2H5)4] 55:1,5:0,3:1
respectively. The Cu:TiO2 powder was obtained
by adding copper (II) nitrate and titanium tetrachloride as source of copper and titanium respectively; furthermore, HCl was used as a buffer
solution, a solution of cetyltrimethyl ammonium
bromide (CATBr) was used as surfactant and
water-ethanol mix was used as solvent in the
following molar ratio [Ti:CATBr:HCl:H20:EtO:Cu]
1:0,16:1,7:1,7:20:0,025 respectively. The asgrown TiO2 and the Cu:TiO2 thin films were deposited on the substrates from a coating solution
by spin-coating technique in a nitrogen atmosphere. The substrates coated with films were
annealed at 450ºC for 1 hour in air.
=0,15406nm) for operating at a 30 kV voltage
with a current of 20 mA. The optical properties
of the as-grown TiO2 and the Cu:TiO2 thin films
were studied through diffuse reflectance measurements. The diffuse reflectance absorption
spectrum of the as-grown TiO2 and the Cu:TiO2
thin films were measured using a Lambda 4 Perkin Elmer spectrophotometer equipped with an
integrating sphere. Kubelka–Munk model and
analysis based on differential reflection spectra were used to independently determine the
energies of the fundamental optical transitions.
FT-IR spectra (KBr) of the compounds were recorded on a Bruker Tensor 27 spectrometer in
the spectrum region of 3500-500 cm-1.
III. RESULTS AND DISCUSSION
A. Diffuse transmittance measurements
The optical properties of the as-grown TiO2
thin film and Cu:TiO2 thin films were determined from diffuse reflectance measurements in
the range of 200–800 nm. Fig. 1(a) shows the
diffuse reflectance spectra of the as-grown TiO2
thin films, The results indicate that about 70%
of the visible radiation is reflected in the visible
range (after 350nm). Furthermore, a sharp absorption edge is observed near to the 340 nm,
indicating the good crystallinity and a low defect
density near to the band edge. This behavior is
typical of thin films of TiO2 [16]. The results of
diffuse reflectance spectra were analyzed with
Kubelka-Munk remission function, given by the
equation below [17]:
Where Rα is the reflectance and F(Rα) is proportional to the constant absorption of the material, an indicative of the absorbance of the
sample in a particular wavelength. The optical
band gap of the films was determined by extrapolating the linear portion of the (αhv)2 versus
hv plot on the x-axis [18].
B. Characterization of materials synthesized
The X-ray powder diffraction (XRD) patterns
were recorded in X-ray powder diffractometer (MSAL-XDII) using Kα radiation of the Cu (λ
Where Eg is the band gap energy and A is a
constant depending on the transition probability.
17
18
Fig. 1. (a) DIFFUSE SPECTRA OF THE THIN FILMS. (b) (αHυ)1/2 VS. Hυ SPECTRA INDICATING THE VALUE OF EG FOR TiO2 AND CU:TiO2 THIN FILMS
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 16 - 20
result is according to XRD measurements presented afterwards. The results also show a shift of
absorption band edge towards visible region upon
doping TiO2 with copper, Cu:TiO2 thin films present
a band gap energy of 2,9 eV. These results suggest that copper could be incorporated into the
crystalline TiO2network modifying its band structure and therefore its electrical properties. According to the optical results, it can be assumed that
Cu-doping onto TiO2 may enhance the visible-light
absorption and it could improve the photocatalytic
activity of TiO2.
B. XRD measurements
Fig.1(b) shows the (αhv)2 versus hv for the as
grown TiO2 thin films and Cu:TiO2 thin films
Fig. 2. XRD PATTER OF TiO2 THIN FILMS DEPOSITED BY SOL-GEL METHOD,
TiO2 CU-DOPED AND JCSPD-ANATASE REFERENCE.
It is observed that the band gap of as-grown
TiO2 thin film was 3,25 eV, which corresponds to
the typical value of energy of the anatase TiO2; this
Fig. 2 shows experimental XRD pattern corresponding to as-grown TiO2 thin films and the Cu:TiO2
thin films deposited on soda lime glass substrates
by spin coating. The XRD measurements show
that as-grown TiO2 thin films were polycrystalline
and present only one crystalline phase corresponding to the anatase phase (Fig. 1 includes a
JCPDS-#071-1166 pattern of reference), the pattern of as-grown TiO2 thin films presents different
planes of growth and all diffraction signals correspond to the anatase-pattern indicating that only
one crystalline phase is present. Furthermore,
XRD results showed that the as-grown TiO2 thin
films grow in a preferential orientation in the crystalline plane (110), typical of the anatase phase.
These results could occur due to the method used
to obtain the compound, according to other reports [19]. Fig. 2 also shows the XRD pattern of the
Cu:TiO2. The diffraction pattern shows three additional diffraction signals at 2θ=27,9, 2θ=37,9,
2θ=42,4, 2θ=56,9; these reflections can be associated with the planes (110), (101), (111) and
(220) respectively. These crystalline planes can
be associated with the rutile phase (JCPDS #0211276); this happens because the rutile phase is
thermodynamically the most stable crystalline
phase and it possesses the highest density with
a compact atomic structure. The presence of Cu
is a disadvantage for the formation of the metastable anatase phase and so the rutile growth can
occur [20]. Furthermore, not a signal associated
with CuO or compund of Cu is observed, indicating
that the compound could be amorfous or that it
could be incorporated in the crystalline network of
the doped TiO2. However, the change in the way of
the crystalline growth indicates that the Cu parti-
Synthesis and characterization of Tio2 thin films doped with copper to be used in photocatalysis – Díaz, Vallejo, Martínez
cipates in the growth of the TiO2 and it could be
incorporated in the crystalline network of the final
compoud according to other reports. This assertion is comfirmed for optical results [21].
Fig. 3. IR-SPECTRA OF THE AS-GROWN TiO2 AND CU:TiO2 THIN FILMS
ped with copper presents a red-shift of the transmittance spectra increasing the absorption of
the photocatalyst in the visible region. The band
gap increased by about 12% from 3.25 eV TiO2 to
2,9 eV TiO2 doped with copper. The XRD analysis
showed that TiO2 grows in the anatase phase while thin films of TiO2 doped with copper present a
polycrystalline mixture of anatase, rutile, and brookite. Results indicated that TiO2 doped with copper can be used as an active photocatalyst in a
visible range of the electromagnetic spectra.
ACKNOWLEDGEMENTS
Authors are grateful to the Laboratory of XRD
in the Parque Tecnológico Guatiguará of the Universidad Industrial de Santander, Bucaramanga,
Colombia.
REFERENCES
C. IR measurements
Fig. 3 shows the IR-spectra of the as-grown
TiO2 films annealed at 500°C. The chemical
bonding of the powders was scrutinized by correlating the developed peaks in the spectrum to
the vibration or stretching of various functional
groups. Results show two strong absorption signals in the frequency region of 429,1 cm-1 and
734,7 cm-1 corresponds to Ti-O-Ti bonding and indicates the formation of a titanium oxide network
[22], furthermore, a broad band at 3400 cm-1
is observed, which is characteristic of associated hydroxyl groups (absorbed molecular water),
weakly chemisorbed and disappearing at temperatures of 200°C; a corresponding weak bending
vibration band at near 1630 cm-1 is also observed [23]. Finally, fig 3 shows the IR spectra of the
Cu:TiO2 thin films. In these spectra the intensity
of the signals of TiO2 decrease significantly, indicating that water has been desorbed and not a
signal associated to the stretching mode of Cu-O
is detected, which demonstrates that copper
could have been incorporated into the TiO2 network as proved by the optical results.
III. CONCLUSIONS
Thin films of TiO2 were doped with copper and
the optical and structural properties were investigated. The optical results indicated that TiO2 do-
[1]
K. Nakata, A. Fujishima. TiO2 photocatalysis: Design and Applications. Journal of Photochemistry
and Photobiology C: Photochemistry Reviews 13
(2012) 169– 189.
[2]
U. Diebold. The Surface Science of titanium dioxide. Surface science reports 48 (2003) 53229.
[3]
C.C. Chen, C.S. Lu, Y.C. Chung, J.L. Jan. UV light
induced photodegradation of malachite green on
TiO2 nanoparticles. Journal of Hazardous Materials, Volume 141, Issue 3, 22 March 2007, Pages 520-528.
[4]
H. Yamashita, M. Harada, J. Misaka, H. Nakao,
M. Takeuchi, M. Anpo. Application of ion beams
for preparation of TiO2 thin film photocatalysts
operatable under visible light irradiation: Ionassisted deposition and metal ion-implantation.
Nuclear Instruments and Methods in Physics Research Section B: Beam Interactions with Materials and Atoms 206 (2003) 889-892.
[5]
X. Li, Z. Zhuang, W. Li, H. Pan. Photocatalytic
reduction of CO2 over noble metal-loaded and
nitrogen-doped mesoporous TiO2. Applied Catalysis A: General 429–430 (2012) 31-38.
[6]
Y. Gurkan, E. Kasapbasi, Ze.Cinar. Enhanced solar photocatalytic activity of TiO2 by selenium(IV)
ion-doping: Characterization and DFT modeling
of the surface. Chemical Engineering Journal,
214 (2013) 34-44.
19
20
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 16 - 20
[7]
Y. Chen, X. Cao, B. Lin, B. Gao. Origin of the
visible-light photoactivity of NH3-treated TiO2:
Effect of nitrogen doping and oxygen vacancies.
Applied Surface Science, 264 (2013) 845-852.
[15] W. Zhang, Y. Li, S. Zhu, F. Wang. Copper doping in
titanium oxide catalyst film prepared by dc reactive magnetron sputtering. Catalysis Today, 93–
95 (2004) 589-594.
[8]
S. Chin, E. Park, M. Kim, G. Bae, J. Jurng. Synthesis and visible light photocatalytic activity of transition metal oxide (V2O5) loading on TiO2 via a
chemical vapor condensation method. Materials
Letters 75 (2012) 57-60.
[16] C. Tsai, H. Hsi, T. Kuo, Y. Chang, J. Liou. Preparation of Cu-Doped TiO2 Photocatalyst with Thermal
Plasma Torch for Low-Concentration Mercury
Removal. Aerosol and Air Quality Research doi:
10.4209/aaqr.2012.07.0196. In press.
[9]
A. Zajac, M. Radecka, M. Jasinski, K.A. Michalow, M. Rekas, E. Kusior, K. Zakrzewsk, A. Heel,
T. Graule, K. Kowalski. Influence of Cr on structural and optical properties of TiO2:Cr nanopowders prepared by flame spray synthesis. Journal
of Power Sources 194 (2009) 104–111.
[17] P. Pongwan, B. Inceesungvorn, K. Wetchakun,
S. Phanichphant, N. Wetchakun. Highly Efficient
Visible-Light-Induced Photocatalytic Activity of
Fe-doped TiO2 Nanoparticles. Engineering Journal. DOI:10.4186/ej.2012.16.3.143. in press.
[10] S. Ghasemi, S. Rahimnejad, S. R. Setayesh, S.
Rohani, M.R. Gholami. Transition metal ions
effect on the properties and photocatalytic activity of nanocrystalline TiO2 prepared in an ionic liquid. Journal of Hazardous Materials 172 (2009)
1573–1578.
[11] H. Dang, X. Dong, Y. Dong, Y. Zhang, S. Hampshire. TiO2 nanotubes coupled with nano-Cu(OH)2
for highly efficient photocatalytic hydrogen production. International Journal of Hydrogen Energy 38 (2013) 2126-2135.
[12] K. Wilke, H.D. Breuer. The influence of transition
metal doping on the physical and photocatalytic
properties of titania. J. Photochem. Photobiol. A:
Chem. 121 (1999) 49–53.
[13] H.A. Foster, D.W. Sheel, P. Sheel, P. Evans, S.
Varghese, N. Rutschke, H.M. Yates. Antimicrobial
activity of titania/silver and titania/copper films
prepared by CVD. Journal of Photochemistry and
Photobiology A: Chemistry 216 (2010) 283-289
[14] U.G. Akpan, B.H. Hameed. The advancements
in sol–gel method of doped-TiO2 photocatalysts.
Applied Catalysis A: General 375 (2010) 1–11.
[18] J. Tauc (F. Abeles ed.), Optical Properties of Solids, North-Holland (1972). 19-92.
[19] A. Cesnovar, P. Paunovic, A. Grozdanov, P.
Makreski, E. Fidancevska. Preparation of nanocrystalline TiO2 by sol-gel method using titanium
tetraisopropoxide (TTIP). Advanced Natural Science: Theory & Applications 01/2012; 1(2):133142.
[20] A. K. Ray, S. M. Tracey, B. McQuillin, S. N. B.
Hodgson, IEEE Proc. Sc., Meas. Technol. 147(6),
301 (2000).
[21] B. Xu, L. Dong, Y. Chen, J. Chem. Soc., Faraday
Trans. 94 (13) (1998) 1905.
[22] M. Burgos, M. Langlet. The sol-gel transformation of TIPT coatings: a FTIR study. Thin Solid Films Vol. 349 (1999) 19.
[23] P. M. Kumar, S. Badrinarayanan, M. Sastry.
Nanocrystalline TiO2 studied by optical, FTIR and
X-ray photoelectron spectroscopy: correlation to
presence of surface states. Thin Solid Films 358
(2000) 122-130.
Decaimiento no leptónico del mesón Bc considerando
mesones excitados radialmente en el estado final
Nonleptonic Bc decays, radial and excited charmonium mesons in
the final state
Juan Carlos Barrios Ávila
Lic. en Matemáticas y Física
MSc. en Física, Universidad Industrial de Santander
Docente Medio Tiempo, Universidad Santo Tomás Bucaramanga,
Investigador Grupo GIRG, Universidad Industrial de Santander
Bucaramanga, Colombia
[email protected]
José David Sanabria Gómez
Lic. Matemáticas y física
MSc. y Dr. en Física , Centro de Investigación
y de Estudios avanzados del IPN, México, Docente Tiempo Completo, Investigador Grupo GIRG, Universidad Industrial de Santander
Bucaramanga, Colombia
[email protected]
José Herman Muñoz Ñungo
Lic. Matemáticas y física
Msc en Física, Universidad de Antioquia
Dr. en Física , Centro de Investigación y de Estudios avanzados
del Ipn, México, Docente Tiempo Completo,
Rector Universidad del Tolima
Ibague, Colombia
[email protected]
Resumen— En el presente trabajo se muestra parte
del estudio del decaimiento no leptónico del mesón Bc,
considerado un mesón pseudoescalar o vectorial excitado radialmente (n = 2) en el estado final, se asume la
hipótesis de factorización y utiliza el modelo de quarks
ISGW2. El procedimiento para obtener los anchos de decaimiento de los procesos B → P,P , B → P,V, donde B es
un mesón pesado, P es un mesón seudoescalar 1S0 y V
es un mesón vectorial 3S1. Se logró medir las fracciones
de decaimientos para los procesos PP y PV, se graficaron los anchos de decaimientos versus los factores de
forma que provee el modelo de quarks ISGW, variando
estos últimos de un 5 a un 150% de su valor original,
para analizar qué implicaciones tiene en el ancho de decaimiento medido.
Este estudio muestra una perspectiva y herramienta
fundamental en el campo de la física de partículas, ya
que los resultados encontrados no han sido calculados
(o no se encuentra información de dichos cálculos), y
pueden servir como herramienta para conocer algunos
elementos relevantes del modelo estándar y del decaimiento no leptónico de un mesón.
Palabras clave— Fracciones de decaimiento, factores
de forma, constantes de decaimiento.
Abstract—This paper shows part of the study of non-leptonic decay of Bc meson, pseudoscalar meson or considering a radially excited vector (n = 2) in the final state,
assuming factorization hypothesis and using the quark
model ISGW2. In this paper we present in detail the procedure to obtain the decay widths of the processes B →
P, P, B → P, V, where B is a heavy meson, pseudoscalar
meson P is a V 1S0 and 3S1 vector meson is. It was possible to measure fractions of decays to PP and PV processes, were plotted versus decay widths form factors pro-
viding ISGW the quark model, the latter varying from 5 to
150% of its original value, to analyze what implications
does this have on the measured decay width.
This study shows a perspective and fundamental tool in
the field of particle physics, since the results are unpublished, and can serve as a tool to know some relevant
elements of the standard model and the non leptonic
decay of a meson.
Keywords— Fractions of decays, widths form factors,
decay constants.
I. INTRODUCCIÓN
El Modelo Estándar [1] (M. E.) explica las relaciones entre las partículas elementales y las interacciones conocidas. Los leptones y quarks son
partículas elementales, dado que no poseen estructura interna.Las partículas que tienen estructura interna se denominan hadrones (constituidos
por quarks), bariones cuando están formadas por
tres quarks o tres antiquarks, o mesones cuando
están constituidas por un quark y un antiquark.
Hay seis leptones (electrón, muón, tau, neutrino
del electrón, neutrino del muón y neutrino del tau)
y seis quarks (quark up (u) quark down (d), quark
charm (c), quark strange (s), quark bottom (b) y
quark top (t)). Los quarks tienen una propiedad
llamada color y cada uno puede presentar tres
colores (rojo, verde y azul). A cada partícula le
corresponde una antipartícula, que (en general)
tiene el mismo espín y la misma masa, pero di-
Recibido: 13/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26
22
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26
ferente carga (aunque algunas partículas neutras
son idénticas a sus antipartículas).
Los procesos de decaimiento del quark Bc
se pueden dividir en tres clases: a)
se puede presentar una transición del tipo b → q
(q = c, u), en la que el quark c¯ actúa como espectador; b) también se puede tener otra transición
del tipo c → q (q = s,d), en la que el quark b es
espectador y, c) se puede tener una aniquilación
entre el quark b y c¯. Aunque el espacio de fase de
las transiciones del tipo b) es más pequeño que el
de la transición a), los decaimientos dados por
transiciones del quark b proporcionan alrededor
del 70 % del ancho de decaimiento del mesón Bc
mientras que los decaimientos dados por transiciones del quark c y los de aniquilación débil sólo
aportan el 20 % y el 10%, respectivamente [1]. Por
esta razón, sólo se considerarán aquellos en que
decae el quark b.
En este trabajo se presenta el caso particular
de mesones excitados radialmente para el caso
de decaimientos no leptónicos (o hadrónicos) de
uno a dos cuerpos del mesón Bc, en el marco del
modelo relativista de quarks ISGW2 [2]. Es decir,
se obtienen las fracciones de decaimiento de los
procesos Bc → M1M2, donde M1 ó M2 es un mesón
excitado radialmente (n=2). La razón por la cual
se ha elegido estudiar el decaimiento del mesón
Bc, es fundamentalmente por estar compuesto de
dos quarks pesados y, además ha sido muy poco
estudiado incluidos los estados excitados radialmente para n = 2 y, por otro lado, hay pocos datos
reportados en Particle Data Group [3]. El cálculo
de fracciones de decaimiento se realizó a nivel
árbol, mediante hipótesis de factorización y con
el modelo de quarks no relativista de Isgur-ScoraGrinstein y Wise (ISGW2), el cual permite escribir y
calcular los elementos de matriz < M1|Jμ|B > para
las transiciones Bc → η(2s) y Bc → ψ(2s).
II. HAMILTONIANO Y FACTORES DE FORMA
En este trabajo, se consideraron solo contribuciones de operadores corriente–corriente a nivel árbol,
no se incluyeron diagramas de pingüino1 . El hamiltoniano es efectivo para el decaimiento no leptónico
1
Se espera que las contribuciones al ancho de decaimiento
del decaimiento no leptónico de dos cuerpos Bc de diagramas de
árbol sea mayor que el que se obtiene del diagrama de pingüino.
Bc → M1(2s)M2 , donde M1(2s) denota un mesón
excitado radialmente hc (21S0) o ψ(23S1), y M2 es un
mesón pseudoescalar (P) o vector (V), despreciados
los operadores de pingüino QCD, está dado por [4]:
donde GF es la constante de Fermi, Vij son los
es una notación corta para las
factores CKM,
y c1,2 son los coeficicorrientes V – A
entes de Wilson.
La amplitud del decaimiento Bc → M1(2s)M2
está dada por:
donde λ son los factores de CKM y <Oi> es el
elemento de matriz de los operadores locales de
cuatro – quarks. En el marco de referencia de la
factorización de Naïve, se asume que estos elementos de matriz se pueden aproximar a:
donde Jn es la corriente débil. Así, el elemento de
matriz hadrónico de un operador de cuatro – quarks
se puede escribir como el producto de una constante de decaimiento y factores de forma [5].
Los coeficientes de Wilson se relacionan con los
coeficientes de QCD por la expresión:
En este trabajo se asume el límite para Nc muy
grande, de modo que a1 ≈ c1 y a2 ≈ c2 para µ ≈ m2b
(algunos trabajos que también han asumido esta
aproximación [6],[7],[8]).
Se calcularon los factores de forma mediante el
modelo de quarks ISGW2[2] para los elementos hadrónicos <ηc|Jµ|Bc> y <ψc|Jµ|Bc>. Es bien conocido
que este modelo de quarks, es una versión relativista mejorada del modelo ISGW, el cual incluye las limitaciones impuestas por la simetría de quark pesado, las correcciones relativistas a los elementos de
Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final – Barrios, Sanabria
matriz de la corriente del vector axial y el potencial
efectivo interquark y factores de forma polinomial
más realista. Se espera que un tratamiento no relativista del decaimiento del mesón Bc con mesones
charmonium radialmente excitados proporcionen
una información más confiable[3] porque ambos
quarks son pesados y estos decaimientos permiten
las transiciones b → c
La parametrización de las transiciones Bc → ηc y
Bc →ψc esta dada por [2]:
son los cuadrimomentos
donde
es la
de los mesones Bc ηc y ψc respectivamente,
polarización del mesón ψc y f+,f-,f,a+,a- son los factores de forma.
•
A. Factores de forma para la transición Bc → ηc
Los factores de forma f+ y f- para la transición
Bc → ηc en el modelo ISGW2[2] son:
donde :
Los valores del parámetro b, el cual es una corrección relativista a la función de onda hiperfina
en el modelo ISGW2, está dada en [2].
es el momento transferido,
es el máximo momento transferido,
es la masa hiperfina promedio,
es la suma
de las masas de los quarks constituyentes del
mesón X,
es una escala en el modelo de quarks. El momento transferido q2 es una
constante para decaimiento no leptónico de dos
. En la
cuerpos Bc → ηc M, y es igual a
Tabla I [9] , mostramos los valores de los factores
de formas f+ y f- en el momento transferido
en el modelo ISGW2.
B. FACTORES DE FORMA PARA LA TRANSICIÓN
Bc →ψc
Los factores de forma f, g, a± están dados en el
modelo ISGW2 [2] por:
23
24
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26
β2,τ,r2, y ω están dadas por las ecuaciones (5,6
y 7) respectivamente, sustituidos η y ψ. El factor
0,899 es una corrección relativista para los elementos de matriz de la corriente vector axial en el
modelo ISGW2[2].
III. VALORES NUMÉRICOS Y ANÁLISIS
Para obtener los anchos de decaimientos para
el decaimiento leptónico y no leptónico de mesones charmonios excitados radialmente en el estado final, se toman los valores de la masa de los
mesones de PDG[3] y los siguientes valores numéricos:
• Factores de CKM[3]: |Vcb|=40.6x10-3,
|Vub|=0.97425,|Vcs|=1.023,|Vus|=0.2252,
|Vcd|=0.230
• Masa de quarks en (GeV) [3]: mb=5,2,
mc=1,82, ms=0,55, mu= md=0,33.
• Coeficientes QCD: a1=1.14, a2=-0,2 [3]
• Constantes de decaimientos en (Gev) [3]:
•
•
Los parámetro β (en GeV) del modelo ISGW2
[2]:
τBc=0.4333x10-2 [s], es el tiempo de vida media del mesón Bc [2]
Las expresiones para el ancho de decaimiento
de dos cuerpos no leptónicos Bc → M1(2s)M2, donde M1(2s)= ηc (21S0), ψ(23S1) y M2 =P,V,A(3P1) bien
conocidos en la literatura[9].
En la Tabla II se presentan las predicciones de
los anchos de decaimientos de βψ =0.62
En las Tablas I y II se muestran los anchos de
decaimientos no leptónicos de uno a dos cuerpos de
comparados
con el trabajo de otros autores para mesones excitados radialmente en estado final [9] y sin excitación
radial basados en el modelo de quarks relativista
[4]. Se obtuvieron valores numéricos de esos anchos de decaimientos con los valores de los coeficientes QCD a1,a2, los resultados obtenidos en algunos casos coinciden bastante con los otros trabajos,
sin embargo también se observan algunas diferencias entre algunos de los valores que se lograron y el
de las referencias indicadas en las Tablas I y II.
Se puede observar que en la Tabla II, los valores
favorecidos por CKM para los modos:
tienen anchos de decaimientos del orden de entre 10−5 − 10−7, estos decaimientos son del tipo
, o más explícitamente (VV,VA). Esos anchos se podrían medir en los
experimentos que se realizan en los grandes aceleradores de partículas. Para el modo Bc → ηca1(1260),
donde a1(1260) es un mesón axial, se encontró que
la fracción de decaimiento favorecido por CKM es
del orden de 10−5 y es más pequeño que
[9]. De hecho
tiene dos contribucioEl decaimiento
nes: con emisión externa W (proporcional al coeficiente QCD a1) y con emisión interna W (proporcional
al coeficiente QCD a2, el cual es negativo). Los factores de forma de esas transiciones se obtienen
del modelo ISGW2. Es importante notar que los
términos de interferencia en los modos
son positivos porque a2 es
positivo, interferencia constructiva.
La mayor fuente de incertidumbre para las fracciones de decaimientos del proceso
provienen de los parámetros
con
los cuales son una corrección relativista de la función de onda en el modelo ISGW2, los coeficientes
de la QCD a2(cuando
) y las constantes de
acoplamiento
. Las fuentes dominantes de
25
Decaimiento no leptónico del mesón Bc considerando mesones excitados radialmente en el estado final – Barrios, Sanabria
error provienen de
y la constante de decai-
miento
GeV [10]. Por otro parte,
TABLA II
ANCHOS DE DECAIMIENTO DEL MESÓN BC→ M1(2S)M2 POR EMISIÓN
DONDE M1,2 =P,V,A,A′,T,P(2S),V(2S)[9]
EXTERNA,
el decaimiento
, con
M =
son muy sensibles a las constantes de acoplamiento
GeV [10].
TABLA I.
ANCHOS DE DECAIMIENTO DEL MESÓN Bc→ M1(2s)M2 POR EMISIÓN
EXTERNA, DONDE M2 =PP,P,V,PA′.[9]
Fuente: Autor del proyecto
Los decaimientos que aparecen en las Tablas
I y II, para estados no excitados fueron obtenidos
de las referencia [12],[13],[14].
Uno de los objetivos del artículo de investigación era determinar la sensibilidad de los resultados obtenidos variando los parámetros del modelo ISGW2 [4], bajo esa premisa se realizaron las
gráficas de los anchos de decaimientos para los
modos
y
.
la Fig. 1, muesPara el proceso
tra que el ancho de decaimiento depende casi exclusivamente del factor de forma f+, dado que a
pesar que los dos factores de forma variaron entre 0.5 y 1.5 veces su valor, el ancho de decaimiento mostró una variación entre +0,4 y +0, 5
órdenes de magnitud (en escala logarítmica en
base 10) lo que significa que ese decaimiento es
7 veces más probable cuando existe la mencionada variación del valor del factor de forma, lo que
significa que el ancho de decaimiento no es muy
sensible a estas variaciones[9]
Fuente: Autor del proyecto
Fig. 1. ANCHOS DE DECAIMIENTOS VS FACTORES DE FORMA f+,f- ,
PROCESO
, EN EL QUE LOS FACTORES DE FORMA SUFREN
UNA VARIACIÓN DEL 100% (CON VALOR CENTRAL IGUAL AL CALCULADO
EN ESTE TRABAJO) PARA DETERMINAR LA SENSIBILIDAD DE LOS
RESULTADOS OBTENIDOS AL USAR EL MODELO ISGW2
26
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 21 - 26
IV. CONCLUSIONES
[2]
Se calcularon las fracciones de decaimiento en
los proceso no leptónicos del mesón Bc en mesones
pseudoescalares y vectoriales excitados radialmente en el estado final, mediante el modelo de quarks
ISGW2, donde los elementos de la matriz hadrónica
Nathan Isgur and Daryl Scora, Semileptonic B and
D decays in the quark model: An update. Phys.
Rev. D 52, 2783 (1995).
[3]
Review Particle Physics, Particle Data Group. PARTICLE PHYSICS BOOKLET 37, 105-123 (2010).
[4]
Bediaga and J.H. Muñoz, Production of radially excited charmonium mesons in two-body nonleptonic
Bc decays. arXiv: 1102.2190 26, 110744 (2011).
[5]
Z.Luo and J.L. Rosner, Factorization in color-favored B-meson decays to charm. Phys. Rev.D 64,
094001 (2001).
[6]
G. Calderón, J.H. Muñoz and C.E. Vera, Nonleptonic two-body B decays including axial-vector mesons in the final state. Phys. Rev. D 76, 074019
(2007).
[7]
V. Laporta and G. Nardulli, Nonleptonic B decays
to axial-vector mesons and factorization. Phys.
Rev.D 74, 054035 (2006).
[8]
C.E Thomas, Nonleptonic weak decays of B to Ds
and D mesons. Phys. Rev. D 73, 054016 (2006).
[9]
J.C Barrios Ávila, “Decaimiento no leptónico del
mesón Bc considerando mesones excitados radialmente en el estado final”, Tesis de Maestría,
Universidad Industrial de Santander UIS, 2012.
que introducen el decaimiento (
) en dos
cuerpos ligeros de alta energía; que son factorizados
y expresados en términos de factores de forma y
constantes de decaimiento.[9]
En las Tablas I y II se observaron los resultados
obtenidos para las fracciones de decaimiento del
mesón Bc realizados por otros autores [13], [14],[15]
con las que se pueden hacer comparaciones con los
resultados obtenidos mediante el uso del modelo
ISGW2.
En la hipótesis de factorización[16] del modelo
ISGW se encuentra que las mayores fuentes de error
están constituidas por las constantes de decaimiento (dominante),la masa de los quarks, los factores
de forma f+, a+, etc. Es importante, por lo tanto, obtener valores más precisos para estos, hecho que está
íntimamente relacionado con un mejor conocimiento de los mesones.
El aporte de este trabajo se encuentra en que
dada la poca información en la literatura con respecto al estudio del mesón Bc en estado excitado
radialmente, los resultados encontrados pueden dar
aportes importantes al estudio de decaimientos del
mesón Bc y, a su vez, es un escenario propicio para
evaluar el modelo estándar. Es conveniente indicar
las dificultades que se encontraron a la hora de hacer comparaciones de los resultados que se lograron
medir en el presente estudio, ya que se cuenta con
muy poca información en la literatura especializada
del estudio del mesón BC, se recomienda consultar
el trabajo de investigación [9], para una visión mejorada de estos resultados.
Finalmente, vale la pena mencionar que obtener
anchos de decaimientos para estados excitados
radialmente permita dilucidar si hay variaciones importantes en esas fracciones de decaimientos con
respecto al caso no excitado radialmente.
REFERENCIAS
[1]
G. Buchal, A. J. Buras and M. E. Lautenbacher,
Weak decays beyond leading logarithms. Rev.
Mod. Phys 68, 4 (1996).
[10] H. Cheng and C. Chua, Hadronic charmless B decays B → AP . Phys. Rev.D 69, 074025 (2007).
[11] R.C Verma and Avinash Sharma, Quark diagram
analysis of weak hadronic decays of the Bc meson. Phys. Rev.D 65, 114007 (2002).
[12] P. Colangelo and F. De Fazio, Using heavy quark
spin symmetry in semileptonic Bc decays. Phys.
Rev. D 61, 034012 (2000).
[13] D. Ebert, R. N. Faustov and V. O. Galkin, Nonleptonic decays of meson Bc. Phys. Rev. D 68, 094020
(2003).
[14] Hui-feng Fu, Yue Jiang, C. S. Kim and Guo-Li Wang,
Probing Non-leptonic Two-body Decays of Bc meson. Arxiv 11, 025399 (2011).
[15] A.Kumar, P.C Vinodkumar, Properties of Bc meson. Jour.Phys. 66, 5 (May 2006).
[16] Beneke, QCD factorization for exclusive non-leptonic B-meson decays,general arguments and the
case of heavy D light final states. Nucl. Phys. B
591, 313 (2000).
Estudio del efecto de una atmósfera gaseosa de
amoniaco en un componente de un reactor catalítico
fabricado en acero inoxidable AISI-SAE 304
Study of the effect of a gaseous atmosphere of ammonia in a
component of a catalytic reactor manufactured of an AISI type
304 stainless steel
Carlos Alberto López C.
Ms. C en Gestión Tecnológica, Universidad Pontificia Bolivariana
Director de Proyectos, Investigador Grupo Procesos
Metalmecánicos Eco-eficientes
Corporación Eco-eficiente
Medellín, Colombia
[email protected]
Resumen— Algunos procesos industriales se realizan
bajo exigentes condiciones para los equipos debido a
que en distintas ocasiones involucran estados estresantes y agresivos para los materiales como son algunas
variables de operación referidas a altas temperaturas y
presiones de operación y contacto con sustancias corrosivas, por lo cual se pueden generar importantes daños
o fallas catastróficas en los mismos, con las consiguientes pérdidas económicas debido a su prematuro reemplazo, a costosas reparaciones y el lucro cesante por las
paradas obligatorias. Se presenta el estudio de un acero
inoxidable AISI tipo 304 con el cual fue construida una
cápsula interna de dos intercambiadores en serie por
donde circulan los gases de proceso y que alberga un
catalizador para la reacción de producción de NH3 (Amoniaco) en un reactor catalítico empleado en una planta
de producción de fertilizantes. Este equipo opera a condiciones bastante exigentes como son temperaturas en
el rango de los 427o C y 566o C, una presión de 4200
Psi. y se encuentra en contacto con gases de síntesis
como H2, el N2, el CH4 y el NH3, entre otros. Este equipo
ha estado en servicio por cerca de 30 años, del cual se
tomó una muestra para evaluar su condición actual por
medio de diferentes ensayos mecánicos y metalúrgicos
como composición química, metalografía, microscopía
óptica de barrido (SEM) y estereoscopía. El resultado
del análisis concluyó que el material sufrió el fenómeno
de nitruración en un determinado espesor; se encontró
además la presencia de numerosas grietas y precipitación de carburos. Se hace como parte de la evaluación,
una serie de recomendaciones para el empleo de un determinado tipo de material para la construcción de un
nuevo equipo de producción.
Palabras clave— Acero inoxidable, amoniaco, nitrógeno, nitruración, agrietamiento, precipitación en límites
de granos.
Abstract— Some industrial processes are conducted
under stringent conditions for the materials due to that
in several opportunities, it is involved stressful states
for materials like some work variables related to high
temperatures and pressures and corrosive substances.
Also, sometimes a combination of the above factors may
lead to affect the integrity of the equipment, which can
generate significant damage or catastrophic failure of
equipment or its components, with consequent economic losses generated due to the replacement of these,
to expensive repairs and lost profits for the stops on the
production floor. This paper presents the study of AISI
type 304 stainless steel which was built an internal
capsule or basket that corresponds to two exchangers
arranged in series where process gases circulate, which
contains a catalyst, that give the reaction necessary to
produce NH3 (ammonia) in a catalytic reactor plant used
in fertilizer production. This equipment operates quite
demanding conditions such as temperatures in the range of 427o C and 566o C, an operating pressure of 4200
psi. Furthermore, it is in contact with synthesis gas as
H2, N2, CH4 and NH3, among others. This equipment has
been in service for about 30 years, from which sample
was taken to assess their current status through various metallurgical and mechanical tests like chemical
composition, metallography, optical microscopy (SEM),
X-Ray and stereoscopy. The result of analysis led to the
conclusions that the material suffered the phenomenon
known as nitriding at a given thickness, also found the
presence of numerous cracks and precipitation of carbides. It is done as part of the evaluation, a number of
recommendations for the use of a particular type of material for the construction of new production equipment.
Keywords— Stainless Steel, ammonia, nitrogen, nitriding, cracking, carbides precipitation.
I. INTRODUCCIÓN
El acero inoxidable AISI 304 es normalmente
empleado como material de construcción de equi-
Recibido: 12/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36
28
pos como los convertidores o reactores catalíticos que procesan amoniaco y otros gases de
síntesis como el Nitrógeno, el Hidrógeno y el CH4,
entre otros, los cuales son empleados en la industria de procesamiento de abonos y fertilizantes, ya que es normal que los procesos en este
tipo de industrias se dan a temperaturas altas,
muchas veces mayores a 450o C, donde su contenido de Cromo de al menos 18% y Níquel del
8%, le confieren una adecuada resistencia a la
corrosión en estas condiciones [1].
La formación de una capa de Nitruros (Nitruración) es un procedimiento que se realiza en diversos materiales como el hierro, el acero y otras
aleaciones para mejorar propiedades superficiales, lo que se da por la formación de dos capas,
una de las cuales es un compuesto de nitruros
de hierro y la otra es la llamada capa de difusión
[2]. Un objetivo de formar estas capas es incrementar la dureza del material y proporcionarle de
esta forma una mayor resistencia. El espesor de
las diferentes capas es contralado por los parámetros de nitrurado como el contenido de Nitrógeno y la composición química del material, no
obstante en los equipos que se procesan gases
de síntesis que contienen Nitrógeno y amoniaco,
se puede presentar el fenómeno de nitruración
sin ningún control que puede afectar negativamente las propiedades de los materiales.
Diversos estudios han mostrado que la nitruración por gas de aceros inoxidables austeníticos
a temperaturas convencionales de 500o C a 650o
C resulta en la formación de nitruros de Cromo
que puede conducir a un deterioro de las propiedades de corrosión, aunque se incrementa significativamente la resistencia al desgaste, por lo
que se han llevado a cabo diversas aproximaciones para reducir la formación de estos nitruros
en estos materiales y en el rango de temperatura
mencionado [3].
La muestra estudiada, la cual se observa en
la Fig. 1, corresponde a una pieza que fue extraída de un espaciador perteneciente a los elementos internos de una canasta o cápsula de un
equipo denominado reactor catalítico, el cual se
encuentra en el interior del lecho de este último,
por lo que se desea diagnosticar el estado de
esta pieza referido principalmente a si presenta una posible nitruración u otras indicaciones
y sus posibles mecanismos de generación. La
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36
muestra del espaciador de la canasta del reactor catalítico se encuentra sometida a diferentes
condiciones de proceso que conducen a suponer
que el material pudo haber presentado un proceso de nitruración, ya que se encuentra sometido
a gases de síntesis, entre los cuales se encuentran el Nitrógeno y el Amoniaco a temperaturas
que favorecen este tipo de fenómeno como es el
rango entre 427oC y 566oC. Es de observar que
este equipo ha operado por cerca de 30 años.
II. MUESTRAS PARA LOS DISTINTOS ENSAYOS
En la inspección visual realizada a la muestra
antes de proceder con su seccionamiento para las
distintas pruebas de laboratorio, se pudo apreciar
la presencia de grietas en diversos puntos y discontinuidades en los bordes en cierta forma similares a lo observado con una lámina de acero
cuando presenta una delaminación por la inclusión de una impureza como el óxido, como se observa en la Fig. 1.
Fig. 1. EN LA MUESTRA RECIBIDA PARA ESTUDIO SE APRECIAN GRIETAS Y
DISCONTINUIDAD EN LOS BORDES DE ESTA
Fuente: Autor del artículo
La muestra fue seccionada en diversas partes
para los distintos ensayos realizados:
•
Composición química
•
Metalografía
•
Microscopía óptica de barrido (SEM)
•
Estereoscopio
Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable
AISI-SAE 304 – López
III. ENSAYOS Y RESULTADOS
A. Composición química
Ensayo realizado en Espectrómetro de Emisión
Óptica Marca Shimadzu, Modelo OES 5500, mediante el Estándar de Verificación NBS 1264A.
Dado que al cortar las muestras para los distintos ensayos se apreciaba una especie de división
en esta, dando la impresión de que estuviera conformada por al menos dos diferentes
aceros (se asemejaba a la vista que se tiene en
una zona afectada por el calor donde se aprecia la
coalescencia del metal base con el metal de aporte, pero diferenciándose entre ellas).
Para el ensayo de composición química estas
dos zonas de la muestra se denominaron “Acero
Superficial” y “Acero Central” con los siguientes
resultados, como se expone en las Tablas I y II respectivamente.
Por la composición química reportada, el material corresponde a un acero inoxidable AISI tipo
304, aunque en la composición nominal el Níquel
se encuentra entre el 8%-10.5% y lo encontrado
es de 7.244% para el caso de la muestra marcada
como “acero superficial”, ya que la correspondiente al “acero central”, si corresponde con la composición nominal.
TABLA II.
RESULTADOS DEL ANÁLISIS QUíMICO MUESTRA “ACERO CENTRAL”
ELEMENTO
MUESTRA:
ACERO SUPERFICIAL
100712 - 16
Carbono (C)
0.056
Silicio (Si)
0.639
Manganeso (Mn)
0.982
Azufre (S)
0.013
Fósforo (P)
0.035
Niquel (Ni)
8.656
Cromo (Cr)
18.771
Molibdeno (Mo)
0.102
Aluminio (Al)
0.000
Cobre (Cu)
0.110
Titanio (Ti)
0.007
Vanadio (V)
0.059
La composición se da en porcentaje en peso.
Fuente: Autor del artículo
Carbono (C)
0.006
Silicio (Si)
0.622
Manganeso (Mn)
1.036
Azufre (S)
0.014
La muestra luego de cortada exhibía una apariencia de estar conformada por dos materiales,
lo cual se trató de verificar al tratar de laminar
esta para determinar su posibilidad de separación
con este proceso. Lo anterior no ocurrió, pero se
observó algo inusual en un material como el acero inoxidable tipo 304 y lo que aparecía como la
“capa externa”, se resquebrajó lo que indica que
podía tener una dureza superior a la región interna, dando muestras de una notable fragilización
como se aprecia en la fig. 2.
La reacción con los fluidos del proceso, que
afectan el material, es evidente porque el acero
se descarburó de 0.056% a 0.006%C y todos los
otros elementos también disminuyeron en la matriz de la capa externa incluidos el cromo y el níquel, que entraron a formar compuestos.
Fósforo (P)
0.014
Fig. 2. MUESTRA LAMINADA QUE EXHIBE FRAGILIZACIÓN DEL MATERIAL
TABLA I.
RESULTADOS DEL ANÁLISIS QUíMICO MUESTRA “ACERO SUPERFICIAL”
ELEMENTO
MUESTRA:
ACERO SUPERFICIAL
100712 - 15
Niquel (Ni)
7.244
Cromo (Cr)
17.699
Molibdeno (Mo)
0.014
Aluminio (Al)
0.000
Cobre (Cu)
0.067
Titanio (Ti)
0.008
Vanadio (V)
0.051
La composición se da en porcentaje en peso.
Fuente: Autor del artículo
Fuente: Autor del artículo
29
30
B. Observación con el microscopio estéreo
En la Fig. 3 Se observa una fotografía tomada con el microscopio estéreo de la probeta en
estado pulida para el ensayo metalográfico, con
la norma ASTM E3-01 Standard Practice for Preparation of Metallographic Specimens, donde se
aprecia que el material presenta dos capas claramente diferenciadas, lo que indica que se pudo
haber presentado una posible afectación de la
zona más externa de un tono más claro (que en la
fotomicrografías corresponden a la zona oscura).
Lo anterior coincide con lo mostrado en la Fig. 2
con la zona fragilizada luego de la laminación de
la muestra para el ensayo de composición química, donde se trató de corroborar que fueran dos
materiales, induciendo su separación por medio
del proceso de laminación. También se observan
algunas grietas en el extremo superior izquierdo.
Fig. 3. VISTA EN EL MICROSCOPIO ESTÉREO DE LA PROBETA PULIDA QUE
MUESTRA DOS ZONAS CLARAMENTE DIFERENCIADAS
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36
cluso en la zona central el material está fragilizado porque esa morfología de límites de grano indica que el material está altamente «sensibilizado».
Fig. 4. ZONA CENTRAL DE TONO MÁS CLARO. MATRIZ AUSTENíTICA
(AUMENTOS: 200X)
Fuente: Autor del artículo
En la Fig.5, correspondiente a la zona más oscura, se encuentran numerosas grietas de distinto
tamaño y en algunos puntos, forma especies de
redes. Esta zona está completamente degradada,
si la central está sensibilizada, está ya está fracturada y degradada químicamente porque el ataque
para fines metalográficos la oscurece completamente, indicación de que está fuertemente debilitada en sus resistencia química y anticorrosiva.
Fig. 5. ZONA MÁS OSCURA DE LA MUESTRA (PARTE EXTERNA), QUE
EXHIBE UN CONSIDERABLE NÚMERO DE GRIETAS EN ALGUNOS PUNTOS
FORMANDO UNA ESPECIE DE RED. (AUMENTOS: 200X)
Fuente: Autor del artículo
C. Resultados del ensayo de metalografía
El material recibido se cortó para análisis y se
embebió en baquelita, probeta que fue pulida a
grado espejo para luego ser atacada con Cloruro de Hierro y Nital al 2%, de acuerdo a la norma
ASTM E3-01 Standard Practice for Preparation of
Metallographic Specimens. Se realizó observación al microscopio y se registraron todos aquellos
aspectos de más relevancia.
En la Fig. 4 se aprecia, la zona más clara de
la probeta, la presencia de una gran cantidad de
precipitados, que por la composición química del
material, pueden tratarse de carburos o nitruros
de Cromo en una matriz austenítica, o sea, que in-
Fuente: Autor del artículo
La Fig. 6, exhibe un contraste entre la zona más
clara con respecto a la más oscura, muestra que se
trata de un mismo material al poderse observar la
continuidad entre una y otra de los límites de grano y observándose la presencia de precipitados en
estos.
Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable
AISI-SAE 304 – López
Fig. 6. INTERFAZ ENTRE LAS DOS ZONAS CLARAMENTE DIFERENCIADAS
EN LA MUESTRA ANALIZADA . SE APRECIA LA CONTINUIDAD EN LOS LíMITES DE GRANO (AUMENTOS: 500X)
Fig. 8. FOTOGRAFíA TOMADA CON EL MICROSCOPIO ELECTRÓNICO DE BARRIDO QUE MUESTRA LA GRAN CANTIDAD DE PRECIPITADOS, PRESUMIBLEMENTE, DE CARBUROS Y/O NITRUROS DE CROMO EN LOS LíMITES DE
GRANO Y LA GRAN AFECTACIÓN DE LA ZONA OSCURA, LA CUAL PRESENTA
UNA APARIENCIA BASTANTE IRREGULAR. (AUMENTOS: 250X)
Fuente: Autor del artículo
La Fig. 7 muestra que el material se encuentra
con presencia de maclas en algunos puntos en la
región más clara, mientras que en la zona más
oscura se observan numerosas grietas.
Fig. 7. EN ESTA REGIÓN DE LA MUESTRA SE OBSERVA UN BUEN CONTRASTE ENTRE LA ZONA OSCURA MÁS AFECTADA Y LA ZONA MÁS CLARA.
SE APRECIAN NUMEROSAS GRIETAS, PRINCIPALMENTE EN LA ZONA
OSCURA Y EN EL MATERIAL SE OBSERVAN MACLAS, LAS CUALES, EN ESTE
CASO, PUEDEN DEBERSE AL CRECIMIENTO DE GRANO POR AFECTACIÓN
TÉRMICA DEL MATERIAL, ES DECIR, POR HABER ESTADO SOMETIDO A
DETERMINADAS TEMPERATURAS DURANTE UN DETERMINADO PERIODO
DE TIEMPO. (AUMENTOS: 500X)
Fuente: Autor del artículo
D. Resultados del ensayo SEM (microscopio
electrónico de barrido)
Con el empleo del microscopio electrónico de
barrido se muestran con un mayor grado de detalle las indicaciones en el material, como se ve en
la Fig. 8 con los precipitados, presumiblemente,
de carburos o nitruros de Cromo y la forma irregular que presenta la muestra en la región más
oscura que indica una fuerte afectación del material.
Fuente: Autor del artículo
Con un aumento de 2000X se pueden observar los precipitados en los límites de grano del material, como es exhibido en la Fig. 9.
Fig. 9. PRECIPITADOS EN LA MUESTRA, TANTO EN LA ZONA MÁS OSCURA,
COMO EN LA ZONA MÁS CLARA. (AUMENTOS: 2000X)
Fuente: Autor del artículo
En la Fig. 10 se muestra la composición química tomada con el EDS (Energy-Dispersive X-Ray
Spectroscopy), la cual da como resultado una
capa rica en Nitrógeno, donde este elemento alcanza una composición del 9.97%, al igual que un
contenido de Cromo del 37.22%. Lo anterior puede indicar también que al tener esta zona un contenido alto en Cromo y en Nitrógeno en la forma
de precipitados, la región adyacente sufrió un empobrecimiento del Cromo, por lo que se produce el
efecto de volverse magnético el material.
31
32
Fig. 10. COMPOSICIÓN QUíMICA TOMADA CON EL EDS DEL ESPECTRÓMETRO DE EMISIÓN ÓPTICA EN LA ZONA
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36
Fig. 11. COMPOSICIÓN QUíMICA EN LA ZONA DE UN TONO MÁS CLARO
Fuente: Autor del artículo
Fuente: Autor del artículo
La Fig. 11 muestra que no se identificó Nitrógeno en la zona que se ha denominado en este
informe como más clara y además se mide un
contenido de Cromo del 19.07%, el cual está acorde con la composición química reportada, al igual
que el Níquel.
Un perfil de composición química realizado con
el EDS, del SEM presentado en la Fig. 12 muestra
que en las gráficas a y b se puede observar que la
zona más oscura presenta una mayor concentración del nivel de Nitrógeno (Fig. 12a, representado por la cantidad de puntos blancos).
En la Fig. 12b se aprecia que desde la superficie y hasta unos 150 micrómetros, el contenido
de Nitrógeno es mayor. En la fig. 12c, se aprecia
que igualmente esta zona es más rica en Cromo.
Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable
AISI-SAE 304 – López
En la Fig. 12d se observa que la zona clara es más
rica en Fe que en la zona más oscura. Lo anteriores hechos corroboran que la zona más oscura se
encuentran las mayores cantidades de precipitados formados por Nitrógeno (nitruros) y de Cromo.
Fig. 12. PERFIL DE COMPOSICIÓN QUíMICA REALIZADO CON EL EDS, DEL
SEM
D. El contenido de Hierro (Fe) es menor hasta los 150 micrómetros desde
la superficie de la muestra, indica su empobrecimiento por la posible combinación con el Cromo o el Nitrógeno para la formación de los precipitados
observados en los límites de grano de la muestra analizada
A. Concentración del Nitrógeno representado por una mayor cantidad de
puntos blancos en la parte superior (zona más oscura de la muestra estudiada)
En la Fig. 13 se observa el perfil de microdureza Vickers tomado a la muestra desde la parte
externa de la misma, pudiéndose observar que la
dureza disminuye desde la superficie a medida
que aumenta la profundidad. En los primeros puntos de la superficie se tiene un valor de 660 HV y
este disminuye de una forma regular hasta una
profundidad aproximada de 1600 micrómetros
(1.6 mm.) con un valor de dureza de 360 HV. En
este punto presenta una caída apreciable hasta
250 HV.
Fig. 13. PERFIL DE MICRODUREZA MEDIDO DESDE LA SUPERFICIE DE
LA MUESTRA. CARGA= 200 GR. REALIZADO BAJO LA NORMA NTC 3923
(1996-08-21) “MATERIALES METÁLICOS. ENSAYO DE DUREZA. ENSAYO
VICKERS. PARTE 2. HV 0,2 A HV 5
B. La presencia de Nitrógeno en la muestra es más alta hasta aproximadamente los 150 micrómetros, lo que indica la presencia de una capa nitrurada sobre el material
Fuente: Autor del artículo
C. La presencia de Cromo es mayor hasta los 150 micrómetros e indica
la precipitación de este elemento en alguna forma de carburos o nitruros
de Cromo
La descripción anterior corresponde con los
estudios encontrados en la literatura, [2], [3], [4],
[5], [6], sobre el efecto del amoniaco en el acero
inoxidable de fabricación del equipo, el cual por
acción de la temperatura y la presión, conduce a
que el Nitrógeno se difunda hacia el material para
33
34
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36
formar una capa dura y frágil que varía en espesor
principalmente de acuerdo con el tiempo de exposición a estas condiciones. Esto se corrobora con
lo observado en las Fig. 2, 3 y 12a y 12b donde
se muestran diversos aspectos, como una capa
frágil, dos capas diferenciadas en el material y el
incremento en el contenido de Nitrógeno.
IV. ANÁLISIS Y CONCLUSIONES
Algunos estudios han determinado que en atmósferas de amoniaco se forma una capa frágil
no metálica compuesta por nitruros de Hierro expuesta a la descomposición del amoniaco a temperaturas por encima de 400oC y se ha observado
que su máxima acción destructiva se encuentra
entre los 550oC y 750oC. Se ha podido observar
en los materiales sometidos a estas condiciones
la aparición de numerosas grietas [4].
También es importante tener en cuenta que se
ha determinado a través de la experimentación de
diversos materiales, incluidos los aceros inoxidables, que la temperatura de exposición influye en
el espesor de la capa nitrurada, en el aumento de
la dureza, así como a la propensión a la aparición
de grietas, cuando se está sometido a una atmósfera con amoniaco [5].
El amoniaco es un producto químico ampliamente utilizado por diversos tipos de industrias
como en la producción de fertilizantes y ácido
nítrico, entre otros, donde a condiciones ambientales los aceros inoxidables poseen una buena resistencia a este compuesto tanto en forma líquida
como gaseosa, pero este tiene el efecto de formar
una capa nitrurada sobre estos por encima de
temperaturas de 450oC, que lleva a la fragilización
del material, así como la posibilidad de generar
grietas y cuando se encuentra bajo presión, este
fenómeno puede ocurrir o iniciar a temperaturas
aún más bajas, cerca de los 350oC. También se
da que debido a la alta reactividad del Cromo con
el Nitrógeno, puede ser preferencialmente consumido, pudiendo dejar en la superficie del material
una matriz más rica en la aleación Hierro-Níquel el
cual, a su vez, puede ser más susceptible a la corrosión [6]. También se reporta en la literatura que
el amoniaco es reconocido como una sustancia
dañina para los materiales de construcción de los
equipos para su procesamiento bajo ciertas condiciones de altas temperaturas y presiones, ya que
se puede disociar en Nitrógeno atómico e Hidrógeno atómico, donde el primero puede conducir
a la formación de una capa nitrurada, mientras el
Hidrógeno atómico puede causar descarburación
y aún sin presurizar puede inducir la formación de
una capa de nitruración por encima de 450oC y
si el amoniaco se encuentra presurizado, causa
nitruración y consecuentemente fragilización a
temperaturas por encima de 350oC [7].
Los aceros inoxidables son comúnmente empleados en aplicaciones donde se requiera buena
resistencia mecánica y contra la corrosión. Para el
caso de los convertidores de amoniaco, estos normalmente operan a temperaturas entre los 500oC
y 600oC, donde los materiales de construcción del
equipo, se encuentran expuestos a gases de síntesis, los cuales son, por lo general, una mezcla
de Nitrógeno, Hidrógeno y un porcentaje comúnmente de entre 5% y 6% de amoniaco gaseoso
(NH3). Los aceros inoxidables empleados para la
canasta que contiene el catalizador son propensos a sufrir de degradación por nitruración durante el servicio. En este tipo de aplicaciones, las
aleaciones basadas en Hierro pueden desarrollar
una capa superficial frágil no metálica compuesta
por nitruros de Hierro (Fe2N), que puede conducir
a que toda la pieza pueda ser susceptible de fragilización. En diversos estudios se ha reportado que
ciertos aceros inoxidables son más resistentes a
las condiciones de trabajo de los convertidores de
amoniaco, pero también pueden estar propensos
a la nitruración bajo las condiciones de operación.
Uno de los efectos es la formación de una capa
externa nitrurada que contiene precipitados de nitruro en los límites de grano [8].
Las condiciones reportadas del equipo donde se encontraba ubicada la muestra y por los
procesos que realiza, donde las temperaturas se
encuentran en un rango de 288oC y 566oC y la
presión es de 4200 Psi., más el hecho del procesamiento de los gases de síntesis, entre los
cuales se encuentran el Amoniaco, Nitrógeno e
Hidrogeno y los resultados de los distintos ensayos, donde se muestra una capa con un mayor
valor de dureza en la zona externa, mientras en la
zona central presenta una dureza menor, más lo
mostrado en la Fig. 5 con la fragilización del material cuando se sometió a laminación, así como
en los resultados de la composición química, lo
observado en las Fig. 10, 12a y 12b que muestran
Estudio del efecto de una atmósfera gaseosa de amoniaco en un componente de un reactor catalítico fabricado en acero inoxidable
AISI-SAE 304 – López
un mayor contenido de Nitrógeno en una capa de
aproximadamente 1.6mm., medida desde la superficie, conducen a establecer que el material de
la muestra analizada sufrió un proceso de difusión
de Nitrógeno por ataque del amoniaco que forma
una capa nitrurada frágil con el espesor aproximado mencionado antes.
El Nitrógeno puede encontrarse en la capa
nitrurada al formar precipitados de nitruros de
cromo (Cr2N), o de Hierro (Fe2N), dada la gran
afinidad del Cromo para unirse con el Nitrógeno
y también en parte con el Hierro, lo cual ha sido
corroborado para aceros inoxidables con contenidos de Cromo superiores al 12% [8], lo que puede resultar en un empobrecimiento del Cromo del
material adyacente a la capa nitrurada que causa
que el material se vuelva magnético, como efectivamente se pudo comprobar con la muestra analizada en este trabajo y donde además, esta capa,
por estar conformada por precipitados de nitruros
que son frágiles y duros, posee estas mismas características. Los precipitados de nitruros poseen
una alta temperatura de disolución, por lo cual a
las condiciones de operación del reactor catalítico, estos no se pueden disolver, formándose por
lo tanto la capa nitrurada dura y frágil observada
en la muestra, la cual además presenta ya numerosas grietas.
V. OBSERVACIONES Y RECOMENDACIONES
El amoniaco a altas temperaturas posee un
gran potencial para formar una capa nitrurada
en los metales, al igual que a altas presiones se
pueden formar compuestos corrosivos y en algunas aleaciones presentarse el agrietamiento por
corrosión bajo tensión [9]. En general, con el amoníaco (NH3) e hidróxido de amonio (NH4OH), los
aceros inoxidables han demostrado una buena
resistencia a todas las concentraciones y hasta el
punto de ebullición, solo que se encuentran algunos con mejores resistencias a estas condiciones
de operación que otros [10].
Las inestabilidades metalúrgicas como la recristalización, el envejecimiento, la precipitación
de fase intermetálica, entre otras, pueden ocurrir
en un material cuando se encuentra sometido a
ciertas condiciones como por ejemplo esfuerzos,
temperaturas elevadas y factores ambientales
[11].
De acuerdo con la literatura técnica, para tratar
de reducir la degradación del material por efectos
de la capa de nitruración que se forma en un medio ambiente de amoniaco a temperaturas alrededor de 350oC – 600oC, más la influencia de la
presión en el equipo (en este caso 4200 Psi.), se
pueden seguir las siguientes recomendaciones:
Emplear aceros estabilizados con niobio y titanio para fijar el carbono y evitar la formación de
carburos de cromo. En su lugar, se forman nitruros
de Niobio y de Titanio, lo cual retrasa la degradación del acero en algún grado [12]. Solo que para
un tiempo de servicio prolongado, se puede de todas formas presentar la situación de generarse de
nuevo precipitados de nitruros de Cromo u otros
y la degradación del material por el agotamiento
del Niobio y el Titanio. Por la anterior razón es preferible seleccionar un acero con una mayor resistencia a la nitruración y al hacer una revisión de
la literatura se encuentra que para el trabajo en
convertidores de amoniaco que operan a temperaturas entre 500oC y 600oC, se obtiene que materiales con más altos contenidos de Níquel y más
bajos de Cromo, son más adecuados para tales
condiciones.
De acuerdo con el punto anterior, se presenta
que un material adecuado para las condiciones
del reactor catalítico donde se encontraba ubicada la muestra en estudio, puede ser el acero
inoxidable AISI-SAE 330, el cual es una aleación
Níquel-Cromo (34-37% Níquel, 17-20% Cromo,
0.08% Carbono) [13], que es apropiado para temperaturas por encima de 900oC. [8].
En general, para la selección de materiales
para este tipo de aplicaciones se deben considerar aspectos como la resistencia a la corrosión,
resistencia mecánica, conducción del calor y además los costos, por lo cual seleccionar un material adecuado a las condiciones de servicio puede
ser bastante complejo en algunos casos [14]. En
este caso, la recomendación es emplear aceros
inoxidables con contenidos de Níquel preferiblemente entre 30% y 40% y en todo caso inferiores
al 80 %, que han mostrado ser los más resistentes. Los inoxidables 309, 310 y 314 también han
mostrado buen comportamiento a la degradación
por nitruración en los ambientes con amoniaco
descritos anteriormente, pero menor que el acero
330 y mejor que los aceros inoxidables 321 y 347
estabilizados con Niobio y Titanio [8].
35
36
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 27 - 36
Otra razón principal por la cual son usados los
aceros inoxidables, es por sus propiedades a altas temperaturas como resistencia a la oxidación
y resistencia mecánica, donde el Cromo es uno de
los elementos que contribuyen a obtener estas importantes propiedades [15]. Un acero inoxidable
como el 304, que presenta precipitados de nitruros de Cromo o de Hierro, puede tratarse térmicamente con un recocido de disolución a 1100oC, lo
cual podría conducir a la eliminación de una buena parte de estos nitruros, pero esto no se puede asegurar al 100%. Además, para el caso de la
muestra examinada, se encuentra la presencia de
numerosas grietas, las cuales ya no podrían ser
eliminadas.
Aparte de las recomendaciones anteriores referidas a la selección de aceros para las condiciones de operación, se recomienda, de acuerdo con
las posibles dificultades de acceso y de parada de
este tipo de equipo, diseñar un plan de inspección
que permita monitorear la posible formación de
una capa de nitruración a lo largo del tiempo, especialmente cuando el tiempo de servicio es prolongado.
REFERENCIAS
[1]
[2]
[3]
[4]
Singh, R., Swaminathan, J. Paswan,S., Rajinikanth, V. and Chattoraj, I. “Investigations on high
temperature corrosion of wire enameling oven”,
Engineering Failure Analysis, No. 18, pp. 1375–
1387, 2011.
Jessner, P., Danoix, R., Hannoyer, B. and Danoix,
F. “Investigations of the nitrided subsurface layers of a Fe–Cr-model alloy”, Ultramicroscopy,
No. 109, pp. 530–534, 2009.
Peng, D.Q., Kim, T.H., Chung, J.H. and Park, J.K.
“Development of nitride-layer of AISI 304 austenitic stainless steel during high-temperature ammonia gas-nitriding”, Applied Surface Science,
No. 256, pp. 7522–7529, 2010.
Moran J.J., Mihalisin, J.R. and Skinner, E.N. “Behavior of stainless steel and other engineering
alloys in hot ammonia atmospheres”, National
association of corrosion engineers, pp. 115-119,
1961.
[5]
Marsh, Hands D. Nitriding of steel. “A very detailed German study of the nitriding of structural
steels in ammonia synthesis service”, Plant operation progress, pp. 152-159, 1982.
[6]
De Sanctis, O., Gómez L., Pellegri, N. and Durfi, A.
“Behavior in hot ammonia atmosphere of SiO2coated stainless steels produced by a sol-gel procedure”, Surface and Coatings Technology, No.
70, pp. 251-255, 1995.
[7]
Shaikh,H., Subba Rao, R.V., George, R.P., Anita
T. and Khatak, H.S. “Corrosion failures of AISI
type 304 stainless steel in a fertilizer plant”, Engineering Failure Analysis, No. 10, pp. 329–339,
2003.
[8]
Kain, Vivekanand, Gupta, Vipul K. and De K.,
Pranab. “Embrittlement Cracking of a Stabilized
Stainless Steel Wire Mesh in an Ammonia Converter”, Prediction, Industrial Developments and
Evaluation, pp. 411-420, 2008.
[9]
Committee of stainless steel producers. American iron and steel institute. Stainless steel in
ammonia production, 1978, pp. 1-22.
[10] ASM Handbook, Volume 1, Properties and Selection: Irons, Steels, and High Performance Alloys,
1997, p. 2122.
[11] Wulpi J. Donald. Understanding how components
fail. ASM International, 2nd ed., 1999, p. 234.
[12] Smith, William F. and Ashemi, Javad. Foundations of materials science and engineering,
2006, pp. 751-753.
[13] ASM Handbook, Materials Selection and Design,
9th ed., Vol. 20, 1997, p. 363.
[14] ASM Handbook, Failure Analysis and Prevention,
9th ed., Vol. 11, 1986, p. 628.
[15] Atlas Specialty Metals. Technical Handbook of
Stainless Steel, 2003, p. 15.
Metodología para la Estimación de Parámetros
en Tiempo Real mediante Filtros de Kalman y
Mínimos Cuadrados
Methodology for Real-Time Parameter Estimation Through
Kalman Filter and Least-Squares
Víctor Alfonso Ortiz Bravo
Ingeniero Electrónico,
Universidad Tecnológica de Pereira
Investigador Grupo de Investigación en Ingeniería Electrónica,
Universidad Tecnológica de Pereira, Colombia
[email protected]
Manuel Antonio Nieto Arias
Ingeniero Electrónico,
Universidad Tecnológica de Pereira
Investigador Grupo de Investigación en Ingeniería Electrónica,
Universidad Tecnológica de Pereira, Colombia
[email protected]
Edwin Andrés Quintero Salazar
MSc. En Instrumentación Física,
Universidad Tecnológica de Pereira
Director del Programa de Ingeniería Electrónica
Director del Grupo de Investigación en Astroingeniería Alfa Orión,
Universidad Tecnológica de Pereira, Colombia
[email protected]
Resumen— En este artículo se presenta una metodología para la estimación en tiempo real de parámetros de
sistemas dinámicos lineales desconocidos, mediante el
filtrado de Kalman y el método de estimación por mínimos cuadrados. Los algoritmos resultantes de la aplicación de la metodología propuesta son implementados
en tiempo real sobre un procesador digital de señales
(DSP, por sus siglas en inglés) referencia TMS320F2812
de la marca Texas Instruments©. Con el objetivo de evaluar la efectividad del método, se adelantó la estimación
de una planta dinámica de segundo orden con comportamiento de filtro pasa bajos estable, simulada mediante un circuito electrónico que contiene amplificadores
operacionales, que maniobran bajo condiciones de laboratorio que generan una alta perturbación en las funciones que identifican la entrada y la salida. Estas señales
son adquiridas por el procesador digital de señales mediante el convertidor Análogo-Digital (A/D) embebido en
el mismo, con el fin de implementar en tiempo real el
algoritmo de identificación de parámetros planteado en
la metodología.
Finalmente, se obtuvo la función de transferencia estimada del sistema con errores de 0,0019% en la frecuencia de corte, 10,34% en el sobre impulso, y 14,28%en el
tiempo de establecimiento; lo cual evidencia la efectividad de la implementación en tiempo real de la estrategia de estimación planteada.
Palabras clave— Estimación de parámetros, filtro de
Kalman, identificación de sistemas, mínimos cuadrados, procesador digital de señales, procesamiento en
tiempo real.
Abstract— This paper presents a methodology for realtime estimation of the parameters of unknown nonlinear dynamic systems by Kalman filtering and the least
squares estimation method. The algorithms resulting
from the application of the proposed methodology are
implemented in real time on a TMS320F2812 digital
signal processor (DSP) from Texas Instruments©. In order to evaluate the effectiveness of the method, estimation of a dynamic plant second order filter with stable
low-pass behavior, simulated by an electronic circuit
containing operational amplifiers, operating under laboratory conditions that generate a high disturbance
in the input and output functions was performed. These
signals are acquired by the digital signal processor via
its embedded analogue-digital (A/D) converter, to implement the real-time parameter identification algorithm
proposed in the methodology. Finally, we obtained the
estimated transfer function of the system with an error
of 0.0019% in the cutoff frequency, 10.34% in the overshoot, and 14.28% in the settling time, demonstrating
the effectiveness of the real-time implementation of the
estimation strategy proposed.
Keywords— Estimation of parameters, Kalman filter,
system identification, least squares, digital signal processor, real time processing.
I. INTRODUCCIÓN
En el campo de la ingeniería, a la hora de implementar las técnicas establecidas por la teoría
de control moderna, uno de los aspectos que dificultan esta tarea consiste en el desconocimiento
Recibido: 26/02/2013/ Aceptado: 19/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44
38
de los parámetros que definen la dinámica de los
sistemas que se desean controlar. Generalmente, con el objetivo de solventar esta dificultad, se
recurre a la aplicación de estrategias que, a partir de la observación de la respuesta presentada
por el sistema frente a una excitación dada, arrojan una estimación de las variables y del modelo
matemático que identifican la planta; como es el
caso de método de estimación de parámetros por
mínimos cuadrados. Sin embargo, debido a que
las señales de entrada y salida del sistema en la
gran mayoría de las aplicaciones son altamente
afectadas por el ruido, los parámetros arrojados
por la estimación varían sustancialmente con
respecto a los realmente presentes en la planta.
Lo cual hace necesario la implementación de filtros que permitan minimizar los efectos indeseados causados por las perturbaciones externas
ajenas a las señales involucradas en el sistema.
Una estrategia muy utilizada consiste en el filtro
de Kalman, el cual actualmente se encuentra en
un sinnúmero de aplicaciones tales como el modelamiento de espacio de estados [1], procesamiento de datos biomecánicos [2], estimación de
sistemas de control de tráfico [3], control de posición en interferometría láser [4], filtrado de señales de acelerómetros y giroscopios [5] y control
de bombas centrífugas de agua [6], entre otros.
Si bien la aplicación de las estrategias descritas anteriormente suministra una estimación
aceptable del sistema objeto de estudio, la implementación de los algoritmos demanda sistemas
robustos de procesamiento, lo cual pone en riesgo
la operación en tiempo real del estimador cuando
se desea modelar sistemas dinámicos en plena
operación. Por esta razón al realizar una revisión
exhaustiva del estado del arte, se encuentran estrategias encaminadas a la implementación en
tiempo real del filtro de Kalman, como las que se
presentan en [7]. Un ejemplo claro de la situación
se observa en las notas de aplicación del procesador digital de señales TMS320F2812 de la marca
Texas Instruments© [8], en las cuales se encuentran documentos técnicos dedicados a la implementación en tiempo real de estrategias de control que involucran el filtro de Kalman, aunque sin
contemplar la estimación de los parámetros del
sistema. Este escenario pone de manifiesto la necesidad de desarrollar sistemas que estimen los
parámetros de sistemas desconocidos mediante
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44
el método de mínimos cuadrados, que minimice
los efectos indeseados causados por el ruido, con
la capacidad de operar en tiempo real sobre sistemas embebidos.
En el presente artículo se propone una metodología para la estimación en tiempo real de
parámetros de sistemas dinámicos lineales mediante el método de mínimos cuadrados y el Filtro de Kalman. Con el fin de evaluar la metodología propuesta, se realizó la identificación de
una planta de segundo orden implementando
en tiempo real los algoritmos desarrollados en el
procesador digital de señales TMS320F2812 de
la marca Texas Instruments©.
II. MATERIALES Y MÉTODOS
A. Identificación de los parámetros del sistema
Uno de los requisitos que exige el diseño de
los controladores clásicos consiste en conocer,
con algún grado de certeza, el comportamiento
del sistema que se va a controlar, es decir, en
términos de su modelo matemático, los parámetros de la función de transferencia. Sin embargo, en la gran mayoría de las aplicaciones de la
teoría de control, es poca la información con la
que se cuenta acerca del sistema, razón por la
cual un problema frecuente en ingeniería consiste en establecer y aplicar técnicas que permitan
determinar los parámetros que intervienen en el
comportamiento del mismo. Algunas de las técnicas para la construcción de los modelos están
basadas en la observación de la dinámica del
sistema en tiempo pasado y actual. Las metodologías basadas en este principio se clasifican
como adaptativas [9] y generalmente dan origen
a algoritmos recursivos para su implementación
[10]. En la Fig. 1 se presenta la configuración
típica de un sistema de estimación adaptativa.
Como se observa, el proceso de estimación se
adelanta en línea con la operación del sistema,
por lo cual es necesario que esta tarea se realice
en tiempo real, de tal forma que la estimación
siga el ritmo de la dinámica de la planta. En este
punto es donde los sistemas electrónicos embebidos de procesamiento (como el DSP utilizado
en este proyecto), presentan gran versatilidad,
pues permiten dedicar el 100% de los recursos
disponibles a la tarea de estimación.
Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados – Ortiz, Nieto,
Quintero
Fig.1. DIAGRAMA DE BLOQUES DE UN SISTEMA DE ESTIMACIÓN PARA
CONTROL ADAPTATIVO
P(t): Matriz de covarianza
λ(t): Factor de olvido
y(t): Salida del sistema
El factor de olvido puede ser variable en el
tiempo de acuerdo a las características de la planta. Sin embrago, generalmente se establece como
una constante entre 0,9 y 0,99. Para este proyecto en particular, se estableció en 0,98, incluida
esta ponderación a la muestra anterior, que permite de esta manera “olvidar” las muestras más
antiguas [10].
B. Filtrado
Fuente: Los autores
Estimación por Mínimos Cuadrados Recursivos
El método de estimación por mínimos cuadrados es uno de los más populares y utilizados actualmente en aplicaciones prácticas. Consiste en
calcular los parámetros reales del sistema, de tal
forma que la suma de los cuadrados de las diferencias entre los valores observados y calculados
multiplicados por un número, que mide la amplitud del error, sea mínimo. Este método es fácilmente programable debido a su recursividad, es
decir, aprovecha parte de los cálculos realizados
en un paso anterior para la obtención del siguiente [11], situación que lo convierte en relativamente fácil de implementar en un sistema embebido,
razón por la cual es el propuesto en la presente
metodología.
El algoritmo para la estimación de parámetros
por mínimos cuadrados recursivos puede resumirse en el conjunto de ecuaciones (1) a (3).
Donde:
Parámetros estimados de la planta
φ(t): Vector de regresión (entradas y salidas de
la planta)
Si bien el método de estimación por mínimos
cuadrados ofrece una muy buena aproximación a
los valores reales de los parámetros de la planta,
su implementación sobre sistemas reales exige
que las señales de entrada y salida, a partir de
las cuales se realiza la estimación, estén prácticamente libres de las afectaciones causadas por el
ruido. Esta situación hace imprescindible la aplicación de procedimientos de filtrado que suavicen
las señales de entrada y salida del sistema, para
de esta manera obtener parámetros estimados
con errores bajos.
Filtro de Kalman
El filtro de Kalman es esencialmente un conjunto de ecuaciones matemáticas que implementan un estimador tipo predictor–corrector, que es
óptimo en el sentido que minimiza el error estimado de la covarianza. Desde el momento de su
introducción, el filtro de Kalman ha sido sujeto de
investigación permanente. Esta situación, en adición a los avances en la computación digital, ha
propiciado una evolución del filtro hasta hacerlo
muy práctico, pero relativamente simple y robusto. Para la eliminación en tiempo real del ruido
presente en las señales del sistema que se desea
estimar, la metodología descrita en el presente
documento propone implementación del filtro de
Kalman en un procesador digital de señales.
El filtro de Kalman estima el estado del proceso en una muestra y después obtiene la realimentación en forma de mediciones con ruido
aditivo. Las ecuaciones del filtro de Kalman se
clasifican en dos grupos: ecuaciones de actualización de tiempo y de actualización de mediciones.
Las primeras son responsables de proyectar hacia adelante (en el tiempo) el estado actual, y es-
39
40
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44
timaciones de error y covarianza para obtener los
estimados a priori del siguiente paso. Las ecuaciones de actualización de medida pueden ser
vistas como ecuaciones correctoras. De hecho,
el algoritmo final de estimación reúne los algoritmos de predicción-corrección para la resolución
de problemas numéricos [12]. A continuación se
presentan los conjuntos de ecuaciones descritos
anteriormente.
Ecuaciones de actualización de tiempo:
Fig. 2. DIAGRAMA DE BLOQUES DEL ALGORITMO PARA LA IMPLEMENTACIÓN DEL ESTIMADOR POR MíNIMOS CUADRADOS
Ecuaciones de actualización de mediciones:
Donde:
Proyección del estado hacia adelante (estimación)
Proyección de la covarianza del error hacia adelante
Kk: Ganancia de Kalman
Actualización del valor estimado con la
medición zk
Pk: Actualización de la covarianza del error
C. Algoritmos
La metodología propone la construcción de dos
algoritmos independientes: algoritmo de mínimos
cuadrados y algoritmo para el filtro de Kalman. A
continuación se describen detalladamente cada
uno de ellos.
Algoritmo para la estimación de parámetros
por mínimos cuadrados.
Como ya se mencionó anteriormente, el algoritmo de mínimos cuadrados permite encontrar el
modelo matemático de la planta física. Para realizar la estimación se requieren dos señales: la señal de referencia que se le aplica a la entrada del
sistema y la salida del mismo. Con esta información, el algoritmo arroja como resultado la función
de transferencia estimada [13]. El diagrama de
bloques de este algoritmo se presenta en la Fig. 2.
Fuente: Los autores
Algoritmo para la aplicación del filtro de Kalman
El filtro de Kalman se encarga de estimar los
estados del sistema y de eliminar el ruido aleatorio presente. Para lograr este objetivo, es necesario el modelo de espacio de estados, el cual
se obtiene al ejecutar el algoritmo de estimación
de mínimos cuadrados presentado en la Fig. 2.
Además de lo anterior, también se requiere de la
referencia de entrada de la planta; para de esta
manera entregar como salida del algoritmo los
estados estimados y la señal filtrada [14], [15].
En la Fig. 3 se presenta el diagrama de flujo del
algoritmo para la aplicación del filtro de Kalman.
Fig. 3. DIAGRAMA DE FLUJO DEL ALGORITMO PARA LA IMPLEMENTACIÓN
DEL FILTRO DE KALMAN
Fuente: Los autores
Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados – Ortiz, Nieto,
Quintero
D. Implementación en tiempo real sobre un
procesador digital de señales (DSP)
Para la implementación en tiempo real sobre
un procesador digital de señales de los algoritmos
propuestos por la metodología planteada en el
presente artículo, y presentados en la Fig. 3, se
establecen las siguientes actividades:
• Generar una señal escalón unitario mediante
la salida analógica del DSP. Esta señal es utilizada como fuente de excitación para el sistema que se va a identificar.
• La respuesta presentada por el sistema frente a esta excitación es adquirida por el DSP
mediante su módulo de conversión análogodigital (A/D).
• Esta señal de respuesta es estimada al interior del DSP por el algoritmo de mínimos
cuadrados, y, a partir del modelo matemático obtenido, se aplica el algoritmo de filtrado
de Kalman que optimiza la caracterización al
minimizar las afectaciones causadas por el
ruido.
• Finalmente, el DSP suministra los coeficientes del modelo de la planta obtenidos al ejecutar el procedimiento de estimación.
La implementación de la metodología propuesta permite obtener un modelo preciso de la planta
en aplicaciones en las cuales no se posee información acerca del comportamiento de la misma.
Además, gracias a la aplicación del filtro de
Kalman, se logra eliminar cualquier tipo de interferencia de naturaleza aleatoria presente en las
señales o en el interior del sistema.
III. RESULTADOS
Con el fin de verificar la efectividad de la metodología propuesta, los algoritmos de estimación
de parámetros por mínimos cuadrados y de filtro
de Kalman, fueron implementados en tiempo real
sobre un DSP, con el fin de modelar una planta
de segundo orden excitada mediante un escalón
unitario. El procesador digital de señales utilizado
fue el DSPTMS320F2812 de la marca Texas Instruments©, el cual se configura desde el software de
desarrollo Code Composer Studio© (CCS)V3.1 [16].
El sistema que se va a estimar consiste en una
planta de segundo orden cuya función de transferencia se describe mediante la ecuación (9).
En la Fig. 4 es posible observar el diagrama de
Bode para la magnitud, construido en el entorno
de desarrollo integrado Matlab©, a partir de la función de transferencia teórica del sistema. Allí es
posible observar que la planta se comporta como
un filtro pasa bajos de segundo orden con una frecuencia de corte (ωc) de 5,1962 rad/s y un factor
de amortiguamiento (ξ) de 0,4994, el cual origina
un sobre impulso de 1,25 dB en 2,64 rad/s. Por
otra parte, la Fig. 5 presenta la respuesta al escalón de la planta, evidenciándose un sobre impulso
alrededor del 16%, y un tiempo de establecimiento de 1,5s aproximadamente; lo cual permite concluir que se trata de un sistema estable.
Fig. 4. DIAGRAMA DE BODE DE LA FUNCIÓN TEÓRICA DEL SISTEMA
ESTIMADO
Fuente: Los autores
La realización del sistema se efectuó mediante
un circuito electrónico que contiene amplificadores operacionales[17]. El diagrama esquemático
del circuito montado se muestra en la Fig. 6. Así,
mismo, la Fig. 7 presenta la respuesta al escalón
visualizada en el osciloscopio del laboratorio.
Fig. 5. RESPUESTA TEÓRICA DEL SISTEMA AL ESCALÓN UNITARIO
Fuente: Los autores
41
42
Fig. 6. DIAGRAMA ESQUEMÁTICO DEL CIRCUITO MONTADO PARA LA REALIZACIÓN DE LA PLANTA OBJETO DE IDENTIFICACIÓN
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44
análogo-digital. En ella se observa una gran afectación en la señal debida a la presencia del ruido y al muestreo propio de la digitalización. Esta
imagen fue obtenida en el software CodeComposer Studio© (CCS)V3.1, a partir de la lectura de los
datos almacenados en ciertas posiciones específicas de memoria del DSP.
Fig. 7. RESPUESTA AL ESCALÓN DE LA REALIZACIÓN ELECTRÓNICA DEL
SISTEMA. COMO SE OBSERVA, EL OSCILOSCOIPIO SE ECUENTRA AJUSTADO EN ESCALA DE 500MV/DIV EN TENSIÓN Y 5 S/DIV EN TIEMPO
Fuente: Los autores
Fig. 8. SEÑAL DE SALIDA DEL SISTEMA ADQUIRIDA CON EL DSP
Fuente: Los autores
Fuente: Los autores
Las señales de entrada y salida de la planta montada son llevadas al DSP descrito anteriormente con el fin de adelantar la estimación
de parámetros mediante el método de mínimos
cuadrados y el filtrado de Kalman. En la Fig. 8 se
presenta la respuesta presentada por el sistema
frente a la excitación de tipo escalón, adquirida
por el DSP mediante su módulo de conversión
Una vez aplicado el filtro de Kalman en el DSP,
la respuesta al escalón presentada en la Fig. 8 se
transforma en la señal que se ilustra en la Fig. 9.
Claramente se observa una disminución bastante considerable del ruido, lo cual permite obtener
mejores resultados al aplicar el algoritmo de estimación de parámetros por mínimos cuadrados.
Posterior a la aplicación del filtro de Kalman, el
DSP ejecuta el algoritmo para la estimación de los
parámetros del sistema mediante el método de
mínimos cuadrados. La función de transferencia
arrojada por el proceso de estimación está dada
por la ecuación (10).
Metodología para la Estimación de Parámetros en Tiempo Real mediante Filtros de Kalman y Mínimos Cuadrados – Ortiz, Nieto,
Quintero
Fig. 9. SEÑAL DE SALIDA DEL SISTEMA UNA VEZ APLICADO EL FILTRO DE
KALMAN
Si bien el resultado de la estimación para la frecuencia de corte en el sistema objeto estudio (ver
Tabla I) presentó un error muy bajo, no ocurrió así
para el factor de amortiguamiento y el tiempo de
establecimiento. Es posible atribuir esta situación a
la relativa simplicidad del método de mínimos cuadrados. Sin embargo, la metodología propuesta es
extrapolable a otros métodos de caracterización de
sistemas, los cuales, unidos al filtrado de Kalman,
podrían arrojar valores mucho más precisos; esto
sin contar las innumerables ventajas que ofrece la
implementación en tiempo real.
AGRADECIMIENTOS
Fuente: Los autores
Finalmente, en la Tabla I se presentan los parámetros obtenidos al aplicar la metodología de
estimación en tiempo real sobre la planta realizada con componentes electrónicos, y los valores teóricos deducidos a partir de la función de
transferencia ideal del sistema, presentada en la
ecuación (9).
TABLA I.
Los autores manifiestan sus agradecimientos al
Grupo de Investigación en Ingeniería Electrónica de
la Universidad Tecnológica de Pereira por facilitar
sus instalaciones, materiales y equipos de laboratorio con el fin de validar la metodología propuesta.
REFERENCIAS
[1]
R. Merwe, Sigma-Point Kalman Filters for Probabilistic Inference in Dynamic State-Space Models, Oregon
Health & Science University, 2004. Disponible: http://
speech.bme.ogi.edu/publications/ps/merwe04.pdf
[2]
A. M. Sabatini, “Real-time Kalman Filter Applied to
Biomechanical Data for State Estimation and NumericalDifferentiation”, Medical, Biological Engineering &
Computation, No. 43, pp. 2-10, Mar. 2003.
[3]
Y. Wang and M. Papagiorgiou, “Real-time Freeway Traffic State Estimation based on Extended Kalman Filter:
a General Approach”, Transportation Research Part B,
No. 39, pp. 141-167, May. 2005.
[4]
T. Park, S. Choi, C. Han and Y Lee, “Real-time Precision
Displacement Measurement Interferometer using the
Robust Discrete time Kalman Filter”, Optics & Laser
Technology, No. 37, pp. 229-234, Sep. 2005.
[5]
C. Kownacki, “Optimization Approach to Adapt Kalman
Filters for the Real-time Application of Accelerometer
and Gyroscope Signals’ Filtering”, Digital Signal Processing, No. 21, pp. 131-140, Oct. 2011.
[6]
O. I. Kiselichnik and M. Bodson, “Nonsensor Control
of Centrifugal Water Pump with Asynchronous ElectricDrive Motor Based on Extended Kalman Filter”, Russian Electrical Engineering, Vol. 82, No. 2, pp. 69-75
Sep. 2011.
[7]
G. Evensen, “The Ensemble Kalman Filter: Theoretical
Formulation and Practical Implementation”, Ocean Dynamics, No. 53, pp. 343-367, Apr. 2003.
RESPUESTA AL ESCALÓN DE LA REALIZACIÓN ELECTRÓNICA DEL SISTEMA
Sistema
Teórico
Estimación
Error (%)
Frecuencia
de corte (ωc)
(rad/s)
5,1962
5,1963
0,00192448
Factor de
amortigua
miento (ξ)
0,4994
0,7063
41,4297157
Sobre impulso (V)
1,16
1,04
10,3448276
Tiempo de
establecimiento (s)
1,4
1,6
14,2857143
Fuente: Los autores
IV. CONCLUSIONES
La metodología presentada en este artículo demostró que es posible integrar el algoritmo
de estimación de parámetros mediante mínimos
cuadrados con el filtro de Kalman, con el fin de
construir un sistema de identificación en tiempo
real de fácil montaje. Esta propuesta facilita en
gran medida el diseño de sistemas modernos de
control para plantas dinámicas, ya que permite
estimar las características del sistema de manera
precisa al reducir las perturbaciones debidas al
ruido presentes en las señales.
43
44
[8]
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 37 - 44
Texas Instruments, “Sensorless Control with Kalman
Filter on TMS320 Fixed-Point DSP”, TMS320F2812
Digital Signal Processor Application Notes. Disponible:
http://www.ti.com/lit/an/ bpra057/bpra057.pdf
[9]
F. R. Rubio, M. J. López, Control Adaptativo y Robusto.
Universidad de Sevilla, 1996, pp. 27-44.
[10]
L. Ljung, System Identification Theory for the User, 2nd
ed., Prentice Hall, 1999, pp. 361-382.
[11]
J. V. Bobál, J. Bohm, J. Fessl and J. Machácek, DigitalSelf-tuning Controllers, Springer, 2005, pp. 26-50.
[12]
S. Haykin, Kalman Filtering and Neural Networks, Wiley-Interscience, 2001, pp. 1-21.
[13]
P. S. Maybeck, Stochastic Models, Estimation and
Control, 1979. Disponible: http://www.cs.unc.edu/~
welch/kalman/ Consultado el 23 de febrero de 2012.
[14]
G. Evenses, Ensemble Kalman Filter: theoretical Formulation and Practical Implementation. 2003.
[15]
J. G. Díaz, A. M. Mejía y F. Arteaga, “Aplicación de los
Filtros de Kalman a Sistemas de Control”. Revista INGENIERÏA UC, Vol. 8, No 1, pp. 1-18, Jun. 2001.
[16]
Texas Instruments, “TMS320F2812 Digital Signal Processor Data Sheet”. Disponible: http://www.ti.com/
lit/ds/ sprs174t/sprs174t.pdf Consultado el 10 de
octubre de 2012.
[17]
L. E. Avendaño. Sistemas Electrónicos Analógicos un
Enfoque Matricial. Universidad Tecnológica de Pereira,
2007, pp. 104-108.
Sistema de Soporte a la Toma de Decisiones para
el Análisis Multifractal del Genoma Humano
Decision Support System for Multifractal Analysis of the
Human Genome
Martha Eliana Mendoza Becerra
Ph.D. (c) en Ingeniería de Sistemas y Computación,
Universidad Nacional de Colombia
M.Sc. en Informática, Universidad Industrial de Santander
Docente Titular Tiempo Completo, Investigador Grupo de I+D en
Tecnologías de la Información (GTI),
Universidad del Cauca, Popayán, Colombia
[email protected]
Alba Viviana Camayo Otero
Ingeniera de Sistemas, Universidad del Cauca
Auxiliar de Investigación en el Grupo de I+D en Tecnologías de la
Información (GTI), Universidad del Cauca
Popayán, Colombia
[email protected]
Adrián Fernando Martínez Molina
Ingeniero de Sistemas, Universidad del Cauca
Auxiliar de Investigación en el Grupo de I+D en Tecnologías de la
Información (GTI), Universidad del Cauca
Popayán, Colombia
[email protected]
Émber Ubéimar Martínez Flor
M.Sc. (c) en Ingeniería de Sistemas, Universidad del Valle
Docente Asociado Tiempo Completo, Investigador Grupo BIMAC,
Universidad del Cauca, Popayán, Colombia
[email protected]
Carlos Alberto Cobos Lozada
Ph.D. (c) en Ingeniería de Sistemas y Computación,
Universidad Nacional de Colombia
M.Sc. en Informática, Universidad Industrial de Santander
Docente Titular Tiempo Completo, Coordinador del Grupo de I+D
en Tecnologías de la Información (GTI),
Universidad del Cauca, Popayán, Colombia
[email protected]
Resumen— En este artículo se presenta el modelo de
datos multidimensional de dos data marts que forman
parte de un Sistema de Soporte a la Toma de Decisiones en el área de la Genómica, el cual está basado en
tecnologías de Bodegas de datos y OLAP. El primer data
mart está relacionado con el “Análisis de unidades de
información”, que permite almacenar y consultar información sobre las unidades de información (Exón o Intrón) en la estructura de un gen, el orden y la posición
inicial y final de las unidades de información. El segundo
data mart llamado “Análisis fractal” permite almacenar
y consultar información sobre los genes, por ejemplo, el
número de unidades de información y longitud del gen,
y medidas adicionales obtenidas del análisis fractal
realizadas por una investigación previa. Finalmente, se
presentan los problemas durante el proceso de cargue
de datos y el modelado de los datos, junto con las soluciones planteadas a los mismos, y algunas interfaces de
la herramienta desarrollada.
Palabras clave— Bodegas de Datos, OLAP, Bioinformática. Proceso ETL.
Abstract— This paper presents the data model of two
multidimensional data marts that are part of a Decision
Support System in the genomics’ area, which is based
on data warehousing and OLAP technologies. The first
data mart is related to the “Units information analysis”,
which can store and retrieve information about units information (Exon or Intron) in a gene structure, the order,
and the start and end position of information units. The
second data mart called “fractal analysis” allows you to
store and retrieve information about genes, for example,
the number of information units and length of the gene,
and measurements obtained by previews fractal analysis research. Finally, this paper presents the problems
during the extraction, transformation and loading data
process and data modeling, together with the proposed
solutions to them, and some interfaces of the developed
tool.
Keywords— Date warehouse, OLAP, Bioinformatics, ETL
process.
I. INTRODUCCIÓN
En el año de 1990 se dio inicio al proyecto del
genoma humano, un esfuerzo coordinado por el
departamento de energía de los Estados Unidos y
los institutos nacionales de salud de Japón, Francia y Alemania, entre otros [1]. Para suplir la necesidad de almacenar las secuencias y anotaciones
generadas por este proyecto y realizar análisis
Recibido: 13/12/2012/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
46
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
posteriores sobre estos datos, se usaron bases de
datos como el GenBank (Base de datos pública
de secuencias de nucleótidos y proteínas) [2], la
Base de Datos de Secuencias de Nucleótidos del
Laboratorio Europeo de Biología Molecular [3] y el
Banco de Datos de DNA de Japón [4], entre otras.
Estas bases de datos, denominadas Bases de
Datos Biológicas, comúnmente almacenan los datos en un archivo de texto plano, donde se guardan además de la secuencias de nucleótidos o
proteínas, anotaciones, descripciones textuales, y
atributos, entre otros, referentes a un organismo.
Cada uno de los valores almacenados son organizados de forma tabular y contiene etiquetas o
delimitadores que indican el inicio o fin de un conjunto de valores relacionados. Sin embargo, desde el punto de vista de las ciencias de la computación o la informática, esta forma de almacenar
los datos corresponde con una base de datos no
estructurada lo que dificulta el procesamiento y la
búsqueda de información específica.
Las desventajas que presenta un sistema de
gestión de datos basado en archivos planos son
evidentes y se encuentran ampliamente discutidos por la comunidad científica, sin embargo, muchas de las bases de datos biológicas mantienen
este enfoque. Esto obliga a los investigadores a
generar aplicaciones específicas para la recuperación, limpieza, procesamiento y análisis de la
información, tareas que generalmente demandan
alta capacidad de cómputo.
Las investigaciones que se realizan en el área
de la genómica, por lo general, empiezan con la
descarga de las secuencias de nucleótidos y proteínas en archivos de texto plano. Posteriormente,
se realizan los análisis requeridos por la investigación especifica y se genera un conjunto de datos
que se almacenan por lo regular en archivos de
texto plano y en algunas ocasiones en bases de
datos relacionales; estos datos generados son
luego analizados -generalmente en hojas de cálculo y por medio de un proceso manual, repetitivo
y que requiere de mucho tiempo- para comprobar
las hipótesis definida en cada investigación.
Al siguir este proceso general de gestión de
datos, se pueden destacar tres problemas principales: (i) No se cuenta con un almacenamiento
estructurado que permita centralizar la gran cantidad de archivos planos que se tienen y los datos
que estos contienen, (ii) en un entorno de archivos
planos no unificados, es difícil manejar los posibles errores de consistencia en los campos de los
archivos provenientes del GenBank, y (iii) basados
en esos archivos planos, se dificulta la tarea de
encontrar relaciones o asociaciones entre las variables involucradas y contar con una herramienta
que represente gráficamente los datos.
En un esfuerzo interinstitucional por entender
ciertas particularidades del genoma humano, en
el año 2004 se formuló el proyecto “Análisis Multifractal del Genoma Humano para la Búsqueda
de Regularidades con Significado Biológico y una
Contribución a la Generación de Biotecnología de
la Información” (AMGH), que fue ejecutado por el
Grupo de Biología Molecular, Ambiental y del Cáncer (BIMAC) y el Grupo de I+D en Tecnologías de
la Información (GTI) de la Universidad del Cauca
[5], en asocio con la Universidad del Valle, Universidad de Cantabria (Santander, España) y Triesta
Sciences (India) Pvt. Ltd. (Bangalore, India/Menlo
Park, California).
En este proyecto (AMGH) se aplicaron diferentes técnicas y herramientas de Bioinformática y
de Geometría Fractal para la construcción de un
modelo teórico, no lineal e “integrativo” que explica cómo se estructura y funciona el genoma humano (ver principales resultados del proyecto en
[6] y [7]). Este estudio se adelantó a partir de la
información del genoma humano publicada en el
GenBank [2, 5] y la gestión de datos también se
basó en archivos planos, heredando de esta forma los problemas mencionados previamente.
En este artículo se presenta una solución
computacional original para el almacenamiento y
análisis de los datos biológicos generados en el
proyecto de investigación AMGH. Para resolver los
tres problemas previamente mencionados en el
marco del proyecto AMGH, se desarrolló un sistema de soporte a la toma de decisiones (DSS, por
sus siglas en inglés, Decision Support Systems)
que permite a los investigadores del proyecto analizar los datos desde una perspectiva multidimensional. Para el desarrollo del DSS se modeló una
bodega de datos que centraliza, homogeniza y unifica las diversas fuentes de datos y se adaptó una
herramienta de procesamiento analítico en línea
(OLAP, por sus siglas en inglés, On Line Analytical
Processing) para obtener una mejor y más versátil
forma de visualizar y explorar los datos generados
en el proyecto AMGH.
Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez,
Cobos
Para el desarrollo de la bodega de datos se
realizó inicialmente el proceso de extracción, transformación y carga (ETL, por sus siglas en inglés,
Extraction, Transform and Load). La extracción se
realizó tomando los archivos planos generados en
el proyecto AMGH, luego estos archivos fueron depurados, integrados y cargados en un mismo repositorio (la bodega de datos). Esta bodega fue procesada y convertida en un cubo multidimensional; el
cual es accedido, visualizado y analizado por parte
de los investigadores a través de una herramienta
OLAP adaptada. Los investigadores usan esta herramienta para encontrar relaciones y estadísticas
importantes en los datos de una forma mucho más
sencilla, clara y flexible; evitando realizar los procesos manuales y repetitivos que se debían realizar
sin la solución planteada en este artículo.
A continuación, en la sección 2 se presentan algunos trabajos relacionados con el uso de bodegas
de datos en bioinformática. Luego, en la sección
3 se presenta los aspectos más relevantes sobre
el modelado y la presentación de los datos. Posteriormente en la sección 4, se comentan los problemas que se presentaron en el desarrollo de la
investigación con sus respectivas soluciones. En la
sección 5 se muestran algunas características de
la herramienta OLAP y por último se presentan las
conclusiones y algunas recomendaciones que pueden ser útiles para proyectos futuros de DSS que se
realicen en el área de la bioinformática.
II. TRABAJOS RELACIONADOS
En el contexto bioinformático cuando se habla
de bodegas de datos, se hace referencia a bases
de datos unificadas (Unified databases) o integradas, pero no de una bodega de datos “real”, Por
lo anterior, es difícil encontrar en bioinformática el
uso de una metodológica reconocida de bodegas
de datos o verdaderos modelos multidimensionales, estos últimos conformados por tablas de
hechos, medidas y dimensiones, características
comunes de las bodegas de datos.
Es importante tener en cuenta que una bodega de datos permite almacenar e integrar datos
desde múltiples fuentes y permite a usuarios de
alto nivel ejecutar consultas y análisis de dichos
datos desde diferentes perspectivas (múltiples
dimensiones o multidimensionalidad) [8] [9], sin
tener que acceder a las fuentes originales. Para
lograr lo anterior, en el desarrollo de una bodega
de datos se hace especial énfasis en la homogenización de los datos [10], lo que implica que los
datos cargados desde las diversas fuentes son
transformados mediante un mapeo a un formato
único y estándar antes de ser físicamente almacenados. Adicionalmente, durante este proceso se
pueden llevar a cabo el filtrado, la validación y, de
ser necesario, la modificación de datos obtenidos
de las fuentes originales [11] [12]. También es importante tener claro que el análisis multidimensional de los datos en la bodega de datos es una característica clave para diferenciarla del concepto
de base de datos unificada, ya que estas últimas
no lo permiten y utilizan sentencias SQL estándar
(structured query language) para mostrar resultados a los usuarios.
A continuación se presentan algunos de los
proyectos de genómica más representativos donde se han usado bases de datos unificadas y bodegas de datos.
Un sistema de bodegas de datos para analizar familias de proteínas (DWARF, por sus siglas
en inglés, A data warehouse system for analyzing
protein families) [13], propone una base de datos
unificada e integrada desde la perspectiva relacional, en lugar de una bodega de datos multidimensional. Este sistema integra datos acerca de
las secuencias, estructuras y anotaciones funcionales de las familias de proteínas. Los modelos relacionales asociados a este sistema se componen
de tres grandes secciones, representadas en entidades asociadas a la proteína, la estructura de
la proteína y la secuencia de la proteína, es decir,
esta base de datos unificada relaciona familias de
proteínas y permite evaluar sus relaciones entre
secuencia, estructura y función.
Una bodega de datos bioinformática integrada
(ATLAS, A data warehouse for integrative bioinformatics) [14], es un sistema que presenta una base
de datos unificada de datos biológicos. ATLAS almacena e integra secuencias biológicas, interacciones moleculares, información de homología
(estudio comparativo de los seres vivos), anotaciones funcionales de genes y ontologías biológicas,
El sistema busca proporcionar datos integrados
desde diferentes fuentes heterogéneas, así como
una infraestructura de software para la investigación y el desarrollo de la bioinformática.
47
48
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
Bodega de datos genéticos (GEWARE, por sus
siglas en inglés, Genetic Data Warehouse) [15],
es una bodega de datos que soporta grandes volúmenes de datos provenientes de experimentos
y estudios que buscan el análisis de expresiones
de genes. GEWARE almacena centralizadamente
datos de expresiones junto con una variedad de
anotaciones hechas previamente por investigadores con el objeto de soportar diferentes formas
de análisis. GEWARE permite gran flexibilidad en
el análisis de los datos basado en un modelo de
datos multidimensional donde los datos son almacenados en varias tablas de hechos las cuales están asociadas con múltiples dimensiones
jerárquicas que describen las anotaciones en
los genes, muestras, experimentos y métodos de
procesamiento. Las anotaciones son integradas y
almacenadas de una forma genérica basada en
una plantilla y vocabulario predefinido. El sistema cuenta con varios métodos de análisis, entre
ellos el análisis de grupos de genes, de grupos de
experimentos y de matrices de expresiones. Este
sistema es totalmente operacional y soporta el desarrollo de varios proyectos de investigación.
En la Tabla I se realiza una comparación de estos proyectos, teniendo en cuenta el manejo de
los principales conceptos del modelado multidimensional en bodegas de datos.
de hechos” o “dimensiones”, los cuales son característicos del modelo multidimensional de las
bodegas de datos.
En GEWARE se observa el uso de conceptos relacionados con el modelo dimensional de bodega
de datos, pero los modelos generados almacenan
información clínica de los pacientes y no de secuencias de ADN, como es el caso de la investigación en AMGH, además estos modelos no se
presentan en un modelo dimensional estándar, lo
que los hace difíciles de entender.
III. MODELADO DE DATOS
El desarrollo del DSS en el marco del proyecto AMGH, se centró en dos objetivos principales,
el primero, permitir al investigador seleccionar el
número de unidades de información que desea
analizar, por estructura, visualizar a qué cromosomas, genes ó familias (tipos) de genes pertenecen esas estructuras y, finalmente, poder organizar en un orden ascendente o descendente las
longitudes de las unidades de información (Exón o
Intrón). Para lograr lo anterior se modeló un Data
Mart denominado Análisis de Unidades de Información (ver Fig. 1).
Fig. 1. MODELO DIMENSIONAL ANÁLISIS UNIDADES DE INFORMACIÓN
TABLA I.
CRITERIOS COMPARACIÓN TRABAJOS RELACIONADOS
ATLAS
DWARF
GEWARE
Modelo de
datos
Base de datos
relacional
Base de datos
relacional
Esquema estrella
no estándar
Dimensiones
No se
mencionan
No se
mencionan
Si existen
Tabla de
Hechos
No se
mencionan
No se
mencionan
Si existen
Medidas
No existen
No existen
Existen, pero
no se pueden
identificar
Data Mart
No existen
No existen
Existen, pero
no se pueden
identificar
Información
Interacciones
moleculares
Proteínas
Pacientes
clínicos y
Experimentos
médicos
Fuente: Autores del proyecto
Como se puede apreciar, en ATLAS y DWARF se
usa el término bodega de datos para describir bases de datos unificadas (o centralizadas), ya que
los modelos de datos que presentan son modelos
relacionales, y no utilizan los conceptos de “tablas
Fuente: Autores del proyecto
El segundo objetivo, permitir clasificar en
rangos (band) una medida resultante de la investigación, la cual es obtenida por cada estructura y consultar dentro de cada uno de esos
rangos las longitudes, número de unidades de
información, sus porcentajes por gen y sus estructuras, además calcular el número D (valor
que corresponde al análisis fractal realizado al
gen por los investigadores del proyecto AMGH
[6]) por familia de Genes. Este segundo objetivo
se modeló en el Data Mart denominado Análisis
Fractal (ver Fig. 2).
Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez,
Cobos
Este modelo se explica con mayor detalle (Ver
Fig. 3, debido a que presenta un caso especial
de modelado multidimensional. En el modelo se
aprecia que todas las dimensiones presentan
una clave sustituta. La dimensión gen contiene
un campo de descripción, unos campos que determinan el inicio y el fin del gen en la secuencia,
la hebra donde se encuentra el gen y la familia
y subfamilia a la que pertenece. En la dimensión
cromosoma se encuentra el organismo analizado
y la división a la que pertenece y una descripción.
La dimensión estructura contiene información
acerca de la función molecular de dicha estructura, el número de unidades de información y un
arreglo en el que se visualiza cada una de las unidades de información que conforman la estructura. La dimensión Band, contiene en términos
generales, los intervalos y rangos de análisis de
interés para los investigadores
Fig. 2. MODELO DIMENSIONAL ANÁLISIS FRACTAL
La Tabla de hechos Análisis fractal tiene una
granularidad definida por estructura, y presenta
como medidas: el número de unidades de información (#UI), simetría y longitud de la estructura (size). Las medidas porcentaje de número de
unidades de información (%gen#UI’s) y porcentaje
de longitud del gen (%gen_size), son relevantes al
clasificar una de las medidas calculadas por los
investigadores de AMGH, en intervalos y rangos.
Además, la Tabla de hechos almacena otras medidas calculadas en el proyecto AMGH que no se
muestran dado a una política de reserva sobre algunos resultados de la investigación [6].
IV. PROBLEMAS PRESENTADOS EN EL
DESARROLLO DE LA INVESTIGACIÓN
Los DSS están diseñados para tener en cuenta
los sistemas operacionales (en este caso los archivos generados por las aplicaciones de cálculo
fractal de AMGH), por lo tanto, para satisfacer las
necesidades del proyecto, se presentaron algunos
retos importantes, relacionados con: el proceso
ETL, el diseño y construcción de la bodega de datos y la presentación de los datos.
A. Problemas en el proceso ETL
Fuente: Autores del proyecto
Fig. 3. DATA MART ANÁLISIS FRACTAL
Fuente: Autores del proyecto
El proceso ETL para esta investigación presentó
algunas particularidades no soportadas por las herramientas de ETL tradicionales (transformaciones
por medio de operadores básicos). Para poblar la
bodega de datos no se utilizó como fuente de datos
directa el GENBANK [2], debido a que los investigadores de AMGH obtenían la información de este
repositorio público y realizaban diferentes procesos
sobre estos datos, entre los que se encuentra la
aplicación de técnicas de minería de datos. Por lo
tanto, los datos fueron extraídos y cargados a la
bodega de datos directamente desde los archivos
generados por los investigadores de AMGH.
Debido a que el grupo de investigadores de
AMGH realizó una limpieza exhaustiva de los datos
del GENBANK (el porcentaje de los datos usados
que presentaban error o ruido era insignificante),
se presentaron pocos errores en el momento del
cargue de los archivos proporcionados por los investigadores. Para resolver estos errores fue necesario realizar un análisis de los archivos de datos
de los repositorios públicos basado en conceptos
presentados en el taller de bases de datos: “Issues
in Biological Databases (DBiBD) en el 2005 titula-
49
50
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
do “Una clasificación de los artefactos biológicos”
[16]. En este estudio se presenta la naturaleza de
los errores que se pueden presentar en estos archivos públicos y la razón por la cual no pueden ser cargados directamente en una base de datos unificada
o en una bodega de datos. De acuerdo a la clasificación proporcionada en este estudio se encontraron
dos tipos de errores que se presentaron durante el
cargue de datos estos son:
• Se detectaron veintidós (22) registros erróneos
de 29.200, con respecto a las descripciones de
los genes en la dimensión gen. Dos de estos
errores se relacionaron con abreviaturas y los
20 restantes con homónimos. Un homónimo se
presenta cuando una o más secuencias diferentes reciben el mismo nombre, uno de los factores por lo que esto puede ocurrir es la existencia
de secuencias que son comunes en diferentes
organismos.
El problema con las abreviaturas se presenta
cuando la abreviatura de una secuencia puede ser
igual a muchas otras, por ejemplo, una secuencia
denominada como GK, puede referirse a GLYCEROL KINASES, GLUTAMITE KINASES o GUANYLATE
KINASES, entre otras. La presencia de homónimos
y abreviaturas causa problemas en la identificación
de secuencias y la búsqueda de palabras clave.
Este tipo de error, hace referencia a un error de integridad referencial, que se presentó porque el archivo de origen sólo tenía las columnas de nombre
del gen y descripción. Como un gen puede tener el
mismo nombre, en el primer campo se podía encontrar varias veces el mismo nombre, esto hacía que
al realizar la comparación no se lograra obtener un
identificador único al cual asignarle la descripción.
Para solucionar este problema, se reconstruyó el archivo que contenía las descripciones adicionándole
el identificador del gen, que es único, de esta forma
la comparación se podía hacer por ese identificador
único.
• Otro error encontrado en los datos fue la violación de la estructura de la secuencia, encontrando entidades que no correspondían a la estructura lógica de una secuencia, por ejemplo, la
estructura de la secuencia debe tener un número impar de unidades de información, al iniciar y
finalizar el exón; si se encuentra un registro que
no cumpla con estas características, se tiene
un registro erróneo, por lo cual los registros que
presentaron este error fueron eliminados.
B. Problemas en el modelado de la solución
Dimensión Rango (Tabla de Hechos Análisis
Fractal): Para los investigadores de AMGH, es relevante generar intervalos y rangos de análisis dentro de los intervalos, de acuerdo a una variable
establecida. Estos intervalos y rangos de análisis
son seleccionados bajo criterios propios de los
investigadores y a partir de estos se clasifica la
variable de interés.
Al realizar el modelado de este requerimiento
se presentaron algunas limitantes. A nivel teórico
se encuentra parte de la solución a este problema
de modelado, pero en la práctica las herramientas
no soportan este caso de modelado.
Ralph Kimball [17], plantea para este caso de
modelado una Tabla que permite la generación
de reportes, de acuerdo a unos rangos de valores definidos por el usuario final, mostrando como
ejemplo los saldos de las cuentas en una entidad
bancaria (Ver Tabla II). En la Fig. 4, se presenta el
modelo dimensional que permite que este tipo de
consultas se pueda realizar [18]:
TABLA II.
EJEMPLO DE UN REPORTE POR INTERVALO
Número de
Cuentas
45.678
36.788
11.775
2.566
477
Rango de Saldo
0 - 1.000
1.001 - 2.000
2.001 – 5.000
5.001 – 10.000
10.001 y más
Fuente: Adaptado de [18]
Fig. 4. DIMENSIÓN BAND
Fuente: Tomado de [18]
Total de Saldos
$10.222.543
$45.777.216
$31.553.884
$22.438.287
$8.336.728
Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez,
Cobos
En la solución propuesta por Kimball (ver Fig.
4), puede verse una particularidad: la Tabla que
permite definir los rangos, no está asociada a
la Tabla de hechos, lo cual se evidencia por la
ausencia de una llave foránea en la Tabla de
hechos, lo que involucra realizar un cruce entre
la Tabla BAND DEFINITION y el hecho PRIMARY
MONTH ENDING BALANCE, mediante el uso de
un par de cruces de menor que y mayor que [18].
Esta solución no puede ser utilizada en herramientas de modelado dimensional, ya que en estas herramientas no se permite realizar una consulta que involucre una Tabla de hechos con una
dimensión que no esté asociada a dicha Tabla.
En la Tabla III se muestra una alternativa de
solución que toma como ejemplo la dimensión
fecha. En ella se muestra la forma como se definen las diferentes agrupaciones que pueden
existir para realizar los análisis, en este caso se
puede agrupar la información por meses, por trimestres o por años, por medio de unos campos
identificadores, que permiten agrupar la información según sea requerido, gracias a que asigna
a cada fecha un conjunto de identificadores que
permiten saber a qué mes, qué trimestre y qué
año pertenece una fecha. De esta forma si se
desea consultar los meses, lo que debe hacerse
es agrupar por el identificador de mes, teniendo
en cuenta que todos los registros que contengan
el mismo identificador pertenecen al mismo mes
[19].
en una mejor forma de manejar los intervalos que
se usaron para el proyecto AMGH. Pero para aplicar este concepto se tuvo que tener en cuenta que
los intervalos de análisis deben ser variables y no
fijos como en el caso de la fecha (un año siempre
tiene 365 días o 366 días en caso de los bisiestos).
En la Fig. 5 y en la Fig. 6, se puede observar
que el intervalo que va de cero a uno puede dividirse de dos formas diferentes y que el intervalo
con diez particiones contiene al que tiene veinte,
igual que un trimestre contiene meses, por lo tanto, los intervalos fueron definidos de forma similar
a como se hace en la dimensión fecha.
Para modelar los intervalos en la bodega de
datos se usó la dimensión Band (ver Fig. 3), que
contiene el valor del límite inferior y superior para
la división más pequeña en cada intervalo, y el concepto que se usa para agrupar (similar a los meses, semestres y trimestre en la dimensión fecha).
Además, un atributo que permite ordenar estas divisiones y un atributo para nombrar cada división
de forma comprensible para el usuario final.
Fig. 5. INTERVALO DE 0 A 1 DIVIDIDO EN 10
Fuente: Autor del proyecto
Fig. 6. INTERVALO DE 0 A 1 DIVIDIDO EN 20
TABLA III.
EJEMPLO DATOS DIMENSIÓN FECHA
Fecha
Mes
Trimestre
Año
Nombre
Mes
Nombre
Trimestre
02/01/2005
1
1
2005
Ene
Trim_1
12/01/2005
1
1
2005
Ene
Trim_1
10/02/2005
2
1
2005
Feb
Trim_1
22/02/2005
2
1
2005
Feb
Trim_1
22/04/2005
4
2
2005
Abr
Trim_2
18/05/2005
5
2
2005
May
Trim_2
20/06/2005
6
2
2005
Jun
Trim_2
01/07/2005
7
3
2005
Jul
Trim_3
04/11/2005
11
4
2005
Nov
Trim_4
Fuente: Autor del proyecto
La forma como en la dimensión de fecha se
manejan este tipo de agrupaciones, se convirtió
Fuente: Autor del proyecto
Para crear la Tabla de la dimensión Band, se
recomienda seguir los siguientes pasos:
• Revisar cuáles son las agrupaciones y divisiones que se consideran relevantes para la
investigación y listarlas, por intervalos de análisis y divisiones requeridas para cada uno de
los intervalos.
• Determinar cuál es la división más pequeña
que se pueda tener, o lo que es igual el máximo número de partes en que será dividido el
intervalo más pequeño que se pueda tener en
los intervalos de análisis. Esto determina el
incremento más pequeño que se puede tener.
• Generar un conjunto de valores para la dimensión de la siguiente manera: se inicia desde el
51
52
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
•
menor valor posible (en este caso es 0), incrementar de acuerdo al valor resultante de la
división que se realizó con anterioridad, para
obtener así el siguiente valor hasta llegar al
máximo valor requerido (en este caso 50). En
resumen, al generar este conjunto de datos lo
que se obtiene es el intervalo de mayor granularidad (más detalle). Estos valores son los
que agrupados de diferentes formas permiten
definir los intervalos y rangos de análisis.
Con esta información se construyen las columnas de la dimensión, de acuerdo a los
valores superior e inferior de cada división y
los identificadores que permitan realizar las
diferentes agrupaciones.
C. Problemas en la presentación de datos
Se presentaron algunos inconvenientes en
el momento de la presentación de los datos al
usuario en la herramienta OLAP tradicional, ya
que las consultas que solicitaban el grupo de investigadores, eran consultas especializadas, atípicas a las consultas realizadas en una bodega
de datos tradicional. Los problemas presentados
en la adaptación de la herramienta OLAP y las
soluciones implementadas fueron las siguientes:
• Problemas Relacionados con los Filtros. Los
filtros requeridos por los investigadores implicaban la capacidad de mostrar automáticamente valores que estén por encima o por
debajo de un valor definido por el usuario, o
la clasificación en rangos de las medidas, seleccionado un intervalo y el número de partes
en las que se quiere dividir dicho intervalo.
Para dar solución a este problema se adicionó funcionalidad a la aplicación creando los
filtros por medio de una página que contenía
las consultas MDX (MultiDimensional eXpressions) para realizar los filtros y que permitía
que estos pudieran ser parametrizados.
• Problemas Relacionados con el Graficador.
Las gráficas solicitadas requerían seleccionar las columnas que se deseaban graficar
y el eje para cada una de las variables, sin
embargo, los graficadores OLAP tradicionales no presentan estas opciones, las opciones gráficas se limitan a generar histogramas, tortas, líneas de relación, entre otros
gráficos. Todas estas gráficas muestran
únicamente la relación de dimensiones con-
•
tra medidas, pero algunas de las consultas
requeridas por los investigadores requerían
gráficas de relaciones de medidas contra medidas. La solución a este problema consistió
en: 1) adicionar un graficador externo (Open
Flash Chart) a la herramienta OLAP tradicional usada (jpivot de Pentaho [20]), 2)dar la
libertad de seleccionar columnas (atributos)
que se deseaban graficar y los ejes de estas
variables, y 3) usar consultas MDX parametrizadas en los filtros.
Otro problema se presentó debido a que las
dimensiones de los datos en una bodega de
datos tradicional son típicamente cadenas
de caracteres (por ejemplo: descripciones y
nombres) mientras que en AMGH se tenían
algunos valores numéricos y las herramientas OLAP los convertían automáticamente
en cadenas de caracteres. Esto hacía que el
visor les asignara un orden alfabético, cambiando el orden de presentación de los datos
en los reportes. Para solucionar esto se adicionó una cantidad apropiada de ceros a la
izquierda a estos valores, y de esta forma se
logró conservar el orden numérico.
V. HERRAMIENTA OLAP
El DSS propuesto en este artículo, se implementó en una suite Open Source, para el desarrollo de proyectos de inteligencia de negocios
llamada Pentaho [20], debido a requerimientos
de los investigadores del proyecto AMGH y a que
en este tipo de comunidades académicas se utilizan herramientas Open Source para facilitar la
publicación y distribución del conocimiento generado. A continuación se muestran algunas interfaces (screenshots) de una consulta sobre el
data mart de Análisis Fractal y algunas gráficas
producto de las consultas.
En la Fig. 8 se muestra una consulta que permite visualizar los genes clasificados en rangos
y según sus unidades de información y sus longitudes. Al lado izquierdo de esta figura se puede
observar el uso de filtros estándar (Cromosoma y
Número de partes) y no estándar, para el manejo
de los intervalos (dimensión Band). Al lado derecho superior se encuentra la barra de herramientas típica de un visor OLAP y en la parte central
los datos del reporte solicitado al data mart.
Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez,
Cobos
Fig. 7. CONSULTA ANÁLISIS FRACTAL
Fuente: Autor del proyecto
En la Fig. 9 se muestra una gráfica con las unidades de información de todo el genoma humano
expresado en el conteo de la medida fractal D (establecida por los investigadores AMGH) contra los
genes clasificados en rangos.
Finalmente, en la Fig. 10 se muestra una alternativa de visualización para el data mart Análisis
fractal, donde los investigadores encuentran un
conjunto de filtros que les permiten seleccionar
un intervalo, dividirlo en un número de partes de
acuerdo a su criterio, dicha selección es graficada
contra las diferentes medidas del data mart para
todos de los cromosomas simultáneamente, teniendo también la posibilidad de agregar o quitar
cromosomas a la grafica.
VI. CONCLUSIONES
En la revisión de los trabajos relacionados con
los objetivos del presente trabajo se encontraron
limitaciones a nivel de modelado y en las herramientas OLAP existentes para tratar datos bioinformáticos. El desarrollo del DSS presentado en
este artículo muestra una alternativa viable para
centralizar, almacenar y visualizar los datos provenientes del proyecto AMGH y se convierte en un
referente para el uso de estas tecnologías en el
área. Además, evidencia la necesidad de realizar
más investigaciones que permitan acceder a soluciones de bodega de datos y OLAP en estos nuevos dominios de aplicación.
Las herramientas OLAP, deberían considerar
ampliar el rango de posibilidades en cuanto a los
análisis gráficos, permitiendo funcionalidades tales como: graficar medidas contra medidas y dar
flexibilidad y facilidad a los usuarios de poder seleccionar las columnas que desean graficar. Facilidades que se incluyeron en el proyecto y mostraron su potencialidad. Además, ofrecer una mayor
cobertura de funciones estadísticas para aplicar
sobre los datos de la bodega de datos en el momento de la consulta. Esto permitiría entregar una
mejor solución a las necesidades gráficas de este
tipo de proyectos.
53
54
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
Fig. 8. RANGO VS. NÚMERO DE UNIDADES DE INFORMACIÓN TOTALES
Fuente: Autor del proyecto
Fig. 9. CROMOSOMAS VS 4 MEDIDAS
Fuente: Autor del proyecto
La solución planteada en esta investigación
para modelar intervalos y rangos de estos intervalos, es una aproximación importante en el área de
modelamiento multidimensional de datos, ya que
permite obtener los resultados esperados por los
investigadores aplicando conceptos de modelado
ya existentes. Este trabajo puede ser una alternativa de solución para todos aquellos campos de
aplicación (no solo en bioinformática) en los que
sea una variable importante para los análisis de
los usuarios, el manejo de intervalos y rangos de
los mismos.
Sistema de Soporte a la Toma de Decisiones para el Análisis Multifractal del Genoma Humano – Mendoza, Camayo, Martínez, Martínez,
Cobos
Los datos que se encuentran en el contexto
biológico poseen particularidades que acarrean
problemas y errores propios del área y no se encuentran reportados actualmente en la literatura
tradicional de bodega de datos. Por lo anterior, es
preciso tener en cuenta que para llevar a cabo un
proceso exitoso de ETL en esta área, se deben
entender los posibles errores que pueden llegar
a presentar los datos de la fuente de datos -estos
generalmente creados y almacenados en los repositorios públicos-, para mitigar el impacto que
estos errores pueden llegar a tener en las consultas que arroje posteriormente la bodega de datos.
VII. TRABAJO FUTURO
Ampliar el modelo actual al añadir nuevos atributos y medidas en la dimensión cromosoma que
permitirá ubicar los genes con sus estructuras en
un lugar determinado de los cromosomas y poder
observar si existe alguna regularidad entre la posición de los genes, su función y su valor D. También
añadir a la dimensión gen un atributo sobre oncogenes que permita observar con ayuda de la clasificación del valor D si existe alguna regularidad,
información de interés para los investigadores del
área.
La adición de nuevas dimensiones y tablas de
hechos que completen el modelo biológico, como
proteína, estructura de la proteína, Alus, repeats,
la inclusión de la secuencia del gen, genoma y todas las posibles tablas de hechos que se puedan
llegar a derivar, para de esta forma establecer que
otras limitaciones a nivel de diseño e implementación se pueden presentar teniendo en cuenta las
particularidades de análisis de los datos del área
de la Bioinformática.
Extender el modelado de intervalos y rangos
de estos intervalos, para hacerlo más dinámico,
es decir, que permita que los intervalos y sus rangos puedan cambiar constantemente de acuerdo
al criterio del investigador y la correspondiente implementación de una herramienta OLAP que permita visualizar adecuadamente estos intervalos.
dad del Valle. Se utilizaron recursos suministrados
y financiados por COLCIENCIAS bajo el proyecto
código 1103-12-16765.
REFERENCIAS
[1]
BERIS. (2012, July 2012). Human Genome Project Information. Available: http://www.ornl.gov/sci/techresources/Human_Genome/home.shtml
[2]
GenBank. (2012, Septiembre de 2012). GenBank
Overview. Available: http://www.ncbi.nlm.nih.gov/genbank/
[3]
EMBL. (2012, September 2012). European Molecular
Biology Laboratory. Available: http://www.embl.org/
[4]
DDBJ. (2012, October 2012). DNA Data Bank of Japan. Available: http://www.ddbj.nig.ac.jp/
[5]
P. Vélez, “Propuesta para la participación en la convocatoria nacional para el concurso de proyectos de
investigación programa nacional de biotecnología
“Análisis Multifractal del Genoma Humano para la
Búsqueda de Regularidades con Significado Biológico
y una Contribución a la Generación de Biotecnología
de la Información”,” Universidad del Cauca 2004.
[6]
P. Moreno, et al., “The human genome: a multifractal
analysis,” BMC Genomics, Vol. 12, p. 506, 2011.
[7]
P. E. Vélez, et al., “The Caenorhabditis elegans genome: a multifractal analysis,” Genetics and Molecular
Research, Vol. 9, pp. 949-965, 2010.
[8]
D. Florescu, et al., “Database techniques for the WorldWide Web: a survey,” SIGMOD Rec., Vol. 27, pp. 59-74,
1998.
[9]
S. B. Davidson, et al., “Challenges in integrating biological data sources,” J Comput Biol, Vol. 2, pp. 557-72,
1995.
[10]
W. Sujansky, “Heterogeneous database integration in
biomedicine,” Comput. Biomed. Res., Vol. 34, pp. 285298, 2001.
[11]
S. B. Davidson, et al., “K2/Kleisli and GUS: experiments in integrated access to genomic data sources,”
IBM Syst. J., vol. 40, pp. 512-531, 2001.
[12]
J. Hammer and M. Schneider, “Genomics Algebra: A
New, Integrating Data Model, Language, and Tool for
Processing and Querying Genomic Information,” presented at the 1st Biennial Conf. on Innovative Data
Systems Research (CIDR), 2002.
[13]
M. Fischer, et al., “DWARF--a data warehouse system
for analyzing protein families,” BMC Bioinformatics,
vol. 7, p. 495, 2006.
AGRADECIMIENTOS
El trabajo presentado en este artículo conto
con la asesoría y apoyo del grupo de investigación
BIMAC y GTI de la Universidad del Cauca y el grupo
de investigación en Bioinformática de la Universi-
55
56
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 45 - 56
[14]
S. P. Shah, et al., “Atlas - a data warehouse for integrative bioinformatics,” BMC Bioinformatics, vol. 6, p. 34,
2005.
[15]
T. Kirsten, et al. (2004, Septiembre de 2012). A Data
Warehouse for Multidimensional Gene Expression
Analysis. Available: http://www.izbi.uni-leipzig.de/
izbi/Working%20Paper/2004/01_geware.pdf
[16]
J. L. Y. Koh, et al., “A Classification of Biological Data
Artifacts,” presented at the ICDT Workshop on Database Issues in Biological Databases (DBiBD), Edinburgh,
Scotland, UK, 2005.
[17]
R. Kimball, et al., The Data Warehouse Lifecycle Toolkit: Expert Methods for Designing, Developing and Deploying Data Warehouses with CD Rom: John Wiley &
Sons, Inc., 1998.
[18]
R. Kimball and M. Ross, The Data Warehouse Toolkit:
The Complete Guide to Dimensional Modeling: John
Wiley & Sons, Inc., 2002.
[19]
C. Imhoff, et al., Mastering Data Warehouse Design:
Relational and Dimensional Techniques: Wiley, 2003.
[20]
Pentaho. (2012, July 2012). Pentaho - Powerful Analytics
Made Easy Available: http://www.pentaho.com/
Análisis comparativo de modelos hidrodinámicos y
cinéticos para fotobiorreactores airlift
Comparative analysis and kinetic model for photobioreactors
hydrodynamic airlift
Félix Fabián Cortés Conde
Ingeniero Químico, Investigador Grupo BIOTECNOLOGíA
Fundación Universidad de América
Bogotá D.C, Colombia
[email protected]
Diego Rubio Fernández
MSc. en Ciencias,
Universidad Nacional de Colombia
Docente Tiempo Completo, Investigador Grupo BIOTECNOLOGíA,
Fundación Universidad de América
Bogotá D.C, Colombia
[email protected]
Édisson Mateo Gómez Espinosa
Ingeniero Químico, Investigador Grupo BIOTECNOLOGíA
Fundación Universidad de América
Bogotá D.C, Colombia
[email protected]
Resumen— En las últimas décadas se han investigado
nuevas fuentes de energía renovable, siendo las microalgas una de las preferidas, debido a su alta producción de biomasa, utilizada en la elaboración de biocombustibles de segunda generación como bioetanol,
biohidrógeno y biodiesel. Las microalgas se cultivan
en recipientes especializados llamados reactores, en
los cuales se controlan las condiciones de cultivo para
obtener la máxima producción de biomasa. A partir de
datos experimentales se han generado modelos matemáticos, que predicen el comportamiento que ocurre
en el interior de los biorreactores, para realizar mejoras
en el diseño y predecir las condiciones óptimas del cultivo y obtener una buena productividad. Se analizaron
modelos hidrodinámicos de tres fases para establecer
cuál de los modelos analizados predice de manera eficiente el comportamiento hidrodinámico a lo largo del
biorreactor. Posteriormente se analizaron modelos de
crecimiento de microorganismos fotosintetisantes en
fotobiorreactores para acoplar el crecimiento de las microalgas a la hidrodinámica desarrollada en la primera
parte de la investigación y concluir con la simulación de
un fotobiorreactor tipo Airlift.
Palabras clave— Biorreactores Airlift, Hidrodinámica,
Fotobiorreactor, Microalgas, Simulación,
Abstract— In recent decades new sources of renewable
energy has been investigated, being algae a favorite
because of its high biomass production, used in the development of second generation biofuels as bioethanol,
biohydrogen and biodiesel. The algae are grown in specialized containers called reactors, which controls the
culture conditions for maximum production of biomass.
From experimental data were generated mathematical
models, which predict the behavior that occurs inside
the bioreactor, for improvements in the design and pre-
dict the optimum conditions of culture to obtain a good
productivity. Three phase hydrodynamic models were
analyzed in order to establish which model predicts
efficiently hydrodynamic behavior along the bioreactor.
Then models of growth of microorganism in photobioreactors for coupling the growth of microalgae to hydrodynamics developed in the first part of the research and
conclude with a simulation of the Airlift photobioreactor.
Keywords— Airlift Bioreactors, hydrodynamic, microalgae, photobioreactor, simulation.
I. INTRODUCCIÓN
Las microalgas tienen un gran potencial biotecnológico para la producción de sustancias valiosas, utilizadas principalmente en las industrias
farmacéuticas, cosméticas y de biocombustibles,
la última es la de mayor interés en investigaciones
recientemente, debido a que presenta una fuente
de energía renovable ambientalmente amigable
en comparación con las energía tradicionales que
se han empleado en las últimas décadas tales
como el carbón y el petróleo [1] [2].
Para el cultivo de las microalgas existen equipos especializados llamados reactores los cuales
pueden dividirse en reactores agitados mecánicamente y reactores agitados neumáticamente, entre los agitados mecánicamente se encuentran el
reactor Batch, y en los agitados neumáticamente
están la columna de burbujeo y el Reactor Airlift
(ALR). Se considera que el reactor Airlift es uno
Recibido: 06/03/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66
58
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66
de los más utilizados, por sus claras ventajas
frente a otros reactores, entre las cuales están
una mejor capacidad de transferencia de masa,
mayores velocidades superficiales gas-líquido, se
puede conseguir patrones de flujo bien definidos,
mejor rentabilidad, mínimo riesgo de contaminación, posibilidad simple y altamente efectiva de
fluidización de los sólidos generación de esfuerzos cortantes bajos y uniformes lo que ayuda al
crecimiento celular sin dañar o estresar al microorganismo.[3][4]
Los Reactores Airlift (ALR) se dividen en cuatro
secciones bien definidas que son: el Top, la base,
el Dowcomer o canal de descenso y el Riser o canal de ascenso como se presenta en la Fig. 1.
Fig. 1. ESQUEMA DEL FOTOBIORREACTOR AIRLIFT
tobiorreactor como son: la velocidad del líquido,
la velocidad del gas Holdup (Retención del gas) y
la velocidad del sólido cuando se tiene en cuenta
una tercera fase. Por otra parte en las últimas décadas se han utilizado software de tipo comercial
para la simulación de procesos químicos, debido
a sus claras ventajas frente a los datos experimentales, uno de estos factores es la reducción
de costos a la hora de encontrar soluciones a problemas de procesos de producción; en este caso
al cultivo de microalgas para fotobiorreactores [5]
[6] [7].
El objetivo de este artículo es establecer el
mejor modelo, que prediga el comportamiento en
el interior de un fotobiorreactor Airlift, específicamente; la hidrodinámica y la tasa de crecimiento.
Para esto se analizaron tres modelos hidrodinámicos para sistemas de tres fases y dos modelos
cinéticos para el crecimiento de las microalgas y
se acoplaron estos dos fenómenos para concluir
la simulación del fotobiorreactor Airlift.
II. DESARROLLO DEL ARTÍCULO
Simulación de reactores Airlift de tres fases
gas-líquido-sólido
Muchos autores explican el comportamiento
hidrodinámico de los sistemas Airlift de tres fases
a partir de modelos hidrodinámicos de dos fases.
Los modelos propuestos por Livingston y WenJang se basaron en el modelo predictivo de Chisti
(1988) para determinar la velocidad de circulación interna del líquido en el Riser y Downcomer
utilizado “(1)”, y asumida la fase líquida y la fase
sólida como una fase seudo-homogénea. Para
ello es necesario considerar que la densidad media de la fase líquida y la fase sólida es uniforme a
lo largo de todo el reactor.
Fuente: Sierra, J., Ruiz, S. Evaluación de un fotobioreactor a escala banco
para el cultivo de microalgas y la generación de biomasa. 2012.
Además existen parámetros que se deben tener en cuenta para comprender los fenómenos
hidrodinámicos que ocurren en el interior del fo-
Donde εR y εD son las retenciones del gas en el
Riser y Downcomer, respectivamente.
Sin embargo, el modelo hidrodinámico de tres
fases propuesto por García Calvo se desarrolla a
Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez
partir de balances de energía para determinar la
disipación energética producida por la interacción
de la fase gaseosa con la fase líquida y las pérdidas de fricción producidas por la interacción del
sólido con las paredes del reactor. Los parámetros
más importantes para caracterizar la dinámica de
fluidos en los reactores de tres fases son la retención del gas en el canal de ascenso y descenso, la
velocidad de circulación del líquido en el canal de
descenso y la distribución de los sólidos, debido a
que el modelo propuesto por García Calvo es pertinente mantener una velocidad de gas crítica para
conservar una suspensión homogénea de los sólidos dentro del reactor [8].
A. Modelo hidrodinámico propuesto por Livingston y Zhang para sistemas de tres fases
Este modelo considera que un sistema Airlift
de tres fases consta de dos secciones transversales, una determinada por el Riser y la otra por
la base o cima del ALR . Debido a la diferencia de
secciones entre estas dos zonas, las velocidades
de arrastre del líquido son diferentes en cada una
de ellas, lo que provoca distintas densidades efectivas en la mezcla líquido-sólido [9].
Como en muchos modelos para sistemas bifásicos, la expresión matemática del modelo se obtiene al identificr las pérdidas de energía debido a
la fricción que ejerce el líquido con las paredes del
reactor y a la energía de disipación provocada en
la interfase gas-líquido.
El modelo propuesto por Livingston (1993) es
una extensión del modelo propuesto por Chisti
(1988) expuesto en “(1)”, donde se le añaden variables influyentes tales como la retención del sólido, la densidad de la fase seudo-homogénea, la
viscosidad de la fase seudo-homogénea y la fracción de sólido en el tubo ya que estas corrigen el
efecto de la presencia de la tercera fase sólida en
el tanque. Las ecuaciones que modifican el modelo de Chisti son:
Donde εR y εD son las retenciones del gas en el
Riser y Downcomer, respectivamente, εSR y εSD son
las retenciones del sólido en el Riser y Downcomer, respectivamente.
B. Modelo hidrodinámico propuesto por WenJang Lu y Shyh-Jye Hwang para sistemas de
tres fases con partículas de baja densidad y
carga de sólidos (1994)
El modelo matemático propuesto por WenJang y Shyh Hwang proponen un modelo predictivo para calcular la retención de los sólidos y la
velocidad de circulación del líquido considerada la
formación de una fase seudo homogénea entre la
fase sólida y la fase líquida. Al realizar los balances de energía en las diferentes zonas del reactor
(Canal de ascenso y canal de descenso) se obtiene la expresión general para calcular la velocidad
de circulación del líquido en el Downcomer, consideradas las pérdidas de fricción provocadas por
las interacción del sólidos con las paredes del sistema y las pérdidas de energía provocadas por expansión isotérmica del gas en el líquido [10] [11].
Donde los coeficientes KT y KB son los coeficientes de pérdida por fricción en la cima y base
del reactor, respectivamente, y las constantes de
fricción en el Riser y en el Downcomer KR y KB, se
calculan por medio “(6)” y “(7)”.
Donde f es el factor de fricción, LR y LD son las
longitudes del Riser y Downcomer, respectivamente, dR y dD son los diámetros del Riser y Downcomer, respectivamente.
Al interactuar la fase líquida y la fase sólida
en el ALR , las propiedades reológicas del fluido
como la densidad y la viscosidad se ven afectadas
59
60
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66
al formar una fase seudo-homogénea dentro del
reactor. Para esto es necesario calcular la densidad de la fase seudo-homogénea mediante “(8)”
y la viscosidad de la fase seudo-homogénea con
“(9)”, la cual es una correlación propuesta por Oliver (1961):
• Densidad de la fase seudo-homogénea
1) Balance de energía planteado por García Calvo (1988)
•
Dado que al mantener una fase solida suspendida en el reactor, la combinación entre la fase
sólida y la fase líquida genera una fase seudo-homogénea donde es necesario calcular la densidad
de la mezcla por medio de “(11)” y “(12)”.
Viscosidad (correlación propuesta por Oliver
(1961)
C. Modelo hidrodinámico para sistemas de tres
fases con altas cargas de sólidos para los
ALR propuesto por García Calvo (1999)
El modelo propuesto por García Calvo describe el comportamiento hidrodinámico en tres
fases (sólido-líquido-gas) para reactores Airlift.
Fue desarrollado a partir de balances de energía donde se tienen en cuenta la disipación de
energía en la interfase gas-líquido y las pérdidas
de energía debido a la fricción entre el sólido y
las paredes del sistema. El modelo predice la velocidad de circulación del líquido y del sólido, la
retención del gas y la distribución de los sólidos
dentro del reactor [12].
Para desarrollar el modelo es necesario establecer las siguientes características:
• El balance asume diferentes fases seudo-homogéneas tanto en el Riser como en el Downcomer, para esto es necesario tener en cuenta las diferentes concentraciones de sólidos
en ambas secciones del reactor.
• La densidad del Downcomer es igual a la densidad del líquido, ya que todas las partículas
sólidas están el Riser.
• El modelo no asume la presencia de gas en el
Downcomer, se considera el comportamiento
de gas en el Riser similar al de una columna
de burbujeo (UD(1-εSD)=uLD)
D. Simulación de la parte biológica del fotobiorreactor
Para la determinación de la tasa de crecimiento de las microalgas en el reactor, se investigó sobre modelos que predicen el crecimiento
a partir de expresiones matemáticas, los cuales
tienen en cuenta fenómenos como son; la fotosíntesis, la irradiación, los ciclos de luz y oscuridad, la eficiencia cuántica, la concentración
de nutrientes. De los modelos estudiados se
seleccionó dos modelos específicamente para
determinar el crecimiento de las microalgas en
los fotobiorreactores, debido a la cantidad de
modelos existentes en la literatura, uno de ellos
es el modelo de Molina Grima (1994) y el otro
Wu y Merchuck (2001), los cuales predicen eficientemente el comportamiento de las microalgas “Isochrysis galbana” y “Porphyridium Sp”
respectivamente.
III. ANÁLISIS DE RESULTADOS
Para analizar el comportamiento hidrodinámico del fotobiorreactor Airlift fue necesario realizar la comparación de los modelos propuestos
por Livingston (1993), Wen-Jang (1994) y García Calvo (1999), donde se observó que los modelos de Livingston y Wen-Jang son predictivos
para densidades y concentraciones de sólidos
bajas, debido a que necesita grandes cantida-
Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez
des de gas para mantener una distribución homogénea del sólido y no obstruya la entrada de
gas en la base del reactor. Sin embargo, al ser
extensiones del modelo bifásico de Chisti, los
modelos de Livingston y Wen-Jang son poco predictivos ya que ignoran las condiciones en las
que se producen los atascos en los reactores
Airlift.
Al desarrollar el modelo hidrodinámico planteado por García Calvo, se observó que el modelo es capaz de determinar los diferentes regímenes de flujo y soporta grandes cargas de
sólidos, pues necesita pequeñas cantidades de
gas para mantener una distribución de sólidos
dentro del reactor.
Para interpretar la hidrodinámica en un Fotobiorreactor Airlift es necesario calcular la retención del sólido y la distribución de los sólidos
en un sistema inorgánico, como las perlas de vidrio, para entender cómo es el comportamiento
del reactor Airlift con una tercera fase que circula en el interior y de cómo se afecta la velocidad
del líquido y de gas en las diferentes zonas del
reactor.
El método iterativo utilizado para la resolución del problema fue un Newton Raphson Multivariable para calcular la velocidad superficial
del líquido en el Downcomer, la velocidad lineal
del líquido cuando R=0 y la retención del gas en
el Riser. Para desarrollar el modelo propuesto
por García Calvo (1999) fue necesario utilizar
las correlaciones de Koide (1984) para determinar la velocidad de sedimentación de la partícula al emplear como medio sólido las perlas de
vidrio con diámetros de partícula de 1.5 y 3.5mm
para mantener una buena distribución de los
sólidos dentro del TP - ALR (Reactor Airlift de
tres fases)
La Fig. 2 presenta la relación entre la concentración del sólido respecto a la retención del
gas en el Riser; se observa que al aumentar el
caudal de gas la retención del gas en el Riser
aumentan, debido a que se generan una mayor
cantidad de burbujas las cuales adquieren movimientos oscilatorios que provocan un régimen
turbulento, indicado para romper las burbujas,
pues maximiza de esta manera la transferencia de masa entre la fase gaseosa y líquida, y
genera un mezclado homogéneo de gas en el
reactor.
Fig. 2. PRESENTACIÓN GRÁFICA ENTRE LA RETENCIÓN DEL GAS EN EL
RISER RESPECTO A LAS CONCENTRACIONES DE SÓLIDO
Fuente: Autores del proyecto
E. Modelo de Molina Grima (1994)
Se basó en una parte experimental y una parte
teórica, este modelo predice de manera satisfactoria la tasa de crecimiento de organismos fotosintéticos, debido a que incluye un factor determinante
como es la concentración de luz, presente en el interior del fotobiorreactor. Se toman como variables
dependientes de la luz; el ángulo de incidencia y la
distancia recorrida [13].
El modelo también tiene en cuenta la concentración de biomasa presente en el biorreactor, ya
que al aumentar de manera acelerada se puede
presentar el fenómeno de atenuación de la luz. La
ventaja de este modelo comparado con los otros
modelos, es que incluye una parte experimental, la
cual se utiliza para calcular las constantes que se
puede emplear para cada especie de microalgas
y por consiguiente, la simulación del crecimiento.
Fig. 3. PERFILES DE LUZ EN EL INTERIOR DE UN RECIPIENTE CILíNDRICO.
LAS UNIDADES DEL ÁNGULO DE INCIDENCIA ESTÁN DADAS EN GRADOS
SEXAGESIMALES
Fuente: Autores del proyecto
61
62
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66
Al realizar la simulación se obtuvo la Fig. 3,
donde se presenta la cantidad de luz incidente en
el interior del reactor, utilizado el modelo propuesto por Ever (1990) [14] en el cual pone como variable dependiente el ángulo de incidencia, vemos
cómo al aumentar la distancia de penetración de
la luz al interior del reactor se presenta el fenómeno de atenuación de la luz. Por consiguiente, en el
interior del reactor tan sólo el 61% de la cantidad
de luz total llega a este punto presentándose, de
esta manera, intervalos de tiempo con alta intensidad y baja intensidad de luz, que hacen que se
presenten ciclos de luz y oscuridad.
Al presentarse estos ciclos de luz y oscuridad
se evita la foto-inhibición celular que es uno de
los fenómenos que se desea evitar, debido a que
ocasiona el estancamiento del crecimiento y en
algunos casos la muerte celular.
cionar la irradiación, la dinámica de fluidos y la
cantidad de biomasa producida. Estos tres estados se presentan en la Fig. 5; el primero X1 o fase
abierta, cuando el PSF se encuentra libre de fotones y apto para recibir fotones; el segundo X2
o fase activa, cuando él PSF es activado por la
absorción de un fotón; y, por último, X3 o estado
foto-inhibido cuando hay un exceso en el número de fotones presentes en el PSF que ocasionan
foto-inhibición [16].
Fig. 5. ESTRUCTURA DE LOS TRES ESTADOS DEL MODELO DE WU Y
MERCHUK
Fig. 4. CURVA DE CRECIMIENTO DE LAS MICROALGAS “ISOCHRYSIS GALBANA” VARIANDO LAS CANTIDADES DE IRRADIACIÓN
Fuente: J.C. Merchuk. A model integrating fluid dynamics in photosynthesis
and photoinhibition processes. Chemical Engineering Science. 2001
Fuente: Autores del proyecto
La Fig. 4 representa el crecimiento celular,
cuando el cultivo está expuesto a ciertas cantidades de luz expresadas en cuantos de energía,
esta curva permite determinar la cantidad de
luz necesaria, para tener el crecimiento máximo
de las microalgas y de esta manera obtener una
productividad alta en el interior del fotobiorreactor.
F.
Modelo de Wu y Merchuck (2001))
Se basó principalmente en los supuestos de Eilers y Peeters (1988) [15]; consiste en el supuesto de centros activos que son estados celulares
según la capacidad de absorción de fotones; al
conjunto de los estados se les denomina como
Fábrica Fotosintética PSF y es considerada como
uno de los conceptos más importantes para rela-
Este modelo tiene en cuenta la interacción de
variables importantes como son: la disponibilidad de la luz, el proceso de fotosíntesis, la fotoinhibición y la dinámica de fluidos.
En la Fig. 6 se puede observar, como la tasa
de crecimiento es afectada por la cantidad de
PFD o Photon Flux Density que es una medida de
la cantidad de irradiación lumínica que alcanza
el cultivo. Tomando como referencia un tiempo
de luz de 45 segundos, se observa que a valores
bajos de PFD , el crecimiento es negativo debido a que no existe suficiente energía que supla
las necesidades básicas de las microalgas. Por
consiguiente, la producción de biomasa es baja.
Cuando el valor de irradiación PFD está entre los
550 y 1000 PFD, existe un crecimiento positivo,
en el cual se ve beneficiada la duplicación celular, pero cuando excede estos valores, se presenta el factor de foto inhibición como se ve en la
curva con 2000 PFD. Este aspecto también ha
sido relacionado con aspectos de la geometría
de los fotobiorreactores Airlift y tubulares, y se
ha constituido en un aspecto importante para su
diseño y modelamiento.
Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez
FIG. 6. DIFERENTES TASAS DE CRECIMIENTO EN UN FOTOBIORREACTOR
AIRLIFT DE TUBOS CONCÉNTRICOS, A DISTINTOS VALORES DE PFD
Fuente: Autores del proyecto
Al comparar los dos modelos de crecimiento específicos para fotobiorreactores, se tomaron como
criterios de selección la variedad de microalgas de
cultivo, el desarrollo matemático, el porcentaje de
error, variables de entrada, variables de estado y variables de salida. El modelo de Molina Grima (1994)
tiene ventajas sobre el modelo de Wu y Merchuck
(2001), debido a que el modelo de Molina Grima
(1994) puede predecir el crecimiento para cualquier
clase de microalgas, por la utilización de un cálculo
experimental, el desarrollo matemático es sencillo
y no se requiere determinar valores difíciles experimentales para su parametrización, su porcentaje de
error no supera el 10% y otra clara ventaja es la poca
cantidad de variables de entrada, estado y salida,
este modelo es la mejor opción para predecir el crecimiento en el interior del fotobiorreactor.
G. Simulación hidrodinámica de un Fotobiorreactor Airlift
Para desarrollar el modelamiento hidrodinámico de un Fotobiorreactor Airlift se utilizó el modelo
propuesto por García Calvo (1999) para el sistema
de tres fases (sólido, líquido, gas) en los Reactores
Airlift. Este modelo es una extensión del modelo de
dos fases propuesto por García Calvo (1989). Este
se desarrolló a partir de balances de energía para
determinar la energía de disipación en la interfase
gas-líquido y las pérdidas por fricción que ejerce el
fluido con las paredes del sistema. Los parámetros
hidrodinámicos más importantes para predecir el
modelo son: la velocidad de circulación del líquido
y del sólido, la retención del gas y la distribución de
los sólidos dentro del reactor. Este modelo es el más
completo en comparación con otros reportados en
la literatura, ya que es el único capaz de identificar
las fronteras entre los diferentes regímenes de flujo y soporta grandes cargas de sólidos, al obtener
un aumento en la producción de biomasa requerida
para la extracción de lípidos u otras moléculas de
alto valor agregado.
Para predecir el comportamiento de cultivo de
microalgas en un reactor Airlift, es necesario determinar los parámetros hidrodinámicos más importantes para mantener un ambiente óptimo para la
producción de biomasa, estos parámetros son: la
retención del sólido en el Riser y Downcomer, la retención del gas en el Riser y la velocidad superficial
del líquido en el Downcomer.
En el caso de cultivos microalgales los IL- ALR
(Reactores Airlift de Lazo Interno) proporcionan las
condiciones necesarias para que las células fotosintéticas puedan desarrollarse a partir de una exposición adecuada de luz, facilita la absorción de nutrientes debido al mezclado homogéneo que produce la
interacción del gas con la fase líquida, produce bajos
esfuerzos de corte originado por el movimiento oscilatorio producido por la agitación del líquido.
La Fig.7 presenta la variación entre la velocidad
del gas en el Riser, la concentración de biomasa
producida por la microalga y la retención del gas en
el Riser, se demuestra que al aumentar el caudal
de gas y la concentración de biomasa, la retención
de gas en el Riser aumenta debido a que se genera
una mayor cantidad de burbujas, las cuales son las
encargadas de incrementar la concentración de gas
en la fase líquida, para generar una mayor producción de biomasa, debido a que el microorganismo
tiene una mayor facilidad de encontrar los nutrientes suspendidos en el líquido provocado por el flujo
heterogéneo.
Fig. 7. RETENCIÓN DEL GAS EN EL RISER RESPECTO A LA VELOCIDAD DEL
GAS PARA CULTIVOS MICROALGALES
Fuente: Autores del proyecto
63
64
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66
Analizado el comportamiento como se observa en la Fig. 8, la retención del sólido en el
Riser en función de la velocidad del gas en el
Riser, es preciso demostrar que al aumentar la
velocidad del gas, la retención del sólido disminuye ya que al aumentar la velocidad del líquido en el Riser, la remoción del sólido suspendido es mayor, ya que el flujo líquido se lleva
el sólido hacia el Downcomer, para dar como
resultado una mayor distribución de los sólidos
y aumentar, de esta manera, el área de flujo
entre la fase sólida y la fase líquida. Gracias
a esto la velocidad de salida del líquido en el
Riser aumenta al maximizar la transferencia de
masa entre la fase gaseosa y la fase líquida y
provocar un mezclado homogéneo dentro del
reactor.
Fig. 8. RETENCIÓN DEL SÓLIDO EN EL RISER RESPECTO A LA VELOCIDAD DE GAS EN EL RISER EN CULTIVOS MICROALGALES
Fuente: Autores del proyecto
Para obtener una mayor productividad en fotobiorreactores se debe considerar los siguientes aspectos:
• Hidrodinámica: determina los patrones de
flujo del sistema; se prefiere un régimen
turbulento, que permite un mezclado más
homogéneo del sistema, lo cual mejora la
transferencia de masa y facilita, de esta
manera, la absorción de nutrientes y de
energía lumínica en el sistema.
• Irradiación: la calidad y cantidad de la irradiación más específicamente entre longitudes de onda entre 400 - 700nm(PAR) y 1000
µE/m2s PFD, estos valores varían con respecto a la especie de microorganismo, permiten una eficiencia cuántica cercana a 1,
que es la óptima para el proceso de fotosíntesis, se evita, de esta manera, el proceso
de fotoinhibición (destrucción de las proteínas de la membrana celular) e incrementar
así la duplicación celular.
• Distribución de la luz: es un parámetro difícil de controlar debido a la complejidad
del fenómeno de la luz; ya que vincula muchos factores como: ángulo de incidencia,
cantidad de PFD, efectos de refracción,
propagación y difracción, atenuación de la
luz debido a la concentración de Biomasa,
Fuentes de luz, reflexión y dispersión y Fotoquímica.
Apéndice: Unidades del sistema MKSA
La Tabla. I, presenta las abreviaturas de los
modelos hidrodinámicos y de los modelos cinéticos utilizados en el Fotobiorreactor Airlift:
IV. CONCLUCIONES
AGRADECIMIENTOS
Los modelos de crecimiento de microalgas
se basan en expresiones matemáticas complejas, que simulan el crecimiento del cultivo
a partir de procesos matemáticos y tiene como
principal variable la luz en el caso de cultivos
de tipo fotoautotrófico o fotoheterotrófico, debido a que este es el principal factor que limita el
crecimiento de las microalgas. Por consiguiente, los modelos simulan el crecimiento y controlan las variables de estado como: temperatura,
pH, concentración de nutrientes y concentración de luz que existe en el medio de cultivo.
Los autores reconocen y agradecen todo el
apoyo, conocimiento y tiempo brindado por el
departamento de investigación de la Fundación
Universidad de América, nuestro director Diego Rubio, el Ingeniero Juan Sandoval y el Ingeniero Jaime Arturo Calvache, quienes fueron el
soporte a lo largo de este trabajo. A todas las
personas especialmente a la profesora Colombia Vivas, que formó parte del proceso y desarrollo de este trabajo con su talento humano y
solidaridad, brindándonos generosamente su
conocimiento y experiencia.
65
Análisis comparativo de modelos hidrodinámicos y cinéticos para fotobiorreactores airlift – Cortés, Rubio, Gómez
TABLA I.
ABREVIATURAS
Magnitud física
Unidades
Nombre
Símbolo
Nombre
Símbolo
Altura del Líquido en el Riser
H
Metros
m
Área Transversal del Downcomer
AD
Metro cuadrado
m2
Área Transversal del Riser
AR
Metro cuadrado
m2
Coeficiente de Absorción de Biomasa
Ka
-
-
Coeficiente de Absorción de Luz
Kc
-
-
Coeficiente de Absorción de Pigmentos en Relación con los Pigmentos Totales
Y'P
Metro Cuadrado/gramo
Coeficiente de Dispersión Gas-Líquido
Hdis
Metros
Concentración de Pigmentos Fotosintéticos
XP
Metro Cuadrado/gramo
Coordenada Radial
R
-
Densidad del Gas
ρG
Kilogramo/metro cubico
Kg/m3
Densidad del Líquido
ρL
Kilogramo/metro cubico
Kg/m3
Diámetro del Downcomer
dD
Metros
m
Diámetro del Riser
dR
Metros
m
Pérdida de fricción en el Base
KB
-
-
Pérdida de fricción en el Top
KT
-
-
Presión Ejercida en la Base del Reactor
PT
Pascales
Retención del gas en el Riser
εR
-
-
Retención del gas en el Downcomer
εD
-
-
Retención del Solido
εS
-
-
Retención del Solido en la fase seudo-homogénea
εH
-
-
Unidades derivadas MKSA
Uslip
Velocidad de Escape de la Burbuja de Gas en el Líquido
REFERENCIAS
Metro/segundo
m2/g
m
m2/g
-
Pas
m/s
do Solanum Tuberosum, Bogotá, Tesis Ingeniería
Química, Universidad de América, Facultad de
Ingeniería, Departamento de Ingeniería Química,
2009.
[1]
M.Y ChistI, Airlift Bioreactors, Applied Elsevier
Science, U.S.A, 1989.
[2]
Wang Si-Jing y Zhong Jian J. Bioreactor Engineering, Bioprocessing for Value-Added Products
from Renewable Resources, 1st. Ed, Elsevier Science. p. 161-170. 2007.
[5]
ARTURO CALVACHE, Jaime A, Simulación de Bioreactores Airlift, Tesis de Maestría, Facultad de
Ingeniería Química, Universidad Nacional de Colombia, 2002.
[3]
Y. Chisti y M. Moo-young, Bioreactor, Encyclopedia of Physical Science and Technology. 3 Ed.,
Elsevier Science. p. 248-255. 2002.
[6]
MERCHUK, J.C, Bioreactor Airlift Reactor. Encyclopedia of Bioprocess Technology. 2002.
[4]
HUERFANO, Guillermo, Diseño y Simulación de
un Reactor Airlift para la Producción de Alcohol
Etílico con ---Saccharomyces Cerevisiae Utilizan-
[7]
MERCHUK, J.C, y SIEGEL M.H., Air-Lift Reactors
in Chemical and Biological Technology, Journal of
Chemical Technology and Biotechnology, Vol. 41,
No 2, pp. 105-120. 1988.
66
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 57 - 66
[8]
GARCíA, E. RODRíGUEZ A., A Fluid Dynamic Model for Three-Phase Airlift Reactors, Chemical Engineering Science, vol.54, pp. 2359-2370.1999.
[9]
DIAZ, Ricardo M, Estudio del Flujo en Reactores
con Tres Fases por Simulación, Tesis Doctoral,
Facultad de Ciencias Químicas, Departamento
de Ciencia de los Materiales e Ingeniería Metalúrgica, Madrid, 2001.
[10] HWANG, S. J. y WEN, J. L., Liquid Velocity and Gas
Hold Up in Three Phase Internal Loop Airlift Reactors with Low Density, Chemical Engineering Science, Vol. 50, No 8, pp. 1301-1310. 1995.
[11] CHENG, Y. L. y HWANG, S. J., Gas Hold Up and
Liquid Velocity in Three Phase Internal Loop Airlift reactors, Chemical Engineering Science, Vol.
52, No 8, pp. 3949-3860. 1997.
[12] GARCíA, E. y TOBAJAS M., Hydrodynamics and
Mass Transfer Prediction in a Three-Phase Airlift Reactor for Marine Sediment Biotreatment,
Chemical, Engineering Science, vol. 54, p 53475354. 1999.
[13] MOLINA G. E, GARCíA C, SÁNCHEZ, J., Mathematical Model of Microalgal Growth in Light Limited
Chemostat Cultures, Journal chemical Technology and Biotechnology, pp. 167-173. 1994.
[14] EVER, E. G., A model for Light-limited continuous
cultures: Growth, shading, and maintenance,
Biotechnology and Bioengineering, Vol. 38, pp.
254-259. 1990.
[15] EILERS P.H. Y PETEERS J.C., A model for the relationship between light intensity and the rate
of photosynthesis in phytoplankton, Ecological
modeling, Vol. 42, pp. 199-215. 1988.
[16] WU X. y MERCHUK J.C. A model integrating fluid
dynamics in photosynthesis and photoinhibition
processes, Chemical Engineering Science. Vol.
56, pp. 3527-3538. 2001.
Optimización y clasificación de señales EMG a
través de métodos de reconocimiento de patrones
Optimization and Classification of EMG Signals Through
Pattern Recognition Methods
Cristhian Manuel Durán Acevedo
PhD. en Ingeniería Electrónica, URV-UPC
Sistemas Multisensoriales y Reconocimiento de Patrones.
Automatización y Control.
Hardware DSP
Docente Tiempo Completo, Investigador Grupo GISM
Universidad de Pamplona
Pamplona, Colombia
[email protected]
Aylen Lisset Jaimes Mogollón
M. Sc(c) Controles Industriales, Universidad de Pamplona.
Docente Cátedra, Investigador Grupo GISM,
Universidad de Pamplona
Pamplona, Colombia
[email protected]
Resumen— Este artículo presenta un estudio basado en
la optimización de la respuesta de un electromiógrafo
a través de algunas técnicas utilizadas para el tratamiento, análisis y procesamiento de señales electromiográficas superficiales, con el fin de proporcionar una
herramienta útil como estrategia para el diagnóstico y
pronóstico de cuadro clínico de enfermedades musculares (Por ejemplo, para pacientes con pie caído).
Abstract— This paper presents a study based on the
response optimization of an electromyograph through
processing techniques for the analysis of surface electromyographic signals, in order to provide a useful tool
as a strategy for the diagnosis and prognosis of clinical
symptoms of muscle diseases (e.g. for patients with foot
drop). The patients were previously diagnosed by physiatrists, seven of them were healthy and five showed
foot drop neuropathy. A set of electromyographic signals
were acquired and stored during the movement of dorsiflexion in the supine position from the tibialis anterior
muscle in each of patients. Then, these signals were processed with feature extraction techniques and pattern
recognition methods for their classification.
Los datos fueron obtenidos a partir de la información de
pacientes que fueron diagnosticados previamente por
fisiatras, de los cuales 7 eran sanos y 5 pacientes mostraron neuropatía de pie caído.
Un conjunto de señales electromiográficas fueron adquiridas y almacenadas durante el movimiento de dorsiflexión en una posición supina a partir del músculo tibial
anterior en cada paciente. Luego estas señales fueron
procesadas mediante técnicas de extracción característica y métodos de reconocimiento de patrones para la
clasificación de las mismas.
Para el pre-procesamiento de las señales electromiográficas se emplearon métodos en tiempo y frecuencia,
como la transformada de Fourier y, a su vez, técnicas
como el Análisis de Componentes Principales (PCA) y
redes neuronales artificiales (es decir, MLP y PNN), que
permiten representar en forma gráfica los resultados
obtenidos en un plano bidimensional y mejorar de esta
forma el porcentaje de clasificación.
Los resultados obtenidos describen un sistema electromiógrafo, el cual fue optimizado mediante la implementación de métodos de reconocimiento de patrones, se
alcanzó un porcentaje de acierto de hasta el 100 % en
la clasificación de señales EMG por medio de electrodos
superficiales.
Palabras clave— EMG, FFT, MLP, PCA, pie caído, PNN.
Regarding the data preprocessing of electromyographic
signals, methods of time and frequency such as Fourier
Transform and Principal Component Analysis (PCA) and
Artificial Neural Networks (i.e. MLP and PNN) were used
to represent graphically in a two-dimensional plane the
results obtained and thus to improve the classification
percentage. The results describe an electromyography,
which was optimized with pattern recognition methods,
achieving a success rate of 100% in the classification of
EMG signals, via surface electrodes.
Keywords— EMG, FFT, MLP, PCA, foot drop, PNN.
I. INTRODUCCIÓN
La electromiografía es una metodología de
registro y análisis de la actividad bioeléctrica del
músculo esquelético, orientada al diagnóstico de
las enfermedades neuromusculares. Estos sistemas han evolucionado paralelamente al conocimiento de las propiedades de la energía eléctrica
Recibido: 13/08/2012/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76
68
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76
y al desarrollo de la tecnología eléctrica y electrónica. A mediados del siglo XX se introdujo el primer
equipo comercial de electromiografía para uso
médico, basado en circuitos electrónicos analógicos. El desarrollo posterior de la tecnología digital
ha permitido disponer de sistemas expertos controlados por microprocesadores, cada vez, más
fiables y potentes para captar, representar, almacenar, analizar y clasificar las señales mioeléctricas [1]. El avance de las nuevas tecnologías de la
información y la comunicación puede conducir en
un futuro próximo a la aplicación de desarrollos de
inteligencia artificial que faciliten la clasificación
automática de señales así como sistemas expertos de apoyo al diagnóstico electromiográfico [2].
El objetivo del presente artículo es optimizar la
respuesta de un electromiógrafo con electrodos
de superficie, utilizado en pacientes con pie caído
a través de técnicas de procesamiento de datos y
métodos de reconocimiento de patrones para la
clasificación de medidas.
A. Concepto de Unidades Motoras
Las unidades motoras ó motoneuronas son las
encargadas de transmitir los impulsos nerviosos y
llevarlos hasta el músculo, las cuales son controladas, a su vez, por centros nerviosos superiores
que regulan la respuesta motriz.
Los axones de las motoneuronas parten desde
la medula espinal y llegan hasta las fibras musculares. Cada axón poco antes de conectar con estas
fibras se divide y ramifica en muchos terminales,
cada uno de los cuales contacta con una fibra a través de una estructura llamada “Placa Motora “[3].
En la Fig. 1 se observa al conjunto formado
por una motoneurona y las fibras musculares que
inerva se le llama “Unidad Motora” (U.M).
B. Reclutamiento de las unidades motoras
1) Reclutamiento espacial
Se aplica por la ley de Henneman (1965). El reclutamiento está ordenado por el principio del tamaño o “size principle”. Las primeras motoneuronas reclutadas son las motoneuronas de tamaño
pequeño. Son las que tienen igualmente la velocidad de conducción más débil y que desarrollarán
la tensión muscular más baja [4] y [5].
2) Reclutamiento temporal
Se trata de la suma temporal: un músculo responde mediante una sacudida a un impulso, si un
siguiente impulso surgiera suficientemente rápido, la sacudida sería superior (hay suma).
II. MÉTODOS EXPERIMENTALES
La Fig. 2. muestra un diagrama en bloques estructurado de tal manera que se puede seguir un
orden y un análisis desde el músculo del paciente
hasta el tratamiento de la señal.
Está compuesto por:
• Captación de la señal (sensores).
• Acondicionamiento (amplificadores).
• Conversor análogo digital (tarjeta de adquisición de datos)
• Procesamiento (PC).
Fig. 2 DIAGRAMA EN BLOQUES DEL SISTEMA
Fig. 1 UNIDAD MOTORA FISIOLOGICAMENTE
Fuente: [Online]. Available http://www.pucpr.edu/marc/facultad/asantiago/anatomia/Muscular.htm#slide0033.htm
Fuente: Autores del proyecto
69
Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes
A. Muestras
B. Materiales
El conjunto de medidas realizadas fueron obtenidas a partir de una muestra de 12 personas,
con el apoyo y valoración de los Fisiatras: Dr. Ómar
Albarracín Acosta, Universidad de Pamplona y el
Dr. Larry Rubio de la Fundación Médico Preventiva-Pamplona, previamente tratados y diagnosticados en estas entidades.
En la Tabla I, se muestran algunas de sus características.
Se registró la actividad del músculo tibial
anterior proveniente de contracciones isométricas; habida cuenta que la MCV es la mayor
fuerza que es capaz de desarrollar el sistema
nervioso y muscular. Se indicó a los pacientes
realizar la mayor fuerza de forma voluntaria,
durante un tiempo de cuatro segundos, digitalizadas a una frecuencia de muestreo (fs) de 10
kHz con el “Sistema Registrador Electromiográfico de Superficie”, ver Fig. 3 [6].
Se utilizaron electrodos superficiales ubicados según normativa SENIAM (Surface ElectroMyoGraphy for the Non-Invasive Assessment
of Muscles), se indica que deben ser colocados
a 1/3 en la línea entre la punta del peroné y la
punta del maléolo medial, mostrado en la Fig.
4 [7].
TABLA I.
Género
(M-masculino/
F-femenino)
Edad (años)
Peso (kg)
Estatura (cm)
Estado
(S-sano/L-lesionado)
A
M
36
75
170
S
B
M
32
80
180
S
70
170
S
12
42
130
S
E
F
22
58
165
S
F
19
50
159
S
M
12
43
145
S
1
M
37
69
166
L
2
F
40
62
164
L
3
F
49
58
160
L
5
F
M
73
63
Fuente: Autor del proyecto
75
63
157
156
L
L
Accidente en
carro
4
Caída
F
G
Explosión
minas
23
M
Caída de
escaleras
M
FIG. 3 SISTEMA REGISTRADOR ELECTROMIOGRÁFICO DE SUPERFICIE
Cirugía
C
D
Lesión
Paciente
CARACTERíSTICAS DE LOS PACIENTES REGISTRADOS
Fuente: Autores del proyecto
En la Tabla II se describen los parámetros entre los cuales depende en gran medida el funcionamiento del equipo EMG.
TABLA II.
PARÁMETROS REGISTRADOR EMG
Rango de Frecuencia
10-500Hz
CMRR
120 dB
Rango de Ruido
0-20 Hz
Rango de Amplitud
100µV -20 mV
Ganancia total
1001
Fuente: Autores del proyecto
70
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76
Fig.. 4 UBICACIÓN DE ELECTRODOS SEGÚN NORMATIVA SENIAM
2) Centralización de datos
Ajusta las señales a una escala adecuada.
En las Fig. 5 y Fig. 6 se observan las señales
obtenidas al haber aplicado la técnica de centrado de datos, el cual es una normalización donde
a cada una de las columnas se le resta su valor
medio. Es decir, toda medida es descrita por variables de media nula.
Fig.. 5 SEÑAL ORIGINAL SIN NORMALIZAR
Fuente: [Online]. Available: http://www.seniam.org
La señal fue registrada en un ordenador, donde fue monitoreada constantemente y luego almacenada para posteriormente realizar el análisis
respectivo. El software utilizado para la adquisición y análisis de datos fue el Matlab R2009a.
C. Protocolo de medición
En todos los pacientes se siguió el mismo protocolo de medición. Para la adquisición de cada
una de las muestras se emplearon las siguientes
pautas:
1) No se aplicaron lociones ni cremas sobre el
área de análisis un día antes de realizar la
prueba.
Fuente: Autores del proyecto
Fig. 6 SEÑAL CON CENTRADO DE DATOS
2) Se acomodaron en una posición supina.
3) La zona donde se localizaron los electrodos estaba debidamente depilada.
4) Se limpió la piel con alcohol antiséptico.
5) A continuación se localizaron los electrodos.
6) Se finalizó con el test Clínico.
En total se adquirieron 60 muestras y por cada
paciente se realizaron 5 repeticiones.
D. Tratamiento de los datos
1) Pre-procesamiento
El pre-procesamiento prepara los datos para
su extracción. La toma de datos del sensor implica
una entrada de información innecesaria que hace
lento el procesamiento y dificulta la extracción, en
esta sección se hace una primera selección de
la información al eliminar componentes de ruido
principalmente.
Fuente: Autores del proyecto
3) Extracción característica con Transformada de
Fourier
El análisis de frecuencia es la forma más utilizada para describir las principales características de
los registros de actividad eléctrica continua en señales fisiológicas como el patrón por interferencia
del electromiograma, aunque también han sido utilizados otros parámetros obtenidos en el dominio
del tiempo, como los llamados “turns” y la amplitud
total.
Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes
El análisis de frecuencia representa, en realidad, la cantidad de actividad como un continuo en
un conjunto de frecuencias.
4) Procesamiento de datos
Para el procesamiento de cada una de las
señales obtenidas por el sistema EMG, depende
directamente de los procedimientos realizados
durante el pre-procesamiento, de esto obedecerá
el éxito en los resultados. Este es el motivo del
cuidadoso análisis que se realizó a cada una de
las etapas. Las fases que implica el correcto procesamiento de las señales electromiográficas se
presentan a continuación:
A. Reducción de la Dimensionalidad
Cuando se recoge la información de una
muestra de datos, lo más frecuente es tomar el
mayor número posible de variables. Sin embargo,
si tomamos demasiadas variables sobre un conjunto de objetos, por ejemplo 20 variables, tendremos que considerar 180 posibles coeficientes de correlación. Evidentemente, en este caso
es difícil visualizar relaciones entre las variables.
Otro problema que se presenta es la fuerte correlación que muchas veces se presenta entre las
variables: si tomamos demasiadas variables, lo
normal es que estén relacionadas o que midan
lo mismo bajo distintos puntos de vista. Se hace
necesario, pues, reducir el número de variables.
Es importante resaltar el hecho de que el concepto de mayor información se relaciona con el
de mayor variabilidad o varianza. Cuanto mayor
sea la variabilidad de los datos (varianza) se considera que existe mayor información.
sigmoidal es un aproximador universal de cualquier función continua en un conjunto compacto. Las redes neuronales MLP pueden trabajar
como cualquier clasificador no lineal o como
una función de regresión [12], [13] y [14].
D. Red neuronal probabilística (PNN)
Esta red es muy utilizada en problemas de
clasificación. La red consta de dos capas, una
primera red de neuronas de base radial con un
número de neuronas igual al número de vectores de entrenamiento, y una capa competitiva
de un conjunto de neuronas cuyo número es
igual al número de categorías consideradas en
el problema de clasificación. Cada neurona de
base radial (de la capa de entrada) almacena
como pesos uno de los vectores de entrenamiento [15] y [16].
III. RESULTADOS
A. Estudio de la señal
En la Fig. 7 se ilustra la respuesta de una
señal electromiográfica sin ningún tipo de procesamiento. Puede apreciarse que aunque es
una señal electromiográfica típica no se puede
establecer un punto de referencia para su interpretación, es decir, si se desea tomar diferentes
muestras se observa que nunca parten de un
mismo punto (línea base), por ello la necesidad
de realizar un centrado de datos, permitiendo
así una mejor visualización y análisis.
Fig. 7. SEÑAL ELECTROMIOGRÁFICA SIN PROCESAR (LíNEA BASE 3 VOLTIOS DC DE AMPLITUD)
B. Análisis PCA
(Análisis de Componentes Principales)
El método PCA permite reducir, representar
y extraer información relevante del conjunto de
datos y al mismo tiempo para ver si se pueden
determinar agrupaciones (“clúster”) espontáneas entre las diferentes medidas realizadas
previamente. [9], [10] y [11].
C. Red perceptron multicapa (MLP)
La red neuronal MLP está construida usando
nodos que se parecen a un sistema de circuitos
biológicos neuronales. Se ha demostrado que
una red MLP con una capa oculta y la función
Fuente: Autores del proyecto
En la Fig. 8 se observa que la señal ya tiene
un centrado de datos pues es un factor primordial
para su posterior interpretación y procesado.
71
72
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76
Fig. 8. SEÑAL ELECTROMIOGRÁFICA APLICADO CENTRADO DE DATOS
(LíNEA BASE APROX. O VOLTIOS DC DE AMPLITUD)
Para la interpretación de la Fig. 9 y de la Fig.
10, se tiene en cuenta las características físicas
de la persona. En estos casos las señales se
identifican por su forma, es decir, se califica la
señal. En éstas se observan tres fases.
• Primera fase: Reposo: el tejido muscular es
eléctricamente silencioso. No existen amplitudes significativas.
•
Segunda fase: Contracción: cuando el músculo se contrae voluntariamente, la actividad comienza a aparecer. A medida que
la contracción aumenta, más y más fibras
musculares producen potenciales de acción
hasta que aparece un grupo desordenado
de dichos potenciales de tasas y amplitudes
variables (patrón de interferencia y reclutamiento completo) con la contracción total.
•
Tercera fase: Reposo: la señal vuelve a disminuir en amplitud, el músculo se relaja.
Fuente: Autores del proyecto
Se efectuaron varios registros cuantitativos en
contracción isométrica (la longitud del músculo no
cambia durante la contracción), durante 4 segundos.
A continuación, tal y como se observa en la
Fig.9, se presenta una señal típica electromiográfica de un paciente normal.
Fig 9 SEÑAL ELECTROMIOGRÁFICA PACIENTE SANO
Fuente: Autor del proyecto
En la Fig. 10 se ilustra la respuesta de una señal adquirida en las mismas condiciones pero de
un paciente con cuadro clínico pie caído.
Fig. 10 SEÑAL ORIGINAL-CENTRADO DE DATOS
Según la interpretación médica se infiere
que el paciente presenta un músculo en estado
normal (ver Fig. 8), se observó una señal con
sus tres fases normales durante la contracción,
igualmente los valores de amplitud se encuentran dentro de los estándares (amplitud de
3mV).
En la Fig. 9 el paciente presenta un músculo
totalmente anormal, anestésico, está desconectado.
Se observó una línea base de valor 0V. No
presentó reclutamiento, amplitud 0V, contracciones nulas. Para este paciente las amplitudes
de la señal están por debajo de los 100 µV, su
reclutamiento es muy bajo, lo cual conlleva a
inferir un diagnóstico de debilidad muscular.
B. Características Frecuenciales
Fuente: Autores del proyecto
Las señales electromiográficas presentan un
contenido espectral que puede dar una idea del
músculo.
En la Tabla III se describen las características
en frecuencia y amplitud de las señales más relevantes tomadas de los pacientes en estudio.
Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes
TABLA III.
Fig. 11 ESPECTRO DE FOURIER, PACIENTE SANO
CARACTERíSTICAS EN AMPLITUD Y FRECUENCIA
Características
Amplitud (mv)
Frecuencia (khz)
Paciente
A
B
C
D
E
F
G
1
2
3
4
5
Máx. pico Amplitud EMG
1.768
Máx. pico Amplitud Fourier
0.7743
Frecuencia Fourier
0.164
Máx. pico Amplitud EMG
2.137
Máx. pico Amplitud Fourier
1.219
Frecuencia Fourier
0.291
Máx. pico Amplitud EMG
2.655
Máx. pico Amplitud Fourier
1.18
Frecuencia Fourier
0.241
Máx. pico Amplitud EMG
2.554
Máx. pico Amplitud Fourier
0.7857
Frecuencia Fourier
0.663
Máx. pico Amplitud EMG
2.368
Máx. pico Amplitud Fourier
0.7969
Frecuencia Fourier
0.007
Máx. pico Amplitud EMG
1.363
Máx. pico Amplitud Fourier
0.6925
Frecuencia Fourier
0.368
Máx. pico Amplitud EMG
2.193
Máx. pico Amplitud Fourier
0.9502
Frecuencia Fourier
0.245
Máx. pico Amplitud EMG
0.01073
Máx. pico Amplitud Fourier
0.05394
Frecuencia Fourier
0.241
Máx. pico Amplitud EMG
0.2705
Máx. pico Amplitud Fourier
0.1007
Frecuencia Fourier
0.31
Máx. pico Amplitud EMG
0.7203
Máx. pico Amplitud Fourier
0.258
Frecuencia Fourier
0.007
Máx. pico Amplitud EMG
0.3623
Máx. pico Amplitud Fourier
0.1872
Frecuencia Fourier
0.089
Máx. pico Amplitud EMG
0.5155
Máx. pico Amplitud Fourier
0.08768
Frecuencia Fourier
0.196
Fuente: Autores del proyecto
En las gráficas se presenta un espectro de
Fourier, que corresponde a 0.5 segundos de una
señal de un paciente sano, (ver Fig. 11) y un paciente con lesión (ver Fig. 12).
Fuente: Autores del proyecto
Fig. 12 ESPECTRO DE FOURIER, PACIENTE LESIONADO
Fuente: Autores del proyecto
Al comparar las características frecuenciales
(ver Fig. 13) entre un paciente sano y otro paciente con la lesión, se observa que el espectro del
paciente sano (onda con mayor amplitud) posee
mayor valor frecuencial y mayor valor de amplitud que el espectro del paciente lesionado (onda
menor amplitud); según las gráficas obtenidas
del paciente sano (Ver Fig. 11), el mayor valor de
frecuencia oscila de 0 a 1000 Hz, mientras que
en el paciente con lesión (ver Fig. 12) fluctúa de
0 a 500 Hz.
De estos comportamientos se puede explicar
que cuando se realiza una contracción voluntaria, las primeras unidades motoras en activarse
son las de contracciones lentas resistentes a la
fatiga.
A medida que aumenta la fuerza, se activan
las unidades motoras que están compuestas de
fibras rápidas resistentes a la fatiga y después
se activan las compuestas de fibras de contracción rápida y rápidamente fatigables; dicho de
otra forma, a medida que aumenta el nivel de
73
74
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76
fuerza ejercida durante la contracción muscular,
se produce un aumento del número de unidades
motoras activadas, observable por aumento de
la amplitud (reclutamiento espacial) y, por otra,
se produce también un aumento de la frecuencia
de disparo de las motoneuronas (reclutamiento
temporal).
Tales requerimientos condicionan la morfología y las características de las ondas EMG, explicable por los cambios bioquímicos a nivel del
músculo, quiere esto decir que el músculo ante
un esfuerzo creciente, responde a través de la
señal eléctrica de dos formas: a) un aumento de
la activación de nuevas fibras musculares, o reclutamiento espacial; b) aumento de la frecuencia de pulsaciones de las unidades motoras o
reclutamiento temporal.
Para el espectro del paciente con lesión, se
observa que en un principio la amplitud aumenta y hay una disminución de la descarga, con la
aparición de una “onda lenta”, relacionada de
una manera significativa con el comienzo de una
sensación de fatiga local, con la sensación de
dolor y con la incapacidad del sujeto para mantener la tensión proyectada.
Fig. 14. RESULTADO ANÁLISIS DE COMPONENTES PRINCIPALES
Fuente: Autores del proyecto
En la Fig. 15, se presenta el mismo proceso,
pero visto en proyecciones sobre los componentes
principales.
Fig. 15. RESULTADO DEL ANÁLISIS DE COMPONENTES PRINCIPALESPROYECCIONES
Fig. 13 COMPARACIÓN ESPECTROS DE FOURIER, PACIENTE SANO VS.
PACIENTE LESIONADO
Fuente: Autores del proyecto
Fuente: Autores del proyecto
Para aplicar el método de PCA se tomó un
grupo completo de pacientes sanos y lesionados
con el objetivo de obtener un resultado investigativo previo de la respuesta y utilidad que éste
puede ofrecer.
En la Fig. 14, se observa un primer resultado,
del cual podemos resaltar que se pude distinguir
los pacientes sanos de los lesionados, así como
las muestras de cada uno.
Para el caso de señales EMG, PCA es un método útil para la distinción y discriminación de
medidas a través de “cluster” de pacientes sanos y pacientes con lesión. Como primer resultado los pacientes que presentaron el cuadro
clínico de pie caído se ubican en un solo sector
del plano y tienen tendencia a la línea cero, se
espera que al realizar un diagnóstico del proceso evolutivo de un paciente éste se ubique más
a la izquierda del plano, interpretado una leve
mejoría, si es el caso.
Los datos obtenidos del sistema fueron llevados a una hoja de cálculo con el fin de buscar
un fundamento matemático que contribuyera a
relacionar las variables tratadas.
75
Optimización y clasificación de señales EMG a través de métodos de reconocimiento de patrones – Durán, Jaimes
En la Fig. 16 se presenta una gráfica en donde
se observa los valores numéricos de frecuencia
de cada paciente y en la Fig. 17. Se da a conocer
respecto a su amplitud.
Fig. 16. VALORES FRECUANCIALES DE CADA PACIENTE
TABLA IV.
CLASIFICACIÓN DE MEDIDAS
Número de
categorías
Caso de
Clasificación
Red
MLP
Red
PNN
12
Todos los
pacientes
40 %
80 %
60 %
94,3 %
64 %
68 %
100 %
100 %
7
5
2
Pacientes
sanos
Pacientes
lesionados
Pacientes en
buen estado y
lesionados
Fuente: Autores del proyecto
En la mayoría de los casos se obtiene una mejor respuesta con la red PNN.
Fuente: Autores del proyecto
Fig. 17. VALORES DE AMPLITUD DE CADA PACIENTE
Fuente: Autores del proyecto
Podemos entonces inferir que al realizar un
análisis paralelo con respecto a los resultados
PCA, efectivamente existe una relación entre la
amplitud y frecuencia de la hoja de datos respecto a los resulatdos obtenidos de PCA, ya que las
señales se ubican en el plano según sus rangos
de amplitud y frecuencia.
C. Clasificación de medidas
En la Tabla IV se observa cada una de las respuestas de clasificación del conjunto de 60 medidas y 12 categorías, por medio de redes neuronales, donde se realizaron diferentes agrupaciones
con el objetivo de determinar el porcentaje de
acierto en la clasificación.
IV. CONCLUSIONES
A través de la Transformada de Fourier se logró
obtener una característica relevante en el conjunto de datos y en la respuesta de las señales emitidas por los pacientes lesionados y sin lesión.
El empleo de la técnica de reconocimiento PCA
demuestra ser una herramienta útil con mayor
profundidad y precisión para el estudio de las señales EMG, y además sirve de soporte empírico y
metódico qque logra discriminar las muestras de
los pacientes saludables con respecto a los afectados. Con la técnica de discriminación PCA, se logró clasificar las muestras de los pacientes según
el nivel de complejidad de la enfermedad.
Las redes neuronales son apropiadas para resolver problemas de clasificación, en este caso la
red PNN demostró una amplia eficiencia en cuanto a la velocidad de respuesta y sobre todo en el
alto porcentaje de acierto en la discriminación de
todas las categorías.
El sistema EMG junto con las técnicas expuestas en el presente artículo, demuestra que puede
ser utilizado ampliamente y con gran efectividad
como herramienta de diagnóstico para identificar
enfermedades neuromusculares en las personas.
AGRADECIMIENTOS
Los autores reconocen y agradecen las contribuciones del grupo de Investigación Sistemas
76
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 67 - 76
Multisensoriales y Reconocimiento de Patrones
de la Universidad de Pamplona.
REFERENCIAS
[1]
R.N. Khushaba, S. Kodagoda, M. Takruri, G. Dissanayake, “Toward improved control of prosthetic
fingers using surface electromyogram (EMG) signals” Expert Systems with Applications, Vol. 39,
Issue 12, pp.10731-10738, September 2012.
[2]
K. K. Jung, J. W. Kim, H.K. Lee, S.B. Chung, K.H.
Eom, “EMG pattern classification using spectral
estimation and neural network” 2007, SICE Annual Conference pp. 1108 – 1111.
[3]
[4]
T. Doherty, Z. Simmons, B. O’Connel, K. Felice,
R. Conwit, K. Ming Chan, T. Komori, T. Brown, D.
Stashuk, and W. Brown “Methods for Estimating
the Numbers of Motor Units in Human Muscles”, 1995, Journal of Clinical Neurophysiology,
Vol.12, pp.:565-84.
A. Hamilton-Wright, D.W. Stashuk, “Physiologically based simulation of clinical EMG Signals”,
2005, Biomedical Engineering, IEEE Transactions on, Vol.: 52, Issue: 2, pp. 171 – 183.
[9]
D. R. Rogers, T. Dawn. Isaac. M, “EMG-based
muscle fatigue assessment during dynamic contractions using principal component analysis” Journal of Electromyography and Kinesiology, Vol.
21, Issue 5, pp.811-818, October 2011.
[10] K. Kiatpanichagij, N. Afzulpurkar, “Use of supervised discretization with PCA in wavelet packet
transformation-based surface electromyogram
classification”, 2009, Biomedical Signal Processing and Control, Vol. 4, Issue 2 pp.127–138,
April 2009.
[11] S.Park, J.H.Na, J.Y.Choi, “PCA-based feature extraction using class information Myoung, Systems”, Man and Cybernetics, 2005 IEEE International Conference on, Vol.: 1, pp. 341 – 345.
[12] I.B.V. Da Silva, P.J.L, Adeodato, “PCA and Gaussian noise in MLP neural network training improve generalization in problems with small and
unbalanced data sets” 2011, Neural Networks
(IJCNN), The 2011 International Joint Conference , pp. 2664 – 2669.
[5]
G. Cometti, Métodos modernos de musculación,
Editorial Paidotribo, cuarta edición, 2005.
[13] W. Yu, H. Yamaguchi, H.Yokoi, M. Maruishi,
Y.Mano, Y.Kakazu, “EMG automatic switch for
FES control for hemiplegics using artificial neural
network”, Robotics and Autonomous Systems,
Vol. 40, Issues 2–3, pp. 213-224, 31 Aug 2002.
[6]
C. Durán, A. Jaimes, “Diseño de un registrador
electromiográfico de superficie para cuantificar
unidades motoras en la enfermedad del pie Caído” Revista: Revista Colombiana de Tecnologías
de Avanzada, Vol 2, No. 1, pp. 57 – 62, 2010.
[14] Y.l Özbay, G. Tezel,” A new method for classification of ECG arrhythmias using neural network
with adaptive activation function”, Digital Signal
Processing, Vol. 20, Issue 4, pp. 1040-1049, July
2010.
[7]
Normativa SENIAM (Surface ElectroMyoGraphy
for the Non-Invasive Assessment of Muscles, online, Available, http://www.seniam. org//.
[8]
M. Reaz, M. Hussain, F. Mohd-Yasin. “Techniques
of EMG signal analysis; Detection, processing,
classification and applications”, Biological Procedures, Vol.8, 1, pp.163, 2006.
[15] K. Liang, W.Chen. “Fast adaptive PNN-based
thresholding algorithms, Pattern Recognition”,
Vol. 36, Issue 12, pp. 2793-2804, December
2003.
[16] H.C.Dubey, Nandita, A.K. Tiwari, “Blind modulation classification based on MLP and PNN, 2012
in Engineering and Systems (SCES), Students
Conference, pp: 1-6.
Arquitectura para el Despliegue del servicio de Video
bajo Demanda de IPTV, apoyada en Interactividad y
Sistemas de Recomendaciones
Architecture for the Video on Demand service deployment on
IPTV, based on Interactivity and Recommender Systems
Diego Fabián Durán Dorado
Ingeniero en Electrónica y Telecomunicaciones,
Universidad del Cauca
Estudiante Maestría en Ingeniería Telemática,
Universidad del Cauca
Investigador Grupo GIT, Universidad del Cauca
Popayán, Colombia
[email protected]
José Arciniegas
Profesor titular, Departamento de Telemática,
Universidad del Cauca
Investigador Grupo GIT, Universidad del Cauca
Popayán, Colombia
[email protected]
Resumen— En este artículo se presenta una alternativa
de solución arquitectónica para el despliegue y soporte
del servicio de VoD (Video bajo Demanda) de contenidos de televisión en IPTV (Televisión sobre el Protocolo
de Internet). Esta alternativa integra el soporte de los
servicios interactivos wikis, chat, blogs, y sistemas de
recomendaciones con enfoques basados en contenido,
colaborativos e híbridos. La arquitectura se describe en
diferentes vistas así: de despliegue, de componentes y
dinámica a partir de un escenario específico. A diferencia de otras arquitecturas, la solución presentada facilita la convergencia en un entorno de televisión, de estándares y tecnologías abiertas de la Web 2.0 como los
Servicios Web (Web Services), REST (Transferencia de
Estado Representacional) y XML (Lenguaje de Marcas
Extensible), lo cual es acorde con la tendencia actual
en la Web de permitir la interoperabilidad entre aplicaciones software independientes. Un grupo de pruebas
sobre un prototipo de la arquitectura permitió concluir
que es posible obtener un buen rendimiento en cuanto
a tiempos de respuesta en un entorno web real durante
situaciones de estrés. En cuanto al ancho de banda, el
servicio puede desplegar toda la funcionalidad sobre las
velocidades de acceso ofrecidas en la actualidad, considerando que la arquitectura está diseñada para redes
no gestionadas, por lo que no se asegura QoS.
Services, REST (Representational State Transfer) and
XML (Extensible Markup Language), which is consistent
with the current trend on the Web to allow interoperability between independent software applications. From
a set of tests concluded that it is possible to obtain a
good performance in terms of response times in a real
web during stress situations. As to bandwidth, the service can display all of the functionality on access speeds
currently offered, considering that the architecture is
designed to unmanaged networks therefore not assured
QoS.
Palabras clave— Arquitectura, Interactividad, IPTV Recomendaciones, VoD.
Abstract—This paper presents an alternative architectural solution for the deployment and support of the VoD
(Video on Demand) service for television content on IPTV
(Internet Protocol Television). This alternative integrates
support of interactive services like wikis, chat, blogs
and recommender systems with item based approaches,
collaborative and hybrid. The architecture is described
in different views like this: deployment, components and
dynamic, based on a specific scenario. Unlike other architectures, this solution facilitates the convergence of
standards and open technologies of Web 2.0 like Web
Keywords— Architecture, Interactivity, IPTV, Recommender, VoD.
I. INTRODUCCIÓN
A través del servicio de VoD (Video bajo Demanda) de IPTV (Televisión sobre Protocolo IP),
los usuarios pueden elegir sus productos desde
una lista o catálogo en la que pueden encontrar
información relacionada, seleccionar el contenido
de su interés, descargarlo y visualizarlo en un televisor analógico o digital, o un computador [1]. Con
el tiempo, la cantidad de contenidos aumentó y
los problemas propios de la tecnología y de usabilidad aparecieron causados por la saturación de
información. Entre ellos: retardos por cambio de
canal [2], baja probabilidad de encontrar contenidos de interés para los usuarios [3]-[5], categorización de contenidos insuficiente para gustos variados y específicos [3]-[8], y debido a sugerencias
de usabilidad de televisión digital [9], la cantidad
de información presentada en pantalla es reducida y los contenidos pueden perder visibilidad.
Debido a la experiencia negativa de los usuarios
Recibido: 03/08/2012/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
78
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
causadas por estos problemas [3], es necesaria
la implementación de estrategias para faciliten el
acceso a información personalizada que corresponda a las preferencias de cada persona [10].
De forma general, el intercambio de información
especializada es la tendencia en IPTV [1]. Esto demostrado en entornos como el social [11] (Social
TV), el comercial (tCommerce) [12], y el gobierno
(tGovernment) [13], en los que el intercambio de conocimiento producido por la interacción entre usuarios se lleva a cabo a través de conjuntos de aplicaciones y servicios interactivos de apoyo.
Para buscar soluciones a los problemas anteriores, se presenta una propuesta arquitectónica
que integra servicios interactivos y sistemas de
recomendaciones como apoyo al servicio de VoD
sobre una red no gestionada. La arquitectura tiene en cuenta la cadena de negocio actual de IPTV
[14], las tecnologías y protocolos disponibles en la
Web 2.0 y las técnicas de filtrado de información
de los sistemas de recomendaciones [15].
El trabajo está basado en las experiencias
obtenidas en el laboratorio de TDi (Televisión
Digital Interactiva) de la Universidad del Cauca
(Colombia) en el marco del proyecto ST-CAV [16],
[17] (Servicios de T-Learning para el soporte de
Comunidades Académicas Virtuales), no sólo en
el campo de IPTV sino también en el de la Televisión Digital Terrestre y Móvil; y en el laboratorio de
TDi de la Universidad de Vigo -España- donde se
investigó y profundizó de forma parcial lo relacionado con los sistemas de recomendaciones.
II. CONTEXTO
A continuación se definen aspectos importantes en los que se enmarca este trabajo y los conceptos más relevantes relacionados con el marco
teórico de esta investigación.
A. IPTV
El Open IPTV Forum contempla la prestación
de servicios de IPTV tanto en redes gestionadas
como en no gestionadas. En general, es un conjunto de servicios multimedia (televisión, video,
audio, texto, gráficos y datos) distribuido por una
red IP. Sobre una red gestionada debe poseer calidad de servicio, seguridad, interactividad y fiabilidad. Sobre una red no gestionada no se asegura
calidad de servicio [18].
B. VoD
Servicio de IPTV que permite a los usuarios elegir contenidos de televisión (programas y películas, entre otros) desde una EPG (Guía Electrónica
de Programación) [18].
C. Servicios Interactivos
En el marco del presente trabajo, se refiere
a servicios que fomentan la interacción entre el
usuario y el sistema de VoD. Pueden clasificarse
en dos tipos así: 1) asociados y 2) no asociados
al contenido. Los asociados extienden la información presentada en cada contenido o se refieren
específicamente a uno en particular. Los no asociados no necesariamente extienden la información tratada en un contenido. Ejemplo del primer
tipo es el servicio de “valoraciones” que permite
al usuario calificar la calidad de un contenido.
Esta calificación se llamará en adelante como DOI
(Grado de Interés). En el segundo tipo se encuentran servicios que están de acuerdo a la tendencia
de la Web 2.0 como: chat, noticas, foros y wikis,
entre otros, y sirven para la circulación de información y generación colaborativa de conocimiento.
D. Sistemas de Recomendaciones
En el contexto de la televisión, son herramientas que generan sugerencias de contenidos de
televisión a partir de las preferencias y opiniones
de los usuarios. Son útiles durante el proceso de
filtrado de la gran cantidad de contenidos disponibles y asistir a los usuarios en la búsqueda y recuperación de información. En cuanto a su forma de
operar, se definen en la literatura tres enfoques
que son los más utilizados actualmente en el entorno de la televisión digital: los basados en contenido, colaborativos e híbridos.
Los sistemas basados en contenido sugieren
al usuario nuevos contenidos en función de su
semejanza con otros que le han interesado en el
pasado.
Los sistemas colaborativos predicen el DoI de
un usuario por un contenido con base en los gustos y opiniones de otros usuarios con intereses
similares.
Con el fin de obtener mejores recomendaciones, los sistemas híbridos explotan las ventajas
de los otros enfoques y sobrellevan sus desventajas debido a su naturaleza complementaria [19].
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de
Recomendaciones – Durán, Arciniegas
E. TVAnytime
Especificación en la que participan algunas de
las organizaciones más relevantes de la industria
de creación y difusión de contenidos multimedia,
que normaliza un formato de datos común para
describir contenidos audiovisuales genéricos, instancias concretas de los programas, perfiles de
usuario, información de segmentación de contenido y mecanismos para referenciar los programas
con independencia de su localización y hora de
emisión [20].
III. TRABAJOS RELACIONADOS
En [21] se propone una arquitectura para el
servicio de VoD compuesta principalmente por un
arreglo de nodos cuyo objetivo es atender la masiva demanda en IPTV. Para ello, se realizan copias
de cada contenido en los nodos de una manera
dinámica y se obtiene así una solución escalable
para mejorar el uso del ancho de banda. Sin embargo, la arquitectura está enfocada en la distribución de flujos (streamming) por la red, y no se
considera el despliegue de servicios interactivos,
sistemas de recomendaciones u otras herramientas de apoyo importantes para mejorar la experiencia del usuario.
En [19] se desarrolla una metodología basada
en la utilización de técnicas de inferencia de conocimiento de la web semántica para elaborar recomendaciones personalizadas y automáticas de
contenidos de televisión. El objetivo de la metodología es descubrir relaciones semánticas entre
las preferencias de los usuarios y los contenidos
disponibles. Aunque esto implica ampliar la gama
de recomendaciones, el sistema tiene un enfoque
basado en contenido, por lo que pueden presentarse problemas de sobre-especialización. Este
consiste en la recomendación sólo de contenidos
similares entre sí y dejar de lado otros que podrían
interesar. Es posible reducir sus efectos a través
de la implementación de un enfoque híbrido.
En [22] se define una arquitectura y la implementación de un sistema de IPTV que permite
compartir archivos multimedia. La arquitectura se
centra en cubrir aspectos como la presentación
de los archivos, el control de ejecución (adelantar,
retroceder, pausar) y la adhesión de descripciones
(de texto). La arquitectura se basa en el estándar
IMS (Sub Sistema Multimedia IP) y se añade un
conjunto de funciones adicionales a las básicas
de IMS. Este diseño dificulta su escalabilidad y
convergencia con los Web Services, en caso de
añadir servicios y aplicaciones de apoyo.
En [3] se describen los sistemas de recomendaciones de contenidos de televisión basados en
filtrado colaborativo y en contenido para sistemas
de VoD en IPTV. Este trabajo resalta la importancia de las recomendaciones en entornos con
abundancia de información y pretende dar solución a los problemas asociados a la ineficiencia
en la búsqueda de un contenido de interés para el
usuario en catálogos grandes.
En los trabajos relacionados no se considera
el uso de herramientas de apoyo para el acceso e
intercambio de información entre usuarios como
servicios interactivos y sistemas de recomendaciones en el servicio básico de VoD. Por otra parte,
las arquitecturas descritas dificultan la convergencia de los estándares y tecnologías abiertas de la
Web 2.0 como los Servicios Web (Web Services),
REST (Transferencia de Estado Representacional)
y XML (Lenguaje de Marcas Extensible), cuyo uso
es acorde a la tendencia en la Web de permitir
la interoperabilidad entre aplicaciones software
independiente de la plataforma en la que están
instalados.
IV. ARQUITECTURA ESTÁTICA
La arquitectura estática del sistema está conformada por dos vistas: la de “Despliegue” y la de
“Nodos y componentes”. La primera, brinda una
idea general del funcionamiento del servicio y la
segunda explica en detalle cada uno de los nodos
que conforman la arquitectura, sus componentes
y funciones.
Entre los criterios de diseño de la arquitectura
están:
• Es importante que sea posible la modificación
de componentes sin afectar el funcionamiento del sistema y que a pesar de la gran carga
computacional necesaria para cada proceso,
el sistema se comporte eficazmente.
• La organización de nodos obedece a la cadena de negocio de IPTV actual.
• La arquitectura está orientada a los servicios
y obedece a los principios de REST, por lo que
cada servicio interactivo se concibe como un
79
80
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
•
recurso que puede ser consumido a través de
peticiones GET y POST.
Se considera un entorno IP no gestionado, por
lo que los nodos de la arquitectura se interconectan a través de Internet.
A. Vista de despliegue
En la Fig. 1 se presenta la vista de despliegue
de la arquitectura, en la que se delimitan claramente el “Proveedor de contenidos”, el “Proveedor de servicios” y el “Cliente”.
Cada uno de los nodos se describe en la Fig. 1.
orientada a servicios REST con intercambio de
mensajes JSON (Notación de Objeto JavaScript).
3) En el Cliente
a. STB IPTV
Se instalan funciones JavaScript que se encargan de monitorear la actividad del usuario. Además, a través de su navegador permite el despliegue y navegación a través del servicio de VoD. En
condiciones ideales, este dispositivo debe interpretar JavaScript, CSS (Hojas de estilo en Cascada) y HTML (Lenguaje de Marcado de Hipertexto).
1) En el Proveedor de contenidos
B. Vista de Nodos y Componentes
a. Información de los contenidos
Esta base de datos contiene la meta-información de los contenidos. Por ejemplo: Título, actores, sinopsis y palabras clave, entre otras.
b. Perfiles de usuario
Esta base de datos contiene la información de
cada usuario.
c. Servidor de Contenidos
Se encarga de tener disponibles los contenidos que se transmiten por el canal IP.
d. Recomendador
Relaciona la información de los contenidos y
los perfiles de usuario a través de algoritmos de
filtrado para generar recomendaciones. Aunque el
enfoque utilizado para el desarrollo del presente
trabajo es basado en contenido, la arquitectura
permite el uso de otros como colaborativo o híbrido.
En la Fig. 2 se muestra la vista en nodos y componentes de la arquitectura. Cada componente
representa una unidad de software ejecutable.
Las tareas de cada componente se describen
a continuación.
2) En el Proveedor de Servicio de VoD
a. Servidor de Aplicación de IPTV
Contiene la aplicación de IPTV que se despliega en la pantalla del cliente y se encarga de coordinar interfaces, catálogos, contenidos, servicios
interactivos y recomendaciones que componen el
entorno de VoD. Además, monitorea la actividad
de usuario para coleccionar información referente
a sus gustos y utilizarla en la generación de recomendaciones.
b. Servidor de Servicios interactivos
Se encarga de recibir peticiones por parte del
Servidor de Aplicación de IPTV generadas por
el uso de los servicios interactivos por parte del
usuario. Este nodo obedece a una arquitectura
1) En el Servidor de Contenidos
a. Repositorio de Contenidos
Encargado de almacenar y poner a disposición
para su consumo, los contenidos que hacen parte
del conjunto del servicio de Video bajo demanda.
2) En el Servidor de Bases de Datos
a. Información de los Contenidos
Esta base de datos contiene la meta-información de los contenidos. Por ejemplo: CRID (Identificador de Referencia de Contenido), título, actores,
sinopsis, palabras clave, entre otras. Dependiendo del enfoque del sistema de recomendaciones,
la información puede estar organizada en bases
de datos relacionales o formalizada en una ontología que extrae las clases e instancias de la base
de conocimiento OWL (Lenguajes de Ontologías
Web). En cualquiera de los casos, la información
responde a la especificación TVAnytime, que permite describir de manera ordenada cada contenido detalladamente y posibilita hallar de manera
eficaz correlaciones entre ellos al momento de
realizar recomendaciones.
b. Perfiles de usuario
Esta base de datos contiene la información de
cada usuario. En este contexto, contiene 4 tipos
de información relevantes. El primero son las “Características demográficas” que abarcan datos
como: sexo, edad, profesión, estado civil o núme-
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de
Recomendaciones – Durán, Arciniegas
Fig 1. VISTA DE DESPLIEGUE DE LA ARQUITECTURAFUENTE: LOS AUTORES
Fuente: los autores
Fig. 2. VISTA EN NODOS Y COMPONENTES DE LA ARQUITECTURA
Fuente: lols autores
ro de hijos; e información contextual como la localización del usuario, el horario en que prefiere ver
televisión y el historial de visionado. El segundo,
son “Matrices de valoraciones” que contiene el
historial de DOI que el usuario ha asignado a cada
contenido. El tercer tipo de información es una
“Matriz de interactividad” que contiene información implícita registrada por el sistema mientras
el usuario utiliza los servicios interactivos. Esta
depende de los servicios ofrecidos y puede ser:
tiempo de uso, con qué otros usuarios lo utiliza
y qué tipo de contenido ve mientras lo usa, entre
otros. Finalmente, el cuarto tipo de información es
una estructura perfil-ontología, en la cual el perfil
del usuario está referido a todas las clases de la
ontología (en caso de usarla) para conocer así sus
preferencias.
c. BD de Servicios Interactivos
Contiene la información que manejan los servicios interactivos. Si el servicio es el chat, por
ejemplo, contiene todos los mensajes, qué usuario los introdujo, la hora y fecha, entre otros. O
si es valoraciones, registra los DOI, la fecha y el
usuario que los generó.
81
82
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
3) En el Servidor de Servicios Interactivos
6) En el STB IPTV
a. Servicios Interactivos
Encargado del soporte de los servicios interactivos. De acuerdo a REST y la actividad del usuario,
pone los servicios interactivos a disposición para
que sean consumidos como un recurso a través de
peticiones GET y POST. De acuerdo a esto, registra o consulta información en la BD de Servicios
Interactivos y envía respuestas a la Aplicación de
IPTV en forma de mensajes JSON. Cada servicio interactivo que pertenece a esta componente, tiene
su propio URI (Uniform Resource Identifier).
a. Navegador Web
Navegador Web con el cual vienen equipados
los STB y permite el despliegue y navegación por
la aplicación.
4) En el Recomendador
a. Filtro Basado en Contenido
Utiliza un algoritmo de filtrado basado en contenido sobre la información de los perfiles de usuario
para recomendar a cada persona contenidos similares a los que le interesaron en el pasado.
b. Filtro Colaborativo
Utiliza un algoritmo de filtrado colaborativo
basado en vecinos cercanos sobre la información
del perfil de cada usuario para realizar recomendaciones de contenidos que interesaron a usuarios similares.
c. Agente Híbrido
Encargado de aplicar criterios de decisión para
definir qué contenidos harán parte de la lista de
recomendaciones. Esta puede estar compuesta
por contenidos generados por el filtrado basado
en contenido, el colaborativo o un porcentaje de
cada uno.
5) En el Servidor de Aplicación de IPTV
a. Monitor de Usuario
Registra la actividad del usuario y almacena información relevante en las BD Perfiles de Usuario
y BD de Servicios Interactivos
b. Aplicación IPTV
Organiza la información en interfaces que serán presentadas al usuario en pantalla. Según la
actividad, obtiene información de contenidos y
usuarios, además, envía peticiones GET y POST a
los Servicios interactivos y desglosa los mensajes
JSON recibidos para incorporarlos en las interfaces. Por otro lado, según la demanda de cada
usuario, envía peticiones de contenidos al Servidor de Contenidos y los despliega en pantalla.
V. ARQUITECTURA DINÁMICA
Una manera de ver la relación dinámica entre
los componentes de la arquitectura es mediante
un diagrama de secuencia. Para ello se ha seleccionado el siguiente escenario: un usuario accede
al servicio de VoD, luego califica la calidad de un
contenido a través del servicio de valoraciones,
finalmente el sistema realiza el proceso para generar recomendaciones (ver Fig. 3).
El flujo de información inicia cuando el Usuario
introduce la dirección URL de la Aplicación IPTV. La
Aplicación IPTV realiza la petición de la información
de los contenidos a la base de datos Información
de Contenidos a través de sentencias SQL. Ahora
la aplicación se despliega a través del navegador.
El Usuario desea utilizar el servicio de valoraciones,
por lo que la Aplicación IPTV realiza su invocación
a través de peticiones GET, su URL y puerto a Servicios Interactivos. Los Servicios Interactivos realizan la petición de la información relacionada con el
servicio de valoraciones a la base de datos BD de
Servicios Interactivos a través de sentencias SQL.
Esta información es recibida por la Aplicación IPTV
en forma de mensajes JSON, que son desglosados
y mostrados en pantalla a través de las interfaces
gráficas. Con la navegación e interacción del usuario en el servicio, la información (de contenidos y
servicios) presentada en pantalla se actualiza dinámicamente haciendo uso de JavaScript y Ajax
(JavaScript y XML Asíncronos). Por ejemplo, si hay
una nueva valoración de otro usuario, la nueva valoración promedio debe actualizarse. Cuando el
Usuario realiza la valoración, el Monitor de Usuario
registra el valor en la BD de Servicios Interactivos
para que sea tenido en cuenta en los próximos
usos y en la BD perfiles de Usuario para coleccionar información referente a sus gustos y realizar
recomendaciones posteriormente. Para generar
recomendaciones, el Filtro Basado en Contenido
ejecuta algoritmos de filtrado sobre la información
registrada en BD Perfiles de Usuario para generar
una lista de recomendaciones, que posteriormente
se registra en la BD Perfiles de Usuario.
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de
Recomendaciones – Durán, Arciniegas
Fig. 3. DIAGRAMA DE SECUANCIAS QUE RELACIONA LOS COMPONENTES A PARTIR DE UN ESCENARIO ESPECíFICO
Fuente: los autores def GET(self, args): class recomendaciones: http://servidor:puerto/recomendaciones/?idusuario=1 idusuario = web.input(‘idusuario’).idusuario
VI. PROTOTIPO
A continuación se describe un prototipo de arquitectura que menciona lenguajes, plataformas,
metodologías, tecnologías y protocolos utilizados
y demuestra la interoperabilidad y convergencia
que permite la arquitectura.
A. Servicios Interactivos
Este componente fue desarrollado en lenguaje
Python en el entorno Eclipse en Linux. Para una
buena configuración del entorno de desarrollo, es
necesaria la instalación de: complemento Pydev
para Eclipse, librerías Python de desarrollo, librerías de networking Python web.py y gevent, además del paquete de índice Python Greenlet. La
aplicación es creada como un proyecto PyDev y
se elige Python como intérprete. Según los principios de REST, en este componente se define cada
servicio interactivo al especificar para él una URI.
En el siguiente fragmento de código se define el
servicio de recomendaciones, para el cual se ha
especificado su URI. El servicio es consumido por
la Aplicación IPTV mediante una petición GET que
incluye datos como el Id del usuario para el cual
se requiere consultar la lista de recomendaciones.
Con los datos recuperados a partir del URI
puede definirse la lógica del servicio, por ejemplo
para realizar consultas en bases de datos.
B. El Sistema de Recomendaciones
Es un sistema de recomendaciones basado en
contenido, resultado de la adaptación de la metodología propuesta en [19]. Las características
de dicho trabajo utilizadas en el presente estudio
son: se basa en los DOI dados por cada usuario a
cada contenido a través del servicio de valoraciones; los contenidos están organizados y formalizados en una ontología OWL, basada en la clasificación por “Géneros” de la norma TVAnytime en la
que las clases hoja son los géneros; cada contenido está definido como individuo de varias clases
hoja con dos propiedades de tipo Datype llamadas CRID y Título. Como resultado del presente
estudio, algunas características relacionadas con
los contenidos – además relevantes para generar
recomendaciones – pueden definirse dentro de la
ontología con una clasificación diferente a la de
los géneros. En este caso, la característica “Director” está formalizada en la ontología OWL como
una clase hoja y sus individuos son los contenidos
en los que ha sido director. Igual que como ocurre
83
84
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
con los géneros, cada individuo de cada director
tiene las propiedades CRID y Título. En la Fig. 4, se
presenta un fragmento de la clasificación por géneros de ontología desarrollada en la herramienta
Protégé [23]. Aquí, la película Titanic tiene CRID
igual a 005 y es individuo de la clase hoja Aventura (Adventure). En pro de las recomendaciones,
también pertenece a las clases hoja Desastre (Disaster) y Drama Clásico (Classical drama). Así mismo, en la Fig. 5 se observa un fragmento de la clasificación por director, en la que la película Titanic
es un individuo de la clase hoja James Cameron.
Para generar las recomendaciones, primero se
realiza el cálculo del nivel de interés de las clases
hoja del género y director para cada Usuario.
Fig. 4. FRAGMENTO DE LA CLASIFICACIÓN POR GÉNERO DE LA ONTOLOGíA
DESARROLLADA EN PROTÉGÉ
Fuente: los autores
Fig. 5. FRAGMENTO DE LA CLASIFICACIÓN POR DIRECTOR DE LA ONTOLOGíA DESARROLLADA EN PROTÉGÉ
La lista de recomendaciones está compuesta
por los contenidos pertenecientes a las clases
hoja con mayor DOI para un usuario.
Se propone enriquecer la ontología con más
características de clasificación como: “Actor principal”, “País”, “Año”, “Actores de reparto”, entre
otros. De esta manera, se generan sugerencias
basadas en los gustos de cada usuario y variadas en cuanto a temática, se soluciona así el problema de sobre-especialización de los sistemas
de recomendaciones basados en contenido.
C. Información de los contenidos
La información de los contenidos es de dos
tipos: meta-información y ontología OWL. La meta-información (CRID, Título, Sinopsis y actores,
entre otros) es la que se presenta en pantalla
cuando el usuario navega por los catálogos y
está registrada en una base de datos relacional.
La ontología OWL se utiliza para clasificar los
contenidos según su género y otras características, como se indica en la sección VI-A. La ontología se especifica en un documento de texto
plano con extensión OWL generado por Protégé.
Este documento es consultado por otros componentes de la arquitectura para generar recomendaciones. Un fragmento de este documento
se muestra a continuación, donde se especifica
el género (Adventure) y CRID (005) de la película Titanic.
<Adventure rdf:ID=”Adventure_2”>
<Title
rdf:datatype=”http://www.w3.org/2001/
XMLSchema#string”
>Titanic</Title>
Fuente: los autores
Para esto, se promedian los DOI de todos los
contenidos que pertenecen a una clase hoja, por
medio de la expresión:
<CRID
rdf:datatype=”http://www.w3.org/2001/
XMLSchema#string”
>005</CRID>
</Adventure>
donde DOI px(Cp) es el nivel de interés del
usuario con perfil px por la clase hoja Cp, N es el
total de contenidos que pertenecen a la clase hoja
Cp y DOI px(Pi) es el DOI del usuario con perfil px
por el contenido Pi.
D. Perfiles de Usuario
Esta información está organizada en bases
de datos relacionales. Además de almacenar
información demográfica (Nombre, edad y género, entre otros) contiene información en una
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de
Recomendaciones – Durán, Arciniegas
estructura denominada perfil-ontología que modela los gustos del usuario relacionándolo con
cada contenido y cada clase hoja de la ontología. En la Fig. 6 se presenta un fragmento de
información perfil-ontología, donde está registrado el DOI asignado por diferentes usuarios a
diferentes contenidos. Se puede observar que
el usuario con Id 1 ha valorado el contenido con
CRID 005 (Titanic) con un DOI igual a 5 y el 003
(Locos de ira) con un DOI igual a 3.
Fig. 6. FRAGMENTO DE INFORMACIÓN PERFIL-ONTOLOGíA QUE RELACIONA
CADA PERFIL Y SUS DOI POR CADA CONTENIDO
Fuente: los autores
Los datos presentados en la Fig. 6 son utilizados para calcular el DOI de cada usuario por
cada una de las clases hoja de la ontología a
través de (1). En la Fig. 7 se presenta un fragmento de información perfil-ontología donde
está registrado el DOI de cada usuario por cada
una de las clases hoja de la clasificación por género. Aquí, el usuario con id 1 presenta un DOI
por la clase hoja Desastre (Disaster) igual a 5 y
por la clase hoja Aventura (Adventure) un DOI
igual a 3. Se infiere que este usuario presenta
un mayor interés por el género Desastre que por
Aventura. Además, no ha valorado contenidos
clasificados en el género Detective, por lo que
no se puede inferir conclusión alguna.
Fig. 7. FRAGMENTO DE INFORMACIÓN PERFIL-ONTOLOGíA DONDE SE
RELACIONA CADA PERFIL Y SUS DOI POR CADA CLASE HOJA DE LA ONTO-
LOGíA EN LA CLASIFICCIÓN POR GÉNERO
Fuente: los autores
En la Fig. 8 se presenta otro fragmento perfilontología donde está registrado el DOI de cada
usuario por las clases hoja de la clasificación por
director.
Fig. 8. FRAGMENTO DE INFORMACIÓN PERFIL-ONTOLOGíA DONDE SE
RELACIONA CADA PERFIL Y SUS DOI POR CADA CLASE HOJA DE LA ONTOLOGíA EN LA CLASIFICCIÓN POR DIRECTOR
Fuente: los autores
E. Filtro Basado en Contenido
Este componente está desarrollado en lenguaje Java debido a la disponibilidad de librerías disponibles para la consulta de ontologías.
Consulta en la BD Perfiles de Usuario los datos de la Fig. 6 y consulta la ontología haciendo
uso del framework Jena [25] para descubrir a
qué clases hoja pertenece cada contenido valorado. Después aplica (1) para obtener el DOI del
usuario por las clases hoja de la ontología. Así
se obtiene la información presentada en la Fig.
7 y Fig. 8. A partir de estos datos, se infiere el
interés de cada usuario por los géneros, los directores y otras características que puedan ser
formalizadas en la ontología y generar la lista
de recomendaciones final. Por ejemplo, según
la información presentada en la Fig. 7 y Fig. 8,
se infiere que los contenidos recomendados deben ser en mayor proporción del género Desastre, menor de Aventura, y ninguna de Comedia.
Así mismo, se pueden recomendar contenidos
dirigidos por James Cameron y ninguno por Sylvester Stallone.
F.
Aplicación IPTV
Este componente se desarrolló en el entorno
de desarrollo Netbeans bajo la tecnología Java
JSP. Las interfaces se definieron en HTML, añadiéndole dinámica a través de JavaScript, específicamente con la librería Jquery. Para mostrar
información dinámica, es necesario realizar el
consumo de los servicios interactivos a través
de peticiones GET y POST. Debido a que JavaScript está del lado del cliente, y las peticiones a
los servicios interactivos están del lado del servidor, es necesario el uso de técnicas AJAX para
invocar Servlets que realicen las peticiones directamente. Por ejemplo, para la validación a
través de usuario y contraseña primero se hace
la invocación de un Servlet así:
85
86
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
$.ajax({
url : “/vod/ValidaServlet”,
data: “login=”+login+”&password=”+password,
type : “GET”,
cache : true,
La Fig. 10 muestra la interfaz que presenta el
servicio interactivo del chat.
La Fig. 11 muestra la interfaz del servicio de
recomendaciones.
Fig. 10. INTERFAZ QUE PRESENTA EL SERVICIO INTERACTIVO DE CHAT
success : function(response) {} })
El servlet realiza la petición GET al componente
de Servicios Interactivos, especificando el URI del
servicio encargado de la validación de usuarios:
response=rc.get(“http://”+servidor+”:”+puerto+”/
validacion/?login=”+login+”&password=”+passwo
rd);
Las respuestas enviadas por el componente
de Servicios interactivos tienen formato JSON, por
lo que es necesario desglosarlas para recuperar
la información útil que será presentada en pantalla. Para esto se hace uso de Jquery:
Var respuesta
Fuente: los autores
Fig. 11. INTERFAZ QUE PRESENTA EL SERVICIO DE RECOMENDACIONES
= jQuery.parseJSON(response);
exito =respuesta.exito;
nombre = respuesta.Nombre;
idusuario=respuesta.id;
VII. APLICACIÓN FINAL DE USUARIO
A continuación se describe de forma general el
uso de la aplicación de usuario. Una vez el usuario
ingresa el URI de la aplicación a través del navegador Web, debe ingresar los datos de autenticación: usuario y contraseña. Si los datos de autenticación son correctos, se notifica que el usuario se
ha autenticado correctamente.
La Fig. 9 muestra la interfaz del prototipo que
presenta la organización de servicios, catálogos y
reproducción de contenidos.
Fig. 9. INTERFAZ DEL PROTOTIPO QUE PRESENTA LA ORGANIZACIÓN DE
SERVICIOS, CATÁLOGOS Y REPRODUCCIÓN DE CONTENIDO
Fuente: los autores
VIII. PRUEBAS SOBRE EL PROTOTIPO
A. Entorno de pruebas
Para la realización de pruebas, se configuró
una red como la mostrada en la Fig. 12. Un equipo es el servidor de la Aplicación IPTV, otro es el
encargado de generar tráfico IP en la red con la
herramienta Ostinato, otro es el monitor encargado de capturar datos con Wireshark, y el último es
el cliente que realiza el consumo de la aplicación y
obtiene datos de tiempo de respuesta con Jmeter.
Con esta configuración, se realizó un conjunto
de pruebas de rendimiento y de ancho de banda
sobre el prototipo de la arquitectura propuesta.
B. Pruebas de Rendimiento
Fuente: los autores
Se realizó dos pruebas de estrés relacionadas
con el rendimiento del sistema con el fin de pre-
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de
Recomendaciones – Durán, Arciniegas
decir su tiempo de respuesta frente a un conjunto
de peticiones GET de acuerdo a los principios de
REST. Al hacer uso de la herramienta Jmeter, se
configuraron las pruebas de la siguiente manera: 1) se simuló un grupo de 50 usuarios que al
tiempo realizaron 3 peticiones GET cada uno; 2)
se simuló un grupo de 100 usuarios que al tiempo
realizaron 3 peticiones GET cada uno.
Fig. 12. CONFIGURACIÓN DE LA RED PARA PRUEBAS
Fuente: los autores
Para las dos pruebas se configuró Jmeter de
tal forma que las tres peticiones consistieron en
validación, petición de los mensajes del chat y petición de la lista de recomendaciones. El análisis
de los resultados obtenidos con Jmeter se hace
calculando un intervalo de confianza con un nivel
de 95%, suponiendo una distribución Normal de
la población. Los datos de la primera prueba se
presentan en la Fig. 13.
Fig. 13. RESULTADOS DE RENDIMIENTO CON JMETER
el cual define los límites entre los que se espera una
respuesta del servidor para una cantidad de usuarios que realiza peticiones de forma simultánea.
donde: tiempo promedio de respuesta TP= 270
ms; Z0,95=1,96; desviación estándar D=64,57; número de muestras n =12.000. Al remplazar los
valores en (2) se obtuvo el intervalo de confianza:
[268,8447; 271,1553] en milisegundos. En
la segunda prueba y con un procedimiento como
el anterior, se obtiene un intervalo de confianza:
[550,6053; 553,3946] en milisegundos. Según
los resultados, el uso de los principios de REST en
la arquitectura permite la implementación de servicios interactivos que bajo situaciones de estrés presentan un buen rendimiento, si se tiene en cuenta
los límites relacionados con el tiempo de respuesta
de una aplicación web [26]: 1 segundo es el límite
en el cual el usuario siente que navega libremente
sin esperar demasiado una respuesta del servidor.
C. Pruebas de Ancho de Banda
Sobre el terminal de monitoreo se hizo un análisis de ancho de banda, con los datos de paquetes capturados por la herramienta Wireshark.
La Fig. 14 corresponde al ancho de banda generado por la validación, petición de los mensajes
de chat, y petición de la lista de recomendaciones.
Se observa que se realiza un consumo periódico
de ancho de banda de aproximadamente 80 Kbps
que equivale al 2% de la velocidad del enlace (5
Mbps). La periodicidad es generada por la comunicación continua entre el cliente y el servidor, con
el fin de establecer una actualización continua de
información en servicios como el chat o las valoraciones promedio.
Fig. 14. ANCHO DE BANDA UTILIZADO POR EL USO DE LOS SERVICIOS
INTERACTIVOS
Fuente: los autores
En la primera prueba, el servidor respondió a
los 50 hilos con un rendimiento de 181,7 peticiones por segundo. Así mismo, el tiempo promedio
para recibir una respuesta del servidor es de 270
milisegundos, realizándose un total de 12000 peticiones GET. Con los datos de la Fig. 13, se calcula un intervalo de confianza determinado por (2),
Fuente: los autores
87
88
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 77 - 89
La Fig. 15 muestra la relación entre el ancho
de banda total de la red, el ancho de banda utilizado por otros servicios aparte de la Aplicación IPTV
y el utilizado cuando se reproduce un contenido
en la aplicación. Se observa que la reproducción
del contenido utiliza casi la totalidad del ancho de
banda disponible, mientras se reduce el utilizado
por otros servicios. Este resultado no se obtendrá
siempre que se reproduzca un contenido en la
Aplicación IPTV, debido a que está diseñada para
una red no gestionada que no asegura QoS. Es
decir, en algunas situaciones el ancho de banda
de otros servicios hará que se reduzca el de la
Aplicación IPTV en un entorno Web real.
Fig. 15. ANCHO DE BANDA UTILIZADO POR LA REPRODUCCIÓN DE UN
CONTENIDO
Fuente: los autopres
IX. CONCLUSIONES
La arquitectura para el soporte del servicio de
VoD apoyada en interactividad y sistemas de recomendaciones provee aportes en el área de la
telemática como la convergencia de tecnologías,
técnicas, protocolos, lenguajes y plataformas
como Java, HTML, Python, JSON, REST y OWL,
para ofrecer servicios de la web 2.0 en el contexto de VoD en IPTV. Además permite: el despliegue
de servicios de apoyo, por ejemplo valoraciones,
chat y recomendaciones con el fin de mejorar la
experiencia del usuario en el uso del servicio de
VoD; y la generación de conocimiento colaborativo
en torno a un contexto específico, en este caso el
cine.
Con el objetivo de generar recomendaciones
más acertadas, posibilita el uso de servicios que
permiten coleccionar información acerca de las
preferencias de los usuarios. Por ejemplo, a través
de la actividad en el chat, es posible inferir un porcentaje del nivel de interés de un usuario por un
contenido sin que éste tenga que especificarlo a
través del servicio de valoraciones. Debido a que
existe el riesgo de que se afecte la privacidad de
los usuarios, es necesario el uso de un mecanismo por medio del cual se acepten los términos de
dicha inferencia.
Esta arquitectura puede utilizarse en entornos
comerciales de demanda de películas y series de
televisión. Desde el punto de vista académico,
puede dar soporte a Comunidades Académicas
Virtuales, en las que los miembros pueden generar y compartir contenidos educativos e intercambiar y construir conocimiento sobre un tema
específico.
El prototipo del servicio se validó a través de
pruebas de rendimiento y ancho de banda en el
Laboratorio de Televisión Digital de la Universidad
del Cauca en un entorno controlado del canal.
Como resultados, se estimó que en un escenario
real el sistema podría responder a las peticiones
de los usuarios de forma rápida en situaciones
de estrés (elevado número de peticiones simultáneas). Esto, debido al uso de los principios de
REST en la arquitectura, definidos para un consumo mínimo de recursos. De la prueba de ancho de
banda, se encontró un comportamiento acorde al
de un servicio sobre una red no gestionada: no se
asegura QoS.
AGRADECIMIENTOS
Este proyecto se desarrolló con el apoyo de la
Universidad del Cauca-Colombia, los proyectos
STCAV (Servicios de t-Learning para el Soporte de
una Comunidad Académica Virtual), GESTV (Plataforma de Gestión para un Sistema de t-Learning),
Redauti y el grupo de investigación del Laboratorio
de Televisión Digital de Vigo-España.
REFERENCIAS
[1]
J. Hjelm, Why IPTV?, Interactivity, Technologies and
Services. UK: Wiley, 2008, p. 358.
[2]
F. Moumtadi, M. Escobar, R. Argota, y S. Landeros, “Reducción del retardo en el cambio de canal en servicios
IPTV,” Ingeniería, Investigación y Tecnología, vol. 9,
No. 3, pp. 217–229, Ene. 2008.
[3]
R. Turrin and P. Cremonesi, “Recommender Systems
for Interactive TV,” 8th European Conference on Interactive TV and Video Tutorial, Jun. 2010.
[4]
S. Vogl, P. Halbmayer, and C. Lichtenberger, “Media
Space Navigator: Navigating Video Content on IPTV
Arquitectura para el Despliegue del servicio de Video bajo Demanda de IPTV, apoyada en Interactividad y Sistemas de
Recomendaciones – Durán, Arciniegas
[15]
B. Sarwar, G. Karypis, J. Konstan, and J. Riedl, “ItemBased Collaborative Filtering Recommendation,”
Proceedings of the 10th international conference on
World Wide Web, pp. 285-295, May 2005.
[16]
W. Campo, G. Chanchí, y J. Arciniegas, “Arquitectura
para el Soporte de Comunidades Académicas Virtuales en Ambientes de TDi”, Universidad del Cauca, Colombia, 2010.
[17]
Proyecto ST-CAV, disponible en: http://www.unicauca.
edu.co/stcav/. Consultado el 1 de Julio de 2012.
[18]
J. Lloret, M. García, F. Boronat, “IPTV: la televisión por
Internet”, Editorial Vértice, Málaga, España, 2008, p.
230.
[19]
Y., Blanco, Propuesta Metodológica para el Razonamiento Semántico en Sistemas de Recomendación
Personalizada y Automática. Vigo, España: Universidad de Vigo, 2007.
[20]
M. Björkman, L. Aroyo, M. Bellekens, T. Dekker, E. Loef
and R. Pulles, “Personalised Home Media Centre Using Semantically Enriched TV-Anytime Content,” 4th
European Conference on Interactive Television (EuroITV-06), pp. 165-173, May 2006.
[21]
X. Li, L. Xie, and G. Liu, “Study of VOD Server Architecture with the Array of the Balanced Nodes in Storage and Networks,” Frontier of Computer Science and
Technology (FCST), 2010 Fifth International Conference, pp. 214-218, Aug. 2010.
[22]
O. Friedrich, R. Seeliger, A. Al-Hezmi, C. Riede, and S.
Arbanowski, “ Prototyping Interactive and Personalized
IPTV-Services on Top of Open IMS Infrastructures,” 8th
European Conference on Interactive TV and Video, pp.
204-208, Jun. 2010.
[23]
The Protégé Ontology Editor and knowledge Acquisition System. Disponible: http://protege.stanford.edu.
Consultado el 1 de Julio de 2012.
[24]
UK Government Digital Television. Disponiblehttp://
www.digitaltelevision. gov.uk. Consultado el 1 de Julio
de 2012.
Python Programming Language. Disponible: http://
www.python.org/. Consultado el 1 de Julio de 2012.
[25]
Apache Jena. Disponible: http://jena.apache.org/.
Consultado el 1 de Julio de 2012.
G. Held, Understanding IPTV. New York: Auerbach publications, 2007, p. 189.
[26]
J. Nielsen, Usability Engineering. San Francisco, USA:
Morgan Kaufman, 1994.
Portals,” Lecture Notes in Computer Science, vol.
5066, pp. 248-252, Jul. 2008.
[5]
[6]
[7]
[8]
[9]
[10]
C. Zheng and Z. Ming, “An efficient video similarity
search strategy for video-on-demand systems,” Broadband Network & Multimedia Technology, IC-BNMT ‘09.
2nd IEEE International Conference, pp. 174-178, Oct.
2009.
C. Tan, G. Chang, X. Wang, and C. Zhu, “An EPG Recommender Framework with Information Exchange
between Users,” Hybrid Intelligent Systems, HIS ‘09,
ninth International Conference, vol. 2, pp. 453-456,
Aug. 2009.
B. Xiao, J. Yan, X. Guo, and L. Leung, “IPTV: User Behavior Analysis,” Management and Service Science,
2009. MASS ‘09. International Conference, pp. 1-4,
Sep. 2009.
M. Ahmad, J. Qadir, N. Rehman, A. Baig, and H. Majeed,
“Prediction-based channel zapping latency reduction
techniques for IPTV systems — A survey,” Emerging
Technologies, 2009. ICET 2009. International Conference, pp. 466-470, Oct. 2009.
M. Kim, S. Min Ko, J. Mun, G. Ji, and M. Jung, “A USABILITY STUDY ON PERSONALIZED EPG (PEPG) UI OF
DIGITAL TV,” LECTURE NOTES IN COMPUTER SCIENCE,
vol. 4552, pp. 892-901, jul. 2007.
Y. Xue and Q. Gong, “Study on Internet Recommendation System of Collaborative Filtering Based on Scatter Diference,” Computer, Mechatronics, Control and
Electronic Engineering (CMCE), International Conference, vol. 1, pp. 160-163, Aug. 2010.
[11]
K. Lee, K. Cho, and W. Ryu, “Social TV Service: A case
study,” Consumer Electronics (ICCE), IEEE International Conference, pp. 287-288, Jan. 2011.
[12]
E. Kim and S. Ko, “Investigating User Adoption of Tcommerce,” Computers, Networks, Systems and Industrial Engineering (CNSI), First ACIS/JNU International conference, pp. 95-99, May. 2011.
[13]
[14]
89
Factores del entorno que influyen en la adopción
de e-procurement en empresas de la industria del
mueble en España
Influence of environmental factors on e-procurement adoption
process in furniture industry in Spain
Alba Soraya Aguilar-Jiménez
PhD. Integración de las Tecnologías de Información en las
Organizaciones, Universidad Politécnica de Valencia (España)
Docente Tiempo Completo, Investigadora Grupo GEETIC,
Universidad Pontificia Bolivariana
Bucaramanga, Colombia
[email protected]
Resumen— Este estudio examina los factores del entorno empresarial, asociados con la adopción de innovaciones TIC para el aprovisionamiento electrónico en
pequeñas y medianas empresas. La comprobación empírica se llevó a cabo a partir de información suministrada
por e-business w@tch de un grupo de 120 empresas del
sector del mueble en España. Se empleó en el análisis
de asociación por medio de Tablas de contingencia para
encontrar relación estadísticamente significativa entre la presión externa recibida de los proveedores para
adoptar determinadas TIC y la ubicación geográfica de
los principales proveedores con el nivel de adopción de
innovaciones TIC para el aprovisionamiento.
Palabras clave— Adopción de innovaciones, tecnologías de información y comunicaciones, influencia de
proveedores, pyme, industria del mueble, aprovisionamiento electrónico.
Abstract— This study examines external factors, associated with the adoption of ICT innovations for electronic procurement in SMEs. The empirical test was conducted based on information supplied by e-business w@
tch survey on a group of 120 companies in the furniture
industry in Spain. It was used in association analysis,
basing on contingency tables that found statistically
significant relationship between pressure received from
external suppliers to adopt ICT, and the geographic location of the main suppliers with the level of adoption of
ICT innovations for procurement.
Keywords— Adoption of innovations, information and
communications technologies, suppliers influence,
SME, furniture industry, e-procurement.
I. INTRODUCCIÓN
Tradicionalmente el proceso de compras se
ha limitado al uso del teléfono, correo electróni-
co, fax o EDI (Intercambio electrónico de datos Electronic Data Interchange), pero las compras a
través de Internet han abierto un nuevo mundo a
empresas y proveedores, que ofrecen numerosas
herramientas que ayudan a realizar todo tipo de
actividades de aprovisionamiento.
El concepto de “e-procurement” (aprovisionamiento electrónico), entendido como la realización de actividades operativas y estratégicas asociadas a los procesos de aprovisionamiento en
las empresas y sus relaciones con proveedores,
empleando para ello Tecnologías de información
y comunicación (en adelante TIC) e Internet [1],
está cobrando fuerza en empresas de diferentes
tamaños. Las organizaciones, cada vez, dan más
importancia al uso de TIC e Internet en el proceso
de compras pues encuentran una cantidad enorme de beneficios potenciales ya que permiten
mejorar los flujos de información entre empresas
y, a su vez, aumentar la cooperación y disminuir
los costes y el tiempo de las transacciones y se
mejora con ello las relaciones entre proveedores
y clientes [2].
Las ventajas más conocidas del uso del aprovisionamiento electrónico apuntan a la reducción
de tiempos, costes y carga administrativa, así
como a la mejora de las relaciones entre proveedores y clientes y conformación de redes, e incluso hay quienes aseguran que tiene una influencia
directa en la mejora de resultados financieros [2],
[3], [4], [5], [6], [7], [8], [9], [10]
Recibido: 26/02/2013/ Aceptado: 17/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
Sin embargo, si bien las ventajas de la adopción del e-procurement (en adelante se utilizará
como sinónimo de aprovisionamiento electrónico)
son más que conocidas, no todas las empresas
pueden esperar obtener los mismos beneficios ya
que estos pueden ser de diferentes tipos y depender de múltiples factores y, por tanto, el proceso
de adopción de las TIC debe estar acorde a sus
condiciones particulares y a las exigencias del entorno.
Pequeñas y medianas empresas cada vez son
más conscientes de la importancia de invertir en
TIC, más aún si estas inversiones redundan en beneficios tangibles [11]. Para el caso del aprovisionamiento electrónico, si bien se han identificado
beneficios estratégicos, operacionales y de oportunidad [6], siguen existiendo barreras que inhiben este proceso de adopción [12], [13], [14], e
incluso hay estudios que resaltan la existencia de
inhibidores del uso de las TIC en diferentes contextos empresariales [12], [13], [15], [16], [17],
[18].
Algunos de los autores [19], [20], [21], [22],
[23], [24], consideran que la adopción de TIC sigue el proceso de cualquier otra innovación dentro de una empresa. Este proceso de difusión de
innovaciones, entendidas como las prácticas u
objetos percibidos como nuevos por un individuo
o grupo de individuos, ha sido ampliamente estudiado por Everett Rogers [25] y busca explicar la
manera como las personas, los grupos, las organizaciones, comunidades y sociedades adoptan
una innovación de cualquier tipo. El proceso de
difusión de innovaciones sigue una curva en forma de “S” en función de la velocidad de adopción
y el número de adoptantes, y explica claramente
cómo nuevas ideas y productos se distribuyen, y
por qué otros muy buenos no logran hacerlo o no
permanecen el tiempo necesario para tener éxito [25]. De acuerdo con este planteamiento, los
recursos de TIC son herramientas que apoyan el
proceso de transformación organizacional, y son
considerados innovaciones que deben ser difundidas gradualmente en las empresas al pasar por
unas etapas predefinidas; lo que hace que estas
propuestas evolutivas consideren todo tipo de tecnologías, desde hardware, hasta software, bases
de datos y redes; como parte del proceso. Este
planteamiento se condensa de manera explícita
en el “modelo teórico para la adopción de innova-
ciones TIC para el aprovisionamiento empresarial”
propuesto por Aguilar-Jiménez [1], y se emplea
como base para analizar el proceso de adopción
del e-procurement en el presente estudio.
Este fenómeno ha sido ampliamente estudiado desde diversas perspectivas, contextos y modelos teóricos [19], [20], [22], [23], [26], [27],
[28], que permite identificar aspectos comunes
que influyen en la toma de decisiones en relación
a la adopción de innovaciones de TIC. En España, las pequeñas y medianas empresas (pymes1)
cada vez tienen mayor acceso a las TIC y muestran un notable interés hacia su incorporación,
sin embargo, es evidente que la adopción de innovaciones TIC para soportar procesos de aprovisionamiento es un proceso progresivo en el que
influyen diversos aspectos. Este grupo de empresas no sólo tienen características diferentes entre
sí, sino necesidades específicas y disponibilidad
de recursos generalmente limitada, razón por la
cual el análisis de los aspectos que influyen adopción de innovaciones de TIC en las empresas para
soportar actividades de aprovisionamiento, debe
estar adaptado a sus condiciones particulares.
Este análisis es un tema que ha llamado la
atención de diferentes autores en todo el mundo,
quienes han estudiado este proceso en diferentes
contextos [4], [6], [7], [14]. Este interés particular
se refleja en estudios tempranos realizados principalmente en Estados Unidos, como es el caso
del análisis de la adopción de EDI realizado por
Iacovou et al. [29] o de factores de influencia en el
aprovisionamiento electrónico realizado por Heckman [30], pero que, cada vez más, despiertan el
interés científico como lo demuestran los estudios
de los últimos años ya no sólo en Estados Unidos
sino en países de Europa y Asia [14], [31], [32],
[33], [34], [35], [36], [37], [38], [39], [40], [41],
[42], [43], [44]. Estos estudios en general evidencian de una parte la existencia de aspectos de diversos tipos que influyen en que las empresas tomen la decisión de invertir en TIC, y de otra parte
el hecho de que empresas de todos los sectores,
1 El acrónimo PYME (Pequeña y Mediana Empresa) ha sufrido
un proceso de lexicalización que lo ha convertido en un nombre
común. La última edición del Diccionario de la RAE la califica como
sustantivo femenino con el significado de “empresa mercantil, industrial, etc., compuesta por un número reducido de trabajadores, y con un moderado volumen de facturación”. El plural de este
sustantivo es pymes. www.rae.es. Septiembre 30 de 2010.
91
92
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
tamaños y países cada vez son más conscientes de
la importancia del uso de estas TIC en sus actividades y comunicaciones diarias, así como de formar
parte de redes virtuales. Sin embargo, pese a ser
un tópico ampliamente estudiado a nivel internacional, en España todavía hay mucho por explorar,
no sólo a nivel de la adopción de innovaciones de
TIC en el aprovisionamiento empresarial, sino enmarcado en la realidad de la pyme española de
sectores industriales específicos.
En este orden de ideas, el presente trabajo busca identificar, a nivel teórico y con ayuda de fuentes
de información secundarias, los aspectos del entorno empresarial que inciden en el proceso de adopción de innovaciones TIC en actividades de aprovisionamiento, en pequeñas y medianas empresas
en España del sector de fabricación del mueble.
II. LAS TIC EN EL APROVISIONAMIENTO
EMPRESARIAL DE PYMES
Desde la irrupción de Internet, las pymes
como el resto de empresas, se han visto inmersas en una nueva realidad en la que el uso de TIC
juega un papel preponderante en el posicionamiento en los mercados, con sus consecuentes
efectos en la competitividad y rentabilidad esperada, situación que las ha llevado a desarrollar
nuevos modelos de negocio basados en estrategias fundamentadas en torno a ineludibles inversiones en tecnología. El fenómeno de las TIC
en la evolución del negocio electrónico especialmente en grandes empresas norteamericanas y
europeas ha sido ampliamente tratado por diversos autores [45], [46], [47], [48] y, aunque no
son muchos los que han adaptado sus modelos
de investigación a condiciones particulares, por
ejemplo, a las pymes, sectores industriales o ámbitos territoriales específicos, no por ello se puede negar o afirmar que sus resultados sean válidos en cualquier contexto empresarial analizado.
Según Grandon y Pearson [49], los beneficios
del comercio electrónico no son solamente para
las grandes empresas, las pymes pueden también beneficiarse de él, adicionalmente creen
que su adopción puede “nivelar el campo de juego” con las grandes empresas, para proporcionar
independencia espacial y temporal y facilitar la
comunicación [49]. En la actualidad las Pymes
han descubierto que pueden utilizar el formato
universal de la tecnología de Internet para obtener muchos de los beneficios asociados con el
intercambio electrónico de datos con clientes y
proveedores, sin necesidad de realizar costosas
inversiones en equipos informáticos, software y
asistencia técnica especializada [48], lo que vincula cada vez más a las pymes al mundo del negocio electrónico.
En lo que se refiere a la gestión de la cadena
de suministro, Internet sirve de soporte al desarrollo conjunto de un producto, pasando por la
identificación y desarrollo de los proveedores o
e-procurement, la gestión de la demanda, logística y en general de los diversos procesos y sistemas empresariales [50]. Sin embargo, si bien
el uso de Internet en la gestión de compras se
ha desarrollado rápidamente al crear una gran
variedad de aplicaciones para apoyar los procesos de aprovisionamiento en la empresa [51], el
e-procurement no ha sido suficientemente difundido y adoptado de manera homogénea en empresas de diferentes tamaños y sectores industriales. Las empresas españolas, y en especial
las Pymes han reaccionado a las alteraciones del
entorno asociadas al uso de TIC en forma desigual entre ellas, situándolas en desventaja en
cuanto a los efectos de su uso en la competitividad [23].
El uso de las TIC y en especial de Internet en
actividades de aprovisionamiento ha desencadenado una revolución importante en las relaciones entre empresas (Business to Business - B2B)
y proveedores, sin embargo el grado de asimilación de dichas tecnologías aún es incipiente especialmente en pymes españolas, las cuales en
muchos casos aún realizan sus compras por métodos tradicionales o se encuentran en etapas
tempranas de adopción [5], [8], [23], [52], [53],
[54]. La dinámica de adopción de TIC en el negocio electrónico ha sido caracterizada como un
proceso evolutivo por el que las empresas deben
pasar de manera gradual y que usualmente van
desde niveles iniciales asociados con un primer
acercamiento de la empresa a los recursos ofrecidos por Internet, hasta niveles avanzados de
transformación organizacional basada en la red
[27], [53], [55], [56], [57].
Para Rogers [25], el éxito de la adopción de
una tecnología se encuentra en la naturaleza
misma de la innovación, y define la innovación
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
como una idea, práctica u objeto que es percibido como nuevo por un individuo o unidad de
adopción. Así pues, este proceso de adopción
de innovaciones TIC implica una transformación
empresarial que obliga a las pymes a recorrer un
camino que las conduzca a la adopción paulatina
de innovaciones tecnológicas; proceso cuyo éxito
depende de factores internos y externos a la empresa, así como de una adecuada planeación y
ejecución de las inversiones en TIC, de sus características y su estrategia de negocio electrónico
particular.
III. MODELO DE INVESTIGACIÓN E HIPÓTESIS
Teniendo en cuenta que no es posible incluir
todos los aspectos potenciales que afectan la
adopción de innovaciones TIC en actividades de
aprovisionamiento electrónico en las empresas,
la selección de los aspectos se basó en una exhaustiva revisión teórica tanto del uso de TIC y la
comprensión de las actividades asociadas al proceso de aprovisionamiento electrónico, como del
proceso de adopción de innovaciones de TIC y el
tamaño de las empresas. En consecuencia, este
estudio pretende analizar el efecto de aspectos
del entorno en el proceso de adopción de innovaciones TIC en actividades de aprovisionamiento
electrónico en pymes españolas.
Según el marco TOE (Technology-OrganizationEnvironment framework) [58], los factores que
afectan la toma de decisiones de organización
en materia de innovación tecnológica se pueden
agrupar en tres bloques contextuales que son:
el tecnológico, el organizacional y el entorno, los
cuales están relacionados con la intención de una
empresa de adoptar o no una nueva tecnología,
así como el impacto en el rendimiento en relación
con la asimilación de las TIC en sus procesos de
negocio.
Según Tornatzky y Fleischer [58], en el entorno
empresarial existen factores que pueden influir
en el proceso de toma de decisiones asociadas
con las TIC, los cuales están relacionados con las
características de la industria, la disponibilidad
y coste de personal capacitado, cambios en la
demanda del mercado, presión de parte de competidores innovadores o de las relaciones clienteproveedor, presión del mercado o de la industria,
acceso a proveedores de servicios tecnológicos,
relaciones gubernamentales, normas y reglamentos, por mencionar algunos ejemplos.
En consecuencia, el modelo de investigación
que se presenta en la Fig. 1, sugiere la existencia
de aspectos del entorno que están relacionados
con el proceso de adopción de innovaciones TIC
en el aprovisionamiento empresarial, entendiendo este proceso dentro del concepto de “rapidez
de adopción de innovaciones (innovativeness)” de
la teoría de difusión de innovaciones de Rogers
[25].
Fig. 1. MODELO TEÓRICO PARA LA INVESTIGACIÓN EN RELACIÓN A LOS
ASPECTOS DEL ENTORNO EMPRESARIAL
Fuente: Autor del proyecto basado en Aguilar-Jiménez [1]
Es decir, la decisión de una empresa de adoptar o no una nueva tecnología y, para el caso particular, de adoptar o no innovaciones de TIC para
soportar los procesos de aprovisionamiento, puede ser afectada por aspectos del entorno. En consecuencia, y a partir del marco TOE [58], se configuran las hipótesis de investigación asociadas a
cada uno de estos aspectos.
Como puede apreciarse en la Fig. 1, dentro del
contexto externo se pueden identificar aspectos
determinantes para la actividad innovadora lo
que lleva a identificar variables y plantear hipótesis desde una perspectiva teórica y de acuerdo al
entorno particular asociado al aprovisionamiento
en las Pymes.
A. Variable “Nivel de adopción de innovaciones
de TIC en el aprovisionamiento empresarial”
La variable dependiente Nivel de adopción de
innovaciones de TIC en el aprovisionamiento empresarial fue definida según el modelo propuesto
en Aguilar-Jiménez que fue desarrollado específicamente para analizar “la adopción de innovaciones TIC para el aprovisionamiento empresarial o
93
94
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
e-procurement” [1]. Este modelo plantea la existencia de tres niveles que permiten categorizar
las empresas según su nivel de adopción TIC para
soportar actividades de aprovisionamiento y cada
uno de estos niveles está asociado a una determinada combinación de aspectos asociados a las
actividades basadas en TIC que realizan las empresas para aprovisionarse, y que determinan el
momento evolutivo en que se encuentra una organización [1].
Las empresas clasificadas como Pioneras son
aquellas que ya han adoptado y emplean las TIC
para realizar actividades de aprovisionamiento
empresarial.
Las Seguidoras, pese al probable escepticismo inicial, una vez conocidos los beneficios de las
TIC en el aprovisionamiento muestran interés por
aceptar y emplear las posibilidades ofrecidas en
sus procesos de compra y han empezado a emplearlas.
Finalmente, las Rezagadas pueden haber realizado pequeñas inversiones TIC, son muy escépticas a las innovaciones por lo que no presentan
perspectivas reales cercanas para emplear las TIC
en sus procesos de aprovisionamiento, ya que no
las consideran necesarias para permanecer en
los mercados [1].
B. Variable el subsector industrial al que pertenece la empresa
Un primer aspecto que puede ejercer influencia en las decisiones TIC de las empresas es el
hecho de pertenecer a determinada industria,
especialmente en el contexto de las Pymes, dado
que muchas veces estas empresas tienden a tener menos recursos para aumentar su base de conocimiento interno sobre las actuales tendencias
tecnológicas y su evolución, por lo que tienden a
dejarse influenciar por la dinámica de las empresas del sector y confiar en sus contrapartes para
su propia toma de decisiones[15].
En el contexto de la adopción de las TIC, el
efecto de la industria es considerado por algunos
autores como variable de control [14], [39], [59],
mientras que otros la consideran un aspecto del
entorno, pero en el sentido de la presión que pueden recibir las empresas de clientes o proveedores [60]. El marco teórico TOE por su parte considera las características de la industria, junto con
la estructura del mercado como un aspecto del
entorno [58].
El efecto de la industria no sólo ha sido estudiado desde el punto de vista de los aspectos influyentes, sino desde el punto de vista del proceso
de adopción de las TIC. Daniel et al.[56] consideran que el hecho de pertenecer a una etapa u otra
de adopción del comercio electrónico depende de
aspectos contextuales como la industria a la que
pertenece la empresa.
Para el caso particular del presente estudio, el
efecto de la industria como tal no se puede probar
en sentido estricto, dado que las empresas objeto
de estudio pertenecen a un mismo sector industrial. Esto mismo sucede en el estudio realizado
por Zhu [46], quien analiza el efecto del subsector
industrial en el valor de las capacidades de comercio electrónico y la infraestructura TIC en las
empresas del sector de comercio minorista. Así
pues, el éxito en el uso de las TIC en el sector,
no depende solamente de las iniciativas de las
empresas fabricantes de muebles, sino que está
directamente relacionado con los avances en materia de e-commerce en proveedores y comerciantes.
En consecuencia, dado que el modelo fue elaborado para un sector industrial específico, como
es el sector del mueble, el efecto del subsector
al que pertenece una empresa no se tendrá en
cuenta.
C. Variable ubicación geográfica de proveedores
Dentro del contexto del entorno, otro aspecto
que ha sido estudiado por diversos autores en
el área de la adopción de las TIC, es la distancia
geográfica de los mercados. Con el uso de las TIC
las empresas más pequeñas pueden llegar a alcanzar mercados más amplios y operar internacionalmente incluso con recursos limitados [24].
Diversos autores sugieren la importancia del uso
de las TIC en la mejora de relaciones con clientes
y consideran el alcance global de la empresa y el
mercado objetivo de la empresa como aspecto de
influencia en la toma de decisiones TIC [39], [61],
[62].
Si bien es cierto que el uso de medios electrónicos en las transacciones comerciales reducen
las barreras comerciales relacionadas con la distancia, según varios estudios, la distancia parece
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
ser aún un importante obstáculo al comercio electrónico [63].
Asimilado este concepto al caso del aprovisionamiento electrónico y habida cuenta que el uso
de las TIC favorece las relaciones con clientes y
proveedores, parece claro que si la distancia y ubicación geográfica de los clientes es un aspecto de
influencia para la adopción del comercio electrónico, por analogía, en el caso del aprovisionamiento electrónico probablemente se pueda esperar el
mismo efecto si se analiza la ubicación geográfica
de los proveedores.
Si bien la ubicación geográfica de proveedores no es una variable que aparezca en estudios
teóricos anteriores en el sentido estricto, si es un
aspecto importante en relación con el proceso de
aprovisionamiento empresarial y debe tenerse
en cuenta en este análisis. Es decir, aunque la
ubicación geográfica de proveedores no es analizada como aspecto de influencia en el comercio
electrónico con proveedores, parece interesante
tenerlo en cuenta como una adaptación del efecto de la ubicación geográfica del mercado en la
adopción del comercio electrónico con clientes,
de lo cual si existen evidencias teóricas.
En este sentido consideraremos que su efecto
de la ubicación geográfica de proveedores en la
adopción de innovaciones TIC para el aprovisionamiento se puede asimilar al efecto de la ubicación
geográfica de clientes en el comercio electrónico,
lo que da lugar a la hipótesis de trabajo:
Hipótesis: La ubicación geográfica de los proveedores está relacionada con el nivel de adopción de innovaciones de TIC para apoyar actividades de aprovisionamiento empresarial.
D. Variable presión externa recibida de los proveedores para adoptar determinadas TIC
A partir de la revisión teórica se puede extraer
que una de las principales razones para que las
empresas, en especial las Pymes, adopten TIC tales como EDI, es la presión recibida de parte de
sus socios comerciales [29], [49], especialmente si existen relaciones de dependencia con los
proveedores o si estos tienen alto poder de negociación [64], [65], varios autores consideran la
presión externa como un aspecto de potencial influencia en la adopción de innovaciones de las TIC
[14], [17], [31], [39], [61], [63], [66], [67], [68],
[69], [70].
Esta presión recibida por parte de los socios
comerciales en algunos casos es entendida como
presión competitiva [24], [49], o efecto de la industria [60], e involucra factores relacionados con
la competencia, el entorno social, la dependencia
de otras empresas que usan comercio electrónico, la industria o incluso el gobierno [49]. Para el
caso particular del aprovisionamiento electrónico,
esta variable es entendida como el grado de presión de parte de proveedores, para que una empresa adopte una nueva tecnología.
Este aspecto parece ser particularmente importante en las relaciones empresa-proveedor, ya
que su efecto en la adopción las TIC ha resultado
ser significativo en estudios anteriores [14], [39],
[64], por lo que se considera pertinente proponer
una hipótesis que recoja este fenómeno, la cual
se define como:
Hipótesis: Las empresas que han experimentado presión de sus proveedores para adaptar soluciones TIC, tienden a estar más avanzadas en
términos de adopción de innovaciones de las TIC
para apoyar actividades de aprovisionamiento.
E. Variable preparación de proveedores y clientes en el uso de e-business
Estudios anteriores sugieren la importancia
que tiene para una empresa, la adecuada preparación tecnológica de sus socios comerciales (clientes y proveedores). Con relación a la adopción del
negocio electrónico, autores como Jones et al.
[12] o Zhu et al. [69] la consideran como una barrera importante y un aspecto determinante para
la adopción del negocio electrónico, mientras que
Chwelos et al. [64] creen que es un aspecto que
está directamente relacionado con la intención de
las empresas de usar aplicaciones EDI.
La utilidad de una innovación tecnológica aumenta en la medida que más empresas la adoptan [70], y la adopción requiere sistemas compatibles y una preparación tecnológica que facilite
su implementación por parte de empresas y socios comerciales [39], [61]. Así pues, para obtener mejores beneficios y sacar más provecho del
uso de las TIC en las relaciones con clientes y proveedores, es necesario que exista cierto nivel de
homogeneidad en la preparación tecnológica de
las empresas que buscan realizar negocios por vía
electrónica.
95
96
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
En consecuencia, la decisión de una empresa
de adoptar las TIC para soportar su proceso de
aprovisionamiento puede estar influenciada por
el grado de preparación de sus socios comerciales actuales o potenciales [12], [28], [34], [35],
[39], [61], [64], [66], [69], [70], preparación que
no sólo se refiere a la infraestructura TIC disponible, sino a nivel de preparación de sus procesos
y del personal para realizar actividades de negocio electrónico y compartir información comercial.
Este aspecto, entonces, da origen a una nueva
hipótesis:
Las empresas que consideran que no usan
más intensivamente el negocio electrónico porque creen que sus proveedores y clientes no están preparados para ello, tienden a estar menos
avanzadas en términos de adopción de innovaciones de las TIC para apoyar actividades de aprovisionamiento empresarial.
IV. METODOLOGÍA DE INVESTIGACIÓN
A. Fuente de datos
Para la comprobación empírica del modelo se
empleó la información recolectada por E-business
W@tch, que es una iniciativa europea puesta en
práctica y desarrollada por EMPIRICA –institución
de investigación localizada en Bonn, Alemania–.
En concreto, se ha empleado la encuesta sobre
negocio electrónico e-business W@tch 2007 [71],
la cual ofrece información relevante en relación al
uso del negocio electrónico a nivel general, y del
aprovisionamiento electrónico a nivel particular.
La base de datos e-business W@tch ha sido
usada en versiones anteriores en investigaciones
relacionadas con el tema de estudio [33], [48]. Así
pues, habida cuenta que el uso de información
secundaria se justifica por razones de naturaleza económica, metodológica, del entorno y de las
empresas [72] y que la información contenida en
esta base de datos ofrece información relevante
en relación al uso del negocio electrónico a nivel
general, y del aprovisionamiento electrónico a nivel particular, se decidió emplear esta base de
datos para probar el modelo propuesto teóricamente.
No se ha tomado información más reciente
dado que la encuesta dejó de realizarse en el año
2007 justamente2, sin embargo, dada la naturaleza del fenómeno que se pretende analizar y la
robustez y seriedad de los datos recolectados, se
considera viable el uso de estos datos con fines
académicos.
La población de este trabajo se limita al sector del mueble en España y la constituyen todas
aquellas empresas de diez o más empleados y
menos de 250, que realizan su actividad principal en este sector. La encuesta se desarrolla a
nivel empresarial, esto es, los datos se recogen
centrándose en la empresa (en lugar de en sus
establecimientos), definiéndose empresa como
una organización de uno o más establecimientos
que consta de una unidad legal [71]. La muestra
de este estudio la constituyen 120 empresas de
las cuales el 86,6% (103 empresas) son pequeñas empresas y el 13,4% restante (16 empresas)
son medianas. Los subsectores CNAE3 estudiados, según la clasificación de 1993 vigente en
2007 son: 36.12 (fabricación de muebles de oficina y establecimientos comerciales), 36.13 (fabricación de muebles de cocina y baño) y 36.14
(fabricación de otros muebles) [71].
El trabajo de campo lo llevó a cabo la empresa IPSOS, y las encuestas se realizaron de forma
telefónica, mediante tecnología asistida por ordenador (Computer-Aided Telephone Interviewing – CATI). La persona a la que iba dirigido el
cuestionario era normalmente el responsable de
las TIC, y para las empresas que no contaban con
este cargo, se entrevistó al gerente, y cada entrevista se realizó en un promedio de 20 minutos
24 segundos [71].
Estructuralmente esta encuesta se divide en
siete módulos que sistematizan la información
específica en relación a la adopción de las TIC en
el negocio electrónico y específicamente en actividades de aprovisionamiento electrónico. Las
preguntas seleccionadas para el estudio, fueron
tanto aquellas específicas de e-procurement
como las que, por su carácter genérico, pueden
referirse al negocio electrónico con proveedores,
2
El observatorio sectorial e-Business Watch funcionó en el
marco de un contrato entre la Comisión Europea, la Dirección General de Industria y Comercio y Empirica GmbH y estuvo en funcionamiento hasta el año 2007. http://ec.europa.eu/enterprise/
archives/e-business-watch/about/sectoral_ebiz.htm
3 Clasificación Nacional de Actividades Económicas en España – CNAE.
www.ine.es
97
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
y a partir de ellas se definieron las variables que
conforman el modelo. En cuanto a la escala de
medida de estas variables seleccionadas, son
categóricas especialmente dicotómicas.
B. Análisis estadístico
El análisis del modelo teórico requiere la comprobación de hipótesis relacionales, es decir,
hipótesis que enuncian una posible relación entre dos o más variables y su intensidad pero sin
especificar la dirección de la relación [73], por
lo que se hace indispensable recurrir a métodos
estadísticos que permitan identificar esta relación. En el caso particular, habida cuenta que las
variables disponibles son cualitativas de naturaleza binaria, para analizar el comportamiento de
una variable con respecto a otra se acudió al uso
de tablas de contingencia, que son tabulaciones
cruzadas de dos variables categóricas o no métricas en las que las entradas son las frecuencias
de respuesta que caen en cada celda de la matriz [74].
En consecuencia, uno de los test aplicados en
este caso fue el V de Cramer, que es una medida de asociación basada en la chi-cuadrado,
que puede ser aplicado a Tablas de contingencia de cualquier tamaño y adopta valores entre
0 -para el caso de inexistencia de relación- y 1
-para cuando si existe relación- [75].
Ya que las variables son no métricas, no paramétricas, se puede recurrir también al análisis
de correlaciones de Spearman, adecuado para
variables de tipo nominal y ordinal [75]. El coeficiente de correlación Spearman (rs), puede variar
de -1 (asociación o relación negativa perfecta) a
+1 (asociación o relación positiva perfecta) pasando por 0 (no relación). Tanto -1 como +1 son
igualmente fuertes pero con interpretaciones
opuestas desde altamente negativa hasta altamente positiva [76].
Dadas las limitaciones asociadas al hecho
que la información empírica no fue recolectada
específicamente para analizar la adopción de
innovaciones de las TIC en el aprovisionamiento
empresarial, sino el negocio electrónico en general, se identificó la pertinencia de cada una
de las preguntas en relación a las variables del
modelo y se excluyeron aquellas que, por no estar relacionadas, no servían para medir ninguna
variable.
En cuanto a la variable dependiente, la pertenencia a cada uno de los tres niveles de adopción
dependía de si las empresas contaban con tecnologías como identificación por radio frecuencia,
si realizaba pedidos en línea, si compartían información con proveedores, si contaban con tecnologías de intercambio electrónico de datos con
proveedores y el tipo de formato empleado.
En definitiva, el análisis bivariado se realizó entre la variable dependiente Nivel de adopción de
innovaciones TIC para el aprovisionamiento electrónico[1], y las variables independientes: Ubicación de los proveedores, Presión de los proveedores y Preparación de proveedores y clientes en el
uso del e-business, que dieron como resultado los
coeficientes de asociación V de Cramer y los coeficientes de correlación Ro de Spearman que se
detallan en la Tabla 1 y en la Fig. 2.
TABLA I.
COEFICIENTES DE CORRELACIÓN ENTRE VARIABLES
Adopción de innovaciones TIC
en el aprovisionamiento empresarial
Ro de Spearman
V de Cramer
E2_Ubicación de
proveedores
.197*
.177
E3_Presión de proveedores
.233*
.264**
E4_Preparación_proveedores_clientes
.99
.168
** La correlación es significativa al nivel 0,01
* La correlación es significativa al nivel 0,05
Fuente: Autor del proyecto con base en datos procesados en SPSS V19
Fig. 2. RELACIÓN CON EL NIVEL DE ADOPCIÓN DE INNOVACIONES TIC
PARA EL APROVISIONAMIENTO EMPRESARIAL
** La correlación es significativa al nivel 0,01
* La correlación es significativa al nivel 0,05
Fuente: Autor del proyecto
A partir de la información presentada en la Tabla 1 y Figura. 2, es posible identificar que sólo se
encontró asociación de las variables “Presión de
los proveedores” y “Ubicación geográfica de pro-
98
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
veedores” con la variable dependiente. Es decir,
no hay evidencia estadística que permita afirmar
que la preparación de proveedores y clientes en
el uso de las TIC para apoyar procesos de negocio estén relacionados con el nivel de adopción
de innovaciones TIC en el aprovisionamiento empresarial, contrario a lo que sucede con la presión
ejercida y la ubicación de proveedores para la
adopción de innovaciones TIC para soportar procesos de negocio, variables con la cuales si se evidencia relación.
V. DISCUSIÓN DE RESULTADOS
Es necesario recordar que el estudio se basó
en los resultados de la encuesta realizada por ebusiness W@tch para el sector del mueble en España, estudio que si bien no fue efectuado específicamente con el objetivo de analizar el proceso
de adopción de innovaciones de las TIC en actividades de aprovisionamiento empresarial, sí incluye información relevante del proceso de adopción del negocio electrónico a nivel general. Esta
condición permite, por medio de una investigación
exploratoria, hacer una primera identificación del
conjunto de variables externas con potencial explicativo del fenómeno de adopción de innovaciones
de las TIC en el aprovisionamiento empresarial y
poder así obtener información para llevar a cabo
una investigación más completa en el contexto
particular.
En cuanto a las características generales de la
muestra, el 86,6% son pequeñas (entre 10 y 49
empleados) y 13,4% medianas (entre 50 y 249
empleados), en su mayoría enfocadas al mercado
nacional y sólo un 5% de empresas se enfoca principalmente al mercado de exportación.
Con respecto a la variable que mide la ubicación geográfica de proveedores, esta variable
no está soportada teóricamente en el sentido
estricto, sino que es una variable adaptada del
“efecto de la ubicación del mercado” [39], [61],
[62]. La relación encontrada en este con el Ro
de Spearman es estadísticamente significativa
al 5%, y permite suponer que así como la ubicación geográfica de clientes está relacionada con
la adopción del comercio electrónico, también la
ubicación geográfica de proveedores puede estar
relacionada con la adopción de innovaciones TIC
para el aprovisionamiento, lo cual tiene sentido
tenidas en cuenta las posibilidades que ofrecen
las TIC para acercar a clientes y proveedores en
un mismo entorno virtual, en que las distancias
geográficas ya no son una limitante. Si bien para
una variable categórica no tiene sentido hablar de
relación positiva o negativa, por las características de esta variable el resultado puede significar
que a mayor distancia geográfica con los proveedores mayor tendencia a adoptar las TIC para el
aprovisionamiento empresarial.
El segundo aspecto analizado es la presión
externa ejercida por los proveedores para que las
empresas adopten determinadas TIC. Esta variable mostró relación estadísticamente significativa con la variable dependiente (tanto con el V
de Cramer como con el Ro de Spearman), lo que
indica que las empresas que han sentido algún
tipo de presión externa suelen estar en niveles
superiores de adopción de las TIC. Este resultado es coherente con investigaciones anteriores en
la adopción de e-procurement [31] o de sistemas
EDI [29], [64], [65], y respalda la afirmación de
que los procesos de cooperación y coordinación
entre partners requieren del uso de tecnologías
de información para potenciar sus resultados, lo
que conlleva a que las empresas recomienden su
uso a sus partners [14].
En este sentido, es probable que los proveedores de alguna manera puedan, si no presionar, al
menos motivar a las empresas a usar tecnologías
que faciliten y soporten sus comunicaciones, más
aún si los proveedores involucrados cuentan con
poder de negociación importante.
En todo caso, hay que tener en cuenta de una
parte que sólo 3 empresas afirman expresamente
haber recibido este tipo de presión de sus proveedores, y de otra parte que las materias primas del
sector del mueble (textiles, colas, pinturas, barnices y en su mayoría tableros y madera), no son
inputs estandarizados ni usualmente comercializadas por medios electrónicos, por lo que para
posibles generalizaciones este resultado debe tomarse con cautela.
El último aspecto analizado fue el grado de preparación de socios comerciales para la adopción
de innovaciones TIC para el aprovisionamiento, el
cual no resultó tener relación estadísticamente
significativa con la variable dependiente. Es decir,
las empresas que consideran que no usan más intensivamente el negocio electrónico porque creen
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
que los socios comerciales no están preparados
para ello, no necesariamente tienden a estar más
avanzadas en términos de adopción de innovaciones de TIC para apoyar actividades de aprovisionamiento empresarial.
Teóricamente la preparación de socios comerciales es un aspecto determinante en la adopción
de las TIC tal como se evidencia en diversas investigaciones [12], [28], [34], [35], [39], [61],
[64], [66], [69], [70], ya que requiere acciones
conducentes a facilitar el intercambio automatizado de información, sin embargo, el hecho de no
evidenciarse relación puede estar asociado a que
la percepción de falta de preparación de clientes
es generalizada, debido a la poca difusión de las
TIC en el sector del mueble, así como a las características propias de las materias primas que
compran las empresas o la complejidad de la categorización y la codificación industrial [71], lo que
conlleva a que las empresas prefieran realizar sus
compras por métodos tradicionales.
Estos resultados fueron presentados a expertos de la industria del mueble en España [77], [78]
quienes afirman que no es extraño este comportamiento dado que aunque las empresas cuenten
con herramientas tecnológicas usan de manera
intensiva el papel como medio de comunicación.
Una posible explicación a este fenómeno
puede ser que las empresas no adoptan las TIC
porque no lo consideran necesario, no conocen
sus beneficios o no se sienten preparadas para
usarlas, creando un bucle del que sólo se puede
salir gracias a las decididas inversiones de las empresas pioneras. Este resultado está en la misma
línea del realizado por Hernández-Ortega y Serrano-Cinca [44], que consideran que las empresas
no están dispuestas a adoptar las TIC a menos
que su entorno así lo demande, mientras que el
resto de agentes del entorno argumenta la misma
justificación.
Este limitado uso de las TIC en los procesos
de compra ya se ha identificado en trabajos anteriores con empresas de diferentes sectores, que
encuentran evidencias empíricas que les permite
afirmar de una parte que no son precisamente las
materias primas las que suelen comprarse por
medios electrónicos, sino otro tipo de insumos no
productivos, y de otra parte que si bien las empresas pueden contar con tecnología e-procurement,
ésta se emplea más para intercambiar informa-
ción de cualquier tipo con proveedores que para
realizar compras electrónicas [41]. Adicionalmente, con respecto al sector del mueble en España,
se ha comprobado que aunque las empresas
cuenten con herramientas TIC básicas para comunicarse con proveedores, éstas no se utilizan
y en su lugar se emplean soportes en papel [77],
por lo que no es de extrañar que el uso de las TIC
no esté suficientemente generalizado en el sector,
lo que ha condicionado su adopción a lo largo de
toda la cadena de suministro, y las empresas que
han incorporado las TIC no necesariamente hacen
uso estratégico de ellas [65].
Pese a lo anterior, vale la pena resaltar que,
dadas las limitaciones de la encuesta, el grado de
preparación de clientes y proveedores para adoptar TIC en procesos de negocio se mide a través
de la percepción subjetiva de la persona que responde la encuesta, por lo que los resultados deben tomarse con cautela.
Finalmente, vale la pena resaltar que si bien
el modelo se analizó con base en datos empíricos
del año 2007, dado que las variables analizadas
no están en función del tiempo, se considera que
los resultados son válidos para conocer la situación particular del sector en un momento específico. Adicionalmente, la robustez y calidad de
los datos permitió probar de manera adecuada el
modelo, lo que se constituye en un aporte valioso
a la teoría de adopción de innovaciones TIC, que
abren importantes oportunidades para la realización de futuros estudios que permitan replicar el
modelo en otros sectores y en condiciones diferentes de la economía.
VI. CONCLUSIONES
Como resultado del presente estudio, el cual
pretendía examinar los factores del entorno empresarial, asociados con la adopción de innovaciones TIC para el aprovisionamiento empresarial
en pequeñas y medianas empresas, se encontró
en primer lugar, relación estadísticamente significativa entre el nivel de adopciones de las TIC en
actividades de aprovisionamiento empresarial y la
presión externa ejercida por los proveedores así
como con su ubicación geográfica.
La relación identificada con la presión externa
de proveedores sugiere que empresas que han
sentido algún tipo de presión externa suelen estar
99
100
en niveles superiores de adopción de innovaciones TIC de e-procurement. Este resultado pueda
dar origen a futuros estudios que permitan comprobar el nivel de influencia de los proveedores
con poder de negociación importante.
La relación encontrada con la ubicación geográfica de los proveedores permite suponer que
así como la ubicación geográfica de clientes
puede llegar a afectar la adopción de comercio
electrónico, también la ubicación geográfica de
proveedores puede estar relacionada con la adopción de innovaciones TIC para soportar el aprovisionamiento empresarial, lo cual tiene sentido
según las posibilidades que ofrecen las TIC para
acercar a clientes y proveedores en un mismo entorno virtual, en que las distancias geográficas ya
no son una limitante
No se encontraron evidencias empíricas que
permitan identificar posible relación con la preparación de clientes y proveedores para el nivel
de adopción de innovaciones TIC en el aprovisionamiento empresarial. Esta falta de evidencia
relacional puede ser debida a aspectos como las
características de las empresas del sector y la
forma como se relacionan a lo largo de la cadena de suministro, la penetración de las TIC en el
sector del mueble o la dinámica propia de las TIC,
que ofrecen, cada vez, mayor facilidad de acceso por parte de las Pymes no sólo en cuestión de
coste, sino de confiabilidad, sencillez y posibilidades ofrecidas. Así como a factores metodológicos
como las características de las preguntas empleadas, la subjetividad de las respuestas asociada a
la percepción de quién responde o la selección de
la muestra entre otros posibles.
Finalmente, el artículo presenta un modelo
teórico validado para un grupo de empresas de un
sector específico y en un momento determinado
en el tiempo, razón por la cual se considera valiosa la realización de nuevos estudios que permitan
de una parte confirmar las relaciones encontradas con el nivel de adopción de innovaciones TIC
en el aprovisionamiento empresarial, y de otra
parte demostrar si efectivamente hay o no relación entre las variables cuya relación no se pudo
comprobar, o incluso si existen otros aspectos que
no fueron considerados en el presente estudio y
que pueden complementar el modelo para el contexto empresarial específico.
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
REFERENCIAS
[1]
A. S. Aguilar-Jiménez, Las tecnologías de información en pymes manufactureras. Procesos de
adopción y factores de influencia. Primera. Editorial
Académica Española, 2011.
[2]
D. Servera y I. Gil, «Tecnologías de la información
y la comunicación en la gestión logística», Distribución y Consumo, No. 98, pp. 67-82, 2008.
[3]
J. M. Torrecilla, «Las estrategias operativas de la empresa. El tiempo como factor competitivo», Economía
Industrial, n.o 330, 1999.
[4]
L. De-Boer, J. Harink, y G. Heijboer, «A Conceptual Model for Assessing the Impact of Electronic
Procurement», European Journal of purchasing &
supply management, No. 8, pp. 25-33, 2000.
[5]
J. R. De La Torre, M. Herias, F. San Nicolás, y P. Herrera, «Las Pymes y el mercado digital», Navarra, 2001,
pp. 153-176.
[6]
M. Attaran, «The Coming Age of Online Procurement»,
Industrial Management & Data System, vol. 101, No.
4, pp. 177-180, 2001.
[7]
B. Heywood, M. Barton, y C. Heywood, e-Procurement.
Managing Successful E-procurement Implementation.
London: Financial Times. Prentice Hall. Pearson Education Limited, 2002.
[8]
B. A. Wagner, I. Fillis, y U. Jhohansson, «E-Business and
E-supply Strategy in Small and Medium Sized Business
(SMEs)», Supply Chain Management: An International
Journal, Vol. 8, No. 4, pp. 343-354, 2003.
[9]
S. R. Croom y A. Brandon-Jones, «Impact of E-procurement: Experiences from Implementation in the UK
Public Sector», Journal of purchasing & supply chain
management, No. 13, pp. 294-303, 2007.
[10]
F. Hernández, J. Tafur, y M. Palacios, «Sistema e-procurement: propuesta de un business case como soporte de toma de decisión. E-procurement system: a
business case proposal to support decision making»,
en XII Congreso de Ingeniería de Organización. 2nd International Conference on Industrial Engineering and
Industrial Management, 2008.
[11]
I. Diéguez Castrillón, A. I. Gueimonde, y A. I. Sinde,
«Gestión de recursos humanos, organización del trabajo y nuevas tecnologías: sus vínculos con los resultados.», Valencia, 2006.
[12]
P. Jones, P. Beynon-Davies, y E. Muir, «Ebusiness Barriers
to Growth Within the SME Sector», Journal of Systems &
Information Technology, vol. 7, No. 1, pp. 1-26, 2003.
[13]
J. Hartley, M. Lane, y E. Duplaga, «Exploring the Barriers to the Adoption of E-auctions for Sourcing», Inter-
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
national Journal of operations & production management, vol. 26, No. 2, pp. 202-221, 2006.
[14]
[15]
T. Teo, S. Lin, y K. Lai, «Adopters and Non-adopters
of E-procurement in Singapore: An empirical study»,
Omega - The International Journal of Management
Science, No. 37, pp. 972-987, 2009.
P. Chau, «Inhibitors to EDI Adoption in Small Business:
An Empirical Investigation», Journal of Electronic Commerce Research, Vol. 2, No. 2, pp. 78-88, 2001.
[16]
M. Frohlich, «E-Integration in the Supply Chain: Barriers and Performance», Decision Sciences, vol. 33, No.
4, pp. 537-556, 2002.
[17]
A. Pranato, J. McKay, y P. Marshall, «Exploring the Perceptions of Inhibitors and Drivers of E-business Progression Among SMEs at Different Stages of E-business Maturity», European Conference on Information
Systems, 2004.
101
[28]
J. M. Cepeda Pérez y M. Á. Plaza Mejía, «Aspectos interorganizacionales de intercambio electrónico de documentos», Revista Dirección y Organización, No. 31, pp.
68-80, feb. 2005.
[29]
C. Iacovou, I. Benbasat, y A. Dexter, «Electronic Data
Interchange and Small Organizations: Adoption and
Impact of Technology», MIS Quarterly, vol. 19, No. 4,
pp. 465-485, dic. 1995.
[30]
R. Heckman, «Organizing and Managing Supplier Relationships in Information Technology Procurement»,
International Journal of Information Management, vol.
19, pp. 141-155, 1999.
[31]
J. K. Chan y M. K. Lee, «SME E-Procurement Adoption
in Hong Kong - The Roles of Power, Trust and Value»,
Hong Kong, 2003.
[32]
A. Ordanini, Information Technology and Small Businesses. Antecedents and Consequences of Technology Adoption. Edward Elgar Publishing Limeted, 2006.
[18]
J. M. Láñez, «Los marketplaces en España», iWorld, 01jul-2002. .
[33]
[19]
C. Gibson y R. Nolan, «Managing the Four Stages of
EDP Growth», Harvard Business Review, vol. 76, No.
88, 1974.
R. Batenburg, «E-procurement Adoption by European
Firms: A Quantitative Analysis», Journal of Purchasing
& Supply Management, No. 13, pp. 182-192, 2007.
[34]
R. Nolan, D. C. Croson, y K. Seger, «The Stages Theory:
A Framework for IT adoption and Organizational Learning». Harvard Business School, 19-mar-1993.
E. Prier y C. McCue, «E-procurement Adoption in Local
Governments of the United States», Government Procurement, pp. 12-31, feb. 2007.
[35]
F. Wu, G. A. Zsidisin, y A. D. Ross, «Antecedents and
Outcomes of E-Procurement Adoption: An Integrative
Model», IEEE Transactions on Engineering Management, vol. 54, n.o 3, pp. 576-587, 2007.
[36]
A. Gunasekaran y E. Ngai, «Adoption of E-procurement
in Hong Kong: An Empirical Research», International
Journal of Production Economics, n.o 113, pp. 159175, 2008.
[37]
K. Arbin, «The Structure of Determinants of Individual
Adoption and Use of E-ordering Systems», Human Systems Management, n.o 27, pp. 143-159, 2008.
[38]
M. Rahim, «Identifying Factors Affecting Acceptance
of E-procurement Systems: An Initial Qualitative Study
at an Australian City Council», 10th International-Business-Information-Management-Association Conference, vol. 3, pp. 219-229, 2008.
[39]
A. Soares-Aguiar y A. Palma-dos-Reis, «Why do firms
adopt E-Procurement Systems? Using Logistic Regression to Empirical Test a Conceptual Model», IEEE
Transactions on Engineering Management, vol. 55, n.o
1, feb. 2008.
[40]
G. Vaidyanathan y S. Devaraj, «The Role of Quality in
E-procurement Performance: An Empirical Analysis»,
Journal of Operations Management, No. 26, pp. 407425, 2008.
[20]
[21]
A. Pranato, J. McKay, y P. Marshall, «Frameworks to
Support E-business Growth Strategy», Slovenia, 2001,
pp. 1254-1263.
[22]
J. J. Anaya y S. Polanco, Innovación y mejora de procesos logísticos. Análisis, diagnóstico e implantación de
sistemas logísticos. Madrid: ESIC - Téciman, 2005.
[23]
M. Calvo y Z. González, «Análisis de las tecnologías de
información que emplean las pymes», en in Modelos
de Rasch en Administración de Empresas, Santa Cruz
de Tenerife: FYDE-Caja Canarias, 2006, pp. 38-48.
[24]
B. Ramdani y P. Kawaiek, «SME Adoption of Enterprise
Systems in the Northwest of England: An Environmental, Technological, and Organizational Perspective»,
en in IFIP International Federation for Information
Processing, Manchester: Organizational Dynamics
of Technology-Based Innovation: Diversifying the Research Agenda, 2007, pp. 409-430.
[25]
E. Rogers, Diffusion of Innovations, vol. Quinta edición.
Free Press, 2003.
[26]
R. Nolan, «Information Technology Management from
1960-2000», Harvard Business School, 2001.
[27]
T. Teo y Y. Pian, «A Model for Web Adoption», Information & Management, vol. 41, pp. 457-468, 2004.
102
[41]
[42]
[43]
[44]
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 90 - 103
A. Gunasekaran, R. McGaughey, E. Ngai, y B. Rai, «EProcurement Adoption in the Southcoast SMEs», International Journal of Production Economics, No. 122,
pp. 161-175, 2009.
B. Hernández-Ortega, J. Jiménez-Martínez, y M. J. Martín-DeHoyos, «The Effect of Experience on Web Procurement. An Intersectorial Analysis of Small Firms»,
International Journal of Entrepreneurial Behaviour &
Research, vol. 15, No. 1, pp. 7-24, 2009.
M. Kaliannan, M. Raman, y M. Dorasamy, «E-Procurement Adoption in the Malaysian Public Sector: Organizational Perspectives», en Enterprise Distributed
Object Computing Conference Workshops, EDOCW
2009.13th, 2009, pp. 189-194.
B. Hernández-Ortega y C. Serrano-Cinca, «Qué induce
a las empresas a adoptar facturación electrónica?
Efecto de las percepciones y del entorno competitivo»,
Universia Business review, n.o 24, pp. 96-121, 2009.
[45]
R. Amit y C. Zott, «Value Creation in E-Business», Strategic Management Journal,, vol. 22, pp. 493-529, 2001.
[46]
K. Zhu, K. Kraemer, S. Xu, y J. Dedrick, «Information
Technology Payoff in E-business Environments: An International Perspective on Value Creation of E-business
in the Financial Services Industry», Journal of Management Information Systems, vol. 21, No. 1, pp. 17-54,
2004.
[54]
A. Constanzo A., «El comercio B2B cada vez más presente en las Pyme», N-Economía, Madrid, jul. 2008.
[55]
S. Nambisan y Y.-M. Wang, «Readblocks to Web Technology Adoption?», Communications of the ACM, vol.
42, n.o 1, ene. 1999.
[56]
E. Daniel, H. Wilson, y A. Myer, «Adoption of E-Commerce by SMEs in the UK. Towards a Stage Model»,
International Small Business Journal, vol. 20, No. 3,
pp. 253-270, 2002.
[57]
J. G. Cegarra Navarro, J. Alonso Martínez, y A. F. Monreal Garres, «Influencia del uso de las tecnologías de
internet en el capital estructural», Investigaciones Europeas de Dirección y Economía de la Empresa, vol.
12, No. 3, pp. 217-228, 2006.
[58]
L. Tornatzky y M. Fleischer, The Processes of Technological Innovation. Lexington Books, 1990.
[59]
T. Ravichandran y C. Lertwongsatien, «Effect of Information Systems Resources and Capabilities on Firm
Performance: A Resource-Based Perspective», Journal
of Management Information Systems, vol. 21, No.4,
pp. 237-276, 2005.
[60]
K. Kuan y P. Chau, «A Perception-Based Model for
EDI Adoption in Small Business Using a TechnologyOganization-Environment Framework», Information &
Management, No. 38, pp. 507-521, 2001.
[61]
E. Gide y M. Wu, «A Study of E-commerce Business
Satisfaction Model to Measure E-commerce Success
in Service SMEs», International Journal of Electronic
Customer Relationship Management, vol. 1, No. 3, pp.
307-325, 2007.
[47]
K. Zhu y K. Kraemer, «Post-Adoption Variations in Usage
and Value of E-business by Organizations: Cross-Country Evidence From the Retail Industry», Information Systems Research, vol. 16, No. 1, pp. 61-84, mar. 2005.
[48]
P. Soto-Acosta, «Análisis de la creación de valor en el
negocio electrónico a partir de la teoría de recursos y
capacidades», Tesis Doctoral. Universidad de Murcia.,
Murcia, 2006.
[62]
E. Grandon y M. Pearson, «Electronic Commerce Adoption: An Empirical Study of Small and Medium US Business», Information & Management, vol. 42, pp. 197216, abr. 2004.
L. Kaewkitipong y D. Brown, «Adoption and Evaluation
of E-business in Thai SMEs: A Process Perspective»,
en Americas Conference on Information Systems (AMCIS), 2008.
[63]
H. Hollenstein y M. W”rter, «The Decision to Adopt
Internet-Based E-commerce. An Empirical Analysis
Based on Swiss Firm-Level Data», en 15TH Biennial
Conference of the international telecommunications
society (ITS) - Connecting societies and markets: Communication technology, policy and impacts, 2004.
[49]
[50]
S. Pires y L. E. Carretero, Gestión de la cadena de suministros. Mc Graw Hill, 2007.
[51]
R. Lancioni, M. Smith, y T. Oliva, «The rol of the Internet
in Supply Chain Management», Industrial Marketing
Management, n.o 29, pp. 45-56, 2000.
[64]
P. Chwelos, I. Benbasat, y A. Dexter, «Empirical Test
of an EDI Adoption Model», Information Systems Research, vol. 12, No. 3, pp. 304-321, 2001.
[52]
A. Cater-Steel, «Steps to Internet Adoption Success: A
Study of Four Small Regional Organisations», Australasian
Journal of Information Systems, vol. 11, No.2, may 2004.
[65]
[53]
F. Alonso y G. Fitzgerald, «Theoretical Approaches to
Study SMEs eBusiness Progression», Journal of Computing and Information Technology - CIT 13, vol. 2, pp. 123136, 2005.
D. L. González-Bañales, M. G. Leyva Alanís, y J. A. Gutiérrez Reyes, «Datamining aplicado para el diagnóstico de la incorporación las TIC en las micro y pequeñas
empresas», presentado en IV Congreso Iberoamericano de Soporte al Conocimiento con la tecnología. Las
TIC, herramienta clave para la innovación y el crecimiento sostenible, Bucaramanga, Colombia, 2012.
Factores del entorno que influyen en la adopción de e-procurement en empresas de la industria del mueble en España – Aguilar
[66]
J. Mehrtens, P. Cragg, y A. Mills, «A Model of Internet
Adoption by SMEs», Information & Management, No.
39, pp. 165-176, 2001.
[67]
M. Caldeira y J. Ward, «Using Resource-Based Theory
to Interpret the Successful Adoption and Use of Information Systems & Technology in Manufacturing Small
and Medium Sized Enterprises», en Global Co-Operation in the New Millennium - The 9th European Conference on Information Systems, 2001.
[68]
[69]
P. Chau y K.-L. Hui, «Determinants of Small Business
EDI Adoption: An Empirical Investigation», Journal of
Organizational Computing and Electronic Commerce,
vol. 11,No. 4, pp. 229-252, 2001.
K. Zhu, K. Kraemer, y S. Xu, «A Cross-Country Study of
Electronic Business Adoption Using the Technology-Organization-Environment Framework», en Twenty-third
International Conference on Information Systems,
2002.
103
[72]
I. Grande Esteban, «Fuentes de información para la
investigación. Las bases de datos», en in Metodología
para la investigación en marketing y dirección de empresas, Madrid: Pirámide, 1999, pp. 95-123.
[73]
F. Sarabia, «Definición del tema a investigar», en in
Metodología de la investigación en dirección de empresas, Madrid: Pirámide, 1999, pp. 69-94.
[74]
J. J. Hair, R. Anderson, R. Tatham, y W. Black, Análisis
multivariante, vol. 5. Madrid: Pearson, Prentice Hall,
2004.
[75]
S. Miquel, E. Bigné, J.-P. Lévy, A. Cuenca, y M. J. Miquel,
Investigación de Mercados. Madrid: Mc Graw Hill,
1997.
[76]
G. Morgan, N. Leech, G. Gloeckner, y K. Barrett, SPSS
for Introductory Statistics, Use and Interpretation, vol.
second. London: Lawrence Erlbaum Associates Publishers, 2004.
[70]
G. Premkumar, «A Meta-Analysis of Research on Information Technology Implementation in Small Business», Journal of Organizational Computing and Electronic Commerce, vol. 13, No. 2, pp. 91-121, 2003.
[77]
J. Solana, Entrevista personal. Resultados del proyecto de Modelado de Redes de Empresas del Centre de
Difusió Tecnológica de la Fusta i el Moble de Catalunya. 2009.
[71]
European Commission, «e-Business W@tch Survey
2007. Diseño y Metodología». 2008.
[78]
M. J. Núñez, Entrevista personal. Desarrollos TIC en el
sector de la madera y el mueble en Valencia - AIDIMA.
2010.
Validación del linaje de los datos de la colaboración
LAGO. Instalaciones Sierra Negra y Chacaltaya
Data Provenance Validation for the LAGO stations Sierra Negra
and Chacaltaya
Luis A. Núñez
PhD. en Física, Profesor Emérito,
Investigador Grupo GIRG, Escuela de Física, Facultad de Ciencias,
Universidad Industrial de Santander UIS, Bucaramanga, Colombia,
y Departamento de Física, Facultad de Ciencias,
Universidad de los Andes, Mérida, Venezuela, e Investigador de
la Colaboración LAGO.
[email protected]
Fernando Quiñónez
PhD. en Física, Docente Tiempo Completo,
Investigador Grupo SIGMMA, Facultad de Ingeniería Industrial,
Universidad Santo Tomás USTA, Bucaramanga, Colombia, e
Investigador de la Colaboración LAGO, Universidad Industrial de
Santander, e Investigador de la Colaboración ATLAS,
Pontificia Universidad Católica de Chile.
[email protected]
Christian Andrés Sarmiento Cano
Físico, Universidad Industrial de Santander UIS,
Estudiante de Maestría, Investigador Grupo GIRG,
Escuela de Física, Facultad de Ciencias, Universidad Industrial de
Santander UIS, Bucaramanga, Colombia, e
Investigador de la Colaboración LAGO.
[email protected]
Resumen— Este trabajo muestra los resultados obtenidos luego de validar la calidad (linaje) de los datos registrados para la búsqueda de explosiones de
rayos gamma en el marco de la colaboración LAGO.
Para este propósito se analizaron las marcas de GPS
en los datos recolectados por los detectores ubicados en las estaciones de Sierra Negra (México)
y Chacaltaya (Bolivia). Durante esta validación se
encontraron inconsistencias entre la frecuencia de
detección esperada, y la frecuencia de detección registrada por el sistema de adquisición de los datos
LAGO durante los años 2006 hasta el 2009 en Sierra
Negra, y desde el 2008 hasta el 2011 en Chacaltaya.
Luego se propone una solución para poder realizar el
análisis de estos datos recolectados, se rescatan las
partes que presentan la frecuencia de detección óptima, catalogándolos en listas de tipo ROOT-C++ que
se han llamado “listas de buenos datos recolectados
(GRDL)”. Se da una receta de uso de las GRDL para
que los futuros investigadores puedan hacer análisis
sobre los datos LAGO buenos. Finalmente, hacemos
una búsqueda de explosiones de rayos gamma sobre
los datos LAGO buenos, utilizado el método de los
excesos.
Palabras clave— LAGO: Large Aperture Gamma-RayBurst Observatory.GPS: Global Positioning System.
GRDL: Good Recollected Data Lists. GRB: Gamma
Ray Bursts.
Abstract— Some results on the search of Gamma
Ray Burst from the LAGO Collaboration are presented. These are obtained after validating the quality
(provenance) of the data recorded at two LAGO installation (Sierra Negra (Mexico) andChacaltaya Bolivia). We analyze the GPS marks at data collected.
During this validation process we have found inconsistencies between the expected detection rate and
the one recorded by the acquisition system. This was
found at SierranNegra in 2008 and at Chacaltaya
from 2006 to 2009. Then, we propose an strategy
to perform the analysis of the data collected in order to recover those parts with optimum detection
frequency. Next, we label them in ROOT-C++ format
as Good Run Data List (GRDL). In order to perform
a more correct data analysis at LAGO repositories,
a GRDL recipe is provided. Finally, do a search for
gamma-ray bursts on the validated data, by using the
method of the excesses.
Keywords— LAGO: Large Aperture Gamma-Ray-Burst
Observatory. GPS: Global Positioning System. GRDL:
Good Recollected Data Lists. GRB: Gamma RayBursts.
I. INTRODUCCIÓN
Las explosiones de rayos gamma (GRB), provenientes del espacio exterior (galáctico y/o
extragaláctico) están entre los fenómenos más
energéticos del universo. Estas GRB fueron
descubiertas en los años 60 por satélites militares estadounidenses encargados de rastrear
actividad de posibles ensayos nucleares de sus
Recibido: 27/02/2013/ Aceptado: 14/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112
Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento
países enemigos. Las GRB llegan a al planeta
Tierra como haces de fotones muy energéticos
(E>1 keV) que ocurren pocas veces al día y en
períodos muy cortos de tiempo (0,1s - 100 s). El
modelo más aceptado para explicarlos, tiene su
origen en la hipótesis de que son originados en
explosiones estelares, ver [1],[2], y las referencias allí citadas.
Hasta el día de hoy, el mayor aporte al conocimiento de las GRB ha provenido de observaciones de telescopios satelitales (HETE, INTEGRAL, Swift y GLAST, ahora Fermi Gamma-Ray
Space Telescope). Al aumentar la energía de
los fotones su flujo disminuye como una ley de
potencias y las superficies que ofrecen los detectores satelitales se hacen imprácticas. Por
ello, el espectro en energía de esos destellos
se conoce bien a bajas energías, pero se tiene
muy poca información sobre las regiones de
altas energías (>1 GeV). Esto ha cambiado con
la operación del Telescopio Espacial Fermi [3],
pero aún así, los costos de las observaciones
satelitales son aún elevados [4].
Para aumentar el área de registro se ha comenzado a instalar detectores terrestres. Estos
observatorios complementan y refrendan la información obtenida por los satélites. Un ejemplo de ello puede verse en la observación simultánea de emisiones gamma en las galaxias M82
AND NGC 253 por el Telescopio Espacial Fermi y
la colaboración HESS [5], [6], [7].
La llegada al detector de las cascadas de
partículas de alta energía de eventos candidatos a GRB, provenientes desde dentro y fuera
de nuestra galaxia, nos puede dar información
sobre cómo está formado el universo mediante
campos magnéticos galácticos, nubes gaseosas
densas y agujeros negros, a los cuales se les
conoce como aceleradores cósmicos.
Para resolver el misterio de los orígenes de
los GRB, se debe tener una capacidad de detección de fotones y neutrinos en tierra para poder
resolver el rompecabezas de si el fotón viene de
un electrón dispersado o desde el decaimiento
de un pión[8], [9]. Es muy difícil detectar neutrinos que detectar fotones, en ese sentido,
se empieza a atacar el problema de la determinación de los orígenes de los GRB, desde su
lado más factible, i.e. detectar fotones.
105
Luego se quiere contar el número de fotones
que llegan a los foto-multiplicadores contenidos
en cada Detector Cherenkov de Agua (WCD) a lo
largo de la serie del tiempo.
En América hay dos macro iniciativas de
observatorios gamma: el Observatorio Pierre
Auger y el Proyecto HAWC (High-Altitude Water
Cherenkov Observatory [10]). El Observatorio
Pierre Auger[11], cuenta con 24 telescopios de
fluorescencia UV y 1600 WCD que cubre una superficie de recolección de datos de 16000m2.
Sin embargo, su ubicación a 1400msnm limita
su eficiencia para la detección de los GRB más
energéticos a causa de la absorción atmosférica [12]. El proyecto HAWC tendrá 300 WCD en
total con 4 PMT/WCD que cubrirán un área de
12556m2, y estarán ubicados a una altura de
4100msnm, habrá un sistema de aislamiento
óptico entre cada tanque para reducir la tasa
de ruido entre tanques. Los tanques Cherenkov
en HAWC son tanques de acero corrugado de
4m de alto y 7.3m de diámetro.
Otra iniciativa de medir GRB en América Latina es la colaboración LAGO (Large Aperture
Gamma-Ray-Burst Observatory). LAGO reúne
científicos de Venezuela, Colombia, Ecuador,
Perú, Bolivia, México, Guatemala y Argentina y
apunta a instalar detectores de GRB en cada
uno de estos países. La colaboración LAGO
inició la toma de datos hacia el año 2006 en
Sierra Negra (SN) y en 2008 en Chacaltaya
(CHA). Durante este tiempo se han recolectado
aproximadamente 2 TB de datos que corresponden a 1600 días de recolección entre las dos
estaciones. El buen funcionamiento de los instrumentos de recolección es lo que garantiza
la veracidad de los resultados que se puedan
obtener luego de analizar los datos. Por lo tanto,
se hace necesario revisar minuciosamente los
datos y así validar la calidad de su linaje (o proveniencia).
Para comprender la importancia del experimento LAGO en el estudio de fotones de alta
energía es importante resaltar que un área
efectiva de detección de 20m2 que opera en
Chacaltaya a 5200msnm, es suficiente para
equiparar la sensibilidad instrumental de la superficie del experimento Pierre Auger[13] con
16000m2, esto se puede observar en la Fig. 1.
106
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112
Fig.1. RELACIÓN ENTRE LA ALTURA Y EL ÁREA NECESARIA PARA LA DETECCIÓN DE FOTONES DE ALTA ENERGíA, COMO SE OBSERVA, 20M2 OPERANDO EN CHACALTAYA ES SUFICIENTE PARA EQUIPARAR LA SENSIBILIDAD
INSTRUMENTAL DE LA SUPERFICIE DEL EXPERIMENTO PIERRE AUGER
Fuente: Colaboración LAGO
II. DATOS LAGO
LAGO empieza a adquirir datos mediante sus
dos detectores más antiguos SN y CHA en 2006
y 2009 respectivamente. En los principios de la
colaboración, cada quien empezaba a analizar
los datos creyendo, de manera inocente, que
ellos estaban bien tomados. En algunos casos
las personas encargadas de la adquisición de los
datos, eran las mismas encargadas de analizarlos, luego ellos sabían que en conjunto de datos
estaban defectuosos y, por ende, no los consideraban en sus análisis, ó corregían partes de los
datos en sus análisis sin socializarlo con el resto
de científicos de la colaboración. No quedaba registro para que otros miembros de la colaboración estuvieran conscientes de la deficiencia de
los datos en algunos lapsos de tiempo. Más tarde al crecer la colaboración, se empezaron a sumar científicos a LAGO, muchos novatos y otros
más especializados en analizar datos que en
tomar experimentalmente los mismos. Antes de
empezar a hacer algoritmos sofisticados de búsqueda de GRB, se han planteado las preguntas:
¿Estarán bien tomados estos datos? ¿Vamos a
considerar los errores sistemáticos conservadoramente? Y fue hasta ese entonces en que seempezó a dar cuenta de ciertas inconsistencias que
presentaban los datos.
Los estudios realizados en [14] encontraron
tres posibles candidatos a GRB en los datos tomados entre el año 2006 y 2009 en la estación
de SN. Sin embargo, dejan claro que hasta entonces no se ha podido verificar (por métodos
estadísticos) una detección de fotones de alta
energía en superficie terrestre provenientes de
GRB. Además, proponen estudios detallados
para confirmar o descartar dicho hallazgo.
A partir del 2010 comienza la instalación de
la red de Repositorios LAGODATOS [15], [16], y
[17]. Esta propuesta se basa en desarrollar una
infraestructura repositorio de datos que utilicen
DSpace. A este software de código abierto, se
le han realizado adaptaciones con el fin de convertirlo en la herramienta capaz de preservar los
datos de la colaboración. LAGODATOS funciona
actualmente en un servidor principal en el nodo
de la Universidad Industrial de Santander, el cual
se encarga de catalogar y almacenar los datos
adquiridos en cada nodo del sistema. Actualmente se tienen disponibles 14385 archivos de
las instalaciones de Chacaltaya y Sierra Negra.
El acceso a los datos y la posibilidad de incorporar algoritmos inteligentes para hallar posibles
GRB en los datos registrados, más allá de emprender su búsqueda a través la identificación
de excesos respecto a la media, ha impulsado
a la comunidad a preguntarse sobre la calidad
de los datos medidos en estas dos instalaciones.
Garantizar la calidad y vigilar el linaje de los datos es indispensable para un experimento que involucra el registro distribuido e independiente de
un volumen significativo de datos[18].
Este trabajo evalúa la calidad de los datos almacenados en el repositorio LAGODATOS e identifica cuáles segmentos de esos datos pueden ser
analizados en la búsqueda de señales de GRB.
El análisis iniciará por revisar la continuidad en
la toma de datos por parte de las estaciones de
Sierra Negra (SN) y Chacaltaya (CHA). Seguidamente, se seleccionará los archivos que cumplan
con las condiciones mínimas para ser analizados
y luego revisar el funcionamiento de la etiqueta
de tiempo del GPS (Global Position System) que
aparece en los datos tomados. Finalmente, se
buscará excesos en la tasa de conteos de los datos mediante el método de los excesos, que será
explicado en la Sección III.
A continuación se describe la forma como se
detecta la radiación, el instrumento utilizado, y la
digitalización de los datos adquiridos por estas
estaciones.
Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento
107
A. Detector Cherenkov de Agua
B. Digitalización de la Señal
Los detectores Cherenkov de agua, WCD, usados en el proyecto LAGO son tanques con una geometría cilíndrica con un foto-multiplicador (PMT)
en el centro de la tapa superior. Este instrumento
contiene varios recubrimientos. El más exterior es
opaco y es el encargado de aislar la luz visible.
El más interno es de un material conocido como
tyvek el cual es altamente difusivo y reflectante; lo
que permite a las partículas que ingresan al tanque propagarse y rebotar hasta llegar al PMT, ver
Fig. 2.
La entrada de una partícula al tanque produce radiación tipo Cherenkov que es captada por
el PMT el cual está conectado a una placa electrónica llamada LS, (Local Station). Esta placa
está compuesta por una tarjeta madre principal o
board y cinco pequeñas tarjetas interconectadas
entre sí, ver Fig. 4.
Fig.4. ESQUEMA DE LA ESTACIÓN LOCAL, LS, USADA POR LOS DETECTORES DE LAGO. LAS TARJETAS QUE COMPONEN EL DISPOSITIVOS SON LAS
SIGUIENTES: CONTROLADOR LOCAL (CPU), MARCADOR DE TIEMPO (TG),
ETHERNET (ETH), CONEXIONES ELECTRÓNICAS (FG) Y CONTROL LENTO
(SC)
Fig.2. ESQUEMA DE UN DETECTOR CHERENKOV DE AGUA. EL TRAZO
AZUL REPRESENTA UN RAYO CÓSMICO QUE LLEGA AL TANQUE Y LOS AMARILLOS SON LAS POSIBLES TRAYECTORIAS DE LOS FOTONES GENERADOS
POR RADIACIÓN CHERENKOV
Tomado de [20]
Fuente: Autores
El PMT es un dispositivo de alta sensibilidad
que usa el efecto fotoeléctrico para generar un
flujo de corriente, en función de un número de fotones incidentes. Consta de un fotocátodo donde
se producen electrones que se aceleran por una
serie de electrodos, o dinodos, conectados a una
serie de diferencias de potencial en cascada, ver
Fig. 3. Estos electrones, al llegar al último dinodo,
denominado ánodo, se convierten en un pulso de
tensión[19].
Fig.3. ESQUEMA DE AMPLIFICACIÓN DE LA SEÑAL ENTRANTE EN UN PMT
Fuente: Autores
Los objetivos de este dispositivo son, por un
lado controlar el PMT y, por el otro, adquirir, digitalizar, establecer el tiempo de exposición para la
adquisición y enviar a un computador el conteo de
señales producidas en el tanque. El proceso se
realiza a una frecuencia de muestreo de 40Mhz
y los histogramas son generados en función de la
unidad de digitalización FADC, (Flash Analog-toDigital Converter) de 10 bits [19].
Finalmente, la LS permite dos protocolos de
adquisición calib y DAQ. El calib genera dos histogramas uno tipo pico y otro tipo carga, a partir de
un mínimo de energía o umbral deseado. Además,
el DAQ produce conteos para cuatro umbrales de
energía diferentes y se le asigna una etiqueta de
tiempo (año, mes, día, hora) a cada archivo de pulsos registrados. Este último protocolo es el usado
por SN y CHA.
C. Caracterización de los Datos LAGO
Para iniciar con la caracterización de los datos
recolectados por LAGO, es necesario enumerar algunas especificaciones técnicas de CHA y SN.
En el año 2006 se inició el montaje del arreglo
de detectores en SN a 4650msnm, el cual contempló cuatro tanques de 4m2 de área efectiva.
Los detectores ubicados en SN tienen instalados
PMT de 5 pulgadas modelo EMI 9030A. Cada tanque, independiente de la altura, está lleno solo
108
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112
120cm para, de esta manera, asegurar el decaimiento del fotón en un par electrón - positrón
en el tanque[21]. Los umbrales de energía usados para la generación de los datos dependen
de las características del PMT, y en el caso de
SN [14] son:
Fig.5. ARCHIVO USUAL DE DATOS QUE RECOLECTA Y GENERA EN LA
ESTACIÓN DE SN. COMO SE PUEDE APRECIAR EN ESTE EJEMPLO SE
MUESTRAN 3 PMT CONECTADOS EN EL CANAL 1 (COLUMNAS 1 A 4), EN
EL CANAL 2 (COLUMNAS 5 A 8) Y EN EL CANAL 5 (COLUMNAS 17 A 20).
LAS COLUMNAS DONDE SE VEN CEROS, SON PORQUE ALLí NO HAY NADA
CONECTADO
1) umbral 1: para partículas con energías
0≤E<15 MeV,
2) umbral 2: para partículas con energías
15≤E<150 MeV,
3) umbral 3: para partículas con energías
150≤E<600 MeV,
4) umbral 4: reservado para fallas de la electrónica.
Por otro lado, la estación Chacaltaya a
5200msnm cuenta con tres tanques detectores, dos de 4m2 de área efectiva, y uno de 2m2,
cada uno con un PMT de 8 pulgadas tipo 9353
KB. En este caso los umbrales de energía tienen
los siguientes valores:
1) umbral 1: para partículas con energías
0≤E<5 MeV,
2) umbral 2: para partículas con energías
5≤E<10 MeV,
3) umbral 3: para partículas con energías
10≤E<50 MeV,
4) umbral 4: reservado para fallas de la electrónica.
Un ejemplo de los datos recolectados en SN
y generados por la LS se puede ver en la Fig.
5, donde se aprecian 25 columnas, 24 de ellas
dedicadas a almacenar los conteos generados
en los diferentes umbrales y la columna 25
destinada a la marca de tiempo o GPS (Global
Position System). Es importante señalar que a
la LS se le pueden conectar 3 PMT y cada uno
de ellos en dos modos, alta y baja tensión. Además, cada conexión ocupa 4 columnas, que corresponden a los 4 umbrales de energía respectivos. En el caso específico de la estación de SN
los 3 PMT están conectados por alta tensión,
por lo cual en la Fig. 5 se observan 12 columnas con ceros.
Por otra parte, aunque los datos recolectados
en la estación de CHA son digitalizados por la misma LS las conexiones a ésta se distribuyeron de
otra forma. En este caso, se encuentran conectados a la LS 3 PMT por alta tensión y uno de estos
por baja tensión. Adicionalmente, se encuentra
conectado por una de las entradas de baja tensión un detector de centelleo, la última entrada
se encuentra desconectada por presencia de fallas. Finalmente, en estos datos se genera una
línea cada 5m, es decir, 200 líneas/s, lo que da
720000 líneas/h.
III. VALIDACIÓN DEL LINAJE DE LOS DATOS Y
BÚSQUEDA DE GRB
Aquí se muestra el análisis realizado sobre los
datos descritos en la sección II. Se Inicia con la
validación de los datos, posteriormente se describe el algoritmo usado para la búsqueda de GRB
en los datos de la colaboración y finalmente se
examina otra metodología que se podría usar en
análisis futuros.
Los fallos en la digitalización de los conteos se
deben a la LS y son generados principalmente por
perturbaciones electromagnéticas externas. Típicamente tormentas eléctricas, las cuales se observan como pulsos invertidos u oscilaciones en
el voltaje.
Como se observó, los datos tienen una columna destinada al tiempo la cual está dada por una
marca de GPS que cambia cada segundo, como
se había dicho antes, se toman datos cada 5 ms,
entonces habrá 200 líneas donde debe aparecer
la misma marca de GPS (una marcas/s). Luego
de adquirir datos durante una hora se encuentran 3600 marcas/h, ver sección II. Por lo tanto,
un archivo ideal debe contener 720000 líneas y
tener 3600 marcas diferentes de GPS. Una forma
de verificar que la digitalización de los datos se
ha realizado correctamente es revisar este com-
Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento
portamiento. Un histograma de frecuencias de un
archivo de comportamiento óptimo, es decir, con
720000 líneas, donde se genera una línea cada 5
ms, con 3600 marcas de GPS diferentes, que cambian cada 200 líneas, se puede ver en la Fig.6.
Fig.6. HISTOGRAMA DE FRECUENCIAS DE LAS MARCAS DE GPS PRESENTES EN UN ARCHIVO IDEAL DE UNA HORA DE ADQUISICIÓN
en esa determinada marca de GPS. Si se devuelve
false continúa hacia la siguiente marca de GPS.
La validación fue hecha sobre la totalidad de los
datos de SN y CHA albergados en el repositorio de
datos de la colaboración LAGODATOS. Dr obtuvo histogramas que dejaron ver el comportamiento anual
de la adquisición de los datos y así, saber en cuáles
regiones el análisis puede ser más fructífero.
Luego de realizar dicho análisis se encontró
que en la estación de SN los datos recolectados
entre los años 2006 a 2008 (Fig. 7 a Fig. 9) y parte de 2009 (Fig.10) tienen una frecuencia de marcas entre 128 y 256 marcas/s, lo cual muestra
que la adquisición no funcionó como se esperaba.
Fig.7. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2006
Para dicho fin, se hizo un programa en ROOT/
C++ [22], [23], [24] que cuenta el número de repeticiones que tiene cada marca de GPS, si la frecuencia de la marca de GPS es igual a 200 Hz,
entonces etiquetamos dicha línea y damos cuenta
de ella en una lista de buenos datos recolectados
GRDL. Estas GRDL son clases de C++ y se pueden
ver en [25]. Para acceder a alguna de estas clases, por ejemplo, si el usuario quiere trabajar con
la GRDL de SN del 2009, debe utilizar la clase de
la siguiente forma:
Fig.8. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2007
…
//inside a for that iterates over each
//acquisition of adetermined file.
GRLSN2009 objeto();
if(objeto.HasGoodRecollectedDataList(
“NombreDeArchivo.root”, gps) == true
)DoAnalysis();
elsecontinue;
}
En el anterior ejemplo de código, se crea una
instancia de la clase GRLSN2009 mediante el objeto al que se ha llamado objeto y luego se llama
al método Has Good Recollected Data List que
recibe dos argumentos, el primero es el nombre
del archivo tipo root, y el segundo es la variable
que da cuenta de la marca del GPS. Had Good Recollected Data List devuelve true si en esa marca
de GPS existen 200 adquisiciones, de lo contrario
devuelve false. Si se devuelve true la función DoAnalysis() es llamada, ésta es una función que contiene el análisis que se le quiere hacer a los datos
109
Fig.9. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2008
110
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112
Fig.10. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN SIERRA NEGRA DURANTE EL AÑO 2009
aunque aún hay gran cantidad de frecuencias de
marcas de GPS entre 0 y 200.
Fig.13. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2010
Lo mismo sucedió en la estación de CHA en el
año 2008 y parte de 2009 (Fig.11 y Fig.12). Se
ve que hay marcas en todos los valores posibles
entre 0 y 256, lo que es una clara muestra de irregularidad en la adquisición de los datos.
Fig.14. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2011
Fig.11. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2008
Fig.15. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2012
Fig.12. HISTOGRAMA DE LA FRECUENCIA DE LAS MARCAS DE GPS PARA
LOS DATOS ADQUIRIDOS EN CHACALTAYA DURANTE EL AÑO 2009
Por otra parte, durante parte del 2009 en SN
(Fig.10) y entre 2010 a 2012 (Fig.13-15) en Chacaltaya, gran parte de los datos muestran el comportamiento esperado, lo cual les da un factor de
confiabilidad a estos datos al momento de realizar búsquedas de un fenómeno tan fino como los
GRB. Como se observa el número de líneas que
tiene un comportamiento irregular ha disminuido,
Aquí se puede apreciar la verdadera importancia de las GRDL, ya que sólo tienen en cuenta los
datos con frecuencia de 200 marcas/s, por lo tanto, el analizador que utilice estas GRDL va a poder
implementar el mismo algoritmo sobre todos los
segundos de adquisición de los datos de la colaboración LAGO y podrá asumir errores sistemáticos conservadoramente.
Con estas GRDL se hizo una búsqueda preliminar con el método de los excesos [14], con este
método se buscan regiones donde ocurren excesos, siendo este:
Validación del linaje de los datos de la colaboración LAGO. Instalaciones Sierra Negra y Chacaltaya – Núñez, Quiñónez, Sarmiento
111
AGRADECIMIENTOS
Con ns igual al número de cuentas en un segundo, el promedio de todas las cuentas en una
hora, y σh es la desviación estándar de las cuentas en una hora. Una cuenta es el número de
destellos gamma en determinada conexión y en
determinado umbral que mide el PMT. La idea es
encontrar regiones de tiempo continuas en los datos en donde el exceso sea mayor o igual a 3.0.
Luego de realizar nuestro análisis sobre las
GRDL de todos los años en SN y en CHA, no se encontró ninguna adquisición (5 ms) con el exceso
requerido, por lo tanto, no se encontró ningún
candidato a GRB.
En futuros análisis se podrían aplicar algoritmos
más avanzados sobre las GRDL, entre ellos redes
neuronales artificiales (ANN), árboles de decisión
acelerada (BDT) y Matriz de co-ocurrencia, entre
otros, para ello se necesitan variables cinemáticas
sobre las cuales se puedan realizar cortes.
También sería bueno hacer una revisión de los
registros de GRB de los satélites de la NASA y calcular si estos GRB pueden llegar los detectores en
tierra de LAGO.
IV. CONCLUSIONES
La importancia de esta revisión está dada por
la necesidad de mejorar día a día la recolección de
datos, pues en este caso son ellos los que validan
o derogan algún hallazgo realizado con los WCD.
Las GRDL que se crearon en este trabajo serán
de gran utilidad para los futuros analizadores que
quieran trabajar sobre los datos de la colaboración LAGO.
Tal y como se mencionó arriba, no se encontraron señales que dieran cuenta de GRB en los
datos analizados. La dificultad de encontrar este
tipo de señales en observatorios terrestres ha
sido reportada previamente.
Se recalca la necesidad de tener GRDL de los
nuevos datos que la colaboración LAGO vaya obteniendo. Sería excelente si se automatizara la validación de los datos, de manera tal que se supiera
qué datos están buenos o malos, incluso antes de
guardarlos en disco de manera permanente.
Los autores agradecen el apoyo financiero de
la Vicerrectoría de Investigación y Extensión de la
Universidad Industrial de Santander a través del
proyecto VIE5541. También agradecen al grupo
GIRG por permitir usar el servidor Mac Pro Obatala. Fernando Quiñónez, agradece también a la
Vicerrectoría Académica de la Universidad Industrial de Santander, por el soporte financiero al inicio del proyecto que generó este artículo, también
agradece a la Universidad Santo Tomás por el
apoyo financiero.
REFERENCIAS
[1]
P. Sommers and S. Westerhoff, «Cosmic ray astronomy,» New Journal of Physics, vol. 11, nº 5, p.
055004, 2009.
[2]
F. Halzen, «The Search for the Sources of the Cosmic
Rays One Century after their Discovery,» de Proceedings of XVI International Symposium on Very High Energy Cosmic Ray Interactions, Batavia, Il, USA, 2010.
[3]
http://www-glast.stanford.edu.
[4]
J. Hinton, «Ground-based gamma-ray astronomy with
Cherenkov telescopes,» New Journal of Physics, p.
055005, 2009.
[5]
http://www.mpi-hd.mpg.de/hfm/HESS/.
[6]
Colaboración HESS, «Detection of Gamma Rays from
a Starburst Galaxy,» Science, vol. 326, No. 5956, pp.
1080-108, 2009.
[7]
Colaboración Fermi, «Detection of Gamma Ray Emission from Starburst Galaxies M82 and NGC 253 with
the Large Area Telescope on Fermi,» The Astrophysical
Journal Letters, Vol. 709, No. 2, p. L152, 2010.
[8]
W. Baade and B. Zwicky, «On Super-Novae,» de Proceedings of the National and Academic Sciences of the USA,
Washington, 1934.
[9]
W. Baade and F. Zwicky, «Remarks on Super-Novae and
Cosmic Rays,» Physical Review, vol. 46, pp. 76-77, 1934.
[10]
http://hawc.umd.edu/.
[11]
http://www.auger.org.
[12]
P. Mantsch, «The Pierre Auger Observatory progress and
first results,» de Proceedings 29th ICRC 2005 , Pune,
India, 2006.
[13]
Colaboración LAGO, «The Large Aperture GRB Observatory,» ArXiv e-prints, p. 0906.0816, 2009.
112
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 104 - 112
[14]
Grajales, «Búsqueda de GRB en Sierra Negra,» de
Facultad de Ciencias Físico Matemáticas. Benemérita
Universidad Autónoma de Puebla, Puebla, México,
2010.
[15]
http://halley.uis.edu.co/LAGOVirtual/.
[16]
R. Camacho, R. Chacón, G. Díaz, C. Guada, V. Hamar,
H. Hoeger, A. Melfo, L.A. Núñez, Y. Pérez, C. Quintero,
M. Rosales y R. Torrens, «LAGOVirtual. A Collaborative
Environment for the Large Aperture GRB Observatory,»
de Proceedings of the Second EELA-2 Conference,
Choroní, Venezuela, 2009.
[17]
[18]
[19]
L.A. Núñez, L. A. Torres, R. Torréns-Heeren, y E. Barrios-Hernandez, «Implementación de un Repositorio de
Datos Científicos usando Dspace,» e-colabora http://
publicaciones.renata.edu.co/index.php/RCEC, vol. 1,
pp. 101-117, 2011.
L. Moreau, P. Groth, S. Miles, J. Vazquez-Salceda, J. Ibbotson, S. Jiang, S. Munroe, O. Rana, A. Schreiber, V.
Tan, and L. Varga, «The provenance of electronic data,»
Communications of the ACM, Vol. 51, No. 4, 2008.
M. Suárez y L. Núñez, «Instalación de un detector Cherenkov de agua para la detección de trazas de rayos
cósmicos a 956 metros sobre el nivel del mar,» de Escuela de Física, Univeridad Industrial de Santander,
Bucaramanga, Colombia, 2011.
[20]
A. Velarde and R. Ticona and P. Miranda, «PROYECTO
LAGO BOLIVIA,» Revista Boliviana de Física, vol. 15, nº
15, pp. 32-38, 2009.
[21]
P. Allison and others, «Observing muon decays in water
Cherenkov detectors at the Pierre Auger Observatory,»
de Proceedings of the 29th ICRC, Pune, India, 2005.
[22]
R. Brun and F. Rademakers, «ROOT: An object oriented
data analysis framework,» Nuclear Instruments and
Methods in physics research., vol. A389, pp. 81-86,
1997.
[23]
B. Stroustrup, The C++ Programming Language, Boston, MA, USA: Addison-Wesley Longman Publishing
Co., Inc., 2000.
[24]
http://code.google.com/p/lago-grdl/source/browse/
#svn%2Ftrunk%2FGRDLGenerators.
[25]
https://sites.google.com/site/lagogrdl/.
Dinámica Estocástica o Compleja con Información
Incompleta: Una Revisión desde el Control
Stochastic or Complex Dynamics with Missing Data: A Review
on Control
Amalia Dávila Gómez
Esp. Docencia Investigativa, FUNLAM
Docente TC, Investigadora Grupo TecnoeInfo, Fundación Universitaria Luis Amigó -FUNLAM,
Medellín, Colombia
[email protected]
Alejandro Peña Palacio
PhD en Ingeniería, UPB
Docente TC, Investigador Grupo GIMSC,
Escuela de Ingeniería de Antioquia
Medellín, Colombia
[email protected]
Paula Andrea Ortiz Valencia
MSc en Ingeniería Automática, UPB
Docente TC, Facultad de Ingenierías, Investigador GAE, Instituto
Tecnológico Metropolitano ITM, Medellín, Colombia.
[email protected]
Edilson Delgado Trejos
PhD en Ingeniería LI Automática,
Universidad Nacional de Colombia
Investigador Lab. MIRP, Instituto Tecnológico Metropolitano ITM,
Medellín, Colombia.
[email protected]
Resumen— El control de procesos con dinámica estocástica o compleja es exitoso siempre y cuando se
pueda estimar un modelo que se ajuste bien al comportamiento, sin embargo, esta suposición pierde validez
en aplicaciones donde la información del sistema es
reducida o incompleta, muy comunes en ambientes
reales de la industria. La literatura presenta diferentes
esquemas de control, siendo los modelos neuro-difusos
los que reportan mejor desempeño. Estos modelos conjugan la capacidad de adaptación que tienen las redes
neuronales con la robustez de los motores de inferencia
que tiene la lógica difusa, para modelar el conocimiento de expertos mediante reglas de aprendizaje, identificar dinámicas complejas y aumentar la adaptabilidad
del sistema a perturbaciones que en la práctica tienden a ser de naturaleza estocástica sumado, a veces,
que la información del sistema sea restringida. Este
artículo presenta una revisión sobre dificultades y soluciones derivadas del control de sistemas estocásticos
o complejos con información incompleta. Se revisan
las estructuras de control cuando la dinámica del sistema presenta vaguedad en los datos, la evolución hacia técnicas adaptativas, y el desempeño de las redes
neuro-difusas ante procesos estocásticos o complejos
con incertidumbre en los datos. De forma preliminar se
establece que el control de este tipo de sistemas debe
estar compuesto por modelos híbridos soportados en
rutinas de optimización y análisis probabilístico que
garanticen el tratamiento de las incertidumbres sin
afectar el desempeño de las estructuras de control y la
consistencia en la precisión.
Abstract— Control theory for processes with stochastic
or complex dynamics has a successful performance as
long as a model can be adjusted to the system behavior, although for real applications in the industry, where data can be reduced or incomplete, this statement
may not be true. Different control schemes have been
proposed and the literature reports promising results
with neural fuzzy models. These models combine the
adaptability of neural networks with the robust inference of fuzzy logic, in order to model expert knowledge by
learning rules, identify complex dynamics and enhance
the control adaptability when stochastic disturbances
are present, which sometimes cause incomplete system data. This paper presents a review on the difficulties and solutions related to the control of stochastic or
complex systems with incomplete data. This study, initially, discusses the control structures when the system
data present notable uncertainty levels. Next, different
adaptive control schemes are presented, and finally,
nonlinear and stochastic control approaches based on
neural fuzzy systems are reviewed. Thereby, in a preliminary way, this review establishes that a system under
the conditions mentioned above should be controlled by
hybrid models supported on probabilistic routines and
optimization procedures in order to appropriately consider the stochastic disturbances and the uncertainty
levels without reducing the control performance and
yielding consistent accuracy.
Palabras clave— Control adaptativo, sistemas estocásticos, redes neuronales, lógica difusa, modelos neurodifusos, información incompleta.
Keywords— Adaptive control, stochastic systems, neural networks, fuzzy Logic, neuro-fuzzy models, incomplete system data.
Recibido: 08/11/2012/ Aceptado: 31/05/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
114
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
I. INTRODUCCIÓN
Los sistemas de control prestan una atención
importante hacia los procesos dinámicos, aun a
los que por razones particulares adoptan naturaleza estocástica, debido a que la mayoría de
sistemas pueden entrar en episodios de comportamiento inesperado y no lineal [1]. Por ejemplo,
en muchas industrias existen condiciones tan adversas que ocasionan altas pérdidas de información [2] y que los sistemas embebidos adquieran
naturaleza estocástica [3]. En algunos casos, estos asuntos llegan a impedir la automatización de
procesos que pueden involucrar alto riesgo para la
salud de los operarios [4] o acciones que manualmente son difíciles de lograr con exactitud [5].
También puede ocurrir que el modelo del sistema
en un momento dado no corresponda al inicial y
esto ocasione fallas o variaciones no deseadas en
los procesos [6]. En este sentido, la literatura reciente deja ver una progresiva tendencia hacia la
inteligencia computacional, a través de modelos
híbridos basados en redes neuronales [7] y lógica
difusa [8] para la identificación autoajustable y el
control multi-objetivo de procesos, a partir sólo de
las entradas y las salidas del sistema [9].
Uno de los aspectos más atractivos y conocidos
de los sistemas expertos es que evita la necesidad de rigurosos modelos matemáticos mediante
una base de conocimiento que posee información
de uno o más expertos en el área específica [10],
de forma que expresiones analíticas muy complejas pueden ser remplazadas por descripciones lingüísticas auto explicadas en la estrategia
de control [11]. Las nuevas tendencias sugieren
combinar estratégicamente estas técnicas de inteligencia artificial con esquemas de control tradicionales [7], puesto que la industria actual necesita sistemas de control con memoria, capacidad de
respuesta ante eventos inesperados, parámetros
autoajustables y decisiones automáticas soportadas por bases de conocimiento dinámicas [12].
En este contexto, se ha incrementado el interés
por los modelos neuro-difusos, y las principales
razones son: a) el buen desempeño de las redes
neuronales; b) la integración del conocimiento de
expertos; y c) Las ventajas de extraer conocimiento a partir del conjunto de datos bajo el formato de
reglas [13]. Así, los modelos difusos pueden ser
adaptables o fijos [14] y se pueden combinar fácilmente con modelos bien conocidos de aprendiza-
je neuronal que reportan buen desempeño, entre
ellos: redes de mapas auto-organizativos (SOM),
Redes de Hopfield y aprendizaje por cuantificación vectorial (LVQ) [9]. Una combinación neurodifusa que ha ganado popularidad es el Sistema
de Inferencia Neuronal Difuso Adaptativo (ANFIS)
[15], que por su sistema de inferencia provee un
mecanismo intuitivo y de alto nivel para representar el conocimiento mediante relaciones difusas
de aprendizaje [16]. Aunque es conocido el buen
desempeño de los modelos neuronales, difusos
y neuro-difusos en aplicaciones automáticas, se
presentan fuertes restricciones cuando se requiere implementar la identificación y control en sistemas cuyas perturbaciones le inducen dinámica
estocástica [17] y más cuando no se cuenta con
todos los datos, dada la dificultad de observar y
seguir todos los estados operacionales [18].
En este artículo se presenta una revisión sobre
las dificultades y soluciones derivadas del control
de sistemas estocásticos o complejos cuando la
dinámica del proceso presenta vaguedad en los
datos. Se busca principalmente determinar los
campos que aún quedan abiertos en esta área
del conocimiento, a fin de inquietar hacia nuevas
investigaciones que logren soluciones fácilmente
adoptables por el sector industrial. Este estudio
se presenta en el marco del proyecto de investigación PM10204, financiado por el ITM de Medellín.
II. SISTEMAS ESTOCÁSTICOS CON
INFORMACIÓN INCOMPLETA: PERSPECTIVA
DE CONTROL
Los sistemas estocásticos tienen una dinámica
regida por patrones de comportamiento que aparte
de contener cambios inesperados son variantes en
el tiempo [2]. Todas las estrategias de modelado
y control para este tipo de sistemas hacen hincapié en el análisis de la incertidumbre, porque en
la medida en que un sistema se vuelve más complejo, también se hace más difícil el gobierno de
su dinámica, por el incremento de la incertidumbre
de cada variable [18]. Es así como el error de medición acumulada, las interacciones inciertas entre
los subsistemas, y demás aspectos que incrementan la incertidumbre de un sistema, dificultan las
tareas de modelado y control de procesos que de
forma global adoptan patrones de comportamiento
estocástico [19]. Aunque las incertidumbres provienen de diferentes fuentes, usualmente comparten
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
características comunes, algunas son de naturaleza no lineal y otras de naturaleza estocástica
[20]. Además, es frecuente que se involucren las
siguientes causas: a) falta de claridad y conocimiento de los datos que surgen a partir del modelado y/o control, b) vaguedad en la transmisión y
procesamiento de la información [18], c) vaguedad
de los datos que proviene de la baja resolución de
sensores o medición inapropiada [21], y d) la naturaleza estocástica del entorno que dificulta el análisis global del sistema [1]. En general, la teoría de
control estocástico funciona bien siempre y cuando
un modelo estocástico estándar esté disponible
para ser ajustado, sin embargo, esta suposición
puede no ser válida en aplicaciones de procesamiento con información reducida [22]. Así, la teoría
general de control puede garantizar el rendimiento
del sistema mediante la aplicación de un modelo
matemático relativamente preciso de incertidumbre [23], pero limitaciones relacionadas al acceso
completo de los datos hacen difícil la tarea en aplicaciones reales, donde las condiciones adversas
pueden inducir patrones de comportamiento estocástico [18].
Numerosos métodos han surgido en los últimos años para el tratamiento de dinámicas de
alta complejidad sobre modelos estocásticos. Por
ejemplo, en [24] se propone un algoritmo híbrido
inteligente de generación y asignación de espacios de probabilidad, donde luego de ser analizado el historial de los datos, se demuestra mediante ejemplos numéricos que el error no excede el
1.9% para diferentes configuraciones de parámetros del algoritmo, verificándose así su robustez y
efectividad. Así también, el filtro de Kalman extendido, ampliamente usado para la estimación de
ruidos aleatorios, en [25] es implementado exitosamente en aplicaciones de administración de
energía dentro de un sistema de redes estocásticas, se obtienen errores de estimación del estado
de la carga alrededor del 0.6%. Sin embargo, el
rendimiento de este tipo de técnicas puede verse seriamente afectado frente a las limitaciones
que producen las incertidumbres y la ausencia
de datos, tales como: fallas numéricas, mala la
calibración de los parámetros, vago seguimiento
de la referencia real y alta sensibilidad a la incertidumbre de ganancia, información, estimación
y escalamiento, según se describe en el estudio
reportando en [21].
115
Los sistemas de control difuso han demostrado
su capacidad para manejar incertidumbres mediante el mapeo de datos inciertos a un dominio
lingüístico, y la fácil integración con las bondades
de la computación neuronal para mejorar su rendimiento [26], sin embargo, la expresión lingüística
puede no ser suficiente para mantener adecuadamente el desempeño del control frente a perturbaciones que inducen naturaleza estocástica al sistema, de manera que métodos de inferencia difusa,
como Mamdani y Takagi Sugeno (TS) [16], no siempre aseguran resultados favorables bajo entornos
estocásticos con información incompleta [27]. En
[26], se observa mediante simulaciones de Monte
Carlo que la integración de rutinas probabilísticas,
para el análisis de incertidumbre, permite reducir
el error en el 50%.
La perspectiva de control de los sistemas estocásticos con información incompleta cuenta
con una variedad de métodos alternativos que
han sido reportados en la literatura con buenos
resultados de desempeño. Tal es el caso del Sistema Wavelet Probabilístico (PWS), presentado en
[28], el cual se propone para modelar e identificar
sistemas dinámicos desconocidos con naturaleza
estocástica y datos incompletos. El PWS usa una
función wavelet de 3 dominios que hace un balance entre probabilidad, tiempo y frecuencia, para
lograr un esquema de modelado robusto cuando
la información de los datos es pobre, pues supera
al sistema wavelet (WS) tradicional en ambientes
de dinámica estocástica y datos ruidosos. Los
resultados para diferentes experimentos, se presentan en términos del error cuadrático medio
(MSE) y se destaca que el error de identificación
logrado con el PWS, oscila en la mitad del que se
logra para el WS tradicional y es aún menor que
el obtenido con una red neuronal de base radial
(RBF). En particular, para uno de los experimentos, los resultados de MSE fueron: 71.48, 114.06
y 317.67 para PWS, WS y RBF, respectivamente.
En [29] se propone una variación del teorema de
Wonham para implementar un sistema de control
óptimo por realimentación, considerado el problema de regulación estocástica para sistemas lineales con ruido dependiente de control y de estado.
La validación sobre un sistema con información
incompleta perturbado por ruido gaussiano arrojó
mejores resultados que los obtenidos en sistemas
con información completa. Desde otra perspecti-
116
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
va, el problema de las relaciones de preferencia
difusa con información incompleta es estudiado
en [30], con mínimos cuadrados para la toma
de decisiones. Mediante la transformación entre
la relación de preferencia multiplicativa y difusa,
se desarrolló un modelo de mínimos cuadrados
para obtener el vector de prioridad colectiva entre las relaciones de preferencia incompletas en
máquinas de toma de decisión múltiple. A fin de
comparar, se extendió el modelo a casos de preferencia difusa con información completa mediante
máquinas de toma de decisión simple y múltiple,
encontrándose que el método propuesto es factible y efectivo.
Fig. 1. PERSPECTIVA DE CONTROL PARA SISTEMAS ESTOCÁSTICOS CON
INFORMACIÓN INCOMPLETA
Fuente: Autor del proyecto
De acuerdo con la revisión presentada en esta
sección, la Fig. 1 ilustra de manera general la
perspectiva de control de sistemas estocásticos
con información incompleta, donde aún quedan
abiertas oportunidades de investigación al observar la importancia de analizar la incertidumbre
inherente del proceso, o inducida por el entorno,
mediante rutinas probabilísticas. Asimismo, la
inclusión de un sistema de representación adaptativa (e.g., computación neuronal) y un dominio
lingüístico amplio y suficiente que facilite el mapeo de datos inciertos. Desde el punto de vista
de la aplicación, en términos de la viabilidad para
ejecutar computacionalmente las técnicas, se
resalta la necesidad de integrar los métodos de
inteligencia computacional con procedimientos híbridos de representación y toma de decisiones en
una plataforma conjunta, a fin de contrarrestar la
ausencia de datos y la naturaleza estocástica de
las interacciones de los subsistemas, al integrar
además meta-algoritmos de optimización para
disminuir el costo de cómputo.
III. ESQUEMAS ADAPTATIVOS PARA EL
CONTROL DE SISTEMAS COMPLEJOS
La evolución de la teoría de control ha logrado
el desarrollo de técnicas, tanto de identificación
auto-regulable como adaptativas mediante herramientas de cómputo [31]. El concepto adaptativo surge cuando se incorporan a la máquina, de
forma estructural, habilidades humanas para la
toma de decisiones, y en este contexto, se diseña
un controlador cuyos parámetros son ajustados
continuamente frente a los cambios en la dinámica del proceso, de forma que puede ser de dos
tipos: directo e indirecto [32]. La mayoría de los
esquemas adaptativos de control se han aplicado como extensiones de la técnica convencional
PID [33]. De forma que los procedimientos involucrados en la sintonización automática de cada
uno de los parámetros del controlador hacen
parte de las rutinas que convierten un esquema
de control clásico en control adaptativo [34] y
fueron desarrollados originalmente para resolver
los inconvenientes surgidos en procesos complejos que tienden a cambiar sus condiciones operativas a través del tiempo y a veces de manera
inesperada [35]. La Fig. 2 presenta una perspectiva general de control adaptativo para sistemas
complejos como resultado de la revisión de este
tema en la literatura que se presenta a continuación.
La literatura reporta diferentes esquemas de
control adaptativo para sistemas dinámicos complejos que consideran el enfoque desde la inteligencia computacional. Un estudio presentado
en [36] propone ajustar el modelo de referencia
de un controlador descentralizado mediante rutinas adaptativas y modos deslizantes aplicados a
un sistema MIMO no lineal. Este diseño toma en
cuenta la capacidad de aproximación universal
que tienen los sistemas borrosos Takagi - Sugeno
(TS).
117
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
Fig. 2. PERSPECTIVA DE CONTROL ADAPTATIVO PARA SISTEMAS
COMPLEJOS
TABLA I.
DESEMPEÑO DE UN CONTROLADOR CLÁSICO Y MODERNO
Controlador
PID
RLS-SM difuso
MSE
0.798
0.0026
Fuente: Basado en el estudio presentado en [37]
Fuente: Autor del proyecto
De manera experimental, se presenta la ventaja de no requerir conocimiento previo del límite
superior del término de incertidumbre y, de forma
analítica, el sistema de control difuso en lazo cerrado demuestra ser globalmente estable en el
sentido de que todas las señales implicadas están
delimitadas con errores de seguimiento que convergen a cero. De igual manera, en [37] se presenta el diseño de un controlador basado en Lógica
Difusa Adaptativa (AFL) y Modos Deslizantes (SM),
el cual es entrenado con la técnica de Mínimos
Cuadrados Recursivos (RLS). El problema de la
variación de parámetros es resuelto con el controlador adaptativo y se utiliza un regulador interno
PI para lograr que el control de velocidad de un
motor de inducción, con un torque de carga de 5
Nm, sea realizado por medio de las corrientes de
estator y no mediante la variación de los voltajes.
Adicionalmente, se usó el modelo del motor en
las coordenadas de flujo orientado del rotor para
comprobar la eficiencia del controlador, así como
el error cuadrático medio (MSE) para comparar el
desempeño entre un controlador PID convencional y el controlador difuso RLS-SM. Los resultados
obtenidos se muestran en la Tabla I.
Es importante anotar que los esquemas adaptativos también han experimentado progresos importantes en el procesamiento de señales derivadas de sistemas complejos como los fisiológicos
(señales electrocardiográficas y los potenciales
evocados cerebrales, entre otros) y en aplicaciones a sistemas de telecomunicaciones [38]. Sin
embargo, las aplicaciones sobre procedimientos
autoajustables para estrategias de control de sistemas dinámicos complejos cada vez son más frecuentes, aun cuando las perturbaciones pueden
llegar a adoptar naturaleza estocástica [39].
En [40] se presenta un estudio desde dos
perspectivas de adaptación para estrategias de
control con varianza mínima generalizada de
dos grados de libertad (GMV2DOF). El primero es
desde el modelo del proceso, donde se utiliza un
estimador de mínimos cuadrados con algoritmos
recursivos para el diseño del autoajuste directo;
y el segundo utiliza una técnica difusa Mamdani
para la programación de parámetros GMV2DOF
basada en interpretaciones analíticas y físicas de
la robustez del sistema. Se demostró que existen
ventajas con la programación difusa cuando se
requiere adaptar el sistema de control a procesos
complejos desconocidos. En otro estudio expuesto en [41], se diseña un controlador adaptativo difuso soportado en la técnica backstepping para el
control de temperatura de una clase de reactores
con tanque agitado continuo (CSTRs), los cuales
son sistemas fuertemente inestables. Se utiliza
la lógica difusa para estimar las condiciones de
concentración dependientes y otros parámetros
del sistema que tienen alto nivel de incertidumbre. Los resultados muestran que el sistema controlado en lazo cerrado se lleva a un estado de
operación asintóticamente estable y el error de
aproximación por perturbación externa es mínimo. Un trabajo inspirado por la alta complejidad
embebida en los datos de carga eléctrica es descrito en [42], donde se presenta una combinación
de esquemas difusos adaptativos, redes de mapas auto-organizativos (SOM), también llamadas
118
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
redes de Kohonen, y sistemas de regresión por
vectores de soporte (SVR), con el fin de obtener simultáneamente altos niveles de precisión e interpretabilidad en la predicción de la carga eléctrica.
El éxito de este modelo consistió en la inclusión de
una base comprensible de conocimiento humano,
y la construcción de una función de pertenencia
difusa homogénea para cada subgrupo. Adicionalmente, se mostró una comparación con diferentes
modelos matemáticos y se probó la eficiencia del
desempeño con datos reales, donde los resultados confirmaron la validez del método propuesto.
Desde hace tres décadas, se ha tenido reporte
del buen impacto en procesos industriales de los
Sistemas Auto-Ajustables (SAA) y Sistemas Adaptativos con Modelo de Referencia (SAMR) [43].
Los SAA fueron propuestos conceptualmente en
[44], y establecidos experimentalmente en [45],
donde el autoajuste se basa en el conocimiento
del modelo para adaptarse a los cambios mediante procedimientos recursivos asociados a los
parámetros del proceso. Sin embargo, el principal
inconveniente es que la estabilidad no puede ser
asegurada de manera global. En los últimos años,
esta técnica ha sido combinada con otros métodos de identificación basados en mínimos cuadrados recursivos (RLS), obteniéndose notables
niveles de desempeño en términos de precisión,
sensibilidad y tiempo de autoajuste ante procesos
estacionarios, dinámicas con cambios abruptos
y seguimiento de referencias móviles [46]. En la
Tabla II se observa la comparación entre los tiempos de ejecución bajo las mismas condiciones de
cómputo para los métodos RLS, RLS no lineal (NLRLS) y RLS de sensibilidad reducida (RS-RLS).
TABLA II.
TIEMPOS DE EJECUCIÓN PARA RLS, NL-RLS Y RS-RLS
Escenario/Tiempo
(ms)
Estacionario
RLS
NL-RLS
RS-RLS
18.9
14.5
25.4
Cambios abruptos
19.6
15.2
26.2
Referencias móviles
22.5
17.5
28.1
Fuente: Basado en el estudio presentado en [46]
De manera alternativa, los SAMR se basan en
que el comportamiento del proceso sea idéntico a un modelo de referencia. Así, cuando existe una diferencia entre la entrada y la salida, el
mecanismo de adaptación intenta minimizarla
con el ajuste de los parámetros del regulador, tal
y como se propone en [47], permitiendo que el
sistema responda de forma apropiada ante perturbaciones inesperadas variables en el tiempo.
En el contexto de sistemas complejos, la literatura
reporta numerosos trabajos basados en técnicas
SAA y SAMR, mediante estructuras híbridas con
rutinas modernas de inteligencia computacional,
donde se reportan soluciones promisorias para
el control de sistemas no lineales inestables, en
ambientes que además inducen apreciables niveles de incertidumbre [33], [48]. Por su parte, los
esquemas de Control Adaptivo de Modelo Múltiple
(MMAC) han ganado un buen lugar de preferencia
en aplicaciones sobre procesos complejos. La teoría de MMAC establece que un sistema complejo
desconocido puede llegar a ser la combinación de
un conjunto finito de sistemas lineales invariantes en el tiempo, de manera que el ajuste a las
respuestas no lineales del sistema real podría
lograrse mediante la inclusión de un modelo de
incertidumbre acotado, aditivo o multiplicativo.
En [49] se presenta un estudio donde se analizan
esquemas MMAC y se establece que si el número de modelos es suficientemente grande y está
uniformemente distribuido en el espacio de parámetros, el método ofrece una respuesta rápida y
precisa. Asimismo, diferentes procedimientos son
propuestos para lograr buenos resultados usando un número de modelos significativamente pequeño. Sin embargo, las aplicaciones reales en la
industria, donde los sistemas dinámicos tienden
a ser considerablemente complejos, exigen que
el número de modelos se incremente si se quiere
sostener un desempeño favorable en términos de
identificación y control del proceso.
De acuerdo con la revisión de los trabajos mencionados en esta sección y desde el punto de vista de la aplicación orientada a la viabilidad para
ejecutar computacionalmente las técnicas, es
importante resaltar que los sistemas complejos,
por sus características dinámicas, requieren ser
controlados mediante esquemas adaptativos que
dependen fuertemente de la eficiencia de las técnicas de autoajuste que optimizan los parámetros
del controlador. Esta es la razón por la que muchos de los esfuerzos reportados en la literatura
reciente, se concentran en la obtención de rutinas
de optimización que ofrezcan una convergencia
de autoajuste cada vez más rápida, consistente
y de mínimo costo operacional y computacional,
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
pues buscan máximo rendimiento en términos
de precisión y sensibilidad, para su aplicación en
tiempo real.
IV. MODELOS NEURO-DIFUSOS PARA EL
CONTROL DE SISTEMAS COMPLEJOS CON
INCERTIDUMBRE
Ya es bien conocido en la literatura que las redes neuronales, debido a la capacidad de adaptación de sus elementos procesales (i.e., neuronas),
están dotadas de una dinámica que constantemente cambia para ajustarse a nuevas condiciones, mediante procedimientos basados en iteraciones que conforman la etapa de entrenamiento
[9], [7]. Se han propuesto diferentes modelos híbridos que combinan las fortalezas de las redes
neuronales y la lógica difusa (i.e., modelos neurodifusos) para el control de sistemas complejos
que incluyen apreciables niveles de incertidumbre, debido a la facilidad que tienen para combinar el razonamiento difuso con el manejo de información incierta [50], [51]. Es, por tanto, que los
modelos neuro-difusos son entendidos en la literatura como una herramienta potente que posee
los méritos de bajo nivel para el aprendizaje, junto
a la potencia de cálculo de las redes neuronales,
además del pensamiento de alto nivel, similar al
humano, que ofrece el razonamiento lógico de las
técnicas difusas [52].
En orden de controlar sistema complejos
cuando existen niveles de incertidumbre en los
parámetros de operación, en [53] se propone un
esquema de control neuronal difuso adaptativo
por modos deslizantes enriquecido con rutinas
auto-organizativas. En este esquema, la fase de
entrenamiento estructural posee la habilidad de
generar y eliminar en línea las reglas difusas requeridas para lograr la estructura neuronal óptima, y la fase de entrenamiento paramétrico ajusta los pesos de interconexión de la red neuronal a
fin de lograr un desempeño de aproximación favorable. El entrenamiento paramétrico es basado
en funciones de Lyapunov, de forma que se pueda
garantizar la estabilidad del sistema. De manera
similar, en [54] se aborda el diseño y análisis de
un sistema de control adaptativo neuro-difuso robusto para la sincronización de sistemas caóticos
con incertidumbre. El sistema propuesto se compone de una etapa de identificación lograda por
una red neuro-difusa (NFN) de cuatro capas y un
119
controlador supervisado que concentra su esfuerzo en atenuar los efectos del error de aproximación. El identificador NFN es también el regulador principal utilizado para la valoración en línea
de las incertidumbres compuestas. Este estudio
resuelve los problemas relacionados con la convergencia de la red y la estabilidad de la sincronización adaptativa mediante el método directo
de Lyapunov, bajo la suposición de que el estado
del sistema principal genera las trayectorias de referencia, a pesar de la incertidumbre que se embebe en la dinámica operativa del sistema. Otros
estudios se concentran en una de las tareas más
exigentes que tiene la ingeniería de control, relacionada con el diseño efectivo de controladores
robustos en tiempo real para sistemas complejos
de múltiples entradas y múltiples salidas (MIMO),
especialmente cuando se requieren mecanismos
de reacción rápida frente a perturbaciones externas fuertes con altos niveles de incertidumbre. En
la Fig. 3, se ilustra el enfoque presentado en [55],
donde se propone un esquema de control neurodifuso adaptativo (AFNC) basado en un algoritmo
de aprendizaje genético con redes neuro-difusas
(G-FNN) para la identificación y control de un sistema MIMO no lineal.
Fig. 3. ESTRUCTURA DE CONTROL NEURO-DIFUSA PARA SISTEMAS COMPLEJOS CON INCERTIDUMBRE
Fuente: Basado en el estudio presentado en [55]
El controlador de la Fig. 3 cuenta con las siguientes características: a) estructura neuronal
difusa auto-organizativa, i.e., las reglas pueden
ser generadas o borradas de manera automática;
b) capacidad de aprendizaje en línea para aplicaciones sobre sistemas MIMO no lineales con
incertidumbre; c) velocidad de aprendizaje rápida; d) control adaptativo; e) control robusto con
estabilidad global establecida según el método
de Lyapunov. Este estudio concluyó que los mo-
120
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
delos neuro-difusos adaptativos ofrecen una tasa
de convergencia rápida y demuestran capacidad
suficiente para manejar los errores de modelado
y perturbaciones externas en sistemas no lineales
con incertidumbre. De manera complementaria,
en [56] se toma el mismo enfoque de la estructura mostrada en la Fig. 3, pero en este caso se consideran los sistemas complejos de una entrada y
una salida (SISO) con incertidumbre, y se propone
la implementación de un controlador difuso adaptativo por modos deslizantes (AFSMC). El procedimiento basado en lógica difusa se usa para aproximar la función del sistema complejo desconocido
y el algoritmo AFSMC se diseña para usarse como
técnica de control. De acuerdo con la teoría de
Lyapunov, se establece una función continua para
eliminar la acción del ruido de la señal de control.
La simplicidad de este método facilita su implementación y, en general, el esquema de control
garantiza la estabilidad asintótica global si todas
las señales son uniformemente acotadas. Los resultados de este estudio dejan ver que el AFSMC
supera notablemente en términos de rendimiento
al controlador por modos deslizantes tradicional.
Otro estudio reportado en [57], presenta el esquema de un control difuso de estructura variable por
modos deslizantes con el objetivo de regular la velocidad de un motor en las unidades de un filtro
de ventilación, el cual se caracteriza por su alta no
linealidad, variabilidad en el tiempo y naturaleza
multivariable compleja. Los resultados de este estudio muestran el buen desempeño del esquema
propuesto de control a este tipo de sistemas en
términos de robustez en la estabilidad lograda,
como en los apropiados márgenes conseguidos
en la respuesta transitoria. En [58], otro estudio
analiza la viabilidad de los controladores basados
en Sistemas de Inferencia Neuro-Difusa Adaptativa (ANFIS) para el control de sistemas complejos
con incertidumbre, y han encontrado que estos
sistemas tienen la capacidad de dividir los datos
en grupos para incrementar el nivel de adhesión
a ellos y producir mayor poder de adaptación, velocidades de respuesta más rápidas, y una mayor
precisión y robustez ante perturbaciones inesperadas. Adicionalmente a esto, la literatura reporta
numerosos estudios que proponen derivaciones o
extensiones de la estructura de control presentada en la Fig. 3, donde se destaca la forma en que
los modelos neuro-difusos son potenciados con el
poder de optimización que tienen los algoritmos
genéticos [59]. En [60], por ejemplo, se presenta
la integración de un Algoritmo Genético de forma
Reducida (RGA) con un Controlador Neuro-difuso
de Adaptación Indirecta, en un sólo algoritmo denominado RIAFC y aplicado a sistemas complejos con incertidumbre. Se incluye una función de
ajuste en el RGA para sintonizar los parámetros
en línea y evaluar la estabilidad del sistema en
lazo cerrado, además de incorporarse un controlador supervisado en el RIAFC para garantizar que
los estados del sistema sean limitados a la región
estable. Los resultados confirman la factibilidad y
aplicabilidad del método propuesto en aplicaciones reales, como la ventaja de incluir mecanismos de optimización tan potentes como son los
algoritmos genéticos.
De acuerdo con los estudios revisados en esta
sección, numerosas aplicaciones de control han
sido propuestas mediante modelos neuro-difusos
en sistemas complejos con incertidumbre para
obtener diferentes grados de eficiencia. Como
un primer aspecto, es importante mencionar que
respecto a otras técnicas de control, las ventajas
de los modelos neuro-difusos son evidentes si se
considera que ya no es requerida la obtención
precisa de modelos matemáticos del proceso,
además de contar con la posibilidad de incluir el
conocimiento de expertos en la ley de control [61].
Un segundo aspecto a considerar tiene que ver
con las dificultades que tienen los modelos neurodifusos para lograr el autoajuste adecuado de sus
parámetros, puesto que los procedimientos de
auto-sintonización aún reportan problemas para
la inicialización de los parámetros de operación,
o en algunos casos, la velocidad de aprendizaje y
adaptación es muy lenta en relación con la velocidad del proceso a controlar. Visto de una manera
general, se puede decir que el mal ajuste de los
parámetros puede reducir la flexibilidad y la capacidad de procesamiento numérico del controlador,
convirtiendo el sistema en ineficiente o redundante. En particular, si los parámetros relacionados
con el número de capas ocultas o el número de
reglas difusas son muy grandes, se vuelve prohibitiva la implementación del sistema en tiempo
real, por lo que no habría ningún interés desde
la industria para este tipo de soluciones. Como
tercer y último aspecto de esta sección, es importante notar la resaltable capacidad que tienen los
modelos neuro-difusos para capturar la dinámica
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
directa e inversa de los procesos complejos, con
incertidumbres y variantes en el tiempo; además
de demostrar alta versatilidad y robustez para las
operaciones de control. Sin embargo, desde el
punto de vista de la aplicación orientada a la viabilidad de cómputo para ejecutar las técnicas, no
siempre es fácil recolectar la suficiente información de un sistema complejo con incertidumbres,
para la fase de entrenamiento de las redes, desde
el mismo lugar de operación cuando el ambiente industrial es adverso, además de la dificultad
asociada a la complejidad de procesamiento que
exige contener en un conjunto reducido de expresiones lingüísticas todas las variaciones posibles
de un proceso real. Por esto el diseño de estrategias para entrenar efectivamente sistemas neurodifusos con conjuntos reducidos y no balanceados de datos, es un campo que sigue abierto en
la literatura.
V. MODELOS NEURO-DIFUSOS PARA
SISTEMAS ESTOCÁSTICOS CON
INFORMACIÓN INCOMPLETA
Las redes neuronales han sido usadas para un
gran número de aplicaciones en control de sistemas que presentan respuesta estocástica cuando
son sometidos a determinadas condiciones de entrada, y muchas de esas aplicaciones dependen
de la estabilidad de la misma red [62], [63], [64],
[65]. Tomado en cuenta que los sistemas reales
son generalmente afectados por una cantidad
considerable de perturbaciones externas, es muy
importante tomar en cuenta los efectos estocásticos para asegurar las condiciones de estabilidad
de las redes neuronales, incluido los efectos de
retardo por transmisión [66], [67]. De otra parte,
los sistemas de control automático han recibido
contribuciones importantes de procedimientos
basados en modelos difusos, los cuales tienen
como objetivo alcanzar mejores niveles de precisión, dimensionalidad y simplicidad en la estructura de los sistemas no lineales. Comparado con
los modelos matemáticos convencionales, la ventaja de los modelos difusos consiste en tener la
posibilidad de construirlos con el mínimo esfuerzo matemático derivado del sistema, además de
la capacidad que tienen para aproximarse a una
clase amplia de sistemas no lineales [16]. Como
se ha comentado en secciones anteriores de esta
revisión, el concepto de incorporar lógica difusa
121
dentro de una red neuronal ha crecido y se ha popularizado en los temas de investigación por su
buen desempeño y amplio rango de aplicabilidad
[68], [69], [70]. Sin embargo, se ha demostrado
que ciertas perturbaciones estocásticas (e.g., del
tipo de Ornstein-Uhlenbeck con reversión a la media) podrían desestabilizar este tipo de redes [20],
por lo que se ha propuesto analizar las propiedades de pasividad del sistema en orden de determinar los márgenes de estabilidad [71], [72]. La
presencia de factores inevitables, como es el error
de modelado, aparición inesperada de perturbaciones externas y la fluctuación de parámetros durante la implementación física, inducen a las redes
neuronales incertidumbres y variaciones en los
componentes, que afectan considerablemente la
pasividad del sistema completo. En este sentido,
con el fin de analizar la incertidumbre que puede
llegar a ser inducida en una red neuronal, se han
propuesto procedimientos simples que consisten
en asumir parámetros en ciertos intervalos [73],
[74]. Es importante resaltar que la teoría de pasividad fue originada del análisis de circuitos y se ha
convertido en una herramienta útil para analizar
la estabilidad de los sistemas [75]. El análisis de
pasividad de los modelos de control neuro-difuso
ha sido ampliamente discutido en varios trabajos de la literatura [76], [77], [78]. La extensión
de este análisis para aplicaciones que involucran
ausencia de información o incertidumbres en las
variables estocásticas con retrasos es estudiado
en [79], donde dichas incertidumbres se asumen
acotadas en conjuntos compactos dados y las redes neuro-difusas usan una función de activación
generalizada que descarta presunciones de acotamiento, monotonía y diferenciabilidad. Se propone la construcción de un funcional LyapunovKrasovskii propio y la combinación del método de
la matriz libremente ponderada con técnicas de
análisis estocástico, en orden de obtener nuevas
condiciones de pasividad dependiente de los retardos y en función de desigualdades matriciales
lineales (LMIs), lo cual puede ser resuelto mediante paquetes numéricos estándar. Los resultados
reportan que una red neuronal difusa estocástica con incertidumbres satisface la condición de
pasividad dependiente de retardos robustamente
hasta una cota superior permitida de τ= 0.9897,
la cual es menos conservativa que otras reportadas en la literatura. Un estudio presentado en
[80] discute el tratamiento de la estabilidad glo-
122
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
bal y exponencial de la incertidumbre estocástica
mediante modelos neuro-difusos Takagi-Sugeno,
donde se explota el poder que tienen las redes
para representar los modelos variantes en el
tiempo y a partir del enfoque Lyapunov-Krasovskii
se obtienen las condiciones de estabilidad. También se incluyen técnicas basadas en LMIs para
demostrar la exactitud de los resultados teóricos.
Este estudio deja abierto el caso de múltiples variables con tiempo de retardo, incluido tanto los
retrasos discretos y distribuidos, como los efectos
ocasionados en términos de estabilidad. En [81]
se aplican modelos neuro-difusos a cadenas de
suministro inmersas en un ambiente estocástico,
donde a pesar que la información es reducida o
algunas veces incompleta, se logra un pronóstico
realista en relación con los costos y presupuestos, así como el menor número de suministro de
la cadena de valor respecto a la demanda. Este
método ofrece resultados que sugieren su aplicación a casos reales y aun puede ampliarse para
la consideración de múltiples productos con más
canales de información o considerarse un mayor
número de variables por aproximaciones neurodifusas para lograr mayor fidelidad en el modelo.
Otro estudio se presenta en [82], donde se implementa un método denominado Red Neuronal
Difusa Estocástica (SFNN), el cual está formado
por un algoritmo genético a fin de obtener soluciones al problema de la relación entre la cantidad y
la calidad del agua en un depósito, dado que no
existen muchas técnicas para este tipo de optimización y se presentan limitaciones en relación al
acceso completo de la información, promoviendo
otra cantidad de limitaciones operativas. El modelo propuesto fue probado para diferentes funciones recursivas y la optimización fue llevada a
cabo usando 6 diferentes SFNN, lo cual permitió
mejoras potenciales en la calidad del agua a través de medios de control hidráulico. Esta técnica
basada en SFNN ya había sido propuesta en [83],
donde fue definida como un modelo neuro-difuso
entrenado estocásticamente, que puede alcanzar
soluciones “quasi” óptimas, e intenta superar los
inconvenientes involucrados en el trabajo con los
modelos de programación dinámica estocástica.
Las incertidumbres inducidas por la información
incompleta son tratadas mediante la probabilidad
condicional de los eventos difusos. Los resultados
mostraron la viabilidad del uso de las SFNN y las
bondades que ofrecen en términos de optimiza-
ción. Finalmente, en esta revisión vale la pena
destacar el buen desempeño que ofrecen las
redes ANFIS con análisis de frontera estocástica
(ANFIS-SFA), las cuales son recomendadas para
aplicaciones reales donde están involucrados problemas de complejidad, ambigüedad, vaguedad
en los datos, dinámica estocástica y componentes difusas, que con frecuencia dificultan los procesos de control. Un estudio reportado en [84],
presenta una adaptación del método ANFIS-SFA
para el análisis del comportamiento y predicción
del consumo de gas natural a largo plazo. Se entrenan los datos con ANFIS, mediante seis modelos distintos basados en diferentes entradas y se
comparan los modelos con respecto a la media
del error absoluto porcentual. Se usa un modelo
auto-regresivo para proyectar el Producto Interno
Bruto (PIB) y la población para el período 20082015. Estos datos proyectados se utilizan como
entrada del modelo ANFIS y el SFA se usa para
examinar el comportamiento del consumo de gas
en años anteriores y establecer tendencias para
los años próximos. En este estudio se resalta el
enfoque ANFIS-SFA, el cual demuestra su capacidad para manejar la complejidad, la incertidumbre y el azar en un sistema estocástico.
Los sistemas reales obedecen a una dinámica
multivariada e interactuante, que fácilmente es
influenciada, perturbada o integrada por incertidumbres de diversas clases, las cuales inducen
naturaleza estocástica al proceso global y algunas veces llegan a afectar la completitud de los
datos. De acuerdo con la revisión presentada en
esta sección, los modelos neuro-difusos cuentan
con las características dinámicas suficientes para
superar los inconvenientes inherentes a la dinámica estocástica de los sistemas que además no
cuentan con información completa de sus variables de proceso. En general, los modelos neurodifusos ofrecen una gran flexibilidad para optimizar diferentes tipos de funciones recursivas, dado
que las reglas de decisión difusa y los parámetros
de relación entre ellas pueden tomarse desde una
gama amplia de posibilidades. Adicionalmente, la
literatura reporta numerosas formas en que estos
modelos pueden ser potenciados al integrar otros
esquemas derivados del análisis estadístico,
evolutivo o de la teoría de información. La Fig. 4
presenta el esquema de un modelo de inferencia
neuro-difuso, el cual permite intuir ventajas rela-
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
cionadas con el enorme potencial en aplicaciones
de control estocástico para sistemas con información incompleta. Entre las principales ventajas,
se pueden destacar la adaptabilidad, flexibilidad,
robustez y facilidad matemática, en tareas que
exijan el desarrollo de soluciones en el marco de
una fácil implementación. Sin embargo, desde
el punto de vista de la aplicación orientada a la
viabilidad para ejecutar computacionalmente las
técnicas quedan muchos campos abiertos en la
literatura, en relación con la optimización de la
topología del modelo o del mismo proceso de entrenamiento.
Fig. 4. MODELO DE INFERENCIA NEURO-DIFUSO
Fuente: Basado en el estudio presentado en [84]
VI. CONCLUSIONES Y RECOMENDACIONES
En la práctica se ha vuelto frecuente encontrar
sistemas cuyo entorno de operación induce fuertes perturbaciones de naturaleza compleja o estocástica, donde resulta afectada de manera considerable la observabilidad de todos los estados.
En este artículo se presenta una revisión sobre el
control de sistemas estocásticos o complejos con
información incompleta, donde se destaca la necesidad de crear nuevos modelos que permitan
mejorar el manejo de la incertidumbre cuando los
datos son reducidos o incompletos. De acuerdo
con las tendencias de la literatura en sistemas de
control, este tipo de sistemas puede soportarse
en las bondades que ofrecen las redes neurodifusas, en orden de asegurar el seguimiento de
dinámicas pre-establecidas, dada la robustez que
aportan los motores de inferencia difusa y la ca-
123
pacidad de adaptación que tienen las redes neuronales. En este sentido, se resaltó la tendencia
actual de integrar en una plataforma conjunta los
métodos de inteligencia computacional, con procedimientos híbridos de representación, optimización y toma de decisiones, a fin de contrarrestar
la ausencia de datos y la naturaleza estocástica
de las interacciones de los subsistemas. Aunque
desde el punto de vista de la aplicación, se resaltan dificultades importantes relacionadas con la
complejidad de procesamiento, donde se abren
nuevas oportunidades de investigación orientadas a obtener mayor viabilidad de cómputo para
la ejecución de las técnicas.
La revisión sobre esquemas adaptativos de
control para sistemas complejos identificó que la
mayoría de las técnicas son en alguna medida derivaciones o extensiones del esquema de control
convencional PID, donde predominan las aplicaciones híbridas por modos deslizantes. Debido a
que estos esquemas dependen fuertemente de la
eficiencia de las técnicas de autoajuste, las cuales optimizan los parámetros del controlador, se
percibe la necesidad de aumentar los esfuerzos
investigativos enfocados al mejoramiento de estas técnicas, buscando facilidades de implementación en tiempo real sin comprometer los niveles
de precisión y robustez.
La revisión presentada sobre modelos neurodifusos permitió resaltar su capacidad para capturar la dinámica directa e inversa de procesos
complejos, con incertidumbres y variantes en el
tiempo; además de demostrar alta versatilidad y
robustez para diversas aplicaciones de control.
También se detectaron las dificultades que tienen
estos modelos para lograr el autoajuste óptimo de
sus parámetros, puesto que los procedimientos
de auto-sintonización siguen reportando problemas respecto a criterios adecuados de inicialización. Este inconveniente algunas veces provoca
que la velocidad de aprendizaje y adaptación sea
muy lenta en relación con la velocidad del proceso
a controlar.
Al enfocar la revisión de los modelos neurodifusos hacia sistemas estocásticos con información incompleta, se destaca la facilidad con que
estos modelos pueden ser altamente potenciados
a partir de la integración con otros esquemas de
procesamiento, e.g., para aprovechar las ventajas
que ofrece el análisis estadístico, evolutivo o la
124
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
teoría de información, a fin de estructurar soluciones más robustas y confiables, aunque no siempre pueda asegurarse la fácil implementación. En
general, se puede concluir de la literatura, que
los modelos neuro-difusos cuentan con las características dinámicas suficientes para superar
los inconvenientes inherentes a la dinámica estocástica, en sistemas que además pueden tener
el inconveniente de no contar con la información
completa de sus variables de proceso.
[9]
I. S. Baruch, R. Beltran, J. L. Olivares and J. M. Flores, “A fuzzy-neural multi-model for nonlinear systems
identification and control,” Fuzzy Sets and Systems,
Vol. 159, No. 20, pp. 2650-2667, Oct. 2008.
[10]
J. Sanz, A. Fernández, H. Bustince and F. Herrera, “A
genetic tuning to improve the performance of Fuzzy
Rule-Based Classification Systems with Interval-Valued Fuzzy Sets: Degree of ignorance and lateral position,” International Journal of Approximate Reasoning,
Vol. 52, No. 6, pp. 751-766, Sep. 2011.
[11]
V. Novák, “Reasoning about mathematical fuzzy logic
and its future,” Fuzzy Sets and Systems, Vol. 192, No.
1, pp. 25-44, Apr. 2012.
[12]
N. R. Abburi and U. S. Dixit, “A knowledge-based system for the prediction of surface roughness in turning
process,” Robotics and Computer-Integrated Manufacturing, Vol. 22, No. 4, pp. 363-372, Aug. 2006.
[13]
F. Villada, E. García and J. D. Molina, “Electricity Price
Forecasting using Neuro-Fuzzy Networks,” Información Tecnológica, Vol. 22, No. 6, pp. 111-120, 2011.
[14]
P. M. Marusak, “Advantages of an easy to design fuzzy
predictive algorithm in control systems of nonlinear
chemical reactors,” Applied Soft Computing, Vol. 9,
No. 3, pp. 1111-1125, Jun. 2009.
[15]
L. Naderloo, R. Alimardani, M. Omid, F. Sarmadian, P.
Javadikia, M. Y. Torabi, and F. Alimardani, “Application
of ANFIS to predict crop yield based on different energy inputs,” Measurement, Vol. 45, No. 6, pp. 14061413, Jul. 2012.
[16]
T. Takagi and M. Sugeno “Fuzzy identification of systems and its application to modeling and control,”
IEEE Transactions on Systems, Man, and Cybernetics,
Vol. 15, No. 1, pp. 116-132, Jan. 1985.
[17]
A. Zhang, “Robust Reliable Fuzzy Control for Uncertain Markovian Jump Singular Systems,” in Proc. 5th
Int. Conf. Fuzzy Systems and Knowledge Discovery
(FSKD’08), Vol. 1, pp. 406-410, Oct. 2008.
[18]
H. X. Li and Z. Liu, “A Probabilistic Fuzzy Logic System:
learning in the stochastic environment with incomplete dynamics,” in Proc. 2009 IEEE Int. Conf. Systems,
Man and Cybernetics (SMC’09), pp. 383-388.
[19]
S. Ushida, “Control performance improvements due
to fluctuations in dynamics of stochastic control systems,” in Proc. 50th IEEE Conf. on Decision and Control and European Control Conf. (CDC-ECC’11), pp.
1430-1436, 2011.
[20]
H. Yang and L. Sheng, “Robust stability of uncertain
stochastic fuzzy cellular neural networks,” Neurocomputing, Vol. 73, No. 1-3, pp. 133–138, Dec. 2009.
[21]
T. Shibata, “The impacts of uncertainties in a real op-
AGRADECIMIENTOS
Este artículo se presenta en el marco del proyecto de investigación PM10204, financiado por
el Instituto Tecnológico Metropolitano –ITM de
Medellín.
REFERENCIAS
[1]
W. H. Gao and F. Q. Deng, “Parameter-dependent robust stability for nonlinear distributed delay stochastic
systems with polytopic-type uncertainties,” in Proc.
2009 Conference on Machine Learning and Cybernetics, Vol. 6, pp. 3684-3689.
[2]
A. Hossain, Z. A. Choudhury and S. Suyut, “Statistical
Process Control of an Industrial Process in Real Time,”
IEEE Transactions on Industry Applications, Vol. 32,
No. 2, pp. 243-249, Apr. 1996.
[3]
P. Liu and H. Li, “Approximation of stochastic processes by T-S fuzzy systems,” Fuzzy Sets and Systems,
Vol. 155, No. 2, pp. 215-235, Oct. 2005.
[4]
A. Toola, “The safety of process automation,” Automatica, Vol. 29, No. 2, pp. 541-548, Mar. 1993.
[5]
J. C. Rodríguez-Gamboa, E. S. Albarracín and E. Delgado-Trejos, “Quality Control Through Electronic Nose
System,” in Modern Approaches to Quality Control, A. B.
Eldin, Ed., Rijeka Croatia: InTech, 2011, pp. 505-522.
[6]
K. L. Hsieh, L. I. Tong and M. C. wang, “The application
of control chart for defects and defect clustering in IC
manufacturing based on fuzzy theory,” Expert Systems
with Applications, Vol.32, No. 3, pp. 765-776, Apr.
2007.
[7]
R. Del-Hoyo, B. Del-Brío, N. Medrano and J. Fernández,
“Computational intelligence tools for next generation
quality of service management,” Neurocomputing,
Vol. 72, No. 16-18, pp. 3631-3639, Oct. 2009.
[8]
Y. V. Pehlivanoglu and O. Baysal, “Vibrational genetic
algorithm enhanced with fuzzy logic and neural networks,” Aerospace Science and Technology, Vol. 14,
No. 1, pp. 56-64, 2012.
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
tions model under incomplete information,” European
Journal of Operational Research, Vol. 187, No. 3, pp.
1368-1379, Jun. 2008.
125
tions, Vol. 39, No. 2, pp. 219-232, Apr. 2000.
[34]
Y. Lim, R. Venugopal and A. G. Ulsoy, “Auto-tuning and
adaptive control of sheet metal forming,” Control Engineering Practice, VOL. 20, No. 2, pp. 156-164, Feb.
2012.
[35]
R. Hoskinson, K. Van den Doel and S. Fels, “Realtime adaptive control of modal synthesis,” in Proc.
2003 Conf. on New Interfaces for Musical Expression
(NIME’03), pp. 99-103.
[22]
S. K. Mitter, “Filtering and stochastic control: A historical perspective,” IEEE Control Systems, Vol. 16, No. 3,
pp. 67-76, Jun. 1996.
[23]
P. Dorato, “A historical review of robust control,” IEEE
Control Systems Magazine, Vol. 7, No. 2, pp. 44-47,
Apr. 1987.
[24]
J. Zhou and B. Liu, “New stochastic models for capacitated location-allocation problem,” Computers & Industrial Engineering, Vol. 45, No. 1, pp. 111-125, Jun.
2003.
[36]
H. Gu, T. Zhang and Q. Shen, “Decentralized model reference adaptive sliding mode control based on fuzzy
model,” Journal of Systems Engineering and Electronics, Vol. 17, No. 1, pp. 182-186, Mar. 2006.
[25]
L. Xu, J. Wang and Q. Chen, “Kalman filtering state of
charge estimation for battery management system
based on a stochastic fuzzy neural network battery
model,” Energy Conversion and Management, Vol. 53,
No. 1, pp. 33-39, Jan. 2012.
[37]
S. Sánchez and E. Giraldo, “Speed control of induction
motor using fuzzy recursive least squares technique,”
Revista Tecno Lógicas, Vol. 2008, No. 21, pp. 99-111,
Dec. 2008.
[26]
H. Li, and Z. Liu, “A Probabilistic Neural-Fuzzy Learning
System for Stochastic Modeling,” IEEE Transactions
on Fuzzy Systems, Vol. 16, No. 4, pp. 898-908, Aug.
2008.
[38]
D. S. Brito, E. Aguiar, F. Lucena, R. C. S. Freire, Y. Yasuda and A. K. Barros, “Influence of low frequency noise
in adaptive estimation using the LMS algorithm,” Signal Processing, Vol. 89, No. 5, pp. 933-940, 2009.
[27]
Z. Chen, L. Zhao and K. Lee, “Environmental risk assessment of offshore produced water discharges
using a hybrid fuzzy-stochastic modeling approach,”
Environmental Modelling & Software, Vol. 25, No. 6,
pp. 782–792, Jun. 2010.
[39]
Z. Cao, Q. Mu, L. Hu, Y. Liu and L. Xuan, “Improve the
loop frequency of liquid crystal adaptive optics by concurrent control technique,” Optics Communications,
Vol. 283, No. 6, pp. 946-950, Mar. 2010.
[40]
A. S. Silveira, J. E. N. Rodríguez and A. A. R. Coelho,
“Robust design of a 2-DOF GMV controller: A direct
self-tuning and fuzzy scheduling approach,” ISA Transactions, Vol. 51, No. 1, pp. 13-21, Jan. 2012.
[41]
F. Carravetta and G. Mavelli, “Suboptimal stochastic linear feedback control of linear systems with state-and
control-dependent noise: The incomplete information
case,” Automatica, Vol. 43, No. 5, pp. 751-757, May.
2007.
S. Salehi and M. Shahrokhi, “Adaptive fuzzy backstepping approach for temperature control of continuous
stirred tank reactors,” Fuzzy Sets and Systems, Vol.
160, No. 12, pp. 1804-1818, Jun. 2009.
[42]
Z. W. Gong, “Least-square method to priority of the
fuzzy preference relations with incomplete information,” International Journal of Approximate Reasoning,
Vol. 46, No. 2, pp. 258-264, Feb. 2008.
J. Che, J. Wang and G. Wang, “An adaptive fuzzy combination model based on self-organizing map and support vector regression for electric load forecasting,”
Energy, Vol. 37, No. 1, pp. 657-664, Jan. 2012.
[43]
K. J. Åström, “Theory and applications of adaptive control –A survey,” Automatica, Vol. 19, No. 5, pp. 471486, Sep. 1983.
[44]
R. E. Kalman, “Design of a self-optimizing control system,” Transactions of the American Society of Mechanical Engineers, Vol. 80, pp. 468–478, Sep. 1958.
[45]
K. J. Åström and B. Wittenmark, “On self-tuning regulators,” Automatica, vol. 9, no. 2, pp.185-199, Mar. 1973.
[46]
A. Navia and R. Díaz, “Adaptive sigmoidal plant identification using reduced sensitivity recursive least squares,” Signal Processing, Vol. 91, No. 4, pp. 1066-1070,
Apr. 2011.
[28]
[29]
[30]
Z. Liu, H. X. Li, and Y. Zhang, “A Probabilistic Wavelet
System for Stochastic and Incomplete Data-Based
Modeling,” IEEE Transactions on Systems, Man, and
Cybernetics, Part B: Cybernetics, Vol. 38, No. 2, pp.
310-319, Apr. 2008.
[31]
V. A. Akpan and G. D. Hassapis, “Nonlinear model
identification and adaptive model predictive control
using neural networks,” ISA Transactions, Vol. 50, No.
2, pp. 177-194, Apr. 2011.
[32]
G. Stein and G. N. Saridis, “A parameter-adaptive control technique,” Automatica, Vol. 5, No. 6, pp. 731739, Nov. 1969.
[33]
K. K. Tan, T. H. Lee and X. Jiang, “Robust on-line relay
automatic tuning of PID control systems,” ISA Transac-
126
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 113 - 127
[47]
W. Wang and B. Tang, “A fuzzy adaptive method for intelligent control,” Expert Systems with Application, Vol.
16, No. 1, pp. 43-48, Jan. 1999.
[48]
B. F. Wu, L. S. Ma, J. W. Perng and H. I. Chin, “Absolute stability analysis in uncertain static fuzzy control
systems with the parametric robust Popov criterion,”
in Proc. 2008 IEEE Int. Conf. Fuzzy Systems (FUZZIEEE’08), pp. 1325-1330.
[59]
J. Javadi-Moghaddam and A. Bagheri, “An adaptive
neuro-fuzzy sliding mode based genetic algorithm control system for under water remotely operated vehicle,”
Expert Systems with Applications, Vol. 37, No. 1, pp.
647-660, Jan. 2010.
[60]
Y. G. Leu, Y. W. Wang and I. H. Li, “RGA-based on line
tuning of BMF fuzzy-neural networks for adaptive control of uncertain nonlinear systems,” Neurocomputing,
Vol. 72, No. 10-12, pp. 2636-2642, Jun. 2009.
[61]
M. Landín, R. C. Rowe and P. York, “Advantages of neurofuzzy logic against conventional experimental design
and statistical analysis in studying and developing
direct compression formulations,” European Journal
of Pharmaceutical Sciences, Vol. 38, No. 4, pp. 325331, Nov. 2009.
[49]
K. S. Narendra and Z. Han, “Location of models in
multiple-model based adaptive control for improved
performance,” in Proc. 2010 American Control Conference (ACC’10), pp. 117-122.
[50]
H. Han, C. Y. Su and Y. Stepanenko, “Adaptive control
of a class of nonlinear systems with nonlinearly parameterized fuzzy approximators,” IEEE Transactions on
Fuzzy Systems, Vol. 9, No. 2, pp. 315-323, Apr. 2001.
[62]
A. Loria and A. Zavala, “Adaptive tracking control of
chaotic systems with applications to synchronization,”
IEEE Transactions on Circuits and Systems I, Regular
Papers, Vol. 54, No. 9, pp. 2019-2029, Sep. 2007.
T. Ensari and S. Arik, “New results for robust stability of
dynamical neural networks with discrete time delays,”
Expert Systems with Applications, Vol. 37, No. 8, pp.
5925-5930, Aug. 2010.
[63]
Y. G. Leu, W. Y. Wang and T. T. Lee, “Robust adaptive
fuzzy-neural controllers for uncertain nonlinear systems,” IEEE Transactions on Robotics and Automation, Vol. 15, No. 5, pp. 805-817, Oct. 1999.
H. Shao, “Novel delay-dependent stability results for
neural networks with time-varying delays,” Circuits,
Systems, and Signal Processing, Vol. 29, No. 4, pp.
637-647, Aug. 2010.
[64]
F. O. Souza, and R. M. Palhares, “Interval time-varying
delay stability for neural networks,” Neurocomputing,
Vol. 73, No. 13-15, pp. 2789-2792, Aug. 2010.
[65]
J. Tian and X. Zhou, “Improved asymptotic stability
criteria for neural networks with interval time-varying
delay,” Expert Systems with Applications, VOL. 37, No.
12, pp. 7251-7525, Dec. 2010.
[66]
S. Blythe, X. Mao and X. Liao, “Stability of stochastic
delay neural networks,” Journal of the Franklin Institute, Vol. 338, No. 4, pp. 481-495, Jul. 2001.
[51]
[52]
[53]
[54]
C. F. Hsu, “Self-organizing adaptive fuzzy neural control
for a class of nonlinear systems,” IEEE Transactions on
Neural Networks, Vol. 18, No. 4, pp. 1232-1241, Jul.
2007.
C. S. Chen and H. H. Chen, “Robust adaptive neuralfuzzy-network control for the synchronization of uncertain chaotic systems,” Nonlinear Analysis: Real World
Applications, Vol. 10, No. 3, pp. 1466-1479, Jun.
2009.
[55]
Y. Gao and M. J. Er, “Online adaptive fuzzy neural identification and control of a class of MIMO nonlinear systems,” IEEE Transactions on Fuzzy Systems, Vol. 11,
No. 4, pp. 462-477, Aug. 2003.
[67]
H. Huang and J. Cao, “Exponential stability analysis of
uncertain stochastic neural networks with multiple delays,” Nonlinear Analysis: Real World Applications, Vol.
8, No. 2, pp. 646-653, Apr. 2007.
[56]
S. Wang, L. Hou, L. Dong and H. Xiao, “Adaptive fuzzy
sliding mode control of uncertain nonlinear SISO systems,” Procedia Engineering - International Conference on Advances in Engineering, Vol. 24, pp. 33-37,
2011.
[68]
T. W. Huang, “Exponential stability of fuzzy cellular
neural networks with distributed delays,” Physics Letters A, Vol. 351, No. 1-2, pp. 48-52, Feb. 2006.
[69]
B. Liu and P. Shi, “Delay-range-dependent stability for
fuzzy BAM neural networks with time-varying delays,”
Physics Letters A, Vol. 373, No. 21, pp. 1830-1838,
May. 2009.
[70]
X. Y. Lou and B. T. Cui, “Robust asymptotic stability of
uncertain fuzzy BAM neural networks with time-varying
delays,” Fuzzy Sets and Systems, Vol. 158, No. 24, pp.
2746-2756, Dec. 2007.
[71]
H. Li, B. Chen, C. Lin and Q. Zhou, “Mean square exponential stability of stochastic fuzzy Hopfield neural
[57]
[58]
Y. Wang, J. Song and B. Zhang, “Fuzzy Sliding-Mode
Variable Structure Control for Fan Filter Units’ Motor
Speed Regulation System,” Procedia Engineering –
CEIS2011, Vol. 15, pp. 969-973, Aug. 2011.
A. Meharrar, M. Tioursi, M. Hatti and A. Boudghéne, “A
variable speed wind generator maximum power tracking based on adaptative neuro-fuzzy inference system,” Expert Systems with Applications, Vol. 38, No. 6,
pp. 7659-7664, Jun. 2011.
Dinámica Estocástica o Compleja con Información Incompleta: Una Revisión desde el Control – Dávila, Peña, Ortiz, Delgado
networks with discrete and distributed time-varying
delays,” Neurocomputing, Vol. 72, No. 7-9, pp. 20172023, Mar. 2009.
[72]
L. Sheng, M. Gao and H. Yang, “Delay-dependent robust stability for uncertain stochastic fuzzy Hopfield
neural networks with time-varying delays,” Fuzzy Sets
and Systems, Vol. 160, No. 24, pp. 3503-3517, Dec.
2009.
[73]
Z. Shu and J. Lam, “Global exponential estimates of
stochastic interval neural networks with discrete and
distributed delays,” Neurocomputing, Vol. 71, No. 1315, pp. 2950-2963, Ago. 2008.
[74]
W. Su and Y. Chen, “Global robust exponential stability
analysis for stochastic interval neural networks with
time-varying delays,” Communications in Nonlinear
Science and Numerical Simulation, Vol. 14, No. 5, pp.
2293-2300, May. 2009.
[75]
W. Lin and C. I. Byrnes, “Passivity and absolute stabilization of a class of discrete-time nonlinear systems,”
Automatica, Vol. 31, No. 2, pp. 263-267, Feb. 1995.
[76]
X. W. Liu, “Passivity analysis of uncertain fuzzy delayed
systems,” Chaos, Solitons and Fractals, Vol. 34, No. 3,
pp. 833-838, Nov. 2007.
[77]
J. Liang, Z. Wang and X. Liu, “Robust passivity and
passification of stochastic fuzzy time-delay systems,”
Information Sciences, Vol. 180, No. 9, pp. 1725-1737,
May. 2010.
[78]
J. Fu, H. Zhang, T. Ma and Q. Zhang, “On passivity
analysis for stochastic neural networks with interval
time-varying delay,” Neurocomputing, Vol. 73, No. 4-6,
pp. 795-801, Jan. 2010.
127
[79]
P. Balasubramaniam and G. Nagamani, “Global robust
passivity analysis for stochastic fuzzy interval neural
networks with time-varying delays,” Expert Systems
with Applications, Vol. 39, No. 1, pp. 732-742, Jan.
2012.
[80]
M. Syed-Ali and P. Balasubramaniam, “Exponential
stability of uncertain stochastic fuzzy BAM neural networks with time-varying delays,” Neurocomputing, Vol.
72, No. 4-6, pp. 1347-1354, Jan. 2009.
[81]
A. T. Gumus and A. F. Guneri, “A multi-echelon inventory management framework for stochastic and fuzzy
supply chains,” Expert Systems with Applications, Vol.
36, No. 3, pp. 5565–5575, Apr. 2009.
[82]
P. Chaves and T. Kojiri “Deriving reservoir operational strategies considering water quantity and quality
objectives by stochastic fuzzy neural networks,” Advances in Water Resources, Vol. 30, No. 5, pp. 13291341, May. 2007.
[83]
P. Chaves, T. Kojiri and T. Hori, “Stochastic Operation
for Multi-purpose Reservoir Using Neuro-Fuzzy Systems,” Annuals of Disas. Prev. Res. Inst., No. 48B,
14pp., 2005.
[84]
A. Azadeh, S.M. Asadzadeh, M. Saberi, V. Nadimi, A.
Tajvidi and M. Sheikalishahi, “A Neuro-fuzzy-stochastic frontier analysis approach for long-term natural
gas consumption forecasting and behavior analysis:
The cases of Bahrain, Saudi Arabia, Syria, and UAE,”
Applied Energy, vol. 88, No. 11, pp. 3850-3859, Nov.
2011.
Aceros Bainíticos y la Influencia del Boro sobre sus
Propiedades Mecánicas – Revisión Bibliográfica
Influence of Boron in the mechanical properties of Bainitic
steels
Karol Felipe Rodríguez Galeano
Ingeniero Mecánico, Universidad Nacional de Colombia
Estudiante de Maestría en Ingeniería – materiales y procesos
Universidad Nacional de Colombia
Bogotá, Colombia.
[email protected]
Resumen— En las últimas décadas se han hecho importantes desarrollos en equipos industriales de calentamiento y enfriamiento como hornos y muflas,
entre otros, que los hacen muy estables y permiten
hacer incrementos y decrementos de temperatura de
una forma muy controlada y precisa; por esto se ha
permitido hacer estudios sobre materiales que necesitan de ciertos parámetros para adquirirlos, mediante procesos térmicos y mecánicos combinados como
es el caso de los aceros bainíticos. Hoy se investiga sobre este tipo de aceros, variándole porcentajes
de aleantes como lo es el boro y observar cómo varían sus propiedades mecánicas con cada cambio,
lo que permite caracterizarlos y dar una fuerte base
a las industrias para que utilicen nuevos materiales
que tengan menos procesos de fabricación, para que
sean más económicos y menos hostiles con el medio
ambiente. En el presente artículo se caracteriza la
microestructura bainitica y se tienen en cuenta los
cambios de distintas propiedades que son de suma
relevancia industrial respecto al cambio de la cantidad de Boro presente, algunas de estas propiedades
son el esfuerzo de fluencia, el esfuerzo último a la tensión, la deformación de ingeniería cuando estos materiales son sometidos a tensión y una comparación
con los aceros perliticos, los cuales representan una
parte importante de aplicaciones industriales.
Palabras Clave— aceros bainíticos, boro, propiedades mecánicas.
ABSTRACT— In the last decades there have been important developments in industrial equipment of heating and cooling such as are furnaces, muffles, among
others, making them very stable and allowing to make
temperature increases and decreases in a controlled
and precise way; which is why they studies about parameters needed to acquire special materials have
allowed, by combined thermal and mechanical processes such as the bainitic steels. Today it continues
to research this type of steel, changing alloys percentages and watching how they can make mechanical
properties vary, thus allowing to characterize and provide a strong basis for industries using new materials
that have less manufacturing processes, and being
more economical and less hostile to the environment.
In this article bainite microstructure is characterized
and takes into account the changes of properties that
are of great industrial importance regarding the change of the amount of boron present, some of these properties are the yield stress, ultimate stress to stress,
the engineering strain when these materials are subjected to strain and a comparison with pearlitic steels, which represent a significant part of industrial
applications for steel.
Keywords— bainitic steels, boron, mechanical properties.
I. INTRODUCCIÓN
Los aceros bainíticos representan hoy en
día una gran opción para remplazar en varias
aplicaciones a los aceros de alta aleación, debido a su relativo bajo costo y a que presentan
mejores propiedades mecánicas como lo es la
tenacidad y la dureza, aparte de esto tienen una
estructura más fina que los aceros perlíticos a
base de partículas diminutas de Cementita en
una matriz ferrítica por este motivo exhiben una
interesante combinación de resistencia y ductilidad. [1]. Sin embargo, en muchos lugares se
obtienen estos aceros con combinaciones de
ferroaleantes que, a su vez, pueden tener boro
presente, el cual permite aumentar sensiblemente la templabilidad de los aceros al carbono
de baja aleación. [2].
Existe gran variedad de aceros bainíticos:
de alto carbono, con alta soldabilidad; aceros
Recibido: 29/11/2012/ Aceptado: 01/06/2013/ ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136
Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez
de alta resistencia, que compiten con los templados y revenidos; aceros resistentes a altas
temperaturas, usados en las centrales nucleares; aceros inoculados en los cuales, la bainita nuclea al interior de los granos de austenita
produciéndose una microestructura resistente a
la propagación de grietas y otros. La microestructura de los aceros de alta resistencia está
compuesta de ferrita bainítica, martensita y
austenita retenida. Su templabilidad puede ser
mejorada al añadir a su composición de manganeso, cromo y níquel. Generalmente presentan
una gran concentración en silicio que evita la
formación de cementíta. [3]. Este tipo de aceros
no solo tiene aplicaciones en usos científicos
o aeronáuticos, Los aceros bainíticos con bajo
contenido de carbono y series de manganeso
han sido ampliamente usados en muchos campos de la industria para reducir costos y obtener
entre otros un fácil procesamiento, alta templabilidad y buenas propiedades mecánicas [34][35], haciéndolos óptimos para industrias que
tengan que ver con piezas sometidas a desgaste y en construcción de rieles para medios de
transporte ferroviario.
II. BAINITA
Los aceros y las fundiciones nodulares, en
estado bainítico, son familias de aleaciones de
Fe-C que permiten obtener una amplia gama de
propiedades mecánicas. Este hecho ha incentivado el estudio de la reacción bainítica y sus
aplicaciones dirigidas a la sustitución de aceros
altamente aleados para la fabricación de componentes de maquinaria en los que se requiere
alta resistencia a la tracción y capacidad de absorber energía de impacto. [4]. Adicionalmente,
las microestructuras bainiticas han encontrado
aplicación en sistemas donde se requiere resistencia al desgaste, ya sea asociado a fenómenos de rodadura y deslizamiento, como es el
caso del contacto rueda-riel. [5].
La microestructura de la bainita consiste en
listones o placas nucleados en los límites de
grano austenítico, al igual que en las transformaciones de fase difusivas. El paquete bainítico está conformado por listones o placas (subunidades micro-estructurales) paralelos como se
puede observar en la Fig. 1.
129
Fig. 1. EVOLUCIÓN DE UNA PLUMA BAINíTICA EN FUNCIÓN DEL TIEMPO. [4]
El estudio de la transformación bainítica se
ha visto limitado algunas veces debido al tamaño de las unidades micro-estructurales, ya que
la placa observada en el microscopio óptico es
en realidad una pluma bainítica formada por varias subunidades; este tamaño reducido se debe
principalmente a las temperaturas de transformación, que afectan la difusión del carbono, y a
la precipitación de películas de cementíta en los
límites entre las subunidades, que impiden su
crecimiento. [6].
La complejidad de la microestructura bainítica ha dado lugar a la existencia de multitud de
terminologías para representar su morfología, lo
que ha conducido a cierta confusión. [7]. Se denomina ferrita bainítica (αb) a la fase ferrita cuando se encuentra en forma de subunidad de bainita. Las subunidades de ferrita bainítica pueden
contener partículas de cementíta en su interior,
que da lugar a la denominada bainita inferior. Si,
por el contrario, la ferrita bainítica está libre de
partículas de cementíta, la microestructura bainítica se denomina bainita superior. La bainita
superior se forma a mayores temperaturas que
la inferior. [8].
Fig. 2. ESQUEMA DE BAINITA SUPERIOR Y BAINITA INFERIOR [8]
130
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136
Fig. 3. A) MICROGRAFíA DE LUZ QUE MUESTRA POLEAS DE BAINITA INFERIOR EN UNA ALEACIÓN FE-0.3C-4CR WT% PARCIALMENTE TRANSFORMADA (395°C). EL GRABADO LUMINOSO MUESTRA UNA MATRIZ DE FASE
MARTENSíTICA
de la temperatura y no de la composición química, en los aceros de baja aleación tiene la
forma [15].
B) CORRESPONDIENTE A UN MICROSCOPIO DE TRANSMISIÓN DE ELECTRONES QUE MUESTRA SUBUNIDADES DE BAINITA INFERIOR [1]
La morfología de placa tiende a formarse a
bajas temperaturas y a altas concentraciones de
carbono y, en general, cuando la austenita madre
presenta alta resistencia. [1]. De igual manera, el
espesor de placa es un importante parámetro en
la caracterización de la ferrita bainítica, pues su
afinamiento da lugar a un aumento simultáneo de
resistencia y tenacidad en el material. Es sabido
que el espesor de placa disminuye con la temperatura de transformación. [10]-[11]. En particular,
Parker [12] ha encontrado la siguiente dependencia:
Donde ue es el espesor de la subunidad de la
ferrita bainítica y T la temperatura en K. En los estudios de Singh y Bhadeshia, es la resistencia de
la austenita la principal responsable del valor del
espesor de placa de la ferrita bainítica αb. [13].
Para poder obtener la transformación bainítica,
se necesita de ciertas condiciones termodinámicas, desde el punto de vista teórico y de acuerdo
con Bhadeshia [14], las condiciones termodinámicas que se deben cumplir para la transformación
bainítica son:
Nucleación
Crecimiento
La función GN, también denominada función
universal de nucleación, debido a que depende
T es la temperatura en grados Kelvin
La bainita es un micro constituyente que se
obtiene mediante procesos de transformación
isotérmica, generalmente a temperaturas entre 200 y 300°C. Sin embargo, para acelerar la
transformación de este elemento se adicionan
aleantes como el aluminio y el cobalto [31], en
concentraciones inferiores al 2% dentro de la
composición química del acero [32]-[33].
Por encontrarse entre una transformación
difusional (ferrita/perlita) y otra adifusional
(martensíta), la bainita conserva características de ambas. Así su nucleación tiene lugar
bajo condiciones de para equilibrio, solo el
carbono difunde, y el crecimiento es completamente adifusional, tipo martensítico. Cuando
un núcleo crece, lo hace con una morfología
acicular, para poder acomodar la deformación
plástica inducida en la austenita, una vez que
el crecimiento de una aguja/placa de ferrita
bainítica termina, el exceso de Carbono que
pueda tener se difunde a la austenita vecina,
de forma tal que la siguiente placa ha de crecer a partir de una austenita enriquecida en
Carbono. Esto ocurrirá siempre y cuando la
concentración de carbono no supere un valor
límite teórico denominado curva [3]. Que representa el límite de concentración de carbono de
la austenita por encima del cual no puede tener lugar una transformación adifusional. [8].
Debido a la saturación de carbono en la
austenita, existe posibilidad de saturación de
cementíta desde la austenita enriquecida. Sin
embargo, esta precipitación característica de
la bainita común, resulta perjudicial por su
efecto fragilizante y se ha descubierto que puede ser evitada por la adición de Si en cantidades adecuadas, por ejemplo 1.5% Si [1]-[16].
Para la aplicación óptima de los aceros bainíticos, estos se encuentren libres de carburos
con el fin de obtener una microestructura que
contenga placas de ferrita y austenita retenida,
que elimina comportamientos no deseables a
temperatura ambiente como lo sería el fragilizante dado por la presencia de cementíta. Esta
Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez
precipitación de cementíta durante la transformación bainítica puede evitarse al alear el
acero con silicio en cantidades de un 1,5%
aproximadamente. El silicio presenta muy baja
solubilidad en la cementíta y retrasa el crecimiento de la misma en la austenita residual
tras la formación de bainita. [17]. El carbono
expulsado como consecuencia de la formación
de la ferrita bainítica enriquecerá la austenita
residual, produciéndose así su estabilización
hasta la temperatura ambiente. El resultado
es una microestructura formada por placas
muy finas de ferrita bainítica separadas por regiones de austenita enriquecidas en carbono.
Una microestructura de estas características
es ideal desde muchos puntos de vista; en primer lugar, el acero tendrá una alta resistencia
a la fractura por clivaje. Por otro lado, existe
la posibilidad de mejorar, simultáneamente, la
resistencia y la tenacidad debido al tamaño de
grano ultrafino de las placas de ferrita bainítica y al efecto de transformación inducida por
deformación plástica. Sin embargo, a pesar de
todas estas ventajas, la microestructura de ferrita bainítica-austenita no satisface en algunas ocasiones todas sus expectativas. Ello se
debe a la inestabilidad de la austenita cuando
se presenta en la microestructura en forma de
grandes bloques atrapados entre los haces de
bainita. [14]-[18].
131
Fig. 4. TENACIDAD Y DUCTILIDAD MEJORADAS DE VARILLAS AUSTENIZADAS QUE SE COMPARAN CON VARILLAS TEMPLADAS Y REVENIDAS DE
IGUAL DUREZA. [20]
Fig. 5. COMPARACIÓN ENTRE EL MÉTODO DE AUSTENIZADO Y
EL DE TEMPLADO Y REVENIDO PARA UN ACERO [21]
III. PROCESO DE ADQUISICIÓN DE LA
BAINITA
El austenizado es un proceso de tratamiento térmico desarrollado para obtener una estructura que es 100% bainita. Este se logra
calentando primero la pieza de la temperatura
de austenización propia, seguida de un rápido
enfriamiento en un baño de sal mantenido en
el intervalo de bainita (generalmente entre 400
y 800°F). La pieza se deja en el baño hasta que
se completa la transformación a bainita.
La comparación de las propiedades mecánicas desarrolladas por el austenizado y por el
método de temple y revenido suele hacerse a
la misma dureza o resistencia. La superioridad
del austenizado destaca en tales propiedades
como reducción de área en tensión, resistencia al impacto y la prueba del combado lento.
[19].
Este proceso tiene un inconveniente y es que
son ideales las secciones que pueden enfriarse
con suficiente rapidez para evitar la transforma-
132
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136
ción a perlita, en el intervalo de temperatura de
900 a 1200°F ; por tanto, la mayoría de las aplicaciones industriales han sido secciones de espesor
menor a ½ pulgada que puede incrementarse un
poco con el empleo de aceros aleados, pero entonces el tiempo para terminar la transformación
a bainita puede ser excesivo.
En los casos de la martensíta o de la ferrita
Widmanstätten, y debido al bajo coeficiente de
difusión del hierro a las temperaturas de la transformación bainítica, la deformación involucra un
movimiento coordinado de átomos que, mediante
una deformación homogénea, conforman la nueva red, existiendo una correspondencia de red entre la nueva fase y la fase de origen. De acuerdo
con esto, mediante técnicas de alta resolución.
[16]-[22]-[23]. Se ha mostrado que los átomos
sustitucionales como Mn, Si, Ni, Mo y Cr quedan
“congelados” en sus posiciones originales tras la
transformación bainítica.
IV. PROPIEDADES MECÁNICAS
En cuanto a la fluencia, la bainita presenta un
mejor comportamiento que la perlita y la ferrita
proeutectoide y es superada por la martensíta.
Sin embargo, debido a que la martensíta generalmente se utiliza en estado revenido, estas dos microestructuras pueden ser similares con respecto
a la resistencia a la fluencia. Aún mas, cuando se
obtiene bainita de baja temperatura, de 120°C a
200°C, el espesor de las placas llega a ser tan pequeño, que la mezcla de esta bainita con la austenita retenida puede proporcionar durezas de 600
HV, como fue mostrado por algunos autores. [24].
Si tenemos en cuenta que a la ductilidad se le
sumaría la energía que puede soportar al impacto, la bainita presenta un mejor comportamiento
con respecto a la perlita y a la martensíta revenida, gracias al tamaño de las placas bainíticas y al
menor tamaño de los carburos que presenta con
respecto a la martensíta revenida. [25].
En la bainita hay que destacar que la inferior
(baja temperatura en la fundición nodular) presenta una mayor tenacidad que la bainita superior (alta temperatura), a pesar de que también
tiene una mayor resistencia a la fluencia. Esto
puede ser atribuido al menor tamaño de los paquetes y de las placas, los cuales tienen un cambio mayor en la orientación entre sus límites que
incrementa el obstáculo tanto al movimiento de
las dislocaciones como a la propagación de las
grietas. [26].
Se debe tomar en cuenta si la austenita está
en forma de películas o bloques; la austenita en
bloques afecta desfavorablemente la resistencia
a la fluencia y la tenacidad, mientras que en forma de películas mejora el comportamiento en
estas mismas propiedades. [27]. Al contar con
un adecuado control del tamaño de grano austenítico y del ancho de los paquetes de subunidades, incluso la bainita superior podría presentar
una mayor tenacidad que la martensíta revenida
del mismo nivel de resistencia. [28].
V. ACEROS BAINÍTICOS Y ESTUDIOS SOBRE
LA INFLUENCIA DEL BORO
El boro ha sido utilizado como elemento
aleante que aumenta la templabilidad en aceros
de baja aleación y, a su vez, cuando se agrega
en cantidades sumamente pequeñas, que al ser
comparadas con otros elementos aleantes serían despreciables, incrementa de forma considerable la dureza de los aceros. López – Chipres
[37] en su escrito, dice que según la naturaleza
dual del átomo de boro en la austenita y su entorno, este se puede encontrar en posición sustitucional o intersticial, si el átomo tiene suficiente
energía, puede pasar de una posición sustitucional a una intersticial con lo que podrá difundir
más rápidamente; esta teoría es complementada por los estudios realizados por Wang [38], los
cuales hablan de difusión intersticial del boro
porque los resultados obtenidos con este elemento se pueden asemejar a los resultados obtenidos en la difusión del carbono.
El principal efecto del boro es la inhibición de
la ferrita en el límite de grano austenítico, pues
facilita la formación de bainita y martensíta y
proporciona de esta forma la templabilidad del
acero, este efecto es debido al hecho que la segregación del boro hacia los límites de grano de
la austenita disminuye la energía interfacial al reducir los sitios preferenciales para la nucleación
de la ferrita [39], de todas formas si la cantidad
de boro es muy alta se supera fácilmente el límite de solubilidad con lo cual se formarían boruros
en los límites de grano que favorecen la nucleación de ferrita [40].
Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez
La segregación del Boro hacia los límites de
grano de la austenita en los aceros bainíticos modifica sus características termodinámicas y da lugar a un ablandamiento de la austenita a trabajar
en caliente [41]. Estudios realizados por Stumpf
[42] y Song [43] sobre la fluencia en caliente en
aceros, muestran que el pico de tensión y el pico
de deformación en las curvas de fluencia tiene
tendencia a disminuir a medida que se aumenta
el contenido de boro.
Hay estudios en los cuales se hacen comparaciones de los aceros bainíticos aleados con boro
respecto a los aceros perlíticos, en los cuales se
muestra cómo varían las propiedades mecánicas
como la resistencia ultima y el esfuerzo de fluencia entre otros. La Tabla I muestra un incremento de 399 MPa (36%) en la resistencia última,
485 MPa (77%) de incremento en el esfuerzo de
fluencia y 1.7% (15% relativo) en la deformación,
ubicando a los aceros bainíticos en un mayor escalafón respecto a los aceros perlíticos, dándoles
muchos campos de aplicación.
TABLA I.
TABLA COMPARATIVA DE PROPIEDADES MECÁNICAS RELEVANTES ENTRE
ACERO PERLíTICO CONTRA ACERO BAINíTICO J6 [44]
Propiedades
mecanicas
Acero perlitico
Acero Bainitico J6
Esfuerzo Último
(MPa)
1114
1513
Esfuerzo de Fluencia (MPa)
624
1109
Elongación (100%)
11.1
12.8
Tenacidad de Fractura Ki (MPa)
95
150
Fig. 6. CURVA ESFUERZO VS. DEFORMACIÓN DE UN ACERO BAINíTICO
ALEADO CON BORO (LíNEA ROJA) Y UN ACERO PERLíTICO (LíNEA AZUL)
[44]
Miihkinen y Edmonds [50]-[51] realizaron investigaciones sobre dos aceros bainíticos con alto
contenido en Silicio, de composición nóminas Fe0,2C-2Si-3Mn y Fe-0,4C-2Si-4Ni en porcentaje en
133
peso, ambas aleaciones presentaban niveles de
resistencia y tenacidad cercano a los de los aceros comerciales martensíticos de alta resistencia
cuando se trataban isotérmicamente a las temperaturas de transformación bainítica. Aunque este
tipo de aleaciones se hicieron con fines netamente académicos y no con algún enfoque industrial.
Hay otros trabajos en los cuales se ha variado
los porcentajes de boro dentro de aceros bainíticos, analizan cambios relevantes en las propiedades mecánicas, este es el caso de Dian [45], el
cual evalúa el crecimiento del esfuerzo de fluencia, el esfuerzo último y la elongación y los cuales
son notorios en las Figuras 7,8 y 9
Fig 7, 8 y 9. VARIACIÓN DE LAS PROPIEDADES MECÁNICAS CON RESPECTO A LOS CONTENIDOS DE BORO [45]
134
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136
Otro trabajo que vale la pena mencionar es el
realizado por Bedolla [46], en el cual analiza la variación de las propiedades mecánicas de aceros
aleados con boro respecto a dos medios de enfriamiento (aire y agua), en este trabajo muestra que
las estructuras bainíticas fueron generadas a raíz
del enfriamiento al aire después del proceso de
laminación, mientras que en el acero enfriado en
agua predominó la presencia de martensita, por
otro lado, el boro mostró un efecto favorable en la
formación de bainita superior y se concluyó que la
mejor combinación de propiedades mecánicas se
obtuvo cuando el acero presentó 76 ppm de boro
y un enfriamiento al aire, el cual obtuvo valores de
esfuerzo máximo de 830MPa, esfuerzo de fluencia de 750MPa, 15% de elongación y una dureza
promedio de 40HRc.
Fig 10 y 11. PROPIEDADES MECÁNICAS DEL ACERO ENFRIADO AL AIRE Y
ENFRIADO EN AGUA EN FUNCIÓN DEL CONTENIDO DE BORO [46]
de bainita de 20 a 100nm de espesor [29]. Con
el desarrollo de estos nuevos aceros se pueden
alcanzar valores en la energía de impacto Charpy
entre 24-44 J, además, en ensayos de tensión se
obtienen esfuerzos entre 1600 a 1800Mpa. [26].
La nanoestructura bainítica es diseñada para evitar la formación de cementíta, la cual es muy estable debido a las adiciones de manganeso [30].
En la actualidad aún se hacen estudios sobre aceros superbainíticos, nuevas estructuras y
mejora de propiedades mecánicas por medio de
tecnologías de punta aplicadas a este tipo de materiales, es el caso de la investigación de un grupo
de posdoctores en la Universidad de Cambridge.
Se han desarrollado aceros bainíticos libres de
carburos y altos en carbono (0.8%) que por mantenimiento isotérmico a temperaturas muy bajas
(125 – 300ºC) durante periodos de tiempo razonables a escala industrial, dan lugar a una estructura mixta de ferrita-bainítica, excepcionalmente
fina (20-80nm), y austenita retenida. La finura de
la microestructura junto con la alta fracción de ferrita-bainítica presente (≈80%) confieren al material de unas propiedades mecánicas nunca antes
conseguidas en aceros de este tipo. Esfuerzo de
fluencia = 2.5GPa, KIC=45MPa√m, HV30= 650.
En la actualidad, estos aceros se utilizan para la
fabricación de blindajes, rodamientos y componentes de cajas de cambios sometidos a grandes
esfuerzos [47]-[48]-[49].
REFERENCIAS
En los últimos tiempos ha surgido una nueva
clase de aceros bainíticos libres de carburos, conocidos como aceros nanoestructurados, formados a bajas temperaturas de transformación de
bainita, para obtener materiales con subunidades
[1]
H. K. D. H. Bhadeshia. Bainite in Steels: Transformations, Micostructure and Poperties - 2nd
Edition. Published by the Institute of Materials.
Publication Date March 2001.
[2]
http://www.zerneri.com/espanol/aboro.htm.
[3]
Cristian Viáfara y Juan Manuel Vélez. Transformación Bainítica en aleaciones Fe-C. Ingeniería
y Ciencia, ISSN. Septiembre de 2005.
[4]
H.K.D.H. Bhadeshia. Bainite in Steels: Transformations, Microstructure and Properties, The Institute of Materials, 16-199 (1992).
[5]
C.C. Viáfara, M.I. Castro, J.M. Vélez y A. Toro. Unlubricated Sliding Wear of Pearlitic and Bainitic
Steels, Wear, 259, 411-416 (2005).
Aceros Bainíticos y la Influencia del Boro sobre sus Propiedades Mecánicas – Revisión Bibliográfica – Rodríguez
[6]
F.B. Pickering. The estructure and Properties of
Bainite in Steels, Symposium: Transformation
and Hardenability in Steels, 1967.
[7]
Bramfitt B L, Speer J G. Steels Alloys with Lower
Bainite Microstructures for Use in Railroad Cars
and Track. Federal Railroad Administration.
2002.
[8]
Mauricio Alejandro Sierra Cetina. Obtención
y evaluación de las propiedades mecánicas
del acero bainítico Fe-0.32C-1.45Si- 1.97Mn1.26Cr-0.26Mo-0.10V aleado con Boro. BOGOTÁ, D.C. 2011.
[9]
H K D H Bhadeshia, D V Edmonds. Metals Science. 17 (1983) 411-419.
[10] CHESTER, N. A. y BHADESHIA, H. K. D. H. (1997)
Phys. IV France 7, Colloque C5: C5-41 – C5-46.
[11] CHANG, L. C. y BHADESHIA, H. K. D. H. (1995)
Mat. Sci. and Tech., 11: 874-881.
[12] PARKER, S. V. (1997) Tesis Doctoral. Universidad
de Cambridge.
[13] SINGH, S. B. y BHADESHIA, H. K. D. H. (1998)
Mat. Sci. and Eng. A245: 72-79.
[14] H K D H Bhadeshia, D V Edmonds. Metals Science. 17 (1983) 411-419.
[15] H K D H Bhadeshia, D V Edmonds. Metals Science. 17 (1983) 420-425.
[16] H K D H Bhadeshia, A R Waugh. Acta Metals. 30
(1982) 775-784.
[17] S.J. Matas y R.F. Hehemann, Trans. Metall. Soc.
AIME 221 (1961).] [V.T.T. Mihkinen y D.V. Edmonds, Mater. Sci. Technol. 3 (1987) 411-449.
[18] H.K.D.H. Bhadeshia, Mater. Sci. Technol. 15
(1999).
[19] Sydney H. Avner. Introducción a la Metalurgia
Física. Segunda Edición. McGraw Hill. México.
1988.
[20] Research Laboratory, U.S. Steel Corporation.
135
[23] STARK, I., SMITH, G. D. W. y BHADESHIA, H. K. D.
H. (1987) Phase Transformations’ 87. Ed. por G.
W. Lorimer., The Institute of Metals, Cambridge:
211- 215.
[24] C. García-Mateo, F.G, Caballero y H.K.D.H. Bhadeshia. Low Temperature Bainite, International
Conference on Martensitic Transformations (ICOMAT ’02), Helsinki, Finland, 2002.
[25] H. Sierra. Aceros de Construcción Mecánica, de
Herramientas e Inoxidables y Pautas para su selección, Universidad Nacional de Colombia, Medellín, 110-125 (2000).
[26] F.B. Pickering. Th estructure and Properties of
Bainite in Steels, Symposium: Transformation
and Hardenability in Steels, 1967.
[27] B.J.P. Sandvik y H.P. Nevalainen. StructureProperty Relationships in Commercial Low-Alloy
Bainitic-Austenitic Steel With High Strength, Met.
June, 213-20 (1981).
[28] J.P. Naylor y P.R. Krahe. The effect Of the Bainite
Packet Size on Toughness, Met. Trans. 5, 16991701 (1974).
[29] M.N. Yoozbashi, S. Yazdani. Mechanical properties of nanostructured, low temperature bainitic
steel designed using a thermodynamic model.
Materials Science and Engineering A 527 [2010]
3200–3205.
[30] C.M. Amey, H. Huang, P.E.J. Rivera-Díaz-del-Castillo, Distortion in 100Cr6 and nanostructured
bainite, Materials and Design 35 [2012] 66–71.
[31] F.C. Zhang, T.S. Wang, P. Zhang, C.L. Zheng, B.
Lv, M. Zhang and Y.Z. Zheng. A novel method for
the development of a low-temperature bainitic
microstructure in the surface layer of low-carbon
steel. Scripta Materialia 59 [2008] 294–296.
[32] Lihe Qian , Qian Zhou, Fucheng Zhang, Jiangying
Meng, Ming Zhang, Yuan Tian. Microstructure
and mechanical properties of a low carbon carbide-free bainitic steel co-alloyed with Al and Si.
Materials and Design 39 [2012] 264–268.
[21] Suiting the heat treatment to the job; a simple
discussion of the problems of heat treatment.
Carnegie-Illinois Steel Corporation. United States
Steel. 1946.
[33] I. Mejía, A. Bedolla-Jacuindea, C. Maldonado,
J.M. Cabrerab,c. Hot ductility behavior of a low
carbon advanced high strength steel [AHSS] microalloyed with boron. Materials Science and Engineering A 528 [2011] 4468–4474.
[22] STARK, I., SMITH, G. D. W. y BHADESHIA, H. K. D.
H. (1990) Met. Trans A, Vol 21: 837-844.
[34] WANG Yong-wei , FENG Chun , XU Feng-yun , BAI
Bing-zhe , FANG Hong-sheng. Influence of Nb on
136
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 128 - 136
Microstructure and Property of Low-Carbon MnSeries Air-Cooled Bainitic Steel. JOURNAL OF
IRON AND STEEL RESEARCH, INTERNXfIONAL.
2010, 17[1]: 49-53.
[42] STUMPF, W., BANKS, K. The hot working characteristics of a boron bearing and a conventional
low carbon steel. Materials Science and Engineering, 2006, pp. 86-94.
[35] ZHANG Han. BAI Bing-zhe , FANG Hong-sheng. A
Mn-Series of Oil-Quenched Super-Strength Bainitic Steel With High Hardenability. JOURNAL OF
IRON AND STEEL RESEARCH, INTERNATIONAL.
2010. 17[5]: 38-43
[43] SONG, S.H. Effect of Boron on the hot ductility
of 2.25Cr1Mo steel. Materials Science and Engineering, 2003.
[36] M. Naderia, M. Ketabchia, M. Abbasia, W. Bleck.
Analysis of microstructure and mechanical properties of different boron and non-boron alloyed
steels after being hot stamped. Procedia Engineering 10 [2011] 460–465.
[44] AGLAN, H.A. Mechanical and fracture behavior
of bainitic rail steels. Materials Process Technology. 2004, pags 268 – 274.
[45] DIAN, F. Effect of boron on the microstructure
and mechanics properties of cold rolled multiphase steels. 2011.
[37] LÓPEZ-CHIPRES, E. [et al.] Hot flow behavior of
boron microalloyed steels. Materials Science
and Engineering, 2008, págs. 49-55.
[46] BEDOLLA, J.A. High resistance boron treated steels for railways applications. Materials Science
and Technology. 2009. Vol. 25. No. 3.
[38] WANG, W., ZHANG, S., HE, X. Diffusion of boron
in alloys. Acta Metalurgia, Vol 43, 1994, pags.
1693-1699.
[47] C Garcia – Mateo, H K D H Bhadeshia, Material
Science and Engineering. 378 (2004) 289 –
292.
[39] BRAMFITT, BRUCE L., BENSCOTER, ARLON O.
Metallographer’s Guide. Practices and Procedures for Irons and Steels. ASM International,
2002.
[48] F.G. Caballero, H.K.D.H. Bhadeshia, K.J.A. Mawella, D.G. Jones y P. Brown. Mater. Scien. Tech.18
(2002) 279.
[40] PORTER, D.A., EASTERLING, K.E. Phase Transformations in Metals and Alloys. Nelson Thorners,
1992.
[41] BRAMFITT, B.L., SPEER, J.G. A Perspective on the
Morphology of Bainite. Metallurgical Transactions A, Vol. 21A, 1990, págs. 817-829.
[49] C. García-Mateo, F.G. Caballero , H. K. D. H. Bhadeshia. ISIJ Int. 43 (2003). 1238.
[50] V.T.T, Miihkinen y D.V. Edmonds, Mater. Sci. Technol. 3 (1987) 422-431.
[51] V.T.T, Miihkinen y D.V. Edmonds, Mater. Sci. Technol. 3 (1987) 432-440.
Instrucciones a los autores
Revista ITECKNE
Instrucciones Generales
• Los artículos deberán ser enviados en formato digital al correo electrónico e-mail: [email protected]
trabajos se aceptan para la publicación previo proceso de revisión de su calidad académica y científica.
•
Todo artículo postulado para publicación debe ser original o inédito, y no puede estar postulado para publicación simultáneamente en otras revistas. En la página web de la Revista Iteckne se halla disponible la
declaración de originalidad y cesión de derechos, que los autores deberán diligenciar y enviar al Comité
Editorial, junto con el artículo. La revista Iteckne requiere a los autores que concedan la propiedad de sus
derechos de autor, para que su artículo y materiales sean reproducidos, publicados, editados, fijados, comunicados y transmitidos públicamente en cualquier forma o medio, así como su distribución en el número
de ejemplares que se requieran y su comunicación pública, en cada una de sus modalidades, incluida su
puesta a disposición del público a través de medios electrónicos, ópticos o de otra cualquier tecnología,
para fines exclusivamente científicos, culturales, de difusión y sin fines de lucro.
•
El Comité Editorial hace una primera evaluación, después de la cual, el trabajo puede ser rechazado sin
evaluación adicional o se acepta para la evaluación de los pares académicos externos. Por lo anterior, no
se asegura a los autores la publicación inmediata de dicho artículo. La decisión de rechazar un trabajo es
definitiva e inapelable.
•
Los trabajos pueden ser rechazados en esta primera evaluación porque no cumplen con los requisitos de
redacción, presentación, estructura o no son suficientemente originales y/o pertinentes con la publicación
a editar. Los trabajos que son aceptados en esta primera etapa, son enviados a los pares académicos externos (árbitros) expertos en el área respectiva, cuyas identidades no serán conocidaspor el autor y, a su vez,
los pares evaluadores tampoco conocerá la(s) identidad(es) del(los) autor(es).
•
Si el trabajo es aceptado, pero con la recomendación de hacer modificaciones, se le devolverá al (los)
autor(es) junto con las recomendaciones de los árbitros para que preparen una nueva versión corregida
para lo cual disponen del tiempo que le indique el Comité Editorial. Los autores deben remitir la nueva versión con una carta física o correo electrónico en la que expliquen detalladamente los cambios efectuados,
de acuerdo con las recomendaciones recibidas. El Editor junto con el Comité Editorial determinarán su
aceptación, considerando el concepto de los evaluadores y las correcciones realizadas por el(los) autor(es).
•
Los árbitros realizarán la evaluación de acuerdo al formato correspondiente establecido por la revista y sólo
serán publicados los artículos que superen en la calificación cualitativa en la escala de 1 a 50, 35 puntos.
•
En todos los casos se comunicarán a los autores los resultados del proceso de evaluación con los argumentos que sustenten la decisión del Comité Editorial y/o el Comité de Arbitraje.
•
Un árbitro podrá calificar dos (2) artículos de diferentes autores al tiempo, de igual forma un artículo podrá
ser calificado por dos árbitros diferentes, ya sean internos, nacionales o internacionales.
•
Los integrantes del Comité Editorial y Comité de Arbitraje, no deberán evaluar sus propios productos, en
caso tal que actúen como autores dentro de la misma publicación.
•
Los trabajos no publicados serán archivados como artículos rechazados o en proceso de aceptación.
•
La dirección de la revista ITECKNE no se responsabiliza por el contenido de los artículos, ni por su publicación en otros medios. El contenido de cada artículo es responsabilidad exclusiva de su(s) autor(es) y no
compromete a la Universidad.
138
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 137 - 139
Forma de Presentación de los Artículos.
Todos los documentos postulantes a ser publicados deberán tener las partes requeridas y cumplir con los
apartados descritos a continuación:
De las partes del documento
El documento debe contener: Titulo, Title, Autor (es), Resumen, Palabras clave, Abstract, Keywords, Introducción, Contenido del documento, Conclusiones, Apéndice(s), Agradecimientos, Bibliografía
De la redacción
Para lograr un buen estilo se recomienda respetar rigurosamente la sintaxis, la ortografía y las reglas gramaticales pertinentes. Se debe redactar en forma impersonal (la forma impersonal corresponde a la forma
reflexiva, por ejemplo: se hace, se define, se definió, se contrastó). El trabajo debe estar exento de errores
dactilográficos, ortográficos, gramaticales y de redacción. Para resaltar, puede usarse letra cursiva o negrilla.
De la Puntuación
• Después de punto seguido se deja un espacio; y de punto aparte una interlínea.
•
Los dos puntos se escriben inmediatamente después de la palabra, seguidos de un espacio y el textocomienza con minúsculas.
De los requerimientos físicos del artículo: (ver plantilla revista ITECKNE)
• El tamaño de la página será carta, con márgenes superior e inferior de 20 mm; izquierdo y derecho de 25
mm. El documento se desarrollará en dos columnas con separación central de 4,3 mm.
•
El diseño de encabezado y pie de página debe estar a un centímetro de la hoja.
•
El contenido del documento debe desarrollarse a espacio sencillo, dejando una línea cada vez que se desea
iniciar un párrafo.
•
El texto del contenido del artículo se formalizará con tipo de fuente Arial tamaño 10.
•
La numeración del documento se iniciará desde la Nomenclatura en caso de existir una, hasta las conclusiones del documento. Los agradecimientos, apéndices y referencias bibliográficas, no son consideradas como
Secciones numeradas del documento.
•
Las tablas deberán llevar numeración continua, comenzando en Tabla I., referenciando posteriormente su
título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la tabla con tabulacióncentral, en
tipo de letra Arial, tamaño 8. (Ver plantilla revista Iteckne).
•
Las Figuras deberán llevar numeración continua, comenzando en Fig. 1. referenciando posteriormente su título, en mayúscula sostenida, ubicado en la parte superior del cuerpo de la figura, con tabulación central, en
tipo de letra Arial, tamaño 8. Nótese que “Fig.” se ha escrito abreviada y hay doble espacio antes del texto.
•
Las figuras incluidas en el contenido del artículo deben ser originales, suficientemente claras, para facilitar
la edición de la revista.
•
Todas las figuras deben ser enviadas por separado en formato jpg con una resolución entre 240 y 300 dpi
(puntos por pulgada).
•
Las tablas y figuras del documento, deberán ir referenciadas en el cuerpo del artículo. Dicha referencia debe
ir en letra Arial tamaño 7, en la parte inferior de la figura o tabla, tabulado a la izquierda.
•
Las columnas de la última página deben ser concluidas con un largo igual o simétrico.
•
Las referencias ubicadas al final del documento (mínimo 15), según el formato IEEE. Deberán ir enumeradas consecutivamente (Número entre corchetes [1], y con el siguiente formato:
Instrucciones a los autores Revista ITECKNE
139
Artículos de revistas científicas
Autor(es), Nombre de la publicación, Título de la revista, Volumen, Número, páginas y año. Deben ir en fuente
Arial, Tamaño 7.
Ejemplo: J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988.
Libros
Autor, Nombre del libro, Edición, Editorial, Año, páginas.
Ejemplo: E. Clarke, Circuit Analysis of AC Power Systems, vol. I. New York: Wiley, 1950, p. 81.
•
En cuanto a las abreviaturas y símbolos, deben utilizarse solo abreviaturas estándar, evitando utilizarlas en
el título y el resumen. El término completo representado por la abreviatura debe preceder dicha abreviatura
o nomenclatura.
•
Las viñetas usadas para señalización especial, será el punto, de fuente Symbol y tamaño 8.
•
En caso de que los artículos contengan fórmulas matemáticas, deben estar digitadas en fuente Arial 10,
mediante el editor de ecuaciones de Microsoft.
•
El artículo deberá tener un mínimo de 4 caras de hoja y un máximo de 10 caras de hoja de contenido, en el
formato establecido por la revista.
Instructions to the authors,
ITECKNE Journal
General instructions
• The articles must be sent in digital format to the following email address: [email protected]. Their academic and scientific quality will be reviewed prior to being accepted for publication.
•
The articles are accepted for publication after their academic and scientific quality have been reviewed.
•
All articles postulated for publication must be original or unpublished, and cannot be postulated for publication simultaneously in other journals. The declaration of originality and copyright assignment is available in
the Iteckne Journal webpage. The authors must sign it and send it to the Publishing Committee, along with
the article. The Iteckne journal requires the authors to grant the property of their author’s rights, so that their
article and materials are reproduced, published, edited, fixed, communicated and publicly transmitted in any
form or means, as well as their distribution in any required number of units and their public communication,
in each of their modalities, including putting them at the disposal of the public through electronic, optical or
any other means of technology, for exclusively scientific, cultural, broadcasting and nonprofit aims.
•
The Publishing Committee makes a first evaluation, after which the work can be rejected without any additional evaluation or accepted for evaluation of the external academic pairs. The previous statement does
not assure the immediate publication of the article. The decision to reject a work is definitive and unquestionable.
•
The works can be rejected in this first evaluation because they do not fulfill the writing requirements, presentation, and structure or are not original enough and/or pertinent with the publication to be published. The
works that are accepted in this first stage are sent to the external academic peers (referees) experts in the
respective area, whose identities will not be known by the author and, similarly, the evaluating peers will not
know the identity/ies of the author /s.
•
If the work is accepted, but with the recommendation to make modifications, it will be given back to the
author/s along with the recommendations from the referees so that he/they prepare a new corrected version within the time indicated by the Publishing Committee. The authors must send the new version with a
physical letter or an e-mail in which they explain in detail the changes made, in accordance with the received
recommendations. The Publisher along with the Publishing Committee will determine its acceptance, considering the concept of the evaluators and the corrections made by the author/s.
•
The referees will carry out the evaluation according to the corresponding format established by the journal
and they will only publish the articles with over 35 points in the qualitative qualification scale from 1 to 50.
•
The authors will always be informed about the results of the process of evaluation that sustain the decision
of the Publishing Committee and/or the Referees.
•
An academic peer (referee) will be able to grade two (2) articles by different authors at once; similarly, an
article can be graded by two different referees, which can be internal, national or international.
•
The members of the Publishing and Referees Committees must not evaluate their own products, in case they
act like authors within the same publication.
•
The non-published works will be filed as rejected articles or articles in process of acceptance.
•
The editorial board of the ITECKNE journal does not take responsibility for the content of the articles, nor for
their publication in other means. The content of each article is exclusive responsibility of their authors and
not the University’s.
Instructions to the authors, ITECKNE Journal
141
Presentation of Articles
All articles applying to be published must have the requirements described below:
Concerning the parts of the document
The document must contain: Title, Author/s, Summary, Abstract, Keywords, Introduction, Content of the document, Conclusions, Appendix (s) Acknowledgements, Bibliography
Concerning the writing
In order to obtain a good style it is recommended to respect the syntax, spelling and grammar rules rigorously.
The article must be written in impersonal form (it corresponds to the passive form, for example: it is done, it is
defined, it was defined, it was contrasted). The work must be free of typing, orthographic, grammar and writing
errors. Italics or bold type can be used to highlight.
Concerning the punctuation
• Leave one space after a period; and start a new line after a full-stop.
•
Colons are written immediately after the word, followed by a space and the text begins with small letters.
Concerning the physical requirements of the article: (see template from ITECKNE magazine)
• The article must be written on letter size paper/format, with top and bottom margins of 20 mm; left and
right, 25 mm.
•
The document must be in two-column format with a central space of 4.3 mm (see template in Iteckne journal).
•
The design of the header and footer must be of 1 centimeter.
•
The content of the document must be written on single space, leaving a line when starting a new paragraph.
•
The font must be Arial 10.
•
The document numbering must begin with the Nomenclature, if there is one, and end with the conclusions
of the document. The acknowledgements, appendices and bibliographical references, are not considered as
numbered sections in the document.
•
The tables will take continuous numbering, beginning with Table I., referencing afterwards their title, in all
caps, located at the top part of the table with center tab, in Arial 8. (see template in Iteckne journal).
•
The Figures will take continuous numbering, beginning with Fig 1. referencing afterwards their title, in all
caps, located at the top part of the figure with center tab, in Arial 8. Note that " Fig." has been written abbreviated and with double space before the text.
•
The figures in the content of the article must be original, clear enough to facilitate the edition of the journal.
•
Every Figure and Table included in the paper must be referred to from the text (Source: XXX). These references must go in Arial 7, in the lower part of the figure or table, left tab.
•
The columns in the last page must have an equal or symmetrical length.
•
The references located at the end of the paper, must be numbered consecutively (Number between square
brackets [1], and with the following format (see template in Iteckne journal):
142
ITECKNE Vol. 10 Número 1 • ISSN 1692 - 1798 • Julio 2013 • 140 - 142
Articles for scientific journals:
Author/s, Name of the publication, Title of the journal, Volume, Number, pages and year. They must go in
Arial 7.
Example: J.F. Fuller, E.F. Fuchs, and K.J. Roesler, “Influence of harmonics on to power distribution system
protection,” IEEE Trans. Power Delivery, bowl. 3, no.2, pp. 549-557, Apr. 1988.
Books:
Author, Name of the book, Edition, Editorial, Year, pages.
Example: E. Clarke, Circuit Analysis of AC Power Systems, bowl. I. New York: Wiley, 1950, P. 81.
•
As for the abbreviations and symbols, only standard abbreviations must be used, avoiding using them in the
title and the summary. The complete term represented by the abbreviation must precede this abbreviation
or nomenclature.
•
The bullet points used for special signaling must be in Symbol source size 8.
•
In case the articles contain mathematical formulas, they must appear in Arial 10, written with the Microsoft
equation editor.
•
The article must have a minimum of 4 pages and a maximum of 20 pages, in the format established by the
journal.
La Revista ITECKNE, Vol. 10 No. 1, se terminó de
imprimir en el mes de julio de 2013 en los talleres
Distrigraf, de Bucaramanga, Colombia.
El tiraje consta de 300 revistas.
Descargar