Volumen 1 - Universidad Politécnica de Tulancingo

Anuncio
COMITÉ EDITORIAL
Mtro. Gerardo Téllez Reyes, Presidente
Mtra. María de Jesús Espino Guevara, Consejera Académica
Dr. Alfonso Padilla Vivanco, Consejero Académico
Lic. Nelly Ubaldo Mejía, Consejera Editorial
Dra. Carina Toxqui Quitl, Secretaria Técnica
Dr. Enrique González Gutiérrez, Consejero Académico
Dr. Juan Carlos Valdiviezo Navarro, Consejero Académico
Dr. Rubén Tapia Olvera, Consejero Académico
Dra. Rosario María del Rosario López Torres, Consejera Académica
Dra. Benedicta María Domínguez Valdez, Consejera Académica
EDICIÓN:
Ing. Crispín Hernández Álvarez
DISEÑO DE PORTADA:
Mtro. Javier Arroyo Islas
Calle Ingenierías # 100. Col. Huapalcalco, Hidalgo, México. C.P. 43629.
Teléfono: 01(775) 75 5 82 02, Fax: 01(775) 75 5 83 24.
Séptimo Encuentro de Investigación
de la Universidad Politécnica de Tulancingo
Prefacio
El Encuentro Anual de Investigación de la UPT, tiene como objetivo dar a conocer entre la
Comunidad Universitaria, la labor científica y tecnológica que se desarrolla en cada una de las
áreas Académicas de nuestra Institución.
Estas actividades permiten a los Profesores y Estudiantes, tener foros de discusión
científica e intercambio de ideas para la mejora de sus propuestas de Investigación. Los trabajos
que aquí presentamos son el resultado del esfuerzo colaborativo, entre los miembros de los
Cuerpos Académicos y los estudiantes de los diferentes niveles que contempla nuestra oferta
educativa. Las líneas genéricas en donde se ubican estos trabajos son las siguientes: Computación
Óptica y Sistemas de Visión, Ingeniería de Software, Control e Instrumentación, Matemáticas
Aplicadas a la Ingeniería, Desarrollo Regional, Dirección de Organizaciones, Desarrollo
Empresarial y Capital Humano, Administración y Gestión Organizacional.
Agradecemos a todos los autores su valiosa contribución y deseamos que este ejercicio se
vea reflejado en la mejora continua de la calidad Académica de nuestra Universidad y de su
región de influencia.
Gerardo Téllez Reyes
RECTOR
Enero, 2015
COMPUTACIÓN ÓPTICA Y SISTEMAS DE VISIÓN
Pág.
Momentos de Krawtchouk para la detección de fases de la marcha, C. Camacho-Bello, A. Padilla-Vivanco,
J.J. Báez-Rojas ..................................................................................................................................................................... 1
Recuperación de filtros holográficos provenientes de objetos microscópicos utilizando el método de la
transformada Wavelet-Gabor, M. Hernández-Romo, A. Padilla-Vivanco ........................................................... 5
Análisis de la distribución de venas de la mano para reconocimiento de personas, R. Castro-Ortega, C.
Toxqui-Quitl, J. Solís-Villarreal, A. Padilla-Vivanco .............................................................................................. 11
Estudio de las propiedades de esparcimiento de partículas usadas en la fabricación de phantoms
imitadores del melanoma cutáneo, M. Cunill-Rodríguez , J.A. Delgado-Atencio , D. Villegas-Hernández .. 15
Algoritmo para la caracterización de imágenes digitales de lesiones cutáneas pigmentadas con Base a su
Color y Rugosidad, L. Y. Mera-González, J. A. Delgado-Atencio, J. C. Valdiviezo-Navarro........................... 19
Simulación de haces con longitud de foco extendida mediante Zemax, A. Vázquez-Villa, J. A. DelgadoAtencio, S. Vázquez-y-Montiel, J. Castro-Ramos ................................................................................................ 26
Fusión de imágenes multifoco usando unidades de procesamiento gráfico, J. Hernández-Tapia, J. C.
Valdiviezo-Navarro ................................................................................................................................................... 30
Clasificación de botellas basado en visión por computadora, J.A. Cárdenas-Franco, C. Toxqui-Quitl, U.E.
Escobar-Franco ........................................................................................................................................................... 35
Análisis de la marcha humana, V. Morales-Batalla, C. Toxqui-Quitl ................................................................... 39
Holografía óptico-digital fuera de eje, P. Soto-López, A. Padilla-Vivanco, A. Yuck Franco ........................... 45
CONTROL E INSTRUMENTACIÓN
Pág.
Características de medición inteligente de energía eléctrica en una casa habitación, F. A. Elizalde-Canales,
I. J. Rivas-Cambero ..................................................................................................................................................... 50
Simulación de un demodulador de frecuencia para la sincronía eléctrica, C. Rueda-Germán, I. J. RivasCambero, J. H. Arroyo-Núñez, A. D. Vite-Rojo.................................................................................................... 55
Instrumentación inalámbrica de variables meteorológicas en un ambiente cerrado para uso agrícola, J. G.
Duran-Candelaria, J. C. Ramos-Fernández, L. F. Cerecero-Natale, R. Terán-Pacheco ................................... 60
Impacto de las fuentes de energía renovables en la operación y control de sistemas eléctricos, D.
Martínez-Martínez, R. Tapia-Olvera ........................................................................................................................ 65
MATEMÁTICAS APLICADAS A LA INGENIERÍA
Un modelo de programación matemática binaria para la asignación de horarios en la Universidad
Politécnica de Tulancingo, E. González-Gutiérrez, M. Pérez Rubio, M. Muñoz Pérez, H. Minor Popocatl . 72
Análisis y simulación de la probabilidad de rechazo de paquetes en redes 802.11, Wi-Fi, F. J. BucioCastillo, M. Muñoz-Pérez, F. J. Albores-Velasco, E. González-Gutiérrez ......................................................... 77
Modelación estocástica del protocolo CSMA/CA para redes inalámbricas, M. Muñoz-Pérez, F. J. AlboresVelasco, E. González-Gutiérrez .............................................................................................................................. 84
Estudio de sensibilidad paramétrico del método de relajación para sistemas lineales semi-infinitos, J.
Barrera-Ángeles, E. González-Gutiérrez, M. Muñoz-Pérez, E. León-Olivares ................................................. 96
DESARROLLO DE SOFTWARE APLICADO
Medición experimental y comprobación teórica de la Resolución de un Sistema de Adquisición de
Imágenes, A.M. Godínez-Jarillo, J.A. Delgado-Atencio, C. Enríquez-Ramírez ................................................. 102
Momentos de Krawtchouk para la detección de fases de la marcha
C. Camacho-Bello1, A. Padilla-Vivanco2, J.J. Báez-Rojas3
Resumen— En este trabajo se presenta un análisis de teórico del proceso de la marcha humana desde el
punto de vista holístico usando los momentos de Krawtchouk. Se describen las fases de la marcha humana
y sus ventajas desde el punto de vista computacional. Se presentan resultados experimentales.
Palabras clave— Análisis de la marcha, momentos de Krawtchouk, reconocimiento de patrones.
INTRODUCCIÓN
La marcha humana es un mecanismo complejo por el cual una variedad de músculos trabajan en conjunto
de manera coordinada para trasladarse de un lugar a otro, con poco esfuerzo y un consumo mínimo de
energía. Dada la alta complejidad que se presenta para el análisis de la marcha, por lo general se describe
en términos de períodos y fases para facilitar su descripción y estudio. En este sentido, el ciclo de la
marcha es el período de tiempo entre dos eventos idénticos en el ciclo de la marcha [1]. La Figura 1
muestra los componentes temporales de los diferentes soportes de cada pie durante el ciclo de la marcha.
El ciclo de la marcha normal se compone de 62% de la fase de apoyo y 38% la fase de impulsión, además
cuenta con dos períodos de doble apoyo, el cual ocupa un total del 25% del ciclo de la marcha.
Figura 1: Ciclos de la marcha: golpe de talón derecho (GTD), despegue de los dedos derechos (DDD), golpe de talón
izquierdo (GTI), despegue de los dedos izquierdos (DDI), postura media (PM), balanceo medio (BM).
El estudio de la marcha humana con la técnica de momentos ortogonales se ha estudiado en diferentes
contextos, como el reconocimiento de la marcha [2,3] y reconstrucción de objetos en movimiento para
predecir imágenes faltantes o intermedias de la marcha de un sujeto de prueba [4].
C. Camacho-Bello1 ( ), A. Padilla-Vivanco2 ( ), J.J. Báez-Rojas3 ( )
1, 3
Instituto Nacional de Astrofísica, Óptica y Electrónica, 2Universidad Politécnica de Tulancingo
e-mail:1 [email protected] ,2 [email protected] ,3 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
1
Una de las ventajas de usar momentos ortogonales es que requiere pocos descriptores para extraer
características de la forma y el movimiento [3]. Por otra parte, los momentos ortogonales Krawtchouk
presentan buenos resultados en la extracción de características debido a su capacidad para extraer
características locales y globales de una imagen con un mínimo de información redundante [5-7].
En este trabajo presentamos un nuevo método basado en el análisis de una serie de tiempo de los
momentos Krawtchouk y la media entre el valor máximo y mínimo de la serie histórica, lo cual facilita el
cálculo de las fases de la marcha. También presentamos los resultados de los porcentajes de las fases de la
marcha y parámetros temporales de 10 sujetos de prueba.
ALGORITMO PARA DETECTAR LAS FASES DE LA MARCHA
Como es bien conocido momentos de bajo orden están asociados con la forma, mientras que los
momentos de orden superior describen el detalle de la imagen [8]. Por lo tanto, los momentos de orden
inferior se pueden utilizar para el análisis de series de tiempo a partir de un conjunto de imágenes para
describir el movimiento a través del tiempo de un objeto o de una persona que realiza una actividad física.
También pueden extraer información de los parámetros temporales para el análisis de la marcha humana,
como la fase de oscilación, la fase de apoyo, doble apoyo y la cadencia. La Figura 2 muestra el ciclo de la
marcha obtenido con los momentos Krawtchouk de orden inferior normalizado por el momento de
orden cero.
Figura 2. : Ciclos de la marcha asociado a momentos Krawtchouk.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
2
Para facilitar la localización de las fases de la marcha de la serie temporal de los momentos Krawtchouk,
proponemos obtener estos parámetros a partir de una línea que intercepta las diferentes fases de la
marcha, que está dada por
𝑔=
arg máx 𝑄𝑛,𝑚 (𝑡) + arg mín 𝑄𝑛,𝑚 (𝑡)
,
2
(1)
donde Q_(n,m) (t) son los momentos Krawtchouk de una imagen en un momento t. La línea propuesta
por el valor de g cruza las fases de: golpe de talón derecho (GTD), despegue de los dedos derechos
(DDD), golpe de talón izquierdo (GTI), despegue de los dedos izquierdos (DDI), postura media (PM),
balanceo medio (BM), las cuales pueden encontrarse por el máximo de la serie de tiempo, todo esto se
puede ver en la Fig. 2.
RESULTADOS EXPERIMENTALES
El estudio experimental compara los valores medios de los parámetros temporales obtenidos de 10
sujetos de prueba con el método propuesto y el nivel de marcha normal en un adulto de sexo masculino
de la población mexicana. Los participantes cumplieron con los siguientes criterios: masculino; entre 18 y
40 años; peso dentro de 65 a 82 kg.; ausencia de cualquier patología muscular. La Tabla 1 muestra los
valores estándar por Pérez-Orive et al. [9] y el calculado por momentos Krawtchouk.
Ciclo de la marcha
Paso
Fase de apoyo
Fase de balanceo
Soporte doble
Pérez-Orive et al. [9]
Media
Dst.
1.14s
0.07s
0.57s
0.04s
0.64s
0.05s
0.50s
0.03s
0.07s
0.02s
Método Propuesto
Media
Dst.
1.23s
0.07s
0.6s
0.04s
0.75s
0.06s
0.47s
0.04s
0.30s
0.03s
Tabla 1: Parámetros temporales del ciclo de la marcha.
CONCLUSIONES
El método propuesto es fácil de implementar y tiene un bajo costo computacional, ya que un solo
descriptor puede encontrar las fases de la marcha. Los resultados obtenidos sobre la duración de los
parámetros de la marcha son relativamente más altos que los reportados para diferentes poblaciones,
según lo informado por Pérez-Orive et al. [9]. Sin embargo, los porcentajes calculados con los momentos
de Krawtchouk corresponden a los valores estándar, a diferencia de porcentajes de Pérez-Orive et al, [9]
para la población masculina adulta mexicana. Creemos que el método propuesto servirá para el análisis de
la marcha humana y los resultados presentados pueden contribuir a la rehabilitación de los pacientes con
alguna condición al caminar.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
3
REFERENCIAS
1. Ayyappa E.: Normal Human Locomotion, Part 1: Basic Concepts and Terminology, Journal of
Prosthetics and Orthotics, 9(1), 10–17, (1997).
2. Camacho-Bello C., Toxqui-Quitl C., Padilla-Vivanco A.: Gait Recognition by Jacobi-Fourier
moments, In: FIO/LS Technical Digest OSA, (2011).
3. Shutler J. D., Nixon M. S.,: Zernike velocity moments for sequence-based description of moving
features, Image and Vision Computing, 24, 343–356, (2006).
4. Prismall S. P., Nixon M.S., Carter N.: On moving object reconstruction by moments, In:
Proceedings of the 13th British Machine Vision Conference, 83–82, (2002).
5. Yap P. T., Paramesran R., Ong S. H.: Image analysis by Krawtchouk moments,” Image Processing,
IEEE Trans Image Process , 12 1367–1377, (2003).
6. Hu B., Liao S.: Chinese Character Recognition by Krawtchouk Moment Features. Image Analysis
and Recognition. Springer Berlin Heidelberg, 711–716, (2013).
7. Sheeba Rani J., Devaraj D.: Face recognition using Krawtchouk moment, Sadhana, 37, 441–460,
(2012).
8. Padilla-Vivanco A., Urcid-Serrano G., Granados-Agustín F., Cornejo-Rodríguez A.: Comparative
analysis of pattern reconstruction using orthogonal moments, Opt. Eng. 46, 017002 (2007).
9. Pérez-Orive J., Pichardo A. E., Chávez-Arias D.: Desarrollo de un estándar de marcha normal en
hombres adultos, Rev. Méx. Ortop. Traum. 12, (1998).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
4
Recuperación de filtros holográficos provenientes de objetos
microscópicos utilizando el método de la transformada WaveletGabor
M. Hernández-Romo1, A. Padilla-Vivanco2
Resumen— Se presenta un análisis de un sistema óptico-digital basado en la arquitectura del
interferómetro de Mach-Zehnder para grabar filtros holográficos. El sistema de grabado holográfico hace
uso de un objetivo de microscopio en cada brazo del sistema. Por otra parte, la Transformada WaveletGabor es implementada para la etapa de reconstrucción holográfica. Las muestras estudiadas de esta
investigación son seleccionadas con el fin de probar el algoritmo de recuperación y para caracterizar la
resolución del sistema de registro holográfico. En este último paso, se utilizan algunas secciones de la
tarjeta de resolución USAF 1951. Estas muestras permiten estudiar las características de la iluminación en
el sistema de grabado. Adicionalmente, algunas muestras orgánicas son utilizas para probar el método
implementado, debido a que, las muestras biológicas tienen una composición morfológica compleja. Con
esto en mente, podemos verificar las frecuencias recuperadas con cada uno de los parámetros
establecidos en el método de recuperación. Se presentan resultados experimentales.
Palabras clave— Holografía Digital Microscópica, Transformada Wavelet, Microscópica en Tres
Dimensión, Difracción Numérica.
INTRODUCCIÓN
La holografía es una técnica para grabar y ver imágenes en tercera dimensión, una vez que han sido
registradas y posteriormente reveladas en una película fotográfica de alta resolución [4]. Uno de los
principios básicos inherentes a la holografía es el fenómeno interferencia entre dos haces de luz, del cual
se registra su patrón de intensidades en una película fotosensible. Normalmente, para grabar hologramas
se hace uso de la luz de un láser, ya que esta fuente luminosa tiene propiedades ondulatorias que
permiten codificar la fase de la onda electromagnética en el material fotosensible, para después
recuperarlo mediante un proceso óptico coherente [8].
El proceso para la recuperación de la amplitud y fase del objeto se divide en dos etapas. En la primera
etapa se obtiene el grabado del patrón de interferencia, también conocido como filtro holográfico. La
segunda etapa se llama la reconstrucción del campo óptico difractado, por medio de la luz que pasa a
través del filtro holográfico.
Con el avance tecnológico actual ha sido posible dejar atrás la holografía analógica para dar paso a la
holografía digital; en la cual, el proceso fotoquímico convencional de la holografía se sustituye por
imágenes electrónicas, otorgando una nueva gama de capacidades. La holografía digital ofrece numerosas
ventajas, tales como la rápida adquisición de hologramas, la disponibilidad completa de la información de la
amplitud y la de fase del campo óptico, además de la versatilidad de las técnicas de procesamiento de
imágenes [3].
M. Hernández-Romo1 ( ), A. Padilla-Vivanco2 ( )
1,2
Universidad Politécnica de Tulancingo
e-mail:1 [email protected] ,2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
5
La eficiencia de la holografía digital tiende alta dependencia con la resolución del sensor electrónico
utilizado para la grabación de los filtros holográficos [2]. El desarrollo de los sistemas opto-electrónicos y
procesamiento de datos llevó a la holografía digital en nuevas perspectivas: se aplica a las distorsiones
ópticas, las mediciones de formas, la microscopía y para las investigaciones de los líquidos en líquidos y
gases.
MÉTODOS DE RECONSTRUCCIÓN
Transformada Wavelet de Gabor en dos dimensiones.
La Transformada Wavelet-Gabor (TWG) en dos dimensiones [1], se define en la Ec. (1), mientras que la
familia de loa Wavelet de Gabor se encuentra definida en la Ec. (2).

W f  s, , a, b     I  x, y  s*,  x, y, a, b  dxdy
(1)

 (2 /  ) 2 [( x  a) 2  ( y  b) 2 
exp 


2s 2


( x  a) cos   ( y  b)sin  

 exp  j 2
.
s


donde    2 / ln 2 y j es la unidad imaginaria.
1
 x a y b 
,
,   4
s

 s


2
(2)
Si el holograma se crea debido a la interferencia de dos ondas coherentes en la geometría fuera de eje,
donde el primero se llama onda de referencia R(x, y) , que tiene la información del medio de grabación y
el segundo llamado onda objeto O(x, y) el que proviene del objeto, entonces estos rayos están definidos
en las Ecs. (3) y (4).
(3)
O( x, y)  o( x, y) exp[ j ( x, y)],
 2

R( x, y)  R0 exp  j
( x cos   y cos  )  ,
 

(4)
donde ( x, y) son las coordenadas del plano del holograma, o( x, y) y R0 son la amplitud de las ondas,
  x, y  es la fase de la onda del objeto,  es la longitud de onda,
 y  son los ángulos
respectivamente, entre las direcciones de propagación de las ondas de objeto y de referencia. Por lo
tanto, la intensidad del holograma I ( x, y) se puede escribir como
  2

I ( x, y ) | R0 |2  | ox , y |2  R0O( x, y ) exp  j  
( x cos   y cos    ( x, y )  

  
  2

 R0O( x, y ) exp  j  
( x cos   y cos    ( x, y )   .

  
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
6
(5)
La TWG 2D para el holograma se puede escribir como:
W ( s ,  , a, b)  

  A  R o( x) exp[ j ( x, y)]  R o( x) exp[ j ( x, y)]
0
0
*
s ,
( x, b, a, b) dxdy,
(6)

Donde el módulo de la TWG en 2D | W (s, , a, b) | , encuentra su máximo en s  T y    . Si se
multiplica el valor pico de la TWG en 2D por una onda ideal correspondiente a la onda de referencia se
tienen la recuperación la información del holograma, descrita en la Ec. (7).
U p ( x, y ) 
3
4
4
3
R02 exp[ ( x, y)].
(7)
SISTEMAS PARA EL GRABADO HOLOGRÁFICO
El sistema microscópico holográfico utilizado se representa en la Figura 1, este sistema se basa en el
interferómetro de Mach-Zehnder. En este esquema, un rayo láser seguido de un filtro espacial (SF) y el
sistema de control de iluminación (P1, P2, Cl) se separa en dos haces por un divisor de haz (BS1). Donde,
un brazo sirve como onda de referencia y otro rayo ilumina las muestras. Un objetivo de microscopio
MO1 produce una imagen ampliada de la muestra (Ob) y el segundo objetivo MO2 es colocado en el
brazo de referencia para obtener la congruencia de las curvaturas de frente de onda. El divisor de haz BS2
colocado delante del sensor CCD combina los dos haces antes de que se registran por la cámara CCD.
Figura 1 Sistema de grabado holográfico microscópico basado en el interferómetro de Mach-Zehnder.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
7
HOLOGRAMAS Y RESULTADOS
El proceso que se lleva a cabo para recuperar la información proveniente de los hologramas utilizando la
TWG se muestra en la Figura 2, donde se muestra un holograma proveniente de la tarjeta de resolución
USAF 1951, el cual se obtuvo con una amplificación de 10X y con iluminación en forma de transmisión. La
Figura 2.b, muestra la amplitud recuperada del holograma, la cual es encontrada en el valor pico de la
TWG en 2D. La Figura 2.c muestra la fase recuperada del holograma, la que presenta no solo la
información del holograma sino que a su vez contiene la información de la iluminación del sistema de
grabado holográfico, la información de la iluminación de fondo es corregida con el método de holograma
de referencia, tal y como se muestra en la Figura 2.d, donde ahora se muestra el mapa de fase envuelta. En
la Figura 2.e, se tiene el mapa de alturas de la fase que ilustra una imagen en 3D de la muestra, en el
último paso el mapa de fase selecciona el perfil de altura de la muestra a lo largo del eje X o del eje Y, a
fin de obtener las alturas del espécimen, como se observa en la Figura 2.f y la Figura 2.g.
Figura 2 Tarjeta de resolución USAF 1951, a) Holograma, b) Amplitud, c) Fase envuelta, d) Mapa de fase, e) Mapa de alturas, f)
Fase desenvuelta y g) Perfil de alturas en el eje X.
El método para la recuperación de hologramas basado en la TWG en 2D es probado con muestras
biológicas como se observa en la Figura 3, donde el holograma es grabado a partir de una muestra de
células de Sauco. Tanto la amplitud como la fase son recuperadas pero se presenta información no
deseada en la Figura 3.e, la cual representa el mapa de alturas de la muestra, esta información parásita es
generada en el momento de realizar la compensación de la aberración general del holograma.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
8
Figura 3 Muestra con células de Sauco tomada con una amplificación de 10X, a) Holograma, b) Amplitud, c) Fase envuelta, d)
Mapa de fase y e) Mapa de alturas.
La recuperación de una segunda muestra biológica consiste en una sección del intestino de un conejo,
donde es posible observar una imagen clara del mapa de fase, debido a, la compensación del mismo.
Figura 4 Muestra del intestino de un conejo capturada con una amplificación de 10X con iluminación de transmisión, a)
Holograma, b) Amplitud, c) Fase envuelta, d) Mapa de fase y e) Mapa de alturas.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
9
CONCLUSIONES
En este trabajo, se ha descrito un método de holografía digital microscópica fuera del eje con iluminación
por transmisión para la medición de la fase de muestras biológicas. Se ha combinado un algoritmo de
reconstrucción holográfica basado en la transformada Wavelet-Gabor y un método de compensación de
la aberración a través de un holograma de referencia. Estos procedimientos son útiles para tener la
amplitud y fase de la muestra. Con este algoritmo de reconstrucción, el orden cero y las imágenes
gemelas se suprimen sin la necesidad de algún procedimiento extra, por lo cual se obtienen algunos
resultados interesantes de alta calidad en la reconstrucción holográfica. Del mismo modo, para conseguir
una resolución máxima axial en la imagen de fase hemos aplicado un holograma de referencia para
corregir aberraciones de fase parasitarias. Esta metodología es útil para la inspección de las estructuras
biológicas y de otros especímenes de industriales.
REFERENCIAS
1. Martín Hernández-Romo, Alfonso Padilla-Vivanco, Myung K. Kim and Carina Toxqui-Quitl. “Phase
retrieval of microscope objects using the Wavelet-Gabor transform method from holographic
filters.” SPIE Optical Engineering+ Applications. International Society for Optics and Photonics,
(2014).
2. Mundt, J., Kreis, T., "Digital holographic recording and reconstruction of large scale objects for
metrology and display", Optical Engineering, 49(12), 125801-125801. (2010).
3. Kim, M.k., Principles and techniques of digital holographic microscopy, Journal of Photonics for
Energy, 018005-018005, (2010).
4. Yoshikawa, T., Handbook of optical metrology principles and applications, CRC Press, (2009).
5. Weng, J., Zhong, J., Phase reconstruction of digital holography with peak of two-dimensional
Gabor wavelet transform, Appl.Opt. 48 (2009).
6. Khmaladze, A., Kim, M.k., Lo, C., Phase imaging of cells by simultaneous dual-wavelength reflection
digital holography, Optics express, 16(15), 10900-10911, (2008).
7. Jones, K., Wavelet Image Processing Applied to Optical and Digital Holography: Past Achievements
and Future Challenges, Wavelets XI, Proc. of SPIE Vol. 5914 591423-1, (2005).
8. Hariharan, P., Optical Holography, Principles, techniques, and applications. Second Edition,
Cambridge Studies in Modern Optics. (2004).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
10
Análisis de la distribución de venas de la mano para reconocimiento
de personas
R. Castro-Ortega1, C. Toxqui-Quitl2, J. Solís-Villarreal3, A. Padilla-Vivanco4
Resumen— El análisis biométrico es una creciente área de investigación; este trabajo se encuentra
enfocado en el reconocimiento de personas utilizando sus rasgos fisiológicos y/o de comportamiento. En
este trabajo, la distribución de venas de la palma de la mano es extraída como patrón biométrico único.
Para procesar los datos de la distribución de venas de la palma, las imágenes de las manos de las personas
fueron adquiridas en el infrarrojo cercano. La mejora de las imágenes adquiridas viene dada por un filtro
pasa-bajas basado en convolución espacial y ecualización del histograma. Las imágenes son binarizadas y
posteriormente se obtuvo mediante algoritmos de morfología matemática la esqueletización y la
dilatación. Se extrajeron los momentos geométricos como descriptores de la imagen, los cuales se
convierten en un vector de entrada en una red neuronal artificial para la clasificación.
Palabras clave— Análisis Biométrico, Extracción de Características, Red Neuronal Artificial para
clasificación, patrón de venas, procesamiento de imagen.
INTRODUCCIÓN
Hoy en día, la identificación personal se ha basado en los sistemas tradicionales como tarjetas inteligentes
y números de identificación personal (PIN), sin embargo este tipo de métodos proporcionan seguridad
limitada y no son fiables debido a la facilidad de ser copiados o suplantados. La identificación biométrica
puede minimizar estas desventajas ya que se basa en el hecho de que ciertas características biológicas son
únicas e inalterables para cada persona, por lo que son más fiables y seguras [2,5]. Las venas de la palma y
el dorso de la mano tienen muchas características que las hacen únicas. Y dado que se requiere que la
sangre este fluyendo para registrar la imagen, la suplantación de identidad es casi imposible [5,6]. En el
presente trabajo se hace uso de un sistema de adquisición de imágenes en el infrarrojo (IR) cercano. El
uso de luz infrarroja (IR) se basa en el principio de absorción de los principales absorbentes de esta
radiación en la sangre los cuales son la oxihemoglobina (HbO2), des oxihemoglobina (Hb) y agua (H2O)
[3].
BASES DE DATOS UPT
Sistema de adquisición de imágenes
Para adquirir la imagen de la distribución de las venas, se implementó un sistema de visión por
computadora que utiliza una fuente de iluminación en forma de anillo con emisión a los 880nm y una
cámara digital 2CCD Progressive Scan Multi-Spectral El tamaño de la imagen adquirida es de 1024 (H) x
768 (V) píxeles donde cada píxel tiene un tamaño de 4,65.
R. Castro-Ortega1 ( ), C. Toxqui-Quitl2 , J. Solís-Villarreal3, A. Padilla-Vivanco4
1, 2, 4
Universidad Politécnica de Tulancingo, 3Universidad Autónoma del Estado de México, Instituto Literario
e-mail: [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
11
Figura 1. Sistema de adquisición de imágenes utilizado.
Figura 2. Imágenes adquiridas en el laboratorio de la palma y dorso de la mano.
Base de datos Multispectral Palmprint PolyU.
Las imágenes de la palma de la mano son de una base de datos que se descargó de Internet, propiedad de
la Universidad Politécnica de Hong Kong, contiene las imágenes de 500 personas con 12 versiones en 4
canales, rojo (650nm), verde (550nm), azul (480nm) e infrarrojo (880nm) (RGB-IR), fueron descartados
los canales rojo, verde y azul porque no se visualizan las venas. La figura 3 muestra algunas imágenes en el
infrarrojo cercano.
Figura 3. Imágenes de la base de datos Multispectral Palmprint PolyU.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
12
EXTRACCIÓN DE CARACTERÍSTICAS
Pre-procesamiento de las imágenes
Antes de realizar las etapas de pre-procesamiento y extracción de características de las imágenes, es
necesario segmentar una porción de la imagen original. La extracción de ésta porción se conoce como
región de interés ROI (del inglés Región Of Interest) [1,4].
Figura 4. Proceso de la extracción de la ROI. a) Imagen Original, b) Centro del objeto, c) Cálculo de la ROI, d) Imagen
segmentad.
El pre-procesamiento de las imágenes se muestra en la Figura 5.
Figura 5. a) Imagen original, b) Filtraje, c) Ecualización de histograma, d) Binarización Adaptativa, e) Adelgazamiento y f)
Dilatación.
Extracción de características
El código de venas consiste en la realización de un recuento de píxeles que se presentan en una región a
través de un sub-muestreo de la imagen con el patrón de la vena dilatada. La expresión para obtener el
código venas está dada por:
1
𝑠𝑖 𝑁𝑝 ≥ 𝛿
𝑉𝐶 = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Donde Np es el número de píxeles en un pequeño bloque cuadrado,  es un umbral de corte y VC es el
vector resultante. Para la clasificación utilizamos una red neuronal artificial en el que las neuronas de
entrada reciben los descriptores VC.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
13
RESULTADOS
Los resultados para determinar la eficiencia de la técnica de extracción de características se resumen en la
tabla 1:
Processed
people
25
50
100
150
200
Geometric Moments
Hu Moments
Vein Code
Correct Classification
72 %
55.67 %
49.92 %
45 %
---
Correct Classification
16.33 %
9%
6.25 %
5.06 %
---
Correct Classification
98.33 %
96.5 %
96.17 %
95.72 %
94.83 %
Tabla 1. Comparación de la eficiencia de los métodos de clasificación con extracción de características.
CONCLUSIONES
En este trabajo se implementó un sistema de adquisición de imágenes con fuente de iluminación IR y una
cámara multiespectral. Los resultados del algoritmo VeinCode muestran ser una buena técnica para la
extracción de características de las imágenes procesadas, también es necesario precisar que con el
aumento del número de personas dentro de la red neuronal, aumenta el costo computacional.
AGRADECIMIENTOS
El autor desea expresar su agradecimiento al Consejo Nacional de Ciencia y Tecnología (CONACyT)
para el número de beca 303672
REFERENCIAS
1. Qiushi Zhao, Wei Bu, Xiangqian Wu, and David Zhang, “Design and implementation of a
contactless multiple hand feature acquisition System,” Proc. of SPIE 8371, (2012).
2. Oscar Fernando Motato Toro and Humberto Loaiza Correa, “Identificación biométrica utilizando
imágenes infrarrojas de la red vascular de la cara dorsal de la mano,” Revista Ingeniería e
Investigación, vol. 29, pp. 90-100, (2009).
3. Aída Marcotti, Belén Hidalgo and Ladislao Mathé, “Método de detección no invasivo utilizando luz
infrarroja,” Universidad Nacional de Córdoba, Argentina, Tesis de Maestría, (2012).
4. Lingyu Wang, Graham Leedham and David Siu-Yeung Cho, “Minutiae feature analysis for infrared
hand vein pattern biometrics,” Pattern Recognition, vol. 41, pp. 920-929, (2008).
5. Yun-peng Hu, Zhi-yong Wang, Xiao-ping Yang and Yu-ming Xue, “Hand vein recognition based on
the connection lines of reference point and feature point,” Infrared Physics & Technology, vol. 62,
pp. 110-114, (2014).
6. Ahmed M. Badawi, “Hand vein biometric verification Prototype: A testing performance and
patterns similarity,” International Journal of Biomedical Sciences, pp. 141-148, (2007).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
14
Estudio de las Propiedades de Esparcimiento de Partículas usadas en
la Fabricación de Phantoms Imitadores del Melanoma Cutáneo
M. Cunill-Rodríguez1, J.A. Delgado-Atencio2, D. Villegas-Hernández 3
Resumen— El desarrollo de phantoms que imiten las propiedades ópticas de la piel continua siendo de
significativa importancia para probar nuevos algoritmos y métodos para la detección de melanoma
cutáneo maligno. El objetivo de este trabajo fue realizar simulaciones teóricas usando la Teoría de Mie
para predecir las propiedades ópticas de las partículas usadas en los phantoms como centros de
esparcimiento del tejido humano.
Palabras clave— melanoma, phantoms, teoría de Mie.
INTRODUCCIÓN
En el año 2001, el Registro Histopatológico de Neoplasias Malignas (RHNM) reportó 102,657 tumores
malignos que corresponden a 101.6 casos por 100,000 habitantes. El cáncer de piel ocupó el segundo
lugar (13.6%), solamente superado por el cáncer de cérvix (24.4%) [1]. Un estudio del cáncer de piel en
Nuevo León, México realizado por Alfaro et al., [2] confirmó que el comportamiento epidemiológico de
esta lesión es similar al del resto del país y del mundo, siendo el carcinoma baso celular el más frecuente
con un 65%, seguido del carcinoma espino celular y el melanoma con un 23% y 6,5%, respectivamente,
siendo el melanoma maligno el responsable del 80% de las muertes por cáncer cutáneo. Además de los
pacientes diagnosticados con melanoma, solamente el 14% sobrevive más de 5 años [3].
Hasta la fecha el diagnóstico de melanoma es un reto para el médico especialista lo cual ha dado lugar al
desarrollo de nuevas técnicas ópticas para su detección [4-6]. Varios autores han fabricado y
caracterizado phantoms imitadores de este tipo de cáncer de piel con el fin de investigar el desempeño de
algunas propuestas de nuevos métodos ópticos para su discriminación respecto a los lunares comunes [7].
La teoría de Mie [8] se utiliza comúnmente para predecir las propiedades ópticas de las partículas usadas
para imitar a los centros de esparcimiento del tejido humano. En este trabajo se presenta el resultado de
la simulación de la sección transversal de esparcimiento s, el factor de anisotropía g, y la sección
transversal de esparcimiento reducida s’, para dos tipos de partículas: microesferas de polímeros y
melanina, en el rango espectral de 300 a1500 nm. La simulación fue realizada además para distintos
tamaños de estas partículas.
MATERIALES Y MÉTODOS
Los algoritmos para realizar las simulaciones de las propiedades de esparcimiento de las partículas (s, g,
s’) usando la Teoría de Mie, fueron integrados en el ambiente de programación MATLAB®. Estas
simulaciones se llevaron a cabo para dos tipos de partículas: microesferas de polímeros y melanina
tomándose para la simulación datos de los trabajos de Pogue et. al [9] y Bashkatov et. al [10],
respectivamente (ver Tabla 1).
M. Cunill-Rodríguez1 ( ), J.A. Delgado-Atencio2 ( ), D. Villegas-Hernández3 ( )
1,2,3
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected] , 3 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
15
Los cálculos se realizaron en función de la longitud de onda λ en el intervalo de 300 a 1500 nm con un
incremento de 10 nm y variando el diámetro de cada partícula como se indica: 50, 200, 400, 600, 800 y
1000 nm para las de microesferas; y de 30, 127, 160 y 400 nm para las partículas de melanina.
Tipo de partículas
Microesferas
de polímero
Melanina
Índice de refracción
del medio
Índice de refracción
de la partícula
Rango de variación
del diámetro de las
partículas (nm)
1.33
1.59
50 a 100000
1.33 y 1.50
1.65
30 a 400
Tabla 1: Parámetros ópticos usados en nuestras simulaciones [9-10], al emplear la Teoría de Mie para realizar los cálculos de las
propiedades de esparcimiento: s, g y s’.
RESULTADOS
En la Fig. 1, se presenta el resultado del cálculo de s, g y s’ como función de la longitud de onda λ, para
las microesferas de polímero. El gráfico de la sección transversal de esparcimiento reducida es obtenido a
partir de la expresión simple ′𝑠 = 𝑠 (1 − 𝑔)que relaciona a los parámetros ópticos previamente
calculados.
Figura 1. Dependencia espectral de la sección transversal de esparcimiento s, el factor de anisotropía g, y de la sección
transversal de esparcimiento reducida s’, para partículas de microesferas de polímero de diferentes diámetros (50, 200, 400,
600, 800 y 1000 nm) en un medio acuoso.
Los resultados relativos a los valores de s, g y s’ como función de la longitud de onda de la radiación
electromagnética que interactúa con la partícula de melanina, se presentan en la Fig. 2 que corresponden a
4 diámetros diferentes reportados como tamaños fisiológicos de la melanina en la epidermis [10].
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
16
Figura 2. Dependencia espectral de la sección transversal de esparcimiento s, el factor de anisotropía g y de la sección
transversal de esparcimiento reducida s’, para partículas de melanina de diferentes diámetros (30, 127, 160 y 400 nm) en un
medio acuoso.
Los cálculos se repitieron para las partículas de melanina inmersas en un medio con un índice de
refracción como el de la resina de poliuretano (n = 1.50) que como sabemos constituye un medio sólido.
Los resultados (no presentados) muestran que la forma espectral para s, g y s’, para los 4 diámetros de
las partículas es prácticamente la misma que para la partícula inmersa en agua, salvo que sus valores son
menores en el caso de s y s’.
CONCLUSIONES
En este trabajo hemos implementado un programa en el lenguaje de programación MATLAB ® que nos
permite realizar el cálculo y el graficado de los parámetros ópticos de una partícula esférica inmersa en un
medio de índice de refracción conocido mediante el uso de la teoría de Mie. El programa ha sido
especificado para calcular y graficar espectralmente: 1) la sección transversal de esparcimiento, 2) el factor
de anisotropía y 3) la sección transversal de esparcimiento reducida. Fue investigada la dependencia de los
parámetros ópticos anteriores con el diámetro de la partícula esférica encontrando que existen
variaciones significativas de éstos con el diámetro de la partícula. Una limitación del estudio realizado es
que no se ha considerado la variación espectral del índice de refracción de la partícula y del medio en los
cálculos realizados.
REFERENCIAS
[1]
Epidemiología
del
Cáncer
en
México
2001.
http://rubengarcia.wordpress.com/2008/09/26/epidemiologia-del-cancer-en-mexico-2001/.
Accesado el 3 de abril de 2013.
[2] Alfaro A, Castrejón L, Rodríguez-Ortiz M. “Cáncer de piel. Estudio epidemiológico a 10 años
en derechohabientes del ISSSTE en Nuevo León”. Dermatol. Rev. Mex. 54(6), 321:325, 2010.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
17
[3] Miller AJ, Mihm MC. “Mechanisms of disease. Melanoma”. N. Eng.l J. Med., 355: 51-65, 2006.
[4] Dan Gareau, Ricky Hennessy, Eric Wan, Giovanni Pellacani, Steven L. Jacques “Automated
detection of malignant features in confocal microscopy on superficial spreading melanoma versus
nevi”. Journal of Biomedical Optics, 15(6), 061713-1: 061713-10, 2010.
[5] R. Marchesini, N. Cascinelli, M. Brambilla, C. Clemente, L. Mascheroni, E. Pignoli, A. Testori, D.
R. Venturoli: “In vivo spectrophotometric evaluation of neoplastic and non-neoplastic skin
pigmented lesions. II: discriminant analysis between nevus and melanoma”. Photochemestry and
Photobiology Vol. 55, No. 4, pp. 515-522, 1992.
[6] Ilze Diebele, Ilona Kuzmina, Alexey Lihachev, Janis Kapostinsh, Alexander Derjabo,Lauma
Valeine, and Janis Spigulis, “Clinical evaluation of melanomas and common nevi by spectral
imaging”. Biomedical Optics Express 39(3), 467-472, 2012.
[7] Timothy J. Muldoon, Sean A. Burgess, Brenda R. Chen, Désirée Ratner, and Elizabeth M. C.
Hillman, “Analysis of skin lesions using laminar optical tomography”. 3(7), BIOMEDICAL OPTICS
EXPRESS, 1701:1712, 2012.
[8] Lihong V. Wang and Hsin-I Wu. Biomedical Optics. Principles and Imaging. Wiley-Interscience
2007.
[9] Brian W. Pogue and Michael S. Patterson. “Review of Tissue Simulating Phantoms for Optical
Spectroscopy, Imaging and Dosimetry”, Journal of Biomedical Optics 11, 1-16, 2006.
[10] Alexey N. Bashkatov, Elina A. Genina, Vyacheslav I. Kochubey, Mikhail M. Stolnitz Tatyana A.
Bashkatova, Olga V. Novikova, Anna Yu. Peshkova, Valery V. Tuchin. “Optical properties of
melanin in the skin and skin-like phantoms”. Proceedings of SPIE Vol. 4162, 219:226, 2000.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
18
Algoritmo para la caracterización de imágenes digitales de lesiones
cutáneas pigmentadas en Base a su Color y Rugosidad
L. Y. Mera-González1, J. A. Delgado-Atencio2, J. C. Valdiviezo-Navarro3
Resumen— El melanoma es la forma más mortal de cáncer de piel en humanos en todo el mundo con un
incremento del número de víctimas al año. Una forma tradicional de diagnóstico de melanoma es
mediante el uso de la denominada regla ABCDE la cual se define por Asimetría, Borde, Color, Diámetro y
Evolución de la lesión. Para lesiones de melanoma, el color como un descriptor exhibe valores
heterogéneos, que van desde marrón claro a marrón oscuro (a veces rojizo azul o incluso blanco). Por lo
tanto, la investigación acerca de las características de color de imágenes digitales de melanoma podría
proporcionar ideas para el desarrollo de algoritmos automatizados para la discriminación entre
melanomas y lunares comunes. En este trabajo de investigación, es propuesto y probado un algoritmo
para caracterizar el color en una lesión pigmentada de la piel. El algoritmo desarrollado mide el tono en
cada uno de los sitios de la zona pigmentada de una imagen digital haciendo uso del espacio de color HSI.
El algoritmo fue aplicado a 40 imágenes digitales de los melanomas inequívocos y 40 imágenes de lunares
comunes, las cuales fueron tomadas de diferentes bases de datos. Los resultados preliminares indican que
los cambios de color visibles de sitios de melanoma son bien representaron por el algoritmo propuesto.
Se discute el desempeño de la rugosidad como otro factor que permite discriminar un melanoma de un
lunar.
Palabras clave— Melanoma, lunares comunes, algoritmo, tono, rugosidad.
INTRODUCCIÓN
Las lesiones pigmentadas de la piel humana como melanomas y lunares comunes son originadas de células
llamadas melanocitos, las cuales se encuentran en la interface epidermis-dermis de la piel humana1 y son
las encargadas de la producción de un pigmento en la piel denominado melanina, responsable del color de
la piel, de los ojos y del cabello.
El melanoma cutáneo es de los tres tipos de cáncer de piel el más mortífero y difícil de diagnosticar.2 Este
tipo de cáncer se ha incrementado a nivel mundial y México no es una excepción 3,4 por lo que existe
una preocupación justificada hacia la detección temprana del mismo utilizando tanto los métodos
tradicionales como las técnicas ópticas modernas.
El uso de imágenes de la piel llega a ser un método efectivo para el diagnóstico de melanoma y otras
lesiones pigmentadas de la piel. Wang et al., 5 describen una técnica llamada TBP (de las siglas en inglés
Total Body Photography) en la cual los pacientes con lesiones pigmentadas de la piel son fotografiados con
el propósito de clasificar y documentar las lesiones para futuro seguimiento.
Una forma clínica tradicional para el diagnóstico de melanoma considera ciertas características de la lesión
pigmentada que quedan resumidas en la regla ABCDE (Asimetría, Borde, Color, Diámetro y Evolución de
la lesión). 6 A partir de la examinación de estas características se puede evaluar si una lesión pigmentada
es melanoma o lunar, ya que para ambos, esta regla arroja resultados diferentes.
L. Y. Mera-González1 ( ), J. A. Delgado-Atencio2 ( ), J. C. Valdiviezo-Navarro3 ( )
1,2,3
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected] , 3 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
19
El color es un descriptor importante que exhibe una variación significativa en una lesión pigmentada de la
piel, 6,7 por ejemplo, los colores presentes en melanoma cutáneo pueden estar comprendidos entre el
blanco y el negro, pasando por otros colores tales como café claro, café oscuro, marrón, rojo, rosado,
púrpura y azul grisáceo, mientras que para lunares el tono es homogéneo. 8
Otro parámetro importante para la caracterización de melanoma y lunares comunes es la rugosidad, ya
que como es mencionado por González et al., 9 es de principal importancia en la descripción de la textura
de un objeto, y en melanomas este descriptor suele tener un valor mayor en comparación con lunares. 10
Diversos grupos de investigación han desarrollado técnicas ópticas y algoritmos computacionales para la
caracterización de melanoma a través de su color. Por ejemplo, Landau et al. 11 adquirieron 71 imágenes
de lesiones con una cámara digital y más tarde estas fueron analizadas con un sistema el cual calculó la
variación de tonos de cada imagen y la desviación estándar de sus tonos. Stanley et al. 12 usaron una
técnica de análisis de histograma de color para evaluar la discriminación de lesiones de la piel en base al
cálculo del color en diferentes regiones de la lesión en imágenes dermatoscópicas.
En este trabajo de investigación se presenta un algoritmo computacional automatizado capaz de calcular la
variación de color en melanomas y lunares comunes a través imágenes digitales dermatológicas y
dermatoscópicas de la componente H del espacio de color HSI. Además se incursiona en la
implementación de una función que permita medir la rugosidad en cada una de las lesiones para
discriminar el melanoma cutáneo de otras proliferaciones melanocíticas no malignas como los lunares
comunes.
MATERIALES Y MÉTODOS
1. Adquisición de datos
Con el fin de evaluar el desempeño de nuestro algoritmo fueron procesadas 40 imágenes digitales
de melanoma y 40 imágenes digitales de lunares comunes. El conjunto de imágenes fueron
seleccionadas de tres bases de datos públicas encontradas en Internet como se describe a
continuación:
 Conjunto de datos A: contiene 17 imágenes dermatológicas de melanoma, obtenidas del Servicio
de Información Dermatológica (Dermis). El sitio ofrece un atlas de imágenes hechas con diferentes
diagnósticos, casos clínicos e información adicional acerca de la mayoría de las enfermedades de la
piel. Este servicio tiene la cooperación del Departamento Clínico de Medicina Social (Universidad
de Heidelberg) y el Departamento de Dermatología (Universidad de Earlangen).
 Conjunto de datos B: consiste de 52 imágenes dermatológicas (35 lunares comunes y 17
melanomas), obtenidas del Atlas de Dermatología de la Escuela Médica in Vilanova, Spain.
 Conjunto de datos C: contiene 11 imágenes dermatoscópicas (6 melanomas y 5 lunares comunes),
adquiridas de un Atlas de dermatoscopía en Copenhagen NV, Dinamarca.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
20
2. Procesamiento de datos
El conjunto de imágenes digitales dermatológicas y dermatoscópicas de lesiones pigmentadas de la
piel fueron procesadas mediante un algoritmo automatizado desarrollado en Matlab® R2012b para
encontrar la variación de color y la rugosidad en lunares comunes y melanomas.
2.1. Segmentación de la lesión
Este paso consiste en aislar la lesión de la piel. El proceso de segmentación fue realizado
primeramente por la binarización de la imagen original mediante un umbral dado ɤ. El valor ɤ para
este propósito es 0.4. Una vez que la imagen original fue binarizada, como se indica en la Figura
1(b), fue obtenida una imagen complemento, ver Figura 1(c). Finalmente, aplicamos la operación
AND entre la imagen original y la imagen complemento con el fin de generar la imagen segmentada
como se observa en la Figura 1(d).
Figura 1. Segmentación del área pigmentada. a) Imagen original. b) Imagen binaria. c) Imagen complemento. d) Lesión
segmentada.
2.2. Extracción de características
La extracción de características está basada en la regla ABCDE de dermatoscopía. Por tanto, la
característica extraída de la imagen segmentada corresponde al tono.
La medición de tono en las imágenes digitales digitales dermatológicas y dermatoscópicas de
melanoma y lunares fue calculada a cada imagen segmentada, a través de la componente H (Hue)
del espacio de color HSI como se expresa en (1).11 Cabe mencionar que los valores de tono están
dados de 0° a 360°.
1
𝐻 = 2 cos−1
1
(𝑅−𝐺)+(𝑅−𝐵)
2
√(𝑅−𝐺)2 +(𝑅−𝐵)(𝐺−𝐵)
(1)
2.3. Medición de la variación de tono
Dado que los tonos comprendidos de 0° a 10° y de 330° a 360° son muy parecidos espacialmente,
los valores entre 330° y 360° fueron remplazados por 0° para evitar confusión en el desempeño
del algoritmo. Así mismo, los tonos correspondientes al fondo de la imagen equivalentes a 90°
fueron remplazados por NaN.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
21
Con el fin de identificar cambios de tono en lunares comunes y melanomas, el rango de 0° a 330°
fue dividido en 22 grupos de 15 grados cada uno, seguidamente, un color diferente fue asignado a
cada grupo con el objetivo de observar la variación de tono en una nueva imagen RGB.
Finalmente, para conocer numéricamente la variación de tono de cada lesión pigmentada, fue
calculada la diferencia entre el valor máximo y mínimo de tono de cada imagen, mediante la
operación 𝑉𝑎𝑟ℎ𝑢𝑒 = 𝐻𝑚𝑎𝑥 − 𝐻𝑚𝑖𝑛 .
2.4. Obtención de la rugosidad
Uno de las propuestas más simples para la descripción de textura es el uso de momentos
estadísticos del histograma de intensidades de una imagen o región. Sea z una variable aleatoria
que denota intensidad y sea 𝑝𝑖 (𝑧), 𝑖 = 0, 1, 2, … , 𝐿 − 1, el histograma correspondiente, donde L es
el número de niveles de intensidad distintos en una imagen. Por lo tanto, el 𝑛𝑡ℎ momento de z
sobre la media es
𝑛
𝜇𝑛 (𝑧) = ∑𝐿−1
(2)
𝑖=0 (𝑧𝑖 − 𝑚) 𝑝(𝑧𝑖 )
donde m es el valor medio de z (intensidad promedio):
𝑚 = ∑𝐿−1
𝑖=0 𝑧𝑖 𝑝(𝑧𝑖 )
(3)
El segundo momento, es decir, la varianza dada por 𝜎 2 (𝑧) = 𝜇2 (𝑧) es de particular importancia en
la descripción de la textura. Esta es una medida de la diferencia de intensidad que puede usarse
para establecer los descriptores de la suavidad relativa. Por ejemplo, el valor de la varianza es igual
a 0 para áreas de constante intensidad y se aproxima a 1 para valores grandes de 𝜎 2 (𝑧). La
varianza normalizada como es mostrada en (4) permite calcular la rugosidad de una imagen,
teniendo como resultado valores numéricos entre 0 y 1.11
1
𝑅(𝑧) = 1 − 1+𝜎2 (𝑧)
(4)
La ecuación anterior es aplicada a la componente H de la imagen segmentada.
RESULTADOS
En la Figura 2 se presenta una comparación entre el proceso de segmentación y el agrupamiento de tono
en imágenes digitales de melanoma y lunares comunes.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
22
Figura 2. Fila superior: corresponde al proceso de segmentación y agrupación de colores en una imagen
de melanoma. Fila inferior: presenta los resultados del proceso de segmentación y agrupamiento de
colores en un lunar común.
En la Tabla 1 se resumen los valores máximos y mínimos de imágenes dermatológicas y dermatoscópicas
representativas de melanomas y lunares comunes, así como la variación de tono en ellas. Los valores
resaltados en la columna H_min y en la columna H_max corresponden a los valores mínimos y máximos
de cada conjunto de imágenes.
Tabla 1. Comparación de variación de tono de algunos melanomas y lunares comunes.
𝑰𝒎𝒂𝒈𝒆𝒏
𝑯𝒎𝒊𝒏
𝑯𝒎𝒂𝒙
𝑽𝒂𝒓𝒉𝒖𝒆
Dermatológica de melanoma
0.00013938°
330°
329.9999°
Dermatológica de melanoma
0.00019275°
330°
329.9999°
Dermatológica de lunar
0.0001285°
23.2560°
23.2558°
Dermatológica de lunar
0.00047680°
51.0517°
51.0512°
Dermatoscópica de melanoma
0.0001766°
330°
329.9999°
Dermatoscópica de melanoma
0.0002157°
330°
329.9998°
Dermatoscópica de lunar
0.00012242°
7.8154°
7.8153°
Dermatoscópica de lunar
0.0001874°
21.3939°
21.3937°
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
23
La variación general de tono en imágenes digitales dermatológicas de melanoma fue de 329.99°, mientras
que en imágenes digitales dermatológicas de lunares fue de 51.05°. En cuanto a imágenes dermatoscópicas
de melanoma, la variación general de tono en ellas fue de 329.99° y en lunares comunes fue de 21.39°.
Por lo tanto, de acuerdo a los valores numéricos de variación de tono para imágenes dermatológicas y
dermatoscópicas de lunares y melanomas, el rango de variación para los primeros es menor que para los
melanomas.
Finalmente fue calculada la rugosidad de cada lesión pigmentada de la piel, generando los valores
numéricos que se muestran a continuación:
Imágenes digitales de melanoma: 0.9459≤R≤0.9999
Imágenes digitales de lunares comunes: 0.0603≤R≤0.8960
DISCUSIÓN
La presencia de vello en las imágenes es un factor influyente en la segmentación de las lesiones y para la
obtención de la variación de tono, debido a que en ocasiones el tono en el vello podría tener un valor
mayor que en zonas del área pigmentada. Este caso estuvo presente únicamente en el 2.5% de nuestras
imágenes procesadas.
El 17.5% de nuestras imágenes de melanoma presentan color homogéneo, por lo tanto, cuando fueron
procesadas con el algoritmo fue obtenido un rango de variación de tono menor a 50° en ellas.
Los valores generados por la función que calcula la rugosidad en la imágenes digitales de lesiones
pigmentadas de la piel permite observar el límite numérico para ambas lesiones, es decir, la rugosidad en
lunares comunes no excede el 0.8960 y la rugosidad en melanomas no es menor que 0.9459, aunque quizá
sea necesario realizar un cálculo más preciso ya que la diferencia entre el valor mínimo de R en
melanomas y el valor máximo de R en lunares comunes es de 0.0499.
CONCLUSIONES
Un algoritmo automático para la medición del color en imágenes digitales dermatológicas y
dermatoscópicas de melanomas y lunares comunes fue desarrollado e implementado. El resultado de
aplicar dicho algoritmo refleja la variación evidente de tono en las imágenes procesadas. El rango general
de variación de tono en las imágenes dermatológicas y dermatoscópicas de melanoma fue de 0.0013938° a
330°, mientras que para las imágenes dermatológicas y dermatoscópicas de lunares comunes fue de
0,00012242° a 51.00517°. La agrupación de colores en las lesiones pigmentadas de la piel permitió
observar la gran variación de tono presente en melanoma y el tono homogéneo en lunares comunes.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
24
Por último, se desarrolló una función que permitió discutir el desempeño de la rugosidad como un factor
más para discriminar las lesiones pigmentadas de la piel obteniendo para imágenes digitales de melanoma
una rugosidad comprendida entre 0.9459 y 0.9999, mientras que para imágenes digitales de lunares
comunes los valores fueron menores, comprendidos entre 0.0603 y 0.8960.
REFERENCIAS
[1] Fukunaga, M., Martínez, G., Liu, Z-J., Kalabis, J., Mrass, P., Weninger, W., Firth, S. M., Planque, N.,
Perbal, B., and Herlyn M., "CCN3 controls 3D spatial localization of melanocytes in the human skin
through DDR1," JCB, Papers 175(4), 563-569 (2006).
[2]Green, A., Martin, N., McKenzie, G., Pfitzner, J., Quintarelli, F., Thomas, B. W., O'Rourke M., and
Knight N., "Computer image analysis of pigmented skin lesions," Melanona Res., Papers 1(4), 231-236
(1991).
[3] Ruíz, A., Escoabar, G., de la Barrera, F., Herrera, A., Padilla, A., Suchil, and L., G., "Epidemiología del
melanoma de piel en México.," Rev. Inst. Nac. Cancerol., Papers 44(4), 168-174 (1998).
[4] González, N. E. and Flores, A. Y., "El melanoma en México," Revista de Especialidades MédicoQuirúrgicas., Papers 15(3), 161-164 (2010).
[5] Wang, S. Q. and Hashemi, P., "Noninvasive Imaging Technologies in the Diagnosis of Melanoma,"
Semin Cutan Med Surg., Papers 29(3), 174-184 (2010).
[6] Friedman, R. J. and Rigel, D. S., "The clinical features of malignant melanoma," Dermatol Clin., Papers
3(2), 271-283 (1985).
[7] Nachbar, F., Stolz, W., Merkle, T., Cognetta, A. B., Vogt, T., Landthaler, M., Bilek, P., Braun-Falco, O.,
and Plewig, G., "The ABCD rule of dermatoscopy: High prospective value in the diagnosis of doubtful
melanocytic skin lesions original," J Am Acad Dermatol., Papers 30(4), 551-559 (1994).
[8] Capdehourat, G., Corez, A., Bazzano, A., Alonso, R., and Musé, P., "Toward a combined tool to assist
dermatologists in melanoma detection from dermoscopic images of pigmented skin lesions," Pattern
Recognition Letters, Papers 32(16), 21872196 (2011).
[9] González, R. C. and Woods, R. E., [Digital Image Processing], 3er edn. Pearson Prentice-Hall, (2002).
[10] Gareau, D., Hennessy, R., Wan, E., Pellacani, G., & Jacques, S. L., “Automated detection of malignant
features in confocal microscopy on superficial spreading melanoma versus nevi”. Journal of biomedical
optics, Papers 15(6), 061713-061713 (2010).
[11] Landau M., Matz H., Tur E., Dvir M., and Brenner S., "Computerized system to enhance the clinical
diagnosis of pigmented cutaneous malignancies," Int J Dermatol., Papers 38(6), 443-446 (1999).
[12] Stanley, R. J., Stoecker, W. V., and Moss, R. H., "A relative color approach to color discrimination for
malignant melanoma detection in dermoscopy images," Skin Res Technol., Papers 13(1), 62-72 (2007).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
25
Simulación de Haces con Longitud de Foco Extendida Mediante
Zemax
A. Vázquez-Villa1, J. A. Delgado-Atencio2, S. Vázquez-y-Montiel3, J. Castro-Ramos4
Resumen— En los sistemas ópticos formadores de imágenes existe una relación inversa entre su
resolución y la profundidad de foco. Existen diversas técnicas para modificar esta relación, una de ellas es
el uso de haces de luz con una distribución de irradiancia tal que intrínsecamente se genere una
profundidad de foco grande. En este estudio se consideran los haces generados por las lentes holográficas:
fresnel, axilens y axicon. Mediante el software Zemax® se simulan estos haces y se analiza su
comportamiento en planos ubicado en diferentes posiciones sobre el eje óptico. Hasta donde conocemos
no se ha realizado un estudio comparativo de este tipo de haces para la aplicación de interés. Además,
brindamos los detalles de cómo utilizar Zemax® para modelar un modulador espacial de luz que es el
dispositivo que sirve para generar este tipo de haces.
Palabras clave— Resolución, Profundidad de foco, Modulador espacial, Zemax.
INTRODUCCIÓN
En los sistemas formadores de imágenes ópticas como la microscopia óptica, la microscopia con focal y la
tomografía óptica coherente, entre otros, para obtener una resolución mayor es necesario enfocar un haz
luminoso, típicamente con un perfil Gaussiano, en una mancha que tenga el menor tamaño posible. Sin
embargo, al realizar este proceso se provoca como consecuencia que el haz luminoso diverja más rápido.
La distancia dentro de la cual el tamaño del spot luminoso no cambia significativamente es conocida como
profundidad de foco (PDF), entonces los sistemas con aperturas numéricas grandes tienen profundidades
de foco pequeñas como muestra la Figura 1.
a)
b)
Figura 1. a) Lente con apertura numérica pequeña b) lente con apertura numérica grande.
Una forma de reducir esta relación es utilizar haces diferente a los haces gaussianos, este tipo de haces se
pueden generar mediante el uso de un modulador espacial de luz (SLM por sus siglas en inglés) el cual es
un dispositivo que puede cambiar la fase o amplitud de un haz incidente mediante una pantalla formada
A. Vázquez-Villa1 ( ), J. A. Delgado-Atencio2 ( ), S. Vázquez-y-Montiel3 ( ), J. Castro-Ramos4 ( )
1, 2, 3
Universidad Politécnica de Tulancingo, 4 Instituto Nacional de Astrofísica Óptica y Electrónica
e-mail: 1 [email protected] , 2 [email protected] , 3 [email protected] , 4 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
26
con pixeles, esto permite generar cambios en la fase con el objetivo de generar diversos tipos de haces
luminosos. Sin embargo, una desventaja de los SLM es que son costosos, por lo que si nosotros solo
queremos analizar el comportamiento de una función de fase que hayamos generado en un sistema
óptico, podemos simularlo mediante el uso de un software comercial como es el caso de Zemax® el cual
permite realizar diversos tipos de análisis en la propagación del haz.
MATERIALES Y MÉTODOS
Se utilizó la versión R2013a de MATLAB para generar las funciones de fase de la misma manera como si
se fueran a desplegar en un SLM, de solo fase, con una resolución de 1080x1080 pixeles y un tamaño de
pixel de 8 micrómetros, las dimensiones físicas del SLM serían 8.64 x 8.64 mm los valores de fase pueden
variar de cero a 2π. En este trabajo se generaron las funciones de fase de un axicon [1, 2] la cual genera
un haz Bessel, una lente Fresnel [3, 4] y un axilens [5] que es el punto intermedio entre una lente Fresnel
un axicon. Para poder simular un modulador espacial en Zemax es necesario definir una superficie del tipo
“Grid-Phase” que es una superficie plana pixelada y donde cada uno de los pixeles tendrá un valor de fase.
Para poder introducir estos valores de la fase en la superficie se crea un archivo de texto .DAT
consistente de la información del número de pixeles de la superficie los tamaños de pixel y una tabla con
los valores de fase para cada pixel junto con sus derivadas. La superficie puede hacer un ajuste de
interpolación entre los pixeles (seleccionamos la opción de interpolación lineal). La iluminación que se
utilizó en la simulación es un haz gaussiano que tiene un diámetro de 4 mm y una longitud de onda de
λ=632.8nm las lentes tienen una distancia focal f = 150 mm, Δf = 20 mm, el axicon se creó con una fase
que genera un tamaño de spot central de 50 μm, todas las funciones están desplazadas medio pixel tanto
en el eje vertical como horizontal.
RESULTADOS
En la Figura 2 se presenta una comparación entre el proceso de segmentación y el agrupamiento de tono
en imágenes digitales de melanoma y lunares comunes.
a)100
0.9
200
0.8
300
b)
0.7
400
0.6
500
0.5
600
0.4
700
0.3
800
0.2
900
0.1
1000
200
400
600
800
1000
Figura 2. Funciones de fase de una axilens. a) Generado en Matlab, b) generado en Zemax. Unidades son
periodos de 2π.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
27
En la figura 3 se muestra la PSF calculada con Zemax® para los tres tipos de lentes que se utilizaron en
este estudio. La fila superior de imágenes fueron calculadas a una distancia d = 150 mm y la fila inferior de
imágenes a la distancia d = 155 mm.
a)
b)
c)
d)
e)
f)
Figura 3. Función de punto extendido (PSF) para diferentes tipos de lentes: a) y d) lente Fresnel, b) y e)
axicon, c) y f) axilens. Las imágenes de la fila superior se obtuvieron a la distancia focal d = 150 mm, las
imágenes de la fila inferior a una distancia d = 155 mm
CONCLUSIONES
Como se puede observar es posible utilizar ZEMAX para simular a un modulador espacial conforme a los
resultados obtenidos que muestran que los haces generados están en correspondencia con los resultados
reportados experimentalmente en la literatura. De nuestro estudio se puede observar como el perfil de
los haces generados por el axicon y el axilens se mantienen constantes a lo largo de una distancia axial de
5 mm, lo cual implica un aumento considerable en la profundidad de foco del sistema óptico.
Una aplicación práctica de alto impacto de esta investigación pudiera ser en el desarrollo de modalidades
novedosas de sistema formadores de imágenes a nivel microscópico en sistemas de tomografía óptica
coherente para ambiente clínico e industrial.
REFERENCIAS
[1] J. A. Davis, J. Guertin y D. M. Cottrell, «Diffraction-free beams generated with programmable spatial
ligth modulators,» Applied Optics, vol. 32, nº 31, pp. 6368-6370, 1993.
[2] J. A. Davis, E. Carcole y D. M. Cottrell, «Intensity and phase measurements of nondiffracting beams
generated with a magneto-optic spatial light modulator,» Applied Optics, vol. 35, nº 4, pp. 593-598, 1996.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
28
[3] E. Carcolé, J. Campos y S. Bosch, «Diffraction theory of Fresnel lenses encoded in low-resolution
devices,» Applied optics, vol. 33, nº 2, pp. 162-174, 1994.
[4] D. M. Cottrell, J. A. Davis, T. R. Hedman y R. A. Lilly, «Multiple imaging phase-encoded opticals
elments written as programmable spatial light modulators,» Applied optics, vol. 29, nº 17, pp. 2505-2509,
1990.
[5] N. Davidson, A. A. Friesem y E. Hasman, «Holographic axilens: high resolution and long focal depth,»
Optics Letters, vol. 16, nº 7, pp. 523-525, 1991.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
29
Fusión de imágenes multifoco usando unidades de procesamiento
gráfico
J. Hernández-Tapia 1, J. C. Valdiviezo-Navarro2
Resumen— En diversas aplicaciones que van desde la biología hasta la electrónica es necesario observar
objetos que por su reducida dimensión se denominan microscópicos. Para su visualización y captura se
emplea un sistema óptico como el microscopio, sin embargo al incrementar la amplificación del mismo se
ve disminuida la profundidad de campo, lo que se traduce en múltiples planos de enfoque del mismo
objeto. Para permitir observar todo el volumen del objeto enfocado se emplea la fusión de imágenes
digitales. Este trabajo presenta un algoritmo de fusión de imágenes que proporciona un contraste
aceptable para las imágenes resultantes y además es eficiente en tiempos de cómputo gracias a la
implementación en paralelo de dicho algoritmo en un Unidad de Procesamiento Gráfico (GPU).
Palabras clave— microscopia, fusión de imágenes, alta resolución, GPU.
INTRODUCCIÓN
La fusión de imágenes es el proceso de combinar la información complementaria de múltiples imágenes de
la misma escena, tomadas en diferentes planos, en una sola imagen, de tal forma que la imagen resultante
tendrá una información más detallada de la escena que la información que proporciona cada imagen de
forma independiente. En microscopía, al incrementar el aumento, la cantidad de planos o zonas de la
imagen que se encuentran desenfocados aumenta de forma considerable. Por lo que, la información de
interés se encuentra dispersa en varias imágenes. La fusión de imágenes tiene como objetivo combinar las
zonas de interés de una muestra para un microscopista, sin alterar la información original presente en los
diferentes planos de enfoque. Existen varias técnicas basadas en subdividir las imágenes por bloques de
tamaño M×N como la propuesta por Li. et al [1]. Dicha métrica mide el nivel de contraste de los bloques
de las imágenes empleando como criterio la Frecuencia Espacial, para medir el nivel de contraste de cada
bloque y determinar cuál es el mejor. Además existen otras métricas como las basadas en Wavelets [2],
sin embargo, el principal problema de ambas técnicas reside en los elevados tiempos de cómputo
requeridos para determinar el tamaño de bloque óptimo para realizar la fusión. El desarrollo de las GPU
ha hecho posible la implementación de algoritmos en paralelo con el objetivo de minimizar la carga de
cómputo de la Unidad central de procesamiento. Este trabajo presenta la implementación en paralelo de
un algoritmo de fusión de imágenes digitales empleando una GPU.
ADQUISICIÓN DE IMÁGENES
La implementación en paralelo del algoritmo de fusión se probó mediante imágenes provenientes de dos
muestras: (1) una muestra de metal desvastado mediante ácido y (2) una zona de una llave de aluminio.
J. Hernández-Tapia1 ( ), J. C. Valdiviezo-Navarro2 ( )
1,2
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
30
Las imágenes se obtuvieron con un microscopio motorizado Carl Zeiss con un objetivo de 10x y una
Apertura Numérica (NA) de 0.3. La resolución resultante de las imágenes es de 2548 x 1936 pixeles. Para
la muestra de metal desvastado se tomaron 23 planos imagen a diferentes posiciones de enfoque a lo
largo del eje Z, mientras que para la llave de aluminio se tomaron 19 planos imagen La figura 1 muestra las
imágenes correspondientes a los planos 5 y 15 de las muestra de metal desvastado. Mientras que la figura
2 los planos 3 y 6 de la llave de aluminio.
Figura 1: Imágenes correspondientes al metal desvastado en el plano 5 y 15 respectivamente .
Los algoritmos se implementaron bajo Matlab R2013a (The Mathworks, MA). El software se ejecutó en
una computadora con procesador Intel Xeon E3-1230 V2 3.30 GHz con 16 GB de memoria RAM y con
sistema operativo Windows 8, y para la implementación de los algoritmos se empleó una tarjeta gráfica
NVIDIA Quadro K4000 con 768 núcleos de CUDA y 3GB de memoria DDR5.
Figura 2: Imágenes correspondientes a una zona de la llave de aluminio en el plano 3 y 6 respectivamente.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
31
ALGORITMOS DE AUTOENFOQUE
Para poder presentar la descripción matemática de los algoritmos empleados definimos a g (i, j) como la
intensidad de la imagen en la coordenada i, j, para i=1…, M y j=1…, N respectivamente; el símbolo ⨂
denota el operador usual de la convolución. Algunas de las métricas empleadas se describen a
continuación. Las métricas para implementar el algoritmo se describen a continuación:

Distancia Euclidiana (DE): La distancia euclidiana o euclídea es la distancia ordinaria entre dos
puntos en un espacio euclídeo la cual se obtiene a partir del teorema de Pitágoras. Acorde con [3],
es posible cuantificar la diferencia entre dos pixeles de color calculando la distancia geométrica
euclidiana entre ellos.
𝐷(𝑃1, 𝑃2) = √(𝑃1𝑟 − 𝑃2𝑟 )2 + (𝑃1𝑔 − 𝑃2𝑔 )2 + (𝑃1𝑏 − 𝑃2𝑏 )2
donde los subíndices r,g y b corresponden a los componentes del modelo de color RGB.

Máscaras de Kirsch (K): Las máscaras de Kirsch corresponden a un detector de bordes que
proporciona información de las altas frecuencias en las direcciones cardinales. Se basa en una
convolución de la imagen original con una máscara de tamaño 3×3.
Figura 3: Máscaras de Kirsch, Norte (N), Noroeste (NO), Oeste (O), Suroeste (SO), Sur (S), Sureste (SE), Este (E), Noreste
(NE).
CÓMPUTO EN PARALELO EMPLEANDO GPU
El método principal para mejorar el desempeño y la velocidad de una computadora se basa en
incrementar la velocidad de reloj y el número de núcleos en el procesador principal. El uso del CPU como
unidad principal, ha disminuido con el nacimiento de las GPU. Con la Aparición de CUDA (Compute
Unified Device Arquitecture), el uso de las GPU ha incrementado en aplicaciones científicas.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
32
Un programa de CUDA se compone por un programa corriendo de forma secuencial en la CPU, y de un
código en paralelo corriendo sobre la GPU conocido como kernel. El código en CPU mencionado
previamente es el encargado de transferir los datos que serán procesados por la GPU. Posteriormente se
invoca al kernel; qué procesará la información y finalmente el resultado es copiado de regreso a la
memoria de la CPU para su almacenamiento o muestreo.
RESULTADOS EXPERIMENTALES
El algoritmo de fusión se basa en una fusión denominada como pixel a pixel, las imágenes a fusionar son
filtradas inicialmente por las máscaras de Kirsch para realizar posteriormente la transformación a DE. El
algoritmo se describe a continuación: 1) Obtener la imagen filtrada de los planos a fusionar empleando las
máscaras de Kirsch mencionadas con anterioridad. 2) De las imágenes obtenidas calcular las matrices de
distancias euclidianas. 3) Aplicar un criterio de selección: el criterio de selección se basa en elegir el pixel
con el mayor valor en niveles de gris de las matrices de distancia euclidiana obtenidas en el paso anterior.
4) La posición (i,j) del mayor de los pixeles, elegido en el paso 3, será empleada para extraer el pixel RGB
de la imagen original. Este pixel formará la imagen fusionada.
El algoritmo de fusión fue calculado para cada conjunto de imágenes y se midieron los tiempos de
cómputo necesarios para completar el algoritmo de fusión tanto en CPU como en GPU. La figura
muestras la imagen fusionada resultante para el caso de metal desvastado compuesto por 23 planos de
enfoque. Por otra parte la Tabla 1 muestras los tiempos de cómputo tanto para CPU como para GPU.
Figura 4: Imagen fusionada empleando la técnica propuesta, tiempos de cómputo para CPU y GPU.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
33
Muestra
Metal
Llave
Tiempos CPU
(s)
18068.90
15491.79
Tiempo GPU (s)
16.24
9.08
Tabla 1: Tiempos para la muestra de metal desvastado en CPU y GPU usando la métrica propuesta.
Figura 5: Imagen fusionada de la llave de aluminio empleando la técnica propuesta, tiempos de cómputo para CPU y GPU.
CONCLUSIONES
En este trabajo se discutió la implementación en paralelo de un algoritmo de fusión de imágenes
multifoco. Los resultados de las pruebas aquí presentados demuestran de forma contundente que la
técnica es eficiente en términos de calidad de contraste, de igual forma se demuestra que las unidades de
procesamiento gráfico pueden ser empleadas para aplicaciones de tiempo real al disminuir los tiempos de
cómputo en tres órdenes de magnitud siendo la GPU en concreto hasta 1000x más rápida.
REFERENCIAS
[1] S. Li, J.T Kwok, Y. Wang, “Combination of images with diverse focuses using the spatial Frequency”,
Information Fusion, Vol. 2, No. 3, pp. 169-176, (2001).
[2] A. Padilla-Vivanco, I. Téllez-Arriaga, C. Toxqui-Quitl, C. Santiago-Tepantlán, “Multifocus microscope
color image fusion based on Daub(2) and Dau (4) kernels of the Daubechies wavelet family”, Proc. SPIE:
Applications of Digital Image Processing XXXII, Vol. 7443, pp. (2009).
[3] R. Hurtado-Pérez, “Análisis Comparativo de algoritmos de enfocamiento en imágenes a color para
microscopía óptica”. Tesis de Maestría, Universidad Politécnica de Tulancingo, (2013).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
34
Clasificación de botellas basado en visión por computadora
J.A. Cárdenas-Franco1, C. Toxqui-Quitl2, U.E. Escobar-Franco3
Resumen— Se presenta un sistema de visión por computadora para la inspección de botellas PET
busca de defectos de fabricación, usando técnicas de procesamiento digital de imágenes.
implementaron tres módulos en LABVIEW para el control de calidad de la boca, pared y base de
botellas. El algoritmo propuesto genera mapas de defectos que serán usados para la clasificación de
botellas.
en
Se
las
las
Palabras clave— Control de calidad, visión por computadora, análisis de Fourier.
INTRODUCCIÓN
Los sistemas de visión por computadora han tenido éxito en diversas aplicaciones, como la producción
de circuitos1, la clasificación en la industria de textil2 y minera, entre otras3. Estos sistemas aportan una
serie de ventajas para el control de calidad de la producción, como la seguridad, fiabilidad, la repetitividad
y la precisión. El control de calidad es una parte esencial de cualquier sistema de producción de botellas 4.
Durante la producción de botellas, hay muchos tipos de defectos. Las botellas son inspeccionadas por
defectos de fabricación, grietas o deformación en la boca de la botella o pared y las partículas de suciedad
en el fondo de la botella5. Debido a la inspección de botellas por inspectores humanos la baja velocidad y
eficiencia son factores que afectan la producción. La inspección de botellas es una de las aplicaciones
típicas de la visión artificial y procesamiento de imagen digital en la industria 6. Varias configuraciones de
los sistemas ópticos se utilizan para capturar la imagen de las botellas en movimiento7. Algunos de ellos
incluyen sólo tres cámaras8 y otros doce9.
INSPECCIÓN DE BOTELLAS
SISTEMA DE ADQUISICIÓN DE IMÁGENES
Las imágenes digitales de una botella se adquieren para la detección de defectos en el acabado de la
botella, pared de la botella y el fondo de la botella. La forma de un defecto se elige entre una base de
defectos indicados en la Tabla 1.
Boca de la botella
Pared de la botella
Fondo de la botella
Grietas
Grietas
Objetos extraños
Deformaciones
Manchas
Objetos pegajosos
Tabla 1 Tipo de defectos.
J.A. Cárdenas-Franco1 ( ), C. Toxqui-Quitl2 ( ), U.E. Escobar-Franco3 ( )
1, 2, 3
Universidad Politécnica de Tulancingo
e-mail: [email protected] , 2 [email protected] , 3 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
35
La inspección se divide en tres módulos, cada uno está equipado con cámaras CCD, lentes de zoom y
sistemas de iluminación basados en LED. El sistema de adquisición utiliza una cámara CCD de
exploración, que es capaz de obtener un conjunto de 16 imágenes por segundo. Con una resolución de
1432 × 1050 en escala de gris. La distancia focal del objetivo zoom es 37 a 75 mm y el LED de color verde
tiene un campo de visión de 7,6 a 22,8 cm y también se utiliza una fuente de luz LED blanca.
Figura 1. Montaje experimental para la inspección acabado de la botella sin rotación.
MÉTODOS EN LA DETECCIÓN DE FALLAS
Una vez que la posición de la botella en la cámara se conoce, y las cinco imágenes digitales adquiridas, el
paso siguiente es el análisis y procesamiento de imágenes digitales para la detección de cualquier defecto.
Los algoritmos propuestos para la inspección de botellas se basan en el análisis de frecuencia.
TRANSFORMADA DISCRETA DE FOURIER
La transformada discreta de Fourier de una función de imagen f (x, y) de tamaño M x N está dada por la
ecuación1.
Estas ecuaciones comprenden la transformada de Fourier par. Es una práctica común multiplicar la función
de imagen de entrada por (-1) x + y antes de calcular la transformada de Fourier.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
36
RESULTADOS
Los resultados de la inspección serán transferidos a un eyector que rechazan las malas botellas. La Tabla 2
muestra los resultados de laboratorio de clasificación de la botella en dos clases, con defecto y sin
defecto.
Número de botellas inspeccionadas
Correcta clasificación (CRC)
Boca
463
85.5 %
Pared
899
80.64 %
Fondo
796
95.0 %
Tabla 2. Resultado de laboratorio.
Aunque el algoritmo detecta con éxito defectos verticales en el acabado de la botella, la inspección tenía
una detección de pérdida durante el proceso de binarización porque la selección de umbral. En el caso de
la pared de la botella, la detección de pérdida es debido a la confusión de la textura de la pared de la
botella y el defecto. También la binarización es el problema en la detección de defectos en la parte
inferior de la botella.
CONCLUSIONES
Se presentó un sistema de visión artificial para la detección de fallos en las botellas de PET. El inspector de
botella se dividió en tres módulos para la adquisición de la imagen de la boca de la botella, pared de la
botella y el fondo de la botella. Las imágenes capturadas eran la tramitación previa mediante una
corrección gamma y convolución con un filtro Laplaciano. Esto hace que los bordes de la imagen sean más
nítida. Se propuso un algoritmo de detección de defectos basado en el filtrado de frecuencia de n
imágenes. Se diseñó la función La función de transferencia del filtro para la detección de grietas verticales
en el acabado de la botella. La CRC fue de 85,5%. En el caso de la pared de la botella fue de 80,64%. La
detección de pérdida es debido a la confusión de la textura de la pared de la botella y el defecto. Y el más
alto CRC fue del 95,0% en el fondo de la botella.
REFERENCIAS
1. Rafael C. Gonzalez and Richard E. Woods. Digital Image Processing, Prentice Hall, 2da Edición, (2002).
2. A. Islam, S. Akhter, and T. Mursalin, “Automated textile defect recognition system using computer
vision and artificial neural networks”, World Academy of Science, Engineering and Technology 13, (2006).
3. S. Chatterjee, A. Bhattacherjee, “Genetic algorithms for feature selection of image analysis-based quality
monitoring model: An application to an iron mine,” Engineering applications of artificial intelligence vol. 24,
pp 786-795, (2011).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
37
4. H. Liu, Y. Wang and F. Duan “Glass bottle inspector based on machine vision,” World academic of
science engineering and Technology vol 44, pp. 843-848 (2008).
5. F. Shafait, S. Muhammad, and S. Klette. “Fault detection and localization in empty water bottles through
machine vision,” Technical report. IRIS inspection machines.
6. F. Duan, Y. Wang, H. Liu and Y. Li “A machine vision inspector for beer bottle,” Engineering
Application sof Artificial Intelligence vol 20, pp. 1013-1021 (2007).
7. J. Luc “Latest vision technology offer new horizons for hollow ware inspection,” Technical report. IRIS
inspection machines.
8. Juan Cárdenas. Sistemas de Visión por Computadora para el control de calidad, Universidad Politécnica
de Tulancingo, Tesis de Maestría, (2012).
9 M. Canivet, R. Zhang, and M. Jourlin. “Finish inspection by vision for glass production,” Proceedings of
SPIE, 2183, pp. 164-169, (1994)
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
38
Análisis de la marcha humana
V. Morales-Batalla1, C. Toxqui-Quitl2
Resumen— Un patrón de marcha humana puede ser caracterizado con diferentes tipos de parámetros,
algunos básicos y otros de mayor complejidad. Actualmente, el estudio de la marcha humana es una
herramienta diagnóstica importante en la evaluación de patologías neuro-músculo-esqueléticas ya sea
transitoria o permanentes, locales o generales. Dentro de las técnicas para la extracción de la marcha se
encuentran las basadas en sensores y las basadas en imágenes, que es con la que se trabaja en esta
investigación.
Palabras clave— Marcha humana, reconocimiento de patrones, momentos.
INTRODUCCIÓN
Existen dos tipos de biometrías; la biometría estática en la cual se encuentra el reconocimiento mediante
huellas dactilares, retinas, iris, forma de la cara y la geometría de la palma de la mano y la biometría
dinámica, en esta se tiene el patrón de voz, firma manuscrita, dinámica del teclado, análisis de gestos y la
marcha humana, que es en la que está enfocado dicho proyecto.
En el último siglo las técnicas de análisis de la marcha han experimentado su mayor desarrollo.
Principalmente desde la introducción de programas informáticos que proporcionan datos numéricos y
gráficos que a su vez permiten un estudio objetivo de la marcha normal y patológica, incluyendo los
factores que pueden modificarla. La locomoción humana está descrita por Vera Luna del Instituto de
Biomecánica de Valencia como una serie de movimientos alternantes rítmicos de las extremidades y del
tronco que determinan un desplazamiento hacia delante del centro de gravedad.
MOMENTOS
MOMENTOS GEOMÉTRICOS
Los momentos geométricos están definidos como.
M−1 N−1
mpq = ∑ ∑ x p y q I(x, y)
x=0 y=0
donde p y q son los órdenes (p+q), y M X N es el tamaño de la imagen.
V. Morales-Batalla1 ( ), C. Toxqui-Quitl
1, 2
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
39
(1)
Figura 1. (a) K Imágenes de dos sujetos en diferente escala, la orientación y la posición. (b) Descriptores invariantes basados en
ϕ5 (k) momentos de Hu.
SISTEMA DE ADQUISICIÓN
Se implementó un sistema óptico-digital compuesto de 3 cámaras y un sistema de iluminación controlado,
el cual permite monitorear la forma de caminar de un individuo. La base de datos que se generó consta
de 27 individuos con 3 secuencias por persona.
Fig. Interfaz desarrollada por Victoria M. Morales Batalla
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
40
Fig. Imágenes de la Base de Datos UPT
Con el objetivo de comparar la eficiencia del algoritmo, éste se probó en una base de datos pública
llamada MoBo de la Universidad de Pensilvania.
Fig. Imágenes de la Base de Datos MoBo
IDENTIFICACIÓN DE PERSONAS
Las imágenes de las bases de datos UPT y MoBo son procesadas con las funciones mencionadas, para
obtener el ciclo de la marcha o firma biométrica, que serviría para la identificación de personas.
Persona 1
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
41
Persona 2
La cámara número 3 proporcionó los mejores resultados para los casos de caminar inclinado y caminar
con una pelota en las manos.
Al igual que la base de datos MoBo, nuevamente la cámara 3 de la base UPT presenta los mejores
resultados de clasificación.
APLICACIÓN MÉDICA
Numerosos trabajos sugieren que cambios básicos en la forma de caminar de una persona pueden ser un
indicador temprano para el diagnóstico de patologías de la marcha, como el Parkinson, la esclerosis
múltiple y la hidrocefalia de presión normal. Además el análisis de la marcha humana amplia el
conocimiento teórico para permitir desarrollar mejores elementos como prótesis y órtesis.
Las gráficas de un reporte de la marcha incluyen una zona sombreada, que acotan los desplazamientos de
un ciclo de marcha normal, las mediciones en determinado paciente para considerarlo con una cinemática
normal deben caer dentro de estas regiones.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
42
Imágenes procesadas para el análisis clínico
Se tienen gráficas en donde un especialista ya podría dar algún diagnóstico de patologías. También se
pueden hacer cálculos como velocidad, frecuencia y longitud de zancada. Incluso sirven para realizar
reportes de la marcha de un paciente.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
43
CONCLUSIONES
Momentos geométricos se calcularon a partir serie de imágenes digitales. Se muestra claramente la
periodicidad de la marcha en la historia de momentos. Se utilizó la base de datos MoBo para probar los
resultados de clasificación utilizando una RNA (WEKA). Se desarrolló una base de datos propia y se logró
una clasificación de un 86%. Los mejores resultados de la clasificación en ambas bases de datos se
obtienen al utilizar la cámara 3. Se generó un algoritmo para el análisis clínico de la marcha.
REFERENCIAS
[1] “Handbook of Biometrics”, Anil K. Jain, Patrick Flynn, Arun A. Ross, Editorial Springer, July 2007.
[2] “Statistical Analysis of Gait Rhythm in Patients with Parkinson’s Disease”, Yunfeng Wu, Sridhar
Krishnan, IEEE Transactions on neural systems and rehabilitation engineering, VOL. 18, April 2010.
[3] “Human identification based of gait”, Mark S. Nixon, Tieniu Tan, Rama Chellappa, Editorial Springer,
2010.
[4] “Análisis Biomecánico de Marcha Humana a Través de Técnicas de Modelaje”, L. E. Contreras, J. A.
Tristancho y L. F. Vargas, 2012.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
44
Holografía óptico-digital fuera de eje
P. Soto-López1, A. Padilla-Vivanco2 , A. Yuck Franco
Resumen— Se presenta una revisión del método de reconstrucción holográfica basado en la respuesta al
impulso. Se describe el arreglo experimental empleado, el cual es una versión del interferómetro de
Mach-Zehnder. Se recuperan algunas fases provenientes de material biológico y se grafican en 3D.
Palabras clave— Microscopia Holográfica digital, interferómetro de Mach-Zehnder, Recuperación de la
fase.
INTRODUCCIÓN
Holografía es una técnica no destructiva usada para la visualización de muestras, uno de sus usos más
frecuente, está en el estudio de muestras biológicas. Otras técnicas como la luz fluorescente, que libera
niveles altos de radiación pueden dañar las muestras usadas, es por ello que, la holografía es una técnica
emergente de grabado rápido, y con la capacidad de realizar una reconstrucción del objeto bajo estudio.
Es sabido que, las técnicas de interferometría holográfica se aplican en el estudio en tiempo real de
deformaciones de retina en humanos. La holografía permite obtener imágenes tridimensionales de alta
resolución de ciertas cavidades, así como de tejidos y órganos internos del cuerpo humano.
Históricamente, la holografía fue inventada en 1948 por Dennis Gabor en un esfuerzo para mejorar la
resolución del microscopio electrónico [1]. Las dos áreas han llegado a ser una misma en ciertas
aplicaciones, por lo que existe ahora una nueva rama del conocimiento con aplicaciones a las áreas
médico-bilógicas, llamada Microscopia Holográfica Digital.
DESARROLLO
ONDAS DE LUZ
Las ondas de luz pueden ser descritas por el campo electromagnético. Asimismo, los conceptos de
interferencia y difracción forman las bases de la holografía y la teoría para describirla apropiadamente, es
el modelo ondulatorio de la luz [2]. La oscilación cuantitativa son el campo eléctrico y el magnético. Las
amplitudes de los campos oscilan perpendicularmente a la dirección de propagación de la luz y
perpendicularmente una de otra, esto es, las ondas de luz son un fenómeno transversal.
La propagación de la luz se describe por la ecuación de onda, la cual proviene de las ecuaciones de
Maxwell. La ecuación de onda en el vacío está dada por:
1 𝜕 2 𝐸⃗
∇ 𝐸− 2 2 =0
𝑐 𝜕𝑡
2⃗
P. Soto-López1 ( ), A. Padilla-Vivanco2 ( ), A. Yuck Franco3 ( )
1, 2
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected] , [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
45
(1)
Aquí 𝐸⃗ es el campo eléctrico y ∇2 es el operador Laplaciano, donde 𝑐 es la velocidad de la luz en el vacío
𝑐 = 299792458 𝑚⁄𝑠.
La longitud de onda en el vacío de la luz visible está en el rango de 400 nm (violeta) a 780 nm (rojo). En
el caso de frecuencias el rango correspondiente es igual a 7,5∙〖10〗^14 Hz a 3,8∙〖10〗^14 Hz. Los sensores
de luz como por ejemplo el ojo humano, el fotodiodo o la CCD, no son capaces de detectar altas
frecuencias debido a la rapidez con la que oscilan las ondas luminosas. En la práctica, se puede medir
directamente solo la intensidad, ésta es proporcional al tiempo promedio del cuadrado del campo
eléctrico y puede ser definido como.
1 𝑇 2
(2)
𝐼 = 𝜖0 𝑐⟨𝐸 2 ⟩𝑡 = 𝜖0 𝑐 lim
∫ 𝐸 𝑑𝑡
𝑇→∞ 2𝑇 −𝑇
INTERFERENCIA
La superposición de dos o más ondas en el espacio es llamada interferencia. Si cada campo es una solución
de la ecuación de onda, la superposición es también una solución. Esto es así porque la ecuación de onda,
es una ecuación diferencial lineal, cuya solución en general se puede expresar como la combinación.
𝐸⃗𝑖 (𝑟, 𝑡) = ∑ 𝐸⃗𝑖 (𝑟, 𝑡), 𝑖 = 1,2,3, … .
(3)
𝑖
La interferencia de dos o más ondas monocromáticas se da con frecuencia y longitud de onda es igual. Así
mismo, las ondas tienen que tener la misma dirección de polarización, su amplitud compleja puede ser:
𝐴𝑘 (𝑥, 𝑦, 𝑧) = 𝑎𝑘 𝑒 −𝑖𝜑𝑘 ,
𝑘 = 1,2
(4)
La intensidad está dada por el módulo al cuadrado de la suma de las amplitudes.
𝐼 = |𝐴1 + 𝐴2 |2 = (𝐴1 + 𝐴2 )(𝐴1 + 𝐴2 )∗ = 𝐼1 + 𝐼2 + 2√𝐼1 𝐼2 cos(𝜑1 −𝜑2 )
(5)
Una cámara al grabar el haz objeto y el haz de referencia interfiriendo se pueden representar de la forma
siguiente:
2
∗
𝐼 = |𝐴𝑜𝑏𝑗 + 𝐴𝑅𝑒𝑓 | = (𝐴𝑜𝑏𝑗 + 𝐴𝑅𝑒𝑓 )(𝐴𝑜𝑏𝑗 + 𝐴𝑅𝑒𝑓 )
= 𝐼𝑜𝑏𝑗 + 𝐼𝑅𝑒𝑓 + 2√𝐼𝑜𝑏𝑗 𝐼𝑅𝑒𝑓 cos(𝜑𝑜𝑏𝑗 −𝜑𝑅𝑒𝑓 )
(6)
Donde el primer término de la derecha representa la intensidad del objeto, el segundo la intensidad del
haz de referencia y el tercero representa la interferencia de los dos haces.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
46
RESPUESTA AL IMPULSO
Se presenta el método alternativo expresado de la distribución de amplitud compleja en el plano de
observación por la convolución del disturbio original con una respuesta [3]. La respuesta al impulso es
obtenida de la transformada inversa de Fourier.
∞
ℎ(𝑥, 𝑦, 𝑧) = 𝐹
−1
{𝑒
2𝑖𝜋𝛾𝑧̂
} = ∬ 𝑒 2𝑖𝜋𝛾𝑧̂ 𝑒 2𝑖𝜋(𝛼𝑥̂+𝛽𝑦̂) 𝑑𝛼𝑑𝛽
(7)
−∞
SISTEMA OPTO-ELECTRÓNICO
El interferómetro Mach-Zehnder que se empleó es para realizar el grabado de filtros, consiste de dos
divisores de haz, de dos espejos totalmente reflectores y dos objetivos de microscopio, el cual aparece en
la Figura 1. Las dos ondas dentro del arreglo viajan a lo largo de caminos separados. Puede introducirse
una pequeña diferencia entre los caminos con una ligera inclinación de uno de los divisores de haz, así
como también en alguno de los espejos. Dado que los dos caminos están separados, el interferómetro es
relativamente difícil de alinear. Sin embargo, el interferómetro puede aplicarse en muchas situaciones. En
nuestro caso se ha usado para el grabado de filtros holográficos que contienen franjas de interferencia.
RESULTADOS
En la Figura 2, se muestran los resultados obtenidos. En el filtro u Holograma capturado se hallan los dos
haces de luz interfiriendo, un haz es el que contiene la información del objeto y el segundo el de
referencia, al aplicar el método de respuesta al impulso se obtiene la recuperación y por último se toma
una sección de la recuperación y se grafica en una tercera dimensión, en la cual se pueden observar
distintas posiciones del objeto, así como también su profundidad.
Figura 1. El interferómetro Mach-Zehnder empleado para el grabado de filtros
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
47
Figura 2. Visualización de la fase recuperada de un objeto metálico.
CONCLUSIONES
El interferómetro de Mach-Zehnder es muy apropiado para realizar holografía, ya que permite
interferencia de dos haces de forma de reflexión así como de transmisión, un ejemplo de la primera
aparece en la Figura 2a, en la cual se usa una tarjeta USAF reflectiva, obteniendo una buena recuperación
con detalles que pueden ser más visuales. La imagen correspondiente a la Figura 2b, es de una tarjeta
USAF usada de forma de Transmisión, también tiene buenos resultados a la hora de realizar su
reconstrucción.
En la Figura 2c se puede observar una recuperación de una muestra sanguínea, en la cual los glóbulos
rojos son muy pequeños para ser observados a simple vista, y con la ayuda de la holografía podemos
visualizar hasta en una tercera dimensión la superficie y volumen de estos glóbulos. Todo ello se logra
usando el método de respuesta al impulso programado en Matlab, el cual fue de gran apoyo para las
reconstrucciones en un lapso de tiempo muy pequeño, así como la visualización en 3D del objeto.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
48
REFERENCIAS
1. D. Gabor, The Nobel Prize in Physics1971, http://www.nobelprize.org
2. U. Schnars, W. Jueptners, Digital Holography, Digital Hologram Recording, Numerical
Reconstruction, and Related Techniques, Springer, pp. 5-16 (2005)
3. R. N. Bracewell, The Fourier Transform and its Applications, McGraw-Hill, New York, (1965).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
49
Características de medición inteligente de energía eléctrica en una
casa habitación
F. A. Elizalde-Canales1, I. J. Rivas-Cambero2
Resumen— Los medidores inteligentes registran los eventos, perfiles de carga y precios y transmiten los
datos por medio de Internet, en este sentido los clientes pueden comprobar el uso que han hecho de la
energía eléctrica y controlar su consumo. Con un sistema de medidores inteligentes, los usuarios podrían
consumir la cantidad de energía eléctrica que están dispuestos a pagar. En este trabajo se presenta una
revisión del estado del arte de las redes eléctricas inteligentes con respecto a los sistemas de medición
que proponen utilizar.
Palabras clave—Medidor inteligente, redes eléctricas inteligentes, consumo de energía, casa habitación
INTRODUCCIÓN
La presente investigación encuentra su motivación principalmente en los problemas ambientales y
energéticos que se están enfrentando generando preocupación mundial sobre la eficiencia energética
debido al probable desabastecimiento de combustibles fósiles proponiendo generar conciencia y
favoreciendo las condiciones de racionamiento energético a través de las redes eléctricas inteligentes.
Desde un contexto global se define la Red Eléctrica Inteligente o (Smart Grid en inglés) como la
integración dinámica de los desarrollos en ingeniería eléctrica y los avances de las tecnologías de la
información y comunicación (TIC) con el objetivo primordial de realizar un uso eficiente y racional de la
energía.
La revisión del estado del arte revela que el propósito de las redes eléctricas inteligentes, es colaborar en
la disminución del impacto ambiental, de ahí que varios países desarrollados están creando estrategias que
permitan disminuir la emisión de bióxido de carbono al implementar fuentes alternas de energía como son
la energía eólica y energía solar. Además se busca renovar y actualizar la red eléctrica convencional por
medio del uso de tecnologías de información y comunicación avanzada (ver figura 1), entre los que
destacan los medidores inteligentes, que habilitan la comunicación en dos vías entre las compañías y los
consumidores [1], además de permitir a los hogares administrar el uso de electricidad [2].
F. A. Elizalde-Canales1 ( ), I. J. Rivas-Cambero2 ( )
1, 2
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] ,2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
50
Figura 1. Transmisión en ambos sentidos.
El medidor inteligente es el equipo que realiza la medición, registro y almacenamiento de la información
de consumo de energía, que es transmitida en tiempo real hacia concentradores y luego a la empresa de
servicios de energía eléctrica con la finalidad de realizar un análisis que permita optimizar procesos. La
industria eléctrica está decidida a transformar la red convencional en una red distribuida y bidireccional;
tomando como referencia el modelo de Internet.
Con base al análisis realizado la situación actual muestra un futuro desabasto de energía eléctrica y la
sociedad debe tomar conciencia acerca del costo, tanto en términos económicos como ambientales que
implica el consumo desmedido. El ingreso de medidores inteligentes en sus hogares, que lean y trasmitan
los datos en tiempo real, apoyaría a los consumidores en el uso eficiente de su consumo suponiendo una
oportunidad de aprendizaje, sobre sus hábitos e intensidades de consumo. Si los consumidores están
informados sobre el precio de la energía, aumentan las posibilidades de cambiar parte de su demanda para
períodos en los que se tengan precios más bajos [3].
Para la implementación de los medidores inteligentes se están estudiado diferentes proyectos, enfocados
ayudar a los consumidores a hacer uso eficiente de su consumo y obtener ahorros [4]. Los usuarios
también pueden tener acceso a información como precio, cantidad de consumo y parámetros del sistema,
entre otros [5]. Sin embargo la transmisión de datos, tanto en medios cableados e inalámbricos, es
propensa a ser interceptada, alterada o interrumpida, por tanto existen algunos inconvenientes de los
medidores inteligentes como son:




Pérdida de la privacidad
Disminución de la fiabilidad (medidores más complicados e incremento de la posibilidad de
interferencia por parte de terceros no autorizados)
Aumento de los riesgos de seguridad de red o de acceso remoto
Riesgos de contaminación electromagnética por uso de wifi, GSM, GPRS o sistemas de microondas
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
51
Las tecnologías de redes inteligentes para la trasmisión de datos, utilizan los avances cibernéticos
recientes para aumentar las funciones de control y vigilancia en toda la red de energía eléctrica,
incorporando diversas iniciativas técnicas. Tomando en cuenta que para asegurar la interconexión efectiva
entre equipos y sistemas, se requiere de estándares de comunicación que definan un lenguaje común que
facilite el intercambio de datos. En la actualidad, coexisten diferentes protocolos y tecnologías de
comunicación con diversas fases de implantación en cada una de las actividades del sistema eléctrico
basados en el modelo OSI y TCP/IP.
DESARROLLO
Un sistema de medición puede ser integrado como el de la figura 2, que muestra la topología de los
dispositivos involucrados en la medición, por medio de sensores de corriente y voltaje a través del micro
controlador arduino, construyendo una red inalámbrica utilizando un router para proveer internet en un
hogar, donde se brinde el acceso a las mediciones a través de dispositivos móviles por medio de un
navegador web. Las mediciones se realizan a través de un sistema que calcula la potencia y energía
eléctrica consumida en la red eléctrica. Luego se envían las mediciones por medio de una red WIFI a un
servidor web, utilizando un router el cual le da la potencia de un sistema embebido.
Figura 2. Dispositivos que se utilizan en un sistema inteligente.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
52
En la revisión de artículos sobre mediciones eléctricas de energía se encontró que se tienen proyectos e
iniciativas a nivel internacional, como por ejemplo el proyecto de Unión Europea que diseña el plan
conocido como PLAN 20-20-20, que es una iniciativa lanzada para luchar contra el cambio climático con
metas claras: reducir las emisiones de bióxido de carbono un 20%; ahorrar un 20% en el consumo
energético; y proveer al sistema energético con al menos un 20% de energía renovable; todo ello para
2020. También Latinoamérica se ha concientizado y se están creado programas que involucran gobierno,
empresas, universidades y proveedores; como es el caso de Colombia, Chile, Ecuador y Brasil; aunque a
nivel general y considerando el continente americano, E.E.U.U ha avanzado realmente con hechos
“medibles” y cuantificables en la iniciativa Smart Grid o de Redes Inteligentes.
Las Redes Inteligentes presentan oportunidades para el control, la automatización, incorporación de
fuentes de energías renovables, recolección de datos y control por medio de aplicaciones inteligentes, con
las cuales se busca mejorar la eficiencia.
CONCLUSIONES
El análisis de la literatura está enfocado al diseño y construcción de un sistema de medición inteligente
que presenta una alternativa para optimizar el consumo de energía eléctrica en una casa habitación.
Presumiendo que la medición inteligente puede aportar grandes beneficios, como la posibilidad de
devolver información al consumidor final acerca de su consumo energético y con ello conducirlo hacia
una mejor planeación y uso eficiente de la energía eléctrica generando potenciales ahorros energéticos y
económicos. Debido a que los beneficios de la integración de un sistema de medición inteligente en las
redes eléctricas son sustanciales permitiendo la medición de consumo de electricidad; lectura remota,
procesamiento de datos de medición automática y transferencia para aumentar la información del cliente
en tiempo real, y así mejorar la toma de decisiones y el control del consumo.
Los sistemas de medición al estar integrados de hardware, software y sistemas de comunicación, poseen
peligros potenciales y significativos presentando problemas de privacidad y seguridad; por lo que se
requiere mejorar la seguridad en la implementación de tecnología de medición.
REFERENCIAS
[1]. Erol-kantarci, M., & Mouftah, H. T. (2010). The Impact of Smart Grid Residential Energy Management
Schemes on the Carbon Footprint of the Household Electricity Consumption. Electric Power and Energy
Conference, IEEE.
[2]. Sianaki, O. A., Hussain, O., Dillon, T., & Tabesh, A. R. (2010). Intelligent Decision
Support System for Including Consumers’ Preferences in Residential Energy
Consumption in Smart Grid.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
53
[3]. Ajaja, A. (2010). Reinventing electric distribution. IEEE Potentials, 29(1), 29–31.
[4]. Shargal, M. (2009). From Policy to Implementation : The Status of Europe’s Smart
Metering Market. Energy, Utilities & Chemicals
[5]. Zhang, J., Chen, Z., Yang, X., Chen, K., & Li, K. (2010). Ponder over Advanced Metering Infrastructure
and Future Power Grid. Power and Energy Engineering Conference (APPEEC), Asia-Pacific, 1–4.
doi:10.1109/APPEEC.2010.5448797
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
54
Simulación de un demodulador de frecuencia para la sincronía
eléctrica
C. Rueda-Germán1, I. J. Rivas-Cambero2, J. H. Arroyo-Núñez3, A. D. Vite-Rojo4
Resumen— Phase Locked Loop (PLL) es una técnica de control en lazo cerrado que es empleada en el
proceso de demodulación de ondas de radio de FM, el objetivo principal de esta técnica consiste en la
generación de una señal de salida con amplitud fija, frecuencia y fase coincidente con la señal de entrada.
Esta técnica es recurrida en el proceso de sincronía entre los sistemas locales de generación eléctrica y el
sistema eléctrico nacional, ya que el ángulo de fase y frecuencia de la red eléctrica es información crítica
para logar la interconexión sin causar perturbaciones.
Palabras clave— PLL, fase, frecuencia, interconexión, red eléctrica, FM
INTRODUCCIÓN
México tiene alto potencial energético proveniente del sol, viento, agua y del calor de la tierra.
Actualmente en México los sistemas de generación de energía renovable conectados a la red, como se
observa en la Fig.1, tienen una penetración y desarrollo aún naciente [3].
Fig. 1 Configuración típica de un sistema híbrido conectado a la red
C. Rueda-Germán1 ( ), I. J. Rivas-Cambero2 ( ) , J. H. Arroyo-Núñez3 ( ), A. D. Vite-Rojo4 ( )
1, 2, 3, 4
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected] , 3 [email protected] , 4 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
55
Para interconectar un sistema local de generación de energía (SLG) con el sistema eléctrico nacional
(SEN) es necesario establecer una sincronía en frecuencia y fase entre ambas formas de onda para evitar
perturbaciones. En la Fig. 2 se muestra un desfasamiento de 90° entre las formas de corriente alterna,
representadas mediantes ondas sinusoidales, que causaría posibles desperfectos en las líneas de
transmisión de la electricidad.
Fig. 2 Desfasamiento de 90° entre dos ondas sinusoidales.
Diferentes opciones de sincronía eléctrica son usuales, pero la más ampliamente utilizada tiene relación
directa con los receptores de estaciones de radio en frecuencia modulada (FM).
DESARROLLO
Para la realización de esta simulación se emplea un método de demodulación de un sistema de FM, las
características de la modulación en frecuencia se observan en la Fig. 3, en donde la amplitud de la señal
portadora permanece constante mientras que la frecuencia cambia por la acción de la señal moduladora.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
56
Fig. 3 Modulación FM.
Cualquier circuito que convierta una variación de frecuencia en la portadora a una variación de voltaje
proporcional puede utilizarse para desmodular o detectar señales de FM [2]. El lazo enganchado en fase
(PLL) es una técnica de demodulación utilizada en la sincronía eléctrica [3] que puede ser descrita con una
estructura básica mostrada en el diagrama de la Fig. 4.
Fig. 4 Componentes de un PLL
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
57
Empleando Matlab®, lenguaje de alto nivel con alta capacidad de procesamiento, en el desarrollo de esta
simulación, se utiliza un modelo matemático basado en un PLL [4] que comienza con la ecuación básica de
una onda sinusoidal definida como en la ecuación 1. En esta ecuación, la frecuencia y la fase son
modificadas para observar la respuesta del filtro de lazo, el tiempo de enganche, la portadora modulada, la
salida del detector de fase y la respuesta del VCO, tal como se muestran en la Fig. 5.
𝑣 = 𝑉𝑝 𝑠𝑒𝑛(2𝜋𝑓𝑡 ± 𝜃)
donde:
𝑉𝑝 = amplitud pico
𝑓= frecuencia
𝜃 =ángulo de fase
(1)
Fig. 5 Demodulador FM basado en un PLL
RESULTADOS
Con la simulación de un PLL acoplada a los parámetros técnicos de la línea eléctrica es posible sintonizar
el filtro para que el tiempo de enganche entre la señal de referencia, en este caso un sistema eléctrico
monofásico, y un sistema local de generación de energía entren en sincronía en el menor tiempo posible
sin generar alteraciones, los resultados obtenidos se observan en la Fig. 6.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
58
Fig. 6 Resultantes del PLL
CONCLUSIONES
La presente simulación tuvo por objeto la sintonía del filtro PI o filtro de lazo relacionado con el PLL, el
proceso es obtener el menor tiempo de respuesta y atenuación de la señal de referencia para que el PLL
entre en enganche con la señal eléctrica y pueda seguir en fase y frecuencia sin errores ni perturbaciones
significativas.
REFERENCIAS
1. Alatorre, C. (2009). Energías Renovables para el Desarrollo Sustentable en México. México D.F.:
Secretaría de energía.
2. Wayne, Tomasi. Sistemas de Comunicaciones Electrónicas Prentice Hall. México 2003
3. Clementina Rueda-Germán, J. Humberto Arroyo-Núñez, Iván Rivas-Cambero. Implementation of
an embedded phase and frequency tuner, as reference for real-time energy exchange with the grid.
Sixth International Symposiym on Energy & Technology Innovation Forum, Puerto Rico Energy
Center-Laccei, February 20-21, 2014, Puerto Rico ISSN 2334-2498.
4. http://www.mathworks.com/matlabcentral/fileexchange/24167-simple-pll demonstration / content /
simple _PLL.m
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
59
Instrumentación Inalámbrica de Variables Meteorológicas en un
Ambiente Cerrado para uso Agrícola
J. G. Durán-Candelaria1, J. C. Ramos-Fernández2, L. F. Cerecero-Natale3, R. Terán-Pacheco4
Resumen— En el presente trabajo, se muestra la caracterización y acondicionamiento de señales para los
sensores de: temperatura interna, temperatura externa, humedad interna, humedad externa, radiación
solar y velocidad del viento, de un invernadero agrícola, de forma indirecta se determina el índice de
presión de vapor. El trabajo de instrumentación se realiza usando una tarjeta basada en tecnología de
microcontroladores modelo Arduino MEGA2560, para adquirir las 6 variables climáticas utilizando el
convertidor analógico digital y transmitir de forma inalámbrica usando los módulos comunicación serial
Xbee S2, para su visualización, manipulación gráfica y registro de mediciones en una base de datos
desarrollada en LabVIEW. Como pruebas experimentales se presentan los datos de las mediciones
adquiridas durante 20 horas, donde se puede apreciar el correcto funcionamiento de la instrumentación
electrónica.
Palabras clave— Comunicación Inalámbrica, Adquisición.
INTRODUCCIÓN
La producción agrícola bajo invernadero es perturbada por el clima en su interior y exterior, por lo que
es deseable mantener las variables que lo caracterizan dentro de un rango de valores que es establecido
por los expertos en agricultura [2].
Un invernadero es un recinto cerrado donde la diferencia entre el clima interior y exterior se crea
principalmente mediante la radiación solar y los mecanismos del estancamiento del aire. Todo esto es con
el objetivo de proveer un ambiente apropiado para el cultivo de especies vegetales, [3]. Algunas de las
ventajas de cultivar en invernaderos pueden ser las siguientes:
• Provee un microclima especial para el mejor crecimiento de los cultivos.
• Logra extender los tiempos de producción.
• Protege a los cultivos de las inclemencias del tiempo y de plagas.
Los sistemas de adquisición se utilizan para medir y registrar señales obtenidas de dos maneras
principalmente: originadas a partir de la medición directa de cantidades eléctricas, como pueden ser
voltajes de CA o CD. Los sistemas de adquisición se pueden clasificar principalmente en: analógicos y
digitales, [1].
J. G. Duran-Candelaria1 ( ), J. C. Ramos-Fernandez2, L. F. Cerecero-Natale13, R. Teran-Pacheco4
1, 2
Universidad Politécnica de Pachuca, 3, 4 Universidad Politécnica de Tulancingo
e-mail: 1 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
60
El trabajo que aquí se reporta, se realizó la instrumentación electrónica de los sensores de temperatura y
humedad tanto interna como externa y radiación solar y velocidad del viento, así como el cálculo de
déficit de presión de vapor de un invernadero con producción de jitomate, todo esto con el fin de
adquirir una base datos para proponer un modelo bioclimático y sus uso en el diseño de leyes de control.
DESARROLLO DE LA INSTRUMENTACIÓN ANALÓGICA Y DIGITAL
Para caracterizar los sensores de temperatura, humedad, radiación solar, velocidad de viento, se
requieren los datos de fabricante de los sensores, además instrumentos patrón para calibrar. Una etapa
importante es el desarrollo de las ecuaciones matemáticas que describen las variables físicas que se miden.
Mediante las ecuaciones sintonizadas generalmente de forma experimental, se determina las ganancias de
acondicionamiento de las señales de los amplificadores operacionales. El sensor de humedad relativa para
este estudio es el HMZ-433A1 su señal depende a su vez de la temperatura por esta razón en la tabla se
muestran diferentes porcentajes de humedad dependientes de un valor de temperatura determinado, el
sensor de temperatura es el LM35 que es lineal su voltaje de salida en función de la temperatura.
Las configuraciones electrónicas de los amplificadores operacionales son del tipo amplificador no inversor.
Las señales de salida de los circuitos amplificadores se conectaron a canales de conversión analógica digital
de una tarjeta Arduino MEGA2560, para su posterior transmisión en protocolo serial inalámbrico.
Tomando en cuenta el acondicionamiento de señal y conversión analógica realizada, en el programa de
LabVIEW se configuraron las velocidades de comunicación serial inalámbricas para la transmisión
inalámbrica de las mediciones adquiridas.
Adquiriendo todas las mediciones del clima y separadas por variables, se implementó la conversión
necesaria para tener las variables en su respectiva unidad de medición, las fórmulas de conversión de los
sensores de temperatura, radiación solar y velocidad del viento solo depende la variable que se mide, ya
sea velocidad del viento, temperatura o radiación solar a diferencia del sensor de humedad relativa que
depende también del valor de temperatura, se calculó también el déficit de precio de vapor una variable
impórtate en un invernadero.
RESULTADOS Y DISCUSIÓN
A continuación se presentan los resultados obtenidos de las mediciones experimentales adquiridas del día
17 de mayo de 2014, el experimento comenzó a las 00:01 a.m. horas con duración de 20 horas. Se
observa las mediciones adquiridas por el sistema de adquisición de datos que se desarrolló en este
trabajo. Para este caso en particular la Figura 5, se muestra las temperaturas interna y externa del
invernadero, se aprecia claramente que durante la noche y las primeras horas de la mañana la temperatura
es bastante baja, presentado un punto mínimo de temperatura a las 05:30 a.m. horas con 1.63°C de la
temperatura externa y que comienza a elevarse de forma proporcional a las 06:48 a.m., también es
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
61
importante mencionar la diferencia de temperaturas cuando el calor se concentra debido a que el nylon
del invernadero concentra los rayos solares a las 12:56 a.m con 37.34°C de la temperatura interna con la
medición externa a la misma hora de 27.85°C teniendo una diferencia de 9.49°C entre ambas
temperaturas.
Fig. 5. Temperatura Interna y Externa.
Figura 6. Humedad Interna y Externa.
En la siguiente Fig. 6 se muestran las variables de las humedades interna y externa donde se observa que
durante la noche estas mediciones aumentan teniendo un comportamiento inverso al de temperatura. El
punto más alto registrado fue a las 06:16 con un porcentaje humedad relativa Interna del 91.86%, el valor
registrado a la misma hora de la humedad externa fue de 90.58% teniendo una diferencia de 1.28%. el
punto mínimo a las 3:28 P. M. horas con un porcentaje de 12% de humedad interna, observándose así una
correlación inversamente proporcional entre la humedad y la temperatura dado que estas dos variables
afectan de manera directa el cálculo del déficit de presión de vapor.
A continuación se muestra en la Fig. 7 la gráfica de radiación solar se puede observar que la medición con
un mínimo durante todas las horas que dura la noche de 0 W/m2 y comienza a elevarse después de las
06:46 a.m. horas con una lectura de 88
𝑊
𝑊
𝑚2
teniendo un punto máximo a las 1:12 P. M. horas con un valor
de 880 𝑚2 esta energía es de mucha importancia para las plantas puesto que requieren de la radiación
solar debido a que es necesaria para la fotosíntesis además de elevar la temperatura de la atmosfera
terrestre y por lo tanto del invernadero, esta variable puede ser utilizada en un control de temperatura
por sombra.
Fig. 7. Radiación Solar.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
Figura 8. Velocidad del Viento.
62
A continuación se muestra en la Fig. 9 la gráfica de la variable de déficit de presión de vapor calculada con
la temperatura y la humedad relativa, es conocido que el aire tiene una capacidad máxima de retención de
humedad dependiendo de la temperatura. La presión de vapor a la máxima retención de vapor en el aire
se le conoce como presión de vapor a saturación expresada como KPa, teniendo un punto mínimo a las
07:12 horas con un valor de 0.144 KPa y un punto máximo a las 12:57 con un valor de 13.94 KPa.
Medición
𝑇𝑖
𝑇𝑒
𝐻𝑖
𝐻𝑒
𝑅𝑆
𝑉𝑣
𝑉𝐷𝑃
Figura 9. VDP.
Máximo
37.34°𝐶
32.73°𝐶
91.86%
90.06%
𝑊
880 2
𝑚
𝐾𝑚
22.55
ℎ
13.94 𝐾𝑃𝑎
Mínimo
2.54°𝐶
1.63°𝐶
12.49%
13.71%
𝑊
0 2
𝑚
𝐾𝑚
0
ℎ
0.144 𝐾𝑃𝑎
Tabla 1. Comparativo de Mediciones.
CONCLUSIONES
Con los resultados experimentales se concluye que es posible adquirir señales del clima de manera
inalámbrica, con una tarjeta ArduinoMEGA2560, módulos de comunicación inalámbrica Xbee S2, interface
USB-RS232 Prolific Technology y LabVIEW. De esta forma se desarrolló un datalogger que permite
guardar las mediciones del clima en un archivo xls para su posterior despliegue en gráficas, o un posible
análisis para el diseño de leyes de control de temperatura del invernadero.
REFERENCIAS
[1] Albert D. Helfrick; Wiliam D. Cooper. Instrumentación Electrónica Moderna y Técnicas de Medición.
Prentice-Hall, 1990.
[2] Ramos Fernández, J. C., López Morales, V., and Lafont F., E. G. (2007a). A neurofuzzy structure
modelling evapotraspiration in a Greenhouse crop. Ingenieria Investigaci_on y Tecnologia, XI:127-139.
[3] Tpagro. http://www.tpagro.com, 2005.
[4] Gorrostieta-Hurtado, E.; Sotomayor-Olmedo, A.; Pedraza-Ortega, J.C.; Aceves-Fernandez, M.A.;
Villaseñor-Carillo, U.G., "Modeling Key Parameters for Greenhouse Using Fuzzy Clustering
Techniques,"Artificial Intelligence (MICAI), 2010 Ninth Mexican International Conference on, vol., no.,
pp.103,106, 8-13 Nov. 2010.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
63
[5] Mancuso, M.; Bustaffa, F., "A wireless sensors network for monitoring environmental variables in a
tomato greenhouse," Factory Communication Systems, 2006 IEEE International Workshop on, vol., no.,
pp.107,110, 0-0 0
[6] Bojin Liu; Ghosal, D.; Chuah, Chen-Nee; Zhang, H.M., "Reducing Greenhouse Effects via Fuel
Consumption-Aware Variable Speed Limit (FC-VSL)," Vehicular Technology, IEEE Transactions on , vol.61,
no.1, pp.111,122, Jan. 2012
[7] Lujuan Deng; Kanyu Zhang; Youmin Gong; Songhe Xie, "Environment optimal control in intelligent
greenhouse," Intelligent Control and Automation, 2004. WCICA 2004. Fifth World Congress on, vol.6,
no., pp.5356,5360 Vol.6, 15-19 June 2004
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
64
Impacto de las fuentes de energía renovables en la operación y
control de sistemas eléctricos
D. Martínez-Martínez1, R. Tapia-Olvera2
Resumen— Las situaciones ambientales actuales han propiciado el gran desarrollo del uso de las energías
renovables para la generación de electricidad. Este uso creciente de nuevas fuentes de electricidad ha
traído grandes beneficios ambientales, pero al mismo tiempo ha introducido nuevos fenómenos, o
versiones distintas de ciertos fenómenos indeseables en los sistemas eléctricos. Por tanto es necesario
revisar temas tales como la estabilidad angular y de voltaje, la localización óptima de generación
distribuida, el despacho económico, la asignación de unidades, la coordinación de protecciones, entre
otros, incluyendo alta penetración de energías renovables. En éste trabajo se presenta una investigación
sobre el estado del arte del análisis de sistemas eléctricos de potencia y distribución considerando una
alta penetración de fuentes renovables y generación distribuida.
Palabras clave— Energías renovables, fuentes renovables, alta penetración, sistemas eléctricos,
generación distribuida, localización óptima, estabilidad angular, estabilidad de voltaje.
INTRODUCCIÓN
Se entiende por fuentes renovables (FR) el conjunto de tecnologías que permiten la generación de energía
eléctrica de forma limpia mediante recursos naturales renovables [1], tales como el viento, la energía
solar, la energía de las mareas, las microturbinas, entre otras. Debido a su naturaleza de producción
intermitente los generadores empleados en éste tipo de tecnologías pueden ocasionar problemas de
estabilidad angular y estabilidad dinámica en generadores convencionales conectados a la red, además, su
no producción de potencia reactiva ocasiona también problemas de estabilidad de voltaje estática y
dinámica. Como ventajas de éste tipo de tecnologías se tiene en primer lugar la baja emisión de
contaminantes, habilidad en la reducción de pérdidas de energía eléctrica, confiabilidad desde el punto de
vista eléctrico, bajo costo de inversión en comparación con las tecnologías convencionales, entre otras
[2]. Por otra parte, se entiende por Generación Distribuida (GD) a las centrales eléctricas instaladas en la
red de distribución y cerca de los consumidores finales, razón por la cual las pérdidas asociadas al
transporte de energía se reducen considerablemente. Este tipo de centrales de GD pueden ser del tipo
convencional o de fuentes renovables. En éste último caso se habla de Generación Distribuida de Fuentes
Renovables (GDFR). Es importante mencionar que la GD tiene también un fuerte impacto en la operación
y control de un sistema eléctrico, ya que los sistemas existentes hasta hace poco tiempo no contemplaban
la inclusión de éste tipo de tecnologías en los sistemas de distribución. Se desprende de lo anterior que es
importante analizar los fenómenos clásicos presentes históricamente en los sistemas eléctricos de
potencia, como son la estabilidad (angular, de voltaje, de frecuencia, de pequeña señal, etc.), la
coordinación de protecciones, el despacho económico, la asignación de unidades, entre otros, ante la
inclusión de las fuentes renovables y la generación distribuida.
D. Martínez-Martínez1 ( ), R. Tapia-Olvera2 ( )
1
Universidad Autónoma del Estado de México, 2 Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
65
Desarrollo
Se presentan casos tomados de la literatura donde se analiza el impacto de las fuentes renovables y la
generación distribuida en la operación y control de sistemas eléctricos. Se analizan fenómenos tales como
estabilidad angular, estabilidad de voltaje, ubicación óptima de GD, entre otros.
IMPACTO DE LA GD Y LAS FR EN LA ESTABILIDAD ANGULAR Y DE VOLTAJE.
La estabilidad angular se refiere a la capacidad de los generadores de un sistema eléctrico para
mantenerse en sincronismo después de una perturbación en el sistema. Generalmente se analiza durante
la primera oscilación posterior al disturbio, a lo que se le conoce como estabilidad transitoria. Si el análisis
va más allá de este lapso de tiempo, se habla de estabilidad dinámica. En éste sentido se han propuesto
diversas técnicas para mitigar este fenómeno, algunas de las cuales se describen a continuación.
a. Uso combinado de dispositivos STATCOM y bancos de baterías [3].
La estabilidad transitoria se relaciona con el comportamiento dinámico del sistema durante una falla y
antes de que ésta sea liberada. Un método para mejorar la estabilidad de sistemas eólicos es utilizar
baterías de almacenamiento de energía. Estas baterías permiten a los generadores de fuentes renovables
entregar grandes cantidades de potencia activa en períodos de tiempo relativamente cortos, con lo que
facilitan el control de frecuencia del sistema. Por otra parte, el uso de los Sistemas de Transmisión de
Corriente Alterna Flexibles (FACTS – Flexible A.C. Transmission Systems) facilitan el control de diversos
parámetros de un sistema eléctrico, como pueden ser: flujos de potencia activa y reactiva, voltajes y
ángulos nodales, entre otros. En este sentido se ha analizado el uso combinado del dispositivo FACT
denominado STATCOM, el cual posee la habilidad de proporcionar suave y rápidamente compensación
de potencia reactiva para el mejoramiento del soporte de voltaje, el amortiguamiento y la estabilidad
transitoria del sistema.
b. Uso de capacitores en derivación y manejo de potencia activa y reactiva [4].
Otra metodología relacionada con el mejoramiento de los márgenes de estabilidad de voltaje en sistemas
eléctricos es el uso de capacitores en derivación y técnicas para el manejo de potencia activa y reactiva
basadas en el despacho económico de carga. La idea principal de ésta técnica es realizar un análisis modal
de la matriz característica del sistema, el cual proporcionará información precisa de aquellos generadores
que aportan poco, nada o incluso que estén afectando la estabilidad de voltaje del sistema eléctrico
considerado. Una vez detectados, estos generadores serán penalizados asignándoles altos costos en el
predespacho económico de carga, razón por la cual el programa del predespacho no los considerará para
cubrir la demanda y de ésta forma se evitará su participación para satisfacer el consumo. No obstante, es
bien sabido que los generadores eléctricos son una de las principales fuentes de potencia reactiva y por
ende, uno de los principales medios para el control de voltaje en un sistema eléctrico, razón por la cual es
necesario suplir la salida de uno o varios de ellos por la razón mencionada anteriormente.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
66
Para cubrir esta necesidad se propone el uso de bancos de capacitores que aporten la potencia reactiva
necesaria dejada de suministrar por los generadores que intencionalmente fueron dejados fuera del
despacho económico de carga por no aportar a la estabilidad de voltaje del sistema. En cuanto al manejo
de la potencia activa y reactiva, la idea es nuevamente realizar un análisis modal que permita determinar
los nodos del sistema más propicios para el control de potencia activa y reactiva, ajustando
dinámicamente las inyecciones de potencia en dichos nodos.
c. Técnicas basadas en mediciones en tiempo real [5].
Estas técnicas consisten en monitorear permanentemente el comportamiento del sistema, determinando
indicadores de proximidad al colapso de voltaje que permitan tomar acciones oportunas para prevenirlo.
Se apoyan de equipos tales como PMU (Phasor Measurement Unit – Unidad de Medición Fasorial) y en
Sistemas Supervisorios de Control y Adquisición de Datos (SCADA – Supervisory Control And Data
Acquisition). La base de estas técnicas consiste en determinar el nivel de stress o nivel de carga del
sistema mediante la evaluación de indicadores, lo que permitirá tomar las acciones pertinentes en el
momento preciso. Se realiza entonces la detección de parámetros críticos y se ejecutan en su caso las
acciones de control necesarias. La Figura 1 ilustra este procedimiento.
Figura 1. Esquema de control de voltaje en tiempo real [5].
d. Control de baterías de almacenamiento para control de frecuencia [6].
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
67
Se puede implementar un control para los sistemas de almacenamiento de energía con baterías (BESS –
Battery Energy Storage Systems) que permita apoyar el control de frecuencia en una microred (MG) y
con la habilidad de desconectarse de la red para alimentar una carga local en forma aislada [7]. Por tanto,
el BEES puede funcionar conectado a la microred (G-mode) o en modo aislado (I-mode), realizando el
cambio entre uno y otro modo de una manera perfectamente coordinada con el control propuesto y que,
de acuerdo a pruebas experimentales, no presenta variaciones significativas de voltaje o frecuencia al
realizar la transición.
METODOLOGÍAS PARA LA UBICACIÓN ÓPTIMA DE GENERACIÓN DISTRIBUIDA (GD)
Otro aspecto importante de la implementación de GD en sistemas eléctricos es la ubicación óptima de la
misma, lo que permitirá optimizar pérdidas de energía y costos, así como reducir problemas de
confiabilidad y estabilidad angular y de voltaje [8]. La figura 2 muestra los métodos más usados para
establecer la ubicación óptima de GD en un sistema eléctrico.
´
Figura 2. Técnicas de ubicación óptima de Generación Distribuida Renovable (DRG) [8].
Estas técnicas de ubicación óptima se dividen básicamente en tres tipos: (i) Técnicas analíticas, (ii)
Algoritmos genéticos y (iii) Métodos de inteligencia artificial. Cada una de éstas técnicas presenta ventajas
y desventajas respecto a las otras, sin embargo, la desventaja principal de todas ellas es la complejidad de
un sistema eléctrico de potencia real, en el cual se tienen muchas restricciones que deben considerarse
simultáneamente, tales como pérdidas de energía, confiabilidad, factores de carga, perfiles de voltaje,
estabilidad de voltaje, entre otras. Por esta razón se considera que la ubicación óptima de DRG es aún un
problema no resuelto y con muchas líneas abiertas de investigación. La tabla 1 muestra un resumen de las
técnicas más usadas en la ubicación óptima de DRG.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
68
Método
de
ubicación de DRG
Regla de los 2/3
Método analítico
Flujos de
óptimos
potencia
Programación no lineal
de entero mezclado
Algoritmo
evolucionario
Recocido simulado
Evolución diferencial
Optimización
de
partícula de enjambre
Sistema difuso
Búsqueda tabú
Algoritmo
de
búsqueda de colonia
de hormigas
Algoritmo artificial de
colonia de abejas
Búsqueda Cuckoo
Algoritmo
de
la
luciérnaga
Algoritmo
de
competición
imperialista
Sistema
inteligente
híbrido
Ventajas
Desventajas
Técnica de aproximación simple y fácil
de usar
Fácil de implementar, factor de precisión
alto, eficiencia en tiempo computacional.
No se puede aplicar a sistemas con carga no
uniforme
Pocos ejemplos en la literatura, carece de
robustez, solo puede considerar objetivos
simples y solo un DRG a la vez.
Problema formulado de forma cerrada, difícil
de incluir diversos aspectos en los cálculos.
Fácil de encontrar ejemplos en la
literatura, factor de precisión alto,
eficiencia en tiempo computacional.
Factor de precisión alto, eficiencia en
tiempo computacional.
Funcionamiento eficiente para encontrar
el óptimo global, fácil de encontrar
ejemplos en la literatura.
Fácil de implementar, habilidad de
proporcionar
soluciones
razonablemente buenas para muchos
problemas combinacionales, robustez.
Pocos parámetros requeridos, capaz de
manejar problemas de optimización
complejos.
Fácil de programar con pocas
ecuaciones, fácil de encontrar ejemplos
en la literatura.
Fácil de entender y apropiado para
modelar incertidumbres para una mejor
solución.
Funcionamiento eficiente para lograr una
solución óptima o sub-óptima, capaz de
escapar de mínimos locales.
Fácil de entender y programar.
Capaz de manejar problemas complejos
de optimización, fácil de programar.
Fácil de programar, pocos parámetros
requeridos.
Fácil de entender y programar.
Capaz de manejar problemas complejos
de optimización
Difícil de implementar y entender.
Relativamente
difícil
de
programar,
convergencia prematura, posibilidad de
quedar atrapado en óptimos locales, bajo
factor de precisión.
Funcionamiento relativamente bajo para
encontrar el óptimo global, largo tiempo de
cómputo.
Convergencia inestable, posibilidad
quedar atrapado en óptimos locales.
Funcionamiento relativamente bajo para
encontrar el óptimo global, pocos ejemplos
en la literatura.
Pocos ejemplos en la literatura.
Relativamente difícil de programar debido a
la sintonización de muchos parámetros, bajo
factor de precisión.
Cambios en la distribución de probabilidad
por
iteración,
tiempo
incierto
de
convergencia, pocos ejemplos en la
literatura.
Pocos ejemplos en la literatura
Convergencia lenta, pocos ejemplos en la
literatura.
Convergencia lenta, pocos ejemplos en la
literatura.
Relativamente difícil de programar debido a
la sintonización de muchos parámetros,
pocos ejemplos en la literatura.
Relativamente difícil de programar, pocos
ejemplos en la literatura
Funcionamiento eficiente para encontrar
el óptimo global, capaz de manejar
problemas complejos de optimización.
Tabla 1. Ventajas y desventajas de las principales técnicas de ubicación óptima de DRG [8]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
69
de
MATERIALES Y MÉTODOS
Se realizó una búsqueda de literatura reciente relacionada con la temática analizada. Se realizó la
clasificación de acuerdo a los temas abarcados en cada una de las referencias consultadas y se realizó un
resumen de los aspectos más importantes de cada una de ellas.
RESULTADOS
Se ha descrito el impacto de las fuentes renovables de energía sobre la operación y control de un sistema
eléctrico. El análisis de la literatura demuestra que la inclusión de generación distribuida y fuentes
renovables tiene un impacto directo sobre fenómenos como la estabilidad angular y la estabilidad de
voltaje, los cuales no pueden ser tratados como si de un sistema convencional se tratara. Por esta razón
es necesario desarrollar nuevas técnicas y metodologías que permitan aminorar estas nuevas
problemáticas.
DISCUSIÓN
Las fuentes renovables de energía han tenido un impacto positivo desde el punto de vista ecológico en los
procesos de generación, transmisión y distribución de energía eléctrica. No obstante, su inclusión ha
traído consigo algunos fenómenos indeseables como problemas de estabilidad angular y de voltaje.
Así mismo se requiere realizar estudios que permitan determinar la ubicación óptima de generadores de
fuentes renovables dentro de un sistema eléctrico de potencia o de distribución. Los ahorros económicos
esperados debido a la minimización de pérdidas de transporte de energía y el acceso libre a fuentes
renovables justifican los esfuerzos que se desarrollan actualmente en todo el mundo para dar solución a
las problemáticas mencionadas anteriormente. El estado del arte de ésta temática presenta aún áreas de
oportunidad que deberán ser desarrolladas próximamente.
CONCLUSIONES
Se concluye que la introducción de fuentes renovables y la generación distribuida en los sistemas actuales
de distribución y en las nuevas microredes, induce fenómenos indeseables como inestabilidad angular,
inestabilidad de voltaje o inestabilidad de frecuencia. Se han realizado intentos de diseñar controles que
permitan reducir el impacto negativo de éstos fenómenos, algunos de los cuales se mencionan en este
trabajo. Se observa además que la ubicación óptima de la generación distribuida es un tema relevante, ya
que de ello dependerá la reducción de pérdidas de energía, costos de inversión y fenómenos indeseables
como los mencionados anteriormente. Las diversas técnicas mencionadas se enfrentan a la problemática
de la variedad de funciones objetivo presentes en el proceso de optimización debido a la misma naturaleza
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
70
compleja de un sistema eléctrico. Finalmente se recomienda explorar el uso de software especializado que
permita combinar el análisis de sistemas de control con el análisis de redes eléctricas, lo que permitiría
expandir las posibilidades de análisis del impacto de las fuentes renovables y la generación distribuida en
redes eléctricas.
REFERENCIAS
[1] T. Ackerman, Wind Power in Power Systems, 2005.
[2] S. Heir, Grid Integration of Wind Energy Conversion Systems, 2005.
[3] A. Kanchanaharuthai, V. Chankong, K. Loparo, Transient stability and voltage regulation in power
systems with renewable distributed energy resources, 2011, IEEE.
[4] H. Omidi, B. Mozafari, A. Parastar, M.A. Khaburi, Voltage stability margin improvement using shunt
capacitors and active and reactive power management, 2009, IEEE Electric Power & Energy Conference.
[5] M. Glavic, D. Novosel, E. Heredia, D. Kosterev, A. Salazar, F. Habibi, M. Donnelly. Real time voltage
control under stress conditions, 2012, IEEE Power and Energy Magazine.
[6] I. Serban, C. Marinescu. Control strategy of three-phase battery energy systems for frequency
support in microgrids and with uninterruptedsupply of local loads, 2014, IEEE Transactions on power
electronics, Vol. 29,No. 9.
[7] X. Tan, Q. Li, H. Wang, Advances and trends of energy storage technology in microgrid, Int. J. Elect.
Power Energy Systems , Vol. 44, No. 1, Jan 2013.
[8] W.S. Tan, M.Y. Hassan, M.S. Majid, H.A. Rahman, Optimal distributed renewable generation planning:
a review of different approaches, 2013, Renewable and Sustainable Energy Reviews.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
71
Un modelo de programación matemática binaria para la asignación
de horarios en la Universidad Politécnica de Tulancingo
E. González-Gutiérrez1, M. Pérez Rubio2, M. Muñoz Pérez3, H. Minor Popocatl4
Resumen— En este trabajo se presenta un modelo de programación matemática binario para la óptima
asignación de horarios docentes en la Universidad Politécnica de Tulancingo, se considera las
disponibilidades reales de docentes y mostramos resultados de la implementación cuando utilizamos el
optimizador GAMS.
Palabras clave— Programación entera binaria, modelo matemático.
INTRODUCCIÓN
EL objetivo de todas las instituciones educativas es ofrecer una educación de alta calidad, por lo que se
debe tener una infraestructura adecuada y una determinada cantidad de recursos humanos, estos se
deben planificar de tal forma que exista un equilibrio, es decir, que no haya escases o sobreoferta de ellos.
Un modelo de programación matemática para la asignación de horarios debe satisfacer una serie de
requerimientos impuestos por políticas de cada universidad. Actualmente, el proceso de programación se
realiza de forma manual demorando aproximadamente un mes en promedio. Cabe destacar que la
programación obtenida de esta manera no está libre de errores, detectándose en algunos casos ciertas
ineficiencias e incumplimientos de los requerimientos básicos para el correcto funcionamiento de la
institución.
En consecuencia, una buena programación horaria genera una serie de beneficios para los principales
actores que conviven en las instituciones. Entre estos es posible mencionar por ejemplo: eliminar
traslapes de horarios entre cursos del mismo cuatrimestre, respetar la disponibilidad de horarios de los
profesores, respetar la capacidad de las aulas y laboratorios de clase e incorporar condiciones deseables,
como por ejemplo: favorecer las clases en bloque horarios específicos o minimizar la utilización de aulas.
En la literatura se han estudiado este tipo de problemas, por ejemplo, en [1], [2], [3], [4] y, recientemente
en [5].
E. González Gutiérrez1 , M. Pérez Rubio2 ( ), M. Muñoz Pérez3 , H. Minor Popócatl4
1, 2, 3, 4
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
72
DESARROLLO
Se considera como unidad básica del modelo, el cuatrimestre, éste se basa en la programación entera que
integra la definición de horarios y asignación de aulas de clase. El modelo asigna de manera conjunta
bloque de horarios de clase que corresponde a una semana.
De esta manera, se definen combinaciones de bloques de horarios que llamamos patrones de horarios. La
idea es que el modelo decida el programar o no las clases de cátedra directamente en el patrón de
bloques de horarios, por ejemplo, si una asignatura posee bloques de dos horas consecutivas del mismo
día. Además suponemos, por simplicidad de exposición, consideramos que cada grupo permanece en la
misma aula durante toda la semana.
Sea I el conjunto de las asignaturas J el conjunto de cuatrimestres y K el conjunto de horas, P el
conjunto de profesores, G los grupos del cuatrimestre j , j  J y hi el número de horas que se debe
impartir la asignatura, i , i  I.
Adicionalmente son necesarios los siguientes conjuntos que comparten relación de los conjuntos que
acabamos de definir.
1)
p
denota la disponibilidad durante toda la semana en el nuevo bloque horario del profesor, p , p  P .
Definimos subconjuntos relacionados con éste.
a)
b)
c)
d)
e)
f)
g)
Lp
Mp
Xp
Jp
Vp
2 p
1p
denota la disponibilidad que corresponde al día lunes,
denota la disponibilidad que corresponde al día martes,
denota la disponibilidad que corresponde al día miércoles,
denota la disponibilidad que corresponde al día jueves,
denota la disponibilidad que corresponde al día viernes,
denota la disponibilidad del profesor p en la franja horaria de dos horas y
denota la disponibilidad del profesor p en la franja horaria de una hora.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
73
2)
p
denota las asignaturas del profesor p  P
Sea x ijk la variable binaria definida por
si la asignatura i se imparte en el cuatrimestre

1,
x ijk  
j en el horario k,

0, en otro caso.
De esta manera presentamos el modelo que optimiza los horarios que corresponden a cada profesor.
min    ( ijk ) x ijk
iI
(1)
j J kK
sujeto a
2

k 2 p
x ijk 
x
k1p
ijk
 hi ; i  p j  J
(2)
x
ijk
 1; i  p j  J
(3)
x
ijk
 1; i  p j  J
( 4)
x
ijk
 1; i  p j  J
(5)
x
ijk
 1; i  p j  J
(6 )
x
ijk
 1; i  p j  J
(7 )
x
ijk
 1; k   p j  i
(8)
x sjk  x ijk 1  1; k   2 p , i  s
( 9)
kL p
kMp
kX p
k J p
kVp
ip
x sjk  x ijk 7  x ijk 8  1; k  1p , i  s
(10)
x ijk  { 0,1}i  Ij  Jk  K
La función objetivo representa el requerimiento de que el horario se elija lo más justo. La restricción (1)
garantiza que cada asignatura se imparta de acuerdo al número de créditos que le corresponda. Las
restricciones (2)-(7) impiden que durante los días de la semana en las que los profesores tienen
disponibilidad se impartan más de dos horas continuas al día. Las restricciones (8) y (9) controlan que no
se produzcan topes de horarios entre asignaturas diferentes.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
74
RESULTADOS EXPERIMENTALES
Hasta el momento se han obtenido algunos resultados por el modelo propuesto y tiene como propósito
mostrar las ventajas de la utilización del modelo matemático.
Los datos de disponibilidades fueron suministrados por la coordinación de Ingeniería en Sistemas
Computacionales. Está compuesta de dos cuatrimestres y 14 profesores.
El modelo de programación entera tiene 371 variables de decisión y más de 1000 restricciones. Este
modelo fue implementado en el optimizador GAMS [6] y resuelto mediante CPLEX [7] en una
computadora con S.O. Windows 7, Intel (R) Xenon(R) CPU E5-2667 0 @ 2.0GHz 2.90 GHz y RAM 12.0
GB. La siguiente Figura 1, muestra un horario del segundo cuatrimestre grupo 1 que se obtuvo a partir del
modelo propuesto.
L
M
X
J
V
07:00 a. m.
08:00 a. m.
09:00 a. m.
10:00 a. m.
11:00 a. m.
12:00 a. m.
01:00 p. m.
02:00 p. m.
Figura1. Horario del segundo cuatrimestre grupo 1.
CONCLUSIONES
Se concluye que la introducción de fuentes renovables y la generación distribuida en los sistemas actuales
de distribución y en las nuevas microredes, induce fenómenos indeseables como inestabilidad angular,
inestabilidad de voltaje o inestabilidad de frecuencia. Se han realizado intentos de diseñar controles que
permitan reducir el impacto negativo de éstos fenómenos, algunos de los cuales se mencionan en este
trabajo. Se observa además que la ubicación óptima de la generación distribuida es un tema relevante, ya
que de ello dependerá la reducción de pérdidas de energía, costos de inversión y fenómenos indeseables
como los mencionados anteriormente. Las diversas técnicas mencionadas se enfrentan a la problemática
de la variedad de funciones objetivo presentes en el proceso de optimización debido a la misma naturaleza
compleja de un sistema eléctrico. Finalmente se recomienda explorar el uso de software especializado que
permita combinar el análisis de sistemas de control con el análisis de redes eléctricas, lo que permitiría
expandir las posibilidades de análisis del impacto de las fuentes renovables y la generación distribuida en
redes eléctricas.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
75
REFERENCIAS
[1] Y. L. R. M. H. S. C. H. L. D. Zhang, "A simulated annealing with a new neghborhood structure based
algorithm for high school tiemtabling problems," European Journal of Operational Research, pp. 550-558,
2010.
[2] H. D. S. S. M. Al-Yakoob, "Mathematical programming models and algorithms for a class-faculty
assigment problem," European Journal of Operational Research, pp. 488-507, 2006.
[3] H. D. S. S. M. Al-Yakoob, "A mixed-integer programming approach to a class timetabling problem: A
case of strudy with gender policies and traffic considerations," European Journal of Operational Reseach,
pp. 1028-1044, 2007.
[4] J. M. A. J. P. H. R. E. K. Burke, "A branch-and-cut procedure for the Udine Course Timetabling
problem," Annal Operation Research, pp. 71-87, 2012.
[5] J. L. M. F. E. O. B. Diana Sánchez Partida, "An integer linear programming model for a university
timetabling problem considering time windows and consecutive periods," Journal of Applied Operations
Research, vol. 6, no. 3, pp. 158-173, 2014.
[6] G. A. M. S. (GAMS), "http://www.gams.com/," [Online].
[7] m. i. p. a. q. p. High-performance mathematical programming solver for linear programming,
"http://www-01.ibm.com/software/commerce/optimization/cplex-optimizer/," [Online].
[8] "Metaheuristics Network," [Online]. Available: http://www.idsia.ch/Files/ttcomp2002.
[9] V. Bardadym, "Computer Aided School and University Timetabling, The New Wave," Lecture Notes in
Computer Science Series, pp. 22-45, 1996.
[10] D. D. W. J. K. E. Burke, "Applications to timetabling," Handbook of Graph Theory, pp. 445-474, 2003.
[11] K. J. J. K. R. W. E. Burke, "Automated University Timetabling," The State of the Art, The Computer
Journal, pp. 565-571, 1998.
[12] G. L. M. Carter, "Recent Developments in Practical Course Timetabling," Lecture Notes in Computer
Science, pp. 3-19, 1998.
[13] A. Schaerf, "A survey of automates timetabling," Artificial Intelligence, pp. 87-127, 1999.
[14] D. D. Werra, "An introduction to Timetabling," European Journal of Operational Reseach, pp. 151-162,
1985.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
76
Análisis y simulación de la probabilidad de rechazo de paquetes en
redes 802.11, Wi-Fi
F. J. Bucio-Castillo1, M. Muñoz-Pérez2, F. J. Albores-Velasco3, E. González-Gutiérrez4
Resumen— En una WLAN, el estándar IEEE 802.11 utiliza la DCF y el protocolo de contienda:
CSMA/CA. El desarrollo de esta investigación se basa en el análisis de este protocolo utilizando
herramientas probabilísticas. En [12] se presenta un análisis de este protocolo que está basado en la teoría
de procesos de Markov. En este trabajo utilizamos las condiciones de optimalidad, específicamente
consideramos las principales medidas de rendimiento, así como los tiempos de servicio en la red,
utilizando la fragmentación de los paquetes para calcular la probabilidad de rechazo del mismo y la
capacidad de tráfico en el medio operando en condiciones de saturación, con ruido y sin estaciones
ocultas. Las formulas se implementaron en MATLAB y se compararon con los resultados que se
obtuvieron con el simulador Pythagor Simulator.
Palabras clave— Red inalámbrica, estándar IEEE 802.11b, simulación de redes.
INTRODUCCIÓN
Por su utilidad, las WLAN se han desarrollado varios trabajos con el objetivo de descubrir las regiones de
optimalidad, por ejemplo, se ha evaluado el rendimiento de la Función de Coordinación Distribuida (DFC)
vía simulación [7] o por aproximación mediante modelos analíticos, simplificando considerablemente la
regla backoff (o de postergación), véase [10] y [14]. En [13], [14] y [16], se desarrollaron métodos, bajo el
esquema DCF, para evaluar el rendimiento de la WLAN bajo condiciones de saturación cuando hay colas
para transmitir en cada nodo de la WLAN.
En [5] se desarrolló una aproximación numérica del modelo, para evaluar el rendimiento de saturación,
utilizando probabilidad condicional; en [18] se presentó un análisis para evaluar, numéricamente, el
rendimiento del protocolo Acceso Múltiple con Detección de Portadora y Evasión de Colisiones
(CSMA/CA) mediante cadenas inducidas de Markov. En [12] y [13] se evaluaron los parámetros que
involucran la saturación del rendimiento de una WLAN mediante métodos analíticos, lo cual permite
encontrar regiones de optimalidad para estos parámetros
En el presente trabajo utilizamos el análisis del estándar IEEE 802.11, presentado en [12] en donde se
calcula el rendimiento y la probabilidad de rechazo de transmisión de paquetes en redes Wi-Fi cuando han
alcanzado el límite de intentos permitidos para su envío. En este mismo trabajo se presenta la solución de
este modelo en términos de probabilidades, nosotros estamos interesados en programar dichos
resultados en MATLAB, con el objetivo de obtener resultados numéricos, a partir del modelo analítico.
F. J. Bucio-Castillo1, M. Muñoz-Pérez2 ( ), F. J. Albores-Velasco3, E. González-Gutiérrez4
1, 2, 4
Universidad Politécnica de Tulancingo, 3 Universidad Autónoma de Tlaxcala
e-mail: 2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
77
DESCRIPCIÓN DEL ESTÁNDAR IEEE 802.11
El estándar IEEE 802.11 es un estándar para WLAN, y se encarga de la implementación y funcionamiento
de dichas redes, su objetivo es desarrollar un control de acceso al medio (MAC) y especificar la capa física
para su interconexión inalámbrica en estaciones fijas, portables y móviles dentro de un área local.
Uno de los principales métodos de acceso utilizado por el estándar IEEE 802.11, es la DCF que utiliza el
protocolo Acceso Múltiple con Detección de Portadora y Evasión de Colisiones (CSMA/CA), para
permitir a los usuarios competir por el medio inalámbrico. Bajo este esquema los paquetes de datos se
transmiten a través de dos mecanismos:
Mecanismo de Acceso Básico.
Mecanismo RTS/CTS.
Fragmentación.
Modelo analítico
A los largo de esta sesión, exponemos los resultados de [Vishnevskii2003]. Consideremos una red LAN
inalámbrica con N estaciones activas con un paquete para transmitir, estadísticamente homogéneas,
trabajando bajo condiciones de saturación. Que las estaciones son estadísticamente homogéneas significa
que:
1) La longitud del paquete de datos seleccionado en cada estación será de igual tamaño, denotada como
{dl , l  1, , lmax }
.
2) Los valores del umbral de fragmentación
( Lf )
y P , sean iguales en todas las estaciones.
3) El retardo de propagación,  , sea el mismo para todas las estaciones.
La operación de la red LAN inalámbrica se subdivide en ranuras virtuales no uniformes, de modo que
cada estación pueda cambiar su contador de retardo y, cuando llega a cero, puede iniciar su transmisión.
Estas ranuras virtuales se definen como: Vacía
( pe )
cuando no transmite la estación, Exitosa p s 
cuando una y solo una estación transmite y Colisión
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
( pc )
78
cuando dos o más estaciones transmiten.
En el modelo analítico estudiaremos tres casos, con los cuales obtendremos principalmente los valores
del rendimiento y la probabilidad de rechazo en la transmisión de paquetes de datos: El primer caso, si
l  max(P , Lf )
, los paquetes de datos son transferidos mediante el mecanismo de acceso básico; En el
L l
P  l  Lf
segundo caso, si
, usamos el mecanismo RTS/CTS; por último el tercer caso, si f
, los
paquetes de datos son divididos en tramas cortas y son transmitidos mediante fragmentación.
l  max(P , Lf )
Caso 1. Si
, para obtener la probabilidad de rechazo y el rendimiento de la transmisión de
paquetes de datos, utilizaremos las siguientes fórmulas:
prej ( l )
La probabilidad de rechazo de la transmisión de paquetes de datos, denotada por
, se obtiene
mediante
prej ( l )  [ cd ( l )]Ns ,
donde
Ns es el número máximo de intentos cortos de transmisión;  cd ( l ) , obtenida en (1).
EL rendimiento, denotado por S , se determina por
8l h ( l , k)d lk
,
l lmin k 0 [ pe  psTs  pcTc ]
lmax K ( l )
S  ps 
donde el rendimiento es la relación de la sumatoria de la transmisión de un paquete relacionada a una
cadena de datos
(l , k)
;
Ts y Tc son los tiempos promedios de duración de una ranura en colisión y
 h (l , k)
una ranura con éxito respectivamente;
es la probabilidad de transmisión de un paquete de
longitud l de un intento asociado a una cadena
obtienen de (3),
Caso 2. Si
(l , k)
llevado acabo exitosamente;
pe , ps y pc se
Ts , Tc y  h ( l , k ) se definen en [Vishnevskii2003].
P  l  Lf
, en este caso, el número de transmisiones de tramas RTS estará limitado por
Nd , cada una de estas transmisiones puede ser
0, , Ns 1
número máximo de intentos largos, denotado por
precedida por un número intentos infructuosos
de transferir una trama RTS.
Para obtener la probabilidad de rechazo y el rendimiento de la transmisión de paquetes, utilizaremos las
siguientes fórmulas:
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
79
La probabilidad de rechazo para un paquete de longitud l la obtenemos mediante
Nd 1Ns  id ( Ns 1)
prej  
id 0
Para obtener el rendimiento
sustituyendo en ellas el valor

 l ( id , i r ) 
r
Nd ( Ns 1)
ir Ns

d
l
( ir ).
ir  0
S , para este caso 2, se modifica de la fórmula (3) a la fórmula (8),
Ns por i1m , obtenido en (9).
L l
Caso 3. Si f
, para el cálculo de la probabilidad de rechazo y del rendimiento de la transmisión de
paquetes datos, se considera la fragmentación del paquete de datos para su transmisión, los fragmentos se
transmiten, si y solo si, cumplen las siguientes condiciones:


n
n
Todos los fragmentos se han transferido exitosamente y los contadores s o d no han alcanzado
su límite.
Si el primer intento de transmisión de la primera trama de datos o del resto de ellas o bien una trama
ACK, fue distorsionada alcanzando su límite de retransmisiones
Ns y Nd .
La probabilidad de rechazo de paquetes por fragmentación es
K ( l )1
prej ( l )  prej (Lf ) 
p
rej
(Lf )zl , k  prej ( rl 0 )zl ,0 .
k 1
Para obtener el rendimiento
sustituyendo en ellas el valor
S , para este caso 3, se modifica de la fórmula (3) a la fórmula (8),
Ns por Im (l ) , obtenido en (19).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
80
Resultados numéricos
Caso 1. Mecanismo de acceso básico, si l ≤ Max(P , Lf ), para la transmisión de los paquetes de datos
consideraremos un paquete con una longitud l = 350 bytes, menor al umbral P y al umbral Lf , una red
inalámbrica con N = {5, . . . , 50} estaciones activas y el límite de intentos de retransmisión dado por i = 7.
Los resultados numéricos del comportamiento del rendimiento y de la probabilidad de rechazo, se
presentan en la Tabla 3.3.
Estaciónn5
10
15
20
25
30
35
40
45
es
Prej
0.03 0.04 0.04 0.04 0.05 0.05 0.05 0.05 0.05
60
S
1.15 51
1.04 83
8.87 99
7.60 09
6.55 15
5.68 20
4.95 23
4.33 26
3.81
Tabla
3.3:
Rendimiento
(S)
y
Probabilidad
de
rechazo
(prej).
e6
e6
e5
e5
e5
e5
e5
e5
e5
50
0.0
528
3.3
6e5
A partir de los datos de la Tabla 3.3 podemos analizar el comportamiento de S y de prej. Para una WLAN
con 5 estaciones obtenemos un valor para S = 1,15×6 bits/s y prej = 0,0360, si se incrementa el número
de estaciones activas los valores de S decrecen y los valores de prej incrementan.
Caso 2. Mecanismo
RTS/CTS, si P < l ≤ Lf , para la transmisión de los paquetes de datos consideramos un
m
paquete con una longitud l = 450 bytes, mayor al umbral P y menor al umbral Lf , una red inalámbrica con
N ={5, . . . , 50} estaciones activas y el límite de intentos de retransmisión dado por i1= 25. Obteniendo
los resultados numéricos del comportamiento del rendimiento y de la probabilidad de rechazo,
presentados en la Tabla 3.4.
Estaciones 5 10
15
20
25
Prej
S
30
35
40
45
50
0 0.06 0.07 0.07 0.07 0.07 0.07 0.07 0.07 0.0
.8 8.11
92 7.78
32 7.38
53 6.93
65 6.44
73 5.91
79 5.37
83 4.82
87 789
4.2
0
. 3.4:
e6 Rendimiento
e6
e6
e6
e6 de rechazo
e6 (prej).
e6
e6 7e6
Tabla
(S) y Probabilidad
53
73
3e 3.4 podemos analizar el comportamiento de S y de prej. Para una WLAN
A partir de los datos de la Tabla
6 valor para S = 8,33×6 bits/s y prej = 0,0573, si se incrementa el número
con 5 estaciones obtenemos un
de estaciones activas los valores de S decrecen y los valores de prej incrementan.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
81
Caso 3. Mecanismo de fragmentación, si klLf < l, para la transmisión de los paquetes de datos
consideraremos un paquete con una longitud l = 2000 bytes, mayor al umbral Lf , el cual es fragmentado
en tramas de K(l) = 3 con tamaño r1= 1800 y r0= 200, una red inalámbrica con N = {5, . . . , 50} estaciones
activas y el límite de intentos de retransmisión dado por Im(l) = 65. Obteniendo los resultados numéricos
del comportamiento del rendimiento y de la probabilidad de rechazo, presentados en la Tabla 3.5
Estación
es
Prej
S
5
10
15
20
25
30
35
40
45
0.12 0.14 0.14 0.15 0.15 0.15 0.15 0.15 0.15
19
1.15 24
1.24 92
1.16 26
1.06 46
9.48 59
8.48 69
7.57 76
6.77 82
6.05
e7Tabla e7
e7
e7(S) y Probabilidad
e6
e6 de e6
3.5: Rendimiento
rechazoe6
(prej ). e6
50
0.1
586
5.4
1e6
REFERENCIAS
[1] Alizadeh. F., A Finite Load Analytical Model for the IEEE 802.11 Distributed Coordination Function MAC.
Proc. of WiOPT’03: Modeling and Optimization in Mobile, Ad Hoc and Wireless Networks, INRIA.
Sophia Antipolis, France, pp. 3-5, 2003.
[2] Anurag. K., Wireless Networking. Elsevier, 2008.
[3] Bianchi. G., Performance Analysis of the IEEE 802.11 Distributed Coordination Function. IEEE Journal on
Selected Areas in Communications. Vol. 18. No. 3, 2000.
[4] Cali. M. C., IEEE 802.11 Protocol: Design and Performance Evaluation of an Adaptive Backoff Mechanism.
IEEE Journal on Selected Areas in Communications. Vol. 18. NÂo 9, 2000.
[5] Chatzimisios. P., Packet Delay Analysis of the Advanced Infrared (Air) CSMA/CA MAC protocol in optical
wireless LANs. International Journal of Communications Systems. Tomo 18, 2005.
[6] Choo. K. L., Performace Analysis of IEEE 802.11 CSMA/CA Me- dium Access Control Protocol. In Preceedings
of the 7th IEEE international Symposium on Personal, Indoor and Mobile Radio Comunications (PIMRC96). Taipei.
Taiwan, P 407-411„ 1996.
[7] Ho. T.S., Performace Analysis of IEEE 802.11 CSMA/CA Medium Access Control Protocol. In Preceedings of
the 7th IEEE international Symposium on Personal, Indoor and Mobile Radio Comunications (PIMRC’96).
Taipei. Taiwan, 1996.
[8] IEEE. IEEE Standard for Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications.
P802.11, 1997.
[9] Sánchez. B. M., Modelo realista para la Función de Coordinación Distribuida del Estándar IEEE 802.11b.
Univ. Tarapacá, vol. 13 No. 3, pp. 96-103, 2005.
[10] Schriber. T.J., Simulation using GPSS. Jonh Wiley & Sons, 1974.
[11] Sóbol. T.J., Lecciones populares de matemáticas, Método Montecarlo.
Mir, Moscú Rusia, 1993.
[12] VishnevKii. V. M., Optinal Tool of the Wi Fi Protocol: Study in Saturation. Distributed Modelling
Comunication Networks, Moscow Russia, 2003.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
82
[13] Vishnevskii. V. M., A Wireless Lan Under High Load and in Noise: Throughput Evaluation. Automation and
remote control. Vol. 62. No. 8, 2001.
[14] Vishnevskii. V. M., 802.11 LANs: Saturation Throughput in the Presence of Noise. In Proceeding of the 2nd
International IFIP TC6 Net- working Conference (Networking 2002). Pisa, Italy. Lecture Notes in Computer
Science. 2345:1008-1019, Spring-Verlag, 2002.
[15] Vishnevskii. V. M., IEEE 802.11 Wireless LAN: Saturation Throughput Analysis with Seizing Effect
Consideration. Cluster Computing, 5(2). P 535-548, 2002.
[16] Weinmiller. J., Performance Study of Access Control in Wireless LAN’s IEEE 802.11 DFWMAC and ETSI
RES 10 HYPERLAND. Mobile
Networks and Aplications. P 55-76, 1997.
[17] Wu. K. L., Performance of reliable transport protocol to achieve a theoretical throughput limit. IEEE
INFOCOM 2002, pp. 599-607, 2002.
[18] Wuy. Y., Performance Analysis of CSMA/CA Protocol for High Speed Wireless LANs,. International
Transactions in Operational Research. Vol. 9„ 2001.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
83
Modelación estocástica del protocolo CSMA/CA para redes
inalámbricas
M. Muñoz-Pérez1, F. J. Albores-Velasco2, E. González-Gutiérrez3
Resumen— En este trabajo proponemos un modelo estocástico para el protocolo WLAN, CSMA/CA.
Suponemos que el periodo de transmisión, de retardo y de detección de colisiones no son
necesariamente variables aleatorias exponenciales. Además, en caso de colisiones, el nodo emisor, espera
un periodo de tiempo y posteriormente intenta retrasmitir. El modelo se basa en el estudio de Procesos
Linealizados de Markov y Semi-Markovianos. Se describen las características de la red, como es el
promedio de nodos activos (en el régimen estacionario), el periodo de trasmisión y la capacidad de la red.
Palabras clave—
Semimarkovianos.
IEEE
standard,
CSMA/CA,
Procesos
Linealizados
de
Markov,
Procesos
INTRODUCCIÓN
En la última década ha habido una intensa investigación en el desarrollo de nuevas tecnologías para redes
inalámbricas y uno de los aspectos más importantes es el diseño de protocolos eficientes. Los modelos
analíticos son una herramienta fundamental para describir sistemas reales o modelos de simulación
estándar. Este tipo de modelos se pueden usar también para verificar programas de simulación grandes,
proporcionando resultados exactos para subcasos del modelo simulado. Además, la investigación en
modelos analíticos es necesaria para el desarrollo de protocolos nuevos y eficientes [1].
Las redes de área local inalámbrica (WLAN) se están desarrollando de tal manera que, para usuarios en
un área geográfica delimitada, proporcionen un amplio ancho de banda. Éstas se pueden usar en diferentes
lugares como oficinas, universidades o centros comerciales.
Para acceder al medio, el estándar IEEE 802.11 emplea el protocolo: Acceso Múltiple con Detección de
Portadora y Evasión de Colisiones (CSMA/CA). Por su utilidad, ha habido varios intentos de modelarlo y
descubrir las regiones más óptimas.
En [6], se desarrolla una aproximación de modelación para evaluar el rendimiento de saturación, basados
en argumentos de probabilidad condicional; en [9] se presenta un análisis para evaluar numéricamente el
rendimiento del protocolo, mediante cadenas inducidas de Markov.
M. Muñoz-Pérez1 ( ), F. J. Albores-Velasco2, E. González-Gutiérrez3
1,3
Universidad Politécnica de Tulancingo, 2 Universidad Autónoma de Tlaxcala
e-mail: 1 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
84
En nuestra propuesta, consideramos que los tiempos de transmisión no son necesariamente
exponenciales y consideramos también como variables aleatorias generales los tiempos de detección de la
colisión y la solución del conflicto. Como resultado del modelado, se obtienen fórmulas para calcular las
principales características del funcionamiento de la red en el régimen estacionario: el promedio de
terminales activas, el tiempo medio de estancia en la red, la capacidad de tráfico y las tiempos de estancia
en cada uno de los estados que se destacan en el modelo: canal libre, canal transmitiendo, canal
detectando colisión y canal resolviendo colisión.
La herramienta utilizada en el modelado fue la de los procesos semimarkovianos, que nos permitieron
considerar variables no necesariamente exponenciales, y los procesos linealizados de markov, que nos
permitieron construir las densidades para estados definidos como un conjunto finito de semi-rectas.
En la Sección I, damos una breve descripción del protocolo, en las Secciones II, III y IV realizamos la
construcción del modelo matemático. En las secciones V, VI y VII presentamos la solución del sistema, así
como sus características de rendimiento.
I.
DESCRIPCIÓN DEL MODELO
Consideramos una Red de Área Local Inalámbrica, WLAN (Wireless Local Area Networks), que consiste de
M terminales idénticas en un canal virtual, 𝑀 < ∞. Cada terminal tiene un único lugar de espera. Una
terminal con un paquete para transmitir se denominará activa y, en caso contrario, pasiva.
En estado pasivo cada terminal permanece un tiempo aleatorio distribuido exponencialmente con
parámetro 𝜆 , por lo que la intensidad del flujo total de comunicaciones generadas (nuevas) es:
𝜆𝑛 = 𝜆(𝑀 − 𝑛),
donde 𝑛 es el número de terminales activas, 𝑛 = 0, … , 𝑀, véase [2].
Una terminal con un paquete de datos para trasmitir, denominada terminal fuente, necesita, primero,
conocer el estado del canal, para lo que transmite un paquete corto, llamado RTS, Request to Send, hacia la
terminal destino. Si la terminal destino lo recibe correctamente, responde enviando un paquete de
autorización para transmitir, denominado CTS, Clear to Send, que, si se recibe, permite a la terminal fuente
transmitir el paquete de datos. Si la terminal fuente no recibe el paquete CTS en un tiempo específico,
ésta supone que el canal estaba ocupado y que se produjo una colisión. En este caso, la terminal intenta
retransmitir después de un tiempo aleatorio.
Suponemos que la duración de la transmisión del paquete RTS es una variable aleatoria 𝜏1 , con función de
distribución (FD) B1( x ) , y que descubrir la colisión toma un tiempo aleatorio 𝜏3 con FD B3 ( x ) .
Consideramos que la duración de la transmisión del paquete de datos (longitud del paquete) es una
variable aleatoria 𝜏2 con FD B2 ( x ).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
85
Cuando se descubre una colisión, las terminales que tienen paquetes para transmitir, retrasan su
transmisión un tiempo aleatorio distribuido exponencialmente con parámetro 𝑣. Después de que se
termina el tiempo de retraso de éstas terminales, y si el canal no se ha desocupado, se genera un nuevo
tiempo aleatorio.
Una vez descubierta una colisión, se inicia su solución, lo que toma un tiempo aleatorio 𝜏0 con FD B0 ( x ) .
Consideramos que 𝑬𝜏𝑖 = 𝜇𝑖−1 < ∞, para 𝑖 = 0,1,2,3. Después de la liberación del canal, si únicamente
una terminal transmite, ocurre una transmisión exitosa; al concluir una transmisión exitosa la terminal
activa se convierte en pasiva.
Consideremos un proceso estocástico 𝜉(𝑡), 𝑡 ≥ 0, definido sobre el espacio de estados:
𝒙 = {(𝑛), 𝑛 = 0, … , 𝑀; (𝑗, 𝑛, 𝑥), 𝑗 = 0, … ,2, 𝑛 = (2 − 𝑗), … , 𝑀; (𝑛, 𝑥), 𝑛 = 2, … , 𝑀; 𝑥 ≥ 0}
Aquí, estamos considerando que los estados del proceso tienen diferente número de componentes, cuya
interpretación, para algún momento 𝑡, es la siguiente:

𝜉(𝑡) = (𝑛), denota el caso cuando el canal está libre y en el sistema hay 𝑛 terminales activas.

𝜉(𝑡) = (𝑗, 𝑛, 𝑥), para 𝑗 = 0,1,2, 𝑛 = 2 − 𝑗, … , 𝑀, con 𝑥 ≥ 0, denota, para 𝑗 = 0, que el canal está
resolviendo una colisión; para 𝑗 = 1 que el canal se encuentra transmitiendo el paquete RTS y,
para 𝑗 = 2 que el canal se encuentra transmitiendo el paquete de datos, que hay 𝑛 terminales
activas y que transcurrió un tiempo 𝑥 desde el inicio de la solución del conflicto (𝑗 = 0) o desde
el inicio de la transmisión del paquete RTS (𝑗 = 1) , o desde el inicio de la transmisión de
datos (𝑗 = 2).

𝜉(𝑡) = (𝑛, 𝑥), denota que se hay 𝑛 terminales activas y que el tiempo transcurrido desde la
detección del conflicto es 𝑥.
En cualquiera de los casos, la componente discreta de los estados pertenece a un conjunto finito y la
consideración adicional del tiempo de estancia hace que el espacio de estados tenga una subconjunto
finito, debido a estados del tipo (𝑛), para 𝑛 = 0, … , 𝑀 y un subconjunto finito de semi-rectas, los estados
del tipo (𝑗, 𝑛, 𝑥) y (𝑗, 𝑥) para 𝑗 = 0,1,2, 𝑛 = 2 − 𝑗, … , 𝑀, y 𝑥 ≥ 0. Esto nos permitirá, en la construcción
del modelo, utilizar las herramientas de los procesos semimarkovianos (los tiempos de estancia en los
estados de tipo 𝑗 = 0,1,2,3. no necesariamente exponenciales) [2], y las de los procesos linealizados de
Markov, propuestos en [4].
II.
TRANSICIONES ENTRE LOS ESTADOS DEL PROCESO
En esta sección vamos a analizar las posibles transiciones y vamos a mostrar que, en los momentos de
cambio de estado, es posible construir una cadena de Markov.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
86
Cuando nos encontramos en estados del tipo 𝜉(𝑡) = (𝑛), 𝑛 = 0, … , 𝑀, existen dos posibles transiciones:
1) Si una terminal pasiva se convierte en activa, inicia la transmisión de su paquete RTS y, por tanto,
(𝑛) → (1, 𝑛 + 1,0).
2) Si a una terminal activa se le termina el tiempo de retraso de la transmisión, pasa al estado de inicio de
transmisión del RTS (𝑥 = 0), hay 𝑛 terminales activas y una está transmitiendo, esto es,
(𝑛) → (1, 𝑛, 0), 𝑛 ≠ 0.
Cuando nos encontramos en estados del tipo (𝑗, 𝑛, 𝑥) es decir, transmitiendo el paquete RTS (𝑗 = 1),
resolviendo un conflicto (𝑗 = 0) o transmitiendo el paquete de datos (𝑗 = 2), analizamos las transiciones
para cada valor de 𝑗.
Si nos encontramos en estados del tipo (0, 𝑛, 𝑥) son posibles las siguientes transiciones:

Si una terminal pasiva se convierte en activa, tenemos
(0, 𝑛, 𝑥) → (0, 𝑛 + 1, 𝑥),

𝑛 = 2, … , 𝑀.
Si concluye la solución del conflicto y ninguna terminal pasiva, de las M - n restantes, se convierte en
activa, entonces
(0, 𝑛, 𝑥) → (𝑛),
𝑛 = 2, … , 𝑀.
Si consideramos estados del tipo (1, 𝑛, 𝑥) tenemos:
1) Si concluye la transmisión del RTS, ninguna terminal pasiva se convierte en activa y a ninguna terminal
activa se le termina el tiempo de retraso, entonces inicia la transmisión del paquete de datos
(1, 𝑛, 𝑥) → (2, 𝑛, 0), 𝑛 = 1, … , 𝑀.
2) Si una terminal pasiva se convierte en activa, entonces se provoca una colisión con el paquete de
datos,
(1, 𝑛, 𝑥) → (𝑛 + 1,0), 𝑛 = 1, … , 𝑀.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
87
De los estados del tipo (2, 𝑛, 𝑥) son posibles las siguientes transiciones:
1) Si concluye la transmisión exitosa del paquete de datos y ninguna terminal pasiva, de las 𝑀 − 𝑛
restantes, se convierte en terminal activa y a ninguna de las 𝑛 − 1 activas se les termina el retraso,
entonces pasa a un estado con 𝑛 − 1 terminales activas en espera de transmisión,
(2, 𝑛, 𝑥) → (𝑛 − 1), 𝑛 = 1, … , 𝑀.
2) Si una terminal pasiva se convierte en activa, inicia el tiempo de detección de un nuevo conflicto esto
es,
(2, 𝑛, 𝑥) → (𝑛 + 1,0), 𝑛 = 1, … , 𝑀.
Cuando 𝜉(𝑡) = (𝑛, 𝑥) y una de las 𝑀 − 𝑛 terminales pasivas se convierte en activa y no se ha
terminado la detección de la colisión, pasamos a un estado con 𝑛 + 1 terminales activas
(𝑛, 𝑥) → (𝑛 + 1, 𝑥), 𝑛 = 2, … , 𝑀.
Ahora, si termina el tiempo de detección de la colisión, pasamos al estado en el que se inicia la solución
del conflicto, y hay 𝑛 máquinas activas, es decir,
(𝑛, 𝑥) → (0, 𝑛, 0), 𝑛 = 2, … , 𝑀.
DISTRIBUCIONES DEL PROCESO
Ahora, estudiaremos algunas de las propiedades de las funciones de distribución para el proceso x(t ).
Para esto, consideremos las siguientes probabilidades:
𝑃(𝑛, 𝑡) = 𝑃𝑟{𝜉(𝑡) = (𝑛)}, 𝑛 = 0, … , 𝑀
(1)
𝑃𝑗 (𝑛, 𝑡, 𝑥) = 𝑃𝑟{𝜉(𝑡) ∈ {(𝑗, 𝑛) ⊗ (0, 𝑥)}}
(2)
para 𝑗 = 0, 𝑛 = 2, … 𝑀 y para 𝑗 = 1 ó 2, 𝑛 = 1, … , 𝑀
𝑃3 (𝑛, 𝑡, 𝑥) = 𝑃𝑟{𝜉(𝑡) ∈ {(𝑛) ⊗ (0, 𝑥)}}, n = 2, … M
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
88
(3)
Además, vamos a denotar por 𝑝 a las correspondientes densidades de probabilidad, es decir,
𝑑
𝑃(𝑛, 𝑡),
𝑑𝑡
𝑃(𝑛) =
𝑃𝑗 (𝑛, 𝑡, 𝑥) =
𝑑
𝑃(𝑛, 𝑡, 𝑥), 𝑗 = 1,2,3
𝑑𝑡
Finalmente, definamos las probabilidades estacionarias
𝑃(𝑛) = lim𝑡→∞ 𝑃(𝑛, 𝑡),
𝑃𝑗 (𝑛, 𝑥) = lim𝑡→∞ 𝑃(𝑛, 𝑡, 𝑥),
𝑗 = 1,2,3.
En la teoría general de los procesos linealizados [4], [2], [7] se demuestra que tiene lugar, reformulado
para nuestro modelo, el siguiente teorema:
Teorema 1: Supongamos que para las funciones de distribución (1), (2) y (3) existen las funciones de densidad
𝑃𝑗 (𝑛, 0, 𝑥), 𝑗 = 1,2,3 para las cuales
𝑞𝑗 (𝑛, 𝑥) =
𝑝𝑗 (𝑛.0.𝑥)
1−𝐵𝑗 (𝑥)
≤ 𝐶 < ∞,
(4)
para 𝑗 = 0 ó 3 y 𝑛 = 2, … 𝑀, ; 𝑗 = 1 ó 2 y 𝑛 = 1, … 𝑀, son funciones continus. Entonces, para cada
𝑡 > 0, existen las densidades 𝑃𝑗 (𝑛, 𝑡, 𝑥), 𝑗 = 1,2,3, tales que,
𝑞𝑗 (𝑛, 𝑡, 𝑥) =
para 𝑗 = 0 , 𝑛 = 2, … , 𝑀;
𝑝𝑗 (𝑛.𝑡.𝑥)
1−𝐵𝑗 (𝑥)
≤ 𝐶 < ∞,
(5)
𝑗 = 1, … ,3, 𝑛 = 1, … 𝑀,
Puesto que el proceso 𝜉(𝑡) cumple con las condiciones del teorema ergódico de Beljaev [4], esto es,
tenemos el subconjunto finito de estados del tipo (𝑛) , un subconjunto finito de semi-rectas (𝑛, 𝑥) y si
además, considerando los momentos de salto de la cadena inducida de Markov, ésta es transitiva,
entonces existe una única distribución estacionaria del proceso 𝜉(𝑡) con las densidades:
𝑝𝑗 (𝑛, 𝑥) = 𝑞𝑗 (𝑛, 𝑥)[1 − 𝐵𝑗 (𝑥)],
para 𝑗 = 0 ó 3 y 𝑛 = 2, … , 𝑀;
𝑗 = 1 ó 2 y 𝑛 = 1, … , 𝑀, donde
𝑞𝑗 (𝑛, 𝑥) ≤ 𝐶 < ∞.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
89
(6)
EL MODELO INTEGRO-DIFERENCIAL
Para hallar el modelo que describe el funcionamiento del protocolo, vamos a analizar las posibles
transiciones que puede tener el proceso 𝜉(𝑡) en el intervalo de tiempo [𝑡, 𝑡 + ∆𝑡], para lo cual vamos a
considerar, por separado, los diferentes tipos de estados del espacio 𝑥 .
Teorema 2: El funcionamiento del modelo del protocolo CSMA/CA se describe por el siguiente sistema de
ecuaciones diferenciales
𝑞′𝑗 (𝑛, 𝑥) = −𝜆𝑛 𝑞𝑗 (𝑛, 𝑥) + 𝑢(𝑛 − 2)𝜆𝑛−1 𝑞𝑗 (𝑛 − 1, 𝑥)],
(7)
para 𝑗 = 0, 𝑗 = 3 y 𝑛 = 2, … , 𝑀;
𝑞′𝑗 (𝑛, 𝑥) = −𝜆𝑛𝑛1 𝑞𝑗 (𝑛, 𝑥), 𝑛 = 1, … , 𝑀, 𝑗 = 1,2;
(8)
con las condiciones de frontera
∞
∞
𝑝(𝑛)𝜆𝑛𝑛0 = 𝑢(𝑀 − 𝑛) ∫0 𝑞2 (𝑛 + 1, 𝑥)𝑑𝐵2 (𝑥) + 𝑢(𝑛 − 1) ∫0 𝑞0 (𝑛, 𝑥)𝑑𝐵0 (𝑥),
(9)
para 𝑛 = 0, … , 𝑀;
∞
∞
𝑝3 (𝑛, 0) = 𝜆𝑛−1 ∫0 𝑝2 (𝑛 − 1, 𝑥)𝑑𝑥 + 𝜆𝑛−1 ∫0 𝑝1 (𝑛 − 1, 𝑥)𝑑𝑥
(10)
para 𝑛 = 2, … , 𝑀;
∞
𝑝2 (𝑛, 0) = ∫0 𝑞1 (𝑛 + 1, 𝑥)𝑑𝐵1 (𝑥), 𝑛 = 1, … , 𝑀,
𝑝1 (𝑛, 0) = 𝑝(𝑛)𝑛𝑣 + 𝑝(𝑛 − 1)𝜆𝑛−1 , 𝑛 = 1, … , 𝑀,
(11)
∞
𝑝2 (𝑛, 0) = ∫0 𝑞1 (𝑛 + 1, 𝑥)𝑑𝐵1 (𝑥), 𝑛 = 1, … , 𝑀,
donde 𝑢(𝑥) es la función de Heaviside
𝑢(𝑥) = {
0,
1,
si 𝑥 ≤ 0,
en caso contrario
y
𝜆𝑛𝑘𝑖 = 𝜆(𝑀 − 𝑘) + 𝑣(𝑛 − 𝑖),
𝜆𝑛 = 𝜆(𝑀 − 𝑛).
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
90
La demostración de este teorema es constructiva.
SOLUCIÓN DEL SISTEMA DE ECUACIONES
Teorema 3: La solución del sistema de ecuaciones (7)-(11) tiene la forma
𝑞𝑗 (𝑛, 𝑥) = 𝑒 −𝜆𝑛𝑥 ∑𝑛𝑘=2(𝑀−𝑘
)(1 − 𝑒 −𝜆𝑥 )𝑛−𝑘 𝑞𝑗 (𝑘, 0),
𝑛−𝑘
(12)
para 𝑗 = 0 o 3 y 𝑛 = 2, … , 𝑀;
𝑞𝑗 (𝑛, 𝑥) = 𝑒 −𝜆𝑛𝑚1 𝑥 ,
(13)
para 𝑖 = 1 o 2 y 𝑛 = 1, … , 𝑀;
ANÁLISIS DE LAS CONDICIONES DE FRONTERA
Para analizar las condiciones de frontera, tendremos que re-escribir algunas expresiones. El desarrollo en
serie de Taylor de la exponencial y el desarrollo de un binomio permiten obtener que
𝑛−𝑘
(1 − 𝑒
−𝜆𝑥 𝑛−𝑘
)
= ∑(
𝑚=0
𝑛−𝑘
) (−1)𝑚 𝑒 −𝜆𝑚𝑥 ,
𝑚
Ahora, sustituyendo en (7),
𝑛−𝑘
𝑛−𝑘
𝑞𝑗 (𝑛, 𝑥) = 𝑒 −𝜆𝑛𝑘 𝑁𝑀,𝑘,0 ∑ (
) (−1)𝑚 𝑒 −𝜆𝑚𝑥 𝑞𝑗 (𝑘, 0),
𝑚
𝑚=0
𝑛−𝑘
𝑛−𝑘
= 𝑁𝑀,𝑘,0 ∑ (
) (−1)𝑚 𝑒 −𝜆(𝑀−𝑛+𝑚)𝑥 𝑞𝑗 (𝑘, 0),
𝑚
𝑚=0
para 𝑗 = 0 o 3. Usando la definición de la transformada de Laplace-Stieljes de una función de distribución
[3], tenemos que
∞
∫ 𝑒 −𝜆𝑛−𝑚 𝑥 𝑑𝐵𝑗 (𝑥) = 𝛽𝑗 (𝜆𝑛−𝑚 ), 𝑗 = 0 ó 3,
0
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
91
por lo tanto,
∞
𝑛−𝑘
∞
𝑛−𝑘
∫ 𝑞𝑗 (𝑛, 𝑥)𝑑𝐵𝑗 (𝑥) = ∫ 𝑁𝑀,𝑘,0 ∑ (
) (−1)𝑚 𝑒 −𝜆𝑛−𝑚 𝑥 𝑞𝑗 (𝑘, 0)𝑑𝐵𝑗 (𝑥),
𝑚
0
0
𝑚=0
𝑛−𝑘
𝑛−𝑘
𝑁𝑀,𝑘,0 ∑ (
) (−1)𝑚 𝛽𝑗 (𝜆𝑛−𝑚 ) 𝑞𝑗 (𝑘, 0),
𝑚
𝑚=0
para 𝑗 = 0 o 3 . Introduzcamos la siguiente notación:
𝑛−𝑘
𝑀−𝑘 𝑛−𝑘
𝐶𝑗𝑛𝑘 = ∑ (
)(
) (−1)𝑚 𝛽𝑗 (𝜆𝑛−𝑚 ),
𝑛−𝑘
𝑚
𝑚=0
para 𝑗 = 0 o 3, 𝑛 = 1, … , 𝑀 y 𝑘 = 2, … , 𝑛.
Con esta notación tendremos, finalmente, que
𝑛−𝑘
∞
∫ 𝑞𝑗 (𝑛, 𝑥)𝑑𝐵𝑗 (𝑥) = ∑ 𝐶𝑗𝑛𝑘 𝑞𝑗 (𝑘, 0),
0
𝑚=0
para 𝑛 = 1, … , 𝑀 y 𝑗 = 0 o 3.
Análogamente, de (13) y por la definición de la Transformada de Laplace-Stieljes, tenemos
∞
∞
∫ 𝑞𝑖 (𝑛, 𝑥)𝑑𝐵𝑖 (𝑥) = ∫ 𝑒 −𝜆𝑛𝑛1 𝑥 𝑑𝐵𝑖 (𝑥) = 𝛽𝑖 (𝜆𝑛𝑛1 ),
0
0
donde 𝑖 = 1 o 2 y 𝑛 = 1, … , 𝑀 Con base en lo anterior podemos enunciar el siguiente:
Teorema 4: Las condiciones de frontera pueden calcularse a partir de las siguientes fórmulas
𝑝(𝑛) = 𝑢(𝑛 − 1)
𝑛
1
𝜆𝑛𝑛0
∑ 𝐶0𝑛𝑘 𝑞0 (𝑘, 0) + 𝑢(𝑀 − 𝑛)
𝑘=2
𝛽2 (𝜆𝑛𝑛1 )
𝜆𝑛𝑛𝑜
para 𝑛 = 0, … , 𝑀;
𝑛
𝑝0 (𝑛, 0) = ∑ 𝐶3𝑛𝑘 𝑞3 (𝑘, 0),
𝑛 = 2, … , 𝑀.
𝑘=2
𝑝1 (𝑛, 0) = 𝜆𝑛−1 𝑝(𝑛 − 1) + 𝑣𝑛𝑝(𝑛),
𝑝2 (𝑛, 0) = 𝛽1 (𝜆𝑛𝑛1 ),
𝑝3 (𝑛, 0) =
𝜆𝑛−1
𝜆𝑛−1,𝑛−1,1
𝑛 = 1, … , 𝑀.
[2 − 𝛽1 (𝜆𝑛−1,𝑛−1,1 ) − 𝛽2 (𝜆𝑛−1,𝑛−1,1 )],
para 𝑛 = 2, … , 𝑀;
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
𝑛 = 1, … , 𝑀.
92
PROBABILIDADES ESTACIONARIAS
Para concluir nuestro análisis, en esta sección vamos a presentar un resultado que nos proporciona las
fórmulas de cálculo de las probabilidades estacionarias de nuestro sistema, mismas que servirán para
obtener las características de su funcionamiento, sus índices de productividad, en términos de sus
parámetros.
Teorema 5: Las probabilidades estacionarias están dadas por las expresiones
n
ì
üï
1ï
pj (n) = íln-1pj (n-1) + qj (n,0) - åcjnkqj (k,0)ý ,
ln îï
þï
k=2
para j = 0 o 3 y 𝑛 = 2, … , 𝑀;
pj (n) = pj (n) =
1
lnn1
{q (n,0) - b (l )} ,
j
j
nn1
para j =1 o 2 y 𝑛 = 1, … , 𝑀;
Para obtener estas fórmulas se hace uso del Teorema 1 y del conjunto de ecuaciones diferenciales que
describen el modelo del funcionamiento del protocolo. De acuerdo con la distribución estacionaria
obtenida es posible calcular los principales índices de productividad, en el régimen estacionario, de la red.
El canal se puede encontrar en alguno de los cuatro tipos de estados que definimos en capítulos
anteriores: libre, transmitiendo, descubriendo un conflicto o resolviendo un conflicto. Sea
n
pl = p(×) = åp(n),
n=0
M
pd = p0 (×) = åp0 (n),
n=2
M
pt = p1(×) = åp1(n),
1
n=1
M
pt = p2 (×) = åp2 (n),
2
n=1
M
pr = p3 (×) = åp3 (n).
n=2
Si denotamos el promedio de terminales activas por n, tenemos
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
93
M
n = ån[p(n) + u(n)(p1(n) +
n=0
+p2 (n) + u(n-1)(p0 (n) + p3 (n))].
De aquí, podemos determinar la intensidad de salida del sistema,
lD ,
de las transmisiones exitosas [2]
lD = l(M- n).
Al conocer las características n y l D podemos encontrar el tiempo medio de estancia de un paquete:
w=
n
lD
.
La capacidad de tráfico del canal:
u=
lD
.
m
CONCLUSIONES
En este trabajo se realizó el análisis del protocolo CSMA/CA. Se demostró que el uso de los procesos
linealizados de Markov es adecuado para su modelado. Las características, índices de productividad del
sistema, se encontraron en una forma explícita en términos de las probabilidades estacionarias calculadas.
Los resultados obtenidos son generales, ya que consideran la posibilidad de utilizar una amplia gama de
distribuciones para los tiempos de transmisión del paquete, de detección y solución del conflicto, con el
único requisito de tener primer momento.
REFERENCIAS
[1] Anurag Kumar, D. Manjunath, Joykury. “Wireless Networking”. Ed. Elsevier. 2008.
[2] Albores F.J., Bocharov P.P., Pechinkin. “Teoría de Colas”. Universidad Autónoma de Tlaxcala. Primera
Edición. 1997.
[3] Bateman. “Tables of integral transforms”. Mc Graw Hill, vol. 2. 1954.
[4] Beljaev Ju. K. “Line Markov Processes and their Application to Problems of the Theory of Reliability”.
Selected Trans. Math. Statist. and Prob. Vol 9. 1970.
[5] Boyce-Diprima.” Elementary Differential Equations and Boundary Va-lue Problems”. John Wiley&Sons,
Inc. Seventh edition. 2001.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
94
[6] Chatzimios P., Boucouvaos A.C. “Packet Delay Analysis of the Advanced Infrared (Air) CSMA/CA
MAC protocol in optical wireless LANs”. Interational Journal of Communications Systems. Tomo 18.
2005.
[7] Muñoz Pérez Magda, Albores Velasco Javier F. "Modelación de Políticas de Reemplazo de la Teoría de
la Fiabilidad mediante Procesos Linealizados de Markov". Aportaciones y Aplicaciones de la
Probabilidad y la Estadística. Vol. 3. 2009.
[8] Richard Haberman. Elementary Applied Partial Differential Equation with Fourier Series and Boundary.
Prentice Hall, Upper Saddle River NJO7458, 1998.
[9] Wuy Yue., Yutaka Matsumoto. "Performance Analysis of CSMA/CA Protocol for High Speed Wireless
LANs". International Transactions in Operational Research. Vol. 9. 2001.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
95
Estudio de sensibilidad paramétrico del método de relajación para
sistemas lineales semi-infinitos
J. Barrera-Ángeles1, E. González-Gutiérrez2, M. Muñoz-Pérez 3, E. León-Olivares4
Resumen— En este trabajo se realiza un estudio paramétrico del método de Relajación extendido
aplicable a Sistemas Semi-Iinfinitos Lineales (SSIL), se consideran sistemas dentro de la literatura, se
implementa y se realiza un análisis de sensibilidad de los parámetros que se encuentran dentro del
método. Finalmente se muestran resultados de la implementación computacional.
Palabras clave— Sensibilidad, sistemas semi-infinitos, factibilidad.
INTRODUCCIÓN
Los sistemas semi-infinitos lineales (en adelante SSIL's), son los sistemas de la forma
{at x  bt , t  T },
a  R n ( at vector columna), bt  R son
donde T representa un conjunto de índices arbitrario fijo; t
a : T  Rn y b : T  R , respectivamente ( at
las imágenes de t , t  T , por medio de las funciones
a
indica el vector transpuesto de t ,
x  Rn y
at x
es el producto interior de dichos vectores).
Una cantidad considerable de aplicaciones que se pueden reformular como problemas de programación
matemática en donde aparecen de manera natural sistemas con una cantidad infinita de inecuaciones, por
ejemplo cuando se estudian problemas de incertidumbre en el peor escenario, en la producción total de
un costo farmacéutico, y cuando los parámetros que se involucran en la producción de los mismos sufren
cambios de acuerdo a los precios de la materia prima. Dentro del contexto del peor escenario, una
variedad interesante de aplicaciones en el área de construcción de viviendas se proporciona en [1]. Los
travesaños de las construcciones se esperan que resistan pequeños sismos sin daños y sin demasiados
daños reparables tales que la supervivencia de los ocupantes se garantice todo el tiempo. Un simple
problema de diseño es minimizar la masa de un construcción sujeta a que los desplazamientos de los
techos no excedan un umbral establecido para soportar sismos consecutivos.
También encontramos problemas de PSI en problemas de control, tales como la planeación de
trayectorias de un robot [2], la esterilización de comida [3], en el control de contaminación de aire [4], y
en el modelado de reducción cinética [5]. Esta última aplicación, es muy importante como herramienta
para simulaciones de reacciones de flujo de mecanismos de combustión a gran escala.
J. Barrera-Ángeles1, E. González-Gutiérrez2 ( ), M. Muñoz-Pérez 3, E. León-Olivares4
1
Universidad Autónoma del Estado de Hidalgo & Universidad Politécnica de Tulancingo,
e-mail: 2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
96
2, 3, 4
Universidad Politécnica de Tulancingo,
n
Hasta ahora han sido publicados pocos artículo sobre el tratamiento numérico de los SSIL's en R (salvo
para sistemas con una estructura dada muy particular, véanse [6]), puesto que la equivalencia
computacional del problema de optimización lineal y el problema lineal factible, válido en dimensiones
finitas, no es válida para el concepto semi-infinita.
Es obvio que agregando una función objetivo arbitraria a un SSIL dado, digamos x  cx , algún método
de PLSI (que no requiera una solución inicial factible) aproxima una solución factible del SSIL, pero las
iteraciones suelen ser infactibles (recalcamos que las soluciones óptimas de cualquier problema de PLSI no
trivial factible pertenece a la frontera del conjunto factible F ). Con el fin de evitar este inconveniente, es
F  x  R n | a x  b , t  T
t
t
preferible buscar la máxima bola Euclídea contenida en
. Supongamos que
bt  0 para todo t  T tal que at  0n (de otro modo el conjunto factible, F , es vacío ). Sea
at
bt
S  t  T | at  0 n , c t  a t y d t  a t para todo t  S, y considérese el problema de PLSI
Sup x n1
s.a c t x  x n1  d t , t  S,
con variable de decisión x  R y x n 1  R , cuyo valor óptimo en no negativo (positivo,  ) si, y
sólo si, el conjunto factible F , es no vacío. La ventaja de este modelo es que los métodos numéricos
n
proveen un punto interior cuando el algoritmo se interrumpe en alguna iteración
x
r
n 1
x , x 
r
r
n 1
tal que
 0.
n
Las principales clases de SSIL's consistentes en R se pueden agrupar de acuerdo a las propiedades de sus
coeficientes, un sistema  es continuo cuando T está definido como una unión de intervalos cerrados
de R y todos los coeficientes a1(),, an (), b(), son funciones continuas en T . El sistema  es
b(), son
polinómico cuando T es un intervalo compacto y todos los coeficientes a1(),, an (),
polinomios cuyo dominio es T , dentro de los mismos sistemas se distinguen otros tres tipos de sistemas
 localmente Farkas-Minkowsky (LFM), sistemas  es Farkas-Minkowsky (FM) y sistemas  locamente
poliédrico (LOP).
Estas definiciones se han generado a partir del análisis de resultados de propiedades geométricas
importantes en SSIL's y PSIL, véase [7].
La resolución de los SSIL’s, es decir, encontrar puntos factibles (llamado problema de factibilidad), se
pueden tratar desde el punto de vista de generación de métodos analíticos (es decir exactos) y métodos
computacionales, dentro de estos últimos, nuestro interés se ha centrado en analizar el método de
Relajación extendido.
En el caso de sistemas ordinarios (sistemas con un número finito de restricciones), el problema de
factibilidad es equivalente a resolver problemas de PL, pero esta equivalencia se pierde cuando el número
de restricciones es infinito.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
97
EL MÉTODO DE RELAJACIÓN EXTENDIDO
Este método tiene sus antecedentes en trabajos como los de [8], [9] y [10], de manera general, dado un
a  R /{ 0n } para todo t  T , de modo que cada
sistema  continuo en el que supondremos que t
inecuación representa un semiespacio, sea F su conjunto solución. La idea geométrica del método es
simple, supongamos que la iteración actual x es un punto tal que x  F , de entre los hiperplanos
asociados con inecuaciones violadas por x se elige uno de los más alejados de x , llamémosle H; el punto
siguiente se obtiene desplazando x perpendicularmente hacia H una distancia igual a¸ d( x , H) , donde ¸
  0 es un parámetro prefijado y d( x , H) es la distancia Euclídea desde x hasta el hiperplano
a ' x b
H  x  Rn | at x  bt , para algún t  T tal que a't x  bt definida por d( x , H)  t at t . Entonces el
n


x  
punto siguiente viene dado por
at
at
véase [11].
En particular, si se toma ¸   2 , (   1), el punto siguiente es el punto simétrico a
proyección ortogonal de x sobre H, respectivamente), véase la Figura 1.
Figura 1. Geometría del método de Relajación extendido.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
98
x
respecto de H (la
Algoritmo (Método de Relajación extendido MRE)
1   (0,2 ], M  2,   2, r  0 y x 0  R n .
2
Calcule ur  inftT g( t , x r ) donde g( t , x r ) : (at, x r  bt ).
Si ur  0, fin ( x r  F ). Si ur  0, sea Tr  { tr  T / g( tr , x r )  0 }
Sea  r   y considere el problema de optimización global
3
sup{
4
bt  at, x r
, t  Tr }  r .
at
Encuentre una  r aproximación  r de la solución r del problema ( r   r   r  r ).
Si  r   r ( M 1), entonces para algún tr  Tr ,
r
M
  r :
bt r  at, r x r
at r
Si no es así ,  r 
r
 r , y elija x r 1  x r   r
at r
at r
. Reemplace r por r 1 y vuelva al paso 2.
2 y vaya al paso 4.
La primera parte de este estudio se centró en el análisis de sensibilidad de los parámetros  ,  y M
considerando el punto inicial
x 0  (34.368772,82.06698) generado de manera aleatoria. El sistema
  {2tx  (3t 2  2) x  2(t 4  3), t  T }
1
2
considerado fue
donde T  [0,1] . El conjunto factible se
muestra en la Figura 2, región en blanco, junto con algunos de los puntos que se generaron por el
Algoritmo.
Figura 2. Algunas iteraciones que se aproximan al conjunto
Factible del sistema, región en blanco.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
99
  0.1, M  1x10 6 y   {0.1,0.2,0.3,...,1.9}
En este ejemplo consideramos valores de
. Como podemos
observar en la Figura 3 el menor número de iteraciones se encuentra cuando el parámetro  está en el
rango   {1.1,1.2,1.3,1.4,1.5} .
Figura 3. Comparación entre los valores de lambda y el número de iteraciones.
Además del ejemplo que se presenta realizamos el estudio con diversos sistemas y diversos valores para
 , obtenidos dentro de la literatura especializada, y x 0 generado de manera aleatoria y de forma
determinística, pero, por problemas de espacio no fue posible incluirlos. Finalmente propusimos
diferentes valores para  ,  y M, obteniendo resultados análogos a los que se muestran acerca del
parámetro  . De esta manera evidenciamos que los valores de  y M, no producen ningún efecto sobre
el método bajo el que se realizó el estudio.
CONCLUSIONES
Los resultados obtenidos sobre la evidencia computacional del análisis de sensibilidad de los parámetros
 ;  y M; que aparecen en el método de Relajación extendido permiten precisar que  desempeña el
rol principal del Algoritmo, ya que en  se centra el tamaño de paso que se va a dar en el desarrollo de
cada iteración. Los resultados se obtuvieron considerando sistemas cuyo factible, F, fue un subconjunto en
R n , con diversos valores de n  {2,3,..,100} .
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
100
  0.1 y M  1x10 6
Considerando los valores de
y observamos que existen ligeras variaciones en el
tiempo computacional del Algoritmo. Sin embargo, los valores de la función marginal, gt, se mantiene con
variaciones pequeñas, por lo que el problema de optimización global tampoco produce cambios en los
resultados del Algoritmo. Por último, de los resultados sobresalientes, tenemos que independientemente
del el espacio en donde se considere el sistema n  {2,3,..,100} , el mejor desempeño del algoritmo se
mantiene para valores de   [1,2] .
REFERENCIAS
[1] Y. E. K. F. S.-C. Lin C-J, "Implementation of an inexact approach to solving linear semi-infinite
programming problems," J. Comp. Appl. Math., pp. 87-103, 1995.
[2] H.-R. E., "Semi-infinite programming algorithm for robot trajectory planning," PhD. Thesis, 1992.
[3] S. E. W. Kleis D., "Optimal control of sterilization of prepackaged food," Thecnical report, Universitat
Trier, 1997.
[4] G. W. L. Kortanek K. O., "Numerical aspects of pollution abatement problems: Optimal control
strategies for air quality standars," in Preceedings in Operations Research, 1972.
[5] B. T. P. I. G. W. H. Olowole O., "Obtaining accurate solutions using reduced chemical kinetic
models," Combustion theory and modelling, pp. 348-365, 2006.
[6] G. M. A., "Linear semi-infinite programming theory: An updated survey," European Journal of
Operational Research, pp. 390-405, 2002.
[7] L. M. A. Goberna M. A., Linear semi-infinite optimzation, Wiley, 1998.
[8] S. Agmon, "The ralxation method for linear inequalities," Canadian J. Math., pp. 382-392, 1954.
[9] J. G. R., "Some relaxation methods for linear inequalities," Cahiers du Cero, pp. 43-53, 1979.
[10] H. H., "A projection method for solving infinite systems of linear inequalities," Advances and
approximation, pp. 186-194, 1994.
[11] H. R. L. T. M. I. González-Gutiérrez E., "Under and over projection methods for solving inequality
systems," Comnt. Rend. Acad. Bulg. Sci., pp. 43-53, 2011.
[12] P. M. J. Cánovas J., "Estabilidad en programación semi-infinita lineal: Un enfoque cuantitativo," Boletín
de Estadística e Investigación Operativa, pp. 12-17, 2006.
[13] W. G. A. Cooper I. D., "A projected lagrangian algorithm for semi-infinte programming," Math.
Programming, pp. 337-356, 1985.
[14] S. G. Hettich R., "Semi-infinite programming models in robotics," Parametric Optimization and Related
Topics, pp. 112-118, 1991.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
101
Medición experimental y comprobación teórica de la Resolución de
un Sistema de Adquisición de Imágenes
A.M. Godínez-Jarillo1, J.A. Delgado-Atencio2, C. Enriquez-Ramírez1
Resumen— El conocimiento de la resolución de un sistema de adquisición de imágenes digitales es de
vital importancia para varias aplicaciones, entre ellas las médico-biológicas. El objetivo de este estudio fue
la implementación de un arreglo experimental para el análisis de la resolución de un sistema de
adquisición de imágenes digitales para aplicación en el diagnóstico y reconocimiento del melanoma
cutáneo.
Palabras clave— resolución, USAF 1951, MTF, lente, cámara.
INTRODUCCIÓN
Los elementos principales de un sistema automatizado de adquisición de imágenes digitales son el
conjunto lente-cámara y el software que garantiza el registro automatizado de dichas imágenes. Cuando
se trata de medir el desempeño de un sistema de este tipo juega un papel esencial conocer la resolución
de las imágenes capturadas por el conjunto lente-cámara bajo diferentes condiciones de adquisición. El
método práctico comúnmente usado para medir la resolución de un sistema óptico consiste en usar un
objeto de prueba o patrón que presenta varios conjuntos de barras blancas y oscuras de igual ancho y
altura para cada conjunto. Cada conjunto es numerado como un elemento específico y varios elementos
son asociados a un mismo grupo. Los elementos están constituidos por barras horizontales y verticales. El
elemento de un determinado grupo para el cual podemos distinguir a simple vista las barras que lo forman
se considera como el que determina el límite de resolución del sistema. Utilizando, el número del grupo y
del elemento se puede identificar a través de una fórmula la resolución del sistema lente-cámara
expresando en número de líneas por milímetro [1]. El método descrito se puede aplicar por ejemplo
utilizando el test de resolución USAF 1951. Por otra parte, la Función de Transferencia de Modulación
(MTF) permite estimar el tamaño mínimo de los objetos con un contraste considerable en la imagen y se
representa en forma de un gráfico, donde podemos visualizar el límite de resolución a través de líneas por
milímetro [2].
El sistema óptico de adquisición de imágenes digitales se está desarrollando con el objetivo de obtener
imágenes con una resolución comparable con las dimensiones de las irregularidades típicas del borde de
un melanoma. Se sabe que un melanoma tiene irregularidades del orden de 25 a 33 micras
aproximadamente [3], por lo que el sistema a usar para la captura de estas lesiones debe tener una
resolución espacial capaz de visualizar detalles de estas dimensiones.
A.M. Godínez-Jarillo1 ( ), J.A. Delgado-Atencio2 ( ), C. Enriquez-Ramírez1
1
Cuerpo Académico de Ingeniería de Software, 2Cuerpo Académico de Computación óptica
1, 2, 3
Universidad Politécnica de Tulancingo
e-mail: 1 [email protected] , 2 [email protected]
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
102
En este trabajo se presenta el estudio de la determinación de la resolución de un sistema óptico formado
por una lente Computar M2514-MP 2/3" 25mm F1.4 y una cámara AD-080GE, que contiene un sensor
con una resolución de 1024(H) x 768 (V) pixeles, utilizando la tarjeta de resolución USAF 1951. Además
se analiza la MTF de una lente similar a la anterior para conocer el desempeño de la misma.
2. MATERIALES Y MÉTODOS
2.1 TEST DE RESOLUCIÓN USAF 1951
Para el estudio de la resolución se empleó la tarjeta Edmund Optics Quality Resolution Chart, la cual es una
tarjeta laminada de vinilo con un tamaño de 3 1/2” de largo por 2” de ancho [4] para replicar una tarjeta
USAF 1951. Esta tarjeta contiene elementos estándar con variación de tamaños para medir la resolución,
los cuales consisten en grupos numerados formados por tres líneas horizontales y tres líneas verticales de
longitud y ancho determinado [5].
Para determinar la resolución a través de esta tarjeta, se debe localizar el grupo y elemento, donde a
simple vista se puedan distinguir las barras negras [1,6], cabe mencionar que el número localizado en la
parte superior de las líneas corresponde al grupo, mientras que el número localizado al lado de las líneas
compete al número de elemento. La resolución es calculada mediante la fórmula [7]:
Resolution = 2Group+(Element-1)/6 (Line pairs/mm)
El valor obtenido puede ser transformado a micras por medio de la fórmula [8]:
Resolution = 1
lp/mm
x 1000
La figura 1, muestra un diagrama con las condiciones en las que fue captura la imagen de la tarjeta USAF
1951. Donde L representa el largo de la tarjeta, L0 es el campo de visión por el conjunto cámara-lente, S0
corresponde a la distancia entre la lente y la tarjea USAF y finalmente LB es la distancia entre la cámara y
la tarjeta. Como fuente de iluminación se usaron dos leds blancos con 4mm de espesor
aproximadamente.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
103
Figura 1. Arreglo experimental para la determinación de la resolución del sistema de adquisición en estudio.
Con el arreglo experimental implementado en la lente se estableció el diafragma totalmente abierto y se
varió la intensidad de iluminación, en estas condiciones se capturaron cuatro imágenes de la tarjeta USAF
1951.
El arreglo de iluminación utilizado para la prueba de resolución del sistema lente-detector CCD es el
único utilizado en este trabajo. El arreglo se seleccionó de acuerdo a la revisión de la bibliografía existente
[6,9] que se refiere al estudio de la resolución de un sistema óptico de adquisición digital de imágenes y
también a la facilidad de implementar tal sistema de iluminación con los elementos disponibles en nuestro
laboratorio.
2.2 FUNCIÓN DE TRANSFERENCIA DE MODULACIÓN (MTF)
Para obtener una medida cuantitativa sobre la resolución de la lente empleada en este sistema de visión,
se procedió al análisis de la MTF, sin embargo, para la lente Computar M2514-MP la hoja de datos
técnicos no proporciona la información suficiente para el cálculo de dicha función, por lo que el análisis se
realizó para una lente con características similares (TECHSPEC 59-871) a ella. Las características y
similitudes de ambas lentes se muestran comparativamente en la tabla 1.
Características principales
Lente Computar MP25-14
TECHSPEC 59-871
Focal Length
25 mm
25 mm
Aperture (f/#)
f/1.4
f/1.4 - f/17
Tabla 1. Características de lente usada vs lente similar.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
104
3. RESULTADOS
3.1 TEST DE RESOLUCIÓN USAF 1951
La figura 2, muestra las imágenes obtenidas de la tarjeta USAF 1951con el arreglo experimental descrito
en la sección anterior, en ella se muestra el valor de intensidad de iluminación en la parte superior, en la
parte inferior de cada imagen se muestra el grupo y elemento correspondiente al grupo de líneas que se
pueden percibir a simple vista, así como su resolución obtenida a partir de la fórmula descrita en la
sección 2.1.
Figura 2. Imágenes capturadas con arreglo experimental para la determinación de la resolución del conjunto lente-cámara de
interés.
Como se puede apreciar en la figura 2a y 2b, entre el grupo 2, elemento 2 y grupo 2, elemento 3, se
podían aun distinguir las barras negras del fondo, mientras que en la figura 2c y 2d, el elemento que era
mejor visible, esto con una mayor iluminación, resultó ser el grupo 2, elemento 4, lo que generó como
resultado una resolución de 5.657 lp/mm ó 176.8 micras. Todas las imágenes adquiridas fueron analizadas
para garantizar que no existiese pixeles saturados, generados a partir del aumento de iluminación.
3.2 FUNCIÓN DE TRANSFERENCIA DE MODULACIÓN (MTF)
La figura 3 corresponde al gráfico MTF obtenido de la hoja de datos técnicos de la lente en TECHSPEC
59-871.
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
105
Figura 3. Función de Transferencia de Modulación para la lente TECHSPEC 59-871.
En el gráfico anterior la línea negra corresponde al desempeño de la lente evaluada con una apertura de
2.8 y a una distancia de trabajo de 200mm, con esto podemos determinar que la lente se encuentra en
una calidad promedio al tener su capacidad de contraste en un 70 % aproximadamente, adquiriendo
imágenes con 150 lp/mm de resolución, equivalente a 6.66 micras.
CONCLUSIONES
En este trabajo se implementó un arreglo experimental para determinar la resolución del conjunto lente
M2514-MP 2/3" - cámara AD-080GE resultando que el mismo tiene una resolución aceptable para la
aplicación de interés. Se observó que la iluminación utilizada, así como la percepción visual influyen en el
cálculo de la resolución de dicho sistema.
Por otra parte al conocer la MTF de una lente similar a la perteneciente al sistema de visión con el que se
trabaja actualmente, se obtuvo una idea general sobre el límite de resolución de la lente propia, lo que
permite establecer que dicha lente tiene una resolución razonable para los objetos de estudio.
REFERENCIAS
[1] Smith, W. J. (2000). Modern optical engineering. United States of America: McGraw-Hill.
[2] Resolución espacial y función de transferencia de modulación (MTF). Recuperado el 6 de septiembre
de http://theempireoflights.blogspot.mx/2012/12/resolucion-espacial-y-funcion-de.html
[3] Tim K. Lee, David I. McLean, M. Stella Atkins. “Irregularity index: A new border irregularity measure
for cutaneous melanocytic lesions ”. Medical Image Analysis 7 (2003) 47–64
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
106
[4] Pocket USAF Optical Test Pattern. Recuperado el 6 de septiembre de 2014 de
http://www.edmundoptics.com/testing-targets/test-targets/resolution-test-targets/pocket-usaf-optical-testpattern/1852
[5] Medición de la resolución de los escáners. Recuperado el 9 de enero de 2014 de
http://www.filmscanner.info/es/Aufloesung.html
[6] Lens Testing with the USAF 1951 Chart (2000). Recuperado el 26 de agosto de 2014 de
http://www.jimdoty.org/Tips/Equipment/USAF_Test/usaf_test.html
[7] USAF 1951 and Microcopy Resolution Test Charts and Pixel Profiles. Image Processing (3/24/10).
Recuperado el 26 d enero de 2014 de http://www.astro.caltech.edu/~lah/ay105/pdf/e2-usaf1951.pdf
[8] Choosing the Correct Test Target. Edmund Optics. Technical Resources. Recuperado el 10 de
septiembre
de
2014
de
http://www.edmundoptics.com/technical-resources-center/testingtargets/choosing-the-correct-test-target/
[9] Setting up and photographing SFR test charts. Imatest. Recuperado el 10 de septiembre de 2014 de
http://www.imatest.com/docs/sfr_instructions/
UPT—Septiembre 18-19, 2014
ISBN: 04-2014-091714443200-102
107
Descargar