ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA SUPERRESOLUCION: RECONSTRUCCION DE DATOS EN 1D 1 Prof. Sebastián Hernández1 y Dr. Claudio Delrieux2 {Alumno de la Maestría en Informática y Sistemas, UNPA} [email protected] 2 {Docente Investigador, UNS} [email protected] UNPA – UARG Universidad Nacional de la Patagonia Austral – Unidad Académica Río Gallegos Departamento de Ciencias Exactas y Naturales Grupo de Investigación: Computación Gráfica Río Gallegos, Julio 2013 RESUMEN Hoy el procesamiento de imágenes se volvió cotidiano debido a la masificación de equipos que generan, almacenan y muestran imágenes digitales. Esto ocurre porque son necesarias (o deseables) imágenes con mayor resolución y tamaño a medida que se encuentran nuevas aplicaciones que dependen de ellas y el recambio de equipos no siempre es una opción viable. La reconstrucción de imágenes (ya sea ampliación, aumento de resolución o definición de detalles) se hace a través de algoritmos matemáticos. En este informe se propone un algoritmo capaz de identificar regiones y extraer información de ellas en vectores de datos de 1D. Esto es un paso fundamental para poder crear un algoritmo capaz de segmentar e identificar bordes correctamente. Palabras Clave: super resolución; detección de bordes; procesamiento de imágenes. 109 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA INTRODUCCIÓN Existen dos tipos principales de imagen: vectorial y plana. Las vectoriales son en realidad un conjunto de instrucciones geométricas que un software interpreta y como resultado genera una imagen. En cambio las imágenes planas, generalmente obtenidas con algún dispositivo capturador como una cámara digital o un teléfono celular, poseen información sobre cada uno de los píxeles que las componen. Esto ocurre cuando un dispositivo intenta capturar el espectro de luz visible emitido desde un objeto que incide sobre un sensor digital que procesa y almacena esta información. Uno de los formatos más comunes de representación de una imagen es el espacio cromático RGB, donde cada pixel tiene asociados 3 valores, rojo (Red), verde (Green) y azul (Blue)con valores enteros que van desde 0 hasta 255. La composición de estos tres valores genera, de acuerdo a la sensibilidad del ojo humano, los colores visualizados. Una característica importante de las imágenes planas es su resolución. Cuantos más píxeles pueda capturar un sensor con respecto a una superficie determinada, mejor resolución tendrá, debido a que es mayor la cantidad de información obtenida y almacenada con respecto a un objeto real. Sin embargo, cuando la superficie cubierta por el objetivo de la cámara es mucha, cada píxel se corresponde con una gran cantidad de área real. Por ejemplo, no es lo mismo una foto de un rostro que una imagen satelital. Cada píxel de la segunda imagen contiene información de una gran superficie, pudiendo medirse en metros cuadrados o incluso en kilómetros cuadrados. En cambio, cada píxel de la primera representa una pequeña porción, equiparabletal vez a una superficie medida en milímetros cuadrados. Cuando ocurre que un píxel representa mucha información, es posible que el color almacenado en ese píxel sea combinación de varios colores reales. Esto se aprecia cuando se fotografía desde una distancia considerable, un objeto pequeño o una frontera entre objetos diferentes. Si fotografiamos desde un satélite una cancha de fútbol, posiblemente el píxel que tiene la información del césped y la pelota sea verde, aunque ligeramente diferente de los píxeles que contienen solo césped. En este informe se muestra la generación y aplicación de un algoritmo capaz de identificar cambios de tipos de superficie en una dimensión y determinar con precisión la proporción correcta de superficies diferentes presentes en la frontera.La organización del trabajo es la siguiente: (1) Introducción, (2) Marco histórico, (3) Marco conceptual, (4) Marco teórico, (5) Materiales y Método, (6) Resultados, (7) Discusión, (8) Conclusiones, (9) Recomendaciones y (10) Agradecimientos. MARCOS DE REFERENCIA 1.1. Marco histórico Super resolución es un término que identifica a un conjunto de métodos para mejorar la resolución, de imágenes y videos. Algunos métodos de super resolución se basan en el uso de 110 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA dos o más tomas del mismo objeto para mejorar la información de que se dispone en cada pixel. Otros métodos proponen el uso de funciones no lineales de reconstrucción, basadas en sistemas polinomiales, tales como Lagrange o Hermite (Alegre et al., 2003), o funciones no derivables, tal como la reconstrucción fractal (Manual Perfect Photo Suite 7, 2013). Finalmente, cuando no se poseen más tomas o no se puede asumir un método paramétrico o procedimental de reconstrucción, el aumento de resolución se realiza a través de las técnicas más simples, conocidas como upscaling o upsampling.El cambio en la resolución tiene como objetivo lograr una mejor definición de los detalles de la imagen aunque no necesariamente implica un cambio en su tamaño. La mayoría de las técnicas de super resolución con cuadros múltiplesse basan en una idea simple: utilizar información de diferentes imágenes con el fin de crear una nueva que aproveche las mejores características de las imágenes utilizadas como base. El primer trabajo de este tipo fue publicado en la década del 80, (Tsai y Huang, 1984) aunque el término super resolución aparece finalmente en los años 90, (Irani y Peleg, 1990). Hoy está extendido y es la base de las mejoras en dispostivos de captura digital como cámaras fotográficas y filmadoras. En la Figura 1 se observa un ejemplo de super resolución logrado combinando 9 imágenes. La imagen resultantefue extraída de (Wikimedia Commons, 2007), donde se observa una mejora importante en los detalles, las claridad de los colores y la reducción del ruido digital. Figura 1: Superresolución obtenida combinando 9 imágenes. Otro problema de índole similar al ya comentado es el de detección de bordes, el cual es un caso particular del problema general de la segmentación, o sea, la separación de figura y fondo, que consiste en identificarla frontera de un objeto del mundo real representado en una imagen. Dentro del lenguaje específico hay dos términos principales, llamando foreground al objeto y background al resto de la imagen, distinta del objeto. Lainterfase entre foreground y background se denomina borde. En la Figura 2 el texto ICT tiene color negro y el fondo es de color gris (0 y 203 en escala de grises respectivamente) y su tamaño real es de 300×250px. 111 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA Figura 2: Texto ICT sobre fondo gris. Tamaño original. Para simular la digitalización el texto, es decir la transformación en imagen plana, se le aplica una reducción al 25% observable en la Figura 3, lo que es habitual cuando un sensor captura una imagen de un objeto real. Es muy difícil que el área abarcada por un píxel en el sensor corresponda con una superficie equivalente en el objeto real. ¡Sería necesario para esto tener sensores del mismo tamaño que los objetos! Figura 3: Texto ICT sobre fondo gris. Reducción al 25%. La figura 4 se obtiene al ampliar la Figura 3 en un intento de rescatar el tamaño original de la imagen, pero se observa pixelado que distorsiona la imagen, impidiendo detectar claramente la interfase entre background y foreground. Esto muestra que el borde no es tan simple de detectar en una imagen digital como en el objeto real (Marr y Hildreth, 1980). Figura 4: Texto ICT sobre fondo gris. Tamaño original obtenido por ampliación. El efecto comentado ocurre muy seguido cuando se captura una imagen y el sensor está ubicado muy lejos del objeto real, tal como ocurre en las imágenes satelitales. Una imagen satelital es la representación gráfica de una porción de terreno, capturada por el sensor digital de un satélite artificial. Este tipo de digitalización permite observar características especiales de la zona visualizada tales como vegetación, cursos de agua, tipos de suelo, etc. La aplicación de las imágenes satelitales es variada, desde uso civil (estudio de clima, océanos, vientos y suelo) hasta militar (espionaje y reconocimiento de terreno). 112 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA Además de los ya mencionados existen otros factores que impiden que la imagen digitalizada sea tan clara como el objeto del mundo real: • Digitalización: Es casi seguro que el contorno del objeto real no coincida con la distribución de píxeles en el sensor. Es decir que un píxel que capture informacióndel “borde” contiene información de foreground y background, en porcentajes variables. Un caso real es el satélite LandSat 7, que tiene una banda espectral (Banca Pancromática) con resolución espacial de 15m. Es decir que un píxel de la imagen digitalizada representa un cuadrado de 15m de lado. Es imposible que un teselado en cuadrados de lado 15m coinciada con las divisiones exactas de objetosdel mundo real (parcelas). • Ruido digital: Interactúan también otros factores de índole física, como el tipo de cámara, material y sensibilidad del sensor, temperatura, polvo, movimiento, etc. Es muy difícil que dos píxeles que correspondan al mismo nivel de grises tengan el mismo nivel en la imagen digitalizada. 1.2. Marco conceptual En el caso de objetos del mundo real cuyos colores sean similares, una de las técnicas para identificarlos consiste en utilizar un sensor infrarrojo en vez de uno RGB. Lo que se digitaliza es la radiancia espectral de los objetos y con ello la identificación es más sencilla. Es sabido que los cuerpos calientes emiten radiación térmica en todo el espectro electromagnético, sobre todo en la zona del infrarrojo. Si se mide la radiancia de un cuerpo para todo el espectro de frecuencias, se obtiene la radiancia espectral del cuerpo. Al analizar las curvas obtenidas con el cuerpo a distintas temperaturas, es evidente que esta curva depende fuertemente de la temperatura, y del material debido a que cada material tiene su propia curva de emisividad espectral. Además, a medida que aumenta la temperatura, la frecuencia a la que ocurre la máxima radiancia va aumentando, y pasa del infrarrojo al rojo opaco, luego al rojo brillante y al blanco. Teniendo en cuenta este fenómeno físico,podemos medir diferentes objetos de acuerdo a su radiancia espectral además de hacerlo teniendo en cuenta sus colores visibles. Todo depende de la paleta de colores utilizada en la imagen capturada. Una explicación más detallada se encuentra en el sitio del telescopio espacial Spitzer (Jet Propulsion Laboratory, 2000). 1.3. Marco teórico La detección de bordes es una sección fundamental dentro del análisis de imágenes y la computación gráfica(Bindu Basal, 2012) (Shrivakshan y Chandrasekar, 2012). El poder detectar correctamente la frontera entre foreground y background permite cuantificar superficies en imágenes satelitales (Pena et al, 2012), identificar tejidos extraños (y conocer su tamaño) en imágenes médicas, por dar un par de ejemplos. Existen diversos algoritmos para realizar el trabajo de identificar los puntos en los que el brillo de la imagen cambia bruscamente. La mayoría emplea operadores locales basados en la aproximación discreta de la derivada primera y segunda de los niveles de gris de la imagen. 113 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA Para un conjunto continuo de datos, es posible aproximar la derivada primera teniendo en cuenta la definición del cociente incremental, por lo que: f '( x) = f ( x) − f ( x + h) , h lo que se denomina primera aproximación por diferencias no centrales y depende del incremento h. En el caso de datos discretos, x y h no son otra cosa que las posiciones de los píxeles en los que se desea aproximar la derivada. En el siguiente ejemplo se muestra la realización de detección de bordes en una fila de píxeles de la imagen constituida por tres rectángulos cuya intensidad de gris es 25, 230 y 140. Al aplicar la aproximación discreta de la derivada primera, Figura 5, se detecta un borde en el píxel 50 y otro en el píxel 100. El tamaño del salto en la función corresponde al cambio en la intensidad de grises y la orientación indica el pasaje de una gama de 25 a 230 (aumento de luminosidad, pico orientado hacia abajo) o cambio de gama de 230 a 140 (disminución de luminosidad). 0 -100 -200 40 80 120 Figura 5: Aproximación discreta de f’(x) con gamas de gris. Este método es simple de implementar y extrapolar para el análisis de imágenes en 2D, sin embargo es sensible al ruido presente en la imagen. Otra forma de detectar bordes es por medio de la similitud con una muestra estándar o clusterización. En este caso, con los métodos de minería de datos, o también data mining, se trata de segmentar (clusterizar) una imagen a través de información extraída de un conjunto de ejemplos existentes (Hernández Orallo et al., 2007). Por medio de esos ejemplos conocidos, se intentará predecir las características de un nuevo dato no perteneciente al conjunto de ejemplos. Es decir que el objetivo es determinar cuán similar es un píxel ubicado en cercanías al borde, con respecto a una región u otra. Para ello, es necesario tener en cuenta que por “similar” se considera la distancia matemática de las características de un píxel con respecto a otro. Las medidas de distancia más tradicionales son aquellas que se aplican sobre dos instancias o ejemplos, tales que todos los atributos son numéricos. Las siguiente son algunas de las métricas más utilizadas: 114 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA • Distancia Euclídea: d ( x, y ) = • n ∑(x − y ) i =1 i 2 i Distancia de Manhattan: n d ( x, y ) = ∑ xi − yi i =1 • Distancia de Chebychev: d ( x, y ) = max xi − yi i =1,2,..., n También es posible encontrar métodos híbridos que, combinando varias técnicas en simultáneo, consiguen resultados de calidad superior a los identificados a través de métodos simples (Vasavada y Tiwari, 2013). Estos métodos se definen para imágenes en gamas de gris y luego se extrapolan hacia la representación en formato RGB. Algoritmos de ampliación de imágenes Los algoritmos de interpolación (ampliación) de imágenes se basan en el proceso de calcular valores numéricos desconocidos (píxeles) a partir de otros conocidos mediante la aplicación de algoritmos finitos. La idea central es producir una imagen de tamaño superior a la original, completando la información faltante con datos interpolados a partir de un algoritmo específico (González y Woods, 2008). Los siguientes son algunos de los métodos más conocidos y simples de aplicar: • Vecino más cercano: Es el más básico, con resultados de baja calidad si la imagen tiene una gran varación en las gamas de gris. Lo que hace es considerar el píxel más cercano al píxel a interpolar, de forma sencilla puede decirse que sólo se agranda el píxel. A favor puede decirse que requiere un tiempo de procesamiento muy pequeño, en comparación con otros métodos. • Interpolación Lineal: Considera los 4 píxeles más cercanos al que se desea interpolar. La forma de interpolar es calculando el promedio de los valores de gris de los 4 puntos usados como referencia. Debe tenerse en cuenta que la imagen resultante es más suave que la generada por el método del vecino más cercano. Puede causar que la imagen resultante se vea difusa, con poco detalle fino. • Interpolación Bicúbica: Actualmente es uno de los algoritmos de interpolación más utilizado, lo que hace es considerar los 16 píxeles más cercano al que se desea interpolar. O sea, se aproxima localmente el nivel de gris en la imagen original mediante la generación de una superficie polinómica bicúbica. Es el algoritmo óptimo entre tiempo de procesamiento y calidad de la imagen de salida. 115 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA Método propuesto El método que se propone en este informe se basa en una segmentación por patrones de un vector de datos en 1D para luego interpolar los datos sobre los bordes encontrados. Es decir que, primero se detectará qué píxel es parte del borde de la imagen, y después se calculará la composición de ese píxel que contiene información de los dos patrones que generan la frontera. De esta forma se generará un nuevo vector, con información relativa a los patrones encontrados y con una frontera bien definida entre los patrones. La aplicación de este método no puede realizarse en imágenes puesto que sólo se define para detección de vectores unidimensionales. RESULTADOS, ANÁLISIS Y CONCLUSIÓN 2.1. Materiales y método Como aplicación concreta de lo antes desarrollado, se intentará segmentar correctamente un vector extraído de una imagen digital que contenga datos de dos fuentes diferentes pero del mismo objeto real. Un ejemplo claro de esto es dos imágenes digitales, del mismo objeto real, pero capturadas con diferentes sensores, uno RGB y otro infrarrojo. Para determinar qué proporción tienen de cada clase los píxeles del borde es necesario lograr la identificación automática. Para ello se ejecuta el código en EulerMath: function bases(x:real) n=length(x); p=4; ## longitud de la base a analizar, contiene dos tipos de información baseA=[134,80,113,76];## datos conocidos de antemano, identifican a un material em concreto baseB=[72,226,69,180]; baseC=[155,141,178,234]; pA=zeros(1,n/p); pB=pA; pC=pA; for i=1 to n/p;## compara similitudes de cada componente con alguna de las bases conocidas pA[i]=1-round(sum(abs(x[p*i-3:p*i]-baseA))/1020,2); pB[i]=1-round(sum(abs(x[p*i-3:p*i]-baseB))/1020,2); pC[i]=1-round(sum(abs(x[p*i-3:p*i]-baseC))/1020,2); end x2=pA_pB_pC; return x2 endfunction A modo de ejemplo, segenera un vector de pruebaV con datos que pueden ser de la clase A, B o C, con las siguientes características de información: • A=[134,80,113,76] • B=[72,226,69,180] 116 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA • C=[155,141,178,234] Los datos de V son generados de la siguiente forma: • V=[A1 | A2 | 0.359*A3+0.641*B1 | B2 | B3 | 0.234*B2+0.766*C2 | C1 | C3| A2] para simular la respuesta que tendrá un sensor digital (o dos como en este caso) a la radiación electromagnética recibida. Los datos simulados del ejemplo anterior: • A1=[ 132 80 112 76 ] • A2=[ 133 80 113 76 ] • A3=[ 132 80 111 76 ] • B1=[ 72 224 69 180 ] • B2=[ 70 226 69 180 ] • B3=[ 72 227 69 180 ] • C1=[ 155 139 178 234 ] • C2=[ 154 142 178 234 ] • C3=[ 56 141 176 234 ] • C4=[ 156 141 176 234 ] Es decir que los datos son muy similares a los datos utilizados como base para clusterizar. Las diferencias en la información radican en los problemas ya comentados de las imágenes como ruido, movimientos en el sensor, tipo de sensor, etc. Es de notar que la tercera y sexta componente de V contienen información mezclada de dos tipos, aunque no se sabe las proporciones de la mezcla de información. Esto indica que el borde (o la frontera entre las dos regiones adyacentes) se encuentra en esos píxeles. Aplicando el código de detección e identificación se obtiene como resultado: V=[A | A | 0 | B | B | 0 | C | C | A], donde 0 indica la presencia de un píxel frontera. El resto de la información es clusterizada de acuerdo a las bases conocidas. En los píxeles con valor 0 se identifica una mezcla de información de las bases adyacentes. Para analizar en detalle esos píxeles (y detectar las proporciones que tiene de cada base) se aplica el código: function resolver(vec, baseA, baseB, baseC, x) n1=length(vec); ## vec es string y tiene las bases identificadas y valores 0 del borde n2=length(x); ## x es el vector de la imagen a filtrar n=n2/n1; ## longitud de las bases for i=1 to n1 if vec[i]=="0"##se analiza sólo aquellos elementos que tienen información mezclada if vec[i-1]=="A" then base1=baseA; endif if vec[i-1]=="B" then base1=baseB; endif if vec[i-1]=="C" then base1=baseC; endif if vec[i+1]=="A" then base2=baseA; endif 117 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA if vec[i+1]=="B" then base2=baseB; endif if vec[i+1]=="C" then base2=baseC; endif## se identifican las bases adyacentes, a fin de poder resolver un sistema de ecuaciones lineales sobredimensionado round(svdsolve((base1_base2)',x[(i-1)*n+1:i*n]'),3) endif end endfunction El código antes mostradoresuelve un sistema de ecuaciones lineales sobredimensionado por medio de la descomposición en valores singulares, (Burden y Faires, 2002),y da como resultado la proporción de cada una de las bases utilizadas. En el ejemplo ya presentado, para el primer elemento 0, el planteo es el siguiente α . A + β .B = V [3] , y el cálculo de la composición de los dos píxeles del borde da como resultado α=0.352 y β=0.641 para el primer borde y para el segundo α=0.235 y β=0.759, lo que es cierto dentro de un pequeño margen de error, recordando la forma en que fueron generados. 2.2. Resultados La segmentación del vector de prueba se realizó por comparación con un patrón definido, utilizando distancias entre las gamas de gris de los píxeles. El resultado final, es decir, la detección de la composición de cada píxel frontera se obtuvo a través de la resolución de un SEL sobredimensionado por medio del método de descomposición en valores singulares.A partir de esto, también será posible redimensionar un vector de 1D en otro sin perder información de la frontera. Retomando el ejemplo numérico, si se intentara aumentar el tamaño al triple del vector V, quedaría el triple de elementos (píxeles). Se centrará la atención en las componentes, ya clusterizadas,2 a 4 debido a que la componente 3 contiene la frontera: V = [… | A | 0 | B | …] V* = [… | A | A | A| 0 | 0 | 0 | B | B | B | …] O sea que la frontera, es decir los píxeles que la contienen, también se han triplicado. Sin embargo, al conocer la proporción de las clases será posible reescribirlo de la siguiente manera: V* = [… | A | A | A| A | k1.A+k2.B| B | B | B | B | …], El primer píxel frontera se identifica íntegramente como clase A, ya que su componente original, y por ende de toda la frontera, era 35,2% A y 64,1% B. El tercer píxel, del mismo modo que el anterior, se transforma en clase B. En cambio el píxel frontera intermedio, debe tener componentes tanto de clase A como de clase B, entonces por medio de proporciones se calcula que k1 = 0.019 y k2 = 0.308. Es decir que la frontera nuevamente queda contenida en un solo píxel y no se desparrama esta información hacia los píxeles adyacentes. 118 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA 2.3. Discusión Las siguientes son preguntas aún abiertas, que espero poder responder durante el desarrollo de la tesis. • ¿El resultado será el mismo si se aplica en imágenes 2D tomando el vector de prueba como filas o columnas de la imagen original? • ¿Es un algoritmo sensible al ruido cuando éste afecta al borde? • ¿Qué tan fiable será el modelo en caso de muestras (clases) muy parecidas en ambos tipos de dato (RGB e infrarrojo)? • ¿Podrá utilizarse algún otro método numérico para predecir las regiones en el caso de que las bases sean similares en intensidad de gris? Por el momento no es posible comparar los resultados obtenidos con imágenes en 2D puesto que el método propuesto se desarrolla en 1D. Se tendrá en cuenta, una vez ampliado el algoritmo para datos en 2D, la comparación con los métodos propuestos, aunque no se encuentra en la bibliografía la superresolución a partir de dos tipos diferentes de imagen. Éste es uno de los motivos por el cual el avance es lento. CONCLUSIONES El algoritmo presentado para identificación de bordes en vectores de 1D se ejecuta con bajo tiempo de cómputo y obtiene resultados de calidad para un vector generado en forma manual. Es necesario conocer la información básica que corresponden a las regiones, a fin de poder detectar el borde. En el caso de no conocer la información de las regiones, es posible calcularla por medio del algoritmo de K-Medias.La etapa experimental del trabajo a futuro incluye la ampliación de este algoritmo para matrices de datos (imágenes en gamas de gris). RECOMENDACIONES Con el fin de aprovechar los diferentes tipos de información, debe considerarse que la información de cada clase corresponde a datos de gama de gris (o RGB) y la medición correspondiente en infrarrojo. Esto se hará con el fin de evitar que colores parecidos devuelvan clases parecidas, la componente infrarroja generará una diferencia sustancial. AGRADECIMIENTOS A Claudio Delrieux por el apoyo, paciencia y tiempo dedicado. A María Laura Ivanissevich, por la búsqueda de información y revisiones periódicas. 119 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional. ICT-UNPA-75-2013 ISSN: 1852-4516 Aprobado por Resolución N° 1091/13-R-UNPA REFERENCIAS Alegre E., Sánchez L., Fernández R. Á., Mostaza J. C., 2003. Procesamiento Digital de Imagen: fundamentos y prácticas con Matlab. Universidad de León. Bindu Bansal, et al. (2012) Comparison of Various Edge Detection Techniques. Journal of Information and Operations Management ISSN: 0976–7754 & E-ISSN: 0976–7762, Volume 3, Issue 1, pp– 103-106. Burden R. y D. Faires, 2002, Análisis Numérico. Ed. Thompson, séptima edición. González R. C. y Woods R. E., 2008, Digital Image Processing, 3rd edition. Pearson Education. Hernández Orallo J., Ramírez Quintana J. y Ferri Ramírez C., 2007, Introducción a la Minería de Datos. Pearson Educación. Irani M. y Peleg S., 1990, “Super Resolution From Image Sequences” ICPR, 2:115--120. Jet Propulsion Laboratory, 2000, “Grupo de Educación y Difusión Pública en el Centro Científico Spitzer”. http://legacy.spitzer.caltech.edu/espanol/edu/learn_ir/ Marr D. y Hildreth E., 1980, “Theory of Edge Detection”, Proceedings of the Royal Society of London. Series B, Biological Sciences 207 (1167): 187—217. Manual Perfect Photo Suite 7, 2013, p212, onOne Software, versión digital. Pena N., Garza G., Cao Y. y Qiao Z., 2012, “Edge Detection of Real Synthetic Aperture Radar Images through Filtered Back Projection”, in International Conference on Systems and Informatics Shrivakshan G.T. y Chandrasekar C., 2012, “A Comparison of various Edge Detection Techniques used in Image Processing” in IJCSI International Journal of Computer Science Issues, Vol. 9, Issue 5, No 1. TsaiR. Y. y HuangT. S., 1984, “Multiframe image restoration and registration”, in Advances in Computer Vision and Image Processing, vol. 1, chapter 7, pp. 317--339, JAI Press, Greenwich, Conn, USA. Vasavada J. y Tiwari S., 2013, “A Hybrid Method for Detection of Edges in Grayscale Images” in I.J. Image, Graphics and Signal Processing, DOI: 10.5815/ijigsp.2013.09.04. Wikimedia Commons, 2007, “File:Super-resolution example http://en.wikipedia.org/wiki/File:Super-resolution_example_closeup.png closeup.png”. 120 Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional.