Lección 4: Reconocimiento basado en descriptores 1. 2. 3. 4. 5. 6. Introducción Clasificación Bayesiana Clasificación por distancias Árboles de decisión Otros métodos Conclusiones 12082 - J. Neira – Universidad de Zaragoza 1 1. Introducción • Reconocimiento 2D: etiquetado de regiones correspondientes a objetos 2D en la imagen. • Reconocimiento basado en descriptores: propiedades globales invariantes, objetos completamente visibles » Área » Perímetro » No. de Euler » Elongación » ... • Más sencillo, menos robusto 12082 - J. Neira – Universidad de Zaragoza • Reconocimiento Geométrico: propiedades locales » Vértices » Aristas » Círculos » Esquinas » ... • Más complejo, más robusto 2 Esquema general Aprendizaje: Notación: • Tomar varias imágenes de cada objeto, y calcular sus descriptores • n objetos conocidos (clases): • m descriptores utilizados: Explotación: • Calcular de los descriptores de cada objeto en la imagen • Comparar con los valores estimados de los descriptores de los objetos conocidos Diferentes Diferentesmétodos métodosusan usan diferentes técnicas para diferentes técnicas para efectuar efectuaresta estacomparación comparación 12082 - J. Neira – Universidad de Zaragoza • N muestras del descriptor j de la clase i: Dada Dadauna unamuestra muestrax, x, ¿a qué clase ω corresponde? ¿a qué clase ωi i corresponde? ¿se ¿setrata tratade deun un objeto desconocido? objeto desconocido? 3 2. Clasificación Bayesiana • Los descriptores se consideran variables aleatorias. • Modelo probabilístico de cada clase: • Se calcula la probabilidad de que la muestra provenga de la observación de cada clase utilizando la regla de Bayes. • Probabilidad a priori de cada clase: 12082 - J. Neira – Universidad de Zaragoza 4 Clasificación Bayesiana • Regla de Bayes: • Distribuye la probabilidad entre todas las clases: • Decidimos ωi si: 12082 - J. Neira – Universidad de Zaragoza 5 Clasificación Bayesiana • Influencia de P(ωi): 12082 - J. Neira – Universidad de Zaragoza • Influencia de p(x/ωi): 6 Descriptores • Ejemplo: el área N=15 1727 1683 1766 1924 1886 1914 2038 1965 1967 1999 2139 2089 2146 2158 2460 6 • En ausencia de más información, caracterizamos un descriptor por medio de una distribución Gaussiana: 5 4 3 2 1 0 1700 1800 1900 2000 2100 2200 2500 12082 - J. Neira – Universidad de Zaragoza 7 Descriptores • Media muestral: valor representativo: 1 J 7 4 Z U 3 G 2 H A -3 • Varianza muestral: dispersión o variabilidad 9 x 10 8 ? 7 6 5 4 3 2 1 ? 0 500 1000 1500 2000 2500 3000 3500 Area 12082 - J. Neira – Universidad de Zaragoza 8 Independencia de los descriptores • Linealmente correlados descriptor 2 descriptor 2 • Independientes: 30 25 20 30 25 20 15 15 10 10 5 5 0 0 5 10 15 20 25 30 0 0 5 10 descriptor 1 15 20 25 30 descriptor 1 Los descriptores independientes permiten discriminar mejor entre clases. 12082 - J. Neira – Universidad de Zaragoza 9 Clasificación Bayesiana • Suponiendo Gaussianidad e independencia estadística: 1,0 0,9 0,8 0,7 0,6 0,5 • Método iterativo: 0,4 0,3 0,2 0,1 • Se itera hasta que el objeto más probable supere un umbral (puede no ser necesario calcular todos los descriptores). 12082 - J. Neira – Universidad de Zaragoza 10 M7 M6 M5 M4 M3 M2 M1 RMin RMax Perím Area 0,0 Medición secuencial de descriptores r • Suponiendo que: • El área no es un parámetro discriminante en este caso: l l • El perímetro si lo es: b b ¿En ¿Enqué quéorden ordencalcular calcularlos losdescriptores? descriptores? 12082 - J. Neira – Universidad de Zaragoza 11 Medición secuencial de descriptores • Poder discriminante del parámetro k entre las clases ωi y ωj: 192 J-Div ergen cia Círculo GranCir CirTruncad 63.47 1.94 102.64 153.58 2.20 220.13 12082 - J. Neira – Universidad de Zaragoza Circulo M7 M6 M5 M4 CirTruncado RMax 182 M7 172 Area GranCir CirTruncad CirSaliente 162 Merim 152 RMin 142 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 M1 0 M3 Según su J-divergencia 0,02 M6 0,04 M2 GranCir 0,06 M4 0,08 M1 Circulo M2 0,1 RMin CirTruncado 0,12 M5 0,14 RMax CirSaliente M3 0,16 Perím Perímetro •0,18 Ejemplo: Area En orden prefijado 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 12 Tratamiento de objetos desconocidos • Clase ω0 que representa al objeto desconocido: • Distribución uniforme entre los valores mínimo y máximo del descriptor: 12082 - J. Neira – Universidad de Zaragoza 13 3. Distancias mínimas • Se calcula la distancia del vector de descriptores a cada uno de los objetos conocidos. • Distancia Euclidiana: • Se escoge la clase con distancia mínima (vecino más próximo). • Teselación de Voronoi: • La frontera de decisión entre dos clases estará dada por: 12082 - J. Neira – Universidad de Zaragoza 14 Ejercicio • Dadas las siguientes muestras de los descriptores x1 y x2 de dos clases: Clase 1 x1 x2 1 3 2 1 2 2 2 3 2 4 3 2 3 3 4 3 5 2 1 2 Clase 2 x1 x2 4 5 5 5 5 6 4 7 6 5 6 6 6 7 7 6 4 6 8 7 8 Clase 1 7 Clase 2 6 5 4 3 2 1 0 0 2 4 6 8 10 • Determinar la ecuación de la curva que representa la frontera de decisión entre las dos clases de acuerdo con la distancia Euclidiana, y graficarla. 12082 - J. Neira – Universidad de Zaragoza 15 Distancia Euclidiana • Equivalente a la clasificación Bayesiana cuando: – Todas las clases son equiprobables a priori – Todos los descriptores tienen la misma varianza • Interpretación clara sólo si x1 y x2 tienen las mismas unidades – x1 = perímetro – x2 = área • Sensible a cambios de escala (p.e. perímetro medido en mm o em cm). • Siempre se escoge una clase, o es necesario definir una distancia máxima arbitraria. 12082 - J. Neira – Universidad de Zaragoza 16 Distancias mínimas • Distancia de Mahalanobis: • m = 2: • Distancia adimensional; considera la imprecisión del descriptor (la varianza) • Caso general, define una familia de elipses (ecuación de los puntos a distancia k de μ): • ω2: x1 menos preciso que x2 (influye menos en D2). 12082 - J. Neira – Universidad de Zaragoza • Puede contradecir a la distancia Euclidiana. 17 Distancia de Mahalanobis • Test de hipótesis: – μij: valor esperado – σij: desviación esperada – xj: valor observado Tablas de Chi-cuadrado m\ α 0.05 0.025 0.01 1 3.84 5.02 6.64 2 5.99 7.38 9.22 3 7.82 9.36 11.32 • m = 2: • Se escoge la clase de menor distancia que pase este test de hipótesis. • H0: {x proviene de ωi } • α: nivel de confianza Una Unahipótesis hipótesiscorrecta correctaserá será rechazada rechazadacon conprobabilidad probabilidadαα (% (%de defalsos falsosnegativos). negativos). • La detección de falsos positivos es más compleja (involucra al resto de las clases). 12082 - J. Neira – Universidad de Zaragoza 18 Ejercicio • Dado un objeto caracterizado por m descriptores independientes, y dada una muestra de cada descriptor: • ¿Puede cada muestra ser estadísticamente compatible con el correspondiente descriptor, y sin embargo ser las muestras conjuntamente incompatibles con los descriptores del objeto? • ¿Puede la muestra de algunos descriptores ser estadísticamente incompatible con el correspondiente descriptor del objeto, y sin embargo ser las muestras conjuntamente compatibles con los descriptores del objeto? 12082 - J. Neira – Universidad de Zaragoza 19 Euclidiana .vs. Mahalanobis • Euclidiana .vs. Mahalanobis • m = 1: 3.84 medida 500 1000 1500 2000 2500 3000 3500 500 1000 1500 2000 2500 3000 3500 Intervalo de aceptación rechazada aceptada 12082 - J. Neira – Universidad de Zaragoza Distancia Euclidiana 20 Distinguibilidad entre objetos 1 J 7 4 Z U 3 G 2 H A -3 9 • Distancia entre dos clases: x 10 8 7 6 5 4 3 • Permite evaluar el potencial de un conjunto de descriptores 2 1 0 500 1000 1500 2000 2500 3000 3500 Area Si Silalahipótesis hipótesises esaceptable, aceptable,las lasclases clasesωωi i yyωωkk son sonindistinguibles indistinguibles 12082 - J. Neira – Universidad de Zaragoza 21 Número de muestras • Para N grande, tiende a la varianza clásica 250 200 Desv. Est. • La varianza σ2 no está definida para N=1 • Si N es pequeño, tiende a ser optimista (subestima la varianza) 150 100 50 0 • σ20: estimación a priori de la varianza (p. e. el cuadrado del 1% del valor del descriptor) 12082 - J. Neira – Universidad de Zaragoza 0 5 10 Muestras 15 20 σ2 σ 2N 22 4. Árboles de Decisión • CART (Classification and Regression Trees): dados un conjunto de muestras de m descriptores de n clases: • Secuencia de preguntas condicionadas a la respuesta de la pregunta anterior. NO NO NO Perímetro >9? Area >6? Nº Agujeros >0? SI NO SI Perímetro >8? SI SI • Método no métrico (no se basa en mediciones de distancias). • Ventajas: – Interpretabilidad – Puede incluir descriptores no numéricos – Permite incorporar conocimiento de expertos 12082 - J. Neira – Universidad de Zaragoza – División recursiva de las muestras de acuerdo con un descriptor. 1. ¿qué factor de división usar? 2. ¿qué descriptor consultar en un nodo? 3. ¿cuándo detener la división? 4. ¿cómo optimizar un árbol (hacerlo más pequeño, más simple)? 5. ¿qué hacer con nodos impuros? 6. ¿cómo manejar información no disponible? 23 Árboles de decisión • Importancia de la selección de los descriptores • Desventajas: – Un error en un descriptor puede impedir reconocer el objeto correctamente. – Siempre escoge una clase (o hay que introducir el objeto desconocido en muchos sitios). 12082 - J. Neira – Universidad de Zaragoza 24 5. Otros Métodos • Métodos paramétricos (los anteriores): estimación de los parámetros de la función p(x/ωi) que caracteriza a cada clase y que se supone conocida. • Métodos NO paramétricos: – Estimación de la función de probabilidad: • Probabilidad a posteriori: Dada una ventana V alrededor de x, que incluye k muestras, ki de las cuales pertenecen a ωi: – Estimación de la probabilidad a posteriori: 12082 - J. Neira – Universidad de Zaragoza 25 El vecino más próximo • Dadas N muestras de m descriptores de n clases: • Usar teselación de Voronoi • Dados m descriptores del objeto a identificar: • Escoger la clase ωi tal que: • Método subóptimo: tasa de errores mayor que la Clasificación Bayesiana. ¡La ¡Latasa tasade deerrores errores no noes esmás másdel deldoble! doble! 12082 - J. Neira – Universidad de Zaragoza 26 Los k vecinos más próximos • Escoger la clase ωi más fre-cuente en los k vecinos más próximos a x. • Para n, m y N grande, es computacionalmente costoso. • Distancias parciales: • Los empates se pueden evitar aumentando k (n=2, k impar). 12082 - J. Neira – Universidad de Zaragoza • Se abandona el cálculo de la distancia a una muestra cuan-do la distancia parcial es mayor que la distancia total al k-ésimo vecino. 27 6. Conclusiones • Métodos de complejidad lineal • Descriptores invariantes en 2D OK !Visibilidad parcial! !Solapamiento! Reconocimiento geométrico 12082 - J. Neira – Universidad de Zaragoza 28