Español - Introducción - Universidad de Zaragoza

Anuncio
Lección 4: Reconocimiento
basado en descriptores
1.
2.
3.
4.
5.
6.
Introducción
Clasificación Bayesiana
Clasificación por distancias
Árboles de decisión
Otros métodos
Conclusiones
12082 - J. Neira – Universidad de Zaragoza
1
1. Introducción
• Reconocimiento 2D: etiquetado de regiones correspondientes a
objetos 2D en la imagen.
• Reconocimiento basado en
descriptores: propiedades
globales invariantes, objetos
completamente visibles
» Área
» Perímetro
» No. de Euler
» Elongación
» ...
• Más sencillo, menos robusto
12082 - J. Neira – Universidad de Zaragoza
• Reconocimiento Geométrico:
propiedades locales
» Vértices
» Aristas
» Círculos
» Esquinas
» ...
• Más complejo, más robusto
2
Esquema general
Aprendizaje:
Notación:
• Tomar varias imágenes de cada
objeto, y calcular sus descriptores
• n objetos conocidos (clases):
• m descriptores utilizados:
Explotación:
• Calcular de los descriptores de
cada objeto en la imagen
• Comparar con los valores estimados de los descriptores de los
objetos conocidos
Diferentes
Diferentesmétodos
métodosusan
usan
diferentes
técnicas
para
diferentes técnicas para
efectuar
efectuaresta
estacomparación
comparación
12082 - J. Neira – Universidad de Zaragoza
• N muestras del descriptor j de la
clase i:
Dada
Dadauna
unamuestra
muestrax,
x,
¿a
qué
clase
ω
corresponde?
¿a qué clase ωi i corresponde?
¿se
¿setrata
tratade
deun
un
objeto
desconocido?
objeto desconocido?
3
2. Clasificación Bayesiana
• Los descriptores se consideran
variables aleatorias.
• Modelo probabilístico de cada
clase:
• Se calcula la probabilidad de que
la muestra provenga de la observación de cada clase utilizando la
regla de Bayes.
• Probabilidad a priori de cada
clase:
12082 - J. Neira – Universidad de Zaragoza
4
Clasificación Bayesiana
• Regla de Bayes:
• Distribuye la probabilidad entre
todas las clases:
• Decidimos ωi si:
12082 - J. Neira – Universidad de Zaragoza
5
Clasificación Bayesiana
• Influencia de P(ωi):
12082 - J. Neira – Universidad de Zaragoza
• Influencia de p(x/ωi):
6
Descriptores
• Ejemplo: el área
N=15
1727
1683
1766
1924
1886
1914
2038
1965
1967
1999
2139
2089
2146
2158
2460
6
• En ausencia de más información, caracterizamos un descriptor por medio de una distribución Gaussiana:
5
4
3
2
1
0
1700 1800 1900 2000 2100 2200 2500
12082 - J. Neira – Universidad de Zaragoza
7
Descriptores
• Media muestral: valor representativo:
1 J 7 4 Z U 3 G 2 H A
-3
• Varianza muestral: dispersión o
variabilidad
9
x 10
8
?
7
6
5
4
3
2
1
?
0
500
1000
1500
2000
2500
3000
3500
Area
12082 - J. Neira – Universidad de Zaragoza
8
Independencia de los descriptores
• Linealmente correlados
descriptor 2
descriptor 2
• Independientes:
30
25
20
30
25
20
15
15
10
10
5
5
0
0
5
10
15
20
25
30
0
0
5
10
descriptor 1
15
20
25
30
descriptor 1
Los descriptores independientes
permiten discriminar mejor entre clases.
12082 - J. Neira – Universidad de Zaragoza
9
Clasificación Bayesiana
• Suponiendo Gaussianidad e independencia estadística:
1,0
0,9
0,8
0,7
0,6
0,5
• Método iterativo:
0,4
0,3
0,2
0,1
• Se itera hasta que el objeto más probable supere un umbral (puede no
ser necesario calcular todos los descriptores).
12082 - J. Neira – Universidad de Zaragoza
10
M7
M6
M5
M4
M3
M2
M1
RMin
RMax
Perím
Area
0,0
Medición secuencial de descriptores
r
• Suponiendo que:
• El área no es un parámetro
discriminante en este caso:
l
l
• El perímetro si lo es:
b
b
¿En
¿Enqué
quéorden
ordencalcular
calcularlos
losdescriptores?
descriptores?
12082 - J. Neira – Universidad de Zaragoza
11
Medición secuencial de descriptores
• Poder discriminante del parámetro k entre las clases ωi y ωj:
192
J-Div ergen cia
Círculo
GranCir CirTruncad
63.47
1.94
102.64
153.58
2.20
220.13
12082 - J. Neira – Universidad de Zaragoza
Circulo
M7
M6
M5
M4
CirTruncado
RMax
182
M7
172
Area
GranCir
CirTruncad
CirSaliente
162
Merim
152
RMin
142
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
M1
0
M3
Según su J-divergencia
0,02
M6
0,04
M2
GranCir
0,06
M4
0,08
M1
Circulo
M2
0,1
RMin
CirTruncado
0,12
M5
0,14
RMax
CirSaliente
M3
0,16
Perím
Perímetro
•0,18 Ejemplo:
Area
En orden prefijado
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
12
Tratamiento de objetos
desconocidos
• Clase ω0 que representa al objeto desconocido:
• Distribución uniforme entre los valores mínimo y máximo del descriptor:
12082 - J. Neira – Universidad de Zaragoza
13
3. Distancias mínimas
• Se calcula la distancia del
vector de descriptores a cada
uno de los objetos conocidos.
• Distancia Euclidiana:
• Se escoge la clase con distancia
mínima (vecino más próximo).
• Teselación de Voronoi:
• La frontera de decisión entre dos
clases estará dada por:
12082 - J. Neira – Universidad de Zaragoza
14
Ejercicio
• Dadas las siguientes muestras de los descriptores x1 y x2 de dos clases:
Clase 1
x1 x2
1
3
2
1
2
2
2
3
2
4
3
2
3
3
4
3
5
2
1
2
Clase 2
x1 x2
4
5
5
5
5
6
4
7
6
5
6
6
6
7
7
6
4
6
8
7
8
Clase 1
7
Clase 2
6
5
4
3
2
1
0
0
2
4
6
8
10
• Determinar la ecuación de la curva que representa la frontera de
decisión entre las dos clases de acuerdo con la distancia Euclidiana, y
graficarla.
12082 - J. Neira – Universidad de Zaragoza
15
Distancia Euclidiana
• Equivalente a la clasificación
Bayesiana cuando:
– Todas las clases son
equiprobables a priori
– Todos los descriptores tienen
la misma varianza
• Interpretación clara sólo si x1 y
x2 tienen las mismas unidades
– x1 = perímetro
– x2 = área
• Sensible a cambios de escala
(p.e. perímetro medido en mm
o em cm).
• Siempre se escoge una clase,
o es necesario definir una distancia máxima arbitraria.
12082 - J. Neira – Universidad de Zaragoza
16
Distancias mínimas
• Distancia de Mahalanobis:
• m = 2:
• Distancia adimensional; considera la imprecisión del descriptor
(la varianza)
• Caso general, define una familia
de elipses (ecuación de los puntos a distancia k de μ):
•
ω2: x1 menos preciso que x2
(influye menos en D2).
12082 - J. Neira – Universidad de Zaragoza
• Puede contradecir a la
distancia Euclidiana.
17
Distancia de Mahalanobis
• Test de hipótesis:
– μij: valor esperado
– σij: desviación esperada
– xj: valor observado
Tablas de Chi-cuadrado
m\ α 0.05 0.025
0.01
1
3.84 5.02
6.64
2
5.99 7.38
9.22
3
7.82 9.36
11.32
• m = 2:
• Se escoge la clase de menor distancia que pase este test de
hipótesis.
• H0: {x proviene de ωi }
•
α: nivel de confianza
Una
Unahipótesis
hipótesiscorrecta
correctaserá
será
rechazada
rechazadacon
conprobabilidad
probabilidadαα
(%
(%de
defalsos
falsosnegativos).
negativos).
• La detección de falsos positivos
es más compleja (involucra al
resto de las clases).
12082 - J. Neira – Universidad de Zaragoza
18
Ejercicio
• Dado un objeto caracterizado por m descriptores independientes, y dada una muestra de cada descriptor:
• ¿Puede cada muestra ser estadísticamente compatible con
el correspondiente descriptor, y sin embargo ser las muestras conjuntamente incompatibles con los descriptores del
objeto?
• ¿Puede la muestra de algunos descriptores ser estadísticamente incompatible con el correspondiente descriptor del
objeto, y sin embargo ser las muestras conjuntamente compatibles con los descriptores del objeto?
12082 - J. Neira – Universidad de Zaragoza
19
Euclidiana .vs. Mahalanobis
• Euclidiana .vs. Mahalanobis
• m = 1:
3.84
medida
500
1000
1500
2000
2500
3000
3500
500
1000
1500
2000
2500
3000
3500
Intervalo de
aceptación
rechazada
aceptada
12082 - J. Neira – Universidad de Zaragoza
Distancia Euclidiana
20
Distinguibilidad entre objetos
1 J 7 4 Z U 3 G 2 H A
-3
9
• Distancia entre dos clases:
x 10
8
7
6
5
4
3
• Permite evaluar el potencial
de un conjunto de descriptores
2
1
0
500
1000
1500
2000
2500
3000
3500
Area
Si
Silalahipótesis
hipótesises
esaceptable,
aceptable,las
lasclases
clasesωωi i yyωωkk son
sonindistinguibles
indistinguibles
12082 - J. Neira – Universidad de Zaragoza
21
Número de muestras
• Para N grande, tiende a la
varianza clásica
250
200
Desv. Est.
• La varianza σ2 no está
definida para N=1
• Si N es pequeño, tiende a
ser optimista (subestima la
varianza)
150
100
50
0
•
σ20: estimación a priori de
la varianza (p. e. el
cuadrado del 1% del valor
del descriptor)
12082 - J. Neira – Universidad de Zaragoza
0
5
10
Muestras
15
20
σ2
σ 2N
22
4. Árboles de Decisión
• CART (Classification and
Regression Trees): dados un
conjunto de muestras de m
descriptores de n clases:
• Secuencia de preguntas condicionadas a la respuesta de la
pregunta anterior.
NO
NO
NO
Perímetro
>9?
Area
>6?
Nº Agujeros
>0?
SI
NO
SI
Perímetro
>8?
SI
SI
• Método no métrico (no se basa
en mediciones de distancias).
• Ventajas:
– Interpretabilidad
– Puede incluir descriptores no
numéricos
– Permite incorporar conocimiento
de expertos
12082 - J. Neira – Universidad de Zaragoza
– División recursiva de las
muestras de acuerdo con un
descriptor.
1. ¿qué factor de división usar?
2. ¿qué descriptor consultar en un
nodo?
3. ¿cuándo detener la división?
4. ¿cómo optimizar un árbol
(hacerlo más pequeño, más
simple)?
5. ¿qué hacer con nodos impuros?
6. ¿cómo manejar información no
disponible?
23
Árboles de decisión
• Importancia de la selección de los descriptores
• Desventajas:
– Un error en un descriptor puede impedir reconocer el
objeto correctamente.
– Siempre escoge una clase (o hay que introducir el objeto
desconocido en muchos sitios).
12082 - J. Neira – Universidad de Zaragoza
24
5. Otros Métodos
• Métodos paramétricos
(los anteriores): estimación
de los parámetros de la
función p(x/ωi) que caracteriza a cada clase y que se
supone conocida.
• Métodos NO
paramétricos:
– Estimación de la función
de probabilidad:
• Probabilidad a posteriori:
Dada una ventana V
alrededor de x, que incluye
k muestras, ki de las cuales
pertenecen a ωi:
– Estimación de la
probabilidad a posteriori:
12082 - J. Neira – Universidad de Zaragoza
25
El vecino más próximo
• Dadas N muestras de m
descriptores de n clases:
• Usar teselación de Voronoi
• Dados m descriptores del
objeto a identificar:
• Escoger la clase ωi tal que:
• Método subóptimo: tasa
de errores mayor que la
Clasificación Bayesiana.
¡La
¡Latasa
tasade
deerrores
errores
no
noes
esmás
másdel
deldoble!
doble!
12082 - J. Neira – Universidad de Zaragoza
26
Los k vecinos más próximos
• Escoger la clase ωi más
fre-cuente en los k vecinos
más próximos a x.
• Para n, m y N grande, es
computacionalmente costoso.
• Distancias parciales:
• Los empates se pueden
evitar aumentando k (n=2, k
impar).
12082 - J. Neira – Universidad de Zaragoza
• Se abandona el cálculo de
la distancia a una muestra
cuan-do la distancia parcial
es mayor que la distancia
total al k-ésimo vecino.
27
6. Conclusiones
• Métodos de complejidad lineal
• Descriptores invariantes en 2D
OK
!Visibilidad parcial!
!Solapamiento!
Reconocimiento geométrico
12082 - J. Neira – Universidad de Zaragoza
28
Descargar