f - CVC

Anuncio
Visió per Computador
formació de la imatge
Felipe Lumbreras
Dept. Ciències de la Computació / Centre de Visió per Computador
Universitat Autònoma de Barcelona
http://www.cvc.uab.es/shared/teach/a102784/
Elements implicats
font: szeliski.org/Book/
Llum
El que percebem com a llum és una estreta
porció de l’espectre electromagnètic.
Cada freqüència es correspon amb un color pur (de vermells
fins als violetes).
Espectre
electromagnètic
E = hn
c = ln
relació de Planck
h: constant de Planck
c: velocitat de la llum en el buit
Imatges en altres rangs
Imatge en el SWIR de nit sense lluna ni llum
artificial. Només nightglow.
raigs X
Röntgen (1895),
mà de Berta.
font: Wikipedia,
user:Drgnu23
Copyright © ONERA - All rights reserved
Façana de l’ETSE vista en
el visible (a dalt), i en el
LWIR (esquerra).
UV
Gammagrafia
Llum
• Espectre (distribució espectral de potencia): potencia
(energia per unitat de temps) radiant per unitat de longitud
d’ona.
La intensitat emesa o reflectida per un objecte per totes les
longituds d’ona defineix el seu color.
Llum
• Llum blanca: espectre pla
(equienergètic).
Per obtenir una sensació de llum
blanca no és necessari que
l’espectre sigui pla.
• Llum monocromàtica: espectre
concentrat en una única longitud
d’ona. Representa un color
espectral pur.
PR
l
PR
l
Paràmetres espectrals / color
• Longitud d’ona dominant / to
longitud d’ona amb més energia. Pic
del espectre (e2).
• Puresa / saturació
relació entre l’energia de la longitud
d’ona dominant (e2) i l’energia de la
llum blanca (e1). Si e1=e2 la puresa
és zero i si e1 és zero la puresa és 1
(màxima).
• Luminància / Lluminositat
proporcional a l’àrea sota la corba de
la distribució espectral.
PR
teòrica
e2
e1
l
PR
D
l
exemple
e2
e1
l
D
l
Color
sensació visual produïda per una determinada
distribució espectral que incideix en la retina ...
... i es processa pel SVH
Font de
llum
emissió
Objecte
reflexió
Observador
Elements implicats
font: szeliski.org/Book/
Escena
Geometria
L: vector en la direcció de la font de llum
N: vector normal a la superfície
R: vector direcció de reflexió
V: vector en la direcció de l’observador
N
R
L
V
superfície
brillantor
ambient+difusa
font: szeliski.org/Book/
Reflectància
• BRDF (bidirectional reflectance distribution function)
materials isotròpics
– Difusa
– Especular
(Phong)
(Torrance Sparrow)
– Phong
– Dicromatic
r: reflectance
d: diffuse
s: specular
i: interface
b: surface body
Photometric Stereo for Outdoor Webcams
http://www.gris.informatik.tu-darmstadt.de/projects/webcam-ps/
Face Reconstruction in the Wild
http://grail.cs.washington.edu/3dfaces/
Elements implicats
font: szeliski.org/Book/
L’ull humà
Estructura
• La còrnia, el cristal·lí i l’humor
aquós s'encarreguen de projectar
una imatge sobre la retina.
lents/òptiques
• L’iris és un diafragma que regula la
quantitat de llum que entra en l’ull.
diafragma
• La retina és una capa de cèl·lules
nervioses que transforma l’energia
lluminosa en impulsos elèctrics.
sensor
L’ull humà
Receptors
Bastons: sensibles a intensitat baixa, no
al color, situats a la perifèria de la fòvea.
Cons: sensibles a nivells alts, al color i
bàsicament a la fòvea.
Nom
Màxima sensibilitat
S (short)
M (medium)
445 nm (violeta)
535 nm (verd)
L (long)
570 nm (groc)
Mesura del color
• Experiment de correspondència
Mesura del color
Observador estàndard
• En 1931 es defineix un observador
estàndard a partir de mesures
realitzades a un conjunt de
persones mitjançant experiments
de correspondència.
• Els tres primaris són X, Y, Z.
Aquests primaris són colors
imaginaris (no es poden donar a la
natura).
• Les corbes x(l), y(l), z(l) són les
funcions de correspondència i
s’han triat positives.
Mesura del color
Càlcul de valors triestímul
• A partir de la distribució espectral
de un determinat estímul de color
obtenim els valors X,Y,Z així:
– multipliquem per les funcions
de correspondència.
– integrem l’àrea sota la corba.
• A la pràctica això és el que fan els
aparells que mesuren les
components de color.
X   L(l ) x (l )dl ; Y   L(l ) y (l )dl ; Z   L(l ) z (l )dl
L(l )  I (l ) f. emisiva; L(l )  I (l ) S (l ) f. reflexiva
Espai XYZ
• Els valors XYZ dels possibles colors
defineixen una mena de con “sòlid
de color”. Tots els possibles colors
són dins d’ell.
• Els eixos de l’espai XYZ no cauen a
dins del sòlid (colors imaginaris).
• L’origen es correspon amb el negre
• La frontera representa els colors
espectrals purs (locus), els púrpures
que no hi són a l’espectre estan
representats per una línia que uneix
vermell i violeta.
Y
locus
X
línia de
púrpures
Z
Diagrama xy
• Una representació que separa la component de lluminositat
del color és el diagrama xy.
x=X/(X+Y+Z), y=Y/(X+Y+Z),z=Z/(X+Y+Z)
• Com que x+y+z=1 eliminem la
redundància treien una d’elles.
• Podem veure-ho com el
sòlid de color projectat
sobre el pla X+Y+Z=1.
Espais de color
• Independents de dispositiu
– CIEXYZ (1931, 1964): espai base. Útil per mesurar.
– CIELUV: uniforme. Utilitzat per emissors.
– CIELAB: uniforme. Utilitzat per pintures i colors reflectits.
• Dependents de dispositiu
– RGB: monitors, càmeres, imatges. Molt utilitzat.
– CMY /CMYK : impressió
– Y’U’V’ y Y’I’Q’: televisió, vídeo.
– HSV : imiten espais perceptuals. Útil per definir colors i
per processament de imatges en color
– HLS : similar a l’anterior.
Espais de color
• Independents de dispositiu
– CIEXYZ,
CIELUV,
CIELAB
Y
X
Z
• Dependents de dispositiu
– RGB,
HSV,
R
G
B
HLS
Elements implicats
font: szeliski.org/Book/
Càmeres
• Model simple: pinhole, projecció central
Càmeres
• Model simple: pinhole, projecció central
focal distance
hole
image
plane
Càmeres
• Model simple: pinhole, projecció central
focal distance variation
Càmeres
pinhole
Hartley R , Zisserman. A Multiple View Geometry In Computer Vision, 2 Ed. 2003 (pàg. 154)
T
(X,Y,Z) → (𝑓X/Z, 𝑓Y/Z, 𝑓)
T
Coordenades homogènies
X
𝑓X
Y →
𝑓Y =
Z
Z
1
𝑓
𝑓
1
0
0
0
X
Y
Z
1
x=PX
pinhole
Centre òptic (principal point)
X
𝑓X+Z𝑝𝑥
Y →
𝑓Y+Z𝑝𝑦 =
Z
Z
1
𝑓
𝑓
1
𝑝𝑥
𝑝𝑦
0
X
Y
Z
1
𝑓
K=
𝑓
𝑝𝑥
𝑝𝑦
1
x = K[I | 𝟎] Xcam
Matriu de paràmetres
intrínsecs
Rotació i Translació de la càmera
[R | 𝐭]
Matriu de paràmetres
extrínsecs
P=K[R | 𝐭]
Matriu de projecció
x = K[R | 𝐭] X
Radial distortion
Computer vision: models, learning and inference. ©2011 Simon J.D. Prince
33
Calibratge de càmeres
• Intrínsecs :
– focal (en píxels),
– punt principal (centre)
– distorsions
• Extrínsecs
– Rotació
– Translació
http://www.vision.caltech.edu/bouguetj/calib_doc/
Captación
Cámara
Óptica
enfoque
diafragma
zoom
elementos ópticos:
filtros IR, beam splitters
alimentación
sensor/es
configuración
filtros
extensores
montura
anclaje
amplificación vídeo / imagen
, conversión,
proceso
Ópticas
Formación de la imagen
• Esquema simplificado
u
v
O
h
F’
f
eje
óptico
Formación de la imagen
• Esquema simplificado
u
v
O
h
F’
h’
I
f
eje
óptico
El rayo que pasa por
el centro de la
lente no se
desvía
El rayo que llega
horizontal se
desvía por el foco
Formación de la imagen
• Esquema simplificado
u
v
O
h
F’
h’
I
f
eje
óptico
Formación de la imagen
• Esquema simplificado
u
v
O
h
F’
h’
I
1 1 1
 
f u v
fórmula de Gauss
f
eje
óptico
Objetivos
• Grupo óptico que forma la imagen sobre el
sensor
 Características:
 Distancia focal: f
 Apertura: f-numero, N.A., 
 Profundidad de campo DOF.
mínima y máxima distancia
de enfoque
 Campo de vista FOV
 Aumento
 Tipos




Focal fija, Variable
Gran angular, Ojo de pez
Zoom
Telecéntricos
 Monturas
 Especificas de vídeo: C, CS
 Microlentes
 Otras
 Otros elementos
 Extensores
 Filtros
 Tornillos
Distancia focal
• Los objetivos están formados por grupos ópticos en
los que la suposición de lente delgada no se da.
– Simplificamos los cálculos suponiendo lente delgada
• El término distancia focal hace referencia a la EFL
(distancia focal efectiva).
– Otras medidas útiles son la BFD (back focal distance) y
– la FFD (flange focal distance).
Para un tamaño de sensor fijo la distancia
focal está relacionada con el ángulo que
abarca la imagen:
a menor distancia focal, mayor campo angular
N2
F2
BFD
f = EFL
FFD
Apertura
• Apertura relativa:
Relacionado con la luminosidad que tendrá la imagen:
- diámetro del objetivo  luz que entra.
- distancia focal  tamaño de la imagen.
N
f
D
f = focal
D =  de la lente
• La luz que llega al sensor es proporcional a D2
N:
16
11
8
5.6
4
2.8
2
1.4
Enfoque
• Los objetivos ajustan la distancia lente-sensor con el
enfoque, consiguiendo una imagen nítida sobre el sensor.
– El posicionamiento con rosca de paso fino (Dz ~ 5 mm).
– Cuando la lente está lo más cerca posible del sensor,
éste se sitúa en el plano focal del sistema (objetos
distantes enfocados).
– Con el anillo de enfoque al máximo tenemos la mínima
distancia entre el objeto y objetivo (MOD: minimun
object distance). La calculamos con formula de Gauss.
Anillo de enfoque
F
Ejemplo: para un objetivo de f=25 mm con 5 mm
de recorrido de enfoque tenemos un rango
1
1
1
 
;
25 mm u 25 mm  5 mm
u  MOD  150 mm
Nota: en aplicaciones con condiciones adversas conviene fijar el enfoque con un tornillo.
Campo de vista
• FOV (Field Of View): área de la escena, a la distancia de
trabajo u, que forma su imagen en el sensor. También medido
como campo de vista angular q. Depende de tres factores:
– Distancia focal f
– Distancia de trabajo u
– Tamaño del sensor
sensor
q
s
FOV
f
u
s/2
v
u
FOV  s
v
q  arctan
v
Nota: Si la óptica está bien diseñada la apertura (iris) no debe influir en el campo. Incluso
cerrando mucho el iris debemos seguir viendo el mismo campo.
Magnificación y campo de vista
• Cómo varía la magnificación total i el campo de vista en
función de la distancia focal para una distancia de trabajo fija.
f = 12 mm
f = 25 mm
f = 50 mm
Campo de vista
100°super-wide angle
65°
wide angle
35°
standard wide angle
20°
standard
12°
light telephoto
6°
telephoto
MOD
• Cómo depende de la distancia focal
A mayor distancia focal menor
campo de vista y mayor MOD.
• Clasificación en función del campo
angular (vídeo)
Profundidad de campo
• Círculo de confusión
– el ojo humano y cualquier otro sensor es incapaz de
distinguir detalles más pequeños que el elemento utilizado
para captarlos.
– Dependiendo del sensor que utilicemos tendremos uno u
otro círculo de confusión. En las cámaras este valor suele
ser: c’=10mm - 30mm.
CCD
plano
imagen
cono de luz incidente
elemento
sensor
Profundidad de campo (DOF)
Rango de posiciones en las que el objeto se encuentra bien
enfocado (el tamaño de un punto imagen es igual o menor
al del círculo de confusión).
• Factores que influyen en la profundidad de campo:
– Apertura: a menor apertura, mayor profundidad de campo
– Distancia del objeto: a mayor distancia, mayor profundidad
– Distancia focal: a menor distancia focal, mayor profundidad
CCD
cono de luz
incidente
(pequeño)
A
cono de luz
incidente
(grande)
B
B’
sensor
A’
Profundidad de campo
• Ejemplo de variación de la profundidad de campo según la
apertura,
f  25mm
f #1.4
f #2
f # 2.8
f #4
f #8
Extensores
• Anillos que colocados entre el objetivo y la cámara
aumentan la distancia lente-sensor
• Consecuencias:
– Disminución DOF
– Disminución distancia mínima
de trabajo
– Disminución FOV
– El aumento se hace mayor
Tipos de objetivos
•
•
•
•
•
•
Objetivos fijos
Teleobjetivos
Gran angular
Zoom
Macro
Telecéntricas
53/160
Montura
Distancia desde el plano posterior de la óptica
(sin contar la rosca) y el sensor (plano focal).
• Dos estándares:
-Tipo C (industria y ciencia): distancia c = 17,5 mm
-Tipo CS (vigilancia): distancia c = 12,5 mm
El paso de rosca es de 1/32” TPI (threads per inch).
Se puede pasar de CS a C con extensor, pero no al revés.
• Los sensores de gran formato (lineales/matriciales) usan
otros tipos de montura: F-Nikon, 42mm.
• Las cámaras de bajo coste suelen tener montura de 12 mm
o menores (microlentes). De poco uso en visión industrial.
Nota: el soporte de la lente suele contener el filtro IR
Cámaras
Sensor
• Los sensores convierten la energía radiante en una señal
eléctrica.
• La luz está “formada” por fotones. El sensor “cuenta” fotones.
Luz
(fotones)
Sensor
Carga eléctrica
(electrones)
QE (Quantum Efficiency):
Número de electrones generados por cada fotón incidente.
WC (Well Capacity):
Número de electrones que puede almacenar la celda sensora.
Características del sensor
•
•
•
•
•
•
•
•
•
Arquitectura del chip
Tiempo de integración
Tipo de integración
Transferencia
Sensibilidad espectral
Relación señal ruido, Corriente oscura
Respuesta, Saturación
Color
Tecnología
Arquitectura
Cámaras matriciales
Anchura del
elemento sensor
Cámaras lineales
Anchura del
elemento sensor
Celda CCD
Altura del
elemento
sensor
Altura del
elemento
sensor
NM
Celda CCD
Matricial: estructura
•
•
•
•
Número efectivo de celdas (HxV).
Tamaño de las celdas (THxTV).
Forma de las celdas (TH/TV). Ideal = 1 (cuadrada).
Formato de la matriz (1’’, 2/3”,1/2”,1/3”,1/4”).
Formato de la matriz: aspect ratio 4:3 (unidades en mm)
Número efectivo de celdas
Sensor
Número total de píxeles
Zona de píxeles
que no capta luz
Número efectivo de píxeles
(captan luz)
Nota: relacionado con el concepto de corriente oscura
Formato de la matriz
Tamaño y relación de aspecto del sensor.
Afecta a:
• campo de vista
• magnificación total
sensor
1/2”
Monitor
•
•
Misma focal y enfoque (mismo sistema óptico)
Diferente tamaño de sensor
1/3”
Sensor lineal
• Arquitectura de descarga lineal, bilineal o trilineal.
• Gran resolución en la línea: de 128 a 8800 píxeles.
• Formato de salida no estándar.
Tiempo de integración
• Permite trabajar con diferentes condiciones de iluminación
y movimiento.
• La señal que lo controla se denomina shutter (obturador).
Ejemplo: poca luz  mayor tiempo de integración
Tiempo de integración
El tiempo de integración afecta a:
• cantidad de electrones que se almacenan por unidad de
tiempo,
• desenfoque por movimiento
Tiempo de integración
Objeto estático
1/250 s
1/1000 s
1/10000 s
Tiempo de integración
Menor tiempo de integración implica:
• O tener que aumentar la potencia de luz en la escena:
CALOR
• O ser compensado abriendo el iris del objetivo:
MENOR PROFUNDIDAD DE CAMPO
Tipo de integración
Rolling shutter
ti
expuesto
La mayoría de CMOS
Frame shutter
t0
expuesto
CCD y algunos CMOS
Transferencia (CCD)
1) Adquisición (tiempo de integración de la imagen).
2) Lectura (readout)
3) Reset (descarga de las fotocélulas)
Transferencia
Problemas asociados al proceso de transferencia:
•Blooming: desbordamiento de carga.
•Smear: La luz llega en la etapa de lectura.
La carga se propaga a lo largo de toda la columna.
Posible soluciones:
Tiempo de integración menor  blooming menor
Tapar el sensor en el tiempo de lectura.
Nota: fenómenos más presentes en CCD que en CMOS
Sensibilidad espectral
• La sensibilidad del sensor depende de los materiales con
los que está fabricado. El semiconductor nos da la
envolvente de sensibilidad.
• En el caso de tener filtros adosados, éstos limitarán el
rango.
Para generar un par electrón-hueco, la energía de los fotones
tiene que ser superior al gap del semiconductor.
Curva de respuesta espectral
1.0
SVH
Respuesta relativa
0.8
CCD (Si)
0.6
0.4
0.2
uv
0.0 400
visible
nir
500 600 700 800 900 1000 1100
Longitud de onda (nm)
SNR
Proporción de ruido en de
la señal
 Vseñal 

SNR  20 log 
 Vruido 
V
Vruido
Vseñal
t
Corriente oscura
• Por el hecho de estar a una determinada temperatura se
genera una pequeña señal (pares electrón-hueco), incluso en
ausencia de luz, que recibe el nombre de corriente oscura.
• Los píxeles no efectivos se utilizan para cuantificar y
contrarrestar esta señal.
• Podemos disminuir este efecto bajando la temperatura.
Respuesta
Salida
Saturación
Rango
dinámico
• Para una longitud de onda
dada y un rango de
intensidades la respuesta del
sensor es lineal.
• Podemos alterar la forma de
esta respuesta para los
dispositivos no lineales (CRT),
corrección gamma
• Procesar imágenes  señal lineal.
• Si se requieren grandes diferencias entre
zonas claras y oscuras (HDR: high dynamic
range) se puede optar por sensores que
tienen respuesta logarítmica o no-lineal.
Corriente oscura
Intensidad de luz
Color
Bayer pattern (1 único sensor)
• El sistema más utilizado
• No tenemos R,G,B en ningún pixel.
Se necesita interpolar
(demosaicing)
3 sensores independientes
• Prismas y filtros dividen el haz de
luz en 3 componentes que iluminan
3 sensores monocromáticos.
Pixeles apilados
• La luz dependiendo de su energía
(color) llega a diferentes
profundidades.
Calibratge del color
Tipos de sensor
CCD (Charge-Coupled Device)
• Tecnología especifica para CCD.
• Necesita electrónica extra para sacar la señal del sensor.
CMOS (Complementary Metal Oxide
Semiconductor)
• Misma tecnología que para otros dispositivos electrónicos.
• Bajo coste
• Se puede integrar electrónica extra en el mismo chip
(conversores, proceso,…)
Sensor CCD
Sensor CMOS
CCD vs. CMOS
Característica
CCD
CMOS
Windowing
Muy restringida
Sí
Consumo
Alto
Bajo
Integración
Baja
Alta
Velocidad
Baja
Alta
Blooming y smear
Sí
Bajo
Coste económico
Alto
Medio, bajo
Fill Factor
Alto
Medio/bajo
Ruido
Bajo
Medio/alto (FPN)
Shuttering
Fácil
Presenta complicaciones
CCD vs. CMOS - Tendencia
• CCD y CMOS son tecnologías complementarias.
• A corto/medio plazo:
CCD donde se requiera alta calidad de imagen
CMOS: para aplicaciones de bajo coste,
cuando se necesiten transferencias de áreas parciales,
si se requiere alta velocidad,
para obtener rangos dinámicos altos (HDR).
• A largo plazo, CMOS irá mejorando los problemas de ruido,
fillfactor.
Señal, conectividad
• Analógicas
• Digitales
• Autónomas (smart cameras)
Cámaras Analógicas
• Ventajas
– Longitud del cable prácticamente ilimitada (~ 100 metros)
– Bajo precio de las cámaras
• Inconvenientes
– Típicamente, menor resolución
– Requieren del uso de un frame grabber
– Los problemas de sincronismo cuando se usan múltiples
cámaras requieren cables específicos.
• Barrido
– Entrelazado: proviene de la TV. CCIR (25 Hz), RS-170/EIA
(30 Hz)
– Progresivo: no estándar
Cámaras Digitales
• Al no derivar de un estándar de televisión, se pueden
encontrar modelos de mayor resolución, mayor velocidad,
ventana variable.
• Varios sistemas:
– Cámaras Firewire (IEEE1394a, IEEE1394b)
– Cámaras CameraLink
– Otros: USB 2.0, USB 3.0, GigaEthernet , Cameralink, …
Conectores
• Analógicas:
– BNC
– RCA
– Específico del fabricante
• Digital:
–
–
–
–
USB 2, USB 3
FireWire
Cameralink
Ethernet
Smart cameras
• Captación y proceso integrado en un mismo
producto. Sistema de visión industrial integrado:
– Lente + sensor (CCD, CMOS, matricial, lineal) +
digitalización + memoria (imagen)
– Procesador (CPU, DSP) + memoria de programa
– Comunicaciones, entradas y salidas: RS232,Etherner, i/o
optoacopladas.
– Sistema de iluminación (LED)
• Realizan labores sencillas de visión en una línea de
producción, sin necesidad de hardware externo.
• Programación con lenguajes (C, C++), o a partir de
librerías suministradas por el fabricante.
Descargar