Subido por edwin higuera

vision artificial

Anuncio
UNIVERSIDAD CENTRAL DEL ECUADOR
FACULTAD DE INGENIERÍA, CIENCIAS FÍSICAS Y MATEMÁTICA
CARRERA DE INGENIERÍA EN COMPUTACIÓN GRÁFICA
Desarrollo de un prototipo de escáner óptico 3D montado en un UAV con cámara 360
utilizando fotogrametría
Trabajo de Titulación modalidad Proyecto de Investigación, previo a la obtención del Título de
Ingeniera en Computación Gráfica
AUTORA: Oña Vilatuña María Belén
TUTOR: Fis. Campuzano Nieto Gonzalo Bayardo
QUITO, 2019
DERECHOS DE AUTOR
Yo, OÑA VILATUÑA MARÍA BELÉN en calidad de autora y titular de los derechos morales y
patrimoniales del trabajo de titulación DESARROLLO DE UN PROTOTIPO DE ESCÁNER
ÓPTICO 3D MONTADO EN UN UAV CON CÁMARA 360 UTILIZANDO
FOTOGRAMETRÍA, modalidad proyecto de investigación, de conformidad con el Art. 114 del
CÓDIGO ORGÁNICO DE LA ECONOMÍA SOCIAL DE LOS CONOCIMIENTOS,
CREATIVIDAD E INNOVACIÓN, concedo a favor de la Universidad Central del Ecuador una
licencia gratuita, intransferible y no exclusiva para el uso no comercial de la obra, con fines
estrictamente académicos. Conservo a mi favor todos los derechos de autor sobre la obra,
establecidos en la normativa citada. Así mismo, autorizamos a la Universidad Central del Ecuador
para que realice la digitalización y publicación de este trabajo de titulación en el repositorio virtual,
de conformidad a lo dispuesto en el Art. 144 de la Ley Orgánica de Educación Superior. El autor
declara que la obra objeto de la presente autorización es original en su forma de expresión y no
infringe el derecho de autor de terceros, asumiendo la responsabilidad por cualquier reclamación
que pudiera presentarse por esta causa y liberando a la Universidad de toda responsabilidad.
Firma: _________________________
Oña Vilatuña María Belén
CC: 1720439353
Dirección Electrónica: [email protected]
ii
APROBACIÓN DEL TUTOR
En mi calidad de Tutor del Trabajo de Titulación, presentado por la Srta. OÑA VILATUÑA
MARÍA BELÉN, para optar por el Grado de Ingeniera en Computación Gráfica; cuyo título es:
DESARROLLO DE UN PROTOTIPO DE ESCÁNER ÓPTICO 3D MONTADO EN UN
UAV CON CÁMARA 360 UTILIZANDO FOTOGRAMETRÍA, considero que dicho trabajo
reúne los requisitos y méritos suficientes para ser sometido a la presentación pública y evaluación
por parte del tribunal examinador que se designe, por lo que lo APRUEBO, a fin de que el trabajo
Proyecto de Investigación sea habilitado, para continuar con el proceso de titulación
determinado por la Universidad Central del Ecuador.
En la ciudad de Quito, a los 7 días del mes de agosto del 2019.
_________________________
Fis. Gonzalo Bayardo Campuzano Nieto
DOCENTE – TUTOR
C.C. 1708459118
iii
DEDICATORIA
Este trabajo está dedicado a todas las personas que me han acompañado en todo el proceso de
formación tanto académico como personal, especialmente a mi madre que siempre me ha apoyado
en todas las decisiones que he tomado y me ha acompañado a lo largo de mi vida. Todos mis
logros han sido gracias a los valores y educación que ella me ha brindado.
iv
AGRADECIMIENTOS
Agradezco al Proyecto 30 de la Facultad de Ingeniería Ciencias Físicas y Matemática y a todos
sus integrantes, que han aportado con los insumos y conocimientos para realizar este proyecto de
titulación.
Gracias a las personas que me han brindado su amistad a lo largo de mi carrera universitaria y
han hecho que el transcurso de ese tiempo pase de una manera más llevadera.
Y un agradecimiento especial al Coro de la Universidad Central por haberme acogido a lo largo
de tres años y haber despertado en mi la pasión por el canto.
v
CONTENIDO
DERECHOS DE AUTOR .............................................................................................................. ii
APROBACIÓN DEL TUTOR ...................................................................................................... iii
DEDICATORIA ............................................................................................................................ iv
AGRADECIMIENTOS .................................................................................................................. v
CONTENIDO ................................................................................................................................ vi
LISTA DE FIGURAS .................................................................................................................... ix
LISTA DE TABLAS .................................................................................................................... xii
LISTA DE ANEXOS ................................................................................................................... xiii
RESUMEN .................................................................................................................................. xiv
ABSTRACT .................................................................................................................................. xv
INTRODUCCIÓN .......................................................................................................................... 1
CAPÍTULO I .................................................................................................................................. 2
1.
Presentación del Problema ...................................................................................................... 2
1.1.
Antecedentes ................................................................................................................... 2
1.2.
Formulación del Problema .............................................................................................. 3
1.3.
Justificación .................................................................................................................... 4
1.4.
Objetivos ......................................................................................................................... 4
1.4.1.
Objetivo General ..................................................................................................... 4
1.4.2.
Objetivos Específicos.............................................................................................. 4
1.5.
Hipótesis ......................................................................................................................... 5
1.6.
Alcance ........................................................................................................................... 5
1.7.
Limitaciones.................................................................................................................... 5
CAPÍTULO II ................................................................................................................................. 6
2.
Marco Teórico......................................................................................................................... 6
2.1.
Visión por Computador................................................................................................... 6
2.1.1.
Descripción de un Sistema de Visión por Computador .......................................... 6
2.1.2.
Análisis de imágenes............................................................................................... 7
2.2.
Cámaras Digitales ........................................................................................................... 8
vi
2.2.1.
El dispositivo de carga acoplada en la captura de imágenes .................................. 8
2.2.2.
Modelo básico de cámara, punta de alfiler (pinhole).............................................. 9
2.2.3.
Distorsión de lente ................................................................................................ 13
2.2.4.
Cámara hemisférica .............................................................................................. 15
2.2.5.
Métodos de calibración de cámaras ...................................................................... 20
2.3.
Geometría de dos vistas ................................................................................................ 21
2.3.1.
Geometría Epipolar ............................................................................................... 21
2.3.2.
Matriz Fundamental .............................................................................................. 23
2.4.
Escáner tridimensional .................................................................................................. 24
2.4.1.
Escáner de contacto............................................................................................... 25
2.4.2.
Escáner sin contacto.............................................................................................. 27
2.5.
Fotogrametría Esférica .................................................................................................. 33
2.5.1.
Las ecuaciones de colinealidad para la fotogrametría esférica ............................. 36
2.5.2.
La condición de coplanaridad ............................................................................... 37
2.5.3.
Extracción de correspondencias............................................................................ 40
2.6.
Drones o UAV .............................................................................................................. 40
2.6.1.
Partes básicas de un dron ...................................................................................... 40
2.6.2.
Clasificación ......................................................................................................... 41
2.6.3.
Gimbal................................................................................................................... 42
CAPÍTULO III .............................................................................................................................. 44
3.
Metodología .......................................................................................................................... 44
3.1.
Tipo de estudio.............................................................................................................. 44
3.2.
Metodología de la investigación ................................................................................... 44
3.3.
Identificación de necesidades y requisitos para el prototipo ........................................ 46
3.3.1.
Arquitectura del prototipo ..................................................................................... 47
3.4.
Selección de técnicas y tecnologías .............................................................................. 47
3.5.
Búsqueda de ideas ......................................................................................................... 50
3.5.1.
Cámara de seguridad ............................................................................................. 50
3.5.2.
Cámara Charge Coupled Device para drones ....................................................... 51
3.5.3.
Universal Clip Lens .............................................................................................. 52
vii
3.6.
Planteamiento de soluciones ......................................................................................... 53
3.7.
Elaboración del prototipo .............................................................................................. 54
3.7.1.
Análisis para la obtención de coordenadas de un punto 3D ................................. 54
3.7.2.
Calibración de la cámara ....................................................................................... 60
3.7.3.
Toma de fotografías .............................................................................................. 61
3.7.4.
Identificación de puntos clave .............................................................................. 62
3.7.5.
Correspondencia de puntos ................................................................................... 64
3.7.6.
Algoritmo de cálculo de coordenadas 3D ............................................................. 66
3.7.7.
Métodos de Traslación y Rotación ....................................................................... 68
3.7.8.
Presentación de la nube de puntos ........................................................................ 69
3.7.9.
Elaboración del soporte para el teléfono móvil .................................................... 69
CAPÍTULO IV.............................................................................................................................. 72
4.
Pruebas y Resultados ............................................................................................................ 72
4.1.
Simulación en Cinema 4D ............................................................................................ 72
4.2.
Cálculo de coordenadas de un solo punto P.................................................................. 73
4.3.
Pruebas de vuela con el quadcópter .............................................................................. 74
4.4.
Análisis de un edificio de la Facultad de Ingeniería Ciencias Físicas y Matemática ... 76
CAPÍTULO V ............................................................................................................................... 87
5.
Conclusiones y Recomendaciones ........................................................................................ 87
5.1.
Conclusiones ................................................................................................................. 87
5.2.
Recomendaciones ......................................................................................................... 88
BIBLIOGRAFÍA .......................................................................................................................... 90
ANEXOS ...................................................................................................................................... 94
viii
LISTA DE FIGURAS
Figura 2.1 Sistema de visión por computador (Mery, 2004) .......................................................... 6
Figura 2.2 Esquema de un proceso de análisis de imágenes (Mery, 2004) .................................... 7
Figura 2.3 Sistema CCD para capturar imágenes digitales (Barranco, Martínez, & Gómez, 2016).
................................................................................................................................................. 9
Figura 2.4 Modelo de cámara pinhole (Mery, 2004). ................................................................... 10
Figura 2.5 Rotación 𝜶, 𝜷, 𝜽 de un punto alrededor de los ejes X, Y, Z (Barranco, Martínez, &
Gómez, 2016) ........................................................................................................................ 11
Figura 2.6 Geometría del pixel influye en la manera de modelar las imágenes digitales (Barranco,
Martínez, & Gómez, 2016) ................................................................................................... 12
Figura 2.7 Componente de distorsión: radial y tangencial (Aguirre, 2016). ................................ 14
Figura 2.8 Orientación Interior (Luhmann, Robson, Kyle, & Harley, 2006) ............................... 14
Figura 2.9 Proyecciones clásicas (Models for the various classical lens projections, s.f.) .......... 16
Figura 2.10 Ejemplo de diferentes proyecciones (Thody, 2012) ................................................. 18
Figura 2.11 a) Proyección de perspectiva central. b) Proyección de ojo de pez (Schwalbe). ...... 18
Figura 2.12 Relación entre el punto de objeto y el punto de imagen (Schwalbe). ....................... 19
Figura 2.13 Patrón de tablero de ajedrez (Aguirre, 2016). ........................................................... 21
Figura 2.14 Geometría de correspondencia de puntos (Hartley & Zisserman, 2004) .................. 22
Figura 2.15 Geometría epipolar (Hartley & Zisserman, 2004). .................................................... 22
Figura 2.16 Métodos de Adquisición 3D según el hardware (Ruiz Segarra, 2016) ..................... 25
Figura 2.17 Escáner de brazo articulado (Ruiz Segarra, 2016) .................................................... 26
Figura 2.18 Escáner CMM (Abdel-Bary, 2011) ........................................................................... 26
Figura 2.19 Tomografía computarizada (Da Sousa, 2016) ........................................................... 27
Figura 2.20 Tiempo de vuelo para un pulso láser (Martín Barrio, 2016) ..................................... 28
Figura 2.21 Triangulación óptica (Ruiz Segarra, 2016) ............................................................... 29
Figura 2.22 Deformación que se produce cuando la luz impacta sobre una superficie
tridimensional (Martín Barrio, 2016) .................................................................................... 30
Figura 2.23 Ejemplo de escáner que usa tecnología de Silueta (Dzananovic Ustovic, 2012). ..... 31
Figura 2.24 Del objeto a la imagen (Luhmann, Robson, Kyle, & Harley, 2006). ........................ 32
Figura 2.25 Proceso para la fotogrametría (Luhmann, Robson, Kyle, & Harley, 2006). ............. 33
ix
Figura 2.26 Creación de una imagen panorámica: a) Proyección en un plano, b) Proyección sobre
un cilíndrico, c) Proyección sobre una esfera, d) Panorama esférico (Cabezos Bernal &
Cisneros Vivó, 2016) ............................................................................................................ 34
Figura 2.27 La proyección de latitud-longitud. Relación entre las coordenadas esféricas y la
coordenada de la imagen de una imagen esférica (D'Annibale & Fangi, 2009) ................... 35
Figura 2.28 El punto de objeto P, el sistema esférico y el sistema terrestre, es un sistema centrado
en el centro de la esfera y con su eje Z' paralelo al eje Z del sistema terrestre; dicho sistema
tiene que estar orientado en un ángulo 𝜽𝟎 (Fangi & Nardinocchi, 2013). ........................... 36
Figura 2.29 Coplanaridad de dos panoramas esféricos (Fangi & Nardinocchi, 2013). ................ 38
Figura 2.30 Resultados de varios conjuntos de datos de imágenes panorámicas, que muestran los
puntos coincidentes automáticamente (b, e, h), resultados de orientación (c, f, i) y
reconstrucciones 3D de la escena (d, g, l) (Barazzetti, Fangi, Remondino, & Scaioni, 2010).
............................................................................................................................................... 39
Figura 2.31 Ejemplo de UAV de ala fija (Carrasco, 2015) .......................................................... 41
Figura 2.32 Ejemplo de UAV rotatorio (Carrasco, 2015). ........................................................... 41
Figura 2.33 Disposición de hélices de un quadcópter (García). ................................................... 42
Figura 2.34 Diferentes movimientos en un quadcópter (García). ................................................. 42
Figura 2.35 Gimbal en un dron (Ferreño, 2017) ........................................................................... 43
Figura 3.1 Fases de la Metodología de la investigación tecnológica ............................................ 45
Figura 3.2 Esquema del proceso del prototipo.............................................................................. 47
Figura 3.3 Característica VR cam (Manual usuario cámara 360°, s.f.) ........................................ 51
Figura 3.4 Cámara CCD FPV (Tipos de cámara FPV para un dron de carrera, s.f.) .................... 52
Figura 3.5 Kit Universal clip lens (Villareal, 2017) ..................................................................... 53
Figura 3.6 Diagrama de la relación de dos imágenes hemisféricas. .......................................... 55
Figura 3.7 Vista lateral izquierda .................................................................................................. 56
Figura 3.8 Vista inferior................................................................................................................ 56
Figura 3.9. Representación en pixeles de cada imagen. ............................................................... 58
Figura 3.10 Ejemplo de fotografía de patrón de ajedrez. .............................................................. 60
Figura 3.11 Código de la función cv2.fisheye.calibrate. .............................................................. 60
Figura 3.12 Posición de la cámara en cada fotografía .................................................................. 61
x
Figura 3.13 Código: Algoritmo cv2.goodFeaturesToTrack ......................................................... 62
Figura 3.14 Esquina en una imagen .............................................................................................. 63
Figura 3.15 Ejemplo algoritmo SIFT ............................................................................................ 63
Figura 3.16 Ejemplo algoritmo ORB para la detección de puntos clave ...................................... 64
Figura 3.17 Código algoritmo ORB para la coincidencia de características ................................ 65
Figura 3.18 Cálculo de Matriz Fundamental y su Determinante .................................................. 66
Figura 3.19 Método para la obtención de los puntos 3D .............................................................. 67
Figura 3.20 a) Método de traslación. b) Método de rotación....................................................... 68
Figura 3.21 Ejemplo de presentación de puntos 3D ..................................................................... 69
Figura 3.22 Diseño de soporte 3D ................................................................................................ 70
Figura 3.23 Simulación de montaje de soporte en el quadcópter ................................................. 70
Figura 3.24 Impresora DIY 2018 .................................................................................................. 71
Figura 3.25 Resultado del soporte impreso................................................................................... 71
Figura 4.1 Simulación en Cinema 4D. .......................................................................................... 72
Figura 4.2 a) Imagen 1 b) Imagen 2. ............................................................................................. 73
Figura 4.3 Error en la forma de la semiesfera ............................................................................... 74
Figura 4.4 Dispositivo acoplado al quadcópter............................................................................. 75
Figura 4.5 Edificio de la Facultad de Ingeniería Ciencias Físicas y Matemática ......................... 76
Figura 4.6 Distribución de las fotografías del edificio de la facultad ........................................... 77
Figura 4.7 Medidas necesarias para el análisis. ............................................................................ 78
Figura 4.8 Fotografías tomadas del edificio de estudio. ............................................................... 79
Figura 4.9 Resultado algoritmo goodFeaturesToTrack ................................................................ 79
Figura 4.10 Resultado algoritmo ORB ......................................................................................... 80
Figura 4.11 Resultado algoritmo Brute Force Matcher ................................................................ 81
Figura 4.12 Sintaxis del algoritmo para guardar puntos de interés de una imagen. ..................... 83
Figura 4.13 Resultados de la nube de puntos. a) Vista Frontal. b) Vista Superior. c) Vista Lateral.
............................................................................................................................................... 84
Figura 4.14 Comparación entre el edificio real y la nube de puntos obtenida. ............................. 84
xi
LISTA DE TABLAS
Tabla 1: Cuadro comparativo de Lenguaje de Programación ....................................................... 48
Tabla 2: Cuadro comparativo de IDE’s que trabajan con Python. ............................................... 49
Tabla 3: Cuadro comparativo de librerías de visión computacional............................................. 50
Tabla 4: Longitud focal de la cámara FPV ................................................................................... 52
Tabla 5 Cuadro comparativo de las opciones de cámara .............................................................. 54
Tabla 6. Análisis de cada uno de los posibles casos. .................................................................... 58
Tabla 7: Características LG K8..................................................................................................... 69
Tabla 8: Características de impresora 3D ..................................................................................... 71
Tabla 9: Resumen de resultados de la prueba 1 ............................................................................ 73
Tabla 10 Resumen de resultados de la prueba 2 ........................................................................... 74
Tabla 11: Resultados de la primera prueba de vuelo .................................................................... 75
Tabla 12: Resultados del producto: 𝒙′𝑻𝑭𝒙, con puntos correspondientes ................................... 82
Tabla 13: Estimación del error. ..................................................................................................... 85
Tabla 14: Ejemplo del análisis realizado para estimar en error de los ejes. ................................. 85
Tabla 15: Características del Dron Tarot ...................................................................................... 94
xii
LISTA DE ANEXOS
ANEXO 1. CARACTERÍSTICAS DEL DRON TAROT ............................................................ 94
ANEXO 2. ANÁLISIS DE LAS TRES CÁMARAS PROPUESTAS ......................................... 95
ANEXO 3. TOMA DE FOTOGRAFÍAS EN LAS PRUEBAS DE VUELO ............................ 108
xiii
TÍTULO: Desarrollo de un prototipo de escáner óptico 3D montado en un UAV con cámara
omnidireccional utilizando la técnica de fotogrametría esférica.
Autor: Oña Vilatuña María Belén
Tutor: Fis. Gonzalo Bayardo Campuzano Nieto
RESUMEN
El presente proyecto consiste en el desarrollo de un prototipo de escáner 3D utilizando como base
la técnica de fotogrametría haciendo uso de una cámara omnidireccional o de 360° como una
alternativa rápida para la obtención de modelos 3D principalmente de espacios exteriores. En una
primera instancia se realizó una investigación sobre la técnica de Fotogrametría que haga uso de
este tipo de lentes de 360° para este propósito, con la finalidad de conocer su complejidad ya que
este mercado no ha sido explorado en países de Latinoamérica. Se seleccionó la herramienta de
software libre más adecuado para el procesamiento de imágenes, la cual fue Python, y la librería
OpenCV. Este prototipo ha sido desarrollado de tal forma que la captura de imágenes se lo pueda
realizar con la ayuda de un UAV (vehículo aéreo no tripulado) con la finalidad de en un futuro
poder obtener fotografías aéreas de una determinada edificación.
PALABRAS CLAVE: FOTOGRAMETRÍA ESFÉRICA / ESCÁNER TRIDIMENSIONAL /
DIGITALIZACIÓN 3D / CÁMARA OMNIDIRECCIONAL.
xiv
TITLE: Development of a 3D optical scanner prototype assembled on a UAV with
omnidirectional camera using the spherical photogrammetry technique.
Author: Oña Vilatuña María Belén
Tutor: Fis. Gonzalo Bayardo Campuzano Nieto
ABSTRACT
The present project consists of the development of a prototype of 3D scanner using as a base the
technique of photogrammetry in the use of an omnidirectional camera or 360° as a fast alternative
for the obtaining of 3D models mainly of exterior spaces. In the first time an investigation was
carried out on the photogrammetry technique that makes use of this type of 360 ° lens for this
purpose, with the objective of knowing its content and that this market has not been explored in
the Latin American countries. It is selected the most appropriate free software tool for image
processing, which was Python, and the OpenCV library. This prototype has been developed in such
a way that the capture of images can be done with the help of a UAV (unmanned aerial vehicle)
with the purpose of a future to obtain the characteristics of a specific building.
KEYWORDS: SPHERICAL PHOTOGRAMMETRY / THREE-DIMENSIONAL SCANNER /
3D DIGITIZATION / OMNIDIRECTIONAL CAMERA.
xv
INTRODUCCIÓN
La digitalización 3D se ha convertido en una herramienta poderosa en varias industrias como
arquitectura, ingeniería, medicina, educación, arte, diseño entre otros, permitiendo obtener un
modelo 3D de cualquier objeto. Hoy en día, en nuestro país dicha tecnología no ha sido explotada
a plenitud generalmente se realizan escaneos 3D de piezas arquitectónicas, espacios interiores,
animales, objetos varios, siendo el común denominador de todos estos su reducido tamaño que va
desde centímetros hasta unos pocos metros.
En Ecuador no existe un registro de una digitalización 3D de edificaciones completas debido a la
complejidad que esto podría resultar además de los altos costos y el tiempo invertido, tampoco se
utilizan fotografías panorámicas para la obtención de información; por esta razón el presente
proyecto de investigación se enfoca en el desarrollo de un prototipo de escáner 3D capaz de
digitalizar estructuras de cualquier tamaño, para esto se hará uso de una lente omnidireccional ya
que su campo de visión es mucho más amplio, obteniendo así más información de una imagen que
una fotografía común.
En este caso se utilizará la técnica de fotogrametría que ha resultado una técnica poderosa utilizada
para el escaneo 3D a gran escala. Debido al tipo de imágenes con las que se trabajará se pretende
hacer uso de una técnica denominada Fotogrametría Esférica desarrollada por investigadores
italianos.
1
CAPÍTULO I
1. Presentación del Problema
1.1.
Antecedentes
En los últimos 20 años se ha dado una aceleración en la mejora de procesos digitales para la
obtención de modelos tridimensionales donde la aportación fotográfica en los sistemas
tradicionales de medición ha hecho la diferencia. La Fotogrametría es una novedosa solución para
la obtención de modelos en 3D, esta se basa en la utilización de imágenes tomadas desde todos los
puntos de vista del objeto, sobre las que se encontrará puntos homólogos para obtener un modelo
tridimensional (Rodriguez Navarro).
Así como los procesos digitales han mejorado, la fotografía también lo ha hecho con la aparición
de las imágenes panorámicas, las cuales en un principio se las obtenía a través de la costura de
imágenes y cuya ventaja es su gran campo de visión, gracias a este avance investigadores italianos.
A este respecto, Luigi Barazzetti, Enzo d'Annibale, Gabriele Fangi (Automation in Multi-Image
Spherical Photogrammetry for 3D Architectural Reconstructions, 2010) de la Università
Politecnica delle Marche desarrollaron la llamada técnica de Fotogrametría Esférica que usa
imágenes panorámicas para la obtención de modelos 3D, además desarrollaron las ecuaciones
fotogramétricas fundamentales para esta técnica.
La Fotogrametría Esférica ha sido probada por sus creadores en varias partes del mundo entre las
cuales podemos mencionar los siguientes:
Jordania
Para el año 2009 el procedimiento ya había sido probado; sin embargo, ni la fase de orientación ni
trazado eran automatizadas, además existía la limitación de la difícil identificación de
puntos correspondientes sobre todo si de superficies rugosas y desiguales hablamos.
Debido a lo cual se optó por la edición interactiva 3D del modelo obtenido. El caso de
estudio fue el Monasterio Al Deir en Petra, siendo el monumento más grande de esa
localidad con 40 m de ancho. (D'Annibale & Fangi, 2009)
Siria
Durante un viaje realizado por Fangi a Siria, pudo realizar una cobertura fotográfica de sitios de
la UNESCO, este trabajo sería de vital importancia pues la guerra civil que estalló en 2011 provocó
2
graves daños a sus monumentos. La ciudadela de Alepo fue uno de los lugares estudiados, se
realizó la reconstrucción virtual no solo de la ciudadela sino también de la mezquita. (Fangi,
Piermattei, & Wahbeh, Spherical Photogrammetry as Rescue Documentation for The
Reconstruction of some UNESCO Sites in Syria, 2013)
Brasil
Brasil cuenta con el Laboratorio de Gráficos por Computador aplicados al diseño y arquitectura
en la Escuela de Arquitectura de la Universidad Federal de Bahía, ellos en colaboración con la
Università Politecnica delle Marche, Italia, trabajaron en la documentación de patrimonio
arquitectónico de Bahía además de construir una plataforma tecnológica para observar los modelos
3D de sus monumentos. (Fangi, de Amorim, & Malinverni, 2013)
Vietnam
La Universidad Politécnica delle Marche se encargó del estudio y documentación de las Torres
Chan en Vietnam. La etapa de orientación de Fotogrametría Esférica dio como resultado un
conjunto de panoramas útil para las salidas del modelo 3D. El primer producto fue el modelo
tridimensional, el cual fue texturizado y renderizado utilizando la imagen rectificada original.
(Fangi, Malinverni, & Tassetti, 2013)
El desarrollo de la Técnica de Fotogrametría Esférica ha sido la base para que investigadores de
otros países realicen sus propias reconstrucciones utilizando cada vez cámaras más modernas
como es el caso de la Samsung Gear 360° o la Panono 360° compuesta por 36 cámaras que cubren
un campo de visión completo.
1.2.
Formulación del Problema
Existen varias industrias que utilizan el escaneo 3D para sus fines; sin embargo, este tipo de
tecnologías suponen un alto costo y tiempo al momento de llevarlos a cabo. Para la replicación de
objetos pequeños la iluminación estructurada o el escáner por triangulación han sido la principal
herramienta utilizada, dando resultados favorables, pero en el caso de un escaneo 3D de espacios
más amplios y el de edificios ha significado un verdadero reto. Una de las soluciones encontrada
ha sido el modelado pieza por pieza que dicho espacio, o en el caso de construcciones más
3
elaboradas se ha hecho uso de los planos de las mismas, a pesar de que los resultados sean
adecuados, el tiempo que conlleva hacerlo puede durar varios meses.
1.3.
Justificación
Ecuador ha demostrado un creciente desarrollo en la utilización de tecnologías de digitalización
3D, a pesar de ello la mayor parte de estos estudios han sido utilizando cámaras unifocales o
bifocales. El uso de cámaras 360 a pesar de proporcionar una imagen mucho más amplia y
completa que nos da mayor información en una sola fotografía no ha sido muy utilizado, por lo
que proyectos enfocados con este tipo de cámaras han sido desarrollados mayoritariamente en
países de Europa y Estados Unidos.
Además, debemos tomar en cuenta que en nuestro país no hay un registro de réplicas
tridimensionales de edificios o estructuras de mayor escala. Por ello, disponer de esta tecnología
de vanguardia en Ecuador marcaría un paso importante en la evolución del escaneo 3D en esta
región.
1.4.
Objetivos
1.4.1. Objetivo General

Desarrollar un prototipo de escáner 3D que use una cámara omnidireccional (360°) para la
digitalización de edificaciones.
1.4.2. Objetivos Específicos

Estudiar la mejor herramienta para la digitalización 3D que use cámaras omnidireccionales.

Usar la fotogrametría para componer una geometría tridimensional a partir de imágenes.

Utilizar un UAV para la obtención de toma aérea de un espacio determinado.

Obtener una nube de puntos correspondientes a partir de dos imágenes del mismo espacio.
4
1.5.
Hipótesis
Dado que en Ecuador solamente existen escáneres 3D orientados a la digitalización de objetos
pequeños. La incursión de la tecnología de escáner 3D con cámaras omnidireccionales sería la
respuesta para obtener un modelo tridimensional de edificaciones u objetos de gran escala.
1.6.
Alcance
El presente estudio proporciona las bases para la elaboración del prototipo de escáner 3D con
cámara 360°, tanto en fundamentos fotogramétricos basados en panoramas esféricos; análisis de
los componentes que serán necesarios para la adaptación del quadcópter y su funcionamiento;
procesamiento de las imágenes obtenidas, además de la obtención de la nube de puntos del lugar
a ser escaneado.
1.7.
Limitaciones

El desarrollo de un escáner tridimensional que nos dé resultados de calidad con frecuencia
requiere del trabajo de un equipo conformado por un número considerable de personas las
cuales necesitan estar preparadas y tener experiencia en cada área determinada.

El procesamiento de imágenes para fotografías omnidireccionales las cuales poseen una
aberración considerable requiere de un análisis espacial.

La manipulación de un quadcópter suele ser realizado por personas con años de práctica.
5
CAPÍTULO II
2. Marco Teórico
2.1.
Visión por Computador
La visión por computador es la transformación de datos de una fotografía o vídeo en una nueva
representación, estas transformaciones se las hace con un objetivo específico. Una nueva
representación podría ser el convertir una imagen de color a otra en escala de grises, o eliminar el
movimiento de la cámara en una secuencia de imágenes (Kaehler & Bradski, 2016).
Haralick y Shapiro (Computer and robot vision, 1992) definen a la Visión por Computador como
la ciencia que desarrolla las bases teóricas y algorítmicas para obtener información sobre el mundo
real a partir de una o varias imágenes. Así, se deja establecido la forma en que se va a tratar este
concepto a lo largo del trabajo.
2.1.1. Descripción de un Sistema de Visión por Computador
Como Mery (2004) nos muestra en su libro “Visión por Computador” los componentes de un
sistema de visión por computador son:
Figura 2.1 Sistema de visión por computador (Mery, 2004)
6

El manipulador: ayuda a colocar al objeto de estudio en la posición deseada sin que este
sea tocado por el humano. Al poseer grados de libertad (traslación y/o rotación) indica los
posibles movimientos que puede hacer para mover el objeto.
Hay configuraciones en donde el manipulador mueve a las cámaras en lugar de al objeto.

Fuente de energía: según el análisis que se desee hacer, se debe escoger el tipo de luz a
utilizar como, por ejemplo: rayos X para una tomografía, luz (visible) para la fotografía,
calor en la termología, etc.

Sensor de imagen: debe ser sensible a la luz que se ha utilizado, teniendo un elemento
fotosensible que transforme fotones reflejados por el objeto en alguna señal eléctrica.

Conversor Análogo-Digital: convierte la señal eléctrica en un código binario que será
interpretado por un computador para conformar la imagen digital de estudio.

Computador: procesa la imagen enviada por el conversor análogo-digital. Entre las tareas
de un computador tenemos: mejoramiento de imagen, segmentación, clasificación y
análisis espacial.
2.1.2. Análisis de imágenes
El esquema de un proceso de análisis de imágenes es el siguiente:
Figura 2.2 Esquema de un proceso de análisis de imágenes (Mery, 2004)
7

Adquisición: Se adquiere la imagen apropiada del objeto de estudio.

Procesamiento: Se emplean ciertos filtros digitales que ayuden a mejorar la imagen, como
eliminación de ruido, o aumento de contraste.
Segmentación: Se identifica el objeto de estudio de la imagen.

Medición: Extracción de características.

Interpretación: Según los valores obtenidos se lleva a cabo la interpretación del objeto.
2.2.

Cámaras Digitales
Actualmente la tecnología para desarrollar la visión por computadora se ha basado en las cámaras
digitales, ya que tienen propiedades de una fuente de información digital. Estás cámaras capturan
imágenes o vídeos que se traducen en fotografías o frames los cuales serán analizados por un
microprocesador que ayuda en la toma de decisiones sobre que rutas seguir. Una fotografía ayuda
a observar el entorno y analizarlo a través de programas de cómputo (Barranco, Martínez, &
Gómez, 2016).
2.2.1. El dispositivo de carga acoplada en la captura de imágenes
Barranco, Martínez, y Gómez (Visión estereoscópica por computadora con Matlab y OpenCV,
2016) nos dice que para conocer cómo se trabajaría con una imagen proveniente de una cámara
digital es necesario saber la técnica utilizada en la fotografía digital. Este proceso se lleva a cabo
por medio de un dispositivo llamado: dispositivo de cargas interconectadas CCD o en inglés,
Charge-Coupled Device. El CCD es un circuito integrado que posee un número específico de
condensadores acoplados en forma de matriz, estos condensadores son sensores de luz de una
determinada frecuencia, que son las frecuencias de color azul, verde y rojo que constituyen el
esquema RGB.
El CCD está compuesto por una matriz de n.m números de sensores de luz los cuales translucen la
energía luminosa a movimiento de electrones provocando una corriente eléctrica. A continuación,
se muestra la configuración de un sistema CCD (Barranco, Martínez, & Gómez, 2016).
8
Figura 2.3 Sistema CCD para capturar imágenes digitales (Barranco, Martínez, & Gómez,
2016).
2.2.2. Modelo básico de cámara, punta de alfiler (pinhole)
Sámano Molina (2013) afirma que la mayoría de procedimientos para la calibración de cámara se
basaron en la cámara pinhole, que es el modelo más simple de una cámara. Este modelo consiste
en un centro óptico C, donde convergen todos los rayos de la proyección y un plano R donde se
proyecta la imagen. El plano de la imagen está ubicado a una distancia focal1 f del centro óptico
y perpendicular al eje Z.
Considerando la proyección central de puntos en el espacio dentro de un plano. Siendo el centro
de proyección el origen de un sistema de coordenadas euclidiano, se considera el plano 𝑅, el cual
es llamado plano focal o plano de imagen. Bajo el modelo de cámara pinhole, un punto en el
espacio con coordenadas 𝑿 = (𝑋, 𝑌, 𝑍)𝑇 es asignado un punto sobre el plano de imagen, donde
una línea que une el centro de proyección con el punto M se encuentra en el plano de imagen,
como se muestra en la Figura 2.4 (Sámano Molina, 2013).
1
La distancia focal o longitud focal de una lente es la distancia entre el centro óptico de la lente y el foco (o punto
focal).
9
Figura 2.4 Modelo de cámara pinhole (Mery, 2004).
En la recta ̅̅̅̅̅
𝐶𝑀, m es el punto 2D de intersección que tiene esta recta con el plano de imagen, se
lo puede representar como:
𝑚 = ̅̅̅̅̅
𝐶𝑀 ∩ 𝑅
Continuando con Sámano Molina (2013) el centro de proyección es llamado también centro de
cámara o centro óptico. La línea desde el centro de cámara se denomina eje principal o rayo
principal de la cámara, y el punto donde el eje principal se encuentra con el plano es llamado punto
principal.
Barranco, Martínez y Gómez (Visión estereoscópica por computadora con Matlab y OpenCV,
2016) nos dice que existe una transformación de 3D a 2D muy utilizada que se lo puede representar
de la siguiente manera:
̃
𝑠𝑚 = 𝐴[𝑅𝑡]𝑀
Donde:
̃ = (x, y, z, 1)T : es un punto 3D del objeto en coordenadas homogéneas.
M
m
̃ = (u, v, 1)T : es el mismo punto 2D anterior.
s: factor de escala
[Rt]: Matriz de parámetros extrínsecos de la cámara.
A: Matriz de parámetros intrínsecos de la cámara.
10
2.2.2.1.
Parámetros Extrínsecos
Barranco, Martínez, & Gómez (2016) explican en su libro Visión estereoscópica por computadora
con Matlab y OpenCv, que se refiere al decir parámetros Extrínsecos e Intrínsecos, lo cual se verá
a continuación:
[𝑅 𝑡] es la matriz de parámetros extrínsecos de la cámara, o también llamada matriz de parámetros
externos, que definen la posición de la cámara en el sistema de coordenadas del mundo real. R es
una matriz de rotación la cual alinea los ejes X, Y, Z en la misma dirección y sentido. El vector t
es el vector de traslación que traslada el origen de sistema de coordenadas del objeto en el espacio
al sistema de coordenadas de cámara.
𝑡 = [𝑡𝑥 , 𝑡𝑦 , 𝑡𝑧 ]
Gracias a tres matrices de rotación alrededor del eje X que está especificada con un ángulo α,
rotación alrededor del eje Y especificada por β y la rotación alrededor del eje Z dada por θ, se da
la rotación de ejes.
Figura 2.5 Rotación (𝜶, 𝜷, 𝜽) de un punto alrededor de los ejes X, Y, Z (Barranco, Martínez, &
Gómez, 2016)
A continuación, se muestran las matrices de rotación de cada uno de los ejes.
1
0
0
cos
(𝛼)
𝑅𝛼 = [
0 −sen(𝛼)
cos(𝛽)
𝑅𝛽 = [ 0
sen(𝛽)
11
0
sen(𝛼)]
cos(𝛼)
0 −sen(𝛽)
1
0
]
0 cos(𝛽)
cos(𝜃)
𝑅𝜃 = [sen(𝜃)
0
−sen(𝜃)
cos(𝜃)
0
0
0]
1
Al multiplicar las tres matrices para trabajar solo con una tenemos lo siguiente:
𝑐𝑜𝑠(𝛽)𝑐𝑜𝑠(𝜃)
𝑅 = 𝑅𝛼 𝑅𝛽 𝑅𝜃 [𝑠𝑒𝑛(𝛼) 𝑠𝑒𝑛(𝛽)𝑐𝑜𝑠(𝜃) + 𝑐𝑜𝑠(𝛼) 𝑠𝑒𝑛(𝜃)
𝑐𝑜𝑠(𝛼)𝑠𝑒𝑛(𝛽) 𝑐𝑜𝑠(𝜃) − 𝑠𝑒𝑛(𝛼) 𝑠𝑒𝑛(𝜃)
−𝑐𝑜𝑠(𝛽)𝑠𝑒𝑛(𝜃)
−𝑠𝑒𝑛(𝛽)
−𝑠𝑒𝑛(𝛼) 𝑠𝑒𝑛(𝛽)𝑠𝑒𝑛(𝜃) + 𝑐𝑜𝑠(𝛼) 𝑐𝑜𝑠(𝜃) 𝑠𝑒𝑛(𝛼)cos(𝛽)]
− cos(𝛼) 𝑠𝑒𝑛(𝛽)𝑠𝑒𝑛(𝜃) − 𝑠𝑒𝑛(𝛼)cos(𝜃) cos(𝛼) cos(𝛽)
La matriz de rotación R de forma simplificada se la encuentra de la siguiente manera:
𝑟11 𝑟12 𝑟13
𝑅 = [𝑟21 𝑟22 𝑟23 ]
𝑟31 𝑟32 𝑟33
Por lo tanto, la versión de matriz aumentada con el vector de traslación:
𝑟11 𝑟12 𝑟13 𝑡1
[𝑅𝑡] = [𝑟21 𝑟22 𝑟23 𝑡2 ]
𝑟31 𝑟32 𝑟33 𝑡3
2.2.2.2.
Parámetros Intrínsecos
Los parámetros intrínsecos definen la geometría interna y la óptica de la cámara. Estos determinan
cómo la cámara proyecta los puntos del mundo 3D al plano de la imagen en 2D. Nos proporciona
la siguiente información:
Los coeficientes fx y fy nos da información de las dimensiones del pixel, su ancho y alto.
El centro de la imagen C.
El parámetro s es llamado skew y constituye la inclinación del pixel la cual se considera muy
pequeña o cero.
Figura 2.6 Geometría del pixel influye en la manera de modelar las imágenes digitales
(Barranco, Martínez, & Gómez, 2016)
12
Formalmente, estos valores vienen representados por una matriz K.
𝑓𝑥
𝐾 = [0
0
𝑠
𝑓𝑦
0
𝐶𝑥
𝐶𝑦 ]
1
Para encontrar el punto de la fotografía correspondiente al punto del espacio fotografiado se utiliza
la matriz:
𝑠𝑢
𝑓𝑥
[𝑠𝑣 ] = [ 0
𝑠
0
𝑠
𝑓𝑦
0
𝐶𝑥 𝑟11
𝐶𝑦 ] [𝑟21
1 𝑟31
𝑟12
𝑟22
𝑟32
𝑟13 𝑡1 𝑋
𝑟23 𝑡2 ] [𝑌 ]
𝑟33 𝑡3 𝑍
1
Al realizar el producto de la matriz de parámetros extrínsecos y la matriz de parámetros intrínsecos
obtenemos lo siguiente:
𝑚11
𝑠𝑢
[𝑠𝑣 ] = [𝑚21
𝑚31
𝑠
𝑚12
𝑚22
𝑚32
𝑚13 𝑚14 𝑋
𝑚23 𝑚24 ] [𝑌 ]
𝑚33 𝑚34 𝑍
1
2.2.3. Distorsión de lente
La curvatura de la lente de una cámara introduce una deformación de la imagen, debido a esta
distorsión las líneas del espacio 3D que son rectas serán vistas como líneas curvas. Este efecto
suele ser despreciable en el centro de la imagen, pero se va a grabando a medida que se acerca a
los extremos, donde la normal de la superficie deja de ser paralela al eje óptico (Mery, 2004).
Para (Aguirre, 2016) los efectos de la distorsión se traducen en una variación de posición de los
puntos de la imagen, se constituyen por una componente radial y otra tangencial.
13
Figura 2.7 Componente de distorsión: radial y tangencial (Aguirre, 2016).
Según Luhmann, Robson, Kyle, y Harley (Close Range Photogrammetry Principles, techniques
and applications, 2006) una cámara se puede modelar como un sistema espacial que consiste en
un área de imagen plana (película o Sensor electrónico) y la lente con su centro de perspectiva.
Los parámetros de orientación interior de una cámara definen la posición espacial del centro de
perspectiva, la distancia principal y la ubicación del punto principal. También abarcan
desviaciones del principio de perspectiva central para incluir distorsión radial y tangencial y, a
menudo, afinidad y ortogonalidad de imagen.
Figura 2.8 Orientación Interior (Luhmann, Robson, Kyle, & Harley, 2006)
Tras incluir la distorsión en una imagen queda definido su proceso de formación, la orientación
interna que depende de los parámetros internos siguientes (Luhmann, Robson, Kyle, & Harley,
2006).
• Punto principal H′:
14
Centro de perspectiva con coordenadas de imagen (x′0, y′0), para cámaras estándar
aproximadamente igual al centro de la imagen: H′ ≈ M′
• Distancia principal c:
Distancia normal al centro de perspectiva desde el plano de la imagen en la dirección negativa de
z′; aproximadamente igual a la distancia focal de la lente cuando se enfoca en el infinito: c ≈ f ′
• Parámetros de funciones que describen errores de imagen:
Las funciones o los parámetros que describen las desviaciones del modelo de perspectiva central
están dominados por el efecto de la distorsión radial simétrica Δ′.
Si se conocen estos parámetros, el vector de imágenes (sin errores) x' se puede definir con respecto
al centro de perspectiva:
𝑥′𝑝 − 𝑥′0 − ∆𝑥′
𝑥′
𝒙′ = [𝑦′] = [𝑦′𝑝 − 𝑦′0 − ∆𝑦′]
𝑧′
−𝑐
Donde:
(𝑥′𝑝 , 𝑦′𝑝 ): Coordenadas imagen medidas del punto p
(𝑥′0 , 𝑦′0): Coordenadas del punto principal H’.
∆𝑥 ′ , ∆𝑦 ′: Correcciones.
2.2.4. Cámara hemisférica
La cámara hemisférica está compuesta por una cámara digital equipada con un lente angular u ojo
de pez, estos lentes tienen una distancia focal extremadamente corta. Además, estos cuentan con
un campo visual cercano a los 180° (Diaz, Lencinas, & del Valle, 2014).
Según nos dicen (Marcato, Antunes, & Garcia, 2015) la cámara con lente ojo de pez debe calibrarse
para usarse en aplicaciones que requieren alta precisión. En fotogrametría, la colinealidad, basado
en la proyección en perspectiva junto con modelos de distorsión de lente, se usa para la calibración
de la cámara. Sin embargo, las lentes de ojo de pez están diseñadas siguiendo diferentes modelos
de proyección, tales como: estéreo-gráfico, equidistante, ortogonal y ángulo equi-sólido.
15
Proyecciones clásicas de lentes
Existen 5 modelos de proyecciones más utilizadas, las cuales se encuentran representadas a
continuación. Donde el eje horizontal es el ángulo de la luz incidente en la lente donde 0 grados
están a lo largo del eje de la lente. El eje vertical es proporcional al radio en la imagen de ojo de
pez donde esa luz sale de la lente (Bourke, 2017).
Figura 2.9 Proyecciones clásicas (Models for the various classical lens projections, s.f.)
Esta gráfica ilustra la distancia r que se extiende desde el centro de la imagen hasta el punto de
Imagen (en el plano de la imagen) en función del ángulo θ medido desde el eje longitudinal de la
lente hasta el punto de interés correspondiente (en el espacio objeto).

La fórmula para la proyección no distorsionada "estándar" (también conocida
como perspectiva central o rectilínea) es r = f tan θ.
La mayoría de las lentes fotográficas pertenecen a este primer tipo de proyección que
representa líneas rectas en el espacio del objeto como líneas rectas en el plano de la imagen. Por
otro lado, las fórmulas trigonométricas para las proyecciones de imágenes de ojo de pez se definen
16
con mayor frecuencia arbitrariamente mediante expresiones verbales que corresponden a
funciones matemáticas (Models for the various classical lens projections, s.f.).
Tales categorías clásicas son:

Proyección estereográfica: r = 2f tan (θ / 2)

Proyección de equidistancia (también conocida como equiangular): r = f θ

Proyección de ángulo equisólido (también conocido como área igual): r = 2f sin (θ / 2)

Proyección ortográfica (también conocida como ley de seno): r = f sin (θ)
A primera vista cualquier imagen ojo de pez completamente circular se ve casi igual a cualquier
otra para el espectador casual; sin embargo, están lejos de serlo, todo depende de la proyección
que están utilicen.
A continuación, tenemos un ejemplo de cada una:
a) Proyección estereográfica (Longitud focal 7 mm)
b) Proyección de ojo de pez equidistante (Longitud focal 7.6 mm)
c) Proyección de ojo de pez de ángulo equisólido (Longitud focal 9.2 mm)
d) Proyección ortográfica de ojo de pez (Longitud focal 12.2 mm)
a)
b)
17
c)
d)
Figura 2.10 Ejemplo de diferentes proyecciones (Thody, 2012)
La geometría de una imagen tomada con una lente ojo de pez no cumple con la proyección de
perspectiva central donde el ángulo de incidencia del rayo desde un determinado punto de objeto
será igual al ángulo entre el rayo y el eje óptico dentro del espacio de la imagen (Figura 2.11). Las
cámaras ojo de pez tienen lentes con una función de proyección diferente y siguen el modelo de
cámara omnidireccional, la proyección de ojo de pez se basa en el principio de que, en el caso
ideal, la distancia entre un punto de imagen y el punto principal depende del ángulo de incidencia
del rayo desde el punto del objeto correspondiente (Figura 2.11).
Figura 2.11 a) Proyección de perspectiva central. b) Proyección de ojo de pez (Schwalbe).
18
La proyección se puede definir en un mapeo de un punto 3D a un punto 2D en el plano de la
imagen del modelo, cada rayo atraviesa el centro de proyección e interseca la esfera de la imagen,
que determina la dirección del rayo (Beekmans, y otros, 2016). Para un lente de 180°, se proyecta
un rayo de punto de objeto con un ángulo incidente de 90° en el borde exterior de la imagen circular
(Figura 2.12), lo que significa que el punto de la imagen resultante tiene la distancia máxima del
eje óptico. La relación entre la distancia resultante del punto de imagen y el ángulo de incidencia
es constante para toda la imagen (Schwalbe). Por lo que la siguiente ecuación es básica para la
proyección de ojo de pez:
𝛼 90°
=
𝑟
𝑅
𝐷𝑜𝑛𝑑𝑒 𝑟 = √𝑥′2 + 𝑦′2
donde α = ángulo de incidencia
r = distancia entre el punto de imagen y el eje óptico
R = radio de la imagen
x’, y’ = coordenadas de la imagen
Figura 2.12 Relación entre el punto de objeto y el punto de imagen (Schwalbe).
19
2.2.5. Métodos de calibración de cámaras
La calibración es el método que nos permite estimar los parámetros extrínsecos e intrínsecos de la
cámara. Una vez que calibre una cámara, puede usar la información de la imagen para recuperar
información tridimensional de las imágenes bidimensionales, también es posible estimar
parámetros de distorsión de la lente (Mery, 2004).
Según Rober Tsai (1987) la calibración debe satisfacer varias condiciones como son:

Autonomía: No debe necesitar de la mano humana.

Precisión: Se debe obtener un resultado de alta precisión para lo cual se deberá incluir la
distorsión de las lentes.

Eficiencia: Se deberá realizar a una velocidad elevada, así como incluir algoritmos de gran
potencial.

Versatilidad: Recogerá varias posibilidades en cuando a configuraciones y aplicaciones.
Existen varias técnicas para la calibración de cámara, entre estas tenemos las siguientes (Barranco,
Martínez, & Gómez, 2016):

Método de Fougeras
Para utilizar este método se debe conocer los parámetros intrínsecos y los parámetros extrínsecos
de la cámara.

Método de Zhang
Este modelo propone la calibración basado en la observación de una plantilla plana (tablero de
juego de ajedrez) que será analizado desde varias posiciones. Este método nos permite obtener los
parámetros de la cámara a partir de un sistema de referencia como es el plano cuadriculado, en el
cual no se necesita saber las posiciones de los puntos de interés, ni la posición donde se encuentra
la cámara. El plano se lo puede mover simplemente con la mano, lo que hace que sea un método
flexible.
20
Figura 2.13 Patrón de tablero de ajedrez (Aguirre, 2016).
2.3.
Geometría de dos vistas
En el análisis bifocal se tiene un sistema de visión de dos cámaras, o bien una sola cámara que
toma dos imágenes del objeto de estudio en dos tiempos distintos (Mery, 2004).
2.3.1. Geometría Epipolar
Hartley y Zisserman (Multiple View Geometry in compyter vision, 2004) nos dicen que la
geometría epipolar entre dos vistas es esencialmente la geometría de la intersección de los planos
de la imagen. Esta geometría generalmente está motivada a considerar la búsqueda de puntos
correspondientes en coincidencia estéreo. Supongamos que se tiene un punto X en el espacio 3D,
este punto se visualiza en dos vistas diferentes, x en la primera y x’ en la segunda. Como se muestra
en la Figura 2.14, los puntos de imagen x y x’, el punto espacial X y los centros de la cámara son
coplanares. Este plano se denota como π. Claramente, los rayos proyectados hacia atrás desde x y
x’ se intersecan en X, y los rayos son coplanarios, que se encuentran en π. Es esta última propiedad
la que tiene mayor importancia en la búsqueda de una correspondencia (Hartley & Zisserman,
2004).
21
Figura 2.14 Geometría de correspondencia de puntos (Hartley & Zisserman, 2004)
En el caso de que solo se sepa el punto x, se desea encontrar su correspondiente x’. El plano π está
determinado por la línea base y el rayo definido por x. Desde arriba se sabe que el rayo
correspondiente al punto desconocido x’ se encuentra en π, por lo tanto, el punto x’ se encuentra
en la línea de intersección l’ de π con el segundo plano de imagen. Esta línea l’ es la imagen en la
segunda vista del rayo retroproyectado desde x. Es la línea epipolar correspondiente a x. En
términos de un algoritmo de correspondencia estéreo, el beneficio es que la búsqueda del punto
correspondiente a x no necesita cubrir todo el plano de la imagen, sino que puede restringirse a la
línea l’ (Hartley & Zisserman, 2004).
Las entidades geométricas involucradas en la geometría epipolar se ilustran en la Figura 2.15.
Figura 2.15 Geometría epipolar (Hartley & Zisserman, 2004).
La terminología es:
22

El epipolo es el punto de intersección de la línea que une los centros de la cámara (la línea
base) con el plano de la imagen. De manera equivalente, el epipolo es la imagen en una
vista del centro de la cámara de la otra vista.

Un plano epipolar es un plano que contiene la línea base.

Una línea epipolar es la intersección de un plano epipolar con el plano de la imagen. Todas
las líneas epipolares se cruzan en el epipolo.
2.3.2. Matriz Fundamental
La matriz fundamental es la representación algebraica de la geometría epipolar, esta matriz se
puede derivar del mapeo entre un punto y su línea epipolar, recoge la posición y orientación que
existe entre dos cámaras (Mery, 2004).
Supongamos que las matrices de cámara son las de un equipo estéreo calibrado con el origen en el
primer momento.
𝑃′ = 𝐾 ′ [𝑅|𝑡]
𝑃 = 𝐾 [𝐼 | 0]
Entonces:
−1
0
𝐶=( )
1
𝑃 + = [𝐾 𝑇 ]
0
Por lo que se puede deducir la matriz Fundamental F de la siguiente forma:
+
𝐹 = [𝑃′𝐶 ] × 𝑃′𝑃 = [𝐾′𝑡] × 𝐾 ′ 𝑅𝐾 −1 = 𝐾′−𝑇 [𝑡] × 𝑅𝐾 −1 = 𝐾′−𝑇 𝑅 [𝑅𝑇 𝑡] × 𝐾 −1
2.3.2.1.
Propiedades de la Matriz Fundamental
Mery Domingo (2004), nos proporciona las siguientes propiedades:
1. Las representaciones homogéneas de las rectas epipolares 𝑙1 y 𝑙2 se define como:
𝑙2 = 𝐹𝑚1
𝑙1 = 𝐹 𝑇 𝑚2
2. La restricción epipolar es:
𝑚2𝑇 𝐹𝑚1 = 0
3. F es homogénea, ya que kF para 𝑘 ≠ 0
4. La determinante de la matriz F es cero, puesto que:
23
|𝐹 | = |[𝑒2 ]× 𝑃′𝑃+ | = |[𝑒2 ]× ||𝑃′𝑃+| = 0
5. Como el determinante de F es cero, y F es homogénea se dice que F tiene solo siete grados
de libertad, esto quiere decir que solo siete (de los nueve) elementos de F son linealmente
independientes, los otros dos pueden ser calculados como función de los otros siete.
6.
La matriz F no depende de los puntos 𝑚1 , 𝑚2 ni M, depende solo de las matrices de
proyección P y P’, además es una matriz constante para una geometría estéreo dada.
7. La matriz fundamental se relaciona con los epipolos de la siguiente manera:
𝐹𝑒1 = 0 𝑦 𝐹 𝑇 𝑒2 = 0
Teniendo en cuenta que 0 = [0 0 0]𝑇
8. La relación de correspondencia entre dos puntos está dada por la siguiente ecuación:
𝑥′𝑇 𝐹𝑥 = 0
2.4.
Escáner tridimensional
Un escáner 3D es un dispositivo que analiza un objeto o escena con el fin de reunir datos de su
forma, incluso su color y características superficiales. Con la información obtenida se puede
construir modelos digitales tridimensionales. Inicialmente fueron desarrollados para aplicaciones
industriales, pero han encontrado un gran campo de aplicación como la arqueología, ingeniería,
arquitectura, la industria del entretenimiento para la producción de videojuegos y películas.
(Scaner 3d)
Funcionalidad
Para Dzananovic Ustovic (Modelado 3D a partir de fotografías con 3DSOM, 2012) el propósito
de un escáner 3D es crear una nube de puntos a partir de información de la superficie del objeto.
Se puede realizar el proceso de reconstrucción a partir de estos puntos, extrapolando la forma del
24
objeto. El modelo obtenido por un escáner 3D describe la posición en el espacio tridimensional de
cada punto analizado.
Para la mayoría de los casos un solo escaneo no producirá un patrón completo del objeto. Se
necesitan múltiples tomas desde varios puntos de vista para obtener información de todos los lados
del objeto (Dzananovic Ustovic, 2012).
Tipos de escáneres 3D
Existen dos tipos de escáneres 3D en función de si hay contacto con el objeto o no existe
contacto.
Figura 2.16 Métodos de Adquisición 3D según el hardware (Ruiz Segarra, 2016)
2.4.1. Escáner de contacto
Estos escáneres analizan el modelo mediante contacto directo con la superficie del objeto, cada
contacto también llamado “toque” corresponde a un punto del modelo. Se obtiene su geometría
gracias a un sensor y un brazo mecánico con el que va recorriendo y guardando las coordenadas
tridimensionales (Abdel-Bary, 2011). Su principal inconveniente es la velocidad de escaneado
pues deben recorrer por toda la superficie, además de perjudicar a las piezas si estas son de fácil
deterioro.
25
Este en este grupo tenemos el escáner de brazo articulado donde la posición de la sonda siempre
es conocida por los sensores que se encuentran en las articulaciones del brazo. (Ruiz Segarra,
2016)
Figura 2.17 Escáner de brazo articulado (Ruiz Segarra, 2016)
Por el contrario, en el escáner Coordinate Measure Machine o en sus siglas CMM, el brazo es el
tercer eje de la máquina la cual sostiene el sensor y es controlad por computadora. (Ruiz Segarra,
2016)
Figura 2.18 Escáner CMM (Abdel-Bary, 2011)
26
2.4.2. Escáner sin contacto
Estos escáneres no hacen contacto físico con un objeto o superficie, se basan en algunas técnicas
pasivas o activas para escanear un objeto, proyectando algún tipo de energía sobre el objeto desde
una considerable distancia. Dando como resultado una nube de puntos que servirán para realizar
la reconstrucción 3D (Abdel-Bary, 2011). Los métodos pueden ser reflexivos y transmisores.
2.4.2.1.
Transmisores
La señal es transmitida a través del objeto por medio de cortes medidos para luego recoger la
información del volumen. Estos pueden ser imagen por resonancia magnética y tomografía
computarizada (Ruiz Segarra, 2016).
Figura 2.19 Tomografía computarizada (Da Sousa, 2016)
2.4.2.2.
Reflexivos
Tienen un receptor que captura la señal reflejada por la superficie del objeto, estos a su vez se
clasifican en ópticos y no ópticos dependiendo de la fuente emisora de la señal, por un lado, los no
ópticos pueden ser emisores acústicos y electromagnéticos como infrarrojos, ultrasonidos,
microondas, ultravioleta, sonar, radar los cuales mandan energía para luego verificar el tiempo que
tarda en retornar la señal después de haber tocado el objeto. Mientras que las técnicas ópticas se
basan en el uso de luz para calcular los datos de la superficie, se clasifica en activas y pasivas (Ruiz
Segarra, 2016).
27
a) Técnicas ópticas activas
Emiten algún tipo de radiación o luz detectando su reflejo para sondear un objeto o entorno. Como
ventajas podemos destacar que no requieren luz ambiental, estos generan su propia luz a demás
proporcionan una gran cantidad de información de manera automática (Martín Barrio, 2016).
Entre los más comunes tenemos el tiempo de vuelo, triangulación láser, luz estructurara y el
interferómetro (Ruiz Segarra, 2016).
Tiempo de vuelo
Sansoni, Trebeschi y Docchio (State-of-The-Art and Applications of 3D Imaging Sensors in
Industry, Cultural Heritage, Medicine, and Criminal Investigation, 2009) nos dicen que la
medición del rango de la superficie se lo realiza enviando un pulso de luz hacia la superficie del
objeto, se obtiene la información acerca de la profundidad midiendo el viaje de ida y vuelta de la
señal de retorno y su intensidad.
Este tipo de sensores dan excelentes resultados en piezas de 15 m a 100 m, pero son deficientes
para rangos más cortos, para objetos pequeños de aproximadamente un metro de tamaño. En varias
aplicaciones la técnica está condicionada por el rango de niveles permitidos de radiación, además
afronta dificultades con superficies brillantes (Sansoni, Trebeschi, & Docchio, 2009).
Figura 2.20 Tiempo de vuelo para un pulso láser (Martín Barrio, 2016)
Triangulación Láser
Los escáneres láser 3D de triangulación utilizan luz láser para sondear el entorno, a diferencia del
escáner de tiempo de vuelo, el láser de triangulación hace brillar un láser sobre el sujeto y una
28
cámara busca la ubicación del punto. Esta técnica se denomina triangulación porque el punto del
láser, la cámara y el emisor forman un triángulo (Abdel-Bary, 2011).
Figura 2.21 Triangulación óptica (Ruiz Segarra, 2016)
a) Elementos del sistema: el sensor de la cámara (CCD2) que capta la emisión de luz del láser
sobre el objeto, el láser que proyecta un punto y la superficie a escanear.
b) El láser proyecta una línea que se deforma al llegar al objeto; el sensor captura la imagen
para después generar información de la profundidad.
c) Nube de puntos.
Luz estructurada
Para Martín Barrio (Análisis y aplicación de un escáner 3D en el ámbito médico-estético, 2016)
estos escáneres proyectan un patrón de luz sobre el objeto, analizando la deformación del patrón
procedente de la geometría de la escena. Con una cámara fotográfica el reflejo es guardado para
posteriormente determinar la posición de los puntos en un mapa tridimensional. El patrón de luz
suele ser un número de líneas paralelas generadas por un láser. Los puntos tridimensionales de
obtienen mediante el análisis de la deformación de las líneas, la anchura de la línea está dada por
la inclinación de la superficie; la frecuencia y fase también dan información, pero deben ser
medidas usando la transformada de Fourier3 (Martín Barrio, 2016).
2
3
Charge Coupled Device o en español, Dispositivo de Carga Acoplada
Transformación empleada para transformar señales entre el dominio del tiempo y el dominio de la frecuencia.
29
Figura 2.22 Deformación que se produce cuando la luz impacta sobre una superficie
tridimensional (Martín Barrio, 2016)
La ventaja de esta técnica es que puede escanear múltiples puntos a la vez, reduciendo el problema
de la deformación del movimiento (Dzananovic Ustovic, 2012).
Luz modulada
Los escáneres de luz modulada hacen brillar una luz que continuamente cambia en el objeto. La
fuente de luz cicla su amplitud en un patrón sinusoidal mientras una cámara detecta la luz reflejada
y la cantidad en que se desplaza el patrón determina la distancia que recorrió la luz. Esta técnica
permite que el escáner ignore la luz de fuentes ajenas a un láser, eliminando interferencias (AbdelBary, 2011).
b) Técnicas ópticas pasivas
Se denominan pasivas porque tan solo con la iluminación de la escena y su reflejo sobre el objeto
se obtiene la información sobre la superficie y geometría del objeto. Tomando en cuenta que no
usan iluminación de escena, no necesitad de un hardware especializado para la emisión de luz,
siendo estos los métodos más económicos (Ruiz Segarra, 2016).
Visión estéreo
En este método utiliza dos o más cámaras que capturan la misma escena simultáneamente. Los
pasos que se siguen son los siguientes: i) adquisición de imágenes, ii) modelado de cámaras, iii)
30
extracciones de características, iv) análisis de correspondencia y v) triangulación. No se requieren
de proyecciones especiales o fuentes de luz adicionales, siendo una de sus ventajas el bajo costo y
la simplicidad del proceso; sin embargo, el problema principal radica en la identificación de puntos
comunes dentro de los pares de imágenes, además que la calidad dependa de la nitidez de la textura
de la superficie (Sansoni, Trebeschi, & Docchio, 2009).
Silueta
Usa contornos creados a partir de una secuencia de fotografías alrededor de un objeto
tridimensional contra un fondo con gran contraste. Estas siluetas se extruyen y se intersecan para
formar la aproximación visual del casco del objeto (Abdel-Bary, 2011).
Figura 2.23 Ejemplo de escáner que usa tecnología de Silueta (Dzananovic Ustovic, 2012).
Fotogrametría
Para Luhmann, Robson, Kyle, y Harley (Close Range Photogrammetry Principles, techniques and
applications, 2006) la fotogrametría abarca métodos de medición e interpretación de imágenes para
obtener la forma y la ubicación de un objeto a partir de una o más fotografías de ese objeto. En
principio, los métodos fotogramétricos pueden aplicarse en cualquier situación en la que el objeto
a medir se pueda registrar fotográficamente. El propósito principal de una medida fotogramétrica
es la reconstrucción tridimensional de un objeto en forma digital (coordenadas y elementos
geométricos derivados) o forma gráfica (imágenes, dibujos, mapas). La fotografía o imagen
representa un almacén de información que se puede acceder en cualquier momento.
Para la reconstrucción de un objeto a partir de fotografías o imágenes, es necesario describir el
proceso óptico mediante el cual se crea una imagen. Esto incluye todos los elementos que
31
contribuyen a este proceso, como las fuentes de luz, las propiedades de la superficie del objeto, el
medio a través del cual viaja la luz, la tecnología del sensor y la cámara, el procesamiento de la
imagen, el desarrollo de la película y el procesamiento posterior (Luhmann, Robson, Kyle, &
Harley, 2006).
Figura 2.24 Del objeto a la imagen (Luhmann, Robson, Kyle, & Harley, 2006).
Siguiendo con (Luhmann, Robson, Kyle, & Harley, 2006) afirma que luego se requieren métodos
de interpretación y medición de imágenes que permitan identificar la imagen de un punto objeto a
partir de su forma, brillo o distribución de color. Para cada punto de imagen, se pueden obtener
valores en forma de datos radiométricos (intensidad, valor de gris, valor de color) y datos
geométricos (posición en la imagen). Esto requiere sistemas de medición con la calidad geométrica
y óptica apropiada. A partir de estas medidas y una transformación matemática entre la imagen y
el espacio de objetos, el objeto puede finalmente ser modelado. La figura 2.23 simplifica y resume
esta secuencia. El lado izquierdo indica la instrumentación principal utilizada, mientras que el lado
derecho indica los métodos involucrados. Junto con los modelos físicos y matemáticos, el
conocimiento humano, la experiencia y la habilidad juegan un papel importante. Ellos determinan
hasta qué punto el modelo reconstruido corresponde al objeto de la imagen o cumple los objetivos
de la tarea (Luhmann, Robson, Kyle, & Harley, 2006).
32
Figura 2.25 Proceso para la fotogrametría (Luhmann, Robson, Kyle, & Harley, 2006).
Aplicaciones de escáneres 3D
Como nos menciona (Dzananovic Ustovic, 2012) existen varias aplicaciones para la tecnología
de escaneo en 3D, a continuación, se mencionarán algunas de ellas:

Industria
El escáner 3D ha sido de vital importancia en la fabricación de componentes que requieren
especificaciones muy estrictas, como álabes de turbinas. Las piezas se escanean y la nube de puntos
permite un mejor control sobre la producción.

Entretenimiento
Dentro de la industria del entretenimiento, el escáner 3D permite la creación de modelos digitales
para vídeo juegos y películas. Resulta más eficaz escanear un objeto tridimensional que recrearlo
manualmente utilizando softwares de modelado.

Patrimonio Cultural
Para la preservación de patrimonio cultural, el escáner 3D ha sido una gran alternativa para
documentar piezas arqueológicas, así como monumentos históricos.
2.5.
Fotogrametría Esférica
La Fotogrametría Esférica es una nueva técnica fotogramétrica desarrollada hace más de una
década por Gabriele Fangi 4. Esta técnica se ha usado comúnmente para la documentación de
4
Profesor de Geomática en la Universidad Politécnica de Ancona, Italia.
33
patrimonio cultural, su característica principal es que no utiliza imágenes fotográficas comunes,
sino fotografías panorámicas obtenidas por cámaras omnidireccionales o de 360°, estás cámaras
son cada vez más populares permitiendo una mayor comprensión del objeto, que mejora aún más
por la alta resolución de estas imágenes. Sin embargo, en un principio no existía este tipo de
tecnología por lo que se optó por diferentes técnicas para reconstruirlas como por ejemplo la
costura de imágenes. (Fangi & Nardinocchi, 2013)
A continuación, podemos ver cómo sería la creación de un panorama esférico:
a)
b)
c)
d)
Figura 2.26 Creación de una imagen panorámica: a) Proyección en un plano, b) Proyección
sobre un cilíndrico, c) Proyección sobre una esfera, d) Panorama esférico (Cabezos Bernal &
Cisneros Vivó, 2016)
34
Una vez creada la imagen panorámica se mapea en el plano cartográfico usando una proyección
equirectangular.
x = r.ϑ; y = r.φ
(1)
Donde ϑ es la longitud, φ es el complemento de la latitud y r es el radio de la esfera.
Con los ángulos expresados en radianes. Tal representación no es conforme, ni equivalente. Los
polos de la esfera están representados por dos segmentos de igual longitud a la circunferencia de
la esfera, y por lo tanto el ecuador y los polos tienen la misma longitud. La altura del mapa es igual
al desarrollo de un meridiano. De tal representación se pueden dibujar los ángulos de dirección de
la línea proyectiva. Conociendo la extensión, se deriva el radio de la esfera generadora (D'Annibale
& Fangi, 2009).
r = a /2π
ϑ = x/r
(2)
φ = y/r
(3)
Figura 2.27 La proyección de latitud-longitud. Relación entre las coordenadas esféricas y la
coordenada de la imagen de una imagen esférica (D'Annibale & Fangi, 2009)
Estos ángulos y el radio de la esfera generadora son los mismos que un teodolito5 mediría salvo
dos diferencias: la primera, es la precisión alcanzada; y la segunda es que, si bien el teodolito se
establece con su principal eje vertical, en el caso de la esfera, no es posible hacer suficientemente
vertical el eje principal, por lo cual se hace necesario corregir dos ángulos de rotación alrededor
de los ejes horizontales, esta operación es semejante a un compensador biaxial de un teodolito
(Barazzetti, Fangi, Remondino, & Scaioni, 2010).
5
El teodolito es un instrumento topográfico de medición mecánico-óptico que se utiliza para obtener ángulos
verticales y horizontales
35
2.5.1. Las ecuaciones de colinealidad para la fotogrametría esférica
Fangi y Nardinocchi (2013) en su artículo “PROCESAMIENTO FOTOGRAMÉTRICO DE
PANORAMAS ESFÉRICAS” Nos dicen que, entre el centro de proyección, el punto de imagen y
el punto del objeto se escriben las ecuaciones de colinealidad, ecuaciones corregidas para tener en
cuenta la verticalidad perdida del eje principal.
Dada una imagen esférica con centro:
O = [X0, Y0, Z0] T y radio r
Un punto P [X, Y, Z]T a una distancia 𝑑 = √(𝑋 − 𝑋0 )2 − (𝑌 − 𝑌0 )2 − (𝑍 − 𝑍0 )2 que desde el
centro de la esfera tiene coordenadas [X*, Y*, Z*] T en el sistema de referencia esférico que puede
derivar de sus coordenadas esféricas (𝑑, 𝜗, 𝜑) mediante las siguientes relaciones:
X* = d.sin φ.sin ϑ
Y* = d.sin φ.cos ϑ
(4)
Z* = d.cos φ
Figura 2.28 El punto de objeto P, el sistema esférico y el sistema terrestre, es un sistema
centrado en el centro de la esfera y con su eje Z' paralelo al eje Z del sistema terrestre; dicho
sistema tiene que estar orientado en un ángulo 𝜽𝟎 (Fangi & Nardinocchi, 2013).
36
Transformar el sistema de referencia esférico al terrestre se realiza en primer lugar gracias a la
alineación de Z* con Z se realiza teniendo en cuenta los ángulos de corrección αx y αy. En segundo
lugar, se resuelve la rotación alrededor del eje Z, introduciendo el ángulo de rotación esférica.
𝑑 𝑠𝑖𝑛𝜑 𝑠𝑖𝑛𝜗
𝑋 − 𝑋0
𝑋∗
𝑋′
∗
′
[𝑌 ] = ∆𝑅(𝛼𝑥 , 𝛼𝑦 ) [𝑌 ] = ∆R(𝛼𝑥 , 𝛼𝑦 ) [ 𝑌 − 𝑌0 ] = [𝑑 𝑠𝑖𝑛𝜑 𝑐𝑜𝑠𝜗] (5)
𝑍 − 𝑍0
𝑑 𝑐𝑜𝑠𝜑
𝑍∗
𝑍′
Donde [X′, Y′, Z′]T son las coordenadas de P en el sistema de referencia terrestre transferido al
centro de la esfera y ∆𝐑(𝜶𝒙, 𝜶𝒚 ) es una rotación cuasi-ortogonal matriz:
1
∆R(𝛼𝑥 , 𝛼𝑦 ) = [ 0
−d𝛼𝑦
0
1
d𝛼𝑥
d𝛼𝑦
−d𝛼𝑥 ]
1
Dividiendo la primera fila de la ecuación (5) por la segunda obteniendo la primera ecuación.
(𝑋−𝑋0 )+d𝛼𝑦 (𝑍−𝑍0)
𝜃 = 𝜃0 + 𝑎𝑟𝑐𝑡𝑎𝑛 ( (𝑌−𝑌 )−d𝛼
𝑥 (𝑍−𝑍0 )
0
)
(6a)
Para la segunda ecuación φ se obtiene dividiendo la ecuación (5) por d.
𝜑 = 𝑎𝑟𝑐𝑐𝑜𝑠 (
d𝛼𝑦 (𝑋−𝑋0 )+d𝛼𝑥 (𝑌−𝑌0 )+(𝑍−𝑍0 )
𝑑
)
(6b)
Estas son las ecuaciones de colinealidad.
2.5.2. La condición de coplanaridad
Así mismo (Fangi & Nardinocchi, 2013) Explican la condición de coplanaridad para imágenes
esféricas. En la fotogrametría clásica la ecuación de coplanaridad nos dice que los dos rayos
proyectivos a un punto P y a la base óptica b tienen que estar en el mismo plano epipolar.
37
De manera similar, la geometría epipolar de las imágenes esféricas se da mediante una ecuación
de coplanaridad y describe la relación geométrica entre los puntos correspondientes en un par de
imágenes. Más específicamente, la intersección entre dos imágenes dadas y el plano epipolar
definido por el centro de las dos imágenes y un punto de objeto P, representa la línea epipolar.
Figura 2.29 Coplanaridad de dos panoramas esféricos (Fangi & Nardinocchi, 2013).
Dadas las coordenadas esféricas de un punto P0, adquirido a partir de las coordenadas de la imagen,
las coordenadas correspondientes se obtienen por:
𝑋 = 𝑟. 𝑠𝑖𝑛𝜑. 𝑠𝑖𝑛𝜃
𝑌 = 𝑟. 𝑠𝑖𝑛𝜑. 𝑐𝑜𝑠𝜃
𝑍 = 𝑟. 𝑐𝑜𝑠𝜑
(7)
Donde r es el radio, φ es el complemento de latitud y θ es la longitud. La ecuación del plano que
pasa por O1, O2 y P0 se puede expresar como:
𝑍 = 𝑎𝑋 + 𝑏𝑌 + 𝑐𝑍
Donde a, b y c son cosenos de dirección del plano. Sustituyendo Z en la tercera expresión de la
ecuación (7) se obtiene la expresión de la ecuación epipolar:
𝑐
𝜑 = 𝑎𝑟𝑐𝑡𝑎𝑛 (− 𝑎.sin(𝜃)+𝑏.cos(𝜃))
(8)
Utilizando estos análisis se han realizado varias reconstrucciones de monumentos históricos.
38
Figura 2.30 Resultados de varios conjuntos de datos de imágenes panorámicas, que muestran
los puntos coincidentes automáticamente (b, e, h), resultados de orientación (c, f, i) y
reconstrucciones 3D de la escena (d, g, l) (Barazzetti, Fangi, Remondino, & Scaioni, 2010).
39
2.5.3. Extracción de correspondencias
La identificación de correspondencias de imágenes panorámicas puede requerir un proceso largo
de elaboración. La presencia de cambios de oclusiones, iluminación u objetos en movimiento
requieren un procedimiento confiable (Barazzetti, Fangi, Remondino, & Scaioni, 2010).
El método que la Fotogrametría Esférica se basa en la extracción y emparejamiento de
características haciendo uso de los operadores SIFT (Scale-invariant feature transform) y SURF
(Speeded Up Robust Features), combinados con algunos estimadores para la detección de
correspondencias erróneas. Estas basadas en la estimación de la matriz fundamental (Barazzetti,
Fangi, Remondino, & Scaioni, 2010).
2.6.
Drones o UAV
Según (Carrasco, 2015) un dron o UAV es un vehículo aéreo no tripulado, no requiere piloto.
Debido a que, gracias a una serie de unidades de procesado, sensores y un alcance de comunicación
es guiado remotamente por un operador en tierra.
2.6.1. Partes básicas de un dron
Lucas García (Drones, el cielo está al alcance de todos) nos proporciona una lista de las partes
básicas de un dron:

Motores, Hélices y ESCs: Componentes que ayudan a mantener el dron en el aire. Los
ESC (Electronic Speed Control) regulan la potencia eléctrica que es administrada a los
motores y por ende la velocidad de giro del rotor.

Controlador de vuelo: Es el cerebro del dron pues detecta y controla todos los aspectos
de esta. Todos los componentes electrónicos van conectados al controlador de vuelo.

Mando o control remoto: Es un dispositivo que posee dos joysticks o palancas
multidireccionales, a través del cual se introduce los movimientos que el dron realizará.

Radio receptor: Recibe las órdenes del mando, transmitiéndolas al controlador de vuelo,
para que la instrucción pueda ser ejecutada.

Baterías: Dan la energía necesaria para que el dron realice sus funciones.
40
2.6.2. Clasificación
La clasificación principal de UAVs se asocia al sistema de propulsión utilizado, se pueden
encontrar dos clasificaciones, los de ala fija y de ala rotatoria (Carrasco, 2015).
a) UAV de ala fija: Son capaces de volar gracias a la acción del viento al atravesar las alas
que están fijas. Alcanzan su velocidad gracias a turbinas propulsoras. Poseen una estructura
simple con una eficiencia aerodinámica alta, lo que le permite volar por más tiempo. Por
sus características son utilizados para reconocimiento aéreo de grandes zonas de terreno,
además son capaces de transportar carda adicional. Para su despliegue o aterrizaje
requieren de una pista para obtener velocidad (Carrasco, 2015).
Figura 2.31 Ejemplo de UAV de ala fija (Carrasco, 2015)
b) UAV de ala rotatoria: Dispone de una o numerosas hélices que rotan impulsadas por un
motor a cuyo conjunto se lo llama rotor, el cual se encarga de dar el impulso necesario para
el despegue y maniobrabilidad. Debido a su estructura compleja son más lentos y tienen
un tiempo de vuelo más limitado; sin embargo, la ventaja que nos ofrece es que no requiere
de una pista para despegar, además son capaces de permanecer suspendidos en el aire
inmóviles, haciéndolo idóneo para tareas de control sobre objetos fijos (Carrasco, 2015).
Figura 2.32 Ejemplo de UAV rotatorio (Carrasco, 2015).
Dentro de la clasificación de UAV rotatorio cabe destacar el Dron quadcópter.
41
c) Dron Quadcópter: Consta de 4 hélices, dos de ellas giran en sentido horario y dos en
sentido anti horario, proporcionándole equilibrio.
Figura 2.33 Disposición de hélices de un quadcópter (García).
El quadcópter posee cuatro tipos de movimiento: giro en sentido horario o anti horario respecto al
eje vertical, inclinación hacia la derecha o izquierda, cabeceo hacia delante y hacia atrás y altitud,
elevación o descenso.
Figura 2.34 Diferentes movimientos en un quadcópter (García).
2.6.3. Gimbal
El gimbal es un estabilizador de cámaras u otros objetos, de manera que cuando el usuario esté
grabando vídeos, las capturas sean óptimas. Así, se puede mover mientras graba sin temer a que
las imágenes obtenidas no sean estables. La lógica básica de este sistema que puede minimizar la
42
vibración en los dispositivos de grabación de video es crear un movimiento inverso en la dirección
opuesta a la vibración (Pinto, 2019).
Figura 2.35 Gimbal en un dron (Ferreño, 2017)
43
CAPÍTULO III
3. Metodología
3.1.
Tipo de estudio
El presente trabajo de titulación se enmarca en la modalidad de Proyecto de Investigación. La
metodología más conocida para realizar este tipo de proyectos es la metodología de la
investigación científica; sin embargo, es poco conocida la metodología de la investigación
tecnológica la cual ha sido seleccionada para la realización de este proyecto.
3.2.
Metodología de la investigación
Para Cegarra Sánchez (Metodología de la investigación científica y tecnológica, 2004) la
investigación tecnológica, también conocida como “Desarrollo”, se encarga de la creación de
nuevos sistemas, procesos o máquinas; o la mejora de éstos. La investigación tecnológica es
esencialmente experimental y está ligada a la investigación científica en varias de sus
características como es la obtención de nuevos conocimientos, configuración de nuevos procesos
u obtención de nuevos artefactos.
De la Cruz (2016) en su artículo Metodología de la investigación tecnológica en ingeniería afirma
lo siguiente: El objetivo del trabajo tecnológico es apoyarse en el reconocimiento para lograr la
transformación de una realidad concreta particular.
En el paradigma tecnológico tenemos un proceso que integra la investigación y la transformación
a la vez. Así, requerimos conocer el objeto de estudio para después intervenir en una realidad
particular modificando el estado de cosas, hasta alcanzar una aproximación a lo deseado (Cegarra
Sánchez, 2004, pág. 44)
Cabe recalcar que el presente trabajo tiene la característica de ser una tecnología evolutiva, pues
modifica lo ya existente ofreciendo aportes de nuevas tecnologías. Además, que el producto de un
proyecto de investigación tecnológica puede ser un diseño, una estrategia o un método
dependiendo de la materia sobre la cual trate el problema.
Tomando como base la propuesta de Gutiérrez Posada y Gómez Montoya, se desarrollaron las
siguientes fases acorde a las necesidades de este proyecto:
44
Detección del problema
Formulación del problema
Busqueda de información
Organización de la información
Identificación de necesidades y
requerimientos para el prototipo
Selección de técnicas y tecnología
Búsqueda de ideas
Planteamiento de soluciones
Elaboración del prototipo
Figura 3.1 Fases de la Metodología de la investigación tecnológica
1. Detección de problema: Detección del problema que requiera de desarrollo tecnológico
mediante la observación propia o la observación por un tercero.
2. Formulación del problema: Se expresa el problema de la manera más concreta posible.
3. Búsqueda de información: Recopilación de toda la información disponible sobre el tema.
4. Organización de la información: La información obtenida puedes ser de gran volumen
por lo que es necesario clasificarla adecuadamente, escogiendo los textos más
sobresalientes que se deberán leer con detenimiento.
5. Identificación de necesidades y requisitos para el prototipo: Una vez realizada la
investigación pertinente, esta nos ayudará a identificar los puntos más importantes para
definir los requisitos necesarios del prototipo.
6. Selección de técnicas y tecnologías: Elección de componentes de hardware y software.
7. Búsqueda de ideas: Ideas que se evaluarán para seleccionar la mejor o más apropiada de
acuerdo a los requisitos ya seleccionados.
8. Planteamiento de soluciones: Una vez evaluada las posibles soluciones se clasifican para
iniciar el trabajo, desarrollando la primera de ellas, en caso de que esta fracase, se separa y
45
se intenta con la siguiente, buscando un camino alterno y así acercarse a la solución del
problema.
9. Elaboración del prototipo: El prototipo será el primer acercamiento a la realidad, siendo
un diseño, estrategia o método. Es en esta fase que se da lugar a la mejor solución
encontrada, la cual debe ser revisada y mejorada continuamente.
En el capítulo I y II se han resumido las fases 1, 2, 3 y 4 de la Metodología de la Investigación
Tecnológica. A continuación, se desarrollará las fases siguientes, de acuerdo a la necesidad del
proyecto.
3.3.
Identificación de necesidades y requisitos para el prototipo
El presente proyecto tiene como fin el desarrollo de un prototipo de escáner 3D con una cámara
omnidireccional montada en un quadcópter.
Como requisitos necesarios tenemos:
- Utilizar una cámara de bajo costo, pues en el mercado cámaras omnidireccionales de buena
calidad pueden llegar a costar hasta $2000.
- Posibilidad de manejo a distancia de la cámara ya que se la montará en el dron quadcópter,
y la distancia entre este y el usuario puede llegar hasta los 100 m de radio.
- La imagen resultante debe ser circular: para poder utilizar los principios de fotogrametría
esférica la imagen resultante debe ser esférica.
- Buena resolución de la imagen: necesaria para la identificación de puntos de interés.
- Estabilidad en las imágenes que se tomarán, la cual resulta afectada por las vibraciones del
dron.
46
3.3.1. Arquitectura del prototipo
Figura 3.2 Esquema del proceso del prototipo.
3.4.
Selección de técnicas y tecnologías
Requerimientos de Hardware:
a) Dron quadcópter modelo: Tarot 650
En vista de que este proyecto de titulación está trabajando dentro del Proyecto 30 perteneciente
a la Facultad de Ingeniería Ciencias Físicas y Matemática, el dron dispuesto para este proyecto
es el modelo Tarod 650, posee las siguientes características (Anexo A).
-Hardware abierto.
-Soporta hasta 1130 g.
-El frame de este modelo es de fibra de carbono, proporcionando mayor estabilidad.
-Alcanza una altura máxima de 122 m y una velocidad de 15 m/s.
47
b) Cámara omnidireccional
Se requiere de una cámara omnidireccional que cumpla con los requisitos antes establecidos.
c) Gimbal para estabilizar la imagen:
Es necesario para que al momento del vuelo la imagen no resulte afectada ya que existen
muchas vibraciones que podrían ser capturadas por la cámara.
Requerimientos de Software
Para escoger el Lenguaje de Programación a utilizar se realizó un cuadro comparativo de los
Lenguajes de Programación más usados.
Tabla 1: Cuadro comparativo de Lenguaje de Programación
OpenSource Orientado
a objetos
Desenvolvimiento
en
la
Experiencia
visión del usuario
artificial
del 1 al 10
Java
Si
Si
Bueno
2
C#
Si
Si
Bueno
2
C++
Si
Si
Muy Bueno
1
Si
Muy Bueno
1
Si
Muy Bueno
5
M (lenguaje No
de Matlab)
Python
Si
Después del análisis se escogió el Lenguaje de Programación Python
a) Python
Según nos dice Guido van Rossum (El tutorial de Python, 2009) Python es un lenguaje de
programación eficaz y de fácil aprendizaje. Cuenta con estructuras de datos de alto nivel y un
enfoque simple pero efectivo a la programación orientada a objetos. La sintaxis de Python hace
de éste un lenguaje ideal para scripting y desarrollo rápido de aplicaciones en diversas áreas y
sobre la mayoría de las plataformas.
48
El intérprete de Python está a libre disposición y de código fuente para las principales
plataformas desde el sitio web de Python, http://www.python.org/, y puede ser distribuido
libremente.
Python puede extenderse fácilmente con nuevas funcionalidades y tipos de datos
implementados en C o C++ (u otros lenguajes accesibles desde C). Python también puede
usarse como un lenguaje de extensiones para aplicaciones personalizables.
Tabla 2: Cuadro comparativo de IDE’s que trabajan con Python.
Software
Estructura
Marcación
Popularidad del
Libre
de
de errores
1 al 10
Muy
10
la
interfaz
PyCharm
Si
Muy Buena
Buena
PyDev
Si
Buena
Buena
8
Atom
Si
Regular
Buena
8
Si
Buena
Regular
9
IDE
Spyder
b) OpenCv
OpenCV es una biblioteca de visión artificial de código abierto. La biblioteca está escrita en C
y C++, se ejecuta en Windows, Linux o Mac. Existe un desarrollo activo para las interfaces
Python, Java, MATLAB y otros idiomas. OpenCV ha recibo al largo de los años soporte por
parte de Google e Intel. Contiene más de 500 funciones abarcando gran gama de áreas en el
proceso de visión, como reconocimiento de objetos, procesamiento de imágenes, calibración
de cámaras, visión estéreo y visión robótica (Kaehler & Bradski, 2016).
49
Tabla 3: Cuadro comparativo de librerías de visión computacional.
Open
Compatibilidad
Consumo
Popularidad
Source
con Python
de
del 1 al 10
recursos
OpenCV
Si
Si
Poco
10
Matlab
No
No
Regular
9
No
Regular
7
AForge.NET/
Accord.NET
TensorFlow
Si
Si
Bastante
7
SimpleCV
Si
Si
Bastante
6
c) PyCharm
PyCharm es el IDE más popular utilizado para el lenguaje de scripts Python ofreciendo algunas
de sus mejores características para sus usuarios y desarrolladores en los siguientes aspectos:
Finalización e inspección del código.

Depuración avanzada.

Soporte para la programación web y marcos como Django y Flask (PC PyCharm, s.f.).
3.5.

Búsqueda de ideas
Se optó por la búsqueda de cámaras omnidireccionales de bajo costo, se seleccionaron tres
opciones que se analizaron, evaluaron y descartaron de ser el caso.
3.5.1. Cámara de seguridad
La VR cam 360, es una cámara de seguridad, su precio oscila en los $30 y posee las siguientes
características:
50
Figura 3.3 Característica VR cam (Manual usuario cámara 360°, s.f.)
Luz infrarroja: encenderá la luz infrarroja automáticamente cuando detecte un nivel bajo de
luminosidad.
Ranura memoria: Se puede instalar una micro SD, se puede almacenar hasta 32G.
Botón reset: Se volverá a los valores iniciales pulsando el botón durante 10-15.
3.5.2. Cámara Charge Coupled Device para drones
La cámara FPV (First Person View) es una cámara utilizada para Drones cuyo precio es de $15
c/u, son de tamaño pequeño y ligeras., cuentan con un lente intercambiable, la placa con el sensor
y el conector para salida de vídeo. La imagen en tiempo real es transmitida desde las cámaras hacia
un video transmisor (Cámaras FPV, s.f.).
CCD y CMOS son los principales sensores de imágenes utilizados en cámaras de vídeo en general,
en nuestro caso el sensor a utilizar es CCD, sus características son:

Mejor rango dinámico

Menos ruido en condiciones de poca luz

Baja latencia

Mejor manejo de la luz
51
Figura 3.4 Cámara CCD FPV (Tipos de cámara FPV para un dron de carrera, s.f.)
Campo de visión de la cámara FPV
Tabla 4: Longitud focal de la cámara FPV
Longitud Focal de la lente
FOV
2.1 mm
160° - 170°
2.3 mm
145°
2.5 mm
130° - 140°
2.8 mm
120° - 130°
3.0 mm
110° - 125°
3.5.3. Universal Clip Lens
En su blog (Villareal, 2017) nos dice que el universal clip lens es un accesorio para celular que
consiste en un lente que se fija al dispositivo móvil por medio de una pinza. Son portables
pudiéndose desmontar en cualquier momento. Este juego consta de los siguientes componentes:
52
Figura 3.5 Kit Universal clip lens (Villareal, 2017)
Clip con rosca: los lentes se ajustan en este clip y se coloca sobre el lente de la cámara del móvil.
Fish eye lens: Es el lente más robusto de los que vienen en el kit. Proporciona una visión más
amplia y esférica.
Macro: Permite la toma de fotografías de objetos de menor tamaño, teniendo su enfoque a menos
de 1 cm.
0.67X WIDE: A diferencia de los otros dos lentes, este se adapta encima del lente macro y no
directamente a la pinza, su función es similar a la lente macro, pero nos proporciona una mayor
amplitud en la imagen.
3.6.
Planteamiento de soluciones
Se hizo una evaluación detallada de cada una de las opciones de cámara (Anexo B), a continuación,
se muestra un cuadro de resumen con los resultados obtenidos:
53
Tabla 5 Cuadro comparativo de las opciones de cámara
Requerimientos
VR CAM 360
Cámara CCD
para la cámara
Universal clip lens
FPV
Posibilidad de
Manejo a
No
Si
Si
Si
No
Si
Si
No
Si
distancia
La imagen
resultante debe ser
circular
Buena resolución
de la imagen
Una vez evaluada cada una de las opciones, se llegó a la conclusión de que la cámara que mejor
resultado nos proporcionó fue el Universal clip lens, accesorio que fue montado en la cámara
incluida en el modelo de teléfono móvil LGk8.
3.7.
Elaboración del prototipo
En esta fase se explican los pasos que se llevaron a cabo para desarrollar el prototipo una vez
escogida la mejor opción de cámara.
3.7.1. Análisis para la obtención de coordenadas de un punto 3D
Antes de lograr la automatización de la reconstrucción 3D mediante imágenes hemisféricas, fue
necesario realizar el análisis que compruebe que la utilización de este tipo de imágenes es apta
para obtener datos del mundo real.
54
El método propuesto en este proyecto de investigación se basa en la Técnica de Fotogrametría
Esférica desarrollada por Gabriele Fangi (Documenting architectural heritage in Bahia, Brazil,
using Spherical Photogrammetry, 2013). Sin embargo, el desarrollo será diferente pues la
Fotogrametría Esférica clásica trabaja con panoramas esféricos que se forman mediante la
superposición de imágenes tomadas desde el mismo punto y unidas en una esfera para después
mapearlas en un plano con la llamada proyección equirectangular, mientras que en este proyecto
se trabajará directamente con las imágenes hemisféricas que nos da nuestra cámara. Se realizó un
análisis previo de la técnica de Fotogrametría esférica para adaptarla a la geometría de las imágenes
hemisféricas.
Como recurso visual, se presenta un diagrama que nos permite ver con mayor claridad la relación
que existe entre dos imágenes y un punto P en el espacio. Haciendo uso de la técnica de
triangulación se obtuvo las coordenadas 3D del punto P, sabiendo que u1 y u2 son proyecciones
de dicho punto.
Figura 3.6 Diagrama de la relación de dos imágenes hemisféricas.
55
Vista lateral izquierda (plano x, z):
Figura 3.7 Vista lateral izquierda
Vista inferior (plano x, y):
Figura 3.8 Vista inferior
Donde:
R = Radio del círculo.
𝑢1 = √𝑥1 2 + 𝑦1 2 = distancia entre el punto de imagen y el eje óptico de la imagen 1.
𝑢2 = √𝑥2 2 + 𝑦2 2 = distancia entre el punto de imagen y el eje óptico de la imagen 2.
56
b = distancia entre el centro de las dos imágenes.
Cabe resaltar que es el valor b es el que definirá las unidades de las coordenadas resultantes, ya
sean metros, centímetros u otra unidad.
Para obtener las coordenadas (X, Y, Z) del punto P, se necesita conocer el valor de los ángulos A,
B y C, y para obtenerlos primero es necesario calcular tanto 𝜃1 como 𝜃2 que son los ángulos que
se forman entre u1, u2 y el eje Y de cada imagen, por lo que tendremos:
𝜃1 = 𝑎𝑟𝑐𝑡𝑎𝑛
𝑥1
𝑦1
𝜃2 = 𝑎𝑟𝑐𝑡𝑎𝑛
𝑥2
𝑦2
Conociendo 𝜃1 y 𝜃2 se calculan los valores de A, B, C y sus respectivos lados usando la ley de
senos.
A = 90 + θ1
C = 90 – 𝜃2
B = 180 – A –C
𝑎=
𝑏 𝑠𝑖𝑛𝐴
𝑠𝑖𝑛 𝐵
𝑐=
𝑏 𝑠𝑖𝑛𝐶
𝑠𝑖𝑛 𝐵
Haciendo uso de la trigonometría se puede calcular las coordenadas X y Y del punto 3D
𝑿 = 𝑎 sin(𝜃2)
𝒀 = 𝑎 cos(𝜃2)
Antes de calcular Z, es necesario saber el valor del ángulo φ, ángulo que se forma entre el punto
P y el centro de la imagen 2 (ver Figura 3).
𝜑 = 𝑎𝑟𝑐𝑜𝑠
𝑢2
R
Obteniendo φ, podemos decir que:
𝒁 = 𝑎 tan 𝜑
57
Estas relaciones variarían dependiendo la posición en que se encuentre el punto P y su determinada
proyección en cada una de las imágenes, por lo que se han determinado seis posibles casos. En
primer lugar hay que conocer el centro de imagen hemisférica en coordenadas de píxel que estará
determinada por los parámetros de calibración de la cámara.
Figura 3.9. Representación en pixeles de cada imagen.
Tabla 6. Análisis de cada uno de los posibles casos.
N° de Caso
Condiciones a cumplir
Representación de la
coordenada 3D (X, Y, Z)
1
Si (x1 < Cx) & (y1 < Cy) & (x2 < Cx) & (y2 < Cy)
(-(X-b),Y,Z)
2
Si (x1 > Cx) & (y1 < Cy) & (x2 > Cx) & (y2 < Cy)
(X, Y, Z)
3
Si (x1 < Cx) & (y1 > Cy) & (x2 < Cx) & (y2 > Cy
(-(X-b), -Y, Z)
4
Si (x1 > Cx) & (y1 > Cy) & (x2 > Cx) & (y2 > Cy).
(X, -Y, Z)
5
Si (x1 > Cx) & (y1 < Cy) & (x2 < Cx) & (y2 < Cy).
(X, Y, Z)
6
Si (x1 > Cx) & (y1 > Cy) & (x2 < Cx) & (y2 > Cy).
(X, -Y, Z)
58
Caso 1:
Caso 2:
Caso 3:
Caso 4:
Caso 5:
Caso 6:
59
Una vez analizado y comprobado que usar imágenes hemisféricas nos proporciona las coordenadas
tridimensionales de un punto P se prosigue con los siguientes pasos.
3.7.2. Calibración de la cámara
Se realizó la calibración de la cámara seleccionada, haciendo uso de la biblioteca de OpenCv que
desde la versión 3.0 ha incluido un paquete cv2.fisheye. El código de calibración ayudará a
encontrar 2 parámetros intrínsecos de la lente, OpenCV los llama K y D que son matrices numpy.
El patrón de calibración utilizado fue el patrón de tablero de ajedrez usado en el Método de Zhang
para la calibración de una cámara. El patrón de ajedrez se sostuvo frente a la cámara capturando
imágenes desde diferentes posiciones y ángulos. La clave de este paso es que los patrones deben
aparecer distorsionados de diferentes maneras para que OpenCv sepa todo lo posible sobre el lente.
Figura 3.10 Ejemplo de fotografía de patrón de ajedrez.
A continuación, se observa la sintaxis de la función cv2.fisheye.calibrate utilizada.
rms, K, D, rvecs, tvecs = \
cv2.fisheye.calibrate(
objpoints,
imgpoints,
gray.shape[::-1],
K,
D,
rvecs,
tvecs,
calibration_flags,
(cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER, 30, 1e-6)
)
Figura 3.11 Código de la función cv2.fisheye.calibrate.
60
Algunos de los parámetros son:

objectPoints: vector de vectores de puntos del patrón de calibración en el espacio de
coordenadas del patrón de calibración.

imagePoints: vector de vectores de las proyecciones de puntos del patrón de calibración.

image_size: tamaño de la imagen utilizada solo para inicializar la matriz intrínseca de la
cámara.

K: Salida de matriz de cámara de punto flotante 3x3.

re: Vector de salida de coeficientes de distorsión.

rvecs: Vector de salida de los vectores de rotación estimados para cada vista de patrón.

tvecs: Vector de salida de los vectores de traslación estimados para cada vista de patrón.
3.7.3. Toma de fotografías
Después de calibrar la cámara se procede a la toma de fotografías del espacio del que se desea
realizar la reconstrucción 3D. Cabe resaltar que el análisis de las imágenes se realizará de dos en
dos, cada par de fotografías deberán apuntar al mismo punto a analizar, pero desde diferentes
posiciones como se observa en la Figura 3.12. Además, hay que tener en cuenta la primera imagen
tomada la cual tendrá como centro el punto (0, 0, 0) y a partir de esta se tomará la traslación y
rotación de las siguientes fotografías que serán tomadas en sentido anti horario.
Figura 3.12 Posición de la cámara en cada fotografía
61
3.7.4. Identificación de puntos clave
Para poder realizar la correspondencia de puntos es necesario encontrar los puntos clave de las dos
imágenes a analizar. OpenCv cuenta con métodos que nos ayudan a buscar los cambios de
intensidad producidos en cada pixel para una región de un tamaño definido, en OpenCv este
método está implementado por la función: cv2.goodFeaturesToTrack(), que determina las
esquinas fuertes de una imagen.
La función encuentra las esquinas más prominentes en la imagen o en la región de imagen
especificada, estos son algunos de los parámetros que posee.
image: ingrese una imagen de un solo canal de 8 bits o de coma flotante de 32 bits.
maxCorners: número máximo de esquinas para devolver.
qualityLeve: parámetro que caracteriza la calidad mínima aceptada de las esquinas de la imagen.
minDistance: distancia euclidiana mínima posible entre las esquinas retornadas.
corners: vector de salida de las esquinas detectadas.
A continuación, se observa la sintaxis del método.
corners = cv2.goodFeaturesToTrack(gray, 300, 0.01, 30)
corners = np.int0(corners)
A = []
for i in corners:
x, y = i.ravel()
cv2.circle(img, (x, y), 3, 255, -1)
A.append((x,y))
Figura 3.13 Código: Algoritmo cv2.goodFeaturesToTrack
La ventaja de este método es que se puede especificar la cantidad de puntos clave a encontrar.
A demás del método de Features to track, OpenCv cuenta con algoritmos para identificar puntos
clave y no solo las esquinas de una imagen, entre estos métodos tenemos a SIFT (Transformación
de características invariables a escala).
Algoritmo SIFT
Los detectores de esquinas como el algoritmo visto anteriormente, son invariantes a la rotación, lo
que significa que, incluso si la imagen gira, podemos encontrar las mismas esquinas, una esquina
62
puede no ser una esquina si la imagen está escalada. Por ejemplo, verifique la imagen simple a
continuación. Una esquina en una imagen pequeña dentro de una ventana pequeña es plana cuando
se hace zoom en la misma ventana.
Figura 3.14 Esquina en una imagen
Entonces, en 2004, D. Lowe, de la Universidad de Columbia Británica, ideó un nuevo algoritmo,
Transformación de características invariables de escala (SIFT) en su documento, que extrae puntos
clave y calcula sus descriptores.
Para calcular el descriptor de un punto se toma un vecindario de 16x16 alrededor del punto
clave. Se divide en 16 sub bloques de tamaño 4x4. Para cada sub bloque, se crea un histograma de
orientación de 8 contenedores. Por lo tanto, hay disponibles un total de 128 valores bin. Se
representa como un vector para formar un descriptor de punto clave. Además de esto, se toman
varias medidas para lograr robustez contra los cambios de iluminación, rotación, etc.
A pesar de que este es uno de los algoritmos más recomendados en el proceso de reconstrucción
3D, para hacer uso de este método es necesario realizar un pago, debido a esto Ethan Rublee,
Vincent Rabaud, Kurt Konolige y Gary R. Bradski diseñaron el algoritmo ORB como alternativa
a SIFT o SURF en 2011.
import cv2
img = cv2.imread('home.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
sift = cv2.xfeatures2d.SIFT_create()
kp = sift.detect(gray, None)
img = cv2.drawKeypoints(gray, kp)
cv2.imwrite('sift_keypoints.jpg', img)
Figura 3.15 Ejemplo algoritmo SIFT
63
Algoritmo ORB (Oriented FAST and Rotated BRIEF)
ORB es básicamente una fusión del detector de punto clave FAST y el descriptor BRIEF con
muchas modificaciones para mejorar el rendimiento. Primero usa FAST para encontrar puntos
clave, luego aplica la medida de la esquina de Harris para encontrar los N puntos principales entre
ellos, ahora para los descriptores, ORB usa descriptores BRIEF.
Para utilizar este algoritmo primero se crea un objeto ORB. Tiene una serie de parámetros
adicionales, entre los más útiles están:
nFeatures que da el número máximo de características a retener.
WTA_K, decide el número de puntos que produce cada elemento del descriptor BRIEF.
NORM_HAMMING, es la distancia que se usa en el caso de realizar la correspondencia.
A continuación, un ejemplo del uso de este algoritmo:
import cv2
from matplotlib import pyplot as plt
img = cv2.imread("imagenes\img1.jpg",
cv2.IMREAD_GRAYSCALE)
orb = cv2.ORB_create(nfeatures=2000)
keypoints, descriptors =
orb.detectAndCompute(img, None)
img=cv2.drawKeypoints(img,keypoints,None)
print(keypoints)
plt.imshow(img), plt.show()
cv2.waitKey(0)
cv2.destroyAllWindows()
Figura 3.16 Ejemplo algoritmo ORB para la detección de puntos clave
3.7.5. Correspondencia de puntos
Los puntos correspondientes son aquellos que representan una proyección del mismo punto físico
en el espacio 3D. Podemos definir dos formas para identificar puntos correspondientes, mediante
métodos existentes en OpenCV y haciendo uso de la matriz fundamental.
64
Basics of Brute-Force Matcher
Es un método de OpenCv que toma el descriptor de una característica en el primer conjunto y se
combina con todas las demás características en el segundo conjunto utilizando algunos cálculos de
distancia. Y se devuelve el más cercano.
Para BF matcher, primero tenemos que crear el objeto BFMatcher usando cv2.BFMatcher (). Se
necesitan dos parámetros opcionales. El primero es normType, especifica la medida de distancia
que se utilizará. Por defecto, es cv2.NORM_L. Para descriptores basados en cadenas binarias como
ORB, BRIEF, BRISK, etc., se debe usar cv2.NORM_HAMMING, que utiliza la distancia de
Hamming
como
medida. Si
ORB
está
usando WTA_K == 3 o
4,
se debe
usar cv2.NORM_HAMMING2.
Para este caso se realizará la coincidencia con descriptores de ORB, a continuación, se observa el
código de este algoritmo.
import cv2
from matplotlib import pyplot as plt
img1 = cv2.imread('box.png',0)
img2 = cv2.imread('box_in_scence.png',0)
org = cv2.ORB()
kp1, des1 = orb.detectAndCompute(img1, None)
kp2, des2 = orb.detectAndCompute(img2, None)
bf = cv2.BFMatcher(cv2.NORM_HAMMING,
crossCheck=True)
matches = bf.match(des1,des2)
matches = sorted(matches, key = lambda
x:x.distance)
img3 = cv2.drawMatches(img1, kp1, img2, kp2,
matches[:10], flags=2)
plt.imshow(img3),plt.show()
Figura 3.17 Código algoritmo ORB para la coincidencia de características
65
Correspondencia con matriz fundamental
Como ya se mencionó en el Capítulo II, una de las propiedades de la matriz fundamental es la
igualdad para puntos correspondientes: 𝑥′𝑇 𝐹𝑥 = 0
Donde, x’ representa al punto clave de la primera imagen y x el punto clave de la segunda imagen,
si estos son correspondientes la ecuación dará como resultado 0.
Para calcular la Matriz Fundamental se usa la ecuación: 𝐹 = [𝐾′𝑡] × 𝐾 ′ 𝑅𝐾 −1 , donde K, representa
la matriz de parámetros intrínsecos de la cámara, matriz proporcionada por el código de
Calibración de cámaras fisheye. Ya que las dos imágenes a analizar se tomarán con la misma
cámara se dice que: K’ = K.
Haciendo uso de las herramientas de Python, se realiza el cálculo respectivo, además del cálculo
de la Determinante de F, la cual, si es igual o aproximada a 0, significa que la Matriz Fundamental
obtenida es correcta.
F = (K*t)@(K*R*Kinv)
F1 = K*t
F2= [email protected]
Det = np.linalg.det(F)
Figura 3.18 Cálculo de Matriz Fundamental y su Determinante
Paso siguiente se compara uno por uno los puntos clave x de la primera imagen con todos los
puntos clave x’ de la segunda imagen, si la igualdad 𝑥′𝑇 𝐹𝑥 = 0 se cumple quiere decir que esos
dos puntos son correspondientes.
3.7.6. Algoritmo de cálculo de coordenadas 3D
Una vez obtenido los puntos correspondientes de las dos imágenes, se diseñó un método que realice
el análisis visto en el punto 3.7.1.
Cómo parámetros de entrada tenemos:

kp1, puntos clave de la imagen1.

kp2, puntos clave de la imagen 2
66

centrox, valor de x del centro de la cámara, valor obtenido en la matriz de parámetros
intrínsecos.

centroy, valor de y del centro de la cámara.

b, distancia del centro de la imagen 1 y el centro de la imagen 2

radio, radio del lente.
Después de ingresado los parámetros iniciales, el método recorre cada uno de los puntos
correspondientes, identificando el caso al que pertenece y realizando el análisis correspondiente
para obtener el valor de (X, Y, Z, 1) de cada punto, se añade un valor de 1 adicional para poder
hacer la multiplicación por la matriz de traslación y rotación de ser el caso.
Este método devuelve un array con los puntos 3D obtenidos de la correspondencia de puntos de
las dos imágenes analizadas. A continuación, se muestra la sintaxis del método creado para la
obtención de los puntos 3D.
def coordenadas(kp1,kp2,centroX,centroY,b,radio):
Coordenadas = []
for i in range(len(kp1)):
#CASO 1
if kp1[i][0] < centroX and kp1[i][1] < centroY and kp2[i][0] < centroX and kp2[i][1] < centroY:
else:
#CASO 2
if kp1[i][0] > centroX and kp1[i][1] < centroY and kp2[i][0] > centroX and kp2[i][1] <
centroY:
else:
#CASO 3
if kp1[i][0] < centroX and kp1[i][1] > centroY and kp2[i][0] < centroX and kp2[i][1] >
centroY:
else:
#CASO 4
if kp1[i][0] > centroX and kp1[i][1] > centroY and kp2[i][0] > centroX and
kp2[i][1] > centroY:
else:
#CASO 5
if kp1[i][0] > centroX and kp1[i][1] < centroY and kp2[i][0] < centroX and
kp2[i][1] < centroY:
else:
#CASO 6
if kp1[i][0] > centroX and kp1[i][1] > centroY and kp2[i][0] < centroX and
kp2[i][1] > centroY:
return np.array(Coordenadas)
Figura 3.19 Método para la obtención de los puntos 3D
67
3.7.7. Métodos de Traslación y Rotación
No siempre las fotografías serán tomadas en la misma orientación, siempre existirá traslación y
rotación generalmente en el eje Y, tal cómo se mostró en la Figura 3.12. Por este motivo fue
necesario diseñar dos métodos adicionales, uno para la traslación y otro para la rotación.
El método de traslación recibe como parámetros el valor la traslación en el eje X, Y & Z, además
de la nube de puntos con coordenadas (x, y, z, 1) de cada punto y realiza el producto matricial
entre el punto p[i] y la matriz de traslación. Cómo resultado devuelve un array con las nuevas
coordenadas, como se puede ver en la Figura 3.20 (a).
De manera similar a la traslación se desarrolló el método de rotación en el eje Y, este método
recibe como parámetros de entrada el ángulo que se rotó y los puntos 3D, seguidamente haciendo
uso de los métodos proporcionados por numpy, se hace el producto entre la matriz Ry y el punto
p, dando como resultado final un array con los nuevos valores rotados, ver la Figura 3.20 (b).
def traslation(x, y, z, puntos):
nuevos_puntos = []
T = np.array([[1, 0, 0, x],
[0, 1, 0, y],
[0, 0, 1, z],
[0, 0, 0, 1]])
a)
for i in range(len(puntos)):
nuevo = np.dot(T, puntos[i])
nuevos_puntos.append(nuevo)
return np.array(nuevos_puntos)
b)
def rotationY(angle, puntos):
nuevos_puntos = []
Ry = np.array([[math.cos(angle), 0, math.sin(angle), 0],
[0, 1, 0, 0],
[-math.sin(angle), 0, math.cos(angle), 0],
[0, 0, 0, 1]])
for i in range(len(puntos)):
nuevo = np.dot(Ry,puntos[i])
nuevos_puntos.append(nuevo)
return np.array(nuevos_puntos)
Figura 3.20 a) Método de traslación. b) Método de rotación.
68
3.7.8. Presentación de la nube de puntos
Luego de tener la nueva nube de puntos con la traslación y rotación correspondiente, se procede a
la representación de los mismos en una gráfica en tercera dimensión, para esto hacemos uso de
Python y la biblioteca Matplotlib. A continuación, se detallan los pasos a seguir:
1) Se crea la figura con: fig = plt.figure()
2) Se crea el plano 3D: ax1 = fig.add_subplot (111, projection='3d')
3) Es necesario tener un array con cada coordenada por separado.
4) Agregamos los puntos en el plano 3D con el método scatter: ax1.scatter(x, y, z, c='g',
marker='o'), el valor de 'g' representa el color con el que se dibujarán los puntos.
5)
import matplotlib.pyplot as plt
fig = plt.figure()
ax1 = fig.add_subplot(111,
projection='3d')
x = [1,2,3,4,5,6,7,8,9,10]
y = [5,6,7,8,2,5,6,3,7,2]
z = [1,2,6,3,2,7,3,3,7,2]
ax1.scatter(x, y, z c='g', marker = 'o')
plt.show()
Figura 3.21 Ejemplo de presentación de puntos 3D
3.7.9. Elaboración del soporte para el teléfono móvil
La cámara a utilizar será el accesorio Universal clip lens que se colocará en el teléfono móvil LG
K8, sus características físicas son las siguientes:
Tabla 7: Características LG K8
Dimensiones: 146.3 x 73.2 x 8.2mm
Peso: 149 g
Pantalla: 5’’
Cámara Principal: 13 MP
Resolución: 1280 x 960
69
El diseño del soporte fue realizado por otro miembro del Proyecto No 30, encargado de la parte
técnica e impresión de piezas. Este soporte debe ser acoplado fácilmente a la estructura del gimbal.
Tomando en cuenta las dimensiones del teléfono móvil, se hizo un croquis rectangular con las
dimensiones exactas del móvil. Para la disminución de masa del soporte se realizó una matriz de
orificios de 1.5 cm de diámetro en la parte trasera como se observa en la Figura 3.22.
Figura 3.22 Diseño de soporte 3D
Figura 3.23 Simulación de montaje de soporte en el quadcópter
Para la fabricación de las piezas del prototipo las impresoras 3D que se utilizan son el modelo DIY
2018, estas impresoras son de tipo “Open Hardware”. Es una impresora 3D cartesiana capaz de
construir en PLA con una resolución de 100 µm, con cama caliente y una extrusora cuya
temperatura puede llegar a los 210º C. Este equipo es de bajo costo, y permite la construcción de
piezas con un buen acabado. A continuación, se indican las características generales de este equipo.
70
Tabla 8: Características de impresora 3D
Impresora 3D
DIY 2018
Espacio de
impresión
(mm3)
200 x 200 x 180
Tiempo de
ensamblaje
Resolución
Precio de
mercado
7 horas
100 µm
$250
Figura 3.24 Impresora DIY 2018
Después de impresa las piezas quedaron de la siguiente manera:
Figura 3.25 Resultado del soporte impreso
71
CAPÍTULO IV
4. Pruebas y Resultados
4.1.
Simulación en Cinema 4D
Antes de trabajar con imágenes obtenidas desde nuestra cámara hemisférica, se realizó una prueba
para verificar el correcto funcionamiento del código para la obtención de coordenadas de un punto
P.
Haciendo uso del programa Cinema 4D, se hizo un modelado simulando las condiciones
anteriormente expuestas (Figura 3.9).
Figura 4.1 Simulación en Cinema 4D.
Como datos de entrada tenemos:
u1 = 43.56
v1 = 50
u2 = 32.87
v2 = 50
θ2 = 26.60
b = 300
C = 26.38
Todas estas unidades son proporcionadas por Cinema 4D. A continuación, se muestra una tabla
comparando los resultados obtenidos con nuestro análisis y las coordenadas reales del programa.
72
Tabla 9: Resumen de resultados de la prueba 1
Coordenadas
X
Y
Z
Coordenadas reales
200
250
400
Coordenadas obtenidas
mediante el código
197.95
251.05
399.12
Los resultados obtenidos son más que satisfactorios, teniendo un margen de error mínimo. Esta
prueba nos ayudó a verificar que el análisis realizado fue correcto.
4.2.
Cálculo de coordenadas de un solo punto P
Se tomó 2 fotografías de un pasillo con el objetivo de calcular las coordenadas (x, y, z) de un punto
en específico utilizando el código de cálculo de coordenadas.
a)
b)
Figura 4.2 a) Imagen 1 b) Imagen 2.
Como datos de entrada tenemos
u1 = 342.5 px
v1 = 551 px
u2 = 288.38 px
v2 = 551 px
θ2 = 25°
b = 76 cm
C = 45°
73
Una vez ejecutado el código tenemos los siguientes resultados:
Tabla 10 Resumen de resultados de la prueba 2
Coordenadas
X
Y
Z
Coordenadas reales
131 cm
140 cm
197 cm
Coordenadas obtenidas
mediante el código
142 cm
142 cm
254 cm
Como se puede observar, a pesar de que en el eje X & Y el margen de error se establece en 10 cm
que es bastante bueno, en el eje Z no sucede lo mismo, existiendo un error bastante considerable.
Esto se debe a que el accesorio Universal clip lens que utilizamos no tiene una forma hemisférica
perfecta por lo que el radio de la imagen es diferente en cada punto.
Semiesfera del
accesorio
Semiesfera perfecta
Figura 4.3 Error en la forma de la semiesfera
4.3.
Pruebas de vuela con el quadcópter
Una vez realizado pruebas iniciales con una simulación en Cinema 4D y el análisis de un solo
punto de un espacio determinado, el siguiente paso fue realizar pruebas de vuelo para verificar el
correcto funcionamiento del soporte antes de montar el teléfono móvil en el mismo. Las pruebas
se realizaron en un rango de 5 a 45 metros de altura, dónde se analizó si factores como viento,
velocidad o cambios de dirección ocasionan que el soporte sufra alguna fractura. Se realizaron 3
pruebas de vuelo a distinta velocidad y altura, en cierto tiempo se aterriza el quadcopter y se
comprueba visualmente si el soporte presentaba algún inconveniente.
74
Tabla 11: Resultados de la primera prueba de vuelo
Tiempo de vuelo
Altura
Velocidad
Presencia de
fracturas
8 minutos
5m
3.1 m/s
No
7 minutos
18 m
5.2 m/s
No
6 minutos
42 m
4.7 m/s
No
Como se puede observar en la Tabla 6, los resultados del correcto funcionamiento del soporte
fueron satisfactorios, soportando los diferentes cambios a los que fue sometido sin presentar algún
tipo de fractura o daño de la estructura, soportando despegues y aterrizajes de la aeronave.
El siguiente paso fue realizar pruebas de vuelo con el teléfono móvil montado en el soporte que va
añadido al quadcópter como se puede ver en la Figura 4.4.
Figura 4.4 Dispositivo acoplado al quadcópter
Para la toma de fotografías de manera remota se usó la herramienta AirDroid (ver Anexo B) el
cual permite mediante un computador acceder a la cámara del teléfono móvil y tomar las
fotografías deseadas.
En esta segunda prueba de vuelo de igual manera se realizaron 3 despegues con sus respectivos
aterrizajes siendo como común denominador que en las tres ocasiones el dron Tarot perdió
comunicación con la señal del control remoto. Después de un análisis de lo sucedido se llegó a la
conclusión de que la frecuencia de 5GHz de la señal Wi-Fi proveniente del teléfono móvil provocó
75
una interferencia en la señal del control remoto por lo que el dron Tarot dejó de recibir las órdenes
del control provocando su descenso. La señal Wi-Fi del teléfono móvil es necesaria para poder
tomar las fotografías de manera remota por lo que apagarla o colocar el dispositivo en modo avión
no es una opción. A pesar de que el soporte para el teléfono móvil funcionó de manera correcta,
se tuvo que descartar la opción de tomar fotografías aéreas de edificaciones, por lo que se optó por
tomar fotografías haciendo uso de un trípode que sostenga en teléfono móvil.
4.4.
Análisis de un edificio de la Facultad de Ingeniería Ciencias Físicas y Matemática
Continuando con el objetivo de este proyecto se prosiguió a la toma de fotografías de un edificio
de la facultad, para poder obtener una nube de puntos del mismo, el edificio seleccionado fue el
siguiente:
Figura 4.5 Edificio de la Facultad de Ingeniería Ciencias Físicas y Matemática
Siguiendo los pasos mencionados en el apartado 3.7, en primer lugar, se realizó la calibración de
la cámara seleccionada.
Calibración de cámara
Haciendo uso del método cv2.fisheye.calibrate que nos proporciona la biblioteca de OpenCv, los
parámetros devueltos fueron los siguientes:
DIM = (1280, 960)
76
K=np.array([[506.2692088899974, 0.0, 624.9547272021955],
[0.0, 498.44188307072085, 473.0689174866462],
[0.0, 0.0, 1.0]])
D=np.array([[-0.07962037625147166],
[0.21796080526946815],
[-0.36826504921829034],
[0.16216685308558942]])
Dónde DIM representa la resolución de la cámara, K es la matriz de parámetros intrínsecos y D es
el vector de salida de coeficientes de distorsión.
Toma de fotografías
Una vez realizada la calibración de cámara se prosigue con la toma de fotografías, en este caso
específico se tomaron 6 fotografías del edificio, distribuidas de la siguiente forma:
Figura 4.6 Distribución de las fotografías del edificio de la facultad
77
Figura 4.7 Medidas necesarias para el análisis.
A continuación, se muestran las fotografías reales tomadas.
Imagen 1
Imagen 2
Imah
Imagen 3
Imagen 4
78
Imagen 5
Imagen 6
Figura 4.8 Fotografías tomadas del edificio de estudio.
Identificación de puntos clave
Para la obtención de puntos clave se hizo uso de los dos métodos mencionados en el apartado
3.7.4, el algoritmo goodFeaturesToTrack y el algoritmo ORB, para determinar cuál es el más
adecuado.
Algoritmo goodFeaturesToTrack
Figura 4.9 Resultado algoritmo goodFeaturesToTrack
La ventaja de usar este método es que se puede especificar el número de puntos clave que se desea
encontrar y la distancia entre uno y otro, al observar la imagen resultante podemos ver que los
puntos encontraron se encuentran en su mayoría en las esquinas, lo cual facilita la formación de
nube de puntos.
79
Algoritmo ORB (Oriented FAST and Rotated BRIEF)
Figura 4.10 Resultado algoritmo ORB
La característica de este método es que no solo nos da como resultado las coordenadas de los
puntos clave encontrados sino también nos proporciona los descriptores de cada uno de ellos, esta
información será necesaria al momento de utilizar el método de Basics of Brute-Force Matcher,
que nos devuelve la correspondencia de los puntos clave de ambas imágenes
Correspondencia de puntos
Antes de obtener las coordenadas 3D de los puntos del edificio, es necesario tener los vectores con
los puntos correspondientes de las dos imágenes analizadas, por este motivo se realizaron pruebas
con cada una de las opciones presentadas en el punto 3.7.5 de este documento.
Método Basics of Brute-Force Matcher
Para usar este algoritmo como parámetros de entrada no solo nos pide los puntos clave de las dos
imágenes sino también los descriptores de estos puntos, por esta razón el método para la
identificación de puntos clave utilizado será el método ORB. Al ejecutar este algoritmo es resultado
es el siguiente:
80
Figura 4.11 Resultado algoritmo Brute Force Matcher
En la imagen resultante de este algoritmo, une con una línea los puntos que considera son
correspondientes, como se puede observar existen varios puntos considerados correspondientes
que en realidad no lo son. Además, las correspondencias encontradas no serán suficientes para la
creación de una nube de puntos apta para la reconstrucción 3D ya que no se han tomado ni siquiera
las esquinas más importantes de la edificación. Por esta razón se considera que el Método Brute
Force Matcher no nos proporciona los datos necesarios para la creación de la nube de puntos.
Correspondencia de puntos haciendo uso de la matriz Fundamental
Como vimos anteriormente uno de los resultados del método de calibración de cámara es la matriz
de parámetros intrínsecos K, la cual no proporciona la información de la cámara utilizada.
506.27
0.0
𝐾 = [ 0.0
498.44
0.0
0.0
624.95
473.07]
1.0
Para calcular la Matriz Fundamental se hace uso de la ecuación: 𝐹 = [𝐾′𝑡] × 𝐾 ′ 𝑅𝐾 −1 , siendo R
la matriz de rotación y t, el vector de traslación.
81
1.0 0.0
𝑅 = [0.0 1.0
0.0 0.0
0.0
0.0], R es igual a la identidad cuando no exista ninguna rotación.
1.0
𝑡 = [6.22 0.0 0.0], traslación en el eje x.
Como resultado tenemos que la matriz fundamental de las dos primeras imágenes tomadas es:
𝐹=[
3148.99 0.0 3887.22
0.0
0.0
0.0 ]
0.0
0.0
0.0
Se ha verificado que la determinante de esta matriz sea igual a cero. La matriz Fundamental
obtenida posee solo dos valores debido a que K=K’, además que al tratarse de las dos primeras
imágenes tomadas no existió rotación en la cámara, solo una traslación de 6.22 m en el eje X.
Una vez obtenida la Matriz Fundamental se hizo uso de la igualdad: 𝑥′𝑇 𝐹𝑥 = 0, para determinar
los puntos correspondientes.
El método utilizado para la obtención de los puntos clave de las imágenes para este caso, fue el
método de goodFeaturesToTrack. Este método nos devolvió un array de puntos clave de cada
imagen. Al analizar la igualdad para puntos correspondientes comparando cada punto clave de la
primera imagen con todos los puntos clave de la segunda, se observó que el resultado obtenido no
fue para nada cercano a cero como nos pide la igualdad.
Por esta razón se decidió escoger manualmente puntos correspondientes de ambas imágenes y
verificar si la igualdad se cumple. A continuación, se muestra una tabla con el valor de la igualdad
para los 4 primeros puntos correspondientes escogidos.
Tabla 12: Resultados del producto: 𝒙′𝑻 𝑭𝒙, con puntos correspondientes
x
x’
(396.77 , 74.6)
(159.59 , 193.18)
77732.7523
(700.79 , 57.35)
(323.46 , 106.94)
232811.5424
(1009.12 , 167.31)
(748.22 , 83.22)
768968.3046
(394.62 , 115.56)
(153.13 , 229.84)
86989.471
82
𝒙′𝑻𝑭𝒙
A pesar de que los puntos escogidos eran correspondientes entre sí, el resultado del producto
𝑥′𝑇 𝐹𝑥 en todos los casos fue un número extremadamente grande, este resultado se dio debido a
que este análisis se lo realiza para imágenes planas y no para imágenes hemisféricas que presentan
una distorsión significativa.
Ya que ambos métodos para la obtención de puntos correspondientes no nos proporcionaron los
resultados adecuados, se decidió proseguir con el análisis escogiendo puntos correspondientes
manualmente. Para las imágenes 1 y 2, se identificaron 66 puntos correspondientes; para las
imágenes 3 y 4, se identificaron 74 puntos correspondientes y finalmente para las imágenes 5 y 6,
se identificaron 47 puntos correspondientes. Haciendo uso de las herramientas que nos proporciona
Python, se realizó un algoritmo que nos permitiera visualizar la posición (x,y) de cada punto
escogido, y esta serie de puntos correspondientes guardarlos en un archivo .npz para su posterior
análisis.
im = cv2.imread('imagenes2/img6_2.jpg')
fig = plt.figure()
coords = []
plt.imshow(cv2.cvtColor(im,
cv2.COLOR_BGR2RGB))
def onclick(event):
global ix, iy
ix, iy = event.xdata, event.ydata
print('x = %d, y = %d' % (
ix, iy))
global coords
coords.append((ix, iy))
print(len(coords))
return coords
cid =
fig.canvas.mpl_connect('button_press_event',
onclick)
plt.show()
print(coords)
np.savez("img1.npz", coord=coords)
Figura 4.12 Sintaxis del algoritmo para guardar puntos de interés de una imagen.
83
Presentación de la nube de puntos
Ya que se han calculado los puntos correspondientes de cada par de imágenes a analizar, además
de conocer las coordenadas del centro de la imagen (Matriz de parámetros intrínsecos), la distancia
entre cada centro de imagen, la traslación y rotación realizada, es posible utilizar nuestro algoritmo
para el cálculo de coordenadas 3D (Ver apartado 3.7.6). Este algoritmo nos devuelve una nube de
puntos con coordenadas (x, y, z) de cada par de imágenes, por lo que al final tendremos 3 arrays
de coordenadas 3D, los cuales serán representados en una gráfica tridimensional haciendo uso del
método scatter.
El resultado final de la nube de puntos es el siguiente:
a)
b)
c)
Figura 4.13 Resultados de la nube de puntos. a) Vista Frontal. b) Vista Superior. c) Vista
Lateral.
Figura 4.14 Comparación entre el edificio real y la nube de puntos obtenida.
84
Estimación del error
Se realizaron en total 4 ensayos, donde se tomaron fotografías del mismo edificio y en posiciones
similares, esto con el objetivo de verificar si existe variación en los resultados obtenidos en los
diferentes ejes. La Tabla 12 nos muestra el resumen de la estimación del error del eje (X, Y, Z)
para cada par de imágenes, es decir las coordenadas 3D de cada una de las 3 paredes del edificio,
así como el número de puntos correspondientes obtenidos de cada imagen.
Tabla 13: Estimación del error.
Imagen
N° de
Estimación de error
Estimación de error
Estimación de error
Analizada
puntos
del eje X
del eje Y
del eje Z
1y2
66
0.6474749575518515
0.909372869335131
2.4243688434154294
3y4
74
0.47061796636203934
0.4368616298602541
1.0383213801730464
5y6
45
0.6995959234215118
0.12132339861849835
1.4422034576144926
Como se puede observar existe mayor error en los ejes Z de cada par de imágenes, como se
mencionó anteriormente esto se debe a la forma del lente que no es hemisférico perfecto, lo que
nos produce mayor error en el cálculo de la profundidad.
A continuación se muestra un ejemplo del procedimiento que se siguió para la obtención del error
del eje Z de las imágenes 3 y 4.
Tabla 14: Ejemplo del análisis realizado para estimar en error de los ejes.
Imagen 3 y 4
Coordenada Z
Punto
Ensayo 1
Ensayo 2
Ensayo 3
Ensayo 4
1
2
3
4
5
.
.
.
74
-2,92E+00
1,59E+00
8,76E+00
-2,77E+00
-1,54E+00
.
.
.
.
-3,85E+00
1,38E+00
9,72E+00
-3,89E+00
-2,22E+00
.
.
.
.
-5,96E+00
1,18E+00
12,22E+00
-5,95E+00
-3,81E+00
.
.
.
.
-5,89E+00
1,28E+00
12,25E+00
-6,00E+00
-3,97E+00
.
.
.
.
85
Desviación
Estándar
1,51447818
0,17560459
1,82833334
1,59515219
1,19660561
.
.
.
.
Estimación
de error
1.03832
Se tomó en cuenta el resultado del eje Z de cada uno de los puntos correspondientes en cada uno
de los ensayos realizados, seguidamente se calculó la desviación estándar que verificaría la
variación del conjunto de valores, estos datos serían los que nos ayudaron a calcular un error
estimado.
86
CAPÍTULO V
5. Conclusiones y Recomendaciones
5.1.
Conclusiones

El prototipo de escáner 3D usando una cámara omnidireccional montada en un dron
quadcópter presentó inconvenientes al momento de lograr la toma aérea; sin embargo,
tanto la investigación realizada como las pruebas hechas, conforman un pilar fundamental
para el mejoramiento de esta técnica.

Los escáneres tridimensionales que utilizan imágenes omnidireccionales nos dan mejores
resultados en términos de velocidad en la toma de imágenes puesto que una sola fotografía
nos proporciona mayor información. De la investigación realizada se concluyó que el
Lenguaje de Programación Python utilizado para el procesamiento de imágenes
omnidireccionales con lente hemisférico dio excelentes resultados, en especial la biblioteca
de visión artificial de código abierto OpenCV.

El método propuesto para componer una geometría tridimensional a partir de dos imágenes
del mismo espacio, se ejecutó de forma exitosa previo a análisis de los posibles casos que
se pueden presentar. Este método demostró resultados satisfactorios a lo largo de las
pruebas realizadas. Se puede realizar el proceso de escaneo 3D utilizando cámaras de bajo
costo siempre y cuando estás cumplan con los requisitos establecido anteriormente, en
nuestro caso simplemente usando un accesorio para teléfono celular que se encuentra de
venta en cualquier local comercial de este tipo.

El uso de un dron quadcópter supone una herramienta de gran utilidad al momento de
capturar imágenes de edificios de una altura considerable. Sin embargo, debido a la
interferencia entre la señal WiFi del teléfono móvil y el control del quadcópter, se produjo
errores de conexión por lo que no fue factible el sobrevuelo del dron.
87

Se logró la obtención de una nube de puntos perteneciente a un edificio de la Facultad de
Ingeniería Ciencias Físicas y Matemática, obteniendo un margen de error solo en el eje Z
de las coordenadas 3D.
5.2.
Recomendaciones

Tiempo para desarrollar un prototipo funcional de escáner 3D
Teniendo en cuenta que el desarrollo de un escáner 3D con técnicas no muy conocidas y
poco utilizadas, aunque altamente efectivas como es el uso de imágenes hemisféricas,
requiere de un proceso de investigación profundo antes de empezar con la elaboración del
prototipo, por lo que el tiempo recomendable para realizar todo el proceso sería de uno a
dos años de trabajo.

Equipo de trabajo
Se recomienda tener un equipo de trabajo mínimo de tres personas para realizar todas las
actividades requeridas. Por ejemplo: una persona especializada en la parte técnica tanto
para el mantenimiento del dron, como para el diseño e impresión de piezas necesarias; un
piloto entrenado para poder volar el dron cerca de edificios y una persona encargada del
procesamiento de imágenes.

Consideraciones para el correcto manejo del Dron
Se necita de un piloto especializado para volar un Dron quadcópter de estas dimensiones
y características ya que este no estará volando en un lugar despejado como se recomienda,
sino que volará cerca de las edificaciones que se desea escanear. Si no se pudiera conseguir
un piloto especializado, se recomienda que la persona encargada de volar el dron tenga un
tiempo de entrenamiento mínimo de 2 meses.

Uso de software
88
En caso de ser necesario obtener resultados rápidamente, se podría hacer uso de softwares
especializados en fotogrametría, los cuales se encuentran fácil mente en la red, existen tanto
de paga como gratuitos, entre los mejores tenemos:
-Pix4D (2600/año)
-PhotoScan ($179 estandar)
89
BIBLIOGRAFÍA
1) Abdel-Bary, M. (2011). 3D Laser Scanners: history, applications, and future.
2) Aguirre, J. (2016). Calibración de cámaras no métricas, Estudio de metodologías y modelos
matemáticos de distorción. Madrid, España.
3) Aplicación de monitoreo de cámara EseeCloud para PC con Windows. (31 de Octubre de
2018). Obtenido de BDFIX: https://bdfixforum.blogspot.com/2018/10/eseecloud-cameramonitoring-app-for.html
4) Barazzetti, L., Fangi, G., Remondino, F., & Scaioni, M. (2010). Automation in MultiImage Spherical Photogrammetry for 3D Architectural Reconstructions.
5) Barranco, A., Martínez, S., & Gómez, J. (Junio de 2016). Visión estereoscópica por
computadora con Matlab y OpenCV.
6) Beekmans, C., Schneider, J., Labe, T., Lenner, M., Stachniss, C., & Simmer, C. (2016).
Cloud photogrammetry with dense stereo for fisheye cameras. Atmospheric Chemistry and
Physics, 14231-14248.
7) Bourke, P. (Junio de 2017). Classification of fisheye mappings. Obtenido de paulbourke:
http://paulbourke.net/dome/fisheyetypes/
8) Cabezos Bernal, P., & Cisneros Vivó, J. (2016). PANORAMAS ESFÉRICOS
ESTEREOSCÓPICOS. EGA, 70-81.
9) Cámaras FPV. (s.f.). Obtenido de Experto en drones: https://www.expertodrones.com/camaras-fpv/
10) CAPTURADORA DE VIDEO CONVERSOR DE VIDEO EASYCAP DC 60. (s.f.). Obtenido
de euroextremeshop.com: http://euroextremeshop.shopmania.biz/compra/capturadora-devideo-conversor-de-video-easycap-dc-60-393698
11) Carrasco, J. A. (Abril de 2015). Integración de un UAV (vehículo aéreo no tripulado) en
la plataforma robótica ARGOS. Proyecto fin de carrera. Madrid, España.
12) Cegarra Sánchez, J. (2004). Metodología de la investigación científica y tecnológica.
Madrid.
13) Cinema 4D. (s.f.). Obtenido de ecured: https://www.ecured.cu/Cinema_4D
14) Da Sousa, A. (Septiembre de 2016). Papiloma invertido rinosinusal en una niña de nueve
años. Caracas, Venezuela.
90
15) D'Annibale, E., & Fangi, G. (2009). Interactive Modelling by projection of oriented
Spherical Panorama - Ad Deir, Petra, Jordan.
16) De La Cruz Casaño, C. (2016). MEtodología de la investigación tecnológica en ingeniería.
Revista Ingenium, 43-46.
17) Diaz, M., Lencinas, D., & del Valle, H. (2014). Introducción a la fotografía hemisférica en
ciencias forestales. Madera y Bosques, 20(1), 109-117.
18) Dzananovic Ustovic, N. (Diciembre de 2012). Modelado 3D a partir de fotografías con
3DSOM. Escuela de Ingenierías Industriales. Valladolid , España.
19) Fangi, G., & Nardinocchi, C. (10 de September de 2013). PHOTOGRAMMETRIC
PROCESSING OF SPHERICAL. The Photogrammetric Record, XXVIII(143), 293-311.
20) Fangi, G., de Amorim, A., & Malinverni, E. (2013). Documenting architectural heritage in
Bahia, Brazil, using Spherical Photogrammetry. International Archives of the
Photogrammetry, Remote Sensing and Spatial Information Sciences, 219-224.
21) Fangi, G., Malinverni, E., & Tassetti, A. (2013). The metric documentation of Cham
Towers in Vietnam by Spherical Photogrammetry. ISPRS Annals of the Photogrammetry,
Remote Sensing and Spatial Information Sciences, 121-126.
22) Fangi, G., Piermattei, L., & Wahbeh, W. (2013). Spherical Photogrammetry as Rescue
Documentation for The Reconstruction of some UNESCO Sites in Syria. International
Journal of Heritage in the Digital Era, 2(3), 335-341.
23) Ferreño, E. (26 de Octubre de 2017). ¿Qué es un gimbal? ¿Para qué sirve? Obtenido de
Profesional review: https://www.profesionalreview.com/2017/10/26/que-es-un-gimbalpara-que-sirve/
24) Fisheye
Calibration
Basics.
(s.f.).
Obtenido
de
MathWorks:
https://www.mathworks.com/help/vision/ug/fisheye-calibration-basics.html
25) García, L. (s.f.). Drones, el cielo está al alcance de todos.
26) Gutierrez Posada, J., & Gómez Montoya, C. (27 de Septiembre de 2011). Metodología de
la Investigación Tecnológica. Colombia.
27) Haralick, R., & Shapiro, L. (1992). Computer and robot vision. New York.
28) Hirning, M., Isoardi, G., & Coyne, S. (Diciembre de 2009). Applying the Use of High
Dynamic Range Imaging Pipelines to Discomfort Glare Research. Australia.
91
29) Hobbytree
RX-LCD5802.
(s.f.).
Obtenido
de
amazon:
https://www.amazon.com/Hobbytree-RX-LCD5802-Diversity-ReceiverMonitor/dp/B0148BMA7W
30) Kaehler, A., & Bradski, G. (Diciembre de 2016). Learning OpenCV 3.
31) Luhmann, T., Robson, S., Kyle, S., & Harley, I. (2006). Close Range Photogrammetry
Principles, techniques and applications. Whittles Publishing.
32) Manual
usuario
cámara
360°.
(s.f.).
Obtenido
de
zoominformatica:
https://www.zoominformatica.com/docs-alarmas/Manual_usuario_castellano_IPFE02.pdf
33) Marcato, J., Antunes, M., & Garcia, A. (2015). EXPERIMENTAL ASSESSMENT OF
TECHNIQUES FOR FISHEYE CAMERA CALIBRATION.
34) Martín Barrio, N. (Julio de 2016). Análisis y aplicación de un escáner 3D en el ámbito
médico-estético. Madrid, España.
35) Mery, D. (14 de Agosto de 2004). Visión por Computador. Santiago, Chile.
36) Models
for
the
various
classical
lens
projections.
(s.f.).
Obtenido
de
http://michel.thoby.free.fr/Fisheye_history_short/Projections/Models_of_classical_projec
tions.html
37) Ojala, M., & Aiko, M. (Septiembre de 2015). Fisheye optics for omnidirectional stereo
camera Performance evaluation for AGV applications.
38) PC
PyCharm.
(s.f.).
Obtenido
de
tutorialspoint:
https://www.tutorialspoint.com/pycharm/pycharm_tutorial.pdf
39) Pinto, C. (2019). Diseño y desarrollo de gimbal para cámaras y láseres que funcionaran
como escáneres 3D en drones. Trabajo de titulación. Quito, Ecuador.
40) Rodriguez Navarro, P. (s.f.). LA FOTOGRAMETRÍA DIGITAL AUTOMATIZADA
FRENTE A LOS SISTEMAS BASADOS EN SENSORES 3D ACTIVOS. Expresión
gráfica arquitectónica, 100-111.
41) Ruiz Segarra, A. (Mayo de 2016). Automatización del escáner David 3D para la
digitalización de piezas patrimoniales del Ecuador. Quito, Ecuador.
42) Sámano Molina, J. M. (Septiembre de 2013). DISEÑO DE ROBOT MÓVIL Y CONTROL
MEDIANTE VISIÓN POR COMPUTADORA PARA LA NAVEGACIÓN EN UN
ESPACIO CONOCIDO.
92
43) Sansoni, G., Trebeschi, M., & Docchio, F. (Enero de 2009). State-of-The-Art and
Applications of 3D Imaging Sensors in Industry, Cultural Heritage, Medicine, and
Criminal Investigation. Sensors, 569-601.
44) Scaner 3d. (s.f.). Obtenido de EcuRed: https://www.ecured.cu/Scaner_3d
45) Schwalbe, E. (s.f.). GEOMETRIC MODELLING AND CALIBRATION OF FISHEYE
LENS CAMERA SYSTEMS. Alemania.
46) Thody, M. (6 de Noviembre de 2012). About the various projections of the photographic
objective
lenses.
Obtenido
de
http://michel.thoby.free.fr/Fisheye_history_short/Projections/Various_lens_projection.ht
ml#
47) Tipos de cámara FPV para un dron de carrera. (s.f.). Obtenido de midrondecarreras:
https://www.midronedecarreras.com/camaras-fpv/
48) TS5828 Mini transmisor de vídeo inalámbrico. (s.f.). Obtenido de AliExpress:
https://es.aliexpress.com/item/FPV-5-8GHz-600mW-32-Channels-Mini-Wireless-A-VTransmitting-TX-Module-TS5828-RP-SMA/32315877308.html
49) Tsai, R. (1987). A versatile camera calibration technique for high-accuracy 3D machine
vision metrology using off-the-self TV cameras and lenses. IEEE Journal of Robotics an
Automation, 323-344.
50) van Rossum, G. (Septiembre de 2009). El tutorial de Python.
51) Villareal,
H.
(2017).
Universal
lens
kit.
Obtenido
de
https://www.iosoffices.com/lifestyle-1/2018/1/31/universal-lens-kit
93
IOS
OFFICES:
ANEXOS
ANEXO 1. CARACTERÍSTICAS DEL DRON TAROT
Tabla 15: Características del Dron Tarot
Aeronave
Peso (incluida la batería)
2180 g
Max. Carga útil
1500 g
Carga útil óptima
1130 g
Velocidad angular
200 ° / s
Ángulo de inclinación máxima
35 °
Velocidad máxima de vuelo
15 m/s
Altura máxima de vuelo A.G. L
122 m
Tiempo de vuelo
35 min
Radio control
Frecuencia
2.4 GHz
Temperatura de funcionamiento
-10.0 ° C - 50.0 ° C
Rango de voltaje de trabajo
7.2 V - 22.2 V
Amperaje de trabajo
40 A nominal con 70 A pico máximo
Batería
Tipo de polímero
Litio
Peso
~ 1700 g
Amperaje Horas
12000 mAh
Voltaje
22.2 V (6 celdas)
94
ANEXO 2. ANÁLISIS DE LAS TRES CÁMARAS PROPUESTAS
DESARROLLO CON VR CAM 360
Requerimientos de Hardware
VR cam 360: Cámara de seguridad omnidireccional.
Figura B.1 VR cam 360
Cable de red: Cable de aproximadamente 7 metros de longitud.
Figura B.2 Cable de red
95
Adaptador de 12V
Figura B.3 Adaptador universal de 12v
Dispositivo Móvil: Se utilizará el dispositivo LG k8.
Requerimientos de Software
App VR CAM: Es una aplicación para Android que nos ayuda al monitoreo de las cámaras VR
CAM 360.
Figura B.4 Aplicación VR CAM (Manual usuario cámara 360°, s.f.)
96
Desarrollo
Para empezar con la utilización de la cámara se deben seguir los siguientes pasos:
1. Conexiones: La cámara debe estar conectada a la fuente de energía para empezar con la
configuración.
2. Descargar la App: En un dispositivo Android la aplicación “VR CAM” se encuentra en la
Play Store, una vez instala se deberá crear una cuenta para usarla.
Figura B.5 App en la Play Store
3. Añadir cámara: Una vez instalada la aplicación y con la cámara conectada al router,
simplemente se procede a añadir el dispositivo y se podrá observar la imagen que la cámara
capte en ese momento.
Figura B.6 Screenshots del funcionamiento de la aplicación
97
La ventaja de esta aplicación es que te permite observar la imagen de varias formas:
a)
b)
c)
Figura B.7 a) imagen fish eye, b) imagen cilíndrica, c) imagen en dos partes
Al tener la correcta conexión para la obtención de datos, se tomó fotografías del patrón de
calibración de ajedrez para realizar la calibración de la cámara.
Figura B.8 Patrón de ajedrez con VR CAM 360
98
Al comprobar que el código de calibración funcionó correctamente con las imágenes tomadas, el
siguiente paso fue lograr fotografías tomadas de manera inalámbrica sin la necesidad de usar un
cable de red, para así poder montar la cámara en el quadcópter.
Cuando el cable era separado de la cámara esta perdía la señal, mostrando el siguiente mensaje:
Figura B.9 Screenshot de mensaje de error
Conclusión
A pesar de que la imagen obtenida por la cámara VR CAM 360 nos proporciona los datos que
necesitamos, no nos ayudó en el propósito de este proyecto pues necesariamente tiene que estar
conectada por un cable de red al router donde el móvil está conectado, por lo que montarla en el
quadcópter para tomar fotografías aéreas no se podría realizar.
DESARROLLO CON LA CÁMARA CCD FPV
Requerimientos de Hardware
Cámara CCD FPV: Cámara usada para monitorear el vuelo de un dron.
99
Figura B.10 Micro cámara FPV mini
Transmisor de vídeo: El TS5828 es un mini transmisor de vídeo inalámbrico, que enviará la señal
proveniente de la cámara a un receptor de vídeo.
Especificaciones:

Formato de vídeo compatible: NTSC/PAL.

Conexión de la antena: RP-SMA, conector.

Entrada de energía: 7-24 V (3 S Lipoly sugerido).

Potencia de transmisión: 600 mW.

Ganancia de antena: 2dbm.

Corriente de funcionamiento: 310mA a 12 V.

Ancho de banda de vídeo: 8 Mhz.

De ancho de banda: 6,5 Mhz.

Peso: 7g (sin antena).

Dimensiones: 23x25x7,7mm (excepto antena).
Figura B.11 Mini transmisor de vídeo TS5828 (TS5828 Mini transmisor de vídeo inalámbrico,
s.f.)
100
Receptor de vídeo: Hobbytree RX-LCD5802 es un receptor monitor que nos ayudará a recibir la
señal enviada por el transmisor de vídeo. Posee 40 canales distintos y puede recibir dos señales
diferentes.
Especificaciones:

Dimensiones de 7.1"x 4.7"x2".

Ángulo de visión: 140/120 grados (horizontal/vertical).

Resolución: 800 x 480.

Brillo: 450 cd/㎡.

Temperatura de trabajo: -10 ℃ ~ + 65 ℃.

Consumo de energía: 650 mA @ 12 V (Max).
Figura B.12 Receptor de vídeo (Hobbytree RX-LCD5802, s.f.)
Capturador de audio y vídeo: EasyCap DC 60, es un capturador y conversor de vídeo, permitiendo
guardar la imagen que se proyecte en el receptor Hobbytree.
Especificaciones:

Captura de Audio y Video en tiempo real.

Control de Brillo, Contraste, Matiz y Saturación.

Permite capturar audio sin necesidad de disponer de tarjeta de sonido.

Conexión y Alimentación mediante USB 2.0.

Menú predictivo para un fácil uso.

Soporta Formatos: DVD+/-R/RW, DVD+/-VR y DVD-Video.

Soporta formatos de video NTSC y PAL.
101

Entrada de Video: RCA Hembra o S-video.

Entrada de Audio: RCA Hembra (Estéreo).

Resolución de capturas: 720*480(NTSC) / 720*576 (PAL).

Compatible con XP + Vista + Win 7.
Figura B.13 Capturador de vídeo (CAPTURADORA DE VIDEO CONVERSOR DE VIDEO
EASYCAP DC 60, s.f.)
Requerimientos de Software
Honestech VHS to DVD: Permite capturar vídeo proveniente de otras vídeo grabadoras.
Figura B.14 Honestech VHS to DVD
Desarrollo
Para empezar la prueba se debe verificar que el monitor esté recibiendo la señal de la cámara,
como se puede observar a continuación:
102
Figura B.15 Imagen recibida de la cámara
Se conectará el monitor al computador mediante el capturador de audio y vídeo, para así poder
tomar fotografías de la imagen recibida por el monitor.
Figura B.16 Conexión entre el monitor y el computador
En vista de que la lente de la cámara no es omnidireccional, se optó con acoplarle el dispositivo
Universal clip lens para obtener una imagen con mayor apertura.
103
Figura B.17 Imagen de la cámara con el accesorio Universal clip lens
Se pudo observar que la imagen antes de ser colocada el lente ya presentaba una pequeña
aberración como se puede observar en el apartado a. de la Figura--, y al momento de montar el
Universal clip lens, el resultado fue una imagen ovala más que circular, puesto que la aberración
inicial influyó en la imagen final.
Conclusión
La ventaja de este dispositivo es que al ser una cámara diseñada específicamente para drones
quadcópter tanto la transmisión como la recepción de imagen no presentan ningún inconveniente.
Tampoco es un problema montar la cámara en el dron, como sí sucedía con la VR CAM 360.
Sin embargo, por defecto estas cámaras no vienen con un lente fish eye, pero si con una lente con
una aberración considerable. Para poder cambiarla es necesario la exportación del lente ojo de pez.
A demás considerando la aberración sumada del lente original, se descartó la utilización de esta
cámara.
DESARROLLO CON EL UNIVERSAL CLIP LENS
Requerimientos de Hardware
Universal clip lens: Accesorio para celular que adapta la cámara del mismo con una lente fish eye.
104
Figura B.18 Universal clip lens
Teléfono móvil LG K8:
Características Clave

Cámara de 13 MP

Cámara selfie de 5MP con auto disparo

Pantalla HD de 12.7cm/5" HD con tecnología In-cell y diseño curvo 2.5D

Rendimiento mejorado

Procesador: MediaTek MT6735 1.3GHz
Figura B.19 LG K8
105
Requerimientos de Software
AirDroid: Herramienta utilizada para controlar un smartphone o tablet de forma remota desde un
ordenador, concretamente desde el navegador web.
Figura B.20 Pantalla de inicio de AirDroid
Desarrollo
En primer lugar, se tiene que realizar el registro en la plataforma de AirDroid y agregar el
dispositivo que se va a utilizar.
Figura B.21 Agregar el dispositivo a AirDroid
Al verificar la correcta conexión entre el programa y nuestro celular, se prosigue a acceder a la
cámara del celular de manera remota.
106
Figura B.22 Acceso remoto a la cámara de celular
A continuación, se puede observar un ejemplo de una fotografía capturada con este método.
Figura B.23 Fotografía tomada remotamente desde la aplicación AirDroid
Conclusión
A pesar de que la imagen no es 100% circular, nos proporciona toda la información necesaria,
además al poder controlar la cámara del celular mediante la computadora, esto hace posible que el
dispositivo sea montado en el dron quadcópter.
107
ANEXO 3. TOMA DE FOTOGRAFÍAS EN LAS PRUEBAS DE VUELO
108
Descargar