Extracción de Conocimiento en Bases de Datos Astronómicas

Anuncio
Extracción de conocimiento en bases de
datos astronómicas
Memoria del periodo de investigación
presentada por
D. Miguel Ángel Montero Navarro
[email protected]
para optar al
Diploma de Estudios Avanzados
Director:
Dr. D. José C. Riquelme Santos
Tutores:
Dr. D. Roberto Ruiz Sánchez
Dr. D. Miguel García Torres
Sevilla, Junio de 2009
Índice general
Índice de figuras
iii
Índice de tablas
iv
1. Introducción
1.1. Planteamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Objetivos generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Estructura de la memoria de investigación . . . . . . . . . . . . . . . . . . . .
2
2
3
3
2. Hipótesis y objetivos
2.1. Introducción . . . . . . . . . . . . . . . . . .
2.2. La extracción de conocimiento . . . . . . . .
2.3. Fase de Minería de Datos . . . . . . . . . . .
2.4. Representación de los datos . . . . . . . . . .
2.5. Clasificación . . . . . . . . . . . . . . . . .
2.5.1. Naïve Bayes . . . . . . . . . . . . .
2.5.2. Vecinos más cercanos . . . . . . . .
2.5.3. Árboles de decisión . . . . . . . . . .
2.6. Evaluación del rendimiento de un clasificador
2.6.1. Precisión . . . . . . . . . . . . . . .
2.6.2. Validación de datos . . . . . . . . . .
2.6.3. Comparación del rendimiento . . . .
2.7. Preparación de los datos . . . . . . . . . . .
2.7.1. Recopilación . . . . . . . . . . . . .
2.7.2. Limpieza . . . . . . . . . . . . . . .
2.7.3. Transformación . . . . . . . . . . . .
2.7.4. Reducción . . . . . . . . . . . . . .
2.8. Selección atributos . . . . . . . . . . . . . .
2.8.1. Proceso general . . . . . . . . . . . .
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
8
9
11
11
12
14
17
17
18
21
22
23
23
24
25
27
29
ÍNDICE GENERAL
iii
2.8.2. Medidas de evaluación de atributos . . . . . . . . . . . . . . . . . . .
2.8.3. Conclusiones y tendencias . . . . . . . . . . . . . . . . . . . . . . . .
2.9. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Trabajos relacionados
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2. Análisis espectral . . . . . . . . . . . . . . . . . . . . . . .
3.1.3. Corrimiento al rojo . . . . . . . . . . . . . . . . . . . . . .
3.2. Instrumentación del SDSS . . . . . . . . . . . . . . . . . . . . . .
3.2.1. Cámara . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2. Espectrógrafos . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Cobertura del cielo . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1. Cobertura fotométrica . . . . . . . . . . . . . . . . . . . .
3.3.2. Cobertura espectroscópica . . . . . . . . . . . . . . . . . .
3.4. Extracción de datos . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1. Repositorio de datos científicos . . . . . . . . . . . . . . .
3.4.2. Tipos de objetos celestes . . . . . . . . . . . . . . . . . . .
3.5. Estado del arte de la minería de datos aplicada a datos astronómicos
3.6. Experimentación . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1. Preprocesamiento . . . . . . . . . . . . . . . . . . . . . . .
3.6.2. Descripción de los experimentos . . . . . . . . . . . . . . .
3.6.3. Análisis de los resultados . . . . . . . . . . . . . . . . . . .
3.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
31
31
33
33
34
37
39
40
40
42
45
45
45
46
47
51
53
53
57
58
60
62
4. Conclusiones
64
Bibliografía
67
Índice de figuras
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
Esquema General de KDD (Knowledge Discovery in Databases). . . . . . . .
División de los datos en carpetas. . . . . . . . . . . . . . . . . . . . . . . . . .
Proceso para validar los resultados al aplicar algoritmos de selección de atributos.
Fase de preparación de los datos. . . . . . . . . . . . . . . . . . . . . . . . . .
Reducción de un conjunto de datos. . . . . . . . . . . . . . . . . . . . . . . .
Reducción de los datos en ambos sentidos: ejemplos y atributos. . . . . . . . .
3.1. Respuesta en frecuencia de los diferentes tipos de filtros. . . . . .
3.2. Filtro óptico paso banda . . . . . . . . . . . . . . . . . . . . . . .
3.3. Dispersión de la luz en un prisma. . . . . . . . . . . . . . . . . .
3.4. Espectros de emisión (a) y de absorcion (b) del hidrógeno. . . . .
3.5. Efecto de la velocidad relativa sobre los espectros. . . . . . . . . .
3.6. Disposición de los sensores CCD en la cámara principal del SDSS
3.7. Imagen de los filtros colocados sobre la cámara del SDSS. . . . .
3.8. Curva de respuesta de los filtros ópticos utilizados en el SDSS. . .
3.9. Detalle espectrógrafo SDSS . . . . . . . . . . . . . . . . . . . .
3.10. Imágenes tomadas por la cámara del SDSS y espectros asociados.
3.11. Cobertura del cielo del SDSS en coordenadas galácticas. . . . . .
3.12. Esquema de una franja de observación (stripe). . . . . . . . . . .
3.13. Entorno de trabajo CasJob. . . . . . . . . . . . . . . . . . . . . .
3.14. Esquema de la base de datos DR7 del SDSS. . . . . . . . . . . . .
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
19
20
22
25
26
35
36
38
38
40
41
42
43
43
44
45
46
48
50
Índice de tablas
3.1.
3.2.
3.3.
3.4.
3.5.
3.6.
3.7.
3.8.
3.9.
3.10.
3.11.
3.12.
3.13.
3.14.
Máximo de transmisión y ancho banda de filtros u, g, r, i, z. . . . . . . . . . . .
Versiones del catálogo de datos del SDSS. . . . . . . . . . . . . . . . . . . . .
Clasificación morfológica según atributo type. . . . . . . . . . . . . . . . . . .
Clasificación espectral según el atributo specClass. . . . . . . . . . . . . . . .
Clasificación de los objetos celestes según el atributo objType. . . . . . . . . .
Consulta SQL para obtener datos de experimentación. . . . . . . . . . . . . . .
Atributos que intervienen en la consulta SQL de la tabla 3.6. . . . . . . . . . .
Consulta SQL para obtener URL de ficheros FITS. . . . . . . . . . . . . . . .
Líneas espectrales utilizadas en el SDSS para clasificación espectral. . . . . . .
Datos base de datos objeto de estudio. . . . . . . . . . . . . . . . . . . . . . .
Equivalencia etiquetado SDSS y base de datos objeto de estudio. . . . . . . . .
Resultados experimentación. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos seleccionados por los evaluadores CFS, CNS y CLS. . . . . . . . . .
Atributos seleccionados por ClassifierSubsetEval con evaluador NB sobre FiltrosEspectros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
v
42
47
51
52
52
54
54
55
56
57
58
60
62
63
Capítulo 1
Introducción
1.1.
Planteamiento
Conforme la implantación y potencia de los sistemas informáticos ha ido aumentando, lo ha
hecho también la cantidad de datos almacenados. Así la gestión y mantenimiento de grandes
bancos de datos supone una actividad cotidiana en muchas empresas y organismos públicos.
Ingentes cantidades de datos se encuentran almacenados en bases de datos procedentes de actividades del ámbito empresarial y público que se desarrollan en el día a día. La necesidad
de análisis de estos datos y extracción de conocimiento no implícito en los mismos de forma
automática derivó en el nacimiento de una nueva disciplina denominada KDD (Knowledge
Discovery in Data bases). Con el nacimiento de esta disciplina los datos pasan de ser el producto generado por los diferentes procesos inherentes a la actividad desarrollada a ser la materia
prima, de forma que a partir de estas ingentes cantidades de datos se extrae conocimiento útil
que ayuda a tomar decisiones en los ámbitos de donde fueron extraídos los datos.
El proceso de KDD comprende diversas etapas, que van desde la obtención de los datos hasta la
aplicación del conocimiento adquirido en la toma de decisiones. Entre esas etapas, se encuentra
la que puede considerarse como el núcleo del proceso KDD y que se denomina Minería de
Datos o Data Mining (DM).
La astronomía ha estado ligada al ser humano desde la antigüedad y todas las civilizaciones han
tenido contacto con esta ciencia. En las últimas décadas, gracias a los avances tecnológicos, se
han desarrollado y planificado una serie de proyectos astronómicos con el fin de profundizar en
el conocimiento de los cuerpos celestes. Estos estudios han generado importantes cantidades de
2
1.2. Objetivos generales
3
datos que los astrónomos han tenido o tendrán que analizar.
En astronomía la informática supone una herramienta primordial para el desarrollo de las tareas
inherentes a los estudios desarrollados, utilizándose desde tres perspectivas:
Como herramienta tecnológica que agiliza los procedimientos de adquisición de datos.
Como soporte para la gestión y organización de la información.
Como metodología para el diseño de aplicaciones capaces de gestionar los datos, solucionar problemas complejos y extraer conocimiento útil a partir de la información.
En el primer caso podríamos hablar de tecnología informática; en el segundo caso, de sistemas
de gestión de bases de datos; y, en el tercero, de ingeniería del software y minería de datos.
1.2.
Objetivos generales
El objetivo de la presente memoria de investigación es plantear una serie de resultados que
pueden mejorar y aligerar el proceso de análisis que realizan los astrónomos sobre los grandes
bancos de datos de origen astronómico. Para tal fin se realizará un estudio de las técnicas de
clasificación, cuya aplicación a datos de origen astronómico ha sido bastante escasa hasta la
fecha. Como objetivo secundario se realizará un estudio de los métodos de selección de atributos
y su aplicación a datos de origen astronómico. La finalidad de este trabajo de investigación, por
tanto, consistirá en clasificar objetos celestes y en identificar las características más relevantes
para su clasificación.
1.3.
Estructura de la memoria de investigación
El contenido de esta memoria de investigación se encuentra dividido en los siguientes capítulos:
Capítulo 2: Hipótesis y objetivos. En este capítulo describimos nuestra hipótesis de partida
para el desarrollo del proyecto de tesis y también presentamos, de forma resumida, los
objetivos que queremos cumplir a lo largo del proyecto.
4
1. Introducción
Capítulo 3: Trabajos relacionados. Se describe el proyecto SDSS, los conceptos relativos a
astronomía necesarios para la investigación sobre clasificación de objetos celestes y la
experimentación desarrollada en el presente trabajo de investigación. Se describe además
los trabajos desarrollados hasta la fecha en minería de datos aplicada a datos de origen
astronómico.
Capítulo 4: Conclusiones. En este último capítulo se exponen cuales son los resultados y conclusiones obtenidos en el presente estudio de investigación.
Capítulo 2
Hipótesis y objetivos
2.1.
Introducción
En muchas ocasiones, el método tradicional de convertir los datos en conocimiento consiste en
un análisis e interpretación realizada de forma manual por especialistas en la materia estudiada.
Esta forma de actuar es lenta, cara y altamente subjetiva. De hecho, la enorme cantidad de datos
desborda la capacidad humana de comprenderlos y el análisis manual hace que las decisiones
se tomen según la intuición de los especialistas.
A finales de la década de los 80, la creciente necesidad de automatizar todo este proceso inductivo abre una línea de investigación para el análisis inteligente de datos. Al conjunto de métodos
matemáticos y técnicas software para análisis inteligente de datos y búsqueda de regularidades
y tendencias en los mismos, aplicados de forma iterativa e interactiva, se denominaron técnicas
de Minería de Datos o Data Mining (DM). Su nombre proviene de las similitudes encontradas
entre buscar valiosa información de negocio en grandes bases de datos y minar una montaña
para encontrar una veta de metales valiosos.
La minería de datos ha sido usada como sinónimo de descubrimiento de conocimiento en bases
de datos (del inglés Knowledge Discovery in Databases, KDD), sin embargo, corresponde a
una de las fases de todo el proceso de descubrimiento, encargada de hacer uso de técnicas de
aprendizaje automático para desarrollar algoritmos capaces de aprender y extraer conocimiento
de los datos.
En la siguiente sección describiremos con mayor detalle el proceso de descubrimiento (o ex5
6
2. Hipótesis y objetivos
tracción) de conocimiento, detallando las etapas de las que consta.
2.2.
La extracción de conocimiento
El proceso completo de extraer conocimiento a partir de bases de datos se conoce como KDD
(Knowledge Discovery in Databases). Este proceso comprende diversas etapas, que van desde la
obtención de los datos hasta la aplicación del conocimiento adquirido en la toma de decisiones.
Algunas definiciones de KDD son:
Definición 1. El Descubrimiento de Conocimiento en Bases de Datos es el proceso no trivial de
identificación de patrones válidos, novedosos, potencialmente útiles y fundamentalmente
comprensibles en los datos [37].
Definición 2. Es el proceso de descubrimiento de conocimiento sobre repositorios de datos
complejos mediante la extracción oculta y potencialmente útil en forma de patrones globales y relaciones estructurales implícitas entre datos [60].
Definición 3. El proceso de extraer conocimiento útil y comprensible, previamente desconocido, desde grandes cantidades de datos almacenados en distintos formatos [98].
De la definición anterior se deducen una serie de propiedades que debería cumplir el conocimiento extraído:
Válido. Los patrones encontrados deben describir datos nuevos.
Novedoso. Debe aportar conocimiento nuevo.
Potencialmente útil. La información debe ayudar en la toma de decisiones futuras.
Comprensible. Los patrones encontrados deben ser suficientemente comprensibles para
que proporcione conocimiento.
Independientemente de la técnica que se use en el proceso de extracción de datos, los pasos que
deben ser seguidos son siempre los mismos (figura 2.1):
2.2. La extracción de conocimiento
7
Figura 2.1: Esquema General de KDD (Knowledge Discovery in Databases).
1. Definición del problema. En el proceso de minería de datos el primer paso consiste en
definir claramente el problema que se intenta abordar. En esta etapa se analiza el dominio
de aplicación y la información relevante que exista a priori.
2. Integración, recopilación de datos y filtrado. Se deben localizar las fuentes de información y transformar los datos obtenidos a un formato común que permita trabajar de
forma operativa con toda la información recogida sin que haya inconsistencias. Lo más
frecuente es que los datos necesarios para llevar a cabo un proceso de KDD pertenezcan
a distintos departamentos, a diferentes organizaciones o incluso nunca hayan sido recopilados por no considerarlos interesantes. Resulta conveniente utilizar algún método de
automatización para la exploración de esos datos y encontrar posibles incoherencias. Una
vez homogeneizados los datos, se filtran y se rechazan los no válidos o los incorrectos,
según las necesidades, o bien se corrigen o se reduce el número de variables posibles
mediante clustering, redondeo, etc. Este proceso previo es necesario porque se tardaría
mucho tiempo en llegar a conclusiones si se trabajara con todos los datos. Al subconjunto
de datos que se va a minar se denomina vista minable.
3. Fase de minería de datos. Esta fase es la más característica y por ese motivo se suele
8
2. Hipótesis y objetivos
denominar minería de datos a todo el proceso en KDD. En esta fase la vista minable
es sometida a una serie de algoritmos de extracción de conocimiento. Se verá con más
detalle en el siguiente apartado.
4. Análisis. Se interpretan y evalúan los patrones obtenidos. Una vez interpretados puede
ser necesario volver a una etapa anterior.
5. Aplicación. Se aplica el conocimiento extraído al dominio del problema, pudiendo ayudar
en futuras tomas de decisiones.
El desarrollo de esta investigación abarca principalmente la tercera etapa del proceso del KDD,
es decir la minería de datos. Además, ha sido necesario realizar una extracción de datos a partir
de la base de datos original y su posterior preprocesado.
2.3.
Fase de Minería de Datos
La minería de datos (en inglés data mining) es una de las técnicas más utilizadas actualmente
para analizar la información de las bases de datos. Se fundamenta en varias disciplinas [70],
como la estadística, la visualización de datos, sistemas para tomas de decisión, el aprendizaje automático o la computación paralela y distribuida, beneficiándose de los avances en estas
tecnologías pero difiriendo de ellas en la finalidad que persigue: extraer patrones, describir tendencias y predecir comportamientos.
El Aprendizaje Automático es el área de la Inteligencia Artificial que se ocupa de desarrollar
técnicas capaces de aprender, es decir, extraer de forma automática conocimiento subyacente
en la información. Constituye junto con la estadística el corazón del análisis inteligente de los
datos. Los principios seguidos en el aprendizaje automático y en la minería de datos son los
mismos: la máquina genera un modelo a partir de ejemplos y lo usa para resolver el problema.
Algunos autores distinguen dos tipos de minería de datos [37]:
Aprendizaje supervisado. Utiliza básicamente técnicas predictivas. Estas técnicas describen
el conjunto de datos de una manera resumida y concisa, presentando propiedades generales e interesantes de los datos. Las tareas de datos que producen modelos predictivos son
la clasificación y la regresión.
2.4. Representación de los datos
9
Clasificación. Cada registro de la base de datos pertenece a una determinada clase
(etiqueta discreta) que se indica mediante el valor de un atributo o clase de la instancia. El objetivo es predecir una clase dados los valores de los atributos. Se usan,
por ejemplo, árboles de decisión y sistemas de reglas o análisis de discriminantes.
Regresión o estimación. Es el aprendizaje de una función real que asigna a cada
instancia un valor real de tipo numérico. El objetivo es inducir un modelo para poder
predecir el valor de la clase dados los valores de los atributos. Se usan, por ejemplo,
árboles de regresión, redes neuronales artificiales, regresión lineal, etc.
Aprendizaje no supervisado. Utiliza técnicas descriptivas de ingeniería artificial. Estas técnicas construyen uno o varios modelos que realizan inferencia sobre el conjunto de entrenamiento para intentar predecir el comportamiento de nuevos datos. Utiliza básicamente
técnicas de ingeniería artificial. Las tareas que producen modelos descriptivos son el agrupamiento (clustering), las reglas de asociación secuenciales y el análisis correlacional.
Clustering o agrupamiento. Las técnicas de Clustering comprenden una serie de
metodologías para la clasificación automática de datos en un determinado número
de grupos o clusters, utilizando para ello una medida de asociación. Cada cluster
está formado por objetos que son similares entre ellos y distintos a los que forman
el resto de grupos. Estas técnicas son utilizadas en una gran variedad de ámbitos para
la descripción y clasificación de información: marketing, planificación urbanística,
estudios atmosféricos, etc..
Reglas de asociación. Su objetivo es identificar relaciones no explícitas entre atributos categóricos.
Análisis correlacional. Utilizado para comprobar el grado de similitud de los valores de dos variables numéricas.
En esta memoria, el aprendizaje siempre será entendido como supervisado, donde los casos
pertenecientes al conjunto de datos tienen a priori asignada una clase o categoría, siendo el
objetivo encontrar patrones o tendencias de los casos pertenecientes a una misma clase.
2.4.
Representación de los datos
A continuación se establecerán algunas definiciones que describen formalmente los conceptos
que se manejarán a lo largo de este documento.
10
2. Hipótesis y objetivos
Definición 2.1 Un dominio es un conjunto de valores del mismo tipo. Aunque existen distintas clasificaciones de los dominios, para los propósitos de esta investigación se distinguen dos
tipos: continuo (conjunto infinito de valores reales) y nominal (conjunto finito de valores discretos). Se representa Dom().
Definición 2.2 Se denomina Universo de discurso al entorno donde se define un determinado
problema y viene representado como el producto cartesiano de un conjunto finito de dominios.
Definición 2.3 Un atributo, o también denominado característica, es la descripción de alguna
medida existente en el universo de discurso que toma valores en un determinado dominio. El
atributo i–ésimo se representa Xi , su valor xi y su dominio como Dom(Xi ), que según la clasificación descrita previamente puede ser de dos tipos, continuo o discreto. Si es continuo existe
un rango [a, b] ⊆ R de valores posibles, y si es discreto existe un conjunto finito de valores
posibles. Se denomina vector de atributos x = x1 , . . . , xn al conjunto de valores correspondiente a cada uno de los atributos, y X al espacio formado por el conjunto de los atributos,
X = Dom(X1 ) × . . . × Dom(Xn ), siendo n el total de atributos.
Definición 2.4 En el marco del aprendizaje supervisado, se dispone de un atributo especial de
salida denominado clase, que indica la pertenencia a un determinado grupo de casos. Se denomina etiquetas de clase al conjunto o dominio de valores que la clase puede tomar (nominal
en el caso de la clasificación). La clase es el atributo sobre el cual se realiza la predicción, por
lo que es también denominada atributo de decisión, para diferenciarla del resto de atributos
denominados de condición. El atributo clase se representa Y y su dominio Dom(Y), teniendo k
valores posibles y1 , . . . , yk .
Definición 2.5 Un ejemplo, muestra, instancia o caso es una tupla del universo de discurso
representada por un conjunto de valores de atributos, cada uno de un dominio respectivamente,
y una etiqueta de clase que lo clasifica. Se representa e.
Definición 2.6 Se define un conjunto de datos como un subconjunto finito de ejemplos e j , donde j = 1, . . . , m. Un conjunto de datos, o base de datos, se caracteriza por el número de ejemplos
m que contiene y por el número n de atributos y su tipo.
La entrada a un algoritmo de aprendizaje supervisado es un conjunto E de m instancias (x j , y j ),
donde j = 1, . . . , m, cada una compuesta por n valores de entrada x j,i con (i = 1, . . . , n) y uno
de salida y j , a E se le llama conjunto de datos etiquetado.
2.5. Clasificación
2.5.
11
Clasificación
Clasificar objetos es un proceso de la inteligencia de máximo interés para investigadores tanto
de psicología como de informática, dado que la habilidad de realizar una clasificación y de
aprender a clasificar otorga el poder de tomar decisiones.
A continuación se define formalmente el concepto de clasificación y clasificador:
Definición 2.7 Sea E un conjunto de datos, el objetivo de la clasificación es aprender una
función L : X → Y, denominada clasificador, que represente la correspondencia existente en
los ejemplos entre los vectores de entrada y el valor de salida correspondiente, es decir, para
cada valor de x tenemos un único valor de Y.
Además, Y es nominal, es decir, puede tomar un conjunto de valores y1 , y2 , . . . , yk denominados
clases o etiquetas. La función aprendida será capaz de determinar la clase para cada nuevo
ejemplo sin etiquetar.
La aplicación de un algoritmo de aprendizaje tiene como objetivo extraer conocimiento de un
conjunto de datos y modelar dicho conocimiento para su posterior aplicación en la toma de
decisiones. Existen distintas formas de representar el modelo generado, representación proposicional, árboles de decisión, reglas de decisión, listas de decisión, reglas con excepciones,
reglas jerárquicas de decisión, reglas difusas y probabilidades, redes neuronales, están entre las
estructuras más utilizadas.
En este trabajo, se utilizarán tres algoritmos de aprendizaje clasificadores para clasificar objetos
celestes a partir de los datos extraídos de observaciones astronómicas, uno probabilístico (Naïve
Bayes), otro basado en las técnicas de vecinos más cercanos (IB1) y un tercero basado en
árboles de decisión (C4.5). Los algoritmos de aprendizaje empleados se han elegido por ser
representativos de diferentes tipos de clasificadores, usándose con frecuencia en los estudios
comparativos y en bastantes aplicaciones de minería [70, 64].
2.5.1.
Naïve Bayes
Naïve Bayes es una técnica de clasificación descriptiva y predictiva basada en la teoría de la
probabilidad del análisis de T. Bayes [13], que data de 1763. Esta teoría supone un tamaño de
la muestra asintóticamente infinito e independencia estadística entre variables independientes,
12
2. Hipótesis y objetivos
refiriéndose en nuestro caso a los atributos, no a la clase. Con estas condiciones, se puede
calcular las distribuciones de probabilidad de cada clase para establecer la relación entre los
atributos (variables independientes) y la clase (variable dependiente). Concretamente, dado el
ejemplo e = (x1 , . . . , xn ), donde xi es el valor observado para el i-ésimo atributo, la probabilidad
a posteriori de que ocurra la clase yl teniendo k valores posibles {y1 , . . . , yk }, viene dada por la
regla de Bayes,
Q
P(yl ) ni=1 P(xi |yl )
P(yl |x1 , . . . , xn ) =
(2.1)
P(x1 , . . . , xn )
donde P(yl ) es la proporción de la clase yl en el conjunto de datos; e igualmente, P(xi |yl ) se estima a partir de la proporción de ejemplos con valor xi cuya clase es yl . Como podemos deducir,
el cálculo de P(xi |yl ) obliga a que los valores xi sean discretos, por lo que si existe algún atributo
continuo, éste debe ser discretizado previamente. Aplicando la ecuación 2.1, la clasificación de
un nuevo ejemplo e se lleva a cabo calculando las probabilidades condicionadas de cada clase y escogiendo aquella con mayor probabilidad. Formalmente, si Dom(Y) = {y1 , . . . , yk } es el
conjunto de clases existentes, el ejemplo e será clasificado con aquella clase yl que satisface la
expresión 2.2.
∀ j , i / P(yi |x1 , . . . , xn ) > P(y j |x1 , . . . , xn )
(2.2)
Como se puede observar, el clasificador bayesiano es un método sencillo y rápido. Además,
puede demostrarse teóricamente que maximiza la exactitud de la predicción de manera óptima. Sin embargo, la suposición de independencia estadística de las variables es una limitación
importante, ya que este hecho es relativamente infrecuente.
2.5.2.
Vecinos más cercanos
Las técnicas de vecinos más cercanos (NN, Nearest Neighbours) basan su criterio de aprendizaje en la hipótesis de que los miembros de una población suelen compartir propiedades y
características con los individuos que los rodean, de modo que es posible obtener información
descriptiva de un individuo mediante la observación de sus vecinos más cercanos. Los fundamentos de la clasificación por vecindad fueron establecidos por E. Fix y J. L. Hodges [38, 39] a
principio de los años 50. Sin embargo, no fue hasta 1967 cuando T. M. Cover y P. E. Hart [22]
enuncian formalmente la regla del vecino más cercano y la desarrollan como herramienta de
clasificación de patrones. Desde entonces, este algoritmo se ha convertido en uno de los métodos de clasificación más usados [20, 21, 23, 31, 6]. La regla de clasificación NN se resume
básicamente en el siguiente enunciado:
Sea E = {e1 , . . . , em } un conjunto de datos con m ejemplos etiquetados, donde cada ejemplo
13
2.5. Clasificación
e j contiene n atributos (x j1 , . . . , x jn ), pertenecientes al espacio métrico X, y una clase yl ∈
{y1 , . . . , yk }. La clasificación de un nuevo ejemplo e0 cumple que
e0 a yl ⇔ ∀ j , i / d(e0 , ei ) < d(e0 , e j )
(2.3)
donde e0 a yl indica la asignación de la etiqueta de clase yl correspondiente a ei al ejemplo e0 y
d expresa una distancia definida en el espacio n-dimensional X.
Así, un ejemplo es etiquetado con la clase de su vecino más cercano según la métrica definida
por la distancia d. La elección de esta métrica es primordial, ya que determina qué significa
más cercano. La aplicación de métricas distintas sobre un mismo conjunto de entrenamiento
puede producir resultados diferentes. Sin embargo, no existe una definición previa que indique
si una métrica es buena o no. Esto implica que es el experto quien debe seleccionar la medida de
distancia más adecuada. La regla NN puede generalizarse calculando los k vecinos más cercanos
y asignando la clase mayoritaria entre esos vecinos. Tal generalización se denomina k–NN. Este
algoritmo necesita la especificación a priori de k, que determina el número de vecinos que se
tendrán en cuenta para la predicción. Al igual que la métrica, la selección de un k adecuado es
un aspecto determinante. El problema de la elección del k ha sido ampliamente estudiado en
la bibliografía. Existen diversos métodos para la estimación de k [26]. Otros autores [32] han
abordado el problema incorporando pesos a los distintos vecinos para mitigar los efectos de
la elección de un k inadecuado. Otras alternativas [81] intentan determinar el comportamiento
de k en el espacio de características para obtener un patrón que determine a priori cuál es
el número de vecinos más adecuado para clasificar un ejemplo concreto dependiendo de los
valores de sus atributos. El algoritmo k–NN se engloba dentro de las denominadas técnicas
de aprendizaje perezoso (lazy learning), ya que no genera una estructura de conocimiento que
modele la información inherente del conjunto de entrenamiento, sino que el propio conjunto de
datos representa el modelo. Cada vez que se necesita clasificar un nuevo ejemplo, el algoritmo
recorre el conjunto de entrenamiento para obtener los k vecinos y predecir su clase. Esto hace
que el algoritmo sea computacionalmente costoso tanto en tiempo, ya que necesita recorrer
los ejemplos en cada predicción, como en espacio, por la necesidad de mantener almacenado
todo el conjunto de entrenamiento. Pese a los numerosos inconvenientes respecto a la eficiencia
(coste computacional) y la eficacia (elección de la métrica y el k adecuados), k–NN tiene en
general un buen comportamiento. Cover y Hart [22] demostraron que, cuando el número de
ejemplos tiende a infinito, el error asintótico de NN está acotado superiormente por el doble del
error de Bayes (óptimo).
14
2. Hipótesis y objetivos
2.5.3.
Árboles de decisión
Los árboles de decisión, son una de las formas más sencillas de representación del conocimiento
adquirido. Dentro de los sistemas basados en árboles de decisión, habitualmente denominados
TDIDT (Top Down Induction of Decision Trees), se pueden destacar dos familias o grupos:
La familia ID3, cuyos máximos representantes son el propio algoritmo ID3 propuesto por
Quinlan [78] y el sistema CLS de Hunt et al. [48].
La familia de árboles de regresión, cuyo exponente más significativo es Cart,desarrollado
por Breiman et al. [16]. Los TDIDT se caracterizan por utilizar una estrategia de divide y
vencerás descendente, es decir, partiendo de los descriptores hacia los ejemplos, dividen
el conjunto de datos en subconjuntos siguiendo un determinado criterio de división. A
medida que el algoritmo avanza, el árbol crece y los subconjuntos de ejemplos son menos
numerosos.
De los sistemas TDIDT, los pertenecientes a la familia ID3 son los más referenciados en el
campo del aprendizaje, por lo que serán expuestos con más detalle a continuación.
ID3
El método de clasificación experimental ID3 (Induction Decision Trees), desarrollado por J. R.
Quinlan [76, 77, 78], genera un árbol de decisión paralelo de forma recursiva, aplicando un
criterio de división basado en el concepto de medida de la información de Shannon. Cada nodo
interno de dicho árbol contiene un test sobre uno de los atributos, de cuyo valor dependerá el
camino a seguir para clasificar un ejemplo, y cada hoja contiene una etiqueta de clase. Así, la
clasificación de un ejemplo se lleva a cabo recorriendo el árbol desde la raíz hasta una de las
hojas que determinará la clase del mismo. Inicialmente, el algoritmo toma todo el conjunto de
datos E. Si todos los ejemplos pertenecen a una misma clase, el proceso finaliza, insertando un
nodo hoja con dicha clase. En caso contrario, se selecciona aquel atributo Xi que mejor divide el
conjunto de datos y se inserta un nodo con dicho atributo para establecer un test. Una vez creado
el nodo, para cada valor distinto xiv del atributo Xi , se traza un arco y se invoca recursivamente
al algoritmo para generar el subárbol que clasifica los ejemplos de E que cumplen que Xi = xiv .
Dicha invocación es realizada sin tener en cuenta el atributo Xi y substrayendo del conjunto
de datos E todos aquellos ejemplos donde Xi , xiv . El proceso se detiene cuando todas las
instancias de un conjunto pertenecen a la misma clase.
15
2.5. Clasificación
ID3 utiliza una propiedad estadística denominada ganancia de información como heurística de
selección de atributos para fijar un test. Esta propiedad no es más que la reducción esperada
de la entropía (desorden) de los datos al conocer el valor de un atributo. Así, el atributo Xi
seleccionado para determinar la división será aquel que mayor ganancia obtenga respecto al
conjunto E, según la ecuación 2.4,
Ganancia(E, Xi ) = Ent(E) −
|Xi |
X
|E(xiv )|
v=1
|E|
× Ent(E(xiv ))
(2.4)
donde |Xi | es el número de valores distintos de del atributo Xi ; E(xiv ) es el subconjunto de E para
el cual Xi = xiv , siendo |E(xiv )| su cardinal; |E| es el número total de ejemplos; y Ent(·) es la
entropía, definida a continuación.
Definición 2.8 (Entropía) La entropía es la medida del desorden de un sistema mediante la incertidumbre existente ante un conjunto de casos, del cual se espera uno sólo. Sea E un conjunto
de datos etiquetados con clases del conjunto Dom(Y) = {y1 , . . . , yk } y f rec(yl , E) el número de
ejemplos de E con clase yl . Entonces se define la entropía del conjunto E como
!
k
X
f rec(yl , E)
f rec(yl , E)
Ent(E) = −
× log2
|E|
|E|
l=1
(2.5)
f rec(yl ,E)
l ,E)
donde f rec(y
es
la
probabilidad
de
que
se
dé
un
ejemplo
con
clase
y
,
y
log
es la
l
2
|E|
|E|
información que transmite un ejemplo de clase yl . La entropía es máxima cuando todas las
clases presentan la misma proporción.
C4.5
El algoritmo C4.5 fue propuesto por Quinlan [79] a finales de los años 80 para mejorar las carencias de su predecesor ID3. Desde entonces, ha sido uno de los sistemas clasificadores más
referenciados en la bibliografía, principalmente debido a su extremada robustez en un gran número de dominios y su bajo coste computacional. C4.5 introduce principalmente las siguientes
mejoras:
1. Trata eficazmente los valores desconocidos o ausentes calculando la ganancia de información para los valores presentes.
2. Maneja los atributos continuos, aplicando una discretización previa.
16
2. Hipótesis y objetivos
3. Corrige la tendencia de ID3 a seleccionar los atributos con muchos valores distintos para
establecer los test cambiando el criterio de división.
Sin embargo, presenta una serie de problemas que afectan directamente a la precisión del árbol
generado. En primer lugar, la heurística usada para establecer los test es propensa a seleccionar
aquellos atributos con mayor número de valores distintos, ya que a mayor número de particiones, la entropía de cada subconjunto tiende a ser menor. En segundo lugar, ID3 resulta muy
vulnerable a la presencia de ruido e inconsistencia en los datos, lo cual ocasiona la generación
de hojas muertas que clasifican ejemplos de más de una clase.
C4.5 produce un árbol de decisión similar al de ID3, con la salvedad de que puede incluir
condiciones sobre atributos continuos. Así, los nodos internos pueden contener dos tipos de test
según el dominio del atributo seleccionado para la partición. Si el atributo Xi es discreto, la
representación es similar a la de ID3, presentando un test con una condición de salida (rama
Xi = xiv ) por cada valor xiv diferente del atributo. Por contra, si el atributo Xi es continuo, el test
presenta dos únicas salidas, Xi ≤ Z y Xi > Z, que comparan el valor de Xi con el umbral Z. Para
calcular Z, se aplica un método similar al usado en [16], el cual ordena el conjunto de t valores
distintos del atributo Xi presentes en el conjunto de entrenamiento, obteniendo el conjunto de
x +x
valores {xi1 , xi2 , . . . , xit }. Cada par de valores consecutivos aporta un posible umbral Z = iv 2i(v+1) ,
teniendo en total t − 1 umbrales, donde t es como mucho igual al número de ejemplos. Una
vez calculados los umbrales, C4.5 selecciona aquel que maximiza el criterio de separación.
Como se mencionó anteriormente, el criterio de maximización de la ganancia de información
usado en ID3 produce un sesgo hacia los atributos que presentan muchos valores distintos. C4.5
resuelve este problema usando la razón de ganancia (gain ratio) como criterio de separación a la
hora de establecer un test. Esta medida tiene en cuenta tanto la ganancia de información como
las probabilidades de los distintos valores del atributo. Dichas probabilidades son recogidas
mediante la denominada información de separación (split information), que no es más que la
entropía del conjunto de datos E respecto a los valores del atributo Xi en consideración, siendo
calculada como
In f ormacionDeS eparacion(E, Xi ) = −
|Xi |
X
|E(xiv )|
v=1
|E|
× log2
|E(xiv )|
|E|
!
(2.6)
donde |Xi | es el número de valores distintos del atributo Xi ; E(xiv ) es el subconjunto de E para el
cual Xi = xiv , siendo |E(xiv )| su cardinal; y |E| es el número total de ejemplos. La información de
separación simboliza la información potencial que representa dividir el conjunto de datos, y es
usada para compensar la menor ganancia de aquellos test con pocas salidas. Con ello, tal y como
muestra la ecuación 2.7, la razón de ganancia es calculada como el cociente entre la ganancia de
2.6. Evaluación del rendimiento de un clasificador
17
información (ecuación 2.4) y la información de separación (ecuación 2.6). Tal cociente expresa
la proporción de información útil generada por la división.
RazonDeGanancia(E, Xi ) =
Ganancia(E, Xi )
In f ormacionDeS eparacion(E, Xi )
(2.7)
C4.5 maximiza este criterio de separación, premiando así a aquellos atributos que, aun teniendo
una ganancia de información menor, disponen también de menor número de valores para llevar a
cabo la clasificación. Sin embargo, si el test incluye pocos valores, la información de separación
puede ser cercana a cero, y por tanto el cociente sería inestable. Para evitar tal situación, el
criterio selecciona un test que maximice la razón de ganancia pero obligando a que la ganancia
del mismo sea al menos igual a la ganancia media de todos los test examinados [70].
C4.5 ha resultado ser un sistema muy efectivo en la práctica, capaz de ofrecer una representación
relativamente simple de los resultados con un bajo coste computacional. En concreto, para un
conjunto de datos con m ejemplos y n atributos, el coste medio de construcción del árbol es de
Θ(mnlog2 m), mientras que la complejidad del proceso de poda es de Θ(m(log2 m)2 ).
2.6.
Evaluación del rendimiento de un clasificador
2.6.1.
Precisión
Evaluar el comportamiento de los algoritmos de aprendizaje es un aspecto fundamental del
aprendizaje automático, no sólo es importante para comparar algoritmos entre sí, sino que en
muchos casos forma parte del propio algoritmo de aprendizaje. La forma más habitual de medir
la eficiencia de un clasificador es la precisión predictiva. Un clasificador, cada vez que se le
presenta un nuevo caso, debe tomar una decisión sobre la etiqueta que se le va a asignar. Considerando un error como una clasificación incorrecta de un ejemplo, se puede calcular fácilmente
la tasa de error, o su complementaria, la tasa de acierto.
Definición 2.9 Se denomina precisión (Γ) de un clasificador al resultado de dividir el número
de clasificaciones correctas por el número total de muestras examinadas.
Dado un conjunto etiquetado E de m instancias (x j , y j ), donde j = 1, . . . , m, cada una compuesta
por n valores de entrada x j,i con (i = 1, . . . , n) y uno de salida y j , y dado el clasificador L visto en
la definición 2.7, en la expresión siguiente, si L(x j ) = y j entonces se cuenta 1, y 0 en cualquier
18
2. Hipótesis y objetivos
otro caso.
m
1 X
Γ(E, L) =
L(x j ) = y j
m j=1
Teniendo en cuenta la aplicación a la tarea de clasificación que se le da a los algoritmos de
selección en esta memoria de tesis, la definición de precisión dada sobre el conjunto total de
datos, aplicada a un subconjunto de atributos S queda de la siguiente manera:
m
Γ(E/S, L) =
1 X
L(S(x j )) = y j
m j=1
Por tanto, se tiene que Γ(E/S, L) es la precisión aplicando el clasificador L a la base de datos
con los atributos que pertenecen al subconjunto S.
La precisión es una buena estimación de cómo se va a comportar el modelo para datos desconocidos similares a los de prueba. Sin embargo, si se calcula la precisión sobre el propio conjunto
de datos utilizado para generar el modelo, se obtiene con frecuencia una precisión mayor a la
real, es decir, serán estimaciones muy optimistas por utilizar los mismos ejemplos en la inducción del algoritmo y en su comprobación [40]. La idea básica es estimar el modelo con una
porción de los datos y luego comprobar su validez con el resto de los datos. Esta separación es
necesaria para garantizar la independencia de la medida de precisión resultante, de no ser así, la
precisión del modelo será sobreestimada [25]. Por tanto, para tener seguridad de que las predicciones sean robustas y precisas, se consideran dos etapas en el proceso de construcción de un
modelo, entrenamiento y prueba, partiendo los datos en dos conjuntos, uno de entrenamiento y
otro de test.
2.6.2.
Validación de datos
Estimar la precisión de un clasificador inducido por algoritmos de aprendizaje supervisado es
importante tanto para evaluar su futura precisión de clasificación como para elegir un clasificador óptimo de un conjunto dado.
Para probar un modelo se parten los datos en dos conjuntos. Por un lado, se tiene el conjunto
de entrenamiento o training set. Este grupo de instancias serviría para enseñar al modelo cuál
es el comportamiento tipo del sistema, haciéndose una clasificación por el analista de dichas
instancias. Por otro, se tiene el conjunto de prueba o test set, que será el conjunto sobre el que
2.6. Evaluación del rendimiento de un clasificador
19
se aplicarán los métodos una vez adquirido el conocimiento previo a través del training set.
Si no se usa esta metodología la precisión del modelo será sobrestimada, es decir, tendremos
estimaciones muy optimistas.
Se pueden establecer tres tipos fundamentales de métodos de validación:
Validación simple. Utiliza un conjunto de muestras para construir el modelo del clasificador, y
otro diferente para estimar el error, con el fin de eliminar el efecto de la sobreestimación.
De entre la variedad de porcentajes utilizados, uno de los más frecuentes es tomar 2/3 de
las muestras para el proceso de aprendizaje y el 1/3 restante para comprobar el error del
clasificador. El hecho de que sólo se utiliza una parte de las muestras disponibles para
llevar a cabo el aprendizaje es el inconveniente principal de esta técnica, al considerar
que se pierde información útil en el proceso de inducción del clasificador. Esta situación
se deteriora si el número de muestras para construir el modelo es muy reducido.
Validación cruzada (cross-validation). También conocida como validación cruzada de n particiones. Se plantea para evitar la ocultación de parte de las muestras al algoritmo de
inducción y la consiguiente perdida de información. En ella se divide los datos disponibles en tantas particiones como indique el parámetro n y se entrena n veces promediando
el error de cada prueba. El esquema del proceso seguido para una validación 10-fold puede observarse en las figuras 2.2 y 2.3. En general éste es el número de particiones más
utilizado.
Figura 2.2: División de los datos en carpetas.
Una posible mejora en la utilización de la validación cruzada es la estratificación que
consiste en mantener en cada una de las particiones una distribución de las etiquetas similar a la existente en el conjunto de aprendizaje, para evitar una alta varianza en la
estimación [16]. Además, es una práctica común, repetir la validación cruzada con k particiones un número determinado de veces para hacer más estable la estimación de la precisión. Un caso particular de este método de evaluación es la validación cruzada dejando
uno fuera (leaving-one-out cross validation), donde k es igual al número de ejemplos del
conjunto de datos. En este caso, el clasificador entrena con todas las muestras menos una
que deja fuera para realizar la prueba [61]. Además de la elevada varianza de la tasa de
aciertos obtenida, el mayor inconveniente de este método es el alto coste computacional
20
2. Hipótesis y objetivos
Figura 2.3: Proceso para validar los resultados al aplicar algoritmos de selección de
atributos.
que supone el aprendizaje del clasificador k veces, por lo que no se suele utilizar cuando
el número de muestras es elevado o el proceso de inducción del clasificador es computacionalmente costoso. La ventaja de esta técnica es que todos los casos son utilizados en
el proceso de aprendizaje y en el de prueba, dando lugar a un estimador con sesgo muy
pequeño.
Muestreo con reemplazamiento o bootstrapping. Esta técnica se utiliza para estimar el error
de un modelo cuando se dispone de pocos datos. Las técnicas de estimación basadas en
este concepto fueron introducidas por Efron [33], encontrándose desarrolladas en más
detalle en [34, 35]. Estas técnicas se proponen para reducir la alta variabilidad que exhibe la validación cruzada en muestras pequeñas, consiguiendo un aumento de eficiencia
comparable a un aumento en el tamaño de la muestra de un 60 %. La idea central es que
muchas veces puede ser mejor extraer conclusiones sobre las características de la población estrictamente a partir de la muestra que se maneja, que haciendo asunciones quizás
poco realistas sobre la población. El bootstrapping implica remuestreo (resampling) con
reemplazamiento de los datos obtenidos en una muestra muchas veces para generar una
estimación empírica de la distribución muestral completa de un estadístico. Lunneborg
[68] fija la utilidad del método bootstrap a tres niveles:
2.6. Evaluación del rendimiento de un clasificador
21
Valorar el sesgo y el error muestral de un estadístico calculado a partir de una muestra.
Establecer un intervalo de confianza para un parámetro estimado.
Realizar una prueba de hipótesis respecto a uno o más parámetros poblacionales.
2.6.3.
Comparación del rendimiento
En el apartado anterior se expuso como evaluar un algoritmo de aprendizaje obteniendo un valor
de precisión. En el caso de que estemos interesado en comparar dos técnicas de aprendizaje,
se hará utilizando test de hipótesis. Una de las pruebas estadísticas más populares para este
propósito es el llamado t-test (Student’s t-test). Si suponemos que los valores de precisión se
calculan bajo las mismas condiciones, es decir utilizando las mismas muestras, se denomina
test pareado. Para determinar si la diferencia es significativa, se debe fijar un nivel de confianza
y comparar con el valor límite de la variable t-Student en la tabla correspondiente para esos
grados de libertad e intervalo de confianza.
El método tradicional de realizar un contraste consiste en dividir el rango de discrepancias que
puede observarse cuando la hipótesis nula, H0 , es cierta en dos regiones: una región de aceptación de H0 y otra de rechazo. Se consideran diferencias «demasiado grandes» las que tienen una
probabilidad pequeña α (normalmente 0,1, 0,05 o 0,01) de ocurrir si H0 es cierta. Si rechazamos
H0 cuando ocurre una discrepancia de probabilidad α, este número puede interpretarse como la
probabilidad que estamos dispuestos a asumir de rechazar H0 cuando es cierta y se denomina
error tipo I. Sin embargo, existe otro posible error, aceptar H0 cuando es falsa, denominándose
error tipo II. Dependiendo del conjunto de datos y de la técnica de evaluación practicada, estos
tipos de errores pueden verse aumentados o disminuidos.
Dietterich [27] compara varios métodos de evaluación mediante experimentos con datos reales
y simulados. Antes de la recomendación final de su trabajo, avisa de que los test estadísticos
descritos deben ser vistos como aproximados, tests heurísticos, más que métodos estadísticos
rigurosamente correctos a causa de los inconvenientes propios de cada test (entrenamiento con
muestras de menor tamaño que el original, asunción de independencia, solapamiento de subconjunto de entrenamiento, etc.). Además, los experimentos se realizaron sólo con dos algoritmos
de aprendizaje sobre tres bases de datos, por lo que informa que sus conclusiones se consideren
como tentativas. Recomienda utilizar validación cruzada 5 × 2 (Alpaydin [8] propone una modificación) cuando las técnicas de aprendizaje son lo suficientemente eficientes para ejecutarse
diez veces, o utilizar el test de McNemar´s en el caso de una única ejecución. No se debe utilizar
22
2. Hipótesis y objetivos
el t-test sobre una serie de pruebas donde el conjunto de datos se divide aleatoriamente en dos.
Recomienda precaución al interpretar los resultados de t-test pareado de la validación cruzada
con diez particiones. Este test tiene una elevada probabilidad de error tipo I, sin embargo, se
recomienda en los casos donde se le dé más importancia al error tipo II.
2.7.
Preparación de los datos
El éxito de un algoritmo de aprendizaje para clasificación depende en gran medida de la calidad de los datos que se le proporciona. Como se pudo comprobar en la figura 2.1, existe una
fase de preparación de los datos previa a su análisis, donde se realiza una serie de tareas que
describiremos a continuación. Pyle [74] indica que el propósito fundamental de esta fase es el
de manipular y transformar los datos en bruto, de manera que la información contenida en el
conjunto de datos pueda ser descubierta o más fácilmente accesible.
Dado que en muchas ocasiones los datos provienen de diferentes fuentes, pueden contener valores impuros (incompletos, con ruido e inconsistentes), pudiendo conducir a la extracción de
patrones poco útiles. Además, se puede reducir el conjunto de datos (selección de características y de instancias), mejorando la eficiencia del proceso de minería de datos posterior. También
existe la posibilidad de recuperar información incompleta, eliminar outliers, resolver conflictos,
etc., generando un conjunto de datos de calidad, que conduciría a mejores patrones.
La preparación o preprocesamiento de datos engloba a todas aquellas técnicas de análisis de
datos que permiten mejorar la calidad de un conjunto de datos, de modo que los métodos de extracción de conocimiento (minería de datos) puedan obtener mayor y mejor información (mejor
porcentaje de clasificación, reglas con más completitud, etc.) [104]. La lista de tareas que se incluyen en esta fase se pueden resumir en cuatro: recopilación de datos, limpieza, transformación
y reducción, no teniéndose que aplicar siempre en un mismo orden (ver figura 2.4).
Figura 2.4: Fase de preparación de los datos.
2.7. Preparación de los datos
2.7.1.
23
Recopilación
Para poder comenzar a analizar y extraer algo útil en los datos es preciso, en primer lugar,
disponer de ellos. Esto en algunos casos puede parecer trivial, partiendo de un simple archivo
de datos, sin embargo en otros es una tarea muy compleja donde se debe resolver problemas
de representación, de codificación e integración de diferentes fuentes para crear información
homogénea.
2.7.2.
Limpieza
En esta fase se resuelven conflictos entre datos, comprobando problemas de ruido, valores ausentes y outliers [56].
Valores ausentes
La ausencia de valores en los atributos de algunos ejemplos de las bases de datos es relativamente frecuente, debido principalmente a fallos cometidos durante el proceso de adquisición
de los datos, sea manual o automático. Aunque algunos métodos solventan este problema durante el proceso de aprendizaje, es común aplicar alguna técnica que trate estos ejemplos antes
de ofrecerlos al algoritmo de minería de datos. La técnica de tratamiento de valores ausentes
más simple, aunque también la menos recomendable, consiste en eliminar aquellos ejemplos
que presenten algún atributo sin valor. El mayor inconveniente de esta técnica es que se podría
eliminar información útil para el aprendizaje contenida en los atributos correctos. Para poder
mantener los ejemplos en el conjunto de datos, habría que rellenar los valores ausentes con algún valor válido. Una solución sencilla es asignar una constante, por ejemplo «desconocido»,
si el atributo es discreto, o infinito, si es continuo. Aunque esta solución es también muy simple y no elimina información, el algoritmo de aprendizaje podría interpretar erróneamente esas
constantes y entender que son valores interesantes. Por esta razón, es recomendable sustituir las
ausencias por valores cuya influencia en el aprendizaje sea mínima. En este sentido, la media o
la moda, dependiendo si el atributo es continuo o discreto respectivamente, pueden ser valores
más apropiados que una constante. Para que el valor de sustitución no sea único para todos
los ejemplos con ausencias en un mismo atributo, la media o la moda no se calcula a partir
de todos los datos, sino considerando sólo aquellos ejemplos que tienen la misma clase que el
que se pretende completar. Aunque este método no es muy exacto es uno de los más populares.
Finalmente, una técnica más precisa, aunque también más costosa computacionalmente, con-
24
2. Hipótesis y objetivos
siste en sustituir las ausencias por el valor más probable aplicando algún clasificador (regresión,
clasificador Bayesiano o inducción de árboles de decisión) para predecir dicho valor.
Ruido
Ruido es un error aleatorio o variación en el valor de un atributo, debido normalmente a errores
en la medida del mismo. A diferencia de la ausencia de valores, el ruido es más difícil de
detectar a simple vista, ya que son valores presentes en el conjunto de datos que pueden provocar
que el algoritmo de minería de datos obtenga soluciones erróneas. Para mitigar los efectos
del ruido en el aprendizaje se aplican las denominadas técnicas de suavizado (smoothing). El
método de suavizado más sencillo, conocido como binning, consiste en ordenar los valores de
un atributo y distribuir tales valores en grupos o recipientes (bins) de igual número de valores o
de igual rango, independientemente de los valores que contenga. Tras esta partición, se realiza
un tratamiento local, sustituyendo los valores de cada grupo por la media, mediana o moda de
dicho grupo. Aunque la aplicación de esta técnica suaviza los efectos del ruido, no garantiza
la eliminación del mismo, ya que un atributo puede tomar valores que no correspondan a las
características del ejemplo al que pertenece. Además, este método no corrige sólo los posibles
outliers, sino que realiza cambios en todos los valores, por lo que no es muy recomendable. Una
estrategia más apropiada es aplicar algún método de clustering para detectar los outliers y poder
tratarlos posteriormente. Una vez detectados los outliers, se elimina el ejemplo o bien se aplica
algún método de sustitución similar a los descritos para el tratamiento de valores ausentes que
introduzca al ejemplo en uno de los clusters de su misma clase.
2.7.3.
Transformación
En ocasiones, la forma en que viene dada la información originalmente no es la más adecuada
para adquirir conocimiento a partir de ella. En esas situaciones se hace necesario la aplicación
de algún tipo de trasformación para adecuar los datos al posterior proceso de aprendizaje, como,
por ejemplo, normalización o cambio de escala, discretización, generalización o extracción de
atributos. Se considera técnica de transformación aquella destinada a modificar los datos para
mejorar el proceso de aprendizaje y no a corregir errores en los mismos.
Como ejemplo de necesidad de transformación en los datos, se puede observar la situación que
se plantea a continuación. Un gran número de algoritmos de aprendizaje operan exclusivamente con espacios discretos, sin embargo, muchas bases de datos contienen atributos de dominio
2.7. Preparación de los datos
25
continuo, lo que hace imprescindible la aplicación previa de algún método que reduzca la cardinalidad del conjunto de valores que estos atributos pueden tomar, dividiendo su rango en un
conjunto finito de intervalos. Esta trasformación de atributos continuos en discretos se denomina
discretización. Menos frecuente es la transformación inversa denominada numerización.
2.7.4.
Reducción
Los investigadores dedicados al Aprendizaje Automático Supervisado, y concretamente, al estudio de algoritmos que produzcan conocimiento en alguna de las representaciones usuales
(listas de decisión, árboles de decisión, reglas de asociación, etc.) suelen realizar las pruebas
con bases de datos estándares y accesibles a toda la comunidad científica (la gran mayoría de
ellas de reducido tamaño), con objeto de verificar los resultados y validarlos con independencia.
No obstante, y una vez asentadas estas propuestas, algunos de estos algoritmos sufren modificaciones orientadas a problemas específicos, los cuales, contienen una cantidad de información
muy superior (decenas de atributos y decenas de miles de ejemplos) a la de las bases de datos de
prueba. La aplicación de tales técnicas de minería de datos es por tanto una tarea que consume
una enorme cantidad de tiempo y memoria, aun con la potencia de los ordenadores actuales,
que hace imposible la adaptación del algoritmo para solucionar el particular problema. Es conveniente, pues, aplicar técnicas de reducción a la base de datos (figura 2.5), estando orientadas
fundamentalmente hacia dos objetivos: técnicas de editado (reducción del número de ejemplos)
y técnicas selección de atributos (eliminación de aquellos atributos que no sean relevantes para
la información inherente a la base de datos). En la figura 2.6 se muestra un ejemplo donde se
puede observar los dos tipos de reducción.
Figura 2.5: Reducción de un conjunto de datos.
Editado
Las técnicas de editado tienen como objetivo reducir el número de ejemplos de un conjunto
de datos E, obteniendo un subconjunto S que contenga el mismo conocimiento que E. Para
ello se pueden seguir dos estrategias: formar S a partir de la selección o rechazo de ejemplos
contenidos en E, siendo estrictamente S ⊆ E; o bien construir S en base a prototipos [19] o reglas [30, 84], que representen grupos de ejemplos de E, aunque dichos prototipos no coincidan
26
2. Hipótesis y objetivos
Figura 2.6: Reducción de los datos en ambos sentidos: ejemplos y atributos.
con ejemplos de E. Evidentemente, la búsqueda del subconjunto S se lleva a cabo aplicando
algún tipo de heurística, ya que una búsqueda exhaustiva es impracticable por su elevado coste
computacional. Dependiendo del sentido de esta búsqueda, la técnicas de reducción de ejemplos
se clasifican en: incrementales, donde el conjunto S es inicialmente vacío y se le van añadiendo
ejemplos de E seleccionados según un determinado criterio; y decrementales, donde inicialmente S = E y se van eliminando ejemplos o generalizando éstos en reglas o prototipos. Aunque
los métodos decrementales suelen ser más costosos computacionalmente se prefieren frente a
los incrementales, debido a que estos últimos son más sensibles al orden de los ejemplos en el
conjunto E.
Existen numerosas técnicas de editado ligadas a la técnica de los vecinos más cercanos [22].
Podemos citar los trabajos de Hall [47], donde se incluye en el conjunto de prototipos aquellos
ejemplos cuya clasificación es incorrecta utilizando la técnica del vecino más cercano (1–NN);
o [97], donde elimina aquellos ejemplos cuya clasificación es incorrecta utilizando la técnica
del vecino más cercano; o [82]; o [92]; las variantes basadas en vecinos de Voronoi [58], vecinos
de Gabriel (dos ejemplos son vecinos de Gabriel si la esfera con diámetro el segmento que une
los dos ejemplos no contiene a otro ejemplo) o vecinos relativos [93] (dos ejemplos son vecinos
relativos si para todo ejemplo de la base de datos la distancia entre los dos ejemplos es menor
que la mayor de las distancias que unen a cualquier ejemplo con los dos ejemplos investigados).
Todas ellas necesitan de una distancia y en algunos casos el coste computacional es elevado. Si
consideramos m ejemplos y n atributos, las primeras citadas tienen un orden Θ(mn2 ), la técnica
de los vecinos de Voronoi tiene Θ(nm2 ), y las técnicas de los vecinos de Gabriel y vecinos
2.8. Selección atributos
27
relativos tienen Θ(mn3 ).
Un acercamiento muy distinto se realiza mediante el algoritmo denominado EPO [4] (Editado
mediante Proyección Ordenada), obteniendo una reducción importante de registros con un coste computacional inferior a los algoritmos convencionales Θ(mnlogn), sin necesidad de cálculo
de distancias. Trabaja indistintamente con atributos continuos [5] y discretos [80]. Otra aproximación diferente se presenta en [17], donde se realiza una reducción de datos basada en la
selección evolutiva de instancias.
Selección atributos
Tal como veremos en el siguiente apartado, en la selección de características se intenta escoger
el subconjunto mínimo de atributos de acuerdo con dos criterios: que la tasa de aciertos no
descienda significativamente; y que la distribución de clase resultante, sea lo más semejante
posible a la distribución de clase original, dados todos los atributos. En general, la aplicación
de la selección de características ayuda en todas las fases del proceso de minería de datos para
el descubrimiento de conocimiento.
2.8.
Selección atributos
En este apartado se hace revisión al estado del arte actual de selección de atributos, teniendo
en cuenta los estudios previos realizados por J.J. Lorenzo [67], Molina et al. [71], Larrañaga et
al. [49] y los diversos trabajos donde está presente Liu [24, 64, 65, 66].
Es un hecho que el comportamiento de los clasificadores mejora cuando se eliminan los atributos no relevantes y redundantes. La selección de los atributos relevantes se debe a la preferencia
por los modelos más sencillos frente a los más complejos. Esta preferencia ha sido utilizada con
bastante frecuencia en la ciencia moderna y tiene sus orígenes en el denominado Principio de
la Cuchilla de Occam (Occam’s Razor) [42].
La selección de atributos es un campo de investigación y desarrollo productivo desde los años
setenta, donde confluyen distintas áreas como el reconocimiento de patrones [25, 14, 87, 51],
el aprendizaje automático [15, 54, 57, 59] y la minería de datos [24, 64, 104]. Las técnicas de
selección de características se aplican en muchos entornos diferentes, como por ejemplo en la
clasificación de textos [101, 104, 41], en la recuperación de imagenes [83], en la dirección de
28
2. Hipótesis y objetivos
relaciones con clientes [72], en la detección de intrusos [63] y en Bioinformática [50, 100, 103].
Se hace constar, que el proceso de selección de atributos, además de preceder a la clasificación,
suele estar presente en las etapas previas de las principales tareas de la minería de datos, ya sean
supervisadas o no, como regresión, agrupamiento y reglas de asociación [66].
Partiendo de la premisa de que en el proceso de selección de atributos se escoge un subconjunto
de atributos del conjunto original, este proceso pretende elegir atributos que sean relevantes
para una aplicación y lograr el máximo rendimiento con el mínimo esfuerzo.
El resultado obtenido al aplicar técnicas de selección de atributos sería:
Menos datos → los clasificadores pueden aprender más rápidos.
Mayor exactitud → el clasificador generaliza mejor.
Resultados más simples → más fácil de entender.
Menos atributos → evita obtenerlos posteriormente.
Podemos concluir que la selección es efectiva en eliminar atributos irrelevantes y redundantes,
incrementando la eficiencia en las tareas de minería, mejorando el rendimiento y la comprensión
de los resultados.
Definición 2.10 (Selección de atributos) Si X es el conjunto de atributos, hacer selección de
atributos es escoger un subconjunto S ∈ P(X). P(X) es el conjunto de las partes de X, es decir,
el conjunto formado por todos los subconjuntos de elementos de X.
Existen dos aproximaciones para realizar una reducción de dimensionalidad: selección y transformación de características; ambas son técnicas de pre-procesado que se usan frecuentemente.
Aclaramos que, transformación de parámetros es el proceso a través del cual se crea un nuevo
conjunto de parámetros. Existiendo dos variantes:
Construcción de parámetros: es el proceso de descubrir información oculta sobre relaciones entre parámetros, aumentando el espacio formado por el conjunto de los atributos. Después de la construcción de parámetros, se obtienen p atributos adicionales:
Xn+1 , Xn+2 , . . . , Xn+p .
Extracción de parámetros: es el proceso de extraer un conjunto de nuevos atributos a
partir de los originales aplicando funciones. Tendremos: B1 , B2 , . . . , Bs (s < n), siendo
Bi = Fi (X1 , X2 , . . . , Xn ), donde Fi es una función.
2.8. Selección atributos
2.8.1.
29
Proceso general
La selección de atributos se puede considerar como un problema de búsqueda [87, 62] en un
espacio de estados, donde cada estado corresponde con un subconjunto de atributos, y el espacio
engloba todos los posibles subconjuntos que se pueden generar.
El proceso de selección de atributos puede entenderse como el recorrido de dicho espacio hasta
encontrar un estado (combinación de atributos) que optimice alguna función definida sobre un
conjunto de atributos.
En general, un algoritmo de selección de atributos se basa en dos pasos básicos: generación y
evaluación de subconjuntos. En la generación de nuevos subconjuntos se define un punto de
partida y una estrategia para recorrer el espacio de búsqueda hasta que se cumpla un criterio de
parada.
Existen bastantes referencias de trabajos relacionados con la selección de atributos, pero además, se han realizado estudios sobre diversos aspectos de la selección de atributos (técnicas de
búsqueda, medidas de bondad de los atributos, etc.) donde se agrupan los distintos algoritmos
existente en la bibliografía general: Langley [62], Blum y Langley [15], Doak [28, 29] y Liu et
al. [24, 64, 66].
Generación de subconjuntos
Todo proceso de selección de atributos tiene un punto de partida, que puede ser el conjunto
completo de atributos, el conjunto vacío o cualquier estado intermedio. Tras evaluar el primer
subconjunto, se examinarán otros subconjuntos generados según una dirección de búsqueda
(hacia adelante, hacia atrás, aleatoria o cualquier variación o mezcla de las anteriores). El proceso terminará cuando recorra todo el espacio o cuando se cumpla una condición de parada,
según la estrategia de búsqueda seguida.
Se entiende por dirección de búsqueda, la relación entre los atributos de un subconjunto con el
siguiente, al realizar el recorrido a través del espacio de búsqueda.
30
2. Hipótesis y objetivos
Estrategia de búsqueda
Para una base de datos con n atributos, existen 2n subconjuntos candidatos. Una búsqueda exhaustiva en este espacio es totalmente ineficiente, incluso para bases de datos pequeñas, siendo
necesario el uso de diferentes estrategias para atajar este problema. Existen tres tipos de estrategias de búsqueda según Liu et al. [66]: completa, secuencial y aleatoria.
2.8.2.
Medidas de evaluación de atributos
El conjunto óptimo es siempre relativo a un criterio de evaluación, es decir, un subconjunto
óptimo elegido según una medida de evaluación no tiene porque ser el mismo al usar otra
distinta. Sin embargo, en la práctica, se comprueba con cierta frecuencia que si un atributo es
relevante aparece en subconjuntos escogidos según distintas funciones de evaluación.
Medidas de distancia Estas medidas estiman la capacidad de un subconjunto de atributos en
separar las clases. Utilizando este tipo de medida se intenta seleccionar aquellos atributos
que hacen que los ejemplos de la misma clase estén más juntos y los de diferente clase
más separado. Ejemplos de medidas de distancia son: Euclidea, Manhattan, Mahalanobis,
Bhattaacharya, Kullback-Liebler, Kolmogorov, Chernoff, etc.
Medidas de información Se basan en la ganancia de información de un atributo. Entre las
medidas de información más frecuentes se encuentran: la entropía de Shannon, de Renyi,
de grado α, cuadrática, estrictamente cóncava y de Daroczy, MDLC e información mutua.
Medidas de dependencia El coeficiente de correlación es una medida de dependencia clásica que se utiliza para calcular la correlación entre un atributo y la clase, prefiriéndose
aquellos atributos con mayor correlación. Otro enfoque consiste en determinar la dependencia de un atributo de otros, donde el valor resultante indica el grado de redundancia
del atributo [14].
Medidas de consistencia Se caracterizan por su fuerte dependencia del conjunto de entrenamiento [7]. Estas medidas intentan extraer el subconjunto mínimo que satisfaga una tasa
de inconsistencia aceptable, establecida normalmente por el usuario. Existe un problema
al usar este criterio en bases de datos con un atributo que identifique individualmente cada instancia (DNI, número seguridad social,...) al no existir inconsistencia en los datos.
Obviamente, este atributo sería irrelevante para los algoritmos de inducción. El problema
2.9. Objetivos
31
se puede solucionar dejando dicho atributo fuera del proceso de selección si está identificado, o ejecutando una vez el algoritmo para identificarlo y posteriormente para elegir el
subconjunto.
Medidas de exactitud En aprendizaje supervisado, el principal objetivo de un clasificador es
maximizar la exactitud en la predicción de nuevos ejemplos, esto hace que la exactitud
sea aceptada y muy utilizada como medida de evaluación.A los método que utilizan este
tipo de medida se les denomina envoltorios (wrappers), y filtros a los demás.
2.8.3.
Conclusiones y tendencias
Además de definir el concepto de selección y de analizar su proceso, se ha clasificado y descrito
los clasificadores más representativos. La forma de evaluar y comparar los algoritmos indicada
en este capítulo se tendrá en cuenta a lo largo del presente documento.
Recientemente los datos se han incrementado más y más en ambos sentidos (número de instancias y de atributos) en todas las áreas del conocimiento humano. Esta gran cantidad de datos
causa serios problemas a muchos algoritmos de minería de datos con respecto a la escalabilidad
y al rendimiento. Por ejemplo, bases de datos con cientos o miles de atributos, pueden contener
un alto grado de información irrelevante y/o redundante con lo que se degradaría el rendimiento
de un algoritmo de minería.
Se puede concluir que la selección de atributos permite mejorar la precisión e interpretabilidad
de los métodos de aprendizaje automático, además de reducir el tamaño de la base de datos y el
tiempo de los algoritmos de aprendizaje. Además, para diferentes aplicaciones puede convenir
distintos algoritmos de selección de características. Es importante no olvidar que la selección
de atributos es un campo dinámico, estrechamente conectado a la minería de datos y a otras
técnicas de preprocesamiento.
2.9.
Objetivos
El presente trabajo de investigación tiene como objetivo el estudio de las diferentes técnicas
de minería de datos existentes que se pueden utilizar para extraer conocimiento útil de datos
relativos a objetos celestes provenientes de observaciones astronómicas. Nos centraremos, fundamentalmente, en las técnicas de clasificación, cuya aplicación a datos de origen astronómico
32
2. Hipótesis y objetivos
ha sido bastante escasa hasta la fecha. Como objetivo secundario este trabajo incluye el estudio
de métodos de selección de atributos y su aplicación a datos de origen astronómico. La finalidad
de este trabajo de investigación, por tanto, consiste en clasificar objetos celestes y en identificar
las características más relevantes para su clasificación.
Capítulo 3
Trabajos relacionados
3.1.
Introducción
El Sloan Digital Sky Survey (SDSS) [102, 36, 1, 3] es una ambicioso estudio del espacio que
comenzó en el año 2000 con el objetivo de crear el mapa cósmico tridimensional más grande obtenido hasta el momento. Para tal fin se utiliza el telescopio de 2.5 metros de diámetro
denominado SDSS [53], situado a 2788 metros sobre el nivel del mar en el Apache Point Observatory de Sunspot de Nuevo México, Estados Unidos. Este telescopio observará una cuarta
parte del cielo en detalle y medirá las posiciones y brillos absolutos de cientos de millones de
objetos celestes así como las distancias de más de un millón de galaxias, estrellas y cuásares.
La cantidad de información que generará este proyecto está etimada en 15 terabytes.
En 2005 se completó la primera fase del proyecto, que consistió en observar regiones de alta
latitud galáctica del hemisferio Norte y tres franjas del hemisferio Sur. Tras el éxito de la primera
fase, se inicó una segunda, que finalizó en 2008, en la que aparte de continuar con la labor
original (The Sloan Legacy Survey) se ampliaron a dos inspecciones adicionales:
SEGUE (the Sloan Extension for galactic Understanding and Exploration): inspeccionó
una región del cielo de 3500 grados cuadrados. Tenía el objetivo de posibilitar el estudio
de la estructura y evolución de la vía láctea.
The Sloan Supernova Survey: campaña de 3 meses en la que se observó, en repetidas
ocasiones, una región de 300 grados cuadrados de la región Sur con objeto de descubrir
supernovas.
33
34
3. Trabajos relacionados
En la actualidad se está en una tercera fase del proyecto que abarcará hasta el 2014. Esta tercera
fase tiene como objetivo profundizar en el conocimiento de los siguientes temas:
Energía oscura y parámetros cosmológicos.
Estructura, dinámica y evolución química de la vía láctea.
Arquitectura de sistemas planetarios.
3.1.1.
Definiciones
A continuación pasamos a definir los conceptos básicos y relevantes para este trabajo:
Definición 3.1 Sensor CCD: “Charge Coupled Device” o Dispositivo de Carga Acoplada. Dispositivo electrónico que registra fotones (luz) generando una imagen a partir de éstos. El sensor
CCD es un circuito integrado compuesto por células fotosensibles dispuestas en forma matricial. Cada una de estas células transforman la cantidad de energía incidida (número de fotones
registrados) en corriente eléctrica. Esta corriente eléctrica será procesada por la electrónica
del dispositivo, generando el valor asociado a un píxel. De esta forma, la composición del valor
de todas las células fotosensibles conformarán una imagen.
Definición 3.2 Cámara CCD: Equipo electrónico empleado para capturar imágenes mediante
uno o más sensores CCD.
Definición 3.3 TDI (Time Delay and Integration): Modo de integración y lectura de sensores
CCD que permite la adquisición de imágenes de objetos en movimiento.
Definición 3.4 Filtro óptico: Medio que sólo permite el paso a través de él de luz con ciertas
propiedades, suprimiendo o atenuando la luz restante. Según el rango de frecuencias que dejen
sin filtrar, los filtros ópticos se clasifican en:
Paso alto: permite el paso de radiación por encima de una determinada frecuencia de
corte.
Paso bajo: permite el paso de radiación por debajo de una determinada frecuencia de
corte.
35
3.1. Introducción
Paso banda: permite el paso de radiación en una región de frecuencias determinada por
dos frecuencias de corte.
Rechazo banda: realiza el efecto contrario al anterior, es decir, no deja pasar la radiación
en una región de frecuencias determinada por dos frecuencias de corte.
La respuesta de un filtro se caracteriza por su curva de respuesta en frecuencia (ver figura 3.1),
que indica la forma en que las diferentes frecuencias son atenuadas o amplificadas al atravesar
el filtro.
Figura 3.1: Respuesta en frecuencia de los diferentes tipos de filtros.
Definición 3.5 FWHM (Full Width at Half Maximum): Parámetro característico de los filtros paso banda que representa el rango de longitudes de onda que no son filtradas (figura
3.2).
Este parámetro se obtiene como resultado de la diferencia de las longitudes de onda a media
altura del máximo de la curva de respuesta del filtro. Para el caso de la figura 3.2 tendríamos
FWHM = x2 − x1 (expresadas en unidades de longitud de onda).
Definición 3.6 Fotometría: Rama de la astronomía encargada de medir el brillo de los astros.
Dicho brillo se mide en magnitudes, cuya escala es inversamente porporcional al brillo del
astro. Es decir, a mayor magnitud, menor brillo.
36
3. Trabajos relacionados
Figura 3.2: Filtro óptico paso banda
Definición 3.7 Astrometría: Rama de la astronomía dedicada al estudio de la posición, paralajes y movimientos propios de los astros.
Definición 3.8 Espectrometría: Estudio del espectro de la radiación electromagnética asociada a un astro. Permite medir ciertas propiedades como la composición química y el movimiento.
Definición 3.9 Espectro: Distribución energética en un rango de longitudes de onda asociada
a un astro.
Definición 3.10 Espectrógrafo: Instrumento óptico usado, generalmente, para medir la intensidad de la luz emitida por una fuente a diferentes longitudes de onda. El espectrograma resultante suele denominarse espectro, y suele registrarse en un sensor CCD o placa fotográfica.
Definición 3.11 Coordenadas galácticas: Es un sistema de coordenadas celestes centrada en
el sol y alineada con el centro aparente de la Vía Láctea. El “ecuador” está alineado con el
plano de la galaxia. El sistema de referencia gira con el Sol alrededor de la galaxia.
Las coordenadas son la longitud galáctica (l) y la latitud galáctica (b).
La longitud galáctica se mide sobre el plano de la misma, en sentido antihorario a partir
de la línea que une al Sol con el centro de la galaxia (0◦ ≤ l ≤ 360◦ ).
La latitud galáctica es el ángulo que forma el objeto con el plano de la galaxia. Se mide
en grados positivos al norte y negativos al sur (-90◦ ≤ b ≤ 90◦ ).
3.1. Introducción
37
Definición 3.12 Formato de ficheros FITS [43]: FITS o Flexible Image Transport System es
el formato de archivo más utilizado en el mundo de la astronomía para almacenamiento de
imágenes, aunque a menudo es utilizado para almacenar también datos que no son imágenes,
tales como, espectros electromagnéticos.
Un fichero FITS puede contener varias extensiones, y cada una de ellas puede contener datos
de un objeto. Por ejemplo, es posible almacenar imágenes de rayos X y también imágenes
pertenecientes al infrarrojo en el mismo archivo FITS.
Más información y utilidades para el procesamiento de los ficheros FITS puede ser obtenida en
http://fits.gsfc.nasa.gov/
Definición 3.13 WEKA (The Waikato Environment for Knowledge Analysis): Es una colección de algoritmos de aprendizaje automático escritos en java para tareas de minería de
datos [99]. Weka fue desarrollado y está siendo mantenido por la Universidad de Waikato bajo
licencia GNU-GPL.
3.1.2.
Análisis espectral
Si se hace pasar la luz del Sol a través de un prisma (fig. 3.3) ésta se descompone en una gama
de colores similares a los que pueden observarse en un arco iris (rojo, anaranjado, amarillo,
verde, azul, añil y violeta). A esta gama de colores se le da el nombre de espectro de la luz
visible. El arco iris es un espectro natural producido por fenómenos meteorológicos. Pero, en
términos generales, el espectro es toda la gama de radiaciones electromagnéticas, que va desde
los rayos gamma a las ondas radio. La primera explicación correcta de este fenómeno la dio en
1666 el matemático y físico británico Isaac Newton.
La luz blanca produce al descomponerla lo que llamamos un espectro continuo, que contiene
el conjunto de colores que corresponde a la gama de longitudes de onda que la integran. Sin
embargo, los elementos químicos en estado gaseoso y sometidos a temperaturas elevadas producen espectros discontinuos en los que se aprecia un conjunto de líneas que corresponden a
emisiones de sólo algunas longitudes de onda. El conjunto de líneas espectrales que se obtiene
para un elemento concreto es siempre el mismo, incluso si el elemento forma parte de un compuesto complejo, debido a que cada elemento produce un espectro diferente al de cualquier otro
elemento. Esto significa que cada elemento tiene su propia firma espectral.
Existen dos tipos de espectros:
38
3. Trabajos relacionados
Figura 3.3: Dispersión de la luz en un prisma.
Espectro de emisión. Son las radiaciones emitidas por un elemento, en estado gaseoso, cuando
se le comunica energía. Así, por ejemplo, si colocamos un tubo con hidrógeno al calentarlo a altas temperaturas emitirá radiación. Si esta radiación se hace pasar a través de un
prisma de cuarzo obtendremos a su salida una imagen compuesta por la gama de colores
que componía la radiación original (fig. 3.4(a)).
Espectro de absorción. Al atravesar la radiación un gas se produce la absorción de una parte del espectro. El resultado es su espectro característico de absorción, donde faltan las
bandas absorbidas (fig. 3.4(b)).
(a)
(b)
Figura 3.4: Espectros de emisión (a) y de absorcion (b) del hidrógeno.
El análisis espectral permite detectar la absorción (espectros de absorción) o emisión (espectros
de emisión) de radiación electromagnética a ciertas longitudes de onda, y relacionar éstas con
los niveles de energía implicados en una transición cuántica de un átomo.
3.1. Introducción
39
Los astros emiten ondas electromagnéticas. A partir de estas ondas electromagnéticas se realiza
un análisis espectral con la ayuda de un espectroscopio. Por otra parte, como se conocen los
espectros asociados a los diferentes elementos químicos e isótopos, éstos sirven de patrones
que permiten analizar los espectros de los cuerpos celestes y extraer toda la información que
contienen, denominándose a este estudio análisis espectral.
Entre la emisión de ese espectro por los átomos excitados por el calor de la estrella y su recepción en la Tierra interviene otro fenómeno. Cada vez que una radiación emitida encuentra,
durante su propagación en la misma atmósfera de la estrella, un vapor que contiene átomos del
mismo elemento, es absorbida por uno de éstos. Por consiguiente, en el espectro de aquella estrella que se obtendrá en la Tierra cada una de las posiciones correspondientes a las longitudes
de onda interceptadas quedará falto de luz y en él aparecerá una raya oscura. Así, en lugar del
espectro de emisión se obtendrá un espectro de absorción que contendrá en forma de rayas las
huellas de todos los elementos químicos existentes en la atmósfera del astro.
En muchos casos, el interior de una fuente está a mayor temperatura que el exterior. El interior
produce un espectro de emisión de líneas anchas, y en el exterior se genera un espectro de
absorción, con líneas más estrechas al estar más frío. El resultado global para cada línea es una
zona brillante con un centro oscuro.
Fraunhofer y Angelo Secchi estuvieron entre los pioneros de la espectroscopia del Sol y otras
estrellas. Se recuerda especialmente a Secchi por clasificar las estrellas en tipos espectrales,
basándose en el número y fuerza de las líneas de absorción de su espectro.
3.1.3.
Corrimiento al rojo
Un espectro de un cuerpo celeste, además de indicar la composición química de la fuente luminosa y el estado físico de su materia, da información sobre si el cuerpo luminoso y la Tierra se
acercan o se alejan entre sí, y con la velocidad relativa a la que lo hacen (efecto Doppler-Fizeau).
Cuando la fuente de radiación se acerca al observador o se aleja de él, se produce un desplazamiento de la posición de las líneas espectrales. Este desplazamiento de las longitudes de onda,
conocido como efecto Doppler, permite medir con bastante precisión la velocidad relativa de
cualquier fuente de radiación. En general, si todas las líneas del espectro de una estrella se desplazan hacia el rojo, la estrella se está alejando de la Tierra, y la velocidad de alejamiento puede
calcularse a partir de la magnitud del desplazamiento de las líneas. Por el contrario, si la estrella
se está acercando a la Tierra, su espectro se desplaza hacia el violeta. El desplazamiento hacia
40
3. Trabajos relacionados
el rojo observado en los espectros de las galaxias indica que el Universo se está expandiendo.
La gráfica 3.5 muestra un ejemplo del espectro de absorción de la luz de una estrella. Las dos
líneas negras corresponden a luz que fue absorbida por átomos en la atmósfera de la estrella. El
primer espectro corresponde a una estrella en reposo relativo a nosotros que observamos desde
la Tierra. El segundo espectro corresponde a una estrella que se aleja de nosotros. Note como
las líneas del espectro se corren hacia el rojo.
Figura 3.5: Efecto de la velocidad relativa sobre los espectros.
3.2.
Instrumentación del SDSS
El SDSS usa un telescopio de 2.5 metros equipado con una cámara de 120 megapíxeles capaz de capturar imágenes ópticas que cubren un área de cielo de 1.5 grados cuadrados y dos
espectrógrafos alimentados mediante fibra óptica para medir espectros.
3.2.1.
Cámara
La cámara [52] del SDSS consta de 54 sensores CCD; 30 destinados a fotometría, 22 a astrometría y 2 a labores de enfoque. En la figura 3.6 puede verse la disposición de estos sensores en
la cámara.
Los sensores CCD de fotometría son de tipo SITe/Tektronix con una resolución de 2048 × 2048
píxeles de 24ηm cada uno.
La imágen digital que el CCD almacena consiste en un array de píxeles. Cada registro del array
incluye la coordenada x e y del píxel, y el número de fotones que incidieron en el pixel durante
el tiempo de exposición de la cámara. Un software de procesado de imágenes lee los datos y
asignan a cada píxel un tono de gris (o de color) dependiendo del número de fotones registrado.
3.2. Instrumentación del SDSS
41
Figura 3.6: Disposición de los sensores CCD en la cámara principal del SDSS. Los
30 sensores destinados a fotometría están situados en la zona central; los 22 de astrometría están distribuidos en dos hileras de 12 situados en la zona superior e inferior
(representados en color gris claro) y los 2 de enfoque están centrados, uno en cada
zona (representados en color gris claro).
Filtros
Cada fila de CCDs de la cámara del SDSS observa el cielo a través de un filtro diferente de
color, denominados r, i u, z, g [52]. En la figura 3.7 se muestra la disposición de los filtros
superpuestos sobre las filas de CCDs de la cámara del SDSS.
Los filtros utilizados en el SDSS se corresponden con los colores ultravioleta (u; ultraviolet),
verde (g; green), rojo (r; red), cerca del infrarrojo (i; near-infrared) e infrarrojo (z; infrared) [52]. Estos filtros están diseñados para permitir pasar un rango específico de longitudes
de onda (filtros paso banda). Sin embargo la sensibilidad del filtro no es homogénea; con lo que
se suele hacer uso de una curva de respuesta que muestra la transmitancia de la radiación a lo
largo de las distintas longitudes de onda.
La figura 3.8 muestra la curva de respuesta de estos cinco filtros y la tabla 3.1 la información
relativa al pico de máxima transmisión de la curva de respuesta, el ancho de banda del espectro
y la longitud de onda promedio de cada filtro [94].
42
3. Trabajos relacionados
Figura 3.7: Imagen de los filtros colocados sobre la cámara del SDSS.
pico (Å)
FWHM (Å)
<λ>(Å)
u
3500
600
3551
g
4800
1400
4686
r
6250
1400
6165
i
7700
1500
7481
z
9100
1200
8931
Tabla 3.1: Máximo de transmisión y ancho banda de filtros u, g, r, i, z.
La disposición matricial de los filtros en seis columnas de cinco filas (una por cada filtro óptico),
permite que al operar en modo TDI se tomen imágenes de una fuente en los cinco filtros casi
simultaneamente (transcurren 5 minutos entre la captura en el primer filtro (r) y el último (g)).
De esta forma, para cada fuente se tendrán cinco imágenes (una por cada filtro).
En astrofísica, dependiendo del tipo de fuente, emitirá en mayor medida en un rango u otro de
energía. De esta forma, las cinco imágenes anteriores podrán ser utilizadas para realizar una
primera discriminación sobre tipo de objeto celeste observado.
3.2.2.
Espectrógrafos
El SDSS consta de dos espectrógrafos conectados a 320 fibras (fiber) ópticas; lo que permite que
se tomen 640 espectros a la vez. Dos láminas (plate) de Aluminio con 320 perforaciones cada
una fija las localizaciones de donde se medirán los espectros. Para las observaciones, se sitúan
las láminas sobre una montura que se coloca sobre el telescopio. Las fibras, conectadas a las
láminas, transportan la luz proveniente de la fuente hasta los espectrógrafos. Cada espectrógrado
registra el espectro en dos sensores CCD de tipo SITe/Tektronix con una resolución de 2048 ×
2048 píxeles; uno para cubrir el rango de longitudes de onda azules (de 3800Å a 6150Å) y otro
3.2. Instrumentación del SDSS
43
Figura 3.8: Curva de respuesta de los filtros ópticos utilizados en el SDSS.
para cubrir el rango de longitudes de onda rojas (de 5800Å a 9200Å). El uso de dos canales por
espectro permite incrementar la resolución de las medidas. En la figura 3.9 puede verse parte de
la isntrumentación dedicada a la toma de espectros.
Figura 3.9: Las fibras (fibers), conectadas a la lámina (plate) de Aluminio, transportan
la luz de la fuente a una rendija donde hace incidir el espectro sobre el espectrógrafo.
La primera observación espectrográfica fue presentada por Castander et al. [18]. Mediante estos
espectrógrafos el SDSS estudiará todos los cuerpos celestes de magnitud 17,8 o más brillante
captados por la cámara. En la figura 3.10 se observan las imagenes captada por la cámara y el
espectro asociado a la misma de tres tipos de cuerpos celestes diferentes.
44
3. Trabajos relacionados
(a)
(b)
(c)
Figura 3.10: Imágenes tomadas por la cámara del SDSS y espectros asociados:
(a) Galaxia espiral NGC 5750 (MJD=51662, Plate=308 y Fiber=191) (b) Quásar
(MJD=51630, Plate=266 y Fiber=190) (c) Estrella (MJD=51900, Plate=390 y Fiber=115).
3.3. Cobertura del cielo
3.3.
Cobertura del cielo
3.3.1.
Cobertura fotométrica
45
Como puede verse en la figura 3.11, el SDSS se mueve describiendo círculos grandes de latitud
constante delimitados a cierta longitud. La región de cielo a cubrir por el SDSS está dividida en
franjas denominadas stripe de ancho 2.53◦ . Para cubrir el ancho de una franja se requieren dos
observaciones, de modo que cubran los huecos que hay entre los CCDs.
Figura 3.11: Cobertura del cielo del SDSS en coordenadas galácticas. La región a
observar está estructurada en franjas (stripe) de 2◦ .53 de ancho que se solapan. Cada
franja describe un movimiento circular a una latitud contante.
Un escaneo de una franja de cielo es denominado run. El stripe surge de unir dos runs, los
cuales consisten en 6 camcols (camera columns); una por cada columna de sensores CCD. Las
columnas a su vez se dividen en fields, los cuales constan de 2048 píxeles de ancho por 1489
píxeles de largo. Por tanto, habrá regiones de cielo que se solapen y por tanto sean observadas
dos o más veces. Entre dos fields hay un solape de 128 píxeles en la dirección de escaneo. En la
figura 3.12 puede verse un esquema de una franja de observación (stripe).
3.3.2.
Cobertura espectroscópica
Cada espectrógrafo tiene 320 fibras; de modo que se pueden tomar medidas de 640 espectros a
la vez. Debido a la limitación del diámetro de estas fibras, los espectrógrafos no pueden tomar,
al mismo tiempo, espectros de dos objetos situados a una distancia inferior a 55 segundos de
46
3. Trabajos relacionados
Figura 3.12: Esquema de una franja de observación (stripe). Cada stripe consiste en
un par de runs. Cada run está compuesto de 6 camcols (una por columna de la cámara
fotométrica), los cuales se dividen en varios fields que se solapan entre sí.
arco. Para evitar conflictos de selección de fuentes se aplica una regla de selección que puede
verse en Stoughton et al. [36].
3.4.
Extracción de datos
La cámara del SDSS obtiene imágenes en alta resolución del cielo. A partir de estas imágenes,
un avanzado software de procesamiento de imágenes mide la forma, brillo y color de los objetos celestes. Posteriormente, de los objetos celestes detectados se obtienen los espectros de
radiación asociados y se realiza una rápida clasificación de los mismos.
Como resultado del estudio astronómico realizado por el SDSS se van a generar dos tipos de
datos:
Datos fotométricos: son medidas que se toman a partir de la imagen de una fuente. La principal medida es la magnitud, cuyo valor varía en función de la distancia y viene afectado de
la absorción interestelar, con lo que suele denominarse magnitud aparente. Otra magnitud
fotométrica es el tamaño de la fuente.
Datos espectroscópicos: son el conjunto de medidas que se toman a partir del espectro de una
fuente. A partir de estos datos puede extraerse el tipo espectral y el desplazamiento al
rojo.
47
3.4. Extracción de datos
De cada imagen procesada se almacenan dos versiones diferentes debido a que el software de
procesamiento de datos ha sufrido cambios sustanciales desde el inicio del estudio. Primeramente, se almacena la versión de los datos tal como fueron obtenidos por la cámara CCD y
por los espectrógrafos. Esta base de datos es denominada TARGDR1, donde DR1 designa el
número de versión: Data Release 1 (la versión más reciente de la base de datos es la 7, DR7
[55]). Una vez los datos han sido procesados con la mejor versión disponible de software, estos
objetos son almacenados en la base de datos BESTDR1. El esquema de las dos bases de datos
es idéntico.
En la tabla 3.2 puede verse las diferentes versiones de la base de datos del SDSS, se indican su
fecha de creación, tamaño y el número de imágenes y de espectros almacenados [55, 91].
Versión
Fecha
DR1
DR2
DR3
DR4
DR5
DR6
DR7
Junio 2003
Marzo 2004
Septiembre 2004
Junio 2005
Junio 2006
Junio 2007
Marzo 2009
Tamaño
(catálogo)
1 Tbyte
2 Tbyte
3 Tbyte
4 Tbyte
5 Tbyte
6 Tbyte
8 Tbyte
No imágenes
(millones)
53
88
141
180
215
287
357
No espectros
(miles)
186
330
478
608
738
1270
1630
Tabla 3.2: Versiones del catálogo de datos del SDSS.
Los datos obtenidos por el SDSS pueden ser accedidos de dos formas diferentes:
Mediante el acceso al Servidor de Archivos de Catálogo de datos (CAS, Catalog Archive
Server). El entorno de trabajo que provee el SDSS para trabajar con CAS se denomina CasJobs (Catalog Archive Server Jobs System) y es accesible a través de la URL
(http://casjobs.sdss.org/CasJobs/). En este entorno de trabajo se podrán realizar cuantas
consultas SQL se deseen sobre el repositorio (figura 3.13).
Mediante la descarga de ficheros de imágenes y datos en formato FITS. Los ficheros de
imágenes y datos en formato FITS están disponibles en el Servidor de Datos de Archivos
(DAS, Data Archive Server ) cuya URL es (http://das.sdss.org/).
3.4.1.
Repositorio de datos científicos
El repositorio de datos científico del SDSS está almacenado en el CAS mediante el sistema
gestor de bases de datos SQL Server de Microsoft [9]. El acceso a este repositorio se realiza a
través de la web mediante CasJob.
48
3. Trabajos relacionados
Figura 3.13: Entorno de trabajo CasJob.
El esquema de la base de datos se puede subdividir en cuatro grupos interrelacionados entre sí
(figura 3.14):
Photo: Estas tablas contienen datos fotométricos. En las observaciones fotométricas se obtienen un conjunto de tablas que describen los millones de objetos celestes detectados por la
cámara del SDSS. La tabla más importante de este grupo es la PhotoObjAll, la cual contiene objetos astonómicos identificados por el procesado software de las imágenes captadas por el telescopio SDSS. Para aquellos objetos que han sido varias veces observados y
procesados, la mejor observación es marcada como primary, el resto de observaciones se
marcan como secundary, si poseen la suficiente calidad como para ser tratadas científicamente, o como family, en cualquier otro caso. Esta tabla es la más grande del catálogo del
SDSS, conteniendo el 80 % del volumen de datos de la base de datos. Los objetos primarios y secundarios pueden ser accedidos también a través de la vista PhotoObj creada a
partir de PhotoObjAll.
Spectro: Estas tablas contienen datos espectroscópicos. Los datos obtenidos de las observaciones fotométricas son usados para seleccionar objetivos para el estudio espectroscopio,
de forma que para cada uno de los objetos celestes seleccionados se obtiene el espectro
asociado. La tabla principal de este grupo es SpecObjAll, la cual es análoga a la tabla
PhotoObjAll pero con datos relativos a espectros en lugar de relativos a imágenes. Análogamente a la vista PhotoObj existe la vista SpecObj, la cual contiene el mejor espectro
asociado a cada objeto celeste almacenado en PhotoObj.
3.4. Extracción de datos
49
Region: Estas tablas contienen información acerca de la geometría espacial del estudio astronómico llevado a cabo por el SDSS.
Meta: Existen también un conjunto de datos denominados metadatos que se generan al documentar los atributos, tablas, el histórico del proceso de almacenamiento de los datos y el
mantenimiento de la interfaz web.
50
3. Trabajos relacionados
Figura 3.14: Esquema de la base de datos DR7 del SDSS.
51
3.4. Extracción de datos
3.4.2.
Tipos de objetos celestes
El SDSS realiza tres clasificaciones diferentes de los objetos celestes:
Una primera clasificación morfológica de los objetos celestes captados por la cámara del
telescopio SDSS. Los resultados son guardados en el atributo type (tabla 3.3) de la tabla
PhotoObjAll.
Mediante un procesado software de los espectros obtenidos de la observación astronómica se realiza una primera clasificación espectral de los diferentes objetos celestes. El
resultado de la clasificación es almacenado en el atributo specClass (tabla 3.4) de la tabla
SpecObjAll.
A partir de los espectros se realiza una segunda clasificación que determina subgrupos
de objetos celestes observados. Los valores obtenidos son almacenados en el atributo
objType (tabla 3.5) de la tabla SpecObjAll.
La clasificación realizada por el SDSS de los objetos celestes a partir de los espectros obtenidos (atributo specClass) implica una mayor rigurosidad que la realizada a partir de las imágenes
(atributo type) y la realizada a partir de los espectros para obtener los subgrupos de objetos (atributo objType). Por tanto, para el presente estudio de investigación vamos a utilizar el atributo
specClass como etiqueta de los diferentes registros.
Nombre
UNKNOWN
COSMIC_RAY
DEFECT
Valor
0
1
2
GALAXY
GHOST
3
4
KNOWNOBJ
5
STAR
TRAIL
SKY
NOTATYPE
6
7
8
9
Descripción
Tipo de objeto no conocido
Traza de rayo cósmico (no utilizado)
El objeto es causado por un defecto en el telescopio o
procesado software (no utilizado)
Galaxia
Objeto creado por un reflejo o luz refractada (no utilizado)
Objeto proveniente de otro catálogo diferente del catálogo SDSS (no utilizado)
Estrella
Rastro de un satélite o meteorito
Ningún objeto en el área
No definido
Tabla 3.3: Clasificación morfológica realizada por el SDSS de los objetos celestes
según el atributo type.
52
Nombre
UNKNOWN
STAR
GALAXY
QSO
HIZ_QSO
SKY
STAR_LATE
GAL_EM
3. Trabajos relacionados
Valor
0
1
2
3
4
5
6
7
Descripción
Espectro no clasificable
Espectro de una estrella
Espectro de una galaxia
Espectro de un quásar
Espectro de un quásar con elevado desplazamiento al rojo (z>2.3)
Espectro de cielo en blanco
Tipo de estrella dominada por bandas moleculares M o tardía.
Tipo de galaxia cuyo espectro presenta líneas de emisión muy estrechas e intensas.
Tabla 3.4: Clasificación espectral según el atributo specClass.
Nombre
GALAXY
QSO
SPECTROPHOTO_STD
HOT_STD
ROSAT_A
ROSAT_B
ROSAT_C
ROSAT_D
SERENDIPITY_BLUE
SERENDIPITY_FIRST
SERENDIPITY_RED
SERENDIPITY_DISTANT
STAR_BHB
SERENDIPITY_MANUAL
QA
SKY
NA
STAR_PN
STAR_CARBON
STAR_BROWN_DWARF
STAR_SUB_DWARF
STAR_CATY_VAR
STAR_RED_DWARF
STAR_WHITE_DWARF
REDDEN_STD
Valor
0
1
10
11
12
13
14
15
16
17
18
19
2
20
21
22
23
24
3
4
5
6
7
8
9
Tabla 3.5: Clasificación de los objetos celestes según el atributo objType.
3.5. Estado del arte de la minería de datos aplicada a datos astronómicos
3.5.
53
Estado del arte de la minería de datos aplicada a datos
astronómicos
El presente trabajo de investigación se ha centrado en el estudio astronómico desarrollado por
el SDSS. Sin embargo existen una variedad de estudios astronómicos del mismo tipo, tales
como 2MASS (the Two Micron All Sky Survey), DENIS (the Deep Near Infrared Survey),
DIVA (Double Interferometer for Visual Astrometry) y GAIA. Todos ellos generan cantidades
de datos del orden de terabytes o petabytes. Por tanto, analizar de forma automatizada esta
cantidad de datos es una tarea importante para los astrónomos. Para afrontar esta necesidad se
han desarrollado diferentes métodos, por ejemplo:
Redes Neuronales (NN). Se han empleado para clasificación espectral de estrellas [89], para
medidas físicas de espectros estelares [11], para clasificación espectral de galaxias [88],
para clasificación morfológica de galaxias [2, 90], para discriminación de estrellas y galaxias en imágenes digitalizadas [73], para estimación rápida de parámetros cosmológicos
[10] y para diferenciar quásares de estrellas [106].
Máquinas de Vectores Soporte (SVMs). Han sido aplicados a clasificación automática [105,
104], detección de objetos [75], identificación de variables rojas [96] y estimación del
corrimiento al rojo [95].
Árboles de decisión. Fueron aplicados para construir un sistema en línea para clasificación
automatizada de fuentes de rayos X [69] y para clasificación de estrellas-galaxias [12].
3.6.
Experimentación
Los datos de identificación, los valores de los filtros u, g, r, i, z y el tipo (valor del atributo
specClass) de los diferentes cuerpos celestes se han obtenido mediante el entorno de trabajo
CasJob, realizando una consulta que incluye una unión entre la tabla de imágenes (PhotoObj) y
la de espectros (SpecObj) (ver tabla 3.6). El significado de los diferentes atributos se recoge en
la tabla 3.7. Cada registro queda identificado de forma única mediante el atributo objID.
54
3. Trabajos relacionados
SELECT p.objID,s.specObjID,
p.b, p.l,
p.u, p.g, p.r, p.i, p.z,
p.run, p.rerun, p.camcol, p.field,
s.plate, s.mjd, s.fiberID,
s.z,
s.specClass
FROM
PhotoObj AS p, SpecObj AS s
WHERE
s.bestobjid = p.objID
AND p.b BETWEEN 20 AND 30
AND p.l BETWEEN 200 AND 210
AND s.z<=1.5
Tabla 3.6: Consulta SQL para obtener datos de experimentación.
Tabla
PhotoObj
Atributo
objID
PhotoObj
PhotoObj
PhotoObj
PhotoObj
PhotoObj
PhotoObj
PhotoObj
PhotoObj
PhotoObj
PhotoObj
specObjID
b
l
u
g
r
i
z
run
rerun
PhotoObj
PhotoObj
SpecObj
SpecObj
SpecObj
SpecObj
SpecObj
camcol
field
plate
mjd
fiberID
z
specClass
Descripción
Valor único utilizado en el SDSS para identificar los objetos celestes. Está compuesto por los campos: skyVersion,
rerun, run, camcol, field, obj.
Identificador del espectro asociado al objeto celeste.
Latitud galáctica.
Longitud galáctica.
Energía captada en la banda u.
Energía captada en la banda g.
Energía captada en la banda r.
Energía captada en la banda i.
Energía captada en la banda z.
Identificador de pasada.
Identificador de reprocesado de pasada. La imagen de la
zona del espacio es la misma, pudiendo ser diferente la
versión del software de procesado o la calibración.
Identificador de columna de CCDs de la cámara.
Identificador de campo.
Identificador de plato.
MJD (Modified Julian Date) de la identificación.
Identificador de fibra óptica.
Desplazamiento al rojo estimado.
Clasificación espectral (ver tabla 3.4).
Tabla 3.7: Atributos que intervienen en la consulta SQL de la tabla 3.6.
55
3.6. Experimentación
Un vez obtenidos los datos de identificación, se obtienen las URL de los ficheros FITS asociados a los diferentes objetos celestes mediante la función fGetUrlFitsSpectrum que provee la
plataforma CasJob. Esta función recibe como parámetro el SpecObjID de un objeto celeste y devuelve la URL del fichero FITS asociado a dicho objeto. En la tabla 3.8 se puede ver la consulta
generada para obtener la URL asociada al objeto con SpecObjID= 75094092974915584.
select dbo.fGetUrlFitsSpectrum(75094092974915584);
Tabla 3.8: Consulta SQL para obtener URL de ficheros FITS.
A partir de los ficheros FITS se extraen para cada objeto celeste los datos de las 44 líneas
espectrales utilizadas por el SDSS para la clasificación de los objetos celestes (tabla 3.9) [85].
Las 44 líneas espectrales obtenidas a partir de los ficheros FITS de cada objeto celeste, junto a
los 5 valores de los filtros u, g, r, i, z (ver tabla 3.1) obtenidos mediante la consulta 3.7, los 9
valores derivados de estos (u-g, u-r, u-i, u-z, g-r, g-i, g-z, r-i, r-z, i-z), la etiqueta de clasificación
(specClass) y los datos de identificación (objID, specObjID) conforman los atributos de cada
uno de los registros de la base de datos que va a ser objeto de estudio del presente trabajo de
investigación. Por simplicidad se ha realizado un etiquetado de las 44 líneas espectrales, este
etiquetado aparece en la tercera columna de la tabla 3.9. En adelante utilizaremos este etiquetado
para referirnos a las diferentes líneas espectrales.
56
3. Trabajos relacionados
λvac (Å)
Nombre
Etiquetado
Líneas de emisión
1033,82
OVI
w0
1215,24
Lyα
w1
1240,81
NV
w2
1305,53
OI
w3
1335,31
CII
w4
1397,61
SiIV
w5
1399,8
SiIV + OIV
w6
1549,48
CIV
w7
1640,4
HeII
w8
1665,85
OIII
w9
1857,4
AlIII
w10
1908,734
CIII
w11
2326,0
CII
w12
2439,5
NeIV
w13
2799,117
MgII
w14
3346,79
NeV
w15
3426,85
NeVI
w16
3727,092
OII
w17
3729,875
OII
w18
3889,0
HeI
w19
4072,3
SII
w20
4102,89
Hδ
w21
4341,68
Hγ
w22
4364,436
OIII
w23
4862,68
Hβ
w24
4932,603
OIII
w25
4960,295
OIII
w26
5008,240
OIII
w27
6302,046
OI
w28
6365,536
OI
w29
6529,03
NI
w30
6549,86
NII
w31
6564,61
Hα
w32
6585,27
NII
w33
6718,29
SII
w34
6732,67
SII
w35
Líneas de absorción
3934,777
K
w36
3969,588
H
w37
4305,61
G
w38
5176,7
Mg
w39
5895,6
Na
w40
8500,36
CaII
w41
8544,44
CaII
w42
8664,52
CaII
w43
Tabla 3.9: Líneas espectrales utilizadas en el SDSS para clasificación espectral.
57
3.6. Experimentación
3.6.1.
Preprocesamiento
En aprendizaje automático existen algunos aspectos sobre la calidad de las bases de datos que se
deben tener en cuenta durante el proceso de la construcción del modelo de aprendizaje, y que se
vulnera con facilidad en este tipo de aplicaciones. En primer lugar, la ausencia de valores, por lo
que se debe plantear el uso de métodos de preprocesado para estimar esta falta de información.
En segundo lugar, la posibilidad de sesgo de los datos debido a diversas razones, tales como las
tecnológicas, o factores humanos. Finalmente, es de esperar la presencia de ruido en este tipo
de datos.
Para la generación de las bases de datos objeto de estudio se han seleccionado los objetos
celestes pertenecientes a una región del espacio con un ancho de longitud y latitud galáctica
de 10◦ y se han eliminado aquellos registros que no tuvieran un valor válido para cada una de
las 44 líneas espectrales mostradas en la tabla 3.9. En la tabla 3.10 se muestran el número de
registros que constituye la base de datos objeto de estudio, así como el número de registros de
cada tipo (estrellas, galaxias, quásares y desconocidos).
Coordenadas galácticas
b ∈ [20◦ ,30◦ ], l ∈ [190◦ ,200◦ ]
N◦ registros
11181
Tipos de objetos
Galaxias: 7836
Estrellas: 2341
Quásares: 626
Desconocidos: 1078
Tabla 3.10: Datos base de datos objeto de estudio.
En el apartado anterior se definió la base de datos considerada original (en adelante se denominará base de datos FiltrosEspectros para el presente estudio). Según se especifico, los atributos
que contendrá son: los valores de las 44 líneas espectrales obtenidas a partir de los ficheros FITS
de cada objeto celeste, los 5 valores de los filtros u, g, r, i, z, los 9 valores derivados de estos (ug, u-r, u-i, u-z, g-r, g-i, g-z, r-i, r-z, i-z), la etiqueta de clasificación y los datos de identificación
(objID, specObjID).
A partir de esta base de datos se crean dos bases de datos nuevas:
Base de datos Filtros: los atributos que contendrá serán los 5 valores de los filtros u, g, r,
i, z, los 9 valores derivados de estos (u-g, u-r, u-i, u-z, g-r, g-i, g-z, r-i, r-z, i-z), la etiqueta
de clasificación y los datos de identificación (objID, specObjID).
Base de datos Espectros: los atributos que contendrá serán los valores de las 44 líneas
espectrales obtenidas a partir de los ficheros FITS de cada objeto celeste, la etiqueta de
clasificación y los datos de identificación (objID, specObjID).
58
3. Trabajos relacionados
Por simplicidad nos hemos centrado en la clasificación de los objetos celestes del tipo estrella,
galaxia y quásar, considerando al resto de objetos celestes del tipo desconocido. La equivalencia
del etiquetado realizado por el SDSS y la realizada en la generación de la base de datos objeto
del presente estudio se recoge en la tabla 3.11. Por tanto, en la base de datos objeto del presente
estudio sólo tendremos cuatro tipos de registros: STAR, GALAXY, QSO y UNKNOWN.
Clasificación SDSS (specClass)
STAR
GALAXY
QSO
UNKNOWN
SKY
STAR_LATE
GAL_EM
Etiquetado realizado
STAR
GALAXY
QSO
UNKNOWN
UNKNOWN
UNKNOWN
UNKNOWN
Tabla 3.11: Equivalencia etiquetado SDSS y base de datos objeto de estudio.
Registros del tipo HIZ_QSO no se han tenido en cuenta puesto que al extraer los datos del
CAS mediante la consulta SQL recogida en la tabla 3.6 se consideró sólo los registros con un
desplazamiento al rojo menor o igual a 1.5 (s.z<=1.5), de esta forma seleccionamos de entre los
posibles objetos celestes aquellos más próximos a la Tierra y, por tanto, con menor posibilidad
de sufrir su espectro distorsiones debido a la materia interestelar.
3.6.2.
Descripción de los experimentos
Los algoritmos de clasificación, así como los de selección de atributos, se han implementado
utilizando el entorno WEKA, versión 3.6, ejecutándose en un cluster que el CICA (Centro Informático Científico de Andalucía) provee para tareas de investigación. Actualmente este cluster
dispone aproximadamente de 110 nodos, con un total de 250 microprocesadores del tipo Intel
Xeon a 3.20GHz y Quad-Core AMD Opteron Processor 8356 a 2.2GHz. Todos los nodos son
de memoria distribuida, aunque también dispone de varias unidades de Sun x4600 con 16 y 24
procesadores y 64 GB de RAM que funcionan como servidores de memoria compartida.
El hecho de que en los datos de origen astronómico se de un elevado número de atributos ligado
a un elevado tamaño de muestra hace interesante seleccionar un número pequeño de atributos
discriminativos de entre decenas de ellos para lograr el éxito en la clasificación de las muestras
con el menor coste computacional. Para tal fin, a las bases de datos objeto de estudio se le
aplicarán los algoritmos de selección de atributos siguientes:
CfsSubSetEval (CFS) Evalúa un subconjunto de atributos considerando la habilidad predicti-
3.6. Experimentación
59
va individual de cada variable, así como el grado de redundancia entre ellas. Se prefieren
los subconjuntos de atributos que estén altamente correlacionados con la clase y tengan
baja intercorrelación [46].
ConsistencySubsetEval (CNS) Evalúa un subconjunto de atributos por el nivel de consistencia
en los valores de la clase al proyectar las instancias de entrenamiento sobre el subconjunto
de atributos [44].
ClassifierSubsetEval (CLS) Evalúa los subconjuntos de atributos en los datos de entrenamiento o en un conjunto de prueba independiente, utilizando un clasificador.
Estos tres algoritmos de selección de atributos son evaluadores de subconjuntos de atributos,
los dos primeros pertenecen a la categoría de Filtros, dado que se basan en características de los
datos independientes del clasificador, y el tercero pertenece a la categoría de Wrappers por utilizar el clasificador como medida de evaluación de subconjuntos. Se ejecutaron en combinación
con el método de búsqueda Best First, el cual busca en el espacio de los subconjuntos de atributos utilizando la estrategia greedy hillclimbing con backtracking. La dirección de búsqueda
realizada por Best First fue hacia adelante partiendo del conjunto vacío de atributos.
Para comparar los diferentes algoritmos de selección se aplicaron los clasificadores Naïve Bayes, C4.5 (J48 en Weka) e IB1 (ver sección 2.5 en la página 11), sobre la base de datos original.
En principio, no existe un algoritmo que sea mejor que el resto para este tipo de datos. Fueron
elegidos estos algoritmos por ser relativamente rápidos y representar los algoritmos de aprendizaje más comúnmente usados en aplicaciones de minería de datos [45]. Posteriormente, se
redujeron el número de atributos de las diferentes bases de datos mediante la aplicación de los
selectores CFS, CNS y CLS. A las bases de datos generadas con los atributos seleccionados por
los algoritmos selectores se le volvieron a aplicar los mismos clasificadores empleados con las
bases de datos originales, esto es NB, C4.5 e IB1 con el objetivo de verificar la efectividad de
la selección de atributos y se comprobó la mejoría o empeoramiento del porcentaje de registros
bien clasificados.
Los datos que se almacenaron en todos los casos fueron el porcentaje de aciertos y el número
de atributos seleccionados. En cada caso, los resultados se obtuvieron calculando la media de
una ejecución de validación cruzada diez (1×10CV), y para que no se produjera un sobreajuste
del algoritmo de selección a los datos utilizados, se realizaron diez reducciones, una por cada
conjunto de entrenamiento.
Los test de hipótesis mostraron si la diferencia en el comportamiento de un clasificador con los
datos originales y los reducidos es estadísticamente significativa.
60
3.6.3.
3. Trabajos relacionados
Análisis de los resultados
En esta sección se pretende analizar el comportamiento de los algoritmos de clasificación NB,
IB1 y C4.5, así como los algoritmos evaluadores de atributos CFS, CNS y CLS ante conjuntos
de gran tamaño provenientes de observaciones astronómicas. La finalidad es evaluar las técnicas
en términos de exactitud en la clasificación y grado de reducción.
La tabla 3.12 muestra las tasas de aciertos y el número de atributos seleccionados obtenidos al
aplicar los selectores descritos anteriormente a las tres bases de datos definidas en el apartado
3.6.1. Se muestran en horizontal, por grupos, los resultados obtenidos con los clasificadores
NB, J48 e IB1. Dentro de cada grupo horizontal se muestra en horizontal los valores obtenidos
para las bases de datos originales (primera fila de cada grupo) y los obtenidos una vez se han
aplicado los diferentes selectores objeto de estudio (las tres filas siguientes de cada grupo).
Orig.
CFS
CNS
CLS
Orig.
CFS
CNS
CLS
Orig.
CFS
CNS
CLS
Filtros
Ac
#at
34,6015 15,0
62,1917◦
7,9
34,6015 15,0
85,9355◦
3,0
92,2565 15,0
91,9704
7,9
92,2565 15,0
91,9199 12,2
90,8594 15,0
91,0782
7,9
90,8594 15,0
74,0342•
2,0
Espectros
Ac
#at
85,2874 45,00
85,5147
7,20
84,0586 23,90
87,8966◦
3,30
89,7063 45,00
89,4285
7,20
89,3275 23,90
89,6726 14,60
89,2097 45,00
86,9455
7,20
89,1171 23,90
84,5468•
2,00
FiltrosEspectros
Ac
#at
86,2049 60,00
87,5684 11,30
79,1937 14,30
90,59◦
3,80
97,1130 60,00
96,9279 11,30
97,0710 14,30
96,9110 12,20
96,5323 60,00
96,1283 11,30
96,1535• 14,30
77,6618•
2,00
NB
J48
IB1
Tabla 3.12: Resultados experimentación. Ac–tasa de aciertos; #at–número medio de
atributos obtenidos en la validación cruzada 1x10; ◦ y •, mejora o empeora significativamente con respecto al original.
Como se puede observar en la tabla 3.12 el número de atributos seleccionados con los evaluadores CFS y CNS es idéntico, dado que estos algoritmos son independientes del clasificador.
En el caso del CLS, debido a que utiliza como evaluador el propio clasificador, los atributos
seleccionados en cada caso son diferentes.
Comparando los resultados obtenidos por los diferentes clasificadores, destacamos el mejor
comportamiento que se alcanza con árboles de decisión J48, mejorando en todos los valores
obtenidos a NB e IB1.
En todos los casos recogidos en la tabla 3.12, excepto con NB y C4.5 al ser evaluados con
CNS y CLS respectivamente, se observa al trabajar con la base de datos FiltrosEspectros como
3.6. Experimentación
61
el porcentaje de aciertos se incrementa en gran medida mientras que el número de atributos
utilizado para la clasificación se reduce notablemente (resaltar que esta base de datos es una
combinación de valores procedentes de los filtros u, g, r, i, z y de los valores de las líneas
espectrales utilizados por el SDSS para realizar su clasificación espectral).
En consecuencia, se cumple que los mejores resultados de clasificación se obtienen con las
distintas aproximaciones realizadas con J48 sobre la base de datos FiltrosEspectros, siendo en
los cuatro casos contemplados el porcentaje de aciertos superior al 96,9 % y el de reducción de
atributos entorno al 80 %.
El algoritmo CFS ha presentado el comportamiento más estable en los porcentajes de aciertos,
por contra el algoritmo CLS ha presentado el comportamiento más irregular.
Para cada uno de los algoritmos de clasificación empleados (NB, J48 e IB1) vamos a analizar
los resultados obtenidos (tabla 3.12):
NB Destacar que los resultados obtenidos tras aplicar el clasificador NB como evaluador de
subconjuntos (CLS) son mejores en los tres casos significativamente. Estos resultados se
han conseguido con una importante reducción de atributos respecto a los otros selectores.
J48 Al aplicar el clasificador J48 los test de significatividad no muestran diferencias significativas en los resultados. No obstante, cabe destacar la reducción de atributos realizada por el
evaluador ClassifierSubsetEval sobre la base de datos FiltrosEspectros cuando se aplica
J48. Dicha reducción fue de un 85 %, pasando de 60 atributos a tan sólo 9 atributos. Esta
reducción se realizó obteniendo un porcentaje de aciertos del 96,911 frente al porcentaje
de aciertos del 97,113 obtenido al aplicar directamente el clasificador J48 a la base de
datos FiltrosEspectos.
IB1 Con el clasificador IB1 los mejores resultados de clasificación se obtienen con las base
de datos originales, empeorando significativamente con CLS en todos los casos. Este
empeoramiento puede venir inducido por el reducido número de atributos seleccionados
(dos atributos en los tres casos).
Además de lo anteriormente expuesto para cada clasificador hay que resaltar que de los diferentes atributos recogidos en la tabla 3.13, la línea de emisión espectral HeI resulta de especial
interés, puesto que si bien el algoritmo evaluador la ha escogido como atributo diferenciador
de los diferentes tipos de objetos celestes, el SDSS no considera esta línea como característica
diferenciadora entre los objetos celestes del tipo galaxias y quásares [86].
62
3. Trabajos relacionados
Un aspecto a tener en cuenta es la inclusión que se ha realizado en el presente estudio de investigación del tipo STAR_LATE y del tipo GAL_EM como tipo UNKNOWN (tabla 3.4) cuando
realmente son un subtipo de estrella (tipo STAR) y un subtipo de galaxia (tipo GALAXY) respectivamente. Esto genera un aumento del error de clasificación del tipo UNKNOWN, asignando un alto porcentaje de registros de este tipo a las clases STAR y GALAXY según se observa
en las diferentes matrices de confusión generadas tras la aplicación de los diferentes algoritmos.
La tabla 3.13 muestra los atributos seleccionados por los algoritmos de selección CFS, CNS y
CLS aplicados a cada base de datos completa (Filtros, Espectros y FiltrosEspectros), a diferencia de la tabla 3.12 que mostraba el promedio de la validación cruzada 1x10.
Evaluador
CFS
CNS
CLS-NB
CLS-J48
CLS-IB1
BD
F
E
FE
F
E
#at
8
6
10
15
24
FE
F
E
FE
F
E
FE
F
E
14
3
4
5
2
2
2
14
19
FE
9
Atributos seleccionados
r, i, ug, ui, gz, ri, rz, iz
w24, w26, w27, w31, w39, w43
ug, ri, iz, w24, w26, w27, w31, w39, w42, w43
u, g, r, i, z, ug, ur, ui, uz, gr, gi, gz, ri, rz, iz
w20, w21, w22, w23, w24, 25, w26, w27, w28, w29, w30, w31,
w32, w33, w34, w35, w36, w37, w38, w39, w40, w41, w42, w43
g, r, ug, uz, gr, gi, gz, iz, w20, w25, w26, w30, w37, w41
ug, ri, rz
w5, w9, w10, w16
ri, iz, w19, w24, w31
u, ui
w19, w37
ui, w18
u, g, r, i, z, ug, ur, uz, gr, gi, gz, ri, rz, iz
w3,w4,w5,w7,w8,w10,w11,w12,w14,w15,w18,w19,w20,w21,
w23,w24,w26,w27,w28
g, uz, gr, gi, gz, w23, w24, w26, w36
Tabla 3.13: Atributos seleccionados por los evaluadores CFS, CNS y CLS. #at–
número de atributos obtenidos;BD–Base de datos; F–Base de datos Filtros; E–Base
datos Espectros; FE–Base de datos FiltrosEspectros
De la tabla 3.13 cabe destacar la reducción de atributos realizada por el algoritmo evaluador
ClassifierSubsetEval sobre la base de datos FiltrosEspectros sometida al clasificador NB. Se
ha pasado de 60 atributos a tan sólo 5 atributos, mejorando significativamente la clasificación
realizada. Estos atributos se recogen en la tabla 3.14.
3.7.
Conclusiones
En el presente trabajo se ha realizado un proceso completo de KDD, teniendo como punto
de partida el estudio de las características intrínsecas del proyecto SDSS. Una vez se conoció
63
3.7. Conclusiones
atributo seleccionado
r-i
i-z
HeI
Hβ
NII
Descripción
Diferencia de magnitud de brillo medida en los filtros r, i
Diferencia de magnitud de brillo medida en los filtros i, z
Línea de emisión del Helio a 3889,0Å
Línea de emisión del Hidrógeno a 4862,68Å
Línea de emisión del Nitrógeno a 6549,86Å
Tabla 3.14: Atributos seleccionados por ClassifierSubsetEval con evaluador NB sobre
FiltrosEspectros.
la región galáctica objeto de estudio, así como las características de los registros de interés se
procedió a la obtención de los datos objeto de estudio a partir del entorno de desarrollo CasJobs.
Posteriormente fueron sometidos estos datos a un preprocesado en el que se rechazaron aquellos
registros que no cumplían una serie de condiciones.
Cabe destacar en estas primeras fases de estudio la complejidad tecnológica encontrada en la
instrumentación empleada por el telescopio SDSS para la captura de las imágenes y espectros
de los cuerpos celestes. Además hay que señalar el nivel de prestaciones y facilidad de uso del
entorno web denominado CasJobs provisto por el SDSS para el acceso a los datos.
A partir de los datos preprocesados se generaron tres bases de datos denominadas Filtros, Espectros y FiltrosEspectros (esta base de datos engloba los atributos de las otras dos). Estas tres
bases de datos se sometieron a los clasificadores NB, J48 e IB1, así como a CFS, CNS y CLS.
Teniendo en cuenta los resultados obtenidos (tabla 3.12) se observa que los mejores resultados
de clasificación fueron obtenidos por el clasificador J48, al aplicarlo directamente o mediante los
evaluadores CFS, CNS y CLS sobre la base de datos FiltrosEspectros. Además, cabe destacar la
reducción de atributos realizada por el algoritmo evaluador ClassifierSubsetEval sobre la base
de datos FiltrosEspectros sometida al clasificador NB (tabla 3.13).
Se han planteado una serie de resultados que pueden mejorar y aligerar el proceso de análisis
que realizan los astrónomos sobre los grandes bancos de datos de origen astronómico. A partir de estos planteamientos se puede deducir que la minería de datos es una herramienta útil
para la extracción de conocimiento novedoso y de provecho sobre bases de datos de origen
astronómico.
Capítulo 4
Conclusiones
El éxito de muchos esquemas de aprendizaje, en sus intentos para construir modelos de datos,
pasa por la habilidad para identificar un subconjunto pequeño de atributos altamente predictivos. La inclusión de atributos irrelevantes, redundantes o con ruido en la fase del proceso de
construcción del modelo puede provocar un comportamiento predictivo pobre y un incremento
computacional. La selección de atributos en campos como el Aprendizaje Automático sigue
siendo un tema de interés, lo que cambia es el dominio de los datos donde se aplica. Para comprobarlo es suficiente con revisar los trabajos publicados en los últimos años sobre el tema. En
estos trabajos se intenta encontrar métodos que permitan detectar aquellos atributos que aporten
la mayor información posible al proceso de aprendizaje y cuya obtención posea un coste computacional abordable. De esta manera, se pueden aplicar a las bases de datos de dimensiones muy
elevada, como es la tendencia actual.
El propósito inicial de esta trabajo de investigación fue encontrar formas de clasificar registros
de datos en entornos altamente dimensionales como son las bases de datos de origen astronómico. La búsqueda de este objetivo general nos ha llevado a desarrollar diferentes propuestas,
cuyas conclusiones se resumen en esta sección. Además, en la siguiente sección se enumeran
los temas sobre los que seguimos trabajando y a los que se les dedicará nuestra atención en el
futuro.
En este trabajo de investigación, la selección de atributos se ha enmarcado dentro del aprendizaje supervisado, más concretamente, la clasificación. Por ello, para evaluar el rendimiento de un
algoritmo de selección se ha obtenido el porcentaje de registros bien clasificados del algoritmo
de aprendizaje antes y después de la reducción y el número de atributos seleccionados (tabla
3.12). Estas medidas se utilizarán para comparar diferentes algoritmos de selección.
64
65
Los test de hipótesis nos han indicado si el cambio producido en el comportamiento de un
clasificador, con los datos originales y los reducidos, han sido estadísticamente significativo.
Tal extremo ha sido también reflejado en la tabla 3.12.
El presente trabajo de investigación se ha centrado en comparar los resultados obtenidos mediante los algoritmos de clasificación Naïve Bayes, IB1 y J48, así como los algoritmos de selección de atributos CfsSubsetEval, ConsistencySubsetEval y ClassifierSubsetEval.
Los resultados de clasificación obtenidos (tabla 3.12) muestran que los mejores resultados fueron obtenidos por el clasificador J48, al aplicarlo directamente o mediante los evaluadores CFS,
CNS y CLS sobre la base de datos FiltrosEspectros, mientras que la base de datos con menos
atributos fue obtenida por el algoritmo evaluador ClassifierSubsetEval sobre la base de datos
FiltrosEspectros sometida al clasificador NB (tabla 3.13).
Bibliografía
[1] K. Abazajian, J. Adelman-McCarthy, M. A. Agüeros, et al. The third data release of the
sloan digital sky survey. AJ, 129:1755–1759, 2005.
[2] W. A. Adams, A. Hubble classification of galaxies using neural networks. Vistas in
Astronomy, 38:273–280, 1994.
[3] J. Adelman-McCarthy et al. The fourth data release of the sloan digital sky survey. ApJS,
162(1):38–48, 2006.
[4] J. Aguilar-Ruiz, J. Riquelme, and M. Toro. Data set editing by ordered projection. In
Proceedings of the 14th European Conf. on Artificial Intelligence, pages 251–55, Berlin,
Germany, August 2000.
[5] J. Aguilar-Ruiz, J. Riquelme, and M. Toro. Evolutionary learning of hierarchical decision
rules. IEEE Systems, Man and Cibernetics Part B, 33(2):324–331, 2003.
[6] D. Aha, D. Kibler, and M. Albert. Instance-based learning algorithms. Machine Learning, 6:37–66, 1991.
[7] H. Almuallim and T. Dietterich. Learning boolean concepts in the presence of many
irrelevant features. Artificial Intelligence, 69(1–2):279–305, 1994.
[8] E. Alpaydin. Combined 5x2 cv f test for comparing supervised classification learning
algorithms. Neural Computation, 11:1885–92, 1999.
[9] A. S. Ani R. Thakar and G. e Fekete. The catalog archive server database management
system. Computing in Science and Engineering, 10(1):30–37, 2008.
[10] B. M. H. M. Auld, T. Fast cosmological parameter estimation using neural networks.
MNRAS, 376:L11–L15, 2007.
[11] I. M. v. H. T. Bailer-Jones, C.A.L. Physical parametrization of stellar spectra: the neural
network approach. MNRAS, 292:157–166, 1997.
67
68
BIBLIOGRAFÍA
[12] B. R. e. a. Ball, N.M. Robust machine learning applied to astronomical data sets. i.
star-galaxy classification of the sloan digital sky survey dr3 using decision trees. ApJ,
650:497–509, 2006.
[13] T. Bayes. An essay towards solving a problem in the doctrine of chances. Philosophical
Transactions, 53:370–418, 1763.
[14] M. Ben-Bassat. Handbook of statistics-II, chapter Pattern recognition and reduction of
dimensionality, pages 773–791. Prentice Hall, London, GB, 1982.
[15] A. Blum and P. Langley. Selection of relevant features and examples in machine learning.
Artificial Intelligence, 97(1-2):245–271, 1997.
[16] L. Breiman, J. Friedman, R. Olshen, and C. Stone. Classification and regresion trees.
Wadsworth Int. Group, Belmont, CA, 1984.
[17] J. R. Cano, F. Herrera, and M. Lozano. Using evolutonary algorithms as instance selection for data reduction in kdd: an experimental study. IEEE Trans. Evolutionary Computation, 7(6):561–575, 2003.
[18] F. J. Castander. The first hour of extragalactic data of the sloan digital sky survey spectroscopic commissioning: The coma cluster. AJ, 121(5):2331–2357, 2001.
[19] C. Chang. Finding prototypes for nearest neighbor classifier. IEEE Transactions on
Computers, 23(11):1179–1184, 1974.
[20] S. Cost and S. Salzberg. A weighted nearest neighbor algorithm for learning with symbolic features. Machine Learning, 10:57–78, 1993.
[21] T. M. Cover. Estimation by nearest neighbor rule. IEEE Transactions on Information
Theory, IT-14:50–55, 1968.
[22] T. M. Cover and P. E. Hart. Nearest neighbor pattern classification. IEEE Transactions
on Information Theory, IT-13(1):21–27, 1967.
[23] B. Dasarathy. Nearest neighbor (nn) norms: Nn pattern classification techniques. IEEE
Computer Society Press, 1995.
[24] M. Dash and H. Liu. Feature selection for classification. Intelligent Data Analisys,
1(3):131–56, 1997.
[25] P. Devijver and J. Kittler. Statistical Pattern Recognition. Prentice Hall, London, GB,
1982.
BIBLIOGRAFÍA
69
[26] T. Dietterich. An experimental comparison of nearest neighbor and nearest hyperrectangle algorithms. Machine Learning, 19(1):5–28, 1995.
[27] T. Dietterich. Approximate statistical test for comparing supervised classification learning alforithms. Neural Computation, 10(7):1895–1924, 1998.
[28] J. Doak. An evaluation of feature selection methods and their application to computer security. Technical Report CSE-92-18, University of California, Department of Computer
Science, Davis, CA, 1992.
[29] J. Doak. An evaluation of search algorithms for feature selection. Technical report, Los
Alamos National Laboratory, 1994.
[30] P. Domingos. Rule induction and instance-based learning: A unified approach. In Int.
Conf. on Artificial Intelligence, 1995.
[31] R. Duda and P.Hart. Pattern classification and scene analysis. John Willey and Sons,
1973.
[32] S. Dudani. The distance-weighted k-nearest-neighbor rule. IEEE Transactions on Systems, Man and Cybernetics, SMC-6(4):325–327, 1975.
[33] B. Efron. Bootstrap methods: another look at the jacknife. Anals of Statistics, 7(1):1–26,
1979.
[34] B. Efron. Estimating the error rate of a prediction rule: some improvements on crossvalidation. Journal of the American Statistical Association, 78:316–331, 1983.
[35] B. Efron and R. Tibshirani. An intoduction to the Bootstrap. Chapman and Hall, London,
UK, 1993.
[36] C. S. et al. Sloan digital sky survey: Early data release. The Astronomical Journal,
123:485–548, 2002.
[37] U. M. Fayyad, G. Piatetski-Shapiro, and P. Smith. From data mining to knowledge discovery in databases. AAAI-MIT Press, 1996.
[38] E. Fix and J. Hodges. Discriminatory analysis, nonparametric discrimination consistency
properties. Technical Report 4, US Air Force, School of Aviation Medicine, Randolph
Field, TX, 1951.
70
BIBLIOGRAFÍA
[39] E. Fix and J. Hodges. Discriminatory analysis, nonparametric discrimination: small sample performance. Technical Report 11, US Air Force, School of Aviation Medicine, Randolph Field, TX, 1952.
[40] D. Foley. Consideration of sample and feature size. IEEE Trans. Information Theory,
18:618–626, 1972.
[41] G. Forman. An extensive empirical study of feature selection metrics for text classification. Journal of Machine Learning Research, 3:1289–1305, 2003.
[42] D. Gamberger and N. Lavrac. Conditions for ocam’s razor applicability and noise elimination. In 9th European Conf. on Machine Learning, 1997.
[43] F. W. Group. Definition of the flexible image transport system (fits). International Astronomical Union, 2008.
[44] R. S. H. Liu. A probabilistic approach to feature selection - a filter solution. In 13th
International Conference on Machine Learning, pages 319–327, 1996.
[45] M. Hall and G. Holmes. Benchmarking attribute selection techniques for discrete class
data mining. IEEE Transactions on Knowledge and Data Eng., 15(3), 2003.
[46] M. A. Hall. Correlation-based Feature Subset Selection for Machine Learning. PhD
thesis, University of Waikato, Hamilton, New Zealand, 1998.
[47] P. Hart. The condensed nearest neighbor rule. IEEE Transactions on Information Theory,
14(3):515–516, May 1968.
[48] E. Hunt, J. Marin, and P. Stone. Experiments in induction. Academis Press, New York,
1966.
[49] I. Inza, P. Larrañaga, R. Etxeberria, and B. Sierra. Feature subset selection by bayesian
networks based optimization. Artificial Intelligence, 123(1-2):157–184, 2002.
[50] I. Inza, P. L. naga, R. Blanco, and A. Cerrolaza. Filter versus wrapper gene selection
approaches in dna microarray domains. Artificial Intelligence in Medicine, 31:91–103,
2004.
[51] A. Jain and D. Zongker. Feature selection: evaluation, application, and small sample performance. IEEE Transactions on Pattern Analisys and Machine Intelligence, 19(2):153–
158, 1997.
[52] G. J.E. et al. The sloan digital sky survey photometric camera. AJ, 116:3040–3081, 1998.
BIBLIOGRAFÍA
71
[53] G. J.E. et al. The 2.5 m telescope of the sloan digital sky survey. AJ, 131(4):2332–2359,
2006.
[54] G. John, R. Kohavi, and K. Pfleger. Irrelevant features and the subset selection problem.
In 11th Int. Conf. on Machine Learning, pages 121–129, 1994.
[55] e. a. Kevork N. Abazajian, Jennifer K. Adelman-McCarthy. The seventh data release of
the sloan digital sky survey. ApJ, 182:543–558, 2009.
[56] W. Kim, B. Choi, E.-K. Hong, and S.-K. Kim. A taxonomy of dirty data. Data Mining
and Knowledge Discovery, 7:81–99, 2003.
[57] K. Kira and L. Rendell. A practical approach to feature selection. In 9th Int. Conf. on
Machine Learning, pages 249–256, 1992.
[58] V. Klee. On the complexity of d-dimensional voronoi diagrams. Arch. Math., 34:75–80,
1980.
[59] R. Kohavi and G. John. Wrappers for feature subset selection. Artificial Intelligence,
1-2:273–324, 1997.
[60] I. Kopanakis and B. Theodoulidis. Visual data mining modeling techniques for the visualization of mining outcomes. Journal of Visual Languages and Computing, 14(6):543–
589, 2003.
[61] P. Lachenbruch. An almost unbiased method of obtaining confidence intervals for the
probability of misclassification in discriminant analysis. Biometrics, pages 639–645,
1967.
[62] P. Langley. Selection of relevant features in machine learning. In Procs. Of the AAAI
Fall Symposium on Relevance, pages 140–144, 1994.
[63] W. Lee, S. Stolfo, and K. Mok. Adaptive intrusion detection: A data mining approach.
AI review, 14(6):533–567, 2000.
[64] H. Liu and H. Motoda. Feature Selection for Knowlegde Discovery and Data Mining.
Kluwer Academic Publishers, London, UK, 1998.
[65] H. Liu and L. Yu. Feature selection for data mining. Technical report, Department of
Computer Science and Eng., Arizona State University, Temp, Arizona, 2002.
[66] H. Liu and L. Yu. Toward integrating feature selection algorithms for classification and
clustering. IEEE Trans. on Knowledge and Data Eng., 17(3):1–12, 2005.
72
BIBLIOGRAFÍA
[67] J. Lorenzo. Selección de atributos en aprendizaje automático basada en teoría de la
información. PhD thesis, U. de Las Palmas de Gran Canaria, Dpto. de Informática y
Sistemas, 2001.
[68] C. E. Lunneborg. Efron’s bootstrap with some applications in psychology. In Annual
Meeting of the American Psychological Association, pages 21–30, 1993.
[69] S. A. W. E.-e. a. McGlynn, T.A. Automated classification of rosat sources using heterogeneous multiwavelength source catalogs. ApJ, pages 616–1284, 2004.
[70] T. M. Mitchell. Machine Learning. Series in Computer Science. McGraw-Hill, 1997.
[71] L. Molina, L. Belanche, and A. Nebot. Feature selection algorithms: A survey and experimental evaluation. In Int. Conf. on Data Mining, ICDM-02. IEEE Computer Society,
2002.
[72] K. Ng and H. Liu. Customer retention via data mining. AI review, 14(3):569–590, 2000.
[73] N. M. L. Odewahn, S.C. Star-galaxy separation using neural networks. Vistas in Astronomy, 38:281–285, 1994.
[74] D. Pyle. Data preparation for data mining. Morgan Kaufmann Publishers, 1999.
[75] S. F. Y. J.-J. e. a. Qu, M. Automatic solar flare detection using mlp, rbf, and svm. Solar
Physics, 217(1):157–172, 2003.
[76] J. Quinlan. Discovering rules by induction from collections of examples. In Expert
System in the Micro-Electronic Age, pages 168–201, Edinburgh, 1979.
[77] J. Quinlan. Learning efficient classification procedures and their application to chess
end games. In Machine Learning: An Artificial Intelligence Approach, Palo Alto, Tioga,
1983.
[78] J. Quinlan. Induction of decision trees. Machine Learning, 1:81–106, 1986.
[79] J. R. Quinlan. C4.5: Programs for machine learning. Morgan Kaufmann, San Mateo,
California, 1993.
[80] J. Riquelme, J. Aguilar-Ruiz, and M. Toro. Finding representative patterns with ordered
projections. Pattern Recognition, 36(4):1009–18, 2003.
[81] J. Riquelme, F. Ferrer, and J. Aguilar-Ruiz. Búsqueda de un patrón para el valor de k
en k-nn. In IX Conferencia de la Asociación Española para la Inteligencia Artificial
(CAEPIA’01), pages 63–72, Gijon, Noviembre 2001.
BIBLIOGRAFÍA
73
[82] G. Ritter, H. Woodruff, S. Lowry, and T. Isenhour. An algorithm for a selective nearest
neighbor decision rule. IEEE Transactions on Information Theory, 21(6):665–669, 1975.
[83] Y. Rui, T. Huang, and S. Chang. Image retrieval: Current techniques, promising directions and open issues. Visual Communication and Image Representation, 10(4):39–62,
1999.
[84] S. Salzberg. A nearest hyperrectangle learning method. Machine Learning, 6:277–309,
1991.
[85] SDSS. 1d spectro image. http://www.sdss.org/dr5/dm/flatFiles/spSpec.html.
[86] SDSS.
Table
of
spectral
http://www.sdss.org/dr5/algorithms/linestable.html.
lines
used
in
sdss.
[87] W. Siedlecki and J. Sklansky. On automatic feature selection. Int. Journal of Pattern
Recognition and Artificial Intelligence, 2:197–220, 1988.
[88] C. H. Sodré, L.Jr. Spectral classification of galaxies. Vistas in Astronomy, 38:286–291,
1994.
[89] I. M. v. H. T. e. a. Storrie-Lombardi, M.C. Spectral classification with principal component analysis and artificial neural networks. Vistas in Astronomy, 38(3):331–340, 1994.
[90] L. O. S. L. e. a. Storrie-Lombardi, M.C. Morphological classification of galaxies by
artificial neural networks. MNRAS, 259:8–12, 1992.
[91] A. R. Thakar. The sloan digital sky survey drinking from the fire hose. Computing in
Science and Engineering, 10(1):9–12, 2008.
[92] I. Tomek. An experiment with the edited nearest-neighbor rule. IEEE Transactions on
Systems, Man and Cybernetics, 6(6):448–452, June 1976.
[93] G. T. Toussaint. The relative neighborhood graph of a finite planar set. Pattern Recognition, 12(4):261–68, 1980.
[94] T. T.X. and G. J.E. Publ. Astron. Soc. Pacific, 88:543–, 1976.
[95] Y. Wadadekar. Estimating photometric redshifts using support vector machines. PASP,
117(827):79–85, 2005.
[96] W. P. R. V. W. T. e. a. Williams, S.J. Identifying red variables in the northern sky variability survey. AJ, 128:2965–2976, 2004.
74
BIBLIOGRAFÍA
[97] D. Wilson. Asymtotic properties of nearest neighbor rules using edited data. IEEE
Transactions on Systems, Man and Cybernetics, 2(3):408–21, July 1972.
[98] H. Witten and E. Frank. Data mining: Practical Machine Learning Tools and Techniques.
Morgan Kaufmann Publishers, 2005.
[99] I. Witten and E. Frank. Data Mining: Practical machine learning tools and techniques.
Morgan Kaufmann, San Francisco, 2005.
[100] M. Xiong, X. Fang, and J. Zhao. Biomarker identification by feature wrappers. Genome
Res, 11:1878–87, 2001.
[101] Y. Yang and J. Pederson. A comparative study on feature selection in text cateforization.
In 14th Int. Conf. on Machine Learning, pages 412–420. Morgan Kaufmann, 1997.
[102] York, D.G., et al. The sloan digital sky survey technical summary. AJ, 120:1579–1587,
2000.
[103] L. Yu and H. Liu. Redundancy based feature selection for microarry data. In 10th ACM
SIGKDD Int. Conf. on Knowledge Discovery and Data Mining, 2004.
[104] S. Zhang, C. Zhang, and Q. Yang. Data preparation for data mining. Applied Artificial
Intelligence, 17(5–6):375–381, 2003.
[105] Z. Y. Zhang, Y. Automated clustering algorithms for classification of astronomical objects. A&A, 422:1113–1121, 2004.
[106] Z. Y. Zhang, Y. A comparison of bbn, adtree and mlp in separating quasars from large
survey catalogues. ChJAA, 7:289–296, 2007.
Descargar