01_intro2015 1095KB Apr 22 2015 06:54:46 PM

Anuncio
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Modelización y predicción
con Tecnologías Emergentes
Modelización y Predicción
con Tecnologías Emergentes
Teoría:
Isabel Passoni [email protected]
Ana Lucia Dai Pra [email protected]
Práctica: Gustavo Meschino [email protected]
Método de aprendizaje
Regresión
multivariada y
clasificación,
reconocimiento
de patrones.
- Representación de la realidad, con la finalidad de mostrar
y/o predecir comportamientos.
- Método de aprendizaje. Algoritmo (generalmente
implementado en software) que estima un mapeo desconocido
(dependencia) entre entradas y salidas de un sistema.
• Tecnologías Emergentes :
Tecnologías que emergen de nuevos planteos ante la
necesidad de distintos tratamientos de la información, que
aún se encuentran en evolución.
Nuevas Metodologías
Crecimiento explosivo de información
Computadoras de bajo costo (implementación de métodos).
Sensores de bajo costo (obtención de datos).
Tecnologías de base de datos (almacenamiento de datos).
Mucha literatura de expertos (interés en problemas de aplicación).
Aplicaciones móviles (transferencia de datos, soc. colaborativa).
•Matemática Estadística.
• Modelización :
• Ciencias de la computación Inteligencia artificial
Aprendizaje de la máquina
(‘machine learning’)
Cuando el único instrumento que usted tiene es un
martillo, todo comienza a parecerse a un clavo
(L. Zadeh).
Big Data
Metodologías tradicionales
Adoptan una cuidadosa aproximación y favorecen los
métodos paramétricos.
Favorecen las pruebas analíticas más que los métodos
prácticos de aprendizaje a partir de datos.
Nuevas metodologías
Cambian los límites tradicionales entre el modelador y el
usuario (experto en un tema de aplicación).
Técnicas sofisticadas de modelado para estimar dependencias
complejas no lineales a partir de datos.
Esfuerzo por presentar conclusiones a quienes no son
matemáticos.
1
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Principios básicos
• La ciencia y la ingeniería están basadas en la utilización de
principios básicos para describir sistemas físicos, biológicos y
sociales (leyes mecánicas de Newton, teorías de
electromagnetismo de Maxwell, etc.).
• Los datos experimentales son utilizados para verificar esos
principios y estimar los parámetros que son dificultosos de
medir directamente.
Limitación de los Principios básicos
En muchas aplicaciones no se puede establecer una
dependencia de esos principios básicos.
Los sistemas en estudio son tan complejos que no pueden
ser descriptos matemáticamente.
Ausencia de modelos bajo principios básicos.
Necesidad por comprender amplios y complejos conjuntos de
datos, ricos en información
Aprendizaje de los
Sistemas Biológicos
Problemas complejos
• Diagnósticos médicos.
• Reconocimiento de caracteres manuscritos.
Inspiración en las capacidades de aprendizaje de los sistemas
biológicos, en particular de los humanos.
• Estrategias comerciales.
Los sistemas biológicos aprenden a arreglárselas con
desconocimiento de la naturaleza matemática y de los
controladores de datos. Aprenden en la interacción con el
ambiente.
La habilidad de extraer conocimiento escondido en los datos y
actuar partiendo de ese conocimiento es fundamental en el
mundo competitivo actual.
Generalmente los humanos no articulan las reglas que ellos
usan en el reconocimiento, (por ejemplo: distinguir un rostro
en una figura compleja, reconocer un carácter manuscrito en
• Predicción de fenómenos naturales.
un texto).
Inteligencia Artificial
2
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Algo de historia
• Las primeras explicaciones teóricas sobre el cerebro y el pensamiento
fuerón dadas por algunos filósofos griegos, como Platón y Aristóteles,
apoyados despúes por Descartes y filósofos empiristas.
Aristóteles (siglo XII): Desarrolló la noción de “consecuencia lógica”.
Leibnitz (siglo XVIII): Conceptualizó la idea de “razonamiento deductivo
mecanizado”. Intenta cuantificar el conocimiento y el razonamiento mediante un
sistema algebraico exacto.
• Conseguir, diseñar y construir máquinas capaces de
realizar procesos con cierta inteligencia ha sido uno de los
principales objetivos y preocupaciones de los científicos a lo largo de
la historia.
Alan Turing, en 1936, fue el primero en estudiar como automatizar el conocimiento,
en Computing Machinery and Intelligence, (1950), Intenta ofrecer una definición
operativa de lo que es la inteligencia. Capacidad de lograr eficiencia a nivel humano
en todas las actividades de tipo cognitivo, suficiente para engañar a un evaluador.
• El problema de fondo que limita los resultados, es que las computadoras
están basadas en la filosofía de Von Neumann y se apoyan en procesos
secuenciales.
Inteligencia Artificial
Áreas tradicionales
Los primeros pasos
1943- W. McCulloch y W.Pitts – Funcionamiento de las neuronas
del cerebro – Análisis formal de la lógica proposicional.
1949- D. Hebb - Modifica las intensidades de conexión entre
neuronas, para simular el aprendizaje.
1950- Shannon y A. Turing. Programas de ajedrez al estilo Von
Neumann.
1951- M. Minsky y D. Edmonds - Construyen primer computadora
de red neuronal.
1952- A. Samuel - Escribe programas para el juego de damas.
1958- McCarthy - Define el lenguaje Lisp. Se inventa el tiempo
compartido. Publica el artículo “Programas con sentido común”.
1958- Friedberg - Primeros experimentos en el campo de la
evolución en computadoras (actualmente algoritmos genéticos).
Inteligencia Artificial
Redes neuronales
Razonamiento automático
• Redes neuronales. 1943. 1949.
• Razonamiento automático. 1956
IA
(Resolución de problemas matemáticos, Demostración de
teoremas, programas de ajedrez).
• Reconocimiento de patrones. 1960
(Procesamiento de imágenes, interpretación del lenguaje –
habla, gramática, manuscritos -, reconocimiento de señales.
Conexionismo
IA tradiconal
(Sistemas simbolicológico-deductivos, SE)
• Sistemas basados en conocimiento. 1963
(Sist. Expertos. 1965)
• Robótica. 1963
...
Inteligencia Computacional
...
3
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Inteligencia Artificial
MEDIO
Información
MENTE/MAQ
Conocimiento previo
Áreas de vanguardia (híbridos)
Proceso de
Aprendizaje
Experiencia previa
Intuición
Sentido común
Transformación
mediante modelos
matemáticos y/o
computacionales
que permitan avalar
o justificar el conocimiento
Nuevo Conocimiento
• Realidad virtual, movimiento en el espacio virtual.
• Agentes, analiza tareas llevadas a cabo por un usuario,
ayuda, sugiere y actúa.
• Inteligencia computacional, cálculo, mineria de datos.
Acciones
Lengua natural (ambigua,subjetiva)
Soft-computing
Matematica
• Vehículos autónomos, movimiento en el espacio físico
(robótica, SE, aprendizaje y razonamiento automático).
Nuevas metodologías
Datos duros (hard data)
Datos lingüísticos (Soft data)
Modelos Matemáticos
(number crunching)
Sistemas inteligentes:
(Interpretaciones, comprensión,
explicaciones)
Métodos Cuantitativos
Métodos Cualitativos
Razonamiento bivalente
Razonamiento bivalente o multivalente
“Tan cerca como se refieran las leyes matemáticas a la realidad no son
ciertas, y tan lejos como sean ciertas no se refieren a la realidad”
(1921) Albert Einstein
• Reconocimiento de patrones: Visión artificial,
procesamiento de lenguaje natural, reconocimiento del
habla, sistemas biométricos para la identificación de
personas.
Soft-Computing
Resolver problemas del mundo real que son complejos de
resolver mediante técnicas convencionales (crisp
computing).
Representación y procesamiento del conocimiento humano y
del razonamiento cualitativo aproximado.
Posibilidad de definir sistemas con tolerancia a la falta de
precisión, incertidumbre y verdad parcial, con soluciones
robustas y económicas.
Inteligencia computacional, cálculo con palabras y modelos
biológicos para resolución de problemas y optimización de
soluciones.
4
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Inteligencia Computacional
Definición, utilizada por el capítulo de inteligencia computacional de
la asociación IEEE:
“La inteligencia computacional es una rama de la inteligencia
artificial centrada en la teoría, el diseño y la aplicación de los
modelos computacionales biológica y lingüísticamente inspirados,
enfatizando las redes neuronales, los algoritmos evolutivos y
bioinspirados, la lógica difusa, y los sistemas inteligentes híbridos
en los cuales estos paradigmas están contenidos.”
Enfatiza el procesamiento numérico frente al procesamiento
simbólico que fue la base de muchos de los desarrollos clásicos en
inteligencia artificial.
Inteligencia Computacional
Complementación
de técnicas de
Inteligencia
computacional con
técnicas
tradicionales
Sist. Maquina: Inteligencia
expresada en proposiciones lógicas,
realiza evaluaciones e inferencias.
Pero el elemento humano incluye
elementos ilógicos (intuición,
inspiración, sentimientos, sentido
común y
metaconocimiento)
Sist. Humano: Intenta introducir
metodología científica en
problemas ambigüos del hombre
y la sociedad.
Modelar es una aplicación
abstracta de descripción o la
creación de modelos puramente
matemáticos basados en
asunciones no naturales.
Sist. Maquina-humano: Colaboran hombre y máquina para realizar trabajos que no
puede hacer sólo uno de los dos. Problema principal a abordar: Simplificación del
proceso de entrada, simular la creatividad y el juicio sintético del hombre
5
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Inteligencia Computacional
Características de los
Sistemas Difusos
Idea base de Zadeh: Principio de incompatibilidad
♦ Redes neuronales artificiales – Mc Cullogh-Pitts
1943: aprendizaje
Cuando la complejidad aumenta, las sentencias precisas pierden
significado y las sentencias significativas pierden precisión.
♦ Sistemas difusos o borrosos (fuzzy) – Zadeh 1965:
manejo de la incertidumbre (imprecisión, inexactitud,
incompletitud)
♦ Algoritmos genéticos – Goldberg 1989: optimización
Representación del conocimiento
La comprensión está basada en la comparación relativa con
conocimientos y experiencias previas.
Las descripciones humanas, mediante el lenguaje, las emociones
o los instintos, son fáciles de entender, pero muy difíciles de
describir o representar en términos prácticos (datos, fórmulas o
algoritmos).
Lógicas difusas:
Aplicación de la lógica a datos imprecisos, subjetivos o “difusos”.
Representación mediante reglas de la forma “if-then”, cuya
conclusión no será verdadero o falso, sino una gama de valores
entre verdadero y falso.
Lógicas difusas
B. Russell: “Todo es vago a tal grado que
usted no se da cuenta hasta que quiera
hacerlo preciso”
• Algoritmos precisos que describen relaciones entre objetos
imprecisos.
• En lugar de ecuaciones matemáticas complejas la lógica difusa
utiliza descripciones lingüísticas para definir relaciones entre los
datos de entrada y los datos de salida esperados, eliminando el
exceso de precisión inherente al modelado matemático.
Ej: Si la temperatura es alta entonces abrir las ventanas.
6
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Beneficios de las
lógicas difusas
• Simplicidad: Elimina la dificultad del modelo matemático, permite
la descripción de entradas, salidas y reglas en lengua natural.
• Menos código y menos memoria: Un sistema puede ser definido
con unas pocas reglas.
• Mejor performance: Permite cálculos rápidos sin requerir de
procesadores importantes.
• Fáciles y rápidos desarrollos: El usuario se puede concentrar en su
objetivo más que en el conocimiento de la matemática.
• Sistemas grandes confiables: Las reglas funcionan
autónomamente, eliminando la disyuntiva entre robustez y
sensibilidad.
• Nuevas aplicaciones: Consideradas hasta ahora muy complejas.
Desventajas de las
lógicas difusas
• Necesidad de adoptar una nueva forma de plantear los
problemas
• Desconocimiento inicial del comportamiento de variables de
entrada-salida (técnicas de ajuste y prueba).
• Carecen por sí mismas de mecanismos de optimización del
modelo. (prueba-error, algoritmos genéticos, redes
neuronales).
• Las reglas no son siempre obvias. (clasificación difusa).
Aplicaciones
•
•
•
•
Sistemas expertos
Procesos de toma de decisiones
Análisis financiero
Productos y servicios
Microprocesadores.
Electrodomésticos. procesadores económicos y de tamaño
reducido. (Matsushita, Hitatchi)
Camaras y filmadoras (Sony, Cannon, Minolta, Sanyo).
Control de ascensores, líneas de trenes. (Fujitec, Hitachi,
Toshiba)
• Planillas de cálculo y bases de datos.(FuziCalc, FSQL)
Aplicaciones
• Control industrial y de producción. (Aptronix, Omron, Meiden,
Sha, Micom, Mitsubishi, Nisshin-Denki, Oku-Electronics)
• Seguridad de reactores nucleares.
• Ahorro de combustible y controles autmáticos en automóviles
(Nissan, Subaru).
• Reconocimiento de caracteres manuscritos.
• Procesamiento de imágenes.
• Predicción de fenómenos naturales. (Inst. of Seismology Bureau
of Metrology, Japan)
• Diagnóstico de enfermedades. (Kawasaki Medical School)
7
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Conocimientos previos a la utilización de
lógicas difusas
Aprendizaje
♦ Aprendizaje / Estimación (desde ejemplos) - entrenamiento
♦ Operación / Predicción (para futuros test) - chequeo
Conceptos de aprendizaje
Necesidad de conocer metodologías tradicionales
(práctica)
Proceso experimental
Tipos de variables
Tareas tradicionales
de aprendizaje
Clasificación o “clustering”
(reconocimiento de patrones)
Regresión o estimación de funciones
(desde ejemplos con ruidos)
Estimación de densidad probabilística
(desde ejemplos)
Tipos de aprendizaje (a nivel problema):
♦ Supervisado: Basado en conocimiento, mapeo desde ejemplos
conocidos, se conoce el resultado (salida) de los ejemplos
(entrada).
♦ No supervisado: Sólo hay entradas, no hay noción de cuál será
el resultado del aprendizaje, conduce a definir estructuras
naturales (clusters).
Pre-procesamiento
Normalizar los valores de los
atributos a [0,1].
u=
u − umin
u max − umin
Estandarizar, transformar la media
a cero y el desvío estándar a uno.
Si los datos tienen una distribución
normal con media m y desvío estándar σ.
Escalar a un rango adecuado,
para escalar a un rango [u1,u2]
u* =
u′ =
u− m
σ
u − u1
(u − u1 ) + u1
u2 − u1 2
Verificar correlación, si dos atributos están
fuertemente correlacionados puede indicar una.
dependencia lineal, lo cual indicaría redundancia.
8
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Clusterización
Clasificación
Asignar a cada punto del espacio de trabajo a un cluster
particular
HDC (Hard C means) ó K-medias
• Asignar C centros de cluster
• Cada punto se asigna al cluster más cercano
• Se recalcula un nuevo centro tomando los valores medios de
los puntos asignados al mismo.
Determinación de clases o categorías
• Reconocimiento de caracteres
• Reconocimiento de voz
• Identificación de recursos naturales con imágenes satelitales
• Minimizar una función objetivo
c
c
i =1
i =1
2
J = ∑ J i = ∑ ( ∑ uk − ci )
Clusterización (HCM)
k∈Ci
Regresión lineal
Propiedades de los clusters “duros”
c
UC
i
Abarcan todo el universo
=U
i =1
Ci ∩ C j = φ, i ≠ j
No se solapan
Si M es la matriz de pertenencia de c x K, con c nro. de
clusters y K datos, cada elemento mik es 1 si k pertenece al
cluster i y 0 si no pertenece.
mik =
ci =
1
Ci
∑u
k ,uk ∈Ci
k
1
0
si uk − ci
2
≤ uk − c j
en otro caso
c
c
i =1
i =1
2
i ≠j
2
J = ∑ J i = ∑ ( ∑ uk − ci )
x
y
28
45
12
23
34
28
14
16
17
24
6
5
1
4
2
6
3
2
2
3
7
6
5
4
3
2
1
0
dato
Lineal (dato)
0
20
40
60
k ∈Ci
9
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Regresión lineal
Regresión lineal
Encontrar la función que describa lo más aproximadamente posible
un conjunto de datos, de acuerdo con un cierto criterio (criterio de
ajuste).
yi = a + bxi



n∑ xi yi −  ∑ xi  ∑ yi 
i =1

i =1


i =1

b=
2
n
 n 
2
n∑ xi −  ∑ xi 
i =1
 i =1 
n
n
n
n
∑y
n
∑x
i
a=
i =1
n
i
−b
i =1
n
Regresión no lineal
8
7
6
5
4
3
2
1
0
dato
Lineal (dato)
0
20
40
60
• Lineal y= 0.0394x + 2.2316
RMS= 1.5896
•
Logarítmica y = 1.4802Ln(x) - 1.4307
RMS=1.52111
•
Polinomial (grado 6)
y = -2E-06x6 + 0.0003x5 - 0.0197x4 + 0.7089x3 - 13.614x2 + 132.4x -508.12
RMS=0.486022
Exponencial
(dato)
•
Exponencial y = 1.9596e0.0143x
RMS=2.07323
Polinóm ica (dato)
•
Polinomial (grado 4)
y = -1E-05x4 + 0.0014x3 - 0.0694x2 + 1.5881x - 10.224
RMS=1.23686
4
Logarítm ica
(dato)
2
Polinóm ica (dato)
0
-4
6
5
1
4
2
6
3
2
2
3
2
Lineal (dato)
6
-2 0
y
28
45
12
23
34
28
14
16
17
24
50
Regresión no lineal
dato
10
x
20
40
60
10
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Estimación de
densidad probabilística
Dependencia estadística y causalidad
La meta del aprendizaje predictivo es estimar la dependencia
desconocida entre las variable de entrada x y la variable de
salida y, desde un conjunto de observaciones de valores
(x,y).
x
z
f ( x) =
1
2πσ
e − (x −µ )/ 2 σ
2
2
2
Incertidumbre
La causalidad no puede ser inferida únicamente del análisis de los
datos, debe ser asumida o demostrada por una argumentación más
allá del análisis estadístico.
♦ Causalidad de la salida depende de los datos observados
(entrada).
♦ Causalidad de la entrada depende de la salida (Ej. Diagnóstico
médico, a partir de una enfermedad supuesta, se analizan los
síntomas).
♦ La dependencia entrada-salida es causada por otros factores.
♦ La correlación entrada-salida no es causal.
En todos los casos hay argumentos fuera de los datos
sistema
y
La variable z, denota todos los otros factores que afectan la salida,
pero cuyos valores no son observados o controlados.
Incertidumbre
Pasos del proceso experimental
Plantear el problema
Formular una hipotesis
Diseñar el experimento / generar los datos
Coleccionar los datos y efectuar pre-procesamientos
• Detección / remoción (outliers)
• Escalado / codificación
Estimar/ validar el modelo
Interpretar el modelo / sacar conclusiones
11
Modelización y Predicción con Tecnologías Emergentes. 1- Introducción
Caracterización de variables
según modalidad de representación
Numéricas: comprenden enteros o reales.
Relación de orden y relación de distancia entre valores.
Vinculadas a regresiones y estimación de funciones.
Simbólicas: no tienen ni relación de orden ni relación de
distancia entre valores, estan vinculadas a los problemas de
reconocimiento de patrones, clasificación o análisis
discriminante.
“Dummy”(huecas): una variable simbólica con i valores,
puede ser convertida en i valores numéricos, codificaciones.
Caracterización de variables
Según la medición
Variables cuantitativas
Son las variables que se expresan mediante cantidades numéricas. Las variables pueden ser:
-Variable discreta : Es la variable que presenta separaciones o interrupciones en la escala
de valores que puede tomar, indicando la ausencia de valores entre los distintos valores
específicos que la variable pueda asumir.
-Variable continua : Es la variable que puede adquirir cualquier valor dentro de un
intervalo especificado de valores, que solamente está limitado por la precisión del
aparato medidor.
Variables cualitativas
Expresan cualidades o atributos. La medición consiste en una clasificación de los atributos.
Las variables cualitativas pueden ser '''dicotómicas''' cuando sólo pueden tomar dos
valores posibles como ''sí y no'', ''hombre y mujer'' o son '''politómicas''' cuando pueden
adquirir tres o más valores. Dentro de ellas podemos distinguir:
-Variable cualitativa ordinal' o variable cuasicuantitativa: La variable puede tomar distintos
valores ordenados siguiendo una escala establecida, aunque no es necesario que el
intervalo entre mediciones sea uniforme, por ejemplo: ''leve, moderado, grave''.
-Variable cualitativa nominal‘ ó categórica: En esta variable los valores no pueden ser
sometidos a un criterio de orden como por ejemplo los colores o el lugar de residencia.
La diferencia entre pares de valores debe ser definido explicitamente.
Variables cualitativas ordinales
Mapean una variable numérica dentro de un pequeño
conjunto de intervalos, se solapan a valores (rótulos) de otra
variable ordinal
Estrechamente ligadas a variables lingüísticas o difusas
utilizadas naturalmente en el habla, por ej. al referirse a
edad, joven, viejo.
Los valores son subjetivos, están definidos en un determinado
contexto.
No hay un límite definido (distinción) entre dos variables
contiguas.
12
Descargar