capítulo ii marco teórico

Anuncio
CAPÍTULO II
MARCO TEÓRICO
CAPÍTULO II
MARCO TEÓRICO
Para lograr abordar los fundamentos teóricos, en este capitulo se
exponen los antecedentes de la investigación; así como también las
definiciones y las características mas resaltantes de las variables objeto de
estudio, de manera de explicar las particularidades de cada una de ellas y
establecer los criterios necesarios que contribuyan al desarrollo de la
investigación. Además, se define los términos básicos que amplían la
panorámica del entorno y condiciones en las que se desarrolla la misma;
finamente se realiza el análisis de las variables para realizar la definición
nominal, conceptual y operacional de ellas, y de esta manera permitir
identificar el alcance de su medición.
1. ANTECEDENTES DE LA INVESTIGACIÓN.
Gallegos (2012), en su investigación “Control Lógico Difuso del péndulo
invertido”. El objetivo del presente proyecto de tesis es desarrollar el
algoritmo de control de un sistema no lineal muy conocido en el ámbito de
control llamado “El péndulo invertido”. Se emplea un microcontrolador el cual
será programado mediante algoritmos de lógica difusa. El desarrollo del
proyecto presenta una aplicación específica del uso de microcontroladores
13
14
en la automatización de procesos con una técnica avanzada de control,
como lo es la lógica difusa.
El trabajo muestra una breve descripción sobre la teoría de la lógica
difusa, es decir; sus orígenes, fundamentos, reglas, ventajas y desventajas.
Asimismo se detalla el proceso para formular las funciones de pertenencia,
como se evalúan dichas funciones, el resultado de los grados de
pertenencia. Además se muestran los resultados al aplicar diferentes
funciones de membresía al péndulo invertido. El caso de estudio está basado
en el péndulo invertido de la marca Quanser Consulting, mediante el cual con
el presente trabajo de Tesis se sientan las bases para proyectos futuros
basados en lógica difusa. Por ello este proyecto ayuda a entender un poco
más acerca de la aplicación de lógica difusa como sistema de control.
Por su parte, Contreras (2011) realizó un trabajo de grado titulado “Diseño
e Implementación de un sistema de control difuso de agua temperada de uso
doméstico”. El presente trabajo está orientado principalmente al área de
Ingeniería de Control. El tema central consiste en diseñar e implementar un
controlador de agua temperada enfocado al uso doméstico. Como parte
introductoria, el documento contiene información acerca de productos o
soluciones similares existentes en el mercado así como la problemática que
los usuarios presentan con estos mismos.
A lo largo del documento, se expone información técnica sobre el
desarrollo de un controlador difuso, basado en microcontroladores, elaborado
con componentes electrónicos y circuitos integrados del mercado peruano.
15
Además se presenta información relacionada al modelamiento del
controlador difuso, así como también muestra el diseño de circuitos para una
etapa de censado y potencia las cuales son las encargadas de monitorear y
controlar, respectivamente, el proceso de calentamiento del agua. Por último,
se presentan las simulaciones y pruebas del diseño propuesto para
comprobar su correcto funcionamiento.
El trabajo desarrollado en esta tesis pretende ofrecer una solución que se
ajuste, de la mejor manera posible, con las necesidades de los usuarios para
lograr resolver y mejorar los problemas existentes en los sistemas actuales.
Esta investigación aporta las técnicas y conocimientos necesarios para el
desarrollo de un controlador difuso, tanto a nivel de sus componentes físicos
y diseños como de los patrones lógicos necesarios para lograr el control y
monitoreo en los sistemas de potencia y funcionamiento en sistemas de
calentamiento de una variable física, punto importante para el proyecto;
además de cooperar con simulaciones y pruebas de diseño para evaluar su
funcionamiento.
Por otro lado, Robles (2011) realizó una investigación denominada
“Control del punto de máxima potencia de un panel solar fotovoltaico,
utilizando lógica difusa”. En el presente trabajo de investigación se realiza un
diseño, basado en lógica difusa, que permite hacer el control del punto de
máxima potencia de un panel solar. De esta forma se logra maximizar la
energía lumínica captada por el panel solar alcanzando a mejorar la
eficiencia del sistema para condiciones definidas de irradiación solar y
16
temperatura de operación. Se utiliza Matlab/Simulink para simular el
comportamiento del panel solar y del convertidor DC-DC reductor.
El controlador es diseñado teniendo como entradas la pendiente de
potencia y el cambio de pendiente y como salida el incremento del ciclo útil
del convertidor. Se definen funciones de membresía triangulares para las
entradas y la salida, con 5 variables lingüísticas y 25 reglas difusas las
cuales son editadas utilizando el toolbox de lógica difusa de Matlab. Se
realizan pruebas a lazo cerrado para condiciones de irradiación y
temperatura variables con lo que se logra que el panel solar opere siempre
en el punto de máxima potencia con una alta eficiencia y eliminando los
problemas de oscilación presentes en los controladores tradicionales como el
de perturbación y observación.
Con los resultados obtenidos se comprueba la efectividad de la lógica
difusa para sistemas no lineales como es el caso de un panel solar
fotovoltaico. La investigación es del tipo factible y se apoya en un diseño de
campo documental. El instrumento utilizado para la validación de los diseños
es la simulación.
Esta tesis de grado sirve de guía en la comprensión a favor de la
efectividad de los de controladores difusos en sistemas en donde la variable
a manejar no es lineal. Además, de evaluar los patrones de lógica difusa
utilizados para este sistema y del uso de simuladores como método de
validación de los procesos de temperatura y control difuso, motivo importante
para esta investigación.
17
Así mismo, Sánchez (2011) realizó una tesis de grado denominada
“Aplicación de la lógica difusa para evaluación de una estrategia de
innovación en el negocio de los fertilizantes orgánicos”. El presente estudio
pretende evaluar por medio de lógica difusa, el impacto que tendría en el
negocio de los fertilizantes desarrollar una estrategia innovadora, enfocada
en el desarrollo de nuevos productos, además de la implementación de una
nueva estructura comercial y conceptual del negocio que permita ofrecer al
mercado un producto con características técnicas, precio y servicio,
generando una ventaja competitiva con respecto a los competidores y
sustitutos del mismo mercado.
El trabajo inicia presentando una estrategia innovadora a nivel productivo
y comercial, continuando con una validación de dicha estrategia por medio
de los empresarios pertenecientes al sector y finalizando con la evaluación
de los resultados por medio de conjuntos difusos del tipo integral Mamdani.
Los estudios e investigaciones aplicadas a la industria de los fertilizantes
orgánicos se han aplicado principalmente a la solución de un problema de
manejo de sólidos y solo se ha estudiado la generación de valor desde el
punto de vista técnico (compostaje, humus, enriquecimiento en composición,
entre otros), sin enfocar los estudios a la estructura del negocio que es lo que
se desea resolver en este trabajo.
El aporte más significativo que brinda este trabajo de grado es en el
hecho de utilizarlo como pieza fundamental para el desarrollo de las bases
teóricas y profundizar unas de las variables de la investigación como lo es el
18
sistema de control difuso, motivo por el cual es de gran interés para la mejora
teórica del proyecto, principalmente porque ayudará lograr un excelente
análisis de los problemas que se presenten y exhibir a su vez la medida que
mejor se adapte a la solución de mismo.
Por su parte, Berlanga (2010) en su investigación "Aprendizaje de
sistemas basados en reglas difusas compactos y precisos con programación
genética". Describe que actualmente se ha incrementado de forma paralela
tanto la cantidad de información almacenada como la necesidad de
desarrollar algoritmos que permitan extraer conocimiento útil de la misma de
forma automática. Estos algoritmos se incluyen dentro del área de extracción
de conocimiento en bases de datos (KDD, Knowledge Discovery in
Databases).
La extracción de conocimiento se puede abordar, en función del problema
a resolver, desde dos perspectivas distintas: desde el punto de vista
predictivo, como un proceso de inducción predictiva que intenta obtener
conocimiento que permita pronosticar el comportamiento futuro según los
datos disponibles, o desde el punto de vista descriptivo, cuyo objetivo
fundamental es descubrir conocimiento de interés dentro de los datos,
intentando obtener información que describa el modelo que existe detrás de
los datos. La inducción predictiva se realiza bajo enfoques como la
clasificación, la regresión o el análisis de series temporales.
La clasificación es un tipo de inducción predictiva en la que los datos son
objetos caracterizados por atributos que pertenecen a diferentes clases
19
definidas, y el objetivo es inducir un modelo (un Clasificador o Sistema de
Clasificación) capaz de predecir la clase a la cual pertenece un nuevo objeto
dado los valores de sus atributos.
En determinados problemas de clasificación tales como el diagnóstico de
enfermedades o el reconocimiento de rasgos faciales, entre otros, interviene
información compleja, incompleta, imprecisa o con incertidumbre, que los
expertos humanos procesan de forma robusta, pero que es difícil representar
y procesar en un Sistema de Clasificación. Para diseñar un esquema de
clasificación robusto y con un rendimiento e interpretabilidad altos, es
conveniente el uso de una herramienta para tratar con este tipo de
información presente en la mayoría de los procesos de clasificación: la
Lógica Difusa.
La teoría de conjuntos difusos permite manejar imprecisión y tratar el
conocimiento humano de una forma sistemática. En el campo de la
clasificación, el papel fundamental de los conjuntos difusos es hacer
transparentes los esquemas de clasificación que utilizan normalmente los
seres humanos a través del desarrollo de un marco formal implementable en
un ordenador.
Si a la utilización de la Lógica Difusa en un Sistema de Clasificación
unimos el diseño de un sistema basado en reglas, entonces obtendremos un
Sistema de Clasificación Basado en Reglas Difusas (SCBRD), el cual está
formado por un conjunto de modelos simples locales, verbalmente
interpretables y con un rango de aplicación muy amplio. Los SCBRDs
20
permiten la incorporación en el modelo de toda la información disponible,
tanto de la que proviene de expertos humanos que expresan su
conocimiento sobre el sistema en lenguaje natural, como de la que tiene su
origen en medidas empíricas y modelos matemáticos.
En definitiva, el uso de la Lógica Difusa hace posible el tratamiento de
información con incertidumbre, muy común en problemas reales de
clasificación, y proporciona el procesamiento de forma eficaz de la
información experta disponible. Por otra parte, las reglas difusas permiten
representar el conocimiento de una forma comprensible para los usuarios del
sistema.
En el proceso de extracción de conocimiento existen distintas tareas o
problemas que se pueden enfocar y resolver como problemas de
optimización y búsqueda. Los Algoritmos Evolutivos (AEs), entre los que se
encuentran los Algoritmos Genéticos y la Programación Genética (PG),
imitan los principios de la evolución natural para formar procedimientos de
búsqueda y optimización global, lo que les convierte en herramientas
especialmente adecuadas para resolver problemas presentes en las distintas
etapas del proceso de descubrimiento de conocimiento.
En el diseño de un SCBRD preciso, compacto e interpretable es muy
importante la definición adecuada de la semántica de los conjuntos difusos
asociados a las etiquetas lingüísticas. El aprendizaje de forma simultánea
tanto de la base de reglas como de la partición difusa puede permitir extraer
un SCBRD con mejor comportamiento. Para este aprendizaje conjunto de
21
dos partes de un problema muy dependientes, los Algoritmos Coevolutivos
son herramientas muy adecuadas puesto que permiten evolucionar de forma
independiente ambas partes del problema.
El objetivo de esta tesis es estudiar el aprendizaje de SCBRDs en
problemas que presentan una alta dimensionalidad (con respecto al número
de variables de entrada), y desarrollar nuevos algoritmos basados en el uso
de la PG y de los Algoritmos Coevolutivos para la extracción de conocimiento
en forma de reglas difusas que presenten un alto nivel de compacticidad y
precisión en problemas con una alta dimensionalidad, y es allí el aporte
fundamental para la investigación.
Por último, Murillo (2009) efectuó una tesis de grado titulada “Diseño e
implantación de un Sistema PID para el control de la temperatura del extrusor
de una máquina procesadora de plástico”.
El proyecto se desarrolló con base a la necesidad de creación e
implantación de un sistema de control de temperaturas para las máquinas
procesadoras de plástico de Teleplastic C.A., que ofreciera mayor precisión
en el control de temperatura y reducción del consumo de energía en las
máquinas.
El objetivo general, estuvo dirigido, hacia el diseño e implantación de un
sistema PID (proporcional, integral y derivado) para el control de
temperatura, que ofreciera mayor precisión y reducción de los costos del
consumo de energía de las máquinas que procesan plástico en la Empresa
Teleplastic C.A.
22
Por las características, el tipo de investigación es descriptiva y
exploratoria que conlleva a un diseño de campo y bibliográfico. Se efectuaron
pruebas y posteriormente la aplicación de sistema directamente en el área
industrial de la Empresa Teleplastic C.A. Quedo confirmado con la
realización de este proyecto, que es posible desarrollar sistemas creados con
tecnología nacional.
El principal aporte de este proyecto investigativo es el de contribuir en los
conocimientos de alcanzar el mayor provecho a un sistema de control de
temperaturas para maquinas agregando una alta precisión, así como también
poder contrastar el control lineal (PID) con el de lógica difusa en este
especial ámbito de la temperatura.
2. BASES TEÓRICAS.
En esta sección se pretende desarrollar el contenido teórico en el cual se
fundamentan las definiciones de cada de una de las variables de esta
investigación, para así lograr un mejor análisis del problema presentado, y
poder presentar la medida que mejor se adapte a la solución del mismo.
2.1. SISTEMA.
Según Oppenheim (1998, p. 37) un sistema se puede ver con cualquier
proceso que produce una transformación de señales. Entonces, un sistema
tiene una señal de entrada y una señal de salida la cual esta relacionada con
la entrada a través de la transformación del sistema. Por ejemplo, un sistema
23
de sonido de alta fidelidad toma una señal de audio grabada y genera una
reproducción de esa señal. Si el sistema es de alta fidelidad tiene controles
de tono, puede cambiar las características del sistema, esto es, la calidad
tonal de la señal reproducida, mediante el ajuste de los controles.
Un automóvil también se puede ver como un sistema en el que la entrada
es la presión sobre el pedal del acelerador y la salida es el movimiento del
vehículo. Un sistema de mejoramiento de imagen transforma una imagen de
entrada en una imagen de salida que tiene algunas propiedades deseadas,
tal como una mejora en el contraste.
2.1.1. CLASIFICACIÓN.
Estando interesados en dos (2) tipos de sistemas, serían los de tiempo
continuo y tiempo discreto.
Los de tiempo continuo es aquel en el que las señales de entrada de
tiempo continuo son transformadas en señales de salidas de tiempo
continuo. Tales sistemas serian representados de forma gráfica como la
mostrada en la figura 1. En este sistema X(t) es la entrada y Y(t) la salida.
X(t)
Sistemas de tiempo
continuo
Y(t)
Figura 1. Sistema de Tiempo Continúo.
Fuente: Oppenheim (1998, p. 38).
De forma similar, un sistema de tiempo discreto, esto es, uno que
transforma entradas de tiempo discreto en salidas de tiempo discreto, el cual
24
sería representado en forma gráfica como se muestra en la figura 2. En este
sistema X(n) es la entrada y Y(n) la salida.
X(n)
Sistemas de tiempo
discreto
Y(n)
Figura 2. Sistema de Tiempo Discreto.
Fuente: Oppenheim (1998, p. 38).
2.2. SISTEMA AUTOMÁTICO.
Roldán (2005) define el sistema automático está fundamentado en el
control y ejecución de acciones de forma automático, sin la intervención del
operador o con el mínimo de intervención.
2.2.1. SISTEMA DE CONTROL.
Ogata (1998, p. 1) plantea que el control automático ha desempeñado
una función vital en el avance de la ingeniería y la ciencia. Además de su
extrema importancia en los sistemas de vehículos espaciales, de guiado de
misiles, robóticos y similares; el control automático se ha vuelto una parte
importante e integral de los procesos modernos industriales y de
manufactura. Por ejemplo, el control automático es esencial en el control
numérico de las máquinas-herramienta de las industrias de manufactura, en
el diseño de sistemas de pilotos automáticos en la industria aeroespacial, y
en el diseño de automóviles y camiones en la industria automotriz. También
es esencial en las operaciones industriales como el control de presión,
25
temperatura, humedad, viscosidad y flujo en las industrias de proceso.
Debido a que los avances en la teoría y la práctica del control automático
aportan los medios para obtener un desempeño óptimo de los sistemas
dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones
manuales repetitivas y rutinarias, así como de otras actividades, casi todos
los ingenieros y científicos deben tener un buen conocimiento de este
campo.
2.2.1.1. SISTEMA LINEAL.
Fernández (2007) define sistema lineal como todo sistema en que el
régimen dinámico viene definido por una ecuación diferencial lineal es decir
tienen el mismo tipo de respuesta en tiempo y a la señal armónica, solo
varían magnitudes de los parámetros característicos, dado que estos
depende de los coeficientes de le ecuación diferencial.
2.2.1.2. SISTEMA NO LINEAL.
Ogata (1998) plantea que si no se aplica el principio de superposición. Por
tanto, para un sistema no lineal la respuesta a dos entradas no puede
calcularse tratando cada entrada a la vez y sumando resultados.
a. LÓGICA DIFUSA.
Recientemente, la cantidad y variedad de aplicaciones de la lógica difusa
han crecido considerablemente. La lógica difusa es una lógica alternativa a la
lógica clásica que pretende introducir un grado de vaguedad en las cosas
26
que evalúa. En el mundo en que se vive existe mucho conocimiento ambiguo
e impreciso por naturaleza. El razonamiento humano con frecuencia actúa
con este tipo de información. La lógica difusa fue diseñada precisamente
para imitar el comportamiento del ser humano.
La lógica difusa se inició en 1965 por Lotfi A. Zadeh, profesor de la
Universidad de California en Berkeley. Surgió como una herramienta
importante para el control de sistemas y procesos industriales complejos, así
como también para la electrónica de entretenimiento y hogar, sistemas de
diagnóstico y otros sistemas expertos.
El profesor Zadeh manifestó que la lógica difusa trata de copiar la forma
en que los humanos toman decisiones. Lo curioso es que, aunque baraja
información imprecisa, esta lógica es en cierto modo muy precisa: se puede
aparcar un coche en muy poco espacio sin darle al de atrás. Suena a
paradoja, pero es así.
Por tal motivo, la lógica difusa en comparación con la lógica convencional
permite trabajar con información que no es exacta para poder definir
evaluaciones convencionales, contrario con la lógica tradicional que permite
trabajar con información definida y precisa.
A. FUNCIONAMIENTO.
Correa (2003) redacta que los sistemas de lógica difusa permiten dilucidar
y materializar las relaciones implícitas entre conjuntos de datos de entrada y
salida, de manera sistemática y racional, mediante un proceso inductivo de
27
acumulación de conocimiento, lo cual corresponde a la adquisición de
experiencia. Esto es gracia a que estos sistemas pueden ser construidos por
mediante tablas con datos de entrada y salida medido o esperados,
generando mapas funcionales o modelos lineales o no líneas que reproducen
el patrón de desempeño de las entrada y salidas.
B. TEORÍA DE LOS CONJUNTOS DIFUSOS.
La lógica difusa permite tratar con información que no es exacta o con un
alto grado de imprecisión a diferencia de la lógica convencional la cual
trabaja con información precisa. El principal problema surge de la poca
capacidad de expresión de la lógica clásica, es decir, de la limitada lista de
opciones o acciones que puede surgir de la lógica convencional.
B.1. CONJUNTOS CLÁSICOS.
Los conjuntos clásicos surgen por la necesidad del ser humano de
clasificar objetos y conceptos. Estos conjuntos pueden definirse como un
conjunto bien definido de elementos o mediante una función de pertenencia μ
que toma valores de 0 ó 1 de un universo en discurso para todos los
elementos que pueden o no pertenecer al conjunto.
Un conjunto clásico se puede definir con la función de pertenencia
mostrada en la ecuación:
(1)
28
B.2. CONJUNTOS DIFUSOS.
La necesidad de trabajar con conjuntos difusos surge del hecho que
existen conceptos que no tienen límites claros. Un conjunto difuso se
encuentra asociado por un valor lingüístico que está definido por una
palabra, etiqueta lingüística o adjetivo. En los conjuntos difusos la función de
pertenencia puede tomar valores del intervalo entre 0 y 1, yla transición del
valor entre cero y uno es gradual y no cambia de manera instantánea como
pasa con los conjuntos clásicos. Un conjunto difuso en un universo en
discurso puede definirse como lo muestra la ecuación:
(2)
Donde μA(x) es la función de pertenecía de la variable x, y U es el
universo en discurso. Cuando mas cerca este la pertenencia del conjunto A
al valor de 1, mayor será la pertenencia de la variable x al conjunto A, como
se muestra en la figura 3.
Figura 3. Conjuntos Difusos.
Fuente: Correa (2003).
29
C. FUNCIONES DE PERTENENCIA.
Aun cuando cualquier función puede ser válida para definir un conjunto
difuso, existen ciertas funciones que son más comúnmente utilizadas por su
simplicidad matemática, entre éstas se encuentran las funciones de tipo
triangular y trapezoidal (mostrados en la siguiente figura 4 y 5,
respectivamente), gaussiana, entre otras.
Figura 4. Función de transferencia para conjunto difuso triangular.
Fuente: Correa (2003).
Figura 5. Función de transferencia para conjunto difuso trapezoidal.
Fuente: Correa (2003).
D. CONTROLADOR DIFUSO.
Carrabina (1993) presenta que un controlador difuso puede ser aplicado a
todo tipo de proceso, es especialmente adecuado en aquellos sistemas en
30
los que su conocimiento es poco claro e impreciso ya que permite conseguir
evaluaciones subjetivas representadas en el lenguaje ordinario empleado por
los seres humanos. El se fundamenta sobre una base de conocimiento o de
reglas, en las cuales las premisas y consecuencias son variables lingüísticas.
La estructura de un controlador difuso se muestra en la figura 6.
Figura 6. Estructura de un Modelo Difuso Clásico.
Fuente: Carrabina (1993).
Cabe destacar que existen varios tipos de sistemas difusos dependiendo
del tipo de regla que se utilice para elaboración del controlador, y en base a
esto cambia su programación.
Es por ello que se puede distinguir en base a los más usados en dos
tipos: uno denominado tipo Mamdani el cual consta del fusificador, del
mecanismo de inferencia y defusificación; y el otro denominado tipo TakagiSugeno que consta solo del fusificador y sistema de inferencia, en el cual se
establecen las salidas de las reglas en base a funciones que no necesitarán
del defusificador para que el controlador cumple la función a seguir.
31
Sin embargo, estando interesados en la elaboración de un controlador
difuso tipo Mamdani, también llamado como el clásico, por ser el más usado
en los sistemas difusos, solo se detallarán las partes necesarias en la que
consta este tipo de controlador, las cuales son las siguientes:
D.1. FUSIFICACIÓN.
La fusificación tiene como objetivo convertir valores crisp o valores reales
en valores difusos. En la fusificación se asignan grados de pertenencia a
cada una de las variables de entrada con relación a los conjuntos difusos
previamente definidos utilizando las funciones de pertenencia asociadas a
los conjuntos difusos.
D.2. BASE DE CONOCIMIENTO.
La base de conocimiento contiene el conocimiento asociado con el
dominio de la aplicación y los objetivos del control. En esta etapa se deben
definir las reglas lingüísticas de control que realizarán la toma de decisiones
que decidirán la forma en la que debe actuar el sistema.
D.3. INFERENCIA.
La inferencia relaciona los conjuntos difusos de entrada y salida para
representar las reglas que definirán el sistema. En la inferencia se utiliza la
información de la base de conocimiento para generar reglas mediante el uso
de condiciones, por ejemplo: si caso1 y caso2, entonces acción1, y así
respectivamente según la cantidad de casos y acciones a emplear.
32
D.4. DEFUSIFICACIÓN.
El proceso inverso llamado defusificación transforma un conjunto difuso,
es decir, un conjunto de variables lingüísticas con sus respectivos grados de
pertenencia, en un número real.
La defusificacion realiza el proceso de evaluar los valores difusos
generados en la inferencia en valores crisp, que posteriormente se utilizarán
en el proceso de control. En la defusificación se utilizan métodos
matemáticos simples como el método centroide, método de promedio
ponderado y método de membresía del medio máximo.
El método más común es asimilarlo al centro de gravedad de la
combinación de cada una de las reglas inferidas. Además se usa el criterio
máximo, que escoge el punto donde la función inferida tiene su máximo o el
criterio de la media de los máximos.
2.2.2.
SISTEMA DE CONTROL A LAZO ABIERTO.
Ogata (1998, p. 1) plantea que el control automático ha desempeñado
una función vital en el avance de la ingeniería y la ciencia. Además de su
extrema importancia en los sistemas de vehículos espaciales, de guiado de
misiles, robóticos y similares; el control automático se ha vuelto una parte
importante e integral de los procesos modernos industriales y de
manufactura.
Por ejemplo, el control automático es esencial en el control numérico de
las máquinas-herramienta de las industrias de manufactura, en el diseño de
33
sistemas de pilotos automáticos en la industria aeroespacial, y en el diseño
de automóviles y camiones en la industria automotriz. También es esencial
en las operaciones industriales como el control de presión, temperatura,
humedad, viscosidad y flujo en las industrias de proceso.
Debido a que los avances en la teoría y la práctica del control automático
aportan los medios para obtener un desempeño óptimo de los sistemas
dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones
manuales repetitivas y rutinarias, así como de otras actividades, casi todos
los ingenieros y científicos deben tener un buen conocimiento de este
campo.
2.2.3. SISTEMA DE CONTROL A LAZO CERRADO.
Para Ogata (1998, p. 6) un sistema que mantiene una relación prescrita
entre la salida y la entrada de referencia, comparándolas y usando la
diferencia como medio de control, se denomina sistema de control
realimentado. En un sistema de control en lazo cerrado, se alimenta al
controlador la señal de error de actuación, que es la diferencia entre la señal
de entrada y la señal de realimentación (que puede ser la señal de salida
misma o una función de la señal de salida y sus derivadas y/o integrales), a
fin de reducir el error y llevar la salida del sistema a un valor conveniente.
El término control en lazo cerrado siempre implica el uso de una acción de
control realimentado para reducir el error del sistema. Un ejemplo sería el
sistema de control de temperatura de una habitación. Midiendo la
34
temperatura real y comparándola con la temperatura de referencia (la
temperatura deseada), el termostato activa o desactiva el equipo de
calefacción o de enfriamiento para asegurar que la temperatura de la
habitación se conserve en un nivel cómodo sin considerar las condiciones
externas.
2.3. TEMPERATURA.
Del latín temperatūra, para referirse a una combinación en el cielo. La
temperatura es una magnitud física que refleja la cantidad de calor, ya sea
de un cuerpo, de un objeto o del ambiente. Dicha magnitud está vinculada a
la noción de frío (menor temperatura) y caliente (mayor temperatura). La
temperatura está relacionada con la energía interior de los sistemas
termodinámicos, de acuerdo al movimiento de sus partículas, y cuantifica la
actividad de las moléculas de la materia: a mayor energía sensible, más
temperatura.
Igualmente, la temperatura según Day y Carpi (2003), en un modelo
corpuscular de la materia, la temperatura de un cuerpo puede asociarse al
nivel de agitación de sus partículas. Es decir, un cuerpo tiene mayor
temperatura cuando es mayor la velocidad con que se mueven sus
partículas. Esta situación, es decir, la mayor agitación, provoca una mayor
cantidad de choques entre las partículas y con mayor liberación de energía
(calor). Del mismo modo, es mayor la cantidad de choques con las paredes
del recipiente, de tal forma que al tocarlo se percibe “caliente”.
35
Ahora bien, en el caso de cuerpos sólidos, la temperatura sigue estando
ligada al movimiento de sus partículas, sólo que en este caso el movimiento
es más restringido. Al aumentar la temperatura de un sólido, aumenta la
amplitud con que vibran u oscilan sus partículas, aumentando así su
velocidad y su energía cinética.
Así mismo, la temperatura de un cuerpo, indica el nivel de energía cinética
promedio de las partículas de un cuerpo o porción de sustancia. Del mismo
modo, expresa
Valderrama (1998), La temperatura se puede considerar
como una manifestación del estado energético de las moléculas de una
sustancia y que se percibe como "sensación de frío o de calor". Si un
cuerpo caliente (C) se pone en contacto con un cuerpo frío (F), se transferirá
energía del bloque más caliente al más frío hasta que las temperaturas de
ambos cuerpos se igualen.
Dando lugar a la Ley Cero de la Termodinámica donde el mismo autor
define: "Cuando dos cuerpos tienen la misma temperatura que un tercer
cuerpo, entonces esos tres cuerpos tienen igualdad de temperatura" similar a
lo visto en matemáticas en que "dos cantidades iguales a una tercera son
iguales entre sí".
2.3.1. LEY CERO DE TERMODINÁMICA.
La ley cero, conocida con el nombre de la ley del equilibrio térmico fue
enunciada en un principio por Maxwel y llevada a ley por Fowler y dice: “Dos
sistemas en equilibrio térmico con un tercero, están en equilibrio térmico
36
entre sí”. Medín (2006). El equilibrio térmico debe entenderse como el estado
en el cual los sistemas equilibrados tienen la misma temperatura. Esta ley es
de gran importancia porque permitió definir a la temperatura como una
propiedad termodinámica y no en función de las propiedades de una
sustancia.
La aplicación de la ley cero constituye un método para medir la
temperatura de cualquier sistema escogiendo una propiedad del mismo que
varíe con la temperatura con suficiente rapidez y que sea de fácil medición,
llamada propiedad termométrica.
En el mismo contexto, en el termómetro de vidrio esta propiedad es la
altura alcanzada por el mercurio en el capilar de vidrio debido a la expansión
térmica que sufre el mercurio por efecto de la temperatura. Cuando se
alcanza el equilibrio térmico, ambos sistemas tienen la misma temperatura.
Ahora bien, si dos partes de un sistema entran en contacto térmico es
probable que ocurran cambios en las propiedades de ambas. Estos cambios
se deben a la transferencia de calor entre las partes. Para que un sistema
esté en equilibrio térmico debe llegar al punto en que ya no hay intercambio
neto de calor entre sus partes, además ninguna de las propiedades que
dependen de la temperatura debe variar.
Una definición de temperatura según Medín (2006), se puede obtener de
la Ley cero de la termodinámica, que establece que si dos sistemas A y B
están en equilibrio térmico, con un tercer sistema C, entonces los sistemas A
y B estarán en equilibrio térmico entre sí. Este es un hecho empírico más
37
que un resultado teórico. Ya que tanto los sistemas A, B, y C están todos en
equilibrio térmico, es razonable decir que comparten un valor común de
alguna propiedad física. Se llama a esta propiedad temperatura.
Sin embargo, para que esta definición sea útil es necesario desarrollar un
instrumento capaz de dar un significado cuantitativo a la noción cualitativa de
ésa propiedad, por lo que a lo largo de la historia se han hecho numerosos
intentos, sin embargo en la actualidad predominan el sistema inventado por
Celsius en 1742 y el inventado por lord Kelvin en 1848.
2.3.2. SEGUNDA LEY DE LA TERMODINÁMICA.
La segunda ley de la termodinámica, según Çengel (2009), expone que
es una generalización de la experiencia, es una exposición cuyos artificios de
aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada
uno de los cuales hacen destacar un aspecto de ella, pero se puede
demostrar que son equivalentes entre sí. Clausius la enuncio como sigue: No
es posible para una máquina cíclica llevar continuamente calor de un cuerpo
a otro que esté a temperatura más alta, sin que al mismo tiempo se produzca
otro efecto (de compensación).
Por experiencia se sabe que cuando dos cuerpos se encuentran en
contacto fluye calor del cuerpo caliente al cuerpo frío. En este caso, la
segunda ley elimina la posibilidad de que la energía fluya del cuerpo frío al
cuerpo caliente y así determina la dirección de la transmisión del calor. La
dirección se puede invertir solamente por medio de gasto de un trabajo.
38
Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a
las siguientes: es completamente imposible realizar una transformación cuyo
único resultado final sea el de cambiar en trabajo el calor extraído de una
fuente que se encuentre a la misma temperatura. De esta manera es como
según diferentes autores explican la segunda ley de la termodinámica,
teniendo en cuenta que todos los enunciados son semejantes y que su
principio es básicamente el mismo.
2.3.3. UNIDADES.
Las escalas de medición de la temperatura se dividen fundamentalmente
en dos tipos, las relativas y las absolutas. Para Valenzuela (2009), los
valores que puede adoptar la temperatura en cualquier escala de medición,
no tienen un nivel máximo, sino un nivel mínimo: el cero absoluto. Mientras
que las escalas absolutas se basan en el cero absoluto, las relativas tienen
otras formas de definirse. Como escalas relativas de temperatura, se
incluyen: escala Celsius, escala Fahrenheit escala, Réaumur, escala Leiden,
escala Newton (en desuso), escala Roemer (en desuso), escala Delisle (en
desuso) unidades de temperatura.
2.3.3.1. CONVERSIÓN DE TEMPERATURAS.
Para medir la temperatura según Caballero (2012), es muy común que se
utilice la escala Celsius, es decir, que se mida la temperatura en grados
Celsius o centígrados, la cual está basada en el punto de fusión del hielo (la
39
temperatura que tiene el agua cuando se está descongelando), la cual es de
0°C y el punto de ebullición del agua (cuando el agua pasa de líquido a gas),
que es de 100°C. Estos fueron los puntos que tomó Anders Celsius como
indicadores para la temperatura y los dividió en cien partes (de ahí grados
centígrados) para la medición de temperaturas.
Pero la escala Celsius no es la única existente, existen otras escalas que
también se ocupan para medir temperaturas como lo es la escala Fahrenheit,
que esta difiere de la Celsius tanto en los valores de sus puntos fijos como
en el tamaño, es decir, la distancia que hay entre un grado y otro ya que
Fahrenheit no se basó en el agua como liquido para obtener la escala. En la
escala Fahrenheit, 0°C equivalen a 32°F, y 100°C equivalen a 212°F, lo cual
da una diferencia de 180° de una escala a otra.
2.3.4. COEFICIENTE DE DILATACIÓN TÉRMICA.
Durante una transferencia de calor, la energía que está almacenada en
los enlaces intermoleculares entre 2 átomos cambia. Cuando la energía
almacenada aumenta, también lo hace la longitud de estos enlaces. Así, los
sólidos normalmente* se expanden al calentarse y se contraen al enfriarse;
este comportamiento de respuesta ante la temperatura se expresa mediante
el coeficiente de dilatación térmica (unidades: °C-1):
(3)
Esto no ocurre para todos los sólidos: el ejemplo más típico que no lo
cumple es el hielo.
40
Para sólidos, el tipo de coeficiente de dilatación más comúnmente usado
es el coeficiente de dilatación lineal αL. Para una dimensión lineal cualquiera,
se puede medir experimentalmente comparando el valor de dicha magnitud
antes y después de cierto cambio de temperatura, mediante la siguiente
ecuación:
(4)
Puede ser usada para abreviar este coeficiente, tanto la letra griega alfa
como la letra lambda
. En gases y líquidos es más común usar el
coeficiente de dilatación volumétrico αV, que viene dado por la expresión:
(5)
Para sólidos, también puede medirse la dilatación térmica, aunque resulta
menos importante en la mayoría de aplicaciones técnicas. Para la mayoría de
sólidos en las situaciones prácticas de interés, el coeficiente de dilatación
volumétrico resulta ser más o menos el triple del coeficiente de dilatación
lineal:
(6)
Esta relación es exacta en el caso de sólidos isótropos.
3. SISTEMA DE VARIABLES.
La presente investigación está constituida por las variables: Sistemas de
Control Difuso y La Temperatura. A continuación se procede a realizar la
definición nominal, conceptual y operacional de cada variable.
41
3.1. DEFINICIÓN NOMINAL.
 Sistema de Control Difuso.
 Temperatura.
3.2. DEFINICIÓN CONCEPTUAL.
 Sistemas de Control Difuso.
Según el artículo publicado por D’Negri (2006) y la revista publicada por
Rojas (2012) explica que el profesor Zadeh, ante la inconformidad con los
sistemas de conjuntos clásicos que sólo permitían dos opciones, la
pertenencia o no de un elemento a dicho conjunto, presentó lo que
denominó, en contraposición a estos clásicos, los sistema de conjuntos
difusos como una forma de procesar información permitiendo pertenencias
parciales a unos conjuntos, llevando de esta manera a la formación de
controladores bajo ese principio para optimizar procesos y/o sistemas en
donde la lógica clásica no es factible.
 Temperatura.
Para Carpi (2003), un cuerpo tiene mayor temperatura cuando es mayor
la velocidad con que se mueven sus partículas. Esta situación, es decir, la
mayor agitación, provoca una mayor cantidad de choques entre las partículas
y con mayor liberación de energía (calor), y que ese calor generado o
producido al ser medido es lo que trae consigo la definición de esta magnitud
física.
42
3.3. DEFINICIÓN OPERACIONAL.
 Sistema de Control de Temperatura Difuso.
Es una rama del denominado sistema de inteligencia artificial que permite
trabajar con información de alto grado de distinción ante la variable de
temperatura, de manera que permite trabajar con valores intermedios para
poder definir evaluaciones mas precisas entre caliente o frio, bajo o alta
temperatura, así como otros situaciones que la lógica convencional suele
ejercer. Además de ser un sistema que ante evaluaciones permite realizar
ajustes y revisiones continuas ante respuestas condicionadas por la
temperatura que se desea y busca establecer. Tomando en cuenta que esta
modalidad se implementa bajo reglas de diseño de los sistemas de hardware
y software para la ejecución del control lógico difuso de la temperatura.
Descargar