ISSN Nº UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERÍA INSTITUTO DE MATEMATICA CIENCIAS BASICAS EN INGENIERIA REVISTA DIGITAL SEMESTRAL Nº 2 – AÑO 1 DICIEMBRE DE 2009 ISSN Nº CIENCIAS BASICAS EN INGENIERIA Revista Digital del Instituto de Matemática Publicación Semestral Director: Prof. Antonio B. MAHAVE Consejo Editor: Dr. Ing. Jorge V. PILAR Ing. Gustavo DEVINCENZI Dr. Ruben CERUTTI Dr. Juan NAPOLES VALDES Prof. Cdora. Carmen RESCALA Est. Mat. Miguel CANTINI Instituto de Matemática – Facultad de Ingeniería – U.N.N.E. Las Heras 727 – Resistencia Chaco (3500) – Republica Argentina Director: Antonio Mahave – Facultad de Ingeniería – Las Heras 727 Vicedirector: Ing. Leopoldo S. de Urrutia Resistencia Chaco – Tel. 03722 – 425064 ; 420076 e-mail: [email protected] INDICE Autoridades de la Universidad ………………………………………………………….3 Autoridades del Instituto…………………………………………...................................4 Memoria 2006 – 2009………………………………………………………………....5-8 ¿QUÉ MODELO MATEMÁTICO ELEGIR PARA EL BENCHMARKING DE LAS EMPRESAS CONSTRUCTORAS DE LA PROVINCIA DEL CHACO? Rescala, Carmen; Rodhe; Gricela A; Martinez de Müller, Hilda D.; Giraudo, Marta; Bonafini, María L.; Bernaola Gustavo A.....................................................................9-14 ATOMOS Y VIDA Ing. Emilio A. García Solá.........................................………….............…………...15-18 LA MATEMÁTICA, LA FISICA Y LAS TECNICAS CONSTRUCTIVAS Dr. Ing. Mario Bruno Natalini…………………………………..…..............................19-41 Trabajos Finales del curso de posgrado “Metodología de la Investigación” CONTAMINACION LUMINICA Latorre Blanca G. ; García Solá Hemilce T. ………...……………….……..…..…43-53 FRACTALES Beneyto Claudia V. ……………………………………………………………….. 54-66 LÍMITE DE FUNCIONES DE DOS VARIABLES, otro enfoque para su estudio Durnbeck Claudia ……………………………….……..…….…………………….67-83 VIABILIDAD DE REALIZAR UN COMPLEJO HABITACIONAL DE TRES NIVELES EN SUELOS DE RELLENO Alvaredo Gisela C. ; Soto Jorge Germán U. ……………………………………...84-95 VIBRACIONES MECÁNICAS EN MOTORES DE COMBUSTIÓN INTERNA Maderna Raúl Isaías ..…....……………………………………………………..…96-111 RECUPERO DE INFORMACIÓN A TRAVÉS DE OPERACIONES CON CONJUNTOS Sabadini María Wanda …………………………………………………………..112-132 Ciencia ELEMENTOS DE LA TEORIA DE LA RELATIVIDAD RESTRINGIDA 2da Parte Cantidad de Movimiento y Energía Alberto E. J. Manacorda………………………………………………………….133-140 CIENCIAS BASICAS EN INGENIERIA Revista Digital del Instituto de Matemática Número Especial en Homenaje a la Facultad de Ingeniería Al cumplirse los primeros cincuenta años desde su creación Universidad Nacional del Nordeste Facultad de Ingeniería Instituto de Matemática - Diciembre 2009 CIENCIAS BÁSICAS EN INGENIERÍA Revista Digital del Instituto de Matemática AUTORIDADES: UNIVERSIDAD NACIONAL DEL NORDESTE Rector: Arq. OSCAR VICENTE VALDES Vicerrector: Dr. HUGO A. DOMITROVIC Sec. Gral. Académico: Med. Vet. ORLANDO A. MACCIO Sec. Gral. De Ciencia y Técnica Dr. ANGEL J. V. FUSCO Sec. Gral. Administrativa Cra. SUSANA C. de DUSEK Sec. Gral. De Asuntos Sociales Ing. RAMON ESQUIVEL Sec. Gral. De Extensión Universitaria Ing. HUGO D. DOMINGUEZ La Academia Nacional de Ingeniería distinguió al Dr. Ing. Mario Eduardo De Bortoli, en Sesión Pública Extraordinaria del día 19 de noviembre, con la entrega del Premio “Ing. Enrique Butty”, edición 2009.Este importante reconocimiento es motivo de satisfacción para los miembros de esta comunidad universitaria porque el Dr. Ing. De Bortoli, actual Vicedecano, es un egresado de esta Facultad de Ingeniería, y el Instituto de Matemática en particular, se honra en contarlo entre los integrantes de su Consejo Académico y de la Comisión de Referato.Reciba desde aquí nuestras felicitaciones y agradecimiento por su permanente colaboración. FACULTAD DE INGENIERIA Decano: Dr. Ing. JORGE V. PILAR Vicedecano: Dr. Ing. MARIO E. DE BORTOLI Secretario Académico: Ing. ARTURO A. BORFITZ Sec. De Asuntos Estudiantiles: Ing. GUSTAVO O. FISCHER Sec. Administrativo: Ing. JOSÉ ORTIZ Sec. De Extensión Universitaria Ing. JOSÉ L. BASTERRA INSTITUTO DE MATEMATICA Director: Prof. ANTONIO B. MAHAVE Vicedirector: Ing. LEOPOLDO S. De URRUTIA 3 UNIVERSIDAD NACIONAL DEL NORDESTE INSTITUTO DE MATEMÁTICA FACULTAD DE INGENIERÍA Director: Prof. Antonio B. Mahave Vicedirector: Ing. Leopoldo S. De Urrutia Consejo Académico: Dr. Ing. Jorge V. Pilar Ing. Gustavo Devincenzi Dr. Rubén Cerutti Dr. Juan Nápoles Valdés Est. Mat. Miguel Ángel Cantini Prof. Cra. Carmen Rescala Dr. Ing. Mario de Bortoli Ing. Emilio Garcia Solá Miembros Fundadores Prof. Mónica Acevedo Prof. Edgardo Arriola Arq. Rubén Avalos Prof. Norma I. Enia de Campias Ing. Germán Camprubí Est. Mat. Miguel Ángel Cantini Dr. Rubén Cerutti Prof. María N. Cruz de Mena Prof. Nélida Chica de Galassi Ing. Gustavo Devincenzi Ing. Leopoldo S. de Urrutia Ing. Ariel Di Rado Lic. Mario Garber Cdor. Mario A. Gianneschi Prof. Antonio B. Mahave Ing. Eduardo Mañanes Prof. Rubén H. Martínez Prof. Hilda Martínez de Müller Prof. Pedro Muscar Dr. Juan Nápoles Valdéz Prof. Noemí Ojeda de Goicoechea Prof. Mafalda Parisi de Vignau Ing. Alejandro Pilar Prof. Cra. Carmen Rescala Ing. Jorge A. Rodríguez Ing. Ramón Sampayo Ing. Ignacio Vargas Ing. Alberto Vignau Miembros Fundadores Adherentes Lic. Veremundo Fernández Arguiñano Lic. Liliana Koegel Ing. Alberto Manacorda Ing. Víctor Martínez Luaces Ing. Ricardo A. Sagristá Prof. Ana María Simoniello de Alvarez 4 INSTITUTO DE MATEMATICA DE LA FACULTAD DE INGENIERÍA Memoria período 2006-2009 Con vistas a la Asamblea General Ordinaria convocada para el 10 de diciembre de 2009, la Dirección del Instituto pone a consideración la memoria correspondiente al último período de tres años, iniciado el 21 de diciembre de 2006. Asuntos institucionales. Con el transcurso del tiempo, el desarrollo de las actividades propias del Instituto mostró la necesidad de realizar algunos cambios al anexo de la Res. 163/02 del Consejo Superior de la Universidad, por la cual fue creado, y al Reglamento Interno aprobado por Res. 148/04 del Consejo Directivo de la Facultad, en lo que respecta a la designación de autoridades. La misma resolución 163/03, faculta al director, en el punto 7 h) de su Anexo, para ―proponer a la superioridad las reformas a esta ordenanza, que surjan como una necesidad en su funcionamiento‖; previsión que facilitó la gestión de las modificaciones que se introdujeron. Como consecuencia, por Res. 42/07/CS se modificaron las normas para la elección del Director, adoptando criterios compatibles con los que se aplican actualmente en la Facultad de Ingeniería para la elección de autoridades de los departamentos académicos. También se autorizó la designación de un Vicedirector, con el fin de asegurar la continuidad normal de las actividades, en ausencia del Director. Se transcribe a continuación la parte resolutiva de la Res. 42/07: Art. 1°) Modificar parcialmente la Resolución 163/02 C.S. reemplazando el texto del punto 8 del Anexo de la misma, por el siguiente: “8. La designación del Director del Instituto de Matemática de la Facultad corresponde al Decano, a propuesta de la Asamblea Ordinaria del Instituto. El mismo será elegido por un término de tres (3) años, con posibilidad de reelección por la misma Asamblea, entre los miembros del Instituto que sean docentes de la Facultad de Ingeniería. En las mismas condiciones se designará un vice-director, cuyas funciones serán las de reemplazar al director en caso de ausencia por más de tres días, o en las funciones que el director le delegue”. La posibilidad de crear el cargo de Vicedirector había sido tratada durante la Asamblea Ordinaria anterior, en la que se convino, la elección del Ing. Leopoldo Sabino de Urrutia para cubrir el cargo, cuando fuera creado. Obtenida la reforma propuesta, se procedió a la designación del Ingeniero De Urrutia, por Res. 872/07 del Decano de la Facultad, por un período de tres años, a partir del 12 de octubre de 2007. En lo que respecta al Consejo Académico, órgano superior del Instituto, su funcionamiento jerarquizó al mismo, tanto por el prestigio de sus integrantes como por el de las instituciones de origen a las que cada uno pertenece y en cierto modo representa. Las reuniones mensuales del Consejo Académico se realizaron cada vez 5 que la existencia de cuestiones importantes justificó su convocatoria. Resultó de fundamental importancia para el éxito de las gestiones y proyectos desarrollados desde la Dirección, el asesoramiento del Cuerpo y el amplio espíritu de colaboración de todos sus miembros. En el último año, se incorporaron al Consejo Académico, por decisión del mismo cuerpo, ad-referendum de la Asamblea, dos nuevos miembros; el Ing. Emilio García Solá y el Dr. Ing. Mario De Bórtoli; ambos de importante trayectoria académica y científica en la Universidad Nacional del Nordeste. Actividades del Instituto. Los proyectos que desarrolla el Grupo IME – Investigación en matemática educativa en el Instituto, aportan anualmente la información que la Secretaría Académica de la Facultad utiliza para el diseño de sus políticas y toma de decisiones educativas, especialmente las relativas al ingreso. Estos datos estadísticos tienen que ver con la situación socio-económica de los ingresantes, preparación básica, aprovechamiento y rendimiento académico durante el primer año, índices de repitencia y deserción estudiantil. En otro orden se estableció el tiempo de duración de la carrera para cada uno de los planes de estudio;. Índices de deserción y diversas dificultades que aparecen en el desarrollo de la carrera. Estos trabajos, que en su mayoría, están publicadas en la Revista del Instituto, fueron estimados de interés por la Secretaría Académica de la Facultad. Paralelamente al desarrollo de estas actividades y como consecuencia, el Instituto contribuye a la formación de recursos humanos para la investigación. En su política de divulgación de los conocimientos científicos y ampliación de temas programáticos de la carrera, a la vez que contribuir al acercamiento de docentes y estudiantes para participar de sus actividades, el Instituto, desarrolló algunos cursos breves y conferencias, que fueron posibles gracias al aporte desinteresado de los disertantes. La nómina es la siguiente: 7 y 8 de julio de 2008, Ing. Alberto E. Manacorda, dictó un curso sobre ―Teoría de la relatividad restringida‖. El Ing. Geógrafo Alberto E. Manacorda es profesor titular de Análisis Matemático en la Facultad de Ciencias Económicas de la Universidad Nacional de Rosario y exvicedirector del Observatorio Astronómico y Planetario de esa Ciudad. 8 de julio de 2008, conferencia del Ing. Alberto E. Manacorda sobre el tema ―Por qué es oscura la noche‖, en la que explicó en forma amena, para todo público, la teoría sobre la expansión del Universo. Abril de 2009, conferencia del Dr. Juan E. Nápoles Valdés ―Sobre órbitas y Planetas‖, una introducción brevísima a la matemática contemporánea. 16 de abril de 2009, Lic. Jorge E. Sagula, conferencia sobre ―Investigación estadística con sesgo en la gestión del conocimiento‖. Noviembre de 2009, curso de 11 hs. destinado a estudiantes de la Facultad de Ingeniería, sobre la aplicación del software archiCAD, a cargo de docentes de la cátedra Sistemas de Representación (Mod. II). Profesor dictante, arquitecto Adrián Floriddia. En el marco de las normativas para los estudios de posgrado dispuestas por Res. 196/03 y 891/06 del Consejo Superior de la Universidad Nacional del Nordeste, se dictaron los siguientes cursos de posgrado: Año 2008; ―Metodología de la Investigación‖, autorizado por Res. 162/08 del Consejo Directivo de la Facultad, con 60 horas de duración y reconocimiento de cuatro créditos. Dictado por la Prof. Mgter. Viviana Aranda Yaccuzzi Polisena. 6 Año 2009; segundo curso ―Metodología de la Investigación‖, con los mismos contenidos, programación y características del anterior, aprobado por Res. 078/09 del Consejo Directivo, fue dictado por la misma profesora Mgter. Viviana Aranda Yaccuzzi Polisena. Año 2009; ―De la estabilidad al Caos‖ ―Un viaje matemático por los sistemas dinámicos‖, curso de 30 horas de duración, autorizado por Res. 322/08 del Consejo Directivo de la Facultad de Ingeniería, dictado por el Dr. Juan E. Nápoles Valdés. Jornadas Interdisciplinarias. Los cursos de posgrado se cumplieron con todo éxito y corresponde una mención a la capacidad y dedicación de los docentes que tuvieron a su cargo el dictado de los mismos. En base a estos cursos se fue formando un grupo humano de docentes e investigadores en distintas disciplinas, relacionadas casi todas en mayor o menor medida con la matemática o con las ciencias básicas de la ingeniería, coincidentes en la búsqueda del conocimiento científico, por distintos caminos. Los trabajos realizados por este grupo, sumados a los aportes de otros investigadores de la Universidad, generaron la idea de exponer estos resultados en unas jornadas de carácter interdisciplinario. Debe nombrarse otra vez aquí a la Mgter. Viviana Aranda Yaccuzzi Polisena, que fue la gestora de la iniciativa y organizó las Primeras Jornadas Interdisciplinarias, con sede en la Facultad de Ingeniería, para los días 3, 4 y 5 de diciembre de 2009. Comprometieron su participación en estas jornadas prestigiosos investigadores de nuestra Universidad y de la Universidad de Lyon de Francia. Publicaciones. Con regularidad, se cumplió con la edición semestral de los números correspondientes de la Revista del Instituto de Matemática, completando en este mes de diciembre de 2009 el N° 10 de la publicación en papel. Para la última edición se consiguió apoyo económico de la Secretaría General de Ciencia y Técnica, que cubren los insumos, haciéndose cargo de los trabajos de impresión la imprenta dependiente de la Secretaría General de Extensión Universitaria. Estas importantes colaboraciones, que mucho agradece la dirección de la Revista, facilitan la continuidad de la misma y representan un reconocimiento al trabajo que compromete a mejorar la producción. La Revista del Instituto de Matemática está registrada con el ISSN N° 1850-9827 y cuenta con un comité de referato. Actualmente se está trabajando en la posibilidad de dar continuidad a la edición en formato digital, existiendo a tal efecto, una oferta de colaboración del Departamento de Computación. Conclusiones. A manera de conclusión, evaluando fortalezas y debilidades, de lo realizado hasta la terminación de esta última gestión, puede afirmarse que el Instituto fue creciendo lentamente, aunque con continuidad, en el cumplimiento de sus objetivos. El principal, fue crear un espacio de trabajo y comunicación para los docentes e investigadores de las distintas especialidades de la Matemática y muy especialmente, para los que se inician 7 en la investigación. Puede concluirse que el Instituto resultó de utilidad para contribuir a la formación de recursos humanos, que el Departamento de Matemática, la Facultad y también otras casas de altos estudios requieren. Las primeras etapas de este proyecto ya se han cumplido, con la formación de un grupo humano que participa de las actividades del mismo y docentes categorizados para la investigación de distintas disciplinas. Desde esta base se podrán abordar proyectos de superior alcance y nivel. Se han sumado a las tareas del Instituto, docentes de otras ciencias básicas de las carreras de ingeniería; con seguridad el aporte a realizar contribuirá positivamente al cumplimiento de los objetivos finales, con un criterio amplio de cooperación interdisciplinaria, en la búsqueda del saber científico. Corresponde reconocer el especial apoyo de las autoridades de la Facultad de Ingeniería que permitió llevar adelante todos los proyectos encarados por el Instituto y facilitó el logro de los mismos. El Director del Instituto 8 ¿QUÉ MODELO MATEMÁTICO ELEGIR PARA EL BENCHMARKING DE LAS EMPRESAS CONSTRUCTORAS DE LA PROVINCIA DEL CHACO? RESCALA, Carmen1; ROHDE 1; Gricela Alicia1 ; MARTÍNEZ de MÜLLER, Hilda Delia1; GIRAUDO, Marta Beatriz Viviana1; BONAFFINI, María Liliana1; Gustavo Alberto BERNAOLA2 Universidad Nacional del Nordeste 1 - Universidad Tecnológica Nacional 2 [email protected], [email protected], [email protected], [email protected], [email protected], [email protected], Especialidad o tema: Matemática Aplicada. Palabras claves: Modelos Matemáticos – Empresas Constructoras – Eficiencia – Optimización RESUMEN Este trabajo forma parte del Proyecto de Investigación PI 054/07 ―Modelos Matemáticos y Estadísticos para la Gestión de Administración de Empresas Constructoras‖, proyecto cuya importancia radica en mejorar los procesos administrativos y optimizar la toma de decisiones en estas unidades de negocios que actúan en el sector de la construcción, de la ciudad de Resistencia, Provincia del Chaco. El objetivo de este artículo es describir la necesidad de las empresas de conocer su eficiencia relativa y los fundamentos que llevaron al equipo de investigación a adoptar el Modelo Matemático DEA para el estudio de la eficiencia de las empresas constructoras seleccionadas. INTRODUCCIÓN Los modelos matemáticos son herramientas que nos suministra la matemática y se convierten en instrumentos que facilitan la elección de estrategias sin las cuales los profesionales, en este caso de las ciencias económicas y afines, no pueden resolver las complejidades propias de su hacer. En las distintas disciplinas de las ciencias económicas, las variables pueden ser representadas por símbolos y sus propiedades enunciadas en lenguaje matemático, lo que significa que la ciencia matemática aporta a una ciencia social las herramientas y técnicas para analizar las relaciones entre sus variables. Es ésta la razón que nos lleva a decir que el análisis económico de hechos reales es un análisis de la matemática aplicada. Durante mucho tiempo los gerentes fueron indiferentes a la construcción de modelos cuantitativos que les permitieran tomar decisiones más acertadas, seguían confiando en su intuición y en su experiencia. Si bien reconocían las ventajas que presentaba la construcción de modelos, opinaban que solamente podían crear modelos los matemáticos, los consultores y los expertos en informática. Al delegar la construcción de modelos a los especialistas en el tema, el management o administrador general o gerente, no participaba del proceso de construcción de los 9 modelos que ayudarían a tomar decisiones, por lo cual la interpretación de los resultados era errónea o no se llevaban a la práctica. Sin embargo sucede algo que revierte el pensamiento de esos gerentes de empresas. Ese suceso es el avance tecnológico, gracias a él los administradores comienzan a construir y analizar sus propios modelos. Ese avance tecnológico está dado por: el poder de las computadoras personales los programas accesibles y fáciles de usar. Los gerentes de empresas no necesitan ahora conocimientos analíticos de matemática ni de programación de computadoras, tampoco la formación técnica especializada que se volvió indispensable en épocas anteriores, requisitos que hoy han desaparecido para el usuario. Cuando los gerentes deben tomar decisiones frente a situaciones que presentan alternativas conflictivas o antagónicas, las analizan, resuelven los conflictos, ponen en práctica las decisiones tomadas y la organización asume las consecuencias en forma de resultados. Para crear un modelo es necesario comprender: • ¿qué tipo de situaciones administrativas se prestan a ser representadas en un modelo?. • ¿qué posibilidades tenemos de reunir los datos y analizar el modelo para obtener resultados con una inversión razonable de tiempo y dinero? • ¿qué acciones deben realizarse para obtener el mayor provecho del modelo y de la puesta en marcha de la decisión tomada? Una clasificación de los modelos, los divide en: Determinísticos Lineales No lineales Estocásticos Teniendo más subdivisiones en cada una de estas categorizaciones. MEDIDAS DE EFICIENCIA RELATIVA El diseño y la aplicación de modelos matemáticos han producido verdaderas revoluciones en el campo científico y en el tecnológico. La enseñanza de conceptos esencialmente cuantitativos requiere de la Matemática y la Gestión de Negocios conceptos que son de naturaleza esencialmente cuantitativa, algunos ejemplos son: precios, costos, salarios, inversiones, compras, ventas, ingresos, utilidades y muchos más, por lo que decimos que el análisis económico es indudablemente matemático. Las empresas constructoras de la ciudad de Resistencia, Chaco, deben conseguir un posicionamiento, una imagen que les permita diferenciar su oferta y liderar en el mercado. Al ser eficientes, las empresas mejoran su gestión de administración y el nivel de competitividad. Nada pueden lograr las empresas si no conocen su eficiencia relativa. La eficiencia es un concepto relativo, porque adquiere verdadero significado, si el resultado de una unidad económica se compara con un estándar. Por ello, la medida de la eficiencia se desarrolla en dos etapas. En la primera, se fija una función “frontera” que indica el máximo nivel de output (elementos de salida de un proceso productivo, por ej. ventas) que puede alcanzarse, la representación de esa función es la isocuanta de producción. En la segunda etapa se comparan los resultados obtenidos para cada 10 unidad de negocios con la frontera de eficiencia, considerándose ineficientes las empresas que presentan desviaciones con respecto a ella. A partir del concepto de isocuanta, es necesario definir eficiencia técnica: es la alcanzada por una unidad de negocios que emplea la menor cantidad de inputs (recursos empleados en un proceso productivo, por ej. materias primas) para alcanzar un determinado nivel óptimo de outputs (salidas); para luego determinar, a partir de la curva de isocoste, (función que representa todas las combinaciones de inputs que tienen el mismo costo), el concepto de la eficiencia asignativa (precio) como la que utiliza la mejor combinación de inputs considerando los precios de los mismos en el mercado. La combinación óptima de inputs al mínimo costo posible constituye la eficiencia económica. El siguiente gráfico ilustra esta clasificación: (Sarmiento 2007) OQ OR ; Eficiencia de asignación : EA OP OP Eficiencia económica : EE ET EA ; Isocuanta: S S ; Isocoste: P1P2 Eficiencia técnica : ET La eficiencia puede ser caracterizada según las siguientes direcciones u orientaciones básicas: a) Inputs orientados: se busca conservar el vector de resultados reduciendo proporcionalmente las variables de ingreso, sin que la empresa deje de pertenecer a la frontera de producción. b) Outputs orientados: en este tipo de modelos se persigue el máximo incremento proporcional de los outputs para un nivel determinado de inputs, con la empresa ubicada en la frontera de posibilidades de producción. c) Input-Output orientados: son los modelos en los que Inputs y Outputs son controlables, buscan simultáneamente la reducción de Input y expansión de Output en forma equiproporcional, lo que se conoce como medidas de eficiencia “hiperbólica”. Una unidad de negocios es eficiente si para incrementar sus resultados tiene que variar sus ingresos o disminuyendo sus ingresos altera las cantidades en los resultados. Para medir la eficiencia relativa, existen distintos enfoques, entre ellos el enfoque no paramétrico de programación matemática: Data Envelopment Analysis (DEA). 11 MODELOS DEA El método DEA es determinístico, lineal y dentro de esta última clasificación es no paramétrico. Tiene la particularidad de que las ponderaciones que se utilizan son determinadas endógenamente, es decir por la propia técnica de la medición. Dichas ponderaciones se obtienen, al igual que la tasa de eficiencia, mediante la resolución de un modelo de programación lineal, cuya formulación pone de manifiesto el carácter relativo de la medida de la eficiencia obtenida. En efecto, la tasa de eficiencia suministrada por el método DEA no es sino el resultado de comparar la actividad productiva de cada organización, evaluada con las de otras técnicamente homogéneas. Por ello decimos que DEA (Análisis Envolvente de Datos) es una técnica de programación matemática que permite la construcción de una superficie envolvente, que constituye una frontera eficiente, a partir de los datos disponibles de las unidades de negocio a evaluar. Las unidades que determinan la envolvente son denominadas unidades eficientes y aquellas que no permanecen sobre la misma son consideradas unidades ineficientes. Estas unidades deben ser comparables, manteniendo los mismos inputs, en diferentes cantidades y producir los mismos outputs, también en iguales o distintas cantidades. Al evaluar la eficiencia relativa de una unidad específica, el método DEA considera las condiciones más favorables. El método DEA aplica diferentes pesos para cada una de las distintas unidades porque quiere lograr ubicar a la unidad en evaluación en un contexto favorable y si en ese contexto resulta ineficiente, significa que en cualquier realidad será ineficiente. En este modelo de forma envolvente que es DEA, tal como ocurre en problemas de programación lineal, encontramos que para el modelo del problema lineal original (primal) existe otro modelo lineal asociado, denominado problema dual que puede ser utilizado para determinar la solución del problema primal. Los modelos DEA pueden clasificarse en función de: a) el tipo de medida de eficiencia que proporcionan: índices radiales y no radiales b) la orientación del modelo: Input orientado, Output orientado e Input-Output orientado c) la tipología de los rendimientos a escala que caracterizan la tecnología de producción, que son procedimientos técnicos en que los factores productivos (Inputs) son combinados para obtener un conjunto de productos (Outputs). Esta combinación puede caracterizarse por la existencia de rendimientos a escala: constantes o variables a escala. (Coll Serrano y Blasco, 2006). a) * Los índices radiales miden la máxima reducción equiproporcional de los insumos para cada unidad, comparada ésta con el proceso productivo eficiente que conforma la frontera del conjunto de posibilidades de producción (Debru, 1951; Farrell, 1957 cit.ob en Sarmiento 2007). * Los índices no radiales calculan la máxima reducción que es posible alcanzar en los insumos, manteniendo inalterado el vector de productos. Si la reducción es para un solo insumo se denomina slack (Färe y Lovell, 1978, cit. ob Sarmiento 2007). b) * Input orientado: dado el nivel de Outputs, se busca la máxima reducción proporcional en los Inputs, permaneciendo en la frontera de posibilidades de producción. Se considera que una unidad no es eficiente si es posible disminuir cualquier input sin alterar los outputs. * Output orientado: dado el nivel de Inputs, se busca el máximo incremento proporcional de los Outputs, permaneciendo en la frontera de posibilidades de 12 producción. Se considera que una unidad no es eficiente si es posible incrementar cualquier output sin incrementar ningún input y sin disminuir otro output. (Coll Serrano y Blasco, 2006) * Input-Output orientado: en ellos tanto los Inputs como los Outputs son controlables, buscan simultáneamente la reducción de los Inputs y la expansión de los Outputs en forma equiproporcional. c) * Rendimientos constantes a escala (CRS): cuando el incremento porcentual del Output es igual al incremento porcentual de los recursos productivos. * Rendimientos variables a escala (VRS): Rendimientos crecientes a escala (IRS) o economías de escala: cuando el incremento porcentual del Output es mayor que el incremento porcentual de los factores. Rendimientos decrecientes a escala (DRS) o deseconomías de escala: cuando el incremento porcentual del Output es menor que le incremento porcentual de los Inputs.(Coll Serrano y Blasco, 2006) CONSIDERACIONES FINALES La muestra seleccionada del grupo de empresas constructoras de la ciudad de Resistencia, provincia del Chaco, dedicadas a la Obra Pública, será sometida al análisis de comparación con respecto a aquellas empresas consideradas eficientes, para luego detectar cuales son los factores que ocasionan las ineficiencias y cómo pueden corregirse al compararlos con los de las entidades de referencia, esto es, las mejores de su sector. Por lo expuesto y después de un exhaustivo análisis de la bibliografía existente, el grupo de investigación considera que el método DEA es el adecuado para el proyecto, ya que constituye un instrumento de análisis de la eficiencia relativa de las empresas, permitiéndonos ordenarlas según su grado de eficiencia. Además, discurriendo que el benchmarking es un proceso continuo, que se usa en el planeamiento estratégico de las compañías, donde se toman como referentes a empresas líderes de cada industria como modelo, utilizando sus mejores prácticas como un estándar comparativo al cual llegar o bien superar, consideramos el modelo DEA como el más adecuado porque posibilitará la orientación de políticas internas y procesos de toma de decisiones de las empresas. PERSPECTIVAS El modelo DEA se aplicará para medir la eficiencia de las empresas de la muestra seleccionada y los datos para dicha aplicación serán proporcionados por el Registro de Empresas Constructoras de la Subsecretaría de Obras Públicas del Chaco. En el momento de la aplicación del modelo resultará interesante la utilización de la herramienta del software Excel – Solver- como contribución de la tecnología al ámbito productivo de las empresas. BIBLIOGRAFÍA ACKOFF, Russell L. y SASIENI, Maurice W. Año 1.991. ―FUNDAMENTOS DE INVESTIGACION DE OPERACIONES‖. Octava Edición. Editorial LIMUSA, GRUPO NORIEGA. México D. F. ARYA, Jagdish y LARDNER Robin. Año 1.985. ―MATEMATICAS APLICADAS A LA ADMINISTRACION Y A LA ECONOMIA‖. Segunda Edición. Editorial Prentice-Hall Hispanoamericana, S.A.México. 13 BUDNIK, Frank S. Año 1.990. ―MATEMATICAS APLICADAS PARA ADMINISTRACION, ECONOMIA Y CIENCIAS SOCIALES‖. Tercera edición. Editorial McGraw-Hill. México. CORTÉS LÓPEZ, Juan Carlos; JÓDAR SÁNCHEZ, Lucas; ROSELLÓ, FERRAGUD, María Dolores; VILLANUEVA MICÓ, Rafael Jacinto. Junio del 2.004. ―PROBLEMAS Y MODELOS MATEMÁTICOS PARA LA ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS II‖.- Libro Docente con ISBN: 8497056221. Biblioteca de la Universidad Polotécnica de Valencia. España. CORTÉS LÓPEZ, Juan Carlos; JÓDAR SÁNCHEZ, Lucas; ROSELLÓ, FERRAGUD, María Dolores; VILLANUEVA MICÓ, Rafael Jacinto. Mayo del 2.005. ―PROBLEMAS Y MODELOS MATEMÁTICOS PARA LA ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS III‖.- Libro Docente con ISBN: 8497058178. Biblioteca de la Universidad Polotécnica de Valencia. GAITHER, Norman y FRAZIER, Grez. Año 1.999. ―ADMINISTRACIÓN DE PRODUCCIÓN Y OPERACIONES‖. Soluciones Empresariales. México. HERMIDA, Jorge; SERRA, Roberto y KASTIKA, Eduardo. Año 1.992. ―ADMINISTRACIÓN Y ESTRATEGIA‖. Cuarta Edición. Ediciones MACCHI. Buenos Aires. HILLER, Frederick S. y LIEBERMAN, Gerald J..Año 1.993. ―INTRODUCCION A LA INVESTIGACION DE OPERACIONES‖. Quinta Edición. Editorial McGraw-Hill/ INTERAMERICANA DE MEXICO, México D. F. KOONTZ , Harold y WEIHRICH, Heinz. Año 1.991. ―ELEMENTOS DE ADMINISTRACIÓN‖. Quinta edición. EDITORIAL Mc GRAW HILL. México. TAHA, Hamdy. Año 1.995. ―INVESTIGACION DE OPERACIONES‖. Quinta Edición. Editorial ALFAOMEGA GRUPO EDITOR. México D. F. TARO, Yamame. Año 1.965. ―MATEMÁTICA PARA ECONOMISTAS‖. Edición en castellano. Editorial Ariel S.A. Barcelona, España. THOMPSON, Strickland. Octubre del 2004. ―ADMINISTRACIÓN ESTRATÉGICA, TEXTOS Y CASOS‖. 13ª Edición. Mc Graw Hill. México. WEBER, Jean E. Año 1.984. ―MATEMATICAS PARA ADMINISTRACION Y ECONOMIA‖ Cuarta Edición. Editorial Harla. México. Antecedentes de Tesis realizadas sobre el tema ESPINOSA PASCUAL, Juan María. Año 2.005. ―Los Costes de la no Calidad en Empresas Constructoras‖, Universidad De Burgos. Escuela Politécnica Superior. 18/04/2005.www.ubu.es/estudios/pr-docto/T_26.doc. ROSADO, Carlos Alberto y LIERAS, Juan Andrés. Año 1.996. ―Políticas de Empresas en la Industria de la Construcción‖. Autores: -Universidad de los Andes, Centro de Estudios e Investigaciones de la Facultad de Ingeniería.- Santa Fe de Bogotá. Marzo de 1.996. Nº:247.www.revistaing.unidades.edu.co/revBart7.CASTOREÑA, David. Julio del 2.004. Universidad de George Washington. www. homepages.mty.itesm.mx/guemes/Home.html - 7k – PALACIOS GARCÍA, Jaime E. ―Propuesta Metodológica para evaluar el Desempeño en Costos y Tiempos de Proyectos de Construcción‖. -Universidad de los Andes, Centro de Estudios e Investigaciones de la Facultad de Ingeniería.-Santa Fé de Bogotá. Marzo de 1.996. Nº243.www.revistaing.unidades.edu.co/revBart7.COLL SERRANO, Vicente y BLASCO, Olga María – Año 2006.-―Evaluación de la Eficiencia Mediante el Análisis de Envolvente de Datos-Introducción a Modelos Básicos‖.-Universidad de Valencia. valencia-Españ[email protected]; [email protected] PELLICER ARMIÑANA, Teresa. Año 2003. ―La gestión en Empresas Constructoras. Análisis, Diseño y Desarrollo de un Modelo de Control‖.-Universidad Politécnica de Valencia. España. www.cibernetia.com/tesis_es/ciencias_economicas SARMIENTO P., Miguel. Año 2007. ―Eficiencia en la Banca Central Moderna: teoría, Evidencia y Lecciones para América Latina‖. Ciclo de Conferencia de Banca Central del Banco Central de Ecuador. Quito. Ecuador 14 ATOMOS Y VIDA Ing. Emilio A. García Solá* * El ingeniero Emilio García Solá, ex Decano de la Facultad de Ingeniería, es actualmente profesor titular de la cátedra de Química y Director del Departamento de Físico-Química. ------------ º ------------- Creo de interés comentar con la mayor sencillez posible, el maravilloso proceso que desde lo inanimado, los átomos, condujo a la Vida, los entes autónomos capaces de abastecerse, crecer y reproducirse. No tienen las Ciencias una respuesta categórica a este milagro sucedido en la Tierra. Sin embargo la Química, sus ramas Orgánica y Biológica, la Termodinámica y las teorías de la Evolución, han podido dar explicaciones de las etapas por las que pudo ocurrir la aparición de moléculas vivas. Algunos autores las consideran con mayores fundamentos que las que nos dan su visión sobre el comienzo del Universo a partir del Big Bang.Los átomos necesitan del azar para encontrarse y formar moléculas, pero no es solo el errático azar el que lo determina, como si fueran diminutas piedritas de colores diferentes que se acomodan .Hace falta desplieguen su afinidad química proveniente de su estructura y que conduzca a agrupaciones mayores: moléculas. Las uniones que lo posibilitan, pueden ser covalentes, electrovalentes o mixtas entre los átomos,; ser fuertes, débiles ,de mediana intensidad o tenues ,rígidas o flexibles El átomo de Carbono en particular, tiene una estructura de cuatro electrones externos desapareados ,que posibilitan muchos tipos de uniones: incluyen la formación de cadenas con otros átomos de carbono (concatación) y multitud de combinaciones posibles con otros elementos: ,hidrogeno ,oxigeno, nitrógeno ,fósforo, etc.,que lo hacen el elemento esencial de las moléculas orgánicas . Las moléculas se asocian por puentes de hidrógeno, uniones de Van del Wall, uniones di-ester. La Termodinámica química las estudia, determina la energía de cada tipo de enlace y la necesaria para su ruptura y las leyes y principios a que deben ajustarse para formarse o disociarse las sustancias A ellos debieron respetar las uniones ocurridas en una Tierra distinta a la actual: Un planeta en formación con mares tumultuosos, calientes .turbios ,cargados de átomos livianos, recibiendo radiaciones intensas y energías variadas, que provocaban multitud de reacciones de composición y descomposición de substancias, muchas de ellas catalizadas por detritos arcillosos marinos ,hicieron posibles uniones complejas. De las aguas marinas pudieron formarse lagunas poco profundas y pantanos y allí, en ambiente mas calmo, surgir pequeñas gotas que encerraban moléculas protegidas por la membrana exterior de otro tipo de sustancias y que permitía un intercambio selectivo con el exterior. Un enclaustramiento muy propicio se había desarrollado para permitir un proceso selectivo. En busca de estabilidad y permanencia, debió actuar la evolución a nivel molecular, desechando moléculas inútiles y propiciando el surgimiento de aptas, capaces de repetirse y replicarse. La evolución actúa muy lentamente y debieron pasar millones de años para producirse cambios, y dar origen a que las gotitas se fraccionaran ; fueron ya células procariotas con algo similar al ARN , capaces de abastecerse y reproducirse ,y 15 formaron virus ,bacterias y las maravillosas algas verde-azuladas ,generadoras de oxigeno por fotosíntesis. El oxigeno depuró la atmósfera hostil y como ozono fue un escudo en las alturas. Devueltas a aquellos mares, y protegidas en sus profundidades de las mortíferas radiaciones, pudieron multiplicarse de a billones y billones y más tarde dar lugar a células más grandes, las eucariotas, con núcleos que contenían ADN y estructuras variadas, que constituyeron los seres vivos más complejos. Concurrió a la diversidad la aparición de la sexualidad surgida con la evolución. En los últimos 150 años las experiencias, determinaciones e hipótesis de muchos investigadores han aportado los conocimientos que hoy poseemos, que fundamentan lo expuesto. En 1864 se aisló el núcleo de células, mas tarde se identifico una sustancia ―nucleína‖, común a células animales y vegetales, compuesta por aminoácidos y proteínas. Se determino en 1956, con el experimento del joven Stanley Miller, que podían producirse aminoácidos de mezclas simples de metano, amoníaco( NH3),agua e hidrogeno, si se las sometía en laboratorio a descargas eléctricas intermitentes, imitando condiciones parecidas a las de la Tierra primitiva. Fue el inicio de experiencias de mayor complejidad que probaron que se podían obtener aminoácidos más complejos de mezclas de gases simples, e incluso proteínas y polímetros que existen en células de seres de ambos reinos y que son, componentes del ARN( ácido ribonucleico) y el ADN (ácido desoxirrbonucleico) Se determino su composición de cadenas de azucares y fosfatos ,entre las cuales se ubicaban 4 bases nitrogenadas: Citosina(C ),Guanina(G,)Adenina(A)Timina(T) en el ADN y reemplazada T por Uracilo (U) en el ARN unidas por puentes de hidrogeno de a pares .(algunos estudiantes usan para recordar como se complementan, la reglita nemotécnica: Carlos Gardel y Aníbal Troilo, por sus primeras mayúsculas). La alternancia de las bases nitrogenadas a lo largo de las cadenas, definen códigos, que respetados en la unión de átomos, llevan a la reproducción de la larga molécula inicial y a la definición de la genética. 16 Dos físico-biólogos a fines del siglo XX ,propusieron un macro- modelo, con alambre y cartón, para los polímetros ADN Y ARN ,que mostraba su posible estructura y respondía a las propiedades y versatilidad adecuadas para ser deposito o almacenamiento ,y el transmisor de información genética de las células necesarias para cada tejido y organismo de seres vivos animales o vegetales. Modelo de ADN Un humano necesita cientos de células diferentes para su nacer y desarrollo: epiteliales, hepáticas, musculares, óseas, etc .compuestas por proteínas diferentes. El ARN es un polímero de una sola cadena, mientras que el ADN es bicadenado, con un peso molecular del orden de 6 millones ,mas estable y se presenta en bastoncitos de unos 3000 Aº. El ARN es mas funcional y simple e interviene en la copia del código ,su traducción a un código proteico( arreglos con repetición de las 4 bases ,tomadas de tres) y su transporte como mensajero , hasta un pequeño órganulo celular ,el ribosoma ,que ordena los aminoácidos en proteínas que necesita cada tipo de célula .Dando un ejemplo simple el código GCA da alanina,el CUA leucina,el CCA profina ,el ACA treonima, que ordenados en el ribosoma dan la proteina sintetizada 17 Actualmente a través de su modificación, por métodos físicos y químicos, el hombre es capaz de alterar el código genético para combatir enfermedades, mejorar especies y también provocar males y problemas. Finalizamos comentando que hay científicos que afirman que la Vida pudo llegar desde el espacio exterior, basados en el hallazgo de materia orgánica en metereoritos .La gran mayoría cree que la maravillosa Vida, se inicio en la Tierra, en nuestros mares primitivos y lagunas circundantes, que ofreció las condiciones apropiadas para que existiera agua líquida y retención de una atmósfera gaseosa ;no desechan la posibilidad que ello pueda ocurrir en otros cuerpos celestes del Universo. Bibliografía: -Paciencia en el azul del cielo –Herbert Reeves. Ciencia Abierta. Izquierda y derecha en el Cosmos-Martin Gardner .Biblioteca científica Salvat. La historia mas bella jamás contada de Herbert Reeves., Editorial Andres Bello. Carbonolito-Creación y vidas –E.García Solá-Ediciones Krant. www.Wikipedia.com/ Acido desoxirribonucleico. 18 LA MATEMÁTICA, LA FISICA Y LAS TECNICAS CONSTRUCTIVAS Por el Dr. Ing. Mario Bruno Natalini * * El Dr Ing. Mario Bruno Natalini, ex Decano de la Facultad de Ingeniería, es actualmente profesor titular de la cátedra Hormigón Armado II y Director del Instituto de Estabilidad. RESUMEN Desde tiempos remotos, los constructores han tenido la inquietud de cubrir grandes espacios sin colocar columnas y una estructura que se adapta especialmente para ese fin, es la cúpula de revolución, superficie de curvatura total positiva, que tiene la particularidad de ser siempre el funicular de las cargas. Esto no se sabía en la antigüedad, pero la intuición, el ingenio y la audacia fueron suficientes para crear las grandes obras arquitectónicas: el Panteón de Agripa, la basílica de Santa María dei Fiori, la iglesia de San Pedro en Roma con diámetros de alrededor de 40 m y espesores de 4 m o mas. Con el advenimiento de los nuevos materiales y el desarrollo de la matemática y la mecánica, se produjo una reducción sistemática de espesores hasta llegar a valores entre 6 y 10 cm. y 100 m de diámetro en construcciones de hormigón armado y cerca de 180 m de diámetro para reticulados espaciales de acero.- INTRODUCCION En la Edad antigua, que se inició alrededor de 4000 años a.c. con las civilizaciones asiriobabilónica y egipcia, los conocimientos de aritmética se limitaban a suma, resta, multiplicación, división y ecuaciones simples En geometría, cálculo de áreas, volúmenes y rudimentos de trigonometría que permitieron a los Faraones construir las pirámides, de las cuales se conservan hoy alrededor de 80 a lo largo del río Nilo. En la Foto 1, figuran las tres pirámides de Gizeh, construidas alrededor de 2570 .a.c., donde la mayor mide 230 m de lado por 146 m de altura.(Foto 1) En esa época, los materiales usuales eran madera, piedra, ladrillos y mortero de cal Foto 1.-Pirámides de Gizeh [1] 19 Alrededor de 1500 a.c. Amenothep y Ramses II edificaron los templos de Luxor y Karnac (Foto 2). Se observa que estas construcciones son pesadas y ocupan grandes volúmenes de material. Las columnas están muy próximas y las vigas de piedra no son elementos aptos para soportar las tracciones en los esfuerzos de flexión. Foto 2.- Templo de Luxor [2] Los griegos, a partir de aproximadamente 1000 años a.c, asimilaron los conocimientos de matemática que poseían los egipcios Se desarrollaron los principios de la física y 600 a.c con Tales de Mileto .comienza la era dorada: Pitágoras, Aristóteles, Arquímedes y especialmente Euclides, alrededor de 300 a.c, con sus 10 libros El Partenón es un ejemplo de la arquitectura de esa época, donde subsisten los mismos elementos que en Egipto: grandes columnas y vigas cortas (Foto 3). Foto 3- Partenón-Grecia [2] 20 Se planteaba ya un problema: como cubrir un gran espacio sin colocar columnas intermedias. Antes de iniciarse la civilización helénica, apareció por el año 2000 a.c la civilización cretense y posteriormente la ciudad-estado de Micenas en el norte de Grecia, donde se construyó una cúpula con un diámetro de 14,5 m : el Tesoro de Atreo (Foto 4). Se colocaban hiladas sucesivas de mampuestos de piedra apilados desde la base hacia el centro. Este mismo sistema fue adoptada por los esquimales para construir los ―iglú‖ (Foto 6). Foto 4.- Vista interna desde la base de la cúpula del Tesoro de Ateo hacia arriba [3] Foto 5.- Vista interna desde la base de la cúpula del Tesoro de Ateo [3] 21 Foto 6.- Construcción de un Iglú. [2] En la Antigua Grecia, hacia el año 500 a.C., se mezclaban compuestos de caliza calcinada con agua y arena, añadiendo piedras trituradas, tejas rotas o ladrillos, dando origen al primer hormigón de la historia, usando tobas volcánicas extraídas de la isla de Santorini. Los antiguos romanos emplearon tierras o cenizas volcánicas, conocidas también como ―puzolana‖, que contienen sílice y alúmina, que al combinarse químicamente con la cal daban como resultado el denominado cemento puzolánico (obtenido en Pozzuoli, cerca del Vesubio). Introduciendo en su masa jarras cerámicas o materiales de baja densidad (piedra pómez) obtuvieron el primer hormigón aligerado.1 Con este material se construyeron sobre todo tuberías e instalaciones portuarias de las cuales se han encontrado restos hasta el día de hoy. Durante el Imperio Romano de Occidente, en el año 27 a.C, el emperador Augusto encargó al general Agripa la construcción del Panteón que hoy se conoce como Panteón de Agripa dedicado a los dioses. Fue destruido por un incendio y en el año 128 el emperador Adriano lo reconstruyó, agregándole la cúpula de 43,40 m de diámetro. Se supone que quien proyectó la cúpula fue Apolodoro de Damasco (Fotos 7 , 8 y 9) 22 Foto 7.- Corte del panteón de Agripa Foto 8 Vista interior del Panteón de Agripa [2] 23 La construcción se hizo por anillos concéntricos hasta llegar a la cúspide, que se cerró con un anillo de bronce de 8,90 de diámetro por donde entraba la luz y el agua cuando llovía. Se construyeron dos cúpulas, una dentro de la otra, que se sostenían mediante refuerzos sin andamiaje interno. El hueco fue rellenado con mortero de puzolana con trozos de ladrillos. El espesor de la cúpula en la base es de 5.90 m y en la cúspide se afinaba hasta 1,50 m Foto 9.- Alzado y sección del Panteón de Agripa [4] La cúpula se asienta sobre un cilindro construido con puzolana y cascotes de ladrillo Dentro el mismo había 8 columnas de 6 m de diámetro y entre ellos arcos de descarga que transmitían el peso a las columnas En el año 326 el emperador Constantino construyó la iglesia del Santo Sepulcro, que fue destruida en el 614 por los persas y reconstruida por los Cruzados en 1144 (Foto10) Foto 10.- Iglesia del Santo Sepulcro (en la actualidad) [5] 24 En el Islam se destacó la Cúpula de la Roca construida en Jerusalén entre 687 y 691, que tenía un diámetro de 21,37 m y fue ejecutada en madera, que la hace más liviana y además puede resistir esfuerzos de tracción. La cúpula descansa sobre un cimborrio o tambor cilíndrico que sirve de transición a la base octogonal. Cada uno de los vértices del octógono está orientado según los puntos cardinales, y el extradós está cubierto por láminas de cobre pulido y dorado que, al reflejar los rayos solares, convierte a este edificio en uno de los más hermosos de Jerusalén. (Foto 11) Foto 11 Cúpula de la Roca [4] En el siglo XV, Filippo Brunelleschi fue encargado de construir la cúpula de la basílica de Santa Maria dei Fiori (lirio) de Florencia, quien inspirándose en el Panteón de Agripa diseñó una cúpula de doble pared con mampuestos de ladrillos. Tiene 41 metros de diámetro interior, 45,5 metros de diámetro exterior y pesa: 37000 toneladas. No es una cúpula esférica, sino que está compuesta por una cúpula octogonal interna y otra externa peraltada (arco apuntado) que tiende a abrirse arriba y presionar abajo sobre la otra cúpula, para canalizar las cargas verticales y evitar que se abra en la base (Fotos 12 y 13) 25 Foto 12.- Cúpula de Santa María dei Fiori `[4] Foto 13.- Vista de la mampostería de ladrillo de la cúpula de Santa María dei Fiori [4] Michelangelo di Ludovico Buonarroti, escultor, arquitecto y pintor, no estaba familiarizado con la matemática y se valió de su intuición para desarrollar sus obras. En el siglo XVII el Papa le encargó el diseño de la cúpula de la Basílica de San Pedro en Roma, de 43 m de diámetro interno y un espesor de 2,50 m Después de su muerte, Giacomo Della Porta y Domenico Fontana ,alrededor de 1590, levantaron la cúpula, que pesaría 10000 toneladas (Foto 14 y 15) (Fig.1) Si bien Miguel Ángel sospechaba que podría haber efectos de tracción en la base, no tenía herramientas para asegurarlo. Por eso, trató que la cúpula fuera pesada, para que si había 26 esfuerzos horizontales se encauzaran hacia la vertical. Además, agregó nervaduras y contrafuertes por si acaso. En 1742 aparecieron grietas y fisuras en el anillo de base y el Papa decidió consultar a tres monjes matemáticos: Lesseur, Jacquier y Boscowic, que conocían las leyes del equilibrio Determinaron que existían empujes horizontales en el anillo de base que provocaron las grietas y si no se manifestaron antes fue porque el peso de la cúpula producía un efecto grande de rozamiento que frenaba esa fuerza horizontal. Pero a través del tiempo, las tormentas y el tráfico de carros en la calle, generaron vibraciones que disminuyeron el rozamiento separando la cúpula de la base. La solución que adoptaron fue premonitoria, por cuanto rodearon la base con tres vueltas de cadena de hierro que recubrieron con una mezcla de cemento puzolánico. Sin saberlo, habían inventado el hormigón armado. Foto 14.Vista interior de la cúpula de San Pedro [4] Foto 15 Vista exterior de la Cúpula de San Pedro [4] EVOLUCION DE LA TECNOLOGIA 27 Pasemos ahora al siglo XX, en 1925, cuando el Ing. Franz Dischinger construyó en Alemania una cúpula de hormigón armado de 40 m de diámetro, espesor de 0,06 m y peso de solamente 350 toneladas (Fig. 2). No era ya una semiesfera, sino un casquete esférico, que sería la forma que prevalecería en adelante, salvo casos especiales como Planetarios. CUPULA SAN PEDRO - ROMA Q = 10.000 t MAMPOSTERIA 2 Fig. 1. Corte de la Cúpula de San Pedro 6 cm CUPULA HORMIGON (DISHINGER) 1925 Q = 330 t FIG 2- Corte de la cúpula de hormigón armado [6] ¿Que sucedió entre 1742 y 1925 para que la construcción pesada se transformara en liviana? En esos 333 años se inició la gran revolución científica de los siglos XVIII y XIX. En el campo de los materiales, el hierro era conocido por los egipcios 3000 a.C. y una especie de acero se fabricaba en 1400 a.C.- En España, en el siglo IV, se forjaban armas y en China, entre 220 a.C. y 220 d.C., se usó el acero en diversas formas. Pero recién en 1740 el inglés Huntsman redescubrió el acero y en 1856 Bessemer inventó el horno, hasta que en 1857 Siemens produjo el acero en la forma que se utiliza en la actualidad. De allí surgió el auge de las construcciones metálicas y las de hormigón armado con barras circulares de acero. Si bien se conocía el cemento natural ―puzolana‖ que usaron los romanos, en 1824 Aspdin produjo el cemento Pórtland, en 1835 Lambot construyó una barcaza de hormigón y en 28 1867 Monier construyó el primer elemento de hormigón armado con barras de acero. En 1885, Koenen desarrolló la primera teoría del hormigón armado. Pero para utilizar esos materiales en una construcción racional, se necesitó el desarrollo de la matemática: Napier, Descartes, Pascal, Newton, Leibnitz, DÁlembert, Lambot Ruffini, Laplace, Pero también fue fundamental el planteamiento de la mecánica (estática, cinemática, dinámica). Ya Arquímedes (287ª a.C) había iniciado esta disciplina, que recién fuera continuada por Stevinius en el siglo XVI. Posteriormente Galileo, Hooke, Newton, Cullmann, Mariotte, Bernouilli, Euler, Coulomb, Young, Navier, Saint Venant, etc. le dieron forma a la teoría de la elasticidad a partir de la cual se realizaron las grandes obras de acero y hormigón armado Fig.3.- Cúpula de revolución [6] Cuando se trata de láminas delgadas con espesores entre 6 cm y 10 cm, se puede aplicar la Teoría membranal, por la cual se desprecian los momentos flectores, momentos torsores y esfuerzos de corte en la superficie de la lámina, permaneciendo solamente esfuerzos normales y tangenciales que actúan en la superficie media. (Fig.3). En el caso de la cúpula esférica de revolución sometida a su peso propio solamente existen los esfuerzos N1 y N2 según los meridianos y paralelos 29 Fig. 4.- Corte transversal de la cúpula [6] En fig. 4 se presenta un corte transversal de la cúpula Las fórmulas matemáticas que determinan esos valores son N1 = Q/ 2 π R sen2 θ a lo largo del meridiano N2 = R. g /1 + cos θ - cos θ .R. g a lo largo del paralelo Q: carga de peso propio total (N) g carga repartida (N/m2) En Fig. 5 se muestra un ejemplo de cálculo de una cúpula semiesférica sometida a su peso propio, con un diámetro de 64 m .Los esfuerzos NI y NII están en Kg/m. 30 Fig. 5.- Ejemplo de cálculo de una cúpula [6] En la mitad izquierda se grafica la variación de N1 en el meridiano y en la mitad derecha la variación de N2 en los paralelos. Los valores de N1 son siempre positivos (compresión), pero los valores de N2 son de compresión hasta un θ = 51º 50´ cambiando a tracción en el resto hasta el borde. Esto significa que los paralelos inferiores están traccionados y deben colocarse barras de acero para absorber este esfuerzo Si se usa el casquete esférico para un ángulo de 30º, se observa que los esfuerzos en los paralelos son todos de compresión. Sin embargo, para que exista equilibrio, la suma de las acciones horizontales debe ser 0. Por tal motivo, el último paralelo debe estar traccionado. En Fig. 4, el esfuerzo NI del meridiano tiene una componente horizontal que si actúa cada metro, hace que el paralelo tienda a abrirse, es decir estará sometido a un esfuerzo de tracción. Como todo esto no se conocía en el siglo XIX, las tracciones en el último paralelo la absorbían por el gran peso de la cúpula que detenía la deformación por el rozamiento con la base. Dishinger hizo otras cúpulas como la de Planetario de Jena (Foto 16) de 6 cm de espesor y 25 m de diámetro y el Market Hall en Leipzig, de 8 cm de espesor y 65,8 m de diámetro (Foto 17) 31 Foto 16.-Planetario de Jena [7] Foto 17.-Market Hall [8] Foto 18.- Cubierta perforada [6] 32 Foto 19.- Sala de exposiciones [6] En la Foto 18 se ve una cúpula con perforaciones laterales, formando arcos inclinados que llevan los esfuerzos a tierra y en la Foto 19 la cúpula rebajada está apoyada sobre una viga circular que absorbe las tracciones. Las columnas están muy cercanas porque resisten el esfuerzo vertical, pero al mismo tiempo el peso de la viga de borde. Aquí se ve una semejanza con las construcciones griegas o egipcias, pero con un criterio diferente. Se trata de no hacer funcionar la viga de borde a flexión, con lo cual se incrementaría mucho la sección y el peso. No solamente se usaron láminas de hormigón armado, sino también reticulados espaciales adoptando la forma de cúpulas de revolución, que permitió llegar a diámetros de hasta 200 m El OSAKA Dome en Japón, posee una cúpula reticulada formada por triángulos de barras de acero de doble capa y tiene un diámetro de 134 m (Foto 20). El espesor es el de las barras más el recubrimiento de material plástico, que no supera los 0,60 m Capacidad: 55000 personas. En Foto 21 se explica la elevación de la cúpula construida en el suelo y elevada hasta su posición. Foto 20.- Osaka Dome-Japón- Corte y vista de la viga perimetral [9] 33 Foto 21.- Osaka Dome.- Izamiento de la cúpula.[9] El NAGOYA Dome, en Japón, posee una cúpula que es también un reticulado espacial con un diámetro de 187,20 m, construido en 1998, con capacidad para 40500 espectadores, destinado especialmente a cancha de baseball. (Foto 22) La geometría del reticulado está formada por triángulos de barras de acero soldadas de 0,65 m de diámetro y espesores que varían entre 0,019 y 0,028. El anillo de borde lleva caños de 0,95 m de diámetro y 0,05 m de espesor. (Foto 23) 34 Fotos 22 y 23 [10] El Ing. Pier Luigi Nervi diseñó y construyó en el año 1957 el Palazzetto dello Sport en Roma, usando reticulados de hormigón (Foto 24). Tiene 60 m de diámetro y puede albergar a 5000 espectadores. En lugar de colocar un anillo inferior para absorber las tracciones, ubicó 48 soportes inclinados tangentes a la cúpula que absorben directamente los esfuerzos de los meridianos. Se utilizaron 1690 elementos prefabricado de 19 tamaños diferentes de forma romboidal, cajones de ferrocemento de 2,5 cm. de espesor doblados hacia fuera en los bordes para formar las vigas curvas que se observan desde el interior (Foto 25). Estos cajones se colocaron sobre el encofrado de madera con el hueco hacia abajo y se rellenó con mortero de cemento el hueco entre cajones formándose una losa superior. Esta obra fue considerada una obra de arte, por la composición interior de la cúpula con la trama producida por las nervaduras y se la comparó con la cúpula de San Pedro Foto 24.- Vista exterior del estadio [11] 35 Foto 25.- Inicio de la construcción colocando las columnas [11] Foto 26. Colocado el encofrado, ubicación de elementos prefabricados de hormigón [11] Foto 27.- Ingreso al estadio [11] 36 Foto 28.- Vista interior del estadio [11] Foto 29.- Borde interno [11] 37 Foto 30.- Vista interna de la cúpula desde un costado [11] En 1959 el Ing. Nervi proyectó y diseñó el Palazzo dello Sport en Roma, para 16000 espectadores destinado a eventos deportivos. El diámetro es de 100 m y el sistema de construcción es diferente al anterior (Foto 31). La cúpula se construyó con vigas en V prefabricadas de 0,50 m de alto, por 4,50 m de largo y 0,03 m de espesor de ferrocemento, con una losa superior de 0,09 m de espesor (Foto 32). Se colocaron en forma radial desde el borde hasta la cúspide. (Foto 33). Foto 31.- Palazzo dello Sport –Roma [12 ] 38 Foto 32.-: Vista interior del Palazzo dello Sport –Roma [12 ] Foto 33.- Interior del Palazzo dello Sport Roma RESULTADOS OBRA AÑO DIAMETRO ESPESOR MATERIAL PESO 39 FLECHA Tesoro de Atreo. -1250 14,5 m Panteón de Agripa 128 43,40 m Santo Sepulcro 326 (1144) 35 m 5m 5,9 a 1,5 m ? piedra ? 12,50 m mortero de 5000 t puzzolana 21,70 m ? ? 17,50 m madera ? 10,70m Cúpula de la Roca 687/691 21,37 m ? Santa M. Dei Fiori 1440 45,50 m 4,50 m ladrillo 37000 t 25 m San Pedro 1590 43.- m 2,50 m ladrillo 10000 t 21,50m Cúpula de Dishinger 1925 40 m 0,06 m hormigón armado 330 t 7.07 m Market Hall 1930 65,8 m 0,08 m hormigón armado 500 t Planetario 1932 25 m 0,06 m hormigón Armado 200 t 25 m Osaka Dome 1996 134 m cubierta plástica barras de acero 5500 t 38 m Nagoya Dome 1997 187,20 m cubierta de vidrio barras de acero 8000 t 32,95 10 m Palazzetto dello Sport 1957 60 10 cm + vigas ferrocemento 2000 t 6,50m Palazzo dello Sport 1960 100 vigas de 0,50m ferrocemento 4000 t 11,50m Se observa en la TABLA I que en la antigüedad los diámetros llegaban solamente hasta alrededor de 40 m, los espesores eran de varios metros y el peso de la cúpula superaba los cinco dígitos.- En la actualidad, con el advenimiento del acero y el hormigón armado, sumado al desarrollo de la mecánica, los espesores disminuyeron en un 98 %.como también los pesos. No obstante, cuando aumentan los diámetro, vuelven a incrementarse los pesos, pero siempre dentro de los cuatro dígitos. 40 CONCLUSIONES A través de este viaje por la historia de las cúpulas de revolución, se reconoce el esfuerzo de los constructores de la antigüedad, que con los materiales y la técnica disponibles, erigieron verdaderas obras de arte… Sus herramientas fueron la intuición, el ingenio y la audacia puestos al servicio de la comunidad, generalmente para ofrecer lugares de oración a las diversas religiones. Los constructores de hoy, arquitectos, ingenieros, han usado esa forma estructural para otros destinos: estadios deportivos, salas de reuniones, mercados, etc. ―Pier Luigi Nervi concibió formas armoniosas al modelar las estructuras según las fuerzas en el espacio. Para ello aprovechó la expresividad inherente a la estructura y miró al proyecto con la firme convicción de que la obediencia a las leyes de la estática era de por sí la garantía del éxito estético‖ BIBLIOGRAFIA 1.- M.B.Natalini.- Estructuras Laminares. Publicación del Departamento de Construcciones- UNNE 2.- es.wikipedia.org.wiki /Luxor 3.- es.encarta.msn./El Tesoro de Atreo 4.- es.wikipedia.org.wiki/Cúpula 5.- archeology.archivo.com/Israel/Iglesia del santo sepulcro 6.- Martin Kofer. Zeiss Planetarium 7.- en. Structurae/data/index.cfm 8.- Katsumi Hara.- Design and Construction of Osaka Dome- Revista Structural Engineering Internacional- pag. 25/26/27 – febrero1998 9.- Nobuo Sahashi- Long-Span.Lattice Roof for the Nagoya Dome. Revista Structural Engineering International. Pág. 183/184-agosto 1998 10.- Revista Estrutura- Brasil- 1956- Tomo 6 – pág. 262/266 11.- P.L.Nervi- Nuevas Estructuras- Edit. Gili S.A. Barcelona-EspañaPag 66/81.- 1963 12.- A,Gallo.- Diseño de Estructuras- I;C:C. Facultad de Arquitectura- Uruguay T.I y II 13.- V.Hernandez Balat- Proyecto estructural.- 2008 14.- Pflügger- Estática elemental de las cáscaras 15.- Olvera Lopez- Análisis,cálculo y diseño de las bóvedas cáscaras 16.- J.Montoya- Hormigón armado. 41 TRABAJOS FINALES del curso de POSGRADO en ―METODOLOGÍA DE LA INVESTIGACIÓN‖ ---------- º ----------- Los 6 trabajos cuyos extractos se publican a continuación, corresponden al curso de posgrado dictado por la Prof. Mgter. Viviana Aranda Yaccuzzi Polisena y fueron evaluados por las Comisiones designadas al efecto, obteniendo la aprobación correspondiente.- 42 CONTAMINACION LUMINICA Blanca Graciela Latorre Ingeniera Hidráulica (egresada de la Facultad de Ingeniería UNNE – Argentina Profesora de Física I en la Facultad de Ingeniería UNNE [email protected] Hemilce Teresita García Solá Ingeniera en Vías de Comunicaciones (egresada de la Facultad de Ingeniería UNNE – Arg) Profesora de Física I en la Facultad de Ingeniería UNNE [email protected] RESUMEN El crecimiento y desarrollo de las ciudades trajo como consecuencias alteraciones en el medio ambiente, como la desaparición del cielo oscuro, ello nos motivo a la realización de este trabajo. El propósito del mismo es tratar de mejorar la calidad de la iluminación ambiental para disminuir el efecto negativo que la contaminación lumínica produce en el medio ambiente. Analizando las consecuencias y los problemas que se presentan a causa de la contaminación lumínica concluimos que evitarla NO significa ―dejar todo a oscuras‖ sino, iluminar mejor dirigiendo la luz donde es necesaria: el suelo. Palabras claves: contaminación lumínica – iluminación - luminosidad – incandescencia deslumbramiento – intrusión lumínica INTRODUCCIÓN Han mirado el cielo últimamente? El universo está desapareciendo definitivamente para muchos. El universo es una parte importante del ambiente, para la astronomía y para el público en general. Para la mayoría de las personas en la tierra, los cielos oscuros que tenían nuestros antepasados han desaparecido. El problema es el resplandor urbano, debido en su mayor parte a la mala iluminación. Justamente este resplandor mal dirigido en monumentos y viviendas ha sido lo que nos ha llevado a realizar la investigación elegida. Con buena iluminación ganamos todos. Ayudamos a preservar los cielos oscuros, vemos mejor, tenemos un ambiente nocturno más cómodo y agradable, y además ahorramos una gran cantidad de dinero y energía de esa manera. Cada intervención en la naturaleza provoca alteraciones en el medio ambiente, lo que se denomina contaminación, al referirnos a ella relacionamos con algo sucio de mal aspecto o de mal olor en el agua, en el suelo o en el aire. Pero debido al aumento poblacional y al gran desarrollo industrial estamos frente a un tipo diferente y nuevo, esta contaminación no deja vestigios tan evidentes como los casos mencionados anteriormente y especial pues su evidencia física no es tan evidente a primera vista y nos referimos a la contaminación lumínica, ésta dura mientras las fuentes contaminantes permanezcan activas, una vez cesada su actividad los niveles de contaminación bajan. Luminiscencia es la emisión de luz no causada por la combustión y que tiene lugar a temperaturas menores. La contaminación lumínica puede manifestarse de diversas formas, las cuales podemos englobar dentro de las siguientes categorías: Resplandor: Se define como la sensación producida por la luminiscencia dentro del campo visual, que es suficientemente mayor a la luminiscencia a la cual están adaptados los ojos en ese momento, como para causar disconfort, perdida de visibilidad o desempeño visual. Si la fuente de luz, en si es más evidente que aquel elemento que se desea alumbrar, entonces hay una mala iluminación. Invasión de luz: es aquella luz que es distribuida a donde no se necesita o desea. La iluminación de la calle, por ejemplo, debería iluminar calles y veredas, no hacia las ventanas de los dormitorios o a los tejados o techos. Es conocida con el nombre de spill light (luz de rebalse, y ocurre cuando la luz ilumina mas allá de la meta establecida y hacia propiedades adyacentes Luz hacia arriba: es, en todo sentido, luz desperdiciada. Luz que se eleva directamente al cielo y al espacio y no sirve a ningún propósito. La luz hacia arriba es la maldición de los astrónomos y del observador estelar casual, ya que la dispersión atmosférica abrillanta artificialmente el cielo nocturno, haciendo que las fuentes de luz celestiales sean difíciles o imposibles de ver. Iluminación: está definida como la cantidad de luz que se trasmite sobre cierta área .La unidad en el sistema internacional (S.I.) de la iluminancia es el lux que es igual al cociente del flujo luminoso incidente y la superficie iluminada. Luminosidad: Se define como la relación de la intensidad luminosa a la proyección de la superficie iluminada sobre un plano perpendicular a la dirección de los rayos. Es el brillo de un objeto que ha sido iluminado por una fuente. La luminosidad de un objeto depende de las reflectancia y características del material., por ejemplo bajo las mismas condiciones de iluminación un objeto oscuro lucirá más opaco que un objeto brillante. Candela: la intensidad luminosa de una fuente de luz se mide en candelas. Ésta es una unidad fundamental de una magnitud fundamental como es la intensidad luminosa. Las bases históricas de la candela están asociadas con la cantidad de luz emitida por la llama de una vela. Definición de candela en el SI (sistema internacional): es la intensidad luminosa en una dirección dada de una fuente que emite una radiación monocromática de frecuencia igual a 540 × 10 12 Hz (Herz) y que tiene una energía de 1/ 683 W/sr (vatios sobre estereorradián) Lumen: es la unidad de flujo lumínico (potencia lumínica) producido por la fuente y está directamente relacionada con la unidad de intensidad luminosa (candela). Una fuente puntual con la intensidad de una candela producirá un flujo luminoso de un lumen a través de un ángulo sólido de un estereorradián. El lumen puede ser interpretado como el producto del ángulo sólido y la intensidad lumínica, o sea, la cantidad de luz emitida desde una fuente con una cierta intensidad. La luminosidad es distinta a la incandescencia, que es la producción de luz por materiales calentados. El uso excesivo e irresponsable de la energía eléctrica en el alumbrado de exteriores es la causa de una nueva agresión al medio ambiente que amenaza con eliminar la noche, alterando de esta manera el segundo ciclo cósmico fundamental, y este fenómeno ya tiene su nombre : CONTAMINACION LUMINICA. 44 Uno de los aspectos menos divulgados y conocidos de la contaminación lumínica se refiere a su impacto sobre la biodiversidad y el medio ambiente. Este tipo de contaminación es el brillo o resplandor en forma directa o indirecta de la luz en el cielo nocturno producido por el resplandor del alumbrado público y el uso de luces inadecuadas o exceso de iluminación. Se puede ampliar esta definición considerando como Contaminación Lumínica a toda la luz que escapa fuera de la zona que se quiere iluminar, produce un incremento del brillo del fondo natural del cielo. La dispersión hacia el cielo se origina por el hecho de que la luz interactúa con las partículas del aire desviándose en todas las direcciones, este proceso es más intenso si hay partículas contaminantes en la atmosfera o humedad ambiental. Las nieblas o el cielo turbio potencian el efecto y crean una capa de color gris o naranja que causan una nube luminosa sobre las ciudades. Esto tiene una serie de consecuencia que influyen de varias maneras tanto en el medio ambiente como en la vida de los seres y veamos cuales son las más importantes: Una de las consecuencias de este tipo de contaminación es: el deslumbramiento en conductores y peatones por el exceso de iluminación que se produce cuando la luz de una fuente artificial incide directamente sobre el ojo y es más intensa cuando más adaptada a la oscuridad está la visión. Al ser un efecto indeseado, toda la luz que se origina no se aprovecha, además de ser un derroche es un elemento de inseguridad personal y vial. Otro efecto es: la intromisión o intrusión lumínica es cuando la luz artificial procedente de la calle entra por las ventanas invadiendo el interior de las viviendas. Su eliminación total es imposible porque siempre entrará un cierto porcentaje de la luz reflejada en el suelo o en las paredes de los edificios. OBJETIVO Uno de los principales objetivos a alcanzar en el intento de controlar la contaminación lumínica es la mejora de la calidad de la iluminación ambiental. Cambiando el origen y la posición del flujo luminoso disminuiría el efecto negativo en el medio ambiente. Un exceso de flujo luminoso tiene toda una serie de consecuencias perniciosas, como la dificultad de adaptación de la visión al salir del área iluminada, el deslumbramiento dentro y fuera del área en cuestión y la formación de ―cortinas de luz‖ que impiden la percepción del exterior del área a su interior. ¿Por qué combatir la contaminación lumínica? Porque disminuye el consumo energético e indirectamente el consumo de combustibles, protege el medio ambiente nocturno ya que le devuelve a la naturaleza estados de habitat original, al tiempo que protegen las aves y mamíferos nocturnos, se reduce el deslumbramiento de los conductores con lo que se aumenta la seguridad vial, se colabora con la visibilidad nocturna del tráfico aéreo. HIPOTESIS ¿Se debe considerar a esta novedosa forma de contaminación, cuyos efectos son todavía muy poco estudiados, como perfectamente equiparables a la emisión de humos hacia la atmósfera o al derrame de contaminantes en los ríos, porque en el fondo es una emisión de energía producida artificialmente hacia un medio naturalmente oscuro ? DESARROLLO 45 Dicha contaminación lumínica tiene efectos poco divulgados y conocidos y que se refiera a su impacto sobre la biodiversidad de la flora y fauna nocturna que es mucho más numerosa que la diurna y precisa de la oscuridad para sobrevivir y mantenerse en equilibrio en el medio ambiente. La proyección de luz en el medio natural origina fenómenos de deslumbramiento y desorientación en las aves, murciélagos, anfibios, peces, insectos También incide sobre los ciclos reproductivos de los insectos, algunos de los cuales deben atravesar grandes distancias para encontrarse y no pueden pasar por las ―barreras de luz‖ que forman los centros urbanos iluminados. 1. PROBLEMAS QUE SE PRESENTAN A CAUSA DE LA CONTAMINACION LUMINICA a) Se rompe el equilibrio poblacional de las especies, porque algunas son ciegas a ciertas longitudes de onda de luz y otras no, con lo cual las depredadoras pueden prosperar y se produce la extinción de las especies. La flora se ve afectada al ver disminuir los insectos que realizan la polinización de ciertas plantas. Los efectos directos sobre la vida silvestre derivados del exceso en intensidad y rango espectral de la iluminación artificial. Aves, murciélagos, anfibios, peces, insectos ven alterados sus hábitos nocturnos, (reproducción, migraciones) debido a la presencia de potentes focos que rompen con el ciclo natural del día y la noche. Estas circunstancias se ven acentuadas por la importante cantidad de radiación ultravioleta emitida hacia el cielo en los núcleos urbanos. La radiación ultravioleta es invisible para el ojo humano pero muy perceptible para la mayor parte de los insectos nocturnos, como las mariposas y en especial una de ellas la mariposa nocturna Graelisia Isabelae que según expertos aseguran que si dicha mariposa se expone más de diez minutos a la luz de un lámpara pierde su sensibilidad visual y luego de treinta minutos después la recupera. En cuanto a la reproducción, las hembras tienden a concentrar la puesta de huevos en zonas próximas a la luz y esto facilita la depredación y reduce la reproducción. También los científicos explican que los insectos tienen un comportamiento denominado ―vuelo hacia la luz‖ y la iluminación artificial puede producir tres tipos de efectos: El cautiverio o fijación: es cuando el animal se ve atraído por el efecto luminoso e impacta contra lámparas o si no orbita sobre la misma hasta morir. El efecto barrera: es producido cuando la luz artificial interrumpe los movimientos de larga distancia de los insectos. El efecto aspirador: sucede cuando el exceso de claridad hace que estos animales dejen su medio ambiente atraídos por la luz. En la noche sucede la mayor parte de la actividad biológica del mundo salvaje. Al caer el sol, los animales nocturnos despiertan. Todo tipo de clases y órdenes del mundo animal han desarrollado en la noche sus sentidos, aunque viven en la noche negra algunos muestran colores muy llamativos como la rana Arbórea de ojos rojos (Agalichnis Callidryans). Incluso durante la noche, muchas flores producen un fuerte olor para atraer a sus insectos polinizadores. 46 Los murciélagos son ciegos y sin embargo en la noche gozan del más sofisticado radar que algunos comparan con un sistema solar y se ve muy disminuido por el exceso de luz artificial. b) En otro orden de cosas, la emisión indiscriminada de luz hacia el cielo y su dispersión en la atmósfera constituyen un atentado contra el paisaje nocturno al ocasionar la desaparición progresiva de los astros. Algunos de ellos no tienen brillo puntual como las estrellas, sino que son extensos y difusos, como las nebulosas y las galaxias y son los primeros en resultar afectados, nuestra visión depende del contraste existente entre su tenue luminosidad y la oscuridad del fondo del cielo, al producirse la dispersión de la luz se torna gris y esos objetos desaparecen; se puede nombrar un ejemplo de esto, es la desaparición total de la visión del plano de la Vía Láctea que es nuestra galaxia desde los centros urbanos. Debemos alejarnos mucho de los núcleos habitados para encontrar cielos oscuros como para poder observarlo en toda su magnificencia. Al incrementarse más y más el brillo del cielo acaban por desaparecer también de forma progresiva las estrellas con lo que al final solamente las más brillantes, algunos planetas y la luna resultan visibles en medio del cielo urbano que es como una niebla gris anaranjado. c) El modelo luminotécnico vigente prioriza el deslumbramiento porque se basa en la falsa concepción de que el exceso de luz incrementa la visibilidad y los ciudadanos demandan más luz, creyendo de que la seguridad personal aumenta con el exceso de la misma y finalmente resulta todo lo contrario: una persona deslumbrada carece de seguridad es vulnerable a las agresiones físicas y se ve disminuida su capacidad de respuesta en una carretera al no poder sus ojos percibir los detalles inmediatos debido al exceso de la luz mal dirigida. El alumbrado público está diseñado de forma que solamente se aprovecha una parte de la energía lumínica emitida. En general no se ilumina bien y se malgasta luz, el alumbrado funciona más horas de las que son necesarias y, lo que es peor aún, cuando todavía hay luz natural. Como podemos observar la fuente contaminante más perjudicial por los volúmenes de contaminación que conlleva es la luminaria pública en las vías. A continuación, vemos algunos tipos de lámparas 47 d) Otra derivación de este tipo de contaminación es: el sobre consumo que es una consecuencia indeseable e inevitable; si se evitara se ahorrarían porcentajes muy importantes de consumo de energía eléctrica. e) Hay que añadir que la contaminación lumínica, juntamente con la radioeléctrica y la del espacio, representan la más seria amenaza para el progreso de la astrofísica. La dispersión de la luz en la atmosfera altera la calidad del cielo a grandes distancias afectando así las zonas en las que se ubican los observatorios científicos y profesionales. Por esta razón comenzaron las denuncias del peligro que producía la contaminación lumínica para la ciencia astronómica ,a través de la Unión Astronómica Internacional (IUA), fue la UNESCO que estableció una serie de convenios de protección para los laboratorios, se redactaron una serie de recomendaciones de carácter luminotécnico para los distintos estados de la Tierra. Pero no se han tenido en cuenta, en la práctica, con lo cual hoy en día la situación es realmente angustiosa y algunos laboratorios o se han cerrado o se mantienen realizando tareas de observación menor. PROPUESTAS Se puede pensar que este fenómeno es inevitable y que no queda otro remedio que elegir entre frenar el progreso o extender el certificado de defunción del cielo nocturno, pero esto no es así. Solucionar este problema no significa ―dejar todo a oscuras ―sino que lo que se pretende es utilizar menos luz para iluminar mejor. La solución a la Contaminación Lumínica no significa erradicarla porque siempre va a existir un porcentaje de luz que el suelo reflejará hacia la atmósfera y este porcentaje que sea el mínimo posible. No se debe confundir el intento de minimizar la contaminación lumínica con la idea de dejar a las ciudades con una iluminación deficiente, Al contrario, las acciones a llevar a 48 cabo para reducir la contaminación lumínica suelen llevar asociadas mejoras de la calidad de la iluminación ambiental. Para conseguirlo es necesario: Tener en cuenta el impacto del alumbrado en todo nuevo proyecto de urbanización en el momento de sustituir el actual. Incluir criterios ambientales en los pliegos de cláusulas administrativas de obras y cambios de alumbrado. Utilizar las ordenanzas municipales para promover y potenciar la reducción de la contaminación lumínica. Establecer un dialogo entre la municipalidad, las empresas y los particulares para que en la iluminación de los recintos privados, fachadas y carteles publicitarios se atiendan en la medida de lo posible, las normas de reducción de la contaminación lumínica y los criterios de eficiencia en el consumo energético. Condicionar los permisos para nuevas instalaciones industriales, comerciales y de ocio al cumplimiento de las normas y criterios de minimización de la contaminación lumínica. Establecer un control de las instalaciones existentes y diseñar un plan de mejoras del alumbrado con el objetivo de disminuir el consumo y la contaminación lumínica para aumentar la calidad de servicio al ciudadano. No instalar, como norma lámparas que produzcan más luz de la necesaria. Diseñar un plan de iluminación que satisfaga las necesidades del ciudadano, respete el cielo oscuro que necesitan las especies nocturnas y adapte el alumbrado público a las medidas de minimización de la contaminación lumínica para que la naturaleza no note nuestra producción de luz. Incluir en las instalaciones de alumbrado público sistemas de regulación del flujo luminoso con el fin de adecuar el alumbrado a las necesidades reales de su utilización. Restringir el uso de cañones láser dirigidos hacia el cielo desde instalaciones turísticas y de ocio. Utilizar lámparas de bajo consumo y de luz roja en exhibiciones y rótulos publicitarios. Establecer un horario de encendido y cierre de las luces. Apagar las luces exteriores en jardines, exhibiciones y rótulos publicitarios cuando no sean realmente necesarios. En cuanto a los focos, diremos que una buena medida es utilizar las de alta calidad con índices de rendimiento sobre el 60%. Utilizar sistemas de regulación de flujo luminoso que permita reducir la luz y por lo tanto el consumo durante las horas de baja actividad en las calles. Apagar el alumbrado ornamental después de las 23 o 24 horas según la época. No utilizar faroles tipo globo sin pantallas puesto que desaprovechan un 50% de la electricidad que consumen, y al disipar tanto la luz, es necesario emplear lámparas de muchos más vatios para poder iluminar una pequeña porción de suelo. En este sentido, las luminarias de vidrio plano con lámparas de vapor de sodio a baja presión 49 de 35 W producen un flujo luminoso de 4800 lúmenes tienen una eficacia del 67% (ver figura 1) Modificar las instalaciones antiguas siguiendo los criterios de eficiencia energética y de niveles luminotécnicos establecidos. Será necesario utilizar la potencia lumínica necesaria para cubrir las necesidades de las personas sin perjudicar a la fauna. Iluminar hacia el suelo y utilizar una óptica que cree unos conos de luz tan agudos como sea posible para evitar la dispersión de la luz. Utilizar luz roja en lugar de azul o blanca (dado que en la franja del rojo radiaciones superiores a 600 nanómetros, son casi invisibles para la mayoría de los organismos). Evitar las lámparas de mercurio porque son especialmente agresivas para muchas especies de animales, especialmente los invertebrados que son la base alimentaria de otros animales superiores. La aplicación de estas medidas significa una inversión y, por lo tanto, siempre es necesaria la realización de un estudio técnico y económico en cada caso. En este sentido, estudios realizados en proyectos existentes documentan ahorros energéticos asociados a estas medidas que oscilan entre el 20% y el 45% del gasto energético, según el tipo de instalación. Es necesario tener en cuenta que el costo de la energía que consume una instalación de alumbrado público a lo largo de su vida útil suele ser el doble del costo de su instalación. Por lo tanto, las inversiones realizadas para mejorar la eficiencia energética y disminuir la contaminación lumínica serán siempre compensadas con un importante ahorro económico y energético. Por eso, en los casos en los que sea necesario realizar alguna inversión, el ahorro energético que ésta genera hace que dicha inversión se recupere a corto plazo. Fig 1: Adaptación de lámparas para evitar la contaminación En la figura 2 pueden observarse distintas posiciones y ángulos de lámparas: correcta, aceptable e incorrecta según normas básicas del alumbrado. 50 Fig 2: Normas básicas de utilización del alumbrado CONCLUSION Vivimos en una burbuja de luz. Cuando se oculta el sol bajo el horizonte, los núcleos urbanos se iluminan como árboles de navidad y su brillo eclipsa el de las estrellas. Por eso, dos tercios de los habitantes de la Tierra nunca ven el cielo tal cual es. Fenómeno que se agrava en Europa y en los Estados Unidos, donde el cielo jamás es oscuro para el 99% de la población. La Astronomía ha sido una ciencia importantísima en la historia de nuestra cultura ha contribuido al avance de las matemáticas, la física, la computación, la ingeniería, a la ciencia y tecnología en general. Nos conecta con nuestro entorno en el Universo y con nuestras raíces cósmicas. No podemos dejar que el mismo avance cultural y tecnológico que la astronomía ayudo a impulsar, nos prive hoy de poder contemplar las estrellas. Un primer paso en la reducción de los niveles de contaminación lumínica consiste en evitar que la luz llegue directamente al cielo. Para ello es indispensable colocar en las lámparas viseras adecuadas que reflejen la luz hacia el suelo. De esta manera, se obtienen al mismo tiempo una mayor iluminación y se elimina el desperdicio contaminante de luz hacia el cielo. También es importante seleccionar el tipo y la potencia de la lámpara para la finalidad a la cual se destina. Los edificios y monumentos que deban ser necesariamente visibles en las horas nocturnas, deberían ser iluminados desde arriba hacia abajo. Los avisos publicitarios podrían apagarse, por ejemplo después de las 22 hs. En el fondo, estas sencillas medidas son ya capaces de contener los efectos perjudiciales de la contaminación lumínica a pequeña escala ahorrando, simultáneamente, una gran cantidad de energía y de dinero. Las soluciones para minimizar este tipo de contaminación son simples y de bajo costo. Primero, los diseñadores y autoridades deben tener cuidado de usar las luminarias correctas en el lugar correcto. Segundo, los diseñadores deben calcular cuidadosamente la iluminación para asegurar un diseño agradable y eficiente. Los niveles de diseño deberían regirse estrictamente a los estándares establecidos en la legislación local sobre el tema (si existiera). Tercero, los técnicos luminotécnicos deben realizar los cálculos adecuados para las diferentes necesidades, utilizando aparatos reguladores de flujos que, además de reducir 51 el consumo energético, también reducen la contaminación en cantidades superiores incluso al 50%. Una manera para comenzar a frenar de forma efectiva este tipo de polución es nombrar un grupo de trabajo para que estudie el tema de la iluminación externa y recomiende soluciones específicas (incluyendo normativas para el control de la iluminación) ajustadas a las necesidades particulares de cada localidad. Hay un problema y, está empeorando en casi todo el mundo. Sin embargo, hay soluciones y éstas funcionan. También mejoran la calidad de nuestra iluminación nocturna y nos ayudan a ahorrar una gran cantidad de energía y de dinero. Los problemas principales son la falta de conciencia y la apatía. Se requiere de acción. La conclusión es esa: ¡todos ganamos! BIBLIOGRAFIA SAVIOLI, Carlos/ ―Iluminación Natural” . Librería y Editorial Alsina . 1993. Oficina de Información Ambiental de Cataluña: “Criterios ambientales para la gestión municipal” www.gencat,es/mediamb/cast/sosten/egesmu13.htm (Noviembre 1998) ASIAIN GARCIA, R., FERNANDEZ BARBA, D., / ―Contaminación Lumínica”, Tibidabo Ediciones (Anuario: 1995-1999: Fin de Siglo). ROGER LEITON, / www.ctio.noao.edu (1998) DEL RIO, Amanda / www.ecofield.com.ar/ BIBE, V. / “Recomendaciones generales para evitar la contaminación lumínica” www.sigmaoctantis.com.ar ¿Porqué se ilumina el cielo y no la ciudad?” Revista Consumer (Febrero 2002, Nº 52) Grupo URANIA / “Normativa y Reglamentación del cielo nocturno”, www.terra.es “Norma de emisión para la regulación de la lumínica”www.ctio.noao.edu/light_pollution/normaluminica.html Dic. 1998) ¿Cómo combatir la contaminación lumínica? www.cida.ve/contamina.html “Descontaminación lumínica en Chile” www.25.brinkster.com/polucion/descontaminación/ida2.html ―Polución Lumínica: Un problema de todos” ―La contaminación lumínica y los insectos” 52 contaminación (Santiago, 07 “Objetivo: crecer sin perjudicar a las generaciones futuras” Revista Consumer (Septiembre 2002, Nº 58) “Una pobre y muy desigual implantación en las diversas zonas del país” Revista Consumer (Diciembre 2000, Nº 39) 53 FRACTALES Autor: Profesora Claudia Virginia Beneyto Trabajo final del curso de postgrado ―Metodología de la investigación‖ La geometría (del griego ―ge‖, tierra y ―metrein‖, medir) es la rama de las matemáticas que se ocupa de las propiedades del espacio. El origen del término describe de manera precisa el objetivo y el trabajo de los primeros geómetras: medir el tamaño de la tierra. Esta ciencia trabaja con idealizaciones del espacio en que vivimos: puntos, rectas, planos y otros elementos derivados como polígonos y poliedros. Es una herramienta potente y útil para solucionar problemas del mundo real y proporciona justificaciones teóricas a otras ramas de la ciencia como la biología, la geología, la economía y a la tecnología. Podemos establecer dos tipos principales de geometría: la euclidiana o clásica y la no euclidiana. La geometría euclidiana se basa en definiciones, axiomas y postulados dados por el geómetra griego Euclides (325 AC a 265 AC) en su tratado ‗Elementos‘, en dicho libro el autor reunió todo el conocimiento geométrico de la época. Era ésta una geometría basada en la intuición y los sentidos. Los conceptos básicos se adaptaban a la experiencia sensible, dependían del grado de aproximación, la forma y las extensiones que el hombre podía percibir directamente. Dentro de las geometrías euclidianas se encuadran la geometría sólida, desarrollada por Arquímedes, que comprende principalmente esferas, cilindros y conos; la trigonometría que es la geometría de los triángulos (planos y esféricos), desarrollada por Hiparco de Nicea; la geometría analítica inventada por René Descartes, que trabaja problemas geométricos en base a un sistema de coordenadas y su transformación a expresiones algebraicas; y el cálculo vectorial, que trata de las cantidades que poseen magnitud y dirección. En cambio, las geometrías no euclidianas comienzan a desarrollarse desde el siglo XIX cuando algunos matemáticos desarrollan otros tipos de conocimiento para los cuales no se consideran válidos al menos uno de los postulados de Euclides. Entre éstas se puede incluir la geometría elíptica, que trabaja sobre superficies esféricas y considera que las rectas son cerradas, la geometría hiperbólica, en la que se acepta que por un punto exterior a una recta pasan dos paralelas; que la suma de los ángulos de un triángulo es menor que dos rectos, y la geometría fractal, que trata de estructuras cuya dimensión es mayor que la dimensión topológica. Desde otro punto de vista los matemáticos observaron que las formas de la naturaleza exceden la capacidad de descripción de la geometría euclidiana y es allí donde la geometría fractal aparece como una nueva manera de explicar el mundo. Esta teoría proporciona elementos que ayudan a describir formas que no son ni circulares, ni cónicas, ni esféricas, que pueden ser las ramas de un árbol, el contorno de una nube o la longitud de una costa y nos permiten volver, en definitiva al concepto original de la palabra geometría como medición de la tierra. Por su extensión y complejidad, el estudio de los fractales conforma hoy una nueva disciplina que se comenzó a denominar geometría fractal, que al igual que las otras ramas de la geometría pertenece al área de estudios de la Matemática. 54 La formación clásica de un docente de matemática de los últimos años no contempla en su currículo el estudio de geometría fractal. Tímidamente algunos docentes lo han ido incorporando como un tema dentro de algún curso de geometría. El presente trabajo tiene como objetivo compensar las deficiencias en la formación académica referidas a esta nueva área del conocimiento. El mismo no pretende ser exhaustivo ya que, como dijimos, la geometría fractal es hoy considerada una rama completa de la matemática y no podría reflejarse en un trabajo de esta extensión, pero sí tiene como premisas la precisión y rigurosidad matemática, intentando a su vez conservar la sencillez y la claridad en las explicaciones. Los objetivos que se proponen en el trabajo quedarán definidos a partir de poder elucidar las siguientes preguntas. ¿Qué es un fractal? ¿Tiene la geometría fractal alguna aplicación en otras áreas del conocimiento? ¿Es posible establecer alguna relación entre un fractal y un desarrollo matemático? DESARROLLO 1. CARACTERÍSTICAS DE LOS FRACTALES La geometría euclidiana es muy útil para describir o representar algunos objetos de la naturaleza tales como cristales o secciones de una colmena. Pero a menudo es descripta como una ciencia fría, sin conexión con la realidad. Una de las razones es su incapacidad para describir la forma de una montaña, una nube o un árbol. Es decir muchas formas naturales son más irregulares y fragmentadas que las estructuras de la geometría euclidiana y no pueden ser modelizadas por ésta. Supongamos que se intenta medir la longitud de una determinada extensión de costa. Si se mide en kilómetros se despreciarán algunas irregularidades y se obtendrá un valor finito de longitud y una forma representable en un mapa. Si se intenta medir esa misma costa en centímetros o milímetros, recorriendo las entrantes y salientes, se conseguirá una curva completamente irregular. Este es el primer ejemplo de fractal propuesto por Benoit Mandelbrot, matemático polaco (1924), a quien se considera el padre de la teoría fractal, contenidos que conceptualizó y organizó en la década de los setenta. Al respecto el científico sostiene: ….‖la longitud de una costa es un concepto esquivo, que se nos escapa entre los dedos cuando pretendemos asirlo. Todos los métodos de medida llevan a la conclusión de que la longitud de una costa típica es muy grande, tan indeterminada que es mejor considerarla infinita. En consecuencia, si se quiere comparar la extensión de distintas costas, la longitud es un concepto inadecuado‖ (Mandelbrot, pág. 49). Mandelbrot desarrolló una nueva teoría al respecto. Dicho científico, a quien se considera el padre de la geometría fractal, sostiene que esta nueva área permite describir muchas de las formas irregulares y fragmentadas que nos rodean. Además caracteriza a las estructuras que llama Fractales señalando: ―Las más útiles implican azar, y tanto sus regularidades como sus irregularidades son estadísticas. Las formas que describo aquí tienden a ser, también, escalantes, es decir que su grado de irregularidad y/o fragmentación es idéntico a todas las escalas. El concepto de dimensión fractal (de Hausdorff) tiene un papel central en esta obra.‖ (Mandelbrot, pág. 15). 55 Mediante esta frase se puede ir aproximando intuitivamente características de estas nuevas formas. Pero, ¿qué significa fractal? El término fue acuñado por el propio Mandelbrot a partir del adjetivo latino Fractus. El verbo correspondiente es frangere que significa ―romper en pedazos‖, por tanto fractus significa también, fragmentado e irregular. Ambos sentidos se conservan en la palabra fractal. También debe diferenciarse el sentido que se dará a los siguientes términos: la expresión ―conjunto fractal‖ tendrá más adelante una definición rigurosa, no así ―fractal natural‖ que sirve para designar sin mucha precisión una figura natural que puede ser representada por un conjunto fractal. Pero ― qué se puede definir como fractal? No existe una versión definitiva ni excluyente del concepto de fractal siendo la misma revisada permanentemente pues dentro del término fractal se engloban gran cantidad de estructuras matemáticas que tienen rasgos comunes aunque las definiciones dadas no les sean aplicables. Los fractales pueden obtenerse geométricamente como el producto final originado por la iteración infinita de un proceso geométrico regular. El proceso geométrico es en naturaleza muy simple pero, al repetirse sucesivamente, va complicando la forma final. Los fractales naturales pueden precisamente ser modelizados mediante estructuras simples que se repiten. Esta idea nos proporciona una primera definición: Un fractal es una estructura que está formada por partes semejantes en cierta manera al conjunto completo. Esta definición enfatiza un aspecto predominante en las estructuras fractales que es la invariancia en presencia de cambios de escala. Por esto, de un fractal se puede observar siempre la misma estructura independientemente de la escala a la que se observe. Esta propiedad se denomina autosemejanza y puede presentarse de maneras y formas muy distintas: en algunos casos esta semejanza es exacta y se la denomina autosimilitud y a los fractales que las poseen fractales determinísticos, mientras que en otros casos, que se encuentran en el mundo real que nos rodea, la autosemejanza es aproximada. La autosimilitud es una característica de los fractales clásicos, generados por un algoritmo, como el fractal de Koch y otros que desarrollaremos más adelante. El principio de auto-semejanza se presenta aproximadamente en la naturaleza: en líneas costeras y en cuencas de ríos, en la formación de nubes y en el crecimiento de árboles, en el flujo turbulento de fluidos y en la organización jerárquica de sistemas vivos. Cuando se quiere medir una curva fractal con una unidad o instrumento de medida determinado, y dado que un fractal está constituido por elementos cada vez más pequeños, siempre habrá objetos más finos que escaparán al instrumento utilizado y, a medida que aumenta la sensibilidad, aumentará la longitud de la línea. Por esto para la medición de las formas fractales se hace necesario introducir conceptos nuevos que van más allá de los conceptos geométricos clásicos. Uno de ellos será el de dimensión fractal, valor que nos indicará la rugosidad de la curva o en qué medida llena una porción del plano. Una definición frecuentemente citada de dimensión es la que introdujo el matemático alemán Félix Hausdorff en 1919. Su definición precisa es complicada y no muy esclarecedora. Por esto el concepto de dimensión más utilizada, especialmente al trabajar con fractales autosemejantes es la dimensión fractal o dimensión de semejanza que desarrollaremos más adelante. Atendiendo al hecho por él estudiado de que en los fractales la dimensión no es un número entero, B. Mandelbrot define: 56 ―Un fractal es por definición, un conjunto cuya dimensión de HausdorffBesicovitch es estrictamente mayor que su dimensión topológica‖ (Mandelbrot, pág. 32). Al referirse a dimensión topológica, Mandelbrot refiere que ésta posee una definición que junto con la propia disciplina se fue refinando a lo largo del tiempo. Sin adentrarnos en conceptos de mucha complejidad se coincide hoy en que el concepto de dimensión está ligado al número de grados de libertad, las direcciones del ente geométrico en cuestión, con las coordenadas necesarias para definirlo. Por lo tanto la dimensión física de una superficie plana o con curvatura es dos, ya que bastan dos números para identificar unívocamente cualquiera de sus puntos. En el espacio euclidiano, que puede representarse por la geometría clásica, se necesitan tres coordenadas para determinar un punto, por eso se dice que su dimensión es tres, tiene tres grados de libertad, tres direcciones linealmente independientes. Así las líneas tienen dimensión uno y el punto dimensión cero. Respecto de otras dimensiones fuera de la topológica existen múltiples definiciones distintas que en determinados casos pueden tomar valores distintos para un mismo objeto. Las dos pertinentes para el estudio de los fractales son la dimensión fractal o de semejanza y la de Hausdorff-Besicovitch. Hausdorff, matemático alemán (1868-1942) es considerado uno de los fundadores de la topología y gran contribuyente al desarrollo de la teoría de la medida, el análisis funcional y la teoría de las funciones. Hacia 1919 construyó una teoría que permitía estudiar los fractales y medirlos, que actualmente se conoce como métrica de Hausdorff. Posteriormente Besicovitch (1891- 1971) hacia 1920 se interesó por esta métrica y construyó una teoría geométrica de la medida que permite el dimensionamiento de estas estructuras. Tratemos de llegar al concepto de dimensión de semejanza de figuras clásicas: un segmento de recta, un cuadrado en el plano. Dado un número entero, 5 en este caso. Un segmento de longitud unidad se puede dividir en N=b sub-intervalos de longitud r=1/b. Recordar que la dimensión euclídea D del segmento es 1. Análogamente, un cuadrado de lado unidad, cuya dimensión euclídea D es 2, se puede dividir en N= b2 cuadrados de lado r=1/b, por lo tanto r= 1 / N1/2 Si repetimos el procedimiento para el espacio euclídeo de n dimensiones, por tanto D=n tendremos r(n)= 1/N1/n o sea r(n)= 1/N1/D por procedimientos algebraicos despejamos D que resultará : Como la mayoría de los fractales que analizaremos son autosemejantes y la definición de la dimensión de Hausdorff implica una gran dificultad matemática, sin 57 pérdida de precisión ni rigor, gran parte de los autores utiliza indistintamente la dimensión fractal y la de Hausdorff en la mayoría de los casos. 2. LA CURVA DE KOCH. ANÁLISIS DE SU DIMENSIÓN Esta curva es un ejemplo de fractal autosemejante. Es una curva continua y no diferenciable en ningún punto. Tiene longitud infinita pero limita una superficie finita. Su dimensión topológica es 1. Veamos cómo se construye y cuánto vale su dimensión fractal. Para generarla partimos de un segmento de longitud 1 y lo dividimos en 3 partes iguales. El primer paso es construir un triángulo equilátero sobre el segmento central y suprimir la base. Se obtiene la primera poligonal K1 cuya longitud es 4 (1/3). K1 Se repite la operación sobre cada uno de los 4 lados y se obtiene la poligonal K 2 de lados y cuya longitud total es L(K2)= 42.(1/3)2. K2 Según la ley de transformación la siguiente poligonal tendrá longitud es L(K3)= 43.(1/3)3 K3 Y así sucesivamente. En el paso n se tendrá una poligonal Kn de 4n lados y longitud L (Kn)= 4n.(1/3)n que tenderá a infinito al crecer infinitamente n. 58 Calculemos ahora la dimensión de la curva de Koch. Cada lado de la poligonal se divide en 4 partes, por lo tanto N=4 y cada segmento obtenido en esta subdivisión tendrá longitud r=1/3 por lo tanto la dimensión D será: ; es decir Por ser este valor obtenido distinto de 1, su dimensión topológica, demostramos que la curva de Koch es un fractal. 3. OTROS EJEMPLOS DE FRACTALES CLÁSICOS Si lo hecho a partir de un segmento unidad, se hace sobre los lados de un triángulo equilátero, se tiene un triángulo limitado por tres curvas de Koch que se conoce como fractal ―copo de nieve‖. Después de haber generado el fractal de Koch es fácil generar otros por una ley de recurrencia. Si en vez de dividir el segmento unidad de partida en 3 partes iguales se divide en 4 y la segunda y la tercera se reemplazan por 3 lados de un cuadrado y se repite esta acción reiteradamente obtendremos una poligonal con la siguiente forma: En esta poligonal cada segmento se divide en 8 partes, por lo tanto N=8 y cada segmento obtenido en la subdivisión tiene longitud r= ¼. La dimensión de este fractal será entonces . Otro fractal interesante es el llamado dragón que se obtiene repitiendo el proceso de sustituir el segmento de partida por los dos catetos de un triángulo rectángulo cuya hipotenusa es el segmento de partida. Se repite el procedimiento colocando sucesivamente los ángulos rectos de cada paso en sentido alternado, como puede observarse en la figura. Como cada segmento se divide en 2 partes y la longitud de cada 59 parte después de la subdivisión es la dimensión fractal será . Por ser de dimensión 2 este fractal es del tipo de las llamadas curvas de Peano, que llenan un área del plano. Otro tipo de fractales se puede construir no partiendo de un segmento sino de un área, de la cual, mediante un proceso iterativo, se van suprimiendo ciertas partes. El más conocido es el llamado tamiz de Sierpinski. Se comienza con un triángulo cualquiera, se suprime de éste el triángulo central cuyos vértices son los puntos medios de los lados del triángulo inicial. Se repite la operación con los 3 triángulos restantes y así sucesivamente. La dimensión de este fractal es 1,5849. 60 Otro fractal clásico es la alfombra de Sierpinski. Se construye partiendo de un cuadrado de lado a. Cada lado se divide en 3 partes iguales y trazando paralelas, el cuadrado queda dividido en 9 partes, de las cuales se suprime la parte central. Quedan 8 cuadrados periféricos, en cada uno de los cuales se repite el procedimiento sucesivamente. El fractal obtenido posee dimensión fractal D= 1,8927 que, igual que en el caso de los triángulos no depende de la medida de los lados. 4. ITERACION EN EL PLANO COMPLEJO La necesidad de contar indujo al hombre a inventar los números naturales y, en función de los problemas que surgían fue ampliando sucesivamente su sistema numérico hasta llegar a los números reales. Pero con el tiempo éstos tampoco fueron suficientes pues en el conjunto de los números reales resulta imposible resolver la ecuación z2=-1. Se define entonces un nuevo número ―i‖ que verifica esta ecuación, que no es un número real y se lo denomina unidad imaginaria. Surgen luego otros números z= a +bi con a y b reales, a los que el matemático alemán Carl Gauss llamó en 1832, ―números complejos‖ Así como cada número real se representa por un punto de la recta, cada número complejo se corresponde con un punto del plano. Se asocian al plano dos ejes: horizontal o eje real y vertical o eje imaginario, dando origen al plano complejo C. 61 Además a cada punto del plano, y por tanto a cada número complejo le asocia un vector con origen en el origen de coordenadas y afijo en el número. Esta representación facilita las operaciones y su visualización. Los números complejos permiten describir situaciones que los reales no logran explicar, podemos por tanto aplicarlo a los fractales y ver cuál es la relación que existe entre ellos. Si se itera la operación ―elevar al cuadrado‖ con un número real x se obtiene una sucesión o trayectoria llamada órbita de x. Si el valor inicial llamado ―germen‖ es un número mayor que 1, por ejemplo x=3 la órbita obtenida será la sucesión {3, 9, 81, 6561……..} que tiende a infinito cuando el número de iteraciones es muy grande. Si el germen es un número menor comprendido entre -1 y 1, por ejemplo ½, la órbita será {1/2, 1/4, 1/16, 1/256……} que tiende a cero al aumentar las iteraciones. Finalmente si x=1, la órbita es un único punto {1} y si es x=-1, la órbita es {-1,1}. Analicemos ahora la transformación que le asigna a cada número complejo z, su cuadrado más otra constante c, compleja también. Esta transformación puede realizarse de dos maneras: variando z y dejando constante c o dejando fijo el complejo z y variando el parámetro c. como resultado se obtendrán distintos números complejos. Veamos que ocurre cuando se efectúan iteraciones en cada caso. En el primer caso, dejando fijo c, se comienza con cualquier número z , se aplica el polinomio P, se obtiene P(z); se le aplica nuevamente P y se obtiene P(P(z)). Se repite la iteración aplicando P a cada resultado obtenido. Los resultados se pueden expresar como una sucesión u órbita de z. para distintos valores de z el mismo polinomio producirá distintas órbitas. Por ejemplo si c=0 y probando con distintos valores de z se puede observar que si se toman valores de z que estén sobre una circunferencia de radio 1, los resultados quedan sobre ella. Todos los valores iniciales que estén dentro de la circunferencia generan órbitas que migran hacia el centro y todos los que están en el exterior escapan hacia el infinito. La circunferencia de radio 1 es una especie de conjunto ―repulsor‖ de puntos cercanos; los que están adentro, son atraídos por el 0, los que están afuera, por el infinito. Esto quiere decir que el plano complejo queda dividido en dos conjuntos: la circunferencia, llamada conjunto de Julia y el resto del plano. El conjunto de Julia recibe su nombre del matemático francés Gastón Julia (1893-1978), pionero en el estudio de procesos de iteración y transformaciones en el plano complejo. Si tomamos otro valor del parámetro c cercano a cero se observa que sigue habiendo un atractor, es decir un conjunto de puntos al cual tienden los conjuntos obtenidos en la iteración dentro del conjunto de Julia y una cuenca de atracción hacia el infinito en el exterior del conjunto. Pero si se observa con gran acercamiento este nuevo conjunto de Julia, se observa que ya no es una circunferencia sino un fractal. Veamos algunos ejemplos de conjuntos de Julia para distintos valores de c. Si c=-1 se trata de la transformación P(z)= z2-1. El conjunto julia es el fractal de la figura, es simétrico pero muy complicado. 62 Si c=i tenemos la transformación P(z)=z2+i. el conjunto de Julia forma en este caso un fractal llamado dendrita que carece de puntos interiores. Otro fractal interesante es el llamado conejo de Douady, que es un fractal curioso cuya dimensión no se conoce, deriva de la misma transformación anterior tomando c=0,12256117…+ i0, 7448617 La segunda opción para aplicar el polinomio P es dejar fijo el número complejo z, y por lo tanto su cuadrado, y cambiar el valor del parámetro c. En este caso se obtienen distintos conjuntos de Julia, algunos de ellos con estructura fractal. Para comenzar, podemos tomar como valor fijo z=0 y se analiza la órbita obtenida por iteraciones para todos los valores de c. Se observará que habrá valores de c para los cuales la órbita de z=0 tiende a infinito y otros para los cuales, esto no sucede. Si se marcan en el plano complejo todos aquellos valores del parámetro c para los cuales las órbitas de 0 no van hacia infinito, se obtiene el conjunto de Mandelbrot (M). Sin tomar en cuenta los detalles la forma del conjunto de Mandelbrot puede asociarse al corte de una manzana con un interior negro y adherencias negras de aspecto cuasi circular, una principal y otras de tamaños cada vez menores. El plano queda así dividido en dos regiones: el conjunto M y el resto del plano. Pero lo interesante del conjunto es su frontera. Ésta es de naturaleza fractal y contiene copias cada vez más pequeñas del conjunto. Sin embargo no es estrictamente autosemejante, porque cada apéndice que sale de cada parte del conjunto es distinto de los otros. A cada punto c de M le corresponde un conjunto de Julia con ese parámetro c específico, representado en otro plano complejo donde se varía z manteniendo c constante. 63 El conjunto de Mandelbrot ha sido descripto como la forma matemática más complicada que se ha inventado jamás, a pesar de que se puede generar en una computadora con diez líneas de programa. Esto arroja un nuevo significado a la palabra ―complejidad‖.Usualmente el término está asociado a la irregularidad espacial. En el conjunto de Mandelbrot podemos reconocer otro rasgo de ―lo complejo‖ en el cual lo simple se desintegra, pasando a ser compuesto y diferente según el entorno desde el cual se lo observe. 5. APLICACIONES DE LA GEOMETRÍA FRACTAL Los fractales son muy útiles para describir y entender multitud de fenómenos en las diversas ramas del conocimiento y sus aplicaciones se extienden a numerosos campos como las propias matemáticas, la biología, la medicina, la economía la ingeniería, la meteorología, la nueva teoría del caos y también en el arte entre otros. Por esta razón sólo se describen algunas de ellas en este espacio. La geometría fractal y los nuevos conceptos matemáticos que se basan en ella son fuente de asombro y admiración, pero también tienen múltiples aplicaciones en muchas áreas del saber, incluidas la biología y ecología. Ya mencionamos los ejemplos comunes en biología como la geometría fractal de los helechos, los alveolos pulmonares o los capilares sanguíneos. Pero hay muchos otros aspectos de la naturaleza que se pueden observar desde el punto de vista de la fractalidad, como el uso diferencial del territorio. Supongamos que 20 focas necesitan una determinada longitud de costa para criar, por ejemplo 1 metro/foca. Su escala de medida está relacionada con su tamaño, y para esas focas la cantidad de recurso disponible es una playa de 20 metros. Sin embargo, en esos mismos ―20‖ metros de costa, un mejillón mucho más pequeño percibe no 20, sino 120. Y no es que el mejillón ―perciba‖ 120 metros, sino que ―hay‖ realmente 120 metros de costa (medidos a otra escala). Y si es una bacteria que se fija a las rocas, no 64 tendrá 120 m., sino kilómetros de costa en esa misma playa que para una foca son solamente 20 metros. Es decir: con una geometría clásica podríamos pensar que en la naturaleza un organismo 10 veces más pequeño que otro estará en una densidad de individuos 10 veces mayor en un mismo lugar. Sin embargo esto casi nunca ocurre: las especies de pequeño tamaño presentan una densidad de individuos casi siempre bastante (o muy) superior a la que les correspondería según la geometría clásica. Para resolver esta cuestión y otras la geometría fractal es, hoy en día, una herramienta indispensable para los estudios de los ecosistemas. Otra de las aplicaciones más sencillas que tiene la geometría fractal es el cálculo de la edad de los pinos jóvenes. Las plantas en general son una fuente de ejemplos casi inagotable de fractalidad en la naturaleza. Los pinos, en concreto, presentan unas pautas de crecimiento muy sencillas que permiten incluso al observador menos experimentado calcular su edad muy fácilmente. La geometría fractal se caracteriza por ser iterativa. El pino en crecimiento refleja esta iteratividad del siguiente modo: en primavera de la punta del tallo principal salen varias ramas a una misma altura en varias direcciones, que continúan creciendo durante la temporada favorable. En invierno este crecimiento se frena, pero al llegar la primavera el patrón se repite: de la punta de cada rama salen a su vez varias ramas en diferentes direcciones. Y así sucesivamente cada año. De este modo las ramas más bajas del pino son más complejas que las superiores y más ramificadas. Contando los nudos de ramificación de las ramas bajas se puede conocer la edad del árbol. También se pueden encontrar aplicaciones de esta nueva geometría en el diseño de antenas. Una antena no se comporta de manera uniforme en distintas frecuencias, porque está diseñada para cierto ancho de banda. En consecuencia se necesitan antenas distintas para operar con las distintas bandas del espectro electromagnético. Sería ideal contar con una antena ―universal‖ que sirviera para captar la mayoría del espectro electromagnético. Para que una antena se comporte uniformemente en distintas frecuencias, es condición necesaria que tenga autosemejanza y un punto de simetría. Los investigadores han descubierto que las antenas desarrolladas siguiendo la forma de triángulo de Sierpinski, las curvas de Koch y otros fractales, permiten obtener mayor rendimiento que las comunes. Por ejemplo, en receptores de telefonía móvil, una antena fractal permite utilizar muchas más frecuencias y ocupa menor espacio que una antena telescópica común. Por otro lado encontramos comentarios de Benoit Mandelbrot quien habló sobre la rugosidad como nexo común entre matemáticas, ciencia y arte en el Congreso Internacional de Matemáticos diciendo: "Los trabajos artísticos de fractales son cada vez mejores, cuando las matemáticas se combinan con el buen gusto, los resultados son maravillosos", comentó sobre el arte fractal, en una muestra de este tipo de trabajos. Pero sobre todo Mandelbrot quiso explicar por qué estos trabajos son reconocidos como arte. "La naturaleza, lo que rodeaba al hombre desde su origen, viene sobre todo en formas rugosas e irregulares; con el tiempo se produjo una división del trabajo, se desarrolló la geometría por un lado y el arte por el otro. Ahora se ha cerrado el círculo y se han fundido las matemáticas, consideradas abstractas y áridas, con el arte, lo liso con lo rugoso o complejo." 65 El matemático, que vive en Estados Unidos, sostiene que el arte fractal recuerda a los observadores la geometría de la naturaleza, reflejada ya muchas veces en obras maestras de la historia de la pintura. También señaló que pueden diseñar condensadores y otros componentes electrónicos que se pliegan de forma fractal, con lo que ocupan mucho menos espacio. Y se aplica la geometría fractal para fabricar un hormigón no poroso que evita la corrosión. Además es posible encontrar aplicaciones en la física de las superficies, permitiendo a los biólogos cuantificar la estructura superficial de importantes moléculas, entre otras posibilidades que brinda esta nueva geometría CONCLUSION Respondiendo a la pregunta inicial ¿qué es un fractal? se resume la idea aunque no se de una definición precisa. Un fractal es un conjunto de puntos que presenta las siguientes características: -Un grado de irregularidad tal que no se puede describir con la geometría clásica tradicional, tanto en sus aspectos locales como en un todo. -Detalles en escalas tan chicas como se quiera, denominados estructura fina. -Una dimensión fractal mayor que su dimensión topológica. -Alguna forma de autosemejanza, incluso aproximada o estadística. En muchos casos pueden definirse en forma recurrente o por iteración. La posibilidad de aplicación de estos nuevos conceptos es muy amplia aunque no universal puesto que es más útil que la geometría Euclidiana para modelizar objetos o procesos naturales. La geometría fractal refleja la textura de la realidad y permite una comprensión correcta de lo irregular y lo fragmentado. Según palabras del físico John Wheeler: ―Nadie que no esté familiarizado con los fractales será considerado culto, científicamente, el día de mañana‖. (Stewart, pág. 245). BIBLIOGRAFÍA MANDELBROT, BENOIT. La geometría fractal de la naturaleza. Tusquet Editores. Barcelona. 2003. SANTALÓ, LUIS A.: Conjuntos fractales. Elementos de matemática. Universidad CAECE. Marzo 1992. Número XXIII. STEWART, IAN. ¿Juega Dios a los dados? Grijalbo Mondadori. Barcelona. 1996 HERREN, GUSTAVO. Fractales. Compendios Longseller. Buenos Aires. 2002. ESPINOZA TERRAZAS, ROSALIA. Antenas Fractales. Episteme Nº 2. Año 1. Octubre-diciembre 2004.http://www.uvmnet.edu/investigación/episteme REYES JORGE. El espacio-tiempo fractal.www.geofísica.cl Webislam.com. Ciencia y tecnología. 26/8/2006. Autor M.R.E. Fuente: El Pais. 66 LÍMITE DE FUNCIONES DE DOS VARIABLES Otro enfoque para su estudio Claudia Durnbeck Fac. de Ingeniería – UNNE [email protected] Trabajo Final del Posgrado: Metodología de la Investigación Resumen: El trabajo está dirigido a docentes que desarrollen el tema, con el propósito de aportar herramientas didácticas. Se parte de un ejemplo concreto para luego, relacionarlo con la definición y con conocimientos adquiridos en asignaturas previas. Se destacan las diferencias y concordancias con el Límite de funciones de una variable, para que el alumno solo, procese y elabore el nuevo concepto. El análisis algebraico de la función estudiada y su representación gráfica (se utiliza el soft Derive), son el soporte de este nuevo enfoque. Palabras claves: Trayectoria – caminos – entorno - límite – Función: definición, análisis algebraico y representación. Referencias para una adecuada interpretación de esta propuesta: Cuando nombremos ―Límite‖: Estaremos refiriéndonos al Límite de una función de Dos variables. Cuando digamos ―Límite Doble‖: Estaremos refiriéndonos al Límite también llamado Límite Simultáneo, que es cuando las dos variables tienden juntas al punto en cuestión. FUNDAMENTACIÓN: El concepto de Límite de funciones de Dos Variables, también llamado Límite Doble, se desarrolla, en general, en primer año de las distintas Facultades de Ingeniería. En esta etapa del estudio universitario, encontramos alumnos habituados a resolver ejercicios con resultado únicos, lo que les permite llegar a conclusiones irrefutables sobre el problema planteado. La dificultad que representa explicar y comprender el tema Límite de Funciones de dos Variables se debe, a mí entender, a las siguientes razones: 1. Se inicia el desarrollo del tema con la expresión, que define el Límite Doble: Con Interpretarla, implica, conocer el significado de los operadores y cuantificadores que en 67 ella interviene y, en general, la mayoría son nuevos para alumnos de este nivel. También su comprensión, implica tener claros ciertos conceptos como: Dominio de una función, punto de acumulación, entorno reducido de un punto ó distancia entre puntos en , y otros. Hacemos un gráfico escueto, difícil de comprender, señalado a dónde están ubicados los elementos que intervienen en la definición y hablamos de caminos… 2. Las posibilidades de elegir el camino(*) para acercarnos a un punto, en el espacio de 2-dim, no son únicas, ni finitas, muy por el contrario…las posibilidades de elección son infinitas. En la práctica, lo que se hace, es encontrar el valor del Límite por algunos caminos, teniendo en cuenta que si existe, es único, si por esas trayectorias, elegidas arbitrariamente, se llega al mismo resultado, entonces se ´supone´ que el límite existe y su valor corresponde al hallado. Suponer un resultado, no es algo que resulte cómodo en matemática, creo que la incertidumbre no es familiar en el lenguaje de la matemática básica, y es lo que hace que el tema propuesto, sea uno de los pocos en el que los docentes aceleramos, para cruzar rápido el puente y llegar al próximo tema y los alumnos quedan con el interrogante…pero…entonces …existe el límite, ó no? (*) Distintas curvas planas, cuyas ecuaciones ya deben ser conocidas, su dominio, estar incluidas en el Dominio de nuestra función y el punto pertenecer a ella. 3. Para afirmar que el Límite de una función en un punto existe irrefutablemente, se debe probar que ―él mismo‖ verifica la definición y no siempre es posible hacerlo, depende de la expresión de la función, e incluso en los casos posibles, para el alumno es una tarea muy difícil. Sin certeza, no hay comodidad matemática. Si bien admito que el estudio del Límite de funciones de dos Variables puede ser poco atractivo o antipático, lo que fundamenta mi inquietud, es que lo utilizamos como hipótesis en muchos teoremas y definiciones, como en el tema inmediato : Continuidad, el que a su vez, es la base para fundamentar otras Definiciones y Teoremas. Sin haber entendido adecuadamente el concepto de Límite de funciones de dos variables… HIPÓTESIS: ¿Es posible desarrollar el tema, sin utilizar, al menos inicialmente, las expresiones: Infinitos (caminos) vs. Único (valor del Límite) y es posible que exista…? ¿Si la función está definida ¨naturalmente¨ en el punto, el límite está resuelto? ¿Sería conveniente comenzar el estudio del Límite de una función, analizando en el punto, previamente, el comportamiento Algebraico de la función? 68 ¿Es suficiente ¨hallar¨ mecánicamente el Límite ó es necesario justificar su existencia? ¿Cuál es la prestación más interesante que brindan los límites Reiterados o Iterados? ¿Los Límites Reiterados…son límites direccionales? OBJETIVOS: Encontrar otra manera de comenzar el desarrollo del tema que no sea por la definición. Es decir, No comenzar por la definición. Representar gráficamente la situación del Límite de manera clara y didáctica, para usar ésta representación como partida en el desarrollo del tema. Utilizar el Concepto ya estudiado de Límite de funciones de una Variables, como apoyo, destacando las diferencias y concordancias. Transmitir los conceptos de L. Simultáneo, L. Iterados y L. Direccionales, con herramientas didácticas y pedagógicas accesibles, de modo que el alumno pueda descubrir las diferencias y las concordancias que hay entre ellos, y así potenciar su valor como herramientas en el estudio del Límite. Utilizar las representaciones Gráficas de la función estudiada, como guía en el estudio. Relacionar conceptos vistos en cursos anteriores, como Álgebra, Análisis Matemático I y Geometría, de modo que nos sirvan de apoyo en este estudio. Por último: Encontrar un procedimiento más estimulante para el alumno que el tradicional, con respecto al estudio de Límite. Teniendo como meta, que el alumno se involucre en las investigaciones propuestas, es decir, en el análisis algebraico de la función y la interpretación de su representación gráfica. DESARROLLO Pensemos en la idea Intuitiva del concepto de Límite: En general, se entiende como una barrera hasta la cual podremos llegar. Hablamos cotidianamente de límites entre Países, de los límites entre terrenos, de los límites que deben tener nuestros hijos…Cuando hablamos de los límites de Funciones, nos referimos al valor al cual ellas tienden, cuando nos acercamos a cierto elemento de su dominio, que de algún modo, es también ¨hasta dónde llegan¨. Usamos este concepto ¨intuitivamente¨ en cursos de Geometría, cuando definimos longitud de una circunferencia como el Límite al que tiende una sucesión de perímetros de Polígonos circunscriptos o inscriptos en ella, cuando la longitud de los lados tiende a cero. También en cursos de Física, cuando nos referimos a la ―velocidad instantánea‖ como el Límite de la ―velocidad media‖ para intervalos de tiempo cada vez más pequeños. Y hay muchos ejemplos para la idea de límite de funciones de una variable independiente. Para el estudio del límite de funciones de una variable independiente, hemos visto que el problema se reduce a observar cómo se comporta la función al acercarnos a un punto del Dominio por derecha e izquierda, moviéndonos en general, sobre la recta Y=0. 69 En el caso de funciones de dos variables independientes, para acercarnos a un punto del Dominio, , tenemos infinitas opciones, infinitos caminos para llegar a él. Y es justamente esto, lo que hace complejo el estudio del Límite de funciones de Dos Variables, pues si recordamos ¨La unicidad del Límite¨, propiedad vista para funciones de una variable, y también válida para funciones de dos variables, ¨Si el Límite existe, es único e independiente del camino utilizado¨ y nunca podremos verificar que por todas estas opciones, llegamos al mismo resultado. Conclusión 1: Es por eso, que solamente si el Límite hallado, verifica la definición, podremos asegurar la existencia del Límite. Veremos un ejemplo, tomando una función sencilla, que nos ilustrará sobre el comportamiento de los valores de una función escalar de dos variables, cuando los puntos del Dominio se aproximan a un punto que puede o no pertenecer a él. Sea: y estudiemos su comportamiento en Dominio de la función, todo el plano R2, solo representamos el primer octante. Realizamos una tabla de valores en las proximidades de (3;2), con el objeto de vincular este estudio, con el de funciones de una variable. Tomemos valores sobre las rectas x=3 e y=2. X y F(x;y) 2,991 2,995 2,999 2 2 2 4,991 4,995 4,999 3 3 2 1,999 5 4,999 3 1,995 4,995 3 1,991 4,991 Observemos la tabla y el gráfico, sin olvidar que nos estamos moviendo sobre las rectas x=3 e y=2. Cuanto más nos acercamos al punto del Dominio (3;2) , la función se aproxima al número real 5. La diferencia entre f(x;y) y 5 será más pequeña, cuando los (x;y) estén más cerca de (3;2). Consideremos que el valor absoluto de esta diferencia es menor que dos milésimo: 70 Volvamos a la tabla y tomemos (x,y)=(3;1,9999) para verificar: X Y 3 1,9999 f(x;y) 4,9999 Vemos que a los (x;y) que se encuentren a una distancia de (3;2) inferior a 0,001 le corresponden por medio de la función, valores reales que están a una distancia menor que 0,002 de 5. Debemos tener en cuenta que fijamos previamente el número 0,002 y de ahí se desprendió el número 0,001, por lo tanto es . Del desarrollo anterior deducimos que para cualquier número (en el ejemplo ) ) , es suficiente elegir (en el ejemplo Porque si: Conclusión 2: Tomamos una función sencilla, conocida por los alumnos y de fácil representación, realizamos un desarrollo similar al que se hace para funciones de una variable y relacionamos este nuevo concepto. Analizamos gráfica y analíticamente grupalmente y luego… definimos. Generalizando la deducción anterior, expresamos la Definición de Límite de funciones de Dos variables: Literalmente: (Sugerimos ser muy explícitos para tener una mejor llegada al alumno, siempre relacionar con la gráfica, para lograr una rápida interpretación) 71 ¨El Límite de la función f(x;y)cuando (x;y) tiende o se aproxima al punto de acumulación del Dominio de la función (a;b,) es igual número real L, si y solo si, para todo número real Épsilon ( , positivo, existe en correspondencia o dependiente de él, otro número real Delta ( , también positivo, de tal modo que para todo punto (x;y) del dominio que pertenezca al entorno reducido del punto (a;b) de radio Delta, entonces la diferencia entre el valor de la función en ese punto y el número real L, tomada en valor absoluto, es menor que Épsilon¨. (Observemos la representación de la función, junto con los alumnos e interpretemos gráficamente la definición, antes de expresarla simbólicamente) Simbólicamente: Con No es necesario que la función este definida en (a;b) para que el Límite en ese punto exista. Hasta el momento, hicimos un desarrollo similar al que algunos autores hacen para Límite de funciones de una variable. Observemos la diferencia: Cuando hablamos de distancia en R, solo tenemos la posibilidad de tomarla de un lado o del otro del punto. En cambio, para hablar de distancia en R2, tenemos que hablar de Entorno. Conclusión 3: Usamos los conceptos adquiridos para funciones de una variable y establecemos las diferencias con este nuevo concepto: El entorno en R2. Definición: Dado un punto punto , de radio ¨ distancias a y un número real , llamaremos Entorno del ¨, al conjunto de todos los puntos pertenecientes al cuyas son menores que ¨ ¨. Simbólicamente: Será Entorno Reducido, cuando el punto Recordemos Distancia en no pertenezca al Entorno. : 72 Este Disco con centro en el punto al cual nos aproximamos, abre un abanico de infinitos caminos posibles. El Entorno no necesariamente tiene que ser circular, pero es común trabajar con este tipo. Se representa en por un círculo de centro y radio r. Si el resultado del Límite no es el mismo para todas las trayectorias posibles de acercarnos al punto entonces el Límite no existe. Debemos tener en cuenta que si el Límite existe, es independiente del camino elegido y de que el camino debe contener al punto. Llamamos caminos o trayectorias a subconjuntos de que estén incluidos en el Dominio de la función o que su intersección con éste, no sea vacía y que contengan al punto donde se quiere calcular el límite. Ejemplos: Rectas, Parábolas, Hipérbola o un sub conjunto de puntos. A los límites por estos caminos se los llama Límites ¨Restringidos¨ a ciertos subconjunto del Dominio de la Función. Antes de ver algunos ejemplos, distinguiremos dos situaciones: a) Cuando la función está definida en el punto donde queremos estudiar el límite, es decir, no hay indeterminación cuando calculo el Límite Doble o Simultáneo. b) Cuando la función no está definida en el punto donde queremos calcular el límite, es decir, se produce una indeterminación al calcular el Límite Doble. En el caso a), cuando no hay indeterminación, problema resuelto: El Límite Doble existe. Debemos pensarlo ―intuitivamente‖, el Límite al cual tenderá, será igual al valor que tome “naturalmente” la función. El caso b) es el que nos va a ocupar, cuando el Límite doble simultáneo no existe, lo que genera la necesidad de usar otros caminos para buscar el límite. Veamos algunos Ejemplos. 1er. Ejemplo: Hallar 73 Previamente, estudiamos cual es el Dominio de la función. Son todos los puntos del plano a excepción del punto (0;0). Como ya hemos dicho, no es necesario que el punto donde se estudia el Límite pertenezca al Dominio de la función, pero si debe ser un punto de acumulación, es decir, es necesario que esté definida para los punto de un entorno reducido de, en este caso, de (0;0). Haciendo uso de los programas con los que contamos actualmente, por ejemplo el Derive, graficamos la función a estudiar, para obtener la información que orientará el análisis. Sugerimos hacerla rotar, aplicar zoom, cambiar los colores, etc. Observemos esta primera posición de la gráfica y prestemos atención a lo que sucede en (0;0), teniendo en cuenta la referencia que figura arriba a la izquierda, con respecto a la posición de los ejes. l Vemos que aparentemente en (0;0) hay una irregularidad, la hacemos rotar de tal modo de observar ―desde arriba‖ como se comporta en el origen. Y en esta posición vemos el ―agujero‖ en (0;0), lo que No implica que el Límite no exista, pues puede no estar definida en el punto y sin embargo tener Límite en él. Aplicamos el L. D.: 74 Pertenece al grupo b) pues obtenemos una indeterminación. Recurramos a otros caminos para, descartar la existencia del Límite, encontrando dos Límites distintos, ó por distintas trayectorias un mismo valor, con lo que tendremos es un ―candidato ― a Límite y deberemos probarlo por Definición para asegurar la absoluta existencia, lo que es, en la mayoría de los casos, muy complicado. Introducimos el siguiente concepto: Límites Reiterados o Sucesivos: Éstos no perteneces al grupo de los Límites Restringidos. Definición: Son dos Límites, en los cuales, se hace tender primero una variable y luego otra, en la función resultante. Simplemente, es un procedimiento que permite transformar el Límite de una función de dos variables en el cálculo del límite de una función de una variable. Los Límites Reiterados, presuponen que un cierto entorno reducido de ―b” sobre la recta x=a y un cierto entorno reducido de ―a” sobre la recta y=b existen las funciones y respectivamente. La potencia de estos Límites en cierto sentido es escasa, pueden no existir y si el doble. Más adelante veremos un ejemplo que ilustra esto. Sin embargo, cuando obtenemos resultados distintos usando los Reiterado, el problema está resulto, el Límite de la función de dos variables No existe. En conclusión, son sumamente útiles para probar la No existencia del Límite. Volvamos el ejemplo y apliquemos los Límites Reiterados: 75 Este resultado de la aplicación de Límites Reiterados, nos ilusiona sobre la existencia del Límite por haber obtenido el mismo valor por dos caminos distintos… Pero sabemos que esto no indica nada, lo ideal hubiera sido que ellos tengan resultados distintos, así podríamos concluir en la No existencia del Límite. Debemos seguir trabajando. Conclusión 4: Explicamos en forma sencilla, que son y para qué son útiles los Límites Iterados o Reiterados, como así también sus limitaciones, definiéndolos e ilustrando con un ejemplo. Tomemos ahora la trayectoria , Parábola incluida en el Dominio de la función y que pasa por el punto (0;0), apropiado. Entonces: No podemos sacar ninguna conclusión con esta indeterminación obtenida, el camino elegido, no nos proporciona ningún dato. (La idea didáctica es, en este primer ejercicio, transitar por distintos caminos, que NO nos lleven por un tobogán a la solución, para que los alumnos puedan ver que nosotros también erramos en la elección de trayectorias y que quede claro, que cuando no nos brindan datos, debemos descartarlos) Tomemos ahora la trayectoria y=x, siempre repasando: Está incluida en el Dominio de la función y contiene al punto de estudio. Hemos encontrado dos valores distintos del Límite. La función NO puede tener Límite en (0;0) porque en un entorno del punto, hay elementos para los cuales la función tiende y para otros a 0 (ver resultado de los Límites Iterados). 2do. Ejemplo: Hallar : 76 Elegimos un ejercicio cuya función es similar a la del ejemplo anterior con el propósito de llamar la atención del alumno sobre la definición de cada una. Cuando arribemos a una conclusión de este segundo ejemplo, haremos las comparaciones. Observemos su Representación gráfica: Aplicando L.D. simultáneo, tenemos: Indeterminación, caso b), debemos seguir estudiándolo por otros caminos. Hallemos los Iterados: Iguales…Tomamos otra trayectoria, por ejemplo y=mx, haz de rectas que pasan por el origen, recordemos que el resultado tiene que ser independiente de m, de lo contrario tendríamos infinitas soluciones, para . Encontramos un candidato a Límite, es 0. Debemos intentar probar que para ese valor se cumple la definición, de otro modo, no podremos asegurar la existencia del mismo. : 77 Comparemos el Ejercicio 1 con el 2, teniendo en cuenta que en ambos casos, buscamos el Límite en (0;0). Las funciones son: Ejemplo 1) Ejemplo 2) Funciones del mismo tipo, ambas cociente de polinomios de dos variables. Analizamos con el alumno, porqué la 1) No tiene límite y la 2) Sí, siendo muy parecidas? Con la intensión de que haga este tipo de análisis, como Método, antes de comenzar a resolver un ejercicio, como así también, observar previamente las gráficas, porque esta información puede orientarlo en cómo encarar la demostración, si para la No Existencia o para la Existencia. En 1) el Polinomio del numerador es de igual grado que el de denominador. Si atendemos a la parte algebraica, que pasará para valores próximos a (0;0)…podemos imaginar e incluso probar con puntos tales que . Sabemos que los puntos de este entorno reducirán su valor cuanto más próximos estén a (0;0) y por ser de igual grado numerador y denominador , lo harán simultáneamente, de modo que la indeterminación es inevitable al llegar al punto. Esto nos dispone a buscar la prueba de que No existe límite. Para ello, sugerimos, ― Pispear‖ la función para detectar en que 78 subconjunto del Dominio la función tendría infinitos límites ó uno distinto a alguno ya determinado. En 2) El polinomio del numerador es de mayor grado que el de denominador, por lo tanto, al acercarnos a (0;0), el numerador se achicará más rápidamente, que el denominador, de esta forma, al aproximarnos a (0;0), tendremos el cociente 0/número, lo que nos da 0. Estas consideraciones nos orientan a probar la Existencia del Límite. Siempre recordando que solo la comprobación por la Definición nos asegura la existencia. Conclusión 5: Consideramos que el análisis del comportamiento algebraico de la función debe hacerse, antes de comenzar con la mecánica de pruebas por distintos caminos. Debemos apoyarnos y confiar en los cursos previos a éste, como Álgebra, Análisis Matemático I y Geometría, los alumnos ya tienen los conceptos para hacer este tipo de estudio y usarlos les genera confianza y estímulo. Depende de nosotros, docente, el encontrar los disparadores de su interés. Ahora comparemos las gráficas: Ej.1) Ej.2) Si pensamos en el cálculo del Límite, como una acción, al ―aproximarnos‖, como dice la definición, estamos en movimiento. Ahora bien, si nos imaginamos sobre una alfombra, deslizándonos por una y otra superficie, cuál de las dos tiene la ¨anatomía¨ de hacernos llegar a (0;0)? En el ej. 1) nos frenaríamos, pues es una superficie de suaves pendientes, por el contrario, en el ej. 2) chocaríamos con el eje ―z‖ en (0;0), por ser pronunciada su inclinación hacia el punto en estudio. Es otro elemento más, poco ortodoxo matemáticamente, pero que nos guía con respecto al rumbo, el estudio del Límite. Analicemos un par de funciones: 79 Es una función exponencial, con exponente ―x.y‖. Para ningún punto del plano , se van a presentar inconvenientes , ninguno va a poder provocar una indeterminación. Por lo tanto, va a existir el Límite en todos ellos, caso a). Vemos la gráfica donde se aprecia la regularidad de la función: Vista de arriba no presenta ―agujeros‖, lo que nos indica que esta función se portará bien, en todos los puntos de su Dominio. Tanto el análisis gráfico como el analítico, nos orientan a probar la existencia del Límite. La función no está definida en (0;0) Apliquemos el L.D. simultáneo: 80 Pero si ―pispeamos‖ la función y trabajamos algebraicamente… Podemos calcular el Límite del producto, como el producto de los Límites, por propiedad de esta aplicación: Conclusión 6: Recordemos al alumno, los conceptos ya estudiados y hagamos que los relacionen en todos los temas posibles. Ellos tienden a encapsular los conceptos y no establecen relaciones, como tampoco los usan de apoyo. De este modo los estimularemos para que optimicen lo estudiado anteriormente. Observemos la gráfica: Apreciamos el corte, es decir, la indefinición que la función presenta en el origen de coordenadas. Pero como el L.D. simultáneo nos da un resultado real, deberemos intentar comprobarlo por definición, ó quedarnos con el candidato a Límite, L=-1. Conclusión 7: Atendiendo a la Definición y a la Gráfica de la función, el alumno, encontrará un sendero por donde transitará con mayor comodidad, que utilizando la práctica tradicional en la búsqueda del Límite a ciegas. Y los profesores, no correremos tanto, cuando tengamos que desarrollar el tema. (*) Desmitificando a los Límites Iterados: Todos vamos a estar de acuerdo en lo siguiente: ―Al alumno le fascinan los Límites Iterados‖. Esto es así, porque ellos les son cómodos, en un simple paso, tiene algo conocido, como funciones de una variable, para trabajar. Esto hace que los usen con frecuencia y que sobrevaloren el resultado que ellos arrojan. 81 Podemos darle el siguiente ejemplo, cuando nos encontremos con la afirmación: ―el L. D. no existe porque no pueden hallar los Iterados‖. En general, los alumnos concluirían en que la función no tiene límite. Probemos que si lo tiene, a pesar de que uno de los Iterados no existe. Estudiemos el Límite Radial, o Restringido a el haz de recta y=mx: El candidato es 0. Probemos por definición, en este caso es posible: Esta desigualdad por hipótesis. Bibliografía: Introducción al Análisis Matemático (Cálculo 1 y 2) – Hebe Rabuffetti Cálculo 2 Spinadel, Vera N. Cálculo 2 Larson Cálculo Diferencial e Integral Antonio Aburto Barragan Cálculo Diferencial e Integral N. Piskunov 82 Análisis Matemático 1 y 2 J. Rey Pastor Cálculo de Varias Variables M. Besada- J. García – M.A. Mirás – C. Vazaquez Consultas en Internet: www.newgrupos.com www.elprisma.com www.slta.uma.es www.cidse.itcr.ac.cr 83 “Viabilidad de realizar un complejo habitacional de tres niveles en suelos de relleno” Fundación del tipo platea en un terreno de relleno en laguna Autores: Gisela Cecilia Alvaredo Jorge Germán Ulises Soto mail: [email protected] mail: [email protected] RESUMEN El propósito del trabajo era brindar ayuda en lo social, a personas que habitan terrenos donde existían lagunas y que luego fueron rellenadas. Nuestro objetivo era, si se podía materializar un complejo habitacional de 3 plantas, adoptando una fundación tipo platea como sustento de la construcción y optando por el sistema constructivo EMMEDUE, que consta en revocar paneles de isopor, cubiertas por mallas metálicas, implementado con 25 años de éxito en Europa. Reduce costos y tiempos de ejecución de la obra como ventajas. Utilizamos el método simplificado en el análisis del conjunto suelo-cimientoestructura. Realizado los cálculos del peso total del Complejo y, con la tensión del estudio de suelo, se calculó la sección necesaria, la que nos arrojó un valor menor a la superficie que teníamos por proyecto, llevándonos a la conclusión de que la obra se puede materializar en ese lugar. Palabras claves: laguna – habitantes – Complejo – Platea - EMMEDUE INTRODUCCIÓN El presente trabajo se enmarca dentro del Curso de Posgrado de Metodología de la Investigación. Dicho trabajo fue desarrollado en la Facultad de Ingeniería dependiente de la Universidad Nacional del Nordeste, de la ciudad de Resistencia, provincia del Chaco, Argentina; donde se realizaron actividades de búsqueda de información, relevamiento de datos y recorridos por los sectores del Área de la Laguna Arguello donde se vislumbra la problemática analizada. Dicho problema es la capacidad de sostén del relleno de la Laguna Arguello, del sector ubicado sobre la calle Patrón entre Saavedra y Av. Paraguay (Villa Don Rafael) para la construcción de un complejo habitacional. Históricamente se consideró que las lagunas, eran espacios inservibles, sucios, generadores de alimañas etc., y un símbolo de progreso era rellenarlas con distintos tipos de materiales y seguir avanzando con la urbanización, implantando sobre el territorio una cuadrícula dominial y catastral sin una adecuación respetuosa al ambiente 84 natural que le sirva de soporte. Como resultado, de las 70 lagunas que existían, hoy sólo quedan 29 en todo el Área Metropolitana, totalmente ahogadas, asfixiadas por el progreso y perdidas irreversiblemente para la biodiversidad del lugar. A mediados de la década del 30, ésta laguna cubría una superficie de 30 hectáreas, rodeada de importante masa boscosa y fauna muy rica, en la actualidad sólo alcanza a cubrir 9,5 hectáreas, rodeada de viviendas familiares y atravesada por calles. El descontrolado crecimiento urbano del Área Metropolitana del Gran Resistencia (AMGR) ha producido entre otras, muchas consecuencias negativas, el sostenido avance anárquico del uso del suelo y, principalmente la ocupación indiscriminada de las riberas de las lagunas del AMGR, con alta vulnerabilidad hídrica para las personas, patrimonio y actividades (la ciudad con precipitaciones que no superan los 50 mm, ya sufre los múltiples inconvenientes que producen las inundaciones pluviales), la escasez de espacios verdes adecuados para recreación y esparcimiento de la población y el deterioro ambiental creciente (materializada por rellenos incontrolables de las lagunas para el asentamiento de viviendas precarias), nos están dando la pauta de lo que hemos estado haciendo mal. Es por ello que nos planteamos si un terreno de relleno soportaría un complejo habitacional de tres niveles con una fundación del tipo platea. Siendo nuestro objetivo aprovechar al máximo el relleno ya existente sobre la Laguna Arguello evitando así continuar con estas prácticas antinaturales. Se debe tener en cuenta que en su mayoría los ocupantes de estos espacios son personas provenientes del interior de la provincia en búsqueda de mejores oportunidades laborales, con diferentes grados de antigüedad en los asentamientos. Tenemos la ventaja y el compromiso histórico de que aún estamos a tiempo de revertir en parte nuestros males. Por todo lo expresado, consideramos se hace necesaria la apropiación social de esos nuevos espacios, transformándose los vecinos en los directos cuidadores de los mismos a través de un trazado urbano digno para la población, con la simultánea revalorización del sistema fluvial lacustre, y mejorando así los estándares de vida tanto en lo social, como en la salud y la educación, eliminándose áreas de conflictos en múltiples aspectos. El saneamiento legal de una vivienda propia digna y un inmueble con servicios mínimos, le permitirá superar la discriminante condición marginal de intrusos para transformarse en propietario de su vivienda. DESARROLLO El Complejo habitacional analizado en el presente trabajo de investigación estará compuesto por el sistema denominado EMMEDUE® (M2), de origen italiano, con más de veinte años de utilización en diversas partes del mundo. El sistema se caracteriza por ser de menor costo y demandar menos tiempo de ejecución que la construcción tradicional, manteniendo y superando en muchos aspectos los estándares de calidad y confiabilidad habituales. Poseen elevado aislamiento termo-acústico, una elevada resistencia al fuego y a los riesgos sísmicos junto a una elevada calidad. El sistema calidad de EMMEDUE® está certificado por la norma UNI en ISO 9001 El mismo esta compuesto por: 85 Paneles modulares de poliestireno y red de acero cincado para paredes portantes, divisorias, pisos y escaleras. A continuación procederemos a detallar los distintos elementos constructivos con sus Especificaciones Técnicas, que se utilizarán en el complejo habitacional adoptado: 1.- Panel Simple Panel ideal para paredes, tabiques, divisorios, pisos, paredes de cerramiento y cubiertas de edificios civiles e industriales. Utilizado como estructura portante para construcciones hasta 4 pisos con aplicación de revoque estructural sobre los dos lados; para tabiques, divisorios y paredes de cerramiento, en edificios nuevos o para reestructurar; para paredes de cerramiento y divisorios en edificios industriales y comerciales de grandes dimensiones; como encofrado perdido aislante para cubiertas y pisos de variada dimensiones, predispuesto con o sin refuerzos pre-colados. Densidad del panel de poliestireno: 15 kg/m3 Espesor del panel: 6 cm spritz beton (cal inferior de 5% en peso del cemento): 3,5 cm Peso total del conjunto por metro cuadrado: 168,9 kg/m2 2.- Panel Losa Utilizado para realizar losas y cubiertas con viguetas de hormigón armado, con notables ventajas en términos de ligereza, aislamiento y rapidez de montaje. Con el panel EMMEDUE® formado por una placa moldeada de poliestireno expandido se realizan pisos y cubiertas de edificios con la adición de acero complementario en el interior de las específicas viguetas y sucesivamente en la obra con la colada de hormigón. Densidad del panel de poliestireno: 15 kg/m3 Altura del panel: 16 cm spritz beton (cal inferior de 5% en peso del cemento): 5 cm Peso total del conjunto por metro cuadrado: 122,4 kg/m2 86 3.- Panel de escalera Panel para una escalera ligera, resistente y de rápida realización. Está constituido por un bloque de poliestireno expandido moldeado según las exigencias del proyecto, recubierto con dos mallas metálicas unidas entre ellas por medio de costuras de alambres de acero soldados con electrofusión. Este panel, adecuadamente armado y completado en la obra con colada de hormigón en los huecos específicos, se utiliza para la realización de rampas de escaleras que serán luego acabadas externamente con revoque tradicional, baldosas u otro material. El panel escalera se caracteriza por la facilidad y rapidez con la que se coloca así como también por su ligereza y resistencia estructural. Densidad del panel de poliestireno: 15 kg/m3 Altura del panel: 15 cm spritz beton (cal inferior de 5% en peso del cemento): 5 cm Peso total del conjunto por metro cuadrado: 122,2 kg/m2 4.- Panel descansillo Panel para la realización de descansillos, forjados y placas armadas bi-direccionales. Aporta un aislamiento continuo hacia el intradós del panel. El panel descansillo EMMEDUE® es una excelente solución para realizar descansos contiguos a las escaleras realizadas con el panel escalera EMMEDUE®. El panel descansillo se puede usar también para cualquier placa o losa de cemento armado bidireccionales con la ventaja de un peso modesto respecto a una losa llena y la presencia de un aislante continuo que funciona también como encofrado. Densidad del panel de poliestireno: 15 kg/m3 Altura del panel: 16 cm spritz beton (cal inferior de 5% en peso del cemento): 5 cm Peso total del conjunto por metro cuadrado: 122,4 kg/m2 87 La Planta General Tipo del Complejo Habitacional se detalla en la siguiente figura. 6.32 COCINA DORMITORIO 3.00 6.16 5.12 2.80 BAÑO DORMITORIO COMEDOR PORCHE PLANTA TIPO Esc. 1:100 La elección de los distintos tipos de fundaciones que se conocen, surgen de la interacción de: - las propiedades mecánicas del suelo, - el tipo de cargas, - la intensidad de cargas, - las deformaciones producidas por la interacción de suelo-cimiento-carga estructural. En el análisis del conjunto suelo-cimiento-estructura utilizamos el método simplificado que realiza una revisión global de la cimentación, determinando las cargas transmitidas por la estructura y sus puntos de aplicación. La presión promedio sobre el suelo se compara con la capacidad de éste. El procedimiento más sencillo para el análisis de la cimentación es el de considerarla como piso invertido: esto es, suponer que las columnas, apoyos fijos y la losa está cargada con una presión uniforme igual a la carga total por unidad de área transmitida por la estructura 88 El método considera que la cimentación es muy rígida, por lo tanto ignora los hundimientos diferenciales La fundación que se adoptó para transmitir las cargas del complejo habitacional hacia el suelo de relleno analizado es una Platea de Hº Aº. Se eligió este tipo en base a criterios técnicos conocidos. Se aprecia en la imagen la fundación de platea de una construcción con el Sistema Constructivo adoptado. Se cuenta con un Análisis de Estudio de Suelo (Ver Anexo I), próximo al área estudiada, el mismo proporciona las características de Tensión admisible del Suelo, valor que define el tipo de fundación para las cargas actuantes. 89 Procedimiento de Cálculo: En función de la Planta tipo adoptada se plantea el siguiente Esquema Estructural: 3.00 Planta Techo 3.00 2º Piso 3.00 1º Piso 3.00 3.20 Planta Baja 6.16 Esquema de Corte 3.00 3.20 L1 L2 T2 T1 T3 PLANTA ESTRUCTURA Esc. 1:100 T2 T3 Espesor de la Platea de Hº Aº = 0,20m . T1 0.80 3.00 3.20 0.80 Esquema de las Fuerzas Actuantes sobre la Platea 90 Se procedió a realizar el análisis de las cargas actuantes en el Sistema Estructural. Se determinó las cargas de las Losas de todos los Niveles, las mismas transmiten sus cargas a los tabiques portantes. Una vez determinado el esfuerzo que soportan los tabiques se procedió a trasladar su influencia a la platea analizada y con dicha información y los datos aportados por el Estudio de Suelo, se efectuó su verificación. A continuación se procede a realizar los cálculos correspondientes: I) Losas Placas EMMEDUE 1) Análisis de carga de losas a) Planta techo (Losa 1= losa 2) Sobrecarga: Azotea inaccesible = 0,10 t/m2 Hormigón de pendiente 0,12m x 2,2 t/m3 = 0,264 t/m2 Carpeta 0,03m x 2,2 t/m3 = 0,066 t/m2 Placa Losa EMMEDUE = 0,122 t/m2 Cielorraso suspendido de yeso = 0,02 t/m2 --------------------------q = 0,572 t/m2 b) Losas del 2º piso (Idem Losas del 1º piso) (losa 1= losa 2) Piso 0,03m x 1,8 t/m3 = 0,054 t/m2 Carpeta de Asiento 0,02 m x 2,2 t/m3 = 0,044 t/m2 Contrapiso 0,1 m x 2,2 t/m3 = 0,22 t/m2 Placa Losa EMMEDUE = 0,122 t/m2 Cielorraso suspendido de yeso = 0,02 t/m2 Sobrecarga = 0,2 t/m2 --------------------------q = 0,66 t/m2 2) Solicitaciones de Losas a) Planta Techo a.1) Losa 1 Q1 = q x L/2 q = carga sobre la losa x m2 L = luz de calculo Q = esfuerzo de corte en la sección mas solicitada Q1 = 0,572 t/m2 x 3 mts / 2 = 0,86 t/m a.2) Losa 2 Q2 = 0,572 t/m2 x 3,2 mts / 2 = 0,92 t/m 91 b) Planta 2º piso (Idem planta 1º piso) b.1) Losa 1 Q1 = 0,66 t/m2 x 3 mts / 2 = 1,00 t/m b.2) Losa 2 Q2 = 0,66 t/m2 x 3,2 mts / 2 = 1,10 t/m II) Paneles simples EMMEDUE 1) Análisis de cargas del panel simple (tabiques) a) Tabique 1 (T1) Q1: carga distribuida que actúa sobre el tabique Q1 del nivel planta techo 0,86 t/m Q1 del nivel planta 2º piso 1,00 t/m Q1 del nivel planta 1º piso 1,00 t/m 2 Peso propio del panel EMMEDUE 0,169 t/m x 9,00 m = 1,53 t/m ---------------T1 = 4,39 t/m b) Tabique 2 (T2) Q1 del nivel planta techo 0,86 t/m Q2 del nivel planta techo 0,92 t/m Q1 del nivel planta 2º piso 1,00 t/m Q2 del nivel planta 2º piso 1,10 t/m Q1 del nivel planta 1º piso 1,00 t/m Q2 del nivel planta 1º piso 1,10 t/m Peso propio del panel EMMEDUE 0,169 t/m2 x 9,00 m = 1,53 t/m ---------------T2 = 7,51 t/m c) Tabique 3 (T3) Q2 del nivel planta techo 0,92 t/m Q2 del nivel planta 2º piso 1,10 t/m Q2 del nivel planta 1º piso 1,10 t/m Peso propio del panel EMMEDUE 0,169 t/m2 x 9,00 m = 1,53 t/m ---------------T1 = 4,65 t/m 92 III) Fundación Platea de Hormigón Armado Se adoptó una platea de Hormigón Armado de 20 cm de espesor, cuya resistencia característica (βcn) es de 170 kg/cm2 y su módulo de elasticidad (Eb) es de 275.000 tn/m2 Las dimensiones de la Platea están en función de la Planta arquitectónica que se ve en la figura Las características del suelo de fundación se obtuvieron del estudio de suelo que se adjunta en el Anexo I, y cuyos datos de interés aplicados a este trabajo son los siguientes: Tensión Admisible del terreno (σt adm) = 7 tn/m2 Según la clasificación de suelos SUCS (Tabla 12.5 – Anexo II) CL: Arcilla Limosa ML: Limos Inorgánicos de baja compresibilidad Con estos datos, se obtuvo de la tabla 7.2 del libro ―Diseño Estructural de Cimientos‖ del autor Melli Piralla (Anexo II), el modulo de reacción del suelo (Ks) = 1,30 kg/cm3 a falta de información más específica. A continuación se plantea la verificación de la Platea adoptada en este informe Carga Total actuante (N) N= T1 + T2 + T3 = N = 4,40 t/m + 5,71 t/m + 4,7 t/m = 16,61 tn Calculo de superficie necesaria en platea Nt: carga total transmitida al estrato de suelo, incluye el peso de la cimentación y las cargas actuantes en la misma. Se considera un 10% más de la carga total actuante N. Nt = 1,10 x N = 1,10 x 16,61 t/m = 18,27 t/m El área de la platea (Ωnec), se determina suponiendo una distribución uniforme sobre la misma a partir de la carga de diseño transmitida por la estructura (Nt), dividida entre las presiones resistentes del suelo (σt adm). Ωnec = Nt = 18,27 t = 2,61 m2 σt adm 7 t/m2 Largo necesario = 2,61 mts < largo mínimo adoptado = 7,8 mts 93 B.C. Verificación de la sección de la platea según condición de Rigidez. Para que el cimiento sea rígido se debe cumplir que la longitud del tramo (Lt) verifique la siguiente formula: Lt ≤ 1,75 x 4 Ic . 4 . Eb Ks . b La longitud del voladizo (Lv) debe verificar la siguiente fórmula: Lv ≤ 0,88 x 4 Ic . 4 . Eb Ks . b Ic = Inercia del cimiento Eb = modulo de elasticidad del Hormigón Ks = modulo de reacción del suelo b = ancho de la faja a considerar Ic = b x h3 / 12 h : espesor de la platea 1,00 m x (0,20 m)3 Ic = 6,60 x 10- 4 m4 12 Lt ≤ 1,75 . 4 6,6 . 104 . 4 . 2750000 tn / m2 3,20 mts 1300 t / m3 . 1,00 m Igual a la longitud del tramo adoptado, por lo tanto estamos en buenas condiciones. Para el voladizo: Lv ≤ 0,88 . 4 6,6 . 104 . 4 . 2750000 tn / m2 1,60 mts 1300 t / m3 . 1,00 m La longitud del voladizo adoptado es de 0,80 mts, cumpliéndose la condición requerida. CONCLUSIONES Del resultado obtenido, concluimos que sobre el terreno de relleno analizado, se puede materializar el Complejo Habitacional de tres plantas, cuyas características técnicas se describieron en el presente informe, utilizando el sistema de fundación del tipo platea. Esto conllevaría a mejorar el nivel de vida de los habitantes que ocupan dicho sector, evitando el hacinamiento de los mismos y brindando las redes de infraestructura 94 mínima con la salubridad y la legalidad necesarias, con la simultánea recuperación y revalorización del sistema fluvial lacustre. Se evitaría el incontrolable relleno creciente de los bordes de las lagunas para de esta manera evitar el deterioro ambiental. Se pueden identificar los siguientes beneficios de la propuesta: Rescate de la población ribereña, transformando las áreas aptas con viviendas dignas y con servicios mínimos indispensables, reinserción en la sociedad de los habitantes y mejoramiento de sus estándares de vida. Mantener la capacidad de reservorio de las lagunas para mejorar el sistema de escurrimiento pluvial de la ciudad. Ampliación de la superficie de áreas urbanas recreativas en una ciudad con déficit de espacios verdes recreativos de uso público. Revalorización inmobiliaria del entorno de las lagunas recuperadas. Debemos dejar aclarado, que nuestro fin con este trabajo de investigación es materializar el Complejo Habitacional solo en las lagunas que han sido rellenadas y no pueden ser recuperadas. No queremos que se considere con este trabajo que las lagunas deben ser rellenadas para proporcionar una solución habitacional. Consideramos que la influencia del ecosistema a la hora de proyectar la urbanización debe ser un factor preponderante. BIBLIOGRAFÍA MELLI PIRALLA, Roberto. Diseño Estructural de Cimentaciones. Editorial Limusa. CALAVERA RUIZ, José. Calculo de Estructuras de Cimientos. Editorial Intemac. CIRSOC 101. Cargas y Sobrecargas Gravitatorias para el Calculo de las Estructuras de Edificios. Julio 1982. Buenos Aires: INTI-1996 JUAREZ BADILLO, Eulalio. Mecanica de Suelos Tomo I segunda edición, Limusa. México – 1979. DUNHAM, C. W. Cimentaciones de Estructuras. Segunda edición, Mc Graw Hill, Madrid - 1968. Paginas web: www.ecoportal.net/Contenido/Temas_Especiales/Agua/Laguna_Arguello_Histori a_de_la_Ciudad. (16/05/2009) www.chaco.gov.ar/APA/institucional/amgr/Arg%c3%Bcello.pdf (16/05/2009) www.ecoportal.net/content/view/full/21321 (16/05/2009) www.mdue.it/es/ (20/05/2009) www.madres.org/scompartidos/sisconstructivo-/emmedue.html (20/05/2009) 95 VIBRACIONES MECÁNICAS EN MOTORES DE COMBUSTIÓN INTERNA Autor: Ing. Raúl Isaías Maderna Trabajo final del Curso de Postgrado de Metodología de la Investigación Científica. ABSTRACTO Conocer el porque de la existencia de vibraciones en los motores de combustión, es el primer paso para lograr su compensación o la eliminación de los efectos que las producen. Por ello el trabajo consistió en hacer un estudio de las masas en movimiento, describiendo su desplazamiento instantáneo y analizando las variaciones de velocidades y aceleraciones que sufren durante su funcionamiento. Determinando las fuerzas y los momentos de inercia, como también los efectos de la combustión de la mezcla sobre la máquina en estudio. Conociendo de esta manera como reaccionarán los materiales que componen los distintos elementos del motor y el efecto de las vibraciones torsionales que afectan al cigüeñal. Palabras Claves: Vibraciones, fuerzas, momentos de inercia, torsionales INTRODUCCIÓN Fue a través de la experiencia propia lograda a lo largo de tantos años en mi actividad profesional; especialmente en lo que hace a montaje de ascensores a tracción e hidráulicos y su mantenimiento posterior, como también por la observación directa de los efectos producidos por las vibraciones en los diferentes componentes mecánicos de las máquinas, lo que hizo que me incentivara la necesidad de investigar sobre este fenómeno que aparecía en toda pieza diseñada por la ingeniería. La aparición del fenómeno de vibración en máquinas es un problema que muchas veces resulta de difícil solución para el ingeniero y/o diseñador. Estos problemas suceden tanto en la fase de proyecto como en la fase de uso normal. En la fase de proyecto, el diseñador y/o ingeniero debe tener en cuenta de cómo se podrá reducir ó eliminar este fenómeno. En cambio en la fase de uso normal de una máquina, el problema de las vibraciones podrá aparecer por muchos motivos. Para ello se puede dar los siguientes ejemplos de acuerdo a la intensidad de las vibraciones y cual puede ser el resultado final sobre el sistema sobre el cual se produce: a.- Por daño total en un motor eléctrico, producido en su bobinado por desgaste de los bujes soportes del rotor y los extremos del eje del mismo. En este caso, al no haber contado con un correcto mantenimiento preventivo, y al haberse producido un notable desgaste, el rotor del motor comienza a vibrar produciendo rozamientos contra el bobinado del estator. Dicho rozamiento fue generando un aumento de temperatura del bobinado, hasta valores que superaba las posibilidades de evacuación del calor calculadas para dicha máquina. 96 Como dato final, el bobinado se terminó quemando, con la consiguiente detención del motor. b.- En otro caso y debido a la calibración no adecuada de las zapatas de freno del grupo motor, se generaban vibraciones que eran transmitidas a la cabina, las que eran percibidas por los usuarios del ascensor. En este caso no se llegó a la falla por rotura de la máquina, pero producía molestias a los pasajeros durante el viaje. Todo esto se completó con la lectura de muchos casos reales investigados por otros profesionales, lo que despertó mi interés en conocer más del tema. Al principio, la idea de hacer investigación en esta área fue desechada por mi ya que no tenía claro cual era la especialidad que yo quería emprender en ingeniería mecánica. Luego de analizar diferentes sistemas mecánicos simples y complejos, tomé la decisión de abocarme al ámbito que más conozco: el de los motores de combustión interna. Por que los motores de combustión interna? Por que considero que la investigación a desarrollar puede ser un aporte a la enseñanza y didáctica de la ingeniería, tan imprescindible en los estudiantes de mecánica. Para dar inicio a este trabajo, considero de relevancia plantear el problema y la metodología que se utilizará para abordarlo. El problema planteado es estudiar los efectos producidos por las vibraciones mecánicas generadas por esfuerzos torsionales en el motor de combustión interna. La metodología propuesta es la siguiente: Generar una falla, que se traduzca en un estímulo generador de pulsos de vibración sobre el eje cigüeñal, efecto que se pueda detectar por los transductores de señales y se realice una lectura de los resultados. OBJETIVOS a.- Realizar el estudio teórico del funcionamiento de las partes en movimiento de un motor. b.- Determinar los esfuerzos que soporta la máquina, especialmente en aquellos elementos sujetos a rotación y/o traslación. c.- Generar o simular una falla, la que puede ser: c.1.- Debido a desgaste por funcionamiento normal c.2.- Debido a mal montaje de las piezas. c.3.- Debido a desequilibrio estático o dinámico por pérdida de material y también por desalineación de piezas. ACTIVIDAD Confección de planillas de cálculo y gráficos de los distintos sucesos. HIPOTESIS 97 ¿Cómo se pueden detectar las vibraciones producidas en los elementos mecánicos sujetos a movimientos de rotación y traslación y que aparecen por estímulos externos circunstanciales? ¿Cuál es la importancia de poder detectar las vibraciones en dichos elementos y a su vez conocer la respuesta a esos estímulos? ¿Se podría evitar daños permanentes en los mismos? En un motor en estudio ¿Cuál será la ubicación más adecuada para poder colocar los sensores a fin de realizar la obtención de datos, los cuales serán tenidos en cuenta para un análisis posterior de prevención? DESARROLLO BASE TEÓRICA 1.- Vibraciones mecánicas. Se sabe que todo cuerpo o sistema que tiene masa y elasticidad, es capaz de vibrar a una o más de las frecuencias naturales del mismo, en este caso se dice que el sistema tiene o experimenta una vibración libre (o natural) y que la misma se produce sin que existan estímulos externos aplicados a él. Esto considerando que es mínima o nula la amortiguación. Las frecuencias naturales son parte de las propiedades del sistema dinámico y dependen de su distribución de masa y de su rigidez. Ahora bien, si dicho sistema recibe un estímulo, como una fuerza o trabajo exterior, del tipo oscilatorio, entonces el mismo será obligado a vibrar a la frecuencia de excitación, por lo tanto se dice que el sistema está bajo el efecto de una vibración forzada. Si la frecuencia de excitación coincide con alguna de las frecuencias naturales del sistema en cuestión, la amplitud de la primera se sumará a la amplitud de la segunda, dando lugar a una amplitud aún mayor. Cuando sucede esto, se dice que el sistema se encuentra en un estado de resonancia, dando lugar a oscilaciones elevadas en amplitud, las que pueden ser muy peligrosas para las condiciones estructurales o de vida útil de las máquinas. Como se define una vibración? La vibración, en general, se trata de un movimiento ondulatorio periódico. Esto quiere decir que dicho movimiento se repite con todas sus características después de un cierto intervalo de tiempo, al que se denomina período de la vibración. La vibración puede ser representada por medio de una gráfica desarrollada en un par de ejes X e Y. Sobre el eje Y se representa el desplazamiento de la vibración, y sobre el eje X el tiempo o período con que se repite la misma. Por otro lado un cuerpo o sistema puede poseer, en su estado oscilatorio, un grado de libertad, dos grados de libertad o ―n‖ grados de libertad. Cuando, un cuerpo tiene un grado de libertad, significa que se puede describir su posición geométricamente, en cualquier instante, por una sola coordenada. 98 Si el cuerpo tiene dos grados de libertad, se puede describir su movimiento en dos direcciones o en un par de ejes. En la medida que el movimiento oscilatorio tenga más grados de libertad, su estudio será más complejo, desde el punto de vista matemático. Pero las vibraciones en máquinas pueden llegar a estudiarse considerando el o los sistemas con un solo grado de libertad, lo cual simplifica el análisis correspondiente. Adelantándonos un poco al trabajo a desarrollar, podemos decir que a través del estudio de las vibraciones, se puede determinar cuáles serían las partes de una máquina que deberían ser investigadas para reducir los efectos de las mismas sobre todo el conjunto en general y sobre los usuarios en particular. Luego de esta breve introducción al tema, el paso siguiente es desarrollar el estudio de las vibraciones que se producen en el motor de combustión interna. Para ello nos hacemos la siguiente pregunta: El estudio que se llevará a cabo, ¿será sobre un motor fijo o no? Un motor fijo es utilizado para mover una máquina que está en un lugar determinado. Por ejemplo: un motor de combustión interna que mueve un generador de energía eléctrica. El caso contrario será, por ejemplo, el de un automóvil. En ambas situaciones, los motores sufren vibraciones importantes. Pero en este trabajo se enfocará la atención en motores utilizados en diferentes tipos de vehículos y bajo diferentes exigencias de trabajo. Hay que tener en cuenta que esta amplitud en el rango de velocidades, complica aún más la reducción y/o eliminación del efecto de las vibraciones, justamente por la variación de la carga aplicada. 2.- Análisis de vibraciones en el motor Al analizar los problemas inherentes a los motores de combustión interna, podemos definir dos grupos dentro del fenómeno de las vibraciones, los cuales son: A.- La transmisión de vibraciones del motor a la base como un todo. B.- Las oscilaciones torsionales en el cigüeñal y en el sistema de ejes de la máquina motriz. Todos estos efectos están originados por las características propias de funcionamiento del motor, lo cual genera la primera pregunta: Por que se producen esas vibraciones? Antes de dar una respuesta a esta pregunta se analizará el funcionamiento complejo del sistema de biela-manivela Dicho sistema es complejo por que el motor, en su funcionamiento transforma energía calórica producto de la combustión de la mezcla, en energía mecánica, a través de su sistema biela-manivela. 99 Este sistema está compuesto por pistones, bielas y el cigüeñal mismo, lo que dificulta el funcionamiento debido a que los pistones tienen movimiento rectilíneo alternativo, el cigüeñal tiene movimiento circular que varía con la velocidad de rotación y las bielas tienen movimiento combinado. Para simplificar el movimiento de estas últimas, se puede decir que un porcentaje de las mismas tienen un movimiento rectilíneo alternativo, acompañando a los pistones en su recorrido, y el otro porcentaje tiene un movimiento circular, acompañando al cigüeñal durante el tiempo que está el motor en funcionamiento. A su vez el pistón tiene un recorrido limitado por el cilindro y además sufre aceleraciones y desaceleraciones en su desplazamiento desde el punto muerto inferior al punto muerto superior y viceversa. En esos puntos extremos, la velocidad de pistón es cero y se puede decir que en su recorrido medio, la velocidad es máxima. Estas variaciones de velocidades y aceleraciones extremas de las masas en movimiento, hace que den lugar a la generación de vibraciones que si no son adecuadamente controladas o eliminadas, pueden dar lugar a fallas permanentes en la máquina. Ya se verá más adelante que las vibraciones no podrán ser eliminadas en su totalidad, pero si amortiguadas, reduciendo sus efectos en la máquina. La segunda pregunta es: Cuales son los componentes más afectados por las vibraciones generadas por el funcionamiento normal del motor? Son aquellos que forman el sistema biela-manivela, que está compuesto por los siguientes elementos: Cigüeñal: Este elemento sufre vibraciones debido a esfuerzos torsionales y de flexión. Bielas: Las mismas forman parte del sistema biela-manivela, soportando esfuerzos de tracción y compresión durante el ciclo completo de funcionamiento. Pistón: otro componente del sistema que soporta esfuerzos de compresión y elevado gradiente de temperaturas, además de grandes aceleraciones alternativas y periódicas, debido a las variaciones periódicas de la presión del gas o mezcla al producirse la combustión. Este es el motivo por el cual el análisis será enfocado en el sistema completo de bielamanivela, ya que su funcionamiento complejo vuelve interesante la investigación. 3.- Análisis del sistema de biela – manivela Para analizar dicho sistema, se estudia un motor monocilíndrico, de tal manera de lograr una simplificación debido la complejidad del sistema, pudiendo así representarlo, gráficamente, en un solo plano, y considerar que tiene un solo grado de libertad. Si observamos la siguiente figura 1, vemos que: Se ha representado el sistema biela – manivela en el plano, donde se puede observar que el desplazamiento del pistón es designado por la letra xp. 100 A su vez, también se puede conocer la posición instantánea de la manivela y de la biela con los ángulos y t , con respecto al giro del cigüeñal. Entonces: xp = desplazamiento del pistón desde la parte superior. = el ángulo formado por la biela con el eje perpendicular al cilindro. r = radio de manivela l = longitud de la biela t = ángulo de la manivela desde la parte superior del punto muerto. Para el análisis suponemos que el cigüeñal gira con velocidad angular constante, por lo tanto es constante. Para calcular la posición instantánea del pistón en función del ángulo t , se determina que la distancia xp es igual a la diferencia entre los segmentos DO – BO, o sea r 1 cos t (1) Pero para calcular exactamente el valor de la posición del pistón, con respecto al muñón de cigüeñal, se tendrá en cuenta un factor de corrección que será la suma entre los segmentos OB y BC. x r 1 cos t l 1 cos (2) Esta última ecuación la podemos poner en función de t , teniendo en cuenta que el segmento AB es el lado que comparten ambos triángulos en el dibujo. Por lo tanto: l.sen r.sent r sen sent (3) l Si t sent 1 sen , la relación 2 máxima de la biela. r es el valor de la inclinación l Por trigonometría se sabe que: cos 1 sen (4), si sustituimos la (3) en la (4) 2 tendremos entonces: cos 1 r2 l2 sen t 2 (5) La ecuación para determinar la posición exacta del pistón en su recorrido hacia el punto muerto inferior, en función del ángulo t será, 101 r2 x r. cos t l 1 2 sen 2t (6) l Se puede eliminar la raíz cuadrada de esta ecuación, de tal manera de simplificar los r cálculos posteriores, teniendo en cuenta que la relación , varía entre los siguientes l valores 1/3 a 1/5. Como estos valores son menores que la unidad y a su vez están dentro de la raíz cuadrada, el valor final es aún más pequeño y puede ser despreciado. La eliminación de la raíz se puede hacer utilizando el teorema de los binomios, por lo que el valor final tendrá un error de aproximación muy pequeño, que para nuestro caso es despreciable. Por lo tanto la ecuación exacta para determinar la posición instantánea del pistón es la siguiente: x r. cos t l r2 sen 2t (7) 2l Si sustituimos el cuadrado del seno por el coseno del ángulo doble mediante la identidad trigonométrica tendremos: cos 2t 1 2sen 2t sen 2t 1 cos 2t (8) 2 Reemplazando la (8) en la (7) y tendremos la ecuación aproximada del desplazamiento del pistón. xl r2 r r cos t cos 2t (9) 4l 4l A partir de esta ecuación podremos obtener las ecuaciones aproximadas para determinar el valor de la velocidad y la aceleración, derivando con respecto al tiempo, a saber: r x r sent sen2t (10) 2l r x r 2 cos t cos 2t (11) l Si observamos estas ecuaciones, las tres tienen algo en común; están compuestas de armónicas de primer orden y de segundo orden. Esto quiere decir que la primera armónica se repite una vez por vuelta de cigüeñal y la segunda se repite dos veces por cada vuelta de cigüeñal. Hay que tener en cuenta que existen armónicas de orden superior pero que fueron suprimidas por tener valores pequeños. 102 El tener en cuenta la existencia de estas armónicas es de gran importancia a la hora de hacer un equilibrado del sistema para reducir las vibraciones generadas por el funcionamiento normal del motor. Si ahora se hace el análisis del movimiento de las partes giratorias del cigüeñal, considerando que las mismas pueden ser reemplazadas por una masa equivalente mc en el muñón, entonces como dicho movimiento se puede descomponer en dos direcciones, el desplazamiento en la dirección x será, xc r cos t , Si a esta ecuación la derivamos dos veces con respecto al tiempo, se obtendrán las componentes verticales de la velocidad y de la aceleración, x c r.sent x c r 2 . cos t Las componentes horizontales se obtienen de la misma manera y son: yc r.sent y c r. cos t y c r 2 .sent Ahora bien, según la segunda Ley de Newton, las aceleraciones producen fuerzas dinámicas en los sistemas físicos, por lo tanto, si multiplicamos la aceleración que sufre un cuerpo por su masa, esto genera una fuerza de inercia que variará con el tiempo en función del valor del ángulo t . El siguiente paso será analizar, más detenidamente, el movimiento de la biela. Ya que al tener un movimiento más complicado hace difícil su estudio. La parte superior de la misma tiene un movimiento alternativo rectilíneo, mientras que su parte inferior tiene un movimiento de rotación pura. Los demás puntos de la biela describen elipses, por lo que la obtención y la subsiguiente integración para obtener las fuerzas de inercia de cada uno de ellos, complican un poco el procedimiento. De cualquier manera a esto lo podemos simplificar reemplazando a la biela por una barra, de igual masa y con el mismo centro de gravedad, de tal manera que la trayectoria de ese centro de gravedad no varíe y por lo tanto la fuerza de inercia producida por este elemento sea igual al de la biela. Ahora bien, si a la masa de la barra se la reparte en dos masas concentradas en los extremos de la misma, entonces se podrán adicionar a estas las masas que corresponden, por un lado al pistón y perno de pistón, y por el otro lado a la masa de la manivela. 103 Entonces una vez realizado el procedimiento anterior, el paso siguiente es separar las masas que tienen movimiento alternativo rectilíneo y las que tienen movimiento de rotación pura. Si se observa la Fig. 1, se puede calcular la fuerza total de inercia en la dirección x, de todas las partes móviles de un cilindro, por lo tanto es: Fx mrec . x p mrot . xc (12) Fx mrec mrot .r 2 . cos t mrec . r2 2 . . cos 2t (13) l En la ecuación anterior se suman las fuerzas de inercia producidas por las masas que tienen movimiento rectilíneo alternativo y las masas que tienen movimiento de rotación pura. Para el caso de la componente horizontal y de la fuerza de inercia es, Fy mrot . y c mrot .r. 2 .sent (14) De la ecuación (13) podemos deducir que la misma está compuesta por un término primario que varía con la misma frecuencia del cigüeñal y con la amplitud r, y un término secundario que varía con una frecuencia doble a la del cigüeñal y con la misma amplitud. La ecuación (14) expresa que la fuerza de inercia en la dirección y, está formada, solamente, por la parte primaria del movimiento de rotación. Para calcular el par de inercia actuante, se multiplica la fuerza de inercia generada por las masas con movimiento alternativo, aplicada perpendicularmente sobre la cara del cilindro y a una distancia x del muñón del cigüeñal. De manera que el par resultante es: M mrec . x p .x.tg (15) De esta ecuación, se conoce el valor de la aceleración por la (11), y la distancia x, en este caso se calcula a partir de la siguiente ecuación, r2 r2 x l. cos r. cos t 1 r. cos t . cos 2t (16) 4l 4l A su vez la tg se obtiene de la siguiente manera: tg sen r.sent , cos l. cos y si cos 1 sen 2 ; entonces reemplazando esta ecuación en la anterior, queda 104 tg sen r.sent , cos l. 1 sen 2 Luego se elimina el radical, aplicando el teorema de los binomios, quedando la ecuación anterior con la siguiente aproximación: r2 sen 1 2 .sen 2 , y si a su vez 2l r sen .sent , entonces reemplazamos las anteriores en la de la tangente y l obtenemos, r r2 tg .sent 1 2 .sen 2t (a) l 2l Finalmente la ecuación del par queda: r 2 r r2 r2 r M mrec .r. 2 cos t . cos 2t . .sent.1 2 .sen 2t . l r. cos t . cos 2t l 4l l 2l 4l Si ahora se hacen las operaciones para reducir la ecuación anterior y despreciar los términos que son proporcionales a la segunda o más alta potencia de (r/l), al final queda, 3r r mrec .r 2 . 2 .sent cos t . cos 2t (17) 2l 2l Para lograr una ecuación a través de la cual se pueda visualizar mejor los efectos de las vibraciones generadas por este par, se deben utilizar las siguientes identidades trigonométricas: 1 1 sent. cos 2t .sen3t .sent (b) 2 2 2sent.cos t sen2t ( c ) Reemplazando (b) y (c) en la (17) se tiene finalmente, 1 3r r M mrec .r 2 . 2 .sent sen2t .sen3t (18) 2 2l 2l A partir de esta ecuación, se puede obtener el par de inercia que actúa sobre el muñón de manivela en la dirección del giro del cigüeñal, sin mayor error de cálculo para el tipo de motores que estamos estudiando. Asimismo se puede deducir, a partir de la observación de la ecuación, que la misma está compuesta por tres armónicas, las cuales varían en función del valor del ángulo t . 105 Pero la que tiene mayor importancia es la segunda armónica, por que tiene una incidencia mayor que las otras dos, ya que estas están multiplicadas por valores menores a la unidad. Recordemos que (r/l) es la relación manivela sobre biela y que por lo tanto el valor siempre será menor que uno. Entonces si le damos valores a los componentes de la ecuación (18) y teniendo en cuenta que la velocidad de giro suponemos constante, entonces a lo largo de un giro completo del cigüeñal se obtendrá una curva que tiene valores positivos y negativos, y su valor medio será cero. Esto quiere decir que este par no va a influir en nada en el par impulsor, pero crea grandes oscilaciones positivas y negativas en el mismo, acentuando las vibraciones y las irregularidades del movimiento. El otro efecto a analizar es la fuerza generada por la combustión de la mezcla airecombustible. Esta fuerza se produce al quemarse la mezcla generando un aumento de temperatura y de presión dentro del cilindro. Esa presión que se reparte por igual en todas las direcciones dentro de la cámara de combustión, actúa sobre la superficie del pistón, con una fuerza que va variando a medida que el pistón se desplaza desde el punto muerto superior hacia el punto muerto inferior. La acción de la fuerza se ira trasladando a través de la biela al muñón del cigüeñal y el efecto de la misma variará en función del ángulo formado con el eje del cilindro. Esta fuerza multiplicada por la distancia, genera un par o momento, el que se escribe a continuación, M g Fg .x.tg (19) Si remplazamos las ecuaciones (a) y (15) en la (19) tendremos, r 2 r r2 r2 M g Fg . .sent.1 2 .sen 2t . l r. cos t . cos 2t (20) l 4l 2l 4l Si se desarrolla esta ecuación y se desprecian los términos que contengan la relación (r/l) elevadas a cualquier potencia mayor que uno, dado que su valor se hace muy pequeño, entonces la ecuación anterior queda, r M g Fg .r.sent.1 . cos t (21) l Esta última ecuación expresa que la velocidad de giro del motor no incide para nada en la producción del par, y sólo dependerá de la fuerza generada por la combustión de la mezcla. Este momento como el momento debido a las fuerzas de inercia, se suman para dar el momento o torque total que actúa sobre el motor durante su funcionamiento. Cada uno de ellos tendrá mayor o menor incidencia sobre la máquina y esto dependerá de la velocidad de giro del motor. 106 Es decir que a mayor velocidad, el par o torque de inercia será más importante por que el mismo varía en función de la velocidad de giro al cuadrado, tal como se puede deducir de la fórmula (18). Por lo antes expuesto, se busca eliminar o reducir sus efectos durante el funcionamiento normal del motor, utilizando distintos elementos que compensen esas vibraciones. En el presente trabajo no se calculará ni analizará la función de cada componente que sirva para absorber las vibraciones. 4.- Análisis de las causas Se puede observar dos tipos de causas: las internas y las externas. Son externas, cuando la acción de estímulos que proceden de fuentes generadoras de vibraciones, pueden ser permanentes o aisladas. Una fuente puede ser la pieza deteriorada, de alguna máquina acoplada al motor, que puede presentar desgaste o que pueda estar mal montada y transmita vibración a los apoyos del cigüeñal. Son internas, cuando se producen por alguna falla en la máquina misma debido a diversas causas como por ejemplo: a.- un mal diseño, b.- un desgaste pronunciado en algún componente Cuales son las consecuencias del efecto de las vibraciones no deseadas? Cuando se diseña una máquina, se calcula sus componentes, con el suficiente nivel de confiabilidad para que pueda soportar las vibraciones normales que aparecen durante el funcionamiento de la misma. Por lo tanto se considerarán como vibraciones no deseadas aquellas que están fuera de las calculadas por diseño de la máquina y que pueden producir deformaciones permanentes o incluso llegar a la rotura del cigüeñal. En el caso del cigüeñal, como se dijo más arriba, se trata de la pieza que mayores esfuerzos torsionales soporta, como así también esfuerzos de flexión. 5.- Análisis de las frecuencias naturales de la vibración torsional. Una vez determinadas las fuerzas y momentos producidos por la inercia de las masas aceleradas y el efecto de la combustión de la mezcla, el paso siguiente será analizar las frecuencias naturales de la vibración de tipo torsional que afecta, principalmente, al eje cigüeñal. Por que se da esta vibración que denominamos torsional? Por que debido a la acción de las fuerzas y momentos antes mencionados, el eje cigüeñal experimenta una oscilación de un lado a otro, durante su funcionamiento. Oscilación que no es visible al ojo humano pero que tiene mucha influencia en la respuesta del eje a ese estímulo. Como se vio al principio de este trabajo, la cadena cinemática que denominamos biela – manivela, tiene masa y por lo tanto vibrará a una o más de las frecuencias naturales propias de la misma. 107 Por ello será importante conocer estas frecuencias naturales, pero el problema mayor será el como, sabiendo de antemano que este sistema está compuesto por elementos de diferentes masas y con diferentes movimientos y comportamientos. Entonces el primer paso será hacer una simplificación del sistema, partiendo de considerar que los componentes que tienen movimiento rectilíneo alternativo, como por ejemplo el pistón y la biela; como también los que tienen movimiento de rotación pura sean considerados como discos equivalentes en masa y con iguales momentos de inercia. A su vez, la manivela del cigüeñal es reemplazada por un eje recto y equivalente, de igual flexibilidad torsional. Por lo tanto y luego de estas simplificaciones, se tiene un sistema que reemplaza al motor y que es representado por un eje recto con varios discos equivalentes que corresponden a los distintos cilindros del motor, como también a los elementos acoplados a él, como por ejemplo: a.- Un volante, cuya función es regularizar el funcionamiento del motor, ó b.- un amortiguador de vibraciones, cuya función es absorber las vibraciones que se tienen en cuenta a través del cálculo. Con la simplificación realizada, el siguiente paso será calcular las frecuencias naturales del sistema en estudio, utilizando para ello el método de Holzer también llamado el método de aproximaciones sucesivas. Por que es importante conocer estas frecuencias naturales? Es importante conocer las frecuencias naturales para poder analizar el trabajo efectuado por el par motriz del motor sobre la oscilación del cigüeñal. Para que se entienda un poco de que se está hablando, es importante aclarar que el par motriz se genera sólo cuando se produce la combustión de la mezcla dentro del cilindro. En el caso de un motor de cuatro tiempos, este par se generará una vez por cada dos vueltas de cigüeñal, o sea durante un giro de 180º de cigüeñal. Este efecto se repite en forma periódica, conformando una onda de vibración compleja, la que puede ser descompuesta, según Fourier, en tantas ondas senoidales como existan, y donde cada una vibrará con su propia frecuencia. Fig. Nº 2 Fig. Nº 2 108 En la Fig. Nº 2, se puede observar como una onda compleja está compuesta por varias ondas simples cada una con su propia frecuencia. En la misma figura, el par de ejes (AMPLITUD – FRECUENCIA) representa lo que se denomina la FIRMA de una vibración, o sea las características particulares de la misma. También se llama a esta, la Transformada Rápida de Fourier y cuyas siglas en inglés son FFT, y será esta señal la que se podrá observar en un analizador. Ahora bien, si la frecuencia de alguna de estas ondas senoidales coincide con alguna de las frecuencias naturales del sistema, se producirá el efecto no deseado de resonancia. En esta situación, las amplitudes de las ondas que tienen igual frecuencia se suman, generando un incremento en la amplitud de la vibración resultante, dándose la posibilidad de producirse deformaciones sobre el eje cigüeñal, e incluso llegar a la rotura del mismo. Por último es necesario agregar que la velocidad de giro del cigüeñal, a la cual se produzca el estado de resonancia, se denomina velocidad crítica. El eje en cuestión tendrá una o más velocidades críticas, las que corresponderán a distintas frecuencias naturales del sistema y coincidirán con alguna de las armónicas de igual frecuencias del par motor. 6.- Obtención de datos. Como el presente estudio se basa en detectar vibraciones no deseadas, a través de un mantenimiento preventivo, tratando de reducir la frecuencia de fallas en el motor, se investigará en que lugar será necesario colocar los instrumentales necesarios para la obtención de datos. Como primer paso es importante tener una base de referencia o un mapa, para conocer cuales serían las señales que se obtendrían cuando el motor está en funcionamiento normal, ya sea por que es nuevo o por que se le hizo una reparación a nuevo de todo el conjunto. Estos datos de referencia servirán, como valores patrones, para comparar con los que se obtengan durante el uso de la máquina, en sucesivas lecturas, según un plan de mantenimiento programado. El plan de trabajos es el siguiente: a.- Determinación de datos de referencia o mapa de vibraciones normales de un motor nuevo o reparado a nuevo. Para lograr esto se requiere hacer los siguientes pasos: a.1.- Colocación del motor a ensayar en un BANCO DE PRUEBAS, siguiendo las metodologías dispuestas por las Normas de Ensayo de Motores (IRAM o cualquier otra que se disponga). a.2.- Colocar los instrumentos para la obtención de datos, en los lugares que indiquen las normas de ensayo adoptadas, ó en otras partes del motor que se consideren más adecuados para el estudio de las vibraciones. a.3.- Hacer el ensayo del motor a plena carga. Esto quiere decir que el motor estará con el acelerador a pleno gas. 109 a.4.- Tomar las lecturas e ir guardando los datos en computadora, con la intención de utilizarlas en un software para el análisis posterior. b.- Simulación de falla. Se estudia la respuesta de la máquina al efecto producido por piezas desgastadas debido al funcionamiento normal. b.1.- Una de las pruebas puede ser el reemplazo de los cojinetes de apoyo del cigüeñal por otros usados y con desgaste notable. b.2.- Realizar la prueba del motor, en estas condiciones, en el banco de ensayo y a plena carga. b.3.- Obtención de los datos e inclusión de los mismos en el programa de computadora. b.4.- Análisis de la información, para ver cuales son las diferencias que aparecen con las anteriores. 7.- Cuales son los instrumentos a utilizar? En cuanto al o los instrumentos a utilizar, los más adecuados serán, los denominados acelerómetros. Estos instrumentos miden la aceleración de gravedad y la vibración, y convierten una señal registrada por los mismos en una señal eléctrica analógica, proporcional a la fuerza aplicada al sistema, o mecanismo sometido a esa aceleración ó vibración. La señal analógica así obtenida indicará, en tiempo real, la aceleración instantánea del objeto sobre el cual está montado el transductor. CONCLUSIÓN Este trabajo consistió en preparar una base con el sustento teórico adecuado para iniciar a los alumnos de ingeniería mecánica, en el análisis de vibraciones en los motores de combustión interna e incentivarlos en las investigaciones que se podrán desarrollar a futuro. Esta base teórica será el pilar para que los alumnos puedan calcular las vibraciones en las máquinas, pero además, para que se pueda entender más a fondo el problema de las mismas, será fundamental la experimentación a partir de la visualización y la medición real, recurriendo al instrumental disponible y realizando una planificación con rigor científico de las actividades a seguir, sin dejar de lado la posibilidad de hacer uso de la improvisación para superar los problemas que aparezcan durante este proceso. La investigación sobre un determinado caso, consistirá en medir diferentes variables, sacar conclusiones, corregir, volver a medir y así sucesivamente hasta llegar a cumplir con el objetivo propuesto. Para lograr los objetivos, será necesario realizar un proyecto más complejo, equipando al laboratorio-taller de la Facultad, del instrumental adecuado para comenzar a investigar ―in situ‖ sobre los efectos de las vibraciones en los motores. El proyecto al que se puede denominar ―a priori‖ como Laboratorio de Análisis de Vibraciones Mecánicas, deberá contar con un equipamiento mínimo, el que consistirá de los siguientes instrumentales: 110 a.- Acelerómetros, en una cantidad de por lo menos tres, para tomar lecturas en tres ejes ortogonales buscando determinar las frecuencias y dirección de los vectores consecuentes para tratar de establecer como se comporta una máquina en estado de vibración. b.- Analizadores de ruido, para realizar estudios de ruido, separando frecuencias con divisores, por analizadoras de Fourier o simplemente filtrando frecuencias con los ―pasa no pasa‖ de un decibelímetro. c.- Software específico para analizar los datos obtenidos y sacar conclusiones a partir de sus espectros vibratorios, llamados también Firmas ó Transformadas Rápidas de Fourier (sus siglas en inglés FFT). d.- Completando a esto, la fabricación de herramientas, por parte del grupo investigador, que sirvan para la determinación de las frecuencias naturales de diferentes piezas mecánicas. A partir de la concreción de este Laboratorio se podrá realizar investigación en otras máquinas, ampliando el horizonte al que puedan apuntar los estudiantes con inquietudes y deseos de crecer en la profesión. Si a través de este trabajo, tomado como el primer paso para comenzar a recorrer el camino a la excelencia, se logra despertar en los estudiantes de ingeniería el deseo de conocer más y de que puedan desarrollarse en libertad, se habrá logrado el objetivo de hacer un aporte al conocimiento, entonces se podrá tener la certeza de haber cumplido con la meta propuesta. Resistencia, Junio de 2009.BIBLIOGRAFÍA Den Hartog, J.P. , Mecánica de las vibraciones – Compañía Editorial Continental S.A. – 1972 Norton, Robert L., Diseño de Maquinaria – McGraw-Hill – 1995 Thomson, William T., Teoría de Vibraciones – Prentice-Hall Hispanoamericana S.A. – 1995 Giacosa, Dante, Dr.Ing., Motores Endotérmicos – Ediciones Omega – 2000 FIGURAS Figura Nº 1.- Obtenida del libro Mecánica de las Vibraciones – Pág. Nº 233 Figura Nº 2.- Obtenida de la carpeta del Seminario sobre Técnicas Predictivas y Proactivas en Mantenimiento – Año 2001 SITIOS WEB http://www.aaende.org.ar/sitio/biblioteca/material/CONFCHILE.pdf http://www.ing.ula.ve/~dpernia/pdfs/vibracion_mecanica.pdf 111 “RECUPERO DE INFORMACIÓN A TRAVÉS DE OPERACIONES CON CONJUNTOS” Por Ing. María Wanda Sabadini Introducción Cotidianamente interactuamos con bases de datos. No sólo al analizar, diseñar o programar sistemas sino también al extraer dinero del banco, realizar una compra en un negocio o en el supermercado o, por ejemplo, al realizar búsquedas en Internet. Las bases de datos pueden llegar a ser grandes repositorios (ver 1 del Glosario) de datos, pero el problema está en como transformar esos datos con los que contamos, para que resulten de utilidad al momento de tomar decisiones. Es decir, que esos datos puedan transformarse en información que será un elemento de gran utilidad para quien las reciba. Para la construcción y operatoria de las bases de datos, tanto en los libros especializados como en las Facultades se utilizan sentencias de un lenguaje de consultas. Pero de ¿donde provienen esas sentencias? ¿Podemos abstraernos y relacionar los conceptos de bases de datos con los conjuntos que hemos dado en Matemáticas? ¿Podemos previo al uso de las sentencias de los lenguajes de consultas resolverlas mediante conjuntos? Recuperar información, y no sólo datos, es un tema candente al momento de operar con un Sistema de Información. Es por ello, que el presente trabajo estará enfocado en explicar el recupero de información existente en una base de datos relacional combinando este concepto con las operaciones de conjuntos y en responder las preguntas antes citadas. Desarrollo Una base de datos relacional consiste en una colección de relaciones, donde cada relación tiene un único nombre y estructura. El lenguaje de consultas permitirá recuperar sus datos a través de sentencias. La estructura básica de una expresión del lenguaje consiste en tres cláusulas: select, from y where. La cláusula select corresponde a la operación proyección del algebra relacional. Es usada para listar los atributos deseados en el resultado de una consulta. La clásula from corresponde a la operación del producto cartesiano del álgebra relacional. Lista las relaciones que se pueden evaluar a través de la expresión. La cláusula where corresponde a un predicado que cumplirá la función de condición. Una consulta típica tiene la siguiente forma: select A1, A2, . . .,An from r1, r2, . . . , rm where P Pero para quien no está muy familiarizado con este lenguaje o incluso para explicar a quienes se inician en el mismo, como por ejemplo, alumnos de Escuelas Secundarias Técnicas con orientación informática, sería útil explicárselos desde una visión que no sea sólo de informática, es por ello que me he planteado los siguientes interrogantes que serán las HIPOTESIS del presente trabajo. ¿De donde provienen las sentencias de los lenguajes de consulta de bases de datos? ¿Se podría abstraer las sentencias a las operaciones básicas de conjuntos? ¿Cómo se relacionan con el álgebra relacional? Estos interrogantes serán respondidos a través de una investigación bibliográfica. Los temas a tratar serán: Teoría de conjuntos Información Bases de datos relacionales Operaciones para consultas a una base de datos. Teoría de Conjuntos Un conjunto puede ser finito o infinito. Conjuntos finitos son aquellos que constan de elementos, que al contarlos el proceso puede acabar, por el contrario constituyen conjuntos infinitos. Daremos algunas definiciones: Igualdad de conjuntos Un conjunto A es igual al conjunto B, si ambos tienen los mismos elementos, es decir, si cada elemento que pertenece a A, también pertenece al conjunto B. Y cada elemento que pertenece al conjunto B, también pertenece al conjunto A. Ejemplos de igualdad de conjuntos: A={1,2,3,4} B={3,2,1,4}. Son iguales aunque los elementos tengan distinto orden C={5,6,5,7} D= {5,7,6,7}. Son iguales aunque tengan distintos elementos repetidos, pero cada elemento de A pertenece a B y cada elemento de B, pertenece a A. Conjunto vacío Es un conjunto que carece de elementos. Subconjuntos Esto se da cuando todos los elementos de un conjunto A pertenecen al conjunto B. es decir, cuando el conjunto A está incluido en B. Conjuntos disyuntos Se da cuando dos conjuntos A y B no tienen elementos comunes, es decir, ningún elemento de A está en B y si ningún elemento de B está en A. Operaciones fundamentales con conjuntos Las operaciones fundamentales con conjuntos son: unión, intersección y diferencia de conjuntos. Unión 113 La unión de dos conjuntos A y B, es el conjunto de todos los elementos que pertenecen a A o a B o a ambos. En el diagrama de Venn de la figura 1 podemos ver el resultado de la operación A B. Figura 1 De la unión surgen las siguientes observaciones A) es el mismo conjunto que B) A y B son subconjuntos de . Es decir . Es decir y Intersección de conjuntos La intersección de conjuntos es otro conjunto que contiene los elementos que son comunes a ambos conjuntos. En el diagrama de Venn en la figura 2 Podemos observarlo Figura 2 De la intersección de conjuntos surgen las siguientes observaciones: A) B) Cada uno de los conjuntos A y B contienen al subconjunto C) Si , es decir no tienen elementos comunes entonces Diferencia La diferencia de los conjuntos A y B (A – B), es el conjunto de elementos que pertenecen a A, pero no a B. En el diagrama de Venn de la figura 3 114 Figura 3 de la diferencia de conjuntos surgen las siguientes observaciones: A) A – B es subconjunto de A, es decir B) Los conjuntos (A – B) y (B – A) son disjuntos. Es decir, su intersección es vacía. Información Lo primero que tenemos que diferenciar son los siguientes conceptos: dato e información. Dato es un hecho que puede registrarse, e información son datos procesados para aportar un conocimiento útil. Y un Sistema de Información? La palabra sistema se utiliza en muchos ámbitos distintos: hablamos de sistemas eléctricos, sistemas de seguridad, sistemas monetarios e inclusive del sistema solar. La Real Academia Española nos da la siguiente definición: ―un conjunto de cosas que ordenadamente relacionadas entre sí contribuyen a un determinado objetivo‖. Y a partir de esta definición podemos distinguir sus elementos principales: los componentes del sistema las relaciones entre estos componentes, que van a determinar la estructura del sistema el objetivo del sistema Cuanto más grande y complejo es un sistema, más importante es la comunicación de información entre sus componentes, para que puedan coordinarse a fin de cumplir con sus objetivos. Disponer de la información adecuada permite tomar las decisiones apropiadas para cada situación. Y aquí viene el gran dilema, que es información? Es lo mismo que los datos? No. Como lo expresado anteriormente, debemos diferenciarlos. Los datos son los registros de hechos, acontecimientos, transacciones, mientras que información son los datos procesados de tal forma que son útiles o significativos para quien va a recibir esa información. Es decir, esa información va a promover una acción, va a permitir tomar una decisión mejor, siendo la decisión el paso previo a una acción. Y esta información, que va a permitir que quien la recibe tome la mejor decisión tiene ciertas propiedades que la caracterizan, y que son las siguientes: es relevante para el propósito de la decisión o el problema considerado. Si queremos decidir si vendemos o no acciones de una empresa, es irrelevante la información de la clasificación de la liga italiana de fútbol, por muy exacta y completa que sea. es lo suficientemente precisa, es decir, exacta o con niveles de precisión mayor con respecto a la realidad, para que podamos confiar en ella. 115 es lo suficientemente completa para el problema. En la realidad, es raro poder contar con toda la información relevante para la decisión, pero lo importante es que la información sobre los elementos clave sea completa. se comunica a la persona adecuada para la decisión. se comunica a tiempo para que pueda ser útil llega al nivel de detalle más adecuado es comprensible para el receptor. La información que llega escrita en una terminología desconocida es poco útil. Una vez que tenemos los datos almacenados en una base de datos, es necesario poder procesarlos y recuperarlos para poder obtener información y que esta información contenga las características antes mencionadas. ¿Pero como recuperamos información de una base de datos? Ya sea a través de un lenguaje de programación de alto nivel o bien del administrador de la base de datos, realizaremos consultas para poder recuperarla. Pero antes de entrar más en detalle pasaremos al siguiente tema. Bases de datos Las aplicaciones informáticas de los años sesenta acostumbraban a darse totalmente por lotes (batch) y estaban pensadas para una tarea muy específica relacionada con muy pocas entidades tipo. Cada aplicación (una o varias cadenas de programas) utilizaba ficheros de movimientos para actualizar (creando una copia nueva) y/o para consultar uno o dos ficheros maestros o, excepcionalmente, más de dos. Cada programa trataba como máximo un fichero maestro, que solía estar sobre cinta magnética y, en consecuencia, se trabajaba con acceso secuencial. Cada vez que se le quería añadir una aplicación que requería el uso de algunos de los datos que ya existían y de otros nuevos, se diseñaba un fichero nuevo con todos los datos necesarios (algo que provocaba redundancia) para evitar que los programas tuviesen que leer muchos ficheros. A medida que se fueron introduciendo las líneas de comunicación, los terminales y los discos, se fueron escribiendo programas que permitían a varios usuarios consultar los mismos ficheros on-line y de forma simultánea. Más adelante fue surgiendo la necesidad de hacer las actualizaciones también on-line. A medida que se integraban las aplicaciones, se tuvieron que interrelacionar sus ficheros y fue necesario eliminar la redundancia. El nuevo conjunto de ficheros se debía diseñar de modo que estuviesen interrelacionados; al mismo tiempo, las informaciones redundantes (como por ejemplo, el nombre y la dirección de los clientes o el nombre y el precio de los productos), que figuraban en los ficheros de más de una de las aplicaciones, debían estar ahora en un solo lugar. El acceso on-line y la utilización eficiente de las interrelaciones exigían estructuras físicas que diesen un acceso rápido, como por ejemplo los índices, las multilistas, las técnicas de hashing, etc. Estos conjuntos de ficheros interrelacionados, con estructuras complejas y compartidos por varios procesos de forma simultánea (unos on-line y otros por lotes), recibieron al principio el nombre de Data Banks, y después, a inicios de los años setenta, el de Data Bases. Aquí los denominamos bases de datos (BD). 116 El software de gestión de ficheros era demasiado elemental para dar satisfacción a todas estas necesidades. Por ejemplo, el tratamiento de las interrelaciones no estaba previsto, no era posible que varios usuarios actualizaran datos simultáneamente, etc. La utilización de estos conjuntos de ficheros por parte de los programas de aplicación era excesivamente compleja, de modo que, especialmente durante la segunda mitad de los años setenta, fue saliendo al mercado software más sofisticado: los Data Base Management Systems, que aquí denominamos Sistemas de Gestión de Bases de Datos (SGBD). En otras palabras, una base de datos es un conjunto estructurado de datos que representa entidades y sus interrelaciones. La representación será única e integrada, a pesar de que debe permitir utilizaciones varias y simultáneas. Los ficheros tradicionales y las BD Aunque de forma muy simplificada, podríamos enumerar las principales diferencias entre los ficheros tradicionales y las BD tal y como se indica a continuación: 1) Entidades tipos: • Ficheros: tienen registros de una sola entidad tipo. • Bases de Datos: tienen datos de varias entidades tipo. 2) Interrelaciones: • Ficheros: el sistema no interrelaciona ficheros. • Bases de Datos: el sistema tiene previstas herramientas para interrelacionar entidades. 3) Redundancia: • Ficheros: se crean ficheros a la medida de cada aplicación, con todos los datos necesarios aunque algunos sean redundantes respecto de otros ficheros. • Bases de Datos : todas las aplicaciones trabajan con la misma BD y la integración de los datos es básica, de modo que se evita la redundancia. 4) Usuarios • Ficheros: sirven para un solo usuario o una sola aplicación. Dan una sola visión del mundo real. • Bases de Datos : es compartida por muchos usuarios de distintos tipos. Ofrece varias visiones del mundo real. Con todo lo que hemos dicho hasta ahora, podríamos definir el término Bases de Datos; una base de datos de un Sistema de Información es la representación integrada de los conjuntos de entidades instancia correspondientes a las diferentes entidades tipo del Sistema de Información y de sus interrelaciones. Las bases de datos se han convertido en una parte esencial en nuestros tiempos. Muchas de las actividades que realizamos tienen algún tipo de interacción con ellas, por ejemplo, si extraemos dinero de los cajeros, si vamos a comprar algún artículo en un supermercado, o si accedemos a un buscador de Internet. Resumiendo, ¿que es una base de datos? Es un conjunto de datos relacionados. Y ¿los datos? Son hechos que pueden registrarse, por ejemplo, la fecha de nacimiento de una persona, el saldo disponible de una cuenta de banco, los datos personales del cliente de una farmacia, o por ejemplo, el estado de cuenta del contribuyente de la Municipalidad de Resistencia. 117 Una base de datos tiene las siguientes propiedades implícitas: Representa algún aspecto del mundo real Es una colección coherente de datos que tienen algún significado Se diseña y construye para un propósito en especial. Un Sistema Administrador de Bases de Datos (o su sigla en inglés DBMS, de Data Bases Management System) es una colección de programas que permite a quienes lo usan crear y mantener una base de datos. Es un software que permite la definición, construcción y manipulación de los datos para ser usados por las aplicaciones informáticas. En este trabajo trataremos las bases de datos relacionales. Este modelo usa los conceptos de relaciones matemáticas. Representa la base de datos como un conjunto de relaciones, donde cada relación es una tabla con un conjunto de valores y donde cada fila de la tabla representa una colección de valores de datos relacionados. Por ejemplo, la tabla a la que llamaremos EMPLEADOS (figura 3), en donde registraremos los datos de los empleados de una empresa, cada fila de la tabla representará una colección de datos relacionados referentes a un empleado en particular. Figura 3 El nombre de la tabla y los nombres de las columnas se utilizan para ayudar a interpretar el significado de los valores en cada fila. En la figura 3 mostramos los datos de los empleados de la empresa, es por eso conveniente llamar a la tabla EMPLEADOS y en cada columna colocamos los nombres de los datos que queremos guardar. Por convención, utilizaremos las mayúsculas para indicar el nombre de las tablas. Todos los valores de una columna son del mismo tipo de datos. El tipo de datos describe el tipo de valores que pueden aparecer en la columna (llamdo también el dominio), por ejemplo, en la columna DNI aparecerán números, en la columna Nombre aparecerán cadenas de caracteres y así en cada una de ellas. El dominio es un conjunto de valores atómicos. Por atómico queremos expresar que cada valor es indivisible. El dominio para la columna DNI podría ser el conjunto de numéros de documentos, de hasta 8 dígitos. El tipo de datos o formato se especifica también para cada dominio. En el modelo relacional, cada tabla puede expresarse por un esquema de relación. Este esquema que llamaremos R, se denota como R (A1, A2, . . ., An), donde R es el nombre de la relación y entre paréntesis se coloca la lista de atributos que componen la relación. El grado de la relación es el número de atributos que la componen. Siguiendo el ejemplo, la relación EMPLEADO, se expresaría EMPLEADO (DNI, Nombre, Apellido, Dirección, Fecha de nacimiento) y sería de grado 5. 118 Una relación se define como un conjunto de tuplas, donde cada tupla corresponde a una fila, y para la relación EMPLEADO serían los datos de un empleado en particular. Matemáticamente, los elementos de un conjunto no tienen un orden entre ellos, y las tuplas en una relación tampoco. Sin embargo, en un archivo, los registros físicamente se almacenan en disco, por lo que existirá un orden entre los mismos. Este orden indica el primero, el segundo, el enésimo, hasta el último de los registros en el archivo. De forma similar, cuando mostramos una relación como una tabla, las filas se mostrarán en un cierto orden. Veamos la siguiente notación: Un esquema de relación R de grado n se expresa de la forma R (A1, A2, . . ., An). Una tupla en una relación r (R) se expresa de la forma t = <v1, v2, . . ., vn>, donde vi es el valor correspondiente al atributo Ai. Modelo Relacional El modelo relacional es un modelo de datos y, como tal, tiene en cuenta los tres aspectos siguientes de los datos: 1) La estructura, que debe permitir representar la información que nos interesa del mundo real. 2) La manipulación, a la que da apoyo mediante las operaciones de actualización y consulta de los datos. 3) La integridad, que es facilitada mediante el establecimiento de reglas de integridad; es decir, condiciones que los datos deben cumplir. El principal objetivo del modelo de datos relacional es facilitar que la base de datos sea percibida o vista por el usuario como una estructura lógica que consiste en un conjunto de relaciones y no como una estructura física de implementación. Esto ayuda a conseguir un alto grado de independencia de los datos. El modelo relacional proporciona una estructura de los datos que consiste en un conjunto de relaciones con objeto de representar la información que nos interesa del mundo real. La estructura de los datos del modelo relacional se basa, pues, en el concepto de relación. Un dominio D es un conjunto de valores atómicos. Por lo que respecta al modelo relacional, atómico significa indivisible; es decir, que por muy complejo o largo que sea un valor atómico, no tiene una estructuración interna para un SGBD relacional. Los dominios pueden ser de dos tipos: 1) Dominios predefinidos, que corresponde a los tipos de datos que normalmente proporcionan los lenguajes de bases de datos, como por ejemplo los enteros, las cadenas de caracteres, los reales, etc. 2) Dominios definidos por el usuario, que pueden ser más específicos. Toda definición de un dominio debe constar, como mínimo, del nombre del dominio y de la descripción de los valores que forman parte de éste. La obtención de los datos que responden a una consulta puede requerir el análisis y la extracción de datos de una o más de las relaciones que mantiene la base de datos. 119 Según la forma como se especifican las consultas, podemos clasificar los lenguajes relacionales en dos tipos: 1) Lenguajes basados en el álgebra relacional. El álgebra relacional se inspira en la teoría de conjuntos. Si queremos especificar una consulta, es necesario seguir uno o más pasos que sirven para ir construyendo, mediante operaciones del álgebra relacional, una nueva relación que contenga los datos que responden a la consulta a partir de las relaciones almacenadas. Los lenguajes basados en el álgebra relacional son lenguajes procedimentales, ya que los pasos que forman la consulta describen un procedimiento. 2) Lenguajes basados en el cálculo relacional. El cálculo relacional tiene su fundamento teórico en el cálculo de predicados de la lógica matemática. Proporciona una notación que permite formular la definición de la relación donde están los datos que responden la consulta en términos de las relaciones almacenadas. Esta definición no describe un procedimiento; por lo tanto, se dice que los lenguajes basados en el cálculo relacional son lenguajes declarativos (no procedimentales). El lenguaje SQL, en las sentencias de consulta, combina construcciones del álgebra relacional y del cálculo relacional con un predominio de las construcciones del cálculo. Este predominio determina que SQL sea un lenguaje declarativo. El estudio del álgebra relacional presenta un interés especial, pues ayuda a entender qué servicios de consulta debe proporcionar un lenguaje relacional, facilita la comprensión de algunas de las construcciones del lenguaje SQL y también sirve de base para el tratamiento de las consultas que efectúan los SGBD (Sistemas Administradores de Bases de datos) internamente. Este último tema queda fuera del ámbito del presente curso, pero es necesario para estudios más avanzados sobre bases de datos Una vez visto los conceptos principales para las bases de datos, vamos a hablar de las operaciones básicas del álgebra relacional. Operaciones del Algebra Relacional El álgebra relacional se inspira en la teoría de conjuntos para especificar consultas en una base de datos relacional. Para especificar una consulta en álgebra relacional, es preciso definir uno o más pasos que sirven para ir construyendo, mediante operaciones de álgebra relacional, una nueva relación que contenga los datos que responden a la consulta a partir de las relaciones almacenadas. Los lenguajes basados en el álgebra relacional son procedimentales, dado que los pasos que forman la consulta describen un procedimiento. La visión que presentaremos es la de un lenguaje teórico y, por lo tanto, incluiremos sólo sus operaciones fundamentales, y no las construcciones que se podrían añadir a un lenguaje comercial para facilitar cuestiones como por ejemplo el orden de presentación del resultado, el cálculo de datos agregados, etc. Una característica destacable de todas las operaciones del álgebra relacional es que tanto los operandos como el resultado son relaciones. Esta propiedad se denomina cierre relacional. Las operaciones del álgebra relacional han sido clasificadas según distintos criterios; de todos ellos indicamos los tres siguientes: 1) Según se pueden expresar o no en términos de otras operaciones. 120 a) Operaciones primitivas: son aquellas operaciones a partir de las cuales podemos definir el resto. Estas operaciones son la unión, la diferencia, el producto cartesiano, la selección y la proyección. b) Operaciones no primitivas: el resto de las operaciones del álgebra relacional que no son estrictamente necesarias, porque se pueden expresar en términos de las primitivas; sin embargo, las operaciones no primitivas permiten formular algunas consultas de forma más cómoda. Existen distintas versiones del álgebra relacional, según las operaciones no primitivas que se incluyen. 2) Según el número de relaciones que tienen como operandos: a) Operaciones binarias: son las que tienen dos relaciones como operandos. Son binarias todas las operaciones, excepto la selección y la proyección. b) Operaciones unarias: son las que tienen una sola relación como operando. La selección y la proyección son unarias. 3) Según se parecen o no a las operaciones de la teoría de conjuntos: a) Operaciones conjuntistas: son las que se parecen a las de la teoría de conjuntos. Se trata de la unión, la intersección, la diferencia y el producto cartesiano. b) Operaciones específicamente relacionales: son el resto de las operaciones; es decir, la selección, la proyección y la combinación. ** EJEMPLO: Supongamos que tenemos una base de datos relacional con las cuatro relaciones siguientes: 1) La relación EDIFICIOS_EMP, que contiene datos de distintos edificios de los que una empresa dispone para desarrollar sus actividades. 2) La relación DESPACHOS, que contiene datos de cada uno de los despachos que hay en los edificios anteriores. 3) La relación EMPLEADOS_ADM, que contiene los datos de los empleados de la empresa que llevan a cabo tareas administrativas. 4) La relación EMPLEADOS_PROD, que almacena los datos de los empleados de la empresa que se ocupan de tareas de producción. A continuación describimos los esquemas de las relaciones anteriores y sus extensiones en un momento determinado: Esquema y extensión de EDIFICIOS_EMP (figura 4): Figura 4 Esquema y extensión de DESPACHOS (figura 5) 121 Figura 5 Esquema y extensión de EMPLEADOS_ADM (figura 6): Figura 6 Esquema y extensión de EMPLEADOS_PROD (figura 7): Figura 7 Se considera que los valores nulos de los atributos edificiodesp y númerodesp de las relaciones EMPLEADOS_PROD y EMPLEADOS_ADM indican que el empleado correspondiente no tiene despacho. Estas operaciones permiten a quien las usa obtener respuesta. Esta respuesta consiste en otra relación, que puede estar formada por una o más relaciones. Las operaciones del algebra relacional se dividen en dos grupos. Un grupo que incluye las operaciones basadas en la teoría de conjuntos (y esto es aplicable, porque cada relación se define como un conjunto de tuplas). Estas operciones son Unión, 122 Intersección, Diferencia y Producto cartesiano. El otro grupo consiste en operaciones desarrolladas específicamente para las bases de datos relacionales y son: Select, Project y Join, que veremos a continuación. La operación SELECT Se utiliza para seleccionar un subconjunto de tuplas de una relación que satisfagan una condición. Podemos considerarla como el filtro que muestra sólo aquellas tuplas que cumplen la condición. Por ejemplo, para seleccionar las tuplas de EMPLEADOS que trabajan en el departamento 4, o, aquellos que tienen un salario mayor a $2.000, podríamos utilizar la operación SELECT de la siguiente forma dpto=4 (EMPLEADOS) salario>2000 (EMPLEADOS) Se denota generalmente por <condición de selección>(R) donde el símbolo (sigma) es usado como operador SELECT, y la condición es una operación booleana sobre los atributos de la relación R. Y el resultado de esta operación tiene los mismos atributos de R. Podemos colocar como condición de esta operación, cláusulas que estén conectadas por operadores booleanos, como ser AND, OR y NOT. Por ejemplo, para seleccionar los empleados que trabajen en el departamento 4 y cuyo salario sea mayor a $2.000, la operación SELECT sería como sigue (dpto=4) AND (salario>2000) (EMPLEADOS) Al evaluarse la condición, las tuplas que la cumplan serán devueltas. Las condiciones booleanas serán evaluadas de la siguiente forma: • (cond1 AND cond2) es verdadero si ambas (cond1) y (cond2) son verdaderas, caso contrario es falso. • (cond1 OR cond2) es verdadera si (cond1) o (cond2) o ambas son verdaderas, caso contrario es falsa. • (NOT cond) es verdadera cuando cond es falso. Caso contrario es falso. El operador SELECT es unario, es decir que puede aplicarse a una sola relación y el resultado de la operación devolverá una relación que tendrá el mismo grado que la relación R. El número de tuplas devuelta será igual o menor que el número de tuplas de R. 123 También es conmutativa: <cond1>( <cond2>(R)) = <cond2>( <cond1>(R)) La operación PROJECT Si pensamos en una relación como en una tabla, la operación SELECT, selecciona algunas filas y descarta otras. La operación PROJECT, selecciona columnas de la tabla y descarta otras. Por ejemplo, para listar los nombres y apellidos de los empleados, utilizaríamos la operación PROJECT de la siguiente forma: nombre, apellido (EMPLEADO) La forma de esta operación es <lista de atributos>(R) Donde es el símbolo que se usa para representar la operación PROJECT. La operación JOIN Esta operación se utiliza para combinar tuplas de dos relaciones en una. Esta operación es muy importante para cualquier base de datos relacional porque permite procesar relaciones entre tablas. Por ejemplo, si en una relación tengo los datos de los empleados y en otra relación tengo los registros de inasistencia al trabajo, podría obtener a través de la combinación de ambas relaciones, cuales son los empleados que más faltaron, o cuales faltaron en una determinada época del año. La notación sería la siguiente R (A1, A2, . . ., An) y S(B1, B2, . . ., Bm): R<condición del join>S El resultado de JOIN es una relación con n + m atributos Q (A1, A2, . . ., An, B1, B2, . . ., Bm) en ese orden. Q va a tener una tupla para cada combinación de tuplas—una de R y la otra de S— siempre que se satisfaga la condición del join. Esta operación es diferente del producto cartesiano, y la principal diferencia consiste en que la operación JOIN sólo combina las tuplas que satisfacen la condición del JOIN, mientras que con el PRODUCTO CARTESIANO, todas las combinaciones de tuplas son incluídas en el resultado. Operaciones basadas en conjuntos Unión Se denota por R U S, siendo el resultado de esta operación una relación que incluye todas las tuplas que están en R o en S o en ambas. Las duplicadas se eliminan. 124 Intersección Se denota por R ∩ S, siendo el resultado de esta operación todas las tuplas que están en R y en S. Diferencia Se denota por R – S: todas las tuplas que están en R pero que no están en S. Veamos un ejemplo. Tenemos las relaciones R1 que tiene los datos de estudiantes de Medicina, y la relación R2 que son instructores de natación. Gráficamente, en la figura 8 tenemos una tabla por cada relación con sus atributos. R1 (ESTUDIANTES) R2 (INSTRUCTORES Nombre Apellido Nombre Apellidos Susana Gomez Juan Spinelli Ramón Hernandez Ricardo Downie Juan Estevanez Susana Gomez Bárbara Gimenez Francisco Espinola Anita Foresta Ramón Hernandez Ernesto Gutierrez Yolanda Martinez Figura 8 Si utilizaramos la operación Unión entre R1 y R2 (figura 9 ), tendríamos : R1 U R2 Nombre Apellido Susana Gomez Ramón Hernandez Juan Estevanez Bárbara Gimenez Figura 9 Con la operación Intersección entre R1 y R2 (figura 10), tendríamos: 125 R1 ∩ R2 Nombre Apellido Susana Gomez Ramón Fernandez Figura 10 Con la operación Diferencia (figura 11) : R2 – R1 R1 - R2 Nombre Apellido Nombre Apellidos Juan Estevanez Juan Spinelli Bárbara Gimenez Ricardo Downie Anita Foresta Francisco Espinola Ernesto Gutierrez Yolanda Martinez Figura 11 Las operaciones UNION, INTERSECCION, DIFERENCIA Y DIVISIÓN son operaciones binarias, es decir, se pueden aplicar a dos conjuntos. Cuando estas operaciones son adaptadas a las bases de datos relacionales, las dos relaciones sobre las que se quieren aplicar estas operaciones deben ser unión compatibles, es decir, tienen que tener el mismo grado (deben tener la misma cantidad de atributos y el i-ésimo atributo de la primer relación y el i-ésimo atributo de la segunda relación deben tener el mismo dominio, no necesariamente el mismo nombre). Utilizando los esquemas mencionados en ** EJEMPLO (página 13), mostraremos como podemos utilizar las operaciones de conjuntos y el álgebra relacional para resolver consultas: La unión de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD proporciona una nueva relación que contiene tanto a los empleados de administración como los empleados de producción; se indicaría así: EMPLEADOS_ADM U EMPLEADOS_PROD. Sólo tiene sentido aplicar la unión a relaciones que tengan tuplas similares. 126 Por ejemplo, se puede hacer la unión de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD porque sus tuplas se parecen. En cambio, no se podrá hacer la unión de las relaciones EMPLEADOS_ADM y DESPACHOS porque en las tablas, las tuplas respectivas son de tipo diferente. Más concretamente, para poder aplicar la unión a dos relaciones, es preciso que las dos relaciones sean compatibles. Decimos que dos relaciones T y S son relaciones compatibles si: Tienen el mismo grado. • Se puede establecer una biyección entre los atributos de T y los atributos de S que hace corresponder a cada atributo Ai de T un atributo Aj de S, de modo que se cumple que dominio(Ai) = dominio(Aj). Ejemplo de relaciones compatibles Las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD tienen grado 5. Podemos establecer la siguiente biyección entre sus atributos: • A DNI de EMPLEADOS_ADM le corresponde DNIemp de EMPLEADOS_PROD. • A nombre de EMPLEADOS_ADM le corresponde nombreemp de EMPLEADOS_PROD. • A apellido de EMPLEADOS_ADM le corresponde apellidoemp de EMPLEADOS_PROD. • A edificiodesp de EMPLEADOS_ADM le corresponde edificiodesp de EMPLEADOS_PROD. • A númerodesp de EMPLEADOS_ADM le corresponde edificiodesp de EMPLEADOS_PROD. Además, supondremos que los dominios de sus atributos se han declarado de forma que se cumple que el dominio de cada atributo de EMPLEADOS_ADM sea el mismo que el dominio de su atributo correspondiente en EMPLEADOS_PROD. Por todos estos factores, podemos llegar a la conclusión de que EMPLEADOS_ADM y EMPLEADOS_PROD son relaciones compatibles. A continuación, pasaremos a definir los atributos y la extensión de la relación resultante de una unión. Los atributos del esquema de la relación resultante de T U S coinciden con los atributos del esquema de la relación T. La extensión de la relación resultante de T U S es el conjunto de tuplas que pertenecen a la xtensión de T, a la extensión de S o a la extensión de ambas relaciones. Ejemplo de unión Si queremos obtener una relación R que tenga a todos los empleados de la empresa del ejemplo anterior, llevaremos a cabo la unión de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD de la forma siguiente: R := EMPLEADOS_ADM U EMPLEADOS_PROD. Entonces la relación R resultante será la reflejada en la tabla siguiente (figura 12) 127 Figura 12 El hecho de que los atributos de la relación resultante coincidan con los atributos de la relación que figura en primer lugar en la unión es una convención; teóricamente, también habría sido posible convenir que coincidiesen con los de la relación que figura en segundo lugar. La intersección de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD obtiene una nueva relación que incluye a los empleados que son al mismo tiempo de administración y de producción: se indicaría como EMPLEADOS_ADM EMPLEADOS_PROD. La intersección, como la unión, sólo se puede aplicar a relaciones que tengan tuplas similares. Para poder hacer la intersección de dos relaciones, es preciso, pues, que las relaciones sean compatibles. A continuación definiremos los atributos y la extensión de la relación resultante de una intersección. Los atributos del esquema de la relación resultante de T S coinciden con los atributos del esquema de la relación T. La extensión de la relación resultante de T S es el conjunto de tuplas que pertenecen a la extensión de ambas relaciones. Ejemplo de intersección Si queremos obtener una relación R que incluya a todos los empleados de la empresa del ejemplo que trabajan tanto en administración como en producción, realizaremos la intersección de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD de la forma siguiente: R : = EMPLEADOS_ADM EMPLEADOS_PROD (figura 13). 128 Figura 13 Si queremos obtener una relación R con todos los empleados de la empresa del ejemplo que trabajan en administración, pero no en producción, haremos la diferencia de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD de la forma siguiente: R := EMPLEADOS_ADM – EMPLEADOS_PROD Entonces la relación R resultante será (figura 14): Figura 14 El producto cartesiano es una operación que, a partir de dos relaciones, obtiene una nueva relación formada por todas las tuplas que resultan de concatenar tuplas de la primera relación con tuplas de la segunda. El producto cartesiano es una operación binaria. Siendo T y S dos relaciones que cumplen que sus esquemas no tienen ningún nombre de atributo común, el producto cartesiano de T y S se indica como T * S. Si calculamos el producto cartesiano de EDIFICIOS_EMP y DESPACHOS, obtendremos una nueva relación que contiene todas las concatenaciones posibles de tuplas de EDIFICIOS_EMP con tuplas de DESPACHOS. Si se quiere calcular el producto cartesiano de dos relaciones que tienen algún nombre de atributo común, sólo hace falta redenominar previamente los atributos adecuados de una de las dos relaciones. El producto cartesiano de las relaciones DESPACHOS y EDIFICIOS_EMP del ejemplo se puede hacer como se indica (es necesario redenominar atributos previamente): EDIFICIOS(nombreedificio, supmediadesp) := EDICIOS_EMP(edificio, supmediadesp). R := EDIFICIOS * DESPACHOS. Entonces, la relación R resultante será (figura 15): 129 Figura 15 Para obtener el nombre y el apellido de los empleados, tanto de administración como de producción, es necesario hacer una unión de EMPLEADOS_ADM y EMPLEADOS_PROD, y después hacer una proyección sobre los atributos nombre y apellido. La operación se puede expresar de las formas siguientes: a) Se puede utilizar una sola expresión: R := (EMPLEADOS_ADM U EMPLEADOS_PROD) [nombre, apellido]. b) O bien podemos expresarlo en dos pasos: • EMPS := EMPLEADOS_ADM U EMPLEADOS_PROD; • R := EMPS(nombre, apellido) En los casos en que una consulta requiere efectuar muchas operaciones, resulta más sencilla la segunda alternativa, porque evita expresiones complejas Otros ejemplos de consultas formuladas con secuencias de operaciones Veamos algunos ejemplos de consultas en la base de datos formuladas con secuencias de operaciones del álgebra relacional. 1) Para obtener el nombre del edificio y el número de los despachos situados en edificios en los que la superficie media de estos despachos es mayor que 12, podemos utilizar la siguiente secuencia de operaciones: • A := EDIFICIOS_EMP(supmediadesp > 12); • B := DESPACHOS * A; • R := B(edificio, número) 130 2) Supongamos ahora que se desea obtener el nombre y el apellido de todos los empleados (tanto de administración como de producción) que están asignados al despacho 120 del edificio Marina. En este caso, podemos utilizar la siguiente secuencia: • A := EMPLEADOS_ADM U EMPLEADOS_PROD; • B := A(edificiodesp = Marina y númerodesp = 120); • R := B(nombre, apellido). 3) Si queremos consultar el nombre del edificio y el número de los despachos que ningún empleado de administración tiene asignado, podemos utilizar esta secuencia: • A := DESPACHOS (dificio, número); • B := EMPLEADOS_ADM(edificiodesp, númerodesp); • R := A – B. Conclusión El álgebra relacional proporciona un conjunto de operaciones para manipular relaciones. Estas operaciones se pueden clasificar de la forma siguiente: a) Operaciones conjuntistas: unión, intersección, diferencia y producto cartesiano. b) Operaciones específicamente relacionales: selección, proyección y combinación. Y estas operaciones del álgebra relacional pueden formar secuencias que permiten resolver consultas complejas en una base de datos. Partiendo de conceptos básicos en matemáticas como ser la teoría de conjuntos podemos resolver problemas tan complejos como el recupero de información de una base de datos, con sólo abstraer e imaginar cada una de nuestras tablas como conjuntos y aplicarles operaciones de álgebra relacional, siendo mucho más sencillo la interpretación de las sentencias de los lenguajes de consulta a bases de datos. Es una forma muy sencilla de explicar como obtener información de una base de datos, relacionando conceptos y disciplinas. El recupero de información de una base de datos no es sólo un problema del campo informático, sino, porque haciendo uso del modelo de la transdiciplinaridad los grandes problemas son transversales, transnacionales, múltiples, multidimensionales, transdisciplinarios. Esta forma de tratar el recupero de la información pretende mostrar que podemos reformular nuestra forma de conocimiento, evolucionando, para poder resolver los problemas no sólo desde el punto de vista de una disciplina, sino abriendo todas las disciplinas para ver que tienen en común, entrelazándolas y generando nuevas formas de organizar y producir conocimiento. 131 Bibliografía Análisis y diseño detallado de Aplicaciones informáticas de Gestión – Mario G. Piattini. José A. Calvo-Manzano. Joaquín Cervera. Luis Fernández.Enero de 2000. Publicado por Alfaomega Grupo Editor. Database System Concepts, Fourth Edition. Silberschatz−Korth−Sudarshan. Foxit Software Company – 2004. Fundamentals of Database Systems Versaware Inc. and its licensors - ElMasri Navathe –. Copyright 2001 Segunda Clase: Qués es investigar? Profesora Viviana Polisena. Posgrado en Metodología de la Investigación Científica. Universidad Nacional del Nordeste. Facultad de Ingeniería. Teoría de conjuntos y temas afines – Seymour Lipschutz, Ph. D – McGraw Hill 132 113 114 115 116 117