ciencias basicas en ingenieria

Anuncio
ISSN Nº
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERÍA
INSTITUTO DE MATEMATICA
CIENCIAS BASICAS
EN
INGENIERIA
REVISTA DIGITAL SEMESTRAL
Nº 2 – AÑO 1
DICIEMBRE DE 2009
ISSN Nº
CIENCIAS BASICAS EN INGENIERIA
Revista Digital del Instituto de Matemática
Publicación Semestral
Director:
Prof. Antonio B. MAHAVE
Consejo Editor:
Dr. Ing. Jorge V. PILAR
Ing. Gustavo DEVINCENZI
Dr. Ruben CERUTTI
Dr. Juan NAPOLES VALDES
Prof. Cdora. Carmen RESCALA
Est. Mat. Miguel CANTINI
Instituto de Matemática – Facultad de Ingeniería – U.N.N.E.
Las Heras 727 – Resistencia Chaco (3500) – Republica Argentina
Director: Antonio Mahave – Facultad de Ingeniería – Las Heras 727
Vicedirector: Ing. Leopoldo S. de Urrutia
Resistencia Chaco – Tel. 03722 – 425064 ; 420076
e-mail: [email protected]
INDICE
Autoridades de la Universidad ………………………………………………………….3
Autoridades del Instituto…………………………………………...................................4
Memoria 2006 – 2009………………………………………………………………....5-8
¿QUÉ MODELO MATEMÁTICO ELEGIR PARA EL BENCHMARKING DE
LAS EMPRESAS CONSTRUCTORAS DE LA PROVINCIA DEL CHACO?
Rescala, Carmen; Rodhe; Gricela A; Martinez de Müller, Hilda D.; Giraudo, Marta;
Bonafini, María L.; Bernaola Gustavo A.....................................................................9-14
ATOMOS Y VIDA
Ing. Emilio A. García Solá.........................................………….............…………...15-18
LA MATEMÁTICA, LA FISICA Y LAS TECNICAS CONSTRUCTIVAS
Dr. Ing. Mario Bruno Natalini…………………………………..…..............................19-41
Trabajos Finales del curso de posgrado “Metodología de la Investigación”
CONTAMINACION LUMINICA
Latorre Blanca G. ; García Solá Hemilce T. ………...……………….……..…..…43-53
FRACTALES
Beneyto Claudia V. ……………………………………………………………….. 54-66
LÍMITE DE FUNCIONES DE DOS VARIABLES, otro enfoque para su estudio
Durnbeck Claudia ……………………………….……..…….…………………….67-83
VIABILIDAD DE REALIZAR UN COMPLEJO HABITACIONAL DE TRES
NIVELES EN SUELOS DE RELLENO
Alvaredo Gisela C. ; Soto Jorge Germán U. ……………………………………...84-95
VIBRACIONES MECÁNICAS EN MOTORES DE COMBUSTIÓN INTERNA
Maderna Raúl Isaías ..…....……………………………………………………..…96-111
RECUPERO DE INFORMACIÓN A TRAVÉS DE OPERACIONES CON
CONJUNTOS
Sabadini María Wanda …………………………………………………………..112-132
Ciencia
ELEMENTOS DE LA TEORIA DE LA RELATIVIDAD RESTRINGIDA
2da Parte Cantidad de Movimiento y Energía
Alberto E. J. Manacorda………………………………………………………….133-140
CIENCIAS BASICAS EN
INGENIERIA
Revista Digital del Instituto de Matemática
Número Especial en Homenaje a la Facultad de
Ingeniería
Al cumplirse los primeros cincuenta años desde su
creación
Universidad Nacional del Nordeste
Facultad de Ingeniería
Instituto de Matemática - Diciembre 2009
CIENCIAS BÁSICAS EN INGENIERÍA
Revista Digital del Instituto de Matemática
AUTORIDADES:
UNIVERSIDAD NACIONAL DEL
NORDESTE
Rector:
Arq. OSCAR VICENTE VALDES
Vicerrector:
Dr. HUGO A. DOMITROVIC
Sec. Gral. Académico:
Med. Vet. ORLANDO A. MACCIO
Sec. Gral. De Ciencia y Técnica
Dr. ANGEL J. V. FUSCO
Sec. Gral. Administrativa
Cra. SUSANA C. de DUSEK
Sec. Gral. De Asuntos Sociales
Ing. RAMON ESQUIVEL
Sec. Gral. De Extensión Universitaria
Ing. HUGO D. DOMINGUEZ
La Academia Nacional de Ingeniería
distinguió al Dr. Ing. Mario Eduardo De
Bortoli,
en
Sesión
Pública
Extraordinaria del día 19 de noviembre,
con la entrega del Premio “Ing. Enrique
Butty”, edición 2009.Este importante reconocimiento es
motivo de satisfacción para los
miembros
de
esta
comunidad
universitaria porque el Dr. Ing. De
Bortoli, actual Vicedecano, es un
egresado de esta Facultad de
Ingeniería, y el Instituto de Matemática
en particular, se honra en contarlo entre
los integrantes de su Consejo
Académico y de la Comisión de
Referato.Reciba
desde
aquí
nuestras
felicitaciones y agradecimiento por su
permanente colaboración.
FACULTAD DE INGENIERIA
Decano:
Dr. Ing. JORGE V. PILAR
Vicedecano:
Dr. Ing. MARIO E. DE BORTOLI
Secretario Académico:
Ing. ARTURO A. BORFITZ
Sec. De Asuntos Estudiantiles:
Ing. GUSTAVO O. FISCHER
Sec. Administrativo:
Ing. JOSÉ ORTIZ
Sec. De Extensión Universitaria
Ing. JOSÉ L. BASTERRA
INSTITUTO DE MATEMATICA
Director:
Prof. ANTONIO B. MAHAVE
Vicedirector:
Ing. LEOPOLDO S. De URRUTIA
3
UNIVERSIDAD NACIONAL DEL NORDESTE
INSTITUTO DE MATEMÁTICA
FACULTAD DE INGENIERÍA
Director:
Prof. Antonio B. Mahave
Vicedirector:
Ing. Leopoldo S. De Urrutia
Consejo Académico:
Dr. Ing. Jorge V. Pilar
Ing. Gustavo Devincenzi
Dr. Rubén Cerutti
Dr. Juan Nápoles Valdés
Est. Mat. Miguel Ángel Cantini
Prof. Cra. Carmen Rescala
Dr. Ing. Mario de Bortoli
Ing. Emilio Garcia Solá
Miembros Fundadores
Prof. Mónica Acevedo
Prof. Edgardo Arriola
Arq. Rubén Avalos
Prof. Norma I. Enia de Campias
Ing. Germán Camprubí
Est. Mat. Miguel Ángel Cantini
Dr. Rubén Cerutti
Prof. María N. Cruz de Mena
Prof. Nélida Chica de Galassi
Ing. Gustavo Devincenzi
Ing. Leopoldo S. de Urrutia
Ing. Ariel Di Rado
Lic. Mario Garber
Cdor. Mario A. Gianneschi
Prof. Antonio B. Mahave
Ing. Eduardo Mañanes
Prof. Rubén H. Martínez
Prof. Hilda Martínez de Müller
Prof. Pedro Muscar
Dr. Juan Nápoles Valdéz
Prof. Noemí Ojeda de Goicoechea
Prof. Mafalda Parisi de Vignau
Ing. Alejandro Pilar
Prof. Cra. Carmen Rescala
Ing. Jorge A. Rodríguez
Ing. Ramón Sampayo
Ing. Ignacio Vargas
Ing. Alberto Vignau
Miembros Fundadores Adherentes
Lic. Veremundo Fernández Arguiñano
Lic. Liliana Koegel
Ing. Alberto Manacorda
Ing. Víctor Martínez Luaces
Ing. Ricardo A. Sagristá
Prof. Ana María Simoniello de Alvarez
4
INSTITUTO DE MATEMATICA DE LA FACULTAD DE
INGENIERÍA
Memoria período 2006-2009
Con vistas a la Asamblea General Ordinaria convocada para el 10 de diciembre de
2009, la Dirección del Instituto pone a consideración la memoria correspondiente al
último período de tres años, iniciado el 21 de diciembre de 2006.
Asuntos institucionales.
Con el transcurso del tiempo, el desarrollo de las actividades propias del Instituto
mostró la necesidad de realizar algunos cambios al anexo de la Res. 163/02 del Consejo
Superior de la Universidad, por la cual fue creado, y al Reglamento Interno aprobado
por Res. 148/04 del Consejo Directivo de la Facultad, en lo que respecta a la
designación de autoridades. La misma resolución 163/03, faculta al director, en el
punto 7 h) de su Anexo, para ―proponer a la superioridad las reformas a esta ordenanza,
que surjan como una necesidad en su funcionamiento‖; previsión que facilitó la gestión
de las modificaciones que se introdujeron.
Como consecuencia, por Res. 42/07/CS se modificaron las normas para la elección del
Director, adoptando criterios compatibles con los que se aplican actualmente en la
Facultad de Ingeniería para la elección de autoridades de los departamentos académicos.
También se autorizó la designación de un Vicedirector, con el fin de asegurar la
continuidad normal de las actividades, en ausencia del Director.
Se transcribe a continuación la parte resolutiva de la Res. 42/07:
Art. 1°) Modificar parcialmente la Resolución 163/02 C.S. reemplazando el texto del
punto 8 del Anexo de la misma, por el siguiente:
“8. La designación del Director del Instituto de Matemática de la Facultad
corresponde al Decano, a propuesta de la Asamblea Ordinaria del Instituto. El mismo
será elegido por un término de tres (3) años, con posibilidad de reelección por la
misma Asamblea, entre los miembros del Instituto que sean docentes de la Facultad de
Ingeniería.
En las mismas condiciones se designará un vice-director, cuyas funciones serán las de
reemplazar al director en caso de ausencia por más de tres días, o en las funciones que
el director le delegue”.
La posibilidad de crear el cargo de Vicedirector había sido tratada durante la Asamblea
Ordinaria anterior, en la que se convino, la elección del Ing. Leopoldo Sabino de Urrutia
para cubrir el cargo, cuando fuera creado. Obtenida la reforma propuesta, se procedió a
la designación del Ingeniero De Urrutia, por Res. 872/07 del Decano de la Facultad, por
un período de tres años, a partir del 12 de octubre de 2007.
En lo que respecta al Consejo Académico, órgano superior del Instituto, su
funcionamiento jerarquizó al mismo, tanto por el prestigio de sus integrantes como por
el de las instituciones de origen a las que cada uno pertenece y en cierto modo
representa. Las reuniones mensuales del Consejo Académico se realizaron cada vez
5
que la existencia de cuestiones importantes justificó su convocatoria. Resultó de
fundamental importancia para el éxito de las gestiones y proyectos desarrollados desde
la Dirección, el asesoramiento del Cuerpo y el amplio espíritu de colaboración de todos
sus miembros. En el último año, se incorporaron al Consejo Académico, por decisión
del mismo cuerpo, ad-referendum de la Asamblea, dos nuevos miembros; el Ing.
Emilio García Solá y el Dr. Ing. Mario De Bórtoli; ambos de importante trayectoria
académica y científica en la Universidad Nacional del Nordeste.
Actividades del Instituto.
Los proyectos que desarrolla el Grupo IME – Investigación en matemática educativa en el Instituto, aportan anualmente la información que la Secretaría Académica de la
Facultad utiliza para el diseño de sus políticas y toma de decisiones educativas,
especialmente las relativas al ingreso. Estos datos estadísticos tienen que ver con la
situación socio-económica de los ingresantes, preparación básica, aprovechamiento y
rendimiento académico durante el primer año, índices de repitencia y deserción
estudiantil. En otro orden se estableció el tiempo de duración de la carrera para cada uno
de los planes de estudio;. Índices de deserción y diversas dificultades que aparecen en el
desarrollo de la carrera. Estos trabajos, que en su mayoría, están publicadas en la
Revista del Instituto, fueron estimados de interés por la Secretaría Académica de la
Facultad.
Paralelamente al desarrollo de estas actividades y como consecuencia, el Instituto
contribuye a la formación de recursos humanos para la investigación.
En su política de divulgación de los conocimientos científicos y ampliación de temas
programáticos de la carrera, a la vez que contribuir al acercamiento de docentes y
estudiantes para participar de sus actividades, el Instituto, desarrolló algunos cursos
breves y conferencias, que fueron posibles gracias al aporte desinteresado de los
disertantes. La nómina es la siguiente:
7 y 8 de julio de 2008, Ing. Alberto E. Manacorda, dictó un curso sobre ―Teoría de la
relatividad restringida‖. El Ing. Geógrafo Alberto E. Manacorda es profesor titular de
Análisis Matemático en la Facultad de Ciencias Económicas de la Universidad Nacional
de Rosario y exvicedirector del Observatorio Astronómico y Planetario de esa Ciudad.
8 de julio de 2008, conferencia del Ing. Alberto E. Manacorda sobre el tema ―Por qué
es oscura la noche‖, en la que explicó en forma amena, para todo público, la teoría
sobre la expansión del Universo.
Abril de 2009, conferencia del Dr. Juan E. Nápoles Valdés ―Sobre órbitas y Planetas‖,
una introducción brevísima a la matemática contemporánea.
16 de abril de 2009, Lic. Jorge E. Sagula, conferencia sobre ―Investigación estadística
con sesgo en la gestión del conocimiento‖.
Noviembre de 2009, curso de 11 hs. destinado a estudiantes de la Facultad de
Ingeniería, sobre la aplicación del software archiCAD, a cargo de docentes de la cátedra
Sistemas de Representación (Mod. II). Profesor dictante, arquitecto Adrián Floriddia.
En el marco de las normativas para los estudios de posgrado dispuestas por Res. 196/03
y 891/06 del Consejo Superior de la Universidad Nacional del Nordeste, se dictaron los
siguientes cursos de posgrado:
Año 2008; ―Metodología de la Investigación‖, autorizado por Res. 162/08 del Consejo
Directivo de la Facultad, con 60 horas de duración y reconocimiento de cuatro créditos.
Dictado por la Prof. Mgter. Viviana Aranda Yaccuzzi Polisena.
6
Año 2009; segundo curso ―Metodología de la Investigación‖, con los mismos
contenidos, programación y características del anterior, aprobado por Res. 078/09 del
Consejo Directivo, fue dictado por la misma profesora Mgter. Viviana Aranda Yaccuzzi
Polisena.
Año 2009; ―De la estabilidad al Caos‖ ―Un viaje matemático por los sistemas
dinámicos‖, curso de 30 horas de duración, autorizado por Res. 322/08 del Consejo
Directivo de la Facultad de Ingeniería, dictado por el Dr. Juan E. Nápoles Valdés.
Jornadas Interdisciplinarias.
Los cursos de posgrado se cumplieron con todo éxito y corresponde una mención a la
capacidad y dedicación de los docentes que tuvieron a su cargo el dictado de los
mismos. En base a estos cursos se fue formando un grupo humano de docentes e
investigadores en distintas disciplinas, relacionadas casi todas en mayor o menor
medida con la matemática o con las ciencias básicas de la ingeniería, coincidentes en la
búsqueda del conocimiento científico, por distintos caminos. Los trabajos realizados por
este grupo, sumados a los aportes de otros investigadores de la Universidad, generaron
la idea de exponer estos resultados en unas jornadas de carácter interdisciplinario.
Debe nombrarse otra vez aquí a la Mgter. Viviana Aranda Yaccuzzi Polisena, que fue
la gestora de la iniciativa y organizó las Primeras Jornadas Interdisciplinarias, con sede
en la Facultad de Ingeniería, para los días 3, 4 y 5 de diciembre de 2009.
Comprometieron su participación en estas jornadas prestigiosos investigadores de
nuestra Universidad y de la Universidad de Lyon de Francia.
Publicaciones.
Con regularidad, se cumplió con la edición semestral de los números correspondientes
de la Revista del Instituto de Matemática, completando en este mes de diciembre de
2009 el N° 10 de la publicación en papel. Para la última edición se consiguió apoyo
económico de la Secretaría General de Ciencia y Técnica, que cubren los insumos,
haciéndose cargo de los trabajos de impresión la imprenta dependiente de la Secretaría
General de Extensión Universitaria. Estas importantes colaboraciones, que mucho
agradece la dirección de la Revista, facilitan la continuidad de la misma y representan
un reconocimiento al trabajo que compromete a mejorar la producción. La Revista del
Instituto de Matemática está registrada con el ISSN N° 1850-9827 y cuenta con un
comité de referato. Actualmente se está trabajando en la posibilidad de dar continuidad
a la edición en formato digital, existiendo a tal efecto, una oferta de colaboración del
Departamento de Computación.
Conclusiones.
A manera de conclusión, evaluando fortalezas y debilidades, de lo realizado hasta la
terminación de esta última gestión, puede afirmarse que el Instituto fue creciendo
lentamente, aunque con continuidad, en el cumplimiento de sus objetivos. El principal,
fue crear un espacio de trabajo y comunicación para los docentes e investigadores de las
distintas especialidades de la Matemática y muy especialmente, para los que se inician
7
en la investigación. Puede concluirse que el Instituto resultó de utilidad para contribuir
a la formación de recursos humanos, que el Departamento de Matemática, la Facultad y
también otras casas de altos estudios requieren.
Las primeras etapas de este proyecto ya se han cumplido, con la formación de un grupo
humano que participa de las actividades del mismo y docentes categorizados para la
investigación de distintas disciplinas. Desde esta base se podrán abordar proyectos de
superior alcance y nivel.
Se han sumado a las tareas del Instituto, docentes de otras ciencias básicas de las
carreras de ingeniería; con seguridad el aporte a realizar contribuirá positivamente al
cumplimiento de los objetivos finales, con un criterio amplio de cooperación
interdisciplinaria, en la búsqueda del saber científico.
Corresponde reconocer el especial apoyo de las autoridades de la Facultad de Ingeniería
que permitió llevar adelante todos los proyectos encarados por el Instituto y facilitó el
logro de los mismos.
El Director del Instituto
8
¿QUÉ MODELO MATEMÁTICO ELEGIR PARA EL BENCHMARKING DE
LAS EMPRESAS CONSTRUCTORAS DE LA PROVINCIA DEL CHACO?
RESCALA, Carmen1; ROHDE 1; Gricela Alicia1 ; MARTÍNEZ de MÜLLER, Hilda
Delia1; GIRAUDO, Marta Beatriz Viviana1; BONAFFINI, María Liliana1; Gustavo
Alberto BERNAOLA2
Universidad Nacional del Nordeste 1 - Universidad Tecnológica Nacional 2
[email protected], [email protected], [email protected],
[email protected], [email protected],
[email protected],
Especialidad o tema: Matemática Aplicada.
Palabras claves: Modelos Matemáticos – Empresas Constructoras – Eficiencia –
Optimización
RESUMEN
Este trabajo forma parte del Proyecto de Investigación PI 054/07 ―Modelos
Matemáticos y Estadísticos para la Gestión de Administración de Empresas
Constructoras‖, proyecto cuya importancia radica en mejorar los procesos
administrativos y optimizar la toma de decisiones en estas unidades de negocios que
actúan en el sector de la construcción, de la ciudad de Resistencia, Provincia del Chaco.
El objetivo de este artículo es describir la necesidad de las empresas de conocer su
eficiencia relativa y los fundamentos que llevaron al equipo de investigación a adoptar
el Modelo Matemático DEA para el estudio de la eficiencia de las empresas
constructoras seleccionadas.
INTRODUCCIÓN
Los modelos matemáticos son herramientas que nos suministra la matemática y se
convierten en instrumentos que facilitan la elección de estrategias sin las cuales los
profesionales, en este caso de las ciencias económicas y afines, no pueden resolver las
complejidades propias de su hacer.
En las distintas disciplinas de las ciencias económicas, las variables pueden ser
representadas por símbolos y sus propiedades enunciadas en lenguaje matemático, lo
que significa que la ciencia matemática aporta a una ciencia social las herramientas y
técnicas para analizar las relaciones entre sus variables.
Es ésta la razón que nos lleva a decir que el análisis económico de hechos reales es un
análisis de la matemática aplicada.
Durante mucho tiempo los gerentes fueron indiferentes a la construcción de modelos
cuantitativos que les permitieran tomar decisiones más acertadas, seguían confiando en
su intuición y en su experiencia. Si bien reconocían las ventajas que presentaba la
construcción de modelos, opinaban que solamente podían crear modelos los
matemáticos, los consultores y los expertos en informática.
Al delegar la construcción de modelos a los especialistas en el tema, el management o
administrador general o gerente, no participaba del proceso de construcción de los
9
modelos que ayudarían a tomar decisiones, por lo cual la interpretación de los resultados
era errónea o no se llevaban a la práctica.
Sin embargo sucede algo que revierte el pensamiento de esos gerentes de empresas. Ese
suceso es el avance tecnológico, gracias a él los administradores comienzan a construir
y analizar sus propios modelos.
Ese avance tecnológico está dado por:
 el poder de las computadoras personales
 los programas accesibles y fáciles de usar.
Los gerentes de empresas no necesitan ahora conocimientos analíticos de matemática ni
de programación de computadoras, tampoco la formación técnica especializada que se
volvió indispensable en épocas anteriores, requisitos que hoy han desaparecido para el
usuario.
Cuando los gerentes deben tomar decisiones frente a situaciones que presentan
alternativas conflictivas o antagónicas, las analizan, resuelven los conflictos, ponen en
práctica las decisiones tomadas y la organización asume las consecuencias en forma de
resultados.
Para crear un modelo es necesario comprender:
• ¿qué tipo de situaciones administrativas se prestan a ser representadas en un
modelo?.
• ¿qué posibilidades tenemos de reunir los datos y analizar el modelo para obtener
resultados con una inversión razonable de tiempo y dinero?
• ¿qué acciones deben realizarse para obtener el mayor provecho del modelo y de
la puesta en marcha de la decisión tomada?
Una clasificación de los modelos, los divide en:
 Determinísticos

Lineales

No lineales
 Estocásticos
Teniendo más subdivisiones en cada una de estas categorizaciones.
MEDIDAS DE EFICIENCIA RELATIVA
El diseño y la aplicación de modelos matemáticos han producido verdaderas
revoluciones en el campo científico y en el tecnológico. La enseñanza de conceptos
esencialmente cuantitativos requiere de la Matemática y la Gestión de Negocios
conceptos que son de naturaleza esencialmente cuantitativa, algunos ejemplos son:
precios, costos, salarios, inversiones, compras, ventas, ingresos, utilidades y muchos
más, por lo que decimos que el análisis económico es indudablemente matemático.
Las empresas constructoras de la ciudad de Resistencia, Chaco, deben conseguir un
posicionamiento, una imagen que les permita diferenciar su oferta y liderar en el
mercado. Al ser eficientes, las empresas mejoran su gestión de administración y el nivel
de competitividad. Nada pueden lograr las empresas si no conocen su eficiencia
relativa.
La eficiencia es un concepto relativo, porque adquiere verdadero significado, si el
resultado de una unidad económica se compara con un estándar. Por ello, la medida de
la eficiencia se desarrolla en dos etapas. En la primera, se fija una función “frontera”
que indica el máximo nivel de output (elementos de salida de un proceso productivo,
por ej. ventas) que puede alcanzarse, la representación de esa función es la isocuanta
de producción. En la segunda etapa se comparan los resultados obtenidos para cada
10
unidad de negocios con la frontera de eficiencia, considerándose ineficientes las
empresas que presentan desviaciones con respecto a ella.
A partir del concepto de isocuanta, es necesario definir eficiencia técnica: es la
alcanzada por una unidad de negocios que emplea la menor cantidad de inputs (recursos
empleados en un proceso productivo, por ej. materias primas) para alcanzar un
determinado nivel óptimo de outputs (salidas); para luego determinar, a partir de la
curva de isocoste, (función que representa todas las combinaciones de inputs que tienen
el mismo costo), el concepto de la eficiencia asignativa (precio) como la que utiliza la
mejor combinación de inputs considerando los precios de los mismos en el mercado. La
combinación óptima de inputs al mínimo costo posible constituye la eficiencia
económica.
El siguiente gráfico ilustra esta clasificación:
(Sarmiento 2007)
OQ
OR
; Eficiencia de asignación : EA 
OP
OP
Eficiencia económica : EE  ET  EA ; Isocuanta: S S ; Isocoste: P1P2
Eficiencia técnica : ET 
La eficiencia puede ser caracterizada según las siguientes direcciones u orientaciones
básicas:
a) Inputs orientados: se busca conservar el vector de resultados reduciendo
proporcionalmente las variables de ingreso, sin que la empresa deje de pertenecer a la
frontera de producción.
b) Outputs orientados: en este tipo de modelos se persigue el máximo incremento
proporcional de los outputs para un nivel determinado de inputs, con la empresa
ubicada en la frontera de posibilidades de producción.
c) Input-Output orientados: son los modelos en los que Inputs y Outputs son
controlables, buscan simultáneamente la reducción de Input y expansión de Output
en forma equiproporcional, lo que se conoce como medidas de eficiencia
“hiperbólica”.
Una unidad de negocios es eficiente si para incrementar sus resultados tiene que
variar sus ingresos o disminuyendo sus ingresos altera las cantidades en los
resultados.
Para medir la eficiencia relativa, existen distintos enfoques, entre ellos el enfoque no
paramétrico de programación matemática: Data Envelopment Analysis (DEA).
11
MODELOS DEA
El método DEA es determinístico, lineal y dentro de esta última clasificación es no
paramétrico. Tiene la particularidad de que las ponderaciones que se utilizan son
determinadas endógenamente, es decir por la propia técnica de la medición. Dichas
ponderaciones se obtienen, al igual que la tasa de eficiencia, mediante la resolución de
un modelo de programación lineal, cuya formulación pone de manifiesto el carácter
relativo de la medida de la eficiencia obtenida. En efecto, la tasa de eficiencia
suministrada por el método DEA no es sino el resultado de comparar la actividad
productiva de cada organización, evaluada con las de otras técnicamente homogéneas.
Por ello decimos que DEA (Análisis Envolvente de Datos) es una técnica de
programación matemática que permite la construcción de una superficie envolvente, que
constituye una frontera eficiente, a partir de los datos disponibles de las unidades de
negocio a evaluar.
Las unidades que determinan la envolvente son denominadas unidades eficientes y
aquellas que no permanecen sobre la misma son consideradas unidades ineficientes.
Estas unidades deben ser comparables, manteniendo los mismos inputs, en diferentes
cantidades y producir los mismos outputs, también en iguales o distintas cantidades.
Al evaluar la eficiencia relativa de una unidad específica, el método DEA considera las
condiciones más favorables. El método DEA aplica diferentes pesos para cada una de
las distintas unidades porque quiere lograr ubicar a la unidad en evaluación en un
contexto favorable y si en ese contexto resulta ineficiente, significa que en cualquier
realidad será ineficiente. En este modelo de forma envolvente que es DEA, tal como
ocurre en problemas de programación lineal, encontramos que para el modelo del
problema lineal original (primal) existe otro modelo lineal asociado, denominado
problema dual que puede ser utilizado para determinar la solución del problema primal.
Los modelos DEA pueden clasificarse en función de:
a) el tipo de medida de eficiencia que proporcionan: índices radiales y no radiales
b) la orientación del modelo: Input orientado, Output orientado e Input-Output
orientado
c) la tipología de los rendimientos a escala que caracterizan la tecnología de
producción, que son procedimientos técnicos en que los factores productivos (Inputs)
son combinados para obtener un conjunto de productos (Outputs). Esta combinación
puede caracterizarse por la existencia de rendimientos a escala: constantes o variables a
escala. (Coll Serrano y Blasco, 2006).
a) * Los índices radiales miden la máxima reducción equiproporcional de los
insumos para cada unidad, comparada ésta con el proceso productivo eficiente que
conforma la frontera del conjunto de posibilidades de producción (Debru, 1951; Farrell,
1957 cit.ob en Sarmiento 2007).
* Los índices no radiales calculan la máxima reducción que es posible alcanzar
en los insumos, manteniendo inalterado el vector de productos. Si la reducción es para
un solo insumo se denomina slack (Färe y Lovell, 1978, cit. ob Sarmiento 2007).
b) * Input orientado: dado el nivel de Outputs, se busca la máxima reducción
proporcional en los Inputs, permaneciendo en la frontera de posibilidades de
producción. Se considera que una unidad no es eficiente si es posible disminuir
cualquier input sin alterar los outputs.
* Output orientado: dado el nivel de Inputs, se busca el máximo incremento
proporcional de los Outputs, permaneciendo en la frontera de posibilidades de
12
producción. Se considera que una unidad no es eficiente si es posible incrementar
cualquier output sin incrementar ningún input y sin disminuir otro output. (Coll Serrano
y Blasco, 2006)
* Input-Output orientado: en ellos tanto los Inputs como los Outputs son
controlables, buscan simultáneamente la reducción de los Inputs y la expansión de los
Outputs en forma equiproporcional.
c) * Rendimientos constantes a escala (CRS): cuando el incremento porcentual del
Output es igual al incremento porcentual de los recursos productivos.
* Rendimientos variables a escala (VRS):
 Rendimientos crecientes a escala (IRS) o economías de escala:
cuando el incremento porcentual del Output es mayor que el
incremento porcentual de los factores.
 Rendimientos decrecientes a escala (DRS) o deseconomías de
escala: cuando el incremento porcentual del Output es menor que
le incremento porcentual de los Inputs.(Coll Serrano y Blasco,
2006)
CONSIDERACIONES FINALES
La muestra seleccionada del grupo de empresas constructoras de la ciudad de
Resistencia, provincia del Chaco, dedicadas a la Obra Pública, será sometida al análisis
de comparación con respecto a aquellas empresas consideradas eficientes, para luego
detectar cuales son los factores que ocasionan las ineficiencias y cómo pueden
corregirse al compararlos con los de las entidades de referencia, esto es, las mejores de
su sector.
Por lo expuesto y después de un exhaustivo análisis de la bibliografía existente, el grupo
de investigación considera que el método DEA es el adecuado para el proyecto, ya que
constituye un instrumento de análisis de la eficiencia relativa de las empresas,
permitiéndonos ordenarlas según su grado de eficiencia. Además, discurriendo que el
benchmarking es un proceso continuo, que se usa en el planeamiento estratégico de las
compañías, donde se toman como referentes a empresas líderes de cada industria como
modelo, utilizando sus mejores prácticas como un estándar comparativo al cual llegar o
bien superar, consideramos el modelo DEA como el más adecuado porque posibilitará
la orientación de políticas internas y procesos de toma de decisiones de las empresas.
PERSPECTIVAS
El modelo DEA se aplicará para medir la eficiencia de las empresas de la muestra
seleccionada y los datos para dicha aplicación serán proporcionados por el Registro de
Empresas Constructoras de la Subsecretaría de Obras Públicas del Chaco.
En el momento de la aplicación del modelo resultará interesante la utilización de la
herramienta del software Excel – Solver- como contribución de la tecnología al ámbito
productivo de las empresas.
BIBLIOGRAFÍA


ACKOFF, Russell L.
y SASIENI, Maurice
W. Año 1.991. ―FUNDAMENTOS DE
INVESTIGACION DE OPERACIONES‖.
Octava
Edición. Editorial LIMUSA, GRUPO
NORIEGA. México D. F.
ARYA, Jagdish y LARDNER Robin. Año 1.985. ―MATEMATICAS APLICADAS A LA
ADMINISTRACION Y A LA ECONOMIA‖. Segunda Edición. Editorial Prentice-Hall
Hispanoamericana, S.A.México.
13


















BUDNIK, Frank S. Año 1.990. ―MATEMATICAS APLICADAS PARA ADMINISTRACION,
ECONOMIA Y CIENCIAS SOCIALES‖. Tercera edición. Editorial McGraw-Hill. México.
CORTÉS LÓPEZ, Juan Carlos; JÓDAR SÁNCHEZ, Lucas; ROSELLÓ, FERRAGUD, María
Dolores; VILLANUEVA MICÓ, Rafael Jacinto. Junio del 2.004. ―PROBLEMAS Y MODELOS
MATEMÁTICOS PARA LA ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS II‖.- Libro
Docente con ISBN: 8497056221. Biblioteca de la Universidad Polotécnica de Valencia. España.
CORTÉS LÓPEZ, Juan Carlos; JÓDAR SÁNCHEZ, Lucas; ROSELLÓ, FERRAGUD, María
Dolores; VILLANUEVA MICÓ, Rafael Jacinto. Mayo del 2.005. ―PROBLEMAS Y MODELOS
MATEMÁTICOS PARA LA ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS III‖.- Libro
Docente con ISBN: 8497058178. Biblioteca de la Universidad Polotécnica de Valencia.
GAITHER, Norman y FRAZIER, Grez. Año 1.999. ―ADMINISTRACIÓN DE PRODUCCIÓN Y
OPERACIONES‖. Soluciones Empresariales. México.
HERMIDA, Jorge; SERRA, Roberto y KASTIKA, Eduardo. Año 1.992. ―ADMINISTRACIÓN Y
ESTRATEGIA‖. Cuarta Edición. Ediciones MACCHI. Buenos Aires.
HILLER, Frederick S. y LIEBERMAN, Gerald J..Año 1.993. ―INTRODUCCION A LA
INVESTIGACION DE OPERACIONES‖. Quinta Edición.
Editorial McGraw-Hill/
INTERAMERICANA DE MEXICO, México D. F.
KOONTZ , Harold y WEIHRICH, Heinz. Año 1.991. ―ELEMENTOS DE ADMINISTRACIÓN‖.
Quinta edición. EDITORIAL Mc GRAW HILL. México.
TAHA, Hamdy. Año 1.995. ―INVESTIGACION DE OPERACIONES‖. Quinta Edición. Editorial
ALFAOMEGA GRUPO EDITOR. México D. F.
TARO, Yamame. Año 1.965. ―MATEMÁTICA PARA ECONOMISTAS‖. Edición en castellano.
Editorial Ariel S.A. Barcelona, España.
THOMPSON, Strickland. Octubre del 2004. ―ADMINISTRACIÓN ESTRATÉGICA, TEXTOS Y
CASOS‖. 13ª Edición. Mc Graw Hill. México.
WEBER, Jean E. Año 1.984. ―MATEMATICAS PARA ADMINISTRACION Y ECONOMIA‖ Cuarta Edición. Editorial Harla. México.
Antecedentes de Tesis realizadas sobre el tema
ESPINOSA PASCUAL, Juan María. Año 2.005. ―Los Costes de la no Calidad en Empresas
Constructoras‖,
Universidad De Burgos. Escuela Politécnica Superior. 18/04/2005.www.ubu.es/estudios/pr-docto/T_26.doc.
ROSADO, Carlos Alberto y LIERAS, Juan Andrés. Año 1.996. ―Políticas de Empresas en la
Industria de la Construcción‖. Autores: -Universidad de los Andes, Centro de Estudios e
Investigaciones de la Facultad de Ingeniería.- Santa Fe de Bogotá. Marzo de 1.996. Nº:247.www.revistaing.unidades.edu.co/revBart7.CASTOREÑA, David. Julio del 2.004. Universidad de George Washington. www.
homepages.mty.itesm.mx/guemes/Home.html - 7k –
PALACIOS GARCÍA, Jaime E. ―Propuesta Metodológica para evaluar el Desempeño en Costos y
Tiempos de Proyectos de Construcción‖. -Universidad de los Andes, Centro de Estudios e
Investigaciones de la Facultad de Ingeniería.-Santa Fé de Bogotá. Marzo de 1.996. Nº243.www.revistaing.unidades.edu.co/revBart7.COLL SERRANO, Vicente y BLASCO, Olga María – Año 2006.-―Evaluación de la Eficiencia
Mediante el Análisis de Envolvente de Datos-Introducción a Modelos Básicos‖.-Universidad de
Valencia. valencia-Españ[email protected]; [email protected]
PELLICER ARMIÑANA, Teresa. Año 2003. ―La gestión en Empresas Constructoras. Análisis,
Diseño y Desarrollo de un Modelo de Control‖.-Universidad Politécnica de Valencia. España.
www.cibernetia.com/tesis_es/ciencias_economicas
SARMIENTO P., Miguel. Año 2007. ―Eficiencia en la Banca Central Moderna: teoría, Evidencia y
Lecciones para América Latina‖. Ciclo de Conferencia de Banca Central del Banco Central de
Ecuador. Quito. Ecuador
14
ATOMOS Y VIDA
Ing. Emilio A. García Solá*
* El ingeniero Emilio García Solá, ex Decano de la Facultad de Ingeniería, es actualmente profesor
titular de la cátedra de Química y Director del Departamento de Físico-Química.
------------ º -------------
Creo de interés comentar con la mayor sencillez posible, el maravilloso proceso que
desde lo inanimado, los átomos, condujo a la Vida, los entes autónomos capaces de
abastecerse, crecer y reproducirse.
No tienen las Ciencias una respuesta categórica a este milagro sucedido en la Tierra. Sin
embargo la Química, sus ramas Orgánica y Biológica, la Termodinámica y las teorías
de la Evolución, han podido dar explicaciones de las etapas por las que pudo ocurrir la
aparición de moléculas vivas. Algunos autores las consideran con mayores fundamentos
que las que nos dan su visión sobre el comienzo del Universo a partir del Big Bang.Los átomos necesitan del azar para encontrarse y formar moléculas, pero no es solo el
errático azar el que lo determina, como si fueran diminutas piedritas de colores
diferentes que se acomodan .Hace falta desplieguen su afinidad química proveniente de
su estructura y que conduzca a agrupaciones mayores: moléculas. Las uniones que lo
posibilitan, pueden ser covalentes, electrovalentes o mixtas entre los átomos,; ser
fuertes, débiles ,de mediana intensidad o tenues ,rígidas o flexibles El átomo de
Carbono en particular, tiene una estructura de cuatro electrones externos desapareados
,que posibilitan muchos tipos de uniones: incluyen la formación de cadenas con otros
átomos de carbono (concatación) y multitud de combinaciones posibles con otros
elementos: ,hidrogeno ,oxigeno, nitrógeno ,fósforo, etc.,que lo hacen el elemento
esencial de las moléculas orgánicas .
Las moléculas se asocian por puentes de hidrógeno, uniones de Van del Wall, uniones
di-ester. La Termodinámica química las estudia, determina la energía de cada tipo de
enlace y la necesaria para su ruptura y las leyes y principios a que deben ajustarse para
formarse o disociarse las sustancias
A ellos debieron respetar las uniones ocurridas en una Tierra distinta a la actual: Un
planeta en formación con mares tumultuosos, calientes .turbios ,cargados de átomos
livianos, recibiendo radiaciones intensas y energías variadas, que provocaban multitud
de reacciones de composición y descomposición de substancias, muchas de ellas
catalizadas por detritos arcillosos marinos ,hicieron posibles uniones complejas.
De las aguas marinas pudieron formarse lagunas poco profundas y pantanos y allí, en
ambiente mas calmo, surgir pequeñas gotas que encerraban moléculas protegidas por la
membrana exterior de otro tipo de sustancias y que permitía un intercambio selectivo
con el exterior. Un enclaustramiento muy propicio se había desarrollado para permitir
un proceso selectivo.
En busca de estabilidad y permanencia, debió actuar la evolución a nivel molecular,
desechando moléculas inútiles y propiciando el surgimiento de aptas, capaces de
repetirse y replicarse. La evolución actúa muy lentamente y debieron pasar millones de
años para producirse cambios, y dar origen a que las gotitas se fraccionaran ; fueron ya
células procariotas con algo similar al ARN , capaces de abastecerse y reproducirse ,y
15
formaron virus ,bacterias y las maravillosas algas verde-azuladas ,generadoras de
oxigeno por fotosíntesis. El oxigeno depuró la atmósfera hostil y como ozono fue un
escudo en las alturas.
Devueltas a aquellos mares, y protegidas en sus profundidades de las mortíferas
radiaciones, pudieron multiplicarse de a billones y billones y más tarde dar lugar a
células más grandes, las eucariotas, con núcleos que contenían ADN y estructuras
variadas, que constituyeron los seres vivos más complejos.
Concurrió a la diversidad la aparición de la sexualidad surgida con la evolución.
En los últimos 150 años las experiencias, determinaciones e hipótesis de muchos
investigadores han aportado los conocimientos que hoy poseemos, que fundamentan lo
expuesto.
En 1864 se aisló el núcleo de células, mas tarde se identifico una sustancia ―nucleína‖,
común a células animales y vegetales, compuesta por aminoácidos y proteínas. Se
determino en 1956, con el experimento del joven Stanley Miller, que podían producirse
aminoácidos de mezclas simples de metano, amoníaco( NH3),agua e hidrogeno, si se
las sometía en laboratorio a descargas eléctricas intermitentes, imitando condiciones
parecidas a las de la Tierra primitiva. Fue el inicio de experiencias de mayor
complejidad que probaron que se podían obtener aminoácidos más complejos de
mezclas de gases simples, e incluso proteínas y polímetros que existen en células de
seres de ambos reinos y que son, componentes del ARN( ácido ribonucleico) y el ADN
(ácido desoxirrbonucleico)
Se determino su composición de cadenas de azucares y fosfatos ,entre las cuales se
ubicaban 4 bases nitrogenadas: Citosina(C ),Guanina(G,)Adenina(A)Timina(T) en el
ADN y reemplazada T por Uracilo (U) en el ARN unidas por puentes de hidrogeno de
a pares .(algunos estudiantes usan para recordar como se complementan, la reglita
nemotécnica: Carlos Gardel y Aníbal Troilo, por sus primeras mayúsculas).
La alternancia de las bases nitrogenadas a lo largo de las cadenas, definen códigos, que
respetados en la unión de átomos, llevan a la reproducción de la larga molécula inicial y
a la definición de la genética.
16
Dos físico-biólogos a fines del siglo XX ,propusieron un macro- modelo, con alambre y
cartón, para los polímetros ADN Y ARN ,que mostraba su posible estructura y
respondía a las propiedades
y versatilidad
adecuadas para ser deposito o
almacenamiento ,y el transmisor de información genética de las células necesarias para
cada tejido y organismo de seres vivos animales o vegetales.
Modelo de ADN
Un humano necesita cientos de células diferentes para su nacer y desarrollo:
epiteliales, hepáticas, musculares, óseas, etc .compuestas por proteínas diferentes.
El ARN es un polímero de una sola cadena, mientras que el ADN es bicadenado, con un
peso molecular del orden de 6 millones ,mas estable y se presenta en bastoncitos de
unos 3000 Aº. El ARN es mas funcional y simple e interviene en la copia del código ,su
traducción a un código proteico( arreglos con repetición de las 4 bases ,tomadas de tres)
y su transporte como mensajero , hasta un pequeño órganulo celular ,el ribosoma ,que
ordena los aminoácidos en proteínas que necesita cada tipo de célula .Dando un
ejemplo simple el código GCA da alanina,el CUA leucina,el CCA profina ,el ACA
treonima, que ordenados en el ribosoma dan la proteina sintetizada
17
Actualmente a través de su modificación, por métodos físicos y químicos, el hombre es
capaz de alterar el código genético para combatir enfermedades, mejorar especies y
también provocar males y problemas.
Finalizamos comentando que hay científicos que afirman que la Vida pudo llegar
desde el espacio exterior, basados en el hallazgo de materia orgánica en metereoritos
.La gran mayoría cree que la maravillosa Vida, se inicio en la Tierra, en nuestros mares
primitivos y lagunas circundantes, que ofreció las condiciones apropiadas para que
existiera agua líquida y retención de una atmósfera gaseosa ;no desechan la posibilidad
que ello pueda ocurrir en otros cuerpos celestes del Universo.
Bibliografía:
-Paciencia en el azul del cielo –Herbert Reeves. Ciencia Abierta.
Izquierda y derecha en el Cosmos-Martin Gardner .Biblioteca científica Salvat.
La historia mas bella jamás contada de Herbert Reeves., Editorial Andres Bello.
Carbonolito-Creación y vidas –E.García Solá-Ediciones Krant.
www.Wikipedia.com/ Acido desoxirribonucleico.
18
LA MATEMÁTICA, LA FISICA Y LAS TECNICAS
CONSTRUCTIVAS
Por el Dr. Ing. Mario Bruno Natalini *
* El Dr Ing. Mario Bruno Natalini, ex Decano de la Facultad de Ingeniería, es actualmente profesor
titular de la cátedra Hormigón Armado II y Director del Instituto de Estabilidad.
RESUMEN
Desde tiempos remotos, los constructores han tenido la inquietud de cubrir grandes
espacios sin colocar columnas y una estructura que se adapta especialmente para ese fin, es
la cúpula de revolución, superficie de curvatura total positiva, que tiene la particularidad de
ser siempre el funicular de las cargas. Esto no se sabía en la antigüedad, pero la intuición,
el ingenio y la audacia fueron suficientes para crear las grandes obras arquitectónicas: el
Panteón de Agripa, la basílica de Santa María dei Fiori, la iglesia de San Pedro en Roma
con diámetros de alrededor de 40 m y espesores de 4 m o mas. Con el advenimiento de los
nuevos materiales y el desarrollo de la matemática y la mecánica, se produjo una
reducción sistemática de espesores hasta llegar a valores entre 6 y 10 cm. y 100 m de
diámetro en construcciones de hormigón armado y cerca de 180 m de diámetro para
reticulados espaciales de acero.-
INTRODUCCION
En la Edad antigua, que se inició alrededor de 4000 años a.c. con las civilizaciones asiriobabilónica y egipcia, los conocimientos de aritmética se limitaban a suma, resta,
multiplicación, división y ecuaciones simples En geometría, cálculo de áreas, volúmenes y
rudimentos de trigonometría que permitieron a los Faraones construir las pirámides, de las
cuales se conservan hoy alrededor de 80 a lo largo del río Nilo. En la Foto 1, figuran las
tres pirámides de Gizeh, construidas alrededor de 2570 .a.c., donde la mayor mide 230 m
de lado por 146 m de altura.(Foto 1) En esa época, los materiales usuales eran madera,
piedra, ladrillos y mortero de cal
Foto 1.-Pirámides de Gizeh [1]
19
Alrededor de 1500 a.c. Amenothep y Ramses II edificaron los templos de Luxor y Karnac
(Foto 2). Se observa que estas construcciones son pesadas y ocupan grandes volúmenes de
material. Las columnas están muy próximas y las vigas de piedra no son elementos aptos
para soportar las tracciones en los esfuerzos de flexión.
Foto 2.- Templo de Luxor [2]
Los griegos, a partir de aproximadamente 1000 años a.c, asimilaron los conocimientos de
matemática que poseían los egipcios Se desarrollaron los principios de la física y 600
a.c con Tales de Mileto .comienza la era dorada: Pitágoras, Aristóteles, Arquímedes y
especialmente Euclides, alrededor de 300 a.c, con sus 10 libros
El Partenón es un ejemplo de la arquitectura de esa época, donde subsisten los mismos
elementos que en Egipto: grandes columnas y vigas cortas (Foto 3).
Foto 3- Partenón-Grecia [2]
20
Se planteaba ya un problema: como cubrir un gran espacio sin colocar columnas
intermedias. Antes de iniciarse la civilización helénica, apareció por el año 2000 a.c la
civilización cretense y posteriormente la ciudad-estado de Micenas en el norte de Grecia,
donde se construyó una cúpula con un diámetro de 14,5 m : el Tesoro de Atreo (Foto 4).
Se colocaban hiladas sucesivas de mampuestos de piedra apilados desde la base hacia el
centro. Este mismo sistema fue adoptada por los esquimales para construir los ―iglú‖ (Foto
6).
Foto 4.- Vista interna desde la base de la cúpula del Tesoro de Ateo hacia arriba [3]
Foto 5.- Vista interna desde la base de la cúpula del Tesoro de Ateo [3]
21
Foto 6.- Construcción de un Iglú. [2]
En la Antigua Grecia, hacia el año 500 a.C., se mezclaban compuestos de caliza calcinada
con agua y arena, añadiendo piedras trituradas, tejas rotas o ladrillos, dando origen al
primer hormigón de la historia, usando tobas volcánicas extraídas de la isla de Santorini.
Los antiguos romanos emplearon tierras o cenizas volcánicas, conocidas también como
―puzolana‖, que contienen sílice y alúmina, que al combinarse químicamente con la cal
daban como resultado el denominado cemento puzolánico (obtenido en Pozzuoli, cerca del
Vesubio). Introduciendo en su masa jarras cerámicas o materiales de baja densidad (piedra
pómez) obtuvieron el primer hormigón aligerado.1 Con este material se construyeron sobre
todo tuberías e instalaciones portuarias de las cuales se han encontrado restos hasta el día
de hoy.
Durante el Imperio Romano de Occidente, en el año 27 a.C, el emperador Augusto
encargó al general Agripa la construcción del Panteón que hoy se conoce como Panteón
de Agripa dedicado a los dioses. Fue destruido por un incendio y en el año 128 el
emperador Adriano lo reconstruyó, agregándole la cúpula de 43,40 m de diámetro. Se
supone que quien proyectó la cúpula fue Apolodoro de Damasco (Fotos 7 , 8 y 9)
22
Foto 7.- Corte del panteón de Agripa
Foto 8 Vista interior del Panteón de Agripa [2]
23
La construcción se hizo por anillos concéntricos hasta llegar a la cúspide, que se cerró con
un anillo de bronce de 8,90 de diámetro por donde entraba la luz y el agua cuando llovía.
Se construyeron dos cúpulas, una dentro de la otra, que se sostenían mediante refuerzos sin
andamiaje interno. El hueco fue rellenado con mortero de puzolana con trozos de ladrillos.
El espesor de la cúpula en la base es de 5.90 m y en la cúspide se afinaba hasta 1,50 m
Foto 9.- Alzado y sección del Panteón de Agripa [4]
La cúpula se asienta sobre un cilindro construido con puzolana y cascotes de ladrillo
Dentro el mismo había 8 columnas de 6 m de diámetro y entre ellos arcos de descarga que
transmitían el peso a las columnas
En el año 326 el emperador Constantino construyó la iglesia del Santo Sepulcro, que fue
destruida en el 614 por los persas y reconstruida por los Cruzados en 1144 (Foto10)
Foto 10.- Iglesia del Santo Sepulcro (en la actualidad) [5]
24
En el Islam se destacó la Cúpula de la Roca construida en Jerusalén entre 687 y 691, que
tenía un diámetro de 21,37 m y fue ejecutada en madera, que la hace más liviana y además
puede resistir esfuerzos de tracción. La cúpula descansa sobre un cimborrio o tambor
cilíndrico que sirve de transición a la base octogonal. Cada uno de los vértices del
octógono está orientado según los puntos cardinales, y el extradós está cubierto por
láminas de cobre pulido y dorado que, al reflejar los rayos solares, convierte a este edificio
en uno de los más hermosos de Jerusalén. (Foto 11)
Foto 11 Cúpula de la Roca [4]
En el siglo XV, Filippo Brunelleschi fue encargado de construir la cúpula de la basílica de
Santa Maria dei Fiori (lirio) de Florencia, quien inspirándose en el Panteón de Agripa
diseñó una cúpula de doble pared con mampuestos de ladrillos. Tiene 41 metros de
diámetro interior, 45,5 metros de diámetro exterior y pesa: 37000 toneladas. No es una
cúpula esférica, sino que está compuesta por una cúpula octogonal interna y otra externa
peraltada (arco apuntado) que tiende a abrirse arriba y presionar abajo sobre la otra cúpula,
para canalizar las cargas verticales y evitar que se abra en la base (Fotos 12 y 13)
25
Foto 12.- Cúpula de Santa María dei Fiori `[4]
Foto 13.- Vista de la mampostería de ladrillo de la cúpula de Santa María dei Fiori [4]
Michelangelo
di Ludovico Buonarroti, escultor, arquitecto y pintor, no estaba
familiarizado con la matemática y se valió de su intuición para desarrollar sus obras.
En el siglo XVII el Papa le encargó el diseño de la cúpula de la Basílica de San Pedro en
Roma, de 43 m de diámetro interno y un espesor de 2,50 m Después de su muerte,
Giacomo Della Porta y Domenico Fontana ,alrededor de 1590, levantaron la cúpula, que
pesaría 10000 toneladas (Foto 14 y 15) (Fig.1)
Si bien Miguel Ángel sospechaba que podría haber efectos de tracción en la base, no tenía
herramientas para asegurarlo. Por eso, trató que la cúpula fuera pesada, para que si había
26
esfuerzos horizontales se encauzaran hacia la vertical. Además, agregó nervaduras y
contrafuertes por si acaso.
En 1742 aparecieron grietas y fisuras en el anillo de base y el Papa decidió consultar a tres
monjes matemáticos: Lesseur, Jacquier y Boscowic, que conocían las leyes del equilibrio
Determinaron que existían empujes horizontales en el anillo de base que provocaron las
grietas y si no se manifestaron antes fue porque el peso de la cúpula producía un efecto
grande de rozamiento que frenaba esa fuerza horizontal. Pero a través del tiempo, las
tormentas y el tráfico de carros en la calle, generaron vibraciones que disminuyeron el
rozamiento separando la cúpula de la base.
La solución que adoptaron fue premonitoria, por cuanto rodearon la base con tres vueltas
de cadena de hierro que recubrieron con una mezcla de cemento puzolánico. Sin saberlo,
habían inventado el hormigón armado.
Foto 14.Vista interior de la cúpula de San Pedro [4]
Foto 15
Vista exterior de la Cúpula
de San Pedro [4]
EVOLUCION DE LA TECNOLOGIA
27
Pasemos ahora al siglo XX, en 1925, cuando el Ing. Franz Dischinger construyó en
Alemania una cúpula de hormigón armado de 40 m de diámetro, espesor de 0,06 m y peso
de solamente 350 toneladas (Fig. 2). No era ya una semiesfera, sino un casquete esférico,
que sería la forma que prevalecería en adelante, salvo casos especiales como Planetarios.
CUPULA SAN PEDRO - ROMA
Q = 10.000 t
MAMPOSTERIA
2
Fig. 1. Corte de la Cúpula de San Pedro
6 cm
CUPULA
HORMIGON
(DISHINGER)
1925
Q = 330 t
FIG 2- Corte de la cúpula de hormigón armado [6]
¿Que sucedió entre 1742 y 1925 para que la construcción pesada se transformara en
liviana? En esos 333 años se inició la gran revolución científica de los siglos XVIII y XIX.
En el campo de los materiales, el hierro era conocido por los egipcios 3000 a.C. y una
especie de acero se fabricaba en 1400 a.C.- En España, en el siglo IV, se forjaban armas y
en China, entre 220 a.C. y 220 d.C., se usó el acero en diversas formas.
Pero recién en 1740 el inglés Huntsman redescubrió el acero y en 1856 Bessemer inventó
el horno, hasta que en 1857 Siemens produjo el acero en la forma que se utiliza en la
actualidad. De allí surgió el auge de las construcciones metálicas y las de hormigón
armado con barras circulares de acero.
Si bien se conocía el cemento natural ―puzolana‖ que usaron los romanos, en 1824 Aspdin
produjo el cemento Pórtland, en 1835 Lambot construyó una barcaza de hormigón y en
28
1867 Monier construyó el primer elemento de hormigón armado con barras de acero. En
1885, Koenen desarrolló la primera teoría del hormigón armado.
Pero para utilizar esos materiales en una construcción racional, se necesitó el desarrollo
de la matemática: Napier, Descartes, Pascal, Newton, Leibnitz, DÁlembert, Lambot
Ruffini, Laplace,
Pero también fue fundamental el planteamiento de la mecánica
(estática, cinemática, dinámica). Ya Arquímedes (287ª a.C) había iniciado esta disciplina,
que recién fuera continuada por Stevinius en el siglo XVI.
Posteriormente Galileo, Hooke, Newton, Cullmann, Mariotte, Bernouilli, Euler, Coulomb,
Young, Navier, Saint Venant, etc. le dieron forma a la teoría de la elasticidad a partir de la
cual se realizaron las grandes obras de acero y hormigón armado
Fig.3.- Cúpula de revolución [6]
Cuando se trata de láminas delgadas con espesores entre 6 cm y 10 cm, se puede aplicar la
Teoría membranal, por la cual se desprecian los momentos flectores, momentos torsores y
esfuerzos de corte en la superficie de la lámina, permaneciendo solamente esfuerzos
normales y tangenciales que actúan en la superficie media. (Fig.3). En el caso de la cúpula
esférica de revolución sometida a su peso propio solamente existen los esfuerzos N1 y N2
según los meridianos y paralelos
29
Fig. 4.- Corte transversal de la cúpula [6]
En fig. 4 se presenta un corte transversal de la cúpula
Las fórmulas matemáticas que determinan esos valores son
N1 = Q/ 2 π R sen2 θ
a lo largo del meridiano
N2 = R. g /1 + cos θ - cos θ .R. g
a lo largo del paralelo
Q: carga de peso propio total (N)
g carga repartida (N/m2)
En Fig. 5 se muestra un ejemplo de cálculo de una cúpula semiesférica sometida a su peso
propio, con un diámetro de 64 m .Los esfuerzos NI y NII están en Kg/m.
30
Fig. 5.- Ejemplo de cálculo de una cúpula [6]
En la mitad izquierda se grafica la variación de N1 en el meridiano y en la mitad derecha la
variación de N2 en los paralelos. Los valores de N1 son siempre positivos (compresión),
pero los valores de N2 son de compresión hasta un θ = 51º 50´ cambiando a tracción en el
resto hasta el borde. Esto significa que los paralelos inferiores están traccionados y deben
colocarse barras de acero para absorber este esfuerzo
Si se usa el casquete esférico para un ángulo de 30º, se observa que los esfuerzos en los
paralelos son todos de compresión. Sin embargo, para que exista equilibrio, la suma de las
acciones horizontales debe ser 0. Por tal motivo, el último paralelo debe estar traccionado.
En Fig. 4, el esfuerzo NI del meridiano tiene una componente horizontal
que si actúa cada metro, hace que el paralelo tienda a abrirse, es decir estará sometido a un
esfuerzo de tracción.
Como todo esto no se conocía en el siglo XIX, las tracciones en el último paralelo la
absorbían por el gran peso de la cúpula que detenía la deformación por el rozamiento con
la base.
Dishinger hizo otras cúpulas como la de Planetario de Jena (Foto 16) de 6 cm de espesor y
25 m de diámetro y el Market Hall en Leipzig, de 8 cm de espesor y 65,8 m de diámetro
(Foto 17)
31
Foto 16.-Planetario de Jena [7]
Foto 17.-Market Hall [8]
Foto 18.- Cubierta perforada [6]
32
Foto 19.- Sala de exposiciones [6]
En la Foto 18 se ve una cúpula con perforaciones laterales, formando arcos inclinados que
llevan los esfuerzos a tierra y en la Foto 19 la cúpula rebajada está apoyada sobre una viga
circular que absorbe las tracciones. Las columnas están muy cercanas porque resisten el
esfuerzo vertical, pero al mismo tiempo el peso de la viga de borde. Aquí se ve una
semejanza con las construcciones griegas o egipcias, pero con un criterio diferente. Se trata
de no hacer funcionar la viga de borde a flexión, con lo cual se incrementaría mucho la
sección y el peso.
No solamente se usaron láminas de hormigón armado, sino también reticulados espaciales
adoptando la forma de cúpulas de revolución, que permitió llegar a diámetros de hasta 200
m
El OSAKA Dome en Japón, posee una cúpula reticulada formada por triángulos de barras
de acero de doble capa y tiene un diámetro de 134 m (Foto 20). El espesor es el de las
barras más el recubrimiento de material plástico, que no supera los 0,60 m Capacidad:
55000 personas. En Foto 21 se explica la elevación de la cúpula construida en el suelo y
elevada hasta su posición.
Foto 20.- Osaka Dome-Japón- Corte y vista de la viga perimetral [9]
33
Foto 21.- Osaka Dome.- Izamiento de la cúpula.[9]
El NAGOYA Dome, en Japón, posee una cúpula que es también un reticulado espacial con
un diámetro de 187,20 m, construido en 1998, con capacidad para 40500 espectadores,
destinado especialmente a cancha de baseball. (Foto 22)
La geometría del reticulado está formada por triángulos de barras de acero soldadas de
0,65 m de diámetro y espesores que varían entre 0,019 y 0,028. El anillo de borde lleva
caños de 0,95 m de diámetro y 0,05 m de espesor. (Foto 23)
34
Fotos 22 y 23 [10]
El Ing. Pier Luigi Nervi diseñó y construyó en el año 1957 el Palazzetto dello Sport en
Roma, usando reticulados de hormigón (Foto 24). Tiene 60 m de diámetro y puede
albergar a 5000 espectadores. En lugar de colocar un anillo inferior para absorber las
tracciones, ubicó 48 soportes inclinados tangentes a la cúpula que absorben directamente
los esfuerzos de los meridianos. Se utilizaron 1690 elementos prefabricado de 19 tamaños
diferentes de forma romboidal, cajones de ferrocemento de 2,5 cm. de espesor doblados
hacia fuera en los bordes para formar las vigas curvas que se observan desde el interior
(Foto 25). Estos cajones se colocaron sobre el encofrado de madera con el hueco hacia
abajo y se rellenó con mortero de cemento el hueco entre cajones formándose una losa
superior.
Esta obra fue considerada una obra de arte, por la composición interior de la cúpula con la
trama producida por las nervaduras y se la comparó con la cúpula de San Pedro
Foto 24.- Vista exterior del estadio [11]
35
Foto 25.- Inicio de la construcción colocando las columnas [11]
Foto 26. Colocado el encofrado, ubicación de elementos prefabricados de hormigón [11]
Foto 27.- Ingreso al estadio [11]
36
Foto 28.- Vista interior del estadio [11]
Foto 29.- Borde interno [11]
37
Foto 30.- Vista interna de la cúpula desde un costado [11]
En 1959 el Ing. Nervi proyectó y diseñó el Palazzo dello Sport en Roma, para 16000
espectadores destinado a eventos deportivos. El diámetro es de 100 m y el sistema de
construcción es diferente al anterior (Foto 31). La cúpula se construyó con vigas en V
prefabricadas de 0,50 m de alto, por 4,50 m de largo y 0,03 m de espesor de ferrocemento,
con una losa superior de 0,09 m de espesor (Foto 32). Se colocaron en forma radial desde
el borde hasta la cúspide. (Foto 33).
Foto 31.- Palazzo dello Sport –Roma [12 ]
38
Foto 32.-: Vista interior del Palazzo dello Sport –Roma [12 ]
Foto 33.- Interior del Palazzo dello Sport Roma
RESULTADOS
OBRA
AÑO
DIAMETRO
ESPESOR MATERIAL PESO
39
FLECHA
Tesoro de
Atreo.
-1250
14,5 m
Panteón de
Agripa
128
43,40 m
Santo
Sepulcro
326
(1144)
35 m
5m
5,9 a 1,5 m
?
piedra
?
12,50 m
mortero de 5000 t
puzzolana
21,70 m
?
?
17,50 m
madera
?
10,70m
Cúpula de
la Roca
687/691
21,37 m
?
Santa M.
Dei Fiori
1440
45,50 m
4,50 m
ladrillo
37000 t
25 m
San Pedro
1590
43.- m
2,50 m
ladrillo
10000 t
21,50m
Cúpula de
Dishinger
1925
40 m
0,06 m
hormigón
armado
330 t
7.07 m
Market Hall
1930
65,8 m
0,08 m
hormigón
armado
500 t
Planetario
1932
25 m
0,06 m
hormigón
Armado
200 t
25 m
Osaka Dome
1996
134 m
cubierta
plástica
barras de
acero
5500 t
38 m
Nagoya Dome
1997
187,20 m
cubierta de
vidrio
barras de
acero
8000 t
32,95
10 m
Palazzetto
dello Sport
1957
60
10 cm +
vigas
ferrocemento
2000 t
6,50m
Palazzo
dello Sport
1960
100
vigas de
0,50m
ferrocemento
4000 t 11,50m
Se observa en la TABLA I que en la antigüedad los diámetros llegaban solamente hasta
alrededor de 40 m, los espesores eran de varios metros y el peso de la cúpula superaba
los cinco dígitos.- En la actualidad, con el advenimiento del acero y el hormigón armado,
sumado al desarrollo de la mecánica, los espesores disminuyeron en un 98 %.como
también los pesos. No obstante, cuando aumentan los diámetro, vuelven a incrementarse
los pesos, pero siempre dentro de los cuatro dígitos.
40
CONCLUSIONES
A través de este viaje por la historia de las cúpulas de revolución, se reconoce el esfuerzo
de los constructores de la antigüedad, que con los materiales y la técnica disponibles,
erigieron verdaderas obras de arte…
Sus herramientas fueron la intuición, el ingenio y la audacia puestos al servicio de la
comunidad, generalmente para ofrecer lugares de oración a las diversas religiones.
Los constructores de hoy, arquitectos, ingenieros, han usado esa forma estructural para
otros destinos: estadios deportivos, salas de reuniones, mercados, etc.
―Pier Luigi Nervi concibió formas armoniosas al modelar las estructuras según las fuerzas
en el espacio. Para ello aprovechó la expresividad inherente a la estructura y miró al
proyecto con la firme convicción de que la obediencia a las leyes de la estática era de por sí
la garantía del éxito estético‖
BIBLIOGRAFIA
1.- M.B.Natalini.- Estructuras Laminares. Publicación del Departamento de
Construcciones- UNNE
2.- es.wikipedia.org.wiki /Luxor
3.- es.encarta.msn./El Tesoro de Atreo
4.- es.wikipedia.org.wiki/Cúpula
5.- archeology.archivo.com/Israel/Iglesia del santo sepulcro
6.- Martin Kofer. Zeiss Planetarium
7.- en. Structurae/data/index.cfm
8.- Katsumi Hara.- Design and Construction of Osaka Dome- Revista Structural
Engineering Internacional- pag. 25/26/27 – febrero1998
9.- Nobuo Sahashi- Long-Span.Lattice Roof for the Nagoya Dome. Revista
Structural Engineering International. Pág. 183/184-agosto 1998
10.- Revista Estrutura- Brasil- 1956- Tomo 6 – pág. 262/266
11.- P.L.Nervi- Nuevas Estructuras- Edit. Gili S.A. Barcelona-EspañaPag 66/81.- 1963
12.- A,Gallo.- Diseño de Estructuras- I;C:C. Facultad de Arquitectura- Uruguay T.I y II
13.- V.Hernandez Balat- Proyecto estructural.- 2008
14.- Pflügger- Estática elemental de las cáscaras
15.- Olvera Lopez- Análisis,cálculo y diseño de las bóvedas cáscaras
16.- J.Montoya- Hormigón armado.
41
TRABAJOS FINALES
del curso de POSGRADO en
―METODOLOGÍA DE LA INVESTIGACIÓN‖
---------- º -----------
Los 6 trabajos cuyos extractos se publican a continuación, corresponden al curso de
posgrado dictado por la Prof. Mgter. Viviana Aranda Yaccuzzi Polisena y fueron
evaluados por las Comisiones designadas al efecto, obteniendo la aprobación
correspondiente.-
42
CONTAMINACION LUMINICA
Blanca Graciela Latorre
Ingeniera Hidráulica (egresada de la Facultad de Ingeniería UNNE – Argentina
Profesora de Física I en la Facultad de Ingeniería UNNE
[email protected]
Hemilce Teresita García Solá
Ingeniera en Vías de Comunicaciones (egresada de la Facultad de Ingeniería UNNE – Arg)
Profesora de Física I en la Facultad de Ingeniería UNNE
[email protected]
RESUMEN
El crecimiento y desarrollo de las ciudades trajo como consecuencias alteraciones en el
medio ambiente, como la desaparición del cielo oscuro, ello nos motivo a la realización de
este trabajo. El propósito del mismo es tratar de mejorar la calidad de la iluminación
ambiental para disminuir el efecto negativo que la contaminación lumínica produce en el
medio ambiente. Analizando las consecuencias y los problemas que se presentan a causa de
la contaminación lumínica concluimos que evitarla NO significa ―dejar todo a oscuras‖
sino, iluminar mejor dirigiendo la luz donde es necesaria: el suelo.
Palabras claves: contaminación lumínica – iluminación - luminosidad – incandescencia
deslumbramiento – intrusión lumínica
INTRODUCCIÓN
Han mirado el cielo últimamente? El universo está desapareciendo definitivamente para
muchos. El universo es una parte importante del ambiente, para la astronomía y para el
público en general.
Para la mayoría de las personas en la tierra, los cielos oscuros que tenían nuestros
antepasados han desaparecido. El problema es el resplandor urbano, debido en su mayor
parte a la mala iluminación. Justamente este resplandor mal dirigido en monumentos y
viviendas ha sido lo que nos ha llevado a realizar la investigación elegida.
Con buena iluminación ganamos todos. Ayudamos a preservar los cielos oscuros, vemos
mejor, tenemos un ambiente nocturno más cómodo y agradable, y además ahorramos una
gran cantidad de dinero y energía de esa manera.
Cada intervención en la naturaleza provoca alteraciones en el medio ambiente, lo que se
denomina contaminación, al referirnos a ella relacionamos con algo sucio de mal aspecto o
de mal olor en el agua, en el suelo o en el aire. Pero debido al aumento poblacional y al
gran desarrollo industrial estamos frente a un tipo diferente y nuevo, esta contaminación no
deja vestigios tan evidentes como los casos mencionados anteriormente y especial pues su
evidencia física no es tan evidente a primera vista y nos referimos a la contaminación
lumínica, ésta dura mientras las fuentes contaminantes permanezcan activas, una vez
cesada su actividad los niveles de contaminación bajan.
Luminiscencia es la emisión de luz no causada por la combustión y que tiene lugar a
temperaturas menores. La contaminación lumínica puede manifestarse de diversas formas,
las cuales podemos englobar dentro de las siguientes categorías:
Resplandor: Se define como la sensación producida por la luminiscencia dentro del campo
visual, que es suficientemente mayor a la luminiscencia a la cual están adaptados los ojos
en ese momento, como para causar disconfort, perdida de visibilidad o desempeño visual.
Si la fuente de luz, en si es más evidente que aquel elemento que se desea alumbrar,
entonces hay una mala iluminación.
Invasión de luz: es aquella luz que es distribuida a donde no se necesita o desea. La
iluminación de la calle, por ejemplo, debería iluminar calles y veredas, no hacia las
ventanas de los dormitorios o a los tejados o techos. Es conocida con el nombre de spill
light (luz de rebalse, y ocurre cuando la luz ilumina mas allá de la meta establecida y hacia
propiedades adyacentes
Luz hacia arriba: es, en todo sentido, luz desperdiciada. Luz que se eleva directamente al
cielo y al espacio y no sirve a ningún propósito. La luz hacia arriba es la maldición de los
astrónomos y del observador estelar casual, ya que la dispersión atmosférica abrillanta
artificialmente el cielo nocturno, haciendo que las fuentes de luz celestiales sean difíciles o
imposibles de ver.
Iluminación: está definida como la cantidad de luz que se trasmite sobre cierta área .La
unidad en el sistema internacional (S.I.) de la iluminancia es el lux que es igual al cociente
del flujo luminoso incidente y la superficie iluminada.
Luminosidad: Se define como la relación de la intensidad luminosa a la proyección de la
superficie iluminada sobre un plano perpendicular a la dirección de los rayos. Es el brillo
de un objeto que ha sido iluminado por una fuente. La luminosidad de un objeto depende
de las reflectancia y características del material., por ejemplo bajo las mismas condiciones
de iluminación un objeto oscuro lucirá más opaco que un objeto brillante.
Candela: la intensidad luminosa de una fuente de luz se mide en candelas. Ésta es una
unidad fundamental de una magnitud fundamental como es la intensidad luminosa. Las
bases históricas de la candela están asociadas con la cantidad de luz emitida por la llama de
una vela. Definición de candela en el SI (sistema internacional): es la intensidad luminosa
en una dirección dada de una fuente que emite una radiación monocromática de frecuencia
igual a 540 × 10 12 Hz (Herz) y que tiene una energía de 1/ 683 W/sr (vatios sobre
estereorradián)
Lumen: es la unidad de flujo lumínico (potencia lumínica) producido por la fuente y está
directamente relacionada con la unidad de intensidad luminosa (candela). Una fuente
puntual con la intensidad de una candela producirá un flujo luminoso de un lumen a través
de un ángulo sólido de un estereorradián. El lumen puede ser interpretado como el
producto del ángulo sólido y la intensidad lumínica, o sea, la cantidad de luz emitida desde
una fuente con una cierta intensidad.
La luminosidad es distinta a la incandescencia, que es la producción de luz por materiales
calentados.
El uso excesivo e irresponsable de la energía eléctrica en el alumbrado de exteriores es la
causa de una nueva agresión al medio ambiente que amenaza con eliminar la noche,
alterando de esta manera el segundo ciclo cósmico fundamental, y este fenómeno ya tiene
su nombre : CONTAMINACION LUMINICA.
44
Uno de los aspectos menos divulgados y conocidos de la contaminación lumínica se
refiere a su impacto sobre la biodiversidad y el medio ambiente. Este tipo de
contaminación es el brillo o resplandor en forma directa o indirecta de la luz en el cielo
nocturno producido por el resplandor del alumbrado público y el uso de luces inadecuadas
o exceso de iluminación. Se puede ampliar esta definición considerando como
Contaminación Lumínica a toda la luz que escapa fuera de la zona que se quiere
iluminar, produce un incremento del brillo del fondo natural del cielo. La dispersión hacia
el cielo se origina por el hecho de que la luz interactúa con las partículas del aire
desviándose en todas las direcciones, este proceso es más intenso si hay partículas
contaminantes en la atmosfera o humedad ambiental. Las nieblas o el cielo turbio
potencian el efecto y crean una capa de color gris o naranja que causan una nube luminosa
sobre las ciudades. Esto tiene una serie de consecuencia que influyen de varias maneras
tanto en el medio ambiente como en la vida de los seres y veamos cuales son las más
importantes: Una de las consecuencias de este tipo de contaminación es: el
deslumbramiento en conductores y peatones por el exceso de iluminación que se
produce cuando la luz de una fuente artificial incide directamente sobre el ojo y es más
intensa cuando más adaptada a la oscuridad está la visión. Al ser un efecto indeseado,
toda la luz que se origina no se aprovecha, además de ser un derroche es un elemento de
inseguridad personal y vial. Otro efecto es: la intromisión o intrusión lumínica es
cuando la luz artificial procedente de la calle entra por las ventanas invadiendo el interior
de las viviendas. Su eliminación total es imposible porque siempre entrará un cierto
porcentaje de la luz reflejada en el suelo o en las paredes de los edificios.
OBJETIVO
Uno de los principales objetivos a alcanzar en el intento de controlar la contaminación
lumínica es la mejora de la calidad de la iluminación ambiental. Cambiando el origen y la
posición del flujo luminoso disminuiría el efecto negativo en el medio ambiente.
Un exceso de flujo luminoso tiene toda una serie de consecuencias perniciosas, como la
dificultad de adaptación de la visión al salir del área iluminada, el deslumbramiento
dentro y fuera del área en cuestión y la formación de ―cortinas de luz‖ que impiden la
percepción del exterior del área a su interior.
¿Por qué combatir la contaminación lumínica? Porque disminuye el consumo energético e
indirectamente el consumo de combustibles, protege el medio ambiente nocturno ya que
le devuelve a la naturaleza estados de habitat original, al tiempo que protegen las aves y
mamíferos nocturnos, se reduce el deslumbramiento de los conductores con lo que se
aumenta la seguridad vial, se colabora con la visibilidad nocturna del tráfico aéreo.
HIPOTESIS
¿Se debe considerar a esta novedosa forma de contaminación, cuyos efectos son todavía
muy poco estudiados, como perfectamente equiparables a la emisión de humos hacia la
atmósfera o al derrame de contaminantes en los ríos, porque en el fondo es una emisión de
energía producida artificialmente hacia un medio naturalmente oscuro ?
DESARROLLO
45
Dicha contaminación lumínica tiene efectos poco divulgados y conocidos y que se refiera a
su impacto sobre la biodiversidad de la flora y fauna nocturna que es mucho más numerosa
que la diurna y precisa de la oscuridad para sobrevivir y mantenerse en equilibrio en el
medio ambiente. La proyección de luz en el medio natural origina fenómenos de
deslumbramiento y desorientación en las aves, murciélagos, anfibios, peces, insectos
También incide sobre los ciclos reproductivos de los insectos, algunos de los cuales deben
atravesar grandes distancias para encontrarse y no pueden pasar por las ―barreras de luz‖
que forman los centros urbanos iluminados.
1. PROBLEMAS QUE SE PRESENTAN A CAUSA DE LA CONTAMINACION
LUMINICA
a) Se rompe el equilibrio poblacional de las especies, porque algunas son ciegas a ciertas
longitudes de onda de luz y otras no, con lo cual las depredadoras pueden prosperar y
se produce la extinción de las especies. La flora se ve afectada al ver disminuir los
insectos que realizan la polinización de ciertas plantas.
Los efectos directos sobre la vida silvestre derivados del exceso en intensidad y rango
espectral de la iluminación artificial. Aves, murciélagos, anfibios, peces, insectos ven
alterados sus hábitos nocturnos, (reproducción, migraciones) debido a la presencia de
potentes focos que rompen con el ciclo natural del día y la noche.
Estas circunstancias se ven acentuadas por la importante cantidad de radiación
ultravioleta emitida hacia el cielo en los núcleos urbanos.
La radiación ultravioleta es invisible para el ojo humano pero muy perceptible para la
mayor parte de los insectos nocturnos, como las mariposas y en especial una de ellas
la mariposa nocturna Graelisia Isabelae que según expertos aseguran que si dicha
mariposa se expone más de diez minutos a la luz de un lámpara pierde su sensibilidad
visual y luego de treinta minutos después la recupera. En cuanto a la reproducción,
las hembras tienden a concentrar la puesta de huevos en zonas próximas a la luz y esto
facilita la depredación y reduce la reproducción.
También los científicos explican que los insectos tienen un comportamiento
denominado ―vuelo hacia la luz‖ y la iluminación artificial puede producir tres tipos
de efectos:
El cautiverio o fijación: es cuando el animal se ve atraído por el efecto luminoso e
impacta contra lámparas o si no orbita sobre la misma hasta morir.
El efecto barrera: es producido cuando la luz artificial interrumpe los movimientos de
larga distancia de los insectos.
El efecto aspirador: sucede cuando el exceso de claridad hace que estos animales
dejen su medio ambiente atraídos por la luz.
En la noche sucede la mayor parte de la actividad biológica del mundo salvaje.
Al caer el sol, los animales nocturnos despiertan. Todo tipo de clases y órdenes del
mundo animal han desarrollado en la noche sus sentidos, aunque viven en la noche
negra algunos muestran colores muy llamativos como la rana Arbórea de ojos rojos
(Agalichnis Callidryans).
Incluso durante la noche, muchas flores producen un fuerte olor para atraer a sus
insectos polinizadores.
46
Los murciélagos son ciegos y sin embargo en la noche gozan del más sofisticado radar
que algunos comparan con un sistema solar y se ve muy disminuido por el exceso de
luz artificial.
b) En otro orden de cosas, la emisión indiscriminada de luz hacia el cielo y su dispersión
en la atmósfera constituyen un atentado contra el paisaje nocturno al ocasionar la
desaparición progresiva de los astros. Algunos de ellos no tienen brillo puntual como las
estrellas, sino que son extensos y difusos, como las nebulosas y las galaxias y son los
primeros en resultar afectados, nuestra visión depende del contraste existente entre su tenue
luminosidad y la oscuridad del fondo del cielo, al producirse la dispersión de la luz se torna
gris y esos objetos desaparecen; se puede nombrar un ejemplo de esto, es la desaparición
total de la visión del plano de la Vía Láctea que es nuestra galaxia desde los centros
urbanos. Debemos alejarnos mucho de los núcleos habitados para encontrar cielos oscuros
como para poder observarlo en toda su magnificencia.
Al incrementarse más y más el brillo del cielo acaban por desaparecer también de forma
progresiva las estrellas con lo que al final solamente las más brillantes, algunos planetas y
la luna resultan visibles en medio del cielo urbano que es como una niebla gris anaranjado.
c) El modelo luminotécnico vigente prioriza el deslumbramiento porque se basa en la
falsa concepción de que el exceso de luz incrementa la visibilidad y los ciudadanos
demandan más luz, creyendo de que la seguridad personal aumenta con el exceso de la
misma y finalmente resulta todo lo contrario: una persona deslumbrada carece de
seguridad es vulnerable a las agresiones físicas y se ve disminuida su capacidad de
respuesta en una carretera al no poder sus ojos percibir los detalles inmediatos debido al
exceso de la luz mal dirigida. El alumbrado público está diseñado de forma que solamente
se aprovecha una parte de la energía lumínica emitida. En general no se ilumina bien y se
malgasta luz, el alumbrado funciona más horas de las que son necesarias y, lo que es peor
aún, cuando todavía hay luz natural. Como podemos observar la fuente contaminante más
perjudicial por los volúmenes de contaminación que conlleva es la luminaria pública en
las vías. A continuación, vemos algunos tipos de lámparas
47
d) Otra derivación de este tipo de contaminación es: el sobre consumo que es una
consecuencia indeseable e inevitable; si se evitara se ahorrarían porcentajes muy
importantes de consumo de energía eléctrica.
e) Hay que añadir que la contaminación lumínica, juntamente con la radioeléctrica y la del
espacio, representan la más seria amenaza para el progreso de la astrofísica. La dispersión
de la luz en la atmosfera altera la calidad del cielo a grandes distancias afectando así las
zonas en las que se ubican los observatorios científicos y profesionales. Por esta razón
comenzaron las denuncias del peligro que producía la contaminación lumínica para la
ciencia astronómica ,a través de la Unión Astronómica Internacional (IUA), fue la
UNESCO que estableció una serie de convenios de protección para los laboratorios, se
redactaron una serie de recomendaciones de carácter luminotécnico para los distintos
estados de la Tierra.
Pero no se han tenido en cuenta, en la práctica, con lo cual hoy en día la situación es
realmente angustiosa y algunos laboratorios o se han cerrado o se mantienen realizando
tareas de observación menor.
PROPUESTAS
Se puede pensar que este fenómeno es inevitable y que no queda otro remedio que elegir
entre frenar el progreso o extender el certificado de defunción del cielo nocturno, pero esto
no es así. Solucionar este problema no significa ―dejar todo a oscuras ―sino que lo que se
pretende es utilizar menos luz para iluminar mejor. La solución a la Contaminación
Lumínica no significa erradicarla porque siempre va a existir un porcentaje de luz que el
suelo reflejará hacia la atmósfera y este porcentaje que sea el mínimo posible.
No se debe confundir el intento de minimizar la contaminación lumínica con la idea de
dejar a las ciudades con una iluminación deficiente, Al contrario, las acciones a llevar a
48
cabo para reducir la contaminación lumínica suelen llevar asociadas mejoras de la calidad
de la iluminación ambiental.
Para conseguirlo es necesario:
 Tener en cuenta el impacto del alumbrado en todo nuevo proyecto de urbanización
en el momento de sustituir el actual.
 Incluir criterios ambientales en los pliegos de cláusulas administrativas de obras y
cambios de alumbrado.
 Utilizar las ordenanzas municipales para promover y potenciar la reducción de la
contaminación lumínica.
 Establecer un dialogo entre la municipalidad, las empresas y los particulares para
que en la iluminación de los recintos privados, fachadas y carteles publicitarios se
atiendan en la medida de lo posible, las normas de reducción de la contaminación
lumínica y los criterios de eficiencia en el consumo energético.
 Condicionar los permisos para nuevas instalaciones industriales, comerciales y de
ocio al cumplimiento de las normas y criterios de minimización de la
contaminación lumínica.
 Establecer un control de las instalaciones existentes y diseñar un plan de mejoras
del alumbrado con el objetivo de disminuir el consumo y la contaminación
lumínica para aumentar la calidad de servicio al ciudadano.
 No instalar, como norma lámparas que produzcan más luz de la necesaria.
 Diseñar un plan de iluminación que satisfaga las necesidades del ciudadano, respete
el cielo oscuro que necesitan las especies nocturnas y adapte el alumbrado
público a las medidas de minimización de la contaminación lumínica para que la
naturaleza no note nuestra producción de luz.
 Incluir en las instalaciones de alumbrado público sistemas de regulación del flujo
luminoso con el fin de adecuar el alumbrado a las necesidades reales de su
utilización.
 Restringir el uso de cañones láser dirigidos hacia el cielo desde instalaciones
turísticas y de ocio.
 Utilizar lámparas de bajo consumo y de luz roja en exhibiciones y rótulos
publicitarios.
 Establecer un horario de encendido y cierre de las luces.
 Apagar las luces exteriores en jardines, exhibiciones y rótulos publicitarios cuando
no sean realmente necesarios.
 En cuanto a los focos, diremos que una buena medida es utilizar las de alta calidad
con índices de rendimiento sobre el 60%.
 Utilizar sistemas de regulación de flujo luminoso que permita reducir la luz y por lo
tanto el consumo durante las horas de baja actividad en las calles.
 Apagar el alumbrado ornamental después de las 23 o 24 horas según la época.
 No utilizar faroles tipo globo sin pantallas puesto que desaprovechan un 50% de la
electricidad que consumen, y al disipar tanto la luz, es necesario emplear lámparas
de muchos más vatios para poder iluminar una pequeña porción de suelo. En este
sentido, las luminarias de vidrio plano con lámparas de vapor de sodio a baja presión
49
de 35 W producen un flujo luminoso de 4800 lúmenes tienen una eficacia del 67%
(ver figura 1)
 Modificar las instalaciones antiguas siguiendo los criterios de eficiencia energética y
de niveles luminotécnicos establecidos.
 Será necesario utilizar la potencia lumínica necesaria para cubrir las necesidades de
las personas sin perjudicar a la fauna.
 Iluminar hacia el suelo y utilizar una óptica que cree unos conos de luz tan agudos
como sea posible para evitar la dispersión de la luz. Utilizar luz roja en lugar de
azul o blanca (dado que en la franja del rojo radiaciones superiores a 600
nanómetros, son casi invisibles para la mayoría de los organismos).
 Evitar las lámparas de mercurio porque son especialmente agresivas para muchas
especies de animales, especialmente los invertebrados que son la base alimentaria
de otros animales superiores.
La aplicación de estas medidas significa una inversión y, por lo tanto, siempre es
necesaria la realización de un estudio técnico y económico en cada caso.
En este sentido, estudios realizados en proyectos existentes documentan ahorros
energéticos asociados a estas medidas que oscilan entre el 20% y el 45% del gasto
energético, según el tipo de instalación. Es necesario tener en cuenta que el costo de la
energía que consume una instalación de alumbrado público a lo largo de su vida útil suele
ser el doble del costo de su instalación. Por lo tanto, las inversiones realizadas para
mejorar la eficiencia energética y disminuir la contaminación lumínica serán siempre
compensadas con un importante ahorro económico y energético. Por eso, en los casos en
los que sea necesario realizar alguna inversión, el ahorro energético que ésta genera hace
que dicha inversión se recupere a corto plazo.
Fig 1: Adaptación de lámparas para evitar la contaminación
En la figura 2 pueden observarse distintas posiciones y ángulos de lámparas: correcta,
aceptable e incorrecta según normas básicas del alumbrado.
50
Fig 2: Normas básicas de utilización del alumbrado
CONCLUSION
Vivimos en una burbuja de luz. Cuando se oculta el sol bajo el horizonte, los núcleos
urbanos se iluminan como árboles de navidad y su brillo eclipsa el de las estrellas. Por eso,
dos tercios de los habitantes de la Tierra nunca ven el cielo tal cual es. Fenómeno que se
agrava en Europa y en los Estados Unidos, donde el cielo jamás es oscuro para el 99% de la
población. La Astronomía ha sido una ciencia importantísima en la historia de nuestra
cultura ha contribuido al avance de las matemáticas, la física, la computación, la ingeniería,
a la ciencia y tecnología en general. Nos conecta con nuestro entorno en el Universo y con
nuestras raíces cósmicas. No podemos dejar que el mismo avance cultural y tecnológico
que la astronomía ayudo a impulsar, nos prive hoy de poder contemplar las estrellas.
Un primer paso en la reducción de los niveles de contaminación lumínica consiste en evitar
que la luz llegue directamente al cielo. Para ello es indispensable colocar en las lámparas
viseras adecuadas que reflejen la luz hacia el suelo. De esta manera, se obtienen al mismo
tiempo una mayor iluminación y se elimina el desperdicio contaminante de luz hacia el
cielo. También es importante seleccionar el tipo y la potencia de la lámpara para la
finalidad a la cual se destina.
Los edificios y monumentos que deban ser necesariamente visibles en las horas nocturnas,
deberían ser iluminados desde arriba hacia abajo.
Los avisos publicitarios podrían apagarse, por ejemplo después de las 22 hs. En el fondo,
estas sencillas medidas son ya capaces de contener los efectos perjudiciales de la
contaminación lumínica a pequeña escala ahorrando, simultáneamente, una gran cantidad
de energía y de dinero.
Las soluciones para minimizar este tipo de contaminación son simples y de bajo costo.
Primero, los diseñadores y autoridades deben tener cuidado de usar las luminarias correctas
en el lugar correcto. Segundo, los diseñadores deben calcular cuidadosamente la
iluminación para asegurar un diseño agradable y eficiente. Los niveles de diseño deberían
regirse estrictamente a los estándares establecidos en la legislación local sobre el tema (si
existiera). Tercero, los técnicos luminotécnicos deben realizar los cálculos adecuados para
las diferentes necesidades, utilizando aparatos reguladores de flujos que, además de reducir
51
el consumo energético, también reducen la contaminación en cantidades superiores incluso
al 50%.
Una manera para comenzar a frenar de forma efectiva este tipo de polución es nombrar un
grupo de trabajo para que estudie el tema de la iluminación externa y recomiende
soluciones específicas (incluyendo normativas para el control de la iluminación) ajustadas a
las necesidades particulares de cada localidad.
Hay un problema y, está empeorando en casi todo el mundo. Sin embargo, hay soluciones
y éstas funcionan. También mejoran la calidad de nuestra iluminación nocturna y nos
ayudan a ahorrar una gran cantidad de energía y de dinero. Los problemas principales son
la falta de conciencia y la apatía. Se requiere de acción. La conclusión es esa: ¡todos
ganamos!
BIBLIOGRAFIA
 SAVIOLI, Carlos/ ―Iluminación Natural” . Librería y Editorial Alsina . 1993.

Oficina de Información Ambiental de Cataluña: “Criterios ambientales para la
gestión municipal” www.gencat,es/mediamb/cast/sosten/egesmu13.htm (Noviembre
1998)

ASIAIN GARCIA, R., FERNANDEZ BARBA, D., / ―Contaminación Lumínica”,
Tibidabo Ediciones (Anuario: 1995-1999: Fin de Siglo).

ROGER LEITON, /
www.ctio.noao.edu (1998)

DEL RIO, Amanda /
www.ecofield.com.ar/

BIBE, V. / “Recomendaciones generales para evitar la contaminación lumínica”
www.sigmaoctantis.com.ar

¿Porqué se ilumina el cielo y no la ciudad?” Revista Consumer (Febrero 2002, Nº
52)

Grupo URANIA / “Normativa y Reglamentación del cielo nocturno”, www.terra.es

“Norma de emisión para la regulación de la
lumínica”www.ctio.noao.edu/light_pollution/normaluminica.html
Dic. 1998)

¿Cómo combatir la contaminación lumínica? www.cida.ve/contamina.html

“Descontaminación lumínica en Chile”
www.25.brinkster.com/polucion/descontaminación/ida2.html
―Polución
Lumínica:
Un
problema
de
todos”
―La contaminación lumínica y los insectos”
52
contaminación
(Santiago, 07

“Objetivo: crecer sin perjudicar a las generaciones futuras” Revista Consumer
(Septiembre 2002, Nº 58)

“Una pobre y muy desigual implantación en las diversas zonas del país” Revista
Consumer (Diciembre 2000, Nº 39)
53
FRACTALES
Autor: Profesora Claudia Virginia Beneyto
Trabajo final del curso de postgrado ―Metodología de la investigación‖
La geometría (del griego ―ge‖, tierra y ―metrein‖, medir) es la rama de las
matemáticas que se ocupa de las propiedades del espacio. El origen del término describe
de manera precisa el objetivo y el trabajo de los primeros geómetras: medir el tamaño
de la tierra. Esta ciencia trabaja con idealizaciones del espacio en que vivimos: puntos,
rectas, planos y otros elementos derivados como polígonos y poliedros. Es una
herramienta potente y útil para solucionar problemas del mundo real y proporciona
justificaciones teóricas a otras ramas de la ciencia como la biología, la geología, la
economía y a la tecnología.
Podemos establecer dos tipos principales de geometría: la euclidiana o clásica y la no
euclidiana. La geometría euclidiana se basa en definiciones, axiomas y postulados dados
por el geómetra griego Euclides (325 AC a 265 AC) en su tratado ‗Elementos‘, en dicho
libro el autor reunió todo el conocimiento geométrico de la época. Era ésta una
geometría basada en la intuición y los sentidos. Los conceptos básicos se adaptaban a la
experiencia sensible, dependían del grado de aproximación, la forma y las extensiones
que el hombre podía percibir directamente.
Dentro de las geometrías euclidianas se encuadran la geometría sólida, desarrollada
por Arquímedes, que comprende principalmente esferas, cilindros y conos; la
trigonometría que es la geometría de los triángulos (planos y esféricos), desarrollada por
Hiparco de Nicea; la geometría analítica inventada por René Descartes, que trabaja
problemas geométricos en base a un sistema de coordenadas y su transformación a
expresiones algebraicas; y el cálculo vectorial, que trata de las cantidades que poseen
magnitud y dirección.
En cambio, las geometrías no euclidianas comienzan a desarrollarse desde el siglo XIX
cuando algunos matemáticos desarrollan otros tipos de conocimiento para los cuales no
se consideran válidos al menos uno de los postulados de Euclides. Entre éstas se puede
incluir la geometría elíptica, que trabaja sobre superficies esféricas y considera que las
rectas son cerradas, la geometría hiperbólica, en la que se acepta que por un punto
exterior a una recta pasan dos paralelas; que la suma de los ángulos de un triángulo es
menor que dos rectos, y la geometría fractal, que trata de estructuras cuya dimensión es
mayor que la dimensión topológica.
Desde otro punto de vista los matemáticos observaron que las formas de la
naturaleza exceden la capacidad de descripción de la geometría euclidiana y es allí
donde la geometría fractal aparece como una nueva manera de explicar el mundo. Esta
teoría proporciona elementos que ayudan a describir formas que no son ni circulares, ni
cónicas, ni esféricas, que pueden ser las ramas de un árbol, el contorno de una nube o la
longitud de una costa y nos permiten volver, en definitiva al concepto original de la
palabra geometría como medición de la tierra.
Por su extensión y complejidad, el estudio de los fractales conforma hoy una nueva
disciplina que se comenzó a denominar geometría fractal, que al igual que las otras
ramas de la geometría pertenece al área de estudios de la Matemática.
54
La formación clásica de un docente de matemática de los últimos años no contempla
en su currículo el estudio de geometría fractal. Tímidamente algunos docentes lo han
ido incorporando como un tema dentro de algún curso de geometría.
El presente trabajo tiene como objetivo compensar las deficiencias en la formación
académica referidas a esta nueva área del conocimiento. El mismo no pretende ser
exhaustivo ya que, como dijimos, la geometría fractal es hoy considerada una rama
completa de la matemática y no podría reflejarse en un trabajo de esta extensión, pero sí
tiene como premisas la precisión y rigurosidad matemática, intentando a su vez
conservar la sencillez y la claridad en las explicaciones.
Los objetivos que se proponen en el trabajo quedarán definidos a partir de poder
elucidar las siguientes preguntas.
¿Qué es un fractal?
¿Tiene la geometría fractal alguna aplicación en otras áreas del conocimiento?
¿Es posible establecer alguna relación entre un fractal y un desarrollo matemático?
DESARROLLO
1. CARACTERÍSTICAS DE LOS FRACTALES
La geometría euclidiana es muy útil para describir o representar algunos objetos de
la naturaleza tales como cristales o secciones de una colmena. Pero a menudo es
descripta como una ciencia fría, sin conexión con la realidad. Una de las razones es su
incapacidad para describir la forma de una montaña, una nube o un árbol. Es decir
muchas formas naturales son más irregulares y fragmentadas que las estructuras de la
geometría euclidiana y no pueden ser modelizadas por ésta.
Supongamos que se intenta medir la longitud de una determinada extensión de
costa. Si se mide en kilómetros se despreciarán algunas irregularidades y se obtendrá un
valor finito de longitud y una forma representable en un mapa. Si se intenta medir esa
misma costa en centímetros o milímetros, recorriendo las entrantes y salientes, se
conseguirá una curva completamente irregular. Este es el primer ejemplo de fractal
propuesto por Benoit Mandelbrot, matemático polaco (1924), a quien se considera el
padre de la teoría fractal, contenidos que conceptualizó y organizó en la década de los
setenta. Al respecto el científico sostiene:
….‖la longitud de una costa es un concepto esquivo, que se nos escapa entre los
dedos cuando pretendemos asirlo. Todos los métodos de medida llevan a la conclusión
de que la longitud de una costa típica es muy grande, tan indeterminada que es mejor
considerarla infinita. En consecuencia, si se quiere comparar la extensión de distintas
costas, la longitud es un concepto inadecuado‖ (Mandelbrot, pág. 49).
Mandelbrot desarrolló una nueva teoría al respecto. Dicho científico, a quien se
considera el padre de la geometría fractal, sostiene que esta nueva área permite describir
muchas de las formas irregulares y fragmentadas que nos rodean. Además caracteriza a
las estructuras que llama Fractales señalando:
―Las más útiles implican azar, y tanto sus regularidades como sus irregularidades
son estadísticas. Las formas que describo aquí tienden a ser, también, escalantes, es
decir que su grado de irregularidad y/o fragmentación es idéntico a todas las escalas. El
concepto de dimensión fractal (de Hausdorff) tiene un papel central en esta obra.‖
(Mandelbrot, pág. 15).
55
Mediante esta frase se puede ir aproximando intuitivamente características de estas
nuevas formas. Pero, ¿qué significa fractal? El término fue acuñado por el propio
Mandelbrot a partir del adjetivo latino Fractus. El verbo correspondiente es frangere
que significa ―romper en pedazos‖, por tanto fractus significa también, fragmentado e
irregular. Ambos sentidos se conservan en la palabra fractal.
También debe diferenciarse el sentido que se dará a los siguientes términos: la
expresión ―conjunto fractal‖ tendrá más adelante una definición rigurosa, no así ―fractal
natural‖ que sirve para designar sin mucha precisión una figura natural que puede ser
representada por un conjunto fractal.
Pero ― qué se puede definir como fractal? No existe una versión definitiva ni
excluyente del concepto de fractal siendo la misma revisada permanentemente pues
dentro del término fractal se engloban gran cantidad de estructuras matemáticas que
tienen rasgos comunes aunque las definiciones dadas no les sean aplicables. Los
fractales pueden obtenerse geométricamente como el producto final originado por la
iteración infinita de un proceso geométrico regular. El proceso geométrico es en
naturaleza muy simple pero, al repetirse sucesivamente, va complicando la forma final.
Los fractales naturales pueden precisamente ser modelizados mediante estructuras
simples que se repiten. Esta idea nos proporciona una primera definición:
Un fractal es una estructura que está formada por partes semejantes en cierta manera
al conjunto completo.
Esta definición enfatiza un aspecto predominante en las estructuras fractales que es
la invariancia en presencia de cambios de escala. Por esto, de un fractal se puede
observar siempre la misma estructura independientemente de la escala a la que se
observe. Esta propiedad se denomina autosemejanza y puede presentarse de maneras y
formas muy distintas: en algunos casos esta semejanza es exacta y se la denomina
autosimilitud y a los fractales que las poseen fractales determinísticos, mientras que en
otros casos, que se encuentran en el mundo real que nos rodea, la autosemejanza es
aproximada.
La autosimilitud es una característica de los fractales clásicos, generados por un
algoritmo, como el fractal de Koch y otros que desarrollaremos más adelante. El
principio de auto-semejanza se presenta aproximadamente en la naturaleza: en líneas
costeras y en cuencas de ríos, en la formación de nubes y en el crecimiento de árboles,
en el flujo turbulento de fluidos y en la organización jerárquica de sistemas vivos.
Cuando se quiere medir una curva fractal con una unidad o instrumento de medida
determinado, y dado que un fractal está constituido por elementos cada vez más
pequeños, siempre habrá objetos más finos que escaparán al instrumento utilizado y, a
medida que aumenta la sensibilidad, aumentará la longitud de la línea. Por esto para la
medición de las formas fractales se hace necesario introducir conceptos nuevos que van
más allá de los conceptos geométricos clásicos. Uno de ellos será el de dimensión
fractal, valor que nos indicará la rugosidad de la curva o en qué medida llena una
porción del plano.
Una definición frecuentemente citada de dimensión es la que introdujo el
matemático alemán Félix Hausdorff en 1919. Su definición precisa es complicada y no
muy esclarecedora. Por esto el concepto de dimensión más utilizada, especialmente al
trabajar con fractales autosemejantes es la dimensión fractal o dimensión de semejanza
que desarrollaremos más adelante. Atendiendo al hecho por él estudiado de que en los
fractales la dimensión no es un número entero, B. Mandelbrot define:
56
―Un fractal es por definición, un conjunto cuya dimensión de HausdorffBesicovitch es estrictamente mayor que su dimensión topológica‖ (Mandelbrot, pág.
32).
Al referirse a dimensión topológica, Mandelbrot refiere que ésta posee una
definición que junto con la propia disciplina se fue refinando a lo largo del tiempo.
Sin adentrarnos en conceptos de mucha complejidad se coincide hoy en que el
concepto de dimensión está ligado al número de grados de libertad, las direcciones del
ente geométrico en cuestión, con las coordenadas necesarias para definirlo. Por lo tanto
la dimensión física de una superficie plana o con curvatura es dos, ya que bastan dos
números para identificar unívocamente cualquiera de sus puntos. En el espacio
euclidiano, que puede representarse por la geometría clásica, se necesitan tres
coordenadas para determinar un punto, por eso se dice que su dimensión es tres, tiene
tres grados de libertad, tres direcciones linealmente independientes. Así las líneas tienen
dimensión uno y el punto dimensión cero.
Respecto de otras dimensiones fuera de la topológica existen múltiples definiciones
distintas que en determinados casos pueden tomar valores distintos para un mismo
objeto. Las dos pertinentes para el estudio de los fractales son la dimensión fractal o de
semejanza y la de Hausdorff-Besicovitch. Hausdorff, matemático alemán (1868-1942)
es considerado uno de los fundadores de la topología y gran contribuyente al desarrollo
de la teoría de la medida, el análisis funcional y la teoría de las funciones. Hacia 1919
construyó una teoría que permitía estudiar los fractales y medirlos, que actualmente se
conoce como métrica de Hausdorff. Posteriormente Besicovitch (1891- 1971) hacia
1920 se interesó por esta métrica y construyó una teoría geométrica de la medida que
permite el dimensionamiento de estas estructuras.
Tratemos de llegar al concepto de dimensión de semejanza de figuras clásicas: un
segmento de recta, un cuadrado en el plano.
Dado un número entero, 5 en este caso. Un segmento de longitud unidad se puede
dividir en N=b sub-intervalos de longitud r=1/b. Recordar que la dimensión euclídea
D del segmento es 1.
Análogamente, un cuadrado de lado unidad, cuya dimensión euclídea D es 2, se
puede dividir en N= b2 cuadrados de lado r=1/b, por lo tanto
r= 1 / N1/2
Si repetimos el procedimiento para el espacio euclídeo de n dimensiones, por tanto
D=n tendremos
r(n)= 1/N1/n
o sea r(n)= 1/N1/D
por procedimientos algebraicos despejamos D que resultará :
Como la mayoría de los fractales que analizaremos son autosemejantes y la
definición de la dimensión de Hausdorff implica una gran dificultad matemática, sin
57
pérdida de precisión ni rigor, gran parte de los autores utiliza indistintamente la
dimensión fractal y la de Hausdorff en la mayoría de los casos.
2. LA CURVA DE KOCH. ANÁLISIS DE SU DIMENSIÓN
Esta curva es un ejemplo de fractal autosemejante. Es una curva continua y no
diferenciable en ningún punto. Tiene longitud infinita pero limita una superficie finita.
Su dimensión topológica es 1. Veamos cómo se construye y cuánto vale su dimensión
fractal.
Para generarla partimos de un segmento de longitud 1 y lo dividimos en 3 partes
iguales. El primer paso es construir un triángulo equilátero sobre el segmento central y
suprimir la base. Se obtiene la primera poligonal K1 cuya longitud es 4 (1/3).
K1
Se repite la operación sobre cada uno de los 4 lados y se obtiene la poligonal K 2 de
lados y cuya longitud total es
L(K2)= 42.(1/3)2.
K2
Según la ley de transformación la siguiente poligonal tendrá longitud es
L(K3)= 43.(1/3)3
K3
Y así sucesivamente.
En el paso n se tendrá una poligonal Kn de 4n lados y longitud L (Kn)= 4n.(1/3)n que
tenderá a infinito al crecer infinitamente n.
58
Calculemos ahora la dimensión de la curva de Koch. Cada lado de la poligonal se
divide en 4 partes, por lo tanto N=4 y cada segmento obtenido en esta subdivisión
tendrá longitud r=1/3 por lo tanto la dimensión D será:
; es decir
Por ser este valor obtenido distinto de 1, su dimensión topológica, demostramos que
la curva de Koch es un fractal.
3. OTROS EJEMPLOS DE FRACTALES CLÁSICOS
Si lo hecho a partir de un segmento unidad, se hace sobre los lados de un triángulo
equilátero, se tiene un triángulo limitado por tres curvas de Koch que se conoce como
fractal ―copo de nieve‖.
Después de haber generado el fractal de Koch es fácil generar otros por una ley de
recurrencia. Si en vez de dividir el segmento unidad de partida en 3 partes iguales se
divide en 4 y la segunda y la tercera se reemplazan por 3 lados de un cuadrado y se
repite esta acción reiteradamente obtendremos una poligonal con la siguiente forma:
En esta poligonal cada segmento se divide en 8 partes, por lo tanto N=8 y cada
segmento obtenido en la subdivisión tiene longitud r= ¼. La dimensión de este fractal
será entonces
.
Otro fractal interesante es el llamado dragón que se obtiene repitiendo el proceso de
sustituir el segmento de partida por los dos catetos de un triángulo rectángulo cuya
hipotenusa es el segmento de partida. Se repite el procedimiento colocando
sucesivamente los ángulos rectos de cada paso en sentido alternado, como puede
observarse en la figura. Como cada segmento se divide en 2 partes y la longitud de cada
59
parte después de la subdivisión es
la dimensión fractal será
. Por ser de
dimensión 2 este fractal es del tipo de las llamadas curvas de Peano, que llenan un área
del plano.
Otro tipo de fractales se puede construir no partiendo de un segmento sino de un
área, de la cual, mediante un proceso iterativo, se van suprimiendo ciertas partes.
El más conocido es el llamado tamiz de Sierpinski. Se comienza con un triángulo
cualquiera, se suprime de éste el triángulo central cuyos vértices son los puntos medios
de los lados del triángulo inicial. Se repite la operación con los 3 triángulos restantes y
así sucesivamente. La dimensión de este fractal es 1,5849.
60
Otro fractal clásico es la alfombra de Sierpinski. Se construye partiendo de un
cuadrado de lado a. Cada lado se divide en 3 partes iguales y trazando paralelas, el
cuadrado queda dividido en 9 partes, de las cuales se suprime la parte central. Quedan 8
cuadrados periféricos, en cada uno de los cuales se repite el procedimiento
sucesivamente. El fractal obtenido posee dimensión fractal D= 1,8927 que, igual que en
el caso de los triángulos no depende de la medida de los lados.
4. ITERACION EN EL PLANO COMPLEJO
La necesidad de contar indujo al hombre a inventar los números naturales y, en
función de los problemas que surgían fue ampliando sucesivamente su sistema
numérico hasta llegar a los números reales. Pero con el tiempo éstos tampoco fueron
suficientes pues en el conjunto de los números reales resulta imposible resolver la
ecuación z2=-1.
Se define entonces un nuevo número ―i‖ que verifica esta ecuación, que no es un
número real y se lo denomina unidad imaginaria. Surgen luego otros números z= a +bi
con a y b reales, a los que el matemático alemán Carl Gauss llamó en 1832, ―números
complejos‖
Así como cada número real se representa por un punto de la recta, cada número
complejo se corresponde con un punto del plano. Se asocian al plano dos ejes:
horizontal o eje real y vertical o eje imaginario, dando origen al plano complejo C.
61
Además a cada punto del plano, y por tanto a cada número complejo le asocia un vector
con origen en el origen de coordenadas y afijo en el número. Esta representación facilita
las operaciones y su visualización.
Los números complejos permiten describir situaciones que los reales no logran
explicar, podemos por tanto aplicarlo a los fractales y ver cuál es la relación que existe
entre ellos.
Si se itera la operación ―elevar al cuadrado‖ con un número real x se obtiene una
sucesión o trayectoria llamada órbita de x.
Si el valor inicial llamado ―germen‖ es un número mayor que 1, por ejemplo x=3 la
órbita obtenida será la sucesión {3, 9, 81, 6561……..} que tiende a infinito cuando el
número de iteraciones es muy grande. Si el germen es un número menor comprendido
entre -1 y 1, por ejemplo ½, la órbita será {1/2, 1/4, 1/16, 1/256……} que tiende a cero
al aumentar las iteraciones. Finalmente si x=1, la órbita es un único punto {1} y si es
x=-1, la órbita es {-1,1}.
Analicemos ahora la transformación que le asigna a cada número complejo z, su
cuadrado más otra constante c, compleja también.
Esta transformación puede realizarse de dos maneras: variando z y dejando
constante c o dejando fijo el complejo z y variando el parámetro c. como resultado se
obtendrán distintos números complejos. Veamos que ocurre cuando se efectúan
iteraciones en cada caso.
En el primer caso, dejando fijo c, se comienza con cualquier número z , se aplica el
polinomio P, se obtiene P(z); se le aplica nuevamente P y se obtiene P(P(z)). Se repite la
iteración aplicando P a cada resultado obtenido. Los resultados se pueden expresar
como una sucesión u órbita de z. para distintos valores de z el mismo polinomio
producirá distintas órbitas.
Por ejemplo si c=0 y probando con distintos valores de z se puede observar que si se
toman valores de z que estén sobre una circunferencia de radio 1, los resultados quedan
sobre ella. Todos los valores iniciales que estén dentro de la circunferencia generan
órbitas que migran hacia el centro y todos los que están en el exterior escapan hacia el
infinito. La circunferencia de radio 1 es una especie de conjunto ―repulsor‖ de puntos
cercanos; los que están adentro, son atraídos por el 0, los que están afuera, por el
infinito.
Esto quiere decir que el plano complejo queda dividido en dos conjuntos: la
circunferencia, llamada conjunto de Julia y el resto del plano. El conjunto de Julia
recibe su nombre del matemático francés Gastón Julia (1893-1978), pionero en el
estudio de procesos de iteración y transformaciones en el plano complejo.
Si tomamos otro valor del parámetro c cercano a cero se observa que sigue
habiendo un atractor, es decir un conjunto de puntos al cual tienden los conjuntos
obtenidos en la iteración dentro del conjunto de Julia y una cuenca de atracción hacia el
infinito en el exterior del conjunto. Pero si se observa con gran acercamiento este nuevo
conjunto de Julia, se observa que ya no es una circunferencia sino un fractal.
Veamos algunos ejemplos de conjuntos de Julia para distintos valores de c.
Si c=-1 se trata de la transformación P(z)= z2-1. El conjunto julia es el fractal de la
figura, es simétrico pero muy complicado.
62
Si c=i tenemos la transformación P(z)=z2+i. el conjunto de Julia forma en este caso
un fractal llamado dendrita que carece de puntos interiores.
Otro fractal interesante es el llamado conejo de Douady, que es un fractal curioso
cuya dimensión no se conoce, deriva de la misma transformación anterior tomando c=0,12256117…+ i0, 7448617
La segunda opción para aplicar el polinomio P es dejar fijo el número complejo z, y
por lo tanto su cuadrado, y cambiar el valor del parámetro c. En este caso se obtienen
distintos conjuntos de Julia, algunos de ellos con estructura fractal. Para comenzar,
podemos tomar como valor fijo z=0 y se analiza la órbita obtenida por iteraciones para
todos los valores de c. Se observará que habrá valores de c para los cuales la órbita de
z=0 tiende a infinito y otros para los cuales, esto no sucede.
Si se marcan en el plano complejo todos aquellos valores del parámetro c para los
cuales las órbitas de 0 no van hacia infinito, se obtiene el conjunto de Mandelbrot (M).
Sin tomar en cuenta los detalles la forma del conjunto de Mandelbrot puede
asociarse al corte de una manzana con un interior negro y adherencias negras de aspecto
cuasi circular, una principal y otras de tamaños cada vez menores. El plano queda así
dividido en dos regiones: el conjunto M y el resto del plano. Pero lo interesante del
conjunto es su frontera. Ésta es de naturaleza fractal y contiene copias cada vez más
pequeñas del conjunto. Sin embargo no es estrictamente autosemejante, porque cada
apéndice que sale de cada parte del conjunto es distinto de los otros.
A cada punto c de M le corresponde un conjunto de Julia con ese parámetro c
específico, representado en otro plano complejo donde se varía z manteniendo c
constante.
63
El conjunto de Mandelbrot ha sido descripto como la forma matemática más
complicada que se ha inventado jamás, a pesar de que se puede generar en una
computadora con diez líneas de programa. Esto arroja un nuevo significado a la palabra
―complejidad‖.Usualmente el término está asociado a la irregularidad espacial. En el
conjunto de Mandelbrot podemos reconocer otro rasgo de ―lo complejo‖ en el cual lo
simple se desintegra, pasando a ser compuesto y diferente según el entorno desde el cual
se lo observe.
5. APLICACIONES DE LA GEOMETRÍA FRACTAL
Los fractales son muy útiles para describir y entender multitud de fenómenos en las
diversas ramas del conocimiento y sus aplicaciones se extienden a numerosos campos
como las propias matemáticas, la biología, la medicina, la economía la ingeniería, la
meteorología, la nueva teoría del caos y también en el arte entre otros. Por esta razón
sólo se describen algunas de ellas en este espacio.
La geometría fractal y los nuevos conceptos matemáticos que se basan en ella son
fuente de asombro y admiración, pero también tienen múltiples aplicaciones en muchas
áreas del saber, incluidas la biología y ecología. Ya mencionamos los ejemplos
comunes en biología como la geometría fractal de los helechos, los alveolos
pulmonares o los capilares sanguíneos. Pero hay muchos otros aspectos de la naturaleza
que se pueden observar desde el punto de vista de la fractalidad, como el uso diferencial
del territorio.
Supongamos que 20 focas necesitan una determinada longitud de costa para criar,
por ejemplo 1 metro/foca. Su escala de medida está relacionada con su tamaño, y para
esas focas la cantidad de recurso disponible es una playa de 20 metros. Sin embargo, en
esos mismos ―20‖ metros de costa, un mejillón mucho más pequeño percibe no 20, sino
120. Y no es que el mejillón ―perciba‖ 120 metros, sino que ―hay‖ realmente 120
metros de costa (medidos a otra escala). Y si es una bacteria que se fija a las rocas, no
64
tendrá 120 m., sino kilómetros de costa en esa misma playa que para una foca son
solamente 20 metros.
Es decir: con una geometría clásica podríamos pensar que en la naturaleza un
organismo 10 veces más pequeño que otro estará en una densidad de individuos 10
veces mayor en un mismo lugar. Sin embargo esto casi nunca ocurre: las especies de
pequeño tamaño presentan una densidad de individuos casi siempre bastante (o muy)
superior a la que les correspondería según la geometría clásica.
Para resolver esta cuestión y otras la geometría fractal es, hoy en día, una
herramienta indispensable para los estudios de los ecosistemas.
Otra de las aplicaciones más sencillas que tiene la geometría fractal es el cálculo de
la edad de los pinos jóvenes. Las plantas en general son una fuente de ejemplos casi
inagotable de fractalidad en la naturaleza. Los pinos, en concreto, presentan unas pautas
de crecimiento muy sencillas que permiten incluso al observador menos experimentado
calcular su edad muy fácilmente. La geometría fractal se caracteriza por ser iterativa. El
pino en crecimiento refleja esta iteratividad del siguiente modo: en primavera de la
punta del tallo principal salen varias ramas a una misma altura en varias direcciones,
que continúan creciendo durante la temporada favorable. En invierno este crecimiento
se frena, pero al llegar la primavera el patrón se repite: de la punta de cada rama salen a
su vez varias ramas en diferentes direcciones. Y así sucesivamente cada año. De este
modo las ramas más bajas del pino son más complejas que las superiores y más
ramificadas. Contando los nudos de ramificación de las ramas bajas se puede conocer la
edad del árbol.
También se pueden encontrar aplicaciones de esta nueva geometría en el diseño de
antenas. Una antena no se comporta de manera uniforme en distintas frecuencias,
porque está diseñada para cierto ancho de banda. En consecuencia se necesitan antenas
distintas para operar con las distintas bandas del espectro electromagnético. Sería ideal
contar con una antena ―universal‖ que sirviera para captar la mayoría del espectro
electromagnético.
Para que una antena se comporte uniformemente en distintas frecuencias, es
condición necesaria que tenga autosemejanza y un punto de simetría. Los investigadores
han descubierto que las antenas desarrolladas siguiendo la forma de triángulo de
Sierpinski, las curvas de Koch y otros fractales, permiten obtener mayor rendimiento
que las comunes. Por ejemplo, en receptores de telefonía móvil, una antena fractal
permite utilizar muchas más frecuencias y ocupa menor espacio que una antena
telescópica común.
Por otro lado encontramos comentarios de Benoit Mandelbrot quien habló sobre la
rugosidad como nexo común entre matemáticas, ciencia y arte en el Congreso
Internacional
de
Matemáticos
diciendo:
"Los trabajos artísticos de fractales son cada vez mejores, cuando las matemáticas se
combinan con el buen gusto, los resultados son maravillosos", comentó sobre el arte
fractal, en una muestra de este tipo de trabajos. Pero sobre todo Mandelbrot quiso
explicar por qué estos trabajos son reconocidos como arte.
"La naturaleza, lo que rodeaba al hombre desde su origen, viene sobre todo en
formas rugosas e irregulares; con el tiempo se produjo una división del trabajo, se
desarrolló la geometría por un lado y el arte por el otro. Ahora se ha cerrado el círculo y
se han fundido las matemáticas, consideradas abstractas y áridas, con el arte, lo liso con
lo rugoso o complejo."
65
El matemático, que vive en Estados Unidos, sostiene que el arte fractal recuerda a
los observadores la geometría de la naturaleza, reflejada ya muchas veces en obras
maestras de la historia de la pintura. También señaló que pueden diseñar
condensadores y otros componentes electrónicos que se pliegan de forma fractal, con lo
que ocupan mucho menos espacio. Y se aplica la geometría fractal para fabricar un
hormigón no poroso que evita la corrosión. Además es posible encontrar aplicaciones en
la física de las superficies, permitiendo a los biólogos cuantificar la estructura
superficial de importantes moléculas, entre otras posibilidades que brinda esta nueva
geometría
CONCLUSION
Respondiendo a la pregunta inicial ¿qué es un fractal? se resume la idea aunque no
se de una definición precisa.
Un fractal es un conjunto de puntos que presenta las siguientes características:
-Un grado de irregularidad tal que no se puede describir con la geometría clásica
tradicional, tanto en sus aspectos locales como en un todo.
-Detalles en escalas tan chicas como se quiera, denominados estructura fina.
-Una dimensión fractal mayor que su dimensión topológica.
-Alguna forma de autosemejanza, incluso aproximada o estadística. En muchos
casos pueden definirse en forma recurrente o por iteración.
La posibilidad de aplicación de estos nuevos conceptos es muy amplia aunque no
universal puesto que es más útil que la geometría Euclidiana para modelizar objetos o
procesos naturales. La geometría fractal refleja la textura de la realidad y permite una
comprensión correcta de lo irregular y lo fragmentado. Según palabras del físico John
Wheeler:
―Nadie que no esté familiarizado con los fractales será considerado culto,
científicamente, el día de mañana‖. (Stewart, pág. 245).
BIBLIOGRAFÍA
MANDELBROT, BENOIT. La geometría fractal de la naturaleza. Tusquet Editores.
Barcelona. 2003.
SANTALÓ, LUIS A.: Conjuntos fractales. Elementos de matemática. Universidad
CAECE. Marzo 1992. Número XXIII.
STEWART, IAN. ¿Juega Dios a los dados? Grijalbo Mondadori. Barcelona. 1996
HERREN, GUSTAVO. Fractales. Compendios Longseller. Buenos Aires. 2002.
ESPINOZA TERRAZAS, ROSALIA. Antenas Fractales. Episteme Nº 2. Año 1.
Octubre-diciembre 2004.http://www.uvmnet.edu/investigación/episteme
REYES JORGE. El espacio-tiempo fractal.www.geofísica.cl
Webislam.com. Ciencia y tecnología. 26/8/2006. Autor M.R.E. Fuente: El Pais.
66
LÍMITE DE FUNCIONES DE DOS VARIABLES
Otro enfoque para su estudio
Claudia Durnbeck
Fac. de Ingeniería – UNNE
[email protected]
Trabajo Final del Posgrado: Metodología de la Investigación
Resumen:
El trabajo está dirigido a docentes que desarrollen el tema, con el propósito de aportar
herramientas didácticas. Se parte de un ejemplo concreto para luego, relacionarlo con la
definición y con conocimientos adquiridos en asignaturas previas. Se destacan las
diferencias y concordancias con el Límite de funciones de una variable, para que el
alumno solo, procese y elabore el nuevo concepto. El análisis algebraico de la función
estudiada y su representación gráfica (se utiliza el soft Derive), son el soporte de este
nuevo enfoque.
Palabras claves:
Trayectoria – caminos – entorno - límite – Función: definición, análisis algebraico y
representación.
Referencias para una adecuada interpretación de esta propuesta:
 Cuando nombremos ―Límite‖: Estaremos refiriéndonos al Límite de una función
de Dos variables.
 Cuando digamos ―Límite Doble‖: Estaremos refiriéndonos al Límite también
llamado Límite Simultáneo, que es cuando las dos variables tienden juntas al
punto en cuestión.
FUNDAMENTACIÓN:
El concepto de Límite de funciones de Dos Variables, también llamado Límite Doble,
se desarrolla, en general, en primer año de las distintas Facultades de Ingeniería.
En esta etapa del estudio universitario, encontramos alumnos habituados a resolver
ejercicios con resultado únicos, lo que les permite llegar a conclusiones irrefutables
sobre el problema planteado.
La dificultad que representa explicar y comprender el tema Límite de Funciones de
dos Variables se debe, a mí entender, a las siguientes razones:
1. Se inicia el desarrollo del tema con la expresión, que define el Límite Doble:
Con
Interpretarla, implica, conocer el significado de los operadores y cuantificadores que en
67
ella interviene y, en general, la mayoría son nuevos para alumnos de este nivel.
También su comprensión, implica tener claros ciertos conceptos como: Dominio de una
función, punto de acumulación, entorno reducido de un punto ó distancia entre puntos
en
, y otros.
Hacemos un gráfico escueto, difícil de comprender, señalado a dónde están ubicados los
elementos que intervienen en la definición y hablamos de caminos…
2. Las posibilidades de elegir el camino(*) para acercarnos a un punto, en el espacio
de 2-dim, no son únicas, ni finitas, muy por el contrario…las posibilidades de elección
son infinitas.
En la práctica, lo que se hace, es encontrar el valor del Límite por algunos caminos,
teniendo en cuenta que si existe, es único, si por esas trayectorias, elegidas
arbitrariamente, se llega al mismo resultado, entonces se ´supone´ que el límite existe y
su valor corresponde al hallado.
Suponer un resultado, no es algo que resulte cómodo en matemática, creo que la
incertidumbre no es familiar en el lenguaje de la matemática básica, y es lo que hace
que el tema propuesto, sea uno de los pocos en el que los docentes aceleramos, para
cruzar rápido el puente y llegar al próximo tema y los alumnos quedan con el
interrogante…pero…entonces …existe el límite, ó no?
(*) Distintas curvas planas, cuyas ecuaciones ya deben ser conocidas, su dominio, estar
incluidas en el Dominio de nuestra función y el punto pertenecer a ella.
3. Para afirmar que el Límite de una función en un punto existe irrefutablemente, se
debe probar que ―él mismo‖ verifica la definición y no siempre es posible hacerlo,
depende de la expresión de la función, e incluso en los casos posibles, para el alumno es
una tarea muy difícil.
Sin certeza, no hay comodidad matemática.
Si bien admito que el estudio del Límite de funciones de dos Variables puede ser poco
atractivo o antipático, lo que fundamenta mi inquietud, es que lo utilizamos como
hipótesis en muchos teoremas y definiciones, como en el tema inmediato : Continuidad,
el que a su vez, es la base para fundamentar otras Definiciones y Teoremas.
Sin haber entendido adecuadamente el concepto de Límite de funciones de dos
variables…
HIPÓTESIS:
 ¿Es posible desarrollar el tema, sin utilizar, al menos inicialmente, las
expresiones: Infinitos (caminos) vs. Único (valor del Límite) y es posible que
exista…?
 ¿Si la función está definida ¨naturalmente¨ en el punto, el límite está resuelto?
 ¿Sería conveniente comenzar el estudio del Límite de una función, analizando en
el punto, previamente, el comportamiento Algebraico de la función?
68
 ¿Es suficiente ¨hallar¨ mecánicamente el Límite ó es necesario justificar su
existencia?
 ¿Cuál es la prestación más interesante que brindan los límites Reiterados o
Iterados?
 ¿Los Límites Reiterados…son límites direccionales?
OBJETIVOS:
 Encontrar otra manera de comenzar el desarrollo del tema que no sea por la
definición. Es decir, No comenzar por la definición.
 Representar gráficamente la situación del Límite de manera clara y didáctica,
para usar ésta representación como partida en el desarrollo del tema.
 Utilizar el Concepto ya estudiado de Límite de funciones de una Variables,
como apoyo, destacando las diferencias y concordancias.
 Transmitir los conceptos de L. Simultáneo, L. Iterados y L. Direccionales, con
herramientas didácticas y pedagógicas accesibles, de modo que el alumno
pueda descubrir las diferencias y las concordancias que hay entre ellos, y así
potenciar su valor como herramientas en el estudio del Límite.
 Utilizar las representaciones Gráficas de la función estudiada, como guía en el
estudio.
 Relacionar conceptos vistos en cursos anteriores, como Álgebra, Análisis
Matemático I y Geometría, de modo que nos sirvan de apoyo en este estudio.
 Por último: Encontrar un procedimiento más estimulante para el alumno que el
tradicional, con respecto al estudio de Límite. Teniendo como meta, que el
alumno se involucre en las investigaciones propuestas, es decir, en el análisis
algebraico de la función y la interpretación de su representación gráfica.
DESARROLLO
Pensemos en la idea Intuitiva del concepto de Límite: En general, se entiende como una
barrera hasta la cual podremos llegar. Hablamos cotidianamente de límites entre Países,
de los límites entre terrenos, de los límites que deben tener nuestros hijos…Cuando
hablamos de los límites de Funciones, nos referimos al valor al cual ellas tienden,
cuando nos acercamos a cierto elemento de su dominio, que de algún modo, es también
¨hasta dónde llegan¨.
Usamos este concepto ¨intuitivamente¨ en cursos de Geometría, cuando definimos
longitud de una circunferencia como el Límite al que tiende una sucesión de perímetros
de Polígonos circunscriptos o inscriptos en ella, cuando la longitud de los lados tiende a
cero. También en cursos de Física, cuando nos referimos a la ―velocidad instantánea‖
como el Límite de la ―velocidad media‖ para intervalos de tiempo cada vez más
pequeños. Y hay muchos ejemplos para la idea de límite de funciones de una variable
independiente.
Para el estudio del límite de funciones de una variable independiente, hemos visto que
el problema se reduce a observar cómo se comporta la función al acercarnos a un punto
del Dominio por derecha e izquierda, moviéndonos en general, sobre la recta Y=0.
69
En el caso de funciones de dos variables independientes, para acercarnos a un punto del
Dominio,
, tenemos infinitas opciones, infinitos caminos para llegar a él.
Y es justamente esto, lo que hace complejo el estudio del Límite de funciones de Dos
Variables, pues si recordamos ¨La unicidad del Límite¨, propiedad vista para funciones
de una variable, y también válida para funciones de dos variables, ¨Si el Límite existe,
es único e independiente del camino utilizado¨ y nunca podremos verificar que por
todas estas opciones, llegamos al mismo resultado.
Conclusión 1:
Es por eso, que solamente si el Límite hallado, verifica la definición, podremos
asegurar la existencia del Límite.
Veremos un ejemplo, tomando una función sencilla, que nos ilustrará sobre el
comportamiento de los valores de una función escalar de dos variables, cuando los
puntos del Dominio se aproximan a un punto que puede o no pertenecer a él.
Sea:
y estudiemos su comportamiento en
Dominio de la función, todo el plano R2, solo representamos el primer octante.
Realizamos una tabla de valores en las proximidades de (3;2), con el objeto de vincular
este estudio, con el de funciones de una variable.
Tomemos valores sobre las rectas x=3 e y=2.
X
y
F(x;y)
2,991
2,995
2,999
2
2
2
4,991
4,995
4,999
3
3
2
1,999
5
4,999
3
1,995
4,995
3
1,991
4,991
Observemos la tabla y el gráfico, sin olvidar que nos
estamos moviendo sobre las rectas x=3 e y=2.
Cuanto más nos acercamos al punto del Dominio (3;2) , la
función se aproxima al número real 5. La diferencia entre
f(x;y) y 5 será más pequeña, cuando los (x;y) estén más
cerca de (3;2).
Consideremos que el valor absoluto de esta diferencia es
menor que dos milésimo:
70
Volvamos a la tabla y tomemos (x,y)=(3;1,9999) para verificar:
X
Y
3
1,9999
f(x;y)
4,9999
Vemos que a los (x;y) que se encuentren a una distancia de (3;2) inferior a 0,001 le
corresponden por medio de la función, valores reales que están a una distancia menor
que 0,002 de 5.
Debemos tener en cuenta que fijamos previamente el número 0,002 y de ahí se
desprendió el número 0,001, por lo tanto es
.
Del desarrollo anterior deducimos que para cualquier número
(en el ejemplo
)
) , es suficiente elegir
(en el ejemplo
Porque si:
Conclusión 2:
Tomamos una función sencilla, conocida por los alumnos y de fácil representación,
realizamos un desarrollo similar al que se hace para funciones de una variable y
relacionamos este nuevo concepto. Analizamos gráfica y analíticamente grupalmente y
luego… definimos.
Generalizando la deducción anterior, expresamos la Definición de Límite de funciones
de Dos variables:
Literalmente:
(Sugerimos ser muy explícitos para tener una mejor llegada al alumno, siempre
relacionar con la gráfica, para lograr una rápida interpretación)
71
¨El Límite de la función f(x;y)cuando (x;y) tiende o se aproxima al punto de
acumulación del Dominio de la función (a;b,) es igual número real L, si y solo si, para
todo número real Épsilon ( , positivo, existe en correspondencia o dependiente de él,
otro número real Delta (
, también positivo, de tal modo que para todo punto (x;y)
del dominio que pertenezca al entorno reducido del punto (a;b) de radio Delta, entonces
la diferencia entre el valor de la función en ese punto y el número real L, tomada en
valor absoluto, es menor que Épsilon¨.
(Observemos la representación de la función, junto con los alumnos e interpretemos
gráficamente la definición, antes de expresarla simbólicamente)
Simbólicamente:
Con
No es necesario que la función este definida en (a;b) para que el Límite en ese punto
exista.
Hasta el momento, hicimos un desarrollo similar al que algunos autores hacen para
Límite de funciones de una variable.
Observemos la diferencia: Cuando hablamos de distancia en R, solo tenemos la
posibilidad de tomarla de un lado o del otro del punto. En cambio, para hablar de
distancia en R2, tenemos que hablar de Entorno.
Conclusión 3:
Usamos los conceptos adquiridos para funciones de una variable y establecemos las
diferencias con este nuevo concepto: El entorno en R2.
Definición:
Dado un punto
punto
, de radio ¨
distancias a
y un número real
, llamaremos Entorno del
¨, al conjunto de todos los puntos pertenecientes al
cuyas
son menores que ¨
¨.
Simbólicamente:
Será Entorno Reducido, cuando el punto
Recordemos Distancia en
no pertenezca al Entorno.
:
72
Este Disco con centro en el punto al cual nos aproximamos, abre un abanico de infinitos
caminos posibles. El Entorno no necesariamente tiene que ser circular, pero es común
trabajar con este tipo. Se representa en
por un círculo de centro
y radio r.
Si el resultado del Límite no es el mismo para todas las trayectorias posibles de
acercarnos al punto
entonces el Límite no existe.
Debemos tener en cuenta que si el Límite existe, es independiente del camino elegido y
de que el camino debe contener al punto.
Llamamos caminos o trayectorias a subconjuntos de
que estén incluidos en el
Dominio de la función o que su intersección con éste, no sea vacía y que contengan al
punto donde se quiere calcular el límite. Ejemplos: Rectas, Parábolas, Hipérbola o un
sub conjunto de puntos. A los límites por estos caminos se los llama Límites
¨Restringidos¨ a ciertos subconjunto del Dominio de la Función.
Antes de ver algunos ejemplos, distinguiremos dos situaciones:
a) Cuando la función está definida en el punto donde queremos estudiar el límite, es
decir, no hay indeterminación cuando calculo el Límite Doble o Simultáneo.
b) Cuando la función no está definida en el punto donde queremos calcular el límite, es
decir, se produce una indeterminación al calcular el Límite Doble.
En el caso a), cuando no hay indeterminación, problema resuelto: El Límite Doble
existe. Debemos pensarlo ―intuitivamente‖, el Límite al cual tenderá, será igual al valor
que tome “naturalmente” la función.
El caso b) es el que nos va a ocupar, cuando el Límite doble simultáneo no existe, lo
que genera la necesidad de usar otros caminos para buscar el límite.
Veamos algunos Ejemplos.
1er. Ejemplo:
Hallar
73
Previamente, estudiamos cual es el Dominio de la función.
Son todos los puntos del plano
a excepción del punto (0;0). Como ya hemos dicho,
no es necesario que el punto donde se estudia el Límite pertenezca al Dominio de la
función, pero si debe ser un punto de acumulación, es decir, es necesario que esté
definida para los punto de un entorno reducido de, en este caso, de (0;0).
Haciendo uso de los programas con los que contamos actualmente, por ejemplo el
Derive, graficamos la función a estudiar, para obtener la información que orientará el
análisis. Sugerimos hacerla rotar, aplicar zoom, cambiar los colores, etc.
Observemos esta primera posición de la gráfica y prestemos atención a lo que sucede en
(0;0), teniendo en cuenta la referencia que figura arriba a la izquierda, con respecto a la
posición de los ejes.
l
Vemos que aparentemente en (0;0) hay una irregularidad, la hacemos rotar de tal modo
de observar ―desde arriba‖ como se comporta en el origen.
Y en esta posición vemos el ―agujero‖ en (0;0), lo que No implica que el Límite no
exista, pues puede no estar definida en el punto y sin embargo tener Límite en él.
Aplicamos el L. D.:
74
Pertenece al grupo b) pues obtenemos una indeterminación.
Recurramos a otros caminos para, descartar la existencia del Límite, encontrando dos
Límites distintos, ó por distintas trayectorias un mismo valor, con lo que tendremos es
un ―candidato ― a Límite y deberemos probarlo por Definición para asegurar la absoluta
existencia, lo que es, en la mayoría de los casos, muy complicado.
Introducimos el siguiente concepto:
Límites Reiterados o Sucesivos:
Éstos no perteneces al grupo de los Límites Restringidos.
Definición:
Son dos Límites, en los cuales, se hace tender primero una variable y luego otra, en la
función resultante. Simplemente, es un procedimiento que permite transformar el
Límite de una función de dos variables en el cálculo del límite de una función de una
variable.
Los Límites Reiterados, presuponen que un cierto entorno reducido de ―b” sobre la
recta x=a y un cierto entorno reducido de ―a” sobre la recta y=b existen las funciones
y
respectivamente.
La potencia de estos Límites en cierto sentido es escasa, pueden no existir y si el doble.
Más adelante veremos un ejemplo que ilustra esto. Sin embargo, cuando obtenemos
resultados distintos usando los Reiterado, el problema está resulto, el Límite de la
función de dos variables No existe.
En conclusión, son sumamente útiles para probar la No existencia del Límite.
Volvamos el ejemplo y apliquemos los Límites Reiterados:

75

Este resultado de la aplicación de Límites Reiterados, nos ilusiona sobre la existencia
del Límite por haber obtenido el mismo valor por dos caminos distintos…
Pero sabemos que esto no indica nada, lo ideal hubiera sido que ellos tengan resultados
distintos, así podríamos concluir en la No existencia del Límite.
Debemos seguir trabajando.
Conclusión 4:
Explicamos en forma sencilla, que son y para qué son útiles los Límites Iterados o
Reiterados, como así también sus limitaciones, definiéndolos e ilustrando con un
ejemplo.
Tomemos ahora la trayectoria
, Parábola incluida en el Dominio de la función
y que pasa por el punto (0;0), apropiado.
Entonces:
No podemos sacar ninguna conclusión con esta indeterminación obtenida, el camino
elegido, no nos proporciona ningún dato.
(La idea didáctica es, en este primer ejercicio, transitar por distintos caminos, que NO
nos lleven por un tobogán a la solución, para que los alumnos puedan ver que nosotros
también erramos en la elección de trayectorias y que quede claro, que cuando no nos
brindan datos, debemos descartarlos)
Tomemos ahora la trayectoria y=x, siempre repasando: Está incluida en el Dominio de
la función y contiene al punto de estudio.
Hemos encontrado dos valores distintos del Límite.
La función NO puede tener Límite en (0;0) porque en un entorno del punto, hay
elementos para los cuales la función tiende
y para otros a 0 (ver resultado de los
Límites Iterados).
2do. Ejemplo:
Hallar
:
76
Elegimos un ejercicio cuya función es similar a la del ejemplo anterior con el propósito
de llamar la atención del alumno sobre la definición de cada una. Cuando arribemos a
una conclusión de este segundo ejemplo, haremos las comparaciones.
Observemos su Representación gráfica:
Aplicando L.D. simultáneo, tenemos:
Indeterminación, caso b), debemos seguir
estudiándolo por otros caminos.
Hallemos los Iterados:


Iguales…Tomamos otra trayectoria, por ejemplo y=mx, haz de rectas que pasan por el
origen, recordemos que el resultado tiene que ser independiente de m, de lo contrario
tendríamos infinitas soluciones, para
.
Encontramos un candidato a Límite, es 0. Debemos intentar probar que para ese valor se
cumple la definición, de otro modo, no podremos asegurar la existencia del mismo.
:
77
Comparemos el Ejercicio 1 con el 2, teniendo en cuenta que en ambos casos, buscamos
el Límite en (0;0).
Las funciones son:
Ejemplo 1)
Ejemplo 2)
Funciones del mismo tipo, ambas cociente de polinomios de dos variables.
Analizamos con el alumno, porqué la 1) No tiene límite y la 2) Sí, siendo muy
parecidas? Con la intensión de que haga este tipo de análisis, como Método, antes de
comenzar a resolver un ejercicio, como así también, observar previamente las gráficas,
porque esta información puede orientarlo en cómo encarar la demostración, si para la
No Existencia o para la Existencia.
En 1) el Polinomio del numerador es de igual grado que el de denominador. Si
atendemos a la parte algebraica, que pasará para valores próximos a (0;0)…podemos
imaginar e incluso probar con puntos tales que
. Sabemos que
los puntos de este entorno reducirán su valor cuanto más próximos estén a (0;0) y por
ser de igual grado numerador y denominador , lo harán simultáneamente, de modo que
la indeterminación es inevitable al llegar al punto. Esto nos dispone a buscar la prueba
de que No existe límite. Para ello, sugerimos, ― Pispear‖ la función para detectar en que
78
subconjunto del Dominio la función tendría infinitos límites ó uno distinto a alguno ya
determinado.
En 2) El polinomio del numerador es de mayor grado que el de denominador, por lo
tanto, al acercarnos a (0;0), el numerador se achicará más rápidamente, que el
denominador, de esta forma, al aproximarnos a (0;0), tendremos el cociente 0/número,
lo que nos da 0. Estas consideraciones nos orientan a probar la Existencia del Límite.
Siempre recordando que solo la comprobación por la Definición nos asegura la
existencia.
Conclusión 5:
Consideramos que el análisis del comportamiento algebraico de la función debe
hacerse, antes de comenzar con la mecánica de pruebas por distintos caminos.
Debemos apoyarnos y confiar en los cursos previos a éste, como Álgebra, Análisis
Matemático I y Geometría, los alumnos ya tienen los conceptos para hacer este tipo de
estudio y usarlos les genera confianza y estímulo. Depende de nosotros, docente, el
encontrar los disparadores de su interés.
Ahora comparemos las gráficas:
Ej.1)
Ej.2)
Si pensamos en el cálculo del Límite, como una acción, al ―aproximarnos‖, como dice
la definición, estamos en movimiento. Ahora bien, si nos imaginamos sobre una
alfombra, deslizándonos por una y otra superficie, cuál de las dos tiene la ¨anatomía¨ de
hacernos llegar a (0;0)? En el ej. 1) nos frenaríamos, pues es una superficie de suaves
pendientes, por el contrario, en el ej. 2) chocaríamos con el eje ―z‖ en (0;0), por ser
pronunciada su inclinación hacia el punto en estudio. Es otro elemento más, poco
ortodoxo matemáticamente, pero que nos guía con respecto al rumbo, el estudio del
Límite.
Analicemos un par de funciones:
79

Es una función exponencial, con exponente ―x.y‖. Para ningún punto del plano , se
van a presentar inconvenientes , ninguno va a poder provocar una indeterminación. Por
lo tanto, va a existir el Límite en todos ellos, caso a).
Vemos la gráfica donde se aprecia la regularidad de la función:
Vista de arriba no presenta ―agujeros‖, lo que nos indica que esta función se portará
bien, en todos los puntos de su Dominio.
Tanto el análisis gráfico como el analítico, nos orientan a probar la existencia del
Límite.

La función no está definida en (0;0)
Apliquemos el L.D. simultáneo:
80
Pero si ―pispeamos‖ la función y trabajamos algebraicamente…
Podemos calcular el Límite del producto, como el producto de los Límites, por
propiedad de esta aplicación:
Conclusión 6:
Recordemos al alumno, los conceptos ya estudiados y hagamos que los relacionen en
todos los temas posibles. Ellos tienden a encapsular los conceptos y no establecen
relaciones, como tampoco los usan de apoyo. De este modo los estimularemos para que
optimicen lo estudiado anteriormente.
Observemos la gráfica:
Apreciamos el corte, es decir, la indefinición que la función presenta en el origen de
coordenadas. Pero como el L.D. simultáneo nos da un resultado real, deberemos intentar
comprobarlo por definición, ó quedarnos con el candidato a Límite, L=-1.
Conclusión 7:
Atendiendo a la Definición y a la Gráfica de la función, el alumno, encontrará un
sendero por donde transitará con mayor comodidad, que utilizando la práctica
tradicional en la búsqueda del Límite a ciegas. Y los profesores, no correremos tanto,
cuando tengamos que desarrollar el tema.
(*) Desmitificando a los Límites Iterados:
Todos vamos a estar de acuerdo en lo siguiente: ―Al alumno le fascinan los Límites
Iterados‖. Esto es así, porque ellos les son cómodos, en un simple paso, tiene algo
conocido, como funciones de una variable, para trabajar.
Esto hace que los usen con frecuencia y que sobrevaloren el resultado que ellos arrojan.
81
Podemos darle el siguiente ejemplo, cuando nos encontremos con la afirmación: ―el L.
D. no existe porque no pueden hallar los Iterados‖.


En general, los alumnos concluirían en que la función no tiene límite. Probemos que si
lo tiene, a pesar de que uno de los Iterados no existe.
Estudiemos el Límite Radial, o Restringido a el haz de recta y=mx:
El candidato es 0. Probemos por definición, en este caso es posible:
Esta desigualdad por hipótesis.
Bibliografía:
 Introducción al Análisis Matemático (Cálculo 1 y 2) –
Hebe Rabuffetti
 Cálculo 2
Spinadel, Vera N.
 Cálculo 2
Larson
 Cálculo Diferencial e Integral
Antonio Aburto Barragan
 Cálculo Diferencial e Integral
N. Piskunov
82
 Análisis Matemático 1 y 2
J. Rey Pastor
 Cálculo de Varias Variables
M. Besada- J. García – M.A. Mirás – C. Vazaquez
Consultas en Internet:




www.newgrupos.com
www.elprisma.com
www.slta.uma.es
www.cidse.itcr.ac.cr
83
“Viabilidad de realizar un complejo habitacional de tres niveles en
suelos de relleno”
Fundación del tipo platea en un terreno de relleno en laguna
Autores:
Gisela Cecilia Alvaredo
Jorge Germán Ulises Soto
mail: [email protected]
mail: [email protected]
RESUMEN
El propósito del trabajo era brindar ayuda en lo social, a personas que habitan terrenos
donde existían lagunas y que luego fueron rellenadas. Nuestro objetivo era, si se podía
materializar un complejo habitacional de 3 plantas, adoptando una fundación tipo platea
como sustento de la construcción y optando por el sistema constructivo EMMEDUE,
que consta en revocar paneles de isopor, cubiertas por mallas metálicas, implementado
con 25 años de éxito en Europa. Reduce costos y tiempos de ejecución de la obra como
ventajas. Utilizamos el método simplificado en el análisis del conjunto suelo-cimientoestructura. Realizado los cálculos del peso total del Complejo y, con la tensión del
estudio de suelo, se calculó la sección necesaria, la que nos arrojó un valor menor a la
superficie que teníamos por proyecto, llevándonos a la conclusión de que la obra se
puede materializar en ese lugar.
Palabras claves: laguna – habitantes – Complejo – Platea - EMMEDUE
INTRODUCCIÓN
El presente trabajo se enmarca dentro del Curso de Posgrado de Metodología de
la Investigación. Dicho trabajo fue desarrollado en la Facultad de Ingeniería
dependiente de la Universidad Nacional del Nordeste, de la ciudad de Resistencia,
provincia del Chaco, Argentina; donde se realizaron actividades de búsqueda de
información, relevamiento de datos y recorridos por los sectores del Área de la Laguna
Arguello donde se vislumbra la problemática analizada.
Dicho problema es la capacidad de sostén del relleno de la Laguna Arguello,
del sector ubicado sobre la calle Patrón entre Saavedra y Av. Paraguay (Villa Don
Rafael) para la construcción de un complejo habitacional.
Históricamente se consideró que las lagunas, eran espacios inservibles, sucios,
generadores de alimañas etc., y un símbolo de progreso era rellenarlas con distintos
tipos de materiales y seguir avanzando con la urbanización, implantando sobre el
territorio una cuadrícula dominial y catastral sin una adecuación respetuosa al ambiente
84
natural que le sirva de soporte. Como resultado, de las 70 lagunas que existían, hoy sólo
quedan 29 en todo el Área Metropolitana, totalmente ahogadas, asfixiadas por el
progreso y perdidas irreversiblemente para la biodiversidad del lugar.
A mediados de la década del 30, ésta laguna cubría una superficie de 30
hectáreas, rodeada de importante masa boscosa y fauna muy rica, en la actualidad sólo
alcanza a cubrir 9,5 hectáreas, rodeada de viviendas familiares y atravesada por calles.
El descontrolado crecimiento urbano del Área Metropolitana del Gran
Resistencia (AMGR) ha producido entre otras, muchas consecuencias negativas, el
sostenido avance anárquico del uso del suelo y, principalmente la ocupación
indiscriminada de las riberas de las lagunas del AMGR, con alta vulnerabilidad hídrica
para las personas, patrimonio y actividades (la ciudad con precipitaciones que no
superan los 50 mm, ya sufre los múltiples inconvenientes que producen las
inundaciones pluviales), la escasez de espacios verdes adecuados para recreación y
esparcimiento de la población y el deterioro ambiental creciente (materializada por
rellenos incontrolables de las lagunas para el asentamiento de viviendas precarias), nos
están dando la pauta de lo que hemos estado haciendo mal.
Es por ello que nos planteamos si un terreno de relleno soportaría un complejo
habitacional de tres niveles con una fundación del tipo platea. Siendo nuestro objetivo
aprovechar al máximo el relleno ya existente sobre la Laguna Arguello evitando así
continuar con estas prácticas antinaturales.
Se debe tener en cuenta que en su mayoría los ocupantes de estos espacios son personas
provenientes del interior de la provincia en búsqueda de mejores oportunidades
laborales, con diferentes grados de antigüedad en los asentamientos.
Tenemos la ventaja y el compromiso histórico de que aún estamos a tiempo de
revertir en parte nuestros males.
Por todo lo expresado, consideramos se hace necesaria la apropiación social de
esos nuevos espacios, transformándose los vecinos en los directos cuidadores de los
mismos a través de un trazado urbano digno para la población, con la simultánea
revalorización del sistema fluvial lacustre, y mejorando así los estándares de vida tanto
en lo social, como en la salud y la educación, eliminándose áreas de conflictos en
múltiples aspectos. El saneamiento legal de una vivienda propia digna y un inmueble
con servicios mínimos, le permitirá superar la discriminante condición marginal de
intrusos para transformarse en propietario de su vivienda.
DESARROLLO
El Complejo habitacional analizado en el presente trabajo de investigación estará
compuesto por el sistema denominado EMMEDUE® (M2), de origen italiano, con más
de veinte años de utilización en diversas partes del mundo. El sistema se caracteriza por
ser de menor costo y demandar menos tiempo de ejecución que la construcción
tradicional, manteniendo y superando en muchos aspectos los estándares de calidad y
confiabilidad habituales. Poseen elevado aislamiento termo-acústico, una elevada
resistencia al fuego y a los riesgos sísmicos junto a una elevada calidad. El sistema
calidad de EMMEDUE® está certificado por la norma UNI en ISO 9001
El mismo esta compuesto por:
85
Paneles modulares de poliestireno y red de acero cincado para paredes portantes,
divisorias, pisos y escaleras.
A continuación procederemos a detallar los distintos elementos constructivos
con sus Especificaciones Técnicas, que se utilizarán en el complejo habitacional
adoptado:
1.- Panel Simple
Panel ideal para paredes, tabiques, divisorios, pisos,
paredes de cerramiento y cubiertas de edificios
civiles e industriales.
Utilizado
como
estructura
portante
para
construcciones hasta 4 pisos con aplicación de
revoque estructural sobre los dos lados; para
tabiques, divisorios y paredes de cerramiento, en
edificios nuevos o para reestructurar; para paredes de
cerramiento y divisorios en edificios industriales y
comerciales de grandes dimensiones; como
encofrado perdido aislante para cubiertas y pisos de
variada dimensiones, predispuesto con o sin
refuerzos pre-colados.
Densidad del panel de poliestireno: 15 kg/m3
Espesor del panel: 6 cm
spritz beton (cal inferior de 5% en peso del cemento): 3,5 cm
Peso total del conjunto por metro cuadrado: 168,9 kg/m2
2.- Panel Losa
Utilizado para realizar losas y cubiertas con viguetas
de hormigón armado, con notables ventajas en
términos de ligereza, aislamiento y rapidez de
montaje.
Con el panel EMMEDUE® formado por una placa
moldeada de poliestireno expandido se realizan
pisos y cubiertas de edificios con la adición de acero
complementario en el interior de las específicas
viguetas y sucesivamente en la obra con la colada de
hormigón.
Densidad del panel de poliestireno: 15 kg/m3
Altura del panel: 16 cm
spritz beton (cal inferior de 5% en peso del cemento): 5 cm
Peso total del conjunto por metro cuadrado: 122,4 kg/m2
86
3.- Panel de escalera
Panel para una escalera ligera, resistente y de rápida
realización.
Está constituido por un bloque de poliestireno
expandido moldeado según las exigencias del
proyecto, recubierto con dos mallas metálicas
unidas entre ellas por medio de costuras de
alambres de acero soldados con electrofusión. Este
panel, adecuadamente armado y completado en la
obra con colada de hormigón en los huecos
específicos, se utiliza para la realización de rampas
de escaleras que serán luego acabadas externamente
con revoque tradicional, baldosas u otro material.
El panel escalera se caracteriza por la facilidad y rapidez con la que se coloca así
como también por su ligereza y resistencia estructural.
Densidad del panel de poliestireno: 15 kg/m3
Altura del panel: 15 cm
spritz beton (cal inferior de 5% en peso del cemento): 5 cm
Peso total del conjunto por metro cuadrado: 122,2 kg/m2
4.- Panel descansillo
Panel para la realización de descansillos, forjados y
placas armadas bi-direccionales.
Aporta un aislamiento continuo hacia el intradós del
panel.
El panel descansillo EMMEDUE® es una excelente
solución para realizar descansos contiguos a las
escaleras realizadas con el panel escalera
EMMEDUE®.
El panel descansillo se puede usar también para
cualquier placa o losa de cemento armado bidireccionales con la ventaja de un peso modesto
respecto a una losa llena y la presencia de un aislante continuo que funciona
también como encofrado.
Densidad del panel de poliestireno: 15 kg/m3
Altura del panel: 16 cm
spritz beton (cal inferior de 5% en peso del cemento): 5 cm
Peso total del conjunto por metro cuadrado: 122,4 kg/m2
87
La Planta General Tipo del Complejo Habitacional se detalla en la siguiente figura.
6.32
COCINA
DORMITORIO
3.00
6.16
5.12
2.80
BAÑO
DORMITORIO
COMEDOR
PORCHE
PLANTA TIPO Esc. 1:100
La elección de los distintos tipos de fundaciones que se conocen, surgen de la
interacción de:
-
las propiedades mecánicas del suelo,
-
el tipo de cargas,
-
la intensidad de cargas,
-
las deformaciones producidas por la interacción de suelo-cimiento-carga
estructural.
En el análisis del conjunto suelo-cimiento-estructura utilizamos el método
simplificado que realiza una revisión global de la cimentación, determinando las cargas
transmitidas por la estructura y sus puntos de aplicación. La presión promedio sobre el
suelo se compara con la capacidad de éste. El procedimiento más sencillo para el
análisis de la cimentación es el de considerarla como piso invertido: esto es, suponer
que las columnas, apoyos fijos y la losa está cargada con una presión uniforme igual a la
carga total por unidad de área transmitida por la estructura
88
El método considera que la cimentación es muy rígida, por lo tanto ignora los
hundimientos diferenciales
La fundación que se adoptó para transmitir las cargas del complejo habitacional
hacia el suelo de relleno analizado es una Platea de Hº Aº. Se eligió este tipo en base a
criterios técnicos conocidos.
Se aprecia en la imagen la fundación de platea de una construcción con el
Sistema Constructivo adoptado.
Se cuenta con un Análisis de Estudio de Suelo (Ver Anexo I), próximo al área
estudiada, el mismo proporciona las características de Tensión admisible del Suelo,
valor que define el tipo de fundación para las cargas actuantes.
89
Procedimiento de Cálculo:
En función de la Planta tipo adoptada se plantea el siguiente Esquema
Estructural:
3.00
Planta Techo
3.00
2º Piso
3.00
1º Piso
3.00
3.20
Planta Baja
6.16
Esquema de Corte
3.00
3.20
L1
L2
T2
T1
T3
PLANTA ESTRUCTURA
Esc. 1:100
T2
T3
Espesor de la
Platea de Hº Aº = 0,20m
.
T1
0.80
3.00
3.20
0.80
Esquema de las Fuerzas Actuantes sobre la Platea
90
Se procedió a realizar el análisis de las cargas actuantes en el Sistema
Estructural. Se determinó las cargas de las Losas de todos los Niveles, las mismas
transmiten sus cargas a los tabiques portantes. Una vez determinado el esfuerzo que
soportan los tabiques se procedió a trasladar su influencia a la platea analizada y con
dicha información y los datos aportados por el Estudio de Suelo, se efectuó su
verificación.
A continuación se procede a realizar los cálculos correspondientes:
I) Losas Placas EMMEDUE
1) Análisis de carga de losas
a) Planta techo (Losa 1= losa 2)
Sobrecarga: Azotea inaccesible = 0,10 t/m2
Hormigón de pendiente 0,12m x 2,2 t/m3 = 0,264 t/m2
Carpeta
0,03m x 2,2 t/m3 = 0,066 t/m2
Placa Losa EMMEDUE
= 0,122 t/m2
Cielorraso suspendido de yeso
= 0,02 t/m2
--------------------------q = 0,572 t/m2
b) Losas del 2º piso (Idem Losas del 1º piso)
(losa 1= losa 2)
Piso
0,03m x 1,8 t/m3 = 0,054 t/m2
Carpeta de Asiento 0,02 m x 2,2 t/m3 = 0,044 t/m2
Contrapiso
0,1 m x 2,2 t/m3 = 0,22 t/m2
Placa Losa EMMEDUE
= 0,122 t/m2
Cielorraso suspendido de yeso
= 0,02 t/m2
Sobrecarga
= 0,2 t/m2
--------------------------q = 0,66 t/m2
2) Solicitaciones de Losas
a) Planta Techo
a.1) Losa 1
Q1 = q x L/2
q = carga sobre la losa x m2
L = luz de calculo
Q = esfuerzo de corte en la sección mas solicitada
Q1 = 0,572 t/m2 x 3 mts / 2 = 0,86 t/m
a.2) Losa 2
Q2 = 0,572 t/m2 x 3,2 mts / 2 = 0,92 t/m
91
b) Planta 2º piso (Idem planta 1º piso)
b.1) Losa 1
Q1 = 0,66 t/m2 x 3 mts / 2 = 1,00 t/m
b.2) Losa 2
Q2 = 0,66 t/m2 x 3,2 mts / 2 = 1,10 t/m
II) Paneles simples EMMEDUE
1) Análisis de cargas del panel simple (tabiques)
a) Tabique 1 (T1)
Q1: carga distribuida que actúa sobre el tabique
Q1 del nivel planta techo
0,86 t/m
Q1 del nivel planta 2º piso
1,00 t/m
Q1 del nivel planta 1º piso
1,00 t/m
2
Peso propio del panel EMMEDUE 0,169 t/m x 9,00 m = 1,53 t/m
---------------T1 = 4,39 t/m
b) Tabique 2 (T2)
Q1 del nivel planta techo
0,86 t/m
Q2 del nivel planta techo
0,92 t/m
Q1 del nivel planta 2º piso
1,00 t/m
Q2 del nivel planta 2º piso
1,10 t/m
Q1 del nivel planta 1º piso
1,00 t/m
Q2 del nivel planta 1º piso
1,10 t/m
Peso propio del panel EMMEDUE 0,169 t/m2 x 9,00 m = 1,53 t/m
---------------T2 = 7,51 t/m
c) Tabique 3 (T3)
Q2 del nivel planta techo
0,92 t/m
Q2 del nivel planta 2º piso
1,10 t/m
Q2 del nivel planta 1º piso
1,10 t/m
Peso propio del panel EMMEDUE 0,169 t/m2 x 9,00 m = 1,53 t/m
---------------T1 = 4,65 t/m
92
III)
Fundación Platea de Hormigón Armado
Se adoptó una platea de Hormigón Armado de 20 cm de espesor, cuya resistencia
característica (βcn) es de 170 kg/cm2 y su módulo de elasticidad (Eb) es de 275.000
tn/m2
Las dimensiones de la Platea están en función de la Planta arquitectónica que se ve
en la figura
Las características del suelo de fundación se obtuvieron del estudio de suelo que se
adjunta en el Anexo I, y cuyos datos de interés aplicados a este trabajo son los
siguientes:
Tensión Admisible del terreno (σt adm) = 7 tn/m2
Según la clasificación de suelos SUCS (Tabla 12.5 – Anexo II)
CL: Arcilla Limosa
ML: Limos Inorgánicos de baja compresibilidad
Con estos datos, se obtuvo de la tabla 7.2 del libro ―Diseño Estructural de
Cimientos‖ del autor Melli Piralla (Anexo II), el modulo de reacción del suelo
(Ks) = 1,30 kg/cm3 a falta de información más específica.
A continuación se plantea la verificación de la Platea adoptada en este informe
Carga Total actuante (N)
N= T1 + T2 + T3 =
N = 4,40 t/m + 5,71 t/m + 4,7 t/m = 16,61 tn
Calculo de superficie necesaria en platea
Nt: carga total transmitida al estrato de suelo, incluye el peso de la cimentación y
las cargas actuantes en la misma. Se considera un 10% más de la carga total actuante
N.
Nt = 1,10 x N = 1,10 x 16,61 t/m = 18,27 t/m
El área de la platea (Ωnec), se determina suponiendo una distribución uniforme sobre la
misma a partir de la carga de diseño transmitida por la estructura (Nt), dividida entre las
presiones resistentes del suelo (σt adm).
Ωnec = Nt = 18,27 t = 2,61 m2
σt adm 7 t/m2
Largo necesario = 2,61 mts < largo mínimo adoptado = 7,8 mts
93
B.C.
Verificación de la sección de la platea según condición de Rigidez.
Para que el cimiento sea rígido se debe cumplir que la longitud del tramo (Lt) verifique
la siguiente formula:
Lt ≤ 1,75 x
4
Ic . 4 . Eb
Ks . b
La longitud del voladizo (Lv) debe verificar la siguiente fórmula:
Lv ≤ 0,88 x
4
Ic . 4 . Eb
Ks . b
Ic = Inercia del cimiento
Eb = modulo de elasticidad del Hormigón
Ks = modulo de reacción del suelo
b = ancho de la faja a considerar
Ic = b x h3 / 12
h : espesor de la platea
1,00 m x (0,20 m)3
Ic =
 6,60 x 10- 4 m4
12
Lt ≤ 1,75 .
4
6,6 . 104 . 4 . 2750000 tn / m2
 3,20 mts
1300 t / m3 . 1,00 m
Igual a la longitud del tramo adoptado, por lo tanto estamos en buenas condiciones.
Para el voladizo:
Lv ≤ 0,88 .
4
6,6 . 104 . 4 . 2750000 tn / m2
 1,60 mts
1300 t / m3 . 1,00 m
La longitud del voladizo adoptado es de 0,80 mts, cumpliéndose la condición requerida.
CONCLUSIONES
Del resultado obtenido, concluimos que sobre el terreno de relleno analizado, se
puede materializar el Complejo Habitacional de tres plantas, cuyas características
técnicas se describieron en el presente informe, utilizando el sistema de fundación del
tipo platea.
Esto conllevaría a mejorar el nivel de vida de los habitantes que ocupan dicho
sector, evitando el hacinamiento de los mismos y brindando las redes de infraestructura
94
mínima con la salubridad y la legalidad necesarias, con la simultánea recuperación y
revalorización del sistema fluvial lacustre.
Se evitaría el incontrolable relleno creciente de los bordes de las lagunas para de
esta manera evitar el deterioro ambiental.
Se pueden identificar los siguientes beneficios de la propuesta:
 Rescate de la población ribereña, transformando las áreas aptas con viviendas
dignas y con servicios mínimos indispensables, reinserción en la sociedad de los
habitantes y mejoramiento de sus estándares de vida.
 Mantener la capacidad de reservorio de las lagunas para mejorar el sistema de
escurrimiento pluvial de la ciudad.
 Ampliación de la superficie de áreas urbanas recreativas en una ciudad con
déficit de espacios verdes recreativos de uso público.
 Revalorización inmobiliaria del entorno de las lagunas recuperadas.
Debemos dejar aclarado, que nuestro fin con este trabajo de investigación es
materializar el Complejo Habitacional solo en las lagunas que han sido rellenadas y no
pueden ser recuperadas.
No queremos que se considere con este trabajo que las lagunas deben ser
rellenadas para proporcionar una solución habitacional.
Consideramos que la influencia del ecosistema a la hora de proyectar la urbanización
debe ser un factor preponderante.
BIBLIOGRAFÍA
 MELLI PIRALLA, Roberto. Diseño Estructural de Cimentaciones. Editorial
Limusa.
 CALAVERA RUIZ, José. Calculo de Estructuras de Cimientos. Editorial
Intemac.
 CIRSOC 101. Cargas y Sobrecargas Gravitatorias para el Calculo de las
Estructuras de Edificios. Julio 1982. Buenos Aires: INTI-1996
 JUAREZ BADILLO, Eulalio. Mecanica de Suelos Tomo I segunda edición,
Limusa. México – 1979.
 DUNHAM, C. W. Cimentaciones de Estructuras. Segunda edición, Mc Graw
Hill, Madrid - 1968.
 Paginas web:
www.ecoportal.net/Contenido/Temas_Especiales/Agua/Laguna_Arguello_Histori
a_de_la_Ciudad. (16/05/2009)
www.chaco.gov.ar/APA/institucional/amgr/Arg%c3%Bcello.pdf (16/05/2009)
www.ecoportal.net/content/view/full/21321 (16/05/2009)
www.mdue.it/es/ (20/05/2009)
www.madres.org/scompartidos/sisconstructivo-/emmedue.html (20/05/2009)
95
VIBRACIONES MECÁNICAS EN MOTORES DE COMBUSTIÓN
INTERNA
Autor: Ing. Raúl Isaías Maderna
Trabajo final del Curso de Postgrado de Metodología de la Investigación Científica.
ABSTRACTO
Conocer el porque de la existencia de vibraciones en los motores de combustión, es el
primer paso para lograr su compensación o la eliminación de los efectos que las
producen. Por ello el trabajo consistió en hacer un estudio de las masas en movimiento,
describiendo su desplazamiento instantáneo y analizando las variaciones de velocidades
y aceleraciones que sufren durante su funcionamiento. Determinando las fuerzas y los
momentos de inercia, como también los efectos de la combustión de la mezcla sobre la
máquina en estudio. Conociendo de esta manera como reaccionarán los materiales que
componen los distintos elementos del motor y el efecto de las vibraciones torsionales
que afectan al cigüeñal.
Palabras Claves: Vibraciones, fuerzas, momentos de inercia, torsionales
INTRODUCCIÓN
Fue a través de la experiencia propia lograda a lo largo de tantos años en mi actividad
profesional; especialmente en lo que hace a montaje de ascensores a tracción e
hidráulicos y su mantenimiento posterior, como también por la observación directa de
los efectos producidos por las vibraciones en los diferentes componentes mecánicos de
las máquinas, lo que hizo que me incentivara la necesidad de investigar sobre este
fenómeno que aparecía en toda pieza diseñada por la ingeniería.
La aparición del fenómeno de vibración en máquinas es un problema que muchas veces
resulta de difícil solución para el ingeniero y/o diseñador.
Estos problemas suceden tanto en la fase de proyecto como en la fase de uso normal.
En la fase de proyecto, el diseñador y/o ingeniero debe tener en cuenta de cómo se
podrá reducir ó eliminar este fenómeno.
En cambio en la fase de uso normal de una máquina, el problema de las vibraciones
podrá aparecer por muchos motivos.
Para ello se puede dar los siguientes ejemplos de acuerdo a la intensidad de las
vibraciones y cual puede ser el resultado final sobre el sistema sobre el cual se produce:
a.- Por daño total en un motor eléctrico, producido en su bobinado por desgaste de los
bujes soportes del rotor y los extremos del eje del mismo.
En este caso, al no haber contado con un correcto mantenimiento preventivo, y al
haberse producido un notable desgaste, el rotor del motor comienza a vibrar
produciendo rozamientos contra el bobinado del estator. Dicho rozamiento fue
generando un aumento de temperatura del bobinado, hasta valores que superaba las
posibilidades de evacuación del calor calculadas para dicha máquina.
96
Como dato final, el bobinado se terminó quemando, con la consiguiente detención del
motor.
b.- En otro caso y debido a la calibración no adecuada de las zapatas de freno del grupo
motor, se generaban vibraciones que eran transmitidas a la cabina, las que eran
percibidas por los usuarios del ascensor.
En este caso no se llegó a la falla por rotura de la máquina, pero producía molestias a
los pasajeros durante el viaje.
Todo esto se completó con la lectura de muchos casos reales investigados por otros
profesionales, lo que despertó mi interés en conocer más del tema.
Al principio, la idea de hacer investigación en esta área fue desechada por mi ya que no
tenía claro cual era la especialidad que yo quería emprender en ingeniería mecánica.
Luego de analizar diferentes sistemas mecánicos simples y complejos, tomé la decisión
de abocarme al ámbito que más conozco: el de los motores de combustión interna.
Por que los motores de combustión interna?
Por que considero que la investigación a desarrollar puede ser un aporte a la enseñanza
y didáctica de la ingeniería, tan imprescindible en los estudiantes de mecánica.
Para dar inicio a este trabajo, considero de relevancia plantear el problema y la
metodología que se utilizará para abordarlo.
El problema planteado es estudiar los efectos producidos por las vibraciones mecánicas
generadas por esfuerzos torsionales en el motor de combustión interna.
La metodología propuesta es la siguiente:
Generar una falla, que se traduzca en un estímulo generador de pulsos de vibración
sobre el eje cigüeñal, efecto que se pueda detectar por los transductores de señales y se
realice una lectura de los resultados.
OBJETIVOS
a.- Realizar el estudio teórico del funcionamiento de las partes en movimiento de un
motor.
b.- Determinar los esfuerzos que soporta la máquina, especialmente en aquellos
elementos sujetos a rotación y/o traslación.
c.- Generar o simular una falla, la que puede ser:
c.1.- Debido a desgaste por funcionamiento normal
c.2.- Debido a mal montaje de las piezas.
c.3.- Debido a desequilibrio estático o dinámico por pérdida de material y también por
desalineación de piezas.
ACTIVIDAD
Confección de planillas de cálculo y gráficos de los distintos sucesos.
HIPOTESIS
97
¿Cómo se pueden detectar las vibraciones producidas en los elementos mecánicos
sujetos a movimientos de rotación y traslación y que aparecen por estímulos externos
circunstanciales?
¿Cuál es la importancia de poder detectar las vibraciones en dichos elementos y a su vez
conocer la respuesta a esos estímulos? ¿Se podría evitar daños permanentes en los
mismos?
En un motor en estudio ¿Cuál será la ubicación más adecuada para poder colocar los
sensores a fin de realizar la obtención de datos, los cuales serán tenidos en cuenta para
un análisis posterior de prevención?
DESARROLLO
BASE TEÓRICA
1.- Vibraciones mecánicas.
Se sabe que todo cuerpo o sistema que tiene masa y elasticidad, es capaz de vibrar a una
o más de las frecuencias naturales del mismo, en este caso se dice que el sistema tiene o
experimenta una vibración libre (o natural) y que la misma se produce sin que existan
estímulos externos aplicados a él. Esto considerando que es mínima o nula la
amortiguación.
Las frecuencias naturales son parte de las propiedades del sistema dinámico y dependen
de su distribución de masa y de su rigidez.
Ahora bien, si dicho sistema recibe un estímulo, como una fuerza o trabajo exterior, del
tipo oscilatorio, entonces el mismo será obligado a vibrar a la frecuencia de excitación,
por lo tanto se dice que el sistema está bajo el efecto de una vibración forzada.
Si la frecuencia de excitación coincide con alguna de las frecuencias naturales del
sistema en cuestión, la amplitud de la primera se sumará a la amplitud de la segunda,
dando lugar a una amplitud aún mayor.
Cuando sucede esto, se dice que el sistema se encuentra en un estado de resonancia,
dando lugar a oscilaciones elevadas en amplitud, las que pueden ser muy peligrosas para
las condiciones estructurales o de vida útil de las máquinas.
Como se define una vibración?
La vibración, en general, se trata de un movimiento ondulatorio periódico. Esto quiere
decir que dicho movimiento se repite con todas sus características después de un cierto
intervalo de tiempo, al que se denomina período de la vibración.
La vibración puede ser representada por medio de una gráfica desarrollada en un par de
ejes X e Y. Sobre el eje Y se representa el desplazamiento de la vibración, y sobre el eje
X el tiempo o período con que se repite la misma.
Por otro lado un cuerpo o sistema puede poseer, en su estado oscilatorio, un grado de
libertad, dos grados de libertad o ―n‖ grados de libertad.
Cuando, un cuerpo tiene un grado de libertad, significa que se puede describir su
posición geométricamente, en cualquier instante, por una sola coordenada.
98
Si el cuerpo tiene dos grados de libertad, se puede describir su movimiento en dos
direcciones o en un par de ejes.
En la medida que el movimiento oscilatorio tenga más grados de libertad, su estudio
será más complejo, desde el punto de vista matemático.
Pero las vibraciones en máquinas pueden llegar a estudiarse considerando el o los
sistemas con un solo grado de libertad, lo cual simplifica el análisis correspondiente.
Adelantándonos un poco al trabajo a desarrollar, podemos decir que a través del estudio
de las vibraciones, se puede determinar cuáles serían las partes de una máquina que
deberían ser investigadas para reducir los efectos de las mismas sobre todo el conjunto
en general y sobre los usuarios en particular.
Luego de esta breve introducción al tema, el paso siguiente es desarrollar el estudio de
las vibraciones que se producen en el motor de combustión interna.
Para ello nos hacemos la siguiente pregunta:
El estudio que se llevará a cabo, ¿será sobre un motor fijo o no?
Un motor fijo es utilizado para mover una máquina que está en un lugar determinado.
Por ejemplo: un motor de combustión interna que mueve un generador de energía
eléctrica.
El caso contrario será, por ejemplo, el de un automóvil.
En ambas situaciones, los motores sufren vibraciones importantes.
Pero en este trabajo se enfocará la atención en motores utilizados en diferentes tipos de
vehículos y bajo diferentes exigencias de trabajo.
Hay que tener en cuenta que esta amplitud en el rango de velocidades, complica aún
más la reducción y/o eliminación del efecto de las vibraciones, justamente por la
variación de la carga aplicada.
2.- Análisis de vibraciones en el motor
Al analizar los problemas inherentes a los motores de combustión interna, podemos
definir dos grupos dentro del fenómeno de las vibraciones, los cuales son:
A.- La transmisión de vibraciones del motor a la base como un todo.
B.- Las oscilaciones torsionales en el cigüeñal y en el sistema de ejes de la máquina
motriz.
Todos estos efectos están originados por las características propias de funcionamiento
del motor, lo cual genera la primera pregunta:
Por que se producen esas vibraciones?
Antes de dar una respuesta a esta pregunta se analizará el funcionamiento complejo del
sistema de biela-manivela
Dicho sistema es complejo por que el motor, en su funcionamiento transforma energía
calórica producto de la combustión de la mezcla, en energía mecánica, a través de su
sistema biela-manivela.
99
Este sistema está compuesto por pistones, bielas y el cigüeñal mismo, lo que dificulta el
funcionamiento debido a que los pistones tienen movimiento rectilíneo alternativo, el
cigüeñal tiene movimiento circular que varía con la velocidad de rotación y las bielas
tienen movimiento combinado.
Para simplificar el movimiento de estas últimas, se puede decir que un porcentaje de las
mismas tienen un movimiento rectilíneo alternativo, acompañando a los pistones en su
recorrido, y el otro porcentaje tiene un movimiento circular, acompañando al cigüeñal
durante el tiempo que está el motor en funcionamiento.
A su vez el pistón tiene un recorrido limitado por el cilindro y además sufre
aceleraciones y desaceleraciones en su desplazamiento desde el punto muerto inferior al
punto muerto superior y viceversa.
En esos puntos extremos, la velocidad de pistón es cero y se puede decir que en su
recorrido medio, la velocidad es máxima.
Estas variaciones de velocidades y aceleraciones extremas de las masas en movimiento,
hace que den lugar a la generación de vibraciones que si no son adecuadamente
controladas o eliminadas, pueden dar lugar a fallas permanentes en la máquina.
Ya se verá más adelante que las vibraciones no podrán ser eliminadas en su totalidad,
pero si amortiguadas, reduciendo sus efectos en la máquina.
La segunda pregunta es:
Cuales son los componentes más afectados por las vibraciones generadas por el
funcionamiento normal del motor?
Son aquellos que forman el sistema biela-manivela, que está compuesto por los
siguientes elementos:
Cigüeñal: Este elemento sufre vibraciones debido a esfuerzos torsionales y de flexión.
Bielas: Las mismas forman parte del sistema biela-manivela, soportando esfuerzos de
tracción y compresión durante el ciclo completo de funcionamiento.
Pistón: otro componente del sistema que soporta esfuerzos de compresión y elevado
gradiente de temperaturas, además de grandes aceleraciones alternativas y periódicas,
debido a las variaciones periódicas de la presión del gas o mezcla al producirse la
combustión.
Este es el motivo por el cual el análisis será enfocado en el sistema completo de bielamanivela, ya que su funcionamiento complejo vuelve interesante la investigación.
3.- Análisis del sistema de biela – manivela
Para analizar dicho sistema, se estudia un motor monocilíndrico, de tal manera de lograr
una simplificación debido la complejidad del sistema, pudiendo así representarlo,
gráficamente, en un solo plano, y considerar que tiene un solo grado de libertad.
Si observamos la siguiente figura 1, vemos que:
Se ha representado el sistema biela – manivela en el plano, donde se puede observar que
el desplazamiento del pistón es designado por la letra xp.
100
A su vez, también se puede conocer la posición instantánea de la manivela y de la biela
con los ángulos  y t , con respecto al giro del cigüeñal.
Entonces:
xp = desplazamiento del pistón desde la parte superior.
 = el ángulo formado por la biela con el eje perpendicular
al cilindro.
r = radio de manivela
l = longitud de la biela
t = ángulo de la manivela desde la parte superior del
punto muerto.
Para el análisis suponemos que el cigüeñal gira con
velocidad angular constante, por lo tanto  es constante.
Para calcular la posición instantánea del pistón en función del ángulo t , se determina
que la distancia xp es igual a la diferencia entre los segmentos DO – BO, o sea
r 1 cos t  (1)
Pero para calcular exactamente el valor de la posición del pistón, con respecto al muñón
de cigüeñal, se tendrá en cuenta un factor de corrección que será la suma entre los
segmentos OB y BC.
x  r 1  cos t   l 1  cos   (2)
Esta última ecuación la podemos poner en función de t , teniendo en cuenta que el
segmento AB es el lado que comparten ambos triángulos en el dibujo.
Por lo tanto:
l.sen  r.sent
r
sen  sent (3)
l
Si t 

 sent  1 sen   , la relación  
2
máxima de la biela.
r
es el valor de la inclinación
l
Por trigonometría se sabe que: cos   1  sen  (4), si sustituimos la (3) en la (4)
2
tendremos entonces:
cos   1 
r2
l2
sen t
2
(5)
La ecuación para determinar la posición exacta del pistón en su recorrido hacia el punto
muerto inferior, en función del ángulo t será,
101
r2
x  r. cos t  l 1  2 sen 2t (6)
l
Se puede eliminar la raíz cuadrada de esta ecuación, de tal manera de simplificar los
r
cálculos posteriores, teniendo en cuenta que la relación   , varía entre los siguientes
l
valores 1/3 a 1/5.
Como estos valores son menores que la unidad y a su vez están dentro de la raíz
cuadrada, el valor final es aún más pequeño y puede ser despreciado.
La eliminación de la raíz se puede hacer utilizando el teorema de los binomios, por lo
que el valor final tendrá un error de aproximación muy pequeño, que para nuestro caso
es despreciable.
Por lo tanto la ecuación exacta para determinar la posición instantánea del pistón es la
siguiente:
x  r. cos t  l 
r2
sen 2t (7)
2l
Si sustituimos el cuadrado del seno por el coseno del ángulo doble mediante la
identidad trigonométrica tendremos:
cos 2t  1  2sen 2t
sen 2t 
1  cos 2t
(8)
2
Reemplazando la (8) en la (7) y tendremos la ecuación aproximada del desplazamiento
del pistón.
xl
r2
r


 r  cos t  cos 2t  (9)
4l
4l


A partir de esta ecuación podremos obtener las ecuaciones aproximadas para determinar
el valor de la velocidad y la aceleración, derivando con respecto al tiempo, a saber:

r


x  r  sent  sen2t  (10)
2l


r


x  r 2  cos t  cos 2t  (11)
l



Si observamos estas ecuaciones, las tres tienen algo en común; están compuestas de
armónicas de primer orden y de segundo orden.
Esto quiere decir que la primera armónica se repite una vez por vuelta de cigüeñal y la
segunda se repite dos veces por cada vuelta de cigüeñal.
Hay que tener en cuenta que existen armónicas de orden superior pero que fueron
suprimidas por tener valores pequeños.
102
El tener en cuenta la existencia de estas armónicas es de gran importancia a la hora de
hacer un equilibrado del sistema para reducir las vibraciones generadas por el
funcionamiento normal del motor.
Si ahora se hace el análisis del movimiento de las partes giratorias del cigüeñal,
considerando que las mismas pueden ser reemplazadas por una masa equivalente mc en
el muñón, entonces como dicho movimiento se puede descomponer en dos direcciones,
el desplazamiento en la dirección x será,
xc  r cos t ,
Si a esta ecuación la derivamos dos veces con respecto al tiempo, se obtendrán las
componentes verticales de la velocidad y de la aceleración,

x c  r.sent

x c  r 2 . cos t
Las componentes horizontales se obtienen de la misma manera y son:
yc  r.sent

y c  r. cos t

y c  r 2 .sent
Ahora bien, según la segunda Ley de Newton, las aceleraciones producen fuerzas
dinámicas en los sistemas físicos, por lo tanto, si multiplicamos la aceleración que sufre
un cuerpo por su masa, esto genera una fuerza de inercia que variará con el tiempo en
función del valor del ángulo t .
El siguiente paso será analizar, más detenidamente, el movimiento de la biela. Ya que al
tener un movimiento más complicado hace difícil su estudio.
La parte superior de la misma tiene un movimiento alternativo rectilíneo, mientras que
su parte inferior tiene un movimiento de rotación pura.
Los demás puntos de la biela describen elipses, por lo que la obtención y la subsiguiente
integración para obtener las fuerzas de inercia de cada uno de ellos, complican un poco
el procedimiento.
De cualquier manera a esto lo podemos simplificar reemplazando a la biela por una
barra, de igual masa y con el mismo centro de gravedad, de tal manera que la trayectoria
de ese centro de gravedad no varíe y por lo tanto la fuerza de inercia producida por este
elemento sea igual al de la biela.
Ahora bien, si a la masa de la barra se la reparte en dos masas concentradas en los
extremos de la misma, entonces se podrán adicionar a estas las masas que corresponden,
por un lado al pistón y perno de pistón, y por el otro lado a la masa de la manivela.
103
Entonces una vez realizado el procedimiento anterior, el paso siguiente es separar las
masas que tienen movimiento alternativo rectilíneo y las que tienen movimiento de
rotación pura.
Si se observa la Fig. 1, se puede calcular la fuerza total de inercia en la dirección x, de
todas las partes móviles de un cilindro, por lo tanto es:


Fx  mrec . x p  mrot . xc (12)
Fx  mrec  mrot .r 2 . cos t  mrec .
r2 2
. . cos 2t (13)
l
En la ecuación anterior se suman las fuerzas de inercia producidas por las masas que
tienen movimiento rectilíneo alternativo y las masas que tienen movimiento de rotación
pura.
Para el caso de la componente horizontal y de la fuerza de inercia es,

Fy  mrot . y c  mrot .r. 2 .sent (14)
De la ecuación (13) podemos deducir que la misma está compuesta por un término
primario que varía con la misma frecuencia del cigüeñal y con la amplitud r, y un
término secundario que varía con una frecuencia doble a la del cigüeñal y con la misma
amplitud.
La ecuación (14) expresa que la fuerza de inercia en la dirección y, está formada,
solamente, por la parte primaria del movimiento de rotación.
Para calcular el par de inercia actuante, se multiplica la fuerza de inercia generada por
las masas con movimiento alternativo, aplicada perpendicularmente sobre la cara del
cilindro y a una distancia x del muñón del cigüeñal.
De manera que el par resultante es:

M  mrec . x p .x.tg (15)
De esta ecuación, se conoce el valor de la aceleración por la (11), y la distancia x, en
este caso se calcula a partir de la siguiente ecuación,
 r2 
r2
x  l. cos   r. cos t  1    r. cos t  . cos 2t (16)
4l
 4l 
A su vez la tg se obtiene de la siguiente manera:
tg 
sen r.sent
,

cos  l. cos 
y si cos   1  sen 2 ; entonces reemplazando esta ecuación en la anterior, queda
104
tg 
sen
r.sent
,

cos  l. 1  sen 2
Luego se elimina el radical, aplicando el teorema de los binomios, quedando la ecuación
anterior con la siguiente aproximación:


r2
 sen 1  2 .sen 2  , y si a su vez
 2l

r
sen  .sent , entonces reemplazamos las anteriores en la de la tangente y
l
obtenemos,


r
r2
tg  .sent 1  2 .sen 2t  (a)
l
 2l

Finalmente la ecuación del par queda:


  r 2 
r
r2
r2

r
M  mrec .r. 2  cos t  . cos 2t . .sent.1  2 .sen 2t . l    r. cos t  . cos 2t 
l
4l

l
 2l
  4l 

Si ahora se hacen las operaciones para reducir la ecuación anterior y despreciar los
términos que son proporcionales a la segunda o más alta potencia de (r/l), al final queda,
3r
r

 mrec .r 2 . 2 .sent   cos t  . cos 2t  (17)
2l
 2l

Para lograr una ecuación a través de la cual se pueda visualizar mejor los efectos de las
vibraciones generadas por este par, se deben utilizar las siguientes identidades
trigonométricas:
1
1
sent. cos 2t  .sen3t  .sent (b)
2
2
2sent.cos t  sen2t ( c )
Reemplazando (b) y (c) en la (17) se tiene finalmente,
1
3r
r

M  mrec .r 2 . 2  .sent  sen2t  .sen3t  (18)
2
2l
 2l

A partir de esta ecuación, se puede obtener el par de inercia que actúa sobre el muñón
de manivela en la dirección del giro del cigüeñal, sin mayor error de cálculo para el tipo
de motores que estamos estudiando.
Asimismo se puede deducir, a partir de la observación de la ecuación, que la misma está
compuesta por tres armónicas, las cuales varían en función del valor del ángulo t .
105
Pero la que tiene mayor importancia es la segunda armónica, por que tiene una
incidencia mayor que las otras dos, ya que estas están multiplicadas por valores
menores a la unidad.
Recordemos que (r/l) es la relación manivela sobre biela y que por lo tanto el valor
siempre será menor que uno.
Entonces si le damos valores a los componentes de la ecuación (18) y teniendo en
cuenta que la velocidad de giro suponemos constante, entonces a lo largo de un giro
completo del cigüeñal se obtendrá una curva que tiene valores positivos y negativos, y
su valor medio será cero.
Esto quiere decir que este par no va a influir en nada en el par impulsor, pero crea
grandes oscilaciones positivas y negativas en el mismo, acentuando las vibraciones y las
irregularidades del movimiento.
El otro efecto a analizar es la fuerza generada por la combustión de la mezcla airecombustible. Esta fuerza se produce al quemarse la mezcla generando un aumento de
temperatura y de presión dentro del cilindro.
Esa presión que se reparte por igual en todas las direcciones dentro de la cámara de
combustión, actúa sobre la superficie del pistón, con una fuerza que va variando a
medida que el pistón se desplaza desde el punto muerto superior hacia el punto muerto
inferior.
La acción de la fuerza se ira trasladando a través de la biela al muñón del cigüeñal y el
efecto de la misma variará en función del ángulo formado con el eje del cilindro.
Esta fuerza multiplicada por la distancia, genera un par o momento, el que se escribe a
continuación,
M g  Fg .x.tg (19)
Si remplazamos las ecuaciones (a) y (15) en la (19) tendremos,


  r 2 
r
r2
r2
M g  Fg . .sent.1  2 .sen 2t . l    r. cos t  . cos 2t  (20)
l
4l
 2l
  4l 

Si se desarrolla esta ecuación y se desprecian los términos que contengan la relación
(r/l) elevadas a cualquier potencia mayor que uno, dado que su valor se hace muy
pequeño, entonces la ecuación anterior queda,
 r

M g  Fg .r.sent.1  . cos t  (21)
 l

Esta última ecuación expresa que la velocidad de giro del motor no incide para nada en
la producción del par, y sólo dependerá de la fuerza generada por la combustión de la
mezcla.
Este momento como el momento debido a las fuerzas de inercia, se suman para dar el
momento o torque total que actúa sobre el motor durante su funcionamiento.
Cada uno de ellos tendrá mayor o menor incidencia sobre la máquina y esto dependerá
de la velocidad de giro del motor.
106
Es decir que a mayor velocidad, el par o torque de inercia será más importante por que
el mismo varía en función de la velocidad de giro al cuadrado, tal como se puede
deducir de la fórmula (18).
Por lo antes expuesto, se busca eliminar o reducir sus efectos durante el funcionamiento
normal del motor, utilizando distintos elementos que compensen esas vibraciones.
En el presente trabajo no se calculará ni analizará la función de cada componente que
sirva para absorber las vibraciones.
4.- Análisis de las causas
Se puede observar dos tipos de causas: las internas y las externas.
Son externas, cuando la acción de estímulos que proceden de fuentes generadoras de
vibraciones, pueden ser permanentes o aisladas.
Una fuente puede ser la pieza deteriorada, de alguna máquina acoplada al motor, que
puede presentar desgaste o que pueda estar mal montada y transmita vibración a los
apoyos del cigüeñal.
Son internas, cuando se producen por alguna falla en la máquina misma debido a
diversas causas como por ejemplo: a.- un mal diseño, b.- un desgaste pronunciado en
algún componente
Cuales son las consecuencias del efecto de las vibraciones no deseadas?
Cuando se diseña una máquina, se calcula sus componentes, con el suficiente nivel de
confiabilidad para que pueda soportar las vibraciones normales que aparecen durante el
funcionamiento de la misma.
Por lo tanto se considerarán como vibraciones no deseadas aquellas que están fuera de
las calculadas por diseño de la máquina y que pueden producir deformaciones
permanentes o incluso llegar a la rotura del cigüeñal.
En el caso del cigüeñal, como se dijo más arriba, se trata de la pieza que mayores
esfuerzos torsionales soporta, como así también esfuerzos de flexión.
5.- Análisis de las frecuencias naturales de la vibración torsional.
Una vez determinadas las fuerzas y momentos producidos por la inercia de las masas
aceleradas y el efecto de la combustión de la mezcla, el paso siguiente será analizar las
frecuencias naturales de la vibración de tipo torsional que afecta, principalmente, al eje
cigüeñal.
Por que se da esta vibración que denominamos torsional?
Por que debido a la acción de las fuerzas y momentos antes mencionados, el eje
cigüeñal experimenta una oscilación de un lado a otro, durante su funcionamiento.
Oscilación que no es visible al ojo humano pero que tiene mucha influencia en la
respuesta del eje a ese estímulo.
Como se vio al principio de este trabajo, la cadena cinemática que denominamos biela –
manivela, tiene masa y por lo tanto vibrará a una o más de las frecuencias naturales
propias de la misma.
107
Por ello será importante conocer estas frecuencias naturales, pero el problema mayor
será el como, sabiendo de antemano que este sistema está compuesto por elementos de
diferentes masas y con diferentes movimientos y comportamientos.
Entonces el primer paso será hacer una simplificación del sistema, partiendo de
considerar que los componentes que tienen movimiento rectilíneo alternativo, como por
ejemplo el pistón y la biela; como también los que tienen movimiento de rotación pura
sean considerados como discos equivalentes en masa y con iguales momentos de
inercia.
A su vez, la manivela del cigüeñal es reemplazada por un eje recto y equivalente, de
igual flexibilidad torsional.
Por lo tanto y luego de estas simplificaciones, se tiene un sistema que reemplaza al
motor y que es representado por un eje recto con varios discos equivalentes que
corresponden a los distintos cilindros del motor, como también a los elementos
acoplados a él, como por ejemplo:
a.- Un volante, cuya función es regularizar el funcionamiento del motor, ó
b.- un amortiguador de vibraciones, cuya función es absorber las vibraciones que se
tienen en cuenta a través del cálculo.
Con la simplificación realizada, el siguiente paso será calcular las frecuencias naturales
del sistema en estudio, utilizando para ello el método de Holzer también llamado el
método de aproximaciones sucesivas.
Por que es importante conocer estas frecuencias naturales?
Es importante conocer las frecuencias naturales para poder analizar el trabajo efectuado
por el par motriz del motor sobre la oscilación del cigüeñal.
Para que se entienda un poco de que se está hablando, es importante aclarar que el par
motriz se genera sólo cuando se produce la combustión de la mezcla dentro del cilindro.
En el caso de un motor de cuatro tiempos, este par se generará una vez por cada dos
vueltas de cigüeñal, o sea durante un giro de 180º de cigüeñal.
Este efecto se repite en forma periódica, conformando una onda de vibración compleja,
la que puede ser descompuesta, según Fourier, en tantas ondas senoidales como existan,
y donde cada una vibrará con su propia frecuencia.
Fig. Nº 2
Fig. Nº 2
108
En la Fig. Nº 2, se puede observar como una onda compleja está compuesta por varias
ondas simples cada una con su propia frecuencia.
En la misma figura, el par de ejes (AMPLITUD – FRECUENCIA) representa lo que se
denomina la FIRMA de una vibración, o sea las características particulares de la misma.
También se llama a esta, la Transformada Rápida de Fourier y cuyas siglas en inglés
son FFT, y será esta señal la que se podrá observar en un analizador.
Ahora bien, si la frecuencia de alguna de estas ondas senoidales coincide con alguna de
las frecuencias naturales del sistema, se producirá el efecto no deseado de resonancia.
En esta situación, las amplitudes de las ondas que tienen igual frecuencia se suman,
generando un incremento en la amplitud de la vibración resultante, dándose la
posibilidad de producirse deformaciones sobre el eje cigüeñal, e incluso llegar a la
rotura del mismo.
Por último es necesario agregar que la velocidad de giro del cigüeñal, a la cual se
produzca el estado de resonancia, se denomina velocidad crítica.
El eje en cuestión tendrá una o más velocidades críticas, las que corresponderán a
distintas frecuencias naturales del sistema y coincidirán con alguna de las armónicas de
igual frecuencias del par motor.
6.- Obtención de datos.
Como el presente estudio se basa en detectar vibraciones no deseadas, a través de un
mantenimiento preventivo, tratando de reducir la frecuencia de fallas en el motor, se
investigará en que lugar será necesario colocar los instrumentales necesarios para la
obtención de datos.
Como primer paso es importante tener una base de referencia o un mapa, para conocer
cuales serían las señales que se obtendrían cuando el motor está en funcionamiento
normal, ya sea por que es nuevo o por que se le hizo una reparación a nuevo de todo el
conjunto.
Estos datos de referencia servirán, como valores patrones, para comparar con los que se
obtengan durante el uso de la máquina, en sucesivas lecturas, según un plan de
mantenimiento programado.
El plan de trabajos es el siguiente:
a.- Determinación de datos de referencia o mapa de vibraciones normales de un motor
nuevo o reparado a nuevo.
Para lograr esto se requiere hacer los siguientes pasos:
a.1.- Colocación del motor a ensayar en un BANCO DE PRUEBAS, siguiendo las
metodologías dispuestas por las Normas de Ensayo de Motores (IRAM o cualquier otra
que se disponga).
a.2.- Colocar los instrumentos para la obtención de datos, en los lugares que indiquen
las normas de ensayo adoptadas, ó en otras partes del motor que se consideren más
adecuados para el estudio de las vibraciones.
a.3.- Hacer el ensayo del motor a plena carga. Esto quiere decir que el motor estará con
el acelerador a pleno gas.
109
a.4.- Tomar las lecturas e ir guardando los datos en computadora, con la intención de
utilizarlas en un software para el análisis posterior.
b.- Simulación de falla.
Se estudia la respuesta de la máquina al efecto producido por piezas desgastadas debido
al funcionamiento normal.
b.1.- Una de las pruebas puede ser el reemplazo de los cojinetes de apoyo del cigüeñal
por otros usados y con desgaste notable.
b.2.- Realizar la prueba del motor, en estas condiciones, en el banco de ensayo y a plena
carga.
b.3.- Obtención de los datos e inclusión de los mismos en el programa de computadora.
b.4.- Análisis de la información, para ver cuales son las diferencias que aparecen con las
anteriores.
7.- Cuales son los instrumentos a utilizar?
En cuanto al o los instrumentos a utilizar, los más adecuados serán, los denominados
acelerómetros.
Estos instrumentos miden la aceleración de gravedad y la vibración, y convierten una
señal registrada por los mismos en una señal eléctrica analógica, proporcional a la
fuerza aplicada al sistema, o mecanismo sometido a esa aceleración ó vibración.
La señal analógica así obtenida indicará, en tiempo real, la aceleración instantánea del
objeto sobre el cual está montado el transductor.
CONCLUSIÓN
Este trabajo consistió en preparar una base con el sustento teórico adecuado para iniciar
a los alumnos de ingeniería mecánica, en el análisis de vibraciones en los motores de
combustión interna e incentivarlos en las investigaciones que se podrán desarrollar a
futuro.
Esta base teórica será el pilar para que los alumnos puedan calcular las vibraciones en
las máquinas, pero además, para que se pueda entender más a fondo el problema de las
mismas, será fundamental la experimentación a partir de la visualización y la medición
real, recurriendo al instrumental disponible y realizando una planificación con rigor
científico de las actividades a seguir, sin dejar de lado la posibilidad de hacer uso de la
improvisación para superar los problemas que aparezcan durante este proceso.
La investigación sobre un determinado caso, consistirá en medir diferentes variables,
sacar conclusiones, corregir, volver a medir y así sucesivamente hasta llegar a cumplir
con el objetivo propuesto.
Para lograr los objetivos, será necesario realizar un proyecto más complejo, equipando
al laboratorio-taller de la Facultad, del instrumental adecuado para comenzar a
investigar ―in situ‖ sobre los efectos de las vibraciones en los motores.
El proyecto al que se puede denominar ―a priori‖ como Laboratorio de Análisis de
Vibraciones Mecánicas, deberá contar con un equipamiento mínimo, el que consistirá
de los siguientes instrumentales:
110
a.- Acelerómetros, en una cantidad de por lo menos tres, para tomar lecturas en tres ejes
ortogonales buscando determinar las frecuencias y dirección de los vectores
consecuentes para tratar de establecer como se comporta una máquina en estado de
vibración.
b.- Analizadores de ruido, para realizar estudios de ruido, separando frecuencias con
divisores, por analizadoras de Fourier o simplemente filtrando frecuencias con los ―pasa
no pasa‖ de un decibelímetro.
c.- Software específico para analizar los datos obtenidos y sacar conclusiones a partir de
sus espectros vibratorios, llamados también Firmas ó Transformadas Rápidas de Fourier
(sus siglas en inglés FFT).
d.- Completando a esto, la fabricación de herramientas, por parte del grupo investigador,
que sirvan para la determinación de las frecuencias naturales de diferentes piezas
mecánicas.
A partir de la concreción de este Laboratorio se podrá realizar investigación en otras
máquinas, ampliando el horizonte al que puedan apuntar los estudiantes con inquietudes
y deseos de crecer en la profesión.
Si a través de este trabajo, tomado como el primer paso para comenzar a recorrer el
camino a la excelencia, se logra despertar en los estudiantes de ingeniería el deseo de
conocer más y de que puedan desarrollarse en libertad, se habrá logrado el objetivo de
hacer un aporte al conocimiento, entonces se podrá tener la certeza de haber cumplido
con la meta propuesta.
Resistencia, Junio de 2009.BIBLIOGRAFÍA
Den Hartog, J.P. , Mecánica de las vibraciones – Compañía Editorial Continental S.A. –
1972
Norton, Robert L., Diseño de Maquinaria – McGraw-Hill – 1995
Thomson, William T., Teoría de Vibraciones – Prentice-Hall Hispanoamericana S.A. –
1995
Giacosa, Dante, Dr.Ing., Motores Endotérmicos – Ediciones Omega – 2000
FIGURAS
Figura Nº 1.- Obtenida del libro Mecánica de las Vibraciones – Pág. Nº 233
Figura Nº 2.- Obtenida de la carpeta del Seminario sobre Técnicas Predictivas y
Proactivas en Mantenimiento – Año 2001
SITIOS WEB
http://www.aaende.org.ar/sitio/biblioteca/material/CONFCHILE.pdf
http://www.ing.ula.ve/~dpernia/pdfs/vibracion_mecanica.pdf
111
“RECUPERO DE INFORMACIÓN A TRAVÉS DE OPERACIONES
CON CONJUNTOS”
Por Ing. María Wanda Sabadini
Introducción
Cotidianamente interactuamos con bases de datos. No sólo al analizar, diseñar o
programar sistemas sino también al extraer dinero del banco, realizar una compra en un
negocio o en el supermercado o, por ejemplo, al realizar búsquedas en Internet.
Las bases de datos pueden llegar a ser grandes repositorios (ver 1 del Glosario) de datos,
pero el problema está en como transformar esos datos con los que contamos, para que
resulten de utilidad al momento de tomar decisiones. Es decir, que esos datos puedan
transformarse en información que será un elemento de gran utilidad para quien las
reciba.
Para la construcción y operatoria de las bases de datos, tanto en los libros especializados
como en las Facultades se utilizan sentencias de un lenguaje de consultas.
Pero de ¿donde provienen esas sentencias?
¿Podemos abstraernos y relacionar los conceptos de bases de datos con los conjuntos
que hemos dado en Matemáticas?
¿Podemos previo al uso de las sentencias de los lenguajes de consultas resolverlas
mediante conjuntos?
Recuperar información, y no sólo datos, es un tema candente al momento de operar con
un Sistema de Información. Es por ello, que el presente trabajo estará enfocado en
explicar el recupero de información existente en una base de datos relacional
combinando este concepto con las operaciones de conjuntos y en responder las
preguntas antes citadas.
Desarrollo
Una base de datos relacional consiste en una colección de relaciones, donde cada
relación tiene un único nombre y estructura. El lenguaje de consultas permitirá
recuperar sus datos a través de sentencias.
La estructura básica de una expresión del lenguaje consiste en tres cláusulas: select,
from y where.
La cláusula select corresponde a la operación proyección del algebra relacional. Es
usada para listar los atributos deseados en el resultado de una consulta.
La clásula from corresponde a la operación del producto cartesiano del álgebra
relacional. Lista las relaciones que se pueden evaluar a través de la expresión.
La cláusula where corresponde a un predicado que cumplirá la función de condición.
Una consulta típica tiene la siguiente forma:
select A1, A2, . . .,An
from r1, r2, . . . , rm
where P
Pero para quien no está muy familiarizado con este lenguaje o incluso para explicar a
quienes se inician en el mismo, como por ejemplo, alumnos de Escuelas Secundarias
Técnicas con orientación informática, sería útil explicárselos desde una visión que no
sea sólo de informática, es por ello que me he planteado los siguientes interrogantes que
serán las HIPOTESIS del presente trabajo.
¿De donde provienen las sentencias de los lenguajes de consulta de bases de datos?
¿Se podría abstraer las sentencias a las operaciones básicas de conjuntos?
¿Cómo se relacionan con el álgebra relacional?
Estos interrogantes serán respondidos a través de una investigación bibliográfica.
Los temas a tratar serán:
 Teoría de conjuntos
 Información
 Bases de datos relacionales
 Operaciones para consultas a una base de datos.
Teoría de Conjuntos
Un conjunto puede ser finito o infinito. Conjuntos finitos son aquellos que constan de elementos, que al
contarlos el proceso puede acabar, por el contrario constituyen conjuntos infinitos.
Daremos algunas definiciones:
 Igualdad de conjuntos
Un conjunto A es igual al conjunto B, si ambos tienen los mismos elementos, es decir,
si cada elemento que pertenece a A, también pertenece al conjunto B. Y cada elemento
que pertenece al conjunto B, también pertenece al conjunto A.
Ejemplos de igualdad de conjuntos:
A={1,2,3,4} B={3,2,1,4}. Son iguales aunque los elementos tengan distinto orden
C={5,6,5,7} D= {5,7,6,7}. Son iguales aunque tengan distintos elementos repetidos,
pero cada elemento de A pertenece a B y cada elemento de B, pertenece a A.
 Conjunto vacío
Es un conjunto que carece de elementos.
 Subconjuntos
Esto se da cuando todos los elementos de un conjunto A pertenecen al conjunto B. es
decir, cuando el conjunto A está incluido en B.
 Conjuntos disyuntos
Se da cuando dos conjuntos A y B no tienen elementos comunes, es decir, ningún
elemento de A está en B y si ningún elemento de B está en A.
 Operaciones fundamentales con conjuntos
Las operaciones fundamentales con conjuntos son: unión, intersección y diferencia de
conjuntos.
Unión
113
La unión de dos conjuntos A y B, es el conjunto de todos los elementos que pertenecen
a A o a B o a ambos. En el diagrama de Venn de la figura 1 podemos ver el resultado
de la operación A
B.
Figura 1
De la unión surgen las siguientes observaciones
A)
es el mismo conjunto que
B) A y B son subconjuntos de
. Es decir
. Es decir
y
Intersección de conjuntos
La intersección de conjuntos es otro conjunto que contiene los elementos que son
comunes a ambos conjuntos. En el diagrama de Venn en la figura 2 Podemos
observarlo
Figura 2
De la intersección de conjuntos surgen las siguientes observaciones:
A)
B) Cada uno de los conjuntos A y B contienen al subconjunto
C) Si
, es decir
no tienen elementos comunes entonces
Diferencia
La diferencia de los conjuntos A y B (A – B), es el conjunto de elementos que
pertenecen a A, pero no a B. En el diagrama de Venn de la figura 3
114
Figura 3
de la diferencia de conjuntos surgen las siguientes observaciones:
A) A – B es subconjunto de A, es decir
B) Los conjuntos (A – B) y (B – A) son disjuntos. Es decir, su intersección es vacía.
Información
Lo primero que tenemos que diferenciar son los siguientes conceptos: dato e
información. Dato es un hecho que puede registrarse, e información son datos
procesados para aportar un conocimiento útil.
Y un Sistema de Información?
La palabra sistema se utiliza en muchos ámbitos distintos: hablamos de sistemas
eléctricos, sistemas de seguridad, sistemas monetarios e inclusive del sistema solar. La
Real Academia Española nos da la siguiente definición: ―un conjunto de cosas que
ordenadamente relacionadas entre sí contribuyen a un determinado objetivo‖.
Y a partir de esta definición podemos distinguir sus elementos principales:
 los componentes del sistema
 las relaciones entre estos componentes, que van a determinar la
estructura del sistema
 el objetivo del sistema
Cuanto más grande y complejo es un sistema, más importante es la comunicación de
información entre sus componentes, para que puedan coordinarse a fin de cumplir con
sus objetivos. Disponer de la información adecuada permite tomar las decisiones
apropiadas para cada situación.
Y aquí viene el gran dilema, que es información? Es lo mismo que los datos? No. Como
lo expresado anteriormente, debemos diferenciarlos. Los datos son los registros de
hechos, acontecimientos, transacciones, mientras que información son los datos
procesados de tal forma que son útiles o significativos para quien va a recibir esa
información. Es decir, esa información va a promover una acción, va a permitir tomar
una decisión mejor, siendo la decisión el paso previo a una acción.
Y esta información, que va a permitir que quien la recibe tome la mejor decisión tiene
ciertas propiedades que la caracterizan, y que son las siguientes:
 es relevante para el propósito de la decisión o el problema considerado.
Si queremos decidir si vendemos o no acciones de una empresa, es
irrelevante la información de la clasificación de la liga italiana de fútbol,
por muy exacta y completa que sea.
 es lo suficientemente precisa, es decir, exacta o con niveles de precisión
mayor con respecto a la realidad, para que podamos confiar en ella.
115
 es lo suficientemente completa para el problema. En la realidad, es raro
poder contar con toda la información relevante para la decisión, pero lo
importante es que la información sobre los elementos clave sea completa.
 se comunica a la persona adecuada para la decisión.
 se comunica a tiempo para que pueda ser útil
 llega al nivel de detalle más adecuado
 es comprensible para el receptor. La información que llega escrita en
una terminología desconocida es poco útil.
Una vez que tenemos los datos almacenados en una base de datos, es necesario poder
procesarlos y recuperarlos para poder obtener información y que esta información
contenga las características antes mencionadas.
¿Pero como recuperamos información de una base de datos?
Ya sea a través de un lenguaje de programación de alto nivel o bien del administrador
de la base de datos, realizaremos consultas para poder recuperarla. Pero antes de entrar
más en detalle pasaremos al siguiente tema.
Bases de datos
Las aplicaciones informáticas de los años sesenta acostumbraban a darse totalmente por
lotes (batch) y estaban pensadas para una tarea muy específica relacionada con muy
pocas entidades tipo.
Cada aplicación (una o varias cadenas de programas) utilizaba ficheros de movimientos
para actualizar (creando una copia nueva) y/o para consultar uno o dos ficheros
maestros o, excepcionalmente, más de dos. Cada programa trataba como máximo un
fichero maestro, que solía estar sobre cinta magnética y, en consecuencia, se trabajaba
con acceso secuencial. Cada vez que se le quería añadir una aplicación que requería el
uso de algunos de los datos que ya existían
y de otros nuevos, se diseñaba un fichero nuevo con todos los datos necesarios (algo
que provocaba redundancia) para evitar que los programas tuviesen que leer muchos
ficheros.
A medida que se fueron introduciendo las líneas de comunicación, los terminales y los
discos, se fueron escribiendo programas que permitían a varios usuarios consultar los
mismos ficheros on-line y de forma simultánea. Más adelante fue surgiendo la
necesidad de hacer las actualizaciones también on-line.
A medida que se integraban las aplicaciones, se tuvieron que interrelacionar sus ficheros
y fue necesario eliminar la redundancia. El nuevo conjunto de ficheros se debía diseñar
de modo que estuviesen interrelacionados; al mismo tiempo, las informaciones
redundantes (como por ejemplo, el nombre y la dirección de los clientes o el nombre y
el precio de los productos), que figuraban
en los ficheros de más de una de las aplicaciones, debían estar ahora en un solo lugar.
El acceso on-line y la utilización eficiente de las interrelaciones exigían estructuras
físicas que diesen un acceso rápido, como por ejemplo los índices, las multilistas, las
técnicas de hashing, etc.
Estos conjuntos de ficheros interrelacionados, con estructuras complejas y compartidos
por varios procesos de forma simultánea (unos on-line y otros por lotes), recibieron al
principio el nombre de Data Banks, y después, a inicios de los años setenta, el de Data
Bases. Aquí los denominamos bases de datos (BD).
116
El software de gestión de ficheros era demasiado elemental para dar satisfacción a todas
estas necesidades. Por ejemplo, el tratamiento de las interrelaciones no estaba previsto,
no era posible que varios usuarios actualizaran datos simultáneamente, etc. La
utilización de estos conjuntos de ficheros por parte de los programas de aplicación era
excesivamente compleja, de modo que, especialmente durante la segunda mitad de los
años setenta, fue saliendo al mercado software más sofisticado: los Data Base
Management Systems, que aquí denominamos Sistemas de Gestión de Bases de Datos
(SGBD).
En otras palabras, una base de datos es un conjunto estructurado de datos que representa
entidades y sus interrelaciones. La representación será única e integrada, a pesar de que
debe permitir utilizaciones varias y simultáneas.
Los ficheros tradicionales y las BD
Aunque de forma muy simplificada, podríamos enumerar las principales diferencias
entre los ficheros tradicionales y las BD tal y como se indica a continuación:
1) Entidades tipos:
• Ficheros: tienen registros de una sola entidad tipo.
• Bases de Datos: tienen datos de varias entidades tipo.
2) Interrelaciones:
• Ficheros: el sistema no interrelaciona ficheros.
• Bases de Datos: el sistema tiene previstas herramientas para interrelacionar
entidades.
3) Redundancia:
• Ficheros: se crean ficheros a la medida de cada aplicación, con todos los datos
necesarios aunque algunos sean redundantes respecto de otros ficheros.
• Bases de Datos : todas las aplicaciones trabajan con la misma BD y la
integración de los datos es básica, de modo que se evita la redundancia.
4) Usuarios
• Ficheros: sirven para un solo usuario o una sola aplicación. Dan una sola visión
del mundo real.
• Bases de Datos : es compartida por muchos usuarios de distintos tipos. Ofrece
varias visiones del mundo real.
Con todo lo que hemos dicho hasta ahora, podríamos definir el término Bases de Datos;
una base de datos de un Sistema de Información es la representación integrada de los
conjuntos de entidades instancia correspondientes a las diferentes entidades tipo del
Sistema de Información y de sus interrelaciones.
Las bases de datos se han convertido en una parte esencial en nuestros tiempos.
Muchas de las actividades que realizamos tienen algún tipo de interacción con ellas, por
ejemplo, si extraemos dinero de los cajeros, si vamos a comprar algún artículo en un
supermercado, o si accedemos a un buscador de Internet.
Resumiendo, ¿que es una base de datos? Es un conjunto de datos relacionados.
Y ¿los datos? Son hechos que pueden registrarse, por ejemplo, la fecha de nacimiento
de una persona, el saldo disponible de una cuenta de banco, los datos personales del
cliente de una farmacia, o por ejemplo, el estado de cuenta del contribuyente de la
Municipalidad de Resistencia.
117
Una base de datos tiene las siguientes propiedades implícitas:
 Representa algún aspecto del mundo real
 Es una colección coherente de datos que tienen algún significado
 Se diseña y construye para un propósito en especial.
Un Sistema Administrador de Bases de Datos (o su sigla en inglés DBMS, de Data
Bases Management System) es una colección de programas que permite a quienes lo
usan crear y mantener una base de datos. Es un software que permite la definición,
construcción y manipulación de los datos para ser usados por las aplicaciones
informáticas.
En este trabajo trataremos las bases de datos relacionales.
Este modelo usa los conceptos de relaciones matemáticas. Representa la base de datos
como un conjunto de relaciones, donde cada relación es una tabla con un conjunto de
valores y donde cada fila de la tabla representa una colección de valores de datos
relacionados.
Por ejemplo, la tabla a la que llamaremos EMPLEADOS (figura 3), en donde
registraremos los datos de los empleados de una empresa, cada fila de la tabla
representará una colección de datos relacionados referentes a un empleado en particular.
Figura 3
El nombre de la tabla y los nombres de las columnas se utilizan para ayudar a interpretar
el significado de los valores en cada fila. En la figura 3 mostramos los datos de los
empleados de la empresa, es por eso conveniente llamar a la tabla EMPLEADOS y en
cada columna colocamos los nombres de los datos que queremos guardar.
Por convención, utilizaremos las mayúsculas para indicar el nombre de las tablas.
Todos los valores de una columna son del mismo tipo de datos. El tipo de datos describe
el tipo de valores que pueden aparecer en la columna (llamdo también el dominio), por
ejemplo, en la columna DNI aparecerán números, en la columna Nombre aparecerán
cadenas de caracteres y así en cada una de ellas.
El dominio es un conjunto de valores atómicos. Por atómico queremos expresar que
cada valor es indivisible.
El dominio para la columna DNI podría ser el conjunto de numéros de documentos, de
hasta 8 dígitos.
El tipo de datos o formato se especifica también para cada dominio.
En el modelo relacional, cada tabla puede expresarse por un esquema de relación. Este
esquema que llamaremos R, se denota como R (A1, A2, . . ., An), donde R es el nombre
de la relación y entre paréntesis se coloca la lista de atributos que componen la relación.
El grado de la relación es el número de atributos que la componen.
Siguiendo el ejemplo, la relación EMPLEADO, se expresaría EMPLEADO (DNI,
Nombre, Apellido, Dirección, Fecha de nacimiento) y sería de grado 5.
118
Una relación se define como un conjunto de tuplas, donde cada tupla corresponde a una
fila, y para la relación EMPLEADO serían los datos de un empleado en particular.
Matemáticamente, los elementos de un conjunto no tienen un orden entre ellos, y las
tuplas en una relación tampoco. Sin embargo, en un archivo, los registros físicamente se
almacenan en disco, por lo que existirá un orden entre los mismos. Este orden indica el
primero, el segundo, el enésimo, hasta el último de los registros en el archivo. De forma
similar, cuando mostramos una relación como una tabla, las filas se mostrarán en un
cierto orden.
Veamos la siguiente notación:
 Un esquema de relación R de grado n se expresa de la forma R (A1, A2, . . .,
An).
 Una tupla en una relación r (R) se expresa de la forma t = <v1, v2, . . ., vn>,
donde vi es el valor correspondiente al atributo Ai.
Modelo Relacional
El modelo relacional es un modelo de datos y, como tal, tiene en cuenta los tres
aspectos siguientes de los datos:
1) La estructura, que debe permitir representar la información que nos interesa del
mundo real.
2) La manipulación, a la que da apoyo mediante las operaciones de actualización y
consulta de los datos.
3) La integridad, que es facilitada mediante el establecimiento de reglas de integridad;
es decir, condiciones que los datos deben cumplir.
El principal objetivo del modelo de datos relacional es facilitar que la base de datos sea
percibida o vista por el usuario como una estructura lógica que consiste en un conjunto
de relaciones y no como una estructura física de implementación.
Esto ayuda a conseguir un alto grado de independencia de los datos.
El modelo relacional proporciona una estructura de los datos que consiste en un
conjunto de relaciones con objeto de representar la información que nos interesa del
mundo real.
La estructura de los datos del modelo relacional se basa, pues, en el concepto de
relación.
Un dominio D es un conjunto de valores atómicos. Por lo que respecta al modelo
relacional, atómico significa indivisible; es decir, que por muy complejo o largo que sea
un valor atómico, no tiene una estructuración interna para un SGBD relacional.
Los dominios pueden ser de dos tipos:
1) Dominios predefinidos, que corresponde a los tipos de datos que normalmente
proporcionan los lenguajes de bases de datos, como por ejemplo los enteros, las cadenas
de caracteres, los reales, etc.
2) Dominios definidos por el usuario, que pueden ser más específicos. Toda definición
de un dominio debe constar, como mínimo, del nombre del dominio y de la descripción
de los valores que forman parte de éste.
La obtención de los datos que responden a una consulta puede requerir el análisis y la
extracción de datos de una o más de las relaciones que mantiene la base de datos.
119
Según la forma como se especifican las consultas, podemos clasificar los lenguajes
relacionales en dos tipos:
1) Lenguajes basados en el álgebra relacional. El álgebra relacional se inspira en la
teoría de conjuntos. Si queremos especificar una consulta, es necesario seguir uno o más
pasos que sirven para ir construyendo, mediante operaciones del álgebra relacional, una
nueva relación que contenga los datos que responden a la consulta a partir de las
relaciones almacenadas. Los lenguajes basados en el álgebra relacional son lenguajes
procedimentales, ya que los pasos que forman la consulta describen un procedimiento.
2) Lenguajes basados en el cálculo relacional. El cálculo relacional tiene su fundamento
teórico en el cálculo de predicados de la lógica matemática. Proporciona una notación
que permite formular la definición de la relación donde están los datos que responden la
consulta en términos de las relaciones almacenadas. Esta definición no describe un
procedimiento; por lo tanto, se dice que los lenguajes basados en el cálculo relacional
son lenguajes declarativos (no procedimentales).
El lenguaje SQL, en las sentencias de consulta, combina construcciones del álgebra
relacional y del cálculo relacional con un predominio de las construcciones del cálculo.
Este predominio determina que SQL sea un lenguaje declarativo.
El estudio del álgebra relacional presenta un interés especial, pues ayuda a entender qué
servicios de consulta debe proporcionar un lenguaje relacional, facilita la comprensión
de algunas de las construcciones del lenguaje SQL y también sirve de base para el
tratamiento de las consultas que efectúan los SGBD (Sistemas Administradores de
Bases de datos) internamente.
Este último tema queda fuera del ámbito del presente curso, pero es necesario para
estudios más avanzados sobre bases de datos
Una vez visto los conceptos principales para las bases de datos, vamos a hablar de las
operaciones básicas del álgebra relacional.
Operaciones del Algebra Relacional
El álgebra relacional se inspira en la teoría de conjuntos para especificar consultas en
una base de datos relacional.
Para especificar una consulta en álgebra relacional, es preciso definir uno o más pasos
que sirven para ir construyendo, mediante operaciones de álgebra relacional, una nueva
relación que contenga los datos que responden a la consulta a partir de las relaciones
almacenadas. Los lenguajes basados en el álgebra relacional son procedimentales, dado
que los pasos que forman la consulta describen un procedimiento.
La visión que presentaremos es la de un lenguaje teórico y, por lo tanto, incluiremos
sólo sus operaciones fundamentales, y no las construcciones que se podrían añadir a un
lenguaje comercial para facilitar cuestiones como por ejemplo el orden de presentación
del resultado, el cálculo de datos agregados, etc.
Una característica destacable de todas las operaciones del álgebra relacional es que tanto
los operandos como el resultado son relaciones. Esta propiedad se denomina cierre
relacional.
Las operaciones del álgebra relacional han sido clasificadas según distintos criterios; de
todos ellos indicamos los tres siguientes:
1) Según se pueden expresar o no en términos de otras operaciones.
120
a) Operaciones primitivas: son aquellas operaciones a partir de las cuales
podemos definir el resto. Estas operaciones son la unión, la diferencia, el producto
cartesiano, la selección y la proyección.
b) Operaciones no primitivas: el resto de las operaciones del álgebra
relacional que no son estrictamente necesarias, porque se pueden expresar en términos
de las primitivas; sin embargo, las operaciones no primitivas permiten formular algunas
consultas de forma más cómoda. Existen distintas versiones del álgebra relacional,
según las operaciones no primitivas que se incluyen.
2) Según el número de relaciones que tienen como operandos:
a) Operaciones binarias: son las que tienen dos relaciones como operandos.
Son binarias todas las operaciones, excepto la selección y la proyección.
b) Operaciones unarias: son las que tienen una sola relación como operando.
La selección y la proyección son unarias.
3) Según se parecen o no a las operaciones de la teoría de conjuntos:
a) Operaciones conjuntistas: son las que se parecen a las de la teoría de
conjuntos. Se trata de la unión, la intersección, la diferencia y el producto cartesiano.
b) Operaciones específicamente relacionales: son el resto de las operaciones;
es decir, la selección, la proyección y la combinación.
** EJEMPLO: Supongamos que tenemos una base de datos relacional con las cuatro
relaciones siguientes:
1) La relación EDIFICIOS_EMP, que contiene datos de distintos edificios de los que
una empresa dispone para desarrollar sus actividades.
2) La relación DESPACHOS, que contiene datos de cada uno de los despachos que hay
en los edificios anteriores.
3) La relación EMPLEADOS_ADM, que contiene los datos de los empleados de la
empresa que llevan a cabo tareas administrativas.
4) La relación EMPLEADOS_PROD, que almacena los datos de los empleados de la
empresa que se ocupan de tareas de producción.
A continuación describimos los esquemas de las relaciones anteriores y sus extensiones
en un momento determinado:
Esquema y extensión de EDIFICIOS_EMP (figura 4):
Figura 4
Esquema y extensión de DESPACHOS (figura 5)
121
Figura 5
Esquema y extensión de EMPLEADOS_ADM (figura 6):
Figura 6
Esquema y extensión de EMPLEADOS_PROD (figura 7):
Figura 7
Se considera que los valores nulos de los atributos edificiodesp y númerodesp de las
relaciones EMPLEADOS_PROD y EMPLEADOS_ADM indican que el empleado
correspondiente no tiene despacho. Estas operaciones permiten a quien las usa obtener
respuesta. Esta respuesta consiste en otra relación, que puede estar formada por una o
más relaciones.
Las operaciones del algebra relacional se dividen en dos grupos. Un grupo que incluye
las operaciones basadas en la teoría de conjuntos (y esto es aplicable, porque cada
relación se define como un conjunto de tuplas). Estas operciones son Unión,
122
Intersección, Diferencia y Producto cartesiano. El otro grupo consiste en operaciones
desarrolladas específicamente para las bases de datos relacionales y son: Select, Project
y Join, que veremos a continuación.
La operación SELECT
Se utiliza para seleccionar un subconjunto de tuplas de una relación que satisfagan una
condición. Podemos considerarla como el filtro que muestra sólo aquellas tuplas que
cumplen la condición.
Por ejemplo, para seleccionar las tuplas de EMPLEADOS que trabajan en el
departamento 4, o, aquellos que tienen un salario mayor a $2.000, podríamos utilizar la
operación SELECT de la siguiente forma
dpto=4
(EMPLEADOS)
salario>2000 (EMPLEADOS)
Se denota generalmente por
<condición de selección>(R)
donde el símbolo
(sigma) es usado como operador SELECT, y la condición es una
operación booleana sobre los atributos de la relación R.
Y el resultado de esta operación tiene los mismos atributos de R.
Podemos colocar como condición de esta operación, cláusulas que estén conectadas
por operadores booleanos, como ser AND, OR y NOT.
Por ejemplo, para seleccionar los empleados que trabajen en el departamento 4 y cuyo
salario sea mayor a $2.000, la operación SELECT sería como sigue
(dpto=4) AND (salario>2000) (EMPLEADOS)
Al evaluarse la condición, las tuplas que la cumplan serán devueltas.
Las condiciones booleanas serán evaluadas de la siguiente forma:
• (cond1 AND cond2) es verdadero si ambas (cond1) y (cond2) son verdaderas, caso
contrario es falso.
• (cond1 OR cond2) es verdadera si (cond1) o (cond2) o ambas son verdaderas, caso
contrario es falsa.
• (NOT cond) es verdadera cuando cond es falso. Caso contrario es falso.
El operador SELECT es unario, es decir que puede aplicarse a una sola relación y el
resultado de la operación devolverá una relación que tendrá el mismo grado que la
relación R. El número de tuplas devuelta será igual o menor que el número de tuplas de
R.
123
También es conmutativa:
<cond1>(
<cond2>(R)) =
<cond2>(
<cond1>(R))
La operación PROJECT
Si pensamos en una relación como en una tabla, la operación SELECT, selecciona
algunas filas y descarta otras. La operación PROJECT, selecciona columnas de la tabla
y descarta otras.
Por ejemplo, para listar los nombres y apellidos de los empleados, utilizaríamos la
operación PROJECT de la siguiente forma:
nombre, apellido
(EMPLEADO)
La forma de esta operación es
<lista de atributos>(R)
Donde
es el símbolo que se usa para representar la operación PROJECT.
La operación JOIN
Esta operación se utiliza para combinar tuplas de dos relaciones en una. Esta operación
es muy importante para cualquier base de datos relacional porque permite procesar
relaciones entre tablas.
Por ejemplo, si en una relación tengo los datos de los empleados y en otra relación
tengo los registros de inasistencia al trabajo, podría obtener a través de la combinación
de ambas relaciones, cuales son los empleados que más faltaron, o cuales faltaron en
una determinada época del año.
La notación sería la siguiente R (A1, A2, . . ., An) y S(B1, B2, . . ., Bm):
R<condición del join>S
El resultado de JOIN es una relación con n + m atributos Q (A1, A2, . . ., An, B1, B2, . .
., Bm) en ese orden. Q va a tener una tupla para cada combinación de tuplas—una de R
y la otra de S— siempre que se satisfaga la condición del join. Esta operación es
diferente del producto cartesiano, y la principal diferencia consiste en que la operación
JOIN sólo combina las tuplas que satisfacen la condición del JOIN, mientras que con el
PRODUCTO CARTESIANO, todas las combinaciones de tuplas son incluídas en el
resultado.
Operaciones basadas en conjuntos
Unión
Se denota por R U S, siendo el resultado de esta operación una relación que incluye
todas las tuplas que están en R o en S o en ambas. Las duplicadas se eliminan.
124
Intersección
Se denota por R ∩ S, siendo el resultado de esta operación todas las tuplas que están en
R y en S.
Diferencia
Se denota por R – S: todas las tuplas que están en R pero que no están en S.
Veamos un ejemplo.
Tenemos las relaciones R1 que tiene los datos de estudiantes de Medicina, y la relación
R2 que son instructores de natación.
Gráficamente, en la figura 8 tenemos una tabla por cada relación con sus atributos.
R1 (ESTUDIANTES)
R2 (INSTRUCTORES
Nombre
Apellido
Nombre
Apellidos
Susana
Gomez
Juan
Spinelli
Ramón
Hernandez
Ricardo
Downie
Juan
Estevanez
Susana
Gomez
Bárbara
Gimenez
Francisco
Espinola
Anita
Foresta
Ramón
Hernandez
Ernesto
Gutierrez
Yolanda
Martinez
Figura 8
Si utilizaramos la operación Unión entre R1 y R2 (figura 9 ), tendríamos :
R1 U R2
Nombre
Apellido
Susana
Gomez
Ramón
Hernandez
Juan
Estevanez
Bárbara
Gimenez
Figura 9
Con la operación Intersección entre R1 y R2 (figura 10), tendríamos:
125
R1 ∩ R2
Nombre
Apellido
Susana
Gomez
Ramón
Fernandez
Figura 10
Con la operación Diferencia (figura 11) :
R2 – R1
R1 - R2
Nombre
Apellido
Nombre
Apellidos
Juan
Estevanez
Juan
Spinelli
Bárbara
Gimenez
Ricardo
Downie
Anita
Foresta
Francisco
Espinola
Ernesto
Gutierrez
Yolanda
Martinez
Figura 11
Las operaciones UNION, INTERSECCION, DIFERENCIA Y DIVISIÓN son
operaciones binarias, es decir, se pueden aplicar a dos conjuntos. Cuando estas
operaciones son adaptadas a las bases de datos relacionales, las dos relaciones sobre las
que se quieren aplicar estas operaciones deben ser unión compatibles, es decir, tienen
que tener el mismo grado (deben tener la misma cantidad de atributos y el i-ésimo
atributo de la primer relación y el i-ésimo atributo de la segunda relación deben tener el
mismo dominio, no necesariamente el mismo nombre).
Utilizando los esquemas mencionados en ** EJEMPLO (página 13), mostraremos
como podemos utilizar las operaciones de conjuntos y el álgebra relacional para resolver
consultas:
La unión de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD proporciona
una nueva relación que contiene tanto a los empleados de administración como los
empleados
de
producción;
se
indicaría
así:
EMPLEADOS_ADM
U
EMPLEADOS_PROD.
Sólo tiene sentido aplicar la unión a relaciones que tengan tuplas similares.
126
Por ejemplo, se puede hacer la unión de las relaciones EMPLEADOS_ADM y
EMPLEADOS_PROD porque sus tuplas se parecen. En cambio, no se podrá hacer la
unión de las relaciones EMPLEADOS_ADM y DESPACHOS porque en las tablas, las
tuplas respectivas son de tipo diferente.
Más concretamente, para poder aplicar la unión a dos relaciones, es preciso que las dos
relaciones sean compatibles. Decimos que dos relaciones T y S son relaciones
compatibles si:
Tienen el mismo grado.
• Se puede establecer una biyección entre los atributos de T y los atributos de S que hace
corresponder a cada atributo Ai de T un atributo Aj de S, de modo que se cumple que
dominio(Ai) = dominio(Aj).
Ejemplo de relaciones compatibles
Las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD tienen grado 5. Podemos
establecer la siguiente biyección entre sus atributos:
• A DNI de EMPLEADOS_ADM le corresponde DNIemp de EMPLEADOS_PROD.
• A nombre de EMPLEADOS_ADM le corresponde nombreemp de
EMPLEADOS_PROD.
• A apellido de EMPLEADOS_ADM le corresponde apellidoemp de
EMPLEADOS_PROD.
• A edificiodesp de EMPLEADOS_ADM le corresponde edificiodesp de
EMPLEADOS_PROD.
• A númerodesp de EMPLEADOS_ADM le corresponde edificiodesp de
EMPLEADOS_PROD.
Además, supondremos que los dominios de sus atributos se han declarado de forma que
se cumple que el dominio de cada atributo de EMPLEADOS_ADM sea el mismo que el
dominio de su atributo correspondiente en EMPLEADOS_PROD.
Por todos estos factores, podemos llegar a la conclusión de que EMPLEADOS_ADM y
EMPLEADOS_PROD son relaciones compatibles.
A continuación, pasaremos a definir los atributos y la extensión de la relación resultante
de una unión.
Los atributos del esquema de la relación resultante de T U S coinciden con los
atributos del esquema de la relación T.
La extensión de la relación resultante de T U S es el conjunto de tuplas que pertenecen
a la xtensión de T, a la extensión de S o a la extensión de ambas relaciones.
Ejemplo de unión
Si queremos obtener una relación R que tenga a todos los empleados de la empresa del
ejemplo anterior, llevaremos a cabo la unión de las relaciones EMPLEADOS_ADM y
EMPLEADOS_PROD de la forma siguiente:
R := EMPLEADOS_ADM U EMPLEADOS_PROD.
Entonces la relación R resultante será la reflejada en la tabla siguiente (figura 12)
127
Figura 12
El hecho de que los atributos de la relación resultante coincidan con los atributos de la
relación que figura en primer lugar en la unión es una convención; teóricamente,
también habría sido posible convenir que coincidiesen con los de la relación que figura
en segundo lugar.
La intersección de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD obtiene
una nueva relación que incluye a los empleados que son al mismo tiempo de
administración y de producción: se indicaría como EMPLEADOS_ADM
EMPLEADOS_PROD.
La intersección, como la unión, sólo se puede aplicar a relaciones que tengan tuplas
similares. Para poder hacer la intersección de dos relaciones, es preciso, pues, que las
relaciones sean compatibles.
A continuación definiremos los atributos y la extensión de la relación resultante de una
intersección.
Los atributos del esquema de la relación resultante de T
S coinciden con los
atributos del esquema de la relación T.
La extensión de la relación resultante de T
S es el conjunto de tuplas que pertenecen
a la extensión de ambas relaciones.
Ejemplo de intersección
Si queremos obtener una relación R que incluya a todos los empleados de la empresa del
ejemplo que trabajan tanto en administración como en producción, realizaremos la
intersección de las relaciones EMPLEADOS_ADM y EMPLEADOS_PROD de la forma
siguiente:
R : = EMPLEADOS_ADM
EMPLEADOS_PROD (figura 13).
128
Figura 13
Si queremos obtener una relación R con todos los empleados de la empresa del ejemplo
que trabajan en administración, pero no en producción, haremos la diferencia de las
relaciones EMPLEADOS_ADM y EMPLEADOS_PROD de la forma siguiente:
R := EMPLEADOS_ADM – EMPLEADOS_PROD
Entonces la relación R resultante será (figura 14):
Figura 14
El producto cartesiano es una operación que, a partir de dos relaciones, obtiene una
nueva relación formada por todas las tuplas que resultan de concatenar tuplas de la
primera relación con tuplas de la segunda.
El producto cartesiano es una operación binaria. Siendo T y S dos relaciones que
cumplen que sus esquemas no tienen ningún nombre de atributo común, el producto
cartesiano de T y S se indica como T * S.
Si calculamos el producto cartesiano de EDIFICIOS_EMP y DESPACHOS,
obtendremos una nueva relación que contiene todas las concatenaciones posibles de
tuplas de EDIFICIOS_EMP con tuplas de DESPACHOS.
Si se quiere calcular el producto cartesiano de dos relaciones que tienen algún nombre
de atributo común, sólo hace falta redenominar previamente los atributos adecuados de
una de las dos relaciones.
El producto cartesiano de las relaciones DESPACHOS y EDIFICIOS_EMP del ejemplo
se puede hacer como se indica (es necesario redenominar atributos previamente):
EDIFICIOS(nombreedificio,
supmediadesp)
:=
EDICIOS_EMP(edificio,
supmediadesp).
R := EDIFICIOS * DESPACHOS.
Entonces, la relación R resultante será (figura 15):
129
Figura 15
Para obtener el nombre y el apellido de los empleados, tanto de administración como de
producción, es necesario hacer una unión de EMPLEADOS_ADM y
EMPLEADOS_PROD, y después hacer una proyección sobre los atributos nombre y
apellido. La operación se puede expresar de las formas siguientes:
a) Se puede utilizar una sola expresión:
R := (EMPLEADOS_ADM U EMPLEADOS_PROD) [nombre, apellido].
b) O bien podemos expresarlo en dos pasos:
• EMPS := EMPLEADOS_ADM U EMPLEADOS_PROD;
• R :=
EMPS(nombre, apellido)
En los casos en que una consulta requiere efectuar muchas operaciones, resulta más
sencilla la segunda alternativa, porque evita expresiones complejas
Otros ejemplos de consultas formuladas con secuencias de operaciones
Veamos algunos ejemplos de consultas en la base de datos formuladas con secuencias
de operaciones del álgebra relacional.
1) Para obtener el nombre del edificio y el número de los despachos situados en
edificios en los que la superficie media de estos despachos es mayor que 12, podemos
utilizar la siguiente secuencia de operaciones:
• A := EDIFICIOS_EMP(supmediadesp > 12);
• B := DESPACHOS * A;
• R :=
B(edificio, número)
130
2) Supongamos ahora que se desea obtener el nombre y el apellido de todos los
empleados (tanto de administración como de producción) que están asignados al
despacho 120 del edificio Marina. En este caso, podemos utilizar la siguiente secuencia:
• A := EMPLEADOS_ADM U EMPLEADOS_PROD;
• B := A(edificiodesp = Marina y númerodesp = 120);
• R := B(nombre, apellido).
3) Si queremos consultar el nombre del edificio y el número de los despachos que
ningún
empleado de administración tiene asignado, podemos utilizar esta secuencia:
• A := DESPACHOS (dificio, número);
• B := EMPLEADOS_ADM(edificiodesp, númerodesp);
• R := A – B.
Conclusión
El álgebra relacional proporciona un conjunto de operaciones para manipular
relaciones. Estas operaciones se pueden clasificar de la forma siguiente:
a) Operaciones conjuntistas: unión, intersección, diferencia y producto cartesiano.
b) Operaciones específicamente relacionales: selección, proyección y combinación.
Y estas operaciones del álgebra relacional pueden formar secuencias que permiten
resolver consultas complejas en una base de datos.
Partiendo de conceptos básicos en matemáticas como ser la teoría de conjuntos
podemos resolver problemas tan complejos como el recupero de información de una
base de datos, con sólo abstraer e imaginar cada una de nuestras tablas como conjuntos
y aplicarles operaciones de álgebra relacional, siendo mucho más sencillo la
interpretación de las sentencias de los lenguajes de consulta a bases de datos.
Es una forma muy sencilla de explicar como obtener información de una base de datos,
relacionando conceptos y disciplinas.
El recupero de información de una base de datos no es sólo un problema del campo
informático, sino, porque haciendo uso del modelo de la transdiciplinaridad los grandes
problemas son transversales, transnacionales, múltiples, multidimensionales,
transdisciplinarios.
Esta forma de tratar el recupero de la información pretende mostrar que podemos
reformular nuestra forma de conocimiento, evolucionando, para poder resolver los
problemas no sólo desde el punto de vista de una disciplina, sino abriendo todas las
disciplinas para ver que tienen en común, entrelazándolas y generando nuevas formas
de organizar y producir conocimiento.
131
Bibliografía
 Análisis y diseño detallado de Aplicaciones informáticas de Gestión – Mario G.
Piattini. José A. Calvo-Manzano. Joaquín Cervera. Luis Fernández.Enero de
2000. Publicado por Alfaomega Grupo Editor.
 Database System Concepts, Fourth Edition. Silberschatz−Korth−Sudarshan.
Foxit Software Company – 2004.
 Fundamentals of Database Systems
Versaware Inc. and its licensors
- ElMasri Navathe –. Copyright 2001
 Segunda Clase: Qués es investigar? Profesora Viviana Polisena. Posgrado en
Metodología de la Investigación Científica. Universidad Nacional del Nordeste.
Facultad de Ingeniería.
 Teoría de conjuntos y temas afines – Seymour Lipschutz, Ph. D – McGraw Hill
132
113
114
115
116
117
Descargar