Revista del Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, Cuba REVISTA CUBANA DE INGENIERÍA Vol. I, No. 3, 2010 septiembre-diciembre DIRECTOR Y EDITOR TÉCNICO Dr. Gonzalo González Rey Vicerrectoría de Investigación y Posgrado Instituto Superior Politécnico José Antonio Echeverría, Cujae e-mail: [email protected] MIEMBROS DEL COMITÉ EDITORIAL Dr. José Pérez Lazo Vicedecano de Investigación. Facultad de Ingeniería Civil e-mail:[email protected] Dr. Alejandro Cabrera Sarmiento Vicedecano de Investigación. Facultad de Ingeniería Eléctrica e-mail:[email protected] Dr. Orestes Llanes Santiago Vicerrector de Investigación y Posgrado e-mail:[email protected] Dr. Rafael Antonio Pardo Gómez Director del Centro de Investigaciones Hidráulicas e-mail:[email protected] Dra. Maria Sonia Fleitas Triana Vicedecana de Investigación. Facultad de Ingeniería Industrial e-mail:[email protected] Dr. Alejandro Rosete Suárez Vicedecano de Investigación. Facultad de Ingeniería Informática Dra. Elsa Magdalena Herrero Tunis Centro de Referencia de Enseñanza Avanzada e-mail:[email protected] Dr. José Ricardo Díaz Caballero Dirección de Marxismo Leninismo e-mail:[email protected] REVISORES INVITADOS Ing. Omar E. Mayer. Universidad de Buenos Aires. Argentina Ing. Eduardo Peón Avés. Centro de Biomateriales. Universidad de La Habana. Dr. Osvaldo Cuesta Santos Instituto de Meteorología, CITMA, La Habana EDITOR EJECUTIVO Yusnier Ferrer Granado Jefe de Departamento de Ediciones y Gabinete de Comunicación e-mail:[email protected] e-mail:[email protected] Dr. Osvaldo Gozá León Facultad de Ingeniería Química e-mail:[email protected] Dra. Tania Rodríguez Moliner Vicedecana de Investigación.Facultad de Ingeniería Mecánica e-mail:[email protected] Dra. Agnes Sarolta Nagy Szonjas Centro de Investigación de Microelectrónica e-mail:[email protected] Dra. Nilda Caballero Stevens Unidad Docente Metalurgia EDITORA Lic. Mayra Arada Otero e-mail:[email protected] DISEÑO DE CUBIERTA Alex Álvarez Martínez e-mail:[email protected] DISEÑO INTERIOR Yaneris Guerra Turró e-mail:[email protected] e-mail:[email protected] e-mail:[email protected] COMPOSICIÓN COMPUTARIZADA Y REALIZACIÓN Maritza Rodríguez Rodríguez e-mail:[email protected] Dra. Luz del Alba Raña González Directora de Ingeniería del Transporte. Facultad de Ingeniería Mecánica REVISORA DE TEXTOS EN INGLÉS Clementine Simson Dr. Leonardo Goyos Pérez Facultad de Ingeniería Mecánica e-mail:[email protected] Dr. Ramón González Caraballo Director de Geociencias. Facultad de Ingeniería Civil e-mail:[email protected] Dr. Ángel Regueiro Gómez Departamento de Ingeniería Biomédica. Facultad de Ingeniería Eléctrica e-mail:[email protected] La correspondencia puede dirigirse a: Revista Cubana de Ingeniería Calle 114, No. 11901, e/ 119 y 127, Apartado 6028, Cujae, C.P.: 11901, Marianao, Ciudad de La Habana, Cuba. e-mail:[email protected] Nuestra Revista pueder ser visitada a través del sitio web: http://rci.cujae.edu.cu PROPÓSITOS Y ALCANCE VISIÓN La Revista Cubana de Ingeniería se propone contribuir a la comunicación entre los profesionales de la ingeniería y se concibe como un foro en el que se presentan artículos científico-técnicos en las variadas áreas de la ingeniería, con un destaque de resultados novedosos y aportes de relevancia para la profesión. De esta manera, la revista se propone contribuir a la actualización de profesionales, investigadores, profesores y estudiantes de ingeniería, a la discusión científica nacional e internacional y, por consiguiente, al desarrollo tecnológico y científico de Cuba en el área de la ingeniería. PÚBLICO La Revista Cubana de Ingeniería se dirige especialmente a la comunidad académica y científica, nacional e internacional, centrada en el tema de la ingeniería. Ingenieros, investigadores, profesores o gerentes que trabajen en alguna de las ramas de la ingeniería o en cualquier ciencia o tecnología afín constituyen el universo de lectores y contribuyentes de la revista. TEMÁTICA Y ALCANCE DE LA REVISTA Una lista, que no pretende ser completa, de los temas de interés para la revista incluye contenidos en la solución de problemas, aplicaciones y desarrollo de la ingeniería civil, eléctrica, electrónica, hidráulica, industrial, informática, química, mecánica, mecatrónica y metalúrgica, además de contenidos asociados con la ingeniería de materiales, bioingeniería, transporte, geofísica, reingeniería y mantenimiento. También se consideran apropiados, artículos orientados a la formación de las nuevas generaciones de ingenieros, incluidos los programas de estudio, las tecnologías educativas, la informática aplicada, la gerencia universitaria y las relaciones universidadindustria. Puesto que la práctica de la ingeniería obliga cada vez más a la interacción de sus diversas disciplinas, esta revista le asigna la primera prioridad de publicación a los artículos donde se preste atención a la integración multidisciplinaria, a los desarrollos interdisciplinarios y a las aplicaciones prácticas. A fin de asegurar una alta calidad del contenido, todos los trabajos publicados serán arbitrados. REVISTA CUBANA CUBANA REVISTA DE INGENIERÍA INGENIERÍA DE SUMARIO/CONTENTS Vol. I, No. 3, 2010 Tres números al año EDITORIAL 04 BIOINGENIERÍA INGENIERÍA HIDRÁULICA IMPORTANCIA DE LOS MODELOS DIGITALES DEL TERRENO EN LA SIMULACIÓN HIDRÁULICA DE INUNDACIONES / IMPORTANCE OF DIGITALS MODELS OF SOIL SURFACE IN THE F LOODING HYDRAULIC SIMULATION 51 SISTEMA DE PESQUISAJE AUDITIVO EN RECIÉN NACIDOS BASADO EN EMISIONES OTOACÚSTICAS/ NEWBORN HEARING SCREENING SYSTEM B ASED ON OTOACUSTIC EMISSIONS 05 Anders Pérez Brugal Juan F. Weber Yaismil R. Castellanos Juliet Sánchez Galego Ernesto Rodríguez Dávila Ángel Regueiro Gómez HEMODINÁMICA DE ANEURISMAS DE AORTA ADBOMINAL Y CARACTERIZACIÓN MORFOMÉTRICA COMO POSIBLE / HEMODYNAMICS OF ABDOMINAL AORTIC ANEURYSM AND MORPHOMETRYC CHARACTERIZATION AS A POSSIBLE INDICATOR OF RUPTURE 15 INDICADOR DE RUPTURA INGENIERÍA INFORMÁTICA ESTIMACIÓN DE PARÁMETROS METEOROLÓGICOS SECUNDARIOS UTILIZANDO TÉCNICAS DE MINERÍA DE /ESTIMATION OF SECONDARY M ETEOROLOGICAL P ARAMETERS U S ING M INING D ATA T ECHNIQUES 61 DATOS Guillermo Vílalta Alonso Félix Nieto Melchor Rodríguez Madrigal Laurentiu Lipsa Joan O´ Connor Blanco SIMULACIÓN DE ANTORCHA DE PLASMA / SIMULATION OF PLASMA TORCHE 25 Rosabel Zerquera Díaz Ayleen Morales Montejo Gil Cruz Lemus Alejandro Rosete Suárez INGENIERÍA MECÁNICA MODELO INTEGRAL DE LA ESTRUCTURA MÓVIL DE UNA MÁQUINA LIMPIA-PLAYA / INTEGRAL MODEL OF SANDCLEANING MACHINE STRUCTURE 67 Javier García de la Figal Abel Fumero Pérez René Collazo Carceller Clodomiro Álves Junior María Eugenia García Domínguez DISEÑO RACIONAL DE ENGRANAJES CILÍNDRICOS INGENIERÍA ELÉCTRICA ORIENTADO A AUMENTAR EFICIENCIA Y DISMINUIR / RATIONAL DESIGN OF SPUR GEARS DIRECTED TO INCREASE EFFICIENCY AND DECREASE LOSS BY FRICTION 73 PÉRDIDAS POR FRICCIÓN APLICACIÓN PRÁCTICA DEL ANÁLISIS DE RIESGO POR RAYO UTILIZANDO LÓGICA DIFUSA/ A PPLICATION OF FUZZY LOGIC IN THE A NALYSIS OF LIGHTNING R ISK 31 Gonzalo González Rey Alejandra García Toll María Eugenia García Domínguez Yelennis Godoy Valladares Olga Susana Suárez Hernández CALIDAD DE LA ENERGÍA Y GENERACIÓN DISTRIBUIDA EN CUBA /ELECTRIC POWER QUALITY AND DISTRIBUTED GENERATION IN C UBA 41 Marielys Francisco Fernández Raúl Díaz Fuentes Miguel Castro Fernández Ángel Costa Montiel PROBLEMAS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA PENSAR LA INGENIERÍA / THINKING THE E NGINEERING 83 11 José Ricardo Díaz Caballero Sandra Isaac Borrero EDITORIAL ..................................................................................................... Con la publicación de este número, Revista Cubana de Ingeniería cumple su primer año de vida con la satisfacción de haber logrado, en alguna medida, el propósito sustentador de nuestra publicación, asociado a su decidida contribución de divulgar aportes novedosos del trabajo científico, innovador y académico en los amplios temas de la ingeniería moderna, con un particular destaque de resultados de los profesionales y académicos cubanos. Por tal motivo, Revista Cubana de Ingeniería ha querido, en este tercer número del volumen inaugural, compilar un conjunto de artículos que revelan el quehacer científico y aportes teórico–prácticos de profesores de los centros universitarios del Ministerio de Educación Superior de Cuba en temas de ingeniería biomédica, mecánica, hidráulica e informática. Sin lugar a dudas, en el marco de las actividades por el 46 aniversario de la fundación del Instituto Superior Politécnico José Antonio Echeverría, otras evidencias reveladoras de los importantes aportes de la comunidad de profesores cubanos de las facultades de ingeniería del país podrán ser compartidas en la próxima celebración de la 15 Convención Científica de Ingeniería y Arquitectura. Como en anteriores convenciones, entre el 29 de noviembre y el 3 de diciembre del presente año, se espera que esta nueva edición del evento sea un foro para los especialistas vinculados a la actividad general de la ingeniería en todas sus vertientes y el espacio propicio para intercambiar experiencias y aunar esfuerzos en la búsqueda de soluciones integrales adaptadas al entorno cubano. De esta forma, y con el ánimo de contribuir al objetivo primario de nuestra publicación, el Comité Editorial de Revista Cubana de Ingeniería desea toda suerte de éxitos a los organizadores de la 15 Convención Científica de Ingeniería y Arquitectura y brinda sus páginas para la divulgación de resultados de generalización e impacto presentados en este magno evento de la ingeniería cubana. En este número, hemos querido incluir dos artículos compiladores de resultados del trabajo científico de profesores cubanos que serán presentados en la próxima convención de ingenieros. Los mencionados artículos, destacan por sus novedosos enfoques en el modelado de un sistema para proyectar partículas de plasma y de la minería de datos con aplicación en el entorno meteorológico. Finalmente, queremos concluir con un reconocimiento a los autores, revisores y colaboradores de Revista Cubana de Ingeniería, quienes hacen posible que esta revista sea para sus lectores un importante caudal inagotable de conocimientos, deseándoles a todos un feliz 2011 pleno de éxitos profesionales y prosperidad personal. Dr. Gonzalo González Rey Director y Editor Técnico Revista Cubana de Ingeniería, 1(3), 5-13, 2010 BIOINGENIERÍA Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas Juliet Sánchez Galego Correo electrónico:[email protected] Ernesto Rodríguez Dávila Correo electrónico:[email protected] Centro de Neurociencias (CNEURO), Ciudad de La Habana, Cuba Ángel Regueiro Gómez Correo electrónico:[email protected] Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Resumen La audición es uno de los cinco sentidos principales, participando en el sentido de orientación y en la comunicación de los individuos. El órgano auditivo (oídos en los vertebrados), es el encargado de percibir las ondas sonoras en la banda audible desde 20 Hz a 20 kHz. Debido al incremento de problemas audiológicos en la sociedad y al creciente interés en el país de erradicarlo desde la década del 80, la investigación propone la caracterización de un canal de entrada para pruebas audiométricas y el posterior pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas, en cuanto a características de frecuencia, amplitud y linealidad, lo cual puede resultar factible y útil, pues contribuye al desarrollo de equipos de pesquisaje universal (EPU) no invasivos ya existentes en Cuba. Palabras clave: audición, otoacústica, transductor, pesquisaje, recién nacido Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN Entre las enfermedades ocupacionales se encuentra la hipoacusia: que consiste en la pérdida de la percepción auditiva; alteración que afecta de forma especial a las personas que la padecen ya que su integración a la sociedad es muy difícil; por lo cual, adquiere en la actualidad una importancia notable, debido al aumento de su incidencia en la población cubana y al costo económico para su tratamiento. También las alteraciones auditivas congénitas tienen serias consecuencias para la adquisición del habla y el lenguaje; así como para el desarrollo emocional e intelectual. Se ha confirmado que esto puede minimizarse, si se produce la identificación y la intervención oportuna, antes de que el niño afectado cumpla los 6 meses de edad. Los avances tecnológicos han hecho posible el examen automatizado de la audición de los bebés. Uno de esos métodos de examen se basa en la presencia de las emisiones otoacústicas, sonidos que se propagan en el canal auditivo a partir del movimiento del tambor producido por las vibraciones de la cóclea, que se transmiten a través de la cadena del oído medio, Se conocen también como vibraciones ecococleares. Pueden surgir espontáneamente, pero lo más común es que se produzcan como respuesta a una estimulación acústica. El registro de las emisiones otoacústicas (EOA) permite explorar la función auditiva periférica con profundidad y detalle, por lo que constituye una nueva herramienta para el estudio de los trastornos auditivos. [1] La evaluación EOA portátil es un método objetivo que mide la audición dentro de una extensión de frecuencias de sonido y representa el método más práctico para evaluar a los recién nacidos y niños pequeños porque no requiere que el niño Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas demuestre una reacción conductual, puede ayudar a detectar faltas de audición neurosensoriales y hacer resaltar trastornos auditivos que afecten la vía hacia el oído interno, es rápido y no duele, puede realizarlo cualquier persona con buena capacidad para la educación infantil que reciba entrenamiento para utilizar el equipo. [2] Dado que ya es conocido que de la población con oídos sanos, no todos presentan EOA, y se sabe que el hecho de que esta población no las presente es absolutamente normal; su ausencia no es signo de disfunción auditiva o de algún tipo de problema clínico. [3] HIPOACUSIA O SORDERA: ANTECEDENTES Hasta el renacimiento se consideró a los sordos incapaces de aprender a hablar y de ser educados. A partir del siglo XVI, algunos filósofos y educadores empezaron a reconsiderar esta teoría [4]. El oído es el órgano responsable de la audición y el equilibrio. Se divide en tres zonas: externa, media e interna. La mayor parte del oído interno está rodeada por el hueso temporal. El oído medio se encuentra situado en la cavidad timpánica llamada caja del tímpano; incluye el mecanismo responsable de la conducción de las ondas sonoras hacia el oído interno, en este también se encuentran unos huesos pequeños y móviles (huesecillos) que atraviesan el oído medio. Estos tres huesos reciben los nombres de martillo, yunque y estribo, los cuales trasmiten y amplifican las vibraciones del tímpano. [5] Morfológicamente se puede diferenciar en el oído interno la cóclea o caracol, en el adulto humano tiene una longitud de aproximadamente 34 mm, es un tubo enrollado dividido a lo largo en tres escalas: vestibular, media y timpánica. [6] Cuando la frecuencia de un tono se duplica, es decir, cuando el tono se desplaza una octava, la región de la cóclea que resuena se desplaza alrededor de 3,5 a 4 mm sin importar la altitud de los tonos. Por ejemplo, para las frecuencias de: 220 y 440 Hz, entre 1 760 y 3 520 Hz o entre 5 000 y 10 000 Hz, la posición de resonancia en la cóclea no se multiplica, simplemente se desplaza una cierta distancia; en otras palabras, es la razón entre las frecuencias y no sus diferencias lo que determina el desplazamiento de la región de resonancia en la cóclea, [7] lo cual constituye la base de detección de diversas patologías. MATERIALES Y MÉTODOS Para la caracterización de las emisiones otoacústicas en recién nacidos se emplea un transductor altamente especializado, el que por su importancia ha sido evaluado en este trabajo de investigación empleando los siguientes instrumentos y dispositivos (figura 1): • Transductor: modelo Otoport DP+TE, Otodynamics. • Generador de funciones: modelo AFG 3021, Single Channel Arbitrary, Tektronix. • Multímetro digital: modelo GDM-356, INSTEK. • Fuente EL 302T: Triple Power Supply, 0-30V. • Osciloscopio digital: modelo TDS 3032, Tektronix. • Amplificador: P55 AC Pre-amplifier, Grass Telefactor. 6 Revista Cubana de Ingeniería Fig. 1. Instrumentos de laboratorio empleados para la caracterización del transductor dedicado al estudio de emisiones otoacústicas (Centro: Phantom acústico). PESQUISAJE AUDITIVO CON EMISIONES OTOACÚSTICAS Emisiones otoacústicas. Tipos y características. Sensibilidad Las emisiones otoacústicas son sonidos de muy baja intensidad que produce la cóclea debido al movimiento de las células ciliadas externas. Fueron registradas por primera vez en 1978 por el físico británico Kemp. [8] Las emisiones otoacústicas transitorias provocadas (TEOAE), se originan por un breve estímulo de tipo click o ráfagas de tonos. Pueden grabarse en casi todas las personas con una audición normal. Las TEOAE son extremadamente no lineales. Su patrón de crecimiento es coherente con el funcionamiento del amplificador coclear, que proporciona la mayor ganancia para las entradas de bajo nivel, y sirve de base para la noción de que las OAE surgen de la actividad de las células pilosas externas. Las DPOAE son tonos producidos por el oído en respuesta a dos estímulos de tonos puros simultáneos conocidos como tonos primarios. Están distorsionados en el sentido de que no están presentes en los estímulos de tonos puros generadores. El estímulo de tono puro de frecuencia más baja se denomina f1 primario, y el estímulo con la frecuencia más alta se denomina f2 primario. El producto de la distorsión medido más frecuentemente es a una frecuencia de 2f1-f2, aunque la cóclea también produce productos de distorsión a otras frecuencias. El producto de la distorsión 2f1-f2 es el mayor producto de distorsión, y el único utilizado con fines clínicos en la actualidad. Estos dos tipos de emisiones otoacústicas constituyen una herramienta clínica importante para el registro del funcionamiento de la cóclea. Las bandas de frecuencia medidas en estas pruebas de pesquisaje auditivo pueden tener los siguientes valores: 2 000, 2 500, 3 187, 4 000, 5 062 y 6 375 Hz, con un estímulo de 55 a 65 dB para cada banda de frecuencia. Las emisiones otacústicas son señales de intensidad extremadamente débiles originadas en el oído interno, el cual no solo es un transductor pasivo sino también es capaz de producir sonidos, de tal manera que cualquier debilidad o cambio en las emisiones otoacústicas es un índice significativo de lesión auditiva. Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez DESCRIPCIÓN DEL EXPERIMENTO Para poder conocer las características del transductor para EOA, se empleó el diseño y construcción de una cavidad (Phantom) con cualidades similares al canal auditivo humano; teniendo en cuenta que al final del canal debe existir un material capaz de reflejar la mayor cantidad de señal acústica enviada a esta por el emisor del transductor. Las paredes del canal acústico deben ser de un material absorbente del sonido, para permitir la linealidad de la onda sonora; al ser captada por parte del receptor para su registro eléctrico. Además, este diseño simula el mecanismo de emisión y captación de la señal, empleado en las pruebas audiométricas con emisiones otoacústicas. La cavidad Phantom fue construida por una impresora tridimensional del tipo ZPrinter 310 Plus, la cual utiliza diseño asistido por ordenador (figura 2) que por combinación de capas de polvo (ZP 140) y cola (ZB 60) es capaz de construir el volumen deseado. Esta pieza está compuesta por una cavidad externa que protege el conducto auditivo externo, ubicado con forma cilíndrica en el centro de la cavidad antes mencionada con 8,74 mm de diámetro y 25 mm de largo, medidas reales promedios del canal auditivo. La cavidad posee un recubrimiento de poliuretano, material absorbente del sonido, y al final de este canal un bloque de mármol, material que refleja el sonido devolviendo la señal emitida para ser captada por el receptor del transductor. Para realizar la caracterización se utiliza un generador de funciones (señal sinusoidal) para la estimulación del transductor por la entrada del emisor, así la señal eléctrica pasa a ser una señal sonora en el interior del Phantom donde es reflejada por el mármol y captada por el receptor del transductor para su conversión en señal eléctrica equivalente. Fig. 2. Modelo del canal auditivo simulado por software Solid Work Ofice Premium 2007. La señal obtenida del transductor es débil y con ruido, por lo que se utiliza un amplificador que permite la amplificación diferencial de la señal; además, cuenta con un filtro activo pasobajo (fc=10 kHz), filtro activo paso-alto (fc = 0,1 Hz) y un filtro Notch. El factor de amplificación usado es de 100, con el cual se observa la señal sin saturación ya que no rebasa los límites de la tensión de alimentación (9 V), valor que se logra con una fuente comercial. A la salida del amplificador se encuentra la sonda del osciloscopio digital que permite la medición de amplitud y frecuencia para la caracterización del transductor (figura 3). Fig. 3. Diagrama en bloque del montaje experimental para la caracterización del transductor. RESULTADOS En el proceso de caracterización se realizó un barrido de frecuencias en el amplificador (figura 4) con filtro Notch y sin él, para obtener su efecto y respuesta de frecuencias. En la figura 4 se observa el efecto del empleo del filtro Notch para suprimir los 60 Hz de línea y la atenuación de los filtros: paso-alto a los 0,1 Hz y paso-bajo a los 10 kHz. Posteriormente se procede a realizar la estimulación del transductor según el montaje de la figura 3, situando el valor de 6 Vpp en el generador y realizando el barrido de frecuencia desde 0,1 Hz a 1 MHz (figura 5 a) y b)), con filtro Notch y sin filtro Notch, para el cálculo del ancho de banda y el análisis de las mejores frecuencias para el funcionamiento del transductor. Producto del barrido de frecuencias realizado al transductor se obtiene un pico a los 3 kHz, donde se deforma la señal sinusoidal, aunque el ancho de banda expresado en la figura 5 contiene a los 3 kHz, no se utiliza esta zona para la caracterización y se selecciona para este fin la zona circulada. También se decide utilizar para la caracterización en cuanto a linealidad el montaje donde se aplica el filtro Notch, ya que en la gráfica sin filtro se observa una distorsión en la meseta formada por los valores máximos de amplitud (figura 5 b). Luego de este resultado se procedió a la caracterización de la linealidad. Se escoge de la zona de trabajo (figura 5a) tres valores de frecuencia: uno bajo, uno medio y otro alto, para al fijar cada uno por separado, variar la amplitud de la Revista Cubana de Ingeniería 7 Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas señal generada, y así poder realizar la caracterización de la linealidad del transductor. Los valores seleccionados para las mediciones fueron de: Frec.bajas = 5 kHz, Frec. medias = 10 kHz, y Frec.altas = 19 kHz. Cada uno de estos valores fue utilizado para obtener un grupo de valores de amplitud estímulo vs respuesta (tabla 1). b) Fig. 5. Barrido de frecuencias del transductor. Gráfico semilogarítmico maximizado: a) Con filtro Notch - Amp. = 6 Vpp - Amplificación = 100; b) Sin filtro Nocht - Amp.= 6 Vpp - Amplificación = 100. a) Ta bla 1 Va lores ob te nid os pa ra e l a nálisis d e la line a lida d a la s tre s fre cue ncia s (tensión de l g ene ra do r vs re spue sta co n flitro No cht) F ba ja s (5 kHz) F m e dias (1 0 kHz) F a lta s (19 kHz) Re spue sta (V pp ) Resp uesta (V p p) Re spue sta (V p p ) 0,1 0 ,0 03 5 0,00 4 0 0 ,0 0 4 0 0 ,5 0 ,0 07 0 0,00 7 0 0 ,0 0 6 4 1 ,0 0 ,0 10 4 0,01 2 8 0,011 0 1 ,5 0 ,0 14 0 0,01 7 5 0 ,0 1 6 0 2 ,0 0 ,0 18 5 0,02 2 0 0 ,0 1 9 0 2 ,5 0 ,0 22 5 0,02 7 0 0 ,0 2 3 5 3 ,0 0 ,0 26 5 0,03 2 0 0 ,0 2 7 0 3 ,5 0 ,0 31 0 0,03 6 0 0 ,0 3 1 0 4,0 0 ,0 35 0 0,04 1 0 0 ,0 3 5 0 4,5 0 ,0 40 0 0,04 5 0 0 ,0 4 0 0 5 ,0 0 ,0 44 0 0,05 0 0 0 ,0 4 4 0 5 ,5 0 ,0 48 0 0,05 5 0 0 ,0 4 7 0 6 ,0 0 ,0 51 0 0,06 0 0 0 ,0 5 2 0 6 ,5 0 ,0 55 0 0,06 5 0 0 ,0 5 6 0 7 ,0 0 ,0 60 0 0,07 0 0 0 ,0 6 0 0 7 ,5 0 ,0 63 0 0,07 5 0 0 ,0 6 4 0 8 ,0 0 ,0 67 0 0,08 0 0 0 ,0 6 8 0 E stím ulo (V pp ) b) Fig. 4. Barrido de frecuencias del amplificador. Gráfico semilogarítmico: a) Con filtro Notch - Amp. = 70 mVpp; b) Sin filtro Notch - Amp. = 70mVpp. a) 8 Revista Cubana de Ingeniería Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez Para conocer el valor de la ganancia en la etapa de acondicionamiento de la señal, se estudia el margen dinámico, donde la intensidad máxima que llega al receptor (micrófono) es de 20 dB SPL (nivel de presión sonora), lo cual sugiere la idea de provocar esta intensidad en la entrada del receptor y esperar la amplitud máxima a su salida. Debido a que este nivel sonoro es pequeño y no es de fácil obtención por los niveles de interferencias y ruido, durante la medición, se procedió a realizar la obtención de un grupo de valores de intensidad mayor, en el intervalo de 70 a 100 dB. El montaje se realizó dentro de una cámara anecoica ubicada en el Centro de Neurociencias de Cuba (CNEURO), teniéndose una configuración como la mostrada en la figura 6. En la figura 6 se representa el generador de funciones el cual emite una señal sinusoidal continua de amplitud controlada y frecuencias de valores: 250 Hz, 500 Hz, 1 kHz, 2 kHz, 4 kHz y 8 kHz, para el transductor que se encuentra dentro del sonómetro, que da la intensidad en decibeles a la entrada del receptor; para la obtención de la señal eléctrica en el osciloscopio luego de ser amplificada 100 veces a la salida del receptor. A partir del margen dinámico del receptor para las frecuencias de interés se calcula la ganancia para la etapa de acondicionamiento propuesta, escogiéndose 0,38 mV como valor máximo de salida del receptor en 250 Hz. Para saber con qué tensión se debe alimentar el emisor y conocer la sensibilidad en decibeles SPL, se calculó la impedancia de entrada del transductor. Esta se obtuvo mediante un divisor de tensión (figura 7), dado por el valor de amplitud del generador antes de conectar el transductor, y luego de esta operación, se conoce que la impedancia de salida del generador es de 50 Con estos datos se trabaja y se obtiene una impedancia de 160 ; lo cual explica la tensión usada para realizar la caracterización con valor de 6 Vpp. Fig. 6. Esquema de obtención del margen dinámico a la salida del receptor del transductor. Fig. 7. Esquema que representa el divisor de tensión para el cálculo de la impedancia del transductor. Esta impedancia es alta en comparación con los valores típicos de bocinas. Obtenida la impedancia se puede conocer la sensibilidad del emisor del transductor que se da para 1 mW de consumo a 1 kHz. Para este fin se debe buscar la tensión de estimulación del emisor para una disipación de 1 mW, y así con este valor de tensión efectiva, se obtiene la intensidad de salida en decibeles, o sea, la sensibilidad. De la fórmula de potencia se conoce: P = V2 / ZX, se despeja la tensión para P = 1 mW con ZX = 160 Ω , obteniéndose un valor de: Sen. dB = 82,98 dB SPL con 1 mW de entrada a 1 kHz. Por la forma de la salida del transductor o receptor, donde se tienen tres conductores, dos de señal y uno común, se usó una entrada del canal de medición de tipo diferencial, como lo sugiere la conexión utilizada en el amplificador empleado en la caracterización, lo que permitió una mejor visualización de la señal. Siguiendo la razón de la salida (conversor A/D) entre la entrada (receptor) se obtiene un valor de ganancia de 6 578, 9 se decide usar ganancia de 6 000 para tener seguridad en el sistema, debido a que alguna tensión mayor a la entrada calculada, pueda provocar la saturación a la entrada del conversor y por consiguiente la pérdida de datos. Como resultado del barrido de frecuencias se tiene un intervalo de trabajo de 5 a 19 kHz, esta mínima frecuencia coincide con los valores más utilizados en los estudios de pesquisajes clínicos basados en EOA. No obstante, en el filtrado de la señal del acondicionamiento se plantea a partir de 250 Hz hasta 8 kHz, para poseer un mayor espectro de frecuencias, dando la posibilidad futura de incluir otros transductores con otras especificaciones. Además, se deja pasar en el filtro hasta 8 kHz pues hasta el momento, no se utilizan frecuencias mayores a esta, en los pesquisajes auditivos de manera general. En la figura 8 se ejemplifica el sistema de acondicionamiento para la generación y adquisición del eco generado en la cóclea. También en la figura 8 se aprecia la ganancia total calculada (6 000), distribuida entre el amplificador de instrumentación (AI) con G1 = 1 000, el filtrado con G2 = 6 y el ajuste de tensión (G3 = 1) para lograr la armonización de tensión a la Revista Cubana de Ingeniería 9 Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas entrada del acondicionamiento. Este valor de ganancia está calculado para la máxima tensión a la entrada (380 µVpp); y se conoce del cálculo del margen dinámico que la tensión varía con la frecuencia, por lo que este ajuste se lleva a cabo en el interior del microcontrolador seleccionado. La etapa del filtrado se diseñó con configuraciones por aproximación de Butterworth en un montaje de realización: Sallen y Kay, con atenuación en la banda de paso de -3 dB y en la banda de atenuación de -25 dB (esta etapa acumula la ganancia deseada de 6). En la tercera etapa se realiza un ajuste de tensión, para lograr pasar la señal de un intervalo que oscila con respecto a 0 V, a uno que tenga todos sus valores solo en el eje positivo, y de esta forma evitar pérdidas de información a la entrada del conversor A/D. En el bloque del microcontrolador MSP430, se tiene un conversor A/D de 12 b de resolución para adquirir la información luego del acondicionamiento previo de la señal de entrada. En este conversor se utilizan tensiones de referencias: Vref+ = 2,5 V y Vref- = 0 V. Para realizar la estimulación con las distintas frecuencias solicitadas por el usuario, se cuenta con dos conversores digitales analógicos (D/A) de 12 b de resolución, que son capaces de sacar la señal de estimulación correspondiente a cada frecuencia deseada; según el tipo de prueba de EOA seleccionada por el usuario, ya sea EOAT o EOAPD, dado que este último método es el único que emplea dos conversores debido a que se procede a la estimulación con dos frecuencias. A la salida de los conversores se cuenta con la posibilidad de amplificar el estímulo en factor de 3 (característica propia del MSP430), por lo que se aprovecha esta posibilidad para llevar la señal de estimulación de 2 Vpp a la salida del D/A al valor de 6 Vpp. En el bloque de acondicionamiento se realiza el ajuste de la señal amplificada en el valor deseado para la estimulación del emisor (entre -3 y 3 V) para su entrega al transductor, el cual la envía a través del oído para efectuar el pesquisaje. DISCUSIÓN DE RESULTADOS Para el análisis de la linealidad se graficó la amplitud de la señal entregada por el generador al emisor del transductor frente a la respuesta del receptor del transductor. En este caso se obtiene una señal muy pobre del transductor, por lo que se incluye en la caracterización una etapa de amplificación. Se usó el asistente matemático MatLab (V7.5), el cual posee un paquete estadístico de utilidad para el ajuste lineal del grupo de puntos obtenidos en los tres casos. Luego de alistados los datos en forma de vectores al programa, se realiza la graficación mediante la función stem (X,Y), la cual grafica los valores de forma puntual en una ventana de aplicación que como parte de sus herramientas estadísticas permite el ajuste lineal de los puntos (figura 9). En la figura se expresa la gráfica para los tres valores de frecuencia con la linealización y la ecuación de tendencia o calibración. Fig. 9. Respuesta de linealidad del transductor, con filtro Notch: Frecuencias bajas 5 kHz; frecuencias medias 10 kHz; y frecuencias altas 19 kHz. Fig. 8. Diagrama en bloques del canal de acondicionamiento de la señal. 10 Revista Cubana de Ingeniería Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez Producto del ajuste ofrecido por la opción Basic Fitting de MatLab, se obtienen las siguientes ecuaciones de calibración: • y = 0,008 135 5x + 0,002 492 4 (Para 5 kHz). • y = 0,009 575 6x + 0,002 776 7 (Para 10 kHz). • y = 0,008 143 5x + 0,002 901 7 (Para 19 kHz). A partir de estos modelos de ajustes se puede analizar el error de cero (tensión de offset), el error de ganancia y el error de no linealidad de ganancia (la figura 10 obtenida con la herramienta MatLab, muestra los valores de distancia o residuos de cada punto a la recta lineal), que caracterizan la respuesta del transductor. Fig. 10. Valores residuales (medida de cuán lejos se encuentran los puntos de la curva de ajuste expresados en barras) para el análisis del error de no linealidad de ganancia del transductor. De la figura 10 también se obtiene la norma de residuos o media para todos los valores; esta es una medida de lo alejado que se encuentran todos los puntos de la recta. A continuación se presentan: • norm = 0, 002 078 4 (Fbajas - 5 kHz). • norm = 0, 001 776 9 (Fmedias - 10 kHz). • norm = 0, 001 645 2 (Faltas - 19 kHz). La tabla 2 muestra los errores obtenidos para cada campo de frecuencias analizado. Al realizar la comparación de los resultados de los errores, se puede identificar que el máximo valor en el error de offset se obtiene en la medición a altas frecuencias bajas y como se precia no rebasa los 3 mV. Este tipo de error puede ser compensado a través de un proceso de calibración. El error de ganancia ofrece la caracterización de la sensibilidad del sistema, apreciándose que se mantiene similar en los tres campos analizados ( 0,99). El error de no linealidad de ganancia (NLG) expresa el valor de la distancia del punto más alejado a la recta de ajuste. En este caso la situación más influyente se obtiene en bajas frecuencias. Tabla 2 Resumen de errores obtenidos desde los resultados con ayuda del utilitario MatLab Frecuencias (kHz) Error de cero (mV) Error de ganancia Error de NLG (x10-3) Bajas (5) 2,492 4 0,991 8 0,897 8 Medias (10) 2,776 7 0,990 4 0,866 8 Altas (19) 2,901 7 0,991 8 0,883 0 El análisis de errores determina que la mejor medición por su linealidad está relacionada con el empleo del transductor a frecuencias medias, lo cual está en correspondencia con lo obtenido en el barrido de frecuencias (figura 4 a) cuando se adquiere una respuesta plana en este intervalo de frecuencias. En la etapa de acondicionamiento se analiza el comportamiento de tensión en el dominio del tiempo, en cada punto para comprobar los valores teóricos calculados con anterioridad y proceder con el ajuste necesario. Para estos f ines se coloca a la entrada del amplif icador de instrumentación (AI) una fuente de tensión sinusoidal con un valor de 380 uVpp (máximo valor obtenido en la caracterización), para simular el receptor del transductor. A la salida del AI se obtiene una tensión de 380 mVpp. Luego la señal debe pasar por un proceso de filtrado donde el interés lo constituye la limitación en un intervalo de frecuencia con un filtro pasa banda y un pasa bajo para garantizar la condición de Nyquist; la señal gana una amplitud de 1,4 Vpp aproximadamente, cumpliéndose así con lo planteado en la distribución de ganancia. En la generación de la señal se usan dos conversores D/A que posee internamente el MSP430, y la cualidad que estos tienen de amplificar en un factor de 3 a su salida la señal; como la tensión que se genera en los conversores es de 2 Vpp, mediante esta amplificación ya se obtiene el valor de 6 Vpp deseado. Con motiv o de simular este comportamiento se sitúa una fuente sinusoidal de 6 Vpp a la entrada del bloque de acondicionamiento encargado de realizar el ajuste de tensión, donde se desplaza la señal de 0 V - 6 V hasta el intervalo de -3 V - 3 V, logrando así la estimulación en el emisor del transductor como se realizó en la caracterización. En el dominio de la frecuencia es interés realizar un barrido de frecuencia para observar el espectro de la señal y comprobar si el ancho de banda coincide con el deseado, en esta labor se realizan los ajustes pertinentes. CONCLUSIONES Como parte de esta investigación se logró construir un modelo físico o Phantom, para la simulación del canal auditivo, Revista Cubana de Ingeniería 11 Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas garantizando la continuidad sonora para las pruebas de caracterización realizadas. Se analizó las características geométricas del transductor modelo Otoport DP+TE, de la firma Otodynamics, evidenciándose las diferencias físicas entre el emisor y el receptor. Al realizar la caracterización del transductor, hubo la necesidad de usar un amplificador de tipo diferencial pues el nivel de señal a la salida del emisor es extremadamente pequeño y con altos niveles de ruido. También se estableció la tensión de estimulación (6 Vpp) y se comprobaron los efectos de la alta impedancia de salida del transductor. En el análisis del barrido de frecuencias, se determinó que la mejor respuesta es obtenida utilizando filtro Notch a 60 Hz, debido a que con este se elimina la modulación en la frecuencia de la línea, que influye en los valores reales de la señal. Además, al suprimir esta frecuencia no se afectan los intervalos de medición utilizados en el pesquisaje con emisiones otoacústicas. Se observó un comportamiento inusual a los 3 kHz, presentando un pico en la señal que puede ser justificado por el diseño geométrico del transductor, el cual puede producir a esa frecuencia un efecto de resonancia debido al encapsulamiento del sistema emisor-receptor. Del análisis de linealidad se obtuvo que las mejores mediciones se adquirieron a frecuencias medias, donde además se observó en el barrido de frecuencias de este intervalo, una respuesta plana. Los cálculos del margen dinámico del receptor, ganancia del mismo y la impedancia del emisor, permitieron la obtención de los valores a utilizar en la etapa de acondicionamiento de la señal, usando el módulo de conversores A/D y D/A del microcontrolador MSP430F1611 de Texas Instruments y otras componentes discretas para la amplificación y filtrado de la señal. Teniendo en cuenta los resultados de la caracterización se diseñó el acondicionamiento para la estimulación y adquisición de la señal de EOA. Se realizó la simulación en el software Orcad Capture V16,0, posibilitando el análisis en el tiempo y la frecuencia, lo cual contribuyó al ajuste de las componentes en el diseño, siendo todas de valores comerciales. Se determinó por el estudio de la bibliografía consultada, el mejor intervalo de frecuencias de EOA para pruebas clínicas, referencia útil de diseño para el filtrado de la señal mediante un filtro pasabanda de respuesta plana en el intervalo de 250 a 8 kHz. Es de destacar que las frecuencias entre 5 y 8 kHz son las más utilizadas en la clínica; pero en el diseño se amplía la banda previendo el uso de otros transductores en el equipo de distintas características frecuenciales. Para alimentar el sistema se trabajó con valores típicos como el de ±15 V. El acondicionamiento está concebido para los tres tipos de pruebas de EOA: EOAPD, EOAT y EOAE, al igual que el 12 Revista Cubana de Ingeniería diagrama de flujo propuesto para la implementación de este diseño con la ayuda de un microcontrolador MSP430F1611IPM. En el diagrama se plantea la verificación de los componentes del sistema, y se hace considerando las bondades de la familia de microcontroladores MSP430, tales como los conversores DAC y ADC, el controlador de DMA, los temporizadores, la alta frecuencia de reloj, entre otras. Se diseñó una propuesta de chasis o carcasa para el equipo que en un futuro se implementará. AGRADECIMIENTOS Los autores desean agradecer el soporte brindado para la investigación por los Proyectos: CIDA-TIER-394-TT-0200 con instituciones canadienses y CNEURO S.A., en Ciudad de La Habana, Cuba. REFERENCIAS 1. MARCO, J. et al. "Control de calidad de un programa de detección, diagnóstico e intervención precoz de la hipoacusia en recién nacidos". Acta Otorrinolaringología Español. 2004, vol. 55, p. 103 – 106. 2. GODOY, J. M. "Emisiones otoacústicas y métodos de screening auditivo en recién nacidos". Revista Médica Instituto Mexicano Seguro Social. 2003, vol.14, nº.1. Disponible en: http://www.clc.cl/otorrinolaringologia.html. 3. KEMP, D. T. "Understanding and Using Otoacoustic Emissions". [en línea] 1997. Disponible en: Otodynamics Ltd http://www.oae-ilo.co.uk. 4. CUNNINGHAM, M. and COX, E. O. "Hearing Assessment in Infants and Children: Recommendations Beyond Neonatal Screening". Pediatrics. 2003, vol.111, nº.2. Disponible en: http://www.pediatrics.org/cgi/content/full/ 111/2/436. 5. HERNÁNDEZ HERRERA, R. J. et al. "Tamizaje y confirmación diagnóstica de hipoacusia. Neonatos de alto riesgo versus población abierta". Revista Médica Instituto Mexicano Seguro Social. 2007, vol. 45, nº 5, p. 421 – 426. Medigraphic Artemisa en Línea. 6. PÉREZ-ABALO, M. C. et al. "Diagnóstico e intervención temprana de los trastornos de la audición: una experiencia cubana de 20 años". Revista Neurología. 2005, vol.41, nº.9. Disponible en: http://www.unirioja.es. 7. GONZÁLEZ DE ALEDO LINOS, A. et al. " Programa de detección precoz de la hipoacusia infantil en Cantabria". Boletín de la Sociedad de Pediatría de Asturias. Cantabria, Castilla y León, España. 2001, vol. 41 nº 175, p. 54 – 61. 8. KEMP, D. T. An illustrated history of OAE research and applications through the first 25 years. The Institute of Laryngology & Otology, the UCL Center for Auditory Research and the Royal National TNE Hospital. USA, 2003. p.1 – 20. Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez AUTORES Juliet Sánchez Galego Ingeniera Biomédica, Centro de Neurociencias de Cuba (CNEURO), Ciudad de La Habana, Cuba Ernesto Rodríguez Dávila Ingeniero Electrónico, Especialista en Máquinas Computadoras, Investigador Agregado, CNEURO, Ciudad de La Habana, Cuba Ángel Regueiro Gómez Ingeniero Electrónico, Especialista en Máquinas Computadoras, Doctor en Ciencias Técnicas en Electrónica y Bioingeniería, Profesor Titular, Centro de Bioingeniería (CEBIO), Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Newborn Hearing Screening System Based on Otoacoustic Emissions Abstract Hearing is one of the five main senses, participating in the individual´s orientation and communication. The auditory organ (vertebrate´s hearing), is in charge of the sound wave perceiving in the audible band (20 Hz to 20 kHz). Due to the increment of the audiologic problems in the society and the growing interest in our country of eradicate it since the 80´s, the investigation proposes the characterization of a channel of entrance for audiologic tests, and the latter one audition investigation in new born based in Otoacustic emission, as for characteristic of frequency, amplitude and trend line; that which can be feasible and useful, because it contributes to the development of Universal Investigation Devices existing in Cuba. Key words: audition, otoacustic, transducer, diagnosis, new born Revista Cubana de Ingeniería 13 Convocatoria V Congreso Latinoamericano de Ingeniería Biomédica (CLAIB 2010) El Comité Organizador del CLAIB 2010, en representación del Consejo Regional de Ingeniería Biomédica para América Latina (CORAL), se complace en invitarle al V Congreso Latinoamericano de Ingeniería Biomédica. Profesionales de Latinoamérica y de todo el mundo están invitados a participar en este importante evento, a celebrarse del 16 al 21 de mayo de 2011 en el Palacio de las Convenciones de La Habana. El CLAIB 2011 se propone fortalecer la colaboración entre los especialistas de América Latina y el Caribe y profundizar en la cooperación interdisciplinaria entre la Medicina, la Ingeniería y la Física. El Congreso propiciará el intercambio fraterno de experiencias y conocimientos entre los profesionales e instituciones vinculados a la Ingeniería Biomédica y ciencias afines con el objetivo de ponerlas al servicio de quienes las necesitan en nuestra región y en el mundo. La cita de La Habana en 2010, da continuidad a los encuentros celebrados en Mazatlán 98, Habana 2001, Joao Pessoa 2004 e Isla Margarita 2007. Los congresos latinoamericanos representan en la actualidad una tradición que estrecha nuestros lazos y un referente para los profesionales de nuestra especialidad. La Habana, presta a cumplir 500 ańos, con su misterio de mar, de cielo, de amor hecho gente, te espera… Coral Consejo Regional de Ingeniería Biomédica para América Latina SocBio Sociedad Cubana de Bioingeniería Comité Organizador CLAIB 2010-01-25 Para mayor información: http://www.claib2010.sld.cu Revista Cubana de Ingeniería, 1(3), 15-24, 2010 BIOINGENIERÍA Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura Guillermo Vilalta Alonso Correo electrónico:[email protected] Fundación CARTIF, Centro Tecnológico, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España Félix Nieto Fundación CARTIF, Centro Tecnológico, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España Melchor Rodríguez Madrigal Correo electrónico:[email protected] Instituto Superior Politecnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Laurentiu Lipsa Fundación CARTIF, Centro Tecnológico, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España Joan O´Connor Blanco Correo electrónico:[email protected] Universidad de La Habana, Cuba Resumen La ruptura de aneurismas de aorta abdominal (AAA) representa un evento clínico muy importante resultante de las modificaciones estructurales de la pared arterial que provocan un debilitamiento de la pared arterial en combinación con las presiones hemodinámicas que actúan sobre esta. En un esfuerzo por aumentar la comprensión sobre este complejo fenómeno, en el presente trabajo se estudia la influencia del grado de asimetría de los aneurismas de aorta abdominal, en los patrones de comportamiento de los principales factores hemodinámicos. Para esto, se han evaluado cuatro modelos geométricos no realistas de AAA con diferentes grados de asimetría, sometidos a un flujo pulsátil fisiológicamente realista, con el objetivo de evaluar e identificar las regiones donde ocurren las principales perturbaciones en los patrones de flujo y cómo esta modifica los campos de velocidades y de tensiones hemodinámicas, en el interior del saco aneurismático. Se presenta una explicación de las modificaciones de las estructuras vorticales y de la distribución de tensiones durante el ciclo cardíaco, cuyos resultados confirman que la asimetría de los aneurismas de aorta abdominal es uno de los principales factores que influyen en su ruptura. Por otro lado, en el trabajo se abordan las bases para establecer un método que, a partir de la morfometría de los AAA, permita determinar un indicador numérico que caracterice el grado de evolución y el posible riesgo de ruptura de aneurismas, independientemente de su tamaño. Se esbozan los resultados iniciales de validación del método, sus actuales limitaciones y la proyección a corto plazo para continuar desarrollando el método. Palabras clave: AAA, morfometría, riesgo de ruptura, factores biomecánicos Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN El proceso evolutivo de los aneurismas de aorta abdominal (AAA) es un complejo proceso donde intervienen múltiples factores relacionados, fundamentalmente con la remodelación estructural de la pared arterial. En ciertas condiciones específicas y aún no totalmente comprendidas, asociadas a una progresiva degradación de la pared aórtica combinada con factores hemodinámicos, el aneurisma tiende a Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura incrementar de tamaño con riesgo de ruptura lo cual, de ocurrir, causaría hemorragia interna, con altos índices de mortalidad y elevados costos asociados fundamentalmente a la cirugía de urgencia y al tratamiento de recuperación de los pacientes. Los aneurismas suelen ser asintomáticos, lo cual impide que la ruptura pueda ocurrir con "aviso previo", por lo que es altamente valorado cualquier esfuerzo que se realice en el sentido de aumentar la comprensión sobre los fenómenos asociados a la ruptura de los mismos. Actualmente, desde el punto de vista clínico los indicadores utilizados para evaluar el riesgo de ruptura de un aneurisma son el diámetro máximo transversal y su tasa de crecimiento. Cuando estos valores son del orden de 5-5,5 cm [1] y de 0,5-1 cm/año (independientemente del tamaño) respectivamente, el paciente es sometido a una intervención quirúrgica. Caso contrario se mantiene en observación, sometido a chequeos periódicos. Sin embargo, existe consenso [2] que estos indicadores no son precisos y en no pocas ocasiones fallan. Por ejemplo [3] establecen que entre un 10-24% de pequeños aneurismas (< 5cm de diámetro máximo) rompen. Por otro lado, [4] publica un estudio de un aneurisma de 10 cm de diámetro (sin que haya roto), caso este, totalmente inusual desde el punto de vista clínico. Debido a esto, en los últimos años se está realizando un intenso esfuerzo de investigación en la integración de los modelos a diferentes escalas que permitan mejorar la predicción de la ruptura de aneurismas. En este sentido, varios factores individuales y biomecánicos han sido propuestos y estudiados [5-7] con el objetivo de evaluar cuál es la real influencia de estos sobre el proceso evolutivo (formación, desarrollo y posible ruptura) de los mismos. Algunos de estos factores están relacionados con la deformación que sufre la arteria aorta desde su condición fisiológicamente sana hasta un determinado estado de desarrollo de la patología. De forma general, los principales parámetros geométricos que caracterizan el aneurisma son: la longitud total del aneurisma LAAA, el espesor de la pared e y el diámetro máximo transversal dMAX, AAA asociado al diámetro del cuello aórtico, d AA. Los aneurismas son esencialmente asimétricos debido a la restricción del movimiento, impuesta por las vertebras lumbares, por lo cual el índice de asimetría es considerado como uno de los factores biomecánicos más importantes. La propia definición de la asimetría de los aneurismas condiciona la existencia de una superficie aneurismal muy compleja que ejerce una gran influencia en las principales variables mecánicas asociadas a la integridad estructural de la pared. Conforme [8], la asimetría de los aneurismas provoca una distribución de máximo de tensiones tangenciales de pared que crece no linealmente e induce el surgimiento de flujos secundarios durante la diástole. Asímismo, ha sido reportado [9] que un aneurisma asimétrico con una distribución no uniforme de espesor de la pared debería estar expuesto a mayores tensiones mecánicas, aumentando el riesgo de ruptura si se compara con uno de espesor constante. 16 Revista Cubana de Ingeniería Otro importante factor relacionado con la geometría del aneurisma es el índice de dilatación, definido como la relación entre el diámetro máximo y la longitud anterior del aneurisma. Observaciones clínicas indican que hay una relación inversa entre el índice de dilatación y el riesgo de ruptura. En [10] se reporta que los valores umbrales del índice sacular para tratamiento de reparación y ruptura es 0,6 y 0,7 respectivamente. La falta de comprensión de todos los procesos que están relacionados con el desarrollo de los aneurismas, ha imposibilitado la definición de un índice de riesgo de ruptura de aneurismas de aorta abdominal que sea suficientemente fiable y que permita mejorar la gestión clínica de esta patología. La estimación precisa del riesgo de ruptura de AAA, requiere de una detallada información personalizada del paciente, así como de las propiedades materiales de la pared arterial, del trombo intraluminal, las que están relacionadas con los factores de riesgos asociados a esta patología. Atendiendo a estos aspectos, en el presente trabajo se estudia la influencia de la asimetría de los aneurismas de aorta abdominal, en la dinámica del flujo sanguíneo en el interior del saco aneurismático y cómo este comportamiento puede influir en el potencial de ruptura de los aneurismas. MÉTODOS Y MATERIALES Dominio computacional Durante la realización del presente trabajo, se utilizaron cuatro geometrías no realistas de aneurismas las que difieren en el grado de asimetría, y fueron generadas en CATIA V.5R19 (Dessault Systèmes, Paris). Para la generación de estos modelos, y como método para la validación del modelo computacional, fue utilizado el método propuesto en [9], donde se define el grado de asimetría según la ecuación (1): r R (1) siendo r y R los radios medidos en la sección media del saco aneurismático, desde el eje axial (z) entre las paredes posterior y anterior respectivamente. El dominio que representa el fluido (sangre) está caracterizado por una sección circular paralela al plano xy, cuyo diámetro representativo de la entrada y salida es constante e igual a d = 2 cm y por un diámetro máximo de D = 3 d, ubicado en la sección media del saco aneurismático. Puede notarse que al hacer esto, se asume que cada modelo que representa el aneurisma, tiene un diámetro máximo transversal mayor que el valor umbral, por lo cual se encuentra en el rango adecuado para ser sometido a reparación quirúrgica, según la práctica médica actual y favorece el análisis de las tendencias de los diferentes factores geométricos con el riesgo de ruptura. La geometría que define este dominio, está representada por la ecuación (2) que caracteriza el diámetro correspondiente a cada sección transversal, d(z) y Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco la asimetría representada por la desviación del centroide en el eje y, z. z 6d 2 d cos d (z) 3d d z 3 1 4 1 d ( z) d El pulso usado fue medido, in vivo, utilizando un Doppler US realizado a un paciente con aneurisma. La serie discreta de Fourier del pulso medido puede ser expresada como: 16 2 16 2 Q(t ) Qo an cos n t bn sin n t T n 1 T n 1 (2) 3d z 9d 0 z3d ; d z 12d La figura 1 muestra el modelo geométrico para = 0,2 utilizado en el presente trabajo, siendo L la longitud del aneurisma y LT la longitud total del segmento aórtico. (5) donde: Q o : Componente del caudal correspondiente a la componente permanente del flujo. N = 16: Representa el número de modos de Fourier usados T : Período del pulso medido. A partir de la ecuación (5), fue calculado el perfil temporal de velocidades, totalmente desarrollado, utilizando la teoría de Womersley. [11] 32 J0 n i r Ra / 1 i 3 2 J 0 n int 2Q0 r 2 N Qn 1 u( r , t ) e 2 3 A Ra n1 A i 2 2 J 1 n 1 3 3 n 2 J0 n i 2 (6) Fig. 1. Modelo de AAA, con grado de asimetría = 0,2. Ecuaciones de gobierno y condiciones de contorno Las ecuaciones de gobierno para el dominio del fluido, son las ecuaciones de continuidad y de Navier-Stokes, a las que se le aplicaron las siguientes consideraciones: homogeneidad, incompresibilidad, comportamiento newtoniano y pulsátil, en ausencia de fuerzas de campo, con densidad, = 1 050 kg/m3 y coeficiente de viscosidad dinámica, =0,004 Pa.s. Estas ecuaciones, en su forma compacta, se representan por las ecuaciones (3) y (4). . u 0 (3) Du 1 p 2u Dt (4) donde: u: Vector velocidad. p: Presión. siendo Jo y J1 las funciones de Bessel de primer tipo de orden 0 y 1 respectivamente, A es el área de la sección transversal, Ra el radio representativo de la aorta no deformada y n es el parámetro de Womersley. El perfil resultante se muestra en la figura 2. Método numérico Las ecuaciones de gobierno son resueltas utilizando el software ANSYS V.11 (Ansys Inc., Canonsburg PA), el cual usa el método de volúmenes finitos, para la discretización espacial del dominio. Fig. 2. Pulso en velocidad utilizado en el presente estudio. Revista Cubana de Ingeniería 17 Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura El método de integración temporal utilizado es el second order backward Euler, con un tiempo de paso (timestep) de 0,01 s, lo que permitió obtener resultados en intervalos de 1/100 s y un tiempo total de simulación correspondiente a seis veces al ciclo cardíaco. Los resultados utilizados corresponden al último ciclo, donde se comprobó que estos son independientes de las condiciones iniciales consideradas en las simulaciones (t = 0 s). Las pruebas para la evaluación de la convergencia de las soluciones, fueron realizadas modificando básicamente los parámetros relacionados con el refinamiento de la malla en los lugares de interés para la dinámica del fluido (regiones de gran curvatura y efectos de pared), comprobándose que cuando la región de pared alcanza el valor de 1/3 del diámetro representativo de la arteria aorta, no se producen significativos cambios en los patrones de flujo. Se han considerado paredes rígidas. RESULTADOS Y DISCUSIÓN Es conocido que la dinámica del flujo sanguíneo en el interior del sistema circulatorio está gobernada por la interacción entre la pared arterial y el flujo sanguíneo, condicionando uno el comportamiento del otro, siendo los principales factores que lo caracterizan la distribución de tensiones de pared y la estructura de vórtices. Uno de los aspectos que condiciona el comportamiento del fluido en el interior de los aneurismas, es el grado de distorsión con que penetra el fluido, debido a la deformación de la arteria. Este fenómeno está documentado en trabajos que utilizan geometrías realistas [4] y virtuales [12]. Atendiendo a los objetivos del presente trabajo, se considera que la aplicación de un perfil de velocidades parabólico y completamente desarrollado, como el que fue definido, permite caracterizar la hemodinámica en el interior del saco aneurismático. Para el análisis del campo de flujo en el interior del saco aneurismático, se han seleccionado los modelos que representan los extremos de la asimetría, = 0,2 (mayor asimetría) y =0,8 el cual es casi simétrico. Los tiempos estudiados se corresponden con los puntos de mayor interés dentro del ciclo cardíaco, t = 0,2 s, t = 0,4 s, t = 0,5 s y t = 0,7 s. Estas regiones son las de inicio de la aceleración sistólica (1), la de máxima valor durante la sístole (2), un punto en la desaceleración sistólica (3) y un punto en la etapa diastólica (4). Se incluye también el análisis correspondiente a t = 0 s, por la importancia que tiene en la discusión de los resultados. Los resultados se muestran en la figura 3, a través de la presentación de los vectores de velocidad resultante en el plano medio y-z, de la geometría. Una característica importante de este análisis es que el campo de flujo está dominado por la presencia de vórtices en las regiones próximas de la pared del saco aneurismático. Del análisis integral del ciclo cardíaco (seis ciclos estudiados), se observa que al inicio de cada ciclo (t = 0 s) 18 Revista Cubana de Ingeniería existen vórtices residuales del ciclo. A medida que disminuye la asimetría, se forma un chorro de flujo que atraviesa la región central del saco aneurismático, generando dos núcleos vorticales de menor tamaño que el existente cuando el aneurisma es más simétrico. Este comportamiento es típico hasta t = 0,2 s, aproximadamente. En este momento, ocurre un crecimiento de la región de recirculación, justo antes que se inicie la aceleración sistólica, y que llega a ocupar casi toda la región correspondiente al bulbo aneurismático, aumentando la intensidad, con el nivel de asimetría. De igual forma, en esta etapa existen vórtices de baja velocidad en el extremo convergente del aneurisma, por la pared posterior. Esto resulta en vórtices que forman un lazo alrededor del núcleo de flujo. Por lo tanto, los extremos proximal y distal están caracterizados por velocidades negativas en regiones cercanas a la pared, lo que se supone que es debido a los efectos convectivos que surgen como resultado del cambio de geometría. En la primera mitad de la sístole, el gradiente de presión eyecta vórtices aguas arriba, a medida que el flujo se va acelerando en el tiempo. Las máximas velocidades y gradiente de velocidades son obtenidos en el pico máximo de velocidad, donde un patrón casi simétrico se forma en el saco aneurismático. La desaceleración temporal combinada con débiles efectos convectivos, son los factores dominantes en la segunda mitad de la sístole, donde chorros de alta v elocidad, prov ocan signif icativas perturbaciones hemodinámicas, las que se inician en la etapa (3). A mitad del ciclo cardíaco, aproximadamente t = (0,6) s, ocurre una reversión del flujo, causando una disminución de la intensidad de la recirculación del flujo y un movimiento del vórtice hacia el centro y aguas abajo del aneurisma. Esto resulta en una extensión de la estela del vórtice hacia la sección de entrada del AAA. Durante la diástole, el flujo recupera su dirección original con una ligera aceleración que provoca la traslación del vórtice principal hacia el extremo distal y la supresión de la estela. El final de esta fase, está caracterizado por un flujo casi constante y una intensificación de las perturbaciones debido al incremento de la velocidad local. Estos resultados son consistentes con otros de la literatura [8]. Este análisis se complementa con el estudio del efecto de la asimetría en la dinámica de los flujos pulsátiles, la que, como se observa, se corresponde con un patrón de flujo muy complejo. Para la etapa (1), cerca del extremo de salida del aneurisma, existen zonas de recirculación que se extienden hacia la pared anterior provocando una aceleración del flujo en el núcleo central que viaja hacia la pared posterior, actuando fundamentalmente sobre la región de gran curvatura. En el momento de máximo valor del pulso (t = 0,4 s), se muestra una significativa variación en el comportamiento de los patrones de flujo, el cual se hace más uniforme sobre la pared posterior y la ampliación de la zona de recirculación y formación de vórtices en la región correspondiente al saco aneurismático. Se observa, aparentemente, la formación de Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco dos núcleos vorticales. Durante la desaceleración sistólica, la región de recirculación se hace más significativa sobre la pared del aneurisma, lo que tiende a provocar un achatamiento de las estructuras vorticales, las que se acercan al núcleo del flujo que circula desde el cuello de entrada al de salida. Ya en la etapa final del ciclo, se muestra un significativo y asimétrico patrón de recirculación donde los vórtices son arrastrados hacia la salida del aneurisma. Tensiones tangenciales de pared provocadas por el campo de flujo La asimetría de los AAA, ejerce una gran influencia sobre la distribución de las tensiones tangenciales de pared. La figura 4, muestra la distribución superficial de tensiones tangenciales para diferentes condiciones de asimetría ( = 0,8; = 0,6 y = 0,2 y tiempos de ciclo cardíaco. t=0s t = 0, 2 s t = 0,4 s t = 0,5 s t = 0,7 s a) b) Fig. 3. Vectores velocidad que representan el campo de flujo en el interior de AAA, para valores de asimetría extremos: a) = 0,2 y b) = 0,8, en diferentes etapas del ciclo cardíaco. Revista Cubana de Ingeniería 19 Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura Para t = 0,2 s, donde la curva de velocidad pulsátil está próxima a un punto de inflexión, las tensiones tangenciales presentan una distribución relativamente similar, siendo el rasgo más significativo la distorsión que provoca en este comportamiento los efectos causados por la imposición de un perfil de velocidades totalmente desarrollado como condición de entrada, lo cual ha sido reportado por otros autores. Esto se refleja con altos valores de tensión en el cuello de entrada al aneurisma. Justo después de la entrada al saco aneurismático, los patrones de velocidades provocan regiones de bajas tensiones, las que alcanzan sus valores menores a medida que se modifica la simetría del aneurisma. Aguas abajo de esta sección de máximo diámetro, el extremo distal se caracteriza por patrones simétricos de flujo y regiones de recirculación las que inducen a gradientes de velocidad no uniformes y a un significativo incremento de las tensiones. Estas perturbaciones de flujo, diferencian el final de la diástole de un ciclo, de la sístole del siguiente, mientras que los vórtices remanentes de un ciclo permanecen en el inicio del siguiente. En las regiones de máximas tensiones tangenciales, estas varían hasta un 15 % aproximadamente, a medida que aumenta el grado de asimetría de los aneurismas. t = 0,2 s t = 0,4 s Fig. 4. Distribución de la tensión tangencial de la pared para diferentes índices de asimetría y etapas del ciclo cardíaco: a) = 0,8; b) = 0,6 y c) = 0,2. 20 Revista Cubana de Ingeniería Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco Los máximos valores de tensiones tangenciales durante el ciclo cardíaco, se obtienen en la etapa correspondiente al máximo sistólico (t = 0,4 s) donde, como ya fue analizado, las velocidades y los gradientes espaciales de esta, son mayores. Los patrones de flujo completamente adheridos a la pared arterial, producen valores positivos de tensiones en todo el aneurisma cuyo patrón es aproximadamente uniforme hasta la sección media del aneurisma, independientemente del grado de asimetría. Esta uniformidad es obtenida tanto en la pared anterior como posterior. El análisis de la distribución de tensiones en el extremo distal muestra interesantes aspectos. Se debe tener en cuenta, como ya fue analizado, que esta región está caracterizada por patrones de flujo que se contraen a medida que la aceleración convectiva domina el flujo a fin de que pueda satisfacerse la conservación de la masa, lo cual provoca un incremento de las tensiones tangenciales y distribuciones asimétricas de esta. Como resultado, las regiones de ocurrencia de los máximos de tensiones tangenciales de pared, se obtienen en el extremo distal de la pared anterior del aneurisma. Los incrementos de tensiones a medida que aumenta la asimetría de los aneurismas, están en el orden de 30 %. Las restantes etapas del ciclo cardíaco analizadas (t = 0,4 s y t = 0,7 s) muestran comportamientos cualitativ amente similares, con incrementos de las tensiones a medida que aumenta la asimetría del orden de 17 %, en ambos casos. Factores biomecánicos asociados a la morfometría de los AAA como indicadores del riesgo de ruptura Cuando se analiza el proceso evolutivo de los AAA, se observa que existen varios factores que ejercen una significativa influencia en el mismo, debido a lo cual la evaluación de la variación temporal de estos factores puede constituir un indicador de la evolución de los aneurismas. En este sentido se definen, en su concepto más general, los factores biomecánicos como la variación temporal de un factor que caracteriza cuánto este se aleja de su condición fisiológicamente sana o de un estado de desarrollo previo. Atendiendo a los diferentes niveles de las escalas dimensionales existentes en el cuerpo humano en general y en la patología de aneurisma en particular, se definen tres tipos de factores biomecánicos. Los factores biomecánicos biológicos (FBBs) caracterizan, a nivel molecular y celular, el proceso degenerativo que ocurre en la pared arterial y comprenden las modificaciones en sus propiedades mecánicas y los cambios netos en la matriz extracelular (contenido de elastina y colágeno). Poca información existe de cómo estos factores están relacionados con los factores de riesgos en pacientes con aneurismas, aunque existe consenso de que los principales parámetros que caracterizan estos cambios son: contenido de calcio, estrés oxidativo y las concentraciones de metaloproteinaza (MMP). [13 -16] Los factores biomecánicos mecánicos (FBMs) son aquellos que caracterizan la integridad estructural del aneurisma, al considerar el aneurisma como un elemento mecánico. Para comprender mejor esta definición, es importante recordar que la ruptura de un aneurisma es un fenómeno biomecánico que ocurre cuando las tensiones mecánicas que actúan sobre la pared interior, exceden el esfuerzo de fluencia del tejido aórtico aneurismático. Los principales FBMs son: las tensiones mecánicas, la rigidez de la pared arterial, índice de ruptura potencial y la presencia de trombo intraluminal. Un amplio resumen de estos factores puede ser encontrado en la bibliografía [5, 6]. Los factores biomecánicos geométricos (FBGs) caracterizan la morfologia y la morfometría de los aneurismas, al relacionar la variación de los principales parámetros geométricos y la forma del aneurisma. Los principales FBGs propuestos en la literatura [17] son: Tasa de deformación, tasa de expansión, índice sacular, índice de asimetría y espesor de la pared arterial. Atendiendo al carácter multifactorial del proceso evolutivo de los AAA y a la reconocida poca precisión de los métodos que actualmente se emplean para decidir sobre el tratamiento de pacientes con aneurismas, se está imponiendo en el mundo la idea de integrar, en un indicador, los factores característicos de las diferentes escalas con el objetivo de obtener de la forma más realista, rápida y fiable posible, cómo estos se encuentran interrelacionados y cúal es su real influencia en el proceso estudiado. Esta idea, aunque novedosa e interesante, no deja de ser compleja y depende de un amplio esfuerzo multidisciplinar, donde no siempre están disponibles todos los recursos necesarios. En un primer intento de mejorar la precisión en la evaluación de riesgo de ruptura utilizando solo una parte de la información necesaria para análisis más complejos, se propone emplear los FBGs como indicadores de grado de evolución y desarrollo de los aneurismas. Dicha propuesta se fundamenta en que los parámetros geométricos que caracterizan el aneurisma y sus correspondientes factores biomecánicos, son de fácil comprensión y determinación, su procesamiento es instantáneo y se basa en información personalizada de pacientes. El procedimiento propuesto, se basa en la siguiente metodología: Inicialmente, y después de definir los principales parámetros geométricos, se analizó la forma más apropiada de relacionarlos, a partir de lo cual se establecieron los factores biomecánicos asociados a la morfología y la morfometría (las referencias geométricas se muestran en la figura 1). 1. Diámetro máximo transversal, D. Es el parámetro que caracteriza el grado real de desarrollo del aneurisma y constituye actualmente el principal criterio médico para evaluar el tratamiento a seguir con pacientes aneurismáticos. Pero como la ruptura de los aneurismas está relacionada con la deformación arterial real y el diámetro de la arteria aorta varía en un rango entre 1, 5 y 2,5 cm, es obvio que este no es un criterio preciso. Por lo tanto, para mejorar la exactitud en la evaluación de la deformación arterial se establece el parámetro tasa de deformación X, definido como relación entre D y d. Revista Cubana de Ingeniería 21 Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura 2. Longitud del aneurisma, L. Es la longitud del segmento aórtico que se ha deformado y que representa el AAA. No constituye un FB en sí, pero se utiliza directa o indirectamente, en el cálculo de alguno de ellos. 3. Índice de asimetría, Se define por la ecuación (1). 4. Índice de dilatación . Relaciona el diámetro máximo del aneurisma D con su longitud, L. 5. Tasa de crecimiento, . Es considerado un importante indicador para estimar la ruptura de AAA. Se determina como el incremento en el diámetro máximo transversal del aneurisma en el tiempo (usualmente entre dos revisiones consecutivas). 6. Espesor relativo,. Relaciona el espesor medio de la pared arterial en el plano de diámetro máximo. Una vez definidos los FBGs, el estudio se dividió en tres tareas. La primera consistió en determinar los valores umbrales inferior y superior correspondientes a cada factor biomecánico. Para esto se estudiaron y definieron los parámetros limites que def inen las condiciones fisiológicamente sana y patológicas. Posteriormente, se procedió a determinar el coeficiente ponderado, i (peso relativo) de cada uno de ellos en el proceso evolutivo, así como el nivel de riesgo ponderado, NRPi. El coeficiente ponderado de cada FBGs, determina la incidencia de cada uno en la ruptura, o sea, qué porcentaje de rupturas ocurre por esa causa. Para definir el NRPi, cada factor biomecánico se dividió en 4 categorías: Bajo riesgo de ruptura, medio, alto y peligroso, a los que se le definió a través de un estudio estadístico, los valores umbrales correspondientes. Los resultados obtenidos utilizando la información disponible en [18], se muestran en la tabla 1. Los subíndices A y P en la ecuación del cálculo de la tasa de crecimiento, están relacionados con dos revisiones médicas consecutivas: A es la revisón actúal (última), P es la previa. Por lo tanto, el indicador cualitativo del riesgo de ruptura, RI(t) puede ser determinado como la suma, para cada factor biomecánico, del coeficiente ponderado i multiplicado por el correspondiente valor del nivel de riesgo ponderado, NRPi, como se expresa en la ecuación (7). Considerando los resultados de RI(t), es posible sugerir varias acciones al médico. En esta parte inicial de implementación del método, se ha propuesto utilizar los siguientes indicadores. Si RI(t) < 0,2; el riesgo de ruptura es muy bajo y no se sugiere ninguna acción. Cuando el índice de riesgo está en el rango entre 0,2 y 0,45, el riesgo de ruptura es bajo y la acción recomendada es que el paciente se mantenga bajo observación. Si RI(t) es mayor que 0,45, el facultativo debe considerar la realización de un tratamiento quirúrgico, observando otros síntomas que indiquen la posible ruptura del aneurisma, como: Dolor en la espalda y abdominal, vómitos, síncope etc. Cuando el valor de RI(t) es mayor que 0,7 el riesgo de ruptura es muy alto, sugiriéndose de inmediato la realización del tratamiento quirúrgico. 6 Ri (t ) iNRPi (7) i 1 Validación inicial del método La validación inicial del método ha mostrado resultados positivos, seleccionándose para esto un caso clínico y tres casos de la literatura. Tabla 1 Caracterización de los factores biomecánicos geométricos Valores umbrales FBGs Definición Bajo riesgo Medio riesgo Alto riesgo Peligroso Coeficiente ponderado, [18] Tasa de deformación, D d 1,20-1,70 1,71-2,30 2,31-3,29 3,3 0,35 Índice de asimetría, r R 1-0,9 0,8-0,7 0,6-0,5 0,4 0,10 Índice de dilatación, D L 0,75 0,74-0,69 0,68-0,61 0,6 0,10 Espesor relativo, t D 0,05-0,042 0,041-0,025 0,.024-0.011 0,01 0,20 0,25 Tasa de crecimiento, Nivel de riesgo Ponderado, NRPi [18] 22 D A DP T 0,1-0,17 0,18-0,3 0,31-0,49 0,5 0,1 0,3 0,7 1 Revista Cubana de Ingeniería Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco En todos los casos la geometría de los aneurismas y las condiciones específ icas de pacientes dif ieren significativamente. En el caso clínico se analizó un paciente con aneurisma cuyo diámetro era menor que el valor umbral (50 mm). El valor obtenido del índice de riesgo para las condiciones específicas de este paciente sugería que el paciente presentaba alto riesgo de ruptura por lo que debería considerarse la realización del tratamiento quirúrgico. Este resultado finalmente fue confirmado, pues durante el período de observación (al que estaba sometido el paciente atendiendo a los criterios que rigen la práctica médica actual) tuvo que ser sometido a una cirugía urgente de reparación debida a la ruptura del aneurisma por la pared posterior. En el caso de la validación del método a partir de casos públicos que aparecen en la literatura [5], los resultados fueron coincidentes. Debido a los resultados iniciales, se ha decidido comenzar un estudio más amplio, en el cual participan 12 pacientes con aneurismas, que son tratados en el Hospital Clínico de Valladolid. Para mayor información de los resultados, puede consultarse [19]. Sin embargo, estos resultados iniciales no deben esconder que la complejidad y el carácter multifactorial que caracteriza el proceso evolutivo de los AAA, establece una estrecha relación entre los parámetros individuales y los factores biomecánicos en general (biológicos, mecánicos y geométricos) y que cada uno incide en el comportamiento del otro. De aquí que la obtención de un índice útil, fiable y preciso debe considerar la interrelación entre estos factores, lo cual constituye actualmente un objetivo de médicos vasculares y científicos relacionados con esta temática. Como todo método en su estado de desarrollo, el aquí presentado tiene limitaciones, las que están asociadas principalmente a la precisión en la determinación de los parámetros geométricos, principalmente el espesor de pared, debido a la dificultad de extraer un valor exacto por la presencia de tejido circundante y por las variaciones de su valor entre las distintas regiones de la pared aneurismática. CONCLUSIONES En el presente trabajo se realizó un estudio numérico para determinar la influencia de la asimetría de los aneurismas de aorta abdominal (AAA), en las posibilidades de ruptura, utilizando un modelo constitutivo de la sangre de tipo pulsátil, incompresible, homogéneo, laminar y newtoniano. Para esto se utilizaron cuatro modelos virtuales de aneurismas, que se caracterizaron por presentar diferentes grados de asimetría, definidos por el parámetro . La investigación se basó fundamente en el análisis de los patrones de campo de flujo, con énfasis en el comportamiento de las estructuras de vórtices y regiones de recirculación y en estudio de la distribución de las tensiones tangenciales. La dinámica de las estructuras de vórtices, están bien caracterizadas en las etapas del ciclo cardíaco y modelos geométricos asimétricos estudiados. Esta puede ser resumida a partir de considerar la existencia de vórtices residuales del ciclo anterio r en el próximo ciclo. Al inicio de la aceleración sistólica, ocurre un movimiento de los vórtices (residuales) hacia la región de la pared anterior del aneurisma, acompañados estos con zonas de recirculación dominantes en el saco aneurismático. Con el aumento de la velocidad del flujo sanguíneo, etapa 2, los vórtices forman un lazo alrededor del núcleo del chorro que atraviesa el aneurisma lo que provoca la eyección de los vórtices aguas arriba. En etapas siguientes, estas estructuras se desplazan hacia el centro y hacia la región de salida del aneurisma, ejerciendo una importante influencia sobre esta superficie. Dicho comportamiento se ve igualmente reflejado en la distribución de tensiones tangenciales, las cuales muestran sus mayores valores en esta región, y se incrementan con el aumento del grado de asimetría. Se presentan las ideas principales para el desarrollo de un método que permita determinar, a través de un indicador numérico y personalizado, la evolución de los aneurismas y sus posibilidades de ruptura utilizando apenas los parámetros geométricos del aneurisma. El método se basa en definir adecuadamente los factores biomecánicos geométricos como relaciones funcionales entre los parámetros geométricos, a los cuales y mediante un estudio entre especialistas se establecieron los valores umbrales, y los coeficientes y el nivel de riesgo ponderados. Los resultados iniciales de validación del método fueron positivos, debido a lo cual se procedió a un estudio de casos con 12 pacientes con aneurismas en el Hospital Clínico de Valladolid. AGRADECIMIENTOS Los autores agradecen al Ministerio de Ciencia e Innovación, a través del proyecto "PTQ06-2-0218", a la Junta de Castilla y León, mediante el proyecto "Simulación avanzada de sistemas deformables II" y al Instituto Superior Politécnico José Antonio Echeverría, de Cuba con el proyecto "Modelación del proceso evolutivo de aneurismas cerebrales y aórticos utilizando MEF", el apoyo financiero para la realización del presente trabajo. REFERENCIAS 1. HASSEN-KHODJA, R. et al. "Impact of aortic diameter on the outcome of surgical treatment of abdominal aortic aneurysm". Ann. Vasc. Surg. 2001, nº 15, p. 136–139. 2. CAPELLER, W. A. "Possible objectification of a critical maximun diameter for elective surgery in abdominal aortic aneurysm based one and three dimensional ratios". Journal of Cardiovascular Surgery. 1997, vol. 38, p. 623-628. 3. FILLINGER, M. et al. "Prediction of rupture in abdominal aortic aneurysm during observation: Wall stress versus diameter". J. Vasc Surg. 2003, nº 37, p. 724-732. 4. PAPAHARILAOU, Y. A. et al. A decoupled fluid structure approach for estimating wall stress in abdominal aortic aneurysm. Journal of Biomechanics. 2007. nº 40. p. 464-475. 5.KLEINSTREUER, K. et al. "Analysis and Computer Program for Rupture-risk Prediction of Abdominal Aortic Aneurysms". Biomedical Engineering. 2006, vol. 5. nº 19. 6. VANDE GEEST, J. "A Biomechanics-based Rupture Potential Index for Abdominal Aortic Aneurysm Risk Assessment". Ann. Ny Acad. Sci. 2006, vol. 11. p.1085. Revista Cubana de Ingeniería 23 Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura 7. VILALTA, G. et al. "Influence of abdominal aortic aneurysms geometry in the blood flow dynamics and in its rupture risk". Ingeniería Mecánica, 2009, vol. 2, p. 29-37. 8. FINOL, E. A. et al. "The effect of asymmetry in abdominal aortic aneurysm under physiologically realistic pulsatile flow conditions", Journal of Biomechanical Engineering, 2003, vol. 125, nº 2, p. 207. 9. SCOTTI, C. M. et al. "Fluid-structure interaction in abdominal aortic aneurysms: Effects of asymmetry and wall thickness". Biomedical Engineering OnLine, 2005, vol. 64, nº 4. 10. MILLS, C. et al. "Pressure-flow relationships and vascular impedance in man". Cardiovasc. 1970, vol. 4, p. 405-441. 11 WOMERSLEY, J. R. "Method for the calculation of velocity, rate of flow and viscous drag in arteries when the pressure gradient is know". J. Physiol. 1955, vol. 127, p. 553563. 12. PAPAHARILAO, Y. and EKATERINARIS, J. A. The influence of asymmetric inflow in abdominal aortic aneurysm hemodynamics. En European Conference on Comp. Fluid Dyn. 2006. 13. BOHÓRQUEZ-SIERRA, J. C. "Metaloproteinasas de matriz: su implicación en las enfermedades vasculares periféricas". Angiología, 2006, vol. 58, nº 4, p. 269-277. 14. DOBRIN, P. B. and Mrkvicka, R. "Failure of elastin or collagen as possible critical connective tissue alterations underlying aneurysmal dilatation". Cardiovasc Surg. 1994, vol. 2, p. 484-488. 15. HALLORAN, B.G and BAXTER, B.T "Pathogenesis of aneurysms". Semin Vasc Surg. 1995, vol. 8, nº p. 85-92. 16. LAKATA, E.G."Arterial aging is risky". Appl Physiol. 1998, vol. 105, p. 1321-1322. 17. VILALTA, G. et al."Estudio de la influencia de la asimetría de aneurismas de aorta abdominal (AAA) en las posibilidades de su ruptura". En Memorias del 9 Congreso Iberioamericano de Ingeniería Mecánica. Palmas de Gran Canarias España. 2009. 18. VAQUERO, C. "Estudio interno sobre incidencia de aneurismas de aorta abdominal". Reporte interno 33/ 09 del Hospital Clínico de Valladolid. 2009. 19. VILALTA, G. et al. "Quantitative Indicator of Abdominal Aortic Aneurysm Rupture Risk Based on its Geometric Parameters". En International Conference on Biomedical Science and Technology. 2010. AUTORES Guillermo Vilalta Alonso Ingeniero Mecánico, Doctor en Ciencias Técnicas, Fundación CARTIF, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España Félix Nieto Ingeniero Mecánico, Fundación CARTIF, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España Melchor Rodríguez Madrigal Ingeniero Mecánico, Doctor en Ciencias Técnicas , Profesor Titular, Grupo de Modelación Biomecánica, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico, José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Laurentiu Lipsa Ingeniero, Fundación CARTIF, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España Joan O´ Connor Blanco Ingeniero Mecánico, Máster en Ciencias, Instituto de Cibernética Matemática y Física (ICMF),Universidad de La Habana, Cuba Hemodynamics of Abdominal Aortic Aneurysm and Morphometryc Characterization as a Possible Indicator of Rupture Abstract The rupture of abdominal aortic aneurysm (AAA) represents an important clinical event combining structural modifications that provoke weakening of the arterial wall, coupled with the hemodynamic pressure acting on them. In an effort to increase understanding about this complex phenomenon, this paper studies the influence of abdominal aortic aneurysm asymmetry in the patterns of the main hemodynamics factors. Flow simulation in four 3D virtual AAA models with different asymmetry ranging from 0.2 to 0.8 were carried out under realistic pulsatile conditions to assess and identify regions with disturbed patterns flow and how it modifies the velocities fields and hemodynamic stress on the inside of the aneurysmatic sac. An explanation of the vortex structure changes and stress distribution during cardiac pulse, is presented. The results obtained show that the asymmetry is one of the main factors that influence the AAA rupture. On the other hand, the basis to establish a novel method, based on the morphometry of the AAA, to determine a numerical indicator characterizing the evolution and the rupture risk of aneurysm, regardless of size, is approached; Outlining the initial results of the validation, its current limitations and the future steps to improve the method. Key words: AAA, morphometry, rupture risk of, biomechanical factors 24 Revista Cubana de Ingeniería Revista Cubana de Ingeniería, 1(3), 25-30, 2010 BIOINGENIERÍA Simulación de antorcha de plasma Javier García de la Figal Correo electrónico:[email protected] Abel Fumero Pérez Correo electrónico:[email protected] René Collazo Carceller Correo electrónico:[email protected] Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Clodomiro Alves Junior Correo electrónico:[email protected] Universidad Federal de Río Grande del Norte, UFRN, Brasil Resumen Se realiza un estudio de las principales características de trabajo y propiedades del plasma de argón para el posterior diseño y construcción de una antorcha de plasma y su empleo en la proyección de partículas finas. Se determinan las propiedades del plasma en función de su temperatura y presión, simulando su comportamiento dentro del principal elemento de la antorcha: la boquilla. A partir de los modelos de elementos finitos desarrollados se determinan las influencias de las características de la boquilla en el plasma obtenido, llegándose a definir los mejores parámetros de la boquilla y de la antorcha a ser diseñada y construida. Palabras clave: plasma, modelo de elementos finitos, simulación, biomaterial Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN Los procesos de deposición de capas finas de polvo sobre sustratos metálicos han sido desarrollados en las últimas décadas, ante la creciente necesidad de crear, recubrimientos con buena resistencia y adherencia para varias aplicaciones. Las capas de hidroxiapatita porosa depositadas sobre sustratos metálicos están siendo ampliamente utilizadas en la construcción de prótesis médicas. Uno de los métodos empleados para su obtención es la deposición de las partículas sobre el sustrato a través de un chorro de plasma, creado por una antorcha [1-3]. El diseño y construcción de tales antorchas es un complejo problemas en el cual inciden varias disciplinas de las ingenierías: [4-6] • Electricidad de corriente directa. • Transferencia de calor. • Mecánica de fluidos. La determinación de los parámetros de la antorcha para cumplir adecuadamente sus funciones de proyección de partículas constituye una compleja tarea y es el objetivo básico de este trabajo. Para determinar sus mejores parámetros de operación se recurre a la modelación por elementos finitos del proceso de generación del plasma térmico dentro de la pieza clave de la antorcha: la boquilla o tobera, así como su movimiento y proyección dentro de la misma [1, 6]. El plasma térmico básicamente no es más que un gas ionizado, por lo que puede considerarse desde el punto de vista de su movimiento como un fluido compresible. Entonces el primer problema a resolver es la determinación de sus principales propiedades, que son altamente variables [7, 8]. Una vez determinadas sus leyes de variación se procede a la creación de modelos de elementos finitos del plasma dentro de las boquillas con diferentes dimensiones, para estudiar la influencia de los principales parámetros de estas en el plasma obtenido y sus características de proyección [9, 10]. Todo el proceso es validado a través del programa de modelación de plasma proyectado Jet Poudres, del Centro de Ciencias de Simulación de antorcha de plasma Procedimientos Cerámicos y Tratamiento de Superficies de la Universidad de Limoges, Francia [9]. MATERIALES, MÉTODOS Y MODELOS Las propiedades investigadas del plasma fueron las siguientes: • Densidad, DEN ( ). • Viscosidad dinámica, VISC (). • Conductividad térmica, K. • Calor especifico, C. Dichas propiedades permiten la modelación de los efectos térmicos y de fluidos del plasma [4-6]. A partir de la información obtenida del programa Jet Poudres, fueron desarrolladas ecuaciones de las propiedades mencionadas en función de la temperatura y la presión [9, 10]. Así, por ejemplo, se obtuvo que la densidad varía según la siguiente ecuación de regresión (figura 1): Además del voltaje aplicado que está implícito en la potencia eléctrica. Se trabaja con un diseño factorial a 2 niveles, 2 3 que brinda la matriz de experimentos mostrada en la tabla 1, con 8 modelos a desarrollar [10]. En las figuras 2 y 3 se muestran características de los modelos creados con Dnoz = 6 y 8 mm. Se emplearon elementos finitos de tipo isoparamétricos, de 4to. orden de integración, formas triangulares para adaptarse mejor a las configuraciones complejas y con capacidades de cálculo en las 3 disciplinas mencionadas [11-16]. El modelo 8, por ejemplo, posee un total de 1 012 elementos finitos. Todos con posibilidad de simultanear las 3 disciplinas de cálculo de interés, cuyas ecuaciones generales son las siguientes: [17- 21] Electricidad de corriente directa ( V ) 0 Transferencia de calor C DEN 34,233 1 5,430 9e 5 T 0,000 3 p 3,057 4e 9 T T (1) (2) T ( K T ) C u T t (3) 4,672 4e 11 T p 9,050 4e 10 p`p Mecánica de fluidos Válida para: T = 293 - 14 000 0 K , p = 1,793 - 2,000 atm. T: temperatura, p: presión. u p (u u ) ( p I (u ( u )T ) t (2 / 3 )(u ) I C 3 Densidad DEN. [kg / m m^3] DEN donde: : Conductividad eléctrica del plasma. u : Velocidades del fluido. T : Temperatura. t : Tiempo. I : Matriz unitaria. p (4) (1) Operador "del" o nabla. X Y Z [N /m ^2 ] T [K ] Ta b la 1 M a triz d e d i s e ño d e lo s m o d e lo s Fig. 1. Gráfico de la ecuación de regresión para densidad del plasma en función de T y p. De igual forma fueron obtenidas funciones para las restantes propiedades del plasma: VISC, K y C. Posteriormente se determinaron las características de las boquillas de estudio, para producir los chorros de plasma capaces de proyectar partículas de hidroxiapatita. Se realizó un estudio preliminar de las mismas [1, 6], determinándose los parámetros de interés y sus rangos de variación, que serán las variables independientes del diseño de experimentos (o diseño de modelos) a desarrollar como: • Potencia eléctrica. (12 - 55 kW). • Diámetro de salida de la boquilla, Dnoz . (6 - 12 mm). • Velocidad de entrada del argón a la boquilla, Ven . (75 -100 m/s). 26 Revista Cubana de Ingeniería M o d e lo no . P o te nc ia e lé c tri c a [k W ] D no z [m m ] Ve n [m /s ] Vo lta je [V ] 1 55 12 75 100 2 55 12 100 100 3 55 6 75 100 4 55 6 100 100 5 12 12 75 4 7 ,3 6 12 12 100 4 7 ,3 7 12 6 75 4 7 ,3 8 12 6 100 4 7 ,3 Javier García de la Figal - Abel Fumero - René Collazo - Clodomiro Alves Junior Anodo, ´ Cobre agua D noz Plasma Catodo, Tungsteno ´ Fig. 2. Modelos de boquillas con Dnoz = 6 mm. C atodo 12 mm b ) 6 mm a) Catodo Fig. 3. Modelos de elementos finitos: a) Modelo 8; b) Modelo 6. De todas las propiedades del plasma necesarias la conductividad eléctrica , se obtuvo por comparación con los resultados de proyección de plasma calculados mediante el programa Jet Poudres, siendo el parámetro utilizado para ajustar los resultados de los modelos desarrollados con los del programa Jet Poudres. De esta forma se validaron los resultados de los modelos de elementos finitos construidos. A continuación se procedió a resolver los 8 modelos desarrollados, ajustando los valores obtenidos con los brindados por el programa Jet Poudres, a través del ajuste del parámetro. En la tabla 2 se muestran los resultados obtenidos de las corridas realizadas. donde: Texit: Temperatura del plasma en eje y a la salida de la boquilla. Vmáx: Velocidad máxima del plasma a la salida. : Conductividad eléctrica del plasma. T Cátodo : Temperatura máxima del ánodo de tungsteno. Pot. Calórico: Potencia calórica creada en el plasma por la corriente eléctrica. Tabla 2 Re sulta dos principale s de la s co rrida s T exit [K ] V máx [m/s] P otencia caló rica [kW ] 1/ m T cáto do [K] 1 13 900 2 65 3 5,4 14 52 1 3 3 00 2 13 550 2 73 3 5,4 14 52 1 0 6 50 3 10 588 1 0 23,7 3 1,5 44 52 ,5 9 100 4 12 169 1 1 67 3 1,2 43 52 5 7 87 4 2 10 8 ,90 0 52 6 7 90 0 2 69,22 8 ,90 0 52 7 9 40 0 9 27 6 ,58 6 49 8 8 45 0 1 1 49 6 ,95 0 52 8 700 4 6 80 4 6 65 3 970 3 920 Revista Cubana de Ingeniería 27 Simulación de antorcha de plasma [ V] D noz = 6 La eficiencia entre la potencia eléctrica y la calórica se consideró del 57 % [4, 7, 8, 9, 20]. En la tabla 3 se muestran las diferencias en forma de errores relativos, de los valores calculados de la temperatura y velocidad del plasma, respecto a los obtenidos por el programa Jet Poudres. En las figuras 4 -7 se muestran gráficos y diagramas de los resultados obtenidos. De esta forma se crearon los 8 modelos de interés, se procedió a su solución y validación, pudiendo pasarse al análisis de la influencia de los principales parámetros de la boquilla en las características del plasma obtenido a su salida. Tabla 3 Diferencias (error %) entre los resultados de corridas respecto a los obtenidos por el programa Jet Poudres Modelo T exit Pot. Calórica 1 0,65 11,1 2 2,3 11,1 3 2,1 11,1 4 7,2 11,6 5 2,7 5,2 6 3,8 5,2 7 0,0 3,2 8 6,2 1,44 Fig. 5. Distribución del voltaje (V) en una sección del modelo 8 para t = 5 s. Fig. 6. Distribución de la temperatura (K) en una sección del modelo 8 para t = 5 s. Fig. 4. Temperatura del plasma en el eje y a la salida de la boquilla. Modelo 8. 28 Revista Cubana de Ingeniería Fig. 7. Distribución de la velocidad del plasma (m/s) en una sección del modelo 8 para t = 5 s. Javier García de la Figal - Abel Fumero - René Collazo - Clodomiro Alves Junior RESULTADOS Y DISCUSIÓN A partir de los resultados de las corridas realizadas de los 8 modelos construidos y solucionados, mostrados en la tabla 2, puede analizarse la incidencia de los parámetros de la boquilla en el plasma obtenido: y así establecer los tipos de boquillas más adecuados para la función de crear y proyectar plasma capaz de transportar partículas de hidroxiapatita sobre sustratos metálicos. De la tabla 2 pueden realizarse los siguientes análisis: El incremento de la velocidad de entrada del gas Ven (aumento en un cuarto) incrementa las velocidades de salida del plasma, aunque en una menor proporción que aquella, en todas las variantes corridas; como es de esperar en un sistema de tobera, trabajando con fluido compresible [11, 12, 19]. Su efecto en las temperaturas de salida del plasma y del cátodo son aumentarlas en muy pequeña medida, o sea, en menor proporción. Esto se debe a que las temperaturas alcanzadas por el plasma están dadas principalmente por los efectos eléctricos que lo producen, mientras sus velocidades solo inciden a través de la influencia que pueden ejercer al cambiar algunas de las propiedades del plasma. Por tanto, para cambiar las temperaturas, Ven no es un buen parámetro controlador. No así para las velocidades de salida del plasma, en que es el que más eficientemente controla a estas velocidades. El incremento del diámetro de salida de la boquilla (Dnoz, duplicado) hace decrecer ligeramente las temperaturas tanto a la salida de la boquilla como en el cátodo. Su efecto en las velocidades de salida es decrecerlas, pero ligeramente también, contrario a lo esperado en que se hubiera predicho una mayor incidencia y cambio. Esto parece estar dado por los cambios que se producen en otras de las propiedades del plasma dentro de la boquilla, tal como la densidad que se reduce drásticamente hacia la salida. No es un buen parámetro por tanto, para controlar las características principales de la antorcha. El incremento de la potencia (más del cuádruple) produce significativos incrementos en las temperaturas, tanto a la salida del plasma como en el ánodo. Lo que se corresponde con ser la fuente directa de generación del plasma. Su efecto en las velocidades de salida es insignificante. Es por tanto un buen parámetro, para controlar la temperatura del plasma pero no su velocidad de salida. Con solo 12 kW de potencia eléctrica, sin embargo, se obtienen temperaturas y velocidades que son interesantes para el proceso de proyección de partículas en chorro de plasma, mayores a los 7 500 K, objetivo de esta antorcha [1, 6, 7, 9]. El valor de la conductividad eléctrica del plasma fue tomada en el trabajo como constante en cada modelo desarrollado y variando en un rango estrecho entre los modelos, con valores entre 49 - 52,5, 1 / m . Ver tabla 2. La estabilización de las propiedades y características del plasma dentro de la boquilla ocurre rápidamente, en 2 - 6 s (figura 4 para las temperaturas), lo que se corresponde con lo observado en los experimentos realizados por los autores [1]. Las temperaturas obtenidas en el cátodo de tungsteno pueden ser muy elevadas (hasta 13 300 K) al emplearse las mayores potencias. Para 12 kW se alcanzan unos 3 500 K. En todos los casos analizados están por debajo de las máximas del plasma, lo que indica la buena eficiencia térmica de las boquillas propuestas. Las temperaturas del ánodo de cobre están por debajo de los 800 K en todas las variantes analizadas. Con el aumento del diámetro de salida Dnoz se hace necesario aumentar la profundidad del ánodo dentro de la boquilla (figura 3b), para lograr los valores de temperaturas del plasma adecuados mostrados en los modelos 1, 2, 5 y 6 de la tabla 2, con Dnoz = 12 mm. CONCLUSIONES Puede concluirse que se ha resuelto el complejo problema de simular la generación y proyección de plasma térmico de argón por medio de una antorcha, a través de modelos de elementos finitos con la información disponible. De los modelos desarrollados y corridos se deduce que las características más adecuadas de la boquilla para la proyección de partículas de hidroxiapatita, son las correspondientes al modelo 8, en las tablas 1 y 2, con el cual se obtienen las mayores velocidades del plasma a la salida y temperaturas por encima de los 8 000 K, con un mínimo de consumo de energía eléctrica. Se trata de la boquilla con: Dnoz = 6 mm; Ven = 100 m/s; Voltaje = 47,3 V y Pot. eléctrica = 12 kW. Los parámetros más eficientes de las boquillas para producir cambios en las características del plasma creado son: a) La potencia eléctrica para variar la temperatura del plasma. A mayor potencia aplicada, mayor es la temperatura obtenida, como es de esperar. Es el parámetro que determina la potencia calórica desarrollada en el plasma. Sin embargo, para aumentar la temperatura se requieren grandes aumentos de la potencia eléctrica aplicada, pues la temperatura se incrementa en mucha menor proporción que el aumento de potencia. b) El diámetro de salida de la boquilla para variar la velocidad del plasma. c) La velocidad de entrada del argón incide en la velocidad de salida y en las temperaturas, pero en muy pequeña medida, por lo que no es un indicador de peso en las variaciones de temperaturas y velocidades de salida del plasma. Las temperaturas máximas del ánodo de cobre están por debajo de los 800 K, bien inferiores a su temperatura de fusión. En el cátodo se tienen temperaturas muy elevadas, de ahí la necesidad del empleo de materiales altamente resistente térmicamente, como el tungsteno. Es posible trabajar en los modelos con valores constantes de la conductividad eléctrica del plasma , parámetro difícil de determinar, a pesar de ser también dependiente de la temperatura y presión. En este trabajo se utilizó una promedio para cada modelo, que considera la fuente de corriente adicional que se genera durante la creación del plasma. Los valores considerados en este trabajo están en un rango estrecho: = 49 - 52,5 . Revista Cubana de Ingeniería 29 Simulación de antorcha de plasma REFERENCIAS 1. FUMERO, A. et al. Recubrimientos de HA de producción nacional obtenidos por plasma atmosférico, Estudio preliminar. En 14 Convención Científica de Ingeniería y Arquitectura. La Habana,Cuba, Dic.2008. 2. FAUCHAIS, P. et al. "Knowledge Concerning Splat Formation: An Invited Review". Journal of Thermal Spray Technology. 2004., vol. 13, nº 3. 3. NAKAMUR, T. et al. "Effects of Pores on Mechanical Properties of Plasma-Sprayed Ceramic Coatings". Journal of American Ceramic Society. 2000. vol. 83, nº 3, p. 578 – 584. 4. ANGELES, P.J.P. et al. Estudo de tochas de plasma atraves da teoria da similiradidade. Disertacao de Mestrado. Campinas. IF - Unicamp. 2003. 5. BIANCHINI, R. C. Modelagem e simulacao de procesos a plasma para tratamento de organos clorados. Disertacao de Mestrado. IF- USP. Sao Paulo. 2000. 6. HONG, S. H. et al. Thermal Plasma Modeling on Design of Plasma Torches for Industrial Applications. 2002. Invited Talk at 2002 KPS/DPP Fall Meting. 7. FELIPINI, C. L. Nocoes de Plasma Térmico e suas Principias Aplicacoes. Teses de Doutorado. Faculdade de Ciencias Exatas e Tecnológicas. USJT, Brasil, 2004. 8. ECKERT, E. R. G. and PFENDER, E. Advanced in Plasma Heat Transfer. University of Minnesota. 1967. 9.Software Jet Poudres. del Centro de Ciencias de Procedimientos Cerámicos y Tratamiento de Superficies. Universidad de Limoges, Francia. 10. MONGTOMERY, C. Diseño y Analisis de Experimentos. Grupo Ed. Iberoamericano. Mexico DF: 1991. 11. HAUKE, G. "Simple stabilizing matrices for the computation of compressible flows in primitive variables". Comp. Meth. Appl. Mech. Engrg. 2001. vol. 190, p. 6881–6893. 12. SOULAÏMANI, A. and FORTIN, M. "Finite element solution of compressible viscous flows using conservative variables". Comp. Meth. Appl. Mech. Engrg. 2001, vol. 118. 13. FRANK, P. et al. Fundamentals of Heat and Mass Transfer. 4th ed. New York: John Wiley & Sons, 1996. 14. CAMERON, A.D. el at. NAFEMS Benchmark Tests for Thermal Analysis Editado por: Glasgow, N. L. 1986. 15. GARCÍA DE LA FIGAL, J. Modelación por Elementos Finitos. La Habana, Cuba. : Facultad de Ingeniería Mecanica, Cujae, 2005. 16. MACKERLE, J. Coatings and Surface Modification Technologies: a Finite Element Bibliography (1995–2005). Institute of Physics Publishing. Modelling and Simulation in Materials Science and Engineering, August 2005. 17. AC/DC Module. User’s Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College, Lane Hatfield Hertfordshire. AL10 9AB. 18. Multiphysics Module. User’s Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College. Lane Hatfield Hertfordshire. AL10 9AB. 19. Multiphisycs Module. Modeling Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College. Lane Hatfield Hertfordshire. AL10 9AB. 20. Heat Transfer Module. User’s Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College. Lane Hatfield Hertfordshire. AL10 9AB. 21. BOULOS, M. I. " Thermal Plasma Processing". IEEE: Transactions on Plasma Science. December 1991. vol. 19, nº 6. AUTORES Javier García de la Figal Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor Titular, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Abel Fumero Pérez Ingeniero Mecánico, Máster en Ingeniería Mecánica, Profesor Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba René Collazo Carceller Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Clodomiro Alves Junior Doctor, Laboratorio de Plasma, Universidad Federal de Río Grande del Norte, UFRN, Brasil Sumulation of Plasma Torche Abstract The work is a study about main work features and properties of plasma of argon for designing and building plasma torches, to be employed in the projection of fine particles. The plasma properties in feature of their temperature and pressure are determinate and their behaviors inside the main element of the torche: the nozzle, is simulated. The influence of nozzles characteristics in the obtained plasma is determined, from finite elements models developed, being ended up defining the best nozzle parameters to be designed and built. Key words: plasma, finite elements method, simulation, biomaterial 30 Revista Cubana de Ingeniería Revista Cubana de Ingeniería, 1(3), 31-39, 2010 INGENIERÍA ELÉCTRICA Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa Yelennis Godoy Valladares Correo electrónico:[email protected] Empresa de Proyectos de la Industria Básica (EPROB), Ciudad de La Habana, Cuba Olga Susana Suárez Hernández Correo electrónico:[email protected] Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Resumen En este artículo se presenta la herramienta difusa de análisis de riesgo de impacto de rayo en edificaciones para las condiciones de Cuba, así como su aplicación en un caso específico como parte de su validación. Los fundamentos de la teoría de la logica difusa fueron tratados en un artículo publicado con anterioridad en esta revista. Palabras clave: análisis de riesgo, lógica difusa, rayo, nivel ceráuneo Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN En este trabajo se aplican, por primera vez en el país, las propiedades de la lógica difusa al importante problema de la protección de los seres vivos y las instalaciones contra las descargas atmosféricas que constituyen en la actualidad la primera causa de muerte por fenómenos naturales y una de las causas fundamentales de pérdidas económicas en Cuba. Se crea un sistema difuso para el análisis de riesgo de impacto por rayo en estructuras y en su vecindad. Este sistema abarca los razonamientos contenidos en la norma IEC 62305-2 y las experiencias de especialistas cubanos, entre ellas están las características de la variación espaciotemporal de la actividad ceráunica en el país a partir de un estudio actualizado realizado en el 2005. RIESGO Y COMPONENTES DE RIESGO El riesgo R es el valor de una pérdida anual promedio probable. Para cada tipo de pérdida que puede ocurrir en una edificación o en un servicio, se evalúa el riesgo pertinente. Los riesgos que se evalúan en una edificación pueden ser: R1: Riesgo de pérdida de vidas humanas. R2: Riesgo de pérdida del servicio para el público. R3: Riesgo de pérdida del patrimonio cultural. Estos riesgos son el resultado de la suma de varios componentes de riesgo, dependiendo de las pérdidas que pueden ocurrir y de las características del objeto a proteger. La expresión general para obtener los componente de riesgo es: Rx N x Px Lx donde: NX: Número anual promedio de eventos peligrosos. PX: Probabilidad de daño. LX: Pérdida resultante. FUNCIONES DE MEMBRESÍA DE LAS VARIABLES DEL SISTEMA DIFUSO El sistema difuso consta de tres variables de entrada (NX, PX y LX) y una variable de salida (RX), como se explica en la referencia1. Estas variables se describen de forma cualitativa y cuantitativa permitiendo así una mayor interpretación de la subjetividad envuelta en el análisis de riesgo. Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa Evaluación de la densidad de rayos a tierra El número anual promedio de eventos peligrosos debidos a descargas de rayos que influye en un objeto que se va a proteger depende de la actividad de tormentas eléctricas de la región donde se encuentra el objeto y de las características físicas del objeto. La expresión fundamental para hallar NX es: NX = Ng . Ae . Cx . 10-6 donde: Ng: Densidad de rayos a tierra por kilómetro cuadrado por año. Ae: Área equivalente. Cx: Coeficiente de corrección para las características físicas del objeto a proteger. Esta expresión varía según la posición del punto impactado por el rayo o fuente de daño, [2] como se muestra en la tabla 1. Actualmente algunos países cuentan con sistemas de localización de rayos o red de contadores que les permite obtener directamente la densidad de rayos a tierra. En Cuba el indicador de incidencia con que se cuenta es el nivel ceráuneo (días tormenta promedio), por lo que Ng ha de ser obtenido a través de una relación empírica. Muchas de estas aparecen en la literatura y se normalizan en diferentes documentos en función de mediciones de parámetros del rayo que han sido realizadas en regiones tropicales. Países como México, Brasil, Sudafrica, Colombia, ubicados en regiones tropicales han realizado dif erentes investigaciones y han podido establecer la variación espaciotemporal de la intensidad de la actividad eléctrica atmosférica en general, y de los parámetros de los rayos en particular con desviaciones significativas de las que se reportan en países templados. En la tabla 1 se muestran desviaciones en los resultados de Ng al variar las expresiones que obtienen distintos países, es por ello que en este trabajo se escoge la estimación empírica Ng = 0,1 . Td Para evaluar de forma lingüística a Ng se trabaja con la versión actualizada del mapa de niveles isoceráuneos del país según las últimas evaluaciones realizadas teniendo en cuenta las sesenta y tres estaciones meteorológicas ubicadas a lo largo del país y veinte años de información. La densidad de descargas a tierra por kilómetro cuadrado anual se describe a través de cuatro conjuntos difusos como se muestra en la figura 1. En la evaluación de Ng se trabaja Tabla 1 Evaluación de N g para fórmulas de distintos países Fórmulas de cálculo de N g Regiones y países N g = 0,1.T d Estimación empírica N g = 0,024.Td1.12 Regiones montañosas y llanas Td = 130 Regiones costeras T d = 100 T d = 80 1,3 10 8 Correlación con contadores de rayo. Regiones montañosas (México, 1996) 5,59 - - N g = 0,04.T d1.24 Correlación con contadores de rayo. Regiones montañosas (Brasil,1993) 16,7 - N g = (5,4 1,6 . T d2,5) .10 -7 : Latitud en grados Correlación con contadores de rayo. Regiones montañosas (Colombia,1995) 13,1 - N g = 0,044 . T d1,24 Correlación con contadores de rayo. Regiones planas (México, 1996) 18,4 - N g = 0,026 .T d1,33 Correlación con contadores de rayo. Regiones costeras (México, 1996) - 11,88 8,83 N g = 176 -3,8 .T d : Latitud en grados Correlación con contadores de rayo. Regiones costeras (Colombia, 1995) - 0,17 0,13 N g = 0,004 . Td125 Correlación con contadores de rayo. (Sudáfrica, 1980) 17,6 12,65 9,57 32 Revista Cubana de Ingeniería - - - Yelennis Godoy Valladares - Olga Susana Suárez Hernández con la variación espacio-temporal a nivel local (estaciones meteorológicas). Cada conjunto agrupa los valores mínimos, promedio y máximos de los días tormenta registrados. En la zona de Isabel Rubio, Pinar del Río, se registran los mínimos valores de días tormenta, alcanzándose un valor máximo igual a 19, esto se aleja mucho de los valores registrados en el resto de las estaciones meteorológicas, por lo que se crea el conjunto difuso muy bajo que representa este comportamiento. El conjunto difuso bajo refleja los valores más bajos que se localizan en zonas costeras sobre todo hacia la porción oriental del país. El conjunto difuso alto refleja los valores relativamente altos observados en la costa sur de Cuba y en especial en zonas aledañas del oeste del Golfo de Batabanó, el Golfo de Ana María y el Golfo de Guacanayabo, donde estos alcanzan entre 100 y 120 días. El conjunto difuso muy alto refleja los valores más altos (mayores a 120 días) que se registran en la cordillera de Guaniguanico, el interior de las provincias de La Habana y Matanzas, en el Grupo Guamuhaya y en las zonas llanas interiores y las montañosas de las provincias orientales. Los máximos absolutos se observan en el interior de la cuenca del Cauto con 135 días anuales seguidos muy de cerca por las zonas más elevadas de la Sierra Maestra, que reportan 134 días de tormenta. La mayor membresía, uno, en cada conjunto, lo tienen los días tormenta promedio, en tanto los valores mínimos y máximos tienen una membresía igual a 0,5. De este modo se representa la ocurrencia de aproximadamente igual cantidad de días tormenta anuales por debajo y por encima del promedio registrados en la mayoría de las estaciones. Cinco estaciones no coinciden; tres de ellas, La Sabana, Sagua la Grande y Santa Cruz muestran una tendencia a que la cantidad de valores máximos estén por encima del promedio y otras dos, Isabel Rubio y Manzanillo, una tendencia a que la cantidad de valores mínimos estén por encima del promedio registrado. En el caso de Isabel Rubio, en el conjunto muy bajo, el valor mínimo tiene una función de membresía de 0,35 y el máximo de 0,65. En las otras cuatro estaciones, los valores mínimos o máximos pueden ocupar el valor máximo en otros conjuntos si el diseñador decide darle una menor o mayor membresía. Evaluación del área equivalente Para cada Nx, según la fuente de daño se obtiene un área de captación equivalente y la misma se afecta por distintos factores como se expresa a continuación: Ad: Área equivalente de las descargas que impactan en la edificación, se expresa como: Ad= L . A + 6 . (L+A) + 9 . . (H)2 (1) donde: L: Longitud del objeto a proteger (m). A: Ancho del objeto a proteger (m). H: Altura del objeto a proteger (m). Esta área se afecta por el factor Cd que se muestra en la referencia 2, dependiendo de la localización del objeto a proteger. Am: Área equivalente de las descargas que impactan cerca de la edificación, se expresa como: Am=[L . A+500 . (L+A)+ . . (250)2] Si Am < 0, se asume que NM = 0. Fig. 1. Función de membresía de Ns. Revista Cubana de Ingeniería 33 Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa Al: Área equivalente de las descargas que impactan en un servicio que entra a la edificación, si el servicio es aéreo se expresa como: Ala=[Lc - 3 . (Ha+Hb)] . 6 . (Hc) (2) donde: Lc: Longitud (m) de la sección del servicio desde la edificación hasta el primer nodo con un valor máximo de 1 000 m. Ha: Altura (m) de la edificación conectada al extremo a del servicio . [2] Hb: Altura (m) de la edificación conectada al extremo b del servicio . [2] Hc: Altura (m) de los conductores del servicio por encima del terreno. Si el servicio es soterrado la expresión del área equivalente es: Als = [Lc-3 . (Ha+Hb)] . p (3) donde: p: Es la resistividad del suelo (m) donde la línea entre en tierra con un valor máximo de 500 m. En cualquier caso el área equivalente se afecta por los factores (Cd), dependiendo de la localización de la estructura y por el factor de corrección (Ct) por la presencia de un transformador AT/BT ubicado entre el punto de impacto y la edificación. [2] Ai: Área equivalente de las descargas a tierra cerca del servicio que entra a la edificación, si el servicio es aéreo se expresa como: Aia = 1 000 . Lc (4) Si el servicio es soterrado la expresión es la siguiente: Ais = 25 . Lco p (5) Esta área se afecta por los factores Ct, de corrección por la presencia de un transformador AT/BT ubicado entre el punto de impacto y la edificación y el factor ambiental (Ce) que se muestra en la referencia 2. Teniendo en cuenta las características de distintas edificaciones que se construyen en el país, así como el ambiente y la ubicación de las mismas, se proponen distintos conjuntos de áreas. Estás áreas afectan a la función de membresía de Ng, anteriormente explicada, y como resultado se describe lingüísticamente N x a través de cinco conjuntos. [2] Evaluación de la probabilidad de daño Existe probabilidad de que una descarga atmosférica que impacte en la edificación a proteger, en un servicio que esté conectado a la misma y en los alrededores de ambos, cause lesiones a las vidas humanas, daños físicos y/o fallos a los sistemas internos. Los valores de la probabilidad de daño 34 Revista Cubana de Ingeniería dependen de las medidas de protección implantadas o se diseñen para este objeto. Para cada componente de riesgo identificado y en dependencia de las características de la estructura se selecciona la probabilidad de daño correspondiente. En la referencia 2 se muestran las tablas donde se recogen los valores de probabilidad en dependencia de las medidas de protección que reducen las lesiones a las personas, los daños físicos y los fallos de los sistemas internos. La descripción de los conjuntos difusos de estas pérdidas se dan en las referencias 1 y 2 . Evaluación de las perdidas La pérdida resultante LX se refiere a la cantidad relativa media de un tipo de daño, su magnitud y efectos, a causa de una descarga atmosférica. Cada tipo de daño produce una pérdida resultante diferente en el objeto que se va a proteger. El tipo de pérdida depende de las características del propio objeto y de su contenido. Se tienen en cuenta los siguientes tipos de pérdida: 1. Pérdida de vidas humanas. 2. Pérdida del servicio al público. 3. Pérdida de patrimonio cultural. La descripción de los conjuntos difusos de estas pérdidas se explica en las referencias 1 y 2. Evaluación de los componentes de riesgo La variable de salida del componente de riesgo RX del sistema difuso, se describe a través de tres conjuntos lingüísticos denominados bajo, medio y alto. En el conjunto bajo se proponen los valores resultantes de la relación entre las entradas del sistema que dan una evaluación del componente de riesgo tolerable. En el conjunto medio se reúnen valores resultantes de relación entre las entradas del sistema que dan una evaluación del componente de riesgo tolerable para Rx 1 y no tolerable para Rx > 1. En el conjunto alto se reúnen los valores resultantes de la relación entre las entradas del sistema que dan una evaluación del componente de riesgo no tolerable. La función de membresía de R x se muestra en la referencia 2. ANÁLISIS DE RIESGO DE IMPACTO DE RAYO A EDIFICACIÓN HOSPITALARIA APLICANDO LÓGICA DIFUSA Se realiza el estudio del análisis de riesgo de impacto de rayo en una edificación hospitalaria. Se escoge esta instalación porque se pueden involucrar todos los componentes de los diferentes riesgos (R1, R2 y R3). El procedimiento a seguir para realizar el análisis de riesgo se encuentra en la referencia 1. Características de la edificación Las características de la edificación hospitalaria, así como las de la línea eléctrica de alimentación principal que entra a esta se muestran en la tabla 2. Yelennis Godoy Valladares - Olga Susana Suárez Hernández Identificación de los tipos de pérdida y los riesgos relacionados En el hospital pueden presentarse las siguientes pérdidas: • Vidas humanas. • Servicio al público. • Patrimonio cultural. Por lo que se analizarán los riesgos R1, R2 y R3 para estos tipos de pérdidas respectivamente. Identificación de los componentes que constituyen los riesgos En la tabla 3 se recogen los componentes que se involucran según las características de la edificación a proteger, para cada tipo de riesgo. Tabla 2 Datos y características de la edificación hospitalaría y línea eléctrica Características de la edificación Parámetro Comentario Dimensiones (m) Factor de ubicación Densidad de descargas a tierra (1/km2/año) Rodeada de árboles y edificaciones de altura similar Ubicada en municipio Playa DT = 100 Símbolo Valor L; W; H 100; 60; 12 0,5 Cd Comentario 10 Ng Símbolo Valor Lc 50 Altura de la línea(m) Hc 7 Transformador Hc sí Ci Comentario Debido a que el hospital tiene instalados equipos eléctricos vitales a los que están conectadas las personas, se involucran R1 = RA + R B + RC + RM + + R U + RV + RW + RZ R C , R M, R W y R Z R2 = RB + R C + R M + R V + + R W + RZ - R3 = RB + R V - Calculo del número anual promedio de eventos peligrosos Los cálculos de las áreas de captación y del número anual promedio de eventos peligrosos se muestran en las tablas 4 y 5. Tabla 4 Áreas de captación de la edificación y la línea Áreas Valores (m) A d = L . A + 6 . (L+W) + 9 . (H)2 A d = 21 590 . (250)2 -A d A m = 282 250 A La = [L c-3 . (H a+Hb )]. 6 . (Hc) A La = 126 A Ia = 1 000 . L C A Ia = 1 000 Tabla 5 Número anual promedio de eventos peligrosos Número anual promedio de Valores eventos peligrosos Longitud (m) Altura (m) de la edificación conectada al extremo b del servicio Riesgos y componentes A m = L . A + 500 . (L+W) + Características de la línea eléctrica que entra a la edificación Parámetro Tabla 3 Identificación de los componentes de riesgo 12 N D = N g . A d .C d .10 -6 N D = 0,108 N M = N g . A m . 10-6 N M = 2,61 N Da = N g . A d .C d .C t .10-6 N L +N Da = 0,0 21 7 N L = N g . A L . C d . C t .10 -6 N I+N L = 0,000 263 N I = N g . A I .C e . Ct .10-6 0,000 263 0,2 Factor de ubicación de la línea Rodeada de árboles y edificaciones de mayor altura Cd 0,25 Factor ambiental Urbano Ce 0,1 Selección de la probabilidad de daños En la tabla 6 se pueden observar las características de las protecciones existentes en la edificación y en la línea eléctrica de alimentación principal, a partir de las cuales se seleccionan las probabilidades de daño. Selección de PM, PU, PV Y PW . Revista Cubana de Ingeniería 35 Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa e d if ic a c ió n h o s p it a la ri a y lín e a e lé c tr ic a C a ra c te rí s tic a s d e la s p ro te c c io n e s d e la T a b la 6 El factor que tiene en cuenta las medidas de protección adoptadas (KMS) se halla según la siguiente expresión: KMS = KS1 . KS2 . KS3 . KS4 = 0,000 04 Según la referencia 2: Para KMS = 0,000 04, PM = 0,000 1. Para UW =2,5 kV y RS =1,5 /km PU = PV = PW = 0,6. Para UW =2,5 kV y RS =1,5 /km PZ = 0,02. P ro b a b ilid a d d e d a ño e n la e structura P a rá m e tro C o m e nta rio P ro te cció n co ntra le sio ne s A isla m ie nto e lé ctrico d e l b a ja nte e xp ue sto S ím b o lo Va lo r PA 1 No PB 0 ,0 1 P ro te cció n co o rd ina d a /L P L No PC 1 Sí 3 RS 1 ,5 x Va lo re s d e re siste nc ia de co nta cto s eg ún sup e rficie d e l s ue lo o d e l p iso (k ) P a ra W = 3 E fica cia d e l a p a nta lla d o d e la s p a nta lla s inte rna s d e la e d ifica ció n P a ra W = 3 C a ra cte rística s d e l ca b le a d o inte rno C a b le co n p a nta lla d e re siste ncia 1 ,5 /km co ne cta d o a una b a rra d e p ro te cció n e q uip o te ncia l e n a m b o s e xtre m o s y e q uip o s co ne cta d o s a la m ism a b a rra d e p ro te cció n Te nsió n so p o rta d a d e im p ulso d e l siste m a P a ra U W = 2 ,5 kV Te nsió n so p o rta d a d e im p ulso d e lo s e q uip o s (kV ) K S1 K S2 A g ríco la , horm ig ó n A lta B aja 10 M á rm o l, c erá m ica M e d ia B aja r >1 0 G ra villa, a lfo m b ra , ta p e te B aja B aja 0 ,3 6 1< r 0 ,3 6 Ta b la 8 E va lua c ió n li ng üís ti c a d e la s p é rd id a s L B K S3 0 ,0 0 0 2 K S4 UW 0 ,6 2 ,5 C o m e nta rio S ím b o lo LPS No PB P ro te cció n co o rd ina d a /L P L No PC 36 Revista Cubana de Ingeniería h P ro te g id o 0 ,5 Ly 1 2 5 10 20 50 B C 11 C 13 C 16 C 18 C 19 C 20 N C 18 C 19 C 20 C 22 C 24 C 24 A C 22 C 24 C 25 C 26 C 28 C 28 C 26 C 28 C 28 C 29 C 30 C 30 C9 C 11 C 14 C 16 C 18 C 18 N C 16 C 18 C 20 C 20 C 22 C 23 A C 20 C 22 C 24 C 25 C 26 C 27 EXP C 25 C 26 C 28 C 28 C 29 C 30 B C6 C8 C 11 C 13 C 15 C 16 N C 13 C 15 C 18 C 19 C 20 C 20 A C 19 C 20 C 22 C 24 C 25 C 25 EXP C 11 C 13 C 16 C 18 C 19 C 20 rf D e s p ro te g i d o 1 y 0 ,1 Lf r P ro b a b ilid a d d e d a ño e n la líne a e lé ctrica P a rá m e tro P e rso na s fue ra de e d ifica ci ón 1 r E fica cia d e l a p a nta lla d o d e la e d ifica ció n P e rso na s d e ntro d e e di fica ció n E X P C a b le a p a nta lla d o /Re siste ncia d e p a nta lla d e l ca b le ( /km ) W C o njunto s difuso s d e p é rd id a s d e b ida s a le si ones p o r te nsio nes d e co nta cto y d e p a so B E sp a cia m ie nto e ntre e le ctro d o s (m ) E v a lu a c ió n lin g ü is ti c a d e L T a b la 7 LPS Evaluación lingüística de Lx La pérdida debida a lesiones por tensiones de contacto y de paso de vidas humanas que se encuentran dentro de la edificación se evalúan como media para la superficie del suelo (losas de cerámica) de la edificación, como se muestra en la tabla 7. Las pérdidas de vidas humanas debidas al daño físico corresponden al conjunto lingüístico C14 para una edificación hospitalaria con peligro de incendio bajo, dificultad de evacuación y con medidas de protección para reducir las consecuencias de un incendio (extintores y otros), como se muestra en la tabla 8. Las pérdidas de vidas humanas debidas al fallo de los sistemas internos en una edificación hospitalaria se evalúan como baja, como se muestra en la tabla 9. Va lo r 0 ,0 1 P ro tro te g id o 0 ,2 1 Yelennis Godoy Valladares - Olga Susana Suárez Hernández La pérdida del servicio al público debida al daño físico se evalúa como baja para una edificación hospitalaria con peligro de incendio bajo y con medidas de protección para reducir las consecuencias de un incendio (extintores y otros), como se muestra en la tabla 10. La pérdida del servicio al público debida al fallo de los sistemas internos se evalúa como alta para los servicios de gas y agua y como baja para los servicios de TV, TLC y electricidad, como se muestra en la tabla 11. Ta b la 9 E va lua ció n ling üís tica d e la s p é rd id a s L C L M , L W y L Z Tip o d e e difica ció n C o njunto s d ifuso s d e la s p é rd id a s d e vida s hum anas d e b ida s a l fa llo d e lo s sis tem a s interno s Riesg o d e e xp lo sió n A lta Ho sp ita la ria B a ja P érdida debida a daño físico Riesgo de incendio E xplosión Tabla 11 Evaluación lingúística de las pérdidas L C L M , L W y L M Servicios de gas, agua S ervicios TV, TLC , electricidad S ervicio de gas, agua S ervicio TV, TLC , electricidad Muy alta M edia 4 A lto Media 4 M edia 1 Norm al Media 1 B aja B ajo B aja B aja E xplosión A lta 2 M edia 3 A lto Media 3 Norm al B aja B aja B ajo B aja B aja Medidas de protección para reducir consecuencias de un incendio Una d e las siguientes me d ida s: Insta laciones de e xtinció n fijas de o pe ra ción autom ática, insta la ciones de a la rma autom ática (so lo si están p ro te g idas contra so b re te nsiones y otros d año s y si los b om b eros llegan en me no s de 10 m in). E xplosión A lto A lta 1 Media 2 A B Riesgo de incendio Explosión Alto No ha y m edidas Una d e las siguientes me d ida s: E xtintores, insta la ciones de e xtinció n fijas de o pe ra ción manual, insta la ciones de a la rma s manuales, hid ra nte s, co mp a rtim ientos a p rue b a de incendio, vías d e escape p ro te g idas C onjuntos difusos de la pérdida debida al fallo de los sistemas internos Tipo de servicio Tabla 12 Evaluación lingüística de las pérdidas LB y LV Ta b la 10 E va lua ción lingüística de las pérdidas L B y L V Me d ida s de p ro te cción para re d ucir consecuencias d e un incendio La pérdida de patrimonio cultural debida al daño físico se evalúa como muy baja para un peligro de incendio bajo y con medidas de protección para reducir las consecuencias de un incendio (extintores y otros), como se muestra en la tabla 12. B aja Pérdida debida a daños físicos Muy alta Media 4 No hay medidas Normal Bajo Una de las siguientes medidas: Extintores, instalaciones de extinción fijas de operación manual, instalaciones de alarmas manuales, hidrantes, compartimientos a prueba de incendio, vías de escape protegidas Media 1 Muy baja Explosión Alta 2 Alto Media 3 Normal Baja Bajo Muy baja M edia 2 B aja Norm al B aja B aja B ajo B aja B aja Una de las siguientes medidas: Instalaciones de extinción fijas de operación automática, instalaciones de alarma automática (sólo si están protegidas contra sobretensiones y otros daños y si los bomberos llegan en menos de 10 min). Explosión Alta 1 Alto Media 2 Normal Muy baja Bajo Muy baja Revista Cubana de Ingeniería 37 Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa Obtención de funciones de membresia de Nx, Lx Y Px. En las figuras 2 -7 se muestra el visor de reglas del toolbox fuzzy de los sistemas difusos de todos los componentes de riesgo. En cada uno de ellos se introducen los valores de Nx, Px y Lx que se obtienen. Funciones de membresía de las pérdidas. Pérdidas de vidas humanas por tensiones de paso y de contacto: Fm M (LA = LU = 10-5) = 1 Pérdidas de vidas humanas debidas al daño físico: Fm C14 (LB = LV = 2,510-5) = 1 Pérdidas de vidas humanas debidas al fallo de los sistemas internos: Fm B (LC = LM = LW = LZ = 10-3) = 1 Pérdidas del servicio al público debidas al daño físico para servicios de gas, agua, TV, TLC y electricidad: Fm B (LB = LV = 5•10-4) = 1 Fig. 2. Visor de reglas del sistema difuso R1,Rc. Pérdidas del servicio al público debidas al fallo de los sistemas internos para servicios de gas, y agua, TV, TLC y electricidad Fm B (LC = LM = LW = LZ = 10-3) = 1 Servicios de TV, TLC y electricidad: Fm A (LC = LM = LW = LZ = 10-2) = 1 Pérdida de patrimonio cultural debida al daño físico: Fm M B (LB = LV = 2•10-5 a 2•10-4) = 1 Obtención de la salida Rx En las figuras 2, 3 y 4 se muestra el resultado de los componentes de riesgo que se evalúan como no tolerables para los valores de Nx, Px y Lx que se introducen. Evaluación de la necesidad de protección Los componentes RC y RW de R1 y el componente RC de R2 se evalúan como no tolerables por lo que hay necesidad de mejorar las medidas de protección contra rayo. Identificación del tipo de protección a adoptar, según el Rx evaluado de no tolerable. Para reducir el riesgo R1 a un valor tolerable, se deben considerar medidas de protección que influyan en los componentes RC y RW y para reducir el riesgo R2 a un valor tolerable se deben considerar medidas de protección que influya en el componente RC. Reevaluación de la necesidad de protección variando Px en el Rx evaluado de no tolerable En las figuras 5, 6 y 7 se observa que utilizando un sistema de protección coordinado para un nivel de protección III o IV se reducen los valores de PC y PW de 1 a 0,03, lo que implica que disminuyan los resultados de los componentes de riesgo RC y RW y por tanto los riesgos R1 y R2 se evalúan como tolerables. 38 Revista Cubana de Ingeniería Fig. 3. Visor de reglas del sistema difuso R1,Rw. Fig. 4. Visor de reglas del sistema difuso R2 ,Rc. Servicios de gas y agua. Yelennis Godoy Valladares - Olga Susana Suárez Hernández CONCLUSIONES La utilización de la lógica difusa permite el trabajo con la subjetividad incluida en el análisis de riesgo y la obtención de los resultados a partir de reglas sencillas que parten del criterio y la experiencia, por lo que la elaboración del sistema difuso para el análisis de riesgo constituye una herramienta que facilita el trabajo del diseñador. Esta herramienta además considera las características de la variación espacio-temporal de la actividad ceráunica y las características de las edificaciones así como las condiciones ambientales del país. REFERENCIAS Fig. 5. Visor de reglas del sistema difuso R1 ,Rc. Reevaluación de Rc. 1.GODOY, Y. y SUÁREZ, O. S. "Aplicación de la lógica difusa al análisis de riesgo por rayo". Revista Cubana de Ingeniería. 2006, vol. I, nº 2, p. 5-12. 2. GODOY, Y. Aplicación de lógica difusa al análisis de riesgo por rayo en Cuba. Tesis de Maestría, Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana. 2006. AUTORAS Yelennis Godoy Valladares Ingeniera Electricista, Máster en Ingeniería Eléctrica, Empresa de Proyectos de la Industria Básica (EPROB), Ciudad de La Habana, Cuba Fig. 6. Visor de reglas del sistema difuso R1 ,Rw . Reevaluación de Rw. Olga Susana Suárez Hernández Ingeniera Electricista, Doctora en Ciencias Técnicas, Investigadora Titular, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Fig. 7. Visor de reglas del sistema difuso R2 ,Rc. Reevaluación de Rc. Application of Fuzzy Logic in the Analysis of Lightning Risk Abstract In this paper the diffuse tool of analysis of risk of lightning impact in structures is presented for the conditions of Cuba, as well as its application in a specific case as part of its validation. Key words: analysis of risk, fuzzy logic, lightning, keraunic level. Revista Cubana de Ingeniería 39 29 de noviembre al 3 de diciembre de 2010 15 CONVENCIÓN CIENTÍFICA DE INGENIERIA Y ARQUITECTURA PALACIO DE CONVENCIONES DE LA HABANA 2 0 1 0 ANIVERSARIO 46 El Instituto Superior Politécnico José Antonio Echeverría,Cujae, Centro Universitario Rector de Cuba en el campo de las Ciencias Técnicas y la Arquitectura, tiene el gusto de invitar a la comunidad científica y académica, a la XV Convención Científica de Ingeniería y Arquitectura (CCIA 15), a celebrarse del 29 de noviembre al 3 de diciembre de 2010 en el Palacio de Convenciones en La Habana, Cuba. La CCIA 15 abarca temáticas de las ediciones anteriores y otras nuevas, las cuales cubren las líneas de mayor importancia en el desarrollo científico, tecnológico, pedagógico y de gestión en las áreas de ingeniería y arquitectura. Mireya Mesa Tamargo Organizadora Profesional de Congresos Palacio de Convenciones de La Habana Telef: (537) 208 6176 / 202 6011-19 ext 1512 E-mail:[email protected] Fax:(537) 202 8382 http:www.cpalco.com http://www.cciacuba.com | http://www.cujae.edu.cu/eventos/convencion La Ingeniería y la Arquitectura Información y Comunicación Dr. Gil Cruz Lemus Secretario Ejecutivo Instituto Superior Politécnico José Antonio Echeverría Calle 114 No. 11901 entre 119 y 127 Cujae, Marianao, Ciudad de La Habana, Cuba, Apartado Postal 19390 Telef:(537)266 3277, (537)260 8454 Fax:(537)267 2964. E-mail:[email protected], [email protected] por un Futuro Sustentable La solicitud de información de participación, así como el envío de resúmenes, se puede hacer directamente a la Secretaría de la CCIA 15 o utilizando los correos electrónicos que aparecen asociados a los eventos relacionados anteriormente. Revista Cubana de Ingeniería, 1(3), 41-50, 2010 INGENIERÍA ELÉCTRICA Calidad de la energía y generación distribuida en Cuba Marielys Francisco Fernández Dirección de Parques de Diversiones,Ciudad de La Habana, Cuba Raúl Díaz Fuentes Miguel Castro Fernández Correo electrónico:[email protected] Ángel Costa Montiel Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Resumen Entre las tecnologías de mayor difusión que en la actualidad se utilizan dentro de la generación distribuida (GD) están los grupos electrógenos (GE) Los GE en cualquiera de sus formas de explotación, exigen un análisis de los problemas que puedan manifestarse por su presencia; uno de estos problemas está relacionado con la calidad de la energía eléctrica (CEL). El presente trabajo expone los primeros resultados de un estudio que va dirigido a buscar respuestas sobre este tema ante diferentes tipos de perturbaciones que pueden presentarse en la red: Cortocircuito y variación de la tensión en los terminales del GE y la desconexión súbita de la carga (rechazo de carga). Palabras clave: grupos electrógenos, generación distribuida, calidad de la energía Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN Puede plantearse que en la actualidad aún no existe una definición rigurosa del concepto de generación distribuida (GD), el cual, de manera general, se refiere a la generación de energía eléctrica mediante instalaciones mucho más pequeñas que las grandes centrales convencionales, y situadas cerca de las instalaciones que consumen esta energía eléctrica. Según la definición del Instituto de Ingenieros Eléctricos y Electrónicos (Institute of Electrical and Electronic Engineers, IEEE), la cual es una de las más conocidas, la generación distribuida "...es la generación de electricidad mediante instalaciones que son suficientemente pequeñas en relación con las grandes centrales de generación, de forma que se puedan conectar casi en cualquier punto de un sistema eléctrico".[1] Teniendo en cuenta el concepto de algunos autores se podría traducir como: • Generación a pequeña escala instalada cerca del lugar de consumo. • Producción de electricidad con instalaciones suficientemente pequeñas en relación con las grandes centrales de generación, de forma que se puedan conectar casi en cualquier punto de un sistema eléctrico. • Generación conectada directamente a las redes de distribución. • Generación de energía eléctrica mediante instalaciones mucho más pequeñas que las centrales convencionales y situadas en las proximidades de las cargas. • Sistemas de generación eléctrica o de almacenamiento, situados dentro o cerca de los centros de carga. Calidad de la energía y generación distribuida en Cuba • Producción de electricidad por generadores colocados, o bien en el sistema eléctrico de la empresa, en el sitio del cliente, o en lugares aislados fuera del alcance de la red de distribución. • Generación de energía eléctrica a pequeña escala cercana a la carga, mediante el empleo de tecnologías eficientes; destacandose la cogeneración, con la cual se maximiza el uso de los combustibles utilizados. Puede expresarse entonces que la GD es un sistema que comprende la generación de energía eléctrica localizada, cercana al centro de carga con almacenamiento y administración de la misma, que puede trabajar de forma aislada o integrada a la red eléctrica, para proporcionar múltiples beneficios en ambos lados del medidor. El auge de los sistemas de GD se debe a los beneficios inherentes a la aplicación de esta tecnología, tanto para el usuario como para la red eléctrica. A continuación se mencionan algunos de los beneficios. Beneficios para el usuario • Incremento de la confiabilidad. • Aumento de la calidad de la energía. • Reducción del número de interrupciones. • Uso eficiente de la energía. • Menor costo de la energía. • Uso de energías renovables. • Facilidad de adaptación a las condiciones del sitio. • Disminución de emisiones contaminantes. Beneficios para el suministrador • Reducción de pérdidas en transmisión y distribución. • Abasto en zonas remotas. • Libera capacidad del sistema. • Proporciona mayor control de energía reactiva. • Mayor regulación de tensión. • Disminución de inversión. • Menor saturación. • Reducción del índice de fallas. Entre las tecnologías que se han ido introduciendo en los sistemas eléctricos con la concepción de la generación distribuida, están los grupos electrógenos (GE) que han mostrado una mayor posibilidad de uso por su facilidad de operación, simpleza y seguridad (figura1). Fig. 1. Grupos electrógenos. 42 Revista Cubana de Ingeniería GRUPOS ELECTRÓGENOS Y CALIDAD DE LA ENERGÍA ELÉCTRICA En la red eléctrica, los GE han sido utilizados, por lo general, para compensar las interrupciones de energía de las redes de distribución, donde la falta de esta puede causar daños importantes o donde la red eléctrica no está disponible, es insuficiente o no es rentable (lugares muy apartados o de difícil acceso donde llevar la electricidad de forma tradicional no es económico por las grandes distancias; por ejemplo: islas o pequeños asentamientos en parajes intrincados). De igual manera, el grupo electrógeno se ha convertido en un elemento de extrema necesidad y seguridad en grandes tiendas, negocios y todo lugar donde exista una movilidad de personas. Los GE pueden prestar servicios generando: • De forma continua durante 24 horas e ininterrumpidamente como generación base. • De forma intermitente para servicios donde es necesario equilibrar los consumos y cubrir picos de consumo. • Como servicio de emergencia, en hospitales, sanatorios, etcétera). Aún cuando la red de alimentación de energía eléctrica en un sistema cualquiera se mantenga en general sin problemas en el servicio, es recomendable la colocación de grupos electrógenos en todos los edif icios donde existan posibilidades de riesgos personales (policlínicos, hospitales), así como también en edificios de más de tres pisos de altura, teatros, clubes y estadios deportivos; lugares donde por su importancia económica o social sea necesario el servicio continuo de electricidad. Según la norma ISO 8528 [2] los GE poseen dos regímenes de funcionamiento: • Grupos de generación o producción. • Grupos de emergencia. Los GE presentan los siguientes modos de operación: • Operación continua a carga constante: Operación del grupo sin tiempo límite tomando en consideración los períodos de mantenimiento. Ejemplo: Operando como carga base en ciclo combinado. • Operación continua a carga variable: Operación del grupo sin tiempo límite tomando en consideración los períodos de mantenimiento. Ejemplo: Cuando el grupo opera en una localización donde no existe otra instalación o donde la alimentación de la instalación existente no es confiable. • Operación limitada a carga constante: Se define como la operación del grupo limitada en tiempo a carga constante. Ejemplo: Cuando el grupo opera en paralelo con alguna instalación o con el sistema durante los períodos de carga pico. • Operación limitada en tiempo a carga variable: Se define como la operación del grupo limitada en tiempo a carga variable. Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel Ejemplo: Cuando el grupo realiza función de soporte básico a una instalación dada (grupo de emergencia) ante la falta de la alimentación a la instalación. Cuando los GE están conectados a una red eléctrica pueden caracterizarse por su conexión de forma aislada o varias unidades en paralelo (baterías); esta forma de GD trae nuevas consecuencias técnicas en la red, como son: • Las redes dejan de ser radiales para convertirse en anillos con varias unidades generadoras, por lo que se obtienen flujos de potencia y de cortocircuito en varias direcciones. • Se tienen más altas constantes de tiempo y se deben tener más cortos tiempos de limpieza por problemas de estabilidad. • Se requiere un cambio en el sistema de protecciones que garantice una calidad del suministro eléctrico a los consumidores durante las condiciones de operación normal y de emergencia, lo cual constituye un reto para los ingenieros en protección. Otra de las direcciones en la que hay que trabajar y definir los problemas es la calidad de la energía (CEL). Como se conoce, la CEL es un concepto que hoy forma parte intrínseca de la gestión de una empresa eléctrica pues no solo pasa por cuestiones relacionadas con el comportamiento de indicadores técnicos como pueden ser la duración equivalente de las interrupciones del servicio (DES), la frecuencia equivalente de las interrupciones del servicio (FES) o la distorsión individual o total de armónicas (DTA), sino que tiene en cuenta también aspectos relacionados con la atención al cliente. Por lo general se plantea que existen cuatro variables que definen la CEL: • Amplitud de la señal. • Frecuencia de la señal. • Forma de la señal. • Continuidad del servicio. La entrega de la potencia que los GE deben hacer al sistema necesita cumplir con estos requerimientos, pero también deben tenerse en cuenta las influencias que el sistema pueda tener sobre el comportamiento de los GE. Desde este punto de vista es conveniente tener en consideración los diferentes tipos de perturbaciones que pueden afectar el funcionamiento de los GE, vistos como un todo, y agrupados en siete categorías: • Transitorios electromagnéticos. • Variación de tensión de corta duración. • Variación de tensión de larga duración. • Desbalance de tensión. • Distorsión de la forma de la señal. • Fluctuaciones de tensión. • Variaciones de la frecuencia industrial. Entre las perturbaciones más conocidas, que forman parte de estos grupos, están los armónicos, cuyos efectos nocivos provocan en generadores y motores un incremento en el calentamiento, debido a las pérdidas de hierro y cobre a las frecuencias de las armónicas; la eficiencia de estos equipos resulta afectada al ser necesario limitar la carga para mantener dentro de límites determinados, para que no afecte sus características, el aislamiento de los enrollados. Otro aspecto es la posible presencia de oscilaciones mecánicas en grupos turbogenerador y/o carga - motor a consecuencia de pares de armónicas particulares como la 5ta. y 7ma. armónicas, lo que puede llevar al envejecimiento acelerado del eje y las partes mecánicas conectadas al mismo, y provocar fallo por fatiga. Otra de las perturbaciones más conocidas son las fluctuaciones de tensión en la red, que muchos especialistas identifican con las titilaciones (flicker) que se producen en los sistemas de iluminación. Al respecto es bueno aclarar que las titilaciones son una consecuencia de las fluctuaciones de tensión, que son una sucesión de variaciones de tensión o de variaciones cíclicas o aleatorias de la envolvente de tensión, cuyas características son la frecuencia de la variación y su amplitud; este fenómeno puede producirse debido a cargas con variaciones continuas y rápidas en la magnitud de la corriente de carga que pueden causar variaciones de tensión. En resumen, puede decirse que la fluctuación de tensión es en realidad un fenómeno electromagnético, mientras que la titilación o flicker es un resultado indeseable de la fluctuación de tensión en algunas cargas. En varias ocasiones, a finales de la década de 1990, especialistas cubanos realizaron mediciones de fluctuación de tensión en industrias siderúrgicas. Más recientemente, tras la realización de una medición puntual en la barra de 220 kV de una de las subestaciones fundamentales del SEN se detectaron valores muy altos para el factor de distorsión de armónicas (THD, según sus siglas en inglés), tanto para la corriente como para la tensión. Posteriormente se ejecutó un grupo de mediciones simultaneando lecturas de ambos parámetros por dif erentes alimentadores de dicha subestación y de otras a niveles de 110, 34,5 y 13 kV, pertenecientes a una red regional, observándose valores de THD de tensión del orden de 1,5 % y THD de corriente del orden del 40 %, en la barras de la subestación de 220 kV, superiores a los esperados; mientras que estos valores no eran superiores a lo permisible, según las regulaciones internacionales, en el resto de los nodos donde se efectuó la medición. De aquí se extrajo la conclusión de que era muy posible que la empresa que se alimentaba de la barra monitoreada, una empresa de muy alta carga, podría estar introduciendo señales de armónicas que navegarían a través de la red de 220 kV, no siendo así en el caso de la red de 110 kV y/o distribución. De forma resumida, la situación en Cuba con relación a la CEL, es la siguiente: • No hay regulaciones sobre el tema ni dentro del propio sector eléctrico ni hacia productores o comercializadores Revista Cubana de Ingeniería 43 Calidad de la energía y generación distribuida en Cuba de equipos, e incluso ni hacia los clientes o usuarios de los equipos. • Se han realizado estudios muy limitados, tanto en lo referente al alcance como a los resultados, dirigidos fundamentalmente a evaluar puntualmente el problema del flicker o de las variaciones de tensión y de los armónicos. • No hay una cultura sobre el tema, ni en las propias empresas eléctricas del país ni en los usuarios . La introducción de los GE en forma masiva en el sistema eléctrico cubano impone la necesidad de analizar este tema con más profundidad, si se considera la función que desempeñan en dicho sistema estos GE. GRUPOS ELECTRÓGENOS EN CUBA La máxima dirección del Gobierno cubano ha decidido para los próximos años utilizar de forma intensiva los GE considerando las ventajas que hoy plantea este tipo de generación distribuida. Los GE diésel que se han instalado en el país trabajan en régimen de emergencia, sin sincronización a la red, y en régimen de producción, aislado o en baterías. En régimen de emergencia los GE, con capacidades que van desde 7 kVA hasta de 500 kVA en su mayoría, alimentan pequeñas cargas de importancia social o económica como panaderías, policlínicos y empresas, y la idea es que sean utilizados para aliviar al sistema en horarios picos al asumir su carga cuando esta se desconecte de la red. Cuando funcionan en régimen de producción conformando baterías, las mismas pueden trabajar en régimen normal o en emergencia; en ambas condiciones se encuentran sincronizadas en paralelo con la red de distribución. Las baterías están constituidas por grupos de motores múltiplos de cinco u ocho, en dependencia del GE (por ejemplo, una batería son cinco u ocho motores, dos baterías son 10 o 16 motores y así sucesivamente). Cuando están en funcionamiento normal, disponiendo de tensión en el lado de baja del transformador, el motogenerador arranca por programación horaria o manualmente por una orden del operador. El sistema de sincronización verifica el sincronismo a ambos lados del interruptor de conexión y automáticamente cierra cuando se verifique la condición de sincronismo entre ambos lados. Las mismas baterías se dice que están en funcionamiento de emergencia cuando los grupos motogeneradores arrancan solo a falta de la red y sin tensión en la barra de baja tensión de los transformadores elevadores, siendo esta operación manual. Debido a una caída del SEN, las baterías de GE pueden trabajar como islas, pero debe tenerse en cuenta que quedarán aislados de cualquier otra generación, encargándose de la vigilancia de tensión y frecuencia. En situación de isla las cargas se introducirán de forma progresiva para que estos grupos tengan tiempo de poder absorberlas y repartírselas. Cuando los GE son de mayor potencia que los de emergencia y en conformación solitaria o de grupos de dos 44 Revista Cubana de Ingeniería o tres GE, trabajan sincronizados a la red y pueden, en caso de que la red quede sin energía alimentar una parte del sistema eléctrico, estando desconectado eléctricamente del resto del sistema, se dice que están trabajando en régimen de producción aislado. En esta situación los GE pueden trabajar en horarios picos para aliviar la demanda y así ayudar al sistema electroenergético nacional (SEN). Los grupos electrógenos de fueloil que ya se están instalando formarán parte del régimen base, sincronizados a la red, con un modo de entrega de potencia continua, entendiéndose como entrega de potencia continua la máxima potencia que el GE es capaz de entregar continuamente a una carga eléctrica constante, cuando opera un número ilimitado de horas en las condiciones de operación que el productor ha establecido, que incluye sus intervalos de mantenimiento y los procedimientos de operación, según se presenta en la figura 2. Fig. 2. Entrega de potencia en forma continua. Desde el punto de vista de la CEL, los GE deben cumplimentar requerimientos técnicos para la tensión, la frecuencia y las potencias de entrega. Estos requerimientos, establecidos en la ISO 8528,[2] están acordes con las clases de comportamiento de los GE, los cuales a su vez están en concordancia con las cargas que alimentan dichos GE, y que son: • Clase G1: Aplica para los grupos donde están conectadas cargas que solo requieren los parámetros básicos de tensión y frecuencia. • Ejemplo: Aplicaciones de propósito general (cargas eléctricas sencillas y de iluminación). • Clase G2: Aplica para grupos donde las características de tensión sean muy similares a las del sistema eléctrico público comercial con el cual opera. En estos casos, se permiten desviaciones temporales de tensión y frecuencia cuando ocurren cambios en la carga. Ejemplo: Sistemas de iluminación, bombas, ventiladores y grúas. • Clase G3: Aplica cuando los equipos conectados demandan de los grupos, determinadas características de estabilidad y niveles de frecuencia, tensión y forma de ondas. Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel Ejemplo: Cargas de telecomunicaciones o controladas por tiristores. • Clase G4: Aplica cuando los requerimientos de estabilidad y niveles de frecuencia, tensión y forma de onda son excepcionalmente severas. Ejemplo: Equipamiento que procesa información o sistemas de cómputos. Para un óptimo funcionamiento del GE hay que conocer a qué clase pertenece (G1, G2, G3 o G4) y, según esta, hacer un análisis de sus limites de variación de tensión, sus requerimientos de frecuencia y de potencia activa y/o reactiva. Como dato de interés, los GE instalados en Cuba, se consideran con clase de comportamiento dentro del grupo G3. RESULTADOS Y DISCUSIÓN Para iniciar los estudios sobre el comportamiento desde el punto de vista de la CEL se decidió realizar una simulación, utilizando como programa base el MatLab, de dos tipos de GE, y comparar su comportamiento con otros generadores, a través de su respuesta ante tres tipos de perturbaciones diferentes: • Cortocircuito sincrónico trifásico a la salida de los terminales de la máquina. • Desconexión súbita total de la carga. • Desconexión parcial de la carga. Para ello se modelaron seis tipos de generadores: Dos hidrogeneradores, dos generadores de combustión interna convencionales de plantas termoeléctricas y dos de GE, uno diésel (MTU) y otro de fueloil (MAN), cuyos parámetros se encuentran en la tabla 1. A partir de las ecuaciones transformadas de Park (para tensión, flujo, torque electromagnético y movimiento)[3] se realizaron las simulaciones que permitieron evaluar el comportamiento de los GE y los otros generadores ante las perturbaciones planteadas. Cortocircuito sincrónico trifásico a la salida de los terminales de la máquina La corriente de cortocircuito es la máxima intensidad de corriente que se produce súbitamente cuando la tensión U en los bornes del generador es igual a cero, y sus valores picos son el máximo valor que puede alcanzar dicha corriente de cortocircuito, los cuales corresponden a una onda de corriente alterna con componentes de directa. La corriente que circula por cada fase del generador en cortocircuito, es similar a la que circula por un circuito R-L serie, alimentado bruscamente por una fuente de tensión sinusoidal, es decir, la corriente es asimétrica respecto al eje de tiempo y disminuye en f orma exponencial. Sin embargo, existe una dif erencia fundamental y ella radica en que la reactancia del generador no permanece constante durante el fenómeno, lo cual se puede observar en la figura 3. En la tabla 2 se presentan las variaciones de la corriente de cortocircuito que sufren, en los primeros ciclos, los diferentes tipos de generadores. El mayor valor de Icc lo presenta la turbina convencional de combustión interna F1 de 25 MVA con un valor de 15,15 en pu. Los que le siguen a continuación en orden decreciente son los grupos electrógenos MTU de 2,35 MVA y MAN de 3,87 MW con valores de 10,28 y 9,15 en pu respectivamente. Tabla1 P arámetros de las diferentes turbinas simuladas P arámetros MTU MA N H4 H9 F1 F7 Tensión Volt 480 13 800 13 800 13 800 13 800 1 500 P otencia MVA 2, 360 4,875 35 86 25 147 Reactancia sincrónica de eje directo Xd 3,050 1,721 1,000 1,050 1,250 1,537 Reactancia sincrónica de eje en cuadratura Xq 1,750 0,924 0,620 0,670 1,220 1,520 Reactancia transitoria en eje directo X' d 0,299 0,309 0,260 0,320 0,332 0,299 Reactancia subtransitoria en eje directo X"d 0,160 0,187 0,235 0,258 0,120 0,216 Reactancia subtransitoria X"q 0,168 0,208 0,264 0,306 0,120 0,216 Reactancia de secuencia negativa X2 0,158 0,270 0,312 C te de tiempo transitoria de circuito abierto en eje directo T' do 3,600 4,393 7,100 4,000 4,750 4,300 C te de tiempo transitoria de cortocircuito en eje directo T' d 0,350 0,869 2,300 2,020 0,882 0,836 C te de tiempo subtransitoria en eje directo T"d 0,018 0,012 0,035 0,051 0,035 0,035 C te de tiempo de cortocircuito de armadura Ta 0,043 0,089 0,018 0,286 0,177 0,470 Revista Cubana de Ingeniería 45 Calidad de la energía y generación distribuida en Cuba Como puede observarse la mayor Icc, hasta que las turbinas alcancen su estado estable, la tiene la turbina de hidroeléctrica H4 y a continuación están los GE. Es precisamente el GE MTU de 2,35 MVA el que menor tiempo toma en alcanzar la estabilidad con 2,15 s. Tabla 3 Variación de la Icc hasta alcanzar su estado estable Xd X´d X´´d Pico t estable MTU 3,050 0,299 0,160 2,11 2,15 Man 0,721 0,308 0,187 2,27 5,50 H4 1,000 0,260 0,235 2,77 2,35 H9 1,050 0,320 0,258 2,18 10,00 F1 1,250 0,332 0,120 1,64 4,60 F7 1,537 0,299 0,216 0,93 5,55 Fig. 3. Respuesta de los GE a un cc súbito, trifásico en los terminales del generador. Tabla 2 Variación de la Icc en cada generador No. GE Razón 1-3 Razón 1-4 Razón 1-5 1 MTU 1,81 1,24 1,17 2 Man 1,40 1,11 1,10 3 H4 1,50 1,12 1,11 4 H9 1,12 1,05 1,04 5 F1 1,36 1,13 1,11 6 F7 1,13 1,05 1,04 En cada caso (las turbinas convencionales de combustión interna, las de las hidroeléctricas y las de los electrógenos) mientras menor es la potencia, mayor será la Icc. Si se analiza la Icc durante un tiempo más prolongado, con lo cual se puede observar cómo la máquina llega a su estabilidad, y el mayor valor alcanzado de Icc pasado los primeros instantes, se obtienen los resultados que se muestran en la tabla 3 y en la figura 4. 46 Revista Cubana de Ingeniería Fig. 4. Variación de Icc hasta alcanzar el estado estable. Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel Desconexión súbita total de la carga Ante una anomalía o falla del sistema eléctrico que ocasione la desconexión súbita del GE del sistema, es decir, la unidad pierde la carga que estaba alimentando y se presenta el fenómeno conocido como rechazo de carga (reactiva, activa y/o nominal), el cual se entiende como el comportamiento del generador ante la anomalía. Al ocurrir un rechazo de carga, la unidad tiende a incrementar su velocidad y el regulador de velocidad de la misma debe controlar este evento, manteniéndola girando a su velocidad nominal y lista para su reconexión al sistema, con lo que de este modo se evita que se produzca una velocidad tan alta que cause daño a la unidad, a la vez que se mantiene su disponibilidad para el sistema, aunque es inevitable una variación de la tensión en los terminales de salida del GE. Los resultados obtenidos de la simulación se presentan en la tabla 4 y la figura 5, para el caso de los GE. La turbina que presenta mayor rechazo de carga reactiva frente a una caída total del sistema es el GE MTU; como dato de interés al respecto, este generador tienen una Xd muy elevada (3,05 pu) lo cual puede ser la causa de este resultado. La segunda turbina de mayor rechazo es también el GE MAN. Desconexión parcial de la carga La disminución parcial brusca de la carga que se alimenta desde los GE, sin llegar a la desconexión de la misma, puede provocar la variación de la corriente en el estator del generador del GE. Para el caso analizado se simula una variación de la corriente en ambos ejes d y q de la máquina, en un orden del 30 %, en las condiciones que se presentan en la tabla 5. Como puede observ arse en la tabla 5 y en las figuras 6 y 7, las variaciones de tensión que se producen en los terminales del GE al ocurrir la variación de la corriente por el estator están en el orden del 9 al 48 % en el GE MTU, en un entorno de 0,1 s, mientras que en el GE MAN varía entre el 9 y el 37 %, en un entorno de 0,1 a 0,6 s, se observa una variación más brusca en el caso del GE MTU. Por otro lado, estas variaciones están en el mismo entorno que los otros generadores analizados. Asímismo, una variación de la carga provoca la variación de la corriente en el estator, pero también puede ocasionar una variación en la tensión del mismo. Lo que puede variar esta corriente fue analizado a partir de considerar una variación de tensión ( U) del 20% en el estator. Los resultados obtenidos se muestran en la tabla 6 y la figura 8. Se puede apreciar que en las turbinas convencionales de combustión interna y las hidroeléctricas, la que posea una mayor potencia alcanza un mayor pico de corriente (valor máximo de corriente en la onda de amortiguación, hasta su llegada a estado estable) y un mayor tiempo de restablecimiento. Las hidroeléctricas son las de menor pico de corriente ante una variación del 20% de la tensión. En el caso de los GE, el mayor pico lo poseerá el de menor potencia, pero es entre ellos el que tenga una Xd mayor. Tabla 4 Variación de la tensión en los terminales del GE al ocurrir una desconexión súbita de la carga P(MW) X´´d V Xd X'd t (s) MTU 2,35 3,050 0,299 0,160 2,83 21,20 Man 3,87 1,721 0,308 0,187 2,03 25,25 H4 35,00 1,000 0,260 0,235 1,43 33,35 H9 86,00 1,050 0,320 0,258 1,46 22,65 F1 25,00 1,250 0,332 0,120 1,75 28,85 F7 147,00 1,537 0,299 0,216 1,81 25,25 Fig. 5. Variación de la tensión en los terminales de los GE al ocurrir una desconexión súbita de la carga. Revista Cubana de Ingeniería 47 Calidad de la energía y generación distribuida en Cuba Debido a que la V es una disminución, las variaciones de corriente del estator para todas las turbinas, estabilizan por debajo del valor unitario. Si se analizan estos resultados con relación a los requerimientos técnicos establecidos para GE de clase G3, tal y como se han comprado para Cuba, se tienen los siguientes resultados: • La desviación transitoria de la tensión por variación de la carga, para el grupo G3 es de un 18%, según la norma 8528. [2] Al analizar los valores obtenidos ante esta perturbación en la simulación (tabla 5), se aprecia que para las diferentes variaciones súbitas de corriente en el estator analizadas, la variación de tensión es superior a los rangos especificados por la norma ISO 8528 para el primero y tercer casos, las cuales son propias para el grupo G1; no debe obviarse que estos análisis se realizaron sin considerar el efecto de la saturación y sin tener en cuenta la actuación de un regulador de tensión, lo que evidencia la necesidad de este regulador para que ante una perturbación de este tipo la máquina pueda trabajar dentro de los límites establecidos. • Ante una perturbación del tipo de desconexión súbita de la carga (rechazo de carga), las variaciones que se observan de la tensión en los terminales del GE (tabla 4), son superiores a los establecidos como requisitos técnicos por la ISO ya mencionada, lo que debe también ser analizado bajo las condiciones que se plantearon en el estudio. Se evidencia que sin un control de tensión, estos grupos no debe cumplir con los requerimientos establecidos. Tabla 5 Variación de la tensión en los generadores ante una variación súbita de la corriente en el estador Corriente en los ejes Primer caso Segundo caso Tercer caso diq did 0,3 0,3 0 0,3 0,3 0 Primer caso Xd X´d X´´d U MTU 3,050 0,299 0,160 0,479 0,116 Man 1,721 0,308 0,187 0,369 H4 1,000 0,260 0,235 H9 1,050 0,320 F1 1,250 F7 1,537 48 t (s) Fig. 6. Variación de la tensión en el GE MTU ante la variación súbita de la corriente en el estator. Segundo caso U 0,113 U t (s) 0,389 0,106 0,500 0,093 0,190 0,276 0,475 0,264 0,250 0,078 0,200 0,185 0,200 0,258 0,296 0,258 0,096 0,264 0,200 0,200 0,332 0,120 0,463 1,015 0,100 0,543 0,364 1,069 0,299 0,216 0,542 1,015 0,090 0,417 0,453 1,060 Revista Cubana de Ingeniería 0,090 t (s) Tercer caso Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel Fig. 8. Variación de corriente del estator ante una U en el estator. CONCLUSIONES Fig. 7. Variación de la tensión en el GEMAN ante la variación súbita de la corriente en el estator. T a b la 6 A n á lis is d e l v a lo r d e la c o r r ie n t e d e l e s t a t o r a n t e u n a U s ú b it a d e u n 2 0 % Xd X ´d X ´´d P ic o t (s ) MTU 3 ,0 5 0 0 ,2 9 9 0 ,1 6 0 0 ,5 7 8 2 ,5 0 0 Man 1 ,7 2 1 0 ,3 0 8 0 ,1 8 7 0 ,5 4 5 3 ,7 7 0 H4 1 ,0 0 0 0 ,2 6 0 0 ,2 3 5 0 ,4 4 5 2 ,0 0 0 H9 1 ,0 5 0 0 ,3 2 0 0 ,2 5 8 0 ,5 6 4 7 ,5 6 0 F1 1 ,2 5 0 0 ,3 3 2 0 ,1 2 0 0 ,6 7 0 3 ,7 9 0 F7 1 ,5 3 7 0 ,2 9 9 0 ,2 1 6 0 ,8 1 0 3 ,8 3 0 El reciente concepto de generación distribuida, está emergiendo como un nuevo paradigma de generación y distribución de la energía eléctrica. Las líneas de distribución que componen el sistema eléctrico en la actualidad fueron diseñadas y construidas hace ya algunas décadas. Dichas líneas fueron concebidas en un contexto totalmente diferente al actual, y con el propósito exclusivo de distribuir la energía proveniente de las líneas de transporte entre los clientes. Con la generación distribuida nace un nuevo concepto de distribución. Este sistema de distribución integra diferentes tipos de tecnologías, con el objeto de construir un sistema de distribución más flexible, fiable y seguro. En esta dirección, Cuba se encamina hacia la adquisición e instalación de equipos de generación más eficientes y seguros como los GE y otras formas de generación, que convenientemente ubicados en distintos puntos del país Revista Cubana de Ingeniería 49 Calidad de la energía y generación distribuida en Cuba (generación distribuida), desempeñan un papel fundamental en la búsqueda de soluciones para un suministro con calidad. La evolución y sofisticación de los equipos electrónicos modernos los ha hecho más sensibles a perturbaciones; sin embargo, el usuario de estos desea que su funcionamiento sea confiable, flexible y seguro. Estas condiciones exigen un estudio sistemático, tanto de las fuentes de perturbación como de la compleja interacción entre estas y el equipo susceptible. De igual forma, la decisión de utilizar los GE como un elemento fundamental en el esquema eléctrico cubano requiere de estudios que permitan definir las mejores formas de explotación, las variaciones en los esquemas de protección y las adecuaciones generales y particulares que la presencia de dichos grupos impone en dicho sistema. AUTORES Marielys Francisco Fernández Ingeniera Electricista, Dirección de Parques de Diversiones, Ciudad de La Habana, Cuba REFERENCIAS 1.Generación Distri buida. Di sponi ble en: www.energiasverdes.com./ 2. ISO 8528:1993,Reciprocating internal combustion engine driven alternating current generating sets, First Edition. 3. AMAYA ENCISO, MARTHA CECILIA. Modelización de los efectos de saturación y saturación cruzada en una maquina sincrónica de polos salientes. Tesis de doctorado, Universidad del Valle, Cali, Colombia, abril, 2004. Ángel Costa Montiel Ingeniero Electricista, Doctor en Ciencias Técnicas, Profesor Titular, CIPEL, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Raúl Díaz Fuentes Ingeniero Electricista, Ciudad de La Habana, Cuba Miguel Castro Fernández Ingeniero Electricista, Doctor en Ciencias Técnicas, Profesor Titular, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Electric Power Quality and Distributed Generation in Cuba Abstract Diesel engine generator (RM) is one of the most used technologies on distributed generation (DG). The presence of RM, no manner its operation form need an analysis about differents problems: one of them is related with power quality (PQ). First results obained inside one study directed to obtain answers about differents perturbations for the RM presence like shortcircuit and voltage variation on RM termianls and rejected charge are presented in this paper. Key words: diesel engine, distributed generation, power quality 50 Revista Cubana de Ingeniería Revista Cubana de Ingeniería, 1(3), 51-60, 2010 INGENIERÍA HIDRÁULICA Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones Anders Pérez Brugal Correo electrónico:[email protected] Universidad de Oriente, Santiago de Cuba, Cuba Juan F. Weber Correo electrónico:[email protected] Universidad Tecnológica Nacional, Córdoba, Argentina Yaismil R. Castellanos Correo electrónico:[email protected] GeoCuba Oriente Sur, Agencia Catastro, Santiago de Cuba, Cuba Resumen En la investigación se analizó la influencia de la precisión de los modelos gigitales del terreno [MDT] en los resultados de la simulación hidráulica de inundaciones. Se crearon cuatro MDT derivados de fuentes diferentes: tres, a partir de cartografía vectorial de curvas de nivel a varias escalas y uno, producto de un levantamiento con GPS en conjunto con una estación total. Este último se estableció como punto de comparación para determinar los errores que impone el uso de dichos planos en la representación del cauce y las llanuras de inundación y revelar su influencia en los resultados de la simulación. Finalmente, en dependencia del plano utilizado, se obtuvieron divergencias de 2,88 hasta 18,82 m de altura al representar un mismo punto en el terreno, lo que influyó de manera significativa en el cálculo de altura de la lámina de agua y en la estimación del área inundada, ya que se encontraron errores de 1,6 hasta 2,6 m y de 0,039 hasta 0,283 km2 respectivamente, lo que demuestra que la precisión del MDT con que se modela el terreno determina en gran medida los resultados de la simulación. Palabras clave:simulación hidráulica de inundaciones, modelos digitales del terreno, SIG Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN Los Sistemas de Información Geográfica [SIG] han marcado desde su creación una pauta en cualquier disciplina relacionada con el manejo de información espacial. Su papel en la evolución de la hidráulica fluvial es, sin duda alguna, de vital importancia. Felicísimo [1] los define como: "Un sistema de hardware, software y procedimientos, elaborados para facilitar la obtención, gestión, manipulación, análisis, modelado, representación y salida de datos espacialmente referenciados, con el objetivo de resolver problemas complejos de planificación y gestión". Por otra parte, muchos modelos matemáticos de simulación hidráulica se han desarrollado con el apoyo en algunos SIG debido a la gran potencia que poseen los Modelos Digitales del Terreno [MDT] para representar el relieve. Esta posibilidad abrió el camino para la modificación de los modelos matemáticos de simulación hidráulica en la incorporación de nuevas capacidades estrechamente relacionadas con la información espacial. Entre los SIG que presentan vínculos con estos modelos matemáticos se destacan: AutoCad Land, Grass, Pcraster, Mike 11, ArcGis, entre otros. Un ejemplo clásico de esta relación se encuentra en el desarrollo llevado a cabo por el HEC para la mejora de su modelo HEC-RAS. Como parte de este esfuerzo surgen las aplicaciones implementadas sobre el popular SIG ArcView: HEC-GeoRAS. Su utilización permite el cálculo Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones automatizado de buena parte de los parámetros que son necesarios para la operación de los modelos implementados en HEC-RAS, así se gana una mayor precisión al trabajar con una resolución espacial mucho más elevada que la que podría obtenerse mediante la introducción manual de los datos del terreno. El registro de la realidad física de una zona y, en particular, de la información referente a elevaciones se ha realizado frecuentemente mediante el uso de modelos analógicos, tales como los mapas y planos por todos conocidos, situación que en los últimos tiempos ha variado sensiblemente con la introducción de modelos de naturaleza digital y en particular los MDT. En estos, el almacenamiento de la información es de tipo puramente numérico, lo que hace posible el desarrollo de un análisis más detallado y profundo del relieve en cada ámbito de estudio. Históricamente, estos modelos se han dividido en dos grupos en función de la concepción básica de la representación de los datos: vectoriales y raster. Numerosos estudios han demostrado que la descripción vectorial es más apropiada para representar variables discretas que, por su naturaleza, están limitadas por fronteras lineales claras, mientras las descripciones raster se adaptan mejor a la representación espacial de variables continuas, así como para otras con una naturaleza estadística o probabilística (figura 1). En este sentido, Casa et al [2] revelan, que el uso de mallas regulares para la representación de un modelo del terreno no es el adecuado para el análisis hidráulico de conducciones naturales debido a que este modo de representación del terreno no permite definir con detalle áreas con relieve complicado al no poder variar la resolución. De este modo, los vectoriales [TIN] resultan más acertados dado que están compuestos por una serie de puntos con valores x, y, z conocidos, y un conjunto de arcos que los unen para formar triángulos que permiten una mejor representación de la geometría del río al admitir el ajuste de la densidad de la red a la cantidad de variación de los datos [3]. Igualmente, el TIN admite datos adicionales como puntos de máxima cota o de depresiones y líneas de ruptura que permiten representar los elementos característicos del terreno como márgenes, cauce, afluentes, etc., que influyen de forma decisiva en el comportamiento hidráulico del río modelado. La captura de la información hipsométrica constituye el paso inicial para transformar la realidad geográfica en una estructura digital de datos a través de la construcción de un MDT. Dicho proceso involucra diferentes métodos: directos e indirectos. Los directos toman la información sobre la superficie real del terreno y los indirectos se basan en un conjunto de documentos analógicos o digitales. En Cuba y en los países del tercer mundo o en vías de desarrollo se trabaja, por lo general, a través de la digitalización directa debido a los elevados precios de las tecnologías más avanzadas que suponen los restantes. Por lo que en la realidad cubana, los planos utilizados en la modelación de inundaciones están sujetos al uso de cartografía vectorial de curvas de nivel a escalas: 1: 10 000, 1: 25 000, 1: 50 000 y 1: 100 000 ya que estas son las más comunes en el país. Diversas investigaciones se relacionan con el efecto de la resolución espacial en modelos de simulación de inundación como los de Casa et al, [2] Werner [4], Bates y De Roo [5], Marks y Bates [6], Hardy et al [7], Omer et al [8] y Horritt [9]. En esta bibliografía se manifiesta que la influencia de la topografía, tanto del cauce como de la llanura de inundación, constituye el factor limitante más importante en la modelación hidráulica y su representación como variable de entrada al modelo determina en gran medida la hidráulica de la crecida modelada y la extensión del área inundada. El presente trabajo resulta de la necesidad de aplicar este tipo de investigación, en la cual se simulan las inundaciones, en el tramo del río Baconao que va desde la confluencia del Indio hasta la estación hidrométrica Trucucú. Con este propósito se toman como datos de entrada para la simulación algunas de las cartografías más utilizadas en Cuba [1: 10 000, 1: 25 000 y 1: 100 000]. Fig. 1. Representación del relieve mediante celdas de resolución constante [GRID] y redes de triángulo irregulares [TIN] respectivamente. 52 Revista Cubana de Ingeniería Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos Teniendo en cuenta que no se conoce el grado de confiabilidad que impone en los resultados de la simulación cada una de estas escalas, se estableció como punto de comparación un levantamiento por posicionamiento global [GPS], apoyado por una estación total. Esto permitirá analizar los errores en los resultados de la simulación hidráulica asociados a la utilización de la cartografía con que se modela el terreno. De esta manera se podrán tomar, en el futuro, con un mayor nivel de confianza y rapidez, las medidas de prevención necesarias para mitigación y reducción de desastres por inundaciones al emplear adecuadamente los SIG y los modelos de simulación hidráulica. DESCRIPCIÓN DEL ÁREA DE ESTUDIO La investigación se desarrolló en el tramo del río Baconao comprendido entre el afluente el Indio y la estación hidrométrica Trucucú (figura 2). La cuenca que tributa al río, se localiza al este de la ciudad de Santiago de Cuba, en la vertiente norte de la Sierra de la Gran Piedra. Limita al norte y al este con la cuenca del río Guantánamo; al noroeste, con la cuenca del río Guaninicún, al oeste con la cuenca del río San Juan y al sur, con el río La Anita, afluente del propio Baconao. Se escogió esta zona, por la disponibilidad de información hidrometeorológica y física, pues ahí se ubica una estación hidrométrica. La información extraída, a partir de dicha estación, garantiza el sistema de datos necesarios para una adecuada simulación de la inundación, pues facilita, entre otros, conocer valores reales de caudales y niveles del agua que circulan por el río. Toda esta información fue suministrada por el Instituto Nacional de Recursos Hidráulicos [INRH]. El tramo de río en estudio, comprendido entre el afluente el Indio y la estación hidrométrica Trucucú, presenta una longitud de 642 m con una pendiente media de 0,001 8 m/m. El cierre de la estación se encuentra ubicado en las coordenadas Norte: 152,1 y Este: 637,7; hasta este punto la cuenca presenta una superficie de 167,8 km2, perímetro de 84,68 km y una pendiente media de 343 ‰. El río exhibe una topografía empinada, donde se define, a simple vista, el límite entre el cauce principal y las llanuras de inundación. Fig. 2. Ubicación del tramo de río en estudio. El río cuenta con una estación hidrométrica que pertenece al Instituto Nacional de Recursos Hidráulicos [INRH], a través del cual se obtuvo la relación de los caudales máximos y la altura de la lámina del agua al 1, 5 y 20% de probabilidad (tabla 1). Con estos datos se estableció en esa sección del río la condición de contorno correspondiente a nivel de agua conocido [Known W.S.] y se simuló el perfil de la superficie del agua en régimen permanente. Se decidió ejecutar la simulación con los caudales máximos, teniendo en cuenta que este es el parámetro de diseño que más se emplea en proyectos para control de inundaciones en Cuba. [10] Tabla 1 Relación de los caudales máximos y altura de la lámina del agua Probabilidad Período de retorno p (%) T (años) Caudal Q (m3/s) Nivel y (m) 1 025 6,45 1 100 5 20 714 5,52 20 5 436 4,06 El caudal máximo registrado en dicha estación, ocurrió el 4 de octubre de 1963, durante el paso del ciclón Flora, con un valor de 1 109 m3/s, y elevó el nivel del agua a una altura de 6,7 m como se muestra en la figura 3. Fig. 3. Nivel máximo del agua en la estación hidrométrica Trucucú, durante el paso del ciclón Flora. Revista Cubana de Ingeniería 53 Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones MODELACIÓN Y EXPORTACIÓN DEL TERRENO En el análisis del flujo en conducciones libres, el primer paso está encaminado a obtener con precisión la geometría del río y las llanuras de inundación a partir de un TIN. Para facilitar el trabajo se generó con ArcView 3.3 y su extensión 3d Analyst un total de cuatro TIN de la zona de estudio. Para ello se utilizaron como fuente de datos las escalas: 1: 10 000, 1: 25 000 y 1: 100 000. Estas se obtuvieron en la empresa GeoCuba Oriente Sur a través de la agencia Catastro. Es importante resaltar que cualquier proceso de generalización manual introduce errores en los mapas tradicionales, los cuales se trasladan posteriormente a los sistemas de información geográfica cuando son convertidos al formato digital. El origen de estos errores puede ser muy diverso; pueden estar provocados por los procesos de generalización cartográfica, por la vectorización y rasterización de datos; por los cambios de escala, entre otros. Morad y Treviño [11] han investigado los errores ocasionados por un proceso de digitalización manual, y sus resultados evidencian que los mapas digitalizados por varias personas, o por personas sin experiencia, tienden a acumular importantes errores geográficos, lo cual evidentemente ocasiona la propagación de errores durante la construcción del modelo del terreno. Atendiendo a esa posibilidad se hace necesario conocer la precisión de los planos con los cuales se trabaja, pues, como los errores son consustanciales a los propios datos, obviamente, los SIG no pueden obtener resultados con una resolución de salida mejor que la de entrada. Según datos de GeoCuba, los planos: 1: 10 000, 1: 25 000 y 1: 100 000, poseen una precisión en la determinación de la altura [z], igual a 1/3 de la equidistancia, y una precisión en x, y igual a 0,22 mm a la escala del plano (tabla 2). Por todo lo antes expuesto, se construyó un cuarto modelo, para establecer una comparación con los tres modelos del terreno antes mencionados y determinar su influencia en los resultados de la simulación. Con este objetivo se escogieron como datos de entrada, los puntos obtenidos en un levantamiento de alta resolución, con GPS en conjunto con una Estación Total en el tramo de río en estudio. Dicho levantamiento se llevó a cabo por la Agencia Catastro, en el que se utilizó un GPS Leyca sr20 en modo diferencial para garantizar la precisión que requería (figuras 4 y 5). Fig. 4. Puntos medidos con el GPS y la estación total, y curvas de nivel del plano 1: 10 000, así como los modelos digitales del terreno construidos a partir de ellos. Tabla 2 Valores de la precisión en z, x, y de los planos utilizados Escala Equidistancia Precisión z Precisión x, y 1: 10 000 5m 1,67 m 2,2 m 1: 25 000 10 m 3,33 m 5,5 m 1:100 000 40 m 13,3 m 2,2 m 54 Revista Cubana de Ingeniería Fig. 5. Curvas de nivel de los planos 1:25 000 y 1: 100 000, así como los modelos digitales del terreno construidos a partir de ellos. Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos La captura de los puntos se basó en el levantamiento sistemático de los perfiles transversales de interés, espaciados en función de los cambios en la geomorfología del río. Se tomaron los puntos de fuerte cambio de pendiente, los bancos de arena encontrados en el cauce, los cambios en la forma de la sección transversal del cauce, etc. El fondo del río fue medido de manera directa debido a que se realizó la medición en el período seco y este presentaba un nivel del agua muy bajo. En algunas zonas el levantamiento se vio afectado por las dificultades del terreno, la vegetación que impedía la visibilidad de los satélites y la gran inversión de tiempo que se necesitó. Como alternativa se complementó el levantamiento con la ayuda de una estación total Leyca tps 805, con un alcance 1500 /2000 m y una precisión 10 mm ppm + 2 mm. ANÁLISIS DE LA PRECISIÓN DE LOS MODELOS CARTOGRÁFICOS Para evaluar la precisión de los modelos cartográficos, se utilizaron como puntos de control los medidos a través del levantamiento con GPS en conjunto con una estación total porque, como se explicó anteriormente, dicho levantamiento se considera el más representativo de la geometría del cauce y las llanuras de inundación. El error de cada MDT se calculó hallando la diferencia entre los valores tomados como puntos de control y los interpolados en los TIN construidos con ArcView. En total se compararon 467 puntos, cuyos resultados se presentan en la tabla 3. Tabla 3 Estadísticos de los errores (m) de los diferentes modelos digitales del terreno Estadísticos 10 000 25 000 100 000 No. de puntos de control 467 467 467 Error máximo 10,63 12,77 22,77 Error mínimo 0,11 0,02 0,11 Error medio 5,20 8,75 18,46 Error medio cuadrático 5,46 9,22 18,82 Finalmente, se obtuvo la precisión en z de todos los planos, y como se suponía, esta fue disminuyendo a medida que lo hizo la escala; llama la atención que, al calcular el EMC, en cada uno de los planos utilizados se obtuvo siempre una apreciable desigualdad de precisión en relación con la establecida por GeoCuba como norma. Ante esta situación imprevista se consideró necesario obtener la diferencia de precisión que deberían mostrar los planos con respecto a la alcanzada en realidad (tabla 4). Tabla 4 Comparación de la precisión en z Precisión en z Escala GeoCuba Calculada Diferencia 1: 10 000 1,67 m 5,46 m + 3,79 m 1: 25 000 3,33 m 9,22 m + 5,89 m 1: 100 000 13,3 m 18,82 m + 5,52 m En la comparación anterior se observa claramente que ninguno de los mapas presenta la precisión requerida. En sentido general se evidenció la manifestación de grandes diferencias entre los TIN como consecuencia del cambio de escala. Esto se debe a que estos se encuentran compuestos por una serie de puntos con valores x, y, z y un conjunto de arcos que los unen para formar los triángulos y a medida que disminuye la escala, aumenta la equidistancia y la distancia entre las curvas de nivel. Toda esta situación conduce a un aumento significativo de la distancia entre los puntos, así como de sus valores de altura, por lo que queda cada vez menos detallada la topografía del cauce y las llanuras, lo que se pone en evidencia principalmente, en un aumento significativo del ancho del cauce y de la altura con respecto a la real. La figura 6 resulta representativa para mostrar el efecto de los diferentes modelos en una sección transversal, y pone de manifiesto que las desigualdades entre las superficies van a influir de manera significativa en los resultados de la simulación hidráulica. Fig. 6. Geometría de la sección transversal 1,299 representada por los distintos planos. Revista Cubana de Ingeniería 55 Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones Teniendo en cuenta todo lo antes expuesto, los autores consideran que los errores que impone el uso de dichas cartografías en la representación el terreno y su influencia en los resultados de la simulación hidráulica de inundaciones, no pueden admitirse en proyectos que necesiten un alto nivel de precisión, pues aunque estaría trabajándose del lado de la seguridad, al sobreestimarse los resultados, se incurrirá en grandes gastos si se fuera a proyectar una obra o en la movilización innecesaria de recursos humanos y materiales que se verían afectados. Todo ello evidentemente descarta esos planos como base cartográfica para realizar proyectos a nivel de ingeniería de detalle. Se considera, además, que el 1: 10 000 es el único adecuado para representar el terreno en proyectos que no requieran un elevado nivel de detalle. trabaja con un tramo de río más largo con curvas de nivel que lo corten, ya que en ese punto existiría un cambio brusco de la pendiente de fondo del río directamente proporcional a la equidistancia del plano. Esta situación traería como resultado una caída hidráulica en dicha zona, lo cual incrementaría el error en el cálculo de la altura real del agua a medida que disminuya la escala del plano, como es de esperar. INFLUENCIA DE LA PRECISIÓN DE LOS PLANOS EN EL CÁLCULO DE LA ALTURA DEL AGUA Y EL ÁREA DE INUNDACIÓN La determinación de la influencia que ejerce el cambio de escala de la cartografía vectorial de curvas de nivel en el cálculo de la altura del agua y el área de inundación está dada por la incidencia directa que ejerce esta en la pérdida de precisión de los MDT, evidenciado esto principalmente, como ya se demostró, por un aumento significativo del ancho del cauce y de la altura con respecto a la real, por lo que constituye una incógnita la influencia de estos factores en los resultados de la simulación hidráulica de inundaciones. Para establecer un patrón de comparación se tomó el TIN construido con los puntos tomados en el terreno, debido a la precisión centimétrica con que fue ejecutado dicho levantamiento. Finalmente, para obtener el perfil de la superficie del agua, se simuló en régimen permanente, para lo cual se utilizaron como variables de entrada al modelo, caudales al 1%, 5% y 20% de probabilidad, y se estableció, en la sección transversal del río que representa la zona donde se realizan las mediciones en la estación hidrométrica, la condición de contorno nivel de agua conocido, ya que esta es la adecuada si se conoce la altura real del agua en alguna sección transversal, como es el caso. Como consecuencia de la simulación se obtuvieron los valores de elevación de la lámina de agua, los perfiles de la altura del agua. Con estos valores se calcularon las desigualdades entre los obtenidos al utilizar el TIN más preciso (GPS y estación total), y los alcanzados al emplear la cartografía vectorial de curvas de nivel para representar el terreno como se muestra en las figuras 7 y 8. En este análisis se llega a resultados muy interesantes, pues como se puede apreciar en la tabla 5, aproximadamente se introduce el mismo error en el cálculo de la altura del agua, a pesar de utilizarse escalas diferentes. No obstante, es necesario resaltar que estas diferencias aumentan si se 56 Revista Cubana de Ingeniería Fig. 7. Perfiles de la lámina de agua, para un caudal correspondiente al 20% de probabilidad, empleando los TIN del levantamiento con GPS y estación total, y 1: 10 000 respectivamente. Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos Una vez efectuado el cálculo de la elevación de la lámina de agua se crea de manera automática con ArcView un mapa del área inundada. Este realiza una superposición de la altura que alcanza la superficie del agua sobre el terreno y una operación de resta de alturas que tiene como finalidad delimitar la extensión de la mancha de inundación. En las figuras 9 y10 se muestran gráficamente algunos resultados de la simulación, en los que se evidencia las diferencias existentes en los resultados con tan solo variar el TIN. Como resultado se estableció una comparación entre los valores de áreas inundadas alcanzados con el uso de los diferentes planos y se demostró que a medida que disminuye la precisión del MDT ocurre un aumento significativo del área inundada. Esto se debe a que a medida que disminuye la escala, aumenta el ancho del cauce y la altura del terreno. Es por esta razón que la menor área inundada se obtuvo al utilizar el levantamiento más preciso (GPS y estación total) y la mayor área al emplear el plano 1: 100 000 como se muestra en la tabla 6 y la figura 11. Fig. 8. Perfiles de la lámina de agua, para un caudal correspondiente al 20% de probabilidad, empleando los TIN de los planos 1:25 000 y 1: 100 000 respectivamente. Tabla 5 Error medio cuadrático (m)en el cálculo de la altura del agua, tomando como referencia la alcanzada al utilizar el TIN más preciso Cartografía Q (m3/s) 1: 10 000 1: 25 000 1: 100 000 436 1,61 1,76 1,69 714 2,06 2,47 2,40 1 022 2,22 2,62 2,63 Fig. 9. Zona inundada, para un caudal correspondiente al 20% de probabilidad, empleando los TIN del levantamiento con GPS y estación total, y 1: 10 000 respectivamente. Revista Cubana de Ingeniería 57 Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones Fig. 11. Error medio (km2) en el cálculo del área de inundación. Fig. 10. Zona inundada, para un caudal correspondiente al 20% de probabilidad, empleando los TIN de los planos 1:25 000 y 1: 100 000 respectivamente. Tabla 6 Área de unundación (km2) para caudales con probabilidades al 20,5 y 1% Cartografía Q (m3/s) GPS 1: 10 0 00 1: 25 000 1: 10 000 436 0,039 0,056 0,098 0,269 714 0,048 0,065 0,109 0,277 1 022 0,053 0,070 0,116 0,283 58 Revista Cubana de Ingeniería Una vez más se evidencia que el 1: 10 000 es el más adecuado para representar el terreno, pues con su uso la diferencia del área inundada con respecto al valor real fue la menor, mientras que con la utilización de las restantes cartografías estas desigualdades aumentaron considerablemente hasta llegar a un valor máximo de 0,230 km2, en el caso del TIN menos preciso, construido a partir del plano 1: 100 000. No obstante, es importante señalar que a pesar de que la menor diferencia obtenida en el cálculo del área inundada se haya alcanzado con el uso del cartográfico 1: 10 000, resalta el hecho de que la desigualdad es considerable, sobre todo si se tiene en cuenta que el tramo de río en estudio es bastante corto, pues solo es de 642 m. También es conveniente aclarar que este tramo presenta una topografía muy abrupta, aspecto que favorece el aumento de las diferencias debido a que en este tipo de mapas el cauce y las llanuras de inundación quedan apenas representados en profundidad y extensión, como se puede apreciar en la figura 5, y por tanto, el agua ocupa desproporcionadamente más espacio de la llanura de inundación. Por todo lo antes expuesto, los autores consideran que ninguno de estos planos debe utilizarse para realizar proyectos que necesiten llegar a resultados con un elevado nivel de detalle, como lo requieren el diseño de alcantarillas, diques, y presas, entre otros. Sin embargo, existen otros que no necesitan tan alto nivel de precisión; este es el caso de estudios que solamente precisan ubicar zonas con determinado riesgo de inundación. En esa situación se recomienda la utilización del plano 1: 10 000, siempre que se consideren los errores que impone su uso en la determinación de la altura del agua y el área inundada. Los demás planos no son apropiados debido a las grandes divergencias que con ellos se obtiene en los resultados. Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos CONCLUSIONES REFERENCIAS 1. Se calculó la diferencia existente entre los valores de altura de cada uno de los TIN obtenidos a partir de los planos a escala: 1: 10 000, 1: 25 000 y 1: 100 000, y el levantamiento hecho con GPS y estación total. Se obtuvo un EMC de 5,46 m cuando se empleó el 1: 10 000. Dicha desigualdad fue aumentando simultáneamente con la utilización de planos de menor escala hasta llegar a un máximo de 18,82 m de altura con el 1: 100 000, por lo que se obtuvo siempre una apreciable desigualdad de precisión en relación con la establecida por GeoCuba como norma. 2. Al analizar el error en la altura que obtuvo el agua, se evidencia que aproximadamente se produce el mismo error en la simulación a pesar de utilizarse diferentes escalas, pues se alcanzaron valores que oscilan entre 1,6 y 2,6 m. No obstante, es necesario resaltar que estas diferencias aumentan si se trabaja con un tramo de río más largo con curvas de nivel que lo corten, ya que en ese punto existiría un cambio brusco de la pendiente de fondo del río directamente proporcional a la equidistancia del plano. Esta situación traería como resultado una caída hidráulica en dicha zona, lo cual incrementaría el error en el cálculo de la altura real del agua a medida que disminuye la escala. 3. Con la utilización del 1: 10 000 el EMC en la determinación de la altura del agua para diferentes caudales varió 0,61 m. Sin embargo, al emplear el 1: 100 000, se encontró que para los mismos caudales la desigualdad aumentó a 0,94 m. Por tanto, a medida que se aumenta el caudal y se trabaja con planos menos precisos, las diferencias en el cálculo de la altura del agua serán más significativas. 4. Los resultados de la modelación hidráulica dependen mayormente de la cartografía con que se modele el terreno, pues al comparar el área inundada obtenida con el TIN creado a partir del levantamiento con GPS y estación total, con las áreas inundadas alcanzadas con el empleo de la cartografía vectorial convencional, se observa que aumentan las desigualdades a medida que disminuye la escala, sin importar el caudal que se emplee. Se encontraron divergencias de 0,017 km2 al utilizar el modelo cartográfico 1: 10 000, mientras que con las elaboradas a partir de escalas más pequeñas, estas desigualdades aumentaron considerablemente hasta llegar a un valor máximo de 0,21 km2 en el caso del 1: 100 000. 1. FELICÏSIMO, A. Modelos digitales de terreno. Introducción y aplicación en las ciencias ambientales. Oviedo, España: 1994, p.122. 2.CASA, A. et al. "Efectos de las fuentes cartográficas en los resultados de la modelación hidráulica de crecidas". Ingeniería del agua. 2005, vol. 12, nº 4, p. 12. 3.BATES, P. B. et al. Analysis and development of hydraulic models for floodplain flows. 1996. 4. WERNER, M. G. F. "Impact of grid size in GIS based f lood extent mapping using a 1D f low model". Phys.Chem.Earth (B). 2001, vol. 26, nº 7-8, p. 522. 5. BATES, P. B. and DE ROO, A. P. J. "A simple rasterbased model for flood inundation simulation". Journal of Hydrology. 2000,nº 236, p. 54-77. 6.MARKS, K. and BATES, P. "Integration of high resolution topographic data with floodplain flow models". Hydrological Processes. 2000, nº 14, p. 2122. 7. HARDY, R. J. et al."The importance of spatial resolution in hydraulic models for floodplain environments". Journal of Hydrology. 1999, nº 216, p. 136. 8. OMER, C. R. et al. "Impact of varied data resolution on Hydraulic Modeling and Floodplain Delineation". Journal of the American Water Resources Association. 2003, p. 475. 9.HORRITT, M. S. and BATES, P. D. "Effects of spatial resolution on a raster based model of flood flow". Journal of Hydrology. 2001, p.249-253. 10. GONZÁLEZ, S. L. et al. "Eventos hidrológicos extremos". Hidrología Superficial para Ingenieros, CIH, Ciudad de la Habana, Cuba. 2000. p.1-145. 11. MORAD, M. and TREVIÑO, A. "Sistemas de información geográf ica y modelizaciones hidrológicas: Una aproximación a las Ventajas y dificultades de su aplicación". Boletín de la AGE. 2001, p. 31-46. RECONOCIMIENTOS Los autores agradecen a la agencia Catastro perteneciente a la empresa GeoCuba Oriente Sur, por aportar para los propósitos académicos del presente trabajo, la cartografía vectorial de curvas de nivel de la zona de estudio, y por llevar a cabo el levantamiento de alta resolución con GPS en conjunto con una estación total. Sin estos datos no hubiera sido posible la realización de esta investigación. AUTORES Anders Pérez Brugal Ingeniero Hidráulico, Instructor, Departamento de Ingeniería Hidráulica, Facultad de Construcciones, Universidad de Oriente, Santiago de Cuba, Cuba Juan F. Weber Ingeniero Civil, Máster en Ciencias de la Ingeniería, Profesor Titular, Investigador y Consultor en Hidrología e Hidráulica. Laboratorio de Hidráulica, Facultad Regional de Córdoba, Universidad Tecnológica Nacional, Córdoba, Argentina Yaismil R. Castellanos Ingeniero Mecánico, Profesor Adjunto, Departamento de Ingeniería Mecánica, Facultad de Ingeniería Mecánica, Universidad de Oriente, Agencia GeoCuba Oriente Sur, Santiago de Cuba, Cuba Revista Cubana de Ingeniería 59 Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones Importance of Digitals Models of Soil Surface in the Flooding Hydraulic Simulation Abstract Investigation analysed the influences of MDT´s precision in the results of the hydraulic simulation of floodings. Four digitals models of soil surface were created from different sources: three starting from vectorial cartography by contour lines of few scales and one getting from GPS devices and total station measuring. The comparison to the estimated measured error due to the utilization of simple vectorial cartography paper for the representation of riverbed and flood valleys, with the last model utilized, may assume it influence in flood simulation results. One conclusion was probed; height differences in the representation of soil surface to the same point were very wide [2,88 to 18,82 m], then the estimated water level as well the simulation of flooding area depend of the obtained cartography method, due that were found errors from 1,6 to 2,6 m and from 0,039 to 0,283 km2, that demonstrates the precision of the MDT with that the plot of land is modeled determines the results of the simulation to a large extent. Key words: flooding hydraulic simulation, digital model of the soil surface, SIG 60 Revista Cubana de Ingeniería Revista Cubana de Ingeniería, 1(3), 61-65, 2010 INGENIERÍA INFORMÁTICA Estimación de parámetros meteorológicos secundarios utilizando técnicas de minería de datos Rosabel Zerquera Díaz Correo electrónico:[email protected] Ayleen Morales Montejo Correo electrónico:[email protected] Gil Cruz Lemus Correo electrónico:[email protected] Alejandro Rosete Suárez Correo electrónico:[email protected] Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Resumen El presente trabajo desarrolla un proceso de descubrir conocimiento en bases de datos (Knowledge Discovery in DataBases, KDD por su siglas en inglés) en el grupo de Medio Ambiente, del Instituto Superior Politécnico José Antonio Echeverría y en colaboración con el Centro de Gestión de la Información y Desarrollo de la Energía (CUBAENERGÍA) con el objetivo de obtener un modelo de datos para estimar el comportamiento de los parámetros meteorológicos secundarios a partir de datos de superficie. Se detallan algunos aspectos relacionados con la minería de datos y su aplicación en el entorno meteorológico; además, se seleccionan y describen la metodología CRISP-DM y la herramienta de análisis de datos WEKA. Se utilizan las tareas de selección de atributos y de regresión, la técnica de redes neuronales de tipo perceptrón multicapas y los algoritmos CfsSubsetEval, BestFirst y MultilayerPerceptron. Se obtienen modelos de estimación para los parámetros meteorológicos secundarios: altura de la capa de mezcla convectiva, altura de la capa de mezcla mecánica y velocidad convectiva de escala, necesarios para el estudio de los modelos de dispersión de contaminantes en la zona de la Cujae. Los resultados obtenidos constituyen un precedente para futuras investigaciones, así como para la continuidad de esta en su primera etapa. Palabras clave: meteorología, estimación, parámetros meteorógicos secundarios, minería de datos, redes neuronales Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN En la actualidad, la automatización de las actividades de los negocios produce un flujo creciente de datos, pues incluso la información referente a acciones tan simples como una llamada telefónica o un test médico es almacenada en una computadora. Las empresas e instituciones se encuentran abrumadas por este crecimiento acelerado del tamaño y cantidad de datos. Es imprescindible convertir los grandes volúmenes de datos existentes en experiencia, conocimiento y sabiduría, formas que son útiles para la toma de decisiones y el desarrollo económico y social contemporáneo. Tal es el caso del grupo de Medio Ambiente del Instituto Superior Politécnico José Antonio Echeverría Cujae, que cuenta con una estación meteorológica automática que recoge datos de superficie desde el 15 de abril del 2008, a los que no se les da ningún tratamiento o explotación, entre estos se encuentran: dirección y velocidad del viento, temperatura, humedad relativa, presión, entre otros. Estos datos son almacenados en soporte digital (con restricciones de capacidad), y procesados por la consola Vantage Pro2 de Davis, [1] que solo los muestra en forma numérica y predice el comportamiento de algunos de ellos para las próximas 12 horas. Mediante el software WeatherLink en Estimación de parámetros meteorológicos secundarios utilizando técnicas de minería de datos su versión 5.7 del 2006 [2] para Windows, se conecta la estación meteorológica a la computadora, posibilitando el intercambio de datos y su total almacenamiento; lo que permite plotear, analizar, exportar e imprimir los datos meteorológicos, así como configurar la estación y monitorear las alarmas. El grupo se encuentra interesado en el análisis de la dispersión local de contaminantes gaseosos y de partículas en la zona de la Cujae; para ello es necesario poseer los valores de parámetros meteorológicos secundarios como: altura de la capa de mezcla convectiva, altura de la capa de mezcla mecánica y velocidad convectiva de escala, entre otros; actualmente no se cuenta con estos valores, pero pueden obtenerse mediante cálculos a partir de los parámetros meteorológicos primarios siguientes: dirección y velocidad del viento, temperatura exterior, humedad relativa, precipitaciones, presión barométrica y radiación solar; estos últimos son los datos de superficie que se recogen mediante la estación meteorológica automática. Para la obtención de los parámetros meteorológicos secundarios, se propone la utilización del preprocesador meteorológico AERMET del sistema de modelos AERMOD, establecido por la Agencia de Protección Ambiental de los Estados Unidos (en inglés Enviromental Protection Agency, EPA). CUBAENERGÍA dispone del software Lakes Enviromental, una versión mejorada del AERMET de la EPA, que brinda entre otros, un potente entorno visual. Lakes Enviromental es propiedad de una empresa canadiense que limita su distribución y uso. El empleo de cualquiera de estas dos versiones de AERMET, requiere de datos de superficie y de sondeo. Las mediciones atmosféricas de sondeo de aire superior actualmente en Cuba no se realizan de forma sistemática, por lo que se desarrolló en CUBAENERGÍA la v ersión del AERMET: AERMET+, que simula el comportamiento vertical de la atmósfera a partir de datos de superficie (específicamente la altura de la capa de mezcla convectiva, y a partir de esta, la velocidad convectiva de escala y el gradiente de temperatura potencial por encima de la capa de mezcla). [3] Para la utilización de esta versión es necesario un fichero con los datos de superficie en un formato específico: HUSWO; este fichero se puede obtener a través de otro sistema desarrollado por CUBAENERGIA: SD_Aermet, que tiene como función la conversión de formatos. La versión AERMET+ de CUBAENERGÍA, consume un tiempo de procesamiento considerable, una parte del cual se emplea en la preparación de los datos y la creación de ficheros de entrada para el sistema. Además, esta versión solo permite trabajar con datos horarios, por lo que si se poseen varias mediciones por hora, es necesario hacer un promedio vectorial, lo que puede implicar la pérdida de grados de exactitud en las mediciones. Por lo expuesto anteriormente, se considera el cálculo de los parámetros meteorológicos secundarios, engorroso; y 62 Revista Cubana de Ingeniería no resulta factible el procesamiento de los datos, lo cual imposibilita el análisis de la dispersión local de contaminantes. Con los valores que se obtienen mediante AERMET+, no se pueden obtener patrones de comportamiento de los datos. Además, no se cuenta con métodos y herramientas de procesamiento y análisis que le den sentido y utilidad a la información obtenida. Como objetivo del trabajo se propone, obtener modelos de datos que permitan analizar las dependencias entre los parámetros meteorológicos, así como estimar los parámetros meteorológicos secundarios: altura de la capa de mezcla convectiva, altura de la capa de mezcla mecánica y velocidad convectiva de escala, respecto a los datos de superficie en la zona de la Cujae, utilizando técnicas de minería de datos. MINERÍA DE DATOS (MD) Entre las múltiples definiciones que identifican la MD se encuentra la siguiente: Minería de datos o data mining es el conjunto de técnicas y herramientas aplicadas al proceso no trivial de extraer y presentar el conocimiento implícito, previamente desconocido, potencialmente útil y humanamente comprensible, a partir de grandes conjuntos de datos, con el objeto de predecir de forma automatizada tendencias y comportamientos y/o descubrir de forma automatizada modelos previamente desconocidos. [4] En la actualidad, la aplicación de técnicas de MD en el cam po de la meteorología se ha increment ado considerablemente. [5] La estimación, es una tarea predictiva de gran importancia. Su meta es encontrar el valor numérico de una variable objetivo para objetos desconocidos. El objetivo en este caso es minimizar el error (generalmente el error cuadrático medio) entre el valor predicho y el real. Las redes neuronales artificiales ofrecen los medios necesarios para revelar categorías comunes en los datos, debido a que son capaces de detectar y aprender complejos patrones y características dentro de los datos; así como para modelar de manera efectiva y eficiente, problemas grandes y complicados, de forma individual, o combinadas con otros métodos, para aquellas tareas de clasificación, agrupamiento y estimación. Uno de los tipos principales de redes neuronales artíficiales existentes es el perceptrón multicapas empleado en el aprendizaje supervisado. Este constituye una red neuronal artíficial formada por múltiples capas que permiten (entre otros) modelar conjuntos de datos que son linealmente separados. METODOLOGÍA Y HERRAMIENTA PARA ENFRENTAR EL PROCESO DE KDD CRISP-DM (CRoss-Industry Standard Process for Data Mining) [6] es una metodología para MD que fue presentada por el consorcio CRISP-DM, encabezado por SPSS Inc. (Estados Unidos); esta se ha convertido en un estándar luego de ser liberada para su empleo y desarrollo por parte de la comunidad internacional. Rosabel Zerquera Díaz - Ayleen Morales Montejo - Gil Cruz Lemus - Alejandro Rosete Suárez WEKA, acrónimo de Waikato Environment for Knowledge Analysis (Entorno de Búsqueda de Conocimiento de Waikato), [7] constituye una extensa colección de algoritmos de máquina de conocimiento implementados en Java, útiles para ser aplicados mediante las interfaces o para embeberlos dentro de cualquier aplicación; fue desarrollada por un grupo de investigadores de la Universidad de Waikato, Nueva Zelanda. W EKA posee la licencia GPL para su libre distribución y es de código abierto. TÉCNICAS DE MODELACIÓN Las técnicas de modelado seleccionadas se muestran en la tabla 1, en esta se resumen los objetivos que se persiguen, las tareas planificadas y los algoritmos de WEKA que serán empleados. Tabla 1 Técnicas de modelación Objetivo Obtener cuáles son los parámetros meteorológicos primarios que más influyen en los parámetros meteorológicos secundarios Estimar el valor de los parámetros meteorológicos secundarios a partir de los primarios Tarea Selección de atributos Estimación atributos, las que presentaban una baja frecuencia de aparición y lejanía de la media numérica del grupo. Además, se normalizaron los atributos para evitar que los valores más alejados de la media numérica, pudiesen introducir errores en los modelos de estimación. Tabla 2 Variables empleadas en el análisis Nombre del atributo Tipo Día Numérico Mes Numérico Año Numérico Hora Numérico Dirección del Viento Nominal Velocidad del Viento Numérico Temperatura Numérico Humedad Numérico Presión barométrica Numérico Radiación solar Numérico Precipitación Numérico Altura de la capa de mezcla convectiva Numérico Altura de la capa de mezcla mecánica Numérico Velocidad convectiva de escala Numérico Algoritmo CfsSubsetEval y BestFirst (métodos de evaluación y búsqueda respectivamente) MultilayerPerceptron ANÁLISIS DE LA INFORMACIÓN DISPONIBLE Los datos son recopilados mediante la estación meteorológica automática, y almacenados en formato digital por la consola Vantage Pro2 en ficheros con extensión ".wlk" que no pueden leerse directamente. Se utilizó el software WeatherLink, para exportar la información a ficheros planos en filas y columnas, con extensión ".txt". Estos ficheros se importan a un "libro" de Microsoft Excel donde se les da un posterior tratamiento. De un total de 44 323 registros disponibles, comprendidos entre las fechas desde el 15 de abril de 2008 y 15 de abril de 2009, y 41 variables meteorológicas, y como resultado del proceso de selección, transformación y construcción de datos mediante AERMET+, así como limpieza, se obtiene un conjunto minable compuesto por 14 campos y un total de 8 784 instancias, que se resume en la tabla 2. En la referencia 5 se detalla la metodología empleada para el trabajo con AERMET+. Los registros que tienen al menos un valor desconocido en sus atributos, han sido eliminados del conjunto, mediante la aplicación de un filtro de instancias. Debido a que los atributos pueden moverse en un rango tan amplio de valores, se eliminaron las instancias con valores extremos en sus DESCRIPCIÓN DE LOS MODELOS OBTENIDOS Para entrenar y probar los modelos de selección de atributos y de estimación, se emplean conjuntos distintos a fin de no sobrestimar su precisión. En este sentido se utiliza una validación cruzada (en inglés cross-validation) de 10 pliegues, la cual divide el conjunto de datos en 10 subconjuntos de forma aleatoria, y realiza 10 iteraciones, donde en cada una se reserva un grupo diferente para el conjunto de prueba y los restantes 9 para entrenar el modelo. [8] Selección de atributos Para la selección de atributos se realizaron 6 experimentos, 3 de ellos con los atributos normalizados y 3 sin normalizar, con los que se determinaron las variables fundamentales que influyen en los parámetros meteorológicos secundarios y su porcentaje de incidencia. Posteriormente se seleccionaron aquellos atributos que contribuyen con la estimación entre 70 y 100 %, por considerarse un valor significativo. Revista Cubana de Ingeniería 63 Estimación de parámetros meteorológicos secundarios utilizando técnicas de minería de datos En la altura de la capa de mezcla convectiva influyen en un 100 %, la hora del día, la velocidad del viento y la humedad. También en la altura de la capa de mezcla mecánica, influyen en un 100 % el mes, la velocidad del viento y la radiación solar. En la velocidad convectiva de escala influyen en un 100 %, la temperatura, la humedad y la radiación. En todos los caso los resultados obtenidos coinciden con la opinión de los expertos. En la referencia 5 se muestran los resultados de los modelos de selección de atributos para todas las variables. Estimación numérica En el caso de la estimación numérica con las redes neuronales, se realizaron 12 experimentos, 4 por cada variable secundaria a estimar, con los atributos normalizados y sin normalizar, y teniendo o no teniendo en cuenta, la selección de atributos del proceso anterior, con fines de comparar resultados y seleccionar los modelos con los que se obtengan los mejores resultados. La tabla 3 refleja los valores del coeficiente de correlación y del error medio absoluto para la altura de la capa de mezcla convectiva en cada uno de los experimentos. En la referencia 5 se muestran los resultados para el resto de las variables meteorológicas secundarias. Tabla 3 Estimación de la altura de la capa de mezcla convectiva Parámetros Con todos los parámetros primarios Correlación: Sin normalizar 0,882 7 Error: 145,631 1 Normalizados Correlación: 0,882 7 Error: 0,067 5 Tomando en cuenta la selección de atributos Correlación: 0,848 7 Error: 174,446 Correlación: 0,848 7 Error: 0,080 8 Los modelos obtenidos teniendo en cuenta la normalización reportaron resultados útiles para ser aplicados por los expertos en la estimación de las variables meteorológicas secundarias. Ambos modelos presentan un alto valor de correlación entre sus variables y un bajo error en la estimación. En dependencia de la exactitud con la que se desee trabajar, las variables meteorológicas primarias que se posean, el tiempo para el análisis con que se cuente, se puede utilizar el modelo con todos los parámetros meteorológicos primarios o, por el contrario, el modelo más simple que toma en cuenta la selección de atributos. Los expertos de CUBAENERGÍA proponen para la evaluación de los modelos de estimación el análisis de la desviación fraccional, dada por la ecuación (1), donde se consideran aceptables los valores obtenidos si están dentro del rango [-0,67, +0,67], donde V1 es el valor predicho y V2 es el valor real. 64 Revista Cubana de Ingeniería V1 V 2 2 v1 + v2 ...(1) En la tabla 4 se muestra el porcentaje de instancias que está fuera de rango para el caso del modelo de estimación con los datos normalizados, considerando la selección de atributos de la altura de la capa de mezcla convectiva; este valor es relativamente bajo, lo que indica que la mayoría de las instancias presentan valores dentro del rango permitido, pudiendo emplearse el modelo en la estimación de este parámetro meteorológico. En la referencia 5 se muestran los resultados para el resto de las variables meteorológicas secundarias. Tabla 4 Desviación fraccional de la altura de la capa de mezcla convectiva Parámetro Altura de la capa de mezcla convectiva Porcentaje de instancias fuera de rango 3,57% de las 349 2 instancias CONCLUSIONES Mediante la aplicación de la selección de atributos, se obtuvieron las variables meteorológicas primarias que más influyen en las variables meteorológicas secundarias: altura de la capa de mezcla convectiva, altura de la capa de mezcla mecánica y velocidad convectiva de escala. A partir de la selección de atributos se obtuvieron además modelos de regresión basados en redes neuronales del tipo perceptrón multicapas que permiten estimar los valores de los parámetros meteorológicos secundarios, los que presentan un coeficiente de correlación alto, un error cuadrático medio pequeño y con bajo porcentaje de instancias fuera de rango, siendo aceptados y válidos para la estimación. RECONOCIMIENTOS Los autores desean agradecer a los integrantes del Grupo de Medio Ambiente de la Cujae y a la máster Leonor Turtós Carbonell de CUBAENERGÍA por su colaboración, principalmente en temas relacionados con la meteorología. REFERENCIAS 1.Vantage Pro2 Console Manual. California: Davis Instruments Corp, 2006. 2. WeatherLink 5.7 Help. Davis Instruments Corp. California: 2006. 3. TURTÓS CARBONELL, L. Proyecto Programa Ramal Nuclear. Sistema de Modelos AERMOD para dispersión local de contaminantes atmosféricos. Salida 1/2007: Ampliación de la propuesta de Guía de modelación de la Rosabel Zerquera Díaz - Ayleen Morales Montejo - Gil Cruz Lemus - Alejandro Rosete Suárez dispersión local de contaminantes gaseosos y partículas con el Sistema de modelos AERMOD. Ciudad de La Habana, Cuba: 2007. 4. PIATETSKI-SHAPIRO, G. and FRAWLEY, W. J. Knowledge Discovery in Databases. AAAI/MIT Press. 1991. 5. ZERQUERA, R. Predicción de Parámetros Meteorológicos Secundarios: Altura de la capa de mezcla convectiva, altura de la capa de mezcla mecánica y velocidad convectiva de escala, en la zona de la Cujae, utilizando técnicas de Minería de Datos. Tesis de diploma, Instituto Superior Politécnico José A. Echeverría, Ciudad de La Habana, La Habana Cuba. 2009. 6. CHAPMAN, P. et al. CRISP-DM 1.0:Step-by-step data mining guide. USA: 2000. CRISP-DM Consortium. SPSS Inc. 7. GARCÍA MORATE, D. Manual de WEKA. 2005. 8. MOLINA LÓPEZ, J. M. y GARCÍA HERRERO, J. Técnicas de análisis de datos. Aplicaciones Prácticas utilizando Microsoft Excel y WEKA. Universidad Carlos III, Madrid. AUTORES Rosabel Zerquera Díaz Ingeniera Informática, Adiestrada, Vicerrectoría de Investigaciones y Posgrado, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Ayleen Morales Montejo Ingeniera Informática, Adiestrada, Dirección de Recursos Humanos, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana,Cuba Gil Cruz Lemus Ingeniero Químico, Doctor en Ciencias Técnicas, Profesor Auxiliar, Vicerrectoría de Investigaciones y Posgrado, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Alejandro Rosete Suárez Ingeniero Informático, Doctor en Ciencias Técnicas, Profesor Titular, Facultad de Ingeniería Informática, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Estimation of Secondary Meteorological Parameters Using Mining Data Techniques Abstract This work develops a process of Knowledge Discovery in Databases (KDD) at the Higher Polytechnic Institute José Antonio Echeverría for the group of Environmental Research in collaboration with the Center of Information Management and Energy Development (CUBAENERGÍA) in order to obtain a data model to estimate the behavior of secondary weather parameters from surface data. It describes some aspects of Data Mining and its application in the meteorological environment, also selects and describes the CRISP-DM methodology and data analysis tool WEKA. Tasks used: attribute selection and regression, technique: neural network of multilayer perceptron type and algorithms: CfsSubsetEval, BestFirst and MultilayerPerceptron. Estimation models are obtained for secondary meteorological parameters: height of convective mixed layer, height of mechanical mixed layer and convective velocity scale, necessary for the study of patterns of dispersion of pollutants in Cujae's area. The results set a precedent for future research and for the continuity of this in its first stage. Key words: meteorology, estimation, secondary meteorological parameters, data mining, neural networks Revista Cubana de Ingeniería 65 6 4 CUJAE ANIVERSARIO INSTITUTO SUPERIOR POLITÉCNICO JOSÉ ANTONIO ECHEVERRÍA Revista Cubana de Ingeniería, 1(3), 67-72, 2010 INGENIERÍA MECÁNICA Modelo integral de la estructura móvil de una máquina limpia-playa María Eugenia García Domínguez Correo electrónico:[email protected] Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Resumen Se propone el modelo de la estructura móvil de una máquina limpia-playa, con un análisis integral de la estructura y sus componentes fundamentales como la barra de tiro, bastidor y el soporte del puente. Utilizando este modelo racional de la estructura de la máquina limpia-playa, se realiza un análisis de las tensiones y desplazamientos que ocurren en los dos estados más críticos de operación de la máquina: cribado y descarga. Para el análisis de las tensiones y los desplazamientos en la máquina limpiadora de playa fue elaborado el modelo físico-matemático de la estructura por el método de los elementos finitos y siguiendo las reglas establecidas. Con el estudio realizado y considerando las características que ofrecen las playas cubanas, se pretende que la máquina analizada en este trabajo cumpla con los requerimientos técnicos, económicos y ecológicos para su óptima puesta en marcha. Palabras clave: limpia-playa, estructura, tensiones, desplazamientos, gráficos Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN El desarrollo de máquinas para la limpieza de las playas es una necesidad inmediata en el incremento de la industria turística cubana, que no cuenta en la actualidad con una limpieza exhaustiva de la arena, pues se realiza de forma manual. Actualmente hay en explotación cientos de kilómetros de playas dedicadas al turismo que requieren la limpieza de los desperdicios dejados sobre la arena por los veraneantes y de las algas depositadas por las olas. Una excelente calidad de playas exige un perfecto cuidado; y para lograrlo es necesario aplicar una avanzada técnica de limpieza. La limpieza de las playas de forma manual, solo es posible realizarla para los desperdicios depositados sobre la superficie, mientra que los residuos ocultos bajo la arena se eliminan con máquinas apropiadas para esta tarea y con garantía de cumplir con las reglas técnicas, ecológicas y económicas exigidas para estos equipos especiales. El desarrollo de una máquina que cumpla con los requisitos exigidos para garantizar la limpieza de las playas requiere varias etapas de trabajo, entre estas se encuentran la de diseño, fabricación del prototipo, donde se comienza la construcción de los elementos de máquinas y de estructuras que las conforman y se ensambla finalmente, pero paralelamente se realizan los cálculos de comprobación de la estructura y para ello puede ser útil la realización de un modelo por elementos finitos para poder perfeccionar el modelo teórico y disponer de un modelo validado para hacer los ajustes necesarios en las futuras producciones de la máquina. DESCRIPCIÓN DE LA MÁQUINA LIMPIA-PLAYA La máquina limpia-playa es un equipo que por sí solo no tiene movilidad y debe ser arrastrado por un tractor. La figura 1 muestra un plano general de dicha máquina, que permite observar su accionar como un remolque. La función Modelo integral de la estructura móvil de una máquina limpia-playa de la máquina es limpiar de residuos la arena de la playa (latas, botellas, cajas, papeles, etc), depositados por los veraneantes. del mecanismo de alimentación, colocado delante de la cuchilla permite que llegue a la misma la cantidad de arena necesaria para su posterior limpieza. La máquina realiza tres operaciones que son: cribado, rastrillado y mixta. Cribado La figura 2 muestra el sistema del cernidor trabajando en la operación de cribado. En esta operación la cuchilla está trabajando como promedio 16 cm centímetros por debajo del nivel de la arena y en esa posición la resistencia producida por el colchón de arena crea las máximas cargas en la cuchilla y sobre el dispositivo de descompactación. La velocidad de trabajo es cercana a 5 km/h. Fig. 1. Esquema de la máquina limpia-playa. Algunas de las características principales de la máquina limpia-playa objeto de estudio, son las siguientes: • Fuerza motriz máxima: 14 000 N. • Penetración máxima de la cuchilla: 160 mm. • Dimensiones de la máquina: Longitud: 5 450 mm. Ancho: 2 600 mm. Altura: 2 030 mm. • Peso aproximado del equipo: 1,8 t. • Capacidad: 1 360 m3/h. • Cernidor de banda transportadora con malla de acero articulada y tejido triangular: Longitud del cernidor: 2 600 mm. Ancho del cernidor: 1700 mm. Peso unitario aproximado: 12 kg/m. Peso total de la banda articulada: ll5 + 5 kg. Peso de arena seca sobre la malla: 1 100 - 1 500 kg. Para realizar su trabajo, la máquina limpia-playa dispone de una cuchilla frontal cuya función es levantar la arena a medida que el equipo avanza paralelo a la orilla de la playa y colocarla sobre la malla sin fin de un cernidor vibratorio. La arena limpia se deposita de nuevo en el mismo lugar de donde fue extraída y los residuos que no pueden atravesar la malla del cernidor son conducidos hasta el otro extremo y depositados en un contenedor provisional que cuando llega a su capacidad máxima de almacenaje (1,4 m3), mediante un mecanismo hidráulico, se descarga sobre un camión u otro vehículo apropiado para transportarla hacia el depósito permanente de desechos. El rodillo motriz del cernidor es accionado por una toma de fuerza del tractor y pone en movimiento la malla sin fín. A través de los dos ejes excéntricos se le suministra a la malla un movimiento vibratorio para facilitar la labor del cernidor y separación de los residuos sólidos. El sistema de paletas 68 Revista Cubana de Ingeniería Fig. 2. Operación de cribado. Rastrillado La figura 3 muestra el sistema de limpieza en la operación de rastrillado. En esta operación la cuchilla no penetra. Se utiliza para limpiar arena húmeda o seca a gran velocidad de marcha y con gran rendimiento por unidad de superficie. Además de limpiar la arena se utiliza para eliminar las algas presentes en la arena. Puede trabajar a la velocidad de 10 km/h en arena seca y en arena húmeda a 8,5 km/h. Fig. 3. Operación de rastrillado. María Eugenia García Domínguez Mixta En la figura 4 se observa el sistema de limpieza en una operación de trabajo mixta. Esta operación es una combinación de las dos anteriores, aunque la penetración de la cuchilla de recogida no alcanza el valor máximo de penetración establecida en la operación de cribado, sino una penetración que el operario determinará en dependencia de la contaminación de la arena a limpiar. Permite también la limpieza de la arena seca y húmeda. La velocidad de trabajo oscila entre 7 y 5,5 km/h. SISTEMA DE FUERZAS El sistema de fuerzas utilizado en el cálculo se dividen en: cargas principales y cargas adicionales. [2] Cargas principales En este tipo de carga se considera que solo son efectivas las fuerzas principales. Como cargas principales se toman en consideración las fuerzas permanentes, las fuerzas móviles y las fuerzas por efectos térmicos. En el estudio fueron consideradas como fuerzas permanentes el peso de la estructura, el peso de los rodillos, el peso de la malla y la fuerza de tensión de la malla. Como fuerzas móviles se tomaron en consideración el peso de la arena, las fuerzas en las cuchillas, las fuerzas del hidráulico de alimentación, las fuerza del hidráulico de elevación y la fuerza tractiva en la máquina. Para el cálculo de las cargas permanentes se tomó en consideración un coeficiente de choque para valorar la dependencia de las cargas permanentes con la velocidad de desplazamiento del vehículo. [3] El coeficiente de choque fue evaluado según las recomendaciones presentes en la tabla 1. Para el análisis de la estructura de la máquinas fue considerado un valor para el coeficiente de choque = 1,2. Así mismo, en el cálculo de las cargas móviles se estimó un coeficiente de compensación que tiene en cuenta la repetición de las cargas. El coeficiente de compensación fue evaluado según las recomendaciones presentes en la tabla 2. Fig. 4. Operación mixta. MODELO GEOMÉTRICO DE LA ESTRUCTURA DE LA MÁQUINA Para realizar el análisis de las tensiones y desplazamientos que sufre la máquina limpiadora de playa se elaboró un modelo físico-matemático de la estructura, siguiendo las reglas establecidas por el método de los elementos finitos. [1] El modelo geométrico básico de la estructura de la máquina puede observarse en la figura 5. Tabla 1 Coeficiente de choque Velocidades de desplazamiento Estructuras en reposo 1,0 Hasta 60 m/min 1,1 Mayores de 60 m/min 1,2 Tabla 2 Coeficiente de compensación Tipo de estructura Fig. 5. Estructura de la máquina. Muy ligeras 1,9 Ligeras 1,6 Pesadas 1,4 Muy pesadas 1,2 Revista Cubana de Ingeniería 69 Modelo integral de la estructura móvil de una máquina limpia-playa Para el análisis de la estructura de la máquinas fue considerado un valor para el coeficiente de compensación de = 1,8. Cargas adicionales En este grupo de cargas se considera generalmente la presión del viento y las fuerzas de frenado aplicadas durante el desplazamiento de la máquina, y también las fuerzas laterales y horizontales. En esta estructura no son consideradas las fuerzas debidas al viento por ser muy pequeñas y se despreciaron las fuerzas laterales, porque la velocidad de desplazamiento del vehículo es muy pequeña. ESTADOS DE CARGA Los estados de carga fundamentales y críticos en el funcionamiento de la máquina son observados en las operaciones que a continuación se relacionan. Operación de cribado En esta operación, tal y como fue explicado anteriormente, la cuchilla se introduce 16 cm por debajo del nivel de la arena y en esa posición de la cuchilla la resistencia producida por el colchón de arena crea las máximas cargas sobre esta y el dispositivo de descompactación. Estas cargas generadas en la cuchilla y en el dispositiv o de descompactación son transmitidas a la estructura. Para establecer el sistema de carga empleado en el análisis de la resistencia de la estructura de la máquina, fue considerada la cubeta de los residuos totalmente llena (máxima capacidad). Operación de descarga En este régimen de operación se produce la elevación de la cubeta de residuos llena y su posterior volteo para efectuar la descarga sobre el vehículo recolector. En esta operación se producen las mayores cargas en algunos de los elementos de la estructura que no son necesariamente los más cargados en la operación de cribado. Durante la operación de descarga la máquina limpia-playa no está realizando ninguna operación de limpieza solamente está en función de vaciar la cubeta de recolección. CÁLCULO DE LA TENSIÓN EN LA BANDA TRANSPORTADORA La tensión en la banda transportadora se calcula por la siguiente expresión: [4, 5] Tmáx P K s (1) donde: Tmáx: Fuerza de tensión máxima de la banda estática con régimen establecido. P : Fuerza de tracción. Ks : Coeficiente de tensión máxima. 70 Revista Cubana de Ingeniería La fuerza de tracción P se calcula por la siguiente expresión: P 1 k t Gm qc Lh w qc H A (2) donde: Kt : Coeficiente que tiene en cuenta el tipo de transmisión y las particularidades de la traza del transportador. W : Coeficiente de resistencia en dependencia del tipo de rodillo de apoyo. : Suma de los ángulos de flexión de la banda en grados por toda su traza. H : Altura de izaje de la carga. A : Coeficiente que considera las condiciones de explotación del transportador. Su valor oscila entre 2 000 para las condiciones más desventajosas (atmósfera polvorienta, dificultades de mantenimiento, transportadores bajo tierra) y 3 000 para las mejores condiciones (atmósfera seca y limpia, fácil acceso a los conjuntos del transportador para el mantenimiento). G m: Peso total (sumario) de las partes móviles del transportador, se calcula por la siguiente expresión: Gm 2 qc Lh Gg (3) donde: qc : Peso lineal de la carga para un metro lineal de banda. Lh : Longitud de la proyección horizontal de la trayectoria del desplazamiento de la carga. Gg : Peso de las partes giratorias del transportador. El coeficiente de tensión máxima Ks, se determina con la siguiente fórmula: Ks e f e 1 f (4) donde: f : Coeficiente de fricción entre banda y tambor del transportador. : Ángulo de contacto del tambor con la banda. DETERMINACIÓN DE LAS TENSIONES Y DEFORMACIONES Teniendo en cuenta la distribución de cargas que actúan sobre la máquina limpia-playa y basado en los criterios anteriormente expuestos se realizaron los cálculos de las tensiones y deformaciones [6, 7] en la estructura, dividiéndola en los subcasos más críticos correspondientes a las operaciones de cribado y descarga. En las figuras 6 y 7, se puede observar la estructura deformada y sin deformar en la operación de cribado, además del comportamiento de las tensiones en los diferentes elementos componentes de la María Eugenia García Domínguez estructura. De la misma forma, en las figuras 8 y 9, correspondientes al análisis de la estructura en la operación de descarga, se observa la estructura deformada y sin deformar, además de la distribución de tensiones en los elementos. De los gráficos de distribución de tensiones en los elementos para cada operación de trabajo analizada se pueden determinar con certeza los elementos que superan las tensiones admisibles por resistencia y por lo tanto conocer aquellos elementos estructurales que requieren reforzar su sección transversal. Derivado de los resultados del análisis de las tensiones y deformaciones en la estructura, y considerando el efecto de las uniones soldadas en la resistencia del conjunto, [8 - 10], se observa que en la operación de cribado el cuerpo de la estructura se desplaza en general en sentido vertical y de forma uniforme. Este resultado es totalmente compatible con el hecho de que las cargas principales (fuerza tractiva, fuerza del mecanismo descompactador, fuerza de la cuchilla, etc.) actúan sobre la parte delantera de la máquina, mientras las fuerzas del mecanismo de elevación y volteo actúan sobre la parte trasera, exceptuando la barra de tiro. Durante el análisis de las tensiones y deformaciones en la operación de descarga se puede observar que las mayores deformaciones y tensiones ocurren en la parte trasera de la estructura. Este resultado, corrobora una lógica intuición inicial del hecho, debido a que las cargas generadas en la operación de descarga son producidas por el peso propio de la estructura, las fuerzas de tensión en la malla, las fuerzas del peso de los rodillos, las fuerza del peso de la malla y las fuerzas originadas por el mecanismo de elevación y volteo, mayormente localizadas en la parte trasera de la estructura. En las tablas 3 y 4 se observan los valores de tensión máxima en los elementos más peligrosos por fractura correspondientes al análisis realizado en las operaciones de cribado y descarga. También en estas tablas se observa que el efecto de las tensiones en los elementos superan hasta en un 198% las tensiones admisibles de los elementos de la estructura, por lo que es necesario reforzar las secciones transversales de los componentes. Fig. 6. Estructura deformada (líneas continuas) y sin deformar (líneas discontinuas).Operación de cribado. Fig. 7. Tensiones en los elementos en operación de cribado. Fig. 8. Estructura deformada (líneas continuas) y sin deformar (líneas discontinuas). Operación de descarga. Fig. 9. Tensiones en los elementos en operación de descarga. Revista Cubana de Ingeniería 71 Modelo integral de la estructura móvil de una máquina limpia-playa Ta bla 3 Te nsio nes má xim as en lo s e le m e ntos má s p e lig ro sos en la o pe ra ción de crib ad o E le m e nto Te nsió n (M P a) Hub e r & M ise s tensión 100% tensión admisible 14 394 164 13 394 164 3 3 72 155 4 3 72 155 42 2 73 114 Ta b la 4 Te ns io ne s m á xim a s e n lo s e le m e nto s m á s p e lig ro s o s e n la o p e ra c ió n d e d e s c a rg a E le m e nto Te ns ió n, M P a H ub e r & M is e s tensión 100% tensión admisible 42 276 198 66 263 188 25 256 183 49 256 183 26 206 147 CONCLUSIONES • Se utilizó para el análisis de la resistencia y la deformación de una máquina limpia-playa un modelo integral de la estructura que toma en cuenta, no solamente el bastidor de la máquina sino todos los elementos estructurales, tales como la barra de tiro, la estructura de los soportes de los ejes del puente y la estructura de los mecanismos de elevación y volteo. Este modelo muestra ventajas considerables comparadas con los modelos tradicionales en la ingeniería de automóviles que solamente utilizan el bastidor de la máquina. • Utilizando el mencionado modelo racional de la estructura de la máquina limpia-playa, se puede realizar un análisis de las tensiones y desplazamientos que ocurren cuando actúan cargas de trabajo en los dos estados más críticos: cubeta a máxima capacidad de carga y cubeta a máxima altura. • La obtención de los valores de tensiones que superan los valores admisibles permiten determinar cuáles son los elementos más factibles a sufrir roturas para los que se propone el reforzamiento de las secciones transversales. REFERENCIAS 1. ÁLVAREZ VASALLO, J. A. y GARCÍA DE LA FIGAL, J. "Proyecto de metodología para el cálculo de estructuras de vehículos", 1997. 2. Advance of Automotive Engineering, Integral Structures, Christmas Term, 2006 3 BENITEZ, F. "Construcción y cálculo del automóvil", t. II, Ministerio de la Educación Superior, La Habana, 1990. 4. COURBÓN, J. y AGUILAR E "Tratado de resistencia de los materiales", t. 1. 2da ed., 2005, España. 5. ERZ, K. "Torsion in Road Vehicles Caused by Road Surface Irregularities", A.T.Z., no. 4, April, 2006. 6. FEODOSIEV, V. I. "Resistencia de materiales", Editorial Mir, 3ra. ed., 1985. 7. MIROLIUBOV, T. "Problemas de Resistencia de los Materiales", Editorial Mir, 6ta. ed., 1990, Moscú. 8. SCHIMPKE, P. and HORN, H. L. "Tratado general de soldadura", t. III, 3ra. ed., Editorial Gustavo Gili, S. S. 2007, España. 9. SCHIMPKE, P. and HORN, H. L. "Proyecto y cálculo de las construcciones soldadas", 3ra. ed., Editorial Gustavo Gili S. S. 2007, España. 10. SHUVIN, V.S. y PEDRÉ, C. "Diseño de Maquinaria Industrial", t. 3, 4ta. reimpresión, Editorial Pueblo y Educación, Ciudad de La Habana, Cuba, 2006. AUTORA Maria Eugenia García Domínguez Ingeniera Mecánica, Máster en Diseño Mecánico, Profesora Auxiliar, Departamento de Mecánica Aplicada, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Integral Model of Sand-Cleaning Machine Structure Abstract A proposes of model of sand-cleaning machine structure for the analysis of loaded structure is presented in this paper. The analysis of the structure is developed in the principal components such as the pull bar, chassis and supports. Using this rational model of the structure of the sand-cleaning machine, it can be carried out an analysis of the tensions and displacements in the two more critical situations of operation: Sieved and discharge. By finite elements method was developed a physical-mathematical model for the sand-cleaning machine and were analyzed the tensions and displacements in the structure. According to the characteristics of the Cuban beaches and results derivate of this study, the machine analyzed and exposed in this paper fulfills all the technical, economic and ecological requirements for good operation. impact. Key words: sand-cleaning machine, structure, tension, displacement 72 Revista Cubana de Ingeniería Revista Cubana de Ingeniería, 1(3), 73-82, 2010 INGENIERÍA MECÁNICA Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fricción Gonzalo González Rey Correo electrónico:[email protected] Alejandra García Toll Correo electrónico:[email protected] María Eugenia García Domínguez Correo electrónico:megarcia@mecánica.cujae.edu.cu Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Recibido: enero 2010 Aprobado: marzo 2010 Resumen Los engranes de ruedas cilíndricas y ejes paralelos con contacto exterior constituyen transmisiones mecánicas muy eficientes, pero los requerimientos de máxima eficiencia en las actuales máquinas y equipos hacen necesaria una precisión en los procedimientos de cálculo de pérdidas de potencia. En este sentido, el Reporte Técnico ISO/TR 14179-1:2001 ofrece fórmulas con bases empíricas y teóricas para evaluar la eficiencia de engranajes considerando pérdidas por rozamiento en el contacto diente-diente, por batimiento del aceite y por rozamiento en cojinetes y sellos. En este artículo, se presentan algunos de los resultados derivados de un estudio de ISO/TR 14179-1:2001 y del coeficiente de fricción en engranajes. El estudio fue realizado sobre la base de modelos matemáticos que permitieron interrelacionar la geometría del engranaje y los parámetros de explotación con la eficiencia del engranaje. Los resultados aportan soluciones al problema de aumentar la eficiencia de los engranajes mediante una relación conveniente entre la carga y la velocidad, y una geometría racional del dentado de las ruedas. Finalmente, mediante un análisis de regresión múltiple se establece una nueva formulación de la eficiencia del engranaje en función de la densidad de carga en el engranaje, el módulo, la velocidad de trabajo, la razón de transmisión y la cantidad de dientes en el piñón. Palabras clave: engranaje cilíndrico, eficiencia, coeficiente de fricción, ISO/TR 14179-1 INTRODUCCIÓN En la actualidad, nuevas regulaciones gubernamentales promueven la reducción del gasto energético con el empleo de equipos más eficientes. Este hecho, ha renovado el creciente interés y demanda de máquinas con mayores eficiencias para enfrentar una reducción de los costos de explotación y mantenimiento, sobre la base de disminuir las pérdidas de potencia con tecnologías más eficientes. Dentro de las variadas formas de transferir la energía en los equipamientos actuales son destacables las transmisiones mecánicas, con una amplia divulgación en la técnica contemporánea. Múltiples pueden ser las formas de trasmitir la energía mecánica, pero indiscutiblemente que las de mayor generalización y actualidad son los accionamientos con engranajes, debido a la combinación de soluciones disponibles para trasmitir el movimiento con eficiencia y diversidad geométrica. Por consiguiente, una formulación correcta y precisa de la determinación de las pérdidas por rozamiento entre los dientes de las ruedas permitiría realizar diseños de engranajes más eficientes y recomendar procedimientos de explotación más efectivos. Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción Desde los últimos años de la década del 90, se trabaja en la elaboración de nuevas y mejores normativas dirigidas a mejorar la efectividad en explotación de los engranajes por varias de las asociaciones responsabilizadas con la edición de normas ISO de engranajes. En particular, se distingue la aprobación de los reportes técnicos: ISO/TR 14179-1:2001 [1] e ISO/TR 14179-2:2001 [2]. Los mencionados reportes técnicos ISO incluyen fórmulas para evaluar las pérdidas de potencia del sistema de engranajes, considerando las pérdidas por rozamiento y rodadura en el contacto diente-diente, entre otros. En particular, se pretende presentar en este trabajo un resumen de algunos de los principales resultados derivados de la comparación de los procedimientos de cálculo de las pérdidas de potencia en el engranaje de ruedas dentadas cilíndricas con dientes de evolvente con contacto exterior y ejes paralelos. Los comentarios emitidos pueden ser útiles en la determinación de los parámetros de uso y diseño adecuados para obtener engranajes cilíndricos más eficientes durante su explotación. Además, el estudio permite demostrar que, a pesar de los avanzados resultados aceptados para evaluar la eficiencia de los engranajes, aún existen discrepancias importantes entre los diferentes procedimientos para la determinación del coeficiente de fricción en el contacto entre dientes durante el engranaje. PÉRDIDAS DE POTENCIA POR FRICCIÓN EN ENGRANAJES CILÍNDRICOS SEGÚN ISO Las ecuaciones declaradas en el Reporte Técnico ISO/TR 14179-1 para evaluar las pérdidas por fricción en engranajes cilíndricos están basadas en el estudio y experimentación de 251 reductores de velocidad con engranajes de ruedas cementadas y rectificadas, [3] que permitieron establecer una fórmula empírica para el coeficiente de fricción en dependencia de la velocidad circunferencial de las ruedas, la intensidad de la carga en el contacto y la viscosidad cinemática del aceite. El cálculo de las pérdidas de potencia considera el engranaje entre los dientes con una película de lubricante entre los flancos activos mediante las ecuaciones (1) - (6): Proz fm K M 74 fm T1 n1 cos 2 [kW] 9 549 M 0,223 K 0,4 3,239 v 0,7 1 000 T1 z1 z2 2 bw ( d1 / 2 )2 z2 2 cos t Hs Ht Hs 2 Ht 2 Revista Cubana de Ingeniería (1) (2) (3) (4) 0,5 da2 2 2 Hs u 1 2 cos t sen t d 2 Ht u 1 da12 u d12 cos t 2 0,5 sen t (5) (6) donde: Proz: Pérdidas por fricción en engranajes [kW]. fm : Coeficiente de fricción. K : Factor por intensidad de carga [MPa]. M : Factor por velocidades de deslizamiento. Hs : Razón de deslizamiento a inicio del engranaje. Ht : Razón de deslizamiento a final del engranaje. T1 : Momento torsor en el piñón [Nm]. n1 : Frecuencia de rotación del piñón [min-1]. : Ángulo de la hélice [º]. n : Viscosidad cinemática del lubricante [mm2/s]. v : Velocidad en circunferencia primitiva [m/s]. z1 y z2 : Número de dientes en el piñón y la rueda. bw : Ancho de engranaje [mm]. d1 : Diámetro primitivo en piñón [mm]. d2 : Diámetro primitivo en rueda [mm]. t : Ángulo transversal de engranaje l [º]. da1 : Diámetro de cresta del piñón [mm]. da2 : Diámetro de cresta en rueda [mm]. u : Razón de engranaje (z2/z1). m : módulo (mm). a : Distancia interaxial (mm). db1 : Diámetro básico del piñón [mm]. df2 : Diámetro básico en rueda [mm]. df1 : Diámetro de fondo del piñón [mm]. df2 : Diámetro de fondo en rueda [mm]. : Ángulo de presión en la cuchilla (°). ha* : Factor de altura de la cabeza de la cuchilla. c* : Factor constante de holgura radial. : Coeficiente de recubrimiento. Pot : Potencia a transmitir (kW). : Eficiencia del engranaje. La ecuación (2) es válida para velocidades en la circunferencia primitiva de las ruedas entre 2m/s y 25m/s y factores por intensidad de carga entre 1,4N/mm y 14,2N/mm, fuera de estos límites el coeficiente de fricción debe ser determinado experimentalmente. Con el objetivo de realizar una comparación de la validez de las formulaciones establecidas en los reportes técnicos: ISO/TR 14179-1 y 2: 2001 para el cálculo de las pérdidas de potencia en el engranaje de ruedas dentadas cilíndricas con dientes de evolvente con contacto exterior y ejes paralelos fue realizado por los autores un anterior estudio. [4] El referido estudio permitió corroborar que los resultados del cálculo de las pérdidas de potencia según ISO/TR 14179-1 son próximos Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez a los determinados prácticamente. Este hecho propició que el trabajo se orientara a presentar algunos de los resultados derivados del estudio de la eficiencia y del coeficiente de fricción entre dientes de engranajes cilíndricos basado en a las formulaciones del Reporte Técnico ISO/TR 14179-1:2001. PARÁMETROS DE DISEÑO Y EXPLOTACIÓN CON INFLUENCIA EN LA EFICIENCIA DE LOS ENGRANAJES SEGÚN ISO/TR 14179-1 Aceptando que la comparación de los resultados experimentales y teóricos permite afirmar que los valores de pérdidas de potencia según ISO/TR 14179-1 son próximos a los resultados reales, se considera conveniente realizar un análisis de la influencia en la eficiencia de la transmisión de algunos parámetros de la geometría de engranajes. Empleando las ecuaciones declaradas en ISO/TR 14179-1 para evaluar la eficiencia del engranaje y analizando una interrelación con la geometría del dentado de las ruedas, la carga y velocidad de trabajo fue elaborado un modelo matemático de 21 relaciones entre 32 variables con 11 grados de libertad. A continuación se presentan las relaciones constitutivas del modelo matemático desde la relación (R1) hasta (R21), cuyas variables han sido identificadas anteriormente. (R1) z 2 u z1 0 (R 2) m z1 d1 cos 0 (R 3) m z 2 d 2 cos 0 (R 4) m z1 z 2 2 a cos 0 (R 5) tan tant 0 cos 0,5 d 2 d 2 0,5 d 2 d 2 a1 b1 a2 b2 (R12) a sen m cos t 0 t cos (R13) 30 000 Pot T 1 n 1 0 (R14 ) n1 d1 60 000 V 0 2 d (R15 ) 1 000 T1 z1 z2 K 2 bw 1 z2 0 2 (R16 ) 0,223 K 0,4 fm 3,239 v 0,7 0 0,5 2 da2 2 2 (R17) u 1 cos t sen t Hs 0 2 d 2 2 0,5 2 d a1 u 1 2 2 (R18) Ht cos t sent Ht 0 2 u d 1 2 2 2 (R19) 2 cost Hs Ht M Hs Ht 0 (R 20) fm T1 n1 cos2 Proz 9 549 M (R 6) d1 cos t d b1 0 (R 7) d 2 cos t d b 2 0 (R 8) d1 2 m ha * c * df 1 0 (R 9) d 2 2 m ha * c * d f 2 0 (R10) 2 a df2 2 c * m da1 0 (R11) 2 a df1 2 c * m d a 2 0 (R 21) Pot Proz Pot 0 El anterior modelo matemático fue analizado con técnicas de grafos para una mejor comprensión de la interrelación entre las variables y las relaciones participantes en las soluciones de los problemas. La figura 1 muestra la representación del mencionado modelo matemático mediante un grafo. Tomando como referencia el primer modelo matemático fue planteado el problema de la determinación de la eficiencia de un engranaje cilíndrico con fundamento en la norma ISO/TR 14179-1, una consecuente geometría del engranaje en la etapa de diseño y una caracterización de la aplicación en explotación basada en la velocidad y carga de trabajo de engranaje. Este problema fue el punto de partida para elaborar un segundo modelo matemático que soluciona Revista Cubana de Ingeniería 75 Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción lo relacionado con el cálculo de la eficiencia del engranaje con participación de 18 relaciones pertinentes. Del análisis del modelo matemático del problema de la determinación de la eficiencia de un engranaje cilíndrico fue identificado que las relaciones (R6), (R7) y (R12) del primer modelo matemático no son necesarias en la solución de problema que se plantea. * (R 8 ) d f 1 d 1 2 m ha c * (mm) * (R 9) d f 2 d 2 2 m ha c * (mm) (R10 ) d a1 2 a df2 2 c * m (mm) (R 11) d a2 2 a d f1 2 c * m (mm) (R14 ) v n1 d1 (m/s) 60 000 1 000 T1 z1 z2 (R15) K 2 (N - mm2 ) d 2 bw 1 z2 2 ( R 16 ) fm Fig. 1. Grafo del modelo matemático de la interrelación de la eficiencia del engranaje con la geometría del dentado de las ruedas, la carga y la velocidad de trabajo. A continuación se declaran las relaciones participantes en el modelo matemático de la solución del problema. (R 1) u z2 z1 (R 2) d1 m z1 (mm) cos tan o (R 5) t tan 1 ( ) cos (R13) T1 0, 223 K 0 , 4 3,239 v 0,7 0 ,5 2 d a 2 2 2 (R17 ) H s u 1 cos t sen t 2 d 2 2 0,5 2 d a1 u 1 2 2 (R 18) Ht cos t sen t 2 u d 1 2 (R19) M 2 cos t H s H t 30 000 Pot (Nm) n1 (R 20) Proz (R 3) d 2 m z2 (mm) cos m z1 z2 (R 4) a (mm) 2 cos 76 Revista Cubana de Ingeniería (R 21) 2 H s Ht 2 fm T1 n1 cos 2 kw 9 549 M Pot Proz Pot Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez Con referencia al segundo modelo matemático fue establecido un procedimiento de cálculo de la eficiencia de un engranaje de ruedas cilíndricas, con dientes rectos sin corrección del perfil, considerando las pérdidas por fricción propias del rozamiento entre los flancos activos de los dientes conjugados. El procedimiento fue organizado en tablas Excel confeccionadas al efecto y permitió evaluar la eficiencia del engranaje con variaciones de parámetros de diseño y de explotación. En las figuras 2, 3, 4, 5 y 6 son mostrados algunos de los resultados obtenidos con una relación ancho de engranaje y distancia interaxial de bw/aw = 0,3; aceite con viscosidad cinemática de trabajo de n = 150 mm2/s y ruedas dentadas talladas con herramientas de generación con perfil de referencia según NC-ISO 53-2007. Fig. 4. Eficiencias estimadas según ISO/TR-14179-1. Engranajes con carga unitaria sobre dientes de 250 N/mm, razón de transmisión u = 1 y número de dientes en el piñón z1 = 16. Fig. 2. Eficiencias estimadas según ISO/TR-14179-1. Engranajes con razón de transmisión u = 1, carga unitaria sobre dientes de 250 N/mm y velocidad de rotación de entrada (piñón) de n1 = 1 000min-1. Fig. 5. Eficiencias estimadas según ISO/TR-14179-1. Engranajes con razón de transmisión u = 1, velocidad de rotación de entrada (piñón) n1 = 1 000min-1 y número de dientes en el piñón z1 = 16. Fig. 3. Eficiencias estimadas según ISO/TR-14179-1. Engranajes con carga unitaria sobre dientes de 250 N/mm, velocidad de entrada (piñón) n 1 = 1000min -1 y número de dientes en piñón z1 = 16. Los resultados de este trabajo permiten afirmar que las mayores eficiencias del engranaje cilíndrico con ruedas de dientes rectos, contacto exterior y ejes paralelos según ISO/TR 14179-1 se logran cuando la explotación se ejecuta a las mayores velocidades y cargas de la transmisión (figuras 4 y 5). Es conveniente para lograr las máximas ef iciencias de las transmisiones por engranajes, con una proporción fija de ancho/distancia entre ejes, ejecutar diseños con valores altos de relación de transmisión cinemática y ruedas dentadas con gran cantidad de dientes (figuras 2 y 3). Revista Cubana de Ingeniería 77 Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción Los anteriores resultados consideran una dependencia del módulo debido a que se ha preferido establecer una relación constante entre ancho de engranaje y distancia entre centros, lo que admite un análisis de engranajes con diferentes distancias entre ejes y por consiguiente con diferentes número de dientes y módulos. Los resultados confirman que la mayor eficiencia se logra en los engranajes con mayores números de dientes, tal y como se muestra en la figura 6. eficiencia de un engranaje cilíndrico de dientes rectos con flancos de evolventes y contacto exterior. + Fn m b n1 u z1 % (7) Tabla 1 Algunos valores de eficiencia de engranajes cilíndricos determinados según ISO/TR 14179-1 Fig. 6. Eficiencias para engranajes estimadas según ISO/TR14179-1 con distancia interaxial a = 96mm, módulos 1,2 (z = 80) y 6 mm (z = 16), razón de transmisión u = 1, velocidad de rotación de entrada (piñón) n1 = 1 000min-1 y número de dientes en el piñón z1 = 16. En el presente trabajo y con base en las ecuaciones declaradas en el Reporte Técnico ISO/TR 14179-1 para evaluar las pérdidas por fricción en engranajes cilíndricos, fue determinada la eficiencia de 40 casos ejemplos considerando las pérdidas por fricción debido al engrane de los dientes. En el análisis del comportamiento de la eficiencia del engranaje, fueron aceptadas como variables independientes el número de dientes (z1), la frecuencia de rotación del piñón (n1), la razón de engranaje (u), el módulo de las ruedas (m) y la carga unitaria sobre el flanco en los dientes (Fn/b). Los ejemplos analizados fueron establecidos con una relación ancho de engranaje y distancia interaxial de bw/aw = 0,3, aceite con viscosidad cinemática de trabajo de n = 150 mm2/s, ruedas dentadas talladas sin corrección (x 1 = x 2 = 0) y herramientas con ángulo entre flanco = 20° y factor de altura de cabeza ha* = 1. En la tabla 1 y las figuras 7 y 8 se muestran resultados del cálculo y su generalización. Mediante un análisis de regresión múltiple pudo ser establecida una interrelación directa entre la eficiencia del engranaje y las variables independientes. La ecuación (7) se presenta como una nueva formulación para determinar la 78 Revista Cubana de Ingeniería % z1 u n1 (min-1 ) Fn/b (N/mm) m 99,80 48 1 1 000 250 2 99,82 48 1 1 000 250 3 99,83 48 1 1 000 250 4 99,85 48 1 1 000 250 5 99,86 48 1 1 000 250 6 99,27 16 4 1 000 250 1 99,41 16 4 1 000 250 2 99,48 16 4 1 000 250 3 99,55 16 4 1 000 250 4 99,57 16 4 1 000 250 5 99,22 16 2 1 000 250 1 99,37 16 2 1 000 250 2 99,44 16 2 1 000 250 3 99,49 16 1 000 250 4 98,58 16 1 500 250 1 98,85 16 1 500 250 2 98,98 16 1 500 250 3 99,07 16 1 500 250 4 99,12 16 1 500 250 5 99,17 16 1 500 250 6 99,34 16 1 1 000 500 1 Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez fricción en un engranaje, pero la realidad es que en la actualidad existen aún imprecisiones en los resultados que se obtienen debido a las simplificaciones que se incluyen para aceptar un coeficiente de fricción promedio cuando en realidad el coeficiente de fricción en el engranaje es un valor instantáneo dependiente de las zonas del flanco de los dientes en donde se localiza el contacto. En la figura 9, se aprecian los valores superiores del coeficiente de fricción según ISO/TR 14179 al ser comparados con los resultados experimentales de Hori [5] en la evaluación del coeficiente de fricción instantáneo en el contacto sobre la línea de engranaje. Los resultados de Hori fueron obtenidos sin considerar distribución de cargas entre dientes y corresponden a un engranaje pequeño casi estacionario. 0,08 Coef iciente de f ricción Fig. 7. Comportamiento de la eficiencia de engranajes cilíndricos en función de la velocidad circunferencial de las ruedas (V) y la carga específica sobre el diente (Fn/b). ISO14179-2 0,06 ISO 14179-1 0,04 Valor promedio de experimento 0,02 Coeficiente defricción instantaneo 0 Fig. 9. Coeficiente de fricción a lo largo de la línea de engranaje según ensayos de Hori [5] y los resultados derivados de la aplicación de las formulas de ISO/TR 14179. Fig. 8. Comportamiento de la eficiencia de engranajes cilíndricos en función del módulo (m) y número de dientes de ruedas iguales a 1 000min-1 y carga específica de 250 N/mm. Estudiosos del tema, han obtenido empíricamente varias formulaciones para el coeficiente de fricción promedio en engranajes cilíndricos. Algunas de las relaciones más conocidas para evaluar el coeficiente de fricción se muestran a continuación. a) Coeficiente de fricción de Drozdov-Gavrikov [6]: COEFICIENTE DE FRICCIÓN EN ENGRANAJES CILÍNDRICOS DE EJES PARALELOS Y CONTACTO EXTERIOR CONVENIENTEMENTE LUBRICADOS Un análisis de las formulaciones para evaluar las pérdidas de potencia en los engranajes cilíndricos de ejes paralelos y contacto exterior según ISO/TR-14179-1 y 2 permite afirmar que las disparidades entre los resultados están responsabilizadas con las formulaciones empíricas adoptadas para el coeficiente de fricción. En este sentido, es justificable una comparación de las formulaciones más difundidas para evaluar el coeficiente de fricción en los engranajes. Varios modelos físico-matemáticos, resultados de ensayos múltiples, han sido propuestos para evaluar el coeficiente de fm 1 _ 0,8 k Vs Vr 13,4 1 u Vs 0,026 2 n1 g [m/s ] u (8) (9) _ g u 1 Vr 0,104 7 n1 d1 sen [m/s] 4 u (10) 0,47 0,13 10 4 Pmáx 0,4 10 3 (11) Revista Cubana de Ingeniería 79 Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción Pmáx 210 000 FT 10 [kg / cm2 ] 2 bw red (12) donde: ga : Longitud de línea de engranaje (mm). n_K : Viscosidad dinámica lubricante (mm2/s). Vs : Velocidad media deslizamiento (m/s). _ Vr : Velocidad media de rodadura (m/s). derivados de ISO/TR 14179-2 y Benedict-Kelly que prevén un incremento del coeficiente de fricción ante aumentos de la carga unitaria en los engranajes, en contraposición con ISO/TR 14179-1 que estima una disminución del coeficiente de fricción. b) Coeficiente de fricción de Benedict-Kelly [7]: 29,66 FT bw fm 0,012 7 log10 2 _ _ Vs Vr (13) Fig. 10. Valores de coeficientes de fricción para engranajes con razón de transmisión u = 1, carga unitaria sobre dientes de 250 N/mm, velocidad de rotación de entrada (piñón) de n1 = 1 000min-1 y cantidad de dientes en el piñón z1 = 16. c) Coeficiente de fricción de Misharin [8]: _ _ f m 0,325 Vs Vr k 0,25 (14) d) Coeficiente de fricción de ISO 14179-2:2001. FT f m 0,048 bw V red R Ra 2 a1 2 0 ,2 0,05 (15) 0,25 XL Los valores de coeficientes de fricción calculados según las fórmulas (2), (8), (13), (14) y (15) fueron determinados para engranajes con diferentes geometrías, cargas y velocidad. Algunos resultados son replicados en forma de gráficos desde la figura 10 hasta la figura 14. En general, se observa que los valores del coeficiente de fricción según Misharin [8] e ISO/TR 14179-2:2001 [2] son superiores y mantienen un comportamiento semejante. Los valores del coeficiente de fricción según ISO/TR 141791:2001 [ 1] son los menores y muy cercanos en comportamiento a los valores promedio de Benedict [7] y Drozdov [6]. Los resultados demuestran que los valores del coeficiente de fricción según ISO/TR 14179-1:2001 están más próximos a los promedios generalmente aceptados por la práctica de la ingeniería. Otra compilación de los resultados, algunos de ellos reflejados en la tabla 2, muestra que los menores coeficientes de fricción del engranaje cilíndrico de ruedas con dientes rectos, contacto exterior y ejes paralelos se logran con mayores velocidades de trabajo y mayor número de dientes en las ruedas. Adicionalmente, los resultados demuestran que existe contradicción entre los resultados 80 Revista Cubana de Ingeniería Fig. 11. Valores de coeficientes de fricción para engranajes con razón de transmisión u = 4, carga unitaria sobre dientes de 250 N/mm, velocidad de rotación de entrada (piñón) de n1 = 1 000min-1 y cantidad de dientes en el piñón z1 = 16. Fig. 12. Valores de coeficientes de fricción para engranajes con razón de transmisión u = 1, carga unitaria sobre dientes de 250 N/mm, velocidad de entrada (piñón) n1 = 1 000min-1 y número de dientes en piñón z1 = 48. Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez CONCLUSIONES • Empleando las ecuaciones declaradas en ISO/TR 14179-1 para Fig. 13. Valores de coeficientes de fricción para engranajes con razón de transmisión u = 1, con carga unitaria sobre dientes de 250 N/mm, número de dientes en el piñón z1 = 16 y velocidad de entrada (piñón) n1 = 500min-1. Fig. 14. Valores de coeficientes de fricción para engranajes con razón de transmisión u = 1, velocidad de rotación de entrada (piñón) n1 = 1 000min-1 , número de dientes en el piñón z1 = 16 y carga unitaria sobre dientes de 500 N/mm. evaluar la eficiencia del engranaje y analizando una interrelación con la geometría de las ruedas, la carga y velocidad de trabajo fue elaborado un modelo matemático de 21 relaciones, 32 variables y 11 grados de libertad. • Fundamentado en un modelo matemático general fue desarrollado un modelo matemático orientado a dar solución al problema de la determinación de la eficiencia de un engranaje cilíndrico con fundamento en la norma ISO/TR 14179-1 y tomando en consideración una consecuente geometría del engranaje en la etapa de diseño y una posterior explotación basada en la velocidad y carga de trabajo de engranaje. • Resultados del trabajo, compilados en las figuras 4, 5 y 7, muestran que las mayores eficiencias del engranaje cilíndrico de ruedas con dientes rectos, contacto exterior y ejes paralelos según ISO/TR 14179, se logran cuando la explotación se ejecuta a mayores velocidades y cargas. • Resultados del trabajo y compilados en las figuras 2, 3, 6 y 8 confirman que, para una distancia entre ejes de ruedas, la mayor eficiencia se logra en los engranes con mayores cantidades de dientes en las ruedas y mayores razones de transmisión. • Según las relaciones declaradas en ISO/TR 14179-1:2001 e ISO/TR 14179-2:2001 se obtienen los menores valores de coeficientes de fricción en los engranes cilíndricos con mayores velocidades de trabajo y mayores cantidades de dientes en las ruedas. Un resumen de algunos resultados se muestran en la tabla 2. • La evaluación de varias propuestas para calcular el coeficiente de fricción en los engranajes muestran que un aumento de la carga específica en los engranes provoca un incremento del valor del coeficiente de fricción según ISO/TR 14179-2:2001 y Benedict-Kelly, mientras que produce una disminución según ISO/TR 14179-1:2001. • El estudio demuestra que, a pesar de los actuales y avanzados resultados para evaluar la eficiencia de los engranes, aún existen discrepancias entre los diferentes procedimientos para la determinación de la eficiencia, atribuibles a la disparidad en las relaciones para evaluar el coeficiente de fricción entre los dientes en contacto. Tabla 2 C oeficientes de fricción para engranes con razón de transmisión u = 1, módulo m = 3, viscosidad cinemática del lubricante v = 150 mm 2 /s rugosidad superficial media R a 6,3 m y b w/a w 0,3 z1 n1 rpm Ft/b N/mm C oeficiente de fricción fm Misharin IS O/TR 14179-2 Benedict D rozdov SO/TR 14179-1 16 1 000 250 0,221 0,121 0,038 0,033 0,021 48 1 000 250 0,161 0,078 0,025 0,016 0,015 16 500 250 0,312 0,139 0,049 0,046 0,034 16 1 000 500 0,221 0,139 0,041 0,033 0,016 Revista Cubana de Ingeniería 81 Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción REFERENCIAS 1. ISO. Gears - Thermal capacity - Part 1: Rating gear drives with thermal equilibrium at 95 °C sump temperature. ISO Technical Report 14179-1. ISO/IEC Office. Geneva. Switzerland. 2001. 2. ISO. Gears - Thermal capacity - Part 2: Thermal loadcarrying capacity. ISO Technical Report 14179-2. ISO/IEC Office. Geneva. Switzerland. 2001. 3. PHILLIPS, ALLYN E. "The development of a practical thermal rating method for enclosed gear drives". American Gear Manufacturers Association (AGMA), Technical Paper 96FTM9. Virginia, 1996, p.8. 4. GONZÁLEZ REY, G. "Comentarios sobre el cálculo de la eficiencia de engranajes cilíndricos según reportes técnicos ISO/TR 14179 – 1 y 2". En Actas de 5ta. Conferencia Internacional de Energía Renovable y Eficiencia Energética. Ciudad de La Habana. Mayo 2007. pp 567-576. 5. HORI, K.; HAYASHI, I. and IWATTSUKI, N. "Determination of the tooth surface friction coefficient of a pair or mating gears based on the distribution along the tooth profile precisely measuremed with the gravity pendulum method". In Actas de ASME 2000, Design Engineering Technical Conference, Paper DETC 2000/PTG-14371. Baltimore. September 2000, p.10 6. DROZDOV, Y. N. and GAVRIKOV, Y. A. "Friction and scoring under the conditions of simultaneous rolling and sliding bodies". Wear , 1967, p.291-302. 7. BENEDICT, G. H., KELLY, B. W. "Instantaneous coefficients of gear tooth friction". En Actas de ASLE Lubrication Conference. Illinois 1960. Transactions of ASLE, October, 1960, p.57-70. 8. MISHARIN, Y. A. "Influence of the friction condition on the magnitude of the friction coefficient in the case of rollers with sliding". In Actas de International Conference on Gearing, London 1958, Institute of Mechanical Engineering, p. 159-164. AUTORES Gonzalo González Rey Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba. Miembro Académico de la Asociación Americana de Fabricantes de Engranajes (AGMA), Miembro Experto en el Comité Técnico de Engranajes de la Organización para la Normalización Internacional (ISOTC60). Vicepresidente del Comité Técnico de Normalización Cubano de Elementos de Máquina Alejandra García Toll Ingeniera Mecánica, Máster en Diseño Mecánico, Profesora Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba. Miembro del Comit é Técnico de Normalización Cubano de Elementos de Máquina, Experta en ISO-TC60. María Eugenia García Domínguez Ingeniera Mecánica, Máster en Diseño Mecánico, Profesora Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, Cuba. Miembro del Comité Técnico de Normalización Cubano de Elementos de Máquina Rational Design of Spur Gears Directed to Increase Efficiency and Decrease Loss by Friction Abstract External parallel-axis cylindrical gears are considered as very efficient means for transmitting mechanical power, but for requirements of maximum efficiency in the current machines and equipments a precision in the procedures of calculation of power losses is necessary. In this sense, the Technical Report ISO / TR 14179-1:2001 offers formulas with empirical and theoretical bases to evaluate the gear efficiency considering gear mesh losses, windage and churning losses, and losses by bearings and seals. In particular, this article presents some results derived from a study of ISO/TR 14179-1:2001 and mathematical models described the interrelation of gear geometry, working parameters and efficiency. The results offer solution to the problem of increasing gear efficiency through a convenient relationship between the load, speed and rational gear geometry. Finally, through multiple regression a new formulation was estimated for the calculation of gear efficiency as a function of the load density, module, speed, gear ration and number of pinion teeth. Key words: spur gear, efficiency, coefficient of friction, ISO/TR 14179-1 82 Revista Cubana de Ingeniería Revista Cubana de Ingeniería, 1(3), 83-88, 2010 PROBLEMAS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA Pensar la Ingeniería José Ricardo Díaz Caballero Correo electrónico:[email protected] Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Sandra Isaac Borrero Universidad de La Habana, Ciudad de La Habana, Cuba Resumen En este artículo se piensa la ingeniería en su interrelación con la ciencia, la técnica y la tecnología, a la luz de la lógica y la teoría dialéctica. Se aborda heurísticamente la ingeniería como un estadio del desarrollo del saber hacer en el que se integran de manera orgánica a la racionalidad técnica, las dimensiones sociohumanista, organizacional, económica, científica, estética, ecológica y tecnológica. Palabras clave: ingeniería, ciencia, técnica, tecnología, tecnociencia, continuum científico-técnico Recibido: enero 2010 Aprobado: marzo 2010 INTRODUCCIÓN A pesar de la importancia de la ingeniería como objeto de investigación filosófica y sociohumanista en general, en Cuba ha existido una carencia de trabajos en esta dirección, lo cual se atribuye a la confluencia de tres momentos. Primero: la marginación de la técnica como objeto de análisis sociohumanístico integral y esencial por parte de la mayoría de los profesionales de las Ciencias Sociales y Humanistas. Segundo: la marginación de las Ciencias Sociales por parte de los profesionales de las Ciencias Técnicas. Tercero: el desconocimiento de la propia historia de la ciencia, la técnica, la tecnología y la ingeniería, así como de sus contingencias más actuales. Además, entre los filósofos cubanos existe una especie de reencarnación de una tradición que data de los primeros pensadores griegos consistente en el primado del conocimiento teórico como saber auténtico y racional; y la relegación del fenómeno técnico y del saber operativo a un plano muy inferior en importancia (para algunos un plano que no merece atención filosófica). Algo que, por cierto, nada tiene que ver con la vocación dialéctica de la filosofía. El análisis lógico dialéctico de la ingeniería y las regularidades de su desarrollo tienen enorme importancia tanto para la filosofía como para las propias ciencias técnicas. Desde el punto de vista filosófico, abordar esta temática es esencial porque permite develar el movimiento de los diversos enfoques teóricos de la ingeniería y comprender sus tendencias de desarrollo como teoría y praxis humana. LA INGENIERÍA La ingeniería, según el ingeniero peruano Héctor Gallegos, nació con los primeros esfuerzos civilizatorios del hombre. Atravesar un tronco sobre el cauce de un río para así poder cruzarlo, constituía una obra nacida de ese algo ingenieril que todos llevan dentro. Sin embargo, los inicios formales de la ingeniería, entendida como disciplina son muy posteriores a esos comienzos primitivos.[1] La ingeniería como profesión surgió apenas en el siglo XVIII cuando la ciencia fue aplicada de manera consciente, sostenida y recurrente a la solución de problemas técnicos.[2] Pensar la ingeniería A la par con ello, Gallegos también considera a la ingeniería una actividad "(…) que se disputa con la política y con la economía el privilegio de ser el arte social por excelencia".[2] Insistiendo en el hecho de que la ingeniería es tan antigua como la civilización misma plantea que si se acepta la tesis de que sin ciencia no hay ingeniería, entonces se excluiría a miembros tan antiguos y prominentes de la familia ingenieril como los sumerios que crearon la irrigación, el arco de mampostería y la rueda, los diseñadores de las pirámides, los constructores romanos de caminos y a Newcome y Watt, inventores de la máquina de vapor, por citar unos pocos ejemplos relevantes. Ello sería un absurdo. "La ingeniería por su naturaleza incluye toda la actividad tecnológica del hombre". [2] Otros autores definen la ingeniería como el arte (técnica) de transformar materias primas y la fuente de energía de la naturaleza para la producción de bienes y servicios, así como el bienestar del hombre. Existen asimismo, quienes consideran que la ingeniería es la aplicación creativa de los principios científicos al diseño y desarrollo de estructuras, máquinas, aparatos y procesos de fabricación y su manejo con un buen conocimiento de sus usos y propiedades, pudiendo predecir su funcionamiento en condiciones específicas de trabajo. Una definición bastante lograda de lo que es la ingeniería la han aportado Vicente Ortega y Jorge Pérez: "Aplicación creativa de los conocimientos científicos técnicos a la invención, desarrollo y producción de bienes y servicios transformando y organizando los recursos naturales para resolver necesidades del hombre haciéndolo de forma óptima tanto económica como socialmente". [3] Cuando se piensa la ingeniería en un sentido estrecho se le define como arte, técnica, artefacto, tomando en consideración solo habilidades, destrezas, su mecanismo y el propio objeto. En un sentido ya más amplio, se asume la perspectiva de que la ingeniería es una profesión, lo cual presupone tener en cuenta al ingeniero mismo, al hombre con sus necesidades, intereses, la cultura existencial heredada, sus valores y modos de actuación. Como arte, la ingeniería ha existido siempre, pues se refiere al manejo de instrumentos, normas y procedimientos, con el objetivo de satisfacer las necesidades más elementales del hombre con un mínimo de esfuerzo humano y estimular de esta manera el surgimiento de nuevas posibilidades de producir para cambiar. En tal sentido, la ingeniería se vincula a la evolución de la técnica. Según José Ortega y Gasset: la técnica es lo hecho para evitar por completo y en parte los quehaceres que las circunstancias primordialmente imponen. Existen necesidades del hombre para sobrevivir: ante el frío -necesita calentarse, ante el hambre -necesita alimentarse. Si la naturaleza no le presta los medios directamente al hombre, este hace algo: fuego, construye viviendas, cultiva campos (estos actos técnicos elementales no pueden asociarse con la ingeniería). La ingeniería entra cuando el hombre trata de optimizar el rendimiento de una explotación agrícola construyendo sistemas de regadíos, máquinas de 84 Revista Cubana de Ingeniería recolección, elementos de almacenaje, conservación, etcétera.[4] Se habla con frecuencia de la ingeniería como aplicación creativa de los conocimientos científico- técnicos. Esta faceta de la ingeniería moderna se realiza a partir del siglo XIX aunque en mayor medida en el siglo XX y la relaciona con la ciencia experimental. El ingeniero de hoy tiene que conocer los principios y métodos científicos básicos generales comunes a cualquier ingeniería, esto es, física, química, matemática, informática; debe también conocer los principios y métodos científicos particulares de su propia rama para trasladar ese conocimiento a la producción y construcción de máquinas, equipos, etc. , y utilizarlo como herramienta imprescindible en el diseño y desarrollo de los bienes y servicios que se derivan de su uso. Aquí se observan aspectos de la convergencia ciencia - ingeniería (la ingeniería no pudo surgir como profesión sin la acumulación de conocimientos científicos). Es indudable pues, la necesidad que tienen los ingenieros de saber ciencias y saberlas bien todas. [5] Una de las tendencias en boga entre los ingenieros es la que plantea que la ingeniería produce la tecnología. En esta perspectiva se asume que la ingeniería es el proceso de crear y la tecnología su resultado. La técnica aparece aquí como un momento de la labor ingenieril. Según Héctor Gallegos, la ingeniería tiene como fin utilizar la naturaleza en beneficio del hombre. En su artículo "Ciencia y Tecnología: las gemelas espejo", señala: "Así como la ciencia surgió de la filosofía, la ingeniería surgió de la artesanía y las técnicas. Así como una buena porción de los científicos sostienen que su fin último es entender como funciona la naturaleza; el ingeniero dirá que el suyo es utilizar la naturaleza en beneficio de la humanidad. Así como es fácil descubrir casos de dependencia de la tecnología en la ciencia, también lo es encontrarlos a la inversa. Los orígenes y los objetivos diferentes han producido dos mundos independientes, distintos y al mismo tiempo, complementarios: son las gemelas-espejo, la ciencia y la tecnología. Ellas, en la medida en que realicen sus respectivas tareas creativamente, continuarán colaborando con -y acelerando- el proceso de desarrollo". [1] Otra perspectiva es la de los especialistas en "Problemas Sociales de la Ciencia y la Tecnología" que consideran que la tecnología y la ingeniería en su devenir histórico tienden a su integración. [6] Ven la tecnología vinculada al desarrollo de la industria, la ingeniería de una forma más amplia. INTERRELACIÓN CIENCIA-TÉCNICATECNOLOGÍA-INGENIERÍA Cuando se examinan e interrelacionan dialécticamente las múltiples definiciones de ciencia, técnica, tecnología e ingeniería y las realidades que ellas reflejan, se constata que es cada vez más difícil establecer fronteras bien delimitadas entre estos ámbitos del quehacer humano. Lo que se observa, en cambio, es un mayor número de aspectos de coincidencia e identidad que de diferencia, lo cual se José Ricardo Díaz Caballero - Sandra Isaac Borrero intenta caracterizar en el concepto de tecnociencia. Al referirse al mismo Javier Echeverría en su artículo "Ciencia, tecnología y valores. Hacia un análisis axiológico de la actividad tecnocientifica", apunta: "La ciencia y la tecnología se imbrican mutuamente en la tecnociencia, de manera que no hay avances científicos sin progresos tecnológicos y viceversa. Esto lleva a cambios importantes en la práctica de los científicos y tecnólogos".[7] De un lado, se observa cómo la ciencia contemporánea está orientada cada vez a fines más prácticos, encaminados en lo fundamental al desarrollo tecnológico y con ello a la innovación tecnológica; [8] del otro, la propia tecnología se torna cada vez más dependiente de la actividad y el conocimiento científicos. [8] Tal unidad se hace patente en la medida que se la relaciona a formas más avanzadas de tecnología. La frontera entre ciencia y tecnología se difumina en los marcos de una actividad socialmente organizada, planificada hacia la práctica. "El término tecnociencia -escribe Núñez Jover- es precisamente un recurso del lenguaje para denotar la íntima conexión entre ciencia y tecnología y el desdibujamiento de sus límites. El término tecnociencia no necesariamente conduce a cancelar las identidades de la ciencia y la tecnología, pero sí nos alerta que la investigación sobre ellas y las políticas prácticas que respecto a las mismas implementemos tienen que partir del tipo de conexión que el vocablo tecnociencia desea subrayar".[8] "(...) la intencionada separación entre contemplación teórica y práctica, acompañada del privilegio de la primera, es desplazada por una actitud esencialmente activa donde la representación teórica es puesta al servicio de la actividad manipulativa. Los términos tecnociencia y tecnocientífico señalan, a la vez, el entrelazamiento entre los dos polos y la preponderancia del polo técnico y, además, son apropiados para designar la actividad científica contemporánea en su complejidad y originalidad. En otros términos, no se trata solo de insistir en las interrelaciones, sino incluso de colocar el polo técnico o tecnológico como preponderante". [8] Otro importante concepto, análogo al de tecnociencia, mediante el cual se intenta captar teóricamente la estrecha interrelación ciencia- técnica- tecnología- ingeniería, es el de continumm científico-técnico (figura 1). Ciencia Técnica C o nt inum m C ient ífico -Técnico T ecno lo gía In gen iería Fig. 1. Estructura del continum científico-técnico. La idea del continuum científico-técnico también presupone el reconocimiento de que ciencia, técnica, tecnología e ingeniería no solo están convergiendo, sino que continuamente sus funciones se intervinculan y las fronteras entre unas y otras se van haciendo cada vez más borrosas. Tal convergencia se fue construyendo paso a paso en el proceso del devenir histórico de la humanidad. Ya a partir del siglo XIX se observa cómo la ciencia comienza a estimular muchas invenciones conduciendo al crecimiento de tecnologías e industrias basadas en ella, como es el caso de la electricidad y la química. La estructura que caracteriza la interrelación entre la ciencia y la tecnología es la ramificación de la ciencia en teorías tecnológicas específicas o, desde el punto de vista de la tecnología, la búsqueda de fines técnicos a través de la construcción de teorías. Actualmente se produce lo que Vessuri llama la cientificación de la tecnología y la industrialización de la ciencia. [8] Por un lado existe una cientificación de la producción, por otro, la ciencia misma en cierto modo está deviniendo tecnología, o sea, la ciencia de manera creciente está descansando sobre la base de la técnica de la producción experimental de laboratorio, la organización fabril. Es frecuente observar que el conocimiento requiere soluciones técnicas a sus problemas y dé una configuración material para la materialización de sus d e sc u b r i m i e n t o s. En el camino, las diferencias entre ciencia y tecnología se diluyen cada vez más. La ciencia y la tecnología están hoy más estrechamente ligadas de lo que normalmente se percibe y, de hecho existen áreas en que, como señala Vessuri, la división entre ciencia y tecnología ha desaparecido casi por completo. Tal es el caso de la biotecnología de punta y la moderna biociencia. De hecho, se observan en la actualidad procesos muy complejos asociados a la dinámica interrelación cienciatécnica-tecnología-ingeniería que reclaman de nuevas políticas y estrategias: • La transformación de los nuevos conocimientos en nuevos medios materiales es ya tan rápida que el acceso al conocimiento y la capacitación se convierten en un componente esencial del desarrollo. El propio conocimiento además se transforma en un producto, a medida que se incrementa el comercio de bienes intangibles. • La v elocidad de generación de conocimientos tecnológicos se ha hecho más rápida que su velocidad de difusión. • En esta nueva situación, la asimilación de conocimientos y tecnologías ha dejado de ser una solución realista al desarrollo, a menos que incluya un importante componente de investigación científica. • Los plazos entre los descubrimientos y las aplicaciones se acortan. • El tiempo de obsolescencia de las tecnologías disminuye constantemente. • Las tecnologías demoran en ser sustituidas menos tiempo que el que tardan en ser evaluadas. Revista Cubana de Ingeniería 85 Pensar la ingeniería El análisis y estudio de los conceptos ciencia, técnica, tecnología e ingeniería en su interrelación dialéctica, lleva a reconocer que la técnica es una suerte de empiria para la tecnología y la ingeniería. La técnica en su devenir preparó la génesis y posterior desarrollo de la tecnología y la ingeniería. De igual modo, se puede afirmar que la ciencia es el antecedente teórico de la tecnología y la ingeniería. Entre todos estos ámbitos de la actividad humana se expresa por tanto lo idéntico en la diferencia y viceversa. Ellos son expresión de la activa relación del hombre con la naturaleza. Asimismo, al destacar la continuidad en la relación de los conceptos que los designan, pierde valor intentar "casarse" con alguna definición específica al uso o pretender analizar a la ciencia, la técnica, la tecnología o la ingeniería como aspectos aislados. Es preciso asumir lo esencial en dichos ámbitos en su contradictoriedad dialéctica. Tal es el panorama lógico y dialéctico con que se choca cuando se intenta el abordaje comparado de estos conceptos. En este contexto, el principio dialéctico de la unidad teoría-práctica pudiera, por analogía, arrojar luz en el análisis de tan compleja cuestión. Para ello se requiere, ante todo, profundizar en la esencia del método como eslabón mediador entre la teoría y la práctica. En el plano de la filosofía, el término método ha estado asociado a la cuestión de descubrir la vía más racional para conquistar la verdad, tiene que ver con los procederes que se despliegan para encontrar la verdad en la práctica. La dialéctica de la interrelación teoría - práctica permite afirmar que el método existe como aquel aspecto de la teoría que se proyecta sobre la práctica. Por opuestas que sean la teoría (el conocimiento, el pensamiento) y la práctica (la acción, el trabajo), en última instancia el propio pensar constituye una actividad específica práctico-social. Cuando se conoce se realiza una acción práctica, por peculiar que sea. La función mediante la cual es posible el conocimiento resulta ser, a la postre, una acción social, histórica. El conocimiento, entonces, es praxis (acción). Justamente por ello la actividad cognoscitiva es la manifestación más acabada de la práctica social del hombre. Otro tanto es posible decir, pero en dirección inversa, del método. En fin de cuentas, el método forma parte de la teoría, especialmente el referido al método científico. Pero, como tal, es aquella parte de la teoría cuya función particular es intervenir en las otras prácticas de los hombres. Por ello, la práctica del conocimiento se denomina metódica, en tanto que la metodología vendría a ser la teoría de esa práctica. Es importante distinguir con claridad el método de la teoría, dentro de su oposición cognitiva. Que el método, como momento de la teoría, se proyecte como práctica científica sobre las otras prácticas sociales, le confiere un rasgo peculiar: forma parte de la teoría, participando en ella de una actividad práctica específica y, al mismo tiempo, se proyecta estrechamente sobre las otras prácticas: económica, política, ideológica, etc. Desde luego, todo método se asienta en determinados principios teóricos. Un método que no se apoye en principios (aun cuando todavía no hayan sido descubiertos teóricamente) acerca de los objetos que estudia no puede 86 Revista Cubana de Ingeniería existir. En todo método hay, pues, una función teórica secundaria, al mismo tiempo que hay una función metódica (práctica) principal. Todo lo cual viene dado por la misma relación dialéctica existente entre método y objeto de conocimiento: todo objeto es aprehendido por un método y todo método actúa sobre un objeto. No tiene sentido alguno, un método sin objeto; o bien, un objeto de conocimiento sin método. Inversamente, es posible afirmar algo semejante en relación con la teoría. La teoría no excluye al método. Mientras las relaciones objetivas que reproduce la teoría estén simplemente representadas a nivel cognoscitivo, dicha teoría queda reducida a efectuar solamente la función teórica de aprehender una determinada faceta de las prácticas sociales. Pero, al mismo tiempo, toda teoría de una práctica determinada sirve también para la actividad productiva, revolucionaria, ideológica, etc., y para lograr nuevos conocimientos científicos. Esta segunda función de participación del conocimiento como práctica específica, en las otras prácticas es, justamente, su función metódica secundaria, que al lado de su función teórica principal, estatuyen el nivel de existencia de la teoría. De este modo, se comprenden las relaciones dialécticas existentes entre la teoría y el método; cómo contrarios dialécticos. Toda teoría es resultado de un método y todo método es productor de una teoría. Esta concepción es la que permite rechazar ideológicamente tanto el teoricismo (una supuesta teoría acabada, que ha perdido su función metódica) como el metodologismo (la supuesta existencia de un método sin teoría). Cuando una teoría reproduce una práctica como simple aprehensión de ella, al mismo tiempo dicha teoría participa en las otras prácticas, sirviendo para la acción del hombre en el seno de ellas y para obtener nuevos conocimientos. Esta es la doble función que cumple la teoría: teórica y metódica. Lo mismo acontece con el método. En principio su función principal consiste en su intervención en las otras prácticas para la adquisición de nuevos conocimientos. Pero el método, para cumplir con esa función, tiene que apoyarse teóricamente en una serie de ideas, tanto de la representación del objeto sobre el cual opera, como de los aspectos fundamentales de esa práctica metódica. De ese modo cumple su papel de guía en la adquisición de conocimientos particulares dentro del dominio general de objetos donde se ha objetivado su validez. Así, cuando un método interviene en una región de objetos para conquistar nuevas verdades, dicho método tiene que estar fundado a su vez en conocimientos generales acerca de esas prácticas: tales conocimientos son los que sirven de orientación para el avance concreto de la investigación científica. Lo anterior no significa relativismo alguno. Las teorías son teorías porque en ellas predomina la función teórica sobre la metódica. Y los métodos son métodos porque en ellos prevalece la función metódica sobre la teórica [9]. En lo que se refiere a la interrelación ciencia-técnicatecnología-ingeniería, se puede afirmar que la tecnología y la ingeniería constituyen una suerte de metódica de la ciencia, José Ricardo Díaz Caballero - Sandra Isaac Borrero siendo la tecnología el eslabón intermedio entre la ciencia y la ingeniería por un lado y, entre la ciencia y la técnica por otro. La tecnología es en cierto sentido, una metodología de la técnica, rol que comparte con la ingeniería. A su vez, la técnica debe ser asumida como la práctica objetal donde nacen los procederes que sirven de base empírica a la tecnología y la ingeniería como metodología. La técnica es una especie de nivel empírico, práctico-objetal del saber hacer implícito en la ciencia, la tecnología y la ingeniería. Por su parte, la ciencia, la tecnología y la ingeniería constituyen el nivel teórico del saber hacer para la técnica. La figura 2 intenta ilustrar estas interrelaciones. Todo conocimiento científico constituye, directa o indirectamente, un reflejo de la realidad susceptible de ser transformado de conocimiento en sí en modo de obrar técnico para nosotros y para otros, esto es, en principio y proceder técnico. En tal sentido se puede afirmar que la ciencia, implícitamente, es un conocimiento y procedimiento técnico que encuentra su primera exteriorización metódica en el campo de la tecnología y luego, de manera mucho más organizada, efectiva y socializada, en el dominio de la ingeniería. De igual modo, la técnica como proceder requiere de la fundamentación y explicación científica para ser comprendida en su esencia y causas más profundas. En otros términos, la técnica es una ciencia implícita que encuentra su exteriorización en la tecnología como técnica argumentada científicamente o metodología técnica y, de manera más profunda, en la ingeniería como metodología técnica-científica operativa y método técnico-científico. En lo que se refiere a la interrelación tecnología-ingeniería hay que asumir a la tecnología como ciencia tecnificada o ciencia trabajada para su aplicación técnica y a la ingeniería como el elemento mediador o núcleo integrador, en el sentido técnico, de la ciencia, la tecnología y la técnica, o sea, el núcleo integrador de lo que se denomina tecnociencia o continum científico-técnico (figura 3). Fig. 3. La ingeniería como núcleo integrador de la tecnociencia. CONCLUSIONES Estas correlaciones dialécticas plantean cuestiones heurísticas esenciales en la reflexión, a saber: 1. Que la técnica es un primer estadio del quehacer humano en el que lo característico es un saber hacer que, como saber, tiene su origen en el fondo de conocimientos técnicos acumulados; es el resultado de la puesta en práctica de habilidades, actitudes y conocimientos acumulados a nivel de la empiria técnica cotidiana. Sin embargo, si antes ese acervo de conocimientos era de carácter acientífico, hoy día no se puede afirmar categóricamente lo mismo. Con el desarrollo, muchos conocimientos científicos han pasado a formar parte de lo cotidiano como resultado inmediato de lo que se conoce como la popularización de la ciencia. Por otro lado, la propia formación técnica se realiza, cada vez con mayor frecuencia, en escuelas especializadas con una sólida base científica. A la luz de esta reflexiones, pudiera afirmarse que la técnica se tecnologiza. 2. Que la tecnología es un segundo estadio de ese quehacer en el que la técnica se sustenta científicamente o lo que es igual, encuentra una explicación y organización fundada en la ciencia. En el contexto específico de la tecnociencia (continum científico-técnico), la tecnología se ingenieriza, esto es, tiende a tener cada vez más en cuenta el aspecto de la eficiencia económica, lo ecológico, etcétera. 3. Que la ingeniería, como ideal perspectivo de la actividad técnica* es un tercer estadio del desarrollo del saber hacer en el que se integran orgánicamente a la racionalidad técnica lo sociohumanista, lo organizacional, lo económico, lo científico, lo estético, lo ecológico y lo tecnológico. * Fig. 2. Niveles y tendencias de la tecnociencia. Esta caracterización de la ingeniería tiene que ver más bien con lo que se espera que llegue a ser la ingeniería algún día no muy lejano y no con lo que la ingeniería es en la actualidad. Por ello se alude a la ingeniería como ideal perspectivo, como deber ser y no como ser actual. Revista Cubana de Ingeniería 87 Pensar la ingeniería 4. Que existen dos tendencias esenciales en el desarrollo del fenómeno técnico en la actualidad. En primer término, la ingenierización de la técnica, la tecnología y la propia ingeniería, en el sentido de que las mismas tienden a incluir paulatinamente los aspectos antes referidos para la ingeniería como ideal. En segundo, la cientificación de la técnica, la tecnología y la ingeniería, es decir, la presencia cada vez más acentuada de la ciencia en la actividad técnica a todos los niveles. (figura 4). 5. Que la ciencia, en el contexto específico de la tecnociencia se ingenieriza, esto es, se interesa no solo en el saber, sino en el saber para hacer organizada y económicamente eficiente con criterio sociohumanista, estético y ecológico. 2. GALLEGOS, H. "Las fallas maestras de la ingeniería". Revista de Información Profesional. El ingeniero Civil. 1995, nº 97, p. 5. 3. ORTEGA, V. Y PÉREZ, J. Fundamentos y función de la ingeniería. Madrid: Departamento de Señales, Sistemas y Radiocomunicaciones. ETSI. Telecomunicación. UPM. 1989. p.7. 4. ORTEGA Y GASSET, J. Meditación de la técnica. Meditación de la técnica y otros ensayos sobre Ciencia y Filosofía. Madrid: Editorial Occidente, 1982. 5. GALLEGOS, H. "El papel de los códigos de construcción en la ingeniería civil". Revista de Información Profesional. El ingeniero Civil. nº 89, p. 7. 6. VESSURI, H. Distancias y Convergencias en el desarrollo de la ciencia y la tecnología.Material Fotocopiado. Departamento de Estudios de la Ciencia. IVIC, p.162. 7. IBARRA, ANDONI; LÓPEZ CEREZO, JOSÉ A. (Comp.). Desafíos y tensiones actuales en ciencia, tecnología y sociedad. Madrid, España: Editado por Biblioteca Nueva, SL 2001. p.137. 8. NÚÑEZ JOVER, J. La ciencia y la tecnología como procesos sociales. Ciudad de La Habana: Editorial Félix Varela, 1999, p.49-50. 9. CARDOSO, C. Introducción al trabajo de investigación histórica. Crítica. Barcelona: Grupo Editorial Grijalbo, 1989. AUTORES Fig. 4. Tendencias del desarrollo científico-técnico actual. REFERENCIAS 1. GALLEGOS, H. "Ciencia y tecnología: Las gemelasespejo". Revista de Información Profesional El Ingeniero Civil. 1994, nº 89, p. 4. José Ricardo Díaz Caballero Licenciado en Filosofía, Doctor en Ciencias Filosóficas, Profesor Titular, Dirección de Ciencias Sociales, Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba Sandra Isaac Borrero Licenciada en Filosofía, Doctora en Ciencias Filosóficas, Profesora Titular, Facultad de Filosofía e Historia, Universidad de La Habana, Cuba Thinking the Engineering Abstract In this article engineering is analyzed in its interrelation with science, technique, and technology at the light to logic and dialectic theory. Engineering is heuristically approached as the state of ¨knowto-do¨ development in which the technical reasoning, the social humanistic, organizational, economical, scientific, esthetical, ecological and technological dimensions are organically integrated. Key words:engineering, science, technique, technology 88 Revista Cubana de Ingeniería