Vol 1, No 3 (2010) - Revista Cubana de Ingeniería

Anuncio
Revista del Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, Cuba
REVISTA CUBANA
DE INGENIERÍA
Vol. I, No. 3, 2010
septiembre-diciembre
DIRECTOR Y EDITOR TÉCNICO
Dr. Gonzalo González Rey
Vicerrectoría de Investigación y Posgrado
Instituto Superior Politécnico José Antonio Echeverría, Cujae
e-mail: [email protected]
MIEMBROS DEL COMITÉ EDITORIAL
Dr. José Pérez Lazo
Vicedecano de Investigación. Facultad de Ingeniería Civil
e-mail:[email protected]
Dr. Alejandro Cabrera Sarmiento
Vicedecano de Investigación. Facultad de Ingeniería Eléctrica
e-mail:[email protected]
Dr. Orestes Llanes Santiago
Vicerrector de Investigación y Posgrado
e-mail:[email protected]
Dr. Rafael Antonio Pardo Gómez
Director del Centro de Investigaciones Hidráulicas
e-mail:[email protected]
Dra. Maria Sonia Fleitas Triana
Vicedecana de Investigación. Facultad de Ingeniería Industrial
e-mail:[email protected]
Dr. Alejandro Rosete Suárez
Vicedecano de Investigación. Facultad de Ingeniería Informática
Dra. Elsa Magdalena Herrero Tunis
Centro de Referencia de Enseñanza Avanzada
e-mail:[email protected]
Dr. José Ricardo Díaz Caballero
Dirección de Marxismo Leninismo
e-mail:[email protected]
REVISORES INVITADOS
Ing. Omar E. Mayer. Universidad de Buenos Aires.
Argentina
Ing. Eduardo Peón Avés. Centro de Biomateriales. Universidad de La Habana.
Dr. Osvaldo Cuesta Santos
Instituto de Meteorología, CITMA, La Habana
EDITOR EJECUTIVO
Yusnier Ferrer Granado
Jefe de Departamento de Ediciones y Gabinete de Comunicación
e-mail:[email protected]
e-mail:[email protected]
Dr. Osvaldo Gozá León
Facultad de Ingeniería Química
e-mail:[email protected]
Dra. Tania Rodríguez Moliner
Vicedecana de Investigación.Facultad de Ingeniería Mecánica
e-mail:[email protected]
Dra. Agnes Sarolta Nagy Szonjas
Centro de Investigación de Microelectrónica
e-mail:[email protected]
Dra. Nilda Caballero Stevens
Unidad Docente Metalurgia
EDITORA
Lic. Mayra Arada Otero
e-mail:[email protected]
DISEÑO DE CUBIERTA
Alex Álvarez Martínez
e-mail:[email protected]
DISEÑO INTERIOR
Yaneris Guerra Turró
e-mail:[email protected]
e-mail:[email protected]
e-mail:[email protected]
COMPOSICIÓN COMPUTARIZADA Y REALIZACIÓN
Maritza Rodríguez Rodríguez
e-mail:[email protected]
Dra. Luz del Alba Raña González
Directora de Ingeniería del Transporte. Facultad de Ingeniería Mecánica
REVISORA DE TEXTOS EN INGLÉS
Clementine Simson
Dr. Leonardo Goyos Pérez
Facultad de Ingeniería Mecánica
e-mail:[email protected]
Dr. Ramón González Caraballo
Director de Geociencias. Facultad de Ingeniería Civil
e-mail:[email protected]
Dr. Ángel Regueiro Gómez
Departamento de Ingeniería Biomédica. Facultad de Ingeniería Eléctrica
e-mail:[email protected]
La correspondencia puede dirigirse a:
Revista Cubana de Ingeniería
Calle 114, No. 11901, e/ 119 y 127, Apartado 6028, Cujae,
C.P.: 11901, Marianao, Ciudad de La Habana, Cuba.
e-mail:[email protected]
Nuestra Revista pueder ser visitada a través del sitio web:
http://rci.cujae.edu.cu
PROPÓSITOS Y ALCANCE
VISIÓN
La Revista Cubana de Ingeniería se propone contribuir a la comunicación entre los
profesionales de la ingeniería y se concibe como un foro en el que se presentan artículos
científico-técnicos en las variadas áreas de la ingeniería, con un destaque de resultados
novedosos y aportes de relevancia para la profesión. De esta manera, la revista se propone
contribuir a la actualización de profesionales, investigadores, profesores y estudiantes de
ingeniería, a la discusión científica nacional e internacional y, por consiguiente, al desarrollo
tecnológico y científico de Cuba en el área de la ingeniería.
PÚBLICO
La Revista Cubana de Ingeniería se dirige especialmente a la comunidad académica y científica,
nacional e internacional, centrada en el tema de la ingeniería. Ingenieros, investigadores,
profesores o gerentes que trabajen en alguna de las ramas de la ingeniería o en cualquier
ciencia o tecnología afín constituyen el universo de lectores y contribuyentes de la revista.
TEMÁTICA Y ALCANCE DE LA REVISTA
Una lista, que no pretende ser completa, de los temas de interés para la revista incluye contenidos
en la solución de problemas, aplicaciones y desarrollo de la ingeniería civil, eléctrica, electrónica,
hidráulica, industrial, informática, química, mecánica, mecatrónica y metalúrgica, además de
contenidos asociados con la ingeniería de materiales, bioingeniería, transporte, geofísica,
reingeniería y mantenimiento. También se consideran apropiados, artículos orientados a la
formación de las nuevas generaciones de ingenieros, incluidos los programas de estudio, las
tecnologías educativas, la informática aplicada, la gerencia universitaria y las relaciones universidadindustria.
Puesto que la práctica de la ingeniería obliga cada vez más a la interacción de sus diversas
disciplinas, esta revista le asigna la primera prioridad de publicación a los artículos donde se
preste atención a la integración multidisciplinaria, a los desarrollos interdisciplinarios y a las
aplicaciones prácticas.
A fin de asegurar una alta calidad del contenido, todos los trabajos publicados serán arbitrados.
REVISTA CUBANA
CUBANA
REVISTA
DE INGENIERÍA
INGENIERÍA
DE
SUMARIO/CONTENTS
Vol. I, No. 3, 2010
Tres números al año
EDITORIAL 04
 BIOINGENIERÍA
 INGENIERÍA HIDRÁULICA
IMPORTANCIA DE LOS MODELOS DIGITALES DEL TERRENO
EN LA SIMULACIÓN HIDRÁULICA DE INUNDACIONES /
IMPORTANCE OF DIGITALS MODELS OF SOIL SURFACE
IN THE F LOODING HYDRAULIC SIMULATION 51
SISTEMA DE PESQUISAJE AUDITIVO EN RECIÉN NACIDOS
BASADO EN EMISIONES OTOACÚSTICAS/ NEWBORN
HEARING SCREENING SYSTEM B ASED ON
OTOACUSTIC EMISSIONS 05
Anders Pérez Brugal
Juan F. Weber
Yaismil R. Castellanos
Juliet Sánchez Galego
Ernesto Rodríguez Dávila
Ángel Regueiro Gómez
HEMODINÁMICA DE ANEURISMAS DE AORTA ADBOMINAL Y
CARACTERIZACIÓN MORFOMÉTRICA COMO POSIBLE
/ HEMODYNAMICS OF
ABDOMINAL AORTIC ANEURYSM AND MORPHOMETRYC
CHARACTERIZATION AS A POSSIBLE INDICATOR OF
RUPTURE 15
INDICADOR DE RUPTURA
 INGENIERÍA INFORMÁTICA
ESTIMACIÓN DE PARÁMETROS METEOROLÓGICOS
SECUNDARIOS UTILIZANDO TÉCNICAS DE MINERÍA DE
/ESTIMATION OF SECONDARY
M ETEOROLOGICAL P ARAMETERS U S ING M INING
D ATA T ECHNIQUES 61
DATOS
Guillermo Vílalta Alonso
Félix Nieto
Melchor Rodríguez Madrigal
Laurentiu Lipsa
Joan O´ Connor Blanco
SIMULACIÓN DE ANTORCHA DE PLASMA / SIMULATION OF
PLASMA TORCHE
25
Rosabel Zerquera Díaz
Ayleen Morales Montejo
Gil Cruz Lemus
Alejandro Rosete Suárez
 INGENIERÍA MECÁNICA
MODELO INTEGRAL DE LA ESTRUCTURA MÓVIL DE UNA
MÁQUINA LIMPIA-PLAYA / INTEGRAL MODEL OF SANDCLEANING MACHINE STRUCTURE 67
Javier García de la Figal
Abel Fumero Pérez
René Collazo Carceller
Clodomiro Álves Junior
María Eugenia García Domínguez
DISEÑO RACIONAL DE ENGRANAJES CILÍNDRICOS
 INGENIERÍA ELÉCTRICA
ORIENTADO A AUMENTAR EFICIENCIA Y DISMINUIR
/ RATIONAL DESIGN OF SPUR
GEARS DIRECTED TO INCREASE EFFICIENCY AND
DECREASE LOSS BY FRICTION 73
PÉRDIDAS POR FRICCIÓN
APLICACIÓN PRÁCTICA DEL ANÁLISIS DE RIESGO POR
RAYO UTILIZANDO LÓGICA DIFUSA/ A PPLICATION OF
FUZZY LOGIC IN THE A NALYSIS OF LIGHTNING
R ISK 31
Gonzalo González Rey
Alejandra García Toll
María Eugenia García Domínguez
Yelennis Godoy Valladares
Olga Susana Suárez Hernández
CALIDAD DE LA ENERGÍA Y GENERACIÓN DISTRIBUIDA EN
CUBA /ELECTRIC POWER QUALITY AND DISTRIBUTED
GENERATION IN C UBA 41
Marielys Francisco Fernández
Raúl Díaz Fuentes
Miguel Castro Fernández
Ángel Costa Montiel

PROBLEMAS SOCIALES DE LA CIENCIA
Y LA TECNOLOGÍA
PENSAR LA INGENIERÍA / THINKING THE
E NGINEERING 83 11
José Ricardo Díaz Caballero
Sandra Isaac Borrero
EDITORIAL
.....................................................................................................
Con la publicación de este número, Revista Cubana de Ingeniería cumple su primer año de vida con
la satisfacción de haber logrado, en alguna medida, el propósito sustentador de nuestra publicación,
asociado a su decidida contribución de divulgar aportes novedosos del trabajo científico, innovador
y académico en los amplios temas de la ingeniería moderna, con un particular destaque de resultados
de los profesionales y académicos cubanos. Por tal motivo, Revista Cubana de Ingeniería ha
querido, en este tercer número del volumen inaugural, compilar un conjunto de artículos que revelan
el quehacer científico y aportes teórico–prácticos de profesores de los centros universitarios del
Ministerio de Educación Superior de Cuba en temas de ingeniería biomédica, mecánica, hidráulica
e informática.
Sin lugar a dudas, en el marco de las actividades por el 46 aniversario de la fundación del Instituto
Superior Politécnico José Antonio Echeverría, otras evidencias reveladoras de los importantes aportes
de la comunidad de profesores cubanos de las facultades de ingeniería del país podrán ser
compartidas en la próxima celebración de la 15 Convención Científica de Ingeniería y Arquitectura.
Como en anteriores convenciones, entre el 29 de noviembre y el 3 de diciembre del presente año,
se espera que esta nueva edición del evento sea un foro para los especialistas vinculados a la
actividad general de la ingeniería en todas sus vertientes y el espacio propicio para intercambiar
experiencias y aunar esfuerzos en la búsqueda de soluciones integrales adaptadas al entorno
cubano. De esta forma, y con el ánimo de contribuir al objetivo primario de nuestra publicación, el
Comité Editorial de Revista Cubana de Ingeniería desea toda suerte de éxitos a los organizadores
de la 15 Convención Científica de Ingeniería y Arquitectura y brinda sus páginas para la divulgación
de resultados de generalización e impacto presentados en este magno evento de la ingeniería
cubana. En este número, hemos querido incluir dos artículos compiladores de resultados del trabajo
científico de profesores cubanos que serán presentados en la próxima convención de ingenieros.
Los mencionados artículos, destacan por sus novedosos enfoques en el modelado de un sistema
para proyectar partículas de plasma y de la minería de datos con aplicación en el entorno
meteorológico.
Finalmente, queremos concluir con un reconocimiento a los autores, revisores y colaboradores de
Revista Cubana de Ingeniería, quienes hacen posible que esta revista sea para sus lectores un
importante caudal inagotable de conocimientos, deseándoles a todos un feliz 2011 pleno de éxitos
profesionales y prosperidad personal.
Dr. Gonzalo González Rey
Director y Editor Técnico
Revista Cubana de Ingeniería, 1(3), 5-13, 2010
BIOINGENIERÍA
Sistema para pesquisaje auditivo
en recién nacidos basado en emisiones
otoacústicas
Juliet Sánchez Galego
Correo electrónico:[email protected]
Ernesto Rodríguez Dávila
Correo electrónico:[email protected]
Centro de Neurociencias (CNEURO), Ciudad de La Habana, Cuba
Ángel Regueiro Gómez
Correo electrónico:[email protected]
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Resumen
La audición es uno de los cinco sentidos principales, participando en el sentido de orientación y en la
comunicación de los individuos. El órgano auditivo (oídos en los vertebrados), es el encargado de
percibir las ondas sonoras en la banda audible desde 20 Hz a 20 kHz. Debido al incremento de
problemas audiológicos en la sociedad y al creciente interés en el país de erradicarlo desde la década
del 80, la investigación propone la caracterización de un canal de entrada para pruebas audiométricas
y el posterior pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas, en cuanto a
características de frecuencia, amplitud y linealidad, lo cual puede resultar factible y útil, pues contribuye al desarrollo de equipos de pesquisaje universal (EPU) no invasivos ya existentes en Cuba.
Palabras clave: audición, otoacústica, transductor, pesquisaje, recién nacido
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
Entre las enfermedades ocupacionales se encuentra la
hipoacusia: que consiste en la pérdida de la percepción
auditiva; alteración que afecta de forma especial a las
personas que la padecen ya que su integración a la sociedad
es muy difícil; por lo cual, adquiere en la actualidad una
importancia notable, debido al aumento de su incidencia en
la población cubana y al costo económico para su
tratamiento.
También las alteraciones auditivas congénitas tienen serias
consecuencias para la adquisición del habla y el lenguaje;
así como para el desarrollo emocional e intelectual. Se ha
confirmado que esto puede minimizarse, si se produce la
identificación y la intervención oportuna, antes de que el niño
afectado cumpla los 6 meses de edad. Los avances
tecnológicos han hecho posible el examen automatizado de
la audición de los bebés. Uno de esos métodos de examen
se basa en la presencia de las emisiones otoacústicas,
sonidos que se propagan en el canal auditivo a partir del
movimiento del tambor producido por las vibraciones de la
cóclea, que se transmiten a través de la cadena del oído
medio, Se conocen también como vibraciones ecococleares.
Pueden surgir espontáneamente, pero lo más común es que
se produzcan como respuesta a una estimulación acústica.
El registro de las emisiones otoacústicas (EOA) permite
explorar la función auditiva periférica con profundidad y detalle,
por lo que constituye una nueva herramienta para el estudio
de los trastornos auditivos. [1]
La evaluación EOA portátil es un método objetivo que mide
la audición dentro de una extensión de frecuencias de sonido
y representa el método más práctico para evaluar a los recién
nacidos y niños pequeños porque no requiere que el niño
Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas
demuestre una reacción conductual, puede ayudar a detectar
faltas de audición neurosensoriales y hacer resaltar trastornos
auditivos que afecten la vía hacia el oído interno, es rápido y
no duele, puede realizarlo cualquier persona con buena
capacidad para la educación infantil que reciba entrenamiento
para utilizar el equipo. [2] Dado que ya es conocido que de
la población con oídos sanos, no todos presentan EOA, y
se sabe que el hecho de que esta población no las presente
es absolutamente normal; su ausencia no es signo de
disfunción auditiva o de algún tipo de problema clínico. [3]
HIPOACUSIA O SORDERA: ANTECEDENTES
Hasta el renacimiento se consideró a los sordos incapaces
de aprender a hablar y de ser educados. A partir del siglo
XVI, algunos filósofos y educadores empezaron a
reconsiderar esta teoría [4]. El oído es el órgano responsable
de la audición y el equilibrio. Se divide en tres zonas: externa,
media e interna. La mayor parte del oído interno está rodeada
por el hueso temporal. El oído medio se encuentra situado
en la cavidad timpánica llamada caja del tímpano; incluye el
mecanismo responsable de la conducción de las ondas
sonoras hacia el oído interno, en este también se encuentran
unos huesos pequeños y móviles (huesecillos) que atraviesan
el oído medio. Estos tres huesos reciben los nombres de
martillo, yunque y estribo, los cuales trasmiten y amplifican
las vibraciones del tímpano. [5]
Morfológicamente se puede diferenciar en el oído interno
la cóclea o caracol, en el adulto humano tiene una longitud
de aproximadamente 34 mm, es un tubo enrollado dividido a
lo largo en tres escalas: vestibular, media y timpánica. [6]
Cuando la frecuencia de un tono se duplica, es decir, cuando
el tono se desplaza una octava, la región de la cóclea que
resuena se desplaza alrededor de 3,5 a 4 mm sin importar la
altitud de los tonos. Por ejemplo, para las frecuencias de:
220 y 440 Hz, entre 1 760 y 3 520 Hz o entre 5 000 y
10 000 Hz, la posición de resonancia en la cóclea no se
multiplica, simplemente se desplaza una cierta distancia;
en otras palabras, es la razón entre las frecuencias y no sus
diferencias lo que determina el desplazamiento de la región
de resonancia en la cóclea, [7] lo cual constituye la base de
detección de diversas patologías.
MATERIALES Y MÉTODOS
Para la caracterización de las emisiones otoacústicas en
recién nacidos se emplea un transductor altamente
especializado, el que por su importancia ha sido evaluado
en este trabajo de investigación empleando los siguientes
instrumentos y dispositivos (figura 1):
• Transductor: modelo Otoport DP+TE, Otodynamics.
• Generador de funciones: modelo AFG 3021, Single
Channel Arbitrary, Tektronix.
• Multímetro digital: modelo GDM-356, INSTEK.
• Fuente EL 302T: Triple Power Supply, 0-30V.
• Osciloscopio digital: modelo TDS 3032, Tektronix.
• Amplificador: P55 AC Pre-amplifier, Grass Telefactor.
6
Revista Cubana de Ingeniería
Fig. 1. Instrumentos de laboratorio empleados para la
caracterización del transductor dedicado al estudio de
emisiones otoacústicas (Centro: Phantom acústico).
PESQUISAJE AUDITIVO CON EMISIONES
OTOACÚSTICAS
Emisiones otoacústicas. Tipos y características.
Sensibilidad
Las emisiones otoacústicas son sonidos de muy baja
intensidad que produce la cóclea debido al movimiento de
las células ciliadas externas. Fueron registradas por primera
vez en 1978 por el físico británico Kemp. [8] Las emisiones
otoacústicas transitorias provocadas (TEOAE), se originan
por un breve estímulo de tipo click o ráfagas de tonos. Pueden
grabarse en casi todas las personas con una audición normal.
Las TEOAE son extremadamente no lineales. Su patrón
de crecimiento es coherente con el funcionamiento del
amplificador coclear, que proporciona la mayor ganancia para
las entradas de bajo nivel, y sirve de base para la noción de
que las OAE surgen de la actividad de las células pilosas
externas. Las DPOAE son tonos producidos por el oído en
respuesta a dos estímulos de tonos puros simultáneos
conocidos como tonos primarios. Están distorsionados en
el sentido de que no están presentes en los estímulos de
tonos puros generadores. El estímulo de tono puro de
frecuencia más baja se denomina f1 primario, y el estímulo
con la frecuencia más alta se denomina f2 primario. El
producto de la distorsión medido más frecuentemente es a
una frecuencia de 2f1-f2, aunque la cóclea también produce
productos de distorsión a otras frecuencias. El producto de
la distorsión 2f1-f2 es el mayor producto de distorsión, y el
único utilizado con fines clínicos en la actualidad.
Estos dos tipos de emisiones otoacústicas constituyen
una herramienta clínica importante para el registro del
funcionamiento de la cóclea. Las bandas de frecuencia
medidas en estas pruebas de pesquisaje auditivo pueden
tener los siguientes valores: 2 000, 2 500, 3 187, 4 000,
5 062 y 6 375 Hz, con un estímulo de 55 a 65 dB para cada
banda de frecuencia. Las emisiones otacústicas son señales
de intensidad extremadamente débiles originadas en el oído
interno, el cual no solo es un transductor pasivo sino también
es capaz de producir sonidos, de tal manera que cualquier
debilidad o cambio en las emisiones otoacústicas es un índice
significativo de lesión auditiva.
Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez
DESCRIPCIÓN DEL EXPERIMENTO
Para poder conocer las características del transductor para
EOA, se empleó el diseño y construcción de una cavidad
(Phantom) con cualidades similares al canal auditivo humano;
teniendo en cuenta que al final del canal debe existir un
material capaz de reflejar la mayor cantidad de señal acústica
enviada a esta por el emisor del transductor. Las paredes
del canal acústico deben ser de un material absorbente del
sonido, para permitir la linealidad de la onda sonora; al ser
captada por parte del receptor para su registro eléctrico.
Además, este diseño simula el mecanismo de emisión y
captación de la señal, empleado en las pruebas
audiométricas con emisiones otoacústicas.
La cavidad Phantom fue construida por una impresora
tridimensional del tipo ZPrinter 310 Plus, la cual utiliza diseño
asistido por ordenador (figura 2) que por combinación de
capas de polvo (ZP 140) y cola (ZB 60) es capaz de construir
el volumen deseado. Esta pieza está compuesta por una
cavidad externa que protege el conducto auditivo externo,
ubicado con forma cilíndrica en el centro de la cavidad antes
mencionada con 8,74 mm de diámetro y 25 mm de largo,
medidas reales promedios del canal auditivo. La cavidad
posee un recubrimiento de poliuretano, material absorbente
del sonido, y al final de este canal un bloque de mármol,
material que refleja el sonido devolviendo la señal emitida
para ser captada por el receptor del transductor.
Para realizar la caracterización se utiliza un generador de
funciones (señal sinusoidal) para la estimulación del
transductor por la entrada del emisor, así la señal eléctrica
pasa a ser una señal sonora en el interior del Phantom donde
es reflejada por el mármol y captada por el receptor del
transductor para su conversión en señal eléctrica equivalente.
Fig. 2. Modelo del canal auditivo simulado por software Solid
Work Ofice Premium 2007.
La señal obtenida del transductor es débil y con ruido, por
lo que se utiliza un amplificador que permite la amplificación
diferencial de la señal; además, cuenta con un filtro activo pasobajo (fc=10 kHz), filtro activo paso-alto (fc = 0,1 Hz) y un filtro
Notch. El factor de amplificación usado es de 100, con el cual
se observa la señal sin saturación ya que no rebasa los límites
de la tensión de alimentación (9 V), valor que se logra con una
fuente comercial. A la salida del amplificador se encuentra la
sonda del osciloscopio digital que permite la medición de
amplitud y frecuencia para la caracterización del transductor
(figura 3).
Fig. 3. Diagrama en bloque del montaje experimental para la
caracterización del transductor.
RESULTADOS
En el proceso de caracterización se realizó un barrido de
frecuencias en el amplificador (figura 4) con filtro Notch y sin
él, para obtener su efecto y respuesta de frecuencias.
En la figura 4 se observa el efecto del empleo del filtro
Notch para suprimir los 60 Hz de línea y la atenuación de los
filtros: paso-alto a los 0,1 Hz y paso-bajo a los 10 kHz.
Posteriormente se procede a realizar la estimulación del
transductor según el montaje de la figura 3, situando el valor
de 6 Vpp en el generador y realizando el barrido de frecuencia
desde 0,1 Hz a 1 MHz (figura 5 a) y b)), con filtro Notch y sin
filtro Notch, para el cálculo del ancho de banda y el análisis
de las mejores frecuencias para el funcionamiento del
transductor.
Producto del barrido de frecuencias realizado al transductor
se obtiene un pico a los 3 kHz, donde se deforma la señal
sinusoidal, aunque el ancho de banda expresado en la
figura 5 contiene a los 3 kHz, no se utiliza esta zona para la
caracterización y se selecciona para este fin la zona
circulada. También se decide utilizar para la caracterización
en cuanto a linealidad el montaje donde se aplica el filtro
Notch, ya que en la gráfica sin filtro se observa una distorsión
en la meseta formada por los valores máximos de amplitud
(figura 5 b).
Luego de este resultado se procedió a la caracterización
de la linealidad. Se escoge de la zona de trabajo (figura 5a)
tres valores de frecuencia: uno bajo, uno medio y otro alto,
para al fijar cada uno por separado, variar la amplitud de la
Revista Cubana de Ingeniería
7
Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas
señal generada, y así poder realizar la caracterización de la
linealidad del transductor. Los valores seleccionados para
las mediciones fueron de: Frec.bajas = 5 kHz, Frec.
medias = 10 kHz, y Frec.altas = 19 kHz. Cada uno de estos
valores fue utilizado para obtener un grupo de valores de
amplitud estímulo vs respuesta (tabla 1).
b)
Fig. 5. Barrido de frecuencias del transductor. Gráfico
semilogarítmico maximizado: a) Con filtro Notch - Amp.
= 6 Vpp - Amplificación = 100; b) Sin filtro Nocht - Amp.= 6 Vpp
- Amplificación = 100.
a)
Ta bla 1
Va lores ob te nid os pa ra e l a nálisis d e la line a lida d a la s
tre s fre cue ncia s (tensión de l g ene ra do r vs re spue sta co n flitro No cht)
F ba ja s
(5 kHz)
F m e dias
(1 0 kHz)
F a lta s
(19 kHz)
Re spue sta
(V pp )
Resp uesta
(V p p)
Re spue sta
(V p p )
0,1
0 ,0 03 5
0,00 4 0
0 ,0 0 4 0
0 ,5
0 ,0 07 0
0,00 7 0
0 ,0 0 6 4
1 ,0
0 ,0 10 4
0,01 2 8
0,011 0
1 ,5
0 ,0 14 0
0,01 7 5
0 ,0 1 6 0
2 ,0
0 ,0 18 5
0,02 2 0
0 ,0 1 9 0
2 ,5
0 ,0 22 5
0,02 7 0
0 ,0 2 3 5
3 ,0
0 ,0 26 5
0,03 2 0
0 ,0 2 7 0
3 ,5
0 ,0 31 0
0,03 6 0
0 ,0 3 1 0
4,0
0 ,0 35 0
0,04 1 0
0 ,0 3 5 0
4,5
0 ,0 40 0
0,04 5 0
0 ,0 4 0 0
5 ,0
0 ,0 44 0
0,05 0 0
0 ,0 4 4 0
5 ,5
0 ,0 48 0
0,05 5 0
0 ,0 4 7 0
6 ,0
0 ,0 51 0
0,06 0 0
0 ,0 5 2 0
6 ,5
0 ,0 55 0
0,06 5 0
0 ,0 5 6 0
7 ,0
0 ,0 60 0
0,07 0 0
0 ,0 6 0 0
7 ,5
0 ,0 63 0
0,07 5 0
0 ,0 6 4 0
8 ,0
0 ,0 67 0
0,08 0 0
0 ,0 6 8 0
E stím ulo
(V pp )
b)
Fig. 4. Barrido de frecuencias del amplificador. Gráfico
semilogarítmico: a) Con filtro Notch - Amp. = 70 mVpp; b) Sin
filtro Notch - Amp. = 70mVpp.
a)
8
Revista Cubana de Ingeniería
Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez
Para conocer el valor de la ganancia en la etapa de
acondicionamiento de la señal, se estudia el margen
dinámico, donde la intensidad máxima que llega al receptor
(micrófono) es de 20 dB SPL (nivel de presión sonora), lo
cual sugiere la idea de provocar esta intensidad en la entrada
del receptor y esperar la amplitud máxima a su salida. Debido
a que este nivel sonoro es pequeño y no es de fácil obtención
por los niveles de interferencias y ruido, durante la medición,
se procedió a realizar la obtención de un grupo de valores de
intensidad mayor, en el intervalo de 70 a 100 dB. El montaje
se realizó dentro de una cámara anecoica ubicada en el
Centro de Neurociencias de Cuba (CNEURO), teniéndose
una configuración como la mostrada en la figura 6.
En la figura 6 se representa el generador de funciones el
cual emite una señal sinusoidal continua de amplitud controlada
y frecuencias de valores: 250 Hz, 500 Hz, 1 kHz, 2 kHz, 4 kHz
y 8 kHz, para el transductor que se encuentra dentro del
sonómetro, que da la intensidad en decibeles a la entrada del
receptor; para la obtención de la señal eléctrica en el
osciloscopio luego de ser amplificada 100 veces a la salida del
receptor. A partir del margen dinámico del receptor para las
frecuencias de interés se calcula la ganancia para la etapa de
acondicionamiento propuesta, escogiéndose 0,38 mV como
valor máximo de salida del receptor en 250 Hz.
Para saber con qué tensión se debe alimentar el emisor y
conocer la sensibilidad en decibeles SPL, se calculó la
impedancia de entrada del transductor. Esta se obtuvo
mediante un divisor de tensión (figura 7), dado por el valor de
amplitud del generador antes de conectar el transductor, y
luego de esta operación, se conoce que la impedancia de
salida del generador es de 50 
Con estos datos se trabaja y se obtiene una impedancia
de 160 ; lo cual explica la tensión usada para realizar la
caracterización con valor de 6 Vpp.
Fig. 6. Esquema de obtención del margen dinámico a la salida
del receptor del transductor.
Fig. 7. Esquema que representa el divisor de tensión para el
cálculo de la impedancia del transductor.
Esta impedancia es alta en comparación con los valores
típicos de bocinas.
Obtenida la impedancia se puede conocer la sensibilidad
del emisor del transductor que se da para 1 mW de consumo
a 1 kHz. Para este fin se debe buscar la tensión de
estimulación del emisor para una disipación de 1 mW, y así
con este valor de tensión efectiva, se obtiene la intensidad
de salida en decibeles, o sea, la sensibilidad. De la fórmula
de potencia se conoce:
P = V2 / ZX, se despeja la tensión para P = 1 mW con
ZX = 160
Ω , obteniéndose un valor de:
Sen. dB = 82,98 dB SPL con 1 mW de entrada a 1 kHz.
Por la forma de la salida del transductor o receptor, donde
se tienen tres conductores, dos de señal y uno común, se
usó una entrada del canal de medición de tipo diferencial,
como lo sugiere la conexión utilizada en el amplificador
empleado en la caracterización, lo que permitió una mejor
visualización de la señal. Siguiendo la razón de la salida
(conversor A/D) entre la entrada (receptor) se obtiene un valor
de ganancia de 6 578, 9 se decide usar ganancia de 6 000
para tener seguridad en el sistema, debido a que alguna
tensión mayor a la entrada calculada, pueda provocar la
saturación a la entrada del conversor y por consiguiente la
pérdida de datos. Como resultado del barrido de frecuencias
se tiene un intervalo de trabajo de 5 a 19 kHz, esta mínima
frecuencia coincide con los valores más utilizados en los
estudios de pesquisajes clínicos basados en EOA. No
obstante, en el filtrado de la señal del acondicionamiento se
plantea a partir de 250 Hz hasta 8 kHz, para poseer un mayor
espectro de frecuencias, dando la posibilidad futura de incluir
otros transductores con otras especificaciones. Además, se
deja pasar en el filtro hasta 8 kHz pues hasta el momento,
no se utilizan frecuencias mayores a esta, en los pesquisajes
auditivos de manera general.
En la figura 8 se ejemplifica el sistema de acondicionamiento
para la generación y adquisición del eco generado en la cóclea.
También en la figura 8 se aprecia la ganancia total calculada
(6 000), distribuida entre el amplificador de instrumentación
(AI) con G1 = 1 000, el filtrado con G2 = 6 y el ajuste de
tensión (G3 = 1) para lograr la armonización de tensión a la
Revista Cubana de Ingeniería
9
Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas
entrada del acondicionamiento. Este valor de ganancia está
calculado para la máxima tensión a la entrada (380 µVpp); y
se conoce del cálculo del margen dinámico que la tensión
varía con la frecuencia, por lo que este ajuste se lleva a cabo
en el interior del microcontrolador seleccionado. La etapa
del filtrado se diseñó con configuraciones por aproximación
de Butterworth en un montaje de realización: Sallen y Kay,
con atenuación en la banda de paso de -3 dB y en la banda
de atenuación de -25 dB (esta etapa acumula la ganancia
deseada de 6).
En la tercera etapa se realiza un ajuste de tensión, para
lograr pasar la señal de un intervalo que oscila con respecto
a 0 V, a uno que tenga todos sus valores solo en el eje
positivo, y de esta forma evitar pérdidas de información a la
entrada del conversor A/D. En el bloque del microcontrolador
MSP430, se tiene un conversor A/D de 12 b de resolución
para adquirir la información luego del acondicionamiento previo
de la señal de entrada. En este conversor se utilizan tensiones
de referencias: Vref+ = 2,5 V y Vref- = 0 V.
Para realizar la estimulación con las distintas frecuencias
solicitadas por el usuario, se cuenta con dos conversores
digitales analógicos (D/A) de 12 b de resolución, que son
capaces de sacar la señal de estimulación correspondiente
a cada frecuencia deseada; según el tipo de prueba de EOA
seleccionada por el usuario, ya sea EOAT o EOAPD, dado
que este último método es el único que emplea dos
conversores debido a que se procede a la estimulación con
dos frecuencias. A la salida de los conversores se cuenta
con la posibilidad de amplificar el estímulo en factor de
3 (característica propia del MSP430), por lo que se aprovecha
esta posibilidad para llevar la señal de estimulación de
2 Vpp a la salida del D/A al valor de 6 Vpp.
En el bloque de acondicionamiento se realiza el ajuste de
la señal amplificada en el valor deseado para la estimulación
del emisor (entre -3 y 3 V) para su entrega al transductor, el
cual la envía a través del oído para efectuar el pesquisaje.
DISCUSIÓN DE RESULTADOS
Para el análisis de la linealidad se graficó la amplitud de la
señal entregada por el generador al emisor del transductor
frente a la respuesta del receptor del transductor. En este
caso se obtiene una señal muy pobre del transductor, por lo
que se incluye en la caracterización una etapa de
amplificación. Se usó el asistente matemático MatLab (V7.5),
el cual posee un paquete estadístico de utilidad para el ajuste
lineal del grupo de puntos obtenidos en los tres casos.
Luego de alistados los datos en forma de vectores al
programa, se realiza la graficación mediante la función stem
(X,Y), la cual grafica los valores de forma puntual en una
ventana de aplicación que como parte de sus herramientas
estadísticas permite el ajuste lineal de los puntos (figura 9).
En la figura se expresa la gráfica para los tres valores de
frecuencia con la linealización y la ecuación de tendencia o
calibración.
Fig. 9. Respuesta de linealidad del transductor, con filtro
Notch: Frecuencias bajas 5 kHz; frecuencias medias 10 kHz;
y frecuencias altas 19 kHz.
Fig. 8. Diagrama en bloques del canal de acondicionamiento de la señal.
10
Revista Cubana de Ingeniería
Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez
Producto del ajuste ofrecido por la opción Basic Fitting de
MatLab, se obtienen las siguientes ecuaciones de calibración:
• y = 0,008 135 5x + 0,002 492 4 (Para 5 kHz).
• y = 0,009 575 6x + 0,002 776 7 (Para 10 kHz).
• y = 0,008 143 5x + 0,002 901 7 (Para 19 kHz).
A partir de estos modelos de ajustes se puede analizar el
error de cero (tensión de offset), el error de ganancia y el
error de no linealidad de ganancia (la figura 10 obtenida con
la herramienta MatLab, muestra los valores de distancia o
residuos de cada punto a la recta lineal), que caracterizan la
respuesta del transductor.
Fig. 10. Valores residuales (medida de cuán lejos se
encuentran los puntos de la curva de ajuste expresados en
barras) para el análisis del error de no linealidad de ganancia
del transductor.
De la figura 10 también se obtiene la norma de residuos o
media para todos los valores; esta es una medida de lo
alejado que se encuentran todos los puntos de la recta. A
continuación se presentan:
• norm = 0, 002 078 4 (Fbajas - 5 kHz).
• norm = 0, 001 776 9 (Fmedias - 10 kHz).
• norm = 0, 001 645 2 (Faltas - 19 kHz).
La tabla 2 muestra los errores obtenidos para cada campo
de frecuencias analizado. Al realizar la comparación de los
resultados de los errores, se puede identificar que el máximo
valor en el error de offset se obtiene en la medición a
altas frecuencias bajas y como se precia no rebasa los
3 mV. Este tipo de error puede ser compensado a través de
un proceso de calibración.
El error de ganancia ofrece la caracterización de la
sensibilidad del sistema, apreciándose que se mantiene
similar en los tres campos analizados 
( 0,99). El error de no
linealidad de ganancia (NLG) expresa el valor de la distancia
del punto más alejado a la recta de ajuste. En este caso la
situación más influyente se obtiene en bajas frecuencias.
Tabla 2
Resumen de errores obtenidos desde los resultados con
ayuda del utilitario MatLab
Frecuencias
(kHz)
Error de
cero (mV)
Error de
ganancia
Error de
NLG (x10-3)
Bajas (5)
2,492 4
0,991 8
0,897 8
Medias (10)
2,776 7
0,990 4
0,866 8
Altas (19)
2,901 7
0,991 8
0,883 0
El análisis de errores determina que la mejor medición por
su linealidad está relacionada con el empleo del transductor
a frecuencias medias, lo cual está en correspondencia con
lo obtenido en el barrido de frecuencias (figura 4 a) cuando
se adquiere una respuesta plana en este intervalo de
frecuencias.
En la etapa de acondicionamiento se analiza el
comportamiento de tensión en el dominio del tiempo, en cada
punto para comprobar los valores teóricos calculados con
anterioridad y proceder con el ajuste necesario. Para estos
f ines se coloca a la entrada del amplif icador de
instrumentación (AI) una fuente de tensión sinusoidal con
un valor de 380 uVpp (máximo valor obtenido en la
caracterización), para simular el receptor del transductor. A
la salida del AI se obtiene una tensión de 380 mVpp. Luego
la señal debe pasar por un proceso de filtrado donde el interés
lo constituye la limitación en un intervalo de frecuencia con
un filtro pasa banda y un pasa bajo para garantizar la
condición de Nyquist; la señal gana una amplitud de
1,4 Vpp aproximadamente, cumpliéndose así con lo
planteado en la distribución de ganancia.
En la generación de la señal se usan dos conversores
D/A que posee internamente el MSP430, y la cualidad que
estos tienen de amplificar en un factor de 3 a su salida la
señal; como la tensión que se genera en los conversores es
de 2 Vpp, mediante esta amplificación ya se obtiene el valor
de 6 Vpp deseado. Con motiv o de simular este
comportamiento se sitúa una fuente sinusoidal de 6 Vpp a la
entrada del bloque de acondicionamiento encargado de
realizar el ajuste de tensión, donde se desplaza la señal de
0 V - 6 V hasta el intervalo de -3 V - 3 V, logrando así la
estimulación en el emisor del transductor como se realizó
en la caracterización. En el dominio de la frecuencia es
interés realizar un barrido de frecuencia para observar el
espectro de la señal y comprobar si el ancho de banda
coincide con el deseado, en esta labor se realizan los ajustes
pertinentes.
CONCLUSIONES
Como parte de esta investigación se logró construir un
modelo físico o Phantom, para la simulación del canal auditivo,
Revista Cubana de Ingeniería
11
Sistema para pesquisaje auditivo en recién nacidos basado en emisiones otoacústicas
garantizando la continuidad sonora para las pruebas de
caracterización realizadas.
Se analizó las características geométricas del transductor
modelo Otoport DP+TE, de la firma Otodynamics,
evidenciándose las diferencias físicas entre el emisor y el
receptor.
Al realizar la caracterización del transductor, hubo la
necesidad de usar un amplificador de tipo diferencial pues el
nivel de señal a la salida del emisor es extremadamente
pequeño y con altos niveles de ruido. También se estableció
la tensión de estimulación (6 Vpp) y se comprobaron los
efectos de la alta impedancia de salida del transductor. En
el análisis del barrido de frecuencias, se determinó que la
mejor respuesta es obtenida utilizando filtro Notch a 60 Hz,
debido a que con este se elimina la modulación en la
frecuencia de la línea, que influye en los valores reales de la
señal. Además, al suprimir esta frecuencia no se afectan los
intervalos de medición utilizados en el pesquisaje con
emisiones otoacústicas.
Se observó un comportamiento inusual a los 3 kHz,
presentando un pico en la señal que puede ser justificado
por el diseño geométrico del transductor, el cual puede
producir a esa frecuencia un efecto de resonancia debido al
encapsulamiento del sistema emisor-receptor.
Del análisis de linealidad se obtuvo que las mejores
mediciones se adquirieron a frecuencias medias, donde
además se observó en el barrido de frecuencias de este
intervalo, una respuesta plana.
Los cálculos del margen dinámico del receptor, ganancia
del mismo y la impedancia del emisor, permitieron la
obtención de los valores a utilizar en la etapa de
acondicionamiento de la señal, usando el módulo de
conversores A/D y D/A del microcontrolador MSP430F1611
de Texas Instruments y otras componentes discretas para
la amplificación y filtrado de la señal.
Teniendo en cuenta los resultados de la caracterización
se diseñó el acondicionamiento para la estimulación y
adquisición de la señal de EOA. Se realizó la simulación en
el software Orcad Capture V16,0, posibilitando el análisis en
el tiempo y la frecuencia, lo cual contribuyó al ajuste de las
componentes en el diseño, siendo todas de valores
comerciales.
Se determinó por el estudio de la bibliografía consultada,
el mejor intervalo de frecuencias de EOA para pruebas clínicas,
referencia útil de diseño para el filtrado de la señal mediante
un filtro pasabanda de respuesta plana en el intervalo de
250 a 8 kHz. Es de destacar que las frecuencias entre
5 y 8 kHz son las más utilizadas en la clínica; pero en el
diseño se amplía la banda previendo el uso de otros
transductores en el equipo de distintas características
frecuenciales. Para alimentar el sistema se trabajó con
valores típicos como el de ±15 V.
El acondicionamiento está concebido para los tres tipos
de pruebas de EOA: EOAPD, EOAT y EOAE, al igual que el
12
Revista Cubana de Ingeniería
diagrama de flujo propuesto para la implementación de este
diseño con la ayuda de un microcontrolador
MSP430F1611IPM. En el diagrama se plantea la verificación
de los componentes del sistema, y se hace considerando
las bondades de la familia de microcontroladores MSP430,
tales como los conversores DAC y ADC, el controlador de
DMA, los temporizadores, la alta frecuencia de reloj, entre
otras. Se diseñó una propuesta de chasis o carcasa para el
equipo que en un futuro se implementará.
AGRADECIMIENTOS
Los autores desean agradecer el soporte brindado para la
investigación por los Proyectos: CIDA-TIER-394-TT-0200 con
instituciones canadienses y CNEURO S.A., en Ciudad de
La Habana, Cuba.
REFERENCIAS
1. MARCO, J. et al. "Control de calidad de un programa de
detección, diagnóstico e intervención precoz de la
hipoacusia en recién nacidos". Acta Otorrinolaringología
Español. 2004, vol. 55, p. 103 – 106.
2. GODOY, J. M. "Emisiones otoacústicas y métodos de
screening auditivo en recién nacidos". Revista Médica
Instituto Mexicano Seguro Social. 2003, vol.14, nº.1.
Disponible en: http://www.clc.cl/otorrinolaringologia.html.
3. KEMP, D. T. "Understanding and Using Otoacoustic
Emissions". [en línea] 1997. Disponible en: Otodynamics
Ltd http://www.oae-ilo.co.uk.
4. CUNNINGHAM, M. and COX, E. O. "Hearing Assessment in Infants and Children: Recommendations Beyond
Neonatal Screening". Pediatrics. 2003, vol.111, nº.2.
Disponible en: http://www.pediatrics.org/cgi/content/full/
111/2/436.
5. HERNÁNDEZ HERRERA, R. J. et al. "Tamizaje y
confirmación diagnóstica de hipoacusia. Neonatos de
alto riesgo versus población abierta". Revista Médica
Instituto Mexicano Seguro Social. 2007, vol. 45, nº 5,
p. 421 – 426. Medigraphic Artemisa en Línea.
6. PÉREZ-ABALO, M. C. et al. "Diagnóstico e intervención
temprana de los trastornos de la audición: una
experiencia cubana de 20 años". Revista Neurología.
2005, vol.41, nº.9. Disponible en: http://www.unirioja.es.
7. GONZÁLEZ DE ALEDO LINOS, A. et al. " Programa de
detección precoz de la hipoacusia infantil en Cantabria".
Boletín de la Sociedad de Pediatría de Asturias.
Cantabria, Castilla y León, España. 2001, vol. 41 nº 175,
p. 54 – 61.
8. KEMP, D. T. An illustrated history of OAE research and
applications through the first 25 years. The Institute of
Laryngology & Otology, the UCL Center for Auditory
Research and the Royal National TNE Hospital. USA,
2003. p.1 – 20.
Juliet Sánchez Galego - Ernesto Rodríguez Dávila - Ángel Regueiro Gómez
AUTORES
Juliet Sánchez Galego
Ingeniera Biomédica, Centro de Neurociencias de Cuba
(CNEURO), Ciudad de La Habana, Cuba
Ernesto Rodríguez Dávila
Ingeniero Electrónico, Especialista en Máquinas
Computadoras, Investigador Agregado, CNEURO, Ciudad de
La Habana, Cuba
Ángel Regueiro Gómez
Ingeniero Electrónico, Especialista en Máquinas
Computadoras, Doctor en Ciencias Técnicas en Electrónica
y Bioingeniería, Profesor Titular, Centro de Bioingeniería
(CEBIO), Instituto Superior Politécnico José Antonio
Echeverría, Cujae, Ciudad de La Habana, Cuba
Newborn Hearing Screening System Based on Otoacoustic Emissions
Abstract
Hearing is one of the five main senses, participating in the individual´s orientation and communication.
The auditory organ (vertebrate´s hearing), is in charge of the sound wave perceiving in the audible
band (20 Hz to 20 kHz). Due to the increment of the audiologic problems in the society and the
growing interest in our country of eradicate it since the 80´s, the investigation proposes the
characterization of a channel of entrance for audiologic tests, and the latter one audition investigation
in new born based in Otoacustic emission, as for characteristic of frequency, amplitude and trend
line; that which can be feasible and useful, because it contributes to the development of Universal
Investigation Devices existing in Cuba.
Key words: audition, otoacustic, transducer, diagnosis, new born
Revista Cubana de Ingeniería
13
Convocatoria
V Congreso Latinoamericano de Ingeniería
Biomédica (CLAIB 2010)
El Comité Organizador del CLAIB 2010, en representación del Consejo Regional de Ingeniería
Biomédica para América Latina (CORAL), se complace en invitarle al V Congreso
Latinoamericano de Ingeniería Biomédica. Profesionales de Latinoamérica y de todo el mundo
están invitados a participar en este importante evento, a celebrarse del 16 al 21 de mayo de
2011 en el Palacio de las Convenciones de La Habana.
El CLAIB 2011 se propone fortalecer la colaboración entre los especialistas de América Latina y
el Caribe y profundizar en la cooperación interdisciplinaria entre la Medicina, la Ingeniería y la
Física. El Congreso propiciará el intercambio fraterno de experiencias y conocimientos entre
los profesionales e instituciones vinculados a la Ingeniería Biomédica y ciencias afines con el
objetivo de ponerlas al servicio de quienes las necesitan en nuestra región y en el mundo.
La cita de La Habana en 2010, da continuidad a los encuentros celebrados en Mazatlán 98,
Habana 2001, Joao Pessoa 2004 e Isla Margarita 2007. Los congresos latinoamericanos
representan en la actualidad una tradición que estrecha nuestros lazos y un referente para los
profesionales de nuestra especialidad.
La Habana, presta a cumplir 500 ańos, con su misterio de mar, de cielo, de amor hecho gente,
te espera…
Coral
Consejo Regional de Ingeniería Biomédica
para América Latina
SocBio
Sociedad Cubana de Bioingeniería
Comité Organizador
CLAIB 2010-01-25
Para mayor información: http://www.claib2010.sld.cu
Revista Cubana de Ingeniería, 1(3), 15-24, 2010
BIOINGENIERÍA
Hemodinámica de aneurismas
de aorta abdominal y caracterización
morfométrica como posible indicador
de ruptura
Guillermo Vilalta Alonso
Correo electrónico:[email protected]
Fundación CARTIF, Centro Tecnológico, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España
Félix Nieto
Fundación CARTIF, Centro Tecnológico, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España
Melchor Rodríguez Madrigal
Correo electrónico:[email protected]
Instituto Superior Politecnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Laurentiu Lipsa
Fundación CARTIF, Centro Tecnológico, División de Ingeniería Mecánica, Parque Tecnológico de Boecillo, España
Joan O´Connor Blanco
Correo electrónico:[email protected]
Universidad de La Habana, Cuba
Resumen
La ruptura de aneurismas de aorta abdominal (AAA) representa un evento clínico muy importante
resultante de las modificaciones estructurales de la pared arterial que provocan un debilitamiento de la
pared arterial en combinación con las presiones hemodinámicas que actúan sobre esta. En un esfuerzo por aumentar la comprensión sobre este complejo fenómeno, en el presente trabajo se estudia la
influencia del grado de asimetría de los aneurismas de aorta abdominal, en los patrones de comportamiento de los principales factores hemodinámicos. Para esto, se han evaluado cuatro modelos
geométricos no realistas de AAA con diferentes grados de asimetría, sometidos a un flujo pulsátil
fisiológicamente realista, con el objetivo de evaluar e identificar las regiones donde ocurren las principales perturbaciones en los patrones de flujo y cómo esta modifica los campos de velocidades y de
tensiones hemodinámicas, en el interior del saco aneurismático. Se presenta una explicación de las
modificaciones de las estructuras vorticales y de la distribución de tensiones durante el ciclo cardíaco, cuyos resultados confirman que la asimetría de los aneurismas de aorta abdominal es uno de los
principales factores que influyen en su ruptura. Por otro lado, en el trabajo se abordan las bases para
establecer un método que, a partir de la morfometría de los AAA, permita determinar un indicador
numérico que caracterice el grado de evolución y el posible riesgo de ruptura de aneurismas, independientemente de su tamaño. Se esbozan los resultados iniciales de validación del método, sus actuales limitaciones y la proyección a corto plazo para continuar desarrollando el método.
Palabras clave: AAA, morfometría, riesgo de ruptura, factores biomecánicos
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
El proceso evolutivo de los aneurismas de aorta abdominal
(AAA) es un complejo proceso donde intervienen múltiples
factores relacionados, fundamentalmente con la remodelación
estructural de la pared arterial. En ciertas condiciones
específicas y aún no totalmente comprendidas, asociadas a
una progresiva degradación de la pared aórtica combinada
con factores hemodinámicos, el aneurisma tiende a
Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura
incrementar de tamaño con riesgo de ruptura lo cual, de
ocurrir, causaría hemorragia interna, con altos índices de
mortalidad y elevados costos asociados fundamentalmente
a la cirugía de urgencia y al tratamiento de recuperación de
los pacientes. Los aneurismas suelen ser asintomáticos, lo
cual impide que la ruptura pueda ocurrir con "aviso previo",
por lo que es altamente valorado cualquier esfuerzo que se
realice en el sentido de aumentar la comprensión sobre los
fenómenos asociados a la ruptura de los mismos.
Actualmente, desde el punto de vista clínico los indicadores
utilizados para evaluar el riesgo de ruptura de un aneurisma
son el diámetro máximo transversal y su tasa de crecimiento.
Cuando estos valores son del orden de 5-5,5 cm [1] y de
0,5-1 cm/año (independientemente del tamaño)
respectivamente, el paciente es sometido a una intervención
quirúrgica. Caso contrario se mantiene en observación,
sometido a chequeos periódicos. Sin embargo, existe
consenso [2] que estos indicadores no son precisos y en no
pocas ocasiones fallan. Por ejemplo [3] establecen que entre
un 10-24% de pequeños aneurismas (< 5cm de diámetro
máximo) rompen. Por otro lado, [4] publica un estudio de un
aneurisma de 10 cm de diámetro (sin que haya roto), caso
este, totalmente inusual desde el punto de vista clínico.
Debido a esto, en los últimos años se está realizando un
intenso esfuerzo de investigación en la integración de los
modelos a diferentes escalas que permitan mejorar la
predicción de la ruptura de aneurismas. En este sentido,
varios factores individuales y biomecánicos han sido
propuestos y estudiados [5-7] con el objetivo de evaluar cuál
es la real influencia de estos sobre el proceso evolutivo
(formación, desarrollo y posible ruptura) de los mismos.
Algunos de estos factores están relacionados con la
deformación que sufre la arteria aorta desde su condición
fisiológicamente sana hasta un determinado estado de
desarrollo de la patología. De forma general, los principales
parámetros geométricos que caracterizan el aneurisma son:
la longitud total del aneurisma LAAA, el espesor de la pared e
y el diámetro máximo transversal dMAX, AAA asociado al
diámetro del cuello aórtico, d AA. Los aneurismas son
esencialmente asimétricos debido a la restricción del
movimiento, impuesta por las vertebras lumbares, por lo cual
el índice de asimetría es considerado como uno de los
factores biomecánicos más importantes. La propia definición
de la asimetría de los aneurismas condiciona la existencia de
una superficie aneurismal muy compleja que ejerce una gran
influencia en las principales variables mecánicas asociadas a
la integridad estructural de la pared. Conforme [8], la asimetría
de los aneurismas provoca una distribución de máximo de
tensiones tangenciales de pared que crece no linealmente e
induce el surgimiento de flujos secundarios durante la diástole.
Asímismo, ha sido reportado [9] que un aneurisma asimétrico
con una distribución no uniforme de espesor de la pared debería
estar expuesto a mayores tensiones mecánicas, aumentando
el riesgo de ruptura si se compara con uno de espesor
constante.
16
Revista Cubana de Ingeniería
Otro importante factor relacionado con la geometría del
aneurisma es el índice de dilatación, definido como la relación
entre el diámetro máximo y la longitud anterior del aneurisma.
Observaciones clínicas indican que hay una relación inversa
entre el índice de dilatación y el riesgo de ruptura. En [10] se
reporta que los valores umbrales del índice sacular para
tratamiento de reparación y ruptura es 0,6 y 0,7
respectivamente.
La falta de comprensión de todos los procesos que están
relacionados con el desarrollo de los aneurismas, ha
imposibilitado la definición de un índice de riesgo de ruptura
de aneurismas de aorta abdominal que sea suficientemente
fiable y que permita mejorar la gestión clínica de esta
patología. La estimación precisa del riesgo de ruptura de
AAA, requiere de una detallada información personalizada
del paciente, así como de las propiedades materiales de la
pared arterial, del trombo intraluminal, las que están
relacionadas con los factores de riesgos asociados a esta
patología.
Atendiendo a estos aspectos, en el presente trabajo se
estudia la influencia de la asimetría de los aneurismas de
aorta abdominal, en la dinámica del flujo sanguíneo en el
interior del saco aneurismático y cómo este comportamiento
puede influir en el potencial de ruptura de los aneurismas.
MÉTODOS Y MATERIALES
Dominio computacional
Durante la realización del presente trabajo, se utilizaron
cuatro geometrías no realistas de aneurismas las que difieren
en el grado de asimetría, y fueron generadas en CATIA V.5R19
(Dessault Systèmes, Paris). Para la generación de estos
modelos, y como método para la validación del modelo
computacional, fue utilizado el método propuesto en [9], donde
se define el grado de asimetría  según la ecuación (1):

r
R
(1)
siendo r y R los radios medidos en la sección media del
saco aneurismático, desde el eje axial (z) entre las paredes
posterior y anterior respectivamente. El dominio que
representa el fluido (sangre) está caracterizado por una
sección circular paralela al plano xy, cuyo diámetro
representativo de la entrada y salida es constante e igual a
d = 2 cm y por un diámetro máximo de D = 3 d, ubicado en
la sección media del saco aneurismático. Puede notarse
que al hacer esto, se asume que cada modelo que representa
el aneurisma, tiene un diámetro máximo transversal mayor
que el valor umbral, por lo cual se encuentra en el rango
adecuado para ser sometido a reparación quirúrgica, según
la práctica médica actual y favorece el análisis de las
tendencias de los diferentes factores geométricos con el
riesgo de ruptura. La geometría que define este dominio,
está representada por la ecuación (2) que caracteriza el
diámetro correspondiente a cada sección transversal, d(z) y
Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco
la asimetría representada por la desviación del centroide en
el eje y, z.
 

 
z  6d   2 
d  cos
d (z)   
 3d




d

z 
3 1 

4  1  

d ( z)  d 

El pulso usado fue medido, in vivo, utilizando un Doppler
US realizado a un paciente con aneurisma. La serie discreta
de Fourier del pulso medido puede ser expresada como:
16
 2  16
 2 
Q(t )  Qo   an cos n
t    bn sin n
t
 T  n 1
 T 
n 1
(2)
3d  z  9d
0  z3d ; d  z 12d
La figura 1 muestra el modelo geométrico para  = 0,2
utilizado en el presente trabajo, siendo L la longitud del
aneurisma y LT la longitud total del segmento aórtico.
(5)
donde:
Q o : Componente del caudal correspondiente a la
componente permanente del flujo.
N = 16: Representa el número de modos de Fourier usados
T : Período del pulso medido.
A partir de la ecuación (5), fue calculado el perfil temporal
de velocidades, totalmente desarrollado, utilizando la teoría
de Womersley. [11]

 32
 
 J0   n i r Ra   
 /
1 
 i 3 2   

J
 

0 n

   int
2Q0 
r 2  N Qn 
1 

u( r , t ) 


e

2 

3
A  Ra  n1 A 
 i 2   
2
J

  
1 n


 
1  3  3   
  n 2 J0   n i 2   


  
(6)
Fig. 1. Modelo de AAA, con grado de asimetría  = 0,2.
Ecuaciones de gobierno y condiciones de contorno
Las ecuaciones de gobierno para el dominio del fluido,
son las ecuaciones de continuidad y de Navier-Stokes, a las
que se le aplicaron las siguientes consideraciones:
homogeneidad, incompresibilidad, comportamiento
newtoniano y pulsátil, en ausencia de fuerzas de campo,
con densidad,  = 1 050 kg/m3 y coeficiente de viscosidad
dinámica,  =0,004 Pa.s. Estas ecuaciones, en su forma
compacta, se representan por las ecuaciones (3) y (4).
. u  0
(3)
Du
1
  p   2u
Dt

(4)
donde:
u: Vector velocidad.
p: Presión.
siendo Jo y J1 las funciones de Bessel de primer tipo de
orden 0 y 1 respectivamente, A es el área de la sección
transversal, Ra el radio representativo de la aorta no deformada
y n es el parámetro de Womersley. El perfil resultante se
muestra en la figura 2.
Método numérico
Las ecuaciones de gobierno son resueltas utilizando el
software ANSYS V.11 (Ansys Inc., Canonsburg PA), el cual
usa el método de volúmenes finitos, para la discretización
espacial del dominio.
Fig. 2. Pulso en velocidad utilizado en el presente estudio.
Revista Cubana de Ingeniería
17
Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura
El método de integración temporal utilizado es el second
order backward Euler, con un tiempo de paso (timestep) de
0,01 s, lo que permitió obtener resultados en intervalos de
1/100 s y un tiempo total de simulación correspondiente a
seis veces al ciclo cardíaco. Los resultados utilizados
corresponden al último ciclo, donde se comprobó que estos
son independientes de las condiciones iniciales consideradas
en las simulaciones (t = 0 s). Las pruebas para la evaluación
de la convergencia de las soluciones, fueron realizadas
modificando básicamente los parámetros relacionados con
el refinamiento de la malla en los lugares de interés para la
dinámica del fluido (regiones de gran curvatura y efectos de
pared), comprobándose que cuando la región de pared
alcanza el valor de 1/3 del diámetro representativo de la arteria
aorta, no se producen significativos cambios en los patrones
de flujo. Se han considerado paredes rígidas.
RESULTADOS Y DISCUSIÓN
Es conocido que la dinámica del flujo sanguíneo en el
interior del sistema circulatorio está gobernada por la
interacción entre la pared arterial y el flujo sanguíneo,
condicionando uno el comportamiento del otro, siendo los
principales factores que lo caracterizan la distribución de
tensiones de pared y la estructura de vórtices.
Uno de los aspectos que condiciona el comportamiento
del fluido en el interior de los aneurismas, es el grado de
distorsión con que penetra el fluido, debido a la deformación
de la arteria. Este fenómeno está documentado en trabajos
que utilizan geometrías realistas [4] y virtuales [12].
Atendiendo a los objetivos del presente trabajo, se considera
que la aplicación de un perfil de velocidades parabólico y
completamente desarrollado, como el que fue definido,
permite caracterizar la hemodinámica en el interior del saco
aneurismático.
Para el análisis del campo de flujo en el interior del saco
aneurismático, se han seleccionado los modelos que
representan los extremos de la asimetría, = 0,2 (mayor
asimetría) y  =0,8 el cual es casi simétrico. Los tiempos
estudiados se corresponden con los puntos de mayor interés
dentro del ciclo cardíaco, t = 0,2 s, t = 0,4 s, t = 0,5 s
y t = 0,7 s. Estas regiones son las de inicio de la aceleración
sistólica (1), la de máxima valor durante la sístole (2), un
punto en la desaceleración sistólica (3) y un punto en la
etapa diastólica (4). Se incluye también el análisis
correspondiente a t = 0 s, por la importancia que tiene en la
discusión de los resultados.
Los resultados se muestran en la figura 3, a través de la
presentación de los vectores de velocidad resultante en el
plano medio y-z, de la geometría.
Una característica importante de este análisis es que el
campo de flujo está dominado por la presencia de vórtices
en las regiones próximas de la pared del saco aneurismático.
Del análisis integral del ciclo cardíaco (seis ciclos
estudiados), se observa que al inicio de cada ciclo (t = 0 s)
18
Revista Cubana de Ingeniería
existen vórtices residuales del ciclo. A medida que disminuye
la asimetría, se forma un chorro de flujo que atraviesa la
región central del saco aneurismático, generando dos núcleos
vorticales de menor tamaño que el existente cuando el
aneurisma es más simétrico. Este comportamiento es típico
hasta t = 0,2 s, aproximadamente. En este momento, ocurre
un crecimiento de la región de recirculación, justo antes que
se inicie la aceleración sistólica, y que llega a ocupar casi
toda la región correspondiente al bulbo aneurismático,
aumentando la intensidad, con el nivel de asimetría. De igual
forma, en esta etapa existen vórtices de baja velocidad en el
extremo convergente del aneurisma, por la pared posterior.
Esto resulta en vórtices que forman un lazo alrededor del
núcleo de flujo. Por lo tanto, los extremos proximal y distal
están caracterizados por velocidades negativas en regiones
cercanas a la pared, lo que se supone que es debido a los
efectos convectivos que surgen como resultado del cambio
de geometría. En la primera mitad de la sístole, el gradiente
de presión eyecta vórtices aguas arriba, a medida que el
flujo se va acelerando en el tiempo. Las máximas velocidades
y gradiente de velocidades son obtenidos en el pico máximo
de velocidad, donde un patrón casi simétrico se forma en el
saco aneurismático. La desaceleración temporal combinada
con débiles efectos convectivos, son los factores dominantes
en la segunda mitad de la sístole, donde chorros de alta
v elocidad, prov ocan signif icativas perturbaciones
hemodinámicas, las que se inician en la etapa (3).
A mitad del ciclo cardíaco, aproximadamente t = (0,6) s,
ocurre una reversión del flujo, causando una disminución de
la intensidad de la recirculación del flujo y un movimiento del
vórtice hacia el centro y aguas abajo del aneurisma. Esto
resulta en una extensión de la estela del vórtice hacia la
sección de entrada del AAA. Durante la diástole, el flujo
recupera su dirección original con una ligera aceleración que
provoca la traslación del vórtice principal hacia el extremo
distal y la supresión de la estela. El final de esta fase, está
caracterizado por un flujo casi constante y una intensificación
de las perturbaciones debido al incremento de la velocidad
local. Estos resultados son consistentes con otros de la
literatura [8].
Este análisis se complementa con el estudio del efecto
de la asimetría en la dinámica de los flujos pulsátiles, la
que, como se observa, se corresponde con un patrón de
flujo muy complejo. Para la etapa (1), cerca del extremo de
salida del aneurisma, existen zonas de recirculación que se
extienden hacia la pared anterior provocando una aceleración
del flujo en el núcleo central que viaja hacia la pared posterior,
actuando fundamentalmente sobre la región de gran curvatura.
En el momento de máximo valor del pulso (t = 0,4 s), se
muestra una significativa variación en el comportamiento de
los patrones de flujo, el cual se hace más uniforme sobre la
pared posterior y la ampliación de la zona de recirculación y
formación de vórtices en la región correspondiente al saco
aneurismático. Se observa, aparentemente, la formación de
Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco
dos núcleos vorticales. Durante la desaceleración sistólica,
la región de recirculación se hace más significativa sobre la
pared del aneurisma, lo que tiende a provocar un achatamiento
de las estructuras vorticales, las que se acercan al núcleo
del flujo que circula desde el cuello de entrada al de salida.
Ya en la etapa final del ciclo, se muestra un significativo y
asimétrico patrón de recirculación donde los vórtices son
arrastrados hacia la salida del aneurisma.
Tensiones tangenciales de pared provocadas por el
campo de flujo
La asimetría de los AAA, ejerce una gran influencia sobre
la distribución de las tensiones tangenciales de pared. La
figura 4, muestra la distribución superficial de tensiones
tangenciales para diferentes condiciones de asimetría
( = 0,8; = 0,6 y = 0,2 y tiempos de ciclo cardíaco.
t=0s
t = 0, 2 s
t = 0,4 s
t = 0,5 s
t = 0,7 s
a)
b)
Fig. 3. Vectores velocidad que representan el campo de flujo en el interior de AAA, para valores de asimetría extremos:
a)  = 0,2 y b) = 0,8, en diferentes etapas del ciclo cardíaco.
Revista Cubana de Ingeniería
19
Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura
Para t = 0,2 s, donde la curva de velocidad pulsátil está
próxima a un punto de inflexión, las tensiones tangenciales
presentan una distribución relativamente similar, siendo el
rasgo más significativo la distorsión que provoca en este
comportamiento los efectos causados por la imposición de
un perfil de velocidades totalmente desarrollado como
condición de entrada, lo cual ha sido reportado por otros
autores. Esto se refleja con altos valores de tensión en el
cuello de entrada al aneurisma. Justo después de la entrada
al saco aneurismático, los patrones de velocidades provocan
regiones de bajas tensiones, las que alcanzan sus valores
menores a medida que se modifica la simetría del aneurisma.
Aguas abajo de esta sección de máximo diámetro, el
extremo distal se caracteriza por patrones simétricos de flujo
y regiones de recirculación las que inducen a gradientes de
velocidad no uniformes y a un significativo incremento de las
tensiones. Estas perturbaciones de flujo, diferencian el final
de la diástole de un ciclo, de la sístole del siguiente, mientras
que los vórtices remanentes de un ciclo permanecen en el
inicio del siguiente. En las regiones de máximas tensiones
tangenciales, estas varían hasta un 15 % aproximadamente,
a medida que aumenta el grado de asimetría de los
aneurismas.
t = 0,2 s
t = 0,4 s
Fig. 4. Distribución de la tensión tangencial de la pared para diferentes índices de asimetría y etapas del ciclo cardíaco:
a)  = 0,8; b)  = 0,6 y c) = 0,2.
20
Revista Cubana de Ingeniería
Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco
Los máximos valores de tensiones tangenciales durante
el ciclo cardíaco, se obtienen en la etapa correspondiente al
máximo sistólico (t = 0,4 s) donde, como ya fue analizado,
las velocidades y los gradientes espaciales de esta, son
mayores. Los patrones de flujo completamente adheridos a
la pared arterial, producen valores positivos de tensiones en
todo el aneurisma cuyo patrón es aproximadamente uniforme
hasta la sección media del aneurisma, independientemente
del grado de asimetría. Esta uniformidad es obtenida tanto
en la pared anterior como posterior.
El análisis de la distribución de tensiones en el extremo
distal muestra interesantes aspectos. Se debe tener en
cuenta, como ya fue analizado, que esta región está
caracterizada por patrones de flujo que se contraen a medida
que la aceleración convectiva domina el flujo a fin de que
pueda satisfacerse la conservación de la masa, lo cual
provoca un incremento de las tensiones tangenciales y
distribuciones asimétricas de esta. Como resultado, las
regiones de ocurrencia de los máximos de tensiones
tangenciales de pared, se obtienen en el extremo distal de
la pared anterior del aneurisma. Los incrementos de
tensiones a medida que aumenta la asimetría de los
aneurismas, están en el orden de 30 %. Las restantes etapas
del ciclo cardíaco analizadas (t = 0,4 s y t = 0,7 s) muestran
comportamientos cualitativ amente similares, con
incrementos de las tensiones a medida que aumenta la
asimetría del orden de 17 %, en ambos casos.
Factores biomecánicos asociados a la morfometría
de los AAA como indicadores del riesgo de ruptura
Cuando se analiza el proceso evolutivo de los AAA, se
observa que existen varios factores que ejercen una
significativa influencia en el mismo, debido a lo cual la
evaluación de la variación temporal de estos factores puede
constituir un indicador de la evolución de los aneurismas.
En este sentido se definen, en su concepto más general,
los factores biomecánicos como la variación temporal de un
factor que caracteriza cuánto este se aleja de su condición
fisiológicamente sana o de un estado de desarrollo previo.
Atendiendo a los diferentes niveles de las escalas
dimensionales existentes en el cuerpo humano en general y
en la patología de aneurisma en particular, se definen tres
tipos de factores biomecánicos.
Los factores biomecánicos biológicos (FBBs) caracterizan,
a nivel molecular y celular, el proceso degenerativo que ocurre
en la pared arterial y comprenden las modificaciones en sus
propiedades mecánicas y los cambios netos en la matriz
extracelular (contenido de elastina y colágeno). Poca
información existe de cómo estos factores están relacionados
con los factores de riesgos en pacientes con aneurismas,
aunque existe consenso de que los principales parámetros
que caracterizan estos cambios son: contenido de calcio,
estrés oxidativo y las concentraciones de metaloproteinaza
(MMP). [13 -16]
Los factores biomecánicos mecánicos (FBMs) son
aquellos que caracterizan la integridad estructural del
aneurisma, al considerar el aneurisma como un elemento
mecánico. Para comprender mejor esta definición, es
importante recordar que la ruptura de un aneurisma es un
fenómeno biomecánico que ocurre cuando las tensiones
mecánicas que actúan sobre la pared interior, exceden el
esfuerzo de fluencia del tejido aórtico aneurismático. Los
principales FBMs son: las tensiones mecánicas, la rigidez
de la pared arterial, índice de ruptura potencial y la presencia
de trombo intraluminal. Un amplio resumen de estos factores
puede ser encontrado en la bibliografía [5, 6].
Los factores biomecánicos geométricos (FBGs)
caracterizan la morfologia y la morfometría de los aneurismas,
al relacionar la variación de los principales parámetros
geométricos y la forma del aneurisma. Los principales FBGs
propuestos en la literatura [17] son: Tasa de deformación,
tasa de expansión, índice sacular, índice de asimetría y
espesor de la pared arterial.
Atendiendo al carácter multifactorial del proceso evolutivo
de los AAA y a la reconocida poca precisión de los métodos
que actualmente se emplean para decidir sobre el tratamiento
de pacientes con aneurismas, se está imponiendo en el
mundo la idea de integrar, en un indicador, los factores
característicos de las diferentes escalas con el objetivo de
obtener de la forma más realista, rápida y fiable posible,
cómo estos se encuentran interrelacionados y cúal es su
real influencia en el proceso estudiado.
Esta idea, aunque novedosa e interesante, no deja de ser
compleja y depende de un amplio esfuerzo multidisciplinar,
donde no siempre están disponibles todos los recursos
necesarios. En un primer intento de mejorar la precisión en
la evaluación de riesgo de ruptura utilizando solo una parte
de la información necesaria para análisis más complejos,
se propone emplear los FBGs como indicadores de grado
de evolución y desarrollo de los aneurismas. Dicha propuesta
se fundamenta en que los parámetros geométricos que
caracterizan el aneurisma y sus correspondientes factores
biomecánicos, son de fácil comprensión y determinación,
su procesamiento es instantáneo y se basa en información
personalizada de pacientes.
El procedimiento propuesto, se basa en la siguiente
metodología:
Inicialmente, y después de definir los principales parámetros
geométricos, se analizó la forma más apropiada de
relacionarlos, a partir de lo cual se establecieron los factores
biomecánicos asociados a la morfología y la morfometría
(las referencias geométricas se muestran en la figura 1).
1. Diámetro máximo transversal, D. Es el parámetro que
caracteriza el grado real de desarrollo del aneurisma y
constituye actualmente el principal criterio médico para
evaluar el tratamiento a seguir con pacientes aneurismáticos.
Pero como la ruptura de los aneurismas está relacionada
con la deformación arterial real y el diámetro de la arteria
aorta varía en un rango entre 1, 5 y 2,5 cm, es obvio que este
no es un criterio preciso. Por lo tanto, para mejorar la exactitud
en la evaluación de la deformación arterial se establece el
parámetro tasa de deformación X, definido como relación
entre D y d.
Revista Cubana de Ingeniería
21
Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura
2. Longitud del aneurisma, L. Es la longitud del segmento
aórtico que se ha deformado y que representa el AAA. No
constituye un FB en sí, pero se utiliza directa o
indirectamente, en el cálculo de alguno de ellos.
3. Índice de asimetría,  Se define por la ecuación (1).
4. Índice de dilatación . Relaciona el diámetro máximo
del aneurisma D con su longitud, L.
5. Tasa de crecimiento, . Es considerado un importante
indicador para estimar la ruptura de AAA. Se determina como
el incremento en el diámetro máximo transversal del
aneurisma en el tiempo (usualmente entre dos revisiones
consecutivas).
6. Espesor relativo,. Relaciona el espesor medio de la
pared arterial en el plano de diámetro máximo.
Una vez definidos los FBGs, el estudio se dividió en tres
tareas. La primera consistió en determinar los valores
umbrales inferior y superior correspondientes a cada factor
biomecánico. Para esto se estudiaron y definieron los
parámetros limites que def inen las condiciones
fisiológicamente sana y patológicas.
Posteriormente, se procedió a determinar el coeficiente
ponderado, i (peso relativo) de cada uno de ellos en el
proceso evolutivo, así como el nivel de riesgo ponderado,
NRPi. El coeficiente ponderado de cada FBGs, determina la
incidencia de cada uno en la ruptura, o sea, qué porcentaje
de rupturas ocurre por esa causa. Para definir el NRPi, cada
factor biomecánico se dividió en 4 categorías: Bajo riesgo
de ruptura, medio, alto y peligroso, a los que se le definió a
través de un estudio estadístico, los valores umbrales
correspondientes.
Los resultados obtenidos utilizando la información
disponible en [18], se muestran en la tabla 1.
Los subíndices A y P en la ecuación del cálculo de la tasa
de crecimiento, están relacionados con dos revisiones
médicas consecutivas: A es la revisón actúal (última), P es
la previa.
Por lo tanto, el indicador cualitativo del riesgo de ruptura,
RI(t) puede ser determinado como la suma, para cada factor
biomecánico, del coeficiente ponderado i multiplicado por el
correspondiente valor del nivel de riesgo ponderado, NRPi,
como se expresa en la ecuación (7).
Considerando los resultados de RI(t), es posible sugerir
varias acciones al médico. En esta parte inicial de
implementación del método, se ha propuesto utilizar los
siguientes indicadores. Si RI(t) < 0,2; el riesgo de ruptura es
muy bajo y no se sugiere ninguna acción. Cuando el índice
de riesgo está en el rango entre 0,2 y 0,45, el riesgo de
ruptura es bajo y la acción recomendada es que el paciente
se mantenga bajo observación. Si RI(t) es mayor que 0,45,
el facultativo debe considerar la realización de un tratamiento
quirúrgico, observando otros síntomas que indiquen la posible
ruptura del aneurisma, como: Dolor en la espalda y
abdominal, vómitos, síncope etc. Cuando el valor de RI(t) es
mayor que 0,7 el riesgo de ruptura es muy alto, sugiriéndose
de inmediato la realización del tratamiento quirúrgico.
6
Ri (t )   iNRPi
(7)
i 1
Validación inicial del método
La validación inicial del método ha mostrado resultados
positivos, seleccionándose para esto un caso clínico
y tres casos de la literatura.
Tabla 1
Caracterización de los factores biomecánicos geométricos
Valores umbrales
FBGs
Definición
Bajo
riesgo
Medio riesgo Alto riesgo
Peligroso
Coeficiente
ponderado,
 [18]
Tasa de
deformación, 
D
d
1,20-1,70
1,71-2,30
2,31-3,29
 3,3
0,35
Índice de
asimetría, 
r
R
1-0,9
0,8-0,7
0,6-0,5
 0,4
0,10
Índice de
dilatación, 
D
L
 0,75
0,74-0,69
0,68-0,61
 0,6
0,10
Espesor
relativo, 
t
D
0,05-0,042
0,041-0,025
0,.024-0.011
 0,01
0,20
0,25
Tasa de
crecimiento, 
Nivel de riesgo
Ponderado,
NRPi [18]
22
D
A
 DP 
T
0,1-0,17
0,18-0,3
0,31-0,49
 0,5
0,1
0,3
0,7
1
Revista Cubana de Ingeniería
Guillermo Vilalta Alonso - Félix Nieto - Melchor Rodríguez Madrigal - Lipsa Laurentiu - Joan O´ Connor Blanco
En todos los casos la geometría de los aneurismas y las
condiciones específ icas de pacientes dif ieren
significativamente. En el caso clínico se analizó un paciente
con aneurisma cuyo diámetro era menor que el valor umbral
(50 mm). El valor obtenido del índice de riesgo para las
condiciones específicas de este paciente sugería que el
paciente presentaba alto riesgo de ruptura por lo que debería
considerarse la realización del tratamiento quirúrgico. Este
resultado finalmente fue confirmado, pues durante el período
de observación (al que estaba sometido el paciente
atendiendo a los criterios que rigen la práctica médica actual)
tuvo que ser sometido a una cirugía urgente de reparación
debida a la ruptura del aneurisma por la pared posterior. En
el caso de la validación del método a partir de casos públicos
que aparecen en la literatura [5], los resultados fueron
coincidentes. Debido a los resultados iniciales, se ha decidido
comenzar un estudio más amplio, en el cual participan
12 pacientes con aneurismas, que son tratados en el Hospital
Clínico de Valladolid. Para mayor información de los
resultados, puede consultarse [19].
Sin embargo, estos resultados iniciales no deben esconder
que la complejidad y el carácter multifactorial que caracteriza
el proceso evolutivo de los AAA, establece una estrecha
relación entre los parámetros individuales y los factores
biomecánicos en general (biológicos, mecánicos y
geométricos) y que cada uno incide en el comportamiento
del otro. De aquí que la obtención de un índice útil, fiable y
preciso debe considerar la interrelación entre estos factores,
lo cual constituye actualmente un objetivo de médicos
vasculares y científicos relacionados con esta temática.
Como todo método en su estado de desarrollo, el aquí
presentado tiene limitaciones, las que están asociadas
principalmente a la precisión en la determinación de los
parámetros geométricos, principalmente el espesor de pared,
debido a la dificultad de extraer un valor exacto por la
presencia de tejido circundante y por las variaciones de su
valor entre las distintas regiones de la pared aneurismática.
CONCLUSIONES
En el presente trabajo se realizó un estudio numérico para
determinar la influencia de la asimetría de los aneurismas
de aorta abdominal (AAA), en las posibilidades de ruptura,
utilizando un modelo constitutivo de la sangre de tipo pulsátil,
incompresible, homogéneo, laminar y newtoniano. Para esto
se utilizaron cuatro modelos virtuales de aneurismas, que
se caracterizaron por presentar diferentes grados de
asimetría, definidos por el parámetro . La investigación se
basó fundamente en el análisis de los patrones de campo
de flujo, con énfasis en el comportamiento de las estructuras
de vórtices y regiones de recirculación y en estudio de la
distribución de las tensiones tangenciales.
La dinámica de las estructuras de vórtices, están bien
caracterizadas en las etapas del ciclo cardíaco y modelos
geométricos asimétricos estudiados. Esta puede ser
resumida a partir de considerar la existencia de vórtices
residuales del ciclo anterio r en el próximo ciclo. Al inicio de
la aceleración sistólica, ocurre un movimiento de los vórtices
(residuales) hacia la región de la pared anterior del aneurisma,
acompañados estos con zonas de recirculación dominantes
en el saco aneurismático. Con el aumento de la velocidad
del flujo sanguíneo, etapa 2, los vórtices forman un lazo
alrededor del núcleo del chorro que atraviesa el aneurisma lo
que provoca la eyección de los vórtices aguas arriba. En
etapas siguientes, estas estructuras se desplazan hacia el
centro y hacia la región de salida del aneurisma, ejerciendo
una importante influencia sobre esta superficie. Dicho
comportamiento se ve igualmente reflejado en la distribución
de tensiones tangenciales, las cuales muestran sus mayores
valores en esta región, y se incrementan con el aumento del
grado de asimetría.
Se presentan las ideas principales para el desarrollo de un
método que permita determinar, a través de un indicador
numérico y personalizado, la evolución de los aneurismas y
sus posibilidades de ruptura utilizando apenas los parámetros
geométricos del aneurisma. El método se basa en definir
adecuadamente los factores biomecánicos geométricos como
relaciones funcionales entre los parámetros geométricos, a
los cuales y mediante un estudio entre especialistas se
establecieron los valores umbrales, y los coeficientes y el nivel
de riesgo ponderados. Los resultados iniciales de validación
del método fueron positivos, debido a lo cual se procedió a un
estudio de casos con 12 pacientes con aneurismas en el
Hospital Clínico de Valladolid.
AGRADECIMIENTOS
Los autores agradecen al Ministerio de Ciencia e Innovación,
a través del proyecto "PTQ06-2-0218", a la Junta de Castilla
y León, mediante el proyecto "Simulación avanzada de
sistemas deformables II" y al Instituto Superior Politécnico
José Antonio Echeverría, de Cuba con el proyecto
"Modelación del proceso evolutivo de aneurismas cerebrales
y aórticos utilizando MEF", el apoyo financiero para la
realización del presente trabajo.
REFERENCIAS
1. HASSEN-KHODJA, R. et al. "Impact of aortic diameter
on the outcome of surgical treatment of abdominal aortic
aneurysm". Ann. Vasc. Surg. 2001, nº 15, p. 136–139.
2. CAPELLER, W. A. "Possible objectification of a critical
maximun diameter for elective surgery in abdominal aortic
aneurysm based one and three dimensional ratios". Journal of Cardiovascular Surgery. 1997, vol. 38, p. 623-628.
3. FILLINGER, M. et al. "Prediction of rupture in abdominal
aortic aneurysm during observation: Wall stress versus
diameter". J. Vasc Surg. 2003, nº 37, p. 724-732.
4. PAPAHARILAOU, Y. A. et al. A decoupled fluid structure
approach for estimating wall stress in abdominal aortic
aneurysm. Journal of Biomechanics. 2007. nº 40.
p. 464-475.
5.KLEINSTREUER, K. et al. "Analysis and Computer Program for Rupture-risk Prediction of Abdominal Aortic Aneurysms". Biomedical Engineering. 2006, vol. 5. nº 19.
6. VANDE GEEST, J. "A Biomechanics-based Rupture
Potential Index for Abdominal Aortic Aneurysm Risk
Assessment". Ann. Ny Acad. Sci. 2006, vol. 11. p.1085.
Revista Cubana de Ingeniería
23
Hemodinámica de aneurismas de aorta abdominal y caracterización morfométrica como posible indicador de ruptura
7. VILALTA, G. et al. "Influence of abdominal aortic aneurysms geometry in the blood flow dynamics and in its
rupture risk". Ingeniería Mecánica, 2009, vol. 2, p. 29-37.
8. FINOL, E. A. et al. "The effect of asymmetry in abdominal aortic aneurysm under physiologically realistic
pulsatile flow conditions", Journal of Biomechanical Engineering, 2003, vol. 125, nº 2, p. 207.
9. SCOTTI, C. M. et al. "Fluid-structure interaction in abdominal aortic aneurysms: Effects of asymmetry and wall
thickness". Biomedical Engineering OnLine, 2005,
vol. 64, nº 4.
10. MILLS, C. et al. "Pressure-flow relationships and vascular impedance in man". Cardiovasc. 1970, vol. 4,
p. 405-441.
11 WOMERSLEY, J. R. "Method for the calculation of velocity, rate of flow and viscous drag in arteries when the pressure gradient is know". J. Physiol. 1955, vol. 127, p. 553563.
12. PAPAHARILAO, Y. and EKATERINARIS, J. A. The influence of asymmetric inflow in abdominal aortic aneurysm hemodynamics. En European Conference on
Comp. Fluid Dyn. 2006.
13. BOHÓRQUEZ-SIERRA, J. C. "Metaloproteinasas de
matriz: su implicación en las enfermedades vasculares
periféricas". Angiología, 2006, vol. 58, nº 4, p. 269-277.
14. DOBRIN, P. B. and Mrkvicka, R. "Failure of elastin or
collagen as possible critical connective tissue alterations underlying aneurysmal dilatation". Cardiovasc
Surg. 1994, vol. 2, p. 484-488.
15. HALLORAN, B.G and BAXTER, B.T "Pathogenesis
of aneurysms". Semin Vasc Surg. 1995, vol. 8, nº p.
85-92.
16. LAKATA, E.G."Arterial aging is risky". Appl Physiol.
1998, vol. 105, p. 1321-1322.
17. VILALTA, G. et al."Estudio de la influencia de la asimetría
de aneurismas de aorta abdominal (AAA) en las
posibilidades de su ruptura". En Memorias del 9
Congreso Iberioamericano de Ingeniería Mecánica.
Palmas de Gran Canarias España. 2009.
18. VAQUERO, C. "Estudio interno sobre incidencia de
aneurismas de aorta abdominal". Reporte interno 33/
09 del Hospital Clínico de Valladolid. 2009.
19. VILALTA, G. et al. "Quantitative Indicator of Abdominal
Aortic Aneurysm Rupture Risk Based on its Geometric
Parameters". En International Conference on Biomedical Science and Technology. 2010.
AUTORES
Guillermo Vilalta Alonso
Ingeniero Mecánico, Doctor en Ciencias Técnicas,
Fundación CARTIF, División de Ingeniería Mecánica, Parque
Tecnológico de Boecillo, España
Félix Nieto
Ingeniero Mecánico, Fundación CARTIF, División de
Ingeniería Mecánica, Parque Tecnológico de Boecillo,
España
Melchor Rodríguez Madrigal
Ingeniero Mecánico, Doctor en Ciencias Técnicas , Profesor
Titular, Grupo de Modelación Biomecánica, Facultad de
Ingeniería Mecánica, Instituto Superior Politécnico, José
Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Laurentiu Lipsa
Ingeniero, Fundación CARTIF, División de Ingeniería
Mecánica, Parque Tecnológico de Boecillo, España
Joan O´ Connor Blanco
Ingeniero Mecánico, Máster en Ciencias, Instituto de
Cibernética Matemática y Física (ICMF),Universidad de La
Habana, Cuba
Hemodynamics of Abdominal Aortic Aneurysm and Morphometryc
Characterization as a Possible Indicator of Rupture
Abstract
The rupture of abdominal aortic aneurysm (AAA) represents an important clinical event combining
structural modifications that provoke weakening of the arterial wall, coupled with the hemodynamic
pressure acting on them. In an effort to increase understanding about this complex phenomenon, this
paper studies the influence of abdominal aortic aneurysm asymmetry in the patterns of the main
hemodynamics factors. Flow simulation in four 3D virtual AAA models with different asymmetry ranging
from 0.2 to 0.8 were carried out under realistic pulsatile conditions to assess and identify regions with
disturbed patterns flow and how it modifies the velocities fields and hemodynamic stress on the inside
of the aneurysmatic sac. An explanation of the vortex structure changes and stress distribution during
cardiac pulse, is presented. The results obtained show that the asymmetry is one of the main factors
that influence the AAA rupture. On the other hand, the basis to establish a novel method, based on the
morphometry of the AAA, to determine a numerical indicator characterizing the evolution and the
rupture risk of aneurysm, regardless of size, is approached; Outlining the initial results of the validation,
its current limitations and the future steps to improve the method.
Key words: AAA, morphometry, rupture risk of, biomechanical factors
24
Revista Cubana de Ingeniería
Revista Cubana de Ingeniería, 1(3), 25-30, 2010
BIOINGENIERÍA
Simulación de antorcha de plasma
Javier García de la Figal
Correo electrónico:[email protected]
Abel Fumero Pérez
Correo electrónico:[email protected]
René Collazo Carceller
Correo electrónico:[email protected]
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Clodomiro Alves Junior
Correo electrónico:[email protected]
Universidad Federal de Río Grande del Norte, UFRN, Brasil
Resumen
Se realiza un estudio de las principales características de trabajo y propiedades del plasma de argón
para el posterior diseño y construcción de una antorcha de plasma y su empleo en la proyección de
partículas finas. Se determinan las propiedades del plasma en función de su temperatura y presión,
simulando su comportamiento dentro del principal elemento de la antorcha: la boquilla. A partir de los
modelos de elementos finitos desarrollados se determinan las influencias de las características de la
boquilla en el plasma obtenido, llegándose a definir los mejores parámetros de la boquilla y de la
antorcha a ser diseñada y construida.
Palabras clave: plasma, modelo de elementos finitos, simulación, biomaterial
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
Los procesos de deposición de capas finas de polvo sobre
sustratos metálicos han sido desarrollados en las últimas
décadas, ante la creciente necesidad de crear, recubrimientos
con buena resistencia y adherencia para varias aplicaciones.
Las capas de hidroxiapatita porosa depositadas sobre
sustratos metálicos están siendo ampliamente utilizadas en
la construcción de prótesis médicas. Uno de los métodos
empleados para su obtención es la deposición de las
partículas sobre el sustrato a través de un chorro de plasma,
creado por una antorcha [1-3]. El diseño y construcción de
tales antorchas es un complejo problemas en el cual inciden
varias disciplinas de las ingenierías: [4-6]
• Electricidad de corriente directa.
• Transferencia de calor.
• Mecánica de fluidos.
La determinación de los parámetros de la antorcha para
cumplir adecuadamente sus funciones de proyección de
partículas constituye una compleja tarea y es el objetivo
básico de este trabajo. Para determinar sus mejores
parámetros de operación se recurre a la modelación por
elementos finitos del proceso de generación del plasma
térmico dentro de la pieza clave de la antorcha: la boquilla o
tobera, así como su movimiento y proyección dentro de la
misma [1, 6]. El plasma térmico básicamente no es más
que un gas ionizado, por lo que puede considerarse desde
el punto de vista de su movimiento como un fluido
compresible. Entonces el primer problema a resolver es la
determinación de sus principales propiedades, que son
altamente variables [7, 8]. Una vez determinadas sus leyes
de variación se procede a la creación de modelos de
elementos finitos del plasma dentro de las boquillas con
diferentes dimensiones, para estudiar la influencia de los
principales parámetros de estas en el plasma obtenido y
sus características de proyección [9, 10]. Todo el proceso
es validado a través del programa de modelación de plasma
proyectado Jet Poudres, del Centro de Ciencias de
Simulación de antorcha de plasma
Procedimientos Cerámicos y Tratamiento de Superficies de
la Universidad de Limoges, Francia [9].
MATERIALES, MÉTODOS Y MODELOS
Las propiedades investigadas del plasma fueron las
siguientes:
• Densidad, DEN ( ).
• Viscosidad dinámica, VISC ().
• Conductividad térmica, K.
• Calor especifico, C.
Dichas propiedades permiten la modelación de los efectos
térmicos y de fluidos del plasma [4-6]. A partir de la
información obtenida del programa Jet Poudres, fueron
desarrolladas ecuaciones de las propiedades mencionadas
en función de la temperatura y la presión [9, 10]. Así, por
ejemplo, se obtuvo que la densidad varía según la siguiente
ecuación de regresión (figura 1):
Además del voltaje aplicado que está implícito en la
potencia eléctrica. Se trabaja con un diseño factorial a 2
niveles, 2 3 que brinda la matriz de experimentos mostrada
en la tabla 1, con 8 modelos a desarrollar [10].
En las figuras 2 y 3 se muestran características de los
modelos creados con Dnoz = 6 y 8 mm. Se emplearon
elementos finitos de tipo isoparamétricos, de 4to. orden de
integración, formas triangulares para adaptarse mejor a las
configuraciones complejas y con capacidades de cálculo en
las 3 disciplinas mencionadas [11-16]. El modelo 8, por
ejemplo, posee un total de 1 012 elementos finitos. Todos
con posibilidad de simultanear las 3 disciplinas de cálculo
de interés, cuyas ecuaciones generales son las
siguientes: [17- 21]
Electricidad de corriente directa    (  V )  0
Transferencia de calor
 C 
DEN  34,233 1  5,430 9e  5  T 
 0,000 3  p  3,057 4e  9  T  T 
(1)
(2)
T
 ( K  T )     C  u  T
t
(3)
 4,672 4e  11  T  p  9,050 4e  10  p`p
Mecánica de fluidos
Válida para: T = 293 - 14 000 0 K , p = 1,793 - 2,000 atm.
T: temperatura, p: presión.
u
 p  (u  u )    (  p  I    (u  ( u )T ) 
t
 (2 / 3   )(u )  I
 C 
3
Densidad DEN. [kg / m
m^3]
DEN
donde:
 : Conductividad eléctrica del plasma.
u : Velocidades del fluido.
T : Temperatura.
t : Tiempo.
I : Matriz unitaria.
p
(4)
(1)

 
 



 Operador "del" o nabla.
 X Y Z 
[N
/m
^2
]
T
[K
]
Ta b la 1
M a triz d e d i s e ño d e lo s m o d e lo s
Fig. 1. Gráfico de la ecuación de regresión para densidad del
plasma en función de T y p.
De igual forma fueron obtenidas funciones para las
restantes propiedades del plasma: VISC, K y C.
Posteriormente se determinaron las características de las
boquillas de estudio, para producir los chorros de plasma
capaces de proyectar partículas de hidroxiapatita. Se realizó
un estudio preliminar de las mismas [1, 6], determinándose
los parámetros de interés y sus rangos de variación, que
serán las variables independientes del diseño de experimentos
(o diseño de modelos) a desarrollar como:
• Potencia eléctrica. (12 - 55 kW).
• Diámetro de salida de la boquilla, Dnoz . (6 - 12 mm).
• Velocidad de entrada del argón a la boquilla,
Ven . (75 -100 m/s).
26
Revista Cubana de Ingeniería
M o d e lo
no .
P o te nc ia
e lé c tri c a
[k W ]
D no z
[m m ]
Ve n
[m /s ]
Vo lta je
[V ]
1
55
12
75
100
2
55
12
100
100
3
55
6
75
100
4
55
6
100
100
5
12
12
75
4 7 ,3
6
12
12
100
4 7 ,3
7
12
6
75
4 7 ,3
8
12
6
100
4 7 ,3
Javier García de la Figal - Abel Fumero - René Collazo - Clodomiro Alves Junior
Anodo,
´
Cobre
agua
D noz
Plasma
Catodo,
Tungsteno
´

Fig. 2. Modelos de boquillas con Dnoz = 6 mm.
C atodo
12 mm
b )
6 mm
a)
Catodo
Fig. 3. Modelos de elementos finitos: a) Modelo 8; b) Modelo 6.
De todas las propiedades del plasma necesarias la
conductividad eléctrica , se obtuvo por comparación con
los resultados de proyección de plasma calculados mediante
el programa Jet Poudres, siendo  el parámetro utilizado
para ajustar los resultados de los modelos desarrollados con
los del programa Jet Poudres. De esta forma se validaron
los resultados de los modelos de elementos finitos
construidos.
A continuación se procedió a resolver los 8 modelos
desarrollados, ajustando los valores obtenidos con los
brindados por el programa Jet Poudres, a través del ajuste
del parámetro. En la tabla 2 se muestran los resultados
obtenidos de las corridas realizadas.
donde:
Texit: Temperatura del plasma en eje y a la salida de la
boquilla.
Vmáx: Velocidad máxima del plasma a la salida.
 : Conductividad eléctrica del plasma.
T Cátodo : Temperatura máxima del ánodo de tungsteno.
Pot. Calórico: Potencia calórica creada en el plasma por
la corriente eléctrica.
Tabla 2
Re sulta dos principale s de la s co rrida s
T exit
[K ]
V máx
[m/s]
P otencia
caló rica
[kW ]

1/ m   
T
cáto do
[K]
1
13 900
2 65
3 5,4 14
52
1 3 3 00
2
13 550
2 73
3 5,4 14
52
1 0 6 50
3
10 588
1 0 23,7
3 1,5 44
52 ,5
9 100
4
12 169
1 1 67
3 1,2 43
52
5
7 87 4
2 10
8 ,90 0
52
6
7 90 0
2 69,22
8 ,90 0
52
7
9 40 0
9 27
6 ,58 6
49
8
8 45 0
1 1 49
6 ,95 0
52
8 700
4 6 80
4 6 65
3 970
3 920
Revista Cubana de Ingeniería
27
Simulación de antorcha de plasma
[ V]
D noz = 6
La eficiencia entre la potencia eléctrica y la calórica se
consideró del 57 % [4, 7, 8, 9, 20]. En la tabla 3 se muestran
las diferencias en forma de errores relativos, de los valores
calculados de la temperatura y velocidad del plasma, respecto
a los obtenidos por el programa Jet Poudres. En las figuras
4 -7 se muestran gráficos y diagramas de los resultados
obtenidos. De esta forma se crearon los 8 modelos de interés,
se procedió a su solución y validación, pudiendo pasarse al
análisis de la influencia de los principales parámetros de la
boquilla en las características del plasma obtenido a su
salida.
Tabla 3
Diferencias (error %) entre los resultados de corridas
respecto a los obtenidos por el programa Jet Poudres
Modelo
T exit
Pot. Calórica
1
0,65
11,1
2
2,3
11,1
3
2,1
11,1
4
7,2
11,6
5
2,7
5,2
6
3,8
5,2
7
0,0
3,2
8
6,2
1,44
Fig. 5. Distribución del voltaje (V) en una sección del modelo 8
para t = 5 s.
Fig. 6. Distribución de la temperatura (K) en una sección
del modelo 8 para t = 5 s.
Fig. 4. Temperatura del plasma en el eje y a la salida
de la boquilla. Modelo 8.
28
Revista Cubana de Ingeniería
Fig. 7. Distribución de la velocidad del plasma (m/s) en una
sección del modelo 8 para t = 5 s.
Javier García de la Figal - Abel Fumero - René Collazo - Clodomiro Alves Junior
RESULTADOS Y DISCUSIÓN
A partir de los resultados de las corridas realizadas de los
8 modelos construidos y solucionados, mostrados en la
tabla 2, puede analizarse la incidencia de los parámetros de
la boquilla en el plasma obtenido: y así establecer los tipos
de boquillas más adecuados para la función de crear y
proyectar plasma capaz de transportar partículas de
hidroxiapatita sobre sustratos metálicos. De la tabla 2 pueden
realizarse los siguientes análisis:
El incremento de la velocidad de entrada del gas Ven
(aumento en un cuarto) incrementa las velocidades de salida
del plasma, aunque en una menor proporción que aquella,
en todas las variantes corridas; como es de esperar en un
sistema de tobera, trabajando con fluido compresible
[11, 12, 19]. Su efecto en las temperaturas de salida del
plasma y del cátodo son aumentarlas en muy pequeña
medida, o sea, en menor proporción. Esto se debe a que las
temperaturas alcanzadas por el plasma están dadas
principalmente por los efectos eléctricos que lo producen,
mientras sus velocidades solo inciden a través de la influencia
que pueden ejercer al cambiar algunas de las propiedades
del plasma.
Por tanto, para cambiar las temperaturas, Ven no es un
buen parámetro controlador. No así para las velocidades de
salida del plasma, en que es el que más eficientemente
controla a estas velocidades.
El incremento del diámetro de salida de la boquilla (Dnoz,
duplicado) hace decrecer ligeramente las temperaturas tanto
a la salida de la boquilla como en el cátodo. Su efecto en las
velocidades de salida es decrecerlas, pero ligeramente
también, contrario a lo esperado en que se hubiera predicho
una mayor incidencia y cambio. Esto parece estar dado por
los cambios que se producen en otras de las propiedades
del plasma dentro de la boquilla, tal como la densidad que
se reduce drásticamente hacia la salida. No es un buen
parámetro por tanto, para controlar las características
principales de la antorcha.
El incremento de la potencia (más del cuádruple) produce
significativos incrementos en las temperaturas, tanto a la
salida del plasma como en el ánodo. Lo que se corresponde
con ser la fuente directa de generación del plasma. Su efecto
en las velocidades de salida es insignificante. Es por tanto
un buen parámetro, para controlar la temperatura del plasma
pero no su velocidad de salida.
Con solo 12 kW de potencia eléctrica, sin embargo, se
obtienen temperaturas y velocidades que son interesantes
para el proceso de proyección de partículas en chorro de
plasma, mayores a los 7 500 K, objetivo de esta antorcha
[1, 6, 7, 9].
El valor de la conductividad eléctrica del plasma fue tomada
en el trabajo como constante en cada modelo desarrollado y
variando en un rango estrecho entre los modelos, con valores
entre 49 - 52,5, 1 / m    . Ver tabla 2.
La estabilización de las propiedades y características del
plasma dentro de la boquilla ocurre rápidamente, en 2 - 6 s
(figura 4 para las temperaturas), lo que se corresponde con
lo observado en los experimentos realizados por los
autores [1].
Las temperaturas obtenidas en el cátodo de tungsteno
pueden ser muy elevadas (hasta 13 300 K) al emplearse las
mayores potencias. Para 12 kW se alcanzan unos 3 500 K.
En todos los casos analizados están por debajo de las
máximas del plasma, lo que indica la buena eficiencia térmica
de las boquillas propuestas.
Las temperaturas del ánodo de cobre están por debajo de
los 800 K en todas las variantes analizadas.
Con el aumento del diámetro de salida Dnoz se hace
necesario aumentar la profundidad del ánodo dentro de la
boquilla (figura 3b), para lograr los valores de temperaturas
del plasma adecuados mostrados en los modelos 1, 2, 5 y 6
de la tabla 2, con Dnoz = 12 mm.
CONCLUSIONES
Puede concluirse que se ha resuelto el complejo problema
de simular la generación y proyección de plasma térmico de
argón por medio de una antorcha, a través de modelos de
elementos finitos con la información disponible. De los
modelos desarrollados y corridos se deduce que las
características más adecuadas de la boquilla para la
proyección de partículas de hidroxiapatita, son las
correspondientes al modelo 8, en las tablas 1 y 2, con el
cual se obtienen las mayores velocidades del plasma a la
salida y temperaturas por encima de los 8 000 K, con un
mínimo de consumo de energía eléctrica. Se trata de la
boquilla con: Dnoz = 6 mm; Ven = 100 m/s; Voltaje = 47,3 V
y Pot. eléctrica = 12 kW.
Los parámetros más eficientes de las boquillas para
producir cambios en las características del plasma creado
son:
a) La potencia eléctrica para variar la temperatura del
plasma. A mayor potencia aplicada, mayor es la temperatura
obtenida, como es de esperar. Es el parámetro que determina
la potencia calórica desarrollada en el plasma. Sin embargo,
para aumentar la temperatura se requieren grandes aumentos
de la potencia eléctrica aplicada, pues la temperatura se
incrementa en mucha menor proporción que el aumento de
potencia.
b) El diámetro de salida de la boquilla para variar la
velocidad del plasma.
c) La velocidad de entrada del argón incide en la velocidad
de salida y en las temperaturas, pero en muy pequeña
medida, por lo que no es un indicador de peso en las
variaciones de temperaturas y velocidades de salida del
plasma.
Las temperaturas máximas del ánodo de cobre están por
debajo de los 800 K, bien inferiores a su temperatura de
fusión. En el cátodo se tienen temperaturas muy elevadas,
de ahí la necesidad del empleo de materiales altamente
resistente térmicamente, como el tungsteno.
Es posible trabajar en los modelos con valores constantes
de la conductividad eléctrica del plasma , parámetro difícil
de determinar, a pesar de ser también dependiente de la
temperatura y presión. En este trabajo se utilizó una
promedio para cada modelo, que considera la fuente de
corriente adicional que se genera durante la creación del
plasma. Los valores considerados en este trabajo están en
un rango estrecho:  = 49 - 52,5
.
Revista Cubana de Ingeniería
29
Simulación de antorcha de plasma
REFERENCIAS
1. FUMERO, A. et al. Recubrimientos de HA de producción
nacional obtenidos por plasma atmosférico, Estudio
preliminar. En 14 Convención Científica de Ingeniería y
Arquitectura. La Habana,Cuba, Dic.2008.
2. FAUCHAIS, P. et al. "Knowledge Concerning Splat Formation: An Invited Review". Journal of Thermal Spray
Technology. 2004., vol. 13, nº 3.
3. NAKAMUR, T. et al. "Effects of Pores on Mechanical
Properties of Plasma-Sprayed Ceramic Coatings". Journal of American Ceramic Society. 2000. vol. 83, nº 3,
p. 578 – 584.
4. ANGELES, P.J.P. et al. Estudo de tochas de plasma
atraves da teoria da similiradidade. Disertacao de
Mestrado. Campinas. IF - Unicamp. 2003.
5. BIANCHINI, R. C. Modelagem e simulacao de procesos
a plasma para tratamento de organos clorados.
Disertacao de Mestrado. IF- USP. Sao Paulo. 2000.
6. HONG, S. H. et al. Thermal Plasma Modeling on Design
of Plasma Torches for Industrial Applications. 2002.
Invited Talk at 2002 KPS/DPP Fall Meting.
7. FELIPINI, C. L. Nocoes de Plasma Térmico e suas
Principias Aplicacoes. Teses de Doutorado. Faculdade
de Ciencias Exatas e Tecnológicas. USJT, Brasil, 2004.
8. ECKERT, E. R. G. and PFENDER, E. Advanced in Plasma
Heat Transfer. University of Minnesota. 1967.
9.Software Jet Poudres. del Centro de Ciencias de
Procedimientos Cerámicos y Tratamiento de Superficies.
Universidad de Limoges, Francia.
10. MONGTOMERY, C. Diseño y Analisis de Experimentos.
Grupo Ed. Iberoamericano. Mexico DF: 1991.
11. HAUKE, G. "Simple stabilizing matrices for the computation of compressible flows in primitive variables". Comp.
Meth. Appl. Mech. Engrg. 2001. vol. 190, p. 6881–6893.
12. SOULAÏMANI, A. and FORTIN, M. "Finite element
solution of compressible viscous flows using conservative variables". Comp. Meth. Appl. Mech. Engrg. 2001,
vol. 118.
13. FRANK, P. et al. Fundamentals of Heat and Mass Transfer. 4th ed. New York: John Wiley & Sons, 1996.
14. CAMERON, A.D. el at. NAFEMS Benchmark Tests for
Thermal Analysis Editado por: Glasgow, N. L. 1986.
15. GARCÍA DE LA FIGAL, J. Modelación por Elementos
Finitos. La Habana, Cuba. : Facultad de Ingeniería
Mecanica, Cujae, 2005.
16. MACKERLE, J. Coatings and Surface Modification Technologies: a Finite Element Bibliography (1995–2005). Institute of Physics Publishing. Modelling and Simulation
in Materials Science and Engineering, August 2005.
17. AC/DC Module. User’s Guide. Comsol 3.5 Software.
COMSOL Ltd. UH Innovation Centre College, Lane
Hatfield Hertfordshire. AL10 9AB.
18. Multiphysics Module. User’s Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College. Lane
Hatfield Hertfordshire. AL10 9AB.
19. Multiphisycs Module. Modeling Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College. Lane
Hatfield Hertfordshire. AL10 9AB.
20. Heat Transfer Module. User’s Guide. Comsol 3.5 Software. COMSOL Ltd. UH Innovation Centre College. Lane
Hatfield Hertfordshire. AL10 9AB.
21. BOULOS, M. I. " Thermal Plasma Processing". IEEE:
Transactions on Plasma Science. December 1991.
vol. 19, nº 6.
AUTORES
Javier García de la Figal
Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor
Titular, Facultad de Ingeniería Mecánica, Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad de La
Habana, Cuba
Abel Fumero Pérez
Ingeniero Mecánico, Máster en Ingeniería Mecánica, Profesor
Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad de La
Habana, Cuba
René Collazo Carceller
Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor
Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad de La
Habana, Cuba
Clodomiro Alves Junior
Doctor, Laboratorio de Plasma, Universidad Federal de Río
Grande del Norte, UFRN, Brasil
Sumulation of Plasma Torche
Abstract
The work is a study about main work features and properties of plasma of argon for designing and
building plasma torches, to be employed in the projection of fine particles. The plasma properties in
feature of their temperature and pressure are determinate and their behaviors inside the main element
of the torche: the nozzle, is simulated. The influence of nozzles characteristics in the obtained plasma
is determined, from finite elements models developed, being ended up defining the best nozzle
parameters to be designed and built.
Key words: plasma, finite elements method, simulation, biomaterial
30
Revista Cubana de Ingeniería
Revista Cubana de Ingeniería, 1(3), 31-39, 2010
INGENIERÍA ELÉCTRICA
Aplicación práctica del análisis
de riesgo por rayo utilizando lógica
difusa
Yelennis Godoy Valladares
Correo electrónico:[email protected]
Empresa de Proyectos de la Industria Básica (EPROB), Ciudad de La Habana, Cuba
Olga Susana Suárez Hernández
Correo electrónico:[email protected]
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Resumen
En este artículo se presenta la herramienta difusa de análisis de riesgo de impacto de rayo en
edificaciones para las condiciones de Cuba, así como su aplicación en un caso específico como
parte de su validación. Los fundamentos de la teoría de la logica difusa fueron tratados en un artículo
publicado con anterioridad en esta revista.
Palabras clave: análisis de riesgo, lógica difusa, rayo, nivel ceráuneo
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
En este trabajo se aplican, por primera vez en el país, las
propiedades de la lógica difusa al importante problema de la
protección de los seres vivos y las instalaciones contra las
descargas atmosféricas que constituyen en la actualidad la
primera causa de muerte por fenómenos naturales y una de
las causas fundamentales de pérdidas económicas en Cuba.
Se crea un sistema difuso para el análisis de riesgo de
impacto por rayo en estructuras y en su vecindad. Este
sistema abarca los razonamientos contenidos en la norma
IEC 62305-2 y las experiencias de especialistas cubanos,
entre ellas están las características de la variación espaciotemporal de la actividad ceráunica en el país a partir de un
estudio actualizado realizado en el 2005.
RIESGO Y COMPONENTES DE RIESGO
El riesgo R es el valor de una pérdida anual promedio
probable. Para cada tipo de pérdida que puede ocurrir en
una edificación o en un servicio, se evalúa el riesgo pertinente.
Los riesgos que se evalúan en una edificación pueden ser:
R1: Riesgo de pérdida de vidas humanas.
R2: Riesgo de pérdida del servicio para el público.
R3: Riesgo de pérdida del patrimonio cultural.
Estos riesgos son el resultado de la suma de varios
componentes de riesgo, dependiendo de las pérdidas que
pueden ocurrir y de las características del objeto a proteger.
La expresión general para obtener los componente de
riesgo es:
Rx  N x  Px  Lx
donde:
NX: Número anual promedio de eventos peligrosos.
PX: Probabilidad de daño.
LX: Pérdida resultante.
FUNCIONES DE MEMBRESÍA DE
LAS VARIABLES DEL SISTEMA DIFUSO
El sistema difuso consta de tres variables de entrada (NX,
PX y LX) y una variable de salida (RX), como se explica en la
referencia1.
Estas variables se describen de forma cualitativa y
cuantitativa permitiendo así una mayor interpretación de la
subjetividad envuelta en el análisis de riesgo.
Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa
Evaluación de la densidad de rayos a tierra
El número anual promedio de eventos peligrosos debidos
a descargas de rayos que influye en un objeto que se va a
proteger depende de la actividad de tormentas eléctricas de
la región donde se encuentra el objeto y de las características
físicas del objeto.
La expresión fundamental para hallar NX es:
NX = Ng . Ae . Cx . 10-6
donde:
Ng: Densidad de rayos a tierra por kilómetro cuadrado
por año.
Ae: Área equivalente.
Cx: Coeficiente de corrección para las características
físicas del objeto a proteger.
Esta expresión varía según la posición del punto impactado
por el rayo o fuente de daño, [2] como se muestra en la
tabla 1.
Actualmente algunos países cuentan con sistemas de
localización de rayos o red de contadores que les permite
obtener directamente la densidad de rayos a tierra.
En Cuba el indicador de incidencia con que se cuenta es
el nivel ceráuneo (días tormenta promedio), por lo que Ng ha
de ser obtenido a través de una relación empírica.
Muchas de estas aparecen en la literatura y se normalizan
en diferentes documentos en función de mediciones de
parámetros del rayo que han sido realizadas en regiones
tropicales.
Países como México, Brasil, Sudafrica, Colombia, ubicados
en regiones tropicales han realizado dif erentes
investigaciones y han podido establecer la variación espaciotemporal de la intensidad de la actividad eléctrica atmosférica
en general, y de los parámetros de los rayos en particular
con desviaciones significativas de las que se reportan en
países templados.
En la tabla 1 se muestran desviaciones en los resultados
de Ng al variar las expresiones que obtienen distintos países,
es por ello que en este trabajo se escoge la estimación
empírica
Ng = 0,1 . Td
Para evaluar de forma lingüística a Ng se trabaja con la
versión actualizada del mapa de niveles isoceráuneos del
país según las últimas evaluaciones realizadas teniendo en
cuenta las sesenta y tres estaciones meteorológicas
ubicadas a lo largo del país y veinte años de información.
La densidad de descargas a tierra por kilómetro cuadrado
anual se describe a través de cuatro conjuntos difusos como
se muestra en la figura 1. En la evaluación de Ng se trabaja
Tabla 1
Evaluación de N g para fórmulas de distintos países
Fórmulas de cálculo de N g
Regiones y países
N g = 0,1.T d
Estimación empírica
N g = 0,024.Td1.12
Regiones
montañosas y
llanas Td = 130
Regiones costeras
T d = 100 T d = 80
1,3
10
8
Correlación con contadores de rayo.
Regiones montañosas (México, 1996)
5,59
-
-
N g = 0,04.T d1.24
Correlación con contadores de rayo.
Regiones montañosas (Brasil,1993)
16,7
-
N g = (5,4  1,6 . T d2,5) .10 -7
 : Latitud en grados
Correlación con contadores de rayo.
Regiones montañosas
(Colombia,1995)
13,1
-
N g = 0,044 . T d1,24
Correlación con contadores de rayo.
Regiones planas (México, 1996)
18,4
-
N g = 0,026 .T d1,33
Correlación con contadores de rayo.
Regiones costeras (México, 1996)
-
11,88
8,83
N g = 176  -3,8 .T d
 : Latitud en grados
Correlación con contadores de rayo.
Regiones costeras (Colombia, 1995)
-
0,17
0,13
N g = 0,004 . Td125
Correlación con contadores de rayo.
(Sudáfrica, 1980)
17,6
12,65
9,57
32
Revista Cubana de Ingeniería
-
-
-
Yelennis Godoy Valladares - Olga Susana Suárez Hernández
con la variación espacio-temporal a nivel local (estaciones
meteorológicas). Cada conjunto agrupa los valores mínimos,
promedio y máximos de los días tormenta registrados.
En la zona de Isabel Rubio, Pinar del Río, se registran los
mínimos valores de días tormenta, alcanzándose un valor
máximo igual a 19, esto se aleja mucho de los valores
registrados en el resto de las estaciones meteorológicas,
por lo que se crea el conjunto difuso muy bajo que representa
este comportamiento.
El conjunto difuso bajo refleja los valores más bajos que
se localizan en zonas costeras sobre todo hacia la porción
oriental del país.
El conjunto difuso alto refleja los valores relativamente altos
observados en la costa sur de Cuba y en especial en zonas
aledañas del oeste del Golfo de Batabanó, el Golfo de Ana
María y el Golfo de Guacanayabo, donde estos alcanzan
entre 100 y 120 días.
El conjunto difuso muy alto refleja los valores más altos
(mayores a 120 días) que se registran en la cordillera de
Guaniguanico, el interior de las provincias de La Habana y
Matanzas, en el Grupo Guamuhaya y en las zonas llanas
interiores y las montañosas de las provincias orientales.
Los máximos absolutos se observan en el interior de la cuenca
del Cauto con 135 días anuales seguidos muy de cerca por
las zonas más elevadas de la Sierra Maestra, que reportan
134 días de tormenta.
La mayor membresía, uno, en cada conjunto, lo tienen
los días tormenta promedio, en tanto los valores mínimos
y máximos tienen una membresía igual a 0,5. De este
modo se representa la ocurrencia de aproximadamente
igual cantidad de días tormenta anuales por debajo y por
encima del promedio registrados en la mayoría de las
estaciones.
Cinco estaciones no coinciden; tres de ellas, La Sabana,
Sagua la Grande y Santa Cruz muestran una tendencia a
que la cantidad de valores máximos estén por encima del
promedio y otras dos, Isabel Rubio y Manzanillo, una
tendencia a que la cantidad de valores mínimos estén por
encima del promedio registrado. En el caso de Isabel Rubio,
en el conjunto muy bajo, el valor mínimo tiene una función
de membresía de 0,35 y el máximo de 0,65. En las otras
cuatro estaciones, los valores mínimos o máximos pueden
ocupar el valor máximo en otros conjuntos si el diseñador
decide darle una menor o mayor membresía.
Evaluación del área equivalente
Para cada Nx, según la fuente de daño se obtiene un área
de captación equivalente y la misma se afecta por distintos
factores como se expresa a continuación:
Ad: Área equivalente de las descargas que impactan en
la edificación, se expresa como:
Ad= L . A + 6 . (L+A) + 9 .  . (H)2
(1)
donde:
L: Longitud del objeto a proteger (m).
A: Ancho del objeto a proteger (m).
H: Altura del objeto a proteger (m).
Esta área se afecta por el factor Cd que se muestra en la
referencia 2, dependiendo de la localización del objeto a
proteger.
Am: Área equivalente de las descargas que impactan cerca
de la edificación, se expresa como:
Am=[L . A+500 . (L+A)+ . . (250)2]
Si Am < 0, se asume que NM = 0.
Fig. 1. Función de membresía de Ns.
Revista Cubana de Ingeniería
33
Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa
Al: Área equivalente de las descargas que impactan en
un servicio que entra a la edificación, si el servicio es aéreo
se expresa como:
Ala=[Lc - 3 . (Ha+Hb)] . 6 . (Hc)
(2)
donde:
Lc: Longitud (m) de la sección del servicio desde la
edificación hasta el primer nodo con un valor máximo de
1 000 m.
Ha: Altura (m) de la edificación conectada al extremo a del
servicio . [2]
Hb: Altura (m) de la edificación conectada al extremo b del
servicio . [2]
Hc: Altura (m) de los conductores del servicio por encima
del terreno.
Si el servicio es soterrado la expresión del área equivalente
es:
Als = [Lc-3 . (Ha+Hb)] .
p
(3)
donde:
p: Es la resistividad del suelo (m) donde la línea entre en
tierra con un valor máximo de 500 m.
En cualquier caso el área equivalente se afecta por los
factores (Cd), dependiendo de la localización de la estructura
y por el factor de corrección (Ct) por la presencia de un
transformador AT/BT ubicado entre el punto de impacto y la
edificación. [2]
Ai: Área equivalente de las descargas a tierra cerca
del servicio que entra a la edificación, si el servicio es
aéreo se expresa como:
Aia = 1 000 . Lc
(4)
Si el servicio es soterrado la expresión es la siguiente:
Ais = 25 . Lco
p
(5)
Esta área se afecta por los factores Ct, de corrección por
la presencia de un transformador AT/BT ubicado entre el punto
de impacto y la edificación y el factor ambiental (Ce) que se
muestra en la referencia 2.
Teniendo en cuenta las características de distintas
edificaciones que se construyen en el país, así como el
ambiente y la ubicación de las mismas, se proponen distintos
conjuntos de áreas. Estás áreas afectan a la función de
membresía de Ng, anteriormente explicada, y como resultado
se describe lingüísticamente N x a través de cinco
conjuntos. [2]
Evaluación de la probabilidad de daño
Existe probabilidad de que una descarga atmosférica que
impacte en la edificación a proteger, en un servicio que esté
conectado a la misma y en los alrededores de ambos, cause
lesiones a las vidas humanas, daños físicos y/o fallos a los
sistemas internos. Los valores de la probabilidad de daño
34
Revista Cubana de Ingeniería
dependen de las medidas de protección implantadas o se
diseñen para este objeto.
Para cada componente de riesgo identificado y en
dependencia de las características de la estructura se
selecciona la probabilidad de daño correspondiente. En la
referencia 2 se muestran las tablas donde se recogen los
valores de probabilidad en dependencia de las medidas de
protección que reducen las lesiones a las personas, los
daños físicos y los fallos de los sistemas internos.
La descripción de los conjuntos difusos de estas pérdidas
se dan en las referencias 1 y 2 .
Evaluación de las perdidas
La pérdida resultante LX se refiere a la cantidad relativa
media de un tipo de daño, su magnitud y efectos, a causa
de una descarga atmosférica. Cada tipo de daño produce
una pérdida resultante diferente en el objeto que se va a
proteger. El tipo de pérdida depende de las características
del propio objeto y de su contenido. Se tienen en cuenta los
siguientes tipos de pérdida:
1. Pérdida de vidas humanas.
2. Pérdida del servicio al público.
3. Pérdida de patrimonio cultural.
La descripción de los conjuntos difusos de estas pérdidas
se explica en las referencias 1 y 2.
Evaluación de los componentes de riesgo
La variable de salida del componente de riesgo RX del
sistema difuso, se describe a través de tres conjuntos
lingüísticos denominados bajo, medio y alto.
En el conjunto bajo se proponen los valores resultantes
de la relación entre las entradas del sistema que dan una
evaluación del componente de riesgo tolerable.
En el conjunto medio se reúnen valores resultantes de
relación entre las entradas del sistema que dan una
evaluación del componente de riesgo tolerable para Rx  1
y no tolerable para Rx > 1.
En el conjunto alto se reúnen los valores resultantes de la
relación entre las entradas del sistema que dan una
evaluación del componente de riesgo no tolerable.
La función de membresía de R x se muestra en la
referencia 2.
ANÁLISIS DE RIESGO DE IMPACTO
DE RAYO A EDIFICACIÓN HOSPITALARIA
APLICANDO LÓGICA DIFUSA
Se realiza el estudio del análisis de riesgo de impacto de
rayo en una edificación hospitalaria. Se escoge esta
instalación porque se pueden involucrar todos los
componentes de los diferentes riesgos (R1, R2 y R3).
El procedimiento a seguir para realizar el análisis de riesgo
se encuentra en la referencia 1.
Características de la edificación
Las características de la edificación hospitalaria, así como
las de la línea eléctrica de alimentación principal que entra a
esta se muestran en la tabla 2.
Yelennis Godoy Valladares - Olga Susana Suárez Hernández
Identificación de los tipos de pérdida y los riesgos
relacionados
En el hospital pueden presentarse las siguientes pérdidas:
• Vidas humanas.
• Servicio al público.
• Patrimonio cultural.
Por lo que se analizarán los riesgos R1, R2 y R3 para estos
tipos de pérdidas respectivamente.
Identificación de los componentes que constituyen los
riesgos
En la tabla 3 se recogen los componentes que se involucran
según las características de la edificación a proteger, para
cada tipo de riesgo.
Tabla 2
Datos y características de la edificación hospitalaría y línea
eléctrica
Características de la edificación
Parámetro
Comentario
Dimensiones
(m)
Factor de
ubicación
Densidad de
descargas a
tierra
(1/km2/año)
Rodeada de
árboles y
edificaciones
de altura
similar
Ubicada en
municipio
Playa DT = 100
Símbolo
Valor
L; W; H
100; 60; 12
0,5
Cd
Comentario
10
Ng
Símbolo
Valor
Lc
50
Altura de la
línea(m)
Hc
7
Transformador
Hc
sí
Ci
Comentario
Debido a que el hospital
tiene instalados equipos
eléctricos vitales a los que
están conectadas las
personas, se involucran
R1 = RA + R B + RC + RM +
+ R U + RV + RW + RZ
R C , R M, R W y R Z
R2 = RB + R C + R M + R V +
+ R W + RZ
-
R3 = RB + R V
-
Calculo del número anual promedio de eventos peligrosos
Los cálculos de las áreas de captación y del número anual
promedio de eventos peligrosos se muestran en las
tablas 4 y 5.
Tabla 4
Áreas de captación de la edificación y la línea
Áreas
Valores (m)
A d = L . A + 6 . (L+W) + 9 .  (H)2
A d = 21 590
 . (250)2 -A
d
A m = 282 250
A La = [L c-3 . (H a+Hb )]. 6 . (Hc)
A La = 126
A Ia = 1 000 . L C
A Ia = 1 000
Tabla 5
Número anual promedio de eventos peligrosos
Número anual promedio de Valores
eventos peligrosos
Longitud (m)
Altura (m) de
la edificación
conectada al
extremo b del
servicio
Riesgos y componentes
A m = L . A + 500 . (L+W) +
Características de la línea eléctrica que entra a la edificación
Parámetro
Tabla 3
Identificación de los componentes de riesgo
12
N D = N g . A d .C d .10 -6
N D = 0,108
N M = N g . A m . 10-6
N M = 2,61
N Da = N g . A d .C d .C t .10-6
N L +N Da = 0,0 21 7
N L = N g . A L . C d . C t .10 -6
N I+N L = 0,000 263
N I = N g . A I .C e . Ct .10-6
0,000 263
0,2
Factor de
ubicación de
la línea
Rodeada de
árboles y
edificaciones
de mayor altura
Cd
0,25
Factor
ambiental
Urbano
Ce
0,1
Selección de la probabilidad de daños
En la tabla 6 se pueden observar las características de las
protecciones existentes en la edificación y en la línea eléctrica
de alimentación principal, a partir de las cuales se
seleccionan las probabilidades de daño.
Selección de PM, PU, PV Y PW .
Revista Cubana de Ingeniería
35
Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa
e
d
if
ic
a
c
ió
n
h
o
s
p
it
a
la
ri
a
y
lín
e
a
e
lé
c
tr
ic
a
C
a
ra
c
te
rí
s
tic
a
s
d
e
la
s
p
ro
te
c
c
io
n
e
s
d
e
la
T
a
b
la
6
El factor que tiene en cuenta las medidas de protección
adoptadas (KMS) se halla según la siguiente expresión:
KMS = KS1 . KS2 . KS3 . KS4 = 0,000 04
Según la referencia 2:
Para KMS = 0,000 04, PM = 0,000 1.
Para UW =2,5 kV y RS =1,5  /km PU = PV = PW = 0,6.
Para UW =2,5 kV y RS =1,5  /km PZ = 0,02.
P ro b a b ilid a d d e d a ño e n la e structura
P a rá m e tro
C o m e nta rio
P ro te cció n
co ntra le sio ne s
A isla m ie nto e lé ctrico
d e l b a ja nte e xp ue sto
S ím b o lo
Va lo r
PA
1
No
PB
0 ,0 1
P ro te cció n
co o rd ina d a /L P L
No
PC
1
Sí
3
RS
1 ,5
x
Va lo re s d e re siste nc ia de
co nta cto s eg ún sup e rficie
d e l s ue lo o d e l p iso
(k  )
P a ra W = 3
E fica cia d e l
a p a nta lla d o d e
la s p a nta lla s
inte rna s d e la
e d ifica ció n
P a ra W = 3
C a ra cte rística s
d e l ca b le a d o
inte rno
C a b le co n p a nta lla d e
re siste ncia 1 ,5  /km
co ne cta d o a una b a rra
d e p ro te cció n
e q uip o te ncia l e n
a m b o s e xtre m o s y
e q uip o s co ne cta d o s a
la m ism a b a rra d e
p ro te cció n
Te nsió n
so p o rta d a d e
im p ulso d e l
siste m a
P a ra U W = 2 ,5 kV
Te nsió n
so p o rta d a d e
im p ulso d e lo s
e q uip o s (kV )
K S1
K S2
A g ríco la ,
horm ig ó n
A lta
B aja
 10
M á rm o l,
c erá m ica
M e d ia
B aja
r >1 0
G ra villa,
a lfo m b ra ,
ta p e te
B aja
B aja
0 ,3 6
1< r
0 ,3 6
Ta b la 8
E va lua c ió n li ng üís ti c a d e la s p é rd id a s L B
K S3
0 ,0 0 0 2
K S4
UW
0 ,6
2 ,5
C o m e nta rio
S ím b o lo
LPS
No
PB
P ro te cció n
co o rd ina d a /L P L
No
PC
36
Revista Cubana de Ingeniería
h
P ro te g id o
0 ,5
Ly
1
2
5
10
20
50
B
C 11
C 13
C 16
C 18
C 19
C 20
N
C 18
C 19
C 20
C 22
C 24
C 24
A
C 22
C 24
C 25
C 26
C 28
C 28
C 26
C 28
C 28
C 29
C 30
C 30
C9
C 11
C 14
C 16
C 18
C 18
N
C 16
C 18
C 20
C 20
C 22
C 23
A
C 20
C 22
C 24
C 25
C 26
C 27
EXP
C 25
C 26
C 28
C 28
C 29
C 30
B
C6
C8
C 11
C 13
C 15
C 16
N
C 13
C 15
C 18
C 19
C 20
C 20
A
C 19
C 20
C 22
C 24
C 25
C 25
EXP
C 11
C 13
C 16
C 18
C 19
C 20
rf
D e s p ro te g i d o
1
y
0 ,1
Lf
r
P ro b a b ilid a d d e d a ño e n la líne a e lé ctrica
P a rá m e tro
P e rso na s
fue ra de
e d ifica ci ón
1
r
E fica cia d e l
a p a nta lla d o d e
la e d ifica ció n
P e rso na s
d e ntro d e
e di fica ció n
E
X
P
C a b le
a p a nta lla d o /Re siste ncia d e
p a nta lla d e l
ca b le (  /km )
W
C o njunto s difuso s d e
p é rd id a s d e b ida s a le si ones
p o r te nsio nes d e co nta cto y
d e p a so
B
E sp a cia m ie nto
e ntre e le ctro d o s
(m )
E
v
a
lu
a
c
ió
n
lin
g
ü
is
ti
c
a
d
e
L
T
a
b
la
7
LPS
Evaluación lingüística de Lx
La pérdida debida a lesiones por tensiones de contacto y
de paso de vidas humanas que se encuentran dentro de la
edificación se evalúan como media para la superficie del suelo
(losas de cerámica) de la edificación, como se muestra en
la tabla 7.
Las pérdidas de vidas humanas debidas al daño físico
corresponden al conjunto lingüístico C14 para una edificación
hospitalaria con peligro de incendio bajo, dificultad de
evacuación y con medidas de protección para reducir las
consecuencias de un incendio (extintores y otros), como se
muestra en la tabla 8.
Las pérdidas de vidas humanas debidas al fallo de los
sistemas internos en una edificación hospitalaria se evalúan
como baja, como se muestra en la tabla 9.
Va lo r
0 ,0 1
P ro tro te g id o
0 ,2
1
Yelennis Godoy Valladares - Olga Susana Suárez Hernández
La pérdida del servicio al público debida al daño físico se
evalúa como baja para una edificación hospitalaria con peligro
de incendio bajo y con medidas de protección para reducir
las consecuencias de un incendio (extintores y otros), como
se muestra en la tabla 10.
La pérdida del servicio al público debida al fallo de los
sistemas internos se evalúa como alta para los servicios de
gas y agua y como baja para los servicios de TV, TLC y
electricidad, como se muestra en la tabla 11.
Ta b la 9
E va lua ció n ling üís tica d e la s p é rd id a s L C L M , L W y L Z
Tip o d e e difica ció n
C o njunto s d ifuso s d e la s
p é rd id a s d e vida s hum anas
d e b ida s a l fa llo d e lo s
sis tem a s interno s
Riesg o d e e xp lo sió n
A lta
Ho sp ita la ria
B a ja
P érdida debida a
daño físico
Riesgo de
incendio
E xplosión
Tabla 11
Evaluación lingúística de las pérdidas L C L M , L W y L M
Servicios de gas, agua
S ervicios TV, TLC ,
electricidad
S ervicio
de gas,
agua
S ervicio
TV, TLC ,
electricidad
Muy alta
M edia 4
A lto
Media 4
M edia 1
Norm al
Media 1
B aja
B ajo
B aja
B aja
E xplosión
A lta 2
M edia 3
A lto
Media 3
Norm al
B aja
B aja
B ajo
B aja
B aja
Medidas de protección
para reducir
consecuencias de un
incendio
Una d e las siguientes
me d ida s:
Insta laciones de
e xtinció n fijas de
o pe ra ción autom ática,
insta la ciones de
a la rma autom ática
(so lo si están
p ro te g idas contra
so b re te nsiones y otros
d año s y si los
b om b eros llegan en
me no s de 10 m in).
E xplosión
A lto
A lta 1
Media 2
A
B
Riesgo de
incendio
Explosión
Alto
No ha y m edidas
Una d e las siguientes
me d ida s: E xtintores,
insta la ciones de
e xtinció n fijas de
o pe ra ción manual,
insta la ciones de
a la rma s manuales,
hid ra nte s,
co mp a rtim ientos a
p rue b a de incendio,
vías d e escape
p ro te g idas
C onjuntos difusos de la
pérdida debida al fallo de
los sistemas internos
Tipo de servicio
Tabla 12
Evaluación lingüística de las pérdidas LB y LV
Ta b la 10
E va lua ción lingüística de las pérdidas L B y L V
Me d ida s de
p ro te cción para
re d ucir consecuencias
d e un incendio
La pérdida de patrimonio cultural debida al daño físico se
evalúa como muy baja para un peligro de incendio bajo y
con medidas de protección para reducir las consecuencias
de un incendio (extintores y otros), como se muestra en la
tabla 12.
B aja
Pérdida debida a
daños físicos
Muy alta
Media 4
No hay medidas
Normal
Bajo
Una de las siguientes
medidas:
Extintores, instalaciones de
extinción fijas de operación
manual, instalaciones de
alarmas manuales,
hidrantes, compartimientos
a prueba de incendio, vías
de escape protegidas
Media 1
Muy baja
Explosión
Alta 2
Alto
Media 3
Normal
Baja
Bajo
Muy baja
M edia 2
B aja
Norm al
B aja
B aja
B ajo
B aja
B aja
Una de las siguientes
medidas:
Instalaciones de extinción
fijas de operación
automática, instalaciones
de alarma automática
(sólo si están protegidas
contra sobretensiones y
otros daños y si los
bomberos llegan en menos
de 10 min).
Explosión
Alta 1
Alto
Media 2
Normal
Muy baja
Bajo
Muy baja
Revista Cubana de Ingeniería
37
Aplicación práctica del análisis de riesgo por rayo utilizando lógica difusa
Obtención de funciones de membresia de Nx, Lx Y Px.
En las figuras 2 -7 se muestra el visor de reglas del toolbox
fuzzy de los sistemas difusos de todos los componentes de
riesgo. En cada uno de ellos se introducen los valores de Nx,
Px y Lx que se obtienen.
Funciones de membresía de las pérdidas.
Pérdidas de vidas humanas por tensiones de paso y de
contacto:
Fm M (LA = LU = 10-5) = 1
Pérdidas de vidas humanas debidas al daño físico:
Fm C14 (LB = LV = 2,510-5) = 1
Pérdidas de vidas humanas debidas al fallo de los sistemas
internos:
Fm B (LC = LM = LW = LZ = 10-3) = 1
Pérdidas del servicio al público debidas al daño físico para
servicios de gas, agua, TV, TLC y electricidad:
Fm B (LB = LV = 5•10-4) = 1
Fig. 2. Visor de reglas del sistema difuso R1,Rc.
Pérdidas del servicio al público debidas al fallo de los
sistemas internos para servicios de gas, y agua, TV, TLC y
electricidad
Fm B (LC = LM = LW = LZ = 10-3) = 1
Servicios de TV, TLC y electricidad:
Fm A (LC = LM = LW = LZ = 10-2) = 1
Pérdida de patrimonio cultural debida al daño físico:
Fm M B (LB = LV = 2•10-5 a 2•10-4) = 1
Obtención de la salida Rx
En las figuras 2, 3 y 4 se muestra el resultado de los componentes de riesgo que se evalúan como no tolerables para
los valores de Nx, Px y Lx que se introducen.
Evaluación de la necesidad de protección
Los componentes RC y RW de R1 y el componente RC de
R2 se evalúan como no tolerables por lo que hay necesidad
de mejorar las medidas de protección contra rayo.
Identificación del tipo de protección a adoptar, según el Rx
evaluado de no tolerable.
Para reducir el riesgo R1 a un valor tolerable, se deben
considerar medidas de protección que influyan en los
componentes RC y RW y para reducir el riesgo R2 a un valor
tolerable se deben considerar medidas de protección que
influya en el componente RC.
Reevaluación de la necesidad de protección variando Px
en el Rx evaluado de no tolerable
En las figuras 5, 6 y 7 se observa que utilizando un sistema
de protección coordinado para un nivel de protección III o IV
se reducen los valores de PC y PW de 1 a 0,03, lo que implica
que disminuyan los resultados de los componentes de riesgo
RC y RW y por tanto los riesgos R1 y R2 se evalúan como
tolerables.
38
Revista Cubana de Ingeniería
Fig. 3. Visor de reglas del sistema difuso R1,Rw.
Fig. 4. Visor de reglas del sistema difuso R2 ,Rc. Servicios de
gas y agua.
Yelennis Godoy Valladares - Olga Susana Suárez Hernández
CONCLUSIONES
La utilización de la lógica difusa permite el trabajo con la
subjetividad incluida en el análisis de riesgo y la obtención
de los resultados a partir de reglas sencillas que parten del
criterio y la experiencia, por lo que la elaboración del sistema
difuso para el análisis de riesgo constituye una herramienta
que facilita el trabajo del diseñador. Esta herramienta además
considera las características de la variación espacio-temporal
de la actividad ceráunica y las características de las
edificaciones así como las condiciones ambientales del
país.
REFERENCIAS
Fig. 5. Visor de reglas del sistema difuso R1 ,Rc. Reevaluación
de Rc.
1.GODOY, Y. y SUÁREZ, O. S. "Aplicación de la lógica difusa
al análisis de riesgo por rayo". Revista Cubana de
Ingeniería. 2006, vol. I, nº 2, p. 5-12.
2. GODOY, Y. Aplicación de lógica difusa al análisis de riesgo
por rayo en Cuba. Tesis de Maestría, Instituto Superior
Politécnico José Antonio Echeverría, Ciudad de La Habana.
2006.
AUTORAS
Yelennis Godoy Valladares
Ingeniera Electricista, Máster en Ingeniería Eléctrica,
Empresa de Proyectos de la Industria Básica (EPROB),
Ciudad de La Habana, Cuba
Fig. 6. Visor de reglas del sistema difuso R1 ,Rw . Reevaluación de
Rw.
Olga Susana Suárez Hernández
Ingeniera Electricista, Doctora en Ciencias Técnicas,
Investigadora Titular, Centro de Investigaciones y Pruebas
Electroenergéticas (CIPEL), Instituto Superior Politécnico
José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Fig. 7. Visor de reglas del sistema difuso R2 ,Rc. Reevaluación
de Rc.
Application of Fuzzy Logic in the Analysis of Lightning Risk
Abstract
In this paper the diffuse tool of analysis of risk of lightning impact in structures is presented for the
conditions of Cuba, as well as its application in a specific case as part of its validation.
Key words: analysis of risk, fuzzy logic, lightning, keraunic level.
Revista Cubana de Ingeniería
39
29 de noviembre al 3 de diciembre de 2010
15
CONVENCIÓN CIENTÍFICA
DE INGENIERIA Y ARQUITECTURA
PALACIO DE CONVENCIONES DE LA HABANA
2 0 1 0
ANIVERSARIO
46
El Instituto Superior Politécnico José Antonio Echeverría,Cujae, Centro Universitario
Rector de Cuba en el campo de las Ciencias Técnicas y la Arquitectura, tiene el gusto
de invitar a la comunidad científica y académica, a la XV Convención Científica de
Ingeniería y Arquitectura (CCIA 15), a celebrarse del 29 de noviembre al 3 de
diciembre de 2010 en el Palacio de Convenciones en La Habana, Cuba.
La CCIA 15 abarca temáticas de las ediciones anteriores y otras nuevas, las cuales
cubren las líneas de mayor importancia en el desarrollo científico, tecnológico,
pedagógico y de gestión en las áreas de ingeniería y arquitectura.
Mireya Mesa Tamargo
Organizadora Profesional de Congresos
Palacio de Convenciones de La Habana
Telef: (537) 208 6176 / 202 6011-19 ext 1512
E-mail:[email protected]
Fax:(537) 202 8382
http:www.cpalco.com
http://www.cciacuba.com | http://www.cujae.edu.cu/eventos/convencion
La Ingeniería y la Arquitectura
Información y Comunicación
Dr. Gil Cruz Lemus
Secretario Ejecutivo
Instituto Superior Politécnico José Antonio Echeverría
Calle 114 No. 11901 entre 119 y 127
Cujae, Marianao, Ciudad de La Habana, Cuba,
Apartado Postal 19390
Telef:(537)266 3277, (537)260 8454
Fax:(537)267 2964.
E-mail:[email protected], [email protected]
por un Futuro Sustentable
La solicitud de información de participación, así como el envío de resúmenes, se puede hacer
directamente a la Secretaría de la CCIA 15 o utilizando los correos electrónicos que aparecen
asociados a los eventos relacionados anteriormente.
Revista Cubana de Ingeniería, 1(3), 41-50, 2010
INGENIERÍA ELÉCTRICA
Calidad de la energía y generación
distribuida en Cuba
Marielys Francisco Fernández
Dirección de Parques de Diversiones,Ciudad de La Habana, Cuba
Raúl Díaz Fuentes
Miguel Castro Fernández
Correo electrónico:[email protected]
Ángel Costa Montiel
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Resumen
Entre las tecnologías de mayor difusión que en la actualidad se utilizan dentro de la generación
distribuida (GD) están los grupos electrógenos (GE) Los GE en cualquiera de sus formas de explotación, exigen un análisis de los problemas que puedan manifestarse por su presencia; uno de estos
problemas está relacionado con la calidad de la energía eléctrica (CEL). El presente trabajo expone
los primeros resultados de un estudio que va dirigido a buscar respuestas sobre este tema ante
diferentes tipos de perturbaciones que pueden presentarse en la red: Cortocircuito y variación de la
tensión en los terminales del GE y la desconexión súbita de la carga (rechazo de carga).
Palabras clave: grupos electrógenos, generación distribuida, calidad de la energía
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
Puede plantearse que en la actualidad aún no existe una
definición rigurosa del concepto de generación distribuida
(GD), el cual, de manera general, se refiere a la generación
de energía eléctrica mediante instalaciones mucho más
pequeñas que las grandes centrales convencionales, y
situadas cerca de las instalaciones que consumen esta
energía eléctrica.
Según la definición del Instituto de Ingenieros Eléctricos y
Electrónicos (Institute of Electrical and Electronic Engineers,
IEEE), la cual es una de las más conocidas, la generación
distribuida "...es la generación de electricidad mediante
instalaciones que son suficientemente pequeñas en relación
con las grandes centrales de generación, de forma que se
puedan conectar casi en cualquier punto de un sistema
eléctrico".[1]
Teniendo en cuenta el concepto de algunos autores se
podría traducir como:
• Generación a pequeña escala instalada cerca del lugar
de consumo.
• Producción de electricidad con instalaciones
suficientemente pequeñas en relación con las grandes
centrales de generación, de forma que se puedan conectar
casi en cualquier punto de un sistema eléctrico.
• Generación conectada directamente a las redes de
distribución.
• Generación de energía eléctrica mediante instalaciones
mucho más pequeñas que las centrales convencionales y
situadas en las proximidades de las cargas.
• Sistemas de generación eléctrica o de almacenamiento,
situados dentro o cerca de los centros de carga.
Calidad de la energía y generación distribuida en Cuba
• Producción de electricidad por generadores colocados,
o bien en el sistema eléctrico de la empresa, en el sitio del
cliente, o en lugares aislados fuera del alcance de la red de
distribución.
• Generación de energía eléctrica a pequeña escala
cercana a la carga, mediante el empleo de tecnologías
eficientes; destacandose la cogeneración, con la cual se
maximiza el uso de los combustibles utilizados.
Puede expresarse entonces que la GD es un sistema que
comprende la generación de energía eléctrica localizada,
cercana al centro de carga con almacenamiento y
administración de la misma, que puede trabajar de forma
aislada o integrada a la red eléctrica, para proporcionar
múltiples beneficios en ambos lados del medidor.
El auge de los sistemas de GD se debe a los beneficios
inherentes a la aplicación de esta tecnología, tanto para el
usuario como para la red eléctrica. A continuación se
mencionan algunos de los beneficios.
Beneficios para el usuario
• Incremento de la confiabilidad.
• Aumento de la calidad de la energía.
• Reducción del número de interrupciones.
• Uso eficiente de la energía.
• Menor costo de la energía.
• Uso de energías renovables.
• Facilidad de adaptación a las condiciones del sitio.
• Disminución de emisiones contaminantes.
Beneficios para el suministrador
• Reducción de pérdidas en transmisión y distribución.
• Abasto en zonas remotas.
• Libera capacidad del sistema.
• Proporciona mayor control de energía reactiva.
• Mayor regulación de tensión.
• Disminución de inversión.
• Menor saturación.
• Reducción del índice de fallas.
Entre las tecnologías que se han ido introduciendo en los
sistemas eléctricos con la concepción de la generación
distribuida, están los grupos electrógenos (GE) que han
mostrado una mayor posibilidad de uso por su facilidad de
operación, simpleza y seguridad (figura1).
Fig. 1. Grupos electrógenos.
42
Revista Cubana de Ingeniería
GRUPOS ELECTRÓGENOS Y CALIDAD
DE LA ENERGÍA ELÉCTRICA
En la red eléctrica, los GE han sido utilizados, por lo
general, para compensar las interrupciones de energía de
las redes de distribución, donde la falta de esta puede causar
daños importantes o donde la red eléctrica no está disponible,
es insuficiente o no es rentable (lugares muy apartados o de
difícil acceso donde llevar la electricidad de forma tradicional
no es económico por las grandes distancias; por ejemplo:
islas o pequeños asentamientos en parajes intrincados).
De igual manera, el grupo electrógeno se ha convertido en
un elemento de extrema necesidad y seguridad en grandes
tiendas, negocios y todo lugar donde exista una movilidad
de personas.
Los GE pueden prestar servicios generando:
• De forma continua durante 24 horas e
ininterrumpidamente como generación base.
• De forma intermitente para servicios donde es
necesario equilibrar los consumos y cubrir picos de consumo.
• Como servicio de emergencia, en hospitales,
sanatorios, etcétera).
Aún cuando la red de alimentación de energía eléctrica en
un sistema cualquiera se mantenga en general sin problemas
en el servicio, es recomendable la colocación de grupos
electrógenos en todos los edif icios donde existan
posibilidades de riesgos personales (policlínicos, hospitales),
así como también en edificios de más de tres pisos de altura,
teatros, clubes y estadios deportivos; lugares donde por su
importancia económica o social sea necesario el servicio
continuo de electricidad.
Según la norma ISO 8528 [2] los GE poseen dos regímenes
de funcionamiento:
• Grupos de generación o producción.
• Grupos de emergencia.
Los GE presentan los siguientes modos de operación:
• Operación continua a carga constante: Operación
del grupo sin tiempo límite tomando en consideración los
períodos de mantenimiento.
Ejemplo: Operando como carga base en ciclo combinado.
• Operación continua a carga variable: Operación del
grupo sin tiempo límite tomando en consideración los períodos
de mantenimiento.
Ejemplo: Cuando el grupo opera en una localización donde
no existe otra instalación o donde la alimentación de la
instalación existente no es confiable.
• Operación limitada a carga constante: Se define como
la operación del grupo limitada en tiempo a carga constante.
Ejemplo: Cuando el grupo opera en paralelo con alguna
instalación o con el sistema durante los períodos de carga
pico.
• Operación limitada en tiempo a carga variable: Se
define como la operación del grupo limitada en tiempo a carga
variable.
Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel
Ejemplo: Cuando el grupo realiza función de soporte básico
a una instalación dada (grupo de emergencia) ante la falta
de la alimentación a la instalación.
Cuando los GE están conectados a una red eléctrica
pueden caracterizarse por su conexión de forma aislada o
varias unidades en paralelo (baterías); esta forma de GD trae
nuevas consecuencias técnicas en la red, como son:
• Las redes dejan de ser radiales para convertirse en anillos
con varias unidades generadoras, por lo que se obtienen
flujos de potencia y de cortocircuito en varias direcciones.
• Se tienen más altas constantes de tiempo y se deben
tener más cortos tiempos de limpieza por problemas de
estabilidad.
• Se requiere un cambio en el sistema de protecciones
que garantice una calidad del suministro eléctrico a los
consumidores durante las condiciones de operación normal
y de emergencia, lo cual constituye un reto para los ingenieros
en protección.
Otra de las direcciones en la que hay que trabajar y definir
los problemas es la calidad de la energía (CEL). Como se
conoce, la CEL es un concepto que hoy forma parte intrínseca
de la gestión de una empresa eléctrica pues no solo pasa
por cuestiones relacionadas con el comportamiento de
indicadores técnicos como pueden ser la duración equivalente
de las interrupciones del servicio (DES), la frecuencia
equivalente de las interrupciones del servicio (FES) o la
distorsión individual o total de armónicas (DTA), sino que
tiene en cuenta también aspectos relacionados con la
atención al cliente.
Por lo general se plantea que existen cuatro variables que
definen la CEL:
• Amplitud de la señal.
• Frecuencia de la señal.
• Forma de la señal.
• Continuidad del servicio.
La entrega de la potencia que los GE deben hacer al
sistema necesita cumplir con estos requerimientos, pero
también deben tenerse en cuenta las influencias que el
sistema pueda tener sobre el comportamiento de los GE.
Desde este punto de vista es conveniente tener en
consideración los diferentes tipos de perturbaciones que
pueden afectar el funcionamiento de los GE, vistos como un
todo, y agrupados en siete categorías:
• Transitorios electromagnéticos.
• Variación de tensión de corta duración.
• Variación de tensión de larga duración.
• Desbalance de tensión.
• Distorsión de la forma de la señal.
• Fluctuaciones de tensión.
• Variaciones de la frecuencia industrial.
Entre las perturbaciones más conocidas, que forman parte
de estos grupos, están los armónicos, cuyos efectos nocivos
provocan en generadores y motores un incremento en el
calentamiento, debido a las pérdidas de hierro y cobre a las
frecuencias de las armónicas; la eficiencia de estos equipos
resulta afectada al ser necesario limitar la carga para
mantener dentro de límites determinados, para que no afecte
sus características, el aislamiento de los enrollados. Otro
aspecto es la posible presencia de oscilaciones mecánicas
en grupos turbogenerador y/o carga - motor a consecuencia
de pares de armónicas particulares como la 5ta. y 7ma.
armónicas, lo que puede llevar al envejecimiento acelerado
del eje y las partes mecánicas conectadas al mismo, y
provocar fallo por fatiga.
Otra de las perturbaciones más conocidas son las
fluctuaciones de tensión en la red, que muchos especialistas
identifican con las titilaciones (flicker) que se producen en
los sistemas de iluminación. Al respecto es bueno aclarar
que las titilaciones son una consecuencia de las fluctuaciones
de tensión, que son una sucesión de variaciones de tensión
o de variaciones cíclicas o aleatorias de la envolvente de
tensión, cuyas características son la frecuencia de la variación
y su amplitud; este fenómeno puede producirse debido a
cargas con variaciones continuas y rápidas en la magnitud
de la corriente de carga que pueden causar variaciones de
tensión. En resumen, puede decirse que la fluctuación de
tensión es en realidad un fenómeno electromagnético,
mientras que la titilación o flicker es un resultado indeseable
de la fluctuación de tensión en algunas cargas.
En varias ocasiones, a finales de la década de 1990,
especialistas cubanos realizaron mediciones de fluctuación
de tensión en industrias siderúrgicas. Más recientemente,
tras la realización de una medición puntual en la barra de
220 kV de una de las subestaciones fundamentales del SEN
se detectaron valores muy altos para el factor de distorsión
de armónicas (THD, según sus siglas en inglés), tanto para
la corriente como para la tensión. Posteriormente se ejecutó
un grupo de mediciones simultaneando lecturas de ambos
parámetros por dif erentes alimentadores de dicha
subestación y de otras a niveles de 110, 34,5 y 13 kV,
pertenecientes a una red regional, observándose valores de
THD de tensión del orden de 1,5 % y THD de corriente del
orden del 40 %, en la barras de la subestación de 220 kV,
superiores a los esperados; mientras que estos valores no
eran superiores a lo permisible, según las regulaciones
internacionales, en el resto de los nodos donde se efectuó
la medición. De aquí se extrajo la conclusión de que era
muy posible que la empresa que se alimentaba de la barra
monitoreada, una empresa de muy alta carga, podría estar
introduciendo señales de armónicas que navegarían a través
de la red de 220 kV, no siendo así en el caso de la red de
110 kV y/o distribución.
De forma resumida, la situación en Cuba con relación a la
CEL, es la siguiente:
• No hay regulaciones sobre el tema ni dentro del propio
sector eléctrico ni hacia productores o comercializadores
Revista Cubana de Ingeniería
43
Calidad de la energía y generación distribuida en Cuba
de equipos, e incluso ni hacia los clientes o usuarios de los
equipos.
• Se han realizado estudios muy limitados, tanto en lo
referente al alcance como a los resultados, dirigidos
fundamentalmente a evaluar puntualmente el problema del
flicker o de las variaciones de tensión y de los armónicos.
• No hay una cultura sobre el tema, ni en las propias
empresas eléctricas del país ni en los usuarios .
La introducción de los GE en forma masiva en el sistema
eléctrico cubano impone la necesidad de analizar este tema
con más profundidad, si se considera la función que
desempeñan en dicho sistema estos GE.
GRUPOS ELECTRÓGENOS EN CUBA
La máxima dirección del Gobierno cubano ha decidido para
los próximos años utilizar de forma intensiva los GE
considerando las ventajas que hoy plantea este tipo de
generación distribuida.
Los GE diésel que se han instalado en el país trabajan en
régimen de emergencia, sin sincronización a la red, y en
régimen de producción, aislado o en baterías.
En régimen de emergencia los GE, con capacidades que
van desde 7 kVA hasta de 500 kVA en su mayoría, alimentan
pequeñas cargas de importancia social o económica como
panaderías, policlínicos y empresas, y la idea es que sean
utilizados para aliviar al sistema en horarios picos al asumir
su carga cuando esta se desconecte de la red.
Cuando funcionan en régimen de producción conformando
baterías, las mismas pueden trabajar en régimen normal o
en emergencia; en ambas condiciones se encuentran
sincronizadas en paralelo con la red de distribución.
Las baterías están constituidas por grupos de motores
múltiplos de cinco u ocho, en dependencia del GE (por
ejemplo, una batería son cinco u ocho motores, dos baterías
son 10 o 16 motores y así sucesivamente). Cuando están
en funcionamiento normal, disponiendo de tensión en el lado
de baja del transformador, el motogenerador arranca por
programación horaria o manualmente por una orden del
operador. El sistema de sincronización verifica el sincronismo
a ambos lados del interruptor de conexión y automáticamente
cierra cuando se verifique la condición de sincronismo entre
ambos lados. Las mismas baterías se dice que están en
funcionamiento de emergencia cuando los grupos
motogeneradores arrancan solo a falta de la red y sin tensión
en la barra de baja tensión de los transformadores elevadores,
siendo esta operación manual. Debido a una caída del SEN,
las baterías de GE pueden trabajar como islas, pero debe
tenerse en cuenta que quedarán aislados de cualquier otra
generación, encargándose de la vigilancia de tensión y
frecuencia. En situación de isla las cargas se introducirán
de forma progresiva para que estos grupos tengan tiempo de
poder absorberlas y repartírselas.
Cuando los GE son de mayor potencia que los de
emergencia y en conformación solitaria o de grupos de dos
44
Revista Cubana de Ingeniería
o tres GE, trabajan sincronizados a la red y pueden, en caso
de que la red quede sin energía alimentar una parte del
sistema eléctrico, estando desconectado eléctricamente del
resto del sistema, se dice que están trabajando en régimen
de producción aislado. En esta situación los GE pueden
trabajar en horarios picos para aliviar la demanda y así ayudar
al sistema electroenergético nacional (SEN).
Los grupos electrógenos de fueloil que ya se están
instalando formarán parte del régimen base, sincronizados
a la red, con un modo de entrega de potencia continua,
entendiéndose como entrega de potencia continua la máxima
potencia que el GE es capaz de entregar continuamente a
una carga eléctrica constante, cuando opera un número
ilimitado de horas en las condiciones de operación que el
productor ha establecido, que incluye sus intervalos de
mantenimiento y los procedimientos de operación, según
se presenta en la figura 2.
Fig. 2. Entrega de potencia en forma continua.
Desde el punto de vista de la CEL, los GE deben
cumplimentar requerimientos técnicos para la tensión, la
frecuencia y las potencias de entrega. Estos requerimientos,
establecidos en la ISO 8528,[2] están acordes con las clases
de comportamiento de los GE, los cuales a su vez están en
concordancia con las cargas que alimentan dichos GE, y
que son:
• Clase G1: Aplica para los grupos donde están conectadas
cargas que solo requieren los parámetros básicos de tensión
y frecuencia.
• Ejemplo: Aplicaciones de propósito general (cargas
eléctricas sencillas y de iluminación).
• Clase G2: Aplica para grupos donde las características
de tensión sean muy similares a las del sistema eléctrico
público comercial con el cual opera. En estos casos, se
permiten desviaciones temporales de tensión y frecuencia
cuando ocurren cambios en la carga.
Ejemplo: Sistemas de iluminación, bombas, ventiladores
y grúas.
• Clase G3: Aplica cuando los equipos conectados
demandan de los grupos, determinadas características de
estabilidad y niveles de frecuencia, tensión y forma de ondas.
Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel
Ejemplo: Cargas de telecomunicaciones o controladas por
tiristores.
• Clase G4: Aplica cuando los requerimientos de estabilidad
y niveles de frecuencia, tensión y forma de onda son
excepcionalmente severas.
Ejemplo: Equipamiento que procesa información o sistemas
de cómputos.
Para un óptimo funcionamiento del GE hay que conocer a
qué clase pertenece (G1, G2, G3 o G4) y, según esta, hacer
un análisis de sus limites de variación de tensión, sus
requerimientos de frecuencia y de potencia activa y/o reactiva.
Como dato de interés, los GE instalados en Cuba,
se consideran con clase de comportamiento dentro del
grupo G3.
RESULTADOS Y DISCUSIÓN
Para iniciar los estudios sobre el comportamiento desde
el punto de vista de la CEL se decidió realizar una simulación,
utilizando como programa base el MatLab, de dos tipos de
GE, y comparar su comportamiento con otros generadores,
a través de su respuesta ante tres tipos de perturbaciones
diferentes:
• Cortocircuito sincrónico trifásico a la salida de los
terminales de la máquina.
• Desconexión súbita total de la carga.
• Desconexión parcial de la carga.
Para ello se modelaron seis tipos de generadores: Dos
hidrogeneradores, dos generadores de combustión interna
convencionales de plantas termoeléctricas y dos de GE, uno
diésel (MTU) y otro de fueloil (MAN), cuyos parámetros se
encuentran en la tabla 1.
A partir de las ecuaciones transformadas de Park (para
tensión, flujo, torque electromagnético y movimiento)[3] se
realizaron las simulaciones que permitieron evaluar el
comportamiento de los GE y los otros generadores ante las
perturbaciones planteadas.
Cortocircuito sincrónico trifásico a la salida de los
terminales de la máquina
La corriente de cortocircuito es la máxima intensidad de
corriente que se produce súbitamente cuando la tensión U
en los bornes del generador es igual a cero, y sus valores
picos son el máximo valor que puede alcanzar dicha corriente
de cortocircuito, los cuales corresponden a una onda de
corriente alterna con componentes de directa.
La corriente que circula por cada fase del generador en
cortocircuito, es similar a la que circula por un circuito
R-L serie, alimentado bruscamente por una fuente de
tensión sinusoidal, es decir, la corriente es asimétrica
respecto al eje de tiempo y disminuye en f orma
exponencial. Sin embargo, existe una dif erencia
fundamental y ella radica en que la reactancia del
generador no permanece constante durante el fenómeno,
lo cual se puede observar en la figura 3.
En la tabla 2 se presentan las variaciones de la corriente
de cortocircuito que sufren, en los primeros ciclos, los
diferentes tipos de generadores.
El mayor valor de  Icc lo presenta la turbina convencional
de combustión interna F1 de 25 MVA con un valor de 15,15
en pu. Los que le siguen a continuación en orden decreciente
son los grupos electrógenos MTU de 2,35 MVA y MAN de
3,87 MW con valores de 10,28 y 9,15 en pu respectivamente.
Tabla1
P arámetros de las diferentes turbinas simuladas
P arámetros
MTU
MA N
H4
H9
F1
F7
Tensión
Volt
480
13 800
13 800
13 800
13 800
1 500
P otencia
MVA
2, 360
4,875
35
86
25
147
Reactancia sincrónica de eje directo
Xd
3,050
1,721
1,000
1,050
1,250
1,537
Reactancia sincrónica de eje en cuadratura
Xq
1,750
0,924
0,620
0,670
1,220
1,520
Reactancia transitoria en eje directo
X' d
0,299
0,309
0,260
0,320
0,332
0,299
Reactancia subtransitoria en eje directo
X"d
0,160
0,187
0,235
0,258
0,120
0,216
Reactancia subtransitoria
X"q
0,168
0,208
0,264
0,306
0,120
0,216
Reactancia de secuencia negativa
X2
0,158
0,270
0,312
C te de tiempo transitoria de circuito abierto
en eje directo
T' do
3,600
4,393
7,100
4,000
4,750
4,300
C te de tiempo transitoria de cortocircuito en
eje directo
T' d
0,350
0,869
2,300
2,020
0,882
0,836
C te de tiempo subtransitoria en eje directo
T"d
0,018
0,012
0,035
0,051
0,035
0,035
C te de tiempo de cortocircuito de armadura
Ta
0,043
0,089
0,018
0,286
0,177
0,470
Revista Cubana de Ingeniería
45
Calidad de la energía y generación distribuida en Cuba
Como puede observarse la mayor  Icc, hasta que las
turbinas alcancen su estado estable, la tiene la turbina de
hidroeléctrica H4 y a continuación están los GE. Es
precisamente el GE MTU de 2,35 MVA el que menor tiempo
toma en alcanzar la estabilidad con 2,15 s.
Tabla 3
Variación de la Icc hasta alcanzar su estado estable
Xd
X´d
X´´d
Pico
t estable
MTU
3,050
0,299
0,160
2,11
2,15
Man
0,721
0,308
0,187
2,27
5,50
H4
1,000
0,260
0,235
2,77
2,35
H9
1,050
0,320
0,258
2,18
10,00
F1
1,250
0,332
0,120
1,64
4,60
F7
1,537
0,299
0,216
0,93
5,55
Fig. 3. Respuesta de los GE a un cc súbito, trifásico en los
terminales del generador.
Tabla 2
Variación de la Icc en cada generador
No.
GE
Razón 1-3
Razón 1-4
Razón 1-5
1
MTU
1,81
1,24
1,17
2
Man
1,40
1,11
1,10
3
H4
1,50
1,12
1,11
4
H9
1,12
1,05
1,04
5
F1
1,36
1,13
1,11
6
F7
1,13
1,05
1,04
En cada caso (las turbinas convencionales de combustión
interna, las de las hidroeléctricas y las de los electrógenos)
mientras menor es la potencia, mayor será la  Icc.
Si se analiza la  Icc durante un tiempo más prolongado,
con lo cual se puede observar cómo la máquina llega a su
estabilidad, y el mayor valor alcanzado de Icc pasado los
primeros instantes, se obtienen los resultados que se
muestran en la tabla 3 y en la figura 4.
46
Revista Cubana de Ingeniería
Fig. 4. Variación de Icc hasta alcanzar el estado estable.
Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel
Desconexión súbita total de la carga
Ante una anomalía o falla del sistema eléctrico que
ocasione la desconexión súbita del GE del sistema, es decir,
la unidad pierde la carga que estaba alimentando y se
presenta el fenómeno conocido como rechazo de carga
(reactiva, activa y/o nominal), el cual se entiende como el
comportamiento del generador ante la anomalía. Al ocurrir
un rechazo de carga, la unidad tiende a incrementar su
velocidad y el regulador de velocidad de la misma debe
controlar este evento, manteniéndola girando a su velocidad
nominal y lista para su reconexión al sistema, con lo que de
este modo se evita que se produzca una velocidad tan alta
que cause daño a la unidad, a la vez que se mantiene su
disponibilidad para el sistema, aunque es inevitable una
variación de la tensión en los terminales de salida del GE.
Los resultados obtenidos de la simulación se presentan en
la tabla 4 y la figura 5, para el caso de los GE.
La turbina que presenta mayor rechazo de carga reactiva
frente a una caída total del sistema es el GE MTU; como
dato de interés al respecto, este generador tienen una Xd
muy elevada (3,05 pu) lo cual puede ser la causa de este
resultado. La segunda turbina de mayor rechazo es también
el GE MAN.
Desconexión parcial de la carga
La disminución parcial brusca de la carga que se alimenta
desde los GE, sin llegar a la desconexión de la misma, puede
provocar la variación de la corriente en el estator del generador
del GE. Para el caso analizado se simula una variación de la
corriente en ambos ejes d y q de la máquina, en un orden
del 30 %, en las condiciones que se presentan en la tabla 5.
Como puede observ arse en la tabla 5 y en las
figuras 6 y 7, las variaciones de tensión que se producen en
los terminales del GE al ocurrir la variación de la corriente
por el estator están en el orden del 9 al 48 % en el GE MTU,
en un entorno de 0,1 s, mientras que en el GE MAN varía
entre el 9 y el 37 %, en un entorno de 0,1 a 0,6 s, se observa
una variación más brusca en el caso del GE MTU. Por otro
lado, estas variaciones están en el mismo entorno que los
otros generadores analizados.
Asímismo, una variación de la carga provoca la variación
de la corriente en el estator, pero también puede ocasionar
una variación en la tensión del mismo. Lo que puede variar
esta corriente fue analizado a partir de considerar una
variación de tensión (  U) del 20% en el estator. Los
resultados obtenidos se muestran en la tabla 6 y la figura 8.
Se puede apreciar que en las turbinas convencionales de
combustión interna y las hidroeléctricas, la que posea una
mayor potencia alcanza un mayor pico de corriente (valor
máximo de corriente en la onda de amortiguación, hasta su
llegada a estado estable) y un mayor tiempo de
restablecimiento.
Las hidroeléctricas son las de menor pico de corriente
ante una variación del 20% de la tensión. En el caso de los
GE, el mayor pico lo poseerá el de menor potencia, pero es
entre ellos el que tenga una Xd mayor.
Tabla 4
Variación de la tensión en los terminales del GE al
ocurrir una desconexión súbita de la carga
P(MW)
X´´d
V
Xd
X'd
t (s)
MTU 2,35
3,050
0,299 0,160
2,83
21,20
Man
3,87
1,721
0,308 0,187
2,03
25,25
H4
35,00
1,000
0,260 0,235
1,43
33,35
H9
86,00
1,050
0,320 0,258
1,46
22,65
F1
25,00
1,250
0,332 0,120
1,75
28,85
F7
147,00 1,537
0,299 0,216
1,81
25,25
Fig. 5. Variación de la tensión en los terminales de los GE
al ocurrir una desconexión súbita de la carga.
Revista Cubana de Ingeniería
47
Calidad de la energía y generación distribuida en Cuba
Debido a que la  V es una disminución, las variaciones
de corriente del estator para todas las turbinas, estabilizan
por debajo del valor unitario.
Si se analizan estos resultados con relación a los
requerimientos técnicos establecidos para GE de clase G3,
tal y como se han comprado para Cuba, se tienen los
siguientes resultados:
• La desviación transitoria de la tensión por variación de la
carga, para el grupo G3 es de un 18%, según la norma
8528. [2] Al analizar los valores obtenidos ante esta
perturbación en la simulación (tabla 5), se aprecia que para
las diferentes variaciones súbitas de corriente en el estator
analizadas, la variación de tensión es superior a los rangos
especificados por la norma ISO 8528 para el primero y tercer
casos, las cuales son propias para el grupo G1; no debe
obviarse que estos análisis se realizaron sin considerar el
efecto de la saturación y sin tener en cuenta la actuación de
un regulador de tensión, lo que evidencia la necesidad de
este regulador para que ante una perturbación de este tipo
la máquina pueda trabajar dentro de los límites establecidos.
• Ante una perturbación del tipo de desconexión súbita de
la carga (rechazo de carga), las variaciones que se observan
de la tensión en los terminales del GE (tabla 4), son superiores
a los establecidos como requisitos técnicos por la ISO ya
mencionada, lo que debe también ser analizado bajo las
condiciones que se plantearon en el estudio. Se evidencia
que sin un control de tensión, estos grupos no debe cumplir
con los requerimientos establecidos.
Tabla 5
Variación de la tensión en los generadores ante una variación
súbita de la corriente en el estador
Corriente en los ejes
Primer caso
Segundo caso
Tercer caso
diq
did
0,3
0,3
0
0,3
0,3
0
Primer caso
Xd
X´d
X´´d
U
MTU
3,050
0,299
0,160
0,479
0,116
Man
1,721
0,308
0,187
0,369
H4
1,000
0,260
0,235
H9
1,050
0,320
F1
1,250
F7
1,537
48
t (s)
Fig. 6. Variación de la tensión en el GE MTU ante la variación
súbita de la corriente en el estator.
Segundo caso
 U
0,113
U
t (s)
0,389
0,106
0,500 0,093
0,190 0,276
0,475
0,264
0,250 0,078
0,200 0,185
0,200
0,258
0,296
0,258 0,096
0,264 0,200
0,200
0,332
0,120
0,463 1,015
0,100
0,543 0,364
1,069
0,299
0,216
0,542 1,015
0,090
0,417 0,453
1,060
Revista Cubana de Ingeniería
0,090
t (s)
Tercer caso
Marielys Francisco Fernández - Raúl Díaz Fuentes - Miguel Castro Fernández - Ángel Acosta Montiel
Fig. 8. Variación de corriente del estator ante una  U en el
estator.
CONCLUSIONES
Fig. 7. Variación de la tensión en el GEMAN ante la variación
súbita de la corriente en el estator.
T a b la 6
A n á lis is d e l v a lo r d e la c o r r ie n t e d e l e s t a t o r
a n t e u n a  U s ú b it a d e u n 2 0 %
Xd
X ´d
X ´´d
P ic o
t (s )
MTU
3 ,0 5 0
0 ,2 9 9
0 ,1 6 0
0 ,5 7 8
2 ,5 0 0
Man
1 ,7 2 1
0 ,3 0 8
0 ,1 8 7
0 ,5 4 5
3 ,7 7 0
H4
1 ,0 0 0
0 ,2 6 0
0 ,2 3 5
0 ,4 4 5
2 ,0 0 0
H9
1 ,0 5 0
0 ,3 2 0
0 ,2 5 8
0 ,5 6 4
7 ,5 6 0
F1
1 ,2 5 0
0 ,3 3 2
0 ,1 2 0
0 ,6 7 0
3 ,7 9 0
F7
1 ,5 3 7
0 ,2 9 9
0 ,2 1 6
0 ,8 1 0
3 ,8 3 0
El reciente concepto de generación distribuida, está
emergiendo como un nuevo paradigma de generación y
distribución de la energía eléctrica. Las líneas de distribución
que componen el sistema eléctrico en la actualidad fueron
diseñadas y construidas hace ya algunas décadas. Dichas
líneas fueron concebidas en un contexto totalmente diferente
al actual, y con el propósito exclusivo de distribuir la energía
proveniente de las líneas de transporte entre los clientes.
Con la generación distribuida nace un nuevo concepto de
distribución. Este sistema de distribución integra diferentes
tipos de tecnologías, con el objeto de construir un sistema
de distribución más flexible, fiable y seguro.
En esta dirección, Cuba se encamina hacia la adquisición
e instalación de equipos de generación más eficientes y
seguros como los GE y otras formas de generación, que
convenientemente ubicados en distintos puntos del país
Revista Cubana de Ingeniería
49
Calidad de la energía y generación distribuida en Cuba
(generación distribuida), desempeñan un papel fundamental
en la búsqueda de soluciones para un suministro con calidad.
La evolución y sofisticación de los equipos electrónicos
modernos los ha hecho más sensibles a perturbaciones; sin
embargo, el usuario de estos desea que su funcionamiento
sea confiable, flexible y seguro. Estas condiciones exigen
un estudio sistemático, tanto de las fuentes de perturbación
como de la compleja interacción entre estas y el equipo
susceptible.
De igual forma, la decisión de utilizar los GE como un
elemento fundamental en el esquema eléctrico cubano
requiere de estudios que permitan definir las mejores formas
de explotación, las variaciones en los esquemas de
protección y las adecuaciones generales y particulares que
la presencia de dichos grupos impone en dicho sistema.
AUTORES
Marielys Francisco Fernández
Ingeniera Electricista, Dirección de Parques de
Diversiones, Ciudad de La Habana, Cuba
REFERENCIAS
1.Generación
Distri buida.
Di sponi ble
en:
www.energiasverdes.com./
2. ISO 8528:1993,Reciprocating internal combustion engine
driven alternating current generating sets, First Edition.
3. AMAYA ENCISO, MARTHA CECILIA. Modelización de
los efectos de saturación y saturación cruzada en una
maquina sincrónica de polos salientes. Tesis de
doctorado, Universidad del Valle, Cali, Colombia, abril,
2004.
Ángel Costa Montiel
Ingeniero Electricista, Doctor en Ciencias Técnicas,
Profesor Titular, CIPEL, Instituto Superior Politécnico
José Antonio Echeverría, Cujae, Ciudad de La Habana,
Cuba
Raúl Díaz Fuentes
Ingeniero Electricista, Ciudad de La Habana, Cuba
Miguel Castro Fernández
Ingeniero Electricista, Doctor en Ciencias Técnicas,
Profesor Titular, Centro de Investigaciones y Pruebas
Electroenergéticas (CIPEL), Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad
de La Habana, Cuba
Electric Power Quality and Distributed Generation in Cuba
Abstract
Diesel engine generator (RM) is one of the most used technologies on distributed generation
(DG). The presence of RM, no manner its operation form need an analysis about differents
problems: one of them is related with power quality (PQ). First results obained inside one
study directed to obtain answers about differents perturbations for the RM presence like
shortcircuit and voltage variation on RM termianls and rejected charge are presented in this
paper.
Key words: diesel engine, distributed generation, power quality
50
Revista Cubana de Ingeniería
Revista Cubana de Ingeniería, 1(3), 51-60, 2010
INGENIERÍA HIDRÁULICA
Importancia de los modelos digitales
del terreno en la simulación
hidráulica de inundaciones
Anders Pérez Brugal
Correo electrónico:[email protected]
Universidad de Oriente, Santiago de Cuba, Cuba
Juan F. Weber
Correo electrónico:[email protected]
Universidad Tecnológica Nacional, Córdoba, Argentina
Yaismil R. Castellanos
Correo electrónico:[email protected]
GeoCuba Oriente Sur, Agencia Catastro, Santiago de Cuba, Cuba
Resumen
En la investigación se analizó la influencia de la precisión de los modelos gigitales del terreno [MDT]
en los resultados de la simulación hidráulica de inundaciones. Se crearon cuatro MDT derivados de
fuentes diferentes: tres, a partir de cartografía vectorial de curvas de nivel a varias escalas y uno,
producto de un levantamiento con GPS en conjunto con una estación total. Este último se estableció
como punto de comparación para determinar los errores que impone el uso de dichos planos en la
representación del cauce y las llanuras de inundación y revelar su influencia en los resultados de la
simulación. Finalmente, en dependencia del plano utilizado, se obtuvieron divergencias de 2,88 hasta
18,82 m de altura al representar un mismo punto en el terreno, lo que influyó de manera significativa en
el cálculo de altura de la lámina de agua y en la estimación del área inundada, ya que se encontraron
errores de 1,6 hasta 2,6 m y de 0,039 hasta 0,283 km2 respectivamente, lo que demuestra que la
precisión del MDT con que se modela el terreno determina en gran medida los resultados de la
simulación.
Palabras clave:simulación hidráulica de inundaciones, modelos digitales del terreno, SIG
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
Los Sistemas de Información Geográfica [SIG] han marcado
desde su creación una pauta en cualquier disciplina
relacionada con el manejo de información espacial. Su papel
en la evolución de la hidráulica fluvial es, sin duda alguna, de
vital importancia. Felicísimo [1] los define como: "Un sistema
de hardware, software y procedimientos, elaborados para
facilitar la obtención, gestión, manipulación, análisis,
modelado, representación y salida de datos espacialmente
referenciados, con el objetivo de resolver problemas complejos
de planificación y gestión".
Por otra parte, muchos modelos matemáticos de
simulación hidráulica se han desarrollado con el apoyo en
algunos SIG debido a la gran potencia que poseen los
Modelos Digitales del Terreno [MDT] para representar el
relieve. Esta posibilidad abrió el camino para la modificación
de los modelos matemáticos de simulación hidráulica en la
incorporación de nuevas capacidades estrechamente
relacionadas con la información espacial. Entre los SIG que
presentan vínculos con estos modelos matemáticos se
destacan: AutoCad Land, Grass, Pcraster, Mike 11, ArcGis,
entre otros. Un ejemplo clásico de esta relación se encuentra
en el desarrollo llevado a cabo por el HEC para la mejora de
su modelo HEC-RAS. Como parte de este esfuerzo surgen
las aplicaciones implementadas sobre el popular SIG
ArcView: HEC-GeoRAS. Su utilización permite el cálculo
Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones
automatizado de buena parte de los parámetros que son
necesarios para la operación de los modelos implementados
en HEC-RAS, así se gana una mayor precisión al trabajar
con una resolución espacial mucho más elevada que la que
podría obtenerse mediante la introducción manual de los datos
del terreno.
El registro de la realidad física de una zona y, en particular,
de la información referente a elevaciones se ha realizado
frecuentemente mediante el uso de modelos analógicos, tales
como los mapas y planos por todos conocidos, situación
que en los últimos tiempos ha variado sensiblemente con la
introducción de modelos de naturaleza digital y en particular
los MDT. En estos, el almacenamiento de la información es
de tipo puramente numérico, lo que hace posible el desarrollo
de un análisis más detallado y profundo del relieve en cada
ámbito de estudio. Históricamente, estos modelos se han
dividido en dos grupos en función de la concepción básica
de la representación de los datos: vectoriales y raster.
Numerosos estudios han demostrado que la descripción
vectorial es más apropiada para representar variables
discretas que, por su naturaleza, están limitadas por fronteras
lineales claras, mientras las descripciones raster se adaptan
mejor a la representación espacial de variables continuas,
así como para otras con una naturaleza estadística o
probabilística (figura 1). En este sentido, Casa et al [2] revelan,
que el uso de mallas regulares para la representación de un
modelo del terreno no es el adecuado para el análisis
hidráulico de conducciones naturales debido a que este modo
de representación del terreno no permite definir con detalle
áreas con relieve complicado al no poder variar la resolución.
De este modo, los vectoriales [TIN] resultan más acertados
dado que están compuestos por una serie de puntos con
valores x, y, z conocidos, y un conjunto de arcos que los
unen para formar triángulos que permiten una mejor
representación de la geometría del río al admitir el ajuste de
la densidad de la red a la cantidad de variación de los
datos [3].
Igualmente, el TIN admite datos adicionales como puntos
de máxima cota o de depresiones y líneas de ruptura que
permiten representar los elementos característicos del terreno
como márgenes, cauce, afluentes, etc., que influyen de forma
decisiva en el comportamiento hidráulico del río modelado.
La captura de la información hipsométrica constituye el
paso inicial para transformar la realidad geográfica en una
estructura digital de datos a través de la construcción de un
MDT. Dicho proceso involucra diferentes métodos: directos
e indirectos. Los directos toman la información sobre la
superficie real del terreno y los indirectos se basan en un
conjunto de documentos analógicos o digitales. En Cuba y
en los países del tercer mundo o en vías de desarrollo se
trabaja, por lo general, a través de la digitalización directa
debido a los elevados precios de las tecnologías más
avanzadas que suponen los restantes. Por lo que en la
realidad cubana, los planos utilizados en la modelación de
inundaciones están sujetos al uso de cartografía vectorial de
curvas de nivel a escalas: 1: 10 000, 1: 25 000, 1: 50 000 y
1: 100 000 ya que estas son las más comunes en el país.
Diversas investigaciones se relacionan con el efecto de la
resolución espacial en modelos de simulación de inundación
como los de Casa et al, [2] Werner [4], Bates y De Roo [5],
Marks y Bates [6], Hardy et al [7], Omer et al [8] y
Horritt [9]. En esta bibliografía se manifiesta que la influencia
de la topografía, tanto del cauce como de la llanura de
inundación, constituye el factor limitante más importante en
la modelación hidráulica y su representación como variable
de entrada al modelo determina en gran medida la hidráulica
de la crecida modelada y la extensión del área inundada.
El presente trabajo resulta de la necesidad de aplicar este
tipo de investigación, en la cual se simulan las inundaciones,
en el tramo del río Baconao que va desde la confluencia del
Indio hasta la estación hidrométrica Trucucú. Con este
propósito se toman como datos de entrada para la simulación
algunas de las cartografías más utilizadas en Cuba
[1: 10 000, 1: 25 000 y 1: 100 000].
Fig. 1. Representación del relieve mediante celdas de resolución constante [GRID] y redes de triángulo
irregulares [TIN] respectivamente.
52
Revista Cubana de Ingeniería
Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos
Teniendo en cuenta que no se conoce el grado de
confiabilidad que impone en los resultados de la simulación
cada una de estas escalas, se estableció como punto de
comparación un levantamiento por posicionamiento global
[GPS], apoyado por una estación total. Esto permitirá analizar
los errores en los resultados de la simulación hidráulica
asociados a la utilización de la cartografía con que se modela
el terreno. De esta manera se podrán tomar, en el futuro,
con un mayor nivel de confianza y rapidez, las medidas de
prevención necesarias para mitigación y reducción de
desastres por inundaciones al emplear adecuadamente los
SIG y los modelos de simulación hidráulica.
DESCRIPCIÓN DEL ÁREA DE ESTUDIO
La investigación se desarrolló en el tramo del río Baconao
comprendido entre el afluente el Indio y la estación hidrométrica
Trucucú (figura 2). La cuenca que tributa al río, se localiza al
este de la ciudad de Santiago de Cuba, en la vertiente norte de
la Sierra de la Gran Piedra. Limita al norte y al este con la
cuenca del río Guantánamo; al noroeste, con la cuenca del río
Guaninicún, al oeste con la cuenca del río San Juan y al sur,
con el río La Anita, afluente del propio Baconao. Se escogió
esta zona, por la disponibilidad de información
hidrometeorológica y física, pues ahí se ubica una estación
hidrométrica. La información extraída, a partir de dicha estación,
garantiza el sistema de datos necesarios para una adecuada
simulación de la inundación, pues facilita, entre otros, conocer
valores reales de caudales y niveles del agua que circulan por
el río. Toda esta información fue suministrada por el Instituto
Nacional de Recursos Hidráulicos [INRH].
El tramo de río en estudio, comprendido entre el afluente
el Indio y la estación hidrométrica Trucucú, presenta una
longitud de 642 m con una pendiente media de 0,001 8 m/m.
El cierre de la estación se encuentra ubicado en las
coordenadas Norte: 152,1 y Este: 637,7; hasta este punto
la cuenca presenta una superficie de 167,8 km2, perímetro
de 84,68 km y una pendiente media de 343 ‰. El río exhibe
una topografía empinada, donde se define, a simple vista, el
límite entre el cauce principal y las llanuras de inundación.
Fig. 2. Ubicación del tramo de río en estudio.
El río cuenta con una estación hidrométrica que pertenece
al Instituto Nacional de Recursos Hidráulicos [INRH], a través
del cual se obtuvo la relación de los caudales máximos y la
altura de la lámina del agua al 1, 5 y 20% de probabilidad
(tabla 1). Con estos datos se estableció en esa sección del
río la condición de contorno correspondiente a nivel de agua
conocido [Known W.S.] y se simuló el perfil de la superficie
del agua en régimen permanente. Se decidió ejecutar la
simulación con los caudales máximos, teniendo en cuenta
que este es el parámetro de diseño que más se emplea en
proyectos para control de inundaciones en Cuba. [10]
Tabla 1
Relación de los caudales máximos y altura de la lámina
del agua
Probabilidad Período de retorno
p (%)
T (años)
Caudal
Q (m3/s)
Nivel
y (m)
1 025
6,45
1
100
5
20
714
5,52
20
5
436
4,06
El caudal máximo registrado en dicha estación, ocurrió el
4 de octubre de 1963, durante el paso del ciclón Flora, con
un valor de 1 109 m3/s, y elevó el nivel del agua a una altura
de 6,7 m como se muestra en la figura 3.
Fig. 3. Nivel máximo del agua en la estación hidrométrica
Trucucú, durante el paso del ciclón Flora.
Revista Cubana de Ingeniería
53
Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones
MODELACIÓN Y EXPORTACIÓN
DEL TERRENO
En el análisis del flujo en conducciones libres, el primer
paso está encaminado a obtener con precisión la geometría
del río y las llanuras de inundación a partir de un TIN. Para
facilitar el trabajo se generó con ArcView 3.3 y su extensión
3d Analyst un total de cuatro TIN de la zona de estudio. Para
ello se utilizaron como fuente de datos las escalas:
1: 10 000, 1: 25 000 y 1: 100 000. Estas se obtuvieron en la
empresa GeoCuba Oriente Sur a través de la agencia
Catastro.
Es importante resaltar que cualquier proceso de
generalización manual introduce errores en los mapas
tradicionales, los cuales se trasladan posteriormente a los
sistemas de información geográfica cuando son convertidos
al formato digital. El origen de estos errores puede ser muy
diverso; pueden estar provocados por los procesos de
generalización cartográfica, por la vectorización y
rasterización de datos; por los cambios de escala, entre
otros. Morad y Treviño [11] han investigado los errores
ocasionados por un proceso de digitalización manual, y sus
resultados evidencian que los mapas digitalizados por varias
personas, o por personas sin experiencia, tienden a acumular
importantes errores geográficos, lo cual evidentemente
ocasiona la propagación de errores durante la construcción
del modelo del terreno.
Atendiendo a esa posibilidad se hace necesario conocer
la precisión de los planos con los cuales se trabaja, pues,
como los errores son consustanciales a los propios datos,
obviamente, los SIG no pueden obtener resultados con una
resolución de salida mejor que la de entrada. Según datos
de GeoCuba, los planos: 1: 10 000, 1: 25 000 y 1: 100 000,
poseen una precisión en la determinación de la altura [z],
igual a 1/3 de la equidistancia, y una precisión en x, y igual
a 0,22 mm a la escala del plano (tabla 2).
Por todo lo antes expuesto, se construyó un cuarto modelo,
para establecer una comparación con los tres modelos del
terreno antes mencionados y determinar su influencia en los
resultados de la simulación. Con este objetivo se escogieron
como datos de entrada, los puntos obtenidos en un
levantamiento de alta resolución, con GPS en conjunto con
una Estación Total en el tramo de río en estudio. Dicho
levantamiento se llevó a cabo por la Agencia Catastro, en el
que se utilizó un GPS Leyca sr20 en modo diferencial para
garantizar la precisión que requería (figuras 4 y 5).
Fig. 4. Puntos medidos con el GPS y la estación total, y curvas
de nivel del plano 1: 10 000, así como los modelos digitales del
terreno construidos a partir de ellos.
Tabla 2
Valores de la precisión en z, x, y de los planos utilizados
Escala
Equidistancia Precisión z
Precisión x, y
1: 10 000
5m
1,67 m
2,2 m
1: 25 000
10 m
3,33 m
5,5 m
1:100 000
40 m
13,3 m
2,2 m
54
Revista Cubana de Ingeniería
Fig. 5. Curvas de nivel de los planos 1:25 000 y 1: 100 000, así
como los modelos digitales del terreno construidos a partir
de ellos.
Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos
La captura de los puntos se basó en el levantamiento
sistemático de los perfiles transversales de interés,
espaciados en función de los cambios en la geomorfología
del río. Se tomaron los puntos de fuerte cambio de pendiente,
los bancos de arena encontrados en el cauce, los cambios
en la forma de la sección transversal del cauce, etc. El fondo
del río fue medido de manera directa debido a que se realizó
la medición en el período seco y este presentaba un nivel
del agua muy bajo. En algunas zonas el levantamiento se
vio afectado por las dificultades del terreno, la vegetación
que impedía la visibilidad de los satélites y la gran inversión
de tiempo que se necesitó. Como alternativa se complementó
el levantamiento con la ayuda de una estación total Leyca
tps 805, con un alcance 1500 /2000 m y una precisión
10 mm ppm + 2 mm.
ANÁLISIS DE LA PRECISIÓN
DE LOS MODELOS CARTOGRÁFICOS
Para evaluar la precisión de los modelos cartográficos, se
utilizaron como puntos de control los medidos a través del
levantamiento con GPS en conjunto con una estación total
porque, como se explicó anteriormente, dicho levantamiento
se considera el más representativo de la geometría del cauce
y las llanuras de inundación. El error de cada MDT se calculó
hallando la diferencia entre los valores tomados como puntos
de control y los interpolados en los TIN construidos con
ArcView. En total se compararon 467 puntos, cuyos
resultados se presentan en la tabla 3.
Tabla 3
Estadísticos de los errores (m) de los diferentes modelos
digitales del terreno
Estadísticos
10 000
25 000
100 000
No. de
puntos de
control
467
467
467
Error
máximo
10,63
12,77
22,77
Error mínimo
0,11
0,02
0,11
Error medio
5,20
8,75
18,46
Error medio
cuadrático
5,46
9,22
18,82
Finalmente, se obtuvo la precisión en z de todos los planos,
y como se suponía, esta fue disminuyendo a medida que lo
hizo la escala; llama la atención que, al calcular el EMC, en
cada uno de los planos utilizados se obtuvo siempre una
apreciable desigualdad de precisión en relación con la
establecida por GeoCuba como norma. Ante esta situación
imprevista se consideró necesario obtener la diferencia de
precisión que deberían mostrar los planos con respecto a la
alcanzada en realidad (tabla 4).
Tabla 4
Comparación de la precisión en z
Precisión en z
Escala
GeoCuba
Calculada
Diferencia
1: 10 000
1,67 m
5,46 m
+ 3,79 m
1: 25 000
3,33 m
9,22 m
+ 5,89 m
1: 100 000
13,3 m
18,82 m
+ 5,52 m
En la comparación anterior se observa claramente que
ninguno de los mapas presenta la precisión requerida. En
sentido general se evidenció la manifestación de grandes
diferencias entre los TIN como consecuencia del cambio de
escala. Esto se debe a que estos se encuentran compuestos
por una serie de puntos con valores x, y, z y un conjunto de
arcos que los unen para formar los triángulos y a medida
que disminuye la escala, aumenta la equidistancia y la
distancia entre las curvas de nivel. Toda esta situación
conduce a un aumento significativo de la distancia entre los
puntos, así como de sus valores de altura, por lo que queda
cada vez menos detallada la topografía del cauce y las
llanuras, lo que se pone en evidencia principalmente, en un
aumento significativo del ancho del cauce y de la altura con
respecto a la real. La figura 6 resulta representativa para
mostrar el efecto de los diferentes modelos en una sección
transversal, y pone de manifiesto que las desigualdades entre
las superficies van a influir de manera significativa en los
resultados de la simulación hidráulica.
Fig. 6. Geometría de la sección transversal 1,299 representada
por los distintos planos.
Revista Cubana de Ingeniería
55
Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones
Teniendo en cuenta todo lo antes expuesto, los autores
consideran que los errores que impone el uso de dichas
cartografías en la representación el terreno y su influencia
en los resultados de la simulación hidráulica de inundaciones,
no pueden admitirse en proyectos que necesiten un alto nivel
de precisión, pues aunque estaría trabajándose del lado de
la seguridad, al sobreestimarse los resultados, se incurrirá
en grandes gastos si se fuera a proyectar una obra o en la
movilización innecesaria de recursos humanos y materiales
que se verían afectados. Todo ello evidentemente descarta
esos planos como base cartográfica para realizar proyectos
a nivel de ingeniería de detalle. Se considera, además, que
el 1: 10 000 es el único adecuado para representar el terreno
en proyectos que no requieran un elevado nivel de detalle.
trabaja con un tramo de río más largo con curvas de nivel
que lo corten, ya que en ese punto existiría un cambio brusco
de la pendiente de fondo del río directamente proporcional a
la equidistancia del plano. Esta situación traería como
resultado una caída hidráulica en dicha zona, lo cual
incrementaría el error en el cálculo de la altura real del agua
a medida que disminuya la escala del plano, como es de
esperar.
INFLUENCIA DE LA PRECISIÓN DE
LOS PLANOS EN EL CÁLCULO
DE LA ALTURA DEL AGUA Y EL ÁREA DE
INUNDACIÓN
La determinación de la influencia que ejerce el cambio de
escala de la cartografía vectorial de curvas de nivel en el
cálculo de la altura del agua y el área de inundación está
dada por la incidencia directa que ejerce esta en la pérdida
de precisión de los MDT, evidenciado esto principalmente,
como ya se demostró, por un aumento significativo del ancho
del cauce y de la altura con respecto a la real, por lo que
constituye una incógnita la influencia de estos factores en
los resultados de la simulación hidráulica de inundaciones.
Para establecer un patrón de comparación se tomó el TIN
construido con los puntos tomados en el terreno, debido a la
precisión centimétrica con que fue ejecutado dicho
levantamiento. Finalmente, para obtener el perfil de la
superficie del agua, se simuló en régimen permanente, para
lo cual se utilizaron como variables de entrada al modelo,
caudales al 1%, 5% y 20% de probabilidad, y se estableció,
en la sección transversal del río que representa la zona donde
se realizan las mediciones en la estación hidrométrica, la
condición de contorno nivel de agua conocido, ya que esta
es la adecuada si se conoce la altura real del agua en alguna
sección transversal, como es el caso. Como consecuencia
de la simulación se obtuvieron los valores de elevación de la
lámina de agua, los perfiles de la altura del agua. Con estos
valores se calcularon las desigualdades entre los obtenidos
al utilizar el TIN más preciso (GPS y estación total), y los
alcanzados al emplear la cartografía vectorial de curvas de
nivel para representar el terreno como se muestra en las
figuras 7 y 8.
En este análisis se llega a resultados muy interesantes,
pues como se puede apreciar en la tabla 5, aproximadamente
se introduce el mismo error en el cálculo de la altura del
agua, a pesar de utilizarse escalas diferentes. No obstante,
es necesario resaltar que estas diferencias aumentan si se
56
Revista Cubana de Ingeniería
Fig. 7. Perfiles de la lámina de agua, para un caudal
correspondiente al 20% de probabilidad, empleando los TIN
del levantamiento con GPS y estación total, y 1: 10 000
respectivamente.
Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos
Una vez efectuado el cálculo de la elevación de la lámina
de agua se crea de manera automática con ArcView un mapa
del área inundada. Este realiza una superposición de la altura
que alcanza la superficie del agua sobre el terreno y una
operación de resta de alturas que tiene como finalidad
delimitar la extensión de la mancha de inundación. En las
figuras 9 y10 se muestran gráficamente algunos resultados
de la simulación, en los que se evidencia las diferencias
existentes en los resultados con tan solo variar el TIN.
Como resultado se estableció una comparación entre los
valores de áreas inundadas alcanzados con el uso de los
diferentes planos y se demostró que a medida que disminuye
la precisión del MDT ocurre un aumento significativo del área
inundada. Esto se debe a que a medida que disminuye la
escala, aumenta el ancho del cauce y la altura del terreno.
Es por esta razón que la menor área inundada se obtuvo al
utilizar el levantamiento más preciso (GPS y estación total)
y la mayor área al emplear el plano 1: 100 000 como se
muestra en la tabla 6 y la figura 11.
Fig. 8. Perfiles de la lámina de agua, para un caudal
correspondiente al 20% de probabilidad, empleando los TIN
de los planos 1:25 000 y 1: 100 000 respectivamente.
Tabla 5
Error medio cuadrático (m)en el cálculo de la altura del
agua, tomando como referencia la alcanzada al utilizar el
TIN más preciso
Cartografía
Q (m3/s)
1: 10 000
1: 25 000
1: 100 000
436
1,61
1,76
1,69
714
2,06
2,47
2,40
1 022
2,22
2,62
2,63
Fig. 9. Zona inundada, para un caudal correspondiente al 20%
de probabilidad, empleando los TIN del levantamiento con GPS
y estación total, y 1: 10 000 respectivamente.
Revista Cubana de Ingeniería
57
Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones
Fig. 11. Error medio (km2) en el cálculo del área de inundación.
Fig. 10. Zona inundada, para un caudal correspondiente al
20% de probabilidad, empleando los TIN de los planos
1:25 000 y 1: 100 000 respectivamente.
Tabla 6
Área de unundación (km2) para caudales con
probabilidades al 20,5 y 1%
Cartografía
Q (m3/s)
GPS
1: 10 0 00
1: 25 000
1: 10 000
436
0,039
0,056
0,098
0,269
714
0,048
0,065
0,109
0,277
1 022
0,053
0,070
0,116
0,283
58
Revista Cubana de Ingeniería
Una vez más se evidencia que el 1: 10 000 es el más
adecuado para representar el terreno, pues con su uso la
diferencia del área inundada con respecto al valor real fue la
menor, mientras que con la utilización de las restantes
cartografías estas desigualdades aumentaron considerablemente hasta llegar a un valor máximo de 0,230 km2, en
el caso del TIN menos preciso, construido a partir del plano
1: 100 000.
No obstante, es importante señalar que a pesar de que la
menor diferencia obtenida en el cálculo del área inundada se
haya alcanzado con el uso del cartográfico 1: 10 000, resalta
el hecho de que la desigualdad es considerable, sobre todo
si se tiene en cuenta que el tramo de río en estudio es
bastante corto, pues solo es de 642 m. También es
conveniente aclarar que este tramo presenta una topografía
muy abrupta, aspecto que favorece el aumento de las
diferencias debido a que en este tipo de mapas el cauce y
las llanuras de inundación quedan apenas representados en
profundidad y extensión, como se puede apreciar en la
figura 5, y por tanto, el agua ocupa desproporcionadamente
más espacio de la llanura de inundación.
Por todo lo antes expuesto, los autores consideran que
ninguno de estos planos debe utilizarse para realizar
proyectos que necesiten llegar a resultados con un elevado
nivel de detalle, como lo requieren el diseño de alcantarillas,
diques, y presas, entre otros. Sin embargo, existen otros
que no necesitan tan alto nivel de precisión; este es el caso
de estudios que solamente precisan ubicar zonas con
determinado riesgo de inundación. En esa situación se
recomienda la utilización del plano 1: 10 000, siempre que
se consideren los errores que impone su uso en la
determinación de la altura del agua y el área inundada. Los
demás planos no son apropiados debido a las grandes
divergencias que con ellos se obtiene en los resultados.
Anders Pérez Brugal - Juan F. Weber - Yaismil R. Castellanos
CONCLUSIONES
REFERENCIAS
1. Se calculó la diferencia existente entre los valores de
altura de cada uno de los TIN obtenidos a partir de los planos
a escala: 1: 10 000, 1: 25 000 y 1: 100 000, y el levantamiento
hecho con GPS y estación total. Se obtuvo un EMC de
5,46 m cuando se empleó el 1: 10 000. Dicha desigualdad
fue aumentando simultáneamente con la utilización de planos
de menor escala hasta llegar a un máximo de 18,82 m de
altura con el 1: 100 000, por lo que se obtuvo siempre una
apreciable desigualdad de precisión en relación con la
establecida por GeoCuba como norma.
2. Al analizar el error en la altura que obtuvo el agua, se
evidencia que aproximadamente se produce el mismo error
en la simulación a pesar de utilizarse diferentes escalas,
pues se alcanzaron valores que oscilan entre 1,6 y 2,6 m.
No obstante, es necesario resaltar que estas diferencias
aumentan si se trabaja con un tramo de río más largo con
curvas de nivel que lo corten, ya que en ese punto existiría
un cambio brusco de la pendiente de fondo del río
directamente proporcional a la equidistancia del plano. Esta
situación traería como resultado una caída hidráulica en dicha
zona, lo cual incrementaría el error en el cálculo de la altura
real del agua a medida que disminuye la escala.
3. Con la utilización del 1: 10 000 el EMC en la
determinación de la altura del agua para diferentes caudales
varió 0,61 m. Sin embargo, al emplear el 1: 100 000, se
encontró que para los mismos caudales la desigualdad
aumentó a 0,94 m. Por tanto, a medida que se aumenta el
caudal y se trabaja con planos menos precisos, las
diferencias en el cálculo de la altura del agua serán más
significativas.
4. Los resultados de la modelación hidráulica dependen
mayormente de la cartografía con que se modele el terreno,
pues al comparar el área inundada obtenida con el TIN creado
a partir del levantamiento con GPS y estación total, con las
áreas inundadas alcanzadas con el empleo de la cartografía
vectorial convencional, se observa que aumentan las
desigualdades a medida que disminuye la escala, sin
importar el caudal que se emplee. Se encontraron divergencias
de 0,017 km2 al utilizar el modelo cartográfico 1: 10 000,
mientras que con las elaboradas a partir de escalas más
pequeñas, estas desigualdades aumentaron considerablemente hasta llegar a un valor máximo de 0,21 km2 en el
caso del 1: 100 000.
1. FELICÏSIMO, A. Modelos digitales de terreno.
Introducción y aplicación en las ciencias ambientales.
Oviedo, España: 1994, p.122.
2.CASA, A. et al. "Efectos de las fuentes cartográficas en
los resultados de la modelación hidráulica de crecidas".
Ingeniería del agua. 2005, vol. 12, nº 4, p. 12.
3.BATES, P. B. et al. Analysis and development of hydraulic models for floodplain flows. 1996.
4. WERNER, M. G. F. "Impact of grid size in GIS based
f lood extent mapping using a 1D f low model".
Phys.Chem.Earth (B). 2001, vol. 26, nº 7-8, p. 522.
5. BATES, P. B. and DE ROO, A. P. J. "A simple rasterbased model for flood inundation simulation". Journal of
Hydrology. 2000,nº 236, p. 54-77.
6.MARKS, K. and BATES, P. "Integration of high resolution topographic data with floodplain flow models". Hydrological Processes. 2000, nº 14, p. 2122.
7. HARDY, R. J. et al."The importance of spatial resolution
in hydraulic models for floodplain environments". Journal
of Hydrology. 1999, nº 216, p. 136.
8. OMER, C. R. et al. "Impact of varied data resolution on
Hydraulic Modeling and Floodplain Delineation". Journal
of the American Water Resources Association. 2003,
p. 475.
9.HORRITT, M. S. and BATES, P. D. "Effects of spatial
resolution on a raster based model of flood flow". Journal
of Hydrology. 2001, p.249-253.
10. GONZÁLEZ, S. L. et al. "Eventos hidrológicos extremos".
Hidrología Superficial para Ingenieros, CIH, Ciudad de
la Habana, Cuba. 2000. p.1-145.
11. MORAD, M. and TREVIÑO, A. "Sistemas de información
geográf ica y modelizaciones hidrológicas: Una
aproximación a las Ventajas y dificultades de su
aplicación". Boletín de la AGE. 2001, p. 31-46.
RECONOCIMIENTOS
Los autores agradecen a la agencia Catastro perteneciente
a la empresa GeoCuba Oriente Sur, por aportar para los
propósitos académicos del presente trabajo, la cartografía
vectorial de curvas de nivel de la zona de estudio, y por llevar
a cabo el levantamiento de alta resolución con GPS en
conjunto con una estación total. Sin estos datos no hubiera
sido posible la realización de esta investigación.
AUTORES
Anders Pérez Brugal
Ingeniero Hidráulico, Instructor, Departamento de Ingeniería
Hidráulica, Facultad de Construcciones, Universidad de
Oriente, Santiago de Cuba, Cuba
Juan F. Weber
Ingeniero Civil, Máster en Ciencias de la Ingeniería, Profesor
Titular, Investigador y Consultor en Hidrología e Hidráulica.
Laboratorio de Hidráulica, Facultad Regional de Córdoba,
Universidad Tecnológica Nacional, Córdoba, Argentina
Yaismil R. Castellanos
Ingeniero Mecánico, Profesor Adjunto, Departamento de
Ingeniería Mecánica, Facultad de Ingeniería Mecánica,
Universidad de Oriente, Agencia GeoCuba Oriente Sur,
Santiago de Cuba, Cuba
Revista Cubana de Ingeniería
59
Importancia de los modelos digitales del terreno en la simulación hidráulica de inundaciones
Importance of Digitals Models of Soil Surface in the Flooding
Hydraulic Simulation
Abstract
Investigation analysed the influences of MDT´s precision in the results of the hydraulic simulation of
floodings. Four digitals models of soil surface were created from different sources: three starting from
vectorial cartography by contour lines of few scales and one getting from GPS devices and total
station measuring. The comparison to the estimated measured error due to the utilization of simple
vectorial cartography paper for the representation of riverbed and flood valleys, with the last model
utilized, may assume it influence in flood simulation results. One conclusion was probed; height
differences in the representation of soil surface to the same point were very wide [2,88 to 18,82 m],
then the estimated water level as well the simulation of flooding area depend of the obtained cartography
method, due that were found errors from 1,6 to 2,6 m and from 0,039 to 0,283 km2, that demonstrates
the precision of the MDT with that the plot of land is modeled determines the results of the simulation
to a large extent.
Key words: flooding hydraulic simulation, digital model of the soil surface, SIG
60
Revista Cubana de Ingeniería
Revista Cubana de Ingeniería, 1(3), 61-65, 2010
INGENIERÍA INFORMÁTICA
Estimación de parámetros
meteorológicos secundarios utilizando
técnicas de minería de datos
Rosabel Zerquera Díaz
Correo electrónico:[email protected]
Ayleen Morales Montejo
Correo electrónico:[email protected]
Gil Cruz Lemus
Correo electrónico:[email protected]
Alejandro Rosete Suárez
Correo electrónico:[email protected]
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Resumen
El presente trabajo desarrolla un proceso de descubrir conocimiento en bases de datos (Knowledge
Discovery in DataBases, KDD por su siglas en inglés) en el grupo de Medio Ambiente, del Instituto
Superior Politécnico José Antonio Echeverría y en colaboración con el Centro de Gestión de la Información y Desarrollo de la Energía (CUBAENERGÍA) con el objetivo de obtener un modelo de datos
para estimar el comportamiento de los parámetros meteorológicos secundarios a partir de datos de
superficie. Se detallan algunos aspectos relacionados con la minería de datos y su aplicación en el
entorno meteorológico; además, se seleccionan y describen la metodología CRISP-DM y la herramienta de análisis de datos WEKA. Se utilizan las tareas de selección de atributos y de regresión, la
técnica de redes neuronales de tipo perceptrón multicapas y los algoritmos CfsSubsetEval, BestFirst
y MultilayerPerceptron. Se obtienen modelos de estimación para los parámetros meteorológicos secundarios: altura de la capa de mezcla convectiva, altura de la capa de mezcla mecánica y velocidad
convectiva de escala, necesarios para el estudio de los modelos de dispersión de contaminantes en
la zona de la Cujae. Los resultados obtenidos constituyen un precedente para futuras investigaciones,
así como para la continuidad de esta en su primera etapa.
Palabras clave: meteorología, estimación, parámetros meteorógicos secundarios, minería de datos,
redes neuronales
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
En la actualidad, la automatización de las actividades de
los negocios produce un flujo creciente de datos, pues incluso
la información referente a acciones tan simples como una
llamada telefónica o un test médico es almacenada en una
computadora. Las empresas e instituciones se encuentran
abrumadas por este crecimiento acelerado del tamaño y
cantidad de datos. Es imprescindible convertir los grandes
volúmenes de datos existentes en experiencia, conocimiento
y sabiduría, formas que son útiles para la toma de decisiones
y el desarrollo económico y social contemporáneo.
Tal es el caso del grupo de Medio Ambiente del Instituto
Superior Politécnico José Antonio Echeverría Cujae, que
cuenta con una estación meteorológica automática que
recoge datos de superficie desde el 15 de abril del 2008, a
los que no se les da ningún tratamiento o explotación, entre
estos se encuentran: dirección y velocidad del viento,
temperatura, humedad relativa, presión, entre otros. Estos
datos son almacenados en soporte digital (con restricciones
de capacidad), y procesados por la consola Vantage Pro2
de Davis, [1] que solo los muestra en forma numérica y
predice el comportamiento de algunos de ellos para las
próximas 12 horas. Mediante el software WeatherLink en
Estimación de parámetros meteorológicos secundarios utilizando técnicas de minería de datos
su versión 5.7 del 2006 [2] para Windows, se conecta la
estación meteorológica a la computadora, posibilitando el
intercambio de datos y su total almacenamiento; lo que
permite plotear, analizar, exportar e imprimir los datos
meteorológicos, así como configurar la estación y monitorear
las alarmas.
El grupo se encuentra interesado en el análisis de la
dispersión local de contaminantes gaseosos y de partículas
en la zona de la Cujae; para ello es necesario poseer los
valores de parámetros meteorológicos secundarios como:
altura de la capa de mezcla convectiva, altura de la capa de
mezcla mecánica y velocidad convectiva de escala, entre
otros; actualmente no se cuenta con estos valores, pero
pueden obtenerse mediante cálculos a partir de los
parámetros meteorológicos primarios siguientes: dirección
y velocidad del viento, temperatura exterior, humedad relativa,
precipitaciones, presión barométrica y radiación solar; estos
últimos son los datos de superficie que se recogen mediante
la estación meteorológica automática.
Para la obtención de los parámetros meteorológicos
secundarios, se propone la utilización del preprocesador
meteorológico AERMET del sistema de modelos AERMOD,
establecido por la Agencia de Protección Ambiental de los
Estados Unidos (en inglés Enviromental Protection Agency,
EPA). CUBAENERGÍA dispone del software Lakes
Enviromental, una versión mejorada del AERMET de la EPA,
que brinda entre otros, un potente entorno visual. Lakes
Enviromental es propiedad de una empresa canadiense que
limita su distribución y uso. El empleo de cualquiera de estas
dos versiones de AERMET, requiere de datos de superficie y
de sondeo. Las mediciones atmosféricas de sondeo de aire
superior actualmente en Cuba no se realizan de forma
sistemática, por lo que se desarrolló en CUBAENERGÍA la
v ersión del AERMET: AERMET+, que simula el
comportamiento vertical de la atmósfera a partir de datos de
superficie (específicamente la altura de la capa de mezcla
convectiva, y a partir de esta, la velocidad convectiva de escala
y el gradiente de temperatura potencial por encima de la
capa de mezcla). [3] Para la utilización de esta versión es
necesario un fichero con los datos de superficie en un formato
específico: HUSWO; este fichero se puede obtener a través
de otro sistema desarrollado por CUBAENERGIA:
SD_Aermet, que tiene como función la conversión de
formatos.
La versión AERMET+ de CUBAENERGÍA, consume un
tiempo de procesamiento considerable, una parte del cual
se emplea en la preparación de los datos y la creación de
ficheros de entrada para el sistema. Además, esta versión
solo permite trabajar con datos horarios, por lo que si se
poseen varias mediciones por hora, es necesario hacer un
promedio vectorial, lo que puede implicar la pérdida de grados
de exactitud en las mediciones.
Por lo expuesto anteriormente, se considera el cálculo de
los parámetros meteorológicos secundarios, engorroso; y
62
Revista Cubana de Ingeniería
no resulta factible el procesamiento de los datos, lo cual
imposibilita el análisis de la dispersión local de
contaminantes. Con los valores que se obtienen mediante
AERMET+, no se pueden obtener patrones de
comportamiento de los datos. Además, no se cuenta con
métodos y herramientas de procesamiento y análisis que le
den sentido y utilidad a la información obtenida.
Como objetivo del trabajo se propone, obtener modelos de
datos que permitan analizar las dependencias entre los
parámetros meteorológicos, así como estimar los parámetros
meteorológicos secundarios: altura de la capa de mezcla
convectiva, altura de la capa de mezcla mecánica y velocidad
convectiva de escala, respecto a los datos de superficie en
la zona de la Cujae, utilizando técnicas de minería de datos.
MINERÍA DE DATOS (MD)
Entre las múltiples definiciones que identifican la MD se
encuentra la siguiente:
Minería de datos o data mining es el conjunto de técnicas y
herramientas aplicadas al proceso no trivial de extraer y
presentar el conocimiento implícito, previamente desconocido,
potencialmente útil y humanamente comprensible, a partir de
grandes conjuntos de datos, con el objeto de predecir de forma
automatizada tendencias y comportamientos y/o descubrir de
forma automatizada modelos previamente desconocidos. [4]
En la actualidad, la aplicación de técnicas de MD en el
cam po de la meteorología se ha increment ado
considerablemente. [5]
La estimación, es una tarea predictiva de gran importancia.
Su meta es encontrar el valor numérico de una variable objetivo
para objetos desconocidos. El objetivo en este caso es
minimizar el error (generalmente el error cuadrático medio)
entre el valor predicho y el real.
Las redes neuronales artificiales ofrecen los medios
necesarios para revelar categorías comunes en los datos,
debido a que son capaces de detectar y aprender complejos
patrones y características dentro de los datos; así como
para modelar de manera efectiva y eficiente, problemas
grandes y complicados, de forma individual, o combinadas
con otros métodos, para aquellas tareas de clasificación,
agrupamiento y estimación.
Uno de los tipos principales de redes neuronales artíficiales
existentes es el perceptrón multicapas empleado en el
aprendizaje supervisado. Este constituye una red neuronal
artíficial formada por múltiples capas que permiten (entre
otros) modelar conjuntos de datos que son linealmente
separados.
METODOLOGÍA Y HERRAMIENTA PARA
ENFRENTAR EL PROCESO DE KDD
CRISP-DM (CRoss-Industry Standard Process for Data
Mining) [6] es una metodología para MD que fue presentada
por el consorcio CRISP-DM, encabezado por SPSS Inc.
(Estados Unidos); esta se ha convertido en un estándar luego
de ser liberada para su empleo y desarrollo por parte de la
comunidad internacional.
Rosabel Zerquera Díaz - Ayleen Morales Montejo - Gil Cruz Lemus - Alejandro Rosete Suárez
WEKA, acrónimo de Waikato Environment for Knowledge
Analysis (Entorno de Búsqueda de Conocimiento de
Waikato), [7] constituye una extensa colección de algoritmos
de máquina de conocimiento implementados en Java, útiles
para ser aplicados mediante las interfaces o para embeberlos
dentro de cualquier aplicación; fue desarrollada por un grupo
de investigadores de la Universidad de Waikato, Nueva
Zelanda. W EKA posee la licencia GPL para su libre
distribución y es de código abierto.
TÉCNICAS DE MODELACIÓN
Las técnicas de modelado seleccionadas se muestran en
la tabla 1, en esta se resumen los objetivos que se persiguen,
las tareas planificadas y los algoritmos de WEKA que serán
empleados.
Tabla 1
Técnicas de modelación
Objetivo
Obtener cuáles son
los parámetros
meteorológicos
primarios que más
influyen en los
parámetros
meteorológicos
secundarios
Estimar el valor de
los parámetros
meteorológicos
secundarios a partir
de los primarios
Tarea
Selección
de atributos
Estimación
atributos, las que presentaban una baja frecuencia de
aparición y lejanía de la media numérica del grupo. Además,
se normalizaron los atributos para evitar que los valores más
alejados de la media numérica, pudiesen introducir errores
en los modelos de estimación.
Tabla 2
Variables empleadas en el análisis
Nombre del atributo
Tipo
Día
Numérico
Mes
Numérico
Año
Numérico
Hora
Numérico
Dirección del Viento
Nominal
Velocidad del Viento
Numérico
Temperatura
Numérico
Humedad
Numérico
Presión barométrica
Numérico
Radiación solar
Numérico
Precipitación
Numérico
Altura de la capa de mezcla convectiva
Numérico
Altura de la capa de mezcla mecánica
Numérico
Velocidad convectiva de escala
Numérico
Algoritmo
CfsSubsetEval y
BestFirst (métodos
de evaluación y
búsqueda
respectivamente)
MultilayerPerceptron
ANÁLISIS DE LA INFORMACIÓN
DISPONIBLE
Los datos son recopilados mediante la estación
meteorológica automática, y almacenados en formato digital
por la consola Vantage Pro2 en ficheros con extensión ".wlk"
que no pueden leerse directamente. Se utilizó el software
WeatherLink, para exportar la información a ficheros planos
en filas y columnas, con extensión ".txt". Estos ficheros se
importan a un "libro" de Microsoft Excel donde se les da un
posterior tratamiento.
De un total de 44 323 registros disponibles, comprendidos
entre las fechas desde el 15 de abril de 2008 y 15 de abril de
2009, y 41 variables meteorológicas, y como resultado del
proceso de selección, transformación y construcción de datos
mediante AERMET+, así como limpieza, se obtiene un
conjunto minable compuesto por 14 campos y un total de 8
784 instancias, que se resume en la tabla 2. En la referencia
5 se detalla la metodología empleada para el trabajo con
AERMET+.
Los registros que tienen al menos un valor desconocido
en sus atributos, han sido eliminados del conjunto, mediante
la aplicación de un filtro de instancias. Debido a que los
atributos pueden moverse en un rango tan amplio de valores,
se eliminaron las instancias con valores extremos en sus
DESCRIPCIÓN DE LOS MODELOS
OBTENIDOS
Para entrenar y probar los modelos de selección de
atributos y de estimación, se emplean conjuntos distintos a
fin de no sobrestimar su precisión. En este sentido se utiliza
una validación cruzada (en inglés cross-validation) de
10 pliegues, la cual divide el conjunto de datos en
10 subconjuntos de forma aleatoria, y realiza 10 iteraciones,
donde en cada una se reserva un grupo diferente para el
conjunto de prueba y los restantes 9 para entrenar el
modelo. [8]
Selección de atributos
Para la selección de atributos se realizaron 6 experimentos,
3 de ellos con los atributos normalizados y 3 sin normalizar,
con los que se determinaron las variables fundamentales
que influyen en los parámetros meteorológicos secundarios
y su porcentaje de incidencia.
Posteriormente se seleccionaron aquellos atributos que
contribuyen con la estimación entre 70 y 100 %, por
considerarse un valor significativo.
Revista Cubana de Ingeniería
63
Estimación de parámetros meteorológicos secundarios utilizando técnicas de minería de datos
En la altura de la capa de mezcla convectiva influyen en
un 100 %, la hora del día, la velocidad del viento y la humedad.
También en la altura de la capa de mezcla mecánica,
influyen en un 100 % el mes, la velocidad del viento y la
radiación solar.
En la velocidad convectiva de escala influyen en un
100 %, la temperatura, la humedad y la radiación.
En todos los caso los resultados obtenidos coinciden con
la opinión de los expertos. En la referencia 5 se muestran
los resultados de los modelos de selección de atributos para
todas las variables.
Estimación numérica
En el caso de la estimación numérica con las redes
neuronales, se realizaron 12 experimentos, 4 por cada variable
secundaria a estimar, con los atributos normalizados y sin
normalizar, y teniendo o no teniendo en cuenta, la selección
de atributos del proceso anterior, con fines de comparar
resultados y seleccionar los modelos con los que se obtengan
los mejores resultados. La tabla 3 refleja los valores del
coeficiente de correlación y del error medio absoluto para la
altura de la capa de mezcla convectiva en cada uno de los
experimentos. En la referencia 5 se muestran los resultados
para el resto de las variables meteorológicas secundarias.
Tabla 3
Estimación de la altura de la capa de mezcla convectiva
Parámetros
Con todos los
parámetros
primarios
Correlación:
Sin normalizar 0,882 7
Error: 145,631 1
Normalizados
Correlación:
0,882 7
Error: 0,067 5
Tomando en cuenta
la selección de
atributos
Correlación: 0,848 7
Error: 174,446
Correlación: 0,848 7
Error: 0,080 8
Los modelos obtenidos teniendo en cuenta la normalización
reportaron resultados útiles para ser aplicados por los
expertos en la estimación de las variables meteorológicas
secundarias. Ambos modelos presentan un alto valor de
correlación entre sus variables y un bajo error en la
estimación. En dependencia de la exactitud con la que se
desee trabajar, las variables meteorológicas primarias que
se posean, el tiempo para el análisis con que se cuente, se
puede utilizar el modelo con todos los parámetros
meteorológicos primarios o, por el contrario, el modelo más
simple que toma en cuenta la selección de atributos.
Los expertos de CUBAENERGÍA proponen para la
evaluación de los modelos de estimación el análisis de la
desviación fraccional, dada por la ecuación (1), donde se
consideran aceptables los valores obtenidos si están dentro
del rango [-0,67, +0,67], donde V1 es el valor predicho y V2
es el valor real.
64
Revista Cubana de Ingeniería
V1  V 2
2
v1 + v2
...(1)
En la tabla 4 se muestra el porcentaje de instancias que
está fuera de rango para el caso del modelo de estimación
con los datos normalizados, considerando la selección de
atributos de la altura de la capa de mezcla convectiva; este
valor es relativamente bajo, lo que indica que la mayoría de
las instancias presentan valores dentro del rango permitido,
pudiendo emplearse el modelo en la estimación de este
parámetro meteorológico. En la referencia 5 se muestran
los resultados para el resto de las variables meteorológicas
secundarias.
Tabla 4
Desviación fraccional de la altura de la capa de mezcla
convectiva
Parámetro
Altura de la capa de
mezcla convectiva
Porcentaje de instancias fuera
de rango
3,57% de las 349 2 instancias
CONCLUSIONES
Mediante la aplicación de la selección de atributos, se
obtuvieron las variables meteorológicas primarias que más
influyen en las variables meteorológicas secundarias: altura
de la capa de mezcla convectiva, altura de la capa de mezcla
mecánica y velocidad convectiva de escala. A partir de la
selección de atributos se obtuvieron además modelos de
regresión basados en redes neuronales del tipo perceptrón
multicapas que permiten estimar los valores de los parámetros
meteorológicos secundarios, los que presentan un coeficiente
de correlación alto, un error cuadrático medio pequeño y
con bajo porcentaje de instancias fuera de rango, siendo
aceptados y válidos para la estimación.
RECONOCIMIENTOS
Los autores desean agradecer a los integrantes del Grupo
de Medio Ambiente de la Cujae y a la máster Leonor Turtós
Carbonell de CUBAENERGÍA por su colaboración,
principalmente en temas relacionados con la meteorología.
REFERENCIAS
1.Vantage Pro2 Console Manual. California: Davis
Instruments Corp, 2006.
2. WeatherLink 5.7 Help. Davis Instruments Corp. California:
2006.
3. TURTÓS CARBONELL, L. Proyecto Programa Ramal
Nuclear. Sistema de Modelos AERMOD para dispersión
local de contaminantes atmosféricos. Salida 1/2007:
Ampliación de la propuesta de Guía de modelación de la
Rosabel Zerquera Díaz - Ayleen Morales Montejo - Gil Cruz Lemus - Alejandro Rosete Suárez
dispersión local de contaminantes gaseosos y partículas
con el Sistema de modelos AERMOD. Ciudad de La
Habana, Cuba: 2007.
4. PIATETSKI-SHAPIRO, G. and FRAWLEY, W. J.
Knowledge Discovery in Databases. AAAI/MIT Press.
1991.
5. ZERQUERA, R. Predicción de Parámetros Meteorológicos
Secundarios: Altura de la capa de mezcla convectiva,
altura de la capa de mezcla mecánica y velocidad
convectiva de escala, en la zona de la Cujae, utilizando
técnicas de Minería de Datos. Tesis de diploma, Instituto
Superior Politécnico José A. Echeverría, Ciudad de La
Habana, La Habana Cuba. 2009.
6. CHAPMAN, P. et al. CRISP-DM 1.0:Step-by-step data
mining guide. USA: 2000. CRISP-DM Consortium. SPSS
Inc.
7. GARCÍA MORATE, D. Manual de WEKA. 2005.
8. MOLINA LÓPEZ, J. M. y GARCÍA HERRERO, J. Técnicas
de análisis de datos. Aplicaciones Prácticas utilizando
Microsoft Excel y WEKA. Universidad Carlos III, Madrid.
AUTORES
Rosabel Zerquera Díaz
Ingeniera Informática, Adiestrada, Vicerrectoría de
Investigaciones y Posgrado, Instituto Superior Politécnico
José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Ayleen Morales Montejo
Ingeniera Informática, Adiestrada, Dirección de Recursos
Humanos, Instituto Superior Politécnico José Antonio
Echeverría, Cujae, Ciudad de La Habana,Cuba
Gil Cruz Lemus
Ingeniero Químico, Doctor en Ciencias Técnicas, Profesor
Auxiliar, Vicerrectoría de Investigaciones y Posgrado,
Instituto Superior Politécnico José Antonio Echeverría, Cujae,
Ciudad de La Habana, Cuba
Alejandro Rosete Suárez
Ingeniero Informático, Doctor en Ciencias Técnicas, Profesor
Titular, Facultad de Ingeniería Informática, Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad de La
Habana, Cuba
Estimation of Secondary Meteorological Parameters Using Mining
Data Techniques
Abstract
This work develops a process of Knowledge Discovery in Databases (KDD) at the Higher Polytechnic
Institute José Antonio Echeverría for the group of Environmental Research in collaboration with the
Center of Information Management and Energy Development (CUBAENERGÍA) in order to obtain a
data model to estimate the behavior of secondary weather parameters from surface data. It describes
some aspects of Data Mining and its application in the meteorological environment, also selects and
describes the CRISP-DM methodology and data analysis tool WEKA. Tasks used: attribute selection
and regression, technique: neural network of multilayer perceptron type and algorithms: CfsSubsetEval,
BestFirst and MultilayerPerceptron. Estimation models are obtained for secondary meteorological
parameters: height of convective mixed layer, height of mechanical mixed layer and convective velocity
scale, necessary for the study of patterns of dispersion of pollutants in Cujae's area. The results set a
precedent for future research and for the continuity of this in its first stage.
Key words: meteorology, estimation, secondary meteorological parameters, data mining, neural networks
Revista Cubana de Ingeniería
65
6
4
CUJAE
ANIVERSARIO
INSTITUTO SUPERIOR POLITÉCNICO
JOSÉ ANTONIO ECHEVERRÍA
Revista Cubana de Ingeniería, 1(3), 67-72, 2010
INGENIERÍA MECÁNICA
Modelo integral de la estructura móvil
de una máquina limpia-playa
María Eugenia García Domínguez
Correo electrónico:[email protected]
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Resumen
Se propone el modelo de la estructura móvil de una máquina limpia-playa, con un análisis integral de la
estructura y sus componentes fundamentales como la barra de tiro, bastidor y el soporte del puente.
Utilizando este modelo racional de la estructura de la máquina limpia-playa, se realiza un análisis de las
tensiones y desplazamientos que ocurren en los dos estados más críticos de operación de la máquina:
cribado y descarga. Para el análisis de las tensiones y los desplazamientos en la máquina limpiadora de
playa fue elaborado el modelo físico-matemático de la estructura por el método de los elementos finitos
y siguiendo las reglas establecidas. Con el estudio realizado y considerando las características que
ofrecen las playas cubanas, se pretende que la máquina analizada en este trabajo cumpla con los
requerimientos técnicos, económicos y ecológicos para su óptima puesta en marcha.
Palabras clave: limpia-playa, estructura, tensiones, desplazamientos, gráficos
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
El desarrollo de máquinas para la limpieza de las playas
es una necesidad inmediata en el incremento de la industria
turística cubana, que no cuenta en la actualidad con una
limpieza exhaustiva de la arena, pues se realiza de forma
manual. Actualmente hay en explotación cientos de
kilómetros de playas dedicadas al turismo que requieren la
limpieza de los desperdicios dejados sobre la arena por los
veraneantes y de las algas depositadas por las olas.
Una excelente calidad de playas exige un perfecto cuidado;
y para lograrlo es necesario aplicar una avanzada técnica de
limpieza.
La limpieza de las playas de forma manual, solo es posible
realizarla para los desperdicios depositados sobre la
superficie, mientra que los residuos ocultos bajo la arena se
eliminan con máquinas apropiadas para esta tarea y con
garantía de cumplir con las reglas técnicas, ecológicas y
económicas exigidas para estos equipos especiales.
El desarrollo de una máquina que cumpla con los requisitos
exigidos para garantizar la limpieza de las playas requiere
varias etapas de trabajo, entre estas se encuentran la de
diseño, fabricación del prototipo, donde se comienza la
construcción de los elementos de máquinas y de estructuras
que las conforman y se ensambla finalmente, pero
paralelamente se realizan los cálculos de comprobación de
la estructura y para ello puede ser útil la realización de un
modelo por elementos finitos para poder perfeccionar el
modelo teórico y disponer de un modelo validado para hacer
los ajustes necesarios en las futuras producciones de la
máquina.
DESCRIPCIÓN DE LA MÁQUINA LIMPIA-PLAYA
La máquina limpia-playa es un equipo que por sí solo no
tiene movilidad y debe ser arrastrado por un tractor.
La figura 1 muestra un plano general de dicha máquina, que
permite observar su accionar como un remolque. La función
Modelo integral de la estructura móvil de una máquina limpia-playa
de la máquina es limpiar de residuos la arena de la playa
(latas, botellas, cajas, papeles, etc), depositados por los
veraneantes.
del mecanismo de alimentación, colocado delante de la
cuchilla permite que llegue a la misma la cantidad de arena
necesaria para su posterior limpieza.
La máquina realiza tres operaciones que son: cribado,
rastrillado y mixta.
Cribado
La figura 2 muestra el sistema del cernidor trabajando en
la operación de cribado. En esta operación la cuchilla está
trabajando como promedio 16 cm centímetros por debajo
del nivel de la arena y en esa posición la resistencia producida
por el colchón de arena crea las máximas cargas en la cuchilla
y sobre el dispositivo de descompactación. La velocidad de
trabajo es cercana a 5 km/h.
Fig. 1. Esquema de la máquina limpia-playa.
Algunas de las características principales de la máquina
limpia-playa objeto de estudio, son las siguientes:
• Fuerza motriz máxima: 14 000 N.
• Penetración máxima de la cuchilla: 160 mm.
• Dimensiones de la máquina:
Longitud: 5 450 mm.
Ancho: 2 600 mm.
Altura: 2 030 mm.
• Peso aproximado del equipo: 1,8 t.
• Capacidad: 1 360 m3/h.
• Cernidor de banda transportadora con malla de acero
articulada y tejido triangular:
Longitud del cernidor: 2 600 mm.
Ancho del cernidor: 1700 mm.
Peso unitario aproximado: 12 kg/m.
Peso total de la banda articulada: ll5 + 5 kg.
Peso de arena seca sobre la malla: 1 100 - 1 500 kg.
Para realizar su trabajo, la máquina limpia-playa dispone
de una cuchilla frontal cuya función es levantar la arena a
medida que el equipo avanza paralelo a la orilla de la playa y
colocarla sobre la malla sin fin de un cernidor vibratorio.
La arena limpia se deposita de nuevo en el mismo lugar de
donde fue extraída y los residuos que no pueden atravesar la
malla del cernidor son conducidos hasta el otro extremo y
depositados en un contenedor provisional que cuando llega
a su capacidad máxima de almacenaje (1,4 m3), mediante
un mecanismo hidráulico, se descarga sobre un camión u
otro vehículo apropiado para transportarla hacia el depósito
permanente de desechos.
El rodillo motriz del cernidor es accionado por una toma
de fuerza del tractor y pone en movimiento la malla sin fín. A
través de los dos ejes excéntricos se le suministra a la malla
un movimiento vibratorio para facilitar la labor del cernidor y
separación de los residuos sólidos. El sistema de paletas
68
Revista Cubana de Ingeniería
Fig. 2. Operación de cribado.
Rastrillado
La figura 3 muestra el sistema de limpieza en la operación
de rastrillado. En esta operación la cuchilla no penetra. Se
utiliza para limpiar arena húmeda o seca a gran velocidad de
marcha y con gran rendimiento por unidad de superficie.
Además de limpiar la arena se utiliza para eliminar las algas
presentes en la arena. Puede trabajar a la velocidad de
10 km/h en arena seca y en arena húmeda a 8,5 km/h.
Fig. 3. Operación de rastrillado.
María Eugenia García Domínguez
Mixta
En la figura 4 se observa el sistema de limpieza en una
operación de trabajo mixta. Esta operación es una
combinación de las dos anteriores, aunque la penetración
de la cuchilla de recogida no alcanza el valor máximo de
penetración establecida en la operación de cribado, sino una
penetración que el operario determinará en dependencia de
la contaminación de la arena a limpiar. Permite también la
limpieza de la arena seca y húmeda. La velocidad de trabajo
oscila entre 7 y 5,5 km/h.
SISTEMA DE FUERZAS
El sistema de fuerzas utilizado en el cálculo se dividen en:
cargas principales y cargas adicionales. [2]
Cargas principales
En este tipo de carga se considera que solo son efectivas
las fuerzas principales. Como cargas principales se toman
en consideración las fuerzas permanentes, las fuerzas
móviles y las fuerzas por efectos térmicos.
En el estudio fueron consideradas como fuerzas
permanentes el peso de la estructura, el peso de los rodillos,
el peso de la malla y la fuerza de tensión de la malla. Como
fuerzas móviles se tomaron en consideración el peso de la
arena, las fuerzas en las cuchillas, las fuerzas del hidráulico
de alimentación, las fuerza del hidráulico de elevación y la
fuerza tractiva en la máquina.
Para el cálculo de las cargas permanentes se tomó en
consideración un coeficiente de choque para valorar la
dependencia de las cargas permanentes con la velocidad de
desplazamiento del vehículo. [3]
El coeficiente de choque fue evaluado según las
recomendaciones presentes en la tabla 1.
Para el análisis de la estructura de la máquinas fue
considerado un valor para el coeficiente de choque = 1,2.
Así mismo, en el cálculo de las cargas móviles se estimó
un coeficiente de compensación que tiene en cuenta la
repetición de las cargas. El coeficiente de compensación
fue evaluado según las recomendaciones presentes en la
tabla 2.
Fig. 4. Operación mixta.
MODELO GEOMÉTRICO
DE LA ESTRUCTURA DE LA MÁQUINA
Para realizar el análisis de las tensiones y desplazamientos
que sufre la máquina limpiadora de playa se elaboró un
modelo físico-matemático de la estructura, siguiendo las
reglas establecidas por el método de los elementos
finitos. [1] El modelo geométrico básico de la estructura de
la máquina puede observarse en la figura 5.
Tabla 1
Coeficiente de choque 
Velocidades de desplazamiento

Estructuras en reposo
1,0
Hasta 60 m/min
1,1
Mayores de 60 m/min
1,2
Tabla 2
Coeficiente de compensación 
Tipo de estructura
Fig. 5. Estructura de la máquina.

Muy ligeras
1,9
Ligeras
1,6
Pesadas
1,4
Muy pesadas
1,2
Revista Cubana de Ingeniería
69
Modelo integral de la estructura móvil de una máquina limpia-playa
Para el análisis de la estructura de la máquinas fue
considerado un valor para el coeficiente de compensación
de  = 1,8.
Cargas adicionales
En este grupo de cargas se considera generalmente la
presión del viento y las fuerzas de frenado aplicadas durante
el desplazamiento de la máquina, y también las fuerzas
laterales y horizontales.
En esta estructura no son consideradas las fuerzas
debidas al viento por ser muy pequeñas y se despreciaron
las fuerzas laterales, porque la velocidad de desplazamiento
del vehículo es muy pequeña.
ESTADOS DE CARGA
Los estados de carga fundamentales y críticos en el
funcionamiento de la máquina son observados en las
operaciones que a continuación se relacionan.
Operación de cribado
En esta operación, tal y como fue explicado anteriormente,
la cuchilla se introduce 16 cm por debajo del nivel de la
arena y en esa posición de la cuchilla la resistencia producida
por el colchón de arena crea las máximas cargas sobre esta
y el dispositivo de descompactación. Estas cargas
generadas en la cuchilla y en el dispositiv o de
descompactación son transmitidas a la estructura. Para
establecer el sistema de carga empleado en el análisis de la
resistencia de la estructura de la máquina, fue considerada
la cubeta de los residuos totalmente llena (máxima
capacidad).
Operación de descarga
En este régimen de operación se produce la elevación de
la cubeta de residuos llena y su posterior volteo para efectuar
la descarga sobre el vehículo recolector. En esta operación
se producen las mayores cargas en algunos de los elementos
de la estructura que no son necesariamente los más
cargados en la operación de cribado. Durante la operación
de descarga la máquina limpia-playa no está realizando
ninguna operación de limpieza solamente está en función
de vaciar la cubeta de recolección.
CÁLCULO DE LA TENSIÓN EN LA BANDA
TRANSPORTADORA
La tensión en la banda transportadora se calcula por la
siguiente expresión: [4, 5]
Tmáx  P  K s
(1)
donde:
Tmáx: Fuerza de tensión máxima de la banda estática con
régimen establecido.
P : Fuerza de tracción.
Ks : Coeficiente de tensión máxima.
70
Revista Cubana de Ingeniería
La fuerza de tracción P se calcula por la siguiente
expresión:
 

P  1  k t
Gm  qc Lh w  qc H 
A 

(2)
donde:
Kt : Coeficiente que tiene en cuenta el tipo de transmisión
y las particularidades de la traza del transportador.
W : Coeficiente de resistencia en dependencia del tipo de
rodillo de apoyo.
 : Suma de los ángulos de flexión de la banda en
grados por toda su traza.
H : Altura de izaje de la carga.
A : Coeficiente que considera las condiciones de
explotación del transportador. Su valor oscila entre 2 000
para las condiciones más desventajosas (atmósfera
polvorienta, dificultades de mantenimiento, transportadores
bajo tierra) y 3 000 para las mejores condiciones (atmósfera
seca y limpia, fácil acceso a los conjuntos del transportador
para el mantenimiento).
G m: Peso total (sumario) de las partes móviles del
transportador, se calcula por la siguiente expresión:
Gm  2  qc  Lh  Gg
(3)
donde:
qc : Peso lineal de la carga para un metro lineal de banda.
Lh : Longitud de la proyección horizontal de la trayectoria
del desplazamiento de la carga.
Gg : Peso de las partes giratorias del transportador.
El coeficiente de tensión máxima Ks, se determina con la
siguiente fórmula:
Ks 
e f
e 1
f
(4)
donde:
f : Coeficiente de fricción entre banda y tambor del
transportador.
 : Ángulo de contacto del tambor con la banda.
DETERMINACIÓN DE LAS TENSIONES
Y DEFORMACIONES
Teniendo en cuenta la distribución de cargas que actúan
sobre la máquina limpia-playa y basado en los criterios
anteriormente expuestos se realizaron los cálculos de las
tensiones y deformaciones [6, 7] en la estructura, dividiéndola
en los subcasos más críticos correspondientes a las
operaciones de cribado y descarga. En las figuras 6 y 7, se
puede observar la estructura deformada y sin deformar en la
operación de cribado, además del comportamiento de las
tensiones en los diferentes elementos componentes de la
María Eugenia García Domínguez
estructura. De la misma forma, en las figuras 8 y 9,
correspondientes al análisis de la estructura en la operación
de descarga, se observa la estructura deformada y sin
deformar, además de la distribución de tensiones en los
elementos.
De los gráficos de distribución de tensiones en los
elementos para cada operación de trabajo analizada se
pueden determinar con certeza los elementos que superan
las tensiones admisibles por resistencia y por lo tanto conocer
aquellos elementos estructurales que requieren reforzar su
sección transversal.
Derivado de los resultados del análisis de las tensiones y
deformaciones en la estructura, y considerando el efecto de
las uniones soldadas en la resistencia del conjunto,
[8 - 10], se observa que en la operación de cribado el cuerpo
de la estructura se desplaza en general en sentido vertical y
de forma uniforme. Este resultado es totalmente compatible
con el hecho de que las cargas principales (fuerza tractiva,
fuerza del mecanismo descompactador, fuerza de la cuchilla,
etc.) actúan sobre la parte delantera de la máquina, mientras
las fuerzas del mecanismo de elevación y volteo actúan sobre
la parte trasera, exceptuando la barra de tiro.
Durante el análisis de las tensiones y deformaciones en la
operación de descarga se puede observar que las mayores
deformaciones y tensiones ocurren en la parte trasera de la
estructura. Este resultado, corrobora una lógica intuición
inicial del hecho, debido a que las cargas generadas en la
operación de descarga son producidas por el peso propio de
la estructura, las fuerzas de tensión en la malla, las fuerzas
del peso de los rodillos, las fuerza del peso de la malla y las
fuerzas originadas por el mecanismo de elevación y volteo,
mayormente localizadas en la parte trasera de la estructura.
En las tablas 3 y 4 se observan los valores de tensión
máxima en los elementos más peligrosos por fractura
correspondientes al análisis realizado en las operaciones
de cribado y descarga. También en estas tablas se observa
que el efecto de las tensiones en los elementos superan
hasta en un 198% las tensiones admisibles de los elementos
de la estructura, por lo que es necesario reforzar las
secciones transversales de los componentes.
Fig. 6. Estructura deformada (líneas continuas) y sin deformar
(líneas discontinuas).Operación de cribado.
Fig. 7. Tensiones en los elementos en operación de cribado.
Fig. 8. Estructura deformada (líneas continuas) y sin deformar
(líneas discontinuas). Operación de descarga.
Fig. 9. Tensiones en los elementos en operación de descarga.
Revista Cubana de Ingeniería
71
Modelo integral de la estructura móvil de una máquina limpia-playa
Ta bla 3
Te nsio nes má xim as en lo s e le m e ntos má s p e lig ro sos en
la o pe ra ción de crib ad o
E le m e nto
Te nsió n (M P a)
Hub e r & M ise s
tensión
 100%
tensión admisible
14
394
164
13
394
164
3
3 72
155
4
3 72
155
42
2 73
114
Ta b la 4
Te ns io ne s m á xim a s e n lo s e le m e nto s m á s p e lig ro s o s e n
la o p e ra c ió n d e d e s c a rg a
E le m e nto
Te ns ió n, M P a
H ub e r & M is e s
tensión
 100%
tensión admisible
42
276
198
66
263
188
25
256
183
49
256
183
26
206
147
CONCLUSIONES
• Se utilizó para el análisis de la resistencia y la
deformación de una máquina limpia-playa un modelo integral
de la estructura que toma en cuenta, no solamente el bastidor
de la máquina sino todos los elementos estructurales, tales
como la barra de tiro, la estructura de los soportes de los
ejes del puente y la estructura de los mecanismos de
elevación y volteo. Este modelo muestra ventajas
considerables comparadas con los modelos tradicionales
en la ingeniería de automóviles que solamente utilizan el
bastidor de la máquina.
• Utilizando el mencionado modelo racional de la estructura
de la máquina limpia-playa, se puede realizar un análisis de
las tensiones y desplazamientos que ocurren cuando actúan
cargas de trabajo en los dos estados más críticos: cubeta a
máxima capacidad de carga y cubeta a máxima altura.
• La obtención de los valores de tensiones que superan
los valores admisibles permiten determinar cuáles son los
elementos más factibles a sufrir roturas para los que se
propone el reforzamiento de las secciones transversales.
REFERENCIAS
1. ÁLVAREZ VASALLO, J. A. y GARCÍA DE LA
FIGAL, J. "Proyecto de metodología para el cálculo de
estructuras de vehículos", 1997.
2. Advance of Automotive Engineering, Integral Structures,
Christmas Term, 2006
3 BENITEZ, F. "Construcción y cálculo del automóvil",
t. II, Ministerio de la Educación Superior, La Habana, 1990.
4. COURBÓN, J. y AGUILAR E "Tratado de resistencia de
los materiales", t. 1. 2da ed., 2005, España.
5. ERZ, K. "Torsion in Road Vehicles Caused by Road Surface
Irregularities", A.T.Z., no. 4, April, 2006.
6. FEODOSIEV, V. I. "Resistencia de materiales", Editorial
Mir, 3ra. ed., 1985.
7. MIROLIUBOV, T. "Problemas de Resistencia de los
Materiales", Editorial Mir, 6ta. ed., 1990, Moscú.
8. SCHIMPKE, P. and HORN, H. L. "Tratado general de
soldadura", t. III, 3ra. ed., Editorial Gustavo Gili,
S. S. 2007, España.
9. SCHIMPKE, P. and HORN, H. L. "Proyecto y cálculo de
las construcciones soldadas", 3ra. ed., Editorial Gustavo
Gili S. S. 2007, España.
10. SHUVIN, V.S. y PEDRÉ, C. "Diseño de Maquinaria
Industrial", t. 3, 4ta. reimpresión, Editorial Pueblo y
Educación, Ciudad de La Habana, Cuba, 2006.
AUTORA
Maria Eugenia García Domínguez
Ingeniera Mecánica, Máster en Diseño Mecánico, Profesora
Auxiliar, Departamento de Mecánica Aplicada, Facultad de
Ingeniería Mecánica, Instituto Superior Politécnico José
Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Integral Model of Sand-Cleaning Machine Structure
Abstract
A proposes of model of sand-cleaning machine structure for the analysis of loaded structure is presented
in this paper. The analysis of the structure is developed in the principal components such as the pull
bar, chassis and supports. Using this rational model of the structure of the sand-cleaning machine, it
can be carried out an analysis of the tensions and displacements in the two more critical situations
of operation: Sieved and discharge. By finite elements method was developed a physical-mathematical
model for the sand-cleaning machine and were analyzed the tensions and displacements in the
structure. According to the characteristics of the Cuban beaches and results derivate of this study,
the machine analyzed and exposed in this paper fulfills all the technical, economic and ecological
requirements for good operation.
impact.
Key words: sand-cleaning machine, structure, tension, displacement
72
Revista Cubana de Ingeniería
Revista Cubana de Ingeniería, 1(3), 73-82, 2010
INGENIERÍA MECÁNICA
Diseño racional de engranajes
cilíndricos orientado a aumentar
eficiencia y disminuir pérdidas
por fricción
Gonzalo González Rey
Correo electrónico:[email protected]
Alejandra García Toll
Correo electrónico:[email protected]
María Eugenia García Domínguez
Correo electrónico:megarcia@mecánica.cujae.edu.cu
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Recibido: enero 2010
Aprobado: marzo 2010
Resumen
Los engranes de ruedas cilíndricas y ejes paralelos con contacto exterior constituyen transmisiones
mecánicas muy eficientes, pero los requerimientos de máxima eficiencia en las actuales máquinas y
equipos hacen necesaria una precisión en los procedimientos de cálculo de pérdidas de potencia. En
este sentido, el Reporte Técnico ISO/TR 14179-1:2001 ofrece fórmulas con bases empíricas y teóricas para evaluar la eficiencia de engranajes considerando pérdidas por rozamiento en el contacto
diente-diente, por batimiento del aceite y por rozamiento en cojinetes y sellos. En este artículo, se
presentan algunos de los resultados derivados de un estudio de ISO/TR 14179-1:2001 y del coeficiente de fricción en engranajes. El estudio fue realizado sobre la base de modelos matemáticos que
permitieron interrelacionar la geometría del engranaje y los parámetros de explotación con la eficiencia del engranaje. Los resultados aportan soluciones al problema de aumentar la eficiencia de los
engranajes mediante una relación conveniente entre la carga y la velocidad, y una geometría racional
del dentado de las ruedas. Finalmente, mediante un análisis de regresión múltiple se establece una
nueva formulación de la eficiencia del engranaje en función de la densidad de carga en el engranaje, el
módulo, la velocidad de trabajo, la razón de transmisión y la cantidad de dientes en el piñón.
Palabras clave: engranaje cilíndrico, eficiencia, coeficiente de fricción, ISO/TR 14179-1
INTRODUCCIÓN
En la actualidad, nuevas regulaciones gubernamentales
promueven la reducción del gasto energético con el empleo
de equipos más eficientes. Este hecho, ha renovado el
creciente interés y demanda de máquinas con mayores
eficiencias para enfrentar una reducción de los costos de
explotación y mantenimiento, sobre la base de disminuir las
pérdidas de potencia con tecnologías más eficientes.
Dentro de las variadas formas de transferir la energía en
los equipamientos actuales son destacables las
transmisiones mecánicas, con una amplia divulgación en la
técnica contemporánea. Múltiples pueden ser las formas de
trasmitir la energía mecánica, pero indiscutiblemente que
las de mayor generalización y actualidad son los
accionamientos con engranajes, debido a la combinación
de soluciones disponibles para trasmitir el movimiento con
eficiencia y diversidad geométrica. Por consiguiente, una
formulación correcta y precisa de la determinación de las
pérdidas por rozamiento entre los dientes de las ruedas
permitiría realizar diseños de engranajes más eficientes y
recomendar procedimientos de explotación más efectivos.
Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción
Desde los últimos años de la década del 90, se trabaja en
la elaboración de nuevas y mejores normativas dirigidas a
mejorar la efectividad en explotación de los engranajes por
varias de las asociaciones responsabilizadas con la edición
de normas ISO de engranajes. En particular, se distingue la
aprobación de los reportes técnicos: ISO/TR
14179-1:2001 [1] e ISO/TR 14179-2:2001 [2]. Los
mencionados reportes técnicos ISO incluyen fórmulas para
evaluar las pérdidas de potencia del sistema de engranajes,
considerando las pérdidas por rozamiento y rodadura en el
contacto diente-diente, entre otros.
En particular, se pretende presentar en este trabajo un
resumen de algunos de los principales resultados derivados
de la comparación de los procedimientos de cálculo de las
pérdidas de potencia en el engranaje de ruedas dentadas
cilíndricas con dientes de evolvente con contacto exterior y
ejes paralelos. Los comentarios emitidos pueden ser útiles
en la determinación de los parámetros de uso y diseño
adecuados para obtener engranajes cilíndricos más eficientes
durante su explotación. Además, el estudio permite
demostrar que, a pesar de los avanzados resultados
aceptados para evaluar la eficiencia de los engranajes, aún
existen discrepancias importantes entre los diferentes
procedimientos para la determinación del coeficiente de
fricción en el contacto entre dientes durante el engranaje.
PÉRDIDAS DE POTENCIA POR FRICCIÓN EN
ENGRANAJES CILÍNDRICOS SEGÚN ISO
Las ecuaciones declaradas en el Reporte Técnico ISO/TR
14179-1 para evaluar las pérdidas por fricción en engranajes
cilíndricos están basadas en el estudio y experimentación de
251 reductores de velocidad con engranajes de ruedas
cementadas y rectificadas, [3] que permitieron establecer una
fórmula empírica para el coeficiente de fricción en dependencia
de la velocidad circunferencial de las ruedas, la intensidad de
la carga en el contacto y la viscosidad cinemática del aceite.
El cálculo de las pérdidas de potencia considera el engranaje
entre los dientes con una película de lubricante entre los flancos
activos mediante las ecuaciones (1) - (6):
Proz 
fm 
K
M
74
fm  T1  n1  cos 2 
[kW]
9 549  M
 0,223  K 0,4
3,239  v 0,7
1 000  T1   z1  z2 
2  bw  ( d1 / 2 )2  z2
2  cos  t   Hs  Ht 
Hs 2  Ht 2
Revista Cubana de Ingeniería
(1)
(2)
(3)
(4)
0,5



da2 2
2

Hs   u  1   2  cos  t   sen t 

 d 2




Ht
u  1    da12

u

 d12


 cos  t 


2
0,5

 sen t 


(5)
(6)
donde:
Proz: Pérdidas por fricción en engranajes [kW].
fm : Coeficiente de fricción.
K : Factor por intensidad de carga [MPa].
M : Factor por velocidades de deslizamiento.
Hs : Razón de deslizamiento a inicio del engranaje.
Ht : Razón de deslizamiento a final del engranaje.
T1 : Momento torsor en el piñón [Nm].
n1 : Frecuencia de rotación del piñón [min-1].
 : Ángulo de la hélice [º].
n : Viscosidad cinemática del lubricante [mm2/s].
v : Velocidad en circunferencia primitiva [m/s].
z1 y z2 : Número de dientes en el piñón y la rueda.
bw : Ancho de engranaje [mm].
d1 : Diámetro primitivo en piñón [mm].
d2 : Diámetro primitivo en rueda [mm].
t : Ángulo transversal de engranaje l [º].
da1 : Diámetro de cresta del piñón [mm].
da2 : Diámetro de cresta en rueda [mm].
u : Razón de engranaje (z2/z1).
m : módulo (mm).
a : Distancia interaxial (mm).
db1 : Diámetro básico del piñón [mm].
df2 : Diámetro básico en rueda [mm].
df1 : Diámetro de fondo del piñón [mm].
df2 : Diámetro de fondo en rueda [mm].
: Ángulo de presión en la cuchilla (°).
ha* : Factor de altura de la cabeza de la cuchilla.
c* : Factor constante de holgura radial.
: Coeficiente de recubrimiento.
Pot : Potencia a transmitir (kW).
 : Eficiencia del engranaje.
La ecuación (2) es válida para velocidades en la
circunferencia primitiva de las ruedas entre 2m/s y 25m/s y
factores por intensidad de carga entre 1,4N/mm y
14,2N/mm, fuera de estos límites el coeficiente de fricción
debe ser determinado experimentalmente.
Con el objetivo de realizar una comparación de la validez
de las formulaciones establecidas en los reportes técnicos:
ISO/TR 14179-1 y 2: 2001 para el cálculo de las pérdidas de
potencia en el engranaje de ruedas dentadas cilíndricas con
dientes de evolvente con contacto exterior y ejes paralelos
fue realizado por los autores un anterior estudio. [4] El referido
estudio permitió corroborar que los resultados del cálculo de
las pérdidas de potencia según ISO/TR 14179-1 son próximos
Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez
a los determinados prácticamente. Este hecho propició que
el trabajo se orientara a presentar algunos de los resultados
derivados del estudio de la eficiencia y del coeficiente de
fricción entre dientes de engranajes cilíndricos basado en a
las formulaciones del Reporte Técnico ISO/TR 14179-1:2001.
PARÁMETROS DE DISEÑO Y EXPLOTACIÓN
CON INFLUENCIA EN LA EFICIENCIA DE
LOS ENGRANAJES SEGÚN ISO/TR 14179-1
Aceptando que la comparación de los resultados
experimentales y teóricos permite afirmar que los valores de
pérdidas de potencia según ISO/TR 14179-1 son próximos a
los resultados reales, se considera conveniente realizar un
análisis de la influencia en la eficiencia de la transmisión de
algunos parámetros de la geometría de engranajes.
Empleando las ecuaciones declaradas en ISO/TR 14179-1
para evaluar la eficiencia del engranaje y analizando una
interrelación con la geometría del dentado de las ruedas, la
carga y velocidad de trabajo fue elaborado un modelo
matemático de 21 relaciones entre 32 variables con 11 grados
de libertad. A continuación se presentan las relaciones
constitutivas del modelo matemático desde la relación (R1)
hasta (R21), cuyas variables han sido identificadas
anteriormente.
(R1) z 2  u  z1  0
(R 2) m  z1  d1  cos   0
(R 3) m  z 2  d 2  cos   0
(R 4) m  z1  z 2   2  a  cos   0
(R 5)
tan
 tant  0
cos 
0,5  d 2  d 2  0,5  d 2  d 2  
a1
b1
a2
b2



(R12) 
a  sen    m     cos t   0



t



cos









(R13) 30 000  Pot  T 1    n 1  0
(R14 ) n1    d1  60 000  V  0
2
d 
(R15 ) 1 000  T1  z1  z2   K  2  bw   1   z2  0
 2
(R16 )  0,223  K 0,4  fm  3,239  v 0,7  0
0,5
2



  da2 


  2 


2
(R17) u  1  
 cos  t   sen t   Hs  0
2
  d 2 



  2 




0,5
2



  d a1 



u  1   2 


2
(R18) Ht 
 
 cos t   sent   Ht  0
2
u
  d 1 



  2 





2
2

(R19) 2  cost  Hs  Ht   M  Hs  Ht  0
(R 20) fm  T1  n1  cos2   Proz  9 549  M
(R 6) d1  cos t  d b1  0
(R 7) d 2  cos t  d b 2  0




(R 8) d1  2  m  ha *  c *  df 1  0
(R 9) d 2  2  m  ha *  c *  d f 2  0
(R10) 2  a  df2  2  c *  m  da1  0
(R11) 2  a  df1  2  c *  m  d a 2  0
(R 21) Pot  Proz     Pot  0
El anterior modelo matemático fue analizado con técnicas
de grafos para una mejor comprensión de la interrelación entre
las variables y las relaciones participantes en las soluciones
de los problemas. La figura 1 muestra la representación del
mencionado modelo matemático mediante un grafo.
Tomando como referencia el primer modelo matemático
fue planteado el problema de la determinación de la eficiencia
de un engranaje cilíndrico con fundamento en la
norma ISO/TR 14179-1, una consecuente geometría del
engranaje en la etapa de diseño y una caracterización de la
aplicación en explotación basada en la velocidad y carga de
trabajo de engranaje. Este problema fue el punto de partida
para elaborar un segundo modelo matemático que soluciona
Revista Cubana de Ingeniería
75
Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción
lo relacionado con el cálculo de la eficiencia del engranaje
con participación de 18 relaciones pertinentes. Del análisis
del modelo matemático del problema de la determinación de
la eficiencia de un engranaje cilíndrico fue identificado que
las relaciones (R6), (R7) y (R12) del primer modelo
matemático no son necesarias en la solución de problema
que se plantea.


*
(R 8 ) d f 1  d 1  2  m  ha  c * (mm)

*

(R 9) d f 2  d 2  2  m  ha  c * (mm)
(R10 ) d a1  2  a  df2  2  c *  m (mm)
(R 11) d a2  2  a  d f1  2  c *  m (mm)
(R14 ) v 
n1    d1
(m/s)
60 000
1 000  T1  z1  z2 
(R15) K 
2
(N - mm2 )
d 
2  bw   1   z2
2
( R 16 ) fm 
Fig. 1. Grafo del modelo matemático de la interrelación de la
eficiencia del engranaje con la geometría del dentado de las
ruedas, la carga y la velocidad de trabajo.
A continuación se declaran las relaciones participantes
en el modelo matemático de la solución del problema.
(R 1) u 
z2
z1
(R 2) d1 
m  z1
(mm)
cos 
 tan   o
(R 5)  t  tan 1
( )
 cos  
(R13) T1 
 0, 223  K 0 , 4
3,239  v 0,7
0 ,5
2



  d a 2 


  2 


2
(R17 ) H s  u  1  
 cos  t   sen t 
2
  d 2 



  2 




0,5
2



  d a1 



u  1   2 


2
(R 18) Ht 
 
 cos t   sen t 
2
u
  d 1 



  2 




(R19) M 
2  cos  t  H s  H t 
30 000  Pot
(Nm)
  n1
(R 20) Proz 
(R 3) d 2 
m  z2
(mm)
cos 
m  z1  z2 
(R 4) a 
(mm)
2  cos 
76
Revista Cubana de Ingeniería
(R 21)  
2
H s  Ht
2
fm  T1  n1  cos 2 
kw 
9 549  M
Pot  Proz
Pot
Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez
Con referencia al segundo modelo matemático fue
establecido un procedimiento de cálculo de la eficiencia de
un engranaje de ruedas cilíndricas, con dientes rectos sin
corrección del perfil, considerando las pérdidas por fricción
propias del rozamiento entre los flancos activos de los dientes
conjugados. El procedimiento fue organizado en tablas Excel
confeccionadas al efecto y permitió evaluar la eficiencia del
engranaje con variaciones de parámetros de diseño y de
explotación. En las figuras 2, 3, 4, 5 y 6 son mostrados
algunos de los resultados obtenidos con una relación ancho
de engranaje y distancia interaxial de bw/aw = 0,3; aceite con
viscosidad cinemática de trabajo de n = 150 mm2/s y ruedas
dentadas talladas con herramientas de generación con perfil
de referencia según NC-ISO 53-2007.
Fig. 4. Eficiencias estimadas según ISO/TR-14179-1.
Engranajes con carga unitaria sobre dientes de 250 N/mm,
razón de transmisión u = 1 y número de dientes en el piñón
z1 = 16.
Fig. 2. Eficiencias estimadas según ISO/TR-14179-1.
Engranajes con razón de transmisión u = 1, carga unitaria
sobre dientes de 250 N/mm y velocidad de rotación de entrada
(piñón) de n1 = 1 000min-1.
Fig. 5. Eficiencias estimadas según ISO/TR-14179-1. Engranajes
con razón de transmisión u = 1, velocidad de rotación de
entrada (piñón) n1 = 1 000min-1 y número de dientes en el
piñón z1 = 16.
Fig. 3. Eficiencias estimadas según ISO/TR-14179-1. Engranajes
con carga unitaria sobre dientes de 250 N/mm, velocidad de
entrada (piñón) n 1 = 1000min -1 y número de dientes en
piñón z1 = 16.
Los resultados de este trabajo permiten afirmar que las
mayores eficiencias del engranaje cilíndrico con ruedas
de dientes rectos, contacto exterior y ejes paralelos según
ISO/TR 14179-1 se logran cuando la explotación se
ejecuta a las mayores velocidades y cargas de la
transmisión (figuras 4 y 5). Es conveniente para lograr
las máximas ef iciencias de las transmisiones por
engranajes, con una proporción fija de ancho/distancia
entre ejes, ejecutar diseños con valores altos de relación
de transmisión cinemática y ruedas dentadas con gran
cantidad de dientes (figuras 2 y 3).
Revista Cubana de Ingeniería
77
Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción
Los anteriores resultados consideran una dependencia del
módulo debido a que se ha preferido establecer una relación
constante entre ancho de engranaje y distancia entre
centros, lo que admite un análisis de engranajes con
diferentes distancias entre ejes y por consiguiente con
diferentes número de dientes y módulos. Los resultados
confirman que la mayor eficiencia se logra en los engranajes
con mayores números de dientes, tal y como se muestra
en la figura 6.
eficiencia de un engranaje cilíndrico de dientes rectos con
flancos de evolventes y contacto exterior.
   +   
Fn
     m 
b
    n1
    u      z1 %
(7)
Tabla 1
Algunos valores de eficiencia de engranajes cilíndricos
determinados según ISO/TR 14179-1
Fig. 6. Eficiencias para engranajes estimadas según ISO/TR14179-1 con distancia interaxial a = 96mm, módulos
1,2 (z = 80) y 6 mm (z = 16), razón de transmisión u = 1,
velocidad de rotación de entrada (piñón) n1 = 1 000min-1 y
número de dientes en el piñón z1 = 16.
En el presente trabajo y con base en las ecuaciones
declaradas en el Reporte Técnico ISO/TR 14179-1 para
evaluar las pérdidas por fricción en engranajes cilíndricos,
fue determinada la eficiencia de 40 casos ejemplos
considerando las pérdidas por fricción debido al engrane de
los dientes.
En el análisis del comportamiento de la eficiencia del
engranaje, fueron aceptadas como variables independientes
el número de dientes (z1), la frecuencia de rotación del piñón
(n1), la razón de engranaje (u), el módulo de las ruedas (m) y
la carga unitaria sobre el flanco en los dientes (Fn/b).
Los ejemplos analizados fueron establecidos con una
relación ancho de engranaje y distancia interaxial de
bw/aw = 0,3, aceite con viscosidad cinemática de trabajo de
n = 150 mm2/s, ruedas dentadas talladas sin corrección
(x 1 = x 2 = 0) y herramientas con ángulo entre flanco
 = 20° y factor de altura de cabeza ha* = 1. En la tabla 1 y
las figuras 7 y 8 se muestran resultados del cálculo y su
generalización.
Mediante un análisis de regresión múltiple pudo ser
establecida una interrelación directa entre la eficiencia del
engranaje y las variables independientes. La ecuación (7) se
presenta como una nueva formulación para determinar la
78
Revista Cubana de Ingeniería
%
z1
u
n1 (min-1 )
Fn/b (N/mm)
m
99,80
48
1
1 000
250
2
99,82
48
1
1 000
250
3
99,83
48
1
1 000
250
4
99,85
48
1
1 000
250
5
99,86
48
1
1 000
250
6
99,27
16
4
1 000
250
1
99,41
16
4
1 000
250
2
99,48
16
4
1 000
250
3
99,55
16
4
1 000
250
4
99,57
16
4
1 000
250
5
99,22
16
2
1 000
250
1
99,37
16
2
1 000
250
2
99,44
16
2
1 000
250
3
99,49
16
1 000
250
4
98,58
16
1
500
250
1
98,85
16
1
500
250
2
98,98
16
1
500
250
3
99,07
16
1
500
250
4
99,12
16
1
500
250
5
99,17
16
1
500
250
6
99,34
16
1
1 000
500
1
Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez
fricción en un engranaje, pero la realidad es que en la
actualidad existen aún imprecisiones en los resultados que
se obtienen debido a las simplificaciones que se incluyen
para aceptar un coeficiente de fricción promedio cuando en
realidad el coeficiente de fricción en el engranaje es un valor
instantáneo dependiente de las zonas del flanco de los
dientes en donde se localiza el contacto.
En la figura 9, se aprecian los valores superiores del
coeficiente de fricción según ISO/TR 14179 al ser comparados
con los resultados experimentales de Hori [5] en la evaluación
del coeficiente de fricción instantáneo en el contacto sobre
la línea de engranaje. Los resultados de Hori fueron obtenidos
sin considerar distribución de cargas entre dientes y
corresponden a un engranaje pequeño casi estacionario.
0,08
Coef iciente de f ricción
Fig. 7. Comportamiento de la eficiencia de engranajes
cilíndricos en función de la velocidad circunferencial de las
ruedas (V) y la carga específica sobre el diente (Fn/b).
ISO14179-2
0,06
ISO 14179-1
0,04
Valor promedio de
experimento
0,02
Coeficiente defricción
instantaneo
0
Fig. 9. Coeficiente de fricción a lo largo de la línea de engranaje
según ensayos de Hori [5] y los resultados derivados de la
aplicación de las formulas de ISO/TR 14179.
Fig. 8. Comportamiento de la eficiencia  de engranajes
cilíndricos en función del módulo (m) y número de dientes de
ruedas iguales a 1 000min-1 y carga específica de 250 N/mm.
Estudiosos del tema, han obtenido empíricamente varias
formulaciones para el coeficiente de fricción promedio en
engranajes cilíndricos. Algunas de las relaciones más
conocidas para evaluar el coeficiente de fricción se muestran
a continuación.
a) Coeficiente de fricción de Drozdov-Gavrikov [6]:
COEFICIENTE DE FRICCIÓN EN
ENGRANAJES CILÍNDRICOS DE EJES
PARALELOS Y CONTACTO EXTERIOR
CONVENIENTEMENTE LUBRICADOS
Un análisis de las formulaciones para evaluar las pérdidas
de potencia en los engranajes cilíndricos de ejes paralelos y
contacto exterior según ISO/TR-14179-1 y 2 permite afirmar
que las disparidades entre los resultados están
responsabilizadas con las formulaciones empíricas
adoptadas para el coeficiente de fricción. En este sentido,
es justificable una comparación de las formulaciones más
difundidas para evaluar el coeficiente de fricción en los
engranajes.
Varios modelos físico-matemáticos, resultados de ensayos
múltiples, han sido propuestos para evaluar el coeficiente de
fm 
1
_

0,8   k  Vs  Vr    13,4

 1 u 
Vs  0,026 2  n1  
  g  [m/s ]
 u 
(8)
(9)
_

g  u  1 
Vr  0,104 7  n1  d1  sen    
 [m/s]
4  u 

(10)
  0,47  0,13  10 4  Pmáx  0,4  10 3 
(11)
Revista Cubana de Ingeniería
79
Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción
Pmáx 
210 000  FT
 10 [kg / cm2 ]
2    bw   red
(12)
donde:
ga : Longitud de línea de engranaje (mm).
n_K : Viscosidad dinámica lubricante (mm2/s).
Vs : Velocidad media deslizamiento (m/s).
_
Vr : Velocidad media de rodadura (m/s).
derivados de ISO/TR 14179-2 y Benedict-Kelly que prevén
un incremento del coeficiente de fricción ante aumentos de
la carga unitaria en los engranajes, en contraposición con
ISO/TR 14179-1 que estima una disminución del coeficiente
de fricción.
b) Coeficiente de fricción de Benedict-Kelly [7]:


 29,66  FT bw
fm  0,012 7  log10 
2
_
_
   Vs Vr 
 

 








(13)
Fig. 10. Valores de coeficientes de fricción para engranajes
con razón de transmisión u = 1, carga unitaria sobre dientes
de 250 N/mm, velocidad de rotación de entrada (piñón) de
n1 = 1 000min-1 y cantidad de dientes en el piñón z1 = 16.
c) Coeficiente de fricción de Misharin [8]:
 _ _

f m  0,325  Vs Vr   k 


0,25
(14)
d) Coeficiente de fricción de ISO 14179-2:2001.

FT
f m  0,048  
 bw  V   red
 R  Ra 2 
  a1

2





0 ,2
  0,05 
(15)
0,25
 XL
Los valores de coeficientes de fricción calculados según
las fórmulas (2), (8), (13), (14) y (15) fueron determinados
para engranajes con diferentes geometrías, cargas y
velocidad. Algunos resultados son replicados en forma de
gráficos desde la figura 10 hasta la figura 14.
En general, se observa que los valores del coeficiente de
fricción según Misharin [8] e ISO/TR 14179-2:2001 [2] son
superiores y mantienen un comportamiento semejante. Los
valores del coeficiente de fricción según ISO/TR 141791:2001 [ 1] son los menores y muy cercanos en
comportamiento a los valores promedio de Benedict [7] y
Drozdov [6].
Los resultados demuestran que los valores del coeficiente
de fricción según ISO/TR 14179-1:2001 están más próximos
a los promedios generalmente aceptados por la práctica de
la ingeniería.
Otra compilación de los resultados, algunos de ellos
reflejados en la tabla 2, muestra que los menores
coeficientes de fricción del engranaje cilíndrico de ruedas
con dientes rectos, contacto exterior y ejes paralelos se
logran con mayores velocidades de trabajo y mayor número
de dientes en las ruedas. Adicionalmente, los resultados
demuestran que existe contradicción entre los resultados
80
Revista Cubana de Ingeniería
Fig. 11. Valores de coeficientes de fricción para engranajes
con razón de transmisión u = 4, carga unitaria sobre dientes
de 250 N/mm, velocidad de rotación de entrada (piñón) de
n1 = 1 000min-1 y cantidad de dientes en el piñón z1 = 16.
Fig. 12. Valores de coeficientes de fricción para engranajes
con razón de transmisión u = 1, carga unitaria sobre dientes
de 250 N/mm, velocidad de entrada (piñón) n1 = 1 000min-1 y
número de dientes en piñón z1 = 48.
Gonzalo González Rey - Alejandra García Toll - María Eugenia García Dimínguez
CONCLUSIONES
• Empleando las ecuaciones declaradas en ISO/TR 14179-1 para
Fig. 13. Valores de coeficientes de fricción para engranajes
con razón de transmisión u = 1, con carga unitaria sobre
dientes de 250 N/mm, número de dientes en el piñón z1 = 16 y
velocidad de entrada (piñón) n1 = 500min-1.
Fig. 14. Valores de coeficientes de fricción para engranajes
con razón de transmisión u = 1, velocidad de rotación de
entrada (piñón) n1 = 1 000min-1 , número de dientes en el piñón
z1 = 16 y carga unitaria sobre dientes de 500 N/mm.
evaluar la eficiencia del engranaje y analizando una interrelación
con la geometría de las ruedas, la carga y velocidad de trabajo fue
elaborado un modelo matemático de 21 relaciones, 32 variables y
11 grados de libertad.
• Fundamentado en un modelo matemático general fue
desarrollado un modelo matemático orientado a dar solución
al problema de la determinación de la eficiencia de un
engranaje cilíndrico con fundamento en la norma ISO/TR
14179-1 y tomando en consideración una consecuente
geometría del engranaje en la etapa de diseño y una posterior
explotación basada en la velocidad y carga de trabajo de
engranaje.
• Resultados del trabajo, compilados en las figuras 4, 5 y 7,
muestran que las mayores eficiencias del engranaje cilíndrico
de ruedas con dientes rectos, contacto exterior y ejes
paralelos según ISO/TR 14179, se logran cuando la
explotación se ejecuta a mayores velocidades y cargas.
• Resultados del trabajo y compilados en las figuras 2, 3, 6 y 8
confirman que, para una distancia entre ejes de ruedas, la
mayor eficiencia se logra en los engranes con mayores
cantidades de dientes en las ruedas y mayores razones de
transmisión.
• Según las relaciones declaradas en ISO/TR 14179-1:2001
e ISO/TR 14179-2:2001 se obtienen los menores valores de
coeficientes de fricción en los engranes cilíndricos con
mayores velocidades de trabajo y mayores cantidades de
dientes en las ruedas. Un resumen de algunos resultados
se muestran en la tabla 2.
• La evaluación de varias propuestas para calcular el
coeficiente de fricción en los engranajes muestran que un
aumento de la carga específica en los engranes provoca un
incremento del valor del coeficiente de fricción según
ISO/TR 14179-2:2001 y Benedict-Kelly, mientras que
produce una disminución según ISO/TR 14179-1:2001.
• El estudio demuestra que, a pesar de los actuales y
avanzados resultados para evaluar la eficiencia de los engranes,
aún existen discrepancias entre los diferentes procedimientos
para la determinación de la eficiencia, atribuibles a la disparidad
en las relaciones para evaluar el coeficiente de fricción entre
los dientes en contacto.
Tabla 2
C oeficientes de fricción para engranes con razón de transmisión u = 1, módulo m = 3, viscosidad
cinemática del lubricante v = 150 mm 2 /s rugosidad superficial media R a 6,3  m y b w/a w 0,3
z1
n1
rpm
Ft/b
N/mm
C oeficiente de fricción fm
Misharin
IS O/TR 14179-2
Benedict
D rozdov
SO/TR 14179-1
16
1 000
250
0,221
0,121
0,038
0,033
0,021
48
1 000
250
0,161
0,078
0,025
0,016
0,015
16
500
250
0,312
0,139
0,049
0,046
0,034
16
1 000
500
0,221
0,139
0,041
0,033
0,016
Revista Cubana de Ingeniería
81
Diseño racional de engranajes cilíndricos orientado a aumentar eficiencia y disminuir pérdidas por fircción
REFERENCIAS
1. ISO. Gears - Thermal capacity - Part 1: Rating gear drives
with thermal equilibrium at 95 °C sump temperature.
ISO Technical Report 14179-1. ISO/IEC Office. Geneva.
Switzerland. 2001.
2. ISO. Gears - Thermal capacity - Part 2: Thermal loadcarrying capacity. ISO Technical Report 14179-2.
ISO/IEC Office. Geneva. Switzerland. 2001.
3. PHILLIPS, ALLYN E. "The development of a practical
thermal rating method for enclosed gear drives". American Gear Manufacturers Association (AGMA), Technical
Paper 96FTM9. Virginia, 1996, p.8.
4. GONZÁLEZ REY, G. "Comentarios sobre el cálculo de la
eficiencia de engranajes cilíndricos según reportes
técnicos ISO/TR 14179 – 1 y 2". En Actas de 5ta.
Conferencia Internacional de Energía Renovable y
Eficiencia Energética. Ciudad de La Habana. Mayo 2007.
pp 567-576.
5. HORI, K.; HAYASHI, I. and IWATTSUKI, N. "Determination of the tooth surface friction coefficient of a pair or
mating gears based on the distribution along the tooth
profile precisely measuremed with the gravity pendulum
method". In Actas de ASME 2000, Design Engineering
Technical Conference, Paper DETC 2000/PTG-14371.
Baltimore. September 2000, p.10
6. DROZDOV, Y. N. and GAVRIKOV, Y. A. "Friction and
scoring under the conditions of simultaneous rolling and
sliding bodies". Wear , 1967, p.291-302.
7. BENEDICT, G. H., KELLY, B. W. "Instantaneous coefficients of gear tooth friction". En Actas de ASLE Lubrication Conference. Illinois 1960. Transactions of ASLE,
October, 1960, p.57-70.
8. MISHARIN, Y. A. "Influence of the friction condition on
the magnitude of the friction coefficient in the case of
rollers with sliding". In Actas de International Conference
on Gearing, London 1958, Institute of Mechanical Engineering, p. 159-164.
AUTORES
Gonzalo González Rey
Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor
Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad de La
Habana, Cuba. Miembro Académico de la Asociación
Americana de Fabricantes de Engranajes (AGMA), Miembro
Experto en el Comité Técnico de Engranajes de la
Organización para la Normalización Internacional (ISOTC60).
Vicepresidente del Comité Técnico de Normalización Cubano
de Elementos de Máquina
Alejandra García Toll
Ingeniera Mecánica, Máster en Diseño Mecánico, Profesora
Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior
Politécnico José Antonio Echeverría, Cujae, Ciudad de La
Habana, Cuba. Miembro del Comit é Técnico de
Normalización Cubano de Elementos de Máquina, Experta
en ISO-TC60.
María Eugenia García Domínguez
Ingeniera Mecánica, Máster en Diseño Mecánico, Profesora
Auxiliar, Facultad de Ingeniería Mecánica, Instituto Superior
Politécnico José Antonio Echeverría, Ciudad de La Habana,
Cuba. Miembro del Comité Técnico de Normalización
Cubano de Elementos de Máquina
Rational Design of Spur Gears Directed to Increase Efficiency and
Decrease Loss by Friction
Abstract
External parallel-axis cylindrical gears are considered as very efficient means for transmitting mechanical power, but for requirements of maximum efficiency in the current machines and equipments a precision in the procedures of calculation of power losses is necessary. In this sense, the Technical Report
ISO / TR 14179-1:2001 offers formulas with empirical and theoretical bases to evaluate the gear efficiency considering gear mesh losses, windage and churning losses, and losses by bearings and seals.
In particular, this article presents some results derived from a study of ISO/TR 14179-1:2001 and mathematical models described the interrelation of gear geometry, working parameters and efficiency. The
results offer solution to the problem of increasing gear efficiency through a convenient relationship between the load, speed and rational gear geometry. Finally, through multiple regression a new formulation
was estimated for the calculation of gear efficiency as a function of the load density, module, speed, gear
ration and number of pinion teeth.
Key words: spur gear, efficiency, coefficient of friction, ISO/TR 14179-1
82
Revista Cubana de Ingeniería
Revista Cubana de Ingeniería, 1(3), 83-88, 2010
PROBLEMAS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA
Pensar la Ingeniería
José Ricardo Díaz Caballero
Correo electrónico:[email protected]
Instituto Superior Politécnico José Antonio Echeverría, Cujae, Ciudad de La Habana, Cuba
Sandra Isaac Borrero
Universidad de La Habana, Ciudad de La Habana, Cuba
Resumen
En este artículo se piensa la ingeniería en su interrelación con la ciencia, la técnica y la tecnología, a la luz de la lógica y la teoría dialéctica. Se aborda heurísticamente la ingeniería como un
estadio del desarrollo del saber hacer en el que se integran de manera orgánica a la racionalidad
técnica, las dimensiones sociohumanista, organizacional, económica, científica, estética,
ecológica y tecnológica.
Palabras clave: ingeniería, ciencia, técnica, tecnología, tecnociencia, continuum científico-técnico
Recibido: enero 2010
Aprobado: marzo 2010
INTRODUCCIÓN
A pesar de la importancia de la ingeniería como objeto de
investigación filosófica y sociohumanista en general, en Cuba
ha existido una carencia de trabajos en esta dirección, lo
cual se atribuye a la confluencia de tres momentos. Primero:
la marginación de la técnica como objeto de análisis
sociohumanístico integral y esencial por parte de la mayoría
de los profesionales de las Ciencias Sociales y Humanistas.
Segundo: la marginación de las Ciencias Sociales por parte
de los profesionales de las Ciencias Técnicas. Tercero: el
desconocimiento de la propia historia de la ciencia, la técnica,
la tecnología y la ingeniería, así como de sus contingencias
más actuales. Además, entre los filósofos cubanos existe
una especie de reencarnación de una tradición que data de
los primeros pensadores griegos consistente en el primado
del conocimiento teórico como saber auténtico y racional; y
la relegación del fenómeno técnico y del saber operativo a
un plano muy inferior en importancia (para algunos un plano
que no merece atención filosófica). Algo que, por cierto, nada
tiene que ver con la vocación dialéctica de la filosofía.
El análisis lógico dialéctico de la ingeniería y las
regularidades de su desarrollo tienen enorme importancia
tanto para la filosofía como para las propias ciencias técnicas.
Desde el punto de vista filosófico, abordar esta temática es
esencial porque permite develar el movimiento de los diversos
enfoques teóricos de la ingeniería y comprender sus
tendencias de desarrollo como teoría y praxis humana.
LA INGENIERÍA
La ingeniería, según el ingeniero peruano Héctor Gallegos,
nació con los primeros esfuerzos civilizatorios del hombre.
Atravesar un tronco sobre el cauce de un río para así poder
cruzarlo, constituía una obra nacida de ese algo ingenieril
que todos llevan dentro. Sin embargo, los inicios formales
de la ingeniería, entendida como disciplina son muy
posteriores a esos comienzos primitivos.[1] La ingeniería
como profesión surgió apenas en el siglo XVIII cuando la
ciencia fue aplicada de manera consciente, sostenida y
recurrente a la solución de problemas técnicos.[2]
Pensar la ingeniería
A la par con ello, Gallegos también considera a la ingeniería
una actividad "(…) que se disputa con la política y con la
economía el privilegio de ser el arte social por excelencia".[2]
Insistiendo en el hecho de que la ingeniería es tan antigua
como la civilización misma plantea que si se acepta la tesis
de que sin ciencia no hay ingeniería, entonces se excluiría a
miembros tan antiguos y prominentes de la familia ingenieril
como los sumerios que crearon la irrigación, el arco de
mampostería y la rueda, los diseñadores de las pirámides,
los constructores romanos de caminos y a Newcome y Watt,
inventores de la máquina de vapor, por citar unos pocos
ejemplos relevantes. Ello sería un absurdo. "La ingeniería
por su naturaleza incluye toda la actividad tecnológica del
hombre". [2]
Otros autores definen la ingeniería como el arte (técnica)
de transformar materias primas y la fuente de energía de la
naturaleza para la producción de bienes y servicios, así como
el bienestar del hombre. Existen asimismo, quienes
consideran que la ingeniería es la aplicación creativa de los
principios científicos al diseño y desarrollo de estructuras,
máquinas, aparatos y procesos de fabricación y su manejo
con un buen conocimiento de sus usos y propiedades,
pudiendo predecir su funcionamiento en condiciones
específicas de trabajo.
Una definición bastante lograda de lo que es la ingeniería
la han aportado Vicente Ortega y Jorge Pérez: "Aplicación
creativa de los conocimientos científicos técnicos a la
invención, desarrollo y producción de bienes y servicios
transformando y organizando los recursos naturales para
resolver necesidades del hombre haciéndolo de forma óptima
tanto económica como socialmente". [3]
Cuando se piensa la ingeniería en un sentido estrecho se
le define como arte, técnica, artefacto, tomando en
consideración solo habilidades, destrezas, su mecanismo y
el propio objeto. En un sentido ya más amplio, se asume la
perspectiva de que la ingeniería es una profesión, lo cual
presupone tener en cuenta al ingeniero mismo, al hombre
con sus necesidades, intereses, la cultura existencial
heredada, sus valores y modos de actuación.
Como arte, la ingeniería ha existido siempre, pues se refiere
al manejo de instrumentos, normas y procedimientos, con
el objetivo de satisfacer las necesidades más elementales
del hombre con un mínimo de esfuerzo humano y estimular
de esta manera el surgimiento de nuevas posibilidades de
producir para cambiar. En tal sentido, la ingeniería se vincula
a la evolución de la técnica.
Según José Ortega y Gasset: la técnica es lo hecho para
evitar por completo y en parte los quehaceres que las
circunstancias primordialmente imponen. Existen
necesidades del hombre para sobrevivir: ante el frío -necesita
calentarse, ante el hambre -necesita alimentarse. Si la
naturaleza no le presta los medios directamente al hombre,
este hace algo: fuego, construye viviendas, cultiva campos
(estos actos técnicos elementales no pueden asociarse con
la ingeniería). La ingeniería entra cuando el hombre trata de
optimizar el rendimiento de una explotación agrícola
construyendo sistemas de regadíos, máquinas de
84
Revista Cubana de Ingeniería
recolección, elementos de almacenaje, conservación,
etcétera.[4]
Se habla con frecuencia de la ingeniería como aplicación
creativa de los conocimientos científico- técnicos. Esta faceta
de la ingeniería moderna se realiza a partir del siglo XIX
aunque en mayor medida en el siglo XX y la relaciona con la
ciencia experimental.
El ingeniero de hoy tiene que conocer los principios y
métodos científicos básicos generales comunes a cualquier
ingeniería, esto es, física, química, matemática, informática;
debe también conocer los principios y métodos científicos
particulares de su propia rama para trasladar ese
conocimiento a la producción y construcción de máquinas,
equipos, etc. , y utilizarlo como herramienta imprescindible
en el diseño y desarrollo de los bienes y servicios que se
derivan de su uso. Aquí se observan aspectos de la
convergencia ciencia - ingeniería (la ingeniería no pudo surgir
como profesión sin la acumulación de conocimientos
científicos). Es indudable pues, la necesidad que tienen los
ingenieros de saber ciencias y saberlas bien todas. [5]
Una de las tendencias en boga entre los ingenieros es la
que plantea que la ingeniería produce la tecnología. En esta
perspectiva se asume que la ingeniería es el proceso de
crear y la tecnología su resultado. La técnica aparece aquí
como un momento de la labor ingenieril.
Según Héctor Gallegos, la ingeniería tiene como fin utilizar
la naturaleza en beneficio del hombre. En su artículo "Ciencia
y Tecnología: las gemelas espejo", señala: "Así como la
ciencia surgió de la filosofía, la ingeniería surgió de la
artesanía y las técnicas. Así como una buena porción de los
científicos sostienen que su fin último es entender como
funciona la naturaleza; el ingeniero dirá que el suyo es utilizar
la naturaleza en beneficio de la humanidad. Así como es
fácil descubrir casos de dependencia de la tecnología en la
ciencia, también lo es encontrarlos a la inversa. Los orígenes
y los objetivos diferentes han producido dos mundos
independientes, distintos y al mismo tiempo,
complementarios: son las gemelas-espejo, la ciencia y la
tecnología. Ellas, en la medida en que realicen sus
respectivas tareas creativamente, continuarán colaborando
con -y acelerando- el proceso de desarrollo". [1]
Otra perspectiva es la de los especialistas en "Problemas
Sociales de la Ciencia y la Tecnología" que consideran que
la tecnología y la ingeniería en su devenir histórico tienden a
su integración. [6] Ven la tecnología vinculada al desarrollo
de la industria, la ingeniería de una forma más amplia.
INTERRELACIÓN CIENCIA-TÉCNICATECNOLOGÍA-INGENIERÍA
Cuando se examinan e interrelacionan dialécticamente las
múltiples definiciones de ciencia, técnica, tecnología e
ingeniería y las realidades que ellas reflejan, se constata
que es cada vez más difícil establecer fronteras bien
delimitadas entre estos ámbitos del quehacer humano. Lo
que se observa, en cambio, es un mayor número de aspectos
de coincidencia e identidad que de diferencia, lo cual se
José Ricardo Díaz Caballero - Sandra Isaac Borrero
intenta caracterizar en el concepto de tecnociencia. Al
referirse al mismo Javier Echeverría en su artículo "Ciencia,
tecnología y valores. Hacia un análisis axiológico de la
actividad tecnocientifica", apunta: "La ciencia y la tecnología
se imbrican mutuamente en la tecnociencia, de manera que
no hay avances científicos sin progresos tecnológicos y
viceversa. Esto lleva a cambios importantes en la práctica
de los científicos y tecnólogos".[7]
De un lado, se observa cómo la ciencia contemporánea
está orientada cada vez a fines más prácticos, encaminados
en lo fundamental al desarrollo tecnológico y con ello a la
innovación tecnológica; [8] del otro, la propia tecnología se
torna cada vez más dependiente de la actividad y el
conocimiento científicos. [8] Tal unidad se hace patente en
la medida que se la relaciona a formas más avanzadas de
tecnología. La frontera entre ciencia y tecnología se difumina
en los marcos de una actividad socialmente organizada,
planificada hacia la práctica.
"El término tecnociencia -escribe Núñez Jover- es
precisamente un recurso del lenguaje para denotar la íntima
conexión entre ciencia y tecnología y el desdibujamiento de
sus límites. El término tecnociencia no necesariamente
conduce a cancelar las identidades de la ciencia y la
tecnología, pero sí nos alerta que la investigación sobre ellas
y las políticas prácticas que respecto a las mismas
implementemos tienen que partir del tipo de conexión que el
vocablo tecnociencia desea subrayar".[8] "(...) la
intencionada separación entre contemplación teórica y
práctica, acompañada del privilegio de la primera, es
desplazada por una actitud esencialmente activa donde la
representación teórica es puesta al servicio de la actividad
manipulativa. Los términos tecnociencia y tecnocientífico
señalan, a la vez, el entrelazamiento entre los dos polos y la
preponderancia del polo técnico y, además, son apropiados
para designar la actividad científica contemporánea en su
complejidad y originalidad. En otros términos, no se trata
solo de insistir en las interrelaciones, sino incluso de colocar
el polo técnico o tecnológico como preponderante". [8]
Otro importante concepto, análogo al de tecnociencia,
mediante el cual se intenta captar teóricamente la estrecha
interrelación ciencia- técnica- tecnología- ingeniería, es el
de continumm científico-técnico (figura 1).
Ciencia
Técnica
C o nt inum m
C ient ífico -Técnico
T ecno lo gía
In gen iería
Fig. 1. Estructura del continum científico-técnico.
La idea del continuum científico-técnico también
presupone el reconocimiento de que ciencia, técnica,
tecnología e ingeniería no solo están convergiendo, sino que
continuamente sus funciones se intervinculan y las fronteras
entre unas y otras se van haciendo cada vez más borrosas.
Tal convergencia se fue construyendo paso a paso en el
proceso del devenir histórico de la humanidad. Ya a partir
del siglo XIX se observa cómo la ciencia comienza a estimular
muchas invenciones conduciendo al crecimiento de
tecnologías e industrias basadas en ella, como es el caso
de la electricidad y la química.
La estructura que caracteriza la interrelación entre la
ciencia y la tecnología es la ramificación de la ciencia en
teorías tecnológicas específicas o, desde el punto de vista
de la tecnología, la búsqueda de fines técnicos a través de
la construcción de teorías. Actualmente se produce lo que
Vessuri llama la cientificación de la tecnología y la
industrialización de la ciencia. [8] Por un lado existe una
cientificación de la producción, por otro, la ciencia misma
en cierto modo está deviniendo tecnología, o sea, la ciencia
de manera creciente está descansando sobre la base de la
técnica de la producción experimental de laboratorio, la
organización fabril. Es frecuente observar que el conocimiento
requiere soluciones técnicas a sus problemas y dé una
configuración material para la materialización de sus
d e sc u b r i m i e n t o s.
En el camino, las diferencias entre ciencia y tecnología se
diluyen cada vez más. La ciencia y la tecnología están hoy
más estrechamente ligadas de lo que normalmente se
percibe y, de hecho existen áreas en que, como señala
Vessuri, la división entre ciencia y tecnología ha desaparecido
casi por completo. Tal es el caso de la biotecnología de
punta y la moderna biociencia.
De hecho, se observan en la actualidad procesos muy
complejos asociados a la dinámica interrelación cienciatécnica-tecnología-ingeniería que reclaman de nuevas
políticas y estrategias:
• La transformación de los nuevos conocimientos en nuevos
medios materiales es ya tan rápida que el acceso al
conocimiento y la capacitación se convierten en un
componente esencial del desarrollo. El propio conocimiento
además se transforma en un producto, a medida que se
incrementa el comercio de bienes intangibles.
• La v elocidad de generación de conocimientos
tecnológicos se ha hecho más rápida que su velocidad de
difusión.
• En esta nueva situación, la asimilación de conocimientos
y tecnologías ha dejado de ser una solución realista al
desarrollo, a menos que incluya un importante componente
de investigación científica.
• Los plazos entre los descubrimientos y las aplicaciones
se acortan.
• El tiempo de obsolescencia de las tecnologías disminuye
constantemente.
• Las tecnologías demoran en ser sustituidas menos tiempo
que el que tardan en ser evaluadas.
Revista Cubana de Ingeniería
85
Pensar la ingeniería
El análisis y estudio de los conceptos ciencia, técnica,
tecnología e ingeniería en su interrelación dialéctica, lleva a
reconocer que la técnica es una suerte de empiria para la
tecnología y la ingeniería. La técnica en su devenir preparó
la génesis y posterior desarrollo de la tecnología y la
ingeniería. De igual modo, se puede afirmar que la ciencia
es el antecedente teórico de la tecnología y la ingeniería.
Entre todos estos ámbitos de la actividad humana se
expresa por tanto lo idéntico en la diferencia y viceversa.
Ellos son expresión de la activa relación del hombre con la
naturaleza. Asimismo, al destacar la continuidad en la relación
de los conceptos que los designan, pierde valor intentar
"casarse" con alguna definición específica al uso o pretender
analizar a la ciencia, la técnica, la tecnología o la ingeniería
como aspectos aislados. Es preciso asumir lo esencial en
dichos ámbitos en su contradictoriedad dialéctica.
Tal es el panorama lógico y dialéctico con que se choca
cuando se intenta el abordaje comparado de estos
conceptos. En este contexto, el principio dialéctico de la
unidad teoría-práctica pudiera, por analogía, arrojar luz en el
análisis de tan compleja cuestión. Para ello se requiere, ante
todo, profundizar en la esencia del método como eslabón
mediador entre la teoría y la práctica.
En el plano de la filosofía, el término método ha estado
asociado a la cuestión de descubrir la vía más racional para
conquistar la verdad, tiene que ver con los procederes que
se despliegan para encontrar la verdad en la práctica. La
dialéctica de la interrelación teoría - práctica permite afirmar
que el método existe como aquel aspecto de la teoría que
se proyecta sobre la práctica. Por opuestas que sean la
teoría (el conocimiento, el pensamiento) y la práctica (la
acción, el trabajo), en última instancia el propio pensar
constituye una actividad específica práctico-social. Cuando
se conoce se realiza una acción práctica, por peculiar que
sea. La función mediante la cual es posible el conocimiento
resulta ser, a la postre, una acción social, histórica. El
conocimiento, entonces, es praxis (acción). Justamente por
ello la actividad cognoscitiva es la manifestación más
acabada de la práctica social del hombre. Otro tanto es
posible decir, pero en dirección inversa, del método. En fin
de cuentas, el método forma parte de la teoría, especialmente
el referido al método científico. Pero, como tal, es aquella
parte de la teoría cuya función particular es intervenir en las
otras prácticas de los hombres. Por ello, la práctica del
conocimiento se denomina metódica, en tanto que la
metodología vendría a ser la teoría de esa práctica.
Es importante distinguir con claridad el método de la teoría,
dentro de su oposición cognitiva. Que el método, como
momento de la teoría, se proyecte como práctica científica
sobre las otras prácticas sociales, le confiere un rasgo
peculiar: forma parte de la teoría, participando en ella de una
actividad práctica específica y, al mismo tiempo, se proyecta
estrechamente sobre las otras prácticas: económica, política,
ideológica, etc. Desde luego, todo método se asienta en
determinados principios teóricos. Un método que no se apoye
en principios (aun cuando todavía no hayan sido descubiertos
teóricamente) acerca de los objetos que estudia no puede
86
Revista Cubana de Ingeniería
existir. En todo método hay, pues, una función teórica
secundaria, al mismo tiempo que hay una función metódica
(práctica) principal. Todo lo cual viene dado por la misma
relación dialéctica existente entre método y objeto de
conocimiento: todo objeto es aprehendido por un método y
todo método actúa sobre un objeto. No tiene sentido alguno,
un método sin objeto; o bien, un objeto de conocimiento sin
método.
Inversamente, es posible afirmar algo semejante en relación
con la teoría. La teoría no excluye al método. Mientras las
relaciones objetivas que reproduce la teoría estén
simplemente representadas a nivel cognoscitivo, dicha teoría
queda reducida a efectuar solamente la función teórica de
aprehender una determinada faceta de las prácticas sociales.
Pero, al mismo tiempo, toda teoría de una práctica
determinada sirve también para la actividad productiva,
revolucionaria, ideológica, etc., y para lograr nuevos
conocimientos científicos. Esta segunda función de
participación del conocimiento como práctica específica, en
las otras prácticas es, justamente, su función metódica
secundaria, que al lado de su función teórica principal,
estatuyen el nivel de existencia de la teoría. De este modo,
se comprenden las relaciones dialécticas existentes entre
la teoría y el método; cómo contrarios dialécticos. Toda
teoría es resultado de un método y todo método es productor
de una teoría. Esta concepción es la que permite rechazar
ideológicamente tanto el teoricismo (una supuesta teoría
acabada, que ha perdido su función metódica) como el
metodologismo (la supuesta existencia de un método sin
teoría).
Cuando una teoría reproduce una práctica como simple
aprehensión de ella, al mismo tiempo dicha teoría participa
en las otras prácticas, sirviendo para la acción del hombre
en el seno de ellas y para obtener nuevos conocimientos.
Esta es la doble función que cumple la teoría: teórica y
metódica. Lo mismo acontece con el método. En principio
su función principal consiste en su intervención en las otras
prácticas para la adquisición de nuevos conocimientos. Pero
el método, para cumplir con esa función, tiene que apoyarse
teóricamente en una serie de ideas, tanto de la representación
del objeto sobre el cual opera, como de los aspectos
fundamentales de esa práctica metódica. De ese modo
cumple su papel de guía en la adquisición de conocimientos
particulares dentro del dominio general de objetos donde se
ha objetivado su validez. Así, cuando un método interviene
en una región de objetos para conquistar nuevas verdades,
dicho método tiene que estar fundado a su vez en
conocimientos generales acerca de esas prácticas: tales
conocimientos son los que sirven de orientación para el
avance concreto de la investigación científica. Lo anterior no
significa relativismo alguno. Las teorías son teorías porque
en ellas predomina la función teórica sobre la metódica. Y
los métodos son métodos porque en ellos prevalece la función
metódica sobre la teórica [9].
En lo que se refiere a la interrelación ciencia-técnicatecnología-ingeniería, se puede afirmar que la tecnología y
la ingeniería constituyen una suerte de metódica de la ciencia,
José Ricardo Díaz Caballero - Sandra Isaac Borrero
siendo la tecnología el eslabón intermedio entre la ciencia y
la ingeniería por un lado y, entre la ciencia y la técnica por
otro. La tecnología es en cierto sentido, una metodología de
la técnica, rol que comparte con la ingeniería. A su vez, la
técnica debe ser asumida como la práctica objetal donde
nacen los procederes que sirven de base empírica a la
tecnología y la ingeniería como metodología. La técnica es
una especie de nivel empírico, práctico-objetal del saber hacer
implícito en la ciencia, la tecnología y la ingeniería. Por su
parte, la ciencia, la tecnología y la ingeniería constituyen el
nivel teórico del saber hacer para la técnica. La figura 2 intenta
ilustrar estas interrelaciones.
Todo conocimiento científico constituye, directa o
indirectamente, un reflejo de la realidad susceptible de ser
transformado de conocimiento en sí en modo de obrar
técnico para nosotros y para otros, esto es, en principio y
proceder técnico. En tal sentido se puede afirmar que la
ciencia, implícitamente, es un conocimiento y procedimiento
técnico que encuentra su primera exteriorización metódica
en el campo de la tecnología y luego, de manera mucho
más organizada, efectiva y socializada, en el dominio de la
ingeniería. De igual modo, la técnica como proceder requiere
de la fundamentación y explicación científica para ser
comprendida en su esencia y causas más profundas. En
otros términos, la técnica es una ciencia implícita que
encuentra su exteriorización en la tecnología como técnica
argumentada científicamente o metodología técnica y, de
manera más profunda, en la ingeniería como metodología
técnica-científica operativa y método técnico-científico.
En lo que se refiere a la interrelación tecnología-ingeniería
hay que asumir a la tecnología como ciencia tecnificada o
ciencia trabajada para su aplicación técnica y a la ingeniería
como el elemento mediador o núcleo integrador, en el sentido
técnico, de la ciencia, la tecnología y la técnica, o sea, el
núcleo integrador de lo que se denomina tecnociencia o
continum científico-técnico (figura 3).
Fig. 3. La ingeniería como núcleo integrador de la tecnociencia.
CONCLUSIONES
Estas correlaciones dialécticas plantean cuestiones
heurísticas esenciales en la reflexión, a saber:
1. Que la técnica es un primer estadio del quehacer
humano en el que lo característico es un saber hacer que,
como saber, tiene su origen en el fondo de conocimientos
técnicos acumulados; es el resultado de la puesta en práctica
de habilidades, actitudes y conocimientos acumulados a
nivel de la empiria técnica cotidiana. Sin embargo, si antes
ese acervo de conocimientos era de carácter acientífico, hoy
día no se puede afirmar categóricamente lo mismo. Con el
desarrollo, muchos conocimientos científicos han pasado a
formar parte de lo cotidiano como resultado inmediato de lo
que se conoce como la popularización de la ciencia. Por
otro lado, la propia formación técnica se realiza, cada vez
con mayor frecuencia, en escuelas especializadas con una
sólida base científica. A la luz de esta reflexiones, pudiera
afirmarse que la técnica se tecnologiza.
2. Que la tecnología es un segundo estadio de ese
quehacer en el que la técnica se sustenta científicamente o
lo que es igual, encuentra una explicación y organización
fundada en la ciencia. En el contexto específico de la
tecnociencia (continum científico-técnico), la tecnología se
ingenieriza, esto es, tiende a tener cada vez más en cuenta
el aspecto de la eficiencia económica, lo ecológico, etcétera.
3. Que la ingeniería, como ideal perspectivo de la actividad
técnica* es un tercer estadio del desarrollo del saber hacer
en el que se integran orgánicamente a la racionalidad técnica
lo sociohumanista, lo organizacional, lo económico, lo
científico, lo estético, lo ecológico y lo tecnológico.
*
Fig. 2. Niveles y tendencias de la tecnociencia.
Esta caracterización de la ingeniería tiene que ver más bien
con lo que se espera que llegue a ser la ingeniería algún día
no muy lejano y no con lo que la ingeniería es en la actualidad.
Por ello se alude a la ingeniería como ideal perspectivo, como
deber ser y no como ser actual.
Revista Cubana de Ingeniería
87
Pensar la ingeniería
4. Que existen dos tendencias esenciales en el desarrollo
del fenómeno técnico en la actualidad. En primer término, la
ingenierización de la técnica, la tecnología y la propia
ingeniería, en el sentido de que las mismas tienden a incluir
paulatinamente los aspectos antes referidos para la ingeniería
como ideal. En segundo, la cientificación de la técnica, la
tecnología y la ingeniería, es decir, la presencia cada vez
más acentuada de la ciencia en la actividad técnica a todos
los niveles. (figura 4).
5. Que la ciencia, en el contexto específico de la
tecnociencia se ingenieriza, esto es, se interesa no solo en
el saber, sino en el saber para hacer organizada y
económicamente eficiente con criterio sociohumanista,
estético y ecológico.
2. GALLEGOS, H. "Las fallas maestras de la ingeniería".
Revista de Información Profesional. El ingeniero Civil.
1995, nº 97, p. 5.
3. ORTEGA, V. Y PÉREZ, J. Fundamentos y función de la
ingeniería. Madrid: Departamento de Señales, Sistemas
y Radiocomunicaciones. ETSI. Telecomunicación. UPM.
1989. p.7.
4. ORTEGA Y GASSET, J. Meditación de la técnica.
Meditación de la técnica y otros ensayos sobre Ciencia y
Filosofía. Madrid: Editorial Occidente, 1982.
5. GALLEGOS, H. "El papel de los códigos de construcción
en la ingeniería civil". Revista de Información Profesional.
El ingeniero Civil. nº 89, p. 7.
6. VESSURI, H. Distancias y Convergencias en el desarrollo
de la ciencia y la tecnología.Material Fotocopiado.
Departamento de Estudios de la Ciencia. IVIC, p.162.
7. IBARRA, ANDONI; LÓPEZ CEREZO, JOSÉ A. (Comp.).
Desafíos y tensiones actuales en ciencia, tecnología y
sociedad. Madrid, España: Editado por Biblioteca Nueva,
SL 2001. p.137.
8. NÚÑEZ JOVER, J. La ciencia y la tecnología como
procesos sociales. Ciudad de La Habana: Editorial Félix
Varela, 1999, p.49-50.
9. CARDOSO, C. Introducción al trabajo de investigación
histórica. Crítica. Barcelona: Grupo Editorial Grijalbo,
1989.
AUTORES
Fig. 4. Tendencias del desarrollo científico-técnico actual.
REFERENCIAS
1. GALLEGOS, H. "Ciencia y tecnología: Las gemelasespejo". Revista de Información Profesional El Ingeniero
Civil. 1994, nº 89, p. 4.
José Ricardo Díaz Caballero
Licenciado en Filosofía, Doctor en Ciencias Filosóficas,
Profesor Titular, Dirección de Ciencias Sociales, Instituto
Superior Politécnico José Antonio Echeverría, Cujae, Ciudad
de La Habana, Cuba
Sandra Isaac Borrero
Licenciada en Filosofía, Doctora en Ciencias Filosóficas,
Profesora Titular, Facultad de Filosofía e Historia, Universidad
de La Habana, Cuba
Thinking the Engineering
Abstract
In this article engineering is analyzed in its interrelation with science, technique, and technology at
the light to logic and dialectic theory. Engineering is heuristically approached as the state of ¨knowto-do¨ development in which the technical reasoning, the social humanistic, organizational, economical,
scientific, esthetical, ecological and technological dimensions are organically integrated.
Key words:engineering, science, technique, technology
88
Revista Cubana de Ingeniería
Descargar