Biela 7.65 - Actiweb crear paginas web gratis

Anuncio
Biela
7.65
ISSN 2386-639X
04
9 772386 639006
AÑO 2
NÚMERO 4
ENERO 2015
REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONTRUCCIÓN
PARQUES EÓLICOS
Implantación y Distribución
Ascensores hidráulicos
en Rehabilitación
El autogiro de
Juan de la Cierva
2
Nº04. Enero de 2015
CONTENIDO
página 4
Energía GEOTÉRMICA en
edificación.
página 10
Evolución del cable
COAXIAL.
página 14
Torres COLÓN Madrid
página 20
Motores de COMBUSTIÓN
Interna.
página 24
El AUTOGIRO de Juan
de la Cierva.
página 26
ASCENSORES
HIDRÁULICOS en reformas de edificios
página 32
Sobrealimentación en
MOTORES
ALTERNATIVOS
Nº04. Enero de 2015
3
CONTENIDO
página 36
Tecnologías para el ahorro
de agua.
página 40
FRÍO artificial
página 46
Control de parámetros y
pruebas de carga e integridad
en PILOTES insitu
página 52
Implantación de
PARQUES EÓLICOS
página 58
Energía del Sol en la Tierra
ITER
página 58
Análisis de los RIESGOS BIOLOGICOS en
la edificación: animales
e insectos I
Biela 7.65 es el órgano de expresión del Centro de Formación IAE. [email protected]
Edita el Centro de Formación IAE.
Dirección: L.T. de Garnez. Consejo de Redacción: Borja Gavila, Daniel Merchán, David Rubio, Fernando Gómez, Luis Muñoz, Marcos Vizoso, Oscar Escudero, Rafael Castro, Fernando Martel,
Rubén Fdez de la Riva, Fernando Abad, Carlos Sotodosos, Jesús Rosado
Secretaría del Consejo de Redacción: Félix-Álvaro Pajares Ruiz. C/ Fernández de los Ríos 93,
Soportal, Madrid.
Imprime: Centro de Impresión DaBe
Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción.
4
Nº04. Enero de 2015
LA ENERGÍA GEOTÉRMICA
EN LA EDIFICIACIÓN
RUBÉN DE LA RIVA FERNÁNDEZ:. ARQUITECTO TÉCNICO
INTRODUCCIÓN
Este articulo al igual que el
anterior forma parte del que fue mi
proyecto fin de grado, el cual estaba
basado en la instalación de una
bomba geotérmica utilizada para la
climatización de un edificio.
En este articulo explicaran
de forma específica los diferentes
sistemas de los cuales disponemos
en la actualidad para las instalaciones geotérmicas
El objetivo es dar a conocer
un sistema que para muchos es actualmente desconocido en nuestro
país y el cual tiene una gran proyección de futuro
¿QUÉ ES LA ENERGÍA SOLAR?
La energía geotérmica es
ese tipo de energía la cual vamos a
poder obtener mediante el aprovechamiento de las diferentes temperaturas existentes en el interior de la
Tierra y la superficie de esta, es de-
cir, la que se va a obtener del calor
interno de la Tierra.
A diferencia de la mayoría
de las energías renovables, las cuales
tienen su origen en el Sol, y por tanto dependen del clima, la geotérmica es una energía fiable en cuanto a
seguridad de suministro, por lo que
podemos considerarla la mas constante y continua de todas las energías renovables.
El calor interno de la tierra
puede manifestarse en el exterior en
forma de géiseres o fuentes termales, que ya fueron aprovechadas por
los romanos para la construcción de
termas. Pero por lo general este calor interno de la Tierra se encuentra
muy profundo para disponer de él
de forma rentable, por lo que se
deberán buscar áreas donde los procesos geológicos han incrementado
la temperatura lo suficientemente
cerca de la superficie, que el calor
contenido pueda ser utilizado de
manera eficiente.
Para la extracción de este
tipo de energía, generalmente utilizaremos agua, que mediante un circuito se introducirá en el subsuelo y
transportará el calor hasta el exterior, también se utilizará un intercambiador de calor tierra-aire enterrados a poca profundidad en el
subsuelo. Una vez extraído el calor
del interior de la Tierra, éste se
aprovechará o bien para general
electricidad, si el calor es suficientemente elevado, o para aprovechar el
calor de forma térmica mediante
intercambiadores de calor o bombas
de calor.
Actualmente existen más de un millón de instalaciones geotérmicas en todo el mundo,
cuyas localizaciones dependen en
gran medida del gradiente geotérmico de la zona, esto no es más que la
distancia a la que necesitamos profundizar en la tierra, para aumentar
la temperatura un grado, cuanto
mayor gradiente térmico por metro
tengamos (ºC/m) mayor aumento
de temperatura por metro profundizado tendremos. Con esto podemos
concretar que este tipo de energía al
contrario que la energía fósil, no es
una energía que esté localizada en
unas zonas concretas de la Tierra, si
no que se puede disponer de ella en
cualquier lugar. Lo único que abría
que hacer sería profundizar más o
menos y por tanto sería una energía
más o menos difícil de extraer, pero
al fin y al cabo, posible de extraer
en cualquier parte.
Se podría considerar como una energía prácticamente
inagotable, ya que aunque se sabe
que la Tierra se está enfriando, la
velocidad de enfriamiento es muy
lenta y por tanto este tipo de energía puede ser aprovechada durante
miles y miles de años.
Nº04. Enero de 2015
PONER AQUÍ IMAGEN
Imagen 1 - Instalación geotérmica en vivienda
unifamiliar “www.energíaeficaz.es”
Además de ser una fuente
inagotable el periodo o vida útil de
este tipo de explotaciones suele
rondar entre los 20 y los 40 años,
todo depende del sistema utilizado,
pero con un buen sistema éste enfriamiento se puede llegar a compensar en esos meses en los que no
es necesaria la extracción de calor
para generar energía térmica.
5
Relacionando este
tipo de instalaciones con la
edificación, cabe destacar el
elevado coste inicial para instalación de una bomba geotérmica, incluyendo sondeos
y estudios del terreno, todo
esto supone un coste mucho
más elevado, prácticamente el
doble, de una instalación de
climatización o refrigeración
habitual. Pero los costes de explotación suelen ser muy reducidos, debido al reducido coste de mantenimiento que necesita y al alto rendimiento del sistema llegando hasta
un rendimiento del 200% al 400%,
muy superior al rendimiento máximo que puede generar un equipo
eléctrico estándar que es del 100%,
por lo que nos encontramos ante un
tipo de energía muy eficiente.
Otra ventaja de este tipo de
instalaciones en viviendas, es que es
un tipo de energía que se explota y
se consume en el mismo sitio sin
Imagen 2 - Temperaturas internas de la Tierra a diferentes temperaturas “www.burderus.es”
necesidad de transportarla y por
tanto sin que se produzcan pérdidas
por el camino. A todo esto también
hay que sumarle el reducido impacto visual que suponen este tipo de
instalaciones mucho más compactas
y más fáciles de integrar en el entorno.
TIPOS DE ENERGÍA
GEOTÉRMICA
La clasificación de la energía geotérmica se realizara en función del tipo de yacimiento que dispongamos, esto dependerá del punto o zona geográfica donde encontremos unas condiciones adecuadas
para la explotación eficiente de los
recursos geotérmicos del subsuelo.
Las condiciones, serán diferentes
dependiendo del tipo de explotación que queramos realizar y dependerán principalmente del nivel de
temperatura y del tipo de utilización
6
Nº04. Enero de 2015
Para extraer dicho calor, se
inyecta agua por una perforación y
se recupera caliente por otra aprovechando el calor por medio de un
intercambiador, y se vuelve a reinyectar dicho agua al terreno.
Imagen 3 - Areas en el mundo con mayor potencial
geotérmico “www.centralenergia.com”
Los yacimientos óptimos
para ser explotados serán aquellos
que dispongan de una gran acumulación de agua caliente a poca o media profundidad y así poder aprovechar dicho calor de manera eficiente. El agua caliente o el vapor pueden fluir naturalmente por bombeo
o por impulsos de flujos de agua y
de vapor. El método a elegir dependerá de cada caso, escogiendo la
opción viable más económica.
Para poder realizar la explotación de un yacimiento de forma
eficiente éste no tendrá que estar a
una profundidad mayor a los 5.000
metros y no tener una temperatura
superior a los 400 ºC. Así pues, se
establecen cuatro tipos de energía
geotérmica.
Las zonas geográficas que
reúnen las condiciones necesarias
para poder explotar un yacimiento
de este tipo están muy extendidas.
A partir de 10m. de profundidad el
suelo ya es capaz de almacenar el
calor que recibe del Sol durante las
estaciones más cálidas, pudiendo
permanecer la temperatura constante durante todo el año. A partir de
15 m. donde la temperatura igualmente permanece constante pero ya
es totalmente independiente del
clima superficial y sólo depende las
condiciones geotérmicas. Por debajo de los 20 m. de profundidad, la
temperatura aumenta a razón de
unos 3 ºC cada 100 m. como consecuencia del gradiente geotérmico.
En la mayor parte de la corteza terrestre podemos encontrar una tem-
peratura entorno a 25 - 30 ºC a 500
m. de profundidad.
2. BAJA TEMPERATURA
En este caso nos encontramos en una temperatura entre 30 y
90 ºC. Para esto necesitamos unas
zonas en que el gradiente geotérmico sea algo superior, lo cual generalmente se produce a profundidades
entorno a 1.500 y 2.500 m. Para
llegar a tales profundidades la mayoría de las veces se hará mediante
sondeos.
3. MEDIA TEMPERATURA
Son yacimientos con temperaturas comprendidas entre los 90
y 150 ºC que se encuentran localizados sobre todo en cuencas sedimentarias y a profundidades entorno los
2.000 y los 4.000 m. También se
pueden encontrar en zonas de adelgazamiento litosférico. Al igual que
los yacimientos de alta temperatura,
necesitan de la presencia de magma
como fuente de calor.
1. MUY BAJA TEMPERATURA
La temperatura que
se obtendrá estará entorno a los 1030 ºC y su uso principal y casi exclusivo es doméstico (bomba de
calor geotérmica). En este caso nos
encontramos que hay una zona bajo
la Tierra a profundidad no excesiva,
donde encontramos materiales o
piedras calientes debido a que aprovechan el calor solar acumulado, lo
que se conoce como cantidad de
entalpía.
Imagen 4 - Zonas geotérmicas en España “www.mapfre.com”
Nº04. Enero de 2015
4. ALTA TEMPERATURA
Nos encontramos en el caso de obtención de mayor temperatura: superior a 150 ºC, cuyas zonas
tienen que tener un gradiente térmico muy elevado entorno a 30ºC por
cada 100 m. Estas zonas requieren
de la existencia de magma, de ahí
que su localización esté próxima a
regiones volcánicas situadas en los
bordes de las placas litosféricas.
También es necesaria la presencia
de materiales impermeables que
actúen como almacenes para el que
el agua estancada a gran profundidad se mantenga caliente. Se suelen
explotar a profundidades comprendidas entre 1.500 y 3.000 m. Lo que
diferencia a los sondeos en este tipo
de yacimientos del resto es la hostilidad del medio donde se va a perforar. Este tipo de yacimientos por
tanto son los mejores para la generación de electricidad mediante el
movimiento de una turbina, producido por el vapor generado.
Dentro de este mismo punto, podemos sacar como conclusión
que para la generación eficiente de
electricidad tienen que reunirse cuatro condiciones: que no haya que
profundizar en exceso, que en el
7
Es por ello que los yacimiento de
baja temperatura son los que mejor
se adaptan a las necesidades de climatización de viviendas unifamiliares y de edificios residenciales. Esto
viene limitado por 2 razones:
PONER AQUÍ IMAGEN
- No contiene vapor de agua por lo
que no se pude generar electricidad
y únicamente puede usarse para
proporcionar calor a usuarios muy
localizados.
- Al extraer el agua de acuíferos
poco profundos, éstos están llenos
de sales por lo que para reservar el
medio ambiente es necesaria la reinyección de agua otra vez al acuífero.
En este tipo de yacimientos
es asunto primordial estudiar cuál es
la forma más eficiente de explotarlo
sin llegar agotarlo, pudiendo satisfacer la demanda energética que necesita el inmueble ya que en principio
la profundidad de obtención no es
un problema al estar entorno a 400
- 500 m.
En el caso de las bombas de
calor geotérmicas, lo que se consigue mediante el captador enterrado
es que en invierno dispondremos de
una temperatura de partida mayor
que la que habrá en el aire exterior
Imagen 5 - Temperaturas en el subsuelo según
profundidad y época del año “www.terraterm.es”
Existen generadores termodinámicos con un coeficiente de
rendimiento de hasta un 4,6 esto
quiere decir que esta máquina de
cada KW que consume de electricidad nos va a entregar 4,6 KW de
calor. Las instalaciones más habituales que nos encontramos son 3.
1.CAPTADOR HORIZONTAL
Éste es el sistema más utilizado en viviendas unifamiliares o
residenciales debido a la sencillez en
“La energía geotérmica no depende de las condiciones climáticas, por lo que se puede
disponer de ella en cualquier lugar del mundo”
yacimiento haya mucho calor, que
tenga roca permeables y agua caliente.
SISTEMAS DE CAPTACIÓN DE
ENERGÍA GEOTÉRMICA
Actualmente la mayor demanda energética que se produce en
un inmueble se centra en la calefacción y el agua caliente sanitaria.
de manera que para alcanzar los 21
ºC deseados tendremos que realizar
un gasto de energía mucho menor.
Lo mismo pasará en verano pero de
forma inversa. El intercambio de
calor con el subsuelo, permite proporcionar el mismo confort pero
con unas necesidades de energía
eléctrica mucho menores que el de
una bomba de calor convencional.
su instalación. Sólo se necesitará
una profundidad de 0,8 m y una
separación entre tubos de unos 0,6
m. por lo que dependerán en gran
medida del clima exterior. Se enterrarán uno o varios circuitos de
tubos de polietileno de unos 40
mm. de diámetro, conectados a una
bomba de calor geotérmica, es como un suelo radiante de grandes
dimensiones instalado en el terreno.
8
Nº04. Enero de 2015
res verticales están formados por
dos tubos en U que bajan hasta una
profundidad de unos 100 m, podemos diferenciar a su vez tres sistemas distintos
2.1 Verticales cerrados
Imagen 6 - Sistemas geotérmicos de captación más habituales “www.idae.es”
Éstos pueden llegar a satisfacer la demanda de calefacción de
una vivienda de 150 m2, por lo que
se necesitará disponer de una extensión de 1,5 a 3 veces la superficie a
climatizar, para la colocación de la
instalación. Se recomienda este tipo
de instalación cuando la potencia
demandada quede por debajo de los
30 KW.
Para solventar los problemas de espacio que, en ocasiones,
se plantean con este tipo de colectores, se han desarrollado unos intercambiadores de calor especialmente adecuados para sistemas que
trabajan con bombas de calor para
usos en calefacción y refrigeración.
Un tipo de estos intercambiadores,
los de tipo "slinky", se basa en la
colocación de bobinas de polieti-
leno en el terreno, extendiendo las
sucesivas espiras e intercalando tierra seleccionada o arena. Dichas
espiras pueden disponerse horizontalmente, en una zanja ancha, o verticalmente, en una zanja estrecha.
2. CAPTADORES VERTICALES
El principio de recuperación de calor es similar al de los
captadores horizontales; hacer circular por los tubos enterrados un
fluido que absorba el calor del suelo
y lo conduzca hasta la bomba de
calor.
En el caso de un captador
vertical, este calor procede en parte
del calor del subsuelo y en parte del
calor solar almacenado en la capa
superficial. En general, los captado-
Este sistema es el más recomendable cuando se quiere realizar
una instalación geotérmica, pero a
su vez también es la opción más
cara, debemos tener en cuenta que
entre los 10 o 20 metros de profundidad la temperatura es constante
durante todo el año, rondando entre los 7 y 14 ºC y por cada 100 metros de profundidad la temperatura
aumenta 3 ºC,.
Para su instalación se realizarán uno o varios sondeos, con
profundidades de 20 - 100 m y diámetros de perforación de 10 - 15
cm. En cada perforación se introducen una o dos sondas en forma de
U por donde circula el líquido que
portará el calor. Este tipo de instalación es óptimo cuando no disponemos de una superficie suficiente
para instalar colectores o cuando la
demanda energética es mayor.
2.2 Verticales abiertos
Estas sondas "abiertas" se
utilizarán donde se tenga conocimiento de que existe una corriente
subterránea de agua, ya que será
esta la que se utilizará para el intercambio de energía.
REFERENCIAS Y BIBLIOGRAFÍA:

Instituto para la diversificación y ahorro de la energía (IDEA) “www.idae.es”

Ministerio de industria, energía y turismo “www.minetur.gob.es”

Aprovechamiento de la energía geotérmica en las instalaciones de climatización “García López, Ana María”

Energía geotérmica de baja temperatura “Creus Solé, Antonio”
Nº04. Enero de 2015
9
Estos sistemas necesitan como mínimo la excavación de dos sondeos,
uno de producción con una bomba
sumergida para extraer el agua y
otro de retorno, así pues, se aprovechara ésta agua como líquido portador hasta la máquina, así una vez
aprovechada su temperatura se devuelve al acuífero.
El rendimiento de los sondeos de extracción debe ser necesario para garantizar a largo plazo el
flujo nominal necesario para el funcionamiento de las bombas de calor
asociadas al sistema; esto supone
del orden de 0,25 m3/h por cada
KW de potencia térmica. Dicho
rendimiento dependerá de las condiciones geológicas locales. En el
caso de que el conocimiento previo
de estas últimas fuese insuficiente,
sería necesario perforar un primer
sondeo con el fin de realizar los
oportunos ensayos de bombeo o
incluso, la aplicación de técnicas
geofísicas;.
Imagen 7 - Usos de la energía geotérmica según su temperatura “www.desarrolloyenergía.com”
de la cimentación, una red de tubos
de polietileno, propileno o PVC en
forma de conductos en U, por los
que se hace circular agua con un
anticongelante, que se conectan en
circuito cerrado a una bomba de
calor o a una máquina de refrigera-
los sistemas de climatización tradicionales como el gas o el gas oil.
2. DESVENTAJAS
- Necesidad de disponer de una superficie de terreno adecuada para su
instalación.
“Las bombas geotérmicas pueden desarrollar un rendimiento de hasta un 400%”
2.3 Cimientos geotérmicos
Se aprovechan las estructuras de cimentación profunda de los
edificios para captar y disipar la
energía térmica del terreno. El caso
más habitual es el ejecutado con
pilotes, donde estas piezas de hormigón armado actúan como sondas
geotérmicas, lo que convierte a la
estructura en un campo de sondas.
Los pilotes utilizados pueden ser
prefabricados o montados in situ,
con diámetros que varían entre 40
cm y más de 1 m. También puede
aplicarse en zapatas, losas...etc.
Este sistema se basa en insertar en la totalidad o en una parte
ción. Una vez colocada la armadura
de la cimentación en la excavación,
ésta se rellena con hormigón de forma maciza.
VENTAJAS Y DESVENTAJAS
ENERGÍA GEOTÉRMICA
1. VENTAJAS
- Puede proporcionar energía tanto
en verano como en invierno, las
24h al día, 365 días al año.
- Sistema muy eficiente, al disponer
de bombas con un rendimiento
muy elevado
- Ahorro energético y económico
de entre un 60 y un 80% respecto a
- No se puede transportar como
energía primaria.
- Elevado coste de inicial, suponiendo un periodo de amortización entorno a los 12 o 17 años. El sistema
será más idóneo cuanto más grande
sea el edificio y mayor sea el tiempo
de utilización de la instalación.
CONCLUSIÓN
La energía geotérmica es
una de las más eficientes, pero también de las mas caras, es por ello
que con el avance del tiempo y las
tecnologías, el coste de su ejecución
se reduzca, llegando a ser la energía
más rentable y utilizada de todas.
10
Nº04. Enero de 2015
LA EVOLUCIÓN DE LAS REDES DE CABLE
RAFAEL CASTRO REYES. ARQUITECTO TÉCNICO.
venta de televisores gracias a la calidad de la señal recibida, apostó por
este sistema y fue un éxito, naciendo así la primera red de cable. Estas
antenas, denominadas CATV
(Community Antenna Tv), se expandieron rápidamente por toda
América.
Nº 1. John Walson. Inventor de las redes de
cable. Ref: Google
Corría el año 1948, cuando John
Walson creo la primera red de cable
en la ciudad de Astoria, Oregón,
para solventar el problema existente
en aquella ciudad, debido a que según la oreografía del terreno, la señal que llegaban a las antenas locales era insuficiente, por lo que el
técnico, situó una antena encima de
una colina y llevó la señal hacia su
tienda mediante un cable. Dado el
éxito del experimento y la creciente
Pero pronto gracias a la visión capitalista y empresarial americana, se
optó por un uso más rentable de
este descubrimiento. En Landsford
(Pennsylvania) varios propietarios
de tiendas de electrodomésticos
pusieron en marcha la iniciativa
mencionada, pero introdujeron una
substancial diferencia: En este caso
se constituyeron como una empresa
privada que redistribuían la señal
mediante el cable a cambio de una
cuota mensual. En 1950, este sistema ya tenía 14.000 abonados y una
década más tarde la cifra superaba
los 850.000 abonados. Poco a poco
se fue mejorando este sistema y
completándolo cada vez más im-
portando señales de televisión de
otros países y ofreciéndosela en
abierto a todos los abonados de la
red. Debido al daño que causaron
estas redes de cable a las distintas
televisiones locales se crearon restricciones legislativas que frenaron
el desarrollo del cable. Fue en 1972
cuando estas restricciones cesaron,
creando un gran mercado del cable
que a finales de los años setenta
disfrutaban más de quince millones
de americanos. En la década de los
noventa, fue la época de máxima
expansión de este mercado en Estados Unidos alcanzando una penetración del 97% en los hogares americano.
Sin embargo, en España las redes
de CATV no gozaron de tanto éxito
en su implantación. En España todo empieza con la iniciativa propia
de pequeños empresarios llamados
cableoperadores que exitían en los
pueblos y que con sus respectivas
licencias municipales desplegaron
Nº04. Enero de 2015
11
nica no podría desplegar una red de
cable en el mismo municipio.
PONER AQUÍ IMAGEN
Nº 2. Cable coaxial tipo RG6 con clavija tipo F .
Ref: Google
Sus redes, sin embargo, al ser por
iniciativa propia para cubrir una
necesidad que sólo existía en los
pequeños municipios, estos fueron
los que desarrollaron sus redes de
cable coaxial, dejando al margen a
las grandes ciudades.
Fue en el año 1995 cuando apareció
la Ley que regulaba este mercado en
España, dando lugar posteriormente a las licencias del cable otorgadas
por el Ministerio de Fomento mediante concurso público. Con esta
licencia, los cableoperadores podían
dar todos los servicios de telecomunicaciones. Sin embargo la ley establecía que durante dos años, Telefó-
Pasado esos dos años Telefónica en
vez de apostar por desplegar las
redes de cable coaxial, apostó por
una tecnología emergente, el xDSL.,
abandonando el compromiso que
tenía con la administración debido a
la millonária inversión que suponía
el despliegue de nuevo de estas redes. Telefónica argumentó que el
coaxial ya era una tecnología obsoleta y que mediante la tecnología
xDSL se podría dar servicios de
internet mediante las redes de pares
de cobre que ya tenía desplegada
por todo el territorio nacional..
El cable coaxial, es una de las mejores tecnologías que mejor se adaptan para el acceso a internet, debido
a sus altísimas prestaciones como
medio de transporte digital, por su
idoneidad en el diseño de red pensada para el transporte masivo de
datos y por su capacidad de integrar
telefonía, televisión e internet..
La arquitectura de las primeras redes de cable eran de tipo árbol, con
Nº 3 Dos operarios trabajando sobre una red de cable.
Ref: Google
lo que la distintas redes conectaban
la cabecera con los abonados finales
por multitud de ramificaciones conectadas mediante splitter y numerósos amplificadores intermedios
con las complicaciones que estas
arquitecturas llevaban, como la existencia de ruido y la mala repartición
de la señal dentro de la propia red,
de manera que los abonados que
estaban más cerca de la cabecera
recibían mejor señal, mientras los
que estaban en las últimas ramificaciones de la red recibían la mínima.
Esta tipología de red dio un cambio
con la aparición de la redes HFC
(Hybrid Fiber Coaxial). Mediante
este tipo de red se desplegaron una
serie de anillos mediante el cuál la
señal se repartía por fibra óptica
hasta unos nodos ópticos, donde la
señal pasaba de ser óptica a eléctrica. Gracias a este sistema se eliminaron muchísimos problemas ocasionados por las redes de coaxial
solas, como, la eliminación de tensión debido a la supresión de amplificadores y la minimización del problema del ruido en este tipo de
12
Nº04. Enero de 2015
municaciones digitales, pasando
por sensores y llegando a usos decorativos. La fibra óptica se emplea como medio de transmisión
para las redes de telecomunicaciones, ya que por su flexibilidad los
conductores ópticos pueden agruparse formando cables. Las fibras
usadas en este campo son de plástico o de vidrio, y algunas veces de
los dos tipos. Para usos interurbanos son de vidrio, por la baja atenuación que tienen.
Nº 4. Arquitectura red HFC.
Ref: Google
redes. Las redes de cable coaxial
tienen una alta capacidad de transporte de datos pudiendo alcanzar
Los beneficios de este renacimiento
tecnológico son inmensos. Los Proveedores de Redes de Servicios pueden ofrecer nuevos servicios avan-
Las grandes compañías operadoras
han apostado por esta última tecnología que ha revolucionado el mercado, ya que puede dar un ancho de
banda muy superior al que se puede
dar mediante cable, llegando ya hasta velocidades de 1 y 2 gigabytes
por segundo.
Telefónica, la principal operadora
en España, hace tiempo que decidió
dejar de exprimir sus viejos pares de
cobre y apostar por esta nueva y
prometedora tecnología. Allá por
2005 comenzó a realizar sus primeras pruebas de FTTH en la localidad madrileña de Pozuelo de Alar-
“la tecnología del cable se ha quedado obsoleta”-
experimentalmente hasta los 200
megas.
Por otro lado el xDSL consiste en
una tecnología que transforma las
líneas telefónicas o el par de cobre
del abonado en líneas de alta velocidad permanentemente establecidas.
La principal ventaja del ADSL es el
aprovechamiento de las líneas ya
desplegadas como hemos visto antes. Con respecto al cable, el ancho
de banda que puede utilizar es inferior, dándole ventaja a las redes de
cable.
Pero pronto apareció un nuevo rival, la fibra óptica. El origen de la
fibra óptica es muy reciente en la
historia. En 1966 unos científicos
propusieron una guía óptica para la
comunicación. Ya que era para el
uso de las comunicaciones a través
de láser En 1977 se instaló un sistema de prueba en Inglaterra. Desde
este punto se han hecho pruebas y
experimentos para mejorarla. Sus
usos son muy variados: desde co-
zados de inmediato, incrementando
las ganancias y complementando la
satisfacción de los usuarios. Los
costos de inversión son relativamente bajos, especialmente comparados con los costos de recableado
de la planta instalada de cobre o la
inversión necesaria para la instalación de nueva fibra. Adicionalmente
a esto, la facilidad en la instalación
de los equipos ya sean estos xDSL,
PON, CWDM o WLL permite la
reducción de costos por tiempo de
instalación para la puesta en marcha
de los nuevos servicios.
Nº 5 Conexiones en cabecera red FTTH Ref: Google
cón y en el barrio la Latina de la
capital, ofreciendo ya entonces
una conexión de 50 Mbps de bajada. Posteriormente, ya en 2008, fue
Orange el otro gran operador que
comenzó con sus primeras pruebas
piloto en Madrid y Barcelona pero
antes de eso comenzó a funcionar
la red Asturcon, una red de financiación pública que alcanzó poblaciones asturianas que de depender
de la inversión privada seguirían
abandonadas a su suerte, y que explotan en la actualidad Orange, Te-
Nº04. Enero de 2015
13
Nº 6 Evolución de la banda ancha en España. Ref. www.adslzone.com
Ref: el origen, la web, el libro, etc.
mo 2008 fue cuando Telefónica
comenzó a comercializar abiertamente conexiones de fibra óptica,
que los operadores alternativos pueden revender mediante una oferta
mayorista pero limitado a una velocidad de bajada de 30 Mbps que
hace poca atractiva esta oferta al
ofrecer Movistar ya hoy en día conexiones con 100 Mbps que dejarían muy atrás la posible reventa de
su competencia.
Para poder hacer frente a Telefónica, las otras grandes operadoras del
mercado se han fusionado, creando
grandes competidores como son
Vodafone y Ono, y Orange y Jazztel. Estas a su vez han están desplegando redes de fibra a nivel nacional, de manera que en un futuro
próximo en todas las grandes ciudades españolas dispondremos de
hasta tres redes de fibra óptica.
Ante esta situación, las redes de
cable de los pequeños operadores
tienen que migrar rápidamente debibo a que la tecnología del cable se
ha quedado obsoleta. Estas pequeñas redes cuentan con la principal
ventaja con la que contaron también en su inicio, que al situarse en
poblaciones por normal general
pequeñas, para las grandes operadoras son ceros a la izquierda, en las
cuales no llegarán a desplegar fibra
óptica hasta pasado unos años, pero
al final llegarán. En España existen
más de 300 pequeñas redes de cable, situándose la mayoría en Múrcia, Andalucía y Castilla-La Mancha,
de entre las cuales gran parte ha
comenzado ya con el despliegue de
las redes de fibra para aguantar el
enviste con el que vienen desplegando los tres grandes. En este
mercado tan competitivo como es
el de las telecomunicaciones aquel
cableoperador que no migre a fibra
para así mantener a sus abonados
antes de que un grande llegue a su
municipio le costará sangre y sudor
competir con gigantes que ofrezcan
conexiones de gigabytes, por lo que
las redes de coaxial se pueden decir
que ya son tecnología del pasado.
REFERENCIAS Y
BIBLIOGRAFÍA:

www.adslzone.com

www.acutel.com.
14
Nº04. Enero de 2015
TORRES COLÓN
OSCAR ESCUDERO CUBILLO. ARQUITECTO TÉCNICO E INGENIERO DE EDIFICACIÓN.
Se trata de dos rascacielos idénticos que se ubican en la
Plaza Colón de Madrid. Consta de 116 metros de altura
y 23 plantas. Se sitúa junto a un nudo de circulación
importante de Madrid.
El Ayuntamiento exigía: “la edificación debe ser una
unidad arquitectónica de marcada verticalidad”. El
Ayuntamiento aceptó el concepto unitario de “la pareja”.
Situado en el centro geográfico de la ciudad. Su superficie
es de 1.710,00 m2.
Solar pequeño de forma irregular, con fachadas a dos calles y dos linderos.
De acuerdo con la licencia de
construcción concedida por
el ayuntamiento se debería
respetar la siguiente composición:

Plantas de sótano

Planta baja de doble
altura con un retranqueo de 4,50 m de la
línea de solar en el Paseo de la Castellana
para dejar esta zona
libre porticada.

Planta primera, con
voladizos
sobre los
límites del solar en las
dos fachadas.
PONER AQUÍ IMAGEN
El programa fijado inicialmente por la propiedad consistía en dos torres; una con
una vivienda por planta y la
otra con dos viviendas por
planta.
Planta libre, ajardinada a la
cota +9,45 m.
Planta de oficinas (primera
planta).
Plantas bajas comerciales
Nº 1. Torres Colón
Ref: www.skyscrapercity.com
Primer sótano comercial
Sótanos de instalaciones y garaje.
El conjunto sería destinado a
la venta.
PONER AQUÍ IMAGEN
Solución de plantas tipo con la
posibilidad de combinar 1 vivienda por planta, 2 viviendas
y 3, 4 y 5 apartamentos por
planta. El resto del programa se mantenía. Este cambio
fue planteado durante la construcción.
Nº 2. Sección—alzado
Ref: Publicación proyecto y dirección de obra

Planta libre, a la cota
aproximada +9,45 m. En esta planta solo serían
permisibles elementos estructurales, de instalaciones o de comunicaciones verticales.

Dos torres de 20 plantas tipos cada una
El primer cambio del programa tenía como objeto conseguir una mayor flexibilidad
comercial, de tal modo que la
propiedad quiso ajustar el programa a lo siguiente:
Nº04. Enero de 2015
Tras éste llegó el segundo cambio
en el que la propiedad decidió adaptar el conjunto a una explotación en
régimen de apartamentos/hotel con
el siguiente programa:
Dos torres con 4 y 5 apartamentos
por planta en cada torre.
El programa de los apartamentos
ajustado a su nuevo destino.
Planta ajardinada como zona de
expansión del hotel.
Planta primera con oficinas de administración, salones de reuniones,
banquetes, etc.
Plantas bajas y sótanos: recepción,
salones, anexos comerciales y servicios.
Sótanos de instalaciones y otros de
aparcamiento.
Finalmente con el tercer cambio
llegó el programa definitivo, tuvo
lugar cuando los dos núcleos y las
vigas de cabeza estaban ya construidos, y la situación de los péndulos
determinada.
La propiedad decidió destinar el
conjunto a uso de oficinas. El pro-
15
grama definitivo quedó en:
Dos torres de 20 plantas cada una,
para albergar una o dos oficinas por
planta.
Planta libre de desahogo a la cota
+9,45 m.
Primera planta, entreplanta y planta
baja con diversa opción de uso,
bien para oficina o para comercio.
Planta de primer sótano. PortalRecepción del conjunto y locales
comerciales.
Segundo sótano, instalaciones del
conjunto.
Cuatro sótanos más destinados a
estacionamientos de coches.
El programa requería una solución
con:
La máxima flexibilidad en el interior
de las torres.
La máxima independencia estructural entre las torres, las plantas bajas
y sótanos para conseguir el mayor
aprovechamiento en cada una de
estas zonas, las cuales presentaban
unas necesidades especiales diferentes y consecuentes con sus respectivos usos.
PONER AQUÍ IMAGEN
Nº 3. Planta tipo estacionamiento: solución tradicional
Ref: Publicación proyecto y dirección de obra.
Nº 4. Núcleos centrales de refuerzo.
Ref: www.secretosdemadrid.es
Fueron varias las soluciones estructurales analizadas entre las cuales se
eligió la adoptada, en forma suspendida, y de la cual se realiza a continuación una crítica comparativa con
una solución tradicional convencional.
Además de la solución estructural se
empleó un nuevo planteamiento,
poco usual, en la resolución de la
recepción del edificio, situando ésta
en el primer sótano con acceso mediante escaleras mecánicas desde la
acera pública. De este modo se consiguió una planta baja de uso comercial sin interferencias, solución
que permitió aumentar la rentabilidad de una forma importante. Este
planteamiento hizo posible crear
una recepción de gran superficie e
impacto.
En lo que a estructura se refiere, la
solución tradicional que no se llevó
a la realidad constaba de estructura
de hormigón armado o metálica
para soportes y vigas y pantallas
para resistencia contra efectos de
vientos. Sin embargo se realizaron
sótanos y plantas bajas construidas
con pilotaje “in situ”, pantallas con
uso de bentonita, en hormigón armado y forjados birreticulares. Se
siguió un proceso constructivo es-
16
Nº04. Enero de 2015
Torres con núcleos de hormigón
armado, soportando vigas
“cabezas” construidas en hormigón
armado con armadura postensada.
Forjados birreticulares, sujetos me-
se necesitarán 6 plantas y media de
garaje; la cota máxima de excavación sería -24,45 m, lo que hubiera
complicado y encarecido de forma
tan importante la edificación que la
Es necesario separar los accesos a
las dos torres: uno en el Paseo de la
Castellana y otro en la calle Génova,
lo cual implica una pérdida de fachada comercial que hubiese que-
La solución elegida permitiría el acceso por rampas, lo que sería un aspecto básico. El
aprovechamiento de 39 plazas por planta, un 62,5% mayor.
diante péndulos de secciones 42x42
cm y longitudes 68 m con cables
postensados, colgados de las vigas.
Los péndulos pasarían a trabajar a
compresión.
En cuanto a la solución para el estacionamiento de vehículos, la solución tradicional requeriría un acceso
por rampas imposible con lo cuál
obligaba a ejecutar instalaciones de
montacoches, lo que no sería aceptable.
El aprovechamiento tan sólo sería
de 24 plazas por planta, número
reducido por el entorpecimiento
producido por la hipoteca de los
soportes de las torres.
Para acomodar las 156 plazas exigidas por las ordenanzas municipales,
hubiera hecho inviable.
En lugar de esto la solución elegida
permitiría el acceso por rampas, lo
que sería un aspecto básico. El
aprovechamiento de 39 plazas por
planta, un 62,5% mayor aprovechamiento que en la solución convencional; la cota de excavación máxima: sería - 17,95 m.
En cuanto a la planta baja cota de
acceso, la solución tradicional implicaba que se destinaran 15 metros
de fachada a zaguán de automóviles
debido a la amplitud del mismo
obligado para acomodar la espera
de los coches ante el montacargas.
Los locales comerciales se deberían
fraccionar.
PONER AQUÍ IMAGEN
dado interrumpida y reducida a 44
metros de longitud útil. Esto supondría menor rentabilidad, peor funcionamiento e imagen del conjunto.
Los soportes de las torres de Colón
que incidirían en la zona porticada
en el Paseo de la Castellana, que ya
no podrían quedar liberadas.
Las visuales de los coches saliendo
de los elevadores, quedarían dificultadas por los gruesos soportes derivados de las torres.
Los soportes de las torres recaerían
cerca de la línea de fachada comercial con la consiguiente pérdida de
control de la misma.
Todas las ventajas que obtuvo la
solución adoptada hubieran sido
convertidas en inconvenientes en la
solución tradicional. Es decir: más y
mayores gruesos soportes, con
“situaciones obligadas” por la estructura superior: Poca diafanidad y
visibilidad. Mal aprovechamiento de
la planta, como menos superficie
útil. Menor valor comercial, en grado importante, así como mucha
menor rentabilidad.
Finalmente, la solución que se
adoptó aportó a la zona de planta
baja una serie de virtudes como por
ejemplo que sólo se destinan 6 metros de longitud de fachada para el
zaguán de acceso de vehículos.
Nº 5. Planta tipo estacionamiento: solución adoptada.
Ref: Publicación proyecto y dirección de obra.
Nº04. Enero de 2015
El hecho de que el zaguán ocupa
solamente parte de la fachada del
Paseo de la Castellana permite no
seccionar la planta baja, lo que es de
gran importancia a efectos comerciales.
El acceso a las torres permite ser
realizado mediante acceso único, lo
que es más funcional, económico y
de mayor impacto representativo.
La fachada comercial es continua,
con 60 metros de longitud. La zona
porticada en el Paseo de la Castellana queda totalmente liberada de
soportes.
17
trarrestar los empujes de viento.
Están ubicados próximos al centro
de la planta tipo.
En cuanto a los soportes una solución tradicional hubiese conllevado
su aumento de dimensiones a medida que se refieren a plantas más in-
PONER AQUÍ IMAGEN
Visuales totalmente desprovistas de
obstáculos en la salida por rampa.
Los soportes en la planta comercial
son independientes de las torres y
se sitúan según la mayor conveniencia de las plantas comerciales y solamente para las cargas de éstas. Por
tanto son menos en número, menores de dimensión y mejor situados.
Ello conlleva gran diafanidad y visibilidad, mejor aprovechamiento de
la planta, más superficie útil, más
alta valoración comercial. Todo ello
genera una rentabilidad muy superior.
libertad en la distribución interior y
en la composición de fachadas. El
aprovechamiento de superficie es
máximo, y por tanto mejora el uso y
la rentabilidad.
Esta estructura suspendida implicó
cantidad de ventajas y fue el punto
de inflexión en el estudio de rentabilidad y viabilidad de la edificación.
La construcción del edificio mediante una estructura tradicional no
hubiera sido viable, dada la circunstancias del solar, ordenanzas, programas, etc… Frente a esta imposibilidad se buscaron otras soluciones.
La elección de la
“suspendida” permitió:
Nº 6. Esquema de funcionamiento estructural
Ref: Publicación proyecto y dirección de obra
feriores, hasta llegar a una dimensión aproximada de 0,60x1,20. No
se podían colocar los soportes en el
perímetro puesto que las torres vuelan sobre el límite del solar en tres
de las fachadas de la planta baja.
Estos últimos factores implican una
rigidez de planteamiento, arrastrando problemas, tanto en la distribución interior como en la composición de fachadas. Hay pérdida de
superficie útil, de viabilidad, de
solución
Aprovechar al máximo el irregular
solar, ofreciendo la única posibilidad económica y razonable para
cumplir con los requisitos de la municipalidad, así como posibilitar las
plazas necesarias en el estacionamiento de vehículos y la diafanidad
en la zona “porticada” en el Paseo
de la Castellana.
Acceder a las plantas de estacionamiento de vehículos mediante rampas, lo que es fundamental, y no
mediante montacoches, lo que es
Esta estructura suspendida implicó cantidad de ventajas y fue el punto de inflexión en el
estudio de rentabilidad y viabilidad de la edificación.
La solución finalmente adoptada
conlleva también que la planta primera a cota +9,45 m quedara totalmente libre de todo elemento estructural interior. De el mismo modo en el resto de las plantas tipo del
edificio los elementos pantalla que
forman el núcleo tienen la doble
función de transmisión de cargas a
los cimientos y, a la vez la de con-
aprovechamiento apareciendo obstáculos distributivos y por último
con uso más dificultoso. Menor
valoración en venta y más baja rentabilidad.
Para evitar este problema se dispusieron péndulos fuera de la fachada.
El espacio creado entre los péndulos y el núcleo queda totalmente
diáfano, permitiendo la máxima
inaceptable.
Gran diafanidad y flexibilidad en la
planta tipo, que hizo posible modificar y centrar el programa, según
exigencias del mercado, incluso después de iniciadas las obras.
Obtener condiciones técnicas óptimas y máxima rentabilidad en las
plantas comerciales de gran valor
18
Nº04. Enero de 2015
de las estructuras superiores.
Mayor aprovechamiento del espacio
útil, puesto que los elementos estructurales se reducen considerablemente en sus dimensionamientos.
PONER AQUÍ IMAGEN
Nº 7. Esquema de construcción de vigas de cabeza y descenso de cimbra por núcleo central de refuerzo.
Ref: Publicación proyecto y dirección de obra
en la zona y que por la configuración del solar y su reducida superficie hubieran quedado gravemente
perjudicadas por la repercusión de
unas estructuras tradicionales en las
torres, que hubieran resultado de
grandes magnitudes.
El haber podido obtener el máximo
rendimiento estructural, conjugando
la transmisión de cargas al suelo,
con el contrarresto de efectos debidos al viento y a movimientos sísmicos.
El haber podido construir sobre
una superficie de suelo, que se ha
cedido para uso peatonal, sin incidir
en ella.
Todo ello se ha conseguido gracias
a haber convertido el conjunto en
tres edificios semi independientes:
Dos torres y el edificio basamental,
con estructuras independientes e
idóneas, sin más hipoteca sobre el
último que los núcleos resistentes
de las primeras, al quedar
“suspendidas” a un nivel más alto.
La solución técnica de estructura
“suspendida·” ofrece las siguientes
ventajas:
Flexibilidad en el planteamiento
general, independizando las estructura
de
las
edificaciones
“suspendidas” de las construcciones
a niveles inferiores, o del propio
suelo. Esto hace posible solucionar
cada una de las diferentes unidades
arquitectónicas, muchas veces de
diferente programa y necesidades,
con estructuras idóneas y con la
mínima repercusión de estructuras
ajenas, condicionadas por razones
exógenas.
Rapidez de ejecución. La obra puede realizarse construyendo simultáneamente las edificaciones altas y
las inferiores, atacando varios frentes de trabajo a la vez, lo que acelera
considerablemente el ritmo de
construcción, y disminuye los gastos generales y promocionales, así
como los riesgos de mercado.
Flexibilidad de planteamientos interiores al conseguir grandes diafanidades estructurales especialmente
en los edificios inferiores, que quedan prácticamente deshipotecados
Flexibilidad en el tratamiento de las
fachadas, y mayor facilidad para el
empleo de sistemas de prefabricación en los cerramientos.
El conseguir el máximo rendimiento de la estructura de los edificios
“suspendidos” operando con ellas
para contrarrestar los efectos de
viento y sísmico.
Poder
conseguir
edificaciones
“suspendidas” sobre volúmenes de
uso público –centros cívicos, estaciones, teatros, etc – que requieren
grandes luces estructurales libres,
sin apenas incidir en ellos.
Igualmente sobre superficie de uso
público peatonal, de jardín o parque.
En cuanto al proceso constructivo
se comienza por la cimentación excavando y construyendo muros de
contención y pilotes.
Posteriormente se realiza una excavación en la zona central donde se
alojan los núcleos de las torres.
Una vez finalizada la cimentación
comienza la elevación de los núcleos y se dispone una plataforma
de trabajo de hormigonado preparación colocación de las armaduras.
Esta solución conformaba un encofrado metálico deslizante que se
elevaba mediante gatos de trepa
montados en barras de trepa apoyados sobre el hormigón fraguado.
Nº04. Enero de 2015
se procede a la ejecución del forjado
de planta baja que actúa como
arriostramiento de los muros pantallas con el fin de proceder a la excavación del resto de las plantas de
sótano que se van construyendo de
dos en dos actuando de apuntalamiento de los núcleos a medida que
se va suprimiendo la coacción de
tierras.
En la siguiente fase se procede a la
ejecución de la zapata de cimentación de 13x13x7 m que conforma el
núcleo central de refuerzo formando un empotramiento para contrarestar el vuelco mientras se procede
a la excavación para construir análogamente las zapatas de los pilotes y
se procede al postensado mediante
8 unidades de cables para asegurar
el trabajo conjunto de la zapata y el
núcleo.
Para finalizar con los trabajos bajo
rasante se procedió a recrecer los
pilotes para recibir sus cargas totales, construyendo los forjados intermedios bajo rasante y los tres sobre
planta baja.
Con los trabajos bajo rasante ejecutados se llevó a cabo el montaje y
19
elevación de la cimbra, se trataba de
una plataforma metálica izada por
gatos de trepa montados en barras y
sujetos a perfiles metálicos colocados temporalmente en la parte superior del núcleo a casi 80 metros
de altura.
Con la cimbra ejecutada se construyeron las mitades inferiores y después las superiores de las vigas radiales de dimensiones exteriores en
planta 21,40x19,40 m, canto máximo 5 m y voladizo máximo de 7,20
m. Construidas las partes superiores
de las vigas se procedió con la primera fase de postensado dando a
esa armadura un tercio de su carga
total.
Esto sirvió para colgar la cimbra de
las vigas radiales con tensores provisionales.
Acabada esta actuación comenzó la
construcción de los forjados mediante la elevación de los tensores
prefabricados y el enhebrado de los
cables de postensado sujetos a las
vigas perimetrales, a medida que la
cimbra avanzaba hacia cotas más
bajas se aumentó el postensado a
dos tercios de su valor total para
Nº 8. Detalle de vigas de cabeza y elemento ciego de fachada
Ref: Publicación proyecto y dirección de obra
REFERENCIAS Y
BIBLIOGRAFÍA:

Publicación proyecto
dirección de obra.

www.secretosdemadrid.es

www.skyscrapercity.com
y
elevar y colocar los cerramientos de
fachadas y demás cargas del edificio.
Una vez finalizada la elevación de
elementos se eleva el postensado al
valor de su carga total.
El peso total de cada torre incluyendo los cerramientos llega hasta las
9.355 toneladas
Durante la obra y después de su
terminación, “Torres Colón” han
sido objeto de visita para más de
600 técnicos nacionales y extranjeros, de más de 20 nacionalidades
distintas.
20
Nº04. Enero de 2015
MOTORES DE COMBUSTIÓN INTERNA.
MARCOS VIZOSO FERNÁNDEZ. INGENIERO INDUSTRIAL.
El motor de combustión interna
es un mecanismo utilizado para
convertir la energía química del
combustible en energía calórica y
esta última en energía mecánica.
Se les denominan de combustión
interna porque el proceso químico
de combustión ocurre en el interior
del motor y los gases, producto de
éste, al expandirse por el calor generado, ejercen la fuerza que proporciona la potencia mecánica. Y además, para distinguirlo del motor de
combustión externa o motor térmico, en el cual la generación de la
energía calórica se realiza fuera del
motor, por combustión de un combustible, y luego se transfiere a un
medio físico termodinámico (por
ejemplo, agua), para posteriormente
convertirse en potencia útil en el
motor propiamente dicho.
La potencia es el trabajo realizado
por el motor en una unidad de
tiempo. Depende de distintos factores, entre ellos la Rc, Vu, la carrera,
las rpm. Parte de la potencia se consume en vencer rozamientos. Se
distinguen varias clases de potencia:
Indicada, efectiva y absorbida.
La potencia indicada es la obtenida
realmente calculándola del ciclo de
trabajo. Se determina a partir de la
presión media efectiva (área del
rectángulo en ciclo de trabajo).
Par motor es el esfuerzo de giro
aplicado por la aplicación de la fuerza de la explosión y transmitida al
codo del cigüeñal. El par máximo se
produce cuando la presión en el
interior del cilindro es máxima, esto
no se produce al régimen máximo
sino mucho antes. La potencia efectiva se genera por medio de este
par, se conoce como potencia al
freno.
La potencia absorbida es la diferencia entre la potencia indicada y la
potencia efectiva. Resulta difícil de
obtenerla directamente y generalmente se obtiene restando potencia
indicada y efectiva, después de haberlas obtenido.
Conociendo la potencia absorbida
se puede calcula el rendimiento mecánico de la siguiente manera:
- Motores de combustión interna
rotativos: Los rotativos realizan la
transmisión a través de un movimiento rotatorio, como por ejemplo, en las turbinas. Un motor rotativo es en esencia un motor de ciclo
Otto, pero en lugar de tener un bloque de cilindros con un cigüeñal
rotatorio como en el motor radial,
éste permanece fijo y es el bloque
de cilindros entero el que gira a su
alrededor. En la mayoría de los casos, el cigüeñal está sólidamente
fijado a la estructura del avión, y la
hélice se encuentra atornillada al
frente del cárter.
Toda máquina térmica no puede
transformar toda la energía que utiliza en trabajo. En general se llama
rendimiento a la relación entre la
energía recogida y la suministrada.
El Rendimiento Termodinámico es
la relación entre el trabajo indicado
y el equivalente en trabajo del calor
gastado para obtenerlo. En un diesel el rendimiento termodinámico
es aproximadamente del 45% y en
el gasolina aproximadamente del
30%.
Los motores de combustión interna
pueden estar agrupados en motores
rotativos o alternativos.
Imagen 1 – Motor rotativo
La rotación de la mayor parte de la
masa del motor produce un poderoso volante con efecto giroscópico,
que suavizan la entrega de potencia
y reduce las vibraciones. Las vibraciones eran un serio problema en
los motores de pistón convenciona-
Nº04. Enero de 2015
les, que obligaban a añadir pesadas
hélices. Debido a que los cilindros
funcionaban en sí mismos como un
volante, los motores rotatorios tienen una relación peso-potencia más
ventajosa que los motores convencionales. Otra ventaja es una refrigeración mejorada, dado que el bloque de cilindros al girar producen
su propio flujo de aire, incluso
cuando el avión se encuentra en
tierra detenido.
La mayoría de los motores rotatorios tienen los cilindros dispuestos
alrededor del eje central, hacia afuera, como en el motor radial, pero
hay también motores boxer rotatorios, e incluso monocilíndricos.
Al igual que los motores radiales,
los rotatorios se construyen con un
número de cilindros impar
(usualmente 7 o 9), para obtener un
orden de encendido coherente, proporcionando un funcionamiento
suave. Motores rotatorios con cilindros en número par, son comúnmente del tipo en "doble estrella".
- Motores de combustión interna
alternativos: son aquellos en los
cuales la transmisión de trabajo se
efectúa mediante un desplazamiento
lineal reciprocante, como en los
motores basados en el diseño de
Otto [Nikolaus Otto] y Diesel
[Rudolph Diesel].
21
 Rendimientos térmicos aceptables,
con valores dependientes del tipo
de motor y de sus condiciones operativas, que raramente sobrepasan
el 50% de la energía disponible en
el combustible.
 Disponibilidad en una amplia ga-
ma de potencias, que en la actualidad abarcan desde 0,1 hasta 43.000
CV.
 Gran cantidad de disposiciones
constructivas, que permiten adaptar los motores a los usos más diversos. Con relación a la utilización de los motores de combustión interna alternativos como
planta motriz, su extenso campo
de aplicación se centra básicamente en dos áreas: motores para automoción y motores estacionarios.
En el área de motores para automoción se utiliza en transporte por
carretera, maquinarias de obras públicas, maquinarias agrícolas, propulsión ferroviaria, marina y aérea.
En el área de motores estacionarios
se utiliza en generadores de energía
eléctrica (centrales eléctricas y plantas de emergencia), accionamiento
industrial (bombas, compresores,
etc.) y agrícola (motobombas, cortadoras agrícolas, sierras mecánicas,
etc).
Según el método de ignición se
clasifican en: motores de encendido
provocado (Otto) o motores de
encendido por compresión (Diesel).
- Otto: en los pistones se inyecta
una mezcla de gasolina y aire en la
fase de admisión a través de la válvula del mismo nombre, que es absorbida por el vacío que deja tras de
sí el movimiento descendente del
pistón, y que es comprimida en la
fase de compresión, mientras sube
el pistón. Una vez comprimida la
mezcla en la cámara de compresión,
se le aplica una chispa en el comienzo del tiempo de explosión, tras el
cual el pistón desciende hacia abajo
por mediación de la energía liberada
en la oxidación de la gasolina, y
vuelve a subir de nuevo expulsándose los gases resultantes de dicha
reacción del carburante a través de
la válvula de escape. Para reducir la
barrera de potencial entre los reactivos de la reacción química –gasolina
y aire- y el nivel energético del complejo activado –mezcla homogénea
de los reactivos- se utiliza la presión
El gran desarrollo de los motores
de combustión interna alternativos
se debe a una serie de características
que los colocan en favorable ventaja
frente a otros motores, entre las
cuales cabe destacar:
 Alta posibilidad de utilizar dife-
rentes tipos de combustibles, en
particular, líquidos de elevado poder calórico, característica ésta de
gran importancia, porque condiciona la autonomía del vehículo.
Imagen 2 – Motor rotativo
22
Nº04. Enero de 2015
del aire inyectado, que a volumen
constante y presión creciente –crece
al subir el pistón- consigue aumentar su temperatura, como se puede
razonar por la ley que Robert Hooke, Boyle y Gay Lussac descubrieron en relación a las propiedades
elásticas de los gases comprimidos,
quedando la detonación reservada
para la chispa, y liberándose una
energía motriz eficaz que es igual a
la diferencia entre el nivel de los
reactivos y de los productos –gases
que se expulsan en el tiempo de
escape-, a la que se le deben sustraer
las pérdidas por rozamientos y calor
radiado en todo el motor. Debido al
empleo de la chispa y a que la gasolina tiene un poder anti-detonante
más bajo que el gasóleo, por ser
más fácilmente inflamable, los cilindros de los motores de explosión
tienen una cámara de compresión
más grande que los motores de
combustión de gasóleo, ya que de lo
contrario la mezcla explotaría antes
de aplicarse la chispa. Este ciclo
completo se corresponde con dos
emboladas –o movimientos bajasube del pistón- y con dos vueltas
del cigüeñal.
Imagen 3 – Interior de un pistón
-Diesel: aquí no se produce una
explosión, sino una combustión.
Existen los siguientes ciclos de trabajo diferenciados: Admisión, Compresión, Combustión y Escape. Durante el ciclo de Admisión se abre
dicha válvula poco antes del PMS
aspirando aire para llenar por completo el cilindro. Cuanto más aire
aspire, mejor y más eficiente es la
combustión. Así como cuanto más
fresco esté el aire mejor, puesto que
así es menos denso y entra más cantidad (de hay la razón de ser los radiadores de aire, o intercooler también conocidos como intercambiadores de calor). Una vez se cierra la
válvula, comienza el movimiento
lineal ascendente del pistón comprimiendo el aire aspirado. Poco antes
del PMS comienza a producirse la
inyección de combustible (a elevadísima presión), que al encontrarse
con un aire comprimido que se ha
calentado a mucha temperatura debido a este efecto, se inflama empujando el pistón hacia abajo. Poco
antes de llegar al PMI se abre la válvula de escape y al comenzar la carrera ascendente el pistón empuja
los gases quemados que son expulsados a elevada temperatura por el
escape del mismo modo que en el
motor de gasolina. Al igual que en
el caso anterior, esto es lo básico y
suficiente para entender el funcionamiento del motor diesel, sin entrar en detalles como tipos de inyección (directa, indirecta, con precámara), tipos de bombas (rotativas,
lineales), o sistemas alimentación
(atmosférico o turboalimentado, o
mediante compresor).
A igualdad de cilindros y cilindrada
el motor de gasoil es más pesado
dado que son materiales más resistentes debido los esfuerzos mayores
que tienen que soportar.
Antiguamente los motores diesel
eran mucho más fiables que los de
gasolina, siendo en algunos casos
prácticamente irrompibles siempre
que se realizase el mantenimiento
estipulado. Actualmente los motores diesel y gasolina debido a la carga electrónica en ambos son igual
de fiables, no siendo uno mejor que
el otro.
El motor diesel sufre menos desgaste debido a que siempre gira a
menos revoluciones que uno de
gasolina a igualdad de velocidad y
marcha engranada. Esto es debido a
Imagen 4 – Interior de un pistón
Nº04. Enero de 2015
que el motor Diesel tiene por sus
características estructurales una carrera muy larga lo que es contraproducente con las altas revoluciones.
Además, y aunque en los últimos
años hay ya varios diesel que logran
alcanzar con facilidad las 5000 rpm,
todavía queda algo de camino en
conseguir bombas de inyección capaces de suministrar alta presión a
altas revoluciones. De todas formas
tampoco interesa demasiado que
alcancen altos giros de cigüeñal,
porque si funciona n rápidos...¿donde se queda el bajo consumo?
El motor diesel se usa sobretodo en
camiones y autobuses debido a que
tiene un reparto de su fuerza más
lineal que un motor de gasolina. En
este último la fuerza es mediante
una explosión momentánea, mientras que en el diesel la fuerza se produce durante toda la carrera descendente del pistón. Antiguamente se
usaban también motores de gasolina
para camiones y autobuses, o incluso excavadores o tractores.
El mito de quien corre más, si un
diesel o un gasolina (inventado desde que existen los TDI, y luego todos los que vinieron detrás) siempre
seguirá en el aire. Los diesel corren
tanto, no porque tengan alta potencia, sino porque tienen mucho par
motor. Tienen sobre todo capacidad de recuperación debido al elevado par motor que les proporciona
la sobrepresión atmosférica del turbo, y la alta presión de la bomba. Si
a un motor atmosférico de gasolina
de 150cv le comparamos con un
motor atmosférico de gasoil de la
misma potencia, montado sobre un
vehículo idéntico en peso, aerodinámica y desarrollos de cambio, ganaría el motor de gasolina debido a su
capacidad para coger más revolucio-
23
nes y hacerlo con más facilidad. Si
estos dos ejemplos llevasen sobrealimentación, seguiría ganando el
gasolina en aceleración pura y dura.
Sin embargo en recuperación es
posible que el par motor del diesel
acabara imponiéndose. Un coche
diesel en aceleraciones cortas coge
rápidamente velocidad porque tienen desarrollos muy cortos debido
a que no cogen más allá de 5000
revoluciones.
Los motores de gasolina, por lo general, al ser más ligeros en sus piezas móviles, tienen más facilidad
para revolucionarse. Es por ello que
siguiendo un patrón estándar un
gasolina funcionaría mejor en altas y
un diesel en bajas. Esto como digo
siguiendo un patrón ideal y estándar, ya que influyen muchísimos
apartados en la respuesta del motor:
potencia, cilindrada, relación calibre
x carrera, cruce de válvulas, sistema
de alimentación, peso, desarrollos,
aerodinámica, etc. Y normalmente
los fabricantes diseñan el motor de
cara ya a los resultados que se quieren obtener
bustión de la mezcla. Pertenece al
grupo de motores diesel por su alimentación y funcionamiento en un
ciclo de 2T con 2 carreras alternativas de su embolo que produce un
giro de 360º en el árbol motriz.
Ha sido diseñado con el fin de obtener un motor ligero y económico
pero a la vez lo suficientemente robusto para su empleo en trabajos
duros como en agricultura, navegación fluvial y pequeñas embarcaciones de pesca. Aprovechando la simplificación de elementos y como
trabaja a presiones inferiores al diesel (Rel. Compresión"9) los elementos constructivos del mismo son
más económicos. Tiene una estructura más sencilla y más ligera que el
diesel lo que origina un menor peso
muerto. No necesita bombas de
inyección de gran presión ya que la
presión de entrada a suministrar por
las mismas es muy inferior con lo
cual el trabajo empleado para comprimir el combustible es menor.
REFERENCIAS
Y
BIBLIOGRAFÍA:
- http://www.monografias.com
- http://www.asifunciona.com
Imagen 5 – Tabla comparativa del rendimiento de
motor diésel-gasolina
- Motor mixto o Sabathe: Este
motor generalmente de 2T tiene
una función intermedia entre los de
explosión y diesel en cuanto a su
relación de compresión y forma de
realizar el encendido para la com-
- http://www.autopista.es
- http://www.angelfire.com
- http://www.solociencia.com
24
Nº04. Enero de 2015
EL AUTOGIRO DE JUAN DE LA
CIERVA. EL PRECURSOR DEL
HELICÓPTERO
construyó utilizando el fuselaje, ruedas y estabilizador vertical de un
monoplano francés de 1911
(Deperdussin), y que constaba de
dos rotores de cuatro palas contrarrotatorios. Este primer aparato no
llegó a volar, ya que la asimetría en
la sustentación hizo volcar el aparato. A este primer intento le seguiría
el C-2, en el que intentó resolver la
asimetría de sustentación introduciendo el control del paso cíclico,
pero las palas del rotor no tenían
LUIS MUÑOZ IZQUIERDO. INGENIERO AERONÁUTICO.
La idea de volar con un vehículo de
ala giratoria es muy antigua. Tanto
es así, que por ella pasaba la gran
esperanza del hombre de volar hasta que se lograse el vuelo con ala fija
con los primeros planeadores.
A principios del siglo XX, eran muchos los aparatos de ala giratoria
que consiguieron despegar de un
modo u otro, pero sería Juan de la
Cierva, científico aeronáutico español e ingeniero de caminos, canales
y puertos, motivado desde pequeño
por el mundo de la aviación, el que
lograse en enero de 1923, el primer
vuelo seguro y controlado de un
vehículo de ala giratoria con la invención del autogiro.
Juan de la Cierva quería construir
una aeronave segura y menos proclive a los accidentes que las de ala
fija conocidas en aquel momento, y
la forma en la que lo consiguió se
puede observar en la figura 1, correspondiente a un autogiro moderno, donde el rotor es el elemento
sustentador, que gira libremente y
en auto rotación gracias al flujo de
aire incidente por la parte inferior
del rotor. Por otro lado, el movimiento de avance lo proporcionaría,
una hélice situada en la parte delantera de la aeronave (figura 2), difiriendo de la figura 1, y el mando de
la aeronave consistía en un timón
de dirección en la cola.
Figura 1. Esquema de fuerzas existentes en un
autogiro.
Pero como en todos los caminos
hacia el éxito, de la Cierva tuvo que
superar algunos fracasos, que superaría gracias a su tenacidad y perseverancia. En 1920, patentó su invento bajo el nombre de autogiro,
se trataba del C-1 (figura 2), que
Figura 2. El C-1, primer modelo de Juan de la
Cierva.
suficiente rigidez como para soportar los momentos de torsión alternativos generados en los encastres
de las palas. Su siguiente intento
sería el C-3, en el que une las palas
del rotor con cables de acero de alta
resistencia, y dispone al aparato con
un gran elevador en la cola para
solventar el problema del par de
vuelco al que se enfrentaba debido a
la asimetría en la sustentación, que
no consiguió resolver a pesar de
cuatro reconstrucciones del modelo,
ya que aún cuando el aparato se
encontraba rodando, éste se inclinaba lateralmente, las palas del rotor
chocaban contra el suelo y la integridad del aparato resultaba perjudicada…
La citada asimetría de sustentación,
tan problemática y demoledora para
Juan de la Cierva en aquel momento, se produce debido a que las palas del rotor generan distinta susten-
Nº04. Enero de 2015
tación a lo largo de su giro si la aeronave tiene movimiento de avance.
En la figura 3 se puede apreciar mas
fácilmente este efecto para el caso
25
Debido a este efecto la sustentación
producida en el lado derecho del
rotor es mayor que en el izquierdo,
produciéndose así un par de vuelco
capaz de generar la caída del helicóptero.
Resolver este problema aerodinámico supuso el éxito del autogiro de
Juan de la Cierva, y posteriormente,
el desarrollo del helicóptero tal y
como se conoce hoy en día. La solución consiste en articular las palas
del rotor en el encastre, de manera
que estas varían su ángulo de ataque
de forma automática a lo largo de
su movimiento circular, disminuyendo el ángulo de ataque en el lado
de la aeronave en la que se tenía
mayor sustentación y viceversa,
consiguiendo así, la misma sustentación a ambos lados de la aeronave.
Figura 3. Esquema del funcionamiento de un rotor
convencional sin control de paso cíclico en vuelo de
avance.
de un helicóptero, donde V∞ es la
velocidad de avance de la aeronave
y Ω es la velocidad angular de las
palas del rotor. Por lo que, en esencia, cuando las palas se encuentran
en el lado derecho del rotor la velocidad relativa del aire con respecto a
un punto de la pala es Ω·r+V∞,
siendo r la distancia entre el encastre de la pala y el citado punto. Por
otro lado, cuando las palas se encuentran en el lado izquierdo del
rotor, la velocidad relativa del aire
con respecto a un punto de la pala
es Ω·r -V∞, esto implica que hay
una zona (zona de flujo invertido)
en la que las palas reciben el aire
por su borde de salida, no produciendo sustentación, además esta
zona de flujo invertido (círculo rojo
de la figura 2) aumenta a medida
que aumenta la velocidad de avance.
Esta revolucionaria idea fue implementada en el cuarto modelo de
Juan de la Cierva, el C-4, que tras
una serie de ensayos aerodinámicos
en el túnel de viento del aeródromo
de Cuatro Vientos, realizó su memorable vuelo el 17 de enero de
1923, en el aeródromo de Getafe,
pilotado por el teniente Alejandro
Gómez Spencer. El vuelo de apenas
unos 183 metros, validó la idea, y
unos días después, el C-4 recorrería
cuatro kilómetros en el aeródromo
de Cuatro Vientos, en unos cuatro
minutos a unos 30 metros de altura.
Es así como empieza la cosecha de
éxitos de Juan de la Cierva, en la
que además de introducir mejoras
en el autogiro, le dispone “del despegue por salto”, reduciendo la carrera de despegue. Intenta crear en
España una empresa de fabricación
de autogiros, pero por falta de financiación establece en Londres la
“Cierva Autogiro Company” en
1926 y después le seguiría la
“Autogiro Co. Of America” en
1928. Este mismo año cruzó el Canal de la Mancha pilotando un autogiro, hecho que fue publicado y destacado por la prensa internacional.
Incluso un autogiro aterrizó en el
jardín de la Casa Blanca donde fue
recibido afectuosamente el piloto
(figura 4).
Figura 3. Autogiro PCA-2 construido por PitcairnCierva Autogiro Company volando en la Casa Blanca. Año 1931
Juan de la Cierva murió el 9 de Diciembre de 1936, con 41 años, en
un accidente de aviación. Era un
vuelo regular Londres-Ámsterdam,
en el que, por curiosidades de la
vida, el avión de ala fija, un Douglas
DC-2, se estrelló debido a entrada
en pérdida. La aeronáutica recibía
como herencia el autogiro, la aeronave más segura que existe a día de
hoy, la menos sensible a las turbulencias y con una corta carrera de
despegue y aterrizaje, pero que al no
disponer del vuelo a punto fijo, hace que el helicóptero lo sitúe en un
segundo plano, utilizándose principalmente para la aviación de ocio.
REFERENCIAS Y
BIBLIOGRAFÍA:
- www.aviacionulm.com
- www.gyroclubdelacierva.es
- www. baaa-acro.com
26
Nº04. Enero de 2015
IMPLANTACIÓN DE ASCENSORES HIDRAÚLICOS
EN REFORMAS DE EDIFICIOS
JESÚS ROSADO ROBLES. INGENIERO TÉCNICO INDUSTRIAL Y GRADUADO EN INGENIERÍA MECÁNICA.
PONER AQUÍ IMAGEN
Imagen 1. Esquema tipo ascensor hidráulico.
Fuente: http://www.blog.gmveurolift.es
El presente artículo tiene por objetivo describir de forma general las
características técnicas y de seguridad para la correcta ejecución y
puesta en marcha de un ascensor
hidráulico en rehabilitación de edificios.
Para explicar de forma clara los
cálculos necesarios, estudiaremos
un ejemplo ficticio en el que se
plantea la instalación de un ascensor
hidráulico con un armario de control y mando situado en la planta
baja de un bloque de 4 alturas en
Madrid.
Se parte de un foso 1,3 metros y
huída de 3,5 metros de dimensiones
reglamentarias. El ascensor dispondrá de 5 paradas (4 plantas más la
planta baja).
Con la instalación del ascensor se
pretende mejorar las condiciones de
accesibilidad a las distintas viviendas
desde la planta de acceso al edificio
con el consiguiente aumento de la
calidad de vida de los vecinos así
como el valor añadido del propio
edificio y con el cumplimiento de la
Ley 8/93 de Promoción de la Accesibilidad y Supresión de Barreras
Arquitectónicas.
Incluiremos las medidas correctoras
necesarias para el buen funcionamiento posterior de la actividad para la que su uso está destinado.
Para la realización del proyecto será
necesario tener en cuenta todo el
Reglamento actual que figura en las
Ordenanzas Municipales del Ayuntamiento de Madrid en este caso,
como a su vez, la correspondiente
Legislación Técnica de acuerdo con
la Normativa de AENOR EN 81-1
y 2, para ascensores eléctricos o
hidráulicos respectivamente. A continuación se plantean una serie de
normativas que son necesarias consultar en el caso que nos atañe:
Ordenanza de Prevención de Incendios del Ayuntamiento de Madrid
ANM 1993\1.
Ordenanza por la que se establece
el Régimen de Gestión de Control
de las Licencias Urbanísticas de Actividades (OGLUA) ANM 2009\16
Real Decreto 1131/1988, de 30 de
septiembre, por el que se aprueba el
Reglamento para la Ejecución del
Real Decreto Legislativo
1302/1986, de 28 de junio, de Evaluación de Impacto Ambiental.
Ley 2/2002, de 19 de junio, de Evaluación Ambiental de la Comunidad
de Madrid.
Decreto 78/1999, por el que se regula el régimen de protección contra la contaminación acústica de la
Comunidad de Madrid.
Real Decreto 2267/2004,
por el que se aprueba el Reglamento
de seguridad contra incendios.
Real Decreto 1942/1993, de 5 de
noviembre, por el que se aprueba el
reglamento de instalaciones de protección contra incendios.
Real Decreto 1627/1997, de 24 de
octubre, por el que se establecen
disposiciones mínimas de seguridad
y de salud en las obras de construcción.
Reglamento Electrotécnico de Baja
Tensión.
Norma EN 81-2 de agosto de 1998,
que regula los ascensores hidráulicos.
Ley de Propiedad Horizontal (Ley
51/2003).
Real Decreto 314/2006, de 17 de
marzo, por el que se aprueba el
Código Técnico de la Edificación.
Nº04. Enero de 2015
27
El sistema de tracción de esta clase
de ascensores se compone de: central hidráulica, cilindro, pistón, bloque de válvulas de control del sistema hidráulico y un sistema de tuberías por donde circula el fluido impulsor, que hoy en día es aceite. Este ascensor, a diferencia del ascensor eléctrico no incorpora contrapeso. En comparación con el habitual
ascensor eléctrico, este tipo de ascensores presentan una serie de
ventajas e inconvenientes.
Ventajas
El peso de elevación no sobrecarga
la estructura.
Desgaste menor debido a la presencia del baño en aceite.
Ahorro del cuarto de máquinas en
la parte superior del hueco.
Arranque y paradas suaves.
No precisan de paracaídas para la
cabina.
Inconvenientes
Coste de mantenimiento elevado.
Potencia instalada mayor a igualdad
de prestaciones con un ascensor
eléctrico.
Recorrido limitado hasta 27 metros.
Dependencia a la temperatura del
aceite.
Velocidades nominales más bajas
(entorno a 0,63 m/s).
Para realizar una instalación electromecánica de este tipo, es imprescindible disponer de la información
necesaria contra incendios, ruidos y
vibraciones. A continuación se indican varios aspectos de cada tipo:
Contra incendios
Los extintores deberán estar colocados tal como indica el artículo 20.1,
punto 4 del CPI-96, situándose el
extremo superior de éste a una altura máxima sobre el suelo de 1.7 m.
El extintor debe estar debidamente
señalizado de modo que pueda ser
utilizado de manera fácil y rápida
(norma UNE-23 034-88).
Asimismo, los extintores deben disponer de una pegatina o chapa que
explique de forma clara y escueta su
Imagen 2. Instalación típica de un montacargas hidráulico .
manejo. También deben estar provistos de un dispositivo de cierre
automático que permita la interrupción temporal del chorro, según la
norma UNE-23110-96/2. Si sobrepasan los 6 kg deben estar equipados con una manguera de descarga
de 400 mm de longitud mínima
(UNE-23110-96/2), y ser de color
rojo como mínimo en el 95% de su
superficie (UNE-23110-96/2).
Se debe hacer una revisión de los
extintores cada cinco años a partir
de la fecha de timbrado de éstos y
proceder al retimbrado, con arreglo
a la ITC-MIE-AP5 del Reglamento
de aparatos a presión sobre extintores de incendios.
Contra ruidos y vibraciones:
La Ordenanza Municipal para la
Protección Ambiente contra la emisión de Ruidos y Vibraciones, exige
que cualquier instalación que pueda
ser emisor de ruidos cuente con los
correspondientes aislamientos, tanto en materia acústica como de vibraciones.
Todos los establecimientos deberán
cumplir las condiciones acústicas de
la edificación que se describen en la
Norma Básica de Edificación NBECA88.
No podrán instalarse máquinas o
motores sobre las paredes sin que
estén dotadas de los correspondientes elementos de amortiguación y
28
corrección de ruidos y vibraciones.
Todas las máquinas o motores estarán situadas de forma que su envolvente exterior quede a una distancia
mínima de 1 metro de los muros.
Los aparatos que emitan sonidos
deben ser también aislados de manera que el ruido transmitido no
exceda el valor máximo autorizado
por las ordenanzas.
Solución propuesta
La solución de ascensor que se propone se corresponde con un ascensor hidráulico para una carga máxima de 450 kg, es decir, para el uso
simultáneo de 6 personas en cabina.
Las dimensiones exteriores del recinto del ascensor serán de 180 x
160 cm.
A continuación se muestra en una
tabla las características del ascensor:
Nº04. Enero de 2015
posición de cierre, las holguras entre hojas o entre hojas y sus largueros verticales, marcos y umbrales,
deben ser lo más reducidos posibles. Esta condición se considera
cumplida, cuando estas holguras
operativas no superan 6 mm. Anotar que dicho valor debido al desgaste puede alcanzar los 10 mm.
Las puertas y sus marcos deben
construirse de manera que su indeformabilidad sea garantizada a lo
largo del tiempo según dice el artículo 7.2.1 de la Norma EN 81-2.
Las puertas con sus cerraduras, deben tener una resistencia mecánica
tal que, en posición de bloqueo y
como consecuencia de la aplicación
de una fuerza de 300 N, perpendicular a la hoja, aplicada en cualquier
lugar de una u otra cara, siendo esta
fuerza repartida uniformemente
Según el artículo 7.2.3.2 de la citada
norma EN 81-2, con la aplicación
de una fuerza manual de 150 Newton en la dirección de apertura de
las hojas de las puertas de deslizamiento horizontal estás deben interrumpir su cierre. El movimiento de
las hojas no debe ser superior a la
energía cinética de 10 Julios que
produce su desplazamiento. También se instalarán células fotoeléctricas con objeto de detectar cualquier
obstáculo que impida el cerramiento de las puertas.
Si la cabina no está en planta, la
puerta de rellano quedará enclavada.
Su cerradura se desenclavará para
25 cm de altura inferior y superior
de la superficie del rellano.
Cálculo de la estructura
Para el cálculo de la estructura primeramente se hace una aproximación de la carga que va a tener que
soportar la instalación. De esta forma, mediante la comprobación de
resistencia, podemos elegir una solución de perfil metálico laminado
que se adapte a la situación:
Comprobación de Resistencia:
Imagen 3. Tabla de características del ascensor hidráulico propuesto como solución para el edificio
Es necesario concretar que debido a
la situación de interperie del ascensor, las puertas de cabina como las
de rellano serán de acero inoxidable. Su superficie será lisa sin endiduras o salientes que puedan provocar enganchones de ropa en caso de
evacuación de emergencia.
Las aberturas en el hueco, que sirven de acceso a la cabina del ascensor, deben estar provistas de puertas de piso sin perforaciones. En la
sobre una superficie de 5 cm2 de
sección circular o cuadrada, las citadas puertas deben:
a) resistir sin deformación permanente.
b) resistir sin deformación elástica
superior a 15 mm.
c) durante y después de este ensayo,
el funcionamiento seguro de la
puerta no debe verse afectado.
N: esfuerzo de cálculo (tomamos
aproximadamente N=12 kN)
A: área del perfil laminado
fyd: límite elástico minorado por
1,05 del acero
De esta forma, con la ecuación anterior, despejamos el área y mirando
cualquier prontuario de perfiles,
optamos por una solución.
Nº04. Enero de 2015
29
PONER AQUÍ IMAGEN
Observando el prontuario, llegamos
a la conclusión de que el perfil adecuado es un IPE 180. La estructura
metálica del ascensor arranca desde
el foso y al igual que la estructura de
éste, lo hará con cerramiento de
pilares Dos IPE 180 en cruz. En la
imagen 4, se muestra la disposición
de los pilares.
Entre dichos pilares se montan a
nivel de planta e intermedio entre
estas cada 2 metros, otras barras
horizontales (travesaños IPE 160)
que además de dar rigidez al conjunto, sirven de apoyo al cerramien-
Cálculo del peso del vehículo
Conocidos los siguiente valores de
las masas de las distintas partes del
ascensor:
Carga máxima del ascensor: 450 kg
Masa de la cabina: 350 kg
Masa del chasis: 200 kg
Masa del operador de puertas: 200
kg
Masa total = 450 + 350 + 200 +
200 = 1200 kg
Si tomamos como fuerza de la gravedad el valor g=9’8 m/s2 , obtenemos la siguiente carga Q que soporta el ascensor:
Imagen 4. Tabla / prontuario de perfiles
peso de la cabina creará un momento flector sobre el citado pilar.
Este momento flector dará lugar a
una reacción horizontal que será
absorbida por los travesaños. Realizaremos el estudio sobre el caso
más desfavorable, que será sobre
aquel travesaño que se encuentre a
mayor distancia del empotramiento.
Si éste soporta los esfuerzos y deformaciones máximas permitidas, el
resto de los travesaños lo cumplirán
sin ningún problema.
“Según la comprobación de resistencia y observando el prontuario de perfiles metálicos, se
llega a la conclusión de que el perfil adecuado para construir la estructura de cerramiento
del ascensor hidráulico propuesto es Dos IPE 180 en cruz”
to del recinto y guías del ascensor.
Las guías se sitúan cada 2 metros y
se anclan a los travesaños, con lo
que los esfuerzos de estas se transmiten íntegramente a la estructura.
Los perfiles y secciones de esta estructura son capaces de soportar
todas las cargas que puedan transmitirle los pesos del ascensor y su
cerramiento.
Q = Masa total ∙ g ;
Q = 1200 x 9’8 ;
Q = 11.760 Newton
Una vez calculado esto, estamos en
disposición de representar el caso
sobre un diagrama del sólido libre
que nos va a facilitar el cálculo del
momento flector sobre el pilar. El
Como ya se ha comentado anteriormente, la carga Q ejercerá sobre el
pilar un momento flector, que denotaremos como Mf, tal que éste
creará una reacción horizontal en el
travesaño. Calculamos dicho momento:
Mf = Q ∙ dist. ;
Mf = 11760 ∙ 0’9 ;
Mf = 10.584 N∙m ≈ 10’6 kN∙m
30
Nº04. Enero de 2015
nuación en la imagen 6 se muestra
un ejemplo de una cimentación que
bien podría usarse para el ejemplo
que estamos tratando.
El diseño y dimensiones de la estructura que se detallan cumplen las
determinaciones y directrices técnicas para instalación de ascensores.
Imagen 5. Diagrama del sólido libre
A parte de esto, será necesario realizar el cálculo de esfuerzos sobre los
travesaños y el cálculo en caso de
acuñamiento.
Otro punto a tener en cuenta es el
cálculo de la cimentación sobre la
que irá alojada el ascensor. A conti-
El diseño se ha realizado con criterios de modelización y normalización de piezas de las mismas dimensiones, tanto en estructura como en
panelados o cerramientos, de modo
que sean intercambiables y adaptables a cada parte del cuerpo del ascensor.
Para el montaje se prevé la adaptación de todos los elementos estructurales modelizados, de la misma
dimensión, para abaratar y dar mayor rapidez de ejecución, posible
sustitución, reparación o mantenimiento.
La estructura se montará mediante
soldadura o atornillado, lo que garantiza menores vibraciones y mayor seguridad y durabilidad del conjunto. Sin embargo para los materiales de cobertura y recubrimiento del
conjunto se prevén sistemas de
atornillado de seguridad, lo que permitirá un mantenimiento, posible
sustitución o reparación rápido y
eficiente, así como un montaje rápido y eficaz. En el zócalo se opta por
la soldadura de los elementos de
cerramiento con miras a evitar posibles actos vandálicos.
Para el montaje de la maquinaria se
respetarán las determinaciones del
fabricante, que en este caso reducen
considerablemente tanto los elementos de montaje ya prefabricados
como los elementos de arriostramiento, sujeción y seguridad sobre
los que no hay que actuar, solamen-
“Para el montaje de la maquinaria del ascensor se respetarán las determinaciones que indica
el fabricante. Estos elementos se reciben completamente montados lo que conlleva una
gran economía en los tiempos de instalación.”
te montar en obra con una gran
economía de tiempos.
Imagen 6. Cimentación foso del ascensor
Fuente: http:/www.detallesconstructivos.cype.es
Como anteriormente se ha descrito,
todos los elementos de maquinaria
se reciben en obra completamente
montados, de modo que solamente
hay que proceder a su colocación
sin actuar sobre ellos, con la consiguiente economía en tiempos de
ejecución y seguridad del resultado
final. Estos elementos han pasado
un proceso exhaustivo de calidad
que garantiza su perfecto funcionamiento durante largos periodos de
tiempo incluso sin mantenimiento,
aunque éste se aconsejado.
Nº04. Enero de 2015
Para el foso del ascensor se opta
por un cajón prefabricado sobre
hormigón de limpieza en el que ya
se incluyen todos los elementos de
seguridad y montaje que el grupo
del ascensor debe llevar para su
instalación; la eficiencia es máxima y
su rapidez de ejecución no se puede
superar.
En cuanto a la normalización estructural se ha preferido aumentar
la sección estructural a la mayor de
cálculo para facilitar y acortar los
tiempos de montaje, con elementos
intercambiables, en los que no es ni
necesaria la consulta de planos estructurales para su montaje. La eficiencia en el conjunto estructural
será muy alta dada la casi total prefabricación de las piezas del conjunto estructural.
El espacio requerido para la instalación del ascensor y su montaje se
reduce al propio cuerpo del mismo
cuyas dimensiones se han detallado
previamente, y para la estructura
solamente se requiere de acopio en
el interior del hueco el ascensor por
razones de montaje.
31
Para el acopio de materiales se utilizará el interior del patio, por razones de seguridad no se acopiará en
la vía pública, las puertas y maquinaria se distribuirán por cada una de
las plantas donde se vayan a instalar.
Estructura autoportante atornillada
La estructura que emplearemos para
terminar nuestro ejemplo de la instalación del ascensor hidráulico tiene todas sus uniones mediante tornillos por lo que no precisa de soldadura. A continuación vamos a
detallar las partes comunes de este
tipo de estructuras.
Cuando en un edificio no existe un
recinto donde ubicar el ascensor, la
estructura modular autoportante
descrita a continuación ofrece la
solución ideal. Sus ventajas más importantes son:
PONER AQUÍ IMAGEN
PONER AQUÍ IMAGEN
Imagen 8. Cerramiento exterior de la estructura del
ascensor
De fácil instalación por ser de módulos atornillables.
No precisa soldadura.
De gran versatilidad: acabados en
chapa lisa, perforada, con vidrio.
Admite cualquier revestimiento. De
instalación interior o exterior.
Diseñada para su ubicación en edificios antiguos.
Incorpora presoportes para la fijación de guías.
Para instalaciones oleodinámicas o
electromecánicas.
Instalación desde el interior de la
propia estructura.
REFERENCIAS Y
BIBLIOGRAFÍA:
- Departamento de Mecánica IV de
Instalaciones electromecánicas de
la Universidad Politécnica de
Madrid.
- www.ascensoresyelevadores.com
Imagen 7. Estructura autoportante atornillada
- www.camaradeascensores.com
32
Nº04. Enero de 2015
ANÁLISIS DE LA INFLUENCIA DE LA
SOBREALIMENTACIÇON EN MOTORES
ALTERNATIVOS
FERNANDO MARTEL ARANDA. INGENIERO TÉCNICO INDUSTRIAL, ESP. MECÁNICA
Los procedimientos de análisis del
acoplamiento de grupos compresorturbina para sobrealimentación de
motores precisan el uso de características que no siempre son asequibles, y un procedimiento completo
sobre las diferentes condiciones
operativas del motor. El auge de la
web permite adquirir las características propias de grupos visitando directamente las páginas de las casas
comerciales.
En este documento se presenta una
metodología práctica de evaluación
del acoplamiento de un conjunto
sobrealimentador a un motor determinado mediante el empleo de una
hoja de cálculo.
El desarrollo de esta metodología se
hace analizando el ciclo airecombustible del motor, considerando composición de gases en cilindro
y propiedades termodinámicas variables con la temperatura.
Figura 2: Grupo compresor (azul) turbina (rojo)
para la sobrealimentación de motores con gases de
El esquema general consiste en tomar los datos de un grupo determinado, y analizar el motor ficticio de
Z cilindros con acoplamiento del
grupo en las condiciones de par y
potencia máximas, comparando sus
resultados por cilindro con los del
motor atmosférico.
Figura 1: Grupo compresor (azul) turbina (rojo)
para la sobrealimentación de motores con gases de
escape; Sistema completo.
Ref Aguilar del Moral.
Hecho este procedimiento general
para las dos condiciones extremas,
se identifican en la gráfica del turbocompresor dichos puntos. Éstos
se unen con una línea y se lleva además a un valor de flujo de aire de
Según el resultado, se puede evaluar
si la soplante elegida será eficiente
para el motor elegido o, si por el contrario, no sirve, necesitando entonces
evaluar otro conjunto diferente. Se
podrán dar varios casos como los
un 20% máximo con relación de
presiones. Estas líneas envuelven las
condiciones operativas del motor en
donde el dispositivo funcionará.
Nº04. Enero de 2015
33
PROCEDIMIENTO
DE CÁLCULO
(a)
(b
(c)
(d)
Figura 3: Procedimiento general de evaluación del acoplamiento del grupo al motor
presentados en la Figura 4. Si la línea
que une los tres puntos indicados
(20% flujo másico máximo-par máximo-potencia máxima) está dentro de
la gráfica característica, aproximadamente como la Figura 4.b indica, el
funcionamiento del grupo se hará
para la mayor parte de las condiciones operativas del motor, de forma
que se considera correcto el proceso
de evaluación, como criterio para la
finalización del procedimiento que
exige la Figura 3. En caso de darse los
extremos 4.a) o 4.c) debe buscarse un
grupo superior o inferior, respectivamente.
Figura 4: Ejemplos de casos de evaluación del
compresor:
a) Condiciones por debajo del límite de bombeo;
b) Correcto; c) Condiciones por encima del bloqueo sónico; d) Evaluación del acoplamiento sobre
las curvas características de las turbomáquinas.
34
Nº04. Enero de 2015
(K). La temperatura de entrada al
motor será entonces (Ec 1):
Figura 5: Procedimiento general de evaluación del
ciclo sobrealimentado para una condición operativa
del motor.
miento relativo interno. Con ello, se
pueden determinar las condiciones
Dentro de este procedimiento general, el cálculo para cada condición
operativa toma los valores iniciales
del motor monocilíndrico, conservando el valor de las pérdidas mecánicas, rendimiento de la combustión, rendimiento volumétrico (o
coeficiente de admisión) y rendimiento de calidad. Entonces, la masa de combustible y masa de aire
entrante por ciclo (y flujos másicos)
se multiplican por Z y por N. Al
valor de aire entrante se le suma un
valor pequeño de aire de barrido
(en torno a un 3% adicional). Estos
serán datos conocidos. Entonces se
desarrolla el procedimiento presentado en la Figura 5.
“Tradicionalmente el análisis y estudio de la sobrealimentación en motores alternativos, se
ha basado en procedimientos teóricos muy complejos de difícil aplicación práctica.”
Para el análisis de la entrada se tendrá en cuenta el esquema de la Figura 6. Se toma la curva característica
del turbocompresor centrífugo, y en
ella se marca el valor del flujo de
aire que entra al motor. Entonces se
busca un valor en dicha curva para
dicho flujo a una relación de presiones determinada rC. A ese punto le
corresponderá un valor de rendi-
de salida del aire del turbocompresor a partir de las condiciones ambientales y la ecuación de las adiabáticas. En caso de desear incorporar
un ‘intercooler’, se debe introducir
el valor de la eficiencia del intercambiador ξ, de forma que se obtenga la temperatura de entrada del
aire a los diferentes cilindros T1
A continuación se analiza la salida y
acoplamiento, cuyo esquema general se presenta en la Figura 7. En
primer lugar, se evalúan las condiciones y el trabajo disponible de la
turbina trabajando a presión constante a la entrada (análisis de disponibilidad en la Figura 7), tal y como
se establece en Muñoz & Payri
(1989).
Nº04. Enero de 2015
Figura 6: Procedimiento de análisis de la entrada al
motor.
CONCLUSIONES
35
La hoja de cálculo se revela no sólo
como una potente herramienta para
el estudio y simulación de procesos
sino además como un magnifico
recurso que asiste al proceso de enseñanza-aprendizaje, en el momento que permite proyectar y ensayar
posibles alternativas para encontrar
Figura 7: Procedimiento de análisis de la salida del
motor y acoplamiento del grupo.
la más adecuada, consiguiendo, de
esta forma, el desarrollo y adquisición de las competencias y la consecución de los objetivos propuestos.
REFERENCIAS Y BIBLIOGRAFÍA:
Tradicionalmente el análisis y estudio de la sobrealimentación en motores alternativos, se ha basado en
procedimientos teóricos muy complejos de difícil aplicación práctica.
Con el fin de facilitar la compresión
y manejo de estos sistemas se ha
propuesto este algoritmo basado en
el uso de una hoja de cálculo. De
esta forma, la complejidad del proceso se ve auxiliada con el procedimiento programado.
-Arcoumanis, C., 1988, Internal Combustion Engines, Academic Press, UK.
-Boyce, M.P., 2002, Gas Turbine Engineering Handbook, 2nd Ed., Gulf Professional Publishing, US.
-Cruz Peragón, F., Aguilar Sutil, J.S., Palomar Carnicero, J.M., 2009, Análisis
del ciclo de aire-combustible en motores alternativos con ayuda de hoja de
cálculo, Actas de las VI Jornadas de Ingeniería Termodinámica, Junio,
Córdoba, (aceptado).
-Lombardini, 1996, Work Shop Manual CHD Engines, 3rd Edition, p. no 15302.345
-Muñoz, M. y Payri, F., 1990, Motores de Combustión Interna Alternativos,
Publicaciones de la ETSII, UPM, Madrid.
36
Nº04. Enero de 2015
TECNOLOGIAS PARA EL RECICLAJE DE AGUA EN
LAS VIVIENDAS
FERNANDO GÓMEZ ESTRADA. INGENIERO INDUSTRIAL.
Es una realidad, de que el
crecimiento demográfico mundial
ha crecido y crecerá a lo largo de
estos años, siendo el agua que consumimos la misma, y como muestran diferentes estadísticas, estamos
abusando de ella. Europa empieza a
notar los efectos de este consumo
incontrolado, y en España ya existen restricciones importantes, ligado
a un elevado precio de este bien tan
limitado e importante.
Ha llegado el momento de
un planteamiento global para cambiar los hábitos de consumo, siendo
estos, más racionales, más inteligentes, más solidarios y ligados a nuevas tecnologías como la implanta-
ción en los hogares de sistemas para
la recogida, almacenamiento y segunda distribución de aguas grises y
de lluvia.
Solo el 2,5% del agua del
planeta es agua dulce, en donde la
gran parte se encuentra en los cas-
quetes polares, embalses subterráneos o de difícil acceso, por lo tanto, existe un porcentaje muy reducido, en torno al 0,26% del agua total
del planeta apta para el consumo,
siendo esta, la que se encuentra en
los lagos, ríos y pozos accesibles,
los cuales dependen en su totalidad
de las precipitaciones. Este porcentaje cada vez es más reducido ya
que el agua que se puede utilizar
esta cada vez más contaminada.
En los países desarrollados,
el consumo medio por persona al
día es mucho más de lo necesario,
aproximadamente en Europa es de
unos 173 litros, mientras que en
España unos 140 litros como se
puede apreciar en la imagen.
Por lo tanto, podemos cambiar nuestra conducta en cuanto al
consumo de agua se refiere con un
consumo más responsable, y además, con la implantación de nuevas
tecnologías sostenibles para la arquitectura e industria basadas en el
reciclaje de agua tanto de aguas grises como para el agua de lluvia, y
que ayudan a un aumento considerable en el ciclo de vida de la vivienda.
Imagen 1. Consumo medio de agua por comunidad autónoma. .Ref: www.iagua.es
Desde siempre, el agua que
desaparece por el lavabo o por la
cisterna ha ido directamente a la red
de alcantarillado en la mayoría de
los hogares sin percatarnos de que
Nº04. Enero de 2015
Por otro lado, el agua de
lluvia siempre ha sido un recurso
que históricamente ha desempeñado un papel muy importante en
cualquier vivienda, por ejemplo, en
nuestro país, rara es la vivienda con
más de 100 años que no tenga su
propio aljibe. Ahora bien, fue a
principios del siglo XX cuando aparecieron las canalizaciones donde el
agua de lluvia pasó a un segundo
plano siendo reservada a situaciones
muy especiales.
Un incremento demográfico mundial está haciendo que la
demanda de agua esté creciendo de
forma exponencial, además de que
empiezan a haber zonas con una
escasez significativa, pudiéndose
recuperar la costumbre de aprovechar las aguas pluviales, así como la
implantación de nuevas tecnologías
en el tratamiento de aguas grises
procedentes de cisterna, ducha, lavabos… para usos domésticos tales
como lavadora, lavavajillas, la limpieza de casa, la cisterna del inodoro y el riego en general, casos en los
que la calidad del agua no precisa
ser apta para el consumo humano y
donde no es necesario el uso del
agua potable. Así pues, las aguas
grises y las aguas pluviales pueden
ser perfectamente utilizables para el
uso doméstico e industrial.
Los nuevos sistemas de recogida y aprovechamientos de aguas
están empezando a cobrar importancia en los últimos años. En el
norte de Europa, a pesar de disponer de modernos sistemas de canalización y potabilización de agua, están incentivando el uso de estas tecnologías, por ejemplo, Alemania
comenzó a subvencionar este tipo
de iniciativas desde la reunificación,
y centenares de miles de viviendas
disfrutan actualmente de estos equi-
37
PONER AQUÍ IMAGEN
Imagen 2. Evolución futura de la población de España. Ref: INE
PONER AQUÍ IMAGEN
Imagen 2. Evolución de la población mundial. Ref: www.eumed.net
pos. Todo ello a pesar de que son
países donde el ahorro de agua no
es tan importante como en el nuestro.
En España, no existe una
inercia que incentive la implantación de estas tecnologías innovadoras, por ello estamos a la cola de
Europa. Pero la creciente desertización de España está empezando a
provocar una mayor demanda de la
tecnología sobre recogida de aguas
pluviales, lo que supone directamente una importante oportunidad
de negocio.
En nuestro país, de forma
aproximada y de media, tenemos en
precipitaciones unos 640mm (l/m2)
con lo cual, instalando un sistema
de recogida de aguas pluviales con
un rendimiento aproximado del
80% en una casa de unos 100m2,
obtendríamos unos 51.200 litros de
ahorro de agua para diferentes usos
y de forma totalmente gratuita.
Son importantes las ventajas sobre la recogida de aguas pluviales. En primer lugar, se trata de
38
Nº04. Enero de 2015
nan con otras fuentes de suministro
de agua como por ejemplo la red
general en la mayoría de los casos.
Esto hace necesario incluir en la
instalación un sistema de control
que nos indique en cada momento
la cantidad de agua almacenada, y
que dé entrada a la de la red general
cuando sea necesario.
PONER AQUÍ IMAGEN
Imagen 3. Carácter de la precipitación, año 2013. Ref: Agencia Estatal de meteorología, Ministerio de Agricultura,
Alimentación y Medio Ambiente. (EH, extremadamente húmedo; MH, muy húmedo; H, húmedo; N, normal; S,
seco; MS, muy seco; ES, extremadamente seco)
Por otro lado, del agua que
se consume en una vivienda, entre
el 65-70% procede del cuarto de
baño, donde el 40% es de la cisterna. La instalación de tecnologías de
depuración de aguas grises en una
vivienda de 4 personas puede conllevar un ahorro de unos 90.000
litros al año.
agua debe ser recogida, en cambio
otras épocas donde el agua almacenada debe conservarse o incluso se
agota, además de, en el caso de España las precipitaciones están distribuidas de forma muy irregular, por
lo que el factor meteorológico es
muy importante. Es por ello, en
donde estas tecnologías se combi-
Los componentes de los
que constan este tipo de tecnologías
es muy sencilla a la vez de eficaz.
Además, dependiendo del área geográfica en la que se esté, se pueden
instalar distintos sistemas como recogida de pluviales o reciclaje de
agua, así como ambos conjuntamente si así se desea, todo ello
siempre depende la empresa instaladora y de las opciones que ofrezca a
sus clientes.
Dentro de las grandes ventajas, estos sistemas de pueden instalar tanto en viviendas para nueva
construcción como en viviendas ya
Estos nuevos
sistemas requieren una
pequeña instalación en
el hogar para su recogida, tratamiento, almacenamiento y distribución, además si se
desea, se puede instalar unos sistemas complementarios de depuración de agua para
ser apta para el uso
humano donde se tomen las precauciones
que sean necesarias y
requeridas.
Lógicamente,
existen épocas del año
donde llueve más y el
Imagen 4. Porcentaje de precipitaciones sobre el valor medio normal en el conjunto del año 2013. Ref: Agencia Estatal de meteorología, Ministerio de Agricultura, Alimentación y Medio Ambiente.
Nº04. Enero de 2015
39
Sistema de reciclaje de agua de
lluvia
uso como por ejemplo, el riego o
para la cisterna.
Como se puede apreciar, el
sistema de recogida de aguas pluviales consta de: área de captación,
que puede ser cualquier superficie
impermeable como por ejemplo, el
tejado; conductos, donde el agua
captada es dirigida al depósito a través de la inclinación del tejado y los
canalones; filtros, que evitan que en
depósito entren partículas peligrosas que pueda obstruir el sistema;
depósitos o aljibes, donde el agua
es almacenada para su nueva distribución y los cuales pueden estar en
los sótanos de las viviendas o enterrados en los jardines o ; sistemas
de control, donde se controla el
sistema atendiendo a posibles averías o simplemente alternando el
consumo del agua del depósito o de
la red general.
Como hemos visto esta tecnología se encuentra ante un mercado sin explotar en donde todo
apunta que en los próximos años
sufrirá un crecimiento importante.
Entre las grandes ventajas, nos encontramos ante una idea innovadora con alta captación de personas
Sistema de reciclaje de aguas
grises
El sistema es simple, parte
Imagen 5. Esquema del sistema de recolección de
agua de lluvia. Ref. www.sitiosolar.com
del agua que utilizamos para asearnos, ducharnos, limpieza… y la cual
dejamos correr por el desagüe es
reconducida hacia un deposito donde es depurada pasando por diferentes etapas, que pueden ser: Una
primera etapa de desengrase y
desasenado, donde se separan las
partículas de mayor tamaño; en una
segunda etapa se produce la degradación biológica y decantación,
donde se realiza una descomposición biológica de la materia orgánica; y en la tercera etapa se produce
el almacenaje y desinfección, que
elimina bacterias, virus y protozoos.
Pasada toda la fase tratamiento, el
agua es conducida para un segundo
Imagen 6. Esquema del sistema de reciclaje de aguas
grises. Ref. www.totagua.com
comprometidas con el medio ambiente y por supuesto, interesadas
en reducir su factura en consumo
de agua.
REFERENCIAS Y
BIBLIOGRAFÍA:
Imagen 7. Esquema de las distintas etapas de reciclaje de aguas grises según el modelo ecocicle (nº patente: P
200.800.444). Ref. www.totagua.com

Www.aemet.es

www.totaagua.com

Www.sitiosolar.com

blog.is-arquitectura.es
40
Nº04. Enero de 2015
EL FRÍO ARTIFICIAL
DAVID RUBIO BARBA. INGENIERO TÉCNICO INDUSTRIAL ESP. MECÁNICA
la carga térmica, donde se habrá que
dimensionar dicho sistema con sus
componentes principales (válvula de
expansión, condensador, compresor, y evaporador ), refrigerantes no
contaminantes y de amplio efecto
frigorífico y costes operativos del
sistema.
Historia
Imagen 1. Esquena clásico de un circuito frigorífico con sus principales componentes y elementos de seguridad. Fuente: www.tecnologia-industrial.es
Los denominados sistemas frigoríficos o sistemas de refrigeración corresponden a sistemas mecánicos
que utilizan propiedades termodinámicas de la materia para intercambiar energía térmica en forma de
calor entre dos o más focos, conforme se necesite. Están diseñados
principalmente para disminuir la
temperatura del producto almacenado en cámaras frigoríficas o cámaras de refrigeración, las cuales pue-
den servir para la conservación de
productos perecederos, fabricación
de hielo, procesos industriales diversos, tratamiento de materiales
etc. Para lograr un diseño adecuado
de estas cámaras frigoríficas han de
tenerse en cuenta una serie de parámetros como las temperaturas de
operación: (temperaturas de evaporación y condensación), capacidad
del sistema, generalmente denominada en KW definida en función de
El inicio de la producción de frío se
inició con la utilización de hielo natural, ya que se practicó mucho antes de construirse cualquier máquina térmica.
Los griegos y los romanos comprimían la nieve en pozos aislados con
pasto, paja y ramas de árboles. La
nieve comprimida se convertía en
hielo para ser usado en épocas de
mayor calor.
Otros escritos antiguos describen
cómo los egipcios, hindúes y otros
pueblos empleaban
Nº04. Enero de 2015
Imagen 2. Máquina frigorífica de 1775
Fuente: www.quo.es
procedimientos para producir hielo
artificialmente, en general parecidos
en sus principios. Se llenaban con
agua vasijas poco profundas de arcilla porosa u otro material análogo y
se colocaban sobre gruesos lechos
de paja durante la noche. Si las condiciones atmosféricas eran favorables: frío, aire seco y una noche sin
nubes, la pérdida de calor, debida a
la evaporación nocturna, originaba
la formación de finas capas de hielo
en la superficie.
El primer método artificial para
producir frío fue mediante mezclas
de refrigerantes.
En 1553 un médico español, aposentado en Roma, Blas Villafranca
se ocupaba del enfriamiento del
agua y el vino por medio de mezclas
refrigerantes, nombrando por primera vez la palabra refrigerar en el
sentido de lograr y mantener una
temperatura inferior a la del ambiente. En 1607 se descubrió que
podía utilizarse una mezcla de agua
con sal para congelar el agua.
En el siglo XVII, las mezclas refrigerantes son utilizadas en la investigación científica por Robert Boyle
(Castillo de Lios Mar 1627 – Londres 1691) y por el astrónomo físico
francés Philippe Laire (París 1677 1719), más tarde, en el siglo XVIII,
numerosos físicos y químicos em-
41
plean mezclas refrigerantes en
el laboratorio.
que funcionaba con un ciclo de aire
i el fluido no sufría cambio de fase.
Estas mezclas permitieron
experimentos a bajas temperaturas y así, en 1715, utilizando una mezcla de nieve y nitrato amónico, Fahrenheit
establecía el cero de su termómetro.
Ferdinand Carré desarrolló un sistema algo más complejo en 1859. Semejante de máquinas anteriores de
compresión, que utilizaron el aire
como líquido refrigerador, el equipo
de Carré contuvo el amoníaco rápidamente que se ampliaba. (El amoníaco en fase liquida en una temperatura mucho más baja que el agua,
absorbe más calor.) Los refrigeradores de Carré fueron utilizados extensamente, y la refrigeración de la
compresión del vapor se convirtió,
y sigue siendo, el método más extensamente usado para enfriamiento.
Hasta 1834, no se inventó el
primer sistema de compresión de
vapor, el ingeniero americano Jacob
Perkins inventó la máquina destinada a ser la base de la actual industria
de la refrigeración. Su patente, descrita como Improvement in the Apparatus and Means of Producing Ice and in
Cooling Liquids, hablaba de una máquina de compresión que trabajaba
en un ciclo cerrado. Utilizaba éter
que hervía en un evaporador, a baja
temperatura y presión, para congelar el agua. Luego el vapor de éter
obtenido se comprimía y condensaba a mayor temperatura y presión;
finalmente, el éter líquido del condensador se introducía, a través de
una válvula de expansión, dentro
del evaporador a baja presión, donde la temperatura descendía de nuevo a su valor inicial, completando
así el ciclo.
No obstante, se considera que la
primera máquina con éxito comercial fue inventada por John Gorrie
en 1844. La máquina de Gorrie difería de la de Perkins en el hecho de
Imagen 3. Croquis de un pozo de hielo romano
El amoníaco dio paso al dióxido de
azufre y al dióxido de carbono
mientras tanto continuaba la búsqueda de refrigerantes más seguros
y de mejor rendimiento. Esta búsqueda culminó en 1930 cuando
Thomas Midgley, Jr., de Dupont,
anunció el primer fluorocarbono, el
Freon-12, que condujo a la familia
que ha dominado la refrigeración
por compresión hasta que a finales
de los 80, su efecto sobre la capa de
ozono (descubierto por Rowland y
Molina en 1974) provocó que internacionalmente se haya acordado la
extinción de su uso, en un plazo
todavía poco claro, y que esté apareciendo una nueva familia de fluidos frigoríficos.
42
Nº04. Enero de 2015
transferido a la sustancia que pasa
por él convirtiéndose en energía de
flujo, aumentando su presión y
energía cinética impulsándola a
fluir.
Existen diferentes tipos de compresores como:
Imagen 4. Ciclo de refrigeración por compresión
Fuente: www.empresaeficiente.com
Sistemas de refrigeración por
compresión
La refrigeración por compresión es
un método que consiste en forzar
mecánicamente la circulación de un
refrigerante en un circuito cerrado
creando zonas de alta y baja presión
con el propósito de que el fluido
absorba calor en el evaporador y lo
ceda en el condensador.
El funcionamiento de una maquina
frigorífica por compresión consiste
en desplazar energía térmica en forma de calor entre dos puntos.
La refrigeración por compresión se
consigue evaporando un gas refrigerante en estado líquido a través de
un dispositivo de expansión dentro
de un intercambiador de calor, denominado evaporador. Para evaporarse, este requiere absorber calor
latente de vaporización. Durante el
cambio de estado el refrigerante en
estado de vapor absorbe energía
térmica del medio en contacto con
el evaporador, bien sea este medio
gaseoso o líquido. A esta cantidad
de calor contenido en el ambiente
se le denomina carga térmica.
Después de este intercambio energético, un compresor mecánico aumenta la presión del vapor para poder condensarlo dentro de otro in-
tercambiador de calor conocido
como condensador y hacerlo líquido de nuevo. Este aumento de presión, además, produce un aumento
en su temperatura. Para lograr el
cambio de estado del fluido refrigerante y producir el subenfriamiento del mismo es necesario
enfriarlo en el interior del condensador; esto suele hacerse por medio
de aire y/o agua dependiendo del
tipo de condensador, definido muchas veces en función del refrigerante. De esta manera, el refrigerante en estado líquido, puede evaporarse nuevamente a través de
la válvula de expansión y repetir
el ciclo de refrigeración.
·Compresores de tornillo: estos
compresores tienen husillos que
comprimen el gas a medida que entra en el evaporador. El compresor
de tornillo cuenta con un funcionamiento suave y requisitos mínimos
de mantenimiento, ya que generalmente estos compresores sólo necesitan cambios en el aceite, el filtro
de aceite y el separador de aire/aceite.
·Compresores alternativos: un compresor alternativo utiliza un mecanismo de pistón accionado por descargas con resorte de carga y pasadores para elevar la placa de la válvula de succión de su asiento, permitiendo que la unidad pueda ser
utilizada en cualquier relación de
presiones.
·Compresores de desplazamiento:
Elementos constructivos
- Compresor: Un com-
presor es una máquina
de fluido que está construida para aumentar la
presión y desplazar cierto tipo de fluidos llamados compresibles, tal
como lo son los gases y
los vapores. Esto se realiza a través de un intercambio de energía entre
la máquina y el fluido en
el cual el trabajo ejercido
por el compresor es
Imagen 5. Compresor
Fuente: www. Forofrio.blogspot.com
Nº04. Enero de 2015
43
ratura ambiente, respectivamente.
Imagen 6. Evaporador
Fuente: www.clubedarefrigeracao.com
opuestos, la compresión fuerza dentro el equilibrio de desplazamiento y
reduce la vibración en el interior del
compresor.
·Compresores centrífugos: comprimen el gas refrigerante a través de la
fuerza centrífuga creada por los rotores que giran a alta velocidad. Esta energía se envía a un difusor, que
convierte una porción de él en aumento de la presión. Esto se hace
mediante la ampliación de la región
del volumen de flujo para desacelerar la velocidad de flujo del fluido
energético.
calor, que en el caso de la refrigeración por lo general se
retira del ambiente que lo rodea.
Este fluido refrigerante en forma
gaseosa, en baja presión y temperatura, saldrá del evaporador al compresor, que comprimirá el fluido,
impulsándolo hacia el condensador.
En cuanto a tipos pueden ser de
placas, tubulares o de tubos con
aletas que precisan de un ventilador
para la circulación forzada de aire.
- Válvula de expansión: su funcionamiento normalmente termostático, consiste en un dispositivo de
expansión que tiene la capacidad de
generar la caída de presión necesaria
entre el condensador y el evapora-
- Condensador: Al igual que el evaporador, es un intercambiador de
calor , y sirve para disipar al exterior
del sistema de refrigeración el calor
absorbido en el ciclo. Durante el
proceso de compresión, se produce
naturalmente el aumento de la temperatura y la presión del fluido refrigerante. Para la continuidad de la
refrigeración, es necesario que este
gas se enfríe y se condense, transformándose en líquido.
El mecanismo de intercambio de
calor entre el fluido refrigerante y el
condensador se produce haciendo
pasar el aire, más frío, alrededor de
los tubos del condensador, más caliente, haciendo que el aire absorba
el calor a través del proceso de convección natural o estática.
En la condensación forzada ( proceso de convección forzado) se
utiliza un micro ventilador, cuya
principal ventaja es el aumento de la
capacidad de intercambio de calor
por el movimiento de aire forzado
por dicho ventilador en el condensador. Este proceso se aplica por lo
Los componentes necesarios para disponer de un sistema de refrigeración por compresión
son el compresor, evaporador, condensador, válvula de expansión y refrigerante.
- Evaporador: Al ser un intercambiador de calor, su función es transferir el calor del ambiente refrigerado al fluido refrigerante que está
circulando. Así, el fluido refrigerante, que está en estado líquido, se
convierte en vapor. Mientras tanto,
por haber absorbido el calor, el evaporador mantendrá una temperatura adecuada que se requiera en el
sistema.
El principio que explica su papel en
el sistema es que la evaporación de
cualquier líquido exige absorción de
dor en el sistema. Básicamente su
misión se restringe a dos funciones:
la de controlar el caudal de refrigerante en estado líquido que entra al
evaporador y la de sostener un sobrecalentamiento constante a la salida de este. Para realizar este cometido dispone de un bulbo sensor de
temperatura que se encarga de cerrar o abrir la válvula para así disminuir o aumentar el ingreso de refrigerante y su consecuente evaporación dentro del evaporador, lo que
implica una mayor o menor tempe-
general en los sistemas comerciales
Imagen 7. Válvula de expansión
Fuente : www.directindustry.com
44
Nº04. Enero de 2015
produce frío aprovechando las propiedades de ciertas sustancias que
absorben calor al cambiar de estado
líquido a gaseoso.
Imagen 8. Condensador
Fuente : spanish.alibaba.com
pequeños que requieren una mayor
capacidad de refrigeración.
- Líquido refrigerante: es un producto químico líquido o gas, fácilmente licuable, que se utiliza para
servir de medio transmisor de calor
entre otros dos en una máquina
térmica, y concretamente en aparatos de refrigeración.
Los refrigerantes más usados inicialmente eran los clorofluorocarbonos
R-12 y R22. Debido a las preocupaciones por sus efectos contaminantes en la capa de ozono, el los años
80 se comenzaron a sustituir por
otros refrigerantes menos nocivos.
· Calor específico lo más alto posible
· Volumen específico bajo para evitar grandes tamaños en las líneas de
aspiración y compresión.
· La temperatura de condensación
(a presión máxima) y ebullición (a
presión cercana a la atmosférica)
bajas.
· No deben ser líquidos inflamables,
corrosivos ni tóxicos.
Sistemas de refrigeración por
absorción
En la refrigeración por absorción se
A diferencia del sistema de compresión, donde el ciclo se hace mediante un compresor, en el caso de la
absorción, el ciclo se basa físicamente en la capacidad que tienen
algunas sustancias, como el bromuro de litio, de absorber otra sustancia, tal como el agua, en fase de vapor. No obstante, también se puede
conseguir con otras sustancias, como el amoníaco.
El ciclo más comúnmente empleado es el de agua-bromuro de litio
por tener mayor eficiencia.
En cuanto a su funcionamiento,
el agua (refrigerante), que se mueve
por un circuito a baja presión, pasa
al estado vapor en el evaporador. La
evaporación necesita calor, que obtiene en un intercambiador en el
que refrigera un fluido secundario
(normalmente, también agua). Tras
el evaporador, el bromuro de litio
absorbe el vapor de agua en el
La producción de R-12 cesó en Estados Unidos en 1995, empleando
el R-134a y ciertas mezclas (que no
atentan contra la capa de ozono) en
remplazo de los compuestos clorados. El R410a (comúnmente llamado por su nombre comercial Puron®) es una popular mezcla 50/50
de R-32 y R-125 que ha sustituido al
R-22.
Las características que debe tener
un refrigerante son las siguientes:
· Punto de congelación inferior a
cualquier temperatura que existe en
el sistema, para evitar congelaciones
en el evaporador.
· Densidad elevada
Imagen 9. Ciclo de refrigeración por absorción. Fuente: www.wkipedia.org
Nº04. Enero de 2015
45
absorbedor, produciendo una disolución de bromuro en agua. Esta
solución pasa al generador, donde
se separan disolvente y soluto mediante calor procedente de una
fuente externa; el agua va
al condensador, que es otro intercambiador donde cede la mayor
parte del calor recibido en el generador, y desde allí pasa de nuevo
al evaporador, a través de la válvula
de expansión; el bromuro, ahora
como solución concentrada en
agua, vuelve al absorbedor para
reiniciar el ciclo.
Al igual que en el ciclo de compresión, el sistema requiere una torre
de enfriamiento para disipar el calor
sobrante (suma del aportado por la
fuente externa y el extraído de los
locales o espacios refrigerados). El
fluido caloportador que va a la torre
circulará sucesivamente por dos
intercambiadores situados en el absorbedor y en el condensador.
Comparación de ambos sistemas
Ambas máquinas tienen sus ventajas e inconvenientes, los cuales se
tratarán de analizar en el siguiente
apartado.
En las máquinas por compresión, el
COP (parámetro de rendimiento),
se calcula como el coeficiente entre
la energía cedida en el evaporador y
el trabajo del compresor, es decir, la
energía obtenida entre la aportada.
Observando la imagen 6, el COP se
calcula de la siguiente forma:
COP
Calor extraído

Trabajo
Imagen 10. Ciclo de refrigeración por compresión.
Fuente: Instituto para la diversificación y el ahorro de energía
O lo que es lo mismo:
COP 
Entalpía 1  Entalpía 4
Entalpía 2  Entalpía 4
Sin embargo, para el ciclo de absorción se calcula con otra fórmula, ya
que la energía que se introduce no
es en forma de trabajo, si no en forma de calor:
COP 
de energía renovable como instalaciones solares o calderas de biomasa.
En la siguiente tabla se pueden ver
las ventajas e inconvenientes de cada sistema:
Efecto refrigeran te
Entrada calor
Las máquinas de absorción tienen
un rendimiento menor que las de
compresión, de hecho, necesitan
una temperatura de funcionamiento
superior a los 80º C para que el rendimiento no sea demasiado bajo, sin
embargo, su principal ventaja reside
en que si este calor es de muy bajo
coste, puede ser una alternativa mejor que las máquinas de compresión, por ejemplo, utilizando el calor residual en ciclos de cogenerción
o recibiendo este calor de fuentes
REFERENCIAS Y
BIBLIOGRAFÍA:
- “La Producción de Frío”. Ed.
SPUPV 2000.021.
- www. bibliotecnica.upc.es
- www.forofrio.com
- www.elclub de la refrigeracao.com
- www.twenergy.com
46
Nº04. Enero de 2015
CONTROL DE PARÁMETROS Y PRUEBAS DE
CARGA E INTEGRIDAD EN PILOTES IN SITU.
CARLOS SOTODOSOS MARTINSANZ. INGENIERO TÉCNICO OBRAS PÚBLICAS.
Se denomina pilote a un elemento
constructivo utilizado para la cimentación de obras, que permite
trasladar (por punta) o repartir (por
fuste) las cargas hasta un estrato
resistente del suelo cuando este se
encuentra a una profundidad tal que
hace inviable, técnica o económicamente, una cimentación más convencional mediante zapatas o losas
de cimentación. Se dice que los pilotes son in situ cuando la ejecución
completa se efectúa en su lugar de
emplazamiento definitivo.
 Control de parámetros.
La correcta ejecución del pilote incluyendo la limpieza y, en su caso,
el tratamiento de la punta son factores fundamentales que afectan a su
comportamiento y que deben tomarse en consideración para asegurar la validez de los métodos de
cálculo.
de la entubación, de los tubos sónicos, etc.
- Control del lodo.
- Tipos de terreno atravesados.
- Control del hormigón.
- Niveles de agua.
- Armaduras.
- Hormigones.
- Tiempos de perforación, colocación de armaduras y hormigonado.
- Observación de incidencias durante la excavación y el hormigonado.
Durante la ejecución se consideran
adecuados los controles siguientes,
s e g ú n l a no r m a UN E - E N
1536:2000 (tablas 6 a 11):
- Control del replanteo.
- Control de la excavación.
- Control de las armaduras.
En el control de vertido de hormigón, al comienzo del hormigonado,
el tubo Tremie no podrá descansar
sobre el fondo, sino que se debe
elevar unos 20 cm para permitir la
salida del hormigón.
 Pruebas de carga y de integri-
dad.
- ENSAYOS DE INTEGRIDAD
Los ensayos de integridad tienen
por objeto verificar la continuidad
del fuste del pilote y la resistencia
mecánica del hormigón.
Los pilotes ejecutados “in situ” se
controlarán durante la ejecución,
confeccionando un parte que contenga, al menos, los siguientes datos:
- Datos del pilote: Identificación,
tipo, diámetro, etc.
- Longitud de entubación en el caso
de ser entubado.
- Valores de las cotas del terreno, de
la cabeza del pilote, de la armadura,
Imagen 1. Esquema del funcionamiento del Ensayo de transferencia sónica. Fuente: www.geotecnika.com
Nº04. Enero de 2015
1. Ensayo de transparencia sónica.
El método de la transparencia sónica para el control de cimentaciones
consiste en el seguimiento a todo lo
largo del fuste del pilote o de la
pantalla, del tiempo que tarda en
propagarse una onda de presión
(onda sónica) desde un emisor a un
receptor que están colocados en
posiciones conocidas. Es el método
más usual para el control de la integridad de pilotes de gran diámetro y
pantallas in situ.
El ensayo se realiza introduciendo
las sondas emisora y receptora en
los tubos que se han instalado en
los pilotes o en los taladros que se
hayan perforado en el hormigón.
Las sondas se introducen por los
tubos previamente llenos de agua y
descenderán, manteniéndoles a nivel hasta la punta del pilote. Con las
sondas en el fondo y colocadas al
mismo nivel, se izan registrando a
intervalos constantes de profundidad, el tiempo que la onda ultrasónica tarda en recorrer la distancia
entre sondas, atravesando el hormigón que las separa. En un hormigón
homogéneo, la velocidad de propagación de las ondas de presión es
constante y varía, entre 3500 y 4000
m/s dependiendo de la calidad del
hormigón. Esta velocidad disminuye en zonas con diferentes características del material como coqueras
o inclusiones de terreno.
47
diante un martillo de mano. Estos
ensayos permiten controlar pilotes
u otros elementos estructurales
siempre que la geometría sea cilíndrica o prismática.
Ensayo Eco. El impulso mecánico
provocado con un martillo ligero de
mano genera un tren de ondas que
se transmite a lo largo del cilindro.
En el hormigón esta velocidad de
propagación varía entre los valores
de 3500 y 4000 m/s. Cuando hay
cambio geométrico o de características del material que constituye el
pilote o un cambio importante de la
rigidez del terreno, parte de la energía se refleja hacia la cabeza de éste.
El método se basa en el análisis de
la onda que se refleja (eco) hacia la
cabeza del pilote. La onda reflejada
permite obtener información de los
cambios físicos que se ha encontrado la onda generada con el martillo
al propagarse por el pilote.
Ensayo de impedancia mecánica. Es un método en el que se activa la cabeza del pilote con una fuerza conocida y analiza la respuesta
del pilote a cada una de las frecuencias de activación. La activación
puede causarse mediante la acción
de un vibrador a distintas frecuencias, o por la acción de un impacto
del que se analiza la respuesta a las
distintas frecuencias que lo componen. Actualmente el ensayo se mediante un impacto de martillo ligero.
En estos métodos impulsionales o
dinámicos sin embargo, el pilote es
Imagen 2 Esquema del funcionamiento del Ensayo de eco. Fuente: www.geotecnika.com
2. Ensayos de eco y de impedancia mecánica.
Los ensayos de eco y de impedancia
mecánica se basan en la respuesta
dinámica del pilote provocada por
una pequeña fuerza axial que se
aplica en la cabeza del pilote me-
Imagen 3. Esquema del funcionamiento del Ensayo de impedancia mecánica. Fuente: www.geotecnika.com
48
Nº04. Enero de 2015
movilizado con una fuerza dinámica
de corta duración. La fuerza aplicada con el martillo y la respuesta en
velocidad de la cabeza se analizan
en sus componentes en frecuencia
mediante un analizador de espectros. Las “técnicas impulsionales”
se desarrollaron por la necesidad de
disponer de equipos más ligeros y
rápidos que los vibratorios. El desarrollo también ha venido asociado a
la miniaturización de los componentes electrónicos y a la velocidad
de proceso informático.
 ENSAYOS DE CARGA.
Los ensayos de carga tienen por
objetivo obtener la capacidad de
carga del pilote.
1. Prueba de carga estática escalonada.
La prueba de carga estática escalonada consiste en someter al pilote a
esfuerzos que se aplican de forma
escalonada y creciente. Cada etapa
de carga debe mantenerse constante
durante un cierto periodo de tiempo, o hasta que el asiento haya virtualmente terminado o alcanzado el
límite prescrito. Para llevar a cabo el
ensayo es necesario contar con un
tren de carga y un sistema de reacción. El tren de carga es el encargado de aplicar al pilote de prueba los
escalones de carga previstos, y está
formado por un gato la placa de
asentamiento y el dispositivo de
medida elegido. Durante la prueba
se mide el asiento utilizando los
dispositivos de auscultación instalados en el pilote. Estos dispositivos
están vinculados a una viga de referencia situada a una distancia razonable. El análisis posterior de los
datos permite obtener la capacidad
resistente del elemento de cimentación. El método de carga estática
escalonada es el más indicado para
obtener el comportamiento carga-
PONER AQUÍ IMAGEN
Imagen 4. Esquema del funcionamiento de la Prueba de carga estática escalonada.
Fuente: www.geotecnika.com:
asiento de un pilote sometido a cargas de hasta 1,50 veces la solicitación del trabajo.
2. Prueba de carga de penetración a velocidad constante.
En este tipo de ensayo el pilote es
forzado a penetrar en el terreno a
velocidad constante, midiendo la
fuerza necesaria para ello. El ensayo
se mantiene hasta que se alcanza la
carga de prueba o el fallo del pilote.
El tren de cargas y los sistemas de
reacción son los mismos que en la
Prueba de carga estática Escalonada. La diferencia radica en la forma
de aplicación de la carga. La duración del ensayo no suele ser inferior
a 24 horas, sin considerar el tiempo
de preparación de la prueba. El ensayo es especialmente útil en suelos
cohesivos, en los que los pilotes
funcionan principalmente por fuste.
3. Prueba de carga estática bidireccional.
El método de ensayo se denomina
bidireccional porque la célula Osterberg trabaja simultáneamente en
dos direcciones: hacia arriba, contra
la resistencia del fuste, y hacia abajo
contra la resistencia de la punta.
Durante el ensayo, la resistencia por
debajo de la célula Osterberg suministra la reacción para movilizar la
resistencia de fuste, encima de la
célula Osterberg, y al mismo tiempo, la resistencia de fuste proporciona la reacción para movilizar la
resistencia de punta. Este principio
de funcionamiento permite registrar
y separar los datos de resistencia de
ambas direcciones y llevar a cabo el
ensayo hasta que se alcancen cualquiera de estas circunstancias:
- Valor límite de la capacidad de
resistencia por fuste.
Nº04. Enero de 2015
- Valor límite de la capacidad de
resistencia por punta.
- Capacidad máxima de la célula de
Osterberg instalada.
Las principales ventajas del método
del ensayo bidireccional son las siguientes:
- No se requieren estructuras de
reacción, pilotes de reacción o anclajes.
- Permite cuantificar de manera independiente la resistencia por fuste
y por punta del pilote.
- Registros automáticos de los datos.
- Altas capacidades de ensayo.
- Pilotes en agua, con condiciones
de acceso restringido o con nivel de
hormigonado muy bajo.
- Economía. La eficiencia económica es mayor a medida que la carga
aumenta.
49
4. Prueba de carga semiestática.
Las pruebas de carga semiestáticas
aplican la fuerza de compresión al
pilote durante un tiempo muy corto
(pruebas rápidas), del orden de 100
ms. Sin embargo, este tiempo es
muy superior al correspondiente a
las pruebas dinámicas, que suele ser
de unos pocos milisegundos. El
sistema de aplicación de la carga
consiste en una cámara de combustión en la que se produce la ignición
controlada de un combustible. La
fuerza generada levanta un pistón
sobre el que se apoyan unos contrapesos importantes, con pesos del
orden del 5-10% de la carga estática
de prueba. Por el principio de acción y reacción, una fuerza centrada
de igual magnitud comprime el pilote. La instrumentación se basa en
dos dispositivos: una célula de carga
que mide directamente la fuerza
aplicada y un sensor de desplazamientos por láser colocado en la
cabeza del pilote. El espacio de trabajo requerido es función de la
magnitud de la carga de prueba. El
método es rápido y permite realizar
un gran número de ensayos al día.
5. Prueba de carga dinámica.
Los métodos dinámicos se basan en
el estudio de la respuesta del pilote
al golpeo en su cabeza con un martillo. Para llevar a cabo estos ensayos se precisa un martillo de impacto que debe tener unas características acordes con el tipo de pilote que
Imagen 5. Esquema del funcionamiento de carga
estática bidireccional. Fuente: www.geotecnika.com
Imagen 6. Esquema funcionamiento de la Prueba
de carga semiestática. Fuente: www.geotecnika.com
se va a ensayar, de forma que se
movilice completamente la capacidad dinámica del pilote. En pilotes
prefabricados puede utilizarse el
mismo martillo de instalación,
mientras que en pilotes in situ se
requiere un martillo independiente.
El pilote se instrumenta en cabeza
con acelerómetros y extensómetros.
Una vez hecho el ensayo, la información registrada se analiza para
obtener, a partir de la teoría general
de ondas de presión, la resistencia
del pilote y su integridad. Las técnicas dinámicas ofrecen rendimientos
muy elevados: un ensayo dinámico
puede realizarse en 15 minutos en
un pilote prefabricado, y en 30 minutos, en un pilote in situ.
 Porcentaje de pilotes a ensa-
yar en obra.
Dada la vaguedad de la normativa
que contempla la realización de estos ensayos no destructivos de ci-
Imagen 7. Esquema de las tres fases de funcionamiento de la Prueba de carga dinámica.
Fuente: www.geotecnika.com
50
cimentaciones profundas, generalmente el número de pilotes a ensayar se indica en proyecto. A nivel de
proyecto, la decisión sobre el tipo
de control y número de ensayos a
realizar debería tener en cuenta una
serie de parámetros como son: la
categoría geotécnica de la obra, el
tamaño del pilote. Sin embargo, en
el documento se considera que realmente el factor más importante debería ser la experiencia y maquinaria
de que dispone la empresa de cimentación.
La referencia del número de pilotes
que se debería ensayar se hace utilizando documentos técnicos a nivel
internacional, pliegos de prescripciones técnicas, normas a nivel europeo, etc. A pesar de esto, es difícil
indicar un determinado porcentaje,
ya que, por ejemplo, en las normas
UNE-EN 1536 de pilotes perforados y UNE-EN 1538 de Murospantalla se citan los ensayos no destructivos de cimentaciones profundas, pero sin mencionar cuántos
elementos deben ensayarse, dejando
a criterio del Director de obra el
número de ellos.
En el nuevo Código Técnico de la
Edificación, el número de pilotes a
ensayar se fijará en los “Pliegos de
Prescripciones Técnicas Particulares” de los proyectos, aunque se
indica en él que al menos no debe
ser inferior a 1 de cada 20 pilotes,
salvo en el caso de pilotes aislados
con diámetro entre 500 y 1000 mm
que no debe ser inferior a 10 por
cada 20, y si el diámetro es mayor a
1000 mm, a 5 por cada 20 pilotes.
 Problemas de construcción.
Los tipos de defectos que pueden
Nº04. Enero de 2015
ocurrir en los pilotes o pantallas son
muy diversos y pueden producirse
por diferentes causas. Se realiza un
repaso sobre las causas más corrientes que provocan los defectos y sobre todo de las posibilidades de detección que presentan los distintos
métodos de auscultación. Se trata
además de enlazar las causas, con lo
que, para un método no destructivo, es un defecto. Los tipos de defectos tan diversos que se describen
(roturas en la cabeza, estricciones,
cortes, desprendimientos, puntas
contaminadas, etc.) pueden ser producidos por diferentes causas en
distintos tipos de pilotes, presentando posteriormente las mismas características cuando se realiza una
excavación alrededor del pilote o en
un sondeo con recuperación de testigo.
En referencia a la etapa de hormigonado, se han considerado las causas comunes de defectos relacionados con esta fase, como son las siguientes:
- Suministro irregular de hormigón
que puede incluso llegar a producir
un curado antes de lo previsto dentro del Tremie o en el entorno de la
armadura.
- Puesta en obra de hormigón mal
formulado, con baja trabajabilidad o
fácilmente segregable. En caso de
utilizar hormigones con poca maniobrabilidad, también se producen
defectos en el recubrimiento de las
armaduras.
- Evolución de la consistencia del
hormigón en el tiempo, lo que conlleva una inapropiada trabajabilidad
del hormigón durante toda la fase
del hormigonado.
- Inapropiada técnica de hormigonado con tubería Tremie y hormigón sumergido.
- Separación entre Tremies en el
hormigonado de pantallas.
 Inspecciones
complementarias y reparaciones.
Las soluciones que se pueden adoptar ante un defecto en un pilote son
muy variadas.
Imagen 8. Fotografía de un fallo en un pilote
probablemente debido a deficiencias en el hormigonado o en el vibrado del hormigón. Fuente:
www.mandua.com
También es necesario realizar un
importante control del hormigón
utilizado y de la fase de hormigonado, ya que suele ser la causa más
importante de defectos.
Desde un simple recálculo de la
cimentación redistribuyendo las
cargas en los otros pilotes íntegros
del encepado y permitiendo mayores esfuerzos, hasta la construcción
de un pilote colindante o próximo
al defectuoso, pasando por las inyecciones de reparación.
Cuando se detecta una heterogeneidad, la primera pregunta es si la zo-
Nº04. Enero de 2015
na presuntamente defectuosa está a
poca profundidad o quedará accesible en algún momento, como en las
pantallas. Si los defectos están a
poca profundidad, mediante excavación pueden subsanarse con descabezados complementarios, saneos, recrecidos, etc.
Cuando no sea sencillo realizar una
excavación alrededor por encontrarse profundo el defecto detectado, y
se necesite confirmar las características del material que lo compone,
se pueden realizar sondeos con recuperación de testigo. Como condicionantes generales, se puede indicar que estos sondeos tienen que
realizarse con rotaciones muy lentas
a la altura de la heterogeneidad a
investigar. Así mismo, habrá que
evitar realizar maniobras a las profundidades de inspección, extrayendo en la medida de lo posible todo
el espesor de la heterogeneidad en
un testigo, entre dos maniobras. La
descripción del testigo y valoración
del material extraído tiene que co-
51
rrer a cargo del personal especializado, ya que el testigo no representará
fielmente el estado del material en la
propia heterogeneidad, al haber sido
afectado por la propia perforación y
extracción. De esta forma, el empleo de agua en la perforación favorecerá la pérdida de finos en materiales ya desvelados de por sí.
Para inspeccionar el sondeo en toda
su profundidad, y en especial en la
zona afectada por la anomalía es
muy interesante y da muy buenos
resultados (con bajo coste) descender una cámara de TV o de vídeo
por el sondeo realizado. Este tipo
de inspecciones nos darán mucha
información para programar una
reparación. Otra prueba que se puede realizar sobre el sondeo realizado
es efectuar ensayos de permeabilidad tipo Lugeon. Cerrando con válvulas a distintas profundidades del
sondeo es posible analizar la permeabilidad y descarga en profundidad de la anomalía, pudiendo valorarse la continuidad de la anomalía
y, en su caso, la inyección que se
ejecutará.
Las inyecciones se presentan como
una técnica que permite tratar un
gran número de las patologías de
defectos que se detectan con las
técnicas no destructivas, aunque, sin
embargo, no todo lo solucionan.
Hay cortes de pilotes que pueden
repararse, por ejemplo, con barras o
micropilotes en su interior, y habrá
que estudiar cada caso.
REFERENCIAS Y
BIBLIOGRAFÍA:
 Textos:
- “Cimentaciones de estructuras”,
Clarence W. Dunham. Ed: Mc
Graw Hill.
- Recomendaciones para la
Ejecución e Interpretación de
Ensayos de Integridad de Pilotes y
Pantallas “In Situ”. Monografías del
CEDEX.
- Código Técnico de la Edificación
(CTE).
- “Proyecto de Estructuras de
H o rm i gó n c o n A rm a d u r a s
Industrializadas”. INTEMAC.
- Guía Técnica de Seguridad
AETESS.
- Catálogo Pilotes In Situ. Terratest.
- Jornadas Técnicas SEMSIGAETESS 8ª Sesión “Pilotes de
Gran Diámetro”.
 Imágenes:
www.insur2010.com
www.mandua.com
www.geotecnika.com
Imagen 9. Fotografía del reconocimiento de la continuidad de un pilote mediante sondeos con recuperación de testigo continuo . Fuente: www.insur2010.com
52
Nº04. Enero de 2015
IMPLANTACIÓN DE PARQUES EÓLICOS
FERNANDO ABAD BARRAL. INGENIERO EN ELECTRÓNICA
Introducción
El mundo necesita un suministro de energía limpia y
sostenible cada vez mayor. Necesita energía moderna
que promueva el desarrollo sostenible y una mayor
prosperidad para todos los habitantes del planeta. Esa
energía, en gran parte, la puede proporcionar la energía
eólica, la energía del futuro. Pero para ello, es necesario
promover la creación de parques eólicos para un eficiente aprovechamiento de la energía del viento.
El presente trabajo tiene como objetivo detallar los
aspectos técnicos para la implantación de un parque
eólico. Para ello se debe analizar la zona bajo estudio,
que tiene que venir caracterizada por su alto potencial
eólico, teniendo en cuenta su orografía y sus curvas de
nivel, así como la rugosidad del terreno y las características del viento y demás aspectos relevantes que se tienen en consideración para el desarrollo de cualquier
proyecto eólico. Desde un punto de visto económico, y
con el objetivo de conseguir el mayor rendimiento, es
necesario realizar una comparativa entre modelos de
aerogeneradores en función de la potencia que se debe
instalar, teniendo en cuenta sus curvas de potencia, de
duración del velocidad, de duración de potencia, etc., y
estimando la producción anual de energía y por tanto, el
beneficio bruto, en función de las características del
viento en el emplazamiento. Desde un punto de vista
técnico y empleando software especializado (el software
WAsP es un claro ejemplo), se debe analizar la distribución de los aerogeneradores considerando la dirección
del viento predominante, aspectos medioambientales
(impacto visual y contaminación acústica), efecto de las
estelas, y por supuesto, las zonas donde se obtiene un
mayor aprovechamiento de la energía cinética del viento.
Con ello se logra un compromiso entre la parte técnica
y económica del proyecto, tan importante en la era en la
que nos encontramos, cuya finalidad es la de maximizar
la captación de energía pero sin perder de vista las posibilidades que ofrece el mercado en el diseño de aerogeneradores, seleccionando aquél que presente el mejor
binomio rendimiento-coste. Obviamente, se deja para
trabajos futuros, profundizar en el estudio económico
de este tipo de proyectos, considerando parámetros
económicos que estimen la rentabilidad y viabilidad del
proyecto y aseguren un beneficio sostenible.
Selección del Emplazamiento
El proceso para seleccionar un emplazamiento de una
central eólica debe hacerse de forma sistemática e implica la ejecución de varias etapas. En primer lugar, es necesario determinar las áreas geográficas candidatas, lo
que supone analizar los datos meteorológicos regionales
publicados, la accesibilidad desde carreteras, la proximidad de líneas eléctricas, descartando zonas protegidas y
teniendo en cuenta las características topográficas. Una
vez seleccionadas las áreas candidatas, se analiza en detalle cada una de ellas, investigando la existencia de datos meteorológicos que puedan facilitar distintas fuentes. Por ejemplo, un fuente común de consulta es el
Imagen 1. Mapa eólico de la zona bajo estudio.
Fuente: “www.atlaseolico.idae.es”
Nº04. Enero de 2015
53
Instituto para la Diversificación y Ahorro de la Energía,
IDEA, a través de su atlas eólico.
Una fase fundamental en todo proyecto eólico es la
estimación del potencial eólico de cada emplazamiento.
Es de vital importancia medir y documentar las características del viento de un determinado emplazamiento y
por ello se deberán obtener los siguientes datos:
Velocidad
Función
media del viento.
de distribución de velocidad.
 Ley
de variación de la velocidad del viento con la
altura.
Intensidad
de la turbulencia.
Las medidas realizadas de la velocidad del viento en un
determinado lugar durante un intervalo de al menos un
año suelen estar bien representadas mediante una función de distribución de Weibull, que proporciona información sobre la probabilidad de que la velocidad del
viento v supere un cierto valor u,
  u k 
P ( v  u )  exp     
  c  
( 2)
donde k>0 es un factor de forma y c>0 un factor de
escala. Ambos, vienen definidos desde la estación meteorológica y dependen de la altura al que se realiza la
medida.
Rosa
de los vientos (distribución de direcciones del
viento) y distribución de velocidades en cada dirección.
 Valores
extremos de la velocidad del viento y estadísticas sobre ráfagas.
 Información
sobre efectos topográficos en la distribución espacial de la velocidad y la intensidad de
la turbulencia.
Tabla 1. Información media anual de la estación meteorológica.
Fuente: “www.atlaseolico.es”.
A partir de la función de distribución de Weibull, derivándola con respecto a u, se determina la correspondiente función de densidad de probabilidad f(u),
  u k 
exp     
(3)
  c  
Si se conoce la función de densidad de probabilidad
f(u) en un determinado lugar, se puede calcular la probabilidad de que la velocidad v del viento se encuentre
comprendida entre dos valores arbitrarios u1 y u2 simf (u ) 
Imagen 2. Rosa de los vientos de una estación meteorológica.
Fuente: Proyecto Ing. Fernando Abad Barral.
Por definición, la potencia generada por un aerogenerador es directamente proporcional al cubo de la velocidad del viento.
Pv 
dEc 1
  . A.V 3
dt
2
(1)
Por ello, es importante que el emplazamiento tenga
una velocidad media del viento relativamente elevada,
teniendo en cuenta que la velocidad de arranque de una
aeroturbina tripala suele estar en torno a los 3 o 4 m/s.
k u
 
cc
k 1
plemente integrando la densidad de probabilidad en
el intervalo deseado. En el caso de la distribución de
u2
Weibull,
P(u1  v  u2 )   f (u)du (4)
u1
Todas estas funciones y probabilidades representan las
herramientas fundamentales que todo ingeniero debe
utilizar en el estudio del emplazamiento. Obviamente, la
materia prima es el viento y es necesario garantizar que
superará una cierta velocidad durante un determinado
número de horas en el periodo de un año. Para calcular
el tiempo en horas, en un periodo de un año, durante el
cual la velocidad del viento v superará una cierta velocidad uref, basta multiplicar la ecuación de probabilidad
(4) por el número total de horas de un año, 8760 horas.
54
Nº04. Enero de 2015
Otro aspecto determinante es la variación de la velocidad con la altura. La capa límite atmosférica es la capa
de la troposfera en contacto con la superficie terrestre
en la que los efectos de fricción sobre el terreno son
importantes y la velocidad del viento aumenta con la
altura. Esta variación de la velocidad del viento con la
pográficas de éste y por lo tanto existen diferentes grados de rugosidad en función del tipo de terreno.
El carácter turbulento del flujo de viento da lugar a
fluctuaciones de pequeña escala que hacen que las condiciones de entrada del flujo al rotor no sean uniformes.
Unido a esto, el efecto de la interferencia entre aeroturbinas suele ser importante, ya que las utilizadas en la
actualidad tienen una potencia nominal típica de entre
500 y 2000 kW, con diámetros de entre 40 y 80 m, y
para poder producir energía de forma significativa es
necesario agrupar las máquinas en parques eólicos. Por
ello, hay que buscar de forma adecuada el emplazamiento de las máquinas, de manera que se aprovechen aquellos lugares con más potencial eólico, situando en ellos
el mayor número posible de aerogeneradores, minimizando al mismo tiempo los efectos nocivos asociados a
la interferencia.
Imagen 3. Perfil logarítmico típico de la velocidad del viento en
función de la altura.
Fuente: Energía Eólica: Fundamentos y Tecnología. UNED.
altura es una característica importante que debe tenerse
en cuenta a la hora de diseñar y emplazar aeroturbinas,
ya que elevar el rotor de la turbina supone aprovechar
un mayor potencial eólico. Obviamente, el aumento de
la altura de la torre supone también que el aerogenerador quede sometido a mayores cargas, encareciendo su
diseño. El análisis de cómo varia la velocidad del viento
se puede realizar a partir de la ecuación del perfil logarítmico de la velocidad.
Imagen 4. Campo de vorticidad para el plano central del rotor..
Fuente: “www.dicyt.com”
En la ecuación (5), z es la altura a la que se desea determinar la velocidad, z0 es la rugosidad del terreno y Ψ
es una función que depende del grado de estabilidad
atmosférica (Ψ=0 en el caso de atmósfera neutra). La
rugosidad del terreno depende de las características to-
Dichos efectos son diversos. La máquina eólica extrae
energía cinética del viento, por lo que éste es menos
intenso en su estela, dando lugar a que la producción
energética de una máquina situada a sotavento de otra
disminuya. En la estela el nivel de turbulencia es mayor
que en el viento libre, dando lugar a que aumenten las
cargas no permanentes sobre la máquina a sotavento, y
a que su vida se acorte, fundamentalmente debido al
fenómeno de fatiga.
Tabla 2. Grado de rugosidad en función del terreno..
Fuente: Energía Eólica; Fundamentos y Tecnología.
Existen diversas estrategias para aminorar el efecto de
las estelas. Una de ellas consiste en desalinear con la
dirección del viento el eje de giro de la turbina que genera la estela. El aerogenerador desalineado produce
algo menos de potencia, pero la turbina de aguas abajo
no pierde ninguna y sufriría menos por fatiga generada
 z
u  2,5u *  ln

 z0



( 5)
Nº04. Enero de 2015
por la turbulencia, con lo que el efecto neto sobre el
parque puede ser beneficioso. Otra estrategia consiste
en cambiar el ángulo de paso del aerogenerador que
produce la estela. Igualmente, el aerogenerador que crea
la estela producirá menos potencia, pero las máquinas
aguas abajo se verían menos afectadas.
Selección de Aerogeneradores
A la hora de realizar un estudio sobre los posibles modelos de aerogeneradores que pueden resultar interesantes para constituir el parque eólico, se deben tener en
cuenta diferentes factores.
En primer lugar, se debe conocer la potencia total que
se desea instalar, que condicionará el numero de aerogeneradores que serán necesarios instalar para alcanzar
dicha potencia. En este sentido, es fundamental evaluar
si es más rentable instalar un menor número de aeroturbinas con mayor potencia nominal, y por tanto más caros, o por el contrario adquirir un mayor número de
aerogeneradores de menor potencia nominal y que resulten más económicos. Evidentemente, se deberá pensar en los costes de mantenimiento y operación de cada
aerogenerador y que lógicamente, son proporcionales al
número de aerogeneradores instalados.
Todo aerogenerador viene caracterizado por su curva
de potencia. En la imagen 5 se pueden distinguir los
diferentes modos de funcionamiento de la máquina. El
rotor permanece parado cuando la velocidad del viento
es inferior a la velocidad de arranque, va, o bien cuando
la velocidad del viento alcanza valores superiores a la
velocidad de parada, vp. El aerogenerador se encuentra
en carga parcial cuando la potencia generada es menor
que la nominal y se corresponde a velocidades de viento
55
comprendidas entre va y vn, siendo esta última la velocidad nominal del aerogenerador. Finalmente, la aeroturbina se encuentra a plena carga cuando la velocidad del
viento está comprendida entre vn y vp, para la cual el aerogenerador produce una potencia aproximadamente
constante e igual a la nominal.
Es importante conocer los modos de funcionamiento
del aerogenerador, ya que en función de las características del emplazamiento será más idóneo instalar uno u
otro modelo. El calculo del tiempo en horas durante el
cual la velocidad del viento v superará una cierta velocidad uref juega un papel fundamental en la selección de
aerogeneradores. Si, según la función de probabilidad
de la ecuación (4), se obtiene un mayor número de horas anuales en las que la velocidad del viento, por ejemplo, es de 13 m/s, convendrá instalar un aerogenerador
que tenga una velocidad nominal cercana a dicho valor
y no superior, ya que en ese caso, nunca alcanzaría la
potencia nominal y se obtendría un rendimiento por
debajo del deseado. Por tanto, es necesario realizar un
correcto dimensionamiento de las necesidades que requiere el parque eólico, sin perder de vista el potencial
eólico que presenta y cual es el modelo de aerogenerador que puede obtener un mejor rendimiento.
Además de los aspectos puramente técnicos, también
es necesario valorar los costes que implicaría instalar
cada aerogenerador. Para poder realizar una correcta
elección del tipo de turbina se debe llevar a cabo un
balance económico en el que se tenga en cuenta los ingresos y costes generados por el parque eólico. Por un
lado se detallan los costes de inversión. El coste de inversión de un parque eólico incluye los desembolsos
que hay que realizar para desarrollar completamente la
instalación, incluyendo la compra de los equipos, la
“Los aerogeneradores son la principal
inversión, dado que suponen casi las tres
cuartas partes del coste total.”
construcción del propio parque y todos los conceptos
relacionados con la parte burocrática y legal.
Imagen 5. Curvas de potencia para diferentes modelos de aerogenerador.
Fuente: Proyecto Energía Eólica. Ing. Fernando Abad Barral.
Por lo tanto, se debe valorar si los ingresos anuales
obtenidos con un modelo de aerogenerador son rentables respecto el número de turbinas que se deben instalar, estimando los costes de operación y mantenimiento.
Instalar un menor número de aeroturbinas requiere una
56
Nº04. Enero de 2015
extensión de terreno mucho menor y esto implica un
menor impacto medioambiental y una reducción de los
costes de conexión a red y de obra civil.
Potencial Eólico y Distribución
de Aerogeneradores
Dentro de un parque eólico, un punto clave para el
buen aprovechamiento de la energía del viento es la colocación de los aerogeneradores. Los aerogeneradores
extraen parte de la energía cinética del viento y la convierten en energía eléctrica, por lo que aguas abajo de la
aeroturbina el viento tiene menor energía que aguas
arriba. Este hecho influye en la posición relativa de los
aerogeneradores, puesto que en determinadas direcciones del viento éstos se encuentran situados en la estela
de otro u otros. Esta situación propicia pérdidas en la
generación de energía, por lo que un parque eólico con
N aerogeneradores no produce la misma energía que
producirían N aerogeneradores aislados con las mismas
condiciones de viento. Las pérdidas debidas a su distribución son función del espaciado entre turbinas, de su
modo de operación, de la densidad de turbinas en el
parque, de la intensidad de la turbulencia y de la rosa de
los vientos en el emplazamiento.
Una distancia de separación típica entre aerogeneradores es de 8 ó 10 diámetros de la aeroturbina en la dirección del viento, y de 3 en dirección perpendicular a ésta,
configuración para la cual las pérdidas son menores del
10%. La velocidad del viento en la estela se recupera al
interaccionar con el viento que rodea el tubo de corrien-
te que pasa por el rotor.
Para realizar una correcta distribución de las máquinas
se realizan diferentes estudios mediante software especializado. Uno de los programas más empleados a nivel
mundial es WAsP, desarrollado por el Instituto de Investigaciones Científicas DTU RISØ. Este software
permite crear un mapa orográfico de la zona, digitalizando sus curvas de nivel e indicando la rugosidad del
terreno, tal y como se muestra en la imagen 6.
A partir de este mapa, se sitúa la estación meteorológica y se introduce los datos de viento, obteniendo la información del emplazamiento: rosa de los vientos, representación de la función de Weibull y los datos de
velocidad de viento.
Imagen 7. Datos estación meteorológica en el entorno WAsP.
Fuente: WAsP software.
Una vez se ha introducido toda la información referente al emplazamiento, es necesario crear el modelo de
aerogenerador que ha sido elegido para el proyecto eólico. Es importante indicar todas las características de la
máquina para realizar una simulación congruente y
Imagen 10. Mecanismo de orientación.
Fuente: www.opex-energy.com.
Imagen 6. Mapa topográfico creador con el editor de WAsP.
Fuente: WAsP software.
Imagen 8. Características técnicas del aerogenerador.
Fuente: WAsP software.
Nº04. Enero de 2015
57
evaluar cual es su mejor emplazamiento en el terreno.
Una vez que se ha cargado el modelo de aeroturbina
en el proyecto se procede a ubicar los aerogeneradores
en el emplazamiento. La manera más eficiente es crearse inicialmente un mallado de la zona de interés en los
que se calculan las variables que se precisan en el estudio en un plano paralelo al suelo. El mallado se ha configurado teniendo en cuenta el diámetro de la turbina y
considerando que los aerogeneradores deben separarse
al menos 3 diámetros.
Tabla 3. Datos estadísticos por aeroturbina.
Fuente: Proyecto Ing. Fernando Abad Barral.
taje de la superficie del terreno alrededor de un punto
de interés en el que se supera una determinada pendiente límite (lo ideal es que fuese nulo, lo que indica que el
flujo no se desprende), la velocidad, la energía bruta y
“El factor de capacidad determina el grado
de aprovechamiento de cada aerogenerador.
En España, el valor típico de este
parámetro está comprendido entre 0,25 y
0,3 para que un aerogenerador sea rentable”
Imagen 9. Ubicación de los aerogeneradores en la zona de estudio.
Fuente: WAsP software.
Los mapas donde se ubican finalmente los aerogeneradores suelen configurarse para que presenten una escala
de colores para que al representar la producción energética expresada en GWh/año, se visualicen, en el caso de
la imagen 9, de color rojo las celdas que se estiman rentables eólicamente y por tanto, en cada una de ellas se
podría instalar un aerogenerador teniendo en cuenta la
dirección del viento.
Una vez se han ubicado los aerogeneradores es importante analizar el rendimiento de cada aerogenerador,
comprobando la energía teórica que produce y sus pérdidas. En la tabla 3 se desglosa la información detallada
por turbina de un proyecto eólico. Se indica la elevación
a la que se encuentra, el RIX, definido como el porcen-
neta que produce y las pérdidas debidas a la interferencia con otras turbinas. De esta manera se puede realizar
una estimación de la energía total producida por el parque eólico.
Finalmente, se debe calcular el factor de capacidad,
que se define como el cociente entre la energía producida por un aerogenerador en un determinado emplazamiento durante un periodo de tiempo y la máxima que
podría producir si estuviese funcionando a la potencia
nominal durante el mismo periodo.
FC 
E
Pn * 8760
(6)
Un valor de FC=0,32 se interpreta como que el aerogenerador está funcionando a plena potencia durante un
32% del tiempo.
REFERENCIAS Y BIBLIOGRAFÍA:
- Sistemas eólicos de producción de energía eléctrica. J.L. Rodríguez Amenedo, J.C. Burgos Díaz.. Editorial Rueda.
- Energía eólica: Fundamentos y Tecnología. ETS de Ingenieros Industriales, UNED.
- www.waso.dk . The Wind Atlas Analysis and Application Program.
58
Nº04. Enero de 2015
Un proyecto para tener la energía del Sol en la Tierra (ITER)
BORJA GAVILÁ GARCÍA. INGENIERO QUÍMICO Y TÉCNICO SUPERIOR EN PREVENCIÓN DE RIESGOS.
El proyecto para la construcción de
un reactor termonuclear experimental (conocido como ITER) se encuentra en fase activa de confección
de piezas. Ya se están levantando en
Francia las paredes del edificio que
albergará el reactor y los participantes del proyecto discutieron el pasado mes en San Petersburgo los últimos logros en este ámbito.
Los recursos se agotan y resulta necesario buscar fuentes de energía
alternativa. Los científicos persiguen
desde hace décadas la fisión nuclear,
lo que podría hacer significar una
energía infinita. Este esfuerzo no lo
puede realizar ningún país por sí
solo y resulta imprescindible la colaboración internacional.
Hace 60 años, concretamente el 1º
de noviembre de 1952, en el atolón
Enewetak (de las islas Marshall) los
estadounidenses hicieron explotar la
primera bomba de hidrógeno de la
historia. Diez años más tarde, la
URSS sacudió el planeta con una
prueba termonuclear de una poten-
Imagen 1. El ITER es un reactor termonuclear experimental que cuenta con la participación de Rusia, la UE,
India, China y EE UU
cia nunca vista hasta entonces: 50
megatones, lo que equivale a 50
millones de toneladas de explosivo.
Desde entonces, las cargas termonucleares forman parte del arsenal
de los ejércitos más importantes del
mundo.
Sin embargo el proceso termonuclear en sí, no es únicamente un
arma de terrible capacidad destruc-
tora, sino también un genio bueno
que podría salvar a nuestra civilización.
Las reservas naturales de energía de
la tierra desaparecen delante de
nuestros ojos.
Eric Galimov,
miembro de la Academia de Ciencias de Rusia (RAN), está convencido de que "las reservas de petróleo,
gas y uranio durarán aproximada-
Nº04. Enero de 2015
aproximadamente unos 100 años,
por eso es necesario buscar fuentes
alternativas de energía.
La humanidad necesita la energía
nuclear, solo que tiene que ser segura y estable. La síntesis termonuclear controlada, que utiliza la energía atómica basándose en la fusión
de núcleos ligeros, por ejemplo el
hidrógeno o sus isótopos: el deuterio y el tritio, es una fuente infinita.
La reacción nuclear y la termonuclear tienen en común la enorme
cantidad de energía que desprenden.
La diferencia es que la segunda es
unas cuatro veces mayor.
Pero si la bomba de hidrógeno se
creó y se probó rápidamente, la re-
59
solución del problema de la reacción termonuclear controlada es
algo que intentaron los mejores
científicos de la URSS y los EE UU
y en lo que siguen trabajando prestigiosos equipos de científicos.
Colaboración internacional
A comienzos de los 70 se comprendió que la construcción de un reactor termonuclear tan solo era posible gracias mediante una amplia
colaboración internacional.
En septiembre de 1985, la URSS
propuso a una serie de países desarrollar conjuntamente el reactor
ITER (Reactor Termonuclear Experimental Internacional). A comienzos de los 90 científicos de
Imagen 2. Desarrollo de las obras del ITER.
Rusia, EE UU, Japón y Europa hicieron un boceto del proyecto.
En julio de 1992, avalado por el
Organismo Internacional de Energía Atómica, un grupo internacional
de trabajo compuesto por físicos e
ingenieros en el que había especialistas de Canadá y China, llegó a la
realización técnica del proyecto.
El principal objetivo del proyecto
ITER era la demostración científica
y técnica de la posibilidad de obtener energía a partir de la reacción de
síntesis (fusión) de los isótopos de
hidrógeno, deuterio y tritio. La potencia termonuclear prevista del
reactor ITER es de alrededor de
500 MW con temperaturas del plasma de 100 millones de grados.
60
Nº04. Enero de 2015
En noviembre de 2006 todos los
participantes del proyecto ITER: la
Unión Europea, Rusia, Japón,
EEUU, China, Corea e India, firmaron un acuerdo para la creación de
una organización internacional de
energía termonuclear, con el fin de
llevar a cabo el proyecto ITER. La
etapa de construcción del reactor
comenzó en 2007.
La participación de Rusia en este
proyecto consiste en el diseño, fabricación y entrega a las instalaciones, que se encuentran en la ciudad
francesa de Cadarache, de parte del
equipamiento tecnológico fundamental, así como una aportación
monetaria que será de alrededor de
un 10% del coste total de construcción. La misma participación tienen
EE UU, China, India, Corea y Japón.
Esta previsto que la construcción,
cuyo coste inicial se valoró en 5.000
millones de euros, termine en 2016.
Sin embargo la suma propuesta
subió paulatinamente hasta alcanzar
el doble de la original, mientras que
aproximadamente 500 millones de
watios, juegan un papel fundamental.
Actualmente en San Petersburgo, en
la sede del Instituto Efremov, de
investigación de instrumental electrofísico, se llevan a cabo pruebas
del equipamiento especial para el
ITER. La agencia rusa del ITER
comunicó que espera tener los resultados para finales de noviembre.
Evgueni Velijov, presidente del
Centro de investigación "Instituto
Kurchakovski" y miembro de la
Academia de Ciencias de Rusia, comunicó que el país está cumpliendo
con éxito sus obligaciones con el
proyecto.
Imagen 4. El criostato es una de los componentes
principales del ITER.. Fuente: iter.org
la fecha de inicio de los experimentos se desplazó hasta el año 2020.
Los especialistas rusos, que fueron
los primeros en conseguir realizar
un proyecto de construcción termonuclear real cuasi-estacionario con
una potencia térmica calculada de
A finales de julio de 2009, el entonces Presidente Dmitri Medvédev
subrayó los trabajos realizados en
fusión termonuclear, en un encuentro con periodistas que tuvo lugar
en el antiguo centro de secreto de
pruebas nucleares "Arzamas-16" en
las afueras de Nizhni Nóvgorod.
"La síntesis termonuclear", señaló
Dmitri Medvedev, "es un proyecto
Imagen 3. El SCTV puede ser transportado fácilmente por aire, mas o carretera.. Fuente: iter.org
a largo plazo cuya aplicación comercial se espera obtener para el 20402050. El escenario más probable de
dominio de la energía termonuclear
presupone tres etapas: el dominio
de los procesos de quema prolongada de vida larga de la reacción termonuclear, la demostración práctica
de la producción de energía eléctrica
y la creación de una central termonuclear industrial".
Según declaraciones de Evgueni
Velijov, académico ruso, “es muy
difícil que la primera central termonuclear se cree antes de 25 años.
Para 2050 debería comenzar la explotación comercial de la energía
termonuclear con una potencia de 1
GW en Rusia y para finales de siglo
se deberían producir 100 GW de
esta energía, lo que supone más del
40 % de la potencia energética rusa
actual”.
Mientras tanto, el todopoderoso
genio termonuclear sigue escondido
y mientras esté sin domar deberá
Nº04. Enero de 2015
61
El sistema de imán esta formado
por 18 superconductores toroidales
y 6 bobinas de campo poloidales,
un solenoide central, y un conjunto
de bobinas de corrección que confinan magnéticamente, forman y controlan el plasma dentro de la cámara
de vacío . Bobinas adicionales serán
implementadas para mitigar el
ELM, que son explosiones altamente energéticas cerca del borde del
plasma que, si se deja sin control,
hacen que pierda parte de su energía.
Imagen 5. Los 48 elementos del sistema generan un campo magnético alrededor de 200000 veces mayor
que el de la tierra.
guardarse en un "refugio" seguro.
ITER se basa en el concepto de
"tokamak" de confinamiento magnético, en el que el plasma está contenido en una cámara de vacío en
forma de rosquilla. El combustible
una mezcla de deuterio y tritio, dos
isótopos del hidrógeno se calienta a
temperaturas superiores a los 150
millones de ° C, formando un plasma caliente. Los fuertes campos
magnéticos se utilizan para mantener el plasma lejos de las paredes;
éstos son producidos por bobinas
superconductoras que rodean el
recipiente, y por una corriente eléctrica impulsada a través del plasma.
Las diferentes partes que forman el
dispositivo son las siguientes:

Criostato
El criostato es una gran estructura
El poder de los campos magnéticos
necesarios para confinar el plasma
en el recipiente de vacío ITER es
extrema. Para una máxima eficiencia y para limitar el consumo de
energía, ITER utiliza imanes superconductores que pierden su resistencia cuando se enfrían a temperaturas muy bajas.
de acero, acero que rodea la cámara
de vacío y superconductores magnéticos, proporcionando un ambiente a muy bajas temperaturas de
vacío. Se compone de una sola
construcción de pared cilíndrica,
reforzada por nervaduras horizontales y verticales. El criostato mide
29,3 metros de altura y 28,6 metros
de ancho.
El material superconductor tanto
para el solenoide central y las bobinas de campo toroidal está diseñado
para lograr un funcionamiento a alta
campo magnético (13 Tesla), y es
una aleación especial hecha de niobio y estaño (Nb3Sn). Las bobinas
de campo poloidales y las bobinas
de corrección usan una aleación de ,
niobio-titanio (NbTi)
Cuenta con infinidad de aberturas,
algunas tan grandes como cuatro
metros de diámetro, que permiten
acceder a al sistema. Se utilizan
grandes fuelles entre el criostato y
el recipiente de vacío para permitir
la contracción y expansión térmica
en las estructuras. El criostato está
completamente rodeada por una
capa de hormigón conocida como
la BioShield. Por encima del criostato, el BioShield es de dos metros de
espesor.


Imanes
Manta
La manta cubre las superficies interiores de la cámara de vacío , proporcionando protección al recipiente y los superconductores de los
flujos de calor y de neutrones de la
reacción de fusión. Los neutrones
se retrasan en la manta en la que su
energía cinética se transforma en
energía térmica y se recoge por los
refrigerantes. En una planta de
energía de fusión, esta energía se
utiliza para la producción de energía
eléctrica.
62
Nº04. Enero de 2015
Para los fines de mantenimiento en
el interior de la cámara de vacío, la
pared manta es modular. Se compone de 440 segmentos individuales,
cada uno de 1x1.5 metros y un peso de hasta 4,6 toneladas. Cada segmento tiene una primera pared desmontable que se enfrenta directamente al plasma y elimina la carga
de calor de este, y un escudo manta
semipermanente dedicado al blindaje de neutrones.
La manta ITER es uno de los componentes más críticos y técnicamente desafiantes en ITER. Debido a
sus propiedades físicas únicas, el
berilio ha sido elegido como el elemento para cubrir la primera pared.
El resto de la manta escudo será
hecho de cobre de alta resistencia y
acero inoxidable.
Imagen 6. Solenoide central.
En una etapa posterior del proyecto
ITER, se utilizaran nuevos materiales para probar la producción de
tritio. Se requerirá una central de
fusión futura para conseguir la producción de grandes cantidades de
energía.

Diagnóstico
Un amplio sistema de diagnóstico
se instalará en la máquina del ITER
para proporcionar las medidas necesarias para controlar, evaluar y optimizar el rendimiento de plasma en
el ITER y para fomentar la comprensión de la física del plasma. Estos incluyen mediciones de temperatura, densidad, concentración de
impurezas y de partículas y energía
tiempos de confinamiento.
El sistema estará compuesto por
cerca de 50 sistemas de medición
individuales procedentes de toda la
gama de técnicas de diagnóstico de
plasma modernas, como el láser,
rayos X, cámaras, monitores de
neutrones de impureza, espectró-
Imagen 7.. Módulos manta de protección.
metros de partículas, medidores de
presión y análisis de gases y fibras
ópticas.
Imagen 8. Alrededor de 50 sistemas se encargaran
de la medición.
Nº04. Enero de 2015
63
ANÁLISIS DE LOS RIESGOS BIOLOGICOS EN LA
EDIFICACIÓN: ANIMALES E INSECTOS I
DANIEL MERCHÁN GUERRERO. INGENIERO DE EDIFICACION.
ra.
Tiene hábitos alimenticios carnívoros, comiendo desde otros insectos a la comida de los humanos.
Nº de Imagen. Explicación. Si la imagen no es
original nuestra debemos poner:
Ref: el origen, la web, el libro, etc.
Continuando a partir del anterior
artículo en el que se expusieron las
plantas y hongos más perjudiciales
para la salud de los trabajadores en
el ámbito de la construcción y restauración, además de las medidas
preventivas a llevar a cabo, en el
presente artículo se pretende continuar, aumentando la lista ya propuesta con los insectos y animales.
Hay que tener en cuenta que las
avispas, al contrario que las abejas,
no mueren al picar, por lo que podemos recibir varias picaduras de
un mismo ejemplar. Estos insectos,
debido al veneno que inyectan al
morder producen pápulas de unos
10ml de diámetro, con dolor quemante y escozor.
El mayor grupo de riesgo a la
picadura de avispas son las personas
alérgicas al veneno de la avispa, ya
que pueden llegar a producir incluso
la muerte. Los efectos más graves
son cuando las picaduras se producen en cuello, cabeza y cara. Además la gravedad depende del núme-
AVISPAS
La Véspula Germánica Es originaria del Mediterráneo, abarcando
Europa, Norte de África y zonas
templadas de Asia. Posteriormente
ha sido introducida en América,
Australia y nueva Zelanda, siendo
considerada como una plaga.
Posee un cuerpo con bandas
amarillas y negras, presentando un
abdomen abultado con poca cintu-
2. Véspula Germánica o avispa común. farodevigo.es
ro de picaduras, edad y exposición
anterior a ellas.
Debido a su tamaño, No es posible la medición cuantitativa del número de avispas que puede haber en
una zona, pero si es posible una
deducción del número aproximado
de ellas si se descubre un nido o
avispero en las inmediaciones al
lugar de trabajo, ya que se estima
por lo general que en cada nido
puede haber más de 250 nuevas
reinas y hasta 10.000 Obreras.
A la hora de concretar los ambientes y condiciones para su crecimiento, hay que tener en cuenta que
la Véspula germánica es un insecto
social, por lo tanto tiene su lugar de
reunión alrededor de flores, plantas,
junto a fuentes de agua como son
64
Piscinas o pozos. Y principalmente
cuando encuentran un foco de comida (comidas al exterior, etc.). Una
fuerte atracción sienten las avispas
hacia el ruido de motores o bombas
que generen electricidad (grupos
electrógenos) los cuales son muy
comunes en el sector de la construcción.
Normalmente se establecen en
grietas de paredes, árboles agujereados o en los falsos techos de las
casas. No siendo agresiva normalmente con el ser humano, aunque
se vuelve más violenta en otoño
cuando se acerca el fin de su ciclo,
teniendo también comportamientos
agresivos contra otros animales.
Bajo estas pautas de comportamiento, cualquier trabajo en exteriores sobre todo a los cercanos a
fuentes de agua en las fechas de
máxima actividad del agente. Además de la identificación visual de
estos insectos, también es posible
determinar su presencia en el lugar
de trabajo por la identificación de
sus nidos o avisperos: Son de color
gris de unos 90 cm. de máximo,
aunque lo normal es que sean de
menos de 10 cm. Se ubican, por lo
general, en las esquinas del techo de
los edificios. Muchas veces, los panales son colgantes, y otras tantas
son subterráneos.
Hay numerosas estrategias para
su control y eliminación, estando La utilización de las trampas
para avispas en el exterior es un
método muy eficaz para matarlas,
consiste en un recipiente donde se
introduce un atrayente que produce
un potente cebo líquido para estos
insectos, contiene un agujero por
donde se introducen las avispas,
buscando el cebo caen en el líquido
y se ahogan. Las colocaremos cerca
de nosotros para reducir el riesgo
Nº04. Enero de 2015
de picadura o en lugares donde asiduamente se encuentren. Es la mejor solución. Por otra parte, aunque
menos recomendable, como en general los biocidas, Se pueden usar
utilizar repelentes para avispas, de
composición química o natural, es
una forma de mantenerlos alejados,
pero no de matarlos. Estas sustancias activas que se encuentran en los
repelentes resultan desagradables
para las avispas que se alejan al mínimo contacto. Los podemos encontrar en cremas y lociones para
utilización cutánea y también en
líquidos o spray ubicándolos en los
lugares de paso o de molestia de
estos insectos. Hay unos productos
específicos que se rocían en barbacoas, bordes de piscinas o plantas,
pero hay que destacar que suelen
ser activos químicos,
con piretrinas o permetrinas, lo que
puede constituir un peligro para las
personas más débiles o alérgicas.
ABEJAS
La Apis mellífera pertenece a la
familia de los himenópteros, (del
griego hinen=membrana), insectos
de alas translúcidas y membranosas,
como la avispa y la hormiga. Vive
en todas partes del mundo, salvo en
regiones donde el inviernos es demasiado frio. Existen numerosas
especies de abejas, pero las que llamamos abejas de miel son las más
comunes. Nacen todas de un huevo
minúsculo puesto y depositado por
la reina en un alvéolo. Poseen varios
tonos de amarillo, naranja y negro;
cabeza antena y patas de color negro. La obrera mide entre 1,5 y 2
cm. de largo.
Al ser una especie social, esta
constituida por tres castas o clases:
3. panal de abejas. http://www.defondos.com/
reinas, zánganos (machos) y obreras
(hembras estériles). Las colonias
cuentan con entre 20.000-50.000
abejas. La función principal de las
obreras es la de alimentar las larvas,
pero también se ocupan de guardar
las reservas de miel que serán utilizadas por todos los miembros de la
colonia en situaciones adversas. El
panal, constituido por los nidos de
las abejas es también construido por
las obreras, con muchas celdas de
cera. La vida de las obreras no pasa
de 45 días. Por otro lado la reina
pone los huevos de la colonia, poniendo diariamente entre 1500 y
2000 huevos. Las obreras también
se ocupan de proteger los huevos y
larvas; los zánganos se limitan a copular a la reina.
Los efectos sobre la salud humana de las abejas se hace evidente en
sus picaduras: la picadura de la abeja
más común en primavera y verano,
ya que hay más polen y las abejas
están más activas. La reacción habitual de una picadura es un dolor
intenso en el momento, formándose una pápula (levantamiento rojizo
de la piel con un punto central donde picó el insecto.)
Nº04. Enero de 2015
Puede haber edema progresivo en
las 24 horas siguientes y luego una
sensación de picor tremendo durante los próximos días. El verdadero
problema surge cuando el individuo, que recibe la picadura, tiene
alergia a los himenópteros (abejas o
avispas). El 10% de la población
padece reacciones ante la picadura
de un himenóptero, aunque sólo
una pequeña parte experimenta una
reacción sistemática grave, es decir,
un cuadro de anafilaxia. En España,
según los datos de la sociedad española de alergología e inmunología
clínica (SEAIC), alrededor de
800.000 personas son alérgicas al
veneno de estos insectos. La tasa de
mortalidad se estima en un 0,4%
por millón de habitantes, lo que
significa que entre 15 y 20 personas
podrían morir cada año por ésta
causa. Por último, Los casos de
alergia a veneno de himenóptera
deben ser valorados por el médico
de la empresa si da lugar. Se indicará un tratamiento específico.
65
No es posible realizar una medición rápida de la población a la que
se está expuesto de abejas, se puede
tener en consideración que el riesgo
de picadura aumenta si los trabajos
se realizan en las condiciones propicias para su mayor actividad.
(Época del año, temperaturas, cercanía a vegetación en flor…). Otra
manera de intuir el aumento de riesgo es el descubrimiento de un panal, en el que de promedio pueden
habitar unas 20.000 abejas.
Pueden ser encontradas en casi
todo el territorio nacional. Están
inactivas durante casi todo el año,
pero entre los meses de mayo y septiembre (siendo julio y agosto los
meses con mayor incidencia) las
abejas aumentan su actividad y por
ende el número de picaduras. Esto
es debido, en primer lugar a las altas
temperaturas que ponen en gran
actividad a estos insectos y al florecimiento de la mayoría de las plantas.
Con éstas premisas se pueden
delimitar en gran medida como
afectados los trabajos en exteriores
con vegetación en flor en las cercanías. Por lo tanto, Si se descubre un
panal cerca debemos acotar la zona
para que nadie se acerque y llamar a
las autoridades competentes para
que se hagan cargo del problema.
En el caso de realizarse el daño,
si el aguijón permanece en la piel
(algo normal en las abejas), cepillar
o raspar la zona hacia los lados con
la uña o con una tarjeta de plástico.
No intentar extraerlo con las pinzas
pues se inyectará más veneno al
cuerpo. Ésta acción inmediata es
debida, a que el aguijón se queda
clavado en el tejido junto con parte
del intestino de la abeja, y si es así,
la glándula del veneno continuará
contrayéndose periódicamente hasta
inocularlo todo. A continuación
refrescar la zona con una compresa
fría para reducir el dolor y la hinchazón. Mantener la compresa durante 10 minutos hasta que el dolor
se atenúe y dejar reposar la zona
afectada. También se puede frotar la
zona con un algodón con bicarbonato, vinagre de vino o con desodorante, que ayudará a neutralizar el
veneno y a disminuir la sensación
de quemazón.
Durante las horas siguientes se
debe ingerir algún analgésico. En
caso de presentarse uno de los siguientes síntomas, acudir sin demora al centro médico más cercano o
llamar a emergencias: dificultad para
tragar o respirar, vómitos o náuseas,
mareos, malestar general, hinchazón
de muñecas o tobillos.
4. Momento justo en el que una abeja pierde su aguijón después de picar a un humano. abc.es
Las protecciones o el control a su
exposición pasa por no tocar el panal ni molestarlas, acotar la zona de
trabajo si hay evidencias de su
66
Nº04. Enero de 2015
Presencia. Por último, si disponemos de operarios alérgicos, es necesario disponer de unos monos de
trabajo de manga larga, adrenalina
inyectable, antiinflamatorio en aerosol y pinzas para extraer el veneno.
Anidan en cualquier parte donde
hayan depósitos de agua en estancada, sobre todo si se hallan bajo
sombra, como son: macetas, depósitos, cubos, floreros, charcos, y
demás objetos q contengan agua.
MOSQUITOS
El Aedes albopictus o mosquito
tigre, es un mosquito es de fácil
identificación debido a su coloración negra con ornamentación blanca en tórax y abdomen, patas a bandas negras y blancas y una conspicua línea blanca longitudinal central
en tórax y cabeza. Comprende unas
longitudes que van de unos 5 a 10
mm. la hembra posee una trompa
fina y alargada (como la mayoría de
especies de mosquitos), la probóscide, que a modo de estilete o lanza,
utiliza para picar y extraer sangre de
vertebrados, en especial mamíferos
y aves, que aprovecha para el desarrollo de los huevos. Los machos de
la especie, se alimentan de néctar.
Las enfermedades que puede
transmitir Aedes albopictus son muy
raras o han sido erradicadas en Es-
5. Picadura de mosquito tigre que ha producido
alergia cutánea. http://farm4.static.flickr.com/
Por lo tanto, en zona urbana, éste
mosquito habita cerca de los puntos
de agua de origen humano. Basándose en éstas condiciones de vida
del mosquito, estarán afectados los
trabajos en interiores y exteriores,
sobre todo si están cerca de depósitos grandes de agua al aire libre,
como fuentes.
mentarse
En caso de pocadura, aplicar sobre la zona afectada corticoides en
crema, que deben formar parte del
botiquín básico para el verano. Pero
atención, no se deben utilizar antihistamínicos en crema, pues producen alergias y sensibilizaciones con
frecuencia.
Hay que evitar siempre el rascado
de la zona y si las picaduras son
múltiples o producen mucho picor,
se pueden aplicar compresas frías
y/o tomar antihistamínicos por vía
oral. (Recordar que los antihistamínicos necesitan receta médica). Si se
toman ésta medidas, no se debe
consumir alcohol (En el caso que
aparezcan síntomas como dolor de
estómago, fiebres, desmayos, confusión, dificultades para respirar u
opresión de garganta o pecho, quiere decir que el afectado tiene muchas posibilidades de ser alérgico a
las picaduras de mosquitos. Si el
trabajador padece uno de estos síntomas, es importante acudir a una
farmacia para obtener los consejos
de su farmacéutico o incluso ir di-
“la reciente introducción y expansión del mosquito abre la posibilidad para
la aparición de posibles brotes de infección a personas inmunodeprimidas. ”
paña, pero la reciente introducción
y expansión abre la posibilidad para
la aparición de posibles brotes de
infección a personas inmunodeprimidas. Las enfermedades que pueden ser potencialmente transmitidas
por Aedes albopictus son: La fiebre
amarilla, el dengue, la encefalitis
equina del este, el virus del Nilo
Occidental y la fiebre Chikungunya.
El control de los mosquitos tigre
se basa en la gestión del medio y los
métodos químicos. La eliminación
adecuada de los residuos sólidos y la
mejora de las prácticas de almacenamiento de agua, entre ellas la cobertura de los envases para evitar que
los mosquitos hembra pongan sus
huevos son medidas que deben fo-
rectamente a urgencias, ya que
cuanto más se deje la extensión de
la alergia y la reacción del cuerpo
provocada por ésta, más agresivo
tendrá que ser el tratamiento. En
los casos graves, los corticoides son
usados como complemento a la
administración de adrenalina subcutánea y la difenhidramina endovenosa, que suelen responder como
tratamientos de urgencia. No hay
Nº04. Enero de 2015
Considerando que los mosquitos
son insectos estacionales y que el
territorio español es proclive a su
cría debido al clima cálido, evitar de
manera absoluta la presencia de éstos insectos de cría es imposible, ya
controlar los focos de cría resulta
imposible y que son insectos capaces de desplazamientos. Por ello
podría recomendarse: Eliminar en
lo posible los focos de cría, como
son los depósitos de agua estancada
al aire libre en las cercanías, uso con
extrema precaución de insecticidas,
ropa de trabajo de manga larga, uso
de repelentes en aparatos portátiles
que ahuyentan mosquitos en zonas
de 4,5x4,5 metros, suficientes para
algunos puestos de trabajo.
ARAÑAS
La Loxosceles Rufescens o araña reclusa del mediterráneo, es una pequeña araña de 10 a 15 mm, color
marrón y una mancha característica
en el cefalotórax en forma de violín.
La Loxosceles rufescens es la única que
puede encontrarse en España, aunque es originaria de Sudamérica.
67
Es una araña poco agresiva, aunque si puede llegar a morder si se la
provoca. Son de hábitos nocturnos
y se esconden en sitios oscuros.
Además, Debido a que no forman
poblaciones si no que viven de forma aislada, no es necesario medir la
población de Loxoles Rufenses.
El peligro de la Loxosceles rufescens
radica en el veneno inyectado por
su mordedura. El veneno actúa localmente en la zona de la mordedura, desencadenando una inflamación
intensa que puede llegar incluso a la
necrosis.
La Loxosceles rufescens no puede ser considerada una araña doméstica. Habita normalmente en las
zonas cálidas de la península ibérica,
ya que necesita al menos una temperatura ambiente de 15 ºC para
poder vivir a la intemperie. Por otra
parte, no es inusual encontrarla en
viviendas buscando el calor necesario en los meses de más frío.
Suele habitar en lugares estrechos, como falsos techos, detrás de
cuadros, huecos de carpintería, debajo de mobiliario, etc. Por lo tanto,
serán de especial riesgo, los trabajos
7. Necrosis producida por la picadura de una araña
reclusa marrón.
emedicinehealth.com
que discurran en obras de restauración y rehabilitación en interiores.
Generalmente, la forma más eficaz de controlar su población es la
del uso de trampas pegajosas en
lugares estrechos u oscuros y por
donde se crea que puedan circular
éstas arañas. Si la picadura es muy
grave, se recomienda reposo en la
zona de la picadura, con asepsia del
punto de inoculación, analgesia según dolor, toxoide antitetánico si el
trabajador no está vacunado, antihistamínicos, y antibióticos en caso
de infección. Para su prevención se
puede recomendar poco más que el
uso de guantes y realizar inspecciones en lugares oscuros y solitarios.
REFERENCIAS Y
BIBLIOGRAFÍA:¡
Frutos García García, José.
Biología y control de plagas
u r b a n a s .
E d i t
INTERAMERICANA McGAWHILL.1994.
- Zuheir I. Fakhri, D. Zannini,
J.A. Rioux y B. Juminer, David A.
Warrell. Capítulo de Riesgos
biológicos. Enciclopedia de seguridad
y salud en el trabajo. Edit. Chantal
6. Araña reclusa. Única araña realmente peligrosa que puede afectar a los trabajadores en España.
http://sevilla.abc.es/
68
Nº04. Enero de 2015
Y EL MES QUE VIENE...
PILAS de Combustible.
Análisis de los riesgos biológicos en la edificación: ANIMALES E
INSECTOS II
Sistemas de cogeneración:
EL CICLO COMBINADO
El FRACKING y la bajada
del precio del petróleo
Introducción al mecanizado por ULTRASONIDOS
Nº04. Enero de 2015
69
Y EL MES QUE VIENE...
RECALCES profundos
para cimentaciones superficiales
FTH La revolución
de las redes
COMBUSTIBLES
FÓSILES
Curado de fibra de
carbono en
AUTOCLAVE en la industria aeroespacial
ALCALÁ DE
HENARES
Patrimonio de la humanidad
B7
ISSN 2386-639X
9 772386 639006
04
Descargar