FISICA Mecánica 1 INTRODUCCIÓN Mecánica, rama de la física que se ocupa del movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones modernas del movimiento comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la velocidad, la aceleración, la masa y la fuerza. Sin embargo, hasta hace unos 400 años el movimiento se explicaba desde un punto de vista muy distinto. Por ejemplo, los científicos razonaban —siguiendo las ideas del filósofo y científico griego Aristóteles— que una bala de cañón cae porque su posición natural está en el suelo; el Sol, la Luna y las estrellas describen círculos alrededor de la Tierra porque los cuerpos celestes se mueven por naturaleza en círculos perfectos. El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores de su tiempo y empezó a analizar el movimiento a partir de la distancia recorrida desde un punto de partida y del tiempo transcurrido. Demostró que la velocidad de los objetos que caen aumenta continuamente durante su caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la resistencia del aire (rozamiento). El matemático y físico británico Isaac Newton mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la aceleración. Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el movimiento). 2 CINEMÁTICA La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus causas. La velocidad (la tasa de variación de la posición) se define como la distancia recorrida dividida entre el intervalo de tiempo. La magnitud de la velocidad se denomina celeridad, y puede medirse en unidades como kilómetros por hora, metros por segundo, ... La aceleración se define como la tasa de variación de la velocidad: el cambio de la velocidad dividido entre el tiempo en que se produce. Por tanto, la aceleración tiene magnitud, dirección y sentido, y se mide en unidades del tipo metros por segundo cada segundo. En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el objeto es muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea un punto llamado centro de masas, cuyo movimiento puede considerarse característico de todo el objeto. Si el objeto gira, muchas veces conviene describir su rotación en torno a un eje que pasa por el centro de masas. Existen varios tipos especiales de movimiento fáciles de describir. En primer lugar, aquél en el que la velocidad es constante. En el caso más sencillo, la velocidad podría ser nula, y la posición no cambiaría en el intervalo de tiempo considerado. Si la velocidad es constante, la velocidad media (o promedio) es igual a la velocidad en cualquier instante determinado. Si el tiempo t se mide con un reloj que se pone en marcha con t = 0, la distancia d recorrida a velocidad constante v será igual al producto de la velocidad por el tiempo: d = vt Otro tipo especial de movimiento es aquél en el que se mantiene constante la aceleración. Como la velocidad varía, hay que definir la velocidad instantánea, que es la velocidad en un instante determinado. En el caso de una aceleración a constante, considerando una velocidad inicial nula (v = 0 en t = 0), la velocidad instantánea transcurrido el tiempo t será v = at La distancia recorrida durante ese tiempo será d = at2 Esta ecuación muestra una característica importante: la distancia depende del cuadrado del tiempo (t2, o “t al cuadrado”, es la forma breve de escribir t × t). Un objeto pesado que cae libremente (sin influencia de la fricción del aire) cerca de la superficie de la Tierra experimenta una aceleración constante. En este caso, la aceleración es aproximadamente de 9,8 m/s cada segundo. Al final del primer segundo, una pelota habría caído 4,9 m y tendría una velocidad de 9,8 m/s. Al final del siguiente segundo, la pelota habría caído 19,6 m y tendría una velocidad de 19,6 m/s. El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve con celeridad constante pero la aceleración forma siempre un ángulo recto con su velocidad, se desplazará en un círculo. La aceleración está dirigida hacia el centro del círculo y se denomina aceleración normal o centrípeta (véase Fuerza centrípeta). En el caso de un objeto que se desplaza a velocidad v en un círculo de radio r, la aceleración centrípeta es a = v2/r. Otro tipo de movimiento sencillo que se observa frecuentemente es el de una pelota que se lanza al aire formando un ángulo con la horizontal. Debido a la gravedad, la pelota experimenta una aceleración constante dirigida hacia abajo que primero reduce la velocidad vertical hacia arriba que tenía al principio y después aumenta su velocidad hacia abajo mientras cae hacia el suelo. Entretanto, la componente horizontal de la velocidad inicial permanece constante (si se prescinde de la resistencia del aire), lo que hace que la pelota se desplace a velocidad constante en dirección horizontal hasta que alcanza el suelo. Las componentes vertical y horizontal del movimiento son independientes, y se pueden analizar por separado. La trayectoria de la pelota resulta ser una parábola. Véase Balística. 3 DINÁMICA Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa. Puede medirse en función de uno de estos dos efectos: una fuerza puede deformar algo, como un muelle, o acelerar un objeto. El primer efecto puede utilizarse para calibrar la escala de un muelle, que a su vez puede emplearse para medir la magnitud de otras fuerzas: cuanto mayor sea la fuerza F, mayor será el alargamiento del muelle x. En muchos muelles, y dentro de un rango de fuerzas limitado, es proporcional a la fuerza: F = kx donde k es una constante que depende del material y dimensiones del muelle. 4 VECTORES Si un objeto está en equilibrio, la fuerza total ejercida sobre él debe ser cero. Un libro colocado sobre una mesa es atraído hacia abajo por la atracción gravitacional de la Tierra y es empujado hacia arriba por la repulsión molecular de la mesa. La suma de las fuerzas es cero; el libro está en equilibrio. Para calcular la fuerza total, hay que sumar las fuerzas como vectores. 5 MOMENTO DE UNA FUERZA Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan sobre un objeto deben cancelarse mutuamente, y lo mismo debe ocurrir con las componentes verticales. Esta condición es necesaria para el equilibrio, pero no es suficiente. Por ejemplo, si una persona coloca un libro de pie sobre una mesa y lo empuja igual de fuerte con una mano en un sentido y con la otra en el sentido opuesto, el libro permanecerá en reposo si las manos están una frente a otra. (El resultado total es que el libro se comprime). Pero si una mano está cerca de la parte superior del libro y la otra mano cerca de la parte inferior, el libro caerá sobre la mesa. Para que haya equilibrio también es necesario que la suma de los momentos en torno a cualquier eje sea cero. El momento de una fuerza es el producto de dicha fuerza por la distancia perpendicular a un determinado eje de giro. Cuando se aplica una fuerza a una puerta pesada para abrirla, la fuerza se ejerce perpendicularmente a la puerta y a la máxima distancia de las bisagras. Así se logra un momento máximo. Si se empujara la puerta con la misma fuerza en un punto situado a medio camino entre el tirador y las bisagras, la magnitud del momento sería la mitad. Si la fuerza se aplicara de forma paralela a la puerta (es decir, de canto), el momento sería nulo. Para que un objeto esté en equilibrio, los momentos dextrógiros (a derechas) en torno a todo eje deben cancelarse con los momentos levógiros (a izquierdas) en torno a ese eje. Puede demostrarse que si los momentos se cancelan para un eje determinado, se cancelan para todos los ejes. 6 LAS TRES LEYES DEL MOVIMIENTO DE NEWTON Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las bases de la dinámica. 1 La primera ley La primera ley de Newton afirma que si la suma vectorial de las fuerzas que actúan sobre un objeto es cero, el objeto permanecerá en reposo o seguirá moviéndose a velocidad constante. El que la fuerza ejercida sobre un objeto sea cero no significa necesariamente que su velocidad sea cero. Si no está sometido a ninguna fuerza (incluido el rozamiento), un objeto en movimiento seguirá desplazándose a velocidad constante. 2 La segunda ley La segunda ley de Newton relaciona la fuerza total y la aceleración. Una fuerza neta ejercida sobre un objeto lo acelerará, es decir, cambiará su velocidad. La aceleración será proporcional a la magnitud de la fuerza total y tendrá la misma dirección y sentido que ésta. La constante de proporcionalidad es la masa m del objeto F = ma En el Sistema Internacional de unidades (conocido también como SI), la aceleración a se mide en metros por segundo cuadrado, la masa m se mide en kilogramos, y la fuerza F en newtons. Un newton se define como la fuerza necesaria para suministrar a una masa de 1 kg una aceleración de 1 metro por segundo cada segundo; esta fuerza es aproximadamente igual al peso de un objeto de 100 gramos. Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que uno con menos masa. Lo asombroso es que la masa, que mide la inercia de un objeto (su resistencia a cambiar la velocidad), también mide la atracción gravitacional que ejerce sobre otros objetos. Resulta sorprendente, y tiene consecuencias profundas, que la propiedad inercial y la propiedad gravitacional estén determinadas por una misma cosa. Este fenómeno supone que es imposible distinguir si un punto determinado está en un campo gravitatorio o en un sistema de referencia acelerado. Einstein hizo de esto una de las piedras angulares de su teoría general de la relatividad, que es la teoría de la gravitación actualmente aceptada. 3 Rozamiento El rozamiento, generalmente, actúa como una fuerza aplicada en sentido opuesto a la velocidad de un objeto. En el caso de deslizamiento en seco, cuando no existe lubricación, la fuerza de rozamiento es casi independiente de la velocidad. La fuerza de rozamiento tampoco depende del área aparente de contacto entre un objeto y la superficie sobre la cual se desliza. El área real de contacto —esto es, la superficie en la que las rugosidades microscópicas del objeto y de la superficie de deslizamiento se tocan realmente— es relativamente pequeña. Cuando un objeto se mueve por encima de la superficie de deslizamiento, las minúsculas rugosidades del objeto y la superficie chocan entre sí, y se necesita fuerza para hacer que se sigan moviendo. El área real de contacto depende de la fuerza perpendicular entre el objeto y la superficie de deslizamiento. Frecuentemente, esta fuerza no es sino el peso del objeto que se desliza. Si se empuja el objeto formando un ángulo con la horizontal, la componente vertical de la fuerza dirigida hacia abajo se sumará al peso del objeto. La fuerza de rozamiento es proporcional a la fuerza perpendicular total. Cuando hay rozamiento, la segunda ley de Newton puede ampliarse a Sin embargo, cuando un objeto se desplaza a través de un fluido, el valor del rozamiento depende de la velocidad. En la mayoría de los objetos de tamaño humano que se mueven en agua o aire (a velocidades menores que la del sonido), la fricción es proporcional al cuadrado de la velocidad. En ese caso, la segunda ley de Newton se convierte en La constante de proporcionalidad k es característica de los dos materiales en cuestión y depende del área de contacto entre ambas superficies, y de la forma más o menos aerodinámica del objeto en movimiento. 4 La tercera ley La tercera ley de Newton afirma que cuando un objeto ejerce una fuerza sobre otro, este otro objeto ejerce también una fuerza sobre el primero. La fuerza que ejerce el primer objeto sobre el segundo debe tener la misma magnitud que la fuerza que el segundo objeto ejerce sobre el primero, pero con sentido opuesto. Por ejemplo, en una pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño, no sólo existe la fuerza que el adulto ejerce sobre el niño, sino que el niño ejerce una fuerza igual pero de sentido opuesto sobre el adulto. Sin embargo, como la masa del adulto es mayor, su aceleración será menor. La tercera ley de Newton también implica la conservación del momento lineal, el producto de la masa por la velocidad. En un sistema aislado, sobre el que no actúan fuerzas externas, el momento debe ser constante. En el ejemplo del adulto y el niño en la pista de patinaje, sus velocidades iniciales son cero, por lo que el momento inicial del sistema es cero. Durante la interacción operan fuerzas internas entre el adulto y el niño, pero la suma de las fuerzas externas es cero. Por tanto, el momento del sistema tiene que seguir siendo nulo. Después de que el adulto empuje al niño, el producto de la masa grande y la velocidad pequeña del adulto debe ser igual al de la masa pequeña y la velocidad grande del niño. Los momentos respectivos son iguales en magnitud pero de sentido opuesto, por lo que su suma es cero. Otra magnitud que se conserva es el momento angular o cinético. El momento angular de un objeto en rotación depende de su velocidad angular, su masa y su distancia al eje. Cuando un patinador da vueltas cada vez más rápido sobre el hielo, prácticamente sin rozamiento, el momento angular se conserva a pesar de que la velocidad aumenta. Al principio del giro, el patinador tiene los brazos extendidos. Parte de la masa del patinador tiene por tanto un radio de giro grande. Cuando el patinador baja los brazos, reduciendo su distancia del eje de rotación, la velocidad angular debe aumentar para mantener constante el momento angular. 7 ENERGÍA La magnitud denominada energía enlaza todas las ramas de la física. En el ámbito de la mecánica, debe suministrarse energía para realizar trabajo; el trabajo se define como el producto de la fuerza por la distancia que recorre un objeto en la dirección de la fuerza. Cuando se ejerce una fuerza sobre un objeto pero la fuerza no hace que el objeto se mueva, no se realiza trabajo. La energía y el trabajo se expresan en las mismas unidades, como por ejemplo julios o ergios. Si se realiza trabajo para elevar un objeto a una altura superior, se almacena energía en forma de energía potencial gravitatoria. Existen muchas otras formas de energía: energía potencial eléctrica y magnética, energía cinética, energía acumulada en muelles estirados, gases comprimidos o enlaces moleculares, energía térmica e incluso la propia masa. En todas las transformaciones entre un tipo de energía y otro se conserva la energía total. Por ejemplo, si se ejerce trabajo sobre una pelota de goma para levantarla, se aumenta su energía potencial gravitatoria. Si se deja caer la pelota, esta energía potencial gravitatoria se convierte en energía cinética. Cuando la pelota choca contra el suelo, se deforma y se produce fricción entre las moléculas de su material. Esta fricción se transforma en calor o energía térmica. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Estática Estática, parte de la física que estudia los cuerpos sobre los que actúan fuerzas y momentos cuyas resultantes son nulas, de forma que permanecen en reposo o en movimiento no acelerado. El objeto de la estática es determinar la fuerza resultante y el momento resultante de todas las fuerzas que actúan sobre un cuerpo para poder establecer sus condiciones de equilibrio. Un sistema de fuerzas que actúa sobre un cuerpo puede ser reemplazado por una fuerza resultante y por un momento resultante que produzcan sobre el cuerpo el mismo efecto que todas las fuerzas y todos los momentos actuando conjuntamente. Como la fuerza resultante provoca un movimiento de traslación en el cuerpo y el momento resultante un movimiento de rotación, para que el cuerpo se encuentre en equilibrio debe cumplirse, simultáneamente, que la fuerza resultante y el momento resultante sean nulos. No obstante, equilibrio no es sinónimo de reposo, ya que una fuerza resultante nula y un momento resultante nulo implican una aceleración lineal y angular nulas, respectivamente, pero el cuerpo puede encontrarse en reposo o tener un movimiento rectilíneo y uniforme. Así, un cuerpo está en equilibrio cuando se encuentra en reposo o cuando se mueve con movimiento rectilíneo y uniforme. Véase Mecánica. Esta condición de equilibrio implica que una fuerza aislada aplicada sobre un cuerpo no puede producir por sí sola equilibrio y que, en un cuerpo en equilibrio, cada fuerza es igual y opuesta a la resultante de todas las demás. Así, dos fuerzas iguales y opuestas, actuando sobre la misma línea de acción, sí producen equilibrio. El equilibrio puede ser de tres clases: estable, inestable e indiferente. Si un cuerpo está suspendido, el equilibrio será estable si el centro de gravedad está por debajo del punto de suspensión; inestable si está por encima, e indiferente si coinciden ambos puntos. Si un cuerpo está apoyado, el equilibrio será estable cuando la vertical que pasa por el centro de gravedad caiga dentro de su base de sustentación; inestable cuando pase por el límite de dicha base, e indiferente cuando la base de sustentación sea tal que la vertical del centro de gravedad pase siempre por ella. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Momento lineal Momento lineal o Cantidad de movimiento, en física, cantidad fundamental que caracteriza el movimiento de cualquier objeto (véase Mecánica). Es el producto de la masa de un cuerpo en movimiento y de su velocidad lineal. El momento es una cantidad vectorial, lo que significa que tiene magnitud, dirección y sentido. El momento lineal total de un sistema constituido por una serie de objetos es la suma vectorial de los momentos de cada objeto individual. En un sistema aislado, el momento total permanece constante a lo largo del tiempo; es lo que se llama conservación del momento lineal. Por ejemplo, cuando un jugador de tenis golpea una pelota, el momento lineal de la raqueta justo antes de golpear la bola más el momento de la pelota en ese instante es igual al momento de la raqueta inmediatamente después de golpear la bola más el momento de la pelota golpeada. En otro ejemplo, imaginemos a un nadador que salta desde un bote inmóvil que flota sobre el agua. Antes de saltar, el bote y el nadador no se mueven, por lo que el momento lineal total es cero. Al saltar, el nadador adquiere momento lineal hacia delante, y al mismo tiempo el bote se mueve hacia atrás con un momento igual en magnitud y dirección pero sentido contrario; el momento total del sistema formado por el nadador y el bote sigue siendo nulo. La física actual considera la conservación del momento como una ley universal, que se cumple incluso en situaciones extremas donde las teorías clásicas de la física no son válidas. En particular, la conservación del momento lineal se cumple en la teoría cuántica, que describe los fenómenos atómicos y nucleares, y en la relatividad, que se emplea cuando los sistemas se desplazan a velocidades próximas a la de la luz. Según la segunda ley del movimiento de Newton —llamada así en honor al astrónomo, matemático y físico británico Isaac Newton—, la fuerza que actúa sobre un cuerpo en movimiento debe ser igual al cambio del momento lineal por unidad de tiempo. Otra forma de expresar la segunda ley de Newton es decir que el impulso — esto es, el producto de la fuerza por el tiempo durante el que actúa sobre un cuerpo— equivale al cambio del momento lineal del cuerpo. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Trabajo (física) Trabajo (física), el producto de una fuerza aplicada sobre un cuerpo y del desplazamiento del cuerpo en la dirección de esta fuerza. Mientras se realiza trabajo sobre el cuerpo, se produce una transferencia de energía al mismo, por lo que puede decirse que el trabajo es energía en movimiento. Las unidades de trabajo son las mismas que las de energía. Cuando se levanta un objeto desde el suelo hasta la superficie de una mesa, por ejemplo, se realiza trabajo al tener que vencer la fuerza de la gravedad, dirigida hacia abajo; la energía comunicada al cuerpo por este trabajo aumenta su energía potencial. También se realiza trabajo cuando una fuerza aumenta la velocidad de un cuerpo, como ocurre por ejemplo en la aceleración de un avión por el empuje de sus reactores. La fuerza puede no ser mecánica, como ocurre en el levantamiento de un cuerpo o en la aceleración de un avión de reacción; también puede ser una fuerza electrostática, electrodinámica o de tensión superficial (véase Electricidad). Por otra parte, si una fuerza constante no produce movimiento, no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo extendido no implica trabajo alguno sobre el libro, independientemente del esfuerzo necesario. La unidad de trabajo en el Sistema Internacional de Unidades es el julio, que se define como el trabajo realizado por una fuerza de 1 newton a lo largo de un metro. El trabajo realizado por unidad de tiempo se conoce como potencia. La potencia correspondiente a un julio por segundo es un vatio. Véase Caballo de vapor. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Energía Energía, capacidad de un sistema físico para realizar trabajo. La materia posee energía como resultado de su movimiento o de su posición en relación con las fuerzas que actúan sobre ella. La radiación electromagnética posee energía que depende de su frecuencia y, por tanto, de su longitud de onda. Esta energía se comunica a la materia cuando absorbe radiación y se recibe de la materia cuando emite radiación. La energía asociada al movimiento se conoce como energía cinética, mientras que la relacionada con la posición es la energía potencial. Por ejemplo, un péndulo que oscila tiene una energía potencial máxima en los extremos de su recorrido; en todas las posiciones intermedias tiene energía cinética y potencial en proporciones diversas. La energía se manifiesta en varias formas, entre ellas la energía mecánica (véase Mecánica), térmica (véase Termodinámica), química (véase Reacción química), eléctrica (véase Electricidad), radiante (véase Radiación) o atómica (véase Energía nuclear). Todas las formas de energía pueden convertirse en otras formas mediante los procesos adecuados. En el proceso de transformación puede perderse o ganarse una forma de energía, pero la suma total permanece constante. Un peso suspendido de una cuerda tiene energía potencial debido a su posición, puesto que puede realizar trabajo al caer. Una batería eléctrica tiene energía potencial en forma química. Un trozo de magnesio también tiene energía potencial en forma química, que se transforma en calor y luz si se inflama. Al disparar un fusil, la energía potencial de la pólvora se transforma en la energía cinética del proyectil. La energía cinética del rotor de una dinamo o alternador se convierte en energía eléctrica mediante la inducción electromagnética. Esta energía eléctrica puede a su vez almacenarse como energía potencial de las cargas eléctricas en un condensador o una batería, disiparse en forma de calor o emplearse para realizar trabajo en un dispositivo eléctrico. Todas las formas de energía tienden a transformarse en calor, que es la forma más degradada de la energía. En los dispositivos mecánicos la energía no empleada para realizar trabajo útil se disipa como calor de rozamiento, y las pérdidas de los circuitos eléctricos se producen fundamentalmente en forma de calor. Las observaciones empíricas del siglo XIX llevaron a la conclusión de que aunque la energía puede transformarse no se puede crear ni destruir. Este concepto, conocido como principio de conservación de la energía, constituye uno de los principios básicos de la mecánica clásica. Al igual que el principio de conservación de la materia, sólo se cumple en fenómenos que implican velocidades bajas en comparación con la velocidad de la luz. Cuando las velocidades se empiezan a aproximar a la de la luz, como ocurre en las reacciones nucleares, la materia puede transformarse en energía y viceversa (véase Relatividad). En la física moderna se unifican ambos conceptos, la conservación de la energía y de la masa. Veáse también Bioenergética. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Rozamiento Rozamiento, en mecánica, resistencia al deslizamiento, rodadura o flujo de un cuerpo en relación a otro con el que está en contacto. En todos los sólidos, las moléculas presentan rozamiento interno. Esta forma de rozamiento es la fuerza que hace que cualquier objeto oscilante, como una cuerda de piano o un diapasón, deje de vibrar. El rozamiento interno en los líquidos y gases se denomina viscosidad. El rozamiento externo puede ser de dos clases: de deslizamiento o de rodadura. En el rozamiento de deslizamiento, la resistencia es causada por la interferencia de irregularidades en las superficies de ambos cuerpos. En el rozamiento de rodadura, la resistencia es provocada por la interferencia de pequeñas deformaciones o hendiduras formadas al rodar una superficie sobre otra. En ambas formas de rozamiento, la atracción molecular entre las dos superficies produce cierta resistencia. En los dos casos, la fuerza de rozamiento es directamente proporcional a la fuerza que comprime un objeto contra el otro. El rozamiento entre dos superficies se mide por el coeficiente de fricción, que es el cociente entre la fuerza necesaria para mover dos superficies en contacto mutuo y la fuerza que presiona una superficie contra otra. Si un cuerpo de masa 25 kg está situado sobre una superficie plana y hace falta una fuerza equivalente al peso de una masa de 5 kg para moverla sobre la superficie, el coeficiente de rozamiento entre el cuerpo y la superficie es de 5 dividido entre 25, es decir, 0,2. El coeficiente de rozamiento entre dos superficies metálicas bien engrasadas varía aproximadamente entre 0,01 y 0,05, y entre un rodamiento esférico y el aro en el que gira es de alrededor de 0,002. El rozamiento entre dos objetos es máximo justo antes de empezar a moverse uno respecto a otro, y es menor cuando están en movimiento. El valor máximo del rozamiento se denomina rozamiento estático o rozamiento en reposo, y el valor del rozamiento entre objetos que se mueven se llama rozamiento cinético o rozamiento en movimiento. El deslizamiento de dos cuerpos en contacto es discontinuo y puede considerarse que el rozamiento cinético está producido por una serie de episodios de rozamiento estático. El ángulo de rozamiento es el ángulo que hay que inclinar una superficie para que un objeto situado sobre ella comience a deslizarse hacia abajo. Este ángulo mide la eficacia de la fuerza de rozamiento para oponerse a la fuerza de la gravedad, que tiende a deslizar el objeto. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Momento de inercia Momento de inercia, resistencia que un cuerpo en rotación opone al cambio de su velocidad de giro. A veces se denomina inercia rotacional. El momento de inercia desempeña en la rotación un papel equivalente al de la masa en el movimiento lineal. Por ejemplo, si una catapulta lanza una piedra pequeña y una grande aplicando la misma fuerza a cada una, la piedra pequeña se acelerará mucho más que la grande. De modo similar, si se aplica un mismo par de fuerzas ( véase Momento de una fuerza) a una rueda con un momento de inercia pequeño y a otra con un momento de inercia grande, la velocidad de giro de la primera rueda aumentará mucho más rápidamente que la de la segunda. El momento de inercia de un objeto depende de su masa y de la distancia de la masa al eje de rotación. Por ejemplo, un volante de 1 kg con la mayoría de su masa cercana al eje tendrá un momento de inercia menor que otro volante de 1 kg con la mayoría de la masa cercana al borde exterior. El momento de inercia de un cuerpo no es una cantidad única y fija. Si se rota el objeto en torno a un eje distinto, en general tendrá un momento de inercia diferente, puesto que la distribución de su masa en relación al nuevo eje es normalmente distinta. Las leyes del movimiento de los objetos en rotación son equivalentes a las leyes del movimiento de los objetos que se mueven linealmente (el momento de inercia sustituye a la masa, la velocidad angular a la velocidad lineal, ...). Véase Giróscopo; Mecánica. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Momento angular Momento angular, cantidad fundamental que posee un cuerpo en virtud de su rotación, y que es esencial para la descripción de su movimiento. Esta magnitud es análoga al momento lineal o cantidad de movimiento. El momento lineal de un cuerpo en movimiento viene dado por la expresión: momento lineal = masa × velocidad Se define el momento angular de una partícula como: momento angular = momento lineal × distancia al eje de giro El momento angular de un sistema de partículas o de un sólido rígido se obtiene sumando los valores de todas las partículas de las que está formado. Considérese el pequeño objeto de masa m de la figura, que gira alrededor de un punto situado a una distancia r de él, con una velocidad angular ω. (La velocidad angular es la velocidad de rotación expresada en radianes por segundo.) La velocidad lineal del objeto es ωr, y su momento lineal es mωr. El momento angular de una partícula es mωr × r o mωr2. El momento angular de un objeto extenso, como el de la figura, es la suma de todos los valores m1ωr12 + m2ωr22 +... Esto se escribe matemáticamente como Σmiωri2, para todos los valores de i. Como todas las partículas giran con la misma velocidad angular ω, esta expresión se puede escribir así: momento angular = (Σmiri 2) × ω que a su vez se puede expresar como: momento angular = Iω donde I = Σmiri 2 recibe el nombre de momento de inercia del cuerpo alrededor de un determinado eje de rotación. El momento de inercia está relacionado con la masa del cuerpo y la distancia de sus diferentes partes al eje de rotación. Al igual que existe un principio de conservación para el momento lineal, existe un principio de conservación del momento angular. Este principio establece que si la resultante de los momentos de las fuerzas que actúan sobre el cuerpo es nula, el momento angular permanece constante. Esto se manifiesta en la práctica cuando, por ejemplo, un satélite que está girando es transportado a bordo de un laboratorio espacial y su giro se detiene. Su momento angular no se desvanece: es transferido al laboratorio que, por tanto, comienza a girar. Esto sólo se puede evitar aplicando un momento externo, producido por el encendido de los motores de propulsión. Véase también Mecánica. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Rotación Rotación, movimiento que obliga a todos los puntos de un sólido rígido a describir arcos de igual amplitud pertenecientes a circunferencias cuyos centros se hallan en una misma recta o eje de giro, que puede ocupar cualquier posición en el espacio. Para estudiar la dinámica de los cuerpos en rotación se introduce el concepto de sólido rígido o cuerpo formado por un conjunto de puntos materiales cuyas distancias mutuas permanecen invariables. Un sólido rígido está animado de un movimiento de rotación cuando se mueve ligado a dos puntos fijos que pueden ser interiores o exteriores a él. La línea que une dichos puntos fijos es el eje de giro, y los puntos de un sólido en su movimiento describen circunferencias en un plano perpendicular al eje de giro y cuyos centros se encuentran sobre dicho eje. Los principios fundamentales de la dinámica de rotación pueden resumirse así: 1. Para que se produzca una rotación tiene que actuar un par de fuerzas. Éste está constituido por dos fuerzas iguales, paralelas y de sentidos opuestos, cuyos puntos de aplicación están separados una distancia r, llamada brazo del par. La magnitud que caracteriza un par de fuerzas es el momento del par de fuerzas, M, que es un vector perpendicular al plano del par, de módulo igual al producto de la magnitud común de las fuerzas por la distancia r, y cuyo sentido está ligado al sentido de rotación del par. Un par de fuerzas puede equilibrarse por otro par que tenga momento de igual módulo, pero de sentido opuesto al del primero. Nunca una fuerza única puede sustituir, ni equilibrar, a un par de fuerzas. 2. La relación que existe entre el momento del par de fuerzas aplicado al cuerpo, M, y la aceleración angular que le produce, , recibe el nombre de momento de inercia, I, de dicho cuerpo respecto al eje de giro considerado: M = I· Los ejes principales de inercia son aquellos ejes que tienen la propiedad de que cuando un sólido rota alrededor de alguno de ellos, su momento angular correspondiente está dirigido según ese eje. En todo sólido existen al menos tres ejes principales de inercia perpendiculares mutuamente. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Gravitación 1 INTRODUCCIÓN Gravitación, propiedad de atracción mutua que poseen todos los objetos compuestos de materia. A veces se utiliza como sinónimo el término gravedad, aunque estrictamente este último sólo se refiere a la fuerza gravitacional entre la Tierra y los objetos situados en su superficie o cerca de ella. La gravitación es una de las cuatro fuerzas básicas que controlan las interacciones de la materia; las otras tres son las fuerzas nucleares débil y fuerte, y la fuerza electromagnética (véase Fuerzas fundamentales; Física). Hasta ahora no han tenido éxito los intentos de englobar todas las fuerzas en una teoría de unificación (véase Teoría del campo unificado), ni los intentos de detectar las ondas gravitacionales que, según sugiere la teoría de la relatividad, podrían observarse cuando se perturba el campo gravitacional de un objeto de gran masa. La ley de la gravitación, formulada por vez primera por el físico británico Isaac Newton en 1684, afirma que la atracción gravitatoria entre dos cuerpos es directamente proporcional al producto de las masas de ambos cuerpos e inversamente proporcional al cuadrado de la distancia entre ellos. En forma algebraica, la ley se expresa como donde F es la fuerza gravitatoria, m1 y m2 son las masas de los dos cuerpos, d es la distancia entre los mismos y G es la constante gravitatoria. El físico británico Henry Cavendish fue el primero en medir el valor de esta constante en 1798, mediante una balanza de torsión. El valor más preciso obtenido hasta la fecha para la constante es de 0,0000000000667 newtons-metro cuadrado por kilogramo cuadrado (6,67 × 10-11 N m2 kg-2). La fuerza gravitatoria entre dos cuerpos esféricos de un kilogramo de masa cada uno y separados por una distancia de un metro es, por tanto, de 0,0000000000667 newtons. Esta fuerza es extremadamente pequeña: es igual al peso en la superficie de la Tierra de un objeto de aproximadamente 1/150.000.000.000 kilogramos. 2 EFECTO DE LA ROTACIÓN La fuerza de la gravedad que experimenta un objeto no es la misma en todos los lugares de la superficie terrestre, principalmente debido a la rotación de la Tierra. La fuerza de la gravedad que se mide es en realidad una combinación de la fuerza gravitatoria debida a la atracción terrestre y una fuerza centrífuga opuesta debida a la rotación de la Tierra (véase Fuerza centrífuga). En el ecuador, la fuerza centrífuga es relativamente elevada, lo que hace que la gravedad que se mide sea relativamente baja; en los polos, la fuerza centrífuga es nula, con lo que la gravedad que se mide es relativamente elevada. En el uso corriente, el término fuerza de la gravedad significa en realidad una combinación de las fuerzas gravitatoria y centrífuga. 3 ACELERACIÓN La gravedad suele medirse de acuerdo a la aceleración que proporciona a un objeto en la superficie de la Tierra. En el ecuador, la aceleración de la gravedad es de 9,7799 metros por segundo cada segundo, mientras que en los polos es superior a 9,83 metros por segundo cada segundo. El valor que suele aceptarse internacionalmente para la aceleración de la gravedad a la hora de hacer cálculos es de 9,80665 metros por segundo cada segundo. Por tanto, si no consideramos la resistencia del aire, un cuerpo que caiga libremente aumentará cada segundo su velocidad en 9,80665 metros por segundo. La ausencia aparente de gravedad durante los vuelos espaciales se conoce como gravedad cero o microgravedad. Veáse también Astronáutica; Mecánica; Órbita. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Caída libre (física) Caída libre (física), movimiento, determinado exclusivamente por fuerzas gravitatorias, que adquieren los cuerpos al caer, partiendo del reposo, hacia la superficie de la Tierra y sin estar impedidos por un medio que pudiera producir una fuerza de fricción o de empuje. Algunos ejemplos son el movimiento de la Luna alrededor de la Tierra o la caída de un objeto a la superficie terrestre. Véase Gravitación. En el vacío todos los cuerpos, con independencia de su forma o de su masa, caen con idéntica aceleración en un lugar determinado, próximo a la superficie terrestre. El movimiento de caída libre es un movimiento uniformemente acelerado, es decir, la aceleración instantánea es la misma en todos los puntos del recorrido y coincide con la aceleración media, y esta aceleración es la aceleración de la gravedad g = 9,8 m/s2. Como la velocidad inicial en el movimiento de caída libre es nula, las ecuaciones de la velocidad y el espacio recorrido en función del tiempo se pueden escribir así: v = g·t y = ½·g·t2 Galileo fue el primero en demostrar experimentalmente que, si se desprecia la resistencia que ofrece el aire, todos los cuerpos caen hacia la Tierra con la misma aceleración. Véase también Mecánica. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Mecánica de fluidos 1 INTRODUCCIÓN Mecánica de fluidos, parte de la física que se ocupa de la acción de los fluidos en reposo o en movimiento, así como de las aplicaciones y mecanismos de ingeniería que utilizan fluidos. La mecánica de fluidos es fundamental en campos tan diversos como la aeronáutica (véase Avión), la ingeniería química, civil e industrial, la meteorología, las construcciones navales y la oceanografía. La mecánica de fluidos puede subdividirse en dos campos principales: la estática de fluidos, o hidrostática, que se ocupa de los fluidos en reposo, y la dinámica de fluidos, que trata de los fluidos en movimiento. El término de hidrodinámica se aplica al flujo de líquidos o al flujo de los gases a baja velocidad, en el que puede considerarse que el gas es esencialmente incompresible. La aerodinámica, o dinámica de gases, se ocupa del comportamiento de los gases cuando los cambios de velocidad y presión son lo suficientemente grandes para que sea necesario incluir los efectos de la compresibilidad. Entre las aplicaciones de la mecánica de fluidos están la propulsión a chorro, las turbinas, los compresores y las bombas (véase Aire comprimido). La hidráulica estudia la utilización en ingeniería de la presión del agua o del aceite. 2 ESTÁTICA DE FLUIDOS O HIDROSTÁTICA Una característica fundamental de cualquier fluido en reposo es que la fuerza ejercida sobre cualquier partícula del fluido es la misma en todas direcciones. Si las fuerzas fueran desiguales, la partícula se desplazaría en la dirección de la fuerza resultante. De ello se deduce que la fuerza por unidad de superficie —la presión— que el fluido ejerce contra las paredes del recipiente que lo contiene, sea cual sea su forma, es perpendicular a la pared en cada punto. Si la presión no fuera perpendicular, la fuerza tendría una componente tangencial no equilibrada y el fluido se movería a lo largo de la pared. Este concepto fue formulado por primera vez en una forma un poco más amplia por el matemático y filósofo francés Blaise Pascal en 1647, y se conoce como principio de Pascal. Dicho principio, que tiene aplicaciones muy importantes en hidráulica, afirma que la presión aplicada sobre un fluido contenido en un recipiente se transmite por igual en todas direcciones y a todas las partes del recipiente, siempre que se puedan despreciar las diferencias de presión debidas al peso del fluido y a la profundidad. Cuando la gravedad es la única fuerza que actúa sobre un líquido contenido en un recipiente abierto, la presión en cualquier punto del líquido es directamente proporcional al peso de la columna vertical de dicho líquido situada sobre ese punto. La presión es a su vez proporcional a la profundidad del punto con respecto a la superficie, y es independiente del tamaño o forma del recipiente. Así, la presión en el fondo de una tubería vertical llena de agua de 1 cm de diámetro y 15 m de altura es la misma que en el fondo de un lago de 15 m de profundidad. De igual forma, si una tubería de 30 m de longitud se llena de agua y se inclina de modo que la parte superior esté sólo a 15 m en vertical por encima del fondo, el agua ejercerá la misma presión sobre el fondo que en los casos anteriores, aunque la distancia a lo largo de la tubería sea mucho mayor que la altura de la tubería vertical. Veamos otro ejemplo: la masa de una columna de agua dulce de 30 cm de altura y una sección transversal de 6,5 cm2 es de 195 g, y la fuerza ejercida en el fondo será el peso correspondiente a esa masa. Una columna de la misma altura pero con un diámetro 12 veces superior tendrá un volumen 144 veces mayor, y pesará 144 veces más, pero la presión, que es la fuerza por unidad de superficie, seguirá siendo la misma, puesto que la superficie también será 144 veces mayor. La presión en el fondo de una columna de mercurio de la misma altura será 13,6 veces superior, ya que el mercurio tiene una densidad 13,6 veces superior a la del agua. Veáse también Atmósfera; Barómetro; Capilaridad. El segundo principio importante de la estática de fluidos fue descubierto por el matemático y filósofo griego Arquímedes. El principio de Arquímedes afirma que todo cuerpo sumergido en un fluido experimenta una fuerza hacia arriba igual al peso del volumen de fluido desplazado por dicho cuerpo. Esto explica por qué flota un barco muy cargado; el peso del agua desplazada por el barco equivale a la fuerza hacia arriba que mantiene el barco a flote. El punto sobre el que puede considerarse que actúan todas las fuerzas que producen el efecto de flotación se llama centro de flotación, y corresponde al centro de gravedad del fluido desplazado. El centro de flotación de un cuerpo que flota está situado exactamente encima de su centro de gravedad. Cuanto mayor sea la distancia entre ambos, mayor es la estabilidad del cuerpo. Véase Estabilidad. El principio de Arquímedes permite determinar la densidad de un objeto cuya forma es tan irregular que su volumen no puede medirse directamente. Si el objeto se pesa primero en el aire y luego en el agua, la diferencia de peso será igual al peso del volumen de agua desplazado, y este volumen es igual al volumen del objeto, si éste está totalmente sumergido. Así puede determinarse fácilmente la densidad del objeto (masa dividida por volumen). Si se requiere una precisión muy elevada, también hay que tener en cuenta el peso del aire desplazado para obtener el volumen y la densidad correctos. 3 DINÁMICA DE FLUIDOS O HIDRODINÁMICA Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la hidrostática, sólo podemos tratar aquí algunos conceptos básicos. El interés por la dinámica de fluidos se remonta a las aplicaciones más antiguas de los fluidos en ingeniería. Arquímedes realizó una de las primeras contribuciones con la invención, que se le atribuye tradicionalmente, del tornillo sin fin. La acción impulsora del tornillo de Arquímedes es similar a la de la pieza semejante a un sacacorchos que tienen las picadoras de carne manuales. Los romanos desarrollaron otras máquinas y mecanismos hidráulicos; no sólo empleaban el tornillo de Arquímedes para bombear agua en agricultura y minería, sino que también construyeron extensos sistemas de acueductos, algunos de los cuales todavía funcionan. En el siglo I a.C., el arquitecto e ingeniero romano Vitrubio inventó la rueda hidráulica horizontal, con lo que revolucionó la técnica de moler grano. A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se comprendía la teoría básica, por lo que su desarrollo se vio frenado. Después de Arquímedes pasaron más de 1.800 años antes de que se produjera el siguiente avance científico significativo, debido al matemático y físico italiano Evangelista Torricelli, que inventó el barómetro en 1643 y formuló el teorema de Torricelli, que relaciona la velocidad de salida de un líquido a través de un orificio de un recipiente, con la altura del líquido situado por encima de dicho agujero. El siguiente gran avance en el desarrollo de la mecánica de fluidos tubo que esperar a la formulación de las leyes del movimiento por el matemático y físico inglés Isaac Newton. Estas leyes fueron aplicadas por primera vez a los fluidos por el matemático suizo Leonhard Euler, quien dedujo las ecuaciones básicas para un fluido sin rozamiento (no viscoso). Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir como estimación para flujos en los que los efectos de la viscosidad son pequeños. 1 Flujos incompresibles y sin rozamiento Estos flujos cumplen el llamado teorema de Bernoulli, enunciado por el matemático y científico suizo Daniel Bernoulli. El teorema afirma que la energía mecánica total de un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este principio es importante para la medida de flujos, y también puede emplearse para predecir la fuerza de sustentación de un ala en vuelo. 2 Flujos viscosos: movimiento laminar y turbulento Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja velocidad a través de tuberías fueron realizados independientemente en 1839 por el fisiólogo francés Jean Louis Marie Poiseuille, que estaba interesado por las características del flujo de la sangre, y en 1840 por el ingeniero hidráulico alemán Gotthilf Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones matemáticas se debió al ingeniero francés Claude Louis Marie Navier en 1827 e, independientemente, al matemático británico George Gabriel Stokes, quien en 1845 perfeccionó las ecuaciones básicas para los fluidos viscosos incompresibles. Actualmente se las conoce como ecuaciones de Navier-Stokes, y son tan complejas que sólo se pueden aplicar a flujos sencillos. Uno de ellos es el de un fluido real que circula a través de una tubería recta. El teorema de Bernoulli no se puede aplicar aquí, porque parte de la energía mecánica total se disipa como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de presión debería ser proporcional a la velocidad de flujo. Los experimentos realizados por primera vez a mediados del siglo XIX demostraron que esto sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien proporcional al cuadrado de la velocidad. Este problema no se resolvió hasta 1883, cuando el ingeniero británico Osborne Reynolds demostró la existencia de dos tipos de flujo viscoso en tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar), y los resultados experimentales coinciden con las predicciones analíticas. A velocidades más elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una forma que ni siquiera en la actualidad se puede predecir completamente. Reynolds también determinó que la transición del flujo laminar al turbulento era función de un único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de Reynolds —que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el diámetro de la tubería dividido entre la viscosidad del fluido— es menor de 2.100, el flujo a través de la tubería es siempre laminar; cuando los valores son más elevados suele ser turbulento. El concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos. Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas, y su análisis depende de una combinación de datos experimentales y modelos matemáticos; gran parte de la investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de la turbulencia. Puede observarse la transición del flujo laminar al turbulento y la complejidad del flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de cierta distancia se hace inestable y se forma un sistema de remolinos entrelazados. 3 Flujos de la capa límite Antes de 1860, aproximadamente, el interés de la ingeniería por la mecánica de fluidos se limitaba casi exclusivamente al flujo del agua. El desarrollo de la industria química durante la última parte del siglo XIX dirigió la atención a otros líquidos y a los gases. El interés por la aerodinámica comenzó con los estudios del ingeniero aeronáutico alemán Otto Lilienthal en la última década del siglo XIX, y produjo avances importantes tras el primer vuelo con motor logrado por los inventores estadounidenses Orville y Wilbur Wright en 1903. La complejidad de los flujos viscosos, y en particular de los flujos turbulentos, restringió en gran medida los avances en la dinámica de fluidos hasta que el ingeniero alemán Ludwig Prandtl observó en 1904 que muchos flujos pueden separarse en dos regiones principales. La región próxima a la superficie está formada por una delgada capa límite donde se concentran los efectos viscosos y en la que puede simplificarse mucho el modelo matemático. Fuera de esta capa límite, se pueden despreciar los efectos de la viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas para flujos no viscosos. La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones modernos y del diseño de turbinas de gas y compresores. El modelo de la capa límite no sólo permitió una formulación mucho más simplificada de las ecuaciones de Navier-Stokes en la región próxima a la superficie del cuerpo, sino que llevó a nuevos avances en la teoría del flujo de fluidos no viscosos, que pueden aplicarse fuera de la capa límite. Gran parte del desarrollo moderno de la mecánica de fluidos, posibilitado por el concepto de capa límite, se ha debido a investigadores como el ingeniero aeronáutico estadounidense de origen húngaro Theodore von Kármán, el matemático alemán Richard von Mises y el físico y meteorólogo británico Geoffrey Ingram Taylor. 4 Flujos compresibles El interés por los flujos compresibles comenzó con el desarrollo de las turbinas de vapor por el inventor británico Charles Algernon Parsons y el ingeniero sueco Carl Gustaf Patrik de Laval durante la década de 1880. En esos mecanismos se descubrió por primera vez el flujo rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una mejora del análisis de los flujos compresibles. Pero los avances modernos tuvieron que esperar al estímulo que supuso el desarrollo de la turbina de combustión y la propulsión a chorro en la década de 1930. El interés por los flujos de alta velocidad sobre superficies surgió de forma temprana en los estudios de balística, donde se necesitaba comprender el movimiento de los proyectiles. Los avances más importantes comenzaron hacia el final del siglo XIX, con Prandtl y sus discípulos, entre otros, y crecieron con la introducción de los aviones de alta velocidad y los cohetes en la II Guerra Mundial. Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el gas se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura también cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de un gas compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del sonido. El sonido es la propagación de una pequeña perturbación, u onda de presión, dentro de un fluido. Para un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su temperatura absoluta. La velocidad del sonido en el aire a 20 °C (293 kelvins en la escala absoluta), es de unos 344 metros por segundo. Si la velocidad de flujo es menor que la velocidad del sonido (flujo subsónico), las ondas de presión pueden transmitirse a través de todo el fluido y así adaptar el flujo que se dirige hacia un objeto. Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará con cierta distancia de antelación para fluir suavemente sobre la superficie. En el flujo supersónico, las ondas de presión no pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se dirige hacia el ala de un avión en vuelo supersónico no está preparado para la perturbación que va a causar el ala y tiene que cambiar de dirección repentinamente en la proximidad del ala, lo que conlleva una compresión intensa u onda de choque. El ruido asociado con el paso de esta onda de choque sobre los observadores situados en tierra constituye el estampido sónico de los aviones supersónicos. Frecuentemente se identifican los flujos supersónicos por su número de Mach, que es el cociente entre la velocidad de flujo y la velocidad del sonido. Por tanto, los flujos supersónicos tienen un número de Mach superior a 1. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Tensión superficial Tensión superficial, condición existente en la superficie libre de un líquido, semejante a las propiedades de una membrana elástica bajo tensión. La tensión es el resultado de las fuerzas moleculares, que ejercen una atracción no compensada hacia el interior del líquido sobre las moléculas individuales de la superficie; esto se refleja en la considerable curvatura en los bordes donde el líquido está en contacto con la pared del recipiente. Concretamente, la tensión superficial es la fuerza por unidad de longitud de cualquier línea recta de la superficie líquida que las capas superficiales situadas en los lados opuestos de la línea ejercen una sobre otra. Véase Cohesión. La tendencia de cualquier superficie líquida es hacerse lo más reducida posible como resultado de esta tensión, como ocurre con el mercurio, que forma una bola casi redonda cuando se deposita una cantidad pequeña sobre una superficie horizontal. La forma casi perfectamente esférica de una burbuja de jabón, que se debe a la distribución de la tensión sobre la delgada película de jabón, es otro ejemplo de esta fuerza. La tensión superficial es suficiente para sostener una aguja colocada horizontalmente sobre el agua. Veáse también Capilaridad. La tensión superficial es importante en condiciones de ingravidez; en los vuelos espaciales, los líquidos no pueden guardarse en recipientes abiertos porque ascienden por las paredes de los recipientes. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Capilaridad Capilaridad, elevación o depresión de la superficie de un líquido en la zona de contacto con un sólido, por ejemplo, en las paredes de un tubo. Este fenómeno es una excepción a la ley hidrostática de los vasos comunicantes, según la cual una masa de líquido tiene el mismo nivel en todos los puntos; el efecto se produce de forma más marcada en tubos capilares (del latín capillus, 'pelo', 'cabello'), es decir, tubos de diámetro muy pequeño. La capilaridad, o acción capilar, depende de las fuerzas creadas por la tensión superficial y por el mojado de las paredes del tubo. Si las fuerzas de adhesión del líquido al sólido (mojado) superan a las fuerzas de cohesión dentro del líquido (tensión superficial), la superficie del líquido será cóncava y el líquido subirá por el tubo, es decir, ascenderá por encima del nivel hidrostático. Este efecto ocurre por ejemplo con agua en tubos de vidrio limpios. Si las fuerzas de cohesión superan a las fuerzas de adhesión, la superficie del líquido será convexa y el líquido caerá por debajo del nivel hidrostático. Así sucede por ejemplo con agua en tubos de vidrio grasientos (donde la adhesión es pequeña) o con mercurio en tubos de vidrio limpios (donde la cohesión es grande). La absorción de agua por una esponja y la ascensión de la cera fundida por el pabilo de una vela son ejemplos familiares de ascensión capilar. El agua sube por la tierra debido en parte a la capilaridad, y algunos instrumentos de escritura como la pluma estilográfica (fuente) o el rotulador (plumón) se basan en este principio. Veáse también Suelo; Mecánica de fluidos. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Viscosímetro Viscosímetro, instrumento utilizado para medir la viscosidad de los líquidos. Consiste en una pequeña vasija en cuyo fondo existe un orificio calibrado y de tamaño conocido, y en la que se vierte un volumen conocido de líquido. El tiempo que éste emplea en fluir por el orificio es una medida de su viscosidad. Los líquidos no son perfectamente fluidos sino viscosos, es decir, tienden a oponerse a su flujo cuando se les aplica una fuerza. La viscosidad viene determinada por la fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas adyacentes. Con el viscosímetro se mide la viscosidad relativa del líquido respecto a la del agua, que se toma como unidad. La viscosidad relativa es directamente proporcional a la densidad del líquido y al tiempo que éste tarda en fluir por el orificio, e inversamente proporcional al tiempo que invierte en fluir el mismo volumen de agua. Como la temperatura influye mucho en el valor de la viscosidad, las medidas deben realizarse a la misma temperatura. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Viscosidad 1 INTRODUCCIÓN Viscosidad, propiedad de un fluido que tiende a oponerse a su flujo cuando se le aplica una fuerza. Los fluidos de alta viscosidad presentan una cierta resistencia a fluir; los fluidos de baja viscosidad fluyen con facilidad. La fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas adyacentes de fluido determina su viscosidad, que se mide con un recipiente (viscosímetro) que tiene un orificio de tamaño conocido en el fondo. La velocidad con la que el fluido sale por el orificio es una medida de su viscosidad. Véase Mecánica de fluidos. 2 FLUJOS DE LA CAPA LÍMITE Según la teoría molecular, cuando un fluido empieza a fluir bajo la influencia de la gravedad, las moléculas de las capas estacionarias del fluido deben cruzar una frontera o límite para entrar en la región de flujo. Una vez cruzado el límite, estas moléculas reciben energía de las que están en movimiento y comienzan a fluir. Debido a la energía transferida, las moléculas que ya estaban en movimiento reducen su velocidad. Al mismo tiempo, las moléculas de la capa de fluido en movimiento cruzan el límite en sentido opuesto y entran en las capas estacionarias, con lo que transmiten un impulso a las moléculas estacionarias. El resultado global de este movimiento bidireccional de un lado al otro del límite es que el fluido en movimiento reduce su velocidad, el fluido estacionario se pone en movimiento, y las capas en movimiento adquieren una velocidad media. Para hacer que una capa de fluido se mantenga moviéndose a mayor velocidad que otra capa es necesario aplicar una fuerza continua. La viscosidad en poises se define como la magnitud de la fuerza (medida en dinas por centímetro cuadrado de superficie) necesaria para mantener —en situación de equilibrio— una diferencia de velocidad de 1 cm por segundo entre capas separadas por 1 cm. La viscosidad del agua a temperatura ambiente (20 °C) es de 0,0100 poises; en el punto de ebullición (100 °C) disminuye hasta 0,0028 poises. 3 EFECTOS DEL CALOR La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al aumentar la temperatura. En un fluido menos denso hay menos moléculas por unidad de volumen que puedan transferir impulso desde la capa en movimiento hasta la capa estacionaria. Esto, a su vez, afecta a la velocidad de las distintas capas. El momento se transfiere con más dificultad entre las capas, y la viscosidad disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la reducción de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su tendencia a fluir cuando cambia la temperatura, por lo que son muy útiles como lubricantes cuando una máquina está sometida a grandes cambios de temperatura. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Teorema de Bernoulli Teorema de Bernoulli, principio físico que implica la disminución de la presión de un fluido (líquido o gas) en movimiento cuando aumenta su velocidad. Fue formulado en 1738 por el matemático y físico suizo Daniel Bernoulli, y anteriormente por Leonhard Euler. El teorema afirma que la energía total de un sistema de fluidos con flujo uniforme permanece constante a lo largo de la trayectoria de flujo. Puede demostrarse que, como consecuencia de ello, el aumento de velocidad del fluido debe verse compensado por una disminución de su presión. El teorema se aplica al flujo sobre superficies, como las alas de un avión o las hélices de un barco. Las alas están diseñadas para que obliguen al aire a fluir con mayor velocidad sobre la superficie superior que sobre la inferior, por lo que la presión sobre esta última es mayor que sobre la superior. Esta diferencia de presión proporciona la fuerza de sustentación que mantiene al avión en vuelo. Una hélice también es un plano aerodinámico, es decir, tiene forma de ala. En este caso, la diferencia de presión que se produce al girar la hélice proporciona el empuje que impulsa al barco. El teorema de Bernoulli también se emplea en las toberas, donde se acelera el flujo reduciendo el diámetro del tubo, con la consiguiente caída de presión. Asimismo se aplica en los caudalímetros de orificio, también llamados venturi, que miden la diferencia de presión entre el fluido a baja velocidad que pasa por un tubo de entrada y el fluido a alta velocidad que pasa por un orificio de menor diámetro, con lo que se determina la velocidad de flujo y, por tanto, el caudal. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Número de Reynolds Número de Reynolds, número adimensional que se utiliza en la mecánica de fluidos para estudiar el movimiento de un fluido en el interior de una tubería, o alrededor de un obstáculo sólido. Se representa por R. El número de Reynolds puede ser calculado para cada conducción recorrida por un determinado fluido y es el producto de la velocidad, la densidad del fluido y el diámetro de la tubería dividido entre la viscosidad del fluido. Para un mismo valor de este número el flujo posee idénticas características cualquiera que sea la tubería o el fluido que circule por ella. Si R es menor de 2.100 el flujo a través de la tubería es siempre laminar; cuando los valores son superiores a 2.100 el flujo es turbulento. De acuerdo con la expresión del número de Reynolds, cuanto más elevada sea la viscosidad de un fluido mayor podrá ser el diámetro de la tubería sin que el flujo deje de ser laminar, puesto que las densidades de los líquidos son casi todas del mismo orden de magnitud. Por este motivo los oleoductos, en régimen laminar, pueden tener secciones superiores a las conducciones de agua, ya que la viscosidad de los fluidos que circulan por aquéllos es mayor que la del agua. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Aerodinámica 1 INTRODUCCIÓN Aerodinámica, rama de la mecánica de fluidos que se ocupa del movimiento del aire y otros fluidos gaseosos, y de las fuerzas que actúan sobre los cuerpos que se mueven en dichos fluidos. Algunos ejemplos del ámbito de la aerodinámica son el movimiento de un avión a través del aire, las fuerzas que el viento ejerce sobre una estructura o el funcionamiento de un molino de viento. 2 EL TEOREMA DE BERNOULLI Una de las leyes fundamentales que rigen el movimiento de los fluidos es el teorema de Bernoulli, que relaciona un aumento en la velocidad de flujo con una disminución de la presión y viceversa. El teorema de Bernoulli explica, por ejemplo, la fuerza de sustentación que actúa sobre el ala de un avión en vuelo. Un ala —o plano aerodinámico— está diseñada de forma que el aire fluya más rápidamente sobre la superficie superior que sobre la inferior, lo que provoca una disminución de presión en la superficie de arriba con respecto a la de abajo. Esta diferencia de presiones proporciona la fuerza de sustentación que mantiene el avión en vuelo. Los coches de carrera son muy bajos con el fin de que el aire se desplace a gran velocidad por el estrecho espacio entre la carrocería y el suelo. Esto reduce la presión debajo del vehículo y lo aprieta con fuerza hacia abajo, lo que mejora el agarre. Estos coches también llevan en su parte trasera un plano aerodinámico con forma de ala invertida para aumentar la fuerza contra el suelo. La vela de un balandro en movimiento también constituye un plano aerodinámico (véase Navegación deportiva). Otro aspecto importante de la aerodinámica es la resistencia al avance que experimentan los objetos sólidos que se mueven a través del aire. Por ejemplo, las fuerzas de resistencia que ejerce el aire que fluye sobre un avión deben ser superadas por el empuje del reactor o de las hélices. La resistencia al avance puede reducirse significativamente empleando formas aerodinámicas. Cuando el objeto no es totalmente aerodinámico, la resistencia aumenta de forma aproximadamente proporcional al cuadrado de su velocidad con respecto al aire. Por ejemplo, la potencia necesaria para propulsar un coche que avanza de forma uniforme a velocidades medias o altas se emplea fundamentalmente en superar la resistencia del aire. 3 SUPERSÓNICA La supersónica, una rama importante de la aerodinámica, se ocupa de los fenómenos que tienen lugar cuando la velocidad de un sólido supera la velocidad del sonido en el medio —generalmente aire— en que se desplaza. La velocidad del sonido en la atmósfera varía según la humedad, la temperatura y la presión. Como la velocidad del sonido es un factor crucial en las ecuaciones aerodinámicas y no es constante, suele emplearse el número de Mach, así llamado en honor del físico y filósofo austriaco Ernst Mach, un pionero en el estudio de la balística. El número de Mach es la velocidad respecto a la atmósfera del proyectil o el avión dividida entre la velocidad del sonido en el mismo medio y con las mismas condiciones. Así, al nivel del mar, en condiciones normales de humedad y temperatura, una velocidad de 1.220 km/h representa un número de Mach de 1. En la estratosfera, debido a las diferencias de densidad, presión y temperatura, esta misma velocidad correspondería a un número de Mach de 1,16. Expresando las velocidades por su número de Mach, en vez de en kilómetros por hora, puede obtenerse una representación más exacta de las condiciones que se dan realmente durante el vuelo. 1 Ondas de choque Los estudios mediante observaciones ópticas de proyectiles de artillería revelan la naturaleza de las perturbaciones atmosféricas encontradas durante el vuelo. A velocidades subsónicas, por debajo de Mach 0,85 , la única perturbación atmosférica es una turbulencia en la estela del proyectil. En la zona transónica, entre Mach 0,85 y Mach 1,3 , aparecen ondas de choque a medida que aumenta la velocidad; en el rango más bajo de esa zona de velocidades, las ondas de choque surgen de cualquier protuberancia abrupta en el contorno suave del proyectil. Cuando la velocidad supera Mach 1, las ondas de choque surgen de la parte delantera y la cola y se propagan en forma de cono desde el proyectil. El ángulo del cono es tanto menor cuanto mayor es la velocidad del proyectil. Así, a Mach 1, la onda es esencialmente un plano; a Mach 1,4 (1.712 km/h al nivel del mar), el ángulo del cono es de aproximadamente 90°; a Mach 2,48 (unos 3.030 km/h), la onda de choque procedente del proyectil tiene un ángulo cónico ligeramente menor de 50°. La investigación en este campo ha permitido el diseño de los modernos aviones de gran velocidad, en los que las alas se inclinan hacia atrás formando ángulos de hasta 60° para evitar la onda de choque procedente de la parte delantera del avión. 2 Maximización de la eficiencia Entre otros factores estudiados por la investigación sobre proyectiles de artillería supersónicos figuran la forma ideal de los proyectiles y el comportamiento de un gas que fluye a altas velocidades. La llamada forma de gota, que es la forma aerodinámica ideal para velocidades subsónicas, es muy poco eficaz en la zona supersónica debido a su gran superficie frontal, que comprime el aire y da lugar a ondas de choque de gran amplitud que absorben mucha energía. Cuando un gas fluye por un tubo estrechado, como la tobera de un cohete, a velocidades subsónicas, la velocidad de flujo aumenta y la presión disminuye en el cuello del estrechamiento. A velocidades supersónicas se produce el fenómeno inverso, y la velocidad de flujo aumenta en un tubo divergente. Así, los gases de escape de un cohete, al acelerarse en la tobera hasta la velocidad del sonido, aumentan aún más su velocidad, y por tanto su empuje, en el ensanchamiento divergente de la tobera, con lo que se multiplica la eficiencia del cohete. Otro factor que los diseñadores de cohetes conocen desde hace tiempo es la influencia directa de la presión atmosférica reinante sobre la eficiencia del vuelo a velocidades supersónicas. Cuanto más próximo esté el medio circundante a un vacío perfecto, más eficiente es el motor del avión o el cohete. El rango de velocidades de un avión supersónico también puede aumentarse reduciendo la superficie, o sección transversal, que presenta al aire. En los aviones que operan a velocidades supersónicas es imprescindible aumentar el peso del aparato aumentando su longitud, hacerlo más esbelto y dotarlo de un frente en forma de aguja. En los años posteriores a la II Guerra Mundial, los centros de investigación en aerodinámica construyeron túneles de viento donde se podían probar maquetas o piezas de aviones en corrientes de aire supersónicas. 3 Regla de las superficies Un importante avance en la aeronáutica, gracias a las investigaciones en túneles de viento, se debió al físico estadounidense Richard Travis Whitcomb, que descubrió la regla de las superficies para el diseño de aviones supersónicos. Según este principio, el aumento abrupto en la resistencia al avance que se produce a velocidades transónicas se debe a la distribución de la superficie total de la sección transversal en cada punto del avión. Estrechando el fuselaje en la zona donde está unido a las alas, la reducción en la sección transversal total del fuselaje y las alas disminuye la resistencia al avance del aparato. El diseño de Whitcomb, llamado de talle de avispa, hizo posible un aumento del 25% en el rango de velocidades supersónicas sin necesidad de una mayor potencia en los motores. En el pasado se utilizaba el término supersónica en un sentido más amplio, e incluía la rama de la física ahora conocida como ultrasónica, que se ocupa de las ondas de sonido de alta frecuencia, generalmente por encima de los 20.000 hercios (Hz). Veáse también Propulsión a chorro. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Efecto Venturi Efecto Venturi, fenómeno que se produce en una canalización horizontal y de sección variable por la que circula un fluido incompresible, sin viscosidad y si la circulación se lleva a cabo en régimen permanente. De acuerdo con el teorema de Bernoulli, la velocidad en la parte estrecha de la canalización tiene que ser mayor que en la ancha, y por estar ambas a la misma altura, la presión en la parte ancha es mayor que en la estrecha. Por tanto, cuando un fluido incrementa su velocidad sin variar de nivel, su presión disminuye. Aplicaciones de este fenómeno son la trompa de agua, que es un aparato utilizado en los laboratorios para hacer el vacío, los tubos de Venturi, que se emplean para medir caudales y crear depresiones locales, los pulverizadores y el mechero Bunsen. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Aire comprimido 1 INTRODUCCIÓN Aire comprimido, aire a presión superior a una atmósfera. Puede emplearse para empujar un pistón, como en una perforadora neumática; hacerse pasar por una pequeña turbina de aire para mover un eje, como en los instrumentos odontológicos o expandirse a través de una tobera para producir un chorro de alta velocidad, como en una pistola para pintar. El aire comprimido suministra fuerza a las herramientas llamadas neumáticas, como perforadoras, martillos, remachadoras o taladros de roca. El aire comprimido también se emplea en las minas de carbón para evitar que se produzcan explosiones por las chispas de las herramientas eléctricas que hacen detonar las bolsas de grisú. Veáse también Compresor. 2 HISTORIA La primera transmisión neumática data de 1700, cuando el físico francés Denis Papin empleó la fuerza de un molino de agua para comprimir aire que después se transportaba por tubos. Aproximadamente un siglo después, el inventor británico George Medhurst obtuvo una patente para impulsar un motor mediante aire comprimido, aunque la primera aplicación práctica del método suele atribuirse al inventor británico George Law, quien en 1865 diseñó un taladro de roca en el que un pistón movido por aire hacía funcionar un martillo. El uso de este taladro se generalizó, y fue empleado en la perforación del túnel ferroviario del Mont Cenis, en los Alpes, que se inauguró en 1871, y en el túnel de Hossac, en Massachusetts (Estados Unidos), inaugurado en 1875. Otro avance significativo fue el freno de aire comprimido para trenes, diseñado hacia 1868 por el inventor, ingeniero e industrial estadounidense George Westinghouse. 3 APLICACIONES Los motores de aire comprimido se emplean en numerosas herramientas donde se requieren fuerzas intensas de carácter intermitente, como perforadoras neumáticas; en herramientas de mano donde la fuerza de un motor eléctrico podría ser demasiado grande, como por ejemplo las pistolas empleadas en los talleres para apretar o aflojar las tuercas en las ruedas (llantas)de los coches; por último, en pequeños sistemas rotativos de alta velocidad que requieren entre 10.000 y 30.000 revoluciones por minuto. La fuerza neumática también se emplea en numerosas máquinas automáticas para la producción industrial. Puede conseguirse un movimiento oscilante o rotativo mediante un mecanismo de biela o trinquete, aunque para el movimiento rotativo de alta velocidad resulta más adecuado un motor de palas o similar. El motor actúa como una turbina de aire, haciendo girar el rotor al expandirse éste, y se emplea para taladros y trituradores de alta velocidad y para sirenas de aire comprimido. Tras corrientes de aire comprimido son también útiles para transportar otros materiales y pulverizarlos a través de una tobera atomizadora. Por ejemplo, puede aspirarse pintura y mezclarse con una corriente de aire. El aire pasa a través de un estrechamiento en un tubo, donde aumenta su velocidad a la vez que disminuye su presión (véase Teorema de Bernoulli); la pintura se aspira en ese punto, se mezcla con el aire, se vuelve a comprimir dinámicamente y se lanza a través de la tobera. Las pulidoras de chorro de arena absorben y pulverizan arena de este mismo modo. Un aerosol también actúa como un pulverizador neumático. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Calor 1 INTRODUCCIÓN Calor, en física, transferencia de energía de una parte a otra de un cuerpo, o entre diferentes cuerpos, en virtud de una diferencia de temperatura. El calor es energía en tránsito; siempre fluye de una zona de mayor temperatura a una zona de menor temperatura, con lo que eleva la temperatura de la segunda y reduce la de la primera, siempre que el volumen de los cuerpos se mantenga constante. La energía no fluye desde un objeto de temperatura baja a un objeto de temperatura alta si no se realiza trabajo. Hasta principios del siglo XIX, el efecto del calor sobre la temperatura de un cuerpo se explicaba postulando la existencia de una sustancia o forma de materia invisible, denominada calórico. Según la teoría del calórico, un cuerpo de temperatura alta contiene más calórico que otro de temperatura baja; el primero cede parte del calórico al segundo al ponerse en contacto ambos cuerpos, con lo que aumenta la temperatura de dicho cuerpo y disminuye la suya propia. Aunque la teoría del calórico explicaba algunos fenómenos de la transferencia de calor, las pruebas experimentales presentadas por el físico británico Benjamin Thompson en 1798 y por el químico británico Humphry Davy en 1799 sugerían que el calor, igual que el trabajo, corresponde a energía en tránsito (proceso de intercambio de energía). Entre 1840 y 1849, el físico británico James Prescott Joule, en una serie de experimentos muy precisos, demostró de forma concluyente que el calor es una transferencia de energía y que puede causar los mismos cambios en un cuerpo que el trabajo. 2 TEMPERATURA La sensación de calor o frío al tocar una sustancia depende de su temperatura, de la capacidad de la sustancia para conducir el calor y de otros factores. Aunque, si se procede con cuidado, es posible comparar las temperaturas relativas de dos sustancias mediante el tacto, es imposible evaluar la magnitud absoluta de las temperaturas a partir de reacciones subjetivas. Cuando se aporta calor a una sustancia, no sólo se eleva su temperatura, con lo que proporciona una mayor sensación de calor, sino que se producen alteraciones en varias propiedades físicas que se pueden medir con precisión. Al variar la temperatura, las sustancias se dilatan o se contraen, su resistencia eléctrica cambia y, en el caso de un gas, su presión varía. La variación de alguna de estas propiedades suele servir como base para una escala numérica precisa de temperaturas (ver más adelante). La temperatura depende de la energía cinética media (o promedio) de las moléculas de una sustancia; según la teoría cinética (véase Gas; Termodinámica), la energía puede corresponder a movimientos rotacionales, vibracionales y traslacionales de las partículas de una sustancia. La temperatura, sin embargo, sólo depende del movimiento de traslación de las moléculas. En teoría, las moléculas de una sustancia no presentarían actividad traslacional alguna a la temperatura denominada cero absoluto. Véase Molécula. 3 ESCALAS DE TEMPERATURA En la actualidad se emplean diferentes escalas de temperatura; entre ellas están la escala Celsius —también conocida como escala centígrada—, la escala Fahrenheit, la escala Kelvin, la escala Rankine o la escala termodinámica internacional (véase Termómetro). En la escala Celsius, el punto de congelación del agua equivale a 0 °C y su punto de ebullición a 100 °C. Esta escala se utiliza en todo el mundo, en particular en el trabajo científico. La escala Fahrenheit se emplea en los países anglosajones para medidas no científicas y en ella el punto de congelación del agua se define como 32 °F y su punto de ebullición como 212 °F. En la escala Kelvin, la escala termodinámica de temperaturas más empleada, el cero se define como el cero absoluto de temperatura, es decir, -273,15 °C. La magnitud de su unidad, llamada kelvin y simbolizada por K, se define como igual a un grado Celsius. Otra escala que emplea el cero absoluto como punto más bajo es la escala Rankine, en la que cada grado de temperatura equivale a un grado en la escala Fahrenheit. En la escala Rankine, el punto de congelación del agua equivale a 492 °R y su punto de ebullición a 672 °R. En 1933, científicos de treinta y una naciones adoptaron una nueva escala internacional de temperaturas, con puntos fijos de temperatura adicionales basados en la escala Kelvin y en principios termodinámicos. La escala internacional emplea como patrón un termómetro de resistencia de platino (cable de platino) para temperaturas entre -190 °C y 660 °C. Desde los 660 °C hasta el punto de fusión del oro (1.064 °C) se emplea un termopar patrón: los termopares son dispositivos que miden la temperatura a partir de la tensión producida entre dos alambres de metales diferentes (véase Termoelectricidad). Más allá del punto de fusión del oro las temperaturas se miden mediante el llamado pirómetro óptico, que se basa en la intensidad de la luz de una frecuencia determinada que emite un cuerpo caliente. En 1954, un acuerdo internacional adoptó el punto triple del agua —es decir, el punto en que las tres fases del agua (vapor, líquido y sólido) están en equilibrio— como referencia para la temperatura de 273,16 K. El punto triple se puede determinar con mayor precisión que el punto de congelación, por lo que supone un punto fijo más satisfactorio para la escala termodinámica. En criogenia, o investigación de bajas temperaturas, se han obtenido temperaturas de tan sólo 0,00001 K mediante la desmagnetización de sustancias paramagnéticas. En las explosiones nucleares (véase Armas nucleares) se han alcanzado momentáneamente temperaturas evaluadas en más de 100 millones de kelvins. 4 UNIDADES DE CALOR En las ciencias físicas, la cantidad de calor se expresa en las mismas unidades que la energía y el trabajo, es decir, en julios. Otra unidad es la caloría, definida como la cantidad de calor necesaria para elevar la temperatura de 1 gramo de agua a 1 atmósfera de presión desde 15 hasta 16 °C. Esta unidad se denomina a veces caloría pequeña o caloría gramo para distinguirla de la caloría grande, o kilocaloría, que equivale a 1.000 calorías y se emplea en nutrición. La energía mecánica se puede convertir en calor a través del rozamiento, y el trabajo mecánico necesario para producir 1 caloría se conoce como equivalente mecánico del calor. A una caloría le corresponden 4,1855 julios. Según la ley de conservación de la energía, todo el trabajo mecánico realizado para producir calor por rozamiento aparece en forma de energía en los objetos sobre los que se realiza el trabajo. Joule fue el primero en demostrarlo de forma fehaciente en un experimento clásico: calentó agua en un recipiente cerrado haciendo girar unas ruedas de paletas y halló que el aumento de temperatura del agua era proporcional al trabajo realizado para mover las ruedas. Cuando el calor se convierte en energía mecánica, como en un motor de combustión interna, la ley de conservación de la energía también es válida. Sin embargo, siempre se pierde o disipa energía en forma de calor porque ningún motor tiene una eficiencia perfecta. Véase Caballo de vapor. 5 CALOR LATENTE El cambio de temperatura de una sustancia conlleva una serie de cambios físicos. Casi todas las sustancias aumentan de volumen al calentarse y se contraen al enfriarse. El comportamiento del agua entre 0 y 4 °C constituye una importante excepción a esta regla (véase Hielo). Se denomina fase de una sustancia a su estado, que puede ser sólido, líquido o gaseoso. Los cambios de fase en sustancias puras tienen lugar a temperaturas y presiones definidas (véase Regla de las fases). El paso de sólido a gas se denomina sublimación, de sólido a líquido fusión, y de líquido a vapor vaporización. Si la presión es constante, estos procesos tienen lugar a una temperatura constante. La cantidad de calor necesaria para producir un cambio de fase se llama calor latente; existen calores latentes de sublimación, fusión y vaporización (véase Destilación; Evaporación). Si se hierve agua en un recipiente abierto a la presión de 1 atmósfera, la temperatura no aumenta por encima de los 100 °C por mucho calor que se suministre. El calor que se absorbe sin cambiar la temperatura del agua es el calor latente; no se pierde, sino que se emplea en transformar el agua en vapor y se almacena como energía en el vapor. Cuando el vapor se condensa para formar agua, esta energía vuelve a liberarse (véase Condensación). Del mismo modo, si se calienta una mezcla de hielo y agua, su temperatura no cambia hasta que se funde todo el hielo. El calor latente absorbido se emplea para vencer las fuerzas que mantienen unidas las partículas de hielo, y se almacena como energía en el agua. Para fundir 1 kg de hielo se necesitan 19.000 julios, y para convertir 1 kg de agua en vapor a 100 °C, hacen falta 129.000 julios. 6 CALOR ESPECÍFICO La cantidad de calor necesaria para aumentar en un grado la temperatura de una unidad de masa de una sustancia se conoce como calor específico. Si el calentamiento se produce manteniendo constante el volumen de la sustancia o su presión, se habla de calor específico a volumen constante o a presión constante. En todas las sustancias, el primero siempre es menor o igual que el segundo. El calor específico del agua a 15 °C es de 4.185,5 julios por kilogramo y grado Celsius. En el caso del agua y de otras sustancias prácticamente incompresibles, no es necesario distinguir entre los calores específicos a volumen constante y presión constante ya que son aproximadamente iguales. Generalmente, los dos calores específicos de una sustancia dependen de la temperatura. Véase también Calorimetría. 7 TRANSFERENCIA DE CALOR Los procesos físicos por los que se produce la transferencia de calor son la conducción y la radiación. Un tercer proceso, que también implica el movimiento de materia, se denomina convección. La conducción requiere contacto físico entre los cuerpos —o las partes de un cuerpo— que intercambian calor, pero en la radiación no hace falta que los cuerpos estén en contacto ni que haya materia entre ellos. La convección se produce a través del movimiento de un líquido o un gas en contacto con un cuerpo de temperatura diferente. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Dilatación Dilatación, aumento de tamaño de los materiales, a menudo por efecto del aumento de temperatura. Los diferentes materiales aumentan más o menos de tamaño, y los sólidos, líquidos y gases se comportan de modo distinto. Para un sólido en forma de barra, el coeficiente de dilatación lineal (cambio porcentual de longitud para un determinado aumento de la temperatura) puede encontrarse en las correspondientes tablas. Por ejemplo, el coeficiente de dilatación lineal del acero es de 12 × 10-6 K-1. Esto significa que una barra de acero se dilata en 12 millonésimas partes por cada kelvin (1 kelvin, o 1 K, es igual a 1 grado Celsius, o 1 ºC). Si se calienta un grado una barra de acero de 1 m, se dilatará 0,012 mm. Esto puede parecer muy poco, pero el efecto es proporcional, con lo que una viga de acero de 10 m calentada 20 grados se dilata 2,4 mm, una cantidad que debe tenerse en cuenta en ingeniería. También se puede hablar de coeficiente de dilatación superficial de un sólido, cuando dos de sus dimensiones son mucho mayores que la tercera, y de coeficiente de dilatación cúbica, cuando no hay una dimensión que predomine sobre las demás. Para los líquidos, el coeficiente de dilatación cúbica (cambio porcentual de volumen para un determinado aumento de la temperatura) también puede encontrarse en tablas y se pueden hacer cálculos similares. Los termómetros comunes utilizan la dilatación de un líquido —por ejemplo, mercurio o alcohol— en un tubo muy fino (capilar) calibrado para medir el cambio de temperatura. La dilatación térmica de los gases es muy grande en comparación con la de sólidos y líquidos, y sigue la llamada ley de Charles y Gay-Lussac. Esta ley afirma que, a presión constante, el volumen de un gas ideal (un ente teórico que se aproxima al comportamiento de los gases reales) es proporcional a su temperatura absoluta. Otra forma de expresarla es que por cada aumento de temperatura de 1 ºC, el volumen de un gas aumenta en una cantidad aproximadamente igual a 1/273 de su volumen a 0 ºC. Por tanto, si se calienta de 0 ºC a 273 ºC, duplicaría su volumen. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Ley de Charles y Gay-Lussac Ley de Charles y Gay-Lussac, ley que afirma que el volumen de un gas ideal a presión constante es proporcional a su temperatura absoluta. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Gas 1 INTRODUCCIÓN Gas, sustancia en uno de los tres estados diferentes de la materia ordinaria, que son el sólido, el líquido y el gaseoso. Los sólidos tienen una forma bien definida y son difíciles de comprimir. Los líquidos fluyen libremente y están limitados por superficies que forman por sí solos. Los gases se expanden libremente hasta llenar el recipiente que los contiene, y su densidad es mucho menor que la de los líquidos y sólidos. 2 LEY DE LOS GASES IDEALES La teoría atómica de la materia define los estados, o fases, de acuerdo al orden que implican. Las moléculas tienen una cierta libertad de movimientos en el espacio. Estos grados de libertad microscópicos están asociados con el concepto de orden macroscópico. Las moléculas de un sólido están colocadas en una red, y su libertad está restringida a pequeñas vibraciones en torno a los puntos de esa red. En cambio, un gas no tiene un orden espacial macroscópico. Sus moléculas se mueven aleatoriamente, y sólo están limitadas por las paredes del recipiente que lo contiene. Se han desarrollado leyes empíricas que relacionan las variables macroscópicas. En los gases ideales, estas variables incluyen la presión (p), el volumen (V) y la temperatura (T). La ley de Boyle-Mariotte afirma que el volumen de un gas a temperatura constante es inversamente proporcional a la presión. La ley de Charles y Gay-Lussac afirma que el volumen de un gas a presión constante es directamente proporcional a la temperatura absoluta. La combinación de estas dos leyes proporciona la ley de los gases ideales pV = nRT (n es el número de moles), también llamada ecuación de estado del gas ideal. La constante de la derecha, R, es una constante universal cuyo descubrimiento fue una piedra angular de la ciencia moderna. 3 TEORÍA CINÉTICA DE LOS GASES Con la llegada de la teoría atómica de la materia, las leyes empíricas antes mencionadas obtuvieron una base microscópica. El volumen de un gas refleja simplemente la distribución de posiciones de las moléculas que lo componen. Más exactamente, la variable macroscópica V representa el espacio disponible para el movimiento de una molécula. La presión de un gas, que puede medirse con manómetros situados en las paredes del recipiente, registra el cambio medio de momento lineal que experimentan las moléculas al chocar contra las paredes y rebotar en ellas. La temperatura del gas es proporcional a la energía cinética media de las moléculas, por lo que depende del cuadrado de su velocidad. La reducción de las variables macroscópicas a variables mecánicas como la posición, velocidad, momento lineal o energía cinética de las moléculas, que pueden relacionarse a través de las leyes de la mecánica de Newton, debería de proporcionar todas las leyes empíricas de los gases. En general, esto resulta ser cierto. La teoría física que relaciona las propiedades de los gases con la mecánica clásica se denomina teoría cinética de los gases. Además de proporcionar una base para la ecuación de estado del gas ideal, la teoría cinética también puede emplearse para predecir muchas otras propiedades de los gases, entre ellas la distribución estadística de las velocidades moleculares y las propiedades de transporte como la conductividad térmica, el coeficiente de difusión o la viscosidad. 1 Ecuación de van der Waals La ecuación de estado del gas ideal no es del todo correcta: los gases reales no se comportan exactamente así. En algunos casos, la desviación puede ser muy grande. Por ejemplo, un gas ideal nunca podría convertirse en líquido o sólido por mucho que se enfriara o comprimiera. Por eso se han propuesto modificaciones de la ley de los gases ideales, pV = nRT. Una de ellas, muy conocida y particularmente útil, es la ecuación de estado de van der Waals (p + a/v2)(v - b) = RT, donde v = V/n, y a y b son parámetros ajustables determinados a partir de medidas experimentales en gases reales. Son parámetros de la sustancia y no constantes universales, puesto que sus valores varían de un gas a otro. La ecuación de van der Waals también tiene una interpretación microscópica. Las moléculas interaccionan entre sí. La interacción es muy repulsiva a corta distancia, se hace ligeramente atractiva a distancias intermedias y desaparece a distancias más grandes. La ley de los gases ideales debe corregirse para considerar las fuerzas atractivas y repulsivas. Por ejemplo, la repulsión mutua entre moléculas tiene el efecto de excluir a las moléculas vecinas de una cierta zona alrededor de cada molécula. Así, una parte del espacio total deja de estar disponible para las moléculas en su movimiento aleatorio. En la ecuación de estado, se hace necesario restar este volumen de exclusión (b) del volumen del recipiente; de ahí el término (v - b). 2 Transiciones de fase A temperaturas bajas (a las que el movimiento molecular se hace menor) y presiones altas o volúmenes reducidos (que disminuyen el espacio entre las moléculas), las moléculas de un gas pasan a ser influidas por la fuerza de atracción de las otras moléculas. Bajo determinadas condiciones críticas, todo el sistema entra en un estado ligado de alta densidad y adquiere una superficie límite. Esto implica la entrada en el estado líquido. El proceso se conoce como transición de fase o cambio de estado. La ecuación de van der Waals permite estas transiciones de fase, y también describe una región de coexistencia entre ambas fases que termina en un punto crítico, por encima del cual no existen diferencias físicas entre los estados gaseoso y líquido. Estos fenómenos coinciden con las observaciones experimentales. En la práctica se emplean ecuaciones más complejas que la ecuación de van der Waals. La mejor comprensión de las propiedades de los gases a lo largo del último siglo ha llevado a la explotación a gran escala de los principios de la física, química e ingeniería en aplicaciones industriales y de consumo. Véase Átomo; Estados de la materia; Termodinámica. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Calor 1 INTRODUCCIÓN Calor, en física, transferencia de energía de una parte a otra de un cuerpo, o entre diferentes cuerpos, en virtud de una diferencia de temperatura. El calor es energía en tránsito; siempre fluye de una zona de mayor temperatura a una zona de menor temperatura, con lo que eleva la temperatura de la segunda y reduce la de la primera, siempre que el volumen de los cuerpos se mantenga constante. La energía no fluye desde un objeto de temperatura baja a un objeto de temperatura alta si no se realiza trabajo. Hasta principios del siglo XIX, el efecto del calor sobre la temperatura de un cuerpo se explicaba postulando la existencia de una sustancia o forma de materia invisible, denominada calórico. Según la teoría del calórico, un cuerpo de temperatura alta contiene más calórico que otro de temperatura baja; el primero cede parte del calórico al segundo al ponerse en contacto ambos cuerpos, con lo que aumenta la temperatura de dicho cuerpo y disminuye la suya propia. Aunque la teoría del calórico explicaba algunos fenómenos de la transferencia de calor, las pruebas experimentales presentadas por el físico británico Benjamin Thompson en 1798 y por el químico británico Humphry Davy en 1799 sugerían que el calor, igual que el trabajo, corresponde a energía en tránsito (proceso de intercambio de energía). Entre 1840 y 1849, el físico británico James Prescott Joule, en una serie de experimentos muy precisos, demostró de forma concluyente que el calor es una transferencia de energía y que puede causar los mismos cambios en un cuerpo que el trabajo. 2 TEMPERATURA La sensación de calor o frío al tocar una sustancia depende de su temperatura, de la capacidad de la sustancia para conducir el calor y de otros factores. Aunque, si se procede con cuidado, es posible comparar las temperaturas relativas de dos sustancias mediante el tacto, es imposible evaluar la magnitud absoluta de las temperaturas a partir de reacciones subjetivas. Cuando se aporta calor a una sustancia, no sólo se eleva su temperatura, con lo que proporciona una mayor sensación de calor, sino que se producen alteraciones en varias propiedades físicas que se pueden medir con precisión. Al variar la temperatura, las sustancias se dilatan o se contraen, su resistencia eléctrica cambia y, en el caso de un gas, su presión varía. La variación de alguna de estas propiedades suele servir como base para una escala numérica precisa de temperaturas (ver más adelante). La temperatura depende de la energía cinética media (o promedio) de las moléculas de una sustancia; según la teoría cinética (véase Gas; Termodinámica), la energía puede corresponder a movimientos rotacionales, vibracionales y traslacionales de las partículas de una sustancia. La temperatura, sin embargo, sólo depende del movimiento de traslación de las moléculas. En teoría, las moléculas de una sustancia no presentarían actividad traslacional alguna a la temperatura denominada cero absoluto. Véase Molécula. 3 ESCALAS DE TEMPERATURA En la actualidad se emplean diferentes escalas de temperatura; entre ellas están la escala Celsius —también conocida como escala centígrada—, la escala Fahrenheit, la escala Kelvin, la escala Rankine o la escala termodinámica internacional (véase Termómetro). En la escala Celsius, el punto de congelación del agua equivale a 0 °C y su punto de ebullición a 100 °C. Esta escala se utiliza en todo el mundo, en particular en el trabajo científico. La escala Fahrenheit se emplea en los países anglosajones para medidas no científicas y en ella el punto de congelación del agua se define como 32 °F y su punto de ebullición como 212 °F. En la escala Kelvin, la escala termodinámica de temperaturas más empleada, el cero se define como el cero absoluto de temperatura, es decir, -273,15 °C. La magnitud de su unidad, llamada kelvin y simbolizada por K, se define como igual a un grado Celsius. Otra escala que emplea el cero absoluto como punto más bajo es la escala Rankine, en la que cada grado de temperatura equivale a un grado en la escala Fahrenheit. En la escala Rankine, el punto de congelación del agua equivale a 492 °R y su punto de ebullición a 672 °R. En 1933, científicos de treinta y una naciones adoptaron una nueva escala internacional de temperaturas, con puntos fijos de temperatura adicionales basados en la escala Kelvin y en principios termodinámicos. La escala internacional emplea como patrón un termómetro de resistencia de platino (cable de platino) para temperaturas entre -190 °C y 660 °C. Desde los 660 °C hasta el punto de fusión del oro (1.064 °C) se emplea un termopar patrón: los termopares son dispositivos que miden la temperatura a partir de la tensión producida entre dos alambres de metales diferentes (véase Termoelectricidad). Más allá del punto de fusión del oro las temperaturas se miden mediante el llamado pirómetro óptico, que se basa en la intensidad de la luz de una frecuencia determinada que emite un cuerpo caliente. En 1954, un acuerdo internacional adoptó el punto triple del agua —es decir, el punto en que las tres fases del agua (vapor, líquido y sólido) están en equilibrio— como referencia para la temperatura de 273,16 K. El punto triple se puede determinar con mayor precisión que el punto de congelación, por lo que supone un punto fijo más satisfactorio para la escala termodinámica. En criogenia, o investigación de bajas temperaturas, se han obtenido temperaturas de tan sólo 0,00001 K mediante la desmagnetización de sustancias paramagnéticas. En las explosiones nucleares (véase Armas nucleares) se han alcanzado momentáneamente temperaturas evaluadas en más de 100 millones de kelvins. 4 UNIDADES DE CALOR En las ciencias físicas, la cantidad de calor se expresa en las mismas unidades que la energía y el trabajo, es decir, en julios. Otra unidad es la caloría, definida como la cantidad de calor necesaria para elevar la temperatura de 1 gramo de agua a 1 atmósfera de presión desde 15 hasta 16 °C. Esta unidad se denomina a veces caloría pequeña o caloría gramo para distinguirla de la caloría grande, o kilocaloría, que equivale a 1.000 calorías y se emplea en nutrición. La energía mecánica se puede convertir en calor a través del rozamiento, y el trabajo mecánico necesario para producir 1 caloría se conoce como equivalente mecánico del calor. A una caloría le corresponden 4,1855 julios. Según la ley de conservación de la energía, todo el trabajo mecánico realizado para producir calor por rozamiento aparece en forma de energía en los objetos sobre los que se realiza el trabajo. Joule fue el primero en demostrarlo de forma fehaciente en un experimento clásico: calentó agua en un recipiente cerrado haciendo girar unas ruedas de paletas y halló que el aumento de temperatura del agua era proporcional al trabajo realizado para mover las ruedas. Cuando el calor se convierte en energía mecánica, como en un motor de combustión interna, la ley de conservación de la energía también es válida. Sin embargo, siempre se pierde o disipa energía en forma de calor porque ningún motor tiene una eficiencia perfecta. Véase Caballo de vapor. 5 CALOR LATENTE El cambio de temperatura de una sustancia conlleva una serie de cambios físicos. Casi todas las sustancias aumentan de volumen al calentarse y se contraen al enfriarse. El comportamiento del agua entre 0 y 4 °C constituye una importante excepción a esta regla (véase Hielo). Se denomina fase de una sustancia a su estado, que puede ser sólido, líquido o gaseoso. Los cambios de fase en sustancias puras tienen lugar a temperaturas y presiones definidas (véase Regla de las fases). El paso de sólido a gas se denomina sublimación, de sólido a líquido fusión, y de líquido a vapor vaporización. Si la presión es constante, estos procesos tienen lugar a una temperatura constante. La cantidad de calor necesaria para producir un cambio de fase se llama calor latente; existen calores latentes de sublimación, fusión y vaporización (véase Destilación; Evaporación). Si se hierve agua en un recipiente abierto a la presión de 1 atmósfera, la temperatura no aumenta por encima de los 100 °C por mucho calor que se suministre. El calor que se absorbe sin cambiar la temperatura del agua es el calor latente; no se pierde, sino que se emplea en transformar el agua en vapor y se almacena como energía en el vapor. Cuando el vapor se condensa para formar agua, esta energía vuelve a liberarse (véase Condensación). Del mismo modo, si se calienta una mezcla de hielo y agua, su temperatura no cambia hasta que se funde todo el hielo. El calor latente absorbido se emplea para vencer las fuerzas que mantienen unidas las partículas de hielo, y se almacena como energía en el agua. Para fundir 1 kg de hielo se necesitan 19.000 julios, y para convertir 1 kg de agua en vapor a 100 °C, hacen falta 129.000 julios. 6 CALOR ESPECÍFICO La cantidad de calor necesaria para aumentar en un grado la temperatura de una unidad de masa de una sustancia se conoce como calor específico. Si el calentamiento se produce manteniendo constante el volumen de la sustancia o su presión, se habla de calor específico a volumen constante o a presión constante. En todas las sustancias, el primero siempre es menor o igual que el segundo. El calor específico del agua a 15 °C es de 4.185,5 julios por kilogramo y grado Celsius. En el caso del agua y de otras sustancias prácticamente incompresibles, no es necesario distinguir entre los calores específicos a volumen constante y presión constante ya que son aproximadamente iguales. Generalmente, los dos calores específicos de una sustancia dependen de la temperatura. Véase también Calorimetría. 7 TRANSFERENCIA DE CALOR Los procesos físicos por los que se produce la transferencia de calor son la conducción y la radiación. Un tercer proceso, que también implica el movimiento de materia, se denomina convección. La conducción requiere contacto físico entre los cuerpos —o las partes de un cuerpo— que intercambian calor, pero en la radiación no hace falta que los cuerpos estén en contacto ni que haya materia entre ellos. La convección se produce a través del movimiento de un líquido o un gas en contacto con un cuerpo de temperatura diferente. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Calorimetría Calorimetría, ciencia que mide la cantidad de energía generada en procesos de intercambio de calor. El calorímetro es el instrumento que mide dicha energía. El tipo de calorímetro de uso más extendido consiste en un envase cerrado y perfectamente aislado con agua, un dispositivo para agitar y un termómetro. Se coloca una fuente de calor en el calorímetro, se agita el agua hasta lograr el equilibrio, y el aumento de temperatura se comprueba con el termómetro. Si se conoce la capacidad calorífica del calorímetro (que también puede medirse utilizando una fuente corriente de calor), la cantidad de energía liberada puede calcularse fácilmente. Cuando la fuente de calor es un objeto caliente de temperatura conocida, el calor específico y el calor latente pueden ir midiéndose según se va enfriando el objeto. El calor latente, que no está relacionado con un cambio de temperatura, es la energía térmica desprendida o absorbida por una sustancia al cambiar de un estado a otro, como en el caso de líquido a sólido o viceversa. Cuando la fuente de calor es una reacción química, como sucede al quemar un combustible, las sustancias reactivas se colocan en un envase de acero pesado llamado bomba. Esta bomba se introduce en el calorímetro y la reacción se provoca por ignición, con ayuda de una chispa eléctrica. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Estados de la materia Estados de la materia, en física clásica, las tres formas que puede tomar la materia: sólido, líquido o gas. El plasma, un conjunto de partículas gaseosas eléctricamente cargadas, con cantidades aproximadamente iguales de iones positivos y negativos, se considera a veces un cuarto estado de la materia (véase Ion; Ionización). Los sólidos se caracterizan por su resistencia a cualquier cambio de forma, resistencia que se debe a la fuerte atracción entre las moléculas que los constituyen. En estado líquido, la materia cede a las fuerzas tendentes a cambiar su forma porque sus moléculas pueden moverse libremente unas respecto de otras (véase Molécula). Los líquidos, sin embargo, presentan una atracción molecular suficiente para resistirse a las fuerzas que tienden a cambiar su volumen. Los gases, en los que las moléculas están muy dispersas y se mueven libremente, no ofrecen ninguna resistencia a los cambios de forma y muy poca a los cambios de volumen. Como resultado, un gas no confinado tiende a difundirse indefinidamente, aumentando su volumen y disminuyendo su densidad. La mayoría de las sustancias son sólidas a temperaturas bajas, líquidas a temperaturas medias y gaseosas a temperaturas altas, pero los estados no siempre están claramente diferenciados. La temperatura en la que una sustancia pasa del estado sólido al líquido se denomina punto de fusión, y la temperatura a la que pasa del estado líquido al gaseoso punto de ebullición (véase Punto de solidificación). El rango de temperaturas de los puntos de fusión y ebullición es muy amplio. El helio permanece en estado gaseoso por encima de -269 ºC y el wolframio, hasta aproximadamente 3.370 ºC, es un sólido. Para una discusión más detallada de las propiedades de la materia en sus diferentes estados, véase Átomo; Cristal; Fluido; Vidrio; Cristal líquido; Termodinámica; Vapor; Punto crítico; Criogenia. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Punto de solidificación Punto de solidificación o Punto de congelación, temperatura a la que un líquido sometido a una presión determinada se transforma en sólido. El punto de solidificación de un líquido puro (no mezclado) es en esencia el mismo que el punto de fusión de la misma sustancia en su estado sólido, y se puede definir como la temperatura a la que el estado sólido y el estado líquido de una sustancia se encuentran en equilibrio. Si aplicamos calor a una mezcla de sustancia sólida y líquida en su punto de solidificación, la temperatura de la sustancia permanecerá constante hasta su licuación total, ya que el calor se absorbe, no para calentar la sustancia, sino para aportar el calor latente de la fusión. Del mismo modo, si se sustrae el calor de una mezcla de sustancia sólida y líquida en su punto de solidificación, la sustancia permanecerá a la misma temperatura hasta solidificarse completamente, pues el calor es liberado por la sustancia en su proceso de transformación de líquido a sólido. Así, el punto de solidificación o el punto de fusión de una sustancia pura puede definirse como la temperatura a la que la solidificación o fusión continúan una vez comenzado el proceso. Todos los sólidos se funden al calentarse y alcanzar sus respectivos puntos de fusión, pero la mayoría de los líquidos pueden permanecer en este estado aunque se enfríen por debajo de su punto de solidificación. Un líquido puede permanecer en este estado de sobreenfriamiento durante cierto tiempo. Este fenómeno se explica por la teoría molecular, que define a las moléculas de los sólidos como moléculas ordenadas, y a las de los líquidos, desordenadas. Para que un líquido se solidifique, necesita tener un núcleo (un punto de orden molecular) alrededor del cual puedan cristalizar las moléculas desordenadas. La formación de un núcleo depende del azar, pero una vez formado, el líquido sobreenfriado se solidificará rápidamente. El punto de solidificación de una disolución es más bajo que el punto de solidificación del disolvente puro antes de la introducción del soluto (sustancia disuelta). La cantidad a la que desciende el punto de solidificación depende de la concentración molecular del soluto y de que la disolución sea un electrólito. Las disoluciones no electrolíticas tienen puntos de solidificación más altos, en una concentración dada de soluto, que los electrólitos. La masa molecular de una sustancia desconocida o no identificada puede determinarse midiendo la cantidad que desciende el punto de solidificación de un disolvente, cuando se disuelve en él una cantidad conocida de la sustancia no identificada. Este proceso que determina las masas moleculares se denomina crioscopía. En aleaciones y sustancias mezcladas, el punto de solidificación de la mezcla puede llegar a ser mucho más bajo que los puntos de solidificación de cualquiera de sus componentes. El punto de solidificación de la mayoría de las sustancias puede elevarse aumentando la presión. No obstante, en sustancias que se expanden al solidificarse (como el agua), la presión rebaja el punto de solidificación. Un ejemplo de esto último puede observarse si colocamos un objeto pesado en un bloque de hielo. La zona inmediatamente debajo del objeto comenzará a licuarse, volviendo a solidificarse al retirar el objeto, sin que se produzca variación de temperatura. Este proceso se conoce como rehielo. Veáse también Criogenia; Cristal. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Punto de ebullición Punto de ebullición, temperatura a la que la presión de vapor de un líquido se iguala a la presión atmosférica existente sobre dicho líquido. A temperaturas inferiores al punto de ebullición (p.e.), la evaporación tiene lugar únicamente en la superficie del líquido. Durante la ebullición se forma vapor en el interior del líquido, que sale a la superficie en forma de burbujas, con el característico hervor tumultuoso de la ebullición. Cuando el líquido es una sustancia simple o una mezcla azeotrópica, continúa hirviendo mientras se le aporte calor, sin aumentar la temperatura; esto quiere decir que la ebullición se produce a una temperatura y presión constantes con independencia de la cantidad de calor aplicada al líquido. Cuando se aumenta la presión sobre un líquido, el p.e. aumenta. El agua, sometida a una presión de 1 atmósfera (101.325 pascales), hierve a 100 °C, pero a una presión de 217 atmósferas el p.e. alcanza su valor máximo, 374 °C. Por encima de esta temperatura, (la temperatura crítica del agua) el agua en estado líquido es idéntica al vapor saturado. Al reducir la presión sobre un líquido, baja el valor del p.e. A mayores alturas, donde la presión es menor, el agua hierve por debajo de 100 °C. Si la presión sobre una muestra de agua desciende a 6 pascales, la ebullición tendrá lugar a 0 °C. Los puntos de ebullición se dan dentro de un amplio margen de temperaturas. El p.e. más bajo es el del helio, -268,9 °C; el más alto es probablemente el del volframio, unos 5.900 °C. Los puntos de ebullición correspondientes a los distintos elementos y compuestos que se citan en sus respectivos artículos, se refieren a la presión atmosférica normal, a no ser que se especifique otra distinta. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Sonido 1 INTRODUCCIÓN Sonido, fenómeno físico que estimula el sentido del oído. En los seres humanos, esto ocurre siempre que una vibración con frecuencia comprendida entre unos 15 y 20.000 hercios llega al oído interno. El hercio (Hz) es una unidad de frecuencia que corresponde a un ciclo por segundo. Estas vibraciones llegan al oído interno transmitidas a través del aire, y a veces se restringe el término “sonido” a la transmisión en este medio. Sin embargo, en la física moderna se suele extender el término a vibraciones similares en medios líquidos o sólidos. Los sonidos con frecuencias superiores a unos 20.000 Hz se denominan ultrasonidos. Véase Ultrasónica. Este artículo se ocupa de este campo de la física en líneas generales. Para lo relativo a la ciencia arquitectónica del diseño de estancias y edificios con propiedades adecuadas de propagación y recepción del sonido, véase Acústica. Para lo relativo a la naturaleza del proceso fisiológico de la audición de sonidos y la anatomía del mecanismo de audición en personas y animales, véase Oído. En cuanto a las propiedades generales de la producción y propagación de ondas vibracionales, entre ellas las ondas de sonido, véase Movimiento ondulatorio; Oscilación. En general, las ondas pueden propagarse de forma transversal o longitudinal. En ambos casos, sólo la energía y la cantidad de movimiento del movimiento ondulatorio se propagan en el medio; ninguna parte del propio medio se mueve físicamente a una gran distancia. Por ejemplo, imaginemos que atamos firmemente una cuerda a un poste por un extremo, la estiramos sin tensarla del todo y sacudimos el otro extremo. Una onda se desplazará por la cuerda hacia el poste, donde se reflejará y volverá hacia la mano. En realidad, ninguna parte de la cuerda se mueve longitudinalmente hacia el poste, pero todas las partes de la cuerda se mueven transversalmente. Este tipo de movimiento ondulatorio se denomina onda transversal. Del mismo modo, si tiramos una piedra a un estanque, una serie de ondas transversales se propaga desde el punto de impacto. Un corcho que flote cerca de dicho punto se moverá hacia arriba y hacia abajo, es decir, de forma transversal a la dirección del movimiento ondulatorio, pero apenas mostrará movimiento longitudinal. En cambio, una onda de sonido es una onda longitudinal. A medida que la energía del movimiento ondulatorio se propaga alejándose del centro de la perturbación, las moléculas de aire individuales que transmiten el sonido se mueven hacia delante y hacia atrás, de forma paralela a la dirección del movimiento ondulatorio. Por tanto, una onda de sonido es una serie de compresiones y enrarecimientos sucesivos del aire. Cada molécula individual transmite la energía a las moléculas vecinas, pero una vez que pasa la onda de sonido, las moléculas permanecen más o menos en la misma posición. 2 CARACTERÍSTICAS FÍSICAS Cualquier sonido sencillo, como una nota musical, puede describirse en su totalidad especificando tres características de su percepción: el tono, la intensidad y el timbre. Estas características corresponden exactamente a tres características físicas: la frecuencia, la amplitud y la composición armónica o forma de onda. El ruido es un sonido complejo, una mezcla de diferentes frecuencias o notas sin relación armónica. 1 Frecuencia Existen distintos métodos para producir sonido de una frecuencia deseada. Por ejemplo, un sonido de 440 Hz puede crearse alimentando un altavoz con un oscilador sintonizado a esa frecuencia (véase Grabación de sonido y reproducción). También puede interrumpirse un chorro de aire mediante una rueda dentada con 44 dientes que gire a 10 revoluciones por segundo; este método se emplea en las sirenas. Los sonidos de un altavoz y una sirena de la misma frecuencia tendrán un timbre muy diferente, pero su tono será el mismo, equivalente al la situado sobre el do central en un piano. El siguiente la del piano, la nota situada una octava por encima, tiene una frecuencia de 880 Hz. Las notas situadas una y dos octavas por debajo tienen frecuencias de 220 y 110 Hz respectivamente. Por definición, una octava es el intervalo entre dos notas cuyas frecuencias tienen una relación de uno a dos. Una ley fundamental de la armonía afirma que dos notas separadas por una octava producen una combinación eufónica cuando suenan simultáneamente. Cuando el intervalo es de una quinta o de una tercera mayor, la combinación es progresivamente menos eufónica. En física, un intervalo de una quinta implica que la relación de las frecuencias de ambas notas es de tres a dos; en una tercera mayor, la relación es de cinco a cuatro. La ley de la armonía afirma que dos o más notas producen un sonido eufónico al sonar de forma simultánea si la relación entre sus frecuencias corresponde a números enteros pequeños; si las frecuencias no presentan dichas relaciones, se produce una disonancia. En un instrumento de tonos fijos, como un piano, no es posible establecer las notas de forma que todas estas relaciones sean exactas, por lo que al afinarlo es necesario un cierto compromiso de acuerdo con el sistema de tonos medios o escala temperada. 2 Amplitud La amplitud de una onda de sonido es el grado de movimiento de las moléculas de aire en la onda, que corresponde a la intensidad del enrarecimiento y compresión que la acompañan. Cuanto mayor es la amplitud de la onda, más intensamente golpean las moléculas el tímpano y más fuerte es el sonido percibido. La amplitud de una onda de sonido puede expresarse en unidades absolutas midiendo la distancia de desplazamiento de las moléculas del aire, o la diferencia de presiones entre la compresión y el enrarecimiento, o la energía transportada. Por ejemplo, la voz normal presenta una potencia de sonido de aproximadamente una cienmilésima de vatio. Sin embargo, todas esas medidas son muy difíciles de realizar, y la intensidad de los sonidos suele expresarse comparándolos con un sonido patrón; en ese caso, la intensidad se expresa en decibelios (ver el apartado “Sensaciones de tono” más adelante). 3 Intensidad La distancia a la que se puede oír un sonido depende de su intensidad, que es el flujo medio de energía por unidad de área perpendicular a la dirección de propagación. En el caso de ondas esféricas que se propagan desde una fuente puntual, la intensidad es inversamente proporcional al cuadrado de la distancia, suponiendo que no se produzca ninguna pérdida de energía debido a la viscosidad, la conducción térmica u otros efectos de absorción. Por ejemplo, en un medio perfectamente homogéneo, un sonido será nueve veces más intenso a una distancia de 100 metros que a una distancia de 300 metros. En la propagación real del sonido en la atmósfera, los cambios de propiedades físicas del aire como la temperatura, presión o humedad producen la amortiguación y dispersión de las ondas sonoras, por lo que generalmente la ley del inverso del cuadrado no se puede aplicar a las medidas directas de la intensidad del sonido. 4 Timbre Si se toca el la situado sobre el do central en un violín, un piano y un diapasón, con la misma intensidad en los tres casos, los sonidos son idénticos en frecuencia y amplitud, pero muy diferentes en timbre. De las tres fuentes, el diapasón es el que produce el tono más sencillo, que en este caso está formado casi exclusivamente por vibraciones con frecuencias de 440 Hz. Debido a las propiedades acústicas del oído y las propiedades de resonancia de su membrana vibrante, es dudoso que un tono puro llegue al mecanismo interno del oído sin sufrir cambios. La componente principal de la nota producida por el piano o el violín también tiene una frecuencia de 440 Hz. Sin embargo, esas notas también contienen componentes con frecuencias que son múltiplos exactos de 440 Hz, los llamados tonos secundarios, como 880, 1.320 o 1.760 Hz. Las intensidades concretas de esas otras componentes, los llamados armónicos, determinan el timbre de la nota. 5 Velocidad del sonido La frecuencia de una onda de sonido es una medida del número de vibraciones por segundo de un punto determinado. La distancia entre dos compresiones o dos enrarecimientos sucesivos de la onda se denomina longitud de onda. El producto de la longitud de onda y la frecuencia es igual a la velocidad de propagación de la onda, que es la misma para sonidos de cualquier frecuencia (cuando el sonido se propaga por el mismo medio a la misma temperatura). Por ejemplo, la longitud de onda del la situado sobre el do central es de unos 78,2 cm, y la del la situado por debajo del do central es de unos 156,4 centímetros. La velocidad de propagación del sonido en aire seco a una temperatura de 0 °C es de 331,6 m/s. Al aumentar la temperatura aumenta la velocidad del sonido; por ejemplo, a 20 °C, la velocidad es de 344 m/s. Los cambios de presión a densidad constante no tienen prácticamente ningún efecto sobre la velocidad del sonido. En muchos otros gases, la velocidad sólo depende de su densidad. Si las moléculas son pesadas, se mueven con más dificultad, y el sonido avanza más despacio por el medio. Por ejemplo, el sonido avanza ligeramente más deprisa en aire húmedo que en aire seco, porque el primero contiene un número mayor de moléculas más ligeras. En la mayoría de los gases, la velocidad del sonido también depende de otro factor, el calor específico, que afecta a la propagación de las ondas de sonido. Generalmente, el sonido se mueve a mayor velocidad en líquidos y sólidos que en gases. Tanto en los líquidos como en los sólidos, la densidad tiene el mismo efecto que en los gases; la velocidad del sonido varía de forma inversamente proporcional a la raíz cuadrada de la densidad. La velocidad también varía de forma proporcional a la raíz cuadrada de la elasticidad. Por ejemplo, la velocidad del sonido en agua es de unos 1.500 m/s a temperaturas ordinarias, pero aumenta mucho cuando sube la temperatura. La velocidad del sonido en el cobre es de unos 3.500 m/s a temperaturas normales y decrece a medida que aumenta la temperatura (debido a la disminución de la elasticidad). En el acero, más elástico, el sonido se desplaza a unos 5.000 m/s; su propagación es muy eficiente. 6 Refracción, reflexión e interferencias El sonido avanza en línea recta cuando se desplaza en un medio de densidad uniforme. Sin embargo, igual que la luz, el sonido está sometido a la refracción, es decir, la desviación de las ondas de sonido de su trayectoria original (Véase Óptica). En las regiones polares, por ejemplo, donde el aire situado cerca del suelo es más frío que el de las capas más altas, una onda de sonido ascendente que entra en la región más caliente, donde el sonido avanza a más velocidad, se desvía hacia abajo por la refracción. La excelente recepción del sonido a favor del viento y la mala recepción en contra del viento también se deben a la refracción. La velocidad del aire suele ser mayor en las alturas que cerca del suelo; una onda de sonido ascendente que avanza a favor del viento se desvía hacia el suelo, mientras que una onda similar que se mueve en contra del viento se desvía hacia arriba, por encima de la persona que escucha. El sonido también se ve afectado por la reflexión, y cumple la ley fundamental de que el ángulo de incidencia es igual al ángulo de reflexión. Un eco es el resultado de la reflexión del sonido. El sonar se basa en la reflexión de los sonidos propagados en agua. Una bocina es un tubo cónico que forma un haz de ondas de sonido reflejando algunos de los rayos divergentes en los lados del tubo. Un tubo similar puede recoger ondas de sonido si se dirige el extremo ancho hacia la fuente de sonido. El sonido también experimenta difracción e interferencia. Si el sonido de una única fuente llega a un oyente por dos trayectorias diferentes —por ejemplo, una directa y otra reflejada—, los dos sonidos pueden reforzarse; sin embargo, si no están en fase pueden interferir de forma que el sonido resultante sea menos intenso que el sonido directo sin reflexión. Las trayectorias de interferencia son distintas para sonidos de diferentes frecuencias, con lo que la interferencia produce distorsión en sonidos complejos. Dos sonidos de distintas frecuencias pueden combinarse para producir un tercer sonido cuya frecuencia es igual a la suma o diferencia de las dos frecuencias originales. 3 SENSACIONES DE TONO Si se practica una audimetría a una persona joven normal, se comprueba que su oído es sensible a todos los sonidos entre 15-20 hercios y 15.000-20.000 hercios. El oído de las personas mayores es menos agudo, sobre todo en las frecuencias más elevadas. El oído es especialmente sensible en la gama que va desde el la situado por encima del do central hasta el la que está cuatro octavas por encima; en esa zona, una persona puede percibir un sonido cientos de veces más débil que una octava por encima o dos octavas por debajo. El grado en que un oído sensible puede distinguir entre dos notas puras que difieran ligeramente en intensidad o frecuencia varía en los diferentes rangos de intensidad y frecuencia de los tonos. En sonidos de intensidad moderada situados en el rango de frecuencia para el que el oído es más sensible (entre 1.000 y 2.000 Hz aproximadamente), es posible distinguir una diferencia de intensidad de un 20% (1 decibelio, o dB) y una diferencia en frecuencia de un 0,33% (alrededor de una vigésima de nota). En este mismo rango, la diferencia entre el sonido más tenue que puede oírse y el sonido más fuerte que puede distinguirse como tal sonido (los sonidos más fuertes se “sienten”, o perciben, como estímulos dolorosos) es de unos 120 decibelios: una diferencia de intensidad de aproximadamente un billón de veces. Todas estas pruebas de sensibilidad se refieren a tonos puros, como los producidos por un oscilador electrónico. Incluso para esos tonos puros, el oído es imperfecto. Dos notas con frecuencia idéntica pero una gran diferencia de intensidad pueden aparentar una ligera diferencia de tono. Más importante resulta la diferencia en las intensidades relativas aparentes en las distintas frecuencias. A intensidades altas, el oído es aproximadamente igual de sensible a la mayoría de las frecuencias, pero a bajas intensidades el oído es mucho más sensible a las frecuencias medias que a las extremas. Por tanto, un equipo de reproducción de sonido que funciona perfectamente parecerá no reproducir las notas más graves y agudas si se reduce mucho la intensidad. 1 Tres tipos de sonido importantes En la voz, la música y el ruido, es raro escuchar un tono puro. Una nota musical contiene, además de la frecuencia fundamental, tonos más agudos que son armónicos de la misma. La voz contiene una mezcla compleja de sonidos, de los que algunos (pero no todos) guardan una relación armónica entre sí. El ruido está formado por una mezcla de muchas frecuencias diferentes dentro de un determinado rango; por tanto, puede compararse con la luz blanca, que se compone de una mezcla de luces de los distintos colores. Los distintos ruidos se distinguen por sus diferentes distribuciones de energía en los distintos rangos de frecuencias ( véase Espectro). Cuando se transmite al oído un tono musical que contiene determinados armónicos del tono fundamental, pero carece de otros armónicos o del propio tono fundamental, el oído forma diferentes “batidos” o pulsaciones cuya frecuencia es la suma o la diferencia de los sonidos originales, con lo que producen los armónicos que faltan o el tono fundamental que no figura en el sonido original. Estas notas también son armónicos de la nota fundamental original. Esta respuesta incorrecta del oído puede resultar útil. Por ejemplo, un equipo reproductor de sonido sin un altavoz grande no puede producir sonidos de tono más grave que el do situado dos octavas por debajo del do central; sin embargo, el oído de una persona que escuche ese equipo puede proporcionar la nota fundamental a partir de las frecuencias de batido de sus armónicos. Otra imperfección del oído ante los sonidos ordinarios es la incapacidad de oír notas de alta frecuencia cuando existen sonidos de baja frecuencia de intensidad considerable. Este fenómeno se denomina enmascaramiento. En general, para que se entienda el habla y se comprenda satisfactoriamente un tema musical basta reproducir las frecuencias entre 250 y 3.000 Hz (el rango de frecuencias de un teléfono normal), aunque algunos sonidos —como la zeta— requieren frecuencias de hasta 6.000 Hz. Sin embargo, para que el efecto sea natural hay que reproducir el rango que va aproximadamente de 100 a 10.000 Hz. Los sonidos generados por unos pocos instrumentos musicales sólo pueden reproducirse con naturalidad con frecuencias algo más bajas, y algunos ruidos necesitan frecuencias más altas. En cuanto a la conversión de ondas de sonido en ondas eléctricas y viceversa, véase Micrófono; Teléfono. 4 PERSPECTIVA HISTÓRICA Los pueblos antiguos efectuaron numerosas especulaciones sobre los fenómenos elementales del sonido; sin embargo, con la excepción de unas pocas suposiciones que resultaron ser ciertas, la ciencia del sonido no empezó a desarrollarse hasta aproximadamente 1600 d.C. A partir de aquella época, el conocimiento del sonido avanzó con más rapidez que el conocimiento de los fenómenos luminosos correspondientes, ya que estos últimos son más difíciles de observar y medir. A los antiguos griegos no les preocupaba demasiado el estudio científico del sonido, pero estaban muy interesados por la música, y consideraban que representaba los “números aplicados”, frente a la aritmética, que representaba los “números puros”. El filósofo Pitágoras descubrió que una octava corresponde a una relación de frecuencias de dos a uno, y enunció la ley que vincula la consonancia a las relaciones numéricas; posteriormente construyó todo un edificio de especulaciones místicas en torno a esa ley. Aristóteles, en unas breves observaciones sobre el sonido, realizó una suposición bastante acertada sobre la naturaleza de su generación y transmisión. Sin embargo, no se efectuaron estudios experimentales válidos hasta 1600, cuando Galileo llevó a cabo un estudio científico del sonido y enunció muchas de sus leyes fundamentales. Galileo determinó la relación entre tono y frecuencia, y unas leyes musicales de armonía y disonancia que eran, en esencia, las que se han descrito en este artículo. También explicó de forma teórica cómo la frecuencia natural de vibración de una cuerda tensa, y por tanto la frecuencia de los sonidos producidos por un instrumento de cuerda, depende de la longitud, peso y tensión de la cuerda. 1 Los siglos XVII y XVIII El matemático francés Marin Mersenne realizó medidas cuantitativas en relación con el sonido al hallar el tiempo de retorno de un eco y calcular un valor de la velocidad del sonido que difería del valor real en menos del 10%. Mersenne también fue el primero en medir de forma aproximada la frecuencia de una nota de tono determinado. Midió la frecuencia de vibración de un cable largo y pesado cuyo movimiento era tan lento que podía seguirse a simple vista; después, a partir de consideraciones teóricas, calculó la frecuencia de un cable corto y ligero que producía un sonido audible. En 1660, el científico inglés de origen irlandés Robert Boyle demostró que el sonido necesitaba un medio gaseoso, líquido o sólido para su transmisión. Boyle colgó una campana de una cuerda en el vacío y mostró que, aunque podía verse cómo el badajo golpeaba la campana, no se oía ningún sonido. El matemático y físico británico Isaac Newton fue el primero en realizar un tratamiento matemático del sonido en sus Principios matemáticos de la filosofía natural (1687). Una vez demostrado que la propagación del sonido a través de cualquier fluido sólo dependía de propiedades físicas medibles del fluido, como la elasticidad o la densidad, Newton calculó a partir de consideraciones teóricas la velocidad del sonido en el aire. El siglo XVIII fue sobre todo un periodo de desarrollo teórico. El cálculo supuso una potente herramienta nueva para científicos de muchos campos. Los matemáticos franceses Jean le Rond d'Alembert y Joseph Louis Lagrange y los matemáticos suizos Johann Bernoulli y Leonhard Euler contribuyeron al conocimiento de cuestiones como el tono y el timbre del sonido producido por un instrumento musical determinado, o la velocidad y naturaleza de la transmisión del sonido en diferentes medios. Sin embargo, el tratamiento matemático completo del sonido requiere el análisis armónico, desarrollado por el matemático francés Joseph Fourier en 1822 y aplicado al sonido por el físico alemán Georg Simon Ohm. Las variaciones de sonido denominadas “batidos”, una consecuencia de la naturaleza ondulatoria del sonido, fueron descubiertas en torno a 1740 por el violinista italiano Giuseppe Tartini y el organista alemán Georg Sorge. El físico alemán Ernst Chladni realizó numerosos descubrimientos sobre el sonido a finales del siglo XVIII, sobre todo en relación con la vibración de cuerdas y varillas. 2 Siglos XIX y XX El siglo XIX supuso, sobre todo, una era de desarrollo experimental. Las primeras medidas precisas de la velocidad del sonido en el agua fueron llevadas a cabo en 1826 por el matemático francés Jacques-Charles-François Sturm, y a lo largo del siglo se realizaron numerosos experimentos para determinar con extremada precisión la velocidad de sonidos de diferentes frecuencias en distintos medios. La ley fundamental que dice que la velocidad es la misma para sonidos de cualquier frecuencia y depende de la densidad y elasticidad del medio quedó establecida en dichos experimentos. Durante el siglo XIX se emplearon en el estudio del sonido aparatos como el estroboscopio, el fonendoscopio o la sirena. En este siglo se dedicó también mucho interés al establecimiento de un patrón de tono. La primera sugerencia de un patrón la realizó el físico francés Joseph Sauveur alrededor de 1700. Sauveur propuso que el do equivaliera a 256 Hz, un patrón cómodo desde el punto de vista matemático (al ser una potencia de dos). El físico alemán Johann Heinrich Scheibler llevó a cabo la primera determinación precisa de la frecuencia de un tono, y en 1834 propuso como patrón que el la equivaliera a 440 Hz. En 1859, el gobierno francés decretó que el patrón para el la fuera de 435 Hz, según las investigaciones del físico francés Jules Antoine Lissajous. Este patrón se aceptó en muchas regiones del mundo hasta bien entrado el siglo XX. En el siglo XIX se inventaron el teléfono, el micrófono y diversos tipos de gramófono, todos ellos muy útiles para el estudio del sonido. En el siglo XX, los físicos dispusieron por primera vez de instrumentos que hacían posible un estudio sencillo, preciso y cuantitativo del sonido. Mediante osciladores electrónicos pueden producirse ondas electromagnéticas de cualquier tipo y convertirlas en sonido mediante sistemas electromagnéticos o piezoeléctricos (véase Electrónica). En sentido inverso, es posible convertir los sonidos en corrientes eléctricas mediante un micrófono, amplificarlas electrónicamente sin distorsión y analizarlas mediante un osciloscopio de rayos catódicos. Las técnicas modernas permiten grabar y reproducir el sonido con una fidelidad extremadamente elevada. En la I Guerra Mundial, las necesidades militares llevaron a emplear por primera vez el sonar para la detección de submarinos, que hoy también se emplea para estudiar las corrientes y capas oceánicas y para realizar mapas de los fondos marinos. En la actualidad, las ondas de sonido de frecuencias muy elevadas (ultrasonidos) se emplean en numerosas aplicaciones técnicas y médicas. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos. Barrera del sonido 1 INTRODUCCIÓN Barrera del sonido, término que se refiere a los efectos de compresibilidad experimentados por los aviones supersónicos cuando su velocidad con respecto al aire se aproxima a la velocidad local del sonido (1.223 km/h a nivel del mar en condiciones normales). 2 CHOQUE DE COMPRESIBILIDAD Estos efectos de compresibilidad se producen cuando un cuerpo —por ejemplo, una aeronave— alcanza una velocidad suficiente para romper el flujo normal de las moléculas de aire que se apartan para dejar paso al objeto que se aproxima. A esas velocidades, las moléculas de aire situadas en la trayectoria del objeto y en las inmediaciones no reciben la ‘advertencia’ de la llegada del objeto con suficiente antelación para poder apartarse de forma ordenada, y son sometidas a un desplazamiento violento. Esta ruptura en la fluidez del flujo de aire se produce porque el medio normal de ‘advertencia’ son las ondas de presión, que viajan a la velocidad local del sonido, y en este caso son adelantadas por el objeto en movimiento. Este efecto, conocido como choque de compresibilidad, provoca cambios importantes en la distribución de presiones, densidades y temperaturas del aire alrededor del cuerpo en movimiento. La velocidad local del sonido varía significativamente, y disminuye —aunque de forma errática— al aumentar la altitud sobre la superficie terrestre. Por ejemplo, mientras que la velocidad local del sonido es de unos 1.220 km/h al nivel del mar, cae hasta aproximadamente 1.060 km/h a 11.000 m de altitud, tras lo que permanece constante hasta los 18.000 metros. El llamado ‘número de Mach‘ es la velocidad de un proyectil o avión con respecto al medio que lo rodea, dividida entre la velocidad del sonido en ese mismo medio y bajo las mismas condiciones. Por tanto, a nivel del mar y en condiciones normales de humedad y temperatura, una velocidad de 1.223 km/h representa un número de Mach de 1, y se designaría por ‘Mach 1’. Esta misma velocidad en la estratosfera correspondería a Mach 1,16, debido a las diferencias de densidad, presión y temperatura a mayores altitudes. Al indicar las velocidades por su número de Mach en lugar de hacerlo en kilómetros por hora, puede obtenerse una representación más adecuada de las condiciones reales del vuelo. 3 HISTORIA Las investigaciones aerodinámicas realizadas en la década de 1930 no lograron producir un avión capaz de entrar en la región de compresibilidad. Además, durante los años siguientes, las industrias aeronáuticas de todo el mundo pasaron de desarrollar nuevos modelos a fabricar en masa versiones mínimamente modificadas de sus diseños existentes, ya que la proximidad de la guerra hizo que los gobiernos exigieran mayores niveles de producción. 1 La década de 1940 Esto no quiere decir que no se produjeran avances: en Estados Unidos, los esfuerzos para producir un motor radial de 2.000 caballos culminaron con éxito en 1940. En Alemania, en agosto de 1939 ya se había probado en vuelo un reactor experimental propulsado por un motor de reacción HE-2B desarrollado por el ingeniero aeronáutico Ernst Heinkel. No hubo demasiados signos de avances aerodinámicos comparables fuera de Alemania, donde se estaba estudiando la idea de alas en flecha de sección delgada como método para retrasar la aparición de efectos de compresibilidad. El principal obstáculo al que se enfrentaban los expertos en aerodinámica —que no sería resuelto hasta finales de la década de 1940— residía en la incapacidad de construir un túnel aerodinámico capaz de proporcionar resultados precisos para velocidades situadas en la zona de compresibilidad o próximas a la misma. En ausencia de ese tipo de datos, los diseñadores de aviones de gran velocidad se limitaron a seguir produciendo versiones cada vez más depuradas de los diseños tradicionales, dotadas de versiones cada vez más potentes de los motores tradicionales. En 1944 se vino a unir a los cazas de hélice la primera generación de aviones de reacción. Aparte de volar a una velocidad algo mayor, los nuevos reactores empleaban los diseños aerodinámicos tradicionales, con el clásico perfil de ala con superficies superiores mucho más curvadas que las inferiores. A fin de evitar que se formara un vacío, el aire que pasaba por encima de las alas debía avanzar más rápidamente que el que fluía por debajo. Por tanto, el aire situado encima de las alas era el primero en encontrarse con fenómenos de compresibilidad localizados que, a su vez, afectaban a la controlabilidad del avión. Sorprendentemente, parece que ninguna de las naciones beligerantes de la II Guerra Mundial llevó a cabo investigaciones coherentes sobre compresibilidad, salvo explorar modelo por modelo la capacidad de picado a gran velocidad, tras lo cual se daba instrucciones a los pilotos de que no superaran determinadas velocidades a una altitud dada. 2 La era de la barrera del sonido La aviación no entraría en la era de la barrera del sonido hasta el 14 de octubre de 1947, cuando el capitán estadounidense Charles Yeager (Chuck Yeager) llevó el avión Bell X-1 propulsado por cohetes hasta una velocidad con respecto al aire de 1.078 km/h a 12.800 m de altura, lo que corresponde a Mach 1,015. Aunque Yeager había demostrado sin lugar a dudas que era posible romper la barrera del sonido, aún aprendería por experiencia propia que los efectos poco conocidos de la compresibilidad, potencialmente peligrosos, podían acechar a la vuelta de la esquina. Más de seis años después de superar Mach 1, Yeager se encontró con un problema mientras volaba a Mach 2,4. En un fenómeno descrito como acoplamiento inercial de balanceo, el X-1A que pilotaba empezó repentinamente a balancearse; cualquier intento de Yeager por recuperar altura y controlar el avión no hacía sino aumentar el problema. En unos segundos perdió totalmente el control, y el avión cayó rápidamente desde su altitud inicial de casi 23.000 m hasta unos 10.500 m, donde se estabilizó en una barrena invertida subsónica. Yeager sobrevivió, pero ese mismo año el mismo fenómeno causó la muerte de George Welsh, el más cualificado de los pilotos de pruebas estadounidenses, con lo que fue necesario interrumpir los suministros del primer caza auténticamente supersónico, el F-100 Super Sabre (que alcanzaba Mach 1,3), hasta encontrar una solución al acoplamiento inercial de balanceo y otros efectos. El despliegue operativo del F-100 en 1955 cerró la era de la barrera del sonido, y supuso la culminación de los esfuerzos realizados por audaces pilotos que probaban los nuevos aparatos a gran altitud sobre las montañas estadounidenses de sierra Nevada. Mientras que la Unión Soviética casi igualó el esfuerzo estadounidense durante la década de 1950, otros países como Gran Bretaña (con el English Electric Lightning), Francia (con el Dassault Mirage III) y Suecia (con el Saab 35 Draken) no desplegaron cazas supersónicos de producción nacional hasta 1960. Los aviones supersónicos actuales se construyen con materiales avanzados capaces de resistir el calor provocado por el rozamiento del aire a velocidades tan elevadas. La mayoría son aeronaves militares, con la famosa excepción del avión comercial de lujo franco-británico Concorde, que realizó sus primeros vuelos de prueba en 1971 y empezó a transportar pasajeros a Estados Unidos en 1976. Capaz de lograr velocidades en torno a Mach 2, el Concorde combina una velocidad propia de aviones militares con la seguridad y fiabilidad de una aeronave comercial. El Concorde, también conocido como transporte supersónico (SST), es capaz de realizar la travesía de ida y vuelta del Atlántico norte en menos tiempo del que un reactor normal necesita para hacer el vuelo de ida. Sin embargo, el ruido producido por este avión esbelto de atractivo diseño siempre ha creado problemas medioambientales, y sólo se construyeron 16 de las 400 unidades previstas inicialmente. Actualmente hay 14 Concordes en servicio, y todavía no se han concretado planes para construir un nuevo avión comercial supersónico. Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation. Reservados todos los derechos.