Apuntes2

Anuncio
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 1
Mecánica cuántica
En unos pocos años, aproximadamente entre 1924 y 1930, se desarrolló
un nuevo enfoque teórico de la dinámica para explicar el comportamiento
subatómico. El nuevo planteamiento, llamado mecánica cuántica o mecánica
ondulatoria, comenzó cuando el físico francés Louis de Broglie sugirió en
1924 que no sólo la radiación electromagnética, sino también la materia podía
presentar una dualidad onda-corpúsculo. La longitud de onda de las llamadas
ondas de materia asociadas con una partícula viene dada por la ecuación =
h/mv, donde m es la masa de la partícula y v su velocidad. Las ondas de
materia se concebían como ondas piloto que guiaban el movimiento de las
partículas, una propiedad que debería llevar a que en condiciones adecuadas
se produjera difracción. Ésta se confirmó en 1927 con los experimentos sobre
interacciones entre electrones y cristales realizados por los físicos
estadounidenses Clinton Joseph Davisson y Lester Halbert Germer y por el
físico británico George Paget Thomson. Posteriormente, los alemanes Werner
Heisenberg, Max Born y Ernst Pascual Jordan, y el austriaco Erwin
Schrödinger dieron a la idea planteada por de Broglie una forma matemática
que podía aplicarse a numerosos fenómenos físicos y a problemas que no
podían tratarse con la física clásica. Además de confirmar el postulado de
Bohr sobre la cuantización de los niveles de energía de los átomos, la
mecánica cuántica hace que en la actualidad podamos comprender los
átomos más complejos, y también ha supuesto una importante guía en la
física nuclear. Aunque por lo general la mecánica cuántica sólo se necesita
en fenómenos microscópicos (la mecánica newtoniana sigue siendo válida
para sistemas macroscópicos), ciertos efectos macroscópicos como las
propiedades de los sólidos cristalinos sólo pueden explicarse de forma
satisfactoria a partir de los principios de la mecánica cuántica.
Desde entonces se han incorporado nuevos conceptos importantes al
panorama de la mecánica cuántica, más allá de la idea de Broglie sobre la
dualidad onda-corpúsculo de la materia. Uno de estos conceptos es que los
electrones deben tener un cierto magnetismo permanente y por tanto un
momento angular intrínseco, o espín. Después se comprobó que el espín es
una propiedad fundamental de casi todas las partículas elementales. En
1925, el físico austriaco Wolfgang Pauli expuso el principio de exclusión, que
afirma que en un átomo no puede haber dos electrones con el mismo
conjunto de números cuánticos (hacen falta cuatro números cuánticos para
especificar completamente el estado de un electrón dentro de un átomo). El
principio de exclusión es vital para comprender la estructura de los elementos
y de la tabla periódica. En 1927, Heisenberg postuló el principio de
incertidumbre, que afirma la existencia de un límite natural a la precisión con
la que pueden conocerse simultáneamente determinados pares de
magnitudes físicas asociadas a una partícula (por ejemplo, la cantidad de
movimiento y la posición).
En 1928 el físico matemático británico Paul Dirac realizó una síntesis de la
mecánica cuántica y la relatividad, que le llevó a predecir la existencia del
positrón y culminó el desarrollo de la mecánica cuántica.
Las ideas de Bohr desempeñaron un papel muy importante para el
desarrollo de un enfoque estadístico en la física moderna. Las relaciones de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 2
causa y efecto de la mecánica newtoniana, totalmente deterministas, fueron
sustituidas por predicciones de sucesos futuros basadas sólo en
probabilidades estadísticas. Las propiedades ondulatorias de la materia
implican que, de acuerdo con el principio de incertidumbre, el movimiento de
las partículas nunca puede predecirse con una certeza absoluta, incluso
aunque se conozcan por completo las fuerzas. Aunque este aspecto
estadístico no es detectable en los movimientos macroscópicos, es
dominante a escala molecular, atómica y subatómica.
Física nuclear
El descubrimiento de la radiactividad del mineral de uranio, llevado a cabo
en 1896 por Becquerel, también facilitó la comprensión de la estructura
atómica. En los años siguientes se comprobó que la radiación de los
materiales radiactivos estaba formada por tres tipos de emisiones: los
llamados rayos alfa, beta y gamma. Rutherford estableció que los primeros
eran núcleos de átomos de helio, y Becquerel demostró que los segundos
eran electrones muy rápidos. Los rayos gamma resultaron ser radiación
electromagnética de muy alta frecuencia. En 1898, los físicos franceses Marie
y Pierre Curie aislaron dos elementos muy radiactivos, el radio y el polonio, a
partir del mineral de uranio, con lo que demostraron que las radiaciones
pueden identificarse con determinados elementos. En 1903, Rutherford y el
químico y físico británico Frederick Soddy demostraron que la emisión de
rayos alfa o beta provoca la transmutación del núcleo del elemento emisor en
un núcleo de un elemento diferente. Poco después se comprobó que los
procesos radiactivos son aleatorios y sólo pueden estudiarse desde un punto
de vista estadístico: no existe ningún método para indicar qué núcleo de un
átomo de un material radiactivo se desintegrará en un momento dado. Estos
avances, además de llevar al modelo atómico de Rutherford y Bohr, también
sugerían que los rayos alfa, beta y gamma sólo podían proceder de núcleos
de átomos muy pesados. En 1919, Rutherford bombardeó núcleos de
nitrógeno con partículas alfa y los convirtió en núcleos de hidrógeno y
oxígeno, con lo que logró la primera transmutación artificial de elementos.
Entretanto el conocimiento de la naturaleza y abundancia de los isótopos
iba creciendo, debido en gran medida al desarrollo del espectrómetro de
masas. Surgió un modelo atómico en el que el núcleo contenía toda la carga
positiva y casi toda la masa del átomo. Los portadores de la carga nuclear
fueron identificados como protones, pero sólo podía explicarse la masa del
núcleo si existían otras partículas adicionales sin carga (salvo en el caso del
hidrógeno, cuyo núcleo está formado sólo por un protón). En 1932, el físico
británico James Chadwick descubrió el neutrón, una partícula eléctricamente
neutra cuya masa es igual a 1,675 × 10-27 kg, algo mayor que la del protón.
Los núcleos atómicos resultaron pues estar formados por protones y
neutrones —llamados colectivamente nucleones— y el número atómico del
elemento corresponde al número de protones del núcleo. Por otra parte, el
número másico, también denominado número isotópico, corresponde a la
suma del número de protones y neutrones. Por ejemplo, todos los átomos de
oxígeno (cuyo número atómico es 8) tienen ocho protones, pero los tres
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 3
isótopos de oxígeno 16O, 17O y 18O contienen respectivamente ocho, nueve
y diez neutrones en su núcleo.
Las cargas eléctricas positivas se repelen, y puesto que los núcleos
atómicos (salvo el del hidrógeno) tienen más de un protón, se desintegrarían
a no ser por una fuerza atractiva muy intensa, la llamada interacción nuclear
fuerte, que mantiene unidos los nucleones. La energía asociada con esta
interacción fuerte es muy grande, millones de veces mayor que las energías
características de los electrones en sus órbitas, responsables de los enlaces
químicos. Por tanto, una partícula alfa (formada por dos neutrones y dos
protones) tendría que superar esta intensa interacción fuerte para escapar de
un núcleo radiactivo como el del uranio. El fenómeno fue explicado por los
físicos estadounidenses Edward Condon, George Gamow y Ronald Wilfred
Gurney, que en 1928 aplicaron la mecánica cuántica al problema de la
emisión alfa y demostraron que la naturaleza estadística de los procesos
nucleares permitía que las partículas alfa salieran de los núcleos radiactivos
aunque su energía media fuera insuficiente para superar la interacción
nuclear fuerte. La emisión beta se explicó como resultado de la
desintegración de un neutrón del núcleo, que se transforma en un electrón (la
partícula beta) que se expulsa rápidamente y en un protón residual. El núcleo
resultante tiene un protón más que el núcleo original, por lo que su número
atómico, y por tanto su posición en la tabla periódica, aumentan en una
unidad. Después de una emisión alfa o beta, el núcleo suele tener un exceso
de energía, del que se deshace emitiendo un fotón de rayos gamma.
En todos estos procesos se libera una gran cantidad de energía, según la
ecuación de Einstein E = mc2. Al finalizar el proceso, la masa total de los
productos es menor que la del núcleo original: esta diferencia de masa
corresponde a la energía liberada.
Avances de la física desde 1930
La rápida expansión de la física en las últimas décadas ha sido posible
gracias a los avances fundamentales del primer tercio del siglo XX, junto con
los recientes adelantos tecnológicos, sobre todo en tecnología informática,
electrónica, aplicaciones de la energía nuclear y aceleradores de partículas
de altas energías.
Aceleradores
Rutherford y los otros pioneros de la investigación de las propiedades
nucleares estaban limitados a emplear en sus investigaciones sobre el átomo
las emisiones de alta energía procedentes de sustancias radiactivas
naturales. Las emisiones artificiales de alta energía fueron producidas por
primera vez en 1932 por el físico británico John Cockcroft y su colega irlandés
Ernest Walton, que emplearon generadores de alta tensión para acelerar
electrones hasta unos 700.000 eV; estos elementos fueron utilizados para
bombardear núcleos de litio, que se transformaron en núcleos de helio. Un
electronvoltio (eV) es la energía que adquiere un electrón al ser acelerado
con una diferencia de potencial de 1 voltio, y equivale a 1,6 × 10 -19 julios. Los
aceleradores modernos producen energías de millones de eV
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 4
(megaelectronvoltios, o MeV), miles de millones de eV (gigaelectronvoltios, o
GeV) o incluso billones de eV (teraelectronvoltios, o TeV). La posibilidad de
generar tensiones muy elevadas apareció en 1932, cuando el físico
estadounidense Robert J. Van de Graaff inventó el aparato conocido como
generador de Van de Graaff.
Poco tiempo después, los físicos estadounidenses Ernest Orlando
Lawrence y Milton Stanley Livingston inventaron el ciclotrón; este dispositivo
emplea un campo magnético para mantener partículas cargadas moviéndose
en trayectorias circulares, y en cada media vuelta proporciona a las partículas
un pequeño ‘empujón’ eléctrico hasta que acumulan las altas energías
deseadas. El ciclotrón permitía acelerar protones hasta unos 10 MeV, pero
para obtener energías más elevadas hubo que esperar hasta después de la
II Guerra Mundial, cuando se desarrolló el sincrotrón a partir de las ideas del
físico estadounidense Edwin Mattison McMillan y el físico soviético Vladimir I.
Veksler. Después de la II Guerra Mundial se produjeron rápidos avances en el
diseño de aceleradores y se construyeron aparatos de diferentes tipos para
producir haces de alta energía de electrones, protones, deuterones, iones
pesados o rayos X.
Los aceleradores de menores energías tienen diferentes aplicaciones en
industrias y laboratorios, mientras que los más potentes se usan para estudiar
la estructura de las partículas elementales, los componentes básicos de la
naturaleza. En estos estudios se desintegran partículas elementales
golpeándolas con haces de proyectiles, que suelen ser protones o electrones.
La distribución de los fragmentos proporciona información sobre la estructura
de las partículas elementales.
Para obtener información más detallada hace falta usar proyectiles con
más energía. Como los proyectiles se aceleran ‘empujándolos’ para obtener
mayores energías, hace falta ‘empujarlos’ durante un tiempo mayor. Por eso,
los aceleradores de altas energías suelen ser más grandes. La mayor energía
de haz obtenida a finales de la II Guerra Mundial era menor de 100 MeV. En
1952 se produjo un avance revolucionario en el diseño de aceleradores
cuando los físicos estadounidenses Livingston, Ernest D. Courant y Hartland
S. Snyder introdujeron el principio de enfoque intenso. En la actualidad, los
mayores aceleradores del mundo producen haces de protones con energías
superiores a 1 TeV.
Detectores de partículas
En sus comienzos, la detección y análisis de partículas elementales se
basaba en su capacidad para impresionar emulsiones fotográficas y excitar
materiales fluorescentes. El físico británico C. T. R. Wilson observó por
primera vez las trayectorias de partículas ionizadas en una cámara de niebla,
donde las gotitas de agua se condensaban sobre los iones producidos por las
partículas a su paso por la cámara. Mediante campos eléctricos o magnéticos
era posible desviar las trayectorias de las partículas, lo que proporcionaba
información sobre su momento lineal y su carga eléctrica. Un avance
significativo sobre la cámara de niebla fue la cámara de burbujas, inventada
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 5
por el físico estadounidense Donald Arthur Glaser en 1952. A diferencia de la
cámara de niebla, este dispositivo emplea un líquido (por lo general
hidrógeno a presión) en lugar de aire; los iones producidos por una partícula
rápida se convierten en centros de ebullición y dejan una trayectoria de
burbujas fácilmente visible. Como la densidad del líquido es mucho mayor
que la del aire, en una cámara de burbujas se producen más interacciones
que en una cámara de niebla. Además, las burbujas desaparecen más
deprisa que las gotitas de agua, lo que permite una recuperación más rápida
de la cámara. Un tercer avance, la cámara de chispa, surgió en la década de
1950. En este aparato, una serie de placas paralelas se mantiene a una
diferencia de potencial elevada en una atmósfera gaseosa adecuada. Cuando
una partícula ionizante pasa entre las placas, los átomos de gas se ionizan y
producen chispas que delinean la trayectoria de la partícula.
Un tipo diferente de detector, el contador de descarga, fue desarrollado a
principios del siglo XX por el físico alemán Hans Geiger; más tarde lo mejoró
el físico estadounidense de origen alemán Walter Müller. En la actualidad se
conoce como contador Geiger-Müller, o simplemente contador Geiger. A
pesar de su comodidad y pequeño tamaño, ha sido sustituido en la mayoría
de los casos por contadores de estado sólido más rápidos y prácticos, como
el contador de centelleo, que fue desarrollado alrededor de 1947 por el físico
estadounidense de origen alemán Hartmut Paul Kallmann y otros. El contador
de centelleo se basa en los destellos luminosos que producen las partículas
ionizadas al atravesar determinados cristales y líquidos orgánicos.
Rayos cósmicos
Alrededor de 1911, el físico estadounidense de origen austriaco Victor
Franz Hess estudió los rayos cósmicos. Los rayos cósmicos primarios están
formados por partículas que proceden directamente del exterior de la
atmósfera terrestre. Los rayos cósmicos secundarios son partículas y
radiaciones producidas en la colisión de las partículas de rayos cósmicos
primarios con los átomos de la atmósfera. Hess descubrió que la distribución
de los rayos cósmicos está determinada por el campo magnético terrestre. Se
comprobó que los rayos estaban cargados positivamente y corresponden
sobre todo a protones con energías situadas entre 1 GeV y 1011 GeV. Los
rayos cósmicos atrapados en órbitas alrededor de la Tierra son los
responsables de los cinturones de radiación de Van Allen, descubiertos por el
primer satélite artificial estadounidense, lanzado en 1958.
Cuando un protón primario de alta energía entra en la atmósfera y
colisiona con los núcleos de nitrógeno y oxígeno del aire, produce grandes
cantidades de partículas secundarias que se dirigen hacia la Tierra formando
una lluvia de rayos cósmicos. El origen de los protones de los rayos cósmicos
primarios todavía no se comprende en su totalidad. Se sabe que algunos
proceden del Sol y otras estrellas, pero los de energías más altas son difíciles
de explicar: parece probable que los débiles campos galácticos aceleren los
protones interestelares a lo largo de periodos extremadamente largos.
Partículas elementales
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 6
Además del electrón, el protón, el neutrón y el fotón se han descubierto
muchas otras partículas fundamentales. En 1932, el físico estadounidense
Carl David Anderson descubrió el antielectrón o positrón, que Dirac había
predicho en 1928. Anderson comprobó que un rayo gamma de alta energía
procedente de la radiación cósmica podía desaparecer en las proximidades
de un núcleo pesado y crear un par electrón-positrón exclusivamente a partir
de su energía. Cuando un positrón choca con un electrón se aniquilan entre
sí y dan lugar a una lluvia de fotones.
En 1935, el físico japonés Yukawa Hideki desarrolló una teoría que
explicaba cómo se mantiene unido un núcleo a pesar de la repulsión mutua
entre sus protones. Yukawa postuló la existencia de una partícula de masa
intermedia entre el electrón y el protón. En 1936, Anderson y sus
colaboradores descubrieron en la radiación cósmica secundaria una nueva
partícula con una masa 207 veces superior a la del electrón. Al principio se
creyó que esa partícula, que se denominó muón, era el ‘pegamento’ nuclear
de Yukawa. Los experimentos posteriores del físico británico Cecil Frank
Powell y otros llevaron al descubrimiento de una partícula algo más pesada,
con una masa 270 veces mayor que la del electrón. Este mesón pi o pión
(también hallado en la radiación cósmica secundaria) fue finalmente
identificado como la pieza que faltaba en la teoría de Yukawa.
Desde entonces se han encontrado muchas partículas adicionales en la
radiación cósmica secundaria y en los aceleradores de partículas de altas
energías. Entre ellas figuran numerosas partículas de gran masa,
denominadas hadrones (partículas afectadas por la interacción nuclear fuerte,
que mantiene unidos los núcleos atómicos), que incluyen los hiperones y
diversos mesones pesados cuya masa es de 1 a 3 veces la del protón,
además de los llamados bosones vectoriales intermedios, como las partículas
W y Z0, los portadores de la interacción nuclear débil. Estas partículas
pueden ser eléctricamente neutras, positivas o negativas, pero nunca tienen
más de una carga eléctrica elemental, e. Tienen un periodo de
semidesintegración que va desde 10-8 hasta 10-14 segundos, y se
desintegran dando lugar a numerosas partículas más ligeras. Cada partícula
tiene su antipartícula correspondiente y posee un determinado momento
angular. Todas cumplen una serie de leyes de conservación relativas a
números cuánticos como el número bariónico, la llamada extrañeza o el espín
isotópico.
En 1931, para explicar el aparente incumplimiento de algunas leyes de
conservación en determinados procesos radiactivos, Pauli postuló la
existencia de partículas eléctricamente neutras de masa nula o casi nula que
transportan energía y momento lineal. Esta idea fue desarrollada por el físico
estadounidense nacido en Italia Enrico Fermi, que llamó neutrino a esta
partícula hipotética. Al carecer de carga y ser extremadamente pequeño, el
neutrino es muy difícil de detectar, y puede atravesar con facilidad toda la
Tierra sin ser capturado. Fue finalmente descubierto por los estadounidenses
Frederick Reines y Clyde Lorrain Cowan, hijo. Los experimentos del físico
estadounidense Robert Hofstadter con electrones rápidos procedentes de
aceleradores lineales también contribuyeron a ampliar el conocimiento de la
estructura interna de los protones y neutrones.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 7
A finales de la década de 1940, una serie de experimentos con rayos
cósmicos reveló nuevos tipos de partículas cuya existencia no se había
pronosticado. Se las denominó partículas extrañas, y sus propiedades se
estudiaron intensivamente en la década de 1950. En la década de 1960, se
encontraron muchas partículas nuevas en experimentos con grandes
aceleradores. El nombre de partículas elementales se aplica al electrón, el
protón, el neutrón, el fotón y a todas las partículas descubiertas desde 1932.
Sin embargo, el término es de hecho incorrecto, ya que se ha comprobado
que la mayoría de estas partículas tienen una estructura interna complicada.
La física de partículas elementales se ocupa de dos cuestiones: 1) la
estructura interna de estos componentes de la materia; 2) la interacción de
los mismos para formar núcleos. En la actualidad ya se conocen los principios
físicos que explican cómo se forman átomos y moléculas a partir de núcleos y
electrones; ahora se realizan intensas investigaciones para averiguar los
principios que rigen la estructura de toda la materia.
La teoría dominante acerca de la estructura interna de las partículas
elementales se basa en los quarks, subpartículas de carga fraccionaria; por
ejemplo, un protón está formado por tres quarks. Esta teoría fue propuesta
por primera vez en 1964 por los físicos estadounidenses Murray Gell-Mann y
George Zweig. Los nucleones están formados por tríos de quarks, mientras
que los mesones están formados por parejas de quarks. No se conoce ningún
proceso para producir quarks aislados, pero se cree que existieron de forma
individual en las condiciones extremas que reinaron al comienzo del Universo.
Al principio la teoría postulaba tres tipos de quarks, pero los experimentos
posteriores exigieron la introducción de otros tres tipos adicionales.
Teoría del campo unificado
Hasta ahora, las teorías más fructíferas de las interacciones entre las
partículas elementales son las llamadas teorías de gauge. En estas teorías, la
interacción entre dos clases de partículas se caracteriza por la simetría. Por
ejemplo, la simetría entre neutrones y protones consiste en que si se
intercambian las identidades de las partículas no cambia nada en lo relativo a
la interacción fuerte. La primera de las teorías de gauge se aplicó a las
interacciones electromagnéticas entre partículas cargadas. Aquí, la simetría
reside en el hecho de que los cambios en la combinación de potenciales
eléctricos y magnéticos no tienen efecto sobre los resultados finales. Una
teoría de gauge muy potente, posteriormente verificada, fue propuesta de
forma independiente por el físico estadounidense Steven Weinberg y el físico
paquistaní Abdus Salam en 1967 y 1968. Su modelo vinculaba los bosones
vectoriales intermedios con el fotón, con lo que unificaba las interacciones
electromagnética y nuclear débil, aunque sólo en el caso de los leptones
(partículas no afectadas por la interacción nuclear fuerte). Los trabajos
posteriores de Sheldon Lee Glashow, J. Iliopolis y L. Maiani demostraron la
forma en que el modelo puede aplicarse también a los hadrones (partículas
afectadas por la interacción fuerte).
En principio, la teoría de gauge puede aplicarse a cualquier campo de
fuerzas, lo que presenta la posibilidad de que todas las fuerzas o
interacciones puedan unirse en una única teoría del campo unificado. Estos
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 8
intentos implican siempre el concepto de simetría. Las simetrías
generalizadas se extienden también a intercambios de partículas que varían
de un punto a otro en el espacio y en el tiempo. El problema para los físicos
es que estas simetrías no amplían el conocimiento científico de la naturaleza
de la materia. Por eso, muchos físicos están explorando las posibilidades de
las llamadas teorías de supersimetría, que relacionarían directamente los
fermiones y los bosones postulando nuevas parejas de partículas ‘gemelas’
además de las conocidas, que sólo se diferenciarían por el espín. Se han
expresado algunas reservas en relación con estos intentos; en cambio, otro
enfoque conocido como teoría de supercuerdas suscita mucho interés. En
esta teoría, las partículas fundamentales no se consideran objetos sin
dimensiones sino ‘cuerdas’ que se extienden en una dimensión con
longitudes menores de 10-35 metros. Todas estas teorías resuelven muchos
de los problemas con que se encuentran los físicos que trabajan en la teoría
del campo unificado, pero de momento sólo son construcciones bastante
especulativas.
Física nuclear
En 1931 el físico estadounidense Harold Clayton Urey descubrió el isótopo
del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El
núcleo de deuterio o deuterón (formado por un protón y un neutrón)
constituye un excelente proyectil para inducir reacciones nucleares. Los
físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo
radiactivo artificial en 1933-1934, con lo que comenzó la producción de
radioisótopos para su empleo en arqueología, biología, medicina, química y
otras ciencias.
Fermi y numerosos colaboradores emprendieron una serie de
experimentos para producir elementos más pesados que el uranio
bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han
creado artificialmente al menos una docena de estos elementos
transuránicos. A medida que continuaba su trabajo se produjo un
descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes
Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico
británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se
dividían en dos partes, fenómeno denominado fisión nuclear. La fisión
liberaba una cantidad enorme de energía debida a la pérdida de masa,
además de algunos neutrones. Estos resultados sugerían la posibilidad de
una reacción en cadena automantenida, algo que lograron Fermi y su grupo
en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances
tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945
como resultado de un ingente programa de investigación dirigido por el físico
estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado
a la producción de electricidad entró en funcionamiento en Gran Bretaña en
1956, con una potencia de 78 megavatios.
La investigación de la fuente de energía de las estrellas llevó a nuevos
avances. El físico estadounidense de origen alemán Hans Bethe demostró
que las estrellas obtienen su energía de una serie de reacciones nucleares
que tienen lugar a temperaturas de millones de grados. En estas reacciones,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 9
cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que
liberan dos positrones y cantidades inmensas de energía. Este proceso de
fusión nuclear se adoptó con algunas modificaciones —en gran medida a
partir de ideas desarrolladas por el físico estadounidense de origen húngaro
Edward Teller— como base de la bomba de fusión, o bomba de hidrógeno.
Este arma, que se detonó por primera vez en 1952, era mucho más potente
que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña
bomba de fisión aporta las altas temperaturas necesarias para desencadenar
la fusión, también llamada reacción termonuclear.
Gran parte de las investigaciones actuales se dedican a la producción de
un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo
que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía.
En diciembre de 1993 se logró un avance significativo en esa dirección
cuando los investigadores de la Universidad de Princeton, en Estados Unidos,
usaron el Reactor Experimental de Fusión Tokamak para producir una
reacción de fusión controlada que proporcionó durante un breve tiempo una
potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de
la que produjo.
Física del estado sólido
En los sólidos, los átomos están densamente empaquetados, lo que lleva a
la existencia de fuerzas de interacción muy intensas y numerosos efectos
relacionados con este tipo de fuerzas que no se observan en los gases,
donde las moléculas actúan en gran medida de forma independiente. Los
efectos de interacción son responsables de las propiedades mecánicas,
térmicas, eléctricas, magnéticas y ópticas de los sólidos, un campo que
resulta difícil de tratar desde el punto de vista teórico, aunque se han
realizado muchos progresos.
Una característica importante de la mayoría de los sólidos es su estructura
cristalina, en la que los átomos están distribuidos en posiciones regulares que
se repiten de forma geométrica. La distribución específica de los átomos
puede deberse a una variada gama de fuerzas. Por ejemplo, algunos sólidos
como el cloruro de sodio o sal común se mantienen unidos por enlaces
iónicos debidos a la atracción eléctrica entre los iones que componen el
material. En otros, como el diamante, los átomos comparten electrones, lo
que da lugar a los llamados enlaces covalentes. Las sustancias inertes, como
el neón, no presentan ninguno de esos enlaces. Su existencia es el resultado
de las llamadas fuerzas de van der Waals, así llamadas en honor al físico
holandés Johannes Diderik van der Waals. Estas fuerzas aparecen entre
moléculas o átomos neutros como resultado de la polarización eléctrica. Los
metales, por su parte, se mantienen unidos por lo que se conoce como ‘gas
electrónico’, formado por electrones libres de la capa atómica externa
compartidos por todos los átomos del metal y que definen la mayoría de sus
propiedades.
Los niveles de energía definidos y discretos permitidos a los electrones de
átomos individuales se ensanchan hasta convertirse en bandas de energía
cuando los átomos se agrupan densamente en un sólido. La anchura y
separación de esas bandas definen muchas de las propiedades del material.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 10
Por ejemplo, las llamadas bandas prohibidas, en las que no pueden existir
electrones, restringen el movimiento de éstos y hacen que el material sea un
buen aislante térmico y eléctrico. Cuando las bandas de energía se solapan,
como ocurre en los metales, los electrones pueden moverse con facilidad, lo
que hace que el material sea un buen conductor de la electricidad y el calor.
Si la banda prohibida es estrecha, algunos de los electrones más rápidos
pueden saltar a la banda de energía superior: es lo que ocurre en un
semiconductor como el silicio. En ese caso, el espacio entre las bandas de
energía puede verse muy afectado por cantidades minúsculas de impurezas,
como arsénico. Cuando la impureza provoca el descenso de una banda de
energía alta, se dice que es un donante de electrones, y el semiconductor
resultante se llama de tipo n. Cuando la impureza provoca el ascenso de una
banda de energía baja, como ocurre con el galio, se dice que es un aceptor
de electrones. Los vacíos o ‘huecos’ de la estructura electrónica actúan como
si fueran cargas positivas móviles, y se dice que el semiconductor es de tipo
p. Numerosos dispositivos electrónicos modernos, en particular el transistor,
desarrollado por los físicos estadounidenses John Bardeen, Walter Houser
Brattain y William Bradford Shockley, están basados en estas propiedades de
los semiconductores.
Las propiedades magnéticas de los sólidos se deben a que los electrones
actúan como minúsculos dipolos magnéticos. Casi todas las propiedades de
los sólidos dependen de la temperatura. Por ejemplo, los materiales
ferromagnéticos como el hierro o el níquel pierden su intenso magnetismo
residual cuando se los calienta a una temperatura característica denominada
temperatura de Curie. La resistencia eléctrica suele decrecer al disminuir la
temperatura, y en algunos materiales denominados superconductores
desaparece por completo en las proximidades del cero absoluto. Éste y
muchos otros fenómenos observados en los sólidos dependen de la
cuantización de la energía, y la mejor forma de describirlos es a través de
‘partículas’ efectivas con nombres como fonón, polarón o magnón.
Criogenia
A temperaturas muy bajas (cerca del cero absoluto), muchos materiales
presentan características sorprendentes. A comienzos del siglo XX, el físico
holandés Heike Kamerlingh Onnes desarrolló técnicas para producir estas
bajas temperaturas y descubrió la superconductividad del mercurio, que
pierde toda su resistencia eléctrica a una temperatura de unos 4 kelvins. A
muchos otros elementos, aleaciones y compuestos les ocurre lo mismo a una
temperatura característica cercana a 0 K, y los materiales magnéticos se
convierten en aislantes magnéticos. Desde 1986 se han fabricado varios
materiales que presentan superconductividad a temperaturas mayores. La
teoría de la superconductividad, desarrollada en gran medida por John
Bardeen y otros dos físicos estadounidenses, Leon N. Cooper y John Robert
Schrieffer, es extremadamente complicada, e implica el apareamiento de
electrones en la red cristalina.
Otro descubrimiento fascinante fue el de que el helio no se congela, sino
que a unos 2 kelvins pasa de ser un líquido ordinario, denominado He I, a
convertirse en He II, un líquido superfluido que no tiene viscosidad y presenta
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 11
una conductividad térmica unas 1.000 veces mayor que la de la plata. El He II
puede formar películas que se desplazan hacia arriba por las paredes del
recipiente que lo contiene, y traspasa con facilidad materiales como el platino.
Aún no hay una teoría plenamente satisfactoria para este comportamiento.
Física del plasma
Un plasma es cualquier sustancia (generalmente un gas) cuyos átomos
han perdido uno o más electrones, por lo que ha quedado ionizada. Sin
embargo, los electrones perdidos permanecen en el volumen del gas, que de
forma global permanece eléctricamente neutro. La ionización puede
producirse mediante la introducción de grandes concentraciones de energía,
como el bombardeo con electrones externos rápidos, mediante irradiación
con luz láser o mediante calentamiento a temperaturas muy altas. Las
partículas cargadas individuales que forman el plasma responden a campos
eléctricos y magnéticos, por lo que pueden ser manipuladas y contenidas.
Los plasmas se encuentran en fuentes de luz gaseosas (como una
lámpara de neón), en el espacio interestelar, donde el hidrógeno residual es
ionizado por la radiación, y en las estrellas, cuyas elevadas temperaturas
interiores producen un alto grado de ionización, un proceso estrechamente
relacionado con la fusión nuclear que proporciona su energía a las estrellas.
Para que los núcleos de hidrógeno se fusionen y formen núcleos más
pesados deben tener una velocidad suficientemente alta para superar su
repulsión eléctrica mutua; esto implica una temperatura muy elevada
(millones de grados). Para producir una fusión controlada hay que generar
plasmas y contenerlos magnéticamente. Es un problema importante y
complejo que entra en el ámbito de la magnetohidrodinámica.
Láser
Un importante avance reciente es el láser, acrónimo en inglés de
amplificación de luz por emisión estimulada de radiación. En un láser, cuya
sustancia activa puede ser un gas, un líquido o un sólido, se excita un gran
número de átomos hasta un nivel elevado de energía y se hace que liberen
dicha energía simultáneamente, con lo que producen luz coherente en la que
todas las ondas están en fase. Esta coherencia permite generar haces de luz
muy intensos y de longitud de onda muy definida, que se mantienen
enfocados o colimados a lo largo de distancias muy grandes. La luz láser es
mucho más intensa que la de cualquier otra fuente. Un láser continuo puede
proporcionar cientos de vatios, y un láser pulsado puede generar millones de
vatios durante periodos muy cortos. El láser fue desarrollado en las décadas
de 1950 y 1960 por el ingeniero e inventor estadounidense Gordon Gould y
los físicos estadounidenses Charles Hard Townes, T. H. Maiman, Arthur
Schawlow y Ali Javan. En la actualidad constituye un instrumento muy
potente para la ciencia y la tecnología, con aplicaciones en comunicación,
medicina, navegación, metalurgia, fusión y corte de materiales.
Astrofísica y cosmología
Desde la II Guerra Mundial los astrónomos han hecho muchos
descubrimientos importantes, como los quásares, los púlsares o la radiación
de fondo cósmica. Estos descubrimientos, que no pueden ser explicados
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 12
totalmente por la física actual, han estimulado el avance de la teoría en
campos como la gravitación o la física de partículas elementales. En la
actualidad se acepta que toda la materia accesible a nuestra observación
estaba originalmente comprimida de forma muy densa en un solo lugar, y
explotó entre 10.000 y 20.000 millones de años antes del momento presente
en un estallido colosal conocido como Big Bang o Gran Explosión. La
explosión dio lugar a un universo que todavía se está expandiendo. Un
aspecto enigmático de este universo, recientemente descubierto, es que las
galaxias no están distribuidas de modo uniforme. Hay inmensos espacios
vacíos rodeados por grupos de galaxias con forma de filamentos. La
distribución de esos vacíos y filamentos aporta datos importantes sobre la
naturaleza de la materia que surgió de la Gran Explosión e indica que es muy
probable que la llamada materia oscura predominase sobre las formas
conocidas de materia. Éste es sólo uno de los puntos en los que ‘la física de
lo muy grande’ enlaza con ‘la física de lo muy pequeño’.
Química, estudio de la composición, estructura y propiedades de las
sustancias materiales, de sus interacciones y de los efectos producidos sobre
ellas al añadir o extraer energía en cualquiera de sus formas. Desde los
primeros tiempos, los seres humanos han observado la transformación de las
sustancias —la carne cocinándose, la madera quemándose, el hielo
derritiéndose— y han especulado sobre sus causas. Siguiendo la historia de
esas observaciones y especulaciones, se puede reconstruir la evolución
gradual de las ideas y conceptos que han culminado en la química moderna.
Tecnología y filosofía en la antigüedad
Los primeros procesos químicos conocidos fueron realizados por los
artesanos de Mesopotamia, Egipto y China. Al principio, los forjadores de
esas tierras trabajaban con metales nativos como el oro y el cobre, que a
veces se encontraban en la naturaleza en estado puro, pero rápidamente
aprendieron a fundir menas (principalmente los óxidos metálicos y los
sulfuros) calentándolas con madera o carbón de leña para obtener los
metales. El uso progresivo del cobre, bronce y hierro dio origen a los nombres
que los arqueólogos han aplicado a las distintas eras. En esas culturas se
inició también una tecnología química primitiva, conforme los tintoreros
descubrían métodos para fijar los tintes en los distintos tipos de tejidos y los
alfareros aprendían a preparar barnices y más tarde a fabricar vidrio.
La mayoría de esos artesanos trabajaban en los monasterios y palacios
haciendo artículos de lujo. En los monasterios especialmente, los monjes
tenían tiempo para especular sobre el origen de los cambios que veían en el
mundo que los rodeaba. Sus teorías se basaban frecuentemente en la magia,
pero también elaboraron ideas astronómicas, matemáticas y cosmológicas,
que utilizaban en sus intentos de explicar algunos de los cambios que hoy se
consideran químicos.
Filosofía natural griega
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 13
Desde los tiempos de Tales de Mileto, unos 600 años a.C., los filósofos
griegos empezaron a hacer especulaciones lógicas sobre el mundo físico, en
lugar de confiar en los mitos para explicar los fenómenos. El mismo Tales
pensaba que toda la materia procedía del agua, que podía solidificarse en
tierra o evaporarse en aire. Sus sucesores ampliaron esta teoría en la idea de
que el mundo estaba compuesto por cuatro elementos: tierra, agua, aire y
fuego. Según Demócrito, esos elementos estaban compuestos por átomos,
partículas diminutas que se movían en el vacío. Otros, especialmente
Aristóteles, creían que los elementos formaban un medio continuo de materia
y, por tanto, el vacío no podía existir. La idea atómica perdió terreno
rápidamente, pero nunca fue completamente olvidada. Cuando fue revisada
durante el renacimiento, formó la base de la teoría atómica moderna.
Aristóteles fue el más influyente de los filósofos griegos, y sus ideas
dominaron la filosofía natural durante casi dos milenios después de su
muerte, en el 323 a.C. Creía que la materia poseía cuatro cualidades: calor,
frío, humedad y sequedad. Cada uno de los cuatro elementos estaba
compuesto por pares de esas cualidades; por ejemplo, el fuego era caliente y
seco, el agua fría y húmeda, el aire caliente y húmedo, y la tierra fría y seca.
Esos elementos con sus cualidades se combinaban en diferentes
proporciones para formar los componentes del planeta terrestre. Puesto que
era posible cambiar las cantidades de cada cualidad en un elemento, se
podía transformar un elemento en otro; así, se pensaba que era posible
cambiar las sustancias materiales formadas por los elementos, por ejemplo,
el plomo en oro.
Alquimia: auge y declive
La teoría de Aristóteles fue aceptada por los prácticos artesanos,
especialmente en Alejandría, Egipto, que después del 300 a.C. se convirtió
en el centro intelectual del mundo antiguo. Ellos pensaban que los metales de
la Tierra tendían a ser cada vez más perfectos y a convertirse gradualmente
en oro, y creían que podían realizar el mismo proceso más rápidamente en
sus talleres, transmutando así de forma artificial los metales comunes en oro.
Comenzando el año 100 de la era cristiana, esta idea dominaba la mente de
los filósofos y los trabajadores del metal, y se escribió un gran número de
tratados sobre el arte de la transmutación que empezaba a conocerse como
alquimia. Aunque nadie consiguió hacer oro, en la búsqueda de la perfección
de los metales se descubrieron muchos procesos químicos.
Casi al mismo tiempo (y probablemente de forma independiente) apareció
en China una alquimia similar. Aquí el objetivo también era fabricar oro,
aunque no por el valor monetario del metal. Los chinos consideraban al oro
como una medicina que podía conferir larga vida o incluso la inmortalidad a
cualquiera que la consumiera. Al igual que los egipcios, los chinos
aumentaron sus conocimientos de la química práctica a partir de teorías
incorrectas.
Dispersión del pensamiento griego
Después del declive del Imperio romano, en la Europa occidental
empezaron a estudiarse menos los escritos griegos, e incluso fueron bastante
abandonados en el Mediterráneo oriental. Sin embargo, en el siglo VI, un
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 14
grupo de cristianos conocidos como los nestorianos, cuyo idioma era el sirio,
expandieron su influencia por Asia Menor. Establecieron una universidad en
Edessa, Mesopotamia, y tradujeron al sirio un gran número de escritos
filosóficos y médicos griegos para que pudieran ser utilizados por los
estudiantes.
En los siglos VII y VIII, los conquistadores árabes expandieron la cultura
islámica sobre gran parte de Asia Menor, norte de África y España. Los
califas de Bagdad se convirtieron en mecenas activos de la ciencia y el saber.
La traducción siria de los textos griegos fue traducida de nuevo, esta vez al
árabe, y junto con el resto del saber griego volvieron a florecer las ideas y la
práctica de la alquimia.
Los alquimistas árabes también estaban en contacto con China; así, a la
idea del oro como metal perfecto le añadieron el concepto del oro como
medicina. Se concibió un agente específico para estimular la transmutación,
la ‘piedra filosofal’, que se convirtió en el objeto de investigación de los
alquimistas. Ahora tenían un nuevo incentivo para estudiar los procesos
químicos, porque podrían conducirlos no sólo a la riqueza, sino a la salud. En
el estudio de los productos y aparatos químicos se hicieron grandes
progresos. Se descubrieron importantes reactivos como los álcalis cáusticos
(véase Metales alcalinos) y las sales de amonio (véase Amoníaco), y se
mejoraron los aparatos de destilación. También se vio rápidamente la
necesidad de aplicar más métodos cuantitativos, pues algunas fórmulas
árabes daban instrucciones específicas sobre las cantidades de reactivos a
utilizar.
El final de la edad media
En el siglo XI comenzó en Europa occidental un gran resurgimiento
intelectual, estimulado en parte por los intercambios culturales entre los
estudiantes árabes y cristianos en Sicilia y España. Se crearon escuelas de
traductores, y sus traducciones transmitieron las ideas filosóficas y científicas
al resto de los estudiantes europeos (véase Escuela de traductores de
Toledo). Así, el saber de la ciencia griega pasó por las lenguas intermedias
siria y árabe, fue difundido en la lengua erudita, el latín, y posteriormente se
expandió por Europa. Muchos de los manuscritos leídos con más anhelo
estaban relacionados con la alquimia.
Había dos tipos de manuscritos: unos eran puramente prácticos, y otros
intentaban aplicar las teorías de la naturaleza de la materia a los problemas
alquímicos. Entre los temas prácticos discutidos se encontraba la destilación.
La fabricación de vidrio había mejorado considerablemente, sobre todo en
Venecia, y fue posible construir aparatos de destilación mejores que los
fabricados por los árabes para condensar los productos más volátiles de la
destilación. Entre los productos más importantes obtenidos así se
encontraban el alcohol y los ácidos minerales: ácido nítrico, agua regia (una
mezcla de ácido nítrico y clorhídrico), ácido sulfúrico y ácido clorhídrico.
Utilizando estos poderosos reactivos podían realizarse muchas reacciones
nuevas. El descubrimiento por parte de los chinos de los nitratos y la pólvora
llegó pronto a Occidente a través de los árabes. Al principio, los chinos
utilizaban la pólvora para los fuegos artificiales, pero en Occidente se
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 15
convirtió rápidamente en un elemento importante de la guerra. A finales del
siglo XIII ya existía en Europa una tecnología química bastante eficaz.
El segundo tipo de manuscritos alquímicos transmitidos por los árabes
concernía a la teoría. Muchos de esos escritos revelaban un carácter místico
que contribuía poco al avance de la química, pero otros intentaban explicar la
transmutación en términos físicos. Los árabes basaban sus teorías de la
materia en las ideas aristotélicas, pero su pensamiento tendía a ser más
específico, sobre todo en lo referente a la composición de los metales. Ellos
creían que los metales consistían en azufre y mercurio, no propiamente estas
sustancias que conocían muy bien, sino más bien el principio del mercurio,
que confería la propiedad de fluidez a los metales, y el principio del azufre
que convertía en combustibles a las sustancias y corroía a los metales. Las
reacciones químicas se explicaban en términos de cambios en las cantidades
de esos principios dentro de las sustancias materiales.
El renacimiento
Durante los siglos XIII y XIV, la influencia de Aristóteles sobre todas las
ramas del pensamiento científico empezó a debilitarse. La observación del
comportamiento de la materia arrojó dudas sobre las explicaciones
relativamente simples que Aristóteles había proporcionado; estas dudas se
expandieron con rapidez después de la invención (en torno al 1450) de la
imprenta con tipos móviles. Después del 1500 aparecieron cada vez más
trabajos académicos, así como trabajos dedicados a la tecnología. El
resultado de este saber creciente se hizo más visible en el siglo XVI.
El nacimiento de los métodos cuantitativos
Entre los libros más influyentes que aparecieron en esa época había
trabajos prácticos sobre minería y metalurgia. Esos tratados dedicaban
mucho espacio a la extracción de los metales valiosos de las menas, trabajo
que requería el uso de una balanza o una escala de laboratorio y el desarrollo
de métodos cuantitativos (véase Análisis químico). Los especialistas de otras
áreas, especialmente de medicina, empezaron a reconocer la necesidad de
una mayor precisión. Los médicos, algunos de los cuales eran alquimistas,
necesitaban saber el peso o volumen exacto de la dosis que administraban.
Así, empezaron a utilizar métodos químicos para preparar medicinas.
Esos métodos fueron promovidos enérgicamente por el excéntrico médico
suizo Theophrastus von Hohenheim, conocido como Paracelso. Al crecer en
una región minera, se había familiarizado con las propiedades de los metales
y sus compuestos, que, según él, eran superiores a los remedios de hierbas
utilizados por los médicos ortodoxos. Paracelso pasó la mayor parte de su
vida disputando violentamente con los médicos de la época, y en el proceso
fundó la ciencia de la iatroquímica (uso de medicinas químicas), precursora
de la farmacología. Él y sus seguidores descubrieron muchos compuestos y
reacciones químicas. Modificó la vieja teoría del mercurio-azufre sobre la
composición de los metales, añadiendo un tercer componente, la sal, la parte
terrestre de todas las sustancias. Declaró que cuando la madera arde “lo que
se quema es azufre, lo que se evapora es mercurio y lo que se convierte en
cenizas es sal”. Al igual que con la teoría del azufre-mercurio, se refería a los
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 16
principios, no a las sustancias materiales que responden a esos nombres. Su
hincapié en el azufre combustible fue importante para el desarrollo posterior
de la química. Los iatroquímicos que seguían a Paracelso modificaron parte
de sus ideas más extravagantes y combinaron las fórmulas de él con las
suyas propias para preparar remedios químicos. A finales del siglo XVI,
Andreas Libavius publicó su Alchemia, que organizaba el saber de los
iatroquímicos y que se considera a menudo como el primer libro de química.
En la primera mitad del siglo XVII empezaron a estudiar
experimentalmente las reacciones químicas, no porque fueran útiles en otras
disciplinas, sino más bien por razones propias. Jan Baptista van Helmont,
médico que dejó la práctica de la medicina para dedicarse al estudio de la
química, utilizó la balanza en un experimento para demostrar que una
cantidad definida de arena podía ser fundida con un exceso de álcali
formando vidrio soluble, y cuando este producto era tratado con ácido,
regeneraba la cantidad original de arena (sílice). Ésos fueron los fundamentos
de la ley de conservación de la masa. Van Helmont demostró también que en
ciertas reacciones se liberaba un fluido aéreo. A esta sustancia la llamó gas.
Así se demostró que existía un nuevo tipo de sustancias con propiedades
físicas particulares.
Resurgimiento de la teoría atómica
En el siglo XVI, los experimentos descubrieron cómo crear un vacío, algo
que Aristóteles había declarado imposible. Esto atrajo la atención sobre la
antigua teoría de Demócrito, que había supuesto que los átomos se movían
en un vacío. El filósofo y matemático francés René Descartes y sus
seguidores desarrollaron una visión mecánica de la materia en la que el
tamaño, la forma y el movimiento de las partículas diminutas explicaban todos
los fenómenos observados. La mayoría de los iatroquímicos y filósofos
naturales de la época suponían que los gases no tenían propiedades
químicas, de aquí que su atención se centrara en su comportamiento físico.
Comenzó a desarrollarse una teoría cinético-molecular de los gases. En esta
dirección fueron notables los experimentos del químico físico británico Robert
Boyle, cuyos estudios sobre el ‘muelle de aire’ (elasticidad) condujeron a lo
que se conoce como ley de Boyle, una generalización de la relación inversa
entre la presión y el volumen de los gases.
Flogisto: teoría y experimento
Mientras muchos filósofos naturales especulaban sobre las leyes
matemáticas, los primeros químicos intentaban utilizar en el laboratorio las
teorías químicas para explicar las reacciones reales que observaban. Los
iatroquímicos ponían especial atención en el azufre y en las teorías de
Paracelso. En la segunda mitad del siglo XVII, el médico, economista y
químico alemán Johann Joachim Becher construyó un sistema químico en
torno a su principio. Becher anotó que cuando la materia orgánica ardía,
parecía que un material volátil salía de la sustancia. Su discípulo Georg Ernst
Stahl, hizo de éste el punto central de una teoría que sobrevivió en los
círculos químicos durante casi un siglo.
Stahl supuso que cuando algo ardía, su parte combustible era expulsada al
aire. A esta parte la llamó flogisto, de la palabra griega flogistós, ‘inflamable’.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 17
La oxidación de los metales era análoga a la combustión y, por tanto, suponía
pérdida de flogisto. Las plantas absorbían el flogisto del aire, por lo que eran
ricas en él. Al calentar las escorias (u óxidos) de los metales con carbón de
leña, se les restituía el flogisto. Así dedujo que la escoria era un elemento y el
metal un compuesto. Esta teoría es casi exactamente la contraria al concepto
moderno de oxidación-reducción, pero implica la transformación cíclica de
una sustancia (aunque fuera en sentido inverso), y podía explicar algunos de
los fenómenos observados. Sin embargo, recientes estudios de la literatura
química de la época muestran que la explicación del flogisto no tuvo mucha
influencia entre los químicos hasta que fue recuperada por el químico Antoine
Laurent de Lavoisier, en el último cuarto del siglo XVIII.
El siglo XVIII
En esa época, otra observación hizo avanzar la comprensión de la
química. Al estudiarse cada vez más productos químicos, los químicos
observaron que ciertas sustancias combinaban más fácilmente o tenían más
afinidad por un determinado producto químico que otras. Se prepararon
tablas que mostraban las afinidades relativas al mezclar diferentes productos.
El uso de estas tablas hizo posible predecir muchas reacciones químicas
antes de experimentarlas en el laboratorio.
Todos esos avances condujeron en el siglo XVIII al descubrimiento de
nuevos metales y sus compuestos y reacciones. Comenzaron a desarrollarse
métodos analíticos cualitativos y cuantitativos, dando origen a la química
analítica. Sin embargo, mientras existiera la creencia de que los gases sólo
desempeñaban un papel físico, no podía reconocerse todo el alcance de la
química.
El estudio químico de los gases, generalmente llamados ‘aires’, empezó a
adquirir importancia después de que el fisiólogo británico Stephen Hales
desarrollara la cubeta o cuba neumática para recoger y medir el volumen de
los gases liberados en un sistema cerrado; los gases eran recogidos sobre el
agua tras ser emitidos al calentar diversos sólidos. La cuba neumática se
convirtió en un mecanismo valioso para recoger y estudiar gases no
contaminados por el aire ordinario. El estudio de los gases avanzó
rápidamente y se alcanzó un nuevo nivel de comprensión de los distintos
gases.
La interpretación inicial del papel de los gases en la química se produjo en
Edimburgo (Escocia) en 1756, cuando Joseph Black publicó sus estudios
sobre las reacciones de los carbonatos de magnesio y de calcio. Al
calentarlos, estos compuestos desprendían un gas y dejaban un residuo de lo
que Black llamaba magnesia calcinada o cal (los óxidos). Esta última
reaccionaba con el ‘álcali’ (carbonato de sodio) regenerando las sales
originales. Así, el gas dióxido de carbono, que Black denominaba aire fijo,
tomaba parte en las reacciones químicas (estaba “fijo”, según sus palabras).
La idea de que un gas no podía entrar en una reacción química fue
desechada, y pronto empezaron a reconocerse nuevos gases como
sustancias distintas.
En la década siguiente, el físico británico Henry Cavendish aisló el ‘aire
inflamable’ (hidrógeno). También introdujo el uso del mercurio en lugar del
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 18
agua como el líquido sobre el que se recogían los gases, posibilitando la
recogida de los gases solubles en agua. Esta variante fue utilizada con
frecuencia por el químico y teólogo británico Joseph Priestley, quien recogió y
estudió casi una docena de gases nuevos. El descubrimiento más importante
de Priestley fue el oxígeno; pronto se dio cuenta de que este gas era el
componente del aire ordinario responsable de la combustión, y que hacía
posible la respiración animal. Sin embargo, su razonamiento fue que las
sustancias combustibles ardían enérgicamente y los metales formaban
escorias con más facilidad en este gas porque el gas no contenía flogisto. Por
tanto, el gas aceptaba el flogisto presente en el combustible o el metal más
fácilmente que el aire ordinario que ya contenía parte de flogisto. A este
nuevo gas lo llamó ‘aire deflogistizado’ y defendió su teoría hasta el final de
sus días.
Mientras tanto, la química había hecho grandes progresos en Francia,
particularmente en el laboratorio de Lavoisier. A éste le preocupaba el hecho
de que los metales ganaban peso al calentarlos en presencia de aire, cuando
se suponía que estaban perdiendo flogisto.
En 1774, Priestley visitó Francia y le comentó a Lavoisier su
descubrimiento del aire deflogistizado. Lavoisier entendió rápidamente el
significado de esta sustancia, y este hecho abrió el camino para la revolución
química que estableció la química moderna. Lavoisier lo llamó ‘oxígeno’, que
significa ‘generador de ácidos’.
El nacimiento de la química moderna
Lavoisier demostró con una serie de experimentos brillantes que el aire
contiene un 20% de oxígeno y que la combustión es debida a la combinación
de una sustancia combustible con oxígeno. Al quemar carbono se produce
aire fijo (dióxido de carbono). Por tanto, el flogisto no existe. La teoría del
flogisto fue sustituida rápidamente por la visión de que el oxígeno del aire
combina con los elementos componentes de la sustancia combustible
formando los óxidos de dichos elementos. Lavoisier utilizó la balanza de
laboratorio para darle apoyo cuantitativo a su trabajo. Definió los elementos
como sustancias que no pueden ser descompuestas por medios químicos,
preparando el camino para la aceptación de la ley de conservación de la
masa. Sustituyó el sistema antiguo de nombres químicos (basado en el uso
alquímico) por la nomenclatura química racional utilizada hoy, y ayudó a
fundar el primer periódico químico. Después de morir en la guillotina en 1794,
sus colegas continuaron su trabajo estableciendo la química moderna. Un
poco más tarde, el químico sueco Jöns Jakob, barón de Berzelius propuso
representar los símbolos de los átomos de los elementos por la letra o par de
letras iniciales de sus nombres.
Los siglos XIX y XX
A principios del siglo XIX, la precisión de la química analítica había
mejorado tanto que los químicos podían demostrar que los compuestos
simples con los que trabajaban contenían cantidades fijas e invariables de
sus elementos constituyentes. Sin embargo, en ciertos casos, con los mismos
elementos podía formarse más de un compuesto. Por esa época, el químico y
físico francés Joseph Gay-Lussac demostró que los volúmenes de los gases
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 19
reaccionantes están siempre en la relación de números enteros sencillos, es
decir, la ley de las proporciones múltiples (que implica la interacción de
partículas discontinuas o átomos). Un paso importante en la explicación de
estos hechos fue, en 1803, la teoría atómica química del científico inglés John
Dalton.
Dalton supuso que cuando se mezclaban dos elementos, el compuesto
resultante contenía un átomo de cada uno. En su sistema, el agua podría
tener una fórmula correspondiente a HO. Dalton asignó arbitrariamente al
hidrógeno la masa atómica 1 y luego calculó la masa atómica relativa del
oxígeno. Aplicando este principio a otros compuestos, calculó las masas
atómicas de los elementos conocidos hasta entonces. Su teoría contenía
muchos errores, pero la idea era correcta y se podía asignar un valor
cuantitativo preciso a la masa de cada átomo.
Teoría molecular
La teoría de Dalton no explicaba por completo la ley de las proporciones
múltiples y no distinguía entre átomos y moléculas. Así, no podía distinguir
entre las posibles fórmulas del agua HO y H2O2, ni podía explicar por qué la
densidad del vapor de agua, suponiendo que su fórmula fuera HO, era menor
que la del oxígeno, suponiendo que su fórmula fuera O. El físico italiano
Amedeo Avogadro encontró la solución a esos problemas en 1811. Sugirió
que a una temperatura y presión dadas, el número de partículas en
volúmenes iguales de gases era el mismo, e introdujo también la distinción
entre átomos y moléculas. Cuando el oxígeno se combinaba con hidrógeno,
un átomo doble de oxígeno (molécula en nuestros términos) se dividía, y
luego cada átomo de oxígeno se combinaba con dos átomos de hidrógeno,
dando la fórmula molecular de H2O para el agua y O2 y H2 para las
moléculas de oxígeno e hidrógeno, respectivamente.
Las ideas de Avogadro fueron ignoradas durante casi 50 años, tiempo en
el que prevaleció una gran confusión en los cálculos de los químicos. En
1860 el químico italiano Stanislao Cannizzaro volvió a introducir la hipótesis
de Avogadro. Por esta época, a los químicos les parecía más conveniente
elegir la masa atómica del oxígeno, 16, como valor de referencia con el que
relacionar las masas atómicas de los demás elementos, en lugar del valor 1
del hidrógeno, como había hecho Dalton. La masa molecular del oxígeno, 32,
se usaba internacionalmente y se llamaba masa molecular del oxígeno
expresada en gramos, o simplemente 1 mol de oxígeno. Los cálculos
químicos se normalizaron y empezaron a escribirse fórmulas fijas.
El antiguo problema de la naturaleza de la afinidad química permanecía sin
resolver. Durante un tiempo pareció que la respuesta podría estar en el
campo de la electroquímica, descubierto recientemente. El descubrimiento en
1800 de la pila voltaica, la primera pila eléctrica real, proporcionó a los
químicos una nueva herramienta que llevó al descubrimiento de metales
como el sodio y el potasio. Berzelius opinaba que las fuerzas electrostáticas
positivas y negativas podían mantener unidos a los elementos, y al principio
sus teorías fueron aceptadas. Cuando los químicos empezaron a preparar y
estudiar nuevos compuestos y reacciones en las que las fuerzas eléctricas
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 20
parecían no estar implicadas (compuestos no polares), el problema de la
afinidad fue postergado por un tiempo.
Nuevos campos de la química
En el siglo XIX, los avances más sorprendentes de la química se
produjeron en el área de la química orgánica. La teoría estructural, que
proporcionaba una imagen de cómo se mantenían los átomos juntos, no era
matemática, sino que empleaba su propia lógica. Ella hizo posible la
predicción y preparación de muchos compuestos nuevos, incluyendo una
gran cantidad de tintes, medicinas y explosivos importantes, que dieron
origen a grandes industrias químicas, especialmente en Alemania.
Al mismo tiempo, aparecieron otras ramas de la química. Estimulados por
los avances logrados en física, algunos químicos pensaron en aplicar
métodos matemáticos a su ciencia. Los estudios de la velocidad de las
reacciones culminaron en el desarrollo de las teorías cinéticas, que tenían
valor tanto para la industria como para la ciencia pura. El reconocimiento de
que el calor era debido al movimiento a escala atómica (un fenómeno
cinético), hizo abandonar la idea de que el calor era una sustancia específica
(denominada calórica) e inició el estudio de la termodinámica química. La
extensión de los estudios electroquímicos llevó al químico sueco Svante
August Arrhenius a postular la disociación de las sales en disolución para
formar iones portadores de cargas eléctricas. Los estudios de los espectros
de emisión y absorción de los elementos y compuestos empezaron a adquirir
importancia tanto para los químicos como para los físicos, culminando en el
desarrollo del campo de la espectroscopia. Además, comenzó una
investigación fundamental sobre los coloides y la fotoquímica. A finales del
siglo XIX, todos los estudios de este tipo fueron englobados en un campo
conocido como química física.
La química inorgánica también necesitaba organizarse. Seguían
descubriéndose nuevos elementos, pero no se había descubierto ningún
método de clasificación que pudiera poner orden en sus reacciones. El
sistema periódico, formulado a raíz de que el químico ruso Dmitri Ivánovich
Mendeléiev en 1869 y el químico alemán Julius Lothar Meyer en 1870
elaboraran independientemente la ley periódica, eliminó esta confusión e
indicó dónde se encontrarían los nuevos elementos y qué propiedades
tendrían.
A finales del siglo XIX, la química, al igual que la física, parecía haber
alcanzado un punto en el que no quedaba ningún campo sorprendente por
desarrollar. Esta visión cambió completamente con el descubrimiento de la
radiactividad. Los métodos químicos fueron utilizados para aislar nuevos
elementos, como el radio, para separar nuevos tipos de sustancias conocidas
como isótopos, y para sintetizar y aislar los nuevos elementos transuránicos.
Los físicos consiguieron dibujar la estructura real de los átomos, que resolvía
el antiguo problema de la afinidad química y explicaba la relación entre los
compuestos polares y no polares. Véase Física nuclear.
Otro avance importante de la química en el siglo XX fue la fundación de la
bioquímica; empezó simplemente con el análisis de los fluidos corporales,
pero pronto se desarrollaron métodos para determinar la naturaleza y función
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 21
de los componentes celulares más complejos. Hacia la mitad del siglo, los
bioquímicos habían aclarado el código genético y explicado la función de los
genes, base de toda la vida. El campo había crecido tanto que su estudio
culminó en una nueva ciencia, la biología molecular.
Investigaciones recientes en química
Los recientes avances en biotecnología y ciencia de los materiales están
ayudando a definir las fronteras de la investigación química. En biotecnología
se ha podido iniciar un esfuerzo internacional para ordenar en serie el
genoma humano gracias a instrumentos analíticos sofisticados.
Probablemente, el éxito de este proyecto cambiará la naturaleza de campos
como la biología molecular y la medicina. La ciencia de los materiales, una
combinación interdisciplinaria de física, química e ingeniería, dirige el diseño
de los materiales y mecanismos avanzados. Ejemplos recientes son el
descubrimiento de ciertos compuestos cerámicos que mantienen su
superconductividad a temperaturas por debajo de -196 ºC, el desarrollo de
polímeros emisores de luz y la enorme diversidad de compuestos que
surgieron de la investigación sobre el buckminsterfullereno.
Incluso en los campos convencionales de la investigación química, las
nuevas herramientas analíticas están suministrando detalles sin precedentes
sobre los productos químicos y sus reacciones. Por ejemplo, las técnicas de
láser proporcionan información instantánea de reacciones químicas en fase
gaseosa a una escala de femtosegundos (una milésima de una billonésima
de segundo).
La industria química
El crecimiento de las industrias químicas y la formación de químicos
profesionales ha tenido una correlación interesante. Hasta hace unos 150
años, los químicos no recibían formación profesional. La química avanzaba
gracias al trabajo de los que se interesaban en el tema, pero éstos no hacían
ningún esfuerzo sistemático por formar a nuevos trabajadores en ese campo.
Los médicos y los aficionados con recursos contrataban a veces ayudantes,
de los cuales sólo unos pocos continuaban la labor de su maestro.
Sin embargo, a principios del siglo XIX se modificó este sistema casual de
educación química. En Alemania, país con una larga tradición de
investigación, se empezaron a crear universidades provinciales. En Giessen,
el químico alemán Justus Liebig fundó un centro de investigación química.
Este primer laboratorio de enseñanza tuvo tanto éxito que atrajo a
estudiantes de todo el mundo. Poco después le siguieron otras universidades
alemanas.
Así, se empezó a formar a un gran grupo de químicos jóvenes en la época
en que las industrias químicas comenzaban a explotar los nuevos
descubrimientos. Esta explotación comenzó durante la Revolución Industrial;
por ejemplo, el método Leblanc para la producción de sosa —uno de los
primeros procesos de producción a gran escala— fue desarrollado en Francia
en 1791 y comercializado en Gran Bretaña a principios de 1823. Los
laboratorios de esas industrias en franco desarrollo podían emplear a los
estudiantes de química recién formados y también podían contar con los
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 22
profesores de la universidad como asesores. Esta interacción entre las
universidades y la industria química benefició a ambas, y el rápido
crecimiento de la industria de la química orgánica hacia finales del siglo XIX
dio origen a los grandes consorcios tintoreros y farmacéuticos que otorgaron
a Alemania el predominio científico en ese campo hasta la I Guerra Mundial.
Después de la guerra, el sistema alemán fue introducido en todas las
naciones industriales del mundo, y la química y las industrias químicas
progresaron aún más rápidamente. Entre otros desarrollos industriales
recientes se encuentra el incremento del uso de los procesos de reacción que
utilizan enzimas, debido principalmente a los bajos costos y altos beneficios
que pueden conseguirse. En la actualidad las industrias están estudiando
métodos que utilizan la ingeniería genética para producir microorganismos
con propósitos industriales.
La química y la sociedad
La química ha tenido una influencia enorme sobre la vida humana. En
otras épocas las técnicas químicas se utilizaban para aislar productos
naturales y para encontrar nuevas formas de utilizarlos. En el siglo XIX se
desarrollaron técnicas para sintetizar sustancias nuevas que eran mejores
que las naturales, o que podían reemplazarlas por completo con gran ahorro.
Al aumentar la complejidad de los compuestos sintetizados, empezaron a
aparecer materiales totalmente nuevos para usos modernos. Se crearon
nuevos plásticos y tejidos, y también fármacos que acababan con todo tipo de
enfermedades. Al mismo tiempo empezaron a unirse ciencias que antes
estaban totalmente separadas. Los físicos, biólogos y geólogos habían
desarrollado sus propias técnicas y su forma de ver el mundo, pero en un
momento dado se hizo evidente que cada ciencia, a su modo, era el estudio
de la materia y sus cambios. La química era la base de todas ellas. La
creación de disciplinas intercientíficas como la geoquímica o la bioquímica ha
estimulado a todas las ciencias originales.
El progreso de la ciencia en los últimos años ha sido espectacular, aunque
los beneficios de este progreso han acarreado los riesgos correspondientes.
Los peligros más evidentes proceden de los materiales radiactivos, por su
potencial para producir cáncer en los individuos expuestos y mutaciones en
sus hijos. También se ha hecho evidente que la acumulación, en las plantas o
células animales, de pesticidas (que antes se consideraban inocuos), o de
productos secundarios de los procesos de fabricación, suele tener efectos
nocivos. Este descubrimiento, lentamente reconocido al principio, ha llevado a
establecer nuevos campos de estudio relacionados con el medio ambiente y
con la ecología en general.
Metales, grupo de elementos químicos que presentan todas o gran parte
de las siguientes propiedades físicas: estado sólido a temperatura normal,
excepto el mercurio que es líquido; opacidad, excepto en capas muy finas;
buenos conductores eléctricos y térmicos; brillantes, una vez pulidos, y
estructura cristalina en estado sólido. Metales y no metales se encuentran
separados en el sistema periódico por una línea diagonal de elementos. Los
elementos a la izquierda de esta diagonal son los metales, y los elementos a
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 23
la derecha son los no metales. Los elementos que integran esta diagonal —
boro, silicio, germanio, arsénico, antimonio, teluro, polonio y astato— tienen
propiedades tanto metálicas como no metálicas. Los elementos metálicos
más comunes son los siguientes: aluminio, bario, berilio, bismuto, cadmio,
calcio, cerio, cromo, cobalto, cobre, oro, iridio, hierro, plomo, litio, magnesio,
manganeso, mercurio, molibdeno, níquel, osmio, paladio, platino, potasio,
radio, rodio, plata, sodio, tantalio, talio, torio, estaño, titanio, volframio, uranio,
vanadio y cinc. Los elementos metálicos se pueden combinar unos con otros
y también con otros elementos formando compuestos, disoluciones y
mezclas. Una mezcla de dos o más metales o de un metal y ciertos no
metales como el carbono se denomina aleación. Las aleaciones de mercurio
con otros elementos metálicos son conocidas como amalgamas.
Los metales muestran un amplio margen en sus propiedades físicas. La
mayoría de ellos son de color grisáceo, pero algunos presentan colores
distintos; el bismuto es rosáceo, el cobre rojizo y el oro amarillo. En otros
metales aparece más de un color, y este fenómeno se denomina pleocroismo.
El punto de fusión de los metales varía entre los -39 °C del mercurio, a los
3.410 °C del tungsteno. El iridio, con una densidad relativa de 22,4, es el más
denso de los metales. Por el contrario, el litio es el menos denso, con una
densidad relativa de 0,53. La mayoría de los metales cristalizan en el sistema
cúbico, aunque algunos lo hacen en el hexagonal y en el tetragonal (véase
Cristal). La más baja conductividad eléctrica la tiene el bismuto, y la más alta
a temperatura ordinaria la plata. (Para conductividad a baja temperatura
véase Criogenia; Superconductividad). La conductividad en los metales
puede reducirse mediante aleaciones. Todos los metales se expanden con el
calor y se contraen al enfriarse. Ciertas aleaciones, como las de platino e
iridio, tienen un coeficiente de dilatación extremadamente bajo.
Propiedades físicas
Los metales suelen ser duros y resistentes. Aunque existen ciertas
variaciones de uno a otro, en general los metales tienen las siguientes
propiedades: dureza o resistencia a ser rayados; resistencia longitudinal o
resistencia a la rotura; elasticidad o capacidad de volver a su forma original
después de sufrir deformación; maleabilidad o posibilidad de cambiar de
forma por la acción del martillo; resistencia a la fatiga o capacidad de soportar
una fuerza o presión continuadas y ductilidad o posibilidad de deformarse sin
sufrir roturas. (Véase Ciencia y tecnología de los materiales).
Propiedades químicas
Es característico de los metales tener valencias positivas en la mayoría de
sus compuestos. Esto significa que tienden a ceder electrones a los átomos
con los que se enlazan. También tienden a formar óxidos básicos. Por el
contrario, elementos no metálicos como el nitrógeno, azufre y cloro tienen
valencias negativas en la mayoría de sus compuestos, y tienden a adquirir
electrones y a formar óxidos ácidos (véase Ácidos y bases; Reacción
química).
Los metales tienen energía de ionización baja: reaccionan con facilidad
perdiendo electrones para formar iones positivos o cationes. De este modo,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 24
los metales forman sales como cloruros, sulfuros y carbonatos, actuando
como agentes reductores (donantes de electrones).
Estructura electrónica
En sus primeros esfuerzos para explicar la estructura electrónica de los
metales, los científicos esgrimieron las propiedades de su buena
conductividad térmica y eléctrica para apoyar la teoría de que los metales se
componen de átomos ionizados, cuyos electrones libres forman un 'mar'
homogéneo de carga negativa. La atracción electrostática entre los iones
positivos del metal y los electrones libres, se consideró la responsable del
enlace entre los átomos del metal. Así, se pensaba que el libre movimiento de
los electrones era la causa de su alta conductividad eléctrica y térmica. La
principal objeción a esta teoría es que en tal caso los metales debían tener un
calor específico superior al que realmente tienen.
En 1928, el físico alemán Arnold Sommerfeld sugirió que los electrones en
los metales se encuentran en una disposición cuántica en la que los niveles
de baja energía disponibles para los electrones se hallan casi completamente
ocupados (véase Átomo; Teoría cuántica). En el mismo año, el físico suizo
estadounidense Felix Bloch, y más tarde el físico francés Louis Brillouin,
aplicaron esta idea en la hoy aceptada 'teoría de la banda' para los enlaces
en los sólidos metálicos.
De acuerdo con dicha teoría, todo átomo de metal tiene únicamente un
número limitado de electrones de valencia con los que unirse a los átomos
vecinos. Por ello se requiere un amplio reparto de electrones entre los átomos
individuales. El reparto de electrones se consigue por la superposición de
orbitales atómicos de energía equivalente con los átomos adyacentes. Esta
superposición va recorriendo toda la muestra del metal, formando amplios
orbitales que se extienden por todo el sólido, en vez de pertenecer a átomos
concretos. Cada uno de estos orbitales tiene un nivel de energía distinto
debido a que los orbitales atómicos de los que proceden, tenían a su vez
diferentes niveles de energía. Los orbitales, cuyo número es el mismo que el
de los orbitales atómicos, tienen dos electrones cada uno y se van llenando
en orden de menor a mayor energía hasta agotar el número de electrones
disponibles. En esta teoría se dice que los grupos de electrones residen en
bandas, que constituyen conjuntos de orbitales. Cada banda tiene un margen
de valores de energía, valores que deberían poseer los electrones para poder
ser parte de esa banda. En algunos metales se dan interrupciones de energía
entre las bandas, pues los electrones no poseen ciertas energías. La banda
con mayor energía en un metal no está llena de electrones, dado que una
característica de los metales es que no poseen suficientes electrones para
llenarla. La elevada conductividad eléctrica y térmica de los metales se
explica así por el paso de electrones a estas bandas con defecto de
electrones, provocado por la absorción de energía térmica.
Electroquímica, parte de la química que trata de la relación entre las
corrientes eléctricas y las reacciones químicas, y de la conversión de la
energía química en eléctrica y viceversa. En un sentido más amplio, la
electroquímica es el estudio de las reacciones químicas que producen efectos
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 25
eléctricos y de los fenómenos químicos causados por la acción de las
corrientes o voltajes.
Corriente eléctrica y movimiento de iones
La mayoría de los compuestos inorgánicos y algunos de los orgánicos se
ionizan al fundirse o cuando se disuelven en agua u otros líquidos; es decir,
sus moléculas se disocian en componentes cargados positiva y
negativamente que tienen la propiedad de conducir la corriente eléctrica
(véase Ion; Ionización). Si se coloca un par de electrodos en una disolución
de un electrólito (o compuesto ionizable) y se conecta una fuente de corriente
continua entre ellos, los iones positivos de la disolución se mueven hacia el
electrodo negativo y los iones negativos hacia el positivo. Al llegar a los
electrodos, los iones pueden ganar o perder electrones y transformarse en
átomos neutros o moléculas; la naturaleza de las reacciones del electrodo
depende de la diferencia de potencial o voltaje aplicado.
La acción de una corriente sobre un electrólito puede entenderse con un
ejemplo sencillo. Si el sulfato de cobre se disuelve en agua, se disocia en
iones cobre positivos e iones sulfato negativos. Al aplicar una diferencia de
potencial a los electrodos, los iones cobre se mueven hacia el electrodo
negativo, se descargan, y se depositan en el electrodo como elemento cobre.
Los iones sulfato, al descargarse en el electrodo positivo, son inestables y
combinan con el agua de la disolución formando ácido sulfúrico y oxígeno.
Esta descomposición producida por una corriente eléctrica se llama
electrólisis.
En todos los casos, la cantidad de material que se deposita en cada
electrodo al pasar la corriente por un electrólito sigue la ley descubierta por el
químico físico británico Michael Faraday. Esta ley afirma que la cantidad de
material depositada en cada electrodo es proporcional a la intensidad de la
corriente que atraviesa el electrólito, y que la masa de los elementos
transformados es proporcional a las masas equivalentes de los elementos, es
decir, a sus masas atómicas divididas por sus valencias.
Todos los cambios químicos implican una reagrupación o reajuste de los
electrones en las sustancias que reaccionan; por eso puede decirse que
dichos cambios son de carácter eléctrico. Para producir una corriente
eléctrica a partir de una reacción química, es necesario tener un oxidante, es
decir, una sustancia que gane electrones fácilmente, y un reductor, es decir,
una sustancia que pierda electrones fácilmente. Las reacciones de este tipo
pueden entenderse con un ejemplo, el funcionamiento de un tipo sencillo de
pila (batería) electroquímica. Al colocar una varilla de cinc en una disolución
diluida de ácido sulfúrico, el cinc, que es un reductor, se oxida fácilmente,
pierde electrones y los iones cinc positivos se liberan en la disolución,
mientras que los electrones libres se quedan en la varilla de cinc. Si se
conecta la varilla por medio de un conductor a un electrodo de metal inerte
colocado en la disolución de ácido sulfúrico, los electrones que están en este
circuito fluirán hacia la disolución, donde serán atrapados por los iones
hidrógeno positivos del ácido diluido. La combinación de iones y electrones
produce gas hidrógeno, que aparece como burbujas en la superficie del
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 26
electrodo. La reacción de la varilla de cinc y el ácido sulfúrico produce así una
corriente en el circuito externo. Una pila electroquímica de este tipo se conoce
como pila primaria o pila voltaica.
En la batería de acumuladores, o acumulador (conocida comúnmente
como pila secundaria), se proporciona energía eléctrica desde una fuente
exterior, que se almacena en forma de energía química. La reacción química
de una pila secundaria es reversible, es decir, se produce en un sentido
cuando se carga la pila, y en sentido opuesto cuando se descarga. Por ello,
una pila secundaria puede descargarse una y otra vez.
Aplicaciones industriales
La descomposición electrolítica es la base de un gran número de procesos
de extracción y fabricación muy importantes en la industria moderna. La sosa
cáustica (un producto químico importante para la fabricación de papel, rayón
y película fotográfica) se produce por la electrólisis de una disolución de sal
común en agua (véase Álcalis). La reacción produce cloro y sodio. El sodio
reacciona a su vez con el agua de la pila electrolítica produciendo sosa
cáustica. El cloro obtenido se utiliza en la fabricación de pasta de madera y
papel.
Una aplicación industrial importante de la electrólisis es el horno eléctrico,
que se utiliza para fabricar aluminio, magnesio y sodio. En este horno, se
calienta una carga de sales metálicas hasta que se funde y se ioniza. A
continuación, se deposita el metal electrolíticamente.
Los métodos electrolíticos se utilizan también para refinar el plomo, el
estaño, el cobre, el oro y la plata. La ventaja de extraer o refinar metales por
procesos electrolíticos es que el metal depositado es de gran pureza. La
galvanotecnia, otra aplicación industrial electrolítica, se usa para depositar
películas de metales preciosos en metales base. También se utiliza para
depositar metales y aleaciones en piezas metálicas que precisen un
recubrimiento resistente y duradero. La electroquímica ha avanzado
recientemente desarrollando nuevas técnicas para colocar capas de material
sobre los electrodos, aumentando así su eficacia y resistencia. Tras el
descubrimiento de ciertos polímeros que conducen la electricidad, es posible
fabricar electrodos de polímeros.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 27
Batería, aparato que transforma la energía química en eléctrica, y consiste
en dos o más pilas eléctricas conectadas en serie o en paralelo en mixto. Se
han desarrollado diversos tipos de nuevas baterías para vehículos eléctricos.
Se trata de versiones mejoradas de las baterías convencionales, pero aún
tienen numerosos inconvenientes como su corta duración, alto costo, gran
volumen o problemas medioambientales. Las baterías destinadas a vehículos
eléctricos incorporan sulfuro de litio-hierro, cinc-cloro, hidruro de níquel y
sulfuro de sodio. Las compañías suministradoras de electricidad están
desarrollando este tipo de baterías para utilizarlas como “niveladores de
carga”, a fin de compensar las fluctuaciones esporádicas del sistema. Estas
baterías ocupan poco espacio y apenas tienen efectos dañinos para el
medioambiente.
Aluminio, de símbolo Al, es el elemento metálico más abundante en la
corteza terrestre. Su número atómico es 13 y se encuentra en el grupo 13 de
la tabla periódica.
El químico danés Hans Christian Oersted aisló el aluminio por primera vez
en 1825, por medio de un proceso químico que utilizaba una amalgama de
potasio y cloruro de aluminio. Entre 1827 y 1845, el químico alemán Friedrich
Wöhler mejoró el proceso de Oersted utilizando potasio metálico y cloruro de
aluminio. Wöhler fue el primero en medir la densidad del aluminio y demostrar
su ligereza. En 1854, Henri Sainte-Claire Deville obtuvo el metal en Francia
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 28
reduciendo cloruro de aluminio con sodio. Con el apoyo financiero de
Napoleón III, Deville estableció una planta experimental a gran escala, y en la
exposición de París de 1855 exhibió el aluminio puro.
Propiedades
El aluminio es un metal plateado muy ligero. Su masa atómica es 26,9815;
tiene un punto de fusión de 660 ºC, un punto de ebullición de 2.467 ºC y una
densidad relativa de 2,7. Es un metal muy electropositivo y muy reactivo. Al
contacto con el aire se cubre rápidamente con una capa dura y transparente
de óxido de aluminio que resiste la posterior acción corrosiva. Por esta razón,
los materiales hechos de aluminio no se oxidan. El metal reduce muchos
compuestos metálicos a sus metales básicos. Por ejemplo, al calentar termita
(una mezcla de óxido de hierro y aluminio en polvo), el aluminio extrae
rápidamente el oxígeno del óxido; el calor de la reacción es suficiente para
fundir el hierro. Este fenómeno se usa en el proceso Goldschmidt o Termita
para soldar hierro (véase Soldadura).
Entre los compuestos más importantes del aluminio están el óxido, el
hidróxido, el sulfato y el sulfato mixto. El óxido de aluminio es anfótero, es
decir, presenta a la vez propiedades ácidas y básicas. El cloruro de aluminio
anhidro es importante en la industria petrolífera. Muchas gemas (el rubí y el
zafiro, por ejemplo) consisten principalmente en óxido de aluminio cristalino.
Estado natural
El aluminio es el elemento metálico más abundante en la corteza terrestre;
sólo los no metales oxígeno y silicio son más abundantes. Se encuentra
normalmente en forma de silicato de aluminio puro o mezclado con otros
metales como sodio, potasio, hierro, calcio y magnesio, pero nunca como
metal libre. Los silicatos no son menas útiles, porque es extremamente difícil,
y por tanto muy caro, extraer el aluminio de ellas. La bauxita, un óxido de
aluminio hidratado impuro, es la fuente comercial de aluminio y de sus
compuestos.
En 1886, Charles Martin Hall en Estados Unidos y Paul L. T. Héroult en
Francia descubrieron por separado y casi simultáneamente que el óxido de
aluminio o alúmina se disuelve en criolita fundida (Na3AlF6), pudiendo ser
descompuesta electrolíticamente para obtener el metal fundido en bruto. El
proceso Hall-Héroult sigue siendo el método principal para la producción
comercial de aluminio, aunque se están estudiando nuevos métodos. La
pureza del producto se ha incrementado hasta un 99,5% de aluminio puro en
un lingote comercialmente puro; más tarde puede ser refinado hasta un 99,99
por ciento.
Aplicaciones
Un volumen dado de aluminio pesa menos que 1/3 del mismo volumen de
acero. Los únicos metales más ligeros son el litio, el berilio y el magnesio.
Debido a su elevada proporción resistencia-peso es muy útil para construir
aviones, vagones ferroviarios y automóviles, y para otras aplicaciones en las
que es importante la movilidad y la conservación de energía. Por su elevada
conductividad térmica, el aluminio se emplea en utensilios de cocina y en
pistones de motores de combustión interna. Solamente presenta un 63% de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 29
la conductividad eléctrica del cobre para alambres de un tamaño dado, pero
pesa menos de la mitad. Un alambre de aluminio de conductividad
comparable a un alambre de cobre es más grueso, pero sigue siendo más
ligero que el de cobre. El peso tiene mucha importancia en la transmisión de
electricidad de alto voltaje a larga distancia, y actualmente se usan
conductores de aluminio para transmitir electricidad a 700.000 voltios o más.
El metal es cada vez más importante en arquitectura, tanto con propósitos
estructurales como ornamentales. Las tablas, las contraventanas y las
láminas de aluminio constituyen excelentes aislantes. Se utiliza también en
reactores nucleares a baja temperatura porque absorbe relativamente pocos
neutrones. Con el frío, el aluminio se hace más resistente, por lo que se usa a
temperaturas criogénicas. El papel de aluminio de 0,018 cm de espesor,
actualmente muy utilizado en usos domésticos, protege los alimentos y otros
productos perecederos. Debido a su poco peso, a que se moldea fácilmente y
a su compatibilidad con comidas y bebidas, el aluminio se usa mucho en
contenedores, envoltorios flexibles, y botellas y latas de fácil apertura. El
reciclado de dichos recipientes es una medida de conservación de la energía
cada vez más importante. La resistencia a la corrosión al agua del mar del
aluminio también lo hace útil para fabricar cascos de barco y otros
mecanismos acuáticos.
Se puede preparar una amplia gama de aleaciones recubridoras y
aleaciones forjadas que proporcionen al metal más fuerza y resistencia a la
corrosión o a las temperaturas elevadas. Algunas de las nuevas aleaciones
pueden utilizarse como planchas de blindaje para tanques y otros vehículos
militares.
Producción
La producción mundial de aluminio ha experimentado un rápido
crecimiento, aunque se estabilizó a partir de 1980. En 1900 esta producción
era de 7.300 toneladas, en 1938 de 598.000 toneladas y en 1994 la
producción de aluminio primario fue de unos 19 millones de toneladas. Los
principales países productores son Estados Unidos, Rusia, Canadá, China y
Australia.
Cobre, de símbolo Cu, es uno de los metales de mayor uso, de apariencia
metálica y color pardo rojizo. El cobre es uno de los elementos de transición
de la tabla periódica, y su número atómico es 29.
Ya era conocido en épocas prehistóricas, y las primeras herramientas y
enseres fabricados probablemente fueran de cobre. Se han encontrado
objetos de este metal en las ruinas de muchas civilizaciones antiguas, como
en Egipto, Asia Menor, China, sureste de Europa, Chipre (de donde proviene
la palabra cobre), Creta y América del Sur. El cobre puede encontrarse en
estado puro.
Aplicaciones y propiedades
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 30
Su punto de fusión es de 1.083 °C, mientras que su punto de ebullición es
de unos 2.567 °C, y tiene una densidad de 8,9 g/cm3. Su masa atómica es
63,546.
El cobre tiene una gran variedad de aplicaciones a causa de sus
ventajosas propiedades, como son su elevada conductividad del calor y
electricidad, la resistencia a la corrosión, así como su maleabilidad y
ductilidad, además de su belleza. Debido a su extraordinaria conductividad,
sólo superada por la plata, el uso más extendido del cobre se da en la
industria eléctrica. Su ductilidad permite transformarlo en cables de cualquier
diámetro, a partir de 0,025 mm. La resistencia a la tracción del alambre de
cobre estirado es de unos 4.200 kg/cm2. Puede usarse tanto en cables y
líneas de alta tensión exteriores como en el cableado eléctrico en interiores,
cables de lámparas y maquinaria eléctrica en general: generadores, motores,
reguladores, equipos de señalización, aparatos electromagnéticos y sistemas
de comunicaciones.
A lo largo de la historia, el cobre se ha utilizado para acuñar monedas y
confeccionar útiles de cocina, tinajas y objetos ornamentales. En un tiempo
era frecuente reforzar con cobre la quilla de los barcos de madera para
proteger el casco ante posibles colisiones. El cobre se puede galvanizar
fácilmente como tal o como base para otros metales. Con este fin se emplean
grandes cantidades en la producción de electrotipos (reproducción de
caracteres de impresión).
La metalurgia del cobre varía según la composición de la mena. El cobre
en bruto se tritura, se lava y se prepara en barras. Los óxidos y carbonatos se
reducen con carbono. Las menas más importantes, las formadas por sulfuros,
no contienen más de un 12% de cobre, llegando en ocasiones tan sólo al 1%,
y han de triturarse y concentrarse por flotación. Los concentrados se funden
en un horno de reverbero que produce cobre metálico en bruto con una
pureza aproximada del 98%. Este cobre en bruto se purifica por electrólisis,
obteniéndose barras con una pureza que supera el 99,9 por ciento.
El cobre puro es blando, pero puede endurecerse posteriormente. Las
aleaciones de cobre, mucho más duras que el metal puro, presentan una
mayor resistencia y por ello no pueden utilizarse en aplicaciones eléctricas.
No obstante, su resistencia a la corrosión es casi tan buena como la del cobre
puro y son de fácil manejo. Las dos aleaciones más importantes son el latón,
una aleación con cinc, y el bronce, una aleación con estaño. A menudo, tanto
el cinc como el estaño se funden en una misma aleación, haciendo difícil una
diferenciación precisa entre el latón y el bronce. Ambos se emplean en
grandes cantidades. También se usa el cobre en aleaciones con oro, plata y
níquel, y es un componente importante en aleaciones como el monel, el
bronce de cañón y la plata alemana o alpaca.
El cobre forma dos series de compuestos químicos: de cobre (I), en la que
el cobre tiene una valencia de 1, y de cobre (II), en la que su valencia es 2.
Los compuestos de cobre (I) apenas tienen importancia en la industria y se
convierten fácilmente en compuestos de cobre (II) al oxidarse por la simple
exposición al aire. Los compuestos de cobre (II) son estables. Algunas
disoluciones de cobre tienen la propiedad de disolver la celulosa, por lo que
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 31
se usan grandes cantidades de cobre en la fabricación de rayón. También se
emplea el cobre en muchos pigmentos, en insecticidas como el verde de
Schweinfurt, o en fungicidas como la mezcla de Burdeos, aunque para estos
fines está siendo sustituido ampliamente por productos orgánicos sintéticos.
Estado natural
El cobre ocupa el lugar 25 en abundancia entre los elementos de la corteza
terrestre. Frecuentemente se encuentra agregado con otros metales como el
oro, plata, bismuto y plomo, apareciendo en pequeñas partículas en rocas,
aunque se han hallado masas compactas de hasta 420 toneladas. El cobre
se encuentra por todo el mundo en la lava basáltica, localizándose el mayor
depósito conocido en la cordillera de los Andes en Chile, bajo la forma de
pórfido. Este país posee aproximadamente el 25% de las reservas mundiales
conocidas de cobre y a comienzos de 1980 se convirtió en el primer país
productor de este metal. Los principales yacimientos se localizan en
Chuquicamata, Andina, El Salvador y El Teniente.
Las principales fuentes del cobre son la calcopirita y la bornita, sulfuros
mixtos de hierro y cobre. Otras menas importantes son los sulfuros de cobre
calcosina y covellina; la primera se encuentra en Chile, México, Estados
Unidos y la antigua URSS, y la segunda, en Estados Unidos. La enargita, un
sulfoarseniato de cobre, se encuentra en la antigua Yugoslavia, Suráfrica y
América del Norte; la azurita, un carbonato básico de cobre, en Francia y
Australia, y la malaquita, otro carbonato básico de cobre, en los montes
Urales, Namibia y Estados Unidos. La tetraedrita, un sulfoantimoniuro de
cobre y de otros metales, y la crisocolla, un silicato de cobre, se hallan
ampliamente distribuidos en la naturaleza; la cuprita, un óxido, en España,
Chile, Perú y Cuba, y la atacamita, un cloruro básico, cuyo nombre proviene
de la región andina de Atacama, en el norte de Chile y Perú.
Siderurgia, tecnología relacionada con la producción del hierro y sus
aleaciones, en especial las que contienen un pequeño porcentaje de carbono,
que constituyen los diferentes tipos de acero. A veces, las diferencias entre
las distintas clases de hierro y acero resultan confusas por la nomenclatura
empleada. En general, el acero es una aleación de hierro y carbono a la que
suelen añadirse otros elementos. Algunas aleaciones denominadas ‘hierros’
contienen más carbono que algunos aceros comerciales. El hierro de crisol
abierto y el hierro forjado contienen un porcentaje de carbono de sólo unas
centésimas. Los distintos tipos de acero contienen entre el 0,04 y el 2,25% de
carbono. El hierro colado, el hierro colado maleable y el arrabio contienen
entre un 2 y un 4% de carbono. Hay una forma especial de hierro maleable
que no contiene casi carbono alguno. Para fabricar aleaciones de hierro y
acero se emplea un tipo especial de aleaciones de hierro denominadas
ferroaleaciones, que contienen entre un 20 y un 80% del elemento de
aleación, que puede ser manganeso, silicio o cromo.
Historia
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 32
No se conoce con exactitud la fecha en que se descubrió la técnica de
fundir mineral de hierro para producir un metal susceptible de ser utilizado.
Los primeros utensilios de hierro descubiertos por los arqueólogos en Egipto
datan del año 3000 a.C., y se sabe que antes de esa época se empleaban
adornos de hierro. Los griegos ya conocían hacia el 1000 a.C. la técnica, de
cierta complejidad, para endurecer armas de hierro mediante tratamiento
térmico.
Las aleaciones producidas por los primeros artesanos del hierro (y, de
hecho, todas las aleaciones de hierro fabricadas hasta el siglo XIV d.C.) se
clasificarían en la actualidad como hierro forjado. Para producir esas
aleaciones se calentaba una masa de mineral de hierro y carbón vegetal en
un horno o forja con tiro forzado. Ese tratamiento reducía el mineral a una
masa esponjosa de hierro metálico llena de una escoria formada por
impurezas metálicas y cenizas de carbón vegetal. Esta esponja de hierro se
retiraba mientras permanecía incandescente y se golpeaba con pesados
martillos para expulsar la escoria y soldar y consolidar el hierro. El hierro
producido en esas condiciones solía contener un 3% de partículas de escoria
y un 0,1% de otras impurezas. En ocasiones esta técnica de fabricación
producía accidentalmente auténtico acero en lugar de hierro forjado. Los
artesanos del hierro aprendieron a fabricar acero calentando hierro forjado y
carbón vegetal en recipientes de arcilla durante varios días, con lo que el
hierro absorbía suficiente carbono para convertirse en acero auténtico.
Después del siglo XIV se aumentó el tamaño de los hornos utilizados para
la fundición y se incrementó el tiro para forzar el paso de los gases de
combustión por la carga o mezcla de materias primas. En estos hornos de
mayor tamaño el mineral de hierro de la parte superior del horno se reducía a
hierro metálico y a continuación absorbía más carbono como resultado de los
gases que lo atravesaban. El producto de estos hornos era el llamado
arrabio, una aleación que funde a una temperatura menor que el acero o el
hierro forjado. El arrabio se refinaba después para fabricar acero.
La producción moderna de acero emplea altos hornos que son modelos
perfeccionados de los usados antiguamente. El proceso de refinado del
arrabio mediante chorros de aire se debe al inventor británico Henry
Bessemer, que en 1855 desarrolló el horno o convertidor que lleva su
nombre. Desde la década de 1960 funcionan varios minihornos que emplean
electricidad para producir acero a partir de material de chatarra. Sin embargo,
las grandes instalaciones de altos hornos continúan siendo esenciales para
producir acero a partir de mineral de hierro.
Producción de arrabio
Los materiales básicos empleados para fabricar arrabio son mineral de
hierro, coque y caliza. El coque se quema como combustible para calentar el
horno, y al arder libera monóxido de carbono, que se combina con los óxidos
de hierro del mineral y los reduce a hierro metálico. La ecuación de la
reacción química fundamental de un alto horno es
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 33
Fe2O3 + 3 CO ± 3 CO2 + 2 Fe
La caliza de la carga del horno se emplea como fuente adicional de
monóxido de carbono y como sustancia fundente. Este material se combina
con la sílice presente en el mineral (que no se funde a las temperaturas del
horno) para formar silicato de calcio, de menor punto de fusión. Sin la caliza
se formaría silicato de hierro, con lo que se perdería hierro metálico. El
silicato de calcio y otras impurezas forman una escoria que flota sobre el
metal fundido en la parte inferior del horno. El arrabio producido en los altos
hornos tiene la siguiente composición: un 92% de hierro, un 3 o 4% de
carbono, entre 0,5 y 3% de silicio, del 0,25% al 2,5% de manganeso, del 0,04
al 2% de fósforo y algunas partículas de azufre.
Un alto horno típico está formado por una cápsula cilíndrica de acero
forrada con un material no metálico y resistente al calor, como asbesto o
ladrillos refractarios. El diámetro de la cápsula disminuye hacia arriba y hacia
abajo, y es máximo en un punto situado aproximadamente a una cuarta parte
de su altura total. La parte inferior del horno está dotada de varias aberturas
tubulares llamadas toberas, por donde se fuerza el paso del aire. Cerca del
fondo se encuentra un orificio por el que fluye el arrabio cuando se sangra (o
vacía) el alto horno. Encima de ese orificio, pero debajo de las toberas, hay
otro agujero para retirar la escoria. La parte superior del horno, cuya altura es
de unos 30 m, contiene respiraderos para los gases de escape, y un par de
tolvas redondas, cerradas por válvulas en forma de campana, por las que se
introduce la carga en el horno. Los materiales se llevan hasta las tolvas en
pequeñas vagonetas o cucharas que se suben por un elevador inclinado
situado en el exterior del horno.
Los altos hornos funcionan de forma continua. La materia prima que se va
a introducir en el horno se divide en un determinado número de pequeñas
cargas que se introducen a intervalos de entre 10 y 15 minutos. La escoria
que flota sobre el metal fundido se retira una vez cada dos horas, y el hierro
se sangra cinco veces al día.
El aire insuflado en el alto horno se precalienta a una temperatura
comprendida entre los 550 y los 900 ºC. El calentamiento se realiza en las
llamadas estufas, cilindros con estructuras de ladrillo refractario. El ladrillo se
calienta durante varias horas quemando gas de alto horno, que son los gases
de escape que salen de la parte superior del horno. Después se apaga la
llama y se hace pasar el aire a presión por la estufa. El peso del aire
empleado en un alto horno supera el peso total de las demás materias
primas.
Después de la II Guerra Mundial se introdujo un importante avance en la
tecnología de altos hornos: la presurización de los hornos. Estrangulando el
flujo de gas de los respiraderos del horno es posible aumentar la presión del
interior del horno hasta 1,7 atmósferas o más. La técnica de presurización
permite una mejor combustión del coque y una mayor producción de hierro.
En muchos altos hornos puede lograrse un aumento de la producción de un
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 34
25%. En instalaciones experimentales también se ha demostrado que la
producción se incrementa enriqueciendo el aire con oxígeno.
El proceso de sangrado consiste en retirar a golpes un tapón de arcilla del
orificio del hierro cercano al fondo del horno y dejar que el metal fundido fluya
por un canal cubierto de arcilla y caiga a un depósito metálico forrado de
ladrillo, que puede ser una cuchara o una vagoneta capaz de contener hasta
100 toneladas de metal. Cualquier escoria o sobrante que salga del horno
junto con el metal se elimina antes de llegar al recipiente. A continuación, el
contenedor lleno de arrabio se transporta a la fábrica siderúrgica.
Los altos hornos modernos funcionan en combinación con hornos básicos
de oxígeno, y a veces con hornos de crisol abierto, más antiguos, como parte
de una única planta siderúrgica. En esas plantas, los hornos siderúrgicos se
cargan con arrabio. El metal fundido procedente de diversos altos hornos
puede mezclarse en una gran cuchara antes de convertirlo en acero con el fin
de minimizar el efecto de posibles irregularidades de alguno de los hornos.
Otros métodos de refinado del hierro
Aunque casi todo el hierro y acero que se fabrica en el mundo se obtiene a
partir de arrabio producido en altos hornos, hay otros métodos de refinado del
hierro que se han practicado de forma limitada. Uno de ellos es el
denominado método directo para fabricar hierro y acero a partir del mineral,
sin producir arrabio. En este proceso se mezclan mineral de hierro y coque en
un horno de calcinación rotatorio y se calientan a una temperatura de unos
950 ºC. El coque caliente desprende monóxido de carbono, igual que en un
alto horno, y reduce los óxidos del mineral a hierro metálico. Sin embargo, no
tienen lugar las reacciones secundarias que ocurren en un alto horno, y el
horno de calcinación produce la llamada esponja de hierro, de mucha mayor
pureza que el arrabio. También puede producirse hierro prácticamente puro
mediante electrólisis (véase Electroquímica) haciendo pasar una corriente
eléctrica a través de una disolución de cloruro de hierro (II). Ni el proceso
directo ni el electrolítico tienen importancia comercial significativa.
Proceso de crisol abierto
Cualquier proceso de producción de acero a partir de arrabio consiste en
quemar el exceso de carbono y otras impurezas presentes en el hierro. Una
dificultad para la fabricación del acero es su elevado punto de fusión,
1.400 ºC, que impide utilizar combustibles y hornos convencionales. Para
superar la dificultad se desarrolló el horno de crisol abierto, que funciona a
altas temperaturas gracias al precalentado regenerativo del combustible
gaseoso y el aire empleados para la combustión. En el precalentado
regenerativo los gases que escapan del horno se hacen pasar por una serie
de cámaras llenas de ladrillos, a los que ceden la mayor parte de su calor. A
continuación se invierte el flujo a través del horno, y el combustible y el aire
pasan a través de las cámaras y son calentados por los ladrillos. Con este
método, los hornos de crisol abierto alcanzan temperaturas de hasta
1.650 ºC.
El horno propiamente dicho suele ser un crisol de ladrillo plano y
rectangular de unos 6 × 10 m, con un techo de unos 2,5 m de altura. Una
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 35
serie de puertas da a una planta de trabajo situada delante del crisol. Todo el
crisol y la planta de trabajo están situados a una altura determinada por
encima del suelo, y el espacio situado bajo el crisol lo ocupan las cámaras de
regeneración de calor del horno. Un horno del tamaño indicado produce unas
100 toneladas de acero cada 11 horas.
El horno se carga con una mezcla de arrabio (fundido o frío), chatarra de
acero y mineral de hierro, que proporciona oxígeno adicional. Se añade caliza
como fundente y fluorita para hacer que la escoria sea más fluida. Las
proporciones de la carga varían mucho, pero una carga típica podría consistir
en 60.000 kg de chatarra de acero, 11.000 kg de arrabio frío, 45.000 kg de
arrabio fundido, 12.000 kg de caliza, 1.000 kg de mineral de hierro y 200 kg
de fluorita. Una vez cargado el horno, se enciende, y las llamas oscilan de un
lado a otro del crisol a medida que el operario invierte su dirección para
regenerar el calor.
Desde el punto de vista químico la acción del horno de crisol abierto
consiste en reducir por oxidación el contenido de carbono de la carga y
eliminar impurezas como silicio, fósforo, manganeso y azufre, que se
combinan con la caliza y forman la escoria. Estas reacciones tienen lugar
mientras el metal del horno se encuentra a la temperatura de fusión, y el
horno se mantiene entre 1.550 y 1.650 ºC durante varias horas hasta que el
metal fundido tenga el contenido de carbono deseado. Un operario experto
puede juzgar el contenido de carbono del metal a partir de su aspecto, pero
por lo general se prueba la fundición extrayendo una pequeña cantidad de
metal del horno, enfriándola y sometiéndola a examen físico o análisis
químico. Cuando el contenido en carbono de la fundición alcanza el nivel
deseado, se sangra el horno a través de un orificio situado en la parte trasera.
El acero fundido fluye por un canal corto hasta una gran cuchara situada a
ras de suelo, por debajo del horno. Desde la cuchara se vierte el acero en
moldes de hierro colado para formar lingotes, que suelen tener una sección
cuadrada de unos 50 cm de lado, y una longitud de 1,5 m. Estos lingotes —la
materia prima para todas las formas de fabricación del acero— pesan algo
menos de 3 toneladas. Recientemente se han puesto en práctica métodos
para procesar el acero de forma continua sin tener que pasar por el proceso
de fabricación de lingotes.
Proceso básico de oxígeno
El proceso más antiguo para fabricar acero en grandes cantidades es el
proceso Bessemer, que empleaba un horno de gran altura en forma de pera,
denominado convertidor Bessemer, que podía inclinarse en sentido lateral
para la carga y el vertido. Al hacer pasar grandes cantidades de aire a través
del metal fundido, el oxígeno del aire se combinaba químicamente con las
impurezas y las eliminaba.
En el proceso básico de oxígeno, el acero también se refina en un horno
en forma de pera que se puede inclinar en sentido lateral. Sin embargo, el
aire se sustituye por un chorro de oxígeno casi puro a alta presión. Cuando el
horno se ha cargado y colocado en posición vertical, se hace descender en
su interior una lanza de oxígeno. La punta de la lanza, refrigerada por agua,
suele estar situada a unos 2 m por encima de la carga, aunque esta distancia
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 36
se puede variar según interese. A continuación se inyectan en el horno miles
de metros cúbicos de oxígeno a velocidades supersónicas. El oxígeno se
combina con el carbono y otros elementos no deseados e inicia una reacción
de agitación que quema con rapidez las impurezas del arrabio y lo transforma
en acero. El proceso de refinado tarda 50 minutos o menos, y es posible
fabricar unas 275 toneladas de acero en una hora.
Acero de horno eléctrico
En algunos hornos el calor para fundir y refinar el acero procede de la
electricidad y no de la combustión de gas. Como las condiciones de refinado
de estos hornos se pueden regular más estrictamente que las de los hornos
de crisol abierto o los hornos básicos de oxígeno, los hornos eléctricos son
sobre todo útiles para producir acero inoxidable y aceros aleados que deben
ser fabricados según unas especificaciones muy exigentes. El refinado se
produce en una cámara hermética, donde la temperatura y otras condiciones
se controlan de forma rigurosa mediante dispositivos automáticos. En las
primeras fases de este proceso de refinado se inyecta oxígeno de alta pureza
a través de una lanza, lo que aumenta la temperatura del horno y disminuye
el tiempo necesario para producir el acero. La cantidad de oxígeno que entra
en el horno puede regularse con precisión en todo momento, lo que evita
reacciones de oxidación no deseadas.
En la mayoría de los casos, la carga está formada casi exclusivamente por
material de chatarra. Antes de poder utilizarla, la chatarra debe ser analizada
y clasificada, porque su contenido en aleaciones afecta a la composición del
metal refinado. También se añaden otros materiales, como pequeñas
cantidades de mineral de hierro y cal seca, para contribuir a eliminar el
carbono y otras impurezas. Los elementos adicionales para la aleación se
introducen con la carga o después, cuando se vierte a la cuchara el acero
refinado.
Una vez cargado el horno se hacen descender unos electrodos hasta la
superficie del metal. La corriente eléctrica fluye por uno de los electrodos,
forma un arco eléctrico hasta la carga metálica, recorre el metal y vuelve a
formar un arco hasta el siguiente electrodo. La resistencia del metal al flujo de
corriente genera calor, que —junto con el producido por el arco eléctrico—
funde el metal con rapidez. Hay otros tipos de horno eléctrico donde se
emplea una espiral para generar calor.
Procesos de acabado
El acero se vende en una gran variedad de formas y tamaños, como
varillas, tubos, raíles (rieles) de ferrocarril o perfiles en H o en T. Estas formas
se obtienen en las instalaciones siderúrgicas laminando los lingotes calientes
o modelándolos de algún otro modo. El acabado del acero mejora también su
calidad al refinar su estructura cristalina y aumentar su resistencia.
El método principal de trabajar el acero se conoce como laminado en
caliente. En este proceso, el lingote colado se calienta al rojo vivo en un
horno denominado foso de termodifusión y a continuación se hace pasar
entre una serie de rodillos metálicos colocados en pares que lo aplastan
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 37
hasta darle la forma y tamaño deseados. La distancia entre los rodillos va
disminuyendo a medida que se reduce el espesor del acero.
El primer par de rodillos por el que pasa el lingote se conoce como tren de
desbaste o de eliminación de asperezas. Después del tren de desbaste, el
acero pasa a trenes de laminado en bruto y a los trenes de acabado que lo
reducen a láminas con la sección transversal correcta. Los rodillos para
producir raíles o rieles de ferrocarril o perfiles en H, en T o en L tienen estrías
para proporcionar la forma adecuada.
Los procesos modernos de fabricación requieren gran cantidad de chapa
de acero delgada. Los trenes o rodillos de laminado continuo producen tiras y
láminas con anchuras de hasta 2,5 m. Estos laminadores procesan con
rapidez la chapa de acero antes de que se enfríe y no pueda ser trabajada.
Las planchas de acero caliente de más de 10 cm de espesor se pasan por
una serie de cilindros que reducen progresivamente su espesor hasta unos
0,1 cm y aumentan su longitud de 4 a 370 metros. Los trenes de laminado
continuo están equipados con una serie de accesorios como rodillos de
borde, aparatos de decapado o eliminación y dispositivos para enrollar de
modo automático la chapa cuando llega al final del tren. Los rodillos de borde
son grupos de rodillos verticales situados a ambos lados de la lámina para
mantener su anchura. Los aparatos de decapado eliminan la costra que se
forma en la superficie de la lámina apartándola mecánicamente, retirándola
mediante un chorro de aire o doblando de forma abrupta la chapa en algún
punto del recorrido. Las bobinas de chapa terminadas se colocan sobre una
cinta transportadora y se llevan a otro lugar para ser recocidas y cortadas en
chapas individuales. Una forma más eficiente para producir chapa de acero
delgada es hacer pasar por los rodillos planchas de menor espesor. Con los
métodos convencionales de fundición sigue siendo necesario pasar los
lingotes por un tren de desbaste para producir planchas lo bastante delgadas
para el tren de laminado continuo.
El sistema de colada continua, en cambio, produce una plancha continua
de acero con un espesor inferior a 5 cm, lo que elimina la necesidad de trenes
de desbaste y laminado en bruto.
Tubos
Los tubos más baratos se forman doblando una tira plana de acero caliente
en forma cilíndrica y soldando los bordes para cerrar el tubo. En los tubos
más pequeños, los bordes de la tira suelen superponerse y se pasan entre un
par de rodillos curvados según el diámetro externo del tubo. La presión de los
rodillos es suficiente para soldar los bordes. Los tubos sin soldaduras se
fabrican a partir de barras sólidas haciéndolas pasar entre un par de rodillos
inclinados entre los que está situada una barra metálica con punta, llamada
mandril, que perfora las barras y forma el interior del tubo mientras los rodillos
forman el exterior.
Hojalata
El producto de acero recubierto más importante es la hojalata estañada
que se emplea para la fabricación de latas y envases. El material de las latas
contiene más de un 99% de acero. En algunas instalaciones, las láminas de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 38
acero se pasan por un baño de estaño fundido (después de laminarlas
primero en caliente y luego en frío) para estañarlas. El método de
recubrimiento más común es el proceso electrolítico. La chapa de acero se
desenrolla poco a poco de la bobina y se le aplica una solución química. Al
mismo tiempo se hace pasar una corriente eléctrica a través de un trozo de
estaño puro situado en esa misma solución, lo que hace que el estaño se
disuelva poco a poco y se deposite sobre el acero. Con este sistema, medio
kilogramo de estaño basta para recubrir 20 metros cuadrados de acero. En la
hojalata delgada, la chapa recibe un segundo laminado en frío antes de
recubrirla de estaño, lo que aumenta la resistencia de la chapa además de su
delgadez. Las latas hechas de hojalata delgada tienen una resistencia similar
a las ordinarias, pero contienen menos acero, con lo que se reduce su peso y
su coste. También pueden fabricarse envases ligeros adhiriendo una
delgadísima lámina de acero estañado sobre papel o cartón.
Otros procesos de fabricación de acero son la forja, la fundición y el uso de
troqueles.
Hierro forjado
El proceso antiguo para fabricar la aleación resistente y maleable conocida
como hierro forjado se diferencia con claridad de otras formas de fabricación
de acero. Debido a que el proceso, conocido como pudelización, exigía un
mayor trabajo manual, era imposible producir hierro forjado en grandes
cantidades. El desarrollo de nuevos sistemas con convertidores Bessemer y
hornos de crisol abierto permitieron producir un volumen mayor de hierro
forjado.
Sin embargo, el hierro forjado ya no se fabrica habitualmente con fines
comerciales, debido a que se puede sustituir en casi todas las aplicaciones
por acero de bajo contenido en carbono, con menor costo de producción y
calidad más uniforme.
El horno de pudelización empleado en el proceso antiguo tiene un techo
abovedado de poca altura y un crisol cóncavo en el que se coloca el metal en
bruto, separado por una pared de la cámara de combustión donde se quema
carbón bituminoso. La llama de la cámara de combustión asciende por
encima de la pared, incide en el techo abovedado y reverbera sobre el
contenido del crisol. Cuando el horno ha adquirido un calor moderado, el
operario que maneja el horno recubre el crisol y las paredes con una pasta de
óxido de hierro, por lo general hematites. A continuación, el horno se carga
con unos 250 kg de arrabio y se cierra la puerta. Al cabo de unos 30 minutos,
el arrabio se ha fundido, y el operario añade a la carga más óxido de hierro o
residuos de laminado, mezclándolos con el hierro con una barra de hierro
curvada. El silicio y la mayor parte del manganeso contenidos en el hierro se
oxidan, y se elimina parte del azufre y el fósforo. A continuación se eleva un
poco la temperatura del horno, y el carbono empieza a quemarse formando
óxidos de carbono gaseosos. Según se desprende gas la escoria aumenta de
volumen y el nivel de la carga sube. Al quemarse el carbono, la temperatura
de fusión aumenta, y la carga se vuelve cada vez más pastosa y vuelve a su
nivel anterior. A medida que se incrementa la pureza del hierro, el operario
remueve la carga con la barra para garantizar una composición uniforme y
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 39
una cohesión adecuada de las partículas. La masa resultante, pastosa y
esponjosa, se divide en pedazos o bolas de unos 80 o 90 kg. Las bolas se
retiran del horno con unas tenazas y se colocan directamente en una prensa
que expulsa de la bola la mayor parte de la escoria de silicio mezclada y
suelda entre sí los granos de hierro puro. A continuación se corta el hierro en
piezas planas que se apilan unas sobre otras, se calientan hasta la
temperatura de soldadura y se laminan para formar una sola pieza. A veces
se repite el proceso de laminado para mejorar la calidad del producto.
La técnica moderna para fabricar hierro forjado emplea hierro fundido
procedente de un convertidor Bessemer y escoria fundida, que suele
prepararse fundiendo mineral de hierro, residuos de laminado y arena en un
horno de crisol abierto. Cuando el hierro fundido, que lleva disuelta una gran
cantidad de gas, se vierte en la cuchara que contiene la escoria fundida, el
metal se solidifica de modo casi instantáneo y libera el gas disuelto. La fuerza
ejercida por el gas hace estallar el metal en partículas diminutas que son más
pesadas que la escoria y se acumulan en el fondo de la cuchara, donde se
aglomeran formando una masa esponjosa similar a las bolas producidas en
un horno de pudelización. Cuando se vierte la escoria de la parte superior de
la cuchara se retira la bola de hierro y se la somete al mismo tratamiento que
el producto del horno de pudelización.
Clasificación del acero
Los diferentes tipos de acero se agrupan en cinco clases principales:
aceros al carbono, aceros aleados, aceros de baja aleación ultrarresistentes,
aceros inoxidables y aceros de herramientas.
Aceros al carbono
Más del 90% de todos los aceros son aceros al carbono. Estos aceros
contienen diversas cantidades de carbono y menos del 1,65% de
manganeso, el 0,60% de silicio y el 0,60% de cobre. Entre los productos
fabricados con aceros al carbono figuran máquinas, carrocerías de automóvil,
la mayor parte de las estructuras de construcción de acero, cascos de
buques, somieres y horquillas o pasadores para el pelo.
Aceros aleados
Estos aceros contienen una proporción determinada de vanadio,
molibdeno y otros elementos, además de cantidades mayores de manganeso,
silicio y cobre que los aceros al carbono normales. Estos aceros se emplean,
por ejemplo, para fabricar engranajes y ejes de motores, patines o cuchillos
de corte.
Aceros de baja aleación ultrarresistentes
Esta familia es la más reciente de las cinco grandes clases de acero. Los
aceros de baja aleación son más baratos que los aceros aleados
convencionales ya que contienen cantidades menores de los costosos
elementos de aleación. Sin embargo, reciben un tratamiento especial que les
da una resistencia mucho mayor que la del acero al carbono. Por ejemplo, los
vagones de mercancías fabricados con aceros de baja aleación pueden
transportar cargas más grandes porque sus paredes son más delgadas que lo
que sería necesario en caso de emplear acero al carbono. Además, como los
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 40
vagones de acero de baja aleación pesan menos, las cargas pueden ser más
pesadas. En la actualidad se construyen muchos edificios con estructuras de
aceros de baja aleación. Las vigas pueden ser más delgadas sin disminuir su
resistencia, logrando un mayor espacio interior en los edificios.
Aceros inoxidables
Los aceros inoxidables contienen cromo, níquel y otros elementos de
aleación, que los mantienen brillantes y resistentes a la herrumbre y oxidación
a pesar de la acción de la humedad o de ácidos y gases corrosivos. Algunos
aceros inoxidables son muy duros; otros son muy resistentes y mantienen esa
resistencia durante largos periodos a temperaturas extremas. Debido a sus
superficies brillantes, en arquitectura se emplean muchas veces con fines
decorativos. El acero inoxidable se utiliza para las tuberías y tanques de
refinerías de petróleo o plantas químicas, para los fuselajes de los aviones o
para cápsulas espaciales. También se usa para fabricar instrumentos y
equipos quirúrgicos, o para fijar o sustituir huesos rotos, ya que resiste a la
acción de los fluidos corporales. En cocinas y zonas de preparación de
alimentos los utensilios son a menudo de acero inoxidable, ya que no
oscurece los alimentos y pueden limpiarse con facilidad.
Aceros de herramientas
Estos aceros se utilizan para fabricar muchos tipos de herramientas y
cabezales de corte y modelado de máquinas empleadas en diversas
operaciones de fabricación. Contienen volframio, molibdeno y otros
elementos de aleación, que les proporcionan mayor resistencia, dureza y
durabilidad.
Estructura del acero
Las propiedades físicas de los aceros y su comportamiento a distintas
temperaturas dependen sobre todo de la cantidad de carbono y de su
distribución en el hierro. Antes del tratamiento térmico, la mayor parte de los
aceros son una mezcla de tres sustancias: ferrita, perlita y cementita. La
ferrita, blanda y dúctil, es hierro con pequeñas cantidades de carbono y otros
elementos en disolución. La cementita, un compuesto de hierro con el 7% de
carbono aproximadamente, es de gran dureza y muy quebradiza. La perlita es
una profunda mezcla de ferrita y cementita, con una composición específica y
una estructura característica, y sus propiedades físicas son intermedias entre
las de sus dos componentes. La resistencia y dureza de un acero que no ha
sido tratado térmicamente depende de las proporciones de estos tres
ingredientes. Cuanto mayor es el contenido en carbono de un acero, menor
es la cantidad de ferrita y mayor la de perlita: cuando el acero tiene un 0,8%
de carbono, está por completo compuesto de perlita. El acero con cantidades
de carbono aún mayores es una mezcla de perlita y cementita. Al elevarse la
temperatura del acero, la ferrita y la perlita se transforman en una forma
alotrópica de aleación de hierro y carbono conocida como austenita, que tiene
la propiedad de disolver todo el carbono libre presente en el metal. Si el acero
se enfría despacio, la austenita vuelve a convertirse en ferrita y perlita, pero si
el enfriamiento es repentino la austenita se convierte en martensita, una
modificación alotrópica de gran dureza similar a la ferrita pero con carbono en
solución sólida.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 41
Tratamiento térmico del acero
El proceso básico para endurecer el acero mediante tratamiento térmico
consiste en calentar el metal hasta una temperatura a la que se forma
austenita, generalmente entre los 750 y 850 ºC, y después enfriarlo con
rapidez sumergiéndolo en agua o aceite. Estos tratamientos de
endurecimiento, que forman martensita, crean grandes tensiones internas en
el metal, que se eliminan mediante el temple o el recocido, que consiste en
volver a calentar el acero hasta una temperatura menor. El temple reduce la
dureza y resistencia y aumenta la ductilidad y la tenacidad.
El objetivo fundamental del proceso de tratamiento térmico es controlar la
cantidad, tamaño, forma y distribución de las partículas de cementita
contenidas en la ferrita, que a su vez determinan las propiedades físicas del
acero.
Hay muchas variaciones del proceso básico. Los ingenieros metalúrgicos
han descubierto que el cambio de austenita a martensita se produce en la
última fase del enfriamiento, y que la transformación se ve acompañada de un
cambio de volumen que puede agrietar el metal si el enfriamiento es
demasiado rápido. Se han desarrollado tres procesos relativamente nuevos
para evitar el agrietamiento. En el templado prolongado, el acero se retira del
baño de enfriamiento cuando ha alcanzado la temperatura en la que empieza
a formarse la martensita, y a continuación se enfría despacio en el aire. En el
martemplado, el acero se retira del baño en el mismo momento que el
templado prolongado y se coloca en un baño de temperatura constante hasta
que alcanza una temperatura uniforme en toda su sección transversal.
Después se deja enfriar el acero en aire a lo largo del rango de temperaturas
de formación de la martensita, que en la mayoría de los aceros va desde
unos 300 ºC hasta la temperatura ambiente. En el austemplado, el acero se
enfría en un baño de metal o sal mantenido de forma constante a la
temperatura en que se produce el cambio estructural deseado, y se conserva
en ese baño hasta que el cambio es completo, antes de pasar al enfriado
final.
Hay también otros métodos de tratamiento térmico para endurecer el
acero. En la cementación, las superficies de las piezas de acero terminadas
se endurecen al calentarlas con compuestos de carbono o nitrógeno. Estos
compuestos reaccionan con el acero y aumentan su contenido de carbono o
forman nitruros en su capa superficial. En la carburización la pieza se calienta
cuando se mantiene rodeada de carbón vegetal, coque o de gases de
carbono como metano o monóxido de carbono. La cianurización consiste en
endurecer el metal en un baño de sales de cianuro fundidas para formar
carburos y nitruros. La nitrurización se emplea para endurecer aceros de
composición especial mediante su calentamiento en amoníaco gaseoso para
formar nitruros de aleación.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 42
Ordenador o Computadora, dispositivo electrónico capaz de recibir un
conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos
numéricos, o bien compilando y correlacionando otros tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el
desarrollo del ordenador o computadora. Toda la sociedad utiliza estas
máquinas, en distintos tipos y tamaños, para el almacenamiento y
manipulación de datos. Los equipos informáticos han abierto una nueva era
en la fabricación gracias a las técnicas de automatización, y han permitido
mejorar los sistemas modernos de comunicación. Son herramientas
esenciales prácticamente en todos los campos de investigación y en
tecnología aplicada.
Tipos de ordenadores o computadoras
En la actualidad se utilizan dos tipos principales de ordenadores:
analógicos y digitales. Sin embargo, el término ordenador o computadora
suele utilizarse para referirse exclusivamente al tipo digital. Los ordenadores
analógicos aprovechan la similitud matemática entre las interrelaciones físicas
de determinados problemas y emplean circuitos electrónicos o hidráulicos
para simular el problema físico. Los ordenadores digitales resuelven los
problemas realizando cálculos y tratando cada número dígito por dígito.
Las instalaciones que contienen elementos de ordenadores digitales y
analógicos se denominan ordenadores híbridos. Por lo general se utilizan
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 43
para problemas en los que hay que calcular grandes cantidades de
ecuaciones complejas, conocidas como integrales de tiempo. En un
ordenador digital también pueden introducirse datos en forma analógica
mediante un convertidor analógico digital, y viceversa (convertidor digital a
analógico).
Ordenadores analógicos
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado
para manipular la entrada de datos en términos de, por ejemplo, niveles de
tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El
dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza
longitudes de escalas especialmente calibradas para facilitar la multiplicación,
la división y otras funciones. En el típico ordenador analógico electrónico, las
entradas se convierten en tensiones que pueden sumarse o multiplicarse
empleando elementos de circuito de diseño especial. Las respuestas se
generan continuamente para su visualización o para su conversión en otra
forma deseada.
Ordenadores digitales
Todo lo que hace un ordenador digital se basa en una operación: la
capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado.
Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de
sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el
caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el
ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla
de la tecnología moderna. Las velocidades del ordenador se miden en
megahercios, o millones de ciclos por segundo. Un ordenador con una
velocidad de reloj de 100 MHz, velocidad bastante representativa de un
microordenador o microcomputadora, es capaz de ejecutar 100 millones de
operaciones discretas por segundo. Las microcomputadoras de las
compañías pueden ejecutar entre 150 y 200 millones de operaciones por
segundo, mientras que las supercomputadoras utilizadas en aplicaciones de
investigación y de defensa alcanzan velocidades de miles de millones de
ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se
incrementan aún más por la cantidad de datos manipulados durante cada
ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho
conmutador puede representar solamente dos comandos o números. Así, ON
simbolizaría una operación o un número, mientras que OFF simbolizará otra u
otro. Sin embargo, al verificar grupos de conmutadores enlazados como una
sola unidad, el ordenador aumenta el número de operaciones que puede
reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos
conmutadores cada vez, puede representar cuatro números (del 0 al 3), o
bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno
de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ONOFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970
eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían
verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo. Un
grupo de ocho bits se denomina byte y cada uno contiene 256
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 44
configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale
a una instrucción, a una parte de una instrucción o a un determinado tipo de
dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico.
Por ejemplo, la configuración 11010010 puede representar datos binarios, en
este caso el número decimal 210 (véase Sistemas numéricos), o bien estar
indicando al ordenador que compare los datos almacenados en estos
conmutadores con los datos almacenados en determinada ubicación del chip
de memoria. El desarrollo de procesadores capaces de manejar
simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la
velocidad de los ordenadores. La colección completa de configuraciones
reconocibles, es decir, la lista total de operaciones que una computadora es
capaz de procesar, se denomina conjunto, o repertorio, de instrucciones.
Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos
de instrucciones, continúa incrementándose a medida que avanza el
desarrollo de los ordenadores digitales modernos.
Historia
La primera máquina de calcular mecánica, un precursor del ordenador
digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel
dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno
de los dientes representaba un dígito del 0 al 9. Las ruedas estaban
conectadas de tal manera que podían sumarse números haciéndolas avanzar
el número de dientes correcto. En 1670 el filósofo y matemático alemán
Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que
también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático,
utilizó delgadas placas de madera perforadas para controlar el tejido utilizado
en los diseños complejos. Durante la década de 1880 el estadístico
estadounidense Herman Hollerith concibió la idea de utilizar tarjetas
perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith
consiguió compilar la información estadística destinada al censo de población
de 1890 de Estados Unidos mediante la utilización de un sistema que hacía
pasar tarjetas perforadas sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles
Babbage elaboró los principios de la computadora digital moderna. Inventó
una serie de máquinas, como la máquina diferencial, diseñadas para
solucionar problemas matemáticos complejos. Muchos historiadores
consideran a Babbage y a su socia, la matemática británica Augusta Ada
Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos
inventores de la computadora digital moderna. La tecnología de aquella
época no era capaz de trasladar a la práctica sus acertados conceptos; pero
una de sus invenciones, la máquina analítica, ya tenía muchas de las
características de un ordenador moderno. Incluía una corriente, o flujo de
entrada en forma de paquete de tarjetas perforadas, una memoria para
guardar los datos, un procesador para las operaciones matemáticas y una
impresora para hacer permanente el registro.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 45
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del
siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y
engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones
numéricas de ecuaciones demasiado difíciles como para poder ser resueltas
mediante otros métodos. Durante las dos guerras mundiales se utilizaron
sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos,
para predecir la trayectoria de los torpedos en los submarinos y para el
manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y
matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon
lo que se consideró el primer ordenador digital totalmente electrónico: el
Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500
válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo
dirigido por Alan Turing para descodificar los mensajes de radio cifrados de
los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff
y Clifford Berry ya habían construido un prototipo de máquina electrónica en
el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores
se realizaron en el anonimato, y más tarde quedaron eclipsadas por el
desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC,
Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según
se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en
inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en
1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de
varios cientos de multiplicaciones por minuto, pero su programa estaba
conectado al procesador y debía ser modificado manualmente. Se construyó
un sucesor del ENIAC con un almacenamiento de programa que estaba
basado en los conceptos del matemático húngaro-estadounidense John von
Neumann. Las instrucciones se almacenaban dentro de una llamada
memoria, lo que liberaba al ordenador de las limitaciones de velocidad del
lector de cinta de papel durante la ejecución y permitía resolver problemas sin
necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores
marcó el advenimiento de elementos lógicos más pequeños, rápidos y
versátiles de lo que permitían las máquinas con válvulas. Como los
transistores utilizan mucha menos energía y tienen una vida útil más
prolongada, a su desarrollo se debió el nacimiento de máquinas más
perfeccionadas, que fueron llamadas ordenadores o computadoras de
segunda generación. Los componentes se hicieron más pequeños, así como
los espacios entre ellos, por lo que la fabricación del sistema resultaba más
barata.
Circuitos integrados
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 46
A finales de la década de 1960 apareció el circuito integrado (CI), que
posibilitó la fabricación de varios transistores en un único sustrato de silicio en
el que los cables de interconexión iban soldados. El circuito integrado permitió
una posterior reducción del precio, el tamaño y los porcentajes de error. El
microprocesador se convirtió en una realidad a mediados de la década de
1970, con la introducción del circuito de integración a gran escala (LSI,
acrónimo de Large Scale Integrated) y, más tarde, con el circuito de
integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated),
con varios miles de transistores interconectados soldados sobre un único
sustrato de silicio.
Hardware
Todos los ordenadores digitales modernos son similares conceptualmente
con independencia de su tamaño. Sin embargo, pueden dividirse en varias
categorías según su precio y rendimiento: el ordenador o computadora
personal es una máquina de coste relativamente bajo y por lo general de
tamaño adecuado para un escritorio (algunos de ellos, denominados
portátiles, o laptops, son lo bastante pequeños como para caber en un
maletín); la estación de trabajo, un microordenador con gráficos mejorados y
capacidades de comunicaciones que lo hacen especialmente útil para el
trabajo de oficina; el miniordenador o minicomputadora, un ordenador de
mayor tamaño que por lo general es demasiado caro para el uso personal y
que es apto para compañías, universidades o laboratorios; y el mainframe,
una gran máquina de alto precio capaz de servir a las necesidades de
grandes empresas, departamentos gubernamentales, instituciones de
investigación científica y similares (las máquinas más grandes y más rápidas
dentro de esta categoría se denominan superordenadores).
En realidad, un ordenador digital no es una única máquina, en el sentido
en el que la mayoría de la gente considera a los ordenadores. Es un sistema
compuesto de cinco elementos diferenciados: una CPU (unidad central de
proceso); dispositivos de entrada; dispositivos de almacenamiento de
memoria; dispositivos de salida y una red de comunicaciones, denominada
bus, que enlaza todos los elementos del sistema y conecta a éste con el
mundo exterior.
CPU (unidad central de proceso)
La CPU puede ser un único chip o una serie de chips que realizan cálculos
aritméticos y lógicos y que temporizan y controlan las operaciones de los
demás elementos del sistema. Las técnicas de miniaturización y de
integración han posibilitado el desarrollo de un chip de CPU denominado
microprocesador, que incorpora un sistema de circuitos y memoria
adicionales. El resultado son unos ordenadores más pequeños y la reducción
del sistema de circuitos de soporte. Los microprocesadores se utilizan en la
mayoría de los ordenadores personales de la actualidad.
La mayoría de los chips de CPU y de los microprocesadores están
compuestos de cuatro secciones funcionales: una unidad aritmética/lógica;
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 47
unos registros; una sección de control y un bus interno. La unidad
aritmética/lógica proporciona al chip su capacidad de cálculo y permite la
realización de operaciones aritméticas y lógicas. Los registros son áreas de
almacenamiento temporal que contienen datos, realizan un seguimiento de
las instrucciones y conservan la ubicación y los resultados de dichas
operaciones. La sección de control tiene tres tareas principales: temporiza y
regula las operaciones de la totalidad del sistema informático; su
descodificador de instrucciones lee las configuraciones de datos en un
registro designado y las convierte en una actividad, como podría ser sumar o
comparar, y su unidad interruptora indica en qué orden utilizará la CPU las
operaciones individuales y regula la cantidad de tiempo de CPU que podrá
consumir cada operación.
El último segmento de un chip de CPU o microprocesador es su bus
interno, una red de líneas de comunicación que conecta los elementos
internos del procesador y que también lleva hacia los conectores externos
que enlazan al procesador con los demás elementos del sistema informático.
Los tres tipos de bus de la CPU son: el bus de control que consiste en una
línea que detecta las señales de entrada y de otra línea que genera señales
de control desde el interior de la CPU; el bus de dirección, una línea
unidireccional que sale desde el procesador y que gestiona la ubicación de
los datos en las direcciones de la memoria; y el bus de datos, una línea de
transmisión bidireccional que lee los datos de la memoria y escribe nuevos
datos en ésta.
Dispositivos de entrada
Estos dispositivos permiten al usuario del ordenador introducir datos,
comandos y programas en la CPU. El dispositivo de entrada más común es
un teclado similar al de las máquinas de escribir. La información introducida
con el mismo, es transformada por el ordenador en modelos reconocibles.
Otros dispositivos de entrada son los lápices ópticos, que transmiten
información gráfica desde tabletas electrónicas hasta el ordenador; joysticks y
el ratón o mouse, que convierte el movimiento físico en movimiento dentro de
una pantalla de ordenador; los escáneres luminosos, que leen palabras o
símbolos de una página impresa y los traducen a configuraciones electrónicas
que el ordenador puede manipular y almacenar; y los módulos de
reconocimiento de voz, que convierten la palabra hablada en señales
digitales comprensibles para el ordenador. También es posible utilizar los
dispositivos de almacenamiento para introducir datos en la unidad de
proceso.
Dispositivos de almacenamiento
Los sistemas informáticos pueden almacenar los datos tanto interna (en la
memoria) como externamente (en los dispositivos de almacenamiento).
Internamente, las instrucciones o datos pueden almacenarse por un tiempo
en los chips de silicio de la RAM (memoria de acceso aleatorio) montados
directamente en la placa de circuitos principal de la computadora, o bien en
chips montados en tarjetas periféricas conectadas a la placa de circuitos
principal del ordenador. Estos chips de RAM constan de conmutadores
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 48
sensibles a los cambios de la corriente eléctrica. Los chips de RAM estática
conservan sus bits de datos mientras la corriente siga fluyendo a través del
circuito, mientras que los chips de RAM dinámica (DRAM, acrónimo de
Dynamic Random Access Memory) necesitan la aplicación de tensiones altas
o bajas a intervalos regulares aproximadamente cada dos milisegundos para
no perder su información.
Otro tipo de memoria interna son los chips de silicio en los que ya están
instalados todos los conmutadores. Las configuraciones en este tipo de chips
de ROM (memoria de sólo lectura) forman los comandos, los datos o los
programas que el ordenador necesita para funcionar correctamente. Los
chips de RAM son como pedazos de papel en los que se puede escribir,
borrar y volver a utilizar; los chips de ROM son como un libro, con las
palabras ya escritas en cada página. Tanto los primeros como los segundos
están enlazados a la CPU a través de circuitos.
Los dispositivos de almacenamiento externos, que pueden residir
físicamente dentro de la unidad de proceso principal del ordenador, están
fuera de la placa de circuitos principal. Estos dispositivos almacenan los datos
en forma de cargas sobre un medio magnéticamente sensible, por ejemplo
una cinta de sonido o, lo que es más común, sobre un disco revestido de una
fina capa de partículas metálicas. Los dispositivos de almacenamiento
externo más frecuentes son los disquetes y los discos duros, aunque la
mayoría de los grandes sistemas informáticos utiliza bancos de unidades de
almacenamiento en cinta magnética. Los discos flexibles pueden contener,
según sea el sistema, desde varios centenares de miles de bytes hasta
bastante más de un millón de bytes de datos. Los discos duros no pueden
extraerse de los receptáculos de la unidad de disco, que contienen los
dispositivos electrónicos para leer y escribir datos sobre la superficie
magnética de los discos y pueden almacenar desde varios millones de bytes
hasta algunos centenares de millones. La tecnología de CD-ROM, que
emplea las mismas técnicas láser utilizadas para crear los discos compactos
(CD) de audio, permiten capacidades de almacenamiento del orden de varios
cientos de megabytes (millones de bytes) de datos.
Dispositivos de salida
Estos dispositivos permiten al usuario ver los resultados de los cálculos o
de las manipulaciones de datos de la computadora. El dispositivo de salida
más común es la unidad de visualización (VDU, acrónimo de Video Display
Unit), que consiste en un monitor que presenta los caracteres y gráficos en
una pantalla similar a la del televisor. Por lo general, las VDU tienen un tubo
de rayos catódicos como el de cualquier televisor, aunque los ordenadores
pequeños y portátiles utilizan hoy pantallas de cristal líquido (LCD, acrónimo
de Liquid Crystal Displays) o electroluminiscentes. Otros dispositivos de
salida más comunes son las impresoras y los módem. Un módem enlaza dos
ordenadores transformando las señales digitales en analógicas para que los
datos puedan transmitirse a través de las telecomunicaciones.
Sistemas operativos
Los sistemas operativos internos fueron desarrollados sobre todo para
coordinar y trasladar estos flujos de datos que procedían de fuentes distintas,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 49
como las unidades de disco o los coprocesadores (chips de procesamiento
que ejecutan operaciones simultáneamente con la unidad central, aunque son
diferentes). Un sistema operativo es un programa de control principal,
almacenado de forma permanente en la memoria, que interpreta los
comandos del usuario que solicita diversos tipos de servicios, como
visualización, impresión o copia de un archivo de datos; presenta una lista de
todos los archivos existentes en un directorio o ejecuta un determinado
programa.
Programación
Un programa es una secuencia de instrucciones que indican al hardware
de un ordenador qué operaciones debe realizar con los datos. Los programas
pueden estar incorporados al propio hardware, o bien pueden existir de
manera independiente en forma de software. En algunas computadoras
especializadas las instrucciones operativas están incorporadas en el sistema
de circuitos; entre los ejemplos más comunes pueden citarse los
microordenadores de las calculadoras, relojes de pulsera, motores de coches
y hornos microondas. Por otro lado, un ordenador universal, o de uso general,
contiene algunos programas incorporados (en la ROM) o instrucciones (en el
chip del procesador), pero depende de programas externos para ejecutar
tareas útiles. Una vez programado, podrá hacer tanto o tan poco como le
permita el software que lo controla en determinado momento. El software de
uso más generalizado incluye una amplia variedad de programas de
aplicaciones, es decir, instrucciones al ordenador acerca de cómo realizar
diversas tareas.
Lenguajes
Las instrucciones deben darse en un lenguaje de programación, es decir,
en una determinada configuración de información digital binaria. En las
primeras computadoras, la programación era una tarea difícil y laboriosa ya
que los conmutadores ON-OFF de las válvulas de vacío debían configurarse
a mano. Programar tareas tan sencillas como ordenar una lista de nombres
requería varios días de trabajo de equipos de programadores. Desde
entonces se han inventado varios lenguajes informáticos, algunos orientados
hacia funciones específicas y otros centrados en la facilidad de uso.
Lenguaje máquina
El lenguaje propio del ordenador, basado en el sistema binario, o código
máquina, resulta difícil de utilizar para las personas. El programador debe
introducir todos y cada uno de los comandos y datos en forma binaria, y una
operación sencilla como comparar el contenido de un registro con los datos
situados en una ubicación del chip de memoria puede tener el siguiente
formato: 11001010 00010111 11110101 00101011. La programación en
lenguaje máquina es una tarea tan tediosa y consume tanto tiempo que muy
raras veces lo que se ahorra en la ejecución del programa justifica los días o
semanas que se han necesitado para escribir el mismo.
Lenguaje ensamblador
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 50
Uno de los métodos inventados por los programadores para reducir y
simplificar el proceso es la denominada programación con lenguaje
ensamblador. Al asignar un código mnemotécnico (por lo general de tres
letras) a cada comando en lenguaje máquina, es posible escribir y depurar o
eliminar los errores lógicos y de datos en los programas escritos en lenguaje
ensamblador, empleando para ello sólo una fracción del tiempo necesario
para programar en lenguaje máquina. En el lenguaje ensamblador, cada
comando mnemotécnico y sus operadores simbólicos equivalen a una
instrucción de máquina. Un programa ensamblador traduce el código fuente,
una lista de códigos de operación mnemotécnicos y de operadores
simbólicos, a código objeto (es decir, a lenguaje máquina) y, a continuación,
ejecuta el programa.
Sin embargo, el lenguaje ensamblador puede utilizarse con un solo tipo de
chip de CPU o microprocesador. Los programadores, que dedicaron tanto
tiempo y esfuerzo al aprendizaje de la programación de un ordenador, se
veían obligados a aprender un nuevo estilo de programación cada vez que
trabajaban con otra máquina. Lo que se necesitaba era un método abreviado
en el que un enunciado simbólico pudiera representar una secuencia de
numerosas instrucciones en lenguaje máquina, y un método que permitiera
que el mismo programa pudiera ejecutarse en varios tipos de máquinas.
Estas necesidades llevaron al desarrollo de lenguajes de alto nivel.
Lenguajes de alto nivel
Los lenguajes de alto nivel suelen utilizar términos ingleses del tipo LIST,
PRINT u OPEN como comandos que representan una secuencia de decenas
o de centenas de instrucciones en lenguaje máquina. Los comandos se
introducen desde el teclado, desde un programa residente en la memoria o
desde un dispositivo de almacenamiento, y son interceptados por un
programa que los traduce a instrucciones en lenguaje máquina.
Los programas traductores son de dos tipos: intérpretes y compiladores.
Con un intérprete, los programas que repiten un ciclo para volver a ejecutar
parte de sus instrucciones, reinterpretan la misma instrucción cada vez que
aparece. Por consiguiente, los programas interpretados se ejecutan con
mucha mayor lentitud que los programas en lenguaje máquina. Por el
contrario, los compiladores traducen un programa íntegro a lenguaje máquina
antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si
hubiesen sido escritos directamente en lenguaje máquina.
Se considera que fue la estadounidense Grace Hopper quien implementó
el primer lenguaje de ordenador orientado al uso comercial. Después de
programar un ordenador experimental en la Universidad de Harvard, trabajó
en los modelos UNIVAC I y UNIVAC II, desarrollando un lenguaje de alto nivel
para uso comercial llamado FLOW-MATIC. Para facilitar el uso del ordenador
en las aplicaciones científicas, IBM desarrolló un lenguaje que simplificaría el
trabajo que implicaba el tratamiento de fórmulas matemáticas complejas.
Iniciado en 1954 y terminado en 1957, el FORTRAN (acrónimo de Formula
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 51
Translator) fue el primer lenguaje exhaustivo de alto nivel de uso
generalizado.
En 1957 una asociación estadounidense, la Association for Computing
Machinery comenzó a desarrollar un lenguaje universal que corrigiera algunos
de los defectos del FORTRAN. Un año más tarde fue lanzado el ALGOL
(acrónimo de Algorithmic Language), otro lenguaje de orientación científica.
De gran difusión en Europa durante las décadas de 1960 y 1970, desde
entonces ha sido sustituido por nuevos lenguajes, mientras que el FORTRAN
continúa siendo utilizado debido a las gigantescas inversiones que se hicieron
en los programas existentes. El COBOL (acrónimo de Common Business
Oriented Language) es un lenguaje de programación para uso comercial y
empresarial especializado en la organización de datos y manipulación de
archivos, y hoy día está muy difundido en el mundo empresarial.
El lenguaje BASIC (acrónimo de Código de Instrucciones Simbólicas de
Uso General para Principiantes) fue desarrollado en el Dartmouth College a
principios de la década de 1960 y está dirigido a los usuarios de ordenador no
profesionales. Este lenguaje se universalizó gracias a la popularización de los
microordenadores en las décadas de 1970 y 1980. Calificado de lento,
ineficaz y poco estético por sus detractores, BASIC es sencillo de aprender y
fácil de utilizar. Como muchos de los primeros microordenadores se
vendieron con BASIC incorporado en el hardware (en la memoria ROM), se
generalizó el uso de este lenguaje.
Aunque existen centenares de lenguajes informáticos y de variantes, hay
algunos dignos de mención, como el PASCAL, diseñado en un principio como
herramienta de enseñanza, hoy es uno de los lenguajes de microordenador
más populares; el Logo fue desarrollado para que los niños pudieran acceder
al mundo de la informática; el C, un lenguaje de Bell Laboratories diseñado
en la década de 1970, se utiliza ampliamente en el desarrollo de programas
de sistemas, al igual que su sucesor, el C++. El LISP y el PROLOG han
alcanzado amplia difusión en el campo de la inteligencia artificial.
Evolución futura
Una tendencia constante en el desarrollo de los ordenadores es la
microminiaturización, iniciativa que tiende a comprimir más elementos de
circuitos en un espacio de chip cada vez más pequeño. Además, los
investigadores intentan agilizar el funcionamiento de los circuitos mediante el
uso de la superconductividad, un fenómeno de disminución de la resistencia
eléctrica que se observa cuando se enfrían los objetos a temperaturas muy
bajas.
Las redes informáticas se han vuelto cada vez más importantes en el
desarrollo de la tecnología de computadoras. Las redes son grupos de
computadoras interconectados mediante sistemas de comunicación. La red
pública Internet es un ejemplo de red informática planetaria. Las redes
permiten que las computadoras conectadas intercambien rápidamente
información y, en algunos casos, compartan una carga de trabajo, con lo que
muchas computadoras pueden cooperar en la realización de una tarea. Se
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 52
están desarrollando nuevas tecnologías de equipo físico y soporte lógico que
acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear
computadoras de quinta generación, capaces de resolver problemas
complejos en formas que pudieran llegar a considerarse creativas. Una vía
que se está explorando activamente es el ordenador de proceso paralelo, que
emplea muchos chips para realizar varias tareas diferentes al mismo tiempo.
El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas
funciones de realimentación, aproximación y evaluación que caracterizan al
pensamiento humano. Otra forma de proceso paralelo que se está
investigando es el uso de computadoras moleculares. En estas
computadoras, los símbolos lógicos se expresan por unidades químicas de
ADN en vez de por el flujo de electrones habitual en las computadoras
corrientes. Las computadoras moleculares podrían llegar a resolver
problemas complicados mucho más rápidamente que las actuales
supercomputadoras y consumir mucha menos energía.
Economía, ciencia social que estudia los procesos de producción,
distribución, comercialización y consumo de bienes y servicios. Los
economistas estudian cómo alcanzan en este campo sus objetivos los
individuos, los distintos colectivos, las empresas de negocios, y los gobiernos.
Otras ciencias ayudan a avanzar en este estudio; la psicología y la ética
intentan explicar cómo se determinan los objetivos, la historia registra el
cambio de objetivos y la sociología interpreta el comportamiento humano en
un contexto social.
El estudio de la economía puede dividirse en dos grandes campos. La
teoría de los precios, o microeconomía, que explica cómo la interacción de la
oferta y la demanda en mercados competitivos determinan los precios de
cada bien, el nivel de salarios, el margen de beneficios y las variaciones de
las rentas. La microeconomía parte del supuesto de comportamiento racional.
Los ciudadanos gastarán su renta intentando obtener la máxima satisfacción
posible o, como dicen los analistas económicos, tratarán de maximizar su
utilidad. Por su parte, los empresarios intentarán obtener el máximo beneficio
posible.
El segundo campo, el de la macroeconomía, comprende los problemas
relativos al nivel de empleo y al índice de ingresos o renta de un país. El
estudio de la macroeconomía surge con la publicación de La teoría general
del empleo, el interés y el dinero (1935), del economista británico John
Maynard Keynes. Sus conclusiones sobre las fases de expansión y depresión
económica se centran en la demanda total, o agregada, de bienes y servicios
por parte de consumidores, inversores y gobiernos. Según Keynes, una
demanda agregada insuficiente generará desempleo; la solución estaría en
incrementar la inversión de las empresas o del gasto público, aunque para
ello sea necesario tener un déficit presupuestario.
Historia del pensamiento económico
Las cuestiones económicas han preocupado a muchos intelectuales a lo
largo de los siglos. En la antigua Grecia, Aristóteles y Platón disertaron sobre
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 53
los problemas relativos a la riqueza, la propiedad y el comercio. Durante la
edad media predominaron las ideas de la Iglesia católica apostólica romana,
se impuso el Derecho canónico, que condenaba la usura (el cobro de
intereses abusivos a cambio de efectivo) y consideraba que el comercio era
una actividad inferior a la agricultura.
La economía, como ciencia moderna independiente de la filosofía y de la
política, data de la publicación de la obra Investigación sobre la naturaleza y
causas de la riqueza de las naciones (1776), del filósofo y economista
escocés Adam Smith. El mercantilismo y las especulaciones de los fisiócratas
precedieron a la economía clásica de Smith y sus seguidores del siglo XIX.
Mercantilismo
El desarrollo de los modernos nacionalismos a lo largo del siglo XVI desvió
la atención de los pensadores de la época hacia cómo incrementar la riqueza
y el poder de las naciones Estado. La política económica que imperaba en
aquella época, el mercantilismo, fomentaba el autoabastecimiento de las
naciones. Esta doctrina económica imperó en Inglaterra y en el resto de
Europa occidental desde el siglo XVI hasta el siglo XVIII.
Los mercantilistas consideraban que la riqueza de una nación dependía de
la cantidad de oro y plata que tuviese. Aparte de las minas de oro y plata
descubiertas por España en el Nuevo Mundo, una nación sólo podía
aumentar sus reservas de estos metales preciosos vendiendo más productos
a otros países de los que compraba de ellos. El conseguir una balanza de
pagos con saldo positivo implicaba que los demás países tenían que pagar la
diferencia con oro y plata.
Los mercantilistas daban por sentado que su país estaría siempre en
guerra con otros, o preparándose para la próxima contienda. Si tenían oro y
plata, los dirigentes podrían pagar a mercenarios para combatir, como hizo el
rey Jorge III de Inglaterra durante la guerra de la Independencia
estadounidense. En caso de necesidad, el monarca también podría comprar
armas, uniformes y comida para los soldados.
Esta preocupación mercantilista por acumular metales preciosos también
afectaba a la política interna. Era imprescindible que los salarios fueran bajos
y que la población creciese. Una población numerosa y mal pagada
produciría muchos bienes a un precio lo suficiente bajo como para poder
venderlos en el exterior. Se obligaba a la gente a trabajar jornadas largas, y
se consideraba un despilfarro el consumo de té, ginebra, lazos, volantes o
tejidos de seda. De esta filosofía también se deducía que, cuanto antes
empezaran a trabajar los niños, mejor para el país. Un autor mercantilista
tenía un plan para los niños de los pobres: “cuando estos niños tienen cuatro
años, hay que llevarlos al asilo para pobres de la región, donde se les
enseñará a leer durante dos horas al día, y se les tendrá trabajando el resto
del día en las tareas que mejor se ajusten a su edad, fuerza y capacidad”.
Fisiocracia
Esta doctrina económica estuvo en boga en Francia durante la segunda
mitad del siglo XVIII y surgió como una reacción ante las políticas restrictivas
del mercantilismo. El fundador de la escuela, François Quesnay, era médico
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 54
de cabecera en la corte del rey Luis XV. Su libro más conocido, Tableau
économique (Cuadro económico, 1758), intentaba establecer los flujos de
ingresos en una economía, anticipándose a la contabilidad nacional, creada
en el siglo XX. Según los fisiócratas, toda la riqueza era generada por la
agricultura; gracias al comercio, esta riqueza pasaba de los agricultores al
resto de la sociedad. Los fisiócratas eran partidarios del libre comercio y del
laissez-faire (doctrina que defiende que los gobiernos no deben intervenir en
la economía). También sostenían que los ingresos del Estado tenían que
provenir de un único impuesto que debía gravar a los propietarios de la tierra,
que eran considerados como la clase estéril. Adam Smith conoció a los
principales fisiócratas y escribió sobre sus doctrinas, casi siempre de forma
positiva.
La escuela clásica
Como cuerpo de teoría económica coherente, la economía clásica parte de
los escritos de Smith y continúa con la obra de los economistas británicos
Thomas Robert Malthus y David Ricardo; y culmina con la síntesis de John
Stuart Mill, discípulo de Ricardo. Aunque eran frecuentes las divergencias
entre los economistas clásicos que hubo en los 75 años que van desde la
publicación de Investigación sobre la naturaleza y causas de la riqueza de las
naciones de Smith (1776), hasta los Principios de economía política de Mill
(1848), los economistas pertenecientes a esta escuela coincidían en los
conceptos principales. Todos defendían la propiedad privada, los mercados y
creían, como decía Mill, que “sólo a través del principio de la competencia
tiene la economía política una pretensión de ser ciencia”. Compartían la
desconfianza de Smith hacia los gobiernos, y su fe ciega en el poder del
egoísmo y su famosa “mano invisible”, que hacía posible que el bienestar
social se alcanzara mediante la búsqueda individual del interés personal. Los
clásicos obtuvieron de Ricardo el concepto de rendimientos decrecientes, que
afirma que a medida que se aumenta la fuerza de trabajo y el capital que se
utiliza para labrar la tierra, disminuyen los rendimientos o, como decía
Ricardo, “superada cierta etapa, no muy avanzada, el progreso de la
agricultura disminuye de una forma paulatina”.
El alcance de la ciencia económica se amplió de manera considerable
cuando Smith subrayó el papel del consumo sobre el de la producción. Smith
confiaba en que era posible aumentar el nivel general de vida del conjunto de
la comunidad. Defendía que era esencial permitir que los individuos
intentaran alcanzar su propio bienestar como medio para aumentar la
prosperidad de toda la sociedad.
En el lado opuesto, Malthus, en su conocido e influyente Ensayo sobre el
principio de la población (1798), planteaba la nota pesimista a la escuela
clásica, al afirmar que las esperanzas de mayor prosperidad se escollarían
contra la roca de un excesivo crecimiento de la población. Según Malthus, los
alimentos sólo aumentaban adecuándose a una progresión aritmética (2-4-68-10, etc.), mientras que la población se duplicaba cada generación (2-4-816-32, etc.), salvo que esta tendencia se controlara, o por la naturaleza o por
la propia prudencia de la especie. Malthus sostenía que el control natural era
‘positivo’: “El poder de la población es tan superior al poder de la tierra para
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 55
permitir la subsistencia del hombre, que la muerte prematura tiene que, frenar
hasta cierto punto el crecimiento del ser humano”. Este procedimiento de
frenar el crecimiento eran las guerras, las epidemias, la peste, las plagas, los
vicios humanos y las hambrunas, que se combinaban para controlar el
volumen de la población mundial y limitarlo a la oferta de alimentos.
La única forma de escapar a este imperativo de la humanidad y de los
horrores de un control positivo de la naturaleza, era la limitación voluntaria del
crecimiento de la población, no mediante un control de natalidad, contrario a
las convicciones religiosas de Malthus, sino retrasando la edad para casarse,
reduciendo así el volumen de las familias. Las doctrinas pesimistas de este
autor clásico dieron a la economía el sobrenombre de ‘ciencia lúgubre’.
Los Principios de economía política de Mill constituyeron el centro de esta
ciencia hasta finales del siglo XIX. Aunque Mill aceptaba las teorías de sus
predecesores clásicos, confiaba más en la posibilidad de educar a la clase
obrera para que limitase su reproducción de lo que lo hacían Ricardo y
Malthus. Además, Mill era un reformista que quería gravar con fuerza las
herencias, e incluso permitir que el gobierno asumiera un mayor
protagonismo a la hora de proteger a los niños y a los trabajadores. Fue muy
crítico con las prácticas que desarrollaban las empresas y favorecía la gestión
cooperativa de las fábricas, por parte de los trabajadores. Mill representa un
puente entre la economía clásica del laissez-faire y el Estado de bienestar.
Los economistas clásicos aceptaban la Ley de Say sobre los mercados,
fundada por el economista francés Jean Baptiste Say. Esta ley sostiene que
el riesgo de un desempleo masivo en una economía competitiva es
despreciable, porque la oferta crea su propia demanda, limitada por la
cantidad de mano de obra y los recursos naturales disponibles para producir.
Cada aumento de la producción aumenta los salarios y los demás ingresos
que se necesitan para poder comprar esa cantidad adicional producida.
Marxismo
La oposición a la escuela de pensamiento clásico vino de la mano de los
primeros autores socialistas, como el filósofo social francés, Claude Henri de
Rouvroy conde de Saint-Simon, y del utópico británico Robert Owen. Sin
embargo, fue Karl Marx el autor de las teorías económicas socialistas más
importantes.
Para la perspectiva clásica del capitalismo, el marxismo representó una
seria recusación, aunque no dejaba de ser, en algunos aspectos, una
variante de la temática clásica. Por ejemplo, Marx adoptó la teoría del valor
trabajo de Ricardo. Con algunas matizaciones, Ricardo explicó que los
precios eran la consecuencia de la cantidad de trabajo que se necesitaba
para producir un bien. Ricardo formuló esta teoría del valor para facilitar el
análisis, de forma que se pudiera entender la diversidad de precios. Para
Marx, la teoría del valor trabajo representaba la clave del modo de proceder
del capitalismo, la causa de todos los abusos y de toda la explotación
generada por un sistema injusto.
Exiliado de Alemania, Marx pasó muchos años en Londres, donde vivió
gracias a la ayuda de su amigo y colaborador Friedrich Engels, y a los
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 56
ingresos derivados de sus ocasionales contribuciones en la prensa.
Desarrolló su extensa teoría en la biblioteca del Museo Británico. Los estudios
históricos y los análisis económicos de Marx convencieron a Engels de que
los beneficios y los demás ingresos procedentes de una explotación sin
escrúpulos de las propiedades y las rentas son el resultado del fraude y el
poder que ejercen los fuertes sobre los débiles. Sobre esta crítica se alza la
crítica económica que desemboca en la certificación histórica de la lucha de
clases.
La ‘acumulación primitiva’ en la historia económica de Inglaterra fue
posible gracias a la delimitación y al cercamiento de las tierras. Durante los
siglos XVII y XVIII los terratenientes utilizaron su poder en el Parlamento para
quitar a los agricultores los derechos que por tradición tenían sobre las tierras
comunales. Al privatizar estas tierras, empujaron a sus víctimas a las
ciudades y a las fábricas.
Sin tierras ni herramientas, los hombres, las mujeres y los niños tenían que
trabajar para conseguir un salario. Así, el principal conflicto, según Marx, se
producía entre la denominada clase capitalista, que detentaba la propiedad
de los medios de producción (fábricas y máquinas) y la clase trabajadora o
proletariado, que no tenía nada, salvo sus propias manos. La explotación, eje
de la doctrina de Karl Marx, se mide por la capacidad de los capitalistas para
pagar sólo salarios de subsistencia a sus empleados, obteniendo de su
trabajo un beneficio (o plusvalía), que era la diferencia entre los salarios
pagados y los precios de venta de los bienes en los mercados.
Aunque en el Manifiesto Comunista (1848) Marx y Engels pagaban un
pequeño tributo a los logros materiales del capitalismo, estaban convencidos
que estos logros eran transitorios y que las contradicciones inherentes al
capitalismo y al proceso de lucha de clases terminarían por destruirlo, al igual
que en el pasado había ocurrido con el extinto feudalismo medieval.
A este respecto, los escritos de Marx se alejan de la tradición de la
economía clásica inglesa, siguiendo la metafísica del filósofo alemán George
Wilhelm Friedrich Hegel, el cual consideraba que la historia de la humanidad
y de la filosofía era una progresión dialéctica: tesis, antítesis y síntesis. Por
ejemplo, una tesis puede ser un conjunto de acuerdos económicos, como el
feudalismo o el capitalismo. Su contrapuesto, o antítesis, sería, por ejemplo,
el socialismo, como sistema contrario al capitalismo. La confrontación de la
tesis y la antítesis daría paso a una evolución, que sería la síntesis, en este
caso, el comunismo que permite combinar la tecnología capitalista con la
propiedad pública de las fábricas y las granjas.
A largo plazo, Marx creía que el sistema capitalista desaparecería debido a
que su tendencia a acumular la riqueza en unas pocas manos provocaría
crecientes crisis debidas al exceso de oferta y a un progresivo aumento del
desempleo. Para Marx, la contradicción entre los adelantos tecnológicos, y el
consiguiente aumento de la eficacia productiva, y la reducción del poder
adquisitivo que impediría adquirir las cantidades adicionales de productos,
sería la causa del hundimiento del capitalismo.
Según Marx, las crisis del capitalismo se reflejarían en un desplome de los
beneficios, una mayor conflictividad entre trabajadores y empresarios e
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 57
importantes depresiones económicas. El resultado de esta lucha de clases
culminaría en la revolución y en el avance hacia, en primer lugar, el
socialismo, para al fin avanzar hacia la implantación gradual del comunismo.
En una primera etapa todavía sería necesario tener un Estado que eliminara
la resistencia de los capitalistas. Cada trabajador sería remunerado en
función de su aportación a la sociedad. Cuando se implantara el comunismo,
el Estado, cuyo objetivo principal consiste en oprimir a las clases sociales,
desaparecería, y cada individuo percibiría, en ese porvenir utópico, en razón
de sus necesidades.
Los neoclásicos
La economía clásica partía del supuesto de escasez, como lo muestra la
ley de rendimientos decrecientes y la doctrina malthusiana sobre la población.
A partir de la década de 1870, los economistas neoclásicos como William
Stanley Jevons en Gran Bretaña, Léon Walras en Francia, y Karl Menger en
Austria, imprimieron un giro a la economía, abandonaron las limitaciones de
la oferta para centrarse en la interpretación de las preferencias de los
consumidores en términos psicológicos. Al fijarse en el estudio de la utilidad o
satisfacción obtenida con la última unidad, o unidad marginal, consumida, los
neoclásicos explicaban la formación de los precios, no en función de la
cantidad de trabajo necesaria para producir los bienes, como en las teorías
de Ricardo y de Marx, sino en función de la intensidad de la preferencia de
los consumidores en obtener una unidad adicional de un determinado
producto.
El economista británico Alfred Marshall, en su obra maestra, Principios de
Economía (1890), explicaba la demanda a partir del principio de utilidad
marginal, y la oferta a partir del coste marginal (coste de producir la última
unidad). En los mercados competitivos, las preferencias de los consumidores
hacia los bienes más baratos y la de los productores hacia los más caros, se
ajustarían para alcanzar un nivel de equilibrio. Ese precio de equilibrio sería
aquel que hiciera coincidir la cantidad que los compradores quieren comprar
con la que los productores desean vender.
Este equilibrio también se alcanzaría en los mercados de dinero y de
trabajo. En los mercados financieros, los tipos de interés equilibrarían la
cantidad de dinero que desean prestar los ahorradores y la cantidad de
dinero que desean pedir prestado los inversores. Los prestatarios quieren
utilizar los préstamos que reciben para invertir en actividades que les
permitan obtener beneficios superiores a los tipos de interés que tienen que
pagar por los préstamos. Por su parte, los ahorradores cobran un precio a
cambio de ceder su dinero y posponer la percepción de la utilidad que
obtendrán al gastarlo. En el mercado de trabajo se alcanza asimismo un
equilibrio. En los mercados de trabajo competitivos, los salarios pagados
representan, por lo menos, el valor que el empresario otorga a la producción
obtenida durante las horas trabajadas, que tiene que ser igual a la
compensación que desea recibir el trabajador a cambio del cansancio y el
tedio laboral.
La doctrina neoclásica es, de forma implícita, conservadora. Los
defensores de esta doctrina prefieren que operen los mercados competitivos
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 58
a que haya una intervención pública. Al menos hasta la Gran Depresión de la
década de 1930, se defendía que la mejor política era la que reflejaba el
pensamiento de Adam Smith: bajos impuestos, ahorro en el gasto público y
presupuestos equilibrados. A los neoclásicos no les preocupa la causa de la
riqueza, explican que la desigual distribución de ésta y de los ingresos, se
debe en gran medida a los distintos grados de inteligencia, talento, energía y
ambición de las personas. Por lo tanto, el éxito de cada individuo depende de
sus características individuales, y no de que se beneficien de ventajas
excepcionales o sean víctimas de una incapacidad especial. En las
sociedades capitalistas, la economía clásica es la doctrina predominante a la
hora de explicar la formación de los precios y el origen de los ingresos.
Economía keynesiana
John Maynard Keynes fue alumno de Alfred Marshall y defensor de la
economía neoclásica hasta la década de 1930. La Gran Depresión sorprendió
a economistas y políticos por igual. Los economistas siguieron defendiendo, a
pesar de la experiencia contraria, que el tiempo y la naturaleza restaurarían el
crecimiento económico si los gobiernos se abstenían de intervenir en el
proceso económico. Por desgracia, los antiguos remedios no funcionaron. En
Estados Unidos, la victoria en las elecciones presidenciales de Franklin D.
Roosevelt (1932) sobre Herbert Hoover marcó el final político de las doctrinas
del laissez-faire.
Se necesitaban nuevas políticas y nuevas explicaciones, que fue lo que en
ese momento proporcionó Keynes. En su imperecedera Teoría general sobre
el empleo, el interés y el dinero (1936), aparecía un axioma central que puede
resumirse en dos grandes afirmaciones: (1) las teorías existentes sobre el
desempleo no tenían ningún sentido; ni un nivel de precios elevado ni unos
salarios altos podían explicar la persistente depresión económica y el
desempleo generalizado. (2) Por el contrario, se proponía una explicación
alternativa a estos fenómenos que giraba en torno a lo que se denominaba
demanda agregada, es decir, el gasto total de los consumidores, los
inversores y las instituciones públicas. Cuando la demanda agregada es
insuficiente, decía Keynes, las ventas disminuyen y se pierden puestos de
trabajo; cuando la demanda agregada es alta y crece, la economía prospera.
A partir de estas dos afirmaciones genéricas, surgió una poderosa teoría
que permitía explicar el comportamiento económico. Esta interpretación
constituye la base de la macroeconomía contemporánea. Puesto que la
cantidad de bienes que puede adquirir un consumidor está limitada por los
ingresos que éste percibe, los consumidores no pueden ser responsables de
los altibajos del ciclo económico. Por lo tanto, las fuerzas motoras de la
economía son los inversores (los empresarios) y los gobiernos. Durante una
recesión, y también durante una depresión económica, hay que fomentar la
inversión privada o, en su defecto, aumentar el gasto público. Si lo que se
produce es una ligera contracción, hay que facilitar la concesión de créditos y
reducir los tipos de interés (sustrato fundamental de la política monetaria),
para estimular la inversión privada y restablecer la demanda agregada,
aumentándola de forma que se pueda alcanzar el pleno empleo. Si la
contracción de la economía es grande, habrá que incurrir en déficit
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 59
presupuestarios, invirtiendo en obras públicas o concediendo subvenciones a
fondo perdido a los colectivos más perjudicados.
Economía analítica
Tanto la teoría neoclásica de los precios como la teoría keynesiana de los
ingresos han sido desarrolladas de forma analítica por matemáticos,
utilizando técnicas de cálculo, álgebra lineal y otras sofisticadas técnicas de
análisis cuantitativo. En la especialidad denominada econometría se une la
ciencia económica con la matemática y la estadística. Los económetras crean
modelos que vinculan cientos, a veces miles de ecuaciones, para intentar
explicar el comportamiento agregado de una economía. Los modelos
econométricos son utilizados por empresas y gobiernos como herramientas
de predicción, aunque su grado de precisión no es ni mayor ni menor que
cualquier otra técnica de previsión del futuro.
El análisis operativo y el análisis input-output son dos especialidades en
las que cooperan los expertos en análisis económico y los matemáticos. El
análisis operativo subraya la necesidad de plantear los problemas de una
manera sistemática. Por lo general, se trata de coordinar los distintos
departamentos y las diferentes operaciones que tienen lugar en el seno de
una corporación que dirige varias fábricas, produciendo muchos bienes, por lo
que hay que utilizar las instalaciones de forma que se puedan minimizar los
costes y maximizar la eficiencia. Para ello se acude a ingenieros,
economistas, psicólogos laboralistas, estadísticos y matemáticos.
Según su propio inventor, el economista estadounidense, de origen ruso,
Wassily Leontief, las tablas input-output “describen el flujo de bienes y
servicios entre todos los sectores industriales de una economía durante
determinado periodo”. Aunque la construcción de esta tabla es muy compleja,
este método ha revolucionado el pensamiento económico. Hoy está muy
extendido como método de análisis, tanto en los países socialistas como en
los capitalistas.
Sistemas económicos
En toda comunidad organizada se mezclan, en mayor o menor medida, los
mercados y la actividad de los gobiernos. Es más, el grado de competencia
de los mercados varía, desde aquellos en los que sólo opera una empresa,
ejerciendo un monopolio, hasta la competencia perfecta de un mercado en el
que operan cientos de minoristas. Lo mismo ocurre en cuanto a la
intervención pública, que abarca desde la intervención mínima al regular
impuestos, crédito, contratos y subsidios, hasta el control de los salarios y los
precios de los sistemas de economía planificada que imperan en los países
comunistas.
Incluso en las sociedades en las que se defiende a ultranza la planificación
de la economía se ha tenido que modificar la postura oficial y se hacen
concesiones a la empresa privada. Por ejemplo, la Unión Soviética permitía a
sus agricultores, aunque fuese a través de empresas colectivas, vender las
cosechas de sus parcelas privadas. Durante la dominación comunista en
Polonia, casi todas las granjas estaban en manos privadas. En Yugoslavia se
permitió la gestión de las fábricas por los trabajadores bajo el mandato del
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 60
mariscal Tito, que al mismo tiempo asentaba la evolución de su régimen hacia
sistemas de economía mixta, alejados de las premisas dominantes en la
Unión Soviética.
En las economías de mercado también se producen este tipo de
divergencias. En casi todas existe monopolio estatal sobre las líneas aéreas y
los ferrocarriles. Incluso en los países en los que el Estado no tiene empresas
públicas, como en Japón, su influencia sobre la actividad económica es
enorme. En Estados Unidos, el más firme defensor de la economía de
mercado, el gobierno ha tenido que intervenir para evitar la quiebra de
empresas en crisis, como Lockheed y Chrysler; de hecho, ha convertido a los
principales fabricantes de armamento en empresas públicas de facto. Muchos
economistas estadounidenses han tenido que aceptar la existencia de una
economía mixta: combinación de iniciativa privada e intervención del
gobierno.
Sistema de libre empresa
Las principales diferencias entre la organización económica planificada y la
capitalista radica en quién es el propietario de las fábricas, granjas y el resto
de las empresas, así como en sus diferentes puntos de vista sobre la
distribución de la renta o la forma de establecer los precios. En casi todos los
países capitalistas, una parte importante del producto nacional bruto (PNB) la
producen las empresas privadas, los agricultores e instituciones no
gubernamentales como universidades y hospitales privados, cooperativas y
fundaciones.
Aunque existe una fuerte oposición en los países industrializados al control
de precios y a la planificación de la economía, los gobiernos han tenido que
recurrir a este tipo de medidas en casos de emergencia, como durante la
II Guerra Mundial. Sin embargo, en las economías de libre mercado se
considera que la propiedad pública de medios de producción y la intervención
pública en la fijación de precios son excepciones, que se deben evitar, a las
reglas de la propiedad privada y de la fijación de precios a través de
mercados competitivos.
Planificación central
La visión totalmente opuesta a la anterior es la que prevalece en China y
en otros países comunistas, donde predomina la tendencia hacia la
planificación centralizada de la economía. Aunque cada vez se tolera más la
existencia de empresas privadas, y a pesar de que ninguna economía
planificada ha podido funcionar sin cierto grado de privatización de la
agricultura, la ideología dominante favorece la planificación estatal, al menos
en teoría, para fijar los precios, la propiedad pública de las fábricas, las
granjas y las grandes redes de distribución, públicas.
En teoría no existe ninguna razón que impida a una sociedad democrática
optar por una planificación centralizada de la producción, los precios y la
distribución de la renta. Sin embargo, la experiencia demuestra que la
planificación central de las economías ha ido en general acompañada del
control del partido. No obstante, existen importantes diferencias en el grado
de control entre los distintos países comunistas, e incluso en un mismo país a
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 61
lo largo del tiempo. Y también se puede constatar que el capitalismo a veces
ha ido acompañado de regímenes políticos totalitaristas, como por ejemplo en
Chile y en Brasil.
Los principales problemas a los que se enfrenta el capitalismo son el
desempleo, la inflación y las injustas desigualdades económicas. Los
problemas más graves de las economías planificadas son el subempleo o el
masivo empleo encubierto, el racionamiento, la burocracia y la escasez de
bienes de consumo.
Economías mixtas
En una situación intermedia entre la economía planificada y la economía
de libre mercado se encuentran los países socialdemócratas o liberal
socialistas. Entre ellos destacan las democracias de los países escandinavos,
sobre todo Suecia. En este país la actividad económica recae en su mayor
parte sobre el sector privado, pero el sector público regula esta actividad,
interviniendo para proteger a los trabajadores y redistribuir la renta entre los
de mayores y los de menores ingresos.
Por otra parte, la antigua Yugoslavia constituyó otro ejemplo importante de
economía mixta entre la década de 1950 y la de 1980. Aunque el partido
comunista institucional seguía ejerciendo un férreo control, la censura fue
escasa, la emigración no estaba prohibida, existía libertad de cultos y una
mezcla de propiedad pública, cooperativismo y propiedad privada, que
crearon una economía bastante próspera.
Problemas económicos actuales
Entre 1945 y 1973 las economías de los países industrializados de Europa
occidental, Japón y Estados Unidos crecieron lo suficiente para aumentar el
nivel de vida de sus ciudadanos. En algunos países menos industrializados
también se produjo un crecimiento similar, sobre todo en los del Sureste
asiático como Taiwan, Hong Kong, Singapur y Corea del Sur. Este
crecimiento se debió a una serie de circunstancias. Tras la destrucción del
tejido económico ocurrida durante la II Guerra Mundial, se produjo una
expansión económica sin precedentes, gracias, entre otras, a la ayuda
financiera que Estados Unidos concedió a los países de Europa occidental y
a Japón. Las multinacionales estadounidenses realizaron fuertes inversiones
en todo el mundo. Es probable que los factores que más contribuyeron a su
desarrollo fueran los bajos precios y la abundancia de los productos
energéticos (sobre todo petróleo).
Problemas energéticos
En 1973 la creciente demanda internacional de petróleo hizo que los
precios se dispararan. Ese año la Organización de Países Exportadores de
Petróleo (OPEP), que controlaba la producción mundial, aprovechó su poder
para elevar los precios. Las políticas llevadas a cabo por la OPEP redujeron
las posibilidades de crecimiento económico tanto de los países
industrializados como de los países en vías de desarrollo que no tenían
reservas petrolíferas. El barril de petróleo bruto costaba en el otoño de 1973
dos dólares; a mediados de 1981 su precio se había multiplicado por 20. Para
los países ricos, las importaciones de petróleo suponían una transferencia de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 62
rentas y riqueza a los países de la OPEP. Los países en vías de desarrollo
importadores de petróleo tuvieron que acudir a la financiación de los grandes
bancos de Europa occidental y de Estados Unidos. Asfixiados por el pago de
intereses, los países menos industrializados se han visto obligados a frenar
sus planes de desarrollo. Aunque la gran caída de los precios energéticos
durante la segunda mitad de la década de 1980 benefició a los consumidores
de los países importadores, supuso un grave quebranto para los ingresos de
los países exportadores menos desarrollados, como México, Nigeria,
Venezuela e Indonesia.
Inflación y recesión
Algunos de los países más desarrollados, como Japón y Alemania
Occidental (ahora perteneciente a la unificada República Federal de
Alemania), lograron superar la crisis de las décadas de 1970 y 1980 mejor
que el resto de los países. Sin embargo, todos los países desarrollados han
tenido que enfrentarse al problema de una alta inflación acompañada de altas
tasas de desempleo y escaso crecimiento económico. La transformación que
impuso la OPEP en el mercado energético mundial agravó los problemas de
inflación al elevar los precios del petróleo y, por lo tanto, aumentar el coste de
la calefacción y de la producción de importantes bienes que utilizan petróleo
en sus procesos de producción, entre los que hay que destacar los
fertilizantes químicos, los productos plásticos, las fibras sintéticas y los
productos farmacéuticos. Estos precios elevados reducían el poder
adquisitivo de la misma manera que lo hubiese hecho un impuesto sobre la
renta alto. La pérdida de poder adquisitivo hizo que el volumen de ventas de
bienes de consumo disminuyera, lo que provocó el despido de numerosos
trabajadores y la ruina de otros tantos comerciantes, lo que produjo un efecto
en cadena perjudicial para toda la economía.
El papel del gobierno
Estos problemas han fomentado el debate sobre el papel que deben
desempeñar los gobiernos. Los partidos de izquierdas de Europa abogan por
mayores controles y más planificación. Durante la década de 1980, el Partido
Conservador de la primera ministra británica, Margaret Thatcher, y el
presidente estadounidense Ronald Reagan, ofrecieron una solución bien
distinta. Redujeron los impuestos y la regulación por parte del gobierno, y
permitieron que las empresas obtuvieran mayores beneficios para que
pudiesen emprender nuevas inversiones que aumentaran la productividad y
así reanimar la actividad económica. Estas políticas son ejemplo de medidas
desde el lado de la oferta, eje de la doctrina que inspiró a ambos políticos.
El razonamiento implícito de esta política es que, al aumentar los estímulos
a la inversión, la toma de riesgos y el aumento del trabajo, la tecnología
reducirá los costes de las fuentes de energía usadas como alternativa al
petróleo y los sectores no relacionados con la energía, como la informática o
la agricultura moderna, lo que permitiría aumentar la tasa de crecimiento,
gracias a una dinámica innovadora.
Economías en vías de desarrollo
Los países menos industrializados necesitan la ayuda de los países ricos
para poder generar el capital, la tecnología y la organización necesarias para
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 63
desarrollarse. Asimismo, es necesario que puedan acceder con facilidad a los
mercados de los países industrializados para vender sus productos
manufacturados y las materias primas que poseen. Sin embargo, la
capacidad política de los países ricos para atender estas necesidades
depende de que puedan solucionar sus propios problemas, como la inflación,
el desempleo y el estancamiento del crecimiento. En los países democráticos,
es muy difícil lograr el apoyo de la población para conceder ayuda financiera
a otros países cuando el salario medio de los ciudadanos es reducido.
Tampoco resulta fácil permitir la entrada de productos del exterior más
baratos cuando se considera que son la causa del desempleo nacional. La
economía del desarrollo está muy limitada por consideraciones de tipo
político.
Previsiones ante el futuro
A principios de la década de 1990, la desaparición del bloque soviético,
unida a la caída de los regímenes de la Europa del Este, subrayaron la
tendencia hacia las economías de libre mercado y el alejamiento de la
doctrina de planificación centralizada. En un intento por evitar el legado de
ineficacia y mala gestión, los países ex-comunistas tuvieron que competir con
los países en vías de desarrollo para acceder a la ayuda financiera y
tecnológica de Occidente.
No hay acuerdo sobre la posibilidad de sostener un crecimiento económico
ininterrumpido. Los más optimistas confían en la capacidad para incrementar
las cosechas agrícolas y aumentar la productividad en la industria gracias a
las innovaciones tecnológicas. Los más pesimistas recuerdan la ley de los
rendimientos decrecientes, la falta de control sobre el crecimiento de la
población mundial, los enormes gastos en la industria militar y las reticencias
de las naciones posindustrializadas para compartir su riqueza y su tecnología
con los países más desfavorecidos. Aunque algunos países en vías de
desarrollo han logrado elevar sus tasas de crecimiento, la inestabilidad
política, la corrupción endémica, y los grandes cambios de política económica
hacen que las previsiones para el futuro no sean tan optimistas.
Descargar