Subido por Daniel Grimoir

Temas Fisica Quimica Oposicion Secundaria

Anuncio
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
TEMAS DE FÍSICA Y QUÍMICA
(Oposiciones de Enseñanza Secundaria)
------------------------------------------------------------------------------TEMA 2
MOMENTOS CLAVE EN EL DESARROLLO DE LA FÍSICA Y DE LA QUÍMICA. PRINCIPALES CIENTÍFICOS O GRUPOS DE CIENTÍFICOS IMPLICADOS. PROBLEMAS FÍSICOS Y QUÍMICOS PRIORITARIOS EN LA INVESTIGACIÓN ACTUAL
Esquema
1. Introducción.
2. Desarrollo histórico de la Física.
2.1. La Física en la antigua Grecia.
2.2. La Física en la Edad Media y el Renacimiento.
2.3. El comienzo de la Física: Galileo y Newton.
2.4. Desarrollo de la Física hasta el siglo XX.
2.5. La Física en el siglo XX.
2.6. Desarrollo del modelo de átomo.
3. Desarrollo histórico de la Química.
3.1. La Química en la antigüedad. La Alquimia.
3.2. La Química en el Renacimiento.
3.3. La Química en el siglo XVIII.
3.4. La Química en el siglo XIX.
3.5. Desarrollo de la Química Orgánica.
4. Problemas físicos prioritarios de la investigación actual.
4.1. Física de las partículas subatómicas.
4.2. Electrodinámica Cuántica y Cromodinámica Cuántica.
4.3. Teoría de la Gran Unificación.
4.4. Estructura y Evolución del Universo.
4.5. Otras líneas de investigación en la Física.
4.5.1. Superconductividad.
4.5.2. Láseres.
4.5.3. Caos y otras.
5. Problemas químicos prioritarios de la investigación actual.
5.1. Desarrollo en Química Inorgánica.
5.2. Desarrollo en Química Orgánica.
5.3. Desarrollo en Química Física
5.4. Desarrollo en Bioquímica.
1/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
TEMA 2
MOMENTOS CLAVE EN EL DESARROLLO DE LA FÍSICA Y DE LA QUÍMICA. PRINCIPALES CIENTÍFICOS O GRUPOS DE CIENTÍFICOS IMPLICADOS. PROBLEMAS FÍSICOS Y QUÍMICOS PRIORITARIOS EN LA INVESTIGACIÓN ACTUAL
1. INTRODUCCIÓN
La Física y la Química tienen por objetivo el estudio del mundo material, observando, clasificando y enunciando las leyes que rigen los fenómenos estudiados. Las
leyes van, en ocasiones, precedidas de la postulación de modelos del mundo que tratamos de conocer, pero sólo se aceptan si permiten explicar los fenómenos observados y
conducen a nuevos descubrimientos.
El desarrollo histórico y la consiguiente evolución de la física y la química han
seguido caminos paralelos, pero han sido en los últimos tiempos y merced al desarrollo
extraordinario de la ciencia, cuando se ha encontrado un entronque común de ambas.
Así por ejemplo las aplicaciones electroanalíticas al estudio de mecanismos de reacciones químicas, las aplicaciones de radiaciones al estudio de las estructuras metálicas y
cristalinas, el aprovechamiento del potencial químico de algunas reacciones para la
producción de corriente, son ejemplos donde el campo de actuación de la física y la
química se confunde.
Puede enunciarse, de forma simplista, que la Física estudia la energía y sus transformaciones y la Química estudia la materia y sus transformaciones. Como la materia y
la energía están relacionadas, se deduce que la Física y la Química, también lo están, en
relación cada vez más estrecha a medida que se avanza en el mundo microscópico.
Ya que la evolución histórica de la Física y la Química ha sido totalmente diferente, aunque paralelas, y el concepto de estas ciencias ha evolucionado con el tiempo,
haremos a continuación una descripción de los momentos históricos clave en el
desarrollo de la Física y la Química.
La Física y la Química actuales son el conocimiento organizado y sistematizado
del mundo que nos rodea, y que ha sido adquirido en el tiempo como resultado de los
esfuerzos y trabajos de una multitud de hombres y mujeres que han hecho uso de dos
procedimientos fundamentales, la observación y el razonamiento.
2. DESARROLLO HISTÓRICO DE LA FÍSICA
2.1. La Física en la Antigua Grecia.
El comienzo de la Física lo marca la cultura griega. Los griegos desarrollaron el
conocimiento y el razonamiento filosófico, matemático y físico, aunque este último en
menor escala. El motivo de este menor desarrollo en el pensamiento físico se debió a un
error de método pues consideraban prioritario el razonamiento a la experimentación y
esto produjo un desfase entre las teorías y los resultados reales que limitó el progreso de
las ciencias experimentales.
2/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
La parte de la física más desarrollada en esta época es la Estática por su íntima
relación con la geometría. Sin embargo, las teorías sobre la electricidad y el magnetismo
son extravagantes, consecuencia del método de observar y pensar sin experimentar.
La teoría atomística de Leucipo y Demócrito, enunciada en el siglo V a.C. consideraba a la materia formada por partículas indivisibles llamados átomos. Pero el atomismo griego resultó una especulación desprovista de argumentos sólidos y por tanto sin
valor científico.
Como excepción aparece Arquímedes que sí practica el método científico y
gracias a él la mecánica se desarrolla. Enuncia la ley de la palanca y es el descubridor
del principio de la Hidrostática referente a los cuerpos sumergidos, llamado Principio de
Arquímedes.
2.2. La Física en la Edad Media y el Renacimiento.
Los romanos, más prácticos y utilitaristas que los griegos, no muestran interés por
las especulaciones y durante su época la física no tiene ningún desarrollo. Es una época
en que predomina la técnica sobre la ciencia.
Los árabes actúan de conexión entre dos grandes culturas, tanto en el espacio
como en el tiempo. Así, introducen en Europa la brújula, descubierta, desarrollada y
utilizada en China, y transmiten la herencia de la cultura griega, pero no aportan descubrimientos propios a la ciencia.
Durante la Edad Media, los pueblos bárbaros que invaden Europa son indiferentes
a la ciencia y no sólo no producen nuevas aportaciones, sino que se oscurece la antigua
ciencia griega que se encuentra en manos de los árabes.
A partir del siglo XIII la ciencia despierta y comienza un lento desarrollo. Destaca
Bacon (1214-1294) que estudia los espejos cóncavos y parabólicos, descubre el principio de la cámara oscura y el mecanismo de la visión. La aparición de la imprenta, con su
facilidad de reproducción y difusión supuso un empujón considerable al desarrollo de
las ciencias, entre ellas la Física.
En el Renacimiento se produjo un gran desarrollo de la Pintura, la Arquitectura, la
Literatura y también la Matemática, la Anatomía y la Astronomía, pero en la Física el
desarrollo fue muy lento. En mecánica y óptica destaca Leonardo da Vinci que descubre
la capilaridad, observa la resistencia del aire, estudia el plano inclinado y construye el
dinamómetro. Pero sólo por el ingenio de Galileo la física empieza a madurar.
2.3. El comienzo de la Física: Galileo y Newton.
La principal aportación de Galileo a la Física fue introducir un nuevo método de
trabajo, la Física se elabora por la observación de los hechos, la experimentación de
éstos en condiciones controlables y la elaboración de leyes matemáticas a partir de los
resultados. Este es el fundamento del método científico.
Galileo sienta las bases de la Dinámica. Ya no se estudia sólo los cuerpos en reposo (como en la estática de los griegos) sino que se estudian los cuerpos en movimiento,
3/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
sus causas, sus efectos y las leyes que los rigen. Galileo estudió el isocronismo del
péndulo, la caída de los cuerpos independiente del peso, demostró que en la caída la
velocidad era proporcional al tiempo (v∝t) y el espacio era proporcional al cuadrado del
tiempo (s∝t2 ), estableció la necesidad de una fuerza para conseguir una aceleración y
enunció principios generales esenciales para el desarrollo de la dinámica, como el concepto de Fuerza.
Huygens completó los estudios de Galileo sobre el péndulo, estudió el péndulo
compuesto, introdujo el concepto de Fuerza Centrífuga (?) y el de Fuerza Viva (energía
cinética) y demostró la irregularidad y el achatamiento del planeta Tierra.
Momento clave en el desarrollo de la Física lo constituyó la aportación científica
de Isaac Newton, que siguiendo el mismo método de trabajo, descubrió la Ley de la
Gravitación Universal, que daba justificación teórica a las leyes empíricas de Kepler
que regían los movimientos planetarios. Newton publicó sus PRINCIPIA MATHEMATICA, en los que se englobaban principios y leyes de matemáticas como de física, siendo ésta una obra fundamental en la historia de la ciencia.
Además de sentar las bases de la mecánica (distinción entre masa y peso, proporcionalidad entre masa y aceleración, atracción inversamente proporcional al cuadrado
de la distancia que origina movimiento elíptico, ley de gravitación, etc.) Newton explicó otros fenómenos como las mareas, la naturaleza de la luz, etc.
2.4. Desarrollo de la Física hasta el siglo XX.
En el siglo XVIII se inventa el cálculo diferencial, que supuso un gran impulso al
desarrollo formal de la Física, es decir, la expresión de las leyes de la Física mediante el
lenguaje formal de las Matemáticas. La evolución de la Física está condicionada a la
evolución de la Matemática, por lo que el cálculo diferencial abre grandes posibilidades
a la Física. Destacan en ambos campos hombres como Euler, Bernouilli y Laplace.
También en ese siglo se inicia el desarrollo de la Electricidad, cuyos fenómenos
eran conocidos desde la antigüedad pero que su estudio no se había afrontado con rigor
hasta entonces. Numerosos fenómenos eléctricos descubiertos entonces (conductividad
eléctrica, electricidad atmosférica, principio de los condensadores, etc.) resultaban dispersos y carentes de una teoría que traduzca en leyes precisas las atracciones y repulsiones eléctricas, base de la electrostática y de la electrodinámica. Este problema fue
resuelto por Coulomb (1736-1806) que mediante una balanza de torsión muy sensible
logró medir fuerzas muy pequeñas y experimentar con cargas eléctricas, por lo que estableció la ley de las atracciones y repulsiones eléctricas: "Dos cargas eléctricas se atraen
o repelen con una fuerza directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado de la distancia que las separa". Esta ley es la base para
el desarrollo teórico de la electricidad que se realizó posteriormente.
En el siglo XIX destacan en el desarrollo de la Física, nombres como Volta (17451827) y Daniell (1790-1845) que inventaron las pilas eléctricas, Oersted (1777-1851),
Ampère (1775-1836) y Faraday (1791-1867) que sentaron las bases del electromagnetismo. Se establecieron leyes fundamentales de la electricidad, como la ley de Ohm
(1787-1854), la ley de Joule (1804-1889), la ley de la electrolisis de Faraday así como la
ley de la inducción electromagnética de Faraday y Lenz (1804-1885), las ecuaciones de
4/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Maxwell (1831-1879) del campo electromagnético, que contienen de forma ordenada y
condensada todas las leyes de los fenómenos eléctricos y magnéticos conocidos y finalmente Edison inventa en 1879 la lámpara de incandescencia que revolucionó la técnica
y la experimentación.
Otras ramas de la Física desarrolladas en este siglo fueron la Acústica, la Calorimetría y la Termodinámica. La transformación del trabajo (energía mecánica) en calor y
las experiencias de Joule, permitieron establecer que el calor es una forma de la energía
(energía térmica) y junto al hecho de que no es posible la total conversión de calor en
trabajo, sentó las bases para una nueva rama de la Física, la Termodinámica, de la que
se considera precursor a Carnot (1796-1832) que estudió las máquinas térmicas y
enunció el principio que lleva su nombre.
El Primer Principio de Termodinámica fue enunciado por Helmholtz (1821-1894)
al indicar que calor y trabajo son dos manifestaciones de la misma entidad, la energía.
El Segundo Principio de Termodinámica, ya esbozado por Carnot, toma forma definitiva con Clausius (1828-1888) que establece el concepto de entropía, al poner en práctica
una idea sugerida anteriormente por Bernouilli de "aplicar las leyes de la mecánica a las
innumerables moléculas que constituyen un gas". Inicialmente puede parecer muy complicado por el grandísimo número de moléculas, pero aplicando las leyes de la Estadística se pudo establecer la TEORIA CINETICA DE LOS GASES. Esta nueva manera de
estudiar los gases fue desarrollada por Maxwell, Gibs, Van der Waals, Boltzmann, etc.
La intervención de la Estadística en la Física hace variar el sentido de las leyes
clásicas, que aparecen desde ahora derivadas de otros resultados inobservables en sí
mismos, válidos a escala atómica de los cuales derivan las leyes clásicas convertidas en
consecuencias extremadamente probables y de una certeza menos intrínseca que la que
se le atribuía al antiguo determinismo. Este revolucionario concepto que surgió
tímidamente en el siglo XIX, se consolidará en el siglo XX.
El desarrollo de la Óptica se inicia desde el mismo Galileo, que inventó el anteojo
y lo utilizó para estudiar el universo. El anteojo se perfecciona y se construye el microscopio. Snellius establece las leyes de la reflexión y de la refracción y Fermat enuncia su
principio que sirvió de base para el desarrollo de la óptica geométrica.
Simultáneamente la luz es objeto de estudio por diferentes científicos desde
diferentes aspectos. Así Roemer midió su velocidad basándose en los eclipses de los
satélites de Júpiter. Newton descubre que la luz blanca es una mezcla de colores puros,
lo que explica la dispersión de la luz, el arco iris, las aberraciones cromáticas, los
espectros, etc. En la misma época, el italiano Grimaldi descubre la difracción y las interferencias luminosas, fenómenos que contradecían la teoría corpuscular de la luz, imperante entonces, y que no fueron comprendidos hasta un siglo después en toda su
dimensión. El propio Newton no pudo explicar los anillos por él descubiertos (anillos de
Newton) en sus experimentos de interferencias, ya que para él, la luz era de naturaleza
corpuscular.
En abierta oposición a este concepto de luz, va progresando otra teoría presentada
por Grimaldi, luego por Hooke y apoyada abiertamente por Huygens, que describe a la
luz como de naturaleza ondulatoria. Este concepto no fue, en principio, aceptado debido
al enorme prestigio de Newton que la negó y también a las lagunas que presentaba en la
5/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
explicación de los fenómenos. Young realizó experimentos sobre interferencias que
explicó cuidadosamente y con gran rigor matemático apoyándose en el concepto ondulatorio, pero son los estudios y experimentos de Fresnel los que hacen triunfar la teoría
ondulatoria de la luz, quedando únicamente sin resolver el problema del "éter", soporte
de las ondas mecánicas como eran concebidas entonces las vibraciones luminosas.
Tras la aceptación de la teoría ondulatoria, los progresos se acumulan. Fraunhofer
estudia la difracción, Foucault y Fizeau miden la velocidad de la luz, Kirchhoff y
Bunsen inician el análisis espectral de gran importancia en la Química, Doppler enuncia
su famoso efecto relacionado con focos emisores en movimiento, etc. El paso más
importante se debe a Maxwell que establece la “Teoría Electromagnética de la Luz”,
que hace desaparecer el problema del éter como soporte de la onda y explica los fenómenos de polarización.
Así se llega al final del siglo XIX (1880) con la idea de que la Óptica estaba
totalmente construida y se habían terminado la época de los grandes descubrimientos.
Los principios estaban sólidamente establecidos y las leyes totalmente precisadas. Los
conceptos aceptados en ese tiempo se consideraban inmutables y sólo faltaba poner a
punto las teorías y desarrollar las aplicaciones prácticas.
Pero a finales de siglo, los descubrimientos inesperados se acumulan: rayos X,
rayos catódicos, efecto fotoeléctrico, radiactividad, etc., dejan perplejos a los físicos y
se tambalean las concepciones más clásicas y sólidas. Los científicos intuyen que el
concepto clásico de la Física no es suficiente y debe crearse un nuevo concepto en
donde haya cabida hipótesis como la atómica, la electrónica, etc., inverificables por sí
mismas pero generadoras de nuevos avances en el conocimiento de la naturaleza.
Se comprende que la Física ni ha terminado ni terminará jamás, ya que cada vez
se pueden descubrir nuevos conceptos que abarquen problemas más amplios del universo que nos rodea.
2.5. La Física en el siglo XX.
Es un siglo de grandes descubrimientos y de grandes revoluciones científicas y
técnicas. A finales del XIX se produce una reacción de descubrimientos en cadena que
ponen en evidencia a la física clásica.
Un punto de partida importante en el desarrollo de la Física de este siglo fue el
estudio de la descarga eléctrica en gases enrarecidos. Los experimentos y estudios de
Geissler y Goldstein, sobre las descargas en tubos, demostró que el cátodo del tubo
emitía una radiación a la que se llamó Radiación Catódica, pero no estaba claro el proceso de emisión y se ignoraba la naturaleza y propiedades de las radiaciones. Crookes
estudió estas radiaciones y demostró que poseían momento lineal (movía un molinillo)
y producían fluorescencia en la pared con la que colisionaban. Thompson (1846-1940)
estudió su naturaleza, demostró que eran desviados por campos eléctricos y magnéticos,
que poseían inercia (tenían masa) y presentaban carga negativa. Por ello, a estas partículas las llamó electrones. La carga del electrón fue establecida por Wilson y Millikan y
se planteó la naturaleza electrónica de la electricidad.
6/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Edison descubre el efecto termoiónico (emisión continua de electricidad por un
filamento incandescente), Hertz descubrió el efecto fotoeléctrico (emisión de electrones
por un metal iluminado), Lenard establece las leyes del efecto fotoeléctrico, precisando
que la radiación ultravioleta arranca electrones pero la visible e infrarroja no, por intensa que sea. Su explicación no se producirá hasta que no se enuncie la teoría de los
cuantos de energía de Planck.
Los experimentos de Goldstein en un tubo de Crookes, descubre la presencia de
otros rayos, de sentido inverso a los catódicos, a los que llamó Rayos Positivos o Rayos
Canales, cuya naturaleza no pudo explicar. Röentgen en 1895 descubre en un tubo de
rayos catódicos, unas radiaciones originadas en la pared opuesta al cátodo, de propiedades extraordinarias: producen fluorescencia en determinadas sustancias, atraviesan
espesores diversos en sustancias opacas, velan las placas fotográficas, ionizan los gases,
etc. Röentgen no pudo establecer su naturaleza y los llamó Rayos X. Los experimentos
de Laue y Bragg demostraron la naturaleza ondulatoria de los Rayos X y su difracción
por las redes cristalinas.
A tres meses del descubrimiento de los Rayos X, Becquerel descubre la Radiactividad en el uranio. Los esposos Curie inician su estudio sistemático y anuncian la
existencia de otros elementos radiactivos además del Uranio, el Polonio y el Radio.
Becquerel demostró que las radiaciones emitidas por los elementos radiactivos son de
tres clases: radiación alfa (α) de naturaleza corpuscular y positiva, radiación beta (β) de
naturaleza corpuscular y negativa y radiación gamma (γ) de naturaleza electromagnética
a semejanza de los rayos X. La radiactividad destruye algunos conceptos considerados
como universales, por ejemplo, los átomos ya no son indestructibles sino que pueden
transformarse unos en otros (transmutación de la materia). Es preciso hacer una revisión
de la ciencia para adaptarla a este nuevo concepto recién concebido.
Pero hay dos hechos, más definitivos, que constituyen el punto de partida de las
grandes teorías físicas del siglo XX, son: 1) la constancia de la velocidad de la luz y 2)
la radiación del cuerpo negro.
Sobre el primero, el espectacular experimento de Michelson y Morley, demostró
que la velocidad de la luz es invariable cualquiera que sea la dirección en que se propaga y no depende de la velocidad del emisor luminoso. "La velocidad de la luz es una
constante del universo". Este resultado era incompatible con las nociones imperantes de
espacio y tiempo absoluto y los intentos para justificarlo resultaron infructuosos hasta
que Einstein estableció su teoría de la relatividad restringida.
Sobre el segundo hecho, referente a la emisión del cuerpo negro, fue Kirchhoff el
que en 1859 ideó la noción de cuerpo negro, cuerpo ideal, capaz de absorber todas las
radiaciones que incidan en él. La radiación emitida por un cuerpo negro calentado a
temperatura T, y dispersada por un cristal, da lugar a un espectro continuo y su estudio
dio lugar a dos leyes muy importantes:
La Ley de Stefan-Boltzmann que establece: "La potencia emitida por unidad de
superficie (poder emisivo) por un cuerpo negro es proporcional a la cuarta potencia de
la temperatura absoluta"
7/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
La Ley de WIEN que establece: "La distribución de la energía radiante emitida
por un cuerpo negro a temperatura T tiene un valor máximo para una longitud de onda
característica λm"
Pero el intento de explicar teóricamente la distribución de la radiación del cuerpo
negro en función de la temperatura no se consiguió utilizando las concepciones termodinámicas y mecánicas clásicas referente a la energía media de los osciladores y el fenómeno quedó sin explicación hasta que Planck modificó el concepto clásico de energía.
El siglo XX comienza con la introducción por Planck de la idea sorprendente y
nueva de que la energía de un oscilador no varía de manera continua "sino en cantidades
discretas", lo que equivale a decir que "la amplitud de un oscilador no puede tener cualquier valor, sino valores discretos y discontinuos". Los valores posibles de energía de un
oscilador vienen dados por En = n.E siendo n un número entero (número cuántico) y E
es la más pequeña cantidad de energía del oscilador o cuanto de energía, expresada por
E=hν, ecuación fundamental de la teoría cuántica donde ν es la frecuencia de la radiación y h es la constante de Planck. Con esta teoría puede explicarse la distribución de
energía en la radiación del cuerpo negro.
Basándose en la hipótesis cuántica, Einstein explicó el efecto fotoeléctrico, inexplicado hasta entonces. Un cuanto de luz o fotón, de energía hν incide sobre un metal
con función de trabajo W (energía mínima requerida para arrancar un electrón). Si la
frecuencia de la luz ν es tal que la energía en menor que W los electrones no podrán ser
arrancados y sólo cuando hν es superior a W los electrones serán emitidos, lo que
ocurre con la luz ultravioleta para la mayoría de los metales.
Basándose igualmente en la hipótesis cuántica Niels Bohr establece su modelo del
átomo de hidrógeno con lo que sienta las bases para una teoría cuántica del átomo y
desvelar a partir de ella, los misterios de la espectroscopía. La teoría cuántica de Planck
terminó por ser aceptada constituyendo uno de los momentos clave de la Física actual.
Simultáneamente evolucionó el concepto de luz, a raíz de la demostración por
Laue de la naturaleza ondulatoria de los Rayos X, ya que producen fenómenos de
difracción en cristales. Se llega a la conclusión de que las radiaciones (desde las ondas
hertzianas hasta los rayos X) forman una gama ininterrumpida donde las longitudes de
onda λ se extienden desde varios kilómetros a fracciones de angstroms. Casi un siglo
después de Fresnel se aceptó que la luz (de naturaleza ondulatoria) son ondas electromagnéticas.
La teoría cuántica de Planck supone un retorno al concepto corpuscular de la luz,
pues los fotones se consideran partículas discretas de cuantos de energía. Mientras los
fotones pueden explicar fenómenos como la radiación del cuerpo negro, el efecto fotoeléctrico, las emisiones espectrales, etc., son sin embargo incapaces de explicar las
experiencias de interferencias, difracción, polarización, etc., que eran perfectamente
explicadas por la teoría ondulatoria. Cualquiera de las dos teorías (ondulatoria y corpuscular cuántica) presentan lagunas y aciertos.
Fue De Broglie el que resolvió la cuestión al proponer el concepto de Dualidad
onda-corpúsculo. Considera al fotón como una partícula con una onda asociada, por lo
cual, la luz podrá presentar ambos comportamientos, según sea el medio con el que
8/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
interacciona. Si interacciona con luz presentar comportamiento de onda y si interacciona
con la materia presentar comportamiento de corpúsculo, pero nunca presentará ambos
comportamientos simultáneamente. De Broglie generaliza la dualidad onda-corpúsculo
a la luz y a la materia y sienta las bases de la mecánica ondulatoria, imprescindible en el
tratamiento del átomo.
Posteriormente se descubrieron nuevos fenómenos interpretables por el concepto
de fotón; fueron el efecto Compton (1923), choque entre un fotón y un electrón con
dispersión de ambos y el efecto Ramman (1928) que supuso una gran ayuda en la determinación de la estructura de las moléculas.
La Teoría de la Relatividad es una de las teorías modernas que más controversia
ha provocado. Sus conclusiones producen un vuelco no sólo de los grandes principios
sino de las nociones más elementales de sentido común. Einstein (1879-1955) parte del
postulado fundamental de que "la velocidad de la luz es la misma en todas direcciones
incluso si el foco luminoso y el observador están en movimiento relativo de traslación
rectilíneo y uniforme". Éste es un hecho experimental comprobado por Michelson, pero
sin justificación teórica, pues el resultado es contrario a las fórmulas clásicas basadas en
los conceptos habituales de espacio y tiempo.
Haciendo abstracción de toda idea preconcebida sobre el espacio y el tiempo,
Einstein establece nuevas fórmulas de cambio de coordenadas, dejando invariables las
ecuaciones de Maxwell de donde se deduce la velocidad de la luz. A partir de estas
fórmulas, establece toda una teoría de la que algunas de sus consecuencias son:
El Espacio y el Tiempo no son absolutos sino relativos, o sea, hechos iguales y
simultáneos para un observador, pueden no serlo para otro. La distancia entre dos
puntos para un observador puede ser diferente para otro observador distinto.
La Masa de un cuerpo no es fija, sino que aumenta con su velocidad y puede
hacerse infinita a la velocidad de la luz. Por tanto la velocidad de la luz es el límite de
velocidades que no podrá ser alcanzada por ningún cuerpo material.
La materia aparece como una forma de energía con posibilidad de transformación recíproca.
El trabajo de Einstein no terminó con estos estudios de relatividad, llamada Relatividad Restringida y elabora una teoría de Relatividad Generalizada, en la que no sólo
se consideran los movimientos de traslación rectilíneo y uniforme, sino cualquier otro
tipo de movimiento. Sin embargo, pese a la introducción de estas nuevas teorías, la
Física Clásica o newtoniana no queda desechada, sino que es un caso particular de la
Física Moderna basada en la Teoría de Relatividad y la Teoría Cuántica.
2.6. Desarrollo del modelo de átomo.
El descubrimiento del electrón y de los rayos positivos, llevó inmediatamente a un
modelo para el átomo, supuesto hasta entonces como una esfera rígida de material
característico del elemento y cuyo radio era sólo de algunos angstrom (Å). El primer
modelo lo propuso Thomson en 1904 al suponer que el átomo era una esfera material de
carga eléctrica positiva, dentro de la cual se encontraban incluidos los electrones,
9/26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
necesarios para neutralizar dicha carga y distribuidos en una ordenación que dependía
del elemento.
Los experimentos de Rutherford (1911) al estudiar los recorridos de las partículas
α y β a través de láminas metálicas muy delgadas llevó a un modelo de átomo más
elaborado. Para Rutherford el átomo estaba constituido por un núcleo, con toda la masa
del átomo y carga positiva en él y una corteza donde se sitúan los electrones, a considerables distancias del núcleo, en órbitas "planetarias". Se dedujo esto al comprobar que la
mayoría de las partículas α atravesaban la lámina metálica sin desviarse, siendo muy
pocas las que se desviaban por causa de algún impacto con el núcleo, por lo que se
concluyó que el átomo estaba prácticamente vacío.
Para explicar que los electrones no caen contra el núcleo por la atracción electrostática, se supuso que los electrones, como los planetas, giran rápidamente alrededor del
núcleo, actuando la fuerza eléctrica como fuerza centrípeta causante del giro. Este modelo fue aceptado inmediatamente, aunque fue posteriormente perfeccionado ya que,
por la aplicación de la teoría electromagnética, el sistema no podía ser estable.
La teoría electromagnética de Maxwell demuestra que una carga eléctrica en
aceleración, emite energía radiante en forma de onda electromagnética y daría lugar a
que el electrón, al perder energía, se fuese acercando al núcleo, describiendo órbitas
cada vez más pequeñas y con mayor velocidad, la frecuencia emitida sería cada vez
mayor y finalmente el electrón se colapsaría con el núcleo aniquilándose. Por otra parte,
los espectros de las ondas emitidas deberían de ser continuos, porque existirían innumerables estados de desarrollo interno en los átomos. Pero los espectros no son continuos,
sino discontinuos formados por un determinado número de líneas. ¿Qué es lo que
impide el colapso?.
Fue Niels Bohr el que propuso un modelo atómico que superó estas dificultades.
Para ello utilizó las ideas de Planck sobre la cuantización de la energía e introdujo los
siguientes postulados:
a) Los electrones giran alrededor del núcleo en órbitas circulares estables, en las
cuales, no emiten energía. Cada electrón en su órbita estable tiene una energía determinada, "nivel de energía".
b) Sólo son permitidas las órbitas en las cuales el momento angular del electrón es un
múltiplo entero de h/2π (= h ), o cuánto de momento angular. El número que
determina la órbita electrónica se denomina número cuántico:
h
m.v.r = n.
2π
c) Cuando un electrón pasa de una órbita a otra de menor energía, se emite energía en
forma de onda electromagnética, cuya frecuencia cumplirá: ∆E = hν siendo ∆E la
diferencia de energía entre las dos órbitas.
Los resultados de esta teoría concordaban perfectamente con los hechos experimentales conocidos hasta entonces; por ejemplo las frecuencias de las líneas del espectro del hidrógeno, obtenidas con este modelo concordaban perfectamente con las obtenidas por la fórmula empírica encontrada por Balmer (1885). Posteriormente Sommerfeld
amplió el modelo de átomo de Bohr a órbitas elípticas, lo que supuso su perfecciona-
10/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
miento. Se establecieron los Números Cuánticos y Pauli estableció su Principio de
Exclusión, etc.
El modelo de Bohr, aunque fecundo en la interpretación de muchas propiedades
de los átomos, no es mas que una aproximación incompleta e imperfecta de la verdadera
estructura del átomo, puesto que, por una parte utiliza principios y ecuaciones de la
mecánica clásica y de la teoría electromagnética clásica y por otra, recurre, porque es
necesario, a reglas de cuantización establecidas en mecánica cuántica. Esta doble base
conceptual resulta inadecuada y arbitraria. La necesidad de encontrar una nueva mecánica, que aplicada a los fenómenos atómicos, pudiera extenderse a las fenómenos macroscópicos, regidos por la mecánica clásica (o newtoniana) hicieron desarrollar la
Mecánica Cuántica y la Mecánica Ondulatoria. Ambas teorías intentan resolver de manera general los fenómenos que se presentan en la constitución de los átomos y de las
moléculas. El origen de la Mecánica Ondulatoria se encuentra en la dualidad ondacorpúsculo de De Broglie y que posteriormente Schrödinger (1926) desarrolló, estableciendo la ecuación general de las ondas asociadas al electrón, Ecuación de Onda.
Hay que destacar la evolución del concepto de Física. Los griegos dominaban la
metafísica a las complejas teorías explicativas del universo carentes de justificación
experimental, inexistente en aquellos tiempos. A partir de Galileo, la experiencia tiene
un papel preponderante y los fenómenos se expresan como leyes matemáticas. Pero para
los científicos de hoy, nada es definitivo y las leyes sólo tienen valor estadístico. Incluso
magnitudes, aparentemente constantes por simple sentido común, como Tiempo o
Masa, sólo lo son en un limitado rango de valores.
Actualmente resulta imprevisible saber cuáles son los descubrimientos que se
pueden realizar en un futuro próximo ya que la Física está en un permanente estado de
evolución.
3. DESARROLLO HISTÓRICO DE LA QUÍMICA
3.1. La Química en la antigüedad. La Alquimia.
Hasta el siglo XVII sólo existían conocimientos superficiales sobre esta ciencia
que luego se llamó Química. Sin embargo, aquellos conocimientos se canalizaban en
dos corrientes paralelas que discurrían una junto a otra aunque a veces ignorándose
entre sí. Por un lado surgían las especulaciones metafísicas sobre la constitución de la
materia, heredadas de los griegos y por otro lado existía una heterogénea cantidad de recetas prácticas, acumuladas durante siglos, sobre fabricación de vidrio, extracción de
metales, obtención de alcohol, curtido de pieles, etc., que provenían de las antiguas culturas de Mesopotamia y Egipto enriquecidas por el aporte de otras culturas posteriores
de la India, del mundo árabe, así como las observaciones de los clásicos alquimistas.
El conjunto de conocimientos químicos, por designarlos de alguna manera, que se
tenían hasta este siglo, se conoce como Alquimia. La Alquimia, nace en el siglo I en
Alejandría como consecuencia de una mezcla de filosofía griega, misticismo oriental y
tecnicismo egipcio. Los libros de Alquimia eran atribuidos, para darles mayor autoridad
y veracidad, a filósofos o grandes personajes antiguos como Moisés, Salomón, etc.
11/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Para los alquimistas, la doctrina fundamental consistía en que todas las cosas tienden a la perfección, luego todos los metales pueden transformarse en oro. El artesano
pretendía sustituir a la naturaleza en este proceso de perfección acelerándolo. De la
aplicación de esta idea y de otras, más o menos filosóficas, dio lugar a que se descubrieran gran número de procesos químicos.
En el campo de la actual química orgánica, también se tenían ciertos conocimientos heredados de los pueblos antiguos tales como la obtención de algunos colorantes que
son verdaderos compuestos químicos como el Índigo, la Alizarina, la Púrpura de Tiro,
etc. Los dos primeros se obtuvieron de las plantas y el último de un molusco. Algunos
procesos químicos como la fabricación de jabón, las fermentaciones, el refinado del
azúcar, etc., eran conocidos y se realizaban a gran escala. Eran métodos de tipo artesanal y no constituían ciencia alguna, ni siquiera una rama de ella. El aislamiento del alcohol relativamente puro se publicó en el siglo XI y la obtención del éter a partir del alcohol y del ácido sulfúrico, se realizó en el siglo XVI. Los primeros ácidos carboxílicos
fueron el Fórmico, de la destilación seca de las hormigas, y el Acético, de la destilación
del vinagre. El ácido Benzoico se obtuvo de la goma benzoínica y el ácido Succínico se
obtuvo de la destilación del ámbar, una resina fósil.
La química orgánica sólo tenía interés por el valor medicinal de muchos de sus
compuestos y era desarrollada por monjes pero sin afán científico alguno. La asociación
de la química orgánica y los compuestos orgánicos de origen animal o vegetal, como
orina, sangre, bilis, goma, azúcar, resinas, etc. condujo a la teoría sostenida por los
alquimistas de que estas sustancias se producían en los organismos vivos gracias a una
"fuerza vital" inherente a los sistemas vivientes, fuerza que quedaba destruida cuando
alguna de aquellas sustancias se separaba del ser vivo.
Hacia el siglo IV las prácticas astrológicas y mágicas intensificaban su influencia
sobre los alquimistas, pero a pesar de los múltiples fracasos de sus pintorescas teorías,
éstas no fueron desechadas durante siglos, ya que determinados experimentos parecían
responder a los resultados apetecidos. Por ejemplo, cuando se calentaba la galena argentífera en un crisol, inyectándole aire, el óxido de plomo formado se fundía obteniéndose
en el fondo plata casi pura. La plata era considerada como el "alma pura" del plomo y
por la misma razón el oro podía ser el alma pura de cualquier otro metal. Pero la Alquimia fue desacreditándose debido a que los fracasos fueron mayores que los aciertos.
Algunos alquimistas notables fueron Averios (1120-1198) y Geber a los que se
atribuyen numerosos descubrimientos; Alberto el Grande de Alemania (1193-1280),
Rogelio Bacon (1224-1294) de Inglaterra y Raimundo Lulio (1235-1314) en España.
Pese a todo, los alquimistas prepararon el camino a los químicos ya que descubrieron
gran cantidad de compuestos como ácidos, óxidos de metales, agua regia, etc.
3.2. La Química en el Renacimiento.
El Renacimiento representó una época de transición en la que desaparecen ideas y
conceptos de la Edad Media y se impone el método experimental preconizado por Galileo y Bacon. Se empezaron a crear asociaciones científicas en las que se discutían y
analizaban los descubrimientos que se iban realizando. La ciencia deja el oscurantismo,
deja de ser un secreto y una actividad exotérica relacionada más con la magia que con el
saber y pasa a convertirse en un bien colectivo en continuo enriquecimiento.
12/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Un verdadero químico de esta época fue el belga Van Helmont (1577-1644),
auténtico precursor del método experimental en la química. Demostró que las plantas
crecen a expensas del agua y rechazó la idea del fuego como elemento. Para él, la llama
no es sino gas en combustión. Entre los que contribuyeron al desarrollo de la química,
destaca especialmente el inglés Robert Boyle (1627-1691), que destruyó las teorías de la
alquimia y definió claramente el concepto de “Elemento químico”, como sustancia
indestructible e incapaz de descomponerse. Los elementos se combinan unos con otros,
formando la totalidad de las demás sustancias. Estudia el aire y su papel como comburente en la combustión. Obtiene por primera vez hidrógeno mediante hierro atacado con
ácido sulfúrico, aunque no estudia este gas. Definió los ácidos como sustancias que
cambian el color de ciertos colorantes vegetales. Aplicó el método analítico a muchas
sales en reacciones químicas, conocidas unas e ideadas por él otras. Resumiendo: la
obra de Boyle establece claramente algunos conceptos químicos que evolucionan y dan
respuesta a los fenómenos observados.
Tras Boyle se suceden descubrimientos en química con gran rapidez. Comienzan
a emitirse las primeras teorías de la química como ciencia. Una de ellas, de gran prestigio, fue la teoría del Flogisto, creada por Becher (1635-1682) y desarrollada por Stall
(1660-1734), químico de gran prestigio, por lo que fue aceptada durante mucho tiempo.
La teoría del Flogisto, se basa en lo siguiente: En la época (S.XVII) se reconocían dos
tipos de sustancias, cales y metales y relacionadas entre sí, pues una cal podía dar un
metal y viceversa. Por ejemplo, de la cal de hierro (óxido de hierro) podía obtenerse
hierro y éste a su vez podía transformarse en cal de hierro. Como el paso de cal a metal
requería la acción del calor, se pensó que era debido a la acción del antiguo elemento
"fuego" algo modificado y que se le llamó Flogisto. Así, cuando se calienta una cal, se
suponía que el flogisto que salía del manantial de calor entraba en la cal y la
transformaba en metal:
cal + flogisto ---> metal
El flogisto era un principio metalizador capaz de producir el metal a partir de la
cal correspondiente. Para explicar el proceso inverso, se suponía que un metal se transformaba en cal eliminando el flogisto que contenía:
metal – flogisto ---> cal
Este último proceso, conocido como calcinación, fue estudiado por Jean Rey,
contemporáneo de Galileo, quien observó que la cal de estaño pesaba más que el estaño
del que provenía, es decir, el metal menos el flogisto podría pesar más que el metal.
Pero para los científicos del siglo XVII y comienzos del XVIII, este paradójico aumento
de peso al eliminar el flogisto no les preocupó demasiado. Resultaba muy útil la teoría
del flogisto que explicaba numerosos fenómenos químicos, como para echarla abajo por
esta cuestión sin importancia y más teniendo en cuenta que aún no se había establecido
el principio de conservación de la masa por Lavoisier.
3.3. La Química en el siglo XVIII.
Tres químicos famosos realizaron importantes descubrimientos en este siglo y
fueron Cavendish (1731-1810) que descubrió el Hidrógeno y realizó la síntesis del agua,
Priestley (1739-1804) que descubrió el Oxígeno y otros gases y Scheele (1742-1786)
que descubrió el cloro, el oxígeno (independientemente de Priestley), el ácido fluorhí-
13/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
drico, el ácido cianhídrico y numerosos compuestos más. Sin embargo, la Química
Moderna no nace como tal ciencia hasta Lavoisier (1734-1794) que renovó los conceptos y encauzó a la química por el camino definitivo.
Las primeras investigaciones de Lavoisier se dirigieron a la verificación de creencias aceptadas durante mucho tiempo pero que no se habían comprobado ni rechazado:
a) Quiso probar la conversión de agua en tierra y vio que no era posible. Para ello calentó agua durante 101 días observando que la masa sólida procedía de la disolución del
vidrio del recipiente.
b) Demostró que el diamante podía arder en el aire. Se interesó por los gases y vio la
posibilidad de éstos de combinarse con los compuestos o de desprenderse mediante
reacciones químicas.
c) Demostró falsa la creencia de que el aumento de peso del estaño y el plomo al calcinarse era debido a la absorción de partículas de fuego. Calcinó estaño en recipiente
cerrado y vio que no se producía aumento de peso hasta que se abría la vasija, de modo
que el aumento de peso se debía a la combinación del metal con el aire. Esto fue revolucionario e hizo cambiar el rumbo de la química.
d) Descubrió que al calentar una sal con carbón se producía el metal y aire fijo. El aire
fijo era el dióxido de carbono y al oxígeno se le llamó aire eminentemente respirable y
creía que entraba en la composición de todos los ácidos. En noviembre de 1779 se le
ocurrió el nombre de Oxígeno y estableció una teoría completa de la combustión.
Cavendish creía que el aire inflamable (hidrógeno) era flogisto casi puro y que el
oxígeno era aire desflogisticado y explicó la formación del agua como una liberación de
este compuesto a partir de ambos gases durante la flogisticación del aire desflogisticado.
Lavoisier dio la explicación correcta de este fenómeno. El agua es un compuesto formado por el aire inflamable (llamado posteriormente hidrógeno) y el oxígeno.
3.4. La Química en el siglo XIX.
Davy descubrió el Sodio y el Potasio y proporcionó nuevos métodos para aislar a
su vez, nuevos elementos. Berzelius utilizó mezclas fundidas de potasio y óxidos metálicos y así aislar los elementos: Silicio, Zirconio, Titanio y Torio. Busey descubrió el
Magnesio y el Berilio y Oersted aisló el aluminio.
A lo largo de este siglo se descubrieron la mayoría de los elementos del grupo del
platino. Se completó la familia de los halógenos, a excepción del Flúor, que no pudo ser
aislado hasta 1886 por Moissen utilizando un método electrolítico. Se empezaron a
desentrañar las complicaciones de las llamadas tierras raras.
Se descubrió el método espectroscópico de análisis (1859) que permitió a los químicos detectar nuevos elementos poco comunes y presentes en los minerales en escasas
proporciones. Bunsen y Kirchhoff construyeron el espectroscopio y demostraron que
cada elemento químico poseía un espectro de líneas característico que lo diferenciaba de
los demás y servía de documento de identidad.
14/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
En esta época, J.S.Stas (1813-1891) determinó con gran precisión los pesos equivalentes y atómicos de los diferentes elementos, trabajo de grandísima importancia,
pues es la base para la ordenación periódica de los elementos conocidos.
En 1860 se celebró la primera asamblea internacional de químicos. En ella se
aceptó como unidad de referencia para los pesos atómicos, el peso de media molécula
de hidrógeno o bien el valor 2 como densidad de este elemento. Así, los pesos moleculares de las distintas sustancias estarían representados por los respectivos pesos de volúmenes iguales de las mismas.
Se conocían suficientes elementos como para apreciar entre ellos ciertas analogías
y diferencias que permitiera agruparlos en familias como los Halógenos, los Anfígenos,
los Alcalinos y la familia del Platino con pesos atómicos correlativos. Esto llevó a un
intento de clasificación sistemática.
En 1829, Döbereiner presentó unas triadas de propiedades químicas semejantes:
Cloro, Bromo y Yodo, Calcio, Estroncio y Bario, Azufre, Selenio y Teluro, etc. El peso
atómico del átomo central era aproximadamente la media aritmética de los de los
extremos (?).
En 1862, Beguyerr ordenó los elementos químicos según sus pesos atómicos en
una línea arrollada helicoidalmente a un cilindro y notó que los halógenos quedaban
dispuestos sobre una línea recta en uno de los costados de esta Helix telúrica pero el
trabajo pasó inadvertido.
En 1864, NEWLANDS ordenó los elementos según pesos atómicos crecientes y
observó que, en general, los elementos semejantes quedaban agrupados ordenando los
elementos de ocho en ocho, a lo que llamó ley de las octavas, pero aunque fue tomada
en serio su idea de repetición periódica se manifestaba claramente tanto en esta ordenación como en la anterior de Beguyerr.
La Ley Periódica fue enunciada casi a la vez, como consecuencia de la labor
independiente de dos hombres, el alemán Lothar Meyer y el ruso Dimitri Mendelejew.
Ambos desarrollaron sus ideas mientras preparaban sus libros. En el libro de Meyer
"Modernas teorías de la química" se plasmaba la tabla periódica de una manera casi
definitiva. No la publicó hasta 1870, después de haber aparecido la versión de Mendelejew en su libro "Principios de Química". Es posible que Meyer modificase algo su
versión después de ver la forma que le había dado Mendelejew, y también es verosímil
que la versión posterior de éste estuviese influenciada por la publicación de la tabla de
Meyer. No cabe duda de que los dos hombres son merecedores por igual, del honor del
descubrimiento y así lo reconocieron ellos mismos.
Ambos ordenaron los elementos por valores de peso atómico creciente y observaron la recurrencia periódica de sus propiedades. Meyer observó las propiedades físicas y
Mendelejew observó las propiedades químicas y ambos dejaron espacios vacíos donde
encajarían elementos aún desconocidos. Mendelejew se aventuró a predecir las propiedades físicas y químicas de estos elementos desconocidos que tendrían que ocupar los
huecos de la tabla. En particular seleccionó tres de los huecos y los examinó con detalle.
Fueron los elementos situados en la tabla bajo los elementos conocidos Boro, Aluminio
y Silicio. Utilizó el prefijo sánscrito "eka" (más allá) y denominó a las hipotéticas
15/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
sustancias: eka-boro, eka-aluminio y eka-silicio. Señaló los valores aproximados de sus
pesos atómicos y sus valencias e indicó los tipos de compuestos que debían formar.
No se dedicó demasiada atención a la tabla de Meyer-Mendelejew hasta que
pasado algún tiempo se descubrieron los elementos Galio, Germanio y Escandio, que
correspondían a los que Mendelejew había predicho. Tras ello la tabla periódica fue
generalmente aceptada, se reconoció su valor para la sistematización de la química
inorgánica y para limitar el número de posibles elementos químicos. La tabla no era
perfecta pero no fue posible mejorarla hasta que en el siglo XX se descubrió que la
ordenación periódica se basaba en una magnitud más fundamental que los pesos
atómicos, que era el número atómico.
En 1892, J.W.Strutt, barón de Rayleigh encontró que el nitrógeno obtenido del
aire por separación de los demás gases, tenía mayor densidad que el nitrógeno preparado a partir de sus compuestos. Con grandes cantidades de aire, Rayleigh y Ramsey
aislaron en 1895 un nuevo gas, demostrando que no se combinaba con ningún otro elemento y al que llamó Argón. Ramsey buscó otra fuente de este gas y encontró que
ciertos minerales de uranio contenían gas inerte pero no era argón. El espectroscopio
mostró para este gas una línea espectral idéntica a la que los astrónomos Jansen y
Locyer encontraron en el espectro solar. Tal línea se debía a un elemento nuevo, desconocido en la tierra al que se llamó Helio. Ramsay encontró este elemento en la Tierra.
La búsqueda de más miembros de esta familia de gases inertes condujo al descubrimiento del Kriptón, Xenón y Neón, que se obtuvieron en 1898 por destilación fraccionada del aire líquido.
3.5. Desarrollo de la Química Orgánica.
Durante el siglo XIX, también la química orgánica surge como entidad propia y se
desliga de sus aplicaciones exclusivamente medicinales y farmacéuticas.
En 1828, Woehler sintetizó casualmente la urea a partir del cianato de plata y
cloruro amónico. Reconoció el producto como idéntico a la urea natural que había sido
aislada a partir de sustancias orgánicas. En 1811, John Davy había sintetizado ya la urea
pero no la haba reconocido. Scheele fue el pionero en la síntesis de productos orgánicos.
Aisló muchas sustancias por oxidación de productos naturales, como ácidos orgánicos.
Joseph L.Proust formuló la ley de las proporciones definidas y abrió también el
campo de los Hidratos de Carbono, aislando e identificando la Glucosa, Sacarosa y
otros. La Morfina se aisló en 1805, y en 1820 se aislaron otros alcaloides como la
Brucina y la Quinina.
En esta época de desarrollo de la química orgánica se introdujo el concepto de
Isomería y el de Polímero. Fueron Liebig y Dumas los que introdujeron métodos definitivos de análisis cuantitativo de compuestos orgánicos, para la determinación de Carbono, Nitrógeno, Hidrógeno y otros elementos.
Los trabajos de Hoffman sobre las aminas (preparar aminas alifáticas primarias,
secundarias y terciarias a partir de ioduros de alquilo y amoniaco), los de Wiliamsom
sobre los éteres (obtención de éteres a partir de ioduros de alquilo y alcoholatos) y los
de Wurtz sobre los hidrocarburos (obtención de hidrocarburos mediante halogenuros de
16/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
alquilo y sodio) trajeron como resultado la síntesis y aislamiento de muchos productos
orgánicos nuevos, cuya formulación condujo claramente al concepto de valencia.
Poco después, Kekulé y Cooper hicieron una contribución importante al reconocer
que el átomo de carbono es tetravalente (1857) y que los átomos de carbono tienen la
propiedad de poder enlazarse unos con otros. Aunque Kekulé introdujo el concepto de
enlace químico, no lo representó por puntos o líneas. Fue Cooper quien utilizó el guión
para el enlace y Hoffmann el que empleó modelos construidos por bolas y palos para
representar las moléculas orgánicas.
El problema de la formulación del Benceno y de las estructuras aromáticas, fue
particularmente difícil, y la mejor contribución para llegar a la solución del problema se
debe a Kekulé quien en 1856 atribuyó una estructura cíclica y con dobles enlaces alternados con enlaces sencillos. Se señaló que la fórmula de Kekulé presentaba dos isómeros en orto, pero Kekulé subsanó esta dificultad proponiendo que los enlaces de los
átomos de la molécula del benceno oscilaban alrededor de una posición de equilibrio.
Uno de los descubrimientos más importantes de la química orgánica se debe a
Louis Pasteur (1822-1895) que en 1848, durante una investigación de la simetría y de la
actividad óptica del ácido tartárico, presente en las uvas, descubrió una forma de ácido
tartárico que no era dextrógira a la que llamó Racémica, cuyas sales no producían
desviación alguna del plano de vibración de la luz polarizada. Pero también descubrió
Pasteur que cuando se cristalizaban por debajo de los 28ºC el tartrato sódico amónico,
se obtenía un tetrahidrato, la mitad de cuyos cristales tenían sus caras hemiédricas
dirigidas hacia la derecha, mientras que la otra mitad las tenían orientadas hacia la
izquierda. Pasteur separó estos cristales a mano, con ayuda de una lupa demostrando
que unos pertenecían al ácido tartárico dextrógiro, mientras que los otros pertenecían al
ácido tartárico levógiro, desconocido hasta entonces. Por lo tanto, el ácido tartárico
racémico es una mezcla molecular de ácido tartárico dextrógiro y levógiro.
Van't Hoff investigó en 1874 la isomería geométrica e indicó que los enlaces
dobles impedían la libre rotación y producían un tipo de isomería (cis y trans) cuyos
ejemplos eran los ácidos fumárico y maléico.
En 1896 se aislaron las formas "cetónicas" y "enólicas" de un cetoéster confirmando una clase de isomería que ya había sido descubierta y llamada tautomería en 1885.
La reacción de Friedel-Crafts utilizando el cloruro de aluminio anhidro apareció
alrededor del 1877. A finales del siglo XIX, Grignard defendió una tesis doctoral basada
en los halogenuros Organometálicos posteriormente llamados Reactivos de Grignard, de
grandes posibilidades para la síntesis. Hoffman publicó la Degradación de las amidas a
aminas en 1882. Paul Walden, en 1893, descubrió la secuencia de reacciones conocida
como inversión de Walden y que proporciona un camino para invertir una sustancia que
presenta actividad óptica en su enantiomorfo (el método consiste en producir su racemización y separar posteriormente la mezcla).
Emil Fischer descubrió en 1875 el reactivo Fenil-Hidracina y lo utilizó para
desentrañar el problema de las estructuras y las reacciones químicas de los hidratos de
carbono. Tras un largo trabajo consiguió en 1891 asignar una configuración a la Glucosa y a algunos otros azúcares. También realizó importantes trabajos sobre las Purinas y
17/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Proteínas, base de la bioquímica. Sobre las proteínas investigó la unión de los aminoácidos y se concentró especialmente en la preparación de péptidos.
Alfred Nobel, fue un químico industrial muy influyente en el siglo XIX, dejó
Suecia a los 9 años y en 1885 tuvo la oportunidad de trabajar con el profesor Zinin en la
Universidad de San Petersburgo, que le sugirió que investigase la Nitroglicerina como
explosivo. Posteriormente Nobel obtuvo la primera patente en Suecia para emplear la
nitroglicerina como explosivo en forma de Dinamita.
Hacia finales del siglo XIX, tanto la Química Inorgánica como la Orgánica
estaban bastante avanzadas, pero en el siglo XX, con la aplicación de las modernas
técnicas de reconocimiento de estructuras y la aplicación de la física y la estadística a
los procesos químicos, éstos se pueden estudiar y conocer con muchísima precisión y
tanto los procesos industriales como los de laboratorio entran en fase de continua
evolución.
Al principio, la fuente principal de compuestos orgánicos era el alquitrán de hulla
y la química orgánica aromática tuvo una importancia preponderante. Con la llegada del
motor de explosión interna, ganó importancia el petróleo y se convirtió en la fuente
natural más importante de materias orgánicas, así como el gas natural.
Actualmente se han logrado obtener por procesos de síntesis gran cantidad de
compuestos nuevos, inexistentes en la naturaleza. Existen en el mercado, multitud de
compuestos de toda clase de características, propiedades y atributos, disponibles en alto
grado de pureza y a precios competitivos. La química de las nuevas materias se ha
desarrollado hasta límites insospechados.
Paralelamente a este desarrollo de la Química Orgánica, se ha desarrollado
enormemente la Bioquímica, rama de la Química Orgánica que analiza, explica y
desentraña los complejos procesos químicos que se desarrollan en las células de los
organismos vivos, tanto vegetales como animales. El avance de la Bioquímica influye
directamente en el desarrollo de la Medicina, la Farmacología, la Agricultura, la
Ganadería, etc. que inciden directamente en el desarrollo y bienestar de la humanidad.
4. PROBLEMAS FÍSICOS PRIORITARIOS DE LA INVESTIGACIÓN
ACTUAL
Como hemos visto, la Física ha evolucionado merced a ideas revolucionarias. La
primera revolución, apoyada en los trabajos de Newton y sus contemporáneos, estableció las bases para el estudio del movimiento, la materia y las fuerzas sobre ella. La
segunda revolución introdujo la teoría cuántica para el estudio del mundo microfísico, la
teoría de relatividad y la energía nuclear.
Muchos de los fenómenos que estudia la Física actual se encuentran más allá de la
simple aplicación de la teoría cuántica y la teoría de relatividad. Por ello se habla de una
tercera revolución, en un frente muy amplio de fenómenos físicos entre los que podemos citar el estudio de agujeros negros y estrellas de neutrones, partículas subatómicas,
teoría del caos, la electrodinámica cuántica y los quarks, la superconductividad, etc.
18/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
4.1. Física de las partículas subatómicas.
Los átomos, tras siglos de estudio, han resultado ser entidades compuestas de una
compleja estructura interna. Ni siquiera la materia de las partículas conocidas es la única
que existe pues gracias a los aceleradores de partículas se han descubierto gran número
de nuevas partículas como resultados de colisiones de alta energía.
Desde 1960 se han descubierto numerosas partículas cuyas propiedades y comportamiento representan un desafío a la Física Teórica para encuadrarlas en una teoría
única. Los experimentos de partículas ponen de manifiesto las fuerzas fundamentales
con las que interaccionan las partículas, que resultan ser las cuatro siguientes:
Fuerza Gravitatoria, consecuencia de su masa y energía, es la más débil de todas
las interacciones.
Fuerza Electromagnética, consecuencia de la carga eléctrica de las partículas y su
movimiento.
Fuerza Nuclear Fuerte, es la que mantiene unidos los quarks en los hadrones,
protones, neutrones, mesones, etc.
Fuerza Nuclear Débil, es la responsable de la desintegración β y actúa sobre las
partículas de spin 1/2.
Desde que en 1969, el premio Nobel Murray Gell Mann descubrió los quarks,
éstos son considerados como verdaderas partículas elementales. Existen diferentes variedades de quarks que se clasifican según una propiedad que ha venido en llamarse
sabor. Existen al menos 6 sabores que son: arriba, abajo, encanto, extraño, fondo y
cima. Además cada sabor puede tener un color diferente: rojo, verde y azul. (Color y
sabor representan dos propiedades características de los quarks y nada tienen que ver
con su significado habitual).
Por otra parte, la materia presenta dos clases de partículas diferentes:
a) La primera son partículas pesadas y fuertemente interactuantes llamadas hadrones
(protones, neutrones) que son sensibles a la fuerza nuclear fuerte. Están constituidas
por quarks, unas con tres (bariones) y otras con dos (mesones). Por ejemplo:
Protón = 1 quark arriba + 1 quarks arriba + 1 quarks abajo
Neutrón= 1 quark arriba + 1 quarks abajo + 1 quarks abajo
b) La segunda, conocida con el nombre de leptones (electrones, neutrinos) son generalmente ligeras e interactúan sólo con interacción nuclear débil y no les afecta la
fuerza nuclear fuerte).
Los quarks y los leptones podrían ser las unidades básicas de toda la materia del
universo.
4.2. Electrodinámica Cuántica y Cromodinámica Cuántica.
Cuando la teoría cuántica se aplica de forma apropiada al campo electromagnético, conduce a la Electrodinámica Cuántica, una teoría basada en la existencia de electrones, positrones y fotones en continua interacción. La idea básica es que los electrones y
positrones interaccionan mediante el intercambio de una partícula intercambiadora
19/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
(fotones) que actúa de mensajero que transporta la fuerza electromagnética entre las
partículas de materia. La electrodinámica cuántica es la teoría cuántica de campo relativista con más éxito.
Steve Weinberg y Abdus Salam unificaron la teoría electrodinámica cuántica de la
interacción electromagnética con la teoría que explicaba la interacción nuclear débil
entre los leptones y elaboraron la teoría de la fuerza electrodébil (primer paso de la
unificación de las fuerzas fundamentales). Esta unificación fue similar a la realizada por
Maxwell entre la electricidad y el magnetismo en el 1860. Estos científicos, sugirieron
que además de los fotones existen otras tres partículas portadoras de fuerza electrodébil,
agrupadas con el nombre de bosones vectoriales masivos, con spin 1: W+, W- y Z0 y
cada una de ellas con una masa de unos 100 GeV.
Esta teoría propone la llamada ruptura de simetría espontánea, es decir, a altas
energías estas partículas se comportan de manera similar, pero a bajas energías el mismo tipo de partícula presenta comportamientos diferentes. La demostración se realizó en
1983, en el CERN (Centro Europeo de Investigaciones Nucleares) de Ginebra donde se
descubrieron las partículas W y Z al hacer colisionar protones y antiprotones a altas
energías.
Un nuevo campo de investigación es el dedicado a las fuerzas de interacción entre
los quarks, en la que las partículas portadoras de la interacción se denominan gluones
con una nueva cualidad, una "carga" nuclear de fuerza fuerte similar a la carga eléctrica
pero de distinta naturaleza. La teoría donde se encuadran estas interacciones se denomina cromodinámica cuántica.
4.3. Teoría de la Gran Unificación.
La fuerza electrodébil, unificada a partir de la electrodinámica cuántica y la teoría
de la fuerza nuclear débil, y la cromodinámica cuántica, que estudia la fuerza nuclear
fuerte de interacción entre los quarks, se pretenden unificar en una gran teoría de Unificación. La dirección actual de la Física moderna es la elaboración de una Teoría de
Gran Unificación que incluya no sólo las tres anteriores (electromagnética, nuclear
débil y nuclear fuerte) sino también la fuerza gravitatoria con su partícula transmisora
de la fuerza, el gravitón (aún no detectada).
La gravedad fue la primera en recibir un tratamiento matemático pero continúa
resistiéndose a recibir un tratamiento cuántico, es decir, sigue siendo una teoría clásica
que no incorpora los principios de la mecánica cuántica como el principio de incertidumbre. Es improbable que los efectos de la gravitación tengan resultados detectables
en la Física de las partículas, sin embargo se espera encontrar una descripción cuántica
consistente, de lo contrario, la gravedad no se podrá conectar con el resto de la Física.
La teoría más prometedora de la gravitación cuántica es la de las supercuerdas cuya idea
básica reside en el hecho de suponer el mundo formado no de partículas sino de cuerdas
formando un espacio-tiempo de varias dimensiones.
4.4. Estructura y Evolución del Universo.
Durante los últimos siglos, la cosmología ha funcionado como una rama científica
meramente especulativa y sin conexión importante con la teoría de la gravitación. Sin
20/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
embargo, dos descubrimientos de este siglo han cambiado el rumbo de esta tendencia.
El primero fue el descubrimiento por Edwin Hubble (1929) de la expansión del universo. Considerando que el universo se expansiona, se debe haber generado en un tiempo
finito en una explosión llamada Big Bang (gran explosión).
El segundo descubrimiento sucedió en 1965 cuando dos ingenieros encontraron la
existencia de un fondo cósmico de radiación de calor, que se atribuye al residuo del
calor original que generó el Big-Bang. Extrapolando hacia atrás se puede intuir que en
los momentos inmediatamente posteriores al Big-Bang, la temperatura aumentaría sin
límites y este universo primitivo sería idóneo para que tuvieran lugar todos los posibles
procesos de partículas, algunos de los cuales, los físicos actuales tratan de reproducir en
los grandes aceleradores de partículas.
La cosmología es, pues, un terreno de pruebas para la Física de partículas y en ella
confluye el mundo de lo muy pequeño con el de lo muy grande. La investigación en
cosmología debe considerar no sólo la gravitación sino las otras tres fuerzas fundamentales, como ocurre en las modernas teorías de la mecánica cuántica.
4.5. Otras líneas de investigación en Física.
Las tres direcciones básicas a las que se orientan las líneas de investigación de la
Física moderna podemos decir que son:
-
La Microfísica, de la que ya hemos hablado en lo referente a partículas subatómicas,
teorías cuánticas, teorías de unificación.
La Macrofísica, que estudia la cosmología, la cosmogonía y la astrofísica.
La Física de los sistemas complejos, que está teniendo un gran auge como consecuencia del apoyo tecnológico que aportan los ordenadores para la realización de
simulaciones matemáticas de sistemas complejos.
Dentro de esta última dirección de investigación actual de la Física destacaremos
varias líneas de gran importancia industrial y tecnológica, como son:
4.5.1. Superconductividad.
Tanto la Superconductividad como la Superfluidez son las manifestaciones más
espectaculares de aparición espontánea de ordenación de un sistema macroscópico, con
aparición de propiedades especiales y características.
La superconductividad es un fenómeno de carácter cuántico y que conlleva a una
conducta coherente de un gran número de partículas atómicas y produce el flujo de
corriente eléctrica en ausencia absoluta de fricción o resistencia. Este fenómeno se produce a muy bajas temperaturas es decir, a unos niveles muy bajos de energía interna.
Recientemente se han anunciado superconductores cerámicos que trabajan a temperaturas de 90ºK o superiores y la investigación pretende obtener materiales superconductores a temperatura ambiente o alrededores, lo que posibilitaría disminuir a niveles
casi nulos las pérdidas por efecto Joule.
21/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Básicamente, los hechos que tienen lugar en la superconductividad están relacionados con la posibilidad de que los electrones se emparejen de tal forma que desaparecen sus propiedades fermiónicas (propiedades según las cuales dos electrones no pueden
ocupar el mismo estado energético caracterizado por sus cuatro números cuánticos).
.
4.5.2. Láseres.
La óptica cuántica es otro campo del conocimiento físico donde se pueden observar ejemplos de autoorganización espontánea, tal como el efecto láser. La diferencia
fundamental entre una lámpara ordinaria y una luz láser es que en la primera la emisión
de fotones se produce independientemente por los átomos individuales previamente
excitados y en la segunda la emisión de luz se produce por los átomos que entran en
sincronía unos con otros mediante el fenómeno de la emisión estimulada, dando lugar a
un tren de ondas de luz coherente con un alto contenido de energía.
Aparte de las muchas aplicaciones científicas, técnicas e industriales de los láseres, éstos ofrecen un buen método para explorar los aspectos más importantes de la electrodinámica cuántica.
4.5.3. Caos y otros.
La complejidad en la resolución de un problema físico no se presenta sólo en los
sistemas que poseen muchos grados de libertad, sino que puede presentarse en sistemas
simples con sólo un limitado número de grados de libertad. Estas son las conclusiones a
las que llegan los físicos que trabajan en las teorías deterministas del caos.
Ejemplos de comportamientos caóticos encontramos una gran variedad en sistemas físicos como fluidos turbulentos, sistemas meteorológicos y climáticos, poblaciones
celulares y de insectos, circuitos eléctricos, reacciones químicas, etc.
Otras líneas de investigación de la Física actual podemos citar: Termodinámica de
procesos irreversibles (estudio de los sistemas fuera del equilibrio), la Física del estado
sólido (para obtener estructuras electrónicas cada vez más pequeñas).
5. PROBLEMAS QUÍMICOS PRIORITARIOS DE LA INVESTIGACIÓN
ACTUAL.
Si quisiéramos trazar un panorama del estado actual de la química, tendríamos
que hacerlo basándonos en dos puntos fundamentales: la especialización y la confluencia con otras ciencias.
Respecto del primer punto, destacamos que las diversas ramas de esta ciencia que
aparecieron en el pasado siglo, han alcanzado en éste un alto grado de especialización,
que conlleva metodologías y aplicaciones específicas que no son del dominio general de
todos los químicos, sino sólo de los especialistas.
Respecto del segundo punto, la confluencia con las otras ciencias comenzó con el
resurgimiento de la química física cuyo desarrollo ha sido de gran importancia, no sólo
en la física y en la química, sino también en la biología, medicina, agricultura, meteorología, ciencias medioambientales, geología, etc., y ha provocado el nacimiento de
22/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
especialidades como bioquímica, geoquímica, química agrícola, química de la atmósfera, química técnica e industrial, etc.
Para trazar un panorama de las actuales líneas de investigación en química, mencionaremos las más importantes según las distintas partes en que tradicionalmente se ha
dividido la química.
5.1. Desarrollo en Química Inorgánica.
La Química Inorgánica se ocupa actualmente de la obtención de nuevos compuestos de síntesis con propiedades útiles, a partir del análisis de las propiedades de los
elementos y sus posibilidades de combinarse. Las investigaciones en este campo discurren por:
- Polímeros Inorgánicos. La industria de los polímeros, tradicionalmente orgánica, se está extendiendo a la química inorgánica. Se han descubierto nuevas familias de
polímeros inorgánicos dotados de esqueleto estructural de átomos distintos del carbono.
Los piroxenos (cadena lineal) y los anfíboles (doble cadena) son los modelos básicos de
los polímeros inorgánicos.
Variando la estructura de los grupos laterales de las macromoléculas inorgánicas e
introduciendo otros átomos se consigue una amplia variedad de materiales con un enorme rango de propiedades diferentes. Ejemplos de estos polímeros son los vidrios, minerales como piroxenos y anfíboles, amiantos, asbestos, cerámicas y ladrillos.
Pueden formar polímeros inorgánicos el boro, aluminio, silicio, fósforo, nitrógeno, germanio y los metales de transición, dando lugar a polímeros como: Siliconas,
Boranos y Carboranos, Polifluoruros, Polifosfatos, Polisilicatos, Zeolitas, Caucho inorgánico, etc.
- Superconductores Inorgánicos. Las investigaciones sobre superconductores
están encaminadas a la obtención de materiales que presenten superconductividad a
altas temperaturas, e incluso a temperatura ambiente. Entre estos materiales se encuentra una familia de cerámicas denominadas perovskitas, cuya versátil estructura da lugar
a materiales con un amplio espectro de propiedades.
La mayoría de superconductores de altas temperaturas (100 K o más) descubiertos
hasta el momento pertenecen a la familia de las perovskitas que presentan defectos en su
estructura cristalina. Los defectos de los superconductores producen modificaciones de
la arquitectura cristalina ideal y dan lugar a nuevas propiedades, aunque no se pueden
prever éstas a partir de determinado defecto en las diversas clases de perovskitas.
Las perovskitas son compuestos del tipo ABX3 donde A y B son cationes metálicos y X aniones no metálicos, como por ejemplo el titanato de calcio CaTiO 3 .
5.2. Desarrollo en Química Orgánica.
La Química Orgánica se ha enfocado hacia procesos de síntesis de todo tipo de
compuestos, bien de interés experimental, industrial y biológico. Citaremos algunas de
las actuales líneas de desarrollo:
23/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
- Química Macromolecular. Las investigaciones en química macromolecular ha
permitido el desarrollo de la gran industria de los plásticos así como penetrar en los secretos de la vida. Actualmente se amplían conceptos y métodos para obtener materiales
más idóneos a las aplicaciones requeridas.
- Nuevos Polímeros Sintéticos. Debido a las numerosas aplicaciones que presentan estas sustancias, la tecnología de polímeros, favorecida por el avance de la síntesis
orgánica, ha desarrollado una gran cantidad de nuevos productos polimerizados de toda
clase de propiedades. Policloruros de vinilo, poliestireno, poliacrilatos, polietilenos,
poliésteres, poliamidas, polimidas, polifenilos, etc., constituyen algunas familias de
polímeros, nuevas materias que la química investiga y proporciona a la industria y a la
tecnología.
- Superconductores orgánicos. La conductividad eléctrica se ha observado en
ciertos cristales orgánicos de moléculas planas apiladas unas sobre otras en forma quebrada. La superconductividad observada hasta ahora sólo en materiales inorgánicos a
bajas temperaturas, fue detectada por primera vez en compuestos orgánicos en condiciones extremas de 0’9ºK y 12.000 atmósferas de presión. Pero las investigaciones evolucionaron con rapidez y se encontraron otras sustancias orgánicas superconductoras a
presión normal aunque a bajas temperaturas. El desarrollo y la investigación continúa en
la línea de obtener superconductores económicos a temperaturas más elevadas.
- Moléculas sintéticas autorreplicantes. En un intento de imitar a la Naturaleza
se investiga la creación de moléculas orgánicas sintéticas con capacidad de autorreplicarse, es decir, conseguir una molécula original que al encontrarse con trozos de sí
misma, los fuera juntando todos para formar copias o réplicas completas adicionales y
que el proceso continuara mientras existieran componentes de la molécula.
5.3. Desarrollo en Química Física.
La química física ha evolucionado considerablemente, arrastrada por el desarrollo
de la física moderna y de la mecánica cuántica. La investigación en química física es
muy variada, pero mencionaremos dos líneas de considerable importancia actual por la
repercusión que tiene en otros campos de la química y la industria.
El láser en química. La utilización del láser en química permite suministrar la
energía con la frecuencia necesaria para conseguir que los reactivos lleven a cabo las
reacciones en la forma más conveniente y con la energía precisa.
A escala de laboratorio se están logrando importantes éxitos en la separación de
isótopos, separación química, síntesis química, extracción de sustancias traza de corrientes gaseosas a las que se exige elevada pureza, etc. El rayo láser en la industria está
limitado por los aspectos económicos, pero los costos son ya competitivos en la industria farmacéutica y en la obtención de productos delicados.
Catalizadores bimetálicos. Los catalizadores constituyen una rama de investigación en química, de gran importancia, por el control que ejercen sobre la velocidad de la
reacción, con objeto de conseguir que las reacciones químicas se produzcan en condiciones óptimas. Importantes esfuerzos se realizan en la investigación de catalizadores
24/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
bimetálicos (dos metales) pues en situaciones en que a una molécula se le ofrecen varias
reacciones diferentes, los catalizadores bimetálicos suelen eliminar las reacciones indeseables y favorecer las deseables. Tiene muchas aplicaciones en la industria del refinado
del petróleo y en todas las operaciones de reformado de petróleo.
5.4. Desarrollo en Bioquímica.
Pero el desarrollo más espectacular de la química se ha dado en el campo de la
Bioquímica, ciencia que ha desentrañado la naturaleza de casi la totalidad de las moléculas que aparecen en la naturaleza de los seres vivos descubriendo además cómo son
sintetizadas y degradadas y los biocatalizadores (enzimas) que participan en ello.
La bioquímica ha evolucionado a su vez en biología molecular mediante su unión
con la biología, la genética, la microbiología, la biología celular, etc., dando lugar a una
ciencia independiente dentro de la cual se han desarrollado otras ramas como: la Inmunología, la Oncología, la Virología, la Enzimología, la Fisiología vegetal, etc.
Las líneas de investigación en bioquímica son numerosísimas, entre las que podemos destacar: Composición y Estructura de Proteínas, Estudio de los Anticuerpos, Fotosíntesis, Fijación del Nitrógeno atmosférico, Estudio de los Interferones, El A.D.N.
vírico, Estructura de los Acidos Nucleicos, Estudio de genes oncológicos, Estudio del
genoma humano, Evolución química y origen de la vida, etc.
BIBLIOGRAFIA RECOMENDADA
Gerald HOLTON y Duane H.O.ROLLER. Fundamentos de Física Moderna.
Editorial Reverté. BARCELONA.
Manuel R.ORTEGA GIRON. Lecciones de FISICA. Mecánica 1. Departamento
de Física Aplicada. Universidad de Córdoba. CÓRDOBA.
Santiago BURBANO DE ERCILLA, Enrique BURBANO GARCIA y Carlos
GRACIA MUÑOZ. Física General. XXXI Edición. Mira Editores. ZARAGOZA.
INVESTIGACION Y CIENCIA. Diversas revistas.
25/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria – Física y Química
Temario Específico – Tema 2
Tratamiento Didáctico
---------------------------------------------------------------------------------------------------------OBJETIVOS
Dar un panorama histórico del desarrollo de la Física y la Química.
Destacar las distintas teorías aparecidas para explicar los fenómenos físicos y
químicos.
Mostrar la implantación progresiva del método científico y la experimentación en la
ciencia a lo largo de la historia.
Exponer el panorama de las tendencias actuales en la investigación.
UBICACION
El tema debe ubicarse en el Primer curso de Bachillerato, aunque debe impartirse
como un tema transversal de carácter intercisciplinar, al tratarse fundamentalmente de
historia de la ciencia.
La segunda parte del tema, sobre los problemas de investigación, puede ubicarse en
Segundo curso de Bachillerato, en el segundo núcleo temático, igualmente como tema
transversal.
TEMPORIZACION
Dos horas de clase en primer curso de Bachillerato.
Dos horas de clase en segundo curso de Bachillerato.
METODOLOGIA
Se utilizará una metodología expositiva con participación crítica de los alumnos en
los diferentes desarrollos históricos.
Podrán utilizarse medios audiovisuales de ayuda a la exposición.
CONTENIDOS MINIMOS
Principales hitos del desarrollo científico en la historia.
Diferenciación de las ramas de Física y de Química a lo largo de la historia.
Líneas de investigación actuales en la ciencia.
MATERIALES Y RECURSOS DIDÁCTICOS
Libro de texto. Libros de consulta sobre historia de la ciencia.
Visita a museos de ciencia o museos de centros de enseñanza para contemplación de
aparatos antiguos de laboratorio.
Proyección de películas y vídeos relacionados con el mundo de la ciencia.
EVALUACIÓN
Pruebas objetivas sobre conceptos fundamentales del tema valorando comprensión,
memorización y aplicación de estos conceptos.
La observación por el Profesor de la actitud y el trabajo diario constituye un
instrumento valioso aunque subjetivo para la evaluación de cualquier tema.
26/ 26
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
TEMAS DE FÍSICA Y QUÍMICA
(Oposiciones de Enseñanza Secundaria)
------------------------------------------------------------------------------TEMA 3
MAGNITUDES FÍSICA Y QUÍMICAS. SISTEMA INTERNACIONAL DE
UNIDADES. LA MEDIDA. MÉTODOS DE ESTIMACIÓN DE LA INCERTIDUMBRE EN LA REALIZACIÓN DE MEDIDAS Y EN LA DETERMINACIÓN DE RESULTADOS.
Esquema
1. La Física, ciencia de medida
2. Magnitudes. Magnitudes físicas y químicas.
2.1. Medida de magnitudes.
2.2. Unidades.
2.3. Sistema de unidades.
3. Sistema internacional de unidades.
3.1. Magnitudes fundamentales y derivadas.
3.2. Magnitudes suplementarias.
3.3. Unidades y patrones.
3.3.1. Definición de unidades fundamentales.
3.3.2. Evolución histórica.
4. El proceso de medida.
4.1. Medidas de longitudes y ángulos. Nonius.
4.1.1. Aparatos calibrados.
4.1.2. Métodos indirectos de medida.
4.2. Medidas de masas.
4.3. Medidas de tiempos.
5. Ecuaciones de dimensión.
5.1. Análisis dimensional.
6. Incertidumbre en la realización de medidas.
6.1. Conceptos en la teoría de errores.
6.1.1. Errores sistemáticos y accidentales.
6.1.2. Error absoluto. Error relativo.
6.1.3. Propiedades de la media aritmética. Error cuadrático medio.
6.2. Estimación de errores en las medidas indirectas
6.3. Errores en la determinación de medidas experimentales.
6.3.1. Errores en los aparatos de medida.
6.3.2. Errores en cálculos con expresiones sencillas.
6.3.3. Errores en las distribuciones.
1/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
TEMA 3
MAGNITUDES FÍSICA Y QUÍMICAS. SISTEMA INTERNACIONAL DE
UNIDADES. LA MEDIDA. MÉTODOS DE ESTIMACIÓN DE LA INCERTIDUMBRE EN LA REALIZACIÓN DE MEDIDAS Y EN LA DETERMINACIÓN DE RESULTADOS.
1. LA FÍSICA, CIENCIA DE MEDIDA
El hombre siempre ha sentido curiosidad por el mundo que le rodea. Como
demuestran los primeros documentos gráficos, el hombre siempre ha buscado el modo
de imponer orden en la enmarañada diversidad de los sucesos observados en la naturaleza. Esta búsqueda del orden ha adquirido una diversidad de formas: una de ellas es la
religión, otra es el arte y una tercera es la ciencia. La palabra ciencia tiene su origen en
un verbo latino que significa "saber" pero ha dejado de significar meramente un conocimiento para referirse más bien a un conocimiento específico del mundo natural y lo que
resulta más importante a un conocimiento organizado de un modo especifico y racional.
Aunque las raíces de la ciencia son tan profundas como las de la religión o las del
arte, sus tradiciones son mucho más modernas. Solamente en los últimos siglos se han
desarrollado métodos para estudiar sistemáticamente la naturaleza. Del término griego
que significa naturaleza, viene la palabra física, y por ello, la Física debía ser una ciencia dedicada al estudio de todos los fenómenos naturales. En verdad, hasta principios
del siglo XIX se entendía la Física en este amplio sentido y de denominó filosofía natural. Sin embargo, durante el siglo XIX y hasta muy recientemente, la Física estuvo restringida al estudio de un grupo más limitado de fenómenos, designados con el nombre
de fenómenos físicos y definidos sin precisión como procesos en los cuales la naturaleza de las sustancias participante no cambia. Esta definición poco precisa de la Física ha
sido gradualmente descartada, volviéndose al concepto más amplio y fundamental de
antes. Por ello, podemos decir que la Física es una ciencia cuyo objetivo es estudiar los
componentes de la materia y sus interacciones mutuas. En este estudio se deben incluir
las técnicas de observación, reglas para el razonamiento y la predicción, las ideas para la
experimentación planificada y los modos de comunicar los resultados experimentales y
teóricos, todo ello englobado en lo que se denomina método científico.
La observación de un fenómeno es, en general, incompleta a menos que dé lugar a
una información cuantitativa. Para obtener dicha información se requiere la medición de
una propiedad física, y así la medición constituye una buena parte de la rutina diaria del
físico experimental. Lord Kelvin señaló: “Nuestro conocimiento es satisfactorio solamente cuando lo podemos expresar mediante números". Aunque esta afirmación es
quizás exagerada, expresa la filosofía que un físico debe tener en cuenta todo el tiempo
en sus investigaciones. La expresión de una propiedad física en términos de números,
requiere no sólo que utilicemos las matemáticas para mostrar las relaciones entre las
diferentes cantidades, sino también tener el conocimiento para operar con estas relaciones. Esta es la razón por la cual, la Matemática es el lenguaje de la Física y sin matemática es imposible comprender el fenómeno físico, tanto desde un punto de vista
experimental como teórico. La matemática es la herramienta del físico y debe ser manipulada con destreza de modo que su uso ayude a comprender en lugar de oscurecer su
trabajo.
2/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
2. MAGNITUDES. MAGNITUDES FÍSICA Y QUÍMICAS
Se define la Magnitud como toda aquella entidad que se puede medir entendiendo
por medir como comparar la entidad-magnitud con otra de la misma naturaleza que se
toma arbitrariamente como unidad.
Las leyes de la Física y la Química expresan relaciones entre magnitudes, como
por ejemplo: longitud, tiempo, fuerza, energía, temperatura, densidad, carga, intensidad
de campo, susceptibilidad magnética, etc.
En la práctica no podemos distinguir entre magnitudes físicas y químicas, es decir,
no hay un criterio claro que las diferencie. La única diferencia que podemos encontrar
en este sentido es que tal magnitud sea estudiada por la física (velocidad, aceleración,
fuerza,...) y tal otra sea estudiada por la química (actividad, polaridad, producto de
solubilidad,...) aunque muchas magnitudes son estudiadas indistintamente por físicos y
químicos, como por ejemplo, energía, temperatura, calor, densidad, etc. La frontera
entre física y química es difusa debido a que la diferenciación entre fenómenos en los
que no cambia la naturaleza de la sustancia (físicos) y en los que sí cambia la naturaleza
de la sustancia (químicos) no es precisa, como se ha visto anteriormente.
La física utiliza el criterio matemático de igualdad y suma para distinguir aquellas
entidades que son magnitudes (longitud, tiempo, masa, carga, energía,...) de aquellas
entidades que no son magnitudes (dolor, alegría, inteligencia, voluntad, odio,...). Las
magnitudes pueden igualarse entre sí y pueden sumarse para dar magnitudes de igual
naturaleza, por consiguiente se pueden considerar como cantidades algebraicas y se
pueden someter a los cálculos y procesos matemáticos.
2.1. Medida de Magnitudes.
La medición es una técnica por medio de la cual asignamos un valor numérico a
una propiedad física, como resultado de una comparación de dicha propiedad con otra
de igual naturaleza que tomamos como patrón, la cual se ha adoptado como unidad. Las
unidades de las magnitudes se eligen arbitrariamente procurando que éstas obedezcan
las leyes de la accesibilidad e invariabilidad, aunque a veces haya que hacer concesiones
poco naturales.
2.2. Unidades.
Las unidades de todas las magnitudes físicas pueden expresarse en función de un
pequeño número de unidades fundamentales con las que están relacionadas. Las unidades fundamentales, a su vez, están basadas en magnitudes físicas que se consideran
primarias y básicas. El número de magnitudes que se consideran fundamentales es el
mínimo que se requiere para dar una descripción consistente y no ambigua a todas las
magnitudes de la Física.
Las magnitudes que ordinariamente se consideran fundamentales son la longitud,
la masa y el tiempo y para justificarlo de una manera sencilla y evidente decimos que:
todo fenómeno natural ocurre en el espacio (longitud) y durante el transcurso del tiempo
(tiempo) y se produce sobre la materia (masa). Estas tres magnitudes constituyen la base
de un sistema de unidades.
3/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
2.3. Sistemas de Unidades.
El conjunto de unidades fundamentales perfectamente determinadas y las unidades patrones de estas magnitudes fundamentales, perfectamente definidas, constituyen
los cimientos de un sistema de unidades. Todas las demás magnitudes derivadas y sus
unidades, definidas a partir de las primeras, en perfecta compatibilidad y coherencia,
completan el llamado sistema de unidades.
La definición de un sistema de unidades compatible, es absolutamente imprescindible para la construcción sistemática de la ciencia física y gran parte de los esfuerzos
de los descubridores e investigadores a lo largo de los siglos de desarrollo de esta ciencia han estado encaminados a idear y establecer métodos de medición de magnitudes en
un sistema compatible, homogéneo y perdurable.
Ejemplos de los sistemas de unidades más conocidos, existentes antes del Sistema
Internacional actual, son:
Sistema C.G.S.:
Longitud (cm)
Sistema Giorgi:
Longitud (m)
Sistema Técnico: Longitud (m)
Sistema Inglés:
Longitud (pie)
Masa (g)
Masa (Kg)
Fuerza (Kp)
Masa (libra)
Tiempo (s)
Tiempo (s)
Tiempo (s)
Tiempo (s)
El Sistema C.G.S. que fue el que históricamente se implantó primero, presentó
inconvenientes graves para su extensión a todas las ramas de la Física pues se comprobó
que se desdoblaba en dos sistemas diferentes al estudiar la electrostática y la magnetostática (ramas que se estudiaron independientemente y con anterioridad a la electrocinética y el electromagnetismo) dando lugar a un sistema CGS electrostático absoluto y a
otro sistema CGS electromagnético absoluto diferente del anterior, presentando ambos
como comunes las unidades mecánicas de centímetro, gramo y segundo.
Esto de debió al desarrollo paralelo de las leyes de la Electrostática y de la
Magnetostática, fundamentadas en ambos casos en la ley de Coulomb que siendo válida
para las cargas eléctricas se aplicó teóricamente a los polos magnéticos como supuestas
entidades realmente existentes. Las experiencias de Oersted y los trabajos de Faraday
dieron lugar a la aparición del electromagnetismo (unificación de la electricidad y
magnetismo), la adopción del sistema Giorgi y su posterior conversión en el Sistema
Internacional de Unidades.
3. SISTEMA INTERNACIONAL DE UNIDADES
3.1.Magnitudes Fundamentales y Derivadas.
Las magnitudes físicas se clasifican a menudo en magnitudes fundamentales y
magnitudes derivadas. Tal división es arbitraria, puesto que una magnitud determinada
puede considerarse como fundamental en una serie de relaciones (un sistema de unidades) y como derivada en otra serie de relaciones (otro sistema de unidades).
Las magnitudes derivadas son aquellas cuyas operaciones de definición se basan
en otras magnitudes físicas (fundamentales o derivadas) y las operaciones de definición
de una magnitud derivada son conjuntos de operaciones de laboratorio que conducen a
4/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
un número y una unidad y que pueden incluir cálculos matemáticos. Ejemplos de magnitudes que ordinariamente se consideran como derivadas son: velocidad, definida como
el espacio recorrido en un tiempo unidad, aceleración definida como la variación de
velocidad en un tiempo unidad, densidad definida como la masa de un cuerpo por
unidad de volumen, etc.
Las magnitudes fundamentales son primarias y no se definen en función de otras
magnitudes físicas anteriores. En Mecánica, las tres magnitudes fundamentales son: longitud (L), tiempo (T) y masa (M) y todas las demás magnitudes físicas se deducen a
partir de éstas, por ejemplo velocidad (V=L/T=LT-1), aceleración (A=V/T=LT-2), fuerza
(F=M·A=MLT-2), trabajo (W=F·L=ML2 T-2), etc. Entre paréntesis se han escrito los símbolos que representan las dimensiones de las magnitudes y como puede verse las dimensiones de las magnitudes fundamentales se representan por una sola letra L, T y M,
mientras que las dimensiones de las magnitudes derivadas se representan por combinaciones u operaciones algebraicas de las dimensiones fundamentales.
3.2.Magnitudes Suplementarias.
Junto a estas magnitudes fundamentales y derivadas, el sistema de unidades se
completa con otras unidades suplementarias o auxiliares como son el ángulo plano y el
ángulo sólido.
- Angulo plano, porción de plano comprendida entre dos semirrectas que tienen un
origen común, medida según la apertura de las semirrectas.
- Angulo sólido, porción de espacio limitada por
una superficie cónica de origen en un punto
cuyas generatrices se apoyan en una curva cerrada que no pasa por el origen, medida según la
apertura de la superficie cónica. Constituye una
generalización a tres dimensiones de la noción de
ángulo plano
Fig. 1
3.3. Unidades y Patrones.
Es natural que si los resultados de la medición de un fenómeno físico deben proporcionarse a otras personas o deben publicarse, para que puedan ser reproducidos por
otros equipos investigadores, es necesario definir un sistema estándar aceptado internacionalmente.
En 1960, la XI Conferencia General de Pesas y Medidas (C.G.P.M.), estableció
reglas para decidir un conjunto de patrones correspondientes a las magnitudes fundamentales y se estableció un sistema de unidades que recibió el nombre de SISTEMA
INTERNACIONAL (SI) de unidades o Sistema MKS. En este sistema, las unidades de
masa, longitud y tiempo son: el Kilogramo (Kg), el metro (m) y el segundo (s) respectivamente.
Otras unidades fundamentales del SI que estableció la Conferencia son: la temperatura (K) -el grado Kelvin-, la intensidad de corriente eléctrica (A) -el amperio- y la
5/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
intensidad luminosa (C) -la Candela-. Estas seis unidades fundamentales son las
unidades básicas del Sistema Internacional (SI).
Posteriormente la XIV C.G.P.M. de 1971 amplió a siete las magnitudes
fundamentales con la adopción de la magnitud cantidad de materia y cuya unidad es el
mol.
Las unidades son elegidas basándose en un patrón ideal que tiene las siguientes
características:
- Debe ser perdurable, es decir, invariable en el espacio y en el tiempo.
- Fácilmente reproducible.
- Accesible.
A menudo son incompatibles algunas de estas características y tiene que hacerse
alguna concesión. Al principio se daba mayor importancia a la accesibilidad, pero las
exigencias cada vez mayores de la ciencia y de la tecnología, introdujeron la necesidad
de una mayor invariabilidad. Por ejemplo, las unidades tan usuales como la yarda, el
pie, la pulgada, son descendientes directos del brazo humano, del pie y del dedo pulgar.
En la actualidad no son satisfactorias las mediciones tan burdas de longitud y debe emplearse un patrón mucho menos variable y más riguroso aún a costa de una menor
accesibilidad.
3.3.1. Definición de Unidades Fundamentales.
Las definiciones de los patrones de las magnitudes fundamentales, lo que llamaremos unidades fundamentales, son los siguientes:
Longitud. Desde 1905 en que se celebró en París la III C.G.P M. en la que se
instituyeron las unidades patrón, el metro se definía como: El metro (m) es la longitud
que hay a 0o C entre dos trazos marcados en una regla de platino iridiado que se conserva en la Oficina Museo Internacional de Pesas y Medidas de Sèvres (París) y se
denomina metro patrón.
En 1960 la XI C.G.P.M. sin cambiar el modelo de metro patrón lo definió a partir
de un fenómeno atómico: El metro (m) es igual a 1.650.763’73 veces la longitud de
onda de la radiación electromagnética (raya roja) emitida por el isótopo 86 Kr en su
transición entre los estados 2p10 y 5d5 en el vacío cuando se calienta a la temperatura
del punto triple del nitrógeno.
La XVII C.G.P.M. de 1984 ha abolido la definición dada por la XI Conferencia,
que ha permanecido en vigor desde 1960 y la ha sustituido por la siguiente: El metro es
la longitud del trayecto recorrido por la luz en el vacío durante el tiempo de la fracción
1/299792456 de segundo. Esta definición ha permitido una realización del metro más
precisa y exacta mediante la utilización del láser y además tiene la ventaja de ser indestructible.
Masa. Igualmente la III C.G.P.M. estableció como unidad de masa, el kilogramo
patrón, como la masa de un bloque de platino iridiado conservado en el pabellón de
Breteuil, de Sèvres (París). El cilindro de Sèvres mide 3'9 centímetros de diámetro y 3'9
6/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
centímetros de altura y para todos los propósitos prácticos es igual a la masa de 10-3 m3
de agua destilada a 4ºC (1 litro).
La XI C.G.P.M. de 1960 ratificó como unidad de masa del SI el kilogramo internacional ya definido. Por analogía con el metro, podemos asociar el kilogramo a una
propiedad atómica diciendo que un kilogramo es igual a la masa de 5'0188·1025 átomos
del isótopo 12 C. En realidad, éste es el criterio adoptado al definir la escala internacional
de masas atómicas.
Tiempo. La unidad de tiempo, el segundo, se definió inicialmente como: la 86400
ava parte (1/86400) del día solar medio. El día solar es el intervalo entre dos pasos consecutivos del Sol por el meridiano de un mismo lugar de la Tierra. Como la velocidad
de la Tierra en su traslación anual alrededor del Sol no es constante, el día va variando
algo en el transcurso del año, por eso se toma el promedio de todo el año como día solar
medio. También se ha comprobado que por la acción de las mareas la velocidad de rotación de la Tierra alrededor de su eje tampoco es constante y disminuye de forma que el
día aumenta un 0'001 segundos cada siglo.
Por ello, la XI C.G.P.M. de 1960 definió el segundo como la fracción igual a
1/31.556.925'9747 del año tropical 1900.
El año tropical se define como el intervalo
de tiempo entre dos pasajes sucesivos de la
Tierra a través del Equinoccio Vernal, el
que tiene lugar aproximadamente el 21 de
marzo de cada año.
Si bien este patrón de segundo astronómico es más exacto que el patrón segundo
solar medio, se necesitaba un patrón material de segundo comparable a los estándares de
metro patrón y kilogramo patrón, lo que se ha logrado plenamente con el patrón atómico
de frecuencia, reloj atómico regulado por el comportamiento magnético de los átomos
de cesio.
Los relojes están basados en las mediciones de los
tiempos de oscilación de ciertos átomos en las moléculas
adecuadamente excitadas. Por ejemplo, la molécula de
amoniaco NH3 tiene una estructura piramidal como se
indica en la fig. 3, con los tres átomos de hidrógeno en la
base y el átomo de nitrógeno en el vértice. Existe una posición simétrica N’ para el átomo de Nitrógeno a la misma
distancia del plano H-H-H pero en el lado opuesto. El átomo de N puede oscilar entre estas dos posiciones con un
periodo fijo.
El segundo puede definirse como el tiempo necesario para que el átomo de N realice 2'387·1010 de tales oscilaciones. El primer reloj atómico basado en este principio
fue Construido en el National Bureau of Standards en 1948.
La XIII C.G.P.M. de 1967-68 adoptó para el segundo el patrón atómico de
frecuencia con la definición actual, provisional: El segundo es la duración de
7/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
9.192.631.770 períodos de la radiación que corresponde a la transición de dos niveles
hiperfinos del estado fundamental del átomo de cesio-133.
Los relojes atómicos estaban en esa fecha en etapa de rápido desarrollo y esta es la
razón por la que se adoptó el segundo de cesio solo de forma temporal. Por ejemplo, el
Máser de Hidrógeno promete producir un reloj que tenga un error de sólo un segundo en
33 millones de años.
Como complemento de las unidades fundamentales exponemos los prefijos que la
Conferencia de Pesas y Medidas autoriza para designar múltiplos y submúltiplos de las
unidades de todas las magnitudes físicas:
MÚLTIPLO/SUBMÚLTIPLO
1018
1015
1012
109
106
103
102
101
100 =1
10-1
10-2
10-3
10-6
10-9
10-12
10-15
10-18
PREFIJO
Exa
Peta
Tera
Giga
Mega
Kilo
Hecto
Deca
Unidad
deci
centi
mili
micro
nano
pico
femto
atto
ABREVIATURA
E
P
T
G
M
k
h
da
d
c
m
µ
n
p
f
a
El Sistema Internacional se impuso en España por Decreto Ley del 8 de Noviembre de 1967, en el que en su artículo primero, se le declara de uso legal y en su artículo
cuarto establece que las unidades del sistema internacional serán de enseñanza obligatoria, en el nivel que corresponda, en todos los centros docentes.
3.3.2. Evolución histórica.
El metro y el kilogramo son unidades originariamente introducidas durante la
revolución francesa, cuando el gobierno francés decidió establecer un sistema racional
de unidades, conocido desde entonces como el sistema métrico, para sustituir el sistema
caótico de unidades inconexas y arbitrarias utilizado hasta entonces.
El metro se definió inicialmente como la diezmillonésima parte de un cuadrante
de meridiano terrestre que pasa por París. Con dicho propósito se midió cuidadosamente un arco de meridiano, operación que llevó unos cuatro años y se fabricó una barra
patrón de platino iridiado (90%Pt+10%Ir) de sección en X con dos muescas en sus
extremos que distaban exactamente 1 metro y se conservó bajo condiciones controladas
a 0º C en la Oficina Internacional de Pesas y Medidas. Así lo estableció la I C.G.P.M.
8/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
celebrada en París en 1889. La copia número 24 de este prototipo, depositada en el
Instituto Catastral de Madrid, fue el patrón legal para España.
La longitud del metro patrón es inferior en 228'8 millonésimas a la distancia,
posteriormente medida con mayor precisión, de la diezmillonésima parte del cuadrante
del meridiano terrestre que pasa por París, que fue su primera definición y se decidió
adoptar la longitud de la barra como el metro-patrón sin más referencia al meridiano terrestre. Sin embargo, como todo patrón material está sujeto a deformaciones o eventualidades, se reconoció la conveniencia de tener una definición de patrón de carácter
permanente y de fácil accesibilidad en cualquier laboratorio.
Por esta razón se escogió la línea roja del Kripton-86. La longitud de onda que se
escogió es precisamente característica del Kr-86 y está definida con gran precisión. Este
isótopo se puede obtener con gran pureza, con relativa facilidad y hasta cierto punto, a
bajo costo. A partir de este isótopo se estableció la definición de metro patrón que hemos dado anteriormente.
4. EL PROCESO DE MEDIDA.
4.1. Medidas de Longitudes y Angulos Nonius.
La medida de muchas magnitudes físicas queda reducida a la determinación de
longitudes o de ángulos, recurriéndose con frecuencia, para la medida más precisa de
fracciones de milímetro o de grado de ángulo, a un sencillo artificio conocido con el
nombre de nonius, que consiste en una escala graduada móvil que se desliza a lo largo
de la regla graduada o limbo circular graduado, sobre el que se ha de realizar la lectura
de la medida, permitiendo apreciar una fracción de la división más pequeña de la regla o
limbo.
Supongamos que el nonius abarque m-1 divisiones de la regla o limbo y dividamos dicha longitud en m partes iguales. Lo que apreciará el nonius será la diferencia
entre el valor de una división de la regla y una del nonius, o sea:
m −1 1
1−
=
m
m
es decir, l/m del valor de la división de la regla. Así, por ejemplo, si ésta viene dividida
en milímetros y el nonius se ha construido tomando 9 mm y dividiéndolo en 10 partes,
la precisión del nonius será p=l/10 mm. Si se trata de un limbo dividido en medios
grados y el nonius abarca 29 divisiones, distribuidas en 30 partes, su precisión será:
1
P =  .30' = 1'
 30 
Para medir una longitud o un ángulo, con un nonius, se coloca el cero del nonius
coincidiendo con el extremo de la longitud (o ángulo) que se desea medir y se hace la
lectura R de la división anterior al cero del nonius (en la figura de la medida del tornillo
9/24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
R=6 mm). Para determinar la fracción de división que representa la longitud comprendida entre dicha división y el cero del nonius, basta ver qué división de éste coincide con
una de la regla. El número de orden de dicha división indica el número de veces que
aquella fracción (en la figura, 0'1 mm) es mayor que la precisión del nonius (en la figura
es 4 o sea 0'4 mm, resultando una medida de 6'4 mm).
4.1.1. Aparatos Calibrados.
Otros instrumentos para medidas de
longitudes, fundamentados en el nonius son
el calibrador o pie de rey y el catetómetro. El
primero de ellos, representado en la figura 5,
permite realizar mediciones de grosores
(zona 1), de anchuras interiores (zona 2) y de
profundidades (zona 3).
El catetómetro se emplea para medir distancias verticales entre dos puntos. Este
aparato se impone cuando los puntos cuya diferencia de niveles se trata de medir, no
están sobre la misma vertical. Consiste en un anteojo astronómico de eje óptico horizontal, móvil al rededor de un eje vertical, en el que se desliza. Este eje lleva una escala
graduada en la que se realizan las lecturas
.
Otros aparatos para medir pequeñas longitudes con gran precisión están fundamentados en el tornillo micrométrico. Entre éstos tenemos el Palmer y el Esferómetro.
El primero, representado en la figura 6, se utiliza para medir pequeñas distancias como
grosores y espesores de cuerpos como monedas, láminas, etc. con precisiones que alcanzan los 0'01 mm y el segundo, representado en la figura 7, se utiliza para medir la curvatura y el radio de superficies esféricas.
4.1.2. Métodos indirectos de medida.
No todas las longitudes se pueden medir de forma directa es decir, comparando
directamente la magnitud a medir con el patrón de medida o una copia autorizada del
mismo, o utilizando aparatos calibrados actuando directamente sobre la magnitud, pues
en realidad los aparatos calibrados son copias más o menos elaboradas y sofisticadas del
patrón de medidas, el metro.
Muchas medidas han de hacerse de manera indirecta, utilizando métodos algebraicos, trigonométricos, radioeléctricos o atómicos, para lograr una medida con una preci-
10/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
sión fiable. Por ejemplo, para medir la distancia entre una estación de lanzamiento de un
cohete y la superficie de la Luna, se utilizaría una señal de radar enviada desde la estación, la cual sería reflejada en la superficie de la Luna y recogida en un receptor en la
estación emisora. El tiempo transcurrido entre emisión y recepción permite medir la distancia deseada.
Las distancias astronómicas, tales como las distancias de las estrellas a la Tierra,
se pueden medir por métodos de triangulación trigonométrica. Análogamente en topografía se utiliza la medida de ángulos y la triangulación para medir distancias, alturas,
cotas, etc. También hay que utilizar métodos indirectos para medir distancias muy
pequeñas, tales como las distancias interatómicas e intermoleculares. Por ejemplo, se ha
medido el radio del protón mediante experimentos de dispersión de partículas. Las distancias interatómicas e intermoleculares se miden por métodos de difracción de rayos X
y difracción de electrones, etc.
En la medida de ángulos suelen utilizarse frecuentemente dos unidades: el grado y
el radián. La circunferencia de un círculo está arbitrariamente dividida en 360 grados,
un ángulo recto corresponde a 90º, cada grado esta dividido en 60' (minutos) y cada
minuto está dividido en 60" (segundos) y la medida de un ángulo cualquiera se expresa
en grados, minutos y segundos.
El radián es la unidad standard de ángulos aceptada
en el Sistema Internacional de Unidades y por consiguiente la unidad oficial de ángulos en física. Para expresar un
ángulo en radianes, se traza con radio arbitrario R, el arco
AB, fig.8, con centro en el vértice O del ángulo. La medida del ángulo α en radianes se definirá como:
arco 1
α=
=
radio R
donde 1 es la longitud del arco AB subtendido a la distancia R del centro O. Este
método se basa en el hecho de que dado un ángulo, la relación 1/R es constante e independiente del radio, es la medida del ángulo en radianes y no tiene dimensiones. El
ángulo de 1 radián es aquel que subtiende un arco igual a su radio. Como la circunferencia de un círculo es L=2πR, vemos que un ángulo completo alrededor de un punto, equivale a 2π radianes o 360º.
2π
360
1º =
rad.= 0’017453 rad.
1 rad =
= 57º 17’ 44.9”
360
2π
El valor del ángulo sólido se expresa
en estereoradianes (esterad) y se obtiene
aplicando la relación:
S
Ω= 2
R
donde S es el área del casquete esférico de
radio R interceptado por el ángulo sólido.
Como el área de una esfera es 4πR2 , el
ángulo sólido completo alrededor de un
punto es 4π estereorradianes. El ángulo
sólido comprendido entre los tres ejes
coordenados positivos OX, OY y OZ será:
Figura 9
11/ 24
www.eltemario.com
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
1
π
Ω = .4π =
8
2
estereorradianes
4.2. Medidas de Masas.
Hemos de distinguir entre masa pesante o gravitatoria y masa inerte. Masa pesante o gravitatoria es una propiedad inherente de la materia en virtud de la cual los
cuerpos se atraen entre sí independientemente del medio en que se encuentren. A la
fuerza con que la Tierra atrae a un cuerpo de masa m, se llama peso: P=m·g y para
medir la masa de un cuerpo en un lugar determinado de la tierra bastará determinar su
peso.
Para la medida de la masa se utiliza
una balanza de brazos iguales como la de
la Fig.10. Se dice que los cuerpos C y C'
tienen masas iguales, cuando colocados
ambos en los platillos de la balanza, ésta
permanece en equilibrio. En realidad la
balanza mide masas por comparación de
los pesos de los cuerpos.
Otras variantes de la balanza con mayor o menor precisión son: los granatarios o
balanzas monoplato, la romana que es en realidad una balanza de brazos desiguales y la
gran variedad de pesos monoplatos, de resorte o electrónicos que han proliferado en el
mercado.
La Masa Inerte es la medida cuantitativa de la inercia de un cuerpo, resistencia
que opone un cuerpo a modificar su estado de reposo o de movimiento. De la segunda
ley de Newton F=m·a , se define la masa inerte como la constante de proporcionalidad
entre la fuerza aplicada y la aceleración producida.
La masa inerte puede medirse a través de las aceleraciones producidas por una
fuerza conocida. Por ejemplo, si una fuerza determinada produce una aceleración
a1 =1 m/s2 sobre un cuerpo patrón y la misma fuerza produce una aceleración, digamos
de a2 = 4 m/s2 sobre un segundo cuerpo, la masa de este último es:
a
1m / s 2
m 2 = 1 .m1 =
.1 Kg = 0'25 Kg
a2
4 m / s2
El cociente de las aceleraciones a1 /a2 producidas por la misma fuerza sobre dos
cuerpos es independiente del módulo y dirección de la fuerza. Es también independiente
del tipo de fuerza utilizado, es decir, bien sea la fuerza debida a muelles, empuje de
gravedad, atracciones eléctricas o magnéticas, etc.
4.3. Medidas de Tiempos.
Cualquier fenómeno que se repita periódicamente se puede usar para medir el
tiempo; la medición consiste en contar el número de repeticiones de dicho fenómeno
periódico y compararlo con un determinado número de repeticiones que se tomará como
patrón o unidad de tiempo. Así, por ejemplo, se han usado la caída de arena contenida
en un recipiente (reloj de arena), el paso de una aguja ayudada por una rueda, las
12/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
oscilaciones de un péndulo, las oscilaciones de un resorte en hélice o las oscilaciones de
un cristal de cuarzo. Como fenómenos repetitivos que se presentan en la naturaleza
disponemos, por ejemplo, la rotación de la Tierra alrededor de su propio eje, la cual
determina la duración del día, o la rotación de la Tierra alrededor de1 Sol, la cual
determina la duración del año.
Los requerimientos de mayor precisión en la medida del tiempo introdujeron los
relojes de cristal de cuarzo, basados en las vibraciones naturales periódicas de una oblea
de cuarzo, activadas y mantenidas eléctricamente. Pero el oscilador de periodicidad más
perfecta, la máxima precisión con la que se ha llegado a medir el tiempo es el llamado
reloj atómico.
El oscilador empleado en el reloj atómico se basa en que los electrones giran alrededor del núcleo (modelo de Bohr) con frecuencias muy estables. Sea ν 1 la frecuencia
de un electrón en una capa y ν 2 en otra. Para pasar un electrón de una capa a otra
debemos suministrar al electrón una energía ∆E=h(ν1 -ν2 ) en un horno de radiación
calorífica que excita a los electrones. Éstos vuelven a sus capas de origen y la energía
absorbida la devuelven como onda electromagnética muy estable y de elevadísima
frecuencia. A la salida del horno, un filtro selecciona una onda de la frecuencia que
necesitamos y se hace llegar a una cavidad resonante donde allí es registrada electrónicamente mediante unos circuitos especiales llamados divisor de frecuencias. Colocando
cuantos divisores de frecuencia sean necesarios se consigue reducir la frecuencia hasta
que salga, por ejemplo, un impulso por segundo, obteniéndose el reloj más exacto que
se ha construido.
Las funciones de un reloj de este tipo son la fijación del patrón de tiempo, la
medida de tiempos muy pequeños y obtener gran exactitud en la medida de intervalos
de tiempo. Con esta técnica y la incorporación del láser, se han logrado impulsos láser
de 3·10-14 s de duración.
5. ECUACIONES DE DIMENSION.
La palabra dimensión tiene un significado especial en la Física. Representa la
naturaleza cualitativa de una cantidad física; aunque una distancia se mida en pies o en
metros, es una distancia, y se dice que su dimensión es de una longitud.
Los símbolos que se utilizan para especificar las dimensiones de longitud, masa y
tiempo son L, M y T, respectivamente. A menudo se utilizarán corchetes [] para representar las dimensiones de una magnitud física. Por ejemplo, con esta notación, las
dimensiones de la velocidad, v se escriben [v]=L/T y las dimensiones de un área, A
serán [A]=L2 .
Ejemplos de magnitudes y sus ecuaciones de dimensiones son:
Velocidad v
[v] = L/T = LT-1
Aceleración a
[a] = [v]/T = LT-2
Fuerza F
[F] = M·[a] = MLT-2
Trabajo W
[W]= [F]·L = ML2 T-2
Energía Cinética EC
[EC] = M·[v]2 = ML2 T-2
Potencia P
[P] = [W]/T = ML2 T-3
13/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
5.1. Análisis Dimensional.
En muchos casos es posible que se plantee el problema de deducir o verificar una
fórmula específica, a partir de las magnitudes que intervienen. Aunque se hayan olvidado los detalles de la deducción, existe un procedimiento útil y poderoso, conocido como
análisis dimensional, que puede utilizarse con el fin de ayudar en la deducción o
comprobación de la expresión final. También se usa para comprobar la homogeneidad
de una ecuación y para minimizar su memorización. El análisis dimensional hace uso
del hecho de que “las dimensiones se pueden tratar como cantidades algebraicas”.
Con el fin de ilustrar este procedimiento, vamos a suponer que queremos deducir
la ecuación de Torricelli, de la velocidad de salida de un líquido en una vasija abierta,
por un orificio practicado en el fondo, sabiendo que los factores de los que depende la
velocidad son la densidad del líquido y la presión hidrostática del líquido en el orificio:
v = f (p, ρ)
que expresaremos así:
v ∝ p n ρm
donde n y m son exponentes que deben determinarse y el símbolo ∝ indica proporcionalidad. Esta relación sólo es correcta si las dimensiones de los dos miembros son las
mismas (expresión homogénea). Ya que la dimensión del primer miembro es la de una
velocidad, la dimensión del segundo también debe ser una velocidad, luego escribiremos:
[v ] = [ p ]n [ρ]m
sustituyendo las dimensiones de la velocidad LT-1, de la presión hidrostática ML-1T-2, y
de la densidad ML-3 resultará:
(
)(
)
LT −1 = ML−1T −2 . ML−3
o sea
LT −1 = M n +m L− n − 3 m T − 2 n
igualando los exponentes en ambos miembros para cumplir la homogeneidad de la
ecuación:
n+ m=0
de la 3ª se deduce
n =1 2
− n − 3m = 1
y sustituyendo en la 2ª : m = ( −n − 1) / 3 = ( −1 / 2 − 1) / 3 = −1 / 2
− 2n = −1
p
por tanto se concluye que:
v α p1/2 ρ-1/2 =
ρ
En este resultado no se incluye un factor numérico que aparece en la expresión de
Torricelli, quedando finalmente así:
2p
v=
ρ
n
m
6. INCERTIDUMBRE EN LA REALIZACIÓN DE MEDIDAS
6.1. Conceptos en la teoría de errores
En todas las ciencias aplicadas se opera con datos numéricos obtenidos mediante
medidas y observaciones que nunca pueden ser absolutamente exactas. Medir una magnitud física con una precisión infinita carece de significado, pues por mucho cuidado
que se ponga en la realización y por muy perfecto que sea el aparato, siempre existirá la
posibilidad de efectuarla con mayor precisión.
Por otro lado, al realizar una medida es porque desconocemos su valor exacto, por
tanto al valor obtenido en la medida experimental nunca podremos saber en qué grado
14/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
se acerca al valor exacto o si coincide con él. En muchos casos, en las fórmulas
empleadas en las medidas intervienen números irracionales, como π, e, logaritmos,
funciones trigonométricas, etc., que no pueden tomarse con todas las cifras decimales,
lo que influye que los resultados adolezcan de un cierto error.
El efecto de los errores en las medidas se hace aún más acentuado por el hecho de
que siempre que se realiza una medida, se perturba el sistema que se desea medir y cambian sus condiciones iniciales.
Todas estas circunstancias nos demuestran que los resultados de las medidas
experimentales vienen afectados de una cierta incertidumbre que es preciso determinar
en cada caso, pues es la que nos indica la calidad de la medida realizada y debe
acompañar siempre al resultado. Así, por ejemplo, no es lo mismo dar el resultado de
una pesada en la siguiente forma: 3’235 ±0’001 g que en esta otra: 3’2350 ±0’0001 g
pues la primera indica que la pesada tiene dos cifras decimales seguras, mientras que la
segunda tiene tres. En ambos casos 0’001 y 0’0001 g representan el error o incertidumbre de nuestra medida.
La aproximación con que ha de efectuarse una medida, esto es, la incertidumbre
del resultado, depende del objetivo que se persiga y de la naturaleza misma de la
medida, pero, en último termino, lo importante es conocerla de antemano, como error
máximo (cota máxima de error) de que puede venir afectado el resultado.
El conocimiento del error cometido en una medida experimental tiene gran
importancia para saber:
1) La exactitud de los resultados obtenidos.
2) El mínimo de cifras decimales que hay que tomar para resolver problemas, evitando
cálculos penosos e inútiles.
6.1.1. Errores Sistemáticos y Accidentales
Los errores sistemáticos son aquellos que están producidos por un defecto del
instrumento de medida, aparatos más calibrados o una tendencia errónea del observador.
Estos errores se registran siempre en el mismo sentido y sólo pueden ser puestos de
manifiesto cambiando de aparato de medida o de observador.
Los errores accidentales son los debidos a pequeñas causas imponderables e
imposibles de controlar, que alteran, ya en un sentido, ya en otro, los valores hallados.
Tales son, por ejemplo, pequeñas fluctuaciones de la temperatura, presión atmosférica,
humedad relativa o simplemente la imperfección esporádica de nuestros sentidos y
métodos de medida. Este tipo de errores que no podemos evitar, pueden compensarse
realizando muchas medidas y tomando la media aritmética de los resultados como
resultado final.
Los errores accidentales no pueden conocerse para cada medida aislada, pues su
distribución obedece a las leyes del azar y sólo cabe determinar un límite superior que
viene dado por la precisión de las medidas realizadas.
15/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
6.1.2. Error Absoluto. Error Relativo.
Un error de 1 gramo cometido en la pesada de unos pocos gramos de un metal
precioso, resulta inadmisible, mientras que el mismo error al pesar una tonelada carece
de importancia. De ahí la necesidad de definir el error absoluto y el relativo de una
medida.
Se llama error absoluto de una medida o de un número aproximado a la diferencia, con su signo, entre el valor aproximado a e el calor exacto x :
∆x = a − x
pero, en general, el valor exacto, x es desconocido y en la práctica se adopta para x el
valor medio de un gran número de observaciones, o simplemente se asigna a ∆x un
cierto valor límite o cota superior de error. Así, por ejemplo, cuando realizamos una
pesada hasta el centigramo, admitimos que:
∆x ≤ 0'01 g
o bien, cuando tomamos el número π = 3’141 con tres cifras decimales, sabemos que:
∆π ≤ 0'001
El error absoluto no sirve para juzgar el grado de aproximación o la calidad de una
medida. Para esto es preciso definir el error relativo, que se define como el cociente
entre el error absoluto ∆x y el valor exacto de la magnitud x, o sea:
∆x
ε=
x
Como x es, en general, desconocido, se determina el límite superior de error relativo ε dividiendo la cota máxima de error absoluto entre el número que resulta sustituyendo por ceros todas las cifras que siguen a la primera significativa del número aproximado de la medida. Así, por ejemplo, la cota máxima de error relativo del número π cuando se toma con tres cifras decimales π = 3’141, será:
0'001
1
ε=
=
= 0'00033
3
3000
Con frecuencia, los errores relativos se expresan en tanto por ciento, El resultado
anterior sería de un 0’033%. La inversa del error relativo da el grado de precisión de la
medida.
6.1.3. Propiedades de la media aritmética. Error cuadrático medio.
Al ser desconocido el valor exacto de una medida, suele sustituirse por la media
aritmética de los resultados obtenidos en muchas medidas individuales. El tomar la
media como valor exacto de una medida no es una decisión intuitiva y arbitraria sin
fundamento matemático, sino que está apoyado en dos propiedades fundamentales de la
media que la hacen la medida más aproximada al valor exacto. Estas son:
- La media aritmética de una serie de medidas tiene un error absoluto menor que
el de cualquiera de las medidas individuales.
- La media aritmética hace mínima la suma de los cuadrados de los errores
absolutos individuales.
Para demostrar la primera propiedad, consideremos x el valor exacto de la magnitud x i y ei los valores experimentales de las medidas y sus errores absolutos respectivamente, o sea:
16/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
x1 = x ± e1
x2 = x ± e2
x3 = x ± e3
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
sumando miembro a miembro resulta:
x1 + x2 + x3 + ... + xn = n · x ± (e1 + e2 + e3 + ... + en )
...........................
xn = x ± en
el primer término del segundo miembro es:
x1 + x 2 + ... + x n
∑ xi
= xm =
n
n
es la media aritmética de todas las medidas individuales y el segundo término es:
e1 + e2 + ... + en
n
es su error absoluto (o sea la media aritmética de los errores absolutos) y que teniendo
en cuenta los signos individuales comprobamos que es menor que todos los errores de
las medidas individuales. Si existiesen infinitas medidas, la media de sus errores absolutos sería nula. Podemos escribir:
x = xm ± em
Para demostrar la segunda propiedad, de que la media aritmética hace nula la
suma de los cuadrados de los errores, consideramos los errores absolutos de las medidas
efectuadas:
± e1 = x − x1
elevando al cuadrado cada ecuación y sumando m. a m. Resulta
∑e
± e2 = x − x2
2
i
= n.x 2 − 2.x.∑ x i + ∑ x i2
o sea: ∑ ei2 (suma de los cuadrados de los errores) es una función de x, cuyo valor mínimo lo toma cuando la derivada primera de dicha función se anula y se despeja el valor de x.
∑ xi
f ' ( x) = 2.n.x − 2.∑ x i = 0
y despejando x :
x=
n
que es la media aritmética de los valores de las medidas encontradas.
± e3 = x − x3
……………
± en = x − xn
Resulta útil definir el error cuadrático medio como el error absoluto de la media
aritmética de una serie de valores de una magnitud pues ya hemos demostrado que este
error cuadrático es el mínimo.
El error cuadrático medio E viene dedo por la expresión:
E=
∑e
2
i
N ( N − 1)
que demostraremos a continuación.
Si llamamos: ai = valores obtenidos en mediciones
x i = errores absolutos exactos = ay - x
(1)
ei = errores absolutos probables = ai – x m
(2)
siendo:
x = valor exacto y x m = media aritmética
restando miembro a miembro las ecuaciones (1) y (2) resulta:
x i − ei = x m − x = E
(error de la media)
y sumando miembro a miembro las ecuaciones que resultan para i=1,2,3,…
(3)
∑ ei = ∑ x i − N ·E
y como
∑e
i
=0
resulta:
E=
∑x
17/ 24
N
i
(4)
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
Elevando al cuadrado y sumando m. a m. las ecuaciones ei = x i – E resulta:
(5)
∑ ei2 = ∑ xi2 − 2·E ·∑ x i + N· E 2
como la media de los cuadrados de los errores se expresa: e m2 =
la expresión (5) resultará:
em2 =
y sustituyendo (4) resultará:
em2 =
De la expresión (4)
∑e
2
i
N
∑x
2
i
=
∑x
2
i
N
−
2· E· ∑ xi
− 2 ⋅ E2 + E2 =
N
∑x
2
i
∑e
2
i
N
sustituyendo en
+ E2
− E2
(6)
N
N
N · E = ∑x i = x1 + x 2 + x 3 + ... y elevando al cuadrado:
N 2 E 2 = x12 + x22 + x32 + ... + 2 x1 x2 + 2 x1 x3 + 2 x1 x4 + ... = ∑ xi2 + 2 ⋅ ∑ xi x j
y considerando signos: ∑x ix j = 0
luego
N 2 E 2 = ∑ xi2
y sustituyendo en la expresión (6) tendremos:
x2
em2 = ∑ i − E 2 = N ⋅ E 2 − E 2 = E 2 ( N − 1)
N
em2
2
2
despejando E tendremos: E =
y sustituyendo aquí la ecuación que define la
N −1
e2
media de los cuadrados de los errores: em2 = ∑ ei2 / N resulta: E 2 = ∑ i
o sea:
N ( N − 1)
E=
∑e
2
i
c.q.d.
(7)
N ( N − 1)
según esto, la medida de una magnitud, después de numerosos ensayos, se expresará
así:
x = xm ± E
6.2. Estimación de errores en las medidas indirectas.
Muchas veces se plantea el problema de averiguar el error cometido en la determinación de una magnitud cuando, no siendo posible medirla directamente, se ha recurrido
a la medida de otras magnitudes ligadas a aquélla por una fórmula conocida. Para resolverlo, hay que conocer los límites de error de las magnitudes que se miden y aplicar el
cálculo infinitesimal, hallando la diferencial de la función, considerando los errores
como diferenciales, o incrementos físicamente pequeños. He aquí unos ejemplos:
1) Calculemos el error cometido al determinar una superficie rectangular por la
medida de sus dimensiones a y b:
S=a·b
tomando incrementos (S±∆) = (a±∆a) · (b±∆b)
simplificando
∆S = a · ∆b + b · ∆a
y dividiendo por
S=a·b
∆S ∆S ∆a ∆b
εs =
=
=
+
= εa + εb
S
a.b a
b
que nos indica que el error relativo ε=∆S/S es igual a la suma de los errores relativos
cometidos en la medida de las dimensiones a y b.
18/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
2) Calcular el área del círculo, con su error, cuando su radio viene dado por R =
0’325 ± 0’001 m. Considerando los errores absolutos como incrementos de la medida y
éstos equivalen, en Física, a diferenciales, tendremos:
S = π · R2
y
∆S = 2πR · ∆R + R2 · ∆R
(adviértase que por ∆π representamos el error absoluto cometido al operar con un número finito de cifras decimales del irracional π). Dividiendo miembro a miembro, la expresión anterior por S = π · R2 :
∆S
∆S
∆R ∆π
=
= 2⋅
+
2
S
π⋅R
R
π
De manera que el error relativo introducido en la determinación de la superficie
∆R 2 × 0'001
2
2
viene dado por:
2⋅
=
=
<
= 0'00667 ≅ 0'70%
R
0'325
325 300
y para ello bastará tomar π con un número de cifras decimales tal que su error relativo
∆π
sea:
<< 0'70%
π
y esto se consigue tomando π = 3’141 para que el error introducido por esta aproximación no influya en el resultado S.
∆π 0'001 0'001
1
=
<
=
= 0'000333 ≅ 0'04%
π
3'141 3'000 3000
y el resultado final se expresará: S = π · R2 = 0’332 ± 0’003 mm2 pues 0’003 mm2 es,
por exceso, el 0’7% del resultado de 0’332 mm2 .
3) Hay más casos en que, en lugar de tomar la derivada logarítmica resulta más
fácil diferenciar totalmente la expresión v=f(x,y,z,...) que da la magnitud v en función de
varias variables x, y, z,...:
∂f
∂f
∂f
dv =
⋅ dx +
⋅ dy +
⋅ dz + ...
∂x
∂y
∂z
y asimilando las diferenciales a errores de medida, resulta:
∂f
∂f
∂f
εv =
εx +
εy +
ε + ...
∂x
∂y
∂z z
y así obtenemos la expresión fundamental del cálculo de errores en las medidas indirectas, donde, en ella, ε x ,εy ,ε z,.. representan los errores absolutos cometidos en la medida x,y,z,...y ε v el error absoluto con que vendrá afectada la determinación de la magnitud v.
6.3. Errores en la determinación de medidas experimentales.
6.3.1. Errores en los aparatos de medida.
Cuando trabajamos con aparatos de medida, hemos de tener en cuenta tres conceptos muy importantes que vamos a considerar: exactitud, precisión y sensibilidad.
Un aparato será exacto si las medidas que se realizan con él son todas muy próximas al valor exacto de la magnitud medida.
Un aparato será preciso si la diferencia entre diferentes medidas de la misma
magnitud es muy pequeña.
19/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
La exactitud implica normalmente precisión, pero la inversa no es necesariamente
cierta, ya que pueden existir aparatos muy precisos que posean poca exactitud debido a
errores sistemáticos, de los del tipo indicado anteriormente. En general, se puede decir
que es más fácil conocer la precisión de un aparato que conocer su exactitud.
La sensibilidad de un aparato está relacionada con el valor mínimo de la magnitud
que es capaz de medir. Por ejemplo, decir que la sensibilidad de una balanza es de 5 mg
significa que para masas inferiores a la citada, la balanza no presenta ninguna desviación. Normalmente se admite que la sensibilidad de un aparato viene indicada por el
valor de la división más pequeña de la escala de medida. En muchas ocasiones, los
conceptos de sensibilidad y precisión se toman como idénticos, aunque ya hemos visto
que en realidad hay diferencias entre ellos.
En adelante, y cuando se trate de medidas que sólo se han podido realizar una vez,
tomaremos como error absoluto de una medida, la sensibilidad del aparato que hemos
utilizado, admitiendo además que la precisión será del mismo orden de magnitud que la
sensibilidad de dicho aparato.
Si medimos una magnitud física cuyo valor exacto (?) es x0 , obteniendo en la
medida el valor x, llamaremos error absoluto de dicha medida a la diferencia: ∆x=x-x0
donde se supone que: ∆x<< x0 y el error relativo ε, sea el cociente ε = ∆x/x0 y en
forma porcentual sería: (∆x/ x) · 100 (%).
Al estimar el error cometido en una medida, la situación es diferente si se trata de
una medida única o por el contrario la medida se ha repetido N veces. Siempre que sea
posible, es necesario realizar varias medidas repetitivas, lo que nos permitirá reducir de
forma considerable el error relativo, al mismo tiempo que se pueden manifestar los posibles errores accidentales que se hayan podido cometer.
Cuando se trata de una medida única (medida directa con un aparato calibrado), se
tomará como valor “exacto” a la propia medida x = x0 , y como error (o indeterminación
en este caso) la propia sensibilidad del aparato. Así, cuando pretendemos medir una
longitud mediante una regla graduada en mm, su sensibilidad es, en este caso, de 1 mm
(1 división) y el error relativo sería (1 mm)/ x estando x medida en milímetros. Es de
advertir que el error total podría ser mayor si se tienen en cuenta los posibles errores
sistemáticos (por ejemplo, una regla deficientemente calibrada).
Cuando se trata de una medida repetida N veces, se tomará como valor exacto la
media aritmética de las mismas, es decir:
x
x=∑ i
i = 1, 2, 3, ..., N
N
El error con que vendría afectado este valor medio, lo calcularemos más adelante,
cuando tratemos los parámetros que habitualmente se utilizan para expresar el grado de
dispersión de las medidas experimentales.
6.3.2. Errores en cálculos con expresiones sencillas
Supongamos que hemos determinado experimentalmente el valor de una cierta
magnitud física así como su error absoluto, de acuerdo con las reglas indicadas anteriormente. Si esta magnitud, junto con otras, forma parte de una expresión algebraica senci20/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
lla, ¿en qué manera y en qué extensión, el error cometido en cada una de estas magnitudes influye en el resultado final, determinado mediante la expresión algebraica?. Para
obtenerlo, veamos previamente que el error absoluto definido así:
∆x=x-x0
 ∆x 
puede ponerse en la forma:
x = ∆x + x0 = x0 
+ 1 = x0 (ε + 1)
(8)
x
 0

a) Error en una suma o diferencia
Supongamos una expresión del tipo: F = a ± b donde cada una de las variables a
y b vienen afectadas por errores absolutos ∆a y ∆b, respectivamente. De acuerdo con la
expresión (8) se verificaría que:
F = a ± b = (a0 + ∆a ) ± (b0 + ∆b ) = (a0 ± b0 ) + (∆a + ∆b )
y situándonos en el caso más desfavorable, en el que el error final es la suma de los
errores individuales, nos quedaría finalmente:
F = a ± b = (a0 ± b0 ) + (∆a ± ∆b )
(9)
por lo que enunciamos la siguiente regla: el error absoluto de una suma o diferencia es
la suma de los errores absolutos de cada uno de los sumandos.
b) Error de un producto
Si la expresión es del tipo F = a·b de acuerdo con (8) podemos escribir:
F = a ⋅ b = a0 (1 + εa ) ⋅ b0 (1 + εb ) = a0 ⋅ b0 ⋅ (1 + εa + εb )
(10)
donde hemos despreciado el término ε aε b por ser mucho menor que los errores individuales: ε aε b<< εa ó ε b. Por todo ello podemos enunciar la siguiente regla: el error
relativo de un producto es la suma de los errores relativos de sus factores.
c) Error en un cociente
Si la expresión es ahora del tipo F=a/b, aplicando la expresión anterior tendríamos que:
a a (1 + ε a ) a n
F= = n
=
⋅ (1 + εa ) ⋅ 1 − εb + εb2 − εb3 + ....
b bn (1 + εb ) b n
y despreciando los términos de grado 2 y superiores, por ser muy pequeños, resulta:
a
a a
F = = n ⋅ (1 + εa ) ⋅ (1 − εb ) = n ⋅ (1 + εa − εb )
b bn
bn
donde también hemos despreciado el término ε aε b, por ser muy pequeño; y poniéndonos
en el caso más desfavorable, nos queda finalmente:
a a
F = = n ⋅ (1 + εa + εb )
b bn
lo que nos permite definir que el error relativo de un cociente es la suma de los errores
relativos del dividendo y del divisor.
(
)
6.3.3. Errores en las distribuciones
Cuando se trata de medidas de referidas a la misma magnitud, el conjunto de los
valores xi (i = 1 ,2, 3,...., N) presenta una determinada distribución. Tomaremos como
21/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
valor cierto o valor exacto de dicha magnitud a la media aritmética de las medidas x i,
como ya hemos dicho anteriormente:
∑ xi
x=
N
expresión que, para el caso de repetirse con frecuencia f i alguna de las medidas x i, se
convierta en la siguiente:
∑ f i xi
x=
N
Es muy importante dar una idea de la dispersión de las medidas alrededor de la
media x , ya que una pequeña dispersión indica un alto grado de precisión en las
medidas.
Existen tres parámetros para indicar la dispersión de una distribución de medidas
experimentales y son el alcance o rango, la desviación media y la desviación estándar.
El alcance o rango se define como la diferencia existente entre el valor más bajo y
el más alto de la distribución de todas la medidas.
La desviación media es la media aritmética de las desviaciones que cada medida
presenta respecto al valor medio x de todas las medidas, es decir:
∑ di = ∑ x − xi
d =
N
N
La medida más importante de dispersión es la desviación estándar. Se define tal
parámetro en función de los cuadrados de las desviaciones de las medidas respecto a la
media, en la forma:
σ=
∑d
∑ (x − x )
2
=
N
N
El cuadrado de la desviación estándar es la varianza (σ2 ) de la distribución.
i
i
En una serie repetida de medidas de la misma magnitud, la distribución de éstas
alrededor de la media presenta una forma típica llamada distribución gaussiana o
distribución normal. Puede demostrase que el conjunto de medidas experimentales que
forman una distribución se dispersan alrededor del valor medio de forma que:
el 68’3% están comprendidas entre x − σ y x + σ
el 95’4% están comprendidas entre x − 2σ y x + 2σ
el 99’7% están comprendidas entre x − 3σ y x + 3σ
Para asignar errores a magnitudes cuya medida
se ha repetido N veces, de forma que conocemos su
distribución experimental, tomaremos como valor
cierto su media aritmética, y como su error absoluto,
la desviación estándar de la distribución. De esta
forma el valor de la magnitud x se expresaría así:
x ±σ .
22/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
BIIBLOGRAFÍA RECOMENDADA
Gerald HOLTON y Duane H. ROLLER. Fundamentos de Física Moderna.
Editorial. Reverté. BARCELONA.
Marcelo ALONSO y Edward J. FINN. Física. Vol. 1. Mecánica. Addison-Wesley
Iberoamericana. MÉJICO.
Mario GUERRA, Juan CORREA, Ismael NUÑEZ y Jaun MIGUEL SCARON.
Física. Elementos y Fundamentales. Mecánica y Termodinámica Clásica. Tomo 1.
Editorial. Reverté. BARCELONA.
Joaquín CATALA DE ALEMANY. Física General. SABER, Entidad Española de
Librería. VALENCIA..
Raymond A. SERWAY. Física. Nueva Editorial Interamericana. MÉJICO.
Wolhelm H. WESTPHAL. Prácticas de Física. Editorial Labor. BARCELONA.
José Luis GALÁN GARCÍA. Sistemas de Unidades Físicas. Editorial. Reverté.
BARCELONA.
23/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 3
Tratamiento Didáctico
---------------------------------------------------------------------------------------------------------OBJETIVOS
Sentar las bases del estudio de la Física y la Química como ciencias de medida.
Establecer un sistema coherente de magnitudes y unidades para la medida que tenga
carácter universal
Iniciar al alumno en el cálculo de errores y su influencia en los resultados de las
medidas.
Inculcar actitudes de coherencia, precisión y coordinación en el estudio de cualquier ciencia.
UBICACIÓN
El tema puede iniciarse en 3º curso de ESO, dentro de las Ciencias de la Naturaleza
aunque de forma sencilla y de iniciación. Con mayor profundidad se desarrollará en 4º
de ESO, y especialmente el cálculo de errores, en 1º de Bachillerato
TEMPORALIZACIÓN
Para dedicar a Magnitudes y Medidas: 2 horas de clase.
Para dedicar a cálculo de errores: 3 horas de clase.
Se empleará una hora adicional para realizar ejercicios, cuestiones o prácticas.
METODOLOGÍA
Explicación exhaustiva de los conceptos del tema, mediante una metodología activa
forzando, con preguntas, la intervención del alumno para el razonamiento y discusión e
ilustrando con situaciones de la vida real, que le sean familiares.
Indagar en los conocimientos previos para construir sobre ellos el razonamiento de
los conceptos básicos de este tema.
Inculcar al alumno la utilización de un adecuado lenguaje científico claro y coherente que le facilite una adecuada y correcta expresión oral.
Deberá completarse con resolución de problemas numéricos, realización de prácticas de medidas, recopilación de datos, construcción de gráficas, etc.
CONTENIDOS MÍNIMOS
Concepto de magnitud. Unidad. Idea de medida.
Sistema de unidades. Sistema Internacional de Unidades (SI).
Concepto de Patrones y su definición.
Concepto de error. Errores absoluto y relativo. Interpretación.
MATERIALES Y RECURSOS DIDÁCTICOS
Libro de Texto. Libros de consulta para ilustraciones y fotografías que nos muestren aparatos de medida, patrones y gráficos propios del tema.
Instrumentos de medida propios del laboratorio para examen por el alumno.
Lectura de textos sobre la historia de la Física en los capítulos dedicados a la medida y al establecimiento de las unidades y patrones fundamentales.
EVALUACIÓN
Pruebas objetivas sobre los conceptos fundamentales del tema, valorando comprensión, memorización y aplicación de estos conceptos a situaciones reales.
Pruebas escritas sobre aplicaciones numéricas: problemas.
Valoración de las prácticas realizadas en el aula o en el laboratorio.
La observación del profesor de la actitud y el trabajo diario del alumno constituye
un instrumento valioso, aunque subjetivo, para la evaluación en cualquier tema.
24/ 24
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
TEMAS DE FÍSICA Y QUÍMICA
(Oposiciones de Enseñanza Secundaria)
------------------------------------------------------------------------------TEMA 1
PRINCIPALES CONCEPCIONES DE LA CIENCIA. LOS GRANDES CAMBIOS: LAS REVOLUCIONES CIENTÍFICAS. LA CIENCIA COMO UN PROCESO
EN CONTINUA CONSTRUCCIÓN: ALGÚN EJEMPLO EN FÍSICA Y EN QUÍMICA. LOS CIENTÍFICOS Y SUS CONDICIONAMIENTOS SOCIALES. LAS ACTITUDES CIENTÍFICAS EN LA VIDA COTIDIANA.
Esquema
1. Introducción a la Ciencia.
2. Principales concepciones de la Ciencia.
2.1. Concepción Descriptiva de la Ciencia.
2.2. Concepción Creativa de la Ciencia.
2.3. Concepción Comprensiva de la Ciencia.
3. Evolución de la Ciencia en la Historia.
3.1. La ciencia primitiva y en la antigua Grecia.
3.2. La revolución científica del siglo XVII.
3.3. La revolución industrial del siglo XIX.
3.4. La Ciencia en la época actual.
4. La Ciencia y su construcción.
4.1. Definición. Objeto y alcance de la Ciencia.
4.2. El método científico.
4.2.1. Etapas del método científico.
4.2.2. Aspectos empíricos.
4.2.3. Aspectos racionales.
5. Ejemplo de construcción de un hecho científico
5.1. Naturaleza y propagación de la luz.
6. Los científicos y sus condicionamientos sociales.
6.1. Los condicionamientos sociales a la investigación en España.
6.2. Las motivaciones de los científicos españoles.
7. Las actitudes científicas en la vida cotidiana.
1/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
TEMA 1
PRINCIPALES CONCEPCIONES DE LA CIENCIA. LOS GRANDES CAMBIOS: LAS REVOLUCIONES CIENTÍFICAS. LA CIENCIA COMO UN PROCESO
EN CONTINUA CONSTRUCCIÓN: ALGÚN EJEMPLO EN FÍSICA Y EN QUÍMICA. LOS CIENTÍFICOS Y SUS CONDICIONAMIENTOS SOCIALES. LAS ACTITUDES CIENTÍFICAS EN LA VIDA COTIDIANA.
1. INTRODUCCIÓN A LA CIENCIA
La Ciencia estudia la Naturaleza. Es la respuesta a la enorme curiosidad mostrada
por el hombre, desde la antigüedad más remota, en todas las civilizaciones del planeta, a
conocer el entorno que le rodea, describir sus fenómenos, tratar de poner un orden y una
explicación, a veces razonable y a veces exotérica, de todo lo que en ella observaba. Al
principio de la civilización, se manifestaban todas estas observaciones mediante el arte
(rupestre, megalítico,...) y en los comportamientos religiosos y rituales, siendo los
sacerdotes y los magos los depositarios de estos saberes, que guardaban celosamente.
Posteriormente fue apareciendo la ciencia (del griego scientia=saber) que recogía, recopilaba, explicaba y explotaba los avances en el conocimiento de los fenómenos naturales. Actualmente la Ciencia puede considerarse como "el conocimiento sistemático, ordenado y racional del comportamiento de la Naturaleza". Hemos de entender que el
término "Naturaleza" se utiliza, bien para describir el sistema material objeto de estudio,
sea éste reducido o extenso (una célula, un bosque, un planeta, el Universo entero,...) o
bien, en un sentido más filosófico, como el conjunto de materia y las leyes que regulan
el comportamiento de esta materia y sus cambios.
El origen de la ciencia como conocimiento racional de la naturaleza, es muy profundo en el tiempo y se confunde con otras actividades humanas como el arte, la agricultura, la religión, la tecnología primitiva, etc, pero la Ciencia, como actividad sistemática de estudio racional de mundo natural y su consiguiente aprovechamiento en
beneficio del hombre, comienza a desarrollarse desde hace tres siglos hasta la época
actual, cuyo crecimiento ha sido espectacular.
En el estudio de los fenómenos de la naturaleza, se pueden considerar tres concepciones o aspectos diferenciadores: una concepción descriptiva, una concepción creativa
y una concepción de comprensión o cognoscitiva.
2. PRINCIPALES CONCEPCIONES DE LA CIENCIA
2.1. Concepción Descriptiva de la Ciencia.
El trabajo científico comienza necesariamente con la observación y la descripción
de los fenómenos de la Naturaleza. Desde la remota antigüedad, el hombre ha observado en su entorno fenómenos terrestres, meteorológicos, atmosféricos, astronómicos, etc.
que llaman poderosamente su atención por la espectacularidad y la incidencia que ejerce
en su vida, trata de describirlos, explicar su regularidad y las influencias sobre la vida
humana. Todas las civilizaciones han observado, por ejemplo, el movimiento regular de
los astros en el cielo y han tratado de explicar su influencia sobre la vida en la tierra,
como el transcurrir de las estaciones, los fenómenos meteorológicos e incluso el destino
2/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
de la vida humana, dando lugar, en este último caso a la Astrología. Tras observar el
movimiento de los astros durante siglos, se estableció un modelo de universo, inicialmente ptolemaico (con centro en la Tierra) y posteriormente copernicano (con centro en
el Sol) y newtoniano (sometido a fuerzas de gravedad), basado en una diferente interpretación del movimiento de estrellas y planetas.
Investigadores como Tycho Brahe, Kepler, Copérnico, Newton y posteriormente
Eisntein, establecieron el modelo cosmológico, basándose en las observaciones y medidas cuidadosamente recopiladas durante años y siglos de observación. El establecimiento de modelos sobre el comportamiento de la naturaleza, y el modelo cosmológico es un
ejemplo significativo, es la manifestación del carácter descriptivo de la ciencia basado
en la observación cuidadosa y la recogida de datos. Los primitivos pensadores, al no dar
con la explicación racional de un fenómeno, lo achacaban, generalmente a fuerzas de
carácter divino o exotérico
2.2. Concepción Creativa de la Ciencia.
Mientras los movimientos de los astros y las estrellas, considerados ordenados y
perfectos, se encuadraban en la llamada Mecánica Celeste, perfecta, inmutable y divina,
los movimientos de los cuerpos sobre la superficie terrestre, complejos, irregulares y
caóticos y debidos a múltiples causas, se estudiaban en la llamada Mecánica Terrestre,
imperfecta y terrenal. Movimientos como objetos en caída libre, corrientes de aire, vuelo de un pájaro, caída de un meteorito, corrientes oceánicas, etc. no tuvieron explicación
racional hasta el nacimiento de la Física como ciencia, gracias a las bases sentadas por
Galileo, que realizó experimentos, tomó medidas y sacó conclusiones, es decir, abordó
el problema del movimiento, de manera creativa, aplicando lo que se llamaría mas
tarde como el Método Científico.
Cuando los fenómenos de la Naturaleza que se estudian, presentan situaciones
complejas, porque dependen de múltiples factores, la experimentación requiere simplificarlos a situaciones sencillas y elementales. Los experimentos se realizan en condiciones ideales, reducidos a la situación más simple para observar y medir su evolución. No
basta observar la Naturaleza sino que es necesario reproducirla en el laboratorio, lo que
pone de manifiesto la labor creativa de la Ciencia. Pero no basta en reproducir experimentos de la Naturaleza en el laboratorio, sino que la ciencia crea nuevos experimentos
de laboratorio sobre comportamientos inéditos de la materia, a fin de encontrar respuestas a los interrogantes planteados. La experimentación es la base de la ciencia, ya que
ella confirma o anula hipótesis, teorías o leyes físicas, ya que, estas últimas, las leyes
físicas, constituyen la expresión matemática de los conocimientos de los fenómenos naturales.
2.3. Concepción Comprensiva de la Ciencia.
En la ejecución del método científico, tras la observación y la experimentación, se
establecen una serie de conclusiones ciertas y definitivas, que regulan el comportamiento del fenómeno estudiado. Son como las leyes que lo rigen. Por ejemplo: dos cuerpos
se atraen con fuerzas directamente proporcional a sus masas e inversamente proporcional al cuadrado de la distancia que los separa, un cuerpo al calentarlo se dilata en proporción directa al incremento de su temperatura, el empuje sobre un cuerpo sumergido
en un fluido depende del volumen de fluido desalojado que a su vez depende del volu-
3/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
men del cuerpo, etc. Esto no es mas que una descripción del funcionamiento del fenómeno, (es el ¿cómo?). Es necesario buscar ahora una explicación de este comportamiento, (el ¿por qué?). Para ello, los científicos establecen teorías que estén de acuerdo con
los resultados de los experimentos. Pero, mientras los resultados de los experimentos
ofrecen poca discusión, las teorías que los explicas están en permanente revisión hasta
tomar forma definitiva como ley física.
En la historia de la ciencia, algunos fenómenos han sido explicados por varias
teorías a veces contradictorias, dando lugar a encendidas polémicas, como ha ocurrido
con la naturaleza de la luz, disputada por la teoría ondulatoria y por la teoría corpuscular. Las características que debe reunir una buena teoría, son:
-No debe estar en contradicción con la observación de la naturaleza ni con los hechos experimentales. (Recordemos la antigua teoría del fluido calórico, que consideraba
el calor como un fluido que entra y sale de los cuerpos cuando se calientan o enfrían
produciendo sus efectos –variación de temperatura, dilatación, cambio de estado- sin
que se alterara la masa de estos cuerpos, lo que contradecía los hechos experimentales).
-Pocas hipótesis de la teoría deben explicar gran cantidad de fenómenos aparentemente inconexos. (Actualmente el calor se explica dentro de la teoría más amplia de la
Conservación de la energía, mediante la cual se explican fenómenos tan dispares como
la energía que desprenden las reacciones químicas, el intercambio de energía en los
campos de fuerzas, la energía que entra en juego en los procesos nucleares, los
fenómenos meteorológicos y su desarrollo, etc.).
-Debe tener capacidad de predecir fenómenos aún no observados y una vez encontrados éstos comprobar la exactitud de las predicciones. (Recuérdese que el planeta
Neptuno -y más tarde Plutón-, fue reiteradamente buscado por los astrónomos, pues el
planeta Urano no se comportaba como preveía la teoría de la gravitación, a no ser que
detrás de él hubiese un objeto masivo que producía fuertes alteraciones gravitatorias y
deformaba la órbita de Urano).
En no pocas ocasiones, una teoría ha sido el resultado de una idea genial sólo propia de la intuición de un genio creador, gracias a la cual se ha abierto un camino nuevo
en la investigación. Tal es el caso de la hipótesis cuántica lanzada por Max Planck, sin
mucha convicción, de la hipótesis de la dualidad onda-corpúsculo, lanzada por Louis De
Broglie, etc.
3. EVOLUCIÓN DE LA CIENCIA EN LA HISTORIA
Los periodos más relevantes de la evolución científica a lo largo de toda la
historia, son los siguientes: 1) La ciencia primitiva y en la antigua Grecia, 2) la revolución científica del siglo XVII, 3) la revolución industrial del siglo XIX y 4) la ciencia en
la época actual.
3.1. La Ciencia primitiva y en la antigua Grecia.
En la antigüedad, la ciencia estaba en manos de los sacerdotes de las primitivas
religiones, sobre todo en las civilizaciones babilónica y egipcia, y su utilización era más
eminentemente práctica encaminada a la ganancia material y al mantenimiento del
poder que al interés cognoscitivo de la Naturaleza. El saber científico se componía de
numerosas observaciones sistemáticas sobre las que se basaban ciertas generalizaciones
4/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
empíricas pero no se buscaban teorías de tales observaciones. Bastaba el conocimiento
descriptivo lo que daba autoridad y poder.
La búsqueda de teorías comenzó con el auge de la civilización ateniense. Los griegos aportan este segundo componente de la actividad científica, sin embargo no profundizaron demasiado debido a la fuerte influencia de su mitología que les llevó a sustituir
la observación y la experimentación por la especulación y la valoración del pensamiento
científico para explicar la concepción del mundo físico. A esta época pertenece la primera teoría sobre constitución de la materia (agua, aire, tierra y fuego) popularizada por
Empédocles y la teoría atomística de Leucipo y Demócrito. Influencia fundamental
ejerció Aristóteles, aunque desigual en las diferentes disciplinas, pues mientras aplicó la
observación en medicina y biología, no salió de la simple especulación en las ciencias
de la naturaleza y la astronomía.
En el periodo de Alejandro Magno, la ciencia griega se desarrolla desde la ciudad
de Alejandría (Egipto) que él fundó. Comienza el abandono de la ciencia especulativa y
se concentra en la observación sistemática y la creación de métodos. A esta época pertenece la obra de Euclides "Los Elementos" cuya influencia se ha extendido durante 2000
años y la valiosa aportación de Arquímedes, iniciador de la hidrostática. La más importante aportación de la época fue la teoría geocéntrica de Claudio Ptolomeo, que en su
obra "Almagesto" elabora un tratado sistemático del movimiento de los astros, admitidos por los astrónomos hasta la época de Nicolás Copérnico.
Con el imperio romano se desmorona poco a poco la cultura científica griega, a lo
largo de varios siglos hasta la caída definitiva de Roma y Bizancio y la llegada de los
árabes. Las invasiones de los pueblos bárbaros y de los árabes no supusieron aportaciones notables al conocimiento científico. Sólo los árabes se convirtieron en los herederos
de Grecia, a cuyo patrimonio cultural unieron éstos el conocimiento de la matemática
hindú y la medicina hebrea. Los árabes no aportaron ideas innovadoras pero enriquecieron notablemente la ciencia griega desarrollando la observación y la sistematización.
3.2. La revolución científica del siglo XVII.
La unión del mundo árabe con el Occidente de la edad media en estado de aletargamiento cultural dio lugar al humanismo cuyas características se pueden exponer como
una mayor amplitud de puntos de vista y concepciones ideológicas, un desarrollo del
conocimiento secular no eclesiástico, un conocimiento y una enseñanza no practicada
exclusivamente por monjes y sacerdotes ni limitada a temas, conceptos y conocimientos
aprobados por la Iglesia. El Renacimiento es comparable a la ascensión de Atenas, ya
que en ambos períodos se produce una libre comparación de ideas en conflicto, con el
consiguiente avance de la filosofía y de la ciencia, llevada a cabo por personas de concepciones esencialmente renovadas.
En el Renacimiento comienza a fraguarse lo que sería la revolución científica del
siglo XVII. Con este nombre se conoce al periodo entre la mitad del siglo XVI hasta
finales del XVII, en el que se desarrolló una actividad científica inusitada que estableció
sólidamente los cimientos para el trabajo científico de los siglos siguientes. En este largo periodo la ciencia se proyecta tanto sobre el simple y puro conocimiento (ciencia
pura) como sobre la aplicación de esta ciencia, la técnica (ciencia aplicada) lo que lleva
al desarrollo industrial y económico de las sociedades.
5/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
El avance en Astronomía marcó la pauta para otras ciencias. La teoría heliocéntrica de Copérnico acaba con la ya insostenible idea geocéntrica de Ptolomeo y revoluciona aspectos físicos hasta entonces inamovibles (sencillez en el movimiento de los astros,
desarrollo de la mecánica celeste, etc.), aspectos prácticos de gran utilidad (reforma de
calendario, simplificación en las técnicas de orientación y navegación, etc.) y aspectos
filosóficos (evolución en las ideas sobre la creación del Universo, la presencia del hombre en la Tierra, etc.)
Otros investigadores, además de Copérnico, contribuyeron a revolucionar la ciencia astronómica, como fueron: Johannes Kepler con sus tres leyes sobre el movimiento
de los astros, Galileo Galilei que introdujo el telescopio como herramienta de observación del firmamento con el cual descubrió los satélites de Júpiter (satélites galileanos).
Además de la Astronomía, la Mecánica experimentó un gran desarrollo en sus
concepciones. La concepción aristotélica resultó inadecuada para explicar los concepto
de la nueva astronomía. Galileo y Newton se encargaron de elaborar la nueva mecánica,
de carácter científico y adecuada para explicar la nueva teoría heliocéntrica. Los principios de Newton sobre la dinámica del movimiento de los cuerpos, ha supuesto un paradigma de tal solidez que aún hoy son objeto de estudio en todos los cursos de Física.
Esta revolución científica se caracteriza por la eliminación definitiva del método
especulativo y el triunfo del método científico como procedimiento único de avanzar en
el conocimiento de la naturaleza. La ciencia especulativa, aunque cultivada por hombres
de la categoría de Descartes, fue perdiendo paulatinamente su credibilidad, al comprobarse que sus objetivos estaban fuera de las posibilidades del hombre. El triunfo de la
razón sobre la autoridad, tuvo una influencia definitiva en la sociedad afectando a la
ciencia, a la religión, y a la política.
3.3. La revolución industrial del siglo XIX
En los siglos XVIII y XIX, los científicos apoyaron sus trabajos y sus hipótesis en
las teorías que surgieron de la revolución científica, fundamentalmente en las ciencias
más avanzadas de la época, como la matemática, la astronomía y la física. En este período se van a producir revoluciones en otras ciencias que todavía no la habían experimentado como es la química y la biología.
Los trabajos de Boyle sentaron las bases de las nuevas teorías de la constitución
de la materia. Pero el verdadero fundador de la nueva química fue Lavoisier, cuyos trabajos, junto con los de Danton, fueron la base experimental de las leyes fundamentales
sobre las reacciones de las sustancias químicas. La química abandona su base especulativa y exotérica, cultivada por la alquimia y se erige en una auténtica ciencia.
El cambio más espectacular corresponde a la Biología, con la teoría de la evolución de Charles Darwin, que afectó, no sólo a la propia ciencia biológica sino que sacudió, una vez más el espíritu humano. La idea de evolución desempeña un papel importante en otras ciencias. Así, se habla de la evolución de las Galaxias, en Astronomía, de
la evolución geológica, etc.
Pero el acontecimiento más relevante de este período fue el auge del maquinismo
y el espectacular desarrollo de la industria, que hasta entonces había estado en manos de
6/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
los gremios (origen de la burguesía) y que su desarrollo, merced a nuevas fuentes de
energía, supuso un cambio revolucionario en la sociedad. Los primeros desarrollos industriales se producen el Inglaterra, en el campo de la industria textil y posteriormente
en la industria del carbón y del acero, lo que facilitó grandemente la construcción de
máquinas de hierro, especialmente la máquina de vapor, que a su vez desarrolló el
transporte y las comunicaciones.
A primeros del siglo XIX se extiende por toda Europa y América el desarrollo
industrial, empezando fundamentalmente por la industria textil, tanto para la lana, hilo y
algodón. Aunque inicialmente utilizaba energía hidráulica, la proliferación de fábricas
obligó a adoptar máquinas de vapor y de carbón. Se desarrolló grandemente la minería
del carbón, la industria del hierro, la construcción de máquinas para la mecanización de
la industria textil, la fabricación de armas, la industria química, etc.
Todo este desarrollo industrial viene posibilitado por un avance paralelo de la
ciencia, especialmente la Física y la Química. La aplicación de los principios de la
Física y la Química a los problemas prácticos han dado lugar a las diversas ramas de la
Ingeniería y la Tecnología. La Ciencia y la Tecnología se necesitan y se apoyan mutuamente. La una no podría existir sin la otra. Es verdad que el desarrollo científico ha
posibilitado el desarrollo tecnológico, pero también es cierto que la ciencia necesita de
la tecnología tanto como ésta de aquélla.
3.4. La Ciencia en la época actual.
En el Siglo XX, la ciencia sufre una nueva revolución. La creciente aplicación
tecnológica del conocimiento científico propició la aparición de nuevos métodos de
medición y observación, que permitió la investigación profunda de nuevos horizontes
del universo, tanto en el macromundo (estudio del sistema solar, galaxias, expansión del
universo, etc.), como en el micromundo (estudio de la estructura de la materia, estructuras cristalinas, radiaciones electromagnéticas, moléculas, átomos, radiactividad, núcleos atómicos, quarks, etc.).
Todo ello tuvo como consecuencia un cambio radical en nuestra concepción de la
materia y del universo. La ciencia de los siglos anteriores, basada en las concepciones
newtonianas de espacio, tiempo y materia se vio desbancada, a comienzos del siglo XX
por la concepción electromagnética de la materia y la energía, la hipótesis cuántica y el
desarrollo de la teoría cuántica, la teoría de la relatividad restringida y general, las
teorías de las interacciones fundamentales, etc.
El átomo ya no es una entidad indivisible. Está constituido por un complejo sistema de partículas elementales, que poseen masa, carga eléctrica y otras características
fundamentales que le confieren nuevas propiedades. El movimiento de las partículas
atómicas no se podía explicar por las leyes de la mecánica tradicional (mecánica clásica
o newtoniana) y hubo que introducir nuevas hipótesis sobre el comportamiento de
dichas nuevas entidades. Surge así la mecánica cuántica, que ha supuesto una nueva
concepción del mundo físico, especialmente a nivel de las partículas elementales. Por
otro lado, los conceptos absolutos de espacio y tiempo se vieron modificados por la
teoría de la relatividad de Eisntein, lo que dio lugar a una nueva teoría de la gravitación,
aún no plenamente establecida y comprobada.
7/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
El desarrollo espectacular de las ciencias físico-químicas durante el presente siglo,
se ha visto acompañado de su igualmente espectacular aplicación a la tecnología de tal
manera que las condiciones de vida en el planeta (países desarrollados y en vías de desarrollo) han cambiado en el intervalo de este siglo más que en varios siglos anteriores.
Pongamos como ejemplo, el desarrollo de la aeronáutica: mientras que alrededor del
1900 el hombre iniciaba sus primeros vuelos individuales en artefactos primitivos y con
gran riesgo de su vida, 70 años después (1969) el hombre volaba a la Luna y ponía su
pie en la superficie del satélite.
La segunda mitad del siglo XX se ha visto marcada por los siguientes nuevos
avances científicos:
a) En Biología, el descubrimiento de la base molecular de las estructuras de los
ácidos nucleicos, que constituyen los caracteres genéticos hereditarios de las células. La
biología molecular ha experimentado, en estos últimos años, un desarrollo exponencial
en todos los campos de la experimentación: síntesis de proteínas, descifrado del código
genético, inmunología, estructuras celulares, control de procesos biológicos, aplicaciones a la medicina, oncología, etc.
b) En Física, la consecución de la fisión nuclear controlada e importantes avances
en la fusión nuclear, el control de la luz coherente y el desarrollo del láser y toda la
tecnología de aplicaciones del láser a que ha dado lugar y que es de todos conocidas.
También se ha avanzado en el estudio de las interacciones fundamentales a nivel del
núcleo atómico y se investiga en la búsqueda de una teoría unificadora de las cuatro
interacciones fundamentales del universo.
c) En Astrofísica el desarrollo ha sido enorme, fundamentalmente debido a dos
causas: primera, al gran avance de los instrumentos de observación, no sólo en el
espectro visible sino en otros rangos del espectro electromagnético (rayos X, infrarrojo,
ultravioleta, microondas, rayos gamma, etc.) y segunda, la utilización de satélites artificiales como plataformas de observación del universo, fuera de la contaminada atmósfera
terrestre. La ciencia astrofísica investiga la Vía Láctea, otras galaxias del grupo local,
galaxias lejanas, materia oscura, nacimiento, evolución y muerte de las estrellas, explosiones de supernovas, estrellas de neutrones y agujeros negros, expansión del universo y
su nacimiento mediante la teoría de la gran explosión (Big-Bang).
d) Las Comunicaciones ha sido un campo tecnológico de increíble desarrollo en
estos años, en sus dos aspectos: el transporte de información y el transporte de personas
y mercancías. Para el transporte de información se disponía del telégrafo, teléfono, radio
y televisión y en los últimos años se dispone de la telefonía automática vía satélite, el
fax, las redes de comunicaciones mediante ordenadores, internet, el correo electrónico,
la telefonía móvil, las bases de datos de utilización personal, la televisión en alta definición, el teletexto, etc, e imnumerables avances técnicos que sería largo nombrar. Respecto del transporte de mercancías y personas se ha conseguido el transporte aéreo
supersónico, actualmente en entredicho, los vuelos espaciales tanto orbitales como lunares y las sondas lanzadas al sistema solar, el transporte terrestre de alta velocidad, etc.
e) Otros campos de la ciencia se han desarrollado de forma paralela y espectacular. Podemos mencionar, la Química, en el campo de los plásticos, los medicamentos,
nuevos materiales y aleaciones, semiconductores, combustibles, etc. La Electrónica y
Microelectrónica, en el campo de los ordenadores, copiadoras, impresoras, instrumentos
de medida, aparatos de comunicaciones, etc. La Cibernética, en el campo de los robot,
cadenas automáticas de montaje, simuladores, etc. La Climatología y Meteorología, con
sus modernos sistemas de detección y toma de datos, y tanta y tantas ramas de ciencia y
tecnología desarrolladas en estos últimos años, de forma increíble que sólo mencionare-
8/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
mos: Sismología, Hidrodinámica, Óptica, Fotografía, Acústica y Sonido, Automoción,
Metalurgia, Biotecnología, Ecología, Farmacología, Genética, Neurología, Oncología,
Cirugía, etc.
4. LA CIENCIA Y SU CONSTRUCCIÓN
4.1. Definición. Objeto y alcance de la Ciencia.
Se puede decir que la Ciencia es un estilo de pensamiento y una forma de acción
en la relación del hombre con la naturaleza, es el más reciente, el más universal y el
más provechoso de todos los estilos y formas de actuar. En la Ciencia habrá que distinguir esta doble componente, el objeto de la ciencia, que es el conocimiento en última
instancia, y el método de trabajo que es el llamado Método Científico.
La investigación científica comienza con la percepción de que el conocimiento
disponible de un fenómeno es incompleto o insuficiente para resolver problemas que se
plantean. Se parte de conocimientos científicos iniciales y a medida que avanza la investigación se enriquece el conocimiento. El conocimiento popular emplea sólo la información que suministran los sentidos, y es un conocimiento no estructurado, asistemático y
carente de un marco idóneo en el que se integren sus avances. Por el contrario el conocimiento científico sobrepasa el ámbito de los sentidos, hallando explicaciones para aquello que no se ve ni se oye y contrasta estas explicaciones mediante su propio método.
Las discrepancias que existen el saber popular y el conocimiento científico, Sobre
todo en lo concerniente al método de obtener dicho conocimiento, no deben ocultar las
coincidencias que presentan en otros aspectos, especialmente en las opiniones sostenidas por lo que llamar corrientemente sentido común. Efectivamente tanto el conocimiento popular como la ciencia pretenden ser racionales, objetivos y críticos e intentan
adaptarse a los hechos en vez de perderse en especulaciones estériles.
El ideal de racionalidad que pretende la ciencia, es decir, la sistematización coherente de enunciados fundamentados y contrastables, se consigue mediante teorías, que
constituyen la base fundamental del conocimiento científico, no del conocimiento popular. El ideal de la objetividad no se alcanza si no se superan los estrechos límites de la
vida cotidiana, formulando hipótesis de existencia de entes físicos más allá de nuestras
impresiones sensoriales, contrastándolas con otros equipos investigadores interpretándolas con las teorías formuladas. El sentido común sólo puede conseguir una objetividad limitada ya que está muy vinculado a la percepción subjetiva.
La ciencia pretende encontrar un orden, un modelo, una estructura coherente donde se integre la descripción de los fenómenos naturales observados, las relaciones entre
ellos y su explicación racional.
Podemos hacer una clasificación inicial en: 1) Ciencias empíricas y 2) Ciencias no
empíricas o formales. Las Ciencias empíricas se refieren a los fenómenos de la naturaleza, lo que ocurre en nuestro entorno y pretenden describirlos, explicarlos y explotarlos y
a través de ellos predecir nuevos acontecimientos. Por esta conexión con el mundo real,
sus enunciados, hipótesis y leyes deben ser contrastados y probados con la experimentación. Las Ciencias formales (no empíricas) se refieren sólo al orden, a la estructura de
las ideas que surgen de la mente humana.
9/20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
Natural:
Empírica
Ciencia
Formal
Física, Química, Biología, Geología.
Astronomía, etc…
Social:
Sociología, Historia, Economía,
Política, Psicología, etc…
Matemática, Lógica
4.2. El Método Científico.
El método científico es la base de todo el progreso en las ciencias de la naturaleza,
sin embargo, no debe ser considerado como un instrumento automático e infalible para
aplicarlo en la resolución de todos los problemas que se planteen, sino que es una ayuda
a la intuición del investigador que evitará planteamientos incorrectos en su trabajo.
Las diferentes fases del método científico, se fueron introduciendo a lo largo de
muchos años de investigación, en el método de trabajo de científicos y experimentadores. La existencia de un método científico general se manifiesta en el siglo XVII, con
Bacon y Descartes. El primero consideraba el desarrollo científico como un proceso de
inducción pura, se limitaba a un conjunto de reglas para la observación y de ella se obtenían conclusiones definitivas. Descartes propugnaba, sin embargo, el método deductivo y proponía deducir verdades a partir de "principios supremos o fundamentales". Esta
supeditación al método a utilizar, metodolatría, es superada por Galileo, que aporta al
método científico sus componentes principales: proponer hipótesis y someterlas a comprobaciones experimentales, aunque Galileo nunca enunció su método y sólo se limitó a
ponerlo en práctica en su trabajo experimental.
El método científico se ha perfeccionado desde su origen adaptándose al progreso
del trabajo científico. Otras muchas ramas el saber como las ciencias sociales y las ciencias humanas, han adoptado el método científico en su desarrollo, habiéndose convertido éste en un método universal.
4.2.1. Etapas del Método Científico.
La aplicación del método científico a un proceso de investigación implica una
secuencia de etapas a cumplir que describiremos a continuación:
1) Observación del fenómeno nuevo, o detección de una laguna en el conocimiento ya
conocido.
2) Descripción precisa del problema, a ser posible, en lenguaje matemático, o bien
planteamiento del viejo problema a la luz de los conocimientos más recientes.
3) Búsqueda de conocimientos relativos al problema, como datos, teorías, medidas,
técnicas, resultados experimentales, etc. Investigar si la ciencia actual puede resolver el problema que se plantea.
4) Intento de solución para el problema planteado, con los conocimientos y técnicas
actuales. Si no se consigue resultado positivo, pasar a la etapa siguiente.
5) Idear nuevos procedimientos para la resolución del problema, como hipótesis,
teorías o técnicas y obtener nuevos datos empíricos que permitan su resolución.
6) Consecución de una solución del problema, exacta o aproximada, con la ayuda del
material teórico y experimental disponible.
10/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
7) Interpretación la solución obtenida e investigación las consecuencias que se deriven.
Si se trata de una teoría, buscar predicciones que se puedan contrastar y si se trata
de datos nuevos, examinar las consecuencias de ellos sobre la teoría.
8) Contrastar la solución adoptada con la teoría existente en la que se enmarca el problema estudiado. Si el resultado es positivo, el proceso de investigación se considera terminado, de lo contrario, se pasa a la etapa siguiente.
9) Corrección de la teoría, o de las hipótesis que se han formulado, de los procedimientos o datos empíricos empleados en la resolución y el comienzo de un nuevo ciclo
de investigación del problema.
Para afrontar una investigación científica es necesario prepararse sobre la materia,
es decir, adquirir conocimientos específicos, destacar lo que no se conoce y lo que se
desea averiguar, planear la manera de hacerlo, establecer una secuencia de trabajo, etc.
El método científico no sustituye a estos conocimientos previos y técnicas de trabajo
planeados, sino que ayuda a ordenarlos y enriquecerlos. El método científico forma, no
informa. Por ello, la mejor manera de aprender técnicas de investigación no es estudiar
un manual, sino analizar e imitar métodos de eficacia demostrada.
4.2.2. Aspectos empíricos.
Los aspectos empíricos del método científico pueden ser fenómenos naturales,
objetos físicos o incluso la propia observación y experimentación. Analizaremos estos
dos últimos.
La observación se refiere no solamente a los fenómenos perceptibles directamente
por los sentidos, sino más allá de los sentidos, perceptibles sólo utilizando instrumentos
y aparatos que profundizan tanto en lo inmensamente grande como penetran en lo inmensamente pequeño, como es el caso de la observación mediante telescopios, radiotelescopio, microscopio óptico, microscopio electrónico, receptor de radiofrecuencia, etc.
En una observación hemos de distinguir los siguientes aspectos:
- El objeto de la observación.
- El observador que la realiza.
- Las circunstancias ambientales que rodean a la observación.
- Los medios utilizados en la observación.
- El conjunto de conocimientos que forman parte de la observación.
La experimentación es una forma de observación pero realizada en condiciones
controladas por el experimentador en el laboratorio, donde puede controlar y medir
todas las variables que influyen en el fenómeno observado, como tiempo, temperatura,
presión, humedad, etc. La experimentación es la forma de observación más útil con
vistas a la consecución del conocimiento científico. El experimentador puede repetir el
fenómeno, variando deliberadamente las condiciones, lo que aumenta las posibilidades
de distinguir y destacar las variables relevantes en el fenómeno observado y establecer
relaciones cuantitativas entre las variables independientes (que son las manipuladas) y
dependientes. La experimentación desempeña un papel fundamental en la elaboración
de las doctrinas científicas, pues permite someter a prueba los postulados o enunciados
científicos y al mismo tiempo es fuente de nuevos datos, que debidamente interpretados
pueden dar lugar a nuevas hipótesis. Por todo ello, las ciencias experimentales han
tenido un progreso tan acelerado en la historia de las ciencias.
11/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
4.2.3. Aspectos racionales.
Son aspectos racionales de la Ciencia a los elementos elaborados por ella para
describir la realidad, elementos abstractos o teóricos que permiten trascender la realidad. Así, podríamos considerar como racionales los siguientes aspectos: la formulación
matemática de las hipótesis, el lenguaje universal creado para la normalización de la
ciencia, etc. También pueden considerarse como racionales, las formas de razonamiento
propias del método científico, como son: el razonamiento deductivo, que va de los
aspectos generales a lo particular, el razonamiento inductivo, que va de lo particular a lo
general y el razonamiento analógico, que va de lo particular a lo particular.
Al relacionar los aspectos empíricos con los racionales, el investigador crea una
estructura mental que pretende explicar el comportamiento de la naturaleza. Esta estructura mental es lo que se llama hipótesis, ley, teoría o modelo. La hipótesis es una suposición razonable que puede ser contrastada experimentalmente, o sea, ajustarse a la
observación, pero también ha de ajustarse al conjunto de conocimientos científicos ya
contrastados y consolidados. En el concepto de hipótesis podemos distinguir los siguientes niveles:
Ocurrencias, surgidas de ideas geniales o por conocimientos previos, les falta, sin
embargo la adecuada justificación.
Hipótesis empíricas, son conjeturas aisladas que están apoyadas en hechos reales
pero no están contrastadas formalmente, es decir, insertas en una teoría más amplia.
Hipótesis plausibles, son conjeturas razonables no sometidas aún a contrastación
experimental pero pueden llegar a serlo.
Hipótesis convalidadas, son hipótesis contrastadas experimentalmente y aceptadas
plenamente y por esta circunstancia se ha convertido en ley.
En un nivel superior a las hipótesis en sus varios niveles, se encuentran las teorías
y los modelos. Las leyes reúnen todo nuestro conocimiento de lo actual y lo posible de
los fenómenos de la naturaleza, y puede llegar a explicar el origen y la esencia del fenómeno. En todo caso, las teorías unifican leyes, y por medio de ellas, entendemos y
prevemos y adelantamos los acontecimientos. Una teoría será, pues, una estructura
mental coherente donde se insertan hipótesis y leyes y las relaciones entre ellas. En el
marco de una teoría debe tener cabida la experimentación que permita contrastar su
validez. La teoría incluye un conjunto de hipótesis y leyes (principios) y además las
consecuencias lógicas que se derivan de ellas (teoremas). Estas consecuencias hacen
posible que se den las dos condiciones que debe satisfacer toda teoría, su contrastabilidad y su explicabilidad.
En la ciencia tiene mucha importancia el modelo de un fenómeno físico. El concepto de modelo se puede establecer como una configuración teórica e ideal que
representa la teoría de un modo sencillo y simplificado. El modelo relaciona lo abstracto
con lo concreto. Se puede hablar de modelos formales y materiales. Los primeros
representan estructuras idealizadas que se suponen semejantes a un sistema real.
Los modelos matemáticos de las teorías físicas son ejemplos de estos modelos
formales. Los modelos materiales constituyen una representación en términos materiales
de una teoría física y permiten la experimentación en condiciones simplificadas más
favorables que en la realidad.
12/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
5. EJEMPLO DE CONSTRUCCIÓN DE UN HECHO CIENTÍFICO
A lo largo de la historia, se han establecido numerosas teorías y modelos en un
intento de dar una explicación lógica y evidente de los fenómenos de la naturaleza. Las
diversas partes de la Física y de la Química se han ido construyendo sobre teorías y
modelos establecidos y aceptados por la comunidad científica. Así, las leyes de Newton
y los principios de conservación constituyeron la base de la Mecánica, los principios de
la Termodinámica sientan las bases de esta rama de la Física, las ecuaciones de
Maxwell sientan las bases del Electromagnetismo, etc.
5.1. Naturaleza y Propagación de la Luz.
Un ejemplo histórico muy ilustrativo de construcción de una teoría científica con
su correspondiente modelo, es el de la naturaleza y propagación de la luz. Como es
sabido actualmente, la luz que impresiona nuestra retina es sólo una pequeña fracción
de la energía que emite un cuerpo luminoso y que sus magnitudes físicas (frecuencia,
intensidad, etc) se puede detectar por diversos instrumentos. A lo largo del espectro de
luz solar los instrumentos que detectan estas magnitudes varían sus indicaciones de
modo continuo de una parte a otra de la región a la que es sensible el ojo. Es decir, se
pasa sin solución de continuidad de la luz visible a la ultravioleta, rayos X o rayos γ por
un lado o a la infrarroja, ondas hertzianas y ondas medias y largas por otro. Parece que
todas estas radiaciones son manifestaciones diversas de una idéntica forma de energía
llamada energía radiante.
Desde antiguo, se ha preocupado el hombre por conocer la naturaleza de la luz y
en general de la radiación. La historia de la evolución del pensamiento acerca de esta
cuestión es una de las más apasionantes de la ciencia, por eso la exponemos como ejemplo de construcción de un hecho científico.
Dos hipótesis contradictorias, sobre la naturaleza de la luz, han mereciendo la
atención de los científicos a lo largo de muchos años sin que ninguna de ellas llegara a
aceptarse como definitiva. Son la teoría ondulatoria y la teoría corpuscular.
Según la teoría ondulatoria, la luz es una perturbación de carácter ondulatorio
(onda) que se propaga desde un foco luminoso a través del medio. Según la teoría corpuscular la luz está constituida por pequeñas partículas o corpúsculos desde el foco
radiante al observador a través del medio. Las dos teorías tuvieron un desarrollo paralelo e independiente a lo largo de muchos años.
La teoría ondulatoria fue utilizada por Christian Huygens (siglo XVII) para explicar los fenómenos de propagación, reflexión, refracción y doble refracción de la luz en
los medios transparentes. Para Huygens la luz es una onda mecánica que se propaga en
un medio elástico ideal (éter) existente tanto en el interior de los cuerpos materiales
como en vacío interestelar. Estas ideas ondulatorias no eran aceptadas por todos los
científicos contemporáneos, pues contra ella se objetaba que si la luz era un movimiento
ondulatorio, deberían doblar obstáculos en su propagación y, por tanto, no existirían
sombras. La inflexión de las ondas luminosas en los bordes de un obstáculo, fue observada por Grimaldi (1665) pero no se le dio importancia (difracción). Hoy sabemos que
la longitud de onda de la luz es tan pequeña que estos fenómenos no resultan observables fácilmente con luz.
13/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
La teoría corpuscular fue defendida por Isaac Newton (siglo XVIII) y adquirió un
gran predicamento en la ciencia de entonces debido al enorme prestigio que poseía este
científico inglés. Explicó la reflexión y la refracción de la luz llegando a conclusiones
sorprendentes.
Frente a ello, las experiencias de Young ponen de manifiesto que luz mas luz
podía dar oscuridad, en virtud de fenómenos de interferencia (típicos fenómenos ondulatorios) que resultaban difícilmente justificables mediante una teoría corpuscular.
Posteriormente los trabajos de Fresnel, pudieron demostrar que las sombras de los
obstáculos eran explicables por la teoría ondulatoria y el principio de Huygens. Así, esta
teoría obtuvo una serie de éxitos tan resonantes que parecía totalmente enterrada la
teoría corpuscular.
Mas tarde, Fresnel consiguió explicar la polarización de la luz gracias a su hipótesis del carácter transversal de las ondas luminosas. El último gran avance de la teoría
ondulatoria de la luz fue la demostración de Maxwell en 1873 de que un circuito oscilante debería radiar ondas electromagnéticas, hecho que fue comprobado experimentalmente por Hertz en 1887, y que su velocidad de propagación, determinada por medidas
puramente eléctricas y magnéticas, resultó, dentro de los límites de error experimental,
coincidente con la velocidad de la luz, determinada por otros diversos métodos (satélites
de Júpiter, método de Fizeau, etc).
Como consecuencia de estos experimentos, se aceptó de manera generalizada que
la luz es una vibración electromagnética y el éter elástico se identificaba con el medio
(vacío) en el que se propagaban las ondas electromagnéticas. De esta forma, la objeción
fundamental de la teoría ondulatoria, que obligaba a asignar al éter una elasticidad y
rigidez extraordinarias para justificar la enorme velocidad de propagación de la luz,
quedaba descartada al no existir tal éter.
A principios del siglo XX se creía que poco se podía añadir al conocimiento
acumulado sobre la teoría electromagnética de la luz o de la radiación, que se consideraba como un capítulo terminado de la Física. Pero cuando la vieja controversia ondulatorio-corpuscular parecía acabada, se descubren nuevos fenómenos naturales que resucitan los viejos argumentos en favor de los corpúsculos de luz.
Entre los nuevos fenómenos descubiertos, destaca el Efecto Fotoeléctrico, inexplicable mediante la teoría ondulatoria y que tan fácilmente se interpreta mediante las
ideas de Planck y de Einstein sobre la existencia de corpúsculos de luz o fotones,
pequeños paquetes en los que se concentra la energía de la onda electromagnética, en
lugar de estar distribuida por toda la onda de manera uniforme. En otras palabras, de
acuerdo con las ideas actuales, se conserva la naturaleza ondulatoria, puesto que se
considera al fotón dotado de una determinada frecuencia y poseyendo una energía proporcional a ella (hν), pero dicha onda, en todas sus interacciones con la materia, actúa
con carácter discreto, es decir, en forma corpuscular.
Otro fenómeno que confirma la naturaleza corpuscular de la luz en sus interacciones con la materia es el Efecto Compton que consiste en el choque de un fotón con
un electrón, donde se conserva la energía y el momento lineal como si se tratara realmente de dos partículas materiales que colisionan como dos bolas de billar.
14/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
Tanto el Efecto Fotoeléctrico como el Efecto Compton, por su carácter corpuscular, parecen exigir un retorno a la teoría corpuscular de la luz. Sin embargo, el punto de
vista actual de los científicos, frente a experiencias aparentemente contradictorias es
aceptar el hecho de que la luz parece tener una doble naturaleza: cuando se propaga o
interacciona consigo misma se comporta como onda electromagnética pero cuando
interacciona con la materia, se comporta como corpúsculo.
En otras palabras, un foco de luz monocromática emite ondas de determinada
frecuencia, de acuerdo con las teorías elásticas o electromagnéticas, pero dichas ondas
no son los vehículos de la energía, ya que cuando la radiación actúa sobre la materia lo
hace por intermedio del fotón. La amplitud de la onda en cada punto determina la
densidad probable de los fotones en el mismo, de forma que donde aquélla sea nula lo
será también la probabilidad de encontrar un fotón, mientras que en los puntos en que
dicha amplitud sea máxima, la probabilidad de encontrar un fotón será máxima. De esta
forma se conservan los resultados obtenidos mediante la teoría ondulatoria a propósito
de las franjas de interferencia o de difracción: la onda luminosa se convierte en una
onda de probabilidad de presencia de un fotón.
La síntesis de estas dos teorías, irreconciliables, fue obra del físico francés Louis
de Broglie quien al fundir en un concepto único las ideas de onda y corpúsculo unificó
la Mecánica, el Electromagnetismo y la Óptica, creando una disciplina nueva denominada Mecánica Ondulatoria, cuyo desarrollo se debe principalmente a Schrödinger. La
hipótesis de De Broglie, dualidad onda-corpúsculo, supone la culminación del modelo
de la luz, iniciado con la teoría ondulatoria en el siglo XVII y construido a través de los
siglos mediante la aplicación sistemática del método científico, donde las hipótesis
emitidas y no confirmadas experimentalmente se desechaban y se emitían nuevas hipótesis que habían de ser confirmadas a la luz de los nuevos fenómenos descubiertos. El
modelo de la luz se fue perfeccionando y depurando en una síntesis de todas las ramas
de la Física.
6. LOS CIENTÍFICOS Y SUS CONDICIONAMIENTOS SOCIALES
Un científico estudia los procesos en sí mismos, pretende conocer lo más profundamente el ¿por qué? del mundo que le rodea. Un técnico, hombre de ciencia también,
aplica a la práctica los descubrimientos realizados por los científicos y debe tener una
mente eminentemente práctica. Es en la aplicación técnica de la ciencia donde encuentra
divulgación al gran público el trabajo callado y sistemático de los investigadores científicos.
La figura del investigador aislado, desordenado y distraído, es legendaria. El trabajo de investigación se debe realizar sistematizando y abarcando un frente de trabajos
complementarios, para poder ver simultáneamente y con la colaboración del equipo, los
problemas en toda su extensión y desde todos los puntos de vista para llegar a establecer
teorías o métodos lo más amplios posible.
El trabajo de los investigadores científicos, como cualquier otra profesión humana, sufre las presiones e influencias de los condicionamientos sociales y laborales en la
actual sociedad. Estas presiones pueden tener distinto origen: pueden proceder del
contenido mismo de su propio trabajo, del lugar donde se desarrollan sus tareas y en
algunos casos de la propia ética del investigador que se cuestiona el uso de los resul-
15/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
tados de sus investigaciones. Otra presión importante sobre el investigador científico es
la creada por la posibilidad de cambiar la actividad investigadora por otro trabajo mejor
remunerado.
6.1. Los condicionamientos sociales a la investigación en España.
Tal como se realiza la investigación científica en países menos desarrollados
como es España, los condicionamientos sobre los investigadores científicos pueden ser
muy importantes, considerando que su profesión es poco reconocida en general y la
sociedad no le gratifica suficientemente. Los investigadores están tentados de abandonar
sus actividades y cambiar de profesión, buscando otras profesiones que le compensen
más, tanto en lo social como en lo económico. Existen alternativas, como emigrar a
otros países donde las condiciones del trabajo científico son mejores y más reconocido
su prestigio social.
Múltiples estudios y encuestas realizadas entre los profesionales de la investigación científica indican que existe un alto grado de inestabilidad y de frustración, al
menos potencial, en la comunidad científica española. Los químicos, los físicos y los
matemáticos, por este orden y en porcentajes progresivamente más elevados abandonarían la investigación para trabajar como profesionales en empresas, pero no en la investigación científica y es la enseñanza, la industria y los negocios los objetivos alternativos. Los investigadores españoles estarían dispuestos a dejar sus trabajos actuales por
unas posibilidades de trabajo dentro o fuera de España, más remuneradas y satisfactorias.
Todo lo expuesto demuestra, no una falta de motivación inicial por parte de los
investigadores españoles, sino más bien una crisis en el funcionamiento y organización
de la investigación en España. La "organización científica" española no ha sido capaz de
sostener y apoyar la motivación y el compromiso inicial de los investigadores. Al principio muchos licenciados recién salidos de la Universidad pensaron en la investigación
científica como una verdadera oportunidad de trabajo y, aunque sin vocación definida,
aceptaron el trabajo con interés y entusiasmo. Pero fueron constatando que la profesión
elegida no estaba bien pagada, no confería status social satisfactorio, no existían posibilidades de promoción profesional, la condiciones del trabajo de investigación eran precarias, etc. y tras unos años abandonan su profesión más debido a un sentimiento de
frustración ante la realidad que a una falta de motivación inicial.
Por otro lado, como el sistema no se preocupaba demasiado de la investigación
científica y sus investigadores, tampoco les pedía demasiado a cambio. A la sociedad y
sus dirigentes les bastaba saber que existían algunos centros de investigación científica
en los que se "hacía algo" y para cumplir estos mínimos de exigencia de la sociedad
bastaba a los investigadores "estar allí", ir al trabajo conforme a un horario y realizar
más o menos una cierta labor. No se consideraba el nivel de productividad científica y
sólo la honestidad y honradez personales les impulsaba a mantener niveles de respetable
productividad investigadora.
6.2. Las motivaciones de los científicos españoles.
El motivo que debe impulsar fundamentalmente a un científico es el compromiso
que contrae con la misma ciencia (según R.K.Merton). Desde esta perspectiva, el
16/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
científico trataría, ante todo, de descubrir y conocer la materia y la naturaleza en sí
mismas. Por otra parte, el científico espera que los colegas de profesión reconozcan su
trabajo investigador y este reconocimiento es el que da al investigador la garantía de que
ha conseguido la meta de su trabajo, es decir, que ha cumplido las exigencias profesionales de su trabajo como investigador.
En estudios y encuestas realizadas entre científicos españoles para determinar las
motivaciones de éstos de encaminarse por la investigación científica, no mencionan explícitamente como razón el hacer avanzar la Ciencia como tal (motivación de Merton),
sino que alegan motivos de preferencia personal, de oportunidad laboral, o incluso de
equivocación profesional. Aunque la motivación de Merton no es frecuente se considera
muy positivo que las motivaciones fundamentales de los científicos españoles sean por
vocación y preferencias personales, porque eso es lo que les gusta y les atrae hacer.
En conexión con las motivaciones personales de los científicos españoles está la
opinión de muchos de ellos de que la mayor parte de la investigación científica que
realizan está obsoleta y anticuada si se compara con la que se lleva a cabo en otros
países más avanzados. El hecho se demuestra porque en los 20 últimos años, España
no ha aportado a la ciencia ningún descubrimiento científico reconocido. Respecto del
futuro, las opiniones son algo más optimistas por las mejores perspectiva de la investigación científica.
Como grupo, no parece que los científicos españoles estén muy motivados por
deseos personales profundos de hacer avanzar la Ciencia por la Ciencia en sí y puede
concluirse que el trabajo de tesis doctoral de los jóvenes investigadores contribuyó muy
poco a orientarles en este sentido. Sus profesores ciertamente no parece que aprovecharan bien la oportunidad que se ofrecía en este momento clave en la formación de un
investigador. A medida que los investigadores avanzan en edad sus motivaciones para el
trabajo científico evoluciona hacia consideraciones más prosaicas y personales. Tiende
a abandonar la labor investigadora de laboratorio y a ocupar dentro de la organización
científica, puestos directivos y políticos, de muy bajo nivel de productividad investigadora.
Los científicos de más edad demuestran una falta contrastada de motivación profunda y una baja productividad. Los investigadores jóvenes los contemplan y escuchan
y ante su ejemplo no se sienten estimulados para un trabajo de investigación en profundidad. Esta situación es un factor decisivo a la hora de explicar la mediocridad con
que se inculca a los alumnos el amor a la Ciencia.
En general se puede afirmar que la Universidad no es efectiva, como debería
serlo, a la hora de motivar a los jóvenes científicos. Las ayudas que podrían prestar a los
licenciados que realizan sus tesis doctorales sería un camino fácil y barato para despertar y mantener el interés y la motivación en la investigación científica. De hecho, esto
no es hoy así y este apoyo debería ser revisado y potenciado de modo más adecuado en
el futuro.
7. LAS ACTITUDES CIENTÍFICAS EN LA VIDA COTIDIANA
El trabajo de investigación científica tanto en su vertiente de investigación en
ciencia pura como de investigación en ciencia aplicada requiere de unas actitudes y
17/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
cualidades humanas, que en algunos casos podremos considerar como excepcionales,
dadas las condiciones, a veces deplorables, en que se desarrolla el trabajo de investigación, el poco reconocimiento de la sociedad por dicho trabajo y la mala consideración
retributiva y económica de nuestros investigadores.
Las actitudes y cualidades que debe reunir un buen investigador en la ciencia, no
sólo repercute en su trabajo de investigación sino también en la vida social y familiar en
que se desarrolla y vive la persona. A lo largo de la historia de la Ciencia hemos visto
cómo las figuras más destacadas de la ciencia y la investigación han destacado también
como figuras de gran prestigio social y humano y han tenido influencia en decisiones
que afectan a la sociedad.
Las cualidades del investigador científico y del estudioso de la ciencia, pueden
influir decisivamente en los resultados de su trabajo de investigación y las consecuencias pueden ser de envergadura. Así, el científico:
a) Debe poseer un alto grado de honestidad y honradez en su trabajo de investigación, tanto en el caso de resultados positivos como negativos, y no tratar de engañarse a
sí mismo y a los demás en aras de un éxito y un prestigio inmediatos, frente a otros
colegas o equipos que trabajan en la misma línea de investigación.
b) Ha de ser riguroso y objetivo, tanto en el planteamiento de su trabajo de
investigación, en su ejecución, en la obtención y análisis de resultados y en la deducción
de conclusiones. La ciencia representa la imagen propia del rigor y la objetividad y por
ello, las opiniones del científico se presentan como argumentos indiscutibles y hasta
como argumentos de autoridad.
c) Debe poseer un gran tesón y paciencia a la hora de afrontar hasta el final, una
línea de investigación en su trabajo, pues la investigación científica es un trabajo a muy
largo plazo y a veces los resultados no se producen sino después de generaciones de
científicos. Los continuos resultados negativos de una investigación pueden ocasionar
desánimo, cansancio, aburrimiento y abandono, lo que llevaría a dejar inacabada la
investigación con la consiguiente pérdida del dinero invertido. Véase, como ejemplo de
investigación a largo plazo, la relacionada con la lucha contra enfermedades como el
cáncer o el SIDA, que tras muchos años de investigaciones y trabajos, no se ve la luz
del final del túnel.
d) El investigador científico debe ser desprendido y generoso. En lo que se refiere
a retribución económica por el trabajo científico, ciertamente este trabajo no hace rico a
ninguna persona (son contados los casos como Alfred Nobel) e incluso las condiciones
de trabajo suelen ser, en países de claro subdesarrollo científico, muy deplorables, por lo
que la vocación científica exige desprendimiento y generosidad para dar y no recibir.
Muchas de las deserciones en el trabajo de investigación tiene este origen, por lo que la
sociedad tiene que tomar conciencia de retribuir mejor a sus investigadores científicos
como una gran inversión a largo plazo.
e) El científico de vocación suele ser modesto y humilde, en cuanto a su saber y
conocimiento de la Ciencia, pues el trato diario con todos estos conocimientos nos
demuestra que cuanto más se avanza en el saber y comprensión de los fenómenos es
tanto más lo que se ignora y lo que falta por descubrir. A todo gran avance en el conocimiento científico se plantean nuevos interrogantes que amplía el horizonte de la ignorancia humana.
f) Las personas dedicadas a la investigación científica, especialmente en estos
tiempos modernos, han de ser tolerantes, respetuosos y comprensivos con las actitudes
de los demás, pues actualmente, el trabajo de investigación se lleva a cabo en equipo, es
18/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
decir, mediante grupos de personas especializadas que, debidamente conjuntadas,
realizan un trabajo que individualmente sería imposible de realizar. La actividad científica actual es tan compleja que ha de realizarse en equipo o en equipos multidisciplinares y esto obliga a sus componentes a desarrollar actitudes de tolerancia, a compartir
éxitos y fracasos, a comunicar ideas e inquietudes, a discutir, debatir y consensuar
situaciones, planteamientos y estrategias para afrontar el trabajo de investigación. En
resumen, ha de perder la tradicional individualidad del "sabio clásico" y desarrollar
actitudes sociales y colectivas propias de un equipo.
A pesar de todo, a lo largo de la historia, la ciencia no ha estado exenta de engaños, plagios y fraudes. Los resultados científicos son producto de una actividad humana
y social, son objeto de discusiones entre especialistas y acabarán en acuerdos o en desacuerdos, pero también puede llegarse a un resultado impuesto por la autoridad y el
prestigio de una "eminencia científica". Debido a ello, las investigaciones científicas no
están a cubierto de actividades fraudulentas que se dan en cualquier otra actividad
humana: política, económica, financiera, social, etc. Los fraudes en la ciencia, aunque
han existido, no han sido frecuentes y están condenados al fracaso.
BIBLIOGRAFIA RECOMENDADA
Manuel R.ORTEGA GIRÓN. Lecciones de Física. Mecánica 1. Departamento de
Física Aplicada. Universidad de Córdoba. CÓRDOBA.
¿Por qué investigan los científicos españoles?. Revista MUNDO CIENTÍFICO 3
Editorial Fontalba.
Joaquín CATALA DE ALEMANY. Física General. SABER. Entidad española de
librería. VALENCIA.
Santiago BURBANO DE ERCILLA. Enrique BURBANO GARCÍA y Carlos
GARCÍA MUÑOZ. Física General. XXXI Edición. Mira Editores. ZARAGOZA.
19/ 20
www.eltemario.com
© Antonio Abrisqueta García, 1999
Oposiciones Secundaria-Física y QuímicaTemario Específico-Tema 1
Tratamiento Didáctico
---------------------------------------------------------------------------------------------------------OBJETIVOS
Definir qué es la Ciencia y establecer sus principales objetivos.
Describir los grandes pasos dados por la Ciencia en la historia.
Establecer el Método Científico como el sistema más adecuado para construir
ciencia.
Conocer las condiciones de la investigación científica en la actual sociedad y las
actitudes requeridas para ello.
UBICACION
El tema puede ubicarse en el Primer curso de Bachillerato aunque debe impartirse, en
todo el bachillerato, como un tema transversal de carácter interdisciplinar, al tratarse
fundamentalmente de un tema sobre filosofía de la ciencia.
TEMPORIZACION
Dos horas de clase en primer curso de Bachillerato.
Dos horas de clase en segundo curso de Bachillerato.
METODOLOGIA
Se utilizará una metodología expositiva con participación crítica de los alumnos en
los diferentes aspectos sobre los métodos de la ciencia y su aplicación a situaciones
reales o históricas.
Deben utilizarse medios audiovisuales de ayuda a la exposición como vídeos sobre
historia de la ciencia o del método científico.
CONTENIDOS MINIMOS
Concepciones básicas en el desarrollo de la ciencia.
Principales revoluciones en la historia de la ciencia.
El método científico y sus etapas de desarrollo.
Obtención de conclusiones del método científico.
Ejemplo de construcción de un hecho científico.
Motivaciones básicas para la investigación científica.
Actitudes para la investigación científica.
MATERIALES Y RECURSOS DIDACTICOS
Libro de texto. Libros de consulta sobre filosofía de la ciencia.
Visita a museos de ciencia o museos de centros de enseñanza para contemplación de
aparatos antiguos de laboratorio.
Visitas a centros de investigación científica con entrevistas, por los estudiantes al
personal investigador.
EVALUACION
Pruebas objetivas sobre conceptos fundamentales del tema valorando comprensión,
memorización y aplicación de estos conceptos.
La observación del profesor de la actitud y el trabajo diario constituye un
instrumento valioso aunque subjetivo para la evaluación de cualquier tema.
Valoración del trabajo desarrollado fuera del aula como visitas, entrevistas y trabajos
de campo.
20/ 20
Descargar